JP2000270264A - Picture processor and its method - Google Patents

Picture processor and its method

Info

Publication number
JP2000270264A
JP2000270264A JP11069047A JP6904799A JP2000270264A JP 2000270264 A JP2000270264 A JP 2000270264A JP 11069047 A JP11069047 A JP 11069047A JP 6904799 A JP6904799 A JP 6904799A JP 2000270264 A JP2000270264 A JP 2000270264A
Authority
JP
Japan
Prior art keywords
data
character
cpu
user
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11069047A
Other languages
Japanese (ja)
Inventor
Yoshihiro Yoshioka
義博 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11069047A priority Critical patent/JP2000270264A/en
Publication of JP2000270264A publication Critical patent/JP2000270264A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently control picture data by allowing a storing means to store only data concerning the movement of a display element whose display position is varied with respect to a reference frame. SOLUTION: Among plural display elements to be displayed in different frames with respect to a reference frame, only data concerning the movement of a display element whose display position is varied with respect to a reference frame are stored in a storing means. In this device, a CPU 3 controls the whole of a video title generating device 1 prescribed arithmetic processing, and is capable of accessing a memory 7 and a cache 9 via a system controller 5 connected to a host bus B1. In addition, the CPU 3 writes and store data in the memory 7 consisting of e.g. a DRAM via the controller 5 and reads data stored in the memory 7.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置及びそ
の方法に関し、例えば映像に重ねて表示するための映像
タイトルを生成する映像タイトル生成装置に適用して好
適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a method therefor, and is suitably applied to, for example, a video title generating apparatus for generating a video title to be displayed on a video.

【0002】[0002]

【従来の技術】従来、映像に重ねて表示するための映像
タイトルを生成する映像タイトル生成装置では、当該映
像タイトルを3次元表示する場合、生成した2次元の文
字に対して影を付けるような画像処理を2次元的に施す
ことにより、当該2次元の文字を疑似的に3次元表示す
るしかなかった。そこで3次元の映像タイトルを生成し
たい場合には、3次元モデリングシステムと呼ばれるア
ルゴリズムからなるCG(Computer Graphics )制作用
アプリケーションを用いて生成するようになされてい
る。
2. Description of the Related Art Conventionally, in a video title generating apparatus for generating a video title to be superimposed on a video, when displaying the video title in three dimensions, a shadow is applied to the generated two-dimensional characters. By performing image processing two-dimensionally, the two-dimensional character has to be displayed in a pseudo three-dimensional manner. Therefore, when it is desired to generate a three-dimensional video title, it is generated using a computer graphics (CG) production application composed of an algorithm called a three-dimensional modeling system.

【0003】[0003]

【発明が解決しようとする課題】ところでこのような3
次元モデリングシステムは、まず複数種類の3次元文字
列を生成し、当該複数種類の3次元文字列のうち所望の
3次元文字列のみに動きを付加することにより、静止画
として扱われる3次元文字列と動画して扱われる3次元
文字列からなる映像タイトルを生成する場合がある。
However, such a 3
The 3D modeling system first generates a plurality of types of 3D character strings, and adds motion only to a desired 3D character string among the plurality of types of 3D character strings, thereby forming a 3D character string treated as a still image. In some cases, a video title composed of a column and a three-dimensional character string treated as a moving image is generated.

【0004】従来の3次元モデリングシステムは、この
ような静止画領域と動画領域とを有する映像タイトルを
記憶手段に記憶する場合、当該映像タイトル全体を動画
像とみなして当該動画像を形成する各静止画像(フレー
ム)のデータを全て記憶するようになされている。
In a conventional three-dimensional modeling system, when a video title having such a still image area and a moving image area is stored in a storage means, the entirety of the video title is regarded as a moving image and each of the video titles forming the moving image is regarded as a moving image. All the data of the still image (frame) are stored.

【0005】このように従来の3次元モデリングシステ
ムでは、静止している3次元文字列のデータを全てのフ
レームにわたって記憶しているため、記憶するデータ量
が増大する不都合があった。また従来の3次元モデリン
グシステムでは、動画像とみなされた映像タイトルを静
止画像の映像タイトルとは別に管理及び記憶するように
なされており、当該映像タイトルを管理する管理方法が
複雑になっていた。
As described above, in the conventional three-dimensional modeling system, since the data of a stationary three-dimensional character string is stored over all frames, there is a disadvantage that the amount of data to be stored increases. Further, in the conventional three-dimensional modeling system, a video title regarded as a moving image is managed and stored separately from the video title of a still image, and a management method for managing the video title is complicated. .

【0006】本発明は以上の点を考慮してなされたもの
で、従来に比して一段と効率的に画像データを管理し得
る画像処理装置及びその方法を提案しようとするもので
ある。
The present invention has been made in view of the above points, and has as its object to propose an image processing apparatus and method capable of managing image data more efficiently than in the past.

【0007】[0007]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、基準フレームに対して時間的に異
なるフレームに表示される複数の表示要素のうち、当該
表示要素の表示位置が基準フレームに対して変化した表
示要素の動きに関するデータのみを記憶手段に記憶する
記憶制御手段を設けるようにした。
According to the present invention, in order to solve the above-mentioned problem, among a plurality of display elements displayed in frames temporally different from a reference frame, a display position of the display element is changed to a reference frame. The storage control means for storing only data relating to the changed movement of the display element in the storage means is provided.

【0008】基準フレームに対して時間的に異なるフレ
ームに表示される複数の表示要素のうち、当該表示要素
の表示位置が基準フレームに対して変化した表示要素の
動きに関するデータのみを記憶手段に記憶することによ
り、従来のように表示位置の変化がない表示要素を記憶
する場合に比して記憶手段に記憶するデータ量を削減す
ることができる。
[0008] Of the plurality of display elements displayed in frames temporally different from the reference frame, only data relating to the movement of the display element whose display position has changed with respect to the reference frame is stored in the storage means. By doing so, it is possible to reduce the amount of data to be stored in the storage unit, as compared with the case where a display element whose display position does not change as in the related art is stored.

【0009】[0009]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0010】(1)映像タイトル生成装置の構成 図1において、1は全体として映像タイトル生成装置を
示し、ユーザの操作に応じて映像タイトルを生成して当
該映像タイトルを映像に重ねて表示し得るようになされ
ている。CPU(Central Processing Unit )3は、映
像タイトル生成装置1全体の制御及び所定の演算処理を
行うためのものであり、ホストバスB1に接続されてい
るシステムコントローラ5を介してメモリ7及びキャッ
シュ9にアクセスし得るようになされている。
(1) Configuration of Video Title Generating Apparatus In FIG. 1, reference numeral 1 denotes a video title generating apparatus as a whole, which can generate a video title in response to a user operation and display the video title superimposed on the video. It has been made like that. The CPU (Central Processing Unit) 3 is for controlling the entire video title generating apparatus 1 and performing predetermined arithmetic processing, and is provided to the memory 7 and the cache 9 via the system controller 5 connected to the host bus B1. It is made accessible.

【0011】CPU3は、システムコントローラ5を介
して例えばDRAM(Dynamic Random Memory )でなる
メモリ7にアクセスすることにより、当該メモリ7にデ
ータを書き込んで記憶すると共に、当該メモリ7から記
憶されているデータを読み出すようになされている。キ
ャッシュ9は、メモリ7に記憶されているデータのう
ち、CPU3が頻繁にアクセスするデータを記憶するた
めのものである。従ってCPU3は、メモリ7に記憶さ
れているデータのうち、一度アクセスしたデータをキヤ
ッシュ9に記憶しておき、再び同一のデータが必要な場
合には、キャッシュ9にアクセスして当該必要なデータ
を読み出すようになされている。
The CPU 3 accesses the memory 7 composed of, for example, a DRAM (Dynamic Random Memory) via the system controller 5 to write and store data in the memory 7 and to store data stored in the memory 7. Is read. The cache 9 is for storing data frequently accessed by the CPU 3 among data stored in the memory 7. Therefore, among the data stored in the memory 7, the CPU 3 stores the data once accessed in the cache 9, and when the same data is required again, accesses the cache 9 and stores the required data. It is read out.

【0012】さらにCPU3は、システムコントローラ
5を介してPCI(Peripheral Component Interconnec
t )バスB2に接続され、当該PCIバスB2に接続さ
れているI/O(Input/Output)コントローラ11、グ
ラフィックスアクセラレータ13及びフレームバッファ
15にアクセスし得るようになされている。I/Oコン
トローラ11は、PCIバスB2及びISA(Industry
Standard Architecture)バスB3に接続され、当該P
CIバスB2及びISAバスB3を介してデータの送受
信の制御を行うようになされている。ハードディスクコ
ントローラ17は、I/Oコントローラ11に接続さ
れ、CPU3からI/Oコントローラ11を介して供給
されるアクセス要求に基づいて、プログラムデータ記憶
手段としてのHDD(Hard Disk Drive )19の所定の
領域に対してデータの読み書きを行う。HDD19は、
内蔵するハードディスクに、オペレーティングシステム
(OS)及び映像タイトルを生成するためのアプリケー
ションプログラムでなるソフトウェア資源を格納してい
る。
Further, the CPU 3 transmits a PCI (Peripheral Component Interconnect) through the system controller 5.
t) It is connected to the bus B2 and can access an I / O (Input / Output) controller 11, a graphics accelerator 13, and a frame buffer 15 connected to the PCI bus B2. The I / O controller 11 is connected to the PCI bus B2 and an ISA (Industry
Standard Architecture) connected to bus B3,
The transmission and reception of data is controlled via the CI bus B2 and the ISA bus B3. The hard disk controller 17 is connected to the I / O controller 11 and based on an access request supplied from the CPU 3 via the I / O controller 11, a predetermined area of an HDD (Hard Disk Drive) 19 as program data storage means. Read and write data to HDD 19 is
A built-in hard disk stores software resources including an operating system (OS) and an application program for generating a video title.

【0013】グラフィックスアクセラレータ13は、C
PU3からシステムコントローラ5を介して供給される
描画命令に基づいて、オペレーティングシステムやアプ
リケーションプログラムなどに応じた画像を表示手段と
してのディスプレイ21に描画して表示する。フレーム
バッファ15は、CPU3からシステムコントローラ5
を介して供給される表示命令に基づいて、外部の映像供
給手段から供給される映像信号を合成表示手段としての
モニタ23に表示するようになされている。
The graphics accelerator 13 is a C
Based on a drawing command supplied from the PU 3 via the system controller 5, an image corresponding to an operating system, an application program, or the like is drawn and displayed on a display 21 as a display unit. The frame buffer 15 is transmitted from the CPU 3 to the system controller 5.
The video signal supplied from the external video supply means is displayed on the monitor 23 as the composite display means based on the display command supplied via the.

【0014】キーボードコントローラ25は、ユーザの
入力操作に応じて入力手段としてのキーボード27から
入力された入力情報をI/Oコントローラ11及びシス
テムコントローラ5を介してCPU3に通知すると共
に、入力情報をI/Oコントローラ11を介してグラフ
ィックスアクセラレータ13に送出して当該入力情報に
応じた画像をディスプレイ21に表示させる。
The keyboard controller 25 notifies the CPU 3 of input information input from a keyboard 27 as input means in response to a user's input operation, via the I / O controller 11 and the system controller 5, and transmits the input information to the CPU 3. The image is transmitted to the graphics accelerator 13 via the / O controller 11, and an image corresponding to the input information is displayed on the display 21.

【0015】マウスコントローラ29は、ユーザの操作
によって入力手段としてのマウス31が動くと、当該マ
ウス31の移動方向や距離でなる動き情報をI/Oコン
トローラ11及びシステムコントローラ5を介してCP
U3に通知し、当該CPU3の制御によってディスプレ
イ21上のマウスカーソルをマウス31の動きに応じて
移動させる。
When a mouse 31 as an input means is moved by a user's operation, the mouse controller 29 transmits the movement information indicating the moving direction and the distance of the mouse 31 to the CP via the I / O controller 11 and the system controller 5.
U3 is notified, and the mouse cursor on the display 21 is moved according to the movement of the mouse 31 under the control of the CPU3.

【0016】ところで図2に示すように、HDD19に
格納されているアプリケーションプログラム40は、オ
ブジェクト指向型のプログラム言語によって作成され、
具体的にはGUI(Graphical User Interface)オブジ
ェクト42、レンダリング・オブジェクト44、モデリ
ング・オブジェクト46、ドキュメント・オブジェクト
48及びフレーム・バッファ・オブジェクト50の各構
成要素から構成されている。
As shown in FIG. 2, the application program 40 stored in the HDD 19 is created by an object-oriented programming language.
More specifically, it is composed of components of a GUI (Graphical User Interface) object 42, a rendering object 44, a modeling object 46, a document object 48, and a frame buffer object 50.

【0017】GUIオブジェクト42は、ユーザによっ
て行われる全ての操作の定義、各操作で指定された各種
パラメータの保存、各操作によるディスプレイ21への
表示更新処理を行うものである。またGUIオブジェク
ト42は、各オブジェクトとのユーザインターフェイス
であり、各操作に応じてレンダリング・オブジェクト4
4を動作させるためのメッセージ情報M1、ドキュメン
ト・オブジェクト48を動作させるためのメッセージ情
報M2及びフレーム・バッファ・オブジェクト50を動
作させるためのメッセージ情報M3を生成し、これらを
対応するオブジェクトに通知する。
The GUI object 42 defines all operations performed by the user, saves various parameters specified by each operation, and updates the display on the display 21 by each operation. The GUI object 42 is a user interface with each object, and the rendering object 4 according to each operation.
The message information M1 for operating the document object 4, the message information M2 for operating the document object 48, and the message information M3 for operating the frame buffer object 50 are generated and notified to the corresponding objects.

【0018】表示制御手段としてのレンダリング・オブ
ジェクト44は、GUIオブジェクト42からメッセー
ジ情報M1が与えられると、ドキュメント・オブジェク
ト48から描画に必要なパラメータでなるパラメータ情
報を受け取り、当該パラメータ情報に基づいてディスプ
レイ21に描画処理を実行するようになされている。立
体化手段としてのモデリング・オブジェクト46は、キ
ーボード27(図1)から指定された文字データを基に
多角形の面(以下、これをポリゴンと呼ぶ)によって構
成される3次元文字を生成する。ところでレンダリング
・オブジェクト44は、GUIオブジェクト42におい
てユーザが表示を更新すべき操作を行ったか否か判断
し、その結果、表示を更新すべき操作を行ったと判断し
た場合には、モデリング・オブジェクト46を起動させ
るためのメッセージ情報M4を生成し、当該メッセージ
情報M4をモデリング・オブジェクト46に与えること
により、モデリング・オブジェクト46を起動するよう
になされている。
Upon receiving the message information M1 from the GUI object 42, the rendering object 44 as display control means receives parameter information consisting of parameters necessary for drawing from the document object 48, and performs display based on the parameter information. A drawing process is executed at 21. The modeling object 46 as a three-dimensional unit generates a three-dimensional character composed of polygonal surfaces (hereinafter, referred to as polygons) based on character data specified from the keyboard 27 (FIG. 1). By the way, the rendering object 44 determines whether or not the user has performed an operation to update the display in the GUI object 42. As a result, if the rendering object 44 determines that the operation to update the display has been performed, the rendering object 44 By generating message information M4 for activation and providing the message information M4 to the modeling object 46, the modeling object 46 is activated.

【0019】記憶制御手段としてのドキュメント・オブ
ジェクト48は、GUIオブジェクト42において定義
された操作及び各種パラメータを保持している。ディス
プレイ21に表示される3次元文字に関する形状デー
タ、位置データ、姿勢データ、色データ、照明データ、
移動データ及びスケールデータなどを作成するのに必要
なデータは、GUIオブジェクト42からメッセージ情
報M2として送られており、レンダリング・オブジェク
ト44によって行われる描画更新毎に使用されるように
なされている。合成表示制御手段としてのフレーム・バ
ッファ・オブジェクト50は、レンダリング・オブジェ
クト44における描画処理と同様に、GUIオブジェク
ト42から供給されるメッセージ情報M3によってフレ
ームバッファ15(図1)を駆動してモニタ23(図
1)に対して描画処理を行う。
The document object 48 as a storage control unit holds the operations and various parameters defined in the GUI object 42. Shape data, position data, posture data, color data, lighting data, and the like related to the three-dimensional characters displayed on the display 21.
Data necessary for creating movement data, scale data, and the like is sent from the GUI object 42 as message information M2, and is used every time a rendering update is performed by the rendering object 44. The frame buffer object 50 as the composite display control means drives the frame buffer 15 (FIG. 1) by the message information M3 supplied from the GUI object 42, and drives the monitor 23 ( A drawing process is performed on FIG. 1).

【0020】ここで図3は、上述のようなアプリケーシ
ョンプログラム40を実行させるためのGUI画面60
を示し、ディスプレイ21(図1)に表示されている。
このGUI画面60に対して行われる操作のうち、ま
ず、GUI画面60のシーンウィンドウ62に表示され
た仮想3次元空間中に対して文字を入力及び配置して表
示するための操作について説明する。GUI画面60
は、ユーザの入力操作に応じて新規グループ作成ボタン
64がクリックされると、複数の文字を1つの集合とみ
なしたグループを新規に作成する。因みに全ての文字
は、いずれか1つのグループに属するようなデータ構造
をとっており、1つのグループには0個以上の文字を属
させることが可能となっている。
FIG. 3 shows a GUI screen 60 for executing the application program 40 as described above.
Is displayed on the display 21 (FIG. 1).
First, among operations performed on the GUI screen 60, operations for inputting, arranging, and displaying characters in the virtual three-dimensional space displayed in the scene window 62 of the GUI screen 60 will be described. GUI screen 60
When a new group creation button 64 is clicked in response to a user input operation, a new group is created in which a plurality of characters are regarded as one set. Incidentally, all characters have a data structure that belongs to any one group, and zero or more characters can belong to one group.

【0021】ところでGUI画面60は、キーボード2
7(図1)から文字が入力されると、当該入力された文
字に応じた3次元文字を瞬時にシーンウィンドウ62に
表示する。なおGUI画面60は、ユーザの入力操作に
応じてキーボード27(図1)のバックスペースキーが
押圧されると、入力された3次元文字を削除し得るよう
になされている。
The GUI screen 60 displays the keyboard 2
When a character is input from FIG. 7 (FIG. 1), a three-dimensional character corresponding to the input character is instantaneously displayed in the scene window 62. Note that the GUI screen 60 can delete the input three-dimensional character when the backspace key of the keyboard 27 (FIG. 1) is pressed according to the input operation of the user.

【0022】またGUI画面60は、ユーザの入力操作
に応じてキーボード27のカーソルキーを使用してシー
ンウィンドウ62上のカーソル位置を移動させた後に、
キーボード27(図1)のバックスペースキーが押圧さ
れると、カーソルが示す位置に存在する所望の文字を削
除することができるようになされている。同様にGUI
画面60は、ユーザの入力操作に応じてカーソルキーを
使ってカーソル位置を移動した後にキーボード27から
文字が入力されると、カーソルが示す位置に新規に所望
の文字を挿入することができるようになされている。こ
のようなシーンウィンドウ62に対する描画及び再描画
処理は、レンダリング・オブジェクト44のレンダリン
グ処理に時間をとられず、瞬時に所望の画像をシーンウ
ィンドウ62に表示させることができる。
The GUI screen 60 is displayed after the cursor position on the scene window 62 is moved using the cursor keys of the keyboard 27 in accordance with the input operation of the user.
When the backspace key of the keyboard 27 (FIG. 1) is pressed, a desired character existing at the position indicated by the cursor can be deleted. GUI
The screen 60 is provided so that when a character is input from the keyboard 27 after moving a cursor position using a cursor key in response to a user's input operation, a new desired character can be inserted at a position indicated by the cursor. It has been done. Such drawing and redrawing processing for the scene window 62 can instantaneously display a desired image in the scene window 62 without taking time for the rendering processing of the rendering object 44.

【0023】続いてシーンウィンドウ62に入力された
文字の表示位置を平行移動させる操作について説明す
る。まずGUI画面60は、ユーザの入力操作に応じて
所望のグループを示す領域がダブルクリックされると、
表示位置の変更の対象となる文字が属するグループを選
択する。これを受けてGUI画面60は、選択したグル
ープの周囲に選択枠66を表示し、当該選択枠66内に
存在する文字が選択状態にあることをユーザに知らせ
る。
Next, the operation of translating the display position of the character input to the scene window 62 in parallel will be described. First, on the GUI screen 60, when an area indicating a desired group is double-clicked in response to a user's input operation,
Select the group to which the character whose display position is to be changed belongs. In response to this, the GUI screen 60 displays a selection frame 66 around the selected group and notifies the user that the characters existing in the selection frame 66 are in a selected state.

【0024】続いてGUI画面60は、ユーザの入力操
作に応じて選択状態にあるグループ上にマウスカーソル
を合わせ、当該マウスカーソルを押しながら移動させる
ような操作(以下、これをドラッグ操作と呼ぶ)が行わ
れると、文字を仮想3次元空間中で上下方向(Y軸方
向)及び左右方向(X軸方向)に平行移動させ得るよう
になされている。さらにGUI画面60は、ユーザの入
力操作に応じてグループの回転中心軸68の位置でドラ
ッグ操作が行われると、仮想3次元空間中で奥行き方向
(Z軸方向)に平行移動させることができるようになさ
れている。このような操作は、移動させた結果がレンダ
リング・オブジェクト44によるレンダリング処理に待
たされることなく、リアルタイムにシーンウィンドウ6
2上に表示させることができることから、迅速にかつ正
確に行うことができる。
Subsequently, the GUI screen 60 displays an operation of placing a mouse cursor on a selected group in response to a user input operation and moving the mouse cursor while pressing the mouse cursor (hereinafter, this operation is referred to as a drag operation). Is performed, the character can be translated in the vertical direction (Y-axis direction) and the horizontal direction (X-axis direction) in the virtual three-dimensional space. Furthermore, when a drag operation is performed at the position of the rotation center axis 68 of the group in response to a user's input operation, the GUI screen 60 can be translated in the depth direction (Z-axis direction) in the virtual three-dimensional space. Has been made. Such an operation can be performed in real time without having to wait for the rendering result by the rendering object 44.
2 can be displayed quickly and accurately.

【0025】続いてシーンウィンドウ62に入力された
文字の表示位置を回転移動によって変更する操作につい
て説明する。GUI画面60は、ユーザの入力操作に応
じて所望のグループ上がダブルクリックされると、表示
位置の変更の対象としたい文字が属するグループを選択
する。これを受けてGUI画面60は、選択されたグル
ープに属する文字全てに選択枠66を表示し、当該選択
枠66が表示されたグループが選択状態にあることをユ
ーザに知らせる。この状態において、GUI画面60
は、ユーザの入力操作に応じて回転軸スイッチ69がク
リックされると、回転移動操作の中心軸としたい座標軸
を、X軸、Y軸及びZ軸の中からいずれか1つを選択す
る。
Next, an operation of changing the display position of the character input to the scene window 62 by rotating the operation will be described. When a desired group is double-clicked on the GUI screen 60 in response to a user input operation, a group to which a character whose display position is to be changed belongs is selected. In response to this, the GUI screen 60 displays a selection frame 66 for all the characters belonging to the selected group, and notifies the user that the group in which the selection frame 66 is displayed is in a selected state. In this state, the GUI screen 60
When the rotary axis switch 69 is clicked in response to a user's input operation, one of the X axis, Y axis, and Z axis is selected as a coordinate axis to be used as the center axis of the rotational movement operation.

【0026】その後GUI画面60は、ユーザの入力操
作に応じてドラッグ操作が行われると、仮想3次元空間
中で回転移動させることができるようになされている。
このような回転移動操作は、上述の平行移動操作と同様
に、変更結果がレンダリング処理に待たされることな
く、リアルタイムにシーンウィンドウ62に表示される
ことから、所望の移動操作を迅速にかつ正確に行うこと
ができる。
Thereafter, the GUI screen 60 can be rotated and moved in a virtual three-dimensional space when a drag operation is performed in response to a user's input operation.
In the case of such a rotational movement operation, similarly to the above-described parallel movement operation, the change result is displayed in the scene window 62 in real time without waiting for the rendering processing, so that the desired movement operation can be performed quickly and accurately. It can be carried out.

【0027】またGUI画面60は、ユーザの入力操作
に応じて描画モードスイッチ70が切り換えられると、
文字又は図形の描画を切り換えることができるようにな
されている。またGUI画面60は、ユーザの入力操作
に応じてグループプロパティ設定ボタン71が選択され
ると、所定の画面を表示することによりグループに関す
る詳細な設定操作を行い得るようにする。
When the drawing mode switch 70 is switched in response to the user's input operation, the GUI screen 60 displays
The drawing of characters or graphics can be switched. When the group property setting button 71 is selected in response to a user's input operation, the GUI screen 60 displays a predetermined screen so that a detailed setting operation regarding the group can be performed.

【0028】次いで、GUI画面60に対して行われる
操作のうち、文字の各種属性を変更することによって当
該文字に修飾を施すための操作について説明する。まず
文字の表示サイズを変更する操作について説明する。G
UI画面60は、ユーザの操作に応じて所望のグループ
がダブルクリックされると、サイズ変更対象の文字が属
するグループを選択する。
Next, among operations performed on the GUI screen 60, operations for modifying various characters of a character to modify the character will be described. First, an operation for changing the display size of characters will be described. G
When a desired group is double-clicked in response to a user operation, the UI screen 60 selects a group to which the character whose size is to be changed belongs.

【0029】これを受けてGUI画面60は、選択され
たグループに属する文字全てに選択枠66が表示され、
現在選択状態にあることを表示する。さらにGUI画面
60は、ユーザの操作に応じてサイズ変更スイッチ72
が押圧されると、サイズ変更操作の対象としたい方向
を、X軸、Y軸、Z軸のうちいずれか1つを選択する。
In response to this, the GUI screen 60 displays a selection frame 66 for all characters belonging to the selected group,
Indicates that the current state is selected. Further, the GUI screen 60 displays a size change switch 72 according to a user operation.
Is pressed, one of the X-axis, Y-axis, and Z-axis is selected as the direction to be subjected to the size change operation.

【0030】次いでGUI画面60は、ユーザの入力操
作に応じて、選択したグループ上でドラッグ操作が行わ
れると、文字の大きさを所望のサイズに伸縮させること
ができるようになされている。サイズ変更の操作は、変
更結果がリアルタイムにシーンウィンドウ62に表示さ
れることから、所望の操作を迅速にかつ正確に行うこと
が可能である。
Next, on the GUI screen 60, when a drag operation is performed on the selected group in accordance with a user's input operation, the size of the character can be expanded or contracted to a desired size. Since the change result is displayed on the scene window 62 in real time in the size change operation, the desired operation can be performed quickly and accurately.

【0031】続いて文字の表示フォント(書体)を変更
する操作について説明する。GUI画面60は、ユーザ
の入力操作に応じて所望のグループがダブルクリックさ
れると、フォント変更の対象となる文字が属するグルー
プを選択する。これを受けてGUI画面60は、選択さ
れたグループに属する文字全てに選択枠66が表示さ
れ、現在選択状態であるこを表示する。次にGUI画面
60は、ユーザの入力操作に応じてフォント設定メニュ
ー73がクリックされると、フォントの設定に関するメ
ニューを表示した後、表示される複数のフォントの中か
ら所望のフォントを選択して表示フォントを変更するこ
とができ、その変更結果はシーンウィンドウ62に瞬時
に表示される。
Next, an operation for changing the display font (typeface) of a character will be described. When a desired group is double-clicked in response to a user's input operation, the GUI screen 60 selects a group to which a character whose font is to be changed belongs. In response to this, the GUI screen 60 displays a selection frame 66 for all the characters belonging to the selected group, indicating that the character is currently selected. Next, when the font setting menu 73 is clicked in response to a user's input operation, the GUI screen 60 displays a menu related to font setting, and then selects a desired font from a plurality of displayed fonts. The display font can be changed, and the change result is instantly displayed in the scene window 62.

【0032】さらに続いて文字表面の材質や質感に関す
る属性を示すマテリアル属性を変更する操作について説
明する。まずGUI画面60は、ユーザの入力操作に応
じて所望のグループがダブルクリックされると、マテリ
アル変更の対象とする文字が属するグループを選択す
る。GUI画面60は、選択されたグループに属する文
字全てに選択枠66が表示され、現在選択状態にあるこ
とを表示する。次にGUI画面60は、ユーザの入力操
作に応じてマテリアル設定メニュー74が選択される
と、マテリアル設定のためのメニューを表示する。この
表示されたメニューにおいて、ユーザの入力操作に応じ
て例えば環境拡散光反射率、鏡面光反射率、放射光、光
沢のようなマテリアル属性の各設定値を入力し、グルー
プに対するマテリアル属性を変更する。このようにマテ
リアル属性を調整することにより、文字表面の色や光沢
の度合い等をユーザの任意に設定することができ、変更
されたマテリアル属性はシーンウィンドウ62に瞬時に
表示される。
Next, an operation of changing a material attribute indicating an attribute relating to the material and texture of the character surface will be described. First, on the GUI screen 60, when a desired group is double-clicked in response to a user's input operation, a group to which a character whose material is to be changed belongs is selected. In the GUI screen 60, a selection frame 66 is displayed for all characters belonging to the selected group, and indicates that the character is currently selected. Next, when the material setting menu 74 is selected in response to the user's input operation, the GUI screen 60 displays a menu for material setting. In the displayed menu, the user inputs the setting values of material attributes such as environment diffuse light reflectance, specular light reflectance, emitted light, and gloss according to the input operation of the user, and changes the material attribute for the group. . By adjusting the material attributes in this manner, the color and glossiness of the character surface can be arbitrarily set by the user, and the changed material attributes are instantaneously displayed in the scene window 62.

【0033】さらに続いて文字に縁取りすなわちエッジ
を付加する操作について説明する。GUI画面60は、
ユーザの入力操作に応じて所望のグループ上がダブルク
リックされると、エッジを付加する対象とする文字が属
するグループを選択する。これを受けてGUI画面60
は、選択されたグループに属する文字全てに選択枠66
が表示され、現在選択状態であることを表示する。次に
GUI画面60は、ユーザの入力操作に応じてエッジ・
シャドウ設定メニュー76が選択されると、エッジ設定
のためのメニューを表示する。
Next, an operation for adding a border to a character, that is, adding an edge, will be described. The GUI screen 60 is
When a desired group is double-clicked in response to a user input operation, a group to which a character to which an edge is to be added belongs is selected. GUI screen 60 in response to this
Is displayed in the selection frame 66 for all the characters belonging to the selected group.
Is displayed to indicate that it is currently selected. Next, the GUI screen 60 displays an edge image in response to a user input operation.
When the shadow setting menu 76 is selected, a menu for edge setting is displayed.

【0034】GUI画面60は、この表示されるメニュ
ーにおいて、エッジ属性の各設定値、例えばエッジの太
さ、エッジカラー、グラデーションスイッチ及びエッジ
タイプが入力されると、グループに対してエッジ属性を
指定する。エッジタイプとしては、文字周辺に平面的な
エッジが付加されるノーマルエッジ、文字周辺を面取り
した立体的なエッジが付加されるベベルエッジ、エッジ
が付加されないエッジオフがある。このように指定され
たエッジ属性は、シーンウィンドウ62に瞬時に表示さ
れる。
In the GUI screen 60, when each set value of the edge attribute, such as the edge thickness, the edge color, the gradation switch, and the edge type is input in the displayed menu, the edge attribute is designated for the group. I do. The edge type includes a normal edge in which a planar edge is added around the character, a bevel edge in which a three-dimensional edge around the character is chamfered, and an edge off in which no edge is added. The edge attribute specified in this way is instantaneously displayed in the scene window 62.

【0035】次いで、GUI画面60に対して行われる
操作のうち、ページ及びレイヤを制御するための操作に
ついて説明する。まずページに関する操作について説明
する。ここでページとは、複数の編集結果を同時に管理
するために導入された概念であり、シーンウィンドウ6
2に表示されている1画面分の編集内容を1つのページ
として保持する。GUI画面60では、複数のページを
一元管理するためにページセレクタ78及び新規ページ
追加ボタン80が設けられている。ページセレクタ78
は、プログラムが現在保持しているページの一覧を全て
表示し、当該ページの一覧の中から所望のページを選択
し得るようになされている。
Next, of the operations performed on the GUI screen 60, operations for controlling pages and layers will be described. First, an operation regarding a page will be described. Here, the page is a concept introduced to manage a plurality of editing results at the same time.
The editing content for one screen displayed in 2 is held as one page. In the GUI screen 60, a page selector 78 and a new page addition button 80 are provided for centrally managing a plurality of pages. Page selector 78
Is designed to display a list of pages currently held by the program and to select a desired page from the list of pages.

【0036】またGUI画面60は、ユーザの入力操作
に応じて新規ページ追加ボタン80が選択されると、文
字が全く含まれていない初期状態のページを新規に追加
作成して、シーンウィンドウ62に新規作成された初期
状態のページを表示する。その際、GUI画面60は、
新規に作成された、シーンウィンドウ62に表示される
画像を縮小表示した見出し画像(以下、これをサムネー
ル画像と呼ぶ)をページセレクタ78に表示する。この
追加された新規のページは、上述の文字入力操作によっ
て所望の編集作業を行い得る。
When a new page addition button 80 is selected in response to a user's input operation, the GUI screen 60 additionally creates a new initial page that does not include any characters, and displays the newly created page in the scene window 62. Display the newly created initial page. At that time, the GUI screen 60 displays
A newly created headline image (hereinafter, referred to as a thumbnail image) obtained by reducing the image displayed in the scene window 62 is displayed on the page selector 78. This added new page can be subjected to a desired editing operation by the above-described character input operation.

【0037】ユーザはシーンウィンドウ62に表示され
ているページ(以下、これをカレントページと呼ぶ)に
対してのみ編集操作を行うことができる。GUI画面6
0は、ユーザの入力操作に応じて、ページセレクタ78
に表示されているぺージ一覧の中から所望のページを示
すサムネール画像がクリックされると、カレントページ
を選択してシーンウィンドウ62に表示する。このよう
なカレントページの変更は、シーンウィンドウ62に瞬
時に反映される。
The user can perform an editing operation only on a page displayed in the scene window 62 (hereinafter referred to as a current page). GUI screen 6
0 is a page selector 78 according to a user's input operation.
When a thumbnail image indicating a desired page is clicked from the page list displayed in the above, the current page is selected and displayed in the scene window 62. Such a change in the current page is instantly reflected in the scene window 62.

【0038】次にレイヤに関する操作について説明す
る。ここでレイヤとは、複数のグループを統括及び分類
して処理することにより編集作業の効率化を図ることを
目的として導入された概念である。ページの中には複数
のレイヤ(層)が存在し、当該各レイヤを重ね合わせる
ことにより1つのページが生成される。GUI画面60
では、1つのページ中に5つのレイヤが含まれており、
各レイヤには0〜4(整数値)のレイヤ番号が与えられ
て識別されている。これによりページ中に作成された各
グループは、この5つのレイヤのうちいずれか1つに必
ず属するようになっている。
Next, operations related to layers will be described. Here, the layer is a concept introduced for the purpose of improving the efficiency of the editing work by controlling a plurality of groups, classifying them, and processing them. A page includes a plurality of layers (layers), and one page is generated by superimposing the respective layers. GUI screen 60
So, one page contains five layers,
Each layer is identified by being assigned a layer number of 0 to 4 (integer value). Thus, each group created in the page always belongs to any one of the five layers.

【0039】GUI画面60は、ユーザの入力操作に応
じて、5つのレイヤのうち編集操作の対象となる1つの
レイヤ(以下、これをカレントレイヤと呼ぶ)を指定す
る操作を、カレントレイヤセレクタ81によって行うよ
うになされており、所望のレイヤ番号をカレントレイヤ
セレクタ81に入力することにより、カレントレイヤを
指定する。そしてGUI画面60は、指定されたカレン
トレイヤのみに対して文字入力や配置変更等の編集操作
を行うようになされている。因みに、各グループは、グ
ループ作成時に指定されていたレイヤ番号に応じたレイ
ヤに属するように作成される。またGUI画面60は、
ユーザの入力操作に応じて、レイヤスイッチ部82に配
置された5つのボタンのオンオフ操作によって5つのレ
イヤの表示又は非表示を個別に指定し得るようになされ
ており、変更結果は、瞬時にシーンウィンドウ62に反
映される。
The GUI screen 60 displays an operation for designating one of the five layers to be edited (hereinafter referred to as a current layer) in response to a user input operation by a current layer selector 81. The current layer is designated by inputting a desired layer number to the current layer selector 81. In the GUI screen 60, editing operations such as character input and layout change are performed on only the specified current layer. Incidentally, each group is created so as to belong to the layer corresponding to the layer number specified at the time of group creation. The GUI screen 60 is
According to the user's input operation, display or non-display of the five layers can be individually designated by on / off operation of the five buttons arranged in the layer switch unit 82, and the change result is instantaneously set to the scene. Reflected in window 62.

【0040】さらに続いて照明の設定を変更する操作に
ついて説明する。ここで照明とは、現実世界の照明と同
様の挙動を示すように設計された物体であり、シーンウ
ィンドウ62に表示される仮想3次元空間中に存在して
いるが、実際には当該シーンウィンドウ62には表示さ
れない。GUI画面60は、ユーザの入力操作に応じて
照明の設定値が調整されると、仮想3次元空間中に配置
されている文字の見え方を任意に指定し得るようになさ
れている。
Next, an operation for changing the setting of the lighting will be described. Here, the lighting is an object designed to exhibit the same behavior as the lighting in the real world, and exists in the virtual three-dimensional space displayed in the scene window 62, but is actually in the scene window. 62 is not displayed. The GUI screen 60 is capable of arbitrarily specifying the appearance of characters arranged in the virtual three-dimensional space when the setting value of the illumination is adjusted according to the input operation of the user.

【0041】GUI画面60は、ユーザの入力操作に応
じて照明設定ボタン84がクリックされると、照明ダイ
アログを表示し、当該照明ダイアログにおいて照明設定
を行う。この状態において、GUI画面60は、ユーザ
の入力操作に応じて照明条件の各設定値、例えば環境
光、拡散反射光、鏡面反射光、照明位置が入力される
と、ページに対する照明条件を変更する。因みに、GU
I画面60は、同一ページ中に存在する全ての文字に同
一の照明が設定されるようになされており、個々の文字
毎に異なる照明が設定されることはない。
When the lighting setting button 84 is clicked in response to a user's input operation, the GUI screen 60 displays a lighting dialog, and performs lighting setting in the lighting dialog. In this state, the GUI screen 60 changes the lighting condition for the page when each set value of the lighting condition, for example, the environment light, the diffuse reflection light, the specular reflection light, and the lighting position is input according to the input operation of the user. . By the way, GU
In the I-screen 60, the same illumination is set for all the characters existing in the same page, and different illumination is not set for each individual character.

【0042】最後に、GUI画面60に対して行われる
操作のうち、静止画及び動画を送出するための操作につ
いて説明する。ここで送出とは、シーンウィンドウ62
上で編集されたページデータをフレームバッファ15
(図1)に書き込んで当該ページデータに応じた画像を
モニタ23に表示させる操作である。まずページデータ
を静止画として送出する操作について説明する。GUI
画面60は、ユーザの入力操作に応じてページセレクタ
78から所望のページが選択されると、当該選択したペ
ージに応じた画像をシーンウィンドウ62に表示するこ
とにより、送出対象のページをカレントページに設定す
る。この状態において、GUI画面60は、ユーザの入
力操作に応じてスチル送出ボタン86が選択されると、
カレントページが送出される。
Finally, among the operations performed on the GUI screen 60, an operation for transmitting a still image and a moving image will be described. The transmission here means the scene window 62
The page data edited above is stored in the frame buffer 15
(FIG. 1) is an operation for displaying an image corresponding to the page data on the monitor 23. First, an operation of transmitting page data as a still image will be described. GUI
When a desired page is selected from the page selector 78 in response to a user's input operation, the screen 60 displays an image corresponding to the selected page in the scene window 62 so that the page to be transmitted becomes the current page. Set. In this state, when the still send button 86 is selected according to the user's input operation, the GUI screen 60 displays
The current page is sent.

【0043】次にカレントページの動画を送出する操作
について説明する。GUI画面60は、ユーザの入力操
作に応じてページセレクタ78から所望のページが選択
されると、当該選択したページに応じた画像をシーンウ
ィンドウ62に表示することにより、送出操作の対象と
するページをカレントページに設定する。
Next, the operation of transmitting the moving image of the current page will be described. When a desired page is selected from the page selector 78 in response to a user's input operation, the GUI screen 60 displays an image corresponding to the selected page in the scene window 62 to display a page to be transmitted. Is set to the current page.

【0044】この状態において、GUI画面60は、ユ
ーザの入力操作に応じてアニメーション送出ボタン88
が選択されると、カレントページの送出処理が行われ
る。但し、カレントページに動画に関するデータ(以
下、これをキーフレームデータと呼ぶ)が存在しない場
合には、アニメーション送出ボタン88は機能しないよ
うになされている。因みにGUI画面60は、ユーザの
入力操作に応じてキーフレム追加ボタン90がクリック
されると、所定の画面を表示してキーフレームデータを
作成するようになされている。
In this state, the GUI screen 60 displays an animation transmission button 88 in response to a user's input operation.
Is selected, the current page is sent. However, if there is no data related to the moving image on the current page (hereinafter, referred to as key frame data), the animation sending button 88 is disabled. By the way, when the key frame addition button 90 is clicked in response to a user's input operation, the GUI screen 60 displays a predetermined screen to create key frame data.

【0045】ここでCPU3によって複数のポリゴンで
なる3次元文字(以下、これをポリゴンモデルと呼ぶ)
を生成する手順について図4に示すフローチャートを用
いて説明する。ステップSP1から入ったステップSP
2において、CPU3は、ユーザの入力操作に応じて、
ポリゴンモデルのマテリアルの設定値、光源の設定値、
シーンウィンドウ62における画像の見え方を決定する
ためのパースの設定値をアプリケーションプログラム4
0のドキュメント・オブジェクト48(図2)に保持す
る。これらの設定値は、ユーザによって指定された値が
用いられるが、ユーザが指定しない場合には、予め用意
されているデフォルト値が用いられる。
Here, a three-dimensional character composed of a plurality of polygons (hereinafter referred to as a polygon model) by the CPU 3.
Will be described with reference to the flowchart shown in FIG. Step SP entered from step SP1
In 2, the CPU 3 responds to an input operation by the user,
Polygon model material settings, light source settings,
A parse setting value for determining the appearance of an image in the scene window 62 is stored in the application program 4.
0 document object 48 (FIG. 2). As these setting values, values specified by the user are used, but when not specified by the user, default values prepared in advance are used.

【0046】ステップSP3において、CPU3は、キ
ーボード27からユーザによって所望のキーが入力され
たか否か判定する。その結果、CPU3は、キーが入力
されたと判断した場合には、当該キー入力情報をGUI
オブジェクト42(図2)に送出する一方、キーが入力
されていないと判断した場合にはキーが入力されるまで
待機する。ステップSP4において、CPU3は、GU
Iオブジェクト42(図2)にキー入力情報を解析させ
ることにより、当該キー入力情報を文字コードに変換さ
せ、当該文字コード情報をドキュメント・オブジェクト
48(図2)に格納すると共に、モデリング・オブジェ
クト46に対してポリゴンモデルの生成を行うための指
示を与える。
In step SP3, the CPU 3 determines whether or not a desired key has been input from the keyboard 27 by the user. As a result, when the CPU 3 determines that the key is input, the CPU 3 transmits the key input information to the GUI.
While sending to the object 42 (FIG. 2), if it is determined that the key has not been input, it waits until the key is input. At step SP4, the CPU 3
By causing the I-object 42 (FIG. 2) to analyze the key input information, the key input information is converted into a character code, the character code information is stored in the document object 48 (FIG. 2), and the modeling object 46 is stored. To generate a polygon model.

【0047】ステップSP5において、CPU3は、モ
デリング・オブジェクト46を用いてドキュメント・オ
ブジェクト48に保持されている文字コード情報に基づ
いてポリゴンモデルを生成する。このポリゴンモデルの
具体的な生成方法を図5を用いて説明する。モデリング
・オブジェクト46は、現在設定されているフォント形
式に基づいてドキュメント・オブジェクト48に保持さ
れている文字コード情報に応じたアウトラインデータD
1を生成する。
At step SP5, the CPU 3 generates a polygon model based on the character code information held in the document object 48 using the modeling object 46. A specific method of generating the polygon model will be described with reference to FIG. The modeling object 46 includes outline data D corresponding to the character code information held in the document object 48 based on the currently set font format.
1 is generated.

【0048】次にモデリング・オブジェクト46は、こ
のアウトラインデータD1を基にポリゴンモデルのうち
フェイス部分に相当するフェイスポリゴンモデルD3を
生成する。続いてモデリング・オブジェクト46は、現
在設定されているエッジのパラメータに基づいてポリゴ
ンモデルのうちエッジ部分に相当するエッジポリゴンモ
デルD5を生成する。さらに続いてモデリング・オブジ
ェクト46は、現在設定されているシャドウのパラメー
タに基づいてポリゴンモデルのうちシャドウ部分に相当
するシャドウモデルD7を生成する。このようにしてモ
デリング・オブジェクト46は、1つの文字に対して生
成される3つのポリゴンモデルを基にポリゴンモデルD
9を生成する。
Next, the modeling object 46 generates a face polygon model D3 corresponding to a face portion of the polygon model based on the outline data D1. Subsequently, the modeling object 46 generates an edge polygon model D5 corresponding to an edge portion of the polygon model based on the currently set edge parameters. Subsequently, the modeling object 46 generates a shadow model D7 corresponding to a shadow portion of the polygon model based on the currently set shadow parameters. Thus, the modeling object 46 is based on the three polygon models generated for one character, and the polygon model D
9 is generated.

【0049】図4に戻って、ステップSP6において、
CPU3は、GUIオブジェクト42を用いて、ドキュ
メント・オブジェクト48に保持されているマテリアル
に関する各パラメータに基づいて、モデリング・オブジ
ェクト46が保持しているポリゴンモデルD9の各ポリ
ゴンに対してマテリアルの設定を行う。ステップSP7
において、CPU3は、GUIオブジェクト42によっ
て、ドキュメント・オブジェクト48に保持されている
パースに関する各パラメータに基づいて、レンダリング
・オブジェクト44に対してパースの設定を行わせる。
Returning to FIG. 4, in step SP6,
The CPU 3 uses the GUI object 42 to set a material for each polygon of the polygon model D9 held by the modeling object 46 based on each parameter related to the material held in the document object 48. . Step SP7
In, the CPU 3 causes the GUI object 42 to set the parse for the rendering object 44 based on each parse-related parameter held in the document object 48.

【0050】パースの設定とは、具体的には図3との対
応部分に同一符号を付して示す図6に示すように、視点
100及び視野角102に応じた視体積(図中斜線で示
した領域)104の形状及び方向を指定することを意味
する。この視体積は、ポリゴンモデル106をGUI画
面60のシーンウィンドウ62(図3)にどのように投
影するか、複数のポリゴンモデル106のうちどのポリ
ゴンモデル106をシーンウィンドウ62に投影するか
を決定し、当該視体積内に存在するポリゴンモデル10
6がシーンウィンドウ62に表示される。
The perspective setting means, specifically, a view volume (oblique lines in the figure) corresponding to the viewpoint 100 and the viewing angle 102 as shown in FIG. This indicates that the shape and direction of the indicated area 104 are designated. This view volume determines how the polygon model 106 is projected onto the scene window 62 (FIG. 3) of the GUI screen 60, and which polygon model 106 among the plurality of polygon models 106 is projected onto the scene window 62. The polygon model 10 existing in the visual volume
6 is displayed in the scene window 62.

【0051】図4に戻って、ステップSP8において、
CPU3は、GUIオブジェクト42を用いてドキュメ
ント・オブジェクト48に保持されている光源に関する
パラメータに基づいてレンダリング・オブジェクト44
に対して照明の設定を行う。ステップSP9において、
CPU3は、レンダリング・オブジェクト44を用い
て、各パラメータに基づいてポリゴンモデルの描画をシ
ーンウィンドウ62に対して行う。
Returning to FIG. 4, in step SP8,
The CPU 3 uses the GUI object 42 to render the rendering object 44 based on the light source parameters held in the document object 48.
Set lighting for. In step SP9,
The CPU 3 uses the rendering object 44 to draw a polygon model on the scene window 62 based on each parameter.

【0052】このようにしてCPU3は、キーボード2
7を介して入力されたキーを3次元文字としてディスプ
レイ21に表示させることができ、さらに複数の3次元
文字を表示させる場合には、ステップSP2に戻って同
様の処理を繰り返すことにより、ディスプレイ21にユ
ーザの入力操作に応じた映像タイトルを表示することが
できる。
As described above, the CPU 3 operates the keyboard 2
7 can be displayed on the display 21 as three-dimensional characters, and when a plurality of three-dimensional characters are to be displayed, the process returns to step SP2 and the same processing is repeated. Can display a video title corresponding to the user's input operation.

【0053】以上の構成において、CPU3は、HDD
19に格納されているオペレーティングシステム及びア
プリケーションプログラムに基づいて、キーボード27
を介して指定された文字を基に当該文字の輪郭を示すア
ウトラインデータを得、当該アウトラインデータを基に
文字の輪郭によって囲まれたフェイスデータ、文字の輪
郭を強調するためのエッジデータ及び文字の奥行きを示
すシャドウデータを生成し、当該フェイスデータ、エッ
ジデータ及びシャドウデータを合成することにより、外
部から供給される編集対象の映像に応じた3次元文字デ
ータを生成すると共に、当該生成された3次元文字デー
タに応じた画像を、キーボード27を介して文字が指定
されることに連動してディスプレイ21に表示する。
In the above-described configuration, the CPU 3
19 based on the operating system and application programs stored in the keyboard 27.
The outline data indicating the outline of the character is obtained based on the character specified through the character data, face data surrounded by the outline of the character based on the outline data, edge data for emphasizing the outline of the character, and the character data of the character. By generating shadow data indicating the depth and synthesizing the face data, the edge data, and the shadow data, three-dimensional character data corresponding to an externally supplied video to be edited is generated, and the generated 3D character data is generated. An image corresponding to the dimensional character data is displayed on the display 21 in conjunction with the designation of a character via the keyboard 27.

【0054】以上の構成によれば、ユーザからキーボー
ド27を介して指定される文字のアウトラインデータを
基にフェイスデータ、エッジデータ及びシャドウデータ
を生成し、これらを合成して3次元文字を生成すると共
に、当該生成された3次元文字をキーボード27を介し
て文字が指定されることに連動してディスプレイ21に
表示することにより、従来のように汎用のCG制作用ア
プリケーションプログラムを用いて3次元文字を生成す
る場合に比して、ユーザがキーボード27を介して文字
を指定するだけの簡単な操作で迅速に3次元文字を生成
することができ、かくして従来に比して一段と操作性を
向上し得る映像タイトル生成装置を実現できる。
According to the above configuration, face data, edge data, and shadow data are generated based on outline data of a character specified by the user via the keyboard 27, and these are combined to generate a three-dimensional character. At the same time, by displaying the generated three-dimensional character on the display 21 in conjunction with the designation of the character via the keyboard 27, the three-dimensional character can be displayed using a general-purpose CG production application program as in the related art. 3D characters can be quickly generated by a simple operation in which the user simply designates a character via the keyboard 27, and thus operability is further improved as compared with the related art. The resulting video title generation device can be realized.

【0055】(2)ポリゴンモデル生成手順 ここでは図4におけるポリゴンモデル生成ステップ(S
P5)について具体的に説明する。まず始めにCPU3
によって3次元文字を生成する3次元文字生成手順につ
いて説明する。まずステップSP15から入ったステッ
プSP16において、CPU3は、ユーザの入力操作に
応じた文字コード情報に基づいて、HDD19(図1)
に記録されているオペレーティングシステムから直線と
曲線の組合せでなるフォントデータを読み出す。因み
に、このフォントデータは、閉ループの集合でなり、文
字によってそのループ数は異なる。文字を形成するルー
プは、外側のループから内側のループの順に塗りつぶさ
れる空間と空白の空間とが交互に繰り返されている。
(2) Polygon Model Generation Procedure Here, the polygon model generation step (S
P5) will be specifically described. First, CPU3
A three-dimensional character generation procedure for generating a three-dimensional character will now be described. First, in step SP16 entered from step SP15, the CPU 3 determines the HDD 19 (FIG. 1) based on the character code information corresponding to the user's input operation.
The font data composed of a combination of a straight line and a curve is read from the operating system recorded in. Incidentally, this font data is a set of closed loops, and the number of loops differs depending on the character. In the loop forming a character, a space to be filled and a blank space are alternately repeated in order from the outer loop to the inner loop.

【0056】ステップSP17において、CPU3は、
読み出したフォントデータに応じた文字データのうちの
曲線部分のデータに曲率を指定し、直線の座標データを
算出することにより、文字データを頂点データとして扱
う。ここで扱われる曲線は、次式
In step SP17, the CPU 3
The character data is treated as vertex data by designating a curvature to the data of the curved part of the character data corresponding to the read font data and calculating the coordinate data of the straight line. The curve used here is

【0057】[0057]

【数1】 (Equation 1)

【0058】によって定義され、任意のポイントに分割
される。ここでポイントA及びCは曲線上のポイントを
示し、ポイントBは曲線を分割するためのコントロール
ポイントを示す。
And is divided into arbitrary points. Here, points A and C indicate points on the curve, and point B indicates a control point for dividing the curve.

【0059】続いてステップSP18において、CPU
3は、上述の各頂点データにおける法線ベクトルを算出
し、ステップSP19に移って、これら各頂点データと
法線ベクトルとをフォントデータとして一括して保持す
る。ステップSP20において、CPU3は、算出した
頂点データに基づいてスキャンライン用線分配置表と呼
ばれるポリゴン生成のたの3角形分割用テーブルを作成
する。
Subsequently, at step SP18, the CPU
3 calculates a normal vector in each of the above-described vertex data, and proceeds to step SP19 to collectively hold the respective vertex data and the normal vector as font data. In step SP20, the CPU 3 creates a triangular division table for generating polygons called a scan line segment arrangement table based on the calculated vertex data.

【0060】ここでスキャンライン用線分配置表の作成
方法について図8を用いて具体的に説明する。図8
(A)は、文字「Z」における全頂点間の線分に線分番
号を付加したことを示し、図8(B)は、各頂点が存在
するY座標の数値をインデックスとして作成したスキャ
ンライン用線分配置表を示す。このスキャンライン用線
分配置表は、任意のY座標を基準として、+Y方向に向
かってそのY座標が始点となっている線分データをフロ
ム(From)データとし、+Y方向に向かってそのY座標
が終点となっている線分データをトゥ(To)データと
し、そのY座標を通過する線分データをスルー(Throug
h )データとしている。このスキャンライン用線分配置
表では、例えばY=5の線分データに着目すると、線分
データ「3、7、8」がフロムデータとして登録され、
線分データ「4、6、8」がトゥデータとして登録さ
れ、スルーデータには該当する線分データが存在しな
い。
Here, a method of creating the scan line segment arrangement table will be specifically described with reference to FIG. FIG.
FIG. 8A shows that a line segment number has been added to the line segment between all vertices in the character “Z”, and FIG. 8B shows a scan line created using the numerical value of the Y coordinate at which each vertex exists as an index. A line segment arrangement table is shown. In this scan line segment arrangement table, line data starting from the Y coordinate in the + Y direction is defined as from (From) data with reference to an arbitrary Y coordinate, and the Y data is determined in the + Y direction. The line segment data whose end point is the coordinate is defined as to data, and the line data passing through the Y coordinate is passed through (Throug).
h) Data. In this line arrangement table for scan lines, for example, focusing on the line segment data of Y = 5, the line segment data “3, 7, 8” is registered as the from data,
The line segment data “4, 6, 8” is registered as to-data, and there is no corresponding line segment data in the through data.

【0061】図7に戻って、ステップSP21におい
て、CPU3は、作成したスキャンライン用線分配置表
を用いて、文字データに対してポリゴン生成のための3
角形分割処理を施すことにより、フェイス表面ポリゴン
を生成する。CPU3は、各頂点間を結ぶ線分のうち所
望の線分に着目し、当該着目した線分がポリゴンを分割
する分割線になり得るか否か判断する。すなわちCPU
3は、着目した線分が他の全ての線分と交差していない
か否か判定し、その結果、交差していないと判断された
場合には、さらに当該線分がポリゴン内を通る線分か否
かを判定し、その結果、ポリゴン内を通ると判定された
場合には、当該線分を3角形分割のための分割線と決定
する。以下、CPU3は、全ての線分について同様の処
理を行うことにより、3角形分割のための分割線のリス
トを生成する。
Returning to FIG. 7, in step SP21, the CPU 3 uses the generated scan line segment arrangement table to generate 3
The face surface polygon is generated by performing the polygon division processing. The CPU 3 focuses on a desired line segment among the line segments connecting the vertices, and determines whether or not the focused line segment can be a dividing line for dividing the polygon. That is, CPU
3 determines whether or not the line segment of interest intersects with all other line segments. If it is determined that the line segment does not intersect, the line segment further passes through the polygon. It is determined whether or not it is a segment. If it is determined that the line passes through the polygon, the line segment is determined as a dividing line for triangular division. Hereinafter, the CPU 3 generates a list of dividing lines for triangular division by performing the same processing for all the line segments.

【0062】例えば図9を用いて頂点P2から頂点P4
に向かう線分L1が分割線になるか否かを判定する場合
について説明する。まずCPU3は、Y=5の線分デー
タに着目し、座標Xの値が小さい順にフロムデータに該
当する線分データ「3、8」を並べる。その際、トゥデ
ータ及びフロムデータ両方に登録されている線分データ
は除く。そしてCPU3は、頂点P4のX座標値が線分
データ「3」のX座標値以上であってかつ線分データ
「8」のX座標値以下であるか否か判定し、その結果、
頂点P4のX座標値が上述の範囲内に存在すると判断
し、次にY=26の線分データに着目する。CPU3
は、座標Xの値が小さい順にトゥデータに該当する線分
データ「3、8」を並べる。その際、トゥデータ及びフ
ロムデータ両方に登録されている線分データは除く。そ
してCPU3は、頂点P2のX座標値が線分データ
「3」のX座標値以上であってかつ線分データ「8」の
X座標値以下であるか否か判定し、その結果、頂点P2
のX座標値が上述の範囲内に存在しないと判断し、当該
線分L1がポリゴン内を通る線分ではないと判断する。
For example, referring to FIG. 9, from vertex P2 to vertex P4
A case will be described in which it is determined whether or not the line segment L1 going to is a division line. First, the CPU 3 pays attention to the line segment data of Y = 5, and arranges the line segment data “3, 8” corresponding to the from-data in ascending order of the value of the coordinate X. At this time, line segment data registered in both the to data and the from data are excluded. Then, the CPU 3 determines whether or not the X coordinate value of the vertex P4 is equal to or larger than the X coordinate value of the line segment data “3” and equal to or smaller than the X coordinate value of the line segment data “8”.
It is determined that the X coordinate value of the vertex P4 is within the above range, and attention is paid to the line data of Y = 26. CPU3
Arranges line segment data “3, 8” corresponding to the toe data in ascending order of the value of the coordinate X. At this time, line segment data registered in both the to data and the from data are excluded. Then, the CPU 3 determines whether or not the X coordinate value of the vertex P2 is equal to or larger than the X coordinate value of the line segment data “3” and equal to or smaller than the X coordinate value of the line segment data “8”.
Is determined not to be within the above range, and it is determined that the line segment L1 is not a line segment passing through the polygon.

【0063】図7に戻って、ステップSP22におい
て、CPU3は、スキャンライン用線分配置表を用い
て、着目する閉ループの線分を挟む2つの空間のうちの
どちら側をポリゴンとするかを判定して文字のフェイス
部分を判断することにより、奥行き方向のポリゴンの法
線ベクトルすなわちフェイス奥行きポリゴンの表方向を
特定する。次にステップSP23において、CPU3
は、全ての頂点データに所望の長さの奥行きのポリゴン
を生成すると共に、各頂点にステップSP22で特定し
た法線ベクトルを付加することによりフェイス奥行きポ
リゴンを生成する。ステップSP24において、CPU
3は、全ての頂点データから奥行きの長さを減算した値
を背面ポリゴンのZ座標値とすることにより、−Z方向
の法線ベクトルを有するフェイス背面ポリゴンを生成す
る。
Returning to FIG. 7, in step SP22, the CPU 3 uses the scan line line arrangement table to determine which side of the two spaces sandwiching the line segment of the closed loop of interest as the polygon. By determining the face part of the character, the normal vector of the polygon in the depth direction, that is, the front direction of the face depth polygon is specified. Next, in step SP23, the CPU 3
Generates a face depth polygon by adding a normal vector specified in step SP22 to each vertex, while generating a polygon having a desired length for all vertex data. In step SP24, the CPU
No. 3 generates a face rear polygon having a normal vector in the −Z direction by setting a value obtained by subtracting the depth length from all the vertex data as the Z coordinate value of the rear polygon.

【0064】続いて、上述の手順に従って生成されたフ
ェイスポリゴンモデルに対して施される文字の輪郭を強
調するためのエッジモデルを生成する生成手順を図10
に示すフローチャートを用いて説明する。ステップSP
30から入ったステップSP31において、立体要素生
成手段としてのCPU3は、文字の輪郭を形成する各頂
点毎の座標値、法線ベクトルを利用して拡大又は縮小方
向の単位ベクトルを生成して保持する。
FIG. 10 shows a generation procedure for generating an edge model for enhancing the outline of a character applied to the face polygon model generated according to the above-described procedure.
This will be described with reference to the flowchart shown in FIG. Step SP
In step SP31 entered from step 30, the CPU 3 as a three-dimensional element generation unit generates and holds a unit vector in the enlargement or reduction direction using the coordinate values and the normal vectors for each vertex forming the outline of the character. .

【0065】例えば拡大方向の単位ベクトルを生成する
手法について図11を用いて説明する。文字Zの全ての
頂点は、頂点の座標及び法線ベクトルでなる頂点データ
と当該頂点の前後に位置する頂点の頂点データとに基づ
いて2つの拡大方向のベクトルを生成することができ
る。すなわち文字Zでは、着目した頂点の下方の頂点デ
ータを用いて作成されたベクトルをベクトルBaとする
と共に、上方の頂点データを用いて作成されたベクトル
をベクトルBbとする。これらベクトルBa及びBb
は、いずれも文字の輪郭を構成する線分から垂直方向に
延びるベクトルである。これら2つのベクトルBa及び
Bbと垂直に交わる補助線La及びLbをそれぞれ生成
すると、これら生成された補助線La及びLbが拡大さ
れた輪郭となり、当該補助線La及びLbが交わる交点
Paに対して原点から引かれたベクトルを拡大方向のベ
クトルBcとする。以下、同様にして全頂点について拡
大及び縮小方向の単位ベクトルを生成して保持する。
For example, a method of generating a unit vector in the enlargement direction will be described with reference to FIG. For all vertices of the character Z, two vectors in the enlargement direction can be generated based on the vertex data consisting of the coordinates and the normal vectors of the vertices and the vertex data of the vertices located before and after the vertex. That is, in the character Z, a vector created using the vertex data below the focused vertex is set as a vector Ba, and a vector created using the upper vertex data is set as a vector Bb. These vectors Ba and Bb
Are vectors extending in the vertical direction from the line segments forming the outline of the character. When auxiliary lines La and Lb that intersect perpendicularly with these two vectors Ba and Bb are respectively generated, these generated auxiliary lines La and Lb become enlarged contours, and an intersection Pa at which the auxiliary lines La and Lb intersect is generated. A vector drawn from the origin is defined as a vector Bc in the enlargement direction. Hereinafter, similarly, unit vectors in the enlargement and reduction directions are generated and held for all vertices.

【0066】ステップSP32において、CPU3は、
拡大及び縮小する大きさを示す拡大縮小係数を、予めユ
ーザによって指定された値に基づいて決定して登録する
ことにより、当該登録した値を用いて実際のエッジポリ
ゴンモデルの頂点位置を決定する。ステップSP33に
おいて、CPU3は、生成された拡大及び縮小方向の単
位ベクトルから拡大縮小係数に応じてエッジポリゴンモ
デルの頂点位置を決定する際、原点からエッジポリゴン
モデルの頂点位置に引かれた拡大縮小方向ベクトルのう
ち隣接する拡大縮小方向ベクトルが交差するか否か判断
する。その結果、CPU3は、隣接する拡大縮小方向ベ
クトルが交差すると判定された場合にはステップSP3
4に移行し、交差しないと判定された場合にはステップ
SP35に移行する。
At step SP32, the CPU 3
By determining and registering an enlargement / reduction coefficient indicating the size of enlargement / reduction based on a value specified in advance by the user, the actual vertex position of the edge polygon model is determined using the registered value. In step SP33, when determining the vertex position of the edge polygon model from the generated unit vectors in the enlargement and reduction directions according to the enlargement / reduction coefficient, the CPU 3 sets the enlargement / reduction direction subtracted from the origin to the vertex position of the edge polygon model. It is determined whether adjacent enlargement / reduction vectors among the vectors intersect. As a result, when it is determined that the adjacent scaling direction vectors intersect, the CPU 3 determines in step SP3
The process proceeds to step SP35, and if it is determined that they do not intersect, the process proceeds to step SP35.

【0067】ステップSP34において、CPU3は、
隣接する拡大縮小方向ベクトルが交差しないように拡大
縮小方向ベクトルの再計算を行い、これにより凹ポリゴ
ンが発生したり、図7に示すような3次元文字生成アル
ゴリズムが破綻することを回避している。例えば図12
に示すように、CPU3は、文字bの頂点Pbにおける
拡大方向ベクトルB1のように、複数の拡大方向ベクト
ルB4及びB5と交差する場合、交差しない拡大方向ベ
クトルB2を検索する。そしてCPU3は、当該検索さ
れた拡大方向ベクトルB2の直交する線分LB2及びLB3
の交点を、交差していた拡大方向ベクトルB1、B4及
びB5の頂点とすることにより、各拡大方向ベクトルB
1、B4及びB5が交差することを回避させる。
In step SP34, the CPU 3
Recalculation of the scaling direction vector is performed so that adjacent scaling direction vectors do not intersect, thereby avoiding generation of concave polygons and failure of the three-dimensional character generation algorithm as shown in FIG. . For example, FIG.
As shown in (2), when the CPU 3 intersects with a plurality of enlargement direction vectors B4 and B5 like the enlargement direction vector B1 at the vertex Pb of the character b, the CPU 3 searches for an enlargement direction vector B2 that does not intersect. Then, the CPU 3 determines the orthogonal line segments L B2 and L B3 of the searched enlarged direction vector B2.
Are defined as the vertices of the intersecting enlargement direction vectors B1, B4, and B5.
1, B4 and B5 are prevented from intersecting.

【0068】またCPU3は、文字Oの内部の空白部分
のように、エッジの大きさをきめる係数を大きくした際
に、完全に空間を閉塞させてしまう場合がある。この場
合、CPU3は、拡大方向ベクトルがないものとみなし
て元のキャラクタの輪郭の頂点をエッジの頂点として扱
うこととする。
Further, the CPU 3 may completely block the space when the coefficient for determining the size of the edge is increased, such as a blank portion inside the character O. In this case, the CPU 3 treats the vertex of the contour of the original character as the vertex of the edge, assuming that there is no enlargement direction vector.

【0069】ステップSP36において、CPU3は、
エッジ用に作成した頂点及びキャラクタの輪郭データを
用いて図8に示すようなスキャンライン用線分配置表を
作成する。ステップSP37において、CPU3は、エ
ッジの頂点座標及び法線ベクトルを利用して奥行きポリ
ゴンを生成し、次のステップSP38において、作成し
たエッジ背面部分に相当するエッジ背面ポリゴンを生成
する。因みに、エッジの種類によって表面と背面の拡大
及び縮小係数が異なる場合があるので、表面ポリゴンと
同様の処理を行う必要がある。
At step SP36, the CPU 3
A line arrangement table for scan lines as shown in FIG. 8 is created using the vertex and character contour data created for the edge. In step SP37, the CPU 3 generates a depth polygon using the vertex coordinates and the normal vector of the edge, and in the next step SP38, generates an edge back polygon corresponding to the created edge back portion. Incidentally, since the enlargement and reduction coefficients of the front surface and the back surface may be different depending on the type of edge, it is necessary to perform the same processing as for the front polygon.

【0070】以上の構成において、CPU3は、キーボ
ード27を介して指定された文字を基に当該文字の輪郭
を示すアウトラインデータD1を得、当該アウトライン
データD1に基づいてフェイスポリゴンモデルD3及び
シャドウポリゴンモデルD5でなる3次元の文字データ
を生成すると共に、当該生成した文字データの輪郭に応
じて当該輪郭を強調するためのエッジポリゴンモデルD
5でなる3次元のエッジデータを生成する。そしてCP
U3は、文字データにエッジデータを付加することによ
りポリゴンモデルD9でなる3次元文字データを生成
し、当該3次元文字データに応じた画像をディスプレイ
21に表示する。
In the above configuration, the CPU 3 obtains outline data D1 indicating the outline of the character on the basis of the character specified via the keyboard 27, and based on the outline data D1, the face polygon model D3 and the shadow polygon model. An edge polygon model D for generating three-dimensional character data D5 and emphasizing the outline according to the outline of the generated character data
5 is generated. And CP
U3 generates three-dimensional character data composed of the polygon model D9 by adding edge data to the character data, and displays an image corresponding to the three-dimensional character data on the display 21.

【0071】以上の構成によれば、キーボード27を介
して指定された文字を基に3次元の文字データを生成す
ると共に、当該生成した文字データの輪郭に応じて当該
輪郭を強調するための3次元のエッジデータを生成し、
その文字データにエッジデータを付加して3次元文字デ
ータを生成することにより、当該3次元文字データに応
じた3次元文字を当該3次元文字の背景となる編集対象
の映像に重ねて表示する際、当該背景の色と3次元文字
のエッジ部分の色とを異なる色に指定すれば、3次元文
字と背景との間の境界を強調することができ、かくして
3次元文字の映像タイトルを編集対象の映像上に確実に
表示し得る。
According to the above configuration, three-dimensional character data is generated based on the character specified via the keyboard 27, and the three-dimensional character data for enhancing the outline in accordance with the outline of the generated character data. Generate dimensional edge data,
When the edge data is added to the character data to generate the three-dimensional character data, the three-dimensional character corresponding to the three-dimensional character data is displayed over the editing target video which is the background of the three-dimensional character. If the color of the background and the color of the edge portion of the three-dimensional character are specified to be different colors, the boundary between the three-dimensional character and the background can be emphasized, and thus the video title of the three-dimensional character can be edited. Can be surely displayed on the image of.

【0072】(3)アプリケーションプログラムに組み
込まれているカラーピッカーによる色選択手順 ここでは図4のマテリアル設定ステップ(SP6)で行
われるカラーピッカーによる色選択手順について図13
に示すフローチャートについて具体的に説明する。な
お、この色選択を行うためのカラーピッカーは、映像タ
イトルを生成するためのアプリケーションプログラムに
組み込まれているものである。まずステップSP44か
ら入ったステップSP45において、CPU3は、図3
に示すGUI画面60のようにエッジ・シャドウ設定メ
ニュー76が選択されている場合、ユーザの操作に応じ
てマテリアル設定メニュー74が選択されると、図14
に示すようなカラーピッカー120をGUI画面60に
表示する。このカラーピッカー120は、その中央付近
に色選択操作部122を表示し、当該色選択操作部12
2に大まかな色見本を表示している。
(3) Color selection procedure by color picker incorporated in application program Here, the color selection procedure by color picker performed in the material setting step (SP6) of FIG. 4 is shown in FIG.
The flowchart shown in FIG. Note that the color picker for performing this color selection is incorporated in an application program for generating a video title. First, in step SP45 entered from step SP44, the CPU 3 executes
When the edge / shadow setting menu 76 is selected as in the GUI screen 60 shown in FIG. 14, when the material setting menu 74 is selected in accordance with the operation of the user, FIG.
Is displayed on the GUI screen 60 as shown in FIG. The color picker 120 displays a color selection operation section 122 near the center thereof, and
2 shows a rough color sample.

【0073】ステップSP46において、CPU3は、
ユーザの操作に応じて、カラーピッカー120の色選択
操作部122に表示されている色見本の中から所望の色
に最も近い色の部分にマウスポインタ124を移動し、
マウスボタン(図示せず)をクリックした状態に保持
(以下、これをホールドと呼ぶ)する。ステップSP4
7において、CPU3は、ユーザの操作に応じて、例え
ばマウス31の右ボタンに予め設定されている拡大キー
を押圧し、当該拡大キーを押圧したままの状態で保持す
る。
In step SP46, the CPU 3
In response to the user's operation, the mouse pointer 124 is moved to a portion of the color sample displayed on the color selection operation section 122 of the color picker 120 that is closest to the desired color,
The mouse button (not shown) is held in a clicked state (hereinafter, this is referred to as hold). Step SP4
At 7, the CPU 3 presses, for example, a preset enlargement key on the right button of the mouse 31, for example, in response to a user operation, and keeps the enlargement key pressed.

【0074】そしてステップSP48において、CPU
3は、拡大ウィンドウ126を表示し、当該拡大ウィン
ドウ126にマウスポインタ124によって指定された
部分の周辺の色見本を十分な解像度で拡大表示する。ス
テップSP49において、CPU3は、ユーザの操作に
応じて、拡大ウィンドウ126に表示された色見本の中
から所望の色の部分にマウスポインタ124を移動して
ホールド状態を解除することにより色を確定し、当該確
定した色を画像編集画面としてのシーンウィンドウ62
上の3次元文字に施す。次にステップSP50におい
て、CPU3は、ユーザの操作に応じて、拡大キーの押
圧が解除されると、ステップSP51において、拡大ウ
ィンドウ126がGUI画面60から消去される。次に
ステップSP52に移って処理を終了する。
Then, in step SP48, the CPU
3 displays an enlarged window 126, and enlarges and displays a color sample around a portion designated by the mouse pointer 124 on the enlarged window 126 with a sufficient resolution. In step SP49, the CPU 3 determines the color by moving the mouse pointer 124 to a desired color portion from the color sample displayed in the enlargement window 126 and releasing the hold state in accordance with the operation of the user. The scene window 62 serving as the image editing screen
Apply to the above three-dimensional character. Next, in step SP50, when the CPU 3 releases the pressing of the enlargement key in response to the user's operation, the enlargement window 126 is deleted from the GUI screen 60 in step SP51. Next, the process moves to step SP52 and ends.

【0075】以上の構成において、CPU3は、カラー
ピッカー120の色選択操作部122の一部を必要に応
じて高い解像度で拡大ウィンドウ126に拡大表示する
ことにより、カラーピッカー120の表示面積を大きく
することなく、現存する全ての色を表示する。
In the above configuration, the CPU 3 enlarges the display area of the color picker 120 by enlarging and displaying a part of the color selection operation unit 122 of the color picker 120 in the enlargement window 126 at a high resolution as necessary. Display all existing colors without any changes.

【0076】以上の構成によれば、カラーピッカー12
0の色選択操作部122の一部を必要に応じて拡大表示
することにより、カラーピッカー120の表示面積を大
きくすることなく、現存する全ての色を表示することが
でき、かくして従来の視認性を維持しながら所望の色を
選択し得る。
According to the above configuration, the color picker 12
By enlarging and displaying a part of the 0 color selection operation unit 122 as necessary, all existing colors can be displayed without increasing the display area of the color picker 120. While maintaining the desired color.

【0077】(4)グループプロパティダイアログによ
る色選択手順 ここでは図4のマテリアル設定ステップ(SP6)で行
われるグループプロパティダイアログによる色選択手順
について図16に示すフローチャートを用いて具体的に
説明する。なお、この色を選択するための色選択ダイア
ログは、オペレーティングシステムに組み込まれている
ものである。
(4) Color Selection Procedure Using Group Property Dialog The color selection procedure using the group property dialog performed in the material setting step (SP6) in FIG. 4 will be specifically described with reference to the flowchart shown in FIG. Note that the color selection dialog for selecting the color is built into the operating system.

【0078】まずステップSP60から入ったステップ
SP61において、CPU3は、図3に示すGUI画面
60を表示している状態で、ユーザの操作入力に応じて
グループプロパティ設定ボタン71がクリックされる
と、ステップSP162に進んで、図17に示すような
グループプロパティダイアログ130を表示する。
First, in step SP61 entered from step SP60, when the CPU 3 clicks the group property setting button 71 in response to the user's operation input while the GUI screen 60 shown in FIG. Proceeding to SP162, a group property dialog 130 as shown in FIG. 17 is displayed.

【0079】このグループプロパティダイアログ130
は、図5に示すポリゴンモデルD9(図5)のうち、フ
ェイスポリゴンモデルD3の色を設定するための色設定
ボタン132及び当該フェイスポリゴンモデルD3のグ
ラデーション(階調)を設定するための色設定ボタン1
33、シャドウポリゴンモデルD7の色を設定するため
の色設定ボタン134及び当該シャドウポリゴンモデル
D7のグラデーションを設定するための色設定ボタン1
35、エッジポリゴンモデルD5の色を設定するための
色設定ボタン136及び当該エッジポリゴンモデルD5
のグラデーションを設定するための色設定ボタン13
7、シーンウィンドウ62(図3)に表示されるポリゴ
ンモデルD9の影の色を設定するための色設定ボタン1
38及び当該影のグラデーションを設定するための色設
定ボタン139を表示している。これら色設定ボタン1
32〜139は、それぞれボタン上に現在設定されてい
るRGBの各パラメータ値を表示している。
This group property dialog 130
Is a color setting button 132 for setting the color of the face polygon model D3 of the polygon model D9 (FIG. 5) shown in FIG. 5, and a color setting for setting the gradation (gradation) of the face polygon model D3. Button 1
33, a color setting button 134 for setting the color of the shadow polygon model D7 and a color setting button 1 for setting the gradation of the shadow polygon model D7
35, a color setting button 136 for setting the color of the edge polygon model D5, and the edge polygon model D5
Color setting button 13 for setting the gradation of
7. Color setting button 1 for setting the shadow color of polygon model D9 displayed in scene window 62 (FIG. 3)
38 and a color setting button 139 for setting the gradation of the shadow. These color setting buttons 1
32 to 139 indicate RGB parameter values currently set on the buttons, respectively.

【0080】ステップSP63において、CPU3は、
ユーザの入力操作に応じて、色設定ボタン132〜13
9のうち、色を変更する対象のポリゴンモデルの色設定
ボタンをクリックすると、ステップSP64に進んで、
図18に示すような色選択ダイアログ145を表示す
る。ステップSP65において、CPU3は、色選択ダ
イアログ145を表示している状態で、ユーザの入力操
作に応じて基本色147の中から所望の色を選択した
後、OKボタン149をクリックすることにより指定し
たポリゴンモデルの色を決定する。
At step SP63, the CPU 3
Color setting buttons 132 to 13 according to user's input operation
When the color setting button of the polygon model whose color is to be changed is clicked, the process proceeds to step SP64.
A color selection dialog 145 as shown in FIG. 18 is displayed. In step SP65, while displaying the color selection dialog 145, the CPU 3 selects a desired color from the basic colors 147 in accordance with the user's input operation, and then specifies the color by clicking the OK button 149. Determine the color of the polygon model.

【0081】ステップSP66に進んで、CPU3は、
色選択ダイアログ145を閉じ、グループプロパティダ
イアログ130を表示すると共に、当該グループプロパ
ティダイアログ130のうち、選択された色設定ボタン
132〜139の各パラメータ値を設定されたパラメー
タ値に変更して表示する。この状態において、CPU3
は、ユーザの入力操作に応じてOKボタン151がクリ
ックされると、グループプロパティダイアログ130を
閉じ、シーンウィンドウ62(図3)に表示されている
3次元文字に色を施す。次にステップSP67に移って
処理を終了する。
At step SP66, the CPU 3
The color selection dialog 145 is closed, the group property dialog 130 is displayed, and the parameter values of the selected color setting buttons 132 to 139 in the group property dialog 130 are changed to the set parameter values and displayed. In this state, the CPU 3
When the OK button 151 is clicked in response to the user's input operation, the group property dialog 130 is closed, and the three-dimensional characters displayed in the scene window 62 (FIG. 3) are colored. Next, the process moves to step SP67 and ends.

【0082】以上の構成において、グループプロパティ
ダイアログ130は、色設定ボタン132〜139上に
現在設定されているRGBの各パラメータ値を表示する
ことにより、従来のように色設定ボタンを表示する領域
とは別の領域にパラメータ値を表示する場合に比して、
限られたグループプロパティダイアログ130の表示領
域を有効に利用している。
In the above-described configuration, the group property dialog 130 displays the currently set RGB parameter values on the color setting buttons 132 to 139, thereby providing an area for displaying the color setting button as in the related art. Is compared to displaying parameter values in another area,
The limited display area of the group property dialog 130 is effectively used.

【0083】以上の構成によれば、色選択ダイアログ1
45を表示するための色設定ボタン132〜139上に
現在設定されているRGBの各パラメータ値を表示する
ことにより、従来のように色設定ボタンを表示する領域
とは別の領域にパラメータ値を表示する場合に比して、
限られたグループプロパティダイアログ130の表示領
域を有効に利用することができ、かくして従来に比して
一段と効率的な表示画面を生成し得る。
According to the above configuration, the color selection dialog 1
By displaying each of the currently set RGB parameter values on the color setting buttons 132 to 139 for displaying the image 45, the parameter values are set in an area different from the area where the color setting button is displayed as in the related art. Compared to displaying,
The limited display area of the group property dialog 130 can be effectively used, and thus a more efficient display screen can be generated as compared with the related art.

【0084】(5)透視投影変換 ここでは図4のパース設定ステップ(SP7)で行われ
る透視投影変換手順について図19に示すフローチャー
トを用いて具体的に説明する。まずステップSP75か
ら入ったステップSP76において、CPU3は、ユー
ザの入力情報に応じて、ポリゴンモデルD9(図5)か
らなる文字列に対して個別に透視投影変換を行う(以
下、これをマルチパースと呼ぶ)指定があったか否かを
判定し、その結果、マルチパース指定があったと判断し
た場合にはステップSP77に移行し、マルチパース指
定がなかったと判断した場合にはステップSP78に移
行する。
(5) Perspective projection conversion Here, the perspective projection conversion procedure performed in the perspective setting step (SP7) of FIG. 4 will be specifically described with reference to the flowchart shown in FIG. First, in step SP76, which is entered from step SP75, the CPU 3 individually performs perspective projection conversion on a character string composed of the polygon model D9 (FIG. 5) according to user input information (hereinafter referred to as multi-perspective). It is determined whether or not there is a designation. As a result, when it is determined that the multi-parse designation has been made, the process proceeds to step SP77, and when it is determined that the multi-parse designation has not been made, the process proceeds to step SP78.

【0085】ステップSP77において、CPU3は、
マルチパース指定があった文字列に対してパース設定を
行うことにより透視投影変換を施し、その際、当該透視
投影変換された文字列を枠無しウィンドウと呼ばれる表
示領域内に表示する。ステップSP78に進んで、CP
U3は、シーンウィンドウ62全体に対してパース設定
を行うことにより、マルチパース指定を受けなかった文
字列に対してパース設定を行って透視投影変換を施す。
At step SP77, the CPU 3
Perspective projection conversion is performed by performing parse setting on a character string for which multi-perspective designation has been made. At this time, the character string subjected to perspective projection conversion is displayed in a display area called a frameless window. Proceeding to step SP78, the CP
U3 performs perspective setting by performing parse setting on the entire scene window 62, thereby performing parse setting on a character string that has not been designated for multi-perspective.

【0086】図20は、マルチパース指定対象外の文字
列160〜162を表示することに加えてマルチパース
指定対象の文字列163及び164を枠無しウィンドウ
163W及び164Wに表示したシーンウィンドウ62
を示す。枠無しウィンドウ163W及び164Wの大き
さは、文字列が透視投影変換されたときのシーンウィン
ドウ62の大きさを基に、当該透視投影変換された文字
列を包含する最も小さい直方体によって決定される。こ
のシーンウィンドウ62上の大きさは、一度シーンウィ
ンドウ62に描画処理を最後まで実行しないと得られな
いので、1回目の描画処理によって決定された大きさを
基準として、2回目以降の描画処理において必要最小限
の大きさを算出していく。
FIG. 20 shows a scene window 62 in which character strings 160 to 162 not to be designated for multi-perspective display and character strings 163 and 164 to be designated for multi-perspective are displayed in frameless windows 163W and 164W.
Is shown. The sizes of the frameless windows 163W and 164W are determined based on the size of the scene window 62 when the character string is perspectively transformed, and is determined by the smallest rectangular parallelepiped including the perspectively transformed character string. Since the size on the scene window 62 cannot be obtained unless the drawing process is performed to the scene window 62 to the end, the size in the second and subsequent drawing processes is based on the size determined by the first drawing process. Calculate the required minimum size.

【0087】図20との対応部分に同一符号を付して示
す図21は、マルチパース指定対象外の文字列162及
びマルチパース指定対象の文字列164を上方に移動さ
せるアニメーション処理を示す。その際、マルチパース
指定対象外の文字列162は、視点に対する文字列の位
置を移動している一方、マルチパース指定対象の文字列
164は、透視投影変換による変化がない。このように
シーンウィンドウ62では、枠無しウィンドウがない状
態で表示されている文字列162のアニメーション処理
と枠無しウィンドウ164Wの表示位置の変更という2
種類のアニメーション処理を行い得る。
FIG. 21, in which parts corresponding to those in FIG. 20 are assigned the same reference numerals, shows an animation process in which the character string 162 not to be designated for multi-parse and the character string 164 to be designated for multi-parse are moved upward. At this time, the character string 162 that is not a multi-perspective designation target is moving the position of the character string with respect to the viewpoint, while the character string 164 that is a multi-perspective designation target is not changed by the perspective projection conversion. As described above, in the scene window 62, the animation processing of the character string 162 displayed without the frameless window and the change of the display position of the frameless window 164W are performed.
Various types of animation processing can be performed.

【0088】以上の構成において、CPU3は、仮想3
次元空間中に生成した3次元文字でなる映像タイトルを
文字列毎に個別に透視投影変換を行ってシーンウィンド
ウ62に表示することにより、映像タイトルを構成する
複数種類の3次元文字列をそれぞれ独立した空間に存在
するように表示する要求がある場合、従来のように複数
種類の3次元文字列をそれぞれ個別に透視投影変換した
画面を合成するような手間が必要ない。またCPU3
は、複数の異なる種類の透視投影変換が施された3次元
文字列を同一のシーンウィンドウ62上に表示し、ユー
ザの要求に応じて3次元文字列が存在する空間内で当該
3次元文字列を移動させたり、3次元文字列が存在する
空間を当該3次元文字列と共に移動させることにより、
ユーザの要求に応じたアニメーションが作成される。
In the above configuration, the CPU 3
A plurality of types of three-dimensional character strings constituting a video title are independently displayed by performing perspective projection conversion on a video title composed of three-dimensional characters generated in a three-dimensional space individually for each character string and displaying the same in a scene window 62. When there is a request to display the three-dimensional character strings in such a manner that they exist in the space, there is no need for the trouble of composing a screen obtained by individually performing perspective projection conversion of a plurality of types of three-dimensional character strings. CPU3
Displays, on the same scene window 62, a plurality of three-dimensional character strings subjected to a plurality of different types of perspective projection conversion, and in response to a user request, displays the three-dimensional character strings in a space where the three-dimensional character strings exist. Or by moving the space where the three-dimensional character string exists together with the three-dimensional character string,
An animation according to the user's request is created.

【0089】以上の構成によれば、仮想3次元空間中に
生成した3次元文字でなる映像タイトルを文字列毎に個
別に透視投影変換を行ってシーンウィンドウ62に表示
することにより、ユーザの要求に応じてそれぞれ独立し
た空間内に存在する3次元文字列でなる映像タイトルを
容易に生成することができ、かくして従来に比して一段
とユーザの使い勝手を向上し得る。
According to the above-described configuration, the video titles composed of three-dimensional characters generated in the virtual three-dimensional space are individually subjected to perspective projection conversion for each character string and displayed in the scene window 62. Thus, a video title consisting of a three-dimensional character string existing in an independent space can be easily generated according to the above, and thus the usability of the user can be further improved as compared with the related art.

【0090】(6)3次元文字の回転動作 ここでは図4に示すフローチャートの描画ステップ(S
P9)が終了した後に必要に応じて行われる3次元文字
の回転動作手順について図22に示すフローチャートを
用いて説明する。まずステップSP85から入ったステ
ップSP86において、CPU3は、ユーザの操作入力
に応じて、シーンウィンドウ62に表示されている映像
タイトルのうち所望の3次元文字上でマウス31の左ボ
タン(図示せず)がダブルクリックされると、当該3次
元文字を選択状態にする。
(6) Rotational operation of three-dimensional characters Here, the drawing step (S
The procedure for rotating the three-dimensional character, which is performed as necessary after the completion of P9), will be described with reference to the flowchart shown in FIG. First, in step SP86 entered from step SP85, the CPU 3 responds to a user's operation input by pressing the left button (not shown) of the mouse 31 on a desired three-dimensional character in a video title displayed in the scene window 62. Is double-clicked, the three-dimensional character is selected.

【0091】ステップSP87において、CPU3は、
ユーザの操作入力に応じて、回転軸スイッチ69に表示
されている回転軸すなわちX軸、Y軸及びZ軸のうちの
所望のものがマウス31によってクリックされると、当
該クリックされた回転軸を選択する。次にステップSP
88において、CPU3は、ユーザの操作入力に応じ
て、選択状態にある3次元文字に対してマウス31の左
ボタンが押圧されると、当該3次元文字の回転を開始さ
せ、ステップSP89に進んで、マウス31の左ボタン
を押した状態で移動(以下、これをドラッグと呼ぶ)さ
せることにより、現在選択されている回転軸における3
次元文字の回転角度を調整する。
In step SP87, the CPU 3 determines
In response to a user's operation input, when a desired one of the rotation axes displayed on the rotation axis switch 69, that is, the X axis, the Y axis, and the Z axis is clicked by the mouse 31, the clicked rotation axis is displayed. select. Next, step SP
In 88, when the left button of the mouse 31 is pressed on the selected three-dimensional character in response to the user's operation input, the CPU 3 starts rotating the three-dimensional character, and proceeds to step SP89. By moving the mouse 31 while holding down the left button of the mouse 31 (hereinafter referred to as drag), the 3
Adjust the rotation angle of 3D characters.

【0092】ステップSP90において、CPU3は、
ユーザの入力操作に応じてマウス31の左ボタンが解放
されたか否か判断し、その結果、解放されたと判断した
場合にはステップSP91に移って、選択された3次元
文字の表示状態を決定して処理を終了し、解放されてい
ないと判断した場合にはステップSP92に移る。
At step SP90, the CPU 3
It is determined whether or not the left button of the mouse 31 has been released in response to the user's input operation. As a result, if it is determined that the left button has been released, the process proceeds to step SP91 to determine the display state of the selected three-dimensional character. If it is determined that the release has not been performed, the process proceeds to step SP92.

【0093】ステップSP92において、CPU3は、
ユーザの入力操作に応じて、マウス31の右ボタンが押
圧されたか否か判断し、その結果、右ボタンが押圧され
ていないと判断した場合にはステップSP89に戻って
動作を繰り返す。ステップSP93において、CPU3
は、回転軸をX軸、Y軸、Z軸、X軸、……という順序
で順次切り替えた後、ステップSP89に戻って当該切
り替えられた回転軸の回転角度を調整する。
At step SP92, the CPU 3
It is determined whether or not the right button of the mouse 31 has been pressed according to the user's input operation. If it is determined that the right button has not been pressed, the process returns to step SP89 and repeats the operation. In step SP93, the CPU 3
, Sequentially switches the rotation axis in the order of X axis, Y axis, Z axis, X axis,..., Returns to step SP89, and adjusts the rotation angle of the switched rotation axis.

【0094】以上の構成において、CPU3は、マウス
31の左ボタンを押圧してドラッグさせながら所望の回
転軸における3次元文字の回転角度を調整している状態
において、当該回転軸における回転角度の調整が終了し
た場合にはマウス31の右ボタンを押圧することによ
り、予め決められている順序に従って回転角度を調整す
るための回転軸を切り替える。これにより従来のように
回転軸スイッチ69の中から所望の回転軸を選択するよ
うな操作を行わずに回転軸が切り替えられる。
In the above configuration, the CPU 3 adjusts the rotation angle of the three-dimensional character on the desired rotation axis while pressing and dragging the left button of the mouse 31 while dragging. Is completed, the right button of the mouse 31 is pressed to switch the rotation axis for adjusting the rotation angle in a predetermined order. Thus, the rotation axis can be switched without performing an operation of selecting a desired rotation axis from the rotation axis switches 69 as in the related art.

【0095】以上の構成によれば、マウス31の右ボタ
ンを押圧する毎に予め決められた順序に従って回転軸を
順次切り替えることにより、従来のように回転軸スイッ
チ69の中から所望の回転軸を選択する場合に比して簡
単に回転軸を選択することができ、かくして従来に比し
て一段と容易に3次元文字の回転動作を行うことができ
る。
According to the above arrangement, the rotation axis is sequentially switched in accordance with a predetermined sequence each time the right button of the mouse 31 is pressed, so that a desired rotation axis is selected from among the rotation axis switches 69 as in the prior art. The rotation axis can be selected more easily than in the case of selection, and thus the rotation operation of the three-dimensional character can be performed more easily than in the conventional case.

【0096】(7)アニメーションデータの作成及び管
理 ここでは図4に示すフローチャートの描画処理ステップ
(SP9)が終了した後に必要に応じて行われる3次元
文字のアニメーションデータ作成及びその管理方法につ
いて説明する。映像タイトル生成装置1は、生成した映
像タイトルに滑らかな動きを付加するアニメーション手
法として、まず複数の基準となるフレーム(以下、これ
をキーフレームと呼ぶ)を用意し、当該キーフレーム間
に各キーフレームにおける3次元文字の位置を直線又は
曲線で補間してなる画像を複数挿入することによりアニ
メーションデータを生成するようなキーフレームアニメ
ーションと呼ばれる手法を採用している。
(7) Creation and Management of Animation Data Here, a description will be given of a method for creating and managing three-dimensional character animation data performed as necessary after the drawing processing step (SP9) of the flowchart shown in FIG. 4 is completed. . The video title generation device 1 first prepares a plurality of reference frames (hereinafter, referred to as key frames) as an animation technique for adding a smooth motion to the generated video title, and sets each key between the key frames. A technique called key frame animation is used in which animation data is generated by inserting a plurality of images obtained by interpolating the positions of three-dimensional characters in a frame with straight lines or curves.

【0097】以下、このキーフレームアニメーション作
成手順について図23に示すフローチャートを用いて説
明する。ステップSP100から入ったステップSP1
01において、CPU3は、図4に示すポリゴンモデル
生成手順を順次繰り返すことにより3次元文字を作成す
る。ステップSP102において、CPU3は、ユーザ
の入力操作に応じて上述の3次元文字に対して移動、拡
大縮小及び回転などの画像処理を施すことにより動画像
を作成する。
Hereinafter, the key frame animation creation procedure will be described with reference to the flowchart shown in FIG. Step SP1 entered from step SP100
At 01, the CPU 3 creates a three-dimensional character by sequentially repeating the polygon model generation procedure shown in FIG. In step SP102, the CPU 3 creates a moving image by performing image processing such as movement, enlargement / reduction, and rotation on the above-described three-dimensional character according to a user's input operation.

【0098】次にステップSP103において、CPU
3は、ユーザの入力操作に応じて図3に示すGUI画面
60においてキーフレーム追加ボタン90がクリックさ
れると、図2に示すGUIオブジェクト42からドキュ
メント・オブジェクト48に対して現在の3次元文字の
表示状態をメッセージ情報M2として送出させ、ステッ
プSP104に進んで、CPU3は、ドキュメント・オ
ブジェクト48において採用されている図24に示すよ
うなシーングラフと呼ばれる階層データ構造の各ノード
にアニメーションデータを追加するようになされてい
る。その際、CPU3は、アニメーション動作するノー
ドに対してのみデータを追加し、アニメーション動作し
ないノードに対してはデータを追加しないようになって
いる。
Next, at step SP103, the CPU
When a key frame addition button 90 is clicked on the GUI screen 60 shown in FIG. 3 in response to a user input operation, the GUI object 42 shown in FIG. The display state is sent as message information M2, and the process proceeds to step SP104, where the CPU 3 adds animation data to each node of a hierarchical data structure called a scene graph as shown in FIG. It has been made like that. At this time, the CPU 3 adds data only to nodes that perform an animation operation, and does not add data to nodes that do not perform an animation operation.

【0099】具体的には図24に示すように、シーング
ラフ170は、ページノード171、レイヤノード17
2、グループノード173、マテリアルノード174、
トランスレートノード175、スケールノード176、
ローテートノード177及びモデルノード178によっ
て構成されている。
More specifically, as shown in FIG. 24, the scene graph 170 includes a page node 171 and a layer node 17.
2, group node 173, material node 174,
Translate node 175, scale node 176,
It is composed of a rotate node 177 and a model node 178.

【0100】ページノード171は、動画像全体に関す
る情報を保持し、レイヤノード172は、レイヤに関す
る情報を保持し、グループノード173は、グループに
関する情報を保持する。マテリアルノード174は、ポ
リゴンモデルの色や質感に関する情報を保持し、トラン
スレートノード175は、ポリゴンモデルの仮想3次元
空間内での位置に関する情報を保持する。スケールノー
ド176は、ポリゴンモデルの拡大縮小率に関する情報
を保持し、ローテートノード177は、ポリゴンモデル
の回転状態に関する情報を保持し、モデルノード178
は、フォントや文字データ等の表示モデル自身の特性に
関する情報を保持する。
The page node 171 holds information on the entire moving image, the layer node 172 holds information on layers, and the group node 173 holds information on groups. The material node 174 holds information on the color and texture of the polygon model, and the translate node 175 holds information on the position of the polygon model in the virtual three-dimensional space. The scale node 176 holds information on the scaling ratio of the polygon model, the rotate node 177 holds information on the rotation state of the polygon model, and the model node 178.
Holds information on characteristics of the display model itself, such as fonts and character data.

【0101】以上の構成において、CPU3は、キーフ
レームに対してアニメーション動作する3次元文字のデ
ータのみを記憶させていくことにより、従来のように映
像タイトル全体を動画像として各フレームの3次元文字
データを全て記憶する場合に比して記憶対象のデータ量
を削減している。またCPU3では、静止画像と動画像
とを同一のデータ構造で管理していることから、従来の
ように静止画像と動画像とを別々に管理する場合に比し
て映像タイトルの管理が単純化される。
In the above configuration, the CPU 3 stores only the data of the three-dimensional character which performs an animation operation with respect to the key frame. The amount of data to be stored is reduced as compared with the case where all data is stored. Further, since the still image and the moving image are managed by the same data structure in the CPU 3, the management of the video title is simplified as compared with the conventional case where the still image and the moving image are separately managed. Is done.

【0102】以上の構成によれば、基準となる静止画像
に対してアニメーション動作する領域の画像データのみ
を順次記憶していくことにより、各フレームの全ての画
像データを記憶する場合に比して記憶対象のデータのデ
ータを削減することができ、かくして従来に比して一段
と効率的に画像データを管理し得る。
According to the above configuration, by sequentially storing only the image data of the area where the animation operation is performed with respect to the reference still image, compared with the case where all the image data of each frame is stored. The data of the data to be stored can be reduced, and thus the image data can be managed more efficiently than before.

【0103】(8)映像タイトル送出手順 ここでは映像タイトルの生成、編集及び送出にかかわる
一連の作業について説明する。以下、図25に示すフロ
ーチャートを用いて映像タイトルの送出手順について具
体的に説明する。ステップSP110から入ったステッ
プSP111において、CPU3は、ユーザの入力操作
に応じてキーボード27から所望の文字が指定される
と、当該文字に応じた3次元文字をグラフィックスアク
セラレータ13(図1)を介してディスプレイ21(図
1)に瞬時に表示する。
(8) Video Title Transmission Procedure Here, a series of operations related to generation, editing, and transmission of a video title will be described. Hereinafter, the procedure for transmitting the video title will be specifically described with reference to the flowchart shown in FIG. In step SP111 entered from step SP110, when a desired character is designated from the keyboard 27 in accordance with the user's input operation, the CPU 3 outputs a three-dimensional character corresponding to the character via the graphics accelerator 13 (FIG. 1). And instantaneously displays it on the display 21 (FIG. 1).

【0104】ステップSP112において、CPU3
は、ユーザの入力操作に応じて、位置、大きさ及びマテ
リアル等の各種属性値が設定されると、当該設定された
属性値に応じた3次元文字をグラフィックスアクセラレ
ータ13(図1)を介してディスプレイ21(図1)に
瞬時に表示する。このように映像タイトル生成装置1で
は、キーボード27(図1)からユーザによって入力情
報が入力されると、当該入力情報に応じた3次元文字を
即座にディスプレイ21に表示することができることか
ら、ユーザはインタラクティブ(対話的)に入力結果を
確認しながら編集作業を行うことができる。
At step SP112, the CPU 3
When various attribute values such as a position, a size, and a material are set in accordance with a user's input operation, a three-dimensional character corresponding to the set attribute value is transmitted via the graphics accelerator 13 (FIG. 1). And instantaneously displays it on the display 21 (FIG. 1). As described above, in the video title generation device 1, when input information is input by the user from the keyboard 27 (FIG. 1), three-dimensional characters corresponding to the input information can be immediately displayed on the display 21. Can perform editing work while checking input results interactively.

【0105】ステップSP113において、CPU3
は、ユーザの操作入力に基づいて編集作業を終了するか
否か判断し、その結果、ディスプレイ21に表示されて
いる3次元文字にさらに修正を加える必要があると判断
した場合にはステップSP111に戻って編集作業を継
続し、編集作業を終了すると判断した場合にはステップ
SP114に移行する。
In step SP113, the CPU 3
Determines whether or not to end the editing work based on the user's operation input. If it is determined that the three-dimensional characters displayed on the display 21 need to be further modified, the process proceeds to step SP111. The process returns to continue the editing operation, and if it is determined that the editing operation is to be ended, the process proceeds to step SP114.

【0106】ステップSP114において、CPU3
は、グラフィックスアクセラレータ13から映像タイト
ルをフレームバッファに供給し、当該映像タイトルと外
部から供給された映像とを合成してモニタ23に出力し
て表示する。次にステップSP115に移って処理を終
了する。
In step SP114, the CPU 3
Supplies the video title from the graphics accelerator 13 to the frame buffer, combines the video title with an externally supplied video, and outputs the synthesized video title to the monitor 23 for display. Next, the process moves to step SP115 and ends.

【0107】以上の構成において、CPU3は、ユーザ
の入力操作に応じて生成された3次元文字をグラフィッ
クスアクセラレータ13を介して当該3次元文字に応じ
た映像合成用の画像に変換してディスプレイ21に即座
に表示することにより、ユーザは入力結果をインタラク
ティブに確認しながら編集作業を行う。またCPU3
は、ユーザの操作入力に応じてグラフィックスアクセラ
レータ13からフレームバッファ15に映像タイトルを
転送して当該フレームバッファ15によって映像タイト
ルと編集対象の映像とを合成してモニタ23に出力して
表示することにより、送出作業にかかる手間や時間が削
減される。
In the above configuration, the CPU 3 converts the three-dimensional character generated in response to the input operation of the user into an image for image synthesis corresponding to the three-dimensional character via the graphics accelerator 13 and displays the image on the display 21. , The user performs an editing operation while interactively checking the input result. CPU3
Is to transfer a video title from the graphics accelerator 13 to the frame buffer 15 in response to a user's operation input, combine the video title with the video to be edited by the frame buffer 15, and output the resultant to the monitor 23 for display. Thus, labor and time required for the sending operation are reduced.

【0108】以上の構成によれば、ユーザの操作入力に
応じた3次元文字でなる映像タイトル用の画像を即座に
ディスプレイ21に表示すると共に、送出の際にはグラ
フィックスアクセラレータ13からフレームバッファ1
5に映像タイトルデータを転送して当該フレームバッフ
ァ15によって映像タイトルと外部から供給される映像
とを合成してモニタ23に表示することにより、従来の
ように3次元文字の生成、編集及び送出にかかわる作業
を削減することができ、かくして従来に比して一段と使
い勝手を向上し得る。
According to the above configuration, an image for a video title composed of three-dimensional characters according to the user's operation input is immediately displayed on the display 21, and upon transmission, the graphics accelerator 13 sends the frame buffer 1
5 by transferring the video title data to the frame buffer 15 and synthesizing the video title and the video supplied from the outside by the frame buffer 15 and displaying the synthesized video title on the monitor 23. The work involved can be reduced, and the usability can be further improved as compared with the related art.

【0109】(9)他の実施の形態 なお上述の実施の形態においては、マウス31の右ボタ
ンを拡大キーとした場合について述べたが、本発明はこ
れに限らず、キーボード27上の任意のキーを拡大キー
としても良い。
(9) Other Embodiments In the above-described embodiment, the case where the right button of the mouse 31 is used as an enlargement key has been described. However, the present invention is not limited to this, and the present invention is not limited to this. The key may be an enlarged key.

【0110】また上述の実施の形態においては、基本色
147の中から所望の色を選択するようにした場合につ
いて述べたが、本発明はこれに限らず、図18に示すよ
うに、基本色147に比して詳細な色見本を表示してい
る色表示領域153の中から所望の色見本を選択する
か、又は色パラメータ設定領域155において数値を設
定することによって色を設定するようにしても良い。
In the above embodiment, a case has been described in which a desired color is selected from among the basic colors 147. However, the present invention is not limited to this, and as shown in FIG. The color is set by selecting a desired color sample from the color display area 153 displaying a more detailed color sample compared to 147, or by setting a numerical value in the color parameter setting area 155. Is also good.

【0111】また上述の実施の形態においては、色設定
ボタン132〜139上にRGBのパラメータ値を表示
するようにした場合について述べたが、本発明はこれに
限らず、例えばH(Hue )L(Luminance )S(Satura
tion)のように、他の種々のパラメータ値を表示するよ
うにしても良い。
In the above-described embodiment, the case where RGB parameter values are displayed on the color setting buttons 132 to 139 has been described. However, the present invention is not limited to this. For example, H (Hue) L (Luminance) S (Satura
), other various parameter values may be displayed.

【0112】さらに上述の実施の形態においては、指定
された文字に応じた3次元文字を生成した場合について
述べたが、本発明はこれに限らず、例えば図形のような
他の種々の表示要素を立体化する表示要素立体化装置に
本発明を広く適用し得る。
Further, in the above-described embodiment, a case has been described in which a three-dimensional character corresponding to a designated character is generated. However, the present invention is not limited to this. For example, various other display elements such as a graphic may be used. The present invention can be widely applied to a display element three-dimensionalization device for three-dimensionally displaying the image.

【0113】[0113]

【発明の効果】上述のように本発明によれば、基準フレ
ームに対して時間的に異なるフレームに表示される複数
の表示要素のうち、当該表示要素の表示位置が基準フレ
ームに対して変化した表示要素の動きに関するデータの
みを記憶手段に記憶することにより、従来のように表示
位置の変化がない表示要素を全て記憶する場合に比して
記憶手段に記憶するデータ量を削減することができ、か
くして従来に比して一段と効率的に画像データを管理し
得る。
As described above, according to the present invention, among a plurality of display elements displayed in frames temporally different from the reference frame, the display position of the display element has changed with respect to the reference frame. By storing only the data relating to the movement of the display element in the storage means, it is possible to reduce the amount of data stored in the storage means as compared with the case where all display elements having no change in the display position are conventionally stored. Thus, image data can be managed more efficiently than in the past.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による映像タイトル生成装置の一実施の
形態を示すブロック図である。
FIG. 1 is a block diagram showing an embodiment of a video title generation device according to the present invention.

【図2】アプリケーションプログラムの構成の説明に供
する略線図である。
FIG. 2 is a schematic diagram for explaining the configuration of an application program.

【図3】GUI画面の説明に供する略線図である。FIG. 3 is a schematic diagram illustrating a GUI screen.

【図4】CPUによるポリゴンモデル生成手順を示すフ
ローチャートである。
FIG. 4 is a flowchart showing a polygon model generation procedure by a CPU.

【図5】ポリゴンモデル生成の説明に供する略線図であ
る。
FIG. 5 is a schematic diagram used for describing generation of a polygon model.

【図6】パースの設定の説明に供する略線図である。FIG. 6 is a schematic diagram for explaining setting of a perspective.

【図7】3次元文字生成手順を示すフローチャートであ
る。
FIG. 7 is a flowchart showing a three-dimensional character generation procedure.

【図8】スキャンライン用線分配置表の作成の説明に供
する略線図である。
FIG. 8 is a schematic diagram for explaining creation of a scan line segment arrangement table;

【図9】ポリゴン生成のための3角形分割処理の説明に
供する略線図である。
FIG. 9 is a schematic diagram for explaining a triangle division process for generating a polygon;

【図10】エッジ生成手順を示すフローチャートであ
る。
FIG. 10 is a flowchart illustrating an edge generation procedure.

【図11】拡大方向の単位ベクトルの生成の説明に供す
る略線図である。
FIG. 11 is a schematic diagram for explaining generation of a unit vector in an enlargement direction;

【図12】拡大方向ベクトルの再計算の説明に供する略
線図である。
FIG. 12 is a schematic diagram for describing recalculation of an enlargement direction vector.

【図13】カラーピッカーによる色選択手順を示すフロ
ーチャートである。
FIG. 13 is a flowchart illustrating a color selection procedure using a color picker.

【図14】カラーピッカーの表示画面の説明に供する略
線図である。
FIG. 14 is a schematic diagram illustrating a display screen of a color picker.

【図15】カラーピッカーの表示画面の説明に供する略
線図である。
FIG. 15 is a schematic diagram illustrating a display screen of a color picker.

【図16】グループプロパティダイアログによる色選択
手順を示すフローチャートである。
FIG. 16 is a flowchart showing a color selection procedure using a group property dialog.

【図17】グループプロパティダイアログの表示画面の
説明に供する略線図である。
FIG. 17 is a schematic diagram used for describing a display screen of a group property dialog.

【図18】色選択ダイアログの表示画面の説明に供する
略線図である。
FIG. 18 is a schematic diagram illustrating a display screen of a color selection dialog.

【図19】透視投影変換手順を示すフローチャートであ
る。
FIG. 19 is a flowchart showing a perspective projection conversion procedure.

【図20】マルチパース指定されたときのシーンウィン
ドウの説明に供する略線図である。
FIG. 20 is a schematic diagram for explaining a scene window when a multi-perspective is designated;

【図21】マルチパース指定されたときのシーンウィン
ドウの説明に供する略線図である。
FIG. 21 is a schematic diagram illustrating a scene window when a multi-perspective is designated;

【図22】3次元文字の回転動作手順を示すフローチャ
ートである。
FIG. 22 is a flowchart illustrating a rotation operation procedure of a three-dimensional character.

【図23】キーフレームアニメーション作成手順を示す
フローチャートである。
FIG. 23 is a flowchart showing a key frame animation creation procedure.

【図24】シーングラフの説明に供する略線図である。FIG. 24 is a schematic diagram illustrating a scene graph.

【図25】映像タイトル送出手順を示すフローチャート
である。
FIG. 25 is a flowchart showing a video title transmission procedure.

【符号の説明】[Explanation of symbols]

1……映像タイトル生成装置、3……CPU、5……シ
ステムコントローラ、7……メモリ、9……キャッシ
ュ、11……I/Oコントローラ、13……グラフィッ
クスアクセラレータ、15……フレームバッファ、17
……ハードディスクコントローラ、19……HDD、2
1……ディスプレイ、23……モニタ、25……キーボ
ードコントローラ、27……キーボード、29……マウ
スコントーラ、31……マウス。
1 ... Video title generating device, 3 ... CPU, 5 ... System controller, 7 ... Memory, 9 ... Cache, 11 ... I / O controller, 13 ... Graphics accelerator, 15 ... Frame buffer, 17
…… Hard disk controller, 19 …… HDD, 2
1 ... display, 23 ... monitor, 25 ... keyboard controller, 27 ... keyboard, 29 ... mouse controller, 31 ... mouse.

フロントページの続き Fターム(参考) 5B050 AA09 BA09 BA20 CA07 DA10 EA19 EA29 FA13 5C023 AA18 AA32 AA34 BA04 BA13 CA06 DA02 DA03 DA04 DA08 5C082 AA01 AA22 AA24 AA36 BA02 BA12 BA41 BA46 BB15 BB25 BB42 CA31 CA52 CB01 DA42 DA61 MM04 Continued on the front page F-term (reference) 5B050 AA09 BA09 BA20 CA07 DA10 EA19 EA29 FA13 5C023 AA18 AA32 AA34 BA04 BA13 CA06 DA02 DA03 DA04 DA08 5C082 AA01 AA22 AA24 AA36 BA02 BA12 BA41 BA46 BB15 BB25

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】基準フレームに対して時間的に異なるフレ
ームに表示される複数の表示要素のうち、当該表示要素
の表示位置が上記基準フレームに対して変化した表示要
素の動きに関するデータのみを記憶手段に記憶する記憶
制御手段を具えることを特徴とする画像処理装置。
1. A method for storing only data relating to the movement of a display element whose display position has changed with respect to the reference frame, among a plurality of display elements displayed in frames temporally different from the reference frame. An image processing apparatus comprising storage control means for storing in a means.
【請求項2】上記記憶制御手段は、 上記表示要素の動きに関するデータを複数種類のデータ
に分類し、当該分類されたデータをそれぞれ独立して記
憶及び管理することを特徴とする請求項1に記載の画像
処理装置。
2. The apparatus according to claim 1, wherein said storage control means classifies the data relating to the movement of the display element into a plurality of types of data, and stores and manages the classified data independently. An image processing apparatus as described in the above.
【請求項3】基準フレームに対して時間的に異なるフレ
ームに表示される複数の表示要素のうち、当該表示要素
の表示位置が上記基準フレームに対して変化した表示要
素の動きに関するデータのみを記憶手段に記憶すること
を特徴とする画像処理方法。
3. A plurality of display elements displayed in frames temporally different from a reference frame, storing only data relating to the movement of the display element whose display position has changed with respect to the reference frame. An image processing method characterized by storing in an means.
【請求項4】上記表示要素の動きに関するデータを複数
種類のデータに分類し、当該分類されたデータをそれぞ
れ独立して記憶及び管理することを特徴とする請求項3
に記載の画像処理方法。
4. The method according to claim 3, wherein the data relating to the movement of the display element is classified into a plurality of types of data, and the classified data is stored and managed independently.
The image processing method according to 1.
JP11069047A 1999-03-15 1999-03-15 Picture processor and its method Pending JP2000270264A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11069047A JP2000270264A (en) 1999-03-15 1999-03-15 Picture processor and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11069047A JP2000270264A (en) 1999-03-15 1999-03-15 Picture processor and its method

Publications (1)

Publication Number Publication Date
JP2000270264A true JP2000270264A (en) 2000-09-29

Family

ID=13391289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11069047A Pending JP2000270264A (en) 1999-03-15 1999-03-15 Picture processor and its method

Country Status (1)

Country Link
JP (1) JP2000270264A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005260479A (en) * 2004-03-10 2005-09-22 Sony Corp Device and method for processing image, program, and imaging system
JP2007248579A (en) * 2006-03-14 2007-09-27 Koyo Electronics Ind Co Ltd Method for editing screen and screen editing device
JP4864972B2 (en) * 2005-09-09 2012-02-01 マイクロソフト コーポレーション 2D editing metaphor for 3D graphics (METAPHOR)
KR101187530B1 (en) 2011-03-02 2012-10-02 한국과학기술원 Rendering strategy for monoscopic, stereoscopic and multi-view computer generated imagery, system using the same and recording medium for the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005260479A (en) * 2004-03-10 2005-09-22 Sony Corp Device and method for processing image, program, and imaging system
JP4686989B2 (en) * 2004-03-10 2011-05-25 ソニー株式会社 Video processing apparatus and imaging system
JP4864972B2 (en) * 2005-09-09 2012-02-01 マイクロソフト コーポレーション 2D editing metaphor for 3D graphics (METAPHOR)
JP2007248579A (en) * 2006-03-14 2007-09-27 Koyo Electronics Ind Co Ltd Method for editing screen and screen editing device
KR101187530B1 (en) 2011-03-02 2012-10-02 한국과학기술원 Rendering strategy for monoscopic, stereoscopic and multi-view computer generated imagery, system using the same and recording medium for the same

Similar Documents

Publication Publication Date Title
JP4203779B2 (en) Display element three-dimensional apparatus and method
US10817132B2 (en) Three-dimensional digital models in two-dimensional digital canvases
JP3592750B2 (en) Machine operation method
JP3184327B2 (en) Three-dimensional graphics processing method and apparatus
Forney et al. User's Guide for Smokeview Version 4: A Tool for Visualizing Fire Dynamics Simulation Data
KR101497172B1 (en) Altering the appearance of a digital image using a shape
JP4312249B2 (en) How to create 3D animation from animation data
US8514238B2 (en) System and method for adding vector textures to vector graphics images
US7728848B2 (en) Tools for 3D mesh and texture manipulation
JP5299173B2 (en) Image processing apparatus, image processing method, and program
JPH0816820A (en) Three-dimensional animation generation device
US20080018665A1 (en) System and method for visualizing drawing style layer combinations
JP4274377B2 (en) 3D graphics data display device
EP1008112A1 (en) Techniques for creating and modifying 3d models and correlating such models with 2d pictures
US6714198B2 (en) Program and apparatus for displaying graphical objects
JPWO2008059849A1 (en) Menu display device, information processing device, and menu display method
JP2000270264A (en) Picture processor and its method
JP4203780B2 (en) Display element three-dimensional apparatus and method
WO2017002483A1 (en) Program, information processing device, depth definition method, and recording medium
JP2000268200A (en) Device and method of stereoscopically forming display factor
JP4203778B2 (en) Image processing apparatus and method
JP2000268198A (en) Stereoscopic image processor and stereoscopic image processing method
JP4304551B2 (en) Image processing apparatus and method
JP2000268199A (en) Device and method of stereoscopically forming display factor
JP3794509B2 (en) Three-dimensional parameter input device, three-dimensional parameter input method, and image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080731