JPH08212388A - 三次元画像処理装置 - Google Patents

三次元画像処理装置

Info

Publication number
JPH08212388A
JPH08212388A JP7016768A JP1676895A JPH08212388A JP H08212388 A JPH08212388 A JP H08212388A JP 7016768 A JP7016768 A JP 7016768A JP 1676895 A JP1676895 A JP 1676895A JP H08212388 A JPH08212388 A JP H08212388A
Authority
JP
Japan
Prior art keywords
sound
rule
data
generation
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7016768A
Other languages
English (en)
Other versions
JP3512507B2 (ja
Inventor
Kaori Suzuki
香緒里 鈴木
Asako Yumoto
麻子 湯本
Katsuhiko Hirota
克彦 広田
Hiroshi Kamata
洋 鎌田
Satoshi Kasai
悟志 笠井
Atsuko Tada
厚子 多田
Kazumi Shibata
和美 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP01676895A priority Critical patent/JP3512507B2/ja
Publication of JPH08212388A publication Critical patent/JPH08212388A/ja
Application granted granted Critical
Publication of JP3512507B2 publication Critical patent/JP3512507B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【目的】本発明は、少ない工数でCGと音とを関連付
け、その関連に基づいて、リアルタイムにCGと音を生
成する三次元画像処理装置の提供を目的とする。 【構成】CGデータを格納するCGデータ格納手段10
と、音データを格納する音データ格納手段11と、CG
データからCGを生成して出力するCG出力手段13
と、音データから音を生成して出力する音出力手段14
と、CG及び音の生成ルールを格納するルール格納手段
12と、ルール格納手段12の格納する生成ルールに従
って、CG及び音の生成処理を制御する同期制御手段2
0とを備えるように構成する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、CGと音とを関連付
け、その関連に基づいて、CGと音とを生成する三次元
画像処理装置に関し、特に、CGと音との関連付けを少
ない工数でもって開発できるようにするとともに、リア
ルタイムにCGと音とを生成できるようにする三次元画
像処理装置に関する。
【0002】最近では、コンピュータグラフィックス
(CG)は、テレビや映画等に限られずに、会社のPR
や教育用のビデオやゲーム等、一般の人々が用いるよう
な様々な用途で用いられるようになってきた。
【0003】このような用途では、その効果を高めるた
めに、通常、CGは、映像だけではなく、それと合った
音楽とともに使用されることになる。また、逆に、音楽
に合ったイメージのCGを作成することもある。このよ
うなCGと音楽による作品の作成が盛んになるにつれ、
それらをできるだけ少ない工数で作成できるようにする
とともに、CGと音楽とをリアルタイムに生成できるよ
うにする必要が出てきた。
【0004】
【従来の技術】従来では、CGと音とを関連付けて生成
していく場合、予めCGの絵コンテや、音楽の譜面から
タイムチャートを作成し、CGと音楽とが希望通りのタ
イミングで生成されるようにと綿密にスケジューリング
を行った上で、CGと音楽をそれぞれ作成して、最終的
にコマどりしたCG画像と音楽とを合わせるという方法
を採っていた。
【0005】すなわち、従来では、手作業でもってCG
と音楽とを綿密にスケジューリングしていくことで、C
Gと音楽とを関連付けていくという方法を採っているこ
とから、その開発に非常な工数がかかるという問題点が
あるとともに、CGの絵のストーリーや音楽のテンポを
変えるといったような修正の必要があるときには、もう
一度最初から作り直さなくてはならないという問題点が
あった。
【0006】そして、従来では、最終的にコマどりした
CG画像と音楽とを合わせるという方法に従ってCGと
音楽とを生成するというように、リアルタイムにCGと
音とを生成することができないことから、予め決まった
ストーリーの用途にしか使えないという問題点があり、
これから、最近需要の高まっているマルチメディア製品
等のようなインタラクティブ性の要求されるものには使
いにくいという問題点があった。
【0007】本発明はかかる事情に鑑みてなされたもの
であって、少ない工数でもってCGと音とを関連付け、
その関連に基づいて、リアルタイムにCGと音とを生成
できるようにする新たな三次元画像処理装置の提供を目
的とする。
【0008】
【課題を解決するための手段】図1に本発明の原理構成
を図示する。図中、1は本発明により構成される三次元
画像処理装置であって、CGと音とを関連付け、その関
連に基づいて、リアルタイムにCGと音とを生成するも
のである。
【0009】この三次元画像処理装置1は、CGデータ
格納手段10と、音データ格納手段11と、ルール格納
手段12と、CG出力手段13と、音出力手段14と、
イベント処理手段15と、世界データ格納手段16と、
立体音源生成手段17と、ディスプレイ18と、スピー
カ19と、同期制御手段20とを備える。
【0010】このCGデータ格納手段10は、CGデー
タを格納する。音データ格納手段11は、音データを格
納する。ルール格納手段12は、CGと音の関係等を記
述するCG及び音の生成ルールを格納する。CG出力手
段13は、CGデータからCGを生成して出力する。音
出力手段14は、音データから音を生成して出力する。
イベント処理手段15は、キーボードやマウス等のイベ
ントを処理する。世界データ格納手段16は、CGと音
のカレントデータを格納する。立体音源生成手段17
は、三次元的な位置を持つ仮想的な音源による効果を生
成する。ディスプレイ18は、CG出力手段13の生成
するCGを表示する。スピーカ19は、音出力手段14
の生成する音を鳴らす。同期制御手段20は、ルール格
納手段12の格納する生成ルールに従って、CG及び音
の生成処理を制御する。
【0011】請求項2記載の本発明では、ルール格納手
段12は、CGと音の開始時刻及び終了時刻を記述する
生成ルールを格納する。請求項3記載の本発明では、ル
ール格納手段12は、必ずCGを表示しなければならな
い時刻を記述する生成ルールを格納する。
【0012】請求項4記載の本発明では、ルール格納手
段12は、音の開始時刻及び終了時刻を記述する生成ル
ールを格納する。請求項5記載の本発明では、ルール格
納手段12は、音の開始時刻及び終了時刻を記述する生
成ルールを格納する。
【0013】請求項6記載の本発明では、ルール格納手
段12は、CGの開始時刻及び終了時刻を記述する生成
ルールを格納する。請求項7記載の本発明では、ルール
格納手段12は、CGの開始時刻及び終了時刻を記述す
る生成ルールを格納する。
【0014】請求項8記載の本発明では、ルール格納手
段12は、音特徴を記述する生成ルールを格納する。請
求項9記載の本発明では、ルール格納手段12は、CG
特徴を記述する生成ルールを格納する。
【0015】請求項10記載の本発明では、ルール格納
手段12は、音データの優先度を記述する生成ルールを
格納する。請求項11記載の本発明では、ルール格納手
段12は、音データと、その音データに合わせるCGデ
ータとの対応関係を記述する生成ルールを格納する。
【0016】請求項12記載の本発明では、ルール格納
手段12は、CGデータと、そのCGデータに合わせる
音データとの対応関係を記述する生成ルールを格納す
る。請求項13記載の本発明では、ルール格納手段12
は、イベント対象のCGと、経過時間との対応関係を記
述する生成ルールを格納する。
【0017】請求項14記載の本発明では、ルール格納
手段12は、トリガとなるCGの属性と、反応となる音
の属性との対応関係を記述する生成ルールを格納する。
請求項15記載の本発明では、ルール格納手段12は、
トリガとなる音の属性と、反応となるCGの属性との対
応関係を記述する生成ルールを格納する。
【0018】請求項16記載の本発明では、ルール格納
手段12は、トリガ条件と、反応となるCG及び/又は
音の属性との対応関係を記述する生成ルールを格納す
る。請求項17記載の本発明では、ルール格納手段12
は、音源の生成方法及び視聴者位置を記述する生成ルー
ルを格納する。
【0019】
【作用】本発明では、同期制御手段20は、基本的に
は、CGデータ格納手段10から読み出すCGデータ
と、音データ格納手段11から読み出す音データとを、
ルール格納手段12の格納する生成ルールに従って関係
付けながら、前者をCG出力手段13に、後者を音出力
手段14に出力する同期制御処理を行う。
【0020】この同期制御手段20の処理について具体
的に説明すると、請求項2記載の本発明では、同期制御
手段20は、ルール格納手段12に格納される生成ルー
ルの記述するCGと音の開始時刻及び終了時刻に従っ
て、CG及び音を生成するよう制御する。
【0021】また、請求項3記載の本発明では、同期制
御手段20は、CGの表示時間間隔の調整を制御するこ
とで、ルール格納手段12に格納される生成ルールの記
述する必ずCGを表示しなければならない時刻のCGを
飛ばすことなく表示するよう制御する。
【0022】また、請求項4記載の本発明では、同期制
御手段20は、ルール格納手段12に格納される生成ル
ールの記述する音の開始時刻及び終了時刻の指定する生
成時間と、生成対象の音データの持つ継続時間とが異な
るときには、両者が一致するようにと音のテンポを変更
しつつ、その開始時刻及び終了時刻に従って音を生成す
るよう制御する。
【0023】また、請求項5記載の本発明では、同期制
御手段20は、ルール格納手段12に格納される生成ル
ールの記述する音の開始時刻及び終了時刻の指定する生
成時間と、生成対象の音データの持つ継続時間とが異な
るときには、途中で止めたり、あるいは繰り返す形態を
とりつつ、その開始時刻及び終了時刻に従って音を生成
するよう制御する。
【0024】また、請求項6記載の本発明では、同期制
御手段20は、ルール格納手段12に格納される生成ル
ールの記述するCGの開始時刻及び終了時刻の指定する
生成時間と、生成対象のCGデータの持つ継続時間とが
異なるときには、両者が一致するようにとCGのタイム
スケールを変更しつつ、その開始時刻及び終了時刻に従
ってCGを生成するよう制御する。
【0025】また、請求項7記載の本発明では、同期制
御手段20は、ルール格納手段12に格納される生成ル
ールの記述するCGの開始時刻及び終了時刻の指定する
生成時間と、生成対象のCGデータの持つ継続時間とが
異なるときには、途中で止めたり、あるいは繰り返す形
態をとりつつ、その開始時刻及び終了時刻に従ってCG
を生成するよう制御する。
【0026】また、請求項8記載の本発明では、同期制
御手段20は、ルール格納手段12に格納される生成ル
ールの記述する音特徴を持つ音を生成するよう制御す
る。また、請求項9記載の本発明では、同期制御手段2
0は、ルール格納手段12に格納される生成ルールの記
述するCG特徴を持つCGを生成するよう制御する。
【0027】また、請求項10記載の本発明では、同期
制御手段20は、ルール格納手段12に格納される生成
ルールに従ってCG及び音を生成するよう制御するとき
にあって、複数の音が重なるときには、優先度の高い音
の音量が相対的に大きくなるよう制御する。
【0028】また、請求項11記載の本発明では、同期
制御手段20は、ルール格納手段12に格納される生成
ルールに従ってCG及び音を生成するよう制御するとき
にあって、その音に合わせるCGがあるときには、タイ
ムスケールを変えたり、あるいは途中で止めたり、ある
いは繰り返す形態をとりつつ、そのCGを生成するよう
制御する。
【0029】また、請求項12記載の本発明では、同期
制御手段20は、ルール格納手段12に格納される生成
ルールに従ってCG及び音を生成するよう制御するとき
にあって、そのCGに合わせる音があるときには、テン
ポを変えたり、あるいは途中で止めたり、あるいは繰り
返す形態をとりつつ、その音を生成するよう制御する。
【0030】また、請求項13記載の本発明では、同期
制御手段20は、ルール格納手段12に格納される生成
ルールに従ってCG及び音を生成するよう制御するとき
にあって、イベント処理手段15が生成ルールの記述す
るイベント対象CGに対してイベントを処理するときに
は、生成ルールの記述する経過時間だけ時間を経過させ
ながらCG及び音を生成するよう制御する。
【0031】また、請求項14記載の本発明では、同期
制御手段20は、ルール格納手段12に格納される生成
ルールに従ってCG及び音を生成するよう制御するとき
にあって、トリガとなるCGの属性が生成されるときに
は、反応となる音の属性を生成するよう制御する。
【0032】また、請求項15記載の本発明では、同期
制御手段20は、ルール格納手段12に格納される生成
ルールに従ってCG及び音を生成するよう制御するとき
にあって、トリガとなる音の属性が生成されるときに
は、反応となるCGの属性を生成するよう制御する。
【0033】また、請求項16記載の本発明では、同期
制御手段20は、ルール格納手段12に格納される生成
ルールに従ってCG及び音を生成するよう制御するとき
にあって、例えば流速場が変化するといったようなトリ
ガ条件が成立するときには、反応となるCG及び/又は
音の属性を生成するよう制御する。
【0034】また、請求項17記載の本発明では、同期
制御手段20は、ルール格納手段12に格納される生成
ルールに従ってCG及び音を生成するよう制御するとき
にあって、生成ルールの記述する音源生成方法及び視聴
者位置に従って立体音源生成手段17に与えるパラメー
タを決定して与えていくことで、CGと連動した三次元
な位置を持つ音源を生成するよう制御する。
【0035】このように、本発明では、CGと音の関係
をルールとして記述する構成を採ることから、相互の時
間的な関係を簡単に記述でき、更に、時間的な関係ばか
りでなく、CGと音の属性の関係等も記述可能である。
そして、設定後の修正もルール記述の変更のみで対処で
きることから、非常に簡単に修正できる。
【0036】これにより、同期のための綿密な設計や、
CGのコマどり等の従来工程が不要となって、従来より
も飛躍的に作成工程を短縮できるようになる。また、こ
れまで実現できなかったCGと音の属性や流速等の他の
属性との関連付けにより新たな効果を生み出すことが可
能になる。更に、リアルタイムで関係付けができるの
で、インタラクティブな用途にも適している。
【0037】
【実施例】以下、実施例に従って本発明を詳細に説明す
る。図1で説明したように、本発明では、ルール格納手
段12にCG及び音の生成ルールを格納する構成を採っ
て、同期制御手段20が、CGデータ格納手段10から
読み出すCGデータと、音データ格納手段11から読み
出す音データとを、ルール格納手段12の格納する生成
ルールに従って関係付けながら、前者をCG出力手段1
3に、後者を音出力手段14に出力することで、リアル
タイムにCGと音とを生成することを実現するものであ
る。
【0038】図2に、同期制御手段20の実行する処理
フローの一実施例を図示する。この図2(a)に示すよ
うに、同期制御手段20は、ルール格納手段12に格納
される生成ルールの内容を予め解釈して、必要な情報を
そろえる等の処理を行う前処理(必要に応じて行う)
と、ルール格納手段12に格納される生成ルールを解釈
しながら、それに応じた処理を行う基本処理という2段
階の処理構成を採る。
【0039】図2(b)に示す処理フローは、この基本
処理の処理フローであって、同期制御手段20は、基本
処理に入ると、先ず最初に、ステップ1(s1)で、ル
ール格納手段12の生成ルールを読み込み、続いて、ス
テップ2(s2)で、読み込んだ生成ルールの中の未処
理のものの中から1つを選択する。
【0040】続いて、ステップ3(s3)で、選択した
生成ルールの適用条件が成立しているのか否かを判断し
て、適用条件が成立していることを判断するときには、
ステップ4(s4)に進んで、生成ルールに従って、C
Gや音楽の出力開始処理や、出力終了処理や、変更処理
等を行う。一方、適用条件が成立していないことを判断
するときには、このステップ4(s4)の処理を省略す
る。
【0041】続いて、ステップ5(s5)で、読み込ん
だ全ての生成ルールについて処理を終了したのか否かを
判断して、未処理の生成ルールが残されていることを判
断するときには、ステップ2(s2)に戻り、全ての生
成ルールの処理終了を判断するときには、ステップ6
(s6)に進んで、時刻を更新する。続いて、ステップ
7(s7)で、システム終了か否かを判断して、システ
ム終了であることを判断するときには、処理を終了し、
システム終了でないことを判断するときには、ステップ
1(s1)に戻っていく。
【0042】このようにして、同期制御手段20は、基
本処理に入ると、ルール格納手段12に格納される生成
ルールに従って、CGと音とを関連付けつつリアルタイ
ムに生成していく処理を実行するのである。
【0043】次に、請求項2記載の本発明を実施例に従
って詳細に説明する。図3に、請求項2記載の本発明を
実現するために用意する生成ルールの一実施例を図示す
る。
【0044】この図3に示すように、請求項2記載の本
発明を実現するためには、生成対象となるCGデータや
音データの「データ名」と、そのデータ名のCGデータ
や音データが既に開始されているのか否かを示す「開始
フラグ(開始されているときにはオン、開始されていな
いときにはオフを示す)」と、そのデータ名のCGデー
タや音データが既に終了されているのか否かを示す「終
了フラグ(終了されているときにはオン、終了されてい
ないときにはオフを示す)」と、そのデータ名のCGデ
ータや音データの「開始時刻」と、そのデータ名のCG
データや音データの「終了時刻」とを組として記述する
生成ルールを用意する。
【0045】そして、この生成ルールは、請求項4ない
し請求項7記載の本発明を実現するときには、これらに
加えて、そのデータ名の音データのテンポや、そのデー
タ名のCGデータのタイムスケールの指定値を示す「テ
ンポ又はタイムスケール」と、そのデータ名の音データ
やCGデータの「繰り返し回数又は中断時刻」とを組と
して記述する。
【0046】この図3では、音データ1を10秒から2
0秒の間生成し、CGデータ1を25秒から30秒の間
生成するという生成ルールを示してある。ここで、「テ
ンポ又はタイムスケール」と「繰り返し回数又は中断時
刻」とは、請求項2記載の本発明では指定されることは
なく、音データ1やCGデータ1の定義するテンポやタ
イムスケールや繰り返し回数そのものが使用されること
になる。
【0047】図4に、請求項2記載の本発明を実現する
ために実行する同期制御手段20の処理フローの一実施
例を図示する。同期制御手段20は、請求項2記載の本
発明を実現する場合には、この処理フローに示すよう
に、上述した基本処理のステップ3(s3)に入ると、
基本処理のステップ2(s2)で選択した生成ルールの
持つ開始時刻/終了時刻/開始フラグ/終了フラグを参
照することで、 「開始時刻≦現在時刻<終了時刻で、かつ、開始済みで
ないデータ」 か、 「現在時刻≧終了時刻で、かつ、終了済みでないデー
タ」 のいずれかに該当するのか否かを判断する。
【0048】そして、この判断処理に従って、前者に該
当することを判断するときには、続いて、基本処理のス
テップ4(s4)で、基本処理のステップ2(s2)で
選択した生成ルールの持つCGデータ/音データの生成
を開始させるとともに、開始フラグに開始済みのオンを
設定し、後者に該当することを判断するときには、続い
て、基本処理のステップ4(s4)で、基本処理のステ
ップ2(s2)で選択した生成ルールの持つCGデータ
/音データの生成を終了させるとともに、終了フラグに
終了済みのオンを設定する。
【0049】このようにして、請求項2記載の本発明で
は、生成ルールの指定する時刻になったら、CGや音の
動きを開始し終了する構成を採るのである。次に、請求
項3記載の本発明を実施例に従って詳細に説明する。
【0050】図5に、請求項3記載の本発明を実現する
ために用意する生成ルールの一実施例を図示する。この
図5に示すように、請求項3記載の本発明を実現するた
めには、必ずCGを表示しなければならない時刻を記述
する生成ルールを用意する。この図5では、10秒、2
0秒、30秒の時刻のCGを必ず表示するという生成ル
ールを示してある。
【0051】この請求項3記載の本発明を実現するとき
には、同期制御手段20は、CG出力手段13に対し
て、生成ルールの記述する時刻のCGを必ず表示させる
ことを指示する。この指示を受け取ると、CG出力手段
13は、図6に示す処理フローに従って表示時間間隔を
調整することで、生成ルールの記述する時刻のCGが必
ず表示されるようにと処理する。
【0052】すなわち、CG出力手段13は、同期制御
手段20からの指示を受け取ると、図6の処理フローに
示すように、先ず最初に、ステップ1(c1)で、同期
制御手段20からCGデータを受け取り、続くステップ
2(c2)で、現在時刻tとカウンタiとにゼロ値を設
定し、続くステップ3(c3)で、CG映像の処理時間
間隔dtに初期値を設定し、続くステップ4(c4)
で、閾値vに処理時間間隔dtよりも十分小さな正の値
を設定する。ここで、これから以降の現在時刻は、ステ
ップ2(c2)で設定した初期値からの経過時間で表さ
れる。また、処理時間間隔dtは、CG映像の平均的な
ポリゴン数等から求める。
【0053】続いて、ステップ5(c5)で、ルール格
納手段12から必ず表示しなければない時刻情報Ti(T
i+1 ≧Ti)を受け取る。続いて、ステップ6(c6)
で、この時点の現在時刻を測定して現在時刻t’に設定
する。続いて、ステップ7(c7)で、「t+dt+v
≧Tj 」を満足する時刻Tj を探す。このとき、複数あ
る場合には、最も大きい値のTj を選ぶ。
【0054】続いて、ステップ8(c8)で、ステップ
7(c7)で時刻Tj を特定できたのか否かを判断し
て、特定できたことを判断するときには、ステップ9
(c9)に進んで、CGデータを使って時刻Tj のCG
映像を作成し、続くステップ10(c10)で、現在時刻
tが表示時刻となる時刻Tj に到達するのを待つ。一
方、ステップ8(c8)で特定できないことを判断する
ときには、表示間隔時間を調整する必要がないので、ス
テップ11(c11)に進んで、CGデータを使って時刻
(t'+dt)のCG映像を作成し、続くステップ12
(c12)で、現在時刻tが表示時刻となる時刻(t'+d
t)に到達するのを待つ。
【0055】ステップ10(c10)とステップ12(c
12)とで、現在時刻tが表示時刻に到達することを判断
すると、ステップ13(c13)に進んで、作成したCG
映像を表示し、続くステップ14(c14)で、「dt=
t−t’」を算出して、この値に従って処理時間間隔d
tを更新する。そして、続くステップ15(c15)で、
現在時刻tが終了時刻に到達したのか否かを判断して、
到達したことを判断するときには、処理を終了し、未到
達を判断するときには、ステップ6(c6)に戻ってい
く。ここで、ステップ14(c14)の処理を省略するこ
とも可能である。
【0056】このようにして、請求項3記載の本発明で
は、CGの表示時間間隔を調整することで、生成ルール
の指定する時刻になったら、その時刻のCGを必ず表示
する構成を採ることを特徴とする。これにより、例え
ば、ボールが床にバウンドしていくようなCGアニメー
ションを生成する場合に、バウンドする時点のCGを飛
ばすことなく表示できるようになる。
【0057】次に、請求項4ないし7記載の本発明を実
施例に従って詳細に説明する。この請求項4ないし請求
項7記載の本発明を実現するためには、図3で説明した
ように、生成対象となるCGデータや音データの「デー
タ名」と、そのデータ名のCGデータや音データが既に
開始されているのか否かを示す「開始フラグ」と、その
データ名のCGデータや音データが既に終了されている
のか否かを示す「終了フラグ」と、そのデータ名のCG
データや音データの「開始時刻」と、そのデータ名のC
Gデータや音データの「終了時刻」と、そのデータ名の
音データのテンポや、そのデータ名のCGデータのタイ
ムスケールの指定値を示す「テンポ又はタイムスケー
ル」と、そのデータ名の音データやCGデータの「繰り
返し回数又は中断時刻」とを組として記述する生成ルー
ルを用意することになる。
【0058】図7に、請求項4記載の本発明を実現する
ために上述の前処理で実行する同期制御手段20の処理
フローの一実施例を図示する。同期制御手段20は、請
求項4記載の本発明を実現する場合には、上述した前処
理に入ると、この処理フローに示すように、先ず最初
に、ステップ1(j1)で、ルール格納手段12から生
成ルールを読み込み、続いて、ステップ2(j2)で、
読み込んだ生成ルールの記述する音データを読み込む。
続いて、ステップ3(j3)で、読み込んだ生成ルール
の中の未処理のものの中から1つを選択する。
【0059】続いて、ステップ4(j4)で、選択した
生成ルールの記述する音データ(ステップ3で読み込ん
でいる)の持つそれ自身の長さと、生成ルールの記述す
る音の長さ(開始時刻と終了時刻との差分値から求まる
演奏時間)とが一致するのか否かを判断して、一致しな
いことを判断するときは、ステップ5(j5)に進ん
で、
【0060】
【数1】
【0061】に従って、選択した生成ルールの記述する
音データの持つテンポの修正値を決定して、生成ルール
の「テンポ又はタイムスケール」に登録する。一方、一
致することを判断するときには、このステップ5(j
5)の処理を省略する。
【0062】そして、続いて、ステップ6(j6)で、
読み込んだ全ての生成ルールについて処理を終了したの
か否かを判断して、未処理の生成ルールが残されている
ことを判断するときには、ステップ3(j3)に戻り、
全ての生成ルールの処理終了を判断するときには、上述
した図4の処理フローの処理に入っていく。このときに
は、生成ルールの「テンポ又はタイムスケール」に登録
されるテンポ値に従って音を生成していく。
【0063】このようにして、請求項4記載の本発明で
は、生成ルールの記述する音データの持つそれ自身の長
さと、生成ルールの記述する音の長さとが一致しないと
きには、両者が一致するようにと音のテンポを変更しつ
つ、生成ルールの記述する開始時刻及び終了時刻に従っ
て、音の動きを開始し終了する構成を採ることを特徴と
する。
【0064】例えば、図3に示す音データ1の生成ルー
ルでは、演奏時間として「終了時刻−開始時刻」から求
まる10秒間が設定されているが、この音データ1の長
さが20秒間であるときには、〔数1〕式に従って、音
データ1の持つ本来のテンポの2倍のテンポでもって、
音データ1を高速に生成するように処理するのである。
【0065】図8に、請求項5記載の本発明を実現する
ために上述の前処理で実行する同期制御手段20の処理
フローの一実施例を図示する。同期制御手段20は、請
求項5記載の本発明を実現する場合には、上述した前処
理に入ると、この処理フローに示すように、先ず最初
に、ステップ1(j1)で、ルール格納手段12から生
成ルールを読み込み、続いて、ステップ2(j2)で、
読み込んだ生成ルールの記述する音データを読み込む。
続いて、ステップ3(j3)で、読み込んだ生成ルール
の中の未処理のものの中から1つを選択する。
【0066】続いて、ステップ4(j4)で、選択した
生成ルールの記述する音データ(ステップ3で読み込ん
でいる)の持つそれ自身の長さと、生成ルールの記述す
る音の長さ(開始時刻と終了時刻との差分値から求まる
演奏時間)とが一致するのか否かを判断して、一致しな
いことを判断するときは、ステップ5(j5)に進ん
で、音データの持つ長さの方が長過ぎる場合には中断
し、短過ぎる場合には繰り返していく態様に従って、選
択した生成ルールの記述する音データの繰り返し回数又
は中断時刻を決定して、生成ルールの「繰り返し回数又
は中断時刻」に登録する。一方、一致することを判断す
るときには、このステップ5(j5)の処理を省略す
る。
【0067】そして、続いて、ステップ6(j6)で、
読み込んだ全ての生成ルールについて処理を終了したの
か否かを判断して、未処理の生成ルールが残されている
ことを判断するときには、ステップ3(j3)に戻り、
全ての生成ルールの処理終了を判断するときには、上述
した図4の処理フローの処理に入っていく。このときに
は、生成ルールの「繰り返し回数又は中断時刻」に登録
される繰り返し回数又は中断時刻に従って音を生成して
いく。
【0068】このようにして、請求項5記載の本発明で
は、生成ルールの記述する音データの持つそれ自身の長
さと、生成ルールの記述する音の長さとが一致しないと
きには、両者が一致するようにと音を途中で中断したり
繰り返したりしながら、生成ルールの記述する開始時刻
及び終了時刻に従って、音の動きを開始し終了する構成
を採ることを特徴とする。
【0069】例えば、図3に示す音データ1の生成ルー
ルでは、演奏時間として「終了時刻−開始時刻」から求
まる10秒間が設定されているが、この音データ1の長
さが5秒間であるときには、この音データ1を2回繰り
返して生成するように処理するのである。また、この音
データ1の長さが20秒間であるときには、この音デー
タ1を開始から10秒のところで中断しながら生成する
ように処理するのである。
【0070】図9に、請求項6記載の本発明を実現する
ために上述の前処理で実行する同期制御手段20の処理
フローの一実施例を図示する。同期制御手段20は、請
求項6記載の本発明を実現する場合には、上述した前処
理に入ると、この処理フローに示すように、先ず最初
に、ステップ1(j1)で、ルール格納手段12から生
成ルールを読み込み、続いて、ステップ2(j2)で、
読み込んだ生成ルールの記述するCGデータを読み込
む。続いて、ステップ3(j3)で、読み込んだ生成ル
ールの中の未処理のものの中から1つを選択する。
【0071】続いて、ステップ4(j4)で、選択した
生成ルールの記述するCGデータ(ステップ3で読み込
んでいる)の持つそれ自身の長さと、生成ルールの記述
するCGの長さ(開始時刻と終了時刻との差分値から求
まる映像時間)とが一致するのか否かを判断して、一致
しないことを判断するときは、ステップ5(j5)に進
んで、
【0072】
【数2】
【0073】に従って、選択した生成ルールの記述する
CGデータの持つタイムスケールの修正値を決定して、
生成ルールの「テンポ又はタイムスケール」に登録す
る。一方、一致することを判断するときには、このステ
ップ5(j5)の処理を省略する。
【0074】そして、続いて、ステップ6(j6)で、
読み込んだ全ての生成ルールについて処理を終了したの
か否かを判断して、未処理の生成ルールが残されている
ことを判断するときには、ステップ3(j3)に戻り、
全ての生成ルールの処理終了を判断するときには、上述
した図4の処理フローの処理に入っていく。このときに
は、生成ルールの「テンポ又はタイムスケール」に登録
されるタイムスケール値に従ってCGを生成していく。
【0075】このようにして、請求項6記載の本発明で
は、生成ルールの記述するCGデータの持つそれ自身の
長さと、生成ルールの記述するCGの長さとが一致しな
いときには、両者が一致するようにとCGのタイムスケ
ールを変更しつつ、生成ルールの記述する開始時刻及び
終了時刻に従って、CGの動きを開始し終了する構成を
採ることを特徴とする。
【0076】例えば、図3に示すCGデータ1の生成ル
ールでは、映像時間として「終了時刻−開始時刻」から
求まる5秒間が設定されているが、このCGデータ1の
長さが20秒間であるときには、〔数2〕式に従って、
CGデータ1の持つ本来のタイムスケールの4倍のタイ
ムスケールでもって、CGデータ1を高速に生成するよ
うに処理するのである。
【0077】図10に、請求項7記載の本発明を実現す
るために上述の前処理で実行する同期制御手段20の処
理フローの一実施例を図示する。同期制御手段20は、
請求項7記載の本発明を実現する場合には、上述した前
処理に入ると、この処理フローに示すように、先ず最初
に、ステップ1(j1)で、ルール格納手段12から生
成ルールを読み込み、続いて、ステップ2(j2)で、
読み込んだ生成ルールの記述するCGデータを読み込
む。続いて、ステップ3(j3)で、読み込んだ生成ル
ールの中の未処理のものの中から1つを選択する。続い
て、ステップ4(j4)で、選択した生成ルールの記述
するCGデータ(ステップ3で読み込んでいる)の持つ
それ自身の長さと、生成ルールの記述するCGの長さ
(開始時刻と終了時刻との差分値から求まる映像時間)
とが一致するのか否かを判断して、一致しないことを判
断するときは、ステップ5(j5)に進んで、CGデー
タの持つ長さの方が長過ぎる場合には中断し、短過ぎる
場合には繰り返していく態様に従って、選択した生成ル
ールの記述するCGデータの繰り返し回数又は中断時刻
を決定して、生成ルールの「繰り返し回数又は中断時
刻」に登録する。一方、一致することを判断するときに
は、このステップ5(j5)の処理を省略する。
【0078】そして、続いて、ステップ6(j6)で、
読み込んだ全ての生成ルールについて処理を終了したの
か否かを判断して、未処理の生成ルールが残されている
ことを判断するときには、ステップ3(j3)に戻り、
全ての生成ルールの処理終了を判断するときには、上述
した図4の処理フローの処理に入っていく。このときに
は、生成ルールの「繰り返し回数又は中断時刻」に登録
される繰り返し回数又は中断時刻に従ってCGを生成し
ていく。
【0079】このようにして、請求項7記載の本発明で
は、生成ルールの記述するCGデータの持つそれ自身の
長さと、生成ルールの記述するCGの長さとが一致しな
いときには、両者が一致するようにとCGを途中で中断
したり繰り返したりしながら、生成ルールの記述する開
始時刻及び終了時刻に従って、CGの動きを開始し終了
する構成を採ることを特徴とする。
【0080】例えば、図3に示すCGデータ1の生成ル
ールでは、映像時間として「終了時刻−開始時刻」から
求まる5秒間が設定されているが、このCGデータ1の
長さが10秒間であるときには、このCGデータ1を開
始から5秒のところで中断しながら生成するように処理
するのである。また、このCGデータ1の長さが1秒間
であるときには、このCGデータ1を5回繰り返して生
成するように処理するのである。
【0081】次に、請求項8及び9記載の本発明を実施
例に従って詳細に説明する。図11に、請求項8記載の
本発明を実現する場合の音データ格納手段11の格納デ
ータの一実施例、図12に、請求項9記載の本発明を実
現する場合のCGデータ格納手段10の格納データの一
実施例を図示する。
【0082】この図11に示すように、請求項8記載の
本発明を実現する場合には、音データ格納手段11は、
音データの持つテンポや長さ等の音データ情報に加え
て、その音データが明るい音(音楽)なのか否かとか、
軽快な音(音楽)なのか否かといったような曲の特徴情
報を管理する。そして、この図12に示すように、請求
項9記載の本発明を実現する場合には、CGデータ格納
手段10は、CGデータの持つタイムスケールや長さ等
のCGデータ情報に加えて、そのCGデータが速いもの
であるのか否かとか、変化の大きいものなのか否かとい
ったようなCG映像の特徴情報を管理する。
【0083】図13に、請求項8及び9記載の本発明を
実現するために用意する生成ルールの一実施例を図示す
る。この図13に示すように、請求項8及び9記載の本
発明を実現するためには、生成対象となるCGデータ名
や音データ名の登録エントリーとなる「データ名」と、
そのデータ名に登録されるものがCGデータであるのか
音データであるのを示す「種類」と、そのデータ名のC
Gデータや音データが既に開始されているのか否かを示
す「開始フラグ」と、そのデータ名のCGデータや音デ
ータが既に終了されているのか否かを示す「終了フラ
グ」と、そのデータ名のCGデータや音データの「開始
時刻」と、そのデータ名のCGデータや音データの「終
了時刻」と、「データ名」に登録するCGデータや音デ
ータの「特徴」とを組として記述する生成ルールを用意
する。ここで、この請求項8及び9記載の本発明では、
この「データ名」には当初何も登録されず、「データ
名」に登録されるCGデータや音データの特徴情報が
「特徴」に登録されている。
【0084】図14に、請求項8及び9記載の本発明を
実現するために上述の前処理で実行する同期制御手段2
0の処理フローの一実施例を図示する。同期制御手段2
0は、請求項8及び9記載の本発明を実現する場合に
は、上述した前処理に入ると、この処理フローに示すよ
うに、先ず最初に、ステップ1(j1)で、ルール格納
手段12から生成ルールを読み込み、続いて、ステップ
2(j2)で、読み込んだ生成ルールの中の未処理のも
のの中から1つを選択する。
【0085】続いて、ステップ3(j3)で、選択した
生成ルールの「データ名」にデータ名が登録されている
のか否かを判断して、登録されていないことを判断する
ときには、ステップ4(j4)に進んで、選択した生成
ルールの「種類」に音データが登録されているのか否か
をチェックする。一方、登録されていることを判断する
ときには、ステップ7(j7)に進んで、読み込んだ全
ての生成ルールについて処理を終了したのか否かを判断
して、未処理の生成ルールが残されていることを判断す
るときには、ステップ2(j2)に戻っていく。
【0086】ステップ4(j4)で、選択した生成ルー
ルの「種類」に音データが登録されていることを判断す
るときには、ステップ5(j5)に進んで、選択した生
成ルールの「特徴」に記述される特徴情報を検索キーに
して音データ格納手段11を検索することで、その特徴
情報に合致する音データを特定して、その音データ名を
生成ルールの「データ名」に書き込む。この検索処理に
あって、複数の音データと合致するときには、例えば、
最初に合致した音データを選択する。また、生成ルール
の「特徴」に複数の特徴情報が記述されるときには、合
致数の最も多い音データを選択する。
【0087】一方、ステップ4(j4)で、選択した生
成ルールの「種類」に音データが登録されていないこと
を判断するとき、すなわち、CGデータが登録されてい
ることを判断するときには、ステップ6(j6)に進ん
で、選択した生成ルールの「特徴」に記述される特徴情
報を検索キーにしてCGデータ格納手段10を検索する
ことで、その特徴情報に合致するCGデータを特定し
て、そのCGデータ名を生成ルールの「データ名」に書
き込む。この検索処理にあって、複数のCGデータと合
致するときには、例えば、最初に合致したCGデータを
選択する。また、生成ルールの「特徴」に複数の特徴情
報が記述されるときには、合致数の最も多いCGデータ
を選択する。
【0088】ステップ5(j5)及びステップ6(j
6)での書込処理を終了すると、ステップ7(j7)に
進んで、読み込んだ全ての生成ルールについて処理を終
了したのか否かを判断して、未処理の生成ルールが残さ
れていることを判断するときには、ステップ2(j2)
に戻り、全ての生成ルールの処理終了を判断するときに
は、上述した図4の処理フローの処理に入って、生成ル
ールの「データ名」に登録される音データ又はCGデー
タを生成対象として、音又はCGを生成していく。
【0089】このようにして、請求項8記載の本発明で
は、生成ルールの記述する音特徴を持つ音データを生成
対象にして、生成ルールの記述する開始時刻及び終了時
刻に従って、その音の動きを開始し終了する構成を採る
ことを特徴とする。
【0090】例えば、図13に示す音データの生成ルー
ルでは、明るいという特徴(明るい=1)を記述してい
ることから、音データ格納手段11に格納される明るい
という特徴を持つ音データ1の音を生成していくように
処理するのである。
【0091】そして、請求項9記載の本発明では、生成
ルールの記述するCG特徴を持つCGデータを生成対象
にして、生成ルールの記述する開始時刻及び終了時刻に
従って、そのCGの動きを開始し終了する構成を採るこ
とを特徴とする。
【0092】例えば、図13に示すCGデータの生成ル
ールでは、速くないという特徴(速い=0)を記述して
いることから、CGデータ格納手段10に格納される速
くないという特徴を持つCGデータ2のCGを生成して
いくように処理するのである。
【0093】次に、請求項10記載の本発明を実施例に
従って詳細に説明する。図15に、請求項10記載の本
発明を実現するために用意する生成ルールの一実施例を
図示する。
【0094】この図15に示すように、請求項10記載
の本発明を実現するためには、生成対象となる音データ
の「データ名」と、そのデータ名の音データが既に開始
されているのか否かを示す「開始フラグ」と、そのデー
タ名の音データが既に終了されているのか否かを示す
「終了フラグ」と、そのデータ名の音データの「開始時
刻」と、そのデータ名の音データの「終了時刻」と、そ
のデータ名の音データの「優先度」とを組として記述す
る生成ルールを用意する。ここで、この図15では、音
データ2の方が音データ1よりも高い優先度を持つとい
う生成ルールを示してある。
【0095】図16に、請求項10記載の本発明を実現
するために実行する同期制御手段20の処理フローの一
実施例を図示する。同期制御手段20は、請求項10記
載の本発明を実現する場合には、上述した基本処理のス
テップ3(s3)で、音データの開始か終了を判断する
ことで基本処理のステップ4(s4)に入ると、この処
理フローに示すように、先ず最初に、ステップ1(t
1)で、音データの開始なのか否かを判断して、音デー
タの開始であることを判断するときには、ステップ2
(t2)に進んで、既に出力中の音データがあるのか否
かを判断する。
【0096】この判断で出力中の音データがあることを
判断するときには、ステップ3(t3)に進んで、生成
ルールの記述する今回開始する音データの持つ優先度
が、出力中の音データの持つ優先度と異なるのか否かを
判断して、異なることを判断するときには、ステップ4
(t4)に進んで、高い優先度の持つ音データの音量が
相対的に大きくなるようにと、出力中の音データと今回
開始する音データの音量を調節した後、続くステップ5
(t5)で、今回開始する音データの音の生成を開始す
る。
【0097】そして、ステップ2(t2)で、出力中の
音データがないことを判断するときと、ステップ3(t
3)で、2つの音データの持つ優先度が同一であること
を判断するときには、直ちにステップ5(t5)に進ん
で、今回開始する音データの音の生成を開始する。
【0098】一方、ステップ1(t1)で、音データの
開始でないことを判断するとき、すなわち、音データの
終了であることを判断するときには、ステップ6(t
6)に進んで、その音データの生成を終了させ、続くス
テップ7(t7)で、その終了させた音データの他に出
力中の音データがあるのか否かを判断する。この判断処
理により、他に出力中の音データが存在することを判断
するときには、ステップ8(t8)に進んで、優先度に
応じて出力中の音データの音量を調節(高い優先度の音
データを終了させたときには、出力中の低い優先度の音
データの音量を元に戻す等の調節処理を行う)する。
【0099】そして、ステップ8(t8)及びステップ
5(t5)での処理を終了すると、ステップ9(t9)
に進んで、出力中の音データと優先度の情報を更新す
る。一方、ステップ7(t7)で、終了させた音データ
の他に出力中の音データがないことを判断するときに
は、ステップ8(t8)及びステップ9(t9)の処理
を省略する。
【0100】このようにして、請求項10記載の本発明
では、複数の音を生成するときには、優先度の高い音の
音量が相対的に大きくなるようにと、生成ルールの記述
する開始時刻及び終了時刻に従って、音の動きを開始し
終了する構成を採ることを特徴とする。
【0101】例えば、図15に示す生成ルールでは、音
データ1の方が音データ2よりも優先度が高いので、音
データ1と音データ2とを同時に生成するときには、音
データ1の音量が音データ2の音量より相対的に大きく
なるように処理するのである。
【0102】次に、請求項11及び12記載の本発明を
実施例に従って詳細に説明する。図17に、請求項11
及び12記載の本発明を実現するために用意する生成ル
ールの一実施例を図示する。
【0103】この図17に示すように、請求項11及び
12記載の本発明を実現するためには、生成対象となる
CGデータの「CGデータ名」と、生成対象となる音デ
ータの「音データ名」と、音にCGを合わせるのか、C
Gに音を合わせるのかを示す「対応関係」と、そのデー
タ名のCGデータや音データが既に開始されているのか
否かを示す「開始フラグ」と、そのデータ名のCGデー
タや音データが既に終了されているのか否かを示す「終
了フラグ」と、そのデータ名のCGデータや音データの
「開始時刻」と、そのデータ名のCGデータや音データ
の「終了時刻」と、そのデータ名の音データの「テン
ポ」と、そのデータ名のCGの「タイムスケール」と、
そのデータ名の音データやCGデータの「繰り返し回数
又は中断時刻」とを組として記述する生成ルールを用意
することになる。
【0104】図18に、請求項11記載の本発明を実現
するために同期制御手段20の処理フローの一実施例を
図示する。同期制御手段20は、請求項11記載の本発
明を実現する場合には、上述した基本処理のステップ3
(s3)に入ると、この処理フローに示すように、基本
処理のステップ2(s2)で選択した生成ルールの記述
する「対応関係」を参照することで、音データに合わせ
るCGデータがあるのか否かを判断し、そのようなCG
データが存在することを判断するときには、その生成ル
ールの開始時刻/終了時刻/開始フラグ/終了フラグを
参照することで、その生成ルールの記述する音データ
(生成ルールの「音データ名」に登録されている音デー
タ)が、 「開始時刻≦現在時刻<終了時刻で、かつ、開始済みで
ない音データ」 か、 「現在時刻≧終了時刻で、かつ、終了済みでない音デー
タ」 のいずれかに該当するのか否かを判断する。
【0105】この判断処理に従って、前者に該当するこ
とを判断するときには、続いて、基本処理のステップ4
(s4)で、対応付けられるCGデータ(生成ルールの
「CGデータ名」に登録されているCGデータ)のタイ
ムスケール、あるいは繰り返し回数、あるいは中断時刻
を求めて、それを生成ルールに登録してから、生成ルー
ルの記述する音データの生成を開始するとともに、登録
したタイムスケール等に従ってその音データに対応付け
られるCGデータの生成を開始させ、更に、生成ルール
の開始フラグに開始済みのオンを設定する。
【0106】すなわち、生成ルールに、音データにCG
データを合わせる旨の記述があるときには、そのCGの
生成がその音の生成と同期するようにと、CGのタイム
スケールを変えたり、CGを途中で中断したり繰り返し
たりしながら、生成ルールの記述する開始時刻及び終了
時刻に従って、音及びCGの動きを開始し終了する構成
を採るのである。
【0107】一方、この判断処理に従って、後者に該当
することを判断するときには、続いて、基本処理のステ
ップ4(s4)で、生成ルールの記述する音データの生
成を終了するとともに、その音データに対応付けて生成
されているCGデータの生成を終了させ、更に、生成ル
ールの終了フラグに終了済みのオンを設定する。
【0108】このようにして、請求項11記載の本発明
では、生成ルールに音に合わせるCGのある旨が記述さ
れているときには、生成ルールの記述する開始時刻及び
終了時刻に従って、音の動きを開始し終了していくとき
に、そのCGをタイムスケールを変えたり、あるいはそ
のCGを途中で止めたり、あるいはそのCGを繰り返す
ことで音と同期をとりながら開始し終了する構成を採る
ことを特徴とする。
【0109】例えば、図17の生成ルールでは、音デー
タ1に合わせてCGデータ1を生成していくことが記述
されており、音データ1の演奏時間として「終了時刻−
開始時刻」から求まる20秒間が設定されているので、
CGデータ1の映像時間が10秒であるときには、例え
ば、このCGデータ1を2回繰り返して生成するように
処理するのである。
【0110】図19に、請求項12記載の本発明を実現
するために同期制御手段20の処理フローの一実施例を
図示する。同期制御手段20は、請求項12記載の本発
明を実現する場合には、上述した基本処理のステップ3
(s3)に入ると、この処理フローに示すように、基本
処理のステップ2(s2)で選択した生成ルールの記述
する「対応関係」を参照することで、CGデータに合わ
せる音データがあるのか否かを判断し、そのような音デ
ータが存在することを判断するときには、その生成ルー
ルの開始時刻/終了時刻/開始フラグ/終了フラグを参
照することで、その生成ルールの記述するCGデータ
(生成ルールの「CGデータ名」に登録されているCG
データ)が、 「開始時刻≦現在時刻<終了時刻で、かつ、開始済みで
ないCGデータ」 か、 「現在時刻≧終了時刻で、かつ、終了済みでないCGデ
ータ」 のいずれかに該当するのか否かを判断する。
【0111】この判断処理に従って、前者に該当するこ
とを判断するときには、続いて、基本処理のステップ4
(s4)で、対応付けられる音データ(生成ルールの
「音データ名」に登録されている音データ)のテンポ、
あるいは繰り返し回数、あるいは中断時刻を求めて、そ
れを生成ルールに登録してから、生成ルールの記述する
CGデータの生成を開始するとともに、登録したテンポ
等に従ってそのCGデータに対応付けられる音データの
生成を開始させ、更に、生成ルールの開始フラグに開始
済みのオンを設定する。
【0112】すなわち、生成ルールに、CGデータに音
データを合わせる旨の記述があるときには、その音の生
成がそのCGの生成と同期するようにと、音のテンポを
変えたり、音を途中で中断したり繰り返したりしなが
ら、生成ルールの記述する開始時刻及び終了時刻に従っ
て、CG及び音の動きを開始し終了する構成を採るので
ある。
【0113】一方、この判断処理に従って、後者に該当
することを判断するときには、続いて、基本処理のステ
ップ4(s4)で、生成ルールの記述するCGデータの
生成を終了するとともに、そのCGデータに対応付けて
生成されている音データの生成を終了させ、更に、生成
ルールの終了フラグに終了済みのオンを設定する。
【0114】このようにして、請求項12記載の本発明
では、生成ルールにCGに合わせる音のある旨が記述さ
れているときには、生成ルールの記述する開始時刻及び
終了時刻に従って、CGの動きを開始し終了していくと
きに、その音のテンポを変えたり、あるいはその音を途
中で止めたり、あるいはその音を繰り返すことでCGと
同期をとりながら開始し終了する構成を採ることを特徴
とする。
【0115】例えば、図17の生成ルールでは、CGデ
ータ2に合わせて音データ2を生成していくことが記述
されており、CGデータ2の映像時間として「終了時刻
−開始時刻」から求まる50秒間が設定されているの
で、音データ2の演奏時間が100秒であるときには、
例えば、この音データ2をテンポを2倍にして生成する
ように処理するのである。
【0116】次に、請求項13記載の本発明を実施例に
従って詳細に説明する。図20に、請求項13記載の本
発明を実現するために用意する生成ルールの一実施例を
図示する。
【0117】この図20に示すように、請求項13記載
の本発明を実現するためには、イベント処理先の「CG
データ名」と、その「CGデータ名」のCGデータに対
してイベントが発生するときの「経過時間」とを組とし
て記述する生成ルールを用意する。すなわち、イベント
に経過時間を割り当てる生成ルールを用意する。
【0118】図21に、請求項13記載の本発明を実現
するために実行する同期制御手段20の処理フローの一
実施例を図示する。同期制御手段20は、請求項13記
載の本発明を実現する場合には、上述した基本処理に入
ると、この処理フローに示すように、先ず最初に、ステ
ップ1(s1)で、ルール格納手段12の生成ルールを
読み込み、続いて、ステップ2(s2)で、読み込んだ
生成ルールの中の未処理のものの中から1つを選択す
る。
【0119】続いて、ステップ3(s3)で、選択した
生成ルールがイベントに経過時間を割り当てる生成ルー
ルであるのか否かを判断して、そのような生成ルールで
あることを判断するときには、ステップ4(s4)に進
んで、イベント処理手段15に対して、イベントのカウ
ンタ命令を発行する。すなわち、ユーザがマウスを使っ
てCGデータをクリックするというイベント発生である
場合には、どのCGに対して、何回マウスクリックされ
たのかを計数するイベントのカウンタ命令を発行するの
である。一方、そのような生成ルールでないことを判断
するときには、このステップ4(s4)の処理を省略す
る。
【0120】続いて、ステップ5(s5)で、読み込ん
だ全ての生成ルールについて処理を終了したのか否かを
判断して、未処理の生成ルールが残されていることを判
断するときには、ステップ2(s2)に戻り、全ての生
成ルールの処理終了を判断するときには、ステップ6
(s6)に進んで、イベント処理手段15に対して、イ
ベント対象のCGと、イベントの発生回数とを問い合わ
せて、そのイベント対象CGに割り付けられる生成ルー
ルの記述する経過時間と、そのイベントの発生回数とを
乗算することで時間経過を算出して、その時間経過に従
って時刻を更新する。続いて、ステップ7(s7)で、
システム終了か否かを判断して、システム終了であるこ
とを判断するときには、処理を終了し、システム終了で
ないことを判断するときには、ステップ1(s1)に戻
っていく。
【0121】このようにして、請求項13記載の本発明
では、生成ルールの記述するイベント対象のCGに対し
てイベントが発生すると、そのイベント対象CGに対応
付けられる経過時間分時刻を更新していく構成を採るこ
とを特徴とする。
【0122】これにより、例えば、CG映像のオーケス
トラ指揮者の持つ指揮棒がユーザによりマウスクリック
されるときには、それに応じて時刻を更新しながらCG
及び音を生成していくことができるようになって、あた
かもユーザがオーケストラを指揮しているような感覚を
与えることを実現できることになる。
【0123】次に、請求項14ないし16記載の本発明
を実施例に従って詳細に説明する。図22に、請求項1
4ないし16記載の本発明を実現するために用意する生
成ルールの一実施例を図示する。
【0124】この図22に示すように、請求項14ない
し16記載の本発明を実現するためには、反応を引き起
こす「トリガ」と、そのトリガにより引き起こされる
「反応」とを組として記述する生成ルールを用意するこ
とになる。このトリガとなるものとしては、CGの属性
や、音の属性や、CG及び音のいずれでもない流速場の
ような目に見えないものの属性がある。また、この反応
には、CGの属性や音の属性がある。
【0125】図23に、請求項14記載の本発明を実現
するために実行する同期制御手段20の処理フローの一
実施例を図示する。同期制御手段20は、請求項14記
載の本発明を実現する場合には、上述した基本処理のス
テップ3(s3)に入ると、この処理フローに示すよう
に、基本処理のステップ2(s2)で選択した生成ルー
ルを参照することで、その生成ルールがトリガと反応と
の関係を記述する生成ルールであるのか否かを判断し、
そのような生成ルールであることを判断するときには、
CG属性がトリガとなり、音属性が反応となる生成ルー
ルであるのか否かを判断して、そのような生成ルールで
あることを判断するときには、その生成ルールの記述す
るトリガの指すCG属性条件が成立するのか否かを判断
する。
【0126】この判断処理に従って、トリガの指すCG
属性条件が成立することを判断するときには、続いて、
基本処理のステップ4(s4)で、そのトリガに対応付
けられる音属性の反応を特定して、それを実行する。
【0127】このようにして、請求項14記載の本発明
では、生成ルールにCG属性のトリガと音属性の反応と
の関係が記述されるときには、そのトリガの指定するC
G属性条件が成立するときに、反応となる音属性を生成
する構成を採ることを特徴とする。
【0128】例えば、図22の生成ルールでは、スピー
カの色が赤に変わるときに、音程を変化させるというこ
とが記述されているので、CG及び音を生成していくと
きに、そのCGを構成するスピーカの色が赤に変わると
き(アニメーションで変わったり、エディタ入力で変わ
る)には、その音の音程を指定されるものに変更するよ
うに処理するのである。
【0129】図24に、請求項15記載の本発明を実現
するために実行する同期制御手段20の処理フローの一
実施例を図示する。同期制御手段20は、請求項15記
載の本発明を実現する場合には、上述した基本処理のス
テップ3(s3)に入ると、この処理フローに示すよう
に、基本処理のステップ2(s2)で選択した生成ルー
ルを参照することで、その生成ルールがトリガと反応と
の関係を記述する生成ルールであるのか否かを判断し、
そのような生成ルールであることを判断するときには、
音属性がトリガとなり、CG属性が反応となる生成ルー
ルであるのか否かを判断して、そのような生成ルールで
あることを判断するときには、その生成ルールの記述す
るトリガの指す音属性条件が成立するのか否かを判断す
る。
【0130】この判断処理に従って、トリガの指す音属
性条件が成立することを判断するときには、続いて、基
本処理のステップ4(s4)で、そのトリガに対応付け
られるCG属性の反応を特定して、それを実行する。
【0131】このようにして、請求項15記載の本発明
では、生成ルールに音属性のトリガとCG属性の反応と
の関係が記述されるときには、そのトリガの指定する音
属性条件が成立するときに、反応となるCG属性を生成
する構成を採ることを特徴とする。
【0132】例えば、図22の生成ルールでは、ドの音
が発音されるときに、CGデータ1の生成を開始すると
いうことが記述されているので、CG及び音を生成して
いくときに、MIDI機器等からドの音が発音されると
きには、CGデータ1(例えば、鍵盤の動きのCGデー
タ)の生成を開始するように処理するのである。
【0133】図25に、請求項16記載の本発明を実現
するために実行する同期制御手段20の処理フローの一
実施例を図示する。同期制御手段20は、請求項16記
載の本発明を実現する場合には、上述した基本処理のス
テップ3(s3)に入ると、この処理フローに示すよう
に、基本処理のステップ2(s2)で選択した生成ルー
ルを参照することで、その生成ルールがトリガと反応と
の関係を記述する生成ルールであるのか否かを判断し、
そのような生成ルールであることを判断するときには、
CG及び音以外の属性がトリガとなり、CG属性/音属
性が反応となる生成ルールであるのか否かを判断して、
そのような生成ルールであることを判断するときには、
その生成ルールの記述するトリガの指すトリガ条件が成
立するのか否かを判断する。
【0134】この判断処理に従って、トリガの指すトリ
ガ条件が成立することを判断するときには、続いて、基
本処理のステップ4(s4)で、そのトリガに対応付け
られるCG属性/音属性の反応を特定して、それを実行
する。
【0135】このようにして、請求項16記載の本発明
では、生成ルールにCG及び音以外の属性のトリガと、
CG属性/音属性の反応との関係が記述されるときに
は、そのトリガの指定するトリガ条件が成立するとき
に、反応となるCG属性/音属性を生成する構成を採る
ことを特徴とする。
【0136】例えば、図22の生成ルールでは、流速場
が変化するときに、CGデータ2の生成を開始するとと
もに、音量を変化させるということが記述されているの
で、CG及び音を生成していくときに、流速場が変わる
ときには、CGデータ2(例えば、川の流れのCGデー
タ)の生成を開始するとともに、その音の音量を指定さ
れるものに変更するように処理するのである。
【0137】次に、請求項17記載の本発明を実施例に
従って詳細に説明する。この請求項17記載の本発明を
実現するためには、三次元的な位置を持つ仮想的な音源
による効果を生成する立体音源生成手段17を用意す
る。
【0138】人間は、左右の耳に聞こえる音量等の情報
から、音源の距離や方向等を感じとることで、音源の位
置を認識している。これから、逆に、仮想的な音源を作
り上げ、その位置に音源がある場合と同じような音を人
間の左右の耳に送れば、あたかもそこから音が聞こえる
ように感じることになる。
【0139】この立体音源生成手段17は、図26に示
すような音源から左右の耳までの距離l,rと、仰角α
というパラメータとが与えられると、そのパラメータの
指す位置にあたかも音源があるかのように音を生成する
ものである。この立体音源生成手段17は、複数のスピ
ーカと、市場に提供されている畳込み処理を行うプロセ
ッサとを使うことで実現できるものであり、視聴者が実
際のコンサートホールにいるかのように感じさせる未来
の音声放送として、最近盛んに研究されているものであ
る。
【0140】図27に、請求項17記載の本発明を実現
するために用意する生成ルールの一実施例を図示する。
この図27に示すように、請求項17記載の本発明を実
現するためには、位置を変化させる音源の「音源名」
と、その音源名の音源で鳴らす音データが既に開始され
ているのか否かを示す「開始フラグ」と、その音源名の
音源で鳴らす音データが既に終了されているのか否かを
示す「終了フラグ」と、その音源名の音源で鳴らす音デ
ータの「開始時刻」と、その音源名の音源で鳴らす音デ
ータの「終了時刻」と、その音源名の音源の「変化情
報」と、その音源名の音源で鳴らす音データを聞く「視
聴者の位置」とを組として記述する生成ルールを用意す
ることになる。
【0141】図28に、請求項17記載の本発明を実現
するために実行する同期制御手段20の処理フローの一
実施例を図示する。同期制御手段20は、請求項17記
載の本発明を実現する場合には、上述した基本処理のス
テップ3(s3)に入ると、この処理フローに示すよう
に、基本処理のステップ2(s2)で選択した生成ルー
ルを参照することで、その生成ルールが音源を変化させ
ることを記述する生成ルールであるのか否かを判断し、
そのような生成ルールであることを判断するときには、
続いて、基本処理のステップ4(s4)で、その生成ル
ールの記述する音源の変化情報と視聴者位置とに従っ
て、立体音源生成手段17に与えるパラメータを算出し
てそれを与える。
【0142】このようにして、請求項17記載の本発明
では、生成ルールに音源を変化させることが記述される
ときには、その生成ルールの記述する音源の変化情報と
視聴者位置とに従って、立体音源生成手段17に与える
パラメータを算出してそれを与えることで、CGと連動
した音響効果を実現する構成を採ることを特徴とする。
【0143】例えば、図27の生成ルールでは、音源1
は、離散的な時刻の位置を表すキーフレームアニメーシ
ョンデータによって音源の位置を変化させ、視聴者の位
置を設定される固定位置とするということが記述されて
いるので、現時刻の音源の位置をキーフレームアニメー
ションデータを補間することで求めて、その音源位置と
視聴者位置とから立体音源生成手段17に与えるパラメ
ータを算出してそれを与えることで、CGと連動した音
響効果を実現するように処理する。また、音源2は、特
定のCGデータと連動させて音源の位置を変化させ、視
聴者の位置を別に設定されるCGデータの位置とすると
いうことが記述されているので、現時刻の音源の位置を
連動するCGデータに従って求めて、その音源位置とC
Gデータに従って動いていく視聴者位置とから立体音源
生成手段17に与えるパラメータを算出してそれを与え
ることで、CGと連動した音響効果を実現するように処
理するのである。
【0144】
【発明の効果】以上説明したように、本発明によれば、
CGと音とを様々な関係で関係付けることができ、それ
に基づいてリアルタイムにCGと音とを生成することが
できるので、音楽付きのCG映像を簡単に作成すること
ができる。また、CGや音やその他の属性間の関係を自
由に定義できるため、これらの組み合わせによって、従
来にない効果を生み出すことが可能である。また、リア
ルタイムにCGと音とを生成できるため、インタラクテ
ィブな処理に適用することができる。
【図面の簡単な説明】
【図1】本発明の原理構成図である。
【図2】同期制御手段の処理フローの一実施例である。
【図3】生成ルールの一実施例である。
【図4】同期制御手段の処理フローの一実施例である。
【図5】生成ルールの一実施例である。
【図6】CG出力手段の処理フローの一実施例である。
【図7】同期制御手段の処理フローの一実施例である。
【図8】同期制御手段の処理フローの一実施例である。
【図9】同期制御手段の処理フローの一実施例である。
【図10】同期制御手段の処理フローの一実施例であ
る。
【図11】音データ格納手段の格納データの一実施例で
ある。
【図12】CGデータ格納手段の格納データの一実施例
である。
【図13】生成ルールの一実施例である。
【図14】同期制御手段の処理フローの一実施例であ
る。
【図15】生成ルールの一実施例である。
【図16】同期制御手段の処理フローの一実施例であ
る。
【図17】生成ルールの一実施例である。
【図18】同期制御手段の処理フローの一実施例であ
る。
【図19】同期制御手段の処理フローの一実施例であ
る。
【図20】生成ルールの一実施例である。
【図21】同期制御手段の処理フローの一実施例であ
る。
【図22】生成ルールの一実施例である。
【図23】同期制御手段の処理フローの一実施例であ
る。
【図24】同期制御手段の処理フローの一実施例であ
る。
【図25】同期制御手段の処理フローの一実施例であ
る。
【図26】立体音生成のためのパラメータの説明図であ
る。
【図27】生成ルールの一実施例である。
【図28】同期制御手段の処理フローの一実施例であ
る。
【符号の説明】
1 三次元画像処理装置 10 CGデータ格納手段 11 音データ格納手段 12 ルール格納手段 13 CG出力手段 14 音出力手段 15 イベント処理手段 16 世界データ格納手段 17 立体音源生成手段 18 ディスプレイ 19 スピーカ 20 同期制御手段
───────────────────────────────────────────────────── フロントページの続き (72)発明者 広田 克彦 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 鎌田 洋 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 笠井 悟志 静岡県静岡市伝馬町16番地の3 株式会社 富士通静岡エンジニアリング内 (72)発明者 多田 厚子 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 柴田 和美 静岡県静岡市伝馬町16番地の3 株式会社 富士通静岡エンジニアリング内

Claims (17)

    【特許請求の範囲】
  1. 【請求項1】 CGと音とを関連付け、その関連に基づ
    いて、リアルタイムにCGと音とを生成する三次元画像
    処理装置であって、 CGデータを格納するCGデータ格納手段と、 音データを格納する音データ格納手段と、 CGデータからCGを生成して出力するCG出力手段
    と、 音データから音を生成して出力する音出力手段と、 CG及び音の生成ルールを格納するルール格納手段と、 上記ルール格納手段の格納する生成ルールに従って、C
    G及び音の生成処理を制御する同期制御手段とを備える
    ことを、 特徴とする三次元画像処理装置。
  2. 【請求項2】 請求項1記載の三次元画像処理装置にお
    いて、 ルール格納手段が、CGと音の開始時刻及び終了時刻を
    記述する生成ルールを格納する構成を採り、 同期制御手段は、上記時刻に従ってCG及び音を生成す
    るよう制御することを、 特徴とする三次元画像処理装置。
  3. 【請求項3】 請求項1記載の三次元画像処理装置にお
    いて、 ルール格納手段が、必ずCGを表示しなければならない
    時刻を記述する生成ルールを格納する構成を採り、 同期制御手段は、CGの表示時間間隔の調整を制御する
    ことで、上記時刻のCGを飛ばすことなく表示するよう
    制御することを、 特徴とする三次元画像処理装置。
  4. 【請求項4】 請求項1記載の三次元画像処理装置にお
    いて、 ルール格納手段が、音の開始時刻及び終了時刻を記述す
    る生成ルールを格納する構成を採り、 同期制御手段は、上記時刻の指定する生成時間と、生成
    対象の音データの持つ継続時間とが異なるときには、両
    者が一致するようにと音のテンポを変更しつつ、上記時
    刻に従って音を生成するよう制御することを、 特徴とする三次元画像処理装置。
  5. 【請求項5】 請求項1記載の三次元画像処理装置にお
    いて、 ルール格納手段が、音の開始時刻及び終了時刻を記述す
    る生成ルールを格納する構成を採り、 同期制御手段は、上記時刻の指定する生成時間と、生成
    対象の音データの持つ継続時間とが異なるときには、途
    中で止めたり、あるいは繰り返す形態をとりつつ、上記
    時刻に従って音を生成するよう制御することを、 特徴とする三次元画像処理装置。
  6. 【請求項6】 請求項1記載の三次元画像処理装置にお
    いて、 ルール格納手段が、CGの開始時刻及び終了時刻を記述
    する生成ルールを格納する構成を採り、 同期制御手段は、上記時刻の指定する生成時間と、生成
    対象のCGデータの持つ継続時間とが異なるときには、
    両者が一致するようにとCGのタイムスケールを変更し
    つつ、上記時刻に従ってCGを生成するよう制御するこ
    とを、 特徴とする三次元画像処理装置。
  7. 【請求項7】 請求項1記載の三次元画像処理装置にお
    いて、 ルール格納手段が、CGの開始時刻及び終了時刻を記述
    する生成ルールを格納する構成を採り、 同期制御手段は、上記時刻の指定する生成時間と、生成
    対象のCGデータの持つ継続時間とが異なるときには、
    途中で止めたり、あるいは繰り返す形態をとりつつ、上
    記時刻に従ってCGを生成するよう制御することを、 特徴とする三次元画像処理装置。
  8. 【請求項8】 請求項1記載の三次元画像処理装置にお
    いて、 ルール格納手段が、音特徴を記述する生成ルールを格納
    する構成を採り、 同期制御手段は、生成ルールの記述する音特徴を持つ音
    を生成するよう制御することを、 特徴とする三次元画像処理装置。
  9. 【請求項9】 請求項1記載の三次元画像処理装置にお
    いて、 ルール格納手段が、CG特徴を記述する生成ルールを格
    納する構成を採り、 同期制御手段は、生成ルールの記述するCG特徴を持つ
    CGを生成するよう制御することを、 特徴とする三次元画像処理装置。
  10. 【請求項10】 請求項1記載の三次元画像処理装置に
    おいて、 ルール格納手段が、音データの優先度を記述する生成ル
    ールを格納する構成を採り、 同期制御手段は、ルール格納手段の生成ルールに従って
    CG及び音を生成するよう制御するときにあって、複数
    の音が重なるときには、優先度の高い音の音量が相対的
    に大きくなるよう制御することを、 特徴とする三次元画像処理装置。
  11. 【請求項11】 請求項1記載の三次元画像処理装置に
    おいて、 ルール格納手段が、音データと、その音データに合わせ
    るCGデータとの対応関係を記述する生成ルールを格納
    する構成を採り、 同期制御手段は、ルール格納手段の生成ルールに従って
    CG及び音を生成するよう制御するときにあって、その
    音に合わせるCGがあるときには、タイムスケールを変
    えたり、あるいは途中で止めたり、あるいは繰り返す形
    態をとりつつ、そのCGを生成するよう制御すること
    を、 特徴とする三次元画像処理装置。
  12. 【請求項12】 請求項1記載の三次元画像処理装置に
    おいて、 ルール格納手段が、CGデータと、そのCGデータに合
    わせる音データとの対応関係を記述する生成ルールを格
    納する構成を採り、 同期制御手段は、ルール格納手段の生成ルールに従って
    CG及び音を生成するよう制御するときにあって、その
    CGに合わせる音があるときには、テンポを変えたり、
    あるいは途中で止めたり、あるいは繰り返す形態をとり
    つつ、その音を生成するよう制御することを、 特徴とする三次元画像処理装置。
  13. 【請求項13】 請求項1記載の三次元画像処理装置に
    おいて、 イベントを処理するイベント処理手段を備えるととも
    に、 ルール格納手段が、イベント対象のCGと、経過時間と
    の対応関係を記述する生成ルールを格納する構成を採
    り、 同期制御手段は、ルール格納手段の生成ルールに従って
    CG及び音を生成するよう制御するときにあって、上記
    イベント処理手段が生成ルールの記述するイベント対象
    CGに対してイベントを処理するときには、生成ルール
    の記述する経過時間だけ時間を経過させながらCG及び
    音を生成するよう制御することを、 特徴とする三次元画像処理装置。
  14. 【請求項14】 請求項1記載の三次元画像処理装置に
    おいて、 ルール格納手段が、トリガとなるCGの属性と、反応と
    なる音の属性との対応関係を記述する生成ルールを格納
    する構成を採り、 同期制御手段は、ルール格納手段の生成ルールに従って
    CG及び音を生成するよう制御するときにあって、トリ
    ガとなるCGの属性が生成されるときには、反応となる
    音の属性を生成するよう制御することを、 特徴とする三次元画像処理装置。
  15. 【請求項15】 請求項1記載の三次元画像処理装置に
    おいて、 ルール格納手段が、トリガとなる音の属性と、反応とな
    るCGの属性との対応関係を記述する生成ルールを格納
    する構成を採り、 同期制御手段は、ルール格納手段の生成ルールに従って
    CG及び音を生成するよう制御するときにあって、トリ
    ガとなる音の属性が生成されるときには、反応となるC
    Gの属性を生成するよう制御することを、 特徴とする三次元画像処理装置。
  16. 【請求項16】 請求項1記載の三次元画像処理装置に
    おいて、 ルール格納手段が、トリガ条件と、反応となるCG及び
    /又は音の属性との対応関係を記述する生成ルールを格
    納する構成を採り、 同期制御手段は、ルール格納手段の生成ルールに従って
    CG及び音を生成するよう制御するときにあって、トリ
    ガ条件が成立するときには、反応となるCG及び/又は
    音の属性を生成するよう制御することを、 特徴とする三次元画像処理装置。
  17. 【請求項17】 請求項1記載の三次元画像処理装置に
    おいて、 三次元的な位置を持つ仮想的な音源の効果を生み出す立
    体音源生成手段を備えるとともに、 ルール格納手段が、音源の生成方法及び視聴者位置を記
    述する生成ルールを格納する構成を採り、 同期制御手段は、ルール格納手段の生成ルールに従って
    CG及び音を生成するよう制御するときにあって、生成
    ルールの記述する音源生成方法及び視聴者位置に従って
    上記立体音源生成手段に与えるパラメータを決定して与
    えていくことで、CGと連動した三次元な位置を持つ音
    源を生成するよう制御することを、 特徴とする三次元画像処理装置。
JP01676895A 1995-02-03 1995-02-03 三次元画像処理装置 Expired - Fee Related JP3512507B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01676895A JP3512507B2 (ja) 1995-02-03 1995-02-03 三次元画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01676895A JP3512507B2 (ja) 1995-02-03 1995-02-03 三次元画像処理装置

Publications (2)

Publication Number Publication Date
JPH08212388A true JPH08212388A (ja) 1996-08-20
JP3512507B2 JP3512507B2 (ja) 2004-03-29

Family

ID=11925405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01676895A Expired - Fee Related JP3512507B2 (ja) 1995-02-03 1995-02-03 三次元画像処理装置

Country Status (1)

Country Link
JP (1) JP3512507B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001061446A1 (fr) * 2000-02-18 2001-08-23 Sharp Kabushiki Kaisha Systeme et dispositif de commande de donnees de representation, et support d'enregistrement du programme de ce systeme
US6331851B1 (en) 1997-05-19 2001-12-18 Matsushita Electric Industrial Co., Ltd. Graphic display apparatus, synchronous reproduction method, and AV synchronous reproduction apparatus

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62137670A (ja) * 1985-12-11 1987-06-20 Sony Corp 画像効果制御装置
JPH02216588A (ja) * 1989-02-17 1990-08-29 Hitachi Ltd 対話型スクリプト・アニメーション生成方法
JPH0567184A (ja) * 1991-09-09 1993-03-19 Nippon Telegr & Teleph Corp <Ntt> マルチメデイアシナリオ加工方法
JPH0588963A (ja) * 1991-03-13 1993-04-09 Nec Home Electron Ltd 記録媒体及びマルチメデイア再生装置
JPH05143708A (ja) * 1991-11-22 1993-06-11 Hitachi Ltd マルチメデイア処理システム
JPH05153581A (ja) * 1991-12-02 1993-06-18 Seiko Epson Corp 顔画像符号化方式
JPH05242208A (ja) * 1992-03-03 1993-09-21 Nippon Telegr & Teleph Corp <Ntt> マルチメディアシナリオ編集装置およびその方法
JPH0652290A (ja) * 1992-07-27 1994-02-25 Kokusai Denshin Denwa Co Ltd <Kdd> 口形状画像合成方法及び装置
JPH0683629A (ja) * 1992-08-31 1994-03-25 Hitachi Ltd オブジェクト指向型処理システム
JPH06231030A (ja) * 1993-01-29 1994-08-19 Hitachi Ltd マルチメディアオーサリングシステム
JPH06243023A (ja) * 1993-02-12 1994-09-02 Nec Corp シナリオ編集装置
JPH06282285A (ja) * 1993-03-29 1994-10-07 Sanyo Electric Co Ltd 立体音声再生装置
JPH06282248A (ja) * 1993-03-25 1994-10-07 Nec Corp シナリオ編集方法
JPH06348799A (ja) * 1993-04-15 1994-12-22 Sony Electron Inc 編集に使用可能な素材を画面に表示させる方法及び装置

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62137670A (ja) * 1985-12-11 1987-06-20 Sony Corp 画像効果制御装置
JPH02216588A (ja) * 1989-02-17 1990-08-29 Hitachi Ltd 対話型スクリプト・アニメーション生成方法
JPH0588963A (ja) * 1991-03-13 1993-04-09 Nec Home Electron Ltd 記録媒体及びマルチメデイア再生装置
JPH0567184A (ja) * 1991-09-09 1993-03-19 Nippon Telegr & Teleph Corp <Ntt> マルチメデイアシナリオ加工方法
JPH05143708A (ja) * 1991-11-22 1993-06-11 Hitachi Ltd マルチメデイア処理システム
JPH05153581A (ja) * 1991-12-02 1993-06-18 Seiko Epson Corp 顔画像符号化方式
JPH05242208A (ja) * 1992-03-03 1993-09-21 Nippon Telegr & Teleph Corp <Ntt> マルチメディアシナリオ編集装置およびその方法
JPH0652290A (ja) * 1992-07-27 1994-02-25 Kokusai Denshin Denwa Co Ltd <Kdd> 口形状画像合成方法及び装置
JPH0683629A (ja) * 1992-08-31 1994-03-25 Hitachi Ltd オブジェクト指向型処理システム
JPH06231030A (ja) * 1993-01-29 1994-08-19 Hitachi Ltd マルチメディアオーサリングシステム
JPH06243023A (ja) * 1993-02-12 1994-09-02 Nec Corp シナリオ編集装置
JPH06282248A (ja) * 1993-03-25 1994-10-07 Nec Corp シナリオ編集方法
JPH06282285A (ja) * 1993-03-29 1994-10-07 Sanyo Electric Co Ltd 立体音声再生装置
JPH06348799A (ja) * 1993-04-15 1994-12-22 Sony Electron Inc 編集に使用可能な素材を画面に表示させる方法及び装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6331851B1 (en) 1997-05-19 2001-12-18 Matsushita Electric Industrial Co., Ltd. Graphic display apparatus, synchronous reproduction method, and AV synchronous reproduction apparatus
WO2001061446A1 (fr) * 2000-02-18 2001-08-23 Sharp Kabushiki Kaisha Systeme et dispositif de commande de donnees de representation, et support d'enregistrement du programme de ce systeme
JP2001228947A (ja) * 2000-02-18 2001-08-24 Sharp Corp 表現データ制御システム、および、それを構成する表現データ制御装置、並びに、そのプログラムが記録された記録媒体

Also Published As

Publication number Publication date
JP3512507B2 (ja) 2004-03-29

Similar Documents

Publication Publication Date Title
CN109462776B (zh) 一种视频特效添加方法、装置、终端设备及存储介质
US5513129A (en) Method and system for controlling computer-generated virtual environment in response to audio signals
US10776977B2 (en) Real-time lip synchronization animation
JP2003524216A (ja) 音楽データを3次元環境で表示する方法および装置
KR20050033550A (ko) 이미지 처리 방법 및 시스템
Vaananen et al. Advanced AudioBIFS: Virtual acoustics modeling in MPEG-4 scene description
Çamcı et al. INVISO: a cross-platform user interface for creating virtual sonic environments
Schertenleib et al. Conducting a virtual orchestra
Pressing Some perspectives on performed sound and music in virtual environments
US20240203058A1 (en) System and method for performance in a virtual reality environment
JP3512507B2 (ja) 三次元画像処理装置
JP2001517814A (ja) 音響効果システム
CN115623146A (zh) 一种生成特效视频的方法、装置、电子设备及存储介质
JP2002354598A (ja) 音声空間情報付加装置および方法、記録媒体、並びにプログラム
Hamilton Perceptually coherent mapping schemata for virtual space and musical method
WO2020167304A1 (en) Real-time lip synchronization animation
Agamanolis High-level scripting environments for interactive multimedia systems
US20230413003A1 (en) Audio processing in a virtual environment
Herder et al. The helical keyboard: perspectives for spatial auditory displays and visual music
KR102135117B1 (ko) 가상환경 내의 사용자 행동에 따른 가청음의 사용자 인식 구조의 생성 방법 및 시스템
Garner Cinematic sound design for players
JPH11133987A (ja) 振り付け動画表示に特徴を有するカラオケ装置
KR19990035937A (ko) 상호작용 응용을 위한 오디오 데이터 관리
McDonnell Development of Open Source tools for creative and commercial exploitation of spatial audio
Singer et al. Improv: Interactive improvisational animation and music

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100116

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110116

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110116

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees