JPH11126066A - Av同期装置、及びav同期方法、並びにav同期プログラムを記録した記録媒体 - Google Patents

Av同期装置、及びav同期方法、並びにav同期プログラムを記録した記録媒体

Info

Publication number
JPH11126066A
JPH11126066A JP9290026A JP29002697A JPH11126066A JP H11126066 A JPH11126066 A JP H11126066A JP 9290026 A JP9290026 A JP 9290026A JP 29002697 A JP29002697 A JP 29002697A JP H11126066 A JPH11126066 A JP H11126066A
Authority
JP
Japan
Prior art keywords
data
music
synchronization
progress
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9290026A
Other languages
English (en)
Inventor
Seiichi Suzuki
誠一 鈴木
Shinji Tokunaga
真志 徳永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP9290026A priority Critical patent/JPH11126066A/ja
Priority to PCT/JP1998/002175 priority patent/WO1998053443A1/ja
Priority to CNB988005875A priority patent/CN1152364C/zh
Priority to US09/142,813 priority patent/US6331851B1/en
Priority to CA002250021A priority patent/CA2250021C/en
Publication of JPH11126066A publication Critical patent/JPH11126066A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

(57)【要約】 【課題】 楽曲演奏と画像再生にズレが生じた場合、そ
のズレを自動的に修正できること。 【解決手段】 楽曲データを再生するとき、特定音符分
の楽曲が進行する毎に、その時点での楽曲の進行位置、
及び楽曲のテンポを示すテンポ情報を同期メッセージと
して出力する拍発生部と、拍発生部から同期メッセージ
を入力し、入力した同期メッセージに基づいてフレーム
の進行位置を算出する表示フレーム決定部とを設ける。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、オーディオデータ
(Audio data)とビデオデータ(Video data)とを同期
するAV同期装置、及びAV同期方法、並びにAV同期
プログラムを記録した記録媒体に関する。
【0002】
【従来の技術】従来のAV同期装置では、オーディオデ
ータとビデオデータの再生開始時刻を一致することによ
り、オーディオデータとビデオデータとを同期して再生
していた。例えば、コンピュータグラフィック(以
下、”CGグラフィック”という)によって描画する3
次元のCGグラフィック画像中の人物像(以下、”CG
キャラクタ”という)を楽曲データの再生による音楽
(楽曲)に合わせて踊らせる場合、従来のAV同期装置
では、楽曲の演奏開始時刻にCGキャラクタを動かし始
めることにより実現していた。
【0003】図15を参照して、従来のAV同期装置に
ついて具体的に説明する。図15は、従来のAV同期装
置の構成を示すブロック図である。図15において、従
来のAV同期装置は、ユーザー、またはオペレータから
の演奏開始命令を入力する楽曲データ保存部51、及び
CG進行データ保存部52を備えている。楽曲データ保
存部51、及びCG進行データ保存部52は、RAMに
より構成され、演奏開始命令を入力する前にCD−RO
M、DVDあるいは類似の記録媒体、又は通信回線によ
って再生すべき楽曲の楽曲データ、及び当該楽曲に対応
したCGキャラクタを描画、表示するためのCG進行デ
ータをそれぞれ取得している。楽曲データは、MIDI
(Musical Instrumental Digital Interface)規格又は
類似規格に基づいて、演奏音をデジタル形式のデータに
変換した一連の音楽データである。さらに、従来のAV
同期装置には、出力波形生成部53、音データ用バッフ
ァ54、D/A変換器55、アンプ56、及びスピーカ
57が、楽曲の再生処理を行う機器として、楽曲データ
保存部51に順次接続されている。出力波形生成部53
は、楽曲データ保存部51から出力された楽曲データに
基づいて、演奏音の波形データを生成して、音データ用
バッファ54に逐次出力する。音データ用バッファ54
は、スピーカ57にて再生される演奏が途切れるのを防
止するために、生成された演奏音の波形データを一時的
に一定量蓄積した後、波形データをD/A変換器55に
送りだす。D/A変換器55は、デジタル信号である波
形データをアナログ信号の音信号に変換した後、アンプ
56に出力する。音信号は、アンプ56により増幅さ
れ、スピーカ57により演奏として発音される。
【0004】また、従来のAV同期装置には、CGキャ
ラクタの再生処理を行う機器として、表示フレーム決定
部58、CGレンダリング部59、フレームバッファ6
0、及びモニタ61が、CG進行データ保存部52に順
次接続されている。表示フレーム決定部58には、CG
キャラクタの動き(動作)を指示する動きデータを記憶
している動きデータ保存部62、及びCGキャラクタの
形状を示すCGキャラクタ形状データを記憶しているC
Gキャラクタ形状データ保存部63が接続されている。
CGレンダリング部59には、表示するCGキャラクタ
のレンダリングを行うためのカメラ視点情報、及び光源
情報をそれぞれ記憶しているカメラ視点情報保存部6
4、及び光源情報保存部65が接続されている。動きデ
ータ保存部62、CGキャラクタ形状データ保存部6
3、カメラ視点情報保存部64、及び光源情報保存部6
5は、RAMにより構成され、演奏開始命令を入力する
前にCD−ROM、DVDあるいは類似の記録媒体、又
は通信回線により、動きデータ、CGキャラクタ形状デ
ータ、カメラ視点情報、及び光源情報をそれぞれ入力し
て保持している。表示フレーム決定部58は、CG進行
データ保存部52からのCG進行データに基づいて、モ
ニタ61に表示するCGキャラクタの表示フレームを決
定する。詳細には、表示フレーム決定部58は、CG進
行データにより指定された動きデータ、及びCGキャラ
クタ形状データを動きデータ保存部62、及びCGキャ
ラクタ形状データ保存部63からそれぞれ読み出し、C
Gキャラクタの表示フレームを決定する。CGレンダリ
ング部59は、上述のCG進行データに基づいて、CG
キャラクタにレンダリングを施す。詳細には、CGレン
ダリング部59は、CG進行データにより指定されたカ
メラ視点情報、及び光源情報をカメラ視点情報保存部6
4、及び光源情報保存部65からそれぞれ読み出し、読
み出したカメラ視点情報、及び光源情報に基づいて表示
フレーム決定部58からのCGキャラクタの画像データ
を修正し、CGキャラクタをレンダリングする。レンダ
リングされたCGキャラクタの画像データは、CGレン
ダリング部59からフレームバッファ60に送られ、モ
ニタ61によってCGキャラクタとして再生、表示され
る。
【0005】ここで、図16の(a)、図16の
(b)、及び図16の(c)を参照して、CG進行デー
タにより指定される動きデータ、カメラ視点情報、及び
光源情報の具体例について、説明する。図16の(a)
は図15に示した従来のAV同期装置においてCG進行
データにより指定される動きデータの具体例を示す説明
図であり、図16の(b)は図15に示した従来のAV
同期装置においてCG進行データにより指定される別の
動きデータの具体例を示す説明図である。図16の
(c)は、図15に示した従来のAV同期装置において
CG進行データにより指定されるカメラ視点情報、及び
光源情報の具体例を示す説明図である。尚、以下の説明
では、説明の簡略化のために、モニタ61(図15)に
表示するCGキャラクタの数を2体として説明する。図
16の(a)、図16の(b)、及び図16の(c)の
各最上段は、演奏開始から経過した時刻を示している。
尚、同図において、0secは演奏音の再生開始時刻を示
し、△Tは表示するCGキャラクタの画像データがフレ
ームバッファ60(図15)からモニタ61に出力され
る時間間隔を示している。例えば、1秒間に30フレー
ム分のCGキャラクタの書き換えを行うならば、△Tは
1/30secであり、1秒間に60フレーム分のCGキ
ャラクタの書き換えを行うならば、△Tは1/60sec
である。図16の(a)及び図16の(b)の下段は、
CG進行データによって指定される動きデータ1,2の
キーフレームの番号をそれぞれ示している。例えば図1
6の(a)に示すように、一方のCGキャラクタでは、
時刻0secにおいて動きデータ1のF11番目のフレー
ムがキーフレームとして指定され、同時刻において当該
F11番目のフレームの画像データが動きデータ保存部
62(図15)から表示フレーム決定部58(図15)
に読み出される。同様に、時刻5*△Tsecでは、動き
データ1のF12番目のフレームがキーフレームとして
指定され、同時刻において当該F12番目のフレームの
画像データが動きデータ保存部62から表示フレーム決
定部58に読み出される。このように、動きデータは、
△Tの5の倍数の時刻のみ、CG進行データによって指
定されているが、指定された2つの動きデータの間の画
像データについては、スプライン補間又は類似のデータ
補間方法により、算出することができる。尚、この算出
は、表示フレーム決定部58により行われる。また、周
知のように、キーフレームを所定の時間間隔で間引いて
指定することにより、CG進行データのデータ量を小さ
く、例えば5分の1のデータ量にすることができる。
【0006】図16の(c)の中段、及び下段は、CG
進行データによって指定されるカメラ視点情報、及び光
源情報をそれぞれ示している。カメラ視点情報は、仮想
のカメラを用いてCGキャラクタを撮影した場合での当
該カメラの撮影条件を示す情報であり、カメラの位置、
撮影方向、及びズームを指定するデータにより構成され
ている。これらのデータは、図16の(c)に示される
ように、上述のCG進行データにより指定されるもので
あり、例えば時刻0secでは、位置データPc1、撮影方
向データDc1、及びズームデータZc1が指定され、カ
メラ視点情報保存部64(図15)からCGレンダリン
グ部59(図15)に読み出される。光源情報は、仮想
の光源を用いてCGキャラクタを照射した場合での当該
光源の照射条件を示す情報であり、光源の位置、照射方
向、及び効果を指定するデータにより構成されている。
これらのデータは、図16の(c)に示されるように、
上述のCG進行データにより指定されるものであり、例
えば時刻0secでは、位置データPL1、照射方向データ
DL1、及び効果データZL1が指定され、光源情報保存
部65(図15)からCGレンダリング部59に読み出
される。カメラ情報、及び光源情報も、動きデータと同
様に、△Tの5の倍数の時刻のみ、CG進行データによ
って指定されているが、指定された時刻の間の各データ
については、線形補間又は類似のデータ補間方法によ
り、算出することができる。尚、この算出は、CGレン
ダリング部59により行われる。
【0007】上記のような従来のAV同期装置では、演
奏開始命令を入力したとき、楽曲データによる楽曲の再
生と、この楽曲に対応させたCG進行データによるCG
キャラクタの再生が同時に開始される。この従来のAV
同期装置の動作について、図17を参照して具体的に説
明する。図17は、図15に示した従来のAV同期装置
の動作を示すフローチャートである。図17に示すよう
に、楽曲データ保存部51(図15)、及びCG進行デ
ータ保存部52(図15)は、記録媒体または通信回線
により、それぞれ楽曲データ、及びCG進行データを予
め取得して保持している(ステップS100)。続い
て、楽曲データ保存部51、及びCG進行データ保存部
52が演奏開始命令を入力すると(ステップS10
1)、従来のAV同期装置は楽曲、及びCGキャラクタ
の再生を互いに独立して行う。
【0008】まず、演奏の再生動作について説明する。
楽曲データ保存部51は、演奏開始命令を入力した後、
記憶している楽曲データを出力波形生成部53(図1
5)に順次出力する。出力波形生成部53は、楽曲デー
タに基づいてデジタル形式の演奏音の波形データを生成
して(ステップS102)、音データ用バッファ54
(図15)に逐次出力する。音データ用バッファ54
は、一定量の波形データを一時的に蓄える(ステップS
103)。その後、波形データを音データ用バッファ5
4からD/A変換器55(図15)に出力する。D/A
変換器55は、入力した波形データをアナログ形式の音
信号に変換する(ステップS104)。そして、D/A
変換器55は、音信号をアンプ56(図15)に出力し
て、アンプ56にて音信号を増幅する(ステップS10
5)。続いて、スピーカ57(図15)により、アンプ
56からの音信号を演奏として発音する(ステップS1
06)。
【0009】次に、CGキャラクタの再生動作について
説明する。CG進行データ保存部52は、演奏開始命令
を入力した後、記憶しているCG進行データを表示フレ
ーム決定部58(図15)に出力する。表示フレーム決
定部58は、入力したCG進行データにより指定された
動きデータ及びCGキャラクタ形状データを動きデータ
保存部62(図15)及びCGキャラクタ形状データ保
存部63(図15)からそれぞれ読み出し、これらの動
きデータ及びCGキャラクタ形状データに基づいて、各
フレームで表示するCGキャラクタの姿勢を決定する
(ステップS107)。尚、ここでいう姿勢決定とは、
CGキャラクタを構成しているポリゴンの各頂点の3次
元空間内での座標を決定することである。続いて、表示
フレーム決定部58は、上述の時間間隔△Tsec毎に、
CG進行データとともに姿勢を決定した後のCGキャラ
クタの画像データをCGレンダリング部59(図15)
に出力する。CGレンダリング部59は、入力したCG
進行データにより指定されたカメラ視点情報と光源情報
をカメラ視点情報保存部64(図15)及び光源情報保
存部65(図15)からそれぞれ読み出し、これらのカ
メラ視点情報と光源情報に基づいて、CGキャラクタを
レンダリングする(ステップS108)。このことによ
り、指定されたカメラの撮影条件、及びスポットライト
や太陽光など指定された光源の照射条件で照らされたC
Gキャラクタの画像データが、時間間隔△Tsecの表示
フレームごとにCGレンダリング部59内で形成され
る。次に、CGレンダリング部59は、レンダリングし
た後のCGキャラクタの画像データをフレームバッファ
60(図15)に書き込む(ステップS109)。そし
て、フレームバッファ60からCGキャラクタの画像デ
ータをモニタ61(図15)に出力して、CGキャラク
タを表示する(ステップS110)。このように、従来
のAV同期装置では、演奏開始命令により楽曲データと
当該楽曲データに対応したCG進行データとを同時に再
生開始することによって、演奏とCGキャラクタの表示
とを同期して再生していた。
【0010】
【発明が解決しようとする課題】上記のような従来のA
V同期装置では、楽曲演奏と画像再生とは、開始時点で
のみ一致させ、その後はそれぞれ別々に進行させて、再
生途中に同期をとることはなかった。このため、一方の
再生動作に予定外の時間を要して、スピーカまたはモニ
タに出力すべき信号またはデータが、演奏または表示の
出力タイミングに遅れて出力された場合、もう一方の再
生動作での出力タイミングとズレが生じ、再生動作の終
了まで正しく修正することができなかった。つまり、従
来のAV同期装置では、再生動作中に楽曲演奏と画像再
生とにズレが生じた場合、それらを再び同期させること
ができなかった。尚、上記のズレは、例えば、CGキャ
ラクタの再生動作のうち、レンダリング処理に時間を要
して、表示すべき時間間隔△Tsec内に当該レンダリン
グ処理が終了しない場合等に生じた。さらに、従来のA
V同期装置は、演奏を開始した後では楽曲演奏と画像再
生との同期をとらないので、楽曲のテンポを変更した場
合、楽曲の進行速度とCGキャラクタの進行速度とに差
が生じ、楽曲の進行とともにズレが大きくなった。
【0011】この発明は、上記のような問題点を解決す
るためになされたものであり、楽曲演奏と画像再生にズ
レが生じた場合、そのズレを自動的に修正できるAV同
期装置、及びAV同期方法、並びに該AV同期方法を記
録した記録媒体を提供することを目的とする。また、こ
の発明は、楽曲のテンポを再生途中で変更する場合で
も、楽曲演奏と画像再生とを同期することができるAV
同期装置、及びAV同期方法、並びに該AV同期方法を
記録した記録媒体を提供することを目的とする。
【0012】
【課題を解決するための手段】本発明のAV同期装置
は、楽曲データと動画データとを同期して再生するAV
同期装置であって、前記楽曲データを再生するとき、特
定音符分の楽曲が進行する毎に、その時点での楽曲の進
行位置及び楽曲のテンポを示すテンポ情報を同期メッセ
ージとして出力する拍発生回路と、前記特定音符を基準
として楽曲データの進行と動画データの進行とを時間的
に対応づけたAV同期指示データを生成するAV同期指
示データ生成回路と、フレームバッファが画像表示回路
に画像を出力する時間間隔を△Tとするとき、前記拍発
生回路から同期メッセージを入力し、この同期メッセー
ジに含まれたテンポ情報、この同期メッセージを入力し
た時点でフレームバッファに書き込まれている動画デー
タのフレームの進行位置、次の同期メッセージを入力す
るときに前記AV同期指示データにより指定される動画
データのフレームの進行位置、及び上記時間間隔△Tと
によって、フレームバッファに書き込む動画データを決
定する表示フレーム決定回路とを備えている。このよう
に構成することにより、表示フレーム決定回路は、フレ
ーム補間方法を用いることにより、楽曲データに同期し
た動画の画像データを生成することができ、楽曲演奏の
再生処理に動画の再生処理を自動的に修正して、それら
の再生処理を常に同期させることができる。
【0013】本発明の別のAV同期装置は、楽曲データ
とCGキャラクタの動きデータとを同期して再生するA
V同期装置であって、前記楽曲データを再生するとき、
特定音符分の楽曲が進行する毎に、その時点での楽曲の
進行位置及び楽曲のテンポを示すテンポ情報を同期メッ
セージとして出力する拍発生回路と、前記特定音符を基
準として楽曲データの進行とCGキャラクタの動きデー
タの進行とを時間的に対応づけたAV同期指示データを
生成するAV同期指示データ生成回路と、フレームバッ
ファが画像表示回路に画像を出力する時間間隔を△Tと
するとき、前記拍発生回路から同期メッセージを入力
し、この同期メッセージに含まれたテンポ情報、この同
期メッセージを入力した時点でフレームバッファに書き
込まれているCGキャラクタの動きデータのフレームの
進行位置、次の同期メッセージを入力するときに前記A
V同期指示データにより指定されるCGキャラクタの動
きデータのフレームの進行位置、及び上記時間間隔△T
とによって、フレームバッファに書き込むCGキャラク
タの姿勢を決定するキャラクタ姿勢計算回路とを備えて
いる。このように構成することにより、キャラクタ姿勢
計算回路は、フレーム補間方法を用いることにより、楽
曲データに同期したCGキャラクタのの画像データを生
成することができ、楽曲演奏の再生処理にCGキャラク
タのの再生処理を自動的に修正して、それらの再生処理
を常に同期させることができる。
【0014】本発明の別のAV同期装置は、前記テンポ
情報の変更を入力するテンポ変更入力回路を設けてい
る。このように構成することにより、ユーザーが楽曲演
奏の途中で楽曲のテンポを変更したとしても、楽曲演奏
と画像再生とを同期することができる。
【0015】本発明のAV同期方法は、楽曲と画像を同
期させるため、特定音符を基準とした前記楽曲の進行位
置及び前記楽曲のテンポ情報を、前記特定音符分だけ前
記楽曲が進行する毎に、前記楽曲の音生成部から前記画
像の生成部に対して伝えている。このように構成するこ
とにより、楽曲演奏と画像再生とにズレが生じた場合で
も、そのズレを自動的に修正できる。
【0016】本発明のAV同期装置の別のAV同期方法
は、楽曲データを再生するとき、特定音符分の楽曲が進
行する毎に、その時点での楽曲の進行位置及び楽曲のテ
ンポを示すテンポ情報を同期メッセージとして出力する
工程と、前記特定音符を基準として楽曲データの進行と
動画データの進行とを時間的に対応づけたAV同期指示
データを生成する工程と、フレームバッファが画像表示
回路に画像を出力する時間間隔を△Tとするとき、前記
同期メッセージを入力し、この同期メッセージに含まれ
たテンポ情報、この同期メッセージを入力した時点でフ
レームバッファに書き込まれている動画データのフレー
ムの進行位置、次の同期メッセージを入力するときに前
記AV同期指示データにより指定される動画データのフ
レームの進行位置、及び上記時間間隔△Tとによって、
フレームバッファに書き込む動画データを決定する工程
とを備えている。このように構成することにより、フレ
ーム補間方法を用いることによって楽曲データに同期し
た動画の画像データを生成することができ、楽曲演奏の
再生処理に動画の再生処理を自動的に修正して、それら
の再生処理を常に同期させることができる。
【0017】本発明の別のAV同期装置のAV同期方法
は、楽曲データを再生するとき、特定音符分の楽曲が進
行する毎に、その時点での楽曲の進行位置及び楽曲のテ
ンポを示すテンポ情報を同期メッセージとして出力する
工程と、前記特定音符を基準として楽曲データの進行と
CGキャラクタの動きデータの進行とを時間的に対応づ
けたAV同期指示データを生成する工程と、フレームバ
ッファが画像表示回路に画像を出力する時間間隔を△T
とするとき、前記同期メッセージを入力し、この同期メ
ッセージに含まれたテンポ情報、この同期メッセージを
入力した時点でフレームバッファに書き込まれているC
Gキャラクタの動きデータのフレームの進行位置、次の
同期メッセージを入力するときに前記AV同期指示デー
タにより指定されるCGキャラクタの動きデータのフレ
ームの進行位置、及び上記時間間隔△Tとによって、フ
レームバッファに書き込むCGキャラクタの姿勢を決定
する工程と備えている。このように構成することによ
り、フレーム補間方法を用いることによって楽曲データ
に同期したCGキャラクタのの画像データを生成するこ
とができ、楽曲演奏の再生処理にCGキャラクタのの再
生処理を自動的に修正して、それらの再生処理を常に同
期させることができる。
【0018】本発明の別のAV同期装置のAV同期方法
は、前記テンポ情報の変更を入力する工程、及び前記同
期メッセージのテンポ情報を入力したテンポ情報に変更
する工程を備えている。このように構成することによ
り、ユーザーが楽曲演奏の途中で楽曲のテンポを変更し
たとしても、楽曲演奏と画像再生とを同期することがで
きる。
【0019】本発明のAV同期プログラムを記録した記
録媒体は、楽曲データと動画データとを同期させるため
のAV同期プログラムを記録した記録媒体であって、楽
曲データを再生するとき、その時点での楽曲の進行位置
及び楽曲のテンポを示すテンポ情報を同期メッセージと
して出力し、前記特定音符を基準として楽曲データの進
行と動画データの進行とを時間的に対応づけたAV同期
指示データを生成し、さらにフレームバッファが画像表
示回路に画像を出力する時間間隔を△Tとするとき、前
記同期メッセージを入力し、この同期メッセージに含ま
れたテンポ情報、この同期メッセージを入力した時点で
フレームバッファに書き込まれている動画データのフレ
ームの進行位置、次の同期メッセージを入力するときに
前記AV同期指示データにより指定される動画データの
フレームの進行位置、及び上記時間間隔△Tとによっ
て、フレームバッファに書き込む動画データを決定する
AV同期プログラムを記録している。このように構成す
ることにより、フレーム補間方法を用いることにより、
楽曲データに同期した動画の画像データを生成すること
ができ、楽曲演奏の再生処理に動画の再生処理を自動的
に修正して、それらの再生処理を常に同期させることが
できる。
【0020】本発明の別のAV同期プログラムを記録し
た記録媒体は、楽曲データと動画データとを同期させる
ためのAV同期プログラムを記録した記録媒体であっ
て、楽曲データを再生するとき、その時点での楽曲の進
行位置及び楽曲のテンポを示すテンポ情報を同期メッセ
ージとして出力し、前記特定音符を基準として楽曲デー
タの進行と動画データの進行とを時間的に対応づけたA
V同期指示データを生成し、さらにフレームバッファが
画像表示回路に画像を出力する時間間隔を△Tとすると
き、前記同期メッセージを入力し、この同期メッセージ
に含まれたテンポ情報、この同期メッセージを入力した
時点でフレームバッファに書き込まれているCGキャラ
クタの動きデータのフレームの進行位置、次の同期メッ
セージを入力するときに前記AV同期指示データにより
指定されるCGキャラクタの動きデータのフレームの進
行位置、及び上記時間間隔△Tとによって、フレームバ
ッファに書き込むCGキャラクタの姿勢を決定するAV
同期プログラムを記録している。このように構成するこ
とにより、フレーム補間方法を用いることにより、楽曲
データに同期したCGキャラクタのの画像データを生成
することができ、楽曲演奏の再生処理にCGキャラクタ
のの再生処理を自動的に修正して、それらの再生処理を
常に同期させることができる。
【0021】本発明の別のAV同期プログラムを記録し
た記録媒体は、前記テンポ情報の変更を入力し、同期メ
ッセージのテンポ情報を入力したテンポ情報に変更する
機能を追加している。このように構成することにより、
ユーザーが楽曲演奏の途中で楽曲のテンポを変更したと
しても、楽曲演奏と画像再生とを同期することができ
る。
【0022】
【発明の実施の形態】以下、本発明のAV同期装置を示
す好ましい実施例について、図面を参照して説明する。
【0023】《第1の実施例》図1は、本発明の第1の
実施例であるAV同期装置の構成を示すブロック図であ
る。尚、以下の説明では、コンピュータグラフィック
(以下、”CGグラフィック”という)によって描画す
る、例えば3次元のCGグラフィック画像をCGキャラ
クタという。図1において、本実施例のAV同期装置
は、ユーザー、またはオペレータからの演奏開始命令を
入力し、楽曲データを保存する楽曲データ保存部1、楽
曲データ保存部1から出力された楽曲データに基づい
て、演奏音の波形データを生成する出力波形生成部2、
及び出力波形生成部2からの一定量の波形データを一時
的に蓄える音データ用バッファ3を備えている。さら
に、AV同期装置は、音データ用バッファ3からの波形
データをアナログ信号の音信号に変換するD/A変換器
4、D/A変換器4からの音信号を増幅するアンプ5、
及びアンプ5からの増幅された音信号を演奏として発音
するスピーカ6を設けている。楽曲データ保存部1は、
書き換え可能な記録媒体、例えばRAMにより構成さ
れ、演奏開始命令を入力する前にCD−ROM、DVD
あるいは類似の記録媒体、又は通信回線によって再生す
べき楽曲の楽曲データを予め取得している。楽曲データ
は、MIDI(Musical Instrumental Digital Interfa
ce)規格又は類似規格に基づいて、演奏音をデジタル形
式のデータに変換した一連の音楽データである。また、
音データ用バッファ3が一定量の波形データを記憶する
ことにより、スピーカ6にて再生する演奏が途切れるの
を防止できる。また、楽曲データ保存部1には、同期メ
ッセージを出力するための拍発生部7が接続されてい
る。拍発生部7は、楽曲データ保存部1からの楽曲デー
タに含まれたテンポ情報に基づいて、特定音符、例えば
四分音符1拍分の楽曲演奏が進行する毎に、その時点で
の楽曲の進行位置(i拍目;iは整数)及びテンポ情報
Temp(i)(図3参照)からなる同期メッセージを発生す
る。楽曲の進行位置は、特定音符としての四分音符1拍
分の長さを基準として、楽曲がその先頭から何拍分の四
分音符が進んでいるかを示す情報であり、テンポ情報Te
mp(i)は、特定音符としての四分音符の時間長(sec単
位)である。さらに、拍発生部7には、音データ用バッ
ファ3が接続され、音データ用バッファ3からD/A変
換器4に演奏音の波形データを出力する毎に、その出力
のタイミングが音データ用バッファ3から拍発生部7に
伝えられる。第1の実施例では、例えば44.1KHz
の周期で波形データを出力したことを拍発生部7に伝え
ている。このように構成することにより、音データ用バ
ッファ3からの出力のタイミングは、拍発生部7におい
て44.1KHzの内部クロックとして機能する。
【0024】さらに、本実施例のAV同期装置には、C
Gキャラクタの再生処理を行う機器として、シナリオデ
ータを保存するシナリオデータ保存部8、シナリオデー
タ保存部8に接続され、シナリオデータに基づいてAV
同期指示データを生成するAV同期指示データ生成部
9、拍発生部7及びAV同期指示データ生成部9に接続
された表示フレーム決定部10を備えている。さらに、
CGキャラクタの再生処理を行う機器として、CGレン
ダリング部11、フレームバッファ12、及びモニタ1
3が、表示フレーム決定部10に順次接続されている。
また、表示フレーム決定部10には、CGキャラクタの
動き(動作)を指示する動きデータを記憶している動き
データ保存部14、及びCGキャラクタの形状を示すC
Gキャラクタ形状データを記憶しているCGキャラクタ
形状データ保存部15が接続されている。CGレンダリ
ング部11には、表示するCGキャラクタのレンダリン
グを行うためのカメラ視点情報、及び光源情報をそれぞ
れ記憶するカメラ視点情報保存部16、及び光源情報保
存部17が接続されている。シナリオデータ保存部8、
動きデータ保存部14、CGキャラクタ形状データ保存
部15、カメラ視点情報保存部16、及び光源情報保存
部17は、書き換え可能な記録媒体、例えばRAMによ
り構成されている。シナリオデータ保存部8、動きデー
タ保存部14、及びCGキャラクタ形状データ保存部1
5は、演奏開始命令を入力する前にCD−ROM、DV
Dあるいは類似の記録媒体、又は通信回線により、シナ
リオデータ、動きデータ、及びCGキャラクタ形状デー
タをそれぞれ入力して保持している。
【0025】シナリオデータ保存部8に入力されるシナ
リオデータは、複数の動きデータを楽曲演奏(楽曲デー
タ)に対応させ時系列的に結合することにより、CGキ
ャラクタの一連の動きを生成させるための指示データで
ある。また、シナリオデータは、カメラ視点情報、及び
光源情報を含み、表示するフレーム毎に動きデータ、C
Gキャラクタ形状データ、カメラ視点情報、及び光源情
報を指定する。また、シナリオデータは、カメラ視点情
報、及び光源情報を含んでいる。カメラ視点情報、及び
光源情報は、シナリオデータがシナリオデータ保存部8
に保存されると同時に、カメラ視点情報保存部16、及
び光源情報保存部17にそれぞれ出力されて保持され
る。尚、カメラ視点情報、及び光源情報は、[従来の技
術]の欄で図16の(c)を参照して説明した仮想のカ
メラの撮影条件、及び仮想の光源の照射条件をそれぞれ
示す情報であり、カメラ視点情報はカメラの位置、撮影
方向、及びズームを指定するデータにより構成され、光
源情報は光源の位置、照射方向、及び効果を指定するデ
ータにより構成されている。AV同期指示データ生成部
9は、シナリオデータにより分割された各動きデータに
おいて、上述の四分音符(特定音符)の1拍分を基準と
して、楽曲データの進行とCGキャラクタの動きデータ
の進行とを対応づけたAV同期指示データを生成する。
つまり、AV同期指示データ生成部9は、四分音符(特
定音符)が1拍分進行する毎に、表示すべきフレームを
指定するAV同期指示データを生成する。
【0026】(シナリオデータ)ここで、図2の
(a)、及び図2の(b)を参照して、シナリオデー
タ、及びAV同期指示データについて具体的に説明す
る。図2の(a)は図1に示したAV同期装置における
楽曲の拍数、動きデータとシナリオデータとの関係を示
す説明図であり、図2の(b)は図1に示したAV同期
装置における楽曲の拍数、動きデータ、シナリオデー
タ、及びAV同期指示データの関係を示す説明図であ
る。図2の(a)、及び図2の(b)において、横軸
は、楽曲の演奏開始からの特定音符による拍数を示して
いる。特定音符としては、任意の音符を採用することが
できるが、ここでは上述したように、四分音符を拍数の
基準となるべき特定音符として採用している。また、図
2の(b)は、図2の(a)での1拍目からH1拍目の
部分を拡大した図である。シナリオデータは、図2の
(a)に示すように、楽曲データ保存部1(図1)に保
存されている楽曲データでの楽曲の拍数と動きデータ保
存部14(図1)に保存されている動きデータのオリジ
ナルのフレームとを対応づけている。例えば、楽曲の1
拍目からH1拍目までが、シナリオデータによって動き
データM1に対応づけられている。このことにより、1
拍目にはN11番目のオリジナルのフレーム、またH1
拍目にはN21番目のオリジナルのフレームがそれぞれ
指定される。同様に、楽曲の(H1+1)拍目からH2
拍目までが、シナリオデータによって動きデータM2に
対応づけられている。このことにより、(H1+1)拍
目にはN12番目のオリジナルのフレーム、またH2拍
目にはN22番目のオリジナルのフレームがそれぞれ指
定される。同様に、楽曲の(H2+1)拍目からH3拍
目までが、シナリオデータによって動きデータM3に対
応づけられている。このことにより、(H2+1)拍目
にはN13番目のオリジナルのフレーム、またH3拍目
にはN23番目のオリジナルのフレームがそれぞれ指定
される。尚、オリジナルのフレームと称しているのは、
実際にモニタ13(図1)に表示されるフレームは、該
オリジナルフレームを元に表示フレーム決定部10(図
1)により決定されるフレームだからである。上記のよ
うな動きデータと楽曲との対応づけを行うことにより、
例えば、100フレーム分の動きデータを、楽曲によっ
ては、6拍分で100フレーム分の動きを進行させた
り、8拍分で100フレーム分の動きを進行させたり
と、ひとつの動きデータを用いていろいろな動きの進行
速度に対応することが可能となり、動きデータ保存部1
4の記憶容量を低減できるので、経済的なものとなる。
【0027】(AV同期指示データ)AV同期指示デー
タは、上述のように、シナリオデータにより分割された
各動きデータにおいて、上述の四分音符(特定音符)の
1拍分を基準として、楽曲データの進行とCGキャラク
タの動きデータの進行とを対応づけるデータであり、各
動きデータに割り当てたオリジナルのフレームを四分音
符(特定音符)の1拍分ずつ等分に分割することによ
り、生成される。このようにAV同期指示データを生成
することにより、動きデータM1に割り当てられたN1
1番目からN21番目までのオリジナルのフレームは、
図2の(b)に示すように、楽曲データの2,3,
4...拍目にそれぞれ対応して、モニタ13(図1)に
表示されるフレームの進行位置を示すためのフレームn
21,n31,n41,...に分けられる。尚、AV同
期指示データによって指定されるフレームの数が必ずし
も整数になるとは限らないので、上記フレームn21,
n31,n41には動きデータ保存部14に記憶されて
いないものもある。しかしながら、記憶されていないフ
レームは、後段の表示フレーム決定部10でのCGキャ
ラクタの再生処理において、スプライン補間等の公知の
データ補間方法により、動きデータ保存部14に記憶さ
れたフレームから求められるので問題はない。同様に、
動きデータM2においても、楽曲データの1拍分ずつに
対応したフレームの進行位置を示すためのフレームn2
2,n32,n42,...に分けられている。
【0028】図1に戻って、表示フレーム決定部10
は、表示するCGキャラクタの各フレームにおいて、A
V同期指示データ、及び同期メッセージに基づいて、次
に表示するフレームでのCGキャラクタの姿勢を計算し
て決定する。詳細には、フレームバッファ12が画像表
示装置であるモニタ13に画像を出力する時間間隔を△
Tとするとき、表示フレーム決定部10は、上記拍発生
部7からの同期メッセージに含まれたテンポ情報Temp
(i)、当該同期メッセージを入力した時点でフレームバ
ッファ12に書き込まれているCGキャラクタの動きデ
ータのフレームの進行位置、次の同期メッセージを入力
するときに上記AV同期指示データにより指定されるC
Gキャラクタの動きデータのフレームの進行位置、及び
上記時間間隔△Tとによって、フレームバッファ12に
書き込むCGキャラクタの姿勢を決定する。尚、時間間
隔△Tの具体的な値は、例えばモニタ13がCGキャラ
クタを1秒間に30回表示している場合、△Tは1/3
0secである。
【0029】(CGキャラクタの姿勢の計算)表示フレ
ーム決定部10におけるCGキャラクタの姿勢の具体的
な計算方法について、説明する。まず、表示フレーム決
定部10は、拍発生部7から入力した同期メッセージの
楽曲の進行位置(i拍目)をAV同期指示データと照ら
し合わせて、当該同期メッセージを入力した時点でフレ
ームバッファ12に書き込まれているCGキャラクタの
動きデータのフレームの進行位置fiと、次の同期メッセ
ージが送られてくるタイミング(i+1拍目)にAV同
期指示データによって指定されているフレームの進行位
置Fi+1を求める。さらに、表示フレーム決定部10
は、今回入力した同期メッセージの楽曲のテンポ情報Te
mp(i) により示されるi拍目から(i+1)拍目まで
の時間長の間において、上述の時間間隔△Tsec毎に表
示、進行させるCGキャラクタのフレームの進行位置fl
ame(j)を下記の(1)式を用いて算出する。
【0030】 flame(j) = fi + (Fi+1−fi)*(j*△T/Temp(i)) −−−(1)
【0031】尚、(1)式において、jは、表示フレー
ム決定部10が一の同期メッセージを入力してから次の
同期メッセージを入力するまでに、フレームバッファ1
2に書き込まれるフレーム数をカウントしたカウント値
である。つまり、jの値は、同期メッセージを入力した
時点で0にセットされ、その後、CGキャラクタのフレ
ームが進行する毎に、1つずつ(Temp(i)/△T)まで
変化する。また、(1)式において、i、及びTemp(i)
の値は、次の(i+1)拍目の同期メッセージを入力す
るでは同じ値に保たれ、(i+1)拍目の同期メッセー
ジを入力すると、その同期メッセージの値に更新され
る。
【0032】次に、表示フレーム決定部10は、動きデ
ータのオリジナルのフレームにスプライン補間を適用し
て得られた、フレームの進行位置flame(j)を変数とする
CGキャラクタの動きデータの関数P(フレームの進行
位置)を用いて、表示する各フレームでのCGキャラク
タの姿勢を算出、決定する。表示フレーム決定部10
は、CGキャラクタの姿勢を決定した後、決定したCG
キャラクタの姿勢から当該CGキャラクタでの各ポリゴ
ンの頂点座標データを算出する。さらに、表示フレーム
決定部10は、CGキャラクタ形状データ保存部15か
らシナリオデータによって指定されたCGキャラクタ形
状データを読み出し、当該CGキャラクタ形状データと
算出した頂点座標データとを用いて、CGキャラクタの
画像データを作成する。その後、表示フレーム決定部1
0は、作成した画像データをシナリオデータとともにC
Gレンダリング部11に出力する。尚、表示フレーム決
定部10は、シナリオデータが終了したかどうかの判断
を行うために、CGレンダリング部11に送ったフレー
ムの進行位置fiを記録している。CGレンダリング部1
1は、シナリオデータに含まれたカメラ視点情報及び光
源情報に基づいて、各フレーム毎にCGキャラクタのレ
ンダリングを行う。すなわち、CGレンダリング部11
は、表示フレーム決定部10からの画像データに基づい
て、指定されたカメラの撮影条件、及びスポットライト
や太陽光など指定された光源の照射条件で照らされたC
Gキャラクタの画像データを作成する。CGレンダリン
グ部11は、レンダリングした後のCGキャラクタの画
像データをフレームバッファ12に出力して書き込む。
そして、フレームバッファ12はCGキャラクタの画像
データをモニタ13に出力して、モニタ13はCGキャ
ラクタを表示する。
【0033】ここで、図3に示すタイミングチャートを
参照して、楽曲演奏の進行と、フレーム毎に行われる表
示フレーム決定部10での姿勢計算、及びCGレンダリ
ング部11でのレンダリング処理との関係について説明
する。図3は、図1に示したAV同期装置における楽曲
データ、CGキャラクタの姿勢計算、及びレンダリング
処理の時間的な関係を示すタイミングチャートである。
尚、図3において、矢印”T”は時間の経過を示し、縦
線”A”、”B”、及び”C”は、楽曲データによる楽
曲演奏の進行、表示フレーム決定部10でのCGキャラ
クタの姿勢計算の進行、及びCGレンダリング部11で
のレンダリング処理の進行をそれぞれ示している。図3
に示すように、楽曲データによる楽曲演奏が、楽曲の先
頭から(i)拍目に達したとき、拍発生部7(図1)か
ら表示フレーム決定部10(図1)に対して同期メッセ
ージが出力される。この同期メッセージは、上述のよう
に、現時点での楽曲の進行位置である(i)拍目と、楽
曲のテンポ情報Temp(i)とが含まれている。表示フレー
ム決定部10は、同期メッセージを利用しつつ、△Tse
c毎に進行させるCGキャラクタのフレームの進行位置f
lame(j)を上述の(1)式を用いて計算する。そして、
表示フレーム決定部10は、CGキャラクタの姿勢を動
きデータの関数P(フレームの進行位置)を用いて決定
し、CGキャラクタを構成する各ポリゴンの頂点座標デ
ータを算出する。図において、この姿勢計算に要する時
間(頂点座標データの算出時間も含む)を、(i)拍目
の姿勢計算、(i)+(△T/Temp(i))拍目の姿勢計
算、......と示している。その後、表示フレーム決定部
10は、算出した頂点座標データとシナリオデータに指
定されたCGキャラクタ形状データとに基づいて、画像
データを瞬時に作成する。作成された画像データは、そ
の都度、表示フレーム決定部10からCGレンダリング
部11に出力され、CGキャラクタのレンダリング処理
が開始される。
【0034】(楽曲演奏の再生処理)次に、本実施例の
AV同期装置の動作を説明する。まず、楽曲演奏の再生
処理について、図4を参照して説明する。図4は、図1
に示したAV同期装置における楽曲演奏の再生処理を示
すフローチャートである。図4に示すように、楽曲演奏
の開始する前に、楽曲データ保存部1(図1)、及びシ
ナリオデータ保存部8(図1)は、記録媒体または通信
回線により、楽曲データ、及びシナリオデータをそれぞ
れ取得する(ステップS1)。続いて、AV同期指示デ
ータ生成部9(図1)は、シナリオデータ保存部8から
のシナリオデータに基づいて、AV同期指示データを生
成する(ステップS2)。ここで、このAV同期指示デ
ータの作成手順を示す図5のフローチャートを用いて、
AV同期指示データ生成部9の動作を説明する。図5に
示すように、AV同期指示データ生成部9が、シナリオ
データ保存部8からシナリオデータを入力すると(ステ
ップS13)、AV同期指示データ生成部9は、シナリ
オデータにより指定された動きデータMiのオリジナル
のフレームを四分音符(特定音符)の1拍分ずつ等分に
分割することにより、AV同期指示データを生成する
(ステップS14)。
【0035】図4に戻って、楽曲データ保存部1が、演
奏開始の命令を入力すると(ステップS3)、楽曲デー
タ保存部1は、記憶している楽曲データを出力波形生成
部2(図1)に順次出力する。出力波形生成部2は、楽
曲データに基づいてデジタル形式の演奏音の波形データ
を生成して(ステップS4)、音データ用バッファ3
(図1)に逐次出力する。音データ用バッファ3は、一
定量の波形データを一時的に蓄える(ステップS5)。
その後、波形データを音データ用バッファ3からD/A
変換器4(図1)に出力する。D/A変換器4は、入力
した波形データをアナログ形式の音信号に変換する(ス
テップS6)。そして、D/A変換器4は、音信号をア
ンプ5(図1)に出力して、アンプ5にて音信号を増幅
する(ステップS7)。続いて、スピーカ6(図1)に
より、アンプ5からの音信号を演奏として発音する(ス
テップS8)。
【0036】音データ用バッファ3は、D/A変換器4
に波形データを出力する毎に、そのタイミングを拍発生
部7(図1)に伝える(ステップS9)。続いて、拍発
生部7は、楽曲データに含まれているテンポ情報に基づ
いて、四分音符1拍分の楽曲が進行する毎に、その時点
での楽曲の進行位置(i拍目)及びテンポ情報Temp(i)
からなる同期メッセージを発生し、表示フレーム決定部
10(図1)に出力する(ステップS10)。次に、拍
発生部7は、楽曲の終わりであるかどうかについて判定
する(ステップS11)。楽曲の終わりでなければ、再
度、ステップS4に示す処理に戻る。楽曲の終わりであ
れば、演奏を終了する(ステップS12)。
【0037】(CGキャラクタの再生処理)次に、CG
キャラクタの再生処理について、図6を用いて説明す
る。図6は、図1に示したAV同期装置におけるCGキ
ャラクタの再生処理を示すフローチャートである。図6
において、表示フレーム決定部10が拍発生部7から同
期メッセージを入力すると(ステップS15)、表示フ
レーム決定部10はjの値を0とする(ステップS1
6)。尚、jは、上述のように、表示フレーム決定部1
0が一の同期メッセージを入力してから次の同期メッセ
ージを入力するまでに、フレームバッファ12(図1)
に書き込まれるフレーム数をカウントしたカウント値で
ある。続いて、表示フレーム決定部10は、拍発生部7
から入力した同期メッセージの楽曲の進行位置とAV同
期指示データとを照らし合わせることにより、現時点
(i拍目)及び次に同期メッセージを入力する時点(i
+1拍目)でのCGキャラクタの動きデータのフレーム
の進行位置fi及びFi+1を求める。その後、表示フレー
ム決定部10は、今回入力した同期メッセージの楽曲の
テンポ情報Temp(i) により示されるi拍目から(i+
1)拍目までの時間長の間において、上述の時間間隔△
Tsec毎に表示、進行させるCGキャラクタのフレーム
の進行位置flame(j)を上述の(1)式を用いて算出する
(ステップS17)。次に、表示フレーム決定部10
は、フレームの進行位置flame(j)を変数とするCGキャ
ラクタの動きデータの関数P(フレームの進行位置)を
用いて、表示する各フレームでのCGキャラクタの姿勢
を算出する(ステップS18)。続いて、表示フレーム
決定部10は、算出したCGキャラクタの姿勢とシナリ
オデータによって指定されたCGキャラクタ形状データ
とに基づいて、フレームの進行位置flame(j)における画
像データを生成して、CGレンダリング部11(図1)
に出力する(ステップS19)。CGレンダリング部1
1は、シナリオデータに含まれたカメラ視点情報及び光
源情報に基づいて、入力した画像データにレンダリング
を施す(ステップS20)。続いて、CGレンダリング
部11は、レンダリングした後の画像データをフレーム
バッファ12に書き込む(ステップS21)。そして、
モニタ13(図1)は、フレームバッファ12からの画
像データを表示する(ステップS22)。
【0038】また、表示フレーム決定部10は、ステッ
プS19に示す処理を行うとき、CGレンダリング部1
1に出力したフレームの進行位置fiを記録する(ステッ
プS23)。表示フレーム決定部10は、記録した進行
位置fiに基づいて、シナリオデータの最後まで表示が終
わっているかどうかの判断を行う(ステップS24)。
表示フレーム決定部10は、最後まで表示していない場
合、j の値を一つ増やし(ステップS25)、ステップ
S17に示す処理に戻る。一方、最後まで表示している
場合、CGキャラクタの描画を終了する(ステップS2
6)。
【0039】(作用・効果)本実施例のAV同期装置で
は、四分音符(特定音符)1拍分の楽曲が進行する毎
に、拍発生部7が表示フレーム決定部10に、特定音符
としての四分音符を基準とした楽曲の進行位置及び楽曲
のテンポ情報とを含む同期メッセージを出力し、表示フ
レーム決定部10が入力した同期メッセージを用い上述
の時間間隔△T毎にフレームの進行位置flame(j)を算出
している。このことにより、本実施例のAV同期装置で
は、表示フレーム決定部10は、フレーム(データ)補
間方法を用いることにより、楽曲データに同期したCG
キャラクタの画像データを生成することができ、楽曲演
奏の再生処理にCGキャラクタの再生処理を自動的に合
わせて、それらの再生処理を常に同期させることができ
る。この本実施例での作用・効果について、図7を参照
して説明する。図7は、図1に示したAV同期装置にお
ける楽曲の進行、同期メッセージ、及びフレームの進行
位置の算出タイミングの関係を示す説明図である。図7
において、テンポ情報Temp(i)にて図示された四分音符
(特定音符)1拍分の楽曲が進行する毎に、同期メッセ
ージが拍発生部7から表示フレーム決定部10に出力さ
れている。同期メッセージは、テンポ情報Temp(i)と、
四分音符(特定音符)を単位として楽曲の先頭から何拍
目であるかを示した楽曲の進行位置とにより構成されて
いる。尚、テンポ情報Temp(i)は、同期メッセージを出
力する毎に、その時点での最新の楽曲のテンポが楽曲デ
ータから与えられる。また、入力した同期メッセージを
用いて算出されるフレームの進行位置flame(j)は、同図
のjの値で示されるように、表示フレーム決定部10が
同期メッセージを拍発生部7から入力した時点で0にセ
ットされ、次の同期メッセージを入力するまでの間にお
いて、モニタ13にフレームを表示すべき時間間隔△T
毎に行われている。以上の構成により、本実施例のAV
同期装置では、例えばi拍目から(i+1)拍目までの
間で楽曲のテンポが変化した場合、上記算出したフレー
ムの進行位置flame(j)は実際に進行すべきフレームの進
行位置からずれて誤差となる。しかしながら、この誤差
は、次の(i+1)拍目から(i+2)拍目までの間で
のフレームの進行位置flame(j)の算出時に自動的に修正
され、楽曲演奏とCGキャラクタとの同期を保つことが
できる。
【0040】《第2の実施例》図8は、本発明の第2の
実施例であるAV同期装置の構成を示すブロック図であ
る。この実施例では、AV同期装置の構成において、楽
曲のテンポ変更指示を入力して、拍発生部から出力され
る同期メッセージのテンポ情報を変更するテンポ変更情
報入力部を設けた。それ以外の各部は、第1の実施例の
ものと同様であるのでそれらの重複した説明は省略す
る。図8に示すように、テンポ変更情報入力部18が、
拍発生部7に接続されている。このテンポ変更情報入力
部18は、楽曲の再生中(i拍目)にユーザーや外部機
器から楽曲のテンポ変更指示を入力した場合、下記の
(2)式に示すように、楽曲データ保存部1に保存され
ている楽曲データに含まれたオリジナルのテンポ情報Te
mp(i)に比例常数Csを乗算して、新たなテンポ情報Temp
(i)を求める。
【0041】 新たなテンポ情報Temp(i) = オリジナルのテンポ情報Temp(i) × Cs −−−(2)
【0042】新たなテンポ情報Temp(i)は、テンポ変更
情報入力部18から拍発生部7に出力され、拍発生部7
から出力される同期メッセージのテンポ情報として用い
られる。尚、テンポ変更情報入力部18は、楽曲データ
保存部1が再生する楽曲データを取得したとき、記録媒
体、または通信回線により、同時にオリジナルのテンポ
情報Temp(i)を取得する。
【0043】次に、本実施例のAV同期装置における楽
曲演奏の再生処理について、図9を参照して説明する。
尚、AV同期指示データの作成手順、及びCGキャラク
タの再生処理については、図5、及び図6にそれぞれ示
した第1の実施例のものと同様であるのでそれらの重複
した説明は省略する。図9は、図8に示したAV同期装
置における楽曲演奏の再生処理を示すフローチャートで
ある。図9に示すように、楽曲演奏の開始する前に、楽
曲データ保存部1(図8)、及びシナリオデータ保存部
8(図8)は、記録媒体または通信回線により、楽曲デ
ータ、及びシナリオデータをそれぞれ取得する(ステッ
プS31)。続いて、AV同期指示データ生成部9(図
8)は、シナリオデータ保存部8からのシナリオデータ
に基づいて、AV同期指示データを生成する(ステップ
S32)。楽曲データ保存部1が、演奏開始の命令を入
力すると(ステップS33)、テンポ変更情報入力部1
8は、テンポ変更指示が入力されたかどうかについて調
べる。テンポ変更指示が入力された場合、テンポ変更情
報入力部18は、入力したテンポ変更指示に基づいて、
拍発生部7(図8)から出力される同期メッセージのテ
ンポ情報を変更する(ステップS34)。楽曲データ保
存部1は、記憶している楽曲データを出力波形生成部2
(図8)に順次出力する。出力波形生成部2は、楽曲デ
ータに基づいてデジタル形式の演奏音の波形データを生
成して(ステップS35)、音データ用バッファ3(図
8)に逐次出力する。音データ用バッファ3は、一定量
の波形データを一時的に蓄える(ステップS36)。そ
の後、波形データを音データ用バッファ3からD/A変
換器4(図8)に出力する。D/A変換器4は、入力し
た波形データをアナログ形式の音信号に変換する(ステ
ップS37)。そして、D/A変換器4は、音信号をア
ンプ5(図8)に出力して、アンプ5にて音信号を増幅
する(ステップS38)。続いて、スピーカ6(図8)
により、アンプ5からの音信号を演奏として発音する
(ステップS39)。
【0044】音データ用バッファ3は、D/A変換器4
に波形データを出力する毎に、そのタイミングを拍発生
部7に伝える(ステップS40)。続いて、拍発生部7
は、楽曲データに含まれているテンポ情報に基づいて、
四分音符1拍分の楽曲が進行する毎に、その時点での楽
曲の進行位置(i拍目)及びテンポ情報Temp(i)からな
る同期メッセージを発生し、表示フレーム決定部10
(図8)に出力する(ステップS41)。次に、拍発生
部7は、楽曲の終わりであるかどうかについて判定する
(ステップS42)。楽曲の終わりでなければ、再度、
ステップS34に示す処理に戻る。楽曲の終わりであれ
ば、演奏を終了する(ステップS43)。
【0045】以上のように、本実施例のAV同期装置で
は、楽曲のテンポ変更指示を入力して、拍発生部7から
出力される同期メッセージのテンポ情報を変更するテン
ポ変更情報入力部18が設けられている。このことによ
り、本実施例のAV同期装置では、例えばカラオケにお
いて、ユーザーが楽曲演奏の途中で楽曲のテンポを好み
のテンポに変更したとしても、楽曲演奏の再生処理とC
Gキャラクタの再生処理との同期を保つことができる。
【0046】《第3の実施例》図10は、本発明の第3
の実施例であるAV同期装置の構成を示すブロック図で
ある。この実施例では、AV同期装置の構成において、
CGキャラクタの再生の代わりに、フレームのデータ長
が一定でない一連の動画データを楽曲演奏に同期して再
生する構成とした。それ以外の各部は、第1の実施例の
ものと同様であるのでそれらの重複した説明は省略す
る。尚、上述の動画データの具体例としては、MPEG
(Moving Picture Experts Group)規格などにおけるフ
レーム独立でない圧縮方式の動画データや、フレームが
固定長でない動画データである。図10に示すように、
動画の再生処理を行う機器として、動画シナリオデータ
を保存する動画シナリオデータ保存部8’、動画シナリ
オデータ保存部8’に接続され、動画シナリオデータに
基づいてAV同期指示データを生成するAV同期指示デ
ータ生成部9’、及び拍発生部7とAV同期指示データ
生成部9’とに接続された表示フレーム決定部10’が
設けられている。表示フレーム決定部10’には、動画
データを保存する動画データ保存部14’が接続されて
いる。また、表示フレーム決定部10’は、動画データ
に基づいて、表示する各フレーム毎に、楽曲データに同
期した画像データを決定し、フレームバッファ12に出
力する。動画シナリオデータ保存部8’、及び動画デー
タ保存部14’は、書き換え可能な記録媒体、例えばR
AMにより構成され、演奏開始命令を入力する前にCD
−ROM、DVDあるいは類似の記録媒体、又は通信回
線により、動画シナリオデータ、及び動画データをそれ
ぞれ入力して保持している。
【0047】ここで、図11の(a)及び図11の
(b)を参照して、動画シナリオデータ、及びAV同期
指示データを具体的に説明する。図11の(a)は図1
0に示したAV同期装置における楽曲の拍数、動画デー
タと動画シナリオデータとの関係を示す説明図であり、
図11の(b)は図10に示したAV同期装置における
楽曲の拍数、動画データ、動画シナリオデータ、及びA
V同期指示データの関係を示す説明図である。図11の
(a)、及び図11の(b)において、横軸は、楽曲の
演奏開始からの特定音符による拍数を示している。図1
1の(b)は、図11の(a)での1拍目からH1拍目
の部分を拡大した図である。動画シナリオデータは、図
11の(a)に示すように、楽曲データ保存部1(図1
0)に保存されている楽曲データでの楽曲の拍数と動画
データ保存部14’(図10)に保存されている動画デ
ータのオリジナルのフレームとを対応づけている。例え
ば、楽曲の1拍目からH1拍目までが、動画シナリオデ
ータによって動画データB1に対応づけられている。こ
のことにより、1拍目にはN11番目のオリジナルのフ
レーム、またH1拍目にはN21番目のオリジナルのフ
レームがそれぞれ指定される。同様に、楽曲の(H1+
1)拍目からH2拍目までが、動画シナリオデータによ
って動画データB2に対応づけられている。このことに
より、(H1+1)拍目にはN12番目のオリジナルの
フレーム、またH2拍目にはN22番目のオリジナルの
フレームがそれぞれ指定される。同様に、楽曲の(H2
+1)拍目からH3拍目までが、動画シナリオデータに
よって動画データB3に対応づけられている。このこと
により、(H2+1)拍目にはN13番目のオリジナル
のフレーム、またH3拍目にはN23番目のオリジナル
のフレームがそれぞれ指定される。尚、オリジナルのフ
レームと称しているのは、実際にモニタ13(図10)
に表示されるフレームは、該オリジナルフレームを元に
表示フレーム決定部10’(図10)により決定された
フレームだからである。上記のような動画データと楽曲
との対応づけを行うことにより、例えば、100フレー
ム分の動画データを、楽曲によっては、6拍分で100
フレーム分の動きを進行させたり、8拍分で100フレ
ーム分の動きを進行させたりと、ひとつの動画データを
用いていろいろな動きの進行速度に対応することが可能
となり、動画データ保存部14’の記憶容量を低減でき
るので、経済的なものとなる。
【0048】AV同期指示データは、動画シナリオデー
タにより分割された各動画データにおいて、上述の四分
音符(特定音符)の1拍分を基準として、楽曲データの
進行と動画データの進行とを対応づけるデータであり、
各動画データに割り当てられたオリジナルのフレームを
四分音符(特定音符)の1拍分ずつ等分に分割すること
により、生成される。このようにAV同期指示データを
生成することにより、動画データB1に割り当てられた
N11番目からN21番目までのオリジナルのフレーム
は、図11の(b)に示すように、楽曲データの2,
3,4...拍目にそれぞれ対応して、モニタ13(図1
0)表示されるフレームの進行位置を示すためのフレー
ムn21,n31,n41,...に分けられる。尚、A
V同期指示データによって指定されるフレームの数が必
ずしも整数になるとは限らないので、上記フレームn2
1,n31,n41には動画データ保存部14’に記憶
されていないものもある。しかしながら、記憶されてい
ないフレームは、後段の表示フレーム決定部10’での
動画の再生処理において、スプライン補間等の公知のデ
ータ補間方法により、動画データ保存部14’に記憶さ
れたフレームから求められるので問題はない。同様に、
動画データB2においても、楽曲データの1拍分ずつに
対応したフレームの進行位置を示すためのフレームn2
2,n32,n42,...に分けられている。
【0049】本実施例の表示フレーム決定部10’にお
いて、各フレームで表示する画像データを動画データか
ら計算する具体的な計算方法について説明する。まず、
表示フレーム決定部10’(図10)は、拍発生部7
(図10)から入力した同期メッセージの楽曲の進行位
置(i拍目)をAV同期指示データと照らし合わせて、
当該同期メッセージを入力した時点でフレームバッファ
12(図10)に書き込まれている動画データのフレー
ムの進行位置fiと、次の同期メッセージが送られてく
るタイミング(i+1拍目)にAV同期指示データによ
って指定されているフレームの進行位置Fi+1を求め
る。さらに、表示フレーム決定部10’は、今回入力し
た同期メッセージの楽曲のテンポ情報Temp(i) により
示されるi拍目から(i+1)拍目までの時間長の間に
おいて、上述の時間間隔△Tsec毎に表示、進行させる
動画データのフレームの進行位置flame(j')を下記の
(3)式を用いて算出する。
【0050】 flame(j') = fi + (Fi+1−fi)*(j'*△T/Temp(i)) −−−(3)
【0051】尚、(3)式において、j'は、表示フレー
ム決定部10’が一の同期メッセージを入力してから次
の同期メッセージを入力するまでに、フレームバッファ
12に書き込まれるフレーム数をカウントしたカウント
値である。つまり、j'の値は、同期メッセージを入力し
た時点で0にセットされ、その後、動画データのフレー
ムが進行する毎に、1つずつ(Temp(i)/△T)まで変
化する。また、(1)式において、i、及びTemp(i)の
値は、次の(i+1)拍目の同期メッセージを入力する
では同じ値に保たれ、(i+1)拍目の同期メッセージ
を入力すると、その同期メッセージの値に更新される。
【0052】次に、表示フレーム決定部10’は、動画
データのオリジナルのフレームにスプライン補間を適用
して得られた、フレームの進行位置flame(j')を変数と
する動画データの関数D(フレームの進行位置)を用い
て、表示する各フレームの画像データを算出、決定す
る。その後、表示フレーム決定部10’は、作成した画
像データをフレームバッファ12に出力して書き込む。
そして、フレームバッファ12は画像データをモニタ1
3(図10)に出力して、モニタ13は動画を表示す
る。尚、表示フレーム決定部10’は、動画シナリオデ
ータが終了したかどうかの判断を行うために、フレーム
バッファ12に送ったフレームの進行位置fiを記録して
いる。
【0053】次に、図12を参照して、本実施例のAV
同期装置における動画の再生処理について説明する。
尚、演奏開始の命令を入力した後の楽曲演奏の再生処
理、及び拍発生部7における同期メッセージの生成処理
は、図5に示した第1の実施例のものと同じであるので
説明を省略する。図12は、図10に示したAV同期装
置における動画の再生処理を示すフローチャートであ
る。図12において、表示フレーム決定部10’が拍発
生部7から同期メッセージを入力すると(ステップS4
5)、表示フレーム決定部10’はj'の値を0とする
(ステップS46)。尚、j'は、上述のように、表示フ
レーム決定部10’が一の同期メッセージを入力してか
ら次の同期メッセージを入力するまでに、フレームバッ
ファ12(図10)に書き込まれるフレーム数をカウン
トしたカウント値である。続いて、表示フレーム決定部
10’は、拍発生部7から入力した同期メッセージの楽
曲の進行位置とAV同期指示データとを照らし合わせる
ことにより、現時点(i拍目)及び次に同期メッセージ
を入力する時点(i+1拍目)での動画データのフレー
ムの進行位置fi及びFi+1を求める。その後、表示フ
レーム決定部10’は、今回入力した同期メッセージの
楽曲のテンポ情報Temp(i) により示されるi拍目から
(i+1)拍目までの時間長の間において、上述の時間
間隔△Tsec毎に表示、進行させる動画データのフレー
ムの進行位置flame(j')を上述の(3)式を用いて算出
する(ステップS47)。次に、表示フレーム決定部1
0’は、フレームの進行位置flame(j')を変数とする動
画データの関数D(フレームの進行位置)を用いて、表
示する各フレームでの画像データを算出する(ステップ
S48)。続いて、表示フレーム決定部10’は、算出
した画像データをフレームバッファ12に出力し(ステ
ップS49)、フレームバッファ12は、表示する画像
データを書き込む(ステップS50)。そして、モニタ
13(図10)は、フレームバッファ12からの画像デ
ータを表示する(ステップS51)。
【0054】また、表示フレーム決定部10’は、ステ
ップS49に示す処理を行うとき、フレームバッファ1
2に出力したフレームの進行位置fiを記録する(ステ
ップS52)。表示フレーム決定部10’は、記録した
進行位置fiに基づいて、動画シナリオデータの最後ま
で表示が終わっているかどうかの判断を行う(ステップ
S53)。表示フレーム決定部10’は、最後まで表示
していない場合、j' の値を一つ増やし(ステップS5
4)、ステップS47に示す処理に戻る。一方、最後ま
で表示している場合、動画の再生を終了する(ステップ
S55)。
【0055】本実施例のAV同期装置では、四分音符
(特定音符)1拍分の楽曲が進行する毎に、拍発生部7
が表示フレーム決定部10’に同期メッセージを出力
し、表示フレーム決定部10’が入力した同期メッセー
ジを用い上述の時間間隔△T毎にフレームの進行位置fl
ame(j')を算出している。このことにより、本実施例の
AV同期装置では、表示フレーム決定部10’は、フレ
ーム補間方法を用いることにより、楽曲データに同期し
た動画の画像データを生成することができ、楽曲演奏の
再生処理に動画の再生処理を自動的に合わせて、それら
の再生処理を常に同期させることができる。
【0056】《第4の実施例》図13は、本発明の第4
の実施例であるAV同期装置の構成を示すブロック図で
ある。この実施例では、AV同期装置の構成において、
楽曲のテンポ変更指示を入力して、拍発生部から出力さ
れる同期メッセージのテンポ情報を変更するテンポ変更
情報入力部を設けた。それ以外の各部は、第3の実施例
のものと同様であるのでそれらの重複した説明は省略す
る。図13に示すように、テンポ変更情報入力部18
が、拍発生部7に接続されている。このテンポ変更情報
入力部18は、楽曲の再生中(i拍目)にユーザーや外
部機器から楽曲のテンポ変更指示を入力した場合、下記
の(4)式に示すように、楽曲データ保存部1に保存さ
れている楽曲データに含まれたオリジナルのテンポ情報
Temp(i)に比例常数Cs'を乗算して、新たなテンポ情報T
emp(i)を求める。
【0057】 新たなテンポ情報Temp(i) = オリジナルのテンポ情報Temp(i) × Cs' −−−(4)
【0058】新たなテンポ情報Temp(i)は、テンポ変更
情報入力部18から拍発生部7に出力され、拍発生部7
から出力される同期メッセージのテンポ情報として用い
られる。尚、テンポ変更情報入力部18は、楽曲データ
保存部1が再生する楽曲データを取得したとき、記録媒
体、または通信回線により、同時にオリジナルのテンポ
情報Temp(i)を取得する。
【0059】次に、本実施例のAV同期装置における楽
曲演奏の再生処理について、図14を参照して説明す
る。尚、AV同期指示データの作成手順、動画の再生処
理については、図5に示した第1の実施例、及び図12
に示した第3の実施例のものと同様であるのでそれらの
重複した説明は省略する。図14は、図13に示したA
V同期装置における楽曲演奏の再生処理を示すフローチ
ャートである。図14に示すように、楽曲演奏の開始す
る前に、楽曲データ保存部1(図13)、及び動画シナ
リオデータ保存部8’(図13)は、記録媒体または通
信回線により、楽曲データ、及び動画シナリオデータを
それぞれ取得する(ステップS61)。続いて、AV同
期指示データ生成部9’(図13)は、動画シナリオデ
ータ保存部8’からの動画シナリオデータに基づいて、
AV同期指示データを生成する(ステップS62)。楽
曲データ保存部1が、演奏開始の命令を入力すると(ス
テップS63)、テンポ変更情報入力部18は、テンポ
変更指示が入力されたかどうかについて調べる。テンポ
変更指示が入力された場合、テンポ変更情報入力部18
は、入力したテンポ変更指示に基づいて、拍発生部7
(図13)から出力される同期メッセージのテンポ情報
を変更する(ステップS64)。楽曲データ保存部1
は、記憶している楽曲データを出力波形生成部2(図1
3)に順次出力する。出力波形生成部2は、楽曲データ
に基づいてデジタル形式の演奏音の波形データを生成し
て(ステップS65)、音データ用バッファ3(図1
3)に逐次出力する。音データ用バッファ3は、一定量
の波形データを一時的に蓄える(ステップS66)。そ
の後、波形データを音データ用バッファ3からD/A変
換器4(図13)に出力する。D/A変換器4は、入力
した波形データをアナログ形式の音信号に変換する(ス
テップS67)。そして、D/A変換器4は、音信号を
アンプ5(図13)に出力して、アンプ5にて音信号を
増幅する(ステップS68)。続いて、スピーカ6(図
13)により、アンプ5からの音信号を演奏として発音
する(ステップS69)。
【0060】音データ用バッファ3は、D/A変換器4
に波形データを出力する毎に、そのタイミングを拍発生
部7に伝える(ステップS70)。続いて、拍発生部7
は、楽曲データに含まれているテンポ情報に基づいて、
四分音符1拍分の楽曲が進行する毎に、その時点での楽
曲の進行位置(i拍目)及びテンポ情報Temp(i)からな
る同期メッセージを発生し、表示フレーム決定部10’
(図13)に出力する(ステップS71)。次に、AV
同期装置は、楽曲の終わりであるかどうかについて判定
する(ステップS72)。楽曲の終わりでなければ、再
度、ステップS64に示す処理に戻る。楽曲の終わりで
あれば、演奏を終了する(ステップS73)。
【0061】以上のように、本実施例のAV同期装置で
は、楽曲のテンポ変更指示を入力して、拍発生部7から
出力される同期メッセージのテンポ情報を変更するテン
ポ変更情報入力部18が設けられている。このことによ
り、本実施例のAV同期装置では、例えばカラオケにお
いて、ユーザーが楽曲演奏の途中で楽曲のテンポを好み
のテンポに変更したとしても、楽曲演奏の再生処理と動
画の再生処理との同期を保つことができる。
【0062】尚、上述の第1乃至第4の実施例における
AV同期装置の再生処理は、いずれもコンピュータ・プ
ログラム化することができるので、コンピュータにより
実行可能な記録媒体にて本願のAV同期方法を提供する
ことも可能である。ここでいうところの記録媒体とは、
フロッピーディスク、CD−ROM、DVD(デジタル
ビデオディスク)、光磁気ディスク、及びリムーバブル
・ハードディスク等である。
【0063】
【発明の効果】以上のように、本発明のAV同期装置に
は、特定音符分の楽曲が進行する毎に、現時点での楽曲
のテンポを示すテンポ情報及び上記特定音符を基準とし
た楽曲の先頭からの楽曲の進行位置により構成された同
期メッセージを出力する拍発生部が設けられている。さ
らに、本発明のAV同期装置には、拍発生部から同期メ
ッセージを入力し、入力した同期メッセージに基づいて
フレームの進行位置を算出する表示フレーム決定部が設
けられている。この構成により、本発明のAV同期装置
では、表示フレーム決定部は、フレーム補間方法を用い
ることにより、楽曲データに同期した動画の画像データ
を生成することができ、楽曲演奏の再生処理に動画の再
生処理を自動的に合わせて、それらの再生処理を常に同
期させることができる。また、本発明のAV同期装置で
は、楽曲のテンポ変更指示を入力して、拍発生部から出
力される同期メッセージのテンポ情報を変更するテンポ
変更情報入力部が設けられている。このことにより、本
実施例のAV同期装置では、ユーザーが楽曲演奏の途中
で楽曲のテンポを変更したとしても、楽曲演奏と画像再
生とを同期することができる。また、本発明のAV同期
方法は、コンピュータ・プログラム化することができる
ものであり、コンピュータで実行可能な記録媒体に上述
の第1乃至第4の実施例に示した本発明のAV同期方法
を記録して実施することも可能である。
【図面の簡単な説明】
【図1】本発明の第1の実施例であるAV同期装置の構
成を示すブロック図
【図2】図1に示したAV同期装置における楽曲の拍
数、動きデータ、シナリオデータ、及びAV同期指示デ
ータの関係を示す説明図
【図3】図1に示したAV同期装置における楽曲デー
タ、CGキャラクタの姿勢計算、及びレンダリング処理
の時間的な関係を示すタイミングチャート
【図4】図1に示したAV同期装置における楽曲演奏の
再生処理を示すフローチャート
【図5】図1に示したAV同期装置におけるAV同期指
示データの生成処理を示すフローチャート
【図6】図1に示したAV同期装置におけるCGキャラ
クタの再生処理を示すフローチャート
【図7】図1に示したAV同期装置における楽曲の進
行、同期メッセージ、及びフレームの進行位置の算出タ
イミングの関係を示す説明図
【図8】本発明の第2の実施例であるAV同期装置の構
成を示すブロック図
【図9】図8に示したAV同期装置における楽曲演奏の
再生処理を示すフローチャート
【図10】本発明の第3の実施例であるAV同期装置の
構成を示すブロック図
【図11】図10に示したAV同期装置における楽曲の
拍数、動画データ、動画シナリオデータ、及びAV同期
指示データの関係を示す説明図
【図12】図10に示したAV同期装置における動画の
再生処理を示すフローチャート
【図13】本発明の第4の実施例であるAV同期装置の
構成を示すブロック図
【図14】図13に示したAV同期装置における楽曲演
奏の再生処理を示すフローチャート
【図15】従来のAV同期装置の構成を示すブロック図
【図16】図15に示した従来のAV同期装置において
CG進行データにより指定される動きデータ、カメラ視
点情報、及び光源情報の具体例を示す説明図
【図17】図15に示した従来のAV同期装置の動作を
示すフローチャート
【符号の説明】
7 拍発生部 9,9’ AV同期指示データ生成部 10,10’ 表示フレーム決定部 18 テンポ変更情報入力部

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 楽曲データと動画データとを同期して再
    生するAV同期装置であって、 前記楽曲データを再生するとき、特定音符分の楽曲が進
    行する毎に、その時点での楽曲の進行位置及び楽曲のテ
    ンポを示すテンポ情報を同期メッセージとして出力する
    拍発生回路と、 前記特定音符を基準として楽曲データの進行と動画デー
    タの進行とを時間的に対応づけたAV同期指示データを
    生成するAV同期指示データ生成回路と、 フレームバッファが画像表示回路に画像を出力する時間
    間隔を△Tとするとき、前記拍発生回路から同期メッセ
    ージを入力し、この同期メッセージに含まれたテンポ情
    報、この同期メッセージを入力した時点でフレームバッ
    ファに書き込まれている動画データのフレームの進行位
    置、次の同期メッセージを入力するときに前記AV同期
    指示データにより指定される動画データのフレームの進
    行位置、及び上記時間間隔△Tとによって、フレームバ
    ッファに書き込む動画データを決定する表示フレーム決
    定回路とを具備したことを特徴とするAV同期装置。
  2. 【請求項2】 楽曲データとCGキャラクタの動きデー
    タとを同期して再生するAV同期装置であって、 前記楽曲データを再生するとき、特定音符分の楽曲が進
    行する毎に、その時点での楽曲の進行位置及び楽曲のテ
    ンポを示すテンポ情報を同期メッセージとして出力する
    拍発生回路と、 前記特定音符を基準として楽曲データの進行とCGキャ
    ラクタの動きデータの進行とを時間的に対応づけたAV
    同期指示データを生成するAV同期指示データ生成回路
    と、 フレームバッファが画像表示回路に画像を出力する時間
    間隔を△Tとするとき、前記拍発生回路から同期メッセ
    ージを入力し、この同期メッセージに含まれたテンポ情
    報、この同期メッセージを入力した時点でフレームバッ
    ファに書き込まれているCGキャラクタの動きデータの
    フレームの進行位置、次の同期メッセージを入力すると
    きに前記AV同期指示データにより指定されるCGキャ
    ラクタの動きデータのフレームの進行位置、及び上記時
    間間隔△Tとによって、フレームバッファに書き込むC
    Gキャラクタの姿勢を決定するキャラクタ姿勢計算回路
    とを具備したことを特徴とするAV同期装置。
  3. 【請求項3】 前記テンポ情報の変更を入力するテンポ
    変更入力回路を設けたことを特徴とした請求項1または
    2に記載のAV同期装置。
  4. 【請求項4】 楽曲と画像を同期させるため、特定音符
    を基準とした前記楽曲の進行位置及び前記楽曲のテンポ
    情報を、前記特定音符分だけ前記楽曲が進行する毎に、
    前記楽曲の音生成部から前記画像の生成部に対して伝え
    ることを特徴とするAV同期方法。
  5. 【請求項5】 楽曲データを再生するとき、特定音符分
    の楽曲が進行する毎に、その時点での楽曲の進行位置及
    び楽曲のテンポを示すテンポ情報を同期メッセージとし
    て出力する工程と、 前記特定音符を基準として楽曲データの進行と動画デー
    タの進行とを時間的に対応づけたAV同期指示データを
    生成する工程と、 フレームバッファが画像表示回路に画像を出力する時間
    間隔を△Tとするとき、前記同期メッセージを入力し、
    この同期メッセージに含まれたテンポ情報、この同期メ
    ッセージを入力した時点でフレームバッファに書き込ま
    れている動画データのフレームの進行位置、次の同期メ
    ッセージを入力するときに前記AV同期指示データによ
    り指定される動画データのフレームの進行位置、及び上
    記時間間隔△Tとによって、フレームバッファに書き込
    む動画データを決定する工程とを備えたことを特徴とす
    るAV同期装置のAV同期方法。
  6. 【請求項6】 楽曲データを再生するとき、特定音符分
    の楽曲が進行する毎に、その時点での楽曲の進行位置及
    び楽曲のテンポを示すテンポ情報を同期メッセージとし
    て出力する工程と、 前記特定音符を基準として楽曲データの進行とCGキャ
    ラクタの動きデータの進行とを時間的に対応づけたAV
    同期指示データを生成する工程と、 フレームバッファが画像表示回路に画像を出力する時間
    間隔を△Tとするとき、前記同期メッセージを入力し、
    この同期メッセージに含まれたテンポ情報、この同期メ
    ッセージを入力した時点でフレームバッファに書き込ま
    れているCGキャラクタの動きデータのフレームの進行
    位置、次の同期メッセージを入力するときに前記AV同
    期指示データにより指定されるCGキャラクタの動きデ
    ータのフレームの進行位置、及び上記時間間隔△Tとに
    よって、フレームバッファに書き込むCGキャラクタの
    姿勢を決定する工程とを具備したことを特徴とするAV
    同期装置のAV同期方法。
  7. 【請求項7】 前記テンポ情報の変更を入力する工程、
    及び前記同期メッセージのテンポ情報を入力したテンポ
    情報に変更する工程を備えたことを特徴とする請求項5
    または6に記載のAV同期装置のAV同期方法。
  8. 【請求項8】 楽曲データと動画データとを同期させる
    ためのAV同期プログラムを記録した記録媒体であっ
    て、 楽曲データを再生するとき、その時点での楽曲の進行位
    置及び楽曲のテンポを示すテンポ情報を同期メッセージ
    として出力し、前記特定音符を基準として楽曲データの
    進行と動画データの進行とを時間的に対応づけたAV同
    期指示データを生成し、さらにフレームバッファが画像
    表示回路に画像を出力する時間間隔を△Tとするとき、
    前記同期メッセージを入力し、この同期メッセージに含
    まれたテンポ情報、この同期メッセージを入力した時点
    でフレームバッファに書き込まれている動画データのフ
    レームの進行位置、次の同期メッセージを入力するとき
    に前記AV同期指示データにより指定される動画データ
    のフレームの進行位置、及び上記時間間隔△Tとによっ
    て、フレームバッファに書き込む動画データを決定する
    AV同期プログラムを記録した記録媒体。
  9. 【請求項9】 楽曲データと動画データとを同期させる
    ためのAV同期プログラムを記録した記録媒体であっ
    て、 楽曲データを再生するとき、その時点での楽曲の進行位
    置及び楽曲のテンポを示すテンポ情報を同期メッセージ
    として出力し、前記特定音符を基準として楽曲データの
    進行と動画データの進行とを時間的に対応づけたAV同
    期指示データを生成し、さらにフレームバッファが画像
    表示回路に画像を出力する時間間隔を△Tとするとき、
    前記同期メッセージを入力し、この同期メッセージに含
    まれたテンポ情報、この同期メッセージを入力した時点
    でフレームバッファに書き込まれているCGキャラクタ
    の動きデータのフレームの進行位置、次の同期メッセー
    ジを入力するときに前記AV同期指示データにより指定
    されるCGキャラクタの動きデータのフレームの進行位
    置、及び上記時間間隔△Tとによって、フレームバッフ
    ァに書き込むCGキャラクタの姿勢を決定するAV同期
    プログラムを記録した記録媒体。
  10. 【請求項10】 前記テンポ情報の変更を入力し、同期
    メッセージのテンポ情報を入力したテンポ情報に変更す
    る機能を追加した請求項8または9に記載のAV同期プ
    ログラムを記録した記録媒体。
JP9290026A 1997-05-19 1997-10-22 Av同期装置、及びav同期方法、並びにav同期プログラムを記録した記録媒体 Pending JPH11126066A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP9290026A JPH11126066A (ja) 1997-10-22 1997-10-22 Av同期装置、及びav同期方法、並びにav同期プログラムを記録した記録媒体
PCT/JP1998/002175 WO1998053443A1 (fr) 1997-05-19 1998-05-15 Mode d'affichage graphique, procede de reproduction synchronisee, et dispositif de reproduction audiovisuelle synchronisee
CNB988005875A CN1152364C (zh) 1997-05-19 1998-05-15 图形显示装置和同步重放方法以及声像同步重放装置
US09/142,813 US6331851B1 (en) 1997-05-19 1998-05-15 Graphic display apparatus, synchronous reproduction method, and AV synchronous reproduction apparatus
CA002250021A CA2250021C (en) 1997-05-19 1998-05-15 Graphic display apparatus, synchronous reproduction method, and av synchronous reproduction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9290026A JPH11126066A (ja) 1997-10-22 1997-10-22 Av同期装置、及びav同期方法、並びにav同期プログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
JPH11126066A true JPH11126066A (ja) 1999-05-11

Family

ID=17750832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9290026A Pending JPH11126066A (ja) 1997-05-19 1997-10-22 Av同期装置、及びav同期方法、並びにav同期プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JPH11126066A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7221852B2 (en) 2001-05-10 2007-05-22 Yamaha Corporation Motion picture playback apparatus and motion picture playback method
JP2012253619A (ja) * 2011-06-03 2012-12-20 Casio Comput Co Ltd 動画再生装置、動画再生方法及びプログラム
JP2014056162A (ja) * 2012-09-13 2014-03-27 Casio Comput Co Ltd 表示制御装置およびプログラム
JP2015047261A (ja) * 2013-08-30 2015-03-16 ブラザー工業株式会社 情報処理装置及びプログラム
WO2015194509A1 (ja) * 2014-06-20 2015-12-23 株式会社ソニー・コンピュータエンタテインメント 動画像生成装置、動画像生成方法、プログラム、及び情報記憶媒体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7221852B2 (en) 2001-05-10 2007-05-22 Yamaha Corporation Motion picture playback apparatus and motion picture playback method
JP2012253619A (ja) * 2011-06-03 2012-12-20 Casio Comput Co Ltd 動画再生装置、動画再生方法及びプログラム
JP2014056162A (ja) * 2012-09-13 2014-03-27 Casio Comput Co Ltd 表示制御装置およびプログラム
JP2015047261A (ja) * 2013-08-30 2015-03-16 ブラザー工業株式会社 情報処理装置及びプログラム
WO2015194509A1 (ja) * 2014-06-20 2015-12-23 株式会社ソニー・コンピュータエンタテインメント 動画像生成装置、動画像生成方法、プログラム、及び情報記憶媒体
JPWO2015194509A1 (ja) * 2014-06-20 2017-04-20 株式会社ソニー・インタラクティブエンタテインメント 動画像生成装置、動画像生成方法、プログラム

Similar Documents

Publication Publication Date Title
US6331851B1 (en) Graphic display apparatus, synchronous reproduction method, and AV synchronous reproduction apparatus
US7221852B2 (en) Motion picture playback apparatus and motion picture playback method
JP3895014B2 (ja) 映像再生装置およびカラオケ装置
KR20070098362A (ko) 배경 음악을 동영상에 합성시키는 음성 합성 장치 및 방법
JPH11126066A (ja) Av同期装置、及びav同期方法、並びにav同期プログラムを記録した記録媒体
JP3645716B2 (ja) アニメーション作成方法、アニメーション作成装置、及びアニメーション作成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4062324B2 (ja) 動画再生装置及び動画再生方法
JP3716812B2 (ja) 動画再生装置及び動画再生方法
JP2013207466A (ja) 動画再生装置およびプログラム
KR20050122280A (ko) 음성 재생 프로그램, 음성 재생 방법 및 음성 재생 장치
WO1998053443A1 (fr) Mode d'affichage graphique, procede de reproduction synchronisee, et dispositif de reproduction audiovisuelle synchronisee
JP2018155936A (ja) 音データ編集方法
JP3397980B2 (ja) 立体映像表示カラオケ装置
JP2605454B2 (ja) カラオケ装置
JP2906539B2 (ja) 音像位置移動機能付き音楽再生装置
JP4329857B2 (ja) 動画再生装置
KR102524870B1 (ko) 미디 음악 기반의 안무 영상 콘텐츠 서비스 장치 및 방법과, 이를 기록한 컴퓨팅 장치에 의해 판독 가능한 기록매체
JP2943211B2 (ja) カラオケ装置
JP2003271158A (ja) 画像変更機能を持つカラオケ装置及びプログラム
JPH04270389A (ja) ボーカルデータ表示装置
KR20000061554A (ko) 노래방 연주기의 배경화면 제어장치및 그 제어방법
KR200214587Y1 (ko) 에니메이션 속도 조절장치가 부착된 컴퓨터 음악반주기
KR20000049304A (ko) 노래 반주기를 이용한 뮤직 비디오 촬영장치 및 촬영방법
JPH05143708A (ja) マルチメデイア処理システム
JP2881928B2 (ja) カラオケ装置