JP2004127019A - 情報処理装置および画像表示制御方法と画像表示制御プログラム - Google Patents

情報処理装置および画像表示制御方法と画像表示制御プログラム Download PDF

Info

Publication number
JP2004127019A
JP2004127019A JP2002291425A JP2002291425A JP2004127019A JP 2004127019 A JP2004127019 A JP 2004127019A JP 2002291425 A JP2002291425 A JP 2002291425A JP 2002291425 A JP2002291425 A JP 2002291425A JP 2004127019 A JP2004127019 A JP 2004127019A
Authority
JP
Japan
Prior art keywords
information
music
image
data
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002291425A
Other languages
English (en)
Inventor
Eiji Kawai
川井 英次
Naohito Ishida
石田 尚人
Masaaki Miyazawa
宮澤 正明
Masafumi Hatanaka
畑中 誠文
Makoto Okazaki
岡崎 誠
Nao Tazaki
田崎 奈央
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002291425A priority Critical patent/JP2004127019A/ja
Priority to EP03256181A priority patent/EP1406217A3/en
Priority to US10/674,425 priority patent/US7116328B2/en
Publication of JP2004127019A publication Critical patent/JP2004127019A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】音楽情報に基づいてエンターテイメント性や視覚的効果の高い表示を行う。
【解決手段】音楽情報である例えばMIDI規格の演奏データをST21で読み込み、ST23,24によって拍子を検出する。ST25では、小節毎に曲の分割を行う。ST26では、小節毎のMIDIイベントのノート情報および/またはメタ・イベントの情報を用いて曲調の変化する区切りおよび/または曲の盛り上がり位置が検出する。ST27,28では、曲のテンポを示す情報を取得する。ST29では、ST26の検出結果等に基づいて画像動き情報を選択する。ST30では、選択された画像動き情報を音楽情報の再生に応じて画像処理部に供給して画像信号の生成を行い、曲に合わせて動きを生じた画像を表示する。
【選択図】    図4

Description

【0001】
【発明の属する技術分野】
この発明は、情報処理装置および画像表示制御方法と画像表示制御プログラムに関する。詳しくは、音楽情報から曲調の変化する区切りおよび/または曲の盛り上がり位置を検出するとともに、検出結果に基づいて画像動き情報の選択を行い、この選択された画像動き情報を音楽情報の再生に応じて用いることで、表示する画像の動きを音楽情報の再生に応じて制御するものである。
【0002】
【従来の技術】
情報処理装置の小型軽量化や高性能化に伴い、携行可能な情報処理装置が広く普及しており、この情報処理装置で種々のサービスが行われている。例えば携行可能な情報処理装置である携帯電話等に音楽情報を配信するサービスが行われている。このサービスを利用すると、所望の音楽情報をダウンロードすることで、着信時の呼び出し音をダウンロードした音楽情報に基づく楽曲音に設定することができる。また、音楽情報の配信では、通常の音楽データ(ストリーミングデータ)に比べてデータ量が非常に少ないMIDI(Musical Instruments Digital Interface)規格の演奏データのファイル、例えば米国Opcode Systems社から提案されたSMF(Standard MIDI File)、ヤマハ社から提案されたSMAF(Synthetic music Mobile Application Format)、音楽電子事業協会から提案されたGeneral MIDI Lite、コンパクトMIDI等のファイルを配信することが行われている。
【0003】
さらに、このような演奏データの再生時には、キャラクタ表示が行われる。例えば特許文献1では、キャラクタに予め得意なリズム成分を割り当てるとともに固有の姿勢表現能力を対応付けておき、楽曲データからリズムを刻んでいる周波数帯を特定して、音圧データにおける変化からリズム成分を推定して、このリズム成分に応じて姿勢表現能力を累積的に変化させることで、キャラクタの表示姿態を変化させることが示されている。また、特許文献2では、サウンドデータの波形データを解析して音量レベルや周波数レベルを算出して、この音量レベルや周波数レベルに基づき振り付けデータやフォーメーションなどのダンスアニメーションに使用する動き情報を変更することで、再生する信号毎に異なった動きのアニメーション表示を行うことが示されている。さらに特許文献3では、音楽のテンポを示すBPMに応じてアニメーション動作の速度を制御することで、それぞれの音楽に合った動作速度のアニメーションを用意することなく、リズム感のある画像表示を行うことが示されている。
【0004】
【特許文献1】
特許第3066528号公報
【特許文献2】
特開2001−118084号公報
【特許文献3】
特開2001−269483号公報
【0005】
【発明が解決しようとする課題】
ところで、音楽情報に基づいて楽曲の再生を行うものとした場合、単にリズム成分や音量レベル、周波数レベル、テンポを示すBPMに基づいてキャラクタの動きを制御するものでは、動きの変化が単調となってしまうおそれがあり、音楽情報に応じたエンターテイメント性や視覚的効果の高い表示を行うことができない。
【0006】
すなわち、楽曲では曲調の変化点が複数設けられて、例えば曲の開始を示す「イントロ」、メロディ全体の出だしである「Aメロ」、最も重要な部分である「サビ」、「Aメロ」と「サビ」を結ぶ役目をもった「Bメロ」、曲の終わりを示す「エンディング」等の部分を組み合わせることで構成されている。このため、楽曲に応じて動きを変化させるだけでなく、キャラクタの動きが楽曲の構成にも対応するものでなければ、エンターテイメント性や視覚的効果を高めることができない。
【0007】
そこで、この発明では、音楽情報に基づいて、音楽情報に応じたエンターテイメント性や視覚的効果の高い表示を行うことができる情報処理装置および画像表示制御方法と画像表示制御プログラムを提供するものである。
【0008】
【課題を解決するための手段】
この発明に係る情報処理装置は、画像動き情報を蓄積する情報蓄積手段と、画像表示を行う表示手段と、音楽情報から曲調の変化する区切りおよび/または曲の盛り上がり位置を検出するとともに、検出結果に基づいて前記画像動き情報の選択を行い、該選択された画像動き情報を前記音楽情報の再生に応じて用いることで、前記表示手段に前記音楽情報の再生に応じた動画像を表示させる制御手段とを有するものである。
【0009】
また、画像表示制御方法は、音楽情報から曲調の変化する区切りおよび/または曲の盛り上がり位置を検出するとともに、検出結果に基づいて画像動き情報の選択を行い、該選択された画像動き情報を前記音楽情報の再生に応じて用いることで、前記音楽情報の再生に応じた動画像表示を行うものである。
【0010】
また画像表示制御プログラムは、コンピュータに、音楽情報から曲調の変化する区切りおよび/または曲の盛り上がり位置を検出する手順と、前記検出の結果に基づいて画像動き情報の選択を行う手順と、前記選択された画像動き情報を前記音楽情報の再生に応じて用いることで、前記音楽情報の再生に応じた動画像表示を行う手順とを実行させるものである。
【0011】
この発明においては、音楽情報である例えばMIDI規格の演奏データから拍子を検出して小節毎に曲の分割を行い、小節毎のMIDIイベントのノート情報および/またはメタ・イベントの情報を用いて曲調の変化する区切りおよび/または曲の盛り上がり位置が検出される。さらに、この検出結果に基づいて画像動き情報の選択が行われて、選択された画像動き情報が音楽情報の再生に応じて用いられて音楽情報の再生に応じた動画像表示が行われる。
【0012】
【発明の実施の形態】
以下、図を参照しながら、この発明の実施の一形態について説明する。図1は情報処理装置の構成、例えば情報処理装置が携帯電話である場合の構成を示している。
【0013】
アンテナ11で得られた受信信号Saは、RFトランシーバー部12に供給される。RFトランシーバー部12では、局部発振周波数の信号を用いたダウンコンバート処理や、フィルタを用いたイメージ信号成分の除去および所望のチャネル周波数の信号選択等を行い、受信信号Saから所望のチャネルの中間周波信号を生成する。さらに、生成した中間周波信号の復調処理を行い、ベースバンドの復調信号Sbを生成してベースバンド信号処理部13に供給する。また、ベースバンド信号処理部13から供給された送信情報信号Taの変調処理を行い変調信号を生成する。さらに、局部発振周波数の信号を用いて変調信号のアップコンバート処理を行い、送信信号Tbを生成してアンテナ11に供給することにより、送信情報信号Taの送信を行う。
【0014】
ベースバンド信号処理部13では、復調信号Sbが音声の情報を示す信号であるとき、この復調信号Sbに基づき音声信号SAoutを生成してスピーカ14に供給する。復調信号Sbが例えば文字情報や画像情報、音楽情報等であるときには、復調信号Sbに基づいて生成した情報信号Daを情報蓄積部17あるいは制御部20にバス30を介して供給する。また、ベースバンド信号処理部13では、マイクロホン15からのマイク信号SAmicあるいは制御部20から供給された情報信号Dbに基づき送信情報信号Taを生成してRFトランシーバー部12に供給する。さらに、ベースバンド信号処理部13では、制御部20から楽曲等の音楽データDSが供給されたとき、この音楽データDSに基づき音声信号SAoutを生成してスピーカ14に供給する。
【0015】
情報蓄積部17は、不揮発性メモリ等を用いて構成されており、ベースバンド信号処理部13から供給された情報信号Daを記憶することで、図2に示すように、文字情報や音楽情報、動画像表示を行うための画像動き情報、およびユーザ情報(例えば電話番号情報)等が蓄積情報として蓄積される。
【0016】
制御部20では、各種のアプリケーションを実行するための制御を行う。図3は制御部20の構成を示している。制御部20のバスインタフェース201は、バス30と制御部20内のバス209とを接続するためのインタフェースである。バス209には、メロディ発生部202や画像処理部203、CPU(CentralProcessing Unit)206、メモリ207が接続されている。
【0017】
メロディ発生部202では、情報蓄積部17に蓄積されている音楽情報あるいはベースバンド信号処理部13から供給された音楽情報の情報信号Daに基づいて音楽データDSを生成して、この生成した音楽データDSをベースバンド信号処理部13に供給する。このように音楽データDSをベースバンド信号処理部13に供給することで、スピーカ14から所望のメロディを出力させることができる。また、着信時に所望の楽曲の音楽データDSをベースバンド信号処理部13に供給するように後述するCPU206で制御すれば、着信音を所望のメロディに設定できる。さらに、情報蓄積部17に蓄積されている音楽情報から所望の音楽情報を読み出してメロディ発生部202に供給することで、カラオケ等の機能を実現できる。
【0018】
画像処理部203には、フレーム/テクスチャメモリ204が接続されており、このフレーム/テクスチャメモリ204を使用するとともにCPU206によって情報蓄積部17から読み出された画像動き情報JGを用いて画像信号GSを生成する。あるいはベースバンド信号処理部13から供給された情報信号Daに基づいて画像信号GSを生成する。この生成した画像信号GSは、表示ドライバ205に供給される。
【0019】
例えば、情報蓄積部17には、動画像を表示するための画像動き情報として、図2に示すように、画像を形成するための画像情報例えば画像の骨格を示す情報(フレームデータ)と骨格に貼り付けるテクスチャの情報(テクスチャデータ)と、画像を動かすための動き情報例えば骨格を移動させる動き情報(モーションデータ)を蓄積させる。このように、フレームデータやテクスチャデータおよびモーションデータを蓄積するものすれば、動画像の画像信号を動き毎に蓄積する場合に比べて、データ量を少なくできる。また、少ないデータ量で種々の動きの画像信号を生成できる。また、フレームデータやテクスチャデータ、モーションデータをキャラクタ毎に設けるものとしたり、フレームデータやモーションデータを異なるキャラクタで共用する等の処理を行うことで、種々のキャラクタを表示することができる。なお、情報蓄積部17の容量が大きければ、動き毎の画像信号を画像動き情報として蓄積するものとしても良い。
【0020】
ここで、画像処理部203では、CPU206によって情報蓄積部17から読み出したフレームデータをフレーム/テクスチャメモリ204に記憶させたのち、読み出したテクスチャのデータを対応するフレームデータの位置に書き込むことで画像信号GSを生成する。また、読み出したモーションデータに応じて骨格を移動させるとともに、例えばベジェ曲線を利用したモーフィングを行うことで、画像の動きを連続的に表現した画像信号GSを生成する。このように、ベジェ曲線を利用したモーフィングを行うことで、画像の動きを連続的に表現した画像信号GSを簡単構成で容易に生成することができる。このようにして生成された画像信号GSは、表示ドライバ205に供給される。
【0021】
さらに、画像処理部203では、情報蓄積部17に蓄積されている文字情報に基づいて画像信号GSを生成して表示ドライバ205に供給する。
【0022】
表示ドライバ205には、表示部22が接続されている。表示ドライバ205では、画像処理部203から供給された画像信号GSに基づいて表示部22に対応した表示駆動信号GDを生成する。この生成した表示駆動信号GDを表示部22に供給することで、表示部22には動画像や文字情報等が表示される。
【0023】
CPU206は、メモリ207に記憶されているプログラムを実行して、CPU206に接続されているユーザインタフェース23から供給された操作信号PSに基づき制御信号CTを生成する。さらに、この制御信号CTを情報処理装置や制御部20の各部に供給して、情報処理装置の動作が所望の動作となるように制御する。例えば、情報蓄積部17に蓄積されている音楽情報の再生操作が行われたときには、再生する曲の音楽情報を読み出してメロディ発生部202に供給する。このとき、音楽情報に基づいて生成された音楽データDSがベースバンド信号処理部13に供給されてスピーカ14から選択した音楽情報に基づいたメロディが出力される。また、情報蓄積部17に蓄積されている文字情報の表示操作が行われたときには、表示する文字情報を読み出して画像処理部203に供給する。このとき、画像処理部203では上述したように文字情報に基づいて画像信号GSを生成して表示ドライバ205に供給することから、表示部22には選択した文字情報が表示される。
【0024】
また、CPU206では、情報蓄積部17に蓄積されている音楽情報から曲調の変化する区切りおよび/または曲の盛り上がり位置を検出して、検出結果に基づき画像動き情報の選択を行う。その後、この音楽情報が再生されたときには、選択した画像動き情報を音楽情報の再生に応じて情報蓄積部17から読み出して画像処理部203に供給することで、音楽情報の再生に応じた動画像を表示部22に表示させる。例えば、曲に合わせて踊るキャラクタの表示を行う。
【0025】
図1の表示部22は、液晶表示素子等を用いて構成されており、文字情報例えばメール等の表示、音楽情報の再生時には、音楽に合わせて動作する例えばキャラクタの画像等を表示する。また、ユーザインタフェース23は、例えばキー釦やジョグダイヤルあるいはタッチパネル等で構成されており、ユーザ操作に応じた操作信号PSを制御部20のCPU206に供給する。さらに、バス30には外部機器と接続するための外部インタフェース24が接続されており、この外部インタフェース24を介して他の機器と有線であるいは無線で情報の交換等を行うことが出来るようになされている。なお、情報処理装置には、種々のデータを一時記憶するためのメモリ等(図示せず)も設けられる。
【0026】
図4は、情報処理装置の動作の一形態を示すフローチャートである。ステップST1では、アプリケーションの選択を行い、ステップST2では、選択されたアプリケーションが音楽情報の再生に合わせて画像を動作させるアプリケーションであるか否かを判別する。ここで、音楽情報の再生に合わせて画像を動作させるアプリケーションが選択されたときにはステップST3に進む。また、音楽情報の再生に合わせて画像を動作させるアプリケーションが選択されていないときにはステップST12に進む。
【0027】
ステップST3では、表示する画像の選択を行い、ステップST4では、選択された画像の画像情報が情報蓄積部17に蓄積されているか否かを判別する。ここで、選択された画像の画像情報を蓄積しているときにはステップST6に進む。また、蓄積していないときにはステップST5に進み、選択された画像の画像情報を入手してステップST6に進む。この画像情報の入手では、例えばRFトランシーバー部12を介して、画像情報を有する情報配信用のサーバからダウンロードする。あるいは、外部インタフェース24を介して外部機器例えばコンピュータ装置等から画像情報をダウンロードする。
【0028】
ステップST6では再生する音楽情報の選択を行い、ステップST7では、選択された音楽情報が情報蓄積部17に蓄積されているか否かを判別する。ここで、選択された音楽情報を蓄積しているときにはステップST9に進む。また、蓄積していないときにはステップST8に進み、画像情報の場合と同様にして選択された音楽情報を入手してステップST9に進む。
【0029】
ステップST9では、音楽情報の再生に合わせた画像表示制御を行いステップST10に進む。ステップST10では、同じ音楽情報の再生を繰り返す操作が行われたか否かを判別する。ここで、同じ音楽情報の再生を繰り返す操作が行われたときにはステップST9に戻る。また、同じ音楽情報の再生を繰り返す操作が行われないときにはステップST11に進む。
【0030】
ステップST11では、異なる音楽情報の再生操作が行われたか否かを判別する。ここで、異なる音楽情報の再生を行う操作が行われたときにはステップST6に戻る。また、異なる音楽情報の再生を行う操作が行われなかったときには処理を終了する。
【0031】
ステップST2からステップST12に進むと、ステップST12ではステップST1で選択されたアプリケーションを実行する。その後、選択されたアプリケーションを終了してステップST13に進むと、ステップST13では、アプリケーションを再度選択する操作が行われたか否かを判別する。ここで、再度選択する操作が行われたときにはステップST1に戻り、次に実行するアプリケーションを選択する。また、再度選択する操作が行われないときには処理を終了する。
【0032】
図5は、音楽情報の再生に合わせた画像表示制御動作を示すフローチャートである。ステップST21では、音楽情報例えばSMFを読み込んでステップST22に進む。
【0033】
このSMFでのMIDIファイルのデータ構造は、図6Aに示すようにヘッダ情報を有するヘッダチャンクと後述するMIDIイベントやメタイベントなどを有するトラックチャンクから構成されている。
【0034】
ヘッダチャンクでは、ヘッダチャンクの開始であることを示す「MThd」の文字データに続いて、データ長、フォーマット形式、トラック数、時間単位が示される。この時間単位は、例えば四分音符あたりのTick数が示される。
【0035】
トラックチャンクでは、トラックチャンクの開始を示す「MTrk」の文字データに続いて、データ長が示されるとともに、データ長に続くデータセクションで、時間情報とMIDIイベントや時間情報とメタイベント等が示される。このMIDIイベントは、楽器の音色の音楽信号を生成するための演奏データから成るものである。また、メタイベントは、MIDIイベントの演奏データに含まれない情報、例えば曲の速さの情報(1分間に奏すべき拍の数など)や曲の拍子の情報(二拍子や三拍子あるいは四拍子など)などの演奏全体の曲情報、歌詞、著作権表示等のシーケンスソフト(あるいはシーケンサー)で利用する情報等をSMFに含めるものである。
【0036】
データセクションの時間情報はデルタ・タイムと呼ばれ、必要最小限のバイト列で数値を表す可変長数値表現が用いられている。このデルタ・タイムと呼ばれる時間情報は、直前のイベントからの時間を示すものであり、このデルタ・タイムを積算することで演奏時間を判別することができる。
【0037】
また、データセクションでは、図6Bに示すように、楽曲の演奏データを示すソングボディの前にセットアップ小節が設けられる。セットアップ小節では、上述のメタイベントを用いて拍子やテンポ、音色の設定やボリュームの設定等を行う。ソングボディは、ノート情報やテンポの設定情報等で構成される。ノート情報は、音を鳴らすMIDI情報である3バイトのノート・オン、音を止めるMIDI情報である3」バイトのノート・オフで構成される。ノート・オンの1バイト目ではチャネル番号、2バイト目ではノード・ナンバー(音程)、3バイト目ではノート・オン・ベロシティ(鍵盤を打つ速さ)が示される。ノート・オフの1バイト目ではチャネル番号、2バイト目ではノード・ナンバー(音程)、3バイト目ではノート・オフ・ベロシティ(鍵盤から手を離す速さ)が示される。
【0038】
図5のステップST22では、ヘッダチャンクの情報を読み込んで四分音符あたりのTick数を取得する。
【0039】
ステップST23では、拍子の情報を取得できたか否かを判別する。ここで、セットアップ小節から拍子の情報を得ることができないときにはステップST24に進み、拍子の情報を得ることができたときにはステップST25に進む。
【0040】
ステップST24では、拍子判別を行う。この拍子判別では、ノート情報を利用して曲の拍子を判別してステップST25に進む。例えば拍子の判別が容易なリズム系のチャネルについて、ノード・オンのタイミングを検出する。また、四分音符あたりのTick数から2拍子、3拍子、4拍子等のタイミングを生成する。
ここで、リズム系のチャネルから検出したノード・オンのタイミングと、生成した各拍子のタイミングを比較して、最もタイミングが類似する拍子を曲の拍子として設定する。また、他の方法としては、四分音符あたりのTick数から1拍の期間を決定して、拍子の判別が容易なリズム系のチャネルを2拍子や3拍子あるいは4拍子等の小節の区間で区切るものとする。その後、各小節のノート・オンの期間やノート・オフの期間を比較して、相関が最も高くなるときの拍子を曲の拍子として設定することもできる。
【0041】
ステップST25では1小節毎に曲の分割を行い、ステップST26では曲調の変化する区切りや盛り上がり部分の検出を行う。ここで、1つの曲は、例えば曲の開始を示す「イントロ」、メロディ全体の出だしである「Aメロ」、最も重要な部分である「サビ」、「Aメロ」と「サビ」を結ぶ役目をもった「Bメロ」、曲の終わりを示す「エンディング」等の部分を組み合わせることで構成されている。このため、曲調の変化する区切りを検出することにより、「イントロ」、「Aメロ」、「Bメロ」、「サビ」、「エンディング」等の各境界を検出する。
また、盛り上がり部分の検出により、例えば「サビ」の部分の検出を行う。
【0042】
このステップST26の検出処理では、1つの検出処理あるいは複数の検出処理を行い、得られた検出結果に基づいて曲調の変化する区切りや盛り上がり部分を検出する。例えば図7に示すような検出処理を行い、検出結果に基づいて曲調の変化する区切りや盛り上がり部分を検出する。
【0043】
ステップST26−1の検出処理では、リズム系のチャネルのノードパターンに基づいて曲調の変化する区切りを検出する。すなわち、小節毎にノード・オンやノード・オフのパターンを判別して、この各小節毎のノードパターンを比較する。このノードパターンの比較結果に基づき曲調の変化する区切りを検出する。
【0044】
ステップST26−2の検出処理では、ノート量を算出して曲調の変化する区切りや盛り上がり部分の検出を行う。具体的には、小節毎に例えば全チャネルのノート・オンのイベント数を算出してノート量とする。このノート量の微分値に大きな変化が現れた小節の区切りを、曲調の変化する区切りとする。またノート量がほぼ極大となる小節が、例えば曲として意味を持つ複数小節分以上続いている部分は、盛り上がり部分とする。
【0045】
ステップST26−3の検出処理では、ベロシティの平均値を算出して曲調の変化する区切りや盛り上がり部分の検出を行う。具体的には、小節毎にノート・オン・ベロシティやノート・オフ・ベロシティの平均値を算出する。この平均値の微分値に大きな変化が現れた小節の区切りを、曲調の変化する区切りとする。また平均値がほぼ極大となる小節が、例えば曲として意味を持つ複数小節分以上続いている部分は、盛り上がり部分とする。
【0046】
ステップST26−4の検出処理では、音長の平均値あるいは音長の変化幅(音長の最大値と最小値との差)を算出して曲調の変化する区切り検出を行う。具体的には、チャネル毎にノート・オンからノート・オフまでの期間を音長として求めて、この求めた音長から小節毎の音長の平均値や音長の変化幅を算出する。この平均値や変化幅の微分値に大きな変化が現れた小節の区切りを、曲調の変化する区切りとする。
【0047】
ステップST26−5の検出処理では、プログラムチェンジによって曲調の変化する区切りの検出を行う。すなわち、プログラムチェンジのイベントによって音色が切り換えられたときには、この音色の切り換えが行われた小節の区切りを、曲調の変化する区切りとする。
【0048】
ステップST26−6の検出処理では、曲のテンポによって曲調の変化する区切りの検出を行う。すなわち、セット・テンポのイベントによって曲のテンポが変更されたときには、このテンポが変更された小節の区切りを、曲調の変化する区切りとする。
【0049】
ステップST26−7の検出処理では、類似パターン検出を行い、曲の類似部分を検出する。例えば、小節毎のノードパターンを比較して、ノードパターンが類似する部分を曲の類似部分とする。
【0050】
ステップST26−8では、ステップST26−1〜ステップST26−7の1つあるいは複数の検出結果に基づいて曲調の変化する区切りや盛り上がり部分を決定する。
【0051】
次に、曲調の変化する区切りの検出について説明する。図8は、複数の検出処理を行い、各検出結果を用いて総合的に曲調の変化する区切りを検出する場合の一形態を示すフローチャートである。この図8に示す処理を各小節の区切りに対して行い、この小節の区切りが曲調の変化する区切りであるか否かを判別する。
【0052】
ステップST41では、上述のステップST26−5の検出処理を行い、プログラムチェンジによる音色の切り換えが検出されているか否かを判別する。ここで、音色の切り換えが検出されていないときにはステップST43に進む。また、音色の切り換えが検出されたときには、ステップST42で信頼度Raを「1.0」としてからステップST43に進む。
【0053】
ステップST43では、上述のステップST26−6の検出処理を行い、前回テンポが変更された位置から曲として意味を持つ複数小節分以上離れて、例えば4小節以上離れてテンポが変更されたか否かを判別する。ここで、4小節以上離れてテンポが変更されたものでないときにはステップST45に進む。また、4小節以上離れてテンポが変更されたときには、ステップST44で信頼度Rbを「1.0」としてからステップST45に進む。
【0054】
ステップST45では、上述のステップST26−2の検出処理を行い、小節内でのノート・オンのイベント数を示すノート量と、直前の小節におけるノート量との差ENがしきい値Laよりも大きいか否かを判別する。ここで、差ENがしきい値Laよりも大きくないときにはステップST47に進む。また、ノート量の差EAがしきい値Laよりも大きいときには、ステップST46で信頼度Rcを式(1)に基づいて算出してからステップST47に進む。なお、式(1)において「ka」は係数であり、他の信頼度やノート量との差EAからしきい値Laを減算したときの最大値等に基づいて決定されるものである。
Rc=(EA−La)×ka   ・・・(1)
【0055】
ステップST47では、上述のステップST26−3の検出処理を行い、小節内でのノート・オン・ベロシティやノート・オフ・ベロシティの平均値を算出する。この平均値と直前の小節における平均値との差EBがしきい値Lbよりも大きくないときには、ステップST49に進む。また、ノート量の差EBがしきい値Lbよりも大きいときには、ステップST48で信頼度Rdを式(2)に基づいて算出してからステップST49に進む。なお、式(2)において「kb」は、係数「ka」と同様に、他の信頼度や平均値の差EBからしきい値Lbを減算したときの最大値等に基づいて決定されるものである。
Rd=(EB−Lb)×kb   ・・・(2)
【0056】
ステップST49では、上述のステップST26−4の検出処理を行い、小節内でチャネル毎にノート・オンからノート・オフまでの期間を音長として求めて、この求めた音長から例えば音長の変化幅を算出する。この変化幅と直前の小節における変化幅との差ECがしきい値Lcよりも大きくないときには、ステップST51に進む。また、変化幅の差ECがしきい値Lcよりも大きいときには、ステップST50で信頼度Reを式(3)に基づいて算出してからステップST51に進む。なお、式(3)において「kc」は、係数「ka」と同様に、他の信頼度や変化幅の差ECからしきい値Lcを減算したときの最大値等に基づいて決定されるものである。
Re=(EC−Lc)×kc   ・・・(3)
【0057】
ステップST51〜ステップST53の処理は、ステップST26−8に対応する処理であり、このステップST51では、信頼度Ra〜Reの合計値TRを算出してステップST52に進む。ステップST52では、信頼度の合計値TRとしきい値Ltを比較して、信頼度の合計値TRがしきい値Ltよりも大きくないときには1つの小節に対する処理を終了する。また、信頼度の合計値TRがしきい値Ltよりも大きいときにはステップST53に進み、この小節と直前の小節との区切りを曲調の変化する区切りと決定して1つの小節に対する処理を終了する。
【0058】
以上の処理を楽曲の先頭の小節から最後の小節まで行うことにより、曲調の変化する区切りを楽曲の先頭側から順次検出できる。
【0059】
また、ステップST41,42の処理を楽曲の全小節に対して行い、全小節に対して信頼度Raを決定する。その後、ステップST43,44の処理を楽曲の全小節に対して行い、全小節に対して信頼度Rbを決定する。以下同様に、全小節に対して信頼度Rc〜Reを算出するとともに、ステップST51では、各小節毎に信頼度を合計することで、曲調の変化する区切りを検出することもできる。
【0060】
図9は、曲調の変化する区切りの具体例を示している。なお、四分音符を音長「1」として説明を行う。小節ME1は、高音部譜表に示されているように四分音符の三和音で開始することからノート・オンの回数は「3」、音長は「1」となる。また、低音部譜表側では八分休符後に八分音符から開始するので、ノート・オンの回数は「1」、音長は「0.5」となる。このようにノート・オンの回数と音長を決定すると、小節ME1のノート・オン回数は「14」となる。また、小節ME1では付点四分音符が最も長い音であり、十六分音符が最も短い音であることから音長の最大値は「1.5」、最小値は「0.25」、音長の変化幅は「1.5−0.25」となる。また、小節ME1におけるノート・オン・ベロシティの合計値が例えば1529であるときには、平均値が「1529/14=109」となる。
【0061】
小節ME2〜ME5についても小節ME1と同様に、ノート・オン回数や音長の変化幅、ベロシティの平均値を算出して、これらの値を用いて算出した信頼度の合計値TRとしきい値Ltを比較することで、例えばノート・オン回数の変化が顕著である小節ME3と小節ME4の区切りが曲調の変化する区切りとされる。
【0062】
次に、楽曲の盛り上がり部分の検出の一形態について説明する。上述のステップST26−2〜ST26−4では、例えば極大の状態が曲として意味を持つ複数小節分以上続いている部分を曲の盛り上がり部分としたが、図10では、曲調の変化する区切りの検出結果を用いて曲の盛り上がり部分を検出する場合の一形態を示している。
【0063】
ステップST61では、小節毎のベロシティの算出を行う。このベロシティの算出では、各音符のベロシティを例えば四分音符に対する各音符の音長割合に応じたベロシティに変換して、この変換後のベロシティを用いて1小節のベロシティの合計値を算出する。例えば二分音符のベロシティが「100」であったとき、音長が2倍であることからベロシティを「100×2」とする。付点八分音符のベロシティが「93」であったとき、音長が0.75倍であることからベロシティを「93×0.75」とする。十六分音符のベロシティが「102」であったとき、音長が0.25倍であることからベロシティを「102×0.25」とする。
【0064】
また、ベロシティの合計値をノート・オン回数で除算して1ノートあたりのベロシティを算出したのち、この1ノートあたりのベロシティを小節のベロシティとしても良い。この場合、楽曲の盛り上がりと無関係な和音が小節内に設けられてベロシティの合計値が大きくなってしまうようなときにも、正しく楽曲の盛り上がり部分を検出することが可能となり、検出結果の信頼性を高めることができる。
【0065】
このように、四分音符に対する各音符の音長割合に応じてベロシティの変換を行い、この変換後のベロシティを用いて1小節のベロシティの合計値を算出してステップST62に進む。ステップST62では、小節毎に算出したベロシティを用いて、曲調の変化する区切りの区間毎のベロシティ平均値を算出してステップST63に進む。
【0066】
ステップST63では、隣り合う曲調の変化する区間のベロシティ平均値の差がしきい値よりも大きいか否かを判別する。ここで、ステップST62で算出したベロシティ平均値と直前の区間のベロシティ平均値との差がしきい値よりも大きくないときには処理を終了する。また、ベロシティ平均値の差がしきい値よりも大きいときにはステップST64に進み、ベロシティ平均値の差がしきい値よりも大きくなった区間を盛り上がり区間と決定して処理を終了する。
【0067】
このようにして、曲調の変化する区切りや盛り上がり部分の検出が完了したときには、図5のステップST26からステップST27に進む。
【0068】
ステップST27では、テンポの情報を取得できたか否かを判別する。ここで、メタ・イベントでテンポが設定されているときには、このテンポの設定情報を取得してステップST29に進む。また、テンポの情報を取得できないときはステップST28に進み、MIDI規格の初期値(120)をテンポの情報として用いてステップST29に進む。
【0069】
ステップST29では、情報蓄積部17に予め蓄積されている画像動き情報の選択を行う。例えば上述したように、画像動き情報としてフレームデータとテクスチャデータとモーションデータが用いられているとき、図2に示すように、モーションデータには、対応可能な拍子やテンポを示す曲条件、動きの激しさ、使用可能なテクスチャデータを示すテクスチャ条件等からなるヘッダを付随情報として付加する。
【0070】
ここで、付随情報を利用して条件を満たすモーションデータを小節単位で判別する。例えば、拍子が等しいとともにテンポが範囲内に含まれる曲条件、曲の盛り上がりに応じた動きの激しさ、ユーザインタフェース23からの操作信号PSによって選択されたテクスチャ(表示するキャラクタのテクスチャ)の条件等を満たすモーションデータを判別する。次に、判別したモーションデータ、すなわち表示するキャラクタに対応するモーションデータから、曲調の変化する区切りや曲の盛り上がり部分に応じたモーションを割り当てる。このモーションの割り当てでは、動きが連続するようにモーションを割り当てる。
【0071】
モーションデータのヘッダには、動きのスタートポジションとエンドポジションの情報を設けるものとして、エンドポジションと次の動きのスタートポジションとのつながりが不自然とならないように順次モーションを割り当てる。例えば図11Aに示す位置で動きが終了したとき、次の動きの開始位置が図11Bに示す位置であると、身体や手足の移動量が大きすぎて繋ぎ部分が実際にはできないような不自然な動作となる。このため、身体や手足の移動量が大きくない図11Cに示すような動きの開始位置であるモーションデータを割り当てて、繋ぎ部分での動作が不自然となってしまうことを防止する。
【0072】
ここで、モーションデータ毎に固有情報例えばモーションIDを付加して、このモーションIDを利用することで、動きのつながりが自然であるモーションデータの選択を容易に行うことができる。すなわち、動きのスタートポジションとエンドポジションの情報に代えて、動きのつながりが自然となるモーションデータのモーションIDを接続可能情報として用いる。また、付加されたモーションIDとともに接続可能情報をヘッダに含ませるものとする。ここで、次のモーションデータの割り当てでは、ヘッダに設けられている接続可能情報で示されたモーションIDのモーションデータを用いるものとする。また、接続可能情報として複数のモーションIDが示されているときには、何れかのモーションIDを選択して、この選択したモーションIDのモーションデータを用いるものとする。
このように、モーションデータ毎の固有情報を利用することで、動きのつながりが自然となるモーションデータの割り当てを容易に行うことができる。
【0073】
さらに、モーションデータの割り当てでは、イントロで動きの始まりが違和感のないようにモーションデータを割り当てるとともに、エンディングでは動きの終わりが違和感のないようにモーションデータを割り当てる。
【0074】
また、2小節や3小節あるいは4小節等のように複数小節単位のモーションデータを設けるとともに、小節単位で曲の繰り返しが行われているか否かを判別する。例えばノート・オン回数に着目して、回数が小節単位で繰り返されているか否かを判別する。ここで、小節単位で繰り返されているときには、複数小節単位のモーションデータから繰り返された小節数に対応するデータを選択する。さらに選択したモーションデータから、繰り返された小節単位のベロシティの変化等を参照して1つのモーションデータを決定する。なお、小節単位で繰り返されていないときには、上述のように1小節単位のモーションデータから1小節毎にモーションデータを選択する。
【0075】
また、曲調の変化する区切り毎を比較して類似する区間を判別して、類似する区間では、同じようにモーションデータを割り当てるものとすれば、調和のとれた動作表示を行うことができる。例えば、楽曲の1番と2番などで動きの等しい表示を行わせることができる。
【0076】
このように、ステップST29では、曲の再生位置に合わせて画像動き情報の選択を行いステップST30に進む。
【0077】
ステップST30では、選択した画像動き情報JGをMIDIデータの再生に合わせて画像処理部203に供給する。このとき、画像処理部203では、供給されたモーションデータにテクスチャを貼り付けて画像を形成する。さらに、モーションデータによって画像の移動が行われたときには、ベジェ曲面を用いたモーフィング等を利用して、動きが滑らかな画像の画像信号GSを生成して表示ドライバ205に供給する。
【0078】
図12は、情報処理装置での操作表示例を示している。情報処理装置のユーザインタフェース23におけるメニュー選択キーが操作されたとき、制御部20では、例えば図12Aに示すメニュー表示を表示部22に表示させる。ここで、曲に合わせて踊るキャラクタの表示を行うメニュー項目「Dancing Character」が選択されたときには、図12Bに示す選択表示を表示部22に表示させる。この選択表示から、項目「曲を選ぶ」「キャラクタを選ぶ」等を選択して曲やキャラクタ等の選択を可能とする。なお、曲やキャラクタの選択では、情報蓄積部17に情報が記憶されている曲やキャラクタを選択させる。また、曲の選択やキャラクタの選択では、RFトランシーバ部12あるいは外部インタフェース24を介して音楽情報や画像動き情報を入手できる曲やキャラクタを選択可能としても良い。
【0079】
曲の選択やキャラクタの選択が行われたとき、制御部20では上述の図5に示す処理を行い、表示部22で図12Cに示すように曲の再生に合わせて動きを生ずる画像、すなわち選択したキャラクタが選択した曲に合わせて踊るような動画像表示を行う。
【0080】
このように、上述の実施の形態によれば、音楽情報から曲調の変化する区切りおよび/または曲の盛り上がり位置が検出されるとともに、この検出結果に基づいて画像動き情報の選択が行われて、選択された画像動き情報が音楽情報の再生に応じて用いられる。このため、曲調や盛り上がり部分に応じて画像動き情報が選択されて、あたかも表示されるキャラクタに対して踊りを自動的に振り付けたと同様な処理が行われため、エンターテイメント性や視覚的効果の高い画像表示を行うことができる。また、動きの切り換えが小節の区切りで行われることから、キャラクタの動きがさらに曲と調和したものとなり、さらにエンターテイメント性や視覚的効果を高めることができる。さらに、楽曲をダウンロードする際のデータ量を少なくするために用いたMIDIデータに基づいて、画像動き情報の選択が行われるので、エンターテイメント性や視覚的効果の高い画像表示を効率よく音楽情報に基づいて行うことができる。
【0081】
ところで、図5に示す音楽情報の再生に合わせた画像表示制御動作は、図13に示すハードウェア構成で実現することもできる。図13において、拍子決定部210では、MIDIデータDa−mから拍子を示すメタイベントを検出する。また、ヘッダチャンクから四分音符あたりのTick数を取得する。ここで、拍子を示すメタイベントを検出できないときには、例えば拍子の判別が容易なリズム系チャネルのデータを用いて、ノード・オンのタイミングを検出する。さらに、取得した四分音符あたりのTick数から2拍子、3拍子、4拍子等のタイミングを生成して、リズム系のチャネルから検出したノード・オンのタイミングと、生成した各拍子のタイミングを比較して、最もタイミングが類似する拍子を曲の拍子として決定する。このようにして曲の拍子を決定したのち、曲の拍子を示す拍子信号KAを生成して小節分割部211とモーション決定部213に供給する。
【0082】
小節分割部211では、拍子決定部210からの拍子信号KAで示された拍子でMIDIデータDa−mを小節毎に分割して、小節データKBとして検出部212に供給する。検出部212では、小節データKBからノートオン回数や音長、ベロシティの平均値を算出して曲調の変化する区切りや盛り上がり部分の検出を行い、検出結果を示す検出結果信号KCを生成してモーション決定部213に供給する。
【0083】
モーション決定部213では、拍子決定部210からの拍子信号KAや検出部212からの検出結果信号KCに基づき、情報蓄積部17に蓄積されている画像動き情報の選択を行う。また、曲の再生開始を示す演奏スタート信号HSが供給されたときには、選択した画像動き情報JGを曲の再生に合わせて画像処理部203に供給して画像信号GSの生成を行う。
【0084】
このように、選択された画像動き情報JGを曲の再生に合わせて画像処理部203に供給することで、図5に示す場合と同様に、表示部22には、エンターテイメント性や視覚的効果の高い画像表示を行わせることができる。
【0085】
【発明の効果】
この発明によれば、音楽情報から曲調の変化する区切りおよび/または曲の盛り上がり位置が検出されるとともに、この検出結果に基づいて画像動き情報の選択が行われて、選択された画像動き情報が音楽情報の再生に応じて用いられて、音楽情報の再生に応じた動画像表示が行われる。このため、音楽情報の再生に合わせた動きを生じるエンターテイメント性や視覚的効果の高い画像表示を行うことができる。
【0086】
また、音楽情報から拍子を検出して小節毎に曲の分割を行い、小節毎に音楽情報を用いて曲調の変化する区切りおよび/または曲の盛り上がり位置が検出される。このため、動きの切り換えを小節の区切りで行うことにより、動きの切り換えを曲に合わせて行うことが可能となり、動きがさらに曲と調和してエンターテイメント性や視覚的効果をさらに高めることができる。
【0087】
また、音楽情報はMIDI規格の演奏データであり、MIDIイベントのノート情報および/またはメタ・イベントの情報を用いて、前記曲調の変化する区切りおよび/または曲の盛り上がり位置を検出する。このため、ダウンロードする際のデータ量が少ないものとされていても、効率よくエンターテイメント性や視覚的効果の高い画像表示を行うことができる。
【図面の簡単な説明】
【図1】情報処理装置の構成を示す図である。
【図2】情報蓄積部での蓄積情報を示す図である。
【図3】制御部の構成を示す図である。
【図4】情報処理装置の動作を示すフローチャートである。
【図5】画像表示制御動作を示すフローチャートである。
【図6】MIDIファイルのデータ構造を示す図である。
【図7】曲調の変化する区切りや盛り上がり部分の検出を示すフローチャートである。
【図8】曲調の変化する区切り検出の一形態を示すフローチャートである。
【図9】曲調の変化する区切りの具体例を示す図である。
【図10】曲の盛り上がり部分検出の一形態を示すフローチャートである。
【図11】モーション割り当てを説明するための図である。
【図12】情報処理装置での操作表示例を示す図である。
【図13】ハードウェアで画像表示制御を行う場合の構成を示す図である。
【符号の説明】
12・・・RFトランシーバー部、13・・・ベースバンド信号処理部、14・・・スピーカ、15・・・マイクロホン、17・・・情報蓄積部、20・・・制御部、22・・・表示部、23・・・ユーザインタフェース、24・・・外部インタフェース、30・・・バス、201・・・バスインタフェース、202・・・メロディ発生部、203・・・画像処理部、204・・・フレーム/テクスチャメモリ、205・・・表示ドライバ、206・・・CPU(Central Processing Unit)、207・・・メモリ、209・・・バス、210・・・拍子決定部、211・・・小節分割部、212・・・検出部、213・・・モーション決定部

Claims (9)

  1. 画像動き情報を蓄積する情報蓄積手段と、
    画像表示を行う表示手段と、
    音楽情報から曲調の変化する区切りおよび/または曲の盛り上がり位置を検出するとともに、検出結果に基づいて前記画像動き情報の選択を行い、該選択された画像動き情報を前記音楽情報の再生に応じて用いることで、前記表示手段に前記音楽情報の再生に応じた動画像を表示させる制御手段とを有する
    ことを特徴とする情報処理装置。
  2. 前記制御手段では、前記音楽情報から拍子を検出して小節毎に曲の分割を行い、小節毎に前記音楽情報を用いて前記曲調の変化する区切りおよび/または曲の盛り上がり位置を検出する
    ことを特徴とする請求項1記載の情報処理装置。
  3. 前記音楽情報はMIDI規格の演奏データであり、
    前記制御手段では、MIDIイベントのノート情報および/またはメタ・イベントの情報を用いて、前記曲調の変化する区切りおよび/または曲の盛り上がり位置を検出する
    ことを特徴とする請求項2記載の情報処理装置。
  4. 前記制御手段では、前記音楽情報に拍子を示す情報が含まれていないとき、MIDIイベントのノート情報に基づいて拍子を決定する
    ことを特徴とする請求項3記載の情報処理装置。
  5. 音楽情報から曲調の変化する区切りおよび/または曲の盛り上がり位置を検出するとともに、検出結果に基づいて画像動き情報の選択を行い、該選択された画像動き情報を前記音楽情報の再生に応じて用いることで、前記音楽情報の再生に応じた動画像表示を行う
    ことを特徴とする画像表示制御方法。
  6. 前記音楽情報から拍子を検出して小節毎に曲の分割を行い、小節毎に前記音楽情報を用いて前記曲調の変化する区切りおよび/または曲の盛り上がり位置を検出する
    ことを特徴とする請求項5記載の画像表示制御方法。
  7. 前記音楽情報はMIDI規格の演奏データであり、
    MIDIイベントのノート情報および/またはメタ・イベントの情報を用いて、前記曲調の変化する区切りおよび/または曲の盛り上がり位置を検出する
    ことを特徴とする請求項6記載の画像表示制御方法。
  8. 前記音楽情報に拍子を示す情報が含まれていないとき、MIDIイベントのノート情報に基づいて拍子を決定する
    ことを特徴とする請求項7記載の画像表示制御方法。
  9. コンピュータに、
    音楽情報から曲調の変化する区切りおよび/または曲の盛り上がり位置を検出する手順と、
    前記検出の結果に基づいて画像動き情報の選択を行う手順と、
    前記選択された画像動き情報を前記音楽情報の再生に応じて用いることで、前記音楽情報の再生に応じた動画像表示を行う手順とを実行させる
    ことを特徴とする画像表示制御プログラム。
JP2002291425A 2002-10-03 2002-10-03 情報処理装置および画像表示制御方法と画像表示制御プログラム Pending JP2004127019A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002291425A JP2004127019A (ja) 2002-10-03 2002-10-03 情報処理装置および画像表示制御方法と画像表示制御プログラム
EP03256181A EP1406217A3 (en) 2002-10-03 2003-09-30 Display of a moving image in accordance with music information
US10/674,425 US7116328B2 (en) 2002-10-03 2003-10-01 Information-processing apparatus, image display control method and image display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002291425A JP2004127019A (ja) 2002-10-03 2002-10-03 情報処理装置および画像表示制御方法と画像表示制御プログラム

Publications (1)

Publication Number Publication Date
JP2004127019A true JP2004127019A (ja) 2004-04-22

Family

ID=31987190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002291425A Pending JP2004127019A (ja) 2002-10-03 2002-10-03 情報処理装置および画像表示制御方法と画像表示制御プログラム

Country Status (3)

Country Link
US (1) US7116328B2 (ja)
EP (1) EP1406217A3 (ja)
JP (1) JP2004127019A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006202422A (ja) * 2005-01-21 2006-08-03 Sony Corp 制御装置および制御方法
JP2007033622A (ja) * 2005-07-25 2007-02-08 Sony Corp 再生制御装置および方法、並びにプログラム
WO2007066520A1 (ja) * 2005-12-09 2007-06-14 Konami Digital Entertainment Co., Ltd. 音楽テンポ判別機能を備えたゲーム機
JP2011095425A (ja) * 2009-10-28 2011-05-12 Kawai Musical Instr Mfg Co Ltd 盛り上がり検出装置及びプログラム
JP2011204113A (ja) * 2010-03-26 2011-10-13 Kddi Corp 映像コンテンツ生成システム、メタデータ構築装置、映像コンテンツ生成装置、携帯端末、映像コンテンツ配信装置及びコンピュータプログラム
JP2012083862A (ja) * 2010-10-07 2012-04-26 Kddi Corp 映像コンテンツ生成システム、映像コンテンツ生成装置及びコンピュータプログラム
JP2014029425A (ja) * 2012-07-31 2014-02-13 Yamaha Corp 伴奏進行生成装置及びプログラム
JP2015019989A (ja) * 2013-07-23 2015-02-02 株式会社ソフイア 遊技機
WO2016121921A1 (ja) * 2015-01-30 2016-08-04 株式会社電通 コンピュータグラフィックスのデータ構造、情報処理装置、情報処理方法及び情報処理システム
JP2017196675A (ja) * 2016-04-25 2017-11-02 株式会社Soken 動作制御装置
CN110851213A (zh) * 2016-09-23 2020-02-28 华为机器有限公司 一种信息的显示方法以及终端

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005064939A (ja) * 2003-08-14 2005-03-10 Nec Corp アニメーション機能を有する携帯電話端末およびその制御方法
US20060029913A1 (en) * 2004-08-06 2006-02-09 John Alfieri Alphabet based choreography method and system
JP2006127367A (ja) * 2004-11-01 2006-05-18 Sony Corp 情報管理方法、情報管理プログラムおよび情報管理装置
JP2006134146A (ja) * 2004-11-08 2006-05-25 Fujitsu Ltd データ処理装置,情報処理システム,選択プログラムおよび同プログラムを記録したコンピュータ読取可能な記録媒体
WO2006078597A2 (en) * 2005-01-18 2006-07-27 Haeker Eric P Method and apparatus for generating visual images based on musical compositions
US20060274144A1 (en) * 2005-06-02 2006-12-07 Agere Systems, Inc. Communications device with a visual ring signal and a method of generating a visual signal
US7601904B2 (en) * 2005-08-03 2009-10-13 Richard Dreyfuss Interactive tool and appertaining method for creating a graphical music display
JP5135931B2 (ja) * 2007-07-17 2013-02-06 ヤマハ株式会社 楽曲加工装置およびプログラム
US8122356B2 (en) * 2007-10-03 2012-02-21 Eastman Kodak Company Method for image animation using image value rules
US7842875B2 (en) * 2007-10-19 2010-11-30 Sony Computer Entertainment America Inc. Scheme for providing audio effects for a musical instrument and for controlling images with same
US8136041B2 (en) * 2007-12-22 2012-03-13 Bernard Minarik Systems and methods for playing a musical composition in an audible and visual manner
EP2136356A1 (en) * 2008-06-16 2009-12-23 Yamaha Corporation Electronic music apparatus and tone control method
US7939742B2 (en) * 2009-02-19 2011-05-10 Will Glaser Musical instrument with digitally controlled virtual frets
US11508393B2 (en) * 2018-06-12 2022-11-22 Oscilloscape, LLC Controller for real-time visual display of music
GB2587627B (en) * 2019-10-01 2023-05-03 Sony Interactive Entertainment Inc Apparatus and method for generating a recording
CN113539296B (zh) * 2021-06-30 2023-12-29 深圳万兴软件有限公司 一种基于声音强度的音频高潮检测算法、存储介质及装置
CN117351120B (zh) * 2023-12-06 2024-03-19 青岛蓝飞互娱科技股份有限公司 一种3d游戏动画生成方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5048390A (en) * 1987-09-03 1991-09-17 Yamaha Corporation Tone visualizing apparatus
US5453568A (en) * 1991-09-17 1995-09-26 Casio Computer Co., Ltd. Automatic playing apparatus which displays images in association with contents of a musical piece
US5533903A (en) * 1994-06-06 1996-07-09 Kennedy; Stephen E. Method and system for music training
JP3106966B2 (ja) * 1996-07-17 2000-11-06 富士ゼロックス株式会社 インクジェット記録用インク及びインクジェット記録方法
JP3384314B2 (ja) * 1997-12-02 2003-03-10 ヤマハ株式会社 楽音応答画像生成システム、方法、装置、及び、そのための記録媒体
JP3066528B1 (ja) * 1999-02-26 2000-07-17 コナミ株式会社 楽曲再生システム、リズム解析方法及び記録媒体
JP3724246B2 (ja) * 1999-03-23 2005-12-07 ヤマハ株式会社 音楽画像表示装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7715693B2 (en) 2005-01-21 2010-05-11 Sony Corporation Control apparatus and control method
JP4581698B2 (ja) * 2005-01-21 2010-11-17 ソニー株式会社 制御装置および制御方法
JP2006202422A (ja) * 2005-01-21 2006-08-03 Sony Corp 制御装置および制御方法
JP2007033622A (ja) * 2005-07-25 2007-02-08 Sony Corp 再生制御装置および方法、並びにプログラム
WO2007066520A1 (ja) * 2005-12-09 2007-06-14 Konami Digital Entertainment Co., Ltd. 音楽テンポ判別機能を備えたゲーム機
JP2011095425A (ja) * 2009-10-28 2011-05-12 Kawai Musical Instr Mfg Co Ltd 盛り上がり検出装置及びプログラム
JP2011204113A (ja) * 2010-03-26 2011-10-13 Kddi Corp 映像コンテンツ生成システム、メタデータ構築装置、映像コンテンツ生成装置、携帯端末、映像コンテンツ配信装置及びコンピュータプログラム
US8896609B2 (en) 2010-10-07 2014-11-25 Kddi Corporation Video content generation system, video content generation device, and storage media
JP2012083862A (ja) * 2010-10-07 2012-04-26 Kddi Corp 映像コンテンツ生成システム、映像コンテンツ生成装置及びコンピュータプログラム
JP2014029425A (ja) * 2012-07-31 2014-02-13 Yamaha Corp 伴奏進行生成装置及びプログラム
JP2015019989A (ja) * 2013-07-23 2015-02-02 株式会社ソフイア 遊技機
WO2016121921A1 (ja) * 2015-01-30 2016-08-04 株式会社電通 コンピュータグラフィックスのデータ構造、情報処理装置、情報処理方法及び情報処理システム
US10410392B2 (en) 2015-01-30 2019-09-10 Dentsu Inc. Data structure for computer graphics, information processing device, information processing method and information processing system
JP2017196675A (ja) * 2016-04-25 2017-11-02 株式会社Soken 動作制御装置
CN110851213A (zh) * 2016-09-23 2020-02-28 华为机器有限公司 一种信息的显示方法以及终端
CN110851213B (zh) * 2016-09-23 2024-01-30 华为机器有限公司 一种信息的显示方法以及终端

Also Published As

Publication number Publication date
EP1406217A2 (en) 2004-04-07
US20040163527A1 (en) 2004-08-26
US7116328B2 (en) 2006-10-03
EP1406217A3 (en) 2006-01-04

Similar Documents

Publication Publication Date Title
JP2004127019A (ja) 情報処理装置および画像表示制御方法と画像表示制御プログラム
JP3598598B2 (ja) カラオケ装置
US5074182A (en) Multiple key electronic instrument having background songs each associated with solo parts which are synchronized with and harmonious with the background song
JP2921428B2 (ja) カラオケ装置
JP3627636B2 (ja) 楽曲データ生成装置及び方法並びに記憶媒体
JP2956569B2 (ja) カラオケ装置
JPH08263077A (ja) 音声変換機能付カラオケ装置
CN1750116B (zh) 自动表演风格确定设备和方法
JPH09198068A (ja) メドレー演奏装置
CN1677482B (zh) 乐音控制设备和方法
JP3728942B2 (ja) 楽音および画像生成装置
US6828498B2 (en) Audio signal outputting method, audio signal reproduction method, and computer program product
US20040035284A1 (en) Performance data processing and tone signal synthesing methods and apparatus
JPH09319387A (ja) カラオケ装置
JP3901008B2 (ja) 音声変換機能付カラオケ装置
JPH11282483A (ja) カラオケ装置
JP3812510B2 (ja) 演奏データ処理方法および楽音信号合成方法
JP3632536B2 (ja) パート選択装置
JP3050129B2 (ja) カラオケ装置
JP3641955B2 (ja) 楽曲データ生成装置及びそのための記録媒体
JP3430895B2 (ja) 自動伴奏装置及び自動伴奏制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP3178694B2 (ja) カラオケ装置
JP3812509B2 (ja) 演奏データ処理方法および楽音信号合成方法
JP2001075562A (ja) 演奏制御装置及び方法
JP3173310B2 (ja) ハーモニー生成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040430

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061017

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070123