JP2015138160A - キャラクタ演奏画像生成装置、キャラクタ演奏画像生成方法、キャラクタ演奏システム及びキャラクタ演奏方法 - Google Patents

キャラクタ演奏画像生成装置、キャラクタ演奏画像生成方法、キャラクタ演奏システム及びキャラクタ演奏方法 Download PDF

Info

Publication number
JP2015138160A
JP2015138160A JP2014010079A JP2014010079A JP2015138160A JP 2015138160 A JP2015138160 A JP 2015138160A JP 2014010079 A JP2014010079 A JP 2014010079A JP 2014010079 A JP2014010079 A JP 2014010079A JP 2015138160 A JP2015138160 A JP 2015138160A
Authority
JP
Japan
Prior art keywords
performance
information
character
music
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014010079A
Other languages
English (en)
Inventor
幹哉 安田
Mikiya Yasuda
幹哉 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Matre Co Ltd
Original Assignee
Matre Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matre Co Ltd filed Critical Matre Co Ltd
Priority to JP2014010079A priority Critical patent/JP2015138160A/ja
Publication of JP2015138160A publication Critical patent/JP2015138160A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 コンピュータに所望の音楽情報を入力するだけで、キャラクタが音楽情報の出力に合わせた楽器演奏動作をするように表示させるための画像情報を生成することができるキャラクタ演奏画像生成装置を提供する。【解決手段】 キャラクタ演奏画像生成装置10は、音楽演奏部20及びキャラクタ動作部30を備えている。音楽演奏部20は、音楽情報に基づいて、複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報と、該演奏情報に同期してキャラクタが楽器演奏動作または歌唱動作を行っているように表示する動作情報とを生成し、該演奏情報に基づいて演奏命令を出力する。キャラクタ動作部30は、動作情報に基づいて、キャラクタが楽器を演奏する音楽演奏画像情報を生成し、生成した音楽演奏画像情報を連続して表示する表示信号を表示部120に出力する。【選択図】 図2

Description

本発明は、コンピュータを用いて実現される仮想空間内のキャラクタが、音楽情報に合わせた楽器演奏動作または歌唱動作をするように表示させるための画像情報を生成するキャラクタ演奏画像生成装置及びキャラクタ演奏画像生成方法、並びに、キャラクタが音楽情報に合わせた楽器演奏動作または歌唱動作をするように表示するキャラクタ演奏システム及びキャラクタ演奏方法に関する。
ネットワーク等を介して供給される音楽情報をゲーム装置やカラオケ再生装置等のコンピュータにダウンロードして、該コンピュータに内蔵されているシンセサイザ等の楽音合成出力部や、該コンピュータと通信可能な楽音合成出力部から該音楽情報を再生(音楽を出力)する音楽再生システムが提案されている。
また、娯楽性をより高めるために、例えば、カラオケ再生システムにおける音楽情報の再生時に、表示画面上に歌の歌詞を表示させたり、歌のイメージに合わせた映像を表示させたりする音楽再生システムや、コンピュータを用いて実現される仮想空間内のキャラクタに対して、音楽に合わせてダンスを踊らせたり、歌を歌わせたりするシステム等が提案されている。
例えば、引用文献1には、MIDI(Musical Instrument Digital Interface)データファイルに、画像や文字等の画面表示データを内包して、楽曲データ(音楽情報)と画面表示データとの出力タイミングが一致するように予め生成されて、記憶部に記憶されているMIDIデータファイルを用いて、シーケンス制御によってMIDIデータファイルの中から、楽曲データと画面表示データを順次読み出しながら、各データの出力タイミングに該データを出力させて、音楽出力と画面表示とのタイミングを一致させるタイミング同期システムが開示されている。また、引用文献2には、歌声合成にあわせて人工的なキャラクタを画面上に表示し、キャラクタが歌を歌っているように思わせることにより、歌声合成音の不自然さを軽減することができるカラオケ再生装置が開示されている。
特開2001−92472号公報 特開2000−242282号公報
しかしながら、特許文献1に開示されているタイミング同期システムでは、音楽出力と画面表示とのタイミングが一致するように予め作成されている楽曲データと画面表示データとから構成されるMIDIデータファイルが、該システムの記憶部に記憶されている構成になっているため、ユーザ自身がネットワークからダウンロードした楽曲やユーザ自身が作曲した楽曲等の音楽出力に合わせて画面表示をさせることはできなかった。
また、特許文献2に開示されているカラオケ再生装置においても、楽曲に合わせてキャラクタに歌を歌わせるための動作命令データが楽曲毎に予め作成されて、該動作命令データが該楽曲データと組み合わされた状態で楽曲データメモリに格納されている。そのため、ユーザ自身がネットワークからダウンロードした楽曲や、ユーザ自身が作曲した楽曲等については、該楽曲の音楽出力に合わせてキャラクタに歌を歌わせる動作をさせることができなかった。
本発明は、パソコン、携帯ゲーム装置、または携帯電話等のコンピュータに所望の音楽情報を入力するだけで、キャラクタがその音楽情報の出力に合わせた楽器演奏動作または歌唱動作をするように表示させるための画像情報を生成することができるキャラクタ演奏画像生成装置及びキャラクタ演奏画像生成方法、並びに、キャラクタが音楽情報に合わせた楽器演奏動作または歌唱動作をするように表示することができる歌唱動作をする表示させることができるキャラクタ演奏システム及びキャラクタ演奏方法を提供することを目的とする。
上述した従来の問題点を解決すべく下記の発明を提供する。
本発明の第1の態様にかかるキャラクタ演奏画像生成装置は、コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報の中の複数の楽器の演奏または歌唱のいずれかの動作を表示するための画像情報を生成するキャラクタ演奏画像生成装置であって、
入力された前記音楽情報を記憶する記憶手段と、
前記記憶手段によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報と、該演奏情報に同期して前記キャラクタがそれぞれ楽器演奏動作または歌唱動作を行っているように表示する動作情報とを生成し、生成した前記演奏情報に基づいて、演奏命令を順次出力する音楽演奏手段と、
前記音楽演奏手段によって生成された前記動作情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を出力するキャラクタ動作手段と、
を備えていることを特徴とする。
本発明の第2の態様にかかるキャラクタ演奏画像生成装置は、前記音楽演奏手段が、
前記複数のキャラクタがそれぞれ演奏する各楽器または歌唱の演奏イベント情報と該演奏イベント情報に対応した前記演奏命令を出力するタイミングを示す演奏時間情報とを有した前記演奏情報を、前記音楽情報に基づいて生成し、前記演奏イベント情報に同期して前記キャラクタが楽器演奏動作または歌唱動作を行なっているように表示する動作イベント情報と該動作イベント情報に対応した前記表示信号を出力するタイミングを示す動作時間情報とを有した前記動作情報を、前記演奏情報に基づいて生成するデータ生成手段と、
前記データ生成手段によって生成された前記演奏情報の前記演奏イベント情報に対応した前記演奏命令を、前記演奏イベント情報の前記演奏時間情報に従って、順次出力する発音制御手段と、
を備え、
前記キャラクタ動作手段は、前記データ生成手段によって生成された前記動作情報の前記動作イベント情報に基づいて前記音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する該動作イベント情報に対応した前記表示信号を、該動作イベント情報の前記動作時間情報に従って、順次出力することを特徴とする。
本発明の第3の態様にかかるキャラクタ演奏画像生成装置は、前記データ生成手段が、前記楽器または歌唱のそれぞれの前記演奏イベント情報に基づいた前記発音制御手段からの前記演奏命令の出力によって発音される発音タイミングと、該演奏イベント情報に対応した前記動作イベント情報に基づいた前記キャラクタ動作手段からの前記表示信号の出力によって前記キャラクタの楽器演奏または歌唱の発音時動作が表示される発音時動作タイミングとが一致するように、前記演奏イベント情報の前記演奏時間情報と、該演奏イベント情報に対応した前記動作イベント情報の前記動作時間情報と、を生成することを特徴とする。
本発明の第4の態様にかかるキャラクタ演奏画像生成装置は、前記データ生成手段が、
所定の基準タイミングから前記演奏イベント情報に対応した前記演奏命令を出力するタイミングまでの時間を該演奏イベント情報の前記演奏時間情報として、すべての前記演奏イベント情報の前記演奏時間情報を算出し、算出した前記演奏イベント情報の前記演奏時間情報に基づいて、時系列にすべての前記演奏イベント情報に対応した前記演奏命令の出力を管理する前記演奏情報を生成し、
前記所定の基準タイミングから前記動作イベント情報に対応した前記表示信号を出力するタイミングまでの時間を該動作イベント情報の前記動作間情報として、すべての前記動作イベント情報の前記動作時間情報を算出し、算出した前記動作イベント情報の前記動作時間情報に基づいて、時系列にすべての前記動作イベント情報に対応した前記表示信号の出力を管理する前記動作情報を生成し、
前記動作時間情報の算出の際には、前記演奏イベント情報の前記演奏時間情報をΔT1とし、該演奏イベント情報に対応する前記動作イベント情報の前記動作時間情報をΔT2とし、該動作イベント情報に対応した前記キャラクタの演奏動作の動作開始から発音時動作までの時間を発音到達時間Δtとしたとき、
前記動作時間情報ΔT2が、
ΔT2=ΔT1−Δt
を満たすように算出されることを特徴とする。
本発明の第5の態様にかかるキャラクタ演奏画像生成装置は、前記キャラクタに楽器演奏動作または歌唱動作をさせる演奏環境状況に応じた前記キャラクタの複数の環境動作画像情報を含んでなる環境動作画像情報群と、前記キャラクタが楽器演奏動作または歌唱動作をするための複数の前記動作イベント情報に対応した前記キャラクタの複数の演奏動作画像情報を含んでなる演奏動作画像情報群と、が予め記憶されており、
前記キャラクタ動作手段は、記憶された前記環境動作画像情報群の中から指定された演奏環境に基づいて取り出した複数の環境動作画像情報と、記憶された前記演奏動作画像情報群の中から前記動作情報の前記動作イベント情報に基づいて取り出した複数の演奏動作画像情報とを合成して複数の音楽演奏画像情報を生成し、生成した前記音楽演奏画像情報を連続して表示する前記表示信号を、該動作イベント情報の前記動作時間情報に従って、順次出力することを特徴とする。
本発明の第6の態様にかかるキャラクタ演奏画像生成装置は、前記音楽演奏画像情報を連続して表示される動画が、前記動作イベント情報に応じて、前記キャラクタの動作が、現在の動作状態から前記楽器毎に予め設定されている基本位置状態に移行し、該基本位置状態から発音時動作状態に移行する動画であることを特徴とする。
本発明の第7の態様にかかるキャラクタ演奏画像生成装置は、前記音楽情報が、MIDI形式のデータであることを特徴とする。
本発明の第1の態様にかかるキャラクタ演奏画像生成方法は、コンピュータに入力させた音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報の中の複数の楽器の演奏または歌唱のいずれかの動作を表示するための画像情報を生成するキャラクタ演奏画像生成方法であって、
(a)入力された前記音楽情報を記憶する工程と、
(b)前記工程(a)によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報と、該演奏情報に同期して前記キャラクタがそれぞれ楽器演奏動作または歌唱動作を行っているように表示する動作情報とを生成し、生成した前記演奏情報に基づいて、演奏命令を順次出力する工程と、
(c)前記工程(b)によって生成された前記動作情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を出力する工程と、
を備え、
前記工程(a)乃至(c)の各工程を実現する処理を前記コンピュータに実行させることを特徴とする。
本発明の第2の態様にかかるキャラクタ演奏画像生成方法は、前記工程(b)が、
(b1)前記複数のキャラクタがそれぞれ演奏する各楽器または歌唱の演奏イベント情報と該演奏イベント情報に対応した前記演奏命令を出力するタイミングを示す演奏時間情報とを有した前記演奏情報を、前記音楽情報に基づいて生成し、前記演奏イベント情報に同期して前記キャラクタが楽器演奏動作または歌唱動作を行なっているように表示する動作イベント情報と該動作イベント情報に対応した前記表示信号を出力するタイミングを示す動作時間情報とを有した前記動作情報を、前記演奏情報に基づいて生成する工程と、
(b2)前記工程(b1)によって生成された前記演奏情報の前記演奏イベント情報に対応した前記演奏命令を、該演奏イベント情報の前記演奏時間情報に従って、順次出力する工程と、
を備え、
前記工程(c)は、前記工程(b1)によって生成された前記動作情報の前記動作イベント情報に基づいて前記音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する該動作イベント情報に対応した前記表示信号を、該動作イベント情報の前記動作時間情報に従って、順次出力することを特徴とする。
本発明の第3の態様にかかるキャラクタ演奏画像生成方法は、前記工程(b1)が、前記楽器または歌唱のそれぞれの前記演奏イベント情報に基づいた前記工程(b2)の前記演奏命令の出力によって発音される発音タイミングと、該演奏イベント情報に対応した前記動作イベント情報に基づいた前記工程(c)の前記表示信号の出力によって前記キャラクタの楽器演奏または歌唱の発音時動作が表示される発音時動作タイミングとが一致するように、前記演奏イベント情報の前記演奏時間情報と、該演奏イベント情報に対応した前記動作イベント情報の前記動作時間情報と、を生成することを特徴とする。
本発明の第4の態様にかかるキャラクタ演奏画像生成方法は、前記工程(b1)が、
所定の基準タイミングから前記演奏イベント情報に対応した前記演奏命令を出力するタイミングまでの時間を該演奏イベント情報の前記演奏時間情報として、すべての前記演奏イベント情報の前記演奏時間情報を算出し、算出した前記演奏イベント情報の前記演奏時間情報に基づいて、時系列にすべての前記演奏イベント情報に対応した前記演奏命令の出力を管理する前記演奏情報を生成し、
前記所定の基準タイミングから前記動作イベント情報に対応した前記表示信号を出力するタイミングまでの時間を該動作イベント情報の前記動作間情報として、すべての前記動作イベント情報の前記動作時間情報を算出し、算出した前記動作イベント情報の前記動作時間情報に基づいて、時系列にすべての前記動作イベント情報に対応した前記表示信号の出力を管理する前記動作情報を生成し、
前記動作時間情報の算出の際には、前記演奏イベント情報の前記演奏時間情報をΔT1とし、該演奏イベント情報に対応する前記動作イベント情報の前記動作時間情報をΔT2とし、該動作イベント情報に対応した前記キャラクタの演奏動作の動作開始から発音時動作までの時間を発音到達時間Δtとしたとき、
前記動作時間情報ΔT2が、
ΔT2=ΔT1−Δt
を満たすように算出されることを特徴とする。
本発明の第5の態様にかかるキャラクタ演奏画像生成方法は、前記キャラクタに楽器演奏動作または歌唱動作をさせる演奏環境状況に応じた前記キャラクタの複数の環境動作画像情報を含んでなる環境動作画像情報群と、前記キャラクタが楽器演奏動作または歌唱動作をするための複数の前記動作イベント情報に対応した前記キャラクタの複数の演奏動作画像情報を含んでなる演奏動作画像情報群と、が予め記憶されており、
前記工程(c)は、記憶された前記環境動作画像情報群の中から指定された演奏環境に基づいて取り出した複数の環境動作画像情報と、記憶された前記演奏動作画像情報群の中から前記動作情報の前記動作イベント情報に基づいて取り出した複数の演奏動作画像情報とを合成して複数の音楽演奏画像情報を生成し、生成した前記音楽演奏画像情報を連続して表示する前記表示信号を、該動作イベント情報の前記動作時間情報に従って、順次出力することを特徴とする。
本発明の第6の態様にかかるキャラクタ演奏画像生成方法は、前記音楽演奏画像情報を連続して表示される動画が、前記動作イベント情報に応じて、前記キャラクタの動作が、現在の動作状態から前記楽器毎に予め設定されている基本位置状態に移行し、該基本位置状態から発音時動作状態に移行する動画であることを特徴とする。
本発明の第7の態様にかかるキャラクタ演奏画像生成方法は、前記音楽情報が、MIDI形式のデータであることを特徴とする。
本発明の第1の態様にかかるキャラクタ演奏システムは、コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報中の複数の楽器の演奏または歌唱のいずれかの動作を表示するキャラクタ演奏システムであって、
表示信号に応じて画像情報を表示する表示部と、
合成部及び出力部を備え、演奏命令に基づいて、音を合成して合成音を出力する楽音合成出力部と、
入力された音楽情報を記憶する記憶手段と、
前記記憶手段によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報と、該演奏情報に同期して前記キャラクタがそれぞれ楽器演奏動作または歌唱動作を行っているように表示する動作情報とを生成し、生成した前記演奏情報に基づいて、前記楽音合成出力部に演奏命令を順次出力する音楽演奏手段と、
前記音楽演奏手段によって生成された前記動作情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を、前記表示部に出力するキャラクタ動作手段と、
を備えていることを特徴とする。
本発明の第1の態様にかかるキャラクタ演奏方法は、コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報中の複数の楽器の演奏または歌唱のいずれかの動作を表示するキャラクタ演奏方法であって、
(a)入力された前記音楽情報を記憶する工程と、
(b)前記工程(a)によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報と、該演奏情報に同期して前記キャラクタがそれぞれ楽器演奏動作または歌唱動作を行っているように表示する動作情報とを生成し、生成した前記演奏情報に基づいて、音を合成して合成音を出力する楽音合成出力部に、演奏命令を順次出力する工程と、
(c)前記工程(b)によって生成された前記動作情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、表示信号に応じて画像情報を表示する表示部に、前記生成した音楽演奏画像情報を連続して表示する表示信号を出力する工程と、
(d)前記工程(b)によって出力された前記演奏命令に基づいて、前記楽音合成出力部に音を合成して合成音を出力させる工程と、
(e)前記工程(c)によって出力された前記表示信号に応じて画像情報を、前記表示部に表示させる工程と、
を備え、
前記工程(a)乃至(e)の各工程を実現する処理を前記コンピュータに実行させることを特徴とする。
本発明の第8の態様にかかるキャラクタ演奏画像生成装置は、コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報の中の複数の楽器の演奏または歌唱のいずれかの動作を表示するための画像情報を生成するキャラクタ演奏画像生成装置であって、
入力された前記音楽情報を記憶する記憶手段と、
前記記憶手段によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報を生成し、生成した前記演奏情報に基づいて、演奏命令を順次出力する音楽演奏手段と、
前記音楽演奏手段によって生成された前記演奏情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を出力するキャラクタ動作手段と、
を備えていることを特徴とする。
本発明の第9の態様にかかるキャラクタ演奏画像生成装置は、前記音楽演奏手段が、
前記複数のキャラクタがそれぞれ演奏する各楽器または歌唱の演奏イベント情報と該演奏イベント情報に対応した前記演奏命令を出力するタイミングを示す演奏時間情報とを有した前記演奏情報を、前記音楽情報に基づいて生成するデータ生成手段と、
前記データ生成手段によって生成された前記演奏情報の前記演奏イベント情報に対応した前記演奏命令を、前記演奏イベント情報の前記演奏時間情報に従って、順次出力する発音制御手段と、
を備え、
前記キャラクタ動作手段は、前記データ生成手段によって生成された前記演奏情報の前記演奏イベント情報に基づいて、該演奏イベント情報に対応した楽器演奏動作または歌唱動作をキャラクタが行なっているように表示させるための前記音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する前記表示信号を、該演奏イベント情報の前記演奏時間情報に従って、順次出力することを特徴とする。
本発明の第10の態様にかかるキャラクタ演奏画像生成装置は、前記キャラクタに楽器演奏動作または歌唱動作をさせる演奏環境状況に応じた前記キャラクタの複数の環境動作画像情報を含んでなる環境動作画像情報群と、前記キャラクタが楽器演奏動作または歌唱動作をするための複数の前記演奏イベント情報に対応した前記キャラクタの複数の演奏動作画像情報を含んでなる演奏動作画像情報群と、が予め記憶されており、
前記キャラクタ動作手段は、記憶された前記環境動作画像情報群の中から指定された演奏環境に基づいて取り出した複数の環境動作画像情報と、記憶された前記演奏動作画像情報群の中から前記演奏情報の前記演奏イベント情報に基づいて取り出した複数の演奏動作画像情報とを合成して複数の音楽演奏画像情報を生成し、生成した前記音楽演奏画像情報を連続して表示する前記表示信号を、該演奏イベント情報の前記演奏時間情報に従って、順次出力することを特徴とする。
本発明の第8の態様にかかるキャラクタ演奏画像生成方法は、コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報の中の複数の楽器の演奏または歌唱のいずれかの動作を表示するための画像情報を生成するキャラクタ演奏画像生成方法であって、
(a)入力された前記音楽情報を記憶する工程と、
(b)前記工程(a)によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報を生成し、生成した前記演奏情報に基づいて、演奏命令を順次出力する工程と、
(c)前記工程(b)によって生成された前記演奏情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を出力する工程と、
を備え、
前記工程(a)乃至(c)の各工程を実現する処理を前記コンピュータに実行させることを特徴とする。
本発明の第9の態様にかかるキャラクタ演奏画像生成方法は、前記工程(b)が、
(b1)前記複数のキャラクタがそれぞれ演奏する各楽器または歌唱の演奏イベント情報と該演奏イベント情報に対応した前記演奏命令を出力するタイミングを示す演奏時間情報とを有した前記演奏情報を、前記音楽情報に基づいて生成する工程と、
(b2)前記工程(b1)によって生成された前記演奏情報の前記演奏イベント情報に対応した前記演奏命令を、前記演奏イベント情報の前記演奏時間情報に従って、順次出力する工程と、
を備え、
前記工程(c)は、前記工程(b1)によって生成された前記演奏情報の前記演奏イベント情報に基づいて、該演奏イベント情報に対応した楽器演奏動作または歌唱動作をキャラクタが行なっているように表示させるための前記音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する前記表示信号を、該演奏イベント情報の前記演奏時間情報に従って、順次出力することを特徴とする。
本発明の第10の態様にかかるキャラクタ演奏画像生成方法は、前記キャラクタに楽器演奏動作または歌唱動作をさせる演奏環境状況に応じた前記キャラクタの複数の環境動作画像情報を含んでなる環境動作画像情報群と、前記キャラクタが楽器演奏動作または歌唱動作をするための複数の前記演奏イベント情報に対応した前記キャラクタの複数の演奏動作画像情報を含んでなる演奏動作画像情報群と、が予め記憶されており、
前記工程(c)は、記憶された前記環境動作画像情報群の中から指定された演奏環境に基づいて取り出した複数の環境動作画像情報と、記憶された前記演奏動作画像情報群の中から前記演奏情報の前記演奏イベント情報に基づいて取り出した複数の演奏動作画像情報とを合成して複数の音楽演奏画像情報を生成し、生成した前記音楽演奏画像情報を連続して表示する前記表示信号を、該演奏イベント情報の前記演奏時間情報に従って、順次出力することを特徴とする。
本発明の第2の態様にかかるキャラクタ演奏システムは、コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報中の複数の楽器の演奏または歌唱のいずれかの動作を表示するキャラクタ演奏システムであって、
表示信号に応じて画像情報を表示する表示部と、
合成部及び出力部を備え、演奏命令に基づいて、音を合成して合成音を出力する楽音合成出力部と、
入力された前記音楽情報を記憶する記憶手段と、
前記記憶手段によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報を生成し、生成した前記演奏情報に基づいて、前記楽音合成出力部に演奏命令を順次出力する音楽演奏手段と、
前記音楽演奏手段によって生成された前記演奏情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を、前記表示部に出力するキャラクタ動作手段と、
を備えていることを特徴とする。
本発明の第2の態様にかかるキャラクタ演奏方法は、コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報中の複数の楽器の演奏または歌唱のいずれかの動作を表示するキャラクタ演奏方法であって、
(a)入力された前記音楽情報を記憶する工程と、
(b)前記工程(a)によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報を生成し、生成した前記演奏情報に基づいて、演奏命令を順次出力する工程と、
(c)前記工程(b)によって生成された前記演奏情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を出力する工程と、
(d)前記工程(b)によって出力された前記演奏命令に基づいて、前記楽音合成出力部に音を合成して合成音を出力させる工程と、
(e)前記工程(c)によって出力された前記表示信号に応じて画像情報を、前記表示部に表示させる工程と、
を備え、
前記工程(a)乃至(e)の各工程を実現する処理を前記コンピュータに実行させることを特徴とする。
本発明によれば、音楽情報にあった楽器の演奏動作の画像情報を、予め作成しておく必要が無いため、ユーザ自身がネットワークからダウンロードした楽曲やユーザ自身が作曲した楽曲等の所望の音楽情報をコンピュータに入力するだけで、該コンピュータを用いて実現される仮想空間内の楽器を持った複数のキャラクタに、所望の音楽情報に合わせて、該キャラクタに持たせた楽器の演奏動作を実行させることができる。その結果、ユーザは、複数のキャラクタがそれぞれ楽器演奏を行なっているような画像を観ることができる。即ち、ユーザは所望の楽曲を聴覚からだけでなく視覚からも楽しむことができるため、より娯楽性の高いゲームソフトウェアを構築することができる。
本発明の一実施形態に係るにかかるキャラクタ演奏画像生成装置を実行させるコンピュータ100の概略構成を示す図である。 本発明の一実施形態にかかるキャラクタ生成システム200におけるシステム構成の一例を示す図である。 単位音楽情報(DT0[i])、単位演奏情報(DT1[i])及び単位動作情報(DT2[i])を説明するための図であり、(a)は、単位音楽情報(DT0[i])のデータフォーマットの一例を示す図であり、(b)は、単位演奏情報(DT1[i])のデータフォーマットの一例を示す図であり、(c)は、単位動作情報(DT2[i])のデータフォーマットの一例を示す図である。 音楽情報(DT0)と演奏情報(DT1)との関係を説明するための図である。 演奏情報(DT1)と動作情報(DT2)との関係を説明するための図である。 演奏情報(DT1)に基づいた演奏命令の出力タイミングと動作情報(DT2)に基づいた表示信号の出力タイミングを説明するための図である。 キャラクタの生成を説明するための図である。 演奏動作の状態移行を説明するための図である。 キャラクタの配置の変更を説明するための図である。 本発明の一実施形態にかかるキャラクタ演奏方法の各工程をコンピュータに実行させるプログラムの処理手順を示すフローチャート図の一例である。 図10に示すS103の演奏処理手順を示すフローチャート図の一例である。 図10に示すS105の動作表示処理手順を示すフローチャート図の一例である。 別の本発明の一実施形態にかかるキャラクタ演奏システム300におけるシステム構成の一例を示す図である。 別の本発明の一実施形態にかかるキャラクタ演奏方法の各工程をコンピュータに実行させるプログラムの処理手順を示すフローチャート図の一例である。 図14に示すS505の動作表示処理手順を示すフローチャート図の一例である。
本発明の一実施形態を、図面を参照しながら説明する。なお、以下に説明する実施形態は説明のためのものであり、本発明の範囲を制限するものではない。従って、当業者であればこれらの各要素もしくは全要素をこれと同様なもので置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
本発明の一実施形態にかかるキャラクタ演奏システムは、複数の楽器に演奏させたりあるいは歌唱させたりする所望の音楽情報を入力するだけで、音楽出力に同期して複数のキャラクタがそれぞれの楽器の演奏または歌唱をする動作を表示させることができるものである。入力された音楽情報をシンセサイザ等の楽音合成出力部(音源)を介して出力する際に、コンピュータ上で動作するソフトウェアによって実現される仮想空間内において、キャラクタに、該音楽情報に合わせて楽器演奏または歌唱演奏の動作をさせるものである。また、本発明の一実施形態にかかるキャラクタ演奏画像生成装置は、複数の楽器に演奏させたりあるいは歌唱させたりする所望の音楽情報を入力するだけで、音楽出力に同期して複数のキャラクタがそれぞれの楽器の演奏または歌唱をする動作を表示させるための画像情報を生成するものである。
ここで、所望の音楽情報とは、ユーザがネットワークからダウンロードした楽曲やユーザ自身が作曲した楽曲等の音楽情報であり、MIDI形式の音楽情報及びMIDI形式の情報に変換できる音楽情報である。尚、所望の音楽情報がMIDI形式の情報に変換できる音楽情報の場合は、本発明にかかるキャラクタ演奏システムに内蔵されるデータ形式変換部(図示無し)、または該キャラクタ演奏システムに接続されるデータ形式変換装置等を介して、該音楽情報を一旦、MIDI形式の音楽情報に変換し、変換したMIDI形式の音楽情報を改めて、本発明の音楽情報とする。以下、音楽情報がMIDI形式の音楽情報であるとして説明する。
まず、本発明の一実施形態にかかるキャラクタ演奏画像生成装置を実行させるコンピュータの概略構成について説明する。図1は、本発明の一実施形態に係るにかかるキャラクタ演奏画像生成装置を実行させるコンピュータ100の概略構成を示す図である。図1に示すように、コンピュータ100は、CPU(中央処理装置)101、ROM102、RAM103、入力部104等を備えている。
CPU21は、コンピュータ100で実行させるキャラクタ演奏画像生成装置を実現するためのソフトウェア(ファームウェア及び基本ソフトウェアを含む)および各種制御データ等を記憶しているROM102、及びRAM103等から、必要な情報を読み出し、実行することにより、キャラクタ演奏画像生成装置を実現する。また、RAM103は、コンピュータ100によりキャラクタ演奏システムを実現するために必要なデータの記憶装置及びソフトウェアの実行作業領域として機能する。また、入力部104は、例えば、マウス、タッチ操作部、通信装置、外部記憶装置等であり、情報を入力して、入力した情報(例えば、タッチ操作部からの各種入力情報、通信装置等から入力した音楽情報等)を、RAM103に記憶する。
次に、本発明の一実施形態にかかるキャラクタ演奏画像生成装置及び本発明の一実施形態にかかるキャラクタ演奏システムについて説明する。図2は、本発明の一実施形態にかかるキャラクタ演奏システム200におけるシステム構成の一例を示す図である。ここでは、本発明の一実施形態にかかるキャラクタ演奏画像生成装置の一例であるキャラクタ演奏画像生成装置10を備えたキャラクタ演奏システム200を例に挙げて、キャラクタ演奏画像生成装置10及びキャラクタ演奏システム200を説明する。
図2に示すように、キャラクタ演奏システム200は、キャラクタ演奏画像生成装置10、シンセサイザ110、及び表示部120を備えている。
シンセサイザ110は、楽音合成出力部(音源)の一例であり、キャラクタ演奏画像生成装置10から入力した演奏命令に基づいて、合成部(図示無し)で音の合成を行い、出力部(図示無し)より、該合成音を出力する。また、表示部120は、キャラクタ演奏画像生成装置10から入力した表示信号に応じて、複数のキャラクタがそれぞれ楽器の演奏または歌唱をする動作の画像情報を表示する。
次に、本発明の一実施形態にかかるキャラクタ演奏画像生成装置であるキャラクタ演奏画像生成装置10について、詳細を説明する。
図2に示すように、キャラクタ演奏画像生成装置10は、音楽演奏部20及びキャラクタ動作部30を備えている。音楽演奏部20は、入力部104を介して入力されたMIDI形式の音楽情報(DT0)に基づいて、複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報(DT1)と、該演奏情報(DT1)に同期してキャラクタが楽器演奏動作または歌唱動作を行っているように表示する動作情報(DT2)とを生成し、該演奏情報(DT1)に基づいて、シンセサイザ110に演奏命令を出力する。
ここで、演奏情報(DT1)は、シンセサイザ110から演奏音(合成音)を出力させるための情報であり、音楽情報(DT0)の中から、複数のキャラクタのそれぞれが担当する楽器の演奏または歌唱の情報を取り出して構成した情報である。例えば、音楽情報(DT0)の中に、トランペット、サックス、ドラム及びピアノの演奏に関する情報があり、キャラクタがトランペット、サックス及びドラムを担当する3人である場合、演奏情報(DT1)は、音楽情報(DT0)の中のトランペット、サックス及びドラムに関する情報だけになる。また、音楽情報(DT0)の中に、トランペット、サックス、ドラム及びピアノの演奏に関する情報があり、キャラクタがトランペット、サックス、ドラム及びクラリネットを担当する4人である場合、演奏情報(DT1)を、音楽情報(DT0)の中のトランペット、サックス及びドラムに関する情報と、ピアノの演奏をクラリネットの演奏に変更した情報とから構成することもできる。あるいは、音楽情報(DT0)の中に、トランペット、サックス、ドラム及びピアノの演奏に関する情報があり、キャラクタがトランペット、サックス、ドラム及びクラリネットを担当する4人である場合、演奏情報(DT1)を、音楽情報(DT0)の中のトランペット、サックス、ドラムに関する情報と、サックスの演奏をクラリネットの演奏に変更した情報とから構成することもできる。
以下、音楽情報(DT0)の中に含まれる楽器または歌唱の種類と、演奏情報(DT1)の中に含まれる楽器または歌唱の種類が、同じ場合を例に挙げて説明する。
音楽情報(DT0)、演奏情報(DT1)及び動作情報(DT2)は、それぞれ、複数(n個)の単位音楽情報(DT0[i])、複数(n個)の単位演奏情報(DT1[i])、及び、複数(n個)の単位動作情報(DT2[i])から構成されている。尚、単位音楽情報、単位演奏情報及び単位動作情報は、i(i=1〜n)によって識別されたイベントに関する情報である。
キャラクタ動作部30は、音楽演奏部20によって生成された動作情報(DT2)に基づいて、演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を生成し、生成した音楽演奏画像情報を連続して表示する表示信号を表示部120に出力する。
次に、上述した音楽演奏部20についての詳細を図2乃至図6を参照して説明する。図2に示すように、音楽演奏部20は、データ生成部21、発音制御部22及び音楽管理部23を備えている。
データ生成部21は、入力部104を介して入力されたMIDI形式の音楽情報(DT0)を入力情報記憶部51から取り出す。そして、取り出した音楽情報(DT0)に基づいて、複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報(DT1)と、該演奏情報(DT1)に同期してキャラクタが楽器の演奏動作を行っているように表示する動作情報(DT2)とを生成する。また、生成した演奏情報(DT1)をRAM23の演奏情報記憶部52に記憶(格納)し、生成した動作情報(DT2)をRAM23の動作情報記憶部53に記憶(格納)する。以下の説明では、キャラクタが楽器の演奏または歌唱を行うことを、楽器の演奏をさせることを例に挙げて説明するが、楽器の演奏だけでなく歌唱を行うことも含める。
ここで、音楽情報(DT0)、演奏情報(DT1)及び動作情報(DT2)について、図3乃至図6を参照して説明する。図3は、単位音楽情報(DT0[i])、単位演奏情報(DT1[i])及び単位動作情報(DT2[i])を説明するための図であり、(a)は、単位音楽情報(DT0[i])のデータフォーマットの一例を示す図であり、(b)は、単位演奏情報(DT1[i])のデータフォーマットの一例を示す図であり、(c)は、単位動作情報(DT2[i])のデータフォーマットの一例を示す図である。また、図4は、音楽情報(DT0)と演奏情報(DT1)との関係を説明するための図である。また、図5は、演奏情報(DT1)と動作情報(DT2)との関係を説明するための図である。また、図6は、演奏情報(DT1)に基づいた演奏命令の出力タイミングと動作情報(DT2)に基づいた表示信号の出力タイミングを説明するための図である。尚、本明細書では、音楽情報(DT0)のデータフォーマットとして、SMF(Standard MIDI File)を例に挙げて説明する。
単位音楽情報(DT0[i])は、図3(a)に示すように、各楽器によって演奏されるMIDIイベント情報(ED0[i])と、該MIDIイベント情報(ED0[i])に基づいた演奏命令が出力されるタイミングに対応するデルタ・タイムと呼ばれる時間情報(ΔT0[i])とから構成されている。
MIDIイベント情報(ED0[i])は、楽器の発音・消音を制御するための情報である。例えば、「チャンネル0をサックスに割り当てる」、「チャンネル0に割り当てられた楽器の音階をドにして、音量を50にする」、「チャンネル10をドラムに割り当てる」、「チャンネル10に割り当てられた楽器の音量を50にする」等の情報が、所定の形式に従って格納されている。また、時間情報(ΔT0[i])は、MIDIイベント情報(ED0[i])が出力されるタイミングを、前回のイベント発生時(単位音楽情報(DT0[i−1])が出力されたタイミング)からの経過時間として表わした情報である。尚、最初のイベントにおいては、所定の基準タイミング(例えば、キャラクタ演奏画像生成装置10が入力部104を介してMIDI形式の音楽情報(DT0)をRAM103に記憶して、シンセサイザ110に出力可能な状態になったタイミング等)から演奏開始までの経過時間である。
演奏情報(DT1)を構成する単位演奏情報(DT1[i])は、図3(b)に示すように、各楽器によって演奏される演奏イベント情報(ED1[i])と、該演奏イベント情報(ED1[i])に基づいた演奏命令が出力されるタイミングに対応する演奏時間情報(ΔT1[i])とから構成されている。演奏イベント情報(ED1[i])は、MIDIイベント情報(ED0[i])と同じ情報である。また、演奏時間情報(ΔT1[i])は、演奏イベント情報(ED1[i])に基づいた演奏命令が出力されるタイミングを、所定の基準タイミングからの経過時間として表わした情報である。
例えば、図4に示すように、楽曲の音楽情報(DT0)が複数(n個)の単位音楽情報(DT0[i])から構成されている場合、データ生成部21によって生成される演奏情報(DT1)を構成する単位演奏情報(DT1[i])は、下記のような情報になる。
(a)演奏イベント情報(ED1[i])は、MIDIイベント情報(ED0[i])と同じ内容である。あるいは、一部の楽器を別の楽器に変更して演奏する情報であっても良い。例えば、音楽情報(DT0)の中に、トランペット、サックス、ドラム及びピアノの演奏に関する情報があり、キャラクタがトランペット、サックス及びドラムを担当する3人である場合、演奏情報(DT1)は、音楽情報(DT0)の中のトランペット、サックス及びドラムに関する情報だけになる。また、音楽情報(DT0)の中に、トランペット、サックス、ドラム及びピアノの演奏に関する情報があり、キャラクタがトランペット、サックス、ドラム及びクラリネットを担当する4人である場合、演奏情報(DT1)を、音楽情報(DT0)の中のトランペット、サックス及びドラムに関する情報と、ピアノの演奏をクラリネットの演奏に変更した情報とから構成することもできる。あるいは、音楽情報(DT0)の中に、トランペット、サックス、ドラム及びピアノの演奏に関する情報があり、キャラクタがトランペット、サックス、ドラム及びクラリネットを担当する4人である場合、演奏情報(DT1)を、音楽情報(DT0)の中のトランペット、サックス、ドラムに関する情報と、サックスの演奏をクラリネットの演奏に変更した情報とから構成することもできる。
(b)所定の基準タイミングからの経過時間である演奏時間情報(ΔT1[i])は、
Figure 2015138160
となる。
動作情報(DT2)を構成する単位動作情報(DT2[i])は、図3(c)に示すように、演奏イベント情報(ED1[i])に同期してキャラクタが楽器の演奏動作を行っているように表示する動作イベント情報(ED2[i])と、該動作イベント情報(ED2[i])に基づいた表示信号が出力されるタイミングに対応する動作時間情報(ΔT2[i])とから構成されている。動作イベント情報(ED2[i])は、キャラクタの演奏動作を制御するための情報である。例えば、「チャンネル0に割り当てたキャラクタAをサックス演奏者にする」、「チャンネル0に割り当てられたキャラクタAに、楽器の音階がド、音量が50の演奏動作をさせる」、「チャンネル10に割り当てたキャラクタBをドラム演奏者にする」、「チャンネル10に割り当てられたキャラクタBに、楽器の音量が50の演奏動作をさせる」等の情報が、所定の形式に従って格納されている。動作時間情報(ΔT2[i])は、動作イベント情報(ED2[i])に基づいた表示信号が出力されるタイミングを、所定の基準タイミングからの経過時間として表わした情報である。尚、動作時間情報(ΔT2[i])を決める際の該所定の基準タイミングは、単位演奏情報(DT1[i])の演奏時間情報(ΔT1[i])を決める際の所定の基準タイミングと同じタイミングである。
動作イベント情報(ED2[i])に基づいた表示信号が出力されるタイミングとは、演奏イベント情報(ED1[i])に基づいた演奏命令が出力されてシンセサイザ110から演奏音(合成音)が出力(発音)されるタイミング(発音タイミング)と、キャラクタの楽器演奏による音が発する瞬間の動作(発音時動作)が表示されるタイミング(発音時動作タイミング)とが一致するように、キャラクタの演奏動作の動作開始から発音時動作までの時間(発音到達時間)Δtを考慮して決めたタイミングである。
例えば、演奏イベント情報(ED1[i])が、「チャンネル10に割り当てられた楽器(ドラム)の音量を50にする」である場合、演奏イベント情報(ED1[i])に対応する動作イベント情報(ED2[i])は、「チャンネル10に割り当てたキャラクタBに、楽器(ドラム)の音量を50にする演奏動作をさせる」となる。また、該動作イベント情報(ED2[i])である「チャンネル10に割り当てたキャラクタBに、楽器(ドラム)の音量を50にする演奏動作をさせる」とは、「キャラクタBが、ドラムスティックを、基本位置から音量に応じたトップ位置まで振り上げ、トップ位置からドラムヘッド(振動膜)まで振り下ろし、ドラムヘッドから基本位置まで振り上げる動作」をさせることである。
従って、シンセサイザ110からドラムの合成音が出力される発音タイミングと、キャラクタBがドラム演奏による音が発する瞬間の動作(発音時動作)が表示される発音時動作タイミングとを一致させるためには、キャラクタBの持つドラムスティックが発音位置となるドラムヘッドに到達したときが、シンセサイザ110から合成音が出力されたときになるようにすればよい。即ち、演奏イベント情報(ED1[i])に基づいた演奏命令の出力よりも、「ドラムスティックを、基本位置から音量に応じたトップ位置まで振り上げ、トップ位置からドラムヘッドまで振り下ろす」動作時間だけ、動作イベント情報(ED2[i])に基づいた表示信号の出力を早くさせるようにすればよい。この「ドラムスティックを、基本位置から音量に応じたトップ位置まで振り上げ、トップ位置からドラムヘッドまで振り下ろす」動作時間が、発音到達時間Δtである。
図5に示すように、楽曲の演奏情報(DT1)が複数(n個)の単位演奏情報(DT1[i])から構成されている場合、データ生成部21によって生成される動作情報(DT2)を構成する単位動作情報(DT2[i])は、下記のような情報になる。
(a)動作イベント情報(ED2[i])は、演奏イベント情報(ED1[i])に対応づけられ、該演奏イベント情報(ED1[i])に同期してキャラクタが楽器の演奏動作を行っているように表示する制御情報となる。
(b)所定の基準タイミングからの経過時間である動作時間情報(ΔT2[i])は、
ΔT2[i]=ΔT1[i]−Δt[i]
となる。尚、発音到達時間Δt[i]は、動作イベント情報(ED2[i])に対応づけられて設定される。
例えば、図6に示すように、単位演奏情報(DT1[5])に基づいた演奏命令の出力タイミングと単位動作情報(DT2[5])に基づいた表示信号の出力タイミング、単位演奏情報(DT1[10])に基づいた演奏命令の出力タイミングと単位動作情報(DT2[10])に基づいた表示信号の出力タイミングは、次のような関係になる。
(1)所定の基準タイミングを時間=0として、時間がΔT2[5]のときに、動作イベント情報(ED2[5])に基づいた表示信号が出力される。
(2)ΔT2[5]からΔt[5]だけ経過したΔT1[5]のときに、演奏イベント情報(ED1[5])に基づいた演奏命令が出力される。
(3)時間がΔT2[10]のときに、動作イベント情報(ED2[10])に基づいた表示信号が出力される。
(4)ΔT2[10]からΔt[10]だけ経過したΔT1[10]のときに、演奏イベント情報(ED1[10])に基づいた演奏命令が出力される。
尚、ΔT1[5]、ΔT2[5]、Δt[5]、ΔT1[10]、ΔT2[10]、Δt[10]は以下のような内容を示している。
ΔT1[5]:ED1[5](「チャンネル10に割り当てられた楽器(ドラム)の音量を50にする」)に基づいた演奏命令の出力タイミング
ΔT2[5]:ED2[5](「チャンネル10に割り当てたキャラクタBに、楽器(ドラム)の音量を50にする演奏動作をさせる」)に基づいた表示信号の出力タイミング
Δt[5]:「ドラムスティックを、基本位置から音量50に応じたトップ位置まで振り上げ、トップ位置からドラムヘッドまで振り下ろす」動作時間(発音到達時間)
ΔT1[10]:ED1[10](「チャンネル10に割り当てられた楽器(ドラム)の音量を100にする」)に基づいた演奏命令の出力タイミング
ΔT2[10]:ED2[10](「チャンネル10に割り当てたキャラクタBに、楽器(ドラム)の音量を100にする演奏動作をさせる」)に基づいた表示信号の出力タイミング
Δt[10]:「ドラムスティックを、基本位置から音量100に応じたトップ位置まで振り上げ、トップ位置からドラムヘッドまで振り下ろす」動作時間(発音到達時間)
尚、キャラクタ演奏画像生成装置10では、複数のチャンネルの各チャンネルに対してそれぞれキャラクタが割り当てられる。また、各キャラクタに対してそれぞれ楽器が割り当てられる。更に、各キャラクタに割り当てられた楽器を、途中で変更することもできる。
次に、図2に示した音楽演奏部20の発音制御部22及び音楽管理部23を説明する。発音制御部22は、データ生成部21によって生成された演奏情報(DT1)を演奏情報記憶部52から取り出し、演奏情報(DT1)を構成する単位演奏情報(DT1[i])に基づいた演奏命令を、iの順番に沿って(時系列に)、シンセサイザ110に出力する。即ち、iの順番に沿って、演奏イベント情報(ED1[i])に基づいて、チャンネル毎にそれぞれ割り当てられた楽器情報を保持しながら、その楽器の発音・消音を行う演奏命令を、演奏時間情報(ΔT1[i])のタイミングに、シンセサイザ110に出力する。その結果、シンセサイザ110から演奏情報(DT1)に基づいた合成音が出力されて、楽曲の演奏出力となる。
音楽演奏部20の音楽管理部23は、入力部104を制御して演奏に関する様々な入力情報(例えば、音楽情報、キャラクタに演奏させる楽器情報等)を入力させ、必要な情報をRAM23の入力情報記憶部51に記憶する。ここで、キャラクタに演奏させる楽器情とは、表示部120上に表示されている複数のキャラクタのそれぞれに演奏させる楽器を指定する情報であり、入力部104を介して入力されるユーザによって指定された情報のことである。例えば、ドラム、サックス及びトランペットを、キャラクタに演奏させる楽器に指定すると、指定された楽器の音が、入力された音楽情報の中から選択されて演奏される。あるいは、該音楽情報の中の異なる楽器の音を指定された楽器の音に変更して演奏される。尚、本明細書では、音楽管理部23が、特許請求の範囲に記載の記憶手段に対応する機能を備えている。
また、音楽管理部23は、データ生成部21及び発音制御部22の起動タイミングを制御するとともに、音楽情報の入力から該音楽情報の演奏出力までの、データ生成部21及び発音制御部22が実行する各処理の実行タイミングを制御する。
次に、図2に示したキャラクタ動作部30についての詳細説明をする。まず、キャラクタ動作部30で処理されるキャラクタの画像生成についての概略説明をする。図7は、キャラクタの画像生成を説明するための図である。図7に示すように、キャラクタの楽器演奏画像70は、複数の部分画像を合成して生成される。ここでは、2つの部分画像(1つの環境動作画像71と1つの演奏動作画像72)に分けられている場合を例に挙げて説明するが、部分画像の個数には制限は無く、キャラクタが演奏する環境情報に基づいた環境動作画像が1つ以上と、キャラクタの演奏の動作情報に基づいた演奏動作画像が1つ以上あれば良い。
楽器演奏画像70は、ドラムを叩きながら行進する状態を実現させるための複数枚の画像の中の1枚の画像を示したもので、片足を上げて片手のドラムスティックがドラムヘッドに当たった瞬間の画像である。ここで、キャラクタが演奏する環境情報とは、例えば、マーチングバンドのように行進をしながらキャラクタが楽器の演奏を行う環境や、オーケストラのように椅子に座りながらキャラクタが楽器の演奏を行う環境等を示す情報である。また、キャラクタの演奏の動作情報とは、例えば、キャラクタがドラムを演奏している状況やサックスを演奏している状況等を示す情報である。
図7に示すように、行進をする環境で片足を上げた瞬間の環境動作画像71と、ドラムを演奏する状況で片手のドラムスティックがドラムヘッドに当たった瞬間の演奏動作画像72と、を合成することによって、キャラクタ70が、片足を上げて片手のドラムスティックがドラムヘッドに当たった瞬間の画像(楽器演奏画像70)の情報を生成する。そして、所定の画像出力時間間隔(Δs)毎の画像(静止画像)である複数の楽器演奏画像70の情報を作成して、作成した複数の画像情報を連続して表示する表示信号として表示部120に出力することによって、キャラクタが楽器演奏をしている動作となって表示部120に表示される。ここで、所定の画像出力時間間隔(Δs)とは、複数の画像(静止画像)をΔsの時間間隔で連続して表示することにより、ユーザが動画として認識できる時間間隔である。
次に、図2に示したキャラクタ動作部30についての詳細を、図2、図7乃至図9を参照して説明する。図2に示すように、キャラクタ動作部30は、環境動作制御部31、演奏動作制御部32、動作合成部33及び動作管理部34を備えている。
環境動作制御部31は、キャラクタが演奏する環境情報に基づいて、予めRAM23の画像情報記憶部54に記憶されている各種の環境情報に合わせた複数の環境動作画像の情報(環境動作画像情報)を含んでなる環境動作画像情報群の中から、入力部104を介して入力されたキャラクタが演奏する環境情報に基づいた複数の環境動作画像情報を取り出す。そして、取り出した複数の環境動作画像情報を動作合成部33へ送る。
演奏動作制御部32は、データ生成部21によって生成された動作情報(DT2)を、RAM23の動作情報記憶部53から取り出す。そして、取り出した動作情報(DT2)を構成する単位動作情報(DT2[i])の動作イベント情報(ED2[i])に基づいて、予め画像情報記憶部54に記憶されている各種のキャラクタの演奏の動作情報に合わせた複数の演奏動作画像の情報(演奏動作画像情報)を含んでなる演奏動作画像情報群の中から、それぞれのキャラクタに応じた楽器の複数の演奏動作画像情報を取り出す。そして、取り出した複数の演奏動作画像情報を動作合成部33に送る。
尚、キャラクタの演奏動作は、現在の動作状態から楽器毎に予め設定されている基本位置状態に移行し、該基本位置状態から発音時動作状態に移行するような動作にする。図8は、演奏動作の状態移行を説明するための図である。図8に示すように、例えば、動作イベント情報(ED2[i])が「チャンネル0に割り当てられたキャラクタに、楽器(サックス)の音階がド、音量が50の演奏動作をさせる」である場合、まず、現在の動作状態(状態A0)から基本位置状態(状態A1)に移行する。尚、基本位置状態とは、予め設定された状態で、例えば、図8では、(状態A1)に示すようなキャラクタの指の位置となる状態を基本位置状態とする。次に、基本位置状態(状態A1)から発音時動作状態(状態A2)に移行する。このような動作の状態移行によって、キャラクタの演奏動作が行われる。
動作合成部33は、環境動作制御部31によって取り出された複数の環境動作画像情報と、演奏動作制御部32によって取り出された動作イベント情報(ED2[i])に基づいた複数の演奏動作画像情報とを合成して、複数の音楽演奏画像情報を生成する。そして、生成した複数の音楽演奏画像情報を連続して表示する該動作イベント情報(ED2[i])に対応する表示信号を、動作時間情報(ΔT2[i])のタイミングで表示部120に出力する。
動作管理部34は、入力部104を制御して演奏動作に関する様々な入力情報(例えば、キャラクタが演奏する環境情報、各キャラクタに対応づけた楽器の指定情報、ポジション変更情報等)を入力させ、必要な情報をRAM23の入力情報記憶部51に記憶する。
ここで、各キャラクタに対応づけた楽器の指定情報とは、表示部120上に表示されている複数のキャラクタのそれぞれに演奏させる楽器を指定する情報であり、入力部104を介して入力されるユーザによって指定される情報のことである。例えば、キャラクタAにドラムを持たせて演奏動作を行わせ、キャラクタBにサックスを持たせて演奏動作を行わせることを指定する情報である。尚、各キャラクタに対応づけた楽器の指定情報は、音楽演奏部20の音楽管理部23が管理している「キャラクタに演奏させる楽器情報」と関連づけて記憶される情報である。そのため、音楽管理部23と動作管理部34のどちらか一方で、各キャラクタに対応づけた楽器の指定情報とキャラクタに演奏させる楽器情報とを管理させるようにしても良い。
また、ポジション変更情報とは、キャラクタの表示画面上の位置を変更する情報であったり、特定の動作をキャラクタに行わせる情報であったりする。例えば、図9は、キャラクタの配置の変更を説明するための図である。ここで、図9は、キャラクタの配置を上方から観たとき配置を示している。例えば、入力部104を介して、「キャラクタBの位置を後方向に移動させる」位置変更の指示情報が入力された場合、(状態B1)に示すようにキャラクタA,B,Cが1列に並んで行進している状態から、(状態B2)に示すようなキャラクタBの位置が後ろにずれて、キャラクタA,B,Cが三角形の頂点の位置となるような配置状態に変更される。
また、特定の動作とは、キャラクタにジャンプをさせたり、回転をさせたりする動作のことで、予め設定されている動作のことである。また、特定の動作をキャラクタに行わせる情報とは、上述した複数の動作の中から、入力部104を介して選択された動作を、指定されたキャラクタに行わせる情報のことである。
尚、ポジション変更情報及び特定の動作をキャラクタに行わせる情報は、楽曲に対応づけて記憶され、同じ楽曲が再生されるときに再現されるようにする。また、ポジション変更や特定動作が入力された場合は、動作管理部34からの命令により、動作合成部33が、ポジション変更や特定動作に対応した画像を生成する。
動作管理部34は、更に、環境動作制御部31、演奏動作制御部32及び動作合成部33の起動タイミングを制御するとともに、各キャラクタの演奏動作を実現するための環境動作制御部31、演奏動作制御部32及び動作合成部33が実行する各処理の実行タイミングを制御する。
上述した本発明の一実施形態にかかるキャラクタ演奏画像生成装置10及び本発明の一実施形態にかかるキャラクタ演奏システム200により、音楽情報にあった楽器の演奏動作の画像情報を、予め作成しておく必要が無いため、ユーザ自身がネットワークからダウンロードした楽曲やユーザ自身が作曲した楽曲等の所望の音楽情報をコンピュータに入力するだけで、該コンピュータを用いて実現される仮想空間内の楽器を持った複数のキャラクタに、所望の音楽情報に合わせて、該キャラクタに持たせた楽器の演奏動作を実行させることができる。その結果、ユーザは、複数のキャラクタがそれぞれ楽器演奏を行なっているような画像を観ることができる。即ち、ユーザは所望の楽曲を聴覚からだけでなく視覚からも楽しむことができるため、より娯楽性の高いゲームソフトウェアを構築することができる。
次に、本発明の一実施形態にかかるキャラクタ演奏方法について説明する。
図10は、本発明の一実施形態にかかるキャラクタ演奏方法の各工程をコンピュータに実行させるプログラムの処理手順を示すフローチャート図の一例である。また、図11は、図10に示すS103の演奏処理手順を示すフローチャート図の一例である。また、図12は、図10に示すS105の動作表示処理手順を示すフローチャート図の一例である。ここでは、上述したキャラクタ演奏システム200によって実行されるキャラクタ演奏方法を例に挙げて説明する。
図10に示すように、キャラクタ演奏方法は、まず、入力部104を介して、音楽情報を入力(取得)し、RAM23の入力情報記憶部51に記憶(格納)する(ステップ101:S101)。「ステップxxx:Sxxx」を以降は、「Sxxx」だけで示す。
次に、入力部104を介して入力されたMIDI形式の音楽情報(DT0)を入力情報記憶部51から取り出し、取り出した音楽情報(DT0)に基づいて、複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報(DT1)と、該演奏情報(DT1)に同期してキャラクタが楽器演奏動作または歌唱動作を行っているように表示する動作情報(DT2)とを生成する。そして、生成した演奏情報(DT1)をRAM23の演奏情報記憶部52に記憶(格納)し、生成した動作情報(DT2)をRAM23の動作情報記憶部53に記憶(格納)する(S102)。
ここで、音楽情報(DT0)、演奏情報(DT1)及び動作情報(DT2)は、図3乃至図6を参照して説明した上述の音楽情報(DT0)、演奏情報(DT1)及び動作情報(DT2)と同じ情報である。また、音楽情報(DT0)、演奏情報(DT1)及び動作情報(DT2)は、それぞれ、複数(n個)の単位音楽情報(DT0[i])、複数(n個)の単位演奏情報(DT1[i])、及び、複数(n個)の単位動作情報(DT2[i])から構成されている。尚、単位音楽情報、単位演奏情報及び単位動作情報は、i(i=1〜n)によって識別されたイベントに関する情報である。
次に、S102によって生成された演奏情報(DT1)に基づいて、シンセサイザ110に演奏命令を出力する(S103)。次に、シンセサイザ110は、該演奏命令に基づいて、音の合成を行い、該合成音を出力する(S104)。
また、S102によって生成された動作情報(DT2)に基づいて、演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を生成し、生成した音楽演奏画像情報を連続して表示する表示信号を表示部120に出力する(S105)。次に、表示部120は、該表示信号に応じて、複数のキャラクタがそれぞれ楽器の演奏または歌唱をする動作の画像情報を表示する(S106)。
ここで、S103及びS104と、S105及びS106とは、S102によって生成された演奏情報(DT1)及び動作情報(DT2)に基づいて、並行処理されるステップである。
また、上述した本発明の一実施形態にかかるキャラクタ演奏方法の各工程のうち、S101,S102,S103及びS105が、本発明の一実施形態にかかるキャラクタ演奏画像生成方法の各工程に対応する。
次に、図10に示したS103の演奏処理を、図11を参照して説明する。図11に示すように、演奏処理(S103)は、まず、S102によって生成された演奏情報(DT1)を演奏情報記憶部52から取り出す(S201)。ここで、演奏情報(DT1)は、複数(n個)の単位演奏情報(DT1[i])から構成されている。
次に、演奏情報(DT1)を構成する単位演奏情報(DT1[i])に基づいた演奏命令を、iの順番に沿って(時系列に)、シンセサイザ110に出力する(S202)。即ち、iの順番に沿って、演奏イベント情報(ED1[i])に基づいて、チャンネル毎にそれぞれ割り当てられた楽器情報を保持しながら、その楽器の発音・消音を行う演奏命令を、演奏時間情報(ΔT1[i])のタイミングに、シンセサイザ110に出力する。このS202の処理は、i=1〜nまで行われる。その結果、シンセサイザ110から演奏情報(DT1)に基づいた合成音が出力されて、楽曲の演奏出力となる。
次に、図10に示したS105の動作表示処理を、図12を参照して説明する。図12に示すように、まず、予めRAM23の画像情報記憶部54に記憶されている各種の環境情報に合わせた複数の環境動作画像の情報(環境動作画像情報)を含んでなる環境動作画像情報群の中から、入力部104を介して入力されたキャラクタが演奏する環境情報に基づいた複数の環境動作画像情報を取り出す(S301)。次に、S301で取り出した複数の環境動作画像情報をS306へ送る(S302)。
次に、S102によって生成された動作情報(DT2)をRAM23の動作情報記憶部53から取り出す(S303)。次に、取り出した動作情報(DT2)を構成する単位動作情報(DT2[i])の動作イベント情報(ED2[i])に基づいて、予め画像情報記憶部54に記憶されている各種のキャラクタの演奏の動作情報に合わせた複数の演奏動作画像の情報(演奏動作画像情報)を含んでなる演奏動作画像情報群の中から、それぞれのキャラクタに応じた楽器の複数の演奏動作画像情報を取り出す(S304)。次に、取り出した複数の演奏動作画像情報をS306へ送る(S305)。
次に、S301で取り出された複数の環境動作画像情報と、S303で取り出された動作イベント情報(ED2[i])に基づいた複数の演奏動作画像情報とを合成して、複数の音楽演奏画像情報を生成する(S306)。次に、S306で生成した音楽演奏画像情報を連続して表示する該動作イベント情報(ED2[i])に対応する表示信号を、動作時間情報(ΔT2[i])のタイミングで表示部120に出力する(S307)。
上述した本発明の一実施形態にかかるキャラクタ演奏方法及び本発明の一実施形態にかかるキャラクタ演奏画像生成方法により、音楽情報にあった楽器の演奏動作の画像情報を、予め作成しておく必要が無いため、ユーザ自身がネットワークからダウンロードした楽曲やユーザ自身が作曲した楽曲等の所望の音楽情報をコンピュータに入力するだけで、該コンピュータを用いて実現される仮想空間内の楽器を持った複数のキャラクタに、所望の音楽情報に合わせて、該キャラクタに持たせた楽器の演奏動作を実行させることができる。その結果、ユーザは、仮想空間内で複数のキャラクタがそれぞれ楽器演奏を行なっているような画像を観ることができる。即ち、ユーザは所望の楽曲を聴覚からだけでなく視覚からも楽しむことができるため、より娯楽性の高いゲームソフトウェアを構築することができる。
次に、上述したキャラクタ演奏画像生成装置10及びキャラクタ演奏システム200とは別の本発明の一実施形態にかかるキャラクタ演奏画像生成装置310及び本発明の一実施形態にかかるキャラクタ演奏システム300について説明する。図13は、別の本発明の一実施形態にかかるキャラクタ演奏システム300におけるシステム構成の一例を示す図である。ここでは、キャラクタ演奏画像生成装置310を備えたキャラクタ演奏システム300を例に挙げて、キャラクタ演奏画像生成装置310及びキャラクタ演奏システム300を説明する。
図13に示すように、キャラクタ演奏システム300は、キャラクタ演奏画像生成装置310、シンセサイザ110、及び表示部120を備えている。
シンセサイザ110は、楽音合成出力部(音源)の一例であり、キャラクタ演奏画像生成装置10から入力した演奏命令に基づいて、合成部(図示無し)で音の合成を行い、出力部(図示無し)より、該合成音を出力する。また、表示部120は、キャラクタ演奏画像生成装置10から入力した表示信号に応じて、複数のキャラクタがそれぞれ楽器の演奏または歌唱をする動作の画像情報を表示する。
次に、本発明の一実施形態にかかるキャラクタ演奏画像生成装置であるキャラクタ演奏画像生成装置310について、詳細を説明する。
図13に示すように、キャラクタ演奏画像生成装置310は、音楽演奏部320及びキャラクタ動作部330を備えている。音楽演奏部320は、入力部104を介して入力されたMIDI形式の音楽情報(DT0)に基づいて、複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報(DT1)を生成し、該演奏情報(DT1)に基づいて、シンセサイザ110に演奏命令を出力する。
キャラクタ動作部330は、音楽演奏部320によって生成された演奏情報(DT1)に基づいて、演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を生成し、生成した音楽演奏画像情報を連続して表示する表示信号を表示部120に出力する。
次に、上述した音楽演奏部320についての詳細を説明する。図13に示すように、音楽演奏部320は、データ生成部321、発音制御部322及び音楽管理部323を備えている。
データ生成部321は、入力部104を介して入力されたMIDI形式の音楽情報(DT0)を入力情報記憶部51から取り出す。そして、取り出した音楽情報(DT0)に基づいて、複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報(DT1)を生成する。また、生成した演奏情報(DT1)をRAM23の演奏情報記憶部52に記憶(格納)する。以下の説明では、キャラクタが楽器の演奏または歌唱を行うことを、楽器の演奏をさせることを例に挙げて説明するが、楽器の演奏だけでなく歌唱を行うことも含める。
ここで、音楽情報(DT0)及び演奏情報(DT1)は、図3及び図4を参照して説明した上述の音楽情報(DT0)及び演奏情報(DT1)と同じ情報である。また、音楽情報(DT0)及び演奏情報(DT1)は、それぞれ、複数(n個)の単位音楽情報(DT0[i])及び複数(n個)の単位演奏情報(DT1[i])から構成されている。尚、単位音楽情報及び単位演奏情報は、i(i=1〜n)によって識別されたイベントに関する情報である。
発音制御部322は、データ生成部321によって生成された演奏情報(DT1)を演奏情報記憶部52から取り出し、演奏情報(DT1)を構成する単位演奏情報(DT1[i])に基づいた演奏命令を、iの順番に沿って(時系列に)、シンセサイザ110に出力する。即ち、iの順番に沿って、演奏イベント情報(ED1[i])に基づいて、チャンネル毎にそれぞれ割り当てられた楽器情報を保持しながら、その楽器の発音・消音を行う演奏命令を、演奏時間情報(ΔT1[i])のタイミングに、シンセサイザ110に出力する。
音楽管理部323は、入力部104を制御して演奏に関する様々な入力情報(例えば、音楽情報、キャラクタに演奏させる楽器情報等)を入力させ、必要な情報をRAM23の入力情報記憶部51に記憶する。また、音楽管理部323は、データ生成部321及び発音制御部322の起動タイミングを制御するとともに、音楽情報の入力から該音楽情報の演奏出力までの、データ生成部321及び発音制御部322が実行する各処理の実行タイミングを制御する。
次に、図13に示したキャラクタ動作部330についての詳細を説明する。図13に示すように、キャラクタ動作部330は、環境動作制御部331、演奏動作制御部332、動作合成部333及び動作管理部334を備えている。
環境動作制御部331は、キャラクタが演奏する環境情報に基づいて、予めRAM23の画像情報記憶部54に記憶されている各種の環境情報に合わせた複数の環境動作画像の情報(環境動作画像情報)を含んでなる環境動作画像情報群の中から、入力部104を介して入力されたキャラクタが演奏する環境情報に基づいた複数の環境動作画像情報を取り出す。そして、取り出した複数の環境動作画像情報を動作合成部333へ送る。
演奏動作制御部332は、データ生成部321によって生成された演奏情報(DT1)を、RAM23の演奏情報記憶部52から取り出す。そして、取り出した演奏情報(DT1)を構成する単位演奏情報(DT1[i])の演奏イベント情報(ED1[i])に基づいて、予め画像情報記憶部54に記憶されている各種のキャラクタの演奏の動作に合わせた複数の演奏動作画像の情報(演奏動作画像情報)を含んでなる演奏動作画像情報群の中から、それぞれのキャラクタに応じた楽器の複数の演奏動作画像情報を取り出す。そして、取り出した複数の演奏動作画像情報を動作合成部333に送る。
尚、キャラクタの演奏動作は、図8を参照して説明したように、現在の動作状態から楽器毎に予め設定されている基本位置状態に移行し、該基本位置状態から発音時動作状態に移行するような動作にする。
動作合成部333は、環境動作制御部331によって取り出された複数の環境動作画像情報と、演奏動作制御部332によって取り出された演奏イベント情報(ED1[i])に基づいた複数の演奏動作画像情報とを合成して、複数の音楽演奏画像情報を生成する。そして、生成した音楽演奏画像情報を連続して表示する該演奏イベント情報(ED1[i])に対応する表示信号を、演奏時間情報(ΔT1[i])のタイミングで表示部120に出力する。
動作管理部334は、入力部104を制御して演奏動作に関する様々な入力情報(例えば、キャラクタが演奏する環境情報、各キャラクタに対応づけた楽器の指定情報、ポジション変更情報等)を入力させ、必要な情報をRAM23の入力情報記憶部51に記憶する。また、動作管理部334は、環境動作制御部331、演奏動作制御部332及び動作合成部333の起動タイミングを制御するとともに、各キャラクタの演奏動作を実現するための環境動作制御部331、演奏動作制御部332及び動作合成部333が実行する各処理の実行タイミングを制御する。
上述した別の本発明の一実施形態にかかるキャラクタ演奏画像生成装置310及び本発明の一実施形態にかかるキャラクタ演奏システム300により、音楽情報にあった楽器の演奏動作の画像情報を、予め作成しておく必要が無いため、ユーザ自身がネットワークからダウンロードした楽曲やユーザ自身が作曲した楽曲等の所望の音楽情報をコンピュータに入力するだけで、該コンピュータを用いて実現される仮想空間内の楽器を持った複数のキャラクタに、所望の音楽情報に合わせて、該キャラクタに持たせた楽器の演奏動作を実行させることができる。その結果、ユーザは、複数のキャラクタがそれぞれ楽器演奏を行なっているような画像を観ることができる。即ち、ユーザは所望の楽曲を聴覚からだけでなく視覚からも楽しむことができるため、より娯楽性の高いゲームソフトウェアを構築することができる。
次に、図10乃至図12を参照して説明した上述のキャラクタ演奏方法及びキャラクタ演奏画像生成方法とは別の本発明の一実施形態にかかるキャラクタ演奏方法及びキャラクタ演奏画像生成方法について説明する。
図14は、別の本発明の一実施形態にかかるキャラクタ演奏方法の各工程をコンピュータに実行させるプログラムの処理手順を示すフローチャート図の一例である。また、図15は、図14に示すS505の動作表示処理手順を示すフローチャート図の一例である。ここでは、上述したキャラクタ演奏システム300によって実行されるキャラクタ演奏方法を例に挙げて説明する。
図14に示すように、キャラクタ演奏方法は、まず、入力部104を介して、音楽情報を入力(取得)し、RAM23の入力情報記憶部51に記憶(格納)する(ステップ501:S501)。「ステップxxx:Sxxx」を以降は、「Sxxx」だけで示す。
次に、入力部104を介して入力されたMIDI形式の音楽情報(DT0)を入力情報記憶部51から取り出し、取り出した音楽情報(DT0)に基づいて、複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報(DT1)を生成する。そして、生成した演奏情報(DT1)をRAM23の演奏情報記憶部52に記憶(格納)する(S502)。
ここで、音楽情報(DT0)及び演奏情報(DT1)は、図3及び図4を参照して説明した上述の音楽情報(DT0)及び演奏情報(DT1)と同じ情報である。また、音楽情報(DT0)及び演奏情報(DT1)は、それぞれ、複数(n個)の単位音楽情報(DT0[i])及び複数(n個)の単位演奏情報(DT1[i])から構成されている。尚、単位音楽情報及び単位演奏情報は、i(i=1〜n)によって識別されたイベントに関する情報である。
次に、S502によって生成された演奏情報(DT1)に基づいて、シンセサイザ110に演奏命令を出力する(S503)。尚、S503の処理は、上述したS103の処理と同じ処理である。次に、シンセサイザ110は、該演奏命令に基づいて、音の合成を行い、該合成音を出力する(S504)。
また、S502によって生成された演奏情報(DT1)に基づいて、演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を生成し、生成した音楽演奏画像情報を連続して表示する表示信号を表示部120に出力する(S505)。次に、表示部120は、該表示信号に応じて、複数のキャラクタがそれぞれ楽器の演奏または歌唱をする動作の画像情報を表示する(S506)。
ここで、S503及びS504と、S505及びS506とは、S502によって生成された演奏情報(DT1)に基づいて、並行処理されるステップである。
また、上述した本発明の一実施形態にかかるキャラクタ演奏方法の各工程のうち、S501,S502,S503及びS505が、別の本発明の一実施形態にかかるキャラクタ演奏画像生成方法の各工程に対応する。
次に、図14に示したS505の動作表示処理を、図15を参照して説明する。図15に示すように、まず、予めRAM23の画像情報記憶部54に記憶されている各種の環境情報に合わせた複数の環境動作画像の情報(環境動作画像情報)を含んでなる環境動作画像情報群の中から、入力部104を介して入力されたキャラクタが演奏する環境情報に基づいた複数の環境動作画像情報を取り出す(S601)。次に、S601で取り出した複数の環境動作画像情報をS606へ送る(S602)。
次に、S502によって生成された演奏情報(DT1)を演奏情報記憶部52から取り出す(S603)。次に、取り出した演奏情報(DT1)を構成する単位演奏情報(DT1[i])の演奏イベント情報(ED1[i])に基づいて、予め画像情報記憶部54に記憶されている各種のキャラクタの演奏の動作に合わせた複数の演奏動作画像の情報(演奏動作画像情報)を含んでなる演奏動作画像情報群の中から、それぞれのキャラクタに応じた楽器の複数の演奏動作画像情報を取り出す(S604)。次に、取り出した複数の演奏動作画像情報をS606へ送る(S605)。
次に、S601で取り出された複数の環境動作画像情報と、S603で取り出された演奏イベント情報(ED1[i])に基づいた複数の演奏動作画像情報とを合成して、複数の音楽演奏画像情報を生成する(S606)。次に、S606で生成した音楽演奏画像情報を連続して表示する該演奏イベント情報(ED1[i])に対応する表示信号を、演奏時間情報(ΔT1[i])のタイミングで表示部120に出力する(S607)。
上述した別の本発明の一実施形態にかかるキャラクタ演奏方法及び本発明の一実施形態にかかるキャラクタ演奏画像生成方法により、音楽情報にあった楽器の演奏動作の画像情報を、予め作成しておく必要が無いため、ユーザ自身がネットワークからダウンロードした楽曲やユーザ自身が作曲した楽曲等の所望の音楽情報をコンピュータに入力するだけで、該コンピュータを用いて実現される仮想空間内の楽器を持った複数のキャラクタに、所望の音楽情報に合わせて、該キャラクタに持たせた楽器の演奏動作を実行させることができる。その結果、ユーザは、仮想空間内で複数のキャラクタがそれぞれ楽器演奏を行なっているような画像を観ることができる。即ち、ユーザは所望の楽曲を聴覚からだけでなく視覚からも楽しむことができるため、より娯楽性の高いゲームソフトウェアを構築することができる。
10,310 : キャラクタ演奏画像生成装置
20,320 : 音楽演奏部
21,321 : データ生成部
22,322 : 発音制御部
23,323 : 音楽管理部
30,330 : キャラクタ動作部
31,331 : 環境動作制御部
32,332 : 演奏動作制御部
33,333 : 動作合成部
34,334 : 動作管理部
51 : 入力情報記憶部
52 : 演奏情報記憶部
53 : 動作情報記憶部
54 : 画像情報記憶部
200,300 : キャラクタ演奏システム
DT0 : 音楽情報
DT1 : 演奏情報
DT2 : 動作情報

Claims (24)

  1. コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報の中の複数の楽器の演奏または歌唱のいずれかの動作を表示するための画像情報を生成するキャラクタ演奏画像生成装置であって、
    入力された前記音楽情報を記憶する記憶手段と、
    前記記憶手段によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報と、該演奏情報に同期して前記キャラクタがそれぞれ楽器演奏動作または歌唱動作を行っているように表示する動作情報とを生成し、生成した前記演奏情報に基づいて、演奏命令を順次出力する音楽演奏手段と、
    前記音楽演奏手段によって生成された前記動作情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を出力するキャラクタ動作手段と、
    を備えていることを特徴とするキャラクタ演奏画像生成装置。
  2. 前記音楽演奏手段は、
    前記複数のキャラクタがそれぞれ演奏する各楽器または歌唱の演奏イベント情報と該演奏イベント情報に対応した前記演奏命令を出力するタイミングを示す演奏時間情報とを有した前記演奏情報を、前記音楽情報に基づいて生成し、前記演奏イベント情報に同期して前記キャラクタが楽器演奏動作または歌唱動作を行なっているように表示する動作イベント情報と該動作イベント情報に対応した前記表示信号を出力するタイミングを示す動作時間情報とを有した前記動作情報を、前記演奏情報に基づいて生成するデータ生成手段と、
    前記データ生成手段によって生成された前記演奏情報の前記演奏イベント情報に対応した前記演奏命令を、前記演奏イベント情報の前記演奏時間情報に従って、順次出力する発音制御手段と、
    を備え、
    前記キャラクタ動作手段は、前記データ生成手段によって生成された前記動作情報の前記動作イベント情報に基づいて前記音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する該動作イベント情報に対応した前記表示信号を、該動作イベント情報の前記動作時間情報に従って、順次出力することを特徴とする請求項1に記載のキャラクタ演奏画像生成装置。
  3. 前記データ生成手段は、前記楽器または歌唱のそれぞれの前記演奏イベント情報に基づいた前記発音制御手段からの前記演奏命令の出力によって発音される発音タイミングと、該演奏イベント情報に対応した前記動作イベント情報に基づいた前記キャラクタ動作手段からの前記表示信号の出力によって前記キャラクタの楽器演奏または歌唱の発音時動作が表示される発音時動作タイミングとが一致するように、前記演奏イベント情報の前記演奏時間情報と、該演奏イベント情報に対応した前記動作イベント情報の前記動作時間情報と、を生成することを特徴とする請求項2に記載のキャラクタ演奏画像生成装置。
  4. 前記データ生成手段は、
    所定の基準タイミングから前記演奏イベント情報に対応した前記演奏命令を出力するタイミングまでの時間を該演奏イベント情報の前記演奏時間情報として、すべての前記演奏イベント情報の前記演奏時間情報を算出し、算出した前記演奏イベント情報の前記演奏時間情報に基づいて、時系列にすべての前記演奏イベント情報に対応した前記演奏命令の出力を管理する前記演奏情報を生成し、
    前記所定の基準タイミングから前記動作イベント情報に対応した前記表示信号を出力するタイミングまでの時間を該動作イベント情報の前記動作間情報として、すべての前記動作イベント情報の前記動作時間情報を算出し、算出した前記動作イベント情報の前記動作時間情報に基づいて、時系列にすべての前記動作イベント情報に対応した前記表示信号の出力を管理する前記動作情報を生成し、
    前記動作時間情報の算出の際には、前記演奏イベント情報の前記演奏時間情報をΔT1とし、該演奏イベント情報に対応する前記動作イベント情報の前記動作時間情報をΔT2とし、該動作イベント情報に対応した前記キャラクタの演奏動作の動作開始から発音時動作までの時間を発音到達時間Δtとしたとき、
    前記動作時間情報ΔT2が、
    ΔT2=ΔT1−Δt
    を満たすように算出されることを特徴とする請求項3に記載のキャラクタ演奏画像生成装置。
  5. 前記キャラクタに楽器演奏動作または歌唱動作をさせる演奏環境状況に応じた前記キャラクタの複数の環境動作画像情報を含んでなる環境動作画像情報群と、前記キャラクタが楽器演奏動作または歌唱動作をするための複数の前記動作イベント情報に対応した前記キャラクタの複数の演奏動作画像情報を含んでなる演奏動作画像情報群と、が予め記憶されており、
    前記キャラクタ動作手段は、記憶された前記環境動作画像情報群の中から指定された演奏環境に基づいて取り出した複数の環境動作画像情報と、記憶された前記演奏動作画像情報群の中から前記動作情報の前記動作イベント情報に基づいて取り出した複数の演奏動作画像情報とを合成して複数の音楽演奏画像情報を生成し、生成した前記音楽演奏画像情報を連続して表示する前記表示信号を、該動作イベント情報の前記動作時間情報に従って、順次出力することを特徴とする請求項2乃至4のいずれか1項に記載のキャラクタ演奏画像生成装置。
  6. 前記音楽演奏画像情報を連続して表示される動画は、前記動作イベント情報に応じて、前記キャラクタの動作が、現在の動作状態から前記楽器毎に予め設定されている基本位置状態に移行し、該基本位置状態から発音時動作状態に移行する動画であることを特徴とする請求項2乃至5のいずれか1項に記載のキャラクタ演奏画像生成装置。
  7. 前記音楽情報は、MIDI形式のデータであることを特徴とする請求項1乃至6のいずれか1項に記載のキャラクタ演奏画像生成装置。
  8. コンピュータに入力させた音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報の中の複数の楽器の演奏または歌唱のいずれかの動作を表示するための画像情報を生成するキャラクタ演奏画像生成方法であって、
    (a)入力された前記音楽情報を記憶する工程と、
    (b)前記工程(a)によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報と、該演奏情報に同期して前記キャラクタがそれぞれ楽器演奏動作または歌唱動作を行っているように表示する動作情報とを生成し、生成した前記演奏情報に基づいて、演奏命令を順次出力する工程と、
    (c)前記工程(b)によって生成された前記動作情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を出力する工程と、
    を備え、
    前記工程(a)乃至(c)の各工程を実現する処理を前記コンピュータに実行させることを特徴とするキャラクタ演奏画像生成方法。
  9. 前記工程(b)は、
    (b1)前記複数のキャラクタがそれぞれ演奏する各楽器または歌唱の演奏イベント情報と該演奏イベント情報に対応した前記演奏命令を出力するタイミングを示す演奏時間情報とを有した前記演奏情報を、前記音楽情報に基づいて生成し、前記演奏イベント情報に同期して前記キャラクタが楽器演奏動作または歌唱動作を行なっているように表示する動作イベント情報と該動作イベント情報に対応した前記表示信号を出力するタイミングを示す動作時間情報とを有した前記動作情報を、前記演奏情報に基づいて生成する工程と、
    (b2)前記工程(b1)によって生成された前記演奏情報の前記演奏イベント情報に対応した前記演奏命令を、該演奏イベント情報の前記演奏時間情報に従って、順次出力する工程と、
    を備え、
    前記工程(c)は、前記工程(b1)によって生成された前記動作情報の前記動作イベント情報に基づいて前記音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する該動作イベント情報に対応した前記表示信号を、該動作イベント情報の前記動作時間情報に従って、順次出力することを特徴とする請求項8に記載のキャラクタ演奏画像生成方法。
  10. 前記工程(b1)は、前記楽器または歌唱のそれぞれの前記演奏イベント情報に基づいた前記工程(b2)の前記演奏命令の出力によって発音される発音タイミングと、該演奏イベント情報に対応した前記動作イベント情報に基づいた前記工程(c)の前記表示信号の出力によって前記キャラクタの楽器演奏または歌唱の発音時動作が表示される発音時動作タイミングとが一致するように、前記演奏イベント情報の前記演奏時間情報と、該演奏イベント情報に対応した前記動作イベント情報の前記動作時間情報と、を生成することを特徴とする請求項9に記載のキャラクタ演奏画像生成方法。
  11. 前記工程(b1)は、
    所定の基準タイミングから前記演奏イベント情報に対応した前記演奏命令を出力するタイミングまでの時間を該演奏イベント情報の前記演奏時間情報として、すべての前記演奏イベント情報の前記演奏時間情報を算出し、算出した前記演奏イベント情報の前記演奏時間情報に基づいて、時系列にすべての前記演奏イベント情報に対応した前記演奏命令の出力を管理する前記演奏情報を生成し、
    前記所定の基準タイミングから前記動作イベント情報に対応した前記表示信号を出力するタイミングまでの時間を該動作イベント情報の前記動作間情報として、すべての前記動作イベント情報の前記動作時間情報を算出し、算出した前記動作イベント情報の前記動作時間情報に基づいて、時系列にすべての前記動作イベント情報に対応した前記表示信号の出力を管理する前記動作情報を生成し、
    前記動作時間情報の算出の際には、前記演奏イベント情報の前記演奏時間情報をΔT1とし、該演奏イベント情報に対応する前記動作イベント情報の前記動作時間情報をΔT2とし、該動作イベント情報に対応した前記キャラクタの演奏動作の動作開始から発音時動作までの時間を発音到達時間Δtとしたとき、
    前記動作時間情報ΔT2が、
    ΔT2=ΔT1−Δt
    を満たすように算出されることを特徴とする請求項10に記載のキャラクタ演奏画像生成方法。
  12. 前記キャラクタに楽器演奏動作または歌唱動作をさせる演奏環境状況に応じた前記キャラクタの複数の環境動作画像情報を含んでなる環境動作画像情報群と、前記キャラクタが楽器演奏動作または歌唱動作をするための複数の前記動作イベント情報に対応した前記キャラクタの複数の演奏動作画像情報を含んでなる演奏動作画像情報群と、が予め記憶されており、
    前記工程(c)は、記憶された前記環境動作画像情報群の中から指定された演奏環境に基づいて取り出した複数の環境動作画像情報と、記憶された前記演奏動作画像情報群の中から前記動作情報の前記動作イベント情報に基づいて取り出した複数の演奏動作画像情報とを合成して複数の音楽演奏画像情報を生成し、生成した前記音楽演奏画像情報を連続して表示する前記表示信号を、該動作イベント情報の前記動作時間情報に従って、順次出力することを特徴とする請求項9乃至11のいずれか1項に記載のキャラクタ演奏画像生成方法。
  13. 前記音楽演奏画像情報を連続して表示される動画は、前記動作イベント情報に応じて、前記キャラクタの動作が、現在の動作状態から前記楽器毎に予め設定されている基本位置状態に移行し、該基本位置状態から発音時動作状態に移行する動画であることを特徴とする請求項9乃至12のいずれか1項に記載のキャラクタ演奏画像生成方法。
  14. 前記音楽情報は、MIDI形式のデータであることを特徴とする請求項8乃至13のいずれか1項に記載のキャラクタ演奏画像生成方法。
  15. コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報中の複数の楽器の演奏または歌唱のいずれかの動作を表示するキャラクタ演奏システムであって、
    表示信号に応じて画像情報を表示する表示部と、
    合成部及び出力部を備え、演奏命令に基づいて、音を合成して合成音を出力する楽音合成出力部と、
    入力された音楽情報を記憶する記憶手段と、
    前記記憶手段によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報と、該演奏情報に同期して前記キャラクタがそれぞれ楽器演奏動作または歌唱動作を行っているように表示する動作情報とを生成し、生成した前記演奏情報に基づいて、前記楽音合成出力部に演奏命令を順次出力する音楽演奏手段と、
    前記音楽演奏手段によって生成された前記動作情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を、前記表示部に出力するキャラクタ動作手段と、
    を備えていることを特徴とするキャラクタ演奏システム。
  16. コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報中の複数の楽器の演奏または歌唱のいずれかの動作を表示するキャラクタ演奏方法であって、
    (a)入力された前記音楽情報を記憶する工程と、
    (b)前記工程(a)によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報と、該演奏情報に同期して前記キャラクタがそれぞれ楽器演奏動作または歌唱動作を行っているように表示する動作情報とを生成し、生成した前記演奏情報に基づいて、音を合成して合成音を出力する楽音合成出力部に、演奏命令を順次出力する工程と、
    (c)前記工程(b)によって生成された前記動作情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、表示信号に応じて画像情報を表示する表示部に、前記生成した音楽演奏画像情報を連続して表示する表示信号を出力する工程と、
    (d)前記工程(b)によって出力された前記演奏命令に基づいて、前記楽音合成出力部に音を合成して合成音を出力させる工程と、
    (e)前記工程(c)によって出力された前記表示信号に応じて画像情報を、前記表示部に表示させる工程と、
    を備え、
    前記工程(a)乃至(e)の各工程を実現する処理を前記コンピュータに実行させることを特徴とするキャラクタ演奏方法。
  17. コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報の中の複数の楽器の演奏または歌唱のいずれかの動作を表示するための画像情報を生成するキャラクタ演奏画像生成装置であって、
    入力された前記音楽情報を記憶する記憶手段と、
    前記記憶手段によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報を生成し、生成した前記演奏情報に基づいて、演奏命令を順次出力する音楽演奏手段と、
    前記音楽演奏手段によって生成された前記演奏情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を出力するキャラクタ動作手段と、
    を備えていることを特徴とするキャラクタ演奏画像生成装置。
  18. 前記音楽演奏手段は、
    前記複数のキャラクタがそれぞれ演奏する各楽器または歌唱の演奏イベント情報と該演奏イベント情報に対応した前記演奏命令を出力するタイミングを示す演奏時間情報とを有した前記演奏情報を、前記音楽情報に基づいて生成するデータ生成手段と、
    前記データ生成手段によって生成された前記演奏情報の前記演奏イベント情報に対応した前記演奏命令を、前記演奏イベント情報の前記演奏時間情報に従って、順次出力する発音制御手段と、
    を備え、
    前記キャラクタ動作手段は、前記データ生成手段によって生成された前記演奏情報の前記演奏イベント情報に基づいて、該演奏イベント情報に対応した楽器演奏動作または歌唱動作をキャラクタが行なっているように表示させるための前記音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する前記表示信号を、該演奏イベント情報の前記演奏時間情報に従って、順次出力することを特徴とする請求項17に記載のキャラクタ演奏画像生成装置。
  19. 前記キャラクタに楽器演奏動作または歌唱動作をさせる演奏環境状況に応じた前記キャラクタの複数の環境動作画像情報を含んでなる環境動作画像情報群と、前記キャラクタが楽器演奏動作または歌唱動作をするための複数の前記演奏イベント情報に対応した前記キャラクタの複数の演奏動作画像情報を含んでなる演奏動作画像情報群と、が予め記憶されており、
    前記キャラクタ動作手段は、記憶された前記環境動作画像情報群の中から指定された演奏環境に基づいて取り出した複数の環境動作画像情報と、記憶された前記演奏動作画像情報群の中から前記演奏情報の前記演奏イベント情報に基づいて取り出した複数の演奏動作画像情報とを合成して複数の音楽演奏画像情報を生成し、生成した前記音楽演奏画像情報を連続して表示する前記表示信号を、該演奏イベント情報の前記演奏時間情報に従って、順次出力することを特徴とする請求項18に記載のキャラクタ演奏画像生成装置。
  20. コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報の中の複数の楽器の演奏または歌唱のいずれかの動作を表示するための画像情報を生成するキャラクタ演奏画像生成方法であって、
    (a)入力された前記音楽情報を記憶する工程と、
    (b)前記工程(a)によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報を生成し、生成した前記演奏情報に基づいて、演奏命令を順次出力する工程と、
    (c)前記工程(b)によって生成された前記演奏情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を出力する工程と、
    を備え、
    前記工程(a)乃至(c)の各工程を実現する処理を前記コンピュータに実行させることを特徴とするキャラクタ演奏画像生成方法。
  21. 前記工程(b)は、
    (b1)前記複数のキャラクタがそれぞれ演奏する各楽器または歌唱の演奏イベント情報と該演奏イベント情報に対応した前記演奏命令を出力するタイミングを示す演奏時間情報とを有した前記演奏情報を、前記音楽情報に基づいて生成する工程と、
    (b2)前記工程(b1)によって生成された前記演奏情報の前記演奏イベント情報に対応した前記演奏命令を、前記演奏イベント情報の前記演奏時間情報に従って、順次出力する工程と、
    を備え、
    前記工程(c)は、前記工程(b1)によって生成された前記演奏情報の前記演奏イベント情報に基づいて、該演奏イベント情報に対応した楽器演奏動作または歌唱動作をキャラクタが行なっているように表示させるための前記音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する前記表示信号を、該演奏イベント情報の前記演奏時間情報に従って、順次出力することを特徴とする請求項20に記載のキャラクタ演奏画像生成方法。
  22. 前記キャラクタに楽器演奏動作または歌唱動作をさせる演奏環境状況に応じた前記キャラクタの複数の環境動作画像情報を含んでなる環境動作画像情報群と、前記キャラクタが楽器演奏動作または歌唱動作をするための複数の前記演奏イベント情報に対応した前記キャラクタの複数の演奏動作画像情報を含んでなる演奏動作画像情報群と、が予め記憶されており、
    前記工程(c)は、記憶された前記環境動作画像情報群の中から指定された演奏環境に基づいて取り出した複数の環境動作画像情報と、記憶された前記演奏動作画像情報群の中から前記演奏情報の前記演奏イベント情報に基づいて取り出した複数の演奏動作画像情報とを合成して複数の音楽演奏画像情報を生成し、生成した前記音楽演奏画像情報を連続して表示する前記表示信号を、該演奏イベント情報の前記演奏時間情報に従って、順次出力することを特徴とする請求項21に記載のキャラクタ演奏画像生成方法。
  23. コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報中の複数の楽器の演奏または歌唱のいずれかの動作を表示するキャラクタ演奏システムであって、
    表示信号に応じて画像情報を表示する表示部と、
    合成部及び出力部を備え、演奏命令に基づいて、音を合成して合成音を出力する楽音合成出力部と、
    入力された前記音楽情報を記憶する記憶手段と、
    前記記憶手段によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報を生成し、生成した前記演奏情報に基づいて、前記楽音合成出力部に演奏命令を順次出力する音楽演奏手段と、
    前記音楽演奏手段によって生成された前記演奏情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を、前記表示部に出力するキャラクタ動作手段と、
    を備えていることを特徴とするキャラクタ演奏画像生成装置。
  24. コンピュータに入力された音楽情報の出力タイミングに合わせて、複数のキャラクタが、前記音楽情報中の複数の楽器の演奏または歌唱のいずれかの動作を表示するキャラクタ演奏方法であって、
    (a)入力された前記音楽情報を記憶する工程と、
    (b)前記工程(a)によって記憶された前記音楽情報から、前記複数のキャラクタの動作を同期させる楽器の演奏または歌唱を含んでなる演奏情報を生成し、生成した前記演奏情報に基づいて、演奏命令を順次出力する工程と、
    (c)前記工程(b)によって生成された前記演奏情報に基づいて、前記演奏命令に同期してキャラクタが楽器演奏動作または歌唱動作を行なっているように表示させるための音楽演奏画像情報を順次生成し、前記生成した音楽演奏画像情報を連続して表示する表示信号を出力する工程と、
    (d)前記工程(b)によって出力された前記演奏命令に基づいて、前記楽音合成出力部に音を合成して合成音を出力させる工程と、
    (e)前記工程(c)によって出力された前記表示信号に応じて画像情報を、前記表示部に表示させる工程と、
    を備え、
    前記工程(a)乃至(e)の各工程を実現する処理を前記コンピュータに実行させることを特徴とするキャラクタ演奏方法。
JP2014010079A 2014-01-23 2014-01-23 キャラクタ演奏画像生成装置、キャラクタ演奏画像生成方法、キャラクタ演奏システム及びキャラクタ演奏方法 Pending JP2015138160A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014010079A JP2015138160A (ja) 2014-01-23 2014-01-23 キャラクタ演奏画像生成装置、キャラクタ演奏画像生成方法、キャラクタ演奏システム及びキャラクタ演奏方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014010079A JP2015138160A (ja) 2014-01-23 2014-01-23 キャラクタ演奏画像生成装置、キャラクタ演奏画像生成方法、キャラクタ演奏システム及びキャラクタ演奏方法

Publications (1)

Publication Number Publication Date
JP2015138160A true JP2015138160A (ja) 2015-07-30

Family

ID=53769186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014010079A Pending JP2015138160A (ja) 2014-01-23 2014-01-23 キャラクタ演奏画像生成装置、キャラクタ演奏画像生成方法、キャラクタ演奏システム及びキャラクタ演奏方法

Country Status (1)

Country Link
JP (1) JP2015138160A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200365126A1 (en) * 2018-02-06 2020-11-19 Yamaha Corporation Information processing method
CN113796091A (zh) * 2019-09-19 2021-12-14 聚好看科技股份有限公司 一种演唱界面的显示方法、显示设备及服务器

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200365126A1 (en) * 2018-02-06 2020-11-19 Yamaha Corporation Information processing method
US11557269B2 (en) * 2018-02-06 2023-01-17 Yamaha Corporation Information processing method
CN113796091A (zh) * 2019-09-19 2021-12-14 聚好看科技股份有限公司 一种演唱界面的显示方法、显示设备及服务器
CN113796091B (zh) * 2019-09-19 2023-10-24 聚好看科技股份有限公司 一种演唱界面的显示方法及显示设备

Similar Documents

Publication Publication Date Title
JP6344578B2 (ja) 電子楽器を演奏する方法
JP6465136B2 (ja) 電子楽器、方法、及びプログラム
JP2014010190A (ja) 歌唱合成を行うための装置およびプログラム
JP6665446B2 (ja) 情報処理装置、プログラム及び音声合成方法
JP2003509729A (ja) ディジタル音楽ファイルに基づいて楽器を演奏するための方法及び装置
JPH11339060A (ja) 楽音および画像生成装置
JP6457326B2 (ja) 歌唱音声の伝送遅延に対応したカラオケシステム
JP4917446B2 (ja) 画像生成装置、画像生成プログラム、データ補間装置、およびデータ補間プログラム
US7504572B2 (en) Sound generating method
JP2008286946A (ja) データ再生装置、データ再生方法およびプログラム
JP4561636B2 (ja) 楽音合成装置及びプログラム
JP2007093820A (ja) 合奏システム
JP5228315B2 (ja) 自動伴奏生成装置および自動伴奏生成方法を実現するためのプログラム
JP2015138160A (ja) キャラクタ演奏画像生成装置、キャラクタ演奏画像生成方法、キャラクタ演奏システム及びキャラクタ演奏方法
JP2013068657A (ja) 画像生成装置、画像生成方法及びそのプログラム、並びに演奏支援装置、演奏支援方法及びプログラム
JP6520162B2 (ja) 伴奏教習装置および伴奏教習プログラム
JP6154597B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP4968109B2 (ja) オーディオデータ変換再生システム、オーディオデータ変換装置、オーディオデータ再生装置
JP5969421B2 (ja) 楽器音出力装置及び楽器音出力プログラム
JP2006126710A (ja) 奏法決定装置及びプログラム
JP5397637B2 (ja) カラオケ装置
JP6582517B2 (ja) 制御装置およびプログラム
US20230274722A1 (en) Signal processing device, signal processing system, and signal processing method
JP7008560B2 (ja) 運指表示装置及び運指表示プログラム
JP4161714B2 (ja) カラオケ装置