JP2007264026A - 演奏装置 - Google Patents

演奏装置 Download PDF

Info

Publication number
JP2007264026A
JP2007264026A JP2006085157A JP2006085157A JP2007264026A JP 2007264026 A JP2007264026 A JP 2007264026A JP 2006085157 A JP2006085157 A JP 2006085157A JP 2006085157 A JP2006085157 A JP 2006085157A JP 2007264026 A JP2007264026 A JP 2007264026A
Authority
JP
Japan
Prior art keywords
user
performance
posture
musical instrument
musical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006085157A
Other languages
English (en)
Other versions
JP4665811B2 (ja
Inventor
Osamu Oshima
治 大島
Kenichi Nishida
賢一 西田
Yoshinari Nakamura
吉就 中村
Shinya Sakurada
信弥 櫻田
Atsushi Fukada
敦史 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006085157A priority Critical patent/JP4665811B2/ja
Publication of JP2007264026A publication Critical patent/JP2007264026A/ja
Application granted granted Critical
Publication of JP4665811B2 publication Critical patent/JP4665811B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 実際の楽器がなくてもその演奏を体験することができる演奏装置を提供する。
【解決手段】 演奏装置は、ユーザの姿勢を取得する姿勢取得手段と、前記取得した姿勢に基づき、前記ユーザの身体に対して、物理的圧力を加えることにより、前記ユーザに対して触感を付与する触感付与手段と、前記取得した姿勢に基づき、前記ユーザの視界に表示を行う表示手段と、前記取得した姿勢に基づき、楽音を生成する楽音生成手段とを有する。
【選択図】 図3

Description

本発明は、演奏装置に関する。
楽器演奏を楽しむ場合、当然、その楽器本体が必要であり、複数種類の楽器演奏を体験してみたい場合は、それぞれの種類の楽器本体を用意する必要がある。
全ての楽器を用意することは、個人ユーザには非現実的であるので、例えば、鍵盤を有する電子楽器等では、さまざまな楽器の音色を用意している。また例えば、動画等を利用した仮想楽器演奏システムがある。このような仮想楽器演奏システムでは、例えば、ビデオカメラで撮影したユーザの映像を仮想楽器の映像と合成して画面に表示するとともに、ユーザの動作を検出して該検出した動きにあわせて楽音を生成するものがある。(例えば特許文献1参照)
特開2001-041038号公報
通常の多音色を備えた電子楽器では、さまざまな楽器の音色を楽しむことはできるが、自然楽器の演奏方法等を体験することはできない。
また、上述したような従来の仮想楽器演奏システムでは、視覚的には仮想楽器の演奏を楽しめたが、画面小で仮想的に演奏を体験するだけなので、楽器の形態や触感等の実際の自然楽器を演奏する感覚を得ることはできない。
本発明の目的は、実際の楽器がなくてもその演奏を体験することができる演奏装置を提供することである。
また、本発明の他の目的は、さまざまな種類の自然楽器の演奏を簡単に体験できる演奏装置を提供することである。
本発明の一観点によれば、演奏装置は、ユーザの姿勢を取得する姿勢取得手段と、前記取得した姿勢に基づき、前記ユーザの身体に対して、物理的圧力を加えることにより、前記ユーザに対して触感を付与する触感付与手段と、前記取得した姿勢に基づき、前記ユーザの視界に表示を行う表示手段と、前記取得した姿勢に基づき、楽音を生成する楽音生成手段とを有する。
本発明によれば、実際の楽器がなくてもその演奏を体験することができる演奏装置を提供することができる。
また、本発明によれば、さまざまな種類の自然楽器の演奏を簡単に体験できる演奏装置を提供することができる。
図1は、本発明の実施例による演奏装置1のハードウェア構成を表すブロック図である。
演奏装置1のバス6には、RAM7、ROM8、CPU9、外部記憶装置15、検出回路11、表示回路13、MIDIインターフェイス16、音源回路18、効果回路19、通信インターフェイス(I/F)21、客観カメラ30、(ユーザ)視点カメラ35、センサインターフェイス31、駆動制御回路41が接続される。
RAM7は、バッファ領域、フラグ、レジスタ、各種パラメータ等を記憶するCPU9のワーキングエリアを有する。
ROM8には、各種パラメータ及び制御プログラム、又は本実施例を実現するためのプログラム等を記憶することができる。この場合、プログラム等を重ねて、外部記憶装置15に記憶する必要は無い。
CPU9は、ROM8又は、外部記憶装置15に記憶されている制御プログラム等に従い、演算又は制御を行う。タイマ10は、CPU9に接続されており、基本クロック信号、割り込み処理タイミング等をCPU9に供給する。
ユーザは、検出回路11に接続される設定操作子12を用いて、各種入力及び設定、選択をすることができる。設定操作子12は、例えば、文字入力用キーボード、マウス、スイッチ、パッド、フェーダ、スライダ、ロータリーエンコーダ、ジョイスティック、ジョグシャトル等、ユーザの入力に応じた信号を出力できるものならどのようなものでもよい。また、設定操作子12は、マウス等の他の操作子を用いて操作するディスプレイ14上に表示されるソフトスイッチ等でもよい。
表示回路13は、ディスプレイ14に接続され、各種情報をディスプレイ14に表示することができる。ユーザは、このディスプレイ14に表示される情報を参照して、各種入力及び設定を行う。また、ディスプレイ14は、外部の表示装置を接続することにより構成してもよい。
外部記憶装置15には、図3に示す演奏データMD、楽器演奏姿勢データベース(DB)151、楽器演奏操作データベース(DB)152、映像データベース(DB)153が記憶されている。外部記憶装置15は、外部記憶装置用のインターフェイスを含み、そのインターフェイスを介してバス6に接続される。外部記憶装置15は、例えばフレキシブルディスク又はフロッピー(登録商標)ディスクドライブ(FDD)、ハードディスクドライブ(HDD)、光磁気ディスク(MO)ドライブ、CD−ROM(コンパクトディスク−リードオンリィメモリ)ドライブ、DVD(Digital Versatile Disc)ドライブ、半導体メモリ等である。
外部記憶装置15として、ハードディスクドライブ(HDD)が接続されている場合には、制御プログラム又は本実施例を実現するためのプログラム等は、外部記憶装置15内のハードディスク(HDD)に記憶させることもできる。ハードディスクからRAM7に制御プログラム等を読み出すことにより、ROM8に制御プログラム等を記憶させている場合と同様の動作をCPU9にさせることができる。このようにすると、制御プログラム等の追加やバージョンアップ等が容易に行える。
また、ハードディスクドライブに加えて、CD−ROMドライブが接続されている場合には、制御プログラム又は本実施例を実現するためのプログラム等をCD−ROMに記憶させることもできる。CD−ROMからハードディスクに制御プログラムや本実施例を実現するためのプログラム等をコピーすることができる。制御プログラム等の新規インストールやバージョンアップを容易に行うことができる。
MIDIインターフェイス(MIDI I/F)16は、MIDI機器17、その他の楽器、音響機器、コンピュータ等に接続できるものであり、少なくともMIDI信号を送受信できるものである。MIDIインターフェイス16は、専用のMIDIインターフェイスに限らず、RS−232C、IEEE1394(アイトリプルイー1394)等の汎用のインターフェイスを用いて構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。なお、USBインターフェイス30をMIDIインターフェイス16として用いても良い。
MIDI機器17は、MIDIインターフェイス16に接続される音響機器及び楽器等である。MIDI機器17の形態は鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の形態でもよい。また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信方法用いて各装置を接続するものであってもよい。
音源回路18は、外部記憶装置15、ROM8又はRAM7等に記録された伴奏パターンデータ、演奏データ若しくは演奏操作子22又はMIDIインターフェイス16に接続されたMIDI機器17等から供給される演奏信号、MIDI信号等に応じて楽音信号を生成し、効果回路19を介して、サウンドシステム20に供給する。
効果回路19は、音源回路18から供給される楽音信号に対して、各種音楽的効果を付与する。サウンドシステム20は、D/A変換器及びスピーカを含み、供給されるデジタル形式の楽音信号をアナログ形式に変換し、発音する。
通信インターフェイス21は、LAN(ローカルエリアネットワーク)及びインターネット等の通信ネットワーク3に接続可能であり、該通信ネットワーク3を介して、サーバ2及び他の電子楽器と相互に接続可能である。
なお、通信インターフェイス21及び通信ネットワーク3は、有線のものに限らず無線でもよい。また双方を備えていてもよい。また、通信インターフェイス21は、内蔵のものでも良いし、PCカード等の着脱可能なものでも良い。
客観カメラ30は、ユーザの姿勢や動作を取得(撮影)するための動画撮影用の撮像装置である。なお、本明細書において「姿勢」とは、ユーザの身体全体の構えのみならず手指の構えも含む。
視点カメラ35は、ユーザの視点から見た映像を取得(撮影)するための動画撮影用の撮像装置である。視点カメラ35は、ディスプレイ(HMD)14に表示される仮想空間と実空間との位置合わせを行うために、客観カメラ30により映像とあわせて用いるための映像を取得する。
センサI/F31は、複数のセンサ32を接続するためのインターフェイスである。センサ32は、ユーザの身体に装着して、ユーザの姿勢や動作を取得(検出)するためのセンサ群であり、例えば、圧力センサ、加速度センサ、位置センサ、方向センサ等のいずれか又は全部の組み合わせからなる。
駆動制御回路41は、CPU9からの指示を受けて、複数の駆動部42を制御する。駆動部(触感付与装置)42は、ユーザの身体に対して、圧力等を加えることにより触感を与えるアクチュエータ及び、ユーザの関節等の可動部分に対して、強制力を加えてユーザの身体の動きを制限し、又はユーザに特定の動作を強制するためのハプティック機能を有する装置である。また、触感の一つとして熱を与えるもの(加熱及び冷却を含む)を駆動部42として追加しても良い。
例えば、ユーザが仮想楽器の演奏操作子を操作する場合に、演奏操作子に触れたと判断される空間座標にユーザの指が位置する場合は、当該ユーザの指に対して圧力を加えることにより、楽器への触感を与え、当該操作子を押下する場合には、徐々に圧力を高めると共に、ユーザの指の動きを制限することにより、操作子の重みを体感させる。また、演奏操作子を限界まで押下したときは、それ以上のユーザの動きを制限する。また、仮想楽器の筐体に対しては、ユーザの動きを強制的に停止させる。
なお、ユーザの動作の制限及び動作の強制は、例えば、2本以上のワイヤを用いて、1本を関節の内側、他方を関節の外側に配置し、それらを緊張及び弛緩させることにより行う。
図2は、本発明の実施例による姿勢取得装置33及び触感付与装置42の使用例を表す概略図である。
それぞれのセンサ32及び駆動部42は、共に図に示すように、ユーザの身体の関節部に対応して、当該関節部及びその周辺を覆うように装着される。なお、センサ32は、一つの関節に対応して、複数種類のセンサが設けられているものとする。また、駆動部42も、一つの関節に対応して、圧力を与えるもの、及び、動作を制限・強制するものが配置される。また、圧力や熱を加える駆動部42は、関節及びその周辺に限らず、ユーザが仮想楽器に触れると考えられる身体部位に装着されることが好ましく、特に指先に装着することが好ましい。
また、ユーザの手には、多数のセンサ32及び駆動部42を装着することが必要であることから、本実施例では、多数のセンサ32及び駆動部42を備えるグローブ(手袋)状のアタッチメント43を装着している。
客観カメラ30は、ユーザの上半身又は、全身を撮影可能な場所に設置される。なお、カメラ30で撮影した映像を元にユーザの姿勢を判別することを容易にするために、例えば、ユーザの各関節部に識別装置を取り付けるようにしても良い。
HMD(ヘッドマウントディスプレイ)14は、ユーザの視界に装着される表示装置であり、仮想楽器及びそれを操作するユーザの身体を含む仮想空間が合成されて表示される。HMD14には、例えば、図2(B)に示すような自然楽器(この例では、トランペット)の画像や、自然楽器に限らず、図2(C)に示すような電子楽器の画像が表示される。また、背景もあわせて表示するようにしてもよい。その場合、背景は、カメラ30又はカメラ35で撮影した実際の背景でも良いし、その他の場所の映像でも良い。
また、HMD14で表示される映像をユーザの視線に応じて切り替えるために、HMD14にセンサ32(例えば、方向センサ、位置センサ)を取り付けることが好ましい。なお、図2(A)では、トランペットの画像のみを例としてあげたが、HMD14に表示される自然楽器は、ホルン、トロンボーン、クラリネット、フルート、サックス等の管楽器、バイオリン、チェロ、ギター、マンドリン等の弦楽器、ピアノ、オルガン、ハープシコード等の鍵盤楽器(打弦楽器を含む)、ドラムセット、ラテンパーカッション等の打楽器等、どのようなものでもよい。
さらに、HMD14で表示される仮想空間の映像と、実空間の位置あわせの精度を高めるために、ユーザの視点からの映像を撮影する視点カメラ35をHMD14に取り付けることが好ましい。
ヘッドホン20は、ユーザが仮想楽器を演奏した場合の楽音を発音するためのサウンドシステムである。なお、このヘッドホン20から発音される楽音に対して、HRTF(頭部伝達関数)理論を応用した音響効果を施すことにより、仮想楽器の位置やユーザの向いている方向等にあわせて楽音を変化させることが好ましい。
なお、姿勢取得装置33及び触感付与装置42は、この図2での装着例に限らず、ユーザの姿勢や動作を取得でき、また、ユーザに対して触感を付与したり動作を制限・強制したりできる形態であれば、どのようなものでも良い。また、図2の例では、上半身のみを示したが、全身に適用しても良い。さらに、グローブ状のアタッチメント43のみを装着する等、一部の装置を組み合わせて装着するようにしてもよい。
図3は、本発明の実施例による演奏装置1の機能ブロック図である。
外部記憶装置15には、複数の演奏データMD、楽器演奏姿勢データベース(DB)151、楽器演奏操作データベース(DB)152、映像データベース(DB)153が記憶されている。
演奏データMDは、例えば、SMF形式のMIDIデータ等の自動演奏データである。
楽器演奏姿勢データベース(DB)151は、各種楽器を演奏する際の演奏者の姿勢(楽器演奏姿勢データ)を記憶するデータベースである。楽器演奏姿勢データは、カメラ30からのユーザの姿勢を撮影した映像と比較して、ユーザが演奏しようとしている楽器種類を判別するためのデータであり、各楽器種類ごとの一般的な演奏姿勢を、カメラ30からの映像と比較可能な形態で記憶したデータである。例えば、各種楽器の演奏者による一般的な演奏姿勢(バイオリンを弾く姿勢、トランペットを吹く姿勢等)を比較演奏姿勢映像として記憶している。また、各種楽器の演奏を行う場合に想定されるセンサ群32のセンサ出力値を記憶するようにしてもよい。
楽器演奏操作データベース(DB)152は、楽器演奏姿勢データベース(DB)151に記憶されている楽器種類に対応して、各楽器の演奏操作時の演奏者の姿勢(楽器演奏操作データ)を複数記憶するデータベースである。楽器演奏操作データは、センサ群32からのセンサ出力及びカメラ30からのユーザの演奏操作映像とを比較して、ユーザの意図する演奏操作を検出すると共に、後述する自動演奏モード時に、駆動部42に対して、ユーザが理想的な演奏操作姿勢をとるように制御するためのデータである。例えば、所定の楽器に対する所定の演奏操作を行った場合に想定されるセンサ群32のセンサ出力値を記憶すると共に、当該演奏操作を行った場合の一般的な演奏者の姿勢を映像として記憶する。
映像データベース(DB)153は、HMD14に表示するための各種映像を記憶するデータベースである。このデータベースに記憶する映像には少なくとも、楽器演奏姿勢データベース(DB)151、楽器演奏操作データベース(DB)152に記憶される楽器種類と同一の楽器の様々な角度からの実際の映像又はコンピューターグラフィック映像を含む。また、楽器映像と合成して表示するための演奏者の身体(特に手指)の映像を記憶することもできる。さらに、背景となる映像も記憶することができる。なお、一つの楽器種類について一つの楽器に関する映像を記憶しても良いし、複数の楽器の映像を記憶するようにしてもよい。また、実際に存在する楽器に限らず、現存しない古い楽器や架空の楽器の映像を記憶するようにしても良い。その場合には、当該楽器に関するデータを楽器演奏姿勢データベース(DB)151、楽器演奏操作データベース(DB)にも記憶する必要がある。
姿勢照合部92は、カメラ30で撮影されるユーザの姿勢映像を取得して、該取得した映像と一致もしくは近似する楽器演奏姿勢データが楽器演奏姿勢データベース(DB)151内に記憶されているか否かを判断する。
楽器種類決定部91は、姿勢照合部92での照合(判断)結果に基づき、楽器種類を特定する。例えば、姿勢照合部92において、取得した映像と一致もしくは近似するデータがある場合は、当該データと同一の楽器を演奏するものとして、ユーザの演奏しようとしている楽器を特定して、姿勢検出部90に楽器種類を指示する。また、同時に楽音生成部180で生成する楽音の音色を決定すると共に、映像生成部130で用いる楽器映像の種類を特定する。なお、楽器種類の特定は、カメラ30からの映像に加えてセンサ群32からのセンサ出力を考慮して決定してもよい。また、センサ群32からのセンサ出力のみから決定するようにしてもよい。その場合は、楽器演奏姿勢データとして、各種楽器を演奏する場合に想定されるセンサ出力値を予め記憶しておく。
姿勢検出部90は、センサ群32からのセンサ出力及びカメラ30からのユーザの演奏操作映像を取得して、楽器種類決定部91において決定された楽器種類に基づき、取得したセンサ群32からのセンサ出力及びカメラ30からのユーザの演奏操作映像と一致もしくは近似する楽器演奏操作データが楽器演奏操作データベース(DB)152内に記憶されているか否かを判断する。一致もしくは近似するデータがある場合は、当該データと同一の演奏操作をしているものとして、ユーザの意図する演奏操作を特定する。特定された演奏操作は、楽器種類決定部91で決定した楽器種類情報と共に演奏操作情報として駆動制御部910、楽音生成部180及び映像生成部130に送られる。なお、後述する自動演奏モードにおいては、演奏データMDから理想的な演奏姿勢を算出して、演奏操作情報として出力する。
駆動制御部910は、楽器種類決定部91で決定した楽器種類情報と姿勢検出部90で決定した演奏操作情報に基づき、駆動部42を制御する。例えば、ユーザが演奏操作子に触れたと判断される空間座標にユーザの指が位置する場合は、当該ユーザの指に対して圧力を加えることにより、楽器への触感を与えるように制御し、当該操作子を押下する場合には、徐々に圧力を高めると共に、ユーザの指の動きを制限することにより、操作子の重みを体感させるように制御する。また、演奏操作子を限界まで押下したときは、それ以上のユーザの動きを制限するように制御し、仮想楽器の筐体に対しては、ユーザの動きを強制的に停止させるように制御する。なお、後述する自動演奏モードにおいては、ユーザが理想的な演奏姿勢を取るように各駆動部42を制御する。
楽音生成部180は、楽器種類決定部91で決定した楽器種類情報において特定される音色で、当該楽器を姿勢検出部90で決定した演奏操作情報において特定される演奏操作をした場合の楽音(所定の音高及び所定の音長で所定の効果付与がされた楽音)を生成する。なお、後述する自動演奏モードにおいては、演奏データに基づいて楽音を生成する。なお、演奏データをもともとのテンポで再生しても良いし、ユーザの演奏操作をトリガとして、再生タイミングを決定して自動演奏を行ってもよい。ここで生成した楽音は例えば、ヘッドホン30から発音される。
映像生成部130は、楽器種類決定部91で決定した楽器種類情報において特定される楽器を用いて、姿勢検出部90で決定した演奏操作情報において特定される演奏操作をした場合の映像を映像データベース153の映像を用いて生成する。このとき、客観カメラ3及び視点カメラ35により取得した映像を用いて、生成した仮想空間の映像と、実空間との位置合わせを行う。生成した映像はHMD14によってユーザに提示される。
図4は、本発明の実施例による演奏処理を表すフローチャートである。なお、この処理の開始前に、必要に応じて、予め自動演奏データが選択されているものとする。また、後述するステップSA7で特定する楽器種類も、必要に応じて、初期設定としてユーザが設定できるものとする。
ステップSA1で、処理を開始し、ステップSA2で、各種フラグ、レジスタ、バッファ等の初期化を行う。
ステップSA3では、図1のカメラ30(及びカメラ35)からユーザの姿勢映像を取得する。ステップSA4では、ステップSA3で取得したカメラ映像と演奏姿勢データとを比較・照合する。すなわち、取得した映像と一致もしくは近似する楽器演奏姿勢データを楽器演奏姿勢データベース(DB)151内から抽出する。なお、楽器演奏姿勢データベース(DB)151内に記憶されている映像のいずれとも一致もしくは近似しない場合は、ステップSA3に戻り再度カメラ画像を取得する。
ステップSA5では、図1のセンサ群32からのセンサ出力を取得する。ステップSA6では、ステップSA5で取得したセンサ出力と一致もしくは近似する楽器演奏姿勢データを楽器演奏姿勢データベース(DB)151内から抽出する。なお、楽器演奏姿勢データベース(DB)151内に記憶されているセンサ出力値のいずれとも一致もしくは近似しない場合は、ステップSA5に戻り再度センサ出力値を取得するか、ステップSA3に戻り再度カメラ画像を取得し、以降の処理を繰り返すようにしてもよい。
ステップSA7では、ステップSA4及びステップSA6で抽出した楽器演奏姿勢データに基づき、ユーザが演奏を意図している楽器を特定する。なお、ステップSA4及びステップSA6で抽出した楽器演奏姿勢データが一致しない場合は、予め設定したいずれかの結果を優先するようにしてもよいし、現在設定されている楽器種類と同一のものを優先しても良い。
ステップSA8では、ステップSA7で特定した楽器が、現在設定されている楽器と同一か否かを判断する。同一である場合は、YESの矢印で示すステップSA10に進み、同一ではない場合、すなわち、ユーザが新たに違う楽器の演奏に対応する姿勢をとったと判断される場合は、NOの矢印で示すステップSA9に進み、ステップSA7で特定した楽器種類に基づき、音色を設定する。
ステップSA10では、現在のモードが自動モードであるか否かを判断する。自動モードである場合は、YESの矢印で示すステップSA13に進み、自動モードでない場合は、NOの矢印で示すステップSA11に進む。なお、自動モードとは、自動演奏データに基づき、楽音を生成すると共に、ユーザの姿勢や動作を矯正または制限するものである。
ステップSA11では、ステップSA7で特定した楽器種類の形状を想定して、ユーザの動作や姿勢に規制を加えるように、駆動部42を制御する。
ステップSA12では、ステップSA3で取得したカメラ映像及びステップSA5で取得したセンサ出力に基づき、音高値等の楽音生成パラメータを決定する。例えば、取得したセンサ群32からのセンサ出力及びカメラ30からのユーザの演奏操作映像と一致もしくは近似する楽器演奏操作データを楽器演奏操作データベース(DB)152から抽出し、当該データに表される演奏操作に対応する楽音生成パラメータを生成する。なお、取得したセンサ群32からのセンサ出力及びカメラ30からのユーザの演奏操作映像と一致もしくは近似する楽器演奏操作データが無い場合は、演奏操作が無かったものとみなす。その後、ステップSA16に進む。
ステップSA13では、外部記憶装置15等に記憶されている自動演奏データを読み出す。なお、自動演奏データは、複数の自動演奏データの中から予め選択されているものとする。自動演奏データに複数のパート(トラック)が存在する場合は、ステップSA7で特定された楽器種類に対応するパートをユーザが演奏するものとして設定するか、ユーザに演奏するパートを予め選択させる。また、ユーザが演奏するパートについては、自動演奏で発音させないようにもできるし、発音させるようにもできる。また、いわゆるエニーキープレイに設定することもできる。この場合は、ユーザの演奏操作は、自動演奏を進めるタイミングを決定するものとして判断される。
ステップSA14では、ステップSA7で特定した楽器種類の形状を想定し、ステップSA13で読み出した自動演奏データに基づき、ユーザの動作や姿勢が当該楽器演奏に相応しいものとなるように、ユーザの姿勢や動作を矯正するために駆動部42を制御する。
ステップSA15では、ステップSA13で読み出した自動演奏データに基づき、音高値等の楽音生成パラメータを決定する。
ステップSA16では、ステップSA12又はステップSA15で決定された楽音生成パラメータに基づき発音処理を行う。
ステップSA17では、ステップSA7で決定した楽器種類、ステップSA12で決定した演奏操作(自動モードの場合は、自動演奏データに基づき決定する演奏操作)に基づき、仮想楽器、身体(手指)、背景画像等を含む映像を生成して、HMD14に表示する。なお、このとき、HMD14に設けられる方向センサ及び位置センサのセンサ出力に応じて、ユーザの視点を想定した画像を生成するようにしてもよい。また、客観カメラ30及び視点カメラ35により取得した映像を元に、HMD14に表示する仮想空間の映像と、実空間との位置合わせを行う。この位置合わせにより、ユーザは、仮想空間内のオブジェクト(仮想楽器等)に対して、実空間から手を出すことが可能となる。
ステップSA18では、ユーザによる終了指示を検出する。終了指示を検出した場合は、YESの矢印で示すステップSA19に進み演奏処理を終了する。終了指示を検出しない場合は、NOの矢印で示すステップSA3に戻り、以降の処理を繰り返す。
以上、本発明の実施例によれば、仮想楽器の映像をユーザの視界に表示するとともに、当該仮想楽器の触感をユーザに与えることができる。また、仮想楽器の筐体に対してのユーザの動作を制限することで、ユーザに楽器の演奏操作を仮想体験させることができる。
また、本発明の実施例によれば、ユーザの姿勢を取得して、該取得した姿勢に基づき、楽器種類を特定して、楽音生成における音色を指定することができる。よって、簡単に仮想楽器の持ち替え(切り替え)及び音色の切り替えを行うことができる。
さらに、本発明の実施例によれば、自動演奏データに基づき、楽音を発生させるとともに、当該自動演奏データに即した演奏に適した演奏操作をユーザに行わせることができる。よって、演奏操作方法を知らないユーザに当該楽器の演奏操作をユーザに体験させることができる。
以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組み合わせ等が可能なことは当業者に自明であろう。
本発明の実施例による演奏装置1のハードウェア構成を表すブロック図である。 本発明の実施例による姿勢取得装置33及び触感付与装置42の使用例を表す概略図である。 本発明の実施例による演奏装置1の機能ブロック図である。 本発明の実施例による演奏処理を表すフローチャートである。
符号の説明
1…電子音楽装置、2…サーバ、3…通信ネットワーク、6…バス、7…RAM、8…ROM、9…CPU、10…タイマ、11…検出回路、12…設定操作子、13…表示回路、14…ディスプレイ(HMD)、15…外部記憶装置、16…MIDI I/F、17…MIDI機器、18…音源回路、19…効果回路、20…サウンドシステム(ヘッドホン)、21…通信I/F、22…演奏操作子、30…カメラ、31…センサI/F、32…センサ、33…姿勢取得装置、41…駆動御回路、42…駆動部(アクチュエータ)、43…アタッチメント、90…姿勢検出部、91…楽器種類決定部、92…姿勢照合部、130…映像生成部、151…楽器演奏姿勢DB、152…楽器演奏操作DB、153…映像DB、180…楽音生成部、410…駆動制御部

Claims (2)

  1. ユーザの姿勢を取得する姿勢取得手段と、
    前記取得した姿勢に基づき、前記ユーザの身体に対して、物理的圧力を加えることにより、前記ユーザに対して触感を付与する触感付与手段と、
    前記取得した姿勢に基づき、前記ユーザの視界に表示を行う表示手段と、
    前記取得した姿勢に基づき、楽音を生成する楽音生成手段と
    を有する演奏装置。
  2. ユーザの姿勢を取得する姿勢取得手順と、
    前記取得した姿勢に基づき、前記ユーザの身体に対して、物理的圧力を加えることにより、前記ユーザに対して触感を付与する触感付与手順と、
    前記取得した姿勢に基づき、前記ユーザの視界に表示を行う表示手順と、
    前記取得した姿勢に基づき、楽音を生成する楽音生成手順と
    を有する演奏処理をコンピュータに実行させるためのプログラム。
JP2006085157A 2006-03-27 2006-03-27 演奏装置 Active JP4665811B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006085157A JP4665811B2 (ja) 2006-03-27 2006-03-27 演奏装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006085157A JP4665811B2 (ja) 2006-03-27 2006-03-27 演奏装置

Publications (2)

Publication Number Publication Date
JP2007264026A true JP2007264026A (ja) 2007-10-11
JP4665811B2 JP4665811B2 (ja) 2011-04-06

Family

ID=38637120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006085157A Active JP4665811B2 (ja) 2006-03-27 2006-03-27 演奏装置

Country Status (1)

Country Link
JP (1) JP4665811B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101161351B1 (ko) * 2011-11-24 2012-06-29 이춘우 악기 소리에 연동하여 리듬감을 연습할 수 있는 리듬 체험장치 및 이를 이용한 음악연습장치
JP2016018107A (ja) * 2014-07-09 2016-02-01 カシオ計算機株式会社 楽音発生指示装置、楽音発生指示方法、プログラムおよび電子楽器
JP2017097438A (ja) * 2015-11-18 2017-06-01 富士通株式会社 触感提供装置、及び、触感提供システム
JP6419932B1 (ja) * 2017-11-28 2018-11-07 株式会社コロプラ 仮想空間において楽器の演奏を支援するためのプログラム、楽器の選択を支援するためにコンピュータで実行される方法、および情報処理装置
JP2019101413A (ja) * 2018-10-09 2019-06-24 株式会社コロプラ 仮想空間において楽器の演奏を支援するためのプログラム、楽器の選択を支援するためにコンピュータで実行される方法、および情報処理装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105989826A (zh) * 2015-02-12 2016-10-05 成都瑟曼伽科技有限公司 一种能生成数字化乐谱和联网的指板弹拨乐器设备

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4857724A (ja) * 1971-11-03 1973-08-14
JPH04111013A (ja) * 1990-08-30 1992-04-13 Seiko Epson Corp 仮想入力装置
JPH06175653A (ja) * 1992-12-01 1994-06-24 Yamaha Corp 楽音制御信号発生装置
JPH09120464A (ja) * 1995-08-21 1997-05-06 Matsushita Electric Ind Co Ltd リハビリテーション支援装置
JPH09237087A (ja) * 1996-02-29 1997-09-09 Kawai Musical Instr Mfg Co Ltd 電子楽器
JP2000020054A (ja) * 1998-07-06 2000-01-21 Yamaha Corp カラオケ装置
JP2001165268A (ja) * 1999-12-08 2001-06-19 Sony Corp ワイヤー駆動装置及びこれを用いた力触覚提示装置
JP2003337653A (ja) * 2002-05-20 2003-11-28 Seiko Epson Corp 触覚・力覚提示装置および触覚・力覚提示システム
JP2004109758A (ja) * 2002-09-20 2004-04-08 Yamaha Corp 楽器演奏支援装置
JP2004252149A (ja) * 2003-02-20 2004-09-09 Yamaha Corp 仮想打楽器演奏システム
JP2005165194A (ja) * 2003-12-05 2005-06-23 Nippon Hoso Kyokai <Nhk> 音楽データ変換装置及び音楽データ変換プログラム
JP2006053167A (ja) * 2004-07-14 2006-02-23 Rarugo:Kk 電子楽器装置および仮想楽器の演奏方法並びに仮想楽器の演奏処理のプログラムおよびそのプログラムを記録した記録媒体

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4857724A (ja) * 1971-11-03 1973-08-14
JPH04111013A (ja) * 1990-08-30 1992-04-13 Seiko Epson Corp 仮想入力装置
JPH06175653A (ja) * 1992-12-01 1994-06-24 Yamaha Corp 楽音制御信号発生装置
JPH09120464A (ja) * 1995-08-21 1997-05-06 Matsushita Electric Ind Co Ltd リハビリテーション支援装置
JPH09237087A (ja) * 1996-02-29 1997-09-09 Kawai Musical Instr Mfg Co Ltd 電子楽器
JP2000020054A (ja) * 1998-07-06 2000-01-21 Yamaha Corp カラオケ装置
JP2001165268A (ja) * 1999-12-08 2001-06-19 Sony Corp ワイヤー駆動装置及びこれを用いた力触覚提示装置
JP2003337653A (ja) * 2002-05-20 2003-11-28 Seiko Epson Corp 触覚・力覚提示装置および触覚・力覚提示システム
JP2004109758A (ja) * 2002-09-20 2004-04-08 Yamaha Corp 楽器演奏支援装置
JP2004252149A (ja) * 2003-02-20 2004-09-09 Yamaha Corp 仮想打楽器演奏システム
JP2005165194A (ja) * 2003-12-05 2005-06-23 Nippon Hoso Kyokai <Nhk> 音楽データ変換装置及び音楽データ変換プログラム
JP2006053167A (ja) * 2004-07-14 2006-02-23 Rarugo:Kk 電子楽器装置および仮想楽器の演奏方法並びに仮想楽器の演奏処理のプログラムおよびそのプログラムを記録した記録媒体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101161351B1 (ko) * 2011-11-24 2012-06-29 이춘우 악기 소리에 연동하여 리듬감을 연습할 수 있는 리듬 체험장치 및 이를 이용한 음악연습장치
JP2016018107A (ja) * 2014-07-09 2016-02-01 カシオ計算機株式会社 楽音発生指示装置、楽音発生指示方法、プログラムおよび電子楽器
JP2017097438A (ja) * 2015-11-18 2017-06-01 富士通株式会社 触感提供装置、及び、触感提供システム
JP6419932B1 (ja) * 2017-11-28 2018-11-07 株式会社コロプラ 仮想空間において楽器の演奏を支援するためのプログラム、楽器の選択を支援するためにコンピュータで実行される方法、および情報処理装置
JP2019101050A (ja) * 2017-11-28 2019-06-24 株式会社コロプラ 仮想空間において楽器の演奏を支援するためのプログラム、楽器の選択を支援するためにコンピュータで実行される方法、および情報処理装置
JP2019101413A (ja) * 2018-10-09 2019-06-24 株式会社コロプラ 仮想空間において楽器の演奏を支援するためのプログラム、楽器の選択を支援するためにコンピュータで実行される方法、および情報処理装置

Also Published As

Publication number Publication date
JP4665811B2 (ja) 2011-04-06

Similar Documents

Publication Publication Date Title
CN103235642B (zh) 一种6维度感官交互的虚拟乐器系统及其实现方法
US10089971B2 (en) Drumstick controller
JP3601350B2 (ja) 演奏画像情報作成装置および再生装置
US8609972B2 (en) Performance apparatus and electronic musical instrument operable in plural operation modes determined based on movement operation of performance apparatus
US8586853B2 (en) Performance apparatus and electronic musical instrument
JP4665811B2 (ja) 演奏装置
WO2008140935A1 (en) System and method for using a touchscreen as an interface for music-based gameplay
Odowichuk et al. Sensor fusion: Towards a fully expressive 3d music control interface
JP2013190690A (ja) 演奏装置及びプログラム
US7504572B2 (en) Sound generating method
JP4882443B2 (ja) 演奏装置
De Laubier The meta-instrument
JP5549698B2 (ja) 演奏装置、方法及びプログラム
WO2019156091A1 (ja) 情報処理方法
JP4586525B2 (ja) バーチャルドラム装置
Bongers Tactual display of sound properties in electronic musical instruments
JP4131279B2 (ja) 合奏パラメータ表示装置
US10805475B2 (en) Resonance sound signal generation device, resonance sound signal generation method, non-transitory computer readable medium storing resonance sound signal generation program and electronic musical apparatus
JP4835016B2 (ja) 音符情報表示装置及びプログラム
JP2018063315A (ja) 演奏システムおよび自動演奏方法
JP2008008946A (ja) 楽音制御装置およびプログラム
JP4337288B2 (ja) 演奏動作表示装置、及びプログラム
JP2002366142A (ja) 演奏支援装置
Ishiyama et al. A prototype of virtual drum performance system with a head-mounted display
WO2023195333A1 (ja) 制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4665811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150