JP2004252149A - Virtual percussion instrument playing system - Google Patents
Virtual percussion instrument playing system Download PDFInfo
- Publication number
- JP2004252149A JP2004252149A JP2003042427A JP2003042427A JP2004252149A JP 2004252149 A JP2004252149 A JP 2004252149A JP 2003042427 A JP2003042427 A JP 2003042427A JP 2003042427 A JP2003042427 A JP 2003042427A JP 2004252149 A JP2004252149 A JP 2004252149A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- percussion instrument
- data
- hitting surface
- musical sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、演奏者の身体動作により仮想の打楽器を演奏するための仮想打楽器演奏システムに関する。
【0002】
【従来の技術】
従来の仮想楽器演奏システムとしては、演奏者の身体動作により楽音を出力するものがある(例えば、非特許文献1参照。)。この仮想楽器演奏システムでは、広い設置場所を必要とするドラム等の打楽器が不要となり、また、身体に装着して使用するため、場所を選ばずに楽器を演奏できる利点を有する。
【0003】
【非特許文献1】
[online]、平成10年4月10日、ヤマハ、[平成15年1月24日検索]、インターネット<URL:http://www.yamaha.co.jp/news/1996/96041001.html>
【0004】
【発明が解決しようとする課題】
しかしながら、上記従来の仮想楽器演奏システムにおいては、演奏を行う際に、演奏者の身体動作のみにより楽音を出力していたため、打楽器の打面の配置位置とは無関係に楽音が発生することがある。したがって、演奏者が打楽器の演奏を十分に体感できないという問題があった。
【0005】
この発明は、上述した事情に鑑みてなされたものであって、ドラム等の打楽器を実際に設置しなくても、打楽器の演奏を体感できる仮想打楽器演奏システムを提供することを目的としている。
【0006】
【課題を解決するための手段】
上記課題を解決するために、この発明は以下の手段を提案している。
請求項1に係る発明は、演奏者の身体動作により仮想の打楽器を演奏する仮想打楽器演奏システムであって、3次元空間に仮想の打面位置を設定する打面設定手段と、少なくとも演奏動作に関連する部位の位置情報を検出する動作検出手段と、前記打面位置および前記部位の位置情報に基づいて楽音データを生成する楽音生成手段と、前記楽音データに基づいて楽音を再生する楽音再生手段とを備えることを特徴とする仮想打楽器演奏システムを提案している。
この発明に係る仮想打楽器演奏システムによれば、演奏する際には、打面設定手段により設定された仮想打面に向けて、肘、手首、指、手に握られたスティック、足首、足のつま先等の演奏動作に関連する部位を動かして叩く動作を行う。そして、動作検出手段により所定の部位が仮想打面に到達したことが検出されると、楽音生成手段において楽音データが生成される。そして、この楽音データに基づいて楽音再生手段により楽音が出力される。
【0007】
請求項2に係る発明は、請求項1に記載の仮想打楽器演奏システムにおいて、前記打面設定手段が、前記演奏者の位置を基準として前記打面の位置を設定することを特徴とする仮想打楽器演奏システムを提案している。
この発明に係る仮想打楽器演奏システムによれば、演奏者の座る位置や立つ位置にかかわらず、演奏者と仮想打面との位置関係が変化しないため、演奏者が、立った状態や座った状態で演奏したり、また、移動しながら演奏することが可能となる。
【0008】
請求項3に係る発明は、請求項1または請求項2に記載の仮想打楽器演奏システムにおいて、前記打面設定手段が、前記打面を複数設定し、前記各打面毎に異なる音色を設定することを特徴とする仮想打楽器演奏システムを提案している。
この発明に係る仮想打楽器演奏システムによれば、打面毎に異なる音色を設定することにより、打面に応じて異なる楽音を発生させることができるため、複数の楽音を有すると共に、広い設置場所が必要となるドラムや木琴・鉄琴等の複数の音色を有する打楽器として使用できる。
【0009】
請求項4に係る発明は、請求項1から請求項3のいずれか1項に記載の仮想打楽器演奏システムにおいて、前記動作検出手段が、少なくとも前記部位の移動速度および移動角度のいずれか一方の動作データを検出し、前記楽音生成手段が、前記動作データに応じた楽音データを生成することを特徴とする仮想打楽器演奏システムを提案している。
この発明に係る仮想打楽器演奏システムによれば、演奏動作に関連する部位の移動速度や移動角度、すなわち、演奏者の叩く動作の大きさや速さに応じて楽音データを生成するため、音量や音色等を変化させた楽音データを生成することが可能となる。
【0010】
請求項5に係る発明は、請求項1から請求項4のいずれか1項に記載の仮想打楽器演奏システムにおいて、前記動作検出手段が、前記部位に設けられ、赤外線を発信する赤外線マーカを有する部位指標部と、該部位指標部からの赤外線を受信する受信部とを備えていることを特徴とする仮想打楽器演奏システムを提案している。
この発明に係る仮想打楽器演奏システムによれば、部位の位置に関連する情報を赤外線により受信部に伝達することにより、この部位の位置を特定できるため、演奏の際に各部位を自由に動かすことができる。
【0011】
請求項6に係る発明は、請求項1から請求項4のいずれか1項に記載の仮想打楽器演奏システムにおいて、前記動作検出手段が、前記部位に設けられた部位指標部と、該部位指標部の複数の画像データを同時に取得する撮像部とを備えていることを特徴とする仮想打楽器演奏システムを提案している。
この発明に係る仮想打楽器演奏システムによれば、演奏動作に関連する部位に取り付けられた部位指標部を撮像部において捉えることにより、この部位の位置を特定できるため、演奏の際に各部位を自由に動かすことができる。
【0012】
請求項7に係る発明は、請求項1から請求項6のいずれか1項に記載の仮想打楽器演奏システムにおいて、携帯端末装置に予め備えられている楽音再生手段を前記楽音再生手段とすることを特徴とする仮想打楽器演奏システムを提案している。
この発明に係る仮想打楽器演奏システムによれば、楽音データを再生する楽音再生手段として、近年幅広く普及している携行可能なPDA(PersonalDigital Asisstants)、携帯電話機等の携帯端末装置を使用することにより、新たに楽音再生手段を設ける必要が無くなるため、仮想打楽器演奏システムのコストダウンを図ることができる。
【0013】
請求項8に係る発明は、請求項1から請求項7のいずれか1項に記載の仮想打楽器演奏システムにおいて、前記打面の映像を表示する表示手段を備えることを特徴とする仮想打楽器演奏システムを提案している。
この発明に係る仮想打楽器演奏システムによれば、演奏者が表示手段により表示される仮想打面を視認して仮想打面の位置を確認することが可能となる。
【0014】
【発明の実施の形態】
図1から図11はこの発明に係る一実施形態を示している。この実施の形態に係る仮想打楽器演奏システム1は、3次元空間に設定された仮想の打面に対して演奏者が叩く動作を行うことによりドラムと同様の楽音を発生するものである。この仮想打楽器演奏システム1は、図1に示すように、スティックS、手指、手首、肘、足のつま先等、演奏動作に関連する部位に取り付けられる部位指標部2〜6と、ベルト11を介して演奏者の腹部に装着されるコントロールユニット21と、コントロールユニット21に電気的に接続された携帯電話機(楽音再生手段)23と、仮想の打面を表示する表示装置(表示手段)25とを備えている。
【0015】
部位指標部2〜6は、演奏動作に関連する各部位の位置および動作を検出するものであり、例えば、図2に示すように、スティックの先端部、スティックを握る指、手首および足のつま先に巻き付け、綿ファスナーにより固定されている。
この部位指標部2〜6には、図示しない赤外線マーカおよび加速度センサが設けられている。赤外線マーカは、所謂赤外線発光ダイオードからなり、赤外線によってコントロールユニット21に各部位の位置や動作に関連する情報を送信するものである。
加速度センサは、各部位の加速度の大きさを検出するものであり、ストレインゲージ等を用いて構成されている。また、手首および肘の関節に設けられる部位指標部4,5には、角度センサ(図示せず)が設けられており、各関節の曲げ角度や捻れ角度を検出するようになっている。
【0016】
コントロールユニット21は、仮想の打面および各部位指標部2〜6からの情報に基づいて楽音データを生成するものであり、図3に示すように、受信部31、3次元部位検出部33、楽音データ生成部35および外部接続端子37(以下、外部I/F37と略称する。)を備えている。
受信部31は、互いに間隔を隔てて配置された複数の赤外線検出器(図示せず)を備えており、各赤外線検出器が部位指標部2〜6の赤外線マーカからの赤外線を受信するように構成されている。
【0017】
3次元部位検出部33は、受信部31の赤外線検出器において受信した各部位指標部2〜6の情報に基づいて、各部位指標部2〜6の3次元空間内の位置データ、速度データ(動作データ)および角度データ(動作データ)を特定するものである。
すなわち、各部位指標部2〜6の3次元的な位置データは、赤外線マーカから複数の赤外線検出器への赤外線の到達時間に基づいて算出され、コントロールユニット21の位置を基準として距離および方位により特定されるものである。また、各部位指標部2〜6の速度データは、各部位指標部2〜6の加速度センサにおいて検出された加速度の大きさに基づいて算出されるものである。
また、手首、肘に設けられた部位指標部4,5の角度データは、部位指標部4,5の角度センサにおいて検出された関節の曲げ角度や捻れ角度の大きさの情報と、これら曲げ角度や捻れ角度に基づいて算出される角度の変化(移動角度)の情報とからなる。
これら部位指標部2〜6、受信部31および3次元部位検出部33により、演奏動作に関連する部位の位置データ、速度データ、角度データを検出する動作検出手段101が構成されている。
【0018】
楽音データ生成部35は、3次元部位検出部33において特定された各部位の位置データ、速度データおよび角度データと、打面データメモリ部38およびベロシティメモリ部39に記憶された情報とを照合し、この照合結果に基づいてMIDI(Musical Instruments Digital Interface)規格に準拠した楽音データを生成するものである。
すなわち、打面データメモリ部38には、表1に示すように、3次元空間に設定された仮想打面の位置および領域からなる打面データと、スネアドラム、ハイハット、タムタム、バスドラム等のノート(音高および音色)とが対応づけて記憶されている。なお、仮想打面の位置は、コントロールユニット21の位置を基準として距離および方位により設定されている。
【0019】
【表1】
【0020】
また、ベロシティメモリ部39には、表2に示すように、演奏検出部位2〜6の角度データ、速度データと、ベロシティ(音量)とが対応づけて記憶されており、角度データや速度データの値が大きい程、大きいベロシティが選択されるようになっている。
【0021】
【表2】
【0022】
この楽音データ生成部35は、例えば、図4に示すように、スティックSの先端部Saが仮想の打面Cに到達した場合に、この先端部Saに取り付けられた部位指標部2の位置データが、打面Cの打面領域に含まれていると判断する。この際には、楽音データ生成部35が、この判断結果に基づいて打面データメモリ部38から打面Cに対応するノートを読み出す。
また、この際には、楽音データ生成部35が、スティックSの先端部Saが打面Cに到達する直前の動作に関連する部位の速度データ、角度データに基づいて、ベロシティメモリ部39からベロシティを読み出す。ここで、動作に関連する部位とは、スティック先端部、スティックを握る指、手首、肘のことを示している。
つまり、仮想の打面Cに向けて手を大きく、速く振った場合には、大きいベロシティが読み出され、また、肘、手首を使わずに指だけを振ったり、手をゆっくり振った場合には、小さいベロシティが読み出されることになる。
【0023】
また、例えば、図5に示すように、足のつま先が地面に設定された仮想の打面Gに到達した場合には、足のつま先が打面Gに到達する直前の速度データに基づいて、ベロシティメモリ部39からベロシティが読み出されることになる。なお、足のつま先を打面Gに接触し続ける場合には、足のつま先の移動速度が0となるため、ベロシティを0として、楽音が発生しないようになっている。
【0024】
以上のように、仮想打面に向けて叩く動作を行うことでノートおよびノートに対応するベロシティを有する楽音データが生成されることになる。
したがって、図3に示すように、これら楽音データ生成部35、打面データメモリ部38およびベロシティメモリ部39により、仮想打面、演奏動作に関連する部位の位置および動作に基づいて楽音データを生成する楽音生成手段102が構成されている。
【0025】
また、このコントロールユニット21には、画像データ生成部41、表示部(表示手段)43、打面設定部45および操作部47が設けられている。画像データ生成部41は、打面データメモリ部38に記憶されている打面データに基づいて仮想打面の画像データを生成するものであり、生成した画像データを表示部43に出力するようになっている。表示部43は、この画像データの映像を表示するようになっている。
【0026】
打面設定部45は、後述する記憶用パッド51と共に、打面データメモリ部38に打面データおよび各打面に対応づけたノートを記憶させるものである。
記憶用パッド51は、図6に示すように、平板状に形成されたパッド本体53と、パッド本体53の表面53aの周縁部に設けられた3つの赤外線マーカ55と、パッド本体53の高さ、向きを調整するスタンド57とを備えている。
赤外線マーカ55は、部位指標部2〜6に設けられているものと同様であり、これら赤外線マーカ55の位置データは、打面設定部45において部位指標部2〜6の位置データと同様にして算出される。そして、これら赤外線マーカ55の位置データに基づき、打面設定部45において、コントロールユニット21の位置を基準とした3次元空間内の打面位置および打面領域からなる打面データが算出されるようになっている。
また、この打面データに対応させるノートは、図示しないノートメモリ部に記憶された多数のノートデータから選択できるようになっている。これら打面データおよび各打面に対応づけたノートの設定は、演奏者が操作部47を操作することにより行われる。
これら記憶用パッド51、受信部31、打面設定部45、打面データメモリ部38、ノートメモリ部および操作部47により仮想の打面を設定する打面設定手段104が構成されている。
【0027】
実際のコントロールユニット21は、図7に示すように、受信部31、RAM(Random Access Memory)61、ROM(Read Only Memory)63、操作部47、表示部43、外部I/F37およびCPU(中央処理装置)65から構成されており、これらは互いに電気的に接続されている。
前述した3次元部位検出部33、楽音データ生成部35、打面設定部45および画像データ生成部41は、各種のデータを算出する複数の演算プログラムを記憶するROM63と、これら演算プログラムを用いてデータ処理を行うCPU65とにより実現される。また、打面データメモリ部38は、書き換え可能なRAM61に含まれており、ベロシティメモリ部39は、書き換え不能なROM63に含まれている。
【0028】
なお、操作部47は、仮想打面の設定のほか、演奏機能の開始・停止等の各種操作を行うようになっている。また、表示部43は、打面データを表示するほか、RAM61やROM63に記憶されている各種データや、操作部47における操作状況等の各種情報を表示するようになっている。
外部I/F37は、ケーブル等を介して楽音データや画像データを携帯電話機23、表示装置25等の外部機器に送信するためのものである。
【0029】
携帯電話機23は、図8に示すように、無線で通話するための通信部71および音声処理部73、各種情報を表示する表示部75、通話キー、テンキー等の押圧可能な複数の操作キーからなる操作キー部77、携帯電話機23の各部の動作を制御するプログラム等が記憶されたROM79、各種の制御を行うCPU81等を備えており、一般に幅広く普及しているものである。
この携帯電話機23は、コントロールユニット21において生成された楽音データに基づいて楽音を再生することができる。すなわち、この携帯電話機23が、コントロールユニット21からの楽音データを受信した際には、CPU81がこの楽音データを着信音用音源83に供給する。そして、着信音用音源83は、供給された楽音データに基づいて楽音を生成し、スピーカ85から再生させる。
【0030】
表示装置25は、コントロールユニット21の表示部43と同様に、画像データ生成部41において生成された画像データの映像を表示面25aに表示するものである。この表示装置25は、図9(a)に示すように、所謂眼鏡の外観をなしている。
コントロールユニット21を演奏者の腹部に装着し、この表示装置25を顔にかけた状態においては、図9(b)に示すように、仮想打面A〜Fが実際に見えると想定されるように表示面25aに映し出される。また、この表示装置25には、部位指標部2〜6と同様の赤外線マーカ(図示せず)が設けられており、表示面25aに表示される仮想打面A〜Fの映像が、コントロールユニット21を基準とした演奏者の顔の向き、すなわち、表示装置25の向きに合わせて移動するように構成されている。さらに、この表示装置25は、表示面25aに仮想打面A〜Fの映像が表示されていても、表示面25aの向こう側を視認できるように構成されている。したがって、表示面25aに表示される仮想打面A〜Fと同時にスティックSを視認してドラム演奏を容易に行うことができる。
【0031】
以上のように構成された仮想打楽器演奏システム1の使用方法について説明する。
仮想打面の位置設定は、以下のようにして行われる。はじめに、コントロールユニット21を演奏者の腹部にベルト11を介して装着し、演奏者が記憶用パッド51を所望の位置に配置し、打面の高さ、向きを調整する。そして、図10に示すように、演奏者がコントロールユニット21の操作部47において仮想打面の設定操作を行うことにより(ステップS101)、打面設定部45が記憶用パッド51に設けられた赤外線マーカ55からの信号を取得し(ステップS102)、仮想の打面位置および打面領域を算出する。
その後、演奏者が、この仮想打面にバスドラム、スネアドラム、ハイハット、シンバル等のドラムの種類(ノート)を操作部47において選択すると(ステップS103)、打面設定部45が、仮想の打面位置および打面領域からなる打面データと、ドラムの種類とを対応づけてRAM61(打面データメモリ部38)に保存する(ステップS104)。
そして、演奏者が操作部47において仮想打面の設定の継続もしくは完了を選択する(ステップS105)。すなわち、全ての仮想打面の設定が完了していない場合には、演奏者が記憶用パッド51の位置を動かして上述のステップS101〜S104の作業を繰り返し行う。また、全ての仮想打面の設定が完了した場合には、演奏者が操作部47を操作して仮想打面の設定を終了する。
【0032】
次に、演奏を行う際の仮想打楽器演奏システム1の作用について説明する。
この仮想打楽器演奏システム1を用いて演奏する場合には、予め、図1に示すように、演奏者の肘、手首、指先、足のつま先、およびスティックの先端部に部位指標部2〜6を取り付けておく。また、演奏者の腹部にコントロールユニット21を取り付け、表示装置25を顔に装着しておく。また、コントロールユニット21と、携帯電話機23および表示装置25とをケーブル等により電気的に接続しておく。
【0033】
演奏を開始する際には、操作部47を操作し、図11に示すように、3次元部位検出部33に各部位指標部2〜6の位置データ、速度データおよび角度データを取得させる(ステップS201)。この状態においては、楽音データ生成部35が仮想打面を叩く動作の有無を判断する(ステップ202)。仮想打面を叩く動作が無い場合には、ステップ201の作業が繰り返し行われる。そして、仮想打面を叩く動作を検出した際、すなわち、例えば、スティックSに取り付けられた部位指標部2が仮想打面に到達した際には、楽音データ生成部35が、仮想打面に到達する直前の各部位の位置データ、速度データおよび角度データに基づいて楽音データを生成する(ステップS203)。生成された楽音データは、外部I/F37を介して携帯電話機23に送信され(ステップS204)、携帯電話機23のスピーカ85から楽音として出力される。
【0034】
上記のように、この仮想打楽器演奏システム1によれば、3次元空間内設定された仮想打面に向けて叩く動作を行うことにより楽音が発生するため、また、打面に応じて異なる楽音を発生させることができるため、実際にドラムを演奏している状況を十分に体感できると共に、ドラムのイメージトレーニングや基礎練習を行うことができる。
また、実際のドラムとは異なり、ドラムを設置する場所が不要であるため、場所を選ぶことなく手軽に演奏することができる。
【0035】
さらに、演奏者の位置を基準として仮想打面の位置を設定すると共に、演奏に必要な部位指標部2〜6、コントロールユニット21、携帯電話機23および表示装置25を全て装着する構成となっている。このため、演奏者が、立った状態や座った状態で演奏したり、移動しながら演奏でき、様々な状況下において手軽にドラム演奏を行うことができる。
また、演奏動作に関連する部位の速度データおよび角度データに基づいて楽音データを生成することにより、ベロシティを変化させた楽音データを生成することができるため、表現豊かな演奏を行うことが可能となる。
さらに、演奏動作に関連する部位の情報を赤外線により部位指標部2〜6から受信部31に伝達して、各部位の位置や動作を特定しているため、部位指標部2〜6とコントロールユニット21とをケーブル等で電気的に接続する必要が無く、結果として各部位を自由に動かして容易に演奏することが可能となる。
【0036】
また、近年幅広く普及している携行可能な携帯電話機23を楽音の音源として使用しているため、新たに楽音の音源を設ける必要が無くなり、仮想打楽器演奏システム1のコストダウンを図ることができる。
さらに、演奏者が表示装置25(や表示部43)に表示される仮想打面を視認することにより、仮想打面の位置を確認できるため、仮想打面の設定やドラム演奏を容易に行うことができる。
【0037】
なお、上記の実施の形態においては、部位指標部2〜6が、各部位に巻き付けて綿ファスナーにより固定されるとしたが、これに限ることはなく、例えば、ボタンにより固定してもよい。
また、部位指標部4,5に加速度センサや角度センサを設けて、演奏動作に関連する各部位の速度データや角度データを特定するとしたが、これに限ることはなく、少なくとも楽音データの生成に必要な部位の位置データ、速度データ、角度データが得られればよい。したがって、例えば、加速度センサ、角度センサを用いずに、3次元部位検出部33において算出される位置データや位置データの変化に基づいて速度データ、角度データを算出するとしてもよい。
【0038】
さらに、記憶用パッド51には、3つの赤外線マーカ55が設けられるとしたが、これに限ることはなく、3つ以上の赤外線マーカを設けるとしても構わない。
また、演奏動作に関連する部位の位置データ、仮想打面の打面データ等の検出は、部位指標部2〜6、記録用パッド51、表示装置25に設けられた赤外線マーカ、およびコントロールユニット21の受信部31に設けられた複数の赤外線検出器を用いて行うとしたが、これに限ることはなく、少なくとも部位指標部2〜6、記録用パッド51および表示装置25の3次元的な位置を検出できればよい。したがって、例えば、各部位指標部2〜6、記録用パッド51および表示装置25に図示しないターゲットマークを設け、受信部31の代わりに複数のデジタルカメラからなる撮像部(図示せず)を設けるとしてもよい。
【0039】
この構成の場合には、複数のデジタルカメラにより部位指標部2〜6、記録用パッド51および表示装置25に設けられた各ターゲットマークを撮影する。そして、取得した画像データを3次元部位検出部33において解析することにより、各ターゲットマークの3次元的な位置データを取得することができる。なお、部位指標部2〜6および表示装置25については、動作を検出する必要があるため、撮像部による撮影は連続的に行われる。
以上のことから、赤外線マーカおよび受信部の場合と同様にして、これらターゲットマークおよび撮像部により、この部位の3次元的な位置を特定できるため、部位指標部2〜6とコントロールユニット21とをケーブル等で電気的に接続する必要が無く、結果として各部位を自由に動かして容易に演奏することが可能となる。
【0040】
また、演奏動作に関連する部位の速度データや角度データに応じてベロシティが変化するとしたが、ベロシティ以外にも音色を微小に変化させるとしてもよい。
さらに、楽音データ生成部35は、MIDI規格に準拠した楽音データを生成するとしたが、これに限ることはなく、少なくとも携帯電話機23において楽音を再生できるデータ形式の楽音データを生成すればよい。
【0041】
また、楽音は携帯電話機23のスピーカ85から出力されるとしたが、これに限ることはなく、例えば、コントロールユニット21の外部I/F37にアンプを接続し、楽音が、このアンプを介して別途スピーカから出力されるとしてもよい。この構成の場合には、楽音データ生成部35において生成された楽音データに対応する楽音を携帯電話機23からコントロールユニット21およびアンプを介して別途スピーカから出力されることになる。
さらに、楽音データから楽音に変換する音源として携帯電話機23を利用するとしたが、これに限ることはなく、音源を備えた携行可能なPDA等のように携行可能な携帯端末装置であればよい。コントロールユニット21に楽音データを再生するための演算プログラムを設けるとしてもよい。この場合には、コントロールユニット21において演算プログラムにより楽音データを楽音に変換し、外部I/F37、アンプを介して別途スピーカに出力することになる。
【0042】
また、表示装置25に映し出される仮想打面の映像が、演奏者の顔の向きに合わせて移動するとしたが、これに限ることはなく、この映像が演奏者の頭の動きに関係なく固定されるとしてもよい。
さらに、表示装置25を、表示面25aに表示されると同時にスティックSを視認できるように構成するとしたが、これに限ることはなく、例えば、演奏動作に関連する各部位に取り付けられる部位指標部2〜6の位置も表示するように構成するとしてもよい。
【0043】
また、表示装置25は、顔にかける所謂眼鏡型であるとしたが、これに限ることはなく、打面位置を設定する際や演奏する際に、仮想打面を視認できるものであればよい。したがって、表示装置25は、例えば、テレビ、パーソナルコンピュータのモニターのように据え置き型のものであってもよい。また、コントロールユニット21に設けられた表示部43に仮想打面を映し出すことができるため、特に表示装置25を設けなくても構わない。また、表示装置25に映し出される仮想画面は、図9(b)のA〜Fの様な簡略された画像ではなく、設定されたドラム種類そのものの画像であればさらに好ましい。
【0044】
さらに、コントロールユニット21は、演奏者の腹部に装着されるとしたが、これに限ることはなく、少なくとも演奏者の身体に装着されていればよい。ただし、コントロールユニット21の装着位置は、演奏の際に移動しない部位であることが好ましい。
また、コントロールユニット21は、演奏者の身体に設けられるとしたが、これに限ることはなく、例えば、地面に配置されるとしてもよい。この構成の場合には、仮想打面の位置が演奏者の動きに合わせて移動することがないため、設置場所を要する実際のドラムなどの打楽器に酷似した状況を作ることができる。
【0045】
さらに、本実施形態においては、仮想打楽器演奏システム1をドラムに適用した場合について述べたが、これに限ることはなく、他の打楽器に適用してもよい。したがって、例えば、手が打面に直接触れるボンゴ、コンガ等の打楽器に適用してもよいし、音程を有する木琴、鉄琴等の打楽器に適用してもよい。
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
【0046】
【発明の効果】
以上説明したように、請求項1に係る発明によれば、3次元空間内に仮想打面を設定し、この仮想打面に向けて叩く動作を行うことにより楽音が発生するため、実際に打楽器を演奏している状況を十分に体感できる。また、実際の打楽器とは異なり、打楽器を設置する場所が不要であるため、場所を選ぶことなく手軽に演奏することができる。
また、請求項2に係る発明によれば、演奏者の位置を基準として仮想の打面位置を設定することにより、演奏者が、立った状態や座った状態で演奏したり、移動しながら演奏できるため、様々な状況下において手軽に打楽器を演奏することができる。
また、請求項3に係る発明によれば、場所を選ぶことなく、ドラムや木琴、鉄琴等の複数の音色を有する打楽器のイメージトレーニングや基礎練習を行うことができる。
また、請求項4に係る発明によれば、部位の移動速度や移動角度からなる動作データに基づいて楽音データを生成することにより、音量や音色等を変化させた楽音データを生成することができるため、表現豊かな演奏を行うことが可能となる。
また、請求項5および請求項6に係る発明によれば、赤外線マーカおよび受信部により、または、部位指標部および撮像部により演奏動作に関連する部位の位置を特定できるため、各部位を自由に動かして容易に演奏することができる。
また、請求項7に係る発明によれば、楽音再生手段として、近年幅広く普及している携行可能な携帯端末装置を使用することにより、仮想打楽器演奏システムのコストダウンを図ることができる。
また、請求項8に係る発明によれば、演奏者が仮想打面の位置を確認できるため、仮想打面の設定や演奏を容易に行うことができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る仮想打楽器演奏システムの部位指標部、コントロールユニット、携帯電話機および表示装置を演奏者に装着した状態を示す概略図である。
【図2】図1の仮想打楽器演奏システムにおいて、演奏動作に関連する部位に部位指標部を取り付けた状態を示す概略図である。
【図3】本発明の実施形態に係る仮想打楽器演奏システムを示すブロック図である。
【図4】図3の仮想打楽器演奏システムにおいて、部位指標部を仮想打面に到達させた状態を示す概略図である。
【図5】図3の仮想打楽器演奏システムにおいて、部位指標部を仮想打面に到達させた状態を示す概略図である。
【図6】図3の仮想打楽器演奏システムにおいて、記憶用パッドを示す概略図である。
【図7】図3の仮想打楽器演奏システムにおいて、コントロールユニットの実際の構成を示すブロック図である。
【図8】図3の仮想打楽器演奏システムにおいて、携帯電話機の実際の構成を示すブロック図である。
【図9】図3の仮想打楽器演奏システムにおいて、表示装置の概略を示しており、(a)は、表示装置の斜視図であり、(b)は、表示面に映し出された画像を示す図である。
【図10】図3の仮想打楽器演奏システムにおいて、仮想打面の設定手順を示すフローチャートである。
【図11】図3の仮想打楽器演奏システムにおいて、演奏を行う際のコントロールユニットの動作を示すフローチャートである。
【符号の説明】
1・・・仮想打楽器演奏システム、2〜6・・・部位指標部、23・・・携帯電話機(楽音再生手段)、25・・・表示装置(表示手段)、31・・・受信部、43・・・表示部(表示手段)、101・・・動作検出手段、102・・・楽音生成手段、104・・・打面設定手段[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a virtual percussion instrument playing system for playing a virtual percussion instrument by a player's body movement.
[0002]
[Prior art]
2. Description of the Related Art As a conventional virtual musical instrument playing system, there is a system that outputs a musical tone by a player's body movement (for example, see Non-Patent Document 1). This virtual musical instrument playing system has an advantage that a percussion instrument such as a drum that requires a large installation space is not required, and that the musical instrument can be played regardless of the place because it is worn on the body and used.
[0003]
[Non-patent document 1]
[Online], April 10, 1998, Yamaha, [searched January 24, 2003], Internet <URL: http: // www. yamaha. co. jp / news / 1996/960041001. html>
[0004]
[Problems to be solved by the invention]
However, in the above-mentioned conventional virtual musical instrument performance system, when performing, since the musical tone is output only by the player's physical movement, the musical tone may be generated irrespective of the arrangement position of the hitting surface of the percussion instrument. . Therefore, there is a problem that the player cannot fully experience the performance of the percussion instrument.
[0005]
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to provide a virtual percussion instrument playing system that allows the user to experience percussion performance without actually installing percussion instruments such as drums.
[0006]
[Means for Solving the Problems]
In order to solve the above problems, the present invention proposes the following means.
The invention according to claim 1 is a virtual percussion instrument playing system for playing a virtual percussion instrument by a player's body movement, wherein a percussion surface setting means for setting a virtual percussion position in a three-dimensional space, Motion detecting means for detecting positional information of a relevant part, musical sound generating means for generating musical sound data based on the hitting surface position and positional information of the part, and musical sound reproducing means for reproducing musical sounds based on the musical sound data And has proposed a virtual percussion instrument playing system characterized by the following.
According to the virtual percussion instrument performance system according to the present invention, when performing, the elbow, wrist, finger, stick held by the hand, ankle, and foot are directed toward the virtual percussion surface set by the percussion surface setting means. A hit operation is performed by moving a part related to a performance operation such as a toe. Then, when the movement detecting means detects that the predetermined portion has reached the virtual hitting surface, the musical sound generating means generates musical sound data. Then, a musical sound is output by the musical sound reproducing means based on the musical sound data.
[0007]
According to a second aspect of the present invention, in the virtual percussion instrument playing system according to the first aspect, the hitting surface setting means sets the position of the hitting surface based on the position of the player. We propose a performance system.
ADVANTAGE OF THE INVENTION According to the virtual percussion instrument performance system which concerns on this invention, since the positional relationship of a player and a virtual percussion surface does not change regardless of a player's sitting position or a standing position, a player is standing or sitting. And perform while moving.
[0008]
According to a third aspect of the present invention, in the virtual percussion instrument performance system according to the first or second aspect, the hitting surface setting means sets a plurality of the hitting surfaces and sets a different tone for each of the hitting surfaces. A virtual percussion instrument performance system characterized by this is proposed.
According to the virtual percussion instrument performance system according to the present invention, since different tones are set for each percussion surface, different musical tones can be generated according to the percussion surface. It can be used as a percussion instrument having multiple tones such as necessary drums, xylophones, and iron tones.
[0009]
According to a fourth aspect of the present invention, in the virtual percussion instrument playing system according to any one of the first to third aspects, the operation detecting means operates at least one of a moving speed and a moving angle of the part. A virtual percussion instrument playing system is proposed, wherein data is detected, and the musical sound generating means generates musical sound data according to the operation data.
According to the virtual percussion instrument performance system of the present invention, since the tone data is generated in accordance with the moving speed and the moving angle of the part related to the performance operation, that is, the magnitude and speed of the player's beating operation, It is possible to generate musical sound data in which the tone data is changed.
[0010]
According to a fifth aspect of the present invention, in the virtual percussion instrument playing system according to any one of the first to fourth aspects, the motion detection means is provided in the portion and has an infrared marker transmitting infrared light. There has been proposed a virtual percussion instrument performance system comprising an index unit and a receiving unit that receives infrared rays from the region index unit.
ADVANTAGE OF THE INVENTION According to the virtual percussion instrument performance system which concerns on this invention, since the information relevant to the position of a part is transmitted to a receiving part by infrared rays, since the position of this part can be specified, each part can be freely moved at the time of a performance. Can be.
[0011]
According to a sixth aspect of the present invention, in the virtual percussion instrument performance system according to any one of the first to fourth aspects, the movement detecting means includes a part indicator provided in the part, and the part indicator. A virtual percussion instrument playing system comprising an imaging unit for simultaneously acquiring a plurality of pieces of image data.
According to the virtual percussion instrument performance system according to the present invention, the position of this part can be specified by capturing the part index part attached to the part related to the performance operation by the imaging unit, so that each part can be freely set during the performance. Can be moved.
[0012]
According to a seventh aspect of the present invention, in the virtual percussion instrument performance system according to any one of the first to sixth aspects, the musical sound reproducing means provided in advance in the portable terminal device is the musical sound reproducing means. We propose a featured virtual percussion instrument performance system.
According to the virtual percussion instrument performance system of the present invention, by using a portable terminal device such as a portable PDA (Personal Digital Assistants), a portable telephone, etc., which has been widely spread in recent years, as a musical sound reproducing means for reproducing musical sound data. Since there is no need to provide a new tone reproducing means, the cost of the virtual percussion instrument performance system can be reduced.
[0013]
According to an eighth aspect of the present invention, in the virtual percussion instrument performance system according to any one of the first to seventh aspects, the virtual percussion instrument performance system further comprises a display means for displaying an image of the percussion surface. Has been proposed.
According to the virtual percussion instrument performance system according to the present invention, it becomes possible for a player to visually check the virtual percussion surface displayed by the display means and confirm the position of the virtual percussion surface.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
1 to 11 show an embodiment according to the present invention. The virtual percussion instrument performance system 1 according to this embodiment generates a musical tone similar to that of a drum by performing an operation of a player hitting a virtual hitting surface set in a three-dimensional space. As shown in FIG. 1, the virtual percussion instrument performance system 1 includes, via a
[0015]
The
Each of the
The acceleration sensor detects the magnitude of the acceleration of each part, and is configured using a strain gauge or the like. Further, an angle sensor (not shown) is provided in each of the
[0016]
The
The receiving
[0017]
The three-dimensional
That is, the three-dimensional position data of each of the
The angle data of the
The
[0018]
The musical
That is, as shown in Table 1, the hitting surface
[0019]
[Table 1]
[0020]
As shown in Table 2, the
[0021]
[Table 2]
[0022]
For example, as shown in FIG. 4, when the tip Sa of the stick S reaches the virtual hitting surface C, the
At this time, the tone
In other words, when the hand is shaken large and fast toward the virtual hitting surface C, a large velocity is read out, and when only the finger is shaken without using the elbow and the wrist, or when the hand is shaken slowly, Means that a small velocity is read.
[0023]
For example, as shown in FIG. 5, when the toes of the feet reach the virtual hitting surface G set on the ground, based on the speed data immediately before the toes of the feet reach the hitting surface G, The velocity is read from the
[0024]
As described above, by performing the operation of hitting the virtual hitting surface, a note and musical sound data having a velocity corresponding to the note are generated.
Therefore, as shown in FIG. 3, the musical sound data is generated based on the position and operation of the virtual hitting surface and the part related to the performance operation by the musical sound
[0025]
The
[0026]
The hitting
As shown in FIG. 6, the
The
A note corresponding to the hitting surface data can be selected from a large number of note data stored in a not-shown note memory unit. The setting of the hitting surface data and the notes associated with each hitting surface is performed by the player operating the
The
[0027]
As shown in FIG. 7, the
The above-described three-dimensional
[0028]
The
The external I /
[0029]
As shown in FIG. 8, the
The
[0030]
The
In a state where the
[0031]
A method of using the virtual percussion instrument performance system 1 configured as described above will be described.
The position setting of the virtual hitting surface is performed as follows. First, the
Thereafter, when the player selects a drum type (note) such as a bass drum, a snare drum, a hi-hat, a cymbal, etc. on the virtual hitting surface with the operation unit 47 (step S103), the hitting
Then, the player selects continuation or completion of setting of the virtual hitting surface on the operation unit 47 (step S105). That is, when the setting of all the virtual hitting surfaces has not been completed, the player moves the position of the
[0032]
Next, the operation of the virtual percussion instrument performance system 1 when performing a performance will be described.
When playing using this virtual percussion instrument playing system 1, as shown in FIG. 1, the
[0033]
When the performance is started, the
[0034]
As described above, according to the virtual percussion instrument playing system 1, since a musical sound is generated by performing an operation of hitting the virtual percussion surface set in the three-dimensional space, a different musical sound is generated depending on the percussion surface. Since it can be generated, it is possible to fully experience the situation of actually playing the drum, and to perform drum image training and basic training.
Also, unlike an actual drum, a place for installing the drum is not required, so that it is possible to easily perform without selecting a place.
[0035]
Further, the position of the virtual hitting surface is set based on the position of the player, and all the
In addition, by generating musical sound data based on velocity data and angle data of a part related to a performance operation, it is possible to generate musical sound data with a changed velocity, so that it is possible to perform an expressive performance. Become.
Furthermore, since the information of the part related to the performance operation is transmitted from the
[0036]
Further, since the
Furthermore, since the player can confirm the position of the virtual hitting surface by visually recognizing the virtual hitting surface displayed on the display device 25 (or the display unit 43), it is possible to easily set the virtual hitting surface and perform drum playing. Can be.
[0037]
In the above-described embodiment, the
In addition, although acceleration sensors and angle sensors are provided in the
[0038]
Furthermore, although the
In addition, the position data of the part related to the performance operation, the hitting face data of the virtual hitting face, and the like are detected by the
[0039]
In the case of this configuration, each of the target marks provided on the
From the above, in the same manner as in the case of the infrared marker and the receiving unit, the three-dimensional position of this part can be specified by the target mark and the imaging unit. There is no need to electrically connect with a cable or the like, and as a result, each part can be freely moved to easily perform.
[0040]
Although the velocity changes according to the speed data and the angle data of the part related to the performance operation, the timbre may be minutely changed in addition to the velocity.
Further, although the tone
[0041]
Further, although the tone is output from the
Further, the
[0042]
Also, it is assumed that the image of the virtual hitting surface projected on the
Further, the
[0043]
In addition, the
[0044]
Furthermore, although the
Further, the
[0045]
Furthermore, in the present embodiment, the case where the virtual percussion instrument performance system 1 is applied to a drum has been described, but the present invention is not limited to this, and may be applied to other percussion instruments. Therefore, for example, the present invention may be applied to a percussion instrument such as a bongo or a conga whose hand directly touches a hitting surface, or may be applied to a percussion instrument such as a xylophone or an iron koto having a pitch.
As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes a design change or the like without departing from the gist of the present invention.
[0046]
【The invention's effect】
As described above, according to the first aspect of the present invention, a musical sound is generated by setting a virtual hitting surface in a three-dimensional space and performing an operation of hitting the virtual hitting surface. You can fully experience the situation of playing. Also, unlike an actual percussion instrument, there is no need to install a percussion instrument, so that it is possible to easily play without selecting a location.
According to the second aspect of the present invention, by setting the virtual hitting surface position based on the position of the player, the player can perform while standing or sitting, or while moving. Therefore, it is possible to easily play percussion instruments under various circumstances.
Further, according to the third aspect of the present invention, it is possible to perform image training and basic training for percussion instruments having a plurality of tones such as drums, xylophones, and iron toys without selecting a place.
According to the fourth aspect of the present invention, the tone data is generated based on the movement data including the moving speed and the moving angle of the part, thereby making it possible to generate the tone data in which the volume, tone and the like are changed. Therefore, it is possible to perform an expressive performance.
According to the invention according to claims 5 and 6, since the position of a part related to the performance operation can be specified by the infrared marker and the receiving unit or by the part index unit and the imaging unit, each part can be freely set. It can be moved and played easily.
According to the seventh aspect of the present invention, the cost of the virtual percussion instrument performance system can be reduced by using a portable terminal device that has been widely used in recent years as a musical sound reproducing means.
Further, according to the invention of claim 8, since the player can check the position of the virtual hitting surface, setting and playing of the virtual hitting surface can be easily performed.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a state in which a part indicator, a control unit, a mobile phone, and a display device of a virtual percussion instrument playing system according to an embodiment of the present invention are mounted on a player.
FIG. 2 is a schematic diagram showing a state in which a part indicator is attached to a part related to a performance operation in the virtual percussion instrument playing system of FIG. 1;
FIG. 3 is a block diagram showing a virtual percussion instrument performance system according to the embodiment of the present invention.
FIG. 4 is a schematic diagram showing a state in which a part index portion reaches a virtual hitting surface in the virtual percussion instrument playing system of FIG. 3;
FIG. 5 is a schematic diagram showing a state in which a part index portion reaches a virtual hitting surface in the virtual percussion instrument playing system of FIG. 3;
FIG. 6 is a schematic diagram showing a memory pad in the virtual percussion instrument playing system of FIG. 3;
FIG. 7 is a block diagram showing an actual configuration of a control unit in the virtual percussion instrument playing system of FIG. 3;
8 is a block diagram showing an actual configuration of a mobile phone in the virtual percussion instrument performance system of FIG.
FIGS. 9A and 9B schematically show a display device in the virtual percussion instrument playing system of FIG. 3, wherein FIG. 9A is a perspective view of the display device, and FIG. 9B is a diagram showing an image projected on a display surface; It is.
FIG. 10 is a flowchart showing a procedure for setting a virtual percussion surface in the virtual percussion instrument playing system of FIG. 3;
11 is a flowchart showing the operation of the control unit when performing a performance in the virtual percussion instrument performance system of FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Virtual percussion instrument performance system, 2-6 ... Part index part, 23 ... Mobile telephone (musical sound reproducing means), 25 ... Display device (display means), 31 ... Receiving part, 43 ··· Display unit (display means) · 101 · Motion detection means · 102 · Musical sound generation means · 104 · Hit surface setting means
Claims (8)
3次元空間に仮想の打面位置を設定する打面設定手段と、
少なくとも演奏動作に関連する部位の位置情報を検出する動作検出手段と、
前記打面位置および前記部位の位置情報に基づいて楽音データを生成する楽音生成手段と、
前記楽音データに基づいて楽音を再生する楽音再生手段とを備えることを特徴とする仮想打楽器演奏システム。A virtual percussion instrument playing system for playing a virtual percussion instrument by a player's body movement,
Hitting surface setting means for setting a virtual hitting surface position in a three-dimensional space;
Operation detection means for detecting at least position information of a part related to the performance operation,
Musical sound generating means for generating musical sound data based on the hitting surface position and the positional information of the part,
A musical sound reproducing means for reproducing a musical sound based on the musical sound data.
前記楽音生成手段が前記動作データに応じた楽音データを生成することを特徴とする請求項1から請求項3のいずれか1項に記載の仮想打楽器演奏システム。The operation detecting means detects at least one of the movement speed and the movement angle of the part of the movement data,
The virtual percussion instrument performance system according to any one of claims 1 to 3, wherein the musical sound generating means generates musical sound data according to the operation data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003042427A JP3933057B2 (en) | 2003-02-20 | 2003-02-20 | Virtual percussion instrument playing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003042427A JP3933057B2 (en) | 2003-02-20 | 2003-02-20 | Virtual percussion instrument playing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004252149A true JP2004252149A (en) | 2004-09-09 |
JP3933057B2 JP3933057B2 (en) | 2007-06-20 |
Family
ID=33025707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003042427A Expired - Fee Related JP3933057B2 (en) | 2003-02-20 | 2003-02-20 | Virtual percussion instrument playing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3933057B2 (en) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007264025A (en) * | 2006-03-27 | 2007-10-11 | Yamaha Corp | Player |
JP2007264026A (en) * | 2006-03-27 | 2007-10-11 | Yamaha Corp | Player |
JP2007293191A (en) * | 2006-04-27 | 2007-11-08 | Nintendo Co Ltd | Sound outputting program and sound outputting device |
US7723604B2 (en) | 2006-02-14 | 2010-05-25 | Samsung Electronics Co., Ltd. | Apparatus and method for generating musical tone according to motion |
US8147330B2 (en) | 2006-05-09 | 2012-04-03 | Nintendo Co., Ltd. | Game apparatus and storage medium having game program stored thereon |
KR101144514B1 (en) | 2010-12-14 | 2012-05-11 | 숭실대학교산학협력단 | Apparatus and method for outputiing sound |
CN102651212A (en) * | 2011-02-28 | 2012-08-29 | 卡西欧计算机株式会社 | Playing device and electronic musical instrument |
JP2012194524A (en) * | 2011-02-28 | 2012-10-11 | Casio Comput Co Ltd | Performance device and electronic musical instrument |
JP2013061637A (en) * | 2011-08-23 | 2013-04-04 | Casio Comput Co Ltd | Musical performance device and light emission control device |
CN103295564A (en) * | 2012-03-02 | 2013-09-11 | 卡西欧计算机株式会社 | Musical performance device, method for controlling musical performance device |
CN103310766A (en) * | 2012-03-16 | 2013-09-18 | 卡西欧计算机株式会社 | Musical instrument and method |
JP2013195645A (en) * | 2012-03-19 | 2013-09-30 | Casio Comput Co Ltd | Performance device, method, and program |
JP2014002249A (en) * | 2012-06-18 | 2014-01-09 | Casio Comput Co Ltd | Musical performance device, method and program |
JP2014062945A (en) * | 2012-09-20 | 2014-04-10 | Casio Comput Co Ltd | Music playing device, music playing method, and program |
KR101746216B1 (en) * | 2016-01-29 | 2017-06-12 | 동서대학교 산학협력단 | Air-drum performing apparatus using arduino, and control method for the same |
JP2018017806A (en) * | 2016-07-26 | 2018-02-01 | ヤマハ株式会社 | Musical instrument sound generation system, and musical instrument sound generation method |
JP6419932B1 (en) * | 2017-11-28 | 2018-11-07 | 株式会社コロプラ | Program for supporting performance of musical instrument in virtual space, method executed by computer to support selection of musical instrument, and information processing apparatus |
JP2019101413A (en) * | 2018-10-09 | 2019-06-24 | 株式会社コロプラ | Program for assisting in performing musical instrument in virtual space, computer-implemented method for assisting in selecting musical instrument, and information processor |
CN111862910A (en) * | 2019-04-25 | 2020-10-30 | 逢甲大学 | Virtual electronic musical instrument system and operation method thereof |
CN117979211A (en) * | 2024-03-29 | 2024-05-03 | 深圳市戴乐体感科技有限公司 | Integrated sound box system and control method thereof |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8198526B2 (en) | 2009-04-13 | 2012-06-12 | 745 Llc | Methods and apparatus for input devices for instruments and/or game controllers |
CN109493685B (en) * | 2018-12-29 | 2021-03-30 | 深圳市掌网科技股份有限公司 | Virtual percussion instrument training system based on augmented reality |
-
2003
- 2003-02-20 JP JP2003042427A patent/JP3933057B2/en not_active Expired - Fee Related
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7723604B2 (en) | 2006-02-14 | 2010-05-25 | Samsung Electronics Co., Ltd. | Apparatus and method for generating musical tone according to motion |
JP2007264026A (en) * | 2006-03-27 | 2007-10-11 | Yamaha Corp | Player |
JP4665811B2 (en) * | 2006-03-27 | 2011-04-06 | ヤマハ株式会社 | Performance equipment |
JP2007264025A (en) * | 2006-03-27 | 2007-10-11 | Yamaha Corp | Player |
US8801521B2 (en) | 2006-04-27 | 2014-08-12 | Nintendo Co., Ltd. | Storage medium storing sound output program, sound output apparatus and sound output control method |
JP2007293191A (en) * | 2006-04-27 | 2007-11-08 | Nintendo Co Ltd | Sound outputting program and sound outputting device |
JP4679429B2 (en) * | 2006-04-27 | 2011-04-27 | 任天堂株式会社 | Sound output program and sound output device |
US8147330B2 (en) | 2006-05-09 | 2012-04-03 | Nintendo Co., Ltd. | Game apparatus and storage medium having game program stored thereon |
KR101144514B1 (en) | 2010-12-14 | 2012-05-11 | 숭실대학교산학협력단 | Apparatus and method for outputiing sound |
CN102651212A (en) * | 2011-02-28 | 2012-08-29 | 卡西欧计算机株式会社 | Playing device and electronic musical instrument |
JP2012194524A (en) * | 2011-02-28 | 2012-10-11 | Casio Comput Co Ltd | Performance device and electronic musical instrument |
JP2013061637A (en) * | 2011-08-23 | 2013-04-04 | Casio Comput Co Ltd | Musical performance device and light emission control device |
CN103295564A (en) * | 2012-03-02 | 2013-09-11 | 卡西欧计算机株式会社 | Musical performance device, method for controlling musical performance device |
CN103295564B (en) * | 2012-03-02 | 2015-09-30 | 卡西欧计算机株式会社 | The control method of music performance apparatus and music performance apparatus |
JP2013195581A (en) * | 2012-03-16 | 2013-09-30 | Casio Comput Co Ltd | Musical performance apparatus, method and program |
CN103310766A (en) * | 2012-03-16 | 2013-09-18 | 卡西欧计算机株式会社 | Musical instrument and method |
US9514729B2 (en) | 2012-03-16 | 2016-12-06 | Casio Computer Co., Ltd. | Musical instrument, method and recording medium capable of modifying virtual instrument layout information |
CN103310766B (en) * | 2012-03-16 | 2015-11-18 | 卡西欧计算机株式会社 | Music performance apparatus and method |
US9018510B2 (en) | 2012-03-19 | 2015-04-28 | Casio Computer Co., Ltd. | Musical instrument, method and recording medium |
JP2013195645A (en) * | 2012-03-19 | 2013-09-30 | Casio Comput Co Ltd | Performance device, method, and program |
JP2014002249A (en) * | 2012-06-18 | 2014-01-09 | Casio Comput Co Ltd | Musical performance device, method and program |
JP2014062945A (en) * | 2012-09-20 | 2014-04-10 | Casio Comput Co Ltd | Music playing device, music playing method, and program |
KR101746216B1 (en) * | 2016-01-29 | 2017-06-12 | 동서대학교 산학협력단 | Air-drum performing apparatus using arduino, and control method for the same |
JP2018017806A (en) * | 2016-07-26 | 2018-02-01 | ヤマハ株式会社 | Musical instrument sound generation system, and musical instrument sound generation method |
JP6419932B1 (en) * | 2017-11-28 | 2018-11-07 | 株式会社コロプラ | Program for supporting performance of musical instrument in virtual space, method executed by computer to support selection of musical instrument, and information processing apparatus |
JP2019101050A (en) * | 2017-11-28 | 2019-06-24 | 株式会社コロプラ | Program for assisting in performing musical instrument in virtual space, computer-implemented method for assisting in selecting musical instrument, and information processor |
JP2019101413A (en) * | 2018-10-09 | 2019-06-24 | 株式会社コロプラ | Program for assisting in performing musical instrument in virtual space, computer-implemented method for assisting in selecting musical instrument, and information processor |
CN111862910A (en) * | 2019-04-25 | 2020-10-30 | 逢甲大学 | Virtual electronic musical instrument system and operation method thereof |
CN117979211A (en) * | 2024-03-29 | 2024-05-03 | 深圳市戴乐体感科技有限公司 | Integrated sound box system and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP3933057B2 (en) | 2007-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3933057B2 (en) | Virtual percussion instrument playing system | |
US10991352B2 (en) | Drumstick controller | |
JP5966465B2 (en) | Performance device, program, and performance method | |
JP6024136B2 (en) | Performance device, performance method and program | |
US9773480B2 (en) | Electronic music controller using inertial navigation-2 | |
JP5598490B2 (en) | Performance device, method and program | |
US7718884B2 (en) | Method and apparatus for enhanced gaming | |
JP3915257B2 (en) | Karaoke equipment | |
JP6127367B2 (en) | Performance device and program | |
US10055017B2 (en) | Methods devices and systems for creating control signals | |
JP2013182195A (en) | Musical performance device and program | |
JP5533915B2 (en) | Proficiency determination device, proficiency determination method and program | |
JP2007256736A (en) | Electric musical instrument | |
JP2013190690A (en) | Musical performance device and program | |
JP5549698B2 (en) | Performance device, method and program | |
JP2007264026A (en) | Player | |
WO2021233426A1 (en) | Musical instrument simulation system | |
JP6111526B2 (en) | Music generator | |
JP4882443B2 (en) | Performance equipment | |
CN108337367B (en) | Musical instrument playing method and device based on mobile terminal | |
JP5861517B2 (en) | Performance device and program | |
JP2019144360A (en) | Performance support system and control method | |
JP6098083B2 (en) | Performance device, performance method and program | |
JP2012002885A (en) | Music information reproducing device for sport, music information distribution system for sport, music information reproducing method for sport, and music information reproducing program for sport | |
JP5974567B2 (en) | Music generator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061212 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070312 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110330 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110330 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120330 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130330 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140330 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |