JP5573899B2 - 演奏装置 - Google Patents

演奏装置 Download PDF

Info

Publication number
JP5573899B2
JP5573899B2 JP2012179920A JP2012179920A JP5573899B2 JP 5573899 B2 JP5573899 B2 JP 5573899B2 JP 2012179920 A JP2012179920 A JP 2012179920A JP 2012179920 A JP2012179920 A JP 2012179920A JP 5573899 B2 JP5573899 B2 JP 5573899B2
Authority
JP
Japan
Prior art keywords
unit
performance
stick
swing
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012179920A
Other languages
English (en)
Other versions
JP2013061637A (ja
Inventor
裕二 田畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012179920A priority Critical patent/JP5573899B2/ja
Priority to US13/590,690 priority patent/US9018507B2/en
Publication of JP2013061637A publication Critical patent/JP2013061637A/ja
Application granted granted Critical
Publication of JP5573899B2 publication Critical patent/JP5573899B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • G10H2220/026Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays associated with a key or other user input device, e.g. key indicator lights
    • G10H2220/061LED, i.e. using a light-emitting diode as indicator
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/185Stick input, e.g. drumsticks with position or contact sensors
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data

Description

本発明は、電子音を発音する演奏装置及びこの演奏装置に用いられる発光制御装置に関する。
従来、演奏者の演奏動作を検知すると、演奏動作に応じた電子音を発音する演奏装置が提案されている。例えば、スティック上の部材のみで打楽器音を発音する演奏装置(エアドラム)が知られており、この演奏装置では、スティック状の部材にセンサを設け、演奏者が部材を手で保持して振ることで、センサが演奏動作を検知し、打楽器音を発音する。
このような演奏装置によれば、現実の楽器を必要とせずに当該楽器の楽音を発音することができるため、演奏場所や演奏スペースに制約を受けずに演奏を楽しむことができる。
このような演奏装置について、例えば、特許文献1には、演奏者のスティック状の部材を用いた演奏動作を撮像するとともに、当該演奏動作と楽器セットを示す仮想画像とを合成した合成画像をモニタ上に表示し、スティック状の部材と仮想的な楽器セットとの位置情報に応じて所定の楽音を発音するように構成された楽器ゲーム装置が提案されている。
特許第3599115号公報(図1)
ところで、演奏者を撮像し楽音を発音する演奏装置では、撮像画像から演奏部材を識別可能にしなければならない。より具体的には、撮像画像において、演奏部材のうち仮想的な楽器と接する部分の位置座標を特定しなければならない。
この点、特許文献1に記載の楽器ゲーム装置では、演奏者が用いるペンライトの先端にランプを設け(図4)、このランプの位置座標を特定することで、仮想的な楽器と接する部分を区別することとしている。
そのため、演奏部材(ペンライト)には、ランプを点灯するための電源が求められるが、演奏場所や演奏スペースに制約を受けないといった上述の特徴を実現するためには、有線で電源を供給するのではなく、演奏部材の内部にバッテリなどの電源を設ける必要がある。また、演奏部材は、演奏者が保持して演奏するという特質上、その重さを一定に抑える必要があり、長時間の利用を可能とするために、大型のバッテリ設けるといった単純な方法は、好ましくない。
この点について、特許文献1の楽器ゲーム装置では、このランプの点灯制御について何ら考慮されておらず、演奏部材の消費電力の低減の観点から更なる改良が求められる。
本発明は、このような要望に鑑みてなされたものであり、演奏部材の発光部の撮像空間における位置座標に基づいて楽音を発音する演奏装置において、演奏部材の消費電力の低減を実現する演奏装置及び発光制御装置を提供することを目的とする。
上記目的を達成するため、本発明の一態様の演奏装置は、演奏者に保持され、発光及び消灯する発光部を備える演奏部材と、前記演奏部材を保持する前記演奏者が存在する撮像空間の画像を撮像する撮像装置と、前記撮像装置が撮像した前記撮像空間における発光中の前記発光部の位置座標に基づいて発音する発音装置と、を備える演奏装置であって、前記演奏部材に、前記演奏者による前記演奏部材の振り下ろし動作の開始及び終了を検知する検知手段と、前記検知手段が前記振り下ろし動作の開始を検知したタイミングで、前記発光部を発光させる発光制御を実行し、前記検知手段が前記振り下ろし動作の終了を検知したタイミングで、前記発光部を消灯させる消灯制御を実行する発光消灯制御手段と、を備えることを特徴とする。
本発明によれば、演奏部材の発光部の撮像空間における位置座標に基づいて楽音を発音する演奏装置において、演奏部材の消費電力を低減することができる。
本発明の演奏装置の一実施形態の概要を示す図である。 上記演奏装置を構成するスティック部のハードウェア構成を示すブロック図である。 上記スティック部の斜視図である。 上記演奏装置を構成するカメラユニット部のハードウェア構成を示すブロック図である。 上記演奏装置を構成するセンターユニット部のハードウェア構成を示すブロック図である。 上記スティック部の処理の流れを示すフローチャートである。 モーションセンサ部の垂直方向の加速度に関する出力の変化を表わした図である。 上記スティック部の処理の流れを示すフローチャートである。 上記カメラユニット部の処理の流れを示すフローチャートである。 上記センターユニット部の処理の流れを示すフローチャートである。
以下、本発明の実施形態について、図面を用いて説明する。
[演奏装置1の概要]
初めに、図1を参照して、本発明の一実施形態としての演奏装置1の概要について説明する。
図1(1)を参照して、本発明の演奏装置1は、スティック部10A、10Bと、カメラユニット部20と、センターユニット部30と、を含んで構成される。本実施形態の演奏装置1は、2本のスティックを用いた仮想的なドラム演奏を実現するため、2つのスティック部10A、10Bを備えることとしているが、スティック部の数は、これに限られず1つとしてもよく、3つ以上としてもよい。なお、以下では、スティック部10A、10Bを区別しない場合には、両者を総称して「スティック部10」と呼ぶ。
スティック部10は、長手方向に延びるスティック状の部材であり、本発明の演奏部材に相当する。演奏者は、スティック部10の一端(根元側)を手に持ち手首などを中心とした振り上げ振り下ろし動作を行うことで、演奏動作を行う。このような演奏者の演奏動作を検知するため、スティック部10の他端(先端側)には、加速度センサなどの各種センサが設けられており(後述のモーションセンサ部14)、各種センサが検知した演奏動作に基づいて、スティック部10は、センターユニット部30にノートオンイベントを送信する。
また、スティック部10の先端側には、後述するマーカー部15(図2参照)が設けられており、撮像時にカメラユニット部20がスティック部10の先端を判別可能に構成されている。
カメラユニット部20は、スティック部10を保持して演奏動作を行う演奏者の動画を所定のフレームレートで撮像する光学式のカメラであり、本発明の撮像装置に相当する。カメラユニット部20は、撮像空間内における発光中のマーカー部15の位置座標を特定し、センターユニット部30に送信する。
センターユニット部30は、スティック部10からノートオンイベントを受信すると、受信時のマーカー部15の位置座標データに応じて、所定の楽音を発音する。具体的には、センターユニット部30は、カメラユニット部20の撮像空間に対応付けて、図1(2)に示す仮想ドラムセットDの位置座標データを記憶しており、当該仮想ドラムセットDの位置座標データとノートオンイベント受信時のマーカー部15の位置座標データとに基づいて、スティック部10が打撃した楽器を特定し、当該楽器に対応する楽音を発音する。
このような、演奏装置1において、本実施形態のスティック部10は、消費電力の低減しつつマーカー部15の発光制御及び消灯制御を行う。具体的には、演奏装置1では、スティック部10が仮想的な楽器を打撃した際に楽音を発音する必要があるが、一般的に打楽器では、スティック部10による打撃は、スティック部10の振り下ろし時に行われ、スティック部10の振り上げ時には行われない。
そこで、本実施形態のスティック部10は、振り下ろし動作の開始を検知することを条件に、マーカー部15の発光制御を行い、その後、振り下ろし動作の終了や振り上げ動作の開始を検知することを条件に、マーカー部15の消灯制御を行うことで、消費電力の低減を実現する。なお、発光制御とは、マーカー部15を発光させる制御及び発光している状態を維持する制御をいう。ただし、発光している状態とは、常時発光している状態のみならず、点滅のように一時的に消灯している状態を含む。また、消灯制御とは、マーカー部15の発光を消灯する制御及び消灯している状態を維持する制御をいう。
以下、本発明の実施形態について具体的に説明する。
[演奏装置1の構成]
初めに、図2〜図5を参照して、本発明の演奏装置1を構成するスティック部10、カメラユニット部20及びセンターユニット部30の構成について説明する。図2は、スティック部10のハードウェア構成を示すブロック図であり、図3は、スティック部10の斜視図であり、図4は、カメラユニット部20のハードウェア構成を示すブロック図であり、図5は、センターユニット部30のハードウェア構成を示すブロック図である。
[スティック部10の構成]
図2を参照して、スティック部10は、CPU11(Central Processing Unit)と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、モーションセンサ部14と、マーカー部15と、データ通信部16と、を含んで構成される。
CPU11は、スティック部10全体の制御を実行し、例えば、モーションセンサ部14から出力されるセンサ値に基づいて、スティック部10の姿勢の検知、ショット検出及びアクション検出に加え、マーカー部15の発光・消灯などの制御を行う。このとき、CPU11は、マーカー特徴情報をROM12から読み出し、当該マーカー特徴情報に従い、マーカー部15の発光制御を行う。また、CPU11は、データ通信部16を介して、センターユニット部30との間の通信制御を行う。
ROM12は、CPU11の実行する各種処理の処理プログラムを格納する。また、ROM12は、マーカー部15の発光制御に用いるマーカー特徴情報を格納する。ここで、カメラユニット部20は、スティック部10Aのマーカー部15(第1マーカー)と、スティック部10Bのマーカー部15(第2マーカー)とを区別する必要がある。マーカー特徴情報とは、第1マーカーと第2マーカーとをカメラユニット部20が区別するための情報であり、例えば、発光時の形状、大きさ、色相、彩度、あるいは輝度に加え、発光時の点滅スピードなどを用いることができる。
スティック部10AのCPU11及びスティック部10BのCPU11は、夫々異なるマーカー特徴情報を読み出し、夫々のマーカーの発光制御を行う。
RAM13は、モーションセンサ部14が出力した各種センサ値など、処理において取得され又は生成された値を格納する。
モーションセンサ部14は、スティック部10の状態を検知するための各種センサであり、所定のセンサ値を出力する。ここで、モーションセンサ部14を構成するセンサとしては、例えば、加速度センサ、角速度センサ及び磁気センサなどを用いることができる。
加速度センサとしては、X軸、Y軸、Z軸の3つの軸方向の夫々に生じた加速度を出力する3軸センサを用いることができる。なお、X軸、Y軸、Z軸について、図3に示すように、スティック部10の長手方向の軸と一致する軸をY軸とし、加速度センサが配置された基板(図示せず)と平行で、かつ、Y軸と直交する軸をX軸とし、X軸及びY軸と直交する軸をZ軸とすることができる。このとき、加速度センサは、X軸、Y軸、Z軸の夫々の成分の加速度を取得するとともに、夫々の加速度を合成したセンサ合成値を算出することとしてもよい。ここで、演奏者は、スティック部10の一端(根元側)を保持し、手首などを中心とした振り上げ振り下ろし動作を行うことで、スティック部10に対して回転運動を生じさせるところ、スティック部10が静止している場合には、加速度センサは、センサ合成値として重力加速度1Gに相当する値を算出し、スティック部10が回転運動をしている場合には、加速度センサは、センサ合成値として重力加速度1Gよりも大きな値を算出する。なお、センサ合成値は、例えば、X軸、Y軸、Z軸の成分の加速度の夫々の2乗の総和の平方根を算出することで得られる。
また、角速度センサとしては、例えば、ジャイロスコープを備えたセンサを用いることができる。ここで、図3を参照して、角速度センサは、スティック部10のY軸方向の回転角301やスティック部10のX軸方向の回転角311を出力する。
ここで、Y軸方向の回転角301は、演奏者がスティック部10を持ったとき、演奏者からみた前後軸の回転角であるため、ロール角と称することができる。ロール角は、X−Y平面が、どの程度X軸に対して傾けられたかを示す角度302に対応し、演奏者がスティック部10を手に持って、手首を軸にして左右に回転させることにより生じる。
また、X軸方向の回転角311は、演奏者がスティック部10を持ったとき、演奏者からみた左右軸の回転角であるため、ピッチ角と称することができる。ピッチ角は、X−Y平面が、どの程度Y軸に対して傾けられたかを示す角度312に対応し、演奏者がスティック部10を手に持って、手首を上下方向に振ることにより生じる。
なお、図示は省略しているが、角速度センサは、Z軸方向の回転角も併せて出力することとしてもよい。このとき、Z軸方向の回転角は、基本的にはX軸方向の回転角311と同じ性質を有し、演奏者がスティック部10を手に持って、手首を左右方向に振ることにより生じるピッチ角である。
また、磁気センサとしては、図3に示すX軸、Y軸、Z軸の3軸方向の磁気センサ値を出力可能なセンサを用いることができる。このような磁気センサからは、磁石による北(磁北)を示すベクトルが、X軸方向、Y軸方向、Z軸方向の夫々について出力される。出力される各軸方向の成分は、スティック部10の姿勢(向き)によって異なるため、これらの成分から、CPU11は、スティック部10のロール角やX軸方向及びZ軸方向の回転角を算出することができる。
モーションセンサ部14(詳細には、モーションセンサ部14からのセンサ値を受け付けたCPU11)は、このような様々なセンサを用いて、演奏者が持っているスティック部10の状態(演奏者の演奏状態と換言することもできる)を検知する。一例としては、CPU11は、加速度センサが出力する加速度(又はセンサ合成値)に基づいて、スティック部10による仮想的な楽器の打撃タイミング(ショットタイミング)を検知する。また、CPU11は、後述するように、各センサからが出力したセンサ値に基づいて、スティック部10の振り下ろし動作や振り上げ動作を検知する。
図2に戻り、マーカー部15は、スティック部10の先端側に設けられた、例えば、LEDなどの発光体であり、CPU11からの制御に応じて発光及び消灯する。具体的には、マーカー部15は、CPU11がROM12から読み出したマーカー特徴情報に基づいて発光する。このとき、スティック部10Aのマーカー特徴情報と、スティック部10Bのマーカー特徴情報とは異なるため、カメラユニット部20は、スティック部10Aのマーカー部(第1マーカー)の位置座標と、スティック部10Bのマーカー部(第2マーカー)の位置座標とを区別し取得することができる。
データ通信部16は、少なくともセンターユニット部30との間で所定の無線通信を行う。所定の無線通信は、任意の方法で行うこととしてよく、本実施形態では、赤外線通信によりセンターユニット部30との間での無線通信を行う。なお、データ通信部16は、カメラユニット部20との間で無線通信を行うこととしてもよく、また、スティック部10A及びスティック部10Bとの間で無線通信を行うこととしてもよい。
[カメラユニット部20の構成]
スティック部10の構成についての説明は、以上である。続いて、図4を参照して、カメラユニット部20の構成について説明する。
カメラユニット部20は、CPU21と、ROM22と、RAM23と、マーカー検出部24と、データ通信部25と、を含んで構成される。
CPU21は、カメラユニット部20全体の制御を実行し、例えば、マーカー検出部24が検出したマーカー部15の位置座標データ及びマーカー特徴情報に基づいて、スティック部10A、10Bのマーカー部15(第1マーカー及び第2マーカー)の夫々の位置座標データを算出する制御を行う。また、CPU21は、データ通信部25を介して、算出した位置座標データなどをセンターユニット部30に送信する通信制御を行う。
ROM22は、CPU21の実行する各種処理の処理プログラムを格納する。RAM23は、マーカー検出部24が検出したマーカー部15の位置座標データなど、処理において取得され又は生成された値を格納する。また、RAM23は、センターユニット部30から受信したスティック部10A、10Bの夫々のマーカー特徴情報も併せて格納する。
マーカー検出部24は、例えば、光学式のカメラであり、スティック部10を持って演奏動作を行う演奏者の動画を所定のフレームレートで撮像する。また、マーカー検出部24は、フレームごとの撮像データをCPU21に出力する。なお、カメラユニット部20は、撮像空間内におけるスティック部10のマーカー部15の位置座標を特定することとしているが、マーカー部15の位置座標の特定については、マーカー検出部24で行うこととしてもよく、CPU21が行うこととしてもよい。同様に、撮像したマーカー部15のマーカー特徴情報についても、マーカー検出部24が特定することとしてもよく、CPU21が特定することとしてもよい。
データ通信部25は、少なくともセンターユニット部30との間で所定の無線通信(例えば、赤外線通信)を行う。なお、データ通信部25は、スティック部10との間で無線通信を行うこととしてもよい。
[センターユニット部30の構成]
カメラユニット部20の構成についての説明は、以上である。続いて、図5を参照して、センターユニット部30の構成について説明する。
センターユニット部30は、CPU31と、ROM32と、RAM33と、スイッチ操作検出回路34と、表示回路35と、音源装置36と、データ通信部37と、を含んで構成される。
CPU31は、センターユニット部30全体の制御を実行し、例えば、スティック部10から受信したショット検出及びカメラユニット部20から受信したマーカー部15の位置座標に基づいて、所定の楽音を発音する制御などを行う。また、CPU31は、データ通信部37を介して、スティック部10及びカメラユニット部20との間の通信制御を行う。
ROM32は、CPU31の実行する各種処理の処理プログラムを格納する。また、ROM32は、種々の音色の波形データ、例えば、フルート、サックス、トランペットなどの管楽器、ピアノなどの鍵盤楽器、ギターなどの弦楽器、バスドラム、ハイハット、スネア、シンバル、タムなど打楽器の波形データを、位置座標などと対応付けて格納する。
ショット検出時(すなわち、ノートオンイベント受信時)にマーカー部15の位置座標に対応付けてROM32に格納された波形データを、CPU31が読み出すことで、演奏者の演奏動作に応じた楽音が発音される。
RAM33は、スティック部10から受信したスティック部10の状態(ショット検出など)や、カメラユニット部20から受信したマーカー部15の位置座標など、処理において取得され又は生成された値を格納する。
スイッチ操作検出回路34は、スイッチ341と接続され、当該スイッチ341を介した入力情報を受け付ける。入力情報としては、例えば、発音する楽音の音量や発音する楽音の音色の変更、表示装置351の表示の切り替えなどが含まれる。
また、表示回路35は、表示装置351と接続され、表示装置351の表示制御を行う。
音源装置36は、CPU31からの指示にしたがって、ROM32から波形データを読み出して、楽音データを生成するとともに、楽音データをアナログ信号に変換し、図示しないスピーカから楽音を発音する。
また、データ通信部37は、スティック部10及びカメラユニット部20との間で所定の無線通信(例えば、赤外線通信)を行う。
[演奏装置1の処理]
以上、演奏装置1を構成するスティック部10、カメラユニット部20及びセンターユニット部30の構成について説明した。続いて、図6〜図10を参照して、演奏装置1の処理について説明する。図6は、スティック部10の処理を示すフローチャートであり、図7は、スティック部10のショット検出タイミング(ノートオンイベント生成タイミング)を示す図であり、図8は、スティック部10のマーカー点灯処理を示すフローチャートである。また、図9は、カメラユニット部20の処理を示すフローチャートであり、図10は、センターユニット部30の処理を示すフローチャートである。
[スティック部10の処理]
図6を参照して、スティック部10のCPU11は、ROM12に格納されているマーカー特徴情報を読み出す(ステップS1)。この処理では、スティック部10A,1BのCPU11は、夫々異なるマーカー特徴情報を読み出す。異なるマーカー特徴情報の読み出しは、任意の方法で行うことができ、例えば、スティック部10A、10Bが直接又はセンターユニット部30を介して通信することで行うこととしてもよく、また、個々のスティック部10毎に予め1のマーカー特徴情報を対応付けておき、スティック部10A、10BのCPU11は、夫々対応付けられた独自のマーカー特徴情報を読み出すこととしてもよい。
CPU11は、マーカー特徴情報を読み出すと、当該マーカー特徴情報をRAM13に格納するとともに、データ通信部16を介してセンターユニット部30に送信する(ステップS2)。このとき、CPU11は、スティック部10A、10Bを夫々区別可能な識別情報(スティック識別情報)と対応付けて、マーカー特徴情報をセンターユニット部30に送信する。
続いて、CPU11は、モーションセンサ部14からモーションセンサ情報、すなわち、各種センサが出力するセンサ値を読み出し、RAM13に格納する(ステップS3)。その後、CPU11は、読み出したモーションセンサ情報に基づいて、スティック部10の姿勢検知処理を行う(ステップS4)。姿勢検知処理では、CPU11は、モーションセンサ情報に基づいて、スティック部10の姿勢、例えば、スティック部10の傾き、ロール角及びピッチ角の変位などを検知する。
続いて、CPU11は、モーションセンサ情報に基づいて、ショット検出処理を行う(ステップS5)。ここで、演奏者がスティック部10を用いて演奏を行う場合、一般には、現実の楽器(例えば、ドラム)を打つ動作と同様の動作を行う。このような(演奏)動作では、演奏者は、まずスティック部10を振り上げ、それから仮想的な楽器に向かって振り下ろす。そしてスティック部10を仮想的な楽器に打ちつける寸前に、スティック部10の動作を止めようとする力を働かせる。このとき、演奏者は、仮想的な楽器にスティック部10を打ちつけた瞬間に楽音が発生することを想定しているため、演奏者が想定するタイミングで楽音を発生できるのが望ましい。そこで、本実施形態では、演奏者が仮想的な楽器の面にスティックを打ちつける瞬間或いはそのわずかに手前に楽音を発音することとしている。
ここで、図7を参照して、スティック部10を用いた楽音の発音タイミングの一例について説明する。図7は、スティック部10を用いて演奏動作を行った場合のモーションセンサ部14の垂直方向の加速度に関する出力の変化を表わした図である。なお、垂直方向の加速度とは、水平面に対する垂直方向の加速度を意味し、Y軸成分の加速度から分解し算出することとしてもよく、Z軸方向の加速度(ロール角によってはX軸方向の加速度)から分解し算出することとしてもよい。また、図7において、プラスの加速度は、スティック部10に加わる下向き方向の加速度を示し、マイナスの加速度は、スティック部10に加わる上向き方向の加速度を示す。
スティック部10が静止している状態(図7のaで表わされる部分)であっても、スティック部10には重力加速度が加わっているため、静止するスティック部10のモーションセンサ部14は、重力加速度に逆らう形で垂直上向き、つまりマイナス方向の一定の加速度を検出する。なお、スティック部10に加わる加速度が0となるのは、スティック部10が自由落下している状態のときである。
静止している状態において、振り上げ動作に伴い演奏者がスティック部10を持ち上げると、重力加速度に対して、さらに逆らう方向に動作することになる。このため、スティック部10に加わる加速度はマイナス方向に増加する。その後静止させようとして持ち上げる速度を減少させると、上向きの加速度が減少し、モーションセンサ部14で検出されるスティック部10のマイナス方向の加速度は減少する(図7のbで表わされる部分)。そして、振り上げ動作が最高点に到達した時点での加速度は重力加速度のみになる(図7のbとcの境目付近で表わされる部分)。
振り上げ動作によりスティック部10が頂点に達すると、演奏者はスティック部10の振り下ろし動作を行う。振り下ろし動作では、スティック部10は、下向き方向に動作することになる。従って、スティック部10に加わる加速度は、重力加速度に逆らって検出されていたマイナス方向の加速度よりもプラス方向に増加する。その後、演奏者はショットに向けて、下向き方向の加速度を減少させていくので、スティック部10に加わる加速度はマイナス方向に増加する。この間、振り下ろし動作が最高速に到達するタイミングを経てスティック部10には、再び重力加速度のみが加わる状態となる。(図7のcで表わされる部分)
この後、演奏者がショットに向けて、スティック部10に対してさらに振り上げ方向の加速度を加えると、加わる加速度はマイナス方向に増加する。そしてショットが終わると、スティック部10は再び静止し、重力加速度に逆らう形のマイナス方向の加速度が検出される状態に戻る(図7のdで表わされる部分)。
本実施形態においては、演奏者が仮想的な楽器の面にスティック部10を打ちつける瞬間として、振り下ろし動作が行われた後、振り上げ方向の加速度が加えられた瞬間を検出する。つまり、図7のdで表わされる部分において、振り下ろし状態から、言い換えれば加わる加速度が重力加速度のみから、さらにマイナス方向に所定値だけ増加したA点を、ショット検出のタイミングとしている。
このショット検出のタイミングを発音タイミングとし、上述したような発音タイミングが到来したと判断されると、スティック部10のCPU11は、ノートオンイベントを生成し、センターユニット部30に送信する。これにより、センターユニット部30において、発音処理が実行されて、楽音が発音する。
図6に戻り、ステップS5に示すショット検出処理では、モーションセンサ情報(例えば、加速度センサのセンサ合成値)に基づいて、ノートオンイベントを生成する。このとき、生成するノートオンイベントには、発音する楽音の音量を含めることとしてもよい。なお、楽音の音量は、例えば、センサ合成値の最大値から求めることができる。
続いて、CPU11は、モーションセンサ情報に基づいて、演奏者の所定の動作(アクション)を示す情報(以下、アクション情報と呼ぶ)を検出する処理、すなわち、アクション検出処理を行う(ステップS6)。続いて、CPU11は、ステップS4〜ステップS6の処理で検出した情報、すなわち、姿勢情報、ショット情報及びアクション情報を、データ通信部16を介してセンターユニット部30に送信する(ステップS7)。このとき、CPU11は、スティック識別情報と対応付けて、姿勢情報、ショット情報及びアクション情報をセンターユニット部30に送信する。
続いて、CPU11は、マーカー点消灯処理を行い(ステップS8)、ステップS3の処理に移し、それ以降の処理を繰り返し実行する。ここで、マーカー点消灯処理については、図8で詳細に説明するが、CPU11は、モーションセンサ情報などに基づいて、マーカー部15の点灯又は消灯を制御する。
[マーカー点消灯処理]
続いて、図8を参照して、マーカー点消灯処理について説明する。
初めに、スティック部10のCPU11は、モーションセンサ情報や姿勢情報、ショット情報及びアクション情報などに基づいて、振り下ろしを検出したか否かを判断する(ステップS11)。このとき、振り下ろしを検出した場合には、CPU11は、マーカー部15の点灯処理を行い(ステップS12)、マーカー点消灯処理を終了する。
他方、振り下ろしを検出しない場合には、CPU11は、モーションセンサ情報や姿勢情報、ショット情報及びアクション情報などに基づいて、振り上げを検出したか否かを判断する(ステップS13)。このとき、振り上げを検出した場合には、CPU11は、マーカー部15の消灯処理を行い(ステップS14)、マーカー点消灯処理を終了する。他方、振り上げを検出しない場合には、CPU11は、マーカー点消灯処理を終了する。
ここで、ステップS11及びステップS13の振り下ろし及び振り上げの検出は、任意の方法により行うことができ、例えば、スティック部10の垂直方向の加速度を用いることができる。モーションセンサ部14の垂直方向の加速度の変化が図7に示すような変化を表わした場合を例にとり、以下、CPU11による振り下ろし及び振り上げの検出について説明する。
振り上げ動作の開始は、ショット検出のタイミングとする。すなわち、図7のdで表わされる部分において、加わる加速度が重力加速度のみの状態から、さらにマイナス方向に所定値だけ増加したA点とする。もちろん、振り上げ動作の開始とショット検出のタイミングとを同一とせず、両者のタイミングの間にタイムラグを設けることも可能である。
また、振り下ろし動作の開始は、図7のcで表わされる部分において、加わる加速度が重力加速度のみの状態から、プラス方向に所定値だけ増加したB点とする。ここで、通常打楽器等の演奏操作においては、振り下ろし動作から直ちに振り上げ動作を行うのが常である。そのため、本実施形態においては、振り下ろし動作の終了と、振り上げ動作の開始と、を同一タイミングとしている。すなわち、振り下ろし動作は、図7のB点のタイミングで開始し、A点のタイミングで終了する。もちろん、振り下ろし動作の終了と振り上げ動作の開始との間にタイムラグを設けることも可能である。
なお、本実施形態では、モーションセンサ部14(加速度センサ)が検出する垂直方向の加速度に基づいて、振り下ろし及び振り上げ動作を検出することとしているが、振り下ろし及び振り上げ動作の検出には、スティック部10の姿勢情報を用いることとしてもよい。ここで、姿勢情報としては、ピッチ角の変位を用いることができ、例えば、CPU11は、ピッチ角が下方向に変位した場合に、振り下ろし開始を検出し、ピッチ角が上方向に変位した場合やピッチ各の下方向の変位が終了した場合に、振り上げ開始を検出する。
また、振り下ろし及び振り上げ動作の検出は、カメラユニット部20が行うこととしてもよい。すなわち、カメラユニット部20が撮像した動画から演奏者の手の動きを判別し、振り下ろし及び振り上げ動作を検出することとしてもよく、スティック部10は、カメラユニット部20からこれら検出情報を受信することとしてもよい。
このように、ステップS11及びステップS13の振り下ろし及び振り上げ動作の検出は、様々な方法により行うことができる。
なお、スティック部10とカメラユニット部20とは非同期であるため、マーカー部15が消灯するタイミングによっては、カメラユニット部20が適切な撮像を行えない場合がある。そこで、スティック部10では、マーカー部15の消灯タイミングを、カメラユニット部20の撮影1フレーム分だけ遅延することとしてもよい。これにより、カメラユニット部20では、スティック部10とカメラユニット部20との非同期により生じる、タイミングずれに関わらず、ショットタイミング時のマーカー部15の位置座標を特定することができる。
[カメラユニット部20の処理]
図9を参照して、カメラユニット部20のCPU21は、マーカー検出条件取得処理を行う(ステップS21)。この処理では、CPU21は、センターユニット部30から送信されるマーカー検出条件情報を取得し、RAM23に格納する。なお、マーカー検出条件情報とは、スティック部10A,10Bのマーカー部15の夫々を検出するための条件であり、マーカー特徴情報から生成される(図10のステップS31,ステップS32参照)。ここで、上述のようにマーカー特徴情報として、例えば、マーカーの形状、大きさ、色相、彩度、あるいは輝度を用いることができる。続いて、CPU21は、マーカー検出条件設定処理を行う(ステップS22)。この処理では、CPU21は、マーカー検出条件情報に基づいて、マーカー検出部24の各種設定を行う。
続いて、CPU21は、第1マーカー検出処理(ステップS23)及び第2マーカー検出処理(ステップS24)を行う。これらの処理では、CPU21は、マーカー検出部24が検出した、スティック部10Aのマーカー部15(第1マーカー)及びスティック部10Bのマーカー部15(第2マーカー)の位置座標、サイズ、角度などのマーカー検知情報を、取得しRAM23に格納する。このとき、マーカー検出部24は、発光中のマーカー部15について、マーカー検知情報を検出する。
続いて、CPU21は、ステップS23及びステップS24で取得したマーカー検知情報を、データ通信部25を介してセンターユニット部30に送信し(ステップS25)、ステップS23の処理に移る。
[センターユニット部30の処理]
図10を参照して、センターユニット部30のCPU31は、マーカー特徴情報をスティック部10から受信し、RAM33に格納する(ステップS31)。続いて、CPU31は、マーカー特徴情報及びスイッチ341を介して設定された検出条件から、マーカー検出条件情報を生成し、データ通信部37を介して、カメラユニット部20に送信する(ステップS32)。
続いて、CPU31は、カメラユニット部20から、第1マーカー及び第2マーカー夫々のマーカー検知情報を受信し、RAM33に格納する(ステップS33)。また、CPU31は、スティック部10A、10Bの夫々から、スティック識別情報と対応付けられた姿勢情報、ショット情報及びアクション情報を受信し、RAM33に格納する(ステップS34)。
続いて、CPU31は、ショットありか否かを判断する(ステップS35)。この処理では、CPU31は、スティック部10からノートオンイベントを受信したか否かにより、ショットの有無を判断する。このとき、ショットありと判断した場合には、CPU31は、ショット処理を行う(ステップS36)。ショット処理では、CPU31は、ROM32から、マーカー検知情報に含まれる位置座標、サイズ及び角度などに対応する波形データを読み出し、ノートオンイベントに含まれる音量データとともに音源装置36に出力する。すると、音源装置36は、受け取った波形データに基づいて該当する楽音を発音する。
ステップS36の後、又はステップS35でNOと判断した場合には、CPU31は、スティック部10から受信したアクション情報に基づいて、アクションありか否かを判断する(ステップS37)。このとき、アクションありと判断した場合には、CPU31は、受信したアクション情報に基づくアクション処理を行い(ステップS38)、ステップS33の処理に移る。他方、アクション無しと判断した場合には、CPU31は、ステップS33の処理に移る。
以上、本実施形態の演奏装置1の構成及び処理について説明した。このような演奏装置1によれば、マーカー部15の位置座標データを必要とする事象(ショット)の発生を予測して、マーカー部15を予め点灯し、当該事象終了時には、マーカー部15の点灯を終了する。これにより、マーカー部15の位置座標データが必要な時間帯のみマーカー部15を点灯させるため、常時点灯する場合に比べてスティック部10の消費電力を低減することができ、スティック部10の長時間駆動及び軽量化を実現することができる。
また、事象(ショット)発生と連動したマーカー部15の点消灯動作により、視覚的な演出効果が期待でき、スティック部10を用いた演奏のパフォーマンスの向上を図ることができる。
以上、本発明の実施形態について説明したが、実施形態は例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換など種々の変更を行うことができる。これら実施形態やその変形は、本明細書などに記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
上記実施形態では、仮想的な打楽器として仮想ドラムセットD(図1参照)を例にとって説明したが、これに限られるものではなく、本発明は、スティック部10の振り下ろし動作で楽音を発音する木琴など他の楽器に適用することができる。
また、上記実施形態でスティック部10、カメラユニット部20及びセンターユニット部30で行うこととしている処理のうちの任意の処理は、他のユニット(スティック部10、カメラユニット部20及びセンターユニット部30)で行うこととしてもよい。例えば、スティック部10のCPU11が行うこととしているショット検出などの処理を、センターユニット部30で行うこととしてもよい。
また、上記実施形態では、スティック部10の有するマーカー部15の発光制御について説明したが、スティック部10に限らず、発光部を有するその他の部材に対して本発明の発光制御を行うこととしてもよい。すなわち、本発明は、発光部を有する部材に与えられる動作の開始及び終了を検知し、動作の開始の検出に応答して発光部を点灯するとともに、動作の終了の検出に応答して発光部を消灯させる発光制御装置に適用することができる。このとき、動作の開始及び終了の検知は、各種センサ(モーションセンサ部)が検出した値に基づいてCPU(検知手段)が行うことができ、また、動作の開始及び終了に応答した発光制御もCPU(制御手段)が行うことができる。
また、上記実施形態では、振り下ろし動作の開始と終了を検出し、マーカーを点消灯する制御について説明しているが、これに替えて、マーカーの輝度を制御するようにしても良い。例えば、振り下ろし動作の開始を検出したタイミングでマーカーを高輝度発光させ、振り下ろし動作の終了を検出したタイミングでマーカーを低輝度に戻すことにより、上記の実施形態と同様の効果を得ることができる。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
演奏者に保持され、発光及び消灯する発光部を備える演奏部材と、前記演奏部材を保持する前記演奏者が存在する撮像空間の画像を撮像する撮像装置と、前記撮像装置が撮像した前記撮像空間における発光中の前記発光部の位置座標に基づいて発音する発音装置と、を備える演奏装置であって、
前記演奏者による前記演奏部材の振り下ろし動作の開始及び終了を検知する検知手段と、
前記検知手段が前記振り下ろし動作の開始を検知したタイミングで、前記発光部を発光させる発光制御を実行し、前記検知手段が前記振り下ろし動作の終了を検知したタイミングで、前記発光部を消灯させる消灯制御を実行する発光消灯制御手段と、
を備えることを特徴とする演奏装置。
[付記2]
前記演奏部材は、前記演奏部材の垂直方向の加速度を検出する加速度センサを備え、
前記検知手段は、前記加速度センサが検出した前記加速度に基づいて、前記振り下ろし動作の開始及び終了を検知する、
付記1に記載の演奏装置。
[付記3]
前記検知手段は、前記加速度センサが検出した重力方向への加速度に基づいて前記振り下ろし動作の開始を検知し、前記加速度センサが検出した重力と対向する方向への加速度に基づいて前記振り下ろし動作の終了を検知する、
付記2に記載の演奏装置。
[付記4]
前記演奏部材と、前記撮像装置と、前記発音装置とが、無線通信可能に接続された、
ことを特徴とする付記1から3の何れかに記載の演奏装置。
[付記5]
発光部を有する部材に与えられる動作の開始及び終了を検知する検知手段と、
前記検知手段による動作の開始の検出に応答して前記発光部を点灯するとともに、前記検知手段による動作の終了の検出に応答して前記発光部を消灯させる制御手段と、
を有する発光制御装置。
1・・・演奏装置(演奏装置)、10・・・スティック部(演奏部材)、11・・・CPU(検知手段、発光消灯制御手段)、12・・・ROM、13・・・RAM、14・・・モーションセンサ部(検知手段、加速度センサ)、15・・・マーカー部(発光部)、16・・・データ通信部、20・・・カメラユニット部(撮像装置)、21・・・CPU、22・・・ROM、23・・・RAM、24・・・マーカー検出部、25・・・データ通信部、30・・・センターユニット(発音装置)、31・・・CPU、32・・ROM、33・・・RAM、34・・・スイッチ操作検出回路、341・・・スイッチ、35・・・表示回路、351・・・表示装置、36・・・音源装置、37・・・データ通信部

Claims (5)

  1. 演奏者に保持され、発光及び消灯する発光部を備える演奏部材と、前記演奏部材を保持する前記演奏者が存在する撮像空間の画像を撮像する撮像装置と、前記撮像装置が撮像した前記撮像空間における発光中の前記発光部の位置座標に基づいて発音する発音装置と、を備える演奏装置であって、
    前記演奏部材に、
    前記演奏者による前記演奏部材の振り下ろし動作の開始及び終了を検知する検知手段と、
    前記検知手段が前記振り下ろし動作の開始を検知したタイミングで、前記発光部を発光させる発光制御を実行し、前記検知手段が前記振り下ろし動作の終了を検知したタイミングで、前記発光部を消灯させる消灯制御を実行する発光消灯制御手段と、
    を備えることを特徴とする演奏装置。
  2. 前記演奏部材は、前記演奏部材の垂直方向の加速度を検出する加速度センサを備え、
    前記検知手段は、前記加速度センサが検出した前記加速度に基づいて、前記振り下ろし動作の開始及び終了を検知する、
    請求項1に記載の演奏装置。
  3. 前記検知手段は、前記加速度センサが、前記加速度が重力加速度より重力方向に所定値増加したと検出した場合に前記振り下ろし動作の開始を検知し、前記加速度センサが、前記加速度が重力加速度より重力と対向する方向に所定値増加したと検出した場合に前記振り下ろし動作の終了を検知する、
    請求項2に記載の演奏装置。
  4. 前記演奏部材と、前記撮像装置と、前記発音装置とが、無線通信可能に接続された、
    ことを特徴とする請求項1から3の何れかに記載の演奏装置。
  5. 請求項1に記載の発光消灯制御手段に換えて前記検知手段が前記振り下ろし動作の開始を検知したタイミングで、前記発光部を高輝度発光させ、前記検知手段が前記振り下ろし動作の終了を検知したタイミングで、前記発光部を低輝度にすることを特徴とする発光消灯制御手段を備える請求項1から4の何れかに記載の演奏装置。
JP2012179920A 2011-08-23 2012-08-14 演奏装置 Active JP5573899B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012179920A JP5573899B2 (ja) 2011-08-23 2012-08-14 演奏装置
US13/590,690 US9018507B2 (en) 2011-08-23 2012-08-21 Musical instrument that generates electronic sound, light-emission controller used in this musical instrument, and control method of musical instrument

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011181795 2011-08-23
JP2011181795 2011-08-23
JP2012179920A JP5573899B2 (ja) 2011-08-23 2012-08-14 演奏装置

Publications (2)

Publication Number Publication Date
JP2013061637A JP2013061637A (ja) 2013-04-04
JP5573899B2 true JP5573899B2 (ja) 2014-08-20

Family

ID=47741747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012179920A Active JP5573899B2 (ja) 2011-08-23 2012-08-14 演奏装置

Country Status (2)

Country Link
US (1) US9018507B2 (ja)
JP (1) JP5573899B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5573899B2 (ja) * 2011-08-23 2014-08-20 カシオ計算機株式会社 演奏装置
US9035160B2 (en) * 2011-12-14 2015-05-19 John W. Rapp Electronic music controller using inertial navigation
JP5549698B2 (ja) 2012-03-16 2014-07-16 カシオ計算機株式会社 演奏装置、方法及びプログラム
JP5598490B2 (ja) * 2012-03-19 2014-10-01 カシオ計算機株式会社 演奏装置、方法及びプログラム
US9236039B2 (en) 2013-03-04 2016-01-12 Empire Technology Development Llc Virtual instrument playing scheme
JP6116303B2 (ja) 2013-03-25 2017-04-19 株式会社日立ハイテクサイエンス 集束イオンビーム装置
US9360206B2 (en) 2013-10-24 2016-06-07 Grover Musical Products, Inc. Illumination system for percussion instruments
CN105807907B (zh) * 2014-12-30 2018-09-25 富泰华工业(深圳)有限公司 体感交响乐演奏系统及方法
US9799315B2 (en) * 2015-01-08 2017-10-24 Muzik, Llc Interactive instruments and other striking objects
US9966051B2 (en) * 2016-03-11 2018-05-08 Yamaha Corporation Sound production control apparatus, sound production control method, and storage medium
CN108700940A (zh) 2016-05-10 2018-10-23 谷歌有限责任公司 体量虚拟现实键盘方法、用户接口和交互
US9847079B2 (en) * 2016-05-10 2017-12-19 Google Llc Methods and apparatus to use predicted actions in virtual reality environments

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2853451B2 (ja) * 1992-05-22 1999-02-03 ヤマハ株式会社 動作検出装置および楽音制御装置
JP3599115B2 (ja) 1993-04-09 2004-12-08 カシオ計算機株式会社 楽器ゲーム装置
JPH09311759A (ja) * 1996-05-22 1997-12-02 Hitachi Ltd ジェスチャ認識方法および装置
JP2002023742A (ja) 2000-07-12 2002-01-25 Yamaha Corp 発音制御システム、操作ユニットおよび電子打楽器
JP4320766B2 (ja) * 2000-05-19 2009-08-26 ヤマハ株式会社 携帯電話機
JP2002203401A (ja) 2000-12-28 2002-07-19 Microstone Corp 運動感知機能付ライト
JP3846211B2 (ja) * 2001-03-27 2006-11-15 松下電工株式会社 照明システム
JP3873654B2 (ja) * 2001-05-11 2007-01-24 ヤマハ株式会社 オーディオ信号生成装置、オーディオ信号生成システム、オーディオシステム、オーディオ信号生成方法、プログラムおよび記録媒体
JP2003079847A (ja) * 2001-09-17 2003-03-18 Fuji Shoji:Kk 弾球遊技機
JP3933057B2 (ja) * 2003-02-20 2007-06-20 ヤマハ株式会社 仮想打楽器演奏システム
JP2004287020A (ja) * 2003-03-20 2004-10-14 Brother Ind Ltd 演出効果音発生装置、音楽再生装置
US7519537B2 (en) * 2005-07-19 2009-04-14 Outland Research, Llc Method and apparatus for a verbo-manual gesture interface
JP2007121355A (ja) * 2005-10-25 2007-05-17 Rarugo:Kk 演奏システム
JP4679429B2 (ja) * 2006-04-27 2011-04-27 任天堂株式会社 音出力プログラムおよび音出力装置
JP2008118625A (ja) 2006-10-10 2008-05-22 Matsushita Electric Ind Co Ltd 無線制御装置
JP2008116625A (ja) * 2006-11-02 2008-05-22 Yamaha Corp 携帯端末装置
US8941590B2 (en) * 2008-04-24 2015-01-27 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
JP4261611B1 (ja) 2008-05-27 2009-04-30 株式会社バンダイ 擬似刀剣玩具
US8698736B2 (en) * 2009-03-24 2014-04-15 Immersion Corporation Handheld computer interface with haptic feedback
WO2011096976A1 (en) * 2010-02-05 2011-08-11 Sony Computer Entertainment Inc. Controller for interfacing with a computing program using position, orientation, or motion
JP5031070B2 (ja) * 2010-06-14 2012-09-19 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理システム
US8555205B2 (en) * 2010-10-08 2013-10-08 Cywee Group Limited System and method utilized for human and machine interface
JP2012123613A (ja) * 2010-12-08 2012-06-28 Mitsubishi Electric Corp 情報処理装置、情報処理方法、及び情報処理システム
US8550905B2 (en) * 2011-04-11 2013-10-08 Sony Computer Entertainment Inc. Temperature feedback motion controller
JP5573899B2 (ja) * 2011-08-23 2014-08-20 カシオ計算機株式会社 演奏装置
JP2013069224A (ja) * 2011-09-26 2013-04-18 Sony Corp 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム
GB201119447D0 (en) * 2011-11-11 2011-12-21 Fictitious Capital Ltd Computerised percussion instrument
JP2013182195A (ja) * 2012-03-02 2013-09-12 Casio Comput Co Ltd 演奏装置及びプログラム
JP5966465B2 (ja) * 2012-03-14 2016-08-10 カシオ計算機株式会社 演奏装置、プログラム及び演奏方法
JP6127367B2 (ja) * 2012-03-14 2017-05-17 カシオ計算機株式会社 演奏装置及びプログラム
JP6024136B2 (ja) * 2012-03-15 2016-11-09 カシオ計算機株式会社 演奏装置、演奏方法及びプログラム

Also Published As

Publication number Publication date
US9018507B2 (en) 2015-04-28
US20130047823A1 (en) 2013-02-28
JP2013061637A (ja) 2013-04-04

Similar Documents

Publication Publication Date Title
JP5573899B2 (ja) 演奏装置
JP6127367B2 (ja) 演奏装置及びプログラム
JP5966465B2 (ja) 演奏装置、プログラム及び演奏方法
JP6024136B2 (ja) 演奏装置、演奏方法及びプログラム
JP5533915B2 (ja) 習熟度判定装置、習熟度判定方法及びプログラム
US8759659B2 (en) Musical performance device, method for controlling musical performance device and program storage medium
JP5598490B2 (ja) 演奏装置、方法及びプログラム
US8710345B2 (en) Performance apparatus, a method of controlling the performance apparatus and a program recording medium
JP2013040991A (ja) 操作子、操作方法及びプログラム
JP5549698B2 (ja) 演奏装置、方法及びプログラム
JP6398291B2 (ja) 演奏装置、演奏方法及びプログラム
JP5861517B2 (ja) 演奏装置及びプログラム
JP6098081B2 (ja) 演奏装置、演奏方法及びプログラム
JP6094111B2 (ja) 演奏装置、演奏方法及びプログラム
JP6098083B2 (ja) 演奏装置、演奏方法及びプログラム
JP2013195626A (ja) 楽音発生装置
CN103000171B (zh) 演奏装置、发光控制装置及演奏装置的控制方法
JP5974567B2 (ja) 楽音発生装置
JP6098082B2 (ja) 演奏装置、演奏方法及びプログラム
JP5935399B2 (ja) 楽音発生装置
JP5942627B2 (ja) 演奏装置、方法及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140616

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5573899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150