JP6398291B2 - 演奏装置、演奏方法及びプログラム - Google Patents
演奏装置、演奏方法及びプログラム Download PDFInfo
- Publication number
- JP6398291B2 JP6398291B2 JP2014091116A JP2014091116A JP6398291B2 JP 6398291 B2 JP6398291 B2 JP 6398291B2 JP 2014091116 A JP2014091116 A JP 2014091116A JP 2014091116 A JP2014091116 A JP 2014091116A JP 6398291 B2 JP6398291 B2 JP 6398291B2
- Authority
- JP
- Japan
- Prior art keywords
- angle
- unit
- virtual
- performance
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
例えば、特許文献1には、演奏者のスティック状の演奏部材を用いた演奏動作を撮像すると共に、当該演奏動作の撮像画像と、楽器セットを示す仮想画像とを合成した合成画像をモニタに表示する楽器ゲーム装置が提案されている。この楽器ゲーム装置は、撮像画像における演奏部材の位置が複数の楽器エリアを有する仮想画像の中のいずれかの楽器エリアに入った場合、当該位置が入った楽器エリアに対応する音を発音する。
そのため、いずれの楽器エリアに演奏装置による打撃が行われたか、あるいは、楽器エリアにどのような状態で演奏装置による打撃が行われたか等を正確に判定することができず、演奏者の演奏操作を適確に反映した発音を行うことが困難であった。
初めに、図1を参照して、本発明の一実施形態としての演奏装置1の概要について説明する。
図1(1)に示すように、本実施形態の演奏装置1は、スティック部10A,10Bと、カメラユニット部20と、センターユニット部30と、を含んで構成される。本実施形態の演奏装置1は、左右2本のスティックを用いた仮想的なドラム演奏を実現するため、2つのスティック部10A,10Bを備えることとしているが、スティック部の数は、これに限られない。例えば、スティック部の数を1つとしたり、3つ以上としたりしてもよい。なお、以下では、スティック部10A,10Bを個々に区別する必要がない場合には、両者を総称して「スティック部10」と呼ぶ。
また、スティック部10の先端側には、後述するマーカー部15(図2参照)が設けられており、撮像時にカメラユニット部20がスティック部10の先端を判別可能に構成されている。
また、スティック部10は、各種センサが設けられていることにより、スティック部10の角度を検出可能に構成されている。スティック部10は、センターユニット部30にノートオンイベントを送信する際に、スティック部10の角度をショット角度データとして送信する。
センターユニット部30は、仮想楽器セット情報と、ノートオンイベント受信時のマーカー部15の位置座標データ及びスティック部10のショット角度データとに基づいて、スティック部10が仮想的に打撃した仮想楽器を特定する。センターユニット部30は、特定した仮想楽器の仮想楽器情報及び音色情報と、スティック部10のショット角度とに基づいて、楽音を発音する。
初めに、図2〜図5を参照して、本実施形態の演奏装置1の各構成要素、具体的には、スティック部10、カメラユニット部20及びセンターユニット部30の構成について説明する。
図2は、スティック部10のハードウェア構成を示すブロック図である。
図2に示すように、スティック部10は、CPU11(Central Processing Unit)と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、モーションセンサ部14と、マーカー部15と、データ通信部16と、スイッチ操作検出回路17と、を含んで構成される。
ここで、スティック部10AのCPU11及びスティック部10BのCPU11は、スティック部10A、10Bにそれぞれ設けられたROM12から、それぞれ異なるマーカー特徴情報を読み出し、それぞれのマーカーの発光制御を実行する。
演奏者は、スティック部10の一端(根元側)を保持し、手首等を中心とした振り上げ振り下ろし動作を行うことで、スティック部10に対して運動を生じさせる。その際にこの運動に応じたセンサ値がモーションセンサ部14から出力されるようになっている。
スティック部10の構成についての説明は、以上である。続いて、図を参照して、位置検出装置としてのカメラユニット部20の構成について説明する。
図4は、カメラユニット部20のハードウェア構成を示すブロック図である。
カメラユニット部20は、CPU21と、ROM22と、RAM23と、イメージセンサ部24と、データ通信部25と、を含んで構成される。
続いて、図5を参照して、センターユニット部30の構成について説明する。
図5は、センターユニット部30のハードウェア構成を示すブロック図である。
センターユニット部30は、CPU31と、ROM32と、RAM33と、スイッチ操作検出回路34と、表示回路35と、音源装置36と、データ通信部37と、を含んで構成される。
なお、仮想楽器としては、例えば、フルート、サックス、トランペット等の管楽器、ピアノ等の鍵盤楽器、ギター等の弦楽器、バスドラム、ハイハット、スネア、シンバル、タム、太鼓等の打楽器等があげられる。
図6は、仮想楽器セット情報、仮想楽器情報及び音色情報のデータ構造及びそれぞれの情報の関連性を示す概念図である。
仮想楽器セット情報は、仮想平面上に設けられる複数の仮想楽器セットそれぞれに関する情報である。仮想楽器セット情報は、図6(1)に示すように、仮想楽器セットを構成する仮想楽器のセットレイアウトを示すセットレイアウト情報を含んで構成される。セットレイアウト情報には、仮想楽器セットを構成する仮想楽器の位置座標(Cx,Cy)及び設置角度(θoffset)並びに仮想楽器を特定する楽器番号が対応付けて格納されている。
仮想楽器情報は、仮想楽器のサイズや発音する音色に関する情報である。仮想楽器情報には、仮想楽器セット情報に記憶される楽器番号と対応する楽器番号、サイズ(仮想楽器の形状、径、縦方向の長さ、横方向の長さ等)、発音角度のデータが対応付けて格納されている。発音角度のデータは、境界角度(θH、θL)及び音色番号を含んでいる。
音色情報は、仮想楽器情報に含まれる音色番号と対応付けて格納され、仮想楽器が発音する音色に関する波形データが含まれている。
図7は、センターユニット部30のROM32に格納された仮想楽器セット情報が示す概念を仮想平面上で可視化した図である。
図7(2)は、6個の仮想パッド81〜86のうち、仮想パッド81及び仮想パッド82の設置角度を示している。なお、図7(2)は、仮想パッド81,82を側方から見た状態を示しており、水平面を基準とする設置角度を示している。
図7(2)に示すように、仮想パッド81は、設置角度が0°に設定され、仮想パッド82は、設置角度が−20°に設定されている。
図8は、仮想パッド81の形状の特徴を表す概念図である。なお、図8においては、仮想パッド81を上面視した状態を示している。
図8において、仮想パッド81は、領域毎に発音する音色が異なるようになっており、ベルカップ領域81A、ライド領域81B及びクラッシュ領域81Cのそれぞれに異なる音色が関連付けられている。各領域は、その領域を特定するために、発音角度が設定されている。即ち、スティック部10のショット角度と発音角度との関係に基づいて、仮想パッド81の領域が特定され、その領域の音色が特定される。
なお、仮想楽器に対応付けられる複数の音色の発音角度は、互いの角度の範囲を重複して設定することができる。例えば、ある仮想楽器に、1つの音色の発音角度(θH=20°,θL=0°)と他の音色の発音角度(θH=10°,θL=−20°)とを設定することができる。
これにより、CPU31は、ショット検出時(即ち、ノートオンイベント受信時)にマーカー部15の位置座標に対応する仮想楽器を特定する。CPU31は、ショット角度に基づいて、特定した仮想楽器の発音角度に関連付けられている音色番号を特定する。そして、CPU31は、特定した音色番号に対応する音色情報(波形データ)をROM32から読み出して、演奏者の演奏動作に応じた楽音の発音を制御する。
CPU31は、特定した音色が単数である場合には、その楽音の発音制御を行い、特定した音色が複数である場合には、算出した混合比に基づいて、それぞれの楽音の発音制御を行う。
図9は、センターユニット部30のROM32に格納された仮想楽器情報が示す概念を可視化した図である。
他方、図9(2)では、スティック部10により、ヘッド部分83Aとリム部分83Bとが同時に打撃されている。この場合、ヘッド部分83Aとリム部分83Bの双方に対応する音色を発音させる。
即ち、スティック部10のショット角度に基づいて、仮想楽器のいずれの部分が打撃されたかを特定し、ショット角度が複数の部分に対応する発音角度の範囲に含まれる場合には、音色を混合して発音させる。
また、表示回路35は、表示装置351と接続され、表示装置351の表示制御を実行する。
また、データ通信部37は、スティック部10及びカメラユニット部20との間で所定の無線通信(例えば、赤外線通信)を行う。
以上、演奏装置1を構成するスティック部10、カメラユニット部20及びセンターユニット部30の構成について説明した。続いて、図10〜図15を参照して、演奏装置1の処理について説明する。
図10は、スティック部10が実行する処理(以下、「スティック部処理」と呼ぶ)の流れを示すフローチャートである。
図10を参照して、スティック部10のCPU11は、モーションセンサ部14からモーションセンサ情報としてのセンサ値を読み出すと共に、センサ値をRAM13に格納する(ステップS1)。その後、CPU11は、読み出したモーションセンサ情報に基づいて、スティック部10の姿勢検知処理を実行する(ステップS2)。姿勢検知処理では、CPU11は、モーションセンサ情報に基づいて、スティック部10のロール角及びピッチ角等のショット角度を算出する。
スティック部10のCPU11は、スティック部10の動作を止めようとする動作を検出して発音タイミングが到来したと判断すると、ノートオンイベントを生成し、センターユニット部30に送信する。ここで、CPU11は、ノートオンイベントを生成する場合に、モーションセンサ情報(例えば、加速度センサのセンサ合成値の最大値)に基づいて、発音する楽音の音量を決定するためのショット速度を、ノートオンイベントに含ませるようにしてもよい。
続いて、CPU11は、処理をステップS1に戻す。これにより、ステップS1からステップS4の処理が繰り返される。
図11は、カメラユニット部20が実行する処理(以下、「カメラユニット部処理」と呼ぶ)の流れを示すフローチャートである。
図11を参照して、カメラユニット部20のCPU21は、イメージデータ取得処理を実行する(ステップS11)。この処理では、CPU21は、イメージセンサ部24からイメージデータを取得する。
図12は、センターユニット部30が実行する処理(以下、「センターユニット部処理」と呼ぶ)の流れを示すフローチャートである。
図12を参照して、センターユニット部30のCPU31は、センターユニット部処理に必要な情報を初期化する(ステップS21)。ここで、センターユニット部処理に必要な情報は、仮想楽器セット番号(Set_ID)、仮想楽器番号(Parts_ID)、スティック部10の位置座標(Sitck.Coord.x,Sitck.Coord.y)、スティック部10のショット角度(Sitck.ShotAngle)、スティック部10のショット速度(Sitck.Velocity)である。これらは、適宜、スイッチ341等を介して入力される。
また、CPU31は、仮想楽器セット番号の選択値を取得(Set_IDに値を設定)する(ステップS22)。
また、CPU31は、音色特定処理を実行し(ステップS27)、特定した仮想楽器のショット角度に対応した音色を特定すると共に、特定した音色の混合比率を算出する。音色特定処理については、図14を参照して詳述する。
そして、CPU31は、特定した音色番号に対応する波形データを取得して、波形データを混合比率に基づいて混合し、発音処理を行う(ステップS28)。
続いて、CPU31は、処理をステップS22に戻す。これにより、ステップS22からステップS28の処理が繰り返される。
図13は、センターユニット部30が実行する仮想楽器特定処理の流れを示すフローチャートである。
センターユニット部30のCPU31は、仮想楽器特定処理に必要な情報について、情報の初期化処理を行う(ステップS261)。仮想楽器特定処理に必要な情報は、セットレイアウト情報、候補仮想楽器番号(Parts_ID)、最短距離情報(min_distance)、カウンタ(parts_counter)、マーカー位置座標(Mx,My)である。
具体的には、CPU31は、仮想楽器セット情報に設定された仮想楽器セット番号(Set_ID)に基づいて、セットレイアウト情報を取得する。また、候補仮想楽器番号に楽器数(例えば、仮想楽器番号が0〜5の場合は6)を代入し、最短距離情報に最大値を代入する。また、カウンタ(parts_counter)を0に設定する。また、マーカー位置座標にスティック部10の位置座標を設定する。
具体的には、CPU31は、距離Lを算出するために、横方向の距離Lxと縦方向の距離Lyとを以下に示される式(1)、(2)で算出する。そして、CPU31は、算出した横方向の距離Lxと縦方向の距離Lyとに基づいて、距離Lを以下に示される式(3)で算出する。
Ly=(Cy−My)*(K/Sy)・・・(2)
L=((Lx*Lx)+(Ly*Ly))^(1/2)・・・(3)
ここで、Kは、サイズの重み付け係数であり、各パーツの計算において共通の定数である。また、演算記号「^」は、べき乗を意味する。即ち、式(3)における「^(1/2)」は、1/2乗を示すものである。なお、この重み付け係数Kは、横方向の距離Lxを算出する場合と、縦方向Lyの距離を算出する場合とで異なるように設定してもよい。
このとき、CPU31が算出した距離Lが最短距離情報よりも小さいと判断した場合に、CPU31は、ステップS265に処理を移行する。CPU31が算出した距離Lが最短距離情報よりも大きいと判断した場合に、CPU31は、ステップS266に処理を移行する。
図14は、センターユニット部30が実行する音色特定処理の流れを示すフローチャートである。
センターユニット部30のCPU31は、音色特定処理に必要な情報について、情報の初期化処理を行う(ステップS271)。音色特定処理に必要な情報は、有効発音角フラグ(Available_Flag)、カウンタ(Angle_Separate_Counter)であり、それぞれに0が設定される。
また、CPU31は、カウンタに対応する発音角度の情報について、混合比を初期化(Gain[Angle_Separate_Counter]=0.0)する(ステップS274)。
このとき、設置角度を加味したショット角度(θs)がカウンタに対応する発音角度の範囲内である、即ち、有効なショット角度である場合、CPU31は、ステップS276に処理を移行する。また、設置角度を加味したショット角度(θs)がカウンタに対応する発音角度の範囲外である、即ち、有効なショット角度でない場合、CPU31は、ステップS277に処理を移行する。
即ち、ステップS276の処理では、発音する音色を特定する情報とその音色の混合比率の暫定値が設定される。
なお、Available_Flag|=(1<<Angle_Separate_Counter)で表される演算は、2進数の1を左にAngle_Separate_Counter分ビットシフトし(例えば、Angle_Separate_Counterが2であれば、100となる)、Available_Flagが有する値(例えば、001)と論理和を取った値(例えば、001と100との論理和101)がAvailable_Flagに設定されることを意味する。
CPU31は、全ての発音角度を確認したか否かを判断する(ステップS278)。全ての発音角度を確認した場合、CPU31は、ステップS279に処理を移行する。全ての発音角度を確認していない場合、CPU31は、ステップS273に処理を移行する。
続いて、CPU31は、混合比算出処理を実行し(ステップS279)、センターユニット部処理に処理を戻す。混合比算出処理については、図15を参照して詳述する。
図15は、センターユニット部30が実行する混合比算出処理の流れを示すフローチャートである。
センターユニット部30のCPU31は、複数の音色を同時に発音する場合かを判断する(ステップS2791)。このとき、複数の音色を同時に発音する場合には、CPU31は、処理をステップS2792に移す。また、複数の音色を同時に発音しない場合には、CPU31は、処理を音色特定処理に戻す。
なお、CPU31は、Available_Flagを参照して、複数のビットが立っているか否かによって、複数の音色を同時に発音する場合か否かを判断する。即ち、CPU31は、Available_Flagが、例えば、11(10進数では3)である場合には、複数のビットが立っているため、同時に発音する場合であると判断する。
図16は、仮想パッド83のヘッド部分83Aとリム部分83Bとを同時に打撃した場合におけるヘッド部分83Aの音色とリム部分83Bの音色との関係を示す概念図である。
仮想パッド83において、ヘッド部分83Aは、スティック部10のショット角度θsが上限の境界角θT1Hから下限の境界角θT1Lの間にある場合に、音色Aを発音する。他方、リム部分83Bは、スティック部10のショット角度θsが上限の境界角θT2Hから下限の境界角θT2Lの間にある場合に、音色Bを発音する。そのため、スティック部10のショット角度θsは、リム部分83Bの上限の境界角θT2Hからヘッド部分83Aの下限の境界角θT1Lの間にある場合に、音色Aと音色Bとを同時に発音する。
これにより、全体の音量を適切に保ちながら、ショット角度θsに応じて、音色A及び音色Bを混合することができる。
スティック部10は、演奏者に保持される。
スティック部10のモーションセンサ部14は、予め設定された仮想平面上における仮想楽器に対して、スティック部10にて予め定められた操作が行われたことを検出する。
また、スティック部10のモーションセンサ部14は、操作が行われたときのスティック部10の角度を取得する。
また、センターユニット部30は、仮想楽器に予め対応付けられている発音角度と、スティック部10が取得した角度とが適合する場合に、当該発音角度に対応付けられた楽音を特定する。
さらに、センターユニット部30は、特定された楽音の発音を音源に対して指示する。
したがって、演奏装置1は、演奏者が操作したスティック部10の打撃の状態をより正確に特定することができ、特定した打撃の状態に基づいて演奏者が意図したように発音することができる。
即ち、演奏装置1によれば、演奏者の演奏操作をより適確に反映した発音を行うことが可能となる。
センターユニット部30は、仮想楽器それぞれについて、当該仮想楽器の中心位置座標、サイズ及び発音角度を含む情報を記憶する。
スティック部10のモーションセンサ部14は、仮想平面上における演奏部材の位置座標を検出する。
センターユニット部30は、操作が行われたことが検出された場合に、カメラユニット部20により検出された位置座標と、各仮想楽器の中心位置座標との間の距離のそれぞれを、対応する各仮想楽器のサイズに基づいて算出する。
また、センターユニット部30は、算出した各距離のうち最も短い距離に対応する仮想楽器を特定する。
したがって、演奏装置1は、複数の仮想楽器について、演奏者が操作したスティック部10の打撃の状態をより正確に特定することができ、特定した打撃の状態に基づいて演奏者が意図したように発音することができる。
即ち、演奏装置1によれば、複数の仮想楽器について、演奏者の演奏操作をより適確に反映した発音を行うことが可能となる。
カメラユニット部20は、仮想平面としての撮像画像平面におけるスティック部10の位置座標を検出する。
したがって、撮像装置を用いて、演奏者が操作したスティック部10の打撃部位や打撃の状態を簡単かつ正確に特定することができる。
したがって、演奏者により設定された仮想楽器の傾きを適確に反映して、演奏者が意図したように発音することができる。
また、センターユニット部30は、スティック部10が取得した角度と、発音角度に基づいて、特定した複数の楽音の混合比を算出する。
したがって、演奏装置1は、演奏者が仮想楽器の複数部位を同時に打撃して発音しようと意図した場合においても、演奏者が意図したように発音することができる。
換言すると、図2、4、5の構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が演奏装置1に備えられていれば足り、この機能を実現するためにどのような構成を構築するのかは特に図2、4、5の例に限定されない。
このコンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータであってもよい。
[付記1]
演奏者に保持される演奏部材と、
予め設定された仮想平面上における仮想楽器に対して、前記演奏部材にて予め定められた操作が行われたことを検出する操作検出手段と、
前記操作が行われたときの前記演奏部材の角度を取得する角度取得手段と、
前記仮想楽器に予め対応付けられている発音角度と、前記角度取得手段が取得した前記角度とが適合する場合に、当該発音角度に対応付けられた楽音を特定する発音特定手段と、
前記発音特定手段により特定された前記楽音の発音を音源に対して指示する発音指示手段と、
を備える演奏装置。
[付記2]
前記仮想楽器は前記仮想平面上に複数設けられ、
前記演奏装置はさらに、
前記仮想楽器それぞれについて、当該仮想楽器の中心位置座標、サイズ及び発音角度を含む情報を記憶する記憶手段と、
前記仮想平面上における前記演奏部材の位置座標を検出する位置検出手段と、
前記操作が行われたことが検出された場合に、前記位置検出手段により検出された位置座標と、前記各仮想楽器の中心位置座標との間の距離のそれぞれを、対応する前記各仮想楽器のサイズに基づいて算出する距離算出手段と、
前記距離算出手段により算出された各距離のうち最も短い距離に対応する仮想楽器を特定する楽器特定手段と、
を有することを特徴とする付記1に記載の演奏装置。
[付記3]
前記演奏部材を被写体とする撮像画像を撮像する撮像手段をさらに備え、
前記位置検出手段は、前記仮想平面としての撮像画像平面における前記演奏部材の位置座標を検出する、付記2に記載の演奏装置。
[付記4]
前記発音特定手段は、当該仮想楽器の設置角度を前記角度取得手段が取得した前記角度に加算し、該角度が、前記楽器特定手段により特定された仮想楽器に対応する発音角度に適合する場合に、当該発音角度に対応付けられた楽音の発音を特定する、付記2又は3に記載の演奏装置。
[付記5]
前記仮想楽器には、複数の楽音に対応する前記発音角度が対応づけられ、
前記角度取得手段が取得した前記角度と、前記仮想楽器に対応付けられた前記発音角度とに基づいて、前記発音特定手段によって特定された複数の楽音の混合比を算出する混合比算出手段をさらに備え、
前記発音指示手段は、
前記混合比に基づいて、前記発音特定手段により特定された前記楽音の発音を指示する、付記1から4のいずれか1つに記載の演奏装置。
[付記6]
演奏者に保持される演奏部材を有する演奏装置に用いられる演奏方法であって、
前記演奏装置が、
予め設定された仮想平面上における仮想楽器に対して、前記演奏部材にて予め定められた操作が行われたことを検出し、
前記操作が行われたときの前記演奏部材の角度を取得し、
前記仮想楽器に予め対応付けられている発音角度と、前記取得した角度とが適合する場合に、当該発音角度に対応付けられた楽音を特定し、
前記特定された前記楽音の発音を音源に対して指示する、演奏方法。
[付記7]
演奏者に保持され、予め設定された仮想平面上における仮想楽器に対して、演奏部材にて予め定められた操作が行われたことを検出すると共に、前記操作が行われたときの当該演奏部材の角度を取得する演奏部材を備える演奏装置として用いられるコンピュータに、
前記仮想楽器に予め対応付けられている発音角度と、前記演奏部材が取得した前記角度とが適合する場合に、当該発音角度に対応付けられた楽音を特定するステップと、
前記特定された前記楽音の発音を音源に対して指示するステップと、
を実行させるプログラム。
Claims (6)
- 予め設定された仮想平面上において、第1範囲の角度に第1音色が対応付けられ、前記第1範囲の一部を少なくとも含む第2範囲の角度に第2音色が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出手段と、
前記操作が行われたときの前記演奏部材の角度を取得する角度取得手段と、
前記角度取得手段が取得した前記角度が、前記第1範囲及び前記第2範囲のいずれにも含まれる場合に、前記第1音色と前記第2音色とを混合した楽音の発音を音源に対して指示する発音指示手段と、
を備える演奏装置。 - 演奏装置のコンピュータに、
予め設定された仮想平面上において、第1範囲の角度に第1音色が対応付けられ、前記第1範囲の一部を少なくとも含む第2範囲の角度に第2音色が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出処理と、
前記操作が行われたときの前記演奏部材の角度を取得する角度取得処理と、
前記角度取得処理にて取得した前記角度が、前記第1範囲及び前記第2範囲のいずれにも含まれる場合に、前記第1音色と前記第2音色とを混合した楽音の発音を音源に対して指示する発音指示処理と、
を実行させる演奏方法。 - 演奏装置のコンピュータに、
予め設定された仮想平面上において、第1範囲の角度に第1音色が対応付けられ、前記第1範囲の一部を少なくとも含む第2範囲の角度に第2音色が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出処理と、
前記操作が行われたときの前記演奏部材の角度を取得する角度取得処理と、
前記角度取得処理にて取得した前記角度が、前記第1範囲及び前記第2範囲のいずれにも含まれる場合に、前記第1音色と前記第2音色とを混合した楽音の発音を音源に対して指示する発音指示処理と、
を実行させるプログラム。 - 予め設定された仮想平面上において、音色に応じた発音角度情報と、演奏者により設定される設置角度情報と、が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出手段と、
前記操作が行われたときの前記演奏部材の角度を取得する角度取得手段と、
前記発音角度情報が示す発音角度と、前記角度取得手段が取得した前記角度と、前記設置角度情報が示す角度と、から特定された音色の楽音の発音を音源に対して指示する発音指示手段と、
を備える演奏装置。 - 演奏装置のコンピュータに、
予め設定された仮想平面上において、音色に応じた発音角度情報と、演奏者により設定される設置角度情報と、が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出処理と、
前記操作が行われたときの前記演奏部材の角度を取得する角度取得処理と、
前記発音角度情報が示す発音角度と、前記角度取得処理にて取得した前記角度と、前記設置角度情報が示す角度と、から特定された音色の楽音の発音を音源に対して指示する発音指示処理と、
を実行させる演奏方法。 - 演奏装置のコンピュータに、
予め設定された仮想平面上において、音色に応じた発音角度情報と、演奏者により設定される設置角度情報と、が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出処理と、
前記操作が行われたときの前記演奏部材の角度を取得する角度取得処理と、
前記発音角度情報が示す発音角度と、前記角度取得処理にて取得した前記角度と、前記設置角度情報が示す角度と、から特定された音色の楽音の発音を音源に対して指示する発音指示処理と、
を実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014091116A JP6398291B2 (ja) | 2014-04-25 | 2014-04-25 | 演奏装置、演奏方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014091116A JP6398291B2 (ja) | 2014-04-25 | 2014-04-25 | 演奏装置、演奏方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015210350A JP2015210350A (ja) | 2015-11-24 |
JP6398291B2 true JP6398291B2 (ja) | 2018-10-03 |
Family
ID=54612587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014091116A Active JP6398291B2 (ja) | 2014-04-25 | 2014-04-25 | 演奏装置、演奏方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6398291B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7137944B2 (ja) * | 2018-03-20 | 2022-09-15 | 株式会社バンダイナムコエンターテインメント | プログラム及びコンピュータシステム |
KR102128315B1 (ko) * | 2018-06-25 | 2020-06-30 | 서울시립대학교 산학협력단 | 가상 악기 시각화 기반 미디 음악 편곡 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5099176B2 (ja) * | 2010-06-15 | 2012-12-12 | カシオ計算機株式会社 | 演奏装置および電子楽器 |
JP5966465B2 (ja) * | 2012-03-14 | 2016-08-10 | カシオ計算機株式会社 | 演奏装置、プログラム及び演奏方法 |
JP5598490B2 (ja) * | 2012-03-19 | 2014-10-01 | カシオ計算機株式会社 | 演奏装置、方法及びプログラム |
-
2014
- 2014-04-25 JP JP2014091116A patent/JP6398291B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015210350A (ja) | 2015-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5966465B2 (ja) | 演奏装置、プログラム及び演奏方法 | |
US8759659B2 (en) | Musical performance device, method for controlling musical performance device and program storage medium | |
US8723013B2 (en) | Musical performance device, method for controlling musical performance device and program storage medium | |
JP6127367B2 (ja) | 演奏装置及びプログラム | |
JP5598490B2 (ja) | 演奏装置、方法及びプログラム | |
US8710345B2 (en) | Performance apparatus, a method of controlling the performance apparatus and a program recording medium | |
JP5533915B2 (ja) | 習熟度判定装置、習熟度判定方法及びプログラム | |
JP5573899B2 (ja) | 演奏装置 | |
US20120216667A1 (en) | Musical performance apparatus and electronic instrument unit | |
US9514729B2 (en) | Musical instrument, method and recording medium capable of modifying virtual instrument layout information | |
JP6398291B2 (ja) | 演奏装置、演奏方法及びプログラム | |
JP5861517B2 (ja) | 演奏装置及びプログラム | |
JP6111526B2 (ja) | 楽音発生装置 | |
JP6094111B2 (ja) | 演奏装置、演奏方法及びプログラム | |
JP6098083B2 (ja) | 演奏装置、演奏方法及びプログラム | |
JP2013195626A (ja) | 楽音発生装置 | |
JP5974567B2 (ja) | 楽音発生装置 | |
JP5935399B2 (ja) | 楽音発生装置 | |
JP2014062945A (ja) | 演奏装置、演奏方法及びプログラム | |
JP6098082B2 (ja) | 演奏装置、演奏方法及びプログラム | |
JP2014002249A (ja) | 演奏装置、方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180130 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180807 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180820 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6398291 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |