JP6398291B2 - 演奏装置、演奏方法及びプログラム - Google Patents

演奏装置、演奏方法及びプログラム Download PDF

Info

Publication number
JP6398291B2
JP6398291B2 JP2014091116A JP2014091116A JP6398291B2 JP 6398291 B2 JP6398291 B2 JP 6398291B2 JP 2014091116 A JP2014091116 A JP 2014091116A JP 2014091116 A JP2014091116 A JP 2014091116A JP 6398291 B2 JP6398291 B2 JP 6398291B2
Authority
JP
Japan
Prior art keywords
angle
unit
virtual
performance
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014091116A
Other languages
English (en)
Other versions
JP2015210350A (ja
Inventor
林 龍太郎
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014091116A priority Critical patent/JP6398291B2/ja
Publication of JP2015210350A publication Critical patent/JP2015210350A/ja
Application granted granted Critical
Publication of JP6398291B2 publication Critical patent/JP6398291B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、演奏装置、演奏方法及びプログラムに関する。
従来、演奏者の演奏動作を検知すると、演奏動作に応じた電子音を発音する演奏装置が提案されている。
例えば、特許文献1には、演奏者のスティック状の演奏部材を用いた演奏動作を撮像すると共に、当該演奏動作の撮像画像と、楽器セットを示す仮想画像とを合成した合成画像をモニタに表示する楽器ゲーム装置が提案されている。この楽器ゲーム装置は、撮像画像における演奏部材の位置が複数の楽器エリアを有する仮想画像の中のいずれかの楽器エリアに入った場合、当該位置が入った楽器エリアに対応する音を発音する。
特許第3599115号公報
しかしながら、特許文献1に記載の楽器ゲーム装置のように、楽器セットの各パーツを楽器エリアに関連付けておき、当該楽器エリアに基づいて音を発生させる場合、演奏部材の位置を取得する際のフレームレートが十分高くないと、高速に移動される演奏部材を正確に検出することができない。
そのため、いずれの楽器エリアに演奏装置による打撃が行われたか、あるいは、楽器エリアにどのような状態で演奏装置による打撃が行われたか等を正確に判定することができず、演奏者の演奏操作を適確に反映した発音を行うことが困難であった。
本発明は、このような状況に鑑みてなされたものであり、演奏者の演奏操作をより適確に反映した発音を行うことができる演奏装置、演奏方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明の一態様の演奏装置は、め設定された仮想平面上において、第1範囲の角度に第1音色が対応付けられ、前記第1範囲の一部を少なくとも含む第2範囲の角度に第2音色が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出手段と、前記操作が行われたときの前記演奏部材の角度を取得する角度取得手段と、記角度取得手段が取得した前記角度が、前記第1範囲及び前記第2範囲のいずれにも含まれる場合に、前記第1音色と前記第2音色とを混合した楽音の発音を音源に対して指示する発音指示手段と、を備える。
本発明によれば、演奏者の演奏操作をより適確に反映した発音を行うことができる。
本発明の演奏装置の一実施形態の概要を示す図である。 上記演奏装置を構成するスティック部のハードウェア構成を示すブロック図である。 上記スティック部の斜視図である。 上記演奏装置を構成するカメラユニット部のハードウェア構成を示すブロック図である。 上記演奏装置を構成するセンターユニット部のハードウェア構成を示すブロック図である。 本発明の演奏装置の一実施形態に係る仮想楽器セット情報、仮想楽器情報及び音色情報のデータ構造及びそれぞれの情報の関連性を示す概念図である。 上記情報が示す仮想楽器セット情報が示す概念を仮想平面上で可視化した図である。 仮想パッドの形状の特徴を表す概念図である。 仮想楽器情報が示す概念を可視化した図である。 スティック部処理の流れを示すフローチャートである。 カメラユニット部処理の流れを示すフローチャートである。 センターユニット部処理の流れを示すフローチャートである。 仮想楽器特定処理の流れを示すフローチャートである。 音色特定処理の流れを示すフローチャートである。 混合比算出処理の流れを示すフローチャートである。 同時に打撃した場合におけるヘッド部分の音色とリム部分の音色との関係を示す概念図である。
以下、本発明の実施形態について、図面を用いて説明する。
[演奏装置1の概要]
初めに、図1を参照して、本発明の一実施形態としての演奏装置1の概要について説明する。
図1(1)に示すように、本実施形態の演奏装置1は、スティック部10A,10Bと、カメラユニット部20と、センターユニット部30と、を含んで構成される。本実施形態の演奏装置1は、左右2本のスティックを用いた仮想的なドラム演奏を実現するため、2つのスティック部10A,10Bを備えることとしているが、スティック部の数は、これに限られない。例えば、スティック部の数を1つとしたり、3つ以上としたりしてもよい。なお、以下では、スティック部10A,10Bを個々に区別する必要がない場合には、両者を総称して「スティック部10」と呼ぶ。
スティック部10は、長手方向に延びるスティック状の演奏部材である。演奏者は、スティック部10の一端(根元側)を手に持ち、手首等を中心として振り上げたり振り下ろしたりする動作を、演奏動作として行う。このような演奏者の演奏動作を検知するため、スティック部10の他端(先端側)には、加速度センサ及び角速度センサ等の各種センサが設けられている(後述のモーションセンサ部14)。スティック部10は、これらの各種センサにより検知された演奏動作に基づいて、センターユニット部30にノートオンイベントを送信する。
また、スティック部10の先端側には、後述するマーカー部15(図2参照)が設けられており、撮像時にカメラユニット部20がスティック部10の先端を判別可能に構成されている。
また、スティック部10は、各種センサが設けられていることにより、スティック部10の角度を検出可能に構成されている。スティック部10は、センターユニット部30にノートオンイベントを送信する際に、スティック部10の角度をショット角度データとして送信する。
カメラユニット部20は、光学式の撮像装置として構成され、スティック部10を保持して演奏動作を行う演奏者を被写体として含む空間(以下、「撮像空間」と呼ぶ)を、所定のフレームレートで撮像し、動画像のデータとして出力する。カメラユニット部20は、撮像空間内における発光中のマーカー部15の位置座標を特定し、当該位置座標を示すデータ(以下、「位置座標データ」と呼ぶ)をセンターユニット部30に送信する。
センターユニット部30は、スティック部10からノートオンイベントを受信すると、ノートオンイベント受信時のマーカー部15の位置座標データ及びスティック部10のショット角度データに応じて、所定の楽音を発音する。具体的には、センターユニット部30は、カメラユニット部20の撮像空間に対応付けて、仮想楽器セット情報を記憶している。仮想楽器セット情報は、各種の仮想楽器セットを示す情報が記憶されており、例えば、図1(2)に示す仮想ドラムセットDの情報を仮想楽器セット情報として記憶している。仮想楽器セット情報は、仮想楽器セットを構成する仮想楽器の配置を示す楽器レイアウト情報から構成されている。また、センターユニット部30は、仮想楽器情報や音色情報を記憶している。仮想楽器情報は、仮想楽器セットを構成する各種の仮想楽器に関する情報を含んでいる。音色情報は、仮想楽器に対応する音色に関する情報を含んでいる。仮想楽器セット情報、仮想楽器情報及び音色情報に関するデータ構造は、図6の説明において詳述する。
センターユニット部30は、仮想楽器セット情報と、ノートオンイベント受信時のマーカー部15の位置座標データ及びスティック部10のショット角度データとに基づいて、スティック部10が仮想的に打撃した仮想楽器を特定する。センターユニット部30は、特定した仮想楽器の仮想楽器情報及び音色情報と、スティック部10のショット角度とに基づいて、楽音を発音する。
次に、このような本実施形態の演奏装置1の構成について具体的に説明する。
[演奏装置1の構成]
初めに、図2〜図5を参照して、本実施形態の演奏装置1の各構成要素、具体的には、スティック部10、カメラユニット部20及びセンターユニット部30の構成について説明する。
[スティック部10の構成]
図2は、スティック部10のハードウェア構成を示すブロック図である。
図2に示すように、スティック部10は、CPU11(Central Processing Unit)と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、モーションセンサ部14と、マーカー部15と、データ通信部16と、スイッチ操作検出回路17と、を含んで構成される。
CPU11は、スティック部10全体の制御を実行し、例えば、モーションセンサ部14から出力されるセンサ値に基づいて、スティック部10の姿勢の検知、ショット検出及びアクション検出に加え、マーカー部15の発光・消灯等の制御を実行する。このとき、CPU11は、マーカー特徴情報をROM12から読み出し、当該マーカー特徴情報に従い、マーカー部15の発光制御を実行する。また、CPU11は、データ通信部16を介して、センターユニット部30との間の通信制御を実行する。
ROM12は、CPU11により各種処理が実行されるための処理プログラムを格納する。また、ROM12は、マーカー部15の発光制御に用いるマーカー特徴情報を格納する。マーカー特徴情報とは、スティック部10Aのマーカー部15(以下、「第1マーカー」と適宜呼ぶ)と、スティック部10Bのマーカー部15(以下、「第2マーカー」と適宜呼ぶ)とを区別するための情報である。マーカー特徴情報には、例えば、発光時の形状、大きさ、色相、彩度、あるいは輝度に加え、発光時の点滅スピード等を用いることができる。
ここで、スティック部10AのCPU11及びスティック部10BのCPU11は、スティック部10A、10Bにそれぞれ設けられたROM12から、それぞれ異なるマーカー特徴情報を読み出し、それぞれのマーカーの発光制御を実行する。
RAM13は、モーションセンサ部14が出力した各種センサ値等、処理において取得され又は生成された値を格納する。
モーションセンサ部14は、スティック部10の状態を検知する。即ち、モーションセンサ部14は、演奏者によりスティック部10で仮想的な楽器を打撃する等の所定の操作が行われたことを検出するための各種センサである。また、モーションセンサ部14は、演奏者が仮想楽器を打撃した際のショット角度を検出するための各種センサである。ここで、モーションセンサ部14を構成するセンサとしては、例えば、加速度センサ、角速度センサ及び磁気センサ等を用いることができる。
図3は、スティック部10の斜視図であり、外部にはスイッチ171とマーカー部15が配置されている。
演奏者は、スティック部10の一端(根元側)を保持し、手首等を中心とした振り上げ振り下ろし動作を行うことで、スティック部10に対して運動を生じさせる。その際にこの運動に応じたセンサ値がモーションセンサ部14から出力されるようになっている。
モーションセンサ部14からのセンサ値を受け付けたCPU11は、演奏者が持っているスティック部10の状態を検知する。一例としては、CPU11は、スティック部10による仮想的な楽器の打撃タイミング(以下、「ショットタイミング」とも呼ぶ)を検知する。ショットタイミングは、スティック部10が振り下ろされてから停止される直前のタイミングであり、スティック部10にかかる振り下ろし方向とは逆向きの加速度の大きさがある閾値を超えたタイミングである。
図2に戻り、マーカー部15は、スティック部10の先端側に設けられた発光体であり、例えばLED等で構成される。マーカー部15は、CPU11からの制御に応じて発光及び消灯する。具体的には、マーカー部15は、CPU11によってROM12から読み出されたマーカー特徴情報に基づいて発光する。このとき、スティック部10Aのマーカー特徴情報と、スティック部10Bのマーカー特徴情報とは異なるため、カメラユニット部20は、スティック部10Aのマーカー部15(第1マーカー)の位置座標と、スティック部10Bのマーカー部15(第2マーカー)の位置座標とを個々に区別し取得することができる。
データ通信部16は、少なくともセンターユニット部30との間で所定の無線通信を行う。データ通信部16は、任意の方法で所定の無線通信を行うこととしてよく、本実施形態では、赤外線通信によりセンターユニット部30との間での無線通信を行う。なお、データ通信部16は、カメラユニット部20との間で無線通信を行うこととしてもよい。また、スティック部10Aのデータ通信部16と、スティック部10Bのデータ通信部16との間で無線通信を行うこととしてもよい。
スイッチ操作検出回路17は、スイッチ171と接続され、当該スイッチ171を介した入力情報を受け付ける。入力情報としては、例えば、後述するセットレイアウト情報を直接指定するためのトリガーとなる信号情報等が含まれる。
[カメラユニット部20の構成]
スティック部10の構成についての説明は、以上である。続いて、図を参照して、位置検出装置としてのカメラユニット部20の構成について説明する。
図4は、カメラユニット部20のハードウェア構成を示すブロック図である。
カメラユニット部20は、CPU21と、ROM22と、RAM23と、イメージセンサ部24と、データ通信部25と、を含んで構成される。
CPU21は、カメラユニット部20全体の制御を実行する。CPU21は、例えば、イメージセンサ部24が検出したマーカー部15の位置座標データ及びマーカー特徴情報に基づいて、スティック部10A、10Bのマーカー部15(第1マーカー及び第2マーカー)のそれぞれの位置座標(Mxa,Mya)、(Mxb,Myb)を算出し、それぞれの算出結果を示す位置座標データを出力する制御を実行する。また、CPU21は、データ通信部25を介して、算出した位置座標データ等をセンターユニット部30に送信する通信制御を実行する。
ROM22は、CPU21により各種処理が実行されるための処理プログラムを格納する。RAM23は、イメージセンサ部24が検出したマーカー部15の位置座標データ等、処理において取得され又は生成された値を格納する。また、RAM23は、センターユニット部30から受信したスティック部10A、10Bのそれぞれのマーカー特徴情報も併せて格納する。
イメージセンサ部24は、例えば、光学式のカメラであり、スティック部10を持って演奏動作を行う演奏者の動画を所定のフレームレートで撮像する。また、イメージセンサ部24は、フレームごとの撮像データをCPU21に出力する。なお、イメージセンサ部24は、撮像画像内におけるスティック部10のマーカー部15の位置座標の特定を、CPU21に代わって行うこととしてもよい。また、イメージセンサ部24は、撮像したマーカー特徴情報に基づくスティック部10A、10Bのマーカー部15(第1マーカー及び第2マーカー)のそれぞれの位置座標を算出についても、CPU21に代わって行うこととしてもよい。
データ通信部25は、少なくともセンターユニット部30との間で所定の無線通信(例えば、赤外線通信)を行う。なお、データ通信部16は、スティック部10との間で無線通信を行うこととしてもよい。カメラユニット部20の構成についての説明は、以上である。
[センターユニット部30の構成]
続いて、図5を参照して、センターユニット部30の構成について説明する。
図5は、センターユニット部30のハードウェア構成を示すブロック図である。
センターユニット部30は、CPU31と、ROM32と、RAM33と、スイッチ操作検出回路34と、表示回路35と、音源装置36と、データ通信部37と、を含んで構成される。
CPU31は、センターユニット部30全体の制御を実行する。CPU31は、例えば、スティック部10から受信したショット角度及びカメラユニット部20から受信したマーカー部15の位置座標と、複数の仮想楽器それぞれの中心位置座標との距離及び設置角度に基づいて、発音対象の仮想楽器を特定する。CPU31は、特定した仮想楽器の発音角度データに対応する楽音を発音する制御等を実行する。また、CPU31は、データ通信部37を介して、スティック部10及びカメラユニット部20との間の通信制御を実行する。
ROM32は、CPU31の実行する各種処理の処理プログラムを格納する。また、ROM32は、仮想楽器セット情報、仮想楽器情報及び音色情報を記憶する。
なお、仮想楽器としては、例えば、フルート、サックス、トランペット等の管楽器、ピアノ等の鍵盤楽器、ギター等の弦楽器、バスドラム、ハイハット、スネア、シンバル、タム、太鼓等の打楽器等があげられる。
ここで、ROM32に記憶される仮想楽器セット情報、仮想楽器情報及び音色情報のデータ構造について、図6を参照して説明する。
図6は、仮想楽器セット情報、仮想楽器情報及び音色情報のデータ構造及びそれぞれの情報の関連性を示す概念図である。
仮想楽器セット情報は、仮想平面上に設けられる複数の仮想楽器セットそれぞれに関する情報である。仮想楽器セット情報は、図6(1)に示すように、仮想楽器セットを構成する仮想楽器のセットレイアウトを示すセットレイアウト情報を含んで構成される。セットレイアウト情報には、仮想楽器セットを構成する仮想楽器の位置座標(Cx,Cy)及び設置角度(θoffset)並びに仮想楽器を特定する楽器番号が対応付けて格納されている。
仮想楽器情報は、仮想楽器のサイズや発音する音色に関する情報である。仮想楽器情報には、仮想楽器セット情報に記憶される楽器番号と対応する楽器番号、サイズ(仮想楽器の形状、径、縦方向の長さ、横方向の長さ等)、発音角度のデータが対応付けて格納されている。発音角度のデータは、境界角度(θH、θL)及び音色番号を含んでいる。
音色情報は、仮想楽器情報に含まれる音色番号と対応付けて格納され、仮想楽器が発音する音色に関する波形データが含まれている。
ここで、図7を参照して、具体的なセットレイアウトについて説明する。
図7は、センターユニット部30のROM32に格納された仮想楽器セット情報が示す概念を仮想平面上で可視化した図である。
図7(1)は、6個の仮想パッド81〜86が仮想平面上に配置されている様子を示している。これら6つの仮想パッド81〜86は、パッドに関連付けられている位置座標(Cx,Cy)とサイズとに基づいて配置されている。
図7(2)は、6個の仮想パッド81〜86のうち、仮想パッド81及び仮想パッド82の設置角度を示している。なお、図7(2)は、仮想パッド81,82を側方から見た状態を示しており、水平面を基準とする設置角度を示している。
図7(2)に示すように、仮想パッド81は、設置角度が0°に設定され、仮想パッド82は、設置角度が−20°に設定されている。
仮想パッド81〜86はそれぞれに発音角度(スティック部10のショット角度の範囲)が対応付けられており、発音角度毎に音色情報が関連付けられている。図8を参照して、仮想パッド81と発音角度及び音色情報との関係について説明する。
図8は、仮想パッド81の形状の特徴を表す概念図である。なお、図8においては、仮想パッド81を上面視した状態を示している。
図8において、仮想パッド81は、領域毎に発音する音色が異なるようになっており、ベルカップ領域81A、ライド領域81B及びクラッシュ領域81Cのそれぞれに異なる音色が関連付けられている。各領域は、その領域を特定するために、発音角度が設定されている。即ち、スティック部10のショット角度と発音角度との関係に基づいて、仮想パッド81の領域が特定され、その領域の音色が特定される。
なお、仮想楽器に対応付けられる複数の音色の発音角度は、互いの角度の範囲を重複して設定することができる。例えば、ある仮想楽器に、1つの音色の発音角度(θH=20°,θL=0°)と他の音色の発音角度(θH=10°,θL=−20°)とを設定することができる。
図5に戻って、RAM33は、スティック部10から受信したスティック部10の状態(ショット検出等)、カメラユニット部20から受信したマーカー部15の位置座標等、処理において取得され又は生成された値を格納する。
これにより、CPU31は、ショット検出時(即ち、ノートオンイベント受信時)にマーカー部15の位置座標に対応する仮想楽器を特定する。CPU31は、ショット角度に基づいて、特定した仮想楽器の発音角度に関連付けられている音色番号を特定する。そして、CPU31は、特定した音色番号に対応する音色情報(波形データ)をROM32から読み出して、演奏者の演奏動作に応じた楽音の発音を制御する。
具体的には、CPU31は、複数の仮想楽器それぞれについて、当該仮想楽器の中心位置座標とマーカー部15の位置座標との距離を、仮想楽器に関連付けられたサイズ(縦方向の長さ、横方向の長さ)が大きいほど短くなるように調整を行って算出する。続いて、CPU31は、算出された距離のうち、最も短い距離に対応する仮想楽器を出音対象の仮想楽器として特定する。続いて、CPU31は、特定した仮想楽器の情報を参照して取得した発音角度の境界角と、スティック部10のショット角度とに基づいて、対応する音色番号を特定する。CPU31は、特定した音色番号が複数である場合には、それぞれの音色の混合比を算出する。
CPU31は、特定した音色が単数である場合には、その楽音の発音制御を行い、特定した音色が複数である場合には、算出した混合比に基づいて、それぞれの楽音の発音制御を行う。
ここで、図9を参照して、音色を混合して発音する場合について説明する。
図9は、センターユニット部30のROM32に格納された仮想楽器情報が示す概念を可視化した図である。
図9(1)は、仮想パッド83の仮想的な形状を示しており、仮想パッドは、ヘッド部分83Aと、リム部分83Bとを有している。図9(1)では、スティック部10により、ヘッド部分83Aが打撃されている。この場合、発音する音色はヘッド部分83Aに対応する単一の音色となる。
他方、図9(2)では、スティック部10により、ヘッド部分83Aとリム部分83Bとが同時に打撃されている。この場合、ヘッド部分83Aとリム部分83Bの双方に対応する音色を発音させる。
即ち、スティック部10のショット角度に基づいて、仮想楽器のいずれの部分が打撃されたかを特定し、ショット角度が複数の部分に対応する発音角度の範囲に含まれる場合には、音色を混合して発音させる。
図5に戻って、スイッチ操作検出回路34は、スイッチ341と接続され、当該スイッチ341を介した入力情報を受け付ける。入力情報としては、例えば、発音する楽音の音量や発音する楽音の音色の変更、表示装置351の表示の切り替え、所定の閾値の調整、仮想パッド81の中心位置座標の変更等が含まれる。
また、表示回路35は、表示装置351と接続され、表示装置351の表示制御を実行する。
音源装置36は、CPU31からの指示に従って、ROM32から波形データを読み出して、楽音データを生成すると共に、楽音データをアナログ信号に変換し、図示しないスピーカから楽音を発音する。
また、データ通信部37は、スティック部10及びカメラユニット部20との間で所定の無線通信(例えば、赤外線通信)を行う。
[演奏装置1の処理]
以上、演奏装置1を構成するスティック部10、カメラユニット部20及びセンターユニット部30の構成について説明した。続いて、図10〜図15を参照して、演奏装置1の処理について説明する。
[スティック部10の処理]
図10は、スティック部10が実行する処理(以下、「スティック部処理」と呼ぶ)の流れを示すフローチャートである。
図10を参照して、スティック部10のCPU11は、モーションセンサ部14からモーションセンサ情報としてのセンサ値を読み出すと共に、センサ値をRAM13に格納する(ステップS1)。その後、CPU11は、読み出したモーションセンサ情報に基づいて、スティック部10の姿勢検知処理を実行する(ステップS2)。姿勢検知処理では、CPU11は、モーションセンサ情報に基づいて、スティック部10のロール角及びピッチ角等のショット角度を算出する。
続いて、CPU11は、モーションセンサ情報に基づいて、ショット検出処理を実行する(ステップS3)。演奏者は、スティック部10を用いて演奏を行う場合において、仮想的な楽器(例えば、仮想的なドラム)があるとして、現実の楽器(例えば、ドラム)がある場合の演奏動作と同様の演奏動作を行う。演奏者は、このような演奏動作として、まずスティック部10を振り上げ、それから仮想的な楽器に向かって振り下ろす。そして、演奏者は、仮想的な楽器にスティック部10を打撃した瞬間に楽音が発生することを想定し、スティック部10を仮想楽器に打撃する寸前にスティック部10の動作を止めようとする力を働かせる。これに対して、CPU11は、モーションセンサ情報(例えば、加速度センサのセンサ合成値)に基づいて、スティック部10の動作を止めようとする動作を検出する。
即ち、本実施形態においては、ショット検出のタイミングは、スティック部10が振り下ろされてから停止される直前のタイミングであり、スティック部10にかかる振り下ろし方向とは逆向きの加速度の大きさがある閾値を超えたタイミングである。本実施形態では、このショット検出のタイミングを発音タイミングとする。
スティック部10のCPU11は、スティック部10の動作を止めようとする動作を検出して発音タイミングが到来したと判断すると、ノートオンイベントを生成し、センターユニット部30に送信する。ここで、CPU11は、ノートオンイベントを生成する場合に、モーションセンサ情報(例えば、加速度センサのセンサ合成値の最大値)に基づいて、発音する楽音の音量を決定するためのショット速度を、ノートオンイベントに含ませるようにしてもよい。
続いて、CPU11は、ステップS2及びステップS3の処理で検出した情報、即ち、ショット角度及びショット速度を、データ通信部16を介してセンターユニット部30に送信する(ステップS4)。このとき、CPU11は、スティック識別情報と対応付けて、ショット角度及びショット速度をセンターユニット部30に送信する。
続いて、CPU11は、処理をステップS1に戻す。これにより、ステップS1からステップS4の処理が繰り返される。
[カメラユニット部20の処理]
図11は、カメラユニット部20が実行する処理(以下、「カメラユニット部処理」と呼ぶ)の流れを示すフローチャートである。
図11を参照して、カメラユニット部20のCPU21は、イメージデータ取得処理を実行する(ステップS11)。この処理では、CPU21は、イメージセンサ部24からイメージデータを取得する。
続いて、CPU21は、第1マーカー検出処理(ステップS12)及び第2マーカー検出処理(ステップS13)を実行する。これらの処理では、CPU21は、イメージセンサ部24が検出した、スティック部10Aのマーカー部15(第1マーカー)及びスティック部10Bのマーカー部15(第2マーカー)の位置座標、サイズ、角度等のマーカー検出情報を取得し、RAM23に格納する。このとき、イメージセンサ部24は、発光中のマーカー部15について、マーカー検出情報を検出する。
続いて、CPU21は、ステップS12及びステップS13で取得したマーカー検出情報を、データ通信部25を介してセンターユニット部30に送信し(ステップS14)、ステップS11に処理を移行させる。これにより、ステップS11からステップS14の処理が繰り返される。
[センターユニット部30の処理]
図12は、センターユニット部30が実行する処理(以下、「センターユニット部処理」と呼ぶ)の流れを示すフローチャートである。
図12を参照して、センターユニット部30のCPU31は、センターユニット部処理に必要な情報を初期化する(ステップS21)。ここで、センターユニット部処理に必要な情報は、仮想楽器セット番号(Set_ID)、仮想楽器番号(Parts_ID)、スティック部10の位置座標(Sitck.Coord.x,Sitck.Coord.y)、スティック部10のショット角度(Sitck.ShotAngle)、スティック部10のショット速度(Sitck.Velocity)である。これらは、適宜、スイッチ341等を介して入力される。
また、CPU31は、仮想楽器セット番号の選択値を取得(Set_IDに値を設定)する(ステップS22)。
続いて、CPU31は、カメラユニット部20から、第1マーカー及び第2マーカーそれぞれのマーカー検出情報を受信し、RAM33に格納する(ステップS23)。また、CPU31は、スティック部10A、10Bのそれぞれから、スティック識別情報と対応付けられたショット角度(Sitck.Coord.x,Sitck.Coord.y)及びショット速度(Sitck.Velocity)をスティック情報として受信し、RAM33に格納する(ステップS24)。
続いて、CPU31は、ショットありか否かを判断する(ステップS25)。この処理では、CPU31は、スティック部10からノートオンイベントを受信したか否かによって、ショットの有無を判断する。このとき、ショットなしと判断した場合には、CPU31は、ステップS22に処理を移行する。ショットありと判断した場合には、CPU31は、ステップS26に処理を移行する。
続いて、CPU31は、仮想楽器特定処理を実行し(ステップS26)、発音させる仮想楽器を特定する。仮想楽器特定処理については、図13を参照して詳述する。
また、CPU31は、音色特定処理を実行し(ステップS27)、特定した仮想楽器のショット角度に対応した音色を特定すると共に、特定した音色の混合比率を算出する。音色特定処理については、図14を参照して詳述する。
そして、CPU31は、特定した音色番号に対応する波形データを取得して、波形データを混合比率に基づいて混合し、発音処理を行う(ステップS28)。
続いて、CPU31は、処理をステップS22に戻す。これにより、ステップS22からステップS28の処理が繰り返される。
次に、図13を参照して、仮想楽器特定処理について説明する。
図13は、センターユニット部30が実行する仮想楽器特定処理の流れを示すフローチャートである。
センターユニット部30のCPU31は、仮想楽器特定処理に必要な情報について、情報の初期化処理を行う(ステップS261)。仮想楽器特定処理に必要な情報は、セットレイアウト情報、候補仮想楽器番号(Parts_ID)、最短距離情報(min_distance)、カウンタ(parts_counter)、マーカー位置座標(Mx,My)である。
具体的には、CPU31は、仮想楽器セット情報に設定された仮想楽器セット番号(Set_ID)に基づいて、セットレイアウト情報を取得する。また、候補仮想楽器番号に楽器数(例えば、仮想楽器番号が0〜5の場合は6)を代入し、最短距離情報に最大値を代入する。また、カウンタ(parts_counter)を0に設定する。また、マーカー位置座標にスティック部10の位置座標を設定する。
続いて、CPU31は、仮想楽器情報を取得する(ステップS262)。このとき取得される仮想楽器情報は、仮想楽器番号がカウンタ(parts_counter)値である仮想楽器の中心座標(Cx,Cy)及びサイズ(Sx,Sy)である。
続いて、CPU31は、取得した仮想楽器の中心座標(Cx,Cy)及びサイズと、マーカー座標(Sx,Sy)とに基づいて、距離Lを算出する(ステップS263)。
具体的には、CPU31は、距離Lを算出するために、横方向の距離Lxと縦方向の距離Lyとを以下に示される式(1)、(2)で算出する。そして、CPU31は、算出した横方向の距離Lxと縦方向の距離Lyとに基づいて、距離Lを以下に示される式(3)で算出する。
Lx=(Cx−Mx)*(K/Sx)・・・(1)
Ly=(Cy−My)*(K/Sy)・・・(2)
L=((Lx*Lx)+(Ly*Ly))^(1/2)・・・(3)
ここで、Kは、サイズの重み付け係数であり、各パーツの計算において共通の定数である。また、演算記号「^」は、べき乗を意味する。即ち、式(3)における「^(1/2)」は、1/2乗を示すものである。なお、この重み付け係数Kは、横方向の距離Lxを算出する場合と、縦方向Lyの距離を算出する場合とで異なるように設定してもよい。
即ち、CPU31は、横方向の距離Lx、縦方向の距離Lyを算出した後、算出されたそれぞれの距離に対して、Sx,Syで除算することにより、仮想楽器のサイズが大きいほど距離が小さくなるように調整を行う。
続いて、CPU31は、算出した距離Lと最短距離情報(min_distance)とを比較して、算出した距離Lが最短距離情報(min_distance)より小さいか否かを確認する(ステップS264)。
このとき、CPU31が算出した距離Lが最短距離情報よりも小さいと判断した場合に、CPU31は、ステップS265に処理を移行する。CPU31が算出した距離Lが最短距離情報よりも大きいと判断した場合に、CPU31は、ステップS266に処理を移行する。
続いて、CPU31は、算出した距離Lに基づいて、最短距離情報を更新(min_distanceに距離Lの値を設定)する(ステップS265)。このとき、CPU31は、候補仮想楽器番号も更新(Parts_IDにparts_counterを設定)する。
続いて、CPU31は、全ての仮想楽器を確認したか否かを判断する(ステップS266)。このとき、全ての仮想楽器を確認していない場合、CPU31は、カウンタ(parts_counter)をインクリメントして(ステップS267)、ステップS262に処理を移行する。また、全ての仮想楽器を確認した場合、CPU31は、センターユニット部処理に処理を戻す。
次に、図14を参照して、音色特定処理について説明する。
図14は、センターユニット部30が実行する音色特定処理の流れを示すフローチャートである。
センターユニット部30のCPU31は、音色特定処理に必要な情報について、情報の初期化処理を行う(ステップS271)。音色特定処理に必要な情報は、有効発音角フラグ(Available_Flag)、カウンタ(Angle_Separate_Counter)であり、それぞれに0が設定される。
続いて、CPU31は、ショット角度(Stick.ShotAngle)と設置角度(θoffset)とを加算して、設置角度を加味したショット角度(θs)を算出する(ステップS272)。
続いて、CPU31は、カウンタに対応する発音角度の情報(Angle_Separate[Angle_Separate_Counter])を取得する(ステップS273)。
また、CPU31は、カウンタに対応する発音角度の情報について、混合比を初期化(Gain[Angle_Separate_Counter]=0.0)する(ステップS274)。
続いて、CPU31は、設置角度を加味したショット角度(θs)がカウンタに対応する発音角度の範囲内(θL<θs=<θH)であるか否か、即ち、有効なショット角度であるか否かを判断する(ステップS275)。なお、ここでの境界角θL、θHは、注目する発音角度について設定された各境界角である。
このとき、設置角度を加味したショット角度(θs)がカウンタに対応する発音角度の範囲内である、即ち、有効なショット角度である場合、CPU31は、ステップS276に処理を移行する。また、設置角度を加味したショット角度(θs)がカウンタに対応する発音角度の範囲外である、即ち、有効なショット角度でない場合、CPU31は、ステップS277に処理を移行する。
CPU31は、設置角度を加味したショット角度(θs)がカウンタに対応する発音角度の範囲内である場合、混合比に暫定値(Gain[Angle_Separate_Counter]=1.0)を設定する(ステップS276)。この際、CPU31は、設置角度を加味したショット角度(θs)が発音角度の範囲内であることを特定できるように、有効発音フラグをセット(Available_Flag|=(1<<Angle_Separate_Counter))する。
即ち、ステップS276の処理では、発音する音色を特定する情報とその音色の混合比率の暫定値が設定される。
なお、Available_Flag|=(1<<Angle_Separate_Counter)で表される演算は、2進数の1を左にAngle_Separate_Counter分ビットシフトし(例えば、Angle_Separate_Counterが2であれば、100となる)、Available_Flagが有する値(例えば、001)と論理和を取った値(例えば、001と100との論理和101)がAvailable_Flagに設定されることを意味する。
続いて、CPU31は、カウンタをインクリメント(Angle_Separate_Counter++)する(ステップS277)。
CPU31は、全ての発音角度を確認したか否かを判断する(ステップS278)。全ての発音角度を確認した場合、CPU31は、ステップS279に処理を移行する。全ての発音角度を確認していない場合、CPU31は、ステップS273に処理を移行する。
続いて、CPU31は、混合比算出処理を実行し(ステップS279)、センターユニット部処理に処理を戻す。混合比算出処理については、図15を参照して詳述する。
次に、図15を参照して、混合比の算出処理について説明する。
図15は、センターユニット部30が実行する混合比算出処理の流れを示すフローチャートである。
センターユニット部30のCPU31は、複数の音色を同時に発音する場合かを判断する(ステップS2791)。このとき、複数の音色を同時に発音する場合には、CPU31は、処理をステップS2792に移す。また、複数の音色を同時に発音しない場合には、CPU31は、処理を音色特定処理に戻す。
なお、CPU31は、Available_Flagを参照して、複数のビットが立っているか否かによって、複数の音色を同時に発音する場合か否かを判断する。即ち、CPU31は、Available_Flagが、例えば、11(10進数では3)である場合には、複数のビットが立っているため、同時に発音する場合であると判断する。
続いて、CPU31は、同時に発音する音色の混合比を算出する(ステップS2792)。
図16は、仮想パッド83のヘッド部分83Aとリム部分83Bとを同時に打撃した場合におけるヘッド部分83Aの音色とリム部分83Bの音色との関係を示す概念図である。
仮想パッド83において、ヘッド部分83Aは、スティック部10のショット角度θsが上限の境界角θT1Hから下限の境界角θT1Lの間にある場合に、音色Aを発音する。他方、リム部分83Bは、スティック部10のショット角度θsが上限の境界角θT2Hから下限の境界角θT2Lの間にある場合に、音色Bを発音する。そのため、スティック部10のショット角度θsは、リム部分83Bの上限の境界角θT2Hからヘッド部分83Aの下限の境界角θT1Lの間にある場合に、音色Aと音色Bとを同時に発音する。
CPU31は、このようにスティック部10のショット角度θsが複数の部分を打撃したと考えられる場合に、同時に発音する音声の混合比を算出する。CPU31は、音色Bの上限の境界角から音色Aの下限の境界角を減算(θT2H−θT1L)して、音色A及びBの重複する発音角度の範囲を算出する。また、CPU31は、スティック部10のショット角度から音色Aの下限の境界角を減算(θT1L−θs)して、重複する発音角度の範囲のうち上部分の範囲を算出する。そして、CPU31は、算出した上部分の範囲を重複する発音角度の範囲で除算する(|θT1L−θs|/|θT2H−θT1L|)。さらに、CPU31は、除算して算出した値を、円周におけるベクトルとして、それぞれの正弦の値と余弦の値を算出する(sin((|θs−θT1L|/|θT2H−θT1L|)×(π/2)),cos((|θs−θT1L|/|θT2H−θT1L|)×(π/2)))。そして、CPU31は、算出した正弦の値及び余弦の値をそれぞれの音色の混合比率として特定する。
これにより、全体の音量を適切に保ちながら、ショット角度θsに応じて、音色A及び音色Bを混合することができる。
以上のように構成される演奏装置1は、スティック部10と、カメラユニット部20と、センターユニット部30とを備える。
スティック部10は、演奏者に保持される。
スティック部10のモーションセンサ部14は、予め設定された仮想平面上における仮想楽器に対して、スティック部10にて予め定められた操作が行われたことを検出する。
また、スティック部10のモーションセンサ部14は、操作が行われたときのスティック部10の角度を取得する。
また、センターユニット部30は、仮想楽器に予め対応付けられている発音角度と、スティック部10が取得した角度とが適合する場合に、当該発音角度に対応付けられた楽音を特定する。
さらに、センターユニット部30は、特定された楽音の発音を音源に対して指示する。
したがって、演奏装置1は、演奏者が操作したスティック部10の打撃の状態をより正確に特定することができ、特定した打撃の状態に基づいて演奏者が意図したように発音することができる。
即ち、演奏装置1によれば、演奏者の演奏操作をより適確に反映した発音を行うことが可能となる。
また、仮想楽器は仮想平面上に複数設けられる。
センターユニット部30は、仮想楽器それぞれについて、当該仮想楽器の中心位置座標、サイズ及び発音角度を含む情報を記憶する。
スティック部10のモーションセンサ部14は、仮想平面上における演奏部材の位置座標を検出する。
センターユニット部30は、操作が行われたことが検出された場合に、カメラユニット部20により検出された位置座標と、各仮想楽器の中心位置座標との間の距離のそれぞれを、対応する各仮想楽器のサイズに基づいて算出する。
また、センターユニット部30は、算出した各距離のうち最も短い距離に対応する仮想楽器を特定する。
したがって、演奏装置1は、複数の仮想楽器について、演奏者が操作したスティック部10の打撃の状態をより正確に特定することができ、特定した打撃の状態に基づいて演奏者が意図したように発音することができる。
即ち、演奏装置1によれば、複数の仮想楽器について、演奏者の演奏操作をより適確に反映した発音を行うことが可能となる。
また、カメラユニット部20は、スティック部10を被写体とする撮像画像を撮像する。
カメラユニット部20は、仮想平面としての撮像画像平面におけるスティック部10の位置座標を検出する。
したがって、撮像装置を用いて、演奏者が操作したスティック部10の打撃部位や打撃の状態を簡単かつ正確に特定することができる。
また、センターユニット部30は、当該仮想楽器の設置角度をスティック部10が取得した角度に加算し、該角度が、特定した仮想楽器に対応する発音角度に適合する場合に、当該発音角度に対応付けられた楽音の発音を特定する。
したがって、演奏者により設定された仮想楽器の傾きを適確に反映して、演奏者が意図したように発音することができる。
また、仮想楽器には、複数の楽音に対応する発音角度が対応づけられる。
また、センターユニット部30は、スティック部10が取得した角度と、発音角度に基づいて、特定した複数の楽音の混合比を算出する。
したがって、演奏装置1は、演奏者が仮想楽器の複数部位を同時に打撃して発音しようと意図した場合においても、演奏者が意図したように発音することができる。
以上、本発明の実施形態について説明したが、実施形態は例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等、種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
上記実施形態では、仮想的な打楽器として仮想ドラムセットD(図1参照)を例にとって説明したが、これに限られるものではなく、本発明は、スティック部10の振り下ろし動作で楽音を発音する木琴等他の楽器に適用することができる。
また、上記実施形態でスティック部10の位置座標を、位置検出装置としてのカメラユニット部20が取得したイメージデータに基づいて検出したが、これに限られず、種々のセンサを組み合わせて位置検出装置を構成し、スティック部10の位置座標を検出してもよい。例えば、スティック部10のモーションセンサ部14に備えられた各種センサを用いて、スティック部10の位置座標を検出してもよい。
また、上記実施形態でスティック部10、カメラユニット部20及びセンターユニット部30で実行することとしている処理のうちの任意の処理は、他のユニット(スティック部10、カメラユニット部20及びセンターユニット部30)で実行することとしてもよい。例えば、スティック部10のCPU11が実行することとしているショット検出及びロール角の算出等の処理を、センターユニット部30が実行することとしてもよい。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2、4、5の構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が演奏装置1に備えられていれば足り、この機能を実現するためにどのような構成を構築するのかは特に図2、4、5の例に限定されない。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
このコンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータであってもよい。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
演奏者に保持される演奏部材と、
予め設定された仮想平面上における仮想楽器に対して、前記演奏部材にて予め定められた操作が行われたことを検出する操作検出手段と、
前記操作が行われたときの前記演奏部材の角度を取得する角度取得手段と、
前記仮想楽器に予め対応付けられている発音角度と、前記角度取得手段が取得した前記角度とが適合する場合に、当該発音角度に対応付けられた楽音を特定する発音特定手段と、
前記発音特定手段により特定された前記楽音の発音を音源に対して指示する発音指示手段と、
を備える演奏装置。
[付記2]
前記仮想楽器は前記仮想平面上に複数設けられ、
前記演奏装置はさらに、
前記仮想楽器それぞれについて、当該仮想楽器の中心位置座標、サイズ及び発音角度を含む情報を記憶する記憶手段と、
前記仮想平面上における前記演奏部材の位置座標を検出する位置検出手段と、
前記操作が行われたことが検出された場合に、前記位置検出手段により検出された位置座標と、前記各仮想楽器の中心位置座標との間の距離のそれぞれを、対応する前記各仮想楽器のサイズに基づいて算出する距離算出手段と、
前記距離算出手段により算出された各距離のうち最も短い距離に対応する仮想楽器を特定する楽器特定手段と、
を有することを特徴とする付記1に記載の演奏装置。
[付記3]
前記演奏部材を被写体とする撮像画像を撮像する撮像手段をさらに備え、
前記位置検出手段は、前記仮想平面としての撮像画像平面における前記演奏部材の位置座標を検出する、付記2に記載の演奏装置。
[付記4]
前記発音特定手段は、当該仮想楽器の設置角度を前記角度取得手段が取得した前記角度に加算し、該角度が、前記楽器特定手段により特定された仮想楽器に対応する発音角度に適合する場合に、当該発音角度に対応付けられた楽音の発音を特定する、付記2又は3に記載の演奏装置。
[付記5]
前記仮想楽器には、複数の楽音に対応する前記発音角度が対応づけられ、
前記角度取得手段が取得した前記角度と、前記仮想楽器に対応付けられた前記発音角度とに基づいて、前記発音特定手段によって特定された複数の楽音の混合比を算出する混合比算出手段をさらに備え、
前記発音指示手段は、
前記混合比に基づいて、前記発音特定手段により特定された前記楽音の発音を指示する、付記1から4のいずれか1つに記載の演奏装置。
[付記6]
演奏者に保持される演奏部材を有する演奏装置に用いられる演奏方法であって、
前記演奏装置が、
予め設定された仮想平面上における仮想楽器に対して、前記演奏部材にて予め定められた操作が行われたことを検出し、
前記操作が行われたときの前記演奏部材の角度を取得し、
前記仮想楽器に予め対応付けられている発音角度と、前記取得した角度とが適合する場合に、当該発音角度に対応付けられた楽音を特定し、
前記特定された前記楽音の発音を音源に対して指示する、演奏方法。
[付記7]
演奏者に保持され、予め設定された仮想平面上における仮想楽器に対して、演奏部材にて予め定められた操作が行われたことを検出すると共に、前記操作が行われたときの当該演奏部材の角度を取得する演奏部材を備える演奏装置として用いられるコンピュータに、
前記仮想楽器に予め対応付けられている発音角度と、前記演奏部材が取得した前記角度とが適合する場合に、当該発音角度に対応付けられた楽音を特定するステップと、
前記特定された前記楽音の発音を音源に対して指示するステップと、
を実行させるプログラム。
1・・・演奏装置、10・・・スティック部、11・・・CPU、12・・・ROM、13・・・RAM、14・・・モーションセンサ部、15・・・マーカー部、16・・・データ通信部、17・・・スイッチ操作検出回路、171・・・スイッチ、20・・・カメラユニット部、21・・・CPU、22・・・ROM、23・・・RAM、24・・・イメージセンサ部、25・・・データ通信部、30・・・センターユニット、31・・・CPU、32・・ROM、33・・・RAM、34・・・スイッチ操作検出回路、341・・・スイッチ、35・・・表示回路、351・・・表示装置、36・・・音源装置、37・・・データ通信部

Claims (6)

  1. め設定された仮想平面上において、第1範囲の角度に第1音色が対応付けられ、前記第1範囲の一部を少なくとも含む第2範囲の角度に第2音色が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出手段と、
    前記操作が行われたときの前記演奏部材の角度を取得する角度取得手段と、
    記角度取得手段が取得した前記角度が、前記第1範囲及び前記第2範囲のいずれにも含まれる場合に、前記第1音色と前記第2音色とを混合した楽音の発音を音源に対して指示する発音指示手段と、
    を備える演奏装置。
  2. 演奏装置のコンピュータに、
    予め設定された仮想平面上において、第1範囲の角度に第1音色が対応付けられ、前記第1範囲の一部を少なくとも含む第2範囲の角度に第2音色が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出処理と、
    前記操作が行われたときの前記演奏部材の角度を取得する角度取得処理と、
    前記角度取得処理にて取得した前記角度が、前記第1範囲及び前記第2範囲のいずれにも含まれる場合に、前記第1音色と前記第2音色とを混合した楽音の発音を音源に対して指示する発音指示処理と、
    を実行させる演奏方法。
  3. 演奏装置のコンピュータに、
    予め設定された仮想平面上において、第1範囲の角度に第1音色が対応付けられ、前記第1範囲の一部を少なくとも含む第2範囲の角度に第2音色が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出処理と、
    前記操作が行われたときの前記演奏部材の角度を取得する角度取得処理と、
    前記角度取得処理にて取得した前記角度が、前記第1範囲及び前記第2範囲のいずれにも含まれる場合に、前記第1音色と前記第2音色とを混合した楽音の発音を音源に対して指示する発音指示処理と、
    を実行させるプログラム。
  4. め設定された仮想平面上において、音色に応じた発音角度情報と、演奏者により設定される設置角度情報と、が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出手段と、
    前記操作が行われたときの前記演奏部材の角度を取得する角度取得手段と、
    前記発音角度情報が示す発音角度と、前記角度取得手段が取得した前記角度と、前記設置角度情報が示す角度と、から特定された音色の楽音の発音を音源に対して指示する発音指示手段と、
    を備える演奏装置。
  5. 演奏装置のコンピュータに、
    予め設定された仮想平面上において、音色に応じた発音角度情報と、演奏者により設定される設置角度情報と、が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出処理と、
    前記操作が行われたときの前記演奏部材の角度を取得する角度取得処理と、
    前記発音角度情報が示す発音角度と、前記角度取得処理にて取得した前記角度と、前記設置角度情報が示す角度と、から特定された音色の楽音の発音を音源に対して指示する発音指示処理と、
    を実行させる演奏方法。
  6. 演奏装置のコンピュータに、
    予め設定された仮想平面上において、音色に応じた発音角度情報と、演奏者により設定される設置角度情報と、が対応付けられている仮想楽器に対して、演奏者に保持される演奏部材にて予め定められた操作が行われたことを検出する操作検出処理と、
    前記操作が行われたときの前記演奏部材の角度を取得する角度取得処理と、
    前記発音角度情報が示す発音角度と、前記角度取得処理にて取得した前記角度と、前記設置角度情報が示す角度と、から特定された音色の楽音の発音を音源に対して指示する発音指示処理と、
    を実行させるプログラム。
JP2014091116A 2014-04-25 2014-04-25 演奏装置、演奏方法及びプログラム Active JP6398291B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014091116A JP6398291B2 (ja) 2014-04-25 2014-04-25 演奏装置、演奏方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014091116A JP6398291B2 (ja) 2014-04-25 2014-04-25 演奏装置、演奏方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015210350A JP2015210350A (ja) 2015-11-24
JP6398291B2 true JP6398291B2 (ja) 2018-10-03

Family

ID=54612587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014091116A Active JP6398291B2 (ja) 2014-04-25 2014-04-25 演奏装置、演奏方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6398291B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7137944B2 (ja) * 2018-03-20 2022-09-15 株式会社バンダイナムコエンターテインメント プログラム及びコンピュータシステム
KR102128315B1 (ko) * 2018-06-25 2020-06-30 서울시립대학교 산학협력단 가상 악기 시각화 기반 미디 음악 편곡 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5099176B2 (ja) * 2010-06-15 2012-12-12 カシオ計算機株式会社 演奏装置および電子楽器
JP5966465B2 (ja) * 2012-03-14 2016-08-10 カシオ計算機株式会社 演奏装置、プログラム及び演奏方法
JP5598490B2 (ja) * 2012-03-19 2014-10-01 カシオ計算機株式会社 演奏装置、方法及びプログラム

Also Published As

Publication number Publication date
JP2015210350A (ja) 2015-11-24

Similar Documents

Publication Publication Date Title
JP5966465B2 (ja) 演奏装置、プログラム及び演奏方法
US8759659B2 (en) Musical performance device, method for controlling musical performance device and program storage medium
US8723013B2 (en) Musical performance device, method for controlling musical performance device and program storage medium
JP6127367B2 (ja) 演奏装置及びプログラム
JP5598490B2 (ja) 演奏装置、方法及びプログラム
US8710345B2 (en) Performance apparatus, a method of controlling the performance apparatus and a program recording medium
JP5533915B2 (ja) 習熟度判定装置、習熟度判定方法及びプログラム
JP5573899B2 (ja) 演奏装置
US20120216667A1 (en) Musical performance apparatus and electronic instrument unit
US9514729B2 (en) Musical instrument, method and recording medium capable of modifying virtual instrument layout information
JP6398291B2 (ja) 演奏装置、演奏方法及びプログラム
JP5861517B2 (ja) 演奏装置及びプログラム
JP6111526B2 (ja) 楽音発生装置
JP6094111B2 (ja) 演奏装置、演奏方法及びプログラム
JP6098083B2 (ja) 演奏装置、演奏方法及びプログラム
JP2013195626A (ja) 楽音発生装置
JP5974567B2 (ja) 楽音発生装置
JP5935399B2 (ja) 楽音発生装置
JP2014062945A (ja) 演奏装置、演奏方法及びプログラム
JP6098082B2 (ja) 演奏装置、演奏方法及びプログラム
JP2014002249A (ja) 演奏装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R150 Certificate of patent or registration of utility model

Ref document number: 6398291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150