JP2013195582A - Performance device and program - Google Patents

Performance device and program Download PDF

Info

Publication number
JP2013195582A
JP2013195582A JP2012061217A JP2012061217A JP2013195582A JP 2013195582 A JP2013195582 A JP 2013195582A JP 2012061217 A JP2012061217 A JP 2012061217A JP 2012061217 A JP2012061217 A JP 2012061217A JP 2013195582 A JP2013195582 A JP 2013195582A
Authority
JP
Japan
Prior art keywords
performance
unit
position coordinates
hand
performance member
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012061217A
Other languages
Japanese (ja)
Other versions
JP2013195582A5 (en
JP5861517B2 (en
Inventor
Yuki Yoshihama
由紀 吉濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012061217A priority Critical patent/JP5861517B2/en
Publication of JP2013195582A publication Critical patent/JP2013195582A/en
Publication of JP2013195582A5 publication Critical patent/JP2013195582A5/ja
Application granted granted Critical
Publication of JP5861517B2 publication Critical patent/JP5861517B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a performance device capable of changing layout information such as a layout of a virtual music instrument set, according to a degree of proficiency of a player.SOLUTION: A CPU designates an area, in virtual pads, to be shot with a stick part at shot timing; detects position coordinates of the stick part at the shot timing; when the position detected coordinates belong to either of the virtual pads, instructs production of musical sound with corresponding tone color; calculates a distribution degree of the position coordinates of the stick part in the designated pad at the shot timing, and sets the layout of the designated virtual pad according to the calculated distribution degree.

Description

本発明は、演奏装置及びプログラムに関する。   The present invention relates to a performance device and a program.

従来、演奏者の演奏動作を検知すると、演奏動作に応じた電子音を発音する演奏装置が提案されている。例えば、スティック上の部材のみで打楽器音を発音する演奏装置(エアドラム)が知られている。この演奏装置では、演奏者が、センサを内蔵するスティック状の部材を手で保持して振るといった、あたかもドラムを打撃するような演奏動作をすると、センサが当該演奏動作を検知し、打楽器音が発音される。
このような演奏装置によれば、現実の楽器を必要とせずに当該楽器の楽音を発音することができるため、演奏者は、演奏場所や演奏スペースに制約を受けずに演奏を楽しむことができる。
2. Description of the Related Art Conventionally, there has been proposed a performance device that generates an electronic sound corresponding to a performance operation when a performance performance of the performer is detected. For example, a performance device (air drum) that produces percussion instrument sounds only with members on a stick is known. In this performance device, when a performer performs a performance operation such as hitting a drum, such as holding and shaking a stick-like member containing a sensor by hand, the sensor detects the performance operation, and percussion instrument sounds are generated. Pronounced.
According to such a performance device, since the musical sound of the musical instrument can be generated without the need for an actual musical instrument, the performer can enjoy the performance without being restricted by the performance place or performance space. .

このような演奏装置として、例えば、特許文献1には、演奏者のスティック状の部材を用いた演奏動作を撮像すると共に、当該演奏動作の撮像画像と、楽器セットを示す仮想画像とを合成した合成画像をモニタに表示し、スティック状の部材と仮想的な楽器セットとの位置情報に応じて所定の楽音を発音するように構成された楽器ゲーム装置が提案されている。   As such a performance device, for example, in Patent Document 1, a performance action using a stick-like member of a performer is imaged, and an image of the performance action and a virtual image showing a musical instrument set are synthesized. There has been proposed a musical instrument game apparatus configured to display a composite image on a monitor and generate a predetermined musical sound in accordance with positional information between a stick-shaped member and a virtual musical instrument set.

特許第3599115号公報Japanese Patent No. 3599115

しかしながら、特許文献1に記載の楽器ゲーム装置をそのまま適用した場合、仮想的な楽器セットの配置などのレイアウト情報は予め定められているため、演奏者の熟練度に応じてレイアウト情報を変更することはできなかった。   However, when the musical instrument game apparatus described in Patent Document 1 is applied as it is, layout information such as the placement of a virtual musical instrument set is predetermined, so that the layout information is changed according to the skill level of the performer. I couldn't.

本発明は、このような状況に鑑みてなされたものであり、仮想的な楽器セットの配置などのレイアウト情報を、演奏者の熟練度に応じて変更できる演奏装置を提供することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to provide a performance device capable of changing layout information such as the placement of a virtual musical instrument set according to the skill level of the performer. .

上記目的を達成するため、本発明の一態様の演奏装置は、
演奏者が保持可能な演奏部材と、
前記演奏部材を被写体とする撮像画像を撮像すると共に、前記撮像画像平面上の前記演奏部材の位置座標を検出する撮像装置と、
前記撮像画像平面に配置された領域を規定するレイアウト情報を記憶する記憶手段と、
前記特定の演奏操作がなされたタイミングでの前記撮像画像平面上の前記演奏部材の位置座標を検出する特定操作位置検出手段と、
前記特定操作位置検出手段により検出された前記演奏部材の位置座標が、前記レイアウト情報に基づいて配置された領域に属するか否かを判別する判別手段と、
この判別手段により領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示する発音指示手段と、
前記検出された前記演奏部材の位置座標の、前記領域における分布度合を算出する分布算出手段と、
前記分布算出手段により算出された分布度合に応じて前記領域を変更させるために、前記記憶手段に記憶されたレイアウト情報を更新する更新手段と、
を備えたことを特徴とする。
In order to achieve the above object, a performance device according to one aspect of the present invention includes:
A performance member that the performer can hold;
An imaging device that captures a captured image of the performance member as a subject and detects position coordinates of the performance member on the captured image plane;
Storage means for storing layout information defining an area arranged on the captured image plane;
Specific operation position detecting means for detecting position coordinates of the performance member on the captured image plane at the timing when the specific performance operation is performed;
Discriminating means for discriminating whether or not the position coordinates of the performance member detected by the specific operation position detecting means belong to an area arranged based on the layout information;
A sounding instruction means for instructing the sound generation of the musical sound corresponding to the area when the determination means determines that the sound belongs to the area;
Distribution calculating means for calculating a distribution degree in the region of the position coordinates of the detected performance member;
Updating means for updating layout information stored in the storage means in order to change the region according to the distribution degree calculated by the distribution calculating means;
It is provided with.

本発明によれば、仮想的な楽器セットの配置などのレイアウト情報を、演奏者の熟練度に応じて変更できる。   According to the present invention, layout information such as the placement of a virtual musical instrument set can be changed according to the skill level of the performer.

本発明の演奏装置の一実施形態の概要を示す図である。It is a figure which shows the outline | summary of one Embodiment of the performance apparatus of this invention. 上記演奏装置を構成するスティック部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the stick part which comprises the said performance apparatus. 上記スティック部の斜視図である。It is a perspective view of the said stick part. 上記演奏装置を構成するカメラユニット部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the camera unit part which comprises the said performance apparatus. 上記演奏装置を構成するセンターユニット部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the center unit part which comprises the said performance apparatus. 本発明の演奏装置の一実施形態に係るセットレイアウト情報を示す図である。It is a figure which shows the set layout information which concerns on one Embodiment of the performance apparatus of this invention. 上記セットレイアウト情報が示す概念を仮想平面上で可視化した図である。It is the figure which visualized on the virtual plane the concept which the said set layout information shows. 上記スティック部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the said stick part. 上記カメラユニット部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the said camera unit part. 上記センターユニット部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the said center unit part. 上記センターユニット部のレベル判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the level determination process of the said center unit part. 仮想パッドの設定例を示す図である。It is a figure which shows the example of a setting of a virtual pad. 仮想パッドの設定例を示す図である。It is a figure which shows the example of a setting of a virtual pad. 上記実施形態に係るセットレイアウト情報を示す図である。It is a figure which shows the set layout information which concerns on the said embodiment. レベル報知の具体的表示例を示す図である。It is a figure which shows the specific example of a level alert | report.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[演奏装置1の概要]
初めに、図1を参照して、本発明の一実施形態としての演奏装置1の概要について説明する。
図1(1)に示すように、本実施形態の演奏装置1は、スティック部10R,10Lと、カメラユニット部20と、センターユニット部30と、を含んで構成される。本実施形態では、スティック部10Rを、以下、「右手用スティック部10R」と適宜呼び、スティック部10Lを、以下、「左手用スティック部10L」と適宜呼ぶ。本実施形態の演奏装置1は、2本のスティックを用いた仮想的なドラム演奏を実現するため、2つのスティック部10R,10Lを備えることとしているが、スティック部の数は、これに限られず1つとしてもよく、3つ以上としてもよい。なお、以下では、右手用スティック部10R及び左手用スティック部10Lを個々に区別する必要がない場合には、両者を総称して「スティック部10」と呼ぶ。
[Outline of the performance device 1]
First, with reference to FIG. 1, the outline | summary of the performance apparatus 1 as one Embodiment of this invention is demonstrated.
As shown in FIG. 1 (1), the performance device 1 of the present embodiment includes stick units 10R and 10L, a camera unit unit 20, and a center unit unit 30. In the present embodiment, the stick portion 10R is hereinafter appropriately referred to as a “right hand stick portion 10R”, and the stick portion 10L is hereinafter appropriately referred to as a “left hand stick portion 10L”. The performance device 1 of the present embodiment is provided with two stick portions 10R and 10L in order to realize a virtual drum performance using two sticks, but the number of stick portions is not limited to this. There may be one, or three or more. In the following, when it is not necessary to distinguish the right-hand stick portion 10R and the left-hand stick portion 10L from each other, both are collectively referred to as the “stick portion 10”.

スティック部10は、長手方向に延びるスティック状の演奏部材である。演奏者は、スティック部10の一端(根元側)を手に持ち、手首などを中心として振り上げたり振り下ろしたりする動作を、演奏動作として行う。このような演奏者の演奏動作を検知するため、スティック部10の他端(先端側)には、加速度センサ及び角速度センサなどの各種センサが設けられている(後述のモーションセンサ部14)。スティック部10は、これらの各種センサにより検知された演奏動作に基づいて、センターユニット部30にノートオンイベントを送信する。
また、スティック部10の先端側には、後述するマーカー部15(図2参照)が設けられており、撮像時にカメラユニット部20がスティック部10の先端を判別可能に構成されている。
The stick portion 10 is a stick-like performance member extending in the longitudinal direction. The performer performs an operation of holding up one end (the base side) of the stick unit 10 and swinging it up or down around the wrist or the like as a performance operation. Various sensors such as an acceleration sensor and an angular velocity sensor are provided at the other end (front end side) of the stick unit 10 in order to detect such performance performance of the performer (motion sensor unit 14 described later). The stick unit 10 transmits a note-on event to the center unit unit 30 based on the performance operation detected by these various sensors.
A marker unit 15 (see FIG. 2), which will be described later, is provided on the distal end side of the stick unit 10, and the camera unit unit 20 is configured to be able to determine the distal end of the stick unit 10 during imaging.

カメラユニット部20は、光学式の撮像装置として構成され、スティック部10を保持して演奏動作を行う演奏者を被写体として含む空間(以下、「撮像空間」と呼ぶ)を、所定のフレームレートで撮像し、動画像のデータとして出力する。カメラユニット部20は、撮像空間内における発光中のマーカー部15の位置座標を特定し、当該位置座標を示すデータ(以下、「位置座標データ」と呼ぶ)をセンターユニット部30に送信する。   The camera unit 20 is configured as an optical imaging device, and a space (hereinafter referred to as “imaging space”) including a player who performs a performance operation while holding the stick unit 10 as a subject (hereinafter referred to as an “imaging space”) at a predetermined frame rate. The image is captured and output as moving image data. The camera unit unit 20 identifies the position coordinates of the marker unit 15 that is emitting light in the imaging space, and transmits data indicating the position coordinates (hereinafter referred to as “position coordinate data”) to the center unit unit 30.

センターユニット部30は、スティック部10からノートオンイベントを受信すると、受信時のマーカー部15の位置座標データに応じて、所定の楽音を発音する。具体的には、センターユニット部30は、カメラユニット部20の撮像空間に対応付けて、図1(2)に示す仮想ドラムセットDの位置座標データを記憶しており、当該仮想ドラムセットDの位置座標データと、ノートオンイベント受信時のマーカー部15の位置座標データとに基づいて、スティック部10が仮想的に打撃した楽器を特定し、当該楽器に対応する楽音を発音する。   When the center unit unit 30 receives a note-on event from the stick unit 10, the center unit unit 30 generates a predetermined tone according to the position coordinate data of the marker unit 15 at the time of reception. Specifically, the center unit 30 stores the position coordinate data of the virtual drum set D shown in FIG. 1 (2) in association with the imaging space of the camera unit 20, and the virtual drum set D Based on the position coordinate data and the position coordinate data of the marker unit 15 at the time of receiving the note-on event, the instrument that is virtually hit by the stick unit 10 is specified, and a musical tone corresponding to the instrument is generated.

次に、このような本実施形態の演奏装置1の構成について具体的に説明する。   Next, the configuration of the performance device 1 of the present embodiment will be specifically described.

[演奏装置1の構成]
初めに、図2〜図5を参照して、本実施形態の演奏装置1の各構成要素、具体的には、スティック部10、カメラユニット部20及びセンターユニット部30の構成について説明する。
[Configuration of the performance device 1]
First, with reference to FIG. 2 to FIG. 5, each component of the performance device 1 of the present embodiment, specifically, the configuration of the stick unit 10, the camera unit unit 20, and the center unit unit 30 will be described.

[スティック部10の構成]
図2は、スティック部10のハードウェア構成を示すブロック図である。
図2に示すように、スティック部10は、CPU11(Central Processing Unit)と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、モーションセンサ部14と、マーカー部15と、データ通信部16と、スイッチ操作検出回路17と、を含んで構成される。
[Configuration of Stick Unit 10]
FIG. 2 is a block diagram illustrating a hardware configuration of the stick unit 10.
As shown in FIG. 2, the stick unit 10 includes a CPU 11 (Central Processing Unit), a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a motion sensor unit 14, a marker unit 15, and data. A communication unit 16 and a switch operation detection circuit 17 are included.

CPU11は、スティック部10全体の制御を実行し、例えば、モーションセンサ部14から出力されるセンサ値に基づいて、スティック部10の姿勢の検知、ショット検出及びアクション検出に加え、マーカー部15の発光・消灯などの制御を実行する。このとき、CPU11は、マーカー特徴情報をROM12から読み出し、当該マーカー特徴情報に従い、マーカー部15の発光制御を実行する。また、CPU11は、データ通信部16を介して、センターユニット部30との間の通信制御を実行する。   The CPU 11 controls the stick unit 10 as a whole. For example, based on the sensor value output from the motion sensor unit 14, in addition to detecting the posture of the stick unit 10, shot detection, and action detection, the marker unit 15 emits light.・ Execute control such as turning off lights. At this time, the CPU 11 reads the marker feature information from the ROM 12, and executes light emission control of the marker unit 15 according to the marker feature information. Further, the CPU 11 executes communication control with the center unit unit 30 via the data communication unit 16.

ROM12は、CPU11により各種処理が実行されるための処理プログラムを格納する。また、ROM12は、マーカー部15の発光制御に用いるマーカー特徴情報を格納する。ここで、カメラユニット部20は、右手用スティック部10Rのマーカー部15(以下、「右マーカー」と適宜呼ぶ)と、左手用スティック部10Lのマーカー部15(以下、「左マーカー」と適宜呼ぶ)とを区別する必要がある。マーカー特徴情報とは、右マーカーと左マーカーとをカメラユニット部20が区別するための情報であり、例えば、発光時の形状、大きさ、色相、彩度、あるいは輝度に加え、発光時の点滅スピードなどを用いることができる。
右手用スティック部10RのCPU11及び左手用スティック部10LのCPU11は、夫々異なるマーカー特徴情報を読み出し、夫々のマーカーの発光制御を実行する。
The ROM 12 stores a processing program for executing various processes by the CPU 11. The ROM 12 stores marker feature information used for light emission control of the marker unit 15. Here, the camera unit 20 is appropriately referred to as a marker portion 15 (hereinafter referred to as “right marker” as appropriate) of the right hand stick portion 10R and a marker portion 15 (hereinafter referred to as “left marker” as appropriate) of the left hand stick portion 10L. ) Must be distinguished. The marker feature information is information for the camera unit 20 to distinguish between the right marker and the left marker. For example, in addition to the shape, size, hue, saturation, or luminance at the time of light emission, blinking at the time of light emission. Speed can be used.
The CPU 11 of the right-hand stick unit 10R and the CPU 11 of the left-hand stick unit 10L read different marker characteristic information and execute light emission control of each marker.

RAM13は、モーションセンサ部14が出力した各種センサ値など、処理において取得され又は生成された値を格納する。   The RAM 13 stores values acquired or generated in the process, such as various sensor values output by the motion sensor unit 14.

モーションセンサ部14は、スティック部10の状態を検知するための各種センサであり、所定のセンサ値を出力する。ここで、モーションセンサ部14を構成するセンサとしては、例えば、加速度センサ、角速度センサ及び磁気センサなどを用いることができる。   The motion sensor unit 14 is a variety of sensors for detecting the state of the stick unit 10 and outputs a predetermined sensor value. Here, as a sensor which comprises the motion sensor part 14, an acceleration sensor, an angular velocity sensor, a magnetic sensor, etc. can be used, for example.

図3は、スティック部10の斜視図であり、外部にはスイッチ部171とマーカー部15が配置されている。
演奏者は、スティック部10の一端(根元側)を保持し、手首などを中心とした振り上げ振り下ろし動作を行うことで、スティック部10に対して運動を生じさせる。その際にこの運動に応じたセンサ値がモーションセンサ部14から出力されるようになっている。
FIG. 3 is a perspective view of the stick unit 10, and a switch unit 171 and a marker unit 15 are disposed outside.
The performer holds the one end (base side) of the stick unit 10 and performs a swing-down operation centering on the wrist or the like, thereby causing the stick unit 10 to move. At this time, a sensor value corresponding to this motion is output from the motion sensor unit 14.

モーションセンサ部14からのセンサ値を受け付けたCPU11は、演奏者が持っているスティック部10の状態、を検知する。一例としては、CPU11は、スティック部10による仮想的な楽器の打撃タイミング(以下、「ショットタイミング」とも呼ぶ)を検知する。ショットタイミングは、スティック部10が振り下ろされてから停止される直前のタイミングであり、スティック部10にかかる振り下ろし方向とは逆向きの加速度の大きさがある閾値を超えたタイミングである。   CPU11 which received the sensor value from the motion sensor part 14 detects the state of the stick part 10 which a player has. As an example, the CPU 11 detects the timing of hitting a virtual musical instrument by the stick unit 10 (hereinafter also referred to as “shot timing”). The shot timing is a timing immediately after the stick unit 10 is swung down and immediately before it is stopped, and is a timing at which the magnitude of acceleration in the direction opposite to the swing-down direction applied to the stick unit 10 exceeds a certain threshold.

図2に戻り、マーカー部15は、スティック部10の先端側に設けられた発光体であり 、例えばLEDなどで構成され、CPU11からの制御に応じて発光及び消灯する。具体的には、マーカー部15は、CPU11によってROM12から読み出されたマーカー特徴情報に基づいて発光する。このとき、右手用スティック部10Rのマーカー特徴情報と、左手用スティック部10Lのマーカー特徴情報とは異なるため、カメラユニット部20は、右手用スティック部10Rのマーカー部(右マーカー)の位置座標と、左手用スティック部10Lのマーカー部(左マーカー)の位置座標とを個々に区別し取得することができる。   Returning to FIG. 2, the marker unit 15 is a light emitting body provided on the tip side of the stick unit 10, and is composed of, for example, an LED, and emits light and extinguishes according to control from the CPU 11. Specifically, the marker unit 15 emits light based on the marker feature information read from the ROM 12 by the CPU 11. At this time, since the marker feature information of the right-hand stick unit 10R and the marker feature information of the left-hand stick unit 10L are different, the camera unit 20 uses the position coordinates of the marker unit (right marker) of the right-hand stick unit 10R. The position coordinates of the marker portion (left marker) of the left hand stick portion 10L can be individually distinguished and acquired.

データ通信部16は、少なくともセンターユニット部30との間で所定の無線通信を行う。所定の無線通信は、任意の方法で行うこととしてよく、本実施形態では、赤外線通信によりセンターユニット部30との間での無線通信を行う。なお、データ通信部16は、カメラユニット部20との間で無線通信を行うこととしてもよく、また、右手用スティック部10R及び左手用スティック部10Lとの間で無線通信を行うこととしてもよい。   The data communication unit 16 performs predetermined wireless communication with at least the center unit unit 30. The predetermined wireless communication may be performed by any method, and in the present embodiment, wireless communication with the center unit unit 30 is performed by infrared communication. The data communication unit 16 may perform wireless communication with the camera unit unit 20, or may perform wireless communication with the right hand stick unit 10R and the left hand stick unit 10L. .

スイッチ操作検出回路17は、スイッチ171と接続され、当該スイッチ171を介した入力情報を受け付ける。   The switch operation detection circuit 17 is connected to the switch 171 and receives input information via the switch 171.

[カメラユニット部20の構成]
スティック部10の構成についての説明は、以上である。続いて、図4を参照して、カメラユニット部20の構成について説明する。
図4は、カメラユニット部20のハードウェア構成を示すブロック図である。
カメラユニット部20は、CPU21と、ROM22と、RAM23と、イメージセンサ部24と、データ通信部25と、を含んで構成される。
[Configuration of Camera Unit 20]
This completes the description of the configuration of the stick unit 10. Next, the configuration of the camera unit unit 20 will be described with reference to FIG.
FIG. 4 is a block diagram illustrating a hardware configuration of the camera unit unit 20.
The camera unit unit 20 includes a CPU 21, a ROM 22, a RAM 23, an image sensor unit 24, and a data communication unit 25.

CPU21は、カメラユニット部20全体の制御を実行し、例えば、イメージセンサ部24が検出したマーカー部15の位置座標データ及びマーカー特徴情報に基づいて、右手用スティック部10R及び左手用スティック部10Lのマーカー部15(右マーカー及び左マーカー)の夫々の位置座標を算出し、夫々の算出結果を示す位置座標データを出力する制御を実行する。また、CPU21は、データ通信部25を介して、算出した位置座標データなどをセンターユニット部30に送信する通信制御を実行する。   The CPU 21 controls the entire camera unit 20 and, for example, based on the position coordinate data and marker feature information of the marker unit 15 detected by the image sensor unit 24, the right-hand stick unit 10R and the left-hand stick unit 10L. Control is performed to calculate each position coordinate of the marker unit 15 (right marker and left marker) and output position coordinate data indicating each calculation result. Further, the CPU 21 executes communication control for transmitting the calculated position coordinate data and the like to the center unit unit 30 via the data communication unit 25.

ROM22は、CPU21により各種処理が実行されるための処理プログラムを格納する。RAM23は、イメージセンサ部24が検出したマーカー部15の位置座標データなど、処理において取得され又は生成された値を格納する。また、RAM23は、センターユニット部30から受信した右手用スティック部10R及び左手用スティック部10Lの夫々のマーカー特徴情報も併せて格納する。   The ROM 22 stores a processing program for executing various processes by the CPU 21. The RAM 23 stores values acquired or generated in the process, such as the position coordinate data of the marker unit 15 detected by the image sensor unit 24. The RAM 23 also stores the marker feature information of each of the right-hand stick unit 10R and the left-hand stick unit 10L received from the center unit 30.

イメージセンサ部24は、例えば、光学式のカメラであり、スティック部10を持って演奏動作を行う演奏者の動画を所定のフレームレートで撮像する。また、イメージセンサ部24は、フレームごとの撮像データをCPU21に出力する。なお、撮像画像内におけるスティック部10のマーカー部15の位置座標の特定については、イメージセンサ部24が行うこととしてもよく、CPU21が行うこととしてもよい。同様に、撮像したマーカー部15のマーカー特徴情報についても、イメージセンサ部24が特定することとしてもよく、CPU21が特定することとしてもよい。   The image sensor unit 24 is, for example, an optical camera, and captures a moving image of a performer who performs a performance operation with the stick unit 10 at a predetermined frame rate. Further, the image sensor unit 24 outputs imaging data for each frame to the CPU 21. Note that the specification of the position coordinates of the marker unit 15 of the stick unit 10 in the captured image may be performed by the image sensor unit 24 or the CPU 21. Similarly, the image sensor unit 24 may specify the marker characteristic information of the imaged marker unit 15 or may be specified by the CPU 21.

データ通信部25は、少なくともセンターユニット部30との間で所定の無線通信(例えば、赤外線通信)を行う。なお、データ通信部16は、スティック部10との間で無線通信を行うこととしてもよい。   The data communication unit 25 performs predetermined wireless communication (for example, infrared communication) with at least the center unit unit 30. Note that the data communication unit 16 may perform wireless communication with the stick unit 10.

[センターユニット部30の構成]
カメラユニット部20の構成についての説明は、以上である。続いて、図5を参照して、センターユニット部30の構成について説明する。
図5は、センターユニット部30のハードウェア構成を示すブロック図である。
センターユニット部30は、CPU31と、ROM32と、RAM33と、スイッチ操作検出回路34と、表示回路35と、音源装置36と、データ通信部37と、を含んで構成される。
[Configuration of Center Unit 30]
This completes the description of the configuration of the camera unit section 20. Then, with reference to FIG. 5, the structure of the center unit part 30 is demonstrated.
FIG. 5 is a block diagram illustrating a hardware configuration of the center unit 30.
The center unit unit 30 includes a CPU 31, a ROM 32, a RAM 33, a switch operation detection circuit 34, a display circuit 35, a sound source device 36, and a data communication unit 37.

CPU31は、センターユニット部30全体の制御を実行し、例えば、スティック部10から受信したショット検出及びカメラユニット部20から受信したマーカー部15の位置座標に基づいて、所定の楽音を発音する制御などを実行する。また、CPU31は、データ通信部37を介して、スティック部10及びカメラユニット部20との間の通信制御を実行する。   The CPU 31 executes control of the entire center unit 30, for example, control for generating predetermined musical sounds based on the shot detection received from the stick unit 10 and the position coordinates of the marker unit 15 received from the camera unit 20. Execute. Further, the CPU 31 executes communication control between the stick unit 10 and the camera unit unit 20 via the data communication unit 37.

ROM32は、CPU31の実行する各種処理の処理プログラムを格納する。また、ROM32は、種々の音色の波形データ、例えば、フルート、サックス、トランペットなどの管楽器、ピアノなどの鍵盤楽器、ギターなどの弦楽器、バスドラム、ハイハット、スネア、シンバル、タムなど打楽器の波形データ(音色データ)を、位置座標などと対応付けて格納する。   The ROM 32 stores processing programs for various processes executed by the CPU 31. The ROM 32 stores waveform data of various tones, for example, wind instruments such as flutes, saxophones, and trumpets, keyboard instruments such as pianos, stringed instruments such as guitars, bass drums, hi-hats, snares, cymbals, and tomographs. Timbre data) is stored in association with position coordinates and the like.

音色データ等の格納方法としては、例えば、図6にセットレイアウト情報として示すように、セットレイアウト情報は、第1パッド〜第nパッドまでのn個のパッド情報を有しており、さらに各パッド情報にパッドの有無(後述する仮想平面における仮想パッドの存在の有無)、位置(後述する仮想平面における位置座標)、サイズ(仮想パッドの形状及び径など)、及び音色(波形データ)などが対応づけられて格納されている。   For example, as shown in FIG. 6 as set layout information, the set layout information includes n pieces of pad information from the first pad to the nth pad, and each pad is further stored. Corresponds to the presence / absence of a pad (presence / absence of a virtual pad in a virtual plane described later), position (position coordinates in a virtual plane described later), size (virtual pad shape and diameter, etc.), tone color (waveform data), etc. Is stored.

ここで、図7を参照して、具体的なセットレイアウトについて説明する。図7は、センターユニット部30のROM32に格納されたセットレイアウト情報(図6参照)が示す概念を仮想平面上で可視化した図である。
図7は、4個の仮想パッド81,82,83,84が仮想平面上に配置されている様子を示しており、仮想パッド81,82,83,84には、第1パッド〜第nパッドのうち、パッド有無データが「パッド有」となっているものが対応している。例えば、第2パッド、第3パッド、第5パッド、第6パッドの4つが対応している。さらに、位置データとサイズデータに基づいて仮想パッド81,82,83,84が配置されている。さらにまた、各仮想パッド81に音色データが対応付けられている。したがって、ショット検出時におけるマーカー部15の位置座標が仮想パッド81,82,83,84に対応する領域に属した場合、仮想パッド81,82,83,84に対応する音色が発音される。
なお、CPU31は、この仮想平面を仮想パッド81配置と共に後述する表示装置351に表示してもよい。
また、本実施形態において、この仮想平面での位置座標は、カメラユニット部20の撮像画像での位置座標と一致するものとする。
Here, a specific set layout will be described with reference to FIG. FIG. 7 is a diagram in which the concept indicated by the set layout information (see FIG. 6) stored in the ROM 32 of the center unit 30 is visualized on a virtual plane.
FIG. 7 shows a state in which four virtual pads 81, 82, 83, and 84 are arranged on a virtual plane. The virtual pads 81, 82, 83, and 84 include the first pad to the nth pad. Among them, the pad presence / absence data corresponding to “with pad” is supported. For example, four pads of the second pad, the third pad, the fifth pad, and the sixth pad correspond to each other. Further, virtual pads 81, 82, 83, 84 are arranged based on the position data and the size data. Furthermore, timbre data is associated with each virtual pad 81. Therefore, when the position coordinates of the marker unit 15 at the time of shot detection belong to the area corresponding to the virtual pads 81, 82, 83, 84, the timbre corresponding to the virtual pads 81, 82, 83, 84 is generated.
The CPU 31 may display the virtual plane on the display device 351 described later together with the virtual pad 81 arrangement.
In the present embodiment, the position coordinates on the virtual plane coincide with the position coordinates on the captured image of the camera unit unit 20.

図5に戻って、RAM33は、スティック部10から受信したスティック部10の状態(ショット検出など)、カメラユニット部20から受信したマーカー部15の位置座標、及び、ROM32から読み出されたセットレイアウト情報など、処理において取得され又は生成された値を格納する。
ショット検出時(すなわち、ノートオンイベント受信時)にマーカー部15の位置座標が属する領域の仮想パッド81に対応する音色データ(波形データ)を、RAM33に格納されたセットレイアウト情報から、CPU31が読み出すことで、演奏者の演奏動作に応じた楽音が発音される。
Returning to FIG. 5, the RAM 33 receives the state of the stick unit 10 received from the stick unit 10 (shot detection, etc.), the position coordinates of the marker unit 15 received from the camera unit unit 20, and the set layout read from the ROM 32. Stores values obtained or generated in the process, such as information.
The CPU 31 reads the timbre data (waveform data) corresponding to the virtual pad 81 in the area to which the position coordinates of the marker unit 15 belong at the time of shot detection (that is, when a note-on event is received) from the set layout information stored in the RAM 33. Thus, a musical sound corresponding to the performance performance of the performer is generated.

スイッチ操作検出回路34は、スイッチ341と接続され、当該スイッチ341を介した入力情報を受け付ける。入力情報としては、例えば、発音する楽音の音量や発音する楽音の音色の変更、セットレイアウト番号の設定及び変更、表示装置351の表示の切り替えなどが含まれる。
また、表示回路35は、表示装置351と接続され、表示装置351の表示制御を実行する。
The switch operation detection circuit 34 is connected to the switch 341 and receives input information via the switch 341. The input information includes, for example, a change in the volume of the tone to be generated and a tone color of the tone to be generated, setting and changing the set layout number, and switching the display on the display device 351.
The display circuit 35 is connected to the display device 351 and executes display control of the display device 351.

音源装置36は、CPU31からの指示にしたがって、ROM32から波形データを読み出して、楽音データを生成すると共に、楽音データをアナログ信号に変換し、図示しないスピーカから楽音を発音する。
また、データ通信部37は、スティック部10及びカメラユニット部20との間で所定の無線通信(例えば、赤外線通信)を行う。
The tone generator 36 reads waveform data from the ROM 32 in accordance with an instruction from the CPU 31 to generate musical tone data, converts the musical tone data into an analog signal, and generates a musical tone from a speaker (not shown).
The data communication unit 37 performs predetermined wireless communication (for example, infrared communication) between the stick unit 10 and the camera unit unit 20.

[演奏装置1の処理]
以上、演奏装置1を構成するスティック部10、カメラユニット部20及びセンターユニット部30の構成について説明した。続いて、図8〜図11を参照して、演奏装置1の処理について説明する。
[Processing of the performance device 1]
In the above, the structure of the stick part 10, the camera unit part 20, and the center unit part 30 which comprises the performance apparatus 1 was demonstrated. Next, processing of the performance device 1 will be described with reference to FIGS.

[スティック部10の処理]
図8は、スティック部10が実行する処理(以下、「スティック部処理」と呼ぶ)の流れを示すフローチャートである。
図8を参照して、スティック部10のCPU11は、モーションセンサ部14からモーションセンサ情報、すなわち、各種センサが出力するセンサ値を読み出し、RAM13に格納する(ステップS1)。その後、CPU11は、読み出したモーションセンサ情報に基づいて、スティック部10の姿勢検知処理を実行する(ステップS2)。姿勢検知処理では、CPU11は、モーションセンサ情報に基づいて、スティック部10の姿勢、例えば、スティック部10のロール角及びピッチ角などを算出する。
[Processing of the stick unit 10]
FIG. 8 is a flowchart showing a flow of processing executed by the stick unit 10 (hereinafter referred to as “stick unit processing”).
Referring to FIG. 8, CPU 11 of stick unit 10 reads motion sensor information from motion sensor unit 14, that is, sensor values output by various sensors, and stores them in RAM 13 (step S1). Thereafter, the CPU 11 executes a posture detection process of the stick unit 10 based on the read motion sensor information (step S2). In the posture detection process, the CPU 11 calculates the posture of the stick unit 10, for example, the roll angle and pitch angle of the stick unit 10 based on the motion sensor information.

続いて、CPU11は、モーションセンサ情報に基づいて、ショット検出処理を実行する(ステップS3)。ここで、演奏者がスティック部10を用いて演奏を行う場合、一般には、現実の楽器(例えば、ドラム)を打撃する動作と同様の演奏動作を行う。このような演奏動作では、演奏者は、まずスティック部10を振り上げ、それから仮想的な楽器に向かって振り下ろす。そしてスティック部10を仮想的な楽器に打撃する寸前に、スティック部10の動作を止めようとする力を働かせる。このとき、演奏者は、仮想的な楽器にスティック部10を打撃した瞬間に楽音が発生することを想定しているため、演奏者が想定するタイミングで楽音を発生できるのが望ましい。そこで、本実施形態では、演奏者が仮想的な楽器の面にスティック部10を打撃する瞬間又はそのわずかに手前のタイミングで楽音を発音することとしている。   Subsequently, the CPU 11 executes shot detection processing based on the motion sensor information (step S3). Here, when a performer performs using the stick unit 10, generally, a performance operation similar to the operation of hitting an actual musical instrument (for example, a drum) is performed. In such a performance operation, the performer first raises the stick unit 10 and then swings it down toward the virtual instrument. Then, a force to stop the operation of the stick unit 10 is applied just before the stick unit 10 is hit by a virtual musical instrument. At this time, since it is assumed that the performer generates a musical sound at the moment of hitting the stick unit 10 on a virtual musical instrument, it is desirable that the performer can generate a musical sound at a timing assumed by the performer. Therefore, in the present embodiment, the musical sound is generated at the moment when the player strikes the stick unit 10 on the surface of the virtual musical instrument or slightly before that.

本実施形態においては、ショット検出のタイミングは、スティック部10が振り下ろされてから停止される直前のタイミングであり、スティック部10にかかる振り下ろし方向とは逆向きの加速度の大きさがある閾値を超えたタイミングである。
このショット検出のタイミングを発音タイミングとし、発音タイミングが到来したと判断されると、スティック部10のCPU11は、ノートオンイベントを生成し、センターユニット部30に送信する。これにより、センターユニット部30において、発音処理が実行されて、楽音が発音される。
ステップS3に示すショット検出処理では、モーションセンサ情報(例えば、加速度センサのセンサ合成値)に基づいて、ノートオンイベントを生成する。このとき、生成するノートオンイベントには、発音する楽音の音量を含めることとしてもよい。なお、楽音の音量は、例えば、センサ合成値の最大値から求めることができる。
In the present embodiment, the shot detection timing is a timing immediately after the stick unit 10 is swung down and immediately before it is stopped, and a threshold value having a magnitude of acceleration opposite to the swing-down direction applied to the stick unit 10. The timing is over.
The shot detection timing is set as the sound generation timing. When it is determined that the sound generation timing has arrived, the CPU 11 of the stick unit 10 generates a note-on event and transmits it to the center unit unit 30. As a result, the center unit 30 executes a sound generation process to generate a musical sound.
In the shot detection process shown in step S3, a note-on event is generated based on motion sensor information (for example, a sensor composite value of an acceleration sensor). At this time, the generated note-on event may include the volume of the musical sound to be generated. The volume of the musical sound can be obtained from the maximum value of the sensor composite value, for example.

続いて、CPU11は、ステップS1乃至ステップS3の処理で検出した情報、すなわち、モーションセンサ情報、姿勢情報及びショット情報を、データ通信部16を介してセンターユニット部30に送信する(ステップS4)。このとき、CPU11は、スティック識別情報と対応付けて、モーションセンサ情報、姿勢情報及びショット情報をセンターユニット部30に送信する。
これにより、処理はステップS1に戻され、それ以降の処理が繰り返される。
Subsequently, the CPU 11 transmits the information detected in the processes of steps S1 to S3, that is, motion sensor information, posture information, and shot information, to the center unit unit 30 via the data communication unit 16 (step S4). At this time, the CPU 11 transmits motion sensor information, posture information, and shot information to the center unit 30 in association with the stick identification information.
As a result, the process returns to step S1, and the subsequent processes are repeated.

[カメラユニット部20の処理]
図9は、カメラユニット部20が実行する処理(以下、「カメラユニット部処理」と呼ぶ)の流れを示すフローチャートである。
図9を参照して、カメラユニット部20のCPU21は、イメージデータ取得処理を実行する(ステップS11)。この処理では、CPU21は、イメージセンサ部24からイメージデータを取得する。
[Processing of Camera Unit 20]
FIG. 9 is a flowchart showing a flow of processing (hereinafter referred to as “camera unit section processing”) executed by the camera unit section 20.
Referring to FIG. 9, the CPU 21 of the camera unit 20 executes an image data acquisition process (step S11). In this process, the CPU 21 acquires image data from the image sensor unit 24.

続いて、CPU21は、右マーカー検出処理(ステップS12)及び左マーカー検出処理(ステップS13)を実行する。これらの処理では、CPU21は、イメージセンサ部24が検出した、右手用スティック部10Rのマーカー部15(右マーカー)及び左手用スティック部10Lのマーカー部15(左マーカー)の位置座標、サイズ、角度などのマーカー検出情報を、取得しRAM23に格納する。このとき、イメージセンサ部24は、発光中のマーカー部15について、マーカー検出情報を検出する。   Subsequently, the CPU 21 executes a right marker detection process (step S12) and a left marker detection process (step S13). In these processes, the CPU 21 detects the position coordinates, size, and angle of the marker unit 15 (right marker) of the right hand stick unit 10R and the marker unit 15 (left marker) of the left hand stick unit 10L detected by the image sensor unit 24. Marker detection information such as is acquired and stored in the RAM 23. At this time, the image sensor unit 24 detects marker detection information for the marker unit 15 that is emitting light.

続いて、CPU21は、ステップS12及びステップS13で取得したマーカー検出情報を、データ通信部25を介してセンターユニット部30に送信し(ステップS14)、ステップS11に処理を移行させる。   Then, CPU21 transmits the marker detection information acquired by step S12 and step S13 to the center unit part 30 via the data communication part 25 (step S14), and transfers a process to step S11.

[センターユニット部30の処理]
図10は、センターユニット部30が実行する処理(以下、「センターユニット部処理」と呼ぶ)の流れを示すフローチャートである。
図10を参照して、センターユニット部30のCPU31は、ショット対象となる仮想パッドを演奏者に報知する(ステップS21)。この処理では、CPU31は、仮想パッド81,82,83,84のうち、ショット対象とする仮想パッドを選択して、演奏者に報知する。仮想パッドは、ランダムに選択されてもよいし、演奏者によるスイッチ341の操作に基づいて選択されてもよい。報知の方法として、CPU31は、例えば、選択された仮想パッドを一定周期で点滅させる画像を、表示回路35を介して表示装置351に表示する。このとき、CPU31は、演奏者が仮想パッドをショットすべきショット回数を報知してもよいし、予め定められたショットすべき時間を報知してもよい。
[Processing of Center Unit 30]
FIG. 10 is a flowchart showing a flow of processing (hereinafter referred to as “center unit section processing”) executed by the center unit section 30.
Referring to FIG. 10, the CPU 31 of the center unit 30 notifies the player of the virtual pad to be shot (step S21). In this process, the CPU 31 selects a virtual pad to be shot from among the virtual pads 81, 82, 83, and 84, and notifies the player. The virtual pad may be selected randomly or may be selected based on the operation of the switch 341 by the performer. As a notification method, the CPU 31 displays, for example, an image that causes the selected virtual pad to blink at a constant cycle on the display device 351 via the display circuit 35. At this time, the CPU 31 may notify the number of shots that the performer should shot the virtual pad, or may notify the predetermined time to be shot.

続いて、CPU31は、カメラユニット部20から、右マーカー及び左マーカー夫々のマーカー検出情報を受信し、RAM33に格納する(ステップS22)。また、CPU31は、右手用スティック部10R及び左手用スティック部10Lの夫々から、スティック識別情報と対応付けられたモーションセンサ情報、姿勢情報及びショット情報を受信し、RAM33に格納する(ステップS23)。さらに、CPU31は、スイッチ341の操作により入力された情報を取得する(ステップS24)。   Subsequently, the CPU 31 receives marker detection information for each of the right marker and the left marker from the camera unit 20 and stores them in the RAM 33 (step S22). Further, the CPU 31 receives the motion sensor information, the posture information, and the shot information associated with the stick identification information from each of the right hand stick unit 10R and the left hand stick unit 10L, and stores them in the RAM 33 (step S23). Further, the CPU 31 obtains information input by operating the switch 341 (step S24).

続いて、CPU31は、ショットありか否かを判断する(ステップS25)。この処理では、CPU31は、スティック部10からノートオンイベントを受信したか否かにより、ショットの有無を判断する。このとき、ショットありと判断した場合には、CPU31は、ショット情報処理を実行する(ステップS26)。ショットなしと判断した場合には 、CPU31は、処理をステップS22に移行させる。
ショット情報処理では、CPU31は、RAM33に読み出されたセットレイアウト情報から、右マーカー及び左マーカー夫々のマーカー検出情報に含まれる位置座標が属する領域の仮想パッド81,82,83,84のいずれかに対応する音色データ(波形データ)を読み出し、ノートオンイベントに含まれる音量データと共に音源装置36に出力する。すると、音源装置36は、受け取った波形データに基づいて該当する楽音を発音する。
Subsequently, the CPU 31 determines whether or not there is a shot (step S25). In this process, the CPU 31 determines whether or not there is a shot depending on whether or not a note-on event has been received from the stick unit 10. At this time, if it is determined that there is a shot, the CPU 31 executes shot information processing (step S26). When determining that there is no shot, the CPU 31 shifts the processing to step S22.
In the shot information processing, the CPU 31 selects any one of the virtual pads 81, 82, 83, and 84 in the region to which the position coordinates included in the marker detection information of the right marker and the left marker belong from the set layout information read out to the RAM 33. Timbre data (waveform data) corresponding to is output to the sound source device 36 together with the volume data included in the note-on event. Then, the tone generator 36 generates a corresponding musical sound based on the received waveform data.

続いて、CPU31は、ショット位置を記憶する(ステップS27)。この処理では、CPU31は、右マーカー及び左マーカー夫々のマーカー検出情報に含まれる位置座標をRAM33に記憶する。   Subsequently, the CPU 31 stores the shot position (step S27). In this process, the CPU 31 stores in the RAM 33 the position coordinates included in the marker detection information for each of the right marker and the left marker.

続いて、CPU31は、演奏が終了したか否かを判断する(ステップS28)。この処理では、CPU31は、仮想パッドをショットすべきショット回数が所定回数に到達したか否かを判断する。なお、CPU31は、ステップS21での報知を行ってから所定時間が経過したか否かを判断してもよい。演奏が終了でないと判断されると、CPU31は、処理をステップS22に移行させる。   Subsequently, the CPU 31 determines whether or not the performance is finished (step S28). In this process, the CPU 31 determines whether or not the number of shots to be shot on the virtual pad has reached a predetermined number. Note that the CPU 31 may determine whether or not a predetermined time has elapsed since the notification in step S21. If it is determined that the performance is not finished, the CPU 31 shifts the process to step S22.

演奏が終了した判断されると、CPU31は、図11を参照して後述するレベル判定処理を実行する(ステップS29)。   When it is determined that the performance is finished, the CPU 31 executes a level determination process described later with reference to FIG. 11 (step S29).

ステップS29の処理が終了すると、CPU31は、センターユニット部処理を終了する。   When the process of step S29 ends, the CPU 31 ends the center unit part process.

[センターユニット部30のレベル判定処理]
図11は、図10のセンターユニット部処理のうち、ステップS29のレベル判定処理の詳細な流れを示すフローチャートである。
図11を参照して、CPU31は、ショット位置のばらつき度合を算出する(ステップS31)。具体的には、CPU31は、図10のステップS27で取得した、右マーカー及び左マーカー夫々のマーカー検出情報に含まれる位置座標のうち、図10のステップS21で選択された仮想パッドの領域に属する全ての位置座標の平均位置座標を算出し、その平均位置座標から、当該選択された仮想パッドの領域に属する全ての位置座標夫々に対する距離を算出し、算出した距離の自乗をすべて加算した後、ショット回数で除算することで平均偏差を算出する。CPU31は、この平均偏差を両手用ばらつき度合としてRAM33に格納する。また、CPU31は、右マーカーのマーカー検出情報に含まれる位置座標と、左マーカーのマーカー検出情報に含まれる位置座標とについて、別々にばらつき度合を上述した方法と同様に算出し、右手用ばらつき度合及び左手用ばらつき度合としてRAM33に格納する。本実施例では上記ばらつき度合を平均偏差を用いたが、これの平方根である標準偏差をばらつき度合い(分布度合い)として用いてもよい。
[Level determination process of center unit 30]
FIG. 11 is a flowchart showing a detailed flow of the level determination process of step S29 in the center unit section process of FIG.
Referring to FIG. 11, CPU 31 calculates the degree of variation in shot position (step S31). Specifically, the CPU 31 belongs to the virtual pad area selected in step S21 in FIG. 10 among the position coordinates included in the marker detection information for each of the right marker and the left marker acquired in step S27 in FIG. After calculating the average position coordinates of all the position coordinates, calculating the distances to all the position coordinates belonging to the selected virtual pad area from the average position coordinates, and adding all the squares of the calculated distances, The average deviation is calculated by dividing by the number of shots. The CPU 31 stores this average deviation in the RAM 33 as the degree of variation for both hands. Further, the CPU 31 separately calculates the variation degree for the position coordinates included in the marker detection information for the right marker and the position coordinates included in the marker detection information for the left marker in the same manner as described above, and the variation degree for the right hand is calculated. And stored in the RAM 33 as the degree of variation for the left hand. In this embodiment, the average deviation is used as the degree of variation, but a standard deviation that is the square root of the degree of variation may be used as the degree of variation (distribution degree).

続いて、CPU31は、レベル判定を行う(ステップS32)。この処理では、CPU31は、ステップS31でRAM33に格納された両手用ばらつき度合に応じて、演奏者の演奏の熟練度を示すレベルを判定する。このとき、CPU31は、両手用ばらつき度合が所定の閾値より大きい場合に、レベルを初心者と判定し、所定の閾値以下の場合に、上級者と判定する。なお、閾値を複数設けて、レベルを複数段階に分けてもよい。   Subsequently, the CPU 31 performs level determination (step S32). In this process, the CPU 31 determines a level indicating the skill level of the performer according to the degree of variation for both hands stored in the RAM 33 in step S31. At this time, the CPU 31 determines that the level is a beginner when the degree of variation for both hands is greater than a predetermined threshold value, and determines that the level is an advanced person when the level is equal to or less than the predetermined threshold value. A plurality of threshold values may be provided, and the level may be divided into a plurality of levels.

また、CPU31は、RAM33に格納された右手用ばらつき度合及び左手用ばらつき度合の夫々に応じて、演奏者の演奏の熟練度を示すレベルを判定してもよい。例えば、右手用ばらつき度合が所定の閾値以下である一方、左手用ばらつき度合が所定の閾値より大きい場合には、初心者と判定するという方法で当該レベルを判定する。なお、閾値を複数設けて、レベルを複数段階に分けてもよい。   Further, the CPU 31 may determine a level indicating the skill level of the performer according to each of the right hand variation degree and the left hand variation degree stored in the RAM 33. For example, when the degree of variation for the right hand is less than or equal to a predetermined threshold value and the degree of variation for the left hand is larger than the predetermined threshold value, the level is determined by a method of determining a beginner. A plurality of threshold values may be provided, and the level may be divided into a plurality of levels.

続いて、CPU31は、仮想パッド設定を行う(ステップS33)。この処理では、CPU31は、ステップS31で算出されたばらつき度合に基づいて、仮想平面上における仮想パッドの位置及びサイズを設定する。例えば、ショット対象が仮想パッド81であった際の両手用ばらつき度合が所定の閾値より大きい場合には、図12に示すように、CPU31は、仮想パッド81のサイズを大きくして、大きくした後のサイズをRAM33に格納されているレイアウト情報のサイズ情報に書き込む。また、CPU31は、仮想平面上の位置を変更してもよい。なお、両手用ばらつき度合が所定の閾値以下である場合には、仮想パッド81の位置及びサイズは変更されない。さらに、閾値が複数設けられている場合には、当該複数の閾値に基づいて決定される夫々のレベルに応じた位置及びサイズが決定される。   Subsequently, the CPU 31 performs virtual pad setting (step S33). In this process, the CPU 31 sets the position and size of the virtual pad on the virtual plane based on the degree of variation calculated in step S31. For example, when the variation degree for both hands when the shot target is the virtual pad 81 is larger than a predetermined threshold, the CPU 31 increases the size of the virtual pad 81 and increases the size as shown in FIG. Is written in the size information of the layout information stored in the RAM 33. Further, the CPU 31 may change the position on the virtual plane. Note that when the degree of variation for both hands is equal to or less than a predetermined threshold, the position and size of the virtual pad 81 are not changed. Further, when a plurality of threshold values are provided, the position and size corresponding to each level determined based on the plurality of threshold values are determined.

また、右手用ばらつき度合及び左手用ばらつき度合の夫々に基づいて、右手用スティック部10R用及び左手用スティック部10L夫々に対して仮想パッド81の領域を別々に設定してもよい。例えば、右手用ばらつき度合が所定の閾値以下の場合であり、左手用ばらつき度合が所定の閾値より大きい場合には、図13に示すように、CPU31は、仮想パッド81に右手用スティック部10R用の右手用領域91を、位置及びサイズを変更せずに設定し、左手用スティック部10L用の左手用領域92を、サイズを大きくして設定する。この際位置を変更してもよい。なお、ショットタイミングにおける右マーカーのマーカー検出情報に含まれる位置座標が右手用領域91に属した場合、仮想パッド81に対応する音色で発音され、ショットタイミングにおける左マーカーのマーカー検出情報に含まれる位置座標が左手用領域92に属した場合も、仮想パッド81に対応する音色で発音される。   Further, based on each of the right hand variation degree and the left hand variation degree, the regions of the virtual pad 81 may be set separately for the right hand stick portion 10R and the left hand stick portion 10L. For example, when the degree of variation for the right hand is equal to or smaller than a predetermined threshold and the degree of variation for the left hand is larger than the predetermined threshold, the CPU 31 uses the virtual pad 81 for the right hand stick unit 10R as shown in FIG. The right hand region 91 is set without changing the position and size, and the left hand region 92 for the left hand stick unit 10L is set with a larger size. At this time, the position may be changed. When the position coordinates included in the marker detection information of the right marker at the shot timing belong to the right hand region 91, the position is sounded with a tone corresponding to the virtual pad 81 and is included in the marker detection information of the left marker at the shot timing. Even when the coordinates belong to the left-hand region 92, the sound is generated with a tone corresponding to the virtual pad 81.

この場合、図14に示すように、RAM33に格納されたセットレイアウト情報の各パッド情報において、CPU31は、右手用領域91の位置及びサイズを、夫々、位置(右)及びサイズ(右)の格納領域に書き込み、左手用領域92の位置及びサイズを、夫々、位置(左)及びサイズ(左)の格納領域に書き込む。   In this case, as shown in FIG. 14, in each piece of pad information of the set layout information stored in the RAM 33, the CPU 31 stores the position and size of the right-hand area 91 as position (right) and size (right), respectively. The area is written, and the position and size of the left-hand area 92 are written in the storage area of position (left) and size (left), respectively.

続いて、CPU31は、レベル報知を行う(ステップS34)。この処理では、CPU31は、ステップS32で判定したレベルを、表示回路35を介して表示装置351に表示することで報知する。報知の具体的表示例を図15に示す。ステップS34の処理が終了すると、CPU31は、レベル判定処理を終了する。   Subsequently, the CPU 31 performs level notification (step S34). In this processing, the CPU 31 notifies the level determined in step S32 by displaying it on the display device 351 via the display circuit 35. A specific display example of the notification is shown in FIG. When the process of step S34 ends, the CPU 31 ends the level determination process.

以上、本実施形態の演奏装置1の構成及び処理について説明した。
本実施形態においては、CPU31は、仮想パッド81〜84のうち、ショットタイミングにおいてスティック部10がショットされるべき領域を指定し、ショットタイミングでのスティック部10の位置座標を検出し、検出された位置座標が、仮想パッド81〜84のいずれかに属する場合に、対応する音色の楽音の発音を指示し、ショットタイミングにおけるスティック部10の位置座標の指定された仮想パッドにおける分布度合を算出し算出された分布度合に応じて、指定された仮想パッドの配置を設定する。
よって、指定された仮想パッドをショットした際のばらつき度合、すなわち、演奏者の熟練度に応じて、レイアウト情報の仮想パッドの配置を変更できる。
The configuration and processing of the performance device 1 according to the present embodiment have been described above.
In the present embodiment, the CPU 31 designates an area in which the stick unit 10 should be shot at the shot timing among the virtual pads 81 to 84, detects the position coordinates of the stick unit 10 at the shot timing, and is detected. When the position coordinates belong to any of the virtual pads 81 to 84, the tone generation of the corresponding timbre is instructed, and the distribution degree of the position coordinates of the stick unit 10 at the shot timing is calculated and calculated. The arrangement of the designated virtual pad is set according to the distribution degree specified.
Therefore, the layout of the virtual pads in the layout information can be changed according to the degree of variation when the designated virtual pad is shot, that is, the skill level of the performer.

また、本実施形態においては、スティック部10は、右手用スティック部10Rと、左手用スティック部10Lとの一対の演奏部材であり、セットレイアウト情報は、仮想パッド81〜84夫々の領域について、右手用スティック部10Rに対する領域と左手用スティック部10Lに対する領域とを有している。さらに、CPU31は、右手用スティック部10Rの位置座標と、左手用スティック部10Lの位置座標とを別々に検出し、右手用スティック部10Rの位置座標の分布度合と、左手用スティック部10Lの位置座標の分布度合とを別々に算出し、算出された右手用スティック部10Rの分布度合に応じて、指定された仮想パッドの右手用スティック部10Rに対する領域の配置を設定すると共に、算出された左手用スティック部10Lの分布度合に応じて、指定された仮想パッドの左手用スティック部10Lに対する領域の配置を設定する。
よって、演奏者の左右夫々のスティック操作の熟練度に応じて、一の仮想パッドに対して、右手用の領域と左手用の領域とを別々に設定できる。
Further, in the present embodiment, the stick unit 10 is a pair of performance members including a right hand stick unit 10R and a left hand stick unit 10L, and the set layout information includes the right hand for each of the virtual pads 81 to 84. An area for the stick part 10R for use and an area for the stick part 10L for the left hand are provided. Further, the CPU 31 separately detects the position coordinates of the right-hand stick unit 10R and the position coordinates of the left-hand stick unit 10L, the degree of distribution of the position coordinates of the right-hand stick unit 10R, and the position of the left-hand stick unit 10L. The coordinate distribution degree is calculated separately, and the arrangement of the area of the designated virtual pad with respect to the right hand stick part 10R is set according to the calculated distribution degree of the right hand stick part 10R, and the calculated left hand is calculated. The arrangement of the area of the designated virtual pad with respect to the left-hand stick unit 10L is set according to the distribution degree of the stick unit 10L for use.
Therefore, the right hand region and the left hand region can be set separately for one virtual pad according to the skill level of the left and right stick operations of the performer.

また、本実施形態においては、CPU31は、算出された分布度合に応じて、演奏者の演奏技術レベルを判定し、判定された演奏技術レベルを報知する。
よって、演奏者は、報知された演奏技術レベルを見ることで自身の演奏技術レベルを客観的に知ることができる。
In the present embodiment, the CPU 31 determines the performance technique level of the performer according to the calculated distribution degree, and notifies the determined performance technique level.
Therefore, the performer can objectively know his / her performance skill level by viewing the notified performance skill level.

また、本実施形態においては、CPU31は、算出された右手用スティック部10Rの位置座標の分布度合と、左手用スティック部10Lの位置座標の分布度合とに応じて、演奏者の演奏技術レベルを判定し、判定された演奏技術レベルを報知する。
よって、演奏者は、報知された演奏技術レベルを見ることで自身の演奏技術レベルを客観的に知ることができる。
In the present embodiment, the CPU 31 determines the performance skill level of the performer according to the calculated distribution degree of the position coordinates of the right hand stick unit 10R and the distribution degree of the position coordinates of the left hand stick unit 10L. The determination is made and the determined performance skill level is notified.
Therefore, the performer can objectively know his / her performance skill level by viewing the notified performance skill level.

以上、本発明の実施形態について説明したが、実施形態は例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換など種々の変更を行うことができる。これら実施形態やその変形は、本明細書などに記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment of this invention was described, embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.

上記実施形態では、仮想的な打楽器として仮想ドラムセットD(図1参照)を例にとって説明したが、これに限られるものではなく、本発明は、スティック部10の振り下ろし動作で楽音を発音する木琴など他の楽器に適用することができる。   In the above embodiment, the virtual drum set D (see FIG. 1) has been described as an example of a virtual percussion instrument. However, the present invention is not limited to this, and the present invention generates a musical tone by swinging down the stick unit 10. It can be applied to other instruments such as xylophone.

また、上記実施形態では、ショット対象として指定された仮想パッドのみに対して領域を設定したが、これに限られず、ショット対象以外の仮想パッドも含めて領域を設定してもよい。   In the above embodiment, the region is set only for the virtual pad designated as the shot target. However, the present invention is not limited to this, and the region may be set including the virtual pad other than the shot target.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
演奏者が保持可能な演奏部材と、
前記演奏部材を被写体とする撮像画像を撮像すると共に、前記撮像画像平面上の前記演奏部材の位置座標を検出する撮像装置と、
前記撮像画像平面に配置された領域を規定するレイアウト情報を記憶する記憶手段と、
前記特定の演奏操作がなされたタイミングでの前記撮像画像平面上の前記演奏部材の位置座標を検出する特定操作位置検出手段と、
前記特定操作位置検出手段により検出された前記演奏部材の位置座標が、前記レイアウト情報に基づいて配置された領域に属するか否かを判別する判別手段と、
この判別手段により領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示する発音指示手段と、
前記検出された前記演奏部材の位置座標の、前記領域における分布度合を算出する分布算出手段と、
前記分布算出手段により算出された分布度合に応じて前記領域を変更させるために、前記記憶手段に記憶されたレイアウト情報を更新する更新手段と、
を備えたことを特徴とする演奏装置。
[付記2]
前記分布算出手段により算出された前記分布度合に応じて、前記演奏者の演奏技術レベルを判定するレベル判定手段と、
前記レベル判定手段により決定された前記演奏者の演奏技術レベルを報知する報知手段と、をさらに備える、ことを特徴とする付記1に記載の演奏装置。
[付記3]
前記演奏部材は、右手用演奏部材と左手用演奏部材との一対からなり、
前記レイアウト情報は、前記右手用演奏部材に対する領域と前記左手用演奏部材に対する領域とを規定し、
前記特定操作位置検出手段は、前記右手用演奏部材の位置座標と、前記左手用演奏部材の位置座標とを別々に検出し、
前記分布算出手段は、前記右手用演奏部材の位置座標の前記分布度合と、前記左手用演奏部材の位置座標の前記分布度合とを別々に算出し、
前記更新手段は、前記算出された右手用演奏部材の分布度合に応じて、前記右手用演奏部材に対する領域を変更させ、前記算出された左手用演奏部材の分布度合に応じて、前記左手用演奏部材に対する領域を変更させるために、前記記憶手段に記憶されたレイアウト情報を更新することを特徴とする付記1に記載の演奏装置。
[付記4]
前記算出された右手用演奏部材の位置座標の分布度合と、前記算出された左手用演奏部材の位置座標の前記分布度合とに応じて、前記演奏者の演奏技術レベルを判定するレベル判定手段と、
前記レベル判定手段により決定された前記演奏者の演奏技術レベルを報知する報知手段と、をさらに備える、
ことを特徴とする付記3に記載の演奏装置。
[付記5]
演奏者が保持可能な演奏部材と、前記演奏部材を被写体とする撮像画像を撮像すると共に、前記撮像画像平面上の前記演奏部材の位置座標を検出する撮像装置と、前記撮像画像平面に配置された領域を規定するレイアウト情報を記憶する記憶手段と、を有する演奏装置として用いられるコンピュータに、
前記特定の演奏操作がなされたタイミングでの前記撮像画像平面上の前記演奏部材の位置座標を検出する特定操作位置検出ステップと、
検出された前記演奏部材の位置座標が、前記レイアウト情報に基づいて配置された領域に属するか否かを判別する判別ステップと、
前記領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示する発音指示ステップと、
前記検出された前記演奏部材の位置座標の、前記領域における分布度合を算出する分布算出ステップと、
前記算出された分布度合に応じて前記領域を変更させるために、前記記憶手段に記憶されたレイアウト情報を更新する更新ステップと、
を実行させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
A performance member that the performer can hold;
An imaging device that captures a captured image of the performance member as a subject and detects position coordinates of the performance member on the captured image plane;
Storage means for storing layout information defining an area arranged on the captured image plane;
Specific operation position detecting means for detecting position coordinates of the performance member on the captured image plane at the timing when the specific performance operation is performed;
Discriminating means for discriminating whether or not the position coordinates of the performance member detected by the specific operation position detecting means belong to an area arranged based on the layout information;
A sounding instruction means for instructing the sound generation of the musical sound corresponding to the area when the determination means determines that the sound belongs to the area;
Distribution calculating means for calculating a distribution degree in the region of the position coordinates of the detected performance member;
Updating means for updating layout information stored in the storage means in order to change the region according to the distribution degree calculated by the distribution calculating means;
A performance apparatus characterized by comprising:
[Appendix 2]
Level determining means for determining a performance technique level of the performer according to the distribution degree calculated by the distribution calculating means;
The performance apparatus according to appendix 1, further comprising notification means for notifying the performance technique level of the performer determined by the level determination means.
[Appendix 3]
The performance member comprises a pair of a right-hand performance member and a left-hand performance member,
The layout information defines an area for the right-hand performance member and an area for the left-hand performance member;
The specific operation position detecting means separately detects the position coordinates of the right-hand performance member and the position coordinates of the left-hand performance member,
The distribution calculating means separately calculates the distribution degree of the position coordinates of the right-hand performance member and the distribution degree of the position coordinates of the left-hand performance member,
The updating means changes a region for the right-hand performance member according to the calculated distribution degree of the right-hand performance member, and performs the left-hand performance according to the calculated distribution degree of the left-hand performance member. The performance device according to claim 1, wherein the layout information stored in the storage means is updated in order to change a region for the member.
[Appendix 4]
Level determining means for determining the performance skill level of the performer according to the calculated distribution degree of the position coordinates of the right-hand performance member and the distribution degree of the calculated position coordinates of the left-hand performance member. ,
An informing means for informing the performance technique level of the performer determined by the level determining means;
The performance device according to Supplementary Note 3, wherein
[Appendix 5]
A performance member that can be held by a performer, an imaging device that captures a captured image of the performance member as a subject, and that detects a position coordinate of the performance member on the captured image plane, and is disposed on the captured image plane A computer used as a performance device having storage means for storing layout information for defining a region,
A specific operation position detection step of detecting a position coordinate of the performance member on the captured image plane at a timing when the specific performance operation is performed;
A determination step of determining whether or not the detected position coordinates of the performance member belong to an area arranged based on the layout information;
A sound generation instruction step for instructing sound generation of a musical sound corresponding to the area, when determined to belong to the area;
A distribution calculating step of calculating a distribution degree of the position coordinates of the detected performance member in the region;
An update step of updating layout information stored in the storage means in order to change the region in accordance with the calculated distribution degree;
A program characterized by having executed.

1・・・演奏装置、10R・・・右手用スティック部、10L・・・左手用スティック部、11・・・CPU、12・・・ROM、13・・・RAM、14・・・モーションセンサ部、15・・・マーカー部、16・・・データ通信部、17・・・スイッチ操作検出回路、171・・・スイッチ、20・・・カメラユニット部、21・・・CPU、22・・・ROM、23・・・RAM、24・・・イメージセンサ部、25・・・データ通信部、30・・・センターユニット、31・・・CPU、32・・ROM、33・・・RAM、34・・・スイッチ操作検出回路、341・・・スイッチ、35・・・表示回路、351・・・表示装置、36・・・音源装置、37・・・データ通信部、81〜84・・・仮想パッド、91・・・右手用領域、92・・・左手用領域   DESCRIPTION OF SYMBOLS 1 ... Performance apparatus, 10R ... Stick part for right hand, 10L ... Stick part for left hand, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Motion sensor part , 15 ... Marker part, 16 ... Data communication part, 17 ... Switch operation detection circuit, 171 ... Switch, 20 ... Camera unit part, 21 ... CPU, 22 ... ROM , 23 ... RAM, 24 ... image sensor unit, 25 ... data communication unit, 30 ... center unit, 31 ... CPU, 32 ... ROM, 33 ... RAM, 34 ... Switch operation detection circuit, 341 ... switch, 35 ... display circuit, 351 ... display device, 36 ... sound source device, 37 ... data communication unit, 81-84 ... virtual pad, 91 ... Right-hand area , 92 ... left hand area

Claims (5)

演奏者が保持可能な演奏部材と、
前記演奏部材を被写体とする撮像画像を撮像すると共に、前記撮像画像平面上の前記演奏部材の位置座標を検出する撮像装置と、
前記撮像画像平面に配置された領域を規定するレイアウト情報を記憶する記憶手段と、
前記特定の演奏操作がなされたタイミングでの前記撮像画像平面上の前記演奏部材の位置座標を検出する特定操作位置検出手段と、
前記特定操作位置検出手段により検出された前記演奏部材の位置座標が、前記レイアウト情報に基づいて配置された領域に属するか否かを判別する判別手段と、
この判別手段により領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示する発音指示手段と、
前記検出された前記演奏部材の位置座標の、前記領域における分布度合を算出する分布算出手段と、
前記分布算出手段により算出された分布度合に応じて前記領域を変更させるために、前記記憶手段に記憶されたレイアウト情報を更新する更新手段と、
を備えたことを特徴とする演奏装置。
A performance member that the performer can hold;
An imaging device that captures a captured image of the performance member as a subject and detects position coordinates of the performance member on the captured image plane;
Storage means for storing layout information defining an area arranged on the captured image plane;
Specific operation position detecting means for detecting position coordinates of the performance member on the captured image plane at the timing when the specific performance operation is performed;
Discriminating means for discriminating whether or not the position coordinates of the performance member detected by the specific operation position detecting means belong to an area arranged based on the layout information;
A sounding instruction means for instructing the sound generation of the musical sound corresponding to the area when the determination means determines that the sound belongs to the area;
Distribution calculating means for calculating a distribution degree in the region of the position coordinates of the detected performance member;
Updating means for updating layout information stored in the storage means in order to change the region according to the distribution degree calculated by the distribution calculating means;
A performance apparatus characterized by comprising:
前記分布算出手段により算出された前記分布度合に応じて、前記演奏者の演奏技術レベルを判定するレベル判定手段と、
前記レベル判定手段により決定された前記演奏者の演奏技術レベルを報知する報知手段と、をさらに備える、ことを特徴とする請求項1に記載の演奏装置。
Level determining means for determining a performance technique level of the performer according to the distribution degree calculated by the distribution calculating means;
The performance apparatus according to claim 1, further comprising notification means for notifying the performance technique level of the performer determined by the level determination means.
前記演奏部材は、右手用演奏部材と左手用演奏部材との一対からなり、
前記レイアウト情報は、前記右手用演奏部材に対する領域と前記左手用演奏部材に対する領域とを規定し、
前記特定操作位置検出手段は、前記右手用演奏部材の位置座標と、前記左手用演奏部材の位置座標とを別々に検出し、
前記分布算出手段は、前記右手用演奏部材の位置座標の前記分布度合と、前記左手用演奏部材の位置座標の前記分布度合とを別々に算出し、
前記更新手段は、前記算出された右手用演奏部材の分布度合に応じて、前記右手用演奏部材に対する領域を変更させ、前記算出された左手用演奏部材の分布度合に応じて、前記左手用演奏部材に対する領域を変更させるために、前記記憶手段に記憶されたレイアウト情報を更新することを特徴とする請求項1に記載の演奏装置。
The performance member comprises a pair of a right-hand performance member and a left-hand performance member,
The layout information defines an area for the right-hand performance member and an area for the left-hand performance member;
The specific operation position detecting means separately detects the position coordinates of the right-hand performance member and the position coordinates of the left-hand performance member,
The distribution calculating means separately calculates the distribution degree of the position coordinates of the right-hand performance member and the distribution degree of the position coordinates of the left-hand performance member,
The updating means changes a region for the right-hand performance member according to the calculated distribution degree of the right-hand performance member, and performs the left-hand performance according to the calculated distribution degree of the left-hand performance member. 2. The performance apparatus according to claim 1, wherein the layout information stored in the storage means is updated in order to change a region for the member.
前記算出された右手用演奏部材の位置座標の分布度合と、前記算出された左手用演奏部材の位置座標の前記分布度合とに応じて、前記演奏者の演奏技術レベルを判定するレベル判定手段と、
前記レベル判定手段により決定された前記演奏者の演奏技術レベルを報知する報知手段と、をさらに備える、
ことを特徴とする請求項3に記載の演奏装置。
Level determining means for determining the performance skill level of the performer according to the calculated distribution degree of the position coordinates of the right-hand performance member and the distribution degree of the calculated position coordinates of the left-hand performance member. ,
An informing means for informing the performance technique level of the performer determined by the level determining means;
The performance device according to claim 3.
演奏者が保持可能な演奏部材と、前記演奏部材を被写体とする撮像画像を撮像すると共に、前記撮像画像平面上の前記演奏部材の位置座標を検出する撮像装置と、前記撮像画像平面に配置された領域を規定するレイアウト情報を記憶する記憶手段と、を有する演奏装置として用いられるコンピュータに、
前記特定の演奏操作がなされたタイミングでの前記撮像画像平面上の前記演奏部材の位置座標を検出する特定操作位置検出ステップと、
検出された前記演奏部材の位置座標が、前記レイアウト情報に基づいて配置された領域に属するか否かを判別する判別ステップと、
前記領域に属すると判別された場合に、当該領域に対応する楽音の発音を指示する発音指示ステップと、
前記検出された前記演奏部材の位置座標の、前記領域における分布度合を算出する分布算出ステップと、
前記算出された分布度合に応じて前記領域を変更させるために、前記記憶手段に記憶されたレイアウト情報を更新する更新ステップと、
を実行させることを特徴とするプログラム。
A performance member that can be held by a performer, an imaging device that captures a captured image of the performance member as a subject, and that detects a position coordinate of the performance member on the captured image plane, and is disposed on the captured image plane A computer used as a performance device having storage means for storing layout information for defining a region,
A specific operation position detection step of detecting a position coordinate of the performance member on the captured image plane at a timing when the specific performance operation is performed;
A determination step of determining whether or not the detected position coordinates of the performance member belong to an area arranged based on the layout information;
A sound generation instruction step for instructing sound generation of a musical sound corresponding to the area, when determined to belong to the area;
A distribution calculating step of calculating a distribution degree of the position coordinates of the detected performance member in the region;
An update step of updating layout information stored in the storage means in order to change the region in accordance with the calculated distribution degree;
A program characterized by having executed.
JP2012061217A 2012-03-16 2012-03-16 Performance device and program Active JP5861517B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012061217A JP5861517B2 (en) 2012-03-16 2012-03-16 Performance device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012061217A JP5861517B2 (en) 2012-03-16 2012-03-16 Performance device and program

Publications (3)

Publication Number Publication Date
JP2013195582A true JP2013195582A (en) 2013-09-30
JP2013195582A5 JP2013195582A5 (en) 2015-04-30
JP5861517B2 JP5861517B2 (en) 2016-02-16

Family

ID=49394626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012061217A Active JP5861517B2 (en) 2012-03-16 2012-03-16 Performance device and program

Country Status (1)

Country Link
JP (1) JP5861517B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157186A1 (en) * 2022-02-17 2023-08-24 ヤマハ株式会社 Information processing device, information processing method, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301476A (en) * 1993-04-09 1994-10-28 Casio Comput Co Ltd Position detecting device
JP2001166681A (en) * 1999-12-10 2001-06-22 Honda Motor Co Ltd Work skill supporting device
WO2006006686A1 (en) * 2004-07-15 2006-01-19 Nippon Telegraph And Telephone Corporation Inner force sense presentation device, inner force sense presentation method, and inner force sense presentation program
JP2006220938A (en) * 2005-02-10 2006-08-24 Yamaha Corp Sound controller
JP2007121355A (en) * 2005-10-25 2007-05-17 Rarugo:Kk Playing system
JP2008086638A (en) * 2006-10-04 2008-04-17 Konami Sports & Life Co Ltd Exercise motion evaluation system, exercise motion evaluation method, and program thereof
JP2008197360A (en) * 2007-02-13 2008-08-28 Crimson Technology Inc Electronic device
JP2010237882A (en) * 2009-03-30 2010-10-21 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2013186215A (en) * 2012-03-07 2013-09-19 Casio Comput Co Ltd Learning level determination device, method for determining learning level, and program
JP2013195581A (en) * 2012-03-16 2013-09-30 Casio Comput Co Ltd Musical performance apparatus, method and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301476A (en) * 1993-04-09 1994-10-28 Casio Comput Co Ltd Position detecting device
JP2001166681A (en) * 1999-12-10 2001-06-22 Honda Motor Co Ltd Work skill supporting device
WO2006006686A1 (en) * 2004-07-15 2006-01-19 Nippon Telegraph And Telephone Corporation Inner force sense presentation device, inner force sense presentation method, and inner force sense presentation program
JP2006220938A (en) * 2005-02-10 2006-08-24 Yamaha Corp Sound controller
JP2007121355A (en) * 2005-10-25 2007-05-17 Rarugo:Kk Playing system
JP2008086638A (en) * 2006-10-04 2008-04-17 Konami Sports & Life Co Ltd Exercise motion evaluation system, exercise motion evaluation method, and program thereof
JP2008197360A (en) * 2007-02-13 2008-08-28 Crimson Technology Inc Electronic device
JP2010237882A (en) * 2009-03-30 2010-10-21 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2013186215A (en) * 2012-03-07 2013-09-19 Casio Comput Co Ltd Learning level determination device, method for determining learning level, and program
JP2013195581A (en) * 2012-03-16 2013-09-30 Casio Comput Co Ltd Musical performance apparatus, method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157186A1 (en) * 2022-02-17 2023-08-24 ヤマハ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP5861517B2 (en) 2016-02-16

Similar Documents

Publication Publication Date Title
JP6024136B2 (en) Performance device, performance method and program
JP6127367B2 (en) Performance device and program
JP5966465B2 (en) Performance device, program, and performance method
JP5598490B2 (en) Performance device, method and program
JP2013182195A (en) Musical performance device and program
JP5533915B2 (en) Proficiency determination device, proficiency determination method and program
US8710345B2 (en) Performance apparatus, a method of controlling the performance apparatus and a program recording medium
JP5573899B2 (en) Performance equipment
JP2013040991A (en) Operator, operation method, and program
JP5549698B2 (en) Performance device, method and program
JP5861517B2 (en) Performance device and program
JP6398291B2 (en) Performance device, performance method and program
JP6111526B2 (en) Music generator
JP6098081B2 (en) Performance device, performance method and program
JP6094111B2 (en) Performance device, performance method and program
JP5942627B2 (en) Performance device, method and program
JP5974567B2 (en) Music generator
JP6098083B2 (en) Performance device, performance method and program
JP5935399B2 (en) Music generator
JP2013195626A (en) Musical sound generating device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151207

R150 Certificate of patent or registration of utility model

Ref document number: 5861517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150