JP6098083B2 - Performance device, performance method and program - Google Patents

Performance device, performance method and program Download PDF

Info

Publication number
JP6098083B2
JP6098083B2 JP2012206650A JP2012206650A JP6098083B2 JP 6098083 B2 JP6098083 B2 JP 6098083B2 JP 2012206650 A JP2012206650 A JP 2012206650A JP 2012206650 A JP2012206650 A JP 2012206650A JP 6098083 B2 JP6098083 B2 JP 6098083B2
Authority
JP
Japan
Prior art keywords
performance
marker
lost
unit
during
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012206650A
Other languages
Japanese (ja)
Other versions
JP2014062949A (en
Inventor
尚之 坂崎
尚之 坂崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012206650A priority Critical patent/JP6098083B2/en
Publication of JP2014062949A publication Critical patent/JP2014062949A/en
Application granted granted Critical
Publication of JP6098083B2 publication Critical patent/JP6098083B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、ユーザの演奏動作に応じて楽音を発生する演奏装置に係り、特に実存しない仮想的な楽器(エア楽器と称す)に対するユーザの演奏動作に応じて楽音を発生する演奏装置と、そのエア楽器の演奏方法及びプログラムに関する。   The present invention relates to a performance device that generates a musical sound in response to a user's performance operation, and particularly to a performance device that generates a musical sound in response to a user's performance operation for a virtual instrument that does not exist (referred to as an air musical instrument) The present invention relates to a performance method and a program for an air musical instrument.

従来、エア楽器に対するユーザの演奏動作に応じて楽音を発生する演奏装置として、「エアドラム」を演奏するための装置が知られている。これは、スティック部材に加速度センサを設けておき、演奏者であるユーザがそのスティック部材を振り下ろす動作を検出して、そのスティック部材で叩いた楽器に対応した楽音を発生するものである。   2. Description of the Related Art Conventionally, an apparatus for playing an “air drum” is known as a performance apparatus that generates musical sounds in response to a user's performance operation on an air musical instrument. In this method, an acceleration sensor is provided on a stick member, and a user who is a performer detects an operation of swinging down the stick member, and generates a musical sound corresponding to an instrument struck by the stick member.

このエアドラムでは、演奏者の演奏動作をカメラで撮影し、その撮影画像をドラムセットの仮想画像と合成してモニタ画面に表示し、スティック部材の振り下ろし動作とドラムセットの各楽器との位置関係を視覚的に把握できるようにした技術が知られている(例えば、特許文献1参照)。   In this air drum, the player's performance is shot with a camera, the shot image is combined with the virtual image of the drum set and displayed on the monitor screen, and the positional relationship between the swinging action of the stick member and each instrument of the drum set There is known a technique that makes it possible to visually grasp the above (for example, see Patent Document 1).

特許第3599115号公報Japanese Patent No. 3599115

上述したエアドラムにおいて、スティック部材が叩いている位置は、スティック部材の先端部に設けられたマーカー(発光体)を撮影画像上で認識することで得られる。しかしながら、演奏者がスティック部材を振っているときに腕やスタンド等の機材などでマーカーが一時的に隠れて撮影画像上で認識できなくなることがある。これを「マーカーのロスト」と呼ぶ。マーカーがロストした状態では、加速度センサによってスティック部材を振り下ろしている動きは分かっても、エアドラムのどこを叩いているのか分からないため、鳴らすべき楽器が特定できず楽音を発生することができない。   In the air drum described above, the position where the stick member is struck can be obtained by recognizing a marker (light emitting body) provided at the tip of the stick member on the photographed image. However, when the player swings the stick member, the marker may be temporarily hidden by equipment such as an arm or a stand and may not be recognized on the captured image. This is called “Lost Marker”. In the state where the marker is lost, even if the movement of the stick member being swung down by the acceleration sensor is known, it is not known where the air drum is struck, so the instrument to be played cannot be identified and no musical sound can be generated.

本発明は上記のような点に鑑みなされたもので、演奏動作によりマーカーがロストしても、演奏者が叩いた楽器を判断して楽音を発生することのできる演奏装置、演奏方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and provides a performance device, a performance method, and a program that can generate a musical tone by determining the musical instrument struck by the performer even if the marker is lost due to the performance operation. The purpose is to provide.

本発明に係る演奏装置は、マーカーを有する演奏部材と、この演奏部材を用いてエア楽器を演奏する演奏者を撮影する撮影手段と、第1の演奏中及び上記第1の演奏と同じ演奏動作の第2の演奏中に上記撮影手段によって撮影された画像から上記マーカーがロストしたことを検出するロスト検出手段と、上記第1の演奏時にこのロスト検出手段によって検出された上記マーカーのロスト中に上記演奏者が上記演奏部材で上記エア楽器を叩いたときの上記マーカーの位置を推測する位置推測手段と、上記第1の演奏中に上記位置推測手段による上記マーカーの位置の推測後であって且つ上記第2の演奏時に上記マーカーがロストした場合に、上記第2の演奏時にロストした上記マーカーの位置に対応する、上記第1の演奏中に上記位置推測手段によって推測された上記マーカーの位置に基づいて所定の楽音を発生する楽音発生制御手段とを具備したことを特徴とする。 The performance device according to the present invention includes a performance member having a marker, photographing means for photographing a player who performs an air musical instrument using the performance member, and the same performance operation during the first performance and the first performance. Lost detection means for detecting that the marker has been lost from an image photographed by the photographing means during the second performance, and during the lost of the marker detected by the lost detection means during the first performance Position estimation means for estimating the position of the marker when the performer strikes the air musical instrument with the performance member, and after the position estimation means estimates the position of the marker during the first performance. and above when the marker when the second play is lost, the corresponding position of the second said markers lost during playing, the first of said position estimating means during the performance Accordingly, characterized by comprising a tone generation control means for generating a predetermined tone based on the position of the inferred said marker.

本発明によれば、演奏動作によりマーカーがロストしても、演奏者が叩いた楽器を判断して楽音を発生することができる。   According to the present invention, even if a marker is lost due to a performance operation, a musical tone can be generated by determining the musical instrument struck by the performer.

図1は本発明の第1の実施形態に係る演奏装置の概要を説明するための図であり、図1(a)は演奏装置のシステム構成を示す図、同図(b)はユーザの演奏動作と仮想ドラムセットとの位置関係を示す図である。FIG. 1 is a diagram for explaining the outline of a performance apparatus according to the first embodiment of the present invention. FIG. 1 (a) is a diagram showing a system configuration of the performance apparatus, and FIG. It is a figure which shows the positional relationship of operation | movement and a virtual drum set. 図2は同実施形態における演奏装置のスティック部のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing a hardware configuration of the stick unit of the performance device according to the embodiment. 図3は同実施形態における演奏装置のスティック部の外観構成を示す斜視図である。FIG. 3 is a perspective view showing an external configuration of a stick portion of the performance device according to the embodiment. 図4は同実施形態における演奏装置のカメラユニット部のハードウェア構成を示すブロック図である。FIG. 4 is a block diagram showing a hardware configuration of the camera unit unit of the performance device according to the embodiment. 図5は同実施形態における演奏装置のセンターユニット部のハードウェア構成を示すブロック図である。FIG. 5 is a block diagram showing a hardware configuration of the center unit portion of the performance device according to the embodiment. 図6は同実施形態における演奏装置のスティック部の処理を示すフローチャートである。FIG. 6 is a flowchart showing processing of the stick unit of the performance device according to the embodiment. 図7は同実施形態における演奏装置のスティック部を用いて演奏動作を行った場合のモーションセンサ部の垂直方向の加速度に関する出力の変化を表わした図である。FIG. 7 is a diagram illustrating a change in output related to the acceleration in the vertical direction of the motion sensor unit when a performance operation is performed using the stick unit of the performance device according to the embodiment. 図8は同実施形態における演奏装置のカメラユニット部の処理を示すフローチャートである。FIG. 8 is a flowchart showing processing of the camera unit unit of the performance device according to the embodiment. 図9は同実施形態における演奏装置のセンターユニット部の処理を示すフローチャートである。FIG. 9 is a flowchart showing processing of the center unit unit of the performance device according to the embodiment. 図10は同実施形態における演奏装置のカメラユニット部と演奏者との位置関係を説明するための図である。FIG. 10 is a view for explaining the positional relationship between the camera unit of the performance device and the performer in the embodiment. 図11は同実施形態における演奏装置でマーカーがロストする原因を説明するための図である。FIG. 11 is a diagram for explaining the cause of the marker being lost in the performance device according to the embodiment. 図12は同実施形態における演奏装置のマーカーのロスト時のマーカー位置を推測する方法を説明するための図である。FIG. 12 is a diagram for explaining a method of estimating the marker position when the marker of the performance device in the embodiment is lost. 図13は同実施形態における演奏装置のセンターユニット部の演奏処理を示すフローチャートである。FIG. 13 is a flowchart showing the performance processing of the center unit portion of the performance device in the embodiment. 図14は同実施形態における演奏装置のセンターユニット部の演奏処理を示すフローチャートである。FIG. 14 is a flowchart showing the performance processing of the center unit section of the performance device according to the embodiment. 図15は同実施形態における演奏装置の第1のロスト管理テーブルの一例を示す図である。FIG. 15 is a diagram showing an example of a first lost management table of the performance device in the embodiment. 図16は同実施形態におけるマーカーのロスト前後の位置とショット動作の位置との関係を示す図であり、図16(a)はA−B間の中間位置でショット動作があった場合、同図(b)はA−B間の2/3の位置でショット動作があった場合の例である。FIG. 16 is a diagram showing the relationship between the positions before and after the lost marker and the position of the shot operation in the same embodiment. FIG. 16A shows the case where the shot operation is performed at an intermediate position between A and B. (B) is an example when a shot operation is performed at a position 2/3 between AB. 図17は本発明の第2の実施形態に係る演奏装置のセンターユニット部の演奏処理を示すフローチャートである。FIG. 17 is a flowchart showing the performance processing of the center unit section of the performance device according to the second embodiment of the present invention. 図18は同実施形態に係る演奏装置のセンターユニット部の演奏処理を示すフローチャートである。FIG. 18 is a flowchart showing a performance process of the center unit portion of the performance device according to the embodiment. 図19は同実施形態における演奏装置の第2のロスト管理テーブルの一例を示す図である。FIG. 19 is a diagram showing an example of a second lost management table of the performance device in the embodiment.

以下、図面を参照して本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
[演奏装置1の概要]
図1は本発明の第1の実施形態に係る演奏装置1の概要を説明するための図であり、図1(a)は演奏装置1のシステム構成を示す図、同図(b)はユーザの演奏動作と仮想ドラムセットDとの位置関係を示す図である。
(First embodiment)
[Outline of the performance device 1]
FIG. 1 is a diagram for explaining an outline of a performance device 1 according to the first embodiment of the present invention. FIG. 1 (a) is a diagram showing a system configuration of the performance device 1, and FIG. FIG. 6 is a diagram showing a positional relationship between the performance operation of the virtual drum set and the virtual drum set D.

本実施形態における演奏装置1は、エア楽器として「エアドラム」を演奏するための装置である。この演奏装置1は、スティック部10A、10Bと、カメラユニット部20と、センターユニット部30と、モニタ部40とを備えて構成される。   The performance device 1 in this embodiment is a device for playing an “air drum” as an air musical instrument. The performance device 1 includes stick units 10A and 10B, a camera unit unit 20, a center unit unit 30, and a monitor unit 40.

なお、本実施形態では、2本のスティックを用いた仮想的なドラム演奏を想定しているため、2つのスティック部10A、10Bを備える。しかし、スティック部の数は、これに限られず、1つとしてもよく、3つ以上としてもよい。以下では、スティック部10A、10Bを区別しない場合には、両者を総称して「スティック部10」と呼ぶ。   In the present embodiment, since a virtual drum performance using two sticks is assumed, two stick portions 10A and 10B are provided. However, the number of stick parts is not limited to this, and may be one or three or more. Hereinafter, when the stick parts 10A and 10B are not distinguished, they are collectively referred to as “stick part 10”.

スティック部10は、長手方向に延びるスティック状の部材からなる。このスティック部10は、演奏者の操作に応じてエア楽器の演奏指示が発せられる演奏部材として用いられる。本実施形態において、演奏者であるユーザは、スティック部10の一端(根元側)を持ち、手首などを中心としたスティック部10の振り上げ/振り下ろしの演奏動作によりエアドラムの演奏を行う。   The stick part 10 is made of a stick-like member extending in the longitudinal direction. The stick unit 10 is used as a performance member for issuing a performance instruction for an air musical instrument in accordance with a player's operation. In this embodiment, a user who is a performer has one end (base side) of the stick unit 10 and performs an air drum performance by swinging up and down the stick unit 10 around the wrist or the like.

このようなスティック部10を用いた演奏者の演奏動作を検出するため、スティック部10の他端(先端側)には、加速度センサなどの各種センサが設けられている(後述のモーションセンサ部14)。スティック部10は、これらのセンサによって検出された演奏者の演奏動作に基づいて、センターユニット部30にノートオンイベントを送信する。   In order to detect a player's performance using the stick unit 10, various sensors such as an acceleration sensor are provided on the other end (tip side) of the stick unit 10 (a motion sensor unit 14 described later). ). The stick unit 10 transmits a note-on event to the center unit unit 30 based on the performance performance of the performer detected by these sensors.

また、スティック部10の先端側には、マーカー部15(図2参照)が設けられている。このマーカー部15は、LED(light emitting diode)等の発光体からなり、スティック部10の動きを検出するために用いられる。   Further, a marker portion 15 (see FIG. 2) is provided on the tip side of the stick portion 10. The marker unit 15 is made of a light emitter such as an LED (light emitting diode) and is used to detect the movement of the stick unit 10.

カメラユニット部20は、光学式のカメラ(撮像装置)からなり、スティック部10を用いてエアドラムを演奏する演奏者を所定のフレームレートで撮影する。より詳しくは、カメラユニット部20は、演奏者が持つスティック部10が存在する撮像空間を撮影する。カメラユニット部20は、その撮影画像からスティック部10の先端部に設けられたマーカー部15の位置座標を特定し、センターユニット部30に送信する。   The camera unit unit 20 includes an optical camera (imaging device), and photographs a player who plays the air drum using the stick unit 10 at a predetermined frame rate. More specifically, the camera unit unit 20 captures an imaging space where the player has the stick unit 10. The camera unit unit 20 specifies the position coordinates of the marker unit 15 provided at the tip of the stick unit 10 from the photographed image, and transmits it to the center unit unit 30.

センターユニット部30は、演奏装置1の制御本体に相当する。センターユニット部30は、スティック部10からノートオンイベントを受信すると、受信時のマーカー部15の位置座標データに応じて所定の楽音を発生する。具体的には、センターユニット部30は、カメラユニット部20の撮像空間に対応付けて、図1(b)に示す仮想ドラムセットDの位置座標データを記憶しており、当該仮想ドラムセットDの位置座標データとノートオンイベント受信時のマーカー部15の位置座標データとに基づいて、スティック部10が叩いた楽器を特定し、その楽器に対応する楽音を発生する。   The center unit 30 corresponds to the control main body of the performance device 1. When the center unit unit 30 receives a note-on event from the stick unit 10, the center unit unit 30 generates a predetermined musical sound according to the position coordinate data of the marker unit 15 at the time of reception. Specifically, the center unit unit 30 stores the position coordinate data of the virtual drum set D shown in FIG. 1B in association with the imaging space of the camera unit unit 20. Based on the position coordinate data and the position coordinate data of the marker unit 15 at the time of receiving the note-on event, the instrument struck by the stick unit 10 is specified, and a musical sound corresponding to the instrument is generated.

また、モニタ部40の画面には、カメラユニット部20によって撮影された演奏中のユーザと仮想ドラムセットDとが合成表示される。ユーザはこのモニタ部40の画面を見ながら、仮想ドラムセットDを構成する各楽器に対応する位置をスティック部10で叩いて演奏することができる。   In addition, on the screen of the monitor unit 40, the user being played and the virtual drum set D photographed by the camera unit unit 20 are combined and displayed. The user can perform by hitting the position corresponding to each instrument constituting the virtual drum set D with the stick unit 10 while viewing the screen of the monitor unit 40.

なお、ここで言う「楽器」とは、スティックで叩いて音を鳴らす楽器つまり打楽器(ドラムセットのシンバル,タム等)のことである。また、図1に示したモニタ部40はセンターユニット部30に任意接続である。演奏中に仮想ドラムセットDの各楽器の位置を確認する必要がなければ、モニタ部40は不要である。   The “instrument” here refers to a percussion instrument (a drum set cymbal, a tom, etc.) that produces a sound when hit with a stick. The monitor unit 40 shown in FIG. 1 is arbitrarily connected to the center unit unit 30. If it is not necessary to confirm the position of each musical instrument of the virtual drum set D during performance, the monitor unit 40 is unnecessary.

以下、演奏装置1の構成ついて具体的に説明する。   Hereinafter, the configuration of the performance device 1 will be specifically described.

[スティック部10の構成]
図2は演奏装置1のスティック部10のハードウェア構成を示すブロック図、図3はスティック部10の外観構成を示す斜視図である。
[Configuration of Stick Unit 10]
FIG. 2 is a block diagram showing a hardware configuration of the stick unit 10 of the performance apparatus 1, and FIG. 3 is a perspective view showing an external configuration of the stick unit 10.

スティック部10は、CPU11と、ROM12と、RAM13と、モーションセンサ部14と、マーカー部15と、データ通信部16とを備える。   The stick unit 10 includes a CPU 11, a ROM 12, a RAM 13, a motion sensor unit 14, a marker unit 15, and a data communication unit 16.

CPU11は、スティック部10に関する制御として、後述する姿勢検知、ショット検出及びアクション検出などを行う。また、CPU11は、データ通信部16を介してセンターユニット部30との間の通信制御を行う。   The CPU 11 performs posture detection, shot detection, action detection, and the like, which will be described later, as control related to the stick unit 10. Further, the CPU 11 performs communication control with the center unit unit 30 via the data communication unit 16.

ROM12には、CPU11が実行する各種処理に対応したプログラム12aとマーカー特徴情報12bが記憶されている。ここで、本実施形態では、エアドラムの演奏に2本のスティック部10A,10Bを用いるため、スティック部10Aのマーカー部15(第1マーカー)と、スティック部10Bのマーカー部15(第2マーカー)とを区別する必要がある。   The ROM 12 stores a program 12a corresponding to various processes executed by the CPU 11 and marker feature information 12b. Here, in this embodiment, since the two stick portions 10A and 10B are used for playing the air drum, the marker portion 15 (first marker) of the stick portion 10A and the marker portion 15 (second marker) of the stick portion 10B. Need to be distinguished.

マーカー特徴情報12bは、この第1マーカーと第2マーカーとを区別するための情報であり、例えば発光時の形状、大きさ、色相、彩度、輝度、発光時の点減スピードなどが規定されている。スティック部10Aとスティック部10Bでは、CPU11がそれぞれに異なるマーカー特徴情報12bをROM12から読み出してマーカー部15の発光制御を行う。   The marker feature information 12b is information for distinguishing between the first marker and the second marker. For example, the shape, size, hue, saturation, luminance, and point reduction speed at the time of light emission are defined. ing. In the stick unit 10 </ b> A and the stick unit 10 </ b> B, the CPU 11 reads different marker feature information 12 b from the ROM 12 and performs light emission control of the marker unit 15.

RAM13は、モーションセンサ部14が出力した各種センサ値など、CPU11の処理において取得又は生成されたデータを記憶する。   The RAM 13 stores data acquired or generated in the processing of the CPU 11 such as various sensor values output by the motion sensor unit 14.

モーションセンサ部14は、スティック部10の状態を検出するための各種センサからなり、所定のセンサ値を出力する。ここで、モーションセンサ部14を実現するためのセンサとしては、例えば加速度センサ、角速度センサ、磁気センサなどを用いることができる。   The motion sensor unit 14 includes various sensors for detecting the state of the stick unit 10 and outputs a predetermined sensor value. Here, as a sensor for realizing the motion sensor unit 14, for example, an acceleration sensor, an angular velocity sensor, a magnetic sensor, or the like can be used.

(加速度センサ)
加速度センサとしては、X軸、Y軸、Z軸の3つの軸方向の夫々に生じた加速度を出力する3軸センサを用いることができる。図3に示すように、スティック部10の長手方向の軸と一致する軸をY軸とし、加速度センサが配置された基板(図示せず)と平行で、かつ、Y軸と直交する軸をX軸とし、X軸及びY軸と直交する軸をZ軸とすることができる。このとき、加速度センサは、X軸、Y軸、Z軸の夫々の成分の加速度を取得するとともに、夫々の加速度を合成したセンサ合成値を算出することとしてもよい。
(Acceleration sensor)
As the acceleration sensor, a triaxial sensor that outputs acceleration generated in each of the three axial directions of the X axis, the Y axis, and the Z axis can be used. As shown in FIG. 3, an axis that coincides with the longitudinal axis of the stick portion 10 is defined as a Y axis, an axis that is parallel to a substrate (not shown) on which an acceleration sensor is disposed and is orthogonal to the Y axis is represented by X. An axis that is orthogonal to the X axis and the Y axis can be a Z axis. At this time, the acceleration sensor may acquire the acceleration of each component of the X axis, the Y axis, and the Z axis, and may calculate a sensor composite value obtained by combining the respective accelerations.

ここで、演奏者はスティック部10の一端(根元側)を保持し、手首や腕などを中心とした振り上げ/振り下ろし動作を行う。スティック部10が静止している場合には、加速度センサは、センサ合成値として重力加速度1Gに相当する値を算出する。スティック部10が動いている場合には、加速度センサは、当該動きの加速度と重力加速度1Gとのセンサ合成値を算出する。   Here, the performer holds one end (the base side) of the stick unit 10 and performs a swing-up / down operation centering on the wrist or arm. When the stick unit 10 is stationary, the acceleration sensor calculates a value corresponding to the gravitational acceleration 1G as a sensor composite value. When the stick unit 10 is moving, the acceleration sensor calculates a sensor combined value of the acceleration of the movement and the gravitational acceleration 1G.

なお、センサ合成値は、例えばX軸、Y軸、Z軸の成分の加速度の夫々の2乗の総和の平方根を算出することで得られる。   The sensor composite value is obtained by calculating the square root of the sum of the squares of the accelerations of the X-axis, Y-axis, and Z-axis components, for example.

(角速度センサ)
角速度センサとしては、例えばジャイロスコープを備えたセンサを用いることができる。ここで、図3を参照して、角速度センサは、スティック部10のY軸方向の回転角301やスティック部10のX軸方向の回転角311を出力する。
(Angular velocity sensor)
As the angular velocity sensor, for example, a sensor provided with a gyroscope can be used. Here, referring to FIG. 3, the angular velocity sensor outputs the rotation angle 301 of the stick unit 10 in the Y-axis direction and the rotation angle 311 of the stick unit 10 in the X-axis direction.

Y軸方向の回転角301は、演奏者がスティック部10を持ったとき、演奏者からみた前後軸の回転角であり、ロール角と称することができる。ロール角は、X−Y平面が、どの程度X軸に対して傾けられたかを示す角度302に対応し、演奏者がスティック部10を手に持って、手首を軸にして左右に回転させることにより生じる。   A rotation angle 301 in the Y-axis direction is a rotation angle of the front-rear axis viewed from the player when the player holds the stick unit 10 and can be referred to as a roll angle. The roll angle corresponds to an angle 302 indicating how much the XY plane is tilted with respect to the X axis, and the player holds the stick unit 10 in his hand and rotates it left and right around the wrist. Caused by.

X軸方向の回転角311は、演奏者がスティック部10を持ったとき、演奏者からみた左右軸の回転角であり、ピッチ角と称することができる。ピッチ角は、X−Y平面が、どの程度Y軸に対して傾けられたかを示す角度312に対応し、演奏者がスティック部10を手に持って、手首を上下方向に振ることにより生じる。   The rotation angle 311 in the X-axis direction is a rotation angle on the left and right axes viewed from the player when the player holds the stick unit 10 and can be referred to as a pitch angle. The pitch angle corresponds to an angle 312 indicating how much the XY plane is tilted with respect to the Y axis, and is generated when the player holds the stick unit 10 in his / her hand and swings his / her wrist up and down.

なお、図示は省略しているが、角速度センサは、Z軸方向の回転角も併せて出力することとしてもよい。このとき、Z軸方向の回転角は、基本的にはX軸方向の回転角311と同じ性質を有し、演奏者がスティック部10を手に持って、手首を左右方向に振ることにより生じるピッチ角である。   Although not shown, the angular velocity sensor may also output the rotation angle in the Z-axis direction. At this time, the rotation angle in the Z-axis direction is basically the same as the rotation angle 311 in the X-axis direction, and is generated when the player holds the stick unit 10 in his / her hand and swings his / her wrist in the left / right direction. The pitch angle.

(磁気センサ)
磁気センサとしては、図3に示すX軸、Y軸、Z軸の3軸方向の磁気センサ値を出力可能なセンサを用いることができる。このような磁気センサからは、磁石による北(磁北)を示すベクトルが、X軸方向、Y軸方向、Z軸方向の夫々について出力される。出力される各軸方向の成分は、スティック部10の姿勢(向き)によって異なる。このため、これらの成分から、CPU11は、スティック部10のロール角やX軸方向及びZ軸方向の回転角を算出することができる。
(Magnetic sensor)
As the magnetic sensor, a sensor capable of outputting magnetic sensor values in the three-axis directions of the X axis, the Y axis, and the Z axis shown in FIG. 3 can be used. From such a magnetic sensor, a vector indicating north (magnetic north) by a magnet is output for each of the X-axis direction, the Y-axis direction, and the Z-axis direction. The component in each axial direction that is output differs depending on the posture (orientation) of the stick unit 10. Therefore, from these components, the CPU 11 can calculate the roll angle of the stick unit 10 and the rotation angles in the X-axis direction and the Z-axis direction.

モーションセンサ部14(詳細には、モーションセンサ部14からのセンサ値を受け付けたCPU11)は、上述したセンサ値に基づいてスティック部10の動き(演奏者の演奏動作と換言することもできる)を検出する。   The motion sensor unit 14 (specifically, the CPU 11 that has received the sensor value from the motion sensor unit 14) moves the stick unit 10 based on the above-described sensor value (in other words, the performance operation of the player). To detect.

加速度センサを例にして説明すると、CPU11は、加速度センサが出力する加速度(又はX軸、Y軸、Z軸のセンサ合成値)に基づいて、スティック部10による仮想的な楽器の打撃タイミング(ショットタイミング)を検出する。また、CPU11は、後述するように、モーションセンサ部14からのセンサ値に基づいて、スティック部10の振り下ろし動作や振り上げ動作を検出する。   The acceleration sensor will be described as an example. The CPU 11 performs a virtual instrument hitting timing (shot) by the stick unit 10 based on the acceleration (or the X-axis, Y-axis, and Z-axis sensor combined values) output from the acceleration sensor. Timing). Further, as will be described later, the CPU 11 detects a swing-down operation or a swing-up operation of the stick unit 10 based on a sensor value from the motion sensor unit 14.

図2に戻り、マーカー部15は、スティック部10の先端側に設けられたLEDなどの発光体からなり、CPU11の制御下で発光/消灯する。具体的には、マーカー部15は、CPU11がROM12から読み出したマーカー特徴情報12bに基づいて発光する。この場合、スティック部10Aのマーカー特徴情報12bと、スティック部10Bのマーカー特徴情報12bとは異なるため、カメラユニット部20では、スティック部10Aのマーカー部(第1マーカー)の位置座標と、スティック部10Bのマーカー部(第2マーカー)の位置座標とを区別し取得することができる。   Returning to FIG. 2, the marker unit 15 is made of a light emitter such as an LED provided on the tip side of the stick unit 10, and emits / lights out under the control of the CPU 11. Specifically, the marker unit 15 emits light based on the marker feature information 12 b read from the ROM 12 by the CPU 11. In this case, since the marker feature information 12b of the stick unit 10A is different from the marker feature information 12b of the stick unit 10B, the camera unit unit 20 uses the position coordinates of the marker unit (first marker) of the stick unit 10A and the stick unit. The position coordinates of the 10B marker portion (second marker) can be distinguished and acquired.

データ通信部16は、少なくともセンターユニット部30との間で所定の無線通信を行う。無線通信は、任意の方法で行うこととしてよく、本実施形態では、赤外線通信によりセンターユニット部30との間での無線通信を行う。   The data communication unit 16 performs predetermined wireless communication with at least the center unit unit 30. The wireless communication may be performed by any method, and in the present embodiment, wireless communication is performed with the center unit unit 30 by infrared communication.

なお、データ通信部16は、カメラユニット部20との間で無線通信を行うこととしてもよく、また、スティック部10A及びスティック部10Bとの間や、モニタ部40との間で無線通信を行うこととしてもよい。また、無線通信として、例えばBluetooth(登録商標)等の近距離無線通信を用いてもよい。   The data communication unit 16 may perform wireless communication with the camera unit 20, and perform wireless communication with the stick unit 10 </ b> A and the stick unit 10 </ b> B, or with the monitor unit 40. It is good as well. Further, as the wireless communication, for example, short-range wireless communication such as Bluetooth (registered trademark) may be used.

[カメラユニット部20の構成]
図4は演奏装置1のカメラユニット部20のハードウェア構成を示すブロック図である。
[Configuration of Camera Unit 20]
FIG. 4 is a block diagram showing a hardware configuration of the camera unit 20 of the performance device 1.

カメラユニット部20は、CPU21と、ROM22と、RAM23と、マーカー検出部24と、データ通信部25とを備える。   The camera unit unit 20 includes a CPU 21, a ROM 22, a RAM 23, a marker detection unit 24, and a data communication unit 25.

CPU21は、カメラユニット部20に関する制御として、主として撮影画像からスティック部10A、10Bのマーカー部15(第1マーカー及び第2マーカー)の夫々の位置座標データを算出する制御を行う。また、CPU21は、データ通信部25を介して、算出した位置座標データなどをセンターユニット部30に送信する。   As control related to the camera unit unit 20, the CPU 21 mainly performs control to calculate the position coordinate data of the marker units 15 (first marker and second marker) of the stick units 10A and 10B from the captured images. Further, the CPU 21 transmits the calculated position coordinate data and the like to the center unit 30 via the data communication unit 25.

ROM22には、CPU21が実行する各種処理に対応したプログラムが記憶されている。RAM23は、マーカー検出部24が検出したマーカー部15の位置座標データなど、処理において取得又は生成された値を記憶する。また、RAM23には、センターユニット部30から与えられたスティック部10A、10Bの夫々のマーカー特徴情報12bなどが記憶される。   The ROM 22 stores programs corresponding to various processes executed by the CPU 21. The RAM 23 stores values acquired or generated in the process, such as the position coordinate data of the marker unit 15 detected by the marker detection unit 24. Further, the RAM 23 stores the marker feature information 12b of each of the stick units 10A and 10B given from the center unit unit 30.

マーカー検出部24は、撮像手段として用いられ、スティック部10を持って演奏動作を行う演奏者の動画を所定のフレームレートで撮影する。また、マーカー検出部24は、フレームごとの画像データをCPU21に出力する。   The marker detection unit 24 is used as an imaging unit, and captures a moving image of a performer who performs a performance operation with the stick unit 10 at a predetermined frame rate. Further, the marker detection unit 24 outputs image data for each frame to the CPU 21.

なお、カメラユニット部20は、撮像空間内におけるスティック部10のマーカー部15の位置座標を特定する機能を備えている。このマーカー部15の位置座標の特定については、マーカー検出部24で行うこととしてもよく、CPU21が行うこととしてもよい。同様に、マーカー部15のマーカー特徴情報12bについても、マーカー検出部24が特定することとしてもよく、CPU21が特定することとしてもよい。   The camera unit unit 20 has a function of specifying the position coordinates of the marker unit 15 of the stick unit 10 in the imaging space. The specification of the position coordinates of the marker unit 15 may be performed by the marker detection unit 24, or may be performed by the CPU 21. Similarly, the marker characteristic information 12b of the marker unit 15 may be specified by the marker detection unit 24 or may be specified by the CPU 21.

データ通信部25は、少なくともセンターユニット部30との間で所定の無線通信(例えば、赤外線通信)を行う。なお、データ通信部25は、スティック部10やモニタ部40との間で無線通信を行うこととしてもよい。   The data communication unit 25 performs predetermined wireless communication (for example, infrared communication) with at least the center unit unit 30. The data communication unit 25 may perform wireless communication with the stick unit 10 and the monitor unit 40.

[センターユニット部30の構成]
図5は演奏装置1のセンターユニット部30のハードウェア構成を示すブロック図である。
[Configuration of Center Unit 30]
FIG. 5 is a block diagram showing a hardware configuration of the center unit 30 of the performance device 1.

センターユニット部30は、演奏装置1の制御装置として用いられる。このセンターユニット部30は、CPU31と、ROM32と、RAM33と、スイッチ操作検出回路34と、表示回路35と、音源装置36と、データ通信部37とを備える。   The center unit 30 is used as a control device for the performance device 1. The center unit 30 includes a CPU 31, a ROM 32, a RAM 33, a switch operation detection circuit 34, a display circuit 35, a sound source device 36, and a data communication unit 37.

CPU31は、センターユニット部30に備えられた各機能を実現するための制御を行う。特に、本発明に関わる機能として、CPU31には、ロスト検出機能31aと、位置推測機能31bと、楽音発生制御機能31cとを備える。   The CPU 31 performs control for realizing each function provided in the center unit unit 30. In particular, as functions related to the present invention, the CPU 31 includes a lost detection function 31a, a position estimation function 31b, and a tone generation control function 31c.

ロスト検出機能31aは、第1の演奏(リハーサル演奏)中にカメラユニット部20によって撮影された画像からスティック部10のマーカー部15がロストしたことを検出する。   The lost detection function 31a detects that the marker unit 15 of the stick unit 10 has been lost from an image captured by the camera unit unit 20 during the first performance (rehearsal performance).

位置推測機能31bは、ロスト検出機能31aによって検出されたマーカー部15のロスト中に演奏者がスティック部10でエア楽器を叩いたときのマーカー部15の位置を推測する。   The position estimation function 31b estimates the position of the marker unit 15 when the performer strikes the pneumatic instrument with the stick unit 10 during the lost of the marker unit 15 detected by the lost detection function 31a.

楽音発生制御機能31cは、第1の演奏(リハーサル演奏)に続いて行われる第2の演奏(本番演奏)時にマーカー部15がロストした場合に、位置推測機能31bによって推測されたマーカー部15の位置に基づいて所定の楽音を発生する。   The musical sound generation control function 31c is used to detect the position of the marker unit 15 estimated by the position estimation function 31b when the marker unit 15 is lost during the second performance (the actual performance) performed following the first performance (the rehearsal performance). A predetermined musical tone is generated based on the position.

また、CPU31は、データ通信部37を介して、スティック部10及びカメラユニット部20との間の通信制御を行う。   Further, the CPU 31 performs communication control between the stick unit 10 and the camera unit unit 20 via the data communication unit 37.

ROM32は、CPU31が実行する各種処理に対応したプログラム32aを記憶している。また、ROM32には、波形テーブル32bが設けられている。この波形テーブル32bには、種々の音色の波形データ、例えばフルート、サックス、トランペットなどの管楽器、ピアノなどの鍵盤楽器、ギターなどの弦楽器、バスドラム、ハイハット、スネア、シンバル、タムなどの打楽器の波形データが位置座標などと対応付けて記憶されている。CPU31は、ショット検出時(ノートオンイベント受信時)にマーカー部15の位置座標に基づいて、ROM32の波形テーブル32bから該当する波形データを読み出すことで、演奏者の演奏動作に応じた楽音を音源装置36を通じて発生する。なお、波形データは、音源装置36内に備えられた波形ROMから読み出されるように構成しても良い。   The ROM 32 stores a program 32a corresponding to various processes executed by the CPU 31. The ROM 32 is provided with a waveform table 32b. In the waveform table 32b, waveform data of various tones, for example, wind instruments such as flute, saxophone and trumpet, keyboard instruments such as piano, stringed instruments such as guitar, bass drums, hi-hats, snares, cymbals, and percussion instruments such as toms. Data is stored in association with position coordinates and the like. The CPU 31 reads out the corresponding waveform data from the waveform table 32b of the ROM 32 on the basis of the position coordinates of the marker unit 15 at the time of shot detection (when a note-on event is received), thereby generating a tone corresponding to the performer's performance operation as a sound source. Generated through device 36. The waveform data may be read from a waveform ROM provided in the sound source device 36.

RAM33は、スティック部10から受信したスティック部10の状態(ショット検出など)や、カメラユニット部20から受信したマーカー部15の位置座標など、処理において取得・生成された値を記憶する。   The RAM 33 stores values acquired and generated in the process, such as the state of the stick unit 10 (shot detection, etc.) received from the stick unit 10 and the position coordinates of the marker unit 15 received from the camera unit unit 20.

スイッチ操作検出回路34は、スイッチ341と接続され、当該スイッチ341を介した入力情報を受け付ける。入力情報としては、例えば、楽音の音量や音色の変更、表示装置351の表示の切り替えなどが含まれる。   The switch operation detection circuit 34 is connected to the switch 341 and receives input information via the switch 341. The input information includes, for example, a change in tone volume and tone color, and switching of display on the display device 351.

また、表示回路35は、表示装置351と接続され、表示装置351の表示制御を行う。表示装置351には、各種メニュー画面の他、カメラユニット部20で撮影された画像とエア楽器の仮想画像との合成画像などが表示される。なお、この表示装置351に表示されるデータを無線通信によりモニタ部40に送って、そのモニタ部40の画面で拡大表示して確認することも可能である。   The display circuit 35 is connected to the display device 351 and performs display control of the display device 351. In addition to various menu screens, the display device 351 displays a composite image of an image captured by the camera unit 20 and a virtual image of an air musical instrument. It is also possible to send the data displayed on the display device 351 to the monitor unit 40 by wireless communication, and confirm the enlarged display on the screen of the monitor unit 40.

音源装置36は、CPU31からの指示に従って、ROM32の波形テーブル32bから波形データを読み出して、その波形データから楽音データを生成するとともに当該楽音データをアナログ信号に変換し、図示しないスピーカから出力する。   The tone generator 36 reads waveform data from the waveform table 32b of the ROM 32 in accordance with an instruction from the CPU 31, generates musical tone data from the waveform data, converts the musical tone data into an analog signal, and outputs it from a speaker (not shown).

また、データ通信部37は、スティック部10、カメラユニット部20、モニタ部40との間で所定の無線通信(例えば、赤外線通信)を行う。   The data communication unit 37 performs predetermined wireless communication (for example, infrared communication) with the stick unit 10, the camera unit unit 20, and the monitor unit 40.

ここで、本発明に関する処理を説明する前に、理解を容易にするために、演奏装置1の基本的な動作について説明する。   Here, before explaining the processing relating to the present invention, the basic operation of the performance device 1 will be described in order to facilitate understanding.

[スティック部10の処理]
図6は演奏装置1のスティック部10の処理を示すフローチャートである。なお、このフローチャートで示される処理は、スティック部10のCPU11がROM12に記憶されたプログラム12aを読み出すことにより実行される。
[Processing of the stick unit 10]
FIG. 6 is a flowchart showing the processing of the stick unit 10 of the performance device 1. Note that the processing shown in this flowchart is executed when the CPU 11 of the stick unit 10 reads the program 12a stored in the ROM 12.

まず、スティック部10のCPU11は、ROM12に格納されているマーカー特徴情報12bを読み出す(ステップS11)。この場合、スティック部10A,10BのCPU11が夫々に異なるマーカー特徴情報12bを読み出す。異なるマーカー特徴情報12bの読み出しは、任意の方法で行うことができる。例えば、スティック部10A、10Bが直接又はセンターユニット部30を介して通信することで行うこととしてもよい。また、スティック部10A、10B毎に予め1つのマーカー特徴情報12bを対応付けておき、スティック部10A、10BのCPU11が夫々に対応付けられた独自のマーカー特徴情報12bを読み出すこととしてもよい。   First, the CPU 11 of the stick unit 10 reads the marker feature information 12b stored in the ROM 12 (step S11). In this case, the CPU 11 of the stick units 10A and 10B reads different marker feature information 12b. The reading of the different marker feature information 12b can be performed by an arbitrary method. For example, it may be performed by the stick units 10 </ b> A and 10 </ b> B communicating directly or via the center unit unit 30. Alternatively, one marker feature information 12b may be associated with each of the stick portions 10A and 10B in advance, and the CPU 11 of the stick portions 10A and 10B may read the unique marker feature information 12b associated with each.

CPU11は、ROM12から読み出したマーカー特徴情報12bをRAM13に一旦格納した後、データ通信部16を介してセンターユニット部30に送信する(ステップS12)。このとき、CPU11は、スティック部10A、10Bを夫々区別可能な識別情報(スティック識別情報)と対応付けて、マーカー特徴情報12bをセンターユニット部30に送信するものとする。   The CPU 11 temporarily stores the marker feature information 12b read from the ROM 12 in the RAM 13, and then transmits it to the center unit 30 via the data communication unit 16 (step S12). At this time, the CPU 11 transmits the marker feature information 12b to the center unit 30 in association with identification information (stick identification information) that can distinguish the stick portions 10A and 10B.

次に、CPU11は、モーションセンサ部14からモーションセンサ情報、すなわち、各種センサが出力するセンサ値を読み出し、RAM13に格納する(ステップS13)。その後、CPU11は、読み出したモーションセンサ情報に基づいて、スティック部10の姿勢検知処理を行う(ステップS14)。姿勢検知処理では、CPU11は、モーションセンサ情報に基づいて、スティック部10の姿勢、例えば、スティック部10の傾き、ロール角及びピッチ角の変位などを検知する。   Next, the CPU 11 reads out motion sensor information from the motion sensor unit 14, that is, sensor values output by various sensors, and stores them in the RAM 13 (step S13). Thereafter, the CPU 11 performs a posture detection process of the stick unit 10 based on the read motion sensor information (step S14). In the posture detection process, the CPU 11 detects the posture of the stick unit 10, for example, the tilt of the stick unit 10, the displacement of the roll angle and the pitch angle, based on the motion sensor information.

続いて、CPU11は、モーションセンサ情報に基づいてショット検出処理を行う(ステップS15)。ここで、演奏者がスティック部10を用いて演奏を行う場合、一般には、現実の楽器を演奏する動作と同様の動作を行う。   Subsequently, the CPU 11 performs shot detection processing based on the motion sensor information (step S15). Here, when the performer performs using the stick unit 10, generally, the same operation as the operation of playing an actual musical instrument is performed.

すなわち、演奏者は、まずスティック部10を振り上げ、それから仮想的な楽器に向かって振り下ろす。そして、スティック部10を仮想的な楽器に打ちつける寸前に、スティック部10の動作を止めようとする力を働かせる。このとき、演奏者は、仮想的な楽器にスティック部10を打ちつけた瞬間に楽音が発生することを想定しているため、演奏者が想定するタイミングで楽音を発生できるのが望ましい。そこで、本実施形態では、演奏者が仮想的な楽器の面にスティックを打ちつける瞬間又はそのわずかに手前に楽音を発生することとしている。   That is, the performer first swings up the stick unit 10 and then swings it down toward the virtual instrument. Then, just before hitting the stick unit 10 against a virtual musical instrument, a force is applied to stop the operation of the stick unit 10. At this time, since it is assumed that the performer generates a musical sound at the moment when the stick unit 10 is struck on a virtual musical instrument, it is desirable that the performer can generate a musical sound at a timing assumed by the performer. Therefore, in the present embodiment, the musical sound is generated at the moment when the player strikes the stick on the surface of the virtual musical instrument or slightly before that.

ここで、図7を参照して、スティック部10を用いた楽音の発音タイミングの一例について説明する。   Here, with reference to FIG. 7, an example of the tone generation timing of the musical sound using the stick unit 10 will be described.

図7はスティック部10を用いて演奏動作を行った場合のモーションセンサ部14の垂直方向の加速度に関する出力の変化を表わした図である。なお、垂直方向の加速度とは、水平面に対する垂直方向の加速度を意味する。これは、Y軸成分の加速度から分解し算出することとしてもよい。あるいは、Z軸方向の加速度(ロール角によってはX軸方向の加速度)から分解し算出することとしてもよい。また、図7において、プラスの加速度は、スティック部10に加わる下向き方向の加速度を示し、マイナスの加速度は、スティック部10に加わる上向き方向の加速度を示す。   FIG. 7 is a diagram showing a change in output related to the acceleration in the vertical direction of the motion sensor unit 14 when a performance operation is performed using the stick unit 10. In addition, the acceleration in the vertical direction means an acceleration in the vertical direction with respect to the horizontal plane. This may be calculated by decomposing from the acceleration of the Y-axis component. Alternatively, it may be calculated by decomposing from the acceleration in the Z-axis direction (acceleration in the X-axis direction depending on the roll angle). In FIG. 7, a positive acceleration indicates a downward acceleration applied to the stick portion 10, and a negative acceleration indicates an upward acceleration applied to the stick portion 10.

スティック部10が静止している状態(aで表わされる部分)であっても、スティック部10には重力加速度が加わっている。このため、静止するスティック部10のモーションセンサ部14は、重力加速度に逆らう形で垂直上向き、つまりマイナス方向の一定の加速度を検出する。なお、スティック部10に加わる加速度が0となるのは、スティック部10が自由落下している状態のときである。   Even when the stick unit 10 is stationary (portion represented by a), gravitational acceleration is applied to the stick unit 10. For this reason, the motion sensor unit 14 of the stick unit 10 that is stationary detects a constant acceleration in the vertical upward direction, that is, in the negative direction against the gravitational acceleration. It should be noted that the acceleration applied to the stick unit 10 is zero when the stick unit 10 is in a free fall state.

静止している状態において、振り上げ動作に伴い演奏者がスティック部10を持ち上げると、重力加速度に対して、さらに逆らう方向に動作することになる。このため、スティック部10に加わる加速度はマイナス方向に増加する。その後、静止させようとして持ち上げる速度を減少させると、上向きの加速度が減少し、モーションセンサ部14で検出されるスティック部10のマイナス方向の加速度は減少する(bで表わされる部分)。そして、振り上げ動作が最高点に到達した時点での加速度は重力加速度のみになる(bとcの境目付近で表される部分)。   When the performer lifts the stick unit 10 with the swing-up operation in a stationary state, the player moves in a direction opposite to the gravitational acceleration. For this reason, the acceleration applied to the stick part 10 increases in the minus direction. After that, when the lifting speed is decreased in order to make it stand still, the upward acceleration decreases, and the acceleration in the minus direction of the stick unit 10 detected by the motion sensor unit 14 decreases (part represented by b). Then, the acceleration at the time when the swing-up operation reaches the highest point is only the gravitational acceleration (portion represented near the boundary between b and c).

振り上げ動作によりスティック部10が頂点に達すると、演奏者はスティック部10の振り下ろし動作を行う。振り下ろし動作では、スティック部10は、下向き方向に動作することになる。従って、スティック部10に加わる加速度は、重力加速度に逆らって検出されていたマイナス方向の加速度よりもプラス方向に増加する。その後、演奏者はショットに向けて、下向き方向の加速度を減少させていくので、スティック部10に加わる加速度はマイナス方向に増加する。この間、振り下ろし動作が最高速に到達するタイミングを経てスティック部10には、再び重力加速度のみが加わる状態となる(cで表わされる部分)。   When the stick unit 10 reaches the top by the swing-up operation, the performer performs the swing-down operation of the stick unit 10. In the swing-down operation, the stick unit 10 moves in the downward direction. Therefore, the acceleration applied to the stick unit 10 increases in the positive direction more than the negative acceleration detected against the gravitational acceleration. Thereafter, the player decreases the acceleration in the downward direction toward the shot, so that the acceleration applied to the stick unit 10 increases in the negative direction. During this time, only the gravitational acceleration is again applied to the stick portion 10 through the timing at which the swing-down operation reaches the highest speed (portion represented by c).

この後、演奏者がショットに向けて、スティック部10に対してさらに振り上げ方向の加速度を加えると、加わる加速度はマイナス方向に増加する。そしてショットが終わると、スティック部10は再び静止し、重力加速度に逆らう形のマイナス方向の加速度が検出される状態に戻る(dで表わされる部分)。   Thereafter, when the player applies further acceleration in the swing-up direction to the stick unit 10 toward the shot, the applied acceleration increases in the minus direction. When the shot is finished, the stick unit 10 comes to rest again, and returns to a state in which the acceleration in the negative direction against the gravitational acceleration is detected (portion represented by d).

本実施形態においては、演奏者が仮想的な楽器の面にスティック部10を打ちつける瞬間として、振り下ろし動作が行われた後、振り上げ方向の加速度が加えられた瞬間を検出する。つまり、図7のdで表わされる部分において、振り下ろし状態から、言い換えれば加わる加速度が重力加速度のみから、さらにマイナス方向に所定値だけ増加したA点を、ショット検出のタイミングとしている。   In the present embodiment, as the moment when the performer strikes the stick unit 10 on the surface of the virtual musical instrument, the moment when the acceleration in the swing-up direction is applied after the swing-down operation is performed is detected. That is, in the portion represented by d in FIG. 7, the point A in which the acceleration applied from the swinging down state, in other words, the applied acceleration is increased further by a predetermined value in the minus direction, is used as the shot detection timing.

このショット検出のタイミングを発音タイミングとし、上述したような発音タイミングが到来したと判断されると、スティック部10のCPU11は、ノートオンイベントを生成し、センターユニット部30に送信する。これにより、センターユニット部30において、発音処理が実行されて、楽音が発生される。   The shot detection timing is set as the sound generation timing, and when it is determined that the sound generation timing as described above has arrived, the CPU 11 of the stick unit 10 generates a note-on event and transmits it to the center unit unit 30. As a result, the center unit 30 executes a sound generation process to generate a musical sound.

図6に戻り、ステップS15に示すショット検出処理では、上述のようにモーションセンサ情報(例えば、加速度センサのX軸、Y軸、Z軸のセンサ合成値)に基づいて、ノートオンイベントを生成する。このとき、生成するノートオンイベントには、例えばショットの強さや加速度の大きさ等に応じて、楽音の音量や音色、ベロシティやエンベロープ等の種々の情報を含めることとしてもよい。なお、楽音の音量は、例えばセンサ合成値の最大値から求めることができる。   Returning to FIG. 6, in the shot detection process shown in step S <b> 15, as described above, a note-on event is generated based on the motion sensor information (for example, the X-axis, Y-axis, and Z-axis sensor composite values of the acceleration sensor). . At this time, the generated note-on event may include various kinds of information such as the tone volume, tone color, velocity, envelope, etc. according to the strength of the shot, the magnitude of acceleration, and the like. Note that the tone volume can be obtained from the maximum value of the sensor composite value, for example.

また、CPU11は、モーションセンサ情報に基づいて、演奏者の所定の動作(アクション)を示す情報(以下、アクション情報と呼ぶ)を検出する処理、すなわち、アクション検出処理を行う(ステップS16)。なお、ここでアクション動作とは、ユーザがスティックを用いて行う、ショット以外の動作をいい、例えば、ユーザが撮像空間内で、スティックのマーカーが所定の形状を描くように動かした場合や、ある位置でダブルクリックのような動作をさせた場合を検出する。そして、例えばユーザがスティックを横にスライドさせた場合には、ページをめくるようにドラムセットを入れ替えるなどのように用いる事ができる。   Further, the CPU 11 performs a process of detecting information (hereinafter referred to as action information) indicating a predetermined operation (action) of the performer based on the motion sensor information, that is, an action detection process (step S16). Here, the action action refers to an action other than a shot performed by the user using a stick. For example, there is a case where the user moves the stick marker to draw a predetermined shape in the imaging space. Detects when double-clicking is performed at the position. For example, when the user slides the stick sideways, the drum set can be changed so as to turn the page.

CPU11は、ステップS14〜S16の処理で検出した情報、すなわち、姿勢情報、ショット情報及びアクション情報を、データ通信部16を介してセンターユニット部30に送信して(ステップS17)、ステップS13の処理に戻る。このとき、CPU11は、スティック部10A、10Bを区別するためのスティック識別情報と対応付けて、姿勢情報、ショット情報及びアクション情報をセンターユニット部30に送信する。   The CPU 11 transmits information detected in the processes of steps S14 to S16, that is, posture information, shot information, and action information to the center unit unit 30 via the data communication unit 16 (step S17), and the process of step S13. Return to. At this time, the CPU 11 transmits posture information, shot information, and action information to the center unit unit 30 in association with stick identification information for distinguishing the stick units 10A and 10B.

[カメラユニット部20の処理]
図8は演奏装置1のカメラユニット部20の処理を示すフローチャートである。なお、このフローチャートで示される処理は、カメラユニット部20のCPU21がROM22に記憶されたプログラム22aを読み出すことにより実行される。
[Processing of Camera Unit 20]
FIG. 8 is a flowchart showing processing of the camera unit 20 of the performance device 1. Note that the processing shown in this flowchart is executed by the CPU 21 of the camera unit unit 20 reading the program 22a stored in the ROM 22.

カメラユニット部20のCPU21は、マーカー検出条件取得処理を行う(ステップS21)。この処理では、CPU21は、センターユニット部30から送信されるマーカー検出条件情報を取得し、RAM23に格納する。   The CPU 21 of the camera unit 20 performs marker detection condition acquisition processing (step S21). In this process, the CPU 21 acquires marker detection condition information transmitted from the center unit 30 and stores it in the RAM 23.

なお、マーカー検出条件情報とは、スティック部10A,10Bのマーカー部15の夫々を検出するための条件であり、マーカー特徴情報12bから生成される(後述する図9のステップS31,S32参照)。ここで、上述したようにマーカー特徴情報12bとして、例えば、マーカーの形状、大きさ、色相、彩度、あるいは輝度を用いることができる。   The marker detection condition information is a condition for detecting each of the marker portions 15 of the stick portions 10A and 10B, and is generated from the marker feature information 12b (see steps S31 and S32 in FIG. 9 described later). Here, as described above, for example, the shape, size, hue, saturation, or luminance of the marker can be used as the marker feature information 12b.

次に、CPU21は、マーカー検出条件設定処理を行う(ステップS22)。この処理では、CPU21は、マーカー検出条件情報に基づいて、スティック部10A,10Bのマーカー部15を検出するための各種設定を行う。   Next, the CPU 21 performs marker detection condition setting processing (step S22). In this process, the CPU 21 performs various settings for detecting the marker portion 15 of the stick portions 10A and 10B based on the marker detection condition information.

次に、CPU21は、第1マーカー検出処理及び第2マーカー検出処理を行う(ステップS23,S24)。これらの処理では、CPU21は、マーカー検出部24が検出した、スティック部10Aのマーカー部15(第1マーカー)及びスティック部10Bのマーカー部15(第2マーカー)の位置座標、サイズ、角度などのマーカー検知情報を取得してRAM23に格納する。このとき、マーカー検出部24は、発光中のマーカー部15について、マーカー検知情報を検出する。   Next, the CPU 21 performs a first marker detection process and a second marker detection process (steps S23 and S24). In these processes, the CPU 21 detects the position coordinates, size, angle, etc. of the marker unit 15 (first marker) of the stick unit 10A and the marker unit 15 (second marker) of the stick unit 10B detected by the marker detection unit 24. Marker detection information is acquired and stored in the RAM 23. At this time, the marker detection unit 24 detects marker detection information for the marker unit 15 that is emitting light.

CPU21は、ステップS23及びステップS24で取得したマーカー検知情報を、データ通信部25を介してセンターユニット部30に送信し(ステップS25)、ステップS23の処理に戻る。   CPU21 transmits the marker detection information acquired by step S23 and step S24 to the center unit part 30 via the data communication part 25 (step S25), and returns to the process of step S23.

[センターユニット部30の処理]
図9は演奏装置1のセンターユニット部30の処理を示すフローチャートである。なお、このフローチャートで示される処理は、センターユニット部30のCPU31がROM32に記憶されたプログラム32aを読み出すことにより実行される。
[Processing of Center Unit 30]
FIG. 9 is a flowchart showing the processing of the center unit 30 of the performance device 1. Note that the processing shown in this flowchart is executed by the CPU 31 of the center unit 30 reading the program 32a stored in the ROM 32.

センターユニット部30のCPU31は、マーカー特徴情報12bをスティック部10から受信してRAM33に格納する(ステップS31)。CPU31は、このマーカー特徴情報とスイッチ341を介して設定された検出条件からマーカー検出条件情報を生成し、データ通信部37を介してカメラユニット部20に送信する(ステップS32)。   The CPU 31 of the center unit unit 30 receives the marker feature information 12b from the stick unit 10 and stores it in the RAM 33 (step S31). The CPU 31 generates marker detection condition information from the marker feature information and the detection condition set via the switch 341, and transmits the marker detection condition information to the camera unit 20 via the data communication unit 37 (step S32).

次に、CPU31は、カメラユニット部20から第1マーカー及び第2マーカー夫々のマーカー検知情報を受信し、RAM33に格納する(ステップS33)。また、CPU31は、スティック部10A、10Bの夫々から、スティック識別情報と対応付けられた姿勢情報、ショット情報及びアクション情報を受信し、RAM33に格納する(ステップS34)。   Next, the CPU 31 receives marker detection information for each of the first marker and the second marker from the camera unit 20 and stores them in the RAM 33 (step S33). Further, the CPU 31 receives posture information, shot information, and action information associated with stick identification information from each of the stick units 10A and 10B, and stores them in the RAM 33 (step S34).

ここで、CPU31は、ショットありか否かを判断する(ステップS35)。この処理では、CPU31は、スティック部10からノートオンイベントを受信したか否かにより、ショットの有無を判断する。このとき、ショットありと判断した場合には、CPU31は、ショット処理を行う(ステップS36)。ショット処理では、CPU31は、ROM32の波形テーブル32bからマーカー検知情報に含まれる位置座標、サイズ及び角度などに対応する波形データを読み出し、ノートオンイベントに含まれる音量データとともに音源装置36に出力する。これにより、音源装置36では、受け取った波形データに基づいて該当する楽音を発生する。   Here, the CPU 31 determines whether or not there is a shot (step S35). In this process, the CPU 31 determines whether or not there is a shot depending on whether or not a note-on event has been received from the stick unit 10. At this time, if it is determined that there is a shot, the CPU 31 performs a shot process (step S36). In the shot process, the CPU 31 reads waveform data corresponding to the position coordinates, size, angle, and the like included in the marker detection information from the waveform table 32b of the ROM 32, and outputs the waveform data to the sound source device 36 together with the volume data included in the note-on event. As a result, the tone generator 36 generates a corresponding musical sound based on the received waveform data.

一方、ステップS36の後、又はステップS35でNOと判断した場合には、CPU31は、スティック部10から受信したアクション情報に基づいて、アクションありか否かを判断する(ステップS35)。このとき、アクションありと判断した場合には、CPU31は、受信したアクション情報に基づくアクション処理を行い(ステップS38)、ステップS33の処理に戻る。また、アクションなしと判断した場合には、CPU31は、ステップS33の処理に戻る。   On the other hand, after step S36 or when determining NO in step S35, the CPU 31 determines whether or not there is an action based on the action information received from the stick unit 10 (step S35). At this time, if it is determined that there is an action, the CPU 31 performs an action process based on the received action information (step S38), and returns to the process of step S33. When determining that there is no action, the CPU 31 returns to the process of step S33.

以上が演奏装置1の基本的な動作である。
なお、上記各フローチャートでは説明を省略したが、演奏中にカメラユニット部20で撮影した演奏者の画像をセンターユニット部30に送ることにより、センターユニット部30で、その撮影画像と図1(b)に示した仮想ドラムセットDの画像とを合成し、その合成画像をモニタ部40に転送して表示することも可能である。
The above is the basic operation of the performance device 1.
Although not described in the above flowcharts, the center unit 30 sends an image of the performer photographed by the camera unit 20 during the performance to the center unit 30. It is also possible to synthesize the image of the virtual drum set D shown in FIG.

演奏者は、このモニタ部40に表示された合成画像で仮想ドラムセットDの各楽器の位置を確認しながら演奏することができる。ただし、モニタ部40を見ながらの演奏ではゲーム的であるため、リアリティ性を求める場合にはモニタ部40を見ないで演奏することが好ましい。つまり、あたかも目の前にドラムセットがあるものとして、スティック部10を持って演奏するスタイルが好ましい。   The performer can perform the performance while confirming the position of each instrument of the virtual drum set D with the composite image displayed on the monitor unit 40. However, since the performance while watching the monitor unit 40 is game-like, it is preferable to perform without looking at the monitor unit 40 when the reality is required. That is, it is preferable to play with the stick unit 10 as if there is a drum set in front of you.

ここで、図10に示すように、スティック部10が叩いている位置は、スティック部10の先端部に設けられたマーカー部15(発光体)を撮影画像上で認識することで得られる。しかしながら、演奏中に演奏者の身体やスタンド等の機材にマーカー部15が隠れて、撮影画像上で認識できなくなることがある。   Here, as shown in FIG. 10, the position at which the stick unit 10 is hitting is obtained by recognizing the marker unit 15 (light emitting body) provided at the tip of the stick unit 10 on the captured image. However, the marker unit 15 may be hidden by equipment such as the performer's body or a stand during performance, and may not be recognized on the captured image.

例えば、図11に示すように、演奏者が腕を交差して2本のスティック部10A,10Bを振っているような場合に、一方の手に持ったスティック部10Aの先端部分が他方の手に隠れることがある。このとき、撮影画像20b上でマーカー部15Aを認識できないため、このようにマーカーがロストしている間にスティック部10のモーションセンサ部14でショットが検出されても、スティック部10Aで叩いた楽器を特定することができない。   For example, as shown in FIG. 11, when the player crosses his arms and swings the two stick parts 10A and 10B, the tip of the stick part 10A held in one hand is the other hand. May hide. At this time, since the marker unit 15A cannot be recognized on the photographed image 20b, even if a shot is detected by the motion sensor unit 14 of the stick unit 10 while the marker is lost in this way, the instrument struck by the stick unit 10A. Cannot be specified.

図12は、このようなマーカーのロスト中の位置を推測する方法を説明するための図である。この例では、演奏者の一方の手に持ったスティック部10A(のマーカー部15)がA点→B点に移動したときに、スティック部10Aの先端部分が他方の手に隠れ、マーカー部15Aがロストした状態を表している。   FIG. 12 is a diagram for explaining a method for estimating the position of such a marker in the lost state. In this example, when the stick portion 10A (the marker portion 15) held in one hand of the performer moves from point A to point B, the tip portion of the stick portion 10A is hidden by the other hand, and the marker portion 15A. Represents a lost state.

今、マーカー部15AがA点からB点の間でロストするものとし、ロスト中のC点でショット動作(演奏者がスティック部10Aを振り下ろして楽器を叩く動作)があったとする。   Assume that the marker portion 15A is lost between points A and B, and that a shot operation is performed at the point C in the lost state (the player swings down the stick portion 10A and strikes the instrument).

リハーサル演奏により、マーカー部15Aがロストしたときの時刻tとロスト直前のA点の位置(x,y)と、マーカー部15Aを再認識したときの時刻tとB点の位置(x,y)を求めておく。ここで、スティック部10AがA−B間を等速で直線移動したものとすれば、A−B間の位置と時刻t,t、ロスト中のショット発生時刻tとの関係からC点の位置(x,y)を推測することができる。 Due to rehearsal performance, the time t 1 when the marker portion 15A is lost and the position of the point A immediately before the loss (x 1 , y 1 ), the time t 3 when the marker portion 15A is re-recognized, and the position of the point B ( x 3 , y 3 ) are obtained in advance. Here, if the stick portion 10A is linearly moved between A and B at a constant speed, the relationship between the position between A and B, times t 1 and t 3 , and the shot occurrence time t 2 during lost C The position (x 2 , y 2 ) of the point can be estimated.

以下に詳しく説明する。
いま、図10に示すように、カメラユニット部20から所定の距離Tだけ離れた位置で演奏者がスティック部10を用いてドラム演奏を行うものとし、そのときにカメラユニット部20の撮影範囲20b内で撮影された演奏者の画像がセンターユニット部30にリアルタイムで送られているとする。
This will be described in detail below.
Now, as shown in FIG. 10, it is assumed that the performer performs a drum performance using the stick unit 10 at a position away from the camera unit 20 by a predetermined distance T. At that time, the shooting range 20b of the camera unit unit 20 is assumed. It is assumed that an image of a player photographed in the center is sent to the center unit 30 in real time.

図13および図14は演奏装置1のセンターユニット部30の演奏処理を示すフローチャートである。なお、このフローチャートで示される処理は、センターユニット部30のCPU31がROM12に記憶されたプログラム12aを読み出すことにより実行される。   FIGS. 13 and 14 are flowcharts showing the performance processing of the center unit 30 of the performance device 1. Note that the processing shown in this flowchart is executed by the CPU 31 of the center unit 30 reading the program 12a stored in the ROM 12.

演奏者がセンターユニット部30に設けられたスイッチ341の操作により演奏モードを設定すると、まず、第1の演奏モードとしてリハーサル演奏が開始される(ステップS41のYES)。リハーサル演奏では、演奏者はスティック部10を持って本番と同じ演奏動作を行うものとする。詳しくは、図1で説明したように、演奏者は2本のスティック部10A,10Bを持ち、仮想ドラムセットDの各楽器に向かってスティック部10A,10Bを振り下ろす動作(ショット動作)を行う。   When the performer sets the performance mode by operating the switch 341 provided in the center unit 30, the rehearsal performance is first started as the first performance mode (YES in step S41). In the rehearsal performance, it is assumed that the performer holds the stick unit 10 and performs the same performance operation as the actual performance. Specifically, as described with reference to FIG. 1, the performer has two stick portions 10A and 10B, and performs an operation (shot operation) of swinging down the stick portions 10A and 10B toward each instrument of the virtual drum set D. .

リハーサル演奏が開始されると、センターユニット部30のCPU31は、図示せぬタイマーを起動して演奏時間の計測を行う(ステップS42)。また、CPU31は、カメラユニット部20によって撮影された画像からスティック部10の先端部に設けられたマーカー部15を検出する(ステップS43)。   When the rehearsal performance is started, the CPU 31 of the center unit 30 starts a timer (not shown) and measures the performance time (step S42). Further, the CPU 31 detects the marker portion 15 provided at the tip portion of the stick portion 10 from the image photographed by the camera unit portion 20 (step S43).

撮影画像上でマーカー部15が検出されている間は(ステップS44のNO)、CPU31は、そのマーカー部15の位置座標から楽器を特定すると共に(ステップS45)、そのときにスティック部10に設けられたモーションセンサ部14によってショット動作を検出する(ステップS46)。詳しくは、図7で説明したように、例えばモーションセンサ部14として加速度センサを用いているものとすると、その加速度センサの信号変化から演奏者がスティック部10を振り上げてから楽器に向かって振り下ろした動作を検出する。   While the marker unit 15 is detected on the photographed image (NO in step S44), the CPU 31 specifies a musical instrument from the position coordinates of the marker unit 15 (step S45), and is provided in the stick unit 10 at that time. The shot motion is detected by the obtained motion sensor unit 14 (step S46). Specifically, as described with reference to FIG. 7, for example, if an acceleration sensor is used as the motion sensor unit 14, the player swings up the stick unit 10 from the change in signal of the acceleration sensor and then swings it down toward the instrument. Detecting a movement.

モーションセンサ部14によってショット動作が検出された場合(ステップS46のYES)、CPU31は、音源装置36を介して当該マーカー位置に対応した楽器の音を発生する(ステップS47)。なお、ステップS45の楽器の特定は、ショットが検出されてから後に行っても良いが、あらかじめ行っておくことで、ショット検出後の処理時間を短縮でき、ショット検出後の発音までの遅延時間を短縮することができる。   When a shot motion is detected by the motion sensor unit 14 (YES in step S46), the CPU 31 generates a sound of a musical instrument corresponding to the marker position via the sound source device 36 (step S47). The identification of the musical instrument in step S45 may be performed later after the shot is detected, but if it is performed in advance, the processing time after the shot detection can be shortened, and the delay time until the sound generation after the shot detection is reduced. It can be shortened.

一方、演奏中にマーカー部15がロストし、撮影画像上で認識できなくなった場合には(ステップS44のYES)、CPU31は、タイマーからマーカー部15がロストしたときの時刻を取得すると共に撮影画像からロスト直前のマーカー位置を取得し、その時刻と位置のデータを関連付けてRAM33の第1のロスト管理テーブル33aに記録する(ステップS39)。   On the other hand, if the marker unit 15 is lost during performance and cannot be recognized on the captured image (YES in step S44), the CPU 31 obtains the time when the marker unit 15 is lost from the timer and captures the captured image. The position of the marker immediately before the lost is acquired, and the time and position data are associated and recorded in the first lost management table 33a of the RAM 33 (step S39).

ここで、ロスト中にモーションセンサ部14によってショット動作が検出された場合には(ステップS50のYES)、CPU31は、そのときの時刻をタイマーから取得してRAM33の第1のロスト管理テーブル33aに記録しておく(ステップS51)。この場合、マーカー位置によって楽器を特定することができないので、楽音は発生されない。また、一回のロスト中に複数回のショット動作が検出された場合は、それぞれのショットごとの時刻を第1のロスト管理テーブル33aに記録しておく。   Here, when a shot motion is detected by the motion sensor unit 14 during the lost (YES in step S50), the CPU 31 acquires the time at that time from the timer and stores it in the first lost management table 33a of the RAM 33. Record (step S51). In this case, no musical sound is generated because the musical instrument cannot be specified by the marker position. Further, when a plurality of shot operations are detected during one lost, the time for each shot is recorded in the first lost management table 33a.

また、マーカー部15のロスト後、再び撮影画像上に表れて再認識可能な状態に移行すると(ステップS52のYES)、CPU31は、そのときの時刻をタイマーから取得すると共に撮影画像上で再認識できたときのマーカー位置を取得し、その時刻と位置のデータを関連付けてRAM33の第1のロスト管理テーブル33aに記録する(ステップS53)。   When the marker unit 15 is lost and appears again on the captured image and shifts to a re-recognizable state (YES in step S52), the CPU 31 obtains the time from the timer and re-recognizes the captured image. The marker position at the time of completion is acquired, and the time and position data are associated and recorded in the first lost management table 33a of the RAM 33 (step S53).

このような処理がリハーサル演奏中に繰り返し行われる。その間にマーカー部15がロストした場合には、その都度、ロスト時の時刻とマーカー位置、再認識時の時刻とマーカー位置、そして、ショット動作があれば、その時刻のデータを含めてRAM33の第1のロスト管理テーブル33aに記録される。   Such processing is repeatedly performed during the rehearsal performance. In the meantime, when the marker unit 15 is lost, the lost time and marker position, the re-recognition time and marker position, and, if there is a shot operation, the data in the RAM 33 including the data at that time are included. 1 in the lost management table 33a.

図15に第1のロスト管理テーブル33aの一例を示す。
ロスト時の時刻とマーカー位置、ロスト後に再認識できたときの時刻とマーカー位置、ショット発生時の時刻がロスト時の一連のデータとして第1のロスト管理テーブル33aに記録される。なお、この時点では、ショット発生時のマーカー位置はまだ記録されていない。
FIG. 15 shows an example of the first lost management table 33a.
The lost time and marker position, the time and marker position when re-recognized after the lost, and the time when the shot occurred are recorded in the first lost management table 33a as a series of lost data. At this time, the marker position at the time of occurrence of the shot has not been recorded yet.

リハーサル演奏が終了すると(ステップS48のYES)、CPU31は、タイマーを止めて演奏時間の計測を終了する(ステップS54)。そして、CPU31は、以下のようなロスト発生期間のデータ処理を実行する(ステップS55)。   When the rehearsal performance ends (YES in step S48), the CPU 31 stops the timer and ends the performance time measurement (step S54). Then, the CPU 31 executes data processing for the lost occurrence period as follows (step S55).

すなわち、CPU31は、まず、第1のロスト管理テーブル33aを参照してロスト発生中のショット動作の有無を調べる。ロスト発生中にショット動作があった場合には、CPU31は、第1のロスト管理テーブル33aに記録されたロスト時の時刻とマーカー位置、再認識時の時刻とマーカー位置、ショット発生時刻を読み出し、これらのデータに基づいてショット発生時刻におけるマーカー位置を推測する。   That is, the CPU 31 first checks the presence / absence of a shot operation during the occurrence of lost with reference to the first lost management table 33a. When there is a shot operation during the occurrence of lost, the CPU 31 reads the lost time and marker position, the time and marker position at the time of re-recognition, and the shot occurrence time recorded in the first lost management table 33a. Based on these data, the marker position at the shot occurrence time is estimated.

図15の例で説明すると、リハーサル演奏により、一方のスティック部10Aのマーカー部15Aがロストしたときの時刻tとロスト直前のA点の位置(x,y)、ロスト後に再認識できたときの時刻tとB点の位置(x,y)、そして、ショット発生時の時刻tが第1のロスト管理テーブル33aに記録されていたとする。 Referring to the example of FIG. 15, by rehearsal performance, the time t 1 when the marker portion 15A of one stick portion 10A is lost and the position (x 1 , y 1 ) of the point A immediately before the lost can be re-recognized after the loss. It is assumed that the time t 3 at that time, the position of the point B (x 3 , y 3 ), and the time t 2 at the time of the shot occurrence are recorded in the first lost management table 33a.

ここで、スティック部10AがA−B間を等速で直線移動したとすると(図12参照)、その移動途中でショット動作があったC点とA点との時間間隔(t−t)と、B点とC点との時間間隔(t−t)との比率によりC点の位置(x,y)を求めることができる。 Here, if the stick portion 10A moves linearly between A and B at a constant speed (see FIG. 12), the time interval between the point C and the point A where the shot operation occurred during the movement (t 2 −t 1). ) And the time interval (t 3 -t 2 ) between point B and point C, the position (x 2 , y 2 ) of point C can be obtained.

この場合、図16(a)に示すように、例えばC点とA点との時間間隔(t−t)が1秒であり、B点とC点との時間間隔(t−t)も1秒であれば、両者の比率は1:1である。したがって、C点の位置(x,y)は、A−B間の中間位置つまりA−B間を1:1に内分する点であるから、x=(x+x)/2,y=(y+y)/2で求められる。 In this case, as shown in FIG. 16A, for example, the time interval between point C and point A (t 2 -t 1 ) is 1 second, and the time interval between point B and point C (t 3 -t If 2 ) is also 1 second, the ratio between the two is 1: 1. Therefore, since the position (x 2 , y 2 ) of the point C is a point that internally divides the intermediate position between A and B, that is, between A and B into 1: 1, x 2 = (x 1 + x 3 ) / 2, y 2 = (y 1 + y 3 ) / 2.

また、図16(b)に示すように、例えばC点とAとの時間間隔(t−t)が2秒であり、B点とC点との時間間隔(t−t)が1秒であれば、両者の比率は2:1である。したがって、C点の位置(x,y)は、A−B間を2:1に内分する点であるから、x=x/3+2x/3=(x+2x)/3,y=y/3+2y/3=(y+2y)/3で求められる。 Further, as shown in FIG. 16B, for example, the time interval between point C and A (t 2 -t 1 ) is 2 seconds, and the time interval between point B and C (t 3 -t 2 ). Is 1 second, the ratio of the two is 2: 1. Accordingly, the position of the point C (x 2, y 2) is between A-B 2: from a point which internally divides 1, x 2 = x 1/ 3 + 2x 3/3 = (x 1 + 2x 3) / 3, is obtained by y 2 = y 1/3 + 2y 3/3 = (y 1 + 2y 3) / 3.

このようにしてショット発生時のC点の位置(x,y)が求められると、CPU31は、その位置データを時刻tに対応付けて第1のロスト管理テーブル33aに記録する。そして、第1のロスト管理テーブル33aに記録されている全てのロスト発生期間のデータについて、同様の処理を行う。全てのロスト発生期間のデータについて処理を行ったら、ここでの処理を終える。 This way, the location of point C at the time of shot generation (x 2, y 2) is calculated, CPU 31 records the first lost management table 33a in association with the position data at time t 2. Then, the same processing is performed for all the lost occurrence period data recorded in the first lost management table 33a. When processing is performed for all the data in the lost occurrence period, the processing here is finished.

リハーサル演奏に続いて、第2の演奏モードとして本番演奏が開始される。本番演奏の開始は、ステップS41のリハーサル演奏の開始と同様、センターユニット部30に設けられたスイッチ341の操作により開始指示を行っても良い。なお、ステップS41のリハーサル演奏とこの本番演奏の開始のいずれも、例えば、スティック部10を所定の向きに振ったり、所定の形状を描かせたり、スティック部10のスイッチを操作する等、種々の方法で開始指示を行う事が可能である。   Following the rehearsal performance, the actual performance is started as the second performance mode. The start of the actual performance may be instructed by the operation of the switch 341 provided in the center unit unit 30 in the same manner as the start of the rehearsal performance in step S41. Note that both the rehearsal performance in step S41 and the start of the actual performance include various operations such as shaking the stick unit 10 in a predetermined direction, drawing a predetermined shape, and operating a switch of the stick unit 10. It is possible to give a start instruction by the method.

本番演奏が開始されると(ステップS56のYES)、上記リハーサル演奏と同様に、センターユニット部30のCPU31は、図示せぬ内部タイマーを起動して演奏時間の計測を行い(ステップS57)、このときにカメラユニット部20によって撮影された画像からスティック部10の先端部に設けられたマーカー部15を検出する(ステップS58)。   When the actual performance is started (YES in step S56), the CPU 31 of the center unit 30 starts an internal timer (not shown) and measures the performance time as in the rehearsal performance (step S57). Sometimes, the marker unit 15 provided at the tip of the stick unit 10 is detected from the image photographed by the camera unit unit 20 (step S58).

撮影画像上でマーカー部15が検出されている間は(ステップS59のNO)、CPU31は、そのマーカー部15の位置座標から楽器を特定すると共に(ステップS60)、そのときにスティック部10に設けられたモーションセンサ部14によってショット動作を検出する(ステップS61)。モーションセンサ部14によってショット動作が検出された場合(ステップS61のYES)、CPU31は、音源装置36を介して当該マーカー位置に対応した楽器の音を発生する(ステップS62)。なお、ステップS60の楽器の特定は、ショットが検出されてから後に行っても良いが、あらかじめ行っておくことで、ショット検出後の処理時間を短縮でき、ショット検出後の発音までの遅延時間を短縮することができる。   While the marker unit 15 is detected on the photographed image (NO in step S59), the CPU 31 specifies a musical instrument from the position coordinates of the marker unit 15 (step S60), and is provided in the stick unit 10 at that time. The shot motion is detected by the obtained motion sensor unit 14 (step S61). When a shot motion is detected by the motion sensor unit 14 (YES in step S61), the CPU 31 generates a musical instrument sound corresponding to the marker position via the sound source device 36 (step S62). The identification of the instrument in step S60 may be performed later after the shot is detected, but if it is performed in advance, the processing time after the shot detection can be shortened, and the delay time until the sound generation after the shot detection is reduced. It can be shortened.

ここで、演奏中にマーカー部15がロストし、撮影画像上で認識できなくなった場合には(ステップS59のYES)、CPU31は、以下のようなロスト対応処理を実行する。   If the marker unit 15 is lost during performance and cannot be recognized on the captured image (YES in step S59), the CPU 31 executes the following lost handling process.

すなわち、CPU31は、タイマーからマーカー部15がロストしたときの時刻を取得すると共に撮影画像からロスト直前のマーカー位置を取得し、RAM33の第1のロスト管理テーブル33aを参照してリハーサル演奏時に近似する時刻・マーカー位置でロストが発生していたか否かを検索する(ステップS63)。   That is, the CPU 31 acquires the time when the marker unit 15 is lost from the timer, acquires the marker position immediately before the lost from the photographed image, and approximates the rehearsal performance with reference to the first lost management table 33a of the RAM 33. It is searched whether or not lost has occurred at the time / marker position (step S63).

リハーサル演奏時に該当するロストがあったならば、CPU31は、そのロスト中にモーションセンサ部14によってショット動作が検出されたか否かを判断する(ステップS64)。ショット動作が検出された場合に(ステップS64のYES)、CPU31は、そのショット発生時刻が第1のロスト管理テーブル33aに記録されたリハーサル演奏時のショット発生時刻と近いか否かを確認する。   If there is a lost corresponding to the rehearsal performance, the CPU 31 determines whether or not a shot motion is detected by the motion sensor unit 14 during the lost (step S64). When the shot operation is detected (YES in step S64), the CPU 31 confirms whether or not the shot occurrence time is close to the shot occurrence time during the rehearsal performance recorded in the first lost management table 33a.

リハーサル演奏時のショット発生時刻と近ければ、CPU31は、リハーサル演奏と近接するタイミングで発生したロスト中のショット動作と判断し、第1のロスト管理テーブル33aから当該時刻におけるマーカー位置を読み出し、音源装置36を介して当該マーカー位置に対応した楽器の音を発生する(ステップS65)。   If it is close to the shot occurrence time at the time of rehearsal performance, the CPU 31 determines that the shot operation is in the lost time at the timing close to the rehearsal performance, reads the marker position at the time from the first lost management table 33a, and The sound of the musical instrument corresponding to the marker position is generated via 36 (step S65).

例えば、本番演奏中に演奏開始から時刻t前後にA点の位置(x,y)でロストが発生したとする。本番演奏がリハーサル演奏と同じように行われるものとすると、リハーサル演奏時でも同様のタイミングでロストが発生していたと予測される。したがって、そのロスト中に時刻t前後にショット動作があれば、リハーサル演奏時に求めたC点の位置(x,y)がショット時のマーカー位置であると推測でき、そのマーカー位置に対応した楽器の音を発生することができる。 For example, it is assumed that lost occurs at the position of point A (x 1 , y 1 ) around time t 1 from the start of performance during the actual performance. Assuming that the actual performance is performed in the same manner as the rehearsal performance, it is predicted that the lost occurred at the same timing even during the rehearsal performance. Therefore, if there is a shot operation time t 2 before and after in its lost, the position of the C points obtained during rehearsal playback (x 1, y 1) can be inferred to be a marker position at the time of the shot, corresponding to the marker position Can generate the sound of the instrument.

このように、リハーサル演奏と近接するタイミングで発生したロストか否かを確認し、リハーサル演奏時のロスト情報とショット情報を用いることで、本番演奏中にマーカーのロストが発生しても、楽音を発生させることができる。   In this way, by confirming whether or not the loss occurred at the timing close to the rehearsal performance, and using the lost information and shot information at the time of the rehearsal performance, even if a marker loss occurs during the actual performance, the musical sound can be reproduced. Can be generated.

さらに、第1のロスト管理テーブル33aに記録されているリハーサル演奏時のロスト情報のうち、本番演奏中のロストに近似する時刻・マーカー位置でのロスト情報を検索して用いることで、別のタイミングで発生したロスト時のデータを誤使用して別の楽音を発生してしまう誤動作を防ぐことができる。さらに一回のロスト中にショット動作が複数回発生した場合でも、本番演奏中に検出されたショット動作と近似する時刻でのショット情報を第1のロスト管理テーブル33aから検索して使用することで、別のタイミングで発生したショット動作のデータを誤使用して別の楽音を発生してしまう誤動作を防ぐことができる。   Further, by searching and using the lost information at the time / marker position that approximates the lost during the actual performance from the lost information during the rehearsal performance recorded in the first lost management table 33a, another timing can be obtained. It is possible to prevent a malfunction that misuses the lost data generated in the process and generates another musical sound. Furthermore, even when a shot motion occurs a plurality of times during one lost, the shot information at the time approximate to the shot motion detected during the actual performance is retrieved from the first lost management table 33a and used. Thus, it is possible to prevent a malfunction in which another musical sound is generated by erroneous use of shot operation data generated at another timing.

なお、上記ステップS63において、本番演奏時に発生したロストの時刻とマーカー位置と同様のロストがリハーサル演奏時に存在しなかった場合には、そのロスト中のマーカー位置は推測できないので、音は鳴らさないものとする。   In step S63, if the lost time and marker position that occurred during the actual performance does not exist during the rehearsal performance, the marker position in the lost cannot be estimated and no sound is produced. And

ロスト後、マーカー部15が再認識されると(ステップS66のYES)、通常の演奏処理に戻る。また、所定の演奏時間が経過すると、ここでの一連の処理が終了する(ステップS67)。   After the lost, when the marker unit 15 is re-recognized (YES in step S66), the process returns to the normal performance process. When a predetermined performance time has elapsed, the series of processes here ends (step S67).

このように、演奏者が腕を交差させるなど、スティック部10のマーカー部15がロストしやすい演奏動作を行ったとしても、リハーサル演奏により事前にマーカー部15がロストする位置を求めておくことにより、本番の演奏では、スティック部10の動きに合わせて所定の楽音を発生させて演奏を続けることができる。   In this way, even if the performer performs a performance operation in which the marker unit 15 of the stick unit 10 is easily lost, such as by crossing arms, the position where the marker unit 15 is lost by rehearsal performance is obtained in advance. In the actual performance, it is possible to continue the performance by generating a predetermined musical sound in accordance with the movement of the stick unit 10.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
上記第1の実施形態では、ロスト中、スティックが等速で直線移動しているとの仮定の下で、ロスト前後の時刻とマーカー位置とに基づいてロスト中に演奏者がエア楽器を叩いた位置(ショット位置)を推測するものとした。しかし、演奏者がスティック部10を比較的早い動きで連打している場合や、諸方向に動かしている場合などには、ロスト前後の時刻と位置関係からだけでは正確にショット位置を推測することは難しい。そこで、第2の実施形態では、スティック部10が早い動きで連打する等していても、正確にショット位置を推測できるようにしたものである。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
In the first embodiment, under the assumption that the stick moves linearly at a constant speed during the loss, the player hits the air instrument during the loss based on the time before and after the loss and the marker position. The position (shot position) was assumed. However, when the player strikes the stick unit 10 with a relatively fast movement or moves in various directions, the shot position can be accurately estimated only from the time and positional relationship before and after the lost. Is difficult. Therefore, in the second embodiment, the shot position can be accurately estimated even if the stick portion 10 is repeatedly hit with a fast movement or the like.

基本的な装置構成は上記第1の実施形態と同様であるため、ここではマーカーロスト時の対応方法について説明する。   Since the basic apparatus configuration is the same as that of the first embodiment, a method for dealing with marker lost will be described here.

図17および図18は演奏装置1のセンターユニット部30の演奏処理を示すフローチャートである。なお、このフローチャートで示される処理は、センターユニット部30のCPU31がROM12に記憶されたプログラム12aを読み出すことにより実行される。   17 and 18 are flowcharts showing the performance processing of the center unit 30 of the performance device 1. Note that the processing shown in this flowchart is executed by the CPU 31 of the center unit 30 reading the program 12a stored in the ROM 12.

上記第1の実施形態と同様に、まず、第1の演奏モードとしてリハーサル演奏が開始される(ステップS71のYES)。センターユニット部30のCPU31は、図示せぬタイマーの起動により演奏時間の計測を行い(ステップS72)、このときにカメラユニット部20によって撮影された画像からスティック部10の先端部に設けられたマーカー部15を検出する(ステップS73)。   Similar to the first embodiment, first, the rehearsal performance is started as the first performance mode (YES in step S71). The CPU 31 of the center unit 30 measures the performance time by starting a timer (not shown) (step S72), and a marker provided at the tip of the stick unit 10 from the image taken by the camera unit 20 at this time. The unit 15 is detected (step S73).

撮影画像上でマーカー部15が検出されている間は(ステップS74のNO)、CPU31は、そのマーカー部15の位置座標から楽器を特定すると共に(ステップS75)、そのときにスティック部10に設けられたモーションセンサ部14によってショット動作を検出する(ステップS76)。モーションセンサ部14によってショット動作が検出された場合(ステップS76のYES)、CPU31は、音源装置36を介して当該マーカー位置に対応した楽器の音を発生する(ステップS77)。なお、ステップS75の楽器の特定は、ショットが検出されてから後に行っても良いが、あらかじめ行っておくことで、ショット検出後の処理時間を短縮でき、ショット検出後の発音までの遅延時間を短縮することができる点も、上記第1の実施形態に記載したのと同様である。   While the marker unit 15 is detected on the photographed image (NO in step S74), the CPU 31 specifies a musical instrument from the position coordinates of the marker unit 15 (step S75), and is provided in the stick unit 10 at that time. The shot motion is detected by the detected motion sensor unit 14 (step S76). When a shot motion is detected by the motion sensor unit 14 (YES in step S76), the CPU 31 generates a sound of a musical instrument corresponding to the marker position via the sound source device 36 (step S77). The identification of the instrument in step S75 may be performed later after the shot is detected, but if it is performed in advance, the processing time after the shot detection can be shortened, and the delay time until the sound generation after the shot detection is reduced. The points that can be shortened are the same as those described in the first embodiment.

一方、演奏中にマーカー部15がロストし、撮影画像上で認識できなくなった場合に(ステップS74のYES)、第2の実施形態では、以下のような処理が行われる。   On the other hand, when the marker unit 15 is lost during performance and cannot be recognized on the captured image (YES in step S74), the following processing is performed in the second embodiment.

すなわち、CPU31は、タイマーからマーカー部15がロストしたときの時刻を取得すると共に撮影画像からロスト直前のマーカー位置を取得し、その時刻と位置のデータを関連付けてRAM33の第2のロスト管理テーブル33bに記録する(ステップS79)。また、CPU31は、ロスト中にステップS80からステップS83の処理をループしている間、単位時間ごとにステップS80の処理が実行されて、その都度モーションセンサ部14から得られる計測データを第2のロスト管理テーブル33bに記録する(ステップS80)。   That is, the CPU 31 acquires the time when the marker unit 15 is lost from the timer, acquires the marker position immediately before the lost from the captured image, associates the time and position data, and the second lost management table 33b of the RAM 33. (Step S79). Further, the CPU 31 executes the process of step S80 for each unit time while looping the process of step S80 to step S83 during the lost, and the measurement data obtained from the motion sensor unit 14 each time is obtained from the second time. Record in the lost management table 33b (step S80).

ここで、ロスト中にモーションセンサ部14によってショット動作が検出された場合には(ステップS81のYES)、CPU31は、そのときの時刻をタイマーから取得してRAM33の第2のロスト管理テーブル33bに記録しておく(ステップS82)。この場合、マーカー位置によって楽器を特定することができないので、楽音は発生されない。また、一回のロスト中に複数回のショット動作が検出された場合は、それぞれのショットごとの時刻を第2のロスト管理テーブル33bに記録しておく。   Here, when a shot motion is detected by the motion sensor unit 14 during the lost (YES in step S81), the CPU 31 obtains the time at that time from the timer and stores it in the second lost management table 33b of the RAM 33. Record it (step S82). In this case, no musical sound is generated because the musical instrument cannot be specified by the marker position. Further, when a plurality of shot operations are detected during one lost, the time for each shot is recorded in the second lost management table 33b.

マーカー部15のロスト後、再び撮影画像上に表れて再認識可能な状態に移行するまで上記の処理が繰り返され、その間に得られるモーションセンサ部14の計測データが第2のロスト管理テーブル33bに連続的に記録されることになる。   After the marker unit 15 is lost, the above process is repeated until the marker unit 15 appears on the captured image again and shifts to a re-recognizable state, and the measurement data of the motion sensor unit 14 obtained in the meantime is stored in the second lost management table 33b. It will be recorded continuously.

図19に第2のロスト管理テーブル33bの一例を示す。
ロスト時の時刻とマーカー位置、ショット発生時の時刻、そして、センサの計測データがロスト時の一連のデータとして第2のロスト管理テーブル33bに記録される。この場合、モーションセンサ部14として、例えば3軸の加速度センサを用いていたとすると、ロスト中のスティック部10のX軸,Y軸,Z軸方向の加速度が検出され、これらの各軸方向ごとに検出された加速度の計測データが連続的に記録されることになる。なお、この時点では、ショット発生時のマーカー位置はまだ記録されていない。
FIG. 19 shows an example of the second lost management table 33b.
The lost time and marker position, the time when a shot occurs, and the sensor measurement data are recorded in the second lost management table 33b as a series of lost data. In this case, if, for example, a three-axis acceleration sensor is used as the motion sensor unit 14, the X-axis, Y-axis, and Z-axis direction accelerations of the stick unit 10 being lost are detected, and each of these axis directions is detected. The detected acceleration measurement data is continuously recorded. At this time, the marker position at the time of occurrence of the shot has not been recorded yet.

リハーサル演奏が終了すると(ステップS78のYES)、CPU31は、タイマーを止めて演奏時間の計測を終了する(ステップS84)。そして、CPU31は、以下のようなロスト発生期間のデータ処理を実行する(ステップS85)。   When the rehearsal performance ends (YES in step S78), the CPU 31 stops the timer and ends the measurement of the performance time (step S84). Then, the CPU 31 executes data processing for the lost occurrence period as follows (step S85).

すなわち、CPU31は、まず、第2のロスト管理テーブル33bを参照してロスト発生中のショット動作の有無を調べる。ロスト発生中にショット動作があった場合には、CPU31は、第2のロスト管理テーブル33bに記録されたロスト時の時刻とマーカー位置、ロスト中のモーションセンサ部14の計測データ、ショット発生時刻を読み出し、これらのデータに基づいてショット発生時刻におけるマーカー位置を推測する。   That is, the CPU 31 first checks the presence / absence of a shot operation during the occurrence of lost with reference to the second lost management table 33b. If there is a shot operation during the occurrence of lost, the CPU 31 displays the lost time and marker position, the measurement data of the motion sensor unit 14 being lost, and the shot occurrence time recorded in the second lost management table 33b. Reading and estimating the marker position at the shot occurrence time based on these data.

図19の例で説明すると、リハーサル演奏により、一方のスティック部10Aのマーカー部15Aがロストしたときの時刻tとロスト直前のA点の位置(x,y)、ロスト中のモーションセンサ部14の計測データ、そして、ショット発生時の時刻tが第2のロスト管理テーブル33bに記録されていたとする。 Referring to the example of FIG. 19, the time t 1 when the marker portion 15A of one stick portion 10A is lost by rehearsal performance, the position of the point A (x 1 , y 1 ) immediately before the loss, and the motion sensor in the lost state measurement data parts 14 and the time t 2 when the shot occurs is recorded in the second lost management table 33b.

ここで、スティック部10AがA−B間を移動したとすると(図12参照)、その間にスティック部10がどのように動いたのかは、モーションセンサ部14の計測データから判断できる。したがって、ロスト時の時刻tとA点の位置(x,y)を起点にして計測データに基づきマーカー部15Aの動きを追跡していけば、ショット動作が検出された時刻tの時点におけるマーカー位置として、C点の位置(x,y)を推測することができる。 Here, if the stick unit 10A moves between A and B (see FIG. 12), it can be determined from the measurement data of the motion sensor unit 14 how the stick unit 10 moved during that time. Therefore, if we track the movement of the marker portion 15A based on the measurement data by the position of the time t 1 and point A at Lost (x 1, y 1) to the starting point, shot operation is a time t 2 which is detected The position (x 2 , y 2 ) of the point C can be estimated as the marker position at the time point.

より詳しくは、例えばモーションセンサ部14が加速度センサで構成されていた場合、ロスト時の時刻tとA点の位置(x,y)を起点とし、その後連続的に記録されている加速度センサの計測データを積分した各単位時間における速度データを各単位時間ごとに累積(積分)していくことで、ショット動作が検出された時刻tまでのスティック部10の移動を算出し、ショット動作が検出された時刻tの時点におけるマーカー位置C点(x,y)を推測することができる。 More specifically, for example, when the motion sensor unit 14 is composed of an acceleration sensor, the acceleration is recorded continuously from the time t 1 at the time of lost and the position of the point A (x 1 , y 1 ). the velocity data in each unit time obtained by integrating the measured data of the sensor that accumulates (integrates) each unit time, calculates the movement of the stick 10 until time t 2 when the shot operation is detected, the shot The marker position C point (x 2 , y 2 ) at the time t 2 when the motion is detected can be estimated.

このようにしてショット発生時のC点の位置(x,y)が求められると、CPU31は、その位置データを時刻tに対応付けて第2のロスト管理テーブル33bに記録する。そして、第2のロスト管理テーブル33bに記録されている全てのロスト発生期間のデータについて、同様の処理を行う。全てのロスト発生期間のデータについて処理を行ったら、ここでの処理を終える。 This way, the location of point C at the time of shot generation (x 2, y 2) is calculated, CPU 31 records the second lost management table 33b in association with the position data at time t 2. Then, the same processing is performed on the data of all lost occurrence periods recorded in the second lost management table 33b. When processing is performed for all the data in the lost occurrence period, the processing here is finished.

リハーサル演奏に続いて、第2の演奏モードとして本番演奏が開始される。本番演奏ならびにリハーサル演奏の開始は、第1の実施形態と同様、センターユニット部30に設けられたスイッチ341の操作により開始指示を行っても良いし、スティック部10を所定の向きに振ったり、所定の形状を描かせたり、スティック部10のスイッチを操作する等、種々の方法で開始指示を行う事が可能である。   Following the rehearsal performance, the actual performance is started as the second performance mode. As in the first embodiment, the actual performance and the rehearsal performance may be started by operating the switch 341 provided in the center unit 30, or the stick unit 10 may be shaken in a predetermined direction. It is possible to give a start instruction by various methods such as drawing a predetermined shape or operating a switch of the stick unit 10.

本番演奏が開始されると(ステップS86のYES)、上記リハーサル演奏と同様に、センターユニット部30のCPU31は、図示せぬ内部タイマーを起動して演奏時間の計測を行い(ステップS87)、このときにカメラユニット部20によって撮影された画像からスティック部10の先端部に設けられたマーカー部15を検出する(ステップS88)。   When the actual performance is started (YES in step S86), as in the rehearsal performance, the CPU 31 of the center unit 30 starts an internal timer (not shown) and measures the performance time (step S87). Sometimes the marker unit 15 provided at the tip of the stick unit 10 is detected from the image taken by the camera unit 20 (step S88).

撮影画像上でマーカー部15が検出されている間は(ステップS89のNO)、CPU31は、そのマーカー部15の位置座標から楽器を特定すると共に(ステップS90)、そのときにスティック部10に設けられたモーションセンサ部14によってショット動作を検出する(ステップS91)。モーションセンサ部14によってショット動作が検出された場合(ステップS91のYES)、CPU31は、音源装置36を介して当該マーカー位置に対応した楽器の音を発生する(ステップS92)。なお、ステップS90の楽器の特定は、ショットが検出された後に行っても、あらかじめ行っても、どちらでも良いのは上記第1の実施形態に記載したのと同様である。   While the marker unit 15 is detected on the photographed image (NO in step S89), the CPU 31 specifies a musical instrument from the position coordinates of the marker unit 15 (step S90), and is provided in the stick unit 10 at that time. The shot motion is detected by the obtained motion sensor unit 14 (step S91). If a shot motion is detected by the motion sensor unit 14 (YES in step S91), the CPU 31 generates a musical instrument sound corresponding to the marker position via the sound source device 36 (step S92). Note that the specification of the musical instrument in step S90 may be performed after the shot is detected or may be performed in advance, as described in the first embodiment.

ここで、演奏中にマーカー部15がロストし、撮影画像上で認識できなくなった場合には(ステップS89のYES)、CPU31は、以下のようなロスト対応処理を実行する。   If the marker unit 15 is lost during performance and cannot be recognized on the captured image (YES in step S89), the CPU 31 executes the following lost handling process.

すなわち、CPU31は、タイマーからマーカー部15がロストしたときの時刻を取得すると共に撮影画像からロスト直前のマーカー位置を取得し、RAM33の第1のロスト管理テーブル33aを参照してリハーサル演奏時に近似する時刻・マーカー位置でロストが発生していたか否かを検索する(ステップS93)。   That is, the CPU 31 acquires the time when the marker unit 15 is lost from the timer, acquires the marker position immediately before the lost from the photographed image, and approximates the rehearsal performance with reference to the first lost management table 33a of the RAM 33. It is searched whether or not lost has occurred at the time / marker position (step S93).

リハーサル演奏時に該当するロストがあったならば、CPU31は、そのロスト中にモーションセンサ部14によってショット動作が検出されたか否かを判断する(ステップS94)。ショット動作が検出された場合に(ステップS94のYES)、CPU31は、そのショット発生時刻が第2のロスト管理テーブル33bに記録されたリハーサル演奏時のショット発生時刻と近いか否かを確認する。   If there is a lost corresponding to the rehearsal performance, the CPU 31 determines whether or not a shot motion is detected by the motion sensor unit 14 during the lost (step S94). When the shot operation is detected (YES in step S94), the CPU 31 confirms whether or not the shot occurrence time is close to the shot occurrence time during the rehearsal performance recorded in the second lost management table 33b.

リハーサル演奏時のショット発生時刻と近ければ、CPU31は、リハーサル演奏と近接するタイミングで発生したロスト中のショット動作と判断し、第2のロスト管理テーブル33bから当該時刻におけるマーカー位置を読み出し、音源装置36を介して当該マーカー位置に対応した楽器の音を発生する(ステップS95)。   If it is close to the shot occurrence time during the rehearsal performance, the CPU 31 determines that the shot operation is a lost shot that occurs at a timing close to the rehearsal performance, reads the marker position at that time from the second lost management table 33b, and The sound of the musical instrument corresponding to the marker position is generated via 36 (step S95).

例えば、本番演奏中に演奏開始から時刻t前後にA点の位置(x,y)でロストが発生したとする。本番演奏がリハーサル演奏と同じように行われるものとすると、リハーサル演奏時でも同様のタイミングでロストが発生していたと予測される。したがって、そのロスト中に時刻t前後にショット動作があれば、リハーサル演奏時に求めたC点の位置(x,y)がショット時のマーカー位置であると推測でき、そのマーカー位置に対応した楽器の音を発生することができる。 For example, it is assumed that lost occurs at the position of point A (x 1 , y 1 ) around time t 1 from the start of performance during the actual performance. Assuming that the actual performance is performed in the same manner as the rehearsal performance, it is predicted that the lost occurred at the same timing even during the rehearsal performance. Therefore, if there is a shot operation time t 2 before and after in its lost, the position of the C points obtained during rehearsal playback (x 1, y 1) can be inferred to be a marker position at the time of the shot, corresponding to the marker position Can generate the sound of the instrument.

このように、リハーサル演奏と近接するタイミングで発生したロストか否かを確認し、リハーサル演奏時のロスト情報とショット情報を用いることで、本番演奏中にマーカーのロストが発生しても、楽音を発生させることができる。   In this way, by confirming whether or not the loss occurred at the timing close to the rehearsal performance, and using the lost information and shot information at the time of the rehearsal performance, even if a marker loss occurs during the actual performance, the musical sound can be reproduced. Can be generated.

さらに、第2のロスト管理テーブル33bに記録されているリハーサル演奏時のロスト情報のうち、本番演奏中のロストに近似する時刻・マーカー位置でのロスト情報を検索して用いることで、別のタイミングで発生したロスト時のデータを誤使用して別の楽音を発生してしまう誤動作を防ぐことができる。さらに一回のロスト中にショット動作が複数回発生した場合でも、本番演奏中に検出されたショット動作と近似する時刻でのショット情報を第2のロスト管理テーブル33bから検索して使用することで、別のタイミングで発生したショット動作のデータを誤使用して別の楽音を発生してしまう誤動作を防ぐことができる。   Further, by searching and using the lost information at the time / marker position that approximates the lost during the actual performance from the lost information during the rehearsal performance recorded in the second lost management table 33b, another timing can be obtained. It is possible to prevent a malfunction that misuses the lost data generated in the process and generates another musical sound. Furthermore, even when a shot motion occurs a plurality of times during one lost, the shot information at the time approximate to the shot motion detected during the actual performance is retrieved from the second lost management table 33b and used. Thus, it is possible to prevent a malfunction in which another musical sound is generated by erroneous use of shot operation data generated at another timing.

なお、上記ステップS93において、本番演奏時に発生したロストの時刻とマーカー位置と同様のロストがリハーサル演奏時に存在しなかった場合には、そのロスト中のマーカー位置は推測できないので、音は鳴らさないものとする。   In step S93, if the lost time and marker position that occurred during the actual performance does not exist during the rehearsal, the marker position in the lost cannot be estimated, so no sound is produced. And

ロスト後、マーカー部15が再認識されると(ステップS66のYES)、通常の演奏処理に戻る。また、所定の演奏時間が経過すると、ここでの一連の処理が終了する(ステップS67)。   After the lost, when the marker unit 15 is re-recognized (YES in step S66), the process returns to the normal performance process. When a predetermined performance time has elapsed, the series of processes here ends (step S67).

このように、演奏者が腕を交差させるなど、スティック部10のマーカー部15がロストしやすい演奏動作を行ったとしても、リハーサル演奏により事前にマーカー部15がロストする位置を求めておくことにより、本番の演奏では、スティック部10の動きに合わせて所定の楽音を発生させて演奏を続けることができる。   In this way, even if the performer performs a performance operation in which the marker unit 15 of the stick unit 10 is easily lost, such as by crossing arms, the position where the marker unit 15 is lost by rehearsal performance is obtained in advance. In the actual performance, it is possible to continue the performance by generating a predetermined musical sound in accordance with the movement of the stick unit 10.

さらに、第2の実施形態では、ロスト位置の推測にモーションセンサ部14の計測データを用いているため、演奏者がスティック部10を早く動かして連打していても、ロスト時の位置を推測できるといった利点がある。   Furthermore, in the second embodiment, since the measurement data of the motion sensor unit 14 is used to estimate the lost position, the lost position can be estimated even if the player moves the stick unit 10 quickly and repeatedly hits it. There are advantages such as.

また、上記第2の実施形態では、ステップS85のロスト発生期間のデータ処理において、リハーサル演奏時にショットが検出されていた場合に、第2のロスト管理テーブル33bに記録されたロスト時の時刻とマーカー位置、ロスト中のモーションセンサ部14の計測データ、ショット発生時刻に基づいて、当該ショット発生時のマーカー位置C点(x,y)を推測したが、これに限られない。 In the second embodiment, the lost time and marker recorded in the second lost management table 33b when a shot has been detected during the rehearsal performance in the lost period data processing in step S85. The marker position C point (x 2 , y 2 ) at the time of occurrence of the shot is estimated based on the position, the measurement data of the motion sensor unit 14 being lost, and the shot occurrence time, but is not limited thereto.

すなわち、例えば、ショットの発生とは無関係に、マーカーがロストしていた全期間について、各単位時間毎にその時刻でのマーカー位置を推定算出し、それらを全て第2のロスト管理テーブル33bに記録しておく事も可能である。   That is, for example, regardless of the occurrence of a shot, the marker position at that time is estimated and calculated for each unit time for all periods in which the marker is lost, and all of them are recorded in the second lost management table 33b. It is also possible to keep it.

このように構成することにより、本番演奏時のマーカーロスト中に、リハーサル演奏時には検出されなかったタイミングでショットが行われた場合でも、そのショット発生時刻におけるマーカーの推定位置を第2のロスト管理テーブル33bから読み出して、その位置に対応した楽器の音を発生するようにすることができる。   With this configuration, even when a shot is performed at a timing that was not detected during rehearsal performance during marker lost during the actual performance, the estimated position of the marker at the time of the shot occurrence is stored in the second lost management table. It is possible to read out from 33b and generate the sound of the musical instrument corresponding to the position.

以上のように、本実施形態によれば、リハーサル演奏により事前にマーカーがロストする位置を求めておくことにより、本番の演奏時にマーカーがロストしても、演奏者が叩いた楽器を判断して楽音を発生することができる。   As described above, according to the present embodiment, by determining the position where the marker is lost in advance during rehearsal performance, even if the marker is lost during the actual performance, it is possible to determine the instrument that the player has struck. Musical sound can be generated.

なお、上記実施形態では、スティック部10に設けられる方向検出用のセンサとして、加速度センサを例にして説明したが、例えば角速度センサなどの他のセンサでも同様であり、撮影画像との併用により同様の効果が得られる。   In the above-described embodiment, the acceleration sensor is described as an example of the direction detection sensor provided in the stick unit 10. However, the same applies to other sensors such as an angular velocity sensor. The effect is obtained.

また、上記実施形態では、仮想的な打楽器としてエアドラムを例にして説明したが、本発明はこれに限られるものではなく、スティック部10の振り下ろし/振り上げ動作で楽音を発生する楽器であれば、例えば木琴などの他の楽器に適用することができる。   In the above embodiment, an air drum is described as an example of a virtual percussion instrument. However, the present invention is not limited to this, and any instrument that generates a musical sound by swinging / raising the stick unit 10 can be used. It can be applied to other musical instruments such as xylophone.

また、上記実施形態でスティック部10、カメラユニット部20及びセンターユニット部30で行うこととしている処理のうちの任意の処理は、他のユニット(スティック部10、カメラユニット部20及びセンターユニット部30)で行うこととしてもよい。例えば、スティック部10のCPU11が行うこととしているショット検出処理(図6)などを、センターユニット部30のCPU31で行うこととしてもよい。   In addition, any processing among the processing to be performed by the stick unit 10, the camera unit unit 20, and the center unit unit 30 in the above embodiment is performed by other units (stick unit 10, camera unit unit 20, and center unit unit 30. ). For example, the shot detection process (FIG. 6) to be performed by the CPU 11 of the stick unit 10 may be performed by the CPU 31 of the center unit unit 30.

要するに、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In short, several embodiments of the present invention have been described, but these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

また、上述した各実施形態において記載した手法は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレシキブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に適用したり、通信媒体により伝送して各種装置に適用することも可能である。本装置を実現するコンピュータは、記録媒体に記録されたプログラムを読み込み、このプログラムによって動作が制御されることにより、上述した処理を実行する。   In addition, the methods described in the above-described embodiments are, for example, magnetic disks (flexible disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), recording media such as semiconductor memories, as programs that can be executed by a computer. Can be applied to various devices, or transmitted by a communication medium and applied to various devices. A computer that implements this apparatus reads the program recorded on the recording medium, and executes the above-described processing by controlling the operation by this program.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
演奏者の操作に応じてエア楽器の演奏指示が発せられる、マーカーを有する演奏部材と、
上記演奏部材が存在する撮像空間を撮影する撮影手段と、
第1の演奏中に上記撮影手段によって撮影された画像から上記マーカーがロストしたことを検出するロスト検出手段と、
このロスト検出手段によって検出された上記マーカーのロスト中に上記演奏者が上記演奏部材で上記エア楽器を叩いたときの上記マーカーの位置を推測する位置推測手段と、
第2の演奏時に上記マーカーがロストした場合に、上記位置推測手段によって推測された上記マーカーの位置に基づいて所定の楽音を発生する楽音発生制御手段と
を具備したことを特徴とする演奏装置。
Hereinafter, the invention described in the scope of claims of the present application will be appended.
[1]
A performance member having a marker, in which a performance instruction of an air musical instrument is issued in accordance with a player's operation;
Photographing means for photographing an imaging space in which the performance member exists;
Lost detection means for detecting that the marker has been lost from an image photographed by the photographing means during the first performance;
Position estimation means for estimating the position of the marker when the player strikes the air musical instrument with the performance member during the lost of the marker detected by the lost detection means;
A musical tone generation control means for generating a predetermined musical tone based on the position of the marker estimated by the position estimation means when the marker is lost during a second performance.

[2]
上記マーカーがロストしたときの時刻と位置、ロスト中に上記演奏部材が上記エア楽器を叩いたときのショット発生時刻、ロスト後に再認識できたときの時刻と位置を記録する記録手段を備え、
上記位置推測手段は、
上記記録手段に記録された上記マーカーのロスト前後の時刻と位置との関係から上記ショット発生時刻における上記マーカーの位置を推測することを特徴とする[1]記載の演奏装置。
[2]
Recording means for recording the time and position when the marker is lost, the time when the performance member hits the air instrument during the lost time, the time and position when the marker can be re-recognized after lost,
The position estimating means is
The performance device according to [1], wherein the position of the marker at the shot occurrence time is estimated from the relationship between the time and position before and after the lost of the marker recorded in the recording means.

[3]
上記演奏部材の動きを検出するセンサと、
上記マーカーがロストしたときの時刻と位置、ロスト中に上記演奏部材が上記エア楽器を叩いたときのショット発生時刻を記録すると共に、ロスト中に上記センサによって検出された上記演奏部材の動きを示す計測データを連続的に記録する記録手段とを備え、
上記位置推測手段は、
上記記録手段に記録された上記マーカーのロスト時の時刻と位置を起点にして上記センサの計測データに基づきマーカーの動きを追跡することにより、上記ショット発生時刻における上記マーカーの位置を推測することを特徴とする[1]記載の演奏装置。
[3]
A sensor for detecting the movement of the performance member;
The time and position when the marker is lost, the time when the performance member hits the air musical instrument during the lost time, and the movement of the performance member detected by the sensor during the lost time are recorded. A recording means for continuously recording measurement data;
The position estimating means is
Estimating the position of the marker at the shot occurrence time by tracking the movement of the marker based on the measurement data of the sensor from the time and position at the time of the loss of the marker recorded in the recording means. The performance device according to [1], which is characterized.

[4]
上記楽音発生制御手段は、
上記第2の演奏時に上記第1の演奏時と近接するタイミングで上記マーカーのロストが発生したか否かを判断し、上記第1の演奏時と近接するタイミングで上記マーカーのロストが発生した場合に上記位置推測手段によって推測された上記マーカーの位置に基づいて所定の楽音を発生することを特徴とする[1]乃至[3]のいずれかに記載の演奏装置。
[4]
The musical sound generation control means is
When it is determined whether or not the marker has been lost at a timing close to the first performance during the second performance, and the marker has been lost at a timing close to the first performance The performance device according to any one of [1] to [3], wherein a predetermined musical tone is generated based on the position of the marker estimated by the position estimation means.

[5]
コンピュータによって実行されるエア楽器の演奏方法であって、
演奏者の操作に応じてエア楽器の演奏指示が発せられる、マーカーを有する演奏部材が存在する撮像空間を撮影手段で撮影する撮影ステップと、
第1の演奏中に上記撮影手段で撮影された画像から上記マーカーがロストしたことを検出するロスト検出ステップと、
このロスト検出ステップによって検出された上記マーカーのロスト中に上記演奏者が上記演奏部材で上記エア楽器を叩いたときの上記マーカーの位置を推測する位置推測ステップと、
第2の演奏時に上記マーカーがロストした場合に、上記位置推測ステップによって推測された上記マーカーの位置に基づいて所定の楽音を発生する楽音発生制御ステップと
を備えたことを特徴とする演奏方法。
[5]
An air musical instrument performance method executed by a computer,
An imaging step in which an imaging space in which a performance member having a marker is present, in which an instruction to perform an air musical instrument is issued in response to a player's operation, is captured by an imaging unit;
A lost detection step of detecting that the marker has been lost from an image photographed by the photographing means during the first performance;
A position estimation step for estimating the position of the marker when the player strikes the air musical instrument with the performance member during the lost of the marker detected by the lost detection step;
A musical tone generation control step for generating a predetermined musical tone based on the position of the marker estimated by the position estimation step when the marker is lost during a second performance.

[6]
コンピュータによって実行されるエア楽器の演奏制御用のプログラムであって、
上記コンピュータを、
演奏者の操作に応じてエア楽器の演奏指示が発せられる、マーカーを有する演奏部材が存在する撮像空間を撮影する撮影手段、
第1の演奏中に上記撮影手段によって撮影された画像から上記マーカーがロストしたことを検出するロスト検出手段、
このロスト検出手段によって検出された上記マーカーのロスト中に上記演奏者が上記演奏部材で上記エア楽器を叩いたときの上記マーカーの位置を推測する位置推測手段、
第2の演奏時に上記マーカーがロストした場合に、上記位置推測手段によって推測された上記マーカーの位置に基づいて所定の楽音を発生する楽音発生制御手段
として機能させるためのコンピュータ読み取り可能なプログラム。
[6]
A program for performance control of an air musical instrument executed by a computer,
The computer
An imaging means for imaging an imaging space where a performance member having a marker is present, in which a performance instruction of an air musical instrument is issued in response to a player's operation,
Lost detection means for detecting that the marker has been lost from an image photographed by the photographing means during the first performance;
Position estimation means for estimating the position of the marker when the player strikes the air musical instrument with the performance member during the lost of the marker detected by the lost detection means;
A computer-readable program for functioning as a tone generation control means for generating a predetermined tone based on the position of the marker estimated by the position estimation means when the marker is lost during a second performance.

1…演奏装置、10…スティック部、11…CPU、12…ROM、12a…プログラム、12b…マーカー特徴情報、13…RAM、14…モーションセンサ部、15…マーカー部、16…データ通信部、17…操作ボタン、18…バイブレータ機能、20…カメラユニット部、20a…撮影レンズ、20b…撮影範囲、21…CPU、22…ROM、22a…プログラム、23…RAM、24…マーカー検出部、25…データ通信部、26,27…ランプ、30…センターユニット、31…CPU、31a…ロスト検出機能、31b…位置推測機能、31c…楽音発生制御機能、32…ROM、32a…プログラム、32b…波形テーブル、33…RAM、33a…第1のロスト管理テーブル、33b…第2のロスト管理テーブル、34…スイッチ操作検出回路、341…スイッチ、35…表示回路、351…表示装置、36…音源装置、37…データ通信部、40…モニタ部。   DESCRIPTION OF SYMBOLS 1 ... Performance apparatus, 10 ... Stick part, 11 ... CPU, 12 ... ROM, 12a ... Program, 12b ... Marker characteristic information, 13 ... RAM, 14 ... Motion sensor part, 15 ... Marker part, 16 ... Data communication part, 17 Operation buttons, 18 Vibrator function, 20 Camera unit, 20a Shooting lens, 20b Shooting range, 21 CPU, 22 ROM, 22a Program, 23 RAM, 24 Marker detection unit, 25 Data Communication unit 26, 27 ... lamp, 30 ... center unit, 31 ... CPU, 31a ... lost detection function, 31b ... position estimation function, 31c ... musical sound generation control function, 32 ... ROM, 32a ... program, 32b ... waveform table, 33 ... RAM, 33a ... first lost management table, 33b ... second lost management table, 34 Switch operation detecting circuit, 341 ... switch, 35 ... display circuit, 351 ... display, 36 ... sound source device, 37 ... communication unit, 40 ... monitor.

Claims (6)

演奏者の操作に応じてエア楽器の演奏指示が発せられる、マーカーを有する演奏部材と、
上記演奏部材が存在する撮像空間を撮影する撮影手段と、
第1の演奏中及び上記第1の演奏と同じ演奏動作の第2の演奏中に上記撮影手段によって撮影された画像から上記マーカーがロストしたことを検出するロスト検出手段と、
上記第1の演奏時にこのロスト検出手段によって検出された上記マーカーのロスト中に上記演奏者が上記演奏部材で上記エア楽器を叩いたときの上記マーカーの位置を推測する位置推測手段と、
上記第1の演奏中に上記位置推測手段による上記マーカーの位置の推測後であって且つ上記第2の演奏時に上記マーカーがロストした場合に、上記第2の演奏時にロストした上記マーカーの位置に対応する、上記第1の演奏中に上記位置推測手段によって推測された上記マーカーの位置に基づいて所定の楽音を発生する楽音発生制御手段と
を具備したことを特徴とする演奏装置。
A performance member having a marker, in which a performance instruction of an air musical instrument is issued in accordance with a player's operation;
Photographing means for photographing an imaging space in which the performance member exists;
Lost detection means for detecting that the marker has been lost from images photographed by the photographing means during a first performance and a second performance having the same performance as the first performance ;
Position estimation means for estimating the position of the marker when the player strikes the air musical instrument with the performance member during the lost of the marker detected by the lost detection means during the first performance ;
If you lost the said marker and when the second performance even after estimation of the position of the marker by the position estimating means during the first play, the location of the markers lost during the second performance And a corresponding musical tone generation control means for generating a predetermined musical tone based on the position of the marker estimated by the position estimating means during the first performance.
上記マーカーがロストしたときの時刻と位置、ロスト中に上記演奏部材が上記エア楽器を叩いたときのショット発生時刻、ロスト後に再認識できたときの時刻と位置を記録する記録手段を備え、
上記位置推測手段は、
上記記録手段に記録された上記マーカーのロスト前後の時刻と位置との関係から上記ショット発生時刻における上記マーカーの位置を推測することを特徴とする請求項1記載の演奏装置。
Recording means for recording the time and position when the marker is lost, the time when the performance member hits the air instrument during the lost time, the time and position when the marker can be re-recognized after lost,
The position estimating means is
2. The performance apparatus according to claim 1, wherein the position of the marker at the shot occurrence time is estimated from the relationship between the time before and after the lost of the marker recorded in the recording means and the position.
上記演奏部材の動きを検出するセンサと、
上記マーカーがロストしたときの時刻と位置、ロスト中に上記演奏部材が上記エア楽器を叩いたときのショット発生時刻を記録すると共に、ロスト中に上記センサによって検出上記演奏部材の動きを示す計測データを連続的に記録する記録手段とを備え、
上記位置推測手段は、
上記記録手段に記録された上記マーカーのロスト時の時刻と位置を起点にして上記センサの計測データに基づきマーカーの動きを追跡することにより、上記ショット発生時刻における上記マーカーの位置を推測することを特徴とする請求項1記載の演奏装置。
A sensor for detecting the movement of the performance member;
Measurement data indicating the time and position when the marker is lost, the time when the performance member hits the air instrument during the loss, and the movement of the performance member detected by the sensor during the loss Recording means for continuously recording
The position estimating means is
Estimating the position of the marker at the shot occurrence time by tracking the movement of the marker based on the measurement data of the sensor from the time and position at the time of the loss of the marker recorded in the recording means. The performance device according to claim 1, wherein:
上記楽音発生制御手段は、
上記第2の演奏時に上記第1の演奏時と近接するタイミングで上記マーカーのロストが発生したか否かを判断し、上記第1の演奏時と近接するタイミングで上記マーカーのロストが発生した場合に上記位置推測手段によって推測された上記マーカーの位置に基づいて所定の楽音を発生することを特徴とする請求項1乃至3のいずれかに記載の演奏装置。
The musical sound generation control means is
When it is determined whether or not the marker has been lost at a timing close to the first performance during the second performance, and the marker has been lost at a timing close to the first performance 4. The performance apparatus according to claim 1, wherein a predetermined musical tone is generated based on the position of the marker estimated by the position estimating means.
コンピュータによって実行されるエア楽器の演奏方法であって、
演奏者の操作に応じてエア楽器の演奏指示が発せられる、マーカーを有する演奏部材が存在する撮像空間を撮影手段で撮影する撮影ステップと、
第1の演奏中及び上記第1の演奏と同じ演奏動作の第2の演奏中に上記撮影手段で撮影された画像から上記マーカーがロストしたことを検出するロスト検出ステップと、
上記第1の演奏時にこのロスト検出ステップによって検出された上記マーカーのロスト中に上記演奏者が上記演奏部材で上記エア楽器を叩いたときの上記マーカーの位置を推測する位置推測ステップと、
上記第1の演奏中に上記位置推測ステップによる上記マーカーの位置の推測後であって且つ上記第2の演奏時に上記マーカーがロストした場合に、上記第2の演奏時にロストした上記マーカーの位置に対応する、上記第1の演奏中に上記位置推測ステップによって推測された上記マーカーの位置に基づいて所定の楽音を発生する楽音発生制御ステップと
を備えたことを特徴とする演奏方法。
An air musical instrument performance method executed by a computer,
An imaging step in which an imaging space in which a performance member having a marker is present, in which an instruction to perform an air musical instrument is issued in response to a player's operation, is captured by an imaging unit;
A lost detection step of detecting that the marker has been lost from images photographed by the photographing means during the first performance and during the second performance of the same performance as the first performance ;
A position estimation step of estimating the position of the marker when the player strikes the air musical instrument with the performance member during the lost of the marker detected by the lost detection step during the first performance ;
If the marker is lost during the second performance after the position is estimated during the first performance and the marker is lost during the second performance, the position of the marker lost during the second performance And a corresponding musical tone generation control step for generating a predetermined musical tone based on the position of the marker estimated by the position estimation step during the first performance.
コンピュータによって実行されるエア楽器の演奏制御用のプログラムであって、
上記コンピュータを、
演奏者の操作に応じてエア楽器の演奏指示が発せられる、マーカーを有する演奏部材が存在する撮像空間を撮影する撮影手段、
第1の演奏中及び上記第1の演奏と同じ演奏動作の第2の演奏中に上記撮影手段によって撮影された画像から上記マーカーがロストしたことを検出するロスト検出手段、
上記第1の演奏時にこのロスト検出手段によって検出された上記マーカーのロスト中に上記演奏者が上記演奏部材で上記エア楽器を叩いたときの上記マーカーの位置を推測する位置推測手段、
上記第1の演奏中に上記位置推測手段による上記マーカーの位置の推測後であって且つ上記第2の演奏時に上記マーカーがロストした場合に、上記第2の演奏時にロストした上記マーカーの位置に対応する、上記第1の演奏中に上記位置推測手段によって推測された上記マーカーの位置に基づいて所定の楽音を発生する楽音発生制御手段
として機能させるためのコンピュータ読み取り可能なプログラム。
A program for performance control of an air musical instrument executed by a computer,
The computer
An imaging means for imaging an imaging space where a performance member having a marker is present, in which a performance instruction of an air musical instrument is issued in response to a player's operation,
Lost detection means for detecting that the marker has been lost from images photographed by the photographing means during the first performance and during the second performance of the same performance as the first performance ;
Position estimation means for estimating the position of the marker when the player strikes the air musical instrument with the performance member during the lost of the marker detected by the lost detection means during the first performance ;
If you lost the said marker and when the second performance even after estimation of the position of the marker by the position estimating means during the first play, the location of the markers lost during the second performance A computer-readable program for functioning as a tone generation control unit that generates a predetermined tone based on the position of the marker estimated by the position estimation unit during the first performance .
JP2012206650A 2012-09-20 2012-09-20 Performance device, performance method and program Active JP6098083B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012206650A JP6098083B2 (en) 2012-09-20 2012-09-20 Performance device, performance method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012206650A JP6098083B2 (en) 2012-09-20 2012-09-20 Performance device, performance method and program

Publications (2)

Publication Number Publication Date
JP2014062949A JP2014062949A (en) 2014-04-10
JP6098083B2 true JP6098083B2 (en) 2017-03-22

Family

ID=50618276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012206650A Active JP6098083B2 (en) 2012-09-20 2012-09-20 Performance device, performance method and program

Country Status (1)

Country Link
JP (1) JP6098083B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017195343A1 (en) * 2016-05-13 2017-11-16 株式会社阪神メタリックス Musical sound generation system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3599115B2 (en) * 1993-04-09 2004-12-08 カシオ計算機株式会社 Musical instrument game device
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system

Also Published As

Publication number Publication date
JP2014062949A (en) 2014-04-10

Similar Documents

Publication Publication Date Title
JP5966465B2 (en) Performance device, program, and performance method
JP5533915B2 (en) Proficiency determination device, proficiency determination method and program
US9018510B2 (en) Musical instrument, method and recording medium
JP6127367B2 (en) Performance device and program
US8723013B2 (en) Musical performance device, method for controlling musical performance device and program storage medium
JP5573899B2 (en) Performance equipment
CN103310770B (en) The control method of music performance apparatus and music performance apparatus
JP2013182195A (en) Musical performance device and program
US9514729B2 (en) Musical instrument, method and recording medium capable of modifying virtual instrument layout information
JP6098083B2 (en) Performance device, performance method and program
JP6094111B2 (en) Performance device, performance method and program
JP6111526B2 (en) Music generator
JP6098081B2 (en) Performance device, performance method and program
JP6098082B2 (en) Performance device, performance method and program
JP5861517B2 (en) Performance device and program
JP5974567B2 (en) Music generator
KR100490235B1 (en) Percussion instrument using light-tipped stick and camera
JP2013195626A (en) Musical sound generating device
JP5935399B2 (en) Music generator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170206

R150 Certificate of patent or registration of utility model

Ref document number: 6098083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150