JP5935399B2 - Music generator - Google Patents

Music generator Download PDF

Info

Publication number
JP5935399B2
JP5935399B2 JP2012048489A JP2012048489A JP5935399B2 JP 5935399 B2 JP5935399 B2 JP 5935399B2 JP 2012048489 A JP2012048489 A JP 2012048489A JP 2012048489 A JP2012048489 A JP 2012048489A JP 5935399 B2 JP5935399 B2 JP 5935399B2
Authority
JP
Japan
Prior art keywords
unit
performance
stick
roll
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012048489A
Other languages
Japanese (ja)
Other versions
JP2013186136A (en
Inventor
山内 労雄
労雄 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012048489A priority Critical patent/JP5935399B2/en
Publication of JP2013186136A publication Critical patent/JP2013186136A/en
Application granted granted Critical
Publication of JP5935399B2 publication Critical patent/JP5935399B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、楽音発生装置に関するものである。   The present invention relates to a musical sound generator.

従来、演奏者(ユーザ)の演奏動作を検知すると、演奏動作に応じた電子音(楽音)を発音する楽音発生装置(演奏装置)が提案されている。例えば、演奏者が打楽器のスティックに相当する棒状の部材を振る動作を行うと、それに応じて打楽器音を発音する装置(エアドラム)が知られており(例えば、特許文献1及び特許文献2参照)、このような装置では、棒状の部材にセンサを設け、演奏者がこの部材を手で保持して振ると、センサがその動作を検知し、この検知結果に応じた打楽器音を発音させるように構成されている。
例えば打楽器等の現実の楽器は、重量も重く、設置に広いスペースを要することから、自宅等で手軽に演奏や練習を行うことが難しい。
この点、演奏者の演奏動作を検知して、これに応じた楽音を発生させる楽音発生装置によれば、現実の楽器を必要とせずに当該楽器の楽音を発音させることができるため、演奏場所や演奏スペースに制約を受けずに手軽に演奏を楽しむことができる。
2. Description of the Related Art Conventionally, a musical sound generating device (performance device) has been proposed that generates an electronic sound (musical sound) corresponding to a performance operation when a performance operation of a performer (user) is detected. For example, a device (air drum) that emits a percussion instrument sound when a performer performs an operation of swinging a rod-like member corresponding to a stick of a percussion instrument is known (see, for example, Patent Document 1 and Patent Document 2). In such a device, a sensor is provided on a rod-shaped member, and when a player holds and shakes the member by hand, the sensor detects the operation and generates a percussion instrument sound corresponding to the detection result. It is configured.
For example, an actual musical instrument such as a percussion instrument is heavy and requires a large space for installation, so that it is difficult to easily perform and practice at home.
In this regard, according to the musical sound generating device that detects the musical performance of the performer and generates a musical sound according to the musical performance, the musical sound of the musical instrument can be generated without the need for an actual musical instrument. You can enjoy playing easily without any restrictions on the performance space.

特開昭63−191195号公報JP-A-63-191195 特開2011−252994号公報JP 2011-252994 A

ところで、打楽器であるドラムの演奏手法の1つとして、ドラムの打面を連打することによって持続音を出す「ロール奏法」(ドラムロール奏法)と呼ばれる奏法がある。このロール奏法による演奏では、通常1回の手の振り動作において、その反動を利用して「タ・タ」と2つの音を出すようになっており、これを左右交互に繰り返すことにより、打面を細かく連打して持続音を出すことができる。
このようなロール奏法は、雰囲気を盛り上げる際等に一般的に用いられる奏法であり、ドラム演奏の醍醐味の1つでもある。
By the way, as one of the performance methods of the drum which is a percussion instrument, there is a performance method called “roll performance method” (drum roll performance method) which produces a continuous sound by repeatedly hitting the drum hitting surface. In the performance by the roll performance method, usually, one swinging motion of a hand is used to produce two sounds, “ta-ta”, by using the reaction, and by repeating this alternately left and right, a strike is made. A continuous sound can be produced by repeatedly striking the surface.
Such a roll performance method is a performance method that is generally used for raising the atmosphere, and is also one of the best aspects of drum performance.

しかしながら、特許文献1及び特許文献2等に記載の電子音を発音する楽音発生装置においては、現実の打楽器と異なり、実際に楽器の打面を叩くわけではないため、叩いた後にスティックが跳ね上がってくる反動がない。このため、反動を利用して細かく速い連打を行い持続音を発音させるロール奏法を行うことは不可能であり、ドラム演奏の醍醐味に欠けるという問題があった。   However, in the musical sound generating device that generates the electronic sound described in Patent Document 1 and Patent Document 2 and the like, unlike the actual percussion instrument, the actual hitting surface of the instrument is not actually hit. There is no recoil. For this reason, it is impossible to perform a roll performance method in which repetitive hits are made to produce a continuous sound in a fine and fast manner, and there is a problem that the real pleasure of drum performance is lacking.

本発明は以上のような事情に鑑みてなされたものであり、反動を利用できない空中における演奏においても、あたかも演奏者がロール奏法による演奏を行っているかのような発音を行わせることのできる楽音発生装置を提供することを目的とするものである。   The present invention has been made in view of the circumstances as described above, and even in the performance in the air where the reaction cannot be used, the musical sound that can make the player sound as if performing the performance by the roll technique. The object is to provide a generator.

前記課題を解決するために、本発明の楽音発生装置は、
演奏者が保持可能な打撃用の演奏操作子と、
前記演奏者の打撃演奏操作によって生じる前記演奏操作子本体の動きを検知する動き検知手段と、
前記動き検知手段により検知される前記演奏操作子の上下方向の動きにより発生する加速度の極大値及び極小値が予め定めた範囲内である場合であって、かつ、前記動き検知手段によって検知された前記演奏操作子の操作により発生する加速度の極大値及び極小値との間の時間が予め定めた範囲内である場合にロール奏法であると判断する奏法判断手段と、
前記奏法判断手段によりロール奏法と判断された場合、前記動き検出手段により検知された動きに基づいて決定されるタイミングにて、ロール奏法用楽音の発音を発音手段に指示する発音指示手段と、
を備えていることを特徴としている。
In order to solve the above-described problem, the musical sound generating device of the present invention includes:
A performance operator for striking that the performer can hold,
Movement detecting means for detecting movement of the performance operator main body caused by the player's batting performance operation;
The maximum value and the minimum value of the acceleration generated by the vertical movement of the performance operator detected by the motion detection unit are within a predetermined range, and are detected by the motion detection unit. Rendition style determination means for determining that it is a roll rendition when the time between the maximum and minimum values of acceleration generated by the operation of the performance operator is within a predetermined range ;
A sounding instruction means for instructing the sounding means to pronounce a musical sound for roll performance at a timing determined based on the movement detected by the motion detecting means when the rendition style determining means determines that it is a roll performance;
It is characterized by having.

本発明によれば、反動を利用できない空中における演奏においても、あたかも演奏者がロール奏法で演奏を行っているかのような発音を行わせることができる。これにより、演奏表現の幅が広がり、演奏の醍醐味を十分に味わうことができるとの効果を奏する。   According to the present invention, even in the performance in the air where the reaction cannot be used, it is possible to make a sound as if the performer is performing by a roll performance. As a result, the range of performance expressions is widened, and the effect of being able to fully enjoy the pleasure of the performance is achieved.

(A)は、本発明に係る楽音発生装置の一実施形態の概要を示す図であり、(B)は、本実施形態における仮想のドラムセットを示した図である。(A) is a figure which shows the outline | summary of one Embodiment of the musical sound generator based on this invention, (B) is the figure which showed the virtual drum set in this embodiment. 図1に示すスティック部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the stick part shown in FIG. 図1に示すスティック部の斜視図である。It is a perspective view of the stick part shown in FIG. 図1に示すカメラユニット部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the camera unit part shown in FIG. 図1に示すセンターユニット部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the center unit part shown in FIG. モーションセンサ部の垂直方向の加速度の変化を表わした図である。It is a figure showing the change of the acceleration of the vertical direction of a motion sensor part. モーションセンサ部の垂直方向の加速度の変化を表わした図であり、ロール奏法でない場合の一例を示している。It is a figure showing the change of the acceleration of the vertical direction of a motion sensor part, and shows an example when it is not a roll performance method. モーションセンサ部の垂直方向の加速度の変化を表わした図であり、ロール奏法を開始する場合の一例を示している。It is a figure showing the change of the acceleration of the vertical direction of a motion sensor part, and shows an example in the case of starting a roll performance method. モーションセンサ部の垂直方向の加速度の変化を表わした図であり、ロール奏法を終了する場合の一例を示している。It is a figure showing the change of the acceleration of the vertical direction of a motion sensor part, and has shown an example in the case of complete | finishing a roll performance method. モーションセンサ部の垂直方向の加速度の変化を表わした図であり、ロール奏法を終了する場合の一例を示している。It is a figure showing the change of the acceleration of the vertical direction of a motion sensor part, and has shown an example in the case of complete | finishing a roll performance method. モーションセンサ部の垂直方向の加速度の変化を表わした図であり、ロール奏法を終了する場合の一例を示している。It is a figure showing the change of the acceleration of the vertical direction of a motion sensor part, and has shown an example in the case of complete | finishing a roll performance method. モーションセンサ部の垂直方向の加速度の変化を表わした図であり、ロール奏法を終了する場合の一例を示している。It is a figure showing the change of the acceleration of the vertical direction of a motion sensor part, and has shown an example in the case of complete | finishing a roll performance method. (A)は、ロール奏法を行う場合のモーションセンサ部の垂直方向の加速度の変化を表わした図であり、(B)は、(A)に示すB部分の波形を拡大してノートオンタイミングの一例を示した図である。(A) is the figure showing the change of the acceleration of the vertical direction of the motion sensor part at the time of performing a roll performance, (B) expands the waveform of B section shown in (A), and is a note on timing. It is the figure which showed an example. スティック部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a stick part. カメラユニット部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a camera unit part. センターユニット部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a center unit part. ノートオンタイミングの一変形例を示した図である。It is the figure which showed the modification of note on timing.

以下、本発明の実施形態について、図面を用いて説明する。なお、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているが、本発明の範囲を以下の実施形態及び図示例に限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments described below are given various technically preferable limitations for carrying out the present invention, but the scope of the present invention is not limited to the following embodiments and illustrated examples.

[楽音発生装置の概要]
まず、図1(A)及び図1(B)を参照して、本発明に係る楽音発生装置の一実施形態の概要について説明する。
図1(A)は、本実施形態に係る楽音発生装置の装置構成の概要を示す図である。
図1(A)に示すように、本実施形態の楽音発生装置1は、スティック部10A、10Bと、カメラユニット部20と、センターユニット部30と、を含んで構成されている。なお、本実施形態の楽音発生装置1は、2本のスティックを用いた仮想的なドラム演奏を実現するため、2つのスティック部10A、10Bを備えることとしているが、スティック部の数はこれに限られず、1つとしてもよく、3つ以上としてもよい。なお、以下では、スティック部10A、10Bを区別しない場合には、両者を総称して「スティック部10」と称する。
[Outline of musical tone generator]
First, with reference to FIG. 1 (A) and FIG. 1 (B), the outline | summary of one Embodiment of the musical sound generator based on this invention is demonstrated.
FIG. 1A is a diagram showing an outline of a device configuration of a musical sound generating device according to the present embodiment.
As shown in FIG. 1A, the musical sound generator 1 of the present embodiment is configured to include stick units 10A and 10B, a camera unit unit 20, and a center unit unit 30. In addition, in order to implement | achieve the virtual drum performance using two sticks, the musical tone generator 1 of this embodiment shall be provided with two stick parts 10A and 10B, However, the number of stick parts is this. The number is not limited, and may be one or three or more. Hereinafter, when the stick portions 10A and 10B are not distinguished from each other, they are collectively referred to as “stick portion 10”.

スティック部10は、長手方向に延在する棒状の部材であり、演奏者が保持可能な打撃用の演奏操作子として機能する。すなわち、演奏者は、スティック部10の一端(根元側)を手に持ち、手首等を中心とした振り上げ振り下ろし動作を行うことにより、演奏動作を行う。
このような演奏者の演奏動作を検知するため、この演奏操作子としてのスティック部10には、演奏者の演奏動作に基づくスティック部10(演奏操作子)の動きを検知する動き検知手段が配置されている。本実施形態では、スティック部10の他端(先端側)に、動き検知手段として加速度センサなどの各種センサ(後述のモーションセンサ部14、図2参照)が設けられており、各種センサによって検知された検知結果(例えば各種センサによって取得された生データ等)が、センターユニット部30に送信されるようになっている。
また、スティック部10の先端側には、マーカー部15が設けられており、撮像時にカメラユニット部20がスティック部10の先端を容易に判別可能であるように構成されている。
The stick portion 10 is a rod-like member extending in the longitudinal direction, and functions as a performance operator for striking that can be held by the performer. That is, the performer performs a performance operation by holding one end (base side) of the stick unit 10 and performing a swing-down operation centering on the wrist or the like.
In order to detect such a player's performance operation, the stick unit 10 as the performance operator is provided with motion detection means for detecting the movement of the stick unit 10 (performance operator) based on the player's performance operation. Has been. In the present embodiment, the other end (tip side) of the stick unit 10 is provided with various sensors such as an acceleration sensor (see motion sensor unit 14 to be described later, see FIG. 2) as motion detection means, and is detected by the various sensors. The detection results (for example, raw data acquired by various sensors) are transmitted to the center unit 30.
In addition, a marker unit 15 is provided on the distal end side of the stick unit 10 so that the camera unit unit 20 can easily determine the distal end of the stick unit 10 during imaging.

カメラユニット部20は、スティック部10を保持して演奏動作を行う演奏者の動画を所定のフレームレートで撮像する撮像部24(例えば光学式のカメラ、図4参照)等を備える撮像装置である。   The camera unit 20 is an imaging device that includes an imaging unit 24 (for example, an optical camera, see FIG. 4) that captures a moving image of a performer who performs a performance operation while holding the stick unit 10 at a predetermined frame rate. .

センターユニット部30は、スティック部10から動き検知手段として各種センサ(後述のモーションセンサ部14)によって検知された検知結果を受信すると、この検知結果及び当該検知結果受信時におけるマーカー部15の位置座標データに応じて、所定の楽音を発音手段である発音部36のスピーカ等の音声出力部362から発音させる。
具体的には、センターユニット部30は、その記憶手段であるROM(後述する)等に、カメラユニット部20の撮像空間に対応付けて、図1(B)に示すような仮想のドラムセットDの位置座標データを記憶している。センターユニット部30は、当該仮想のドラムセットDの位置座標データとモーションセンサ部14による検知結果受信時におけるマーカー部15の位置座標データとに基づいて、スティック部10が打撃した楽器を特定し、当該楽器に対応する所定の楽音を発音させる。
以下、本実施形態に係る楽音発生装置1について具体的に説明する。
When the center unit 30 receives detection results detected by various sensors (motion sensor unit 14 described later) from the stick unit 10 as motion detection means, the position coordinates of the marker unit 15 at the time of reception of the detection results and the detection results. In accordance with the data, a predetermined musical sound is generated from the sound output unit 362 such as a speaker of the sound generation unit 36 which is a sound generation means.
Specifically, the center unit unit 30 associates with the imaging space of the camera unit unit 20 in a ROM (to be described later) or the like as its storage means, and a virtual drum set D as shown in FIG. Is stored. Based on the position coordinate data of the virtual drum set D and the position coordinate data of the marker unit 15 when the detection result is received by the motion sensor unit 14, the center unit unit 30 specifies the instrument hit by the stick unit 10, A predetermined musical sound corresponding to the musical instrument is generated.
Hereinafter, the tone generator 1 according to the present embodiment will be specifically described.

[楽音発生装置1の構成]
まず、図2から図5を参照して、本実施形態における楽音発生装置1を構成するスティック部10、カメラユニット部20及びセンターユニット部30の構成について詳細に説明する。
図2は、スティック部10のハードウェア構成を示すブロック図であり、図3は、スティック部10の斜視図であり、図4は、カメラユニット部20のハードウェア構成を示すブロック図であり、図5は、センターユニット部30のハードウェア構成を示すブロック図である。
[Configuration of Musical Sound Generation Device 1]
First, with reference to FIGS. 2 to 5, the configuration of the stick unit 10, the camera unit unit 20, and the center unit unit 30 constituting the musical sound generating device 1 in the present embodiment will be described in detail.
2 is a block diagram illustrating a hardware configuration of the stick unit 10, FIG. 3 is a perspective view of the stick unit 10, and FIG. 4 is a block diagram illustrating a hardware configuration of the camera unit unit 20. FIG. 5 is a block diagram illustrating a hardware configuration of the center unit 30.

[スティック部10の構成]
図2に示すように、スティック部10は、CPU(Central Processing Unit)等で構成されるスティック制御部11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、モーションセンサ部14と、マーカー部15と、データ通信部16と、を含んで構成されている。また、スティック部10は、各部に電源を供給する図示しない電源部を備えている。
[Configuration of Stick Unit 10]
As shown in FIG. 2, the stick unit 10 includes a stick control unit 11 including a CPU (Central Processing Unit), a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, and a motion sensor unit. 14, a marker unit 15, and a data communication unit 16. In addition, the stick unit 10 includes a power supply unit (not shown) that supplies power to each unit.

ROM12は、スティック制御部11の実行する各種処理の処理プログラムを格納している。
また、ROM12は、マーカー部15の発光制御に用いるマーカー特徴情報を格納している。
ここで、マーカー特徴情報とは、同じ撮像空間に複数のマーカー部15が存在している場合に、各マーカー部15(本実施形態では、スティック部10Aの第1マーカーとスティック部10Bの第2マーカー)を区別するための情報であり、例えば、発光時の形状、大きさ、色相、彩度、あるいは輝度に加え、発光時の点滅スピードなどを用いることができる。スティック部10が複数ある場合には、各スティック部10はそれぞれ異なるマーカー特徴情報を有しており、各マーカー特徴情報にしたがった発光制御が行われるようになっている。
The ROM 12 stores processing programs for various processes executed by the stick control unit 11.
The ROM 12 stores marker feature information used for light emission control of the marker unit 15.
Here, the marker feature information refers to each marker unit 15 (in this embodiment, the first marker of the stick unit 10A and the second of the stick unit 10B when there are a plurality of marker units 15 in the same imaging space. For example, in addition to the shape, size, hue, saturation, or luminance during light emission, the blinking speed during light emission can be used. When there are a plurality of stick portions 10, each stick portion 10 has different marker feature information, and light emission control is performed according to each marker feature information.

RAM13は、モーションセンサ部14が出力した各種センサ値等、処理において取得され又は生成された値を格納する。   The RAM 13 stores values acquired or generated in the process, such as various sensor values output by the motion sensor unit 14.

スティック制御部11は、スティック部10全体の制御を実行するものである。
例えば、動き検知手段であるモーションセンサ部14から検知結果としてのセンサ値(以下、これを「モーションセンサデータ」と称する。)が出力されると、このモーションセンサデータを、データ通信部16を介してセンターユニット部30に送信する等、センターユニット部30との間の通信制御を行う。
また、スティック制御部11は、マーカー特徴情報をROM12から読み出し、当該マーカー特徴情報にしたがって、マーカー部15の発光制御を行う。前述のように、複数のスティック部10A,10Bがある場合には、各スティック部10A,10Bはそれぞれ異なるマーカー特徴情報にしたがった発光制御が行われる。これは、カメラユニット部20の撮像部24によって撮像された画像から、スティック部10Aのマーカー部15(第1マーカー)と、スティック部10Bのマーカー部15(第2マーカー)とを区別して検出できるようにするためである。すなわち、スティック部10が複数ある場合に、マーカー部15が同じように発光すると、カメラユニット部20で撮影した際に、各マーカー部15がいずれのスティック部10のものであるか判別できないおそれがある。このため、スティック部10Aのスティック制御部11及びスティック部10Bのスティック制御部11がそれぞれ異なるマーカー特徴情報を読み出し、これにしたがってマーカー部15の発光制御を行うことで、各マーカー部15の発光を異ならせ、両者の区別を容易としている。
なお、スティック制御部11によって行われる制御はこれに限定されず、例えば、センターユニット部30からの指示又はモーションセンサ部14による検知結果であるセンサ値(モーションセンサデータ)等に基づいて、マーカー部15の点灯/消灯等の発光制御を行うようにしてもよい。
The stick control unit 11 executes control of the entire stick unit 10.
For example, when a sensor value (hereinafter referred to as “motion sensor data”) as a detection result is output from the motion sensor unit 14 which is a motion detection unit, the motion sensor data is transmitted via the data communication unit 16. Communication control with the center unit unit 30 such as transmission to the center unit unit 30.
The stick control unit 11 reads the marker feature information from the ROM 12 and performs light emission control of the marker unit 15 according to the marker feature information. As described above, when there are a plurality of stick portions 10A and 10B, each stick portion 10A and 10B performs light emission control according to different marker characteristic information. This can be detected by distinguishing the marker unit 15 (first marker) of the stick unit 10A and the marker unit 15 (second marker) of the stick unit 10B from the image captured by the imaging unit 24 of the camera unit unit 20. It is for doing so. That is, when there are a plurality of stick parts 10 and the marker part 15 emits light in the same manner, there is a possibility that it is not possible to determine which stick part 10 each marker part 15 belongs to when shooting with the camera unit part 20. is there. For this reason, the stick control unit 11 of the stick unit 10A and the stick control unit 11 of the stick unit 10B read different marker feature information, and perform light emission control of the marker unit 15 according to the read marker feature information, thereby causing each marker unit 15 to emit light. It is easy to distinguish between the two.
The control performed by the stick control unit 11 is not limited to this. For example, the marker unit is based on an instruction from the center unit unit 30 or a sensor value (motion sensor data) that is a detection result by the motion sensor unit 14. You may make it perform light emission control, such as 15 lighting / extinguishing.

モーションセンサ部14は、スティック部10の状態を検知するための各種センサであり、演奏操作子であるスティック部10に配置され、演奏者の打撃演奏操作によって生じるスティック部10(演奏操作子)本体の動きを検知する動き検知手段として機能する。モーションセンサ部14は、検知結果として所定のセンサ値(モーションセンサデータ)を出力する。モーションセンサ部14によって検知された検知結果(モーションセンサデータ)は、データ通信部16を介してセンターユニット部30に送信される。
ここで、モーションセンサ部14を構成するセンサとしては、例えば、加速度センサ、角速度センサ及び磁気センサ等を用いることができる。
The motion sensor unit 14 is a variety of sensors for detecting the state of the stick unit 10. The motion sensor unit 14 is disposed on the stick unit 10 which is a performance operator, and the stick unit 10 (performance operator) body generated by the player's batting performance operation. It functions as a motion detection means for detecting the motion of the. The motion sensor unit 14 outputs a predetermined sensor value (motion sensor data) as a detection result. A detection result (motion sensor data) detected by the motion sensor unit 14 is transmitted to the center unit unit 30 via the data communication unit 16.
Here, as a sensor which comprises the motion sensor part 14, an acceleration sensor, an angular velocity sensor, a magnetic sensor, etc. can be used, for example.

加速度センサとしては、X軸、Y軸、Z軸の3つの軸方向のそれぞれに生じた加速度を出力する3軸センサを用いることができる。なお、X軸、Y軸、Z軸については、図3に示すように、スティック部10の長手方向の軸と一致する軸をY軸とし、加速度センサが配置された基板(図示せず)と平行で、かつ、Y軸と直交する軸をX軸とし、X軸及びY軸と直交する軸をZ軸とすることができる。加速度センサは、X軸、Y軸、Z軸のそれぞれの成分の加速度を取得するとともに、それぞれの加速度を合成したセンサ合成値を算出することとしてもよい。
本実施形態において、楽音発生装置1を用いて演奏を行う場合、演奏者は、スティック部10の一端(根元側)を保持し、手首などを中心としてスティック部10の他端(先端側)を上下動させる振り上げ振り下ろし動作を行うことで、スティック部10に対して回転運動を生じさせる。ここで、スティック部10が静止している場合には、加速度センサは、センサ合成値として重力加速度1Gに相当する値を算出し、スティック部10が回転運動をしている場合には、加速度センサは、センサ合成値として重力加速度1Gよりも大きな値を算出する。なお、センサ合成値は、例えば、X軸、Y軸、Z軸の成分の加速度のそれぞれの2乗の総和の平方根を算出することで得られる。
As the acceleration sensor, a three-axis sensor that outputs acceleration generated in each of the three axial directions of the X axis, the Y axis, and the Z axis can be used. For the X axis, Y axis, and Z axis, as shown in FIG. 3, the axis that coincides with the longitudinal axis of the stick 10 is defined as the Y axis, and a substrate (not shown) on which an acceleration sensor is arranged. An axis that is parallel and orthogonal to the Y-axis can be an X-axis, and an axis that is orthogonal to the X-axis and the Y-axis can be a Z-axis. The acceleration sensor may acquire the acceleration of each component of the X axis, the Y axis, and the Z axis, and may calculate a sensor composite value obtained by combining the respective accelerations.
In the present embodiment, when performing using the musical tone generator 1, the performer holds one end (the base side) of the stick unit 10 and the other end (the tip side) of the stick unit 10 around the wrist or the like. By performing a swing-up and swing-down operation that moves up and down, the stick unit 10 is caused to rotate. Here, when the stick unit 10 is stationary, the acceleration sensor calculates a value corresponding to the gravitational acceleration 1G as a sensor composite value, and when the stick unit 10 is rotating, the acceleration sensor. Calculates a value larger than the gravitational acceleration 1G as a sensor composite value. The sensor composite value is obtained, for example, by calculating the square root of the sum of the squares of the accelerations of the X-axis, Y-axis, and Z-axis components.

また、角速度センサとしては、例えば、ジャイロスコープを備えたセンサを用いることができる。本実施形態において、角速度センサは、図3に示すように、スティック部10のY軸方向の回転角501やスティック部10のX軸方向の回転角511を出力するようになっている。
ここで、Y軸方向の回転角501は、演奏者がスティック部10を持ったとき、演奏者から見た前後軸の回転角であるため、ロール角と称することができる。ロール角は、X−Y平面が、どの程度X軸に対して傾けられたかを示す角度502に対応し、演奏者がスティック部10を手に持って、手首を軸にして左右に回転させることにより生じる。
また、X軸方向の回転角511は、演奏者がスティック部10を持ったとき、演奏者から見た左右軸の回転角であるため、ピッチ角と称することができる。ピッチ角は、X−Y平面が、どの程度Y軸に対して傾けられたかを示す角度512に対応し、演奏者がスティック部10を手に持って、手首を上下方向に振ることにより生じる。
なお、図示は省略しているが、角速度センサは、Z軸方向の回転角も併せて出力することとしてもよい。このとき、Z軸方向の回転角は、基本的にはX軸方向の回転角511と同じ性質を有し、演奏者がスティック部10を手に持って、手首を左右方向に振ることにより生じるピッチ角である。
Moreover, as an angular velocity sensor, the sensor provided with the gyroscope, for example can be used. In the present embodiment, as shown in FIG. 3, the angular velocity sensor outputs a rotation angle 501 of the stick unit 10 in the Y-axis direction and a rotation angle 511 of the stick unit 10 in the X-axis direction.
Here, the rotation angle 501 in the Y-axis direction can be referred to as a roll angle because it is the rotation angle of the front-rear axis viewed from the player when the player holds the stick unit 10. The roll angle corresponds to an angle 502 indicating how much the XY plane is tilted with respect to the X axis, and the player holds the stick unit 10 in his hand and rotates it left and right around the wrist. Caused by.
Further, the rotation angle 511 in the X-axis direction can be referred to as a pitch angle since it is the left-right rotation angle viewed from the player when the player holds the stick unit 10. The pitch angle corresponds to an angle 512 indicating how much the XY plane is tilted with respect to the Y axis, and is generated when the player holds the stick unit 10 in his / her hand and swings his / her wrist up and down.
Although not shown, the angular velocity sensor may also output the rotation angle in the Z-axis direction. At this time, the rotation angle in the Z-axis direction has basically the same property as the rotation angle 511 in the X-axis direction, and is generated when the player holds the stick unit 10 in his hand and swings his wrist in the left-right direction. The pitch angle.

また、磁気センサとしては、図3に示すX軸、Y軸、Z軸の3軸方向の磁気センサ値を出力可能なセンサを用いることができる。このような磁気センサからは、磁石による北(磁北)を示すベクトルが、X軸方向、Y軸方向、Z軸方向のそれぞれについて出力される。出力される各軸方向の成分は、スティック部10の姿勢(向き)によって異なるため、これらの成分から、スティック制御部11は、スティック部10のロール角やX軸方向及びZ軸方向の回転角を算出することができる。   As the magnetic sensor, a sensor capable of outputting magnetic sensor values in the three-axis directions of the X axis, the Y axis, and the Z axis shown in FIG. 3 can be used. From such a magnetic sensor, a vector indicating north (magnetic north) by a magnet is output in each of the X-axis direction, the Y-axis direction, and the Z-axis direction. Since the components in each axial direction that are output differ depending on the posture (orientation) of the stick unit 10, the stick control unit 11 determines the roll angle of the stick unit 10 and the rotation angles in the X-axis direction and the Z-axis direction from these components. Can be calculated.

ここで、図6を参照しつつ、モーションセンサ部14によって検知される検知結果(モーションセンサデータ)について説明する。なお、ここでは、上記各種センサのうち加速度センサによる検知結果を示す。
演奏者がスティック部10を用いて演奏を行う場合、一般には、現実の楽器(例えば、ドラム)を打つ動作と同様の動作を行う。このような(演奏)動作では、演奏者は、まずスティック部10を振り上げ、それから仮想的な楽器の打面に向かって振り下ろす。そして実際には打面が存在していないため、演奏者は、スティック部10を仮想的な楽器に打ちつける寸前に、スティック部10の動作を止めようとする力を働かせる。
図6は、このようなスティック部10を用いて演奏動作を行った場合のモーションセンサ部14の垂直方向の加速度の変化を表わした図であり、スティック部10からセンターユニット部30に送信されるモーションセンサデータの一例を示すものである。
なお、垂直方向の加速度とは、水平面に対する垂直方向の加速度を意味し、Y軸成分の加速度から分解し算出することとしてもよく、Z軸方向の加速度(ロール角によってはX軸方向の加速度)から分解し算出することとしてもよい。また、図6において、マイナスの加速度は、スティック部10に加わる下向き方向の加速度を示し、プラスの加速度は、スティック部10に加わる上向き方向の加速度を示す。
Here, the detection result (motion sensor data) detected by the motion sensor unit 14 will be described with reference to FIG. Here, a detection result by an acceleration sensor among the various sensors is shown.
When the performer performs using the stick unit 10, generally, the same operation as the operation of hitting an actual musical instrument (for example, drum) is performed. In such a (performance) operation, the performer first swings up the stick unit 10 and then swings it down toward the hitting surface of the virtual instrument. Since the hitting surface does not actually exist, the performer exerts a force to stop the operation of the stick unit 10 immediately before hitting the stick unit 10 against a virtual musical instrument.
FIG. 6 is a diagram showing a change in acceleration in the vertical direction of the motion sensor unit 14 when a performance operation is performed using such a stick unit 10, and is transmitted from the stick unit 10 to the center unit unit 30. It shows an example of motion sensor data.
The vertical acceleration means the acceleration in the vertical direction with respect to the horizontal plane, and may be calculated by decomposing from the acceleration of the Y-axis component. The acceleration in the Z-axis direction (acceleration in the X-axis direction depending on the roll angle) It is good also as decomposing and calculating from. In FIG. 6, a negative acceleration indicates a downward acceleration applied to the stick unit 10, and a positive acceleration indicates an upward acceleration applied to the stick unit 10.

スティック部10が静止している状態(図6中aで示される部分)であっても、スティック部10には重力加速度が加わっているため、重力加速度に逆らう形で静止するスティック部10のモーションセンサ部14は、垂直下向き、つまりマイナス方向の一定の加速度を検出する。なお、スティック部10に加わる加速度が0となるのは、スティック部10が自由落下している状態のときである。
次に、図6中bで示す区間のように、スティック部10が静止している状態において、振り上げ動作に伴い演奏者がスティック部10を持ち上げると、重力加速度に対してより逆らう方向に動作することになるため、スティック部10に加わる加速度はマイナス方向に増加する。その後静止させようとして持ち上げる速度を減少させると、加速度は、マイナス方向からプラスの方向に転換し、振り上げ動作が最高速に到達した時点(図6中のp1参照)での加速度は重力加速度のみ(すなわち、重力加速度1G)になる。
Even when the stick unit 10 is stationary (the portion indicated by a in FIG. 6), since the gravitational acceleration is applied to the stick unit 10, the motion of the stick unit 10 that is stationary against the gravitational acceleration. The sensor unit 14 detects a constant acceleration in the vertically downward direction, that is, in the minus direction. It should be noted that the acceleration applied to the stick unit 10 is zero when the stick unit 10 is in a free fall state.
Next, when the player lifts the stick unit 10 with the swing-up operation in a state where the stick unit 10 is stationary as in the section indicated by b in FIG. 6, the player moves in a direction more counter to gravitational acceleration. As a result, the acceleration applied to the stick portion 10 increases in the negative direction. Then, when the lifting speed is decreased to make it stand still, the acceleration changes from the minus direction to the plus direction, and the acceleration at the time when the swing-up operation reaches the highest speed (see p1 in FIG. 6) is only the gravitational acceleration ( That is, the gravitational acceleration is 1G).

次に、図6中cで示す区間のように、振り上げ動作によりスティック部10が頂点に達すると、演奏者はスティック部10の振り下ろし動作を行う。振り下ろし動作では、スティック部10は、重力加速度に従う方向に動作することになるため、スティック部10に加わる加速度は、重力加速度よりもプラス方向に増加する。その後、振り下ろし動作が最高速に到達すると、スティック部10には、再び重力加速度のみ(すなわち、重力加速度1G)が加わる状態となる(図6中のp2参照)。
この後、図6中dで示す区間のように、再びスティック部10に対して振り上げ動作を行うと、加わる加速度はマイナス方向に増加し、振り上げ動作を静止させようとすると、加わる加速度はマイナス方向からプラス方向に転じる。
演奏動作が続いている間、演奏者によるスティック部10の振り上げ振り下ろし動作にしたがって、図6に示したような加速度の変化が繰り返され、この加速度の変化がモーションセンサ部14によって検知される。
Next, as in the section indicated by c in FIG. 6, when the stick unit 10 reaches the top by the swing-up operation, the performer performs the swing-down operation of the stick unit 10. In the swing-down operation, the stick unit 10 moves in a direction according to the gravitational acceleration, so that the acceleration applied to the stick unit 10 increases in a plus direction with respect to the gravitational acceleration. Thereafter, when the swing-down operation reaches the highest speed, only the gravitational acceleration (that is, the gravitational acceleration 1G) is again applied to the stick portion 10 (see p2 in FIG. 6).
Thereafter, when the swing-up operation is performed again on the stick unit 10 as in the section indicated by d in FIG. 6, the applied acceleration increases in the negative direction, and when the swing-up operation is to be stopped, the applied acceleration is in the negative direction. Turn to the plus direction.
While the performance operation continues, the change in acceleration as shown in FIG. 6 is repeated according to the player's swinging up and down operation of the stick unit 10, and this change in acceleration is detected by the motion sensor unit 14.

図2に戻り、マーカー部15は、スティック部10の先端側に設けられた、例えば、LEDなどの発光体であり、スティック制御部11からの制御に応じて発光及び消灯する。
具体的には、マーカー部15は、スティック制御部11がROM12から読み出したマーカー特徴情報に基づいて発光する。前述のように、スティック部10Aのマーカー特徴情報と、スティック部10Bのマーカー特徴情報とは異なるように設定されている。このため、後述するように、カメラユニット部20は、スティック部10Aのマーカー部(第1マーカー)とスティック部10Bのマーカー部(第2マーカー)とを判別することができ、それぞれの位置座標を、いずれのスティック部10のものかを区別して取得することができる。
Returning to FIG. 2, the marker unit 15 is a light emitter such as an LED provided on the tip side of the stick unit 10, and emits light and extinguishes according to control from the stick control unit 11.
Specifically, the marker unit 15 emits light based on the marker feature information read from the ROM 12 by the stick control unit 11. As described above, the marker feature information of the stick portion 10A and the marker feature information of the stick portion 10B are set to be different. For this reason, as will be described later, the camera unit 20 can distinguish between the marker portion (first marker) of the stick portion 10A and the marker portion (second marker) of the stick portion 10B, and the respective position coordinates are determined. It is possible to distinguish and obtain which stick unit 10 is.

データ通信部16は、少なくともセンターユニット部30との間で所定の無線通信を行う。所定の無線通信は、任意の方法で行うこととしてよく、本実施形態では、赤外線通信によりセンターユニット部30との間での無線通信を行う。なお、データ通信部16は、カメラユニット部20との間で無線通信を行うこととしてもよく、また、スティック部10A及びスティック部10Bとの間で無線通信を行うこととしてもよい。また、データ通信部16による通信方式は無線通信に限定されない。例えばスティック部10とセンターユニット部30等とをケーブルにより接続し、データ通信部16により有線通信を行う構成としてもよい。   The data communication unit 16 performs predetermined wireless communication with at least the center unit unit 30. The predetermined wireless communication may be performed by any method, and in the present embodiment, wireless communication with the center unit unit 30 is performed by infrared communication. Note that the data communication unit 16 may perform wireless communication with the camera unit unit 20, or may perform wireless communication with the stick unit 10A and the stick unit 10B. Further, the communication method by the data communication unit 16 is not limited to wireless communication. For example, the stick unit 10 and the center unit unit 30 may be connected by a cable, and the data communication unit 16 may perform wired communication.

[カメラユニット部20の構成]
次に、図4を参照して、カメラユニット部20の構成について説明する。
カメラユニット部20は、CPU等で構成されるカメラ制御部21と、ROM22と、RAM23と、撮像部24と、データ通信部25と、を含んで構成される。また、カメラユニット部20は、各部に電源を供給する図示しない電源部を備えている。
[Configuration of Camera Unit 20]
Next, the configuration of the camera unit 20 will be described with reference to FIG.
The camera unit unit 20 includes a camera control unit 21 including a CPU, a ROM 22, a RAM 23, an imaging unit 24, and a data communication unit 25. The camera unit unit 20 includes a power supply unit (not shown) that supplies power to each unit.

ROM22は、カメラ制御部21の実行する各種処理の処理プログラムを格納している。
RAM23は、撮像部24により得られたマーカー部15の位置を示すデータ(演奏動作を行う演奏者の画像等)、この位置を示すデータから算出されたスティック部10A、10Bのマーカー部15(第1マーカー及び第2マーカー)のそれぞれの位置座標のデータ等、処理において取得され又は生成された値を格納する。
また、RAM23は、センターユニット部30から送信されるマーカー検出条件情報を格納する。マーカー検出条件情報とは、スティック部10A,10Bのマーカー部15のそれぞれを区別して検出するための条件であり、センターユニット部30の本体制御部31によりマーカー特徴情報から生成されるものである。
The ROM 22 stores processing programs for various processes executed by the camera control unit 21.
The RAM 23 is data indicating the position of the marker unit 15 obtained by the imaging unit 24 (such as an image of a performer performing a performance operation), and the marker unit 15 (first number) of the stick units 10A and 10B calculated from the data indicating the position. The values acquired or generated in the processing, such as the data of the position coordinates of each of the first marker and the second marker, are stored.
The RAM 23 stores marker detection condition information transmitted from the center unit unit 30. The marker detection condition information is a condition for distinguishing and detecting each of the marker portions 15 of the stick portions 10A and 10B, and is generated from the marker feature information by the main body control portion 31 of the center unit portion 30.

カメラ制御部21は、カメラユニット部20全体の制御を実行するものである。
本実施形態では、カメラ制御部21は、例えば、撮像部24により得られたマーカー部15の位置を示すデータ(すなわち、スティック部10を持って演奏動作を行う演奏者の画像等、少なくともマーカー部15を含むスティック部10周辺を撮像した画像のデータ)及びマーカー検出条件情報に基づいて、スティック部10A、10Bのマーカー部15(第1マーカー及び第2マーカー)のそれぞれの位置座標を算出するマーカー位置検出処理を行う。
すなわち、カメラ制御部21は、撮像部24によって得られた画像からスティック部10のマーカー部15を検出して、その空間上の位置座標(撮像空間内におけるスティック部10のマーカー部15の位置座標)を特定する。また、複数のスティック部10A,10Bのマーカー部15が検出された場合には、カメラ制御部21は、RAM23からマーカー検出条件情報を読み出して、各マーカー部15がスティック部10Aのマーカー部15(第1マーカー)であるか、スティック部10Bのマーカー部15(第1マーカー及び第2マーカー)であるかを判別する。
また、カメラ制御部21は、算出されたスティック部10A、10Bのマーカー部15(第1マーカー及び第2マーカー)のそれぞれの位置座標のデータ(すなわち、第1マーカー及び第2マーカーの判別結果を伴う各マーカー部15の位置座標のデータ。以下、これを「マーカー検出位置情報」という。)を、データ通信部25を介してセンターユニット部30に送信する通信制御を行う。
The camera control unit 21 performs control of the entire camera unit unit 20.
In the present embodiment, the camera control unit 21 includes, for example, at least a marker unit such as data indicating the position of the marker unit 15 obtained by the imaging unit 24 (that is, an image of a player performing a performance operation with the stick unit 10). 15 is a marker that calculates the position coordinates of the marker portions 15 (first marker and second marker) of the stick portions 10A and 10B based on the marker detection condition information). Perform position detection processing.
That is, the camera control unit 21 detects the marker unit 15 of the stick unit 10 from the image obtained by the imaging unit 24, and the position coordinates on the space (position coordinates of the marker unit 15 of the stick unit 10 in the imaging space). ). When the marker portions 15 of the plurality of stick portions 10A and 10B are detected, the camera control portion 21 reads the marker detection condition information from the RAM 23, and each marker portion 15 reads the marker portion 15 ( It is determined whether it is the first marker) or the marker portion 15 (first marker and second marker) of the stick portion 10B.
In addition, the camera control unit 21 calculates the position coordinate data (that is, the determination result of the first marker and the second marker) of the calculated marker unit 15 (first marker and second marker) of the stick units 10A and 10B. The associated position coordinate data of each marker unit 15 (hereinafter referred to as “marker detection position information”) is transmitted to the center unit unit 30 via the data communication unit 25.

撮像部24は、例えば、光学式のカメラであり、スティック部10を持って演奏動作を行う演奏者の動画等、少なくともマーカー部15を含むスティック部10周辺を所定のフレームレートで撮像する。
撮像部24により撮像されたフレームごとの撮像データはカメラ制御部21に出力される。なお、カメラユニット部20は、撮像空間内におけるスティック部10のマーカー部15の位置座標を特定することとしているが、マーカー部15の位置座標の特定(すなわち、マーカー位置検出処理、図15参照)については、撮像部24で行うこととしてもよいし、カメラ制御部21が行うこととしてもよい。同様に、撮像した画像内のマーカー部15がいずれのスティック部10A,10Bのマーカー部15(第1マーカー及び第2マーカー)であるかの判別についても、撮像部24において行ってもよいし、カメラ制御部21において行うこととしてもよい。
The image pickup unit 24 is, for example, an optical camera, and picks up an image of the periphery of the stick unit 10 including at least the marker unit 15 such as a moving image of a player who performs a performance operation with the stick unit 10 at a predetermined frame rate.
Imaging data for each frame captured by the imaging unit 24 is output to the camera control unit 21. The camera unit unit 20 specifies the position coordinates of the marker unit 15 of the stick unit 10 in the imaging space, but specifies the position coordinates of the marker unit 15 (that is, marker position detection processing, see FIG. 15). May be performed by the imaging unit 24, or may be performed by the camera control unit 21. Similarly, the imaging unit 24 may determine whether the marker unit 15 in the captured image is the marker unit 15 (first marker and second marker) of which stick unit 10A or 10B. It may be performed in the camera control unit 21.

データ通信部25は、少なくともセンターユニット部30との間で所定の無線通信(例えば、赤外線通信)を行う。本実施形態では、データ通信部25は、センターユニット部30からマーカー検出条件情報を受信する。また、データ通信部25は、マーカー検出位置情報をセンターユニット部30に送信する。
なお、データ通信部16は、スティック部10との間で無線通信を行うこととしてもよい。また、データ通信部25による通信方式は無線通信に限定されない。例えばカメラユニット部20とセンターユニット部30等とをケーブルにより接続し、データ通信部25により有線通信を行う構成としてもよい。
The data communication unit 25 performs predetermined wireless communication (for example, infrared communication) with at least the center unit unit 30. In the present embodiment, the data communication unit 25 receives marker detection condition information from the center unit unit 30. Further, the data communication unit 25 transmits marker detection position information to the center unit unit 30.
Note that the data communication unit 16 may perform wireless communication with the stick unit 10. Further, the communication method by the data communication unit 25 is not limited to wireless communication. For example, the camera unit unit 20 and the center unit unit 30 may be connected by a cable and the data communication unit 25 may perform wired communication.

[センターユニット部30の構成]
次に、図5を参照して、センターユニット部30の構成について説明する。
センターユニット部30は、CPU等で構成される本体制御部31と、ROM32と、RAM33と、スイッチ操作検出回路34と、表示回路35と、発音部36と、データ通信部37と、を含んで構成される。また、センターユニット部30は、各部に電源を供給する図示しない電源部を備えている。
[Configuration of Center Unit 30]
Next, the configuration of the center unit 30 will be described with reference to FIG.
The center unit unit 30 includes a main body control unit 31 including a CPU, a ROM 32, a RAM 33, a switch operation detection circuit 34, a display circuit 35, a sound generation unit 36, and a data communication unit 37. Composed. The center unit 30 includes a power supply unit (not shown) that supplies power to each unit.

ROM32は、本体制御部31の実行する各種処理の処理プログラムを格納している。
また、ROM32は、種々の音色の波形データ(すなわち各楽器の音源データ)を記憶する図示しない音源記憶領域を備えている。この音源記憶領域は、後述する発音部36とともに発音手段を構成するものである。音源記憶領域は、例えば、バスドラム、ハイハット、スネア、シンバル、タムなど本実施形態において想定される仮想のドラムセットD(図1(B)参照)を構成する打楽器の波形データを、各楽器の空間上の位置座標等と対応付けて格納している。なお、ROM32の音源記憶領域に格納されている音色の波形データは、これら打楽器に限定されず、例えばフルート、サックス、トランペットなどの管楽器、ピアノなどの鍵盤楽器、ギターなどの弦楽器の音色の波形データがROM32に格納されていてもよい。
また、本実施形態では、ROM32の音源記憶領域は、ロール奏法(以下「ドラムロール奏法」ともいう。)による演奏を行う際の楽音を構成する単音のロール波形を記憶する記憶手段として機能する。本実施形態において、ROM32の音源記憶領域に記憶されている単音のロール波形は、通常演奏の際の打音とは異なるドラムロール奏法による演奏時の打音(ドラムロール音)をサンプリングしたものである。なお、単音のロール波形は、ドラムロール奏法による演奏時の打音をサンプリングしたものに限定されず、通常の奏法による演奏時の打音(例えば通常奏法による演奏時のスネアドラム等の打音)をサンプリングしたものであってもよいが、ドラムロール音をサンプリングして用いた方が、よりドラムロール奏法による演奏らしい発音を実現できるため好ましい。
The ROM 32 stores processing programs for various processes executed by the main body control unit 31.
The ROM 32 includes a sound source storage area (not shown) that stores waveform data of various timbres (that is, sound source data of each musical instrument). This sound source storage area constitutes sound generation means together with a sound generation unit 36 described later. The sound source storage area stores, for example, waveform data of percussion instruments constituting a virtual drum set D (see FIG. 1B) assumed in this embodiment, such as bass drum, hi-hat, snare, cymbal, and tom, for each instrument. It is stored in association with position coordinates in space. The timbre waveform data stored in the sound source storage area of the ROM 32 is not limited to these percussion instruments. For example, timbre waveform data of wind instruments such as flutes, saxophones, and trumpets, keyboard instruments such as pianos, and stringed instruments such as guitars. May be stored in the ROM 32.
In the present embodiment, the sound source storage area of the ROM 32 functions as a storage unit that stores a roll waveform of a single tone that constitutes a musical tone when performing by a roll performance method (hereinafter also referred to as “drum roll performance method”). In the present embodiment, the single-tone roll waveform stored in the sound source storage area of the ROM 32 is obtained by sampling the hitting sound (drum roll sound) at the time of performance by the drum roll playing method different from the hitting sound at the time of normal performance. is there. Note that the single-tone roll waveform is not limited to the sampled percussion sound during the performance by the drum roll performance method, but is the percussion sound during the performance by the normal performance method (for example, the percussion sound of the snare drum during the performance by the normal performance method). However, it is preferable to sample and use the drum roll sound because it is possible to realize a sound like a performance by the drum roll playing method.

RAM33は、スティック部10から受信したスティック部10の状態に関する情報、すなわち、スティック部10の動き検知手段であるモーションセンサ部14によって検知されたスティック部10(演奏操作子)の動きに関する検知結果(モーションセンサデータ)等や、カメラユニット部20から受信したスティック部10A、10Bのマーカー部15(第1マーカー及び第2マーカー)のそれぞれの位置座標のデータ(第1マーカー検出位置情報及び第2マーカー検出位置情報)等を格納する。
また、RAM33は、スティック部10A,10Bから送信されたスティック部10Aのマーカー部15(第1マーカー)、スティック部10Bのマーカー部15(第1マーカー及び第2マーカー)のそれぞれのマーカー特徴情報を格納している。
The RAM 33 receives information related to the state of the stick unit 10 received from the stick unit 10, that is, a detection result regarding the movement of the stick unit 10 (performance operator) detected by the motion sensor unit 14 that is a motion detection unit of the stick unit 10. Motion sensor data) and the position coordinate data (first marker detection position information and second marker) of the marker unit 15 (first marker and second marker) of the stick units 10A and 10B received from the camera unit unit 20 Detection position information) and the like are stored.
Further, the RAM 33 stores the marker feature information of the marker unit 15 (first marker) of the stick unit 10A and the marker unit 15 (first marker and second marker) of the stick unit 10B transmitted from the stick units 10A and 10B. Storing.

本体制御部31は、センターユニット部30全体の制御を実行するものである。
本実施形態では、本体制御部31は、機能的に見た場合、奏法判断部311、発音制御部312等を備えている。これら奏法判断部311、発音制御部312等としての機能は、CPUとROM32等に記憶されたプログラムとの共働によって実現される。
The main body control unit 31 performs control of the center unit unit 30 as a whole.
In the present embodiment, the main body control unit 31 includes a rendition style determination unit 311, a sound generation control unit 312, and the like when viewed functionally. The functions as the rendition style determination unit 311, the sound generation control unit 312 and the like are realized by the cooperation of the CPU and a program stored in the ROM 32 or the like.

奏法判断部311は、動き検知手段であるモーションセンサ部14によって検知されたスティック部10(演奏操作子)の動きに基づいて、スティック部10(演奏操作子)を用いた演奏操作形態が、ロール奏法(ドラムロール奏法)であるか否かを判断する奏法判断手段である。
具体的には、各スティック部10(演奏操作子)からモーションセンサ部14によって検知されたスティック部10(演奏操作子)の動きに関する検知結果(モーションセンサデータ)が送信されると、奏法判断部311は、これに基づいて、スティック部10(演奏操作子)を用いた演奏操作形態が、ドラムロール奏法であるか、通常演奏の奏法であるか、すなわち、演奏者による演奏操作形態がドラムロール奏法特有の演奏操作形態となっているか否かを判断する。
ここで、「ロール奏法」(ドラムロール奏法)とは、打楽器であるドラムの演奏手法の1つであり、ドラムの打面を連打することによって持続音を出す奏法である。通常、現実のドラムを用いて演奏する場合には、スティック部を振ってその先端でドラムの打面を叩くと、叩いた後に反動でスティック部が跳ね上がる。ドラムロール奏法は、このようなスティック部の反動を利用して細かく速い連打を行い、持続音を発音させる奏法である。
このため、ドラムロール奏法特有の演奏操作形態とは、スティック部の細かく速い上下動であり、本実施形態では、スティック部10(演奏操作子)が細かく一定のテンポで上下に振り上げられ振り下ろされている場合、すなわち、スティック部10(演奏操作子)の上下方向の動きによる移動量が予め定めた範囲内(第1の条件)であって、スティック部10(演奏操作子)による各打撃演奏操作タイミング間の時間が予め定めた範囲内(第2の条件)である場合に、奏法判断手段である奏法判断部311は、演奏者による奏法がロール奏法(ドラムロール奏法)であると判断する。
Based on the movement of the stick unit 10 (performance operator) detected by the motion sensor unit 14 which is a motion detection means, the performance style determination unit 311 has a performance operation form using the stick unit 10 (performance operator) rolled. This is a performance style determination means for determining whether or not a performance style (drum roll performance style) is used.
Specifically, when a detection result (motion sensor data) relating to the movement of the stick unit 10 (performance operator) detected by the motion sensor unit 14 is transmitted from each stick unit 10 (performance operator), the performance determination unit 311 is based on this, whether the performance operation mode using the stick unit 10 (performance operator) is a drum roll performance method or a normal performance performance mode, that is, the performance operation mode by the performer is drum roll performance. It is determined whether or not the performance operation mode is unique to the performance method.
Here, the “roll performance method” (drum roll performance method) is one of performance methods of a drum that is a percussion instrument, and is a performance method that produces a continuous sound by repeatedly striking the drum surface. Normally, when playing with an actual drum, if the stick part is shaken and the drum hitting surface is hit with the tip, the stick part jumps up by reaction after hitting. The drum roll performance method is a performance method in which a continuous sound is produced by performing quick and fine hitting using the reaction of the stick portion.
Therefore, the performance operation form peculiar to the drum roll playing method is a fine and quick vertical movement of the stick part, and in this embodiment, the stick part 10 (performance operator) is finely swung up and down at a constant tempo. That is, in other words, the amount of movement due to the vertical movement of the stick unit 10 (performance operator) is within a predetermined range (first condition), and each batting performance by the stick unit 10 (performance operator) is performed. When the time between operation timings is within a predetermined range (second condition), the performance style determination unit 311 that is a performance style determination unit determines that the performance style by the performer is a roll performance style (drum roll performance style). .

ここで、スティック部10(演奏操作子)の上下方向の動きによる移動量は、例えばモーションセンサ部14により検知される検知結果において、スティック部10(演奏操作子)の振り上げ振り下ろし動作によって発生する加速度の極大値及び極小値の振幅の幅として現れる(図7参照)。このため、加速度の極大値及び極小値が予め定めた範囲内である場合には、奏法判断部311は、「第1の条件」を満たしていると判断する。なお、第1の条件における「予め定めた範囲」は、通常演奏よりも細かくリズムを刻んでいることを表す値であればよく、適宜設定される。なお、「予め定めた範囲」の数値範囲は演奏者等によって事後的に調整可能となっていてもよい。
また、打撃演奏操作タイミング間の時間とは、スティック部10(演奏操作子)の振り上げ振り下ろし動作が行われるタイミング間の時間である。打撃演奏操作タイミングは、例えばモーションセンサ部14によって検知されたスティック部10(演奏操作子)の動きから求められ、スティック部10(演奏操作子)の振り上げ振り下ろし動作によって発生する加速度の極大値となる時点(以下、これを「極大点」という。)及び極小値となる時点(以下、これを「極小点」という。)として現れる(なお、以下「極大点」と「極小点」とを合わせて「極点」という。)。したがって、打撃演奏操作タイミング間の時間は、隣り合う極点同士の間の時間(極点同士の間隔s)として検出することができ、この極点同士の間隔sが予め定めた範囲内である場合には、奏法判断部311は、「第2の条件」を満たしていると判断する。なお、第2の条件における「予め定めた範囲」は、通常演奏よりも一定したテンポでリズムを刻んでいることを表す値であればよく、例えば極点同士の間隔sが通常奏法による演奏時に比べて20%以下である等、適宜設定される。なお、「予め定めた範囲」の数値範囲は演奏者等によって事後的に調整可能となっていてもよい。
Here, the amount of movement due to the vertical movement of the stick unit 10 (performance operator) is generated by, for example, a swing-down operation of the stick unit 10 (performance operator) in the detection result detected by the motion sensor unit 14. It appears as the width of the amplitude of the maximum and minimum values of acceleration (see FIG. 7). For this reason, when the maximum value and the minimum value of the acceleration are within a predetermined range, the rendition style determination unit 311 determines that the “first condition” is satisfied. The “predetermined range” in the first condition may be a value indicating that the rhythm is finer than the normal performance, and is set as appropriate. It should be noted that the numerical range of “predetermined range” may be adjusted afterwards by a player or the like.
The time between the hitting performance operation timings is the time between the timings at which the stick unit 10 (performance operator) is swung up and down. The hit performance operation timing is obtained from, for example, the movement of the stick unit 10 (performance operator) detected by the motion sensor unit 14, and the maximum value of the acceleration generated by the swing-down operation of the stick unit 10 (performance operator) Appearing as a point in time (hereinafter referred to as “maximum point”) and a point in time at which a minimum value is reached (hereinafter referred to as “minimum point”) (hereinafter, “maximum point” and “minimum point” are combined) "Pole"). Therefore, the time between hitting performance operation timings can be detected as the time between adjacent extreme points (interval s between the extreme points), and when the interval s between the extreme points is within a predetermined range. The rendition style determination unit 311 determines that the “second condition” is satisfied. The “predetermined range” in the second condition may be a value indicating that the rhythm is inscribed at a constant tempo than the normal performance. For example, the interval s between the extreme points is compared with that in the performance by the normal performance method. For example, it is appropriately set such that it is 20% or less. It should be noted that the numerical range of “predetermined range” may be adjusted afterwards by a player or the like.

本実施形態では、奏法判断部311は、ある程度スティック部の細かく速い上下動が続いている場合に、演奏者の奏法がドラムロール奏法であると判断する。どの程度スティック部の細かく速い上下動が続いている場合にドラムロール奏法と判断するかは特に限定されないが、例えば、現在時点の直近の極大値又は極小値を含む直近の過去4つの極大値及び極小値をみた場合に、その全ての極大値及び極小値が「第1の条件」を満たし、これら全ての極大値及び極小値に対応する極点が「第2の条件」を満たしている場合に、奏法判断部311は、演奏者の奏法がドラムロール奏法であると判断する。   In the present embodiment, the performance style determination unit 311 determines that the performance style of the performer is the drum roll performance style when the stick part continues to move up and down finely to some extent. It is not particularly limited how much the stick portion continues to be finely and rapidly moved up and down, but it is not particularly limited. For example, the last four maximum values including the latest maximum value or the minimum value at the current time point and When all local maxima and local minima satisfy the “first condition” and local maxima corresponding to all local maxima and local minima satisfy the “second condition”. The performance style determination unit 311 determines that the performance style of the performer is the drum roll performance style.

すなわち、例えば図7に示す場合には、現在時点の直近の極点(図7では、極小点a)を含む直近の過去4つの極大値及び極小値(図7では、極小点a〜極大点dの値)をみた場合に、極小点a、極大点b、極小点cの値は、全て予め定めた所定の範囲内にあるが、極大点dの値は、予め定めた所定の範囲の外にある。このため、「第1の条件」を満たさず、奏法判断部311は、演奏者の奏法が通常奏法による演奏である(すなわち、ドラムロール奏法でない)と判断する。
これに対して、図8に示す例では、現在時点の直近の極点(図8では、極小点a)を含む直近の過去4つの極大値及び極小値(図8では、極小点a〜極大点dの値)をみた場合に、極小点a〜極大点dの値は、全てが予め定めた所定の範囲内にあり、「第1の条件」を満たす。また、極小点aと極大点bとの間隔s、極大点bと極小点cとの間隔s、極小点cと極大点との間隔sがいずれも短く揃っており、極点同士の間隔sが予め定めた範囲内(例えば通常奏法による演奏時に比べて20%以下等)にあるため、「第2の条件」をも満たす。この場合、奏法判断部311は、演奏者の奏法がドラムロール奏法による演奏であると判断する。
That is, for example, in the case shown in FIG. 7, the last four local maximum values and local minimum values (in FIG. 7, the local minimum point a to the local maximum point d) including the local extreme point (the local minimum point a in FIG. 7). The values of the minimum point a, the maximum point b, and the minimum point c are all within a predetermined range, but the value of the maximum point d is outside the predetermined range. It is in. Therefore, the “first condition” is not satisfied, and the performance style determination unit 311 determines that the performance style of the performer is a performance based on the normal performance style (that is, not the drum roll performance style).
On the other hand, in the example shown in FIG. 8, the last four local maximum values and local minimum values (in FIG. 8, the local minimum point a to the local maximum point) including the local extreme point at present (the local minimum point a in FIG. 8). (value d), the values of the minimum point a to the maximum point d are all within a predetermined range and satisfy the “first condition”. In addition, the distance s between the local minimum point a and the local maximum point b, the distance s between the local maximum point b and the local minimum point c, and the distance s between the local minimum point c and the local maximum point are all short. Since it is within a predetermined range (for example, 20% or less as compared with the performance by the normal performance method), the “second condition” is also satisfied. In this case, the performance style determination unit 311 determines that the performance style of the performer is a performance based on the drum roll performance style.

なお、奏法判断部311は、現在時点の直近の極点を含む直近の過去4つの極大値及び極小値が「第1の条件」「第2の条件」を満たすか否かを常に判断しており、いずれかの条件を満たさなくなったときには、ドラムロール奏法による演奏が終了したと判断する。
すなわち、例えば図9に示す例のように、現在時点において、加速度の振幅が予め定めた範囲の外に出た場合のように「第1の条件」を満たさなくなった場合や、図10に示す例のように、現在時点の直近の極点を含む直近の過去4つの極大値及び極小値(極小点、極大点の値)をみた場合に、隣り合う極点同士の間隔sが予め定めた範囲外となった場合のように「第2の条件」を満たさなくなった場合には、奏法判断部311は、ドラムロール奏法による演奏が終了したと判断する。
The rendition style determination unit 311 always determines whether or not the last four local maximum values and minimum values including the latest extreme point at the current time point satisfy the “first condition” and the “second condition”. When any of the conditions is not satisfied, it is determined that the performance by the drum roll playing method has been completed.
That is, for example, as in the example shown in FIG. 9, when the acceleration amplitude does not satisfy the “first condition” at the current time point, as shown in FIG. As in the example, when the last four local maxima and minima (including the local minima and local maxima) including the nearest extreme point at the present time are seen, the interval s between adjacent extremes is outside the predetermined range. When the “second condition” is no longer satisfied as in the case where the performance has become, the performance style determination unit 311 determines that the performance by the drum roll performance style has ended.

なお、奏法判断部311が、ドラムロール奏法による演奏終了と判断する手法はこれに限定されない。
例えば極大値と極小値との値の差について予め定めた範囲を設け、図11に示す例のように、この極大値と極小値との値の差が、当該予め定めた範囲を超えた場合には、奏法判断部311がドラムロール奏法による演奏を終了すると判断してもよい。
スティック部10の動きをスティック部10に設けられている加速度センサを用いて監視する場合、重力の影響がオフセットの加速度として重畳してくる。このため、上述のように、予め定めた範囲内に極点の値が収まるか否かによって演奏者の奏法を判断する場合には、このオフセット加速度を考慮することが必要となる。この点、図11に示すように、極大値と極小値との値の差(レベル差)や、隣り合う極点同士の値の差(レベル差)の絶対値を検出して、この値が予め定めた値よりも低いか高いかを演奏者の奏法を判断する際の判断条件とする場合には、重力の影響によるオフセットの加速度を考慮する必要がなく、処理が容易となる。
さらに、例えば図12に示す例のように、予め定めた所定の時間内に次の極点を検出できなかった場合には、奏法判断部311がドラムロール奏法による演奏を終了すると判断してもよい。
Note that the method by which the performance style determination unit 311 determines that the performance by the drum roll performance style has ended is not limited to this.
For example, when a predetermined range is provided for the difference between the maximum value and the minimum value, and the difference between the maximum value and the minimum value exceeds the predetermined range, as in the example shown in FIG. Alternatively, the performance style determination unit 311 may determine that the performance by the drum roll performance style is to be ended.
When the movement of the stick unit 10 is monitored using an acceleration sensor provided in the stick unit 10, the influence of gravity is superimposed as an offset acceleration. For this reason, as described above, this offset acceleration needs to be taken into account when determining the player's performance based on whether or not the value of the extreme point falls within a predetermined range. In this regard, as shown in FIG. 11, the absolute value of the difference between the maximum value and the minimum value (level difference) and the difference between the adjacent extreme points (level difference) is detected, and this value is determined in advance. When determining whether the player's playing style is lower or higher than a predetermined value, it is not necessary to consider the offset acceleration due to the influence of gravity, and the processing becomes easy.
Further, as in the example shown in FIG. 12, for example, if the next pole cannot be detected within a predetermined time, the performance style determination unit 311 may determine that the performance by the drum roll performance style is to be ended. .

発音制御部312は、動き検知手段であるモーションセンサ部14によって検知されるスティック部10(演奏操作子)の動きに関する検知結果(モーションセンサデータ)及び奏法判断部311の判断結果に対応して、発音手段である発音部36に対して所定の楽音を発音するように発音指示の信号(ノートオンイベント)を与える発音制御手段である。ここで、ノートオンイベント(発音指示信号)には、ショットタイミング(発音タイミング)、音量、音色(すなわち楽器の種類)等の情報が含まれる。   The sound generation control unit 312 corresponds to the detection result (motion sensor data) related to the movement of the stick unit 10 (performance operator) detected by the motion sensor unit 14 which is a motion detection unit and the determination result of the rendition style determination unit 311. It is a sound generation control means for giving a sound generation instruction signal (note on event) to the sound generation section 36, which is a sound generation means, to generate a predetermined musical tone. Here, the note-on event (sound generation instruction signal) includes information such as shot timing (sound generation timing), volume, tone color (that is, instrument type), and the like.

具体的には、まず、モーションセンサ部14によって検知されたスティック部10(演奏操作子)の動きに関する検知結果(モーションセンサデータ)が各スティック部10(演奏操作子)から送信されると、発音制御部312は、これに基づいて、演奏者が持っているスティック部10の状態(演奏者の演奏状態と換言することもできる)を検知する。例えば、発音制御部312は、磁気センサ等が出力する検知結果に基づいて、どの演奏エリアで操作が行われたか、その操作位置を検知する。また、発音制御部312は、加速度センサが出力する加速度(又はセンサ合成値)に基づいて、スティック部10による仮想的な楽器の打撃タイミング(ショットタイミング)を検知する。   Specifically, first, when a detection result (motion sensor data) relating to the movement of the stick unit 10 (performance operator) detected by the motion sensor unit 14 is transmitted from each stick unit 10 (performance operator), the sound is generated. Based on this, the control unit 312 detects the state of the stick unit 10 held by the performer (in other words, the performance state of the performer). For example, the sound generation control unit 312 detects in which performance area the operation is performed based on the detection result output by the magnetic sensor or the like. Further, the sound generation control unit 312 detects a virtual instrument hitting timing (shot timing) by the stick unit 10 based on the acceleration (or sensor composite value) output from the acceleration sensor.

ここで、図6を参照しつつ、発音制御部312によるショットタイミングの検出について説明する。
前述のように、図6は、スティック部10を用いて演奏動作を行った場合のモーションセンサ部14の垂直方向の加速度の変化を表わした図である。
演奏者は、仮想的な楽器にスティック部10を打ちつけた瞬間に楽音が発生することを想定しているため、楽音発生装置1においても、演奏者が想定するタイミングで楽音を発生できるのが望ましい。そこで、本実施形態では、奏法判断部311によって演奏者の奏法が通常奏法による演奏であると判断された場合には、演奏者が仮想的な楽器の打面にスティック部を打ちつける瞬間又はそのわずかに手前で楽音を発音させることとしている。
Here, detection of shot timing by the sound generation control unit 312 will be described with reference to FIG.
As described above, FIG. 6 is a diagram illustrating a change in acceleration in the vertical direction of the motion sensor unit 14 when a performance operation is performed using the stick unit 10.
Since the performer assumes that the musical sound is generated at the moment when the stick unit 10 is struck on the virtual musical instrument, it is desirable that the musical sound generating device 1 can generate the musical sound at the timing assumed by the performer. . Therefore, in the present embodiment, when the performance style determination unit 311 determines that the performance style of the performer is a performance based on the normal performance style, a moment when the performer strikes the stick portion on the playing surface of the virtual instrument or a slight amount thereof. The sound is to be pronounced in front.

すなわち、本実施形態においては、センターユニット部30の発音制御部312は、演奏者が仮想的な楽器の打面にスティック部10を打ちつける瞬間として、振り下ろし動作が行われた後、振り上げ動作が開始された瞬間を検出する。つまり、発音制御部312は、図6中dで示す区間において、静止状態から、言い換えれば加わる加速度が重力加速度のみとなる時点(図6中のp2参照)から、さらにマイナス方向に所定値だけ増加したA点を、ショットタイミング(発音タイミング)として検出する。
そして、発音制御部312は、このショットタイミングが検出されたときに発音を行うようにノートオンイベント(発音指示信号)を生成する。
That is, in the present embodiment, the sound generation control unit 312 of the center unit unit 30 performs the swing-up operation after the swing-down operation is performed as the moment when the performer strikes the stick unit 10 on the virtual musical instrument hitting surface. Detect the moment when it starts. That is, the sound generation control unit 312 further increases by a predetermined value in the minus direction from the stationary state, in other words, from the time point when the applied acceleration is only the gravitational acceleration (see p2 in FIG. 6) in the section indicated by d in FIG. The detected point A is detected as shot timing (sound generation timing).
The sound generation control unit 312 generates a note-on event (a sound generation instruction signal) so as to generate sound when this shot timing is detected.

また、発音制御部312は、動き検知手段であるモーションセンサ部14によって検知されたスティック部10(演奏操作子)の動きに関する検知結果(モーションセンサデータ)に基づいて、演奏者によるスティック部10の振り下ろし動作の速さや強さ、スティック部10を振り下ろした位置や角度等を検知する。また、本実施形態では、発音制御部312は、発音部36に対する発音制御を行うにあたって、動き検知手段であるモーションセンサ部14によって検知されたスティック部10(演奏操作子)の動きに関する検知結果(センサ値)のみでなく、カメラユニット部20から受信したスティック部10A、10Bのマーカー部15(第1マーカー及び第2マーカー)それぞれのマーカー検出位置情報も加味する。
そして、奏法判断部311によって演奏者の奏法が通常演奏における奏法であると判断されたときは、発音制御部312は、通常演奏モード(すなわち、通常の奏法で演奏を行うモード)で演奏が行われるように通常演奏モードのノートオンイベントを生成する。すなわち、モーションセンサデータ及びマーカー検出位置情報に基づいて、どの楽器が、どの程度の速さ、強さで、どのタイミングで叩かれたか等を判断し、この判断結果に合致する楽器種類(音色)に対応する波形データをROM33から読み出すとともに、この所定の楽音を、叩かれた速さや強さに対応する音量で、所定のショットタイミングで発音させるように発音指示信号(ノートオンイベント)を発音部36に出力する。
Further, the sound generation control unit 312 is based on the detection result (motion sensor data) regarding the movement of the stick unit 10 (performance operator) detected by the motion sensor unit 14 which is a motion detection unit. The speed and strength of the swing-down operation, the position and angle where the stick unit 10 is swung down are detected. In the present embodiment, the sound generation control unit 312 performs a sound generation control on the sound generation unit 36, and a detection result (the performance operator) detected by the motion sensor unit 14, which is a motion detection unit, is detected. In addition to the sensor value, the marker detection position information of each of the marker units 15 (first marker and second marker) of the stick units 10A and 10B received from the camera unit unit 20 is also considered.
When the performance method determining unit 311 determines that the player's performance method is a normal performance method, the sound generation control unit 312 performs the performance in the normal performance mode (that is, the mode in which the performance method is performed). To generate a note-on event in the normal performance mode. That is, based on the motion sensor data and the marker detection position information, it is determined which instrument is struck at what speed, strength, and timing, and the instrument type (timbre) that matches this determination result. Is read out from the ROM 33, and a sound generation instruction signal (note-on event) is generated as a sound generation unit so that the predetermined musical sound is sounded at a predetermined shot timing with a volume corresponding to the hit speed and strength. To 36.

他方、奏法判断部311によって演奏者の奏法がロール奏法であると判断されたときは、発音制御部312は、ドラムロール演奏モード(すなわち、ドラムロール奏法で演奏を行うモード)で演奏が行われるようにドラムロール演奏モードのノートオンイベントを生成する。
図13(A)は、ドラムロール演奏モードの場合と通常演奏モードの場合のモーションセンサデータの一例を示したものであり、図13(B)は、図13(A)におけるB部分の波形を拡大してドラムロール演奏モードの場合のノートオンタイミングの一例を示した図である。
ドラムロール演奏モードの場合には、発音制御部312は、単音のロール波形のデータをROM33から読み出すとともに、例えば、図13(B)に示すように、モーションセンサデータに示されるスティック部10の上下方向の移動の極大点及び極小点(極点、すなわち、加速度センサの出力波形の山と谷、図13(B)におけるtp1及びtp2)を検出し、各極大点tp1及び極小点tp2に1音ずつロール音源に基づく音(ドラムロール音)が鳴るようにショットタイミングを設定する。そして、このドラムロール音の楽音を演奏者の演奏動作に応じた所定の音量で、設定した所定のタイミングで発音させるように発音指示信号(ノートオンイベント)を発音部36に出力する。
On the other hand, when the performance method determining unit 311 determines that the player's performance method is a roll performance method, the sound generation control unit 312 performs the performance in the drum roll performance mode (that is, the mode for performing the drum roll performance method). To generate a note-on event for the drum roll performance mode.
FIG. 13A shows an example of motion sensor data in the drum roll performance mode and the normal performance mode, and FIG. 13B shows the waveform of the portion B in FIG. 13A. It is the figure which expanded and showed an example of the note-on timing in the case of drum roll performance mode.
In the drum roll performance mode, the sound generation control unit 312 reads out data of a single-tone roll waveform from the ROM 33 and, for example, as shown in FIG. The local maximum and minimum points (directions, that is, peaks and valleys of the output waveform of the acceleration sensor, tp1 and tp2 in FIG. 13B) are detected, and one sound is detected at each maximum point tp1 and minimum point tp2. Set the shot timing so that the sound based on the roll sound source (drum roll sound) sounds. Then, a sound generation instruction signal (note-on event) is output to the sound generation unit 36 so that the drum roll sound is sounded at a predetermined sound volume with a predetermined sound volume according to the performer's performance.

また、本体制御部31は、データ通信部37を介して、スティック部10及びカメラユニット部20との間の通信制御を行う。
本実施形態では、本体制御部31は、データ通信部37を介して、スティック部10からモーションセンサデータを受信するとともに、カメラユニット部20から第1マーカー及び第1マーカーのマーカー検出位置情報を受信する。
また、本体制御部31は、マーカー特徴情報に基づいてマーカー検出条件情報を生成し、データ通信部37を介して、カメラユニット部20に対して、マーカー検出条件情報を送信する。
In addition, the main body control unit 31 performs communication control between the stick unit 10 and the camera unit unit 20 via the data communication unit 37.
In the present embodiment, the main body control unit 31 receives the motion sensor data from the stick unit 10 via the data communication unit 37 and also receives the first marker and marker detection position information of the first marker from the camera unit unit 20. To do.
Further, the main body control unit 31 generates marker detection condition information based on the marker feature information, and transmits the marker detection condition information to the camera unit unit 20 via the data communication unit 37.

スイッチ操作検出回路34は、スイッチ341と接続され、当該スイッチ341を介した入力情報を受け付ける。入力情報としては、例えば、発音する楽音の音量や発音する楽音の音色の変更、表示装置351の表示の切り替え等が含まれる。
また、表示回路35は、表示装置351と接続され、表示装置351の表示制御を行う。
また、データ通信部37は、スティック部10及びカメラユニット部20との間で所定の無線通信(例えば、赤外線通信)を行う。
The switch operation detection circuit 34 is connected to the switch 341 and receives input information via the switch 341. The input information includes, for example, a change in the tone volume of the tone to be generated, a change in tone color of the tone to be pronounced, and switching of the display on the display device 351.
The display circuit 35 is connected to the display device 351 and performs display control of the display device 351.
The data communication unit 37 performs predetermined wireless communication (for example, infrared communication) between the stick unit 10 and the camera unit unit 20.

発音部36は、所定の楽音を発音する機能部であり、楽音データ生成部361と、音声出力部362とを含んでいる。発音部36は、ROM32の音源記憶領域とともに発音手段を構成するものである。
楽音データ生成部361は、発音制御部312からの発音指示にしたがって、ROM32の音源記憶領域から波形データを読み出し、楽音データを生成するとともに、生成した楽音データをアナログ信号に変換する機能部である。
音声出力部362は、例えばスピーカ等であり、楽音データ生成部361において生成された楽音データに基づく楽音を発音させるものである。なお、音声出力部362は、スピーカに限定されず、ヘッドホン等に音声を出力させる出力端子等であってもよい。
本実施形態において、発音手段は、奏法判断手段である奏法判断部311により演奏者の行っている演奏動作がロール奏法であると判断されたときは、記憶手段であるROM32の音源記憶領域からロール波形を複数回連続して読み出すことにより、ロール奏法用楽音の発音を行うようになっている。
すなわち、奏法判断部311により演奏者の行っている演奏動作がロール奏法であると判断され、発音制御部312がドラムロール奏法による演奏の楽音を発音部36から発音させるように発音部36に対して発音指示を行った場合には、楽音データ生成部361は、ROM32の音源記憶領域に記憶されている単音のロール波形のデータを複数回連続して読み出し、この単音のロール波形を、発音制御部312の発音指示に応じたタイミングで発音させるように時間軸上に複数個配置して楽音データを生成する。例えば、スティック部10の振り上げ振り下ろしの振り幅の極大点及び極小点(すなわち、図13(B)におけるtp1、tp2)にノートオンするように発音制御部312から発音指示信号(ノートオンイベント)が送られているときは、振り幅の極大点tp1及び極小点tp2にこのそれぞれドラムロール音が1つ発音されるように単音のロール波形を時間軸上に配置する。そして、この楽音データを音声出力部362から出力させることにより、単音のドラムロール音が複数連続的に発音されて、あたかも打楽器の打面を連打するロール奏法(ドラムロール奏法)による演奏を行っているような楽音を発音させることができる。
The sound generation unit 36 is a functional unit that generates predetermined musical sounds, and includes a musical sound data generation unit 361 and an audio output unit 362. The sound generation unit 36 constitutes sound generation means together with the sound source storage area of the ROM 32.
The musical sound data generation unit 361 is a functional unit that reads waveform data from the sound source storage area of the ROM 32 in accordance with a sound generation instruction from the sound generation control unit 312, generates musical sound data, and converts the generated musical sound data into an analog signal. .
The audio output unit 362 is, for example, a speaker, and generates a musical sound based on the musical sound data generated by the musical sound data generating unit 361. Note that the audio output unit 362 is not limited to a speaker, and may be an output terminal that outputs sound to headphones or the like.
In the present embodiment, the sound generation means rolls from the sound source storage area of the ROM 32 as the storage means when the performance style determination unit 311 as the performance style determination means determines that the performance action performed by the performer is the roll performance style. By reading the waveform a plurality of times in succession, the musical sound for roll performance is generated.
That is, the performance method determination unit 311 determines that the performance action performed by the performer is the roll performance method, and the sound generation control unit 312 causes the sound generation unit 36 to generate the musical sound of the performance by the drum roll performance method. When the sound generation instruction is issued, the musical sound data generation unit 361 continuously reads out the data of the single-tone roll waveform stored in the sound source storage area of the ROM 32 a plurality of times, and uses the single-tone roll waveform as a sound generation control. A plurality of musical tone data are generated on the time axis so as to generate sound at a timing according to the sound generation instruction of the unit 312. For example, a sound generation instruction signal (note-on event) is generated from the sound generation control unit 312 so that notes are turned on at the maximum and minimum points (ie, tp1 and tp2 in FIG. 13B) of the swing-up swing-down of the stick unit 10. Is sent, a single tone roll waveform is arranged on the time axis so that one drum roll sound is generated at each of the maximum point tp1 and the minimum point tp2 of the swing width. Then, by outputting the musical tone data from the audio output unit 362, a plurality of single drum roll sounds are continuously generated, and a performance by a roll performance method (drum roll performance method) in which a percussion instrument is repeatedly hit is performed. You can sound like a musical tone.

[楽音発生装置1の処理]
次に、図14から図15を参照して、楽音発生装置1の処理について説明する。
図14は、スティック部10の処理を示すフローチャートであり、図15は、カメラユニット部20の処理を示すフローチャートであり、図16は、センターユニット部30の処理を示すフローチャートである。
[Processing of the musical tone generator 1]
Next, processing of the musical sound generating device 1 will be described with reference to FIGS.
FIG. 14 is a flowchart showing processing of the stick unit 10, FIG. 15 is a flowchart showing processing of the camera unit unit 20, and FIG. 16 is a flowchart showing processing of the center unit unit 30.

[スティック部10の処理]
図14に示すように、スティック部10のスティック制御部11は、ROM12に格納されているマーカー特徴情報を読み出す(ステップS1)。この処理では、スティック部10A,10Bのスティック制御部11は、それぞれ異なるマーカー特徴情報を読み出す。異なるマーカー特徴情報の読み出しは、任意の方法で行うことができ、例えば、スティック部10A、10Bが直接又はセンターユニット部30を介して通信することで行うこととしてもよく、また、個々のスティック部10毎に予め1のマーカー特徴情報を対応付けておき、スティック部10A、10Bのスティック制御部11は、それぞれ対応付けられた独自のマーカー特徴情報を読み出すこととしてもよい。
[Processing of the stick unit 10]
As shown in FIG. 14, the stick control unit 11 of the stick unit 10 reads the marker feature information stored in the ROM 12 (step S1). In this process, the stick control units 11 of the stick units 10A and 10B read different marker feature information. Different marker characteristic information can be read out by an arbitrary method. For example, the stick units 10A and 10B may be communicated directly or through the center unit unit 30. One marker feature information may be associated in advance for every 10 and the stick control units 11 of the stick units 10A and 10B may read the unique marker feature information associated with each.

スティック制御部11は、マーカー特徴情報を読み出すと、当該マーカー特徴情報をRAM13に格納するとともに、データ通信部16を介してセンターユニット部30に送信する(ステップS2)。このとき、スティック制御部11は、スティック部10A、10Bをそれぞれ区別可能な識別情報(スティック識別情報)と対応付けて、マーカー特徴情報をセンターユニット部30に送信する。
また、スティック制御部11は、マーカー特徴情報にしたがってマーカー部15を点灯させる(ステップS3)。
When the stick control unit 11 reads the marker feature information, the stick control unit 11 stores the marker feature information in the RAM 13 and transmits it to the center unit unit 30 via the data communication unit 16 (step S2). At this time, the stick control unit 11 transmits the marker feature information to the center unit unit 30 in association with identification information (stick identification information) that can distinguish the stick units 10A and 10B.
Moreover, the stick control part 11 lights the marker part 15 according to marker feature information (step S3).

続いて、スティック制御部11は、モーションセンサ部14からモーションセンサデータ、すなわち、各種センサが出力するセンサ値(検知結果)を読み出して、RAM13に格納する(ステップS4)。その後、スティック制御部11は、読み出したモーションセンサデータをスティック識別情報と対応付けて、データ通信部16を介してセンターユニット部30に送信する(ステップS5)。
スティック制御部11は、演奏動作が終了したか否かを判断し(ステップS6)、演奏動作が終了したと判断する場合(ステップS6;YES)には、マーカー部15を消灯させる(ステップS7)。なお、スティック制御部11が演奏動作終了と判断するのは、例えばモーションセンサ部14が出力するセンサ値に一定以上の変化があるか否かや、スティック部のスイッチ(図示せず)がOFFとされた場合、センターユニット部30から演奏終了の信号が送信された場合等である。他方、スティック制御部11が、演奏動作が終了していないと判断する場合(ステップS6;NO)には、ステップS4に戻って処理を繰り返す。
Subsequently, the stick control unit 11 reads out motion sensor data, that is, sensor values (detection results) output from various sensors from the motion sensor unit 14, and stores them in the RAM 13 (step S4). Thereafter, the stick control unit 11 associates the read motion sensor data with the stick identification information, and transmits it to the center unit unit 30 via the data communication unit 16 (step S5).
The stick control unit 11 determines whether or not the performance operation has been completed (step S6). If it is determined that the performance operation has been completed (step S6; YES), the marker unit 15 is turned off (step S7). . Note that the stick control unit 11 determines that the performance operation has ended, for example, whether there is a certain change in the sensor value output by the motion sensor unit 14, or whether the switch (not shown) of the stick unit is OFF. The case where the performance end signal is transmitted from the center unit 30 or the like. On the other hand, when the stick control unit 11 determines that the performance operation has not ended (step S6; NO), the process returns to step S4 and the process is repeated.

[カメラユニット部20の処理]
図15に示すように、カメラユニット部20のカメラ制御部21は、センターユニット部30から送信されるマーカー検出条件情報を取得して、RAM23に格納する。(ステップS11)。なお、マーカー検出条件情報とは、スティック部10A,10Bのマーカー部15のそれぞれを検出するための条件であり、マーカー特徴情報から生成される(図16のステップS21,ステップS22参照)。マーカー特徴情報としては、上述のように、例えば、マーカーの形状、大きさ、色相、彩度、あるいは輝度を用いることができる。
続いて、カメラ制御部21は、マーカー検出条件情報に基づいて、撮像部24の各種設定を行う(ステップS12)。
[Processing of Camera Unit 20]
As shown in FIG. 15, the camera control unit 21 of the camera unit unit 20 acquires marker detection condition information transmitted from the center unit unit 30 and stores it in the RAM 23. (Step S11). The marker detection condition information is a condition for detecting each of the marker portions 15 of the stick portions 10A and 10B, and is generated from the marker feature information (see step S21 and step S22 in FIG. 16). As the marker feature information, for example, as described above, the shape, size, hue, saturation, or luminance of the marker can be used.
Subsequently, the camera control unit 21 performs various settings of the imaging unit 24 based on the marker detection condition information (step S12).

続いて、カメラ制御部21は、撮像部24のカメラによってスティック部10のマーカー部15等を含む画像を撮像させて、第1マーカー位置検出処理(ステップS13)及び第2マーカー位置検出処理(ステップS14)を行う。これらの処理では、カメラ制御部21は、撮像部24によって撮像された画像から、スティック部10Aのマーカー部15(第1マーカー)及びスティック部10Bのマーカー部15(第2マーカー)それぞれの位置座標、サイズ、角度等のマーカー検出位置情報を取得し、RAM23に格納する。   Subsequently, the camera control unit 21 causes the camera of the imaging unit 24 to capture an image including the marker unit 15 and the like of the stick unit 10, and performs first marker position detection processing (step S13) and second marker position detection processing (step). S14) is performed. In these processes, the camera control unit 21 determines the position coordinates of the marker unit 15 (first marker) of the stick unit 10A and the marker unit 15 (second marker) of the stick unit 10B from the image captured by the imaging unit 24. Marker detection position information such as size and angle is acquired and stored in the RAM 23.

続いて、カメラ制御部21は、ステップS13及びステップS14で取得したマーカー検出位置情報を、データ通信部25を介してセンターユニット部30に送信する(ステップS15)。
カメラ制御部21は、演奏動作が終了したか否かを判断し(ステップS16)、演奏動作が終了したと判断する場合(ステップS16;YES)には、処理を終了し、演奏動作が終了していないと判断する場合(ステップS16;NO)には、ステップS13に戻って処理を繰り返す。
Subsequently, the camera control unit 21 transmits the marker detection position information acquired in step S13 and step S14 to the center unit unit 30 via the data communication unit 25 (step S15).
The camera control unit 21 determines whether or not the performance operation has been completed (step S16). If it is determined that the performance operation has been completed (step S16; YES), the process ends and the performance operation ends. If it is determined that it is not present (step S16; NO), the process returns to step S13 and is repeated.

[センターユニット部30の処理]
図16に示すように、センターユニット部30の本体制御部31は、マーカー特徴情報をスティック部10から受信し、RAM33に格納する(ステップS21)。続いて、本体制御部31は、マーカー特徴情報及びスイッチ341を介して設定された検出条件から、マーカー検出条件情報を生成し、データ通信部37を介して、カメラユニット部20に送信する(ステップS22)。
[Processing of Center Unit 30]
As shown in FIG. 16, the main body control unit 31 of the center unit unit 30 receives the marker feature information from the stick unit 10 and stores it in the RAM 33 (step S21). Subsequently, the main body control unit 31 generates marker detection condition information from the marker characteristic information and the detection condition set via the switch 341, and transmits the marker detection condition information to the camera unit unit 20 via the data communication unit 37 (step). S22).

続いて、本体制御部31は、カメラユニット部20から、第1マーカー及び第2マーカーそれぞれのマーカー検出位置情報を受信し、RAM33に格納する(ステップS23)。また、本体制御部31は、スティック部10A、10Bのそれぞれから、スティック識別情報と対応付けられた姿勢情報、ショット情報及びアクション情報等のモーションセンサデータを受信し、RAM33に格納する(ステップS24)。   Subsequently, the main body control unit 31 receives the marker detection position information of the first marker and the second marker from the camera unit unit 20 and stores them in the RAM 33 (step S23). Further, the main body control unit 31 receives motion sensor data such as posture information, shot information, and action information associated with the stick identification information from each of the stick units 10A and 10B, and stores it in the RAM 33 (step S24). .

続いて、本体制御部31は、受信したモーションセンサデータに基づいて、ショットありか否かを判断する(ステップS25)。すなわち、例えば図6に示すようなモーションセンサデータである場合、図6に示すA点、すなわち、演奏操作子であるスティック部10を一旦振り上げた後に振り下ろす動作がある場合、当該振り下ろし動作が行われた後、振り上げ動作が開始された瞬間の時点をショットタイミング(発音タイミング)として検出する。ショットなしと判断した場合(ステップS25;NO)には、本体制御部31は、ステップS23に戻って処理を繰り返す。
他方、ショットありと判断した場合(ステップS25;YES)には、本体制御部31(奏法判断部311)は、さらに、当該ショットから過去に遡って4回以上の振り上げ又は振り下ろし動作があるか否か、すなわち、モーションセンサデータにおいて、図8に示すような加速度センサの出力波形の起伏(山と谷、極大点と極小点)が当該ショットを含めて4つ以上あるか否かを判断する(ステップS26)。
Subsequently, the main body control unit 31 determines whether or not there is a shot based on the received motion sensor data (step S25). That is, for example, in the case of motion sensor data as shown in FIG. 6, when there is an operation of swinging down the point A shown in FIG. After being performed, the instant at which the swing-up operation is started is detected as a shot timing (sound generation timing). If it is determined that there is no shot (step S25; NO), the main body control unit 31 returns to step S23 and repeats the process.
On the other hand, if it is determined that there is a shot (step S25; YES), the main body control unit 31 (the rendition style determination unit 311) further has four or more swing-up or swing-down operations from the shot to the past. In other words, in the motion sensor data, it is determined whether or not there are four or more undulations (mountain and valley, maximum and minimum points) of the output waveform of the acceleration sensor as shown in FIG. (Step S26).

4つ以上の極大点及び極小点があると判断した場合(ステップS26;YES)には、本体制御部31(奏法判断部311)は、さらに、当該加速度の極大点の値(極大値)と極小点の値(極小値)のうち直近の4つの極大値及び極小値が予め定めた範囲内か否か(すなわち、「第1条件」を満たすか否か)を判断する(ステップS27)。そして、直近の4つの加速度の極大値及び極小値が予め定めた範囲内にあると判断した場合(ステップS27;YES)には、本体制御部31(奏法判断部311)は、さらに、当該直近の4つの極点(すなわち、極大点及び極小点)同士の間隔sが予め定められた範囲内か否か(すなわち、「第2条件」を満たすか否か)を判断する(ステップS28)。
ショットはあったが、4つ以上の極大点及び極小点がないと判断した場合(ステップS26;NO)、直近の4つの加速度の極大値及び極小値が予め定めた範囲内にないと判断した場合(ステップS27;NO)、及び直近の4つの極点同士の間隔sが予め定められた範囲内にないと判断した場合(ステップS28;NO)には、本体制御部31(奏法判断部311)は通常奏法による演奏と判断する。この場合には、本体制御部31(発音制御部312)は、通常奏法による演奏の発音指示信号を発音部36に出力する(ステップS29)。通常演奏モードでは、本体制御部31(発音制御部312)は、モーションセンサデータ(例えば、加速度センサのセンサ合成値)等に基づいて、発音タイミング、発音させる楽音の音量、音色(楽器の種類)等を含むノートオンイベントを生成する。なお、楽音の音量は、例えば、センサ合成値の最大値から求めることができる。これにより通常演奏モードにおける所定の発音タイミングで、所定の楽器の波形に基づく楽音が所定の音量で発音部36から発音される。
また、この場合、本体制御部31は、常に演奏が終了したか否かを判断し(ステップS30)、演奏が終了したと判断した場合(ステップS30;YES)には、楽音発生処理を終了する。また、演奏が終了していないと判断した場合(ステップS30;NO)には、ステップS23に戻って処理を繰り返す。
When it is determined that there are four or more local maximum points and local minimum points (step S26; YES), the main body control unit 31 (the rendition style determination unit 311) further determines the maximum point value (maximum value) of the acceleration. It is determined whether or not the latest four local maximum values and local minimum values among the local minimum values (local minimum values) are within a predetermined range (that is, whether or not “first condition” is satisfied) (step S27). When it is determined that the local maximum and minimum values of the latest four accelerations are within a predetermined range (step S27; YES), the main body control unit 31 (the rendition style determination unit 311) further performs the latest It is determined whether or not the interval s between the four extreme points (that is, the maximum point and the minimum point) is within a predetermined range (that is, whether or not the “second condition” is satisfied) (step S28).
If there is a shot but it is determined that there are not four or more local maximums and local minimums (step S26; NO), it is determined that the local maximum and local minimum values of the latest four accelerations are not within a predetermined range. In the case (step S27; NO), and when it is determined that the interval s between the four most recent extreme points is not within a predetermined range (step S28; NO), the main body control unit 31 (the rendition style determination unit 311). Is determined to be a performance based on a normal performance. In this case, the main body control unit 31 (sound generation control unit 312) outputs a sound generation instruction signal for performance based on the normal performance method to the sound generation unit 36 (step S29). In the normal performance mode, the main body control unit 31 (the sound generation control unit 312), based on the motion sensor data (for example, the sensor combined value of the acceleration sensor), etc., the sound generation timing, the volume of the tone to be generated, the tone color (the type of instrument) Generate a note-on event including etc. The volume of the musical sound can be obtained from the maximum value of the sensor composite value, for example. As a result, at the predetermined sounding timing in the normal performance mode, the musical sound based on the waveform of the predetermined musical instrument is generated from the sounding unit 36 at a predetermined volume.
In this case, the main body control unit 31 always determines whether or not the performance has ended (step S30). If it is determined that the performance has ended (step S30; YES), the musical tone generation process ends. . If it is determined that the performance has not ended (step S30; NO), the process returns to step S23 and the process is repeated.

他方、本体制御部31(奏法判断部311)が直近の4つの極点同士の間隔sが予め定められた範囲内にあると判断した場合(すなわち、「第1条件」「第2条件」ともに満たすと判断した場合、ステップS28;YES)には、本体制御部31(発音制御部312)は、ロール波形に基づくドラムロール音を発音させるドラムロール奏法による演奏の発音指示信号を発音部36に出力する(ステップS31)。これによりドラムロール演奏モードにおける所定の発音タイミングで、ロール波形に基づく楽音が所定の音量で発音部36から発音される。
この場合、本体制御部31(奏法判断部311)は、常に、加速度の極大値及び極小値が予め定めた範囲を超えたか又は隣り合う極点同士の間隔sが予め定めた範囲を超えたか否か(すなわち、「第1条件」「第2条件」のいずれかを欠く状態となったか否か)を判断する(ステップS32)。いずれの条件も欠いていないと判断する場合(ステップS32;NO)には、本体制御部31は、ドラムロール奏法による演奏を継続させたまま、ステップS23に戻って処理を繰り返す。
他方、いずれかの条件を欠いたと本体制御部31(奏法判断部311)が判断する場合(ステップS32;YES)には、本体制御部31(発音制御部312)は、ドラムロール演奏モードをノートオフし、通常演奏モードに遷移させる(ステップS33)。すなわち、次のショットが検出されたときに通常奏法による演奏における音源(波形データ)に基づく楽音を演奏動作に合わせて所定のタイミングで発音させるように発音部36に発音指示信号を出力する。この場合は、通常奏法による演奏の発音指示信号を発音部36に出力した場合(ステップS29)と同様に、本体制御部31は、常に演奏動作が終了したか否かを判断し(ステップS30)、演奏動作が終了したと判断した場合(ステップS30;YES)には、楽音発生処理を終了する。また、演奏動作が終了していないと判断した場合(ステップS30;NO)には、ステップS23に戻って処理を繰り返す。
On the other hand, when the main body control unit 31 (the rendition style determination unit 311) determines that the interval s between the four nearest poles is within a predetermined range (that is, both the “first condition” and the “second condition” are satisfied). If YES in step S28, the main body control unit 31 (sound generation control unit 312) outputs to the sound generation unit 36 a sound generation instruction signal based on the drum roll performance method that generates a drum roll sound based on the roll waveform. (Step S31). As a result, at a predetermined sound generation timing in the drum roll performance mode, a musical sound based on the roll waveform is generated from the sound generator 36 at a predetermined volume.
In this case, the main body control unit 31 (the rendition style determination unit 311) always determines whether the maximum and minimum values of acceleration exceed a predetermined range, or whether the interval s between adjacent extreme points exceeds a predetermined range. (That is, whether or not any of the “first condition” and “second condition” has been lost) is determined (step S32). If it is determined that none of the conditions is missing (step S32; NO), the main body control unit 31 returns to step S23 and repeats the process while continuing to perform the drum roll performance.
On the other hand, when the main body control unit 31 (playing style determination unit 311) determines that any of the conditions is missing (step S32; YES), the main body control unit 31 (sound generation control unit 312) sets the drum roll performance mode. The note is turned off and a transition is made to the normal performance mode (step S33). That is, when the next shot is detected, a sound generation instruction signal is output to the sound generation unit 36 so that a musical sound based on a sound source (waveform data) in a performance based on the normal performance method is generated at a predetermined timing in accordance with the performance operation. In this case, the main body control unit 31 always determines whether or not the performance operation has ended (step S30), in the same manner as when the sound generation instruction signal for the performance based on the normal performance method is output to the sound generation unit 36 (step S29). If it is determined that the performance operation has been completed (step S30; YES), the musical tone generation process is terminated. If it is determined that the performance operation has not ended (step S30; NO), the process returns to step S23 and the process is repeated.

以上のように、本実施形態の楽音発生装置1によれば、演奏者の演奏動作に基づく前記演奏操作子の動きを検知する動き検知手段であるモーションセンサ部14により検知されたスティック部10(演奏操作子)の動きに基づいて、演奏者の奏法が通常演奏の奏法であるかドラムロール奏法であるかを判断し、この判断結果とモーションセンサ部14の検知結果とに応じて発音部から所定の楽音を発音させる。このため、演奏者がドラムロール奏法による演奏を行いたい場合には、ドラムロール奏法に特有の動作を行うことで、打音が連続的に発音されるドラムロール特有の連打音が持続する楽音を発音させることができ、実際の楽器が存在しない空中での演奏においても擬似的にドラムロール奏法による演奏を楽しむことができる。また、本実施形態ではドラムロール奏法に特有の動作を行うだけで、それに応じた発音制御を行うため、現実のドラムではドラムロール奏法を行う技術がないような演奏者でも、手軽に自らドラムロール奏法による演奏を行っているかのような感覚を味わうことができる。
また、ドラムロール奏法による演奏の場合にもモーションセンサ部14の検知結果に応じて発音制御を行うため、演奏者の演奏動作に応じて(すなわち、演奏者の刻むリズムの速さや、打面を叩く強さ等に対応したタイミングで)ドラムロール音が発音され、演奏者は、実際にドラムロール奏法による演奏を行っているかのように演奏を楽しむことができる。
また、奏法判断部311は、動き検知手段であるモーションセンサ部14によって検知されたスティック部10(演奏操作子)の上下方向の動きによる移動量が予め定めた範囲内である場合に、ドラムロール奏法による演奏であると判断する。このため、実際のドラムロール奏法による演奏の場合と同様に演奏操作子を小刻みに上下動させる演奏動作を行うことで、ドラムロール奏法の楽音を発生させることができる。
また、奏法判断部311は、動き検知手段であるモーションセンサ部14によって検知されたスティック部10(演奏操作子)の打撃演奏操作タイミング間の時間が予め定めた範囲内である場合に、ロール奏法であると判断する。このため、実際のドラムロール奏法の場合と同様に演奏操作子を一定のリズムで連続的に操作する演奏動作を行うことで、ドラムロール奏法による演奏の楽音を発生させることができる。
また、本実施形態では、通常演奏の際の打音とは異なるドラムロール奏法による演奏時の打音をサンプリングした単音のロール波形をROM32に記憶させておき、ドラムロール奏法の際は、この単音のロール波形を複数連続的に発音させるようになっている。ドラムロール奏法では、小刻みに素早く打面を連打し、打面に演奏操作子が当たって跳ね上がる反動を利用して連続音を発音させるため、通常の奏法による演奏によりドラムの打面を叩いたのとは多少異なる音が発音される。この点、本実施形態ではドラムロール奏法による演奏時の打音を用いてドラムロール奏法の楽音を生成するため、実際にドラムロール奏法による演奏を行っている場合と同様の打音で演奏を行うことができる。
As described above, according to the musical sound generating apparatus 1 of the present embodiment, the stick unit 10 (detected by the motion sensor unit 14 which is a motion detecting unit that detects the movement of the performance operator based on the performance operation of the performer. Based on the movement of the performance operator), it is determined whether the performer's performance is a normal performance or a drum roll performance, and from the sound generation unit according to the determination result and the detection result of the motion sensor unit 14. Play a specific musical tone. For this reason, if the performer wants to perform with the drum roll playing technique, the drum roll playing technique performs an operation specific to the drum roll. The sound can be generated, and the performance by the drum roll playing method can be enjoyed even in the performance in the air where there is no actual musical instrument. In addition, in this embodiment, only the operation specific to the drum roll performance is performed and the sound generation control is performed accordingly, so even a performer who does not have the technique to perform the drum roll performance with an actual drum can easily perform the drum roll himself. You can enjoy the sensation of playing a performance.
Also, in the case of performance by the drum roll performance method, sound generation control is performed according to the detection result of the motion sensor unit 14, so that the speed of the rhythm engraved by the player and the striking surface are adjusted according to the performance of the player. A drum roll sound is generated (at a timing corresponding to the strength of hitting, etc.), and the performer can enjoy the performance as if he was actually performing the drum roll performance.
The rendition style determination unit 311 performs drum roll when the movement amount due to the vertical movement of the stick unit 10 (performance operator) detected by the motion sensor unit 14 which is a motion detection unit is within a predetermined range. Judged that the performance is a performance. For this reason, the musical performance of the drum roll performance method can be generated by performing a performance operation in which the performance operator is moved up and down in small increments in the same manner as in the case of performance by the actual drum roll performance method.
In addition, the rendition style determination unit 311 performs the roll rendition style when the time between the hitting performance operation timings of the stick unit 10 (performance operator) detected by the motion sensor unit 14 serving as motion detection means is within a predetermined range. It is judged that. For this reason, as in the case of the actual drum roll performance method, the musical performance of the performance by the drum roll performance method can be generated by performing the performance operation in which the performance operator is continuously operated at a constant rhythm.
In the present embodiment, a single-note roll waveform obtained by sampling the hitting sound during the performance by the drum roll playing method different from the hitting sound during the normal performance is stored in the ROM 32, and this single note is played during the drum roll playing method. A plurality of roll waveforms are continuously generated. In the drum roll technique, the striking surface is struck quickly in small increments, and a continuous sound is produced by using the recoil that the performance operator hits the striking surface. A slightly different sound is produced. In this respect, in this embodiment, since the drum roll performance music is generated by using the hit sound during the performance by the drum roll performance, the performance is performed with the same sound as when the performance is actually performed by the drum roll performance. be able to.

なお、以上本発明の実施形態について説明したが、本発明は、かかる実施形態に限定されず、その要旨を逸脱しない範囲で、種々変形が可能であることは言うまでもない。   Although the embodiments of the present invention have been described above, the present invention is not limited to such embodiments, and various modifications can be made without departing from the scope of the present invention.

例えば、上記実施形態でスティック部10、カメラユニット部20及びセンターユニット部30で行うこととしている処理のうちの任意の処理は、他のユニット(スティック部10、カメラユニット部20及びセンターユニット部30)で行うこととしてもよい。
すなわち、例えば、スティック部10(演奏操作子)のスティック制御部11が発音制御手段、奏法判断手段として機能し、スティック制御部11において各種センサの検知結果の分析等が行われてもよい。この場合には、動き検知手段としてのモーションセンサ部14の検知結果(各種センサの生データ等)ではなく、各種センサの検知結果に基づいたノートオンイベント(発音指示の信号)がセンターユニット部30に送信される。
また、例えばセンターユニット部30の本体制御部31において、カメラユニット部20の撮像部24により得られたマーカー部15の位置を示すデータ(すなわち、演奏者等を撮像した画像のデータ)及びマーカー特徴情報に基づいて、スティック部10A、10Bのマーカー部15(第1マーカー及び第2マーカー)のそれぞれの位置座標を算出する処理を行ってもよい。この場合には、カメラユニット部20は、単に画像を撮像してセンターユニット部30に送信すれば足りるため、カメラユニット部20のRAM23にスティック部10A、10Bのそれぞれのマーカー部15を識別するためのマーカー検出条件情報を格納しておく必要はない。
For example, arbitrary processing among the processing to be performed by the stick unit 10, the camera unit unit 20, and the center unit unit 30 in the above embodiment is performed by other units (stick unit 10, camera unit unit 20, and center unit unit 30. ).
That is, for example, the stick control unit 11 of the stick unit 10 (performance operator) may function as a sound generation control unit and a performance method determination unit, and the stick control unit 11 may analyze detection results of various sensors. In this case, not the detection result of the motion sensor unit 14 as the motion detection means (raw data of various sensors, etc.) but a note-on event (pronunciation instruction signal) based on the detection results of the various sensors. Sent to.
Further, for example, in the main body control unit 31 of the center unit unit 30, data indicating the position of the marker unit 15 obtained by the imaging unit 24 of the camera unit unit 20 (that is, data of an image obtained by imaging a performer or the like) and marker characteristics Based on the information, processing for calculating the respective position coordinates of the marker portions 15 (first marker and second marker) of the stick portions 10A and 10B may be performed. In this case, the camera unit unit 20 only needs to capture an image and transmit it to the center unit unit 30, so that the marker unit 15 of each of the stick units 10 </ b> A and 10 </ b> B is identified in the RAM 23 of the camera unit unit 20. It is not necessary to store the marker detection condition information.

また、奏法判断部311が演奏者の演奏動作を通常奏法による演奏であると判断するかロール奏法(ドラムロール奏法)による演奏であると判断するかの判断手法、及びドラムロール奏法による演奏が終了したか否かを判断する手法は本実施形態に示したものに限定されない。
例えば、動き検知手段であるモーションセンサ部14によって検知されたスティック部10(演奏操作子)の上下方向の動きによる移動量が予め定めた範囲内であるとの「第1の条件」のみを満たせばロール奏法(ドラムロール奏法)であると判断してもよいし、モーションセンサ部14によって検知されたスティック部10(演奏操作子)の打撃演奏操作タイミング間の時間が予め定めた範囲内であるとの「第2の条件」のみを満たせばロール奏法(ドラムロール奏法)であると判断してもよい。「第1の条件」「第2の条件」のうちいずれかを満たせばロール奏法(ドラムロール奏法)であると判断してもよい。
In addition, the performance method determination unit 311 determines whether the performance performance of the performer is determined to be a performance based on a normal performance method or a performance based on a roll performance method (drum roll performance method), and the performance based on the drum roll performance method ends. The method for determining whether or not the operation has been performed is not limited to that shown in the present embodiment.
For example, only the “first condition” that the amount of movement due to the vertical movement of the stick unit 10 (performance operator) detected by the motion sensor unit 14 that is a motion detection unit is within a predetermined range can be satisfied. For example, it may be determined that it is a roll performance method (drum roll performance method), and the time between hitting performance operation timings of the stick unit 10 (performance operator) detected by the motion sensor unit 14 is within a predetermined range. If only the “second condition” is satisfied, it may be determined that the roll performance method (drum roll performance method) is used. If either one of the “first condition” and the “second condition” is satisfied, it may be determined that the roll performance method (drum roll performance method) is used.

また、本実施形態では、奏法判断手段である奏法判断部311が、モーションセンサデータにおける波形の変化(例えば加速度センサの出力波形の変化)に基づいて、スティック部10(演奏操作子)の上下方向の動きによる移動量が予め定めた範囲内(第1の条件)であるか否か、スティック部10(演奏操作子)の操作タイミングの間の時間が予め定めた範囲内(第2の条件)であるか否かを判断することで演奏者の奏法を判断する場合を例として説明したが、奏法判断部311が演奏者の奏法を判断する手法はこれに限定されない。
例えば、モーションセンサ部14によって検知されたスティック部10(演奏操作子)の動きに基づいて演奏者の奏法を判断するものに限定されず、カメラユニット部20によって取得される演奏動作を撮像した画像に基づいて、実際のスティック部10(演奏操作子)の振り幅等を検出することにより、奏法判断部311が第1の条件、第2の条件を満たしているか否か等を判断し、演奏者の奏法を判断してもよい。
In the present embodiment, the rendition style determination unit 311 that is a rendition style determination unit performs the vertical direction of the stick unit 10 (performance operator) based on a change in waveform (for example, a change in the output waveform of the acceleration sensor) in the motion sensor data. Whether the movement amount due to the movement of the stick is within a predetermined range (first condition), or the time between the operation timings of the stick unit 10 (performance operator) is within a predetermined range (second condition) However, the method of determining the performance method of the performer by the performance method determination unit 311 is not limited to this.
For example, the present invention is not limited to determining the player's performance based on the movement of the stick unit 10 (performance operator) detected by the motion sensor unit 14, and an image obtained by capturing the performance operation acquired by the camera unit unit 20. Based on this, by detecting the swing width of the actual stick unit 10 (performance operator) or the like, it is determined whether or not the performance style determination unit 311 satisfies the first condition and the second condition. A person's performance may be judged.

また、本実施形態では、ドラムロール奏法の場合におけるショットタイミングを極大点tp1及び極小点tp2と設定する例について説明したが、ドラムロール奏法の場合におけるショットタイミングは極大点tp1及び極小点tp2に限定されない。
例えば、図17に示すように、2つの極大点tp1の間又は2つの極小点tp2の間を1周期とした場合に、各極大点tp1及び極小点tp2と、極大点tp1及び極小点tp2のほぼ中間時点とにおいてそれぞれ発音させるようにショットタイミングを設定してもよい。また、これよりもさらに細かく、例えば1周期に6回以上回発音させてもよい。また、極大点tp1及び極小点tp2の間の時間間隔に応じてドラムロール音を発音させる回数を動的に増減させるようにしてもよい。このように、極大点tp1及び極小点tp2の間の時間間隔に応じてドラムロール音を発音させる回数を増減させるようにした場合には、例えば、実際のドラムロール奏法による演奏を行うことができるほどには速い演奏動作を行うことができない演奏者であっても、1周期に発音させる回数を増加させることで細かい打音が連続したドラムロール奏法らしい演奏を自ら行っているような体験をすることができる。
Further, in the present embodiment, the example in which the shot timing in the case of the drum roll performance is set as the maximum point tp1 and the minimum point tp2 has been described, but the shot timing in the case of the drum roll performance is limited to the maximum point tp1 and the minimum point tp2. Not.
For example, as shown in FIG. 17, when one cycle is between two maximum points tp1 or two minimum points tp2, the maximum points tp1 and minimum points tp2, and the maximum points tp1 and minimum points tp2 The shot timing may be set so that the sound is generated at approximately the middle point. Further, the sound may be generated more finely than this, for example, six times or more in one cycle. Further, the number of times the drum roll sound is generated may be dynamically increased or decreased according to the time interval between the maximum point tp1 and the minimum point tp2. As described above, when the number of times to generate the drum roll sound is increased or decreased according to the time interval between the maximum point tp1 and the minimum point tp2, for example, a performance by an actual drum roll performance method can be performed. Even performers who are not able to perform performances as fast as possible, have the experience of performing themselves like a drum roll playing technique in which fine hitting sounds are repeated by increasing the number of times of sounding in one cycle. be able to.

また、本実施形態では、奏法判断部311がドラムロール奏法による演奏と判断した場合に、所定のショットタイミング(例えば極大点tp1及び極小点tp2)で、単音のロール波形を発音させる場合を例としたが、ドラムロール奏法による演奏の場合の発音パターンは、このように単音のロール波形を所定のショットタイミングで複数連続的に発音させるものに限定されない。
例えば、持続音としてのドラムロール音(実際にドラムロール奏法による演奏を行っている場合に発音される持続音)の波形データをROM32の音源記憶領域に格納しておき、奏法判断部311がドラムロール奏法による演奏と判断し、ドラムロール演奏モードに遷移すると、この持続音としてのドラムロール音の波形データを読み出して、ドラムロール演奏モードに遷移したタイミングでノートオンさせ、ドラムロール奏法による演奏を終了させ、通常演奏モードに遷移させるときに、この持続音をノートオフするようにしてもよい。
本実施形態で例示したように、単音のロール波形を演奏者の演奏動作に合わせて所定のタイミングで発音させる場合には、ドラムロール演奏モードにおけるドラムロール音に演奏者の技量や表現力が反映されやすく、演奏者自らが実際にドラムロール奏法による演奏を行っている感覚がより味わえる一方で、演奏者が演奏技術に習熟していない場合等には、ドラムロール演奏モードにおける音がばらつきやすく、下手なドラムロール音に聞こえる可能性がある。
これに対して、ドラムロール演奏モードにおいて持続音としてのドラムロール音を発音させる場合には、所定の条件を満たす動きをしている限りは、実際のドラムロール奏法による演奏と同じ音が発音されるため、ドラムロール演奏モードにおける演奏に個人差が現れず、演奏の習熟度に関わらず誰でも安定したドラムロール音を発音させることができる。
このため、例えば、単音のロール波形と持続音としてのドラムロール音の波形データの両方をROM32に格納しておき、ドラムロール奏法による演奏の際にいずれの波形データ(音源)を用いて、いずれのタイミングでノートオンさせるか等を演奏者が自らの技量等に応じて自由に選択できるようにしてもよい。
Further, in this embodiment, when the performance style determination unit 311 determines that the performance is based on the drum roll performance style, a case where a single roll waveform is generated at a predetermined shot timing (for example, the maximum point tp1 and the minimum point tp2) is taken as an example. However, the sound generation pattern in the case of a performance by the drum roll playing method is not limited to such that a plurality of single sound roll waveforms are continuously generated at a predetermined shot timing.
For example, waveform data of a drum roll sound as a continuous sound (a continuous sound that is generated when a performance is actually performed by a drum roll performance) is stored in the sound source storage area of the ROM 32, and the performance determination unit 311 performs drum recording. When it is determined that the performance is based on the roll performance method and the transition to the drum roll performance mode is made, the waveform data of the drum roll sound as the continuous sound is read out, and the note is turned on at the transition to the drum roll performance mode. You may make it note-off this continuous sound when it complete | finishes and it changes to normal performance mode.
As exemplified in the present embodiment, when a single-tone roll waveform is sounded at a predetermined timing in accordance with the performer's performance, the skill and expression of the performer are reflected in the drum roll sound in the drum roll performance mode. If the performer is not familiar with the performance technique, the sound in the drum roll performance mode is likely to vary. It may sound like a poor drum roll.
On the other hand, when a drum roll sound is generated as a continuous sound in the drum roll performance mode, the same sound as the performance by the actual drum roll performance is generated as long as the movement satisfies a predetermined condition. Therefore, individual differences do not appear in the performance in the drum roll performance mode, and anyone can produce a stable drum roll sound regardless of their level of performance.
For this reason, for example, both a single roll waveform and waveform data of a drum roll sound as a continuous sound are stored in the ROM 32, and any waveform data (sound source) is used when performing the drum roll performance. It may be possible for the performer to freely select whether or not to turn on the note at the timing according to his / her skill or the like.

また、本実施形態では、発音手段である発音部36がセンターユニット部30内に設けられている場合を例として説明したが、発音手段はセンターユニット部30とは別体として構成されていてもよい。この場合には、発音手段とセンターユニット部30とを有線又は無線で接続し、センターユニット部30からの指示信号にしたがって発音手段が所定の発音を行うように構成する。   Further, in the present embodiment, the case where the sound generation unit 36 which is a sound generation unit is provided in the center unit unit 30 has been described as an example, but the sound generation unit may be configured separately from the center unit unit 30. Good. In this case, the sounding means and the center unit 30 are connected by wire or wirelessly, and the sounding means performs a predetermined sound according to an instruction signal from the center unit 30.

また、本実施形態では、通常奏法による演奏の際の打音とは異なるドラムロール奏法による演奏時の打音をサンプリングした単音のロール波形をROM32に記憶させておき、ドラムロール奏法による演奏の際は、この単音のロール波形を複数連続的に発音させる構成としたが、ドラムロール奏法による演奏の際に用いる音源はこれに限定されない。   In the present embodiment, the ROM 32 stores a single tone roll waveform obtained by sampling the hitting sound during the performance by the drum roll playing method different from the hitting sound at the time of the performance by the normal performance method. However, the sound source used in the performance by the drum roll playing method is not limited to this.

また、本実施形態では、演奏者の演奏動作に基づくスティック部10(演奏操作子)の動きを検知する動き検知手段がスティック部10に配置されたモーションセンサ部14である場合を例として説明したが、動き検知手段はこれに限定されない。例えば、カメラユニット部20の撮像部24(カメラ)によって取得された画像からスティック部10(演奏操作子)の動きを検知してもよく、この場合には、カメラユニット部20の撮像部24(カメラ)が動き検知手段として機能する。   Further, in the present embodiment, the case where the motion detection unit that detects the movement of the stick unit 10 (performance operator) based on the performance operation of the performer is the motion sensor unit 14 disposed on the stick unit 10 has been described as an example. However, the motion detection means is not limited to this. For example, the movement of the stick unit 10 (performance operator) may be detected from an image acquired by the imaging unit 24 (camera) of the camera unit unit 20. In this case, the imaging unit 24 ( Camera) functions as a motion detection means.

また、本実施形態では、動き検知手段としてのモーションセンサ部14により取得されるモーションセンサデータとして、加速度センサにより計測された加速度のデータのみを例示したが、モーションセンサデータの内容はこれに限定されず、例えば、ジャイロにより角加速度を計測してその計測値を用いるようにしてもよい。
また、本実施形態では、スティック部10に平行な軸の回りの回転はしないものとして説明したが、これらの回転等についても角加速度センサ等により計測して対応するようにしてもよい。
In the present embodiment, only the acceleration data measured by the acceleration sensor is exemplified as the motion sensor data acquired by the motion sensor unit 14 as the motion detection means, but the content of the motion sensor data is limited to this. Instead, for example, the angular acceleration may be measured by a gyro and the measured value may be used.
In the present embodiment, the rotation around the axis parallel to the stick portion 10 is not described. However, these rotations may be measured by an angular acceleration sensor or the like.

また、本実施形態では、仮想的な打楽器として仮想のドラムセットD(図1(B)参照)を例にとって説明したが、これに限られるものではなく、本発明は、スティック部10の振り下ろし動作で楽音を発音する木琴など他の楽器に適用することができる。   In the present embodiment, the virtual drum set D (see FIG. 1B) is described as an example of the virtual percussion instrument. However, the present invention is not limited to this, and the present invention can swing the stick unit 10 down. It can be applied to other musical instruments such as xylophones that generate musical sounds by movement.

また、本実施形態では、演奏操作子が棒状のスティック部10である場合を例としたが、演奏操作子はこれに限定されない。箱型等、スティック以外の形状のものでもよく、例えば携帯電話機等の携帯端末装置を演奏操作子として用いてもよい。
楽音発生装置1は、演奏操作子で空間を叩く演奏動作を行うことで所定の楽器の音を発音させるものであり、実際に演奏操作子を楽器の打面に打ち付けるものではないため、携帯端末装置等の精密な電子機器を演奏操作子として用いた場合でも、演奏操作子が破損するおそれがない。
In the present embodiment, the performance operator is a stick-shaped stick unit 10 as an example, but the performance operator is not limited to this. For example, a portable terminal device such as a mobile phone may be used as a performance operator.
The musical sound generating device 1 generates a sound of a predetermined instrument by performing a performance operation of hitting a space with a performance operator, and does not actually hit the performance operator on the strike surface of the instrument. Even when a precision electronic device such as a device is used as a performance operator, there is no possibility that the performance operator will be damaged.

また、本実施形態では、スティック部10、カメラユニット部20、センターユニット部30が、いずれも内部に電源部を備えている構成としたが、スティック部10、カメラユニット部20、センターユニット部30を外部の電源と接続し、外部電源から電源供給を行う構成としてもよい。   In the present embodiment, the stick unit 10, the camera unit unit 20, and the center unit unit 30 are all provided with a power supply unit. However, the stick unit 10, the camera unit unit 20, and the center unit unit 30 are provided. May be connected to an external power source to supply power from the external power source.

以上本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
演奏者が保持可能な打撃用の演奏操作子と、
前記演奏者の打撃演奏操作によって生じる前記演奏操作子本体の動きを検知する動き検知手段と、
この動き検知手段により検知された動きに基づいて、前記演奏操作子を用いた演奏操作形態がロール奏法であるか否かを判断する奏法判断手段と、
前記奏法判断手段によりロール奏法と判断された場合、前記動き検出手段により検知された動きに基づいて決定されるタイミングにて、ロール奏法用楽音の発音を発音手段に指示する発音指示手段と、
を備えていることを特徴とする楽音発生装置。
<請求項2>
前記奏法判断手段は、前記動き検知手段により検知される前記演奏操作子の上下方向の動きによる移動量が予め定めた範囲内である場合に、ロール奏法であると判断することを特徴とする請求項1に記載の楽音発生装置。
<請求項3>
前記奏法判断手段は、前記動き検知手段によって検知された前記演奏操作子の動きから求められる各打撃演奏操作タイミング間の時間が予め定めた範囲内である場合に、ロール奏法であると判断することを特徴とする請求項1又は請求項2に記載の楽音発生装置。
<請求項4>
前記発音手段は、
単音のロール波形を記憶する記憶手段を備え、
前記奏法判断手段によりロール奏法であると判断されたときは、前記記憶手段からロール波形を複数回連続して読み出すことにより、ロール奏法用楽音の発音を行うことを特徴とする請求項1から請求項3のいずれか一項に記載の楽音発生装置。
Although several embodiments of the present invention have been described above, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof. .
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
A performance operator for striking that the performer can hold,
Movement detecting means for detecting movement of the performance operator main body caused by the player's batting performance operation;
Based on the movement detected by the movement detection means, a performance style determination means for determining whether or not the performance operation mode using the performance operator is a roll performance style;
A sounding instruction means for instructing the sounding means to pronounce a musical sound for roll performance at a timing determined based on the movement detected by the motion detecting means when the rendition style determining means determines that it is a roll performance;
A musical sound generating device comprising:
<Claim 2>
The performance style determination means determines that the performance style is a roll performance style when the amount of movement of the performance operator detected by the motion detection means is within a predetermined range. Item 2. A musical sound generator according to Item 1.
<Claim 3>
The rendition style determination means determines that it is a roll rendition style when the time between the respective hit performance operation timings obtained from the movement of the performance operator detected by the movement detection means is within a predetermined range. The musical tone generator according to claim 1 or 2, characterized in that.
<Claim 4>
The pronunciation means is:
Comprising storage means for storing a single roll waveform;
2. When the performance style determination means determines that the performance style is a roll performance style, the roll performance music is pronounced by continuously reading a roll waveform from the storage means a plurality of times. The musical sound generating device according to any one of items 3 to 4.

1 楽音発生装置
10 スティック部
14 モーションセンサ部
15 マーカー部
20 カメラユニット部
24 撮像部
30 センターユニット部
31 制御部
36 発音部
311 奏法判断部
312 発音制御部
361 楽音データ生成部
362 音声出力部
D ドラムセット
DESCRIPTION OF SYMBOLS 1 Musical sound generator 10 Stick part 14 Motion sensor part 15 Marker part 20 Camera unit part 24 Imaging part 30 Center unit part 31 Control part 36 Sound generation part 311 Performance method judgment part 312 Sound generation control part 361 Musical sound data generation part 362 Audio | voice output part D Drum set

Claims (2)

演奏者が保持可能な打撃用の演奏操作子と、
前記演奏者の打撃演奏操作によって生じる前記演奏操作子本体の動きを検知する動き検知手段と、
前記動き検知手段により検知される前記演奏操作子の上下方向の動きにより発生する加速度の極大値及び極小値が予め定めた範囲内である場合であって、かつ、前記動き検知手段によって検知された前記演奏操作子の操作により発生する加速度の極大値及び極小値との間の時間が予め定めた範囲内である場合にロール奏法であると判断する奏法判断手段と、
前記奏法判断手段によりロール奏法と判断された場合、前記動き検出手段により検知された動きに基づいて決定されるタイミングにて、ロール奏法用楽音の発音を発音手段に指示する発音指示手段と、
を備えていることを特徴とする楽音発生装置。
A performance operator for striking that the performer can hold,
Movement detecting means for detecting movement of the performance operator main body caused by the player's batting performance operation;
The maximum value and the minimum value of the acceleration generated by the vertical movement of the performance operator detected by the motion detection unit are within a predetermined range, and are detected by the motion detection unit. Rendition style determination means for determining that it is a roll rendition when the time between the maximum and minimum values of acceleration generated by the operation of the performance operator is within a predetermined range ;
A sounding instruction means for instructing the sounding means to pronounce a musical sound for roll performance at a timing determined based on the movement detected by the motion detecting means when the rendition style determining means determines that it is a roll performance;
A musical sound generating device comprising:
前記発音手段は、
単音のロール波形を記憶する記憶手段を備え、
前記奏法判断手段によりロール奏法であると判断されたときは、前記記憶手段からロール波形を複数回連続して読み出すことにより、ロール奏法用楽音の発音を行うことを特徴とする請求項1に記載の楽音発生装置。
The pronunciation means is:
Comprising storage means for storing a single roll waveform;
When it is determined that the roll performance by the rendition style determination section, by reading the roll waveform multiple times consecutively from said memory unit, according to claim 1, characterized in that the pronunciation of roll performance music sound Musical sound generator.
JP2012048489A 2012-03-05 2012-03-05 Music generator Active JP5935399B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012048489A JP5935399B2 (en) 2012-03-05 2012-03-05 Music generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012048489A JP5935399B2 (en) 2012-03-05 2012-03-05 Music generator

Publications (2)

Publication Number Publication Date
JP2013186136A JP2013186136A (en) 2013-09-19
JP5935399B2 true JP5935399B2 (en) 2016-06-15

Family

ID=49387650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012048489A Active JP5935399B2 (en) 2012-03-05 2012-03-05 Music generator

Country Status (1)

Country Link
JP (1) JP5935399B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4244874B2 (en) * 2004-07-14 2009-03-25 ヤマハ株式会社 Electronic percussion instrument, impact sound generation program
JP5088398B2 (en) * 2010-06-01 2012-12-05 カシオ計算機株式会社 Performance device and electronic musical instrument

Also Published As

Publication number Publication date
JP2013186136A (en) 2013-09-19

Similar Documents

Publication Publication Date Title
JP5966465B2 (en) Performance device, program, and performance method
JP6024136B2 (en) Performance device, performance method and program
JP5533915B2 (en) Proficiency determination device, proficiency determination method and program
JP6127367B2 (en) Performance device and program
JP5573899B2 (en) Performance equipment
US8586853B2 (en) Performance apparatus and electronic musical instrument
US20090318227A1 (en) Game controller case and sound output control method
US8710345B2 (en) Performance apparatus, a method of controlling the performance apparatus and a program recording medium
JP2013182195A (en) Musical performance device and program
JP2013040991A (en) Operator, operation method, and program
JP5549698B2 (en) Performance device, method and program
JP6111526B2 (en) Music generator
JP5935399B2 (en) Music generator
JP6398291B2 (en) Performance device, performance method and program
JP2013044889A (en) Music player
JP5861517B2 (en) Performance device and program
JP5974567B2 (en) Music generator
JP6098083B2 (en) Performance device, performance method and program
JP6094111B2 (en) Performance device, performance method and program
JP6098081B2 (en) Performance device, performance method and program
JP2013195626A (en) Musical sound generating device
JP5942627B2 (en) Performance device, method and program
JP6219717B2 (en) Electronic handbell system
JP2010191323A (en) Music creating device, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160425

R150 Certificate of patent or registration of utility model

Ref document number: 5935399

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150