JP2011257508A - Performance device and electronic musical instrument - Google Patents

Performance device and electronic musical instrument Download PDF

Info

Publication number
JP2011257508A
JP2011257508A JP2010130623A JP2010130623A JP2011257508A JP 2011257508 A JP2011257508 A JP 2011257508A JP 2010130623 A JP2010130623 A JP 2010130623A JP 2010130623 A JP2010130623 A JP 2010130623A JP 2011257508 A JP2011257508 A JP 2011257508A
Authority
JP
Japan
Prior art keywords
sound
volume level
acceleration sensor
threshold
time interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010130623A
Other languages
Japanese (ja)
Other versions
JP5029729B2 (en
Inventor
Hiroki Takahashi
宏毅 高橋
Takahiro Mizushina
隆広 水品
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010130623A priority Critical patent/JP5029729B2/en
Priority to US13/118,643 priority patent/US8653350B2/en
Priority to CN201110146130.2A priority patent/CN102270446B/en
Publication of JP2011257508A publication Critical patent/JP2011257508A/en
Application granted granted Critical
Publication of JP5029729B2 publication Critical patent/JP5029729B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To achieve production of a musical sound at a desired sound volume level at timing as intended by a performer.SOLUTION: An acceleration sensor 23 is placed on a performance device body 11 that extends in a longitudinal direction thereof and that is to be held by a performer with his or her hand. In the performance device body 11, a CPU 21 gives an instruction for sound production (note on event) to a sound source unit 31 of a musical instrument unit 19, which produces a predetermined musical sound. The CPU 21 generates a note on event at timing, as timing of sound production, when an acceleration sensor value of the acceleration sensor 23 exceeds a predetermined first threshold α and then falls below a second threshold β which is smaller than the first threshold α, and gives an instruction for sound production to the musical instrument unit 19. Further, the CPU 21 calculates a sound volume level to be included in the note on event, based on information on time interval between a time when the acceleration sensor value reaches the first threshold α and a time when the acceleration sensor value reaches the second threshold β.

Description

本発明は、演奏者が手で保持して、振ることにより楽音を発生させる演奏装置および電子楽器に関する。   The present invention relates to a performance apparatus and an electronic musical instrument that generate music by holding and shaking by a player.

従来、スティック状の部材にセンサを設け、演奏者が部材を手で保持して振ることで、センサが、当該部材の動きを検出し、楽音を発音するように構成された電子楽器が提案されている。特に、この電子楽器では、スティック状の部材は、ドラムのスティックや太鼓の撥のような形状を備え、演奏者があたかもドラムや太鼓をたたくような動作に応じて、打楽器音が発声されるようになっている。   Conventionally, there has been proposed an electronic musical instrument in which a sensor is provided on a stick-shaped member, and the player detects the movement of the member by holding the member by hand and shakes the member to generate a musical sound. ing. In particular, in this electronic musical instrument, the stick-shaped member has a shape like a drum stick or a drum repellent, so that a percussion instrument sound is uttered in response to the player's action of hitting the drum or drum. It has become.

たとえば、特許文献1には、スティック状の部材に加速度センサを設け、加速度センサからの出力(加速度センサ値)が、所定の閾値に達した後、所定時間が経過すると、楽音を発音するように構成された演奏装置が提案されている。   For example, in Patent Document 1, an acceleration sensor is provided on a stick-shaped member, and when a predetermined time elapses after the output from the acceleration sensor (acceleration sensor value) reaches a predetermined threshold value, a musical sound is generated. A configured performance device has been proposed.

特許第2663503号Japanese Patent No. 2663503

演奏者は、スティック状の演奏装置の一端を手で握り、たとえば、上から下に向けて振り下ろす。実際のドラムの演奏では、演奏者がスティックを振り下ろす際に、その速度を高めて最高速度のときにドラムの打撃面にスティックを当てる場合も有るが、実際には、次の動作(次の打撃)に移行するために、スティックを振り下ろした後に再度振り上げる動作を伴わせ、その振り下ろした最低位置が打撃面となるように動作させる場合が多い。したがって、電子楽器でも、演奏者は、スティック状の演奏装置を振り下ろし、その最低位置において楽音が発生されるのが望ましい。   The performer grasps one end of the stick-shaped performance device with his hand and swings it down from the top to the bottom, for example. In actual drum performance, when the performer swings down the stick, the speed may be increased and the stick may be applied to the striking surface of the drum at the maximum speed. In order to shift to (striking), in many cases, the stick is swung down and then swung up again, and the swung down position becomes the striking surface. Therefore, it is desirable for a performer to swing down a stick-like performance device and generate a musical tone at the lowest position even in an electronic musical instrument.

しかしながら、特許文献1に開示された演奏装置では、上述したような、演奏者がスティックを振り下ろした最低位置で発音させることは難しいという問題点があった。   However, the performance device disclosed in Patent Document 1 has a problem that it is difficult for the performer to produce a sound at the lowest position where the player swings down the stick.

本発明は、演奏者が意図したタイミングで、所望の音量の楽音を発音させることが可能な演奏装置および電子楽器を提供することを目的とする。   An object of the present invention is to provide a performance device and an electronic musical instrument capable of generating a musical sound having a desired volume at a timing intended by a player.

本発明の目的は、演奏者が手で保持するための長手方向に延びる保持部材と、
前記保持部材内に配置された加速度センサと、
所定の楽音を発音する楽音発生手段に対して発音の指示を与える制御手段と、を備え、
前記制御手段が、前記加速度センサ値が、所定の第1の閾値を超えて、その後、前記第1の閾値より小さい第2の閾値より小さくなったタイミングを発音タイミングとして、前記楽音発生手段に対して発音の指示を与える発音タイミング検出手段と、
前記加速度センサ値が、所定の第1のレベルに達してから、前記発音タイミングである第2の閾値になるまでの時間間隔情報を取得し、前記時間間隔情報にしたがった音量レベルを算出する音量レベル算出手段を有し、
前記発音タイミング検出手段が、前記音量レベル算出手段により算出された音量レベルで、前記発音タイミングにおいて、前記楽音発生手段に対して発音の指示を与えることを特徴とする演奏装置により達成される。
An object of the present invention is to provide a holding member extending in a longitudinal direction for a player to hold by hand,
An acceleration sensor disposed in the holding member;
Control means for giving a sound generation instruction to a music sound generating means for generating a predetermined music sound,
The control means uses the timing at which the acceleration sensor value exceeds a predetermined first threshold and then becomes smaller than a second threshold smaller than the first threshold as a sounding timing for the musical sound generating means. Pronunciation timing detection means for giving instructions of pronunciation,
Volume that obtains time interval information from when the acceleration sensor value reaches a predetermined first level until it reaches the second threshold that is the sound generation timing, and calculates a volume level according to the time interval information A level calculation means,
This is achieved by a performance apparatus in which the sound generation timing detection means gives a sound generation instruction to the music sound generation means at the sound generation timing at the sound volume level calculated by the sound volume level calculation means.

好ましい実施態様においては、前記音量レベル算出手段が、第1のレベルとして前記第1の閾値に達してから、前記第2の閾値になるまでの時間間隔情報を取得する。   In a preferred embodiment, the sound volume level calculating means acquires time interval information from when the first threshold is reached as the first level until the second threshold is reached.

また、好ましい実施態様においては、前記音量レベル算出手段が、前記時間間隔情報Tに基づいて、音量レベルVelを、
Vel=a・T(ただし、a・T≧音量レベル最大値Vmaxのときには、Vel=Vmax、aは正の定数)に基づいて算出する。
In a preferred embodiment, the volume level calculation means calculates the volume level Vel based on the time interval information T.
It is calculated based on Vel = a · T (where a · T ≧ volume level maximum value Vmax, Vel = Vmax, a is a positive constant).

別の好ましい実施態様においては、前記時間間隔情報Tの範囲と、音量レベルとを対応付けたテーブルを備え、
前記音量レベル算出手段が、前記時間間隔情報Tが、前記テーブルの何れの範囲に属するかに基づき、音量レベルを取得する。
In another preferred embodiment, a table in which the range of the time interval information T and the volume level are associated with each other is provided.
The volume level calculating means acquires a volume level based on which range of the table the time interval information T belongs to.

また、本発明の目的は、上記演奏装置と、
前記楽音発生手段を備えた楽器部と、を備え、
前記演奏装置と、前記楽器部とが、それぞれ、通信手段を備えたことを特徴とする電子楽器により達成される。
Another object of the present invention is to provide the above performance device,
A musical instrument unit comprising the musical sound generating means,
The performance device and the musical instrument unit are each achieved by an electronic musical instrument comprising a communication means.

本発明によれば、演奏者が意図したタイミングで、所望の音量の楽音を発音させることが可能な演奏装置および電子楽器を提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the performance apparatus and electronic musical instrument which can sound a musical sound of a desired volume at the timing which the player intended.

図1は、本発明の実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。FIG. 1 is a block diagram showing a configuration of an electronic musical instrument according to an embodiment of the present invention. 図2は、本実施の形態にかかる演奏装置本体の構成を示すブロックダイヤグラムである。FIG. 2 is a block diagram showing the configuration of the performance device main body according to the present embodiment. 図3(a)は、本実施の形態にかかる演奏装置本体において実行される処理の例を示すフローチャート、図3(b)は、本実施の形態にかかるタイマインタラプト処理の例を示すフローチャートである。FIG. 3A is a flowchart showing an example of processing executed in the performance apparatus main body according to the present embodiment, and FIG. 3B is a flowchart showing an example of timer interrupt processing according to the present embodiment. . 図4は、本実施の形態にかかる発音タイミング検出処理の例を示すフローチャートである。FIG. 4 is a flowchart showing an example of the sound generation timing detection process according to the present embodiment. 図5は、本実施の形態にかかるノートオンイベント生成処理の例を示すフローチャートである。FIG. 5 is a flowchart showing an example of the note-on event generation process according to the present embodiment. 図6は、本実施の形態にかかる楽器部において実行される処理の例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of processing executed in the musical instrument unit according to the present embodiment. 図7は、打楽器本体の加速度センサにより検出される加速度センサ値の例を模式的に示したグラフである。FIG. 7 is a graph schematically showing an example of acceleration sensor values detected by the acceleration sensor of the percussion instrument body. 図8は、打楽器本体の加速度センサにより検出される加速度センサ値の他の例を模式的に示したグラフである。FIG. 8 is a graph schematically showing another example of acceleration sensor values detected by the acceleration sensor of the percussion instrument body.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本発明の実施の形態にかかる電子楽器の構成を示すブロックダイヤグラムである。図1に示すように、本実施の形態にかかる電子楽器10は、演奏者が手に持って振るための、長手方向に延びるスティック状の演奏装置本体11を有している。また、電子楽器10は、楽音を発生するための楽器部19を備え、楽器部19は、CPU12、インタフェース(I/F)13、ROM14、RAM15、表示部16、入力部17およびサウンドシステム18を有する。演奏装置本体11は、後述するように、演奏者が保持する根元側と反対側である先端側の付近に加速度センサ23を有する。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block diagram showing a configuration of an electronic musical instrument according to an embodiment of the present invention. As shown in FIG. 1, an electronic musical instrument 10 according to the present embodiment has a stick-like performance device main body 11 extending in the longitudinal direction for a player to shake in his / her hand. The electronic musical instrument 10 includes a musical instrument unit 19 for generating musical sounds. The musical instrument unit 19 includes a CPU 12, an interface (I / F) 13, a ROM 14, a RAM 15, a display unit 16, an input unit 17, and a sound system 18. Have. As will be described later, the performance device main body 11 has an acceleration sensor 23 in the vicinity of the tip side opposite to the base side held by the performer.

楽器部19のI/F13は、演奏装置本体11からのデータ(たとえばノートオンイベント)を受け入れて、RAM15に格納するとともに、CPU12にデータの受け入れを通知する。本実施の形態においては、たとえば、演奏装置本体11の根元側端部に赤外線通信装置24が設けられ、I/F13にも赤外線通信装置33が設けられている。したがって、楽器部19は、演奏装置本体11の赤外線通信装置24が発した赤外線を、I/F13の赤外線通信装置33が受信することで、演奏装置本体11からのデータを受信することができる。   The I / F 13 of the musical instrument unit 19 accepts data (for example, a note-on event) from the performance apparatus main body 11, stores it in the RAM 15, and notifies the CPU 12 of acceptance of the data. In the present embodiment, for example, an infrared communication device 24 is provided at the base side end of the performance device main body 11, and an infrared communication device 33 is also provided in the I / F 13. Therefore, the musical instrument unit 19 can receive data from the performance apparatus main body 11 when the infrared communication apparatus 33 of the I / F 13 receives the infrared rays emitted from the infrared communication apparatus 24 of the performance apparatus main body 11.

CPU12は、電子楽器10全体の制御、特に、電子楽器の楽器部19の制御、入力部17を構成するキースイッチ(図示せず)の操作の検出、I/F13を介して受信したノートオンイベントに基づく楽音の発生など、種々の処理を実行する。   The CPU 12 controls the electronic musical instrument 10 as a whole, in particular, controls the musical instrument unit 19 of the electronic musical instrument, detects an operation of a key switch (not shown) constituting the input unit 17, and a note-on event received via the I / F 13. Various processes such as generation of musical sounds based on the above are executed.

ROM14は、電子楽器10全体の制御、特に、電子楽器の楽器部19の制御、入力部17を構成するキースイッチ(図示せず)の操作の検出、I/F13を介して受信したノートオンイベントに基づく楽音の発生など、種々の処理プログラムを格納する。また、ROM14は、種々の音色の波形データ、特に、バスドラム、ハイハット、スネア、シンバルなど打楽器の波形データを格納する波形データエリアを含む。無論、打楽器の波形データに限定されず、ROM22には、フルート、サックス、トランペットなどの管楽器、ピアノなどの鍵盤楽器、ギターなどの弦楽器の音色の波形データが格納されていても良い。   The ROM 14 controls the entire electronic musical instrument 10, in particular, controls the musical instrument unit 19 of the electronic musical instrument, detects operation of a key switch (not shown) constituting the input unit 17, and note-on events received via the I / F 13. Various processing programs, such as generation of musical sounds based on, are stored. The ROM 14 includes a waveform data area for storing waveform data of various timbres, particularly percussion instrument waveform data such as bass drum, hi-hat, snare, and cymbal. Of course, it is not limited to the waveform data of percussion instruments, and the ROM 22 may store waveform data of timbres of wind instruments such as flutes, saxophones and trumpet, keyboard instruments such as piano, and stringed instruments such as guitar.

RAM15は、ROM14から読み出されたプログラムや、処理の過程で生じたデータやパラメータを記憶する。処理の過程で生じたデータには、入力部17のスイッチの操作状態、I/F13を介して受信したセンサ値等、楽音の発音状態(発音フラグ)などが含まれる。   The RAM 15 stores programs read from the ROM 14 and data and parameters generated in the process. The data generated in the process includes the operation state of the switch of the input unit 17, the sensor value received via the I / F 13, etc., and the sound generation state (sound generation flag).

表示部16は、たとえば、液晶表示装置(図示せず)を有し、選択された音色や後述する角度の差分値の範囲と楽音の音高とを対応付けたテーブルなどを表示することができる。また、入力部17は、スイッチ(図示せず)を有し、音色の指定などを指示することができる。   The display unit 16 includes, for example, a liquid crystal display device (not shown), and can display a table in which a selected tone color, a range of difference values of angles described later, and musical tone pitches are associated with each other. . The input unit 17 includes a switch (not shown) and can instruct designation of a timbre.

サウンドシステム18は、音源部31、オーディオ回路32およびスピーカ35を備える。音源部31は、CPU12からの指示にしたがって、ROM15の波形データエリアから波形データを読み出して、楽音データを生成して出力する。オーディオ回路32は、音源部31から出力された楽音データをアナログ信号に変換し、変換されたアナログ信号を増幅してスピーカ35に出力する。これによりスピーカ35から楽音が出力される。   The sound system 18 includes a sound source unit 31, an audio circuit 32, and a speaker 35. The sound source unit 31 reads waveform data from the waveform data area of the ROM 15 in accordance with an instruction from the CPU 12, generates musical tone data, and outputs it. The audio circuit 32 converts the musical sound data output from the sound source unit 31 into an analog signal, amplifies the converted analog signal, and outputs the amplified analog signal to the speaker 35. As a result, a musical sound is output from the speaker 35.

図2は、本実施の形態にかかる演奏装置本体の構成を示すブロックダイヤグラムである。図2に示すように、演奏装置本体11は、演奏者が保持する根元側と反対側である先端側に、加速度センサ23を有する。加速度センサ23は、たとえば、静電容量型或いはピエゾ抵抗素子型のセンサであり、生じた加速度を示すデータ値を出力することができる。本実施の形態にかかる加速度センサ23は、たとえば、演奏装置本体11の軸方向(図2の符号200参照)の加速度センサ値を出力する。   FIG. 2 is a block diagram showing the configuration of the performance device main body according to the present embodiment. As shown in FIG. 2, the performance apparatus main body 11 has an acceleration sensor 23 on the tip side that is opposite to the base side held by the performer. The acceleration sensor 23 is, for example, a capacitance type or piezoresistive type sensor, and can output a data value indicating the generated acceleration. The acceleration sensor 23 according to the present embodiment outputs, for example, an acceleration sensor value in the axial direction of the performance apparatus main body 11 (see reference numeral 200 in FIG. 2).

演奏者が実際にドラムを演奏するときには、スティックの一端(根元側)を手に持って、スティックに手首などを中心とした回転運動を生じさせる。したがって、この実施の形態では、回転運動に伴う遠心力を検知すべく、演奏装置本体11の軸方向の加速度センサ値を取得する。無論、加速度センサとして3軸センサを用いても良い。   When the performer actually plays the drum, he holds one end (base side) of the stick in his hand and causes the stick to rotate around the wrist or the like. Therefore, in this embodiment, the acceleration sensor value in the axial direction of the performance apparatus main body 11 is acquired in order to detect the centrifugal force accompanying the rotational movement. Of course, a triaxial sensor may be used as the acceleration sensor.

また、演奏装置本体11は、CPU21、赤外線通信装置24、ROM25、RAM26、インタフェース(I/F)27および入力部28を有する。CPU21は、演奏装置本体11における加速度センサ値の取得、加速度センサ値にしたがった楽音の発音タイミングの検出、ノートオンイベントの生成、I/F27および赤外線通信装置24を介したノートオンイベントの送信制御などの処理を実行する。   The performance device main body 11 includes a CPU 21, an infrared communication device 24, a ROM 25, a RAM 26, an interface (I / F) 27, and an input unit 28. The CPU 21 acquires the acceleration sensor value in the performance apparatus body 11, detects the tone generation timing of the musical sound according to the acceleration sensor value, generates the note-on event, and controls the transmission of the note-on event via the I / F 27 and the infrared communication device 24. Etc. are executed.

ROM25には、演奏装置本体11における加速度センサ値の取得、加速度センサ値にしたがった楽音の発音タイミングの検出、ノートオンイベントの生成、I/F27および赤外線通信装置24を介したノートオンイベントの送信制御などの処理プログラムが格納される。RAM26には、センサ値など、処理において取得され或いは生成された値が格納される。I/F27は、CPU21からの指示にしたがって赤外線通信装置24にデータを出力する。また、入力部28は、スイッチ(図示せず)を有する。   The ROM 25 acquires the acceleration sensor value in the performance device main body 11, detects the tone generation timing of the musical sound according to the acceleration sensor value, generates the note-on event, and transmits the note-on event via the I / F 27 and the infrared communication device 24. A processing program such as control is stored. The RAM 26 stores values obtained or generated in the process such as sensor values. The I / F 27 outputs data to the infrared communication device 24 in accordance with an instruction from the CPU 21. The input unit 28 has a switch (not shown).

図3(a)は、本実施の形態にかかる演奏装置本体において実行される処理の例を示すフローチャートである。図3(a)に示すように、演奏装置本体11のCPU21は、RAM26のデータのクリア、タイマ値tのリセットなどを含むイニシャライズ処理を実行する(ステップ301)。CPU21は、加速度センサ23のセンサ値(加速度センサ値)を取得して、RAM26に格納する(ステップ302)。上述したように、本実施の形態においては、加速度センサ値として、演奏装置本体11の軸方向のセンサ値が採用される。   FIG. 3A is a flowchart showing an example of processing executed in the performance device main body according to the present embodiment. As shown in FIG. 3A, the CPU 21 of the performance device main body 11 performs initialization processing including clearing the data in the RAM 26, resetting the timer value t, and the like (step 301). CPU21 acquires the sensor value (acceleration sensor value) of the acceleration sensor 23, and stores it in RAM26 (step 302). As described above, in the present embodiment, the sensor value in the axial direction of the performance device main body 11 is employed as the acceleration sensor value.

次いで、CPU21は、発音タイミング検出処理を実行する(ステップ303)。図4は、本実施の形態にかかる発音タイミング検出処理の例を示すフローチャートである。図4に示すように、CPU21は、RAM26に格納された加速度センサ値を読み出す(ステップ401)。次いで、CPU21は、加速度センサ値が、所定の第1の閾値αより大きいかを判断する(ステップ402)。ステップ402でYesと判断された場合には、CPU21は、タイマインタラプトを有効にするとともに(ステップ403)、RAM26中の加速度フラグに「1」をセットする(ステップ404)。図3(b)は、タイマインタラプト処理の例を示すフローチャートである。タイマインタラプト処理は、タイマインタラプトが有効になると起動され、所定の時間間隔で、タイマ値tをインクリメントする(ステップ311)。   Next, the CPU 21 executes a sound generation timing detection process (step 303). FIG. 4 is a flowchart showing an example of the sound generation timing detection process according to the present embodiment. As shown in FIG. 4, the CPU 21 reads the acceleration sensor value stored in the RAM 26 (step 401). Next, the CPU 21 determines whether the acceleration sensor value is greater than a predetermined first threshold value α (step 402). When it is determined Yes in step 402, the CPU 21 enables the timer interrupt (step 403) and sets “1” to the acceleration flag in the RAM 26 (step 404). FIG. 3B is a flowchart illustrating an example of timer interrupt processing. The timer interrupt process is started when the timer interrupt becomes valid, and increments the timer value t at a predetermined time interval (step 311).

ステップ404の後、CPU21は、時間間隔情報Tに、タイマ値tを加算して、当該時間間隔情報Tを更新する(ステップ405)。時間間隔情報Tは、RAM26に格納される。その後、CPU21は、タイマ値tを「0」にリセットする(ステップ406)。   After step 404, the CPU 21 updates the time interval information T by adding the timer value t to the time interval information T (step 405). The time interval information T is stored in the RAM 26. Thereafter, the CPU 21 resets the timer value t to “0” (step 406).

ステップ402でNoと判断された場合には、CPU21は、RAM26中の加速度フラグが「1」であるかを判断する(ステップ407)。ステップ407でYesと判断された場合には、CPU21は、加速度センサ値が、所定の第2の閾値βより小さいかを判断する(ステップ408)。ステップ408でNoと判断された場合には、ステップ405に進み、時間間隔情報Tにタイマ値tが加算される。ステップ408でYesと判断された場合には、CPU21は、ノートオンイベント生成処理を実行する(ステップ409)。   If it is determined No in step 402, the CPU 21 determines whether the acceleration flag in the RAM 26 is “1” (step 407). When it is determined Yes in step 407, the CPU 21 determines whether the acceleration sensor value is smaller than a predetermined second threshold value β (step 408). If it is determined No in step 408, the process proceeds to step 405, where the timer value t is added to the time interval information T. When it is determined Yes in step 408, the CPU 21 executes a note-on event generation process (step 409).

図5は、本実施の形態にかかるノートオンイベント生成処理の例を示すフローチャートである。図5に示すノートオンイベント生成処理により、ノートオンイベントが楽器部19に送信され、その後、楽器部19において発音処理(図6参照)が実行されることにより、楽音データが生成され、スピーカ35から楽音が発音される。   FIG. 5 is a flowchart showing an example of the note-on event generation process according to the present embodiment. The note-on event is transmitted to the musical instrument unit 19 by the note-on event generation process shown in FIG. 5, and then the musical tone unit 19 executes a sound generation process (see FIG. 6), thereby generating musical sound data and the speaker 35. The sound is pronounced.

なお、ノートオンイベント生成処理の説明に先立ち、本実施の形態にかかる電子楽器10における発音タイミングについて説明する。図7は、演奏装置本体11の加速度センサ23により検出される加速度センサ値の例を模式的に示したグラフである。演奏者が、演奏装置本体11の一端(根元側)を持って振ることは、手首、ひじ、肩などを支点とした回転運動を演奏装置本体11に生じさせる。この回転運動に伴って、特に、遠心力により、演奏装置本体11の軸方向に加速度が生じる。   Prior to the description of the note-on event generation process, the sound generation timing in the electronic musical instrument 10 according to the present embodiment will be described. FIG. 7 is a graph schematically showing an example of the acceleration sensor value detected by the acceleration sensor 23 of the performance device main body 11. When the performer swings while holding one end (base side) of the performance apparatus main body 11, the performance apparatus main body 11 is caused to rotate with the wrist, elbow, shoulder, or the like as a fulcrum. Accompanying this rotational movement, in particular, acceleration is generated in the axial direction of the musical instrument main body 11 by centrifugal force.

演奏者が、演奏装置本体11を振ると、加速度センサ値は、次第に大きくなる(図7の曲線700における符号701参照)。演奏者がスティック状の演奏装置本体11を振るときに、一般には、ドラムを打つ動作と同様に動作する。したがって、演奏者は、仮想的に設定されたドラムの面にスティックを打ちつける寸前に、スティック(つまりスティック状の演奏装置本体11)の動作をとめていく。したがって、ある時刻から加速度センサ値は徐々に減少する(符号702参照)。演奏者は、仮想的なドラムの面にスティックを打ちつけた瞬間に楽音が発生することを想定している。したがって、演奏者が想定するタイミングで楽音を発生できるのが望ましい。   When the performer swings the performance apparatus main body 11, the acceleration sensor value gradually increases (see reference numeral 701 in the curve 700 in FIG. 7). When the performer swings the stick-like performance apparatus main body 11, generally, the operation is similar to the operation of hitting the drum. Therefore, the performer stops the operation of the stick (that is, the stick-shaped performance device main body 11) just before hitting the stick on the virtually set drum surface. Therefore, the acceleration sensor value gradually decreases from a certain time (see reference numeral 702). The performer assumes that the musical sound is generated at the moment when the stick is struck on the virtual drum surface. Therefore, it is desirable that the musical sound can be generated at the timing assumed by the performer.

本発明では、演奏者が仮想的なドラムの面にスティックを打ちつける瞬間或いはそのわずかに前に楽音を発生すべく、以下に述べるようなロジックを採用する。発音タイミングは、加速度センサ値が減少して、「0」よりわずかに大きい第2の閾値βより小さくなったときとする。しかしながら、演奏者が予期していない動作により、加速度センサ値が振動して、上述した第2の閾値β前後に達する可能性もある。したがって、予期しない振動を排除するために、いったん、加速度センサ値が上昇して、所定の第1の閾値α(αはβより十分に大きい)を越えることを条件としている。すなわち、加速度センサ値がいったん第1の閾値αより大きくなり(時刻tα参照)、その後、加速度センサ値が減少して、第2の閾値βより小さくなったとき(時刻tβ参照)、時刻tβを発音タイミングとしている。上述したような発音タイミングが到来したと判断されると、演奏装置本体11においてノートオンイベントが生成され、楽器部10に送信される。また、これに応答して、楽器部19において、発音処理が実行されて、楽音が発生する。 In the present invention, the logic described below is employed in order to generate a musical sound at the moment or slightly before the player strikes the virtual drum surface. The sound generation timing is when the acceleration sensor value decreases and becomes smaller than the second threshold value β slightly larger than “0”. However, there is a possibility that the acceleration sensor value vibrates and reaches around the above-described second threshold value β due to an operation unexpected by the performer. Therefore, in order to eliminate unexpected vibrations, it is a condition that the acceleration sensor value once rises and exceeds a predetermined first threshold value α (α is sufficiently larger than β). That is, (see time t alpha) acceleration sensor value becomes temporarily larger than the first threshold value alpha, then, with the acceleration sensor value is reduced, when it becomes less than the second threshold value beta (see time t beta), time t β is used as the sound generation timing. When it is determined that the sound generation timing as described above has arrived, a note-on event is generated in the performance apparatus body 11 and transmitted to the musical instrument unit 10. In response to this, the musical instrument unit 19 performs a sound generation process to generate a musical sound.

さらに、本実施の形態においては、加速度センサ値が第1の閾値αより大きくなった時刻tαと、その後、加速度センサ値が第2の閾値βより小さくなった時刻tβとの間の時間間隔情報Tを計測し、当該時間間隔情報Tに基づいて、発音すべき楽音の音量レベルを計測する。図4のステップ405においては、加速度センサ値が閾値αより大きくなってから、発音タイミング検出処理が実行されるごとに、時間間隔情報Tにタイマ値tが加算される。したがって、ステップ408でYesとなったときに、図7における時刻tαと時刻tβとの間の時間間隔が、時間間隔情報Tとして得られる。 Further, in the present embodiment, the time between the time t α when the acceleration sensor value becomes larger than the first threshold value α and the time t β when the acceleration sensor value becomes smaller than the second threshold value β thereafter. The interval information T is measured, and based on the time interval information T, the volume level of the musical sound to be generated is measured. In step 405 of FIG. 4, the timer value t is added to the time interval information T every time the sound generation timing detection process is executed after the acceleration sensor value becomes larger than the threshold value α. Therefore, when it becomes Yes at step 408, the time interval between time t alpha and time t beta in FIG. 7 is obtained as the time interval information T.

図5に示すように、ノートオンイベント生成処理においては、CPU21は、RAM26に格納された時間間隔情報Tを参照して、当該時間間隔情報Tに基づく楽音の音量レベル(ベロシティ)を決定する(ステップ501)。   As shown in FIG. 5, in the note-on event generation process, the CPU 21 refers to the time interval information T stored in the RAM 26 and determines the volume level (velocity) of the musical sound based on the time interval information T ( Step 501).

音量レベルの最大値をVmaxとすると、音量レベルVelは、たとえば、以下のように求めることができる。
Vel=a・T
(ただし、a・T>Vmaxであれば、Vel=Vmax、また、aは所定の正の係数)
次いで、CPU21は、得られた音量レベルを含むノートオンイベントを生成する(ステップ502)。ノートオンイベントには、音色や音高情報が含まれ得る。CPU21は、生成されたノートオンイベントをI/F27に出力する(ステップ503)。I/F27は、赤外線通信装置24にノートオンイベントを赤外線信号として送信させる。赤外線通信装置24からの赤外線信号は楽器部19の赤外線通信装置33に受信される。その後、CPU21は、RAM26中の加速度フラグを「0」にリセットする(ステップ504)。また、CPU21は、タイマ値tを「0」にリセットして(ステップ505)、タイマインタラプトを無効とする(ステップ506)。
When the maximum value of the volume level is Vmax, the volume level Vel can be obtained as follows, for example.
Vel = a ・ T
(However, if a · T> Vmax, Vel = Vmax, and a is a predetermined positive coefficient)
Next, the CPU 21 generates a note-on event including the obtained volume level (step 502). Note-on events can include timbre and pitch information. The CPU 21 outputs the generated note-on event to the I / F 27 (step 503). The I / F 27 causes the infrared communication device 24 to transmit a note-on event as an infrared signal. An infrared signal from the infrared communication device 24 is received by the infrared communication device 33 of the musical instrument unit 19. Thereafter, the CPU 21 resets the acceleration flag in the RAM 26 to “0” (step 504). Further, the CPU 21 resets the timer value t to “0” (step 505), and invalidates the timer interrupt (step 506).

ノートオンイベント処理(ステップ409)が終了すると、CPU21は、時間間隔情報Tを「0」にリセットする(ステップ410)。ステップ407でNoと判断された場合にも同様にステップ410が実行される。   When the note-on event process (step 409) ends, the CPU 21 resets the time interval information T to “0” (step 410). If it is determined No in step 407, step 410 is similarly executed.

図8は、演奏装置本体11を振ったときの加速度センサ値の変化の例を示すグラフである。図8において、加速度センサ値が曲線800で示す場合(第1の例)の時間間隔情報はT0であり、加速度センサ値が曲線801で示す場合(第2の例)の時間間隔情報はT1である。図8に示すように、T0<T1であるため、第1の例についての音量レベルよりも、第2の例についての音量レベルの方が大きくなる。   FIG. 8 is a graph showing an example of a change in the acceleration sensor value when the performance device body 11 is shaken. In FIG. 8, the time interval information when the acceleration sensor value is indicated by a curve 800 (first example) is T0, and the time interval information when the acceleration sensor value is indicated by a curve 801 (second example) is T1. is there. As shown in FIG. 8, since T0 <T1, the volume level for the second example is larger than the volume level for the first example.

発音タイミング検出処理(ステップ303)が終了すると、CPU21は、パラメータ通信処理を実行する(ステップ304)。パラメータ通信処理(ステップ304)については、後述する楽器部19におけるパラメータ通信処理(図6のステップ605)とともに説明する。   When the sound generation timing detection process (step 303) ends, the CPU 21 executes a parameter communication process (step 304). The parameter communication process (step 304) will be described together with the parameter communication process (step 605 in FIG. 6) in the musical instrument unit 19 described later.

次に、本実施の形態にかかる楽器部において実行される処理について説明する。図6は、本実施の形態にかかる楽器部において実行される処理の例を示すフローチャートである。楽器部19のCPU12は、RAM15のデータのクリア、表示部16の画面上の画像のクリア、音源部31のクリアなどを含むイニシャライズ処理を実行する(ステップ601)。次いで、CPU12は、スイッチ処理を実行する(ステップ602)。スイッチ処理においては、たとえば、以下の処理を実行する。CPU12は、入力部17のスイッチ操作にしたがって、発音すべき楽音の音色の設定などを実行する。CPU12は、指定された音色の情報をRAM15に格納する。   Next, processing executed in the musical instrument unit according to the present embodiment will be described. FIG. 6 is a flowchart illustrating an example of processing executed in the musical instrument unit according to the present embodiment. The CPU 12 of the musical instrument unit 19 executes initialization processing including clearing data in the RAM 15, clearing an image on the screen of the display unit 16, clearing the sound source unit 31, and the like (step 601). Next, the CPU 12 executes a switch process (step 602). In the switch process, for example, the following process is executed. The CPU 12 executes setting of the tone color of a musical tone to be generated according to the switch operation of the input unit 17. The CPU 12 stores the specified timbre information in the RAM 15.

次いで、CPU12は、I/F13が、ノートオンイベントを新たに受信しているかを判断する(ステップ603)。ステップ503でYesと判断された場合には、CPU12は発音処理を実行する(ステップ604)。発音処理においては、CPU12は、受信したノートオンイベントを音源部31に出力する。音源部31は、ノートオンイベントに示される音色にしたがってROMの波形データを読み出す。また、音源部31は、読み出された波形データに、ノートオンイベントに含まれる音量データ(ベロシティ)にしたがった係数を乗算して、所定の音量レベルの楽音データを生成する。生成された楽音データはオーディオ回路32に出力され、最終的に、所定の楽音がスピーカ35から発生される。   Next, the CPU 12 determines whether the I / F 13 has newly received a note-on event (step 603). If it is determined Yes in step 503, the CPU 12 executes a sound generation process (step 604). In the sound generation process, the CPU 12 outputs the received note-on event to the sound source unit 31. The sound source unit 31 reads ROM waveform data in accordance with the tone color indicated in the note-on event. The tone generator 31 multiplies the read waveform data by a coefficient according to the volume data (velocity) included in the note-on event to generate musical sound data of a predetermined volume level. The generated musical sound data is output to the audio circuit 32, and finally a predetermined musical sound is generated from the speaker 35.

発音処理(ステップ604)の後、CPU12は、パラメータ通信処理を実行する(ステップ605)。パラメータ通信処理においては、CPU12の指示によって、たとえば、スイッチ処理(ステップ602)で設定された発音すべき楽音の音色のデータが、I/F13を介して赤外線通信装置33から、演奏装置本体11に送信される。また、演奏装置本体11において、赤外線通信装置24が、データを受信すると、CPU21は、I/F27を介してデータを受け入れ、RAM26に格納する(図3のステップ304)。パラメータ通信処理(ステップ605)が終了すると、CPU12は、その他の処理、たとえば、表示部16の画面上に表示される画像の更新などを実行する(ステップ606)。   After the sound generation process (step 604), the CPU 12 executes a parameter communication process (step 605). In the parameter communication process, for example, the tone color data of the musical tone to be generated set in the switch process (step 602) is transmitted from the infrared communication apparatus 33 to the performance apparatus main body 11 via the I / F 13 in accordance with an instruction from the CPU 12. Sent. In the performance apparatus main body 11, when the infrared communication device 24 receives the data, the CPU 21 receives the data via the I / F 27 and stores it in the RAM 26 (step 304 in FIG. 3). When the parameter communication process (step 605) ends, the CPU 12 executes other processes, for example, an update of an image displayed on the screen of the display unit 16 (step 606).

本実施の形態によれば、演奏者が手で保持するための長手方向に延びる演奏装置本体11に、加速度センサ23が配置されている。演奏装置本体11のCPU21は、所定の楽音を発音する音源部31に対して発音の指示(ノートオンイベント)を与える。CPU21は、加速度センサ23の加速度センサ値が、所定の第1の閾値αを超えて、その後、前記第1の閾値より小さい第2の閾値βより小さくなったタイミングを発音タイミングとして、ノートオンイベントを生成し、楽器部19に対して発音の指示を与える。したがって、演奏者が仮想的なドラムの面にスティックを打ちつけた瞬間に楽音が発生させることが可能となる。   According to the present embodiment, the acceleration sensor 23 is arranged on the performance device main body 11 extending in the longitudinal direction for the performer to hold by hand. The CPU 21 of the performance device main body 11 gives a sound generation instruction (note-on event) to the sound source unit 31 that generates a predetermined musical sound. The CPU 21 uses the timing at which the acceleration sensor value of the acceleration sensor 23 exceeds the predetermined first threshold value α and then becomes smaller than the second threshold value β, which is smaller than the first threshold value, as a sound generation timing, and takes note-on events. Is generated, and the instrument unit 19 is instructed to generate sound. Therefore, a musical sound can be generated at the moment when the player strikes the virtual drum surface with a stick.

また、本実施の形態においては、加速度センサ値が、所定の第1のレベルに達した時刻から、発音タイミングに相当するレベル(第1の閾値より小さい第2の閾値β)に達した時刻までの時間間隔に基づいて、発音すべき楽音の音量レベルを決定する。したがって、演奏者の振り方に応じた音量の楽音を発生させることができる。   Further, in the present embodiment, from the time when the acceleration sensor value reaches the predetermined first level to the time when the acceleration sensor value reaches a level corresponding to the sound generation timing (second threshold β smaller than the first threshold). The volume level of the musical sound to be generated is determined based on the time interval. Therefore, it is possible to generate a musical sound having a volume corresponding to the way the player swings.

特に、本実施の形態においては、所定の第1のレベルは、発音タイミングの検出の最初のトリガーである第1の閾値に達した時刻としている。したがって、発音タイミングの検出処理における加速度センサ値の検出した時刻を用いて時間間隔情報Tを取得することが可能となる。   In particular, in the present embodiment, the predetermined first level is the time when the first threshold value, which is the first trigger for detecting the sound generation timing, is reached. Therefore, the time interval information T can be acquired using the time detected by the acceleration sensor value in the sound generation timing detection process.

たとえば、本実施の形態においては、CPU21は、時間間隔情報Tに基づいて、音量レベルVelを、Vel=a・T(ただし、 a・T≧音量レベル最大値Vmaxのときには、Vel=Vmax、aは正の定数)に基づいて算出する。これにより、演奏者の振り方にしたがった正確な音量の楽音を発生することが可能となる。   For example, in the present embodiment, the CPU 21 sets the volume level Vel based on the time interval information T to Vel = a · T (where a · T ≧ volume level maximum value Vmax, Vel = Vmax, a Is a positive constant). As a result, it is possible to generate a musical sound with an accurate volume in accordance with how the player swings.

本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.

たとえば、前記実施の形態では、加速度センサ値の第1の閾値αに達した時刻から、その後、第2の閾値βに達した時刻の時間間隔情報Tと係数aとを乗じて音量レベルを算出している。しかしながらこれに限定されるものではなく、上記時間間隔情報Tが、どの範囲に属するかにしたがって、音量レベル(ベロシティ)を決定するように構成しても良い。   For example, in the above embodiment, the volume level is calculated by multiplying the time interval information T at the time when the second threshold value β is reached and the coefficient a from the time when the acceleration sensor value reaches the first threshold value α. is doing. However, the present invention is not limited to this, and the volume level (velocity) may be determined according to which range the time interval information T belongs to.

他の実施の形態にかかる演奏装置本体11では、ステップ501において、以下のように音量レベルが決定される。RAM26には、時間間隔情報Tの範囲と音量レベル(ベロシティ)とを対応付けたテーブルが格納されている。テーブルには、以下のような情報が格納される。
0<T≦Tm1:Vel=V1
Tm1<T≦Tm2:Vel=V2
Tm2<T≦Tm3:Vel=V3
Tm3<T:Vel=Vmax
(ただし、V1<V2<V3<Vmax)
また、Tm3は、たとえば、0.7秒である。
In the performance apparatus main body 11 according to another embodiment, the volume level is determined in step 501 as follows. The RAM 26 stores a table in which the range of the time interval information T is associated with the volume level (velocity). The table stores the following information.
0 <T ≦ Tm1: Vel = V1
Tm1 <T ≦ Tm2: Vel = V2
Tm2 <T ≦ Tm3: Vel = V3
Tm3 <T: Vel = Vmax
(However, V1 <V2 <V3 <Vmax)
Tm3 is 0.7 seconds, for example.

この実施の形態によれば、CPU21は、時間間隔情報Tが、テーブルの何れの範囲に属するかに基づき、音量レベルを取得する。したがって、乗算を要することなく、適切な音量レベルを得る事が可能となる。   According to this embodiment, the CPU 21 acquires the volume level based on which range of the table the time interval information T belongs to. Therefore, an appropriate volume level can be obtained without requiring multiplication.

前記実施の形態においては、演奏装置本体11のCPU21は、演奏者が演奏装置本体11を振ることによる加速度センサ値を検出して、加速度センサ値に基づき発音タイミングを検出する。また、演奏装置本体11のCPU21は、加速度センサ値の第1の閾値αに達した時刻から、その後、第2の閾値βに達した時刻の時間間隔情報Tにしたがって発音すべき楽音の音量レベルを決定している。そして、演奏装置本体11のCPU21は、上記発音タイミングで、音量レベルを含むノートオンイベントを生成して、I/F27および赤外線通信装置24を介して楽器部19に送信している。その一方、楽器部19においては、ノートオンイベントを受信すると、CPU12が、受信したノートオンイベントを音源部31に出力して楽音を発生させている。上記構成は、楽器部19が、MIDIボードなどが取り付けられたパーソナルコンピュータやゲーム機など、楽音生成の専用機ではないときに好適である。   In the embodiment, the CPU 21 of the performance device main body 11 detects an acceleration sensor value when the performer shakes the performance device main body 11, and detects a sound generation timing based on the acceleration sensor value. Further, the CPU 21 of the performance apparatus main body 11 starts from the time when the first threshold value α of the acceleration sensor value is reached, and then the volume level of the musical sound to be generated according to the time interval information T at the time when the second threshold value β is reached. Is determined. Then, the CPU 21 of the performance device main body 11 generates a note-on event including the volume level at the sound generation timing and transmits it to the musical instrument unit 19 via the I / F 27 and the infrared communication device 24. On the other hand, when the instrument unit 19 receives a note-on event, the CPU 12 outputs the received note-on event to the sound source unit 31 to generate a musical sound. The above configuration is suitable when the musical instrument unit 19 is not a dedicated machine for generating musical sounds, such as a personal computer or game machine to which a MIDI board or the like is attached.

しかしながら、演奏装置本体11における処理、および、楽器部19における処理の分担は、上記実施の形態のものに限定されない。   However, the processing in the musical instrument main body 11 and the sharing of the processing in the musical instrument unit 19 are not limited to those in the above embodiment.

たとえば、演奏装置本体11においては、加速度センサ値を取得して、楽器部19に送信するように構成しても良い。この場合には、発音タイミング検出処理(図5)やノートオンイベント生成処理(図6)は、楽器部19において実行される。上述した構成は、楽器部19が、楽音生成の専用機である電子楽器について好適である。   For example, the performance device main body 11 may be configured to acquire an acceleration sensor value and transmit it to the musical instrument unit 19. In this case, the sound generation timing detection process (FIG. 5) and the note-on event generation process (FIG. 6) are executed in the instrument unit 19. The configuration described above is suitable for an electronic musical instrument in which the musical instrument unit 19 is a dedicated machine for generating musical sounds.

また、本実施の形態においては、演奏装置本体11と楽器部19との間は、赤外線通信装置24、33を用いて赤外線信号にてデータが通信されているが、これに限定されるものではない。たとえば、打楽器本体11と楽器部19とは他の無線通信でデータ通信してもよいし、ワイヤケーブルによって有線でデータ通信するように構成しても良い。   In the present embodiment, the performance device main body 11 and the musical instrument unit 19 are communicated with infrared signals using infrared communication devices 24 and 33. However, the present invention is not limited to this. Absent. For example, the percussion instrument main body 11 and the musical instrument unit 19 may perform data communication by other wireless communication, or may be configured to perform data communication by wire using a wire cable.

10 電子楽器
11 演奏装置本体
12 CPU
13 I/F
14 ROM
15 RAM
16 表示部
17 入力部
18 サウンドシステム
19 楽器部
21 CPU
23 加速度センサ
24 赤外線通信装置
25 ROM
26 RAM
27 I/F
31 音源部
32 オーディオ回路
33 赤外線通信装置
10 Electronic Musical Instrument 11 Performance Device Body 12 CPU
13 I / F
14 ROM
15 RAM
16 Display Unit 17 Input Unit 18 Sound System 19 Musical Instrument Unit 21 CPU
23 Acceleration sensor 24 Infrared communication device 25 ROM
26 RAM
27 I / F
31 Sound Source 32 Audio Circuit 33 Infrared Communication Device

Claims (5)

演奏者が手で保持するための長手方向に延びる保持部材と、
前記保持部材内に配置された加速度センサと、
所定の楽音を発音する楽音発生手段に対して発音の指示を与える制御手段と、を備え、
前記制御手段が、前記加速度センサ値が、所定の第1の閾値を超えて、その後、前記第1の閾値より小さい第2の閾値より小さくなったタイミングを発音タイミングとして、前記楽音発生手段に対して発音の指示を与える発音タイミング検出手段と、
前記加速度センサ値が、所定の第1のレベルに達してから、前記発音タイミングである第2の閾値になるまでの時間間隔情報を取得し、前記時間間隔情報にしたがった音量レベルを算出する音量レベル算出手段を有し、
前記発音タイミング検出手段が、前記音量レベル算出手段により算出された音量レベルで、前記発音タイミングにおいて、前記楽音発生手段に対して発音の指示を与えることを特徴とする演奏装置。
A longitudinally extending retaining member for the performer to hold by hand;
An acceleration sensor disposed in the holding member;
Control means for giving a sound generation instruction to a music sound generating means for generating a predetermined music sound,
The control means uses the timing at which the acceleration sensor value exceeds a predetermined first threshold and then becomes smaller than a second threshold smaller than the first threshold as a sounding timing for the musical sound generating means. Pronunciation timing detection means for giving instructions of pronunciation,
Volume that obtains time interval information from when the acceleration sensor value reaches a predetermined first level until it reaches the second threshold that is the sound generation timing, and calculates a volume level according to the time interval information A level calculation means,
The performance apparatus, wherein the sound generation timing detection means gives a sound generation instruction to the music sound generation means at the sound generation timing at the sound volume level calculated by the sound volume level calculation means.
前記音量レベル算出手段が、第1のレベルとして前記第1の閾値に達してから、前記第2の閾値になるまでの時間間隔情報を取得することを特徴とする請求項1に記載の演奏装置。   2. The performance apparatus according to claim 1, wherein the volume level calculating means acquires time interval information from when the first threshold is reached as the first level until the second threshold is reached. . 前記音量レベル算出手段が、前記時間間隔情報Tに基づいて、音量レベルVelを、
Vel=a・T(ただし、a・T≧音量レベル最大値Vmaxのときには、Vel=Vmax、aは正の定数)に基づいて算出することを特徴とする請求項1または2に記載の演奏装置。
Based on the time interval information T, the volume level calculating means calculates a volume level Vel.
3. The performance device according to claim 1, wherein the performance is calculated based on Vel = a · T (where a · T ≧ volume level maximum value Vmax, Vel = Vmax, a is a positive constant). .
前記時間間隔情報Tの範囲と、音量レベルとを対応付けたテーブルを備え、
前記音量レベル算出手段が、前記時間間隔情報Tが、前記テーブルの何れの範囲に属するかに基づき、音量レベルを取得することを特徴とする請求項1または2に記載の演奏装置。
A table associating the range of the time interval information T with the volume level;
The performance device according to claim 1 or 2, wherein the volume level calculation means acquires a volume level based on which range of the table the time interval information T belongs to.
請求項1ないし4の何れか一項に記載の演奏装置と、
前記楽音発生手段を備えた楽器部と、を備え、
前記演奏装置と、前記楽器部とが、それぞれ、通信手段を備えたことを特徴とする電子楽器。
The performance device according to any one of claims 1 to 4,
A musical instrument unit comprising the musical sound generating means,
An electronic musical instrument, wherein each of the performance device and the musical instrument unit includes a communication unit.
JP2010130623A 2010-06-01 2010-06-08 Performance device and electronic musical instrument Active JP5029729B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010130623A JP5029729B2 (en) 2010-06-08 2010-06-08 Performance device and electronic musical instrument
US13/118,643 US8653350B2 (en) 2010-06-01 2011-05-31 Performance apparatus and electronic musical instrument
CN201110146130.2A CN102270446B (en) 2010-06-01 2011-06-01 Performance apparatus and electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010130623A JP5029729B2 (en) 2010-06-08 2010-06-08 Performance device and electronic musical instrument

Publications (2)

Publication Number Publication Date
JP2011257508A true JP2011257508A (en) 2011-12-22
JP5029729B2 JP5029729B2 (en) 2012-09-19

Family

ID=45473763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010130623A Active JP5029729B2 (en) 2010-06-01 2010-06-08 Performance device and electronic musical instrument

Country Status (1)

Country Link
JP (1) JP5029729B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01277293A (en) * 1988-04-28 1989-11-07 Yamaha Corp Musical sound control device
JPH0299994A (en) * 1988-10-06 1990-04-11 Yamaha Corp Musical sound controller
JP2001215963A (en) * 2000-02-02 2001-08-10 Global A Entertainment Inc Music playing device, music playing game device, and recording medium
JP2010015073A (en) * 2008-07-07 2010-01-21 Yamaha Corp Performance control device and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01277293A (en) * 1988-04-28 1989-11-07 Yamaha Corp Musical sound control device
JPH0299994A (en) * 1988-10-06 1990-04-11 Yamaha Corp Musical sound controller
JP2001215963A (en) * 2000-02-02 2001-08-10 Global A Entertainment Inc Music playing device, music playing game device, and recording medium
JP2010015073A (en) * 2008-07-07 2010-01-21 Yamaha Corp Performance control device and program

Also Published As

Publication number Publication date
JP5029729B2 (en) 2012-09-19

Similar Documents

Publication Publication Date Title
JP5067458B2 (en) Performance device and electronic musical instrument
JP5029732B2 (en) Performance device and electronic musical instrument
JP5712603B2 (en) Performance device and electronic musical instrument
JP5099176B2 (en) Performance device and electronic musical instrument
US8653350B2 (en) Performance apparatus and electronic musical instrument
JP5338794B2 (en) Performance device and electronic musical instrument
JP5664581B2 (en) Musical sound generating apparatus, musical sound generating method and program
JP5088398B2 (en) Performance device and electronic musical instrument
JP7140083B2 (en) Electronic wind instrument, control method and program for electronic wind instrument
JP5668353B2 (en) Performance device and electronic musical instrument
JP5029729B2 (en) Performance device and electronic musical instrument
JP2012013725A (en) Musical performance system and electronic musical instrument
JP5030016B2 (en) Musical sound generator and musical sound generation processing program
JP7106091B2 (en) Performance support system and control method
JP6111526B2 (en) Music generator
JPH0675571A (en) Electronic musical instrument
JP2013044889A (en) Music player
JP2011257509A (en) Performance device and electronic musical instrument
JP2012032681A (en) Performance device and electronic musical instrument
JP2011237662A (en) Electronic musical instrument
JP2010271440A (en) Performance control device and program
JP2013182224A (en) Musical sound generator
JP2013044951A (en) Handler and player
JP2557687Y2 (en) Electronic musical instrument
JP2010181604A (en) Play controller, play system, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120529

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120611

R150 Certificate of patent or registration of utility model

Ref document number: 5029729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3