JP2019061542A - Parameter control device, electronic musical instrument, parameter control method, and control program - Google Patents

Parameter control device, electronic musical instrument, parameter control method, and control program Download PDF

Info

Publication number
JP2019061542A
JP2019061542A JP2017186385A JP2017186385A JP2019061542A JP 2019061542 A JP2019061542 A JP 2019061542A JP 2017186385 A JP2017186385 A JP 2017186385A JP 2017186385 A JP2017186385 A JP 2017186385A JP 2019061542 A JP2019061542 A JP 2019061542A
Authority
JP
Japan
Prior art keywords
sensor
parameter
detection
value
thumb
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017186385A
Other languages
Japanese (ja)
Other versions
JP7041387B2 (en
Inventor
千寿 外山
Chihiro Toyama
千寿 外山
一貴 春日
Kazutaka Kasuga
一貴 春日
林 龍太郎
Ryutaro Hayashi
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017186385A priority Critical patent/JP7041387B2/en
Publication of JP2019061542A publication Critical patent/JP2019061542A/en
Priority to JP2021147637A priority patent/JP2022001950A/en
Application granted granted Critical
Publication of JP7041387B2 publication Critical patent/JP7041387B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Position Input By Displaying (AREA)

Abstract

To provide a parameter control device, an electronic musical instrument, a parameter control method, and a control program, which are capable of efficiently controlling a plurality of control parameters when an operator operates a device using a part of the body.SOLUTION: Provided is a touch pad including a sensor electrode group functioning as a slider in a specific direction (X direction) in a region where a thumb abuts when a player supports and holds an electronic musical instrument with both hands when playing, and a sensor electrode disposed closely in parallel to the sensor electrode group and having a function of selecting a predetermined parameter. When the thumb touches the touch pad 32, a contact location of the thumb in the X direction is detected based on the state of contact with a middle sensor electrode group constituting the slider and the operation amount (polarity, intensity, etc.) of effect is determined. Further, a contact location of the thumb in a Y direction is detected based on the state of contact with upper or lower sensor electrode and the effect to be executed is selected.SELECTED DRAWING: Figure 1

Description

本発明は、電子楽器等の機器に設定される制御パラメータを制御するパラメータ制御装置、当該パラメータ制御装置を適用した電子楽器、制御パラメータの制御方法及び制御プログラムに関する。   The present invention relates to a parameter control device that controls control parameters set in an instrument such as an electronic musical instrument, an electronic musical instrument to which the parameter control device is applied, a control method of control parameters, and a control program.

従来、サクソフォンやクラリネット等のアコースティック管楽器の形状や演奏方法を模した電子管楽器が知られている。このような電子管楽器の演奏においては、アコースティック管楽器と同様のキー位置に設けられた音高キーを操作することにより楽音の音程が指定される。また、マウスピース内に吹き込む息の圧力(息圧)により音量が制御される。   2. Description of the Related Art Conventionally, there is known an electronic wind instrument that imitates the shape and playing method of an acoustic wind instrument such as a saxophone or clarinet. In the performance of such an electronic wind instrument, the pitch of the musical tone is designated by operating a pitch key provided at the same key position as that of the acoustic wind instrument. Further, the volume is controlled by the pressure (breath pressure) of the breath blown into the mouthpiece.

さらに、近年の電子管楽器においては、アコースティック管楽器に特有の演奏方法や演奏感、楽音に付与するエフェクト(例えば、音高を連続的に変化させるピッチベンドや、音高を細かく振動させるビブラート等の音色効果)等を実現するために、特別な操作スイッチやセンサ等を備えたものが知られている。   Furthermore, in recent electronic wind instruments, performance methods and senses specific to acoustic wind instruments, effects applied to musical tones (for example, pitch bend for continuously changing the pitch, vibrato for finely vibrating the pitch, etc.) In order to realize etc., those equipped with special operation switches, sensors, etc. are known.

例えば特許文献1には、アコースティック管楽器と同様のピッチベンドを実現するために、電子管楽器の背面側に回転操作子(ピッチベンドホイール)を設け、演奏中に当該操作子を親指で回転操作することにより、その操作方向に応じて音程の変化の方向(ベンドアップ、ベンドダウン)を制御する技術が記載されている。   For example, in Patent Document 1, in order to realize pitch bend similar to that of an acoustic wind instrument, a rotary operation element (pitch bend wheel) is provided on the back side of the electronic wind instrument, and the operation element is operated by thumb while playing. A technique for controlling the direction of change of the pitch (bend up, bend down) according to the operation direction is described.

また、例えば特許文献2には、マウスピースのリード部材に複数の静電パッド(静電容量方式のタッチセンサ)を直列に配置し、演奏中にマウスピースを咥えたときの唇の位置や舌の接触状態、噛み圧を検出することにより、演奏中の音色、音量、音高等を制御する技術が記載されている。   Further, for example, in Patent Document 2, a plurality of electrostatic pads (capacitive touch sensors) are arranged in series on a lead member of a mouthpiece, and the position and tongue of the lip when the mouthpiece is held during performance. A technique for controlling the timbre, volume and pitch of the music being played is described by detecting the contact state and the biting pressure.

特開平11−85159号公報Japanese Patent Application Laid-Open No. 11-85159 特開2017−15809号公報JP, 2017-15809, A

上述した特許文献1、2に記載された技術においては、回転操作子を指で操作することにより、或いは、マウスピースを咥える唇の位置(リード部材の静電パッドとの接触位置)を変化させることにより、ピッチベンド等の楽音に付与するエフェクトを制御することができるが、これらの操作方法においては、演奏中に複数のエフェクトを制御することはできなかった。そのため、電子管楽器の演奏中に実行可能なエフェクトの種類が限られてしまううえ、所望のエフェクトを変更する場合には、操作子やセンサデバイスとエフェクトとの関連付けを予め変更する必要があり、操作が煩わしくなるという問題を有していた。   In the techniques described in Patent Documents 1 and 2 described above, the position of the lip holding the mouthpiece (the contact position of the lead member with the electrostatic pad) is changed by operating the rotary operation device with a finger. By doing this, it is possible to control effects to be applied to musical tones such as pitch bend, but with these operation methods, it was not possible to control a plurality of effects during performance. Therefore, the types of effects that can be performed during the performance of the electronic wind instrument are limited, and when changing a desired effect, it is necessary to change in advance the association between the operator and the sensor device with the effect, Had the problem of becoming bothersome.

このような問題については、上記の電子管楽器に限定されるものではなく、電子管楽器と同様に指等の身体の一部位を用いて演奏を行う各種の電子楽器や、身体の一部を用いて演奏以外の各種の操作を行う電子機器などにおいても、同様の問題を有している。すなわち、一本の指や唇等の身体の一部位が接触して移動可能な領域に、一方向にスライドや回転する操作子、或いは、複数のセンサを一方向に配列したセンサデバイス等を備えた機器においては、使用者が一本の指や唇等を移動させて上記の操作子やセンサデバイスを操作した場合、その操作量に応じた1つの制御パラメータを制御することしかできなかった。   Such a problem is not limited to the above-mentioned electronic wind instrument, and various electronic musical instruments that perform using one part of the body such as a finger as in the electronic wind instrument, or a part of the body The same problem occurs in electronic devices that perform various operations other than performance. That is, an operating element which slides or rotates in one direction or a sensor device or the like in which a plurality of sensors are arranged in one direction is provided in an area where one part of the body such as one finger or lip contacts and moves. In the device described above, when the user moves one finger or lip to operate the operation device or the sensor device, only one control parameter can be controlled according to the amount of operation.

そこで、本発明は、上述した問題点に鑑みて、操作者が身体の一部位を用いて機器を操作する場合に、複数の制御パラメータを効率的に制御することができるパラメータ制御装置、電子楽器、パラメータ制御方法及び制御プログラムを提供することを目的とする。   Therefore, in view of the above-mentioned problems, the present invention is a parameter control device and electronic musical instrument capable of efficiently controlling a plurality of control parameters when the operator operates the device using one part of the body. It is an object of the present invention to provide a parameter control method and a control program.

本発明に係るパラメータ制御装置は、
複数の検出領域が配列された第1のセンサと、
前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサと、
前記第1のセンサのいずれかの検出領域が検出状態になると同時に検出される前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択するとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御する制御部と、
を有することを特徴とする。
The parameter control device according to the present invention is
A first sensor in which a plurality of detection areas are arranged;
A second sensor in which at least one detection area is disposed to face the plurality of detection areas of the first sensor;
Among the plurality of parameters, a parameter to be controlled for the amount of operation based on the detection value of the detection area of the second sensor detected at the same time as the detection state of any of the first sensor becomes the detection state A control unit configured to select an operation amount of the selected parameter based on detection values of the plurality of detection areas of the first sensor,
It is characterized by having.

本発明によれば、操作者が身体の一部位を用いて機器を操作する場合に、複数の制御パラメータを効率的に制御することができる。   ADVANTAGE OF THE INVENTION According to this invention, when an operator operates an apparatus using one site | part of the body, several control parameters can be controlled efficiently.

本発明に係るパラメータ制御装置を適用した電子楽器の一実施形態の全体構造を示す外観図である。It is an outline view showing the whole structure of one embodiment of the electronic musical instrument to which the parameter control device concerning the present invention is applied. 第1の実施形態に係る電子楽器の機能構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of an electronic musical instrument concerning a 1st embodiment. 第1の実施形態に係るパラメータ操作部に適用されるタッチパッドの一例を示す概略図である。It is the schematic which shows an example of the touch pad applied to the parameter operation part which concerns on 1st Embodiment. 第1の実施形態に適用されるX方向の接触位置の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the contact point of the X direction applied to 1st Embodiment. 第1の実施形態に適用されるX方向の接触位置とMIDI信号との関係を示す図である。It is a figure which shows the relationship between the contact position of the X direction applied to 1st Embodiment, and a MIDI signal. 第1の実施形態に適用されるY方向の接触位置の判断方法を説明するための図である。It is a figure for demonstrating the determination method of the contact point of the Y direction applied to 1st Embodiment. 第1の実施形態に係る電子楽器における制御方法のメインルーチンを示すフローチャートである。It is a flowchart which shows the main routine of the control method in the electronic musical instrument which concerns on 1st Embodiment. 第1の実施形態に係る電子楽器の制御方法に適用されるパラメータ操作部の処理を示すフローチャートである。It is a flowchart which shows the process of the parameter operation part applied to the control method of the electronic musical instrument which concerns on 1st Embodiment. 第1の実施形態に係る電子楽器の制御方法に適用される不感帯を考慮した信号変換処理の他の例を示す図である。It is a figure which shows the other example of the signal conversion process which considered the dead zone applied to the control method of the electronic musical instrument which concerns on 1st Embodiment. 第1の実施形態に係る電子楽器の制御方法に適用されるパラメータの第1の制御方法を示す図である。It is a figure showing the 1st control method of the parameter applied to the control method of the electronic musical instrument concerning a 1st embodiment. 第1実施形態に係る電子楽器の制御方法に適用されるパラメータの第2の制御方法を示す図である。It is a figure which shows the 2nd control method of the parameter applied to the control method of the electronic musical instrument which concerns on 1st Embodiment. 第1実施形態に係る変形例を示す概略図である。It is the schematic which shows the modification concerning 1st Embodiment. 第2の実施形態に係るパラメータ操作部の制御方法を示す図である。It is a figure which shows the control method of the parameter operation part which concerns on 2nd Embodiment. 第2の実施形態に係るパラメータ操作部の制御方法を示すフローチャートである。It is a flowchart which shows the control method of the parameter operation part which concerns on 2nd Embodiment.

以下、本発明に係るパラメータ制御装置、電子楽器、パラメータ制御方法及び制御プログラムの実施形態について図面を参照しながら詳しく説明する。ここでは、楽音に付与する各種のエフェクトを制御パラメータとするパラメータ制御装置を適用した電子楽器、並びに、当該制御パラメータの制御方法及び制御プログラムを適用した電子楽器の制御方法の例を示して説明する。   Hereinafter, embodiments of a parameter control device, an electronic musical instrument, a parameter control method, and a control program according to the present invention will be described in detail with reference to the drawings. Here, an example of an electronic musical instrument to which a parameter control apparatus having various effects applied to musical tones as control parameters is applied, and a control method of the control parameters and an electronic musical instrument to which a control program is applied will be described. .

<第1の実施形態>
(電子楽器)
図1は、本発明に係るパラメータ制御装置を適用した電子楽器の一実施形態の全体構造を示す外観図である。図1(a)は本実施形態に係る電子楽器の正面図であり、図1(b)は電子楽器の側面図であり、図1(c)は電子楽器の背面図である。
First Embodiment
(Electronic musical instrument)
FIG. 1 is an external view showing an entire structure of an embodiment of an electronic musical instrument to which a parameter control device according to the present invention is applied. FIG. 1 (a) is a front view of the electronic musical instrument according to the present embodiment, FIG. 1 (b) is a side view of the electronic musical instrument, and FIG. 1 (c) is a rear view of the electronic musical instrument.

本発明に係るパラメータ制御装置が適用される電子楽器100は、例えば図1(a)〜(c)に示すように、アコースティック管楽器のサクソフォンの形状を模した外観を有している。電子楽器100は、管状の筐体を有する楽器本体102の一端側(図面左方端側)に演奏者(使用者)が口に咥えるマウスピース22が取り付けられ、他端側(図面右方側)に楽音を出力するスピーカボックス92が設けられている。   The electronic musical instrument 100 to which the parameter control device according to the present invention is applied has an appearance simulating the shape of a saxophone of an acoustic wind instrument, as shown in, for example, FIGS. 1 (a) to 1 (c). In the electronic musical instrument 100, a mouthpiece 22 worn by the player (user) is attached to one end (left end in the drawing) of the instrument main body 102 having a tubular housing, and the other end (right in the drawing) A speaker box 92 for outputting musical tones is provided on the side).

また、楽器本体102の正面側には、図1(a)に示すように、演奏者が指で操作することにより、音高を決定する演奏キー12が設けられている。また、楽器本体102の背面側には、図1(c)に示すように、演奏中に楽音に付与するエフェクト(制御パラメータ)を選択するとともに、その極性や強度等(操作量)を制御するためのタッチパッド32や、演奏前にタッチパッド32に関連付けられるエフェクトの種類等を設定するための表示部42や設定スイッチ44が設けられている。   Further, on the front side of the instrument main body 102, as shown in FIG. 1A, there is provided a play key 12 for determining the pitch by the player's operation with a finger. Further, on the back side of the instrument body 102, as shown in FIG. 1C, an effect (control parameter) to be applied to the musical tone during performance is selected, and its polarity, intensity, etc. (operation amount) is controlled. The display unit 42 and the setting switch 44 for setting the type of the effect associated with the touch pad 32 before playing, and the like are provided.

また、楽器本体102の背面側には、演奏中に指に当接して、電子楽器100を安定して保持するためのフィンガーレスト(又はフィンガーフック)104や、電子楽器100をストラップにより演奏者の首にかけて吊り下げ保持するためのストラップリング106が設けられている。また、図1(a)のIA部に示すように、楽器本体102の内部には、圧力センサ24やCPU(Central Processing Unit)50、ROM(Read Only Memory)60、RAM(Random Access Memory)70、音源80等が実装された基板108が設けられている。   In addition, on the back side of the musical instrument main body 102, the finger rest (or finger hook) 104 for holding the electronic musical instrument 100 in a stable manner by coming into contact with a finger during playing, or the electronic musical instrument 100 by a strap. A strap ring 106 is provided for hanging and holding over the neck. Further, as shown in the IA portion of FIG. 1A, the pressure sensor 24, a central processing unit (CPU) 50, a read only memory (ROM) 60, and a random access memory (RAM) 70 are provided inside the instrument body 102. , And a substrate 108 on which the sound source 80 and the like are mounted.

息圧検出部20は、演奏者が楽器本体102の一端側に取り付けられたマウスピース22に息を吹き込むことによりマウスピース22内部に発生する圧力(息圧)を、圧力センサ24により計測して、その息圧情報をCPU50に出力する。   The breath pressure detection unit 20 measures the pressure (breath pressure) generated inside the mouthpiece 22 by blowing the breath into the mouthpiece 22 attached to one end of the instrument main body 102 by the pressure sensor 24 by the pressure sensor 24. , The breath pressure information is output to CPU50.

図2は、本実施形態に係る電子楽器の機能構成の一例を示すブロック図である。
本実施形態に係る電子楽器100は、例えば図2に示すように、概略、演奏キー12を含む操作子10と、マウスピース22及び圧力センサ24を含む息圧検出部20と、タッチパッド32を含むパラメータ操作部30と、表示部42及び設定スイッチ44を含むパラメータ設定部40と、CPU50と、ROM60と、RAM70と、音源80と、スピーカを含むサウンドシステム90と、を有している。なお、図2に示す機能構成は、本発明に係る電子楽器を実現するための一例であり、この構成に限定されるものではない。
FIG. 2 is a block diagram showing an example of a functional configuration of the electronic musical instrument according to the present embodiment.
For example, as shown in FIG. 2, the electronic musical instrument 100 according to the present embodiment generally includes an operator 10 including a play key 12, a breath pressure detector 20 including a mouthpiece 22 and a pressure sensor 24, and a touch pad 32. A parameter operation unit 30 includes a parameter setting unit 40 including a display unit 42 and a setting switch 44, a CPU 50, a ROM 60, a RAM 70, a sound source 80, and a sound system 90 including a speaker. The functional configuration shown in FIG. 2 is an example for realizing the electronic musical instrument according to the present invention, and the present invention is not limited to this configuration.

操作子10は、楽器本体102の正面側に設けられた演奏キー12に対する演奏者によるキー操作を受け付けて、その操作情報をCPU50に出力する。ここで、音階を指定する演奏キー12に対するキー操作は、演奏者の両手の人差し指から小指までの(親指を除く)4本の指により押さえているキーの位置を変化させることによって行われる。   The operator 10 receives a key operation by the player with respect to the play key 12 provided on the front side of the instrument main body 102, and outputs the operation information to the CPU 50. Here, the key operation to the play key 12 for specifying the scale is performed by changing the position of the key held by the four fingers (except the thumb) from the index finger to the little finger of the performer's hands.

パラメータ操作部30は、楽器本体102の背面側に設けられたタッチパッド32に対する演奏者による操作を受け付けて、タッチパッド32に予め設定されている楽音に付与するエフェクトの極性、強度等を制御するためのパラメータ操作情報をCPU50に出力する。   The parameter operation unit 30 receives an operation by the player on the touch pad 32 provided on the back side of the instrument main body 102, and controls the polarity, strength, etc. of the effect to be applied to the tone preset on the touch pad 32. Parameter operation information for the CPU 50 is output to the CPU 50.

ここで、タッチパッド32は、例えば図1に示した電子楽器100においては、演奏者が電子楽器100を縦(図面左右方向を上下方向)に立てて両手で支えて保持したときに、右の手の親指202が当接する位置(領域)に設けられている。すなわち、タッチパッド32に対する操作は、演奏者の右手の親指をタッチパッド32上で特定方向に移動させて接触位置(接触領域)を変化させることによって行われる。パラメータ操作部30は、タッチパッド32における親指の接触位置を検出して、所定のエフェクトの極性や強度等を制御するためのパラメータ操作情報としてCPU50に出力する。タッチパッド32の構成や機能については、詳しく後述する。   Here, in the electronic musical instrument 100 shown in FIG. 1, for example, when the player holds the electronic musical instrument 100 vertically (in the horizontal direction in the drawing, vertically) in the electronic musical instrument 100 shown in FIG. It is provided at a position (area) where the thumb 202 of the hand abuts. That is, the operation on the touch pad 32 is performed by moving the thumb of the player's right hand on the touch pad 32 in a specific direction to change the contact position (contact area). The parameter operating unit 30 detects the contact position of the thumb on the touch pad 32 and outputs the detected position to the CPU 50 as parameter operation information for controlling the polarity, strength, and the like of a predetermined effect. The configuration and functions of the touch pad 32 will be described in detail later.

なお、本実施形態においては、パラメータ操作部30のタッチパッド32を、電子楽器100の背面側の、右手の親指202に対応する領域に設けた構成を示したが、本発明はこれに限定されるものではなく、例えば左手の親指に対応する領域にタッチパッドを設けた構成を有するものであってもよいし、左右の手の親指に対応する領域に、それぞれタッチパッドを設けた構成(つまり、計2箇所)を有するものであってもよい。   In the present embodiment, the touch pad 32 of the parameter operating unit 30 is provided in the area corresponding to the thumb 202 of the right hand on the back side of the electronic musical instrument 100. However, the present invention is not limited to this. For example, the touch pad may be provided in the area corresponding to the thumb of the left hand, or the touch pads may be provided in the areas corresponding to the thumbs of the left and right hands (that is, , A total of two) may be included.

パラメータ設定部40は、楽器本体102の背面側に設けられた設定スイッチ44に対する演奏者による操作を受け付けて、タッチパッド32に関連付けられるエフェクトの種類等を設定するためのパラメータ設定情報をCPU50に出力する。   The parameter setting unit 40 receives parameter operations from the player on the setting switch 44 provided on the back side of the instrument body 102, and outputs parameter setting information for setting the type of effect associated with the touch pad 32 to the CPU 50. Do.

ここで、パラメータ設定部40は、例えば演奏者が液晶表示パネル(LCD)等の表示部42に表示された情報に基づいて設定スイッチ44を操作することにより、予め用意された複数種類のエフェクトの中から選択された1又は複数のエフェクトを、パラメータ操作部30のタッチパッド32に関連付けて設定する(割り当てる)ためのパラメータ設定情報をCPU50に出力する。   Here, the parameter setting unit 40 operates the setting switch 44 based on the information displayed on the display unit 42 such as a liquid crystal display panel (LCD), for example, so that the parameter setting unit 40 has a plurality of types of effects prepared in advance. The CPU 50 outputs, to the CPU 50, parameter setting information for setting (assigning) one or a plurality of effects selected from the inside in association with the touch pad 32 of the parameter operation unit 30.

CPU50は、電子楽器100の各部を制御する制御手段として機能するコンピュータであって、ROM60に記憶された所定のプログラムを読み出してRAM70に展開し、展開されたプログラムと協働して各種の処理を実行する。例えば、CPU50は、操作子10から入力された操作情報と、息圧検出部20から入力された息圧情報と、パラメータ操作部30から入力されたパラメータ操作情報と、に基づいて、楽音の生成を音源80に指示する。また、CPU50は、パラメータ設定部40から入力されたパラメータ設定情報に基づいて、パラメータ操作部30のタッチパッド32に関連付けて設定するエフェクトの種類等を決定する。   The CPU 50 is a computer that functions as a control unit that controls each part of the electronic musical instrument 100, reads out a predetermined program stored in the ROM 60, expands it in the RAM 70, and cooperates with the expanded program to execute various processes. Run. For example, the CPU 50 generates a tone based on the operation information input from the operation element 10, the breath pressure information input from the breath pressure detection unit 20, and the parameter operation information input from the parameter operation unit 30. To the sound source 80. Further, based on the parameter setting information input from the parameter setting unit 40, the CPU 50 determines, for example, the type of effect to be set in association with the touch pad 32 of the parameter operation unit 30.

ROM60は、読み出し専用の半導体メモリであり、電子楽器100における動作や処理を制御するための各種のデータやプログラムが記憶されている。特に、本実施形態においては、後述する電子楽器の制御方法に適用される、タッチパッド32上での親指202の接触位置に基づいて、実行するエフェクトや、その極性や強度等を決定する制御方法を実現するためのプログラムが記憶されている。RAM70は、揮発性の半導体メモリであり、ROM60から読み出されたデータやプログラム、あるいは、プログラムの実行中に生成されたデータ、操作子10や息圧検出部20、パラメータ操作部30、パラメータ設定部40から出力された各種の情報を一時的に格納するワークエリアを有する。   The ROM 60 is a read-only semiconductor memory, and stores various data and programs for controlling the operation and processing of the electronic musical instrument 100. In particular, in the present embodiment, a control method applied to a control method of an electronic musical instrument to be described later, which determines an effect to be executed, its polarity, strength and the like based on the contact position of the thumb 202 on the touch pad 32. A program for realizing the above is stored. The RAM 70 is a volatile semiconductor memory, and data or a program read from the ROM 60, or data generated during execution of the program, the operation element 10 or the breath pressure detection unit 20, the parameter operation unit 30, parameter setting It has a work area for temporarily storing various information output from the unit 40.

音源80は、シンセサイザであり、操作子10からの操作情報や息圧検出部20からの息圧情報、パラメータ操作部30からのパラメータ操作情報に基づいて、CPU50から出力される楽音の生成指示に従って楽音合成を行い、楽音信号を生成してサウンドシステム90に出力する。サウンドシステム90は、音源80から入力された楽音信号に信号増幅等の処理を施し、スピーカボックス92に内蔵されたスピーカから楽音として出力する。   The sound source 80 is a synthesizer, and based on the operation information from the operation element 10, the breath pressure information from the breath pressure detection unit 20, and the parameter operation information from the parameter operation unit 30, according to the musical tone generation instruction output from the CPU 50. Tone synthesis is performed to generate a tone signal and output it to the sound system 90. The sound system 90 performs processing such as signal amplification on the musical tone signal input from the sound source 80, and outputs the musical tone from the speaker built in the speaker box 92.

(パラメータ操作部)
次に、本実施形態に係る電子楽器に適用されるパラメータ操作部について具体的に説明する。
図3は、本実施形態に係るパラメータ操作部に適用されるタッチパッドの一例を示す概略図である。図3(a)は、タッチパッドへの親指の接触状態を示す概略図であり、図3(b)は、タッチパッドの平面構造を示す概略図である。
(Parameter operation unit)
Next, the parameter operating unit applied to the electronic musical instrument according to the present embodiment will be specifically described.
FIG. 3 is a schematic view showing an example of a touch pad applied to the parameter operation unit according to the present embodiment. FIG. 3 (a) is a schematic view showing the state of the thumb touching the touch pad, and FIG. 3 (b) is a schematic view showing the planar structure of the touch pad.

本実施形態に適用されるタッチパッド32は、例えば図3(a)に示すように、楽器本体102の背面側のフィンガーレスト104に隣接する領域に設けられている。これにより、演奏者の右手の親指202はフィンガーレスト104に沿って移動するように誘導されて、楽器本体102の短手方向(図面左右方向)であるX方向の操作位置が決定される。また、フィンガーレスト104に右手の親指202を当接した状態を基準にして、親指202をローリングするように移動させることにより、楽器本体102の長手方向(図面上下方向)であるY方向の操作位置が決定される。   For example, as shown in FIG. 3A, the touch pad 32 applied to the present embodiment is provided in an area adjacent to the finger rest 104 on the back side of the instrument main body 102. As a result, the thumb 202 of the right hand of the player is guided to move along the finger rest 104, and the operation position in the X direction which is the short side direction (left and right direction in the drawing) of the instrument body 102 is determined. In addition, by moving the thumb 202 so as to roll on the basis of the state in which the thumb 202 of the right hand is in contact with the finger rest 104, the operation position in the Y direction which is the longitudinal direction (vertical direction in the drawing) of the instrument body 102 Is determined.

タッチパッド32は、例えば図3(b)に示すように、静電容量方式の複数のタッチセンサの電極を所定の平面形状及びレイアウトで配列した構成を有している。タッチパッド32は、大別して、楽器本体102のY方向(長手方向)に、フィンガーレスト104に近い側から、上段のセンサ電極ELu、中段のセンサ電極群ELm、下段のセンサ電極ELdの3段の電極群が配列されている。これらの電極群はいずれも、楽器本体102のX方向(短手方向)に延在するように配置されている。   For example, as shown in FIG. 3B, the touch pad 32 has a configuration in which electrodes of a plurality of capacitive touch sensors are arranged in a predetermined planar shape and layout. The touch pad 32 is roughly divided into three stages of the upper sensor electrode ELu, the middle sensor electrode group ELm, and the lower sensor electrode ELd from the side close to the finger rest 104 in the Y direction (longitudinal direction) of the instrument body 102. Electrode groups are arranged. Each of these electrode groups is arranged to extend in the X direction (short side direction) of the instrument main body 102.

具体的には、上段のセンサ電極ELu及び下段のセンサ電極ELdは、直線状に連続して形成された単一の電極からなり、当該センサ電極ELu、ELdがX方向に延在するように配置されている。中段のセンサ電極群ELmは、複数の矩形状のセンサ電極cap1〜cap9の集合体からなり、上段のセンサ電極ELuと下段のセンサ電極ELdとの間の領域に、当該複数のセンサ電極cap1〜cap9がX方向に一定の間隔で配置されている。   Specifically, the upper sensor electrode ELu and the lower sensor electrode ELd are formed of a single electrode continuously formed in a straight line, and the sensor electrodes ELu and ELd are arranged so as to extend in the X direction. It is done. The middle sensor electrode group ELm consists of an assembly of a plurality of rectangular sensor electrodes cap1 to cap9, and in the region between the upper sensor electrode ELu and the lower sensor electrode ELd, the plurality of sensor electrodes cap1 to cap9 Are arranged at regular intervals in the X direction.

すなわち、タッチパッド32は、複数のセンサ電極cap1〜cap9がX方向に配列されたスライダーを構成する中段のセンサ電極群ELmに対して、センサ電極cap1〜cap9の配列方向であるX方向に直交するY方向に隣接し、複数のセンサ電極cap1〜cap9に跨る(又は、共通して対向する)ように、上段のセンサ電極ELuと下段のセンサ電極ELdとがX方向に長く延在するように配置されている。これらのセンサ電極ELu、ELd、cap1〜cap9はそれぞれ、タッチパッド32に配列される各タッチセンサの検出領域に対応する。   That is, the touch pad 32 is orthogonal to the X-direction which is the arrangement direction of the sensor electrodes cap1 to cap9 with respect to the middle sensor electrode group ELm constituting the slider in which the plurality of sensor electrodes cap1 to cap9 are arranged in the X direction. The sensor electrode ELu on the upper stage and the sensor electrode ELd on the lower stage are arranged to extend in the X direction so that they are adjacent in the Y direction and straddle (or commonly face) the plurality of sensor electrodes cap1 to cap9. It is done. The sensor electrodes ELu, ELd, and cap1 to cap9 correspond to detection areas of the touch sensors arranged on the touch pad 32, respectively.

ここで、図3(b)に示すように、タッチパッド32に配列される3段の電極群のうち、中段のセンサ電極群ELmのY方向の幅Wmは、例えば親指202の接触領域のY方向の幅と同程度になるように設定されている。また、3段の電極群のY方向の全幅(すなわち、上段のセンサ電極ELuの図面上方側の辺から下段のセンサ電極ELdの図面下方側の辺までの幅)Weは、例えば親指202の接触領域のY方向の幅の、概ね1.5〜2倍程度になるように設定されている。   Here, as shown in FIG. 3B, in the three-stage electrode group arranged in the touch pad 32, the width Wm of the sensor electrode group ELm in the middle direction in the Y direction is, for example, Y in the contact area of the thumb 202. It is set to be approximately the same as the width of the direction. Further, the full width in the Y direction of the three-stage electrode group (that is, the width from the upper side of the upper sensor electrode ELu to the lower side of the lower sensor electrode ELd) We is, for example, the contact of the thumb 202 The width is set to be approximately 1.5 to 2 times the width of the region in the Y direction.

また、タッチパッド32に配列される3段の電極群のうち、上段のセンサ電極ELu及び下段のセンサ電極ELdのX方向の長さLeは、例えば中段のセンサ電極群ELmにおける全センサ電極cap1〜cap9のX方向の配列長(すなわち、センサ電極cap1の図面左方側の辺からセンサ電極cap9の図面右方側の辺までの全長)Lmに比較して、同程度又は僅かに短くなるように設定されている。また、3段の電極群のうち、中段のセンサ電極群ELmのX方向の両端部(センサ電極cap1の図面左方側の辺、及び、センサ電極cap9の図面右方側の辺)は、例えば上段のセンサ電極ELu及び下段のセンサ電極ELdのX方向の端部よりも突出する、或いは、同程度になるように、各パッドの平面形状やレイアウトが設定されている。   Further, among the three stages of electrode groups arranged in the touch pad 32, the length Le of the upper sensor electrode ELu and the lower sensor electrode ELd in the X direction is, for example, all sensor electrodes cap1 to cap 1 in the middle sensor electrode group ELm. Compared to the alignment length Lm of the cap 9 in the X direction (that is, the total length from the side on the left side of the drawing of the sensor electrode cap 1 to the side on the right side of the drawing of the sensor electrode cap 9) It is set. Further, among the three stages of electrode groups, both end portions in the X direction of the middle stage sensor electrode group ELm (a side on the left side in the drawing of the sensor electrode cap1 and a side on the right side in the drawing of the sensor electrode cap 9) are The planar shapes and layouts of the respective pads are set so as to project or be similar to the end portions in the X direction of the upper sensor electrode ELu and the lower sensor electrode ELd.

本実施形態においては、親指202がタッチパッド32に触れたときに、スライダーを構成する中段のセンサ電極群ELmへの接触状態に基づいて、親指202のX方向の接触位置を検出してエフェクトの操作量(極性や強度等)を決定している。また、上段のセンサ電極ELu又は下段のセンサ電極ELdへの接触状態に基づいて、親指202のY方向の接触位置を検出して実行するエフェクトの選択を行っている。そのため、親指202が3段の電極群のうちのいずれのセンサ電極の位置に接触して、実行するエフェクトが選択されている場合であっても、エフェクトの操作量を決定するX方向の接触位置を正確に検出するためには、親指202が中段のセンサ電極群ELmのいずれかのセンサ電極cap1〜cap9に直接接触、或いは、十分近接した位置に接触している必要がある。本実施形態においては、このような状態を良好に実現するために、上述したようなセンサ電極の平面形状及びレイアウトを適用している。   In this embodiment, when the thumb 202 touches the touch pad 32, the contact position of the thumb 202 in the X direction is detected based on the contact state with the sensor electrode group ELm in the middle stage configuring the slider, The operation amount (polarity, strength, etc.) is determined. Further, based on the contact state with the upper sensor electrode ELu or the lower sensor electrode ELd, the contact position of the thumb 202 in the Y direction is detected and the effect to be executed is selected. Therefore, even if the thumb 202 contacts the position of any of the sensor electrodes in the three-stage electrode group and the effect to be performed is selected, the contact position in the X direction that determines the operation amount of the effect In order to accurately detect H, the thumb 202 needs to be in direct contact with or in close proximity to any of the sensor electrodes cap1 to cap9 of the middle sensor electrode group ELm. In the present embodiment, the planar shape and layout of the sensor electrode as described above are applied in order to achieve such a state well.

このような構成を有するパラメータ操作部30において、本実施形態においては、タッチパッド32に配列された、上段のセンサ電極ELu、中段のセンサ電極群ELm、下段のセンサ電極ELdは、パラメータ設定部40により、それぞれ任意のエフェクトが関連付けられている。例えば上段のセンサ電極ELuにはモジュレーションが関連付けられ、中段のセンサ電極群ELmにはピッチベンドが関連付けられ、下段のセンサ電極ELdにはフィルタカットオフが関連付けられる。ここで、タッチパッド32に配列された各段のセンサ電極に関連付ける機能として、楽音にピッチベンドやビブラート等の音色効果を付与するエフェクト設定する場合について示すが、本発明はこれに限定されるものではない。すなわち、楽音の発音に関する他の制御を行うものであってもよく、例えば消音の有無を制御したり、音量を制御したり、操作子10により指定される音階の割り当てを切り換える制御などを、各段のセンサ電極に関連付けるようにしてもよい。   In the parameter operation unit 30 having such a configuration, in the present embodiment, the upper sensor electrode ELu, the middle sensor electrode group ELm, and the lower sensor electrode ELd arranged in the touch pad 32 are connected to the parameter setting unit 40. Each and every effect is related by. For example, modulation is associated with the upper sensor electrode ELu, pitch bend is associated with the middle sensor electrode group ELm, and filter cutoff is associated with the lower sensor electrode ELd. Here, as a function to be associated with the sensor electrodes of each stage arranged in the touch pad 32, a case is shown in which effects setting is made to give timbre effects such as pitch bend and vibrato to musical tones, but the present invention is not limited thereto. Absent. That is, other control may be performed on the tone generation, for example, control of presence / absence of mute, control of volume, control of switching assignment of the scale designated by the operation element 10, etc. It may be associated with the sensor electrode of the stage.

また、本実施形態においては、図3(b)に示したように、上段のセンサ電極ELuや下段のセンサ電極ELdの形状や面積と、中段のセンサ電極群ELmのセンサ電極cap1〜cap9の形状や面積が異なるように形成されている。そのため、電極の形状や面積に応じて、各電極から出力されるセンサ出力値が異なることになるが、取得したセンサ値をソフトウェア内で補正処理することにより、0〜255の範囲(256段階)で得られるように適正化することができる。   Further, in the present embodiment, as shown in FIG. 3B, the shapes and areas of the upper sensor electrode ELu and the lower sensor electrode ELd, and the shapes of the sensor electrodes cap1 to cap9 of the middle sensor electrode group ELm. And the area is formed to be different. Therefore, the sensor output value output from each electrode will differ according to the shape and area of the electrode, but the correction range of 0 to 255 (256 steps) by correcting the acquired sensor value in software Can be optimized as can be obtained by

なお、図1及び図3においては、タッチパッド32を楽器本体102の背面側の表面に設置した構成を示したが、本発明はこれに限定されるものではない。すなわち、タッチパッド32は、楽器本体102の内部に設けられ、上述した複数のタッチセンサの電極が配列された検出面が楽器本体102の筐体から露出するように設けられているものであってもよいし、検出面の前面が楽器本体102の筐体により覆われて保護されているものであってもよい。ここで、タッチパッド32は、静電容量方式のタッチセンサが基板上に実装された構造を有するものであってもよいし、当該基板がフレキシブルプリント基板(FPC基板)により形成されて、楽器本体102の筐体表面に貼り付けられた構成を有するものであってもよい。また、タッチパッド32は、静電容量方式のタッチセンサに限定されるものではなく、抵抗膜方式のタッチセンサを適用するものであってもよい。   In addition, although the structure which installed the touch pad 32 in the surface of the back side of the musical instrument main body 102 was shown in FIG.1 and FIG.3, this invention is not limited to this. That is, the touch pad 32 is provided inside the instrument main body 102 and provided so that the detection surface on which the electrodes of the plurality of touch sensors described above are arranged is exposed from the housing of the instrument main body 102 Alternatively, the front surface of the detection surface may be covered and protected by the housing of the instrument main body 102. Here, the touch pad 32 may have a structure in which a capacitive touch sensor is mounted on a substrate, or the substrate is formed of a flexible printed circuit (FPC substrate), and the musical instrument main body It may have a configuration attached to the surface of the housing 102. Further, the touch pad 32 is not limited to the capacitive touch sensor, and may be a resistive film touch sensor.

(X方向の接触位置算出方法)
次に、上述したタッチパッドに演奏者の親指が触れた場合の、X方向の接触位置算出方法について説明する。
(Method of calculating contact position in X direction)
Next, a method of calculating the contact position in the X direction when the player's thumb touches the above-described touch pad will be described.

図4は、本実施形態に適用されるX方向の接触位置の算出方法を説明するための図である。図4(a)は親指がタッチパッドに接触した状態におけるパラメータ操作部30のセンサ出力値の分布例を示す図であり、図4(b)は図4(a)に示したセンサ出力値に基づいて決定される親指の接触位置の一例である。   FIG. 4 is a diagram for explaining the method of calculating the contact position in the X direction applied to the present embodiment. FIG. 4A is a view showing an example of distribution of sensor output values of the parameter operation unit 30 in a state where the thumb is in contact with the touch pad, and FIG. 4B is a graph showing the sensor output values shown in FIG. It is an example of the contact position of the thumb determined based on it.

本実施形態に適用されるタッチパッド32において、親指202のX方向の接触位置を求める手法としては、タッチパッド32の各センサ電極における静電容量に応じて出力されるセンサ出力値の分布に基づいて算出することができ、この場合、一般的な重心位置を算出するためのアルゴリズムを良好に適用することができる。   In the touch pad 32 applied to the present embodiment, a method for determining the contact position of the thumb 202 in the X direction is based on the distribution of sensor output values that are output according to the electrostatic capacitance in each sensor electrode of the touch pad 32. In this case, a general algorithm for calculating the position of the center of gravity can be favorably applied.

具体的には、本実施形態においては、タッチパッド32への親指202の接触状態を、スライダーを構成する中段のセンサ電極群ELmに配列された各センサ電極cap1〜cap9における静電容量に基づいて、例えば256段階の出力値で検出する。ここで、中段のセンサ電極群ELmの複数のセンサ電極cap1〜cap9は楽器本体102のX方向(短手方向)に一列に配置されているため、例えばセンサ電極cap4の真上に演奏者の親指202が載置されて接触している状態では、図4(a)に示すように、親指202が接触している領域とその近傍のセンサ電極(例えばセンサ電極cap3〜cap5)の静電容量が大きくなって高いセンサ出力値が得られる。一方、親指202が接触していない領域のセンサ電極(例えばセンサ電極cap1、cap2、cap6〜cap9)では静電容量が小さくなって相対的に低いセンサ出力値が得られる。すなわち、この場合のタッチパッド32の各センサ電極cap1〜cap9から出力されるセンサ出力値の分布は、図4(a)に示すように、親指202が最も強く接触した位置のセンサ電極(概ねセンサ電極cap3〜cap5)からのセンサ出力値を最大値とする山形を示す特徴を有している。   Specifically, in the present embodiment, the contact state of the thumb 202 with the touch pad 32 is determined based on the capacitances of the sensor electrodes cap1 to cap9 arranged in the middle sensor electrode group ELm constituting the slider. For example, it detects in the output value of 256 steps. Here, since the plurality of sensor electrodes cap1 to cap9 of the middle sensor electrode group ELm are arranged in a line in the X direction (short direction) of the instrument main body 102, for example, the thumb of the performer right above the sensor electrode cap4. When 202 is placed and in contact, as shown in FIG. 4A, the capacitance of the area where the thumb 202 is in contact and the sensor electrodes (for example, sensor electrodes cap3 to cap5) in the vicinity thereof is A large sensor output value can be obtained. On the other hand, in the sensor electrode (for example, sensor electrodes cap1, cap2, cap6 to cap9) in the area where the thumb 202 is not in contact, the capacitance becomes small and a relatively low sensor output value can be obtained. That is, as shown in FIG. 4A, the distribution of the sensor output value output from each of the sensor electrodes cap1 to cap9 of the touch pad 32 in this case is a sensor electrode at a position where the thumb 202 most strongly contacts It has a feature that indicates a chevron whose maximum value is the sensor output value from the electrodes cap3 to cap5).

そして、図4(a)に示したセンサ出力値の分布に基づいて、一般的な重心位置の算出方法を適用して、親指の接触位置を求める。親指の接触位置posに対応する重心位置xは、親指の接触状態を検出する複数のセンサ電極からのセンサ出力値Vcapと、各センサ電極の配列位置を示す番号xとに基づいて、次の(11)式により算出される。 And based on distribution of the sensor output value shown to Fig.4 (a), the calculation method of the general gravity center position is applied, and the contact position of a thumb | toe is calculated | required. The barycentric position x G corresponding to the contact position pos of the thumb is based on sensor output values Vcap i from a plurality of sensor electrodes that detect the contact state of the thumb and a number x i indicating the array position of each sensor electrode. It is calculated by the following equation (11).

Figure 2019061542
Figure 2019061542

上記の(11)式において、nは重心位置xの算出に用いるセンサ出力値の個数である。ここでは、上述したように、タッチパッド32の中段のセンサ電極群ELmに配列された9個(n=9)のセンサ電極cap1〜cap9からのセンサ出力値Vcapを重心位置xの算出に用いる。また、これらのセンサ電極cap1〜cap9の配列位置に対応して、各センサ電極の位置番号x(=1、2、・・・9)が設定されている。すなわち、(11)式に示した、親指の接触位置posに対応する重心位置xの算出方法は、センサ電極の配列位置の分布に基づいて平均位置を求めるための演算であり、当該平均位置を求める際に、各センサ電極の位置に対して各センサ電極の出力値を重み値として乗算する加重平均による演算である。 In the above (11) formula, n is the number of sensor output values for use in calculating the center of gravity x G. Here, as described above, the sensor output values Vcap i from the nine (n = 9) sensor electrodes cap1 to cap9 arranged in the middle sensor electrode group ELm of the touch pad 32 are used to calculate the barycentric position x G Use. Further, the position numbers x i (= 1, 2,..., 9) of the sensor electrodes are set corresponding to the arrangement positions of the sensor electrodes cap1 to cap9. That is, the method of calculating the barycentric position x G corresponding to the contact position pos of the thumb shown in equation (11) is an operation for obtaining the average position based on the distribution of the array positions of the sensor electrodes, and the average position In calculating the value of {circumflex over (d)}, the weighted average is used to multiply the position of each sensor electrode by the output value of each sensor electrode as a weight value.

図4(a)に示したように、演奏者がタッチパッド32に親指を接触させた状態で得られるセンサ出力値の分布に基づいて、上記の(11)式を用いて重心位置xを算出して親指のX方向の接触位置posを求めると、図4(b)に示すように、「4.0」という数値が得られる。この数値は、親指の接触位置をセンサ電極の位置番号で表したものである。すなわち、位置番号1〜9で示される各センサ電極cap1〜cap9の配列位置に対する相対位置で表したものであり、1.0〜9.0の小数を含む数値で表される。また、上記の(11)式に示したように、図4(b)中のsum1は、各センサ電極cap1〜cap9におけるセンサ出力値Vcapと位置番号xとの積の総和であり、sum2は、各センサ電極cap1〜cap9からのセンサ出力値Vcapの総和である。 As shown in FIG. 4A, based on the distribution of the sensor output value obtained when the player touches the touch pad 32 with the thumb, the center-of-gravity position x G is determined using equation (11) above. When the contact position pos of the thumb in the X direction is calculated to obtain a numerical value of “4.0” as shown in FIG. 4 (b). This numerical value represents the contact position of the thumb with the position number of the sensor electrode. That is, it is represented by the relative position with respect to the arrangement position of each sensor electrode cap1 to cap9 shown by position numbers 1 to 9, and is represented by a numerical value including a decimal of 1.0 to 9.0. Further, as shown in the above equation (11), sum1 in FIG. 4B is the sum of the products of the sensor output value Vcap i at each sensor electrode cap1 to cap9 and the position number x i, and sum2 Is the total sum of sensor output values Vcap i from the respective sensor electrodes cap1 to cap9.

なお、図中に示す親指の接触位置posは、音源8において利用する際には、7ビットで表現した数値であるMIDI(Musical Instrument Digital Interface)信号に変換(センサ電極cap1〜cap9の配列位置1〜9までの範囲を0〜127の整数値に割り当て)した後、利用される。具体的には、次の(12)式に示すように、(11)式により算出された重心位置xである親指の接触位置posの数値から1を減算した後に127/8が乗算される。例えば、親指の接触位置posが「4.0」であれば、(12)式により求められる数値「48」が7ビットで表現したMIDI信号として利用される。 When the contact position pos of the thumb shown in the figure is used in the sound source 8, it is converted into a MIDI (Musical Instrument Digital Interface) signal which is a numerical value expressed by 7 bits (arrangement position 1 of the sensor electrodes cap1 to cap9 It is used after assigning the range of -9 to the integer value of 0-127). Specifically, as shown in the following equation (12), after subtracting 1 from the numerical value of the contact position pos of the thumb which is the gravity center position x G calculated by the equation (11), 127/8 is multiplied. . For example, if the contact position pos of the thumb is "4.0", the numerical value "48" obtained by the equation (12) is used as a MIDI signal represented by 7 bits.

Figure 2019061542
Figure 2019061542

上記の一連の重心位置の算出方法により求められた、タッチパッド32のX方向の親指の接触位置posは、MIDI信号に変換された後、後述するように、上段のセンサ電極ELu、中段のセンサ電極群ELm、下段のセンサ電極ELdのいずれかに設定されたエフェクトの極性やその強度等を制御するために用いられる。   The contact position pos of the thumb in the X direction of the touch pad 32 determined by the series of methods of calculating the position of the center of gravity is converted to a MIDI signal and then the sensor electrode ELu in the upper stage and the sensor in the middle stage as described later. It is used to control the polarity of the effect set on any of the electrode group ELm and the lower sensor electrode ELd, the intensity thereof, and the like.

(MIDI信号への変換処理)
次に、上述したX方向の接触位置をMIDI信号に変換する処理について説明する。
図5は、本実施形態に適用されるX方向の接触位置とMIDI信号との関係を示す図である。図5(a)は不感対を考慮しない場合の、線形性を有する対応関係を示す図であり、図5(b)は不感帯を考慮した位置情報への変換処理を説明するための図である。
(Conversion process to MIDI signal)
Next, the process of converting the contact position in the X direction described above into a MIDI signal will be described.
FIG. 5 is a view showing the relationship between the touch position in the X direction and the MIDI signal applied to the present embodiment. FIG. 5 (a) is a view showing a correspondence relationship having linearity when the insensitive pair is not considered, and FIG. 5 (b) is a view for explaining conversion processing to position information in consideration of the dead zone. .

上述した重心位置の算出方法を適用して求められた親指のX方向の接触位置について、そのままMIDI信号に変換する(割り当てる)処理を行った場合、X方向の接触位置とMIDI信号との関係は、例えば図5(a)に示すグラフで表され、親指の接触位置をセンサ電極cap1の位置からセンサ電極cap9の方向であるX方向に動かすことにより、MIDI信号として「0」から「127」まで線形性を有して変化する数値が得られる。このような変換処理においては、演奏者の親指がタッチパッド上で僅かでもX方向に動くと、楽音のエフェクトに影響してしまい、演奏者が意図する演奏ができなくなる場合がある。   When the process of converting (assigning) the contact position in the X direction of the thumb as obtained by applying the calculation method of the center of gravity described above to the MIDI signal as it is, the relationship between the contact position in the X direction and the MIDI signal is For example, it is represented by the graph shown in FIG. 5A, and by moving the contact position of the thumb from the position of the sensor electrode cap1 to the X direction which is the direction of the sensor electrode cap9, MIDI signals "0" to "127" A numerical value that changes linearly is obtained. In such conversion processing, if the player's thumb slightly moves in the X direction on the touch pad, the effect of the musical tone may be affected, and the player's intended performance may not be possible.

このような状況を抑制するためには、タッチパッド32のX方向の中間位置(中央)付近に、タッチセンサが演奏者の親指の動きに反応しない、或いは、タッチセンサの検出感度を低く設定した不感帯を設ける手法を適用することができる。このような不感帯を設ける手法については、電子楽器のユーザーインタフェースをはじめ、各種のアナログ方式の操作レバー等においても一般に利用されているものである。   In order to suppress such a situation, the touch sensor does not respond to the movement of the player's thumb or the detection sensitivity of the touch sensor is set low near the middle position (center) of the touch pad 32 in the X direction. A method of providing a dead zone can be applied. The method for providing such a dead zone is generally used also for user interfaces of electronic musical instruments, and various control levers of analog type.

このような不感帯を考慮した信号や情報への変換処理を、入力側(変換前)となるX方向の接触位置と出力側(変換後)となるMIDI信号との関係に適用すると、例えば図5(b)に示すグラフのような形態で表され、親指の接触位置が不感帯の範囲内にある場合には、タッチセンサが反応しない、或いは、タッチパッド32の中間位置を示すセンサ出力値が出力される。   If conversion processing to signals and information in consideration of such a dead zone is applied to the relationship between the contact position in the X direction on the input side (before conversion) and the MIDI signal on the output side (after conversion), for example, FIG. It is expressed in a form like the graph shown in (b), and when the contact position of the thumb is within the range of the dead zone, the touch sensor does not respond, or the sensor output value indicating the middle position of the touch pad 32 is output Be done.

すなわち、X方向の接触位置が、Xa以上Xb以下の場合には、X方向の接触位置に関わらず、MIDI信号の値がデフォルト値の「64」に固定される。ここで、図5(b)のグラフにおいては、一例としてXa=50、Xb=84に設定されている場合を示した。   That is, when the contact position in the X direction is equal to or greater than Xa and less than or equal to Xb, the value of the MIDI signal is fixed at “64” which is the default value regardless of the contact position in the X direction. Here, in the graph of FIG. 5B, as an example, the case where Xa = 50 and Xb = 84 are shown.

また、X方向の接触位置(x)がXa未満の場合には、MIDI信号(y)が次の(13)式で表される線形性を有して変化し、X方向の接触位置(x)がXbより大きい場合には、MIDI信号(y)が次の(14)式で表される線形性を有して変化する。   Also, when the touch position (x) in the X direction is less than Xa, the MIDI signal (y) changes with linearity expressed by the following equation (13), and the touch position (x in the X direction) changes. When X) is larger than Xb, the MIDI signal (y) changes with the linearity expressed by the following equation (14).

Figure 2019061542
Figure 2019061542

このような不感帯を考慮した信号変換処理によれば、タッチパッド32における過敏な動作が抑制されて、意図する演奏感や楽音のエフェクトを良好に実現することができる。 なお、図5(b)においては説明を簡明にするため、タッチパッド32のX方向の中間位置(中央)付近に不感帯を設けた場合について示したが、本発明はこれに限定されるものではなく、X方向の両端、もしくは、いずれか一方の端部(右端、左端)に不感帯を設けるものであってもよい。不感帯の設定位置の具体例については後述する。   According to the signal conversion processing in consideration of such a dead zone, the sensitive operation of the touch pad 32 is suppressed, and the intended feeling of performance and the effect of musical tones can be favorably realized. 5B shows the case where a dead zone is provided in the vicinity of the middle position (center) in the X direction of the touch pad 32 for the sake of simplicity, but the present invention is not limited to this. Instead, dead zones may be provided at both ends in the X direction or at either one end (right end, left end). A specific example of the setting position of the dead zone will be described later.

(Y方向の接触位置判断方法)
次に、上述したタッチパッドに演奏者の親指が触れた場合の、Y方向の位置の判断方法について説明する。
(How to judge the contact position in the Y direction)
Next, a method of determining the position in the Y direction when the player's thumb touches the above-described touch pad will be described.

図6は、本実施形態に適用されるY方向の接触位置の判断方法を説明するための図である。図6(a)はタッチパッドの上段又は下段のセンサ電極に親指が触れている状態を示す図であり、図6(b)はタッチパッドの中段のセンサ電極群に親指が触れている状態を示す図である。   FIG. 6 is a diagram for explaining the method of determining the contact position in the Y direction applied to the present embodiment. FIG. 6 (a) shows a state in which the thumb touches the upper or lower sensor electrode of the touch pad, and FIG. 6 (b) shows a state in which the thumb touches the sensor electrode group in the middle of the touch pad. FIG.

本実施形態に適用されるタッチパッド32において、親指202のY方向の接触位置を求める手法としては、タッチパッド32の上段のセンサ電極ELuと下段のセンサ電極ELdから出力されるセンサ出力値の差分に基づいて算出することができる。   In the touch pad 32 applied to the present embodiment, as a method for obtaining the contact position of the thumb 202 in the Y direction, the difference between the sensor output value output from the sensor electrode ELu at the upper stage of the touch pad 32 and the sensor electrode ELd at the lower stage. It can be calculated based on

具体的には、上段のセンサ電極ELuのセンサ出力値をVu、下段のセンサ電極ELdのセンサ出力値をVdとした場合、次の(21)式に示すように、両者のセンサ出力値Vu、Vdの差(Vu−Vd)が、予め設定されたしきい値THdiffよりも大きいか否かを判断する。さらに、次の(22)式に示すように、上段のセンサ電極ELuからのセンサ出力値Vuが予め設定されたしきい値THon以上か否かを判断する。ここで、THdiffは上段及び下段のセンサ電極ELu、ELdからのセンサ出力値Vu、Vdの差が十分大きいか否かを判断するための値である。また、THonは上段又は下段のセンサ電極ELu、ELdに親指が触れているか否かを判断するための値である。
Vu−Vd>THdiff ・・・(21)
Vu≧THon ・・・(22)
Specifically, when the sensor output value of the upper sensor electrode ELu is Vu, and the sensor output value of the lower sensor electrode ELd is Vd, both sensor output values Vu, as shown in the following equation (21): It is determined whether the difference Vd (Vu−Vd) is larger than a preset threshold THdiff. Furthermore, as shown in the following equation (22), it is determined whether the sensor output value Vu from the sensor electrode ELu in the upper stage is equal to or greater than a preset threshold THon. Here, THdiff is a value for determining whether the difference between the sensor output values Vu and Vd from the upper and lower sensor electrodes ELu and ELd is sufficiently large. Further, THon is a value for determining whether or not the thumb touches the upper or lower sensor electrodes ELu and ELd.
Vu−Vd> THdiff (21)
Vu ≧ THon (22)

これらの(21)、(22)式の両方の条件を満たす場合、すなわち、両者のセンサ出力値Vu、Vdの差(Vu−Vd)が、予め設定されたしきい値THdiffよりも大きく、かつ、上段のセンサ電極ELuからのセンサ出力値Vuが予め設定されたしきい値THon以上である場合には、図6(a)に示すように、上段のセンサ電極ELuに親指202が触れている、或いは、十分近接した状態にあると判断する。   When the conditions of both of these equations (21) and (22) are satisfied, that is, the difference (Vu−Vd) between both sensor output values Vu and Vd is larger than the preset threshold THdiff, and When the sensor output value Vu from the upper sensor electrode ELu is equal to or greater than a preset threshold THon, the thumb 202 is touching the upper sensor electrode ELu as shown in FIG. 6A. Or, determine that they are in a sufficiently close state.

一方、次の(23)式に示すように、両者のセンサ出力値Vu、Vdの差(Vd−Vu)が、予め設定されたしきい値THdiffよりも大きいか否かを判断する。さらに、次の(24)式に示すように、下段のセンサ電極ELdからのセンサ出力値Vdが予め設定されたしきい値THon以上か否かを判断する。
Vd−Vu>THdiff ・・・(23)
Vd≧THon ・・・(24)
On the other hand, as shown in the following equation (23), it is determined whether the difference (Vd−Vu) between the sensor output values Vu and Vd of the two is larger than a preset threshold THdiff. Furthermore, as shown in the following equation (24), it is determined whether the sensor output value Vd from the lower sensor electrode ELd is equal to or greater than a preset threshold THon.
Vd-Vu> THdiff (23)
Vd ≧ THon (24)

これらの(23)、(24)式の両方の条件を満たす場合、すなわち、両者のセンサ出力値Vu、Vdの差(Vd−Vu)が、予め設定されたしきい値THdiffよりも大きく、かつ、下段のセンサ電極ELdからのセンサ出力値Vdが予め設定されたしきい値THon以上である場合には、図6(b)に示すように、下段のセンサ電極ELdに親指202が触れている、或いは、十分近接した状態にあると判断する。   When the conditions of both of these equations (23) and (24) are satisfied, that is, the difference (Vd−Vu) between the sensor output values Vu and Vd of both of them is larger than the preset threshold THdiff and When the sensor output value Vd from the lower sensor electrode ELd is equal to or greater than the preset threshold THon, the thumb 202 is in contact with the lower sensor electrode ELd, as shown in FIG. 6B. Or, determine that they are in a sufficiently close state.

また、上記(21)〜(24)式の条件を満たさない場合、すなわち、両者のセンサ出力値Vu、Vdの差の絶対値(|Vu−Vd|)が、予め設定されたしきい値THdiff以下であり、両者のセンサ出力値Vu、Vdが予め設定されたしきい値THonよりも小さい場合には、図6(c)に示すように、中段のセンサ電極群ELmに親指202が触れている、或いは、十分近接した状態にあると判断する。   Further, when the conditions of the above equations (21) to (24) are not satisfied, that is, the absolute value (| Vu-Vd |) of the difference between the sensor output values Vu and Vd of the both is a threshold THdiff set in advance. In the case where both sensor output values Vu and Vd are smaller than the preset threshold THon, as shown in FIG. 6C, the thumb 202 touches the middle sensor electrode group ELm. It is determined that the vehicle is in or close enough.

なお、本実施形態においては、上記の(21)〜(24)式の条件を示して、親指202が上段又は下段のセンサ電極ELu、ELdのいずれに触れているかを判断したが、本発明はこれに限定されるものではない。例えば、上記の(21)〜(24)式のうち、(21)、(23)式のみを用い、しきい値THdiffを大きな値に設定することにより、両者のセンサ出力値Vu、Vdの差がしきい値THdiffよりも大きいか否かで上段のセンサ電極ELuか下段のセンサ電極ELdか、又は中段のセンサ電極群ELmに触れているかを判断するものであってもよい。また、上段及び下段のセンサ電極ELu、ELからのセンサ出力値Vu、Vdの差分を用いた手法に限定されるものではなく、例えば両者のセンサ出力値Vu、Vdの比が予め設定されたしきい値よりも大きいか否かに基づいて、親指202が触れているセンサ電極を判断するものであってもよい。   In the present embodiment, it is determined whether the thumb 202 touches the upper or lower sensor electrode ELu or ELd by showing the conditions of the above equations (21) to (24), but the present invention It is not limited to this. For example, the difference between the sensor output values Vu and Vd between the two by setting the threshold value THdiff to a large value using only the equations (21) and (23) among the equations (21) to (24). It may be determined whether the upper sensor electrode ELu or the lower sensor electrode ELd or the middle sensor electrode group ELm is touched depending on whether or not the threshold THdiff is larger than the threshold THdiff. Further, the method is not limited to the method using the difference between the sensor output values Vu and Vd from the upper and lower sensor electrodes ELu and EL. For example, the ratio of both sensor output values Vu and Vd is set in advance. The sensor electrode with which the thumb 202 is in touch may be determined based on whether it is larger than the threshold value.

(電子楽器の制御方法)
次に、本実施形態に係るパラメータ制御装置を適用した電子楽器の制御方法について具体的に説明する。
ここで、本実施形態に係る電子楽器の制御方法は、上述したパラメータ操作部30におけるX−Y方向の親指の接触位置の決定方法やMIDI信号への変換処理を含むものであって、上述した電子楽器100のCPU50において、特定の制御プログラムを実行することにより実現されるものである。
(Control method of electronic musical instrument)
Next, a control method of the electronic musical instrument to which the parameter control device according to the present embodiment is applied will be specifically described.
Here, the control method of the electronic musical instrument according to the present embodiment includes the method of determining the contact position of the thumb in the X-Y direction in the parameter operation unit 30 described above and the conversion process to MIDI signals. The CPU 50 of the electronic musical instrument 100 is realized by executing a specific control program.

図7は、本実施形態に係る電子楽器における制御方法のメインルーチンを示すフローチャートである。
本実施形態に係る電子楽器の制御方法は、図7に示すフローチャートのように、まず、演奏者が電子楽器100の電源を投入すると、CPU50は電子楽器100の各種設定を初期化するイニシャライズ処理を実行する(ステップS702)。
FIG. 7 is a flowchart showing the main routine of the control method of the electronic musical instrument according to the present embodiment.
In the control method of the electronic musical instrument according to the present embodiment, as shown in the flowchart of FIG. 7, first, when the player turns on the power of the electronic musical instrument 100, the CPU 50 initializes the various settings of the electronic musical instrument 100. Execute (step S702).

次いで、CPU50は、演奏者が電子楽器100のマウスピース22を咥えることによりリップ検出部(図示を省略)から出力されるリップ(下唇)の検出情報に基づく処理を実行する(ステップS704)。   Next, the CPU 50 executes processing based on detection information of the lip (lower lip) output from the lip detection unit (not shown) by the player holding the mouthpiece 22 of the electronic musical instrument 100 (step S704). .

次いで、CPU50は、マウスピース22へのタン(舌部)の接触状態に応じてタン検出部(図示を省略)から出力されるタンの検出情報に基づく処理を実行する(ステップS706)。また、CPU50は、マウスピース22に吹き込まれた息に応じて息圧検出部20から出力される息圧情報に基づく処理を実行する(ステップS708)。   Next, the CPU 50 executes processing based on tongue detection information output from a tongue detection unit (not shown) in accordance with the contact state of the tongue (tongue) with the mouthpiece 22 (step S706). Further, the CPU 50 executes a process based on the breath pressure information output from the breath pressure detection unit 20 according to the breath blown into the mouthpiece 22 (step S 708).

次いで、CPU50は、操作子10の操作情報に含まれる音高情報に応じたキーコードを発生させ、音源80に供給して楽音の音高を設定するキースイッチ処理を実行する(ステップS710)。このとき、CPU50は、リップ検出部の処理(ステップS704)において、リップ検出部から入力されたリップの検出情報に基づいて、楽音の音色や音量等を調整する処理を実行する。また、CPU50は、タン検出部の処理(ステップS706)において、タン検出部から入力されたタンの検出情報に基づいて、楽音のノートオン/オフを設定する処理を実行し、息圧検出部20の処理(ステップS708)において、息圧検出部20から入力された息圧情報に基づいて、楽音の音量を設定する処理を実行する。   Next, the CPU 50 generates a key code corresponding to the pitch information contained in the operation information of the operation element 10, and supplies the key code to the sound source 80 to execute key switch processing for setting the pitch of the musical tone (step S710). At this time, in the process of the lip detection unit (step S704), the CPU 50 executes a process of adjusting the tone color, volume, and the like of the musical tone based on the lip detection information input from the lip detection unit. Further, in the processing of the tongue detection unit (step S706), the CPU 50 executes processing for setting the note on / off of the musical tone on the basis of the detection information of the tongue inputted from the tongue detection unit. In the process of (step S 708), the process of setting the tone volume is executed based on the breath pressure information input from the breath pressure detection unit 20.

さらに、CPU50は、パラメータ操作部30から入力されたパラメータ操作情報に基づいて、予め設定された複数のエフェクト(ピッチベンドやビブラート等の音色効果)の選択と、当該エフェクトの操作量(極性や強度等)を制御する処理(ステップS712)を実行する。このパラメータ操作部30の処理は、上述したタッチパッド32における親指の接触位置を決定する手法を含むものであり、詳しくは後述する。CPU50は、これらの一連の処理により、演奏者の演奏動作に応じた楽音を生成するための指示を生成して音源80に出力する。そして、音源80は、CPU50からの楽音の生成指示に基づいて、サウンドシステム90を動作させる発音処理を実行する(ステップS714)。   Furthermore, the CPU 50 selects a plurality of preset effects (tone effect such as pitch bend and vibrato) based on the parameter operation information input from the parameter operation unit 30, and the operation amount (polarity, intensity, etc.) of the effect. ) (Step S712) is executed. The process of the parameter operation unit 30 includes a method of determining the contact position of the thumb on the touch pad 32 described above, and will be described in detail later. The CPU 50 generates an instruction for generating a musical tone according to the performance operation of the performer by the series of processes, and outputs the instruction to the sound source 80. Then, based on the tone generation instruction from the CPU 50, the tone generator 80 executes a tone generation process for operating the sound system 90 (step S714).

その後、CPU50は、その他の必要な処理(ステップS716)を実行して一連の処理動作が終了すると、上述したステップS704からS716の処理を再度繰り返し実行する。なお、図7に示したフローチャートにおいては図示を省略したが、CPU50は、上述した一連の処理動作(ステップS702〜S716)の実行中に、演奏が終了したり中断したりする状態の変化を検出した場合には、処理動作を強制的に終了する。   Thereafter, when the CPU 50 executes the other necessary processes (step S716) and completes the series of processing operations, the CPU 50 repeatedly executes the processes of steps S704 to S716 described above. Although not shown in the flow chart shown in FIG. 7, the CPU 50 detects a change in the state in which the performance is ended or interrupted while the series of processing operations (steps S702 to S716) described above are being executed. If so, the processing operation is forcibly terminated.

(パラメータ操作部の処理)
次いで、上述したメインルーチンに示したパラメータ操作部30の処理について説明する。
図8は、本実施形態に係る電子楽器の制御方法に適用されるパラメータ操作部の処理を示すフローチャートである。図9は、本実施形態に係る電子楽器の制御方法に適用される不感帯を考慮した信号変換処理の他の例を示す図である。
(Processing of parameter operation unit)
Next, processing of the parameter operating unit 30 shown in the above-described main routine will be described.
FIG. 8 is a flowchart showing processing of the parameter operating unit applied to the control method of the electronic musical instrument according to the present embodiment. FIG. 9 is a view showing another example of signal conversion processing in consideration of a dead zone applied to the control method of the electronic musical instrument according to the present embodiment.

図7に示した電子楽器の制御方法に適用されるパラメータ操作部30の処理は、図8に示すフローチャートのように、まず、CPU50は、パラメータ操作部30のタッチパッド32に配列された複数のセンサ電極(上段、中段、下段の3段の電極群)から出力されるセンサ出力値を取得して、RAM7の所定の記憶領域に現在の出力値として記憶させる。これにより、RAM7の所定の記憶領域に記憶されているセンサ出力値が、現在のセンサ出力値に順次更新される(ステップS802)。ここで、パラメータ操作部30から出力されるセンサ出力値は、図3及び図6に示したような構成を有するタッチパッド32に配列された複数のセンサ電極に対して、演奏者の親指が接触することにより検出状態になると、当該時点で各センサ電極に生じる静電容量に応じた出力値が同時(又は、略同時)に検出されてCPU50に出力される。   The process of the parameter operating unit 30 applied to the control method of the electronic musical instrument shown in FIG. 7 is, first of all, a plurality of CPUs 50 arranged on the touch pad 32 of the parameter operating unit 30 as in the flowchart shown in FIG. The sensor output values output from the sensor electrodes (the upper, middle, and lower three-stage electrode groups) are acquired, and stored in the predetermined storage area of the RAM 7 as the current output values. Thereby, the sensor output value stored in the predetermined storage area of the RAM 7 is sequentially updated to the current sensor output value (step S802). Here, the sensor output value output from the parameter operation unit 30 is such that the thumb of the player contacts the plurality of sensor electrodes arranged on the touch pad 32 having the configuration as shown in FIGS. 3 and 6. When the detection state is established, an output value corresponding to the capacitance generated in each sensor electrode at that time is simultaneously (or almost simultaneously) detected and output to the CPU 50.

次いで、CPU50は、パラメータ操作部30のタッチパッド32から出力されるセンサ出力値(現在の出力値)に基づいて、演奏者の親指がタッチパッド32に接触しているか否かを判断する(ステップS804)。ここで、親指がタッチパッド32に接触しているか否かを判断する手法としては、例えば、タッチパッド32に配列された複数のセンサ電極ELu、ELm、ELdからのセンサ出力値の総和に基づいて判断する手法を適用することができる。すなわち、算出されたセンサ出力値の総和が所定のしきい値THfingerよりも大きい場合には、親指がタッチパッド32に接触していると判断し、総和が上記しきい値THfinger以下の場合には、親指がタッチパッド32に接触していないと判断する。   Next, the CPU 50 determines whether the player's thumb is in contact with the touch pad 32 based on the sensor output value (current output value) output from the touch pad 32 of the parameter operation unit 30 (step S804). Here, as a method of determining whether the thumb is in contact with the touch pad 32, for example, based on the sum of sensor output values from a plurality of sensor electrodes ELu, ELm, ELd arranged on the touch pad 32. The method of judging can be applied. That is, if the sum of the calculated sensor output values is larger than the predetermined threshold value THfinger, it is determined that the thumb is in contact with the touch pad 32, and if the sum value is less than the threshold value THfinger. , And the thumb is not in contact with the touch pad 32.

なお、親指がタッチパッド32に接触しているか否かの判断は、上記の手法に限定されるものではなく、他の手法を適用するものであってもよい。例えば、センサ電極ELu、ELm、ELdからのセンサ出力値が全て所定値以下である場合には、親指がタッチパッド32に接触していないと判断し、センサ電極ELu、ELm、ELdのうちの半数以上のセンサ出力値が上記の所定値を超過している場合には、親指がタッチパッド32に接触していると判断する手法を適用するものであってもよい。   The determination as to whether or not the thumb is in contact with the touch pad 32 is not limited to the method described above, and other methods may be applied. For example, if all sensor output values from the sensor electrodes ELu, ELm, ELd are equal to or less than a predetermined value, it is determined that the thumb is not in contact with the touch pad 32, and half of the sensor electrodes ELu, ELm, ELd If the above sensor output value exceeds the above predetermined value, a method of determining that the thumb is in contact with the touch pad 32 may be applied.

上記のステップS804において、演奏者の親指がタッチパッド32に接触していないと判断された場合(ステップS804のNo)には、CPU50は、タッチパッド32上での親指の接触位置(図8中では「pos1」と表記)の算出を行わず、7ビット表現のデフォルト値である「64」を設定した後(「pos1=64」;ステップS806)、パラメータ操作部30の処理を終了して、図7に示したメインルーチンの処理に戻る。   If it is determined in step S804 above that the player's thumb is not in contact with the touch pad 32 (No in step S804), the CPU 50 determines the contact position of the thumb on the touch pad 32 (FIG. 8). Then, after “64” which is the default value of 7-bit expression is set (“pos1 = 64”; step S806), the processing of the parameter operation unit 30 is finished, and calculation of “pos1” is not performed. It returns to the processing of the main routine shown in FIG.

一方、上記のステップS804において、演奏者の親指がタッチパッド32に接触していると判断された場合(ステップS804のYes)には、CPU50は、上述したX方向の親指の接触位置算出方法、不感帯を考慮した信号変換処理、Y方向の親指の接触位置判断方法を含む一連の処理動作を実行する。   On the other hand, if it is determined in step S804 that the player's thumb is in contact with the touch pad 32 (Yes in step S804), the CPU 50 calculates the contact position of the thumb in the X direction described above; A series of processing operations including signal conversion processing in consideration of the dead zone and a method of determining the contact position of the thumb in the Y direction are performed.

具体的には、CPU50は、まず、タッチパッド32の中段のセンサ電極群ELmに配列された各センサ電極cap1〜cap9からのセンサ出力値に対して、上述した重心位置(加重平均)の算出方法を適用して、X方向の親指の接触位置pos1を算出する(ステップS808)。ここで、重心位置の算出方法により求められた接触位置pos1は、1.0〜9.0の小数を含む数値で表されるので、これをMIDI信号として利用するために0〜127の整数値に割り当てられる。このように、X方向の親指の接触位置pos1は128段階の高い解像度で決定される。決定されたX方向の親指の接触位置pos1は、RAM70の所定の記憶領域に記憶される。   Specifically, the CPU 50 first calculates the center position (weighted average) described above with respect to the sensor output value from each of the sensor electrodes cap1 to cap9 arranged in the middle sensor electrode group ELm of the touch pad 32. To calculate the contact position pos1 of the thumb in the X direction (step S808). Here, since the contact position pos1 determined by the method of calculating the center of gravity position is represented by a numerical value including a decimal of 1.0 to 9.0, it is assigned to an integer value of 0 to 127 in order to use it as a MIDI signal. Thus, the contact position pos1 of the thumb in the X direction is determined at a high resolution of 128 levels. The determined contact position pos1 of the thumb in the X direction is stored in a predetermined storage area of the RAM 70.

次いで、CPU50は、X方向の接触位置pos1について、上述した不感帯を考慮した信号変換処理の手法を適用して、MIDI信号の数値に変換する(pos1→pos2)。   Next, the CPU 50 applies, to the contact position pos1 in the X direction, the method of signal conversion processing in consideration of the above-mentioned dead zone to convert it into a numerical value of a MIDI signal (pos1 → pos2).

具体的には、CPU50は、予め複数の不感帯DZ1、DZ2、DZ3を規定するしきい値THdL、THdc1、THdc2、THdRを設定しておき、X方向の親指の接触位置算出方法により算出され、0〜127の整数値に割り当てられたX方向の接触位置pos1について、例えば図9に示す信号変換特性の入力側(横軸)の、不感帯DZ1、DZ2、DZ3を含む5つのエリアのどのエリアに該当するかを判別する(ステップS810)。このステップS810の判別処理において、接触位置pos1の数値がしきい値THdL未満の不感帯DZ1の領域に含まれる場合には、図9に示すように、pos2=0に変換される(ステップS812)。また、接触位置pos1の数値がしきい値THdL以上THdc1未満の場合には、図9に示すように、所定の傾きの一次関数からなる特性線に基づいてpos2が算出され、0〜64の範囲の数値に変換される(ステップS814)。また、接触位置pos1の数値がしきい値THdc1以上THdc2未満の不感帯DZ2の領域に含まれる場合には、図9に示すように、pos2=64に変換される(ステップS816)。また、接触位置pos1の数値がしきい値THdc2以上THdR未満の場合には、図9に示すように、所定の傾きの一次関数からなる特性線に基づいてpos2が算出され、64〜127の範囲の数値に変換される(ステップS818)。また、接触位置pos1の数値がしきい値THdR以上の不感帯DZ3の領域に含まれる場合には、図9に示すように、pos2=127に変換される(ステップS820)。このようにして変換処理された接触位置pos2の数値は、RAM70の所定の記憶領域に記憶される。   Specifically, the CPU 50 sets threshold values THdL, THdc1, THdc2, THdR that define a plurality of dead zones DZ1, DZ2, DZ3 in advance, and is calculated by the method of calculating the contact position of the thumb in the X direction. The contact position pos1 in the X direction assigned to the integer value of ̃127 corresponds to any of five areas including the dead zones DZ1, DZ2 and DZ3 on the input side (horizontal axis) of the signal conversion characteristic shown in FIG. It is determined whether to do (step S810). In the determination process of step S810, when the numerical value of the contact position pos1 is included in the area of the dead zone DZ1 less than the threshold value THdL, as shown in FIG. 9, pos2 is converted to 0 (step S812). In addition, when the numerical value of the contact position pos1 is equal to or greater than the threshold THdL and less than THdc1, as shown in FIG. 9, pos2 is calculated based on a characteristic line formed of a linear function of a predetermined slope. Is converted to a numerical value (step S 814). Further, when the numerical value of the contact position pos1 is included in the region of the dead zone DZ2 which is equal to or greater than the threshold THdc1 and less than THdc2, as shown in FIG. 9, it is converted to pos2 = 64 (step S816). In addition, when the numerical value of the contact position pos1 is equal to or greater than the threshold THdc2 and less than THdR, as shown in FIG. 9, pos2 is calculated based on a characteristic line formed of a linear function of a predetermined slope. Is converted to a numerical value (step S 818). Further, when the numerical value of the contact position pos1 is included in the area of the dead zone DZ3 equal to or larger than the threshold value THdR, as shown in FIG. 9, it is converted into pos2 = 127 (step S820). The numerical value of the contact position pos2 thus converted is stored in a predetermined storage area of the RAM 70.

次いで、CPU50は、上述したY方向の親指の接触位置を判断する処理の手法を適用して、Y方向の親指の接触位置を算出する。具体的には、CPU50は、まず、タッチパッド32に配列された上段のセンサ電極ELu及び下段のセンサ電極ELdからのセンサ出力値Vu、Vdに対して、その差(Vu−Vd)が予め設定されたしきい値THdiffよりも大きく、かつ、上段のセンサ電極ELuからのセンサ出力値Vuが予め設定されたしきい値THon以上であるか否かを判別する(ステップS822)。ステップS822の判別処理において、センサ出力値Vu、Vdの差(Vu−Vd)がしきい値THdiffよりも大きく、かつ、センサ出力値Vuがしきい値THon以上である場合(ステップS822のYes)には、CPU50は、親指が上段のセンサ電極ELuに接触又は近接する位置にある(posUD=up)と判断する(ステップS824)。   Next, the CPU 50 applies the method of processing for determining the contact position of the thumb in the Y direction described above to calculate the contact position of the thumb in the Y direction. Specifically, the CPU 50 first sets the difference (Vu−Vd) to the sensor output values Vu and Vd from the upper sensor electrode ELu and the lower sensor electrode ELd arranged in the touch pad 32 in advance. It is determined whether the threshold value THdiff is larger than the threshold value THdiff and the sensor output value Vu from the upper sensor electrode ELu is a threshold value THon set in advance or more (step S822). In the determination process of step S822, when the difference (Vu−Vd) between the sensor output values Vu and Vd is larger than the threshold THdiff and the sensor output value Vu is equal to or larger than the threshold THon (Yes in step S822) The CPU 50 determines that the thumb is in contact with or in proximity to the upper sensor electrode ELu (posUD = up) (step S824).

一方、ステップS822の判別処理において、センサ出力値Vu、Vdの差(Vu−Vd)がしきい値THdiffよりも小さく、また、センサ出力値Vuがしきい値THon未満である場合(ステップS822のNo)には、CPU50は、センサ出力値Vu、Vdの差(Vd−Vu)がしきい値THdiffよりも大きく、かつ、センサ出力値Vdがしきい値THon以上であるか否かを判別する(ステップS826)。ステップS826の判別処理において、センサ出力値Vu、Vdの差(Vd−Vu)がしきい値THdiffよりも大きく、かつ、センサ出力値Vdがしきい値THon以上である場合(ステップS826のYes)には、CPU50は、親指が下段のセンサ電極ELdに接触又は近接する位置にある(posUD=down)と判断する(ステップS828)。   On the other hand, in the determination process of step S822, the difference (Vu−Vd) between the sensor output values Vu and Vd is smaller than the threshold THdiff, and the sensor output value Vu is smaller than the threshold THon (step S822). In No), the CPU 50 determines whether the difference (Vd−Vu) between the sensor output values Vu and Vd is larger than the threshold THdiff and the sensor output Vd is equal to or larger than the threshold THon. (Step S826). In the determination process of step S826, when the difference (Vd−Vu) between the sensor output values Vu and Vd is larger than the threshold THdiff and the sensor output value Vd is the threshold THon or more (Yes in step S826) The CPU 50 determines that the thumb is in contact with or in proximity to the lower sensor electrode ELd (posUD = down) (step S828).

一方、ステップS826の判別処理において、センサ出力値Vu、Vdの差(Vd−Vu)がしきい値THdiffよりも小さく、かつ、センサ出力値Vdがしきい値THon未満である場合(ステップS826のNo)には、CPU50は、親指が上段及び下段のセンサ電極ELu、ELdのいずれにも接触又は近接しておらず、中段のセンサ電極群ELmに接触又は近接する位置にある(posUD=middle)と判断する(ステップS830)。このように、Y方向の親指の接触位置posUDは上、中、下の3段階の低い解像度で決定される。タッチパッド32上での上、中、下の位置が決定されたY方向の親指の接触位置posUDは、RAM70の所定の記憶領域に記憶される。   On the other hand, in the determination process of step S826, when the difference (Vd−Vu) between the sensor output values Vu and Vd is smaller than the threshold THdiff and the sensor output value Vd is smaller than the threshold THon (step S826) In No), the CPU 50 is in a position where the thumb is not in contact with or in proximity to any of the upper and lower sensor electrodes ELu and ELd, but in contact or in proximity with the middle sensor electrode group ELm (posUD = middle) It is determined that (step S830). In this way, the contact position posUD of the thumb in the Y direction is determined at three levels of upper, middle, and lower resolutions. The contact position posUD of the thumb in the Y direction whose upper, middle, lower position has been determined on the touch pad 32 is stored in a predetermined storage area of the RAM 70.

次いで、CPU50は、上述したように決定されたY方向の親指の接触位置posUDに基づいて、パラメータ設定部40により予めタッチパッド32に関連付けられたエフェクトを選択し、X方向の親指の接触位置pos2に基づいて、選択されたエフェクトの操作量(極性や強度等)を設定する。これにより、CPU50は、X−Y方向の接触位置pos2、posUDに基づく値を付与したMIDI信号を発行し(ステップS832)、タッチパッド32への親指による操作に応じたエフェクトが付与された楽音を生成する際に、当該MIDI信号を利用する。その後、CPU50は、パラメータ操作部30の処理を終了して、図7に示したメインルーチンの処理に戻る。   Next, the CPU 50 selects an effect previously associated with the touch pad 32 by the parameter setting unit 40 based on the contact position posUD of the thumb in the Y direction determined as described above, and the touch position pos2 of the thumb in the thumb direction Set the operation amount (polarity, intensity, etc.) of the selected effect. Thus, the CPU 50 issues a MIDI signal to which values based on the contact positions pos2 and posUD in the X-Y direction are assigned (step S832), and the musical tone to which the effect according to the operation by the thumb on the touch pad 32 is applied is The MIDI signal is used when generating. Thereafter, the CPU 50 ends the processing of the parameter operating unit 30, and returns to the processing of the main routine shown in FIG.

(パラメータの制御方法)
次に、上述した電子楽器の制御方法に適用されるパラメータの制御方法について説明する。ここでは、上述した電子楽器の制御方法により実現されるエフェクト等のパラメータを連続的に制御した場合の電子楽器の動作について説明する。
(How to control parameters)
Next, a control method of parameters applied to the control method of the electronic musical instrument described above will be described. Here, the operation of the electronic musical instrument in the case where parameters such as effects realized by the above-described control method of the electronic musical instrument are continuously controlled will be described.

図10は、本実施形態に係る電子楽器の制御方法に適用されるパラメータの第1の制御方法を示す図である。図10(a)はタッチパッドにおける操作状況を示す概略図であり、図10(b)〜(d)はタッチパッドの各電極から出力されるセンサ出力値の変化を示す図であり、図10(e)はタッチパッドの各電極から出力されるセンサ出力値を示す表である。図11は、本実施形態に係る電子楽器の制御方法に適用されるパラメータの第2の制御方法を示す図である。図11(a)〜(c)はタッチパッドの各電極から出力されるセンサ出力値の変化を示す図であり、図11(d)はタッチパッドの各電極から出力されるセンサ出力値を示す表である。   FIG. 10 is a view showing a first control method of parameters applied to the control method of the electronic musical instrument according to the present embodiment. FIG. 10 (a) is a schematic view showing an operation situation in the touch pad, and FIGS. 10 (b) to 10 (d) are diagrams showing changes in sensor output values outputted from the respective electrodes of the touch pad. (E) is a table | surface which shows the sensor output value output from each electrode of a touchpad. FIG. 11 is a diagram showing a second control method of parameters applied to the control method of the electronic musical instrument according to the present embodiment. FIGS. 11A to 11C are diagrams showing changes in sensor output values output from the electrodes of the touch pad, and FIG. 11D illustrates sensor output values output from the electrodes of the touch pad. It is a table.

上述した実施形態においては、図3や図6に示したように、パラメータ操作部30のタッチパッド32に配列された電極群により、親指202の接触領域が決定されて、予め関連付けられたエフェクトが選択されるとともに、そのエフェクトの操作量(極性や強度等)が決定される。ここで、本実施形態に係るパラメータの第1の制御方法においては、親指202がタッチパッド32上の特定の領域に載置された状態から別の領域に移動した場合には、CPU50は、先の領域において決定されたエフェクトを保持する制御を実行する。   In the embodiment described above, as shown in FIG. 3 and FIG. 6, the contact area of the thumb 202 is determined by the electrode group arranged on the touch pad 32 of the parameter operation unit 30, and the effect associated in advance is obtained. While being selected, the operation amount (polarity, intensity, etc.) of the effect is determined. Here, in the first control method of the parameters according to the present embodiment, when the thumb 202 is moved from the state of being placed on the specific area on the touch pad 32 to another area, the CPU 50 is the tip. Execute control to hold the determined effect in the area of

例えば、タッチパッド32に配列された上段のセンサ電極ELu、中段のセンサ電極群ELm、下段のセンサ電極ELdについて、パラメータとして便宜的に、それぞれA、B、Cの音のエフェクトが関連付けられている場合、同一のエフェクトを選択した状態を保持して操作量を変更した場合には、当該操作量の変化に応じたエフェクトが実行される。一方、他のエフェクトを選択した場合には、先に選択されたエフェクトは実行状態が保持(ロック)される。   For example, for the upper sensor electrode ELu, the middle sensor electrode group ELm, and the lower sensor electrode ELd arranged on the touch pad 32, the sound effects of A, B, and C are associated with each other for convenience. In the case where the same effect is selected and the operation amount is changed, the effect corresponding to the change in the operation amount is executed. On the other hand, when another effect is selected, the previously selected effect is held (locked).

具体的には、第1の制御方法において、図10(a)に示すように、タッチパッド32の電極群に対して、親指202を「1」→「2」→・・・→「5」の領域に順次移動させた場合のエフェクトの実行状態は、図10(b)〜(e)のように示される。ここで、「1」はAのエフェクトが選択された状態であって、その操作量の値は30である。「2」はAのエフェクトが選択された状態であって、その操作量の値は10である。「3」はCのエフェクトが選択された状態であって、その操作量の値は120である。「4」はBのエフェクトが選択された状態であって、その操作量の値は120である。「5」はAのエフェクトが選択された状態であって、その操作量の値は100である。
すなわち、第1の制御方法においては、各エフェクトA、B、Cについて、次に選択されて操作量が変化するまで、直近の実行状態が保持されることになる。
Specifically, in the first control method, as shown in FIG. 10A, with respect to the electrode group of the touch pad 32, the thumb 202 is “1” → “2” →. The execution state of the effect when sequentially moved to the area of is shown as FIG. 10 (b) to (e). Here, “1” is a state in which the effect of A is selected, and the value of the operation amount is 30. "2" is a state in which the effect of A is selected, and the value of the operation amount is 10. "3" is a state in which the effect of C is selected, and the value of its operation amount is 120. "4" is in a state in which the effect of B is selected, and the value of the operation amount is 120. "5" is a state in which the effect of A is selected, and the value of the operation amount is 100.
That is, in the first control method, the latest execution state is held until each of the effects A, B, and C is selected next and the operation amount changes.

また、本実施形態に係るパラメータの第2の制御方法においては、親指202がタッチパッド32上の特定の領域に載置された状態から別の領域に移動した場合には、CPU50は、先の領域において決定されたエフェクトをデフォルト値にリセットする制御を実行する。   Further, in the second control method of the parameters according to the present embodiment, when the thumb 202 is moved from the state of being placed on the specific area on the touch pad 32 to another area, the CPU 50 performs the process described above. Execute control to reset the effect determined in the area to the default value.

上述した第1の制御方法と同等の設定において、同一のエフェクトを選択した状態を保持して操作量を変更した場合には、当該操作量の変化に応じたエフェクトが実行される。一方、他のエフェクトを選択した場合には、先に選択されたエフェクトは実行状態がリセットされる。   In the same setting as the first control method described above, when the operation amount is changed while holding the same effect selected, the effect corresponding to the change in the operation amount is executed. On the other hand, when another effect is selected, the execution state of the previously selected effect is reset.

具体的には、第2の制御方法において、図10(a)に示したように、タッチパッド32の電極群に対して、親指202を「1」→「2」→・・・→「5」の領域に順次移動させた場合のエフェクトの実行状態は、図11(a)〜(d)のように示される。
すなわち、第2の制御方法においては、各エフェクトA、B、Cについて、非選択状態では操作量がデフォルト値「64」にリセットされ、選択状態でのみ決定された操作量でエフェクトが実行されることになる。
Specifically, in the second control method, as shown in FIG. 10A, with respect to the electrode group of the touch pad 32, the thumb 202 is “1” → “2” →. The execution state of the effect when sequentially moved to the area of “1” is shown as in FIGS. 11 (a) to 11 (d).
That is, in the second control method, for each effect A, B and C, the operation amount is reset to the default value "64" in the non-selected state, and the effect is executed with the operation amount determined only in the selected state. It will be.

また、上述したパラメータの制御方法において、実際の演奏中に、演奏者がタッチパッド32から親指を離した場合等に、選択されたエフェクトの実行状態が保持され続けると、不具合が生じる場合がある。そこで、第1及び第2の制御方法においては、このような状況が発生した場合には、A、B、Cの3つのエフェクトの実行状態をリセットして、デフォルト値に戻す制御を実行する。このようなリセット制御は、例えば、(1)指がタッチパッド32から離れて2秒間が経過した場合、(2)マウスピース22を口から離した瞬間、(3)ブレス(息)が無くなってから2秒間が経過した場合、(4)音高を決めるためのキー入力が無い状態が2秒間継続した場合等を、起動条件(トリガー)として実行される。なお、実際の電子楽器に本実施形態を適用する場合には、これらの条件の実行適用の可否を演奏者が任意に選択できるようにすることが望ましい。   Further, in the above-described parameter control method, a problem may occur if the execution state of the selected effect is kept held, for example, when the player releases the thumb from the touch pad 32 during actual performance. . Therefore, in the first and second control methods, when such a situation occurs, the execution states of the three effects A, B, and C are reset to perform control to return to the default value. Such reset control is performed, for example, (1) when a finger is separated from the touch pad 32 and 2 seconds have elapsed, (2) the moment when the mouthpiece 22 is released from the mouth, (3) breath is lost. When 2 seconds have passed since (4), the case where there is no key input for determining the pitch continues for 2 seconds is executed as the activation condition (trigger). In the case where the present embodiment is applied to an actual electronic musical instrument, it is desirable that the player can arbitrarily select whether or not the execution application of these conditions is applicable.

このように、本実施形態においては、演奏者が演奏時に電子楽器を両手で支えて保持したときに、親指が当接する領域に、特定の方向(X方向)にスライダーとして機能するセンサ電極群と、当該センサ電極群に近接して平行に配置され、所定のパラメータの選択機能を有するセンサ電極とを備えたタッチパッドが設けられている。そして、親指202がタッチパッド32に触れたときに、スライダーを構成する中段のセンサ電極群ELmへの接触状態に基づいて、親指202のX方向の接触位置を検出してエフェクトの操作量(極性や強度等)を決定している。また、上段のセンサ電極ELu又は下段のセンサ電極ELdへの接触状態に基づいて、親指202のY方向の接触位置を検出して実行するエフェクトの選択を行っている。   As described above, in this embodiment, when the player holds and holds the electronic musical instrument with both hands at the time of playing, a sensor electrode group which functions as a slider in a specific direction (X direction) is provided in a region where the thumb abuts. There is provided a touch pad including a sensor electrode disposed in parallel close to the sensor electrode group and having a function of selecting a predetermined parameter. When the thumb 202 touches the touch pad 32, the contact position of the thumb 202 in the X direction is detected based on the contact state with the sensor electrode group ELm in the middle stage configuring the slider, and the operation amount of the effect (polarity And strength etc.). Further, based on the contact state with the upper sensor electrode ELu or the lower sensor electrode ELd, the contact position of the thumb 202 in the Y direction is detected and the effect to be executed is selected.

したがって、本実施形態によれば、同じ親指をタッチパッド上で上下左右方向に移動させる簡易な操作で、所定のパラメータを選択しつつ、当該パラメータの操作量を制御することができ、複数の制御パラメータを効率的に制御することができる。   Therefore, according to the present embodiment, the operation amount of the parameter can be controlled while selecting the predetermined parameter by a simple operation of moving the same thumb in the vertical and horizontal directions on the touch pad, and a plurality of controls can be performed. Parameters can be controlled efficiently.

なお、上述した実施形態においては、パラメータ操作部のタッチパッドに配列される電極群の構成として、複数のセンサ電極がX方向に配列されたスライダーを構成する中段のセンサ電極群ELmと、中段のセンサ電極群ELmの配列方向と平行に延在するように配置された上段のセンサ電極ELuと下段のセンサ電極ELdとを有する3段の電極群からなる構成を示したが、本発明はこれに限定されるものではない。すなわち、本発明は、少なくとも1以上のスライダーとなる電極群と、それらに平行(同方向)に近接して延在するように配置された1以上の直線状の電極とを有するものであればよい。したがって、スライダーを構成するセンサ電極群ELmと、上段のセンサ電極ELu又は下段のセンサ電極ELdのいずれか一方とからなる構成を有するものであってもよいし、上段のセンサ電極ELuと下段のセンサ電極ELdとの間に、スライダーを構成するセンサ電極群が平行に複数列配置されているものであってもよい。   In the embodiment described above, a middle sensor electrode group ELm constituting a slider in which a plurality of sensor electrodes are arranged in the X direction and a middle sensor electrode group are arranged as the configuration of the electrode group arranged on the touch pad of the parameter operation unit. Although a configuration including three stages of electrode groups including the upper sensor electrode ELu and the lower sensor electrode ELd arranged to extend in parallel with the arrangement direction of the sensor electrode group ELm has been described, the present invention It is not limited. That is, as long as the present invention includes an electrode group which becomes at least one or more sliders, and one or more linear electrodes which are arranged to extend in parallel (in the same direction) in proximity thereto. Good. Therefore, the sensor electrode group ELm constituting the slider may have a configuration including the upper sensor electrode ELu or the lower sensor electrode ELd, or the upper sensor electrode ELu and the lower sensor A plurality of sensor electrode groups constituting a slider may be arranged in parallel between the electrode ELd and the electrode ELd.

(変形例)
次に、本実施形態の変形例について説明する。
図12は、本実施形態に係る変形例を示す概略図である。
上述した実施形態においては、パラメータ操作部30のタッチパッド32に配列される電極群として、上、中、下の3段の電極群を有し、中段が複数のセンサからなるスライダー構造を有し、上下段がそれぞれ直線状の単一の電極からなる構造を有している場合について説明した。
(Modification)
Next, a modification of the present embodiment will be described.
FIG. 12 is a schematic view showing a modification according to the present embodiment.
In the embodiment described above, as the electrode group arranged on the touch pad 32 of the parameter operation unit 30, the upper, middle, and lower three-stage electrode groups are provided, and the middle stage has a slider structure including a plurality of sensors. The case has been described in which the upper and lower portions each have a linear electrode structure.

本変形例においては、正方形等の均一な平面形状を有する複数の電極を、X−Y方向にマトリクス状(格子状)に配列した構造を有している。図12ではX方向(図面左右方向)に9個配列し、Y方向(図面上下方向)に3個配列した、9×3のマトリクス状に配置された構成を示す。ここで、上段、中段、下段の各センサ電極群は、それぞれ、上述したタッチパッド32における上段のセンサ電極ELu、中段のセンサ電極群ELm、下段のセンサ電極ELdに対応する。   In this modification, it has the structure which arranged a plurality of electrodes which have uniform plane shape, such as a square, in the shape of a matrix (grid) in the direction of XY. FIG. 12 shows a configuration in which nine pieces are arranged in the X direction (the left and right direction in the drawing) and three pieces are arranged in the Y direction (the upper and lower direction in the drawing). Here, the upper, middle, and lower sensor electrode groups respectively correspond to the upper sensor electrode ELu, middle sensor electrode group ELm, and lower sensor electrode ELd in the touch pad 32 described above.

このような電極配置においては、各電極から出力されるセンサ値から最大値となる電極を抽出することにより、親指の接触位置を適切に決定することができる。したがって、上述した実施形態に示したような重心位置の算出方法や、上下段に配列された電極からのセンサ値としきい値とを比較する方法を用いることなく、親指の位置に基づいて、上述したパラメータ(エフェクト)の選択や操作量(極性や強度等)の制御を行うことができる。なお、この変形例においても、上述した実施形態に示した不感帯を考慮した変換処理やパラメータの制御方法、後述するY方向の多段制御を良好に適用することができる。   In such an electrode arrangement, the contact position of the thumb can be appropriately determined by extracting the electrode having the maximum value from the sensor value output from each electrode. Therefore, based on the position of the thumb, the method of calculating the position of the center of gravity as described in the above-described embodiment or the method of comparing the sensor values from the electrodes arranged in the upper and lower rows with the threshold value is used. It is possible to control the selection of parameters (effects) and the amount of operation (such as polarity and intensity). Also in this modification, the conversion processing and parameter control method in consideration of the dead zone described in the above-described embodiment, and multistage control in the Y direction described later can be favorably applied.

<第2の実施形態>
次に、本発明に係る電子楽器に適用されるパラメータ操作部の制御処理の第2の実施形態について説明する。ここで、上述した第1の実施形態と同等の構成や方法についてはその説明を簡略化する。
Second Embodiment
Next, a second embodiment of the control process of the parameter operating unit applied to the electronic musical instrument according to the present invention will be described. Here, the description of the same configuration and method as those of the first embodiment described above will be simplified.

図13は、第2の実施形態に係るパラメータ操作部の制御方法を示す図である。図13(a)は、タッチパッドへの親指の接触状態を示す概略図であり、図13(b)〜(e)は、タッチパッドにおけるセンサ出力値の分布例を示す図と、当該分布に基づいて算出される接触位置を示す表である。図14は、本実施形態に係るパラメータ操作部の制御処理を示すフローチャートである。   FIG. 13 is a diagram showing a control method of the parameter operation unit according to the second embodiment. FIG. 13 (a) is a schematic view showing the contact state of the thumb with the touch pad, and FIGS. 13 (b) to 13 (e) are diagrams showing examples of distribution of sensor output values in the touch pad, and FIG. It is a table | surface which shows the contact position calculated based on. FIG. 14 is a flowchart showing control processing of the parameter operation unit according to the present embodiment.

上述した第1の実施形態においては、タッチパッド32に配列された3段の電極群のそれぞれに、パラメータとしてのエフェクトを関連付けて、Y方向の親指の接触状態に応じて、3つのエフェクトから1つを選択する制御方法を示した。第2の実施形態においては、第1の実施形態と同等の構成を有しつつ、より多くのパラメータを関連付けて選択することができる制御方法を有している。   In the first embodiment described above, an effect as a parameter is associated with each of the three stages of electrode groups arranged on the touch pad 32, and one of three effects is selected according to the contact state of the thumb in the Y direction. I showed the control method to select one. The second embodiment has a control method capable of associating and selecting more parameters while having the same configuration as that of the first embodiment.

本実施形態においては、図13(a)に示すように、親指が接触するタッチパッド32は、上述した第1の実施形態と同等に、スライダーを構成する中段のセンサ電極群ELmと、中段のセンサ電極群ELmの配列方向と平行に延在するように配置された上段のセンサ電極ELuと下段のセンサ電極ELdとを有する3段の電極群から構成されている。そして、このようなタッチパッド32において、上述した第1の実施形態においてX方向の親指の接触位置を求めるために適用した重心位置の算出方法と同等の手法を、タッチパッド32のY方向にも適用して、センサ電極の配列に関わらず、重心位置として算出される接触位置に基づいてパラメータとしてのエフェクトを関連付ける。   In the present embodiment, as shown in FIG. 13A, the touch pad 32 with which the thumb is in contact corresponds to the sensor electrode group ELm in the middle stage, which constitutes the slider, and the middle stage as in the first embodiment described above. The three-stage electrode group includes the upper sensor electrode ELu and the lower sensor electrode ELd arranged to extend in parallel with the arrangement direction of the sensor electrode group ELm. Then, in such a touch pad 32, a method equivalent to the method of calculating the barycentric position applied to obtain the contact position of the thumb in the X direction in the above-described first embodiment is also applied to the Y direction of the touch pad 32. The effect is associated as a parameter based on the contact position calculated as the barycentric position regardless of the arrangement of the sensor electrodes.

具体的には、まず、上述した第1の実施形態と同様に、図8のフローチャートに示すパラメータ操作部30の処理において、ステップS802〜S808の処理を実行して、タッチパッド32に親指202が接触している状態における、X方向の接触位置pos1を、重心位置の算出方法を適用して算出する。次いで、ステップS810〜S820の処理を実行して、算出された接触位置pos1を、不感帯を考慮した位置情報(pos2)へ変換する。 Specifically, first, as in the first embodiment described above, in the process of the parameter operation unit 30 shown in the flowchart of FIG. 8, the process of steps S802 to S808 is executed to set the thumb 202 on the touch pad 32. The contact position pos1 in the X direction in the contact state is calculated by applying the method of calculating the center-of-gravity position. Next, the processing of steps S810 to S820 is executed to convert the calculated contact position pos1 into position information (pos2) in consideration of the dead zone.

次いで、本実施形態においては、Y方向の親指の接触位置を算出する処理として、図14のフローチャートに示すように、CPU50は、X方向の親指の接触位置を算出する際に取得した、中段のセンサ電極群ELmに配列された各センサ電極cap1〜cap9からのセンサ出力値について最大値を抽出し(ステップS1302)、その最大値の80%の値をしきい値THVとして設定する(ステップS1304)。   Next, in the present embodiment, as processing for calculating the contact position of the thumb in the Y direction, as shown in the flowchart of FIG. 14, the CPU 50 obtains the middle position obtained when calculating the contact position of the thumb in the X direction. A maximum value is extracted for the sensor output value from each of the sensor electrodes cap1 to cap9 arranged in the sensor electrode group ELm (step S1302), and a value of 80% of the maximum value is set as the threshold value THV (step S1304) .

次いで、CPU50は、センサ電極cap1〜cap9からのセンサ出力値のうち、しきい値THVを超えたセンサ値の平均値をaveHとして算出する(ステップS1306)。   Next, the CPU 50 calculates an average value of sensor values exceeding the threshold value THV among the sensor output values from the sensor electrodes cap1 to cap9 as aveH (step S1306).

次いで、CPU50は、算出された平均値aveHを、中段のセンサ電極群ELmのセンサ出力値に設定し、上段のセンサ電極ELuからのセンサ出力値Vu、及び、下段のセンサ電極ELdのセンサ出力値Vdと、中段のセンサ電極群ELmのセンサ出力値の平均値aveHとに基づいて、重心位置の算出方法を適用して、Y方向の親指の接触位置posVを算出する。ここでは、上段のセンサ電極ELuの位置を「1.0」、下段のセンサ電極ELdの位置を「3.0」として、1.0〜3.0の範囲で重心位置を算出することによりY方向の接触位置posVが算出される(ステップS1308)。   Next, the CPU 50 sets the calculated average value aveH as the sensor output value of the middle sensor electrode group ELm, and the sensor output value Vu from the upper sensor electrode ELu and the sensor output value of the lower sensor electrode ELd Based on Vd and the average value aveH of the sensor output values of the middle sensor electrode group ELm, the method of calculating the center of gravity position is applied to calculate the contact position posV of the thumb in the Y direction. Here, assuming that the position of the upper sensor electrode ELu is “1.0” and the position of the lower sensor electrode ELd is “3.0”, the contact position posV in the Y direction is calculated by calculating the barycentric position in the range of 1.0 to 3.0. (Step S1308).

次いで、CPU50は、算出された接触位置posVをMIDI信号として利用する場合には、次の(32)式を用いて0〜127の整数値に割り当てる。なお、X方向の接触位置pos2については、上述した(12)式と同一の(31)式を用いて0〜127の整数値に割り当てられる。これにより、CPU50は、X−Y方向の接触位置pos2、posVに基づく値を付与したMIDI信号を発行する(ステップS1310)。その後、CPU50は、パラメータ操作部30の処理を終了して、図7に示したメインルーチンの処理に戻る。   Next, when using the calculated touch position posV as a MIDI signal, the CPU 50 assigns the integer value to 0 to 127 using the following equation (32). The contact position pos2 in the X direction is assigned to integer values of 0 to 127 using the same equation (31) as the equation (12) described above. Thereby, the CPU 50 issues a MIDI signal to which a value based on the contact positions pos2 and posV in the X-Y direction is assigned (step S1310). Thereafter, the CPU 50 ends the processing of the parameter operating unit 30, and returns to the processing of the main routine shown in FIG.

Figure 2019061542
Figure 2019061542

上述したような制御方法においては、図13(a)に示すように、親指をタッチパッド32に接触した状態で、中段のセンサ電極群ELmの各センサ電極cap1〜cap9から得られるセンサ出力値に基づいて、例えば図13(b)〜(e)に示すような出力値の分布が得られる。すなわち、図13(a)に示すように、親指を上段のセンサ電極ELuにのみに接触させた状態(図中、IIBの位置)では、図13(b)に示すようなセンサ出力値の分布が得られ、親指を上段のセンサ電極ELuと中段のセンサ電極群ELmのセンサ電極cap4に接触させた状態(図中、IICの位置)では、図13(c)に示すようなセンサ出力値の分布が得られた。また、親指を中段のセンサ電極群ELmのセンサ電極cap4にのみに接触させた状態(図中、IIDの位置)では、図13(d)に示すようなセンサ出力値の分布が得られ、親指を下段のセンサ電極ELdにのみに接触させた状態(図中、IIEの位置)では、図13(e)に示すようなセンサ出力値の分布が得られた。そして、図13(b)〜(e)の各センサ出力値の分布に基づいて、センサ出力値の平均値aveHを算出し、Y方向の重心位置を算出することにより親指の接触位置posVが算出される。   In the control method as described above, as shown in FIG. 13A, with the thumb in contact with the touch pad 32, the sensor output values obtained from the sensor electrodes cap1 to cap9 of the sensor electrode group ELm in the middle stage are used. Based on this, for example, a distribution of output values as shown in FIGS. 13 (b) to 13 (e) is obtained. That is, as shown in FIG. 13 (a), when the thumb is in contact with only the upper sensor electrode ELu (in the figure, at the position IIB), the distribution of sensor output values as shown in FIG. 13 (b) In the state where the thumb is brought into contact with the upper sensor electrode ELu and the sensor electrode cap 4 of the middle sensor electrode group ELm (the position of IIC in the figure), the sensor output value as shown in FIG. The distribution was obtained. Further, in the state where the thumb is in contact with only the sensor electrode cap 4 of the middle sensor electrode group ELm (the position of IID in the figure), the distribution of sensor output values as shown in FIG. In the state in which only the lower sensor electrode ELd is in contact (the position IIE in the figure), the distribution of sensor output values as shown in FIG. 13E is obtained. And based on distribution of each sensor output value of FIG.13 (b)-(e), average value aveH of a sensor output value is calculated, the contact position posV of a thumb is calculated by calculating the gravity center position of a Y direction. Be done.

ここで、接触位置posVは、1.0〜3.0の範囲の小数を含む数値で得られるが、親指の電極との接触状態に応じて異なる特徴の数値が得られるので、重心位置の1.0〜3.0の範囲を複数に分割して、それらの分割範囲毎に任意のパラメータを関連付けるたり、重心位置に応じて操作量を関連付けたりすることにより、タッチパッド32のY方向に配列された電極群の段数に関わらず、任意の数のパラメータや操作量を制御することができる。また、タッチパッドやセンサ電極等の面積を変えることなく、設定可能なパラメータを増やすことができる。   Here, the contact position posV is obtained as a numerical value including a decimal part in the range of 1.0 to 3.0, but since a numerical value of a different feature can be obtained depending on the contact state with the electrode of the thumb, the range of 1.0 to 3.0 of the gravity center position Is divided into a plurality of sections, and an arbitrary parameter is associated with each of the divided ranges, or an operation amount is associated according to the center of gravity, thereby relating to the number of stages of electrode groups arranged in the Y direction of the touch pad 32. In addition, any number of parameters and manipulated variables can be controlled. In addition, settable parameters can be increased without changing the area of the touch pad, the sensor electrode or the like.

したがって、本実施形態によれば、同じ親指をタッチパッド上で上下左右方向に移動させる簡易な操作で、予め設定されたより多くのパラメータから所定のパラメータを選択しつつ、当該パラメータの操作量を制御することができ、複数の制御パラメータを効率的に制御することができる。   Therefore, according to the present embodiment, the operation amount of the parameter is controlled while selecting the predetermined parameter from more parameters set in advance by the simple operation of moving the same thumb in the vertical and horizontal directions on the touch pad. It is possible to control multiple control parameters efficiently.

なお、上述した各実施形態及び変形例においては、本発明を電子楽器に適用した場合について説明したが、本発明はこれに限らず、操作者が、身体の一部を用いて操作を行うような電子機器においても、本発明に係るパラメータをタッチパッド上の接触位置やタッチパッドの電極に関連付け、指先を上下左右に動かす操作によりパラメータの選択と操作量を制御する手法を良好に適用することができる。すなわち、本発明は、身体の一部で操作可能な位置に、身体の一部の接触や近接を検出するセンサを備えているものであればよく、例えば、タッチパッドを備えた音響機器や、工作機械の操作パネル、ゲーム機やラジコン等のコントローラ等にも良好に適用することができる。   In each of the above-described embodiments and modifications, although the present invention is applied to an electronic musical instrument, the present invention is not limited thereto, and the operator may operate using a part of the body. Also in the electronic device, the method according to the present invention is associated with the contact position on the touch pad and the electrode of the touch pad, and the method of controlling the parameter selection and the operation amount by the operation of moving the fingertip vertically and horizontally is favorably applied. Can. That is, the present invention only needs to be provided with a sensor for detecting contact or proximity of a part of the body at a position operable with the part of the body, for example, an acoustic device provided with a touch pad, The present invention can be favorably applied to an operation panel of a machine tool, a controller of a game machine, a radio control, and the like.

以上、本発明のいくつかの実施形態について説明したが、本発明は、上述した実施形態に限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲とを含むものである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
Although some embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, but includes the invention described in the claims and the scope of equivalents thereof.
In the following, the invention described in the original claims of the present application is appended.

(付記)
[1]
複数の検出領域が配列された第1のセンサと、
前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサと、
前記第1のセンサのいずれかの検出領域が検出状態になると同時に検出される前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択するとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御する制御部と、
を有することを特徴とするパラメータ制御装置。
(Supplementary note)
[1]
A first sensor in which a plurality of detection areas are arranged;
A second sensor in which at least one detection area is disposed to face the plurality of detection areas of the first sensor;
Among the plurality of parameters, a parameter to be controlled for the amount of operation based on the detection value of the detection area of the second sensor detected at the same time as the detection state of any of the first sensor becomes the detection state A control unit configured to select an operation amount of the selected parameter based on detection values of the plurality of detection areas of the first sensor,
A parameter control device characterized by having.

[2]
前記第1のセンサの複数の検出領域は、特定の方向に配置され、
前記第2のセンサの検出領域は、前記特定の方向に広がって配置されるとともに、前記広がって配置された検出領域のいずれかの部分が、前記第1のセンサの前記複数の検出領域の夫々に近接して対向するように配置されることを特徴とする[1]に記載のパラメータ制御装置。
[2]
The plurality of detection areas of the first sensor are arranged in a specific direction,
The detection area of the second sensor is arranged to spread in the specific direction, and any part of the spread detection area corresponds to each of the plurality of detection areas of the first sensor. The parameter control device according to [1], wherein the parameter control device is disposed close to and opposed to the device.

[3]
前記第2のセンサの検出領域は、前記第1のセンサの複数の検出領域を挟んで両側に設けられ、
前記制御部は、前記第1のセンサのいずれかの検出領域が検出状態になると同時に検出される前記第2のセンサの両側の検出領域の検出値の比較結果に応じて複数のパラメータの中から、前記操作量の制御対象となるパラメータを選択することを特徴とする[1]又は[2]に記載のパラメータ制御装置。
[3]
The detection areas of the second sensor are provided on both sides of a plurality of detection areas of the first sensor,
The control unit is configured to select one of a plurality of parameters according to a comparison result of detection values of detection areas on both sides of the second sensor detected at the same time as any detection area of the first sensor is in a detection state. The parameter control device according to [1] or [2], wherein a parameter to be controlled of the operation amount is selected.

[4]
前記制御部は、前記第1のセンサの複数の検出領域の配列位置の分布に基づいて平均位置を求め、前記平均位置を求める際に、前記第1のセンサの複数の検出領域の各々の位置に対して前記第1のセンサの複数の検出領域からの各出力値を重み値として乗算する加重平均による演算を適用し、前記加重平均による演算により求めた前記平均位置を規格化された数値に変換して、前記パラメータの操作量の制御に用いることを特徴とする[1]乃至[3]のいずれかに記載のパラメータ制御装置。
[4]
The control unit obtains an average position based on a distribution of array positions of a plurality of detection areas of the first sensor, and when obtaining the average position, a position of each of the plurality of detection areas of the first sensor A weighted average operation is applied to each of the output values from the plurality of detection areas of the first sensor as a weight value, and the average position determined by the weighted average operation is normalized to a numerical value. The parameter control device according to any one of [1] to [3], characterized in that it is converted and used to control the manipulated variable of the parameter.

[5]
前記平均位置を規格化された数値に変換する処理は、前記平均位置が所定の範囲内にある場合には、変換後の数値を特定値に固定する、不感帯が設けられていることを特徴とする[4]に記載のパラメータ制御装置。
[5]
The processing for converting the average position into a standardized numerical value is characterized in that a dead zone is provided to fix the converted numerical value to a specific value when the average position is within a predetermined range. The parameter control device according to [4].

[6]
前記制御部は、前記第2のセンサの検出領域の検出値と、所定のしきい値との比較に基づいて、前記複数のパラメータの中から、前記操作量の制御対象となるパラメータを選択することを特徴とする[1]乃至[5]のいずれかに記載のパラメータ制御装置。
[6]
The control unit selects a parameter to be a control target of the operation amount from among the plurality of parameters based on a comparison between a detection value of a detection area of the second sensor and a predetermined threshold value. The parameter control device according to any one of [1] to [5], characterized in that

[7]
前記制御部は、前記第1のセンサの複数の検出領域の検出値のうちの特定の前記検出値について求めた平均値と、前記第2のセンサの検出領域の検出値とを、前記第1のセンサと前記第2のセンサのそれぞれの検出領域の配列位置を重み値として乗算して平均位置を求める加重平均による演算を適用し、前記加重平均による演算により求めた前記平均位置を規格化された数値に変換して、前記数値に基づいて前記複数のパラメータの中から、前記操作量の制御対象となるパラメータを選択することを特徴とする[1]乃至[5]のいずれかに記載のパラメータ制御装置。
[7]
The control unit is configured to determine an average value of a plurality of detection values of the plurality of detection areas of the first sensor, and an average value of the detection values of the second sensor. Calculation of weighted average to obtain an average position by multiplying array positions of respective detection areas of the sensor and the second sensor as weight values, and the average position determined by the weighted average is standardized. Converting to a numerical value, and selecting a parameter to be a control target of the operation amount from the plurality of parameters based on the numerical value, according to any one of [1] to [5] Parameter control device.

[8]
演奏者が両手の指で支えて保持する楽器本体を備え、
前記第1のセンサの複数の検出領域及び前記第2のセンサの検出領域は、前記楽器本体の前記演奏者の指が当接する領域に設けられて、前記演奏者の指の接触状態を検出し、
前記制御部は、前記第1のセンサの複数の検出領域及び前記第2のセンサの検出領域からの前記検出値に基づいて、前記楽器本体により生成される音に関わる前記パラメータの操作量を制御するとともに、前記操作量の制御対象となるパラメータを選択することを特徴とする[1]乃至[7]のいずれかに記載のパラメータ制御装置。
[8]
It has an instrument body that the performer holds and holds with both fingers,
A plurality of detection areas of the first sensor and a detection area of the second sensor are provided in an area of the musical instrument main body where the player's finger abuts, and the contact state of the player's finger is detected. ,
The control unit controls an operation amount of the parameter related to a sound generated by the musical instrument body based on the detection values from the plurality of detection areas of the first sensor and the detection area of the second sensor. The parameter control device according to any one of [1] to [7], wherein a parameter to be controlled of the operation amount is selected.

[9]
前記[1]乃至[8]のいずれかに記載のパラメータ制御装置と、
楽音を生成する音源と、を備え、
前記第1のセンサ及び前記第2のセンサは演奏者の身体の一部を検出し、
前記制御部は、前記制御された及び前記選択された前記パラメータに基づいて、前記音源に生成させる楽音を制御することを特徴とする電子楽器。
[9]
The parameter control device according to any one of the above [1] to [8],
A tone generator for generating musical tones;
The first sensor and the second sensor detect a part of the player's body,
The electronic musical instrument characterized in that the control unit controls musical tones to be generated by the sound source based on the controlled and selected parameters.

[10]
前記制御部は、前記パラメータに基づいて、前記音源に生成させる楽音を制御する際に、
前記制御された前記パラメータの操作量が変化した場合には、前記操作量の変化に応じて前記楽音の生成を制御し、
前記選択された前記パラメータが変化した場合には、前記変化する前の前記パラメータの操作量を保持して前記楽音の生成を制御することを特徴とする[9]に記載の電子楽器。
[10]
The control unit controls the tone to be generated by the sound source based on the parameter.
When the manipulated variable of the controlled parameter changes, the generation of the musical tone is controlled according to the change of the manipulated variable,
The electronic musical instrument according to [9], wherein generation of the musical tone is controlled by holding an operation amount of the parameter before the change when the selected parameter changes.

[11]
前記制御部は、前記パラメータに基づいて、前記音源に生成させる楽音を制御する際に、
前記制御された前記のパラメータの操作量が変化した場合には、前記操作量の変化に応じて前記楽音の生成を制御し、
前記選択された前記パラメータが変化した場合には、前記変化する前の前記パラメータの操作量をリセットして前記楽音の生成を制御することを特徴とする[9]に記載の電子楽器。
[11]
The control unit controls the tone to be generated by the sound source based on the parameter.
When the manipulated variable of the controlled parameter changes, the generation of the musical tone is controlled according to the change of the manipulated variable,
The electronic musical instrument according to [9], wherein generation of the musical tone is controlled by resetting an operation amount of the parameter before the change when the selected parameter changes.

[12]
複数の検出領域が配列された第1のセンサの検出値と、前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサの検出値とを同時に検出し、
前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択するとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御する、
ことを特徴とするパラメータ制御方法。
[12]
A detection value of a first sensor in which a plurality of detection areas are arranged, and a detection value of a second sensor in which at least one detection area is disposed to face the plurality of detection areas of the first sensor Simultaneously
Based on the detection values of the detection area of the second sensor, the parameter to be the control target of the operation amount is selected from the plurality of parameters, and based on the detection values of the plurality of detection areas of the first sensor Control the manipulated variable of the selected parameter,
A parameter control method characterized in that

[13]
コンピュータに、
複数の検出領域が配列された第1のセンサの検出値と、前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサの検出値とを同時に検出させ、
前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択させるとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御させる、
ことを特徴とする制御プログラム。
[13]
On the computer
A detection value of a first sensor in which a plurality of detection areas are arranged, and a detection value of a second sensor in which at least one detection area is disposed to face the plurality of detection areas of the first sensor Let me detect
Based on the detection value of the detection area of the second sensor, the parameter to be the control target of the operation amount is selected from the plurality of parameters, and the detection value of the plurality of detection areas of the first sensor is Control the manipulated variable of the selected parameter,
A control program characterized by

10 操作子
12 演奏キー
22 マウスピース
30 パラメータ操作部
32 タッチパッド
40 パラメータ設定部
50 CPU(制御部)
100 電子楽器
102 楽器本体
202 親指
ELu 上段のセンサ電極(第2のセンサ)
ELm 中段のセンサ電極群(第1のセンサ)
ELd 下段のセンサ電極(第2のセンサ)
DESCRIPTION OF SYMBOLS 10 controller 12 performance keys 22 mouthpiece 30 parameter operation part 32 touch pad 40 parameter setting part 50 CPU (control part)
100 electronic musical instrument 102 musical instrument main body 202 thumb ELu upper sensor electrode (second sensor)
ELm Middle sensor electrode group (first sensor)
ELd lower sensor electrode (second sensor)

Claims (13)

複数の検出領域が配列された第1のセンサと、
前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサと、
前記第1のセンサのいずれかの検出領域が検出状態になると同時に検出される前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択するとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御する制御部と、
を有することを特徴とするパラメータ制御装置。
A first sensor in which a plurality of detection areas are arranged;
A second sensor in which at least one detection area is disposed to face the plurality of detection areas of the first sensor;
Among the plurality of parameters, a parameter to be controlled for the amount of operation based on the detection value of the detection area of the second sensor detected at the same time as the detection state of any of the first sensor becomes the detection state A control unit configured to select an operation amount of the selected parameter based on detection values of the plurality of detection areas of the first sensor,
A parameter control device characterized by having.
前記第1のセンサの複数の検出領域は、特定の方向に配置され、
前記第2のセンサの検出領域は、前記特定の方向に広がって配置されるとともに、前記広がって配置された検出領域のいずれかの部分が、前記第1のセンサの前記複数の検出領域の夫々に近接して対向するように配置されることを特徴とする請求項1に記載のパラメータ制御装置。
The plurality of detection areas of the first sensor are arranged in a specific direction,
The detection area of the second sensor is arranged to spread in the specific direction, and any part of the spread detection area corresponds to each of the plurality of detection areas of the first sensor. The parameter control device according to claim 1, wherein the parameter control device is disposed in close proximity to and in opposition to each other.
前記第2のセンサの検出領域は、前記第1のセンサの複数の検出領域を挟んで両側に設けられ、
前記制御部は、前記第1のセンサのいずれかの検出領域が検出状態になると同時に検出される前記第2のセンサの両側の検出領域の検出値の比較結果に応じて複数のパラメータの中から、前記操作量の制御対象となるパラメータを選択することを特徴とする請求項1又は2に記載のパラメータ制御装置。
The detection areas of the second sensor are provided on both sides of a plurality of detection areas of the first sensor,
The control unit is configured to select one of a plurality of parameters according to a comparison result of detection values of detection areas on both sides of the second sensor detected at the same time as any detection area of the first sensor is in a detection state. The parameter control device according to claim 1, wherein a parameter to be controlled by the operation amount is selected.
前記制御部は、前記第1のセンサの複数の検出領域の配列位置の分布に基づいて平均位置を求め、前記平均位置を求める際に、前記第1のセンサの複数の検出領域の各々の位置に対して前記第1のセンサの複数の検出領域からの各出力値を重み値として乗算する加重平均による演算を適用し、前記加重平均による演算により求めた前記平均位置を規格化された数値に変換して、前記パラメータの操作量の制御に用いることを特徴とする請求項1乃至3のいずれかに記載のパラメータ制御装置。   The control unit obtains an average position based on a distribution of array positions of a plurality of detection areas of the first sensor, and when obtaining the average position, a position of each of the plurality of detection areas of the first sensor A weighted average operation is applied to each of the output values from the plurality of detection areas of the first sensor as a weight value, and the average position determined by the weighted average operation is normalized to a numerical value. The parameter control device according to any one of claims 1 to 3, wherein the parameter control device is converted and used to control an operation amount of the parameter. 前記平均位置を規格化された数値に変換する処理は、前記平均位置が所定の範囲内にある場合には、変換後の数値を特定値に固定する、不感帯が設けられていることを特徴とする請求項4に記載のパラメータ制御装置。   The processing for converting the average position into a standardized numerical value is characterized in that a dead zone is provided to fix the converted numerical value to a specific value when the average position is within a predetermined range. The parameter control apparatus according to claim 4. 前記制御部は、前記第2のセンサの検出領域の検出値と、所定のしきい値との比較に基づいて、前記複数のパラメータの中から、前記操作量の制御対象となるパラメータを選択することを特徴とする請求項1乃至5のいずれかに記載のパラメータ制御装置。   The control unit selects a parameter to be a control target of the operation amount from among the plurality of parameters based on a comparison between a detection value of a detection area of the second sensor and a predetermined threshold value. The parameter control device according to any one of claims 1 to 5, characterized in that: 前記制御部は、前記第1のセンサの複数の検出領域の検出値のうちの特定の前記検出値について求めた平均値と、前記第2のセンサの検出領域の検出値とを、前記第1のセンサと前記第2のセンサのそれぞれの検出領域の配列位置を重み値として乗算して平均位置を求める加重平均による演算を適用し、前記加重平均による演算により求めた前記平均位置を規格化された数値に変換して、前記数値に基づいて前記複数のパラメータの中から、前記操作量の制御対象となるパラメータを選択することを特徴とする請求項1乃至5のいずれかに記載のパラメータ制御装置。   The control unit is configured to determine an average value of a plurality of detection values of the plurality of detection areas of the first sensor, and an average value of the detection values of the second sensor. Calculation of weighted average to obtain an average position by multiplying array positions of respective detection areas of the sensor and the second sensor as weight values, and the average position determined by the weighted average is standardized. The parameter control according to any one of claims 1 to 5, wherein the parameter control target is selected from among the plurality of parameters based on the numerical value by converting into a numerical value. apparatus. 演奏者が両手の指で支えて保持する楽器本体を備え、
前記第1のセンサの複数の検出領域及び前記第2のセンサの検出領域は、前記楽器本体の前記演奏者の指が当接する領域に設けられて、前記演奏者の指の接触状態を検出し、
前記制御部は、前記第1のセンサの複数の検出領域及び前記第2のセンサの検出領域からの前記検出値に基づいて、前記楽器本体により生成される音に関わる前記パラメータの操作量を制御するとともに、前記操作量の制御対象となるパラメータを選択することを特徴とする請求項1乃至7のいずれかに記載のパラメータ制御装置。
It has an instrument body that the performer holds and holds with both fingers,
A plurality of detection areas of the first sensor and a detection area of the second sensor are provided in an area of the musical instrument main body where the player's finger abuts, and the contact state of the player's finger is detected. ,
The control unit controls an operation amount of the parameter related to a sound generated by the musical instrument body based on the detection values from the plurality of detection areas of the first sensor and the detection area of the second sensor. The parameter control apparatus according to any one of claims 1 to 7, wherein a parameter to be controlled of the operation amount is selected.
前記請求項1乃至8のいずれかに記載のパラメータ制御装置と、
楽音を生成する音源と、を備え、
前記第1のセンサ及び前記第2のセンサは演奏者の身体の一部を検出し、
前記制御部は、前記制御された及び前記選択された前記パラメータに基づいて、前記音源に生成させる楽音を制御することを特徴とする電子楽器。
The parameter control device according to any one of claims 1 to 8.
A tone generator for generating musical tones;
The first sensor and the second sensor detect a part of the player's body,
The electronic musical instrument characterized in that the control unit controls musical tones to be generated by the sound source based on the controlled and selected parameters.
前記制御部は、前記パラメータに基づいて、前記音源に生成させる楽音を制御する際に、
前記制御された前記パラメータの操作量が変化した場合には、前記操作量の変化に応じて前記楽音の生成を制御し、
前記選択された前記パラメータが変化した場合には、前記変化する前の前記パラメータの操作量を保持して前記楽音の生成を制御することを特徴とする請求項9に記載の電子楽器。
The control unit controls the tone to be generated by the sound source based on the parameter.
When the manipulated variable of the controlled parameter changes, the generation of the musical tone is controlled according to the change of the manipulated variable,
10. The electronic musical instrument according to claim 9, wherein when the selected parameter changes, the amount of operation of the parameter before the change is held to control generation of the musical tone.
前記制御部は、前記パラメータに基づいて、前記音源に生成させる楽音を制御する際に、
前記制御された前記のパラメータの操作量が変化した場合には、前記操作量の変化に応じて前記楽音の生成を制御し、
前記選択された前記パラメータが変化した場合には、前記変化する前の前記パラメータの操作量をリセットして前記楽音の生成を制御することを特徴とする請求項9に記載の電子楽器。
The control unit controls the tone to be generated by the sound source based on the parameter.
When the manipulated variable of the controlled parameter changes, the generation of the musical tone is controlled according to the change of the manipulated variable,
10. The electronic musical instrument according to claim 9, wherein when the selected parameter changes, the amount of operation of the parameter before the change is reset to control generation of the musical tone.
複数の検出領域が配列された第1のセンサの検出値と、前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサの検出値とを同時に検出し、
前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択するとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御する、
ことを特徴とするパラメータ制御方法。
A detection value of a first sensor in which a plurality of detection areas are arranged, and a detection value of a second sensor in which at least one detection area is disposed to face the plurality of detection areas of the first sensor Simultaneously
Based on the detection values of the detection area of the second sensor, the parameter to be the control target of the operation amount is selected from the plurality of parameters, and based on the detection values of the plurality of detection areas of the first sensor Control the manipulated variable of the selected parameter,
A parameter control method characterized in that
コンピュータに、
複数の検出領域が配列された第1のセンサの検出値と、前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサの検出値とを同時に検出させ、
前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択させるとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御させる、
ことを特徴とする制御プログラム。
On the computer
A detection value of a first sensor in which a plurality of detection areas are arranged, and a detection value of a second sensor in which at least one detection area is disposed to face the plurality of detection areas of the first sensor Let me detect
Based on the detection values of the detection area of the second sensor, a parameter to be the control target of the operation amount is selected from among the plurality of parameters, and based on the detection values of the plurality of detection areas of the first sensor Control the manipulated variable of the selected parameter,
A control program characterized by
JP2017186385A 2017-09-27 2017-09-27 Parameter control device, electronic musical instrument, parameter control method and control program Active JP7041387B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017186385A JP7041387B2 (en) 2017-09-27 2017-09-27 Parameter control device, electronic musical instrument, parameter control method and control program
JP2021147637A JP2022001950A (en) 2017-09-27 2021-09-10 Parameter controller, electronic music instrument, parameter control method and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017186385A JP7041387B2 (en) 2017-09-27 2017-09-27 Parameter control device, electronic musical instrument, parameter control method and control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021147637A Division JP2022001950A (en) 2017-09-27 2021-09-10 Parameter controller, electronic music instrument, parameter control method and control program

Publications (2)

Publication Number Publication Date
JP2019061542A true JP2019061542A (en) 2019-04-18
JP7041387B2 JP7041387B2 (en) 2022-03-24

Family

ID=66178632

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017186385A Active JP7041387B2 (en) 2017-09-27 2017-09-27 Parameter control device, electronic musical instrument, parameter control method and control program
JP2021147637A Pending JP2022001950A (en) 2017-09-27 2021-09-10 Parameter controller, electronic music instrument, parameter control method and control program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021147637A Pending JP2022001950A (en) 2017-09-27 2021-09-10 Parameter controller, electronic music instrument, parameter control method and control program

Country Status (1)

Country Link
JP (2) JP7041387B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022001950A (en) * 2017-09-27 2022-01-06 カシオ計算機株式会社 Parameter controller, electronic music instrument, parameter control method and control program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009099067A (en) * 2007-10-18 2009-05-07 Sharp Corp Portable electronic equipment, and operation control method of portable electronic equipment
JP2013051530A (en) * 2011-08-30 2013-03-14 Yamaha Corp Fader controller and controller device including the same
JP2017507416A (en) * 2014-03-03 2017-03-16 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated System and method for gesture control
JP2017525036A (en) * 2014-07-10 2017-08-31 マイクロチップ テクノロジー ジャーマニー ゲーエムベーハー Method and system for gesture detection and touch detection

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3278978B2 (en) * 1993-06-11 2002-04-30 カシオ計算機株式会社 Effect adding device
JP3585365B2 (en) * 1998-03-06 2004-11-04 株式会社河合楽器製作所 Operation mechanism for controlling the effect imparting function of electronic musical instruments
JP2002215146A (en) * 2001-01-18 2002-07-31 Kawai Musical Instr Mfg Co Ltd Instruction inputting device of electronic musical instrument
JP5251463B2 (en) * 2008-12-03 2013-07-31 ソニー株式会社 Imaging device
JP5572397B2 (en) * 2010-01-06 2014-08-13 京セラ株式会社 Input device, input method, and input program
JP2016177119A (en) * 2015-03-20 2016-10-06 カシオ計算機株式会社 Electronic wind instrument, musical sound control method, and program
JP2017167249A (en) * 2016-03-15 2017-09-21 ヤマハ株式会社 Performance device
JP7041387B2 (en) * 2017-09-27 2022-03-24 カシオ計算機株式会社 Parameter control device, electronic musical instrument, parameter control method and control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009099067A (en) * 2007-10-18 2009-05-07 Sharp Corp Portable electronic equipment, and operation control method of portable electronic equipment
JP2013051530A (en) * 2011-08-30 2013-03-14 Yamaha Corp Fader controller and controller device including the same
JP2017507416A (en) * 2014-03-03 2017-03-16 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated System and method for gesture control
JP2017525036A (en) * 2014-07-10 2017-08-31 マイクロチップ テクノロジー ジャーマニー ゲーエムベーハー Method and system for gesture detection and touch detection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022001950A (en) * 2017-09-27 2022-01-06 カシオ計算機株式会社 Parameter controller, electronic music instrument, parameter control method and control program

Also Published As

Publication number Publication date
JP2022001950A (en) 2022-01-06
JP7041387B2 (en) 2022-03-24

Similar Documents

Publication Publication Date Title
JP7095246B2 (en) Electronic musical instruments, their control methods and control programs
JP2016177026A (en) Electronic musical instrument
US20110088535A1 (en) digital instrument
JP2019020504A (en) Detection device, electronic musical instrument, detection method and control program
WO2016116722A1 (en) A hand-held controller for a computer, a control system for a computer and a computer system
JP2015216611A (en) Input apparatus
US20180350337A1 (en) Electronic musical instrument with separate pitch and articulation control
JP2890564B2 (en) Electronic musical instrument
JPH03184095A (en) Electronic musical instrument
US5200568A (en) Method of controlling sound source for electronic musical instrument, and electronic musical instrument adopting the method
US9153222B1 (en) Plucked string performance data generation device
JP2022001950A (en) Parameter controller, electronic music instrument, parameter control method and control program
JP6544330B2 (en) Electronic percussion
JP7290926B2 (en) electronic musical instrument
JP6566380B2 (en) Musical sound generating apparatus, musical sound generating method, program, and electronic musical instrument
JP7008941B2 (en) Detection device, electronic musical instrument, detection method and control program
WO2014190293A2 (en) Haptic force-feedback for computing interfaces
JP2019200428A (en) Musical sound generating device, musical sound generating method, program and electronic musical instrument
JP6650101B2 (en) Music sound generating apparatus, music sound generating method, program and electronic musical instrument
JP6634897B2 (en) Lyric generation apparatus and lyrics generation method
JP6358554B2 (en) Musical sound control device, musical sound control method and program
JPH03215895A (en) Electronic musical instrument
Ogata et al. Keyboard Interface with Shape-Distortion Expression for Interactive Performance
JP2000250548A (en) Musical sound controller
JP5825056B2 (en) Electronic musical instruments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220222

R150 Certificate of patent or registration of utility model

Ref document number: 7041387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150