JP7041387B2 - Parameter control device, electronic musical instrument, parameter control method and control program - Google Patents

Parameter control device, electronic musical instrument, parameter control method and control program Download PDF

Info

Publication number
JP7041387B2
JP7041387B2 JP2017186385A JP2017186385A JP7041387B2 JP 7041387 B2 JP7041387 B2 JP 7041387B2 JP 2017186385 A JP2017186385 A JP 2017186385A JP 2017186385 A JP2017186385 A JP 2017186385A JP 7041387 B2 JP7041387 B2 JP 7041387B2
Authority
JP
Japan
Prior art keywords
sensor
detection
parameter
value
operation amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017186385A
Other languages
Japanese (ja)
Other versions
JP2019061542A (en
Inventor
千寿 外山
一貴 春日
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017186385A priority Critical patent/JP7041387B2/en
Publication of JP2019061542A publication Critical patent/JP2019061542A/en
Priority to JP2021147637A priority patent/JP2022001950A/en
Application granted granted Critical
Publication of JP7041387B2 publication Critical patent/JP7041387B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、電子楽器等の機器に設定される制御パラメータを制御するパラメータ制御装置、当該パラメータ制御装置を適用した電子楽器、制御パラメータの制御方法及び制御プログラムに関する。 The present invention relates to a parameter control device that controls control parameters set in a device such as an electronic musical instrument, an electronic musical instrument to which the parameter control device is applied, a control parameter control method, and a control program.

従来、サクソフォンやクラリネット等のアコースティック管楽器の形状や演奏方法を模した電子管楽器が知られている。このような電子管楽器の演奏においては、アコースティック管楽器と同様のキー位置に設けられた音高キーを操作することにより楽音の音程が指定される。また、マウスピース内に吹き込む息の圧力(息圧)により音量が制御される。 Conventionally, electronic wind instruments that imitate the shape and playing method of acoustic wind instruments such as saxophones and clarinets have been known. In the performance of such an electronic wind instrument, the pitch of the musical tone is specified by operating the pitch key provided at the same key position as the acoustic wind instrument. In addition, the volume is controlled by the pressure of the breath (breath pressure) blown into the mouthpiece.

さらに、近年の電子管楽器においては、アコースティック管楽器に特有の演奏方法や演奏感、楽音に付与するエフェクト(例えば、音高を連続的に変化させるピッチベンドや、音高を細かく振動させるビブラート等の音色効果)等を実現するために、特別な操作スイッチやセンサ等を備えたものが知られている。 Furthermore, in recent electronic wind instruments, the playing method and feeling peculiar to acoustic wind instruments, and the effects given to musical sounds (for example, pitch bend that continuously changes the pitch, vibrato that finely vibrates the pitch, and other timbre effects). ) Etc. are known to be equipped with special operation switches, sensors, and the like.

例えば特許文献1には、アコースティック管楽器と同様のピッチベンドを実現するために、電子管楽器の背面側に回転操作子(ピッチベンドホイール)を設け、演奏中に当該操作子を親指で回転操作することにより、その操作方向に応じて音程の変化の方向(ベンドアップ、ベンドダウン)を制御する技術が記載されている。 For example, in Patent Document 1, in order to realize a pitch bend similar to that of an acoustic wind instrument, a rotation operator (pitch bend wheel) is provided on the back side of the electronic wind instrument, and the operator is rotated with a thumb during a performance. A technique for controlling the direction of change in pitch (bend-up, bend-down) according to the operation direction is described.

また、例えば特許文献2には、マウスピースのリード部材に複数の静電パッド(静電容量方式のタッチセンサ)を直列に配置し、演奏中にマウスピースを咥えたときの唇の位置や舌の接触状態、噛み圧を検出することにより、演奏中の音色、音量、音高等を制御する技術が記載されている。 Further, for example, in Patent Document 2, a plurality of electrostatic pads (capacitive touch sensors) are arranged in series on the lead member of the mouthpiece, and the position of the lips and the tongue when the mouthpiece is held during a performance. A technique for controlling the tone color, volume, pitch, etc. during a performance by detecting the contact state and the biting pressure of the music is described.

特開平11-85159号公報Japanese Unexamined Patent Publication No. 11-85159 特開2017-15809号公報Japanese Unexamined Patent Publication No. 2017-15809

上述した特許文献1、2に記載された技術においては、回転操作子を指で操作することにより、或いは、マウスピースを咥える唇の位置(リード部材の静電パッドとの接触位置)を変化させることにより、ピッチベンド等の楽音に付与するエフェクトを制御することができるが、これらの操作方法においては、演奏中に複数のエフェクトを制御することはできなかった。そのため、電子管楽器の演奏中に実行可能なエフェクトの種類が限られてしまううえ、所望のエフェクトを変更する場合には、操作子やセンサデバイスとエフェクトとの関連付けを予め変更する必要があり、操作が煩わしくなるという問題を有していた。 In the techniques described in Patent Documents 1 and 2 described above, the position of the lips holding the mouthpiece (the contact position of the lead member with the electrostatic pad) is changed by operating the rotary controller with a finger. By making it possible, it is possible to control the effects given to the musical sound such as pitch bend, but in these operation methods, it is not possible to control a plurality of effects during the performance. Therefore, the types of effects that can be executed while playing an electronic wind instrument are limited, and when changing the desired effect, it is necessary to change the association between the controller or sensor device and the effect in advance. Had the problem that it became annoying.

このような問題については、上記の電子管楽器に限定されるものではなく、電子管楽器と同様に指等の身体の一部位を用いて演奏を行う各種の電子楽器や、身体の一部を用いて演奏以外の各種の操作を行う電子機器などにおいても、同様の問題を有している。すなわち、一本の指や唇等の身体の一部位が接触して移動可能な領域に、一方向にスライドや回転する操作子、或いは、複数のセンサを一方向に配列したセンサデバイス等を備えた機器においては、使用者が一本の指や唇等を移動させて上記の操作子やセンサデバイスを操作した場合、その操作量に応じた1つの制御パラメータを制御することしかできなかった。 Such problems are not limited to the above-mentioned electronic wind instruments, but various electronic musical instruments that perform using one part of the body such as a finger, or a part of the body, as in the case of electronic wind instruments, are used. Electronic musical instruments that perform various operations other than playing have similar problems. That is, an operator that slides or rotates in one direction, a sensor device in which a plurality of sensors are arranged in one direction, or the like is provided in an area where one part of the body such as one finger or lips can touch and move. In such a device, when the user operates the above-mentioned operator or sensor device by moving one finger, lips, or the like, only one control parameter according to the operation amount can be controlled.

そこで、本発明は、上述した問題点に鑑みて、操作者が身体の一部位を用いて機器を操作する場合に、複数の制御パラメータを効率的に制御することができるパラメータ制御装置、電子楽器、パラメータ制御方法及び制御プログラムを提供することを目的とする。 Therefore, in view of the above-mentioned problems, the present invention is a parameter control device and an electronic musical instrument capable of efficiently controlling a plurality of control parameters when the operator operates the device using one part of the body. , It is an object of the present invention to provide a parameter control method and a control program.

本発明に係るパラメータ制御装置は、複数の検出領域が配列された第1のセンサと、前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサと、前記第1のセンサのいずれかの検出領域が検出状態になると同時に検出される前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択するとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御する制御部と、を有し、前記制御部は、前記第1のセンサの複数の検出領域の配列位置の分布に基づいて平均位置を求めるとともに、前記平均位置を規格化された数値に変換して前記パラメータの操作量の制御に用い、前記平均位置を規格化された数値に変換する際に、前記平均位置が所定の範囲内にある場合には、変換後の数値を特定値に固定する、不感帯を設けるようにする。 In the parameter control device according to the present invention, the first sensor in which a plurality of detection regions are arranged and the second sensor in which at least one detection region is arranged so as to face the plurality of detection regions of the first sensor. Control of the operation amount from a plurality of parameters based on the detection value of the sensor and the detection area of the first sensor and the detection area of the second sensor detected at the same time as the detection area is entered. The control unit includes a control unit that selects a target parameter and controls the operation amount of the selected parameter based on the detection values of the plurality of detection regions of the first sensor. The average position is obtained based on the distribution of the arrangement positions of the plurality of detection regions of the first sensor, and the average position is converted into a standardized numerical value and used for controlling the manipulated variable of the parameter. If the average position is within a predetermined range when converting to a standardized numerical value, a dead zone is provided to fix the converted numerical value to a specific value.

本発明によれば、操作者が身体の一部位を用いて機器を操作する場合に、複数の制御パラメータを効率的に制御することができる。 According to the present invention, when an operator operates a device using a part of the body, a plurality of control parameters can be efficiently controlled.

本発明に係るパラメータ制御装置を適用した電子楽器の一実施形態の全体構造を示す外観図である。It is an external view which shows the whole structure of one Embodiment of the electronic musical instrument to which the parameter control device which concerns on this invention is applied. 第1の実施形態に係る電子楽器の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the electronic musical instrument which concerns on 1st Embodiment. 第1の実施形態に係るパラメータ操作部に適用されるタッチパッドの一例を示す概略図である。It is a schematic diagram which shows an example of the touch pad applied to the parameter operation part which concerns on 1st Embodiment. 第1の実施形態に適用されるX方向の接触位置の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the contact position in the X direction applied to 1st Embodiment. 第1の実施形態に適用されるX方向の接触位置とMIDI信号との関係を示す図である。It is a figure which shows the relationship between the contact position in the X direction and a MIDI signal applied to 1st Embodiment. 第1の実施形態に適用されるY方向の接触位置の判断方法を説明するための図である。It is a figure for demonstrating the method of determining the contact position in the Y direction applied to 1st Embodiment. 第1の実施形態に係る電子楽器における制御方法のメインルーチンを示すフローチャートである。It is a flowchart which shows the main routine of the control method in the electronic musical instrument which concerns on 1st Embodiment. 第1の実施形態に係る電子楽器の制御方法に適用されるパラメータ操作部の処理を示すフローチャートである。It is a flowchart which shows the process of the parameter operation part applied to the control method of the electronic musical instrument which concerns on 1st Embodiment. 第1の実施形態に係る電子楽器の制御方法に適用される不感帯を考慮した信号変換処理の他の例を示す図である。It is a figure which shows the other example of the signal conversion processing which considered the dead zone applied to the control method of the electronic musical instrument which concerns on 1st Embodiment. 第1の実施形態に係る電子楽器の制御方法に適用されるパラメータの第1の制御方法を示す図である。It is a figure which shows the 1st control method of the parameter applied to the control method of the electronic musical instrument which concerns on 1st Embodiment. 第1実施形態に係る電子楽器の制御方法に適用されるパラメータの第2の制御方法を示す図である。It is a figure which shows the 2nd control method of the parameter applied to the control method of the electronic musical instrument which concerns on 1st Embodiment. 第1実施形態に係る変形例を示す概略図である。It is a schematic diagram which shows the modification which concerns on 1st Embodiment. 第2の実施形態に係るパラメータ操作部の制御方法を示す図である。It is a figure which shows the control method of the parameter operation part which concerns on 2nd Embodiment. 第2の実施形態に係るパラメータ操作部の制御方法を示すフローチャートである。It is a flowchart which shows the control method of the parameter operation part which concerns on 2nd Embodiment.

以下、本発明に係るパラメータ制御装置、電子楽器、パラメータ制御方法及び制御プログラムの実施形態について図面を参照しながら詳しく説明する。ここでは、楽音に付与する各種のエフェクトを制御パラメータとするパラメータ制御装置を適用した電子楽器、並びに、当該制御パラメータの制御方法及び制御プログラムを適用した電子楽器の制御方法の例を示して説明する。 Hereinafter, embodiments of the parameter control device, the electronic musical instrument, the parameter control method, and the control program according to the present invention will be described in detail with reference to the drawings. Here, an example of an electronic musical instrument to which a parameter control device having various effects given to musical tones as control parameters, and a control method of the control parameters and an electronic musical instrument to which a control program is applied will be described. ..

<第1の実施形態>
(電子楽器)
図1は、本発明に係るパラメータ制御装置を適用した電子楽器の一実施形態の全体構造を示す外観図である。図1(a)は本実施形態に係る電子楽器の正面図であり、図1(b)は電子楽器の側面図であり、図1(c)は電子楽器の背面図である。
<First Embodiment>
(Electronic musical instrument)
FIG. 1 is an external view showing an overall structure of an embodiment of an electronic musical instrument to which the parameter control device according to the present invention is applied. 1 (a) is a front view of the electronic musical instrument according to the present embodiment, FIG. 1 (b) is a side view of the electronic musical instrument, and FIG. 1 (c) is a rear view of the electronic musical instrument.

本発明に係るパラメータ制御装置が適用される電子楽器100は、例えば図1(a)~(c)に示すように、アコースティック管楽器のサクソフォンの形状を模した外観を有している。電子楽器100は、管状の筐体を有する楽器本体102の一端側(図面左方端側)に演奏者(使用者)が口に咥えるマウスピース22が取り付けられ、他端側(図面右方側)に楽音を出力するスピーカボックス92が設けられている。 The electronic musical instrument 100 to which the parameter control device according to the present invention is applied has an appearance imitating the shape of a saxophone of an acoustic wind instrument, for example, as shown in FIGS. 1 (a) to 1 (c). In the electronic musical instrument 100, a mouthpiece 22 that the performer (user) holds in his mouth is attached to one end side (left end side in the drawing) of the musical instrument body 102 having a tubular housing, and the other end side (right side in the drawing). A speaker box 92 that outputs a musical sound is provided on the side).

また、楽器本体102の正面側には、図1(a)に示すように、演奏者が指で操作することにより、音高を決定する演奏キー12が設けられている。また、楽器本体102の背面側には、図1(c)に示すように、演奏中に楽音に付与するエフェクト(制御パラメータ)を選択するとともに、その極性や強度等(操作量)を制御するためのタッチパッド32や、演奏前にタッチパッド32に関連付けられるエフェクトの種類等を設定するための表示部42や設定スイッチ44が設けられている。 Further, as shown in FIG. 1A, a performance key 12 for determining the pitch is provided on the front side of the musical instrument main body 102 by being operated by the performer with a finger. Further, on the back side of the musical instrument main body 102, as shown in FIG. 1 (c), an effect (control parameter) to be given to a musical sound during a performance is selected, and its polarity, intensity, etc. (operation amount) are controlled. A touch pad 32 for this purpose, a display unit 42 for setting the type of effect associated with the touch pad 32 before playing, and a setting switch 44 are provided.

また、楽器本体102の背面側には、演奏中に指に当接して、電子楽器100を安定して保持するためのフィンガーレスト(又はフィンガーフック)104や、電子楽器100をストラップにより演奏者の首にかけて吊り下げ保持するためのストラップリング106が設けられている。また、図1(a)のIA部に示すように、楽器本体102の内部には、圧力センサ24やCPU(Central Processing Unit)50、ROM(Read Only Memory)60、RAM(Random Access Memory)70、音源80等が実装された基板108が設けられている。 Further, on the back side of the musical instrument body 102, a finger rest (or a finger hook) 104 for stably holding the electronic musical instrument 100 by abutting against a finger during a performance, and a strap of the electronic musical instrument 100 of the performer. A strap ring 106 is provided for hanging and holding the instrument around the neck. Further, as shown in the IA section of FIG. 1A, the pressure sensor 24, the CPU (Central Processing Unit) 50, the ROM (Read Only Memory) 60, and the RAM (Random Access Memory) 70 are inside the musical instrument body 102. , A board 108 on which a sound source 80 and the like are mounted is provided.

息圧検出部20は、演奏者が楽器本体102の一端側に取り付けられたマウスピース22に息を吹き込むことによりマウスピース22内部に発生する圧力(息圧)を、圧力センサ24により計測して、その息圧情報をCPU50に出力する。 The breath pressure detection unit 20 measures the pressure (breath pressure) generated inside the mouthpiece 22 by the pressure sensor 24 when the performer blows into the mouthpiece 22 attached to one end side of the instrument body 102. , The breath pressure information is output to the CPU 50.

図2は、本実施形態に係る電子楽器の機能構成の一例を示すブロック図である。
本実施形態に係る電子楽器100は、例えば図2に示すように、概略、演奏キー12を含む操作子10と、マウスピース22及び圧力センサ24を含む息圧検出部20と、タッチパッド32を含むパラメータ操作部30と、表示部42及び設定スイッチ44を含むパラメータ設定部40と、CPU50と、ROM60と、RAM70と、音源80と、スピーカを含むサウンドシステム90と、を有している。なお、図2に示す機能構成は、本発明に係る電子楽器を実現するための一例であり、この構成に限定されるものではない。
FIG. 2 is a block diagram showing an example of the functional configuration of the electronic musical instrument according to the present embodiment.
As shown in FIG. 2, for example, the electronic musical instrument 100 according to the present embodiment generally includes an operator 10 including a performance key 12, a breath pressure detection unit 20 including a mouthpiece 22 and a pressure sensor 24, and a touch pad 32. It has a parameter operation unit 30 including a parameter operation unit 30, a parameter setting unit 40 including a display unit 42 and a setting switch 44, a CPU 50, a ROM 60, a RAM 70, a sound source 80, and a sound system 90 including a speaker. The functional configuration shown in FIG. 2 is an example for realizing the electronic musical instrument according to the present invention, and is not limited to this configuration.

操作子10は、楽器本体102の正面側に設けられた演奏キー12に対する演奏者によるキー操作を受け付けて、その操作情報をCPU50に出力する。ここで、音階を指定する演奏キー12に対するキー操作は、演奏者の両手の人差し指から小指までの(親指を除く)4本の指により押さえているキーの位置を変化させることによって行われる。 The operator 10 receives a key operation by the performer on the performance key 12 provided on the front side of the musical instrument main body 102, and outputs the operation information to the CPU 50. Here, the key operation for the performance key 12 for designating the scale is performed by changing the positions of the keys pressed by the four fingers (excluding the thumb) from the index finger to the little finger of both hands of the performer.

パラメータ操作部30は、楽器本体102の背面側に設けられたタッチパッド32に対する演奏者による操作を受け付けて、タッチパッド32に予め設定されている楽音に付与するエフェクトの極性、強度等を制御するためのパラメータ操作情報をCPU50に出力する。 The parameter operation unit 30 receives an operation by the performer on the touch pad 32 provided on the back side of the musical instrument main body 102, and controls the polarity, intensity, and the like of the effect given to the musical sound preset in the touch pad 32. The parameter operation information for this is output to the CPU 50.

ここで、タッチパッド32は、例えば図1に示した電子楽器100においては、演奏者が電子楽器100を縦(図面左右方向を上下方向)に立てて両手で支えて保持したときに、右の手の親指202が当接する位置(領域)に設けられている。すなわち、タッチパッド32に対する操作は、演奏者の右手の親指をタッチパッド32上で特定方向に移動させて接触位置(接触領域)を変化させることによって行われる。パラメータ操作部30は、タッチパッド32における親指の接触位置を検出して、所定のエフェクトの極性や強度等を制御するためのパラメータ操作情報としてCPU50に出力する。タッチパッド32の構成や機能については、詳しく後述する。 Here, for example, in the electronic musical instrument 100 shown in FIG. 1, the touch pad 32 is on the right when the performer stands the electronic musical instrument 100 vertically (horizontal direction in the drawing is up and down) and supports and holds the electronic musical instrument 100 with both hands. It is provided at a position (region) where the thumb 202 of the hand abuts. That is, the operation on the touch pad 32 is performed by moving the thumb of the player's right hand on the touch pad 32 in a specific direction to change the contact position (contact area). The parameter operation unit 30 detects the contact position of the thumb on the touch pad 32 and outputs it to the CPU 50 as parameter operation information for controlling the polarity and intensity of a predetermined effect. The configuration and functions of the touchpad 32 will be described in detail later.

なお、本実施形態においては、パラメータ操作部30のタッチパッド32を、電子楽器100の背面側の、右手の親指202に対応する領域に設けた構成を示したが、本発明はこれに限定されるものではなく、例えば左手の親指に対応する領域にタッチパッドを設けた構成を有するものであってもよいし、左右の手の親指に対応する領域に、それぞれタッチパッドを設けた構成(つまり、計2箇所)を有するものであってもよい。 In the present embodiment, the touch pad 32 of the parameter operation unit 30 is provided in the area corresponding to the thumb 202 of the right hand on the back side of the electronic musical instrument 100, but the present invention is limited to this. For example, it may have a configuration in which a touch pad is provided in an area corresponding to the thumb of the left hand, or a configuration in which a touch pad is provided in an area corresponding to the thumb of the left and right hands (that is,). , A total of 2 places) may be provided.

パラメータ設定部40は、楽器本体102の背面側に設けられた設定スイッチ44に対する演奏者による操作を受け付けて、タッチパッド32に関連付けられるエフェクトの種類等を設定するためのパラメータ設定情報をCPU50に出力する。 The parameter setting unit 40 receives an operation by the performer on the setting switch 44 provided on the back side of the musical instrument main body 102, and outputs parameter setting information for setting the type of effect associated with the touch pad 32 to the CPU 50. do.

ここで、パラメータ設定部40は、例えば演奏者が液晶表示パネル(LCD)等の表示部42に表示された情報に基づいて設定スイッチ44を操作することにより、予め用意された複数種類のエフェクトの中から選択された1又は複数のエフェクトを、パラメータ操作部30のタッチパッド32に関連付けて設定する(割り当てる)ためのパラメータ設定情報をCPU50に出力する。 Here, the parameter setting unit 40 has a plurality of types of effects prepared in advance by, for example, the performer operating the setting switch 44 based on the information displayed on the display unit 42 such as a liquid crystal display panel (LCD). Parameter setting information for setting (assigning) one or a plurality of effects selected from among them in association with the touch pad 32 of the parameter operation unit 30 is output to the CPU 50.

CPU50は、電子楽器100の各部を制御する制御手段として機能するコンピュータであって、ROM60に記憶された所定のプログラムを読み出してRAM70に展開し、展開されたプログラムと協働して各種の処理を実行する。例えば、CPU50は、操作子10から入力された操作情報と、息圧検出部20から入力された息圧情報と、パラメータ操作部30から入力されたパラメータ操作情報と、に基づいて、楽音の生成を音源80に指示する。また、CPU50は、パラメータ設定部40から入力されたパラメータ設定情報に基づいて、パラメータ操作部30のタッチパッド32に関連付けて設定するエフェクトの種類等を決定する。 The CPU 50 is a computer that functions as a control means for controlling each part of the electronic musical instrument 100. A predetermined program stored in the ROM 60 is read out and expanded in the RAM 70, and various processes are performed in cooperation with the expanded program. Execute. For example, the CPU 50 generates a musical tone based on the operation information input from the operator 10, the breath pressure information input from the breath pressure detection unit 20, and the parameter operation information input from the parameter operation unit 30. Is instructed to the sound source 80. Further, the CPU 50 determines the type of effect to be set in association with the touch pad 32 of the parameter operation unit 30 based on the parameter setting information input from the parameter setting unit 40.

ROM60は、読み出し専用の半導体メモリであり、電子楽器100における動作や処理を制御するための各種のデータやプログラムが記憶されている。特に、本実施形態においては、後述する電子楽器の制御方法に適用される、タッチパッド32上での親指202の接触位置に基づいて、実行するエフェクトや、その極性や強度等を決定する制御方法を実現するためのプログラムが記憶されている。RAM70は、揮発性の半導体メモリであり、ROM60から読み出されたデータやプログラム、あるいは、プログラムの実行中に生成されたデータ、操作子10や息圧検出部20、パラメータ操作部30、パラメータ設定部40から出力された各種の情報を一時的に格納するワークエリアを有する。 The ROM 60 is a read-only semiconductor memory, and stores various data and programs for controlling operations and processes in the electronic musical instrument 100. In particular, in the present embodiment, a control method applied to a control method for an electronic musical instrument described later, which determines an effect to be executed, its polarity, strength, and the like based on the contact position of the thumb 202 on the touch pad 32. The program for realizing the above is stored. The RAM 70 is a volatile semiconductor memory, and is a data or program read from the ROM 60, or data generated during the execution of the program, an operator 10, a breath pressure detection unit 20, a parameter operation unit 30, and parameter setting. It has a work area for temporarily storing various information output from the unit 40.

音源80は、シンセサイザであり、操作子10からの操作情報や息圧検出部20からの息圧情報、パラメータ操作部30からのパラメータ操作情報に基づいて、CPU50から出力される楽音の生成指示に従って楽音合成を行い、楽音信号を生成してサウンドシステム90に出力する。サウンドシステム90は、音源80から入力された楽音信号に信号増幅等の処理を施し、スピーカボックス92に内蔵されたスピーカから楽音として出力する。 The sound source 80 is a synthesizer, and is in accordance with a musical tone generation instruction output from the CPU 50 based on operation information from the operation element 10, breath pressure information from the breath pressure detection unit 20, and parameter operation information from the parameter operation unit 30. Musical tone synthesis is performed, a musical tone signal is generated, and it is output to the sound system 90. The sound system 90 performs processing such as signal amplification on the musical tone signal input from the sound source 80, and outputs it as a musical tone from the speaker built in the speaker box 92.

(パラメータ操作部)
次に、本実施形態に係る電子楽器に適用されるパラメータ操作部について具体的に説明する。
図3は、本実施形態に係るパラメータ操作部に適用されるタッチパッドの一例を示す概略図である。図3(a)は、タッチパッドへの親指の接触状態を示す概略図であり、図3(b)は、タッチパッドの平面構造を示す概略図である。
(Parameter operation unit)
Next, the parameter operation unit applied to the electronic musical instrument according to the present embodiment will be specifically described.
FIG. 3 is a schematic view showing an example of a touch pad applied to the parameter operation unit according to the present embodiment. FIG. 3A is a schematic view showing a state in which the thumb is in contact with the touchpad, and FIG. 3B is a schematic view showing a planar structure of the touchpad.

本実施形態に適用されるタッチパッド32は、例えば図3(a)に示すように、楽器本体102の背面側のフィンガーレスト104に隣接する領域に設けられている。これにより、演奏者の右手の親指202はフィンガーレスト104に沿って移動するように誘導されて、楽器本体102の短手方向(図面左右方向)であるX方向の操作位置が決定される。また、フィンガーレスト104に右手の親指202を当接した状態を基準にして、親指202をローリングするように移動させることにより、楽器本体102の長手方向(図面上下方向)であるY方向の操作位置が決定される。 As shown in FIG. 3A, for example, the touch pad 32 applied to the present embodiment is provided in a region adjacent to the finger rest 104 on the back side of the musical instrument main body 102. As a result, the thumb 202 of the player's right hand is guided to move along the finger rest 104, and the operation position in the X direction, which is the lateral direction (left-right direction in the drawing) of the musical instrument body 102, is determined. Further, by moving the thumb 202 so as to roll with reference to the state where the thumb 202 of the right hand is in contact with the finger rest 104, the operation position in the Y direction, which is the longitudinal direction (vertical direction in the drawing) of the musical instrument body 102. Is determined.

タッチパッド32は、例えば図3(b)に示すように、静電容量方式の複数のタッチセンサの電極を所定の平面形状及びレイアウトで配列した構成を有している。タッチパッド32は、大別して、楽器本体102のY方向(長手方向)に、フィンガーレスト104に近い側から、上段のセンサ電極ELu、中段のセンサ電極群ELm、下段のセンサ電極ELdの3段の電極群が配列されている。これらの電極群はいずれも、楽器本体102のX方向(短手方向)に延在するように配置されている。 As shown in FIG. 3B, for example, the touch pad 32 has a configuration in which electrodes of a plurality of capacitive touch sensors are arranged in a predetermined planar shape and layout. The touch pad 32 is roughly divided into three stages in the Y direction (longitudinal direction) of the musical instrument body 102, from the side closer to the finger rest 104: the upper sensor electrode ELu, the middle sensor electrode group ELm, and the lower sensor electrode ELd. The electrode group is arranged. All of these electrode groups are arranged so as to extend in the X direction (short direction) of the musical instrument main body 102.

具体的には、上段のセンサ電極ELu及び下段のセンサ電極ELdは、直線状に連続して形成された単一の電極からなり、当該センサ電極ELu、ELdがX方向に延在するように配置されている。中段のセンサ電極群ELmは、複数の矩形状のセンサ電極cap1~cap9の集合体からなり、上段のセンサ電極ELuと下段のセンサ電極ELdとの間の領域に、当該複数のセンサ電極cap1~cap9がX方向に一定の間隔で配置されている。 Specifically, the upper sensor electrode ELu and the lower sensor electrode ELd are composed of a single electrode formed continuously in a straight line, and the sensor electrodes ELu and ELd are arranged so as to extend in the X direction. Has been done. The sensor electrode group ELm in the middle stage is composed of an aggregate of a plurality of rectangular sensor electrodes cap1 to cap9, and the plurality of sensor electrodes cap1 to cap9 are located in the region between the upper sensor electrode ELu and the lower sensor electrode ELd. Are arranged at regular intervals in the X direction.

すなわち、タッチパッド32は、複数のセンサ電極cap1~cap9がX方向に配列されたスライダーを構成する中段のセンサ電極群ELmに対して、センサ電極cap1~cap9の配列方向であるX方向に直交するY方向に隣接し、複数のセンサ電極cap1~cap9に跨る(又は、共通して対向する)ように、上段のセンサ電極ELuと下段のセンサ電極ELdとがX方向に長く延在するように配置されている。これらのセンサ電極ELu、ELd、cap1~cap9はそれぞれ、タッチパッド32に配列される各タッチセンサの検出領域に対応する。 That is, the touch pad 32 is orthogonal to the X direction, which is the arrangement direction of the sensor electrodes cap1 to cap9, with respect to the sensor electrode group ELm in the middle stage constituting the slider in which the plurality of sensor electrodes cap1 to cap9 are arranged in the X direction. The upper sensor electrode ELu and the lower sensor electrode ELd are arranged so as to extend in the X direction so as to be adjacent to each other in the Y direction and straddle (or face each other in common) a plurality of sensor electrodes cap1 to cap9. Has been done. Each of these sensor electrodes ELu, ELd, and cap1 to cap9 corresponds to a detection region of each touch sensor arranged on the touch pad 32.

ここで、図3(b)に示すように、タッチパッド32に配列される3段の電極群のうち、中段のセンサ電極群ELmのY方向の幅Wmは、例えば親指202の接触領域のY方向の幅と同程度になるように設定されている。また、3段の電極群のY方向の全幅(すなわち、上段のセンサ電極ELuの図面上方側の辺から下段のセンサ電極ELdの図面下方側の辺までの幅)Weは、例えば親指202の接触領域のY方向の幅の、概ね1.5~2倍程度になるように設定されている。 Here, as shown in FIG. 3B, among the three-stage electrode group arranged on the touch pad 32, the width Wm in the Y direction of the middle-stage sensor electrode group ELm is, for example, Y in the contact region of the thumb 202. It is set to be about the same as the width in the direction. Further, the total width of the three-stage electrode group in the Y direction (that is, the width from the upper side of the upper sensor electrode ELu in the drawing to the lower side of the lower sensor electrode ELd in the drawing) We is, for example, the contact of the thumb 202. It is set to be approximately 1.5 to 2 times the width of the region in the Y direction.

また、タッチパッド32に配列される3段の電極群のうち、上段のセンサ電極ELu及び下段のセンサ電極ELdのX方向の長さLeは、例えば中段のセンサ電極群ELmにおける全センサ電極cap1~cap9のX方向の配列長(すなわち、センサ電極cap1の図面左方側の辺からセンサ電極cap9の図面右方側の辺までの全長)Lmに比較して、同程度又は僅かに短くなるように設定されている。また、3段の電極群のうち、中段のセンサ電極群ELmのX方向の両端部(センサ電極cap1の図面左方側の辺、及び、センサ電極cap9の図面右方側の辺)は、例えば上段のセンサ電極ELu及び下段のセンサ電極ELdのX方向の端部よりも突出する、或いは、同程度になるように、各パッドの平面形状やレイアウトが設定されている。 Further, among the three-stage electrode group arranged on the touch pad 32, the length Le of the upper sensor electrode ELu and the lower sensor electrode ELd in the X direction is, for example, all the sensor electrodes cap1 to the middle sensor electrode group ELm. Arrangement length of cap9 in the X direction (that is, the total length from the left side of the drawing of the sensor electrode cap1 to the right side of the drawing of the sensor electrode cap9) so as to be about the same or slightly shorter than Lm. It is set. Further, among the three-stage electrode group, both ends of the middle-stage sensor electrode group ELm in the X direction (the left side of the drawing of the sensor electrode cap1 and the right side of the drawing of the sensor electrode cap9) are, for example. The plane shape and layout of each pad are set so as to protrude from or to the same extent as the X-direction end of the upper sensor electrode ELu and the lower sensor electrode ELd.

本実施形態においては、親指202がタッチパッド32に触れたときに、スライダーを構成する中段のセンサ電極群ELmへの接触状態に基づいて、親指202のX方向の接触位置を検出してエフェクトの操作量(極性や強度等)を決定している。また、上段のセンサ電極ELu又は下段のセンサ電極ELdへの接触状態に基づいて、親指202のY方向の接触位置を検出して実行するエフェクトの選択を行っている。そのため、親指202が3段の電極群のうちのいずれのセンサ電極の位置に接触して、実行するエフェクトが選択されている場合であっても、エフェクトの操作量を決定するX方向の接触位置を正確に検出するためには、親指202が中段のセンサ電極群ELmのいずれかのセンサ電極cap1~cap9に直接接触、或いは、十分近接した位置に接触している必要がある。本実施形態においては、このような状態を良好に実現するために、上述したようなセンサ電極の平面形状及びレイアウトを適用している。 In the present embodiment, when the thumb 202 touches the touch pad 32, the contact position of the thumb 202 in the X direction is detected based on the contact state with the sensor electrode group ELm in the middle stage constituting the slider, and the effect is produced. The amount of operation (polarity, strength, etc.) is determined. Further, the effect of detecting and executing the contact position of the thumb 202 in the Y direction is selected based on the contact state with the upper sensor electrode ELu or the lower sensor electrode ELd. Therefore, even if the thumb 202 touches the position of any sensor electrode in the three-stage electrode group and the effect to be executed is selected, the contact position in the X direction that determines the operation amount of the effect. In order to accurately detect, the thumb 202 needs to be in direct contact with one of the sensor electrodes cap1 to cap9 of the sensor electrode group ELm in the middle stage, or in contact with a position sufficiently close to the sensor electrodes cap1 to cap9. In the present embodiment, in order to realize such a state satisfactorily, the planar shape and layout of the sensor electrodes as described above are applied.

このような構成を有するパラメータ操作部30において、本実施形態においては、タッチパッド32に配列された、上段のセンサ電極ELu、中段のセンサ電極群ELm、下段のセンサ電極ELdは、パラメータ設定部40により、それぞれ任意のエフェクトが関連付けられている。例えば上段のセンサ電極ELuにはモジュレーションが関連付けられ、中段のセンサ電極群ELmにはピッチベンドが関連付けられ、下段のセンサ電極ELdにはフィルタカットオフが関連付けられる。ここで、タッチパッド32に配列された各段のセンサ電極に関連付ける機能として、楽音にピッチベンドやビブラート等の音色効果を付与するエフェクト設定する場合について示すが、本発明はこれに限定されるものではない。すなわち、楽音の発音に関する他の制御を行うものであってもよく、例えば消音の有無を制御したり、音量を制御したり、操作子10により指定される音階の割り当てを切り換える制御などを、各段のセンサ電極に関連付けるようにしてもよい。 In the parameter operation unit 30 having such a configuration, in the present embodiment, the upper sensor electrode ELu, the middle sensor electrode group ELm, and the lower sensor electrode ELd arranged on the touch pad 32 are the parameter setting unit 40. Is associated with any effect. For example, the upper sensor electrode ELu is associated with modulation, the middle sensor electrode group ELm is associated with pitch bend, and the lower sensor electrode ELd is associated with filter cutoff. Here, as a function associated with the sensor electrodes of each stage arranged on the touch pad 32, a case of setting an effect for imparting a timbre effect such as pitch bend or vibrato to a musical sound will be described, but the present invention is not limited thereto. do not have. That is, other controls related to the pronunciation of musical tones may be performed, for example, control of presence / absence of mute, control of volume, control of switching the assignment of scales designated by the controller 10, and the like. It may be associated with the sensor electrode of the stage.

また、本実施形態においては、図3(b)に示したように、上段のセンサ電極ELuや下段のセンサ電極ELdの形状や面積と、中段のセンサ電極群ELmのセンサ電極cap1~cap9の形状や面積が異なるように形成されている。そのため、電極の形状や面積に応じて、各電極から出力されるセンサ出力値が異なることになるが、取得したセンサ値をソフトウェア内で補正処理することにより、0~255の範囲(256段階)で得られるように適正化することができる。 Further, in the present embodiment, as shown in FIG. 3B, the shape and area of the upper sensor electrode ELu and the lower sensor electrode ELd, and the shapes of the sensor electrodes cap1 to cap9 of the middle sensor electrode group ELm. And are formed so that the areas are different. Therefore, the sensor output value output from each electrode differs depending on the shape and area of the electrode, but by correcting the acquired sensor value in the software, it is in the range of 0 to 255 (256 steps). Can be optimized as obtained in.

なお、図1及び図3においては、タッチパッド32を楽器本体102の背面側の表面に設置した構成を示したが、本発明はこれに限定されるものではない。すなわち、タッチパッド32は、楽器本体102の内部に設けられ、上述した複数のタッチセンサの電極が配列された検出面が楽器本体102の筐体から露出するように設けられているものであってもよいし、検出面の前面が楽器本体102の筐体により覆われて保護されているものであってもよい。ここで、タッチパッド32は、静電容量方式のタッチセンサが基板上に実装された構造を有するものであってもよいし、当該基板がフレキシブルプリント基板(FPC基板)により形成されて、楽器本体102の筐体表面に貼り付けられた構成を有するものであってもよい。また、タッチパッド32は、静電容量方式のタッチセンサに限定されるものではなく、抵抗膜方式のタッチセンサを適用するものであってもよい。 Although FIGS. 1 and 3 show a configuration in which the touch pad 32 is installed on the back surface of the musical instrument main body 102, the present invention is not limited thereto. That is, the touch pad 32 is provided inside the musical instrument main body 102, and the detection surface on which the electrodes of the plurality of touch sensors described above are arranged is provided so as to be exposed from the housing of the musical instrument main body 102. Alternatively, the front surface of the detection surface may be covered and protected by the housing of the musical instrument body 102. Here, the touch pad 32 may have a structure in which a capacitive touch sensor is mounted on a substrate, or the substrate is formed of a flexible printed circuit board (FPC substrate) to form a musical instrument main body. It may have a structure attached to the surface of the housing of 102. Further, the touch pad 32 is not limited to the capacitance type touch sensor, and may be one to which a resistance film type touch sensor is applied.

(X方向の接触位置算出方法)
次に、上述したタッチパッドに演奏者の親指が触れた場合の、X方向の接触位置算出方法について説明する。
(Method of calculating contact position in X direction)
Next, a method of calculating the contact position in the X direction when the thumb of the performer touches the above-mentioned touch pad will be described.

図4は、本実施形態に適用されるX方向の接触位置の算出方法を説明するための図である。図4(a)は親指がタッチパッドに接触した状態におけるパラメータ操作部30のセンサ出力値の分布例を示す図であり、図4(b)は図4(a)に示したセンサ出力値に基づいて決定される親指の接触位置の一例である。 FIG. 4 is a diagram for explaining a method of calculating a contact position in the X direction applied to the present embodiment. FIG. 4A is a diagram showing an example of distribution of the sensor output value of the parameter operation unit 30 in a state where the thumb is in contact with the touch pad, and FIG. 4B is a diagram showing the sensor output value shown in FIG. 4A. This is an example of the contact position of the thumb determined based on the above.

本実施形態に適用されるタッチパッド32において、親指202のX方向の接触位置を求める手法としては、タッチパッド32の各センサ電極における静電容量に応じて出力されるセンサ出力値の分布に基づいて算出することができ、この場合、一般的な重心位置を算出するためのアルゴリズムを良好に適用することができる。 In the touch pad 32 applied to the present embodiment, as a method for obtaining the contact position of the thumb 202 in the X direction, it is based on the distribution of the sensor output value output according to the capacitance in each sensor electrode of the touch pad 32. In this case, a general algorithm for calculating the position of the center of gravity can be satisfactorily applied.

具体的には、本実施形態においては、タッチパッド32への親指202の接触状態を、スライダーを構成する中段のセンサ電極群ELmに配列された各センサ電極cap1~cap9における静電容量に基づいて、例えば256段階の出力値で検出する。ここで、中段のセンサ電極群ELmの複数のセンサ電極cap1~cap9は楽器本体102のX方向(短手方向)に一列に配置されているため、例えばセンサ電極cap4の真上に演奏者の親指202が載置されて接触している状態では、図4(a)に示すように、親指202が接触している領域とその近傍のセンサ電極(例えばセンサ電極cap3~cap5)の静電容量が大きくなって高いセンサ出力値が得られる。一方、親指202が接触していない領域のセンサ電極(例えばセンサ電極cap1、cap2、cap6~cap9)では静電容量が小さくなって相対的に低いセンサ出力値が得られる。すなわち、この場合のタッチパッド32の各センサ電極cap1~cap9から出力されるセンサ出力値の分布は、図4(a)に示すように、親指202が最も強く接触した位置のセンサ電極(概ねセンサ電極cap3~cap5)からのセンサ出力値を最大値とする山形を示す特徴を有している。 Specifically, in the present embodiment, the contact state of the thumb 202 with the touch pad 32 is based on the capacitance of each sensor electrode cap1 to cap9 arranged in the sensor electrode group ELm in the middle stage constituting the slider. For example, it is detected by an output value of 256 steps. Here, since the plurality of sensor electrodes cap1 to cap9 of the sensor electrode group ELm in the middle stage are arranged in a row in the X direction (short side direction) of the instrument body 102, for example, the player's thumb is directly above the sensor electrode cap4. In the state where the 202 is placed and in contact, as shown in FIG. 4A, the electrostatic capacitance of the sensor electrodes (for example, sensor electrodes cap3 to cap5) in the region where the thumb 202 is in contact and in the vicinity thereof is large. It becomes large and a high sensor output value can be obtained. On the other hand, in the sensor electrodes in the region where the thumb 202 is not in contact (for example, the sensor electrodes cap1, cap2, cap6 to cap9), the capacitance becomes small and a relatively low sensor output value can be obtained. That is, as shown in FIG. 4A, the distribution of the sensor output values output from the sensor electrodes cap1 to cap9 of the touchpad 32 in this case is the sensor electrode (generally the sensor) at the position where the thumb 202 is in the strongest contact. It has the characteristic of showing a chevron shape with the sensor output value from the electrodes cap3 to cap5) as the maximum value.

そして、図4(a)に示したセンサ出力値の分布に基づいて、一般的な重心位置の算出方法を適用して、親指の接触位置を求める。親指の接触位置posに対応する重心位置xは、親指の接触状態を検出する複数のセンサ電極からのセンサ出力値Vcapと、各センサ電極の配列位置を示す番号xとに基づいて、次の(11)式により算出される。 Then, based on the distribution of the sensor output values shown in FIG. 4A, a general method for calculating the position of the center of gravity is applied to obtain the contact position of the thumb. The center of gravity position x G corresponding to the contact position pos of the thumb is based on the sensor output values Vcap i from a plurality of sensor electrodes for detecting the contact state of the thumb and the number x i indicating the arrangement position of each sensor electrode. It is calculated by the following equation (11).

Figure 0007041387000001
Figure 0007041387000001

上記の(11)式において、nは重心位置xの算出に用いるセンサ出力値の個数である。ここでは、上述したように、タッチパッド32の中段のセンサ電極群ELmに配列された9個(n=9)のセンサ電極cap1~cap9からのセンサ出力値Vcapを重心位置xの算出に用いる。また、これらのセンサ電極cap1~cap9の配列位置に対応して、各センサ電極の位置番号x(=1、2、・・・9)が設定されている。すなわち、(11)式に示した、親指の接触位置posに対応する重心位置xの算出方法は、センサ電極の配列位置の分布に基づいて平均位置を求めるための演算であり、当該平均位置を求める際に、各センサ電極の位置に対して各センサ電極の出力値を重み値として乗算する加重平均による演算である。 In the above equation (11), n is the number of sensor output values used for calculating the center of gravity position x G. Here, as described above, the sensor output values Vcap i from the nine (n = 9) sensor electrodes cap1 to cap9 arranged in the sensor electrode group ELm in the middle of the touchpad 32 are used to calculate the center of gravity position x G. Use. Further, the position numbers x i (= 1, 2, ... 9) of each sensor electrode are set corresponding to the arrangement positions of these sensor electrodes cap1 to cap9. That is, the method of calculating the center of gravity position x G corresponding to the contact position pos of the thumb shown in the equation (11) is an operation for obtaining the average position based on the distribution of the arrangement positions of the sensor electrodes, and the average position is the calculation. Is a weighted average calculation that multiplies the position of each sensor electrode by the output value of each sensor electrode as a weight value.

図4(a)に示したように、演奏者がタッチパッド32に親指を接触させた状態で得られるセンサ出力値の分布に基づいて、上記の(11)式を用いて重心位置xを算出して親指のX方向の接触位置posを求めると、図4(b)に示すように、「4.0」という数値が得られる。この数値は、親指の接触位置をセンサ電極の位置番号で表したものである。すなわち、位置番号1~9で示される各センサ電極cap1~cap9の配列位置に対する相対位置で表したものであり、1.0~9.0の小数を含む数値で表される。また、上記の(11)式に示したように、図4(b)中のsum1は、各センサ電極cap1~cap9におけるセンサ出力値Vcapと位置番号xとの積の総和であり、sum2は、各センサ電極cap1~cap9からのセンサ出力値Vcapの総和である。 As shown in FIG. 4 (a), the center of gravity position x G is determined using the above equation (11) based on the distribution of the sensor output values obtained when the performer touches the touch pad 32 with his / her thumb. When the calculation is performed to obtain the contact position pos in the X direction of the thumb, a numerical value of "4.0" is obtained as shown in FIG. 4 (b). This numerical value represents the contact position of the thumb by the position number of the sensor electrode. That is, it is represented by a relative position with respect to the arrangement position of each sensor electrode cap1 to cap9 indicated by the position numbers 1 to 9, and is represented by a numerical value including a decimal number of 1.0 to 9.0. Further, as shown in the above equation (11), sum1 in FIG. 4B is the sum of the products of the sensor output values Vcap i and the position number x i in each of the sensor electrodes cap1 to cap9, and is sum2. Is the sum of the sensor output values Vcap i from each sensor electrode cap1 to cap9.

なお、図中に示す親指の接触位置posは、音源8において利用する際には、7ビットで表現した数値であるMIDI(Musical Instrument Digital Interface)信号に変換(センサ電極cap1~cap9の配列位置1~9までの範囲を0~127の整数値に割り当て)した後、利用される。具体的には、次の(12)式に示すように、(11)式により算出された重心位置xである親指の接触位置posの数値から1を減算した後に127/8が乗算される。例えば、親指の接触位置posが「4.0」であれば、(12)式により求められる数値「48」が7ビットで表現したMIDI信号として利用される。 The thumb contact position pos shown in the figure is converted into a MIDI (Musical Instrument Digital Interface) signal, which is a numerical value expressed in 7 bits when used in the sound source 8 (arrangement positions 1 of the sensor electrodes cap1 to cap9). It is used after assigning the range from 0 to 9 to an integer value from 0 to 127). Specifically, as shown in the following equation (12), 127/8 is multiplied after subtracting 1 from the value of the contact position pos of the thumb, which is the center of gravity position x G calculated by the equation (11). .. For example, if the contact position pos of the thumb is "4.0", the numerical value "48" obtained by the equation (12) is used as a MIDI signal expressed by 7 bits.

Figure 0007041387000002
Figure 0007041387000002

上記の一連の重心位置の算出方法により求められた、タッチパッド32のX方向の親指の接触位置posは、MIDI信号に変換された後、後述するように、上段のセンサ電極ELu、中段のセンサ電極群ELm、下段のセンサ電極ELdのいずれかに設定されたエフェクトの極性やその強度等を制御するために用いられる。 The contact position pos of the thumb in the X direction of the touch pad 32 obtained by the above-mentioned series of calculation methods of the center of gravity is converted into a MIDI signal, and then, as will be described later, the upper sensor electrode ELu and the middle sensor. It is used to control the polarity and intensity of the effect set in either the electrode group ELm or the lower sensor electrode ELd.

(MIDI信号への変換処理)
次に、上述したX方向の接触位置をMIDI信号に変換する処理について説明する。
図5は、本実施形態に適用されるX方向の接触位置とMIDI信号との関係を示す図である。図5(a)は不感対を考慮しない場合の、線形性を有する対応関係を示す図であり、図5(b)は不感帯を考慮した位置情報への変換処理を説明するための図である。
(Conversion process to MIDI signal)
Next, the process of converting the above-mentioned contact position in the X direction into a MIDI signal will be described.
FIG. 5 is a diagram showing the relationship between the contact position in the X direction and the MIDI signal applied to the present embodiment. FIG. 5A is a diagram showing a correspondence relationship having linearity when the dead pair is not considered, and FIG. 5B is a diagram for explaining the conversion process to the position information in consideration of the dead zone. ..

上述した重心位置の算出方法を適用して求められた親指のX方向の接触位置について、そのままMIDI信号に変換する(割り当てる)処理を行った場合、X方向の接触位置とMIDI信号との関係は、例えば図5(a)に示すグラフで表され、親指の接触位置をセンサ電極cap1の位置からセンサ電極cap9の方向であるX方向に動かすことにより、MIDI信号として「0」から「127」まで線形性を有して変化する数値が得られる。このような変換処理においては、演奏者の親指がタッチパッド上で僅かでもX方向に動くと、楽音のエフェクトに影響してしまい、演奏者が意図する演奏ができなくなる場合がある。 When the processing of converting (assigning) the contact position of the thumb in the X direction of the thumb obtained by applying the above-mentioned calculation method of the center of gravity position into a MIDI signal as it is is performed, the relationship between the contact position in the X direction and the MIDI signal is For example, represented by the graph shown in FIG. 5A, by moving the contact position of the thumb from the position of the sensor electrode cap1 to the X direction, which is the direction of the sensor electrode cap9, the MIDI signal is from "0" to "127". Numerical values that change with linearity are obtained. In such a conversion process, if the performer's thumb moves in the X direction even slightly on the touch pad, the effect of the musical tone may be affected, and the performer's intended performance may not be possible.

このような状況を抑制するためには、タッチパッド32のX方向の中間位置(中央)付近に、タッチセンサが演奏者の親指の動きに反応しない、或いは、タッチセンサの検出感度を低く設定した不感帯を設ける手法を適用することができる。このような不感帯を設ける手法については、電子楽器のユーザーインタフェースをはじめ、各種のアナログ方式の操作レバー等においても一般に利用されているものである。 In order to suppress such a situation, the touch sensor does not respond to the movement of the performer's thumb near the intermediate position (center) in the X direction of the touch pad 32, or the detection sensitivity of the touch sensor is set low. A method of providing a dead zone can be applied. The method of providing such a dead zone is generally used not only in the user interface of an electronic musical instrument but also in various analog operation levers and the like.

このような不感帯を考慮した信号や情報への変換処理を、入力側(変換前)となるX方向の接触位置と出力側(変換後)となるMIDI信号との関係に適用すると、例えば図5(b)に示すグラフのような形態で表され、親指の接触位置が不感帯の範囲内にある場合には、タッチセンサが反応しない、或いは、タッチパッド32の中間位置を示すセンサ出力値が出力される。 When the conversion process to a signal or information in consideration of such a dead zone is applied to the relationship between the contact position in the X direction on the input side (before conversion) and the MIDI signal on the output side (after conversion), for example, FIG. It is represented by the form shown in the graph shown in (b), and when the contact position of the thumb is within the dead zone, the touch sensor does not respond or the sensor output value indicating the intermediate position of the touch pad 32 is output. Will be done.

すなわち、X方向の接触位置が、Xa以上Xb以下の場合には、X方向の接触位置に関わらず、MIDI信号の値がデフォルト値の「64」に固定される。ここで、図5(b)のグラフにおいては、一例としてXa=50、Xb=84に設定されている場合を示した。 That is, when the contact position in the X direction is Xa or more and Xb or less, the value of the MIDI signal is fixed to the default value "64" regardless of the contact position in the X direction. Here, in the graph of FIG. 5B, the case where Xa = 50 and Xb = 84 are set as an example is shown.

また、X方向の接触位置(x)がXa未満の場合には、MIDI信号(y)が次の(13)式で表される線形性を有して変化し、X方向の接触位置(x)がXbより大きい場合には、MIDI信号(y)が次の(14)式で表される線形性を有して変化する。 Further, when the contact position (x) in the X direction is less than Xa, the MIDI signal (y) changes with a linearity represented by the following equation (13), and the contact position (x) in the X direction is changed. ) Is larger than Xb, the MIDI signal (y) changes with the linearity represented by the following equation (14).

Figure 0007041387000003
Figure 0007041387000003

このような不感帯を考慮した信号変換処理によれば、タッチパッド32における過敏な動作が抑制されて、意図する演奏感や楽音のエフェクトを良好に実現することができる。 なお、図5(b)においては説明を簡明にするため、タッチパッド32のX方向の中間位置(中央)付近に不感帯を設けた場合について示したが、本発明はこれに限定されるものではなく、X方向の両端、もしくは、いずれか一方の端部(右端、左端)に不感帯を設けるものであってもよい。不感帯の設定位置の具体例については後述する。 According to the signal conversion process in consideration of such a dead zone, the sensitive operation of the touch pad 32 is suppressed, and the intended playing feeling and musical tone effect can be satisfactorily realized. In addition, in FIG. 5 (b), in order to simplify the explanation, the case where the dead zone is provided near the intermediate position (center) in the X direction of the touch pad 32 is shown, but the present invention is not limited to this. Instead, a dead zone may be provided at both ends in the X direction or at either end (right end, left end). A specific example of the setting position of the dead zone will be described later.

(Y方向の接触位置判断方法)
次に、上述したタッチパッドに演奏者の親指が触れた場合の、Y方向の位置の判断方法について説明する。
(Method of determining the contact position in the Y direction)
Next, a method of determining the position in the Y direction when the thumb of the performer touches the touch pad described above will be described.

図6は、本実施形態に適用されるY方向の接触位置の判断方法を説明するための図である。図6(a)はタッチパッドの上段又は下段のセンサ電極に親指が触れている状態を示す図であり、図6(b)はタッチパッドの中段のセンサ電極群に親指が触れている状態を示す図である。 FIG. 6 is a diagram for explaining a method for determining a contact position in the Y direction, which is applied to the present embodiment. FIG. 6A is a diagram showing a state in which the thumb is touching the upper or lower sensor electrodes of the touchpad, and FIG. 6B is a state in which the thumb is touching the sensor electrode group in the middle stage of the touchpad. It is a figure which shows.

本実施形態に適用されるタッチパッド32において、親指202のY方向の接触位置を求める手法としては、タッチパッド32の上段のセンサ電極ELuと下段のセンサ電極ELdから出力されるセンサ出力値の差分に基づいて算出することができる。 In the touch pad 32 applied to the present embodiment, as a method for obtaining the contact position of the thumb 202 in the Y direction, the difference between the sensor output values output from the upper sensor electrode ELu and the lower sensor electrode ELd of the touch pad 32 is used. Can be calculated based on.

具体的には、上段のセンサ電極ELuのセンサ出力値をVu、下段のセンサ電極ELdのセンサ出力値をVdとした場合、次の(21)式に示すように、両者のセンサ出力値Vu、Vdの差(Vu-Vd)が、予め設定されたしきい値THdiffよりも大きいか否かを判断する。さらに、次の(22)式に示すように、上段のセンサ電極ELuからのセンサ出力値Vuが予め設定されたしきい値THon以上か否かを判断する。ここで、THdiffは上段及び下段のセンサ電極ELu、ELdからのセンサ出力値Vu、Vdの差が十分大きいか否かを判断するための値である。また、THonは上段又は下段のセンサ電極ELu、ELdに親指が触れているか否かを判断するための値である。
Vu-Vd>THdiff ・・・(21)
Vu≧THon ・・・(22)
Specifically, when the sensor output value of the upper sensor electrode ELu is Vu and the sensor output value of the lower sensor electrode ELd is Vd, both sensor output values Vu, as shown in the following equation (21), It is determined whether or not the difference in Vd (Vu-Vd) is larger than the preset threshold value THdiff. Further, as shown in the following equation (22), it is determined whether or not the sensor output value Vu from the upper sensor electrode ELu is equal to or higher than the preset threshold value THon. Here, THdiff is a value for determining whether or not the difference between the sensor output values Vu and Vd from the upper and lower sensor electrodes ELu and ELd is sufficiently large. Further, THon is a value for determining whether or not the thumb is touching the upper or lower sensor electrodes ELu and ELd.
Vu-Vd> THdiff ・ ・ ・ (21)
Vu ≧ THon ・ ・ ・ (22)

これらの(21)、(22)式の両方の条件を満たす場合、すなわち、両者のセンサ出力値Vu、Vdの差(Vu-Vd)が、予め設定されたしきい値THdiffよりも大きく、かつ、上段のセンサ電極ELuからのセンサ出力値Vuが予め設定されたしきい値THon以上である場合には、図6(a)に示すように、上段のセンサ電極ELuに親指202が触れている、或いは、十分近接した状態にあると判断する。 When both of the conditions of the equations (21) and (22) are satisfied, that is, the difference between the sensor output values Vu and Vd (Vu-Vd) of both is larger than the preset threshold value THdiff, and When the sensor output value Vu from the upper sensor electrode ELu is equal to or higher than the preset threshold value THon, the thumb 202 touches the upper sensor electrode ELu as shown in FIG. 6A. Or, it is judged that they are in a sufficiently close state.

一方、次の(23)式に示すように、両者のセンサ出力値Vu、Vdの差(Vd-Vu)が、予め設定されたしきい値THdiffよりも大きいか否かを判断する。さらに、次の(24)式に示すように、下段のセンサ電極ELdからのセンサ出力値Vdが予め設定されたしきい値THon以上か否かを判断する。
Vd-Vu>THdiff ・・・(23)
Vd≧THon ・・・(24)
On the other hand, as shown in the following equation (23), it is determined whether or not the difference (Vd-Vu) between the two sensor output values Vu and Vd is larger than the preset threshold value THdiff. Further, as shown in the following equation (24), it is determined whether or not the sensor output value Vd from the lower sensor electrode ELd is equal to or higher than the preset threshold value THon.
Vd-Vu> THdiff ・ ・ ・ (23)
Vd ≧ THon ・ ・ ・ (24)

これらの(23)、(24)式の両方の条件を満たす場合、すなわち、両者のセンサ出力値Vu、Vdの差(Vd-Vu)が、予め設定されたしきい値THdiffよりも大きく、かつ、下段のセンサ電極ELdからのセンサ出力値Vdが予め設定されたしきい値THon以上である場合には、図6(b)に示すように、下段のセンサ電極ELdに親指202が触れている、或いは、十分近接した状態にあると判断する。 When both of the conditions of the equations (23) and (24) are satisfied, that is, the difference between the sensor output values Vu and Vd (Vd-Vu) of both is larger than the preset threshold value THdiff, and When the sensor output value Vd from the lower sensor electrode ELd is equal to or higher than the preset threshold value THon, the thumb 202 touches the lower sensor electrode ELd as shown in FIG. 6 (b). Or, it is judged that they are in a sufficiently close state.

また、上記(21)~(24)式の条件を満たさない場合、すなわち、両者のセンサ出力値Vu、Vdの差の絶対値(|Vu-Vd|)が、予め設定されたしきい値THdiff以下であり、両者のセンサ出力値Vu、Vdが予め設定されたしきい値THonよりも小さい場合には、図6(c)に示すように、中段のセンサ電極群ELmに親指202が触れている、或いは、十分近接した状態にあると判断する。 Further, when the conditions of the above equations (21) to (24) are not satisfied, that is, the absolute value (| Vu-Vd |) of the difference between the sensor output values Vu and Vd of both is set as a preset threshold value THdiff. When the sensor output values Vu and Vd of both are smaller than the preset threshold values THon, the thumb 202 touches the sensor electrode group ELm in the middle stage as shown in FIG. 6 (c). It is judged that they are or are in a sufficiently close state.

なお、本実施形態においては、上記の(21)~(24)式の条件を示して、親指202が上段又は下段のセンサ電極ELu、ELdのいずれに触れているかを判断したが、本発明はこれに限定されるものではない。例えば、上記の(21)~(24)式のうち、(21)、(23)式のみを用い、しきい値THdiffを大きな値に設定することにより、両者のセンサ出力値Vu、Vdの差がしきい値THdiffよりも大きいか否かで上段のセンサ電極ELuか下段のセンサ電極ELdか、又は中段のセンサ電極群ELmに触れているかを判断するものであってもよい。また、上段及び下段のセンサ電極ELu、ELからのセンサ出力値Vu、Vdの差分を用いた手法に限定されるものではなく、例えば両者のセンサ出力値Vu、Vdの比が予め設定されたしきい値よりも大きいか否かに基づいて、親指202が触れているセンサ電極を判断するものであってもよい。 In the present embodiment, the conditions of the above equations (21) to (24) are shown to determine whether the thumb 202 touches the upper or lower sensor electrodes ELu or ELd. It is not limited to this. For example, by using only the equations (21) and (23) among the above equations (21) to (24) and setting the threshold value THdiff to a large value, the difference between the two sensor output values Vu and Vd. It may be determined whether the sensor electrode ELu in the upper stage, the sensor electrode ELd in the lower stage, or the sensor electrode group ELm in the middle stage is touched depending on whether or not is larger than the threshold value THdiff. Further, the method is not limited to the method using the difference between the sensor output values Vu and Vd from the upper and lower sensor electrodes ELu and EL, and for example, the ratio of the sensor output values Vu and Vd of both is set in advance. The sensor electrode touched by the thumb 202 may be determined based on whether or not the value is larger than the threshold value.

(電子楽器の制御方法)
次に、本実施形態に係るパラメータ制御装置を適用した電子楽器の制御方法について具体的に説明する。
ここで、本実施形態に係る電子楽器の制御方法は、上述したパラメータ操作部30におけるX-Y方向の親指の接触位置の決定方法やMIDI信号への変換処理を含むものであって、上述した電子楽器100のCPU50において、特定の制御プログラムを実行することにより実現されるものである。
(Control method for electronic musical instruments)
Next, a control method of an electronic musical instrument to which the parameter control device according to the present embodiment is applied will be specifically described.
Here, the method for controlling an electronic musical instrument according to the present embodiment includes a method for determining the contact position of the thumb in the XY directions in the parameter operation unit 30 described above and a conversion process for a MIDI signal, which is described above. It is realized by executing a specific control program in the CPU 50 of the electronic musical instrument 100.

図7は、本実施形態に係る電子楽器における制御方法のメインルーチンを示すフローチャートである。
本実施形態に係る電子楽器の制御方法は、図7に示すフローチャートのように、まず、演奏者が電子楽器100の電源を投入すると、CPU50は電子楽器100の各種設定を初期化するイニシャライズ処理を実行する(ステップS702)。
FIG. 7 is a flowchart showing the main routine of the control method in the electronic musical instrument according to the present embodiment.
As for the control method of the electronic musical instrument according to the present embodiment, as shown in the flowchart shown in FIG. 7, when the performer first turns on the power of the electronic musical instrument 100, the CPU 50 performs an initialization process for initializing various settings of the electronic musical instrument 100. Execute (step S702).

次いで、CPU50は、演奏者が電子楽器100のマウスピース22を咥えることによりリップ検出部(図示を省略)から出力されるリップ(下唇)の検出情報に基づく処理を実行する(ステップS704)。 Next, the CPU 50 executes a process based on the detection information of the lip (lower lip) output from the lip detection unit (not shown) when the performer holds the mouthpiece 22 of the electronic musical instrument 100 (step S704). ..

次いで、CPU50は、マウスピース22へのタン(舌部)の接触状態に応じてタン検出部(図示を省略)から出力されるタンの検出情報に基づく処理を実行する(ステップS706)。また、CPU50は、マウスピース22に吹き込まれた息に応じて息圧検出部20から出力される息圧情報に基づく処理を実行する(ステップS708)。 Next, the CPU 50 executes a process based on the tongue detection information output from the tongue detection unit (not shown) according to the contact state of the tongue (tongue portion) with the mouthpiece 22 (step S706). Further, the CPU 50 executes a process based on the breath pressure information output from the breath pressure detection unit 20 according to the breath blown into the mouthpiece 22 (step S708).

次いで、CPU50は、操作子10の操作情報に含まれる音高情報に応じたキーコードを発生させ、音源80に供給して楽音の音高を設定するキースイッチ処理を実行する(ステップS710)。このとき、CPU50は、リップ検出部の処理(ステップS704)において、リップ検出部から入力されたリップの検出情報に基づいて、楽音の音色や音量等を調整する処理を実行する。また、CPU50は、タン検出部の処理(ステップS706)において、タン検出部から入力されたタンの検出情報に基づいて、楽音のノートオン/オフを設定する処理を実行し、息圧検出部20の処理(ステップS708)において、息圧検出部20から入力された息圧情報に基づいて、楽音の音量を設定する処理を実行する。 Next, the CPU 50 generates a key code corresponding to the pitch information included in the operation information of the operator 10, supplies the key code to the sound source 80, and executes a key switch process for setting the pitch of the musical tone (step S710). At this time, in the process of the lip detection unit (step S704), the CPU 50 executes a process of adjusting the tone color, volume, and the like of the musical tone based on the lip detection information input from the lip detection unit. Further, in the process of the tongue detection unit (step S706), the CPU 50 executes a process of setting the note on / off of the musical tone based on the tongue detection information input from the tongue detection unit, and the breath pressure detection unit 20. In the process (step S708), a process of setting the volume of the musical tone is executed based on the breath pressure information input from the breath pressure detection unit 20.

さらに、CPU50は、パラメータ操作部30から入力されたパラメータ操作情報に基づいて、予め設定された複数のエフェクト(ピッチベンドやビブラート等の音色効果)の選択と、当該エフェクトの操作量(極性や強度等)を制御する処理(ステップS712)を実行する。このパラメータ操作部30の処理は、上述したタッチパッド32における親指の接触位置を決定する手法を含むものであり、詳しくは後述する。CPU50は、これらの一連の処理により、演奏者の演奏動作に応じた楽音を生成するための指示を生成して音源80に出力する。そして、音源80は、CPU50からの楽音の生成指示に基づいて、サウンドシステム90を動作させる発音処理を実行する(ステップS714)。 Further, the CPU 50 selects a plurality of preset effects (tone effects such as pitch bend and vibrato) based on the parameter operation information input from the parameter operation unit 30, and operates the effects (polarity, intensity, etc.). ) Is executed (step S712). The process of the parameter operation unit 30 includes a method of determining the contact position of the thumb on the touch pad 32 described above, and the details will be described later. Through these series of processes, the CPU 50 generates an instruction for generating a musical tone according to the performance operation of the performer and outputs the instruction to the sound source 80. Then, the sound source 80 executes a pronunciation process for operating the sound system 90 based on a musical tone generation instruction from the CPU 50 (step S714).

その後、CPU50は、その他の必要な処理(ステップS716)を実行して一連の処理動作が終了すると、上述したステップS704からS716の処理を再度繰り返し実行する。なお、図7に示したフローチャートにおいては図示を省略したが、CPU50は、上述した一連の処理動作(ステップS702~S716)の実行中に、演奏が終了したり中断したりする状態の変化を検出した場合には、処理動作を強制的に終了する。 After that, the CPU 50 executes other necessary processing (step S716), and when the series of processing operations is completed, the CPU 50 repeatedly executes the processing of steps S704 to S716 described above. Although not shown in the flowchart shown in FIG. 7, the CPU 50 detects a change in the state in which the performance ends or is interrupted during the execution of the series of processing operations (steps S702 to S716) described above. If so, the processing operation is forcibly terminated.

(パラメータ操作部の処理)
次いで、上述したメインルーチンに示したパラメータ操作部30の処理について説明する。
図8は、本実施形態に係る電子楽器の制御方法に適用されるパラメータ操作部の処理を示すフローチャートである。図9は、本実施形態に係る電子楽器の制御方法に適用される不感帯を考慮した信号変換処理の他の例を示す図である。
(Processing of parameter operation part)
Next, the processing of the parameter operation unit 30 shown in the above-mentioned main routine will be described.
FIG. 8 is a flowchart showing the processing of the parameter operation unit applied to the control method of the electronic musical instrument according to the present embodiment. FIG. 9 is a diagram showing another example of signal conversion processing in consideration of a dead zone applied to the control method of an electronic musical instrument according to the present embodiment.

図7に示した電子楽器の制御方法に適用されるパラメータ操作部30の処理は、図8に示すフローチャートのように、まず、CPU50は、パラメータ操作部30のタッチパッド32に配列された複数のセンサ電極(上段、中段、下段の3段の電極群)から出力されるセンサ出力値を取得して、RAM7の所定の記憶領域に現在の出力値として記憶させる。これにより、RAM7の所定の記憶領域に記憶されているセンサ出力値が、現在のセンサ出力値に順次更新される(ステップS802)。ここで、パラメータ操作部30から出力されるセンサ出力値は、図3及び図6に示したような構成を有するタッチパッド32に配列された複数のセンサ電極に対して、演奏者の親指が接触することにより検出状態になると、当該時点で各センサ電極に生じる静電容量に応じた出力値が同時(又は、略同時)に検出されてCPU50に出力される。 The processing of the parameter operation unit 30 applied to the control method of the electronic musical instrument shown in FIG. 7 is as shown in the flowchart shown in FIG. The sensor output value output from the sensor electrodes (three-stage electrode group of upper, middle, and lower stages) is acquired and stored as the current output value in a predetermined storage area of the RAM 7. As a result, the sensor output value stored in the predetermined storage area of the RAM 7 is sequentially updated to the current sensor output value (step S802). Here, the sensor output value output from the parameter operation unit 30 is such that the performer's thumb contacts a plurality of sensor electrodes arranged on the touch pad 32 having the configurations shown in FIGS. 3 and 6. When the detection state is reached, the output values corresponding to the capacitance generated in each sensor electrode at that time are simultaneously (or substantially simultaneously) detected and output to the CPU 50.

次いで、CPU50は、パラメータ操作部30のタッチパッド32から出力されるセンサ出力値(現在の出力値)に基づいて、演奏者の親指がタッチパッド32に接触しているか否かを判断する(ステップS804)。ここで、親指がタッチパッド32に接触しているか否かを判断する手法としては、例えば、タッチパッド32に配列された複数のセンサ電極ELu、ELm、ELdからのセンサ出力値の総和に基づいて判断する手法を適用することができる。すなわち、算出されたセンサ出力値の総和が所定のしきい値THfingerよりも大きい場合には、親指がタッチパッド32に接触していると判断し、総和が上記しきい値THfinger以下の場合には、親指がタッチパッド32に接触していないと判断する。 Next, the CPU 50 determines whether or not the performer's thumb is in contact with the touch pad 32 based on the sensor output value (current output value) output from the touch pad 32 of the parameter operation unit 30 (step). S804). Here, as a method for determining whether or not the thumb is in contact with the touch pad 32, for example, based on the sum of the sensor output values from the plurality of sensor electrodes ELu, ELm, and ELd arranged on the touch pad 32. Judgment techniques can be applied. That is, when the total sum of the calculated sensor output values is larger than the predetermined threshold value THfinger, it is determined that the thumb is in contact with the touch pad 32, and when the total sum is equal to or less than the above threshold value THfinger. , It is determined that the thumb is not in contact with the touch pad 32.

なお、親指がタッチパッド32に接触しているか否かの判断は、上記の手法に限定されるものではなく、他の手法を適用するものであってもよい。例えば、センサ電極ELu、ELm、ELdからのセンサ出力値が全て所定値以下である場合には、親指がタッチパッド32に接触していないと判断し、センサ電極ELu、ELm、ELdのうちの半数以上のセンサ出力値が上記の所定値を超過している場合には、親指がタッチパッド32に接触していると判断する手法を適用するものであってもよい。 The determination of whether or not the thumb is in contact with the touch pad 32 is not limited to the above method, and other methods may be applied. For example, when the sensor output values from the sensor electrodes ELu, ELm, and ELd are all equal to or less than a predetermined value, it is determined that the thumb is not in contact with the touch pad 32, and half of the sensor electrodes ELu, ELm, and ELd. When the above sensor output value exceeds the above-mentioned predetermined value, the method of determining that the thumb is in contact with the touch pad 32 may be applied.

上記のステップS804において、演奏者の親指がタッチパッド32に接触していないと判断された場合(ステップS804のNo)には、CPU50は、タッチパッド32上での親指の接触位置(図8中では「pos1」と表記)の算出を行わず、7ビット表現のデフォルト値である「64」を設定した後(「pos1=64」;ステップS806)、パラメータ操作部30の処理を終了して、図7に示したメインルーチンの処理に戻る。 If it is determined in step S804 that the performer's thumb is not in contact with the touchpad 32 (No in step S804), the CPU 50 determines the thumb contact position on the touchpad 32 (in FIG. 8). Then, the calculation of "pos1") is not performed, and after setting "64" which is the default value of the 7-bit expression ("pos1 = 64"; step S806), the processing of the parameter operation unit 30 is terminated. The process returns to the processing of the main routine shown in FIG.

一方、上記のステップS804において、演奏者の親指がタッチパッド32に接触していると判断された場合(ステップS804のYes)には、CPU50は、上述したX方向の親指の接触位置算出方法、不感帯を考慮した信号変換処理、Y方向の親指の接触位置判断方法を含む一連の処理動作を実行する。 On the other hand, when it is determined in step S804 that the performer's thumb is in contact with the touch pad 32 (Yes in step S804), the CPU 50 determines the thumb contact position calculation method in the X direction described above. A series of processing operations including a signal conversion process considering a dead zone and a method of determining the contact position of the thumb in the Y direction are executed.

具体的には、CPU50は、まず、タッチパッド32の中段のセンサ電極群ELmに配列された各センサ電極cap1~cap9からのセンサ出力値に対して、上述した重心位置(加重平均)の算出方法を適用して、X方向の親指の接触位置pos1を算出する(ステップS808)。ここで、重心位置の算出方法により求められた接触位置pos1は、1.0~9.0の小数を含む数値で表されるので、これをMIDI信号として利用するために0~127の整数値に割り当てられる。このように、X方向の親指の接触位置pos1は128段階の高い解像度で決定される。決定されたX方向の親指の接触位置pos1は、RAM70の所定の記憶領域に記憶される。 Specifically, the CPU 50 first calculates the center of gravity position (weighted average) described above with respect to the sensor output values from the sensor electrodes cap1 to cap9 arranged in the sensor electrode group ELm in the middle stage of the touchpad 32. Is applied to calculate the contact position pos1 of the thumb in the X direction (step S808). Here, since the contact position pos1 obtained by the method of calculating the center of gravity position is represented by a numerical value including a decimal number of 1.0 to 9.0, it is assigned to an integer value of 0 to 127 in order to use this as a MIDI signal. In this way, the contact position pos1 of the thumb in the X direction is determined with a high resolution of 128 steps. The determined thumb contact position pos1 in the X direction is stored in a predetermined storage area of the RAM 70.

次いで、CPU50は、X方向の接触位置pos1について、上述した不感帯を考慮した信号変換処理の手法を適用して、MIDI信号の数値に変換する(pos1→pos2)。 Next, the CPU 50 converts the contact position pos1 in the X direction into a numerical value of a MIDI signal by applying the above-mentioned signal conversion processing method in consideration of the dead zone (pos1 → pos2).

具体的には、CPU50は、予め複数の不感帯DZ1、DZ2、DZ3を規定するしきい値THdL、THdc1、THdc2、THdRを設定しておき、X方向の親指の接触位置算出方法により算出され、0~127の整数値に割り当てられたX方向の接触位置pos1について、例えば図9に示す信号変換特性の入力側(横軸)の、不感帯DZ1、DZ2、DZ3を含む5つのエリアのどのエリアに該当するかを判別する(ステップS810)。このステップS810の判別処理において、接触位置pos1の数値がしきい値THdL未満の不感帯DZ1の領域に含まれる場合には、図9に示すように、pos2=0に変換される(ステップS812)。また、接触位置pos1の数値がしきい値THdL以上THdc1未満の場合には、図9に示すように、所定の傾きの一次関数からなる特性線に基づいてpos2が算出され、0~64の範囲の数値に変換される(ステップS814)。また、接触位置pos1の数値がしきい値THdc1以上THdc2未満の不感帯DZ2の領域に含まれる場合には、図9に示すように、pos2=64に変換される(ステップS816)。また、接触位置pos1の数値がしきい値THdc2以上THdR未満の場合には、図9に示すように、所定の傾きの一次関数からなる特性線に基づいてpos2が算出され、64~127の範囲の数値に変換される(ステップS818)。また、接触位置pos1の数値がしきい値THdR以上の不感帯DZ3の領域に含まれる場合には、図9に示すように、pos2=127に変換される(ステップS820)。このようにして変換処理された接触位置pos2の数値は、RAM70の所定の記憶領域に記憶される。 Specifically, the CPU 50 has thresholds THdL, THdc1, THdc2, and THdR that define a plurality of dead zones DZ1, DZ2, and DZ3 in advance, and is calculated by a method of calculating the contact position of the thumb in the X direction to 0. The contact position pos1 in the X direction assigned to the integer values of ~ 127 corresponds to any of the five areas including the dead zones DZ1, DZ2, and DZ3 on the input side (horizontal axis) of the signal conversion characteristic shown in FIG. It is determined whether or not to do so (step S810). In the discrimination process of step S810, when the numerical value of the contact position pos1 is included in the region of the dead zone DZ1 which is less than the threshold value THdL, it is converted to pos2 = 0 as shown in FIG. 9 (step S812). When the value of the contact position pos1 is equal to or more than the threshold value THdL and less than THdc1, pos2 is calculated based on the characteristic line consisting of a linear function of a predetermined slope as shown in FIG. 9, and is in the range of 0 to 64. It is converted into the numerical value of (step S814). Further, when the numerical value of the contact position pos1 is included in the region of the dead zone DZ2 having the threshold value THdc1 or more and less than THdc2, it is converted to pos2 = 64 as shown in FIG. 9 (step S816). When the value of the contact position pos1 is equal to or more than the threshold value THdc2 and less than THdR, pos2 is calculated based on the characteristic line consisting of a linear function of a predetermined slope as shown in FIG. 9, and is in the range of 64 to 127. It is converted into the numerical value of (step S818). Further, when the numerical value of the contact position pos1 is included in the region of the dead zone DZ3 having the threshold value THdR or more, it is converted to pos2 = 127 as shown in FIG. 9 (step S820). The numerical value of the contact position pos2 thus converted is stored in a predetermined storage area of the RAM 70.

次いで、CPU50は、上述したY方向の親指の接触位置を判断する処理の手法を適用して、Y方向の親指の接触位置を算出する。具体的には、CPU50は、まず、タッチパッド32に配列された上段のセンサ電極ELu及び下段のセンサ電極ELdからのセンサ出力値Vu、Vdに対して、その差(Vu-Vd)が予め設定されたしきい値THdiffよりも大きく、かつ、上段のセンサ電極ELuからのセンサ出力値Vuが予め設定されたしきい値THon以上であるか否かを判別する(ステップS822)。ステップS822の判別処理において、センサ出力値Vu、Vdの差(Vu-Vd)がしきい値THdiffよりも大きく、かつ、センサ出力値Vuがしきい値THon以上である場合(ステップS822のYes)には、CPU50は、親指が上段のセンサ電極ELuに接触又は近接する位置にある(posUD=up)と判断する(ステップS824)。 Next, the CPU 50 calculates the contact position of the thumb in the Y direction by applying the above-mentioned method of processing for determining the contact position of the thumb in the Y direction. Specifically, the CPU 50 first sets in advance the difference (Vu-Vd) with respect to the sensor output values Vu and Vd from the upper sensor electrodes ELu and the lower sensor electrodes ELd arranged on the touch pad 32. It is determined whether or not the sensor output value Vu from the upper sensor electrode ELu is larger than the set threshold value THdiff and is equal to or higher than the preset threshold value THon (step S822). In the discrimination process of step S822, when the difference between the sensor output values Vu and Vd (Vu-Vd) is larger than the threshold value THdiff and the sensor output value Vu is equal to or more than the threshold value THon (Yes in step S822). The CPU 50 determines that the thumb is in contact with or close to the upper sensor electrode ELu (posUD = up) (step S824).

一方、ステップS822の判別処理において、センサ出力値Vu、Vdの差(Vu-Vd)がしきい値THdiffよりも小さく、また、センサ出力値Vuがしきい値THon未満である場合(ステップS822のNo)には、CPU50は、センサ出力値Vu、Vdの差(Vd-Vu)がしきい値THdiffよりも大きく、かつ、センサ出力値Vdがしきい値THon以上であるか否かを判別する(ステップS826)。ステップS826の判別処理において、センサ出力値Vu、Vdの差(Vd-Vu)がしきい値THdiffよりも大きく、かつ、センサ出力値Vdがしきい値THon以上である場合(ステップS826のYes)には、CPU50は、親指が下段のセンサ電極ELdに接触又は近接する位置にある(posUD=down)と判断する(ステップS828)。 On the other hand, in the discrimination process of step S822, when the difference between the sensor output values Vu and Vd (Vu-Vd) is smaller than the threshold value THdiff and the sensor output value Vu is less than the threshold value THon (step S822). In No), the CPU 50 determines whether or not the difference between the sensor output values Vu and Vd (Vd-Vu) is larger than the threshold value THdiff and the sensor output value Vd is equal to or higher than the threshold value THon. (Step S826). In the discrimination process of step S826, when the difference between the sensor output values Vu and Vd (Vd-Vu) is larger than the threshold value THdiff and the sensor output value Vd is equal to or more than the threshold value THon (Yes in step S826). The CPU 50 determines that the thumb is in contact with or close to the lower sensor electrode ELd (posUD = down) (step S828).

一方、ステップS826の判別処理において、センサ出力値Vu、Vdの差(Vd-Vu)がしきい値THdiffよりも小さく、かつ、センサ出力値Vdがしきい値THon未満である場合(ステップS826のNo)には、CPU50は、親指が上段及び下段のセンサ電極ELu、ELdのいずれにも接触又は近接しておらず、中段のセンサ電極群ELmに接触又は近接する位置にある(posUD=middle)と判断する(ステップS830)。このように、Y方向の親指の接触位置posUDは上、中、下の3段階の低い解像度で決定される。タッチパッド32上での上、中、下の位置が決定されたY方向の親指の接触位置posUDは、RAM70の所定の記憶領域に記憶される。 On the other hand, in the discrimination process of step S826, when the difference between the sensor output values Vu and Vd (Vd-Vu) is smaller than the threshold value THdiff and the sensor output value Vd is less than the threshold value THon (step S826). In No), the CPU 50 is at a position where the thumb is not in contact with or close to any of the upper and lower sensor electrodes ELu and ELd, but is in contact with or close to the middle sensor electrode group ELm (posUD = middle). (Step S830). In this way, the contact position posUD of the thumb in the Y direction is determined by three lower resolutions of upper, middle, and lower. The Y-direction thumb contact position posUD whose upper, middle, and lower positions on the touchpad 32 are determined is stored in a predetermined storage area of the RAM 70.

次いで、CPU50は、上述したように決定されたY方向の親指の接触位置posUDに基づいて、パラメータ設定部40により予めタッチパッド32に関連付けられたエフェクトを選択し、X方向の親指の接触位置pos2に基づいて、選択されたエフェクトの操作量(極性や強度等)を設定する。これにより、CPU50は、X-Y方向の接触位置pos2、posUDに基づく値を付与したMIDI信号を発行し(ステップS832)、タッチパッド32への親指による操作に応じたエフェクトが付与された楽音を生成する際に、当該MIDI信号を利用する。その後、CPU50は、パラメータ操作部30の処理を終了して、図7に示したメインルーチンの処理に戻る。 Next, the CPU 50 selects an effect previously associated with the touchpad 32 by the parameter setting unit 40 based on the thumb contact position posUD in the Y direction determined as described above, and the thumb contact position pos2 in the X direction. Set the operation amount (polarity, intensity, etc.) of the selected effect based on. As a result, the CPU 50 issues a MIDI signal with values based on the contact positions pos2 and posUD in the XY directions (step S832), and produces a musical tone with an effect corresponding to the operation of the touch pad 32 with the thumb. The MIDI signal is used when generating. After that, the CPU 50 ends the processing of the parameter operation unit 30, and returns to the processing of the main routine shown in FIG. 7.

(パラメータの制御方法)
次に、上述した電子楽器の制御方法に適用されるパラメータの制御方法について説明する。ここでは、上述した電子楽器の制御方法により実現されるエフェクト等のパラメータを連続的に制御した場合の電子楽器の動作について説明する。
(Parameter control method)
Next, a parameter control method applied to the electronic musical instrument control method described above will be described. Here, the operation of the electronic musical instrument when parameters such as effects realized by the above-mentioned control method of the electronic musical instrument are continuously controlled will be described.

図10は、本実施形態に係る電子楽器の制御方法に適用されるパラメータの第1の制御方法を示す図である。図10(a)はタッチパッドにおける操作状況を示す概略図であり、図10(b)~(d)はタッチパッドの各電極から出力されるセンサ出力値の変化を示す図であり、図10(e)はタッチパッドの各電極から出力されるセンサ出力値を示す表である。図11は、本実施形態に係る電子楽器の制御方法に適用されるパラメータの第2の制御方法を示す図である。図11(a)~(c)はタッチパッドの各電極から出力されるセンサ出力値の変化を示す図であり、図11(d)はタッチパッドの各電極から出力されるセンサ出力値を示す表である。 FIG. 10 is a diagram showing a first control method of parameters applied to the control method of the electronic musical instrument according to the present embodiment. 10 (a) is a schematic diagram showing an operation state in the touch pad, and FIGS. 10 (b) to 10 (d) are diagrams showing changes in the sensor output value output from each electrode of the touch pad, and FIG. 10A is a diagram. (E) is a table showing the sensor output value output from each electrode of the touch pad. FIG. 11 is a diagram showing a second control method of parameters applied to the control method of the electronic musical instrument according to the present embodiment. 11 (a) to 11 (c) are diagrams showing changes in the sensor output values output from each electrode of the touch pad, and FIGS. 11 (d) show the sensor output values output from each electrode of the touch pad. It is a table.

上述した実施形態においては、図3や図6に示したように、パラメータ操作部30のタッチパッド32に配列された電極群により、親指202の接触領域が決定されて、予め関連付けられたエフェクトが選択されるとともに、そのエフェクトの操作量(極性や強度等)が決定される。ここで、本実施形態に係るパラメータの第1の制御方法においては、親指202がタッチパッド32上の特定の領域に載置された状態から別の領域に移動した場合には、CPU50は、先の領域において決定されたエフェクトを保持する制御を実行する。 In the above-described embodiment, as shown in FIGS. 3 and 6, the contact area of the thumb 202 is determined by the electrode group arranged on the touch pad 32 of the parameter operation unit 30, and the pre-associated effect is produced. At the same time as being selected, the operation amount (polarity, intensity, etc.) of the effect is determined. Here, in the first control method of the parameter according to the present embodiment, when the thumb 202 is moved from the state of being placed on the specific area on the touch pad 32 to another area, the CPU 50 is first. Performs control to retain the determined effect in the area of.

例えば、タッチパッド32に配列された上段のセンサ電極ELu、中段のセンサ電極群ELm、下段のセンサ電極ELdについて、パラメータとして便宜的に、それぞれA、B、Cの音のエフェクトが関連付けられている場合、同一のエフェクトを選択した状態を保持して操作量を変更した場合には、当該操作量の変化に応じたエフェクトが実行される。一方、他のエフェクトを選択した場合には、先に選択されたエフェクトは実行状態が保持(ロック)される。 For example, for the upper sensor electrode ELu, the middle sensor electrode group ELm, and the lower sensor electrode ELd arranged on the touch pad 32, the sound effects of A, B, and C are associated with each other for convenience as parameters. In this case, if the same effect is kept selected and the operation amount is changed, the effect corresponding to the change in the operation amount is executed. On the other hand, when another effect is selected, the execution state of the previously selected effect is retained (locked).

具体的には、第1の制御方法において、図10(a)に示すように、タッチパッド32の電極群に対して、親指202を「1」→「2」→・・・→「5」の領域に順次移動させた場合のエフェクトの実行状態は、図10(b)~(e)のように示される。ここで、「1」はAのエフェクトが選択された状態であって、その操作量の値は30である。「2」はAのエフェクトが選択された状態であって、その操作量の値は10である。「3」はCのエフェクトが選択された状態であって、その操作量の値は120である。「4」はBのエフェクトが選択された状態であって、その操作量の値は120である。「5」はAのエフェクトが選択された状態であって、その操作量の値は100である。
すなわち、第1の制御方法においては、各エフェクトA、B、Cについて、次に選択されて操作量が変化するまで、直近の実行状態が保持されることになる。
Specifically, in the first control method, as shown in FIG. 10A, the thumb 202 is “1” → “2” → ... → “5” with respect to the electrode group of the touch pad 32. The execution state of the effect when the effect is sequentially moved to the area of (b) to (e) is shown as shown in FIGS. 10 (b) to 10 (e). Here, "1" is a state in which the effect of A is selected, and the value of the operation amount is 30. “2” is a state in which the effect of A is selected, and the value of the manipulated variable is 10. “3” is a state in which the effect of C is selected, and the value of the operation amount is 120. “4” is a state in which the effect of B is selected, and the value of the operation amount is 120. “5” is a state in which the effect of A is selected, and the value of the operation amount is 100.
That is, in the first control method, the latest execution state of each effect A, B, and C is maintained until the next selection and the operation amount changes.

また、本実施形態に係るパラメータの第2の制御方法においては、親指202がタッチパッド32上の特定の領域に載置された状態から別の領域に移動した場合には、CPU50は、先の領域において決定されたエフェクトをデフォルト値にリセットする制御を実行する。 Further, in the second control method of the parameter according to the present embodiment, when the thumb 202 is moved from the state of being placed on the specific area on the touch pad 32 to another area, the CPU 50 is described above. Executes control to reset the determined effect in the area to the default value.

上述した第1の制御方法と同等の設定において、同一のエフェクトを選択した状態を保持して操作量を変更した場合には、当該操作量の変化に応じたエフェクトが実行される。一方、他のエフェクトを選択した場合には、先に選択されたエフェクトは実行状態がリセットされる。 When the operation amount is changed while keeping the same effect selected in the same setting as the first control method described above, the effect corresponding to the change in the operation amount is executed. On the other hand, when another effect is selected, the execution state of the previously selected effect is reset.

具体的には、第2の制御方法において、図10(a)に示したように、タッチパッド32の電極群に対して、親指202を「1」→「2」→・・・→「5」の領域に順次移動させた場合のエフェクトの実行状態は、図11(a)~(d)のように示される。
すなわち、第2の制御方法においては、各エフェクトA、B、Cについて、非選択状態では操作量がデフォルト値「64」にリセットされ、選択状態でのみ決定された操作量でエフェクトが実行されることになる。
Specifically, in the second control method, as shown in FIG. 10A, the thumb 202 is “1” → “2” → ... → “5” with respect to the electrode group of the touch pad 32. The execution state of the effect when the effect is sequentially moved to the area of "" is shown as shown in FIGS. 11A to 11D.
That is, in the second control method, for each effect A, B, and C, the operation amount is reset to the default value "64" in the non-selected state, and the effect is executed only in the selected state with the determined operation amount. It will be.

また、上述したパラメータの制御方法において、実際の演奏中に、演奏者がタッチパッド32から親指を離した場合等に、選択されたエフェクトの実行状態が保持され続けると、不具合が生じる場合がある。そこで、第1及び第2の制御方法においては、このような状況が発生した場合には、A、B、Cの3つのエフェクトの実行状態をリセットして、デフォルト値に戻す制御を実行する。このようなリセット制御は、例えば、(1)指がタッチパッド32から離れて2秒間が経過した場合、(2)マウスピース22を口から離した瞬間、(3)ブレス(息)が無くなってから2秒間が経過した場合、(4)音高を決めるためのキー入力が無い状態が2秒間継続した場合等を、起動条件(トリガー)として実行される。なお、実際の電子楽器に本実施形態を適用する場合には、これらの条件の実行適用の可否を演奏者が任意に選択できるようにすることが望ましい。 Further, in the above-mentioned parameter control method, if the execution state of the selected effect is continuously maintained, such as when the performer releases his / her thumb from the touch pad 32 during the actual performance, a problem may occur. .. Therefore, in the first and second control methods, when such a situation occurs, the execution state of the three effects A, B, and C is reset and the control to return to the default value is executed. Such reset control is, for example, (1) when the finger is separated from the touch pad 32 for 2 seconds, (2) the moment the mouthpiece 22 is released from the mouth, (3) the breath (breath) disappears. It is executed as an activation condition (trigger) when 2 seconds have passed since then, or when (4) there is no key input for determining the pitch for 2 seconds. When applying the present embodiment to an actual electronic musical instrument, it is desirable that the performer can arbitrarily select whether or not to apply these conditions.

このように、本実施形態においては、演奏者が演奏時に電子楽器を両手で支えて保持したときに、親指が当接する領域に、特定の方向(X方向)にスライダーとして機能するセンサ電極群と、当該センサ電極群に近接して平行に配置され、所定のパラメータの選択機能を有するセンサ電極とを備えたタッチパッドが設けられている。そして、親指202がタッチパッド32に触れたときに、スライダーを構成する中段のセンサ電極群ELmへの接触状態に基づいて、親指202のX方向の接触位置を検出してエフェクトの操作量(極性や強度等)を決定している。また、上段のセンサ電極ELu又は下段のセンサ電極ELdへの接触状態に基づいて、親指202のY方向の接触位置を検出して実行するエフェクトの選択を行っている。 As described above, in the present embodiment, when the performer supports and holds the electronic musical instrument with both hands during performance, the sensor electrode group that functions as a slider in a specific direction (X direction) in the region where the thumb abuts. , A touch pad is provided that is arranged in parallel in close proximity to the sensor electrode group and has a sensor electrode having a predetermined parameter selection function. Then, when the thumb 202 touches the touch pad 32, the contact position of the thumb 202 in the X direction is detected based on the contact state with the sensor electrode group ELm in the middle stage constituting the slider, and the operation amount (polarity) of the effect is detected. And strength etc.). Further, the effect of detecting and executing the contact position of the thumb 202 in the Y direction is selected based on the contact state with the upper sensor electrode ELu or the lower sensor electrode ELd.

したがって、本実施形態によれば、同じ親指をタッチパッド上で上下左右方向に移動させる簡易な操作で、所定のパラメータを選択しつつ、当該パラメータの操作量を制御することができ、複数の制御パラメータを効率的に制御することができる。 Therefore, according to the present embodiment, it is possible to control the operation amount of the parameter while selecting a predetermined parameter by a simple operation of moving the same thumb up / down / left / right on the touch pad, and a plurality of controls can be performed. The parameters can be controlled efficiently.

なお、上述した実施形態においては、パラメータ操作部のタッチパッドに配列される電極群の構成として、複数のセンサ電極がX方向に配列されたスライダーを構成する中段のセンサ電極群ELmと、中段のセンサ電極群ELmの配列方向と平行に延在するように配置された上段のセンサ電極ELuと下段のセンサ電極ELdとを有する3段の電極群からなる構成を示したが、本発明はこれに限定されるものではない。すなわち、本発明は、少なくとも1以上のスライダーとなる電極群と、それらに平行(同方向)に近接して延在するように配置された1以上の直線状の電極とを有するものであればよい。したがって、スライダーを構成するセンサ電極群ELmと、上段のセンサ電極ELu又は下段のセンサ電極ELdのいずれか一方とからなる構成を有するものであってもよいし、上段のセンサ電極ELuと下段のセンサ電極ELdとの間に、スライダーを構成するセンサ電極群が平行に複数列配置されているものであってもよい。 In the above-described embodiment, as the configuration of the electrode group arranged on the touch pad of the parameter operation unit, the middle sensor electrode group ELm constituting the slider in which a plurality of sensor electrodes are arranged in the X direction and the middle sensor electrode group ELm are used. The present invention has shown a configuration consisting of a three-stage electrode group having an upper sensor electrode ELu and a lower sensor electrode ELd arranged so as to extend parallel to the arrangement direction of the sensor electrode group ELm. Not limited. That is, the present invention has at least one group of electrodes serving as sliders and one or more linear electrodes arranged so as to extend in parallel (in the same direction) close to each other. good. Therefore, it may have a configuration consisting of either the sensor electrode group ELm constituting the slider and either the upper sensor electrode ELu or the lower sensor electrode ELd, or the upper sensor electrode ELu and the lower sensor. A plurality of sensor electrode groups constituting the slider may be arranged in parallel with the electrode ELd.

(変形例)
次に、本実施形態の変形例について説明する。
図12は、本実施形態に係る変形例を示す概略図である。
上述した実施形態においては、パラメータ操作部30のタッチパッド32に配列される電極群として、上、中、下の3段の電極群を有し、中段が複数のセンサからなるスライダー構造を有し、上下段がそれぞれ直線状の単一の電極からなる構造を有している場合について説明した。
(Modification example)
Next, a modification of the present embodiment will be described.
FIG. 12 is a schematic view showing a modified example according to the present embodiment.
In the above-described embodiment, as the electrode group arranged on the touch pad 32 of the parameter operation unit 30, the electrode group has three stages of upper, middle, and lower, and the middle stage has a slider structure composed of a plurality of sensors. , The case where the upper and lower stages each have a structure consisting of a single linear electrode has been described.

本変形例においては、正方形等の均一な平面形状を有する複数の電極を、X-Y方向にマトリクス状(格子状)に配列した構造を有している。図12ではX方向(図面左右方向)に9個配列し、Y方向(図面上下方向)に3個配列した、9×3のマトリクス状に配置された構成を示す。ここで、上段、中段、下段の各センサ電極群は、それぞれ、上述したタッチパッド32における上段のセンサ電極ELu、中段のセンサ電極群ELm、下段のセンサ電極ELdに対応する。 In this modification, a plurality of electrodes having a uniform planar shape such as a square are arranged in a matrix shape (lattice shape) in the XY directions. FIG. 12 shows a configuration in which nine pieces are arranged in the X direction (horizontal direction in the drawing) and three pieces are arranged in the Y direction (vertical direction in the drawing), arranged in a 9 × 3 matrix. Here, each of the upper, middle, and lower sensor electrode groups corresponds to the upper sensor electrode ELu, the middle sensor electrode group ELm, and the lower sensor electrode ELd in the above-mentioned touch pad 32, respectively.

このような電極配置においては、各電極から出力されるセンサ値から最大値となる電極を抽出することにより、親指の接触位置を適切に決定することができる。したがって、上述した実施形態に示したような重心位置の算出方法や、上下段に配列された電極からのセンサ値としきい値とを比較する方法を用いることなく、親指の位置に基づいて、上述したパラメータ(エフェクト)の選択や操作量(極性や強度等)の制御を行うことができる。なお、この変形例においても、上述した実施形態に示した不感帯を考慮した変換処理やパラメータの制御方法、後述するY方向の多段制御を良好に適用することができる。 In such an electrode arrangement, the contact position of the thumb can be appropriately determined by extracting the electrode having the maximum value from the sensor values output from each electrode. Therefore, the above-mentioned method is based on the position of the thumb without using the method of calculating the position of the center of gravity as shown in the above-described embodiment or the method of comparing the sensor values from the electrodes arranged in the upper and lower stages with the threshold value. It is possible to select the selected parameters (effects) and control the operation amount (polarity, intensity, etc.). Also in this modification, the conversion process and the parameter control method in consideration of the dead zone shown in the above-described embodiment, and the multi-stage control in the Y direction described later can be satisfactorily applied.

<第2の実施形態>
次に、本発明に係る電子楽器に適用されるパラメータ操作部の制御処理の第2の実施形態について説明する。ここで、上述した第1の実施形態と同等の構成や方法についてはその説明を簡略化する。
<Second embodiment>
Next, a second embodiment of the control process of the parameter operation unit applied to the electronic musical instrument according to the present invention will be described. Here, the description of the configuration and method equivalent to those of the first embodiment described above will be simplified.

図13は、第2の実施形態に係るパラメータ操作部の制御方法を示す図である。図13(a)は、タッチパッドへの親指の接触状態を示す概略図であり、図13(b)~(e)は、タッチパッドにおけるセンサ出力値の分布例を示す図と、当該分布に基づいて算出される接触位置を示す表である。図14は、本実施形態に係るパラメータ操作部の制御処理を示すフローチャートである。 FIG. 13 is a diagram showing a control method of the parameter operation unit according to the second embodiment. 13 (a) is a schematic view showing the contact state of the thumb with the touch pad, and FIGS. 13 (b) to 13 (e) are a diagram showing an example of distribution of the sensor output value in the touch pad and the distribution. It is a table which shows the contact position calculated based on. FIG. 14 is a flowchart showing a control process of the parameter operation unit according to the present embodiment.

上述した第1の実施形態においては、タッチパッド32に配列された3段の電極群のそれぞれに、パラメータとしてのエフェクトを関連付けて、Y方向の親指の接触状態に応じて、3つのエフェクトから1つを選択する制御方法を示した。第2の実施形態においては、第1の実施形態と同等の構成を有しつつ、より多くのパラメータを関連付けて選択することができる制御方法を有している。 In the first embodiment described above, an effect as a parameter is associated with each of the three-stage electrode group arranged on the touch pad 32, and one of the three effects is selected according to the contact state of the thumb in the Y direction. The control method to select one is shown. The second embodiment has the same configuration as that of the first embodiment, but has a control method capable of associating and selecting more parameters.

本実施形態においては、図13(a)に示すように、親指が接触するタッチパッド32は、上述した第1の実施形態と同等に、スライダーを構成する中段のセンサ電極群ELmと、中段のセンサ電極群ELmの配列方向と平行に延在するように配置された上段のセンサ電極ELuと下段のセンサ電極ELdとを有する3段の電極群から構成されている。そして、このようなタッチパッド32において、上述した第1の実施形態においてX方向の親指の接触位置を求めるために適用した重心位置の算出方法と同等の手法を、タッチパッド32のY方向にも適用して、センサ電極の配列に関わらず、重心位置として算出される接触位置に基づいてパラメータとしてのエフェクトを関連付ける。 In the present embodiment, as shown in FIG. 13A, the touch pad 32 to which the thumb contacts is the same as that of the first embodiment described above, that is, the sensor electrode group ELm in the middle stage constituting the slider and the sensor electrode group ELm in the middle stage. The sensor electrode group is composed of a three-stage electrode group having an upper sensor electrode ELu and a lower sensor electrode ELd arranged so as to extend parallel to the arrangement direction of the sensor electrode group ELm. Then, in such a touch pad 32, the same method as the method for calculating the position of the center of gravity applied for obtaining the contact position of the thumb in the X direction in the first embodiment described above is applied to the Y direction of the touch pad 32. When applied, the effect as a parameter is associated based on the contact position calculated as the center of gravity position, regardless of the arrangement of the sensor electrodes.

具体的には、まず、上述した第1の実施形態と同様に、図8のフローチャートに示すパラメータ操作部30の処理において、ステップS802~S808の処理を実行して、タッチパッド32に親指202が接触している状態における、X方向の接触位置pos1を、重心位置の算出方法を適用して算出する。次いで、ステップS810~S820の処理を実行して、算出された接触位置pos1を、不感帯を考慮した位置情報(pos2)へ変換する。 Specifically, first, in the process of the parameter operation unit 30 shown in the flowchart of FIG. 8, the processes of steps S802 to S808 are executed, and the thumb 202 is attached to the touch pad 32, as in the first embodiment described above. The contact position pos1 in the X direction in the state of contact is calculated by applying the method for calculating the position of the center of gravity. Next, the processes of steps S810 to S820 are executed to convert the calculated contact position pos1 into position information (pos2) in consideration of the dead zone.

次いで、本実施形態においては、Y方向の親指の接触位置を算出する処理として、図14のフローチャートに示すように、CPU50は、X方向の親指の接触位置を算出する際に取得した、中段のセンサ電極群ELmに配列された各センサ電極cap1~cap9からのセンサ出力値について最大値を抽出し(ステップS1302)、その最大値の80%の値をしきい値THVとして設定する(ステップS1304)。 Next, in the present embodiment, as a process of calculating the contact position of the thumb in the Y direction, as shown in the flowchart of FIG. 14, the CPU 50 has acquired the contact position of the thumb in the X direction in the middle stage. The maximum value is extracted from each sensor output value from each sensor electrode cap1 to cap9 arranged in the sensor electrode group ELm (step S1302), and a value of 80% of the maximum value is set as a threshold value THV (step S1304). ..

次いで、CPU50は、センサ電極cap1~cap9からのセンサ出力値のうち、しきい値THVを超えたセンサ値の平均値をaveHとして算出する(ステップS1306)。 Next, the CPU 50 calculates the average value of the sensor values exceeding the threshold value THV among the sensor output values from the sensor electrodes cap1 to cap9 as aveH (step S1306).

次いで、CPU50は、算出された平均値aveHを、中段のセンサ電極群ELmのセンサ出力値に設定し、上段のセンサ電極ELuからのセンサ出力値Vu、及び、下段のセンサ電極ELdのセンサ出力値Vdと、中段のセンサ電極群ELmのセンサ出力値の平均値aveHとに基づいて、重心位置の算出方法を適用して、Y方向の親指の接触位置posVを算出する。ここでは、上段のセンサ電極ELuの位置を「1.0」、下段のセンサ電極ELdの位置を「3.0」として、1.0~3.0の範囲で重心位置を算出することによりY方向の接触位置posVが算出される(ステップS1308)。 Next, the CPU 50 sets the calculated average value aveH to the sensor output value of the sensor electrode group ELm in the middle stage, the sensor output value Vu from the upper sensor electrode ELu, and the sensor output value of the lower sensor electrode ELd. Based on Vd and aveH, which is the average value of the sensor output values of the sensor electrode group ELm in the middle stage, the method for calculating the position of the center of gravity is applied to calculate the contact position posV of the thumb in the Y direction. Here, the contact position posV in the Y direction is calculated by calculating the center of gravity position in the range of 1.0 to 3.0, where the position of the upper sensor electrode ELu is "1.0" and the position of the lower sensor electrode ELd is "3.0". (Step S1308).

次いで、CPU50は、算出された接触位置posVをMIDI信号として利用する場合には、次の(32)式を用いて0~127の整数値に割り当てる。なお、X方向の接触位置pos2については、上述した(12)式と同一の(31)式を用いて0~127の整数値に割り当てられる。これにより、CPU50は、X-Y方向の接触位置pos2、posVに基づく値を付与したMIDI信号を発行する(ステップS1310)。その後、CPU50は、パラメータ操作部30の処理を終了して、図7に示したメインルーチンの処理に戻る。 Next, when the calculated contact position posV is used as a MIDI signal, the CPU 50 assigns it to an integer value from 0 to 127 using the following equation (32). The contact position pos2 in the X direction is assigned to an integer value from 0 to 127 using the same equation (31) as the equation (12) described above. As a result, the CPU 50 issues a MIDI signal with values based on the contact positions pos2 and posV in the XY directions (step S1310). After that, the CPU 50 ends the processing of the parameter operation unit 30, and returns to the processing of the main routine shown in FIG. 7.

Figure 0007041387000004
Figure 0007041387000004

上述したような制御方法においては、図13(a)に示すように、親指をタッチパッド32に接触した状態で、中段のセンサ電極群ELmの各センサ電極cap1~cap9から得られるセンサ出力値に基づいて、例えば図13(b)~(e)に示すような出力値の分布が得られる。すなわち、図13(a)に示すように、親指を上段のセンサ電極ELuにのみに接触させた状態(図中、IIBの位置)では、図13(b)に示すようなセンサ出力値の分布が得られ、親指を上段のセンサ電極ELuと中段のセンサ電極群ELmのセンサ電極cap4に接触させた状態(図中、IICの位置)では、図13(c)に示すようなセンサ出力値の分布が得られた。また、親指を中段のセンサ電極群ELmのセンサ電極cap4にのみに接触させた状態(図中、IIDの位置)では、図13(d)に示すようなセンサ出力値の分布が得られ、親指を下段のセンサ電極ELdにのみに接触させた状態(図中、IIEの位置)では、図13(e)に示すようなセンサ出力値の分布が得られた。そして、図13(b)~(e)の各センサ出力値の分布に基づいて、センサ出力値の平均値aveHを算出し、Y方向の重心位置を算出することにより親指の接触位置posVが算出される。 In the control method as described above, as shown in FIG. 13A, the sensor output values obtained from the sensor electrodes cap1 to cap9 of the sensor electrode group ELm in the middle stage are obtained with the thumb in contact with the touch pad 32. Based on this, for example, a distribution of output values as shown in FIGS. 13 (b) to 13 (e) can be obtained. That is, as shown in FIG. 13 (a), in a state where the thumb is in contact with only the upper sensor electrode ELu (position of IIB in the figure), the distribution of the sensor output values as shown in FIG. 13 (b). Is obtained, and in the state where the thumb is in contact with the upper sensor electrode ELu and the sensor electrode cap4 of the middle sensor electrode group ELm (position of IIC in the figure), the sensor output value as shown in FIG. 13 (c) is obtained. The distribution was obtained. Further, in the state where the thumb is in contact with only the sensor electrode cap4 of the sensor electrode group ELm in the middle stage (position of IID in the figure), the distribution of the sensor output value as shown in FIG. 13 (d) is obtained, and the thumb is obtained. Was in contact with only the lower sensor electrode ELd (position of IIE in the figure), the distribution of the sensor output values as shown in FIG. 13 (e) was obtained. Then, based on the distribution of each sensor output value in FIGS. 13 (b) to 13 (e), the average value aveH of the sensor output values is calculated, and the position of the center of gravity in the Y direction is calculated to calculate the contact position posV of the thumb. Will be done.

ここで、接触位置posVは、1.0~3.0の範囲の小数を含む数値で得られるが、親指の電極との接触状態に応じて異なる特徴の数値が得られるので、重心位置の1.0~3.0の範囲を複数に分割して、それらの分割範囲毎に任意のパラメータを関連付けるたり、重心位置に応じて操作量を関連付けたりすることにより、タッチパッド32のY方向に配列された電極群の段数に関わらず、任意の数のパラメータや操作量を制御することができる。また、タッチパッドやセンサ電極等の面積を変えることなく、設定可能なパラメータを増やすことができる。 Here, the contact position posV can be obtained as a numerical value including a decimal number in the range of 1.0 to 3.0, but since a numerical value having different characteristics can be obtained depending on the contact state with the electrode of the thumb, the range of the center of gravity position is in the range of 1.0 to 3.0. Is divided into a plurality of parts, and any parameter is associated with each division range, or the operation amount is associated with the position of the center of gravity, regardless of the number of stages of the electrode group arranged in the Y direction of the touch pad 32. Instead, any number of parameters and manipulation amounts can be controlled. In addition, the parameters that can be set can be increased without changing the area of the touch pad, the sensor electrode, or the like.

したがって、本実施形態によれば、同じ親指をタッチパッド上で上下左右方向に移動させる簡易な操作で、予め設定されたより多くのパラメータから所定のパラメータを選択しつつ、当該パラメータの操作量を制御することができ、複数の制御パラメータを効率的に制御することができる。 Therefore, according to the present embodiment, the operation amount of the parameter is controlled while selecting a predetermined parameter from more preset parameters by a simple operation of moving the same thumb up / down / left / right on the touch pad. It is possible to control a plurality of control parameters efficiently.

なお、上述した各実施形態及び変形例においては、本発明を電子楽器に適用した場合について説明したが、本発明はこれに限らず、操作者が、身体の一部を用いて操作を行うような電子機器においても、本発明に係るパラメータをタッチパッド上の接触位置やタッチパッドの電極に関連付け、指先を上下左右に動かす操作によりパラメータの選択と操作量を制御する手法を良好に適用することができる。すなわち、本発明は、身体の一部で操作可能な位置に、身体の一部の接触や近接を検出するセンサを備えているものであればよく、例えば、タッチパッドを備えた音響機器や、工作機械の操作パネル、ゲーム機やラジコン等のコントローラ等にも良好に適用することができる。 In each of the above-described embodiments and modifications, the case where the present invention is applied to an electronic musical instrument has been described, but the present invention is not limited to this, and the operator may operate using a part of the body. Also in various electronic devices, the method of associating the parameters according to the present invention with the contact position on the touch pad and the electrodes of the touch pad and controlling the parameter selection and the operation amount by moving the fingertip up, down, left and right is satisfactorily applied. Can be done. That is, the present invention may be provided with a sensor that detects contact or proximity of a part of the body at a position that can be operated by a part of the body. It can be satisfactorily applied to operation panels of machine tools, controllers for game machines and radio-controlled models, and the like.

以上、本発明のいくつかの実施形態について説明したが、本発明は、上述した実施形態に限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲とを含むものである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
Although some embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, but includes the inventions described in the claims and the equivalent scope thereof.
The inventions described in the original claims of the present application are described below.

(付記)
[1]
複数の検出領域が配列された第1のセンサと、
前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサと、
前記第1のセンサのいずれかの検出領域が検出状態になると同時に検出される前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択するとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御する制御部と、
を有することを特徴とするパラメータ制御装置。
(Additional note)
[1]
The first sensor in which multiple detection areas are arranged, and
A second sensor in which at least one detection region is arranged so as to face the plurality of detection regions of the first sensor.
Based on the detection value of the detection area of the second sensor, which is detected at the same time when the detection area of any one of the first sensors is in the detection state, a parameter to be controlled for the operation amount from among a plurality of parameters. And a control unit that controls the operation amount of the selected parameter based on the detection values of the plurality of detection regions of the first sensor.
A parameter control device characterized by having.

[2]
前記第1のセンサの複数の検出領域は、特定の方向に配置され、
前記第2のセンサの検出領域は、前記特定の方向に広がって配置されるとともに、前記広がって配置された検出領域のいずれかの部分が、前記第1のセンサの前記複数の検出領域の夫々に近接して対向するように配置されることを特徴とする[1]に記載のパラメータ制御装置。
[2]
The plurality of detection areas of the first sensor are arranged in a specific direction.
The detection area of the second sensor is spread out in the specific direction, and any part of the spread out detection area is provided with each of the plurality of detection areas of the first sensor. The parameter control device according to [1], which is arranged so as to be close to each other and face each other.

[3]
前記第2のセンサの検出領域は、前記第1のセンサの複数の検出領域を挟んで両側に設けられ、
前記制御部は、前記第1のセンサのいずれかの検出領域が検出状態になると同時に検出される前記第2のセンサの両側の検出領域の検出値の比較結果に応じて複数のパラメータの中から、前記操作量の制御対象となるパラメータを選択することを特徴とする[1]又は[2]に記載のパラメータ制御装置。
[3]
The detection areas of the second sensor are provided on both sides of the plurality of detection areas of the first sensor.
The control unit has a plurality of parameters from among a plurality of parameters according to the comparison result of the detection values of the detection areas on both sides of the second sensor, which are detected at the same time when the detection area of any one of the first sensors is in the detection state. The parameter control device according to [1] or [2], wherein the parameter to be controlled of the operation amount is selected.

[4]
前記制御部は、前記第1のセンサの複数の検出領域の配列位置の分布に基づいて平均位置を求め、前記平均位置を求める際に、前記第1のセンサの複数の検出領域の各々の位置に対して前記第1のセンサの複数の検出領域からの各出力値を重み値として乗算する加重平均による演算を適用し、前記加重平均による演算により求めた前記平均位置を規格化された数値に変換して、前記パラメータの操作量の制御に用いることを特徴とする[1]乃至[3]のいずれかに記載のパラメータ制御装置。
[4]
The control unit obtains an average position based on the distribution of arrangement positions of the plurality of detection regions of the first sensor, and when obtaining the average position, the position of each of the plurality of detection regions of the first sensor. A weighted average calculation is applied to the first sensor by multiplying each output value from the plurality of detection regions as a weight value, and the average position obtained by the weighted average calculation is converted into a standardized numerical value. The parameter control device according to any one of [1] to [3], which is converted and used for controlling the operation amount of the parameter.

[5]
前記平均位置を規格化された数値に変換する処理は、前記平均位置が所定の範囲内にある場合には、変換後の数値を特定値に固定する、不感帯が設けられていることを特徴とする[4]に記載のパラメータ制御装置。
[5]
The process of converting the average position into a standardized numerical value is characterized in that a dead zone is provided to fix the converted numerical value to a specific value when the average position is within a predetermined range. The parameter control device according to [4].

[6]
前記制御部は、前記第2のセンサの検出領域の検出値と、所定のしきい値との比較に基づいて、前記複数のパラメータの中から、前記操作量の制御対象となるパラメータを選択することを特徴とする[1]乃至[5]のいずれかに記載のパラメータ制御装置。
[6]
The control unit selects a parameter to be controlled for the operation amount from the plurality of parameters based on a comparison between the detection value in the detection area of the second sensor and a predetermined threshold value. The parameter control device according to any one of [1] to [5].

[7]
前記制御部は、前記第1のセンサの複数の検出領域の検出値のうちの特定の前記検出値について求めた平均値と、前記第2のセンサの検出領域の検出値とを、前記第1のセンサと前記第2のセンサのそれぞれの検出領域の配列位置を重み値として乗算して平均位置を求める加重平均による演算を適用し、前記加重平均による演算により求めた前記平均位置を規格化された数値に変換して、前記数値に基づいて前記複数のパラメータの中から、前記操作量の制御対象となるパラメータを選択することを特徴とする[1]乃至[5]のいずれかに記載のパラメータ制御装置。
[7]
The control unit obtains an average value obtained for a specific detection value among the detection values of the plurality of detection regions of the first sensor and the detection value of the detection region of the second sensor. By applying a weighted averaging calculation to obtain the average position by multiplying the array positions of the respective detection regions of the sensor and the second sensor as weight values, the average position obtained by the weighted averaging calculation is standardized. The present invention is described in any one of [1] to [5], wherein the parameter to be controlled by the operation amount is selected from the plurality of parameters based on the numerical value. Parameter control device.

[8]
演奏者が両手の指で支えて保持する楽器本体を備え、
前記第1のセンサの複数の検出領域及び前記第2のセンサの検出領域は、前記楽器本体の前記演奏者の指が当接する領域に設けられて、前記演奏者の指の接触状態を検出し、
前記制御部は、前記第1のセンサの複数の検出領域及び前記第2のセンサの検出領域からの前記検出値に基づいて、前記楽器本体により生成される音に関わる前記パラメータの操作量を制御するとともに、前記操作量の制御対象となるパラメータを選択することを特徴とする[1]乃至[7]のいずれかに記載のパラメータ制御装置。
[8]
Equipped with an instrument body that the performer supports and holds with the fingers of both hands
The plurality of detection areas of the first sensor and the detection areas of the second sensor are provided in the areas of the musical instrument body where the performer's fingers come into contact with each other, and detect the contact state of the performer's fingers. ,
The control unit controls the operation amount of the parameter related to the sound generated by the musical instrument body based on the detection values from the plurality of detection areas of the first sensor and the detection area of the second sensor. The parameter control device according to any one of [1] to [7], wherein the parameter to be controlled by the operation amount is selected.

[9]
前記[1]乃至[8]のいずれかに記載のパラメータ制御装置と、
楽音を生成する音源と、を備え、
前記第1のセンサ及び前記第2のセンサは演奏者の身体の一部を検出し、
前記制御部は、前記制御された及び前記選択された前記パラメータに基づいて、前記音源に生成させる楽音を制御することを特徴とする電子楽器。
[9]
The parameter control device according to any one of [1] to [8],
Equipped with a sound source that produces musical tones,
The first sensor and the second sensor detect a part of the performer's body and
The control unit is an electronic musical instrument, characterized in that it controls a musical instrument to be generated by the sound source based on the controlled and selected parameters.

[10]
前記制御部は、前記パラメータに基づいて、前記音源に生成させる楽音を制御する際に、
前記制御された前記パラメータの操作量が変化した場合には、前記操作量の変化に応じて前記楽音の生成を制御し、
前記選択された前記パラメータが変化した場合には、前記変化する前の前記パラメータの操作量を保持して前記楽音の生成を制御することを特徴とする[9]に記載の電子楽器。
[10]
The control unit controls the musical sound generated by the sound source based on the parameters.
When the controlled operation amount of the parameter changes, the generation of the musical tone is controlled according to the change of the operation amount.
The electronic musical instrument according to [9], wherein when the selected parameter changes, the operation amount of the parameter before the change is maintained to control the generation of the musical tone.

[11]
前記制御部は、前記パラメータに基づいて、前記音源に生成させる楽音を制御する際に、
前記制御された前記のパラメータの操作量が変化した場合には、前記操作量の変化に応じて前記楽音の生成を制御し、
前記選択された前記パラメータが変化した場合には、前記変化する前の前記パラメータの操作量をリセットして前記楽音の生成を制御することを特徴とする[9]に記載の電子楽器。
[11]
The control unit controls the musical sound generated by the sound source based on the parameters.
When the manipulated variable of the controlled parameter changes, the generation of the musical tone is controlled according to the change of the manipulated variable.
The electronic musical instrument according to [9], wherein when the selected parameter changes, the operation amount of the parameter before the change is reset to control the generation of the musical tone.

[12]
複数の検出領域が配列された第1のセンサの検出値と、前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサの検出値とを同時に検出し、
前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択するとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御する、
ことを特徴とするパラメータ制御方法。
[12]
The detection value of the first sensor in which a plurality of detection regions are arranged, and the detection value of the second sensor in which at least one detection region is arranged so as to face the plurality of detection regions of the first sensor. At the same time,
Based on the detection value of the detection area of the second sensor, the parameter to be controlled of the manipulated variable is selected from the plurality of parameters, and based on the detection value of the plurality of detection areas of the first sensor. To control the amount of manipulation of the selected parameter,
A parameter control method characterized by that.

[13]
コンピュータに、
複数の検出領域が配列された第1のセンサの検出値と、前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサの検出値とを同時に検出させ、
前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択させるとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御させる、
ことを特徴とする制御プログラム。
[13]
On the computer
The detection value of the first sensor in which a plurality of detection regions are arranged, and the detection value of the second sensor in which at least one detection region is arranged so as to face the plurality of detection regions of the first sensor. At the same time,
Based on the detection value of the detection area of the second sensor, the parameter to be controlled of the manipulated variable is selected from the plurality of parameters, and based on the detection value of the plurality of detection areas of the first sensor. To control the amount of operation of the selected parameter.
A control program characterized by that.

10 操作子
12 演奏キー
22 マウスピース
30 パラメータ操作部
32 タッチパッド
40 パラメータ設定部
50 CPU(制御部)
100 電子楽器
102 楽器本体
202 親指
ELu 上段のセンサ電極(第2のセンサ)
ELm 中段のセンサ電極群(第1のセンサ)
ELd 下段のセンサ電極(第2のセンサ)
10 Operator 12 Play key 22 Mouthpiece 30 Parameter operation unit 32 Touch pad 40 Parameter setting unit 50 CPU (control unit)
100 Electronic musical instrument 102 Musical instrument body 202 Thumb ELu Upper sensor electrode (second sensor)
ELm middle sensor electrode group (first sensor)
Sensor electrode at the bottom of ELd (second sensor)

Claims (10)

複数の検出領域が配列された第1のセンサと、
前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサと、
前記第1のセンサのいずれかの検出領域が検出状態になると同時に検出される前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択するとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御する制御部と、
を有し、
前記制御部は、前記第1のセンサの複数の検出領域の配列位置の分布に基づいて平均位置を求めるとともに、前記平均位置を規格化された数値に変換して前記パラメータの操作量の制御に用い、
前記平均位置を規格化された数値に変換する際に、前記平均位置が所定の範囲内にある場合には、変換後の数値を特定値に固定する、不感帯を設けるようにする、パラメータ制御装置。
The first sensor in which multiple detection areas are arranged, and
A second sensor in which at least one detection region is arranged so as to face the plurality of detection regions of the first sensor.
Based on the detection value of the detection area of the second sensor, which is detected at the same time when the detection area of any one of the first sensors is in the detection state, a parameter to be controlled for the operation amount from among a plurality of parameters. And a control unit that controls the operation amount of the selected parameter based on the detection values of the plurality of detection regions of the first sensor.
Have,
The control unit obtains an average position based on the distribution of arrangement positions of a plurality of detection regions of the first sensor, and converts the average position into a standardized numerical value to control the operation amount of the parameter. Use,
When converting the average position to a standardized numerical value, if the average position is within a predetermined range, the converted numerical value is fixed to a specific value, a dead zone is provided, and a parameter control device is provided. ..
前記制御部は、前記平均位置を求める際に、前記第1のセンサの複数の検出領域の各々の位置に対して前記第1のセンサの複数の検出領域からの各出力値を重み値として乗算する加重平均による演算を適用する、請求項1に記載のパラメータ制御装置。 When the control unit obtains the average position, the control unit multiplies each position of the plurality of detection regions of the first sensor by each output value from the plurality of detection regions of the first sensor as a weight value. The parameter control device according to claim 1 , wherein an operation based on a weighted average is applied . 前記制御部は、前記第1のセンサの複数の検出領域の検出値のうちの特定の前記検出値について求めた平均値と、前記第2のセンサの検出領域の検出値とを、前記第1のセンサと前記第2のセンサのそれぞれの検出領域の配列位置を重み値として乗算して平均位置を求める加重平均による演算を適用し、前記加重平均による演算により求めた前記平均位置を規格化された数値に変換して、前記数値に基づいて前記複数のパラメータの中から、前記操作量の制御対象となるパラメータを選択する、請求項1又は2に記載のパラメータ制御装置。 The control unit obtains an average value obtained for a specific detection value among the detection values of the plurality of detection regions of the first sensor and the detection value of the detection region of the second sensor. By applying a weighted averaging calculation to obtain the average position by multiplying the array positions of the respective detection regions of the sensor and the second sensor as weight values, the average position obtained by the weighted averaging calculation is standardized. The parameter control device according to claim 1 or 2 , wherein the parameter to be controlled by the operation amount is selected from the plurality of parameters based on the numerical value . 複数の検出領域が配列された第1のセンサと、
前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサと、
前記第1のセンサのいずれかの検出領域が検出状態になると同時に検出される前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択するとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御する制御部と、
演奏者が両手の指で支えて保持する楽器本体と、
を備え、
前記第1のセンサの複数の検出領域及び前記第2のセンサの検出領域は、前記楽器本体の前記演奏者の指が当接する領域に設けられて、前記演奏者の指の接触状態を検出し、
前記制御部は、前記第1のセンサの複数の検出領域及び前記第2のセンサの検出領域からの前記検出値に基づいて、前記楽器本体により生成される音に関わる前記パラメータの操作量を制御するとともに、前記操作量の制御対象となるパラメータを選択する、パラメータ制御装置。
The first sensor in which multiple detection areas are arranged, and
A second sensor in which at least one detection region is arranged so as to face the plurality of detection regions of the first sensor.
Based on the detection value of the detection area of the second sensor, which is detected at the same time when the detection area of any one of the first sensors is in the detection state, a parameter to be controlled for the operation amount from among a plurality of parameters. And a control unit that controls the operation amount of the selected parameter based on the detection values of the plurality of detection regions of the first sensor.
The instrument body that the performer supports and holds with the fingers of both hands,
Equipped with
The plurality of detection regions of the first sensor and the detection regions of the second sensor are provided in regions of the musical instrument body where the performer's fingers come into contact with each other to detect the contact state of the performer's fingers. ,
The control unit controls the operation amount of the parameter related to the sound generated by the musical instrument body based on the detection values from the plurality of detection areas of the first sensor and the detection area of the second sensor. A parameter control device that selects a parameter to be controlled by the operation amount .
前記第1のセンサの複数の検出領域は、特定の方向に配置され、
前記第2のセンサの検出領域は、前記特定の方向に広がって配置されるとともに、前記広がって配置された検出領域のいずれかの部分が、前記第1のセンサの前記複数の検出領域の夫々に近接して対向するように配置される、請求項1乃至4のいずれか一項に記載のパラメータ制御装置。
The plurality of detection areas of the first sensor are arranged in a specific direction.
The detection area of the second sensor is spread out in the specific direction, and any part of the spread out detection area is provided with each of the plurality of detection areas of the first sensor. The parameter control device according to any one of claims 1 to 4, which is arranged so as to be close to and facing each other .
前記第2のセンサの検出領域は、前記第1のセンサの複数の検出領域を挟んで両側に設けられ、
前記制御部は、前記第1のセンサのいずれかの検出領域が検出状態になると同時に検出される前記第2のセンサの両側の検出領域の検出値の比較結果に応じて複数のパラメータの中から、前記操作量の制御対象となるパラメータを選択する、請求項1乃至5のいずれか一項に記載のパラメータ制御装置。
The detection areas of the second sensor are provided on both sides of the plurality of detection areas of the first sensor.
The control unit is selected from a plurality of parameters according to the comparison result of the detection values of the detection areas on both sides of the second sensor, which is detected at the same time when the detection area of any one of the first sensors is in the detection state. The parameter control device according to any one of claims 1 to 5 , wherein the parameter to be controlled of the operation amount is selected .
前記制御部は、前記第2のセンサの検出領域の検出値と、所定のしきい値との比較に基づいて前記複数のパラメータの中から、前記操作量の制御対象となるパラメータを選択する請求項1乃至のいずれか一項に記載のパラメータ制御装置。 The control unit selects a parameter to be controlled by the operation amount from the plurality of parameters based on a comparison between the detection value in the detection region of the second sensor and a predetermined threshold value . The parameter control device according to any one of claims 1 to 6 . 複数の検出領域が配列された第1のセンサと、The first sensor in which multiple detection areas are arranged, and
前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサと、A second sensor in which at least one detection region is arranged so as to face the plurality of detection regions of the first sensor.
前記第1のセンサのいずれかの検出領域が検出状態になると同時に検出される前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択するとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御する制御部と、Based on the detection value of the detection area of the second sensor, which is detected at the same time when the detection area of any one of the first sensors is in the detection state, a parameter to be controlled for the operation amount from among a plurality of parameters. And a control unit that controls the operation amount of the selected parameter based on the detection values of the plurality of detection regions of the first sensor.
楽音を生成する音源と、A sound source that produces musical tones and
を備え、Equipped with
前記第1のセンサ及び前記第2のセンサは演奏者の身体の一部を検出し、The first sensor and the second sensor detect a part of the performer's body and
前記制御部は、前記制御された及び前記選択された前記パラメータに基づいて、前記音源に生成させる楽音を制御し、The control unit controls the musical tones generated by the sound source based on the controlled and selected parameters.
前記制御部は、前記パラメータに基づいて、前記音源に生成させる楽音を制御する際に、The control unit controls the musical sound generated by the sound source based on the parameters.
前記制御された前記パラメータの操作量が変化した場合には、前記操作量の変化に応じて前記楽音の生成を制御し、When the controlled operation amount of the parameter changes, the generation of the musical tone is controlled according to the change of the operation amount.
前記選択された前記パラメータが変化した場合には、前記変化する前の前記パラメータの操作量を保持またはリセットして前記楽音の生成を制御する、電子楽器。An electronic musical instrument that, when the selected parameter changes, holds or resets the manipulated variable of the parameter before the change to control the generation of the musical tone.
電子楽器が、Electronic musical instruments
複数の検出領域が配列された第1のセンサの検出値と、前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサの検出値とを同時に検出し、The detection value of the first sensor in which a plurality of detection regions are arranged, and the detection value of the second sensor in which at least one detection region is arranged so as to face the plurality of detection regions of the first sensor. At the same time,
前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択するとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御し、Based on the detection value of the detection area of the second sensor, the parameter to be controlled of the manipulated variable is selected from the plurality of parameters, and based on the detection value of the plurality of detection areas of the first sensor. To control the amount of operation of the selected parameter,
前記第1のセンサの複数の検出領域及び前記第2のセンサの検出領域は、前記電子楽器の演奏者の指が当接する領域に設けられて、前記演奏者の指の接触状態を検出し、The plurality of detection areas of the first sensor and the detection areas of the second sensor are provided in the area where the finger of the performer of the electronic musical instrument abuts, and the contact state of the finger of the performer is detected.
前記第1のセンサの複数の検出領域及び前記第2のセンサの検出領域からの前記検出値に基づいて、前記電子楽器により生成される音に関わる前記パラメータの操作量を制御するとともに、前記操作量の制御対象となるパラメータを選択する、Based on the detection values from the plurality of detection regions of the first sensor and the detection regions of the second sensor, the operation amount of the parameter related to the sound generated by the electronic musical instrument is controlled, and the operation is performed. Select the parameter to be controlled by the quantity,
パラメータ制御方法。Parameter control method.
電子楽器のコンピュータに、For computers of electronic musical instruments,
複数の検出領域が配列された第1のセンサの検出値と、前記第1のセンサの前記複数の検出領域に対向するように少なくとも1つの検出領域が配置された第2のセンサの検出値とを同時に検出させ、The detection value of the first sensor in which a plurality of detection regions are arranged, and the detection value of the second sensor in which at least one detection region is arranged so as to face the plurality of detection regions of the first sensor. At the same time,
前記第2のセンサの検出領域の検出値に基づいて、複数のパラメータの中から、操作量の制御対象となるパラメータを選択させるとともに、前記第1のセンサの複数の検出領域の検出値に基づいて、前記選択されたパラメータの操作量を制御させ、Based on the detection value of the detection area of the second sensor, the parameter to be controlled of the manipulated variable is selected from the plurality of parameters, and based on the detection value of the plurality of detection areas of the first sensor. To control the amount of operation of the selected parameter.
前記第1のセンサの複数の検出領域及び前記第2のセンサの検出領域は、前記電子楽器の演奏者の指が当接する領域に設けられて、前記演奏者の指の接触状態を検出し、The plurality of detection areas of the first sensor and the detection areas of the second sensor are provided in the area where the finger of the performer of the electronic musical instrument abuts, and the contact state of the finger of the performer is detected.
前記第1のセンサの複数の検出領域及び前記第2のセンサの検出領域からの前記検出値に基づいて、前記電子楽器により生成される音に関わる前記パラメータの操作量を制御するとともに、前記操作量の制御対象となるパラメータを選択する、Based on the detection values from the plurality of detection regions of the first sensor and the detection regions of the second sensor, the operation amount of the parameter related to the sound generated by the electronic musical instrument is controlled, and the operation is performed. Select the parameter to be controlled by the quantity,
制御プログラム。Control program.
JP2017186385A 2017-09-27 2017-09-27 Parameter control device, electronic musical instrument, parameter control method and control program Active JP7041387B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017186385A JP7041387B2 (en) 2017-09-27 2017-09-27 Parameter control device, electronic musical instrument, parameter control method and control program
JP2021147637A JP2022001950A (en) 2017-09-27 2021-09-10 Parameter controller, electronic music instrument, parameter control method and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017186385A JP7041387B2 (en) 2017-09-27 2017-09-27 Parameter control device, electronic musical instrument, parameter control method and control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021147637A Division JP2022001950A (en) 2017-09-27 2021-09-10 Parameter controller, electronic music instrument, parameter control method and control program

Publications (2)

Publication Number Publication Date
JP2019061542A JP2019061542A (en) 2019-04-18
JP7041387B2 true JP7041387B2 (en) 2022-03-24

Family

ID=66178632

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017186385A Active JP7041387B2 (en) 2017-09-27 2017-09-27 Parameter control device, electronic musical instrument, parameter control method and control program
JP2021147637A Pending JP2022001950A (en) 2017-09-27 2021-09-10 Parameter controller, electronic music instrument, parameter control method and control program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021147637A Pending JP2022001950A (en) 2017-09-27 2021-09-10 Parameter controller, electronic music instrument, parameter control method and control program

Country Status (1)

Country Link
JP (2) JP7041387B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7041387B2 (en) * 2017-09-27 2022-03-24 カシオ計算機株式会社 Parameter control device, electronic musical instrument, parameter control method and control program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009099067A (en) 2007-10-18 2009-05-07 Sharp Corp Portable electronic equipment, and operation control method of portable electronic equipment
JP2013051530A (en) 2011-08-30 2013-03-14 Yamaha Corp Fader controller and controller device including the same
JP2017507416A (en) 2014-03-03 2017-03-16 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated System and method for gesture control
JP2017525036A5 (en) 2015-07-09 2018-07-19

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3278978B2 (en) * 1993-06-11 2002-04-30 カシオ計算機株式会社 Effect adding device
JP3585365B2 (en) * 1998-03-06 2004-11-04 株式会社河合楽器製作所 Operation mechanism for controlling the effect imparting function of electronic musical instruments
JP2002215146A (en) * 2001-01-18 2002-07-31 Kawai Musical Instr Mfg Co Ltd Instruction inputting device of electronic musical instrument
JP5251463B2 (en) * 2008-12-03 2013-07-31 ソニー株式会社 Imaging device
JP5572397B2 (en) * 2010-01-06 2014-08-13 京セラ株式会社 Input device, input method, and input program
US9927933B2 (en) * 2014-07-10 2018-03-27 Microchip Technology Germany Gmbh Method and system for gesture detection and touch detection
JP2016177119A (en) * 2015-03-20 2016-10-06 カシオ計算機株式会社 Electronic wind instrument, musical sound control method, and program
JP2017167249A (en) * 2016-03-15 2017-09-21 ヤマハ株式会社 Performance device
JP7041387B2 (en) * 2017-09-27 2022-03-24 カシオ計算機株式会社 Parameter control device, electronic musical instrument, parameter control method and control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009099067A (en) 2007-10-18 2009-05-07 Sharp Corp Portable electronic equipment, and operation control method of portable electronic equipment
JP2013051530A (en) 2011-08-30 2013-03-14 Yamaha Corp Fader controller and controller device including the same
JP2017507416A (en) 2014-03-03 2017-03-16 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated System and method for gesture control
JP2017525036A5 (en) 2015-07-09 2018-07-19

Also Published As

Publication number Publication date
JP2019061542A (en) 2019-04-18
JP2022001950A (en) 2022-01-06

Similar Documents

Publication Publication Date Title
JP7095246B2 (en) Electronic musical instruments, their control methods and control programs
US9299330B2 (en) Apparatus and method to enhance the expressive qualities of digital music
KR101698172B1 (en) Processor Interface
JP2016177026A (en) Electronic musical instrument
JP6760222B2 (en) Detection device, electronic musical instrument, detection method and control program
US20170344113A1 (en) Hand-held controller for a computer, a control system for a computer and a computer system
US20180350337A1 (en) Electronic musical instrument with separate pitch and articulation control
JP2022001950A (en) Parameter controller, electronic music instrument, parameter control method and control program
JP2890564B2 (en) Electronic musical instrument
JPH03184095A (en) Electronic musical instrument
US20150287397A1 (en) Plucked string performance data generation device
US20150013529A1 (en) Music user interface
JP3008419B2 (en) Electronic musical instrument
JP2016180795A (en) Musical sound generation device, musical sound generation method, program and electronic musical instrument
JP2019200428A (en) Musical sound generating device, musical sound generating method, program and electronic musical instrument
JP7008941B2 (en) Detection device, electronic musical instrument, detection method and control program
JP6358554B2 (en) Musical sound control device, musical sound control method and program
Ogata et al. Keyboard Interface with Shape-Distortion Expression for Interactive Performance
JP6634897B2 (en) Lyric generation apparatus and lyrics generation method
JP5825056B2 (en) Electronic musical instruments
JP6650101B2 (en) Music sound generating apparatus, music sound generating method, program and electronic musical instrument
KR101813557B1 (en) Apparatus and method to enhance expressive qualities of digital music
JP2008216715A (en) Musical sound controller and program for musical sound control processing
JPH03274591A (en) Nonlinear table generating device
JP2019008122A (en) Detector, electronic musical instrument, detection method and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220222

R150 Certificate of patent or registration of utility model

Ref document number: 7041387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150