JP7008941B2 - Detection device, electronic musical instrument, detection method and control program - Google Patents

Detection device, electronic musical instrument, detection method and control program Download PDF

Info

Publication number
JP7008941B2
JP7008941B2 JP2017168721A JP2017168721A JP7008941B2 JP 7008941 B2 JP7008941 B2 JP 7008941B2 JP 2017168721 A JP2017168721 A JP 2017168721A JP 2017168721 A JP2017168721 A JP 2017168721A JP 7008941 B2 JP7008941 B2 JP 7008941B2
Authority
JP
Japan
Prior art keywords
sensor
sensors
output value
sensor output
lip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017168721A
Other languages
Japanese (ja)
Other versions
JP2019045681A (en
Inventor
千寿 外山
一貴 春日
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017168721A priority Critical patent/JP7008941B2/en
Publication of JP2019045681A publication Critical patent/JP2019045681A/en
Application granted granted Critical
Publication of JP7008941B2 publication Critical patent/JP7008941B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、操作位置を検出する検出装置、電子楽器、操作位置の検出方法及び操作位置を検出するための制御プログラムに関する。 The present invention relates to a detection device for detecting an operating position, an electronic musical instrument, a method for detecting an operating position, and a control program for detecting the operating position.

従来、サクソフォンやクラリネット等のアコースティック管楽器の形状や演奏方法を模した電子管楽器が知られている。このような電子管楽器の演奏においては、アコースティック管楽器と同様のキー位置に設けられたスイッチ(音高キー)を操作することにより楽音の音程が指定される。また、マウスピース内に吹き込む息の圧力(息圧)により音量が制御されるとともに、マウスピースを口に咥えたときの唇の位置や舌の接触状態、噛み圧等により音色が制御される。 Conventionally, electronic wind instruments that imitate the shapes and playing methods of acoustic wind instruments such as saxophones and clarinets have been known. In the performance of such an electronic wind instrument, the pitch of the musical tone is specified by operating a switch (pitch key) provided at the same key position as the acoustic wind instrument. In addition, the volume is controlled by the pressure of the breath blown into the mouthpiece (breath pressure), and the tone color is controlled by the position of the lips when the mouthpiece is held in the mouth, the contact state of the tongue, the biting pressure, and the like.

そのため、従来の電子管楽器のマウスピースには、演奏時に吹き込まれる息圧や唇の位置、舌の接触状態、噛み圧等を検出するための各種のセンサが設けられている。例えば特許文献1には、電子管楽器のマウスピースのリード部に、静電容量方式のタッチセンサを複数配置し、これらのセンサの検出値と配置位置とに基づいて演奏者の唇の接触位置や舌の接触状態を検出する技術が記載されている。 Therefore, the mouthpiece of a conventional electronic wind instrument is provided with various sensors for detecting the breath pressure blown during performance, the position of the lips, the contact state of the tongue, the biting pressure, and the like. For example, in Patent Document 1, a plurality of capacitive touch sensors are arranged on the lead portion of the mouthpiece of an electronic wind instrument, and the contact position of the performer's lips is determined based on the detection value and the arrangement position of these sensors. Techniques for detecting the contact state of the tongue are described.

特開2017-58502号公報Japanese Unexamined Patent Publication No. 2017-580502

上述したような電子管楽器において、例えばアコースティックな奏法のようにマウスピースを咥えた状態を保持しながら演奏する場合、リード部が長い時間咥えられることになるとともに、リード部の吹込口側(ティップ側)が演奏者の口腔内に位置することになる。 In an electronic wind instrument as described above, when playing while holding the mouthpiece in a holding state, for example, as in an acoustic playing method, the reed part will be held for a long time and the lead part will be held on the air inlet side (tip). The side) will be located in the performer's oral cavity.

一般に、静電容量方式のタッチセンサにおいては、温度や湿気の影響で検出値が変動することが知られている。そのため、マウスピースを咥えることによる上下の唇からの体温の伝達や唾液の付着により、マウスピースを咥えた位置付近を中心にして、リード部に配置された略全てのセンサの検出値が変動する。加えて、舌部をリード部に直接接触させるタンギングにより舌部から体温の伝達や唾液の付着が生じた場合や、長時間の演奏により口腔内の温度や湿気が上昇した場合には、マウスピース(リード部)の口腔内側に配置されたセンサの検出値のばらつきやノイズの混入が一層大きくなる傾向がある。なお、リード部のセンサの検出値の変動については、上述した要因に限られるものではなく、例えばマウスピースの咥え方や演奏者の性別や年齢、体質等の様々な要因も加わって発生するものであり、各センサにおける検出値の変動量についても均一ではない。 Generally, it is known that in a capacitive touch sensor, the detected value fluctuates due to the influence of temperature and humidity. Therefore, due to the transmission of body temperature from the upper and lower lips and the adhesion of saliva by holding the mouthpiece, the detection values of almost all sensors placed on the lead part fluctuate around the position where the mouthpiece is held. do. In addition, if tonguing that brings the tongue into direct contact with the lead causes body temperature transmission or saliva adhesion from the tongue, or if the temperature or humidity in the oral cavity rises due to long-term playing, the mouthpiece There is a tendency that the variation in the detected value of the sensor arranged inside the oral cavity of the (lead portion) and the mixing of noise become larger. It should be noted that the fluctuation of the detection value of the sensor of the reed portion is not limited to the above-mentioned factors, but also occurs due to various factors such as how to hold the mouthpiece and the gender, age, and constitution of the performer. The amount of fluctuation of the detected value in each sensor is not uniform.

これにより、従来の電子管楽器においては、最終的に検出される唇の位置(リップポジション)がばらついて、アコースティックな吹奏感や演奏者が意図する楽音のエフェクト(例えば、ピッチベンドやビブラート等の音色効果)を十分に実現することができない場合があった。 As a result, in a conventional electronic wind instrument, the position of the lips (lip position) that is finally detected varies, resulting in an acoustic playing feeling and a musical effect intended by the performer (for example, a timbre effect such as pitch bend or vibrato). ) Was not fully realized in some cases.

また、上記の電子管楽器の他に、唇以外の指などの身体の一部を用いて演奏を行う電子楽器や、身体の一部を用いて演奏以外の各種の操作を行う電子機器などにおいても、機器の状態や操作環境によっては最終的に検出される操作位置がばらついて、所望の操作が実現できない場合があるという、同様の問題を有していた。 In addition to the above-mentioned electronic wind instruments, there are also electronic musical instruments that perform with a part of the body such as fingers other than the lips, and electronic devices that perform various operations other than playing with a part of the body. There is a similar problem that the finally detected operation position may vary depending on the state of the device and the operation environment, and the desired operation may not be realized.

そこで、本発明は、上述した問題点に鑑みて、操作者が身体の一部を用いて機器を操作する場合に、より正確で適切な操作位置を決定することができる検出装置、電子楽器、検出方法及び制御プログラムを提供することを目的とする。 Therefore, in view of the above-mentioned problems, the present invention provides a detection device, an electronic musical instrument, which can determine a more accurate and appropriate operation position when the operator operates the device using a part of the body. It is an object of the present invention to provide a detection method and a control program.

本発明に係る検出装置は、特定の方向に配列された複数のセンサと、前記複数のセンサの出力値の分布に基づいて、前記複数のセンサのうちの出力値が最大値となるセンサの一方の側に配列された一部のセンサを選択するとともに、前記一部のセンサの出力値を重み値として、前記一部のセンサの配列位置の加重平均を求める演算により前記特定の方向における操作位置を決定する制御部と、を備え、前記制御部は、前記演算に先立って、前記一部のセンサのうち、前記出力値が最大値となるセンサに近接するセンサの出力値を、前記一部のセンサの出力値の分布に基づいて、より小さい出力値となるように補正することを特徴とする。 The detection device according to the present invention is one of a plurality of sensors arranged in a specific direction and a sensor having the maximum output value among the plurality of sensors based on the distribution of the output values of the plurality of sensors. The operation position in the specific direction is calculated by selecting some of the sensors arranged on the side of the above and using the output value of the some sensors as a weight value to obtain the weighted average of the arrangement positions of the some sensors. The control unit comprises a control unit for determining the above, and the control unit previously obtains the output value of the sensor close to the sensor having the maximum output value among the partial sensors. It is characterized in that it is corrected so that the output value becomes smaller based on the distribution of the output value of the sensor.

本発明によれば、操作者が身体の一部を用いて機器を操作する場合に、より正確で適切な操作位置を決定することができる。 According to the present invention, when an operator operates a device using a part of the body, a more accurate and appropriate operation position can be determined.

本発明に係る検出装置を適用した電子楽器の一実施形態の全体構造を示す外観図である。It is an external view which shows the whole structure of one Embodiment of the electronic musical instrument to which the detection apparatus which concerns on this invention is applied. 一実施形態に係る電子楽器の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the electronic musical instrument which concerns on one Embodiment. 一実施形態に係る電子楽器に適用されるマウスピースの一例を示す概略図である。It is a schematic diagram which shows an example of the mouthpiece applied to the electronic musical instrument which concerns on one Embodiment. 演奏者の口腔とマウスピースとの接触状態を示す概略図である。It is a schematic diagram which shows the contact state between a performer's oral cavity and a mouthpiece. 演奏者がマウスピースを咥えた状態におけるリップ検出部及びタン検出部の出力特性の一例、及び、比較例1におけるリップポジションの一例を示す図である。It is a figure which shows the example of the output characteristic of the lip detection part and the tongue detection part, and the example of the lip position in the comparative example 1 in the state where a performer holds a mouthpiece. 比較例2におけるリップポジションの一例を示す図である。It is a figure which shows an example of the lip position in the comparative example 2. FIG. 比較例1におけるリップポジションを決定するための重心位置の算出対象となるセンサ出力値の一例、及び、比較例1におけるリップポジションの変化の一例を示す図である。It is a figure which shows an example of the sensor output value which is the calculation target of the center of gravity position for determining the lip position in the comparative example 1, and an example of the change of the lip position in the comparative example 1. FIG. 比較例2におけるリップポジションを決定するための重心位置の算出対象となるセンサ出力値の一例、及び、比較例2におけるリップポジションの変化の一例を示す図である。It is a figure which shows the example of the sensor output value which is the calculation target of the center of gravity position for determining the lip position in the comparative example 2, and the example of the change of the lip position in the comparative example 2. 比較例1、2及び本実施形態におけるリップポジションの変化の一例を示すグラフである。It is a graph which shows an example of the change of the lip position in Comparative Examples 1 and 2 and this Embodiment. 一実施形態に係るリップポジションの決定方法に適用される補正係数を説明するための図(その1)である。It is a figure (the 1) for demonstrating the correction coefficient applied to the method of determining a lip position which concerns on one Embodiment. 一実施形態に係るリップポジションの決定方法に適用される補正係数を説明するための図(その2)である。It is a figure (the 2) for demonstrating the correction coefficient applied to the method of determining a lip position which concerns on one Embodiment. 一実施形態に係るリップポジションの決定方法に適用されるセンサ出力値の補正処理の一例、及び、リップポジションの算出例を示す図である。It is a figure which shows an example of the correction process of the sensor output value applied to the method of determining a lip position which concerns on one Embodiment, and the calculation example of a lip position. 一実施形態に適用されるセンサ出力値の補正処理に用いられる補正係数の算出対象となるセンサ出力値の一例、及び、本実施形態に係る補正係数の計算例を示す図である。It is a figure which shows an example of the sensor output value which is the calculation target of the correction coefficient used for the correction process of the sensor output value applied to one Embodiment, and the calculation example of the correction coefficient which concerns on this Embodiment. 一実施形態におけるリップポジションを決定するための重心位置の算出対象となるセンサ出力値の一例、及び、本実施形態におけるリップポジションの変化の一例を示す図である。It is a figure which shows an example of the sensor output value which is the object of calculation of the center of gravity position for determining the lip position in one Embodiment, and the example of the change of the lip position in this Embodiment. 一実施形態に係る電子楽器における制御方法のメインルーチンを示すフローチャートである。It is a flowchart which shows the main routine of the control method in the electronic musical instrument which concerns on one Embodiment. 一実施形態に係る電子楽器の制御方法に適用されるリップ検出部の処理を示すフローチャートである。It is a flowchart which shows the process of the lip detection part applied to the control method of the electronic musical instrument which concerns on one Embodiment.

以下、本発明に係る検出装置、電子楽器、検出方法及び制御プログラムの実施形態について図面を参照しながら詳しく説明する。ここでは、操作位置を検出する検出装置を適用した電子楽器、並びに、当該操作位置の検出方法及び操作位置を検出するための制御プログラムを適用した電子楽器の制御方法の例を示して説明する。 Hereinafter, embodiments of a detection device, an electronic musical instrument, a detection method, and a control program according to the present invention will be described in detail with reference to the drawings. Here, an example of an electronic musical instrument to which a detection device for detecting an operating position is applied, and a method for detecting the operating position and a method for controlling an electronic musical instrument to which a control program for detecting the operating position is applied will be described.

<電子楽器>
図1は、本発明に係る検出装置を適用した電子楽器の一実施形態の全体構造を示す外観図である。図1(a)は本実施形態に係る電子楽器の側面図であり、図1(b)は電子楽器の正面図である。また、図中、IA部は電子楽器100の一部透視部分を示す。
<Electronic musical instrument>
FIG. 1 is an external view showing the overall structure of an embodiment of an electronic musical instrument to which the detection device according to the present invention is applied. FIG. 1A is a side view of the electronic musical instrument according to the present embodiment, and FIG. 1B is a front view of the electronic musical instrument. Further, in the figure, the IA part shows a partially see-through part of the electronic musical instrument 100.

本発明に係る検出装置が適用される電子楽器100は、例えば図1(a)、(b)に示すように、アコースティック管楽器のサクソフォンの形状を模した外観を有している。電子楽器100は、管状の筐体を有する管体部100aの一端側(図面上方端側)に演奏者(ユーザ)が口に咥えるマウスピース10が取り付けられ、他端側(図面下方端側)に楽音を出力するスピーカを有するサウンドシステム9が設けられている。 The electronic musical instrument 100 to which the detection device according to the present invention is applied has an appearance imitating the shape of a saxophone of an acoustic wind instrument, for example, as shown in FIGS. 1 (a) and 1 (b). In the electronic musical instrument 100, a mouthpiece 10 to which a player (user) holds a mouth is attached to one end side (upper end side in the drawing) of a tube body portion 100a having a tubular housing, and the other end side (lower end side in the drawing). ) Is provided with a sound system 9 having a speaker that outputs a musical sound.

また、管体部100aの側面には、演奏者が指で操作することにより、音高を決定する演奏キーや、楽曲のキーに合わせて音高を変える機能等を設定する設定キー等を有する操作子1が設けられている。また、例えば図1(b)のIA部に示すように、管体部100aの内部に設けられた基板上には、息圧検出部2、制御手段としてのCPU(Central Processing Unit)5、ROM(Read Only Memory)6、RAM(Random Access Memory)7、音源8が設けられている。 Further, on the side surface of the tube portion 100a, there are a performance key for determining the pitch by being operated by the performer with a finger, a setting key for setting a function of changing the pitch according to the key of the music, and the like. An operator 1 is provided. Further, for example, as shown in the IA section of FIG. 1 (b), a breath pressure detecting section 2, a CPU (Central Processing Unit) 5 as a control means, and a ROM are placed on a substrate provided inside the tube section 100a. (Read Only Memory) 6, RAM (Random Access Memory) 7, and sound source 8 are provided.

図2は、本実施形態に係る電子楽器の機能構成の一例を示すブロック図である。
本実施形態に係る電子楽器100は、図2に示すように、概略、操作子1と、息圧検出部2と、リップ検出部3と、タン検出部4と、CPU5と、ROM6と、RAM7と、音源8と、サウンドシステム9とを有し、これらのうち、サウンドシステム9を除く各部がバス9aを介して相互に接続されている。ここで、リップ検出部3及びタン検出部4は、後述するマウスピース10のリード部11に設けられている。なお、図2に示す機能構成は、本発明に係る電子楽器を実現するための一例であり、この構成に限定されるものではない。また、図2に示す電子楽器の機能構成のうち、少なくともリップ検出部3と、CPU5とは、本発明に係る検出装置を構成する。
FIG. 2 is a block diagram showing an example of the functional configuration of the electronic musical instrument according to the present embodiment.
As shown in FIG. 2, the electronic musical instrument 100 according to the present embodiment generally includes an operator 1, a breath pressure detection unit 2, a lip detection unit 3, a tongue detection unit 4, a CPU 5, a ROM 6, and a RAM 7. And a sound source 8 and a sound system 9, and each part of these except the sound system 9 is connected to each other via a bus 9a. Here, the lip detection unit 3 and the tongue detection unit 4 are provided on the lead unit 11 of the mouthpiece 10, which will be described later. The functional configuration shown in FIG. 2 is an example for realizing the electronic musical instrument according to the present invention, and is not limited to this configuration. Further, among the functional configurations of the electronic musical instrument shown in FIG. 2, at least the lip detection unit 3 and the CPU 5 constitute a detection device according to the present invention.

操作子1は、上述した演奏キー、設定キー等の各種キーに対する演奏者によるキー操作を受け付けて、その操作情報をCPU5に出力する。ここで、操作子1に設けられる設定キーは、具体的には、楽曲のキーに合わせて音高を変える機能のほか、音高の微調整を行う機能や音色を設定する機能を有するとともに、リップ検出部3において検出された演奏者のリップ(下唇)の接触状態に応じて微調整されるモードを楽音の音色、音量、音高の中から予め選択する機能を有している。 The operator 1 accepts key operations by the performer for various keys such as the performance key and the setting key described above, and outputs the operation information to the CPU 5. Here, the setting key provided on the controller 1 has, specifically, a function of changing the pitch according to the key of the musical piece, a function of finely adjusting the pitch, and a function of setting the tone color. It has a function of preliminarily selecting a mode finely adjusted according to the contact state of the performer's lip (lower lip) detected by the lip detection unit 3 from the timbre, volume, and pitch of the musical sound.

息圧検出部2は、演奏者によりマウスピース10に吹き込まれた息の圧力(息圧)を検出し、その息圧情報をCPU5に出力する。リップ検出部3は、演奏者のリップの接触を検出する静電容量方式のタッチセンサを有し、リップの接触位置又は接触範囲、及び、その接触面積や接触強度に応じた静電容量をリップの検出情報としてCPU5に出力する。タン検出部4は、演奏者のタン(舌部)の接触を検出する静電容量方式のタッチセンサを有し、タンの接触の有無、及び、その接触面積に応じた静電容量をタンの検出情報としてCPU5に出力する。 The breath pressure detection unit 2 detects the breath pressure (breath pressure) blown into the mouthpiece 10 by the performer, and outputs the breath pressure information to the CPU 5. The lip detection unit 3 has a capacitance type touch sensor that detects the contact of the performer's lip, and lips the capacitance according to the contact position or range of the lip, and the contact area and contact strength thereof. Is output to the CPU 5 as the detection information of. The tongue detection unit 4 has a capacitance type touch sensor that detects the contact of the tongue (tongue portion) of the performer, and determines the capacitance according to the presence or absence of contact of the tongue and the contact area of the tongue. It is output to the CPU 5 as detection information.

CPU5は、電子楽器100の各部を制御する制御部として機能する。CPU5は、ROM6に記憶された所定のプログラムを読み出してRAM7に展開し、展開されたプログラムと協働して各種の処理を実行する。例えば、CPU5は、操作子1から入力された操作情報と、息圧検出部2から入力された息圧情報と、リップ検出部3から入力されたリップの検出情報と、タン検出部4から入力されたタンの検出情報と、に基づいて、楽音の生成を音源8に指示する。 The CPU 5 functions as a control unit that controls each unit of the electronic musical instrument 100. The CPU 5 reads a predetermined program stored in the ROM 6 and expands it in the RAM 7, and executes various processes in cooperation with the expanded program. For example, the CPU 5 inputs the operation information input from the operation element 1, the breath pressure information input from the breath pressure detection unit 2, the lip detection information input from the lip detection unit 3, and the tongue detection unit 4. Based on the detected tongue detection information, the sound source 8 is instructed to generate a musical sound.

具体的には、CPU5は、操作子1から入力された操作情報としての音高情報に基づいて、楽音の音高を設定する。また、CPU5は、息圧検出部2から入力された息圧情報に基づいて、楽音の音量を設定し、リップ検出部3から入力されたリップの検出情報に基づいて、楽音の音色、音量、音高の少なくとも1つを微調整する。また、CPU5は、タン検出部4から入力されたタンの検出情報に基づいて、タンがリード部11接触しているか否かを判定して楽音のノートオン(発音)、ノートオフ(発音キャンセル)を設定する。 Specifically, the CPU 5 sets the pitch of the musical tone based on the pitch information as the operation information input from the operator 1. Further, the CPU 5 sets the volume of the musical tone based on the breath pressure information input from the breath pressure detection unit 2, and based on the lip detection information input from the lip detection unit 3, the tone color and volume of the musical tone. Fine-tune at least one of the pitches. Further, the CPU 5 determines whether or not the tongue is in contact with the lead unit 11 based on the tongue detection information input from the tongue detection unit 4, and note-on (pronunciation) or note-off (pronunciation cancellation) of the musical tone. To set.

ROM6は、読み出し専用の半導体メモリであり、電子楽器100における動作や処理を制御するための各種のデータやプログラムが記憶されている。特に、本実施形態においては、後述する電子楽器の制御方法に適用されるリップポジションの決定方法(本発明に係る操作位置の検出方法に対応する)を実現するためのプログラムが記憶されている。RAM7は、揮発性の半導体メモリであり、ROM6から読み出されたデータやプログラム、あるいは、プログラムの実行中に生成されたデータ、操作子1や息圧検出部2、リップ検出部3、タン検出部4から出力された各検出情報を一時的に格納するワークエリアを有する。 The ROM 6 is a read-only semiconductor memory, and stores various data and programs for controlling operations and processes in the electronic musical instrument 100. In particular, in the present embodiment, a program for realizing a method for determining a lip position (corresponding to a method for detecting an operating position according to the present invention) applied to a control method for an electronic musical instrument described later is stored. The RAM 7 is a volatile semiconductor memory, and is a data or program read from the ROM 6, data generated during the execution of the program, an operator 1, a breath pressure detection unit 2, a lip detection unit 3, and a tongue detection. It has a work area for temporarily storing each detection information output from the unit 4.

音源8は、シンセサイザであり、操作子1からの操作情報や、リップ検出部3からのリップの検出情報、タン検出部4からのタンの検出情報に基づいたCPU5の楽音の生成指示に従い、楽音信号を生成してサウンドシステム9に出力する。サウンドシステム9は、音源8から入力された楽音信号に信号増幅等の処理を施し、内蔵のスピーカから楽音として出力する。 The sound source 8 is a synthesizer, and follows a musical tone generation instruction of the CPU 5 based on the operation information from the operator 1, the lip detection information from the lip detection unit 3, and the tongue detection information from the tongue detection unit 4. A signal is generated and output to the sound system 9. The sound system 9 performs processing such as signal amplification on the musical tone signal input from the sound source 8 and outputs it as a musical tone from the built-in speaker.

(マウスピース)
次に、本実施形態に係る電子楽器に適用されるマウスピースの構造について説明する。
図3は、本実施形態に係る電子楽器に適用されるマウスピースの一例を示す概略図である。ここで、図3(a)はマウスピースの断面図(図3(b)中のIIIA-IIIA線における断面図)であり、図3(b)はマウスピースのリード部側を示す下面図である。
(Mouthpiece)
Next, the structure of the mouthpiece applied to the electronic musical instrument according to the present embodiment will be described.
FIG. 3 is a schematic view showing an example of a mouthpiece applied to the electronic musical instrument according to the present embodiment. Here, FIG. 3A is a cross-sectional view of the mouthpiece (cross-sectional view taken along the line IIIA-IIIA in FIG. 3B), and FIG. 3B is a bottom view showing the lead portion side of the mouthpiece. be.

マウスピース10は、図3(a)、(b)に示すように、概略、マウスピース本体10aと、リード部11と、固定金具12と、を有している。マウスピース10は、マウスピース本体10aの開口部13に対して、演奏者が息を吹き込む吹込口となる僅かな隙を有するように、薄板状のリード部11が固定金具12により組み付け固定されている。すなわち、リード部11は、一般的なアコースティック管楽器のリードと同様に、マウスピース本体10aの下方側(図3(a)の下方側)の位置に組み付けられ、固定金具12により固定された基端部(以下、「ヒール」と記す)を固定端として、吹込口側(以下、「ティップ側」と記す)が自由端を形成する。 As shown in FIGS. 3A and 3B, the mouthpiece 10 roughly includes a mouthpiece main body 10a, a lead portion 11, and a fixing bracket 12. In the mouthpiece 10, a thin plate-shaped lead portion 11 is assembled and fixed by a fixing bracket 12 so as to have a slight gap with respect to the opening 13 of the mouthpiece main body 10a so as to serve as a breathing port for the performer. There is. That is, the reed portion 11 is assembled at a position on the lower side (lower side of FIG. 3A) of the mouthpiece main body 10a and is fixed by the fixing metal fitting 12, similarly to the reed of a general acoustic wind instrument. The portion (hereinafter referred to as "heel") is a fixed end, and the air inlet side (hereinafter referred to as "tip side") forms a free end.

また、リード部11は、例えば図3(a)、(b)に示すように、薄板状の絶縁性部材からなるリード基板11aと、リード基板11aの長手方向(図面左右方向)に、ティップ側(一端側)からヒール側(他端側)に向かって配列された複数のセンサ20、30~40と、を有している。ここで、リード部11の一番ティップ側に配置されたセンサ20は、タン検出部4が有する静電容量方式のタッチセンサであり、センサ30~40は、リップ検出部3が有する静電容量方式のタッチセンサである。また、リード部11の一番奥側(すなわち、ヒール側)に配置されたセンサ40は、温度センサを兼ねているものであってもよい。これらのセンサ20、30~40はいずれも、センシングパッドとしての電極を有している。ここで、センサ30~40を形成する各電極は、ほぼ等しい幅及び長さの長方形状の平面形状を有し、各電極がリード部11のティップ側からヒール側に向かってほぼ均等間隔で配列されている。 Further, as shown in FIGS. 3A and 3B, for example, the lead portion 11 has a lead substrate 11a made of a thin plate-shaped insulating member and a tip side in the longitudinal direction (left-right direction in the drawing) of the lead substrate 11a. It has a plurality of sensors 20, 30 to 40, which are arranged from (one end side) to the heel side (the other end side). Here, the sensor 20 arranged on the tip side of the lead unit 11 is a capacitive touch sensor possessed by the tongue detection unit 4, and the sensors 30 to 40 are the capacitance type possessed by the lip detection unit 3. It is a type of touch sensor. Further, the sensor 40 arranged on the innermost side (that is, the heel side) of the lead portion 11 may also serve as a temperature sensor. Each of these sensors 20, 30 to 40 has an electrode as a sensing pad. Here, the electrodes forming the sensors 30 to 40 have a rectangular planar shape having substantially the same width and length, and the electrodes are arranged at substantially equal intervals from the tip side to the heel side of the lead portion 11. Has been done.

なお、図3(b)においては、センサ30~40を形成する各電極を長方形状で示したが、本発明はこれに限定されるものではなく、例えばV字形状や波形状等の平面形状を有しているものであってもよく、また、各電極は任意の寸法や個数に設定されているものであってもよい。 In FIG. 3B, the electrodes forming the sensors 30 to 40 are shown in a rectangular shape, but the present invention is not limited to this, and the present invention is not limited to this, and has a planar shape such as a V shape or a wave shape. In addition, each electrode may be set to an arbitrary size or number.

(マウスピースと口腔との接触状態)
次に、上述したマウスピースと演奏者の口腔との接触状態について説明する。
図4は、演奏者の口腔とマウスピースとの接触状態を示す概略図である。
(Contact state between mouthpiece and oral cavity)
Next, the contact state between the mouthpiece described above and the oral cavity of the performer will be described.
FIG. 4 is a schematic view showing a contact state between the performer's oral cavity and the mouthpiece.

電子楽器100の演奏時においては、演奏者は、例えば図4に示すように、上側前歯E1をマウスピース本体10aの上部に当て、下側前歯E2を下側のリップ(下唇)LPで巻き込み、リード部11に押し付ける。これにより、マウスピース10は、上側前歯E1とリップLPとにより上下方向から挟み込まれて保持される。 When playing the electronic musical instrument 100, the performer puts the upper front tooth E1 on the upper part of the mouthpiece body 10a and involves the lower front tooth E2 with the lower lip (lower lip) LP, for example, as shown in FIG. , Press against the lead portion 11. As a result, the mouthpiece 10 is sandwiched and held from above and below by the upper front teeth E1 and the lip LP.

このとき、CPU5は、リード部11に配列されたリップ検出部3の複数のセンサ30~40から出力される、リップLPの接触状態に応じたセンサ出力値(すなわち、リップ検出部3からの検出情報)に基づいて、リップLPの接触位置(リップポジション)を決定する処理を実行する。そして、この決定したリップLPの接触位置(リップポジション)に基づいて発生する楽音の音色(音高)を制御する。このとき、アコースティック管楽器の吹奏感により近づけるように音色(音高)を制御する場合には、CPU5は、決定されたリップポジション(厳密には、図4に示すリップLPの口腔内側の端部)とリード部11のティップ側の端部との2点間の距離に基づいて、リード部11の仮想的な振動状態を推定し、その振動状態に基づいて発生される音色(音高)をエミュレートするようにして音色(音高)を制御する。また、特にアコースティック管楽器の吹奏感に近づける必要が無い場合には、単純に、リップLPの接触位置(リップポジション)に対応して予め決められた音色(音高)に基づいて、電子管楽器に特有の音色(音高)を発生するように制御してもよい。 At this time, the CPU 5 outputs a sensor output value (that is, detection from the lip detection unit 3) according to the contact state of the lip LP, which is output from a plurality of sensors 30 to 40 of the lip detection unit 3 arranged in the lead unit 11. Information), a process of determining the contact position (lip position) of the lip LP is executed. Then, the tone color (pitch) of the musical tone generated based on the determined contact position (lip position) of the lip LP is controlled. At this time, when the timbre (pitch) is controlled so as to be closer to the blowing feeling of the acoustic wind instrument, the CPU 5 determines the lip position (strictly speaking, the end of the inside of the oral cavity of the lip LP shown in FIG. 4). Based on the distance between the two points and the end of the lead portion 11 on the tip side, the virtual vibration state of the lead portion 11 is estimated, and the timbre (pitch) generated based on the vibration state is emulated. The tone color (pitch) is controlled so as to rate. Further, when it is not necessary to bring it closer to the playing feeling of an acoustic wind instrument, it is peculiar to an electronic wind instrument simply based on a predetermined tone (pitch) corresponding to the contact position (lip position) of the lip LP. It may be controlled so as to generate the tone color (pitch) of.

また、演奏時の口腔内部のタン(舌部)は、電子楽器100の奏法により、図4に示すように、タンTNがリード部11に触れていない状態(図中、実線で表記)と、リード部11に触れている状態(図中、二点鎖線で表記)と、のいずれかとなる。CPU5は、リード部11のティップ側の端部に配置されたセンサ20から出力される、タンTNの接触状態に応じたセンサ出力値(すなわち、タン検出部4からの検出情報)に基づいて、タンTNを接触させてリード部11の振動を止める奏法であるタンギングの実行状態を判断し、楽音のノートオン、ノートオフを制御する。 Further, as shown in FIG. 4, the tongue (tongue part) inside the oral cavity during performance is in a state where the tongue TN does not touch the lead part 11 (indicated by a solid line in the figure) according to the playing method of the electronic musical instrument 100. It is either in the state of touching the lead portion 11 (indicated by a two-dot chain line in the figure). The CPU 5 is based on a sensor output value (that is, detection information from the tonguing detection unit 4) corresponding to the contact state of the tonguing TN, which is output from the sensor 20 arranged at the tip-side end of the lead unit 11. The execution state of tonguing, which is a playing method in which the tonguing TN is brought into contact to stop the vibration of the lead portion 11, is determined, and the note-on and note-off of the musical sound are controlled.

(リップ検出部及びタン検出部の出力特性)
次に、上述したマウスピースを演奏者が咥えた状態におけるリップ検出部及びタン検出部の出力特性について説明する。
(Output characteristics of lip detection unit and tongue detection unit)
Next, the output characteristics of the lip detection unit and the tongue detection unit when the player holds the mouthpiece described above will be described.

図5は、演奏者がマウスピースを咥えた状態におけるリップ検出部及びタン検出部の出力特性(センサ出力値の分布)の一例、及び、比較例1におけるリップポジションの一例を示す図である。ここで、図5(a)は図4に示したように演奏者がマウスピースを咥えているだけの状態(実線で表記したタンTNがリード部11に触れておらず、タンギングを行っていない状態)におけるリップ検出部のセンサ出力値(検出情報)の分布例を示す図である。また、図5(b)は図5(a)に示したセンサ出力値に基づいて決定されるリップポジションの一例(比較例1)である。また、図5(c)は図4に示したように演奏者がマウスピースを咥え、タンギングを行っている状態(二点鎖線で表記したタンTNがリード部11に触れている状態)におけるリップ検出部及びタン検出部のセンサ出力値(検出情報)の分布例を示す図である。以下、図6以降においても同様に表記する。 FIG. 5 is a diagram showing an example of output characteristics (distribution of sensor output values) of the lip detection unit and the tongue detection unit in a state where the performer holds the mouthpiece, and an example of the lip position in Comparative Example 1. Here, FIG. 5A shows a state in which the performer is just holding the mouthpiece as shown in FIG. 4 (the tonguing shown by the solid line does not touch the lead portion 11 and is not tonguing. It is a figure which shows the distribution example of the sensor output value (detection information) of a lip detection part in a state). Further, FIG. 5 (b) is an example (comparative example 1) of the lip position determined based on the sensor output value shown in FIG. 5 (a). Further, FIG. 5C shows a state in which the performer is holding the mouthpiece and tonguing as shown in FIG. 4 (a state in which the tonguing TN represented by the alternate long and short dash line is in contact with the lead portion 11). It is a figure which shows the distribution example of the sensor output value (detection information) of a lip detection part and a tonguing detection part. Hereinafter, the same notation will be used in FIGS. 6 and later.

なお、図5(a)、(c)に示すセンサ出力値の分布図において、横軸はリード基板11a上にティップ側からヒール側に向かって配列された各センサ20、30~40の位置PSTN、PS0~PS10を示し、縦軸は各位置PSTN、PS0~PS10のセンサ20、30~40から出力される出力値(静電容量の値をA/D変換して0~255までの8bitの値を示すセンサ出力値)を示す。ここで、図5(a)に示す分布図においては、リード部11に配列されるセンサ20、30~40のうちの、ティップ側に配置された位置PSTN、PS0のセンサ20、30を除外して、位置PS1~PS10のセンサ31~40からのセンサ出力値のみを示した。 In the distribution diagram of the sensor output values shown in FIGS. 5A and 5C, the horizontal axis is the position PS of each of the sensors 20, 30 to 40 arranged from the tip side to the heel side on the lead substrate 11a. TN , PS0 to PS10 are shown, and the vertical axis is the output value output from the sensors 20, 30 to 40 of each position PS TN , PS0 to PS10 (capacitance value is A / D converted to 0 to 255). The sensor output value indicating the value of 8 bits) is shown. Here, in the distribution diagram shown in FIG. 5A, among the sensors 20, 30 to 40 arranged in the lead portion 11, the sensors 20 and 30 at the positions PSTN and PS0 arranged on the tip side are excluded. Then, only the sensor output values from the sensors 31 to 40 at the positions PS1 to PS10 are shown.

上述したように、本実施形態に係るマウスピース10においては、リード部11へのリップ(下唇)LPやタン(舌部)TNの接触状態を、リード基板11aに配列された複数のセンサ20、30~40の各電極における静電容量に基づいて、例えば256段階の出力値で検出する方式を採用している。ここで、複数のセンサ20、30~40がリード基板11aの長手方向に一列に配置されているため、演奏者がマウスピース10を普通に咥え、タンギングを行っていない状態では、図5(a)に示すように、リード部11にリップLPが触れている領域とその近傍のセンサ(例えば位置PS4~PS6の各センサ34~36)が反応して、そのセンサ出力値が高い値を示す。 As described above, in the mouthpiece 10 according to the present embodiment, the contact state of the lip (lower lip) LP and the tongue (tongue portion) TN to the lead portion 11 is determined by the plurality of sensors 20 arranged on the lead substrate 11a. , 30 to 40, based on the capacitance in each electrode, for example, a method of detecting with an output value of 256 steps is adopted. Here, since the plurality of sensors 20, 30 to 40 are arranged in a row in the longitudinal direction of the lead substrate 11a, when the performer normally holds the mouthpiece 10 and does not perform tonguing, FIG. 5 ( As shown in a), the region where the lip LP is in contact with the lead portion 11 and the sensors in the vicinity thereof (for example, sensors 34 to 36 at positions PS4 to PS6) react with each other, and the sensor output value shows a high value. ..

一方、リップLPが触れていない領域(すなわち、リップLPが触れている領域のティップ側及びヒール側)のセンサ(例えば位置PS1、PS2、PS8~PS10の各センサ31、32、38~40)からのセンサ出力値は、相対的に低い値を示す。すなわち、この場合のリップ検出部3の各センサ31~40から出力されるセンサ出力値の分布は、図5(a)に示すように、演奏者がリップLPを最も強く接触させた位置のセンサ(概ね位置PS4~PS6の各センサ34~36)からのセンサ出力値を最大値とする山形を示す特徴を有している。 On the other hand, from the sensors in the area not touched by the lip LP (that is, the tip side and the heel side of the area touched by the lip LP) (for example, sensors 31, 32, 38 to 40 at positions PS1, PS2, PS8 to PS10). The sensor output value of is relatively low. That is, as shown in FIG. 5A, the distribution of the sensor output values output from the sensors 31 to 40 of the lip detection unit 3 in this case is the sensor at the position where the performer most strongly contacts the lip LP. It has a feature showing a chevron shape with the sensor output value from (generally the sensors 34 to 36 at positions PS4 to PS6) as the maximum value.

(リップポジションの決定方法)
次いで、図5(a)に示したようなセンサ出力値の分布に基づいて、演奏者がマウスピースを咥えた際のリップの接触位置(リップポジション)を決定する手法について説明する。
(How to determine the lip position)
Next, a method of determining the contact position (lip position) of the lip when the performer holds the mouthpiece will be described based on the distribution of the sensor output values as shown in FIG. 5A.

図5(a)に示したようなセンサ出力値の分布に基づいて、リップポジションを決定する方法としては、一般的な重心位置の算出方法を適用することができる。具体的には、重心位置xは、リップの接触状態を検出する複数のセンサからのセンサ出力値mと、各センサの位置を示す番号xとに基づいて、次の(11)式により算出される。 As a method of determining the lip position based on the distribution of the sensor output value as shown in FIG. 5A, a general method of calculating the position of the center of gravity can be applied. Specifically, the center of gravity position x G is the following equation (11) based on the sensor output values mi from a plurality of sensors that detect the contact state of the lip and the number x i indicating the position of each sensor. Is calculated by.

Figure 0007008941000001
Figure 0007008941000001

上記の(11)式において、nは重心位置xの算出に用いるセンサ出力値の個数である。ここでは、上述したように、リード部11に配列されたセンサ20、30~40のうちの、センサ20、30を除外した、10個(n=10)のセンサ31~40のセンサ出力値mを重心位置xの算出に用いる。また、これらのセンサ31~40の位置PS1~PS10に対応して、各センサの位置番号x(=1、2、・・・10)が設定されている。すなわち、(11)式に示した重心位置xの算出方法は、センサの配列位置の分布に基づいて平均位置を求めるための演算であり、当該平均位置を求める際に、各センサの位置に対して各センサの出力値を重み値として乗算する加重平均による演算である。ここで、リード部11に配列されたセンサ20、30~40のうちの、センサ20、30からのセンサ出力値を除外する理由は、上述したように、タンギングによりセンサ出力値が突出して高い値を示す場合があり、正確なリップポジションの算出に及ぼす影響を排除又は抑制するためである。 In the above equation (11), n is the number of sensor output values used for calculating the center of gravity position x G. Here, as described above, the sensor output values m of 10 (n = 10) sensors 31 to 40 excluding the sensors 20 and 30 among the sensors 20 and 30 to 40 arranged in the lead portion 11. i is used to calculate the center of gravity position x G. Further, the position numbers x i (= 1, 2, ... 10) of each sensor are set corresponding to the positions PS1 to PS10 of these sensors 31 to 40. That is, the method of calculating the center of gravity position x G shown in the equation (11) is an operation for obtaining the average position based on the distribution of the arrangement positions of the sensors, and when the average position is obtained, the position of each sensor is used. On the other hand, it is a weighted average calculation that multiplies the output value of each sensor as a weight value. Here, the reason for excluding the sensor output values from the sensors 20 and 30 among the sensors 20 and 30 to 40 arranged in the lead portion 11 is that the sensor output values are prominently high due to tonguing as described above. This is to eliminate or suppress the influence on the accurate calculation of the lip position.

図5(a)に示したように、演奏者がマウスピース10を普通に咥え、タンギングを行っていない状態で得られるセンサ出力値の分布に基づいて、上記の(11)式を用いて重心位置xを算出してリップポジションPS(1-10)を求めると、図5(b)に示すように、「5.1」という数値が得られる。この数値は、リップポジションをセンサの位置番号で表したものである。すなわち、位置番号1~10で示される各センサ31~40の位置PS1~PS10に対する相対位置で表したものであり、1.0~10.0の小数を含む数値で表される。また、図中に示すTotal1は、上記の(11)式の分子であって、各センサ31~40におけるセンサ出力値mと位置番号xとの積の総和であり、Total2は、上記の(11)式の分母であって、各センサ31~40からのセンサ出力値mの総和である。なお、図中に示すリップポジションPS(1-10)は、音源8において利用する際には、7ビットで表現した数値であるMIDI信号に変換(位置PS1~PS10までの範囲を0~127の値に割り当て)してから利用される。具体的には、次の(12)式に示すように、(11)式により算出された重心位置xであるリップポジションPS(1-10)の数値から1を減算した後に127/9が乗算される。例えば、リップポジションPS(1-10)が「5.1」であれば、(12)式により求められる数値「58」が7ビットで表現したMIDI信号として利用される。 As shown in FIG. 5A, the above equation (11) is used based on the distribution of the sensor output values obtained when the performer normally holds the mouthpiece 10 and does not perform tonguing. When the center of gravity position x G is calculated to obtain the lip position PS (1-10), a numerical value of "5.1" is obtained as shown in FIG. 5 (b). This numerical value represents the lip position by the position number of the sensor. That is, it is represented by the relative position of each of the sensors 31 to 40 represented by the position numbers 1 to 10 with respect to the positions PS1 to PS10, and is represented by a numerical value including a decimal number of 1.0 to 10.0. Further, Total1 shown in the figure is the molecule of the above equation (11), and is the sum of the products of the sensor output value mi and the position number xi in each sensor 31 to 40, and Total2 is the above-mentioned molecule. It is the denominator of the equation (11), and is the sum of the sensor output values mi from each sensor 31 to 40. The lip position PS (1-10) shown in the figure is converted into a MIDI signal which is a numerical value expressed by 7 bits when used in the sound source 8 (the range from the positions PS1 to PS10 is 0 to 127). It is used after (assigning to a value). Specifically, as shown in the following equation (12), 127/9 is obtained after subtracting 1 from the numerical value of the lip position PS (1-10) which is the center of gravity position x G calculated by the equation (11). To be multiplied. For example, if the lip position PS (1-10) is "5.1", the numerical value "58" obtained by the equation (12) is used as a MIDI signal expressed by 7 bits.

Figure 0007008941000002
Figure 0007008941000002

一方、演奏者がマウスピース10を咥え、タンギングを行っている状態では、図5(c)に示すように、タンTNが触れているセンサ20(図中、位置PSTNで表記)が反応して、そのセンサ出力値が突出して高い値を示す。このとき、タンTN1が触れているセンサ20の近傍のセンサや演奏者の口腔内に位置するセンサ(例えば位置PS0~PS3のセンサ30~33)も反応して、そのセンサ出力値が変動(増大)することがある。 On the other hand, when the performer is holding the mouthpiece 10 and performing tonguing, the sensor 20 touched by the tongue TN (indicated by the position PS TN in the figure) reacts as shown in FIG. 5 (c). Then, the sensor output value is prominently high. At this time, the sensor near the sensor 20 touched by the tongue TN1 and the sensor located in the player's oral cavity (for example, the sensors 30 to 33 at positions PS0 to PS3) also react, and the sensor output value fluctuates (increases). ) May.

すなわち、上述したように、リード部11に配列されるセンサ20、30~40に適用される静電容量方式のタッチセンサにおいては、温度や湿気の影響で検出値が変動することが知られている。具体的には、リード部11の温度の上昇に伴って、略全てのセンサ20、30~40から出力されるセンサ出力値が増加する現象が知られており、一般に温度ドリフトと呼ばれている。ここで、電子楽器100の演奏中に生じるリード部11の温度状態の変化は、特に、リップLPが触れることによりリード基板11a全体に体温が伝わることの影響が大きい。その他にも、タンギングによりタンTNが直接リード部11に触れたり、マウスピース10を咥えた状態が長い時間保持されることにより口腔内の温度や湿気が上昇したりすることにより、リード基板11aの一部の温度が上昇して、図5(c)のVC部に示すように、温度が上昇した位置PSTN、PS0~PS3の各センサ20、30~33からのセンサ出力値がばらついたりノイズが混入したりして変動する場合もある。 That is, as described above, in the capacitive touch sensors applied to the sensors 20, 30 to 40 arranged in the lead portion 11, it is known that the detected value fluctuates due to the influence of temperature and humidity. There is. Specifically, it is known that the sensor output values output from substantially all the sensors 20, 30 to 40 increase as the temperature of the lead portion 11 rises, which is generally called temperature drift. .. Here, the change in the temperature state of the reed portion 11 that occurs during the performance of the electronic musical instrument 100 is particularly greatly affected by the fact that the body temperature is transmitted to the entire reed substrate 11a by touching the lip LP. In addition, the tonguing causes the tonguing TN to directly touch the lead portion 11, and the temperature and humidity in the oral cavity rise due to the mouthpiece 10 being held for a long time, thereby causing the lead substrate 11a to rise. As a part of the temperature rises, as shown in the VC section of FIG. 5C, the sensor output values from the sensors 20 and 30 to 33 of the PSTN and PS0 to PS3 where the temperature has risen fluctuate or become noise. May fluctuate due to contamination.

そのため、上述したようなリップ検出部3の全部又は大半のセンサからのセンサ出力値に対して、上記の(11)式を用いて重心位置(又は加重平均)を算出してリップポジションを決定する手法を適用した場合には、リップポジションPS(1-10)が本来のリップポジションの位置からずれてしまい、後述する発音処理において演奏者が意図する吹奏感や楽音のエフェクトを十分に実現できなくなる場合がある。なお、本明細書においては、図5(a)、(b)に示したように、リード部11に配列された略全てのセンサ31~40からのセンサ出力値に対して、上記の(11)式を用いて重心位置(又は加重平均)を算出してリップポジションを求める手法を、便宜的に「比較例1」と表記する。 Therefore, the center of gravity position (or weighted average) is calculated using the above equation (11) for the sensor output values from all or most of the sensors of the lip detection unit 3 as described above, and the lip position is determined. When the method is applied, the lip position PS (1-10) deviates from the original position of the lip position, and it becomes impossible to sufficiently realize the effect of the brass band and the musical sound intended by the performer in the sound processing described later. In some cases. In addition, in this specification, as shown in FIGS. ) Is used to calculate the position of the center of gravity (or weighted average) to obtain the lip position, which is referred to as "Comparative Example 1" for convenience.

図6は、比較例2におけるリップポジションの一例を示す図である。図6(a)は図6(b)、(c)に示すセンサ出力値に基づいて決定されるリップポジションの一例である。ここで、図6(a)の左表において、位置PS1~PS10に配置された各センサ31~40からのセンサ出力値の分布のうちの、最大値となるセンサ出力値を、便宜的にハーフトーンを施した太線枠囲みで示した。また、図6(b)、(c)はリップポジションを決定するための重心位置の算出対象となるセンサ出力値の分布例を示す図である。 FIG. 6 is a diagram showing an example of the lip position in Comparative Example 2. FIG. 6A is an example of a lip position determined based on the sensor output values shown in FIGS. 6B and 6C. Here, in the left table of FIG. 6A, the sensor output value that is the maximum value in the distribution of the sensor output values from the sensors 31 to 40 arranged at the positions PS1 to PS10 is halved for convenience. It is shown by a thick line frame with tones. Further, FIGS. 6B and 6C are diagrams showing distribution examples of sensor output values for which the position of the center of gravity for determining the lip position is calculated.

上述したような比較例1における問題を解決する手法としては、タンギングや口腔内の温度や湿気の影響を受けやすい、リード部11のティップ側に配置されたセンサからのセンサ出力値を、リップポジションを決定する際の算出対象から除外する手法を適用することが考えられる。例えば図6(a)~(c)に示すように、図5(a)と同等のセンサ出力値の分布を示す場合において、センサ出力値が最大値max(1-10)となるセンサの位置よりも、マウスピース10の奥側(ヒール側)に配置されたセンサからのセンサ出力値のみに基づいて、上記の(11)式を用いて重心位置(又は加重平均)を算出してリップポジションを求める手法を適用することができる。本明細書においては、この手法を便宜的に「比較例2」と表記する。 As a method for solving the problem in Comparative Example 1 as described above, the sensor output value from the sensor arranged on the tip side of the lead portion 11, which is easily affected by tonguing and the temperature and humidity in the oral cavity, is set to the lip position. It is conceivable to apply a method of excluding from the calculation target when determining. For example, as shown in FIGS. 6 (a) to 6 (c), when the distribution of the sensor output value equivalent to that of FIG. 5 (a) is shown, the position of the sensor at which the sensor output value becomes the maximum value max (1-10). Rather, the center of gravity position (or weighted average) is calculated using the above equation (11) based only on the sensor output value from the sensor arranged on the back side (heel side) of the mouthpiece 10, and the lip position. The method of finding is applicable. In the present specification, this method is referred to as "Comparative Example 2" for convenience.

このような比較例2の手法においては、センサ出力値が最大値max(1-10)となるセンサの位置、すなわち、リップLPがリード部11に強く接触している位置(図6(b)ではセンサ34の位置PS4)よりも、口腔外側となるヒール側に配置されたセンサ(図6(b)では位置PS5~PS10の各センサ35~40)からのセンサ出力値のみを、重心位置の算出対象としている。なお、図6(b)では算出対象を明示するために、対象外のセンサのセンサ出力値を破線の棒グラフで示した。これにより、上述したタンギングや口腔内の温度や湿気によるセンサ出力値の変動(図5(c)のVC部に示したセンサ出力値の変動分)の影響を受けないようにして、リップポジションのずれを抑制することができる。 In such a method of Comparative Example 2, the position of the sensor where the sensor output value is the maximum value max (1-10), that is, the position where the lip LP is in strong contact with the lead portion 11 (FIG. 6 (b)). Then, only the sensor output value from the sensor arranged on the heel side, which is the outside of the oral cavity (sensors 35 to 40 at positions PS5 to PS10 in FIG. 6 (b)), rather than the position PS4) of the sensor 34, is used as the center of gravity. It is the target of calculation. In FIG. 6B, the sensor output values of the non-target sensors are shown by a broken line bar graph in order to clearly indicate the calculation target. As a result, the lip position is not affected by the above-mentioned tonguing and the fluctuation of the sensor output value due to the temperature and humidity in the oral cavity (the fluctuation of the sensor output value shown in the VC portion of FIG. 5C). The deviation can be suppressed.

しかしながら、上述した比較例2の手法においては、演奏者が演奏中にマウスピース10を咥える位置を変化させた場合のように、センサ出力値が最大値となるセンサが隣接するセンサに移行することにより、その位置番号が変化(増加又は減少)すると、リップポジションの数値が大きく変化してしまう場合がある。 However, in the method of Comparative Example 2 described above, the sensor having the maximum sensor output value shifts to the adjacent sensor, as in the case where the performer changes the position where the mouthpiece 10 is held during the performance. As a result, when the position number changes (increases or decreases), the numerical value of the lip position may change significantly.

例えば図6(a)の左表のリップLPの接触状態「ST1」、及び、図6(b)に示すように、センサ出力値が最大値max(1-10)となるセンサの位置が「PS4」の場合、当該位置PS4よりもヒール側の位置PS5~PS10に配置された各センサ35~40のセンサ出力値のみに基づいて、上記の(11)式を用いて重心位置(又は加重平均)を算出してリップポジションPS(Right)を求めると、図6(a)の右表に示すように、「6.18」という数値が得られる。 For example, the contact state “ST1” of the lip LP in the left table of FIG. 6 (a) and the position of the sensor where the sensor output value becomes the maximum value max (1-10) as shown in FIG. 6 (b) are “. In the case of "PS4", the center of gravity position (or weighted average) is used by the above equation (11) based only on the sensor output values of the sensors 35 to 40 arranged at the positions PS5 to PS10 on the heel side of the position PS4. ) Is calculated to obtain the lip position PS (Right), and as shown in the table on the right side of FIG. 6A, the numerical value “6.18” is obtained.

これに対して、演奏者がマウスピース10を咥える位置を変化させることにより、例えば図6(a)の左表のリップLPの接触状態「ST2」、及び、図6(c)に示すように、センサ出力値が最大値max(1-10)となるセンサの位置が「PS4」から「PS5」に変化した場合、当該位置PS5よりもヒール側の位置PS6~PS10に配置されたセンサ36~40のセンサ出力値のみに基づいて、リップポジションPS(Right)を同様に求めると、図6(a)の右表に示すように、「7.00」という数値が得られる。 On the other hand, by changing the position where the player holds the mouthpiece 10, for example, as shown in the contact state “ST2” of the lip LP in the left table of FIG. 6A and FIG. 6C. In addition, when the position of the sensor whose sensor output value is the maximum value max (1-10) changes from "PS4" to "PS5", the sensors 36 arranged at the positions PS6 to PS10 on the heel side of the position PS5. When the lip position PS (Right) is similarly obtained based only on the sensor output values of to 40, the numerical value of "7.00" is obtained as shown in the right table of FIG. 6A.

このように、比較例2の手法においては、センサ出力値が最大値max(1-10)となるセンサの位置番号が変化(増加又は減少)することにより、算出されるリップポジションPS(Right)の数値が大きく変化(上記の例では「6.18」→「7.00」へ「0.82」の変化)することになる。 As described above, in the method of Comparative Example 2, the lip position PS (Right) calculated by changing (increasing or decreasing) the position number of the sensor whose sensor output value is the maximum value max (1-10). The value of is greatly changed (in the above example, the change is "0.82" from "6.18" to "7.00").

ここで、上述した比較例1と比較例2に示した手法により決定されるリップポジションの変化について詳しく説明する。
図7は、比較例1におけるリップポジションを決定するための重心位置の算出対象となるセンサ出力値の一例、及び、比較例1におけるリップポジションの変化の一例を示す図であり、図8は、比較例2におけるリップポジションを決定するための重心位置の算出対象となるセンサ出力値の一例、及び、比較例2におけるリップポジションの変化の一例を示す図である。また、図9は、比較例1、2及び本実施形態におけるリップポジションの変化の一例を示すグラフである。なお、図9に示すリップポジションの変化のグラフにおいて、横軸は演奏者が咥えているマウスピース10のリード部11上での位置であって、リード基板11a上に配列された複数のセンサ31~40の位置を、1~26までの各位置に細分化して相対的に表記したものを示し、縦軸はリップポジション(1.0~10.0までの小数を含む数値)を示す。
Here, the change in lip position determined by the methods shown in Comparative Example 1 and Comparative Example 2 described above will be described in detail.
FIG. 7 is a diagram showing an example of a sensor output value for which the center of gravity position for determining the lip position in Comparative Example 1 is calculated, and an example of a change in the lip position in Comparative Example 1. FIG. It is a figure which shows an example of the sensor output value which is the calculation target of the center of gravity position for determining the lip position in the comparative example 2, and an example of the change of the lip position in the comparative example 2. Further, FIG. 9 is a graph showing an example of changes in the lip position in Comparative Examples 1 and 2 and the present embodiment. In the graph of the change in lip position shown in FIG. 9, the horizontal axis is the position on the lead portion 11 of the mouthpiece 10 held by the performer, and the plurality of sensors 31 arranged on the lead substrate 11a. The positions from 40 to 40 are subdivided into each position from 1 to 26 and expressed relatively, and the vertical axis indicates the lip position (a numerical value including a decimal number from 1.0 to 10.0).

比較例1においては、図7の左表に示すように、リップポジションを決定するための重心位置(又は加重平均)の算出対象として、リード部11に配列された略全てのセンサ(例えば位置PSTN、PS0の各センサ20、30を除外した、位置PS1~PS10の各センサ31~40)からのセンサ出力値が用いられる。ここでは、演奏者がマウスピース10のリード部11上の任意の位置を咥えている状態をシミュレーションするために、ティップ側からヒール方向に複数のセンサ31~40が配列されたリード基板11a上に、リップに模した部材(例えば唇や指と同等の電気的特性を有する導電性ゴム等の擬似部材)を1~26までの各相対位置に対応するように一定のピッチ(例えば10μm間隔)で接触させて、その際に各センサ31~40から出力されるセンサ出力値を取得する実験を行った。なお、図7の左表に示したセンサ31~40からのセンサ出力値は、演奏者がタンギングを行っておらず、また、マウスピースを咥えることによる口腔内の温度や湿気に起因する温度ドリフトの影響や、人体との接触によるノイズの影響も受けていない(もしくは、温度ドリフトやノイズの影響をオフセットした)理想的な実験条件を想定した場合のセンサ出力値に相当する。また、図7の左表において、上記の各相対位置に擬似部材を接触させた際に取得された各センサ31~40からのセンサ出力値の分布のうちの、最大値max(1-10)となるセンサ出力値を、便宜的にハーフトーンを施した太線枠囲みで示した(以下、同じ)。 In Comparative Example 1, as shown in the left table of FIG. 7, substantially all sensors (for example, position PS) arranged in the lead portion 11 are calculated as the center of gravity position (or weighted average) for determining the lip position. The sensor output values from the sensors 31 to 40 at positions PS1 to PS10, excluding the sensors 20 and 30 of TN and PS0, are used. Here, in order to simulate a state in which the performer is holding an arbitrary position on the lead portion 11 of the mouthpiece 10, a plurality of sensors 31 to 40 are arranged on the lead substrate 11a from the tip side in the heel direction. , A member imitating a lip (for example, a pseudo-member such as a conductive rubber having the same electrical characteristics as a lip or a finger) at a constant pitch (for example, at 10 μm intervals) so as to correspond to each relative position from 1 to 26. An experiment was conducted in which the sensors were brought into contact with each other and the sensor output values output from the sensors 31 to 40 at that time were acquired. The sensor output values from the sensors 31 to 40 shown in the left table of FIG. 7 are the temperatures caused by the temperature and humidity in the oral cavity due to the performer not tonguing and holding the mouthpiece. It corresponds to the sensor output value assuming ideal experimental conditions that are not affected by drift or noise due to contact with the human body (or offset from the effects of temperature drift and noise). Further, in the left table of FIG. 7, the maximum value max (1-10) of the distribution of the sensor output values from the sensors 31 to 40 acquired when the pseudo member is brought into contact with each of the above relative positions. The sensor output value is shown in a thick line frame with halftone for convenience (hereinafter the same).

このように、リップLPが接触する位置を細分化した狭いピッチに設定して、各相対位置においてセンサ31~40から出力されるセンサ出力値の全てに基づいて、重心位置(又は加重平均)を算出することにより、図7の右表に示すように各相対位置におけるリップポジションPS(1-10)が決定される。そして、リード基板11a上のリップLPが接触する相対位置(1~26)ごとに、リップポジションPS(1-10)を示したものが、図9中に細い実線で示したグラフである。 In this way, the position where the lip LP contacts is set to a subdivided narrow pitch, and the center of gravity position (or weighted average) is set based on all the sensor output values output from the sensors 31 to 40 at each relative position. By calculation, the lip position PS (1-10) at each relative position is determined as shown in the right table of FIG. 7. The graph showing the lip position PS (1-10) for each relative position (1 to 26) where the lip LP on the lead substrate 11a contacts is shown by a thin solid line in FIG.

この実験結果からも明らかなように、演奏者がタンギングを行っておらず、また、マウスピースを咥えることによる温度ドリフトや、口腔内の温度や湿気の影響も受けていない理想的な条件下では、図9のグラフに示すように、リップLPの接触する位置がリード部11のティップ側からヒール方向に一定のピッチで移動するにしたがって、リップポジションPS(1-10)の数値が連続的に滑らかに増加する傾向を示す。 As is clear from the results of this experiment, the performer is not tonguing, and the ideal conditions are not affected by the temperature drift caused by holding the mouthpiece, or the temperature and humidity in the oral cavity. Then, as shown in the graph of FIG. 9, as the contact position of the lip LP moves from the tip side of the lead portion 11 toward the heel at a constant pitch, the numerical value of the lip position PS (1-10) is continuous. Shows a tendency to increase smoothly.

これに対して、比較例2においては、図8の左表に示すように、リップポジションを決定するための重心位置(又は加重平均)の算出対象として、図7の左表に示したセンサ31~40からの各センサ出力値のうちの、センサ出力値が最大値max(1-10)となるセンサの位置(便宜的にハーフトーンを施した太線枠囲みで表記)よりもヒール側に配置されたセンサからのセンサ出力値のみが用いられる。すなわち、演奏者がマウスピース10を咥えた状態で、リップLPが接触する位置、及び、当該位置よりも口腔内側に配置されたセンサからのセンサ出力値が、重心位置(又は加重平均)の算出対象から除外される。 On the other hand, in Comparative Example 2, as shown in the left table of FIG. 8, the sensor 31 shown in the left table of FIG. 7 is calculated as the center of gravity position (or weighted average) for determining the lip position. Of each sensor output value from 40 to 40, it is placed on the heel side from the position of the sensor where the sensor output value is the maximum value max (1-10) (indicated by the thick line frame with halftone for convenience). Only the sensor output value from the sensor is used. That is, the position where the lip LP comes into contact with the performer holding the mouthpiece 10 and the sensor output value from the sensor located inside the oral cavity from the position are the calculation of the center of gravity position (or weighted average). Excluded from the target.

このように、図7の左表に示したセンサ31~40からの各センサ出力値のうちの、タンギングや口腔内の温度や湿気の影響を受けやすい位置に配置されたセンサからのセンサ出力値を除外して、口腔外側に配置されたセンサからのセンサ出力値のみに基づいて、重心位置(又は加重平均)を算出することにより、図8の右表に示すように各相対位置におけるリップポジションPS(Right)が決定される。そして、リード基板11a上のリップLPが接触する相対位置(1~26)ごとに、リップポジションPS(Right)を示したものが、図9中に細い点線で示したグラフである。 As described above, among the sensor output values from the sensors 31 to 40 shown in the left table of FIG. 7, the sensor output values from the sensors arranged at the positions susceptible to tanging and the temperature and moisture in the oral cavity. By calculating the center of gravity position (or weighted average) based only on the sensor output value from the sensor placed outside the oral cavity, the lip position at each relative position as shown in the right table of FIG. PS (Right) is determined. The graph showing the lip position PS (Right) for each relative position (1 to 26) where the lip LP on the lead substrate 11a comes into contact is a graph shown by a thin dotted line in FIG.

この実験結果からも明らかなように、センサ出力値が最大値max(1-10)となるセンサの位置よりもヒール側に配置されたセンサからのセンサ出力値のみを用いて重心位置(又は加重平均)を算出した場合には、図9のグラフに示すように、リップLPの接触する位置がリード部11のティップ側からヒール側に一定のピッチで移動することに伴って、リップポジションPS(Right)の数値が特定の相対位置で急激に増加して階段状又は段階的に変化する傾向を示す。 As is clear from the results of this experiment, the position of the center of gravity (or weighting) uses only the sensor output value from the sensor located on the heel side of the position of the sensor where the sensor output value is the maximum value max (1-10). When the average) is calculated, as shown in the graph of FIG. 9, the contact position of the lip LP moves from the tip side to the heel side of the lead portion 11 at a constant pitch, and the lip position PS ( The value of Right) increases sharply at a specific relative position and shows a tendency to change stepwise or stepwise.

このような比較例2におけるリップポジションPS(Right)の変化傾向は、次のような理由に起因するものである。すなわち、比較例2においては、図6(b)、(c)や図8の左表に示すように、リップポジションの算出対象として、センサ出力値が最大値max(1-10)となるセンサの位置よりもヒール側に配置されたセンサからのセンサ出力値のみを用いている。この場合、センサ出力値が最大値max(1-10)となるセンサに対して、ヒール側に隣接して配置されたセンサ(例えば図6(b)では位置PS5のセンサ35や、図6(c)では位置PS6のセンサ36)からのセンサ出力値が、最大値max(1-10)に近似する程度に高い値を示す場合がある。このような場合、上記の(11)式を用いて重心位置(又は加重平均)を算出する手法によりリップポジションPS(Right)を決定すると、算出結果が最大値max(1-10)に近似する高い値を示すセンサ出力値の影響を大きく受けることになる。 The tendency of the lip position PS (Right) to change in Comparative Example 2 is due to the following reasons. That is, in Comparative Example 2, as shown in FIGS. 6 (b) and 6 (c) and the left table of FIG. 8, the sensor whose output value is the maximum value max (1-10) is the target for calculating the lip position. Only the sensor output value from the sensor located on the heel side of the position of is used. In this case, with respect to the sensor whose maximum sensor output value is max (1-10), the sensor arranged adjacent to the heel side (for example, in FIG. 6B, the sensor 35 at position PS5 and FIG. 6 ( In c), the sensor output value from the sensor 36) at the position PS6 may show a high value close to the maximum value max (1-10). In such a case, if the lip position PS (Right) is determined by the method of calculating the center of gravity position (or weighted average) using the above equation (11), the calculation result approximates the maximum value max (1-10). It will be greatly affected by the sensor output value that shows a high value.

また、リップLPが接触する相対位置が同一のセンサ(電極)の範囲内にある場合にはリップポジションPS(Right)が略一定の数値を示して変化が抑制された状態(図9に示した略平坦な部分)となる。一方、センサ出力値が最大値max(1-10)となるセンサの位置が、特定のセンサの位置(例えば図6(b)に示した位置PS4)から隣接して配置されたセンサの位置(例えば図6(c)に示した位置PS5)に変化すると、重心位置(又は加重平均)の算出対象となるセンサの範囲も変化する。 Further, when the relative position where the lip LP contacts is within the range of the same sensor (electrode), the lip position PS (Right) shows a substantially constant value and the change is suppressed (shown in FIG. 9). It becomes a substantially flat part). On the other hand, the position of the sensor whose sensor output value is the maximum value max (1-10) is the position of the sensor arranged adjacent to the position of the specific sensor (for example, the position PS4 shown in FIG. 6B). For example, when the position changes to the position PS5) shown in FIG. 6 (c), the range of the sensor for which the position of the center of gravity (or the weighted average) is calculated also changes.

すなわち、最大値max(1-10)となるセンサの位置が1つ変化(例えばPS4→PS5)することに伴って、重心位置(又は加重平均)の算出対象となるセンサの範囲におけるティップ側の境界となる位置も、ヒール側に1つ移動(例えばPS5→PS6)して位置番号が整数単位で1増加することになる。そのため、上記の(11)式を用いて重心位置(又は加重平均)を算出する手法によりリップポジションPS(Right)を決定すると、算出結果が概ね1程度増加することになり、上記の最大値max(1-10)となるセンサの位置の変化に伴って(すなわち、隣接して配置された各センサ間のピッチごとに)リップポジションPS(Right)が急激に増加する変化を示すことになる。 That is, as the position of the sensor having the maximum value max (1-10) changes by one (for example, PS4 → PS5), the position of the center of gravity (or weighted average) is on the tip side in the range of the sensor to be calculated. The position that becomes the boundary is also moved to the heel side by one (for example, PS5 → PS6), and the position number is incremented by 1 in integer units. Therefore, if the lip position PS (Right) is determined by the method of calculating the center of gravity position (or weighted average) using the above equation (11), the calculation result will increase by about 1 and the above maximum value max. It shows a change in which the lip position PS (Right) increases sharply with the change in the position of the sensor (1-10) (that is, for each pitch between the sensors arranged adjacent to each other).

そこで、本実施形態においては、次に示すような一連の手法を採用している。まず、リード部11に配列されたリップ検出部3のセンサ31~40からのセンサ出力値の分布に基づいて、演奏者がマウスピース10を強く咥えた位置(すなわち、センサ出力値が最大値となるセンサの位置)を抽出するとともに、当該位置よりもマウスピースの奥側(ヒール側)に配列されたセンサからのセンサ出力値を算出対象として抽出する。そして、抽出された算出対象となるセンサ出力値のうちの、上記のセンサ出力値が最大値となるセンサに隣接して配置されたセンサからのセンサ出力値に対して、所定の補正係数を用いた補正処理を実行する。そして、補正処理されたセンサ出力値を含む、上記の算出対象となるセンサ出力値のみに基づいて、上記の(11)式を用いて重心位置(又は加重平均)を算出してリップポジションを決定する。 Therefore, in this embodiment, the following series of methods are adopted. First, based on the distribution of the sensor output values from the sensors 31 to 40 of the lip detection unit 3 arranged in the lead unit 11, the position where the performer strongly holds the mouthpiece 10 (that is, the sensor output value is the maximum value). The position of the sensor) is extracted, and the sensor output value from the sensor arranged on the back side (heel side) of the mouthpiece from the position is extracted as a calculation target. Then, among the extracted sensor output values to be calculated, a predetermined correction coefficient is used for the sensor output value from the sensor arranged adjacent to the sensor having the maximum sensor output value. Execute the correction process that was used. Then, the center of gravity position (or weighted average) is calculated using the above equation (11) based only on the sensor output value to be calculated, including the corrected sensor output value, and the lip position is determined. do.

(リップポジションの決定方法)
以下、本実施形態に適用されるリップポジションの決定方法について詳細に説明する。
(How to determine the lip position)
Hereinafter, the method of determining the lip position applied to the present embodiment will be described in detail.

図10、図11は、本実施形態に係るリップポジションの決定方法に適用される補正係数を説明するための図である。ここで、図10(a)は図10(b)、(c)及び図11(a)、(b)に示すセンサ出力値に基づいて決定される補正係数の一例である。また、図10(b)、(c)及び図11(a)、(b)はセンサ出力値が最大値となるセンサの位置の変化と、近接するセンサのセンサ出力値の変化特性を説明するための図である。図12は、本実施形態に係るリップポジションの決定方法に適用されるセンサ出力値の補正処理の一例、及び、リップポジションの算出例を示す図である。ここで、図12(a)は図12(b)、(c)に示す補正処理後のセンサ出力値に基づいて決定されるリップポジションの一例である。また、図12(b)、(c)はリップポジションを決定するための重心位置の算出対象となるセンサ出力値の補正処理の一例を示す図である。 10 and 11 are diagrams for explaining the correction coefficient applied to the method for determining the lip position according to the present embodiment. Here, FIG. 10 (a) is an example of a correction coefficient determined based on the sensor output values shown in FIGS. 10 (b) and 10 (c) and FIGS. 11 (a) and 11 (b). Further, FIGS. 10 (b) and 10 (c) and FIGS. 11 (a) and 11 (b) explain the change in the position of the sensor at which the sensor output value becomes the maximum value and the change characteristic of the sensor output value of the adjacent sensor. It is a figure for. FIG. 12 is a diagram showing an example of sensor output value correction processing applied to the lip position determination method according to the present embodiment and an example of lip position calculation. Here, FIG. 12A is an example of a lip position determined based on the sensor output value after the correction processing shown in FIGS. 12B and 12C. Further, FIGS. 12 (b) and 12 (c) are diagrams showing an example of correction processing of the sensor output value for which the position of the center of gravity for determining the lip position is calculated.

本実施形態に係るリップポジションの決定方法においては、まず、上述した比較例2と同様に、リード部11に配列されたセンサ31~40からのセンサ出力値の分布に基づいて、センサ出力値が最大値max(1-10)となるセンサの位置を抽出し、当該位置よりもマウスピース10の奥側(ヒール側)に配置されたセンサからのセンサ出力値を、上記の(11)式に示した重心位置(又は加重平均)を算出するための対象として抽出する。 In the method for determining the lip position according to the present embodiment, first, as in Comparative Example 2 described above, the sensor output value is based on the distribution of the sensor output values from the sensors 31 to 40 arranged in the lead portion 11. The position of the sensor that has the maximum value max (1-10) is extracted, and the sensor output value from the sensor placed on the back side (heel side) of the mouse piece 10 from the position is calculated by the above equation (11). Extract as a target for calculating the indicated center of gravity position (or weighted average).

ここで、本実施形態においては、例えば図6(a)、(b)に示したように、上記の算出対象として抽出されたセンサ出力値のうちの、センサ出力値が最大値max(1-10)となるセンサの位置に対して、マウスピース10の奥側(ヒール側)に1つ隣(図に示した分布では1つ右隣に相当する)に配置されたセンサからのセンサ出力値R1、及び、同2つ隣(図に示した分布では2つ右隣に相当する)に配置されたセンサからのセンサ出力値R2に着目する。このような、センサ出力値が最大値max(1-10)となるセンサに近接する位置に配置されたセンサからのセンサ出力値に着目して、その変化を監視することにより、センサ出力値が最大値max(1-10)となるセンサの位置番号の変化や、その変化のタイミング、あるいは、そのタイミングにどの程度近づいているかを予測することができる。 Here, in the present embodiment, for example, as shown in FIGS. 6A and 6B, the sensor output value among the sensor output values extracted as the above calculation target is the maximum value max (1-). 10) The sensor output value from the sensor placed one next to the position of the sensor on the back side (heel side) of the mouse piece 10 (corresponding to one right side in the distribution shown in the figure). Focus on R1 and the sensor output value R2 from the sensors arranged two adjacent to each other (corresponding to two right neighbors in the distribution shown in the figure). By focusing on the sensor output value from the sensor located close to the sensor whose sensor output value is the maximum value max (1-10) and monitoring the change, the sensor output value can be increased. It is possible to predict the change in the position number of the sensor that reaches the maximum value max (1-10), the timing of the change, or how close to that timing.

例えば図10、図11に示すように、センサ出力値が最大値max(1-10)となるセンサの位置がPS4→PS5→・・・と変化する場合、位置PS5から位置番号が1つ増加するまでの間に、例えば図10(a)の左表に示すように、2つ隣の位置PS7のセンサ37からのセンサ出力値は「47」→「61」→「94」と急激に増加する傾向を示す。このように、センサ出力値が最大値max(1-10)となるセンサの近傍に配置されたセンサからのセンサ出力値の変化には、一定の規則性があるため、このセンサ出力値の変化を監視することにより、センサ出力値が最大値max(1-10)となるセンサが隣接するセンサに移行してその位置番号が変化しそうであるか否かの可能性や、その変化のタイミングを判断することができる。 For example, as shown in FIGS. 10 and 11, when the position of the sensor whose sensor output value is the maximum value max (1-10) changes from PS4 to PS5 to ..., the position number increases by one from the position PS5. In the meantime, for example, as shown in the left table of FIG. 10A, the sensor output value from the sensor 37 at the position PS7 next to each other increases sharply from "47" → "61" → "94". Show a tendency to do. In this way, the change in the sensor output value from the sensor placed near the sensor whose sensor output value is the maximum value max (1-10) has a certain regularity, and therefore this change in the sensor output value. By monitoring, the possibility that the sensor whose sensor output value is the maximum value max (1-10) shifts to the adjacent sensor and its position number is likely to change, and the timing of the change can be checked. You can judge.

本実施形態においては、このようなセンサ出力値の変化特性に着目して、次の(13)式に示すように、上記のセンサ出力値が最大値max(1-10)となるセンサに近接する位置に配置されたセンサからのセンサ出力値R1とR2からなる比の成分を含む補正係数Fcを定義する。なお、(13)式に示す補正係数Fcの計算式は、発明者らが種々の条件を設定して実験を行い最適化された一例を示したものであって、R1とR2からなる比の成分(R2/R1)以外の定数部分は条件設定に応じて適宜変更されるものであってもよい。 In this embodiment, paying attention to such a change characteristic of the sensor output value, as shown in the following equation (13), the sensor output value is close to the sensor having the maximum value max (1-10). The correction coefficient Fc including the component of the ratio consisting of the sensor output values R1 and R2 from the sensor arranged at the position to be used is defined. The calculation formula of the correction coefficient Fc shown in the formula (13) shows an example in which the inventors set various conditions and conducted experiments to optimize the correction coefficient Fc, and the ratio of R1 and R2 is high. The constant portion other than the component (R2 / R1) may be appropriately changed according to the condition setting.

Figure 0007008941000003
Figure 0007008941000003

そして、図12(a)の左表、及び、図12(b)、(c)に示すように、上記の(13)式により算出された補正係数Fc(図10(a)の右表)を、センサ出力値が最大値max(1-10)となるセンサに対してヒール側に隣接する(1つ隣の)位置に配置されたセンサからのセンサ出力値に対してのみ乗算する補正処理を実行する。このように、補正されたセンサ出力値を含む、上記の算出対象となるセンサ出力値に基づいて、上記の(11)式を用いて重心位置(又は加重平均)を算出することにより、センサ出力値が最大値max(1-10)となるセンサの位置番号が変化する際に、リップポジションが大きく変化する現象が抑制される。 Then, as shown in the left table of FIG. 12 (a) and FIGS. 12 (b) and 12 (c), the correction coefficient Fc calculated by the above equation (13) (right table of FIG. 10 (a)). Is multiplied only by the sensor output value from the sensor located at the position adjacent to the heel side (one next to the sensor) with respect to the sensor whose sensor output value is the maximum value max (1-10). To execute. In this way, the sensor output is calculated by calculating the position of the center of gravity (or weighted average) using the above equation (11) based on the sensor output value to be calculated above, including the corrected sensor output value. When the position number of the sensor whose value is the maximum value max (1-10) changes, the phenomenon that the lip position changes significantly is suppressed.

具体的には、例えば図10(a)の左表のリップLPの接触状態「ST1」、及び、図10(b)に示すように、センサ出力値が最大値max(1-10)となるセンサの位置が「PS4」の場合、当該位置PS4よりもヒール側に1つ隣の位置PS5に配置されたセンサ35のセンサ出力値R1、及び、同2つ隣の位置PS6に配置されたセンサ36のセンサ出力値R2に基づいて、上記の(13)式を用いて補正係数Fcを算出すると、図10(a)の右表に示すように、「0.36」という数値が得られる。 Specifically, for example, as shown in the contact state “ST1” of the lip LP in the left table of FIG. 10A and FIG. 10B, the sensor output value becomes the maximum value max (1-10). When the position of the sensor is "PS4", the sensor output value R1 of the sensor 35 arranged at the position PS5 one adjacent to the heel side of the position PS4 and the sensor arranged at the position PS6 two adjacent to the position PS4. When the correction coefficient Fc is calculated using the above equation (13) based on the sensor output value R2 of 36, a numerical value of “0.36” is obtained as shown in the right table of FIG. 10 (a).

そして、図12(a)の左表のリップLPの接触状態「ST1」、及び、図12(b)に示すように、センサ出力値が最大値max(1-10)となるセンサの位置PS4よりもヒール側に1つ隣の位置PS5に配置されたセンサ35のセンサ出力値に対して、上記の補正係数Fc(=0.36)を乗算することにより、当該センサ出力値が補正される(121×0.36≒43)。この補正されたセンサ35のセンサ出力値を含む、位置PS4よりもヒール側の各センサ35~40のセンサ出力値に基づいて、上記の(11)式を用いて重心位置(又は加重平均)を算出してリップポジションPS(Right)を求めると、図12(a)の右表に示すように、「6.65」という数値が得られる。 Then, the contact state “ST1” of the lip LP in the left table of FIG. 12A and the sensor position PS4 at which the sensor output value becomes the maximum value max (1-10) as shown in FIG. 12B. The sensor output value is corrected by multiplying the sensor output value of the sensor 35 located at the position PS5 adjacent to the heel side by the above correction coefficient Fc (= 0.36) (121). × 0.36 ≒ 43). Based on the sensor output values of each sensor 35 to 40 on the heel side of the position PS4, including the sensor output value of the corrected sensor 35, the center of gravity position (or weighted average) is determined using the above equation (11). When the lip position PS (Right) is calculated, a numerical value of "6.65" is obtained as shown in the right table of FIG. 12 (a).

一方、例えば図10(a)の左表のリップLPの接触状態「ST2」、及び、図10(c)に示すように、センサ出力値が最大値max(1-10)となるセンサの位置が「PS5」に変化した場合、当該位置PS5よりもヒール側に1つ隣の位置PS6に配置されたセンサ36のセンサ出力値R1、及び、同2つ隣の位置PS7に配置されたセンサ37のセンサ出力値R2に基づいて、上記の(13)式を用いて補正係数Fcを算出すると、図10(a)の右表に示すように、「0.69」という数値が得られる。 On the other hand, for example, the contact state “ST2” of the lip LP in the left table of FIG. 10A and the position of the sensor where the sensor output value becomes the maximum value max (1-10) as shown in FIG. 10C. Is changed to "PS5", the sensor output value R1 of the sensor 36 arranged at the position PS6 one adjacent to the heel side of the position PS5, and the sensor 37 arranged at the position PS7 two adjacent to the position PS5. When the correction coefficient Fc is calculated using the above equation (13) based on the sensor output value R2 of FIG. 10 (a), a numerical value of “0.69” is obtained as shown in the right table of FIG. 10 (a).

そして、図12(a)の左表のリップLPの接触状態「ST2」、及び、図12(c)に示すように、センサ出力値が最大値max(1-10)となるセンサの位置PS5よりも奥側に1つ隣の位置PS6に配置されたセンサ36のセンサ出力値に対して、上記の補正係数Fc(=0.69)を乗算することにより、当該センサ出力値が補正される(103×0.69≒70)。この補正されたセンサ36のセンサ出力値を含む、位置PS5よりもヒール側の各センサ36~40のセンサ出力値に基づいて、上記の(11)式を用いて重心位置(又は加重平均)を算出してリップポジションPS(Right)を求めると、図12(a)の右表に示すように、「7.19」という数値が得られる。 Then, the contact state “ST2” of the lip LP in the left table of FIG. 12A and the sensor position PS5 at which the sensor output value reaches the maximum value max (1-10) as shown in FIG. 12C. The sensor output value is corrected by multiplying the sensor output value of the sensor 36 located at the position PS6 adjacent to the back side by the above correction coefficient Fc (= 0.69) (103). × 0.69 ≒ 70). Based on the sensor output value of each sensor 36 to 40 on the heel side of the position PS5, including the sensor output value of the corrected sensor 36, the center of gravity position (or weighted average) is determined using the above equation (11). When the lip position PS (Right) is calculated, the numerical value "7.19" is obtained as shown in the right table of FIG. 12 (a).

このように、本実施形態の手法においては、センサ出力値が最大値max(1-10)となるセンサの位置番号が変化(増加又は減少)した場合であっても、算出されるリップポジションPS(Right)の数値の変化が抑制される(上記の例では「6.65」→「7.19」へ「0.54」の変化)ことが確認された。 As described above, in the method of the present embodiment, the lip position PS is calculated even when the position number of the sensor whose sensor output value is the maximum value max (1-10) changes (increases or decreases). It was confirmed that the change in the value of (Right) was suppressed (in the above example, the change from "6.65" to "7.19" to "0.54").

ここで、本実施形態に示した手法により決定されるリップポジションの変化について詳しく説明する。
図13は、本実施形態に適用されるセンサ出力値の補正処理に用いられる補正係数の算出対象となるセンサ出力値の一例、及び、本実施形態に係る補正係数の計算例を示す図であり、図14は、本実施形態におけるリップポジションを決定するための重心位置の算出対象となるセンサ出力値の一例、及び、本実施形態におけるリップポジションの変化の一例を示す図である。
Here, the change in the lip position determined by the method shown in the present embodiment will be described in detail.
FIG. 13 is a diagram showing an example of a sensor output value for which a correction coefficient used for correction processing of a sensor output value applied to the present embodiment is calculated, and an example of calculation of a correction coefficient according to the present embodiment. FIG. 14 is a diagram showing an example of a sensor output value for which the position of the center of gravity for determining the lip position in the present embodiment is calculated, and an example of a change in the lip position in the present embodiment.

上述したセンサ出力値の補正処理に用いられる補正係数Fcは、センサ出力値が最大値max(1-10)となるセンサの位置(すなわち、リップLPがリード部11に強く接触している位置;リップLPの接触状態)、及び、当該位置に対してヒール側に1つ隣及び2つ隣に配置されたセンサからのセンサ出力値に応じて変化する。例えば、上述した図7の左表に示した位置PS1~PS10の各センサ31~40からのセンサ出力値を用いてリップポジションを決定する場合、リップLPの接触状態ごとの補正係数Fcの算出対象となるセンサ出力値は図13の左表のように示され、当該算出対象に基づいて上記の(13)式を用いて算出される補正係数Fcは図13の右表のように示される。図13の右表に示した計算結果は、上記の(13)式を用いて算出された小数点以下2位までの数値を示す。ここで、計算結果が正の値の場合には、少なくとも小数点以下2位までの数値をそのまま補正係数Fcに設定する。一方、計算結果が負の値の場合には、補正係数Fcとして「0」を設定する。また、センサ出力値が最大値max(1-10)となるセンサの位置がPS9、PS10となって、上記の算出対象となるセンサ出力値を抽出できない(又は、センサ出力値が存在しない)場合には、補正係数Fcとして「NG」を設定する。 The correction coefficient Fc used in the above-mentioned correction processing of the sensor output value is the position of the sensor where the sensor output value is the maximum value max (1-10) (that is, the position where the lip LP is in strong contact with the lead portion 11; It changes according to the contact state of the lip LP) and the sensor output value from the sensors arranged one or two adjacent to the heel side with respect to the position. For example, when the lip position is determined using the sensor output values from the sensors 31 to 40 of the positions PS1 to PS10 shown in the left table of FIG. 7 described above, the correction coefficient Fc for each contact state of the lip LP is calculated. The sensor output value is shown as shown in the left table of FIG. 13, and the correction coefficient Fc calculated by using the above equation (13) based on the calculation target is shown as shown in the right table of FIG. The calculation results shown in the right table of FIG. 13 show the numerical values up to the second decimal place calculated by using the above equation (13). Here, when the calculation result is a positive value, at least the numerical value up to the second decimal place is set as it is in the correction coefficient Fc. On the other hand, when the calculation result is a negative value, "0" is set as the correction coefficient Fc. In addition, when the position of the sensor where the sensor output value becomes the maximum value max (1-10) becomes PS9 and PS10, and the sensor output value to be calculated above cannot be extracted (or the sensor output value does not exist). Is set to "NG" as the correction coefficient Fc.

そして、センサ出力値の補正処理においては、図13に示したように、センサ出力値が最大値max(1-10)となるセンサの位置(リップLPの接触状態)ごとに設定された補正係数Fcを、センサ出力値が最大値max(1-10)となる各位置に対してヒール側に1つ隣の位置に配置されたセンサからのセンサ出力値にそれぞれ乗算する。例えば、図13の左表の最上段において、センサ出力値が最大値max(1-10)となるセンサの位置(PS1)に対してヒール側に1つ隣の位置(PS2)のセンサ32からのセンサ出力値「89」に、図13の右表の最上段に示された補正係数Fc(=0.84)を乗算することにより、図13の左表の最上段に示された位置PS2のセンサ出力値「89」が図14の左表に示すように「74」(≒89×0.84)に補正される。ここで、補正係数Fcが「0」の場合、及び、「NG」の場合には、図14の左表に示すように、補正処理後のセンサ出力値は「0」に設定される。なお、図14の左表において、各センサ31~40からのセンサ出力値の分布のうちの、最大値となるセンサ出力値を、便宜的にハーフトーンを施した太線枠囲みで示し、補正処理後のセンサ出力値を太線枠囲みで示した。 Then, in the correction process of the sensor output value, as shown in FIG. 13, the correction coefficient set for each sensor position (contact state of the lip LP) at which the sensor output value becomes the maximum value max (1-10). Fc is multiplied by the sensor output value from the sensor arranged one position on the heel side with respect to each position where the sensor output value becomes the maximum value max (1-10). For example, in the uppermost row of the left table in FIG. 13, from the sensor 32 at the position (PS2) one adjacent to the heel side with respect to the sensor position (PS1) at which the sensor output value is the maximum value max (1-10). By multiplying the sensor output value "89" of FIG. 13 by the correction coefficient Fc (= 0.84) shown in the uppermost row of the table on the right side of FIG. 13, the sensor at the position PS2 shown in the uppermost row of the table on the left side of FIG. The output value "89" is corrected to "74" (≈89 × 0.84) as shown in the left table of FIG. Here, when the correction coefficient Fc is “0” and “NG”, the sensor output value after the correction process is set to “0” as shown in the left table of FIG. In the left table of FIG. 14, the sensor output value which is the maximum value among the distribution of the sensor output values from each sensor 31 to 40 is shown by a thick line frame with halftone for convenience, and correction processing is performed. The later sensor output values are shown in a thick line frame.

このような補正処理されたセンサ出力値を含む、センサ出力値が最大値max(1-10)となるセンサの位置よりもヒール側に配置された各センサからのセンサ出力値は、リップポジションを決定するための重心位置(又は加重平均)の算出対象であり、図14の左表のように示される。ここで、本実施形態に適用される補正処理においては、重心位置(又は加重平均)の算出対象となるセンサ出力値に、最大値max(1-10)に近似する程度の突出した高い値が含まれないようにすることを目的の一つにしている。そのため、図14の左表に示すように、補正されたセンサ出力値が、重心位置(又は加重平均)の算出対象となる他のセンサ出力値よりも低くなる場合の方が多くなるように(すなわち、補正処理全体において、補正されたセンサ出力値が他のセンサ出力値よりも低くなる割合が大きくなるように)、補正係数Fcが設定されている。具体的には、(13)式に示した補正係数Fcの計算式を用いることにより、センサ出力値が最大値max(1-10)となるセンサの1つ隣及び2つ隣に配置されたセンサからのセンサ出力値の比の値が大きいほど、1つ隣に配置されたセンサからのセンサ出力値に対する補正処理の強度(度合い)が高くなって、補正処理後のセンサ出力値の値が相対的に低くなる。 The sensor output value from each sensor placed on the heel side of the position of the sensor where the sensor output value is the maximum value max (1-10), including the sensor output value corrected in this way, determines the lip position. It is a calculation target of the position of the center of gravity (or weighted average) for determination, and is shown as shown in the left table of FIG. Here, in the correction process applied to the present embodiment, the sensor output value for which the position of the center of gravity (or the weighted average) is calculated has a prominently high value close to the maximum value max (1-10). One of the purposes is to prevent it from being included. Therefore, as shown in the left table of FIG. 14, there are many cases where the corrected sensor output value is lower than the other sensor output values for which the center of gravity position (or weighted average) is calculated (weighted average). That is, in the entire correction process, the correction coefficient Fc is set so that the ratio at which the corrected sensor output value becomes lower than the other sensor output values becomes large). Specifically, by using the calculation formula of the correction coefficient Fc shown in the formula (13), the sensors are arranged one or two next to the sensor whose maximum sensor output value is max (1-10). The larger the value of the ratio of the sensor output values from the sensor, the higher the intensity (degree) of the correction processing for the sensor output value from the sensor placed next to it, and the value of the sensor output value after the correction processing becomes higher. It will be relatively low.

そして、図14の左表に示した、補正処理されたセンサ出力値を含む、算出対象となるセンサ出力値に基づいて、リップポジションPS(Corr)を求めると、図14の右表のように示される。例えば、図14の左表の最上段において、センサ出力値が最大値max(1-10)となるセンサの位置(PS1)に対してヒール側に1つ隣の位置PS2に配置されたセンサ32からのセンサ出力値には、上述した補正処理が施されて重心位置(又は加重平均)の算出対象として用いられる。また、上記の補正処理の対象となったセンサ32以外の、位置PS3~PS10に配置された各センサ33~40からのセンサ出力値はそのまま重心位置(又は加重平均)の算出対象として用いられる。この補正されたセンサ32のセンサ出力値を含む、算出対象となるセンサ出力値に基づいて、上記の(11)式を用いて重心位置(又は加重平均)を算出してリップポジションPS(Corr)を求めると、図14の右表に示すように、「3.8」という数値が得られる。ここで、図13の右表に示した補正係数Fcが「NG」の場合、すなわち、補正係数Fcの算出対象となるセンサ出力値を抽出できない場合には、センサ出力値が最大値max(1-10)となるセンサの位置がPS9又はPS10にあるものと判断して、重心位置(又は加重平均)の算出を行わず、リップポジションPS(Corr)として「10」を設定する。このようにして決定されたリップポジションPS(Corr)を、リード基板11a上のリップLPが接触する相対位置(1~26)ごとに示したものが、図9中に太い実線で示したグラフである。ここで、本実施形態に適用される補正処理においては、図9中に細い点線で示したようなリップポジションの急激な変化を抑制することを目的の一つにしている。そのため、図14の左表に示すように、センサ出力値が最大値max(1-10)となるセンサが隣接するセンサに移行する直前においては、補正係数Fcの値が小さく設定されて、センサ出力値に対する補正処理の強度(度合い)が高くなり、補正処理後のセンサ出力値が相対的に小さくなる。一方、センサ出力値が最大値max(1-10)となるセンサが隣接するセンサに移行した直後においては、補正係数Fcの値が大きく設定されて、センサ出力値に対する補正処理の強度(度合い)が低くなり、補正処理後のセンサ出力値が相対的に大きくなる。 Then, when the lip position PS (Corr) is obtained based on the sensor output value to be calculated including the corrected sensor output value shown in the left table of FIG. 14, as shown in the right table of FIG. Shown. For example, in the uppermost row of the left table of FIG. 14, the sensor 32 is arranged at the position PS2 one adjacent to the heel side with respect to the sensor position (PS1) at which the sensor output value is the maximum value max (1-10). The sensor output value from is subjected to the above-mentioned correction processing and is used as a calculation target of the center of gravity position (or weighted average). Further, the sensor output values from the sensors 33 to 40 arranged at the positions PS3 to PS10 other than the sensor 32 that is the target of the above correction process are used as they are as the calculation target of the center of gravity position (or weighted average). The center of gravity position (or weighted average) is calculated using the above equation (11) based on the sensor output value to be calculated, including the sensor output value of the corrected sensor 32, and the lip position PS (Corr). As shown in the table on the right of FIG. 14, the numerical value of "3.8" is obtained. Here, when the correction coefficient Fc shown in the right table of FIG. 13 is "NG", that is, when the sensor output value for which the correction coefficient Fc is calculated cannot be extracted, the sensor output value is the maximum value max (1). -10) It is determined that the position of the sensor that becomes PS9 or PS10 is located, the center of gravity position (or weighted average) is not calculated, and "10" is set as the lip position PS (Corr). The lip position PS (Corr) determined in this way is shown for each relative position (1 to 26) where the lip LP on the lead substrate 11a contacts, and is shown by a thick solid line in FIG. be. Here, one of the purposes of the correction process applied to the present embodiment is to suppress a sudden change in the lip position as shown by a thin dotted line in FIG. Therefore, as shown in the left table of FIG. 14, the value of the correction coefficient Fc is set small immediately before the sensor having the maximum sensor output value of max (1-10) shifts to the adjacent sensor, and the sensor is set. The intensity (degree) of the correction process with respect to the output value becomes high, and the sensor output value after the correction process becomes relatively small. On the other hand, immediately after the sensor having the maximum sensor output value of max (1-10) is transferred to the adjacent sensor, the value of the correction coefficient Fc is set to a large value, and the strength (degree) of the correction process with respect to the sensor output value is set. Becomes low, and the sensor output value after the correction process becomes relatively large.

このように、本実施形態においては、センサ出力値が最大値max(1-10)となるセンサの位置に対してヒール側に1つ隣及び2つ隣に配置されたセンサからのセンサ出力値に基づいて算出された補正係数を用いて、最大値max(1-10)となるセンサに隣接し(1つ隣に配置され)、当該最大値max(1-10)に近似する程度の高い値を示すセンサ出力値を抑制する補正処理を行う。これにより、重心位置(又は加重平均)の算出対象となるセンサ出力値に、突出した高い値が含まれないようにすることができ、図14の左表及び右表に示すように、センサ出力値が最大値max(1-10)となるセンサが隣接するセンサに移行することにより、その位置番号が変化する場合であっても、その変化の前後でセンサ出力値を抑制する補正が行われるので、リップポジションPS(Corr)の急激な変化を極力抑制することができる。 As described above, in the present embodiment, the sensor output value from the sensor arranged one or two adjacent to the heel side with respect to the position of the sensor whose sensor output value is the maximum value max (1-10). Adjacent to the sensor with the maximum value max (1-10) (located one next to it) using the correction coefficient calculated based on, and high enough to approximate the maximum value max (1-10). Performs correction processing to suppress the sensor output value that indicates the value. As a result, it is possible to prevent the sensor output value to be calculated for the position of the center of gravity (or weighted average) from including a prominently high value, and as shown in the left table and the right table of FIG. 14, the sensor output. By shifting the sensor whose value is the maximum value max (1-10) to the adjacent sensor, even if the position number changes, correction is performed to suppress the sensor output value before and after the change. Therefore, it is possible to suppress abrupt changes in the lip position PS (Corr) as much as possible.

特に、本実施形態においては、図9中に太い実線で示したように、演奏者がタンギングを行っておらず、また、マウスピースを咥えることによる温度ドリフトや、口腔内の温度や湿気の影響も受けていない理想的な条件下での変化傾向(図9中に細い実線で示したリップポジションPS(1-10)の変化傾向)と同様に、リップLPの接触する位置がリード部11のティップ側からヒール方向に移動するにしたがって、リップポジションPS(Corr)の数値が比較的滑らかに増加する傾向を示すことが確認された。ここで、両者のリップポジションPS(1-10)とPS(Corr)の変化傾向の間には、1~2.5程度の差分が存在するため、本実施形態により決定されたリップポジションPS(Corr)の数値に対して、上記の理想条件下(リップポジションPS(1-10))での変化傾向の数値に近似するようにレベル調整を実行した後、上記の(12)式により7ビットで表現した数値であるMIDI信号に変換して音源8で利用される。 In particular, in the present embodiment, as shown by the thick solid line in FIG. 9, the performer does not perform tonguing, and the temperature drift due to holding the mouthpiece and the temperature and humidity in the oral cavity Similar to the change tendency under ideal conditions that are not affected (the change tendency of the lip position PS (1-10) shown by the thin solid line in FIG. 9), the contact position of the lip LP is the lead portion 11. It was confirmed that the value of the lip position PS (Corr) tends to increase relatively smoothly as the tip side moves toward the heel. Here, since there is a difference of about 1 to 2.5 between the two lip position PS (1-10) and the change tendency of PS (Corr), the lip position PS determined by the present embodiment ( After performing level adjustment for the numerical value of Corr) so as to approximate the numerical value of the change tendency under the above ideal conditions (lip position PS (1-10)), 7 bits are obtained by the above equation (12). It is converted into a MIDI signal which is a numerical value expressed in 1 and used in the sound source 8.

<電子楽器の制御方法>
次に、本実施形態に係るリップポジションの決定方法を適用した電子楽器における制御方法について説明する。ここで、本実施形態に係る電子楽器の制御方法は、上述した電子楽器100のCPU5において、特定のリップ検出部の処理プログラムを含む制御プログラムを実行することにより実現されるものである。
<Control method for electronic musical instruments>
Next, a control method in an electronic musical instrument to which the lip position determination method according to the present embodiment is applied will be described. Here, the method for controlling an electronic musical instrument according to the present embodiment is realized by executing a control program including a processing program of a specific lip detection unit in the CPU 5 of the electronic musical instrument 100 described above.

図15は、本実施形態に係る電子楽器における制御方法のメインルーチンを示すフローチャートである。
本実施形態に係る電子楽器の制御方法は、図15に示すフローチャートのように、まず、演奏者(ユーザ)が電子楽器100の電源を投入すると、CPU5は電子楽器100の各種設定を初期化するイニシャライズ処理を実行する(ステップS1502)。
FIG. 15 is a flowchart showing a main routine of a control method in an electronic musical instrument according to the present embodiment.
As for the control method of the electronic musical instrument according to the present embodiment, first, when the performer (user) turns on the power of the electronic musical instrument 100, the CPU 5 initializes various settings of the electronic musical instrument 100 as shown in the flowchart shown in FIG. The initialization process is executed (step S1502).

次いで、CPU5は、演奏者が電子楽器100のマウスピース10を咥えることによりリップ検出部3から出力されるリップ(下唇)の検出情報に基づく処理を実行する(ステップS1504)。このリップ検出部3の処理は、上述したリップポジションの決定方法を含むものであり、詳しくは後述する。 Next, the CPU 5 executes a process based on the detection information of the lip (lower lip) output from the lip detection unit 3 by the performer holding the mouthpiece 10 of the electronic musical instrument 100 (step S1504). The process of the lip detection unit 3 includes the above-mentioned method for determining the lip position, which will be described in detail later.

次いで、CPU5は、マウスピース10へのタン(舌部)TNの接触状態に応じてタン検出部4から出力されるタンTNの検出情報に基づく処理を実行する(ステップS1506)。また、CPU5は、マウスピース10に吹き込まれた息に応じて息圧検出部2から出力される息圧情報に基づく処理を実行する(ステップS1508)。 Next, the CPU 5 executes a process based on the detection information of the tongue TN output from the tongue detection unit 4 according to the contact state of the tongue (tongue portion) TN to the mouthpiece 10 (step S1506). Further, the CPU 5 executes a process based on the breath pressure information output from the breath pressure detection unit 2 according to the breath blown into the mouthpiece 10 (step S1508).

次いで、CPU5は、操作子1の操作情報に含まれる音高情報に応じたキーコードを発生させ、音源8に供給して楽音の音高を設定するキースイッチ処理を実行する(ステップS1510)。このとき、CPU5は、リップ検出部3の処理(ステップS1504)において、リップ検出部3から入力されたリップLPの検出情報を用いて算出されたリップポジションに基づいて、楽音の音色、音量、音高を調整して音色効果(例えば、ピッチベンドやビブラート等)を設定する処理を実行する。また、CPU5は、タン検出部4の処理(ステップS1506)において、タン検出部4から入力されたタンTNの検出情報に基づいて、楽音のノートオン/オフを設定する処理を実行し、息圧検出部2の処理(ステップS1508)において、息圧検出部2から入力された息圧情報に基づいて、楽音の音量を設定する処理を実行する。CPU5は、これらの一連の処理により、演奏者の演奏動作に応じた楽音を生成するための指示を生成して音源8に出力する。そして、音源8は、CPU5からの楽音の生成指示に基づいて、サウンドシステム9を動作させる発音処理を実行する(ステップS1512)。 Next, the CPU 5 generates a key code corresponding to the pitch information included in the operation information of the operator 1, supplies the key code to the sound source 8, and executes a key switch process for setting the pitch of the musical tone (step S1510). At this time, the CPU 5 has a musical tone, volume, and sound based on the lip position calculated using the lip LP detection information input from the lip detection unit 3 in the process of the lip detection unit 3 (step S1504). The process of adjusting the height and setting the tone effect (for example, pitch bend, vibrato, etc.) is executed. Further, in the process of the tongue detection unit 4 (step S1506), the CPU 5 executes a process of setting the note on / off of the musical tone based on the tongue TN detection information input from the tongue detection unit 4, and breath pressure. In the process of the detection unit 2 (step S1508), a process of setting the volume of the musical tone is executed based on the breath pressure information input from the breath pressure detection unit 2. Through these series of processes, the CPU 5 generates an instruction for generating a musical tone according to the performance operation of the performer and outputs the instruction to the sound source 8. Then, the sound source 8 executes a pronunciation process for operating the sound system 9 based on a musical tone generation instruction from the CPU 5 (step S1512).

その後、CPU5は、その他の必要な処理(ステップS1514)を実行して一連の処理動作が終了すると、上述したステップS1504からS1514の処理を再度繰り返し実行する。なお、図15に示したフローチャートにおいては図示を省略したが、CPU5は、上述した一連の処理動作(ステップS1502~S1514)の実行中に、演奏が終了したり中断したりする状態の変化を検出した場合には、処理動作を強制的に終了する。 After that, the CPU 5 executes other necessary processing (step S1514), and when the series of processing operations is completed, the processing of steps S1504 to S1514 described above is repeatedly executed again. Although not shown in the flowchart shown in FIG. 15, the CPU 5 detects a change in the state in which the performance ends or is interrupted during the execution of the series of processing operations (steps S1502 to S1514) described above. If so, the processing operation is forcibly terminated.

(リップ検出部の処理)
次いで、上述したメインルーチンに示したリップ検出部3の処理について説明する。
図16は、本実施形態に係る電子楽器の制御方法に適用されるリップ検出部の処理を示すフローチャートである。
(Processing of lip detector)
Next, the processing of the lip detection unit 3 shown in the above-mentioned main routine will be described.
FIG. 16 is a flowchart showing the processing of the lip detection unit applied to the control method of the electronic musical instrument according to the present embodiment.

図15に示した電子楽器の制御方法に適用されるリップ検出部3の処理は、図16に示すフローチャートのように、まず、CPU5は、リード部11に配列された複数のセンサ20、30~40から出力されるセンサ出力値を取得して、RAM7の所定の記憶領域に現在の出力値として記憶させる。これにより、RAM7の所定の記憶領域に記憶されているセンサ出力値が、現在のセンサ出力値に順次更新される(ステップS1602)。 The processing of the lip detection unit 3 applied to the control method of the electronic musical instrument shown in FIG. 15 is, as shown in the flowchart of FIG. 16, first, the CPU 5 is a plurality of sensors 20, 30 to arranged in the lead unit 11. The sensor output value output from 40 is acquired and stored as the current output value in a predetermined storage area of the RAM 7. As a result, the sensor output value stored in the predetermined storage area of the RAM 7 is sequentially updated to the current sensor output value (step S1602).

次いで、CPU5は、リップ検出部3のセンサ30~40から出力されるセンサ出力値(現在の出力値)に基づいて、演奏者が現在、マウスピース10を咥えているか否かを判断する(ステップS1604)。ここで、マウスピース10を咥えているか否かを判断する手法としては、例えば、センサ31~40の10個(又は、センサ30~40の11個)のセンサ出力値の総和に基づいて判断する手法を適用することができる。すなわち、算出されたセンサ出力値の総和が所定の閾値(例えば、800)を越えている場合には、マウスピース10を咥えていると判断し、総和が上記閾値以下の場合には、マウスピース10を咥えていないと判断する。 Next, the CPU 5 determines whether or not the performer is currently holding the mouthpiece 10 based on the sensor output value (current output value) output from the sensors 30 to 40 of the lip detection unit 3 (step). S1604). Here, as a method for determining whether or not the mouthpiece 10 is held, for example, the determination is made based on the sum of the sensor output values of 10 sensors 31 to 40 (or 11 sensors 30 to 40). The technique can be applied. That is, when the sum of the calculated sensor output values exceeds a predetermined threshold (for example, 800), it is determined that the mouthpiece 10 is held, and when the sum is equal to or less than the above threshold, the mouthpiece is held. It is judged that the 10 is not held.

なお、マウスピース10を咥えているか否かの判断は、上記の手法に限定されるものではなく、他の手法を適用するものであってもよい。例えば、センサ31~40の10個(又は、センサ30~40の11個)のセンサ出力値が全て所定値以下である場合には、マウスピース10を咥えていないと判断し、センサ31~40のうちの、半数以上のセンサ出力値が上記の所定値を超過している場合には、マウスピース10を咥えていると判断する手法を適用するものであってもよい。 The determination as to whether or not the mouthpiece 10 is held is not limited to the above method, and other methods may be applied. For example, when the sensor output values of 10 sensors 31 to 40 (or 11 sensors 30 to 40) are all equal to or less than a predetermined value, it is determined that the mouthpiece 10 is not held and the sensors 31 to 40 are not held. When the sensor output value of more than half of them exceeds the above-mentioned predetermined value, the method of determining that the mouthpiece 10 is being held may be applied.

上記のステップS1604において、演奏者がマウスピース10を咥えていないと判断された場合(ステップS1604のNo)には、CPU5は、リップポジション(図16中では「pos」と表記)の算出を行わず、7ビット表現のデフォルト値である「64」を設定した後(「pos=64」;ステップS1606)、リップ検出部3の処理を終了して、図15に示したメインルーチンの処理に戻る。 If it is determined in step S1604 that the performer is not holding the mouthpiece 10 (No in step S1604), the CPU 5 calculates the lip position (denoted as "pos" in FIG. 16). Instead, after setting "64", which is the default value of the 7-bit expression ("pos = 64"; step S1606), the processing of the lip detection unit 3 is terminated, and the process returns to the processing of the main routine shown in FIG. ..

一方、上記のステップS1604において、演奏者がマウスピース10を咥えていると判断された場合(ステップS1604のYes)には、CPU5は、上述したリップポジションの決定方法に基づいた一連の処理動作を実行する。 On the other hand, when it is determined in step S1604 that the performer is holding the mouthpiece 10 (Yes in step S1604), the CPU 5 performs a series of processing operations based on the method for determining the lip position described above. Execute.

具体的には、CPU5は、まず、リップ検出部3のセンサ31~40からのセンサ出力値から、最大値max(1-10)となるセンサ出力値を抽出するとともに(ステップS1608)、当該位置よりもマウスピース10の奥側(ヒール側)に配置されたセンサからのセンサ出力値を、後述するリップポジションを決定する際の算出対象として抽出する。抽出されたセンサ出力値が最大値max(1-10)となるセンサの位置、及び、算出対象となるセンサ出力値は、RAM7の所定の記憶領域に記憶される。 Specifically, the CPU 5 first extracts the sensor output value having the maximum value max (1-10) from the sensor output values from the sensors 31 to 40 of the lip detection unit 3 (step S1608), and at the same position. The sensor output value from the sensor arranged on the back side (heel side) of the mouthpiece 10 is extracted as a calculation target when determining the lip position described later. The position of the sensor whose extracted sensor output value is the maximum value max (1-10) and the sensor output value to be calculated are stored in a predetermined storage area of the RAM 7.

次いで、CPU5は、抽出された最大値max(1-10)となるセンサ出力値に基づいて、演奏者がマウスピース10の一番奥側(ヒール側)の位置を咥えているか否かを判断する(ステップS1610)。ここでは、センサ出力値が最大値max(1-10)となるセンサの位置が、マウスピース10の最も奥側(リード部11の最もヒール側)に配置されたセンサ40の位置PS10であるか否かを判断する。 Next, the CPU 5 determines whether or not the performer is holding the position of the innermost side (heel side) of the mouthpiece 10 based on the sensor output value which is the extracted maximum value max (1-10). (Step S1610). Here, is the position of the sensor where the sensor output value is the maximum value max (1-10) the position PS10 of the sensor 40 arranged on the innermost side of the mouthpiece 10 (the most heel side of the lead portion 11)? Judge whether or not.

上記のステップS1610において、演奏者がマウスピース10の一番奥側(ヒール側)の位置PS10を咥えていると判断された場合(ステップS1610のYes)には、CPU5は、リップポジション(pos)の算出を行わず、リード部11の最もヒール側の位置PS10を示す7ビット表現の数値「127」を設定した後(「pos=127」;ステップS1612)、リップ検出部3の処理を終了して、図15に示したメインルーチンの処理に戻る。 In step S1610 above, when it is determined that the performer is holding the position PS10 on the innermost side (heel side) of the mouthpiece 10 (Yes in step S1610), the CPU 5 is in the lip position (pos). Is not calculated, and after setting the 7-bit representation numerical value “127” indicating the position PS10 on the heel side of the lead portion 11 (“pos = 127”; step S1612), the processing of the lip detection unit 3 is terminated. Then, the process returns to the processing of the main routine shown in FIG.

一方、上記のステップS1610において、マウスピース10の一番奥側(ヒール側)の位置PS10を咥えていないと判断された場合(ステップS1610のNo)には、CPU5は、リップポジションを決定する際の算出対象となるセンサ出力値を補正するための補正係数を算出する(ステップS1614)。すなわち、CPU5は、各センサ31~40からのセンサ出力値の分布のうちの、センサ出力値が最大値max(1-10)となるセンサの位置に対して、ヒール側に1つ隣及び2つ隣に配置されたセンサからのセンサ出力値R1とR2からなる比の成分を含む、上述した(13)式に基づいて、補正係数Fcを算出する。 On the other hand, in the above step S1610, when it is determined that the position PS10 on the innermost side (heel side) of the mouthpiece 10 is not held (No in step S1610), the CPU 5 determines the lip position. The correction coefficient for correcting the sensor output value to be calculated in (step S1614) is calculated. That is, the CPU 5 is adjacent to and 2 on the heel side with respect to the position of the sensor in which the sensor output value is the maximum value max (1-10) in the distribution of the sensor output values from each sensor 31 to 40. The correction coefficient Fc is calculated based on the above-mentioned equation (13) including the component of the ratio consisting of the sensor output values R1 and R2 from the sensors arranged next to each other.

次いで、CPU5は、算出された補正係数Fcが「0」未満であるか否かを判断する(ステップS1616)。算出された補正係数Fcが「0」未満である場合(ステップS1616のYes)、すなわち、負の値である場合には、CPU5は、補正係数Fcを「0」に設定して(ステップS1618)、次のステップS1620を実行する。一方、算出された補正係数Fcが「0」未満ではない場合、すなわち、「0」又は正の値である場合(ステップS1616のNo)には、CPU5は、算出された値をそのまま補正係数Fcに設定して、次のステップS1620を実行する。ここで、センサ出力値が最大値max(1-10)となるセンサの位置がPS9となって、上記の補正係数Fcを算出する際の対象となる2つのセンサ出力値R1とR2を抽出できない(又は、センサ出力値が存在しない)場合には、CPU5は、補正係数Fcに「NG」を設定する。 Next, the CPU 5 determines whether or not the calculated correction coefficient Fc is less than "0" (step S1616). If the calculated correction factor Fc is less than "0" (Yes in step S1616), that is, if it is a negative value, the CPU 5 sets the correction factor Fc to "0" (step S1618). , The next step S1620 is executed. On the other hand, when the calculated correction coefficient Fc is not less than "0", that is, when it is "0" or a positive value (No in step S1616), the CPU 5 uses the calculated value as it is as the correction coefficient Fc. Is set to, and the next step S1620 is executed. Here, the position of the sensor whose sensor output value is the maximum value max (1-10) is PS9, and the two sensor output values R1 and R2 which are the targets when calculating the above correction coefficient Fc cannot be extracted. (Or, if the sensor output value does not exist), the CPU 5 sets the correction coefficient Fc to "NG".

次いで、CPU5は、上記の補正係数Fcを用いてセンサ出力値の補正処理を行った後、リップポジションPS(Corr)を算出する(ステップS1620)。すなわち、CPU5は、まず、ステップS1614~S1618において設定された補正係数Fcを、センサ出力値が最大値max(1-10)となる位置に対してヒール側に隣接して(1つ隣に)配置されたセンサからのセンサ出力値に乗算する補正処理を実行する。ここで、補正係数Fcが「0」の場合、及び、「NG」に設定されている場合には、補正処理後のセンサ出力値は「0」に設定される。 Next, the CPU 5 corrects the sensor output value using the above correction coefficient Fc, and then calculates the lip position PS (Corr) (step S1620). That is, the CPU 5 first places the correction coefficient Fc set in steps S1614 to S1618 adjacent to the heel side (next to one) with respect to the position where the sensor output value becomes the maximum value max (1-10). Performs a correction process that multiplies the sensor output value from the placed sensor. Here, when the correction coefficient Fc is "0" and when it is set to "NG", the sensor output value after the correction process is set to "0".

その後、CPU5は、補正処理されたセンサ出力値を含む、上述した算出対象となるセンサ出力値に基づいて、上記の(11)式を用いて重心位置(又は加重平均)を算出してリップポジションPS(Corr)を決定する(ステップS1620)。ここで、補正係数Fcが「NG」に設定されている場合には、CPU5は、センサ出力値が最大値max(1-10)となるセンサの位置がPS9であると判断して、上記の(11)式を用いた重心位置(又は加重平均)の算出を行わず、リップポジションPS(Corr)として「10」(7ビット表現の数値では「127」に相当する)に設定する。CPU5は、決定されたリップポジションPS(Corr)を、RAM7の所定の記憶領域に記憶した後、リップ検出部3の処理を終了して、図15に示したメインルーチンの処理に戻る。 After that, the CPU 5 calculates the center of gravity position (or weighted average) using the above equation (11) based on the sensor output value to be calculated described above, including the corrected sensor output value, and the lip position. PS (Corr) is determined (step S1620). Here, when the correction coefficient Fc is set to "NG", the CPU 5 determines that the position of the sensor at which the sensor output value is the maximum value max (1-10) is PS9, and described above. The center of gravity position (or weighted average) is not calculated using the equation (11), and the lip position PS (Corr) is set to "10" (corresponding to "127" in the numerical value of 7-bit expression). After storing the determined lip position PS (Corr) in a predetermined storage area of the RAM 7, the CPU 5 ends the processing of the lip detection unit 3 and returns to the processing of the main routine shown in FIG.

このように、本実施形態においては、電子楽器100のマウスピース10を咥えた状態で、リード部11に配列された複数のセンサ31~40から得られるセンサ出力値の分布に基づいて、最大値max(1-10)となるセンサ出力値のセンサの位置から奥側(ヒール側)のセンサ出力値を抽出する。そして、抽出されたセンサ出力値のうちの、センサ出力値が最大値max(1-10)となるセンサに隣接する位置のセンサからのセンサ出力値に対して、所定の補正係数Fcを乗算する補正処理を行う。ここで、補正処理に適用される補正係数Fcは、センサ出力値が最大値max(1-10)となるセンサの位置に対してヒール側に1つ隣及び2つ隣に配置されたセンサからのセンサ出力値R1、R2の比の成分(R2/R1)を含む計算式に基づいて算出される。そして、補正処理されたセンサ出力値を含む、上記の抽出されたセンサ出力値のみを算出対象として用いて、所定の計算式により重心位置(又は加重平均)を算出することによりリップポジションPS(Corr)を決定する。 As described above, in the present embodiment, the maximum value is based on the distribution of the sensor output values obtained from the plurality of sensors 31 to 40 arranged in the lead portion 11 while holding the mouthpiece 10 of the electronic musical instrument 100. Extract the sensor output value on the back side (heel side) from the sensor position of the sensor output value that is max (1-10). Then, among the extracted sensor output values, the sensor output value from the sensor at the position adjacent to the sensor whose sensor output value is the maximum value max (1-10) is multiplied by a predetermined correction coefficient Fc. Perform correction processing. Here, the correction coefficient Fc applied to the correction process is from the sensors arranged one or two next to the heel side with respect to the position of the sensor whose sensor output value is the maximum value max (1-10). It is calculated based on the calculation formula including the component (R2 / R1) of the ratio of the sensor output values R1 and R2 of. Then, the lip position PS (Corr) is calculated by calculating the center of gravity position (or weighted average) by a predetermined calculation formula using only the above-extracted sensor output value including the corrected sensor output value as a calculation target. ) Is determined.

これにより、リップポジションPS(Corr)を決定するための重心位置(又は加重平均)において算出対象として用いられるセンサ出力値に、突出した高い値(すなわち、最大値となるセンサ出力値、及び、当該最大値の次に高い値又は近似する程度の高い値を示すセンサ出力値)が含まれないように補正することができる。そのため、リード部11に接触するリップLPの位置が移動して、センサ出力値が最大値max(1-10)となるセンサの位置番号が変化した場合であっても、その変化の前後で突出する値を示すセンサ出力値を抑制することができるので、リップポジションPS(Corr)の急激な変化が抑制された、比較的滑らかな変化傾向を実現することができる。 As a result, the sensor output value used as the calculation target in the position of the center of gravity (or weighted average) for determining the lip position PS (Corr) has a prominently high value (that is, the sensor output value that becomes the maximum value, and the sensor output value). It can be corrected so that the sensor output value indicating the next highest value next to the maximum value or a high value close to the maximum value) is not included. Therefore, even if the position of the lip LP in contact with the lead portion 11 moves and the position number of the sensor whose sensor output value reaches the maximum value max (1-10) changes, it protrudes before and after the change. Since it is possible to suppress the sensor output value indicating the value to be performed, it is possible to realize a relatively smooth change tendency in which a sudden change in the lip position PS (Corr) is suppressed.

したがって、電子楽器100のマウスピース10を咥えて演奏を行う際に、センサ出力値の温度ドリフトや、タンギングや口腔内の温度や湿気によるばらつきやノイズの混入の影響をほとんど受けることなく、より正確で適切なリップポジションを決定することができ、アコースティック管楽器における吹奏感や楽音のエフェクト(例えば、ピッチベンドやビブラート等)により近づけることができる。 Therefore, when playing while holding the mouthpiece 10 of the electronic musical instrument 100, it is more accurate without being affected by temperature drift of the sensor output value, tonguing, variation due to temperature and humidity in the oral cavity, and mixing of noise. It is possible to determine an appropriate lip position with, and it is possible to bring it closer to the effect of brass band and musical sound (for example, pitch bend, vibrato, etc.) in an acoustic wind instrument.

すなわち、本実施形態によれば、複数のセンサの出力値及び配列位置に基づく演算により、身体の一部が接触することに伴う操作位置(リップポジション)を決定する場合に、複数のセンサの出力値の分布に基づいて、複数のセンサの中から、操作位置を求めるための演算に使用するのに適さないセンサを除外(算出対象から除外)して、当該演算に使用するのに適したセンサのみを(算出対象として)適切に選択することができる。 That is, according to the present embodiment, when the operation position (lip position) associated with the contact of a part of the body is determined by the calculation based on the output values and the arrangement positions of the plurality of sensors, the outputs of the plurality of sensors are determined. Based on the distribution of values, sensors suitable for use in the calculation are excluded (excluded from the calculation target) from among multiple sensors that are not suitable for the calculation for obtaining the operation position. Only can be properly selected (as a calculation target).

また、上記の演算に先立って、操作位置を求めるための演算に用いるセンサの出力値を、選択された複数のセンサの出力値の分布に基づいて補正するので、複数のセンサの出力値の分布が変化するのに応じて選択されるセンサの全体が変化したとしても、演算により求められる操作位置が急激に変化することを避けることができる。 Further, prior to the above calculation, the output values of the sensors used in the calculation for obtaining the operation position are corrected based on the distribution of the output values of the plurality of selected sensors, so that the distribution of the output values of the plurality of sensors is corrected. Even if the entire sensor selected in response to the change in the sensor, it is possible to avoid a sudden change in the operation position obtained by the calculation.

また、選択された複数のセンサの配列位置の分布に基づいて平均位置を求める演算であり、平均位置を求める際に、各センサの位置に対して各センサの出力値を重み値として乗算する加重平均による演算により上記の操作位置を決定し、この加重平均を求める際の重み値である各センサの出力値を、複数のセンサの出力値の分布に基づいて補正するので、操作位置としてより正確で適切な位置を安定的に決定することができる。 In addition, it is an operation to obtain the average position based on the distribution of the arrangement positions of a plurality of selected sensors, and when obtaining the average position, a weight is applied by multiplying the position of each sensor by the output value of each sensor as a weight value. The above operation position is determined by calculation by averaging, and the output value of each sensor, which is the weight value when obtaining this weighted average, is corrected based on the distribution of the output values of a plurality of sensors, so that the operation position is more accurate. It is possible to stably determine an appropriate position with.

また、複数のセンサの出力値の分布の変化に応じて、選択されるセンサが変化することを予測(選択されるセンサが変化するタイミングにどの程度近づいているかを予測)し、この予測に基づいて演算に用いるセンサの出力値を補正するので、選択されるセンサが変化する前後で、決定される操作位置が急激に変化するのを避けることができる。 In addition, it predicts that the selected sensor will change according to the change in the distribution of the output values of multiple sensors (predicts how close the selected sensor is to the change timing), and based on this prediction. Since the output value of the sensor used for the calculation is corrected, it is possible to avoid a sudden change in the determined operation position before and after the selected sensor changes.

また、複数のセンサのうちの最大の出力値を有するセンサ(特定されたセンサ)の位置を基準として上記の演算に用いるセンサを選択するので、より正確で適切に操作位置を求めるための演算に使用するのに適したセンサのみを、複数のセンサの出力値の分布に基づいて適切に選択することができ、それ以外の、演算に使用するのに適さないセンサを適切に除外することができる。また、この場合、演算に用いる複数のセンサの中で、最大の出力値を有するセンサに最も近い位置に配列されたセンサの出力値を補正する(より小さくなるように補正する)ので、演算に用いる複数のセンサの中で、選択状況が変化(センサ出力値が最大となるセンサの位置番号が変化)する可能性が高く、かつ、出力値が大きいために選択状況の変化に応じた演算結果への影響度の大きいセンサによる演算結果への悪影響を排除又は抑制することができる。 In addition, since the sensor used for the above calculation is selected based on the position of the sensor (specified sensor) having the maximum output value among the plurality of sensors, the operation position can be obtained more accurately and appropriately. Only the sensors that are suitable for use can be properly selected based on the distribution of the output values of multiple sensors, and the other sensors that are not suitable for calculation can be appropriately excluded. .. Further, in this case, the output values of the sensors arranged at the positions closest to the sensor having the maximum output value among the plurality of sensors used for the calculation are corrected (corrected so as to be smaller), so that the calculation can be performed. Among the multiple sensors used, there is a high possibility that the selection status will change (the position number of the sensor that maximizes the sensor output value will change), and because the output value is large, the calculation result will correspond to the change in the selection status. It is possible to eliminate or suppress the adverse effect on the calculation result by the sensor having a large influence on.

なお、上述した実施形態においては、補正係数Fcを用いてセンサ出力値を補正する際に、センサ出力値が最大値max(1-10)となるセンサに対してヒール側に隣接する(1つ隣の)位置のセンサからのセンサ出力値を対象にして、所定の補正係数を乗算して補正する手法について説明したが、本発明はこれに限定されるものではない。すなわち、センサ出力値に補正を行う目的は、最大値max(1-10)に近似する程度の高い値を示すセンサ出力値を抑制して、リップポジションの急激な変化を抑制することにある。したがって、リード部11に配列された複数のセンサからのセンサ出力値が、最大値max(1-10)の次に高い値、又は、最大値max(1-10)に近似する程度の高い値を示すセンサに対して補正処理を実行するものであれば、補正処理の対象が必ずしも、センサ出力値が最大値max(1-10)となるセンサに対して隣接する(1つ隣の)位置のセンサからのセンサ出力値でなくてもよい。ここで、取得したセンサ出力値のばらつきやノイズの混入による影響を排除又は抑制するために、センサ出力値のばらつきやノイズ混入の割合が低い場合には、最大値max(1-10)となるセンサから1つ以上離れた位置(例えば、2つ隣や3つ隣)のセンサからのセンサ出力値を、補正処理の対象にするものであってもよい。この場合、最大値max(1-10)の次に高い値を示し、補正処理の対象となるセンサ出力値と、その次に高い値を示すセンサ出力値との比の成分を含む、上記の(13)式と同様の計算式を用いて補正係数が算出される。具体的には、一例として、センサ出力値が最大値max(1-10)となるセンサに対してヒール側に2つ隣のセンサからのセンサ出力値が最大値max(1-10)の次に高い値であり、同3つ隣のセンサからのセンサ出力値がその次に高い値である場合には、補正係数は、隣接するセンサのそれぞれのセンサ出力値R2とR3の比の成分(R3/R2)を含む計算式に基づいて算出され、算出された補正係数を用いて、センサ出力値R2に対して補正処理が実行される。また、他の例として、センサ出力値が最大値max(1-10)となるセンサに対して3つ隣のセンサからのセンサ出力値が最大値max(1-10)の次に高い値であり、同1つ隣のセンサからのセンサ出力値がその次に高い値である場合には、補正係数は、隣接しないセンサのそれぞれのセンサ出力値R3とR1の比の成分(R1/R3)を含む計算式に基づいて算出され、算出された補正係数を用いて、センサ出力値R3に対して補正処理が実行される。 In the above-described embodiment, when the sensor output value is corrected using the correction coefficient Fc, the sensor output value is adjacent to the heel side with respect to the sensor having the maximum value max (1-10) (one). Although the method of multiplying the sensor output value from the sensor at the (adjacent) position and correcting by multiplying by a predetermined correction coefficient has been described, the present invention is not limited to this. That is, the purpose of correcting the sensor output value is to suppress the sensor output value showing a high value close to the maximum value max (1-10) and suppress a sudden change in the lip position. Therefore, the sensor output values from the plurality of sensors arranged in the lead portion 11 are the next highest value after the maximum value max (1-10), or a high value close to the maximum value max (1-10). If the correction process is executed for the sensor indicating, the target of the correction process is not necessarily the position adjacent (one next to) to the sensor whose maximum sensor output value is max (1-10). It does not have to be the sensor output value from the sensor of. Here, in order to eliminate or suppress the influence of the acquired sensor output value variation and noise contamination, the maximum value is max (1-10) when the sensor output value variation and noise contamination rate are low. The sensor output value from the sensor at a position one or more away from the sensor (for example, two adjacent or three adjacent) may be the target of the correction process. In this case, it shows the next highest value after the maximum value max (1-10) and includes the component of the ratio of the sensor output value to be corrected and the sensor output value showing the next highest value. The correction coefficient is calculated using the same calculation formula as the formula (13). Specifically, as an example, the sensor output value from the sensor two adjacent to the heel side is next to the maximum value max (1-10) with respect to the sensor whose sensor output value is the maximum value max (1-10). If the sensor output value from the sensor adjacent to the sensor is the next highest value, the correction coefficient is the component of the ratio of the sensor output values R2 and R3 of the adjacent sensors ( It is calculated based on the calculation formula including R3 / R2), and the correction process is executed for the sensor output value R2 using the calculated correction coefficient. As another example, the sensor output value from the sensor three adjacent to the sensor whose sensor output value is the maximum value max (1-10) is the next highest value after the maximum value max (1-10). If the sensor output value from the adjacent sensor is the next highest value, the correction coefficient is a component of the ratio of the sensor output values R3 and R1 of the non-adjacent sensors (R1 / R3). Is calculated based on the calculation formula including the above, and the correction process is executed for the sensor output value R3 using the calculated correction coefficient.

また、上述した実施形態においては、リード部11に配列された複数のセンサ31~40からのセンサ出力値の分布に基づいて、最大値max(1-10)となるセンサの位置を抽出して、当該位置よりもマウスピース10の奥側(ヒール側)に配列された各センサからのセンサ出力値を重心位置の算出対象とし、最大値max(1-10)となるセンサに隣接する(1つ隣の)位置のセンサからのセンサ出力値であって、最大値max(1-10)の次に高い値を示すセンサ出力値を補正処理の対象とする手法について説明したが、本発明はこれに限定されるものではない。すなわち、リップポジションを決定するための重心位置の算出において、最大値max(1-10)やそれに近似する程度の高い値を示すセンサ出力値による悪影響を排除又は抑制することができればよい。したがって、最大値max(1-10)となるセンサからのセンサ出力値を含む、マウスピース10の奥側(ヒール側)に配列された各センサからのセンサ出力値を、重心位置の算出対象とし、最大値max(1-10)となるセンサ出力値に対して補正処理を実行するものであってもよい。 Further, in the above-described embodiment, the position of the sensor having the maximum value max (1-10) is extracted based on the distribution of the sensor output values from the plurality of sensors 31 to 40 arranged in the lead portion 11. , The sensor output value from each sensor arranged on the back side (heel side) of the mouthpiece 10 from the relevant position is set as the calculation target of the center of gravity position, and is adjacent to the sensor having the maximum value max (1-10) (1). The method of correcting the sensor output value from the sensor at the position (next to the next), which is the next highest value after the maximum value max (1-10), has been described, but the present invention has been described. It is not limited to this. That is, in the calculation of the position of the center of gravity for determining the lip position, it is sufficient that the adverse effect of the sensor output value indicating the maximum value max (1-10) or a high value close to it can be eliminated or suppressed. Therefore, the sensor output value from each sensor arranged on the back side (heel side) of the mouthpiece 10, including the sensor output value from the sensor having the maximum value max (1-10), is used as the calculation target of the center of gravity position. , The correction process may be executed for the sensor output value having the maximum value max (1-10).

また、本実施形態においては、リード部11に配列された複数のセンサ31~40からのセンサ出力値の分布に基づいて、最大値max(1-10)となるセンサの位置を抽出して、当該位置を基準にして、マウスピース10の奥側(ヒール側)に配列された各センサからのセンサ出力値を、重心位置の算出対象とする手法について説明したが、本発明はこれに限定されるものではない。すなわち、最大値max(1-10)となるセンサの位置を基準にして、マウスピース10の吹込口側(ティップ側)に配列された各センサからのセンサ出力値を、重心位置の算出対象とするものであってもよい。 Further, in the present embodiment, the position of the sensor having the maximum value max (1-10) is extracted based on the distribution of the sensor output values from the plurality of sensors 31 to 40 arranged in the lead portion 11. A method of calculating the position of the center of gravity based on the sensor output value from each sensor arranged on the back side (heel side) of the mouse piece 10 with respect to the position has been described, but the present invention is limited to this. It's not something. That is, the sensor output value from each sensor arranged on the air inlet side (tip side) of the mouthpiece 10 is used as the calculation target of the center of gravity position with reference to the position of the sensor having the maximum value max (1-10). It may be something to do.

また、本実施形態においては、補正係数Fcを算出する手法として、センサ出力値が最大値max(1-10)となるセンサに対して1つ隣及び2つ隣に配置されたセンサからのセンサ出力値の比(R2/R1)、又は、最大値max(1-10)の次に高い値の出力値を含むセンサ出力値の比(例えば、R3/R2等)の成分を含む計算式を用いる手法について説明したが、本発明はこれに限定されるものではない。例えば上記の1つ隣及び2つ隣に配置されたセンサからの複数のセンサ出力値の差分(R1-R2)を含む計算式を用いて補正係数を算出するものであってもよい。 Further, in the present embodiment, as a method of calculating the correction coefficient Fc, sensors from sensors arranged one or two adjacent to the sensor having the maximum sensor output value of max (1-10). A calculation formula including a component of the ratio of the output value (R2 / R1) or the ratio of the sensor output value (for example, R3 / R2, etc.) including the output value having the next highest value after the maximum value max (1-10). Although the method to be used has been described, the present invention is not limited thereto. For example, the correction coefficient may be calculated using a calculation formula including a difference (R1-R2) between a plurality of sensor output values from the sensors arranged one next to and two next to each other.

また、上述した実施形態においては、図16のフローチャートに示したリップ検出部の処理において、ステップS1602のセンサ出力値の更新後、リード部11の一番奥側(ヒール側)に配置されたセンサ40から出力されるセンサ出力値に基づいて、リード部11の温度状態を判断し、各センサ20、30~40からのセンサ出力値への温度の影響をオフセットする処理を行うものであってもよい。上述したように、静電容量方式のタッチセンサにおいては、温度や湿気の影響で検出値が変動する温度ドリフトが知られている。そのため、全てのセンサ出力値から温度ドリフト分に対応する所定値(例えば最大で「100」程度)を、各センサ20、30~40のセンサ出力値から減算する処理を行うことにより、人体から伝わる体温や、口腔内の温度や湿気の上昇等に起因する温度ドリフトの影響を除去することができる。 Further, in the above-described embodiment, in the process of the lip detection unit shown in the flowchart of FIG. 16, the sensor arranged on the innermost side (heel side) of the lead unit 11 after updating the sensor output value in step S1602. Even if the temperature state of the lead portion 11 is determined based on the sensor output value output from 40 and the influence of the temperature on the sensor output values from the sensors 20, 30 to 40 is offset. good. As described above, in the capacitive touch sensor, a temperature drift in which the detected value fluctuates due to the influence of temperature and humidity is known. Therefore, it is transmitted from the human body by performing a process of subtracting a predetermined value (for example, about "100" at the maximum) corresponding to the temperature drift from all the sensor output values from the sensor output values of each sensor 20, 30 to 40. It is possible to eliminate the influence of temperature drift caused by an increase in body temperature, temperature in the oral cavity, and humidity.

また、上述した実施形態においては、サクソフォン型の外観を有する電子楽器100を示して説明したが、本発明に係る電子楽器はこれに限定されるものではない。すなわち、演奏者が口に咥えて、リードを用いるアコースティック管楽器と同様の演奏を表現する電子楽器(電子管楽器)であれば、クラリネット等の他のアコースティック管楽器を模した電子楽器に適用するものであってもよい。 Further, in the above-described embodiment, the electronic musical instrument 100 having a saxophone-type appearance has been shown and described, but the electronic musical instrument according to the present invention is not limited thereto. That is, if it is an electronic musical instrument (electronic wind instrument) that the performer holds in his mouth and expresses the same performance as an acoustic wind instrument using a lead, it is applied to an electronic musical instrument that imitates another acoustic wind instrument such as a clarinet. You may.

さらに、近年の電子管楽器においては、複数の指を用いて複数の演奏用の操作子を操作する他、例えば、親指の位置にタッチセンサを設け、このタッチセンサにより検出される親指の位置に応じて発生する楽音のエフェクトなどを制御するようにしたものもある。このような電子管楽器に本発明に係る操作位置を検出する検出装置や検出方法を適用して、1つの指で操作可能な位置に、指の接触や近接を検出する複数のセンサを配列させ、この複数のセンサにより検出される複数の検出値に基づいて1つの指による操作位置を検出するようにしてもよい。 Further, in recent electronic wind instruments, in addition to operating a plurality of operating controls for playing with a plurality of fingers, for example, a touch sensor is provided at the position of the thumb, and the position of the thumb detected by the touch sensor is adjusted. There is also one that controls the effect of the musical sound that is generated. By applying the detection device and the detection method for detecting the operation position according to the present invention to such an electronic wind instrument, a plurality of sensors for detecting finger contact or proximity are arranged at a position that can be operated with one finger. The operation position by one finger may be detected based on the plurality of detected values detected by the plurality of sensors.

また、電子楽器に限らず、操作者が、身体の一部を用いて操作を行うような電子機器においても、本発明に係る操作位置を検出する検出装置や検出方法を適用して、身体の一部で操作可能な位置に、身体の一部の接触や近接を検出する複数のセンサを設け、この複数のセンサにより検出される複数の検出値に基づいて身体の一部による操作位置を検出するようにしてもよい。 Further, not only in electronic musical instruments, but also in electronic devices in which an operator operates using a part of the body, the detection device and the detection method for detecting the operation position according to the present invention are applied to the body. A plurality of sensors for detecting contact or proximity of a part of the body are provided at a position where a part of the body can be operated, and the operation position by the part of the body is detected based on a plurality of detection values detected by the plurality of sensors. You may try to do it.

以上、本発明のいくつかの実施形態について説明したが、本発明は、上述した実施形態に限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲とを含むものである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
Although some embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, but includes the inventions described in the claims and the equivalent scope thereof.
The inventions described in the original claims of the present application are described below.

(付記)
[1]
特定の方向に配列された複数のセンサと、
前記複数のセンサの出力値の分布に基づいて前記複数のセンサのうちの一部のセンサを選択するとともに、前記一部のセンサの出力値、及び、前記一部のセンサの配列位置に基づく演算により前記特定の方向における操作位置を決定する制御部と、を備え、
前記制御部は、
前記演算に先立って、前記一部のセンサの出力値を、前記一部のセンサの出力値の分布に基づいて補正することを特徴とする検出装置。
(Additional note)
[1]
With multiple sensors arranged in a specific direction,
A calculation based on the output values of some of the sensors and the arrangement position of some of the sensors while selecting some of the sensors based on the distribution of the output values of the plurality of sensors. A control unit for determining an operation position in the specific direction is provided.
The control unit
A detection device characterized in that, prior to the calculation, the output value of the part of the sensor is corrected based on the distribution of the output value of the part of the sensor.

[2]
前記演算は、前記一部のセンサの配列位置の分布に基づいて平均位置を求める演算であり、前記平均位置を求める際に、各センサの位置に対して各センサの出力値を重み値として乗算する加重平均による演算である、ことを特徴とする[1]に記載の検出装置。
[2]
The calculation is an operation for obtaining an average position based on the distribution of the arrangement positions of some of the sensors, and when obtaining the average position, the output value of each sensor is multiplied as a weight value for the position of each sensor. The detection device according to [1], wherein the calculation is based on a weighted average.

[3]
前記制御部は、
前記複数のセンサの出力値の分布に基づいて特定されたセンサを基準にして、前記特定の方向のいずれか一方側に配列されたセンサを、前記一部のセンサとして選択することを特徴とする[1]または[2]に記載の検出装置。
[3]
The control unit
With reference to the sensor specified based on the distribution of the output values of the plurality of sensors, the sensor arranged on any one side in the specific direction is selected as a part of the sensor. The detection device according to [1] or [2].

[4]
前記制御部は、
前記複数のセンサの出力値の分布に基づいて、出力値が最大となるセンサを特定するとともに、前記特定したセンサを基準にして、前記特定の方向のいずれか一方側に配列されたセンサを、前記一部のセンサとして選択することを特徴とする[3]に記載の検出装置。
[4]
The control unit
Based on the distribution of the output values of the plurality of sensors, the sensor having the maximum output value is specified, and the sensors arranged on either side of the specific direction with the specified sensor as a reference are used. The detection device according to [3], wherein the sensor is selected as a part of the sensor.

[5]
前記制御部は、
前記特定されたセンサの出力値に対して、前記一部のセンサの他の出力値のいずれかよりも値が低くなる割合が大きくなるように前記補正を行うことを特徴とする[3]または[4]4に記載の検出装置。
[5]
The control unit
It is characterized in that the correction is performed so that the ratio of the value to the output value of the specified sensor to be lower than any of the other output values of the part of the sensor is larger [3] or. [4] The detection device according to 4.

[6]
前記制御部は、
前記一部のセンサのうち、少なくとも、前記特定されたセンサ、または前記特定されたセンサに最も近い位置に配列されたセンサの出力値を、前記一部のセンサのうちの隣接する2つのセンサの出力値の比または差に基づいて補正する、ことを特徴とする[3]乃至[5]のいずれかに記載の検出装置。
[6]
The control unit
Of the some sensors, at least the output value of the specified sensor or the sensor arranged at the position closest to the specified sensor is set to the output value of two adjacent sensors of the some sensors. The detection device according to any one of [3] to [5], wherein the correction is made based on the ratio or difference of the output values.

[7]
前記一部のセンサのうち、少なくとも、前記特定されたセンサ、または前記特定されたセンサの出力値の次に高い出力値を有するセンサの出力値を、前記特定されたセンサの出力値の次に高い出力値を有するセンサを含む2つのセンサの出力値の比または差に基づいて補正する、ことを特徴とする[3]乃至[5]のいずれかに記載の検出装置。
[7]
Among the above-mentioned some sensors, at least the output value of the specified sensor or the sensor having the next highest output value after the output value of the specified sensor is placed next to the output value of the specified sensor. The detection device according to any one of [3] to [5], wherein the correction is made based on the ratio or difference of the output values of two sensors including the sensor having a high output value.

[8]
前記制御部は、
前記2つのセンサの出力値の比の値が大きいほど、前記センサの出力値に対する前記補正の強度を高く設定することを特徴とする[6]または[7]に記載の検出装置。
[8]
The control unit
The detection device according to [6] or [7], wherein the larger the value of the ratio of the output values of the two sensors is, the higher the strength of the correction is set with respect to the output value of the sensor.

[9]
前記制御部は、
前記複数のセンサの出力値の分布の変化に応じた前記一部のセンサの選択の変化予測に係る所定の計算により、前記演算に用いる前記一部のセンサの出力値を補正する、ことを特徴とする[1]乃至[8]のいずれかに記載の検出装置。
[9]
The control unit
It is characterized in that the output values of some of the sensors used in the calculation are corrected by a predetermined calculation relating to the prediction of changes in the selection of some of the sensors according to the change in the distribution of the output values of the plurality of sensors. The detection device according to any one of [1] to [8].

[10]
演奏者が口に咥えるマウスピースを備え、
前記複数のセンサは、前記マウスピースのリード部の一端側から他端側に向かって配列され、それぞれが唇の接触状態を検出し、
前記制御部は、
前記複数のセンサから選択した前記一部のセンサを対象として、前記センサの出力値の補正、及び、前記操作位置を決定する前記演算を行うことを特徴とする[1]乃至[9]のいずれかに記載の検出装置。
[10]
Equipped with a mouthpiece that the performer can hold in his mouth
The plurality of sensors are arranged from one end side to the other end side of the lead portion of the mouthpiece, and each of them detects the contact state of the lips.
The control unit
Any of [1] to [9], wherein the partial sensor selected from the plurality of sensors is corrected for the output value of the sensor and the calculation for determining the operation position is performed. The detection device described in Crab.

[11]
請求項1乃至10のいずれかに記載の検出装置と、
楽音を生成する音源と、を備え、
前記複数のセンサは、演奏者の身体の一部を検出し、
前記制御部は、
前記決定した操作位置に基づいて前記音源に生成させる楽音を制御することを特徴とする電子楽器。
[11]
The detection device according to any one of claims 1 to 10.
Equipped with a sound source that produces musical tones,
The plurality of sensors detect a part of the performer's body and
The control unit
An electronic musical instrument characterized in that the musical sound generated in the sound source is controlled based on the determined operation position.

[12]
前記電子楽器はマウスピースを有する電子管楽器であり、
前記複数のセンサは前記マウスピースのリード部に配列されて演奏者の唇の接触位置を検出することを特徴とする[11]に記載の電子楽器。
[12]
The electronic musical instrument is an electronic wind instrument having a mouthpiece.
The electronic musical instrument according to [11], wherein the plurality of sensors are arranged on the lead portion of the mouthpiece to detect the contact position of the performer's lips.

[13]
電子機器が、
特定の方向に配列された複数のセンサの出力値をそれぞれ取得し、
前記複数のセンサのうちの一部のセンサを選択し、
前記一部のセンサの出力値を、前記一部のセンサの出力値の分布に基づいて補正し、
前記補正された出力値を含む、前記一部のセンサの出力値、及び、前記一部のセンサの配列位置に基づく演算により前記特定の方向における操作位置を決定する、
ことを特徴とする検出方法。
[13]
Electronic devices
Obtain the output values of multiple sensors arranged in a specific direction, respectively,
Select some of the sensors, and select one of them.
The output values of some of the sensors are corrected based on the distribution of the output values of some of the sensors.
The operation position in the specific direction is determined by an operation based on the output value of the part of the sensor including the corrected output value and the arrangement position of the part of the sensor.
A detection method characterized by that.

[14]
コンピュータに、
特定の方向に配列された複数のセンサの出力値をそれぞれ取得させ、
前記複数のセンサのうちの一部のセンサを選択させ、
前記一部のセンサの出力値を、前記一部のセンサの出力値の分布に基づいて補正させ、
前記補正された出力値を含む、前記一部のセンサの出力値、及び、前記一部のセンサの配列位置に基づく演算により前記特定の方向における操作位置を決定させる、
ことを特徴とする制御プログラム。
[14]
On the computer
Get the output values of multiple sensors arranged in a specific direction, respectively,
Select some of the plurality of sensors and select them.
The output values of some of the sensors are corrected based on the distribution of the output values of some of the sensors.
An operation position in the specific direction is determined by an operation based on the output value of the part of the sensor including the corrected output value and the arrangement position of the part of the sensor.
A control program characterized by that.

3 リップ検出部
4 タン検出部
5 CPU(制御部)
8 音源
10 マウスピース
11 リード部
11a リード基板
20、30~40 センサ
100 電子楽器
LP リップ(下唇)
TN タン(舌部)
Fc 補正係数
PSTN、PS0~PS10 センサの位置
PS(Corr) リップポジション
3 Lip detection unit 4 Ton detection unit 5 CPU (control unit)
8 Sound source 10 Mouthpiece 11 Lead part 11a Lead board 20, 30-40 Sensor 100 Electronic musical instrument LP lip (lower lip)
TN tongue (tongue)
Fc correction coefficient PS TN , PS0 to PS10 Sensor position PS (Corr) Lip position

Claims (9)

特定の方向に配列された複数のセンサと、
前記複数のセンサの出力値の分布に基づいて、前記複数のセンサのうちの出力値が最大値となるセンサの一方の側に配列された一部のセンサを選択するとともに、前記一部のセンサの出力値を重み値として、前記一部のセンサの配列位置の加重平均を求める演算により前記特定の方向における操作位置を決定する制御部と、を備え、
前記制御部は、
前記演算に先立って、前記一部のセンサのうち、前記出力値が最大値となるセンサに近接するセンサの出力値を、前記一部のセンサの出力値の分布に基づいて、より小さい出力値となるように補正することを特徴とする検出装置。
With multiple sensors arranged in a specific direction,
Based on the distribution of the output values of the plurality of sensors, some of the sensors arranged on one side of the sensor having the maximum output value among the plurality of sensors are selected, and some of the sensors are selected. A control unit that determines the operation position in the specific direction by an operation for obtaining a weighted average of the arrangement positions of some of the sensors is provided with the output value of the above as a weight value .
The control unit
Prior to the calculation, the output value of the sensor close to the sensor having the maximum output value among the some sensors is set to a smaller output value based on the distribution of the output values of the part of the sensors. A detection device characterized by correcting so as to be.
前記制御部は、
前記一部のセンサのうち、少なくとも、前記出力値が最大値となるセンサ、または前記出力値が最大値となるセンサに最も近い位置に配列されたセンサの出力値を、前記一部のセンサのうちの隣接する2つのセンサの出力値の比または差に基づいて、より小さい出力値となるように補正する、ことを特徴とする請求項1に記載の検出装置。
The control unit
Among the some sensors, at least the output value of the sensor having the maximum output value or the sensor arranged at the position closest to the sensor having the maximum output value is set to the output value of the some sensors. The detection device according to claim 1, wherein the detection device is corrected so as to have a smaller output value based on the ratio or difference of the output values of two adjacent sensors .
前記制御部は、
前記一部のセンサのうち、少なくとも、前記出力値が最大値となるセンサ、または前記出力値が最大値となるセンサの出力値の次に高い出力値を有するセンサの出力値を、前記最大値の次に高い出力値を有するセンサを含む2つのセンサの出力値の比または差に基づいて、より小さい出力値となるように補正する、ことを特徴とする請求項1または2に記載の検出装置。
The control unit
Among the some sensors, at least the output value of the sensor having the maximum output value or the sensor having the next highest output value after the output value of the sensor having the maximum output value is the maximum value. The detection according to claim 1 or 2, wherein the detection is corrected so as to have a smaller output value based on the ratio or difference of the output values of the two sensors including the sensor having the next highest output value. Device.
前記制御部は、
前記2つのセンサの出力値の比の値が大きいほど、前記センサの出力値に対する前記補正の強度を高く設定することを特徴とする請求項2または3に記載の検出装置。
The control unit
The detection device according to claim 2 or 3, wherein the larger the value of the ratio of the output values of the two sensors is, the higher the strength of the correction is set with respect to the output value of the sensor .
演奏者が口に咥えるマウスピースを備え、
前記複数のセンサは、前記マウスピースのリード部の一端側から他端側に向かって配列され、それぞれが唇の接触状態を検出し、
前記制御部は、
前記複数のセンサから選択した前記一部のセンサを対象として、前記センサの出力値の補正、及び、前記操作位置を決定する前記演算を行うことを特徴とする請求項1乃至4のいずれかに記載の検出装置。
Equipped with a mouthpiece that the performer can hold in his mouth
The plurality of sensors are arranged from one end side to the other end side of the lead portion of the mouthpiece, and each of them detects the contact state of the lips.
The control unit
1 . The detector described.
請求項1乃至5のいずれかに記載の検出装置と、The detection device according to any one of claims 1 to 5.
楽音を生成する音源と、を備え、Equipped with a sound source that produces musical tones,
前記複数のセンサは、演奏者の身体の一部を検出し、The plurality of sensors detect a part of the performer's body and
前記制御部は、The control unit
前記決定した操作位置に基づいて前記音源に生成させる楽音を制御することを特徴とする電子楽器。An electronic musical instrument characterized in that the musical sound generated in the sound source is controlled based on the determined operation position.
前記電子楽器はマウスピースを有する電子管楽器であり、The electronic musical instrument is an electronic wind instrument having a mouthpiece.
前記複数のセンサは前記マウスピースのリード部に配列されて演奏者の唇の接触位置を検出することを特徴とする請求項6に記載の電子楽器。The electronic musical instrument according to claim 6, wherein the plurality of sensors are arranged on the lead portion of the mouthpiece to detect the contact position of the performer's lips.
電子機器が、Electronic devices
特定の方向に配列された複数のセンサの出力値をそれぞれ取得し、Obtain the output values of multiple sensors arranged in a specific direction, respectively,
前記複数のセンサの出力値の分布に基づいて、前記複数のセンサのうちの出力値が最大値となるセンサの一方の側に配列された一部のセンサを選択し、Based on the distribution of the output values of the plurality of sensors, some of the sensors arranged on one side of the sensor having the maximum output value among the plurality of sensors are selected.
前記一部のセンサのうち、前記出力値が最大値となるセンサに近接するセンサの出力値を、前記一部のセンサの出力値の分布に基づいて、より小さい出力値となるように補正し、Among the some sensors, the output value of the sensor close to the sensor having the maximum output value is corrected so as to have a smaller output value based on the distribution of the output values of the some sensors. ,
前記補正された出力値を含む、前記一部のセンサの出力値を重み値として、前記一部のセンサの配列位置の加重平均を求める演算により前記特定の方向における操作位置を決定する、The operation position in the specific direction is determined by an operation for obtaining a weighted average of the arrangement positions of the partial sensors with the output values of the partial sensors including the corrected output values as weight values.
ことを特徴とする検出方法。A detection method characterized by that.
コンピュータに、On the computer
特定の方向に配列された複数のセンサの出力値をそれぞれ取得させ、Get the output values of multiple sensors arranged in a specific direction, respectively,
前記複数のセンサの出力値の分布に基づいて、前記複数のセンサのうちの出力値が最大値となるセンサの一方の側に配列された一部のセンサを選択させ、Based on the distribution of the output values of the plurality of sensors, some of the sensors arranged on one side of the sensor having the maximum output value among the plurality of sensors are selected.
前記一部のセンサのうち、前記出力値が最大値となるセンサに近接するセンサの出力値を、前記一部のセンサの出力値の分布に基づいて、より小さい出力値となるように補正させ、Among the some sensors, the output value of the sensor close to the sensor having the maximum output value is corrected so as to have a smaller output value based on the distribution of the output values of the some sensors. ,
前記補正された出力値を含む、前記一部のセンサの出力値を重み値として、前記一部のセンサの配列位置の加重平均を求める演算により前記特定の方向における操作位置を決定させる、Using the output values of some of the sensors including the corrected output values as weight values, the operation position in the specific direction is determined by an operation for obtaining a weighted average of the arrangement positions of the some sensors.
ことを特徴とする制御プログラム。A control program characterized by that.
JP2017168721A 2017-09-01 2017-09-01 Detection device, electronic musical instrument, detection method and control program Active JP7008941B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017168721A JP7008941B2 (en) 2017-09-01 2017-09-01 Detection device, electronic musical instrument, detection method and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017168721A JP7008941B2 (en) 2017-09-01 2017-09-01 Detection device, electronic musical instrument, detection method and control program

Publications (2)

Publication Number Publication Date
JP2019045681A JP2019045681A (en) 2019-03-22
JP7008941B2 true JP7008941B2 (en) 2022-01-25

Family

ID=65816435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017168721A Active JP7008941B2 (en) 2017-09-01 2017-09-01 Detection device, electronic musical instrument, detection method and control program

Country Status (1)

Country Link
JP (1) JP7008941B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7423952B2 (en) * 2019-09-20 2024-01-30 カシオ計算機株式会社 Detection device, electronic musical instrument, detection method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008141459A1 (en) 2007-05-24 2008-11-27 Photon Wind Research Ltd. Mouth-operated input device
WO2015029601A1 (en) 2013-09-02 2015-03-05 シャープ株式会社 Touch panel controller, touch sensor system, and electronic device
JP2017015809A (en) 2015-06-29 2017-01-19 カシオ計算機株式会社 Reed member, mouthpiece, and electronic wind instrument

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772853A (en) * 1993-06-29 1995-03-17 Yamaha Corp Electronic wind instrument

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008141459A1 (en) 2007-05-24 2008-11-27 Photon Wind Research Ltd. Mouth-operated input device
WO2015029601A1 (en) 2013-09-02 2015-03-05 シャープ株式会社 Touch panel controller, touch sensor system, and electronic device
JP2017015809A (en) 2015-06-29 2017-01-19 カシオ計算機株式会社 Reed member, mouthpiece, and electronic wind instrument

Also Published As

Publication number Publication date
JP2019045681A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
JP6760222B2 (en) Detection device, electronic musical instrument, detection method and control program
JP2016177026A (en) Electronic musical instrument
JP6493689B2 (en) Electronic wind instrument, musical sound generating device, musical sound generating method, and program
US9984669B2 (en) Reed for electronic musical instrument, and electronic musical instrument
JP5821166B2 (en) Pronunciation control device
JP6825499B2 (en) Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments
JP6589413B2 (en) Lead member, mouthpiece and electronic wind instrument
US11749239B2 (en) Electronic wind instrument, electronic wind instrument controlling method and storage medium which stores program therein
JP7008941B2 (en) Detection device, electronic musical instrument, detection method and control program
JP5514965B2 (en) Virtual tuning of stringed instruments
JP5707693B2 (en) Electronic keyboard instrument
JP2022001950A (en) Parameter controller, electronic music instrument, parameter control method and control program
JP2019008122A (en) Detector, electronic musical instrument, detection method and control program
JP7423952B2 (en) Detection device, electronic musical instrument, detection method and program
JP2022046211A (en) Electronic musical instrument, and control method and program for electronic musical instrument
JP5531382B2 (en) Musical sound synthesizer, musical sound synthesis system and program
JP2022046851A (en) Electronic musical instrument, control method of electronic musical instrument, and program
JP6724465B2 (en) Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program
JP2017167519A (en) Sound production controller, method and program
JP6786982B2 (en) An electronic musical instrument with a reed, how to control the electronic musical instrument, and a program for the electronic musical instrument.
JP2020154333A (en) Musical sound controller, electric musical instrument, method of controlling musical sound controller, and program for musical sound controller
JP2024042517A (en) Sensor system and electronic musical instrument
JP2018045108A (en) Electronic musical instrument, method of controlling the same, and program for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211226

R150 Certificate of patent or registration of utility model

Ref document number: 7008941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150