JP6923047B2 - Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device - Google Patents

Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device Download PDF

Info

Publication number
JP6923047B2
JP6923047B2 JP2020107401A JP2020107401A JP6923047B2 JP 6923047 B2 JP6923047 B2 JP 6923047B2 JP 2020107401 A JP2020107401 A JP 2020107401A JP 2020107401 A JP2020107401 A JP 2020107401A JP 6923047 B2 JP6923047 B2 JP 6923047B2
Authority
JP
Japan
Prior art keywords
lip
musical tone
control
lead
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020107401A
Other languages
Japanese (ja)
Other versions
JP2020154333A (en
Inventor
千寿 外山
千寿 外山
一貴 春日
一貴 春日
林 龍太郎
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016061112A external-priority patent/JP6724465B2/en
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2020107401A priority Critical patent/JP6923047B2/en
Publication of JP2020154333A publication Critical patent/JP2020154333A/en
Application granted granted Critical
Publication of JP6923047B2 publication Critical patent/JP6923047B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、楽音制御装置、電子楽器、楽音制御装置の制御方法、及び楽音制御装置のプログラムに関する。 The present invention relates to a musical tone control device, an electronic musical instrument, a control method of the musical tone control device, and a program of the musical tone control device.

管楽器の楽音を電子的に合成して出力する電子楽器では、感圧式のリップ検出部をリードに複数配置し、唇と舌との位置を検出して楽音制御することが知られている。この種の電子楽器では、楽音信号にエフェクトないし効果音を付与したうえで発音することができることが知られている(特許文献1参照)。 In an electronic musical instrument that electronically synthesizes and outputs the musical sound of a wind instrument, it is known that a plurality of pressure-sensitive lip detection units are arranged on the lead to detect the positions of the lips and the tongue and control the musical sound. It is known that this type of electronic musical instrument can be pronounced after adding an effect or sound effect to a musical sound signal (see Patent Document 1).

特開平7−72853号公報Japanese Unexamined Patent Publication No. 7-72853

エフェクトの付与のさせ方は幾つか存在し、例えばリード上の下唇の位置(リップ・ポジション)に応じて付与されるエフェクトが変化することが知られており、演奏者は、リップ・ポジションを移動させることで付与されるエフェクトを変化させて、演奏に幅を持たせることができる。 There are several ways to apply the effect. For example, it is known that the effect applied changes depending on the position of the lower lip (lip position) on the lead, and the performer sets the lip position. By moving it, the effect given can be changed to give a wider range to the performance.

ところで、演奏者が例えば発音を停止するために口をマウスピースから離す場合、下唇の動きには次の2種類が存在することが知られている。
(a)マウスピースを引っ張りながら下唇を離す。つまり、下唇が、リードの先端方向に移動しつつマウスピースから遠ざかる。
(b)下唇を垂直に離す。つまり、下唇がリードの先端方向に移動することなく、真下に離れるようにマウスピースから遠ざかる。
By the way, it is known that there are the following two types of movements of the lower lip when the performer moves his mouth away from the mouthpiece, for example, to stop the pronunciation.
(A) Release the lower lip while pulling the mouthpiece. That is, the lower lip moves away from the mouthpiece while moving toward the tip of the lead.
(B) Separate the lower lip vertically. That is, the lower lip moves away from the mouthpiece so as to move directly below without moving toward the tip of the lead.

そして、演奏者は上記(a)の動作をすることが多い。この動作はリップ・ポジションの移動を伴うので、上述のように、リップ・ポジションに応じて音に付与されるエフェクトが変化するように構成されていると、上記(a)の動作は付与されるエフェクトに演奏者の意図しない変化を生じさせることになる。このようなエフェクトの発生は、演奏が弱い音又は減衰音で終了するときには影響が少なくあまり問題とならないが、演奏の最後に強い音又は持続音が発音される場合には、このエフェクトの変化が耳障りな音として大きく目立ってしまう。 Then, the performer often performs the operation (a) above. Since this operation involves the movement of the lip position, as described above, if the effect applied to the sound is configured to change according to the lip position, the operation (a) above is applied. This will cause unintended changes in the effect. The occurrence of such an effect has little effect when the performance ends with a weak or attenuated sound, and is not a problem, but when a strong or continuous sound is produced at the end of the performance, the change in this effect changes. It stands out as a jarring sound.

本発明は、このような事情に鑑みなされたものであり、リップ・ポジションに応じて変化するエフェクトによって演奏者の意図しない耳障りな音が発生することを防止することのできる電子楽器、電子楽器の制御方法、及び電子楽器のプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and is an electronic musical instrument or an electronic musical instrument capable of preventing an unintended harsh sound of a performer from being generated by an effect that changes according to a lip position. It is an object of the present invention to provide a control method and a program of an electronic musical instrument.

上記目的を達成するために、本発明の楽音制御装置は、リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、音源部で生成される楽音に対して第1制御を行う第1楽音制御処理と、前記センサ情報に基づいて、前記リップが前記リード上から離れる動作の形態およびタイミンを検知する検知処理と、前記検知処理により検知される前記形態および前記タイミングに基づいて、前記音源部で生成される楽音に対して第2制御を行う第2楽音制御処理と、を実行する処理部を有することを特徴とする。 In order to achieve the above object, the musical tone control device of the present invention first controls the musical tone generated by the sound source unit based on the sensor information from the lip detection sensor that detects the contact state of the lip on the lead. Based on the first musical tone control process for performing the above, the detection process for detecting the mode and timing of the movement of the lip moving away from the lead based on the sensor information, and the mode and the timing detected by the detection process. It is characterized by having a processing unit that executes a second musical sound control process that performs a second control on the musical sound generated by the sound source unit.

本発明によれば、リードから下唇を離す動作を行ったときに、リップ・ポジションに応じて付与の形態が変化するエフェクトによって演奏者の意図しない音が発生することを防止することができる。 According to the present invention, when the lower lip is separated from the lead, it is possible to prevent the performer from generating an unintended sound due to an effect in which the form of application changes according to the lip position.

(a)は本発明の実施形態に係る電子楽器の平面図、(b)は電子楽器の側面図である。(A) is a plan view of the electronic musical instrument according to the embodiment of the present invention, and (b) is a side view of the electronic musical instrument. 電子楽器の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of an electronic musical instrument. (a)はマウスピースを示す断面図、(b)はマウスピースを示す下面図である。(A) is a cross-sectional view showing a mouthpiece, and (b) is a bottom view showing a mouthpiece. 演奏者の口腔とマウスピースとの接触状態を示す図である。It is a figure which shows the contact state between a performer's oral cavity and a mouthpiece. リード上のセンシング部を模式的に示す図である。It is a figure which shows typically the sensing part on the lead. (a)はマウスピースを引っ張りながら離した場合のリード上の位置毎のセンサ値、センサ値合計、及び重心における時間推移の一例を示す表、(b)は下唇をマウスピースから垂直に離した場合の、図6(a)と同様の表である。(A) is a table showing an example of the sensor value for each position on the lead, the total sensor value, and the time transition in the center of gravity when the mouthpiece is pulled and released, and (b) is the lower lip vertically separated from the mouthpiece. It is the same table as FIG. 6A in the case of. (a)は図6(a)における位置毎のセンサ値の時間推移を示すグラフ、(b)は図6(b)における位置毎のセンサ値の時間推移を示すグラフである。(A) is a graph showing the time transition of the sensor value for each position in FIG. 6 (a), and (b) is a graph showing the time transition of the sensor value for each position in FIG. 6 (b). (a)は図6(a)における重心位置とセンサ値合計との関係を示すグラフ、(b)は図6(b)における重心位置とセンサ値合計との関係を示すグラフである。(A) is a graph showing the relationship between the position of the center of gravity and the total sensor value in FIG. 6 (a), and (b) is a graph showing the relationship between the position of the center of gravity and the total sensor value in FIG. 6 (b). メインルーチンを示すフローチャートである。It is a flowchart which shows the main routine. 下唇位置/舌検出部の処理の流れを示すフローチャートである。It is a flowchart which shows the process flow of the lower lip position / tongue detection part.

以下、添付図面を参照して、本発明に係る実施形態を説明する。本実施形態に係る電子楽器は、リードを用いる木管楽器であるアコースティック管楽器の奏法(例えば、ピッチベンドやビブラート)に応じて演奏を表現する電子楽器である。ここでは、電子楽器がサクソフォンである例を説明する。もっとも、本発明はこれに限定されるものではなく、クラリネット等、他の管楽器を模した電子楽器に適用してもよい。なお、実施形態の説明の全体を通して同じ要素には同じ符号を付している。 Hereinafter, embodiments according to the present invention will be described with reference to the accompanying drawings. The electronic musical instrument according to the present embodiment is an electronic musical instrument that expresses a performance according to the playing method (for example, pitch bend or vibrato) of an acoustic wind instrument which is a woodwind instrument using a lead. Here, an example in which the electronic musical instrument is a saxophone will be described. However, the present invention is not limited to this, and may be applied to an electronic musical instrument that imitates another wind instrument such as a clarinet. The same elements are designated by the same reference numerals throughout the description of the embodiment.

[電子楽器の構成]
(電子楽器の基本構成)
図1を参照して、本実施形態に係る電子楽器の基本構成を説明する。図1(a)は電子楽器の平面図であり、図1(b)は電子楽器の側面図である。図1(a)、(b)に示すように、電子楽器100は、アコースティック管楽器であるサクソフォンを模した外形を有し、管体部100aと、操作子1と、サウンドシステム9と、マウスピース10と、を備える。
管体部100aは、サクソフォンの管体部を模した形状を有する本体の筐体部である。
[Composition of electronic musical instruments]
(Basic configuration of electronic musical instruments)
The basic configuration of the electronic musical instrument according to the present embodiment will be described with reference to FIG. FIG. 1A is a plan view of the electronic musical instrument, and FIG. 1B is a side view of the electronic musical instrument. As shown in FIGS. 1A and 1B, the electronic musical instrument 100 has an outer shape imitating a saxophone which is an acoustic wind instrument, and has a tube body portion 100a, an operator 1, a sound system 9, and a mouthpiece. 10 and.
The tube body portion 100a is a housing portion of the main body having a shape imitating the tube body portion of the saxophone.

操作子1は、管体部100a上に配置され、演奏者P(ユーザ)が指で操作する操作部である。操作子1は、音高を決定する演奏キー、楽曲のキーに合わせて音高を変える機能、音高の微調整を行う機能等を設定する設定キーを含み、演奏者Pからキー操作を受け付けて操作情報を後述のCPU5に出力する。 The operator 1 is an operation unit that is arranged on the tube body portion 100a and is operated by the performer P (user) with a finger. The operator 1 includes a performance key for determining the pitch, a function for changing the pitch according to the key of the musical piece, a setting key for setting a function for finely adjusting the pitch, and the like, and accepts key operations from the performer P. The operation information is output to the CPU 5 described later.

マウスピース10は、管体部100aに接続されるとともに、演奏者Pが口腔で操作する。マウスピース10には、追って詳述するように、リード11が取り付けられる。 The mouthpiece 10 is connected to the tube body portion 100a and is operated by the performer P in the oral cavity. A lead 11 is attached to the mouthpiece 10 as described in detail later.

サウンドシステム9は、スピーカ等を有し、楽音出力を行う。より具体的には、サウンドシステム9は、音源部8から入力された楽音信号に信号増幅等を施し、内蔵のスピーカから楽音として出力する。 The sound system 9 has a speaker and the like, and outputs musical tones. More specifically, the sound system 9 amplifies the musical sound signal input from the sound source unit 8 and outputs it as a musical sound from the built-in speaker.

また、図1(a)に一部透視部分として示すように、管体部100aに内蔵された基板上に、息圧検出部2、制御手段としてのCPU(Central Processing Unit)5、ROM(Read Only Memory)6、RAM(Random Access Memory)7、音源部8が設けられている。CPU5は、全体的な処理を行う部分であり、以下で説明される各種の動作(処理)を実行する楽音制御装置を構成し、その楽音制御装置の処理部として機能する。 Further, as shown as a partially transparent portion in FIG. 1A, a breath pressure detection unit 2, a CPU (Central Processing Unit) 5 as a control means, and a ROM (Read) are placed on a substrate built in the tube body 100a. Only Memory) 6, RAM (Random Access Memory) 7, and sound source unit 8 are provided. The CPU 5 is a part that performs overall processing, constitutes a musical tone control device that executes various operations (processes) described below, and functions as a processing unit of the musical tone control device.

息圧検出部2は、演奏者Pからマウスピース10に吹き込まれた息の圧力(息圧)を検出し、息圧情報をCPU5に出力するセンサである。音源部8は、楽音を生成する回路であり、音源部8の出力に応じてサウンドシステム9は動作する。CPU5、ROM6、RAM7については後述する。 The breath pressure detection unit 2 is a sensor that detects the breath pressure (breath pressure) blown into the mouthpiece 10 by the player P and outputs the breath pressure information to the CPU 5. The sound source unit 8 is a circuit that generates a musical sound, and the sound system 9 operates according to the output of the sound source unit 8. The CPU 5, ROM 6, and RAM 7 will be described later.

(電子楽器の機能構成)
図2を参照して、電子楽器100の機能構成を説明する。図2は、電子楽器100の機能構成を示すブロック図である。図2に示すように、電子楽器100は、上述した操作子1と、上述した息圧検出部2と、リップ検出部3と、タン検出部4と、CPU5と、ROM6と、RAM7と、上述した音源部8と、上述したサウンドシステム9と、を備える。サウンドシステム9を除く電子楽器100の上記各部は、バス9aを介して互いに接続されている。
(Functional configuration of electronic musical instruments)
The functional configuration of the electronic musical instrument 100 will be described with reference to FIG. FIG. 2 is a block diagram showing a functional configuration of the electronic musical instrument 100. As shown in FIG. 2, the electronic musical instrument 100 includes the above-mentioned operator 1, the above-mentioned breath pressure detection unit 2, the lip detection unit 3, the tongue detection unit 4, the CPU 5, the ROM 6, the RAM 7, and the above. The sound source unit 8 and the sound system 9 described above are provided. The above-mentioned parts of the electronic musical instrument 100 except the sound system 9 are connected to each other via a bus 9a.

リップ検出部3(リップ検出センサ)は、リード11に設けられ、演奏者Pのリップ(下唇)Lの接触を検知する静電容量方式のタッチセンサである。リップ検出部3は、タッチセンサにおけるリップLの接触位置及びリップLの接触面積に応じた静電容量を、リップLの検出情報としてCPU5に出力する。リップLの検出情報がCPU5によってどのように利用されるかについては追って述べる。 The lip detection unit 3 (lip detection sensor) is a capacitive touch sensor provided on the lead 11 and detects the contact of the performer P's lip (lower lip) L. The lip detection unit 3 outputs the capacitance corresponding to the contact position of the lip L and the contact area of the lip L in the touch sensor to the CPU 5 as the detection information of the lip L. How the detection information of the lip L is used by the CPU 5 will be described later.

タン検出部4は、リード11に設けられ、演奏者Pのタン(舌)の接触を検出する静電容量方式のタッチセンサである。タン検出部4は、タッチセンサにおけるタンの接触面積に応じた静電容量をタンの検出情報としてCPU5に出力する。 The tongue detection unit 4 is a capacitive touch sensor provided on the lead 11 and detects the contact of the tongue (tongue) of the performer P. The tongue detection unit 4 outputs the capacitance corresponding to the contact area of the tongue in the touch sensor to the CPU 5 as the tongue detection information.

CPU5は、電子楽器100の各部を制御する制御部である。CPU5は、ROM6から指定されたプログラムを読み出して後述する各種処理を実行する。 The CPU 5 is a control unit that controls each unit of the electronic musical instrument 100. The CPU 5 reads a program specified from the ROM 6 and executes various processes described later.

より具体的には、CPU5は、操作子1から入力された音高情報と、息圧検出部2から入力された息圧情報と、リップ検出部3から入力されたリップLの検出情報と、タン検出部4から入力されたタンの検出情報と、に基づいて、楽音の生成を音源部8に指示する。 More specifically, the CPU 5 includes pitch information input from the operator 1, breath pressure information input from the breath pressure detection unit 2, and lip L detection information input from the lip detection unit 3. Based on the tongue detection information input from the tongue detection unit 4, the sound source unit 8 is instructed to generate a musical sound.

例えば、CPU5は、操作子1から入力された音高情報に基づいて、楽音の音高を設定する。また、CPU5は、息圧検出部2から入力された息圧情報に基づいて、楽音の音量を設定する。更に、CPU5は、リップ検出部3から入力されたリップLの検出情報に応じて、発生する楽音に付与されるエフェクトを制御する。CPU5はまた、タン検出部4から入力されたタン(舌)の接触の検出情報に基づいて、タンギング音の発生形態を設定する。 For example, the CPU 5 sets the pitch of the musical tone based on the pitch information input from the operator 1. Further, the CPU 5 sets the volume of the musical tone based on the breath pressure information input from the breath pressure detection unit 2. Further, the CPU 5 controls the effect given to the generated musical tone according to the detection information of the lip L input from the lip detection unit 3. The CPU 5 also sets the tonguing sound generation mode based on the tongue (tongue) contact detection information input from the tongue detection unit 4.

CPU5は、これら処理を、処理内容に応じて設定された周期で繰り返し実行する。例えば、CPU5は、操作子1が操作されたか否かを所定の周期で繰り返し判定し、操作子1が操作されたと判定する度に操作に応じた発音処理を行う。その際、CPU5は、リップ検出部3の出力値に基づいて、後述する所定の処理を実行する。 The CPU 5 repeatedly executes these processes at a cycle set according to the processing content. For example, the CPU 5 repeatedly determines whether or not the operator 1 has been operated at a predetermined cycle, and performs sounding processing according to the operation each time it determines that the operator 1 has been operated. At that time, the CPU 5 executes a predetermined process described later based on the output value of the lip detection unit 3.

ROM6は、各種データ及び各種プログラムを記憶する。RAM7は、処理された各種データを一時的に格納するワークエリアを有する。 The ROM 6 stores various data and various programs. The RAM 7 has a work area for temporarily storing various processed data.

音源部8は、シンセサイザであり、CPU5の楽音の生成指示(楽音制御)に従い、楽音を生成して楽音信号をサウンドシステム9に出力する。 The sound source unit 8 is a synthesizer, generates a musical tone, and outputs a musical tone signal to the sound system 9 in accordance with a musical tone generation instruction (musical tone control) of the CPU 5.

(マウスピースの詳細)
図3及び図4を参照して、マウスピース10の構成を説明する。図3(a)はマウスピース10を示す断面図であり、(b)はマウスピース10を示す下面図である。図3(a)においては、マウスピース10の軸方向に沿って、開口部13側を「ティップ」とし、管体部100a側を「ヒール」とする。
(Details of mouthpiece)
The configuration of the mouthpiece 10 will be described with reference to FIGS. 3 and 4. FIG. 3A is a cross-sectional view showing the mouthpiece 10, and FIG. 3B is a bottom view showing the mouthpiece 10. In FIG. 3A, the opening 13 side is referred to as a “tip” and the tube body portion 100a side is referred to as a “heel” along the axial direction of the mouthpiece 10.

図3(a)、(b)に示すように、マウスピース10は、マウスピース本体部10aと、リード11と、固定金具12と、を有する。マウスピース本体部10aは、マウスピース10の本体部品であり、演奏者Pが息を吹き込むための開口部13を有する。リード11は、マウスピース本体部10aの下方、つまり、アコースティック管楽器のリード位置に対応して設けられている。固定金具12は、リード11をマウスピース本体部10aに取り付けるための金具である。 As shown in FIGS. 3A and 3B, the mouthpiece 10 has a mouthpiece main body 10a, a lead 11, and a fixing bracket 12. The mouthpiece main body 10a is a main body component of the mouthpiece 10, and has an opening 13 for the performer P to breathe. The reed 11 is provided below the mouthpiece main body 10a, that is, corresponding to the reed position of the acoustic wind instrument. The fixing metal fitting 12 is a metal fitting for attaching the lead 11 to the mouthpiece main body 10a.

図3(b)に示すように、リード11には、複数の電極部40,30〜39が、ティップ側からヒール側に向かって所定の間隔で配置されている。 As shown in FIG. 3B, a plurality of electrode portions 40, 30 to 39 are arranged on the lead 11 at predetermined intervals from the tip side to the heel side.

このうち電極部40は、タン検出部4を構成する静電容量方式のタッチセンサS10のセンシング部である。また、電極部30〜39は、リップ検出部3を構成する静電容量方式のタッチセンサS20〜S29のセンシング部である。本実施形態では、リップ検出部3及びタン検出部4は1つの部品として構成されているが、別個の部品として構成されてもよい。 Of these, the electrode unit 40 is a sensing unit of the capacitance type touch sensor S10 that constitutes the tongue detection unit 4. Further, the electrode units 30 to 39 are sensing units of the capacitance type touch sensors S20 to S29 constituting the lip detection unit 3. In the present embodiment, the lip detection unit 3 and the tongue detection unit 4 are configured as one component, but may be configured as separate components.

上述したマウスピース10が演奏者Pによってどのように操作されるかを、図4を参照して説明する。図4は、演奏者Pの口腔とマウスピース10との接触状態を示す図である。図4に示すように、演奏者Pは、電子楽器100の演奏時に、上側前歯E1をマウスピース本体部10aの上部に当て、下側前歯E2を下側のリップLで巻き込み、リード11に触れる。このようにして、マウスピース10は、上側前歯E1とリップLとで保持される。 How the mouthpiece 10 described above is operated by the performer P will be described with reference to FIG. FIG. 4 is a diagram showing a contact state between the oral cavity of the performer P and the mouthpiece 10. As shown in FIG. 4, when playing the electronic musical instrument 100, the performer P puts the upper front tooth E1 on the upper part of the mouthpiece main body 10a, winds the lower front tooth E2 with the lower lip L, and touches the lead 11. .. In this way, the mouthpiece 10 is held by the upper anterior teeth E1 and the lip L.

演奏時における口腔内部のタンは、奏法により、リード11に触れている状態のタンT1(実線)と、リード11に触れていない状態のタンT2(破線)と、のいずれかとなる。ここで、演奏者Pは、通常、楽器の発音を抑制することを意図してタンをリード11に接触させることが知られている。かかる演奏者Pの所作に対応するために、上述したタッチセンサS10は、電極部40に対するタンの接触状態を検出する。例えば、図4において実線で示されるタンT1は、リード11に接触した状態を示し、図4に一点鎖線で示されるタンT2は、リード11から離れた状態を示す。そして、タッチセンサS10は、検出情報をCPU5に対して出力する。 The tongue inside the oral cavity during performance is either a tongue T1 (solid line) in a state of touching the lead 11 or a tongue T2 (broken line) in a state of not touching the lead 11 depending on the playing method. Here, it is known that the performer P usually brings the tongue into contact with the lead 11 with the intention of suppressing the pronunciation of the musical instrument. In order to correspond to the behavior of the performer P, the touch sensor S10 described above detects the contact state of the tongue with respect to the electrode portion 40. For example, the tongue T1 shown by the solid line in FIG. 4 indicates a state of being in contact with the lead 11, and the tongue T2 shown by the alternate long and short dash line in FIG. 4 indicates a state of being separated from the lead 11. Then, the touch sensor S10 outputs the detection information to the CPU 5.

また、演奏者Pは、通常、発音時にはリップLをマウスピース10に接触させている。この場合、演奏者Pは、リップLの接触位置及び接触面積(接触圧力)を操作して、音を変化させることがある。このような奏法に対応して、タッチセンサS20〜S29は、電極部30〜39に対するリップLの接触状態を検出する。そして、タッチセンサS20〜S29は、それぞれの検出情報をCPU5に対して出力する。 Further, the performer P usually brings the lip L into contact with the mouthpiece 10 at the time of sounding. In this case, the performer P may change the sound by manipulating the contact position and contact area (contact pressure) of the lip L. Corresponding to such a playing style, the touch sensors S20 to S29 detect the contact state of the lip L with respect to the electrode portions 30 to 39. Then, the touch sensors S20 to S29 output their respective detection information to the CPU 5.

CPU5は、タッチセンサS20〜S29から出力される検出情報に応じて、追って詳しく述べるように、リード11におけるリップLの接触位置(重心位置)を算出する。また、CPU5は、タッチセンサS10から出力される検出情報に基づいて、タンの接触状態(T1,T2)を判断する。 The CPU 5 calculates the contact position (center of gravity position) of the lip L on the lead 11 according to the detection information output from the touch sensors S20 to S29, as will be described in detail later. Further, the CPU 5 determines the contact state (T1, T2) of the tongue based on the detection information output from the touch sensor S10.

なお、リップ検出部3及びタン検出部4を構成するタッチセンサ及び電極部の数量、配置、形状は、仕様に応じて任意に設定されうる。 The quantity, arrangement, and shape of the touch sensor and the electrode unit constituting the lip detection unit 3 and the tongue detection unit 4 can be arbitrarily set according to the specifications.

(リップのリードへの接触位置)
上記のような構成を有するリップ検出部3では、リップLは、多くの場合、複数の電極部に亘って接触することになる。そのときのリップLの接触位置を1点に定めるために、本実施形態では、リップLのリード11上の重心位置を算出することとしている。そこで、図5を参照して、リップLのリード11への重心位置を算出する手法を説明する。
(Position of contact with lip lead)
In the lip detection unit 3 having the above configuration, the lip L often comes into contact with a plurality of electrode units. In this embodiment, the position of the center of gravity of the lip L on the lead 11 is calculated in order to determine the contact position of the lip L at that time at one point. Therefore, a method of calculating the position of the center of gravity of the lip L with respect to the lead 11 will be described with reference to FIG.

図3(b)を参照して説明したように、複数の矩形状の電極部40,30〜39は、リード11の延在方向ないし長手方向に沿って整列している。演奏者P側の一端に、タン検出部4を構成するタッチセンサS10の電極部40が配置され、この電極部40に隣り合うように、リップ検出部3を構成するタッチセンサS20〜S29の電極部30〜39が、反対側の端部に向かって等間隔で配列されている。図5は、リード11上の電極部40,30〜39を模式的に示した図であり、図5では、以後の説明がわかり易いようにするために、電極部30〜39の位置を、電極部40側からP1〜P10で表し、それぞれ番号「1」〜「10」を付与している。 As described with reference to FIG. 3B, the plurality of rectangular electrode portions 40, 30 to 39 are aligned along the extending direction or the longitudinal direction of the lead 11. The electrode portion 40 of the touch sensor S10 constituting the tongue detection unit 4 is arranged at one end on the player P side, and the electrodes of the touch sensors S20 to S29 constituting the lip detection unit 3 are adjacent to the electrode portion 40. The portions 30 to 39 are arranged at equal intervals toward the opposite end. FIG. 5 is a diagram schematically showing the electrode portions 40, 30 to 39 on the lead 11, and in FIG. 5, the positions of the electrode portions 30 to 39 are set to the electrodes so that the following description can be easily understood. It is represented by P1 to P10 from the unit 40 side, and numbers "1" to "10" are assigned to each.

そして、リップLのリード11への接触位置(重心位置xG)は、タッチセンサS20〜S29の出力値miと電極部30〜39の位置xiとを用いて、次式で算出することが出来る。

Figure 0006923047
ここで、nはタッチセンサの数である。
なお、この式は一般に重心位置を算出するときに用いられる式である。 The contact position (center of gravity position xG) of the lip L with the lead 11 can be calculated by the following equation using the output values mi of the touch sensors S20 to S29 and the positions xi of the electrode portions 30 to 39.
Figure 0006923047
Here, n is the number of touch sensors.
This formula is generally used when calculating the position of the center of gravity.

例えば、位置「P1」から「P10」に対応するタッチセンサS20〜S29の出力値がそれぞれ0,0,0,0,90,120,150,120,90,0,0である場合、リップLの重心位置xGは、

Figure 0006923047
と算出される。 For example, when the output values of the touch sensors S20 to S29 corresponding to the positions "P1" to "P10" are 0,0,0,0,90,120,150,120,90,0,0, respectively, the lip L Center of gravity position xG is
Figure 0006923047
Is calculated.

本実施形態では、リップLの重心位置を、0から127までの整数値(7ビットの2進数)で表現した重心値で表わすこととしている。この重心値を得るためには、上述した重心位置xGを10で除して127を乗ずればよい。 In the present embodiment, the position of the center of gravity of the lip L is represented by the center of gravity value expressed by an integer value (7-bit binary number) from 0 to 127. In order to obtain this center of gravity value, the above-mentioned center of gravity position xG may be divided by 10 and multiplied by 127.

(センサ値合計と重心値に基づく下唇のマウスピースからの離し方の区別)
ここで、図6から図8を参照して、タッチセンサS20〜S29の出力値の合計及びリップLの重心値に基づいて、リップLの下唇のマウスピース10からの離す動作の形態を判別する手法の一例を説明する。
(Differentiation of how to separate the lower lip from the mouthpiece based on the total sensor value and the center of gravity value)
Here, with reference to FIGS. 6 to 8, the mode of the action of separating the lower lip of the lip L from the mouthpiece 10 is determined based on the total of the output values of the touch sensors S20 to S29 and the center of gravity value of the lip L. An example of the method of doing this will be described.

図6(a)は、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した場合のリード11上の位置「P1」から「P10」毎のセンサ値(センサ情報)、センサ値合計(センサ情報の値の合計値)、及び重心値における、時刻t1からt5までの時間推移の一例を示す表である。図6(b)は、リップLの下唇をマウスピース10から垂直に離す動作を開始した場合の、図6(a)と同様の表である。 FIG. 6A shows the sensor values (sensor information) and the total sensor values for each position “P1” to “P10” on the lead 11 when the operation of releasing the lower lip of the lip L is started while pulling the mouthpiece 10. It is a table which shows an example of the time transition from time t1 to t5 in (the total value of the sensor information value) and the center of gravity value. FIG. 6B is a table similar to that of FIG. 6A when the operation of vertically separating the lower lip of the lip L from the mouthpiece 10 is started.

ここで、センサ値は0から255までの整数であり、したがって、10個のセンサ値の合計は0から2550までの値を取る。また、重心値は、上述したように0から127までの整数で表現されている。また、本実施形態では、図6(a)における時刻t4、及び図6(b)における時刻t3におけるセンサ値及びセンサ値合計は小さな値であり、このような値から算出された重心値は、実態を正確に表していないおそれがあるため、図6(a)及び(b)ではノイズとして処理されている。 Here, the sensor value is an integer from 0 to 255, so the sum of the 10 sensor values takes a value from 0 to 2550. Further, the center of gravity value is represented by an integer from 0 to 127 as described above. Further, in the present embodiment, the sensor value and the total sensor value at the time t4 in FIG. 6A and the time t3 in FIG. 6B are small values, and the center of gravity value calculated from such values is a small value. Since there is a possibility that the actual situation is not accurately represented, it is treated as noise in FIGS. 6A and 6B.

図6(a)と図6(b)に共通する傾向は、位置毎のセンサ値及びセンサ値合計が時間の経過とともに減少していることである。この傾向を検出することで、リップLをマウスピース10から離す動作を開始したことを判定することができる。 The tendency common to FIGS. 6 (a) and 6 (b) is that the sensor value and the total sensor value for each position decrease with the passage of time. By detecting this tendency, it can be determined that the operation of separating the lip L from the mouthpiece 10 has started.

他方、図6(b)では、センサ値のピークは各時刻においてほぼ位置P7に保持されているのに対して、図6(a)では、センサ値のピークは、時刻t1では位置P7、時刻t2では位置P6、時刻t3では位置P5のように遷移している。同様に、図6(b)では、重心値は、時刻t1において「74」、時刻t2において「73」のように実質的に変動しないのに対して、図6(a)では、重心値は、時刻t1において「74」、時刻t2において「69」、時刻t3において「59」のように、リード11のティップ側の方に移動している。このような重心値の変化の相違があることは、リップLの2種類の離し方の動作を区別するうえで有効であると考えられる。以下、図7及び図8で図解する。 On the other hand, in FIG. 6B, the peak of the sensor value is held at the position P7 at each time, whereas in FIG. 6A, the peak of the sensor value is at the position P7 at the time t1 and the time. At t2, the transition is at position P6, and at time t3, the transition is at position P5. Similarly, in FIG. 6B, the center of gravity value does not substantially fluctuate as “74” at time t1 and “73” at time t2, whereas in FIG. 6A, the center of gravity value is , "74" at time t1, "69" at time t2, "59" at time t3, and so on, moving toward the tip side of the lead 11. It is considered that such a difference in the change in the center of gravity value is effective in distinguishing the movements of the two types of separation of the lip L. Hereinafter, it will be illustrated with reference to FIGS. 7 and 8.

図7(a)は、図6(a)における位置「P1」から「P10」毎のセンサ値の時間推移を示すグラフであり、図7(b)は、図6(b)における位置「P1」から「P10」毎のセンサ値の時間推移を示すグラフである。位置Pを横軸に、センサ値を縦軸に取って、時刻t1からt4(又はt3)までの位置毎のセンサ値を比較している。これらグラフからも、リップLの離し方の動作の違いによる、センサ値の減少量及びピーク位置の違いが把握される。 FIG. 7 (a) is a graph showing the time transition of the sensor value for each position “P1” to “P10” in FIG. 6 (a), and FIG. 7 (b) is a graph showing the time transition of the sensor value in each position “P1” to “P10”. It is a graph which shows the time transition of the sensor value for every "P10" from "". With the position P on the horizontal axis and the sensor value on the vertical axis, the sensor values for each position from time t1 to t4 (or t3) are compared. From these graphs as well, the difference in the amount of decrease in the sensor value and the difference in the peak position due to the difference in the operation of releasing the lip L can be grasped.

図8(a)は、図6(a)における重心値とセンサ値合計との関係を示すグラフであり、図8(b)は、図6(b)に対応する図8(a)と同様のグラフである。図8(a)及び(b)では、時刻tを横軸に、重心値及びセンサ値合計を第1及び第2の縦軸に取っている。 8 (a) is a graph showing the relationship between the center of gravity value and the total sensor value in FIG. 6 (a), and FIG. 8 (b) is the same as FIG. 8 (a) corresponding to FIG. 6 (b). It is a graph of. In FIGS. 8A and 8B, the time t is on the horizontal axis, and the total of the center of gravity value and the sensor value is on the first and second vertical axes.

図8(a)において、時刻t1からt2の間、及び時刻t2からt3の間に、センサ値合計はそれぞれD11及びD12だけ減少している。また、図8(b)において、時刻t1からt2の間にセンサ値合計はD13だけ減少している。したがって、前回(例えば時刻t1)のセンサ値合計と今回(例えば時刻t2)のセンサ値合計との間の減少量を検出することで、演奏者PがリップLの下唇をマウスピース10から離す動作を開始した第1のタイミングであることを把握することができる。本実施形態では、処理部として機能するCPU5は、前回のセンサ値合計と今回のセンサ値合計との間の減少量が所定量(閾値)以上であると、リップLの下唇がリード11から離れ始める第1のタイミングであると判定するようになっている。 In FIG. 8A, the total sensor values decrease by D11 and D12, respectively, between the times t1 and t2 and between the times t2 and t3. Further, in FIG. 8B, the total sensor value decreases by D13 between the times t1 and t2. Therefore, by detecting the amount of decrease between the total sensor value of the previous time (for example, time t1) and the total sensor value of this time (for example, time t2), the performer P separates the lower lip of the lip L from the mouthpiece 10. It can be grasped that it is the first timing when the operation is started. In the present embodiment, in the CPU 5 functioning as the processing unit, when the amount of decrease between the total sensor values of the previous time and the total sensor values of the current time is equal to or greater than a predetermined amount (threshold value), the lower lip of the lip L starts from the lead 11. It is determined that it is the first timing to start leaving.

図8(a)及び(b)では、重心値とセンサ値合計とは異なる種類のデータであり、両者の値を単純に比較することは意味がない。しかしながら、何らかの動作、例えば下唇をリードから離す動作を行った場合に、これら両者の変化の形態が同じ傾向にあるか否かを把握することは可能である。ただし、両者の値のスケールは一致していないため、このままでは両者の変化の形態が同じ傾向にあるか否を単純に判断することはできない。このため、本実施形態においては、少なくとも一方の値のスケールを他方の値のスケールに合わせるように補正することで、両者を対比可能としている。補正の手法は、例えば、所定の値の加減又は乗除である。本実施形態では、例えば、重心値を20倍するか、あるいは、センサ値合計を20分の1(20で除算する)にすることで、重心値とセンサ値合計との変化の形態が同じ傾向にあるか否かを比較可能にしている。なお、倍率は、上述した比較を容易にするように適宜設定されてよい。 In FIGS. 8A and 8B, the center of gravity value and the total sensor value are different types of data, and it is meaningless to simply compare the two values. However, it is possible to determine whether or not the two forms of change tend to be the same when some movement, for example, the movement of separating the lower lip from the lead, is performed. However, since the scales of both values do not match, it is not possible to simply judge whether or not the forms of change of both tend to be the same as they are. Therefore, in the present embodiment, the scales of at least one value are corrected so as to match the scales of the other value, so that the two can be compared. The correction method is, for example, addition / subtraction or multiplication / division of a predetermined value. In the present embodiment, for example, by multiplying the center of gravity value by 20 or reducing the total sensor value to 1/20 (divide by 20), the form of change between the center of gravity value and the total sensor value tends to be the same. It is possible to compare whether or not it is in. The magnification may be appropriately set so as to facilitate the above-mentioned comparison.

そこで、時刻ごとに補正後の重心値とセンサ値合計とを比較すると、図8(a)では、時刻t2においてD21の差があり、時刻t3においてはD22の差がある。同様に、図8(b)では、時刻t2においてD23の差がある。また、D23>D21,D22であるから、補正後の重心値とセンサ値合計との差を時刻ごとに判定することで、2種類のリップLの下唇の離し方の動作の形態を区別することができる。つまり、かかる差が所定の閾値より小さいと、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態と判定し、また、かかる差が閾値より大きいと、リップLの下唇をマウスピース10から垂直に離す動作を開始したと判別すればよい。 Therefore, when the corrected center of gravity value and the total sensor value are compared for each time, in FIG. 8A, there is a difference of D21 at time t2 and a difference of D22 at time t3. Similarly, in FIG. 8B, there is a difference in D23 at time t2. Further, since D23> D21 and D22, the difference between the corrected center of gravity value and the total sensor value is determined for each time to distinguish between the two types of lip L lower lip movement modes. be able to. That is, when the difference is smaller than the predetermined threshold value, it is determined that the first form starts the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10, and when the difference is larger than the threshold value, the lip L It may be determined that the action of vertically separating the lower lip from the mouthpiece 10 has started.

[電子楽器の動作]
図9及び図10を参照して、上述した構成を有する電子楽器100の動作を説明する。図9は、メインルーチンを示すフローチャートである。図10は、下唇位置/舌検出部の処理の流れを示すフローチャートである。
[Operation of electronic musical instruments]
The operation of the electronic musical instrument 100 having the above-described configuration will be described with reference to FIGS. 9 and 10. FIG. 9 is a flowchart showing the main routine. FIG. 10 is a flowchart showing a processing flow of the lower lip position / tongue detection unit.

(メインルーチン)
図9を参照して、電子楽器100の主たる動作、ないし電子楽器100の制御手法を説明する。
(Main routine)
The main operation of the electronic musical instrument 100 or the control method of the electronic musical instrument 100 will be described with reference to FIG.

電源が入ると、ステップST11においてイニシャライズ処理が行われる。かかる処理は、例えば各種設定の初期化である。 When the power is turned on, the initialization process is performed in step ST11. Such processing is, for example, initialization of various settings.

次いで、ステップST12において、リップ検出部3及びタン検出部4の処理が行われる。このステップは、上述したリップL及びタンのリード11への接触状態に応じた処理であり、追って図10との関係で詳しく述べる。 Next, in step ST12, the processing of the lip detection unit 3 and the tongue detection unit 4 is performed. This step is a process according to the contact state of the lip L and the tongue with the lead 11 described above, and will be described in detail later in relation to FIG.

そして、ステップST13において、息圧検出部2の処理が行われる。かかるステップは、上述した息吹込みによる息圧の検出処理である。 Then, in step ST13, the process of the breath pressure detection unit 2 is performed. Such a step is the process of detecting the breath pressure by breathing as described above.

次いで、ステップST14において、キースイッチ処理が行われる。キースイッチ処理では、CPU5は、操作子1の操作情報に応じた楽音の音高を表わすキーコードを発生させ、音源部8に供給する。 Next, in step ST14, the key switch process is performed. In the key switch process, the CPU 5 generates a key code indicating the pitch of the musical tone according to the operation information of the operator 1, and supplies the key code to the sound source unit 8.

そして、ステップST15において、発音処理が行われる。かかる処理では、音源部8は、受信したキーコード等に基づいてサウンドシステム9を動作させる。 Then, in step ST15, the pronunciation process is performed. In such processing, the sound source unit 8 operates the sound system 9 based on the received key code or the like.

ステップST15の後、ステップST16において、その他必要な処理が行われ、一通りの処理手順が終了し、再び、上述したステップST12からST16が繰り返される。 After step ST15, other necessary processing is performed in step ST16, a series of processing procedures are completed, and steps ST12 to ST16 described above are repeated again.

(下唇位置/舌検出部の処理)
図10を参照して、上記ステップST12における下唇位置/舌検出部の処理を詳述する。かかる処理は、制御手段としてのCPU5において行われる。
(Lower lip position / processing of tongue detection part)
With reference to FIG. 10, the processing of the lower lip position / tongue detection portion in the above step ST12 will be described in detail. Such processing is performed by the CPU 5 as a control means.

まず、ステップST21において、タッチセンサS20〜S29のそれぞれのセンサ値(出力値)が取得される。 First, in step ST21, the sensor values (output values) of the touch sensors S20 to S29 are acquired.

次いで、ステップST22において、センサ値の合計が算出され、前回のセンサ値の合計と比較される。比較の結果、今回(第3のタイミング)のセンサ値合計が前回(第4のタイミング)のセンサ値合計から減少しており、かつ、減少量(例えば、図8(a)及び(b)のD11,D12,D13)が閾値th1より大きいと判定されると、リップLがリード11から離れる動作を開始した第1のタイミングと判断されて、手順はステップST23に進む。他方、今回のセンサ値合計が前回のセンサ値合計から増加ないし同一であったり、減少量が閾値th1以下であったりすると、処理はメインルーチンに戻る。 Next, in step ST22, the total of the sensor values is calculated and compared with the total of the previous sensor values. As a result of comparison, the total sensor value of this time (third timing) has decreased from the total sensor value of the previous time (fourth timing), and the amount of decrease (for example, in FIGS. 8A and 8B). When it is determined that D11, D12, D13) is larger than the threshold value th1, it is determined that it is the first timing when the lip L starts the operation of moving away from the lead 11, and the procedure proceeds to step ST23. On the other hand, if the total sensor value of this time increases or is the same as the total sensor value of the previous time, or the amount of decrease is equal to or less than the threshold value th1, the process returns to the main routine.

ステップST23では、タッチセンサS20〜S29の各センサ値から算出したリップLのリード11上の重心値と、ステップST22において算出したセンサ値合計とについて、所定の補正、つまり両者の値のスケールを一致させる処理を施したうえで、両値の差を取る。 In step ST23, the center of gravity value on the lead 11 of the lip L calculated from the sensor values of the touch sensors S20 to S29 and the total sensor value calculated in step ST22 are corrected by a predetermined value, that is, the scales of both values are matched. After performing the processing to make it, the difference between the two values is taken.

そして、ステップST24において、かかる差(例えば、図8(a)及び(b)のD21,D22,D23)が閾値th2と比較される。比較の結果、当該差が閾値th2以下であると判定されると、処理はステップST25に進む。他方、当該差が閾値th2より大きいと判定されると、処理はステップST27に進む。 Then, in step ST24, such a difference (for example, D21, D22, D23 in FIGS. 8A and 8B) is compared with the threshold value th2. As a result of the comparison, if it is determined that the difference is equal to or less than the threshold value th2, the process proceeds to step ST25. On the other hand, if it is determined that the difference is larger than the threshold value th2, the process proceeds to step ST27.

ステップST25では、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態を示すフラグ(例えば「0」)をROM6に記録する。CPU5は、上述したステップST14又はST15において上記フラグをチェックし、このフラグが「0」が入力されていると判断すると、例えばこの下唇がマウスピース10から徐々に離れるにあわせて発生している楽音の音量が徐々に低下するような処理を行う。 In step ST25, a flag (for example, “0”) indicating the first form in which the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10 is started is recorded in the ROM 6. The CPU 5 checks the above flag in step ST14 or ST15 described above, and if it is determined that "0" is input to this flag, for example, it is generated as the lower lip gradually separates from the mouthpiece 10. Perform processing that gradually reduces the volume of the musical sound.

そして、ステップST26において、リップ・ポジションつまりリップLのリード11上の重心値を今回の値に固定する。このようなリップ・ポジションの固定は、リップLの下唇が一度リード11から離れた後、リード11に再び接触したと判定されるまで維持される。つまり、リップLがリード11から離れる動作を開始した第1のタイミングから、少なくともリップLがリード11から離れる動作を完了する第2のタイミングまでの間、第1のタイミングでのリード11に対するリップLの接触位置を、実際のリップLの接触位置として設定(固定)する。かかる処理により、マウスピース10を引っ張りながらリップLの下唇を離す動作を行ったとしても、発生中の楽音に対して、演奏者Pの意図しないエフェクトの変化が生じることを抑止することが可能となる。 Then, in step ST26, the lip position, that is, the center of gravity value of the lip L on the lead 11 is fixed to the current value. Such fixation of the lip position is maintained until it is determined that the lower lip of the lip L is once separated from the lead 11 and then touched the lead 11 again. That is, from the first timing at which the lip L starts the operation of leaving the lead 11 to at least the second timing at which the lip L completes the operation of leaving the lead 11, the lip L with respect to the lead 11 at the first timing. The contact position of the lip L is set (fixed) as the actual contact position of the lip L. By such a process, even if the lower lip of the lip L is released while pulling the mouthpiece 10, it is possible to prevent the performer P from unintentionally changing the effect with respect to the musical sound being generated. It becomes.

なお、ここで言う「リップLの下唇がリード11に再び接触したと判定されるまで」とは、物理的に下唇がリード11から離れて、再度、接触することを意味するものではなく、あくまでも、タッチセンサS20〜S29からの出力に基づいて、例えば、前回のセンサ値合計と比較して、今回のセンサ値合計がある程度以上増加しているという状態によって判断される。 The term "until it is determined that the lower lip of the lip L has come into contact with the lead 11 again" does not mean that the lower lip physically separates from the lead 11 and comes into contact with the lead 11 again. Based on the outputs from the touch sensors S20 to S29, for example, it is determined by the state that the total sensor value of this time is increased to some extent or more as compared with the total sensor value of the previous time.

他方、ステップST27では、リップLの下唇をマウスピース10から垂直に離す動作を開始したことを示すフラグ(例えば「1」)をROM6に記録する。CPU5は、上述したステップST14又はST15において上記フラグをチェックし、「1」が入力されていると判断すると、下唇をマウスピース10から垂直に離すタイミングに合わせて発音している楽音の音量を急激に低下させる処理を行う。 On the other hand, in step ST27, a flag (for example, “1”) indicating that the operation of vertically separating the lower lip of the lip L from the mouthpiece 10 is started is recorded in the ROM 6. The CPU 5 checks the above flag in step ST14 or ST15 described above, and when it is determined that "1" is input, the CPU 5 determines the volume of the musical tone being pronounced at the timing when the lower lip is vertically separated from the mouthpiece 10. Performs a process to reduce the value sharply.

このようにして一連の手順が終了すると、処理はメインルーチンに戻る。なお、リップLをリード11から離す際に発生するエフェクトを意図的に利用する演奏者Pのために、上述した重心値とセンサ値合計との関係に応じた処理を行わないようにする設定を設けてもよい。 When the series of procedures is completed in this way, the process returns to the main routine. For the performer P who intentionally uses the effect generated when the lip L is separated from the lead 11, the setting is set so as not to perform the processing according to the relationship between the above-mentioned center of gravity value and the total sensor value. It may be provided.

このように、本実施形態では、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始したことを検出すると、リップ・ポジションを固定する。したがって、かかる下唇の動きによって生じ得る、演奏者Pの意図しないエフェクト(例えばエコーやワウワウエフェクト等)の変化を防止することができる。 As described above, in the present embodiment, when it is detected that the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10 is started, the lip position is fixed. Therefore, it is possible to prevent an unintended change in the effect (for example, echo, wow wow effect, etc.) of the performer P, which may be caused by the movement of the lower lip.

以上、具体的な実施形態に基づいて本発明の電子楽器について説明してきたが、本発明は、上記の具体的な実施形態に限定されるものではない。
上記では、今回(第3のタイミング)と前回(第4のタイミング)との間の重心位置及びセンサ情報の値の合計値を用いて重心位置(重心値)と合計値との間の差の変化として、その変化が小さいという第1の条件を満たす場合に、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態であると判定していた。
Although the electronic musical instrument of the present invention has been described above based on the specific embodiment, the present invention is not limited to the above-mentioned specific embodiment.
In the above, the difference between the center of gravity position (center of gravity value) and the total value is used by using the total value of the center of gravity position and the sensor information value between this time (third timing) and the previous time (fourth timing). As a change, when the first condition that the change is small is satisfied, it is determined that it is the first form in which the action of releasing the lower lip of the lip L while pulling the mouthpiece 10 is started.

しかし、図8(a)及び(b)を見比べるとわかるように、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始する場合(図8(a)参照)と、そうでない場合(図8(b)参照)では、重心位置(重心値)の変化が小さいか否かという違いとともに、センサ情報の値の合計値(センサ値合計)の変化が小さいか否かという違いがある。 However, as can be seen by comparing FIGS. 8 (a) and 8 (b), when the operation of pulling the mouthpiece 10 and releasing the lower lip of the lip L is started (see FIG. 8 (a)), and when it is not (see FIG. 8 (a)). In FIG. 8B), there is a difference in whether or not the change in the position of the center of gravity (center of gravity value) is small, and whether or not the change in the total value of the sensor information values (total sensor value) is small.

つまり、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始する場合(図8(a)参照)には、今回(第3のタイミング)と前回(第4のタイミング)との間の重心位置の変化が小さく、且つ、センサ情報の値の合計値の変化も小さいという傾向があるため、これら重心位置の変化及びセンサ情報の値の合計値の変化の双方が小さいという第1の条件を満たす場合に、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態であると判定してもよい。 That is, when the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10 is started (see FIG. 8A), it is between this time (third timing) and the previous time (fourth timing). Since the change in the position of the center of gravity tends to be small and the change in the total value of the sensor information tends to be small, the first condition that both the change in the position of the center of gravity and the change in the total value of the sensor information are small. If the condition is satisfied, it may be determined that this is the first mode in which the action of releasing the lower lip of the lip L while pulling the mouthpiece 10 is started.

したがって、第3のタイミングにて決定された重心位置及びセンサ情報の値の合計値と第4のタイミングで決定された重心位置及びセンサ情報の値の合計値との間の変化の形態が第1の条件を満たす場合、マウスピース10を引っ張りながらリップLの下唇を離す動作を開始した第1の形態であると判断するようにすればよい。 Therefore, the first form of change is between the total value of the center of gravity position and the sensor information value determined at the third timing and the total value of the center of gravity position and the sensor information value determined at the fourth timing. When the condition of the above condition is satisfied, it may be determined that it is the first form in which the operation of releasing the lower lip of the lip L while pulling the mouthpiece 10 is started.

このように、本発明は、具体的な実施形態に限定されるものではなく、本発明の技術的範囲には、本発明の目的が達成される範囲での様々な変形や改良等が含まれるものであり、そのことは当業者にとって特許請求の範囲の記載から明らかである。 As described above, the present invention is not limited to specific embodiments, and the technical scope of the present invention includes various modifications and improvements within the range in which the object of the present invention is achieved. It is clear to those skilled in the art from the description of the scope of claims.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実行する処理部を有することを特徴とする楽音制御装置。
<請求項2>
前記処理部は、前記リップが前記リードから離れる動作を開始したと判断したタイミングを前記第1のタイミングとして判断し、前記リップが前記リードから離れる動作を完了したと判断したタイミングを前記第2のタイミングとして判断し、
前記第1のタイミングから、少なくとも前記第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、前記実際の前記リップの接触位置として設定することを特徴とする請求項1に記載の楽音制御装置。
<請求項3>
前記リップ検出センサは複数のセンシング部を備え、前記センサ情報は、前記複数のセンシング部夫々から得られるセンサ情報であることを特徴とする請求項1又は2に記載の楽音制御装置。
<請求項4>
前記検知処理は、第3のタイミングにて取得された前記センシング部夫々の前記センサ情報の値の合計値が、前記第3のタイミングの前のタイミングである第4のタイミングで取得された前記センシング部夫々の前記センサ情報の値の合計値より、第1の値未満であることを検知した場合、前記リップが前記リード上から離れる動作の開始を検知することを特徴とする請求項3に記載の楽音制御装置。
<請求項5>
前記センシング部夫々から得られる前記センサ情報の値から前記リード上での前記リップの重心位置を求め、
前記第3のタイミングにて決定された前記重心位置及び前記センサ情報の値の合計値と前記第4のタイミングで決定された前記重心位置及び前記センサ情報の値の合計値との間の変化の形態が第1の条件を満たす場合、前記第1の形態であると判断することを特徴とする請求項4に記載の楽音制御装置。
<請求項6>
前記位置決定処理は、前記リード上における前記リップの接触面積の重心位置を、前記接触位置とすることを特徴とする請求項1乃至5のいずれかに記載の楽音制御装置。
<請求項7>
音高を決めるために操作される複数のキーと、
リップの接触状態を検知するリップ検出センサを備えるリードと、
楽音を生成する音源部と、
請求項1乃至6のいずれかに記載の楽音制御装置と、
を備えることを特徴とする電子楽器。
<請求項8>
楽音制御装置の制御方法であって、
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定するステップと、
前記決定された前記接触位置に対応して音源部で生成される楽音を制御するステップと、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知するステップと、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定するステップと、
を含むことを特徴とする楽音制御装置の制御方法。
<請求項9>
楽音制御装置の処理部に、
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、前記リップの前記リード上における接触位置を決定する位置決定処理と、
前記位置決定処理にて決定された前記接触位置に対応して音源部で生成される楽音を制御する楽音制御処理と、
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作を開始したことを検知する検知処理と、
前記センサ情報に基づいて、前記リップの離れる形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記接触位置を、実際の前記リップの接触位置として設定する処理と、
を実現することを特徴とする楽音制御装置のプログラム。
The inventions described in the claims originally attached to the application of this application are added below. The item number of the claim described in the appendix is as per the scope of the patent claim originally attached to the application of this application.
<Claim 1>
A position-fixing process for determining the contact position of the lip on the lead based on the sensor information from the lip detection sensor that detects the contact state of the lip on the lead.
A musical tone control process that controls a musical tone generated by the sound source unit corresponding to the contact position determined by the position determination process, and a musical tone control process.
Based on the sensor information, a detection process for detecting that the lip has started to move away from the lead, and
When it is determined that the release form of the lip is the first form based on the sensor information, from the first timing to at least the second timing when the operation of the lip separating from the lead is completed. , And the process of setting the contact position at the first timing as the actual contact position of the lip.
A musical tone control device characterized by having a processing unit for executing the above.
<Claim 2>
The processing unit determines that the timing at which the lip has started the operation of moving away from the lead is determined as the first timing, and the timing at which the processing unit determines that the operation of separating the lip from the lead has been completed is the second timing. Judging as timing,
The first aspect of claim 1, wherein the contact position at the first timing is set as the actual contact position of the lip from the first timing to at least the second timing. Musical tone control device.
<Claim 3>
The musical sound control device according to claim 1 or 2, wherein the lip detection sensor includes a plurality of sensing units, and the sensor information is sensor information obtained from each of the plurality of sensing units.
<Claim 4>
In the detection process, the sensing in which the total value of the sensor information of each of the sensing units acquired at the third timing is acquired at the fourth timing, which is the timing before the third timing. The third aspect of claim 3, wherein when it is detected that the total value of the sensor information of each unit is less than the first value, the start of the operation of the lip moving away from the lead is detected. Musical tone control device.
<Claim 5>
The position of the center of gravity of the lip on the lead is obtained from the value of the sensor information obtained from each of the sensing units.
The change between the total value of the center of gravity position and the sensor information determined at the third timing and the total value of the center of gravity position and the sensor information determined at the fourth timing. The musical sound control device according to claim 4, wherein when the form satisfies the first condition, it is determined that the form is the first form.
<Claim 6>
The musical sound control device according to any one of claims 1 to 5, wherein the position-determining process sets the position of the center of gravity of the contact area of the lip on the lead as the contact position.
<Claim 7>
Multiple keys that are operated to determine the pitch,
A lead with a lip detection sensor that detects the contact state of the lip,
A sound source that generates musical tones,
The musical tone control device according to any one of claims 1 to 6.
An electronic musical instrument characterized by being equipped with.
<Claim 8>
It is a control method of a musical tone control device.
A step of determining the contact position of the lip on the lead based on the sensor information from the lip detection sensor that detects the contact state of the lip on the lead.
A step of controlling a musical sound generated by the sound source unit corresponding to the determined contact position, and
Based on the sensor information, a step of detecting that the lip has started to move away from the lead, and
When it is determined that the release form of the lip is the first form based on the sensor information, from the first timing to at least the second timing when the operation of the lip separating from the lead is completed. , And the step of setting the contact position at the first timing as the actual contact position of the lip.
A control method for a musical tone control device, which comprises.
<Claim 9>
In the processing section of the musical tone control device,
A position-fixing process for determining the contact position of the lip on the lead based on the sensor information from the lip detection sensor that detects the contact state of the lip on the lead.
A musical tone control process that controls a musical tone generated by the sound source unit corresponding to the contact position determined by the position determination process, and a musical tone control process.
Based on the sensor information, a detection process for detecting that the lip has started to move away from the lead, and
When it is determined that the release form of the lip is the first form based on the sensor information, from the first timing to at least the second timing when the operation of the lip separating from the lead is completed. , And the process of setting the contact position at the first timing as the actual contact position of the lip.
A program of a musical tone control device characterized by realizing.

100 電子楽器
100a 管体部
1 操作子
2 息圧検出部
3 リップ検出部
4 タン検出部
5 CPU
6 ROM
7 RAM
8 音源部
9 サウンドシステム
9a バス
10 マウスピース
10a マウスピース本体部
11 リード
12 固定金具
13 開口部
40,30〜39 電極部
E1 上側前歯
E2 下側前歯
L リップ
P 演奏者
S10,S20〜S29 タッチセンサ
100 Electronic musical instrument 100a Tube unit 1 Operator 2 Breath pressure detection unit 3 Lip detection unit 4 Tongue detection unit 5 CPU
6 ROM
7 RAM
8 Sound source 9 Sound system 9a Bus 10 Mouthpiece 10a Mouthpiece body 11 Lead 12 Fixing bracket 13 Openings 40, 30-39 Electrodes E1 Upper front teeth E2 Lower front teeth L Lip P Players S10, S20 to S29 Touch sensor

Claims (12)

リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、音源部で生成される楽音に対して第1制御を行う第1楽音制御処理と、A first musical tone control process that performs the first control on the musical tone generated by the sound source unit based on the sensor information from the lip detection sensor that detects the contact state of the lip on the lead.
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作の形態およびタイミングを検知する検知処理と、Based on the sensor information, a detection process for detecting the form and timing of the action of the lip moving away from the lead, and
前記検知処理により検知される前記形態および前記タイミングに基づいて、前記音源部で生成される楽音に対して第2制御を行う第2楽音制御処理と、A second musical tone control process that performs a second control on the musical tone generated by the sound source unit based on the form and the timing detected by the detection process.
を実行する処理部を有する、楽音制御装置。A musical tone control device having a processing unit for executing the above.
前記第1楽音制御処理による前記第1制御は、前記音源部で生成される楽音の状態を変化させる制御であり、The first control by the first musical tone control process is a control for changing the state of the musical tone generated by the sound source unit.
前記第2楽音制御処理による前記第2制御は、前記第1制御による楽音の状態変化を抑制する制御である、請求項1に記載の楽音制御装置。The musical tone control device according to claim 1, wherein the second control by the second musical tone control process is a control for suppressing a state change of the musical tone by the first control.
前記処理部は、前記第2楽音制御処理として、前記検知処理により検知される前記形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1制御による楽音の状態変化を抑制する前記第2制御を行う、請求項2に記載の楽音制御装置。When the processing unit determines that the form detected by the detection process is the first form as the second musical tone control process, at least the lip is separated from the lead from the first timing. The musical tone control device according to claim 2, wherein the second control for suppressing a change in the state of the musical tone due to the first control is performed until the second timing at which the above is completed. 前記処理部は更に、前記センサ情報に基づいて、前記リップによる前記リード上における指示位置であるリップポジションを決定する位置決定処理を実行し、The processing unit further executes a position-determining process for determining a lip position, which is an instruction position on the lead by the lip, based on the sensor information.
前記処理部は、前記第1楽音制御処理として、前記リップポジションに基づいて、前記音源部で生成される楽音の状態を変化させる前記第1制御を行う、請求項1乃至3のいずれかに記載の楽音制御装置。The first control according to any one of claims 1 to 3, wherein the processing unit performs the first control for changing the state of the musical sound generated by the sound source unit based on the lip position as the first musical sound control process. Musical tone control device.
前記処理部は、前記第2楽音制御処理として、前記検知処理により検知される前記形態が第1の形態であると判断された場合、第1のタイミングから、少なくとも前記リップが前記リードから離れる動作を完了した第2のタイミングまでの間、前記第1のタイミングでの前記リップポジションを保持し、保持された前記リップポジションに基づいて前記第1制御による楽音の状態変化を抑制する前記第2制御を行う、請求項4に記載の楽音制御装置。

When the processing unit determines that the form detected by the detection process is the first form as the second musical tone control process, at least the lip is separated from the lead from the first timing. The second control that holds the lip position at the first timing until the second timing at which the above is completed, and suppresses the state change of the musical tone by the first control based on the held lip position. The musical tone control device according to claim 4.

前記処理部は、前記第2楽音制御処理として、前記検知処理により検知される前記形態が第1の形態であると判断された場合、少なくとも、前記リップが前記リードから離れる動作を開始したタイミングから前記リップが前記リードから離れる動作を完了したタイミングまでの間、前記第1制御による楽音の状態変化を抑制する前記第2制御を行う、請求項4に記載の楽音制御装置。When the processing unit determines that the form detected by the detection process is the first form as the second musical tone control process, at least from the timing when the lip starts the operation of separating from the lead. The musical tone control device according to claim 4, wherein the second control for suppressing a change in the state of the musical tone due to the first control is performed until the timing at which the lip separates from the lead is completed. 前記リップ検出センサは複数のセンシング部を備え、前記センサ情報は、前記複数のセンシング部夫々から得られるセンサ情報である、請求項1乃至6のいずれかに記載の楽音制御装置。The musical sound control device according to any one of claims 1 to 6, wherein the lip detection sensor includes a plurality of sensing units, and the sensor information is sensor information obtained from each of the plurality of sensing units. 前記検知処理は、前記センシング部夫々の前記センサ情報の値の合計値の減少量が第1の値より大きいことを検知した場合、前記リップが前記リード上から離れる動作を開始したと判断する、請求項7に記載の楽音制御装置。When the detection process detects that the amount of decrease in the total value of the sensor information values of each of the sensing units is larger than the first value, it is determined that the lip has started the operation of moving away from the lead. The musical sound control device according to claim 7. 前記処理部は、前記第2楽音制御処理として、前記センシング部夫々から得られる前記センサ情報の値から前記リード上での前記リップの重心位置を求め、前記重心位置及び前記合計値の変化の形態に基づく前記第2制御を行う、請求項8に記載の楽音制御装置。As the second musical tone control process, the processing unit obtains the position of the center of gravity of the lip on the lead from the value of the sensor information obtained from each of the sensing units, and forms a change in the position of the center of gravity and the total value. The musical tone control device according to claim 8, wherein the second control is performed based on the above. 音高を決めるために操作される複数のキーと、Multiple keys that are operated to determine the pitch,
リップの接触状態を検知する前記リップ検出センサを備えるリードと、A lead including the lip detection sensor that detects the contact state of the lip,
楽音を生成する前記音源部と、The sound source unit that generates musical tones,
請求項1乃至9のいずれかに記載の楽音制御装置と、The musical tone control device according to any one of claims 1 to 9.
を備えることを特徴とする電子楽器。An electronic musical instrument characterized by being equipped with.
楽音制御装置の制御方法であって、It is a control method of a musical tone control device.
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、音源部で生成される楽音に対して第1制御を行うステップと、Based on the sensor information from the lip detection sensor that detects the contact state of the lip on the lead, the step of performing the first control on the musical sound generated by the sound source unit, and
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作の形態およびタイミングを検知するステップと、Based on the sensor information, a step of detecting the form and timing of the action of the lip moving away from the lead, and
前記検知される前記形態および前記タイミングに基づいて、前記音源部で生成される楽音に対して第2制御を行うステップと、A step of performing a second control on a musical tone generated by the sound source unit based on the detected form and the timing.
を含むことを特徴とする楽音制御装置の制御方法。A control method for a musical tone control device, which comprises.
楽音制御装置の処理部に、In the processing section of the musical tone control device,
リード上におけるリップの接触状態を検知するリップ検出センサからのセンサ情報に基づいて、音源部で生成される楽音に対して第1制御を行う第1楽音制御処理と、The first musical tone control process that performs the first control on the musical tone generated by the sound source unit based on the sensor information from the lip detection sensor that detects the contact state of the lip on the lead.
前記センサ情報に基づいて、前記リップが前記リード上から離れる動作の形態およびタイミングを検知する検知処理と、Based on the sensor information, a detection process for detecting the form and timing of the action of the lip moving away from the lead, and
前記検知処理により検知される前記形態および前記タイミングに基づいて、前記音源部で生成される楽音に対して第2制御を行う第2楽音制御処理と、A second musical tone control process that performs a second control on the musical tone generated by the sound source unit based on the form and the timing detected by the detection process.
を実行させる楽音制御装置のプログラム。A program of a musical tone control device that executes.
JP2020107401A 2016-03-25 2020-06-23 Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device Active JP6923047B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020107401A JP6923047B2 (en) 2016-03-25 2020-06-23 Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016061112A JP6724465B2 (en) 2016-03-25 2016-03-25 Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program
JP2020107401A JP6923047B2 (en) 2016-03-25 2020-06-23 Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016061112A Division JP6724465B2 (en) 2016-03-25 2016-03-25 Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program

Publications (2)

Publication Number Publication Date
JP2020154333A JP2020154333A (en) 2020-09-24
JP6923047B2 true JP6923047B2 (en) 2021-08-18

Family

ID=72558921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020107401A Active JP6923047B2 (en) 2016-03-25 2020-06-23 Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device

Country Status (1)

Country Link
JP (1) JP6923047B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01100596A (en) * 1987-10-14 1989-04-18 Casio Comput Co Ltd Input controller for electronic musical instrument
JPH0772853A (en) * 1993-06-29 1995-03-17 Yamaha Corp Electronic wind instrument
JP2000122641A (en) * 1998-10-21 2000-04-28 Casio Comput Co Ltd Electronic wind instrument
JP2003029753A (en) * 2001-07-19 2003-01-31 Casio Comput Co Ltd Sound effect adding device
JP4198046B2 (en) * 2003-12-26 2008-12-17 ローランド株式会社 Electronic stringed instruments

Also Published As

Publication number Publication date
JP2020154333A (en) 2020-09-24

Similar Documents

Publication Publication Date Title
JP6760222B2 (en) Detection device, electronic musical instrument, detection method and control program
US9299330B2 (en) Apparatus and method to enhance the expressive qualities of digital music
JP2016177026A (en) Electronic musical instrument
JP6740832B2 (en) Electronic musical instrument lead and electronic musical instrument having the electronic musical instrument lead
JP6825499B2 (en) Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments
CN109215624B (en) Electronic wind instrument, method for controlling electronic wind instrument, and storage medium
JP6589413B2 (en) Lead member, mouthpiece and electronic wind instrument
JP6923047B2 (en) Musical tone control device, electronic musical instrument, control method of musical tone control device, and program of musical tone control device
US11749239B2 (en) Electronic wind instrument, electronic wind instrument controlling method and storage medium which stores program therein
JP6724465B2 (en) Musical tone control device, electronic musical instrument, musical tone control device control method, and musical tone control device program
JP6786982B2 (en) An electronic musical instrument with a reed, how to control the electronic musical instrument, and a program for the electronic musical instrument.
JP6572916B2 (en) Pronunciation control device and method, program
JP2018045108A (en) Electronic musical instrument, method of controlling the same, and program for the same
JP7008941B2 (en) Detection device, electronic musical instrument, detection method and control program
JP6703304B2 (en) Musical tone control device, electronic wind instrument, musical tone control method and program
JP2017173654A (en) Electronic breath instrument, key operation determination device, control method of electronic musical instrument, and program of electronic musical instrument
JP2019008122A (en) Detector, electronic musical instrument, detection method and control program
JP6569255B2 (en) Electronic musical instrument, pronunciation control method for electronic musical instrument, and program
JP2019061542A (en) Parameter control device, electronic musical instrument, parameter control method, and control program
JP2022046211A (en) Electronic musical instrument, and control method and program for electronic musical instrument
JP6710432B2 (en) Musical tone control device, electronic musical instrument, musical tone control method and program
JP2022177297A (en) Electronic wind instrument, control method of electronic wind instrument, and program for electronic wind instrument
JP2017173383A (en) Velocity correction device, velocity correction method, program, and electric musical instrument

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210712

R150 Certificate of patent or registration of utility model

Ref document number: 6923047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150