JP6816581B2 - Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments - Google Patents

Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments Download PDF

Info

Publication number
JP6816581B2
JP6816581B2 JP2017050121A JP2017050121A JP6816581B2 JP 6816581 B2 JP6816581 B2 JP 6816581B2 JP 2017050121 A JP2017050121 A JP 2017050121A JP 2017050121 A JP2017050121 A JP 2017050121A JP 6816581 B2 JP6816581 B2 JP 6816581B2
Authority
JP
Japan
Prior art keywords
value
breath
data
data value
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017050121A
Other languages
Japanese (ja)
Other versions
JP2018155797A (en
Inventor
広子 奥田
広子 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017050121A priority Critical patent/JP6816581B2/en
Priority to US15/919,899 priority patent/US10360884B2/en
Priority to CN201810213658.9A priority patent/CN108630176B/en
Publication of JP2018155797A publication Critical patent/JP2018155797A/en
Application granted granted Critical
Publication of JP6816581B2 publication Critical patent/JP6816581B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラムに関する。 The present invention relates to an electronic wind instrument, a method for controlling the electronic wind instrument, and a program for the electronic wind instrument.

従来、演奏者の口によって発生される信号を入力するための口入力部と、メロディ音に適した伴奏音を表す第1演奏データを記憶する記憶部と、前記口入力部から入力された信号のレベルを検出し、同検出したレベルが所定レベル以上であるときトリガ信号を出力するレベル検出部と、前記レベル検出部から出力されたトリガ信号に基づき、前記記憶部から前記第1演奏データを読み出す読出し処理部と、前記読出し処理部によって読み出された第1演奏データに基づき、前記伴奏音を生成する第1楽音生成部と、を備えたことを特徴とする楽器が知られている(特許文献1参照)。 Conventionally, a mouth input unit for inputting a signal generated by a performer's mouth, a storage unit for storing first performance data representing an accompaniment sound suitable for a melody sound, and a signal input from the mouth input unit. Based on the level detection unit that detects the level of and outputs a trigger signal when the detected level is equal to or higher than a predetermined level, and the trigger signal output from the level detection unit, the first performance data is stored from the storage unit. A musical instrument characterized in that it includes a read-out processing unit for reading and a first music sound generation unit for generating the accompaniment sound based on the first performance data read by the read-out processing unit is known. See Patent Document 1).

そして、特許文献1には、上記のような楽器であれば、メロディ音に適した伴奏音で演奏できるとともに、口によって発生されるピッチ情報が誤っていても、口入力部に所定レベル以上の信号を入力する限り、演奏の進行は止まらずに進行し、初心者でも、練習に飽きてしまうことなく、練習を続けることができるとともに、演奏の進行が止まらないことにより、他の者と同時に演奏練習する場合に好適であることが記載されている。 Further, in Patent Document 1, any musical instrument as described above can be played with an accompaniment sound suitable for a melody sound, and even if the pitch information generated by the mouth is incorrect, the mouth input portion has a predetermined level or higher. As long as you input a signal, the progress of the performance will not stop, and even beginners can continue practicing without getting tired of the practice, and by not stopping the progress of the performance, they will play at the same time as other people. It is stated that it is suitable for practicing.

特開2008−152297号公報Japanese Unexamined Patent Publication No. 2008-152297

ところで、管楽器では、演奏者の息遣いが表現力の豊かさの重要なポイントの1つであり、演奏の一部(例えば、初心者にとって難しいビブラート等の演奏部分)を自動演奏で補助する場合でも、演奏者の息遣いを反映したものとすることが表現力を付ける練習にとって重要であると考えられる。 By the way, in wind instruments, the breathing of the performer is one of the important points of rich expressiveness, and even when a part of the performance (for example, the performance part such as vibrato, which is difficult for beginners) is assisted by automatic performance, It is considered important for the practice of developing expressiveness to reflect the breathing of the performer.

本発明は、このような事情に鑑みなされたものであり、自動演奏される部分に対して演奏者の息遣いによる表現力を反映させた電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and is used for an electronic wind instrument, a control method for the electronic wind instrument, and the electronic wind instrument for which the expressive power of the performer's breathing is reflected in the automatically played portion. The purpose is to provide a program.

上記目的を達成するために、本発明の一実施態様である電子管楽器は、息吹込操作に応じたブレス値を検出するブレスセンサと、制御部と、を備え、前記制御部は、曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理、を実行する。 In order to achieve the above object, the electronic wind instrument according to the embodiment of the present invention includes a breath sensor for detecting a breath value according to a breathing operation and a control unit, and the control unit is provided from music data. Based on the acquired basic breath value and the breath value acquired from the breath sensor, it is a performance data value according to the playing style in the performance accompanying the breathing operation, and the performance data value acquired from the song data is corrected. The output process of outputting the sound wave data according to the corrected correction data value is executed.

本発明によれば、自動演奏される部分に対して演奏者の息遣いによる表現力を反映させた電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラムを提供することができる。 According to the present invention, it is possible to provide an electronic wind instrument that reflects the expressive power of the performer's breathing on an automatically played portion, a control method for the electronic wind instrument, and a program for the electronic wind instrument.

本発明に係る実施形態の電子管楽器を示す図であり、(a)は電子管楽器の正面図であり、(b)は電子管楽器の側面図である。It is a figure which shows the electronic wind instrument of embodiment which concerns on this invention, (a) is the front view of the electronic wind instrument, (b) is the side view of the electronic wind instrument. 本発明に係る実施形態の電子管楽器のブロック図である。It is a block diagram of the electronic wind instrument of embodiment which concerns on this invention. 本発明に係る実施形態のマウスピース部の断面図である。It is sectional drawing of the mouthpiece part of embodiment which concerns on this invention. 処理のメインルーチンを示すフローチャートである。It is a flowchart which shows the main routine of processing. 図4のメインルーチン中のサブルーチンである表現練習のフローチャートである。It is a flowchart of expression practice which is a subroutine in the main routine of FIG. 図5の表現練習中のサブルーチンであるコンティニュアスデータのデータ値の補正データ値を作成する部分のフローチャートである。It is a flowchart of the part which creates the correction data value of the data value of continuous data which is a subroutine in the expression practice of FIG.

以下、添付図面を参照して、本発明に係る実施形態を説明する。
図1は本発明の実施形態に係る電子管楽器100を示す図であり、図1(a)は電子管楽器100の正面図であり、図1(b)は電子管楽器100の側面図であり、図2は電子管楽器100のブロック図であり、図3はマウスピース部3の断面図である。
Hereinafter, embodiments according to the present invention will be described with reference to the accompanying drawings.
1A and 1B are views showing an electronic wind instrument 100 according to an embodiment of the present invention, FIG. 1A is a front view of the electronic wind instrument 100, and FIG. 1B is a side view of the electronic wind instrument 100. 2 is a block diagram of the electronic wind instrument 100, and FIG. 3 is a cross-sectional view of the mouthpiece portion 3.

なお、図1(a)では、電子管楽器100の内部がわかるように管体部100aの一部を切り欠いた図示にしている。 In addition, in FIG. 1A, a part of the tube body 100a is cut out so that the inside of the electronic wind instrument 100 can be seen.

本実施形態では、電子管楽器100がサクソフォンである場合を例にして説明を行うが、本発明の電子管楽器100は、サクソフォン以外の電子管楽器(例えば、クラリネット等)であってもよい。 In the present embodiment, the case where the electronic wind instrument 100 is a saxophone will be described as an example, but the electronic wind instrument 100 of the present invention may be an electronic wind instrument other than the saxophone (for example, a clarinet).

電子管楽器100は、図1に示すように、サクソフォンの形状に形成された管体部100aと、管体部100aの外面に配置された操作子1と、管体部100aの先端部側に設けられた発音部2と、管体部100aの基端部側に設けられたマウスピース部3と、を備えている。 As shown in FIG. 1, the electronic wind instrument 100 is provided on a tube body portion 100a formed in the shape of a saxophone, an operator 1 arranged on the outer surface of the tube body portion 100a, and a tip portion side of the tube body portion 100a. It is provided with a sounding portion 2 provided and a mouthpiece portion 3 provided on the base end side of the tube body portion 100a.

また、図1(a)に示すように、電子管楽器100は、管体部100aの基端部側の内部に設けられた基板4を備えており、その基板4上には、CPU5(Central Processing Unit)、ROM6(Read Only Memory)、RAM7(Random Access Memory)及び音源部8等が設けられている。 Further, as shown in FIG. 1A, the electronic wind instrument 100 includes a substrate 4 provided inside the base end portion side of the tube body portion 100a, and a CPU 5 (Central Processing) is provided on the substrate 4. A Unit), a ROM 6 (Read Only Memory), a RAM 7 (Random Access Memory), a sound source unit 8, and the like are provided.

さらに、図3に示すように、マウスピース部3は、マウスピース本体3aと、マウスピース本体3aに設けられた固定金具3bと、マウスピース本体3aに固定金具3bで取り付けられたリード部3cと、マウスピース本体3aの先端側に設けられたブレスセンサ10と、マウスピース本体3a内に設けられたボイスセンサ11と、リード部3cに設けられたタンセンサ12と、リード部3cに設けられたリップセンサ13と、を備えている。 Further, as shown in FIG. 3, the mouthpiece portion 3 includes a mouthpiece body 3a, a fixing bracket 3b provided on the mouthpiece body 3a, and a lead portion 3c attached to the mouthpiece body 3a with the fixing bracket 3b. , The breath sensor 10 provided on the tip side of the mouthpiece body 3a, the voice sensor 11 provided in the mouthpiece body 3a, the tongue sensor 12 provided on the lead portion 3c, and the lip provided on the lead portion 3c. It includes a sensor 13.

なお、リップセンサ13は、後述するようにリッププレッシャセンサ部13aとリップポジションセンサ部13bと、を含んでいる。 The lip sensor 13 includes a lip pressure sensor unit 13a and a lip position sensor unit 13b, as will be described later.

また、電子管楽器100は、管体部100aの外面に設けられた表示部14(図2参照)を備えている。
例えば、表示部14は、タッチセンサ付の液晶画面等を備え、各種の表示のみだけでなく、各種の設定操作を行うことができるようになっている。
Further, the electronic wind instrument 100 includes a display unit 14 (see FIG. 2) provided on the outer surface of the tube body unit 100a.
For example, the display unit 14 is provided with a liquid crystal screen or the like with a touch sensor, and can perform not only various displays but also various setting operations.

そして、各機能部(操作子1、CPU5、ROM6、RAM7、音源部8、ブレスセンサ10、ボイスセンサ11、タンセンサ12、リップセンサ13、表示部14等)は、バス15で接続されている。 Each functional unit (operator 1, CPU 5, ROM 6, RAM 7, sound source unit 8, breath sensor 10, voice sensor 11, tan sensor 12, lip sensor 13, display unit 14, etc.) is connected by a bus 15.

操作子1は、演奏者(ユーザ)が指で操作する操作部であり、音高を指定するための演奏キー、楽曲のキーに合わせて音高を変える機能及び音高の微調整を行う機能等を設定する設定キーを含む。 The operator 1 is an operation unit operated by the performer (user) with a finger, and is a performance key for designating a pitch, a function of changing the pitch according to a key of a musical piece, and a function of finely adjusting the pitch. Includes setting keys to set etc.

発音部2は、後述する音源部8から入力された楽音信号に信号増幅等を施し、内蔵のスピーカーから楽音として出力する。
ただし、本実施形態では、電子管楽器100に発音部2を内蔵させているが、発音部2は内蔵型のものに限らず、電子管楽器100の外部出力ポート(図示せず)に接続される外付型のものであってもよい。
The sounding unit 2 amplifies the musical sound signal input from the sound source unit 8 described later, and outputs it as a musical sound from the built-in speaker.
However, in the present embodiment, the sounding unit 2 is built in the electronic wind instrument 100, but the sounding unit 2 is not limited to the built-in type and is not connected to the external output port (not shown) of the electronic wind instrument 100. It may be a type.

CPU5は、電子管楽器100の各部を制御する制御部として機能し、ROM6から指定されたプログラムを読み出してRAM7に展開し、展開されたプログラムと協働して各種処理を実行する。 The CPU 5 functions as a control unit that controls each part of the electronic wind instrument 100, reads a program designated from the ROM 6 and expands it into the RAM 7, and executes various processes in cooperation with the expanded program.

ROM6は、読み取り専用の記憶部であり、電子管楽器100の各部を制御するためのプログラムや後述する曲データ(MIDIデータ)等が記憶されている。
RAM7は、読み書き可能な記憶部であり、各センサ(ブレスセンサ10、ボイスセンサ11、タンセンサ12及びリップセンサ13等)から取得されるデータ、プログラム及び曲データ等を一時的に格納するワークエリアとして機能する。
The ROM 6 is a read-only storage unit, and stores a program for controlling each part of the electronic wind instrument 100, song data (MIDI data) described later, and the like.
The RAM 7 is a readable and writable storage unit, and serves as a work area for temporarily storing data, programs, song data, etc. acquired from each sensor (breath sensor 10, voice sensor 11, tan sensor 12, lip sensor 13, etc.). Function.

音源部8は、操作子1での操作情報及び各センサで取得されるデータ等に基づいたCPU5の楽音の生成指示(楽音制御)に従い、楽音を生成して楽音信号を発音部2に出力する。 The sound source unit 8 generates a musical tone and outputs the musical tone signal to the sounding unit 2 in accordance with a musical tone generation instruction (musical tone control) of the CPU 5 based on the operation information of the operator 1 and the data acquired by each sensor. ..

マウスピース部3は、演奏者が演奏時に加える部分であり、各センサ(ブレスセンサ10、ボイスセンサ11、タンセンサ12及びリップセンサ13等)を備え、演奏者によるタン、息及び声等による演奏のための各種操作を検出する。 The mouthpiece unit 3 is a part added by the performer at the time of performance, and includes each sensor (breath sensor 10, voice sensor 11, tan sensor 12, lip sensor 13, etc.), and the performer performs with tongue, breath, voice, and the like. Detect various operations for.

次に、具体的に、各センサ(ブレスセンサ10、ボイスセンサ11、タンセンサ12及びリップセンサ13等)について説明する。
なお、以下で説明する各センサの機能等は、主な機能等についての説明であり、他の機能を持たせる等を行ってもよいことに留意されたい。
Next, each sensor (breath sensor 10, voice sensor 11, tongue sensor 12, lip sensor 13, etc.) will be specifically described.
It should be noted that the functions and the like of each sensor described below are explanations of the main functions and the like, and may be provided with other functions.

ブレスセンサ10は圧力センサを備えており、ブレスセンサ10によって、マウスピース本体3aの基端部側の息を吹き込む開口部3aaから吹き込まれる演奏者の息量・息圧等のブレス値の検出が行われる。
なお、ブレスセンサ10によって検出されるブレス値は、CPU5が楽音のノートオン/オフや楽音の音量等の設定を行うのに用いられる。
The breath sensor 10 includes a pressure sensor, and the breath sensor 10 can detect the breath value such as the breath volume and the breath pressure of the performer blown from the opening 3aa on the base end side of the mouthpiece body 3a. Will be done.
The breath value detected by the breath sensor 10 is used by the CPU 5 to set the note on / off of the musical tone, the volume of the musical tone, and the like.

また、ボイスセンサ11はマイクロフォンを備え、ボイスセンサ11によって、演奏者のグロウル演奏のための音声(グロウル波形)の検出が行われる。
なお、ボイスセンサ11によって検出された音声(グロウル波形)は、CPU5がグロウル波形データの合成比率を決定するのに用いられる。
Further, the voice sensor 11 includes a microphone, and the voice sensor 11 detects the voice (growl waveform) for the performer's growl performance.
The voice (growl waveform) detected by the voice sensor 11 is used by the CPU 5 to determine the synthesis ratio of the glow waveform data.

タンセンサ12は、リード部3cの最も基端部側(ティップ側)の位置に検出部12sが設けられた圧力センサ又は静電容量センサを備えており、タンセンサ12によってリード部3cの基端部側の位置へのタンの接触の有無の検出(タンギングの検出)が行われる。
なお、タンセンサ12によって検出されたタンの接触の有無は、CPU5が楽音のノートオン/オフの設定を行うのに用いられるとともに、タンの接触の有無とブレスセンサ10のブレス値の検出状態との双方の状態に応じて音高の設定を行うのに用いられる。
The tonguing sensor 12 includes a pressure sensor or a capacitance sensor in which the detection unit 12s is provided at the position closest to the base end portion (tip side) of the lead portion 3c, and the tonguing sensor 12 provides the base end portion side of the lead portion 3c. The presence or absence of contact of the tongue with the position of (tunging detection) is performed.
The presence or absence of contact of the tongue detected by the tongue sensor 12 is used by the CPU 5 to set the note on / off of the musical tone, and the presence or absence of contact of the tongue and the detection state of the breath value of the breath sensor 10 are used. It is used to set the pitch according to both states.

リップセンサ13は、リード部3cの基端部側(ティップ側)から先端側(ヒール側)に向けて、複数の検出部13sが設けられた圧力センサ又は静電容量センサを備えており、リッププレッシャセンサ部13a及びリップポジションセンサ部13bとして機能する。 The lip sensor 13 includes a pressure sensor or a capacitance sensor provided with a plurality of detection units 13s from the base end side (tip side) to the tip side (heel side) of the lead portion 3c, and has a lip. It functions as a pressure sensor unit 13a and a lip position sensor unit 13b.

具体的には、リップセンサ13は、複数の検出部13sのどの検出部13sでリップの接触が検出されるかに基づいてリップポジションを検出するリップポジションセンサ部13bとしての役割と、その接触しているリップの接触強さを検出するリッププレッシャセンサ部13aとしての役割と、を果たす。 Specifically, the lip sensor 13 has a role as a lip position sensor unit 13b that detects a lip position based on which detection unit 13s of the plurality of detection units 13s detects lip contact, and the contact thereof. It serves as a lip pressure sensor unit 13a for detecting the contact strength of the lip.

なお、複数の検出部13sでリップの接触が検出されている場合には、リップセンサ13からの出力に基づいて、CPU5が接触中心位置を求めることでリップポジションが求められる。 When the contact of the lip is detected by the plurality of detection units 13s, the lip position is obtained by the CPU 5 obtaining the contact center position based on the output from the lip sensor 13.

例えば、リップセンサ13が圧力センサを有する場合には、圧力センサが検出する圧力の変化に基づいて、リップの接触強さ(リッププレッシャ)及びリップポジションの検出が行われる。 For example, when the lip sensor 13 has a pressure sensor, the contact strength (lip pressure) of the lip and the lip position are detected based on the change in pressure detected by the pressure sensor.

また、リップセンサ13が静電容量センサを有する場合には、静電容量センサが検出する静電容量の変化に基づいて、リップの接触強さ(リッププレッシャ)及びリップポジションの検出が行われる。 When the lip sensor 13 has a capacitance sensor, the lip contact strength (lip pressure) and the lip position are detected based on the change in capacitance detected by the capacitance sensor.

そして、リッププレッシャセンサ部13aとしてのリップセンサ13によるリップの接触強さ(リッププレッシャ)の検出結果及びリップポジションセンサ部13bとしてのリップセンサ13によるリップポジションの検出結果は、ビブラート演奏やサブトーン演奏を制御するために用いられる。 Then, the detection result of the contact strength (lip pressure) of the lip by the lip sensor 13 as the lip pressure sensor unit 13a and the detection result of the lip position by the lip sensor 13 as the lip position sensor unit 13b are used for vibrato performance and subtone performance. Used to control.

具体的には、CPU5は、リップの接触強さ(リッププレッシャ)の変化状態に基づき、ビブラート演奏を検出してビブラートに対応した処理を行い、リップポジションの変化状態(位置及び接触面積等の変化状態)に基づき、サブトーン演奏を検出してサブトーンに対応した処理を行う。 Specifically, the CPU 5 detects the vibrato performance based on the change state of the lip contact strength (lip pressure) and performs processing corresponding to the vibrato, and changes the lip position change state (position, contact area, etc.). Based on the state), the subtone performance is detected and the processing corresponding to the subtone is performed.

そして、電子管楽器100は、演奏者が通常のサクソフォンを演奏するときと同様の操作を行うことで演奏が行えるようになっているが、初心者に熟練者同様の演奏操作を求めるのは、難しいことから、本実施形態の電子管楽器100では、主に演奏者の息吹込操作だけで演奏が行えるものとしており、以下、具体的に説明する。 The electronic wind instrument 100 can be played by performing the same operation as when the performer plays a normal saxophone, but it is difficult for a beginner to perform the same performance operation as an expert. Therefore, in the electronic wind instrument 100 of the present embodiment, the performance can be performed mainly only by the breathing operation of the performer, which will be specifically described below.

先に少し触れたが、ROM6には、いわゆるMIDIデータと呼ばれる曲データが記憶されている。
曲データには、サクソフォンである電子管楽器100(以下、本楽器ともいう。)以外の楽器による伴奏等を本楽器の発音部2を利用して発音させるためのデータや本楽器を自動演奏させるためのデータ等が含まれている。
As mentioned earlier, the ROM 6 stores song data, so-called MIDI data.
The song data includes data for making accompaniment by an instrument other than the saxophone electronic wind instrument 100 (hereinafter, also referred to as this instrument) sound using the sounding unit 2 of this instrument, and for automatically playing this instrument. Data etc. are included.

したがって、この曲データを利用することで、全てを演奏者が演奏するのではなく、一部の演奏部分を自動演奏として、演奏者のレベルに応じた練習ができるようにしており、図4から図6に示すフローチャートを参照しながら具体的に説明する。 Therefore, by using this song data, it is possible for the performer to practice according to the level of the performer by setting a part of the performance part as an automatic performance instead of playing the whole performance. A specific description will be given with reference to the flowchart shown in FIG.

図4は処理のメインルーチンを示すフローチャートであり、図5は図4のメインルーチン中のサブルーチンである表現練習のフローチャートであり、図6は図5の表現練習中のサブルーチンであるコンティニュアスデータのデータ値の補正データ値を作成する部分のフローチャートである。 FIG. 4 is a flowchart showing the main routine of processing, FIG. 5 is a flowchart of expression practice which is a subroutine in the main routine of FIG. 4, and FIG. 6 is continuous data which is a subroutine in the expression practice of FIG. It is a flowchart of the part which creates the correction data value of the data value of.

演奏者が「表現練習」、「ビブラート演奏お任せ」、「グロウル演奏お任せ」、「サブトーン演奏お任せ」及び「その他処理(例えば、伴奏だけお任せ)」等の演奏モードを選択し、どの曲を演奏するのかを設定して、演奏開始の操作が行われると、図4に示すメインルーチンの処理が開始される。 The performer selects a performance mode such as "Expression practice", "Vibrato performance", "Growl performance", "Subtone performance" and "Other processing (for example, only accompaniment)". When the performance start operation is performed after setting whether to play the song, the processing of the main routine shown in FIG. 4 is started.

ステップS1では、CPU5は、演奏者が「表現練習」を選択したか否かを判定する。
そして、CPU5は、演奏者が「表現練習」を選択したと判定(ステップS1:Yes)すると、ステップS11に進み、CPU5は、後述する図5に示すフローチャートの処理を実行する。
一方、CPU5は、演奏者が「表現練習」を選択していないと判定(ステップS1:No)すると、ステップS2に進む。
In step S1, the CPU 5 determines whether or not the performer has selected "expression practice".
Then, when the CPU 5 determines that the performer has selected "expression practice" (step S1: Yes), the CPU 5 proceeds to step S11, and the CPU 5 executes the processing of the flowchart shown in FIG. 5, which will be described later.
On the other hand, when the CPU 5 determines that the performer has not selected "expression practice" (step S1: No), the CPU 5 proceeds to step S2.

ステップS2では、CPU5は、演奏者が「ビブラート演奏お任せ」を選択したのか否かを判定し、「ビブラート演奏お任せ」を選択したと判定(ステップS2:Yes)するとステップS21に進み、「表現練習」を選択していないと判定(ステップS2:No)するとステップS3に進む。 In step S2, the CPU 5 determines whether or not the performer has selected "Leave the vibrato performance", and if it is determined that "Leave the vibrato performance" is selected (step S2: Yes), the process proceeds to step S21. If it is determined that "expression practice" is not selected (step S2: No), the process proceeds to step S3.

ステップS21では、CPU5は、リップセンサ13のリッププレッシャセンサ部13aとしての機能を無効に設定し、ステップS22に進む。
つまり、CPU5は、ステップS21の処理として、リッププレッシャを発音処理に反映させない設定を行い、ステップS22に進む。
In step S21, the CPU 5 disables the function of the lip sensor 13 as the lip pressure sensor unit 13a, and proceeds to step S22.
That is, the CPU 5 sets the process of step S21 so that the lip pressure is not reflected in the sounding process, and proceeds to step S22.

ステップS22では、CPU5は「ビブラート演奏お任せ」に対応した処理を実行し、その処理が終了、つまり、演奏が終了すると全体の処理が終了する。
具体的には、CPU5は、演奏者が選曲した曲の曲データに基づいて、本楽器以外の他の楽器のパート(例えば、伴奏等)を自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じた音を発音することになる。
In step S22, the CPU 5 executes a process corresponding to "Leave the vibrato performance", and the process ends, that is, when the performance ends, the entire process ends.
Specifically, the CPU 5 causes the sound source unit 8 to perform a process of automatically playing a part (for example, an accompaniment) of a musical instrument other than the main musical instrument based on the song data of the song selected by the performer, and produces a sound. The unit 2 produces a sound corresponding to the automatic performance by the input from the sound source unit 8.

なお、ステップS22では、CPU5は、上述の自動演奏が行えるように、選曲された曲の曲データ(MIDIデータ)をROM6から、例えば、ワークエリアとして機能するRAM7に読み込み取得する処理も実行する。
ただし、曲データ(MIDIデータ)は、例えば、USBメモリから取得、外部端末(電子管楽器100以外の機器)から取得、及び、ネット経由で取得する等、取得先はROM6に限定される必要はないので、必ずしも、あらかじめROM6に曲データが記憶されている必要はない。
In step S22, the CPU 5 also executes a process of reading and acquiring the song data (MIDI data) of the selected song from the ROM 6 into, for example, the RAM 7 functioning as a work area so that the above-mentioned automatic performance can be performed.
However, the acquisition destination need not be limited to ROM 6, for example, the song data (MIDI data) can be acquired from a USB memory, from an external terminal (device other than the electronic wind instrument 100), or acquired via the Internet. Therefore, it is not always necessary that the song data is stored in the ROM 6 in advance.

また、CPU5は、本楽器の演奏パートのうち、ビブラートに対応する部分の曲データに基づいて、自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じたビブラートの音を発音することになる。
なお、ビブラートに対応する部分の処理については、後ほど図5及び図6を参照して説明するブレス値を反映させる補正を行った処理になっていてもよい。
Further, the CPU 5 causes the sound source unit 8 to perform an automatic performance process based on the music data of the part corresponding to the vibrato in the performance part of the musical instrument, and the sound source unit 2 automatically plays by the input from the sound source unit 8. The vibrato sound will be produced according to.
The processing of the portion corresponding to the vibrato may be a processing in which a correction that reflects the breath value described later with reference to FIGS. 5 and 6 is performed.

さらに、CPU5は、本楽器の演奏パートのうち、ビブラートに対応する部分以外について、演奏者の操作(演奏)に従った処理を音源部8に行わせ、発音部2は音源部8からの入力によって演奏者の操作に従った音を発音することになる。 Further, the CPU 5 causes the sound source unit 8 to perform processing according to the operation (performance) of the performer except for the part corresponding to the vibrato in the performance part of the musical instrument, and the sound source unit 2 inputs from the sound source unit 8. Will produce the sound according to the player's operation.

ステップS3では、CPU5は、演奏者が「グロウル演奏お任せ」を選択したのか否かを判定し、「グロウル演奏お任せ」を選択したと判定(ステップS3:Yes)するとステップS31に進み、「グロウル演奏お任せ」を選択していないと判定(ステップS3:No)するとステップS4に進む。 In step S3, the CPU 5 determines whether or not the performer has selected "Growl performance entrusted", and if it is determined that "Growl performance entrusted" is selected (step S3: Yes), the process proceeds to step S31, and " If it is determined that "Growl performance is left to you" is not selected (step S3: No), the process proceeds to step S4.

ステップS31では、CPU5は、ボイスセンサ11を無効に設定し、ステップS32に進む。
つまり、CPU5は、ステップS31の処理として、演奏者のボイスを発音処理に反映させない設定を行い、ステップS32に進む。
In step S31, the CPU 5 disables the voice sensor 11 and proceeds to step S32.
That is, the CPU 5 sets the process of step S31 so that the voice of the performer is not reflected in the sounding process, and proceeds to step S32.

ステップS32では、CPU5は「グロウル演奏お任せ」に対応した処理を実行し、その処理が終了、つまり、演奏が終了すると全体の処理が終了する。 In step S32, the CPU 5 executes a process corresponding to "Growl performance entrusted", and when the process ends, that is, when the performance ends, the entire process ends.

具体的には、CPU5は、演奏者が選曲した曲の曲データに基づいて、本楽器以外の他の楽器のパート(例えば、伴奏等)を自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じた音を発音することになる。
なお、ステップS32では、CPU5は、上述の自動演奏が行えるように、選曲された曲の曲データ(MIDIデータ)をROM6から、例えば、ワークエリアとして機能するRAM7に読み込み取得する処理も実行する。
Specifically, the CPU 5 causes the sound source unit 8 to perform a process of automatically playing a part (for example, an accompaniment) of a musical instrument other than the main musical instrument based on the song data of the song selected by the performer, and produces a sound. The unit 2 produces a sound corresponding to the automatic performance by the input from the sound source unit 8.
In step S32, the CPU 5 also executes a process of reading and acquiring the song data (MIDI data) of the selected song from the ROM 6 into, for example, the RAM 7 functioning as a work area so that the above-mentioned automatic performance can be performed.

また、CPU5は、本楽器の演奏パートのうち、グロウルに対応する部分について曲データに基づいて、自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じたグロウルの音を発音することになる。
なお、グロウルに対応する部分の処理については、後ほど図5及び図6を参照して説明するブレス値を反映させる補正を行った処理になっていてもよい。
Further, the CPU 5 causes the sound source unit 8 to perform a process of automatically playing the part corresponding to the growl in the performance part of the musical instrument based on the music data, and the sound source unit 2 automatically plays by the input from the sound source unit 8. The sound of the growl will be produced according to.
It should be noted that the processing of the portion corresponding to the growl may be a processing in which a correction that reflects the breath value described later with reference to FIGS. 5 and 6 is performed.

さらに、CPU5は、本楽器の演奏パートのうち、グロウルに対応する部分以外について、演奏者の操作(演奏)に従った処理を音源部8に行わせ、発音部2は音源部8からの入力によって演奏者の操作に従った音を発音することになる。 Further, the CPU 5 causes the sound source unit 8 to perform processing according to the operation (performance) of the performer except for the part corresponding to the growl in the performance part of the musical instrument, and the sound source unit 2 inputs from the sound source unit 8. Will produce the sound according to the player's operation.

ステップS4では、CPU5は、演奏者が「サブトーン演奏お任せ」を選択したのか否かを判定し、「サブトーン演奏お任せ」を選択したと判定(ステップS4:Yes)するとステップS41に進み、「サブトーン演奏お任せ」を選択していないと判定(ステップS4:No)するとステップS5に進む。 In step S4, the CPU 5 determines whether or not the performer has selected "subtone performance entrusted", and if it is determined that "subtone performance entrusted" is selected (step S4: Yes), the process proceeds to step S41. If it is determined that "Leave the subtone performance" is not selected (step S4: No), the process proceeds to step S5.

ステップS41では、CPU5は、リップセンサ13のリップポジションセンサ部13bとしての機能を無効に設定し、ステップS42に進む。
つまり、CPU5は、ステップS41の処理として、リップポジションを発音処理に反映させない設定を行い、ステップS42に進む。
In step S41, the CPU 5 disables the function of the lip sensor 13 as the lip position sensor unit 13b, and proceeds to step S42.
That is, the CPU 5 sets the lip position not to be reflected in the sounding process as the process of step S41, and proceeds to step S42.

ステップS42では、CPU5は「サブトーン演奏お任せ」に対応した処理を実行し、その処理が終了、つまり、演奏が終了すると全体の処理が終了する。 In step S42, the CPU 5 executes a process corresponding to "Leave the subtone performance", and when the process ends, that is, when the performance ends, the entire process ends.

具体的には、CPU5は、演奏者が選曲した曲の曲データに基づいて、本楽器以外の他の楽器のパート(例えば、伴奏等)を自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じた音を発音することになる。
なお、ステップS42では、CPU5は、上述の自動演奏が行えるように、選曲された曲の曲データ(MIDIデータ)をROM6から、例えば、ワークエリアとして機能するRAM7に読み込み取得する処理も実行する。
Specifically, the CPU 5 causes the sound source unit 8 to perform a process of automatically playing a part (for example, an accompaniment) of a musical instrument other than the main musical instrument based on the song data of the song selected by the performer, and produces a sound. The unit 2 produces a sound corresponding to the automatic performance by the input from the sound source unit 8.
In step S42, the CPU 5 also executes a process of reading and acquiring the song data (MIDI data) of the selected song from the ROM 6 into, for example, the RAM 7 functioning as a work area so that the above-mentioned automatic performance can be performed.

また、CPU5は、本楽器の演奏パートのうち、サブトーンに対応する部分について曲データに基づいて、自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じたサブトーンの音を発音することになる。
なお、サブトーンに対応する部分の処理については、後ほど図5及び図6を参照して説明するブレス値を反映させる補正を行った処理になっていてもよい。
Further, the CPU 5 causes the sound source unit 8 to automatically perform the part corresponding to the subtone of the performance part of the musical instrument based on the music data, and the sound source unit 2 automatically plays the part corresponding to the input from the sound source unit 8. The subtone sound will be produced according to.
It should be noted that the processing of the portion corresponding to the subtone may be a processing in which the correction that reflects the breath value described later with reference to FIGS. 5 and 6 is performed.

さらに、CPU5は、本楽器の演奏パートのうち、サブトーンに対応する部分以外について、演奏者の操作(演奏)に従った処理を音源部8に行わせ、発音部2は音源部8からの入力によって演奏者の操作に従った音を発音することになる。 Further, the CPU 5 causes the sound source unit 8 to perform processing according to the player's operation (performance) except for the part corresponding to the subtone in the performance part of the musical instrument, and the sound source unit 2 inputs from the sound source unit 8. Will produce the sound according to the player's operation.

ステップS5では、CPU5は、その他の処理を実行し、その処理が終了すると全体の処理が終了する。
その他の処理としては、例えば、本楽器の演奏パート以外は自動演奏させるといった処理等が考えられる。
In step S5, the CPU 5 executes other processing, and when the processing is completed, the entire processing is completed.
As other processing, for example, processing such as automatic performance of parts other than the performance part of the musical instrument can be considered.

この場合、CPU5は、演奏者が選曲した曲の曲データに基づいて、本楽器以外の他の楽器のパート(例えば、伴奏等)を自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じた音を発音することになる。
なお、ステップS5では、CPU5は、上述の自動演奏が行えるように、選曲された曲の曲データ(MIDIデータ)をROM6から、例えば、ワークエリアとして機能するRAM7に読み込み取得する処理も実行する。
In this case, the CPU 5 causes the sound source unit 8 to automatically perform a part (for example, an accompaniment) of an instrument other than the main instrument based on the music data of the song selected by the performer, and the sound source unit 2 Will produce a sound corresponding to the automatic performance by the input from the sound source unit 8.
In step S5, the CPU 5 also executes a process of reading and acquiring the song data (MIDI data) of the selected song from the ROM 6 into, for example, the RAM 7 functioning as a work area so that the above-mentioned automatic performance can be performed.

また、CPU5は、演奏者の操作(演奏)に従った処理を音源部8に行わせ、発音部2は音源部8からの入力によって演奏者の操作に従った音を発音することになる。 Further, the CPU 5 causes the sound source unit 8 to perform a process according to the operation (performance) of the performer, and the sound source unit 2 produces a sound according to the operation of the performer by the input from the sound source unit 8.

一方、ステップS1がYesの判定となり、ステップS11に進むと、CPU5は、図5の表現練習のフローチャートの処理を実行することになる。
本実施形態の表現練習は、演奏者の息吹込操作によって演奏することができる演奏モードとしており、演奏を行うにあたって、操作子1による演奏者の操作を不要とし、操作子1で操作する必要のある部分は、CPU5が曲データ(MIDIデータ)に従って処理を音源部8に行わせるようになっている。
On the other hand, when the determination in step S1 is Yes and the process proceeds to step S11, the CPU 5 executes the processing of the flowchart of the expression practice of FIG.
The expression practice of the present embodiment is a performance mode in which the performer can perform by breathing in, and the performer does not need to operate the performer 1 to perform the performance. In a certain part, the CPU 5 causes the sound source unit 8 to perform processing according to song data (MIDI data).

また、表現練習では、演奏者が初心者である場合に対応して、曲データ(MIDIデータ)から取得した演奏データ値(以下、単にデータ値ともいう。)に基づいて、息吹込操作に伴う演奏(例えば、ビブラート演奏、グロウル演奏及びサブトーン演奏)における奏法にしたがった自動演奏するものとしている。
ただし、完全な自動演奏ではなく、演奏者の息吹込操作の状態(ブレスセンサ10から取得したブレス値)に応じて、CPU5が曲データ(MIDIデータ)から取得した基本ブレス値とブレスセンサ10から取得したブレス値との比較等を行い、それら基本ブレス値とブレス値とに基づいて、演奏者の息吹込操作(息遣い)による表現力がビブラート演奏、グロウル演奏及びサブトーン演奏等に反映されるように、演奏データ値(データ値)を補正し、その補正した補正データ値に応じた音波形データを音源部8に出力する出力処理を行うものとしており、以下、具体的に説明する。
Further, in the expression practice, the performance accompanying the breathing operation is performed based on the performance data value (hereinafter, also simply referred to as the data value) acquired from the song data (MIDI data) corresponding to the case where the performer is a beginner. (For example, vibrato performance, growl performance, and subtone performance) are automatically performed according to the playing method.
However, it is not a completely automatic performance, but from the basic breath value and the breath sensor 10 acquired by the CPU 5 from the song data (MIDI data) according to the state of the performer's breathing operation (breath value acquired from the breath sensor 10). Compare with the acquired breath values, and based on those basic breath values and breath values, the expressive power of the performer's breathing operation (breathing) will be reflected in the vibrato performance, growl performance, subtone performance, etc. In addition, the performance data value (data value) is corrected, and the output process of outputting the sound wave shape data corresponding to the corrected correction data value to the sound source unit 8 is performed, which will be specifically described below.

ステップT1では、CPU5は、演奏者によって選曲された曲データ(MIDIデータ)をROM6から、例えば、ワークエリアとして機能するRAM7に読み込み取得する処理を実行する。 In step T1, the CPU 5 executes a process of reading and acquiring song data (MIDI data) selected by the performer from the ROM 6 into, for example, the RAM 7 functioning as a work area.

ステップT2では、CPU5は、取得した曲データ(MIDIデータ)に基づいて、本楽器以外の他の楽器のパート(例えば、伴奏等)を自動演奏させる処理を音源部8に行わせ、発音部2から他の楽器等に対応した伴奏の発音を開始させる。
なお、この伴奏に関する部分については、以下のフローに記載していないが、以下で説明する本楽器の演奏の進行に応じて、それに対応した伴奏が発音される。
In step T2, the CPU 5 causes the sound source unit 8 to automatically play a part (for example, accompaniment) of another musical instrument other than the main musical instrument based on the acquired song data (MIDI data), and the sound source unit 2 Start the pronunciation of accompaniment corresponding to other musical instruments.
The part related to this accompaniment is not described in the following flow, but the accompaniment corresponding to it is pronounced according to the progress of the performance of the instrument described below.

ステップT3では、CPU5は、ブレスセンサ10から取得するブレス値があらかじめ与えられている閾値以上であるのか否かを判定する。
そして、ブレス値が閾値以上であれば、演奏者が演奏を開始したものとしてステップT4の処理に進み、ブレス値が閾値未満であれば、演奏開始前であるものとしてステップT10に進む。
In step T3, the CPU 5 determines whether or not the breath value acquired from the breath sensor 10 is equal to or greater than a threshold value given in advance.
If the breath value is equal to or greater than the threshold value, the process proceeds to step T4 assuming that the performer has started playing, and if the breath value is less than the threshold value, the process proceeds to step T10 assuming that the performer has started playing.

後述するが、ステップT10は、演奏を終了する終了指示又は曲データが終了かを判定し、そのどちらでもない場合(ステップT10:No)、再び、ステップT3に進むことになる。 As will be described later, step T10 determines whether the end instruction to end the performance or the song data is finished, and if neither of them (step T10: No), the process proceeds to step T3 again.

したがって、ステップT2からステップT3に進み、ステップT3の判定がNoとなる場合には、演奏者の終了指示の操作又は演奏開始に伴う演奏者のマウスピース部3への息の吹き込み開始のいずれかが起きるのを待つ、監視ループに入ることになる。 Therefore, if the process proceeds from step T2 to step T3 and the determination in step T3 is No, either the performer's end instruction operation or the start of breathing into the performer's mouthpiece portion 3 accompanying the start of the performance is performed. You will enter a monitoring loop, waiting for this to happen.

ステップT4では、ブレス値及び曲データ(MIDI)のノートオンデータに基づき、CPU5は、対応する処理を音源部8に行わせ、音源部8からの入力によって本楽器の発音を発音部2に発音させる。
そして、このノートオンによる発音が行われると、続いて、このノートオンから次のノートオンまでの間の連続的に時間変化する制御データである曲データ(MIDIデータ)のコンティニュアスデータに基づいて発音が継続されることになるが、本実施形態では、以下で説明するようにステップT5からステップT8を繰り返すループ処理とすることで、コンティニュアスデータのデータ値を、逐次、ブレス値に基づいて補正し、演奏者の息吹込操作の状態(ブレスセンサ10から取得したブレス値)に応じた表現力を反映させるようにしている。
In step T4, based on the breath value and the note-on data of the song data (MIDI), the CPU 5 causes the sound source unit 8 to perform the corresponding processing, and the sound source unit 8 pronounces the sound of the instrument to the sound source unit 2. Let me.
Then, when the sound is generated by this note-on, it is subsequently based on the continuous data of the song data (MIDI data), which is the control data that continuously changes with time from this note-on to the next note-on. However, in the present embodiment, the data value of the continuous data is sequentially converted to the breath value by performing the loop processing in which steps T5 to T8 are repeated as described below. The correction is made based on the above, and the expressive power according to the state of the player's breathing operation (breath value acquired from the breath sensor 10) is reflected.

ステップT5では、CPU5は図6のフローチャートに示す処理を実行することになる。 In step T5, the CPU 5 executes the process shown in the flowchart of FIG.

ステップU1では、CPU5は、ブレスセンサ10から取得したブレス値が曲データに設けられている基本ブレス値以上であるか否かを判定し、ブレス値が基本ブレス値以上と判定(ステップU1:Yes)するとステップU2に進み、ブレス値が基本ブレス値未満と判定(ステップU1:No)するとステップU3に進む。 In step U1, the CPU 5 determines whether or not the breath value acquired from the breath sensor 10 is equal to or greater than the basic breath value provided in the song data, and determines that the breath value is equal to or greater than the basic breath value (step U1: Yes). ) Then, the process proceeds to step U2, and when it is determined that the breath value is less than the basic breath value (step U1: No), the process proceeds to step U3.

ステップU2では、CPU5は、例えば、曲データのコンティニュアスデータの演奏データ値(データ値)がビブラート奏法にしたがったデータ値である場合、データ値に対してビブラートの深さを深くする補正値の算出を行う。
また、CPU5は、データ値がグロウル奏法にしたがったデータ値である場合、グロウル波形の合成比を大きくする補正値の算出を行う。
さらに、CPU5は、データ値がサブトーン奏法にしたがったデータ値である場合、サブトーン波形の合成比を大きくする補正値の算出を行う。
In step U2, for example, when the performance data value (data value) of the continuous data of the song data is a data value according to the vibrato playing method, the CPU 5 is a correction value for deepening the vibrato depth with respect to the data value. Is calculated.
Further, when the data value is a data value according to the growl playing method, the CPU 5 calculates a correction value for increasing the synthesis ratio of the growl waveform.
Further, when the data value is a data value according to the subtone playing method, the CPU 5 calculates a correction value for increasing the synthesis ratio of the subtone waveform.

具体的には、ROM6等に変換テーブル又は補正値を算出するための関数が設けられており、基本ブレス値とブレス値とに基づき、CPU5は、変換テーブル又は関数に従って補正値を求める。 Specifically, the ROM 6 or the like is provided with a conversion table or a function for calculating the correction value, and the CPU 5 obtains the correction value according to the conversion table or the function based on the basic breath value and the breath value.

例えば、CPU5は、基本ブレス値とブレス値との差分や基本ブレス値に対してブレス値が何%大きいかといった指標(以下、差分や%等で表される指標を単に「差」と記載する場合がある。)に基づき、曲データのコンティニュアスデータのデータ値に対してどの程度の補正を行うのかという補正値を変換テーブル又は関数に従って求める。 For example, the CPU 5 simply describes an index such as the difference between the basic breath value and the breath value and how much the breath value is larger than the basic breath value (hereinafter, the index represented by the difference,%, etc. is simply referred to as "difference". In some cases), the correction value of how much correction should be made to the data value of the continuous data of the song data is obtained according to the conversion table or the function.

本実施形態では、補正値を求めるための変換テーブル又は関数として、基本ブレス値とブレス値の差が小さいときには、少なめの補正値となるようにし、ある一定以上差が大きくなると一気に補正値が大きくなるようにしている。
つまり、曲データのデータ値に対する補正が、変換テーブル又は関数に基づく非線形な補正となるようにしている。
In the present embodiment, as a conversion table or function for obtaining the correction value, when the difference between the basic breath value and the breath value is small, the correction value is set to be small, and when the difference is larger than a certain level, the correction value is increased at once. I am trying to be.
That is, the correction for the data value of the song data is a non-linear correction based on the conversion table or the function.

これは、ある一定以上差がない領域で、ビブラート、グロウル及びサブトーンの変化が基本ブレス値とブレス値の差の増加に応じて同じ程度の増加量で線形的に増加するようにすると、楽音として違和感があるものとなるため、基本ブレス値とブレス値の差が小さいときには、少なめの補正値となるようにしている。
つまり、基本ブレス値とブレス値の差の増加に応じて補正値も増加させるが、その増加の傾斜を小さなものとしている。
This is a musical tone when the changes in vibrato, glow, and subtone increase linearly with the same amount of increase as the difference between the basic breath value and the breath value increases in a region where there is no difference above a certain level. When the difference between the basic breath value and the breath value is small, the correction value is set to be small because it makes the person feel uncomfortable.
That is, the correction value is also increased according to the increase in the difference between the basic breath value and the breath value, but the slope of the increase is made small.

一方、十分に大きなブレス値のとき(ある一定以上差があるとき)には、ビブラート、グロウル及びサブトーンも爆発するように発音されるほうが自然であるので、それに対応してある一定以上差が大きくなると一気に補正値が大きくなるようにしている。 On the other hand, when the breath value is sufficiently large (when there is a difference of a certain amount or more), it is more natural that the vibrato, glow, and subtone are also pronounced to explode, so the difference is larger than a certain amount correspondingly. In that case, the correction value is increased at once.

ステップU3では、CPU5は、例えば、曲データのコンティニュアスデータの演奏データ値(データ値)がビブラート奏法にしたがったデータ値である場合、ビブラートの深さを浅くする補正値の算出を行う。
また、CPU5は、データ値がグロウル奏法にしたがったデータ値である場合、グロウル波形の合成比を小さくする補正値の算出を行う。
さらに、CPU5は、データ値がサブトーン奏法にしたがったデータ値である場合、サブトーン波形の合成比を小さくする補正値の算出を行う。
In step U3, for example, when the performance data value (data value) of the continuous data of the song data is a data value according to the vibrato playing method, the CPU 5 calculates a correction value for shallowing the vibrato depth.
Further, when the data value is a data value according to the growl playing method, the CPU 5 calculates a correction value for reducing the synthesis ratio of the growl waveform.
Further, when the data value is a data value according to the subtone playing method, the CPU 5 calculates a correction value for reducing the synthesis ratio of the subtone waveform.

具体的には、ステップU3で行われる補正値の算出も、CPU5は、ステップU2と同様に変換テーブル又は補正値を算出するための関数に従って行うものとしており、その理由は、ステップU2で説明したのと同様に、非線形な補正とすることで楽音として不自然なものとならないようにするためである。 Specifically, the calculation of the correction value performed in step U3 is also performed by the CPU 5 according to the conversion table or the function for calculating the correction value in the same manner as in step U2, and the reason is explained in step U2. In the same way as in, the non-linear correction is used so that the sound does not become unnatural.

ステップU4では、CPU5は、ステップU2又はステップU3で算出された補正値に基づいて、曲データのコンティニュアスデータのデータ値に対する補正を行った補正データ値を作成する。 In step U4, the CPU 5 creates a correction data value obtained by correcting the data value of the continuous data of the song data based on the correction value calculated in step U2 or step U3.

ビブラートであれば、曲データのビブラートに対応したデータ値(例えば、ベンドデータのデータ値又はモジュレーションデータのデータ値)を補正値に基づいて補正する。
つまり、CPU5は、ブレス値が基本ブレス値より大きい場合、ビブラートに対応したデータ値に対してビブラートの深さが深くなる補正を行った補正データ値を取得し、ブレス値が基本ブレス値未満の場合、ビブラートに対応したデータ値に対してビブラートの深さを浅くする補正を行った補正データ値を取得する。
In the case of vibrato, the data value corresponding to the vibrato of the song data (for example, the data value of bend data or the data value of modulation data) is corrected based on the correction value.
That is, when the breath value is larger than the basic breath value, the CPU 5 acquires the corrected data value in which the depth of the vibrato is deepened with respect to the data value corresponding to the vibrato, and the breath value is less than the basic breath value. In this case, the corrected data value obtained by correcting the data value corresponding to the vibrato to make the depth of the vibrato shallow is acquired.

なお、ブレス値が基本ブレス値と一致している場合には、補正データ値が曲データのビブラートに対応したデータ値そのものになるように補正値が設定される。
例えば、補正データ値が曲データのビブラートに対応したデータ値に補正値を乗算する場合には補正値が1となるようにすればよく、補正値を加算する場合には補正値が0となるようにすればよい。
If the breath value matches the basic breath value, the correction value is set so that the correction data value is the data value itself corresponding to the vibrato of the song data.
For example, when the correction data value is multiplied by the data value corresponding to the vibrato of the song data, the correction value may be set to 1, and when the correction value is added, the correction value is 0. You can do it.

グロウルであれば、曲データのグロウル波形の合成比に対応したデータ値を補正値に基づいて補正する。
つまり、CPU5は、ブレス値が基本ブレス値より大きい場合、グロウル波形の合成比に対応したデータ値に対して合成比を大きくする補正を行った補正データ値を取得し、ブレス値が基本ブレス値未満の場合、グロウル波形の合成比に対応したデータ値に対して合成比を小さくする補正を行った補正データ値を取得する。
なお、ブレス値が基本ブレス値と一致している場合には、ビブラートのときと同様に、補正データ値が曲データのグロウル波形の合成比に対応したデータ値そのものになるように補正値が設定される。
If it is a growl, the data value corresponding to the composite ratio of the growl waveform of the song data is corrected based on the correction value.
That is, when the breath value is larger than the basic breath value, the CPU 5 acquires the corrected data value obtained by correcting the data value corresponding to the composite ratio of the glow waveform to increase the composite ratio, and the breath value is the basic breath value. If it is less than, the corrected data value obtained by correcting the data value corresponding to the combined ratio of the glow waveform to reduce the combined ratio is acquired.
If the breath value matches the basic breath value, the correction value is set so that the correction data value is the data value itself corresponding to the composite ratio of the glow waveform of the song data, as in the case of vibrato. Will be done.

サブトーンであれば、曲データのサブトーン波形の合成比に対応したデータ値を補正値に基づいて補正する。
つまり、CPU5は、ブレス値が基本ブレス値より大きい場合、サブトーン波形の合成比に対応したデータ値に対して合成比を大きくする補正を行った補正データ値を取得し、ブレス値が基本ブレス値未満の場合、サブトーン波形の合成比に対応したデータ値に対して合成比を小さくする補正を行った補正データ値を取得する。
なお、ブレス値が基本ブレス値と一致している場合には、ビブラートのときと同様に、補正データ値が曲データのサブトーン波形の合成比に対応したデータ値そのものになるように補正値が設定される。
If it is a subtone, the data value corresponding to the composition ratio of the subtone waveform of the song data is corrected based on the correction value.
That is, when the breath value is larger than the basic breath value, the CPU 5 acquires the corrected data value obtained by correcting the data value corresponding to the composite ratio of the subtone waveform to increase the composite ratio, and the breath value is the basic breath value. If it is less than, the corrected data value obtained by correcting the data value corresponding to the composite ratio of the subtone waveform to reduce the composite ratio is acquired.
If the breath value matches the basic breath value, the correction value is set so that the correction data value is the data value itself corresponding to the composition ratio of the subtone waveform of the song data, as in the case of vibrato. Will be done.

そして、ステップU4で、上記のような補正データ値の作成が行われると、図6に示すフローチャートの処理が終了し、図5のフローチャートの処理に戻る。 Then, when the correction data value as described above is created in step U4, the processing of the flowchart shown in FIG. 6 is completed, and the process returns to the processing of the flowchart of FIG.

ステップT6では、CPU5は、補正データ値に基づく処理を音源部8に行わせ、音源部8からの入力によって補正データ値に基づく発音を発音部2に発音させる。 In step T6, the CPU 5 causes the sound source unit 8 to perform processing based on the correction data value, and causes the sound source unit 2 to pronounce the pronunciation based on the correction data value by the input from the sound source unit 8.

なお、グロウル演奏のためのグロウル波形はボイスセンサ11で取得した演奏者のボイスに基づいて生成されるグロウル波形でもよく、曲データ(MIDIデータ)に持たせておいたデータ(指定された音高の音波形データに対してグロウルデータをミックスするミックス比を調整するデータ)に基づいて生成されるグロウル波形でもよい。
同様に、サブトーン波形も曲データ(MIDIデータ)に持たせておいたデータ(サブトーンの出力量を調整するデータ)に基づいて生成されるサブトーン波形でもよい。
The growl waveform for growl performance may be a growl waveform generated based on the voice of the performer acquired by the voice sensor 11, and the data (specified pitch) held in the song data (MIDI data) may be used. It may be a growl waveform generated based on the data for adjusting the mix ratio of mixing the growl data with the sound form data of.
Similarly, the subtone waveform may be a subtone waveform generated based on the data (data for adjusting the output amount of the subtone) stored in the music data (MIDI data).

上記のように、CPU5が、あらかじめ与えられる曲データ(MIDIデータ)の基本ブレス値とブレスセンサ10から取得するブレス値とに基づき、曲データ(MIDIデータ)のデータ値に対して補正を行った補正データ値を取得する補正データ値取得処理と、補正データ値に基づき、発音部2に発音させる発音処理と、を行うことで、演奏者の息吹込操作(息遣い)に伴う表現力が反映された演奏になる。 As described above, the CPU 5 corrects the data value of the song data (MIDI data) based on the basic breath value of the song data (MIDI data) given in advance and the breath value acquired from the breath sensor 10. By performing the correction data value acquisition process for acquiring the corrected data value and the sounding process for causing the sounding unit 2 to make a sound based on the corrected data value, the expressive power associated with the performer's breathing operation (breathing) is reflected. It will be a performance.

ステップT7では、CPU5は、曲データ(MIDIデータ)のノートオンのタイミング(操作子1を操作して音を変えるタイミング)か否かを判定し、ノートオンのタイミングであると判定(ステップT7:Yes)するとステップT4に戻り、先ほど説明したステップT4の処理が再び実行されることになる。
一方、CPU5がノートオンのタイミングでないと判定(ステップT7:No)すると、ステップT8に進むことになる。
In step T7, the CPU 5 determines whether or not the song data (MIDI data) is note-on timing (timing for operating the controller 1 to change the sound), and determines that it is the note-on timing (step T7: Yes), the process returns to step T4, and the process of step T4 described above is executed again.
On the other hand, if it is determined that the CPU 5 is not the note-on timing (step T7: No), the process proceeds to step T8.

ステップT8では、CPU5は、ブレス値が閾値未満になったか否かを判定し、ブレス値が閾値未満になっていないと判定(ステップT8:No)するとステップT5に戻り、先ほど説明したステップT5の処理が再び実行される。 In step T8, the CPU 5 determines whether or not the breath value is less than the threshold value, and if it is determined that the breath value is not less than the threshold value (step T8: No), the CPU 5 returns to step T5 and returns to step T5. The process is executed again.

つまり、コンティニュアスデータのデータ値を補正する処理が再び行われるため、連続的に時間変化するように発音される音自体が、演奏者の息吹込操作に応じた変化を伴ったものとなり、演奏者の表現力が反映されたものとなる。 In other words, since the process of correcting the data value of the continuous data is performed again, the sound itself, which is pronounced so as to continuously change with time, is accompanied by a change according to the breathing operation of the performer. It reflects the expressiveness of the performer.

一方、CPU5は、ブレス値が閾値未満になっていると判定(ステップT8:Yes)するとステップT9に進む。 On the other hand, when the CPU 5 determines that the breath value is less than the threshold value (step T8: Yes), the CPU 5 proceeds to step T9.

ステップT9では、マウスピース部3への演奏者の息の吹き込みがなくなったことに伴う発音の停止を行うために、CPU5は、それに対応する処理を音源部8に行わせ、音源部8からの入力によって本楽器の発音を発音部2に消音させる。 In step T9, in order to stop the sounding due to the player's breath not being blown into the mouthpiece unit 3, the CPU 5 causes the sound source unit 8 to perform the corresponding processing, and the sound source unit 8 sends the corresponding process. The sound source 2 mutes the sound of this instrument by input.

ステップT10では、先に触れたように、CPU5は、演奏者による演奏終了の終了指示又は曲データ終了かを判定し、終了指示又は曲データ終了のいずれでもないと判定(ステップT10:No)すると、ステップT8でブレス値が閾値未満になったのは息継ぎのタイミングであったことによるため、再び、ステップT3に戻り、演奏者による次の息の吹き込み開始を監視する監視ループの状態になる。 In step T10, as mentioned earlier, the CPU 5 determines whether the performance end instruction or song data end by the performer, and determines that neither the end instruction nor the song data end (step T10: No). Since it was the timing of breathing that the breath value became less than the threshold value in step T8, the process returns to step T3 again, and the state of the monitoring loop for monitoring the start of the next breathing by the performer is entered.

一方、CPU5は、終了指示又は曲データ終了のいずれかと判定(ステップT10:Yes)と、図4のフローチャートの処理に戻り、全体の処理が終了することになる。 On the other hand, the CPU 5 returns to the process of the flowchart of FIG. 4 when it is determined to be either the end instruction or the end of the song data (step T10: Yes), and the entire process is completed.

以上のように、本実施形態の電子管楽器100は、演奏者の息吹込操作(息遣い)による表現力の練習において、一部の演奏(例えば、ビブラート演奏、グロウル演奏及びサブトーン演奏)が自動演奏とされていても、完全な自動演奏ではなく、演奏者の息吹込操作(息遣い)による表現力を反映したものとなっているため、表現力を習得するのに適したものになっている。 As described above, in the electronic wind instrument 100 of the present embodiment, in the practice of expressiveness by the performer's breathing operation (breathing), some performances (for example, vibrato performance, growl performance and subtone performance) are automatically performed. Even if it is done, it is not a fully automatic performance, but reflects the expressive power of the performer's breathing operation (breathing), so it is suitable for learning the expressive power.

また、そのように演奏者の表現力が反映されるため、吹き方次第で単なるお手本どおりの演奏ではなく、個性的な憧れのミュージシャンのような演奏も可能であり、演奏者にとって色々な楽しみ方ができるものになっている。 In addition, because the expressive power of the performer is reflected in this way, depending on how it is played, it is possible to perform not just as a model, but as a unique and longing musician, and there are various ways for the performer to enjoy it. It has become something that can be done.

以上、具体的な実施形態に基づき本発明の電子管楽器100について説明してきたが、本発明は上記実施形態に限定されるものではなく、本発明の技術的範囲には、本発明の目的が達成される範囲での様々な変形や改良などが含まれるものであり、そのことは当業者にとって特許請求の範囲の記載から明らかである。 Although the electronic tube instrument 100 of the present invention has been described above based on a specific embodiment, the present invention is not limited to the above embodiment, and the object of the present invention is achieved within the technical scope of the present invention. It includes various modifications and improvements within the scope of the invention, which is clear to those skilled in the art from the description of the scope of claims.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
息吹込操作に応じたブレス値を検出するブレスセンサと、
制御部と、
を備え、
前記制御部は、
曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理、
を実行することを特徴とする電子管楽器。
<請求項2>
前記制御部は、
前記演奏データ値がビブラート奏法にしたがった演奏データ値である場合、前記ブレス値が前記基本ブレス値より大きい場合に前記演奏データ値に対してビブラートの深さを深くする補正を行った前記補正データ値を取得し、前記ブレス値が前記基本ブレス値未満の場合に前記演奏データ値に対してビブラートの深さを浅くする補正を行った前記補正データ値を取得する補正データ値取得処理、
を実行し、
前記出力処理は、前記補正データ値取得処理により取得された前記補正データ値に応じた前記音波形データを出力することを特徴とする請求項1に記載の電子管楽器。
<請求項3>
前記補正データ値取得処理は、
前記演奏データ値がグロウル奏法にしたがった演奏データ値である場合、前記ブレス値が前記基本ブレス値より大きい場合に前記演奏データ値に対してグロウル波形の合成比を大きくする補正を行った前記補正データ値を取得し、前記ブレス値が前記基本ブレス値未満の場合に前記演奏データ値に対してグロウル波形の合成比を小さくする補正を行った前記補正データ値を取得することを特徴とする請求項2に記載の電子管楽器。
<請求項4>
前記補正データ値取得処理は、
前記演奏データ値がサブトーン奏法にしたがった演奏データ値である場合、前記ブレス値が前記基本ブレス値より大きい場合に前記演奏データ値に対してサブトーン波形の合成比を大きくする補正を行った前記補正データ値を取得し、前記ブレス値が前記基本ブレス値未満の場合に前記演奏データ値に対してサブトーン波形の合成比を小さくする補正を行った前記補正データ値を取得する請求項2又は請求項3に記載の電子管楽器。
<請求項5>
前記演奏データ値に対する前記補正は、変換テーブル又は関数に基づく非線形な補正であることを特徴とする請求項1から請求項4のいずれか1項に記載の電子管楽器。
<請求項6>
息吹込操作に応じたブレス値を検出するブレスセンサを備えた電子管楽器の制御方法であって、
曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理を実行する制御方法。
<請求項7>
息吹込操作に応じたブレス値を検出するブレスセンサと制御部を備えた電子管楽器用のプログラムであって、
前記制御部に対して、曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理を少なくとも実行させるプログラム。
The inventions described in the claims originally attached to the application of this application are added below. The claims in the appendix are as specified in the claims originally attached to the application for this application.
<Claim 1>
A breath sensor that detects the breath value according to the breathing operation, and
Control unit and
With
The control unit
Based on the basic breath value acquired from the song data and the breath value acquired from the breath sensor, the performance data value according to the playing style in the performance accompanying the breathing operation, and is the performance data acquired from the song data. Output processing that outputs sonic data according to the corrected data value after correcting the value,
An electronic wind instrument characterized by performing.
<Claim 2>
The control unit
When the performance data value is a performance data value according to the vibrato playing method, and when the breath value is larger than the basic breath value, the correction data is corrected to deepen the vibrato depth with respect to the performance data value. A correction data value acquisition process for acquiring the correction data value obtained by acquiring the value and performing correction to make the vibrato depth shallower with respect to the performance data value when the breath value is less than the basic breath value.
And run
The electronic wind instrument according to claim 1, wherein the output process outputs the sound wave shape data corresponding to the corrected data value acquired by the corrected data value acquisition process.
<Claim 3>
The correction data value acquisition process
When the performance data value is a performance data value according to the growl playing method, and when the breath value is larger than the basic breath value, the correction is performed to increase the composite ratio of the growl waveform with respect to the performance data value. A claim characterized in that a data value is acquired, and when the breath value is less than the basic breath value, the corrected data value is corrected by reducing the composite ratio of the growl waveform with respect to the performance data value. Item 2. The electronic wind instrument according to Item 2.
<Claim 4>
The correction data value acquisition process
When the performance data value is a performance data value according to the subtone playing method, and when the breath value is larger than the basic breath value, the correction is performed to increase the composition ratio of the subtone waveform with respect to the performance data value. Claim 2 or claim 2 or claim, which acquires the data value, and when the breath value is less than the basic breath value, corrects the performance data value to reduce the composition ratio of the subtone waveform. The electronic wind instrument according to 3.
<Claim 5>
The electronic wind instrument according to any one of claims 1 to 4, wherein the correction for the performance data value is a non-linear correction based on a conversion table or a function.
<Claim 6>
It is a control method of an electronic wind instrument equipped with a breath sensor that detects the breath value according to the breathing operation.
Based on the basic breath value acquired from the song data and the breath value acquired from the breath sensor, the performance data value according to the playing style in the performance accompanying the breathing operation, and is the performance data acquired from the song data. A control method that executes output processing that outputs sonic data according to the corrected data value.
<Claim 7>
It is a program for electronic wind instruments equipped with a breath sensor and a control unit that detect the breath value according to the breathing operation.
Based on the basic breath value acquired from the song data and the breath value acquired from the breath sensor with respect to the control unit, the performance data value according to the playing method in the performance accompanying the breathing operation is described above. A program that at least executes output processing that outputs sound wave data according to the corrected data value that corrects the performance data value acquired from the song data.

100 電子管楽器
100a 管体部
1 操作子
2 発音部
3 マウスピース部
3a マウスピース本体
3aa 開口部
3b 固定金具
3c リード部
4 基板
5 CPU(制御部)
6 ROM
7 RAM
8 音源部
10 ブレスセンサ
11 ボイスセンサ
12 タンセンサ
12s 検出部
13 リッププセンサ部
13a リッププレッシャセンサ部
13b リップポジションセンサ部
13s 検出部
14 表示部
15 バス
100 Electronic wind instrument 100a Wind instrument 1 Operator 2 Sounding part 3 Mouthpiece part 3a Mouthpiece body 3aa Opening 3b Fixing bracket 3c Lead part 4 Board 5 CPU (control part)
6 ROM
7 RAM
8 Sound source unit 10 Breath sensor 11 Voice sensor 12 Tan sensor 12s Detection unit 13 Lip sensor unit 13a Lip pressure sensor unit 13b Lip position sensor unit 13s Detection unit 14 Display unit 15 Bus

Claims (7)

息吹込操作に応じたブレス値を検出するブレスセンサと、
制御部と、
を備え、
前記制御部は、
曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理、
を実行することを特徴とする電子管楽器。
A breath sensor that detects the breath value according to the breathing operation, and
Control unit and
With
The control unit
Based on the basic breath value acquired from the song data and the breath value acquired from the breath sensor, the performance data value according to the playing style in the performance accompanying the breathing operation, and is the performance data acquired from the song data. Output processing that outputs sonic data according to the corrected data value after correcting the value,
An electronic wind instrument characterized by performing.
前記制御部は、
前記演奏データ値がビブラート奏法にしたがった演奏データ値である場合、前記ブレス値が前記基本ブレス値より大きい場合に前記演奏データ値に対してビブラートの深さを深くする補正を行った前記補正データ値を取得し、前記ブレス値が前記基本ブレス値未満の場合に前記演奏データ値に対してビブラートの深さを浅くする補正を行った前記補正データ値を取得する補正データ値取得処理、
を実行し、
前記出力処理は、前記補正データ値取得処理により取得された前記補正データ値に応じた前記音波形データを出力することを特徴とする請求項1に記載の電子管楽器。
The control unit
When the performance data value is a performance data value according to the vibrato playing method, and when the breath value is larger than the basic breath value, the correction data is corrected to deepen the vibrato depth with respect to the performance data value. A correction data value acquisition process for acquiring the correction data value obtained by acquiring the value and performing correction to make the vibrato depth shallower with respect to the performance data value when the breath value is less than the basic breath value.
And run
The electronic wind instrument according to claim 1, wherein the output process outputs the sound wave shape data corresponding to the corrected data value acquired by the corrected data value acquisition process.
前記補正データ値取得処理は、
前記演奏データ値がグロウル奏法にしたがった演奏データ値である場合、前記ブレス値が前記基本ブレス値より大きい場合に前記演奏データ値に対してグロウル波形の合成比を大きくする補正を行った前記補正データ値を取得し、前記ブレス値が前記基本ブレス値未満の場合に前記演奏データ値に対してグロウル波形の合成比を小さくする補正を行った前記補正データ値を取得することを特徴とする請求項2に記載の電子管楽器。
The correction data value acquisition process
When the performance data value is a performance data value according to the growl playing method, and when the breath value is larger than the basic breath value, the correction is performed to increase the composite ratio of the growl waveform with respect to the performance data value. A claim characterized in that a data value is acquired, and when the breath value is less than the basic breath value, the corrected data value is corrected by reducing the composite ratio of the growl waveform with respect to the performance data value. Item 2. The electronic wind instrument according to Item 2.
前記補正データ値取得処理は、
前記演奏データ値がサブトーン奏法にしたがった演奏データ値である場合、前記ブレス値が前記基本ブレス値より大きい場合に前記演奏データ値に対してサブトーン波形の合成比を大きくする補正を行った前記補正データ値を取得し、前記ブレス値が前記基本ブレス値未満の場合に前記演奏データ値に対してサブトーン波形の合成比を小さくする補正を行った前記補正データ値を取得する請求項2又は請求項3に記載の電子管楽器。
The correction data value acquisition process
When the performance data value is a performance data value according to the subtone playing method, and when the breath value is larger than the basic breath value, the correction is performed to increase the composition ratio of the subtone waveform with respect to the performance data value. Claim 2 or claim 2 or claim, which acquires the data value, and when the breath value is less than the basic breath value, corrects the performance data value to reduce the composition ratio of the subtone waveform. The electronic wind instrument according to 3.
前記演奏データ値に対する前記補正は、変換テーブル又は関数に基づく非線形な補正であることを特徴とする請求項1から請求項4のいずれか1項に記載の電子管楽器。 The electronic wind instrument according to any one of claims 1 to 4, wherein the correction for the performance data value is a non-linear correction based on a conversion table or a function. 息吹込操作に応じたブレス値を検出するブレスセンサを備えた電子管楽器の制御方法であって、
曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理を実行する制御方法。
It is a control method of an electronic wind instrument equipped with a breath sensor that detects the breath value according to the breathing operation.
Based on the basic breath value acquired from the song data and the breath value acquired from the breath sensor, the performance data value according to the playing style in the performance accompanying the breathing operation, and is the performance data acquired from the song data. A control method that executes output processing that outputs sonic data according to the corrected data value.
息吹込操作に応じたブレス値を検出するブレスセンサと制御部を備えた電子管楽器用のプログラムであって、
前記制御部に対して、曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理を少なくとも実行させるプログラム。
It is a program for electronic wind instruments equipped with a breath sensor and a control unit that detect the breath value according to the breathing operation.
Based on the basic breath value acquired from the song data and the breath value acquired from the breath sensor with respect to the control unit, the performance data value according to the playing method in the performance accompanying the breathing operation is described above. A program that at least executes output processing that outputs sound wave data according to the corrected data value that corrects the performance data value acquired from the song data.
JP2017050121A 2017-03-15 2017-03-15 Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments Active JP6816581B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017050121A JP6816581B2 (en) 2017-03-15 2017-03-15 Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments
US15/919,899 US10360884B2 (en) 2017-03-15 2018-03-13 Electronic wind instrument, method of controlling electronic wind instrument, and storage medium storing program for electronic wind instrument
CN201810213658.9A CN108630176B (en) 2017-03-15 2018-03-15 Electronic wind instrument, control method thereof, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017050121A JP6816581B2 (en) 2017-03-15 2017-03-15 Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments

Publications (2)

Publication Number Publication Date
JP2018155797A JP2018155797A (en) 2018-10-04
JP6816581B2 true JP6816581B2 (en) 2021-01-20

Family

ID=63717294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017050121A Active JP6816581B2 (en) 2017-03-15 2017-03-15 Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments

Country Status (1)

Country Link
JP (1) JP6816581B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022177297A (en) * 2017-03-15 2022-11-30 カシオ計算機株式会社 Electronic wind instrument, control method of electronic wind instrument, and program for electronic wind instrument

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2537195B2 (en) * 1986-05-12 1996-09-25 カナ−ス・デ−タ−株式会社 Electronic musical instrument
JP3912238B2 (en) * 2002-09-18 2007-05-09 カシオ計算機株式会社 Performance guide data generation device and program
JP4433065B2 (en) * 2003-07-30 2010-03-17 ヤマハ株式会社 Musical instrument
US7723605B2 (en) * 2006-03-28 2010-05-25 Bruce Gremo Flute controller driven dynamic synthesis system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022177297A (en) * 2017-03-15 2022-11-30 カシオ計算機株式会社 Electronic wind instrument, control method of electronic wind instrument, and program for electronic wind instrument
JP7347619B2 (en) 2017-03-15 2023-09-20 カシオ計算機株式会社 Electronic wind instrument, control method for the electronic wind instrument, and program for the electronic wind instrument

Also Published As

Publication number Publication date
JP2018155797A (en) 2018-10-04

Similar Documents

Publication Publication Date Title
CN108630176B (en) Electronic wind instrument, control method thereof, and recording medium
US10170091B1 (en) Electronic wind instrument, method of controlling the electronic wind instrument, and computer readable recording medium with a program for controlling the electronic wind instrument
JPH08305356A (en) Musical amusement system
JP6705272B2 (en) Sound control device, sound control method, and program
JP6728754B2 (en) Pronunciation device, pronunciation method and pronunciation program
JP7035697B2 (en) Singing practice device, singing practice method, and program
JP7192203B2 (en) Electronic wind instrument, control method for the electronic wind instrument, and program for the electronic wind instrument
JP6728843B2 (en) Electronic musical instrument, musical tone generating device, musical tone generating method and program
JP6930144B2 (en) Electronic musical instruments, musical tone generation methods and programs
JP6816581B2 (en) Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments
JP7190284B2 (en) Harmony generator and its program
JP2021051106A (en) Electronic wind instrument, control method of electronic wind instrument and program
WO2023058173A1 (en) Sound control device, control method for same, electronic instrument, program
JP7347619B2 (en) Electronic wind instrument, control method for the electronic wind instrument, and program for the electronic wind instrument
WO2005081222A1 (en) Device for judging music sound of natural musical instrument played according to a performance instruction, music sound judgment program, and medium containing the program
JP6801533B2 (en) Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments
JP6809608B2 (en) Singing sound generator and method, program
JP3953064B2 (en) Musical amusement system
JP4069892B2 (en) Musical amusement system
WO2023175844A1 (en) Electronic wind instrument, and method for controlling electronic wind instrument
JP5560574B2 (en) Electronic musical instruments and automatic performance programs
JP4069891B2 (en) Musical amusement system
JP4069889B2 (en) Musical amusement system
JPWO2022190502A5 (en)
JP4069774B2 (en) Performance learning device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201207

R150 Certificate of patent or registration of utility model

Ref document number: 6816581

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150