JP6816581B2 - Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments - Google Patents
Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments Download PDFInfo
- Publication number
- JP6816581B2 JP6816581B2 JP2017050121A JP2017050121A JP6816581B2 JP 6816581 B2 JP6816581 B2 JP 6816581B2 JP 2017050121 A JP2017050121 A JP 2017050121A JP 2017050121 A JP2017050121 A JP 2017050121A JP 6816581 B2 JP6816581 B2 JP 6816581B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- breath
- data
- data value
- performance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
本発明は、電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラムに関する。 The present invention relates to an electronic wind instrument, a method for controlling the electronic wind instrument, and a program for the electronic wind instrument.
従来、演奏者の口によって発生される信号を入力するための口入力部と、メロディ音に適した伴奏音を表す第1演奏データを記憶する記憶部と、前記口入力部から入力された信号のレベルを検出し、同検出したレベルが所定レベル以上であるときトリガ信号を出力するレベル検出部と、前記レベル検出部から出力されたトリガ信号に基づき、前記記憶部から前記第1演奏データを読み出す読出し処理部と、前記読出し処理部によって読み出された第1演奏データに基づき、前記伴奏音を生成する第1楽音生成部と、を備えたことを特徴とする楽器が知られている(特許文献1参照)。 Conventionally, a mouth input unit for inputting a signal generated by a performer's mouth, a storage unit for storing first performance data representing an accompaniment sound suitable for a melody sound, and a signal input from the mouth input unit. Based on the level detection unit that detects the level of and outputs a trigger signal when the detected level is equal to or higher than a predetermined level, and the trigger signal output from the level detection unit, the first performance data is stored from the storage unit. A musical instrument characterized in that it includes a read-out processing unit for reading and a first music sound generation unit for generating the accompaniment sound based on the first performance data read by the read-out processing unit is known. See Patent Document 1).
そして、特許文献1には、上記のような楽器であれば、メロディ音に適した伴奏音で演奏できるとともに、口によって発生されるピッチ情報が誤っていても、口入力部に所定レベル以上の信号を入力する限り、演奏の進行は止まらずに進行し、初心者でも、練習に飽きてしまうことなく、練習を続けることができるとともに、演奏の進行が止まらないことにより、他の者と同時に演奏練習する場合に好適であることが記載されている。
Further, in
ところで、管楽器では、演奏者の息遣いが表現力の豊かさの重要なポイントの1つであり、演奏の一部(例えば、初心者にとって難しいビブラート等の演奏部分)を自動演奏で補助する場合でも、演奏者の息遣いを反映したものとすることが表現力を付ける練習にとって重要であると考えられる。 By the way, in wind instruments, the breathing of the performer is one of the important points of rich expressiveness, and even when a part of the performance (for example, the performance part such as vibrato, which is difficult for beginners) is assisted by automatic performance, It is considered important for the practice of developing expressiveness to reflect the breathing of the performer.
本発明は、このような事情に鑑みなされたものであり、自動演奏される部分に対して演奏者の息遣いによる表現力を反映させた電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and is used for an electronic wind instrument, a control method for the electronic wind instrument, and the electronic wind instrument for which the expressive power of the performer's breathing is reflected in the automatically played portion. The purpose is to provide a program.
上記目的を達成するために、本発明の一実施態様である電子管楽器は、息吹込操作に応じたブレス値を検出するブレスセンサと、制御部と、を備え、前記制御部は、曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理、を実行する。 In order to achieve the above object, the electronic wind instrument according to the embodiment of the present invention includes a breath sensor for detecting a breath value according to a breathing operation and a control unit, and the control unit is provided from music data. Based on the acquired basic breath value and the breath value acquired from the breath sensor, it is a performance data value according to the playing style in the performance accompanying the breathing operation, and the performance data value acquired from the song data is corrected. The output process of outputting the sound wave data according to the corrected correction data value is executed.
本発明によれば、自動演奏される部分に対して演奏者の息遣いによる表現力を反映させた電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラムを提供することができる。 According to the present invention, it is possible to provide an electronic wind instrument that reflects the expressive power of the performer's breathing on an automatically played portion, a control method for the electronic wind instrument, and a program for the electronic wind instrument.
以下、添付図面を参照して、本発明に係る実施形態を説明する。
図1は本発明の実施形態に係る電子管楽器100を示す図であり、図1(a)は電子管楽器100の正面図であり、図1(b)は電子管楽器100の側面図であり、図2は電子管楽器100のブロック図であり、図3はマウスピース部3の断面図である。
Hereinafter, embodiments according to the present invention will be described with reference to the accompanying drawings.
1A and 1B are views showing an
なお、図1(a)では、電子管楽器100の内部がわかるように管体部100aの一部を切り欠いた図示にしている。
In addition, in FIG. 1A, a part of the
本実施形態では、電子管楽器100がサクソフォンである場合を例にして説明を行うが、本発明の電子管楽器100は、サクソフォン以外の電子管楽器(例えば、クラリネット等)であってもよい。
In the present embodiment, the case where the
電子管楽器100は、図1に示すように、サクソフォンの形状に形成された管体部100aと、管体部100aの外面に配置された操作子1と、管体部100aの先端部側に設けられた発音部2と、管体部100aの基端部側に設けられたマウスピース部3と、を備えている。
As shown in FIG. 1, the
また、図1(a)に示すように、電子管楽器100は、管体部100aの基端部側の内部に設けられた基板4を備えており、その基板4上には、CPU5(Central Processing Unit)、ROM6(Read Only Memory)、RAM7(Random Access Memory)及び音源部8等が設けられている。
Further, as shown in FIG. 1A, the
さらに、図3に示すように、マウスピース部3は、マウスピース本体3aと、マウスピース本体3aに設けられた固定金具3bと、マウスピース本体3aに固定金具3bで取り付けられたリード部3cと、マウスピース本体3aの先端側に設けられたブレスセンサ10と、マウスピース本体3a内に設けられたボイスセンサ11と、リード部3cに設けられたタンセンサ12と、リード部3cに設けられたリップセンサ13と、を備えている。
Further, as shown in FIG. 3, the
なお、リップセンサ13は、後述するようにリッププレッシャセンサ部13aとリップポジションセンサ部13bと、を含んでいる。
The
また、電子管楽器100は、管体部100aの外面に設けられた表示部14(図2参照)を備えている。
例えば、表示部14は、タッチセンサ付の液晶画面等を備え、各種の表示のみだけでなく、各種の設定操作を行うことができるようになっている。
Further, the
For example, the
そして、各機能部(操作子1、CPU5、ROM6、RAM7、音源部8、ブレスセンサ10、ボイスセンサ11、タンセンサ12、リップセンサ13、表示部14等)は、バス15で接続されている。
Each functional unit (
操作子1は、演奏者(ユーザ)が指で操作する操作部であり、音高を指定するための演奏キー、楽曲のキーに合わせて音高を変える機能及び音高の微調整を行う機能等を設定する設定キーを含む。
The
発音部2は、後述する音源部8から入力された楽音信号に信号増幅等を施し、内蔵のスピーカーから楽音として出力する。
ただし、本実施形態では、電子管楽器100に発音部2を内蔵させているが、発音部2は内蔵型のものに限らず、電子管楽器100の外部出力ポート(図示せず)に接続される外付型のものであってもよい。
The sounding
However, in the present embodiment, the
CPU5は、電子管楽器100の各部を制御する制御部として機能し、ROM6から指定されたプログラムを読み出してRAM7に展開し、展開されたプログラムと協働して各種処理を実行する。
The
ROM6は、読み取り専用の記憶部であり、電子管楽器100の各部を制御するためのプログラムや後述する曲データ(MIDIデータ)等が記憶されている。
RAM7は、読み書き可能な記憶部であり、各センサ(ブレスセンサ10、ボイスセンサ11、タンセンサ12及びリップセンサ13等)から取得されるデータ、プログラム及び曲データ等を一時的に格納するワークエリアとして機能する。
The
The
音源部8は、操作子1での操作情報及び各センサで取得されるデータ等に基づいたCPU5の楽音の生成指示(楽音制御)に従い、楽音を生成して楽音信号を発音部2に出力する。
The
マウスピース部3は、演奏者が演奏時に加える部分であり、各センサ(ブレスセンサ10、ボイスセンサ11、タンセンサ12及びリップセンサ13等)を備え、演奏者によるタン、息及び声等による演奏のための各種操作を検出する。
The
次に、具体的に、各センサ(ブレスセンサ10、ボイスセンサ11、タンセンサ12及びリップセンサ13等)について説明する。
なお、以下で説明する各センサの機能等は、主な機能等についての説明であり、他の機能を持たせる等を行ってもよいことに留意されたい。
Next, each sensor (
It should be noted that the functions and the like of each sensor described below are explanations of the main functions and the like, and may be provided with other functions.
ブレスセンサ10は圧力センサを備えており、ブレスセンサ10によって、マウスピース本体3aの基端部側の息を吹き込む開口部3aaから吹き込まれる演奏者の息量・息圧等のブレス値の検出が行われる。
なお、ブレスセンサ10によって検出されるブレス値は、CPU5が楽音のノートオン/オフや楽音の音量等の設定を行うのに用いられる。
The
The breath value detected by the
また、ボイスセンサ11はマイクロフォンを備え、ボイスセンサ11によって、演奏者のグロウル演奏のための音声(グロウル波形)の検出が行われる。
なお、ボイスセンサ11によって検出された音声(グロウル波形)は、CPU5がグロウル波形データの合成比率を決定するのに用いられる。
Further, the
The voice (growl waveform) detected by the
タンセンサ12は、リード部3cの最も基端部側(ティップ側)の位置に検出部12sが設けられた圧力センサ又は静電容量センサを備えており、タンセンサ12によってリード部3cの基端部側の位置へのタンの接触の有無の検出(タンギングの検出)が行われる。
なお、タンセンサ12によって検出されたタンの接触の有無は、CPU5が楽音のノートオン/オフの設定を行うのに用いられるとともに、タンの接触の有無とブレスセンサ10のブレス値の検出状態との双方の状態に応じて音高の設定を行うのに用いられる。
The
The presence or absence of contact of the tongue detected by the
リップセンサ13は、リード部3cの基端部側(ティップ側)から先端側(ヒール側)に向けて、複数の検出部13sが設けられた圧力センサ又は静電容量センサを備えており、リッププレッシャセンサ部13a及びリップポジションセンサ部13bとして機能する。
The
具体的には、リップセンサ13は、複数の検出部13sのどの検出部13sでリップの接触が検出されるかに基づいてリップポジションを検出するリップポジションセンサ部13bとしての役割と、その接触しているリップの接触強さを検出するリッププレッシャセンサ部13aとしての役割と、を果たす。
Specifically, the
なお、複数の検出部13sでリップの接触が検出されている場合には、リップセンサ13からの出力に基づいて、CPU5が接触中心位置を求めることでリップポジションが求められる。
When the contact of the lip is detected by the plurality of
例えば、リップセンサ13が圧力センサを有する場合には、圧力センサが検出する圧力の変化に基づいて、リップの接触強さ(リッププレッシャ)及びリップポジションの検出が行われる。
For example, when the
また、リップセンサ13が静電容量センサを有する場合には、静電容量センサが検出する静電容量の変化に基づいて、リップの接触強さ(リッププレッシャ)及びリップポジションの検出が行われる。
When the
そして、リッププレッシャセンサ部13aとしてのリップセンサ13によるリップの接触強さ(リッププレッシャ)の検出結果及びリップポジションセンサ部13bとしてのリップセンサ13によるリップポジションの検出結果は、ビブラート演奏やサブトーン演奏を制御するために用いられる。
Then, the detection result of the contact strength (lip pressure) of the lip by the
具体的には、CPU5は、リップの接触強さ(リッププレッシャ)の変化状態に基づき、ビブラート演奏を検出してビブラートに対応した処理を行い、リップポジションの変化状態(位置及び接触面積等の変化状態)に基づき、サブトーン演奏を検出してサブトーンに対応した処理を行う。
Specifically, the
そして、電子管楽器100は、演奏者が通常のサクソフォンを演奏するときと同様の操作を行うことで演奏が行えるようになっているが、初心者に熟練者同様の演奏操作を求めるのは、難しいことから、本実施形態の電子管楽器100では、主に演奏者の息吹込操作だけで演奏が行えるものとしており、以下、具体的に説明する。
The
先に少し触れたが、ROM6には、いわゆるMIDIデータと呼ばれる曲データが記憶されている。
曲データには、サクソフォンである電子管楽器100(以下、本楽器ともいう。)以外の楽器による伴奏等を本楽器の発音部2を利用して発音させるためのデータや本楽器を自動演奏させるためのデータ等が含まれている。
As mentioned earlier, the
The song data includes data for making accompaniment by an instrument other than the saxophone electronic wind instrument 100 (hereinafter, also referred to as this instrument) sound using the sounding
したがって、この曲データを利用することで、全てを演奏者が演奏するのではなく、一部の演奏部分を自動演奏として、演奏者のレベルに応じた練習ができるようにしており、図4から図6に示すフローチャートを参照しながら具体的に説明する。 Therefore, by using this song data, it is possible for the performer to practice according to the level of the performer by setting a part of the performance part as an automatic performance instead of playing the whole performance. A specific description will be given with reference to the flowchart shown in FIG.
図4は処理のメインルーチンを示すフローチャートであり、図5は図4のメインルーチン中のサブルーチンである表現練習のフローチャートであり、図6は図5の表現練習中のサブルーチンであるコンティニュアスデータのデータ値の補正データ値を作成する部分のフローチャートである。 FIG. 4 is a flowchart showing the main routine of processing, FIG. 5 is a flowchart of expression practice which is a subroutine in the main routine of FIG. 4, and FIG. 6 is continuous data which is a subroutine in the expression practice of FIG. It is a flowchart of the part which creates the correction data value of the data value of.
演奏者が「表現練習」、「ビブラート演奏お任せ」、「グロウル演奏お任せ」、「サブトーン演奏お任せ」及び「その他処理(例えば、伴奏だけお任せ)」等の演奏モードを選択し、どの曲を演奏するのかを設定して、演奏開始の操作が行われると、図4に示すメインルーチンの処理が開始される。 The performer selects a performance mode such as "Expression practice", "Vibrato performance", "Growl performance", "Subtone performance" and "Other processing (for example, only accompaniment)". When the performance start operation is performed after setting whether to play the song, the processing of the main routine shown in FIG. 4 is started.
ステップS1では、CPU5は、演奏者が「表現練習」を選択したか否かを判定する。
そして、CPU5は、演奏者が「表現練習」を選択したと判定(ステップS1:Yes)すると、ステップS11に進み、CPU5は、後述する図5に示すフローチャートの処理を実行する。
一方、CPU5は、演奏者が「表現練習」を選択していないと判定(ステップS1:No)すると、ステップS2に進む。
In step S1, the
Then, when the
On the other hand, when the
ステップS2では、CPU5は、演奏者が「ビブラート演奏お任せ」を選択したのか否かを判定し、「ビブラート演奏お任せ」を選択したと判定(ステップS2:Yes)するとステップS21に進み、「表現練習」を選択していないと判定(ステップS2:No)するとステップS3に進む。
In step S2, the
ステップS21では、CPU5は、リップセンサ13のリッププレッシャセンサ部13aとしての機能を無効に設定し、ステップS22に進む。
つまり、CPU5は、ステップS21の処理として、リッププレッシャを発音処理に反映させない設定を行い、ステップS22に進む。
In step S21, the
That is, the
ステップS22では、CPU5は「ビブラート演奏お任せ」に対応した処理を実行し、その処理が終了、つまり、演奏が終了すると全体の処理が終了する。
具体的には、CPU5は、演奏者が選曲した曲の曲データに基づいて、本楽器以外の他の楽器のパート(例えば、伴奏等)を自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じた音を発音することになる。
In step S22, the
Specifically, the
なお、ステップS22では、CPU5は、上述の自動演奏が行えるように、選曲された曲の曲データ(MIDIデータ)をROM6から、例えば、ワークエリアとして機能するRAM7に読み込み取得する処理も実行する。
ただし、曲データ(MIDIデータ)は、例えば、USBメモリから取得、外部端末(電子管楽器100以外の機器)から取得、及び、ネット経由で取得する等、取得先はROM6に限定される必要はないので、必ずしも、あらかじめROM6に曲データが記憶されている必要はない。
In step S22, the
However, the acquisition destination need not be limited to
また、CPU5は、本楽器の演奏パートのうち、ビブラートに対応する部分の曲データに基づいて、自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じたビブラートの音を発音することになる。
なお、ビブラートに対応する部分の処理については、後ほど図5及び図6を参照して説明するブレス値を反映させる補正を行った処理になっていてもよい。
Further, the
The processing of the portion corresponding to the vibrato may be a processing in which a correction that reflects the breath value described later with reference to FIGS. 5 and 6 is performed.
さらに、CPU5は、本楽器の演奏パートのうち、ビブラートに対応する部分以外について、演奏者の操作(演奏)に従った処理を音源部8に行わせ、発音部2は音源部8からの入力によって演奏者の操作に従った音を発音することになる。
Further, the
ステップS3では、CPU5は、演奏者が「グロウル演奏お任せ」を選択したのか否かを判定し、「グロウル演奏お任せ」を選択したと判定(ステップS3:Yes)するとステップS31に進み、「グロウル演奏お任せ」を選択していないと判定(ステップS3:No)するとステップS4に進む。
In step S3, the
ステップS31では、CPU5は、ボイスセンサ11を無効に設定し、ステップS32に進む。
つまり、CPU5は、ステップS31の処理として、演奏者のボイスを発音処理に反映させない設定を行い、ステップS32に進む。
In step S31, the
That is, the
ステップS32では、CPU5は「グロウル演奏お任せ」に対応した処理を実行し、その処理が終了、つまり、演奏が終了すると全体の処理が終了する。
In step S32, the
具体的には、CPU5は、演奏者が選曲した曲の曲データに基づいて、本楽器以外の他の楽器のパート(例えば、伴奏等)を自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じた音を発音することになる。
なお、ステップS32では、CPU5は、上述の自動演奏が行えるように、選曲された曲の曲データ(MIDIデータ)をROM6から、例えば、ワークエリアとして機能するRAM7に読み込み取得する処理も実行する。
Specifically, the
In step S32, the
また、CPU5は、本楽器の演奏パートのうち、グロウルに対応する部分について曲データに基づいて、自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じたグロウルの音を発音することになる。
なお、グロウルに対応する部分の処理については、後ほど図5及び図6を参照して説明するブレス値を反映させる補正を行った処理になっていてもよい。
Further, the
It should be noted that the processing of the portion corresponding to the growl may be a processing in which a correction that reflects the breath value described later with reference to FIGS. 5 and 6 is performed.
さらに、CPU5は、本楽器の演奏パートのうち、グロウルに対応する部分以外について、演奏者の操作(演奏)に従った処理を音源部8に行わせ、発音部2は音源部8からの入力によって演奏者の操作に従った音を発音することになる。
Further, the
ステップS4では、CPU5は、演奏者が「サブトーン演奏お任せ」を選択したのか否かを判定し、「サブトーン演奏お任せ」を選択したと判定(ステップS4:Yes)するとステップS41に進み、「サブトーン演奏お任せ」を選択していないと判定(ステップS4:No)するとステップS5に進む。
In step S4, the
ステップS41では、CPU5は、リップセンサ13のリップポジションセンサ部13bとしての機能を無効に設定し、ステップS42に進む。
つまり、CPU5は、ステップS41の処理として、リップポジションを発音処理に反映させない設定を行い、ステップS42に進む。
In step S41, the
That is, the
ステップS42では、CPU5は「サブトーン演奏お任せ」に対応した処理を実行し、その処理が終了、つまり、演奏が終了すると全体の処理が終了する。
In step S42, the
具体的には、CPU5は、演奏者が選曲した曲の曲データに基づいて、本楽器以外の他の楽器のパート(例えば、伴奏等)を自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じた音を発音することになる。
なお、ステップS42では、CPU5は、上述の自動演奏が行えるように、選曲された曲の曲データ(MIDIデータ)をROM6から、例えば、ワークエリアとして機能するRAM7に読み込み取得する処理も実行する。
Specifically, the
In step S42, the
また、CPU5は、本楽器の演奏パートのうち、サブトーンに対応する部分について曲データに基づいて、自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じたサブトーンの音を発音することになる。
なお、サブトーンに対応する部分の処理については、後ほど図5及び図6を参照して説明するブレス値を反映させる補正を行った処理になっていてもよい。
Further, the
It should be noted that the processing of the portion corresponding to the subtone may be a processing in which the correction that reflects the breath value described later with reference to FIGS. 5 and 6 is performed.
さらに、CPU5は、本楽器の演奏パートのうち、サブトーンに対応する部分以外について、演奏者の操作(演奏)に従った処理を音源部8に行わせ、発音部2は音源部8からの入力によって演奏者の操作に従った音を発音することになる。
Further, the
ステップS5では、CPU5は、その他の処理を実行し、その処理が終了すると全体の処理が終了する。
その他の処理としては、例えば、本楽器の演奏パート以外は自動演奏させるといった処理等が考えられる。
In step S5, the
As other processing, for example, processing such as automatic performance of parts other than the performance part of the musical instrument can be considered.
この場合、CPU5は、演奏者が選曲した曲の曲データに基づいて、本楽器以外の他の楽器のパート(例えば、伴奏等)を自動演奏させる処理を音源部8に行わせ、発音部2は音源部8からの入力によって自動演奏に応じた音を発音することになる。
なお、ステップS5では、CPU5は、上述の自動演奏が行えるように、選曲された曲の曲データ(MIDIデータ)をROM6から、例えば、ワークエリアとして機能するRAM7に読み込み取得する処理も実行する。
In this case, the
In step S5, the
また、CPU5は、演奏者の操作(演奏)に従った処理を音源部8に行わせ、発音部2は音源部8からの入力によって演奏者の操作に従った音を発音することになる。
Further, the
一方、ステップS1がYesの判定となり、ステップS11に進むと、CPU5は、図5の表現練習のフローチャートの処理を実行することになる。
本実施形態の表現練習は、演奏者の息吹込操作によって演奏することができる演奏モードとしており、演奏を行うにあたって、操作子1による演奏者の操作を不要とし、操作子1で操作する必要のある部分は、CPU5が曲データ(MIDIデータ)に従って処理を音源部8に行わせるようになっている。
On the other hand, when the determination in step S1 is Yes and the process proceeds to step S11, the
The expression practice of the present embodiment is a performance mode in which the performer can perform by breathing in, and the performer does not need to operate the
また、表現練習では、演奏者が初心者である場合に対応して、曲データ(MIDIデータ)から取得した演奏データ値(以下、単にデータ値ともいう。)に基づいて、息吹込操作に伴う演奏(例えば、ビブラート演奏、グロウル演奏及びサブトーン演奏)における奏法にしたがった自動演奏するものとしている。
ただし、完全な自動演奏ではなく、演奏者の息吹込操作の状態(ブレスセンサ10から取得したブレス値)に応じて、CPU5が曲データ(MIDIデータ)から取得した基本ブレス値とブレスセンサ10から取得したブレス値との比較等を行い、それら基本ブレス値とブレス値とに基づいて、演奏者の息吹込操作(息遣い)による表現力がビブラート演奏、グロウル演奏及びサブトーン演奏等に反映されるように、演奏データ値(データ値)を補正し、その補正した補正データ値に応じた音波形データを音源部8に出力する出力処理を行うものとしており、以下、具体的に説明する。
Further, in the expression practice, the performance accompanying the breathing operation is performed based on the performance data value (hereinafter, also simply referred to as the data value) acquired from the song data (MIDI data) corresponding to the case where the performer is a beginner. (For example, vibrato performance, growl performance, and subtone performance) are automatically performed according to the playing method.
However, it is not a completely automatic performance, but from the basic breath value and the
ステップT1では、CPU5は、演奏者によって選曲された曲データ(MIDIデータ)をROM6から、例えば、ワークエリアとして機能するRAM7に読み込み取得する処理を実行する。
In step T1, the
ステップT2では、CPU5は、取得した曲データ(MIDIデータ)に基づいて、本楽器以外の他の楽器のパート(例えば、伴奏等)を自動演奏させる処理を音源部8に行わせ、発音部2から他の楽器等に対応した伴奏の発音を開始させる。
なお、この伴奏に関する部分については、以下のフローに記載していないが、以下で説明する本楽器の演奏の進行に応じて、それに対応した伴奏が発音される。
In step T2, the
The part related to this accompaniment is not described in the following flow, but the accompaniment corresponding to it is pronounced according to the progress of the performance of the instrument described below.
ステップT3では、CPU5は、ブレスセンサ10から取得するブレス値があらかじめ与えられている閾値以上であるのか否かを判定する。
そして、ブレス値が閾値以上であれば、演奏者が演奏を開始したものとしてステップT4の処理に進み、ブレス値が閾値未満であれば、演奏開始前であるものとしてステップT10に進む。
In step T3, the
If the breath value is equal to or greater than the threshold value, the process proceeds to step T4 assuming that the performer has started playing, and if the breath value is less than the threshold value, the process proceeds to step T10 assuming that the performer has started playing.
後述するが、ステップT10は、演奏を終了する終了指示又は曲データが終了かを判定し、そのどちらでもない場合(ステップT10:No)、再び、ステップT3に進むことになる。 As will be described later, step T10 determines whether the end instruction to end the performance or the song data is finished, and if neither of them (step T10: No), the process proceeds to step T3 again.
したがって、ステップT2からステップT3に進み、ステップT3の判定がNoとなる場合には、演奏者の終了指示の操作又は演奏開始に伴う演奏者のマウスピース部3への息の吹き込み開始のいずれかが起きるのを待つ、監視ループに入ることになる。
Therefore, if the process proceeds from step T2 to step T3 and the determination in step T3 is No, either the performer's end instruction operation or the start of breathing into the performer's
ステップT4では、ブレス値及び曲データ(MIDI)のノートオンデータに基づき、CPU5は、対応する処理を音源部8に行わせ、音源部8からの入力によって本楽器の発音を発音部2に発音させる。
そして、このノートオンによる発音が行われると、続いて、このノートオンから次のノートオンまでの間の連続的に時間変化する制御データである曲データ(MIDIデータ)のコンティニュアスデータに基づいて発音が継続されることになるが、本実施形態では、以下で説明するようにステップT5からステップT8を繰り返すループ処理とすることで、コンティニュアスデータのデータ値を、逐次、ブレス値に基づいて補正し、演奏者の息吹込操作の状態(ブレスセンサ10から取得したブレス値)に応じた表現力を反映させるようにしている。
In step T4, based on the breath value and the note-on data of the song data (MIDI), the
Then, when the sound is generated by this note-on, it is subsequently based on the continuous data of the song data (MIDI data), which is the control data that continuously changes with time from this note-on to the next note-on. However, in the present embodiment, the data value of the continuous data is sequentially converted to the breath value by performing the loop processing in which steps T5 to T8 are repeated as described below. The correction is made based on the above, and the expressive power according to the state of the player's breathing operation (breath value acquired from the breath sensor 10) is reflected.
ステップT5では、CPU5は図6のフローチャートに示す処理を実行することになる。
In step T5, the
ステップU1では、CPU5は、ブレスセンサ10から取得したブレス値が曲データに設けられている基本ブレス値以上であるか否かを判定し、ブレス値が基本ブレス値以上と判定(ステップU1:Yes)するとステップU2に進み、ブレス値が基本ブレス値未満と判定(ステップU1:No)するとステップU3に進む。
In step U1, the
ステップU2では、CPU5は、例えば、曲データのコンティニュアスデータの演奏データ値(データ値)がビブラート奏法にしたがったデータ値である場合、データ値に対してビブラートの深さを深くする補正値の算出を行う。
また、CPU5は、データ値がグロウル奏法にしたがったデータ値である場合、グロウル波形の合成比を大きくする補正値の算出を行う。
さらに、CPU5は、データ値がサブトーン奏法にしたがったデータ値である場合、サブトーン波形の合成比を大きくする補正値の算出を行う。
In step U2, for example, when the performance data value (data value) of the continuous data of the song data is a data value according to the vibrato playing method, the
Further, when the data value is a data value according to the growl playing method, the
Further, when the data value is a data value according to the subtone playing method, the
具体的には、ROM6等に変換テーブル又は補正値を算出するための関数が設けられており、基本ブレス値とブレス値とに基づき、CPU5は、変換テーブル又は関数に従って補正値を求める。
Specifically, the
例えば、CPU5は、基本ブレス値とブレス値との差分や基本ブレス値に対してブレス値が何%大きいかといった指標(以下、差分や%等で表される指標を単に「差」と記載する場合がある。)に基づき、曲データのコンティニュアスデータのデータ値に対してどの程度の補正を行うのかという補正値を変換テーブル又は関数に従って求める。
For example, the
本実施形態では、補正値を求めるための変換テーブル又は関数として、基本ブレス値とブレス値の差が小さいときには、少なめの補正値となるようにし、ある一定以上差が大きくなると一気に補正値が大きくなるようにしている。
つまり、曲データのデータ値に対する補正が、変換テーブル又は関数に基づく非線形な補正となるようにしている。
In the present embodiment, as a conversion table or function for obtaining the correction value, when the difference between the basic breath value and the breath value is small, the correction value is set to be small, and when the difference is larger than a certain level, the correction value is increased at once. I am trying to be.
That is, the correction for the data value of the song data is a non-linear correction based on the conversion table or the function.
これは、ある一定以上差がない領域で、ビブラート、グロウル及びサブトーンの変化が基本ブレス値とブレス値の差の増加に応じて同じ程度の増加量で線形的に増加するようにすると、楽音として違和感があるものとなるため、基本ブレス値とブレス値の差が小さいときには、少なめの補正値となるようにしている。
つまり、基本ブレス値とブレス値の差の増加に応じて補正値も増加させるが、その増加の傾斜を小さなものとしている。
This is a musical tone when the changes in vibrato, glow, and subtone increase linearly with the same amount of increase as the difference between the basic breath value and the breath value increases in a region where there is no difference above a certain level. When the difference between the basic breath value and the breath value is small, the correction value is set to be small because it makes the person feel uncomfortable.
That is, the correction value is also increased according to the increase in the difference between the basic breath value and the breath value, but the slope of the increase is made small.
一方、十分に大きなブレス値のとき(ある一定以上差があるとき)には、ビブラート、グロウル及びサブトーンも爆発するように発音されるほうが自然であるので、それに対応してある一定以上差が大きくなると一気に補正値が大きくなるようにしている。 On the other hand, when the breath value is sufficiently large (when there is a difference of a certain amount or more), it is more natural that the vibrato, glow, and subtone are also pronounced to explode, so the difference is larger than a certain amount correspondingly. In that case, the correction value is increased at once.
ステップU3では、CPU5は、例えば、曲データのコンティニュアスデータの演奏データ値(データ値)がビブラート奏法にしたがったデータ値である場合、ビブラートの深さを浅くする補正値の算出を行う。
また、CPU5は、データ値がグロウル奏法にしたがったデータ値である場合、グロウル波形の合成比を小さくする補正値の算出を行う。
さらに、CPU5は、データ値がサブトーン奏法にしたがったデータ値である場合、サブトーン波形の合成比を小さくする補正値の算出を行う。
In step U3, for example, when the performance data value (data value) of the continuous data of the song data is a data value according to the vibrato playing method, the
Further, when the data value is a data value according to the growl playing method, the
Further, when the data value is a data value according to the subtone playing method, the
具体的には、ステップU3で行われる補正値の算出も、CPU5は、ステップU2と同様に変換テーブル又は補正値を算出するための関数に従って行うものとしており、その理由は、ステップU2で説明したのと同様に、非線形な補正とすることで楽音として不自然なものとならないようにするためである。
Specifically, the calculation of the correction value performed in step U3 is also performed by the
ステップU4では、CPU5は、ステップU2又はステップU3で算出された補正値に基づいて、曲データのコンティニュアスデータのデータ値に対する補正を行った補正データ値を作成する。
In step U4, the
ビブラートであれば、曲データのビブラートに対応したデータ値(例えば、ベンドデータのデータ値又はモジュレーションデータのデータ値)を補正値に基づいて補正する。
つまり、CPU5は、ブレス値が基本ブレス値より大きい場合、ビブラートに対応したデータ値に対してビブラートの深さが深くなる補正を行った補正データ値を取得し、ブレス値が基本ブレス値未満の場合、ビブラートに対応したデータ値に対してビブラートの深さを浅くする補正を行った補正データ値を取得する。
In the case of vibrato, the data value corresponding to the vibrato of the song data (for example, the data value of bend data or the data value of modulation data) is corrected based on the correction value.
That is, when the breath value is larger than the basic breath value, the
なお、ブレス値が基本ブレス値と一致している場合には、補正データ値が曲データのビブラートに対応したデータ値そのものになるように補正値が設定される。
例えば、補正データ値が曲データのビブラートに対応したデータ値に補正値を乗算する場合には補正値が1となるようにすればよく、補正値を加算する場合には補正値が0となるようにすればよい。
If the breath value matches the basic breath value, the correction value is set so that the correction data value is the data value itself corresponding to the vibrato of the song data.
For example, when the correction data value is multiplied by the data value corresponding to the vibrato of the song data, the correction value may be set to 1, and when the correction value is added, the correction value is 0. You can do it.
グロウルであれば、曲データのグロウル波形の合成比に対応したデータ値を補正値に基づいて補正する。
つまり、CPU5は、ブレス値が基本ブレス値より大きい場合、グロウル波形の合成比に対応したデータ値に対して合成比を大きくする補正を行った補正データ値を取得し、ブレス値が基本ブレス値未満の場合、グロウル波形の合成比に対応したデータ値に対して合成比を小さくする補正を行った補正データ値を取得する。
なお、ブレス値が基本ブレス値と一致している場合には、ビブラートのときと同様に、補正データ値が曲データのグロウル波形の合成比に対応したデータ値そのものになるように補正値が設定される。
If it is a growl, the data value corresponding to the composite ratio of the growl waveform of the song data is corrected based on the correction value.
That is, when the breath value is larger than the basic breath value, the
If the breath value matches the basic breath value, the correction value is set so that the correction data value is the data value itself corresponding to the composite ratio of the glow waveform of the song data, as in the case of vibrato. Will be done.
サブトーンであれば、曲データのサブトーン波形の合成比に対応したデータ値を補正値に基づいて補正する。
つまり、CPU5は、ブレス値が基本ブレス値より大きい場合、サブトーン波形の合成比に対応したデータ値に対して合成比を大きくする補正を行った補正データ値を取得し、ブレス値が基本ブレス値未満の場合、サブトーン波形の合成比に対応したデータ値に対して合成比を小さくする補正を行った補正データ値を取得する。
なお、ブレス値が基本ブレス値と一致している場合には、ビブラートのときと同様に、補正データ値が曲データのサブトーン波形の合成比に対応したデータ値そのものになるように補正値が設定される。
If it is a subtone, the data value corresponding to the composition ratio of the subtone waveform of the song data is corrected based on the correction value.
That is, when the breath value is larger than the basic breath value, the
If the breath value matches the basic breath value, the correction value is set so that the correction data value is the data value itself corresponding to the composition ratio of the subtone waveform of the song data, as in the case of vibrato. Will be done.
そして、ステップU4で、上記のような補正データ値の作成が行われると、図6に示すフローチャートの処理が終了し、図5のフローチャートの処理に戻る。 Then, when the correction data value as described above is created in step U4, the processing of the flowchart shown in FIG. 6 is completed, and the process returns to the processing of the flowchart of FIG.
ステップT6では、CPU5は、補正データ値に基づく処理を音源部8に行わせ、音源部8からの入力によって補正データ値に基づく発音を発音部2に発音させる。
In step T6, the
なお、グロウル演奏のためのグロウル波形はボイスセンサ11で取得した演奏者のボイスに基づいて生成されるグロウル波形でもよく、曲データ(MIDIデータ)に持たせておいたデータ(指定された音高の音波形データに対してグロウルデータをミックスするミックス比を調整するデータ)に基づいて生成されるグロウル波形でもよい。
同様に、サブトーン波形も曲データ(MIDIデータ)に持たせておいたデータ(サブトーンの出力量を調整するデータ)に基づいて生成されるサブトーン波形でもよい。
The growl waveform for growl performance may be a growl waveform generated based on the voice of the performer acquired by the
Similarly, the subtone waveform may be a subtone waveform generated based on the data (data for adjusting the output amount of the subtone) stored in the music data (MIDI data).
上記のように、CPU5が、あらかじめ与えられる曲データ(MIDIデータ)の基本ブレス値とブレスセンサ10から取得するブレス値とに基づき、曲データ(MIDIデータ)のデータ値に対して補正を行った補正データ値を取得する補正データ値取得処理と、補正データ値に基づき、発音部2に発音させる発音処理と、を行うことで、演奏者の息吹込操作(息遣い)に伴う表現力が反映された演奏になる。
As described above, the
ステップT7では、CPU5は、曲データ(MIDIデータ)のノートオンのタイミング(操作子1を操作して音を変えるタイミング)か否かを判定し、ノートオンのタイミングであると判定(ステップT7:Yes)するとステップT4に戻り、先ほど説明したステップT4の処理が再び実行されることになる。
一方、CPU5がノートオンのタイミングでないと判定(ステップT7:No)すると、ステップT8に進むことになる。
In step T7, the
On the other hand, if it is determined that the
ステップT8では、CPU5は、ブレス値が閾値未満になったか否かを判定し、ブレス値が閾値未満になっていないと判定(ステップT8:No)するとステップT5に戻り、先ほど説明したステップT5の処理が再び実行される。
In step T8, the
つまり、コンティニュアスデータのデータ値を補正する処理が再び行われるため、連続的に時間変化するように発音される音自体が、演奏者の息吹込操作に応じた変化を伴ったものとなり、演奏者の表現力が反映されたものとなる。 In other words, since the process of correcting the data value of the continuous data is performed again, the sound itself, which is pronounced so as to continuously change with time, is accompanied by a change according to the breathing operation of the performer. It reflects the expressiveness of the performer.
一方、CPU5は、ブレス値が閾値未満になっていると判定(ステップT8:Yes)するとステップT9に進む。
On the other hand, when the
ステップT9では、マウスピース部3への演奏者の息の吹き込みがなくなったことに伴う発音の停止を行うために、CPU5は、それに対応する処理を音源部8に行わせ、音源部8からの入力によって本楽器の発音を発音部2に消音させる。
In step T9, in order to stop the sounding due to the player's breath not being blown into the
ステップT10では、先に触れたように、CPU5は、演奏者による演奏終了の終了指示又は曲データ終了かを判定し、終了指示又は曲データ終了のいずれでもないと判定(ステップT10:No)すると、ステップT8でブレス値が閾値未満になったのは息継ぎのタイミングであったことによるため、再び、ステップT3に戻り、演奏者による次の息の吹き込み開始を監視する監視ループの状態になる。
In step T10, as mentioned earlier, the
一方、CPU5は、終了指示又は曲データ終了のいずれかと判定(ステップT10:Yes)と、図4のフローチャートの処理に戻り、全体の処理が終了することになる。
On the other hand, the
以上のように、本実施形態の電子管楽器100は、演奏者の息吹込操作(息遣い)による表現力の練習において、一部の演奏(例えば、ビブラート演奏、グロウル演奏及びサブトーン演奏)が自動演奏とされていても、完全な自動演奏ではなく、演奏者の息吹込操作(息遣い)による表現力を反映したものとなっているため、表現力を習得するのに適したものになっている。
As described above, in the
また、そのように演奏者の表現力が反映されるため、吹き方次第で単なるお手本どおりの演奏ではなく、個性的な憧れのミュージシャンのような演奏も可能であり、演奏者にとって色々な楽しみ方ができるものになっている。 In addition, because the expressive power of the performer is reflected in this way, depending on how it is played, it is possible to perform not just as a model, but as a unique and longing musician, and there are various ways for the performer to enjoy it. It has become something that can be done.
以上、具体的な実施形態に基づき本発明の電子管楽器100について説明してきたが、本発明は上記実施形態に限定されるものではなく、本発明の技術的範囲には、本発明の目的が達成される範囲での様々な変形や改良などが含まれるものであり、そのことは当業者にとって特許請求の範囲の記載から明らかである。
Although the
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
息吹込操作に応じたブレス値を検出するブレスセンサと、
制御部と、
を備え、
前記制御部は、
曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理、
を実行することを特徴とする電子管楽器。
<請求項2>
前記制御部は、
前記演奏データ値がビブラート奏法にしたがった演奏データ値である場合、前記ブレス値が前記基本ブレス値より大きい場合に前記演奏データ値に対してビブラートの深さを深くする補正を行った前記補正データ値を取得し、前記ブレス値が前記基本ブレス値未満の場合に前記演奏データ値に対してビブラートの深さを浅くする補正を行った前記補正データ値を取得する補正データ値取得処理、
を実行し、
前記出力処理は、前記補正データ値取得処理により取得された前記補正データ値に応じた前記音波形データを出力することを特徴とする請求項1に記載の電子管楽器。
<請求項3>
前記補正データ値取得処理は、
前記演奏データ値がグロウル奏法にしたがった演奏データ値である場合、前記ブレス値が前記基本ブレス値より大きい場合に前記演奏データ値に対してグロウル波形の合成比を大きくする補正を行った前記補正データ値を取得し、前記ブレス値が前記基本ブレス値未満の場合に前記演奏データ値に対してグロウル波形の合成比を小さくする補正を行った前記補正データ値を取得することを特徴とする請求項2に記載の電子管楽器。
<請求項4>
前記補正データ値取得処理は、
前記演奏データ値がサブトーン奏法にしたがった演奏データ値である場合、前記ブレス値が前記基本ブレス値より大きい場合に前記演奏データ値に対してサブトーン波形の合成比を大きくする補正を行った前記補正データ値を取得し、前記ブレス値が前記基本ブレス値未満の場合に前記演奏データ値に対してサブトーン波形の合成比を小さくする補正を行った前記補正データ値を取得する請求項2又は請求項3に記載の電子管楽器。
<請求項5>
前記演奏データ値に対する前記補正は、変換テーブル又は関数に基づく非線形な補正であることを特徴とする請求項1から請求項4のいずれか1項に記載の電子管楽器。
<請求項6>
息吹込操作に応じたブレス値を検出するブレスセンサを備えた電子管楽器の制御方法であって、
曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理を実行する制御方法。
<請求項7>
息吹込操作に応じたブレス値を検出するブレスセンサと制御部を備えた電子管楽器用のプログラムであって、
前記制御部に対して、曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理を少なくとも実行させるプログラム。
The inventions described in the claims originally attached to the application of this application are added below. The claims in the appendix are as specified in the claims originally attached to the application for this application.
<Claim 1>
A breath sensor that detects the breath value according to the breathing operation, and
Control unit and
With
The control unit
Based on the basic breath value acquired from the song data and the breath value acquired from the breath sensor, the performance data value according to the playing style in the performance accompanying the breathing operation, and is the performance data acquired from the song data. Output processing that outputs sonic data according to the corrected data value after correcting the value,
An electronic wind instrument characterized by performing.
<Claim 2>
The control unit
When the performance data value is a performance data value according to the vibrato playing method, and when the breath value is larger than the basic breath value, the correction data is corrected to deepen the vibrato depth with respect to the performance data value. A correction data value acquisition process for acquiring the correction data value obtained by acquiring the value and performing correction to make the vibrato depth shallower with respect to the performance data value when the breath value is less than the basic breath value.
And run
The electronic wind instrument according to
<Claim 3>
The correction data value acquisition process
When the performance data value is a performance data value according to the growl playing method, and when the breath value is larger than the basic breath value, the correction is performed to increase the composite ratio of the growl waveform with respect to the performance data value. A claim characterized in that a data value is acquired, and when the breath value is less than the basic breath value, the corrected data value is corrected by reducing the composite ratio of the growl waveform with respect to the performance data value.
<Claim 4>
The correction data value acquisition process
When the performance data value is a performance data value according to the subtone playing method, and when the breath value is larger than the basic breath value, the correction is performed to increase the composition ratio of the subtone waveform with respect to the performance data value.
<Claim 5>
The electronic wind instrument according to any one of
<Claim 6>
It is a control method of an electronic wind instrument equipped with a breath sensor that detects the breath value according to the breathing operation.
Based on the basic breath value acquired from the song data and the breath value acquired from the breath sensor, the performance data value according to the playing style in the performance accompanying the breathing operation, and is the performance data acquired from the song data. A control method that executes output processing that outputs sonic data according to the corrected data value.
<Claim 7>
It is a program for electronic wind instruments equipped with a breath sensor and a control unit that detect the breath value according to the breathing operation.
Based on the basic breath value acquired from the song data and the breath value acquired from the breath sensor with respect to the control unit, the performance data value according to the playing method in the performance accompanying the breathing operation is described above. A program that at least executes output processing that outputs sound wave data according to the corrected data value that corrects the performance data value acquired from the song data.
100 電子管楽器
100a 管体部
1 操作子
2 発音部
3 マウスピース部
3a マウスピース本体
3aa 開口部
3b 固定金具
3c リード部
4 基板
5 CPU(制御部)
6 ROM
7 RAM
8 音源部
10 ブレスセンサ
11 ボイスセンサ
12 タンセンサ
12s 検出部
13 リッププセンサ部
13a リッププレッシャセンサ部
13b リップポジションセンサ部
13s 検出部
14 表示部
15 バス
100
6 ROM
7 RAM
8
Claims (7)
制御部と、
を備え、
前記制御部は、
曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理、
を実行することを特徴とする電子管楽器。 A breath sensor that detects the breath value according to the breathing operation, and
Control unit and
With
The control unit
Based on the basic breath value acquired from the song data and the breath value acquired from the breath sensor, the performance data value according to the playing style in the performance accompanying the breathing operation, and is the performance data acquired from the song data. Output processing that outputs sonic data according to the corrected data value after correcting the value,
An electronic wind instrument characterized by performing.
前記演奏データ値がビブラート奏法にしたがった演奏データ値である場合、前記ブレス値が前記基本ブレス値より大きい場合に前記演奏データ値に対してビブラートの深さを深くする補正を行った前記補正データ値を取得し、前記ブレス値が前記基本ブレス値未満の場合に前記演奏データ値に対してビブラートの深さを浅くする補正を行った前記補正データ値を取得する補正データ値取得処理、
を実行し、
前記出力処理は、前記補正データ値取得処理により取得された前記補正データ値に応じた前記音波形データを出力することを特徴とする請求項1に記載の電子管楽器。 The control unit
When the performance data value is a performance data value according to the vibrato playing method, and when the breath value is larger than the basic breath value, the correction data is corrected to deepen the vibrato depth with respect to the performance data value. A correction data value acquisition process for acquiring the correction data value obtained by acquiring the value and performing correction to make the vibrato depth shallower with respect to the performance data value when the breath value is less than the basic breath value.
And run
The electronic wind instrument according to claim 1, wherein the output process outputs the sound wave shape data corresponding to the corrected data value acquired by the corrected data value acquisition process.
前記演奏データ値がグロウル奏法にしたがった演奏データ値である場合、前記ブレス値が前記基本ブレス値より大きい場合に前記演奏データ値に対してグロウル波形の合成比を大きくする補正を行った前記補正データ値を取得し、前記ブレス値が前記基本ブレス値未満の場合に前記演奏データ値に対してグロウル波形の合成比を小さくする補正を行った前記補正データ値を取得することを特徴とする請求項2に記載の電子管楽器。 The correction data value acquisition process
When the performance data value is a performance data value according to the growl playing method, and when the breath value is larger than the basic breath value, the correction is performed to increase the composite ratio of the growl waveform with respect to the performance data value. A claim characterized in that a data value is acquired, and when the breath value is less than the basic breath value, the corrected data value is corrected by reducing the composite ratio of the growl waveform with respect to the performance data value. Item 2. The electronic wind instrument according to Item 2.
前記演奏データ値がサブトーン奏法にしたがった演奏データ値である場合、前記ブレス値が前記基本ブレス値より大きい場合に前記演奏データ値に対してサブトーン波形の合成比を大きくする補正を行った前記補正データ値を取得し、前記ブレス値が前記基本ブレス値未満の場合に前記演奏データ値に対してサブトーン波形の合成比を小さくする補正を行った前記補正データ値を取得する請求項2又は請求項3に記載の電子管楽器。 The correction data value acquisition process
When the performance data value is a performance data value according to the subtone playing method, and when the breath value is larger than the basic breath value, the correction is performed to increase the composition ratio of the subtone waveform with respect to the performance data value. Claim 2 or claim 2 or claim, which acquires the data value, and when the breath value is less than the basic breath value, corrects the performance data value to reduce the composition ratio of the subtone waveform. The electronic wind instrument according to 3.
曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理を実行する制御方法。 It is a control method of an electronic wind instrument equipped with a breath sensor that detects the breath value according to the breathing operation.
Based on the basic breath value acquired from the song data and the breath value acquired from the breath sensor, the performance data value according to the playing style in the performance accompanying the breathing operation, and is the performance data acquired from the song data. A control method that executes output processing that outputs sonic data according to the corrected data value.
前記制御部に対して、曲データから取得した基本ブレス値と、前記ブレスセンサから取得した前記ブレス値とに基づいて、息吹込操作に伴う演奏における奏法にしたがった演奏データ値であって、前記曲データから取得した演奏データ値を補正した補正データ値に応じた音波形データを出力する出力処理を少なくとも実行させるプログラム。 It is a program for electronic wind instruments equipped with a breath sensor and a control unit that detect the breath value according to the breathing operation.
Based on the basic breath value acquired from the song data and the breath value acquired from the breath sensor with respect to the control unit, the performance data value according to the playing method in the performance accompanying the breathing operation is described above. A program that at least executes output processing that outputs sound wave data according to the corrected data value that corrects the performance data value acquired from the song data.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017050121A JP6816581B2 (en) | 2017-03-15 | 2017-03-15 | Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments |
US15/919,899 US10360884B2 (en) | 2017-03-15 | 2018-03-13 | Electronic wind instrument, method of controlling electronic wind instrument, and storage medium storing program for electronic wind instrument |
CN201810213658.9A CN108630176B (en) | 2017-03-15 | 2018-03-15 | Electronic wind instrument, control method thereof, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017050121A JP6816581B2 (en) | 2017-03-15 | 2017-03-15 | Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018155797A JP2018155797A (en) | 2018-10-04 |
JP6816581B2 true JP6816581B2 (en) | 2021-01-20 |
Family
ID=63717294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017050121A Active JP6816581B2 (en) | 2017-03-15 | 2017-03-15 | Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6816581B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022177297A (en) * | 2017-03-15 | 2022-11-30 | カシオ計算機株式会社 | Electronic wind instrument, control method of electronic wind instrument, and program for electronic wind instrument |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2537195B2 (en) * | 1986-05-12 | 1996-09-25 | カナ−ス・デ−タ−株式会社 | Electronic musical instrument |
JP3912238B2 (en) * | 2002-09-18 | 2007-05-09 | カシオ計算機株式会社 | Performance guide data generation device and program |
JP4433065B2 (en) * | 2003-07-30 | 2010-03-17 | ヤマハ株式会社 | Musical instrument |
US7723605B2 (en) * | 2006-03-28 | 2010-05-25 | Bruce Gremo | Flute controller driven dynamic synthesis system |
-
2017
- 2017-03-15 JP JP2017050121A patent/JP6816581B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022177297A (en) * | 2017-03-15 | 2022-11-30 | カシオ計算機株式会社 | Electronic wind instrument, control method of electronic wind instrument, and program for electronic wind instrument |
JP7347619B2 (en) | 2017-03-15 | 2023-09-20 | カシオ計算機株式会社 | Electronic wind instrument, control method for the electronic wind instrument, and program for the electronic wind instrument |
Also Published As
Publication number | Publication date |
---|---|
JP2018155797A (en) | 2018-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108630176B (en) | Electronic wind instrument, control method thereof, and recording medium | |
US10170091B1 (en) | Electronic wind instrument, method of controlling the electronic wind instrument, and computer readable recording medium with a program for controlling the electronic wind instrument | |
JPH08305356A (en) | Musical amusement system | |
JP6705272B2 (en) | Sound control device, sound control method, and program | |
JP6728754B2 (en) | Pronunciation device, pronunciation method and pronunciation program | |
JP7035697B2 (en) | Singing practice device, singing practice method, and program | |
JP7192203B2 (en) | Electronic wind instrument, control method for the electronic wind instrument, and program for the electronic wind instrument | |
JP6728843B2 (en) | Electronic musical instrument, musical tone generating device, musical tone generating method and program | |
JP6930144B2 (en) | Electronic musical instruments, musical tone generation methods and programs | |
JP6816581B2 (en) | Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments | |
JP7190284B2 (en) | Harmony generator and its program | |
JP2021051106A (en) | Electronic wind instrument, control method of electronic wind instrument and program | |
WO2023058173A1 (en) | Sound control device, control method for same, electronic instrument, program | |
JP7347619B2 (en) | Electronic wind instrument, control method for the electronic wind instrument, and program for the electronic wind instrument | |
WO2005081222A1 (en) | Device for judging music sound of natural musical instrument played according to a performance instruction, music sound judgment program, and medium containing the program | |
JP6801533B2 (en) | Electronic wind instruments, control methods for the electronic wind instruments, and programs for the electronic wind instruments | |
JP6809608B2 (en) | Singing sound generator and method, program | |
JP3953064B2 (en) | Musical amusement system | |
JP4069892B2 (en) | Musical amusement system | |
WO2023175844A1 (en) | Electronic wind instrument, and method for controlling electronic wind instrument | |
JP5560574B2 (en) | Electronic musical instruments and automatic performance programs | |
JP4069891B2 (en) | Musical amusement system | |
JP4069889B2 (en) | Musical amusement system | |
JPWO2022190502A5 (en) | ||
JP4069774B2 (en) | Performance learning device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6816581 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |