JP7192203B2 - 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム - Google Patents

電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム Download PDF

Info

Publication number
JP7192203B2
JP7192203B2 JP2017186499A JP2017186499A JP7192203B2 JP 7192203 B2 JP7192203 B2 JP 7192203B2 JP 2017186499 A JP2017186499 A JP 2017186499A JP 2017186499 A JP2017186499 A JP 2017186499A JP 7192203 B2 JP7192203 B2 JP 7192203B2
Authority
JP
Japan
Prior art keywords
breath
data
performance
value
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017186499A
Other languages
English (en)
Other versions
JP2018156057A (ja
Inventor
広子 奥田
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to US15/919,899 priority Critical patent/US10360884B2/en
Priority to CN201810213658.9A priority patent/CN108630176B/zh
Publication of JP2018156057A publication Critical patent/JP2018156057A/ja
Priority to JP2022159186A priority patent/JP7347619B2/ja
Application granted granted Critical
Publication of JP7192203B2 publication Critical patent/JP7192203B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラムに関する。
従来、演奏者の口によって発生される信号を入力するための口入力部と、メロディ音に適した伴奏音を表す第1演奏データを記憶する記憶部と、前記口入力部から入力された信号のレベルを検出し、同検出したレベルが所定レベル以上であるときトリガ信号を出力するレベル検出部と、前記レベル検出部から出力されたトリガ信号に基づき、前記記憶部から前記第1演奏データを読み出す読出し処理部と、前記読出し処理部によって読み出された第1演奏データに基づき、前記伴奏音を生成する第1楽音生成部と、を備えたことを特徴とする楽器が知られている(特許文献1参照)。
そして、特許文献1には、上記のような楽器であれば、メロディ音に適した伴奏音で演奏できるとともに、口によって発生されるピッチ情報が誤っていても、口入力部に所定レベル以上の信号を入力する限り、演奏の進行は止まらずに進行し、初心者でも、練習に飽きてしまうことなく、練習を続けることができるとともに、演奏の進行が止まらないことにより、他の者と同時に演奏練習する場合に好適であることが記載されている。
特開2008-152297号公報
ところで、管楽器では、演奏者の息遣いと演奏キーの操作によって演奏を行うことになるが、初心者が練習する上では、例えば、息遣いだけの練習に集中した練習ができることが好ましいと考えられ、依然として、電子管楽器の練習モードには改善の余地がある。
そして、そのような管楽器ならではの息遣いの操作を個別に集中して練習できることによって、効率的に演奏能力を向上させることができる。
本発明は、このような事情に鑑みなされたものであり、効率的に演奏能力を向上させることができる電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラムを提供することを目的とする。
上記目的を達成するために、本発明の一実施態様である電子管楽器は、音高を指定するための複数の演奏キーと、息吹込操作のブレス値を検出するブレスセンサと、基本ブレス値及び演奏における奏法に従った演奏データ値を含む曲データを記憶している記憶部と、前記演奏キーの操作の有無にかかわらず、前記基本ブレス値と前記ブレスセンサにより検出される前記ブレス値との差に基づいて前記演奏データ値を補正し、補正された補正データ値に基づいて生成された第1音波形データを出力する制御部と、を備え、前記制御部は、前記息吹込操作が検出されている場合に、少なくとも1つの前記演奏キーの操作の検出又は非検出にかかわらず、前記曲データに基づく前記第1音波形データを出力する第1モードと、前記息吹込操作及び前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作に基づいて生成された第2音波形データを出力する第2モードと、を選択的に切り換える。
本発明によれば、効率的に演奏能力を向上させることができる電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラムを提供することができる。
本発明に係る実施形態の電子管楽器を示す図であり、(a)は電子管楽器の正面図であり、(b)は電子管楽器の側面図である。 本発明に係る実施形態の電子管楽器のブロック図である。 本発明に係る実施形態のマウスピース部の断面図である。 練習モードの処理のメインルーチンを示すフローチャートである。 図4のメインルーチン中のサブルーチンである息遣い練習モード(第2モード)のフローチャートである。 第2モードの変形例のサブルーチンを示すフローチャートである。 図6のサブルーチンであるコンティニュアスデータのデータ値の補正データ値を作成する部分のフローチャートである。 演奏キー練習モード(第4モード)を加えた練習モードの処理のメインルーチンを示すフローチャートである。 図8のメインルーチン中のサブルーチンである演奏キー練習モード(第4モード)のフローチャートである。
以下、添付図面を参照して、本発明に係る実施形態を説明する。
図1は本発明の実施形態に係る電子管楽器100を示す図であり、図1(a)は電子管楽器100の正面図であり、図1(b)は電子管楽器100の側面図であり、図2は電子管楽器100のブロック図であり、図3はマウスピース部3の断面図である。
なお、図1(a)では、電子管楽器100の内部がわかるように管体部100aの一部を切り欠いた図示にしている。
本実施形態では、電子管楽器100がサクソフォンである場合を例にして説明を行うが、本発明の電子管楽器100は、サクソフォン以外の電子管楽器(例えば、クラリネット等)であってもよい。
電子管楽器100は、図1に示すように、サクソフォンの形状に形成された管体部100aと、管体部100aの外面に配置された複数の演奏キー1Aを含む操作子1と、管体部100aの先端部側に設けられた発音部2と、管体部100aの基端部側に設けられたマウスピース部3と、を備えている。
また、図1(a)に示すように、電子管楽器100は、管体部100aの基端部側の内部に設けられた基板4を備えており、その基板4上には、CPU5(Central Processing Unit)、ROM6(Read Only Memory)、RAM7(Random Access Memory)及び音源部8等が設けられている。
さらに、図3に示すように、マウスピース部3は、マウスピース本体3aと、マウスピース本体3aに設けられた固定金具3bと、マウスピース本体3aに固定金具3bで取り付けられたリード部3cと、マウスピース本体3aの先端側に設けられたブレスセンサ10と、マウスピース本体3a内に設けられたボイスセンサ11と、リード部3cに設けられたタンセンサ12と、リード部3cに設けられたリップセンサ13と、を備えている。
なお、リップセンサ13は、後述するようにリッププレッシャセンサ部13aとリップポジションセンサ部13bと、を含んでいる。
また、電子管楽器100は、管体部100aの外面に設けられた表示部14(図2参照)を備えている。
例えば、表示部14は、タッチセンサ付の液晶画面等を備え、各種の表示のみだけでなく、各種の設定操作を行うことができるようになっている。
さらに、図2に示すように、電子管楽器100は、演奏キー1Aを発光させるための光源部9を備えている。
例えば、光源部9は、それぞれの演奏キー1Aに設けられたLEDと、そのLEDを制御するLEDコントロールドライバ等を含み、後ほど説明するように演奏者が操作すべき演奏キー1Aを発光させ、演奏のガイドを行う。
そして、各機能部(操作子1、CPU5、ROM6、RAM7、音源部8、光源部9、ブレスセンサ10、ボイスセンサ11、タンセンサ12、リップセンサ13、表示部14等)は、バス15で接続されている。
操作子1は、演奏者(ユーザ)が指で操作する操作部であり、音高を指定するための演奏キー1A、楽曲のキーに合わせて音高を変える機能及び音高の微調整を行う機能等を設定する設定キー1Bを含む。
発音部2は、後述する音源部8から入力された楽音信号に信号増幅等を施し、内蔵のスピーカーから楽音として出力する。
ただし、本実施形態では、電子管楽器100に発音部2を内蔵させているが、発音部2は内蔵型のものに限らず、電子管楽器100の外部出力ポート(図示せず)に接続される外付型のものであってもよい。
CPU5は、電子管楽器100の各部を制御する制御部として機能し、ROM6から指定されたプログラムを読み出してRAM7に展開し、展開されたプログラムと協働して各種処理を実行する。
CPU5は、例えば、後ほど詳細に説明するが、曲データ(MIDIデータ)とブレスセンサ10によるマウスピース部3への息吹込操作等に基づいて、発音部2からの音の発音や消音を制御する制御データを音源部8に出力し、音を発音部2から発音させる制御や発音部2に音を消音させる制御等を行う。
また、CPU5は、後ほど詳細に説明するが、曲データ(MIDIデータ)に基づいて、複数の演奏キー1Aのうちの操作すべき演奏キー1Aを光源部9に発光させる制御等も行う。
ROM6は、読み取り専用の記憶部であり、電子管楽器100の各部を制御するためのプログラムや後述する曲データ(MIDIデータ)等が記憶されている。
RAM7は、読み書き可能な記憶部であり、各センサ(ブレスセンサ10、ボイスセンサ11、タンセンサ12及びリップセンサ13等)から取得されるデータ、プログラム及び曲データ等を一時的に格納するワークエリアとして機能する。
音源部8は、操作子1での操作情報及び各センサで取得されるデータ等に基づいたCPU5からの制御データに従い、楽音信号を生成して楽音信号を発音部2に出力する。
マウスピース部3は、演奏者が演奏時に咥える部分であり、各センサ(ブレスセンサ10、ボイスセンサ11、タンセンサ12及びリップセンサ13等)を備え、演奏者によるタン、息及び声等による演奏のための各種操作を検出する。
次に、具体的に、各センサ(ブレスセンサ10、ボイスセンサ11、タンセンサ12及びリップセンサ13等)について説明する。
なお、以下で説明する各センサの機能等は、主な機能等についての説明であり、他の機能を持たせる等を行ってもよいことに留意されたい。
ブレスセンサ10は圧力センサを備えており、ブレスセンサ10によって、マウスピース本体3aの基端部側の息を吹き込む開口部3aaから吹き込まれる演奏者の息量・息圧等のブレス値の検出が行われる。
なお、ブレス値は、ブレスセンサ10の出力信号から取得され、そのブレス値の取得によって、息吹込操作が検出される。
そして、ブレスセンサ10によって検出されるブレス値は、CPU5が楽音のノートオン/オフや楽音の音量等の設定を行うのに用いられる。
また、ブレスセンサ10によって検出されるブレス値は、CPU5がトレモロ奏法の音量を決定するのにも用いられる。
ボイスセンサ11はマイクロフォンを備え、ボイスセンサ11によって、演奏者のグロウル演奏のための音声(グロウル波形)の検出が行われる。
なお、ボイスセンサ11によって検出された音声(グロウル波形)は、CPU5がグロウル波形データの合成比率を決定するのに用いられる。
タンセンサ12は、リード部3cの最も基端部側(ティップ側)の位置に検出部12sが設けられた圧力センサ又は静電容量センサを備えており、タンセンサ12によってリード部3cの基端部側の位置へのタンの接触の有無の検出(タンギングの検出)が行われる。
なお、タンセンサ12によって検出されたタンの接触の有無は、CPU5が楽音のノートオン/オフの設定を行うのに用いられるとともに、タンの接触の有無とブレスセンサ10のブレス値の検出状態との双方の状態に応じて音高の設定を行うのに用いられる。
リップセンサ13は、リード部3cの基端部側(ティップ側)から先端側(ヒール側)に向けて、複数の検出部13sが設けられた圧力センサ又は静電容量センサを備えており、リッププレッシャセンサ部13a及びリップポジションセンサ部13bとして機能する。
具体的には、リップセンサ13は、複数の検出部13sのどの検出部13sでリップの接触が検出されるかに基づいてリップポジションを検出するリップポジションセンサ部13bとしての役割と、その接触しているリップの接触強さを検出するリッププレッシャセンサ部13aとしての役割と、を果たす。
なお、複数の検出部13sでリップの接触が検出されている場合には、リップセンサ13からの出力に基づいて、CPU5が接触中心位置を求めることでリップポジションが求められる。
例えば、リップセンサ13が圧力センサを有する場合には、圧力センサが検出する圧力の変化に基づいて、リップの接触強さ(リッププレッシャ)及びリップポジションの検出が行われる。
また、リップセンサ13が静電容量センサを有する場合には、静電容量センサが検出する静電容量の変化に基づいて、リップの接触強さ(リッププレッシャ)及びリップポジションの検出が行われる。
そして、リッププレッシャセンサ部13aとしてのリップセンサ13によるリップの接触強さ(リッププレッシャ)の検出結果及びリップポジションセンサ部13bとしてのリップセンサ13によるリップポジションの検出結果は、ビブラート演奏やサブトーン演奏を制御するために用いられる。
具体的には、CPU5は、リップの接触強さ(リッププレッシャ)の変化状態に基づき、ビブラート演奏を検出してビブラートに対応した処理を行い、リップポジションの変化状態(位置及び接触面積等の変化状態)に基づき、サブトーン演奏を検出してサブトーンに対応した処理を行う。
そして、電子管楽器100は、演奏者が通常のサクソフォンを演奏するときと同様の操作を行うことで演奏が行えるようになっているが、本実施形態の電子管楽器100は、例えば、初心者の効率的な演奏能力の向上を目指した練習が可能になっており、以下、具体的に説明する。
先に少し触れたが、ROM6には、いわゆるMIDIデータと呼ばれる曲データが記憶されている。
曲データには、サクソフォンである電子管楽器100(以下、本楽器ともいう。)以外の楽器による伴奏等を本楽器の発音部2を利用して発音させるためのデータや本楽器を自動演奏させるためのデータ等が含まれている。
例えば、本楽器を自動演奏させるためのデータは、一息で演奏する区間(以下、息吹込操作区間ともいう。)に対応してマーカー(以下、識別子ともいう。)が設けられており、各息吹込操作区間で、順次、発音部2から発音されるべき音のタイミング情報(ノートオンデータ)や発音開始に続いて発音された音を次の音の発音まで継続して発音させるための情報(コンティニュアスデータ)を備えている。
そして、本実施形態の電子管楽器100には、後ほど図4及び図5に示すフローチャート等を参照しながら詳細に説明するが、この曲データを利用して、演奏者が息吹込操作及び演奏キー1Aの操作の両方の練習を行う全体練習モード(第1モード)、息遣いに集中して練習を行う息遣い練習モード(第2モード)等が設けられている。
全体練習モード(第1モード)は、息吹込操作及び演奏キー1Aの操作が行われた場合、CPU5が、息吹込操作及び演奏キー1Aの操作に基づいて音源部8に発音部2に出力する楽音信号(第1音波形データ)を生成させ、生成された第1音波形データを息吹込操作の検出に基づいて発音部2から出力させる通常の演奏に近いモードであり、例えば、CPU5が演奏をガイドする制御を行う点が通常の演奏と異なる。
具体的には、CPU5は演奏をガイドするために、光源部9に演奏者が操作すべき演奏キー1Aを操作すべきタイミングで発光させ、光源部9に演奏キー1Aの操作を止めるべきタイミングで演奏キー1Aの発光を止めさせる制御を行う。
息遣い練習モード(第2モード)では、演奏者が息吹込操作区間に対応する息吹込操作を行うだけで、発音部2からの発音に関しては、曲データの発音部2から発音されるべき音のタイミング情報(ノートオンデータ)や発音開始に続いて発音された音を次の音の発音まで継続して発音させるための情報(コンティニュアスデータ)に基づいて行われ、演奏者が演奏キー1Aを操作しなくても発音部2からの音の発音が行われる。
つまり、息遣い練習モード(第2モード)では、ブレスセンサ10により息吹込操作が検出されている場合に、CPU5は、息吹込操作及び演奏キー1Aの操作に基づいて生成されて出力されるべき出力予定音波形データを発音部2から出力させる代わりに、演奏キー1Aの操作の検出又は非検出にかかわらず、音源部8に曲データに基づく第2音波形データを生成させ、その曲データに基づいて生成された第2音波形データの音を発音部2から息吹込操作の検出に基づいて発音(出力)させる。
このようにCPU5が、ブレスセンサ10の息吹込操作の検出に基づいて、演奏キー1Aの操作にかかわらず、曲データに基づく音を発音部2から発音させる制御を行ってくれるため、演奏者は、途中での余計な息継ぎをしないように、息吹込操作区間に対応する息吹込操作を行うことに集中して練習を行うことができる。
したがって、息遣い練習モード(第2モード)では、演奏キー1Aの操作を気にせずに、息遣いに集中して練習できるので、息遣いを効率よく習得することができる。
また、上述のように、本楽器を自動演奏させるためのデータは、一息で演奏する区間(息吹込操作区間)に対応してマーカー(識別子)が設けられているため、息遣い練習モードで行う練習を1曲単位ではなく、演奏者が設定する息吹込操作区間を練習区間として練習が行えるようになっている。
つまり、演奏者は、曲データの任意の息吹込操作区間を選択して設定することができるので、演奏者が特に練習を行いたい息吹込操作区間(例えば、連続する2つの息吹込操作区間や1つの息の息吹込操作区間等)を集中的に練習することが可能になっている。
より具体的に説明すると、管楽器では、一息で演奏する区間(息吹込操作区間)中に、連続する複数の音符があることが多く、演奏者は、その音符に対応する音が全て発音されるまで息吹込操作を継続するとともに、最後の音符に対応する音を終了させるタイミングで息吹込操作を止めることになる。
したがって、例えば、1つの息吹込操作区間で連続する3つの音符がある場合、その息吹込操作区間を練習区間に設定すると、その3つの音符に対応した音を発音部2に発音させるための適切な息吹込操作(息の吹き込み継続操作)を練習する設定が行われることになる。
以下、図4及び図5を参照しながら息遣い練習モード等について、より詳細に説明を行う。
図4は練習モードの処理のメインルーチンを示すフローチャートであり、図5は図4のメインルーチン中のサブルーチンである息遣い練習モード(第2モード)のフローチャートである。
演奏者が練習モードのうちの「全体練習モード(第1モード)」及び「息遣い練習モード(第2モード)」のいずれかを選択し、どの曲を演奏するのかを設定すると図4に示すメインルーチンの処理が開始される。
なお、上述したように、本実施形態の電子管楽器100は、練習区間として曲データ(MIDIデータ)の任意の息吹込操作区間を選択して設定できるようになっている。
したがって、特定の息吹込操作区間を練習区間として設定する場合には、演奏する曲を選曲した後に、演奏者が練習したい息吹込操作区間を選択して、その選択した息の吹き込み区間を練習区間に設定した後、図4に示すメインルーチンの処理が開始される。
図4に示すメインルーチンの処理が開始されると、CPU5は、ステップS1で演奏者が選択した練習モードが「息遣い練習モード(第2モード)」であるかを判定する。
CPU5は、ステップS1で「息遣い練習モード(第2モード)」であると判定(ステップS1:YES)すると、ステップS11に進んで演奏キー1Aからの入力を無効に設定する処理を行った後、ステップS12に進み後ほど図5を参照して説明する息遣い練習の処理を実行する。
一方、CPU5は、ステップS1で「息遣い練習モード(第2モード)」でないと判定(ステップS1:NO)すると、演奏者によって選択された練習モードが全体練習モード(第1モード)であるものとして、ステップS2に進み全体練習の処理を実行する。
このように、CPU5は、演奏者の選択に従い、「全体練習モード(第1モード)」と、「息遣い練習モード(第2モード)」と、を選択的に切り換える制御を行う。
なお、全体練習とは、本楽器以外の他の楽器のパート(例えば、伴奏)について、曲データ(MIDIデータ)に基づいて自動演奏を行い、本楽器については全ての演奏(息遣い及び演奏キー1Aの操作等)を演奏者が自ら行う練習モードであり、上述のように、CPU5が演奏をガイドする制御を行うこと以外は、通常の演奏とほぼ類似する処理となるため、説明を省略する。
ただし、先に述べたように、演奏者が練習したい息吹込操作区間を選択して、その選択した息吹込操作区間を練習区間に設定している場合には、全体練習においても、その練習区間についてだけ処理が実行される。
そして、ステップS12の「息遣い練習モード(第2モード)」又はステップS2の「全体練習モード(第1モード)」のいずれかの処理が終わると、図4に示すメインルーチンの処理が終了することになる。
次に、図5を参照しながら、CPU5が行う息遣い練習の処理について説明する。
演奏者が「息遣い練習モード(第2モード)」を選択していると、上述のように、ステップS12に進むことになり、CPU5は、図5に示す息遣い練習のフローチャートの処理を開始する。
CPU5は、ステップT1でROM6に記憶されている曲データの中から演奏者が選曲した曲データ(MIDIデータ)をワークエリアとして機能するRAM7に読み込む処理を実行して、次のステップT2に進む。
ステップT2では、CPU5は、演奏者が練習区間として設定した曲データの特定の息吹込操作区間があるかを判定し、CPU5は、ステップT2で演奏者が設定した曲データの特定の息吹込操作区間があると判定(ステップT2:YES)した場合、ステップT3に進み、CPU5は曲データの息吹込操作区間のうちの演奏者が設定した特定の息吹込操作区間だけを練習区間に設定する。
なお、先にも触れたように、練習区間として設定される息吹込操作区間は1つの息吹込操作区間の場合だけではなく複数の息吹込操作区間の場合がある。
このため、ステップT3の練習区間を設定する処理では、練習区間として設定される息吹込操作区間が複数ある場合には、それら複数の息吹込操作区間のそれぞれを練習区間として設定することになる。
一方、CPU5は、ステップT2で演奏者が設定した曲データの特定の息吹込操作区間がないと判定(ステップT2:NO)した場合、ステップT4に進み、CPU5は曲データの息吹込操作区間のそれぞれを練習区間に設定する。
そして、ステップT3又はステップT4の処理が実行されると、ステップT5に進み、CPU5は、曲データに基づいて本楽器以外の他の楽器のパートである伴奏の発音を発音部2から開始させる。
具体的には、CPU5は、曲データに従って、順次、伴奏に対応したノートデータ(ノートオンデータ、ノートオフデータ等)やコンティニュアスデータ等の制御データを音源部8に出力し、音源部8に楽音信号を生成させてその楽音信号が発音部2に送られ、発音部2が楽音信号に従った発音を行うことになる。
なお、以下では、伴奏部分に関する説明を省略しているが、本実施形態では、演奏者の息吹込操作が途中で停止した、つまり、息吹込操作を持続すべき時間の間、息吹込操作ができなかった等によって本楽器の演奏が停止するときには、自動演奏される伴奏も停止状態となるように制御され、息吹込操作の再開に応じて続きから伴奏の自動演奏が再開されるようになっている。
伴奏の発音が開始(ステップT5)されると、ステップT6に進み、CPU5は、はじめの練習区間(はじめに設定される曲データの息吹込操作区間)を設定する処理を行い、引き続き、ステップT7に進んで、CPU5は、その設定した練習区間のはじめの音(練習区間の曲データに基づく少なくとも1以上の第2音波形データのうちのはじめの第2音波形データの音)を設定する。
そして、ステップT8に進み、CPU5は設定された音の発音を開始するための練習区間の息吹込操作のタイミングが来るのを監視する。
つまり、CPU5は、ステップT8で練習区間の息吹込操作開始のタイミングかを判定し続けて、息吹込操作開始のタイミング(ステップT8:YES)と判定すると、次のステップT9に進む。
ステップT9に進むと、CPU5は、演奏者が本楽器の音を発音してよい状態にしているかを判定する。
具体的には、ブレスセンサ10から出力されるブレス値が閾値より大きい値となり、演奏者による息吹込操作が行われているかの判定を行うとともに、タンセンサ12によるタンの接触検出(タンギング)による発音を止める操作状態にないかを判定する。
そして、ブレス値が閾値以下であり、かつ、タンセンサ12によるタン検出無しの状態でない場合(ステップT9:NO)、CPU5は、ステップT10に進み本楽器の発音部2からの発音が停止中かを判定し、CPU5は、ステップT10で発音中であると判定した場合、ステップT11に進み、本楽器の音の消音の制御データ(ノートオフデータ)を音源部8に出力し、発音部2からの発音を消音させる制御を行った後、再び、ステップT9のブレス値が閾値より大きく、かつ、タン検出無しの状態かの判定を行う。
一方、CPU5は、ステップT10で発音停止中であると判定(ステップT10:YES)した場合、ステップT11に進むことなく、再び、ステップT9のブレス値が閾値より大きく、かつ、タン検出無しの状態かの判定を行う。
つまり、CPU5は、ブレス値が閾値より大きく、かつ、タン検出無しの状態(ステップT9:YES)になるまでステップT12に進まずに待ち状態とする制御を行う。
そして、ステップT9の判定がYESになるとステップT12に進み、CPU5は、ステップT7で設定された音(曲データに基づくはじめの第2音波形データの音)の発音の制御データ(ノートオンデータ、コンティニュアスデータ)を音源部8に出力し、その音を発音部2から発音させる制御を行う。
続いて、ステップT13に進み、CPU5は、練習区間中に次の音のデータ(曲データに基づく次の第2音波形データ)があるかを判定する。
CPU5は、ステップT13で次の音のデータ(曲データに基づく次の第2音波形データ)があると判定(ステップT13:YES)すると、ステップT14に進み、CPU5は、練習区間中の次の音(曲データに基づく次の第2音波形データ)を設定する処理を実行し、ステップT15に進む。
一方、CPU5は、ステップT13で次の音のデータ(曲データに基づく次の第2音波形データ)がないと判定(ステップT13:NO)とすると、ステップT14の処理を行わずに、ステップT15に進む。
そして、CPU5は、ステップT15で次の音(曲データに基づく次の第2音波形データの音)のノートオン(発音)のタイミングかを判定し、次の音(曲データに基づく次の第2音波形データの音)のノートオン(発音)のタイミングであると判定(ステップT15:YES)すると、ステップT11に進んで、現在の音を発音部2に消音させる処理を行うとともに、ステップT9、ステップT12と進み、次の音(曲データに基づく次の第2音波形データの音)を発音部2に発音させる制御を行う。
なお、ステップT15からステップT11を経てステップT9に進んだときに、例えば、演奏者が息継ぎ等を行ってしまいステップT9がYESにならない状態のときは、先ほどと同様に、CPU5は、ステップT12に進まず、演奏者が本楽器の音を発音してよい状態、例えば、息吹込操作が再開されるまで音の発音を待つ状態とする制御を行う。
一方、CPU5は、ステップT15で次の音のノートオン(発音)のタイミングでないと判定(ステップT15:NO)した場合、ステップT16に進み、CPU5は、練習区間の息吹込操作終了のタイミングかを判定する。
そして、CPU5は、ステップT16で息吹込操作終了のタイミングでないと判定(ステップT16:NO)すると、ステップT17に進み、ステップT9と同様の判定を行う。
CPU5は、ステップT17でブレス値が閾値より大きく、かつ、タン検出無しの状態と判定(ステップT17:YES)すると、音を発音してよい状態が継続されているため、再び、ステップT15に進む。
つまり、CPU5は、音を発音してよい状態が継続されている間、現在の音の発音を継続したまま、次の音(曲データに基づく次の第2音波形データの音)のノートオンのタイミング(ステップT15)又は息吹込操作終了のタイミング(ステップT16)のどちらかの状態になるまで待ちの状態とする制御を行う。
一方、この待ちの状態のときに、演奏者が息継ぎ等を行ってしまう場合があり、その場合には、ブレスセンサ10のブレス値が閾値以下となるので、CPU5は、ステップT17の判定をNO、つまり、ブレス値が閾値以下であり、かつ、タン検出無しの状態でなくなったものと判定し、ステップT9に進み、CPU5は音の発音を消音する制御を行うことになる。
具体的には、ステップT9はステップT17と同じ判定内容であるため、CPU5は、ステップT9に進むと、ブレス値が閾値以下であり、かつ、タン検出無しの状態でないと判定(ステップT9:NO)することになり、現在の音の発音が行われていることから、ステップT10の判定をNOと判定し、ステップT11で音の消音の制御データ(ノートオフデータ)を音源部8に出力して発音部2からの発音を消音させた後、ステップT9に進み、先に説明したように、CPU5は、ステップT12に進まず、演奏者が本楽器の音を発音してよい状態、例えば、息吹込操作が再開されるまで音の発音を待つ状態とする制御を行う。
そして、演奏者の息吹込操作が再開されると、ブレスセンサ10のブレス値が閾値より大きくなり、CPU5は、ステップT9の判定をYESと判定し、ステップT12に進み、設定されている次の音の発音が行われることになる。
つまり、CPU5は、ブレスセンサ10によって息吹込操作が検出され、曲データに基づいて生成された1つ以上の第2音波形データの音を発音部2から発音(出力)させた後、曲データの息吹込操作区間が終了する前にブレスセンサ10によって息吹込操作の終了が検出され(つまり、息吹込操作が非検出になり)、再び、ブレスセンサ10によって息吹込操作が検出されると、現在、設定されている練習区間(現在、設定されている曲データの息吹込操作区間)内で出力されていない未出力の第4音波形データ(曲データに基づく次の第2音波形データ)の音を発音部2から発音(出力)させる制御を行うことになる。
一方、練習区間の息吹込操作終了のタイミングが来ると、CPU5は、ステップT16の判定をYESと判定し、ステップT18に進み、ブレス値が閾値以下になったかを判定する。
本来は、ステップT16がYESとなる場合、息継ぎを行うタイミング又は演奏の終了のタイミングであることから、ステップT21に進んで消音の処理を行うタイミングであるが、演奏者が、必ずしも、ステップT16がYESとなるタイミングで息吹込操作を止めるとは限らない。
そして、演奏者が息吹込操作を止めていないにもかかわらず、消音の処理を行うと、演奏者が違和感を感じるため、CPU5は、ステップT18でブレス値が閾値未満でないと判定(ステップT18:NO)し、現在、設定されている練習区間(現在、設定されている曲データの息吹込操作区間)の終了位置を越えてもブレスセンサ10よって息吹込操作が検出されている場合、継続して発音部2に音を発音させる制御を行うための処理を実行する。
具体的には、ステップT19に進みCPU5は、以前に次のステップT20が実行され、音源部8にループ処理データが出力済みかを判定し、ループ処理データが音源部8に出力済みでないと判定(ステップT19:NO)すると、ステップT20に進む。
そして、ステップT20で、CPU5は、現在、設定されている練習区間(現在、設定されている曲データの息吹込操作区間)の終了位置近くの曲データに基づいて発音を継続するコンティニュアスデータ(ループ処理データ)を音源部8に出力し、このループ処理データに従った音波形データ(第5音波形データ)の音を発音部2からステップT18の判定がYESとなるまで発音(出力)させる制御を行う。
なお、このループ処理データに従った音波形データ(第5音波形データ)を息吹込操作区間の終了位置近くの曲データに基づく音波形データともいう。
具体的には、ループ処理データとしては、例えば、現在、設定されている練習区間(現在、設定されている曲データの息吹込操作区間)の終了位置手前の音のコンティニュアスデータの10%程度の範囲のデータが設定され、ステップT18の判定がYESとなるまで、このループ処理データを繰り返し用いて、発音部2からの発音を継続するようにすればよい。
ただし、現在、設定されている練習区間(現在、設定されている曲データの息吹込操作区間)の終了位置の直前がビブラートである場合、ビブラート加工処理がなされた音波形データが継続して発音部2から出力されるように、例えば、ループ処理データに従った音波形データ(第5音波形データ)は、ループ区間全体に渡って同程度のビブラート加工処理がなされていることが好ましい。
そして、CPU5は、ステップT18でブレス値が閾値未満であると判定(ステップT18:YES)すると、ステップT21に進み、CPU5は、音の消音の制御データ(ノートオフデータ)を音源部8に出力し、発音部2に消音させる制御を行った後、ステップT22に進む。
ステップT22では、CPU5は、次の練習区間があるかを判定し、次の練習区間がある場合(ステップT22:YES)、ステップT23に進んで、CPU5は、次の練習区間(曲データの次の息吹込操作区間)を設定し、再び、ステップT7からの処理を実行する。
一方、CPU5は、ステップT22で次の練習区間がないと判定(ステップT22:NO)すると、図4に示すメインルーチンに戻り、全体の処理が終了することになる。
以上のように、本実施形態の電子管楽器100は、息吹込操作を個別に集中して練習できるので、効率的に演奏能力を向上させることができる。
すなわち本実施形態の電子管楽器100は、息吹込操作及び演奏キー1Aの操作に基づいて生成されて出力されるべき音波形データを出力する代わりに、息吹込操作が検出されている場合に、演奏キー1Aの操作の検出又は非検出にかかわらず、曲データに基づいて生成された音波形データを出力する。したがって、演奏者が演奏キー1Aの操作をしていなくても息吹込操作をしていれば曲データに基づいた楽曲が出力されるので、管楽器ならではの息吹込操作を集中して練習ができる。
(第2モードの変形例)
上述した第2モードは、演奏者が、途中での余計な息継ぎをしないように、息吹込操作区間に対応する息吹込操作を行うことに集中して練習を行うことに特化したものになっていた。
したがって、例えば、初心者にとって難しいビブラート等の演奏部分は曲データによるものになっている。
しかし、このように曲データによる演奏補助をする場合であっても、演奏者の息遣いの状態を反映したものとすることで、単に、息吹込操作区間の間、正しく息の吹き込みを行う練習に留まらず、表現力のある息遣いの練習が行えるものとすることができる。
そこで、ビブラート、グロウル、サブトーン等の部分を曲データによる完全自動演奏とするのではなく、演奏者の息遣いを反映させたものとした第2モードの変形例について、以下、説明する。
具体的には、図5に示したフローチャートのステップT12を、図6に示す第2モードの変形例のサブルーチンのようにすればよい。
つまり、先ほどのステップT12に進むと、図6に示すサブルーチンの処理が行われる。
図6のサブルーチンが開始されると、CPU5は、ステップMT1に進み、設定された第2音波形データの音の発音の制御データ(ノートオンデータ)を音源部8に出力し、その音の発音を発音部2に開始させる制御を行う。
そして、CPU5は、ステップMT2に進み、ノートオンから次のノートオンまでの間、第2音波形データの音を連続的に時間変化させる制御データである曲データ(MIDIデータ)のコンティニュアスデータの演奏データ値の補正データ値を作成する。
具体的には、図7に示すフローチャートに示す処理を実行することになる。
ステップU1では、CPU5は、ブレスセンサ10から取得したブレス値が曲データに設けられている基本ブレス値以上であるかを判定し、ブレス値が基本ブレス値以上と判定(ステップU1:YES)するとステップU2に進み、ブレス値が基本ブレス値未満と判定(ステップU1:NO)するとステップU3に進む。
ステップU2では、CPU5は、例えば、曲データのコンティニュアスデータの演奏データ値(データ値)がビブラート奏法に従ったデータ値である場合、データ値に対してビブラートの深さを深くする補正値の算出を行う。
また、CPU5は、データ値がグロウル奏法に従ったデータ値である場合、グロウル波形の合成比(合成比率)を大きくする補正値の算出を行う。
さらに、CPU5は、データ値がサブトーン奏法に従ったデータ値である場合、サブトーン波形の合成比(合成比率)を大きくする補正値の算出を行う。
具体的には、ROM6等に変換テーブル又は補正値を算出するための関数が設けられており、基本ブレス値とブレス値とに基づき、CPU5は、変換テーブル又は関数に従って補正値を求める。
例えば、CPU5は、基本ブレス値とブレス値との差分や基本ブレス値に対してブレス値が何%大きいかといった指標(以下、差分や%等で表される指標を単に「差」と記載する場合がある。)に基づき、曲データのコンティニュアスデータのデータ値に対してどの程度の補正を行うのかという補正値を変換テーブル又は関数に従って求める。
本変形例では、補正値を求めるための変換テーブル又は関数として、基本ブレス値とブレス値の差が小さいときには、少なめの補正値となるようにし、ある一定以上差が大きくなると一気に補正値が大きくなるようにしている。
つまり、曲データのデータ値に対する補正が、変換テーブル又は関数に基づく非線形な補正となるようにしている。
これは、ある一定以上差がない領域で、ビブラート、グロウル及びサブトーンの変化が基本ブレス値とブレス値の差の増加に応じて同じ程度の増加量で線形的に増加するようにすると、楽音として違和感があるものとなるため、基本ブレス値とブレス値の差が小さいときには、少なめの補正値となるようにしている。
つまり、基本ブレス値とブレス値の差の増加に応じて補正値も増加させるが、その増加の傾斜を小さなものとしている。
一方、十分に大きなブレス値のとき(ある一定以上差があるとき)には、ビブラート、グロウル及びサブトーンも爆発するように発音されるほうが自然であるので、それに対応してある一定以上差が大きくなると一気に補正値が大きくなるようにしている。
ステップU3では、CPU5は、例えば、曲データのコンティニュアスデータの演奏データ値(データ値)がビブラート奏法に従ったデータ値である場合、ビブラートの深さを浅くする補正値の算出を行う。
また、CPU5は、データ値がグロウル奏法に従ったデータ値である場合、グロウル波形の合成比(合成比率)を小さくする補正値の算出を行う。
さらに、CPU5は、データ値がサブトーン奏法に従ったデータ値である場合、サブトーン波形の合成比(合成比率)を小さくする補正値の算出を行う。
具体的には、ステップU3で行われる補正値の算出も、CPU5は、ステップU2と同様に変換テーブル又は補正値を算出するための関数に従って行うものとしており、その理由は、ステップU2で説明したのと同様に、非線形な補正とすることで楽音として不自然なものとならないようにするためである。
ステップU4では、CPU5は、ステップU2又はステップU3で算出された補正値に基づいて、曲データのコンティニュアスデータのデータ値に対する補正を行った補正データ値を作成する。
ビブラートであれば、曲データのビブラートに対応したデータ値(例えば、ベンドデータのデータ値又はモジュレーションデータのデータ値)を補正値に基づいて補正する。
つまり、CPU5は、ブレス値が基本ブレス値より大きい場合、ビブラートに対応したデータ値に対してビブラートの深さが深くなる補正を行った補正データ値を取得し、ブレス値が基本ブレス値未満の場合、ビブラートに対応したデータ値に対してビブラートの深さを浅くする補正を行った補正データ値を取得する。
なお、ブレス値が基本ブレス値と一致している場合には、補正データ値が曲データのビブラートに対応したデータ値そのものになるように補正値が設定される。
例えば、補正データ値が曲データのビブラートに対応したデータ値に補正値を乗算する場合には補正値が1となるようにすればよく、補正値を加算する場合には補正値が0となるようにすればよい。
グロウルであれば、曲データのグロウル波形の合成比(合成比率)に対応したデータ値を補正値に基づいて補正する。
つまり、CPU5は、ブレス値が基本ブレス値より大きい場合、グロウル波形の合成比(合成比率)に対応したデータ値に対して合成比(合成比率)を大きくする補正を行った補正データ値を取得し、ブレス値が基本ブレス値未満の場合、グロウル波形の合成比(合成比率)に対応したデータ値に対して合成比(合成比率)を小さくする補正を行った補正データ値を取得する。
なお、ブレス値が基本ブレス値と一致している場合には、ビブラートのときと同様に、補正データ値が曲データのグロウル波形の合成比(合成比率)に対応したデータ値そのものになるように補正値が設定される。
サブトーンであれば、曲データのサブトーン波形の合成比(合成比率)に対応したデータ値を補正値に基づいて補正する。
つまり、CPU5は、ブレス値が基本ブレス値より大きい場合、サブトーン波形の合成比(合成比率)に対応したデータ値に対して合成比(合成比率)を大きくする補正を行った補正データ値を取得し、ブレス値が基本ブレス値未満の場合、サブトーン波形の合成比(合成比率)に対応したデータ値に対して合成比(合成比率)を小さくする補正を行った補正データ値を取得する。
なお、ブレス値が基本ブレス値と一致している場合には、ビブラートのときと同様に、補正データ値が曲データのサブトーン波形の合成比(合成比率)に対応したデータ値そのものになるように補正値が設定される。
そして、ステップU4で、上記のような補正データ値の作成が行われると、図7に示すフローチャートの処理が終了し、図6のフローチャートの処理に戻る。
ステップMT3では、CPU5は、補正データ値に基づいた第2音波形データを生成し、その第2音波形データを音源部8に出力して、その音の発音を発音部2に行わせる制御を行う。
上記のように、CPU5が、あらかじめ与えられる曲データ(MIDIデータ)の基本ブレス値とブレスセンサ10から取得するブレス値とに基づき、曲データ(MIDIデータ)のデータ値に対して補正を行った補正データ値を取得する補正データ値取得処理と、補正データ値に基づき、発音部2に発音させる発音処理と、を行うことで、演奏者の息吹込操作(息遣い)に伴う表現力が反映された演奏になる。
そして、ステップMT4に進むと、CPU5は、ブレスセンサ10から取得するブレス値が閾値より大きいかを判定し、ブレス値が閾値より大きい場合(ステップMT4:YES)、更に、ステップMT6に進み、次の音のノートオンのタイミングかを判定する。
そして、ノートオンのタイミングでない場合(ステップMT6:NO)、再び、ステップMT2に戻り、先程ほどと同様に、補正を実施する。
つまり、コンティニュアスデータのデータ値を補正する処理が再び行われるため、連続的に時間変化するように発音される音自体が、演奏者の息吹込操作に応じた変化を伴ったものとなり、演奏者の表現力が反映されたものとなる。
そして、ステップMT6がYESとなると、次の音等の処理を行うために、図5のフローチャートに戻り、ステップT13以降の処理を実施する。
一方、ステップMT4がNOとなった場合には、CPU5は、ステップMT5で消音の制御データ(ノートオフデータ)を音源部8に出力し、その音の消音を発音部2に行わせる制御を行った上で、図5のフローチャートの処理に戻る。
つまり、息の吹き込みがなくなったので音を消音し、再び、息の吹き込みがあったときに違和感がないように、次の音等の処理を行うために、図5のフローチャートに戻り、ステップT13以降の処理を実施する。
このように第2モードの変形例では、曲データの演奏データ値(コンティニュアスデータのビブラート、グロウル、サブトーンといった演奏の演奏データ値)を補正する補正処理を実行し、逐次、第2音波形データが補正処理により補正された補正データ値に基づいて生成されることによって、息遣いの状態を反映した演奏となるので、表現力のある息遣いの練習を行うことができる。
なお、基本的な音量等を曲データの基本ブレス値とブレスセンサ10から取得するブレス値とに基づき、補正処理しつつ、逆に、トレモロ、グロウル、タンギング、ビブラート、サブトーン等の演奏における奏法については、その奏法の検出又は非検出にかかわらず、曲データに含まれるそれらの複数の演奏データ値に応じた第3音波形データを出力する第3モードを設けるようにしてもよい。
つまり、トレモロ、グロウル、タンギング、ビブラート、サブトーン等の演奏における奏法以外の部分に関しては、基本ブレス値とブレスセンサ10から取得するブレス値とに基づき、補正処理を行う第3モードを設けるようにしてもよい。
なお、第3モードは、上述の全ての奏法について、曲データに含まれる演奏データ値に従った第3音波形データを出力することに限定される必要はなく、それらの奏法のうちの少なくとも1つ以上の奏法について、曲データに含まれる演奏データ値に従った第3音波形データを出力するものであってもよい。
この場合、CPU5は、演奏者による選択に従い、「全体練習モード(第1モード)」と、「息遣い練習モード(第2モード)」と、第3モードと、を選択的に切り換える制御を行うことになる。
ところで、上記では、指使いを気にせずに、息遣いの練習が行えるモードについて説明してきたが、例えば、初心者にとっては、息遣いを気にせずに、指使い(演奏キー1Aの操作)を練習したい場合もあると考えられる。
そこで、そのような演奏キー1Aの操作を練習する演奏キー練習モード(第4モード)を設けるようにしてもよい。
この場合、演奏者の選択に従って、演奏キー練習モード(第4モード)が実行できるように、図4のフローチャートをステップS1がNOのときに、図8に示すように、更に、演奏キー練習モード(第4モード)かを判定するステップSA1を加え、CPU5が演奏キー練習モード(第4モード)が選択されていると判定(ステップSA1:YES)したら、ステップSA11で、ブレスセンサ10からの入力を無効にして、ステップSA12に進み、図9に示す演奏キー練習モード(第4モード)のフローチャートに従った処理をCPU5が実行するようにし、CPU5が演奏キー練習モード(第4モード)が選択されていないと判定(ステップSA1:NO)したら、ステップS2の全体練習を実行するようにすればよい。
なお、この場合、CPU5は、演奏者による選択に従い、「全体練習モード(第1モード)」と、「息遣い練習モード(第2モード)」と、「第3モード」と、「演奏キー練習モード(第4モード)」と、を選択的に切り換える制御を行うことになる。
具体的に、図9を参照しながら演奏キー練習モード(第4モード)について説明するが、この場合、CPU5は、ブレスセンサ10から取得するブレス値にかかわらず、曲データ(MIDIデータ)と演奏キー1Aの操作等に基づいて、発音部2からの音の発音や消音を制御する制御データを音源部8に出力し、音を発音部2から発音させる制御や発音部2に音を消音させる制御等を行うことになる。
後ほど、より詳細に説明するが、演奏キー練習モード(第4モード)では、曲データの第1音符に従った演奏キー1Aの操作が行われた場合、ブレスセンサ10による息吹込操作の検出又は非検出にかかわらず、CPU5は、息吹込操作及び演奏キー1Aの操作に基づいて生成されて出力されるべき出力予定音波形データを出力する代わりに、曲データの第1音符に従った楽音信号(第2音波形データ)を音源部8に生成させ、その第2音波形データの音を発音部2から出力させる。
なお、演奏キー練習モード(第4モード)でも、先に説明した全体練習モード(第1モード)と同様に、CPU5は演奏をガイドするために、光源部9に演奏者が操作すべき演奏キー1Aを操作すべきタイミングで発光させ、演奏キー1Aの操作を止めるべきタイミングで演奏キー1Aの発光を止める制御を行う。
したがって、演奏者は、例えば、息吹込操作を行わずに、演奏キー1Aの操作に集中して練習を行うことができる。
特に、息吹込操作を必要としないため、マウスピース部3を口に咥えた演奏キー1Aの見え難い状態ではなく、演奏者は、演奏キー1Aが見やすい姿勢で電子管楽器100を持つようにして、演奏キー練習モード(第4モード)の練習を行うことができるようになっている。
このように、演奏キー練習モード(第4モード)では、息吹込操作を気にせず、演奏キー1Aの操作に集中して練習できるので、演奏キー1Aの操作を効率よく習得することができる。
また、上述のように、本楽器を自動演奏させるためのデータは、一息で演奏する区間(息吹込操作区間)に対応してマーカー(識別子)が設けられているため、演奏キー練習モード(第4モード)で行う練習を1曲単位ではなく、演奏者が設定する息吹込操作区間を練習区間として練習が行えるようになっている。
つまり、演奏者は、曲データの任意の息吹込操作区間を選択して設定することができるので、演奏者が特に練習を行いたい息吹込操作区間(例えば、連続する2つの息吹込操作区間や1つの息吹込操作区間等)を集中的に練習することが可能になっている。
先にも触れたように、管楽器では、一息で演奏する区間(息吹込操作区間)中に、連続する複数の音符があることが多く、そのため息吹込操作区間の間に演奏キー1Aが複数回操作されることになる。
したがって、例えば、1つの息吹込操作区間で連続する3つの音符があり、演奏キー1Aが3回操作される場合、その息吹込操作区間を練習区間に設定すると、その3つの音符に対応した連続する3回の演奏キー1Aの操作を練習する設定が行われることになる。
以下、図9を参照して、「演奏キー練習モード(第4モード)」が選択されたときの処理について、詳細に説明する。
「演奏キー練習モード(第4モード)」が開始されると、CPU5は、ステップX1でROM6に記憶されている曲データの中から演奏者が選曲した曲データ(MIDIデータ)をワークエリアとして機能するRAM7に読み込む処理を実行して、次のステップX2に進む。
ステップX2では、CPU5は、演奏者が練習区間として設定した曲データの特定の息吹込操作区間があるかを判定し、CPU5は、ステップX2で演奏者が設定した曲データの特定の息吹込操作区間があると判定(ステップX2:YES)した場合、ステップX3に進み、CPU5は曲データの息吹込操作区間のうちの演奏者が設定した特定の息吹込操作区間を練習区間に設定する。
なお、特定の息吹込操作区間が複数ある場合には、それらの息吹込操作区間を繋げて1つの練習区間として設定する処理が行われる。
一方、CPU5は、ステップX2で演奏者が設定した曲データの特定の息吹込操作区間がないと判定(ステップX2:NO)した場合、ステップX4に進み、CPU5は曲データのはじめから最後まで、つまり、曲データの全体を練習区間に設定する。
なお、この設定された練習区間内の曲データの1つ以上の音符に従った楽音信号が第2音波形データである。
そして、ステップX3又はステップX4の処理が実行されると、ステップX5に進み、CPU5は、曲データに基づいて本楽器以外の他の楽器のパートである伴奏の発音を発音部2から開始させる。
具体的には、CPU5は、曲データに従って、順次、伴奏に対応したノートデータ(ノートオンデータ、ノートオフデータ等)やコンティニュアスデータ等の制御データを音源部8に出力し、音源部8に楽音信号(伴奏の音波形データ)を生成させてその楽音信号が発音部2に送られ、発音部2が楽音信号に従った発音を行うことになる。
なお、以下では、伴奏部分に関する説明を省略しているが、本実施形態では、演奏者の演奏キー1Aの操作が途中で停止した等によって本楽器の演奏が停止するときには、自動演奏される伴奏も停止状態となるように制御され、演奏キー1Aの操作の再開に応じて続きから伴奏の自動演奏が再開されるようになっている。
伴奏の発音が開始(ステップX5)されると、ステップX6に進み、CPU5は、練習区間中のはじめの音(曲データの第1音符)を設定する処理を行い、引き続き、ステップX7に進んで、CPU5は、その設定した音のノートオン(発音)のタイミングが来るのを監視する。
つまり、CPU5は、ステップX7で設定した音のノートオン(発音)のタイミングかを判定し続けて、ノートオン(発音)のタイミング(ステップX7:YES)と判定すると、次のステップX8に進む。
そして、CPU5は、ステップX8に進むと、設定された音(曲データの第1音符)に対応する演奏キー1Aを識別する識別子を光源部9に出力する識別子出力処理を実行し、光源部9はその識別子に従って演奏キー1Aを発光させ、演奏者に操作すべき演奏キー1Aが、複数ある演奏キー1Aのうちのどの演奏キー1Aであるのかをガイドする。
次に、CPU5は、ステップX9に進んで、発光させた演奏キー1Aが操作されているかを判定する。
そして、CPU5は、発光させた演奏キー1Aが操作されていると判定(ステップX9:YES)すると、ステップX10に進み、CPU5は、ステップX6で設定された音(曲データの第1音符)の発音の制御データ(ノートオンデータ、コンティニュアスデータ)を音源部8に出力し、その音を発音部2から発音させる制御を行う。
したがって、CPU5は、ステップX6で設定された音(曲データの第1音符)に従った演奏キー1Aの操作が行われていない場合、ステップX9の次のステップX10に進まないため、曲データの第1音符に従った演奏キー1Aの操作が行われていない状態では、第1音符の後に続く次の音の第2音符に従った演奏キー1Aの操作が行われたとしても、曲データの第2音符に従った次の第2音波形データの音を発音部2から出力しない制御を行うことになる。
ステップX10の処理が終わるとステップX11に進み、CPU5は、練習区間中に次の音(第2音符)のデータがあるかを判定する。
CPU5は、ステップX11で次の音(第2音符)のデータがあると判定(ステップX11:YES)すると、ステップX12に進み、CPU5は、練習区間中の次の音(第2音符)を設定する処理を実行し、ステップX13に進む。
一方、CPU5は、ステップX11で次の音のデータがないと判定(ステップX11:NO)すると、ステップX12の処理を行わずに、ステップX13に進む。
ステップX13に進むと、CPU5は、設定した次の音のノートオン(発音)のタイミングかを判定し、次の音のノートオン(発音)のタイミングであると判定(ステップX13:YES)すると、ステップX14に進んで、CPU5は、発光中の演奏キー1Aの音の消音の制御データ(ノートオフ)を音源部8に出力し、発音部2からの発音を消音させるとともに、発光中の演奏キー1Aの発光を光源部9に止めさせる制御を行い、ステップX8に進んで、先ほどと同様に、設定された次の音(第2音符)に対応する演奏キー1Aを光源部9に発光させる制御を行う。
このようにして、CPU5は、曲データに基づいて、演奏キー1Aのうちの操作すべき演奏キー1Aを光源部9に発光させる制御と、演奏キー1Aの操作と曲データとに基づいて、ブレスセンサ10の息吹込操作の検出及び非検出にかかわらず、発音部2に発音させる制御と、を進めていく。
一方、ステップX13で、CPU5は、次の音(第2音符)のノートオン(発音)のタイミングでないと判定(ステップX13:NO)すると、ステップX15に進み、次の音(第2音符)に対応する演奏キー1Aの操作が行われたかを判定する。
例えば、演奏者が演奏キー1Aの順番を暗記している程度に上達してくると、次の音(第2音符)のノートオン(発音)のタイミングよりも少し早く次の演奏キー1Aを操作するような場合がある。
この場合には、演奏者に違和感を与えないためにも、次の音(第2音符)を発音させることが好ましいため、CPU5は、ステップX15で次の音(第2音符)に対応する演奏キー1Aの操作が行われたと判定(ステップX15:YES)すると、ステップX14に進み、先ほど説明したのと同様に現在の音を消音させる処理を実行するとともに、ステップX8に進んで次の音(第2音符)に対応する演奏キー1Aを発光させる制御を行う。
そうすると、発光させた演奏キー1Aに対応する演奏キー1Aが既に操作されているので、CPU5は、次のステップX9もYESと判定することになり、ステップX10に進んで次の音(第2音符)の発音が速やかに実施される。
つまり、CPU5は、ステップX6で設定された音(曲データの第1音符)に従った演奏キー1Aの操作が行われて発音部2からの発音が開始された場合、第1音符の後に続く次の音である第2音符に従った演奏キー1Aの操作が曲データの第2音符に従った演奏キー1Aの操作のタイミングよりも早くても、曲データの第2音符に従った発音の制御データ(ノートオンデータ、コンティニュアスデータ)を音源部8に出力し、その音(第2音符に従った次の第2音波形データの音)を発音部2から出力(発音)させる制御を行うことになる。
なお、本実施形態では、CPU5は、次の演奏キー1Aの操作のタイミングよりも早いタイミングで演奏キー1Aの操作が行われても、判定の結果が次に操作すべき演奏キー1Aでなかった場合(ステップX15:NO)には、ステップX14に進まないので、発音部2からは現在の発音が継続され、間違った音が発音されるのを抑制するようにしている。
一方、CPU5は、ステップX15で次の音に対応する演奏キー1Aの操作が行われていないと判定(ステップX15:NO)すると、ステップX16に進み、CPU5は練習区間の終了のタイミングかを判定する。
そして、CPU5は、ステップX16で練習区間の終了のタイミングでないと判定(ステップX16:NO)すると、再び、ステップX13に戻って先ほど説明したのと同様の処理を行うことになるが、ステップX16で練習区間の終了のタイミングであると判定(ステップX16:YES)すると、ステップX17に進み、CPU5は、発光中の演奏キー1Aの音の消音を制御する制御データ(ノートオフ)を音源部8に出力し、発音部2からの発音を消音させるとともに、演奏キー1Aの発光を光源部9に止めさせる制御を行う。
なお、演奏者の演奏キー1Aの操作が終了するのを待ってから、音の消音を制御する制御データ(ノートオフ)を音源部8に出力するようにすることで違和感のない演奏の終了とすることができるので、ステップX17では、演奏キー1Aの操作が終了するのを検出してから、CPU5が音の消音を制御する制御データ(ノートオフ)を音源部8に出力することが好ましい。
このように、演奏キー1Aの操作が終了するのを検出してから、CPU5が音の消音を制御する制御データ(ノートオフ)を音源部8に出力する場合、CPU5がステップX16の判定がYESとなったときに音源部8にループ処理データを出力し、ステップX16の判定がYESとなってから、実際に、演奏キー1Aの操作が終了するのを検出するまでの間、このループ処理データに基づいて発音部2からの発音を継続するようにすればよい。
例えば、ループ処理データとしては、練習区間の終了位置手前の音のコンティニュアスデータの10%程度の範囲のデータを設定するようにすればよい。
ただし、練習区間の終了位置の直前がビブラートである場合には、ビブラート加工処理がなされた音波形データが継続して発音部2から出力されるように、例えば、ループ処理データに従った音波形データは、ループ区間全体に渡って同程度のビブラート加工処理がなされていることが好ましい。
そして、ステップX17の処理が終了すると、図8に示すメインルーチンに戻り、全体の処理が終了することになる。
以上、具体的な実施形態に基づき本発明の電子管楽器100について説明してきたが、本発明は上記実施形態に限定されるものではなく、本発明の技術的範囲には、本発明の目的が達成される範囲での様々な変形や改良などが含まれるものであり、そのことは当業者にとって特許請求の範囲の記載から明らかである。
以下に、この優先基礎となる出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この優先基礎となる出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
音高を指定するための複数の演奏キーと、
息吹込操作を検出するブレスセンサと、
前記息吹込操作及び前記演奏キーの操作が行われた場合、前記息吹込操作及び前記演奏キーの操作に基づいて生成された第1音波形データを、前記息吹込操作の検出に基づいて出力する第1モードと、前記息吹込操作及び前記演奏キーの操作に基づいて生成されて出力されるべき第2音波形データを出力する代わりに、前記ブレスセンサにより前記息吹込操作が検出されている場合に、前記演奏キーの操作又は非操作にかかわらず、曲データに基づいて生成された第3音波形データを、前記息吹込操作の検出に基づいて出力する第2モードと、を選択的に切り換える制御部と、
を有する電子管楽器。
<請求項2>
前記制御部は、前記ブレスセンサによって前記息吹込操作が検出され、前記曲データに基づいて生成された前記第3音波形データを出力させた後、前記曲データの息吹込操作区間が終了する前に前記ブレスセンサによって前記息吹込操作の終了が検出され、再び、前記ブレスセンサによって前記息吹込操作が検出されると、前記曲データの前記息吹込操作区間内で出力されていない第4音波形データを出力する請求項1に記載の電子管楽器。
<請求項3>
前記制御部は、前記曲データの息吹込操作区間の終了位置を越えても前記ブレスセンサによって前記息吹込操作が検出されている場合、前記曲データの前記息吹込操作区間の終了位置近くの前記曲データに基づいて生成された第5音波形データの出力を行う請求項1又は請求項2に記載の電子管楽器。
<請求項4>
前記制御部は、前記曲データの息吹込操作区間の終了位置の直前がビブラートである場合、前記ビブラートの加工処理がされている前記第5音波形データの出力を行う請求項3に記載の電子管楽器。
<請求項5>
少なくとも前記第2モードを実施する区間として前記曲データの任意の息吹込操作区間を選択することができる請求項1から請求項4のいずれか1項に記載の電子管楽器。
<請求項6>
音高を指定するための複数の演奏キーと息吹込操作を検出するブレスセンサとを有する電子管楽器の制御方法であって、
前記息吹込操作及び前記演奏キーの操作が行われた場合、前記息吹込操作及び前記演奏キーの操作に基づいて生成された第1音波形データを、前記息吹込操作の検出に基づいて出力する第1モードと、前記息吹込操作及び前記演奏キーの操作に基づいて生成されて出力されるべき第2音波形データを出力する代わりに、前記ブレスセンサにより前記息吹込操作が検出されている場合に、前記演奏キーの操作又は非操作にかかわらず、曲データに基づいて生成された第3音波形データを、前記息吹込操作の検出に基づいて出力する第2モードと、を選択的に切り換える制御方法。
<請求項7>
音高を指定するための複数の演奏キーと息吹込操作を検出するブレスセンサとを有する電子管楽器用のプログラムであって、
電子管楽器の制御部に対して、
前記息吹込操作及び前記演奏キーの操作が行われた場合、前記息吹込操作及び前記演奏キーの操作に基づいて生成された第1音波形データを、前記息吹込操作の検出に基づいて出力する第1モードと、前記息吹込操作及び前記演奏キーの操作に基づいて生成されて出力されるべき第2音波形データを出力する代わりに、前記ブレスセンサにより前記息吹込操作が検出されている場合に、前記演奏キーの操作又は非操作にかかわらず、曲データに基づいて生成された第3音波形データを、前記息吹込操作の検出に基づいて出力する第2モードと、を選択的に切り換える制御を少なくとも実行させるプログラム。
なお、本明細書における出力予定音波形データは優先基礎の出願で第2音波形データと記載されていたものであり、本明細書における第2音波形データは優先基礎の出願で第3音波形データと記載されていたものである。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
音高を指定するための複数の演奏キーと、
少なくとも息吹込操作を検出するブレスセンサと、
制御部と、を備え、
前記制御部は、
前記息吹込操作及び前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作に基づいて生成された第1音波形データを出力する第1モードと、
前記息吹込操作が検出されている場合に、前記少なくとも1つの演奏キーの操作の検出又は非検出にかかわらず、曲データに基づく第2音波形データを出力する第2モードと、を選択的に切り換えることを特徴とする電子管楽器。
<請求項2>
前記息吹込操作は、前記ブレスセンサの出力信号からブレス値を取得することにより検出し、
前記曲データは、基本ブレス値及び、演奏における奏法に従った演奏データ値を含み、
前記制御部は、前記第2モードが選択されている際に、前記基本ブレス値と前記ブレスセンサにより出力された前記ブレス値との差に基づいて、前記演奏データ値を補正する補正処理を実行し、前記第2音波形データは前記補正処理により補正された補正データ値に基づいて生成されていることを特徴とする請求項1に記載の電子管楽器。
<請求項3>
前記補正処理は、
前記演奏データ値がビブラート奏法に従った演奏データ値である場合に、前記ブレス値が前記基本ブレス値以上の場合、前記演奏データ値に対してビブラートの深さを深くする補正処理を実行し、前記ブレス値が前記基本ブレス値未満の場合に、前記演奏データ値に対してビブラートの深さを浅くする補正処理を実行することを特徴とする請求項2に記載の電子管楽器。
<請求項4>
前記補正処理は、
前記演奏データ値がグロウル奏法に従った演奏データ値である場合に、前記ブレス値が前記基本ブレス値より大きい場合、前記演奏データ値に対してグロウル波形の合成比率を大きくする補正処理を実行し、前記ブレス値が前記基本ブレス値未満の場合に、前記演奏データ値に対して前記グロウル波形の合成比率を小さくする補正処理を実行することを特徴とする請求項2に記載の電子管楽器。
<請求項5>
前記補正処理は、
前記演奏データ値がサブトーン奏法に従った演奏データ値である場合に、前記ブレス値が前記基本ブレス値より大きい場合、前記演奏データ値に対してサブトーン波形の合成比率を大きくする補正処理を実行し、前記ブレス値が前記基本ブレス値未満の場合に、前記演奏データ値に対して前記サブトーン波形の合成比率を小さくする補正処理を実行することを特徴とする請求項2に記載の電子管楽器。
<請求項6>
前記曲データは、息吹込操作区間を識別する識別子を含み、
前記制御部は、前記第2モードが選択されている際に、前記識別子により識別された前記息吹込操作区間の区間内で前記息吹込操作が検出され、前記息吹込操作が検出された区間内の少なくとも1つ以上の前記第2音波形データが出力された後、前記息吹込操作区間が終了する前に前記息吹込操作が非検出になり、その後、前記息吹込操作が検出された場合、前記区間内で未出力の次の第2音波形データを音源部に出力させるように制御することを特徴とする請求項1から請求項5のいずれか1項に記載の電子管楽器。
<請求項7>
前記制御部は、前記第2モードが選択されている際に、前記識別子により識別された前記息吹込操作区間を越えて前記息吹込操作が検出されている場合、前記息吹込操作区間の経過後は、前記息吹込操作区間の終了位置近くの前記曲データに基づく音波形データを音源部に出力させるように制御することを特徴とする請求項6に記載の電子管楽器。
<請求項8>
前記制御部は、前記ブレスセンサにより前記息吹込操作が検出されている場合に、トレモロ、グロウル、タンギング、ビブラート、サブトーンの少なくとも1つ以上の演奏における奏法については、その奏法の検出又は非検出にかかわらず、前記曲データに含まれる複数の演奏データ値に応じた第3音波形データを出力する第3モードと、を選択的に切り換えることを特徴とする請求項1から請求項7のいずれか1項に記載の電子管楽器。
<請求項9>
前記制御部は、前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作が、前記曲データに基づいて指定すべき演奏キーの操作である場合に、前記ブレスセンサによる前記息吹込操作の検出又は非検出にかかわらず、前記曲データに基づく第2音波形データを出力する第4モードと、を選択的に切り換えることを特徴とする請求項1から請求項8のいずれか1項に記載の電子管楽器。
<請求項10>
前記制御部は、前記第4モードが選択されている際に、前記曲データに基づいて前記指定すべき演奏キーを識別する識別子を出力する識別子出力処理を実行することを特徴とする請求項9に記載の電子管楽器。
<請求項11>
音高を指定するための複数の演奏キーと、少なくとも息吹込操作を検出するブレスセンサと、を備える電子管楽器に、
前記息吹込操作及び前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作に基づいて生成された第1音波形データを出力する第1モードと、前記息吹込操作が検出されている場合に、前記少なくとも1つの演奏キーの操作の検出又は非検出にかかわらず、曲データに基づく第2音波形データを出力する第2モードと、を選択的に切り換えさせる方法。
<請求項12>
音高を指定するための複数の演奏キーと、少なくとも息吹込操作を検出するブレスセンサと、を備える電子管楽器に、
前記息吹込操作及び前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作に基づいて生成された第1音波形データを出力する第1モードと、前記息吹込操作が検出されている場合に、前記少なくとも1つの演奏キーの操作の検出又は非検出にかかわらず、曲データに基づく第2音波形データを出力する第2モードと、を選択的に切り換えさせるプログラム。
100 電子管楽器
100a 管体部
1 操作子
1A 演奏キー
1B 設定キー
2 発音部
3 マウスピース部
3a マウスピース本体
3aa 開口部
3b 固定金具
3c リード部
4 基板
5 CPU(制御部)
6 ROM
7 RAM
8 音源部
9 光源部
10 ブレスセンサ
11 ボイスセンサ
12 タンセンサ
12s 検出部
13 リップセンサ
13a リッププレッシャセンサ部
13b リップポジションセンサ部
13s 検出部
14 表示部
15 バス

Claims (12)

  1. 音高を指定するための複数の演奏キーと、
    息吹込操作のブレス値を検出するブレスセンサと、
    基本ブレス値及び演奏における奏法に従った演奏データ値を含む曲データを記憶している記憶部と、
    前記演奏キーの操作の有無にかかわらず、前記基本ブレス値と前記ブレスセンサにより検出される前記ブレス値との差に基づいて前記演奏データ値を補正し、補正された補正データ値に基づいて生成された第1音波形データを出力する制御部と、
    を備え、
    前記制御部は、
    前記息吹込操作が検出されている場合に、少なくとも1つの前記演奏キーの操作の検出又は非検出にかかわらず、前記曲データに基づく前記第1音波形データを出力する第1モードと、
    前記息吹込操作及び前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作に基づいて生成された第2音波形データを出力する第2モードと、
    を選択的に切り換える、電子管楽器。
  2. 前記演奏データ値を補正する処理は、
    前記演奏データ値がビブラート奏法に従った演奏データ値である場合に、前記ブレス値が前記基本ブレス値以上の場合、前記演奏データ値に対してビブラートの深さを深くする補正処理を実行し、前記ブレス値が前記基本ブレス値未満の場合に、前記演奏データ値に対してビブラートの深さを浅くする処理を含む、請求項1に記載の電子管楽器。
  3. 前記演奏データ値を補正する処理は、
    前記演奏データ値がグロウル奏法に従った演奏データ値である場合に、前記ブレス値が前記基本ブレス値より大きい場合、前記演奏データ値に対してグロウル波形の合成比率を大きくする補正処理を実行し、前記ブレス値が前記基本ブレス値未満の場合に、前記演奏データ値に対して前記グロウル波形の合成比率を小さくする処理を含む、請求項1または2に記載の電子管楽器。
  4. 前記演奏データ値を補正する処理は、
    前記演奏データ値がサブトーン奏法に従った演奏データ値である場合に、前記ブレス値が前記基本ブレス値より大きい場合、前記演奏データ値に対してサブトーン波形の合成比率を大きくする補正処理を実行し、前記ブレス値が前記基本ブレス値未満の場合に、前記演奏データ値に対して前記サブトーン波形の合成比率を小さくする処理を含む、請求項1乃至3のいずれか一項に記載の電子管楽器。
  5. 音高を指定するための複数の演奏キーと、
    少なくとも息吹込操作を検出するブレスセンサと、
    前記息吹込操作により演奏すべき区間である息吹込操作区間を識別する識別子を含む曲データを記憶している記憶部と、
    前記演奏キーの操作の有無にかかわらず、前記識別子により識別された前記息吹込操作区間内で前記息吹込操作が検出された場合に第1音波形データを出力し、前記息吹込操作が検出された区間内の少なくとも1つ以上の前記第1音波形データが出力された後、前記息吹込操作区間が終了する前に前記息吹込操作が非検出になり、その後、前記息吹込操作が検出された場合、前記区間内で未出力の次の第1音波形データを音源部に出力させるように制御する制御部と、
    を備え、
    前記制御部は、
    前記息吹込操作が検出されている場合に、少なくとも1つの前記演奏キーの操作の検出又は非検出にかかわらず、前記曲データに基づく前記第1音波形データを出力する第1モードと、
    前記息吹込操作及び前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作に基づいて生成された第2音波形データを出力する第2モードと、
    を選択的に切り換える、電子管楽器。
  6. 前記制御部は、
    前記息吹込操作が検出されている場合に、少なくとも1つの前記演奏キーの操作の検出又は非検出にかかわらず、前記曲データに基づく前記第1音波形データを出力する第1モードと、
    前記息吹込操作及び前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作に基づいて生成された第2音波形データを出力する第2モードと、
    を選択的に切り換える、請求項5に記載の電子管楽器。
  7. 前記制御部は、前記第1モードが選択されている際に、前記識別子により識別された前記息吹込操作区間を越えて前記息吹込操作が検出されている場合、前記息吹込操作区間の経過後は、前記息吹込操作区間の終了位置近くの前記曲データに基づく音波形データを音源部に出力させるように制御する、請求項6に記載の電子管楽器。
  8. 音高を指定するための複数の演奏キーと、
    少なくとも息吹込操作を検出するブレスセンサと、
    制御部と、を備え、
    前記制御部は、
    前記息吹込操作及び前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作に基づいて生成された第1音波形データを出力する第1モードと、
    前記息吹込操作が検出されている場合に、前記少なくとも1つの演奏キーの操作の検出又は非検出にかかわらず、曲データに基づく第2音波形データを出力する第2モードと、
    前記ブレスセンサにより前記息吹込操作が検出されている場合に、トレモロ、グロウル、タンギング、ビブラート、サブトーンの少なくとも1つ以上の演奏における奏法については、その奏法の検出又は非検出にかかわらず、前記曲データに含まれる複数の演奏データ値に応じた第3音波形データを出力する第3モードと、
    を選択的に切り換える、電子管楽器。
  9. 音高を指定するための複数の演奏キーと、
    少なくとも息吹込操作を検出するブレスセンサと、
    制御部と、を備え、
    前記制御部は、
    前記息吹込操作及び前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作に基づいて生成された第1音波形データを出力する第1モードと、
    前記息吹込操作が検出されている場合に、前記少なくとも1つの演奏キーの操作の検出又は非検出にかかわらず、曲データに基づく第2音波形データを出力する第2モードと、
    前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作が、前記曲データに基づいて指定すべき演奏キーの操作である場合に、前記ブレスセンサによる前記息吹込操作の検出又は非検出にかかわらず、前記曲データに基づく第2音波形データを出力する第3モードと、
    を選択的に切り換える、電子管楽器。
  10. 前記制御部は、前記第3モードが選択されている際に、前記曲データに基づいて前記指定すべき演奏キーを識別する識別子を出力する識別子出力処理を実行することを特徴とする請求項9に記載の電子管楽器。
  11. 音高を指定するための複数の演奏キーと、息吹込操作のブレス値を検出するブレスセンサと、基本ブレス値及び演奏における奏法に従った演奏データ値を含む曲データを記憶している記憶部と、を備える電子管楽器が、
    前記演奏キーの操作の有無にかかわらず、前記基本ブレス値と前記ブレスセンサにより検出される前記ブレス値との差に基づいて前記演奏データ値を補正し、補正された補正データ値に基づいて生成された第1音波形データを出力し、
    前記息吹込操作が検出されている場合に、少なくとも1つの前記演奏キーの操作の検出又は非検出にかかわらず、前記曲データに基づく前記第1音波形データを出力する第1モードと、前記息吹込操作及び前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作に基づいて生成された第2音波形データを出力する第2モードと、を選択的に切り換える、
    制御を実行する方法。
  12. 音高を指定するための複数の演奏キーと、息吹込操作のブレス値を検出するブレスセンサと、基本ブレス値及び演奏における奏法に従った演奏データ値を含む曲データを記憶している記憶部と、を備える電子管楽器に、
    前記演奏キーの操作の有無にかかわらず、前記基本ブレス値と前記ブレスセンサにより検出される前記ブレス値との差に基づいて前記演奏データ値を補正し、補正された補正データ値に基づいて生成された第1音波形データを出力させ、
    前記息吹込操作が検出されている場合に、少なくとも1つの前記演奏キーの操作の検出又は非検出にかかわらず、前記曲データに基づく前記第1音波形データを出力する第1モードと、前記息吹込操作及び前記複数の演奏キーのうちの少なくとも1つの演奏キーの操作に基づいて生成された第2音波形データを出力する第2モードと、を選択的に切り換える、
    制御を実行させるプログラム。
JP2017186499A 2017-03-15 2017-09-27 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム Active JP7192203B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/919,899 US10360884B2 (en) 2017-03-15 2018-03-13 Electronic wind instrument, method of controlling electronic wind instrument, and storage medium storing program for electronic wind instrument
CN201810213658.9A CN108630176B (zh) 2017-03-15 2018-03-15 电子管乐器及其控制方法以及记录介质
JP2022159186A JP7347619B2 (ja) 2017-03-15 2022-10-03 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017049331 2017-03-15
JP2017049331 2017-03-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022159186A Division JP7347619B2 (ja) 2017-03-15 2022-10-03 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム

Publications (2)

Publication Number Publication Date
JP2018156057A JP2018156057A (ja) 2018-10-04
JP7192203B2 true JP7192203B2 (ja) 2022-12-20

Family

ID=63716710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017186499A Active JP7192203B2 (ja) 2017-03-15 2017-09-27 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム

Country Status (1)

Country Link
JP (1) JP7192203B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7262347B2 (ja) * 2019-09-06 2023-04-21 ローランド株式会社 電子吹奏楽器
JP7423952B2 (ja) 2019-09-20 2024-01-30 カシオ計算機株式会社 検出装置、電子楽器、検出方法及びプログラム
CN112991869A (zh) * 2021-02-23 2021-06-18 翟燕敏 一种声乐教学系统及其教学装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049439A (ja) 2003-07-30 2005-02-24 Yamaha Corp 電子楽器
JP2008152297A (ja) 2003-07-30 2008-07-03 Yamaha Corp 楽器

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049439A (ja) 2003-07-30 2005-02-24 Yamaha Corp 電子楽器
JP2008152297A (ja) 2003-07-30 2008-07-03 Yamaha Corp 楽器

Also Published As

Publication number Publication date
JP2018156057A (ja) 2018-10-04

Similar Documents

Publication Publication Date Title
CN108630176B (zh) 电子管乐器及其控制方法以及记录介质
US10304430B2 (en) Electronic musical instrument, control method thereof, and storage medium
JP3598598B2 (ja) カラオケ装置
US8314320B2 (en) Automatic accompanying apparatus and computer readable storing medium
JP6705272B2 (ja) 発音制御装置、発音制御方法、及びプログラム
JP7192203B2 (ja) 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム
US20210074252A1 (en) Electronic wind instrument and control method thereof
JP5732982B2 (ja) 楽音生成装置および楽音生成プログラム
JP7347619B2 (ja) 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム
WO2023058173A1 (ja) 音制御装置およびその制御方法、電子楽器、プログラム
JP6816581B2 (ja) 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム
JP6801533B2 (ja) 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム
WO2005081222A1 (ja) 演奏指示に従って演奏された自然楽器の楽音判定装置、楽音判定プログラムおよび該プログラムを記録した媒体
JP6149890B2 (ja) 楽音生成装置および楽音生成プログラム
JP3811043B2 (ja) 電子楽器
JP5742592B2 (ja) 楽音生成装置、楽音生成プログラム及び電子楽器
WO2023175844A1 (ja) 電子管楽器及び電子管楽器の制御方法
JP5560574B2 (ja) 電子楽器および自動演奏プログラム
WO2023058172A1 (ja) 音制御装置およびその制御方法、電子楽器、プログラム
JP5412766B2 (ja) 電子楽器及びプログラム
JP3235160B2 (ja) 楽音制御装置
JP2000259154A (ja) コード判定装置
JP6809608B2 (ja) 歌唱音生成装置及び方法、プログラム
JP6102975B2 (ja) 楽音生成装置、楽音生成プログラム及び電子楽器
JPWO2022190502A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221003

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221013

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221121

R150 Certificate of patent or registration of utility model

Ref document number: 7192203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150