JP6679862B2 - 電子楽器、電子管楽器、楽音発生指示方法およびプログラム - Google Patents

電子楽器、電子管楽器、楽音発生指示方法およびプログラム Download PDF

Info

Publication number
JP6679862B2
JP6679862B2 JP2015181901A JP2015181901A JP6679862B2 JP 6679862 B2 JP6679862 B2 JP 6679862B2 JP 2015181901 A JP2015181901 A JP 2015181901A JP 2015181901 A JP2015181901 A JP 2015181901A JP 6679862 B2 JP6679862 B2 JP 6679862B2
Authority
JP
Japan
Prior art keywords
pitch
mouthpiece
resonance frequency
sound
wind instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015181901A
Other languages
English (en)
Other versions
JP2017058461A5 (ja
JP2017058461A (ja
Inventor
出嶌 達也
達也 出嶌
里夏 大久保
里夏 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015181901A priority Critical patent/JP6679862B2/ja
Publication of JP2017058461A publication Critical patent/JP2017058461A/ja
Publication of JP2017058461A5 publication Critical patent/JP2017058461A5/ja
Application granted granted Critical
Publication of JP6679862B2 publication Critical patent/JP6679862B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、口笛の発音原理を用いて楽音を発生する電子楽器、電子管楽器、楽音発生指示方法およびプログラムに関する。
従来より、サックス等のアコースティック管楽器を模した筺体内部に音源を設け、当該音源から電子的に楽音を発生する電子管楽器が知られている。この種の楽器として、例えば特許文献1には、マウスピースを咥えた時に接触する吹奏者の上唇および下唇の位置を検出し、検出した上唇および下唇の位置に応じて楽音パラメータを制御することによって、例えば上唇および下唇のわずかな動きで発生楽音の音色を変化させる技術が開示されている。
特開2000−122641号公報
ところで、上記特許文献1に開示の技術では、マウスピースに接触する唇の位置や、頬や咽の動きに応じて、発生する楽音のパラメータを制御するが、口笛の発音原理を用いて楽音を発生することが出来ない、という問題がある。
そこで本発明は、上述した事情に鑑みてなされたもので、口笛の発音原理を用いて楽音を発生することが出来る電子楽器、電子管楽器、楽音発生指示方法およびプログラムを提供することを目的としている。
上記目的を達成するため、本発明の電子管楽器は、
マウスピースと、
前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得する取得処理と、前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する発音指示処理を実行する処理部と
を具備することを特徴とする。
本発明の楽音発生方法は、
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、処理部を有する電子管楽器に用いられる楽音発生指示方法であって、前記処理部が、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得し、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する、ことを特徴とする。
本発明のプログラムは、
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、を有する電子管楽器として用いられるコンピュータに、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得するステップと、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示するステップと、
を実行させることを特徴とする。
本発明では、口笛の発音原理を用いて楽音を発生することが出来る。
本発明の実施の一形態による電子管楽器100の外観を示す外観図およびマウスピース2の構造の一例を示す断面図である。 電子管楽器100の電気的構成を示すブロック図である。 CPU10が実行するメインフローの動作および音程検出処理の動作を示すフローチャートである。 CPU10が実行する共振検知処理の動作を示すフローチャートである。 CPU10が実行するピッチ検出処理の動作を示すフローチャートである。 CPU10が実行する発音ピッチ確定処理の動作および音源処理の動作を示すフローチャートである。 変形例による発音ピッチ確定処理の動作を示すフローチャートおよび音高マップの一例を示す図である。
以下、図面を参照して本発明の実施形態について説明する。
A.外観
図1(a)は、本発明の一実施形態による電子管楽器100の外観を示す外観図である。この図に示す電子管楽器100は、角笛状の管体として形成される本体1と、この本体1の基端側に嵌着されるマウスピース2とから構成される。本体1の他端側には、楽音を放音するスピーカ3が設けられる。本体1の側部には、パワーオン・オフする電源スイッチの他、音色選択スイッチ等の各種操作スイッチ4が配設される。
次に、図1(b)を参照してマウスピース2の構造を説明する。本体1の基端側に嵌着されるマウスピース2は、内部にスピーカ20、マイク21および圧力センサ22を備える。スピーカ20は、ホワイトノイズ音を放音するものであり、その意図するところについては追って述べる。マイク21は、マウスピース内部の音を集音する。圧力センサ22は、マウスピース2の歌口(吹き込み口)から吹き込まれる吹奏者の息圧を検出する。
B.構成
次に、図2を参照して電子管楽器100の電気的構成を説明する。図2において、CPU10は、操作部16(スイッチ4を含む)が発生する各種スイッチイベントに従って楽器各部を動作形態を設定する他、口笛の発音原理(後述する)に基づき音源部17に発音・消音を指示する。ROM11は、CPU10にロードされる各種プログラムを記憶する。各種プログラムとは、後述するメインフロー、音程検出処理および音源処理を含む。なお、音程検出処理は、共振検知処理、ピッチ検出処理および発音ピッチ確定処理を含む。
RAM12は、ワークエリアおよびデータエリアを備える。RAM12のワークエリアには、CPU10の作業領域として用いられ、各種レジスタ・フラグが一時記憶される。RAM12のデータエリアには、後述する集音データや息圧データが一時記憶される。ホワイトノイズ発生部13は、CPU10の制御の下に、ホワイトノイズ信号を発生し、マウスピース2の内部に設けられたスピーカ20に供給してホワイトノイズ音を放音させる。なお、本実施形態では、ホワイトノイズ発生部13でホワイトノイズ信号を発生する態様としたが、これに替えて、後述する音源部17を用いてホワイトノイズ信号を発生する態様としても構わない。
息圧検出部14は、CPU10の制御の下に、マウスピース2の内部に配設される圧力センサ22(図1(b)参照)の出力をサンプリングして得た息圧データを発生する。息圧検出部14が発生する息圧データは、RAM12のデータエリアに一時記憶される。集音部15は、CPU10の制御の下に、マウスピース2の内部に配設されるマイク21(図1(b)参照)の出力をサンプリングして得た集音データを発生する。集音部15が発生する集音データは、RAM12のデータエリアに一時記憶される。
操作部16は、本体1の側部に配設される各種操作スイッチ4から構成され、操作されるスイッチ種に応じたスイッチイベントを発生する。このスイッチイベントは、CPU10に取り込まれる。音源部17は、周知の波形メモリ読み出し方式にて構成される複数の発音チャンネル(MIDIチャンネル)を備え、CPU10から供給されるノートオン/ノートオフイベントに従って楽音波形データを発生する。
サウンドシステム18は、音源部17から出力される楽音波形データをアナログ形式の楽音信号に変換し、当該楽音信号から不要ノイズを除去する等のフィルタリングを施した後、これを増幅して本体1の開放端に設けられたスピーカ3(図1(a)参照)から放音させる。MIDIインタフェース19は、CPU10の制御の下に、図示されていないMIDI楽器とMIDIデータを授受する。
C.動作
次に、図3〜図6を参照して、上述した電子管楽器100のCPU10が実行するメインフロー、音程検出処理および音源処理を各動作について説明する。なお、音程検出処理は、共振検知処理、ピッチ検出処理および発音ピッチ確定処理を含む。また、以下の動作説明では、ことわりが無い限り、CPU10が動作の主体となる。
(1)メインフローの動作
図3(a)は、CPU10が実行するメインフローの動作を示すフローチャートである。電源スイッチのオン操作でパワーオンされると、CPU10は図3(a)に図示する本処理を実行してステップSA1に処理を進め、電子管楽器100の各部を初期化するイニシャライズを行う。そして、イニシャライズが完了すると、ステップSA2を介して音程検出処理を実行する。
音程検出処理では、後述するように、マウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化する共振周波数を測定し、当該共振周波数に近いクロマチック音階の音高f1を取得し、さらにマウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階の音高f2を取得する。そして、音高f1と音高f2とが一致すれば、音高f1(又は音高f2)を発音ピッチFに設定し、一方、一致しなければ、優先的に音高f1を発音ピッチFに設定する。
続いて、ステップSA3では、音源処理を実行する。音源処理では、後述するように、吹奏者がマウスピース2に息を吹き込んでいるかどうかを判断し、息を吹き込んでいれば、発音ピッチFおよび息圧データに対応した音量を含むノートオンイベントを発生して音源部17に供給し、さらに発音ピッチFが変更されると、変更された発音ピッチFで発音するよう音源部17に指示する。そして、息が吹き込まれなくなると、ノートオフイベントを発生して音源部17に供給する。
そして、ステップSA4では、例えば音色選択スイッチ操作で選択された音色を音源部17に指示する等の、その他の処理を実行した後、上記ステップSA2に処理を戻す。以後、電源スイッチのオフ操作でパワーオフされるまで上記ステップSA2〜SA4を繰り返し実行する。
(2)音程検出処理の動作
次に、図3(b)を参照して音程検出処理の動作を説明する。図3(b)は、音程検出処理の動作を示すフローチャートである。上述したメインフローのステップSA2(図3(a)参照)を介して本処理が実行されると、CPU10は図3(b)に図示するステップSB1に処理を進め、共振検知処理を実行する。
共振検知処理では、後述するように、マウスピース2の内部空間から当該マウスピース2を咥える吹奏者の口腔内へホワイトノイズ音を伝え、そのホワイトノイズ音をマイク21で集音した集音データを周波数分析してマウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化する共振周波数を測定し、当該共振周波数に近いクロマチック音階の音高f1を取得する。つまり、口笛の発音原理と同様に口腔のヘルムホルツ共鳴で得られる音高を取得する。
次のステップSB2では、ピッチ検出処理を実行する。ピッチ検出処理では、後述するよに、吹奏者がマウスピース2に息を吹き込むと、マイク21で集音した集音データ(マウスピース2の内部の波形)からホワイトノイズ成分を減算し、さらにその残存波形にバンドパスフィルタリングを施して得た波形のピッチを抽出し、前回測定したピッチと今回測定したピッチとが一致すると、今回取得したピッチに近いクロマチック音階の音高f2を取得する。
そして、ステップSB3では、発音ピッチ確定処理を実行する。発音ピッチ確定処理では、後述するように、共振検知処理で得た音高f1と、ピッチ検出処理で得た音高f2とが一致すれば、音高f1(又は音高f2)を発音ピッチFに設定し、一方、一致しなければ、共振検知処理で得た音高f1を優先的に発音ピッチFに設定する。
(3)共振検知処理の動作
次に、図4を参照して共振検知処理の動作を説明する。図4は、共振検知処理の動作を示すフローチャートである。上述した音程検出処理のステップSB1(図3(b)参照)を介して本処理が実行されると、CPU10は図4に図示するステップSC1に処理を進め、ホワイトノイズ発生部13から所定レベルのホワイトノイズ信号を発生させ、当該ホワイトノイズ信号をマウスピース2の内部に設けられたスピーカ20に供給してホワイトノイズ音を放音させる。こうして放音されるホワイトノイズ音は、マウスピース2の内部空間から当該マウスピース2を咥える吹奏者の口腔内へ伝わる。
次いで、ステップSC2では、マウスピース2の内部に配設されるマイク21の出力をサンプリングするよう集音部15に指示する。これにより、集音部15により取得される集音データがRAM12のデータエリアに一時記憶される。次のステップSC3では、RAM12のデータエリアに一時記憶された所定サンプル数のホワイトノイズ音データにFFT(高速フーリエ変換)処理を施す。
そして、ステップSC4では、上記ステップSC3のFFT処理で得られる周波数分析結果に基づき共振周波数を測定する。なお、この共振周波数は、マウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化するものであり、口笛の発音原理であるヘルムホルツ共鳴に相当する。
続いて、ステップSC5では、前回測定した共振周波数と今回測定した共振周波数とが一致するか否かを判断する。最初の測定では、前回測定値が存在しないので、判断結果は「NO」になり、ステップSC6に進む。ステップSC6では、取得した測定値(共振周波数)に近いクロマチック音階の音高f1を設定する。この後、ステップSC7に進み、一定時間待機した後、上記ステップSC1〜SC4を繰り返して再び共振周波数を測定する。
そして、前回測定した共振周波数と今回測定した共振周波数とが一致すると、上記ステップSC5の判断結果が「YES」になり、ステップSC8に進み、今回取得した測定値(共振周波数)に近いクロマチック音階の音高f1を設定して本処理を終える。
このように、共振検知処理では、マウスピース2の内部空間から当該マウスピース2を咥える吹奏者の口腔内へホワイトノイズ音を伝え、そのホワイトノイズ音をマイク21で集音して得た集音データを周波数分析してマウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化する共振周波数を測定し、その共振周波数に近いクロマチック音階の音高f1を取得する。
(4)ピッチ検出処理の動作
次に、図5を参照してピッチ検出処理の動作を説明する。図5は、ピッチ検出処理の動作を示すフローチャートである。前述した音程検出処理のステップSB2(図3(b)参照)を介して本処理が実行されると、CPU10は図5に図示するステップSD1に処理を進め、マウスピース2内部に設けられる圧力センサ22がオン状態であるか否かを判断する。ここで言う圧力センサ22がオン状態とは、圧力センサ22が息圧を検出している状態を指す。したがって、上記ステップSD1では、マウスピース2に息が吹き込まれているか否かを判断する。
息が吹き込まれていなければ、上記ステップSD1の判断結果は「NO」になり、本処理を終えるが、息が吹き込まれていれば、上記ステップSD1の判断結果は「YES」になり、ステップSD2に進む。ステップSD2では、マウスピース2の内部に配設されるマイク21の出力をサンプリングするよう集音部15に指示する。これにより、集音部15により取得される集音データがRAM12のデータエリアに一時記憶される。
次いで、ステップSD3では、上記ステップSD2で取得した集音データ(MIC波形)からホワイトノイズ成分を減算し、続くステップSD4では、ホワイトノイズ成分を減算して得た残存波形にBPF(バンドパスフィルタ)処理を施す。そして、ステップSD5では、バンドパスフィルタリングされた波形のピッチを抽出する。
ステップSD6では、前回測定したピッチと今回測定したピッチとが一致するか否かを判断する。最初の測定では、前回測定値が存在しないので、判断結果は「NO」になり、ステップSD8に進む。ステップSD8では、今回取得したピッチに近いクロマチック音階の音高f2を設定して本処理を終える。これに対し、前回測定したピッチと今回測定したピッチとが一致すると、上記ステップSD6の判断結果が「YES」になり、ステップSD7に進み、今回取得したピッチに近いクロマチック音階の音高f2を設定して本処理を終える。
このように、ピッチ検出処理では、吹奏者がマウスピース2に息を吹き込むと、マイク21で集音した集音データ(マウスピース2の内部の波形)からホワイトノイズ成分を減算し、さらにその残存波形にバンドパスフィルタリングを施して得た波形のピッチを抽出し、前回測定したピッチと今回測定したピッチとが一致すると、今回取得したピッチに近いクロマチック音階の音高f2を取得する。
(5)発音ピッチ確定処理の動作
次に、図6(a)を参照して発音ピッチ確定処理の動作を説明する。図6(a)は、発音ピッチ確定処理の動作を示すフローチャートである。前述した音程検出処理のステップSB3(図3(b)参照)を介して本処理が実行されると、CPU10は図6(a)に図示するステップSE1に処理を進め、上述の共振検知処理で得た音高f1と、上述のピッチ検出処理で得た音高f2とが一致するか否かを判断する。一致すれば、音高f1(又は音高f2)を発音ピッチFに設定して本処理を終える。一方、一致しなければ、共振検知処理で得た音高f1を優先的に発音ピッチFに設定して本処理を終える。
(6)音源処理の動作
次に、図6(b)を参照して音源処理の動作を説明する。図6(b)は、音源処理の動作を示すフローチャートである。前述したメインフローのステップSA3(図3(a)参照)を介して本処理が実行されると、CPU10は図6(b)に図示するステップSF1に処理を進め、マウスピース2内部に設けられる圧力センサ22がオン状態、すなわちマウスピース2に息が吹き込まれているか否かを判断する。
息が吹き込まれていれば、判断結果は「YES」になり、ステップSF2に進み、発音ピッチFと、息圧検出部14が発生する息圧データに対応した音量とを含むノートオンイベントを発生して音源部17に送付する。これにより、音源部17では、発音ピッチFの音高で、息圧データに応じた音量の楽音データを発生する。
次いで、ステップSF3では、発音ピッチFの変更の有無を判断する。発音ピッチFに変更が無ければ、判断結果は「NO」に本処理を終えるが、発音ピッチFに変更が有ると、判断結果が「YES」になり、ステップSF4に進み、変更された発音ピッチFで発音するよう音源部17に指示して本処理を終える。
一方、息が吹き込まれていないと、上記ステップSF1の判断結果は「NO」になり、ステップSF5に進む。ステップSF5では、ノートオフイベントを発生して音源部17に送付して本処理を終える。これにより、音源部17では、ノートオフイベントを受信した時点で発音していた楽音を消音させる。
このように、音源処理では、マウスピース2に息が吹き込まれているか否かを判断し、息が吹き込まれていれば、発音ピッチFおよび息圧データに対応した音量を含むノートオンイベントを発生して音源部17に送付し、さらに発音ピッチFが変更されると、変更された発音ピッチFで発音するよう音源部17に指示する。そして、息が吹き込まれなくなると、ノートオフイベントを発生して音源部17に送付する。
D.変形例
次に、図7を参照して変形例による発音ピッチ確定処理の動作について説明する。図7(a)は変形例による発音ピッチ確定処理の動作を示すフローチャート、図7(b)は音高マップの一例を示す図である。上述の実施形態と同様、音程検出処理のステップSB3(図3(b)参照)を介して本処理が実行されると、CPU10は図7(a)に図示するステップSG1に処理を進める。ステップSG1〜SG2では、音高マップを参照し、音高f1、f2に対応する発音ピッチFが有るか否かを判断する。
音高マップとは、図7(b)に図示する一例のように、予め測定して得た音高f1および音高f2に対応する発音ピッチFをデータテーブルとしたものである。この一例の場合、例えば吹奏者の口腔の共振周波数に近いクロマチック音階の音高f1が「146.8Hz」、マウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階の音高f2が「155.6Hz」であると、対応する発音ピッチFは「D3(ノート番号:50)」となる。
このように、音高f1および音高f2に対応する発音ピッチFが音高マップに存在すると、上記ステップSG2の判断結果は「YES」になり、ステップSG3に進み、発音ピッチFを決定して本処理を終える。これに対し、音高f1および音高f2に対応する発音ピッチFが音高マップに存在しない場合には、上記ステップSG2の判断結果が「NO」になり、ステップSG4に進み、音高f2を優先的に発音ピッチFに設定して本処理を終える。
以上説明したように、本実施形態によれば、マウスピース2を咥える吹奏者の口腔内の状態(舌の位置や形状、頬の膨らませ具合)に応じて変化する共振周波数を測定し、当該共振周波数に近いクロマチック音階の音高f1を取得し、さらにマウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階の音高f2を取得する。音高f1と音高f2とが一致すれば、音高f1(又は音高f2)を発音ピッチFに設定し、一方、一致しなければ、優先的に音高f1を発音ピッチFに設定する。そして、吹奏者がマウスピース2に息を吹き込んでいれば、発音ピッチFおよび息圧データに対応した音量を含むノートオンイベントを発生して音源部17に送付し、息が吹き込まれなくなると、ノートオフイベントを発生して音源部17に送付するので、口笛の発音原理を用いて楽音を発生することが出来る。
なお、上述した実施形態および変形例では、音高f1を吹奏者の口腔の共振周波数に近いクロマチック音階、音高f2をマウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数に近いクロマチック音階としたが、これに替えて、クロマチック音階に当て嵌めずに、吹奏者の口腔の共振周波数を音高f1、マウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数を音高f2として扱う態様としてもよい。
さらに音高f1(吹奏者の口腔の共振周波数)と音高f2(マウスピース2に吹き込まれる息で形成される波形から抽出したピッチ周波数)の平均値をクロマチック音階に当て嵌めて発音ピッチFを得る態様でもよい。
以上、本発明の実施の一形態について説明したが、本発明はそれに限定されるものではなく、本願出願の特許請求の範囲に記載された発明とその均等の範囲に含まれる。以下では、本願出願当初の特許請求の範囲に記載された各発明について付記する。
(付記)
[請求項1]
マウスピースと、
前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得する取得処理と、前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する発音指示処理を実行する処理部と
を具備する電子管楽器。
[請求項2]
前記処理部は、前記発音指示処理において、前記取得された共振周波数を、クロマチック音階を構成する複数種の音高のうち、最も近い音高に変換する第1の変換処理を実行する付記1記載の電子管楽器。
[請求項3]
前記電子管楽器はさらに、前記マウスピース内に配設されたマイクを有し、
前記処理部は、前記取得処理において、前記吹奏者の口腔内にホワイトノイズを発生するとともに、前記ホワイトノイズの発生後に前記マイクにより集音された前記口腔内の音を分析することにより、前記口腔内の共振周波数を取得する処理を実行する付記1または2に記載の電子管楽器。
[請求項4]
前記処理部はさらに、
前記センサの検出信号から周波数を抽出するとともに、前記抽出された周波数を、前記クロマチック音階を構成する複数種の音高のうち、最も近い音高に変換する第2の変換処理と、
前記第1の変換処理にて変換された音高と前記第2の変換処理にて変換された音高とが一致しない場合には、前記第1の変換処理にて変換された音高を前記発音すべき楽音の音高とする付記2に記載の電子管楽器。
[請求項5]
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、処理部を有する電子管楽器に用いられる楽音発生指示方法であって、前記処理部が、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得し、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する、楽音発生指示方法。
[請求項6]
マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、を有する電子管楽器として用いられるコンピュータに、
前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得するステップと、
前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示するステップと、
を実行させるプログラム。
1 本体
2 マウスピース
3 スピーカ
4 スイッチ
10 CPU
11 ROM
12 RAM
13 ホワイトノイズ発生部
14 息圧検出部
15 集音部
16 操作部
17 音源部
18 サウンドシステム
19 MIDIインタフェース
20 スピーカ
21 マイク
22 圧力センサ
100 電子管楽器

Claims (5)

  1. マウスピースと、
    前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、
    前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得する取得処理と、前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する発音指示処理を実行する処理部と
    を具備する電子管楽器。
  2. 前記処理部は、前記発音指示処理において、前記取得された共振周波数を、クロマチック音階を構成する複数種の音高のうち、最も近い音高に変換する第1の変換処理を実行する請求項1記載の電子管楽器。
  3. 前記電子管楽器はさらに、前記マウスピース内に配設されたマイクを有し、
    前記処理部は、前記取得処理において、前記吹奏者の口腔内にホワイトノイズを発生するとともに、前記ホワイトノイズの発生後に前記マイクにより集音された前記口腔内の音を分析することにより、前記口腔内の共振周波数を取得する処理を実行する請求項1または2に記載の電子管楽器。
  4. マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、処理部を有する電子管楽器に用いられる楽音発生指示方法であって、
    前記処理部が、
    前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得し、
    前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示する、楽音発生指示方法。
  5. マウスピースと、前記マウスピースに吹き込まれる息圧もしくは息の流量の少なくとも一方を検出するセンサと、を有する電子管楽器として用いられるコンピュータに、
    前記マウスピースを咥えた吹奏者の口腔内の状態に対応した共振周波数を取得するステップと、
    前記取得された共振周波数に対応する音高の楽音を、前記センサの検出結果に対応する音量で音源に発音指示するステップと、
    を実行させるプログラム。
JP2015181901A 2015-09-15 2015-09-15 電子楽器、電子管楽器、楽音発生指示方法およびプログラム Active JP6679862B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015181901A JP6679862B2 (ja) 2015-09-15 2015-09-15 電子楽器、電子管楽器、楽音発生指示方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015181901A JP6679862B2 (ja) 2015-09-15 2015-09-15 電子楽器、電子管楽器、楽音発生指示方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2017058461A JP2017058461A (ja) 2017-03-23
JP2017058461A5 JP2017058461A5 (ja) 2018-10-11
JP6679862B2 true JP6679862B2 (ja) 2020-04-15

Family

ID=58390017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015181901A Active JP6679862B2 (ja) 2015-09-15 2015-09-15 電子楽器、電子管楽器、楽音発生指示方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6679862B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7419880B2 (ja) * 2020-03-02 2024-01-23 ヤマハ株式会社 電子吹奏楽器

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63285594A (ja) * 1987-05-18 1988-11-22 高木 征一 電子楽器の入力装置
JPH0311398A (ja) * 1989-06-08 1991-01-18 Yamaha Corp 電子楽器用ブレスコントローラ
JP2687698B2 (ja) * 1990-08-07 1997-12-08 ヤマハ株式会社 電子楽器の楽音制御装置
JP2570901B2 (ja) * 1990-10-30 1997-01-16 ヤマハ株式会社 演奏情報入力装置
JP2000122641A (ja) * 1998-10-21 2000-04-28 Casio Comput Co Ltd 電子管楽器
WO2007059614A1 (en) * 2005-11-23 2007-05-31 Photon Wind Research Ltd. Mouth-operated input device

Also Published As

Publication number Publication date
JP2017058461A (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
EP3326169B1 (en) Apparatus for a reed instrument
JP6024997B2 (ja) 楽音制御装置、楽音制御方法、プログラムおよび電子楽器
JP5803720B2 (ja) 電子管楽器、振動制御装置及びプログラム
EP3574496B1 (en) Transducer apparatus for an edge-blown aerophone and an edge-blown aerophone having the transducer apparatus
CN105185366B (zh) 电子乐器、发音控制方法
JP6679862B2 (ja) 電子楽器、電子管楽器、楽音発生指示方法およびプログラム
JP2007065198A (ja) 自動演奏装置
JP5614045B2 (ja) 電子管楽器
JP2017062327A (ja) 電子管楽器、トーキングモジュレーター及び電子管楽器システム
JP2017058461A5 (ja) 電子楽器、電子管楽器、楽音発生指示方法およびプログラム
JP6435645B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP6703304B2 (ja) 楽音制御装置、電子管楽器、楽音制御方法およびプログラム
JP2009031457A (ja) 楽音発生装置および楽音発生処理プログラム
JP4452671B2 (ja) アシスト評価機能を有するカラオケ装置
JP6573100B2 (ja) 楽音制御装置、楽音制御方法、プログラム、および電子楽器
JP6569255B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP7346865B2 (ja) 電子管楽器、楽音生成方法、及びプログラム
JP6671633B2 (ja) 電子管楽器、楽音発生方法およびプログラム
JP2017167418A (ja) 電子管楽器、楽音発生方法およびプログラム
JP5023943B2 (ja) 電子管楽器
JP2018054859A (ja) 楽音生成装置、楽音生成方法、電子楽器、及びプログラム
JP4484071B2 (ja) 入力制御装置および入力制御プログラム
JP6439225B2 (ja) 楽音発生装置、電子楽器、楽音発生方法およびプログラム
JP4973753B2 (ja) カラオケ装置およびカラオケ情報処理のプログラム
JP2012128152A (ja) 演奏練習装置およびプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180830

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R150 Certificate of patent or registration of utility model

Ref document number: 6679862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150