JP6326976B2 - 電子楽器、電子楽器の発音制御方法、およびプログラム - Google Patents

電子楽器、電子楽器の発音制御方法、およびプログラム Download PDF

Info

Publication number
JP6326976B2
JP6326976B2 JP2014110838A JP2014110838A JP6326976B2 JP 6326976 B2 JP6326976 B2 JP 6326976B2 JP 2014110838 A JP2014110838 A JP 2014110838A JP 2014110838 A JP2014110838 A JP 2014110838A JP 6326976 B2 JP6326976 B2 JP 6326976B2
Authority
JP
Japan
Prior art keywords
output
sensor
breath
voice
musical instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014110838A
Other languages
English (en)
Other versions
JP2015225271A5 (ja
JP2015225271A (ja
Inventor
林 龍太郎
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014110838A priority Critical patent/JP6326976B2/ja
Publication of JP2015225271A publication Critical patent/JP2015225271A/ja
Publication of JP2015225271A5 publication Critical patent/JP2015225271A5/ja
Application granted granted Critical
Publication of JP6326976B2 publication Critical patent/JP6326976B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、電子楽器の発音制御技術に関する。
管楽器を電子技術によって実現する電子楽器において、演奏者の個人差を吸収しながら、伝統的な管楽器(例えばサクソホーン)における演奏者の息の強さや吹口部を噛む強さ等を楽音パラメータとしてその特性値に従って吹奏演奏を行なうことができる従来技術が知られている(例えば特許文献1に記載の技術)。
また、電子楽器において、演奏者の舌の位置と動き、いわゆるタンギング奏法を検出して、発音中の管楽器音を制御する従来技術が知られている(例えば特許文献2または3に記載の技術)。
特許第2605761号公報 特許第2712406号公報 特許第3389618号公報
ここで、伝統的な管楽器には、ただ吹いたりタンギングしたりするだけでなく、演奏時に「ウーーーーー」っと実際に声を出しながら吹奏を行い、音に濁りを与える特殊奏法「グロウル音」がある。
しかし、電子楽器の従来技術では、ノーマル楽音とグロウル楽音は個別の音色とされ、両者は音色切り替え操作で使い分けを行う必要があった。そのため、演奏/発音中に両音色間のシームレスな音色変化を行うことができなかった。
また、アコースティック管楽器においては、ノーマル楽音とグロウリング音声との音程関係などスキルを要するものであった。
本発明は、吹奏者の発声動作に基づいてノーマル楽音と特殊奏法の楽音をシームレスに発音可能とすることを目的とする。
態様の一例では、発声される音声を検知する音声センサと、発声に伴う呼気の圧力及び前記呼気の流量の少なくとも一方を検知する呼気センサと、音声センサの出力及び呼気センサの出力の少なくとも一方に基づいて決定される割合で、音源にて生成される第1の楽音信号と第2の楽音信号とを出力するミキサと、を備える。
本発明によれば、吹奏者の発声動作に基づいてノーマル楽音と特殊奏法の楽音をシームレスに発音することが可能となる。
マウスピース部100の構成図である。 電子楽器の第1の実施形態のブロック図である。 合成比決定手段210とゲイン決定手段211の構成例を示す図である。 電子楽器の第2の実施形態のブロック図である。 電子楽器の第3の実施形態のハードウェア構成例を示すブロック図である。 第3の実施形態のメイン処理の例を示すフローチャートである。 初期化処理の詳細例を示すフローチャートである。 楽音制御処理の詳細例を示すフローチャートである。 発音処理の詳細例を示すフローチャートである。
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。
図1は、本実施形態による電子楽器のマウスピース部100の断面図である。
マウスピース部100内の奥に設置されるブレスセンサ101(呼気センサ)は、例えば圧力センサであり、吹奏者(演奏者)が吹き込み口103を咥えて吹き込んだ息の吹き込み圧力を検知する。
ボイスセンサ102(音声センサ)は、例えばマイクであり、上述の吹奏動作とともに吹奏者により発声される音声を検知する。
図2は、電子楽器の第1の実施形態のブロック図である。この電子楽器は、図1に示したブレスセンサ101およびボイスセンサ102、第1エンベロープ抽出手段201、第2エンベロープ抽出手段202、ブレス閾値検出手段203、音高指定複数キー204、音高決定手段205、発音指示手段206、Wave Generator(ウェーブ・ジェネレータ)207(音源)、ノーマル音波形データ208、グロウル音波形データ209、合成比決定手段210、ゲイン決定手段211、乗算器212、213、215(音源)、加算器214(音源)、DAC(デジタルアナログコンバータ)/増幅器216、およびスピーカ217を備える。
第1エンベロープ抽出手段201は、ブレスセンサ101が検出した吹奏圧や呼気流量などのブレス出力値からそのエンベロープ特性であるブレス・エンベロープを抽出する。具体的には例えば、第1エンベロープ抽出手段201は、ブレスセンサ101が出力するアナログ出力信号値を所定の時間間隔でサンプリングすることによりデジタル信号に変換し、その変換結果をブレス・エンベロープとして出力する。
第2エンベロープ抽出手段202は、ボイスセンサ102が検出したグロウル音のエンベロープ特性であるボイス・エンベロープを抽出する。
ブレス閾値検出手段203は、ブレス・エンベロープが所定の閾値であるブレス閾値を超えたか否かを判定し、超えた場合に、発音指示手段206に対して発音指示を行うように通知する。
音高指定複数キー204は、吹奏者が管楽器の指使いにより音高指定を行うためのキースイッチ群である。
音高決定手段205は、音高指定複数キー204における管楽器の指使いによる操作状態に基づいて、音高を決定する。
発音指示手段206は、ブレス閾値検出手段203から通知があった場合に、Wave Generator207に対して、音高決定手段205で決定された音高による発音指示を出力する。
Wave Generator207は、それが内蔵するROMに記憶されたノーマル音波形データ208およびグロウル音波形データ209を、発音指示手段206による発音指示に基づく音高でそれぞれ並列に読み出して出力する。ノーマル音波形データ208は、管楽器の通常演奏時の楽音をサンプリングした波形データである。グロウル音波形データ209は、管楽器のグロウリング奏法による演奏時の楽音をサンプリングした波形データである。この波形データは吹奏によるリードの振動を含む楽音波形である。
合成比決定手段210は、第2エンベロープ抽出手段202が抽出したボイス・エンベロープのボイス・レベルに従って、管楽器の通常の楽音であるノーマル音と、管楽器のグロウリング奏法によって発音される楽音であるグロウル音の合成比率(割合)を決定し、乗算器212、213に対してそれぞれ乗算値を与える。
ゲイン決定手段211は、第1エンベロープ抽出手段201が抽出したブレス・エンベロープのブレス・レベルに従って、出力される楽音信号の最終ゲインを決定し、それに対応する乗算値を乗算器215に与える。
乗算器212、213はそれぞれ、Wave Generator207から出力されるノーマル音およびグロウル音に対して、合成比決定手段210から与えられた各乗算値を乗算する。
加算器214は、乗算器212および213の各出力を加算することにより、ノーマル音とグロウル音を混合する。
乗算器215は、加算器214の出力に対して、ゲイン決定手段211から与えられた乗算値を乗算する。
DAC/増幅器216は、乗算器215から出力される楽音信号を、デジタル信号からアナログ信号に変換した後、増幅する。
スピーカ217は、DAC/増幅器216から出力される増幅された楽音信号を放音する。
ここで、Wave Generator207から出力されるノーマル音波形データ208とグロウル音波形データ209は同位相で鳴る(以下これを「シンクロスタート」と呼ぶ)ように信号処理されていて、加算器214で混合されても音量が不自然に打ち消しあうようなことはない。
図3は、図1の合成比決定手段210およびゲイン決定手段211の構成例を示す図である。
合成比決定手段210は、第2エンベロープ抽出手段202が抽出したボイス・エンベロープのボイス・レベルを入力として、ボイス・レベルの入力値(横軸)が大きくなるほど1から0に向かって出力乗算値(縦軸)が減少する特性を有するノーマル音用テーブル301と、ボイス・レベルの入力値(横軸)が大きくなるほど0から1に向かって出力乗算値(縦軸)が増加する特性を有するグロウル音用テーブル302を備える。合成比決定手段210は、ボイス・レベルの入力値に対して、ノーマル音用テーブル301およびグロウル音用テーブル302をそれぞれ参照することにより、乗算器212および213に対する各乗算値をそれぞれ決定する。
合成比決定手段210、乗算器212、213、および加算器214により、図1のマウスピース部100からボイスセンサ102への吹奏者によるグロウル音入力が大きくなるほどグロウル音の混合比率が高くなるようにノーマル音とグロウル音が混合された楽音信号が得られることになる。
ゲイン決定手段211は、第1エンベロープ抽出手段201が抽出したブレス・エンベロープのブレス・レベルを入力として、ブレス・レベルの入力値(横軸)がブレス閾値検出手段203が決定するブレス閾値に達するまでは出力乗算値(縦軸)が0(ゼロ)で、ブレス・レベルの入力値がブレス閾値を超えると、ブレス・レベルの入力値が大きくなるほど0から1に向かって出力乗算値が増加する特性を有するゲイン・テーブル303を備える。ゲイン決定手段211は、ブレス・レベルの入力値に対して、ゲイン・テーブル303を参照することにより、乗算器215に対する乗算値を決定する。
ゲイン決定手段211および乗算器215により、図1のマウスピース部100からブレスセンサ101への吹奏者による息の吹き込み圧力が強くなるほど大きな音量となる楽音信号が得られる。
以上のようにして、図2および図3の構成を有する電子楽器の第1の実施形態によれば、吹奏者によるグロウル音の発声動作に基づいて、ノーマル楽音とグロウル楽音をシームレスに混合して発音することが可能となる。
図4は、電子楽器の第2の実施形態のブロック図である。図4の構成が図2に示した第1の実施形態の構成と異なる点は、合成比決定手段210が、破線で示されるように、第2エンベロープ抽出手段202が抽出したボイス・エンベロープのボイス・レベルのみではなく、第1エンベロープ抽出手段201が抽出したブレス・エンベロープのブレス・レベルも加味して、乗算器212、213における各乗算値を決定するようにした点である。また、ゲイン決定手段211も、破線で示されるように、第1エンベロープ抽出手段201が抽出したブレス・エンベロープのブレス・レベルのみではなく、第2エンベロープ抽出手段202が抽出したボイス・エンベロープのボイス・レベルも加味して、乗算器215における乗算値を決定するようにした点である。
図4に示される電子楽器の第2の実施形態の構成により、マウスピース部100からブレスセンサ101への吹奏者による息の吹き込み圧力とボイスセンサ102への吹奏者によるグロウル音入力に基づいて、より複雑にノーマル音とグロウル音が混合された楽音信号を得ることが可能となる。
図5は、図2および図3に示した電子楽器の第1の実施形態の機能をソフトウェア処理によって実現可能な電子楽器の第3の実施形態のハードウェア構成例を示すブロック図である。
図5に示されるハードウェア構成例は、CPU(セントラルプロセッシングユニット:中央演算処理装置)501、ROM(リードオンリーメモリ)502、RAM(ランダムアクセスメモリ)503、図1または図2と同様のブレスセンサ101とその出力が接続されるADC(アナログデジタルコンバータ)504、図1または図2と同様のボイスセンサ102とその出力が接続されるADC505、図2と同様の音高指定複数キー204とその出力が接続されるGPIO(ジェネラルパーパスインプットアウトプット)506、Wave Generator507、図2と同様のDAC/増幅器216、図2と同様のスピーカ217を備え、これらがバス508によって相互に接続された構成を有する。同図に示される構成は、電子楽器を実現できるハードウェア構成の一例であり、そのようなハードウェア構成はこの構成に限定されるものではない。
CPU501は、当該電子吹奏楽器全体の制御を行う。ROM502は、発音制御プログラムを記憶する。RAM503は、発音制御プログラムの実行時に、データを一時的に格納する。
ブレスセンサ101の出力は、図2の第1エンベロープ抽出手段201と同様の機能を有するADC504でアナログ信号からデジタル信号のブレス・エンベロープのブレス・レベルに変換されて、CPU101に読み込まれる。
ボイスセンサ102の出力は、図2の第2エンベロープ抽出手段202と同様の機能を有するADC505でアナログ信号からデジタル信号のブレス・エンベロープのボイス・レベルに変換されて、CPU101に読み込まれる。
音高指定複数キー204の各操作状態は、図2の音高決定手段205と同様の機能を有するGPIO107を介してCPU101に読み込まれる。
Wave Generator507は、第1の実施形態における図2のWave Generator207と乗算器212、213、加算器214、乗算器215の機能を実現する。
Wave Generator507から出力された楽音信号は、CPU501を介してDAC/増幅器216においてデジタル信号からアナログ信号に変換されて増幅された後、スピーカ217を介して放音される。
図6は、図5のハードウェア構成例を有する第3の実施形態のメイン処理の例を示すフローチャートである。この処理は、図5のCPU501が、ROM502に記憶された発音制御処理プログラムを実行する動作として実現される。この処理は、図2のブレス閾値検出手段203、発音指示手段206、合成比決定手段210、およびゲイン決定手段211等の機能を実現する。以下、随時図5の構成を参照するものとする。
まず、CPU501は、初期化処理(Initialize)を実行する(ステップS601)。図7は、ステップS601の初期化処理の詳細例を示すフローチャートである。初期化処理では、RAM503内の関連する各変数に初期値を格納する処理等が実行される。図7のステップS701において、まず、ウェーブ・ジェネレータの初期化として、RAM503内の変数GeneratorStatusに、ROM502に記憶されている定数値GENERATOR_DEADが格納される。また、ブレス・エンベロープ値の初期化として、RAM503内の変数Breathに0(ゼロ)が格納される。また、ボイス・エンベロープ値の初期化として、RAM503内の変数Voiceに0(ゼロ)が格納される。また、合成比の初期化として、RAM503内の変数NomalRatioにノーマル音の初期ゲイン値0(ゼロ)が格納される。また、RAM503内の変数GrowlRatioにグロウル音の初期ゲイン値0(ゼロ)が格納される。また、全体音量(ゲイン)の初期化として、RAM503内の変数Gainに0(ゼロ)が格納される。そして、ブレス閾値の初期化として、RAM503内の変数BreathThreshNoteOnにROM502に記憶されている定数値BREATH_THRESHOLD_NOTEONが格納される。
図6の処理に戻って、CPU501は、音高指定用複数キーの操作された運指パターンから音高情報(RAM503内の変数NoteNumber)を得るための、発音制御プログラム上のサブルーチン処理KeyScan()を実行する(ステップS602)。
次に、CPU501は、ブレスセンサ101の出力を取得しブレス・エンベロープ値(RAM503内の変数Breath)を更新するための、発音制御プログラム上のサブルーチン処理RenewBreath()を実行する(ステップS603)。
次に、CPU501は、ボイスセンサ102の出力を取得しボイス・エンベロープ値(RAM503内の変数Voice)を更新するための、発音制御プログラム上のサブルーチン処理RenewVoice()を実行する(ステップS604)。
そして、CPU501は、楽音制御処理である、発音制御プログラム上のサブルーチン処理SoundControl()を実行する(ステップS605)。
その後、CPU501は、ステップS602の処理に戻る。
図8は、図6のステップS605の楽音制御処理(発音制御プログラム上のサブルーチン処理SoundControl())の詳細例を示すフローチャートである。
まず、CPU501は、発音状態を示すRAM503内の変数GeneratorStatusの値が未発音状態を示すROM502内の定数値GENERATOR_DEADになっているか否かを判定する(ステップS801)。
ステップS801の判定がYES(未発音状態)ならば、CPU501は、ステップS802の処理に移行する。ここではCPU501は、ブレス・レベルを示すRAM503内の変数Breathの値が、第1の実施形態で説明したブレス閾値を示すROM502内の定数値BreathThreshNoteOnを超えたか否かを判定する。この処理は、第1の実施形態における図2のブレス閾値検出手段203の機能を実現する。
次に、CPU501は、音高情報を記憶するRAM503内の変数NoteNumberとブレス・レベルを記憶するRAM503内の変数Breathとボイス・レベルを記憶するRAM503内の変数Voiceを入力として、発音処理である発音制御プログラム上のサブルーチン処理NoteOn(NoteNumber,Breath,Voice)を実行する(ステップS803)。この処理の詳細については、図9のフローチャートの説明で後述する。
次に、CPU501は、発音後処理として、発音状態か否かを示すRAM503内の変数GeneratorStatusに、発音状態を示すROM502内の定数値GENERATOR_ALIVEを格納する(ステップS804)。その後、CPU501は、図8のフローチャートの処理を終了し、図6のステップS605の楽音制御処理を終了する。
ステップS801の判定がNO(発音状態)ならば、CPU501は、ステップS805の処理に移行する。ここではCPU501は、ブレス・レベルが格納されているRAM503内の変数Breathの値に基づいて、ゲイン制御を行うための発音制御プログラム上のサブルーチン処理GainControl(Breath)を実行し、ブレスレベルに応じたゲインを決定する。この処理は、第1の実施形態における図2または図3のゲイン決定手段211の機能を実現する。この結果得られたゲイン値は、Wave Generator507に与えられる。Wave Generator507は、このゲイン値に基づいて、第1の実施形態における図2または図3の乗算器215に対応する機能を実行する。
次に、CPU501は、ボイス・レベルが格納されているRAM503内の変数Voiceの値に基づいて、合成比制御を行うための発音制御プログラム上のサブルーチン処理MixRateControl(Voice)を実行し、ボイスレベルに応じた合成比を決定する。決定された合成比は、RAM503内の変数NormalRatioと変数GrowlRatioに格納される。この処理は、第1の実施形態における図2または図3の合成比決定手段210の機能を実現する。変数NormalRatioは、ノーマル音の合成比を示し、第1の実施形態における図2または図3の乗算器212に与えられる乗算値に対応する。変数GrowlRatioは、グロウル音の合成比を示し、第1の実施形態における図2または図3の乗算器213に与えられる乗算値に対応する。これらの変数値は、Wave Generator507に与えられる。Wave Generator507は、これらの変数値に基づいて、第1の実施形態における図2または図3の乗算器212および213に対応する機能を実行する。
その後、CPU501は、ブレス・レベルを示すRAM503内の変数Breathの値が、第1の実施形態で説明したブレス閾値を示すROM502内の定数値BreathThreshNoteOn以下となったか否かを判定する(ステップS807)。ステップS807の判定がYESならば、CPU501は、発音後処理として、発音状態か否かを示すRAM503内の変数GeneratorStatusに、未発音状態を示すROM502内の定数値GENERATOR_DEADを格納する(ステップS808)。この処理は、第1の実施形態における図2のブレス閾値検出手段203の機能を実現する。
ステップS807の判定がNOの場合またはステップS808の処理の後、CPU501は、図8のフローチャートの処理を終了し、図6のステップS605の楽音制御処理を終了する。
図9は、図8のステップS803の発音処理(発音制御プログラム上のサブルーチン処理NoteOn(NoteNumber,Breath,Voice)の詳細例を示すフローチャートである。この処理は、第1の実施形態における図2の発音指示手段206、合成比決定手段210、およびゲイン決定手段211の各機能を実現する。
まず、CPU501は、音高を記憶するRAM503内の変数NoteNumberを入力として、ジェネレータの初期化のための発音制御プログラム上のサブルーチン処理InitilizeNormalTone(NoteNumber)を実行する(ステップS901)。ここではCPU501は、ノーマル音用の前処理を実行する。より具体的には、CPU501は、Wave Generator507に対して、ノーマル音波形データ208(図2参照)のスタートアドレスを設定し、また変数NoteNumberが示す音高に対応するノーマル音波形データ208の読出し速度を設定する。この処理は、第1の実施形態における図2の発音指示手段206の機能の一部を実現する。
次に、CPU501は、音高を記憶するRAM503内の変数NoteNumberを入力として、ジェネレータの初期化のための発音制御プログラム上のサブルーチン処理InitilizeGrowlTone(NoteNumber)を実行する(ステップS902)。ここではCPU501は、グロウル音用の前処理を実行する。より具体的には、CPU501は、Wave Generator507に対して、グロウル音波形データ209(図2参照)のスタートアドレスを設定し、また変数NoteNumberが示す音高に対応するグロウル音波形データ209の読出し速度を設定する。この処理は、第1の実施形態における図2の発音指示手段206の機能の一部を実現する。
次に、CPU501は、合成比制御のための発音制御プログラム上のサブルーチン処理MixRateControl(Voice)を実行する(ステップS903)。この処理は、発音状態で実行される図8のステップS806の処理と同様であり、第1の実施形態における図2または図3の合成比決定手段210の機能を実現する。決定された合成比は、RAM503内の変数NormalRatioと変数GrowlRatioに格納され、Wave Generator507に与えられる。Wave Generator507は、これらの変数値に基づいて、第1の実施形態における図2または図3の乗算器212および213に対応する機能を実行する。
次に、CPU501は、ゲイン制御を行うための発音制御プログラム上のサブルーチン処理GainControl(Breath)を実行する(ステップS904)。この処理は、発音状態で実行される図8のステップS805の処理と同様であり、第1の実施形態における図2または図3のゲイン決定手段211の機能を実現する。決定されたゲイン値は、Wave Generator507に与えられる。Wave Generator507は、このゲイン値に基づいて、第1の実施形態における図2または図3の乗算器215に対応する機能を実行する。
最後に、CPU501は、ジェネレータ・シンクロ・スタートのための発音制御プログラム上のサブルーチン処理SyncStartGenerator()を実行する(ステップS905)。この処理では、CPU501は、Wave Generator507に対してノーマル音波形データ208とグロウル音波形データ209を同期(シンクロ)させて出力処理させるための発音開始指示を出す。
以上説明した第3の実施形態の動作により、第1の実施形態における図2または図3の電子楽器の機能が、ソフトウェア処理として実現される。
以上説明したようにして、第1、第2、第3の実施形態により、ノーマル楽音とグロウル楽音の合成比をグロウル音声のエンベロープでコントロールすることにより、グロウリング奏を行う音声の音程を気にすることなく、楽音の発音中でもノーマル楽音とグロウル楽音とをシームレスに連続的に変化させることができるので、演奏表現力を容易く高めることが可能となる。
そして、上述の実施形態では、ブレスセンサ101により吹奏による呼気の圧力を検知しているが、これに限るものではない。本実施形態のブレスセンサ101を流量センサに置き換えて、吹奏による呼気の流量を検知してもよい。
さらに、このブレスセンサ101および流量センサ両方を用いる構成にしてもよい。
以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
発声される音声を検知する音声センサと、
前記発声に伴う呼気の圧力及び当該呼気の流量の少なくとも一方を検知する呼気センサと、
前記音声センサの出力及び前記呼気センサの出力の少なくとも一方に基づいて決定される割合で、音源にて生成される第1の楽音信号と第2の楽音信号とを出力するミキサと、
を備えることを特徴とする電子楽器。
(付記2)
前記呼気センサの出力からブレス・エンベロープを抽出する第1エンベロープ抽出手段と、前記音声センサの出力からボイス・エンベロープを抽出する第2エンベロープ抽出手段とをさらに備え、
前記ミキサ手段は、前記ボイス・エンベロープ及び前記ブレス・エンベロープの少なくとも一方に基づいて、前記割合を決定する、
ことを特徴とする付記1に記載の電子楽器。
(付記3)
前記第1の楽音信号は管楽器の通常演奏時の楽音信号であり、前記第2の楽音信号は管楽器のグロウリング奏法による演奏時の楽音信号であり、
前記ミキサは、前記音声センサの出力が大きくなるほど前記第1の楽音信号の割合が小さくなりかつ前記第2の楽音信号の割合比が大きくなるように決定する、
ことを特徴とする付記1または2のいずれかに記載の電子楽器。
(付記4)
前記呼気センサの出力及び前記音声検知手段の出力の少なくとも一方に基づいて、前記ミキサから出力される楽音信号のゲインを決定するゲイン決定手段をさらに備える。
ことを特徴とする付記1ないし3のいずれかに記載の電子楽器。
(付記5)
発声される音声を検知する音声センサと、前記発声に伴う呼気の圧力及び当該呼気の流量の少なくとも一方を検知する呼気センサとを有する電子楽器の発音制御方法であって、前記電子楽器は、
前記音声センサにより発声される音声を検知し、
前記呼気センサにより前記発声に伴う呼気の圧力及び当該呼気の流量の少なくとも一方を検知し、
前記音声センサの出力及び前記呼気センサの出力の少なくとも一方に基づいて決定される割合で、音源にて生成される第1の楽音信号と第2の楽音信号とを出力する、発音制御方法。
(付記6)
コンピュータに、
音声センサにより発声される音声を検知するステップと、
呼気センサにより前記発声に伴う呼気の圧力及び当該呼気の流量の少なくとも一方を検知するステップと、
前記音声センサの出力及び前記呼気センサの出力の少なくとも一方に基づいて決定される割合で、音源にて生成される第1の楽音信号と第2の楽音信号とを出力するするステップと、
を実行させるプログラム。
100 マウスピース部
101 ブレスセンサ
102 ボイスセンサ
103 吹き込み口
201 第1エンベロープ抽出手段201
202 第2エンベロープ抽出手段
203 ブレス閾値検出手段
204 音高指定複数キー
205 音高決定手段
206 発音指示手段
207 Wave Generator(ウェーブ・ジェネレータ)
208 ノーマル音波形データ
209 グロウル音波形データ
210 合成比決定手段
211 ゲイン決定手段
212、213、215 乗算器
214 加算器
216 DAC(デジタルアナログコンバータ)/増幅器
217 スピーカ
301 ノーマル音用テーブル
302 グロウル音用テーブル
303 ゲイン・テーブル
501 CPU(セントラルプロセッシングユニット:中央演算処理装置)
502 ROM(リードオンリーメモリ)
503 RAM(ランダムアクセスメモリ)
504、505 ADC(アナログデジタルコンバータ)
506 GPIO(ジェネラルパーパスインプットアウトプット)
507 Wave Generator
508 バス

Claims (12)

  1. 発声される音声を検知する音声センサと、
    前記発声に伴う呼気の圧力及び前記呼気の流量の少なくとも一方を検知する呼気センサと、
    前記音声センサの出力及び前記呼気センサの出力の少なくとも一方に基づいて決定される割合で、音源にて生成される第1の楽音信号と第2の楽音信号とを出力するミキサと、
    を備えることを特徴とする電子楽器。
  2. 前記第1の楽音信号は管楽器の通常演奏時の楽音信号であり、前記第2の楽音信号は管楽器のグロウリング奏法による演奏時の楽音信号である、
    ことを特徴とする請求項1に記載の電子楽器。
  3. 前記ミキサは、少なくとも前記音声センサの出力に基づいて決定される割合で、音源にて生成される前記第1の楽音信号と前記第2の楽音信号とを出力する、
    ことを特徴とする請求項1または2に記載の電子楽器。
  4. 前記ミキサは、前記音声センサの出力が大きくなるほど前記第1の楽音信号の割合が小さくなりかつ前記第2の楽音信号の割合比が大きくなるように決定する、
    ことを特徴とする請求項3に記載の電子楽器。
  5. 前記呼気センサの出力及び前記音声センサの出力の少なくとも一方に基づいて、前記ミキサから出力される楽音信号のゲインを決定するゲイン決定手段をさらに備える。
    ことを特徴とする請求項1乃至4のいずれかに記載の電子楽器。
  6. 前記ゲイン決定手段は、少なくとも前記呼気センサの出力に基づいて、前記ミキサから出力される楽音信号のゲインを決定する、
    ことを特徴とする請求項5に記載の電子楽器。
  7. キー操作に基づいて、前記ミキサから出力される楽音信号の音高を決定する音高決定手段を更に備える、
    ことを特徴とする請求項1乃至6に記載の電子楽器。
  8. 前記ミキサは、前記第1の楽音信号に対応する波形データと前記第2の楽音信号に対応する波形データとを出力する割合を変えることで、出力する楽音信号の音色を決定し、
    前記音高決定手段は、前記音声センサの出力値に係らず、前記キー操作に基づいて、出力する楽音信号の音高を決定する、
    ことを特徴とする請求項7に記載の電子楽器。
  9. 前記ミキサにより前記第1の楽音信号と前記第2の楽音信号とを出力する場合に、前記第1の楽音信号に対応する波形データと、前記第2の楽音信号に対応する波形データとを同位相で出力する、
    ことを特徴とする請求項1乃至8のいずれかに記載の電子楽器。
  10. 前記呼気センサの出力からブレス・エンベロープを抽出する第1エンベロープ抽出手段と、前記音声センサの出力からボイス・エンベロープを抽出する第2エンベロープ抽出手段とをさらに備え、
    前記ミキサは、前記ボイス・エンベロープ及び前記ブレス・エンベロープの少なくとも一方に基づいて、前記割合を決定する、
    ことを特徴とする請求項1乃至9のいずれかに記載の電子楽器。
  11. 発声される音声を検知する音声センサと、前記発声に伴う呼気の圧力及び当該呼気の流量の少なくとも一方を検知する呼気センサとを有する電子楽器の発音制御方法であって、
    前記電子楽器は、
    前記音声センサにより発声される音声を検知し、
    前記呼気センサにより前記発声に伴う呼気の圧力及び前記呼気の流量の少なくとも一方を検知し、
    前記音声センサの出力及び前記呼気センサの出力の少なくとも一方に基づいて決定される割合で、音源にて生成される第1の楽音信号と第2の楽音信号とを出力する、発音制御方法。
  12. コンピュータに、
    音声センサにより発声される音声を検知するステップと、
    呼気センサにより前記発声に伴う呼気の圧力及び前記呼気の流量の少なくとも一方を検知するステップと、
    前記音声センサの出力及び前記呼気センサの出力の少なくとも一方に基づいて決定される割合で、音源にて生成される第1の楽音信号と第2の楽音信号とを出力するするステップと、
    を実行させるプログラム。
JP2014110838A 2014-05-29 2014-05-29 電子楽器、電子楽器の発音制御方法、およびプログラム Active JP6326976B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014110838A JP6326976B2 (ja) 2014-05-29 2014-05-29 電子楽器、電子楽器の発音制御方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014110838A JP6326976B2 (ja) 2014-05-29 2014-05-29 電子楽器、電子楽器の発音制御方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2015225271A JP2015225271A (ja) 2015-12-14
JP2015225271A5 JP2015225271A5 (ja) 2017-07-06
JP6326976B2 true JP6326976B2 (ja) 2018-05-23

Family

ID=54842032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014110838A Active JP6326976B2 (ja) 2014-05-29 2014-05-29 電子楽器、電子楽器の発音制御方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6326976B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6728843B2 (ja) * 2016-03-24 2020-07-22 カシオ計算機株式会社 電子楽器、楽音発生装置、楽音発生方法及びプログラム
JP6753250B2 (ja) * 2016-09-28 2020-09-09 カシオ計算機株式会社 楽音生成装置、楽音生成方法、電子楽器、及びプログラム
JP2021051100A (ja) * 2019-09-20 2021-04-01 カシオ計算機株式会社 電子管楽器、楽音生成方法及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5245130A (en) * 1991-02-15 1993-09-14 Yamaha Corporation Polyphonic breath controlled electronic musical instrument
JPH05216477A (ja) * 1992-10-27 1993-08-27 Casio Comput Co Ltd 電子管楽器
JP2005049421A (ja) * 2003-07-30 2005-02-24 Yamaha Corp 電子楽器
JP4479688B2 (ja) * 2006-03-30 2010-06-09 ヤマハ株式会社 演奏アシスト用マウスピース及び演奏アシスト装置付き管楽器
JP2011180546A (ja) * 2010-03-04 2011-09-15 Panasonic Corp 電子管楽器

Also Published As

Publication number Publication date
JP2015225271A (ja) 2015-12-14

Similar Documents

Publication Publication Date Title
TWI479476B (zh) 鈸振動的電子處理的系統與方法
JP6435644B2 (ja) 電子楽器、発音制御方法及びプログラム
JP6326976B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP7262347B2 (ja) 電子吹奏楽器
JP6728843B2 (ja) 電子楽器、楽音発生装置、楽音発生方法及びプログラム
JP7140083B2 (ja) 電子管楽器、電子管楽器の制御方法及びプログラム
JP6435645B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP5614045B2 (ja) 電子管楽器
JP6569255B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP6648457B2 (ja) 電子楽器、音波形発生方法、及びプログラム
US20080000345A1 (en) Apparatus and method for interactive
JP6753250B2 (ja) 楽音生成装置、楽音生成方法、電子楽器、及びプログラム
JP6410345B2 (ja) サウンドプレビュー装置及びプログラム
JP5912268B2 (ja) 電子楽器
JP7346865B2 (ja) 電子管楽器、楽音生成方法、及びプログラム
JP2021081601A (ja) 楽音情報出力装置、楽音発生装置、楽音情報生成方法およびプログラム
JP5827484B2 (ja) 楽音制御装置
JP6500533B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP5412766B2 (ja) 電子楽器及びプログラム
JP5151603B2 (ja) 電子楽器
JP5560574B2 (ja) 電子楽器および自動演奏プログラム
JP5912269B2 (ja) 電子楽器
JP2021051100A (ja) 電子管楽器、楽音生成方法及びプログラム
JPWO2019003350A1 (ja) 歌唱音生成装置及び方法、プログラム
JP2009258238A (ja) 楽音合成装置およびプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170518

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180402

R150 Certificate of patent or registration of utility model

Ref document number: 6326976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150