JP2017173606A - 電子楽器、楽音発生装置、楽音発生方法及びプログラム - Google Patents

電子楽器、楽音発生装置、楽音発生方法及びプログラム Download PDF

Info

Publication number
JP2017173606A
JP2017173606A JP2016060391A JP2016060391A JP2017173606A JP 2017173606 A JP2017173606 A JP 2017173606A JP 2016060391 A JP2016060391 A JP 2016060391A JP 2016060391 A JP2016060391 A JP 2016060391A JP 2017173606 A JP2017173606 A JP 2017173606A
Authority
JP
Japan
Prior art keywords
signal
pitch
sound
tone
human voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016060391A
Other languages
English (en)
Other versions
JP6728843B2 (ja
JP2017173606A5 (ja
Inventor
仲江 哲一
Tetsukazu Nakae
哲一 仲江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016060391A priority Critical patent/JP6728843B2/ja
Publication of JP2017173606A publication Critical patent/JP2017173606A/ja
Publication of JP2017173606A5 publication Critical patent/JP2017173606A5/ja
Application granted granted Critical
Publication of JP6728843B2 publication Critical patent/JP6728843B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】専用のマイク等を必要とせずに、吹奏者の発声動作に基づいて人声合成音を生成し、それをノーマル楽音とミックスして出力し、より変化の富んだ楽音を発音する電子楽器を提供する。【解決手段】マウスピース内の呼気センサからのセンサ出力信号は、A/D変換部により吹圧信号に変換されるとともに、人声の基本周波数よりも十分に低い直流成分付近がカットされた後にA/D変換部204を介して人声信号としてCPUに入力される。CPUは、吹圧信号と音高情報と音色選択情報に基づいて楽器音信号を生成する。また、音色選択情報に対応するフィルタパラメータに基づいて音声合成フィルタを構成し、音高情報に対応する音源パルス列を生成して音声合成フィルタに入力させ、生成出力された人声合成音を人声信号に基づいて制御する。CPUは、楽器音信号と人声合成音信号を混合して楽音信号を生成する。【選択図】図2

Description

本発明は、電子楽器、楽音発生装置、楽音発生方法及びプログラムに関する。
管楽器を電子技術によって実現する電子楽器において、吹奏者(演奏者)の個人差を吸収しながら、伝統的な管楽器(例えばサクソホーン)における吹奏者の息の強さや吹口部を噛む強さ等を楽音パラメータとしてその特性値に従って吹奏演奏を行なうことができる従来技術が知られている(例えば特許文献1に記載の技術)。
また、電子楽器において、吹奏者の舌の位置と動き、いわゆるタンギング奏法を検出して、発音中の管楽器音を制御する従来技術が知られている(例えば特許文献2又は3に記載の技術)。
特許第2605761号公報 特許第2712406号公報 特許第3389618号公報
ここで、伝統的な管楽器には、ただ吹いたりタンギングしたりするだけでなく、演奏時に「ウーーーーーッ」と実際に声を出しながら吹奏を行い、音に濁りを与える特殊奏法として「グロウル奏法」がある。
しかし、従来の電子管楽器においては、通常の管楽器の楽音であるノーマル楽音と上述のグロウリング音とは個別の音色とされ、両者は音色切り替え操作で使い分けを行う必要があった。そのため、演奏/発音中に両音色間のシームレスな音色変化を行うことができなかった。
また、従来のアコースティック管楽器においては、ノーマル楽音とグロウル奏法による特殊音との音程関係などスキルを要するものであった。
この問題を解決するには、グロウル奏法による特殊奏法音を予めメモリに記憶しておき、それを演奏に応じて必要なときにメモリから読み出す方式が考えられるが、奏法等を変更しても画一的なグロウリング音しか発音させることができない問題がある。
更に、吹奏者がマウスピースを咥えながらグロウル奏法音を発音できるようにすることも考えられるが、その場合には、マウスピースにグロウル奏法音を拾うためのマイクが必要になってしまうという問題がある。
本発明は、専用のマイク等を必要とせずに、吹奏者の発声動作に基づいて多彩な人声合成音を生成して出力することにより、より変化の富んだ楽音を発音できるようにすることを目的とする。
態様の一例では、呼気の状態を検知して検知された呼気の状態に対応した信号を出力する呼気センサと、発生すべき楽音の音高を指定する音高指定キーと、発生すべき楽音の音色を指定する音色指定キーと、呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、音色指定キーの操作状態に基づいて音色選択情報を出力する音色選択出力処理と、音高指定キーの操作状態に基づいて音高情報を出力する音高出力処理と、吹奏信号と音高情報と音色選択情報とに基づいて楽器音を出力する楽器音出力処理と、音高情報に対応するピッチ周期を有するパルス列信号を生成するパルス列生成処理と、パルス列信号を、音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力するフィルタ処理とを実行する処理部と、を備える。
本発明によれば、専用のマイク等を必要とせずに、吹奏者の発声動作に基づいて多彩な人声合成音を生成して出力することにより、より変化の富んだ楽音を発音することが可能となる。
実施形態におけるマウスピースの構成例を示す断面図である。 電子楽器の実施形態のハードウェア構成例を示す図である。 CPUのブロック構成例を示す図である。 第2Wave Generatorのブロック構成例を示す図である。 人声の音韻「う」のFFT分析の結果とフォルマントフィルタの周波数特性の例を示す図である。 人声の音韻「あ」のFFT分析の結果とフォルマントフィルタの周波数特性の例を示す図である。 パルス発生器402が発声する音源パルス列の時間域波形とフォルマントフィルタ403が生成する人声合成音信号310の時間域波形の関係を示す図である。 楽器音色毎に、マウスピースとグロウル時の発音の特徴、及びフォルマントフィルタが生成するのに好適な音韻の種類の対応関係を示した表である。 普通に吹いた場合のセンサ出力信号と人声信号の波形例を示す図である。 特殊奏法を意識して吹いた場合のセンサ出力信号と人声信号の波形例を示す図である。 本実施形態における波形例を示す図である。 CPUが実行する発音制御処理の例を示すフローチャートである。 管楽器の反射音の説明図である。 人声合成音信号に反射音効果を付加する機能を示すブロック図である。
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。図1は、本発明による電子楽器の一実施形態におけるマウスピースの構成例を示す断面図である。マウスピース100は、マウスピース本体102と、吹き込み口103と、呼気センサ101を備える。本実施形態においては、呼気センサ101は、吹奏者の吹奏に伴う呼気の圧力及びその呼気の流量の少なくとも一方を検知する圧力センサである。呼気センサ101は、吹奏時に吹き込み口103から混入する唾液等により濡れてしまわないように、保護壁104により保護されており、穴105を介して流入する呼気の例えば圧力を検知する。
図2は、電子楽器200の実施形態のハードウェア構成例を示す図である。吹奏者の吹く息は図1のマウスピース100内の呼気センサ101でセンサ出力信号208として検出される。このセンサ出力信号208は、A/D(アナログ/デジタル)変換部202によってデジタル信号に変換された後、吹圧信号209に変換されてCPU(中央演算処理装置)201に入力される。
なお、A/D変換部202の出力側に、人声の基本周波数以上の周波数成分をカットするACカット素子が配置されてもよい。或いは、A/D変換部202の手前に、アナログ回路としてACカット素子が配置されてもよい。
また、センサ出力信号208は、コンデンサ等のDC(直流)カット素子203によって人声の基本周波数よりも十分に低い直流成分付近がカットされた後に、A/D変換部204によってデジタル信号に変換されて人声信号210としてCPU201に入力される。本実施形態においては、このA/D変換部202、204、及びDCカット素子203(並びにACカット素子)により、センサ出力信号208を吹奏に伴う呼気の圧力を示す吹圧信号209と人声による呼気の圧力を示す人声信号210とに分離する分離部が構成される。
操作キー205は、吹奏者が音高及び音色を指定するためのキーであり、吹奏者が操作キー205を押さえることで、音高情報211及び音色選択情報212としてCPU201に取り込まれて、楽器音の音高及び音色を決める要素となる。即ち、操作キー205は、音高出力部及び音色選択情報出力部として機能する。
CPU201は、吹圧信号209と音高情報211と音色選択情報212に基づいて、楽器音信号を生成する。また、CPU201は、音色選択情報212に対応するフィルタパラメータを選択し、そのフィルタパラメータに基づいて音声合成フィルタを構成し、音高情報211に対応するピッチ周期を有する音源パルス列を生成して音声合成フィルタに入力させ、音声合成フィルタからの出力として人声合成音を生成し、更に生成した人声合成音を人声信号210に基づいて制御する。そして、CPU201は、楽器音信号と人声合成音信号とから楽音信号213を生成して出力する。
出力されたデジタルの楽音信号213は、D/A変換部206によってアナログ音声信号に変換され、音響システム207で吹奏者達に聴こえる音量にまで増幅されて、特には図示しないスピーカから放音される。
図3は、図2のCPU201のブロック構成例を示す図である。CPU201は、例えばDSP(デジタルシグナルプロセッサ)によって構成され、図3に示される各機能部分はDSPのデジタル信号処理機能として実現される。なお、これらの機能部分は、プロセッサが制御プログラムを実行する通常のソフトウェア処理として実現されてもよい。
第1Wave Generator301(楽器音生成部)は、図2の操作キー205からの音高情報211及び音色選択情報212から、楽器音信号309を生成する。本実施形態では、第1Wave Generator301は、例えばパルス変調方式又は正弦波合成方式により楽器音信号309を生成するが、サンプリング音源であってもよい。
第1Wave Generator301が出力する楽器音信号309は、AMP(増幅ブロック)304にて、吹圧信号209から生成された吹圧エンベロープ311に基づいて増幅制御された後、加算器306に入力される。
第2Wave Generator302は、音色選択情報212に対応するフィルタパラメータを選択し、そのフィルタパラメータに基づいて音声合成フィルタを構成し、音高情報211に対応するピッチ周期を有する音源パルス列を生成して音声合成フィルタに入力させ、音声合成フィルタからの出力として人声合成音信号310を生成して出力する。
第2Wave Generator302が出力する人声合成音信号310は、AMP305にて、人声信号210から生成された人声エンベロープ312に基づいて増幅制御された後、加算器306に入力される。
加算器(加算部)306は、上述のAMP304から出力される楽器音信号309と、AMP305から出力される人声合成音信号310を加算して混合し出力する。更に、クリップ部307は、加算器306の出力に対して吹奏者が操作キー205でクリッピングを指定したときに、後述するクリッピング処理を実行する。これにより、最終的な楽音信号213が図2のCPU201から出力される。
図4は、図3の第2Wave Generator302(人声合成音生成部)のブロック構成例を示す図である。第2Wave Generator302は、演算器401、パルス発生器402、及びフォルマントフィルタ403を備える。更に、フォルマントフィルタ403は、第1フィルタ404、第2フィルタ405、及び加算器406から成る。
図4に示されるように、フォルマントフィルタ403は、第1フィルタ404及び第2フィルタ405を備える。第1フィルタ404は、これから生成しようとする人声合成音信号310に対応する音韻の第1フォルマントで極大となるようなフィルタである。そのフィルタパラメータ(以下「第1フィルタパラメータ」と記載する)は、上記音韻の第1フォルマントに対応する周波数及び利得の組として与えられる。同様に、第2フィルタ405は、これから生成しようとする人声合成音信号310に対応する音韻の第2フォルマントで極大となるようなフィルタである。そのフィルタパラメータ(以下「第2フィルタパラメータ」と記載する)は、上記音韻の第2フォルマントに対応する周波数及び利得の組として与えられる。いま、音色選択情報212が入力したときに、フォルマントフィルタ403は、音色毎に記憶している第1フィルタパラメータ及び第2フィルタパラメータのセットのうち、入力した音色選択情報212に対応する第1フィルタパラメータ及び第2フィルタパラメータを選択し、第1フィルタ404及び第2フィルタ405に設定する。
例えば、図5(a)は、人声の音韻「う」のFFT(高速フーリエ変換)分析の結果である。図5(a)及び後述する図6(a)において、横軸は周波数(Hz:ヘルツ)であり、縦軸は振幅(dB:デシベル)である。図5(a)においては、400Hzの大きな山の第1フォルマントを第1フィルタ404で作り、それよりかなり小さい2000Hzの第2フォルマントを第2フィルタ405で作る。フォルマントフィルタ403は、第1フィルタ404及び第2フィルタ405の各出力を加算器406で足し合わせることで、音韻「う」の人声合成音信号310を合成する。図5(a)のFFT分析結果に基づいて動作するフォルマントフィルタ403の第1フィルタ404と第2フィルタ405を合成したフィルタ特性は、図5(b)に示される如くとなる。図5(b)及び後述する図6(b)において、横軸は周波数(Hz)、縦軸は振幅(dB)である。
実際の音声では、第3フォルマント、第4フォルマント等も存在するが、効果音としての人声合成音信号310を作成する目的としては、第1フォルマントと第2フォルマントのみを模した第1フィルタ404及び第2フィルタ405の2つのフィルタによる簡易演算でも十分である。これにより、第2Wave Generator302に要求される演算性能を抑えることができ、電子楽器200を製造する場合にコストダウンを実現することができる。なお、フォルマントフィルタ403を実現するプロセッサの演算能力に余裕があれば、フォルマントフィルタ403の代わりに、線形予測フィルタのような高度なフィルタが用いられてもよい。その場合には、フィルタパラメータは、線形予測フィルタを構成するための音韻毎の線形予測パラメータの組とされる。
フォルマントフィルタ403内の第1フィルタ404及び第2フィルタ405をデジタル信号処理として実装する場合、次数が少なくても鋭いピークを得られる共振フィルタが好適である。
図6(a)は、人声の音韻「あ」のFFT分析の結果である。図6(a)においては、1000Hzの大きな山の第1フォルマントを第1フィルタ404で作り、それより少し小さい1800Hzの第2フォルマントを第2フィルタ405で作る。第1フィルタ404及び第2フィルタ405の各出力を加算器406で足し合わせることで、音韻「お」の人声合成音信号310を合成する。図6(a)のFFT分析結果に基づいて動作するフォルマントフィルタ403の第1フィルタ404と第2フィルタ405を合成したフィルタ特性は、図6(b)に示される如くとなる。
図5(b)と図6(b)を比較してわかるように、音韻「う」は400Hz付近の低い周波数の振幅が大きく、音韻「あ」は低い周波数の振幅は小さい。本実施形態では、音色選択情報212により、即ち吹奏者により選択された楽器音により、母音「う」か「あ」の効果が大きい方のフォルマントフィルタ403のフィルタパラメータ(第1フィルタパラメータ+第2フィルタパラメータ)を割り振る。
一方、図4において、パルス発生器402は、音高情報211に対応するピッチ周期を有する、例えば図7(a)に示されるような音源パルス列を生成して、その音源パルス列をフォルマントフィルタ403に入力させる。フォルマントフィルタ403内の第1フィルタ404と第2フィルタ405がそれぞれ、入力した音源パルス列に対してフィルタリング処理を実行し、各出力が加算器406で加算されることにより、図5(a)又は図6(a)に近似した周波数特性を有し、図7(b)に示されるような時間域波形の人声合成音信号310を生成する。
ここで、パルス発生器402は、音高を指定する操作キー205から出力された音高情報211に対応するピッチ周波数のみによって音源パルス列のピッチ周期を決定するのではなく、演算器401が、音高情報211を、人声信号210から生成した人声エンベロープ312に基づいて変化させ、その変化後に演算器401から出力される音高情報が、パルス発生器402に入力されるようにすることができる。これにより、図3の加算器306が楽器音信号309と人声合成音信号310とを混合したときに、楽器音信号309の音高は音高情報211によって決定され、人声合成音信号310の音高は吹奏者が吹奏して得られる人声エンベロープ312に基づいて音高情報211のピッチ周波数を微妙に変化させたものによって決定されるようにできる。これにより、楽器音信号309と人声合成音信号310との間で人声エンベロープ312に従って微妙なうねりを生じさせることができ、出力される楽音信号213に、多彩な変化をつけることが可能となる。この場合、演算器401は、ほぼ音高情報211に従うが、最大で4分の1半音ほど人声エンベロープ312の値の大きさに比例させて、上か下かのどちらかにピッチ周波数をずらすように動作してよい。微妙にずれがある方が、出力音声に「うねり」が発生する効果を得る事ができる。ただし両者のピッチ周波数のずれが大き過ぎると、出力される楽音信号213において、2つの別々の音が鳴っているように聴こえてしまうので、更に演算器401が、吹奏者が示す音高情報211によりずれ具合を制御することで、人間が吹いたような雑な「うねり」を得ることが可能となる。
図8は、音色選択情報212として指定される楽器音色毎に、マウスピースとグロウル時の発音の特徴、及びフォルマントフィルタ403が生成するのに好適な音韻の種類の対応関係を示した表である。このように、音色選択情報212として例えば「トランペット」の音色が指定された場合には、フォルマントフィルタ403は、音韻「ぶ」に対応するフィルタパラメータ(第1フィルタパラメータ+第2フィルタパラメータ)を選択すれば、トランペットが吹奏された場合におけるグロウル音を最適に再現することができる。同様に、ホルンの場合は母音「う」、クラリネットの場合は音韻「ぼ」、サックスの場合は母音「お」、フルートの場合は母音「あ」、オーボエの場合は母音「い」が好適である。
以上のようにして、第2Wave Generator302は、吹奏者が指定した音高の操作キー205から出力される音高情報211と、吹奏者が指定した音色の操作キー205から出力される音色選択情報212と、マウスピース100の呼気センサ101から分離される人声信号210とに基づいて、人声合成音信号310を生成する。これにより、吹奏者がうまく特殊奏法音を発声できない場合であっても、それなりに吹奏者の意思を反映させることができる特殊奏法音を人声合成音信号310として簡単に得ることが可能となる。
以上の構成を有する電子楽器200の実施形態の動作について、以下に説明する。まず、吹奏者が吹き込み口103で吹いた人声波形について説明する。図9は、吹奏者が普通に吹いた場合の図2のセンサ出力信号208(図9(a))と人声信号210(図9(b))の波形例を示す図である。一方、図10は、特殊奏法を意識して「ウ〜」と唸りながら吹いた場合のセンサ出力信号208(図10(a))と人声信号210(図10(b))の波形例を示す図である。両図とも、縦軸は各信号の振幅波形の大きさを表し、横軸は時間を表す。図9と図10との関係から読み取れるように、図1のマウスピース100内に専用のマイクを設置しなくても、図2に示されるDCカット素子203とA/D変換器202を組み合わせた回路により、図10(b)に示されるように、呼気センサ101の波形から吹奏者が発した声に相当する人声信号210を検出できることがわかる。そして、CPU201内のデジタル信号処理として実現される図3の第2Wave Generator302が、この人声信号210に基づいて人声合成音信号310を生成することにより、吹奏者の特殊奏法の意思を反映させた人声合成音信号310を生成することが可能となる。
図11は、本実施形態における波形例を示す図である。図11(a)は、図3の第1Wave Generator301で生成される楽器音信号309の波形例を示す図である。前述したように、第1Wave Generator301は、例えばパルス変調方式により楽器音信号309を生成することにより、図11(a)に例示されるようなパルス変調波形として、楽器音信号309を生成することができる。
図11(b)は、図3の第2Wave Generator302で生成される人声合成音信号310の波形例を示す図である。第2Wave Generator302は、フォルマントフィルタ403内の第1フィルタ404と第2フィルタ405による計算結果を加算器406で合成することにより、図11(b)に例示されるような音韻波形を生成する。
図11(c)及び(d)は、図3のクリップ部307での処理波形例を示す図である。クリップ部307は、加算器306が出力する波形データに対して、図11(c)に示されるように、正閾値より大きな振幅値を正閾値に置き換え、負閾値より小さな振幅値を負閾値に置き換えることにより、図11(d)に示されるような波形データを出力する。これにより、出力される楽音信号213に、複雑な信号成分を含まれることが可能となる。
図12は、以上の制御動作を実現するためにCPU201が実行する制御動作の処理例を示す全体フローチャートである。この処理は、CPU201が、特には図示しないROM(リードオンリーメモリ)等のメモリに記憶されている制御プログラムを実行する動作として実現され、図3に示される各機能部分はDSPのデジタル信号処理により実現されている。ステップS1201からS1213までの一連の処理が1周する周期は、図2のD/A変換部206のサンプリング周波数(44.1キロヘルツ)であり、約22マイクロ秒の時間を要する。
CPU201はまず、音色の操作キー205の状態を読み取る(ステップS1201)。
次に、CPU201は、音色の操作キー205の値から音色を決定し、音色選択情報212を出力する(ステップS1202)。
次に、CPU201は、音高の操作キー205の状態を読み取る(ステップS1203)。
次に、CPU201は、音色の操作キー205の値から音高を決定し、音高情報211を出力する(ステップS1204)。
次に、CPU201は、呼気センサ101から、図2のハードウェア回路を介して、吹圧信号209と人声信号210を読み取る(ステップS1205)。
次に、CPU201は、吹圧信号209から、吹圧エンベロープ311を生成する(ステップS1206)。この生成処理は例えば、吹圧信号209に対する移動平均処理等の適切な平滑化処理である。
次に、CPU201は、前述した図3の第1Wave Generator301及びAMP304に対応する処理を実行することにより、楽器音信号309を生成する(ステップS1207)。
次に、CPU201は、ステップS1205で得た人声信号210から、人声エンベロープ312を生成する(ステップS1208)。この生成処理は、ステップS1206と同様に、例えば人声信号210に対する移動平均処理等の適切な平滑化処理である。
次に、CPU201は、図3の第2Wave Generator302内の前述した図4の演算器401及びパルス発生器402に対応する処理を実行することにより、人声エンベロープ312と音高情報211とから、音源パルス列のパルス波を作成する(ステップS1209)。
次に、CPU201は、ステップS1209で作成した音源パルス列のパルス波を入力として、図3の第2Wave Generator302内の前述した図4のフォルマントフィルタ403に対応する処理を実行する(ステップS1210)。この結果、CPU201は、人声合成音信号310を生成する(ステップS1211)。
次に、CPU201は、前述した図3の加算器306に対応する処理を実行することにより、ステップS1207で生成した楽器音信号309とステップS1211で生成した人声合成音信号310とを加算する(ステップS1212)。
更に、CPU201は、前述した図3のクリップ部307に対応する処理を実行することにより、加算器306が出力する楽音信号に対して、クリッピング処理を実行する(ステップS1213)。
最後に、CPU201は、ステップS1212のクリッピング処理の結果得られる楽音信号213を、デジタル音声としてD/A変換部206に送信する(ステップS1214)。
以上により、CPU201は、1サンプリング周期の処理を終了し、次のサンプリング周期のタイミングでステップS1201の処理に戻る。
以上説明した実施形態によれば、専用のマイク等を必要とせずに、吹奏者の発声動作に基づいて意図したように簡単に人声合成音信号310が楽器音信号309に混合された楽音信号213を得ることができ、より変化の富んだ楽音を発音することが可能となる。より具体的には、呼気センサ101で取り込んだ吹奏者の吹き圧を、直流成分と交流成分に分離して2つの要素とするので、専用のマイク等を必要とせずに呼気センサ101を効果的に利用することが可能となり、電子楽器200のコストダウンに寄与できる。
また、上述した実施形態によれば、図3の第2Wave Generator302が、図4に示した第1フィルタ404と第2フィルタ405とで構成されるフォルマントフィルタ403により実現される。この場合、音色選択情報212によって指定される1つの音色に対応するフィルタパラメータは、第1フォルマントに対応する第1フィルタパラメータ(周波数データと利得データ)と、第2フォルマントに対応する第2フィルタパラメータ(周波数データと利得データ)だけでよいため、1音色あたり合計で4つのデータを記憶するだけでよい。このため、様々な音色に対応する人声合成音信号310を生成するために必要なデータ容量を非常に小さくすることができ、電子楽器200のコストダウンを図ることが可能となる。
更に、上述した実施形態によれば、電子楽器200において、吹奏者が息を吹き出しながら声を発することで、吹奏者の声の周波数に依存させることなく、管楽器特有の特殊奏法「グロウル」を効果的に鳴らせる効果がある。また、電子楽器200において、選択した楽器音に対応させて人声合成音を作るので、吹奏者の発した言葉に依存させることなく、管楽器特有の特殊奏法「グロウル」を効果的に鳴らせる効果がある。
以上の実施形態は、グロウル奏法のための人声合成音を作る方法であったが、電子楽器200が出力する楽音信号213に生の管楽器内での声の反射を考慮した効果を反映させることのできる他の実施形態について、以下に説明する。
例えば図13(a)に示されるサックスは、口に咥えるマウスピースから発した声は、管のU字部で一部が反射して戻って来る。そのために、マウスピースからU字部までの長さ1301(例えば50cm)を2倍した距離を伝わった声が、マウスピースから発した声に加算される。空気中において、音が伝搬する速度は1秒間に333mほどであるから、図13(b)に示されるように、元の人声合成音1302に対して、3msずつ遅延する反射音成分1303を加算すれば、反射音をシミュレートすることができると考えられる。
そこで他の実施形態において、図3のAMP305が出力する人声合成音信号310を入力とする、図14に示されるような遅延処理部1100及び加算器1403を設ける。この遅延処理部1100は、ディレイ部1401と減衰器1402を備える。ディレイ部1401は人声合成音信号310を例えば3ms遅延させ、減衰器1402はその遅延させられた信号を減衰することにより、図13(b)に示される反射音1303のうちの1つの反射音に対応する反射音信号を生成する。このとき、ディレイ部1401でのディレイ時間や減衰器1402での減衰量は、管楽器の種類によって異なるため、例えば図2の音色選択情報212に従ってこれらのパラメータが制御されるようにすることができる。このようにして、遅延処理部1100で生成された反射音信号は、加算器1403において、元の人声合成音信号310と混合されて出力される。
以上の構成により、電子楽器200において、人声合成音を遅延させて元の人声合成音に付加するので、管楽器特有の特殊奏法「グロウル」において、いかにも管で鳴らしたかのような効果音を得ることが可能である。
以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサと、
発生すべき楽音の音高を指定する音高指定キーと、
発生すべき楽音の音色を指定する音色指定キーと、
前記呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、
前記音色指定キーの操作状態に基づいて音色選択情報を出力する音色選択出力処理と、前記音高指定キーの操作状態に基づいて音高情報を出力する音高出力処理と、前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力する楽器音出力処理と、前記音高情報に対応するピッチ周期を有するパルス列信号を生成するパルス列生成処理と、前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力するフィルタ処理とを実行する処理部と、
を備える電子楽器。
(付記2)
前記分離部は、前記呼気センサからのセンサ出力信号に含まれる周波数成分から前記人声の基本周波数以上の周波数成分をカットした信号を前記吹奏信号とし、前記人声の基本周波数より低い周波数成分をカットした信号を前記人声信号とする、付記1に記載の電子楽器。
(付記3)
前記処理部は、前記フィルタ処理において、記音色選択情報に対応するフィルタパラメータを取得し、前記取得されたフィルタパラメータに基づいた音声合成フィルタにより前記パルス列信号をフィルタリングして人声合成音を出力する処理を実行する、付記1または2に記載の電子楽器。
(付記4)
前記フィルタパラメータは、前記音色選択情報に対応する音韻に対応する複数のフォルマント毎に前記フォルマントの周波数及び利得の組を保持し、
前記音声合成フィルタは、前記フォルマントの周波数及び利得の組によって共振する共振フィルタを、前記複数のフォルマントに対応する数だけ備えたフォルマントフィルタである、付記3に記載の電子楽器。
(付記5)
前記音色選択情報に対応するフィルタパラメータは、当該音色選択情報に対応する音韻に対応する線形予測パラメータであり、
前記音声合成フィルタは、前記線形予測パラメータによって構成される線形予測フィルタである、付記3に記載の電子楽器。
(付記6)
前記処理部は、前記音高出力処理において、前記音高指定キーの操作状態に基づいて決定した音高情報を、前記人声信号に基づいて生成した人声エンベロープに基づいて変化させて出力する処理を実行する、付記1乃至5の何れか記載の電子楽器。
(付記7)
前記処理部は、前記人声合成音出力処理において、前記人声信号から生成された人声エンベロープに基づいて、前記人声合成音の振幅を制御する処理を実行する、付記1乃至6の何れか記載の電子楽器。
(付記8)
前記処理部はさらに、前記楽器音と前記人声合成音とを加算して楽音信号として出力する加算処理を実行する、付記1乃至7の何れかに記載の電子楽器。
(付記9)
前記処理部は、前記加算処理において、前記楽器音と前記人声合成音とを加算した後、前記加算結果を所定の閾値でクリッピングし、前記クリッピング後の信号を前記楽音信号として出力する処理を実行する、付記8に記載の電子楽器。
(付記10)
前記処理部はさらに、前記人声合成音信号を遅延させるとともに、前記遅延後の人声合成音信号と元の前記人声信号とを加算して出力する遅延処理を実行する、付記1乃至9の何れか記載の電子楽器。
(付記11)
呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサと、発生すべき楽音の音高を指定する音高指定キーと、発生すべき楽音の音色を指定する音色指定キーと、前記呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、有する電子楽器に用いられる楽音発生方法であって、前記電子楽器が、
前記音色指定キーの操作状態に基づいて音色選択情報を出力し、
前記音高指定キーの操作状態に基づいて音高情報を出力し、
前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力し、
前記音高情報に対応するピッチ周期を有するパルス列信号を生成し、
前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力する、楽音発生方法。
(付記12)
呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサと、発生すべき楽音の音高を指定する音高指定キーと、発生すべき楽音の音色を指定する音色指定キーと、前記呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、有する電子楽器として用いられるコンピュータに、
前記音色指定キーの操作状態に基づいて音色選択情報を出力するステップと、
前記音高指定キーの操作状態に基づいて音高情報を出力するステップと、
前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力するステップと、
前記音高情報に対応するピッチ周期を有するパルス列信号を生成するステップと、
前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力するステップと、
を実行させるプログラム。
(付記13)
呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、
発生すべき楽音の音色を指定する音色指定キーの操作状態に基づいて音色選択情報を出力する音色選択出力処理と、発生すべき楽音の音高を指定する音高指定キーの操作状態に基づいて音高情報を出力する音高出力処理と、前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力する楽器音出力処理と、前記音高情報に対応するピッチ周期を有するパルス列信号を生成するパルス列生成処理と、前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力するフィルタ処理とを実行する処理部と、
を備える楽音発生装置。
100 マウスピース
101 呼気センサ
102 マウスピース本体
103 吹き込み口
104 保護壁
105 穴
200 電子楽器
201 CPU201
202、204 A/D変換部
203 DCカット素子
205 操作キー
206 D/A変換部
207 音響システム
208 センサ出力信号
209 吹圧信号
210 人声信号
211 音高情報
212 音色選択情報
213 楽音信号
301 第1Wave Generator
302 第2Wave Generator
303 演算器
306、406、1403 加算器
307 クリップ部
308 人声選択情報
309 楽器音信号
310 人声合成音信号
311 吹圧エンベロープ
312 人声エンベロープ
401 演算器
402 パルス発生器
403 フォルマントフィルタ
404 第1フィルタ
405 第2フィルタ
1100 遅延処理部
1401 ディレイ部
1402 減衰器

Claims (13)

  1. 呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサと、
    発生すべき楽音の音高を指定する音高指定キーと、
    発生すべき楽音の音色を指定する音色指定キーと、
    前記呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、
    前記音色指定キーの操作状態に基づいて音色選択情報を出力する音色選択出力処理と、前記音高指定キーの操作状態に基づいて音高情報を出力する音高出力処理と、前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力する楽器音出力処理と、前記音高情報に対応するピッチ周期を有するパルス列信号を生成するパルス列生成処理と、前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力するフィルタ処理とを実行する処理部と、
    を備える電子楽器。
  2. 前記分離部は、前記呼気センサからのセンサ出力信号に含まれる周波数成分から前記人声の基本周波数以上の周波数成分をカットした信号を前記吹奏信号とし、前記人声の基本周波数より低い周波数成分をカットした信号を前記人声信号とする、請求項1に記載の電子楽器。
  3. 前記処理部は、前記フィルタ処理において、記音色選択情報に対応するフィルタパラメータを取得し、前記取得されたフィルタパラメータに基づいた音声合成フィルタにより前記パルス列信号をフィルタリングして人声合成音を出力する処理を実行する、請求項1または2に記載の電子楽器。
  4. 前記フィルタパラメータは、前記音色選択情報に対応する音韻に対応する複数のフォルマント毎に前記フォルマントの周波数及び利得の組を保持し、
    前記音声合成フィルタは、前記フォルマントの周波数及び利得の組によって共振する共振フィルタを、前記複数のフォルマントに対応する数だけ備えたフォルマントフィルタである、請求項3に記載の電子楽器。
  5. 前記音色選択情報に対応するフィルタパラメータは、当該音色選択情報に対応する音韻に対応する線形予測パラメータであり、
    前記音声合成フィルタは、前記線形予測パラメータによって構成される線形予測フィルタである、請求項3に記載の電子楽器。
  6. 前記処理部は、前記音高出力処理において、前記音高指定キーの操作状態に基づいて決定した音高情報を、前記人声信号に基づいて生成した人声エンベロープに基づいて変化させて出力する処理を実行する、請求項1乃至5の何れか記載の電子楽器。
  7. 前記処理部は、前記人声合成音出力処理において、前記人声信号から生成された人声エンベロープに基づいて、前記人声合成音の振幅を制御する処理を実行する、請求項1乃至6の何れか記載の電子楽器。
  8. 前記処理部はさらに、前記楽器音と前記人声合成音とを加算して楽音信号として出力する加算処理を実行する、請求項1乃至7の何れかに記載の電子楽器。
  9. 前記処理部は、前記加算処理において、前記楽器音と前記人声合成音とを加算した後、前記加算結果を所定の閾値でクリッピングし、前記クリッピング後の信号を前記楽音信号として出力する処理を実行する、請求項8に記載の電子楽器。
  10. 前記処理部はさらに、前記人声合成音信号を遅延させるとともに、前記遅延後の人声合成音信号と元の前記人声信号とを加算して出力する遅延処理を実行する、請求項1乃至9の何れか記載の電子楽器。
  11. 呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサと、発生すべき楽音の音高を指定する音高指定キーと、発生すべき楽音の音色を指定する音色指定キーと、前記呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、有する電子楽器に用いられる楽音発生方法であって、前記電子楽器が、
    前記音色指定キーの操作状態に基づいて音色選択情報を出力し、
    前記音高指定キーの操作状態に基づいて音高情報を出力し、
    前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力し、
    前記音高情報に対応するピッチ周期を有するパルス列信号を生成し、
    前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力する、楽音発生方法。
  12. 呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサと、発生すべき楽音の音高を指定する音高指定キーと、発生すべき楽音の音色を指定する音色指定キーと、前記呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、有する電子楽器として用いられるコンピュータに、
    前記音色指定キーの操作状態に基づいて音色選択情報を出力するステップと、
    前記音高指定キーの操作状態に基づいて音高情報を出力するステップと、
    前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力するステップと、
    前記音高情報に対応するピッチ周期を有するパルス列信号を生成するステップと、
    前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力するステップと、
    を実行させるプログラム。
  13. 呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、
    発生すべき楽音の音色を指定する音色指定キーの操作状態に基づいて音色選択情報を出力する音色選択出力処理と、発生すべき楽音の音高を指定する音高指定キーの操作状態に基づいて音高情報を出力する音高出力処理と、前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力する楽器音出力処理と、前記音高情報に対応するピッチ周期を有するパルス列信号を生成するパルス列生成処理と、前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力するフィルタ処理とを実行する処理部と、
    を備える楽音発生装置。
JP2016060391A 2016-03-24 2016-03-24 電子楽器、楽音発生装置、楽音発生方法及びプログラム Active JP6728843B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016060391A JP6728843B2 (ja) 2016-03-24 2016-03-24 電子楽器、楽音発生装置、楽音発生方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016060391A JP6728843B2 (ja) 2016-03-24 2016-03-24 電子楽器、楽音発生装置、楽音発生方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2017173606A true JP2017173606A (ja) 2017-09-28
JP2017173606A5 JP2017173606A5 (ja) 2019-05-09
JP6728843B2 JP6728843B2 (ja) 2020-07-22

Family

ID=59972970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016060391A Active JP6728843B2 (ja) 2016-03-24 2016-03-24 電子楽器、楽音発生装置、楽音発生方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6728843B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021051100A (ja) * 2019-09-20 2021-04-01 カシオ計算機株式会社 電子管楽器、楽音生成方法及びプログラム
WO2023058173A1 (ja) * 2021-10-06 2023-04-13 ヤマハ株式会社 音制御装置およびその制御方法、電子楽器、プログラム
WO2023058172A1 (ja) * 2021-10-06 2023-04-13 ヤマハ株式会社 音制御装置およびその制御方法、電子楽器、プログラム
WO2023233856A1 (ja) * 2022-05-31 2023-12-07 ヤマハ株式会社 音制御装置およびその制御方法、プログラム、電子楽器

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63163494A (ja) * 1986-12-26 1988-07-06 松下電器産業株式会社 インテンシテイ検出装置
JPH01142797A (ja) * 1987-11-30 1989-06-05 Casio Comput Co Ltd 電子管楽器
JPH02294695A (ja) * 1989-12-26 1990-12-05 Yamaha Corp 楽音波形信号形成装置
JPH1031496A (ja) * 1996-07-15 1998-02-03 Casio Comput Co Ltd 楽音発生装置
JP2002358090A (ja) * 2001-03-26 2002-12-13 Toshiba Corp 音声合成方法、音声合成装置及び記録媒体
JP2007171637A (ja) * 2005-12-22 2007-07-05 Toshiba Tec Corp 音声処理装置
JP2015225271A (ja) * 2014-05-29 2015-12-14 カシオ計算機株式会社 電子楽器、電子楽器の発音制御方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63163494A (ja) * 1986-12-26 1988-07-06 松下電器産業株式会社 インテンシテイ検出装置
JPH01142797A (ja) * 1987-11-30 1989-06-05 Casio Comput Co Ltd 電子管楽器
JPH02294695A (ja) * 1989-12-26 1990-12-05 Yamaha Corp 楽音波形信号形成装置
JPH1031496A (ja) * 1996-07-15 1998-02-03 Casio Comput Co Ltd 楽音発生装置
JP2002358090A (ja) * 2001-03-26 2002-12-13 Toshiba Corp 音声合成方法、音声合成装置及び記録媒体
JP2007171637A (ja) * 2005-12-22 2007-07-05 Toshiba Tec Corp 音声処理装置
JP2015225271A (ja) * 2014-05-29 2015-12-14 カシオ計算機株式会社 電子楽器、電子楽器の発音制御方法、およびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021051100A (ja) * 2019-09-20 2021-04-01 カシオ計算機株式会社 電子管楽器、楽音生成方法及びプログラム
JP7500937B2 (ja) 2019-09-20 2024-06-18 カシオ計算機株式会社 電子管楽器、楽音生成方法及びプログラム
WO2023058173A1 (ja) * 2021-10-06 2023-04-13 ヤマハ株式会社 音制御装置およびその制御方法、電子楽器、プログラム
WO2023058172A1 (ja) * 2021-10-06 2023-04-13 ヤマハ株式会社 音制御装置およびその制御方法、電子楽器、プログラム
WO2023233856A1 (ja) * 2022-05-31 2023-12-07 ヤマハ株式会社 音制御装置およびその制御方法、プログラム、電子楽器

Also Published As

Publication number Publication date
JP6728843B2 (ja) 2020-07-22

Similar Documents

Publication Publication Date Title
JP6569712B2 (ja) 電子楽器、電子楽器の楽音発生方法、及びプログラム
JP3918734B2 (ja) 楽音発生装置
JP4645241B2 (ja) 音声処理装置およびプログラム
JP6435644B2 (ja) 電子楽器、発音制御方法及びプログラム
JP6728843B2 (ja) 電子楽器、楽音発生装置、楽音発生方法及びプログラム
Stowell et al. Characteristics of the beatboxing vocal style
JP2013164542A (ja) 電子管楽器、振動制御装置及びプログラム
WO2015060340A1 (ja) 歌唱音声の合成
JP3711880B2 (ja) 音声分析及び合成装置、方法、プログラム
JP4844623B2 (ja) 合唱合成装置、合唱合成方法およびプログラム
JP4304934B2 (ja) 合唱合成装置、合唱合成方法およびプログラム
JP4757971B2 (ja) ハーモニー音付加装置
JP5360489B2 (ja) 音素符号変換装置および音声合成装置
JP4349316B2 (ja) 音声分析及び合成装置、方法、プログラム
JP5560769B2 (ja) 音素符号変換装置および音声合成装置
JP6435645B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP4300764B2 (ja) 歌唱音声を合成する方法および装置
Howard The vocal tract organ and the vox humana organ stop
JP2022065554A (ja) 音声合成方法およびプログラム
JP6753250B2 (ja) 楽音生成装置、楽音生成方法、電子楽器、及びプログラム
JP2017173605A (ja) 電子楽器、楽音発生装置、楽音発生方法、及びプログラム
ATE303645T1 (de) Durch sprache gesteuertes elektronisches musikinstrument
JP6500533B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
WO2022080395A1 (ja) 音声合成方法およびプログラム
Hållsten Heating the reeds: Just intonation and learning the shō

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190320

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190320

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R150 Certificate of patent or registration of utility model

Ref document number: 6728843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150