JP2021051100A - 電子管楽器、楽音生成方法及びプログラム - Google Patents

電子管楽器、楽音生成方法及びプログラム Download PDF

Info

Publication number
JP2021051100A
JP2021051100A JP2019171923A JP2019171923A JP2021051100A JP 2021051100 A JP2021051100 A JP 2021051100A JP 2019171923 A JP2019171923 A JP 2019171923A JP 2019171923 A JP2019171923 A JP 2019171923A JP 2021051100 A JP2021051100 A JP 2021051100A
Authority
JP
Japan
Prior art keywords
signal
voice
breath
unit
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019171923A
Other languages
English (en)
Other versions
JP7500937B2 (ja
Inventor
一貴 春日
Kazutaka Kasuga
一貴 春日
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019171923A priority Critical patent/JP7500937B2/ja
Publication of JP2021051100A publication Critical patent/JP2021051100A/ja
Application granted granted Critical
Publication of JP7500937B2 publication Critical patent/JP7500937B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】グロウル奏法時でも安定した音を発音する電子管楽器、楽音生成方法及びプログラムを提供する。【解決手段】電子管楽器100は、息の圧力と音声の圧力成分とに基づく第1の信号を生成する息圧検出部40と、発声される音声を検知して、音声の強度を示す第2の信号を生成する音声検出部50と、前記第2の信号に基づいて、前記第1の信号から音声の圧力成分を除去した第3の信号を生成するボイス成分除去部80と、第2の信号と第3の信号とに基づいて、楽音を生成する楽音生成手段と、を備える。【選択図】図4

Description

本発明は、電子管楽器、楽音生成方法及びプログラムに関する。
アコースティック管楽器(例えば、サクソフォン)の形状と演奏方法とを模した電子管楽器が知られている。アコースティック管楽器の演奏方法には、演奏者が息を吹き込むだけでなく、演奏時に「ウーーーッ」と実際に声を出しながら吹奏を行い、音に濁りを与える「グロウル奏法」がある。特許文献1には、管楽器を電子技術によって実現する電子楽器として、演奏者の吹き込む息の圧力と発声する音声とを検出し、両検出結果から発音する楽音信号をシームレスに変化させる電子楽器の技術が開示されている。この従来技術によれば、グロウル奏法などの特殊奏法による音を発音することができる。
特開2015−225271号公報
特許文献1の構成では、演奏者の吹き込む息の圧力を検出する圧力センサは、グロウル奏法の発声に伴う音声の圧力(音圧)も検出する。このため、圧力センサから出力される信号が揺らいでしまい、電子楽器から安定した音を出すことができないという問題がある。
本発明はこのような問題点に鑑みてなされたものであり、グロウル奏法時でも安定した音を出すことが可能な電子管楽器、楽音生成方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明に係る電子管楽器は、息の圧力と音声の圧力成分とに基づく第1の信号を生成する息圧検出部と、発声される音声を検知して、音声の強度を示す第2の信号を生成する音声検出部と、第2の信号に基づいて、第1の信号から音声の圧力成分を除去した第3の信号を生成するボイス成分除去部と、第2の信号と第3の信号とに基づいて、楽音を生成する楽音生成手段と、を備えることを特徴とする。
本発明によれば、グロウル奏法時でも安定した音を出すことができる。
本発明の実施形態に係る電子管楽器の(a)正面図及び(b)側面図である。 実施の形態に係る電子管楽器のマウスピースの断面を示す模式図である。 実施の形態に係る電子管楽器の電子的構成を示すブロック図である。 実施の形態に係る電子管楽器の機能構成を示すブロック図である。 実施の形態に係る合成比決定部が参照するノーマル音用テーブルとグロウル音用テーブルの一例を示す図である。 実施の形態に係るゲイン決定部が参照するゲインテーブルの一例を示す図である。 実施の形態に係る電子管楽器のメイン処理を示すフローチャートである。 実施の形態に係る電子管楽器のボイス成分除去処理を示すフローチャートである。 実施の形態に係る電子管楽器のボイス成分除去処理における、(a)息圧検出部により出力されるブレス信号の一例を表す図、(b)音声検出部により出力される音声信号の一例を表す図、(c)エンベロープ抽出部により出力されるボイスエンベロープの一例を表す図、(d)反転信号生成部により出力される反転信号の一例を表す図、(e)加算部が出力する音声信号成分が除去されたブレス信号の一例を表す図である。 実施の形態に係る電子管楽器の楽音生成処理を示すフローチャートである。 変形例に係る電子管楽器の物理構成を示すブロック図である。 変形例に係るボイス成分除去ブロックの物理構成を示すブロック図である。
以下、本発明の実施の形態に係る電子管楽器について図面を参照しながら詳細に説明する。なお、図中同一または相当する部分には同じ符号を付す。
本実施の形態に係る電子管楽器は、ブレスセンサの息の圧力を示す出力信号からグロウル奏法によって発声された音声の圧力成分を除去したブレス信号を生成し、生成したブレス信号とボイスセンサの音声信号に基づいて楽音の生成を行う楽器である。
まず、図1を参照して、実施の形態に係る電子管楽器100の外観について説明する。電子管楽器100は、アコースティック管楽器のサクソフォンの形状を模した外観を有している。電子管楽器100は、管状の筐体を有する管体部10と、管体部側面に設けられ、演奏者の指で操作される操作子20と、管体部10の一端(図面左側)に設けられ、演奏者に咥えられるマウスピース30と、他端(図面右側)に楽音を出力するスピーカを有する発音部90とを備える。
演奏者によって、この電子管楽器100のマウスピース30が咥えられて息を吹き込む吹き込み動作が行われることにより、電子管楽器100はノーマル音を発音する。また、グロウル奏法時には、演奏者によって、吹き込み動作と並行して声を発する発声動作が行われることにより、電子管楽器100は、ノーマル音とグロウル音がミックスされた楽音を発音する。
図2は、マウスピース30の断面図である。マウスピース30は、マウスピース本体部31と、ブレスセンサ32と、ボイスセンサ33と、を備える。
マウスピース本体部31には空洞31aと空洞31aに連通する吹き込み口31bが設けられている。演奏者がマウスピース30を口に咥えた状態で息を吹き込むと、吹き込み口31bを通じて息がマウスピース本体部31内部の空洞31aへ導かれる。また、演奏者がマウスピース30を口に咥えた状態で声を発すると、吹き込み口31bを通じて声がマウスピース本体部31内部の空洞31aへ導かれる。
ブレスセンサ32は、例えば圧力センサから構成され、吹き込み口31bから吹き込まれる演奏者の息の圧力を検出する。
ボイスセンサ33は、例えばマイクロフォンから構成され、演奏者のグロウル奏法による音声を検出する。
次に、図3を参照して、電子管楽器100の電子的構成について説明する。電子管楽器100は、演奏者によりマウスピース30に吹き込まれた息の圧力を検出する息圧検出部40と、グロウル奏法時に演奏者により発声される音声を検出する音声検出部50と、演奏者の指で操作される操作子20と、操作子20に接続される入出力インターフェース21と、楽音を生成する音源60と、各部を制御する制御部70と、楽音を出力する発音部90と、バス99とを備える。
息圧検出部40は、前述のブレスセンサ32と、ブレスセンサ32に接続されたADC(Analog to Digital Converter:アナログデジタル変換器)41と、を有する。ADC41はブレスセンサ32により検出された演奏者の息の圧力を、演奏者の息の圧力値(ブレス値)を表すデジタル信号に変換して、制御部70に送信する。
音声検出部50は、前述のボイスセンサ33と、ボイスセンサ33に接続されたADC51と、を有する。ADC51はボイスセンサ33により検出された演奏者の音声(音圧)を、デジタル信号に変換して、制御部70に送信する。
前述の操作子20は、演奏者の指によって操作され、演奏者の指による指示を受け付ける入力部として機能する。操作子20は、楽音の音高指定の指示を受け付ける音高指定キー等を含む。操作子20により受け付けられた演奏者の指示は、入出力インターフェース21を介して、操作子20による指示を表す信号として制御部70に出力される。制御部70は受信した信号に基づいて音高を決定する。
音源60は、シンセサイザ(例えば、音源LSI(Large scale Integrated Circuit))を備える。音源60には、管楽器のノーマル音波形データとグロウル音波形データとが記憶されている。ノーマル音波形データは、管楽器の通常演奏時の楽音をサンプリングした波形データである。グロウル音波形データは、管楽器のグロウリング奏法による演奏時の楽音をサンプリングした波形データである。音源60は、制御部70が決定した音高でそれぞれの波形データを並列に読み出して、制御部70に出力する。
発音部90は、制御部70から出力された楽音を表す信号に基づいて、電子管楽器100の外部に楽音を出力する。発音部90は、楽音を表すデジタル信号をアナログ信号に変換するDAC91、楽音を表す信号を増幅するアンプ92、楽音を出力するスピーカ93等を備える。
制御部70は、電子管楽器100の動作全体を制御するものであり、図3に示すように、各種の処理を実行するCPU(Central Processing Unit)71と、プログラムと固定データとを記憶しているROM(Read Only Memory)72と、データを記憶するRAM(Random Access Memory)73とを備える。制御部70の機能は、CPU71が、ROM72に記憶されたプログラムを実行することによって、実現される。また、ROM72には、後述する制御部70がノーマル音とグロウル音の合成比率(割合)を算出する際に参照されるノーマル音用テーブル200及びグロウル音用テーブル201、発音部90から出力される楽音信号を生成する際に参照されるゲインテーブル300、ボイスエンベロープを出力するか否かを判定する際に使用されるボイスエンベロープ閾値、音源60に対し発音指示を出力するか否かを判定する際に使用されるブレス閾値などが記憶される。
ADC51、ADC41、CPU71、ROM72、RAM73、入出力インターフェース21、音源60、DAC91は、バス99によって相互に接続されている。
次に、図4を参照して、図3に示した電子回路により実現される機能について説明する。
電子管楽器100の制御部70は、機能的に、ボイス成分除去ブロック80と音高決定部85と合成比決定部86と合成部87とゲイン決定部88と楽音生成部89とを備える。
ボイス成分除去ブロック80は、息圧検出部40から出力されるブレス信号に含まれる音声成分(ボイス値)を除去する回路であり、エンベロープ抽出部81、ゲイン調整部82、反転信号生成部83、加算部84を有する。なお、息圧検出部40から出力されるブレス信号は、請求項における第1の信号の一例である。
エンベロープ抽出部81は、音声検出部50が出力した音声信号を受信し、音声信号からエンベロープを抽出してボイスエンベロープを生成する。エンベロープ抽出部81は、抽出したボイスエンベロープのレベル(ボイスエンベロープ値)と予め定められた閾値であるボイスエンベロープ閾値Vvthとを比較し、ボイスエンベロープ値≧ボイスエンベロープ閾値Vvthのときに、ボイスエンベロープを出力する。
例えば、エンベロープ抽出部81は、ボイスセンサ33が出力し、ADC51によりデジタル信号に変換された音声信号のピークレベルをひろってゆく処理(例えば低い周波数のローパスフィルタ処理)を実行し、その結果をボイスエンベロープとして出力する。エンベロープ抽出部81は、ボイスエンベロープ値がボイスエンベロープ閾値Vvth以上であるか否かを判定し、以上であると判定した場合に、これを出力する。
なお、音声検出部50から出力される音声信号は、請求項における第2の信号の一例である。
またエンベロープ抽出部81は、息圧検出部40が出力したブレス信号から交流成分のエンベロープを抽出し、抽出したブレス信号の交流成分のエンベロープとボイスエンベロープとをゲイン調整部82に出力する。
ゲイン調整部82は、エンベロープ抽出部81により出力されたブレス信号の交流成分のエンベロープとボイスエンベロープとに基づいて、反転信号生成部83が生成する反転信号に乗算される乗数であるゲイン調整値を決定する。例えば、ゲイン調整部82は、ボイスエンベロープ値がブレス信号の交流成分のエンベロープのレベルと一致するように、ゲイン調整値を決定する。なお、ゲイン調整部82は、請求項における等価手段の一例である。
反転信号生成部83は、音声検出部50が出力した音声信号を正負反転して反転信号を生成し、生成した反転信号にゲイン調整値を乗算する。
加算部84は、息圧検出部40及び反転信号生成部83の各出力を加算する。なお、反転信号生成部83、加算部84は、請求項における除去回路の一例である。
音高決定部85は、演奏者の操作子20への指使いによる操作状態に基づいて、発生すべき楽音の音高を決定し音源60に対して発音指示を行う。具体的に、音高決定部85は、ブレス信号のレベル(ブレス値)が所定の閾値であるブレス閾値以上であるか否かを判定し、以上である場合に、音源60に対して、音高決定部85で決定された音高による発音の指示を出力する。音源60は、発音指示を受信すると、発音指示に基づく音高で、ノーマル音データとグロウル音データとを並列に読み出して合成部87に出力する。
合成比決定部86は、エンベロープ抽出部81が抽出したボイスエンベロープのレベルに従って、管楽器の通常の楽音であるノーマル音と、管楽器のグロウリング奏法によって発音される楽音であるグロウル音の合成比率(割合)を算出し、それぞれに対する乗数を決定する。
具体的に、合成比決定部86は、ボイスエンベロープのレベルの入力値に対して、図5に示すノーマル音用テーブル200及びグロウル音用テーブル201をそれぞれ参照することにより、ノーマル音とグロウル音に対する各乗数を決定する。図の通り、ノーマル音用テーブル200は、エンベロープ抽出部81が抽出したボイスエンベロープ値を入力として、ボイスエンベロープ値が大きくなるほど1から0に向かって乗数が減少する特性を有する。グロウル音用テーブル201は、ボイスエンベロープ値が大きくなるほど0から1に向かって乗数が増加する特性を有する。
合成部87は、音源60から出力されたノーマル音データとグロウル音データに、合成比決定部86が決定した各乗数を乗算し、積同士を加算してノーマル音データとグロウル音データを合成した楽音信号を生成する。合成部87は、生成した楽音信号を楽音生成部89に出力する。
ゲイン決定部88は、加算部84が出力したブレス信号のレベルに従って、合成部87から出力される楽音信号に対するゲインを決定し、それに対応する乗数を決定する。
具体的に、ゲイン決定部88は、ブレス値に対して、図6に示すゲインテーブル300を参照することにより、乗数を決定する。図の通り、ゲインテーブル300は、加算部84が出力したブレス値を入力として、ブレス値が予め定められたブレス閾値に達するまでは出力乗数が0(ゼロ)で、ブレス値がブレス閾値を超えると、ブレス値が大きくなるほど0から1に向かって出力乗数が増加する特性を有する。
楽音生成部89は、合成比決定部86の出力に、決定した乗数を乗算し、発音部90が出力する楽音を示す楽音信号を生成し、発音部90に出力する。発音部90は、楽音生成部89から供給された楽音信号で指示される音声を出力する。
次に、上記構成を有する電子管楽器100の動作を図7〜図10を参照して説明する。
上述のように、電子管楽器100は、息圧検出部40により出力されたブレス信号から音声の圧力成分を除去した信号を生成するボイス成分除去処理と、ボイス成分を除去した信号と音声検出部50により出力された音声信号とに基づいて楽音を生成する処理とをメイン処理として実行する。まず、演奏者が図示しない電子管楽器100の電源をONすると、電子管楽器100は初期状態で待機する。
演奏者が初期状態で待機している電子管楽器100のマウスピース30を咥え、吹奏を開始すると、ブレスセンサ32が息の圧力を検知し、検知した圧力を示すブレス信号を出力する。さらに、演奏者がグロウル奏法を行い、発声動作を行うとボイスセンサ33がその音声を検出し、音声の大きさを示す音声信号を出力する。出力されたブレス信号と音声信号はADC41、51を介して制御部70に出力される。
制御部70は、息圧検出部40から入力されたブレス信号と音声検出部50から入力された音声信号に基づき、ブレス信号から音声の圧力成分を除去するボイス成分除去処理を実行する(ステップS11)。この処理は、図4のボイス成分除去ブロック80のエンベロープ抽出部81、ゲイン調整部82、反転信号生成部83、加算部84により実行される。なお、ボイス成分除去処理(ステップS11)の詳細は後述する。
次に、制御部70は、ボイス成分除去処理によって得られたブレス信号とボイスエンベロープと、操作子20における演奏者の操作状態基づいた音高情報と、を入力として、発音部90が出力する楽音を指示する楽音信号を生成する楽音生成処理を行う(ステップS12)。この処理は、図4の音高決定部85、合成比決定部86、合成部87、ゲイン決定部88、楽音生成部89の各機能により実行される。なお、楽音生成処理(ステップS12)の詳細は後述する。
制御部70は、終了指示が入力された場合(ステップS13;YES)、メイン処理を終了する。制御部70に終了指示が入力されない場合(ステップS13;NO)、処理はボイス成分除去処理(ステップS11)に戻る。
次に、図8を参照してボイス成分除去処理(ステップS11)について詳細に説明する。
まず、エンベロープ抽出部81は、音声検出部50から出力された音声信号を受信して、ボイス値を取得する(ステップS101)。
次に、エンベロープ抽出部81は、音声信号からボイスエンベロープを抽出し(ステップS102)、抽出したボイスエンベロープのレベルがボイスエンベロープ閾値Vvthを以上であるか否かを判断する(ステップS103)。エンベロープ抽出部81は、ボイスエンベロープ値≧ボイスエンベロープ閾値Vvthであると判断すると(ステップS103;Yes)、エンベロープ抽出部81は、ボイスエンベロープを出力する(ステップS104)。さらに、エンベロープ抽出部81は、抽出したボイスエンベロープをRAM73に記憶する。
次に、エンベロープ抽出部81は、息圧検出部40から出力されたブレス信号を受信して、ブレス値を取得する(ステップS105)。エンベロープ抽出部81は、ブレス信号から交流成分のエンベロープを抽出し、出力する(ステップS106)。
次に、ゲイン調整部82は、エンベロープ抽出部81が抽出したボイスエンベロープとブレス信号の交流成分のエンベロープとを取得して、ゲイン調整値を決定する(ステップS107)。ゲイン調整部82は、ボイスエンベロープ値がブレス信号の交流成分のエンベロープのレベルと一致するように、ゲイン調整値を決定し、出力する。
次に、反転信号生成部83は、音声検出部50から出力された音声信号を受信し、音声信号を正負反転して反転信号を生成する(ステップS108)。さらに、反転信号生成部83は、ゲイン調整部82が決定したゲイン調整値を取得して、ステップS108で生成した反転信号にゲイン調整値を乗算する(ステップS109)。
次に、加算部84は、息圧検出部40から出力されたブレス信号を取得し、ステップS109により得られた信号と取得したブレス信号を加算し、得られたブレス信号を出力する(ステップS110)。この処理は、息圧検出部40から出力されたブレス信号に含まれている音声成分から音声検出部50で検出された音声成分を減算することにより、音声成分を除去することに相当する。加算部84は、出力したブレス信号をRAM73に記憶する(ステップS111)。
続いて、処理はメイン処理にリターンし、楽音生成処理(ステップS12)に進む。
一方、ステップS103で、ボイスエンベロープ値<ボイスエンベロープ閾値Vvthと判断されると(ステップS103;No)、処理はメイン処理にリターンし、楽音生成処理(ステップS12)に進む。
次に、上述のボイス成分除去処理(ステップS11)を、図9の具体例を参照してより詳細に説明する。
図9は、電子管楽器100がオンの状態で、演奏者が吹き込み動作を行うことで通常の演奏を開始し、その後一定時間グロウル演奏を実施して、再度吹き込み動作のみを行って演奏を終了した場合における、ブレス信号からボイス成分を除去する動作を行った際の、各信号のタイミングチャートを示す。
図9(a)は、息圧検出部40により出力されるブレス信号の一例であり、図9(b)は、音声検出部50により出力される音声信号一例である。図9(a)に示す通り、演奏者が吹き込み動作を開始すると、ブレスセンサ32が検知したマウスピース30内の息圧を示すブレス信号が出力される。吹き込み動作と並行して発声動作を行うグロウル演奏の区間では、ブレス信号は、発声による音声の圧力の影響により、音声信号が重畳された波形となる。
一方、図9(b)に示す通り、演奏者がグロウル演奏を行っていない区間では、音声信号はほとんど0レベルであり、グロウル演奏区間では、ブレス信号に重畳されている音声信号と振幅は異なるがほぼ同位相の音声信号が出力される。
ステップS101において、エンベロープ抽出部81は、音声検出部50によって出力された図9(b)に示す音声信号を受信して、ボイス値を取得し、ボイスエンベロープ値≧ボイスエンベロープ閾値Vvthであるか否かを判断する(ステップS103)。図9(b)の例では、演奏開始からグロウル演奏開始までの間及びグロウル演奏終了後は、ボイスエンベロープ値<ボイスエンベロープ閾値Vvthと判断し(ステップS103;No)、図9(c)に示すように、ボイスエンベロープを出力しない。即ち、ボイスエンベロープレベルを0レベルに設定する。一方、グロウル区間では、エンベロープ抽出部81は、ボイスエンベロープ値≧ボイスエンベロープ閾値Vvthであると判断し(ステップS103;Yes)、音声信号からボイスエンベロープを、図9(c)に示すように出力する(ステップS104)。
次に、ゲイン調整部82は、エンベロープ抽出部81がステップS104で抽出したボイスエンベロープとステップS106で抽出したブレス信号の交流成分のエンベロープとを取得して、ゲイン調整値を決定し、出力する(ステップS107)。
ステップS108において、反転信号生成部83は、音声検出部50から出力された図9(b)に示す音声信号を正負反転して、図9(d)に示すように反転信号を生成する。さらに、ステップS109において、反転信号生成部83は、ゲイン調整部82が決定したゲイン調整値を取得して、ステップS108で生成した反転信号にゲイン調整値を乗算する。ステップS109により得られた信号の出力値は、図9(a)に示すブレス信号におけるボイス成分の大きさと等しくなる。
次に、加算部84は、ステップS109により得られた信号と息圧検出部40から出力されたブレス信号を加算する。図9(d)に示すように、通常演奏区間では、ボイスレベルはほぼ0であり、加算値は、図9(e)に示すようにブレス信号のレベルそのままとなる。一方、グロウル区間では、図9(a)と(d)に示すように、音声信号のレベルは互にほぼ等しく、極性が逆になっている。従って、これらを加算すると、音声信号成分が相殺しあって、図9(e)に示すように、音声信号成分が除去されたブレス信号が得られる。
次に、図10を参照して、楽音を発する電子管楽器100の楽音生成処理について説明する。制御部70は、前述したボイス成分除去処理により出力したブレス信号とボイスエンベロープを読み込み、楽音生成処理を開始する。
まず、音高決定部85は、取得したブレス信号のレベルが予め定められたブレス閾値以上であるか否かを判定する(ステップS201)。音高決定部85は、ブレス値がブレス閾値以上であると判定すると(ステップS201;Yes)、操作子20から出力された操作子20による指示を表す信号を読み込み、操作子20による指示を表す信号から楽音の音高を決定する(ステップS202)。音高決定部85は、ブレス値がブレス閾値未満であると判定すると(ステップS201;No)、音源60に発音の停止を指示する(ステップS208)。
音高決定部85は、決定した音高の情報を音源60に送信する。音源60は、音高決定部85から送信された音高情報に基づいて、決定された音高のノーマル音波形データとグロウル音波形データを読み出し、合成部87に出力する(ステップS203)。
次に、合成比決定部86は、ボイスエンベロープを取得し、ノーマル音用テーブル200とグロウル音用テーブル201とを参照して、ボイスエンベロープ値に応じたノーマル音とグロウル音とに対する乗数を決定し、合成部87に出力する(ステップS204)。合成部87は、音源60からノーマル音波形データとグロウル音波形データとを取得し、合成比決定部86により決定された乗数をそれぞれに乗算して、その出力を加算し、楽音信号を生成する(ステップS205)。合成部87は、生成した楽音信号を、楽音生成部89に出力する。
次に、ゲイン決定部88は、加算部84により出力されたブレス信号を取得して、ゲインテーブル300を参照し、ブレス値に応じて、楽音信号に対する最終ゲインである乗数を決定する(ステップS206)。ゲイン決定部88は、決定した乗数を楽音生成部89に出力する。
楽音生成部89は、合成部87により生成された楽音信号に、ゲイン決定部88が決定した乗数を乗算して、最終楽音信号を生成する(ステップS207)。楽音生成部89は、生成した最終楽音信号を発音部90に出力する。発音部90は、楽音生成部89から受信した最終楽音信号に基づいて、電子管楽器100の外部に楽音を出力する。
以上により、電子管楽器100は、息圧検出部40により出力されたブレス信号から音声の圧力成分を除去した信号を生成するボイス成分除去ブロック80を備え、ボイス成分を除去した信号と音声検出部50により出力された音声信号とに基づいて楽音を生成することにより、グロウル奏法時でも安定した音を出すことができる。
(変形例)
以上、本発明の実施の形態を説明したが、本発明は、上記の実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々の変更が可能である。
実施の形態では、制御部70がボイス成分除去ブロック80の処理を実行するものとして説明したが、ハードウェアによってもボイス成分除去ブロック80の処理を実行可能である。
図11は、ボイス成分除去ブロック80の機能をハードウェアで実施した場合における電子管楽器100の物理構成を示した図である。図11の通り、ボイスセンサ33、ブレスセンサ32とADC51、ADC41との間にボイス成分除去ブロック80aが構成される。
図12は、ボイス成分除去ブロック80aの物理構成を示す図である。ボイス成分除去ブロック80aは、第1ゲイン回路400と第2ゲイン回路401と減算回路402と包絡線検波回路403とを備える。
第1ゲイン回路400は、ブレスセンサ32と接続され、ブレスセンサ32が出力するアナログのブレス信号を増幅する。第2ゲイン回路401は、ボイスセンサ33と接続され、ボイスセンサ33が出力するアナログの音声信号を増幅する。ブレスセンサ32とボイスセンサ33のそれぞれの出力値V1、V2のゲインは、デバイス仕様によって決まっているため、ゲイン回路でそれぞれの乗数G1、G2を乗算したときに、G1V1とG2V2との値が一致するように、G1とG2は、予め調整される。
減算回路402は、第1ゲイン回路400によって増幅されたブレス信号と第2ゲイン回路401によって増幅された音声信号とを減算する。減算回路402から出力されたブレス信号は、第1ゲイン回路400によって増幅されたブレス信号からボイス成分が除去された信号である。
包絡線検波回路403は、第2ゲイン回路401と接続され、第2ゲイン回路401から出力された音声信号からボイスエンベロープを抽出する。包絡線検波回路403によって抽出されたボイスエンベロープは、図示しないADCに出力されてデジタル信号に変換され、制御部70に出力される。制御部70は、受信したブレス信号とボイスエンベロープに基づいて、楽音生成処理を実行する。
以上説明したボイス成分除去ブロック80aの構成により、制御部70のボイス成分除去ブロック80が行うボイス成分除去処理を実行することができる。
また、実施形態では、電子管楽器100はサクソフォンの形状を模しているが、電子管楽器100はサクソフォンの形状を模した電子楽器に限られず、例えば、クラリネット等を模した電子楽器であってもよい。
また、上述した実施の形態では、ブレスセンサ32が吹奏による息の圧力を検知し、ボイスセンサ33が音声を検知する構成としているが、これに限られるものではない。例えば、特開2018-54859に開示された楽音生成装置により、1種類のセンサによって、ブレスセンサ32とボイスセンサ33の機能を実現してもよい。
制御部70の機能は、通常の情報携帯端末、パーソナルコンピュータ等を用いて実行可能である。例えば、発音処理又は位置検出処理を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体に格納して配布し、このコンピュータプログラムをパーソナルコンピュータ等にインストールすることにより、発音処理又は位置検出処理を実行する情報端末を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置にこのコンピュータプログラムを格納しておき、通常の情報処理端末などがダウンロード等することで情報処理装置を構成してもよい。
また、制御部70の機能を、OS(Operating System)とアプリケーションプログラムとの分担、又は、OSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
さらに、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)に、コンピュータプログラムを掲示し、ネットワークを介してこのコンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上述の処理を実行できるように構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施の形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
息の圧力と音声の圧力成分とに基づく第1の信号を生成する息圧検出部と、
発声される音声を検知して、音声の強度を示す第2の信号を生成する音声検出部と、
前記第2の信号に基づいて、前記第1の信号から音声の圧力成分を除去した第3の信号を生成するボイス成分除去部と、
前記第2の信号と前記第3の信号とに基づいて、楽音を生成する楽音生成手段と、
を備える、
電子管楽器。
(付記2)
前記ボイス成分除去部は、
前記息圧検出部による音声の検出により前記第1の信号に含まれる音声信号の成分の信号レベルと、前記音声検出部による前記音声の検出により出力される音声信号の信号レベルとを合わせる等価手段と、
前記等価手段による等価処理後の、前記第1の信号と前記第2の信号の差分を求めることにより、前記第1の信号から音声信号成分を除去する除去回路と、
を備える付記1に記載の電子管楽器。
(付記3)
通常演奏時の楽音であるノーマル音の楽音信号とグロウル奏法による演奏時の楽音であるグロウル音の楽音信号とを出力する音源と、
ノーマル音の楽音信号とグロウル音の楽音信号とを予め定められた比率で合成する合成部と、
前記合成部によるノーマル音の楽音信号とグロウル音の楽音信号との合成比を決定する合成比決定部と、
をさらに備える付記1又は2に記載の電子管楽器。
(付記4)
息圧検出部から、息の圧力と音声の圧力成分とに基づく第1の信号を取得する工程と、
発声される音声を検知する音声検出部から、音声の強度を示す第2の信号を取得する工程と、
前記第2の信号に基づいて、前記第1の信号から音声の圧力成分を除去した第3の信号を生成する工程と、
前記第2の信号と前記第3の信号とに基づいて、楽音を生成する工程と、を含む、
楽音生成方法。
(付記5)
コンピュータに、
息圧検出部から、息の圧力と音声の圧力成分とに基づく第1の信号を取得する処理と、
発声される音声を検知する音声検出部から、音声の強度を示す第2の信号を取得する処理と、
前記第2の信号に基づいて、前記第1の信号から音声の圧力成分を除去した第3の信号を生成する処理と、
前記第2の信号と前記第3の信号とに基づいて、楽音を生成する処理と、を実行させる、
プログラム。
100・・・電子管楽器、10・・・管体部、20・・・操作子、21・・・入出力インターフェース、30・・・マウスピース、31・・・マウスピース本体部、31a・・・空洞、31b・・・吹き込み口、32・・・ブレスセンサ、33・・・ボイスセンサ、40・・・息圧検出部、41・・・ADC、50・・・音声検出部、51・・・ADC、60・・・音源、70・・・制御部、71・・・CPU、72・・・ROM、73・・・RAM、80、80a・・・ボイス成分除去ブロック、81・・・エンベロープ抽出部、82・・・ゲイン調整部、83・・・反転信号生成部、84・・・加算部、85・・・音高決定部、86・・・合成比決定部、87・・・合成部、88・・・ゲイン決定部、89・・・楽音生成部、90・・・発音部、91・・・DAC、92・・・アンプ、93・・・スピーカ、99・・・バス、200・・・ノーマル音用テーブル、201・・・グロウル音用テーブル、300・・・ゲインテーブル、400・・・第1ゲイン回路、401・・・第2ゲイン回路、402・・・減算回路、403・・・包絡線検波回路。

Claims (5)

  1. 息の圧力と音声の圧力成分とに基づく第1の信号を生成する息圧検出部と、
    発声される音声を検知して、音声の強度を示す第2の信号を生成する音声検出部と、
    前記第2の信号に基づいて、前記第1の信号から音声の圧力成分を除去した第3の信号を生成するボイス成分除去部と、
    前記第2の信号と前記第3の信号とに基づいて、楽音を生成する楽音生成手段と、
    を備える、電子管楽器。
  2. 前記ボイス成分除去部は、
    前記息圧検出部による音声の検出により前記第1の信号に含まれる音声信号の成分の信号レベルと、前記音声検出部による前記音声の検出により出力される音声信号の信号レベルとを合わせる等価手段と、
    前記等価手段による等価処理後の、前記第1の信号と前記第2の信号の差分を求めることにより、前記第1の信号から音声信号成分を除去する除去回路と、
    を備える請求項1に記載の電子管楽器。
  3. 通常演奏時の楽音であるノーマル音の楽音信号とグロウル奏法による演奏時の楽音であるグロウル音の楽音信号とを出力する音源と、
    ノーマル音の楽音信号とグロウル音の楽音信号とを予め定められた比率で合成する合成部と、
    前記合成部によるノーマル音の楽音信号とグロウル音の楽音信号との合成比を決定する合成比決定部と、
    をさらに備える請求項1又は2に記載の電子管楽器。
  4. 息圧検出部から、息の圧力と音声の圧力成分とに基づく第1の信号を取得する工程と、
    発声される音声を検知する音声検出部から、音声の強度を示す第2の信号を取得する工程と、
    前記第2の信号に基づいて、前記第1の信号から音声の圧力成分を除去した第3の信号を生成する工程と、
    前記第2の信号と前記第3の信号とに基づいて、楽音を生成する工程と、を含む、
    楽音生成方法。
  5. コンピュータに、
    息圧検出部から、息の圧力と音声の圧力成分とに基づく第1の信号を取得する処理と、
    発声される音声を検知する音声検出部から、音声の強度を示す第2の信号を取得する処理と、
    前記第2の信号に基づいて、前記第1の信号から音声の圧力成分を除去した第3の信号を生成する処理と、
    前記第2の信号と前記第3の信号とに基づいて、楽音を生成する処理と、を実行させる、
    プログラム。
JP2019171923A 2019-09-20 2019-09-20 電子管楽器、楽音生成方法及びプログラム Active JP7500937B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019171923A JP7500937B2 (ja) 2019-09-20 2019-09-20 電子管楽器、楽音生成方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019171923A JP7500937B2 (ja) 2019-09-20 2019-09-20 電子管楽器、楽音生成方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021051100A true JP2021051100A (ja) 2021-04-01
JP7500937B2 JP7500937B2 (ja) 2024-06-18

Family

ID=75158231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019171923A Active JP7500937B2 (ja) 2019-09-20 2019-09-20 電子管楽器、楽音生成方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7500937B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784573A (ja) * 1993-06-30 1995-03-31 Yamaha Corp 楽音信号発生装置
JP2000105594A (ja) * 1998-09-30 2000-04-11 Matsushita Electric Ind Co Ltd 楽音合成装置
JP2015225271A (ja) * 2014-05-29 2015-12-14 カシオ計算機株式会社 電子楽器、電子楽器の発音制御方法、およびプログラム
JP2015225269A (ja) * 2014-05-29 2015-12-14 カシオ計算機株式会社 電子楽器、電子楽器の発音制御方法、およびプログラム
JP2017173606A (ja) * 2016-03-24 2017-09-28 カシオ計算機株式会社 電子楽器、楽音発生装置、楽音発生方法及びプログラム
JP2018054859A (ja) * 2016-09-28 2018-04-05 カシオ計算機株式会社 楽音生成装置、楽音生成方法、電子楽器、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784573A (ja) * 1993-06-30 1995-03-31 Yamaha Corp 楽音信号発生装置
JP2000105594A (ja) * 1998-09-30 2000-04-11 Matsushita Electric Ind Co Ltd 楽音合成装置
JP2015225271A (ja) * 2014-05-29 2015-12-14 カシオ計算機株式会社 電子楽器、電子楽器の発音制御方法、およびプログラム
JP2015225269A (ja) * 2014-05-29 2015-12-14 カシオ計算機株式会社 電子楽器、電子楽器の発音制御方法、およびプログラム
JP2017173606A (ja) * 2016-03-24 2017-09-28 カシオ計算機株式会社 電子楽器、楽音発生装置、楽音発生方法及びプログラム
JP2018054859A (ja) * 2016-09-28 2018-04-05 カシオ計算機株式会社 楽音生成装置、楽音生成方法、電子楽器、及びプログラム

Also Published As

Publication number Publication date
JP7500937B2 (ja) 2024-06-18

Similar Documents

Publication Publication Date Title
JP6569712B2 (ja) 電子楽器、電子楽器の楽音発生方法、及びプログラム
CN111986638B (zh) 电子管乐器、乐音生成装置、乐音生成方法、记录介质
US9564114B2 (en) Electronic musical instrument, method of controlling sound generation, and computer readable recording medium
JP6705272B2 (ja) 発音制御装置、発音制御方法、及びプログラム
JP2010055077A (ja) 制御装置
TWI317574B (en) Audio amplification apparatus with howling canceler
JP6728843B2 (ja) 電子楽器、楽音発生装置、楽音発生方法及びプログラム
JP5188863B2 (ja) 電子楽器
JP7140083B2 (ja) 電子管楽器、電子管楽器の制御方法及びプログラム
JP6326976B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP7331588B2 (ja) 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム
JP2021051100A (ja) 電子管楽器、楽音生成方法及びプログラム
JP5418518B2 (ja) 楽曲データ修正装置
JP6648457B2 (ja) 電子楽器、音波形発生方法、及びプログラム
JP6435645B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP6753250B2 (ja) 楽音生成装置、楽音生成方法、電子楽器、及びプログラム
WO2018055892A1 (ja) 電子打楽器の音源
JP6569255B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP7346865B2 (ja) 電子管楽器、楽音生成方法、及びプログラム
JP6809608B2 (ja) 歌唱音生成装置及び方法、プログラム
JP6390130B2 (ja) 楽曲演奏装置、楽曲演奏方法及びプログラム
JP2009258238A (ja) 楽音合成装置およびプログラム
JP6671633B2 (ja) 電子管楽器、楽音発生方法およびプログラム
JP2011197235A (ja) 音響信号制御装置およびカラオケ装置
JPH08123491A (ja) 音声信号処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240520

R150 Certificate of patent or registration of utility model

Ref document number: 7500937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150