JP2017173610A - 楽音制御装置、電子楽器、楽音制御方法およびプログラム - Google Patents

楽音制御装置、電子楽器、楽音制御方法およびプログラム Download PDF

Info

Publication number
JP2017173610A
JP2017173610A JP2016060475A JP2016060475A JP2017173610A JP 2017173610 A JP2017173610 A JP 2017173610A JP 2016060475 A JP2016060475 A JP 2016060475A JP 2016060475 A JP2016060475 A JP 2016060475A JP 2017173610 A JP2017173610 A JP 2017173610A
Authority
JP
Japan
Prior art keywords
performance
musical
state
musical sound
wind
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016060475A
Other languages
English (en)
Other versions
JP6710432B2 (ja
JP2017173610A5 (ja
Inventor
千寿 外山
Chihiro Toyama
千寿 外山
一貴 春日
Kazutaka Kasuga
一貴 春日
林 龍太郎
Ryutaro Hayashi
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016060475A priority Critical patent/JP6710432B2/ja
Publication of JP2017173610A publication Critical patent/JP2017173610A/ja
Publication of JP2017173610A5 publication Critical patent/JP2017173610A5/ja
Application granted granted Critical
Publication of JP6710432B2 publication Critical patent/JP6710432B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】ビギナーユーザでも簡単にサブトーンやタンギングを吹奏可能な楽音制御装置を提供する。【解決手段】CPU13は、センシングパッド7によってマウスピース6を咥えるユーザの舌および下唇がリードに接触する状態を表すパッドデータPD1〜PD12を検出してユーザの吹奏の仕方を取得する。通常の奏法が為された場合のパッドデータPD1〜PD12から取得した吹奏の仕方を比較基準として保存する。そして、新たなパッドデータPD1〜PD12から取得した吹奏の仕方と、保存した比較基準との差異から特殊奏法(サブトーン奏法やタンギング奏法)を判別し、判別した特殊奏法(サブトーン奏法やタンギング奏法)に対応した楽音を形成するので、ビギナーユーザでも簡単にサブトーンやタンギングを吹奏することが出来る。【選択図】図3

Description

本発明は、ビギナーユーザでも簡単にサブトーンやタンギングを吹奏可能な楽音制御装置、電子楽器、楽音制御方法およびプログラムに関する。
一般に電子管楽器では、アコースティック管楽器と同様のキー位置に音高指定用のスイッチ(音高キー)を設けておき、そのスイッチ操作によって楽音の音高を指定すると共に、マウスピース内に吹き込む息の吹圧を検出する圧力センサを設け、この圧力センサにより検出される吹圧に応じて楽音の音量を決定するように構成されている。
この種の楽器として、例えば特許文献1には、マウスピースに接触するユーザの上唇および下唇の位置を検出し、検出した上唇位置および下唇位置に応じて生成されるパラメータに従って楽音形成することで例えばユーザの頬や咽の動きに従って発生楽音の音色を制御する技術が開示されている。
特開2000−122641号公報
ところで、上述した特許文献1に開示の技術では、マウスピースに接触するユーザの上唇および下唇の位置を検出して得たパラメータに基づきユーザの頬や咽の動きに応じた音色制御を実現するが、息が漏れるような音を含んだ柔らかなサウンドとして知られるサブトーンや、舌でリードの振動を一瞬止めて音を区切るタンギングをビギナーユーザが簡単に吹奏することが出来ない、という問題がある。
本発明は、このような事情に鑑みてなされたもので、ビギナーユーザでも簡単にサブトーンやタンギングを吹奏することが出来る楽音制御装置、電子楽器、楽音制御方法およびプログラムを提供することを目的としている。
本発明の楽音制御装置は、
吹奏の状態を示す吹奏情報を検出部から検出する検出処理と、
前記検出部から検出される吹奏情報と、保存部に保存されている比較基準情報との差異から、複数の奏法のうちのいずれの奏法かを判別する奏法判別処理と、
前記奏法判別処理によって判別した奏法に対応した楽音の生成を音源に指示する楽音指示処理と、
を実行する処理部を有することを特徴とする。
本発明の楽音方法は、電子管楽器で実行され、
吹奏の状態を示す吹奏情報を検出部から検出し、
検出部から検出される吹奏情報と、保存部に保存されている比較基準情報との差異から、複数の奏法のうちのいずれの奏法かを判別し、
判別した奏法に対応した楽音の生成を音源に指示する
ことを特徴とする。
本発明のプログラムは、電子管楽器に搭載されるコンピュータに、
吹奏の状態を示す吹奏情報を検出部から検出する検出ステップと、
前記検出部から検出される吹奏情報と、保存部に保存されている比較基準情報との差異から、複数の奏法のうちのいずれの奏法かを判別する奏法判別ステップと、
前記奏法判別ステップによって判別した奏法に対応した楽音の生成を音源に指示する楽音指示ステップと、
を実行させることを特徴とする。
本発明では、ビギナーユーザでも簡単にサブトーンやタンギングを吹奏することが出来る。
本発明の一実施形態による電子管楽器100の全体構造を示す外観図およびマウスピース6の構造を示す断面図である。 電子管楽器100の電気的構成を示すブロック図である。 RAM13の構成および奏法判別テーブルPDTの構成を示す図である。 パッドデータPD1〜PD12の出力分布(ヒストグラム)の一例を示す図である。 CPU11の動作状態を示す状態遷移図である。 CPU11が実行するメインルーチンの動作を示すフローチャートである。 CPU11が実行するセンシングパッド処理の動作を示すフローチャートである。
以下、図面を参照して本発明の実施形態について説明する。
A.構造
図1を参照して本発明の一実施形態による電子管楽器100の全体構造について説明する。図1(a)は、アコースティック管楽器の「サックス」形状を模した電子管楽器100の全体構造を示す外観図、図1(b)はマウスピース6の構造を示す断面図である。図1(a)において、サックス形状を為す本体1の正面には、運指操作(音高を指定する演奏操作)される音高キー2が配設される。本体1の開口端3側の内部には、楽音を放音するスピーカ4が設けられる。また、本体1の側面側には、電源をパワーオン・オフする電源スイッチの他、各種操作スイッチを有する操作部5が設けられる。
本体1の基端には、マウスピース6が嵌着されると共に、このマウスピース6を介して吹きこまれるユーザ(吹奏者)の息圧を検出する息圧センサ8が配設される。マウスピース6は、図1(b)に図示する構造、すなわちアコースティック管楽器のリードに相当する箇所にセンシングパッド7(検出部)を備える。
センシングパッド7は、図1(b)に図示するように、静電容量方式により接触検出するパッドPOS1〜POS12から構成される。パッドPOS1〜POS12は、接触検出する領域であり、それぞれマトリクス配置された複数の検出素子から構成される。これらパッドPOS1〜POS12の各検出出力は、後述する入力部9に供給され、パッドデータPD1〜PD12(後述する)に変換される。パッドPOS1がティップ側であり、パッドPOS12がヒール側である。
B.構成
次に、図2を参照して電子管楽器100の電気的構成について説明する。図2は、電子管楽器100の電気的構成を示すブロック図である。図2において、センシングパッド7は、上述したように、それぞれマトリクス配置された複数の検出素子から構成されるパッドPOS1〜POS12を備える。入力部9は、パッドPOS1〜POS12の各検出出力を、接触面積(接触検出した検出素子の数)を表すパッドデータPD1〜PD12に変換する。
すなわち、入力部9では、パッドPOS1の検出出力を、マウスピース6を咥えるユーザの舌がリードに接触する状態(接触面積)を表すパッドデータPD1に変換する。また、入力部9では、パッドPOS2〜POS12の各検出出力を、それぞれマウスピース6を咥えるユーザの下唇がリードに接触する状態(接触面積)を表すパッドデータPD2〜PD12に変換する。したがって、マウスピース6を咥えるユーザの舌および下唇がリードに接触する状態(接触面積)を表すデータPD1〜PD12の出力分布(ヒストグラム)は、吹奏の仕方を表現するものと言える。
息圧センサ8は、マウスピース6から吹き込まれる息圧を検出して息圧信号を出力する。A/D変換部10は、息圧センサ8から出力される息圧信号をレベル増幅した後、CPU11の制御の下にA/D変換して息圧データDpを発生する。このA/D変換部10が出力する息圧データDpおよび入力部9が発生するパッドデータPD1〜PD12は、CPU11の制御の下に、後述するRAM13のバッファエリアに一時記憶される。
本体1の正面に配列される音高キー2(図1(a)参照)は、ユーザの運指操作(音高を指定する演奏操作)に応じた音高データPを発生する。発音音高を表す音高データPは、CPU11に取り込まれる。操作部5は、電源をパワーオン・オフする電源スイッチの他、発生楽音の音色を選択する音色選択スイッチ等の各種操作スイッチを有し、操作されるスイッチ種に応じたスイッチイベントを発生する。操作部5が発生するスイッチイベントは、CPU11に取り込まれる。
CPU11(処理部)は、操作部5が発生する各種スイッチイベントに基づき楽器各部の動作状態を設定する他、音高キー2の運指操作に応じて発生する音高データPにより指定される音高の楽音を発生するよう音源14に指示する。本発明の要旨に係るCPU11の特徴的な処理動作については追って詳述する。ROM12には、上記CPU11にロードされる各種プログラムデータが記憶される。各種プログラムとは、後述するメインルーチンおよび当該メインルーチンからコールされるセンシングパッド処理を含む。
RAM13(保存部)は、図3(a)に図示するように、バッファエリアBA、奏法判別テーブルPDTおよびワークエリアWAを備える。RAM13のバッファエリアBAは、CPU11が指示する循環アドレスに従ってリングバッファとして用いられ、上述した入力部9から出力されるパッドデータPD1〜PD12およびA/D変換部10から出力される息圧データDpを時系列順に取り込んで一時記憶する。
RAM13に格納される奏法判別テーブルPDTとは、マウスピース6を咥えるユーザの舌および下唇が、前述したセンシングパッド7のパッドPOS1〜POS12に接触する状態(接触面積)を表すパッドデータPD1〜PD12の出力分布(ヒストグラム)に基づいて奏法を判別するテーブルである。
ここで、図3(b)および図4を参照して奏法判別テーブルPDTについて説明する。図4(a)は、ユーザが通常の奏法でマウスピース6を咥えた際に発生するパッドデータPD1〜PD12の出力分布(ヒストグラム)の典型例を示す図である。この例では、パッドデータPD1は「66」、パッドデータPD2は「119」、パッドデータPD3は「169」、パッドデータPD4は「177」、パッドデータPD5は「170」、パッドデータPD6は「146」、パッドデータPD7は「126」、パッドデータPD8は「86」、パッドデータPD8〜PD12はそれぞれ「0」となる。
つまり、通常の奏法では、パッドデータPD1〜PD4が順次増加して、パッドデータPD4がピーク(山)となった後、パッドデータPD5〜PD8が順次減少する「山型」の出力分布(ヒストグラム)となる。こうした「山型」のパターンが通常の奏法を示す出力分布(ヒストグラム)であり、奏法判別するための比較基準になる。
ここでいう極大値とは、出力されたパッドデータPD1〜PD12のうちの最大値のデータ値(最大値)である必要はなく、極大値であれば良い。ここでは、極大値を持つグラフの形を山型と呼ぶ。例えば、図4(a)のようにパッドデータPD4で極大値が得られる形のグラフは、前述のような山型が得られるため、奏法判別するための基準となる「山型」と呼ぶ。
また、後述する「山(極大値)の右側が増加」とは、極大値が得られたパッドよりティップ側に位置するパッドの出力値(パッドデータ)が増加することを示し、山(極大値)の左側が減少」とは、極大値が得られたパッドよりヒール側に位置するのパッドの出力値(パッドデータ)が減少することを示す。
図3(b)に図示した一例の奏法判別テーブルPDTでは、通常の奏法を示す「山型」の出力分布(ヒストグラム)に対し、新たに取得した現パッドデータPD1〜PD12の出力分布(ヒストグラム)がどのように相違しているかに応じて奏法を判別する。具体的には、通常の奏法を示す「山型」の出力分布(ヒストグラム)に対し、現パッドデータPD1〜PD12の出力分布(ヒストグラム)について、「山(極大値)の右側が減少」したか否か、「山(極大値)の左側が増加」したか否か、「山(極大値)の数が1つから2つに変化」したか否かを判断し、その判断結果に該当する奏法を判別する。
具体的には、例えば図4(b)に図示する一例のパッドデータPD1〜PD12が新たに取得されたとする。この一例では、パッドデータPD1は「106」、パッドデータPD2は「129」、パッドデータPD3は「169」、パッドデータPD4は「177」、パッドデータPD5は「170」、パッドデータPD6は「146」、パッドデータPD7は「106」、パッドデータPD8は「66」、パッドデータPD8〜PD12はそれぞれ「0」となる。
これを比較基準である図4(a)に図示したパッドデータPD1〜PD12の出力分布(ヒストグラム)と比較してみると、「山の右側が減少」(yes)し、「山の左側が増加」(yes)し、「山(極大値)の数が1つから2つに変化」(no)していないので、この判断結果に基づいて図3(b)に図示した奏法判別テーブルPDTから「サブトーン奏法」と判別される。
また、例えば図4(c)に図示する一例のパッドデータPD1〜PD12が新たに取得されたとする。この一例では、パッドデータPD1は「146」、パッドデータPD2は「129」、パッドデータPD3は「169」、パッドデータPD4は「177」、パッドデータPD5は「170」、パッドデータPD6は「146」、パッドデータPD7は「126」、パッドデータPD8は「86」、パッドデータPD8〜PD12はそれぞれ「0」となる。
そして、これを比較基準である図4(a)に図示したパッドデータPD1〜PD12の出力分布(ヒストグラム)と比較すると、「山の右側が減少」(no)していないが、「山の左側が増加」(yes)し、極大値が2つになり「山(極大値)の数が1つから2つに変化」(yes)したので、この判断結果に基づいて図3(b)に図示した奏法判別テーブルPDTから「タンギング奏法」と判別される。
さらに、図4(a)に図示した比較基準の出力分布(ヒストグラム)と、新たに取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)との比較により「山の右側が減少」(yes)し、「山の左側が増加」(no)せず、極大値が2つになり「山(極大値)の数が1つから2つに変化」(yes)した場合や、「山の右側が減少」(yes)し、「山の左側が増加」(yes)し、極大値が2つになり「山(極大値)の数が1つから2つに変化」(yes)した場合には、図3(b)に図示した奏法判別テーブルPDTから「タンギング&サブトーン奏法」と判別される。
なお、図4(a)に図示した比較基準の出力分布(ヒストグラム)と、新たに取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)との比較により「山の右側が減少」(no)せず、「山の左側が増加」(no)せず、「山(極大値)の数が1つから2つに変化」(no)していない場合や、「山の右側が減少」(no)せず、「山の左側が増加」(no)せず、極大値が2つになり「山(極大値)の数が1つから2つに変化」(yes)した場合、あるいは「山の右側が減少」(no)せず、「山の左側が増加」(yes)し、「山(極大値)の数が1つから2つに変化」(no)した場合には、図3(b)に図示した奏法判別テーブルPDTから「通常奏法」と判別される。
再び図3を参照して実施形態の構成について説明を進める。図3(a)において、RAM13のワークエリアWAは、CPU11の作業領域として用いられ、各種レジスタ・フラグが一時記憶される。各種レジスタの内には、上述した奏法判別テーブルPDTで判別された奏法を表す状態変数stateを保持するレジスタが含まれる。
状態変数stateは、ユーザがマウスピース6を咥えておらず、パッドデータPD1〜PD12が全て「0」に相当する状態Not_set、通常の奏法でマウスピース6を咥えている状態Normal、サブトーン奏法でマウスピース6を咥えている状態Subtone、タンギング奏法でマウスピース6を咥えている状態Tonguingおよびタンギング奏法&サブトーン奏法でマウスピース6を咥えている状態Tonguing&Subtoneから構成される。
こうした状態変数stateは、CPU11の制御の下に状態遷移する。具体的には、図5に図示する状態遷移図に示す通り、マウスピース6を咥えていない状態Not_setを起点に通常の状態Normalへ遷移する。通常の状態Normalでは、状態Not_setに戻る他、状態Subtone、状態Tonguingおよび状態Tonguing&Subtoneの何れかに遷移可能になる。状態Subtone、状態Tonguingおよび状態Tonguing&Subtoneは、それぞれ状態Not_setや状態Normalに復帰可能であって、かつ相互に遷移可能になっている。
次に、再び図2を参照して実施形態の構成について説明を進める。図2において、音源14は、周知の波形メモリ読み出し方式にて構成される複数の発音チャンネル(MIDIチャンネル)を備え、CPU11から供給されるMIDIイベントに従って楽音波形データを発生する。
具体的には、通常の状態Normalの場合、音源14ではユーザ選択された音色(管楽器音)の波形データを、音高データPに応じた読み出し速度で再生し、再生した波形データを息圧データDpに応じて音量制御した楽音波形データを発生する。状態Subtoneに遷移した場合には、パッドデータPD1〜PD12の出力分布(ヒストグラム)から算出する重心位置を下唇位置とし、この下唇位置に対応付けられたサブトーン波形データを再生し、これを発生中の楽音波形データに加算合成してサブトーンを含む楽音波形データを形成する。状態Tonguingに遷移した場合には、例えばパッドデータPD1が所定の閾値を超えたタイミングで発生中の楽音波形データを短時間内にノートオフ・ノートオンさせて発音中の楽音を一瞬止めるタンギング効果を付加する。
サウンドシステム15は、音源14から出力される楽音波形データをアナログ形式の楽音信号に変換し、当該楽音信号から不要ノイズを除去する等のフィルタリングを施した後、これを増幅してスピーカ4から放音させる。
C.動作
次に、図6〜図7を参照して上記構成による電子管楽器100のCPU11が実行するメインルーチンおよびセンシングパッド処理の各動作について説明する。なお、以下の動作説明では、ことわりが無い限り動作の主体はCPU11である。
(1)メインルーチンの動作
図6は、CPU11が実行するメインルーチンの動作を示すフローチャートである。電源スイッチ操作により電子管楽器100がパワーオンすると、CPU11は図6に図示するステップSA1に処理を進め、電子管楽器100の各部を初期化するイニシャライズを行う。イニシャライズが完了すると、ステップSA2に進み、センシングパッド処理を実行する。
センシングパッド処理では、後述するように、ユーザ(吹奏者)が通常の奏法でマウスピース6を咥えた際のパッドデータPD1〜PD12の出力分布(ヒストグラム)を比較基準とし、新たに取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)がこの比較基準に対してどのように変化したか、すなわち「山の右側が減少」したか否か、「山の左側が増加」したか否か、「山(極大値)の数が1つから2つに変化」したか否かを判断した結果に応じて、奏法判別テーブルPDTから該当する奏法を判別し、判別した奏法へ状態遷移する。
次に、ステップSA3では、マウスピース6を介して吹きこまれるユーザ(吹奏者)の息圧を息圧センサ8により検出し、当該息圧センサ8の検出出力をA/D変換して取得した息圧データDpをRAM13のバッファエリアBAに一時記憶する息圧検出処理を実行する。続いて、ステップSA4では、音高キー2の運指操作(音高を指定する演奏操作)に応じた音高データPを発生する音高キースイッチ処理を実行する。
そして、ステップSA5では、上記ステップSA2のセンシングパッド処理にて判別された奏法に応じた楽音を発音する発音処理を実行する。すなわち、通常の奏法が為される状態Normalならば、ユーザ選択された音色(管楽器音)の波形データを、音高データPに応じた読み出し速度で再生し、再生した波形データを息圧データDpに応じて音量制御した楽音波形データを発生する。
通常の奏法が為される状態Normalからサブトーン奏法が為される状態Subtoneに遷移すると、パッドデータPD1〜PD12の出力分布(ヒストグラム)から算出する重心位置を下唇位置とし、この下唇位置に対応付けられたサブトーン波形データを再生し、これを発生中の楽音波形データに加算合成してサブトーンを含む楽音波形データを形成する。さらに、状態Tonguingに遷移した場合には、例えばパッドデータPD1が所定の閾値を超えたタイミングで発生中の楽音波形データを短時間内にノートオフ・ノートオンさせて発音中の楽音を一瞬止めるタンギング効果を付加する。
続いて、ステップSA6では、例えば操作部5の音色選択スイッチ操作に応じて発生する楽音の音色を選択する等の、その他の処理を実行する。そして、以後は電源スイッチ操作で電源がパワーオフされるまで上述のステップSA2〜SA6を繰り返し実行する。
(2)センシングパッド処理の動作
図7は、CPU11が実行するセンシングパッド処理の動作を示すフローチャートである。前述したメインルーチンのステップSA2(図6参照)を介して本処理が実行されると、CPU11は図7に図示するステップSB1に処理を進め、入力部9が発生するパッドデータPD1〜PD12を取得してRAM13のバッファエリアBAに一時記憶する。
次に、ステップSB2では、上記ステップSB1で取得したパッドデータPD1〜PD12に基づいてユーザ(吹奏者)がマウスピース6を咥えている状態であるかどうかを判断する。具体的には、パッドデータPD1〜PD12の各出力の総和が所定値を超えた場合に「咥えられた状態」と判断したり、パッドデータPD1〜PD12の各出力の内、所定の閾値を超えるパッドデータPDが存在する場合に「咥えられた状態」と判断したりする。
そして、上記ステップSB2において、マウスピース6が「咥えられていない状態」と判断された場合には、判断結果が「NO」になり、ステップSB3に進む。ステップSB3では、状態変数stateを状態Not_setに遷移して一旦本処理を終える。
これに対し、ユーザ(吹奏者)がマウスピース6を咥えている状態であると、上記ステップSB2の判断結果は「YES」になり、ステップSB4に進む。ステップSB4では、1つ前の状態変数stateが状態Not_setであるか否かを判断する。
なお、後述するステップSB5やステップSB12では、状態遷移に応じて状態変数stateを更新するようになっており、1つ前の状態変数stateとは更新する前の状態変数stateを指し、一方、更新した後の状態変数stateが現在の状態変数stateとなる。したがって、上記ステップSB4では、状態遷移に応じて更新する前の状態変数stateが、マウスピース6を咥えていない状態Not_setであるかどうかを判断する。
そして、1つ前の状態変数state、すなわち状態遷移に応じて更新する前の状態変数stateが状態Not_setであると、上記ステップSB4の判断結果は「YES」になり、ステップSB5に進み、マウスピース6を咥えていない状態から咥えた状態に遷移したのに応じて、現在の状態変数stateを通常の状態Normalに更新する。
次いで、ステップSB6では、上記ステップSB1で取得したパッドデータPD1〜PD12を比較基準としてRAM13のワークエリアWAに保存して一旦処理を終える。なお、保存する比較基準は、パッドデータPD1〜PD12の他、当該パッドデータPD1〜PD12の出力分布(ヒストグラム)における山(極大値)の左側の各出力および山(極大値)の右側の各出力を含む。
一方、1つ前の状態変数stateが状態Not_setでない場合、つまりマウスピース6が咥えられている通常の状態Normalならば、上記ステップSB4の判断結果は「NO」になり、ステップSB7に進む。ステップSB7では、上記ステップSB1で取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)から山(極大値)の数を検出する。
次に、ステップSB8では、上記ステップSB6で保存した山(極大値)の左側の各出力と、上記ステップSB1で取得したパッドデータPD1〜PD12の内、当該山(極大値)の左側の各出力と同じ番号のパッドデータの各出力とを比較して山(極大値)の左側の増加の有無を確認する。
続いて、ステップSB9では、上記ステップSB6で保存した山(極大値)の右側の各出力と、上記ステップSB1で取得したパッドデータPD1〜PD12の内、当該山(極大値)の右側の各出力と同じ番号のパッドデータの各出力とを比較して山(極大値)の右側の増加の有無を確認する。
そして、ステップSB10では、上記ステップSB7〜SB9の結果に基づいて上記ステップSB1で取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)が、上記ステップSB6で保存した比較基準の出力分布(ヒストグラム)から変化したか否、すなわち「山(極大値)の数の増加」、「山(極大値)の左側の増加」および「山(極大値)の右側の増加」の何れかが発生したかどうかを判断し、前述した奏法判別テーブルPDT(図3(b)参照)を参照して現在の奏法がどの奏法にあたるかを判別する。
具体的には、例えば比較基準となるパッドデータPD1〜PD12の出力分布(ヒストグラム)が図4(a)である場合に、新たに取得した現パッドデータPD1〜PD12が図4(b)に図示する出力分布(ヒストグラム)であるとする。そうすると、この場合、「山の右側が減少」(yes)し、「山の左側が増加」(yes)し、「山(極大値)の数が1つから2つに変化」(no)ではないので、図3(b)に図示した奏法判別テーブルPDTから「サブトーン奏法」と判別される。
また、例えば比較基準となるパッドデータPD1〜PD12の出力分布(ヒストグラム)が図4(a)である場合に、新たに取得した現パッドデータPD1〜PD12が図4(c)に図示する出力分布(ヒストグラム)になったとする。そうすると、この場合、「山の右側が減少」(no)していないが、「山の左側が増加」(yes)し、極大値が2つになり、「山(極大値)の数が1つから2つに変化」(yes)なので、図3(b)に図示した奏法判別テーブルPDTから「タンギング奏法」と判別される。
続いて、ステップSB11では、上記ステップSB10で判断された奏法が、前回のSB10の判断タイミングで判断された奏法と同じであるか否かを判断する。つまり、今回の判断タイミング(第1のタイミング)で判断された奏法と、前記今回より前のタイミングである、前回の判断タイミング(第2のタイミング)で判断された奏法とを比較して、奏法が変化しているかを判断する。
例えば、前回の判断タイミング(第2のタイミング)で通常奏法と判断され、今回の判断タイミング(第1のタイミング)でタンギング奏法と判断されたか(奏法が変化したか)、前回の判断タイミングでサブトーン奏法と判断され、今回の判断タイミングでもサブトーン奏法と判断されたか(奏法が変化していない)、の判断を行う。今回の判断タイミング(第1のタイミング)で判断された奏法と、前記前回の判断タイミング(第2のタイミング)で判断された奏法が変化していなければ、上記ステップSB11の判断結果は「NO」になり、本処理を終える。
これに対し、上記ステップSB6で保存した比較基準に対し、上記ステップSB1で取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)において、「山(極大値)の数の増加」、「山(極大値)の左側の増加」および「山(極大値)の右側の増加」の何れかが発生すると、今回の判断タイミング(第1のタイミング)で判断された奏法と、前記前回の判断タイミング(第2のタイミング)で判断された奏法の種類が変化しているとして、上記ステップSB11の判断結果が「YES」になり、ステップSB12に進む。
こうして、奏法判別テーブルPDTを参照して現在の奏法と前回の奏法とを判別し終えると、ステップSB12に進み、判別した奏法に状態遷移するのに応じて、状態変数stateを更新する。すなわち、上記の一例のように、通常の状態Normalから「サブトーン奏法」に状態遷移した場合には、状態変数stateを状態Subtoneに更新して本処理を終える。また、通常の状態Normalから「タンギング奏法」に状態遷移した場合には、状態変数stateを状態Tonguingに更新して本処理を終える。
このように、センシングパッド処理では、ユーザ(吹奏者)が通常の奏法でマウスピース6を咥えると、その際に発生するパッドデータPD1〜PD12の出力分布(ヒストグラム)を比較基準とし、新たに取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)が比較基準に対してどのように変化したか、すなわち「山の右側が減少」したか否か、「山の左側が増加」したか否か、「山(極大値)の数が1つから2つに変化」したか否かを判断した結果に応じて、奏法判別テーブルPDTから該当する奏法を判別し、判別した奏法へ状態遷移する。
以上説明したように、本実施形態では、マウスピース6に設けたセンシングパッド7によって当該マウスピース6を咥えるユーザの舌および下唇がリードに接触する状態(接触面積)を表すパッドデータPD1〜PD12を検出してユーザの吹奏の仕方を取得するようにし、通常の奏法が為された場合のパッドデータPD1〜PD12から取得した吹奏の仕方を比較基準として保存する。そして、新たなパッドデータPD1〜PD12から取得した吹奏の仕方と保存しておいた比較基準との差異から特殊奏法(サブトーン奏法やタンギング奏法)を判別し、判別した特殊奏法(サブトーン奏法やタンギング奏法)に対応した楽音を形成するので、ビギナーユーザでも簡単にサブトーンやタンギングを吹奏することが出来る。
なお、上述した実施形態では、公知の静電容量方式で接触検知するセンシングパッド7を用いるようにしたが、これに替えて、接触検知および感圧検知するセンシングパッド7を使用して吹奏時の下唇の接触面積および接触圧を検出し、検出した下唇の接触面積および接触圧に応じてサブトーンを発生させれば、実際のアコースティック管楽器におけるサブトーンの発生過程をシミュレートすることも可能であり、こうすることでよりリアルなサブトーンを得ることが出来る。
なお、上述した実施形態では、図3(b)に図示した奏法判別テーブルPDTに基づいて、タンギング奏法の条件を満たすかサブトーン奏法の条件を満たすか等の判断を行ったが、これらの判断は、必ずしも図3(b)に図示した奏法判別テーブルPDTに従うものでなくてもよい。例えば、タンギング奏法の条件は、「山(極大値)の数が1つから2つに変化」した条件を満たす場合且つ、「山(極大値)の右側が減少」又は「山(極大値)の左側が増加」の条件が満たす場合とした。これは、ノイズが原因で、山(極大値)の数が増えることも考えられるため、「山(極大値)の数が1つから2つに変化」した条件だけではなく、「山(極大値)の右側が減少」又は「山(極大値)の左側が増加」の条件も確認することとしたが、これに限られるものではない。
以上、本発明の実施形態について説明したが、本発明はそれに限定されるものではなく、本願出願の特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下では、本願出願当初の特許請求の範囲に記載された各発明について付記する。
(付記)
[請求項1]
吹奏の状態を示す吹奏情報を検出部から検出する検出処理と、
前記検出部から検出される吹奏情報と、保存部に保存されている比較基準情報との差異から、複数の奏法のうちのいずれの奏法かを判別する奏法判別処理と、
前記奏法判別処理によって判別した奏法に対応した楽音の生成を音源に指示する楽音指示処理と、
を実行する処理部を有することを特徴とする楽音制御装置。
[請求項2]
前記処理部は、更に、通常の奏法が為された場合に、前記検出部から検出される前記吹奏情報を前記比較基準情報として前記保存部に保存する保存処理と、を実行することを特徴とする請求項1に記載の楽音制御装置。
[請求項3]
前記検出部は、ユーザの舌及び下唇の接触を検出する検出パッドをマウスピースに複数備え、
前記検出処理は、前記検出処理として、前記舌および前記下唇が前記マウスピースに接触する状態を前記吹奏情報として検出することを特徴とする請求項1又は2に記載の楽音制御装置。
[請求項4]
前記処理部は、前記奏法判別処理として、前記複数の検出パッドから検出される前記吹奏情報が、前記保存部に保存した前記比較基準情報に対し、少なくとも、サブトーン奏法、タンギング奏法及び前記通常の奏法のいずれかの奏法かを判別することを特徴とする請求項3記載の楽音制御装置。
[請求項5]
吹奏の状態を示す吹奏情報を検出する検出部と、
楽音を生成する音源部と、
請求項1乃至3のいずれかに記載の楽音制御装置と、
を備えることを特徴とする電子楽器。
[請求項6]
楽音制御装置で実行され、
吹奏の状態を示す吹奏情報を検出部から検出し、
検出部から検出される吹奏情報と、保存部に保存されている比較基準情報との差異から、複数の奏法のうちのいずれの奏法かを判別し、
判別した奏法に対応した楽音の生成を音源に指示する
ことを特徴とする楽音発生方法。
[請求項7]
楽音制御装置に搭載されるコンピュータに、
吹奏の状態を示す吹奏情報を検出部から検出する検出ステップと、
前記検出部から検出される吹奏情報と、保存部に保存されている比較基準情報との差異から、複数の奏法のうちのいずれの奏法かを判別する奏法判別ステップと、
前記奏法判別ステップによって判別した奏法に対応した楽音の生成を音源に指示する楽音指示ステップと、
を実行させることを特徴とするプログラム。
1 本体
2 音高キー
3 開口端
4 スピーカ
5 操作部
6 マウスピース
7 センシングパッド
8 息圧センサ
9 入力部
10 A/D変換部
11 CPU
12 ROM
13 RAM
14 音源
15 サウンドシステム
100 電子管楽器

Claims (7)

  1. 吹奏の状態を示す吹奏情報を検出部から検出する検出処理と、
    前記検出部から検出される吹奏情報と、保存部に保存されている比較基準情報との差異から、複数の奏法のうちのいずれの奏法かを判別する奏法判別処理と、
    前記奏法判別処理によって判別した奏法に対応した楽音の生成を音源に指示する楽音指示処理と、
    を実行する処理部を有することを特徴とする楽音制御装置。
  2. 前記処理部は、更に、通常の奏法が為された場合に、前記検出部から検出される前記吹奏情報を前記比較基準情報として前記保存部に保存する保存処理と、を実行することを特徴とする請求項1に記載の楽音制御装置。
  3. 前記検出部は、ユーザの舌及び下唇の接触を検出する検出パッドをマウスピースに複数備え、
    前記検出処理は、前記検出処理として、前記舌および前記下唇が前記マウスピースに接触する状態を前記吹奏情報として検出することを特徴とする請求項1又は2に記載の楽音制御装置。
  4. 前記処理部は、前記奏法判別処理として、前記複数の検出パッドから検出される前記吹奏情報が、前記保存部に保存した前記比較基準情報に対し、少なくとも、サブトーン奏法、タンギング奏法及び前記通常の奏法のいずれかの奏法かを判別することを特徴とする請求項3記載の楽音制御装置。
  5. 吹奏の状態を示す吹奏情報を検出する検出部と、
    楽音を生成する音源部と、
    請求項1乃至3のいずれかに記載の楽音制御装置と、
    を備えることを特徴とする電子楽器。
  6. 楽音制御装置で実行され、
    吹奏の状態を示す吹奏情報を検出部から検出し、
    検出部から検出される吹奏情報と、保存部に保存されている比較基準情報との差異から、複数の奏法のうちのいずれの奏法かを判別し、
    判別した奏法に対応した楽音の生成を音源に指示する
    ことを特徴とする楽音発生方法。
  7. 楽音制御装置に搭載されるコンピュータに、
    吹奏の状態を示す吹奏情報を検出部から検出する検出ステップと、
    前記検出部から検出される吹奏情報と、保存部に保存されている比較基準情報との差異から、複数の奏法のうちのいずれの奏法かを判別する奏法判別ステップと、
    前記奏法判別ステップによって判別した奏法に対応した楽音の生成を音源に指示する楽音指示ステップと、
    を実行させることを特徴とするプログラム。
JP2016060475A 2016-03-24 2016-03-24 楽音制御装置、電子楽器、楽音制御方法およびプログラム Active JP6710432B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016060475A JP6710432B2 (ja) 2016-03-24 2016-03-24 楽音制御装置、電子楽器、楽音制御方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016060475A JP6710432B2 (ja) 2016-03-24 2016-03-24 楽音制御装置、電子楽器、楽音制御方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2017173610A true JP2017173610A (ja) 2017-09-28
JP2017173610A5 JP2017173610A5 (ja) 2019-04-25
JP6710432B2 JP6710432B2 (ja) 2020-06-17

Family

ID=59970984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016060475A Active JP6710432B2 (ja) 2016-03-24 2016-03-24 楽音制御装置、電子楽器、楽音制御方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6710432B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03219295A (ja) * 1990-01-25 1991-09-26 Yamaha Corp 電子楽器
JPH0772853A (ja) * 1993-06-29 1995-03-17 Yamaha Corp 電子管楽器
JP2000122641A (ja) * 1998-10-21 2000-04-28 Casio Comput Co Ltd 電子管楽器
JP2015225304A (ja) * 2014-05-29 2015-12-14 カシオ計算機株式会社 電子楽器、発音制御方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03219295A (ja) * 1990-01-25 1991-09-26 Yamaha Corp 電子楽器
JPH0772853A (ja) * 1993-06-29 1995-03-17 Yamaha Corp 電子管楽器
JP2000122641A (ja) * 1998-10-21 2000-04-28 Casio Comput Co Ltd 電子管楽器
JP2015225304A (ja) * 2014-05-29 2015-12-14 カシオ計算機株式会社 電子楽器、発音制御方法、およびプログラム

Also Published As

Publication number Publication date
JP6710432B2 (ja) 2020-06-17

Similar Documents

Publication Publication Date Title
US7633003B2 (en) Performance control apparatus and program therefor
JP2022063777A (ja) 演奏情報予測装置、有効弦振動判定モデル訓練装置、演奏情報生成システム、演奏情報予測方法及び有効弦振動判定モデル訓練方法
US8106287B2 (en) Tone control apparatus and method using virtual damper position
US11594206B2 (en) Electronic wind instrument and control method thereof
US11749239B2 (en) Electronic wind instrument, electronic wind instrument controlling method and storage medium which stores program therein
US5010801A (en) Electronic musical instrument with a tone parameter control function
JP6710432B2 (ja) 楽音制御装置、電子楽器、楽音制御方法およびプログラム
JP6435645B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP6703304B2 (ja) 楽音制御装置、電子管楽器、楽音制御方法およびプログラム
CN109559724B (zh) 音阶转换装置、电子管乐器、音阶转换方法和存储介质
JP6569255B2 (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
JP2015225332A (ja) 楽音発生装置、電子楽器、楽音発生方法およびプログラム
JP6349223B2 (ja) 歌唱時間の長短に関わらず同等の採点を行うカラオケ採点装置
JP2018155797A (ja) 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム
CN111986638B (zh) 电子管乐器、乐音生成装置、乐音生成方法、记录介质
JP4978176B2 (ja) 演奏装置、演奏実現方法およびプログラム
JP6758593B2 (ja) 電子管楽器、楽音発生方法およびプログラム
JP2017167418A (ja) 電子管楽器、楽音発生方法およびプログラム
CN111986638A (zh) 电子管乐器、乐音生成装置、乐音生成方法、记录介质
JP2023035659A (ja) 信号生成装置、信号生成方法およびプログラム
JP2004246379A (ja) カラオケ装置
JP2017173417A (ja) 自動伴奏装置、自動伴奏方法、プログラム及び電子管楽器
JP4894931B2 (ja) 電子管楽器及びそのプログラム
JP4218566B2 (ja) 楽音制御装置及びプログラム
JP2012252073A (ja) 楽音データ補正装置およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200510

R150 Certificate of patent or registration of utility model

Ref document number: 6710432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150