JP6760222B2 - 検出装置、電子楽器、検出方法及び制御プログラム - Google Patents

検出装置、電子楽器、検出方法及び制御プログラム Download PDF

Info

Publication number
JP6760222B2
JP6760222B2 JP2017136895A JP2017136895A JP6760222B2 JP 6760222 B2 JP6760222 B2 JP 6760222B2 JP 2017136895 A JP2017136895 A JP 2017136895A JP 2017136895 A JP2017136895 A JP 2017136895A JP 6760222 B2 JP6760222 B2 JP 6760222B2
Authority
JP
Japan
Prior art keywords
sensors
calculated
difference
lip
output values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017136895A
Other languages
English (en)
Other versions
JP2019020504A (ja
Inventor
千寿 外山
千寿 外山
一貴 春日
一貴 春日
林 龍太郎
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017136895A priority Critical patent/JP6760222B2/ja
Priority to US16/031,497 priority patent/US10468005B2/en
Priority to EP18183081.1A priority patent/EP3428913B1/en
Priority to CN201810767951.XA priority patent/CN109256111B/zh
Publication of JP2019020504A publication Critical patent/JP2019020504A/ja
Application granted granted Critical
Publication of JP6760222B2 publication Critical patent/JP6760222B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/44Tuning means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/04Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation
    • G10H1/053Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only
    • G10H1/055Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only by switches with variable impedance elements
    • G10H1/0551Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only by switches with variable impedance elements using variable capacitors
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/265Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
    • G10H2220/275Switching mechanism or sensor details of individual keys, e.g. details of key contacts, hall effect or piezoelectric sensors used for key position or movement sensing purposes; Mounting thereof
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/361Mouth control in general, i.e. breath, mouth, teeth, tongue or lip-controlled input devices or sensors detecting, e.g. lip position, lip vibration, air pressure, air velocity, air flow or air jet angle
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/461Transducers, i.e. details, positioning or use of assemblies to detect and convert mechanical vibrations or mechanical strains into an electrical signal, e.g. audio, trigger or control signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/155Spint wind instrument, i.e. mimicking musical wind instrument features; Electrophonic aspects of acoustic wind instruments; MIDI-like control therefor.
    • G10H2230/205Spint reed, i.e. mimicking or emulating reed instruments, sensors or interfaces therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/155Spint wind instrument, i.e. mimicking musical wind instrument features; Electrophonic aspects of acoustic wind instruments; MIDI-like control therefor.
    • G10H2230/205Spint reed, i.e. mimicking or emulating reed instruments, sensors or interfaces therefor
    • G10H2230/221Spint saxophone, i.e. mimicking conical bore musical instruments with single reed mouthpiece, e.g. saxophones, electrophonic emulation or interfacing aspects therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Power Engineering (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、操作位置を検出する検出装置、電子楽器、操作位置の検出方法及び操作位置を検出するための制御プログラムに関する。
従来、サクソフォンやクラリネット等のアコースティック管楽器の形状や演奏方法を模した電子管楽器が知られている。このような電子管楽器の演奏においては、アコースティック管楽器と同様のキー位置に設けられたスイッチ(音高キー)を操作することにより楽音の音程が指定される。また、マウスピース内に吹き込む息の圧力(息圧)により音量が制御されるとともに、マウスピースを口に咥えたときの唇の位置や舌の接触状態、噛み圧等により音色が制御される。
そのため、従来の電子管楽器のマウスピースには、演奏時に吹き込まれる息圧や唇の位置、舌の接触状態、噛み圧等を検出するための各種のセンサが設けられている。例えば特許文献1には、電子管楽器のマウスピースのリード部に、静電容量方式のタッチセンサを複数配置し、この複数のセンサの検出値と配置位置とに基づいて演奏者の唇や舌の接触状態や接触位置を検出する技術が記載されている。
特開2017−58502号公報
一般に、サクソフォン等のアコースティック管楽器においては、演奏者がマウスピースを口に咥えた際の唇の位置やその強さに基づいて、リード部の吹込口側(ティップ側)の振動状態が決定されて、それに応じた音色が実現される。すなわち、唇の厚さの違い(厚いか薄いか)に関わらず、唇の接触位置に基づいて音色が制御される。
一方、上述したような電子管楽器においては、演奏者の唇の厚さや硬さ、マウスピースを咥える際の強さ等の違いにより、複数のセンサの検出値にばらつきが生じて最終的に検出される唇の位置(リップポジション)がばらつくという問題があった。ここで、唇の厚さや硬さ、マウスピースを咥える際の強さの違いは、演奏者の性別や年齢、体質のほか、演奏時間の長さやマウスピースの咥え方の癖等によっても発生するものである。
そのため、従来の電子管楽器においては、アコースティックな吹奏感や演奏者が意図する楽音のエフェクト(例えば、ピッチベンドやビブラート等の音色効果)を十分に実現することができない場合があった。また、上記のようなセンサの検出値のばらつきに起因する唇の位置のばらつきを補正するために、演奏者ごとに調整操作(アジャスト)を行う必要があった。
また、上記の電子管楽器の他に、唇以外の指などの身体の一部を用いて演奏を行う電子楽器や、身体の一部を用いて演奏以外の各種の操作を行う電子機器などにおいても、機器の状態や操作環境によっては最終的に検出される操作位置がばらついて、所望の操作が実現できない場合があるという、同様の問題を有していた。
そこで、本発明は、上述した問題点に鑑みて、操作者が身体の一部を用いて機器を操作する場合に、より正しい操作位置を決定することができる検出装置、電子楽器、検出方法及び制御プログラムを提供することを目的とする。
本発明に係る検出装置は、
演奏者が口に咥えるマウスピースのリード部の一端側から他端側に向かって配列された複数のセンサの出力値を取得し、取得した前記複数のセンサの出力値に基づいて、前記リード部の一端側から他端側に向かう方向における前記演奏者の操作位置を決定する制御部備え、
前記制御部は、
前記複数のセンサのうち、互いに隣接して配置された2つの前記センサの出力値の差分をそれぞれ算出するとともに、前記算出された複数の差分と、前記複数の差分にそれぞれ対応する、前記隣接して配置された2つのセンサの配列位置に対して相関性のある位置である相関位置と、に基づいて前記操作位置を決定することを特徴とする。
本発明によれば、操作者が身体の一部を用いて機器を操作する場合に、より正しい操作位置を決定することができる。
本発明に係る検出装置を適用した電子楽器の一実施形態の全体構造を示す外観図である。 一実施形態に係る電子楽器の機能構成の一例を示すブロック図である。 一実施形態に係る電子楽器に適用されるマウスピースの一例を示す概略図である。 演奏者の口腔とマウスピースとの接触状態を示す概略図である。 演奏者がマウスピースを咥えた状態におけるリップ検出部の出力特性の一例(比較例)、及び、リップポジションの算出例を示す図である。 演奏者がマウスピースを咥えた状態におけるリップ検出部の検出情報の変化特性の一例(本実施形態)、及び、リップポジションの算出例を示す図である。 一実施形態に係る電子楽器における制御方法のメインルーチンを示すフローチャートである。 一実施形態に係る電子楽器の制御方法に適用されるリップ検出部の処理を示すフローチャートである。 一実施形態に係る電子楽器の制御方法の変形例を示すフローチャートである。
以下、本発明に係る検出装置、電子楽器、検出方法及び制御プログラムの実施形態について図面を参照しながら詳しく説明する。ここでは、操作位置を検出する検出装置を適用した電子楽器、並びに、当該操作位置の検出方法及び操作位置を検出するための制御プログラムを適用した電子楽器の制御方法の例を示して説明する。
<電子楽器>
図1は、本発明に係る検出装置を適用した電子楽器の一実施形態の全体構造を示す外観図である。図1(a)は本実施形態に係る電子楽器の側面図であり、図1(b)は電子楽器の正面図である。また、図中、IA部は電子楽器100の一部透視部分を示す。
本発明に係る検出装置が適用される電子楽器100は、例えば図1(a)、(b)に示すように、アコースティック管楽器のサクソフォンの形状を模した外観を有し、管状の筐体を有する管体部100aの一端側(図面上方端側)に演奏者が口に咥えるマウスピース10が取り付けられ、他端側(図面下方端側)に楽音を出力するスピーカを有するサウンドシステム9が設けられている。
また、管体部100aの側面には、演奏者(ユーザ)が指で操作することにより、音高を決定する演奏キーや、楽曲のキーに合わせて音高を変える機能等を設定する設定キー等を有する操作子1が設けられている。また、例えば図1(b)のIA部に示すように、管体部100aの内部に設けられた基板上には、息圧検出部2、制御手段としてのCPU(Central Processing Unit)5、ROM(Read Only Memory)6、RAM(Random Access Memory)7、音源8が設けられている。
図2は、本実施形態に係る電子楽器の機能構成の一例を示すブロック図である。
本実施形態に係る電子楽器100は、図2に示すように、概略、操作子1と、息圧検出部2と、リップ検出部3と、タン検出部4と、CPU5と、ROM6と、RAM7と、音源8と、サウンドシステム9とを有し、これらのうち、サウンドシステム9を除く各部がバス9aを介して相互に接続されている。ここで、リップ検出部3及びタン検出部4は、後述するマウスピース10のリード部11に設けられている。なお、図2に示す機能構成は、本発明に係る電子楽器を実現するための一例であり、この構成に限定されるものではない。また、図2に示す電子楽器の機能構成のうち、少なくともリップ検出部3と、CPU5とは、本発明に係る検出装置を構成する。
操作子1は、上述した演奏キー、設定キー等の各種キーに対する演奏者によるキー操作を受け付けて、その操作情報をCPU5に出力する。ここで、操作子1に設けられる設定キーは、具体的には、楽曲のキーに合わせて音高を変える機能のほか、音高の微調整を行う機能や音色を設定する機能を有するとともに、リップ検出部3において検出されたリップ(下唇)の接触状態に応じて微調整されるモードを楽音の音色、音量、音高の中から予め選択する機能を有している。
息圧検出部2は、演奏者によりマウスピース10に吹き込まれた息の圧力(息圧)を検出し、その息圧情報をCPU5に出力する。リップ検出部3は、演奏者のリップの接触を検出する静電容量方式のタッチセンサを有し、リップの接触位置又は接触範囲、及び、その接触面積や接触強度に応じた静電容量をリップの検出情報としてCPU5に出力する。タン検出部4は、演奏者のタン(舌部)の接触を検出する静電容量方式のタッチセンサを有し、タンの接触の有無、及び、その接触面積に応じた静電容量をタンの検出情報としてCPU5に出力する。
CPU5は、電子楽器100の各部を制御する制御部として機能する。CPU5は、ROM6に記憶された所定のプログラムを読み出してRAM7に展開し、展開されたプログラムと協働して各種の処理を実行する。例えば、CPU5は、操作子1から入力された操作情報と、息圧検出部2から入力された息圧情報と、リップ検出部3から入力されたリップの検出情報と、タン検出部4から入力されたタンの検出情報と、に基づいて、楽音の生成を音源8に指示する。
具体的には、CPU5は、操作子1から入力された操作情報としての音高情報に基づいて、楽音の音高を設定する。また、CPU5は、息圧検出部2から入力された息圧情報に基づいて、楽音の音量を設定し、リップ検出部3から入力されたリップの検出情報に基づいて、楽音の音色、音量、音高の少なくとも1つを微調整する。また、CPU5は、タン検出部4から入力されたタン(舌部)の検出情報に基づいて、タンが接触しているか否かを判定して楽音のノートオン/オフを設定する。
ROM6は、読み出し専用の半導体メモリであり、電子楽器100における動作や処理を制御するための各種のデータやプログラムが記憶されている。特に、本実施形態においては、後述する電子楽器の制御方法に適用されるリップポジションの決定方法(本発明に係る操作位置の検出方法に対応する)を実現するためのプログラムが記憶されている。RAM7は、揮発性の半導体メモリであり、ROM6から読み出されたデータやプログラム、あるいは、プログラムの実行中に生成されたデータ、操作子1や息圧検出部2、リップ検出部3、タン検出部4から出力された各検出情報を一時的に格納するワークエリアを有する。
音源8は、シンセサイザであり、操作子1からの操作情報や、リップ検出部3からのリップの検出情報、タン検出部4からのタンの検出情報に基づいたCPU5の楽音の生成指示に従い、楽音信号を生成してサウンドシステム9に出力する。サウンドシステム9は、音源8から入力された楽音信号に信号増幅等の処理を施し、内蔵のスピーカから楽音として出力する。
(マウスピース)
次いで、本実施形態に係る電子楽器に適用されるマウスピースの構造について説明する。
図3は、本実施形態に係る電子楽器に適用されるマウスピースの一例を示す概略図である。ここで、図3(a)はマウスピースの断面図(図3(b)中のIIIA−IIIA線における断面図)であり、図3(b)はマウスピースのリード部側を示す下面図である。
マウスピース10は、図3(a)、(b)に示すように、概略、マウスピース本体10aと、リード部11と、固定金具12と、を有している。マウスピース10は、マウスピース本体10aの開口部13に対して、演奏者が息を吹き込む吹込口となる僅かな隙を有するように、薄板状のリード部11が固定金具12により組み付け固定されている。すなわち、リード部11は、一般的なアコースティック管楽器のリードと同様に、マウスピース本体10aの下方側(図3(a)の下方側)の位置に組み付けられ、固定金具12により固定された基端部(以下、「ヒール」と記す)を固定端として、吹込口側(以下、「ティップ側」と記す)が自由端を形成する。
また、リード部11は、例えば図3(a)、(b)に示すように、薄板状の絶縁性部材からなるリード基板11aと、リード基板11aの長手方向(図面左右方向)に、ティップ側(一端側)からヒール側(他端側)に向かって配列された複数のセンサ20、30〜40と、を有している。ここで、リード部11の一番ティップ側に配置されたセンサ20は、タン検出部4が有する静電容量方式のタッチセンサであり、センサ30〜40は、リップ検出部3が有する静電容量方式のタッチセンサである。また、リード部11の一番奥側(すなわち、ヒール側)に配置されたセンサ40は、温度センサを兼ねている。これらのセンサ20、30〜40はいずれも、センシングパッドとしての電極を有している。ここで、センサ30〜40を形成する各電極は、ほぼ等しい幅及び長さの長方形状を有し、センサ30〜39を形成する各電極がリード部11のティップ側からヒール側に向かってほぼ均等間隔で配列されている。
なお、図3(b)においては、センサ30〜40を形成する各電極を長方形状で示したが、本発明はこれに限定されるものではなく、例えばV字形状や波形状等の平面形状を有しているものであってもよく、また、各電極は任意の寸法や個数に設定されているものであってもよい。
次いで、上述したマウスピースと演奏者の口腔との接触状態について説明する。
図4は、演奏者の口腔とマウスピースとの接触状態を示す概略図である。
電子楽器100の演奏時においては、演奏者は、例えば図4に示すように、上側前歯E1をマウスピース本体10aの上部に当て、下側前歯E2を下側のリップ(下唇)LPで巻き込み、リード部11に押し付ける。これにより、マウスピース10は、上側前歯E1とリップLPとにより上下方向から挟み込まれて保持される。
このとき、CPU5は、リード部11に配列されたリップ検出部3の複数のセンサ30〜40から出力される、リップLPの接触状態に応じたセンサ出力値(すなわち、リップ検出部3からの検出情報)に基づいて、リップLPの接触位置(リップポジション)を決定する。そして、この決定したリップLPの接触位置(リップポジション)に基づいて発生する楽音の音色(音高)を制御する。このとき、アコースティック管楽器の吹奏感により近づけるように音色(音高)を制御する場合には、図4に示すように、CPU5は、リップポジション(厳密には、リップLPの口腔内側の端部)とリード部11のティップ側の端部との2点間の距離Rに基づいて、リード部11の口腔内での仮想的な振動状態を推定して、その仮想的な振動状態に基づいて発生される音色(音高)をエミュレートするようにして音色(音高)を制御する。また、特にアコースティック管楽器の吹奏感に近づける必要が無い場合には、単純に、リップLPの接触位置(リップポジション)に対応して予め決められた音色(音高)に基づいて、電子管楽器に特有の音色(音高)を発生するように制御してもよい。
また、演奏時の口腔内部のタン(舌部)は、電子楽器100の奏法により、図4に示すように、タンTNがリード部11に触れていない状態(図中、実線で表記)と、リード部11に触れている状態(図中、二点鎖線で表記)と、のいずれかとなる。CPU5は、リード部11のティップ側の端部に配置されたセンサ20から出力される、タンTNの接触状態に応じたセンサ出力値(すなわち、タン検出部4からの検出情報)に基づいて、タンTNを接触させてリード部11の振動を止める奏法であるタンギングの実行状態を判断し、楽音のノートオン(発音)、ノートオフ(発音キャンセル)を制御する。
また、リード部11に配列されるセンサ20、30〜40に適用される静電容量方式のタッチセンサにおいては、湿気や温度の影響で検出値が変動することが知られている。具体的には、リード部11の温度の上昇に伴って、ほぼ全てのセンサ20、30〜40から出力されるセンサ出力値が増加する現象が知られており、一般に温度ドリフトと呼ばれている。ここで、電子楽器100の演奏中に生じるリード部11の温度状態の変化は、特に、リップLPが触れることによりリード基板11aに体温が伝わることの影響が大きく、その他にも、マウスピース10を咥えた状態が長い時間保持されることにより口腔内の湿気や温度が上昇したり、上記のタンギングによりタンTNが直接リード部11に触れたりすることに起因する場合もある。そのため、CPU5はリード部11の一番奥側(すなわち、ヒール側)に配置されたセンサ40から出力されるセンサ出力値に基づいて、リード部11の温度状態を判断し、各センサ20、30〜40からのセンサ出力値への温度の影響をオフセット(温度ドリフト成分を除去)する処理を行う。
(リップ検出部の出力特性)
次いで、上述したマウスピースを演奏者が咥えた状態におけるリップ検出部の出力特性について説明する。ここでは、リップ検出部の出力特性について、演奏者の唇の厚さの違いと関連付けて説明するが、唇の硬さやマウスピースを咥える際の強さ等の違いとの関係においても同様の特徴を有している。
図5は、演奏者がマウスピースを咥えた状態におけるリップ検出部の出力特性の一例(比較例)、及び、リップポジションの算出例を示す図である。ここで、図5(a)は通常の厚みの唇を有する演奏者がマウスピースを咥えた状態における各センサからのセンサ出力値の分布例、及び、当該分布例に基づいて算出されるリップポジションの例である。図5(b)は通常よりも厚い唇を有する演奏者がマウスピースを咥えた状態におけるセンサからのセンサ出力値の分布例、及び、当該分布例に基づいて算出されるリップポジションの例である。
上述したように、本実施形態に係るマウスピース10においては、リード部11へのリップ(下唇)LPやタン(舌部)TNの接触状態を、リード基板11aに配列された複数のセンサ20、30〜40の各電極における静電容量に基づいて、例えば0〜255までの256段階の出力値で検出する方式を採用している。ここで、複数のセンサ20、30〜40がリード基板11aの長手方向に一列に配置されているため、通常の(平均的な)厚みの唇を有する演奏者がマウスピース10を普通に咥え、タンギングを行っていない状態では、図5(a)に示すように、リード部11にリップLPが触れている領域(図4中、領域R参照)のセンサ及びその周辺のセンサ(例えば位置PS2〜PS8の各センサ31〜37)が反応して、そのセンサ出力値が高い値を示す。
一方、リップLPが触れていない領域(すなわち、リップLPが触れている領域Rのティップ側及びヒール側)のセンサ(例えば位置PS1、PS9、PS10の各センサ30、38、39)からのセンサ出力値は、相対的に低い値を示す。すなわち、この場合のリップ検出部3の各センサ30〜39から出力されるセンサ出力値の分布は、図5(a)に示すように、演奏者がリップLPを最も強く接触させた位置のセンサ(概ね位置PS5〜PS7の各センサ34〜36)からのセンサ出力値を最大値とする山形を示す特徴を有している。
なお、図5(a)、(b)に示したセンサ出力値の分布図において、横軸はリード基板11a上にティップ側からヒール側に向かって配列された各センサ30、31、・・・38、39の位置PS1、PS2、・・・PS9、PS10を示し、縦軸は各位置PS1〜PS10のセンサ30〜39から出力される出力値(静電容量の値をA/D変換して0〜255までの8bitの値を示すセンサ出力値)を示す。
ここでは、リード部11に配列されるセンサ20、30〜40のうち、一番ティップ側、及び、一番ヒール側の両端部に配置されたセンサ20、40からのセンサ出力値を除外した。センサ20からのセンサ出力値を除外する理由は、タンギングによりセンサ出力値が突出して高い値を示す場合があり、正確なリップポジションの算出に及ぼす影響を排除するためである。また、センサ40からのセンサ出力値を除外する理由は、マウスピース10の一番奥側(ヒール側)に配置され、演奏時にリップLPが接触する機会がほとんどなく、実質的にリップポジションの算出に用いられないためである。
一方、通常よりも厚い唇を有する演奏者がマウスピース10を普通に咥えた状態では、リード部11にリップLPが触れている領域(図4中、領域R参照)が広がるため、図5(b)に示すように、図5(a)に示したセンサ出力値の分布よりも広い範囲のセンサ(例えば位置PS2〜PS9の各センサ31〜38)が反応して、そのセンサ出力値が高い値を示すことになる。なお、この場合においても、リップ検出部3の各センサ30〜39からのセンサ出力値の分布は、図5(b)に示すように、演奏者によりリップLPを最も強く接触させた位置のセンサ(概ね位置PS5〜PS7の各センサ34〜36)からのセンサ出力値を最大値とする山形を示す。
(リップポジションの算出方法)
まず、図5(a)、(b)に示したようなセンサ出力値の分布に基づいて、演奏者がマウスピースを咥えた際のリップの接触位置(リップポジション)を算出する手法について説明する。
上述したようなセンサ出力値の分布に基づいて、リップポジションを算出する方法としては、一般的な重心位置(又は加重平均)の算出方法を適用することができる。具体的には、重心位置xは、リップの接触状態を検出する複数のセンサからのセンサ出力値mと、各センサの位置を示す番号xとに基づいて、次の(11)式により算出される。
上記の(11)式において、nは重心位置xの算出に用いるセンサ出力値の個数である。ここでは、上述したように、リード部11に配列されたセンサ20、30〜40のうち、センサ20、40を除外した、10個(n=10)のセンサ30〜39のセンサ出力値mを重心位置xの算出に用いる。また、これらのセンサ30〜39の位置PS1〜PS10に対応して、各センサの位置番号x(=1、2、・・・10)が設定されている。
図5(a)に示したように、通常の厚みの唇を有する演奏者がマウスピース10を咥えた場合に得られるセンサ出力値の分布に基づいて、上記の(11)式を用いて重心位置xを算出してリップポジションPS(1-10)を求めると、図中の右表に示すように、「5.10」という数値が得られる。この数値は、リップポジションをセンサの位置番号で表したものである。すなわち、位置番号1〜10で示される各センサ30〜39の位置PS1〜PS10に対する相対位置で表したものであり、1.0〜10.0の小数を含む数値で表される。また、図中に示すTotal1は、上記の(11)式の分子であって、各センサ30〜39におけるセンサ出力値mと位置番号xとの積の総和であり、Total2は、上記の(11)式の分母であって、各センサ30〜39からのセンサ出力値mの総和である。なお、図中に示すリップポジションPS(1-10)は、音源8において利用する際には、7ビットで表現した数値であるMIDI信号に変換(位置PS1〜PS10までの範囲を0〜127の値に割り当て)してから利用される。例えば、リップポジションPS(1-10)が「5.10」であれば、当該リップポジションPS(1-10)から1を減算した後、127/9を乗算して求められる、7ビットで表現した数値((5.10-1)*127/9=58)がMIDI信号として利用される。
一方、図5(b)に示したように、通常よりも厚い唇を有する演奏者がマウスピース10を咥えた場合に得られるセンサ出力値の分布に対して、上記の(11)式を用いた重心位置xの算出を適用した場合には、上述したように、リップLPが触れている領域が広がってより多くのセンサにおいてセンサ出力値が変動(増加)することがある。そのため、リップポジションを正確に求めることができない場合がある。
具体的には、通常の厚みの唇を有する演奏者に比較して、厚い唇を有する演奏者の場合には、リップポジションPS(1-10)が「5.10」から「5.54」へ(差分が「0.4」以上も)大幅に変化してしまい、後述する発音処理において演奏者が意図する吹奏感や楽音のエフェクトを実現できなくなる。すなわち、図5(a)、(b)に示した例では、演奏者の唇の厚さがリップポジションの決定に影響を与えることになる。しかしながら、サクソフォン等のアコースティック管楽器においては、演奏者の唇が厚いか薄いかによって楽音が変化することはない。なお、図5(a)、(b)に示したように、各センサ30〜39からのセンサ出力値そのものの分布に対して、上記の(11)式を用いて重心位置xを算出してリップポジションを求める手法を、便宜的に「比較例」と表記する。
そこで、本実施形態においては、リード部11に配列されたリップ検出部3のセンサ30〜39について、まず、それぞれ隣接して配置された2つのセンサのセンサ出力値の差分(センサ出力値間の変化量)を算出する。そして、算出された複数のセンサ出力値の差分と、当該複数の差分に対応する隣接する2つのセンサの配列位置に対する相関位置とに基づいて、上記の(11)式を用いて重心位置x(又は、加重平均)を算出して、リード部11に接触しているリップLPの口腔内側の端部(内縁部分;図4に示したリップLPが触れている領域Rの口腔内側の境界部分)を示すリップポジションとして決定する一連の手法を採用している。
(リップポジションの決定方法)
以下、本実施形態に適用されるリップポジションの決定方法について詳細に説明する。
図6は、演奏者がマウスピースを咥えた状態におけるリップ検出部の検出情報の変化特性の一例(本実施形態)、及び、リップポジションの算出例を示す図である。ここで、図6(a)は通常の厚みの唇を有する演奏者がマウスピースを咥えた状態において、それぞれ隣接する2つのセンサからのセンサ出力値の差分の分布例、及び、当該分布例に基づいて算出されるリップポジションの例である。図6(b)は通常よりも厚い唇を有する演奏者がマウスピースを咥えた状態において、それぞれ隣接する2つのセンサからのセンサ出力値の差分の分布例、及び、当該分布例に基づいて算出されるリップポジションの例である。
本実施形態に適用されるリップポジションの決定方法においては、まず、図5(a)又は図5(b)に示した各センサ30〜39からのセンサ出力値の分布において、互いに隣接して配置された2つのセンサ30と31、31と32、32と33、・・・37と38、38と39の各組合せにおけるセンサ出力値の差分(mi+1−m)を算出する。ここでは、センサ出力値の差分として、10個(n=10)のセンサ30〜39に対して9個分(=n−1)が算出され、それぞれのセンサ出力値の差分を便宜的にDif(31-30)、Dif(32-31)、Dif(33-32)、・・・Dif(38-37)、Dif(39-38)と記す。特に、本実施形態においては、図5(a)又は図5(b)に示したセンサ出力値の分布における上昇部分のみを抽出するために、センサ出力値の差分がマイナスの値になる場合には、差分を「0」に設定する。このようにして算出されたセンサ出力値の差分の分布は、図6(a)又は図6(b)のように示される。
ここで、図6(a)又は図6(b)に示したセンサ出力値の差分の分布図において、横軸は互いに隣接して配置された2つのセンサ30と31、31と32、32と33、・・・37と38、38と39の各組合せにおける代表位置(相関位置)DF1、DF2、DF3・・・DF8、DF9を示す。ここで、2つのセンサの各組合せにおける代表位置DF1〜DF9の一例として、2つのセンサのうちのティップ側のセンサの位置で各組合せにおける代表位置(相関位置)を示しているが、隣接して配置された2つのセンサの配列位置に対して相関性のある位置を示せればよいので、2つのセンサの中間位置又は重心位置、あるいは、別途設定された基準位置からの距離で示される位置であってもよい。また、縦軸は互いに隣接する2つのセンサ30と31、31と32、32と33、・・・37と38、38と39の各組合せにおけるセンサ出力値の差分を示す。
そして、図6(a)又は図6(b)に示すような分布を有するセンサ出力値の差分に基づいて、上記の(11)式を用いて重心位置xを算出してリップポジションPS(DF)を決定する。本実施形態においては、図中の右表に示すように、リップポジションPS(DF)がいずれも「1.35」となり、同一又は同等の数値が得られた。すなわち、演奏者の唇の厚さの影響をほとんど受けることなく、より正確なリップポジションを算出することができることが確認された。なお、詳細な説明を省略するが、上記の演奏者の唇の厚さに限らず、唇の硬さやマウスピースを咥える際の強さ等の影響についても同様に、ほとんど受けないことが確認された。
ここで、図6(a)又は図6(b)に示すTotal1は、互いに隣接する2つのセンサ30と31、31と32、32と33、・・・37と38、38と39の各組合せにおけるセンサ出力値の差分Dif(31-30)、Dif(32-31)、Dif(33-32)、・・・Dif(38-37)、Dif(39-38)と、各組合せにおけるセンサ出力値の差分に対応する、隣接する2つのセンサの配列位置に相関する位置DF1、DF2、DF3・・・DF8、DF9を示す位置番号xとの積の総和である。また、Total2は、隣接する2つのセンサの各組合せにおけるセンサ出力値の差分Dif(31-30)、Dif(32-31)、Dif(33-32)、・・・Dif(38-37)、Dif(39-38)の総和である。
本実施形態においては、次の(12)式に示すように、これらのTotal1及びTotal2を上記の(11)式の分子及び分母に適用して、リップポジションPS(DF)となる重心位置xを算出する。
PS(DF)=x=Total1/Total2 ・・・(12)
すなわち、図5(a)又は図5(b)に示したような山形を有するセンサ出力値の分布において、互いに隣接するセンサ間のセンサ出力値の変化を監視した場合、センサ出力値が急激に上昇する特徴的な変化部分(図中太線矢印で示した、山形の分布の左側の急傾斜部分に相当する)は、図6(a)又は図6(b)に示すように、隣接する2つのセンサ間のセンサ出力値の差分が大きな値を示すことになる。このような大きな値の差分を示す部分は、(11)式を用いて重心位置(又は加重平均)を算出する場合においても特徴的な挙動を示す。
そこで、本実施形態においては、複数のセンサのうち、互いに隣接して配列された2つのセンサの出力値の差分をそれぞれ算出し、算出されたそれぞれの出力値の差分を重心位置又は加重平均を算出する際の重み値として、複数の差分にそれぞれ対応する、隣接する2つのセンサの配列位置に相関する位置(相関位置)の重心位置又は加重平均を算出する。これにより、上記の(12)式によりセンサ出力値の山形の分布の左側の急傾斜部分に相当する位置が特定されることにより、リード部11に接触しているリップLPの口腔内側の端部(内縁部分)を示すリップポジションPS(DF)を容易に判断して決定することができる。
なお、上記の(12)式を用いて算出された位置は、各センサ配列に対する相対位置を示すものであり、リップポジションの変化に基づいて楽音の発生を制御する場合にはこの値をそのまま用いることができる。また、リードに接触する唇の端の位置などの絶対的なリップポジションに基づいて楽音の発生を制御する場合には、この相対位置に対して予め実験で求められたオフセット値を加算(又は減算)することにより絶対位置に変換する。
また、本実施形態においては、リップポジションPS(DF)を決定する際に、リード部11に配列されたセンサ20、30〜40のうち、センサ20、40を除外した、10個のセンサ30〜39からのセンサ出力値を用いる手法について説明したが、本発明はこれに限定されるものではない。すなわち、タン検出部4のセンサ20のみを除外した、リップ検出部3の11個のセンサ30〜40からのセンサ出力値を用いるものであってもよい。
<電子楽器の制御方法>
次に、本実施形態に係るリップポジションの決定方法を適用した電子楽器における制御方法について説明する。ここで、本実施形態に係る電子楽器の制御方法は、上述した電子楽器100のCPU5において、特定のリップ検出部の処理プログラムを含む制御プログラムを実行することにより実現されるものである。
図7は、本実施形態に係る電子楽器における制御方法のメインルーチンを示すフローチャートである。
本実施形態に係る電子楽器の制御方法は、図7に示すフローチャートのように、まず、演奏者(ユーザ)が電子楽器100の電源を投入すると、CPU5は電子楽器100の各種設定を初期化するイニシャライズ処理を実行する(ステップS702)。
次いで、CPU5は、演奏者が電子楽器100のマウスピース10を咥えることによりリップ検出部3から出力されるリップ(下唇)LPの検出情報に基づく処理を実行する(ステップS704)。このリップ検出部3の処理は、上述したリップポジションの決定方法を含むものであり、詳しくは後述する。
次いで、CPU5は、マウスピース10へのタン(舌部)TNの接触状態に応じてタン検出部4から出力されるタンTNの検出情報に基づく処理を実行する(ステップS706)。また、CPU5は、マウスピース10に吹き込まれた息に応じて息圧検出部2から出力される息圧情報に基づく処理を実行する(ステップS708)。
次いで、CPU5は、操作子1の操作情報に含まれる音高情報に応じたキーコードを発生させ、音源8に供給して楽音の音高を設定するキースイッチ処理を実行する(ステップS710)。このとき、CPU5は、リップ検出部3の処理(ステップS704)において、リップ検出部3から入力されたリップLPの検出情報を用いて算出されたリップポジションに基づいて、楽音の音色、音量、音高を調整して音色効果(例えば、ピッチベンドやビブラート等)を設定する処理を実行する。また、CPU5は、タン検出部4の処理(ステップS706)において、タン検出部4から入力されたタンTNの検出情報に基づいて、楽音のノートオン/オフを設定する処理を実行し、息圧検出部2の処理(ステップS708)において、息圧検出部2から入力された息圧情報に基づいて、楽音の音量を設定する処理を実行する。CPU5は、これらの一連の処理により、演奏者の演奏動作に応じた楽音を生成するための指示を生成して音源8に出力する。そして、音源8は、CPU5からの楽音の生成指示に基づいて、サウンドシステム9を動作させる発音処理を実行する(ステップS712)。
その後、CPU5は、その他の必要な処理(ステップS714)を実行して一連の処理動作が終了すると、上述したステップS704からS714の処理を再度繰り返し実行する。なお、図7に示したフローチャートにおいては図示を省略したが、CPU5は、上述した一連の処理動作(ステップS702〜S714)の実行中に、演奏が終了したり中断したりする状態の変化を検出した場合には、処理動作を強制的に終了する。
(リップ検出部の処理)
次に、上述したメインルーチンに示したリップ検出部3の処理について説明する。
図8は、本実施形態に係る電子楽器の制御方法に適用されるリップ検出部の処理を示すフローチャートである。
図7に示した電子楽器の制御方法に適用されるリップ検出部3の処理は、図8に示すフローチャートのように、まず、CPU5は、リード部11に配列された複数のセンサ20、30〜40から出力されるセンサ出力値を取得して、RAM7の所定の記憶領域に現在の出力値として記憶させる。これにより、RAM7の所定の記憶領域に記憶されているセンサ出力値が、現在のセンサ出力値に順次更新される(ステップS802)。
次いで、CPU5は、リード部11の一番奥側(すなわち、ヒール側)に配置されたセンサ40から出力されるセンサ出力値に基づいて、リード部11の温度状態を判断し、各センサ20、30〜40からのセンサ出力値への温度の影響をオフセットする処理を行う。上述したように、静電容量方式のタッチセンサにおいては、湿気や温度の影響で検出値が変動することが知られており、リード部11の温度の上昇に伴って、ほぼ全てのセンサ20、30〜40から出力されるセンサ出力値が上昇する温度ドリフトが生じる。そこで、本実施形態においては、全てのセンサ出力値から温度ドリフト分に対応する所定値(例えば最大で「100」程度)を減算する処理を行うことにより、口腔内の湿気や温度の上昇に起因する温度ドリフトの影響を除去することができる(ステップS804)。
次いで、CPU5は、リップ検出部3のセンサ30〜40から出力されるセンサ出力値(現在の出力値)に基づいて、演奏者が現在、マウスピース10を咥えているか否かを判断する(ステップS806)。ここで、マウスピース10を咥えているか否かを判断する手法としては、例えば図8に示すように、センサ30〜39の10個(又は、センサ30〜40の11個)のセンサ出力値の総和(厳密には、上記の温度ドリフト除去処理後の出力値の総和;図8中では「SumSig」と表記)を用いて判断する手法を適用することができる。すなわち、算出されたセンサ出力値の総和が所定の閾値TH1を越えている場合(SumSig>TH1)には、マウスピース10を咥えていると判断し、算出値が上記閾値TH1以下の場合(SumSig≦TH1)には、マウスピース10を咥えていないと判断する。本実施形態においては、上記の閾値TH1として、例えば各センサ30〜39(又は、センサ30〜40)からのセンサ出力値の総和の7割乃至8割(SumSig×70〜80%)となる範囲の値を設定する。
上記のステップS806において、演奏者がマウスピース10を咥えていないと判断された場合(ステップS806のNo)には、CPU5は、リップポジション(図8中では「pos」と表記)の算出を行わず、デフォルト値(「pos=64」)を設定して(ステップS808)、リップ検出部3の処理を終了して、図7に示したメインルーチンの処理に戻る。
一方、上記のステップS806において、演奏者がマウスピース10を咥えていると判断された場合(ステップS806のYes)には、CPU5は、タン検出部4のセンサ20から出力されるセンサ出力値(現在の出力値)に基づいて、演奏者が現在、タンギングを行っているか否かを判断する(ステップS810)。ここで、タンギングを行っているか否かを判断する手法としては、例えば図8に示すように、センサ20のセンサ出力値(厳密には、温度ドリフト除去処理後の出力値;図8中では「cap0」と表記)が所定の閾値TH2を越えている場合(cap0>TH2)には、タンギングを行っていると判断し、センサ出力値が上記閾値TH2以下の場合(cap0≦TH2)には、タンギングを行っていないと判断する手法を適用することができる。本実施形態においては、上記の閾値TH2として、例えば「80」程度の値を設定する。
上記のステップS810において、演奏者がタンギングを行っていると判断された場合(ステップS810のYes)には、タンTNがリード部11のティップ側の端部に配置されたセンサ20に接触していると判断されるため、CPU5は、リップポジション(pos)の算出を行わず、「pos=0」を設定して(ステップS812)、リップ検出部3の処理を終了して、図7に示したメインルーチンの処理に戻る。
一方、上記のステップS810において、演奏者がタンギングを行っていないと判断された場合(ステップS810のNo)には、CPU5は、リップ検出部3のセンサ30〜39から出力されるセンサ出力値(現在の出力値)がノイズの影響によるものか否かを判断する(ステップS814)。ここで、センサ出力値がノイズの影響によるものか否かを判断する手法としては、例えば図8に示すように、センサ30〜39において、隣接する2つのセンサ間のセンサ出力値の差分の総和(厳密には、上記の温度ドリフト除去処理後の出力値の差分の総和;図中では「sumDif」と表記)を用いて判断する手法を適用することができる。すなわち、算出されたセンサ出力値の差分の総和が所定の閾値TH3を越えている場合(sumDif>TH3)には、センサ30〜39から出力されるセンサ出力値がノイズの影響によるものではないと判断し、算出値が上記閾値TH3以下の場合(sumDif≦TH3)には、ノイズの影響によるものであると判断する。本実施形態においては、上記の閾値TH3として、例えば隣接する2つのセンサ間のセンサ出力値の差分の総和の8割(sumDif×80%)程度の値を設定する。
上記のステップS814において、センサ30〜39から出力されるセンサ出力値がノイズの影響によるものであると判断された場合(ステップS814のNo)には、CPU5は、リップポジション(pos)の算出を行わず、デフォルト値(「pos=64」)を設定するとともに、エラーの発生状況を記録する値(図中では「ErrCnt」と表記)を加算して保存する(ステップS816)。その後、CPU5は、リップ検出部3の処理を終了して、図7に示したメインルーチンの処理に戻る。
なお、ステップS814に示したような、隣接する2つのセンサ間のセンサ出力値の差分の総和が閾値TH3以下となる状態(sumDif≦TH3;ステップS814のNo)は、ノイズによる影響の他にも、演奏者がマウスピース10を意図的に異常な咥え方をした場合や、センサ自体のハードウェア的な異常が発生した場合等にも生じるものである。
一方、上記のステップS814において、センサ30〜39から出力されるセンサ出力値がノイズの影響によるものではないと判断された場合(ステップS814のYes)には、CPU5は、上述したリップポジションの決定方法に基づいてリップポジション(pos)を算出する(ステップS818)。すなわち、CPU5は、互いに隣接して配置されたセンサ間のセンサ出力値の差分をそれぞれ算出して、その値をDif(mi+1-m)として記録する。そして、CPU5は、それぞれのセンサ出力値の差分に対応する2つのセンサの配列位置に相関する位置(相関位置)に対する、これらの差分値Dif(mi+1-m)の分布(換言すると、センサの配列位置における出力値である度数や重み値の分布)に基づいて重心位置又は加重平均を算出することにより、リード部11に接触しているリップLPの内縁部分を示すリップポジションを決定する。
このように、本実施形態においては、電子楽器100のマウスピース10を咥えた状態で、リード部11に配列されたリップ検出部3の複数のセンサ30〜39から得られるセンサ出力値において、互いに隣接する2つのセンサ間のセンサ出力値の差分の分布に基づいて、所定の計算式を用いて重心位置又は加重平均を算出することにより、センサ出力値が特徴的に上昇する位置を特定してリップポジションとして決定する。
これにより、本実施形態によれば、演奏者の唇の厚さや硬さ、マウスピースを咥える際の強さ等の影響をほとんど受けることなく、より正確なリップポジションを決定することができ、アコースティック管楽器における吹奏感や楽音のエフェクト(例えば、ピッチベンドやビブラート等)により近づけることができる。
なお、本実施形態においては、複数のセンサのうちの、互いに隣接して配列された2つのセンサの配列位置に相関するそれぞれの位置(相関位置)に対する、上記の2つのセンサの出力値の差分の分布に基づいて重心位置又は加重平均を算出することにより、リップポジションを決定する手法について説明したが、本発明はこれに限定されるものではない。すなわち、上記の複数の差分にそれぞれ対応する相関位置を、度数分布における級数とするとともに、複数の差分にそれぞれ対応する出力値の差分を、度数分布における度数として、当該度数分布における統計量である各種の平均値(上記の加重平均を含む)や中央値、最頻値のいずれかを算出し、当該算出した統計量に基づいてリップポジションを決定するものであってもよい。
(変形例)
次に、上述した実施形態に係る電子楽器の制御方法の変形例について説明する。ここで、本変形例が適用される電子楽器の外観及び機能構成は上述した実施形態と同等であるので、その説明を省略する。
図9は、本実施形態に係る電子楽器の制御方法の変形例を示すフローチャートである。
本変形例に係る電子楽器の制御方法は、図7のフローチャートに示したメインルーチンのリップ検出部の処理(ステップS704)に適用され、特に、演奏者がマウスピースを咥えているか否かの判断方法、及び、リップポジションの決定方法に特徴を有している。なお、図9に示すフローチャートにおいて、ステップS908〜S916は、図8に示したフローチャートのS808〜S816と同等であるので、詳細な説明を省略する。
本変形例においては、まず、CPU5は、上述した実施形態と同様に、リード部11に配列された複数のセンサ20、30〜40から出力されるセンサ出力値を取得して、RAM7に記憶されているセンサ出力値を更新する(ステップS902)。次いで、CPU5は、取得したリップ検出部3のセンサ30〜39(又は、30〜40)からのセンサ出力値から、最大値(max)となるセンサ出力値を抽出し(ステップS904)、当該最大値に基づいて、演奏者がマウスピース10を咥えているか否かを判断する(ステップS906)。ここでは、マウスピース10を咥えているか否かを判断する手法として、図9に示すように、抽出した最大値が所定の閾値TH4を越えている場合(max>TH4)には、マウスピース10を咥えていると判断し、最大値が上記閾値TH4以下の場合(max≦TH4)には、マウスピース10を咥えていないと判断する。本変形例においては、上記の閾値TH4として、例えば抽出した最大値の8割(max×80%)となる値を設定する。
なお、演奏者がマウスピース10を咥えているか否かの判断は、本変形例や上述した実施形態に示した手法に限定されるものではなく、他の手法を適用するものであってもよい。例えば、センサ30〜39から出力されるセンサ出力値が全て所定値以下である場合には、マウスピース10を咥えていないと判断し、センサ30〜39のうち、半数以上のセンサ出力値が上記の所定値を超過している場合には、マウスピース10を咥えていると判断する手法を適用するものであってもよい。
次いで、上述した実施形態と同様に、演奏者がマウスピース10を咥えていないと判断された場合(ステップS906のNo)には、CPU5は、リップポジションとしてデフォルト値(「pos=64」)を設定する(ステップS908)。マウスピース10を咥えていると判断された場合(ステップS906のYes)には、CPU5は、タン検出部4のセンサ20から出力されるセンサ出力値に基づいて、演奏者がタンギングを行っているか否かを判断する(ステップS910)。演奏者がタンギングを行っていると判断された場合(ステップS910のYes)には、CPU5は、リップポジションを「pos=0」に設定する(ステップS912)。タンギングを行っていないと判断された場合(ステップS910のNo)には、CPU5は、センサ出力値がノイズの影響によるものか否かを判断する(ステップS914)。センサ出力値がノイズの影響によるものであると判断された場合(ステップS914のNo)には、CPU5は、リップポジションとしてデフォルト値(「pos=64」)を設定し(ステップS916)、センサ出力値がノイズの影響によるものではないと判断された場合(ステップS914のYes)には、リップポジションを算出する(ステップS918)。
ここで、リップポジションは、上述した実施形態に示したように、隣接する2つのセンサ間のセンサ出力値の差分の分布に基づいて、重心位置又は加重平均を算出することによりリップポジションを決定するものであってもよいし、他の手法を適用するものであってもよい。例えば、隣接して配置された2つのセンサ間のセンサ出力値の差分をそれぞれ算出して、その値をDif(mi+1-m)として記録し、これらの差分値の分布から最大値Dif(max)となる差分を抽出する。そして、最大値Dif(max)となる差分に対応する2つのセンサの配列位置に相関する位置(相関位置)、例えば2つのセンサの配列位置の中間位置や重心位置等に基づいてリップポジションを決定するものであってもよい。また、抽出した最大値Dif(max)が所定の閾値TH5を越える場合に、当該最大値Dif(max)となる差分に対応する2つのセンサの配列位置に相関する位置に基づいてリップポジションを決定するものであってもよい。
このような電子楽器の制御方法においても、電子楽器100のマウスピース10を咥えた状態で、リード部11に配列された複数のセンサ30〜39から得られるセンサ出力値の分布において、互いに隣接する2つのセンサ間のセンサ出力値の差分に基づいて、センサ出力値が特徴的に上昇する位置を特定することができる。これにより、演奏者の唇の厚さや硬さ、マウスピースを咥える際の強さ等の影響をほとんど受けることなく、より正確なリップポジションを決定することができる。
なお、上述した実施形態及び変形例においては、リップ検出部3の複数のセンサ30〜39からのセンサ出力値の分布において、センサ出力値が特徴的に上昇する位置を特定して、リード部11に接触しているリップLPの内縁部分を示すリップポジションとして決定する手法を説明した。本発明は、同様の技術思想に基づいて、リップ検出部3の複数のセンサからのセンサ出力値の分布において、センサ出力値が急激に下降する特徴的な変化部分の位置を特定して、リード部11に接触しているリップLPの口腔外側の端部(外縁部分;リップLPが触れている領域Rの口腔外側の境界部分)を示すリップポジションとして決定するものであってもよい。
また、上述した実施形態において、リップ検出部3の複数のセンサ30〜39からのセンサ出力値の分布に基づいて決定されたリップLPの内縁部分を示すリップポジションを基準にして、予め設定されたリップ(下唇)LPの厚み分、又は、例えばその厚み分の半分に相当する所定の寸法だけマウスピース10の奥側(ヒール側)方向に位置をシフト(オフセット値を加減算)させて補正するものであってもよい。これによれば、リップLPの外縁部分やリップの厚みの中心位置を示すリップポジションを容易に判断して決定することができる。
また、上述した実施形態においては、サクソフォン型の外観を有する電子楽器100を示して説明したが、本発明に係る電子楽器はこれに限定されるものではない。すなわち、演奏者が口に咥えて、リードを用いるアコースティック管楽器と同様の演奏を表現する電子楽器(電子管楽器)であれば、クラリネット等の他のアコースティック管楽器を模した電子楽器に適用するものであってもよい。
さらに、近年の電子管楽器においては、複数の指を用いて複数の演奏用の操作子を操作する他、例えば、親指の位置にタッチセンサを設け、このタッチセンサにより検出される親指の位置に応じて発生する楽音のエフェクトなどを制御するようにしたものもある。このような電子管楽器に本発明に係る操作位置を検出する検出装置や検出方法を適用して、1つの指で操作可能な位置に、指の接触や近接を検出する複数のセンサを配列させ、この複数のセンサにより検出される複数の検出値に基づいて1つの指による操作位置を検出するようにしてもよい。
また、電子楽器に限らず、操作者が、身体の一部を用いて操作を行うような電子機器においても、本発明に係る操作位置を検出する検出装置や検出方法を適用して、身体の一部で操作可能な位置に、身体の一部の接触や近接を検出する複数のセンサを設け、この複数のセンサにより検出される複数の検出値に基づいて身体の一部による操作位置を検出するようにしてもよい。
以上、本発明のいくつかの実施形態について説明したが、本発明は、上述した実施形態に限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲とを含むものである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記)
[1]
特定の方向に配列された複数のセンサと、
前記複数のセンサの出力値に基づいて、前記特定の方向における操作位置を決定する制御部と、を備え、
前記制御部は、
前記複数のセンサのうち、互いに隣接して配置された2つの前記センサの出力値の差分をそれぞれ算出するとともに、前記算出された複数の差分と、前記複数の差分にそれぞれ対応する、前記隣接して配置された2つのセンサの配列位置に対して相関性のある位置である相関位置と、に基づいて前記操作位置を決定することを特徴とする検出装置。
[2]
前記制御部は、前記複数の差分にそれぞれ対応する前記出力値の差分を、加重平均を算出する際の重み値として、前記複数の差分にそれぞれ対応する前記相関位置の加重平均を算出し、前記算出した加重平均に基づいて前記操作位置を決定することを特徴とする[1]に記載の検出装置。
[3]
前記制御部は、前記複数の差分にそれぞれ対応する前記相関位置を、度数分布における級数とし、前記複数の差分にそれぞれ対応する前記出力値の差分を、前記度数分布における度数として、前記度数分布における統計量である平均値、中央値、最頻値のいずれかを算出し、前記算出した統計量に基づいて前記操作位置を決定することを特徴とする[1]に記載の検出装置。
[4]
前記制御部は、前記度数分布における平均値を算出し、前記算出した平均値に基づいて前記操作位置を決定することを特徴とする[3]に記載の検出装置。
[5]
前記相関位置を用いて算出された位置は、前記度数分布において、前記出力値が急激に上昇又は下降する変化部分の位置であって、前記特定の方向に広がる領域を有する前記操作位置の境界となる端部に対応する位置であることを特徴とする[3]又は[4]に記載の検出装置。
[6]
前記制御部は、前記相関位置を用いて算出された位置に対して、設定されたオフセット値を加減算することにより前記操作位置を補正することを特徴とする[1]乃至[5]のいずれかに記載の検出装置。
[7]
前記制御部は、
前記複数のセンサから選択した特定の前記センサの出力値に基づいて、前記複数のセンサにおける温度状態を判断し、前記複数のセンサの各出力値から前記温度に起因する成分を除去する処理を行った後に、前記特定のセンサを除く前記複数のセンサの出力値に基づいて、前記操作位置を決定することを特徴とする[1]乃至[6]のいずれかに記載の検出装置。
[8]
演奏者が口に咥えるマウスピースを備え、
前記複数のセンサは、前記マウスピースのリード部の一端側から他端側に向かって配列されて、それぞれが唇の接触状態を検出し、
前記制御部は、
前記複数のセンサから選択した一部の前記センサを対象として、前記出力値の差分をそれぞれ算出することを特徴とする[1]乃至[7]のいずれかに記載の検出装置。
[9]
[1]乃至[8]のいずれかに記載の検出装置と、
楽音を生成する音源と、を備え、
前記制御部は、
前記決定した操作位置に基づいて前記音源に生成させる楽音を制御することを特徴とする電子楽器。
[10]
前記複数のセンサは、演奏者の身体の一部を検出することを特徴とする[9]に記載の電子楽器。
[11]
前記電子楽器はマウスピースを有する電子管楽器であり、
前記複数のセンサは前記マウスピースのリード部に配列されて演奏者の唇を検出することを特徴とする[10]に記載の電子楽器。
[12]
一端側から他端側に向かって唇の接触状態を検出する複数のセンサが配列されたリード部と、
前記複数のセンサの出力値に基づいて、前記リード部上での前記唇の接触位置を決定する制御部と、を備え、
前記制御部は、
前記複数のセンサのうち、互いに隣接して配置された2つの前記センサの出力値の差分をそれぞれ算出するとともに、前記算出された複数の差分と、前記複数の差分にそれぞれ対応する、前記隣接して配置された2つのセンサの配列位置に対して相関性のある位置である相関位置と、に基づいて、前記一端側から前記他端側に向かう特定方向における、前記リード部上での前記唇の接触位置を決定し、前記決定した唇の接触位置に基づいて楽音の発生を制御することを特徴とする電子楽器。
[13]
前記相関位置を用いて算出された位置は、前記複数のセンサの出力値が急激に上昇又は下降する変化部分の位置であって、前記特定方向に広がる領域を有する前記唇の接触位置の境界となる端部に対応する位置であることを特徴とする[12]に記載の電子楽器。
[14]
前記制御部は、前記相関位置を用いて算出された位置に対して、設定されたオフセット値を加減算することにより前記唇の接触位置を補正することを特徴とする[13]に記載の電子楽器。
[15]
電子機器が、
特定の方向に配列された複数のセンサの出力値をそれぞれ取得し、
前記複数のセンサのうち、互いに隣接して配置された2つの前記センサの出力値の差分をそれぞれ算出し、
前記算出された複数の差分と、前記複数の差分にそれぞれ対応する、前記隣接して配置された2つのセンサの配列位置に対して相関性のある位置である相関位置と、に基づいて前記操作位置を決定する、
ことを特徴とする検出方法。
[16]
コンピュータに、
特定の方向に配列された複数のセンサの出力値をそれぞれ取得させ、
前記複数のセンサのうち、互いに隣接して配置された2つの前記センサの出力値の差分をそれぞれ算出させ、
前記算出された複数の差分と、前記複数の差分にそれぞれ対応する、前記隣接して配置された2つのセンサの配列位置に対して相関性のある位置である相関位置と、に基づいて前記操作位置を決定させる、
ことを特徴とする制御プログラム。
3 リップ検出部
4 タン検出部
5 CPU(制御部)
8 音源
10 マウスピース
11 リード部
11a リード基板
20、30〜40 センサ
100 電子楽器
LP リップ(下唇)
TN タン(舌部)
PS1〜PS9 センサの位置
DF1〜DF9 センサの配列位置に相関する位置(相関位置)
PS(DF) リップポジション

Claims (16)

  1. 演奏者が口に咥えるマウスピースのリード部の一端側から他端側に向かって配列された複数のセンサの出力値を取得し、取得した前記複数のセンサの出力値に基づいて、前記リード部の一端側から他端側に向かう方向における前記演奏者の操作位置を決定する制御部備え、
    前記制御部は、
    前記複数のセンサのうち、互いに隣接して配置された2つの前記センサの出力値の差分をそれぞれ算出するとともに、前記算出された複数の差分と、前記複数の差分にそれぞれ対応する、前記隣接して配置された2つのセンサの配列位置に対して相関性のある位置である相関位置と、に基づいて前記操作位置を決定することを特徴とする検出装置。
  2. 前記制御部は、前記複数の差分にそれぞれ対応する前記出力値の差分を、加重平均を算出する際の重み値として、前記複数の差分にそれぞれ対応する前記相関位置の加重平均を算出し、前記算出した加重平均に基づいて前記操作位置を決定することを特徴とする請求項1に記載の検出装置。
  3. 前記制御部は、前記複数の差分にそれぞれ対応する前記相関位置を、度数分布における級数とし、前記複数の差分にそれぞれ対応する前記出力値の差分を、前記度数分布における度数として、前記度数分布における統計量である平均値、中央値、最頻値のいずれかを算出し、前記算出した統計量に基づいて前記操作位置を決定することを特徴とする請求項1に記載の検出装置。
  4. 前記制御部は、前記度数分布における平均値を算出し、前記算出した平均値に基づいて前記操作位置を決定することを特徴とする請求項3に記載の検出装置。
  5. 前記相関位置を用いて算出された位置は、前記度数分布において、前記出力値が急激に上昇又は下降する変化部分の位置であって、前記特定の方向に広がる領域を有する前記操作位置の境界となる端部に対応する位置であることを特徴とする請求項3又は4に記載の検出装置。
  6. 前記制御部は、前記相関位置を用いて算出された位置に対して、設定されたオフセット値を加減算することにより前記操作位置を補正することを特徴とする請求項1乃至5のいずれかに記載の検出装置。
  7. 前記制御部は、
    前記複数のセンサから選択した特定の前記センサの出力値に基づいて、前記複数のセンサにおける温度状態を判断し、前記複数のセンサの各出力値から前記温度に起因する成分を除去する処理を行った後に、前記特定のセンサを除く前記複数のセンサの出力値に基づいて、前記操作位置を決定することを特徴とする請求項1乃至6のいずれかに記載の検出装置。
  8. 前記マウスピースを備え、
    前記複数のセンサは、前記マウスピースのリード部の一端側から他端側に向かって配列されて、それぞれが唇の接触状態を検出し、
    前記制御部は、
    前記複数のセンサから選択した一部の前記センサを対象として、前記出力値の差分をそれぞれ算出することを特徴とする請求項1乃至7のいずれかに記載の検出装置。
  9. 特定の方向に配列された複数のセンサと、
    楽音を生成する音源と、
    前記複数のセンサの出力値に基づいて、前記特定の方向における操作位置を決定する制御部と、を備え、
    前記制御部は、
    前記複数のセンサのうち、互いに隣接して配置された2つの前記センサの出力値の差分をそれぞれ算出するとともに、前記算出された複数の差分と、前記複数の差分にそれぞれ対応する、前記隣接して配置された2つのセンサの配列位置に対して相関性のある位置である相関位置と、に基づいて前記操作位置を決定し、前記決定した操作位置に基づいて前記音源に生成させる楽音を制御する、電子楽器。
  10. 前記複数のセンサは、演奏者の身体の一部を検出することを特徴とする請求項9に記載の電子楽器。
  11. 前記電子楽器はマウスピースを有する電子管楽器であり、
    前記複数のセンサは前記マウスピースのリード部に配列されて演奏者の唇を検出することを特徴とする請求項10に記載の電子楽器。
  12. 一端側から他端側に向かって唇の接触状態を検出する複数のセンサが配列されたリード部と、
    前記複数のセンサの出力値に基づいて、前記リード部上での前記唇の接触位置を決定する制御部と、を備え、
    前記制御部は、
    前記複数のセンサのうち、互いに隣接して配置された2つの前記センサの出力値の差分をそれぞれ算出するとともに、前記算出された複数の差分と、前記複数の差分にそれぞれ対応する、前記隣接して配置された2つのセンサの配列位置に対して相関性のある位置である相関位置と、に基づいて、前記一端側から前記他端側に向かう特定方向における、前記リード部上での前記唇の接触位置を決定し、前記決定した唇の接触位置に基づいて楽音の発生を制御することを特徴とする電子楽器。
  13. 前記相関位置を用いて算出された位置は、前記複数のセンサの出力値が急激に上昇又は下降する変化部分の位置であって、前記特定方向に広がる領域を有する前記唇の接触位置の境界となる端部に対応する位置であることを特徴とする請求項12に記載の電子楽器。
  14. 前記制御部は、前記相関位置を用いて算出された位置に対して、設定されたオフセット値を加減算することにより前記唇の接触位置を補正することを特徴とする請求項13に記載の電子楽器。
  15. 電子機器が、
    演奏者が口に咥えるマウスピースのリード部の一端側から他端側に向かって配列された複数のセンサの出力値をそれぞれ取得し、
    前記複数のセンサのうち、互いに隣接して配置された2つの前記センサの出力値の差分をそれぞれ算出し、
    前記算出された複数の差分と、前記複数の差分にそれぞれ対応する、前記隣接して配置された2つのセンサの配列位置に対して相関性のある位置である相関位置と、に基づいて、前記リード部の一端側から他端側に向かう方向における前記演奏者の操作位置を決定する、
    ことを特徴とする検出方法。
  16. コンピュータに、
    演奏者が口に咥えるマウスピースのリード部の一端側から他端側に向かって配列された複数のセンサの出力値をそれぞれ取得させ、
    前記複数のセンサのうち、互いに隣接して配置された2つの前記センサの出力値の差分をそれぞれ算出させ、
    前記算出された複数の差分と、前記複数の差分にそれぞれ対応する、前記隣接して配置された2つのセンサの配列位置に対して相関性のある位置である相関位置と、に基づいて、前記リード部の一端側から他端側に向かう方向における前記演奏者の操作位置を決定させる、
    ことを特徴とする制御プログラム。
JP2017136895A 2017-07-13 2017-07-13 検出装置、電子楽器、検出方法及び制御プログラム Active JP6760222B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017136895A JP6760222B2 (ja) 2017-07-13 2017-07-13 検出装置、電子楽器、検出方法及び制御プログラム
US16/031,497 US10468005B2 (en) 2017-07-13 2018-07-10 Detection device for detecting operation position
EP18183081.1A EP3428913B1 (en) 2017-07-13 2018-07-12 Detection device and detection method
CN201810767951.XA CN109256111B (zh) 2017-07-13 2018-07-13 检测装置、电子乐器及检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017136895A JP6760222B2 (ja) 2017-07-13 2017-07-13 検出装置、電子楽器、検出方法及び制御プログラム

Publications (2)

Publication Number Publication Date
JP2019020504A JP2019020504A (ja) 2019-02-07
JP6760222B2 true JP6760222B2 (ja) 2020-09-23

Family

ID=63165139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017136895A Active JP6760222B2 (ja) 2017-07-13 2017-07-13 検出装置、電子楽器、検出方法及び制御プログラム

Country Status (4)

Country Link
US (1) US10468005B2 (ja)
EP (1) EP3428913B1 (ja)
JP (1) JP6760222B2 (ja)
CN (1) CN109256111B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6720582B2 (ja) * 2016-03-02 2020-07-08 ヤマハ株式会社 リード
JP6760222B2 (ja) * 2017-07-13 2020-09-23 カシオ計算機株式会社 検出装置、電子楽器、検出方法及び制御プログラム
US10403247B2 (en) * 2017-10-25 2019-09-03 Sabre Music Technology Sensor and controller for wind instruments
US11984103B2 (en) * 2018-05-25 2024-05-14 Roland Corporation Displacement amount detecting apparatus and electronic wind instrument
WO2019224996A1 (ja) * 2018-05-25 2019-11-28 ローランド株式会社 電子吹奏楽器
JP7262347B2 (ja) * 2019-09-06 2023-04-21 ローランド株式会社 電子吹奏楽器
JP7423952B2 (ja) * 2019-09-20 2024-01-30 カシオ計算機株式会社 検出装置、電子楽器、検出方法及びプログラム
JP7140083B2 (ja) * 2019-09-20 2022-09-21 カシオ計算機株式会社 電子管楽器、電子管楽器の制御方法及びプログラム
KR102512071B1 (ko) * 2020-06-26 2023-03-20 주식회사 케이티앤지 에어로졸 생성 장치 및 그의 동작 방법

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2138500A (en) * 1936-10-28 1938-11-29 Miessner Inventions Inc Apparatus for the production of music
US3429976A (en) * 1966-05-11 1969-02-25 Electro Voice Electrical woodwind musical instrument having electronically produced sounds for accompaniment
US4901618A (en) * 1987-12-16 1990-02-20 Blum Jr Kenneth L System for facilitating instruction of musicians
US4951545A (en) * 1988-04-26 1990-08-28 Casio Computer Co., Ltd. Electronic musical instrument
JPH1096939A (ja) * 1996-09-24 1998-04-14 Toshiba Corp 液晶表示装置
JP2000122641A (ja) * 1998-10-21 2000-04-28 Casio Comput Co Ltd 電子管楽器
US6846980B2 (en) * 2001-01-31 2005-01-25 Paul D. Okulov Electronic-acoustic guitar with enhanced sound, chord and melody creation system
US6967277B2 (en) * 2003-08-12 2005-11-22 William Robert Querfurth Audio tone controller system, method, and apparatus
EP1585107B1 (en) * 2004-03-31 2009-05-13 Yamaha Corporation Hybrid wind instrument selectively producing acoustic tones and electric tones and electronic system used therein
US7598449B2 (en) * 2006-08-04 2009-10-06 Zivix Llc Musical instrument
US20080236374A1 (en) * 2007-03-30 2008-10-02 Cypress Semiconductor Corporation Instrument having capacitance sense inputs in lieu of string inputs
US20080238448A1 (en) * 2007-03-30 2008-10-02 Cypress Semiconductor Corporation Capacitance sensing for percussion instruments and methods therefor
JP5169045B2 (ja) * 2007-07-17 2013-03-27 ヤマハ株式会社 管楽器
JP5326235B2 (ja) * 2007-07-17 2013-10-30 ヤマハ株式会社 管楽器
JP5332296B2 (ja) * 2008-01-10 2013-11-06 ヤマハ株式会社 楽音合成装置およびプログラム
US8109146B2 (en) * 2008-02-21 2012-02-07 Massachusetts Institute Of Technology Measurement of bowed string dynamics
US8321174B1 (en) * 2008-09-26 2012-11-27 Cypress Semiconductor Corporation System and method to measure capacitance of capacitive sensor array
EP2527958A4 (en) 2009-10-09 2014-09-10 Egalax Empia Technology Inc METHOD AND APPARATUS FOR LOCAL ANALYSIS
CN102043526B (zh) * 2009-10-09 2013-11-06 禾瑞亚科技股份有限公司 双差动感测的方法与装置
JP5029732B2 (ja) * 2010-07-09 2012-09-19 カシオ計算機株式会社 演奏装置および電子楽器
JP6025528B2 (ja) 2012-11-29 2016-11-16 三菱電機株式会社 タッチパネル装置
US8987577B2 (en) * 2013-03-15 2015-03-24 Sensitronics, LLC Electronic musical instruments using mouthpieces and FSR sensors
GB201315228D0 (en) * 2013-08-27 2013-10-09 Univ London Queen Mary Control methods for expressive musical performance from a keyboard or key-board-like interface
US9601028B2 (en) * 2014-09-10 2017-03-21 Paul G. Claps Musical instrument training device and method
US9646591B1 (en) * 2015-01-21 2017-05-09 Leroy Daniel Young System, method, and apparatus for determining the fretted positions and note onsets of a stringed musical instrument
JP2016177026A (ja) 2015-03-19 2016-10-06 カシオ計算機株式会社 電子楽器
JP6609949B2 (ja) * 2015-03-19 2019-11-27 カシオ計算機株式会社 電子管楽器
JP6589413B2 (ja) * 2015-06-29 2019-10-16 カシオ計算機株式会社 リード部材、マウスピース及び電子管楽器
JP6676906B2 (ja) 2015-09-16 2020-04-08 カシオ計算機株式会社 電子楽器用リード及び電子楽器
JP6720582B2 (ja) * 2016-03-02 2020-07-08 ヤマハ株式会社 リード
JP6740832B2 (ja) * 2016-09-15 2020-08-19 カシオ計算機株式会社 電子楽器用リード及びその電子楽器用リードを備えた電子楽器
JP6493689B2 (ja) * 2016-09-21 2019-04-03 カシオ計算機株式会社 電子管楽器、楽音生成装置、楽音生成方法、及びプログラム
JP2018054858A (ja) * 2016-09-28 2018-04-05 カシオ計算機株式会社 楽音生成装置、その制御方法、及びプログラム、電子楽器
US10360884B2 (en) * 2017-03-15 2019-07-23 Casio Computer Co., Ltd. Electronic wind instrument, method of controlling electronic wind instrument, and storage medium storing program for electronic wind instrument
JP6825499B2 (ja) * 2017-06-29 2021-02-03 カシオ計算機株式会社 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム
JP6740967B2 (ja) * 2017-06-29 2020-08-19 カシオ計算機株式会社 電子管楽器、電子管楽器の制御方法及び電子管楽器用のプログラム
JP6760222B2 (ja) * 2017-07-13 2020-09-23 カシオ計算機株式会社 検出装置、電子楽器、検出方法及び制御プログラム

Also Published As

Publication number Publication date
CN109256111B (zh) 2023-09-01
EP3428913B1 (en) 2020-05-20
JP2019020504A (ja) 2019-02-07
EP3428913A1 (en) 2019-01-16
CN109256111A (zh) 2019-01-22
US20190019485A1 (en) 2019-01-17
US10468005B2 (en) 2019-11-05

Similar Documents

Publication Publication Date Title
JP6760222B2 (ja) 検出装置、電子楽器、検出方法及び制御プログラム
JP2016177026A (ja) 電子楽器
CN107833570B (zh) 电子乐器用簧片以及电子乐器
JP6825499B2 (ja) 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム
JP5821166B2 (ja) 発音制御装置
JP6589413B2 (ja) リード部材、マウスピース及び電子管楽器
US20210090534A1 (en) Electronic wind instrument, electronic wind instrument controlling method and storage medium which stores program therein
US7902450B2 (en) Method and system for providing pressure-controlled transitions
JP7008941B2 (ja) 検出装置、電子楽器、検出方法及び制御プログラム
CN109559724B (zh) 音阶转换装置、电子管乐器、音阶转换方法和存储介质
JP6923047B2 (ja) 楽音制御装置、電子楽器、楽音制御装置の制御方法、及び楽音制御装置のプログラム
JP6786982B2 (ja) リードを備える電子楽器、その電子楽器の制御方法、及びその電子楽器用のプログラム
JP6724465B2 (ja) 楽音制御装置、電子楽器、楽音制御装置の制御方法、及び楽音制御装置のプログラム
JP2019008122A (ja) 検出装置、電子楽器、検出方法及び制御プログラム
JP7423952B2 (ja) 検出装置、電子楽器、検出方法及びプログラム
JP2022046211A (ja) 電子楽器、電子楽器の制御方法及びプログラム
JP2018045108A (ja) 電子楽器、その電子楽器の制御方法及びその電子楽器用のプログラム
US20210390936A1 (en) Key-switch for a music keyboard
JP2023045357A (ja) 電子楽器、方法及びプログラム
KR101813557B1 (ko) 디지털 음악의 표현적 특성을 개선하는 장치 및 방법
JP2022046851A (ja) 電子楽器、電子楽器の制御方法及びプログラム
JP3785526B2 (ja) 電子楽器
JP2024092801A (ja) マウスピース及び管楽器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200817

R150 Certificate of patent or registration of utility model

Ref document number: 6760222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150