JP5614045B2 - Electronic wind instrument - Google Patents

Electronic wind instrument Download PDF

Info

Publication number
JP5614045B2
JP5614045B2 JP2010015052A JP2010015052A JP5614045B2 JP 5614045 B2 JP5614045 B2 JP 5614045B2 JP 2010015052 A JP2010015052 A JP 2010015052A JP 2010015052 A JP2010015052 A JP 2010015052A JP 5614045 B2 JP5614045 B2 JP 5614045B2
Authority
JP
Japan
Prior art keywords
signal level
pitch
sound
musical tone
wind instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010015052A
Other languages
Japanese (ja)
Other versions
JP2011154151A (en
Inventor
仲江 哲一
哲一 仲江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010015052A priority Critical patent/JP5614045B2/en
Publication of JP2011154151A publication Critical patent/JP2011154151A/en
Application granted granted Critical
Publication of JP5614045B2 publication Critical patent/JP5614045B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、フルートなどを含む横笛に類する形態をとる電子管楽器に関する。   The present invention relates to an electronic wind instrument that takes a form similar to a horizontal flute including a flute.

従来、サックスやクラリネットに類する形態をとる電子管楽器が提案されている。たとえば、特許文献1には、通常の管楽器としても、電子管楽器としても使用可能な楽器が開示されている。特許文献1に開示された電子管楽器は、マウスピースに、光学式のタンギングセンサ、感圧センサであるリップセンサおよびブレス圧を検出するウィンドセンサ(ブレスセンサ)とが設けられている。タンギングセンサは、演奏者の舌が接近したことを検知する。リップセンサは、演奏者の唇がリード部を押さえつけたときの圧力を検知する。また、ウィンドセンサは、演奏者がマウスピース内部に吹き付けた息の圧力(息圧)を検知する。   Conventionally, an electronic wind instrument having a form similar to a saxophone or a clarinet has been proposed. For example, Patent Literature 1 discloses a musical instrument that can be used as an ordinary wind instrument or an electronic wind instrument. In the electronic wind instrument disclosed in Patent Document 1, an optical tongue sensor, a lip sensor that is a pressure-sensitive sensor, and a wind sensor (brace sensor) that detects a breath pressure are provided on a mouthpiece. The tongue sensor detects that the player's tongue is approaching. The lip sensor detects the pressure when the player's lips press the lead portion. The wind sensor detects the pressure of the breath (breath pressure) blown into the mouthpiece by the performer.

特開2008−15551号公報JP 2008-15551 A 特開2007−171477号公報JP 2007-171477 A 特開2007−193100号公報JP 2007-193100 A 特開2009−3077号公報JP 2009-3077 A 特開2009−3112号公報JP 2009-3112 A

横笛の形態を有する管楽器では、複数のキーのパターンが同一であっても異なる音高の楽音を発することができる。電子管楽器において、上記音高の異なる楽音の発生のためにいくつかの提案がなされている。特許文献2、3では、マウスピースにおいて、演奏者の下唇と接触させる部材を有するリッププレートにセンサを設け、センサによる下唇の接触圧を検出して、音高を変化させる電子管楽器が提案されている。また、特許文献4、5では、演奏者の下あごの動作を検出して、音高を変化させる電子管楽器が提案されている。   In a wind instrument having a horizontal flute shape, it is possible to emit musical tones with different pitches even if the patterns of the keys are the same. Several proposals have been made for the generation of musical tones with different pitches in electronic wind instruments. Patent Documents 2 and 3 propose an electronic wind instrument in which a mouthpiece is provided with a sensor on a lip plate having a member that comes into contact with the lower lip of the performer, and the contact pressure of the lower lip is detected by the sensor to change the pitch. Has been. Patent Documents 4 and 5 propose an electronic wind instrument that detects the movement of the player's lower jaw and changes the pitch.

特許文献2、3に記載されたように、リッププレートのセンサにより下唇の接触圧を検出することは、演奏者がフルートのような管楽器に強く下唇を押し当てて、マウスピースの孔部(吹き込み口)の上側に息を吹き当てて、音高の1オクターブアップを行なうことを検出する試みである。しかしながら、唇の形は個人差があり、上記センサの感度などを演奏者ごとに調整する必要があった。また、実際の演奏の際には、演奏者の上体の揺れや楽器をもつ手の揺れなどがあり、接触圧の検出が困難になる場合もあるという問題点があった。同様に、特許文献4、5に提案された下あごの動作の検出についても、演奏者ごとの下あごの形状に合致するように装置を調整する必要があった。   As described in Patent Documents 2 and 3, the contact pressure of the lower lip is detected by the sensor of the lip plate, and the player strongly presses the lower lip against a wind instrument such as a flute, This is an attempt to detect that one octave up of the pitch is performed by blowing on the upper side of the (inlet). However, the shape of the lips varies from person to person, and it is necessary to adjust the sensitivity of the sensor for each player. In actual performance, there is a problem that the player's body shakes and the hand with the instrument shakes, and it may be difficult to detect the contact pressure. Similarly, for the detection of the lower jaw motion proposed in Patent Documents 4 and 5, it is necessary to adjust the apparatus so as to match the shape of the lower jaw for each performer.

本発明は、フルートなど横笛に類する形態を有し、演奏者の下唇など身体の個人差に関わり無く、横笛の固有の演奏形態に応じた適切な音高の楽音を発生することが可能な電子管楽器を提供することを目的とする。   The present invention has a form similar to a flute such as a flute, and can generate a musical tone with an appropriate pitch according to the specific performance form of the flute regardless of individual differences such as the lower lip of the performer. An object is to provide an electronic wind instrument.

本発明の目的は、
長手方向に延びる本体と、
前記本体の中空となっている一端に設けられたマウスピースであって、中空の内部と連通する孔部が設けられたマウスピースと、
前記本体に設けられ、オン状態およびオフ状態の何れかの状態をとる複数の演奏操作子と、
前記本体の中空の内部に配置された、前記孔部から吹き込まれた息による音信号を取得する音信号取得手段と、
所定の音高の楽音の発音を発生する楽音発生手段に対して、前記複数の演奏操作子の操作状態に基づいて発音すべき楽音の基準音高を特定して、特定された基準音高の楽音を発音するように指示を与える制御手段と、
前記音信号取得手段により取得された音信号の周波数特性を取得する周波数特性取得手段を備え、
前記制御手段が、前記周波数特性において、所定の第1の周波数帯域における第1の信号レベルと、前記第1の周波数帯域より低域側の、所定の第2の周波数帯域における第2の信号レベルの比率が、所定以上大きい場合に、前記基準音高より所定量だけ高い音高の楽音を発生するように、前記楽音発生手段に指示を与えることを特徴とする電子管楽器により達成される。
The purpose of the present invention is to
A body extending in the longitudinal direction;
A mouthpiece provided at one end of the main body that is hollow, and a mouthpiece provided with a hole communicating with the hollow interior;
A plurality of performance operators provided on the main body and taking either an on state or an off state;
Sound signal acquisition means for acquiring a sound signal due to the breath blown from the hole, disposed inside the hollow of the main body,
A musical tone generating means for generating a musical tone having a predetermined pitch is specified with reference to the reference pitch of the musical tone to be generated based on the operation state of the plurality of performance operators, and the specified reference pitch is determined. Control means for giving instructions to sound a musical tone;
A frequency characteristic acquisition means for acquiring a frequency characteristic of the sound signal acquired by the sound signal acquisition means;
In the frequency characteristic, the control means has a first signal level in a predetermined first frequency band and a second signal level in a predetermined second frequency band lower than the first frequency band. When the ratio is greater than or equal to a predetermined value, an instruction is given to the musical tone generating means so as to generate a musical tone having a pitch higher than the reference pitch by a predetermined amount.

また、好ましい実施態様においては、前記制御手段が、前記音信号手段により取得された音信号の信号レベルにしたがって、前記楽音の音量を制御する。   In a preferred embodiment, the control means controls the volume of the musical sound according to the signal level of the sound signal acquired by the sound signal means.

より好ましい実施態様においては、前記制御手段が、前記第1の信号レベルおよび前記第2の信号レベルに基づいて、第3の信号レベルを生成し、前記第3の信号レベルにしたがって、前記音量を制御する。   In a more preferred embodiment, the control means generates a third signal level based on the first signal level and the second signal level, and adjusts the volume according to the third signal level. Control.

別の好ましい実施態様においては、前記制御手段が、前記複数の演奏操作子の操作状態に基づく基準音高が、所定の範囲内であるときに、前記周波数特性に基づく音高の判断を行なう。   In another preferred embodiment, the control means determines a pitch based on the frequency characteristic when a reference pitch based on an operation state of the plurality of performance operators is within a predetermined range.

本発明によれば、フルートなど横笛に類する形態を有し、演奏者の下唇など身体の個人差に関わり無く、横笛の固有の演奏形態に応じた適切な音高の楽音を発生することが可能な電子管楽器を提供することが可能となる。   According to the present invention, it has a form similar to a flute such as a flute, and can generate a musical tone with an appropriate pitch according to the specific performance form of the flute regardless of individual differences in the body such as the lower lip of the performer. It is possible to provide a possible electronic wind instrument.

図1は、本発明の実施の形態にかかる電子管楽器の外観を示す図である。FIG. 1 is a diagram showing an external appearance of an electronic wind instrument according to an embodiment of the present invention. 図2は、本実施の形態にかかる電子管楽器のハードウェア構成を示すブロックダイヤグラムである。FIG. 2 is a block diagram showing a hardware configuration of the electronic wind instrument according to the present embodiment. 図3は、本実施の形態にかかる電子管楽器のヘッドジョイントの略縦断面図である。FIG. 3 is a schematic longitudinal sectional view of the head joint of the electronic wind instrument according to the present embodiment. 図4は、本実施の形態にかかる電子管楽器の内部構成を示すブロックダイヤグラムである。FIG. 4 is a block diagram showing the internal configuration of the electronic wind instrument according to the present embodiment. 図5は、本実施の形態にかかる電子管楽器において実行される処理の例を示すフローチャートである。FIG. 5 is a flowchart showing an example of processing executed in the electronic wind instrument according to the present embodiment. 図6は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of the switch processing according to the present embodiment. 図7は、フルートおよびピッコロの運指を示す図である。FIG. 7 is a diagram illustrating fingering of the flute and the piccolo. 図8は、フルートおよびピッコロの運指を示す図である。FIG. 8 is a diagram illustrating fingering of the flute and the piccolo. 図9(a)、(b)は、フルートの管内部に吹き込まれた息による音信号の周波数特性を示す図である。FIGS. 9A and 9B are diagrams showing the frequency characteristics of the sound signal due to the breath blown into the flute tube. 図10は、本実施の形態にかかる周波数特性取得部の例を示すブロックダイヤグラムである。FIG. 10 is a block diagram illustrating an example of the frequency characteristic acquisition unit according to the present embodiment. 図11は、本実施の形態にかかる発音処理の例を示すフローチャートである。FIG. 11 is a flowchart showing an example of sound generation processing according to the present embodiment. 図12は、本実施の形態にかかる発音処理の例を示すフローチャートである。FIG. 12 is a flowchart showing an example of the sound generation process according to the present embodiment. 。図13(a)は、本発明の第2の実施の形態にかかる周波数特性取得部の例を示すブロックダイヤグラム、図13(b)は、帯域通過フィルタの例を示す図である。. FIG. 13A is a block diagram illustrating an example of a frequency characteristic acquisition unit according to the second embodiment of the present invention, and FIG. 13B is a diagram illustrating an example of a bandpass filter. 図14は、第3の実施の形態にかかる電子管楽器のヘッドジョイントの略横断面図である。FIG. 14 is a schematic cross-sectional view of a head joint of an electronic wind instrument according to the third embodiment.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、本発明の実施の形態にかかる電子管楽器の外観を示す図である。図1に示すように、本実施の形態にかかる電子管楽器10は、フルートに類する形態を有しており、中空のヘッドジョイント11、ミドルジョイント12およびフットジョイント13を有する。ヘッドジョイント11の中央部にはリッププレートないしマウスピース(歌口)14が設けられる。本明細書では、これを「マウスピース」と称する。マウスピース14には、中空の内部に貫通した孔部16が設けられている。孔部16と連通したヘッドジョイント11の内部にはマイク34(図1では図示せず)が配置されている。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a diagram showing an external appearance of an electronic wind instrument according to an embodiment of the present invention. As shown in FIG. 1, the electronic wind instrument 10 according to the present embodiment has a form similar to a flute, and includes a hollow head joint 11, a middle joint 12, and a foot joint 13. A lip plate or mouthpiece (singer) 14 is provided at the center of the head joint 11. In the present specification, this is referred to as a “mouthpiece”. The mouthpiece 14 is provided with a hole 16 penetrating through a hollow interior. A microphone 34 (not shown in FIG. 1) is disposed inside the head joint 11 communicating with the hole 16.

演奏者は、マウスピース14に唇を接触させ、孔部16から内部に息を吹き込むことができる。ミドルジョイント12およびフットジョイント13には、複数のキースイッチ部24が設けられ、演奏者は、右手および左手を用いて、これらキースイッチ部24を構成するキースイッチ(たとえば、符号31、32参照)のそれぞれのオン・オフを行なうことができる。   The performer can bring the lips into contact with the mouthpiece 14 and blow into the inside through the hole 16. The middle joint 12 and the foot joint 13 are provided with a plurality of key switch sections 24, and the performer uses the right hand and the left hand to configure the key switches constituting the key switch section 24 (see, for example, reference numerals 31 and 32). Each can be turned on and off.

アコースティック楽器のフルートは、キーのオン・オフにより、実際に、ミドルジョイント或いはフットジョイントに設けられた孔を塞ぎ、或いは、開放して、これにより発生する楽音の音高を調整している。本実施の形態にかかる電子管楽器10においては、キースイッチのオン・オフ状態のパターンであるキースイッチパターンを検出して、キースイッチパターンに基づいてCPU21により音高が決定され、その音高の楽音の楽音データが音源部27において生成される。したがって、キースイッチは、単にオン・オフが検出できれば足りる。   The flute of an acoustic musical instrument actually adjusts the pitch of the musical sound generated by closing or opening a hole provided in the middle joint or foot joint by turning the key on and off. In the electronic wind instrument 10 according to the present embodiment, a key switch pattern that is an on / off state pattern of a key switch is detected, and a pitch is determined by the CPU 21 based on the key switch pattern. Musical tone data is generated in the sound source unit 27. Therefore, the key switch only needs to be able to detect on / off.

図2は、本実施の形態にかかる電子管楽器のハードウェア構成を示すブロックダイヤグラムである。図2に示すように、本実施の形態にかかる電子管楽器10は、CPU21、ROM22、RAM23、キースイッチ部24、周波数特性取得部25およびサウンドシステム26を有している。   FIG. 2 is a block diagram showing a hardware configuration of the electronic wind instrument according to the present embodiment. As shown in FIG. 2, the electronic wind instrument 10 according to the present embodiment includes a CPU 21, a ROM 22, a RAM 23, a key switch unit 24, a frequency characteristic acquisition unit 25, and a sound system 26.

キースイッチ部24は、電子管楽器10のキースイッチ(たとえば、符号31、32参照)を含むが、本実施の形態にかかる電子管楽器10は、キースイッチ部24を構成する複数のキースイッチのほか、音色指定などのための他のスイッチも有する。後述するように、マイク34により得られた、電子管楽器10の管内に吹き込まれた息による音信号に基づき、当該音信号の周波数特性を取得する。   The key switch unit 24 includes a key switch of the electronic wind instrument 10 (see, for example, reference numerals 31 and 32). The electronic wind instrument 10 according to the present embodiment includes a plurality of key switches constituting the key switch unit 24, It also has other switches for timbre designation. As will be described later, based on the sound signal obtained by the microphone 34 and generated by breathing into the tube of the electronic wind instrument 10, the frequency characteristic of the sound signal is acquired.

CPU21は、電子管楽器10全体の制御、キースイッチ部24を構成するキースイッチ(たとえば、符号31、32参照)や他のスイッチの操作の検出、取得された周波数特性およびキースイッチの操作にしたがった楽音データ生成の指示など種々の処理を実行する。   The CPU 21 controls the entire electronic wind instrument 10, detects the operation of key switches (see, for example, reference numerals 31 and 32) constituting the key switch unit 24 and other switches, and follows the acquired frequency characteristics and key switch operations. Various processes such as instructions for generating musical sound data are executed.

ROM22は、キースイッチ部24を構成するキースイッチや他のスイッチの操作の検出、周波数特性およびキースイッチの操作にしたがった楽音データ生成の指示などの処理プログラムを格納する。また、ROM22は、フルート、ピッコロ、サックス、クラリネットなど種々の音色の楽音データを生成するための波形データを記憶する波形データエリアを備えている。本実施の形態においては、ROM22の波形データエリアには、フルートなど主として管楽器の音色の波形データが格納されるが、これに限定されるものではなく、ピアノなど鍵盤楽器、ギターなど弦楽器、打楽器などの音色の波形データが格納されていても良い。   The ROM 22 stores processing programs such as detection of operation of key switches and other switches constituting the key switch section 24, frequency characteristics, and instructions for generating musical sound data in accordance with key switch operations. The ROM 22 also has a waveform data area for storing waveform data for generating musical tone data of various timbres such as flute, piccolo, saxophone, clarinet. In the present embodiment, the waveform data area of the ROM 22 mainly stores the waveform data of timbres of wind instruments such as flutes, but is not limited to this, keyboard instruments such as piano, stringed instruments such as guitar, percussion instruments, etc. May be stored.

RAM23は、ROM22から読み出されたプログラムや、処理の過程で生じたデータを記憶する。処理の過程で生じたデータには、スイッチ部34を構成するキースイッチの操作状態(キースイッチパターン)、周波数特性取得部25により取得された周波数特性データ、電子管楽器における楽音の発音状態を示す発音ステータスなどが含まれる。   The RAM 23 stores a program read from the ROM 22 and data generated in the course of processing. The data generated in the process includes the operation state (key switch pattern) of the key switch constituting the switch unit 34, the frequency characteristic data acquired by the frequency characteristic acquisition unit 25, and the sound generation indicating the sound generation state of the electronic wind instrument. Status etc. are included.

サウンドシステム26は、音源部27、オーディオ回路28およびスピーカ29を備える。音源部27は、CPU21からの指示にしたがって、ROM22の波形データエリアから波形データを読み出して、楽音データを生成して出力する。オーディオ回路28は、音源部27から出力された楽音データをアナログ信号に変換し、変換されたアナログ信号を増幅してスピーカ29に出力する。これによりスピーカ29から音響信号が出力される。   The sound system 26 includes a sound source unit 27, an audio circuit 28, and a speaker 29. The sound source unit 27 reads out waveform data from the waveform data area of the ROM 22 in accordance with an instruction from the CPU 21, and generates and outputs musical sound data. The audio circuit 28 converts the musical sound data output from the sound source unit 27 into an analog signal, amplifies the converted analog signal, and outputs the amplified analog signal to the speaker 29. As a result, an acoustic signal is output from the speaker 29.

キースイッチ部24は、電子管楽器10のミドルジョイント12およびフットジョイント13に配置されたキースイッチ(たとえば、符号31、32参照)を有する。また、図示しないが、本実施の形態にかかる電子管楽器10は、音色指定スイッチなど他のスイッチを含む。キースイッチのそれぞれの操作状態(オン・オフ)により、キースイッチパターンを得ることができる(たとえば、B♭キー:オン、Bキー:オフ、Cキー:オン・・・など)。CPU21は、後述する発音処理において、キースイッチパターンおよび周波数特性データに基づいて、発音すべき音高を特定して、サウンドシステム26の音源部27に対して発音を指示する。   The key switch unit 24 includes key switches (see, for example, reference numerals 31 and 32) disposed at the middle joint 12 and the foot joint 13 of the electronic wind instrument 10. Although not shown, the electronic wind instrument 10 according to the present embodiment includes other switches such as a tone color designation switch. A key switch pattern can be obtained according to each operation state (ON / OFF) of the key switch (for example, B ♭ key: ON, B key: OFF, C key: ON, etc.). In the sound generation process described later, the CPU 21 specifies a pitch to be sounded based on the key switch pattern and the frequency characteristic data, and instructs the sound source unit 27 of the sound system 26 to sound.

周波数特性取得部は、A/D(アナログ/ディジタル)変換部35および周波数分析部36を有する。A/D変換部35にはマイク34が接続され、マイク34からの音信号がディジタル変換され、音データとして周波数分析部36に出力される。周波数分析部36は、後述するように、音データの所定範囲の周波数信号を取得し、かつ、その信号レベルの時系列変化を示すデータを抽出する。   The frequency characteristic acquisition unit includes an A / D (analog / digital) conversion unit 35 and a frequency analysis unit 36. A microphone 34 is connected to the A / D converter 35, and a sound signal from the microphone 34 is digitally converted and output to the frequency analyzer 36 as sound data. As will be described later, the frequency analysis unit 36 acquires a frequency signal in a predetermined range of sound data and extracts data indicating a time-series change in the signal level.

図3は、本実施の形態にかかる電子管楽器のヘッドジョイントの略縦断面図である。図3に示すように、ヘッドジョイト11の孔部16に連通している管内部37において、孔16より、電子管楽器10の長手方向、ミドルジョイントの側の所定位置にマイク34が配置される。マイク34は、孔部16を介して管内部37に吹き込まれる演奏者の息による音信号を取得することができる。   FIG. 3 is a schematic longitudinal sectional view of the head joint of the electronic wind instrument according to the present embodiment. As shown in FIG. 3, a microphone 34 is disposed in a predetermined position on the middle joint side in the longitudinal direction of the electronic wind instrument 10 through the hole 16 in the tube interior 37 communicating with the hole 16 of the head joint 11. . The microphone 34 can acquire a sound signal generated by the player's breath blown into the pipe interior 37 through the hole 16.

図4は、本実施の形態にかかる電子管楽器の内部構成を示すブロックダイヤグラムである。図4に示すように、電子管楽器10は、周波数特性判定部43、キースイッチ状態検出部44および音源処理部45を有する。周波数特性判定部43は、周波数特性取得部25からの周波数特性データを受理し、周波数データに基づき音高決定のための指標値を算出する。キースイッチ部24を構成するキースイッチのそれぞれの操作状態(オン・オフ)を検出し、キースイッチパターンを生成する。   FIG. 4 is a block diagram showing the internal configuration of the electronic wind instrument according to the present embodiment. As shown in FIG. 4, the electronic wind instrument 10 includes a frequency characteristic determination unit 43, a key switch state detection unit 44, and a sound source processing unit 45. The frequency characteristic determination unit 43 receives the frequency characteristic data from the frequency characteristic acquisition unit 25 and calculates an index value for pitch determination based on the frequency data. The operation state (ON / OFF) of each key switch constituting the key switch unit 24 is detected, and a key switch pattern is generated.

音源処理部45は、周波数特性判定部43により算出された指標値と、キースイッチ状態検出部44により得られたキースイッチパターンとに基づいて、所定の音高の楽音データの生成を、サウンドシステム26の音源部27に指示する。周波数特性取得部25により得られた周波数特性データ、周波数特性判定部43により得られた指標値、キースイッチパターン、フィルタ特性を示すデータは、それぞれ、RAM23に格納される。   The sound source processing unit 45 generates musical tone data of a predetermined pitch based on the index value calculated by the frequency characteristic determination unit 43 and the key switch pattern obtained by the key switch state detection unit 44. 26 sound source units 27 are instructed. The frequency characteristic data obtained by the frequency characteristic acquisition unit 25, the index value obtained by the frequency characteristic determination unit 43, the key switch pattern, and the data indicating the filter characteristic are stored in the RAM 23, respectively.

本実施の形態において、周波数特性判定部43、キースイッチ状態検出部44は、主としてCPU21により実現される。音源処理部45は、CPU21およびサウンドシステム26により実現される。   In the present embodiment, the frequency characteristic determination unit 43 and the key switch state detection unit 44 are mainly realized by the CPU 21. The sound source processing unit 45 is realized by the CPU 21 and the sound system 26.

このように構成された電子管楽器10において実行される処理について説明する。図5は、本実施の形態にかかる電子管楽器において実行される処理の例を示すフローチャートである。電子管楽器10のCPU21は、RAM23に一時的に記憶された各種パラメータ、指標値、キースイッチパターンなどのクリアを含むイニシャライズ処理を実行する(ステップ501)。   Processing executed in the thus configured electronic wind instrument 10 will be described. FIG. 5 is a flowchart showing an example of processing executed in the electronic wind instrument according to the present embodiment. The CPU 21 of the electronic wind instrument 10 executes initialization processing including clearing of various parameters, index values, key switch patterns and the like temporarily stored in the RAM 23 (step 501).

次いで、CPU21(キースイッチ状態検出部44)は、スイッチ処理を実行する(ステップ502)。図6は、本実施の形態にかかるスイッチ処理の例を示すフローチャートである。図6に示すように、CPU21は、キースイッチ部24を構成するキースイッチを走査して、各キースイッチの操作状態(オン状態或いはオフ状態)を検出する(ステップ601)。CPU21は、キースイッチパターンを特定して、RAM23に格納する(ステップ602)。その後、CPU21は、前回の処理において特定されRAM23に格納されていたキースイッチパターンと比較して、キースイッチパターンに変化があったかを判断する(ステップ603)。   Next, the CPU 21 (key switch state detection unit 44) executes a switch process (step 502). FIG. 6 is a flowchart illustrating an example of the switch processing according to the present embodiment. As shown in FIG. 6, the CPU 21 scans the key switches constituting the key switch unit 24, and detects the operation state (ON state or OFF state) of each key switch (step 601). The CPU 21 specifies the key switch pattern and stores it in the RAM 23 (step 602). Thereafter, the CPU 21 compares the key switch pattern specified in the previous process and stored in the RAM 23 to determine whether the key switch pattern has changed (step 603).

ステップ603でYesと判断された場合には、CPU21は、キースイッチパターンに基づく楽音の基本音高情報KeyPを特定する(ステップ604)。たとえば、キースイッチパターンごとに発生すべき楽音の音高を対応付けた音高テーブルをROM22に格納しておき、CPU21は、ROM22の音高テーブルを参照して、キースイッチパターンに対応付けられた音高を特定すれば良い。   If it is determined Yes in step 603, the CPU 21 specifies the musical tone basic pitch information KeyP based on the key switch pattern (step 604). For example, a pitch table in which the pitches of musical sounds to be generated for each key switch pattern are associated is stored in the ROM 22, and the CPU 21 refers to the pitch table in the ROM 22 and is associated with the key switch pattern. What is necessary is just to specify a pitch.

図7および図8は、フルートおよびピッコロの運指を示す図である。図7および図8では、フルートおよびピッコロのキーの運指によるパターン(キーパターン)と、キーパターンに対応付けられた音高とが示されている。ピッコロは、D4から開始される(図7の矢印A参照)。また、E4〜C♯5(D♭5)(図7の矢印Bで示す範囲参照)のキーパターンと、E5〜C♯6(D♭6)のキーパターン(図8の矢印Cで示す範囲参照)とは、それぞれ一致している。すなわち、同じキーパターンで、1オクターブ高い音高の楽音を奏でることができる。本実施の形態にかかるキースイッチパターンでは、上記E4〜C♯5(D♭5)(図7の矢印B参照)の運指によるパターンに関しては、E4〜C♯5(D♭5)を基本音高情報として与えるように値を格納しておく。そして、上記キーパターンの場合には、後述する周波数特性データに基づいて、基本音高情報より1オクターブ高い音高の楽音を生成可能としている。   7 and 8 are views showing fingering of the flute and the piccolo. FIGS. 7 and 8 show patterns (key patterns) obtained by fingering of flutes and piccolo keys, and pitches associated with the key patterns. Piccolo starts at D4 (see arrow A in FIG. 7). Also, the key patterns E4 to C # 5 (D ♭ 5) (see the range indicated by the arrow B in FIG. 7) and the key patterns E5 to C # 6 (D ♭ 6) (the range indicated by the arrow C in FIG. 8). (Refer to each other). That is, a musical tone having a pitch one octave higher can be played with the same key pattern. In the key switch pattern according to the present embodiment, E4 to C # 5 (D ♭ 5) is basically used for the fingering pattern of E4 to C # 5 (D ♭ 5) (see arrow B in FIG. 7). A value is stored so as to be given as pitch information. In the case of the key pattern, a musical tone having a pitch one octave higher than the basic pitch information can be generated based on frequency characteristic data described later.

CPU21は、基本音高情報KeyPに関するキーイベントを生成して、当該キーイベントをRAM23に格納する(ステップ605)。なお、本実施の形態においては、音高KeyPとして、MIDI(Musical Instrument Digital Interface)のノートナンバーを使用している。   The CPU 21 generates a key event related to the basic pitch information KeyP and stores the key event in the RAM 23 (step 605). In the present embodiment, MIDI (Musical Instrument Digital Interface) note numbers are used as the pitch KeyP.

ステップ603でNoと判断された場合、或いは、ステップ605が実行された後に、CPU21は他のスイッチ処理(たとえば、音色指定スイッチの操作に応答した処理など)を実行して(ステップ606)、スイッチ処理を終了する。   When it is determined No in step 603 or after step 605 is executed, the CPU 21 executes another switch process (for example, a process in response to the operation of the timbre designation switch) (step 606), and the switch End the process.

スイッチ処理の後、CPU21(周波数特性判定部32)は、周波数特性取得部25からの周波数特性データを得て、周波数特性データに基づく所定の指標値を生成する(ステップ503)。以下、フルートの内部に吹き込まれる息による音信号について説明する。フルートを演奏する際に、演奏者は、マウスピース14の下側に下唇を当て、孔部(吹き込み口)に息を吹き込むことで楽音を発生させる。また、上述したように同一の運指で1オクターブ上の音高の楽音を発生させることもできる。音高を1オクターブ上げるためには、一般に演奏者は以下のように動作する。
(1)吹き込み口の上側に息を吹き付ける。
(2)唇の開きを狭くした状態で息を吹く。
(3)吹き出す息のスピードを高める。
After the switch processing, the CPU 21 (frequency characteristic determination unit 32) obtains frequency characteristic data from the frequency characteristic acquisition unit 25 and generates a predetermined index value based on the frequency characteristic data (step 503). Hereinafter, the sound signal due to the breath blown into the flute will be described. When playing the flute, the performer generates a musical tone by placing the lower lip on the lower side of the mouthpiece 14 and blowing in the hole (inlet). Further, as described above, a musical tone having a pitch one octave higher can be generated with the same fingering. In order to raise the pitch by one octave, the performer generally operates as follows.
(1) Blow your breath above the air inlet.
(2) Breathe in a state where the opening of the lips is narrowed.
(3) Increase the speed of breathing out.

本実施の形態においては、特に(2)、(3)が行なわれた際の、フルートの管内部に生じる現象に着目している。図9(a)、(b)は、フルートの管内部に吹き込まれた息による音信号の周波数特性を示す図である。図9(a)は、音高を1オクターブ上げるために、上記(2)、(3)を意識した状態で演奏者が息を吹き込んだ場合を示す。図9(b)は、通常の音高の楽音を出すために演奏者が息を吹き込んだ状態を示す。図9(b)と比較すると、図9(a)では、高域側、特に、10KHz以上の高周波成分の割合が明らかに大きい。これは、唇の開きを狭くすることにより、小さな隙間を速く空気が動くことによると考えられる。その一方、低域側、特に1KHzより小さな帯域での周波数成分は、図9(a)と図9(b)とではそれほど相違がない。   In the present embodiment, attention is paid to a phenomenon that occurs inside the flute pipe when (2) and (3) are performed. FIGS. 9A and 9B are diagrams showing the frequency characteristics of the sound signal due to the breath blown into the flute tube. FIG. 9 (a) shows a case where the player breathes in with the above (2) and (3) conscious in order to raise the pitch by one octave. FIG. 9 (b) shows a state where the performer has blown in order to produce a normal musical tone. Compared with FIG. 9 (b), in FIG. 9 (a), the ratio of high-frequency components on the high frequency side, particularly 10 KHz or higher, is clearly large. This is thought to be due to the air moving quickly through a small gap by narrowing the opening of the lips. On the other hand, the frequency components in the low band side, particularly in the band smaller than 1 KHz, are not so different between FIG. 9A and FIG. 9B.

そこで、本実施の形態においては、マイク34により取得された音信号に基づいて、10KHz以上の第1の所定帯域(たとえば、12KHz〜13KHz)の周波数成分の時系列変化を示す第1の信号レベル値と、1KHz以下の第2の所定帯域(たとえば、700Hz〜800Hz)の周波数成分の時系列変化を示す第2の信号レベル値とを算出し、これらの比に基づいて、発音すべき楽音の音高を判定する。   Therefore, in the present embodiment, the first signal level indicating the time-series change of the frequency components in the first predetermined band (for example, 12 KHz to 13 KHz) of 10 KHz or more based on the sound signal acquired by the microphone 34. Value and a second signal level value indicating a time-series change of frequency components in a second predetermined band (for example, 700 Hz to 800 Hz) of 1 KHz or less, and based on these ratios, Determine the pitch.

図10は、本実施の形態にかかる周波数特性取得部の例を示すブロックダイヤグラムである。図10に示すように、本実施の形態にかかる周波数特性取得部25は、第1の所定帯域の周波数成分を抽出する第1の所定帯域抽出部51、第1の所定帯域の周波数成分について、その時系列信号の値である第1の信号レベル値En1を出力する第1の信号レベル抽出部生成部52、第2の所定帯域の周波数成分を抽出する第2の所定帯域抽出部53、第2の所定帯域の周波数成分について、その時系列信号の値である第2の信号レベル値En2を出力する第2の信号レベル抽出部54、および、第1の信号レベル値En1および第2の信号レベル値En2を加算して第3の信号レベル値En3を出力する加算演算部55を有する。   FIG. 10 is a block diagram illustrating an example of the frequency characteristic acquisition unit according to the present embodiment. As shown in FIG. 10, the frequency characteristic acquisition unit 25 according to the present embodiment includes a first predetermined band extraction unit 51 that extracts a frequency component of the first predetermined band, and a frequency component of the first predetermined band. The first signal level extraction unit generating unit 52 that outputs the first signal level value En1 that is the value of the time series signal, the second predetermined band extracting unit 53 that extracts the frequency component of the second predetermined band, and the second A second signal level extraction unit 54 that outputs a second signal level value En2 that is the value of the time series signal, and the first signal level value En1 and the second signal level value An addition operation unit 55 that adds En2 and outputs a third signal level value En3 is included.

第1の所定帯域抽出部51および第2の所定帯域抽出部53は、それぞれ、ディジタル帯域通過フィルタにより実現できる。たとえば、第1の信号レベル抽出部52は、第1の所定帯域抽出部51から出力されたフィルタ値の極大値を算出し、極大値を算出した時刻tにおける第1の信号レベル値En1(t)として出力する。また、たとえば、第2の信号レベル抽出部54は、第2の所定帯域抽出部51から出力されたフィルタ値の極大値を算出し、極大値を算出した時刻tにおける第2の信号レベル値En2(t)として出力する。以下、同一の時刻における第1の信号レベル値および第2の信号レベル値を参照するため、時刻tは省略し、単に第1の信号レベル値En1、第2の信号レベル値En2と表す。   Each of the first predetermined band extracting unit 51 and the second predetermined band extracting unit 53 can be realized by a digital band pass filter. For example, the first signal level extraction unit 52 calculates the maximum value of the filter value output from the first predetermined band extraction unit 51, and calculates the first signal level value En1 (t ) Is output. Further, for example, the second signal level extraction unit 54 calculates the maximum value of the filter value output from the second predetermined band extraction unit 51, and the second signal level value En2 at time t when the maximum value is calculated. Output as (t). Hereinafter, since the first signal level value and the second signal level value at the same time are referred to, the time t is omitted, and is simply expressed as the first signal level value En1 and the second signal level value En2.

なお、第1の信号レベル抽出部52および第2の信号レベル抽出部54は、それぞれ、出力されたフィルタ値の包絡線を得て、包絡線上の値を第1の信号レベル値En1、第2の信号レベル値En2として出力しても良い。或いは、第1の信号レベル抽出部52および第2の信号レベル抽出部54は、所定の時間間隔Δtごとに、周波数成分の絶対値のΔtにおける積算値を算出して、得られた積算値を、それぞれ第1の信号レベル値En1、第2の信号レベル値En2として出力しても良い。   The first signal level extraction unit 52 and the second signal level extraction unit 54 obtain envelopes of the output filter values, respectively, and set values on the envelopes as the first signal level value En1 and the second signal level value En1, respectively. The signal level value En2 may be output. Alternatively, the first signal level extraction unit 52 and the second signal level extraction unit 54 calculate the integrated value at Δt of the absolute value of the frequency component for each predetermined time interval Δt, and use the obtained integrated value. These may be output as the first signal level value En1 and the second signal level value En2, respectively.

演奏者による唇の開きや吹き出す息のスピードの変化によって、第1の信号レベル値En1や第2の信号レベル値En2の信号レベルは時系的に変化する。本実施の形態においては、第1の信号レベル値En1の、第2の信号レベル値En2に対する比「En1/En2」が、所定の値(たとえば「2」)以上であるときに、基本音高情報KeyPより1オクターブ高い音高の楽音を発生するようにしている。   The signal levels of the first signal level value En1 and the second signal level value En2 change in a time-series manner as the performer changes the lip opening and breathing speed. In the present embodiment, when the ratio “En1 / En2” of the first signal level value En1 to the second signal level value En2 is equal to or greater than a predetermined value (for example, “2”), the basic pitch is increased. A musical tone having a pitch one octave higher than the information KeyP is generated.

周波数特性取得・判定処理503では、CPU21は、周波数特性取得部25から周波数特性データである第1〜第3の信号レベル値En1〜En3を取得し、指標値として、第1の信号レベル値En1の、第2の信号レベル値En2に対する比を得る。第1の信号レベル値En1〜第3の信号レベル値En3および指標値En1/En2は、RAM23の所定の領域に格納される。   In the frequency characteristic acquisition / determination process 503, the CPU 21 acquires the first to third signal level values En1 to En3, which are frequency characteristic data, from the frequency characteristic acquisition unit 25, and uses the first signal level value En1 as an index value. Is obtained with respect to the second signal level value En2. The first signal level value En1 to the third signal level value En3 and the index value En1 / En2 are stored in a predetermined area of the RAM 23.

周波数特性取得・判定処理(ステップ503)が終了すると、CPU21は、発音処理を実行する(ステップ504)。図11および図12は、本実施の形態にかかる発音処理の例を示すフローチャートである。図11に示すように、CPU21(発音処理部45)は、RAM23を参照して、キーイベントが存在するかを判断する(ステップ1101)。ステップ1101でYesと判断された場合には、CPU21は、RAM23中に格納された第3の信号レベル値En3を参照して、第3の信号レベル値En3が所定の閾値Eth以上であるかを判断する(ステップ1102)。ステップ1102でNoと判断された場合には発音処理が終了される。   When the frequency characteristic acquisition / determination process (step 503) ends, the CPU 21 executes a sound generation process (step 504). 11 and 12 are flowcharts showing an example of the sound generation process according to the present embodiment. As shown in FIG. 11, the CPU 21 (the sound generation processing unit 45) refers to the RAM 23 and determines whether there is a key event (step 1101). If it is determined Yes in step 1101, the CPU 21 refers to the third signal level value En3 stored in the RAM 23 and determines whether the third signal level value En3 is equal to or greater than a predetermined threshold value Eth. Judgment is made (step 1102). If NO in step 1102, the sound generation process is terminated.

ステップ1102でYesと判断された場合には、CPU21は、基本音高情報KeyPが、E4以上C♯5以下の範囲(E4≦KeyP≦C♯5)であるかを判断する(ステップ1103)。ステップ1103でYesと判断された場合には、CPU21(周波数特性判定部43)は、さらに、RAM23中に格納された指標値En1/En2が、「2」以上であるかを判断する(ステップ1104)。   If it is determined Yes in step 1102, the CPU 21 determines whether the basic pitch information KeyP is in the range of E4 to C # 5 (E4 ≦ KeyP ≦ C # 5) (step 1103). When it is determined Yes in step 1103, the CPU 21 (frequency characteristic determination unit 43) further determines whether or not the index value En1 / En2 stored in the RAM 23 is “2” or more (step 1104). ).

ステップ1103でNo、或いは、ステップ1104でNoと判断された場合には、CPU21は、音高KeyPの楽音を、第3の信号レベル値En3に基づく音量レベルで発音するように、サウンドシステム26の音源部27に指示する(ステップ1105)。音源部27は、指示にしたがって、ROM22から音高KeyPに応じて波形データを読み出して、第3の信号レベル値En3に基づく音量レベルを乗じて楽音データを生成して、オーディオ回路28に出力する。その後、CPU21は、RAM23中のオクターブフラグOctを「0」にリセットする(ステップ1106)。   If NO in step 1103 or NO in step 1104, the CPU 21 causes the sound system 26 to sound a musical tone having a pitch KeyP at a volume level based on the third signal level value En3. The sound source unit 27 is instructed (step 1105). The sound source unit 27 reads out waveform data from the ROM 22 according to the pitch KeyP according to the instruction, multiplies the volume level based on the third signal level value En3, generates musical sound data, and outputs it to the audio circuit 28. . Thereafter, the CPU 21 resets the octave flag Oct in the RAM 23 to “0” (step 1106).

その一方、ステップ1104でYesと判断された場合には、CPU21は、音高(KeyP+12)の楽音、つまり、キースイッチパターンに基づいて特定された基本音高情報KeyPより1オクターブ高い音高の楽音を、第3の信号レベル値En3に基づく音量レベルで発音するように、サウンドシステム26の音源部27に指示する(ステップ1107)。音源部27は、指示にしたがって、ROM22から音高(KeyP+12)に応じて波形データを読み出して、第3の信号レベル値En3に基づく音量レベルを乗じて楽音データを生成し、オーディオ回路に出力する。その後、CPU21は、RAM23中のオクターブフラグOctを「1」にセットする(ステップ1108)。   On the other hand, if it is determined Yes in step 1104, the CPU 21 has a pitch (KeyP + 12) tone, that is, a tone having a pitch one octave higher than the basic pitch information KeyP specified based on the key switch pattern. Is sounded to the sound source unit 27 of the sound system 26 to sound at a volume level based on the third signal level value En3 (step 1107). In accordance with the instruction, the tone generator 27 reads waveform data from the ROM 22 according to the pitch (KeyP + 12), multiplies the volume level based on the third signal level value En3, generates musical sound data, and outputs it to the audio circuit. . Thereafter, the CPU 21 sets the octave flag Oct in the RAM 23 to “1” (step 1108).

このように、本実施の形態においては、高域側である第1の所定帯域の周波数成分に基づく第1の信号レベル値En1の、低域側である第2の所定帯域の周波数成分に基づく第2の信号レベル値En2対する比が所定値以上である場合に、演奏者の運指によるキースイッチパターンにより特定される音高の、1オクターブ上の音高の楽音が発音される。これにより、演奏者が、唇の開きを狭くした状態で息を吹き、また、吹き出す息のスピードを高めている状況を適切に判断し、所望の音高の楽音を発生させることが可能となる。   Thus, in the present embodiment, the first signal level value En1 based on the frequency component of the first predetermined band on the high frequency side is based on the frequency component of the second predetermined band on the low frequency side. When the ratio to the second signal level value En2 is equal to or greater than a predetermined value, a musical tone having a pitch one octave higher than the pitch specified by the key switch pattern by the fingering of the performer is generated. As a result, it is possible for the performer to appropriately determine the situation in which the player blows in a state where the opening of the lips is narrowed and increases the speed of the breath to be blown out, and can generate a musical tone having a desired pitch. .

ステップ1106或いは1108が実行された後、CPU21は、発音ステータスを「発音中」に設定して、RAM23に格納する(ステップ1109)とともに、音量データとして第3の信号レベル値En3をRAM23に格納する(ステップ1110)。その後、CPU21は、RAM23中のキーイベントをクリアする(ステップ1111)。   After step 1106 or 1108 is executed, the CPU 21 sets the sound generation status to “sounding” and stores it in the RAM 23 (step 1109) and also stores the third signal level value En3 as volume data in the RAM 23. (Step 1110). Thereafter, the CPU 21 clears the key event in the RAM 23 (step 1111).

ステップ1101でNoと判断された場合には、CPU21は、RAM23中の発音ステータスが「発音中」であるかを判断する(ステップ1201)。ステップ1201でNoと判断された場合には、CPU21は、第3の信号レベル値En3が所定の閾値Eth以上であるかを判断する(ステップ1202)。   When it is determined No in step 1101, the CPU 21 determines whether the sound generation status in the RAM 23 is “sounding” (step 1201). When it is determined No in step 1201, the CPU 21 determines whether the third signal level value En3 is equal to or greater than a predetermined threshold value Eth (step 1202).

演奏者により何れかのキースイッチがオンされ、楽音が発音されていた状態で、演奏者がマウスピース14の孔部16への息の吹き込みを中止すると、ステップ1201、1204を経て、消音処理(ステップ1205)が実行され、発音ステータスが「消音中」となる。   When the performer stops breathing into the hole 16 of the mouthpiece 14 in a state where any key switch is turned on by the performer and a musical tone is being generated, the sound is silenced through steps 1201 and 1204. Step 1205) is executed, and the sound generation status becomes “mute”.

ステップ1202でYesと判断されたことは、発音ステータスが消音中である状態で、演奏者がキースイッチをオン状態で維持しつつ、新たにマウスピース14の孔部16への息を吹き込んだ場合に相当する。この場合には、CPU21は、再度、RAM23に格納された音高KeyPを取得して(ステップ1203)、ステップ1103に進む。   In step 1202, “Yes” is determined when the player breathes into the hole 16 of the mouthpiece 14 while the sound generation status is muted and the player keeps the key switch on. It corresponds to. In this case, the CPU 21 acquires the pitch KeyP stored in the RAM 23 again (step 1203), and proceeds to step 1103.

ステップ1201でYesと判断された場合には、CPU21は、第3の信号レベル値En3が所定の閾値Eth以上であるかを判断する(ステップ1204)。ステップ1204でNo、つまり、第3の信号レベル値En3が閾値Ethより小さい場合には、CPU21は、楽音の消音を音源部27に指示する(ステップ1205)。音源部27は、発音中の楽音データに、所定のリリースエンベロープを乗じて、楽音を消音させる。また、ステップ1205において、CPU21は、RAM23中の発音ステータスを「消音中」とする。   If it is determined Yes in step 1201, the CPU 21 determines whether the third signal level value En3 is equal to or greater than a predetermined threshold Eth (step 1204). If NO in step 1204, that is, if the third signal level value En3 is smaller than the threshold value Eth, the CPU 21 instructs the sound source unit 27 to mute the musical sound (step 1205). The sound source unit 27 multiplies the musical sound data being generated by a predetermined release envelope to mute the musical sound. In step 1205, the CPU 21 sets the sound generation status in the RAM 23 to “mute”.

ステップ1204でYesと判断された場合には、CPU21は、基本音高情報KeyPが、E4以上C♯5以下の範囲(E4≦KeyP≦C♯5)であるかを判断する(ステップ1206)。ステップ1206でYesと判断された場合には、CPU21は、RAM23中に格納された指標値En1/En2が、「2」以上であるかを判断する(ステップ1207)。   If it is determined Yes in step 1204, the CPU 21 determines whether or not the basic pitch information KeyP is in the range of E4 to C # 5 (E4 ≦ KeyP ≦ C # 5) (step 1206). When it is determined Yes in step 1206, the CPU 21 determines whether or not the index value En1 / En2 stored in the RAM 23 is “2” or more (step 1207).

ステップ1207でYesと判断された場合には、CPU21は、RAM23に格納されたオクターブフラグOctが「0」であるかを判断する(ステップ1208)。ステップ1208でYesと判断された場合には、CPU21は、音高(KeyP+12)の楽音、すなわち、現在発音中の楽音の音高より1オクターブ高い音高の楽音を、第3の信号レベル値En3に基づく音量レベルで発音するように、サウンドシステム26の音源部27に指示する(ステップ1209)。音源部27は、指示にしたがって、現在発音中の音高KeyPの楽音を高速に消音するとともに、ROM22から音高(KeyP+12)に応じて波形データを読み出して、第3の信号レベル値En3に基づく音量レベルを乗じて楽音データを生成し、オーディオ回路28に出力する。   If it is determined Yes in step 1207, the CPU 21 determines whether or not the octave flag Oct stored in the RAM 23 is “0” (step 1208). If it is determined Yes in step 1208, the CPU 21 converts the musical tone having the pitch (KeyP + 12), that is, the musical tone having a pitch one octave higher than the pitch of the musical tone currently being generated, to the third signal level value En3. The sound source unit 27 of the sound system 26 is instructed to generate a sound at a volume level based on (step 1209). In accordance with the instruction, the sound source unit 27 mutes the musical tone of the pitch KeyP that is currently sounding at a high speed, reads out waveform data from the ROM 22 according to the pitch (KeyP + 12), and based on the third signal level value En3. Musical sound data is generated by multiplying the volume level and output to the audio circuit 28.

その後、CPU21は、RAM23中のオクターブフラグOctを「1」にセットする(ステップ1210)。次いで、CPU21は、音量データとして第3の信号レベル値En3をRAM23に格納する(ステップ1211)。   Thereafter, the CPU 21 sets the octave flag Oct in the RAM 23 to “1” (step 1210). Next, the CPU 21 stores the third signal level value En3 as volume data in the RAM 23 (step 1211).

ステップ1207および1208でYesと判断された場合は、音高KeyPの楽音を発音中に、演奏者が、唇の開きを狭くした状態で、吹き出す息のスピードを高めて息を吹き込んだ場合に相当する。この場合には、発音される楽音の音高が、基本音高情報KeyPの1オクターブ上に変更される。   If “Yes” is determined in steps 1207 and 1208, it corresponds to the case where the performer blows in with the speed of the breath to be blown out while the lip opening is narrowed while the musical tone having the pitch KeyP is being generated. To do. In this case, the pitch of the tone to be generated is changed to one octave above the basic pitch information KeyP.

ステップ1207でNoと判断された場合には、オクターブフラグOctが「1」であるかを判断する(ステップ1213)。ステップ1213でYesと判断された場合には、CPU21は、音高(KeyP)の楽音、すなわち、現在発音中の楽音の音高(KeyP+12)より1オクターブ低い音高の楽音を、第3の信号レベル値En3に基づく音量レベルで発音するように、サウンドシステム26の音源部27に指示する(ステップ1214)。音源部27は、指示にしたがって、現在発音中の音高(KeyP+12)の楽音を高速に消音するとともに、ROM22から音高(KeyP)に応じて波形データを読み出して、第3の信号レベル値En3に基づく音量レベルを乗じて楽音データを生成し、オーディオ回路28に出力する。   If it is determined No in step 1207, it is determined whether the octave flag Oct is “1” (step 1213). If it is determined Yes in step 1213, the CPU 21 outputs a musical tone having a pitch (KeyP), that is, a musical tone having a pitch one octave lower than the pitch of the musical tone being currently generated (KeyP + 12). The sound source unit 27 of the sound system 26 is instructed to sound at a volume level based on the level value En3 (step 1214). In accordance with the instruction, the sound source unit 27 silences the musical tone having the pitch (KeyP + 12) that is currently sounding at a high speed, reads out waveform data from the ROM 22 according to the pitch (KeyP), and outputs the third signal level value En3. The musical sound data is generated by multiplying the volume level based on the above and output to the audio circuit 28.

その後、CPU21は、RAM23中のオクターブフラグOctを「0」にセットする(ステップ1215)。次いで、CPU21は、音量データとして、第3の信号レベル値En3をRAM23に格納する(ステップ1211)。   Thereafter, the CPU 21 sets the octave flag Oct in the RAM 23 to “0” (step 1215). Next, the CPU 21 stores the third signal level value En3 in the RAM 23 as volume data (step 1211).

ステップ1207でNo、かつ、1213でYesと判断された場合は、音高(KeyP+12)の楽音を発音中に、演奏者が、唇の開きを大きくして吹き出す息のスピードを低くして、息を吹き込んだ場合に相当する。この場合には、発音される楽音の音高が、基本音高情報(KeyP)、つまり、(KeyP+12)の1オクターブ下に変更される。   If No in Step 1207 and Yes in 1213, while the musical tone of the pitch (KeyP + 12) is being sounded, the performer reduces the speed of the breath to be blown out with a wide lip opening. This is equivalent to blowing in. In this case, the pitch of the tone to be generated is changed to one octave below the basic pitch information (KeyP), that is, (KeyP + 12).

ステップ1206でNoと判断された場合、ステップ1208でNoと判断された場合、或いは、ステップ1213でNoと判断された場合には、CPU21は、現在発音中の楽音について、その音量を、第3の信号レベル値En3とするように音源部27に指示する(ステップ1212)。音源部27は、指示にしたがって、現在発音中の楽音の音高は変更せず、音量レベルのみを第3の信号レベル値En3に基づくような楽音データを生成して、ディジタルフィルタ28に出力する。その後、CPU21は、音量データとして第3の信号レベル値En3をRAM23に格納する(ステップ1211)。   If it is determined No in step 1206, if it is determined No in step 1208, or if it is determined No in step 1213, the CPU 21 sets the volume of the tone currently being sounded to the third volume. Is instructed to the signal level value En3 (step 1212). In accordance with the instruction, the tone generator 27 does not change the pitch of the currently sounding tone, generates tone data in which only the volume level is based on the third signal level value En3, and outputs the tone data to the digital filter 28. . Thereafter, the CPU 21 stores the third signal level value En3 as volume data in the RAM 23 (step 1211).

発音処理(ステップ504)の後、CPU21は、他の処理を実行して(ステップ505)、ステップ502に戻る。   After the sound generation process (step 504), the CPU 21 executes another process (step 505) and returns to step 502.

本実施の形態においては、CPU21は、キースイッチの各々の操作状態を示すキースイッチパターンに基づいて、発音すべき楽音の基本音高情報KeyPを特定する。また、周波数特性取得部25は、電子管楽器10の中空の本体に内部に配置されたマイク34により取得された音信号の周波数特性を取得する。CPU21は、周波数特性取得部25において取得された周波数特性に基づいて、キースイッチパターンに基づく基本音高情報より所定量(たとえば1オクターブ)高い音高の楽音を発生させるべく、音源部27を制御する。これにより、演奏者は、電子管楽器10のマウスピース14内に吹き込む際の唇に開き具合および息の吹き込むスピードを変更することで、楽音の音高を変化させることができる。特に、本実施の形態では、接触式のセンサを用いていないため、接触部を演奏者ごとに調整する必要が無い。   In the present embodiment, the CPU 21 specifies the basic pitch information KeyP of the musical tone to be generated based on the key switch pattern indicating the operation state of each key switch. The frequency characteristic acquisition unit 25 acquires the frequency characteristic of the sound signal acquired by the microphone 34 disposed inside the hollow main body of the electronic wind instrument 10. Based on the frequency characteristic acquired by the frequency characteristic acquisition unit 25, the CPU 21 controls the sound source unit 27 to generate a musical tone having a pitch higher than the basic pitch information based on the key switch pattern by a predetermined amount (for example, one octave). To do. Thus, the performer can change the pitch of the musical tone by changing the opening degree and the speed at which the breath is blown into the lips when blowing into the mouthpiece 14 of the electronic wind instrument 10. In particular, in this embodiment, since a contact type sensor is not used, it is not necessary to adjust the contact portion for each player.

特に、本実施の形態においては、CPU21は、所定の第1の周波数帯域(10KHz以上の帯域、たとえば、12KHz〜13KHz)における第1の信号レベルEn1が、第1の周波数帯域より低域側の、所定の第2の周波数帯域(1KHz以下の帯域、たとえば、700Hz〜800Hz)における第2の信号レベルEn1より、所定の比率以上大きい(たとえば、En1/En2≧2)場合に、基本音高情報より所定量だけ高い音高の楽音を発生させるべく音源部27を制御する。いわゆるオクターブアップさせるときのフルートの奏法において、演奏者は、唇の開きを狭くした状態で息を吹き、また、吹き出す息のスピードを高めている。この場合に、管内部に吹き込まれた息による音信号では、低域側の所定帯域の周波数成分の信号レベルは、通常の奏法のときと変化しないにもかかわらず、高域側の所定帯域の周波数成分の信号レベルは、通常の奏法のときと比較して相当量増大する。そこで、本実施の形態では、この高域側の所定帯域の周波数レベルの増大を検出することで、演奏者が音高を変化させようとする動作を適切に検出する。   In particular, in the present embodiment, the CPU 21 determines that the first signal level En1 in a predetermined first frequency band (10 KHz or higher band, for example, 12 KHz to 13 KHz) is lower than the first frequency band. Basic pitch information when a predetermined ratio is larger than a second signal level En1 in a predetermined second frequency band (band of 1 KHz or less, for example, 700 Hz to 800 Hz) (for example, En1 / En2 ≧ 2). The sound source unit 27 is controlled to generate a musical tone having a pitch higher by a predetermined amount. In the so-called octave-up flute method, the performer blows with the lip opening narrowed, and increases the speed of the blow-out breath. In this case, in the sound signal due to the breath blown into the tube, the signal level of the frequency component of the predetermined band on the low band side does not change from that in the normal performance, but the predetermined band on the high band side. The signal level of the frequency component is increased by a considerable amount compared to the normal performance style. Therefore, in the present embodiment, by detecting an increase in the frequency level of the predetermined band on the high frequency side, the player's action to change the pitch is appropriately detected.

また、本実施の形態においては、CPU21は、取得された音信号の信号レベルにしたがって、発音すべき楽音の音量を制御する。したがって、別途、息圧センサなどを設けることなく、演奏者の管内部に吹き込む息の量にしたがった音量で楽音を発音させることができる。   In the present embodiment, the CPU 21 controls the volume of the musical sound to be generated according to the signal level of the acquired sound signal. Therefore, a musical sound can be generated at a volume according to the amount of breath that is blown into the performer's tube without separately providing a breath pressure sensor.

特に、本実施の形態においては、CPU21は、第1の信号レベルEn1および第2の信号レベルEn2に基づいて、第3の信号レベルEn3を生成し、第3の信号レベルEn3にしたがって音量を制御する。これにより、ノイズの影響を排除して、所望の音量で楽音を発音させることが可能となる。   In particular, in the present embodiment, the CPU 21 generates the third signal level En3 based on the first signal level En1 and the second signal level En2, and controls the volume according to the third signal level En3. To do. As a result, it is possible to generate a musical sound with a desired volume while eliminating the influence of noise.

また、前記実施の形態においては、CPU21は、キースイッチパターンに基づく基本音高情報が、所定の範囲内であるときに、周波数特性に基づく音高の判断を行なう。フルートにおいては、E4〜C♯5の音高のキーパターン(運指)が、それぞれ、E5〜C♯6と同一である。したがって、CPU21は、たとえば、キースイッチパターンに基づく基本音高情報が、E4〜C♯5であるときに、音高の変化の必要性を、周波数特性に基づいて判断する。これにより、演奏者は、フルートなどの管楽器と同様の運指で、かつ、同様の息の吹き込み具合で所望の音高の楽音で演奏することが可能となる。   In the embodiment, the CPU 21 determines the pitch based on the frequency characteristics when the basic pitch information based on the key switch pattern is within a predetermined range. In the flute, the key patterns (fingering) of the pitches E4 to C # 5 are the same as those of E5 to C # 6, respectively. Therefore, for example, when the basic pitch information based on the key switch pattern is E4 to C # 5, the CPU 21 determines the necessity of pitch change based on the frequency characteristics. Thus, the performer can perform with a fingering similar to that of a wind instrument such as a flute and a musical tone having a desired pitch with the same breathing condition.

本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.

たとえば、第1の実施の形態においては、マイク34により取得された音信号を、A/D変換器35においてディジタル信号に変換し、変換されたディジタルデータから、第1の所定帯域の周波数成分、および、第2の所定帯域の周波数成分を抽出している。しかしこれに限定されるものではない。図13(a)は、本発明の第2の実施の形態にかかる周波数特性取得部の例を示すブロックダイヤグラムである。図13(a)に示すように、第2の実施の形態にかかる周波数特性取得部125は、第1の所定帯域通過フィルタ151および第2の所定帯域通過フィルタ153を有する周波数分析部136およびA/D変換部135を有する。第1の所定帯域は、たとえば、12KHz〜13KHz、第2の所定帯域は、たとえば、700Hz〜800Hzであり、第1の実施の形態と同様で良い。   For example, in the first embodiment, the sound signal acquired by the microphone 34 is converted into a digital signal by the A / D converter 35, and the frequency component of the first predetermined band is converted from the converted digital data, And the frequency component of the 2nd predetermined band is extracted. However, the present invention is not limited to this. FIG. 13A is a block diagram illustrating an example of a frequency characteristic acquisition unit according to the second embodiment of the present invention. As shown in FIG. 13A, the frequency characteristic acquisition unit 125 according to the second embodiment includes a frequency analysis unit 136 and an A having a first predetermined bandpass filter 151 and a second predetermined bandpass filter 153. A / D conversion unit 135 is included. The first predetermined band is, for example, 12 KHz to 13 KHz, and the second predetermined band is, for example, 700 Hz to 800 Hz, and may be the same as in the first embodiment.

図13(b)は、帯域通過フィルタの例を示す図である。図13(b)に示すように、帯域通過フィルタは、第1のキャパシタ101および第1のコイル102により構成される低域周波数遮断フィルタ100と、第2のキャパシタ111および第2のコイル112により構成される高域周波数遮断フィルタ110と、整流器121とを有する。低域周波数遮断フィルタ100において、第1のキャパシタ101および第1のコイル112の定数を適当に調整することによって、所望の低域遮断周波数とすることができ、また、高域周波数遮断フィルタ110において、第2のキャパシタ111および第2のコイル112を調整することによって、所望の高域遮断周波数とすることができる。また、整流器121によって、所定帯域の周波数成分の絶対値に相当する信号が出力される。   FIG. 13B is a diagram illustrating an example of a band pass filter. As shown in FIG. 13B, the band pass filter includes a low-frequency cut-off filter 100 including a first capacitor 101 and a first coil 102, a second capacitor 111, and a second coil 112. A high-frequency cutoff filter 110 configured and a rectifier 121 are included. In the low-frequency cutoff filter 100, the constants of the first capacitor 101 and the first coil 112 are appropriately adjusted to obtain a desired low-frequency cutoff frequency. In the high-frequency cutoff filter 110, By adjusting the second capacitor 111 and the second coil 112, a desired high frequency cutoff frequency can be obtained. The rectifier 121 outputs a signal corresponding to the absolute value of the frequency component in the predetermined band.

第2の実施の形態においては、A/D変換器135からのデータに基づいて、CPU21が、第1の信号レベル値En1および第2の信号レベル値En2を生成し、かつ、これらを加算することにより第3の信号レベル値En3を生成する。第2の実施の形態では、簡便なアナログフィルタを用いて、第1の所定帯域の周波数成分および第2の所定帯域の周波数成分を得ることができる。   In the second embodiment, the CPU 21 generates the first signal level value En1 and the second signal level value En2 based on the data from the A / D converter 135, and adds them. Thus, the third signal level value En3 is generated. In the second embodiment, the frequency component of the first predetermined band and the frequency component of the second predetermined band can be obtained using a simple analog filter.

また、上記第1の実施の形態においては、第1の信号レベル値En1と第2の信号レベル値En2とを加算して得た第3の信号レベル値En3を音量情報として、楽音を発音させているがこれに限定されるものではない。たとえば、図2において、A/D変換部35から出力された音データの信号レベル値(たとえば、極大値)を取得して、これを、第3の信号レベル値としても良い。   In the first embodiment, a musical tone is generated using the third signal level value En3 obtained by adding the first signal level value En1 and the second signal level value En2 as volume information. However, it is not limited to this. For example, in FIG. 2, a signal level value (for example, a maximum value) of sound data output from the A / D conversion unit 35 may be acquired and used as the third signal level value.

さらに、A/D変換器35から出力された音データ以外の信号に基づいて、第3の信号レベル値を取得しても良い。図14は、第3の実施の形態にかかる電子管楽器のヘッドジョイントの略横断面図である。図14に示すように、孔部16の長手方向の一方の端面に、半径方向にブレスセンサ141が配置されている。孔部16の端面は、演奏者の唇(図14において符号Lで示す)に対向する面であり、唇から吹き出された息(矢印参照)がブレスセンサ141の表面に当たるようになっている。ブレスセンサ141は、ヘッドジョイント11の本体を形成するリング部材140の上側に取り付けられたマウスピース14の端面およびリング部材140端面上に、リング部材140の半径方向に沿って取り付けられる。第3の実施の形態においては、ブレスセンサ141が、演奏者の吹き込む息の息圧を検出し、息圧に基づくセンサ値BSを第3の信号レベル値として利用する。   Further, the third signal level value may be acquired based on a signal other than the sound data output from the A / D converter 35. FIG. 14 is a schematic cross-sectional view of a head joint of an electronic wind instrument according to the third embodiment. As shown in FIG. 14, a breath sensor 141 is arranged in the radial direction on one end face in the longitudinal direction of the hole 16. The end surface of the hole 16 is a surface facing the performer's lips (indicated by symbol L in FIG. 14) so that the breath (see arrow) blown from the lips hits the surface of the breath sensor 141. The breath sensor 141 is attached along the radial direction of the ring member 140 on the end surface of the mouthpiece 14 attached to the upper side of the ring member 140 forming the main body of the head joint 11 and on the end surface of the ring member 140. In the third embodiment, the breath sensor 141 detects the breath pressure of the player's breath and uses the sensor value BS based on the breath pressure as the third signal level value.

また、前記実施の形態においては、周波数特性データに基づいて、所定量だけ高い音高として、1オクターブ高い楽音を発生させているが、所定量は1オクターブに限定されるものではない。   In the above embodiment, a musical tone that is one octave higher is generated as a pitch higher by a predetermined amount based on the frequency characteristic data. However, the predetermined amount is not limited to one octave.

また、本実施の形態においては、高域側の第1の周波数帯域として、10KHz以上の帯域、特に、12KHz〜13KHzを採用し、低域側の第2の周波数帯域として、1KHz以下の帯域、特に、700Hz〜800Hzの周波数成分をそれぞれ取得している。しかしながら、周波数帯域は上述したものが望ましいが、これらに限定されるものではない。さらに、第1の信号レベル値En1の、第2の信号レベル値En2に対する比「En1/En2」が「2」より大きいときに、基本音高情報の1オクターブ高い音高の楽音を発生させるように構成しているが、音高の変化を判断する際の比の値は上述したものに限定されない。   Further, in the present embodiment, a band of 10 KHz or more, particularly 12 KHz to 13 KHz is adopted as the first frequency band on the high band side, and a band of 1 KHz or less as the second frequency band on the low band side, In particular, frequency components of 700 Hz to 800 Hz are acquired. However, the frequency band described above is desirable, but is not limited thereto. Further, when the ratio “En1 / En2” of the first signal level value En1 to the second signal level value En2 is larger than “2”, a musical tone having a pitch one octave higher than the basic pitch information is generated. However, the ratio value for determining the change in pitch is not limited to that described above.

10 電子管楽器
11 ヘッドジョイント
12 ミドルジョイント
13 フットジョイント
14 マウスピース
21 CPU
22 ROM
23 RAM
24 スイッチ部
25 周波数特性取得部
26 サウンドシステム
27 音源部
28 オーディオ回路
30 スピーカ
31、32 キースイッチ
34 マイク
35 A/D変換部
36 周波数分析部
10 Electronic Wind Instrument 11 Head Joint 12 Middle Joint 13 Foot Joint 14 Mouthpiece 21 CPU
22 ROM
23 RAM
24 switch unit 25 frequency characteristic acquisition unit 26 sound system 27 sound source unit 28 audio circuit 30 speaker 31, 32 key switch 34 microphone 35 A / D conversion unit 36 frequency analysis unit

Claims (4)

長手方向に延びる本体と、
前記本体の中空となっている一端に設けられたマウスピースであって、中空の内部と連通する孔部が設けられたマウスピースと、
前記本体に設けられ、オン状態およびオフ状態の何れかの状態をとる複数の演奏操作子と、
前記本体の中空の内部に配置された、前記孔部から吹き込まれた息による音信号を取得する音信号取得手段と、
所定の音高の楽音の発音を発生する楽音発生手段に対して、前記複数の演奏操作子の操作状態に基づいて発音すべき楽音の基準音高を特定して、特定された基準音高の楽音を発音するように指示を与える制御手段と、
前記音信号取得手段により取得された音信号の周波数特性を取得する周波数特性取得手段を備え、
前記制御手段が、前記周波数特性において、所定の第1の周波数帯域における第1の信号レベルと、前記第1の周波数帯域より低域側の、所定の第2の周波数帯域における第2の信号レベルの比率が、所定以上大きい場合に、前記基準音高より所定量だけ高い音高の楽音を発生するように、前記楽音発生手段に指示を与えることを特徴とする電子管楽器。
A body extending in the longitudinal direction;
A mouthpiece provided at one end of the main body that is hollow, and a mouthpiece provided with a hole communicating with the hollow interior;
A plurality of performance operators provided on the main body and taking either an on state or an off state;
Sound signal acquisition means for acquiring a sound signal due to the breath blown from the hole, disposed inside the hollow of the main body,
A musical tone generating means for generating a musical tone having a predetermined pitch is specified with reference to the reference pitch of the musical tone to be generated based on the operation state of the plurality of performance operators, and the specified reference pitch is determined. Control means for giving instructions to sound a musical tone;
A frequency characteristic acquisition means for acquiring a frequency characteristic of the sound signal acquired by the sound signal acquisition means;
In the frequency characteristic, the control means has a first signal level in a predetermined first frequency band and a second signal level in a predetermined second frequency band lower than the first frequency band. An electronic wind instrument characterized by instructing the musical tone generating means to generate a musical tone having a pitch higher than the reference pitch by a predetermined amount when the ratio is greater than a predetermined value.
前記制御手段が、前記取得された音信号の信号レベルにしたがって、前記楽音の音量を制御することを特徴とする請求項1に記載の電子管楽器。   The electronic wind instrument according to claim 1, wherein the control means controls the volume of the musical sound in accordance with a signal level of the acquired sound signal. 前記制御手段が、前記第1の信号レベルおよび前記第2の信号レベルに基づいて、第3の信号レベルを生成し、前記第3の信号レベルにしたがって、前記音量を制御することを特徴とする請求項2に記載の電子管楽器。 The control means generates a third signal level based on the first signal level and the second signal level, and controls the volume according to the third signal level. The electronic wind instrument according to claim 2 . 前記制御手段が、前記複数の演奏操作子の操作状態に基づく基準音高が、所定の範囲内であるときに、前記周波数特性に基づく音高の判断を行なうことを特徴とする請求項1ないし3の何れか一項に記載の電子管楽器。   2. The control unit according to claim 1, wherein when the reference pitch based on the operation state of the plurality of performance operators is within a predetermined range, the control unit determines the pitch based on the frequency characteristic. 4. The electronic wind instrument according to any one of 3 above.
JP2010015052A 2010-01-27 2010-01-27 Electronic wind instrument Active JP5614045B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010015052A JP5614045B2 (en) 2010-01-27 2010-01-27 Electronic wind instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010015052A JP5614045B2 (en) 2010-01-27 2010-01-27 Electronic wind instrument

Publications (2)

Publication Number Publication Date
JP2011154151A JP2011154151A (en) 2011-08-11
JP5614045B2 true JP5614045B2 (en) 2014-10-29

Family

ID=44540181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010015052A Active JP5614045B2 (en) 2010-01-27 2010-01-27 Electronic wind instrument

Country Status (1)

Country Link
JP (1) JP5614045B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2540760B (en) 2015-07-23 2018-01-03 Audio Inventions Ltd Apparatus for a reed instrument
FR3047382B1 (en) * 2016-02-02 2020-01-31 Viga Music Tools METHOD AND DEVICE FOR TAKING SOUND IN A WIND INSTRUMENT
GB2559135B (en) 2017-01-25 2022-05-18 Audio Inventions Ltd Transducer apparatus for an edge-blown aerophone and an edge-blown aerophone having the transducer apparatus
GB2559144A (en) 2017-01-25 2018-08-01 Audio Inventions Ltd Transducer apparatus for a labrasone and a labrasone having the transducer apparatus

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4119007A (en) * 1976-02-02 1978-10-10 Criglar John J Pressure transducer for musical instruments
JPH0664459B2 (en) * 1985-11-20 1994-08-22 ヤマハ株式会社 Recorder
US5808218A (en) * 1996-11-20 1998-09-15 Grace; Charles H. Expressive musical instrument with which accurate pitch can be played easily
JP3705174B2 (en) * 2001-09-19 2005-10-12 ヤマハ株式会社 Performance control device
US7723605B2 (en) * 2006-03-28 2010-05-25 Bruce Gremo Flute controller driven dynamic synthesis system

Also Published As

Publication number Publication date
JP2011154151A (en) 2011-08-11

Similar Documents

Publication Publication Date Title
EP3564947B1 (en) Apparatus for a reed instrument
US7605324B2 (en) Apparatus for assisting in playing musical instrument
US10832645B2 (en) Transducer apparatus for a labrosone and a labrosone having the transducer apparatus
US6881890B2 (en) Musical tone generating apparatus and method for generating musical tone on the basis of detection of pitch of input vibration signal
JP6435644B2 (en) Electronic musical instrument, pronunciation control method and program
EP3574496B1 (en) Transducer apparatus for an edge-blown aerophone and an edge-blown aerophone having the transducer apparatus
Stowell et al. Characteristics of the beatboxing vocal style
JP5614045B2 (en) Electronic wind instrument
JP2021185434A (en) Electronic wind instrument, musical sound generation device, musical sound generation method, and program
JP7262347B2 (en) electronic wind instrument
JP2011180546A (en) Electronic wind instrument
JP4618053B2 (en) Automatic performance device
JP6728843B2 (en) Electronic musical instrument, musical tone generating device, musical tone generating method and program
JP4986287B2 (en) Electronic musical instruments
JP2011027801A (en) Electronic wind instrument
JP6326976B2 (en) Electronic musical instrument, pronunciation control method for electronic musical instrument, and program
JP7346865B2 (en) Electronic wind instrument, musical sound generation method, and program
JP4259496B2 (en) Winding information input structure for electric wind instruments
JP2017167418A (en) Electronic wind instrument, music sound production method, and program
JP6671633B2 (en) Electronic wind instrument, musical sound generation method and program
JP2002049369A (en) Input device of electronic musical instrument
JP4131288B2 (en) Performance assist device
JP2002006838A (en) Electronic musical instrument and its input device
JP6753250B2 (en) Musical tone generator, musical tone generator, electronic musical instrument, and program
JP2017058461A (en) Electronic wind instrument, music sound production instruction method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140825

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5614045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150