JP2844621B2 - Electronic wind instrument - Google Patents
Electronic wind instrumentInfo
- Publication number
- JP2844621B2 JP2844621B2 JP63320475A JP32047588A JP2844621B2 JP 2844621 B2 JP2844621 B2 JP 2844621B2 JP 63320475 A JP63320475 A JP 63320475A JP 32047588 A JP32047588 A JP 32047588A JP 2844621 B2 JP2844621 B2 JP 2844621B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- breath
- pitch
- lip
- storage means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
【発明の詳細な説明】 [発明の技術分野] この発明は電子管楽器に関する。Description: TECHNICAL FIELD The present invention relates to an electronic wind instrument.
[背景] 従来の電子管楽器はもっぱら実時間の演奏を行うよう
に構成されている。したがって、この発明のように、後
で、演奏状態を再生するようなことはできなかった。[Background] Conventional electronic wind instruments are configured to exclusively perform in real time. Therefore, it was not possible to reproduce the performance state later, as in the present invention.
一方、電子管楽器には特有の奏法として、吹奏法があ
るが、初心者にとって吹奏法を習得することは非常に困
難であり、そのため、実時間で演奏しても、なかなか期
待するような楽音を得ることができなかった。On the other hand, there is a wind technique as a special playing technique for electronic wind instruments, but it is very difficult for beginners to learn the wind technique, so that even when playing in real time, it is easy to get the musical tone that you expect I couldn't do that.
[発明の目的] したがって、この発明は、吹奏法の学習が容易である
ような電子管楽器を提供することを目的とする。さら
に、この発明の目的は実際の演奏操作中でなく所望のと
きに演奏状態の再生ができるような電子管楽器を提供す
ることである。また、この発明の目的は、ブレス操作を
行うことなく、音高指定操作を行うことのみで、管楽器
演奏を行うことが可能な電子管楽器を提供することにあ
る。[Object of the Invention] Accordingly, an object of the present invention is to provide an electronic wind instrument that facilitates learning of a blowing technique. It is a further object of the present invention to provide an electronic wind instrument capable of reproducing a performance state at a desired time during an actual performance operation. It is another object of the present invention to provide an electronic wind instrument capable of performing a wind instrument performance only by performing a pitch designation operation without performing a breath operation.
[発明の構成、作用] この発明は上記の目的を達成するため、ブレスセンサ
ーの検出した吹く息の強さをサンプリングして、ブレス
データとして記憶しておき、サンプリング後の任意のと
きに記憶手段からブレスデータを読み出し、音高指定手
段により指定された音高の楽音を、その読み出し結果に
従って制御するようにしたことを特徴とする。[Structure and operation of the invention] In order to achieve the above object, the present invention samples the intensity of the breath that is detected by a breath sensor and stores the sampled breath intensity as breath data. The breath data is read out from the memory, and the musical tone having the pitch specified by the pitch specifying means is controlled in accordance with the read result.
さらに、この発明の別の態様では、上記特徴に加え
て,リップセンサーの検出したマウスピースをかむ強さ
をサンプリングして、リップデータとして記憶してお
き、サンプリング後に記憶手段からリップデータを読み
出し、音高指定手段により指定された音高の楽音を、そ
の読み出し結果に従って制御するようにしたことを特徴
とする。Further, in another aspect of the present invention, in addition to the above features, the strength of biting the mouthpiece detected by the lip sensor is sampled and stored as lip data. The musical tone having the pitch specified by the pitch specifying means is controlled in accordance with the read result.
したがって、サンプリング後は、指使いだけで、ブレ
ス効果、あるいはリップ効果の付いた演奏を行うことが
可能となり、演奏者にかかる吹奏の負担が大幅に軽減さ
れる。Therefore, after the sampling, it is possible to perform the performance with the breath effect or the lip effect only by using the finger, and the burden of the blowing on the player is greatly reduced.
[実施例] 以下、図面を参照してこの発明の実施例を説明する。Embodiment An embodiment of the present invention will be described below with reference to the drawings.
<第1実施例> 第1図に第1実施例の全体構成を示す。第1図におい
て、1は吹く息の強さを検出して電気信号に変換するブ
レスセンサーであり、その出力は図示のようなブレス検
出回路2により増幅されたアナログ信号となってA/D変
換器3に入力され、デジタル信号に変換される。一方、
4はかむ強さを検出してアナログ電気信号に変換するリ
ップセンサーであり、リップセンサー4の出力はA/D変
換器5に入力され、デジタル信号に変換される。上記ブ
レスセンサー1とリップセンサー4は第2図の楽器外観
図に示すように、マウスピース6に取り付けられてい
る。<First Embodiment> FIG. 1 shows the overall configuration of the first embodiment. In FIG. 1, reference numeral 1 denotes a breath sensor for detecting the intensity of the breath to be blown and converting the detected signal into an electric signal. The output of the sensor is an analog signal amplified by a breath detection circuit 2 as shown in FIG. The signal is input to the device 3 and converted into a digital signal. on the other hand,
Reference numeral 4 denotes a lip sensor which detects the biting strength and converts it into an analog electric signal. The output of the lip sensor 4 is input to an A / D converter 5 and converted into a digital signal. The breath sensor 1 and the lip sensor 4 are attached to a mouthpiece 6, as shown in the external view of the musical instrument in FIG.
このマウスピース6に連結されるボディ7上に複数の
音高スイッチ8が配設される。マウスピース6と音高ス
イッチ8が電子管楽器の主な演奏操作子であり、その状
態、すなわち、ブレスセンサー1の状態、リップセンサ
ー4の状態、音高スイッチ8の状態が第2図のCPU9によ
ってモニターされる。詳細にはCPU9はリップセンサー4
の状態をA/D変換器5からのデジタル信号の形式で受け
取り、ブレスセンサー1の状態をA/D変換器3からのデ
ジタル信号の形式で受け取る。また、複数の音高スイッ
チ8の状態については、CPU9はこれらのスイッチ8をマ
トリクス接続した回路に、スキャン信号KCを与えて、そ
の結果KIを読み取ることにより判別し、その判別結果か
ら指定されている音高データを生成する。A plurality of pitch switches 8 are provided on a body 7 connected to the mouthpiece 6. The mouthpiece 6 and the pitch switch 8 are the main performance operators of the electronic wind instrument, and their states, that is, the state of the breath sensor 1, the state of the lip sensor 4, and the state of the pitch switch 8 are controlled by the CPU 9 in FIG. Monitored. In detail, CPU 9 is lip sensor 4
Is received in the form of a digital signal from the A / D converter 5, and the state of the breath sensor 1 is received in the form of a digital signal from the A / D converter 3. The CPU 9 determines the state of the plurality of pitch switches 8 by giving a scan signal KC to a circuit in which these switches 8 are connected in a matrix and reading the result KI, and is specified from the result of the determination. Generate pitch data.
後述するように、CPU9の動作モードとして、吹奏デー
タ(ブレスデータ、リップデータ)の記録モードと、再
生モードがある。記録モードではCPU9はA/D変換器5を
介してリップセンサー4から読み取ったリップデータ
と、A/D変換器3を通してブレスセンサー1から読み取
ったブレスデータとを、アドレス制御部10で波形RAM11
の各エリアをアドレッシングして書込む。再生モードで
は波形RAM11に記憶されているブレスデータとリップデ
ータとが読出され、楽音の制御に用いられる。As will be described later, the operation modes of the CPU 9 include a recording mode of blowing data (breath data and lip data) and a reproducing mode. In the recording mode, the CPU 9 stores the lip data read from the lip sensor 4 via the A / D converter 5 and the breath data read from the breath sensor 1 via the A / D converter 3 into the waveform RAM 11 by the address control unit 10.
Addressing and writing each area of In the reproduction mode, breath data and lip data stored in the waveform RAM 11 are read out and used for controlling musical tones.
12(12A、12B)は2系統モジュールから成るPCM音源
であり、それぞれ、楽音波形データを記憶する波形ROM1
2-2、波形ROM12のアドレス制御部12-1、レベル(エンベ
ロープ)を制御するレベル制御部12-3、波形ROM12-2の
出力波形データにレベル制御部12-3からのレベルデータ
を乗算する乗算器12-4と乗算器12-5の出力(音源モジュ
ール出力)を取り込むラッチ12-5から成っている。各ラ
ッチ12-5の出力する音源モジュール出力は加算器13で加
算され、ラッチ14に取り込まれる。図示のように、各音
源モジュール12A、12Bのレベル制御部12-3は、波形RAM1
1の出力に結合しており、波形RAM11の出力に従ってレベ
ル制御を行うように構成されている。詳細には、第1の
音源モジュール12Aのレベル制御部12-3には波形RAM11の
出力が直接に入力され、第2の音源モジュール12Bのレ
ベル制御部12-3には、波形RAM11の出力を逆特性発生部1
5で逆の特性にしたデータが入力される。したがって、
2つのモジュール12A、12Bのレベル制御部12-3は互に逆
の特性のレベルデータを発生する。この結果、2つの異
なる音色を表わす2つの波形ROM12-2からの楽音波形デ
ータがいわゆるクロスフェードする関係で混合されるこ
とになり、ブレスデータとリップデータにより混合比の
変化する楽音が得られる。これが、再生モードにおける
1つの効果である。12 (12A, 12B) are PCM sound sources composed of two modules, each of which has a waveform ROM 1 for storing musical sound waveform data.
2-2, an address control unit 12-1 of the waveform ROM 12, a level control unit 12-3 for controlling a level (envelope), and multiplying the output waveform data of the waveform ROM 12-2 by the level data from the level control unit 12-3. It comprises a multiplier 12-4 and a latch 12-5 that captures the output (sound source module output) of the multiplier 12-5. The output of the sound source module output from each latch 12-5 is added by the adder 13, and is taken into the latch 14. As shown, the level control unit 12-3 of each of the tone generator modules 12A and 12B stores the waveform RAM1
1, and is configured to perform level control according to the output of the waveform RAM 11. Specifically, the output of the waveform RAM 11 is directly input to the level control unit 12-3 of the first sound source module 12A, and the output of the waveform RAM 11 is input to the level control unit 12-3 of the second sound source module 12B. Inverse characteristic generator 1
In step 5, data with the opposite characteristics is input. Therefore,
The level controllers 12-3 of the two modules 12A and 12B generate level data having characteristics opposite to each other. As a result, the musical tone waveform data from the two waveform ROMs 12-2 representing two different timbres are mixed in a so-called cross-fading relationship, and a musical tone whose mixing ratio changes by breath data and lip data is obtained. This is one effect in the reproduction mode.
さらに、波形RAM11の出力はラッチ16を介して、乗算
器17にも入力される。この乗算器17のもう1つの入力に
はラッチ14からの混合された楽音の波形データが入力さ
れる。この結果、乗算器17からは、波形RAM11のブレス
データ、リップデータに従ってレベルのシフトした混合
楽音波形データが出力される。Further, the output of the waveform RAM 11 is also input to the multiplier 17 via the latch 16. The other input of the multiplier 17 receives the waveform data of the mixed musical tone from the latch 14. As a result, the multiplier 17 outputs mixed tone waveform data whose level has been shifted according to the breath data and lip data of the waveform RAM 11.
この出力はラッチ18、D/A変換器19、アンプ20を通じ
てオーディオ信号となり、外部に出力される。This output becomes an audio signal through the latch 18, the D / A converter 19, and the amplifier 20, and is output to the outside.
このように第1実施例では、記録モード時には、ブレ
スセンサー1とリップセンサー4からのブレスデータと
リップデータがA/D変換器3と5を通じてCPU9によりサ
ンプリングされ、アドレス制御部10を介して波形RAM11
に記憶される。サンプリング後の再生モードでは、波形
RAM11から記憶されているデータが読み出され、第1の
音源モジュール12Aのレベル制御部12-3には直接入力さ
れ、第2の音源モジュール12Bのレベル制御部12-3には
逆特性の形式で入力され、振幅比がクロスフェードする
楽音成分が音源モジュール12A、12Bで生成され、この2
つの楽音成分を合成した楽音波形に対し、さらに波形RA
Mのデータによるレベル制御が行われる。したがって、
サンプリング後の自動演奏を吹奏入力として記録済のブ
レスデータとリップデータに従って行うことができる。As described above, in the first embodiment, in the recording mode, the breath data and the lip data from the breath sensor 1 and the lip sensor 4 are sampled by the CPU 9 through the A / D converters 3 and 5, and the waveform is transmitted through the address control unit 10. RAM11
Is stored. In playback mode after sampling, the waveform
Data stored in the RAM 11 is read out, and is directly input to the level control unit 12-3 of the first sound source module 12A, and is input to the level control unit 12-3 of the second sound source module 12B in the form of an inverse characteristic. The tone components whose amplitude ratio is cross-faded are generated by the tone generator modules 12A and 12B.
The waveform RA is further added to the musical sound waveform obtained by synthesizing
Level control based on the data of M is performed. Therefore,
Automatic performance after sampling can be performed according to recorded breath data and lip data as a blowing input.
<第2実施例> 第1実施例がブレスセンサー1とリップセンサー4の
データを波形RAM11にサンプリングし、再生時にそのデ
ータを使って自動演奏するのに対し、以下説明する第2
実施例では、再生時に、音高スイッチ8からの音高入力
を記憶されたブレスデータ、リップデータの情報と組み
合わせ、演奏を再生する。すなわち、サンプリング後
は、吹奏操作を行う必要なしに、指使いだけでブレス効
果、リップ効果の付いた演奏ができるようにしている。
第2実施例の要部構成を第3図に示す。<Second Embodiment> In the first embodiment, the data of the breath sensor 1 and the lip sensor 4 are sampled in the waveform RAM 11, and the data is automatically played at the time of reproduction.
In the embodiment, at the time of reproduction, the performance is reproduced by combining the pitch input from the pitch switch 8 with the information of the stored breath data and lip data. That is, after the sampling, the performance with the breath effect and the lip effect can be performed only by using the finger without having to perform the blowing operation.
FIG. 3 shows a main configuration of the second embodiment.
CPU9Mの構成要素のうち、アップカウンタ91、変化検
出部92及びコーディング兼データ書込部93により、シー
ケンサメモリ11Mにブレスデータとリップデータをサン
プリング記憶する記憶手段が構成される。また、ダウン
カウンタ94、データ読込兼解読部95、音高データ生成部
96、及び楽音制御生成部97により、シーケンサメモリ11
Mからのブレスデータ、リップデータと音高スイッチ8
からの音高スイッチ入力とを組み合わせて音源12を制御
して管楽器演奏を行う楽音制御手段が構成される。モー
ド制御部98により、記録モードのときには記憶手段のみ
が動作し、再生モードのときには楽音制御手段が動作す
る。Among the components of the CPU 9M, the up counter 91, the change detection unit 92, and the coding and data writing unit 93 constitute storage means for sampling and storing breath data and lip data in the sequencer memory 11M. Also, a down counter 94, a data reading / decoding unit 95, a pitch data generation unit
96 and the tone control generation unit 97, the sequencer memory 11
Breath data, lip data and pitch switch 8 from M
A tone control means for controlling the sound source 12 and performing a wind instrument by combining the pitch switch input from the musical instrument. By the mode control unit 98, only the storage means operates in the recording mode, and the tone control means operates in the reproduction mode.
詳細に述べると、クロック発生部90は、テンポボリュ
ーム(図示せず)からのテンポデータに従う周波数のク
ロックを発生する。このクロックはシーケンサメモリ11
Mに対する記録/再生の分解能に対応している。More specifically, the clock generator 90 generates a clock having a frequency according to tempo data from a tempo volume (not shown). This clock is used for sequencer memory 11
It corresponds to the recording / playback resolution for M.
記録モードでは、クロック発生部90のクロックはアッ
プカウンタ91に入力され、カウントアップ動作をカウン
タ91に生じさせる。変化検出部92はブレスデータとリッ
プデータ(第1図のA/D変換器3、5からのデータに相
当するデータ)を受け、データの変化を調べる。変化検
出部92はデータの変化を検出するとそのデータをコーデ
ィング兼データ書込部93に入力する。これに対し、コー
ディング兼データ書込部93はその時点のアップカウンタ
91の内容(演奏イベント間の経過時間を表わす)を読み
取り、変化検出部92からの新しいデータとアップカウン
タ91からの時間データのそれぞれに、固有の識別コード
をつけ、それらをシーケンサメモリ11Mに書き込む。つ
いで、アップカウンタ91は変化検出部92からの信号によ
ってクリアされ、次の演奏イベントまでの計時に移る。In the recording mode, the clock of the clock generator 90 is input to the up-counter 91 and causes the counter 91 to perform a count-up operation. The change detecting unit 92 receives breath data and lip data (data corresponding to the data from the A / D converters 3 and 5 in FIG. 1) and checks a change in the data. When detecting a change in the data, the change detecting section 92 inputs the data to the coding / data writing section 93. On the other hand, the coding and data writing unit 93 is the up counter at that time.
The contents of 91 (representing the elapsed time between performance events) are read, a unique identification code is added to each of the new data from the change detection unit 92 and the time data from the up counter 91, and they are written to the sequencer memory 11M. . Next, the up counter 91 is cleared by a signal from the change detection unit 92, and the time counts up to the next performance event.
このようにして、記録モードではブレスセンサー1と
リップセンサー4からのデータがシーケンサメモリ11M
に記録される。シーケンサメモリ11Mの記録例を第4図
に示す。シーケンサメモリ11Mには識別コードに続いて
識別コードの示す種類のデータ(ブレスデータ、リップ
データ、または時間データ)が記憶されるようになって
いる。図中、ブレスデータの識別コードはAOH、リップ
データの識別コードはBOH、時間データの識別コードはE
OHで示されている。Thus, in the recording mode, the data from the breath sensor 1 and the lip sensor 4 are stored in the sequencer memory 11M.
Will be recorded. FIG. 4 shows a recording example of the sequencer memory 11M. Following the identification code, the type of data (breath data, lip data, or time data) indicated by the identification code is stored in the sequencer memory 11M. In the figure, the identification code for breath data is AOH, the identification code for lip data is BOH, and the identification code for time data is E.
Indicated by OH.
一方、再生モードではクロック発生部90のクロックは
ダウンカウンタ94に入力される。ダウンカウンタ94はカ
ウントがゼロになるとボロー出力を発生してデータ読込
兼解読部95に入力する。データ読込兼解読部95はダウン
カウンタ94から次の再生イベントの到来を示すボロー出
力が与えられると、これに応答して、シーケンサメモリ
11Mから次のデータ(識別コードも含む)を読み込み、
識別コードを解読して再生すべきデータを楽音制御生成
部97に送る。シーケンサメモリ11Mは識別コードが時間
データを指示しているときにはその時間データをダウン
カウンタに再設定する。これにより、ダウンカウンタ94
は次の再生イベントまでの計時に移る。楽音制御生成部
97にはデータ読込兼解読部95から処理すべきブレスデー
タまたはリップデータが与えられるとともに、音高デー
タ生成部96が生成した現在の音高スイッチ8の状態の定
まる音高指定データが与えられる。楽音制御生成部97
は、ブレスデータに基づいて、発音処理、消音処理また
は音量制御処理を実行する。発音処理のときは、音高デ
ータ生成部96から与えられている現在の音高指定データ
とデータ読込兼解読部95から与えられているブレスデー
タとから、ピッチデータ、キーオンコード、アタックエ
ンベロープパラメータを生成して音源12に送って楽音の
発音を開始させる。消音処理のときはリリースエンベロ
ープパラメータを生成して音源12に送って楽音の発音を
終了させる。発音中のときはブレスデータからレベルパ
ラメータを生成して音源12に転送することにより、発音
中の楽音の音量を制御する。また、発音中にデータ読込
兼解読部95からリップデータが与えられたときは、その
データからピッチモジュレーションパラメータを生成
し、音源12に転送することにより、発音中の楽音の音高
を制御する。On the other hand, in the reproduction mode, the clock of the clock generator 90 is input to the down counter 94. When the count reaches zero, the down counter 94 generates a borrow output and inputs it to the data reading / decoding unit 95. When a borrow output indicating the arrival of the next reproduction event is given from the down counter 94, the data reading / decoding unit 95 responds to the borrow output.
Read the next data (including the identification code) from 11M,
The data to be reproduced by decoding the identification code is sent to the musical tone control generator 97. When the identification code indicates time data, the sequencer memory 11M resets the time data to the down counter. As a result, the down counter 94
Moves to the timing until the next playback event. Tone control generator
97 is supplied with breath data or lip data to be processed from the data reading / decoding unit 95 and pitch designation data generated by the pitch data generation unit 96 and determined by the current state of the pitch switch 8. Music control generation unit 97
Executes sound generation processing, mute processing, or volume control processing based on breath data. At the time of the pronunciation process, the pitch data, the key-on code, and the attack envelope parameter are obtained from the current pitch designation data provided from the pitch data generation unit 96 and the breath data provided from the data reading and decoding unit 95. The sound is generated and sent to the sound source 12 to start the tone generation. At the time of the silencing process, a release envelope parameter is generated and sent to the sound source 12 to end the tone generation. When a tone is being generated, a level parameter is generated from the breath data and transferred to the sound source 12, thereby controlling the volume of the tone being generated. Also, when lip data is given from the data reading / decoding unit 95 during sound generation, a pitch modulation parameter is generated from the data and transferred to the tone generator 12, thereby controlling the pitch of the musical sound being sounded.
参考までに、第5図に再生モードにおける実施例の動
作のフローを示す。このフローは第3図のクロック発生
部90からクロックが発生するごとに実行されるようにな
っている。For reference, FIG. 5 shows a flow of the operation of the embodiment in the reproduction mode. This flow is executed each time a clock is generated from the clock generator 90 in FIG.
したがって、再生モードでは第6図のタイムチャート
のうち、ブレスデータとリップデータとは、シーケンサ
メモリ11Mから与えられ、音高指定状態は音高スイッチ
8から与えられ、各データの瞬時値に応じて、管楽器演
奏が再生される。すなわち、ブレスデータは発音のタイ
ミング(ステップ5−1〜5−9、5-11、5-15)と楽音
の振幅制御に用いられ(ステップ5-10)、音高指定状態
は楽音の基準周波数を決めるのに用いられ(ステップ5-
12、5-13)、リップデータは楽音の基準周波数を変更し
てピッチベンドを実現するのに用いられる(ステップ5-
13)。したがって、演奏者は、演奏操作としては音高ス
イッチ8によるフィンガリング操作だけでよく、他の操
作はシーケンサメモリ11Mに予めサンプリングしてある
ので不要となる。したがって、吹奏操作の負担が軽減さ
れる。また、何度か吹奏操作を行って一番上手くいった
ときのデータをシーケンサメモリ11Mに確保しておくこ
とにより、再生時に非常によい管楽器演奏を行うことが
可能となる。Accordingly, in the reproduction mode, in the time chart of FIG. 6, the breath data and the lip data are given from the sequencer memory 11M, the pitch designation state is given from the pitch switch 8, and according to the instantaneous value of each data. , A wind instrument performance is played. That is, the breath data is used for tone generation timings (steps 5-1 to 5-9, 5-11, and 5-15) and tone amplitude control (step 5-10). (Step 5-
12, 5-13), the lip data is used to change the reference frequency of the musical tone to achieve pitch bend (step 5-).
13). Therefore, the performer only needs to perform the fingering operation using the pitch switch 8 as the performance operation, and the other operations are unnecessary since they are sampled in the sequencer memory 11M in advance. Therefore, the burden of the blowing operation is reduced. In addition, by securing the most successful data in the sequencer memory 11M after performing the blowing operation several times, it becomes possible to perform a very good wind instrument performance during reproduction.
以上で実施例の説明を終えるが、種々の変形、変更が
可能である。例えば、ブレスデータ、リップデータが制
御する楽音のパラメータは他の任意の所望のものが使用
できる。This concludes the description of the embodiments, but various modifications and changes are possible. For example, any other desired parameters can be used as the parameters of the musical tone controlled by the breath data and the lip data.
[発明の効果] 請求項1ではブレスセンサーからのブレスデータをサ
ンプリングして記憶しておき、サンプリング後に読み出
してその読み出し結果に応じて楽音を制御しているの
で、管楽器固有のブレス奏法の練習が可能となる。According to the first aspect, breath data from the breath sensor is sampled and stored, read out after sampling, and the musical tone is controlled in accordance with the readout result. It becomes possible.
また、請求項2では上記請求項1の構成に加えて、リ
ップセンサーからのかむ強さをサンプリングしてリップ
データとして記憶しておき、その後の任意のときに読み
出し、読み出し結果に従って楽音を制御しているので管
楽器独自のリップ奏法の学習が容易となり、サンプリン
グ再生時に管楽器演奏を行う場合に、リップ操作を行う
必要がなくなり、演奏者の操作負担が軽減される。According to a second aspect of the present invention, in addition to the configuration of the first aspect, the biting intensity from the lip sensor is sampled and stored as lip data, and read out at an arbitrary time thereafter, and the musical tone is controlled according to the read result. This makes it easy to learn the lip playing technique unique to wind instruments, and eliminates the need to perform a lip operation when performing a wind instrument at the time of sampling reproduction, thereby reducing the operation burden on the player.
第1図はこの発明の第1実施例の全体構成図、第2図は
実施例に使用可能な電子管楽器の外観図、第3図はこの
発明の第2実施例の要部構成図、第4図はシーケンサメ
モリに記憶される内容を示す図、第5図は第2実施例の
再生時の動作のフローチャート、第6図は再生時に与え
られる各入力データのタイムチャートである。 1……ブレスセンサー、4……リップセンサー、6……
マウスピース、9、9M……CPU、11……波形RAM、11M…
…シーケンサメモリ。FIG. 1 is an overall configuration diagram of a first embodiment of the present invention, FIG. 2 is an external view of an electronic wind instrument that can be used in the embodiment, FIG. FIG. 4 is a diagram showing the contents stored in the sequencer memory, FIG. 5 is a flowchart of the operation at the time of reproduction of the second embodiment, and FIG. 6 is a time chart of each input data given at the time of reproduction. 1 ... breath sensor, 4 ... lip sensor, 6 ...
Mouthpiece, 9, 9M …… CPU, 11 …… Waveform RAM, 11M…
... Sequencer memory.
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G10H 1/00 G10H 1/00 102 G10H 1/053 G10H 1/46──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 6 , DB name) G10H 1/00 G10H 1/00 102 G10H 1/053 G10H 1/46
Claims (2)
と、 前記ブレスセンサーの検出した吹く息の強さをブレスデ
ータとして、その発生タイミングを示す時間データとと
もに記憶可能な記憶手段と、 発生すべき楽音の音高を指定する音高指定手段と、 前記記憶手段に対してデータを書き込む記録モードと、
該記憶手段に記憶されているデータを読み出す再生モー
ドとを選択的に切り換えるモード切換手段と、 前記モード切換手段で記録モードが選択されていると
き、前記ブレスセンサーの検出した吹く息の強さをサン
プリングしてブレスデータとして、その発生タイミング
を示す時間データとともに前記記憶手段に記憶し、前記
モード切換手段で再生モードが選択されているとき、前
記記憶手段に記憶されている時間データに従ってブレス
データを読み出し、この読み出されたブレスデータに応
じて前記音高指定手段により指定されている音高の楽音
の発音タイミングを制御する制御手段と、 を有することを特徴とする電子管楽器。1. A breath sensor for detecting the strength of the breath to be blown, and storage means capable of storing the strength of the breath to be detected detected by the breath sensor as breath data together with time data indicating the generation timing. Pitch designation means for designating a pitch of a power tone, a recording mode for writing data to the storage means,
Mode switching means for selectively switching a reproduction mode for reading data stored in the storage means; and when the recording mode is selected by the mode switching means, the intensity of the breath blowing detected by the breath sensor. It is sampled and stored as breath data together with time data indicating the generation timing in the storage means, and when the reproduction mode is selected by the mode switching means, the breath data is stored in accordance with the time data stored in the storage means. An electronic wind instrument comprising: a readout unit; and a control unit that controls a tone generation timing of a musical tone having a pitch designated by the pitch designation unit in accordance with the read breath data.
と、 マウスピースをかむ強さを検出するリップセンサーと、 前記ブレスセンサーの検出した吹く息の強さをブレスデ
ータとし、前記リップセンサーの検出したかむ強さをリ
ップデータとして、夫々その発生タイミングを示す時間
データとともに記憶可能な記憶手段と、 発生すべき楽音の音高を指定する音高指定手段と、 前記記憶手段に対してデータを書き込む記録モードと、
該記憶手段に記憶されているデータを読み出す再生モー
ドとを選択的に切り換えるモード切換手段と、 前記モード切換手段で記録モードが選択されていると
き、前記ブレスデータと前記リップデータとを、前記時
間データとともに前記記憶手段に記憶し、前記モード切
換手段で再生モードが選択されているとき、前記記憶手
段に記憶されている時間データに従ってブレスデータお
よびリップデータを読み出し、この読み出されたブレス
データに応じて前記音高指定手段により指定されている
音高の楽音の発音タイミングを制御するとともに、読み
出されたリップデータに応じて前記音高指定手段により
指定されている音高の楽音の音高を制御する制御手段
と、 を有することを特徴とする電子管楽器。2. A breath sensor for detecting the strength of the breath to be blown, a lip sensor for detecting the strength of biting the mouthpiece, and the strength of the breath to be blown detected by the breath sensor as breath data. Storage means capable of storing the detected bite strength as lip data together with time data indicating the generation timing thereof; pitch designation means for designating the pitch of a musical tone to be generated; and data to the storage means. Recording mode to write,
Mode switching means for selectively switching between a reproduction mode for reading data stored in the storage means, and when the recording mode is selected by the mode switching means, the breath data and the lip data are converted to the time. When the reproduction mode is selected by the mode switching means, the breath data and the lip data are read out according to the time data stored in the storage means. Controls the tone generation timing of the musical tone having the pitch specified by the pitch specifying means, and the pitch of the musical tone having the pitch specified by the pitch specifying means in accordance with the read lip data. An electronic wind instrument comprising: a control unit configured to control the electronic wind instrument.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63320475A JP2844621B2 (en) | 1988-12-21 | 1988-12-21 | Electronic wind instrument |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63320475A JP2844621B2 (en) | 1988-12-21 | 1988-12-21 | Electronic wind instrument |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH02166500A JPH02166500A (en) | 1990-06-27 |
JP2844621B2 true JP2844621B2 (en) | 1999-01-06 |
Family
ID=18121859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63320475A Expired - Lifetime JP2844621B2 (en) | 1988-12-21 | 1988-12-21 | Electronic wind instrument |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2844621B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH056168A (en) * | 1991-06-26 | 1993-01-14 | Yamaha Corp | Electronic musical instrument |
JP3086825B2 (en) * | 1991-06-26 | 2000-09-11 | ヤマハ株式会社 | Electronic musical instrument |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6224311Y2 (en) * | 1979-08-04 | 1987-06-20 | ||
JPS58185899U (en) * | 1982-06-03 | 1983-12-10 | ヤマハ株式会社 | Tone control device for electronic musical instruments |
-
1988
- 1988-12-21 JP JP63320475A patent/JP2844621B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH02166500A (en) | 1990-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5138925A (en) | Apparatus for playing auto-play data in synchronism with audio data stored in a compact disc | |
JPH05341793A (en) | 'karaoke' playing device | |
EP0723256B1 (en) | Karaoke apparatus modifying live singing voice by model voice | |
JP2860510B2 (en) | Automatic performance device | |
JP2684899B2 (en) | Sound source device for electronic musical instruments | |
JP2620724B2 (en) | Performance information recording device | |
JP3552264B2 (en) | Automatic performance device | |
JP2844621B2 (en) | Electronic wind instrument | |
JP4123583B2 (en) | Karaoke equipment | |
JP2559209B2 (en) | Music signal generator | |
JP3031046B2 (en) | Recording and playback device | |
JP2526123Y2 (en) | Sampling instruments | |
JP2508138B2 (en) | Musical tone signal generator | |
JP2551193B2 (en) | Automatic playing device | |
JP3648783B2 (en) | Performance data processing device | |
JPH0713037Y2 (en) | Electronic piano sound source circuit | |
JP2882028B2 (en) | MIDI code generator | |
JP3142434B2 (en) | Electronic musical instrument sequencer | |
JPH09134177A (en) | Sound source device for electronic instrument | |
JP2639557B2 (en) | Electronic percussion instrument | |
JPH1031486A (en) | Method and device for performance data storage and reproducing | |
JP2893698B2 (en) | Music signal generator | |
JP2579231Y2 (en) | Electronic musical instrument | |
JP3171192B2 (en) | Music player | |
JP3038086B2 (en) | Performance information playback device |