JP6402492B2 - Electronic musical instrument, pronunciation control method for electronic musical instrument, and program - Google Patents

Electronic musical instrument, pronunciation control method for electronic musical instrument, and program Download PDF

Info

Publication number
JP6402492B2
JP6402492B2 JP2014111550A JP2014111550A JP6402492B2 JP 6402492 B2 JP6402492 B2 JP 6402492B2 JP 2014111550 A JP2014111550 A JP 2014111550A JP 2014111550 A JP2014111550 A JP 2014111550A JP 6402492 B2 JP6402492 B2 JP 6402492B2
Authority
JP
Japan
Prior art keywords
feature vector
wind
musical instrument
electronic musical
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014111550A
Other languages
Japanese (ja)
Other versions
JP2015225303A5 (en
JP2015225303A (en
Inventor
佐々木 博之
博之 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014111550A priority Critical patent/JP6402492B2/en
Publication of JP2015225303A publication Critical patent/JP2015225303A/en
Publication of JP2015225303A5 publication Critical patent/JP2015225303A5/ja
Application granted granted Critical
Publication of JP6402492B2 publication Critical patent/JP6402492B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、電子楽器における発音制御技術に関する。   The present invention relates to a sound generation control technique in an electronic musical instrument.

例えば電子管楽器等の電子楽器は、吹奏を検出するセンサとセンスされた値で音源を制御する。吹奏楽器の演奏では、吹奏者は、簡単には、指で音程を決め、吹き込みで音量や音色を制御する。実際の吹奏演奏においては、吹奏者は、唇の形や舌の位置、噛み圧、喉の形などによって音色を変化させて演奏する。   For example, an electronic musical instrument such as an electronic wind instrument controls a sound source with a sensor that detects a wind performance and a sensed value. In the performance of a wind instrument, a winder simply determines the pitch with a finger and controls the volume and tone by blowing. In an actual wind performance, a wind performer performs by changing the timbre according to the shape of the lips, the position of the tongue, the biting pressure, the shape of the throat, and the like.

従来の電子管楽器はセンサの数が少なく、これらの吹奏の演奏技法をセンスできなかった。これに対して、センサの小型化や実装技術の進歩により、複数センサを吹き込み口周辺に実装し、演奏者の吹き込み圧、舌の動き、唇の位置、噛み圧、音声などを検出することを可能にした従来技術(例えば特許文献1に記載の技術)が知られている。   Conventional electronic wind instruments have a small number of sensors and cannot sense the performance technique of these wind instruments. On the other hand, due to the downsizing of sensors and advances in mounting technology, multiple sensors are mounted around the inlet, and the player's blowing pressure, tongue movement, lip position, biting pressure, voice, etc. can be detected. A conventional technique (for example, the technique described in Patent Document 1) that has been made possible is known.

特開2000−122641号公報JP 2000-122641 A

しかしながら、各センサの検出値は吹奏の演奏技法と1対1に対応するものではない。加えて口蓋の狭い範囲にセンサが集中するため、各センサはお互いに連動した値を検出する。従って、電子楽器において、センサ値をそのまま音量や音色に対応させても、伝統的な吹奏楽器と同様な吹奏演奏を実現することは難しいという課題があった。   However, the detection value of each sensor does not correspond one-to-one with the performance technique of wind performance. In addition, since the sensors are concentrated in a narrow range of the palate, each sensor detects a value interlocked with each other. Therefore, in the electronic musical instrument, there is a problem that it is difficult to realize a wind performance similar to that of a traditional wind instrument even if the sensor value is directly associated with the volume and tone color.

本発明は、より自然楽器に近い所望の吹奏演奏を実現することを目的とする。   An object of this invention is to implement | achieve the desired wind performance similar to a natural musical instrument.

態様の一例では、複数種の吹奏センサそれぞれから出力されるセンサ出力値の組を取得する取得手段と、前記取得手段により取得されたセンサ出力値の組から、それぞれのセンサ出力値を特徴量とする特徴ベクトルを、出力特徴ベクトルとして生成する生成手段と、特定の条件に基づく前記特徴ベクトルを、代表特徴ベクトルとして記憶している記憶手段と、前記生成手段により生成された前記出力特徴ベクトルを、前記記憶手段に記憶されている前記代表特徴ベクトルと比較してベクトル間の距離を算出する比較手段と、前記比較手段により算出された距離に基づいて、前記取得手段により前記センサ出力値の組が取得された際の発音を制御する、制御手段と、を有する。 In one example, the acquisition unit that acquires a set of sensor output values output from each of the plurality of types of wind sensors, and the sensor output value from the set of sensor output values acquired by the acquisition unit as a feature amount Generating means for generating a feature vector as an output feature vector, storage means for storing the feature vector based on a specific condition as a representative feature vector, and the output feature vector generated by the generating means, comparing means for calculating the distance between the vectors as compared to the representative feature vector stored in the storage means, based on the distance calculated by said comparing means, said set of sensor output value by the acquisition unit And a control means for controlling the pronunciation at the time of acquisition .

本発明によれば、より自然楽器に近い所望の吹奏演奏を実現することが可能となる。   According to the present invention, it is possible to realize a desired wind performance that is closer to a natural musical instrument.

実施形態による電子楽器のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the electronic musical instrument by embodiment. 実施形態による電子楽器の外形例を示す図である。It is a figure which shows the external example of the electronic musical instrument by embodiment. 電子楽器の機能ブロック図である。It is a functional block diagram of an electronic musical instrument. WAVE音源のブロック図である。It is a block diagram of a WAVE sound source. 発音制御処理の第1の実施形態の説明図である。It is explanatory drawing of 1st Embodiment of a pronunciation control process. 発音制御処理の第1の実施形態の全体処理の例を示すフローチャートである。It is a flowchart which shows the example of the whole process of 1st Embodiment of a sound generation control process. 楽器が演奏を学習する処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of the process in which a musical instrument learns performance. 学習結果を識別する処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of the process which identifies a learning result. 識別した結果で発音する処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of the process sounded by the identified result. 提示装置の構成例を示す図である。It is a figure which shows the structural example of a presentation apparatus. 発音制御処理の第2の実施形態の全体処理の例を示すフローチャートである。It is a flowchart which shows the example of the whole process of 2nd Embodiment of a sound generation control process. 識別した結果で表示し発音する処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of the process displayed and pronounced with the identified result. 発音制御処理の第3の実施形態の説明図である。It is explanatory drawing of 3rd Embodiment of a pronunciation control process. 発音制御処理の第3の実施形態の全体処理の例を示すフローチャートである。It is a flowchart which shows the example of the whole process of 3rd Embodiment of a sound generation control process. 物理モデル変調を音源に加える処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of the process which adds physical model modulation | alteration to a sound source. リンク部を6本演算する処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of the process which calculates six link parts. 質量体を3個演算する処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of the process which calculates three mass bodies.

以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。以下に説明する本発明の各実施形態は、電子楽器における吹奏演奏を複数のセンサで数値化し、その数値を特徴値とする特徴ベクトルを生成し、この特徴ベクトルに基づいた演算を行って音源制御を行うものである。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In each embodiment of the present invention described below, a musical performance of an electronic musical instrument is digitized by a plurality of sensors, a feature vector having the numeric value as a feature value is generated, and calculation based on the feature vector is performed to perform sound source control Is to do.

図1は、電子楽器の以下に説明する各実施形態に共通のハードウェア構成例を示すブロック図である。   FIG. 1 is a block diagram illustrating an example of a hardware configuration common to each embodiment described below of an electronic musical instrument.

図1に示されるハードウェア構成例は、CPU(セントラルプロセッシングユニット:中央演算処理装置)101、ROM(リードオンリーメモリ)102、RAM(ランダムアクセスメモリ)103、センサ群104、ADC(アナログデジタルコンバータ)105、スイッチ群106、GPIO(ジェネラルパーパスインプットアウトプット)107,WAVE音源108、DAC(デジタルアナログコンバータ)109、音響システム110、提示装置111を備え、これらがバス112によって相互に接続された構成を有する。同図に示される構成は、電子楽器を実現できるハードウェア構成の一例であり、そのようなハードウェア構成はこの構成に限定されるものではない。
CPU101は、当該電子楽器全体の制御を行う。ROM102は、発音制御プログラムを記憶する。RAM103は、発音制御プログラムの実行時に、データを一時的に格納する。
A hardware configuration example shown in FIG. 1 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a sensor group 104, and an ADC (Analog Digital Converter). 105, a switch group 106, a GPIO (General Purpose Input Output) 107, a WAVE sound source 108, a DAC (Digital Analog Converter) 109, an acoustic system 110, and a presentation device 111, which are connected to each other via a bus 112. Have. The configuration shown in the figure is an example of a hardware configuration capable of realizing an electronic musical instrument, and such a hardware configuration is not limited to this configuration.
The CPU 101 controls the entire electronic musical instrument. The ROM 102 stores a sound generation control program. The RAM 103 temporarily stores data when the sound generation control program is executed.

センサ群104の各出力は、ADC105でアナログ信号からデジタル信号に変換されて、CPU101に読み込まれる。   Each output of the sensor group 104 is converted from an analog signal to a digital signal by the ADC 105 and read by the CPU 101.

スイッチ群106は吹奏楽器の指穴に相当する演奏機能を実現する。スイッチ群106の各操作状態は、GPIO107を介してCPU101に読み込まれる。   The switch group 106 realizes a performance function corresponding to a finger hole of a wind instrument. Each operation state of the switch group 106 is read into the CPU 101 via the GPIO 107.

WAVE音源(ウェーブテーブル音源)108は、それが内蔵するROMに記憶された複数の楽音波形データを、スイッチ群106からGPIO107およびCPU101を介して指定された音高で読み出し、楽音信号を出力する。   A WAVE sound source (wavetable sound source) 108 reads a plurality of musical sound waveform data stored in a ROM built in the WAVE sound source 108 from the switch group 106 at a pitch designated via the GPIO 107 and the CPU 101, and outputs a musical sound signal.

WAVE音源108から出力された楽音信号は、DAC109においてデジタル信号からアナログ信号に変換された後、音響システム110を介して放音される。   The musical sound signal output from the WAVE sound source 108 is converted from a digital signal to an analog signal by the DAC 109 and then emitted through the acoustic system 110.

提示装置111は、発音制御処理の第2の実施形態に関わるものであり、演奏者に種々の情報を与えるものである。   The presentation device 111 relates to the second embodiment of the sound generation control process, and gives various information to the performer.

図2は、電子楽器の以下に説明する各実施形態に共通の筐体(外形)の例を示す図である。この筐体は、管楽器を模した本体形状部1、指穴に相当するスイッチ部2(図1のスイッチ部106の一部に対応する)、音響信号を放出する開口部3、音響信号を発音するスピーカ部4、各種の演奏以外の操作子5(図1のスイッチ部106の一部に対応する)、および複数のセンサ(図1のセンサ部104に対応する)と提示装置(図1の提示装置111に対応する)を実装したマウスピース部6を備える。   FIG. 2 is a diagram illustrating an example of a casing (outer shape) common to each embodiment described below of the electronic musical instrument. This housing has a main body shape part 1 simulating a wind instrument, a switch part 2 corresponding to a finger hole (corresponding to a part of the switch part 106 in FIG. 1), an opening part 3 that emits an acoustic signal, and a sound signal. Speaker unit 4, various controls 5 other than performance (corresponding to a part of the switch unit 106 in FIG. 1), a plurality of sensors (corresponding to the sensor unit 104 in FIG. 1) and a presentation device (in FIG. The mouthpiece unit 6 is mounted, which corresponds to the presentation device 111.

図3は、図1および図2に示される電子楽器の機能ブロック図である。この電子楽器は、複数のパラメータに基づいて音響信号を演算して発生する音源手段305(図1のWAVE音源108に対応する)を備える。吹奏数値化手段301(図1のセンサ群104に対応する)は、吹き込み圧、舌の動き、唇の位置、噛み圧、音声などを例とする複数の吹奏演奏を数値化し、その複数の数値化された信号を特徴量とする特徴ベクトルを生成する。パターン認識手段302(図1のCPU101、ROM102、およびRAM103に対応する)は、吹奏演奏に関する複数の演奏パターンのそれぞれについてその演奏パターンに対応する代表特徴ベクトルを記憶し、吹奏時に吹奏数値化手段301が生成した特徴ベクトルと演奏パターンごとの代表特徴ベクトルのそれぞれとを比較することにより、その比較結果に基づいて音源手段305における複数のパラメータを制御する。提示手段303(図1の提示装置111に対応する)は、吹奏時に吹奏数値化手段301が生成した特徴ベクトルと手本となる演奏パターンの代表特徴ベクトルとの距離を算出し、当該距離に基づいて吹奏時の演奏が手本となる演奏パターンとどの程度相違しているかを吹奏者に提示する。物理モデル手段304は、吹奏時に吹奏数値化手段301が出力する複数の数値化された信号を外部入力として、振動可能な振動体を模式化した物理モデルを振動させ、その振動に基づいて音源手段305における複数のパラメータを制御する。 FIG. 3 is a functional block diagram of the electronic musical instrument shown in FIGS. 1 and 2. This electronic musical instrument includes sound source means 305 (corresponding to the WAVE sound source 108 in FIG. 1) that generates an acoustic signal based on a plurality of parameters. The wind digitizing means 301 (corresponding to the sensor group 104 in FIG. 1) digitizes a plurality of wind performances such as blowing pressure, tongue movement, lip position, biting pressure, voice, etc. A feature vector having the converted signal as a feature amount is generated. The pattern recognition unit 302 (corresponding to the CPU 101, the ROM 102, and the RAM 103 in FIG. 1) stores a representative feature vector corresponding to each performance pattern for each of the plurality of performance patterns related to the wind performance, and performs the numerical value calculation unit 301 at the time of playing. Are compared with the representative feature vectors for each performance pattern, thereby controlling a plurality of parameters in the sound source means 305 based on the comparison result. The presentation unit 303 (corresponding to the presentation device 111 in FIG. 1) calculates the distance between the feature vector generated by the brass digitizing unit 301 at the time of playing and the representative feature vector of the performance pattern serving as a model, and based on the distance. And how much the performance at the time of playing differs from the playing pattern that serves as an example is presented to the playing player. The physical model means 304 vibrates a physical model that schematically represents a vibrating body that can be vibrated by using a plurality of digitized signals output from the sound digitizing means 301 at the time of playing as external inputs, and based on the vibration, a sound source means A plurality of parameters at 305 are controlled.

以下に、図3に示される機能のそれぞれについて、詳細に説明する。演奏者306による吹奏を詳細にセンスするために、マウスピース部6の内部に、吹奏圧センサ401、上唇の位置を検出するリップセンサ402、歯の噛み圧を検出するバイトセンサ403、舌の形を検出するタンセンサ404、およびマウスピースの音声信号を取り込むボイスセンサ405等が、複数実装されている。これらの各センサ401〜405はそれぞれアナログ電圧値を出力し、各アナログ電圧値は図1のADC105によってデジタル電圧値に変換されて、CPU101に取り込まれる。すなわち、これらの401〜405のセンサ群104(図1)は、複数の吹奏演奏を数値化しその複数の数値化された信号を特徴量とする特徴ベクトルを生成する図3の吹奏数値化手段301の一部として機能する。   Hereinafter, each of the functions shown in FIG. 3 will be described in detail. In order to sense in detail the playing by the performer 306, inside the mouthpiece part 6, the blowing pressure sensor 401, the lip sensor 402 for detecting the position of the upper lip, the bite sensor 403 for detecting the biting pressure of the teeth, the shape of the tongue A plurality of tongue sensors 404 for detecting the sound, a voice sensor 405 for capturing the sound signal of the mouthpiece, and the like are mounted. Each of these sensors 401 to 405 outputs an analog voltage value, and each analog voltage value is converted into a digital voltage value by the ADC 105 of FIG. That is, the sensor group 104 (FIG. 1) of 401 to 405 digitizes a plurality of wind performances and generates a feature vector having the feature values of the plurality of digitized signals as the wind performance digitizing means 301 of FIG. Act as part of

なお、他の実施形態として、吹奏者の唇を撮影するカメラが配置されてもよい。   As another embodiment, a camera that photographs the lips of the blower may be arranged.

図4は、図1のWAVE音源108のブロック図である。管楽器吹奏では、口蓋の形や息の強さなどによって複数の音色の楽音が演奏される。WAVE音源108は、それぞれの演奏技法を代表する複数の演奏波形を各々録音したウエーブテーブル501(図中では例えば#1〜#3の3個)を備え、吹奏による演奏者の指配置で指定される音高で、各演奏波形が同時に発音させられる。各々の波形は同位相で鳴るように信号処理されていて、重ね合わせても音量が不自然に打ち消しあうようなことはない。その後に設けられた各乗算器502(例えば#1〜#3)と、加算器503で各々の演奏技法の発音バランスが調整され、その後必要ならば音量調整部504にて全体音量が調整され、図1のDAC109に送出され楽音が発音される。   FIG. 4 is a block diagram of the WAVE sound source 108 of FIG. In wind instruments, multiple musical tones are played according to the shape of the palate and the strength of breath. The WAVE sound source 108 includes a wave table 501 (for example, three of # 1 to # 3 in the drawing) each recording a plurality of performance waveforms representative of each performance technique, and is designated by the player's finger arrangement by playing the wind. Each performance waveform is sounded at the same pitch. Each waveform is signal-processed so as to sound in the same phase, and the volume does not cancel unnaturally even if they are superimposed. After that, each multiplier 502 (for example, # 1 to # 3) provided and the adder 503 adjust the pronunciation balance of each performance technique, and then the volume controller 504 adjusts the overall volume if necessary. A musical sound is generated by being sent to the DAC 109 in FIG.

なお、他の実施例として、シンセサイザやウエーブガイド音源がパラメータ制御されてもよい。   As another example, a synthesizer or a wave guide sound source may be parameter controlled.

以上説明した図1〜図4の構成に基づく電子楽器の発音制御処理の第1〜第3の実施形態について、順次説明する。   The first to third embodiments of the sound generation control process of the electronic musical instrument based on the configuration shown in FIGS.

図5は、発音制御処理の第1の実施形態の説明図である。図3に示されるように、マウスピース部6のセンサは401〜405のように複数個あり、それらからの各出力は図1のADC105によって一定間隔でサンプリングされ、各デジタル値に変換される。それらの値の絶対値や前回との変化値を記録すると、1×Nの特徴ベクトルになる。図5中で黒塗りの小さい四角で表された位置は、ベクトル空間上での特徴ベクトルを表す。図5では簡単のため2次元で表現してあるが、実際には各点はセンサの数に応じた次元数(図3の例では401〜405の5次元)を有する多次元の特徴ベクトルを表す。   FIG. 5 is an explanatory diagram of the first embodiment of the sound generation control process. As shown in FIG. 3, there are a plurality of sensors of the mouthpiece unit 6 such as 401 to 405, and outputs from these are sampled at regular intervals by the ADC 105 of FIG. 1 and converted into digital values. If the absolute value of those values or the change value from the previous value is recorded, it becomes a 1 × N feature vector. In FIG. 5, the positions represented by small black squares represent feature vectors on the vector space. In FIG. 5, for simplicity, it is expressed in two dimensions, but in actuality, each point is a multidimensional feature vector having a number of dimensions corresponding to the number of sensors (in the example of FIG. 3, five dimensions 401 to 405). Represent.

学習モードにおいては、演奏者による吹奏演奏が複数サンプリングされて記憶される。例えば、演奏者がオーバートーン演奏のために口蓋の形を変えるが、その演奏形状に対応したセンサ出力値の各組がそれぞれサンプリングされて、特徴ベクトルが複数記憶される。その記憶と同時に、演奏者はその演奏がオーバートーン演奏であるというスイッチを押す。さらに、タンギング演奏についても、同様の処理が実行される。これらの特徴ベクトルを補完して得られる平面のピーク値が有限個検出される。その個数は演奏識別数と一致し、例えばオーバートーン演奏とタンギング演奏の2個である。そのピークからの距離が予め定めた閾値以下のものとその閾値より大きいものとが識別される。その結果、各々の特徴ベクトルは、図5の破線601や602の内部として特徴抽出される。これらの分布601、602の各重心値が、演奏技法の代表特徴ベクトルとして算出されて記憶される。   In the learning mode, a plurality of wind performances by the performer are sampled and stored. For example, when the performer changes the shape of the palate for overtone performance, each set of sensor output values corresponding to the performance shape is sampled and a plurality of feature vectors are stored. Simultaneously with the memory, the performer presses a switch that the performance is an overtone performance. Further, the same processing is executed for the tongue playing. A finite number of plane peak values obtained by complementing these feature vectors are detected. The number corresponds to the performance identification number, for example, overtone performance and tongue performance. Those whose distance from the peak is equal to or smaller than a predetermined threshold and those whose distance from the peak is larger than the threshold are identified. As a result, each feature vector is extracted as the inside of the broken lines 601 and 602 in FIG. Each centroid value of these distributions 601 and 602 is calculated and stored as a representative feature vector of the performance technique.

次に、演奏モードにおいては、電子楽器が学習した代表特徴ベクトルそれぞれと演奏者の吹奏演奏で得られる特徴ベクトルとの各距離が演算される。ここで簡単に、代表特徴ベクトルと特徴ベクトルの差の絶対値の合計を距離とすると、その距離が近い代表特徴ベクトル程、その代表特徴ベクトルに対応する演奏技法による演奏らしさが近いと判断できる。この代表特徴ベクトルごとの各距離に反比例する各乗算値が図4に示されるWAVE音源108における各乗算器502に与えられて、各演奏技法ごとの演奏波形がミックスされ、楽音信号が発音される。   Next, in the performance mode, each distance between each representative feature vector learned by the electronic musical instrument and a feature vector obtained by the performer's wind performance is calculated. Here, if the sum of the absolute values of the difference between the representative feature vector and the feature vector is a distance, it can be determined that the representative feature vector having the shorter distance is closer to the performance by the performance technique corresponding to the representative feature vector. Each multiplication value inversely proportional to each distance for each representative feature vector is given to each multiplier 502 in the WAVE sound source 108 shown in FIG. 4, and the performance waveforms for each performance technique are mixed to generate a tone signal. .

図6は、発音制御処理の第1の実施形態の全体処理の例を示すフローチャートである。この処理は、図1のCPU101が、ROM102に記憶された発音制御処理プログラムを実行する動作として実現される。この発音制御処理プログラムは、図3の吹奏数値化手段301とパターン認識手段302の機能を実現する。この発音制御処理プログラムは、例えば特には図示しない可搬記録媒体駆動装置に挿入される可搬記録媒体に記録して配布されてもよく、或いは特には図示しない通信インタフェースによりインターネットやローカルエリアネットワーク等のネットワークから取得できるようにしてもよい。以下随時、図1の構成を参照する。   FIG. 6 is a flowchart illustrating an example of the overall processing of the first embodiment of the sound generation control processing. This processing is realized as an operation in which the CPU 101 in FIG. 1 executes the sound generation control processing program stored in the ROM 102. This sound generation control processing program realizes the functions of the brass digitizing means 301 and the pattern recognition means 302 of FIG. The sound generation control processing program may be distributed by being recorded on a portable recording medium inserted in a portable recording medium driving device (not shown), or the Internet or a local area network or the like by a communication interface (not shown). It may be possible to obtain from the network. Hereinafter, the configuration of FIG. 1 will be referred to as needed.

まず、CPU101は、楽器が演奏を学習する処理を実行する(ステップS701)。この処理の詳細については、図7で後述する。   First, the CPU 101 executes processing for the musical instrument to learn to play (step S701). Details of this processing will be described later with reference to FIG.

次に、CPU101は、学習結果を識別する処理を実行する(ステップS702)。この処理の詳細については、図8で後述する。   Next, the CPU 101 executes processing for identifying a learning result (step S702). Details of this processing will be described later with reference to FIG.

次に、CPU101は、識別した結果で発音する処理を実行する(ステップS703)。この処理の詳細については、図9で後述する。   Next, the CPU 101 executes a process of generating a sound with the identified result (step S703). Details of this processing will be described later with reference to FIG.

その後、CPU101は、演奏者が学習モードスイッチ(図1のスイッチ群106の一部)(モード指定手段)を押したか否かを判定する(ステップS704)。ステップS704の判定がNOならば、CPU101は、ステップS703を繰り返し実行する。演奏者が学習モードスイッチを押した結果ステップS704の判定がYESになると、CPU101は、ステップS701の処理に戻って、楽器が演奏を学習する処理をやり直す。   Thereafter, the CPU 101 determines whether or not the performer has pressed the learning mode switch (a part of the switch group 106 in FIG. 1) (mode specifying means) (step S704). If the determination in step S704 is no, the CPU 101 repeatedly executes step S703. As a result of the player pressing the learning mode switch, if the determination in step S704 is YES, the CPU 101 returns to the processing in step S701 and redoes the process in which the instrument learns the performance.

図7は、図6のステップS701の楽器が演奏を学習する処理(学習手段)の詳細例を示すフローチャートである。   FIG. 7 is a flowchart showing a detailed example of processing (learning means) in which the musical instrument in step S701 in FIG. 6 learns performance.

まず、CPU101は、演奏者が学習用の楽器演奏を行ったときのセンサ群104(図3の401〜405に対応する)の各センサ値を、ADC105を介して取り込み、センサ出力ベクトル値を得る(ステップS801)。   First, the CPU 101 captures each sensor value of the sensor group 104 (corresponding to 401 to 405 in FIG. 3) when the performer performs a musical instrument for learning through the ADC 105, and obtains a sensor output vector value. (Step S801).

次に、演奏者が現在の演奏がどの演奏波形に対応するかを波形番号スイッチ(図1のスイッチ群106の一部)を押すことにより指定し(演奏パターン指定手段)、CPU101は押された波形番号スイッチに対応する波形番号を、GPIO107を介して取り込む(ステップS802)。   Next, the performer designates which performance waveform the current performance corresponds to by pressing a waveform number switch (a part of the switch group 106 in FIG. 1) (performance pattern designating means), and the CPU 101 is depressed. The waveform number corresponding to the waveform number switch is taken in via the GPIO 107 (step S802).

CPU101は、ステップS802で取り込んだ波形番号とステップS801で得たセンサ出力ベクトル値を組にしてRAM103に記憶する(ステップS803)。   The CPU 101 stores the waveform number acquired in step S802 and the sensor output vector value obtained in step S801 as a set in the RAM 103 (step S803).

CPU101は、全ての波形番号について規定の回数が終了したか否かを判定する(ステップS804)。ステップS804の判定がNOならば、CPU101は、ステップS801の処理に戻る。ステップS804の判定がYESになると、CPU101は、図7のフローチャートの処理を終了して図6のステップS701の処理を終了する。   The CPU 101 determines whether or not the specified number of times has been completed for all waveform numbers (step S804). If the determination in step S804 is no, the CPU 101 returns to the process in step S801. If the determination in step S804 is YES, the CPU 101 ends the process of the flowchart of FIG. 7 and ends the process of step S701 of FIG.

以上の図7のフローチャートで例示される図6のステップS701の楽器が演奏を学習する処理により、図5の破線601や602に対応する波形番号ごとに、黒い四角で示される特徴ベクトル群が取得される。   The feature vector group indicated by the black square is obtained for each waveform number corresponding to the broken lines 601 and 602 in FIG. 5 by the process in which the musical instrument in step S701 in FIG. 6 illustrated in the flowchart of FIG. Is done.

図8は、図6のステップS702の学習結果を識別する処理(学習手段)の詳細例を示すフローチャートである。   FIG. 8 is a flowchart showing a detailed example of the process (learning means) for identifying the learning result in step S702 of FIG.

まず、CPU101は、RAM103上の変数である選択番号レジスタを0(ゼロ)に初期化する(ステップS901)。   First, the CPU 101 initializes a selection number register, which is a variable on the RAM 103, to 0 (zero) (step S901).

次に、CPU101は、図6のステップS701で得られている、選択番号レジスタが示す波形番号に対応する特徴ベクトル群を、RAM103から読み込む(ステップS902)。   Next, the CPU 101 reads from the RAM 103 the feature vector group corresponding to the waveform number indicated by the selection number register, which is obtained in step S701 in FIG. 6 (step S902).

次に、CPU101は、ステップS902で読み込んだ特徴ベクトル群に基づいて、選択番号レジスタが示す波形番号に対応する重心を求め、その結果得られる重心をその波形番号に対応する代表特徴ベクトルとして、RAM103に記憶させる(ステップS903)。   Next, the CPU 101 obtains the center of gravity corresponding to the waveform number indicated by the selection number register based on the feature vector group read in step S902, and uses the resulting center of gravity as the representative feature vector corresponding to the waveform number. (Step S903).

その後、CPU101は、選択番号レジスタが示す波形番号を+1インクリメントする(ステップS904)。   Thereafter, the CPU 101 increments the waveform number indicated by the selection number register by +1 (step S904).

CPU101は、選択番号レジスタが示す波形番号を判定することにより、全ての波形について処理が終了したか否かを判定する(ステップS905)。ステップS905の判定がNOならば、CPU101は、ステップS902の処理に戻って次の波形番号に対応する代表特徴ベクトルの算出処理を繰り返し実行する。ステップS905の判定がYESになると、CPU101は、図8のフローチャートの処理を終了し、図6のステップS702の学習結果を識別する処理を終了する。   The CPU 101 determines whether or not the processing has been completed for all the waveforms by determining the waveform number indicated by the selection number register (step S905). If the determination in step S905 is NO, the CPU 101 returns to the process in step S902 and repeatedly executes the representative feature vector calculation process corresponding to the next waveform number. When the determination in step S905 is YES, the CPU 101 ends the process of the flowchart of FIG. 8 and ends the process of identifying the learning result in step S702 of FIG.

図9は、図6のステップS703の、識別した結果で発音する処理の詳細例を示すフローチャートである。   FIG. 9 is a flowchart showing a detailed example of the process of sounding with the identified result in step S703 of FIG.

まず、CPU101は、演奏者が演奏モードで演奏したときのセンサ群104(図3の401〜405に対応する)の各センサ値を、ADC105を介して取り込み、図5で説明した特徴ベクトルを得る(ステップS1001)。   First, the CPU 101 takes in each sensor value of the sensor group 104 (corresponding to 401 to 405 in FIG. 3) when the performer performs in the performance mode via the ADC 105, and obtains the feature vector described in FIG. (Step S1001).

次に、CPU101は、図5で説明したように、図6のステップS702でRAM103に得られている各波形番号の代表特徴ベクトルと、ステップS1001で得られた特徴ベクトルとの各距離を、それぞれ演算する(ステップS1002)。   Next, as described in FIG. 5, the CPU 101 determines the distance between the representative feature vector of each waveform number obtained in the RAM 103 in step S702 of FIG. 6 and the feature vector obtained in step S1001. Calculation is performed (step S1002).

CPU101は、ステップS1002で算出した各距離に反比例する各乗算値を、図1のWAVE音源108を構成する図4の各乗算器502に与える(ステップS1003)。すなわち、現在の演奏が似ている演奏技法に対応するウエーブテーブル501の出力ほど、出力される楽音信号に含まれる割合が大きくなる。   The CPU 101 gives each multiplication value inversely proportional to each distance calculated in step S1002 to each multiplier 502 in FIG. 4 constituting the WAVE sound source 108 in FIG. 1 (step S1003). That is, as the output of the wave table 501 corresponding to a performance technique similar to the current performance, the ratio included in the output musical sound signal increases.

次に、CPU101は、指操作スイッチ(図1のスイッチ群106の一部に対応する)の操作情報をGPIO107を介して取得し、演奏者が管楽器の指使いに従って指定した音高を算出する(ステップS1004)。   Next, the CPU 101 acquires operation information of finger operation switches (corresponding to a part of the switch group 106 in FIG. 1) via the GPIO 107, and calculates a pitch designated by the performer according to the finger usage of the wind instrument ( Step S1004).

CPU101は、ステップS1003で定まった音量とステップS1004で算出した音高でWAVE音源108から出力される楽音信号を、DAC109に送って発音させる(ステップS1005)。その後、CPU101は、図9のフローチャートの処理を終了し、図6のステップS703の識別した結果で発音する処理を終了する。   The CPU 101 sends the musical tone signal output from the WAVE sound source 108 with the volume determined in step S1003 and the pitch calculated in step S1004 to the DAC 109 for sound generation (step S1005). Thereafter, the CPU 101 ends the process of the flowchart of FIG. 9 and ends the process of sounding with the result identified in step S703 of FIG.

図10は、図1の提示装置111の構成例を示す図である。一般的に、吹奏楽器の初心者は正しい演奏の口蓋の形をすることができないため、発音制御処理の第1の実施形態で説明した学習モードで正しい学習データを記録できない場合がある。そこで、以下に説明する発音制御処理の第2の実施形態では、学習モードを教師がお手本として設定し、演奏モードで生徒に教えることを可能とする。   FIG. 10 is a diagram illustrating a configuration example of the presentation device 111 of FIG. Generally, since a beginner of a wind instrument cannot form a palate for correct performance, the correct learning data may not be recorded in the learning mode described in the first embodiment of the sound generation control process. Therefore, in the second embodiment of the sound generation control process described below, the teacher can set the learning mode as a model and teach the student in the performance mode.

図10(a)および(b)に示されるように、左LED(発光ダイオード)1101と右LED1102の2個のLEDが、マウスピース部6(図2参照)を咥えた状態で生徒から見える位置に配置される。図10に示される円筒で表された部分が、LED配置の外形図である。   As shown in FIGS. 10 (a) and 10 (b), the two LEDs, the left LED (light emitting diode) 1101 and the right LED 1102, are visible to the student with the mouthpiece 6 (see FIG. 2) in hand. Placed in. The part represented by the cylinder shown in FIG. 10 is an external view of the LED arrangement.

演奏モードにおいては、生徒の演奏に応じて取得される特徴ベクトルと、先生が学習し生徒が演奏時に指定した演奏技法に対応する代表特徴ベクトルとの距離が比較される。そして、その距離が近づく場合には右LED1102が点滅させられ、その距離が遠ざかる場合左LED1101が点滅させられる。さらに、上記距離が遠くなるほど早く点滅させられ、逆に上記距離が一致する場合は点滅が止められる。生徒は口蓋の形を、左LED1101または右LED1102の点滅がとまるように、練習する。この練習によって、生徒は口蓋を変化させながら正しい形を取ることができる。   In the performance mode, the distance between the feature vector acquired according to the performance of the student and the representative feature vector corresponding to the performance technique that the teacher has learned and specified by the student during the performance is compared. When the distance approaches, the right LED 1102 blinks. When the distance increases, the left LED 1101 blinks. Further, the longer the distance, the faster the blinking, and conversely, the blinking is stopped when the distances match. Students practice the shape of the palate so that the left LED 1101 or the right LED 1102 stops blinking. This practice allows students to take the correct form while changing their palate.

他の実施形態として、電子楽器のLCDディスプレイに距離を3D表示してもよい。また、視覚だけではなく触覚を使うように距離を振動バイブレータの振動量で提示してもよい。   As another embodiment, the distance may be displayed in 3D on the LCD display of the electronic musical instrument. Further, the distance may be presented by the vibration amount of the vibration vibrator so as to use not only the visual sense but also the tactile sense.

図11は、上述の提示装置111を用いた発音制御処理の第2の実施形態の全体処理の例を示すフローチャートである。この処理は、図6のフローチャートで説明した発音制御処理の第1の実施形態の処理と同様に、図1のCPU101が、ROM102に記憶された発音制御処理プログラムを実行する動作として実現される。この発音制御処理プログラムは、図3の吹奏数値化手段301とパターン認識手段302と提示手段303の機能を実現する。この発音制御処理プログラムも、例えば特には図示しない可搬記録媒体駆動装置に挿入される可搬記録媒体に記録して配布されてもよく、或いは特には図示しない通信インタフェースによりインターネットやローカルエリアネットワーク等のネットワークから取得できるようにしてもよい。以下随時、図1の構成を参照する。   FIG. 11 is a flowchart illustrating an example of overall processing of the second embodiment of the sound generation control processing using the presentation device 111 described above. This processing is realized as an operation in which the CPU 101 in FIG. 1 executes the sound generation control processing program stored in the ROM 102, similarly to the processing in the first embodiment of the sound generation control processing described in the flowchart of FIG. This sound generation control processing program realizes the functions of the brass digitizing means 301, the pattern recognition means 302, and the presentation means 303 of FIG. This sound generation control processing program may also be distributed by being recorded on a portable recording medium inserted in a portable recording medium driving device (not shown), or the Internet, a local area network, etc. It may be possible to obtain from the network. Hereinafter, the configuration of FIG. 1 will be referred to as needed.

まず、CPU101は、先生の演奏により、楽器が演奏を学習する処理を実行する(ステップS1201)。この処理は、演奏者が先生になっただけで、発音制御処理の第1の実施形態の処理における図6のステップS701と実質的に同様であり、その詳細な処理の例は、前述した図7のフローチャートで示される。   First, the CPU 101 executes a process for the musical instrument to learn the performance according to the performance of the teacher (step S1201). This process is substantially the same as step S701 in FIG. 6 in the process of the first embodiment of the sound generation control process only when the performer becomes a teacher, and an example of the detailed process is described above. 7 is a flowchart.

次に、CPU101は、先生の演奏による学習結果を識別する処理を実行する(ステップS1202)。この処理も、演奏者が先生になっただけで、発音制御処理の第1の実施形態の処理における図6のステップS702と実質的に同様であり、その詳細な処理の例は、前述した図8のフローチャートで示される。   Next, the CPU 101 executes processing for identifying a learning result obtained by the teacher's performance (step S1202). This process is also substantially the same as step S702 of FIG. 6 in the process of the first embodiment of the sound generation control process only when the performer becomes a teacher, and an example of the detailed process is described above. 8 is a flowchart.

次に、CPU101は、識別した結果で表示し発音する処理を実行する(ステップS1203)。この処理の詳細については、図12で後述する。   Next, the CPU 101 executes a process of displaying and sounding the identified result (step S1203). Details of this processing will be described later with reference to FIG.

その後、生徒による演奏モードに移行する。CPU101は、学習モードスイッチ(図1のスイッチ群106の一部)が押されたか否かを判定する(ステップS1204)。ステップS1204の判定がNOならば、CPU101は、ステップS1203を繰り返し実行する。先生が学習モードスイッチを押した結果ステップS1204の判定がYESになると、CPU101は、ステップS1201の処理に戻って、先生の演奏により楽器が演奏を学習する処理をやり直す。   Then, it shifts to the performance mode by a student. The CPU 101 determines whether or not a learning mode switch (a part of the switch group 106 in FIG. 1) has been pressed (step S1204). If the determination in step S1204 is NO, the CPU 101 repeatedly executes step S1203. If the determination in step S1204 is YES as a result of the teacher pressing the learning mode switch, the CPU 101 returns to the process in step S1201 and redoes the process for the musical instrument to learn the performance by the performance of the teacher.

図12は、図11のステップS1203の、識別した結果で表示し発音する処理の詳細例を示すフローチャートである。   FIG. 12 is a flowchart showing a detailed example of the processing to display and pronounce the identified result in step S1203 of FIG.

まず、CPU101は、スイッチ部106での生徒のスイッチ入力に基づいて、学習する波形番号を入力する(ステップS1301)。   First, the CPU 101 inputs a waveform number to be learned based on a student switch input in the switch unit 106 (step S1301).

次に、CPU101は、生徒が演奏したときのセンサ群104(図3の401〜405に対応する)の各センサ値を、ADC105を介して取り込み、図5で説明した演奏ベクトル値を得る(ステップS1302)。この処理は、発音制御処理の第1の実施形態における図9のステップS1001と同様である。   Next, the CPU 101 takes in each sensor value of the sensor group 104 (corresponding to 401 to 405 in FIG. 3) when the student performs, through the ADC 105, and obtains the performance vector value described in FIG. S1302). This process is the same as step S1001 of FIG. 9 in the first embodiment of the sound generation control process.

次に、CPU101は、図5で説明したように、図11のステップS1202でRAM103に得られている各波形番号の代表特徴ベクトルと、ステップS1301で得られた特徴ベクトルとの各距離を、それぞれ演算する(ステップS1303)。この処理も、発音制御処理の第1の実施形態における図9のステップS1002と同様である。   Next, as described in FIG. 5, the CPU 101 determines the distance between the representative feature vector of each waveform number obtained in the RAM 103 in step S <b> 1202 of FIG. 11 and the feature vector obtained in step S <b> 1301. Calculation is performed (step S1303). This process is also the same as step S1002 of FIG. 9 in the first embodiment of the sound generation control process.

次に、CPU101は、図5で説明したように、図11のステップS1202でRAM103に得られている各波形番号の代表特徴ベクトルのうちステップS1301で生徒が指定した波形番号の代表特徴ベクトルと、ステップS1302で得られた特徴ベクトルとの距離を演算する(ステップS1303)。   Next, as described in FIG. 5, the CPU 101, among the representative feature vectors of each waveform number obtained in the RAM 103 in step S <b> 1202 of FIG. 11, the representative feature vector of the waveform number designated by the student in step S <b> 1301, The distance from the feature vector obtained in step S1302 is calculated (step S1303).

さらに、CPU101は、前回演奏時にステップS1303で算出され後述するステップS1306でRAM103に保持されている距離と、今回演奏時にステップS1303で算出した距離との、差分を演算する(ステップS1304)。   Further, the CPU 101 calculates a difference between the distance calculated in step S1303 during the previous performance and held in the RAM 103 in step S1306, which will be described later, and the distance calculated in step S1303 during the current performance (step S1304).

ステップS1304での計算の結果、CPU101は、今回算出した距離が前回算出した距離よりも増えた場合には、提示装置111を構成する左LED1101(図10参照)を、また、減った場合には、提示装置111を構成する右LED1102(図10参照)を、今回ステップS1303で算出した距離の絶対値に応じた速度で点滅させる(ステップS1305)。   As a result of the calculation in step S1304, the CPU 101 determines that the left LED 1101 (see FIG. 10) constituting the presentation device 111 is displayed when the distance calculated this time is larger than the previously calculated distance, and when the distance is decreased. The right LED 1102 (see FIG. 10) constituting the presentation device 111 is blinked at a speed corresponding to the absolute value of the distance calculated in step S1303 (step S1305).

その後、CPU101は、今回ステップS1303で算出した距離を、RAM103に記憶させる(ステップS1306)。   Thereafter, the CPU 101 stores the distance calculated in step S1303 this time in the RAM 103 (step S1306).

最後に、CPU101は、識別した結果で発音する処理を実行する(ステップS1307)。この処理は、発音制御処理の第1の実施形態で説明した図6のステップS703の処理(図9のフローチャートで例示される処理)と同様である。その後、CPU101は、図12のフローチャートの処理を終了し、図11のステップS1203の識別した結果で表示し発音する処理を終了する。   Finally, the CPU 101 executes a process of generating a sound with the identified result (step S1307). This process is the same as the process in step S703 of FIG. 6 described in the first embodiment of the sound generation control process (the process illustrated in the flowchart of FIG. 9). Thereafter, the CPU 101 ends the process of the flowchart of FIG. 12, and ends the process of displaying and sounding with the identified result in step S1203 of FIG.

次に、発音制御処理の第3の実施形態について説明する。図13は、発音制御処理の第3の実施形態の説明図である。演奏モードで検出された演奏波形から別の演奏波形に遷移する場合、自然楽器では滑らかに変わるのではなく、中間の不安定な演奏状態を介して遷移する。   Next, a third embodiment of the sound generation control process will be described. FIG. 13 is an explanatory diagram of a third embodiment of the sound generation control process. When transitioning from a performance waveform detected in the performance mode to another performance waveform, a natural musical instrument does not change smoothly but transits through an unstable performance state in the middle.

図13は、その遷移状態を実現する振動体を模式化した図物理モデルを示している。この物理モデルは、黒丸で示される3つの質量体1401a、1401b、1401cを、黒い直線で示される制動機能を有する3本のバネ(リンク部)1402a、1402b、1402c、で相互に接続し、さらに一端が上記3つの質量体1401a、1401b、1401cにそれぞれ接続され、他端が固定されている3本の制動機能を有するバネ(リンク部)1403a、1403b、1403cを接続し、合計6本のバネと3個の質量体で構成されている。   FIG. 13 shows a diagram physical model that schematically shows a vibrating body that realizes the transition state. In this physical model, three mass bodies 1401a, 1401b, 1401c indicated by black circles are mutually connected by three springs (link portions) 1402a, 1402b, 1402c having a braking function indicated by black straight lines. One end is connected to each of the three mass bodies 1401a, 1401b, 1401c, and the other end is fixed and three springs (link portions) 1403a, 1403b, 1403c having a braking function are connected, for a total of six springs. And three mass bodies.

この物理モデルは、外部からの入力によって、各々の質量体の位置や、バネの強さ、制動の強さによって定められた自励振動を生じるように構成されている。これを動作させるには、ひとつの質量体をセンサ群104を構成するひとつのセンサの値で移動させて自励振動させ、その振動によって振動する他の2つの質量体の位置を取り出し、各演奏の音量、すなわち図4の乗算器502の乗算値を制御すればよい。   This physical model is configured to generate self-excited vibrations determined by the position of each mass body, the strength of a spring, and the strength of braking by an external input. In order to operate this, one mass body is moved by the value of one sensor constituting the sensor group 104 to self-excited vibration, the positions of the other two mass bodies that vibrate due to the vibration are extracted, and each performance is obtained. 4, that is, the multiplication value of the multiplier 502 in FIG. 4 may be controlled.

具体的には以下の演算が、各質量体とバネ毎に必要な離散時間で、繰り返し実行される。   Specifically, the following calculation is repeatedly executed at a discrete time required for each mass body and each spring.

・位置=力÷質量体の質量+2×直前の位置−直前のさらの直前の位置
・・・(1)
-Position = force / mass of mass + 2 x position immediately before-position just before the last
... (1)

・距離=位置−直前の位置 ・・・(2)     ・ Distance = Position−Previous position (2)

・力=バネの強さ×(距離−バネ長さ)+制動の強さ×(距離−直前の距離)
・・・(3)
・ Force = Spring strength x (Distance-Spring length) + Braking strength x (Distance-Distance just before)
... (3)

本実施形態で採用される物理モデルは、3質量体の自由振動であり、一般的には解析解を持たない。このモデルが生成する自励振動は3箇所で拘束されているため、その動きをある程度予測可能であるが、遷移経路によっては複雑な動きをする。このある程度予測可能である複雑な動きが、電子楽器の演奏性を決定づける性能である。演奏性は、簡単すぎては演奏にすぐ飽きてしまうし、複雑すぎては演奏できない。本実施形態が目的とするのは、各演奏から各演奏に推移する際の遷移状態を模倣するモデルである。従って、実際の自然楽器の構造と必ずしも対応する必要はなく、このように簡略化されたモデルでも十分に機能する。   The physical model employed in the present embodiment is a three-mass body free vibration and generally has no analytical solution. Since the self-excited vibration generated by this model is constrained at three locations, its movement can be predicted to some extent, but it moves complicatedly depending on the transition path. This complicated movement that can be predicted to some extent is the performance that determines the performance of the electronic musical instrument. If it is too easy, you will get bored of the performance, and if it is too complicated, you cannot play it. The purpose of this embodiment is a model that mimics the transition state when transitioning from performance to performance. Therefore, it is not always necessary to correspond to the structure of an actual natural musical instrument, and even a model simplified in this way functions sufficiently.

図14は、上述の物理モデルを利用する発音制御処理の第3の実施形態の全体処理の例を示すフローチャートである。この処理は、図6のフローチャートで説明した発音制御処理の第1の実施形態の処理と同様に、図1のCPU101が、ROM102に記憶された発音制御処理プログラムを実行する動作として実現される。この発音制御処理プログラムは、図3の吹奏数値化手段301と物理モデル304の機能を実現する。この発音制御処理プログラムも、例えば特には図示しない可搬記録媒体駆動装置に挿入される可搬記録媒体に記録して配布されてもよく、或いは特には図示しない通信インタフェースによりインターネットやローカルエリアネットワーク等のネットワークから取得できるようにしてもよい。以下随時、図1の構成を参照する。   FIG. 14 is a flowchart showing an example of overall processing of the third embodiment of the sound generation control processing using the above-described physical model. This processing is realized as an operation in which the CPU 101 in FIG. 1 executes the sound generation control processing program stored in the ROM 102, similarly to the processing in the first embodiment of the sound generation control processing described in the flowchart of FIG. This sound generation control processing program realizes the functions of the wind digitizing means 301 and the physical model 304 of FIG. This sound generation control processing program may also be distributed by being recorded on a portable recording medium inserted in a portable recording medium driving device (not shown), or the Internet, a local area network, etc. It may be possible to obtain from the network. Hereinafter, the configuration of FIG. 1 will be referred to as needed.

まず、CPU101は、識別した結果で発音する処理を実行する(ステップS1501)。この処理は、発音制御処理の第1の実施形態で説明した図6のステップS703の処理(図9のフローチャートで例示される処理)と同様である。なお、各演奏技法に対応する各波形番号ごとの代表特徴ベクトルは、前述した発音制御処理の第1または第2の実施形態で説明した学習モードでの処理により、RAM103に予め得られているとする。本実施形態では、学習モードの処理は省略している。   First, the CPU 101 executes a process of generating sound based on the identified result (step S1501). This process is the same as the process in step S703 of FIG. 6 described in the first embodiment of the sound generation control process (the process illustrated in the flowchart of FIG. 9). It should be noted that the representative feature vector for each waveform number corresponding to each performance technique is obtained in advance in the RAM 103 by the processing in the learning mode described in the first or second embodiment of the sound generation control processing described above. To do. In this embodiment, the learning mode process is omitted.

次に、CPU101は、音量最大の波形が変わったか否かを判定する(ステップS1502)。   Next, the CPU 101 determines whether or not the maximum volume waveform has changed (step S1502).

ステップS1502の判定がNOならば、CPU101は、ステップS1501に戻り発音動作を続行する。   If the determination in step S1502 is NO, the CPU 101 returns to step S1501 and continues the sound generation operation.

ステップS1502の判定がYESならば、CPU101は、物理モデルによる変調をWAVE音源108(図1)に加える処理を実行する(ステップS1503)。   If the determination in step S1502 is YES, the CPU 101 executes processing for adding modulation based on the physical model to the WAVE sound source 108 (FIG. 1) (step S1503).

図15は、図14のステップS1503の物理モデルによる変調を音源に加える処理の詳細例を示すフローチャートである。   FIG. 15 is a flowchart showing a detailed example of the process of adding modulation based on the physical model in step S1503 of FIG. 14 to the sound source.

まず、CPU101は、現在のセンサ群104(図3の401〜405に対応する)の各センサ値を、ADC105を介して取り込み、そのセンサ値で、図13に例示した物理モデルにおける質量体1401aの位置を変更する(ステップS1601)。   First, the CPU 101 captures each sensor value of the current sensor group 104 (corresponding to 401 to 405 in FIG. 3) via the ADC 105, and the sensor value of the mass body 1401a in the physical model illustrated in FIG. The position is changed (step S1601).

次に、CPU101は、図13に例示した物理モデルにおけるバネ(リンク部)を6本演算する処理を実行する(ステップS1602)。この処理の詳細は、図16のフローチャートを用いていて後述する。   Next, the CPU 101 executes a process of calculating six springs (link portions) in the physical model illustrated in FIG. 13 (step S1602). Details of this processing will be described later using the flowchart of FIG.

次に、CPU101は、図13に例示した物理モデルにおける質量体を3個演算する処理を実行する(ステップS1603)。この処理の詳細は、図17のフローチャートを用いて後述する。   Next, the CPU 101 executes a process of calculating three mass bodies in the physical model illustrated in FIG. 13 (step S1603). Details of this processing will be described later with reference to the flowchart of FIG.

最後に、CPU101は、図13に例示した物理モデルにおける質量体1401b、質量体1401cの位置を取り出し、図1のWAVE音源108を構成する図4の乗算器502の乗算値に加算する(ステップS1603)。その後、CPU101は、図15のフローチャートの処理を終了し、図14のステップS1503の処理を終了する。   Finally, the CPU 101 extracts the positions of the mass bodies 1401b and 1401c in the physical model illustrated in FIG. 13 and adds them to the multiplication value of the multiplier 502 in FIG. 4 constituting the WAVE sound source 108 in FIG. 1 (step S1603). ). Thereafter, the CPU 101 ends the process of the flowchart of FIG. 15 and ends the process of step S1503 of FIG.

図16は、図15のステップS1602のリンク部を6本演算する処理の詳細例を示すフローチャートである。   FIG. 16 is a flowchart showing a detailed example of processing for calculating six link portions in step S1602 of FIG.

まず、CPU101は、バネ6本の処理をカウントするためのRAM103上の変数であるカウンタを0(ゼロ)に初期化する(ステップS1701)。   First, the CPU 101 initializes a counter that is a variable on the RAM 103 for counting the processing of the six springs to 0 (zero) (step S1701).

その後、CPU101は、ステップS1702からS1706までの一連の処理を、バネ6本に対応して6回繰り返し実行する。   Thereafter, the CPU 101 repeatedly executes a series of processes from step S1702 to S1706 six times corresponding to six springs.

まず、CPU101は、前述した(2)式により、距離を計算する(ステップS1702)。   First, the CPU 101 calculates the distance according to the above-described equation (2) (step S1702).

次に、CPU101は、前述した(3)式の「バネの強さ×(距離−バネ長さ)」を計算し、RAM103上の変数Lに格納する(ステップS1703)。   Next, the CPU 101 calculates “spring strength × (distance−spring length)” in the above-described expression (3) and stores it in the variable L on the RAM 103 (step S1703).

次に、CPU101は、前述した(3)式の「制動の強さ×(距離−直前の距離)」を計算し、RAM103上の変数Mに格納する(ステップS1704)。   Next, the CPU 101 calculates “braking strength × (distance−distance immediately before)” in the above-described equation (3) and stores it in the variable M on the RAM 103 (step S1704).

さらに、CPU101は、ステップS1703で計算した変数Lの値とステップS1704で計算した変数Mの値を加算することにより(3)式を計算し、その計算結果を現在処理しているバネに対応するリンクの力を保持するRAM103上のリンクの力レジスタに記憶させる(ステップS1705)。   Further, the CPU 101 calculates the expression (3) by adding the value of the variable L calculated in step S1703 and the value of the variable M calculated in step S1704, and the calculation result corresponds to the currently processed spring. The link force is stored in the link force register on the RAM 103 that holds the link force (step S1705).

その後、CPU101は、カウンタの値を判定することにより、6本のバネに対応するリンク全てについて上記演算を完了したか否かを判定する(ステップS1706)。ステップS1706の判定がNOならば、CPU101は、ステップS1702の処理に戻って、次のバネに対応するリンクについて上記演算を続行する。ステップS1706の判定がYESになると、CPU101は、図16のフローチャートの処理を終了し、図15のステップS1602のリンク部を6本演算する処理を終了する。   Thereafter, the CPU 101 determines whether or not the calculation has been completed for all the links corresponding to the six springs by determining the value of the counter (step S1706). If the determination in step S1706 is NO, the CPU 101 returns to the process in step S1702 and continues the above calculation for the link corresponding to the next spring. If the determination in step S1706 is YES, the CPU 101 ends the process of the flowchart of FIG. 16, and ends the process of calculating six link units in step S1602 of FIG.

図17は、図15のステップS1603の質量体を3個演算する処理の詳細を示すフローチャートである。   FIG. 17 is a flowchart showing details of the process of calculating three mass bodies in step S1603 of FIG.

まず、CPU101は、質量体3個の処理をカウントするためのRAM103上の変数であるカウンタを0(ゼロ)に初期化する(ステップS1801)。   First, the CPU 101 initializes a counter, which is a variable on the RAM 103 for counting the processing of three mass bodies, to 0 (zero) (step S1801).

その後、CPU101は、ステップS1802からS1805までの一連の処理を、質量体3個に対応して3回繰り返し実行する。   Thereafter, the CPU 101 repeatedly executes a series of processing from steps S1802 to S1805 three times corresponding to three mass bodies.

まず、CPU101は、現在のカウンタ値が示す質量体に接続されている各リンクに対応するRAM103上の各リンクの力レジスタの値を合計する(ステップS1802)。このレジスタ値は、図15のステップS1602内の図16のステップS1705で計算されRAM103に保持されているものである。   First, the CPU 101 sums up the values of the force registers of the links on the RAM 103 corresponding to the links connected to the mass body indicated by the current counter value (step S1802). This register value is calculated in step S1705 in FIG. 16 in step S1602 in FIG. 15 and stored in the RAM 103.

次に、CPU101は、前述した(1)式により、新しい位置計算する(ステップS1803)。   Next, the CPU 101 calculates a new position using the above-described equation (1) (step S1803).

CPU101は、ステップS1803で計算された新しい位置によって、カウンタ値が示す現在の質量体の位置を更新する(ステップS1804)。   The CPU 101 updates the current position of the mass body indicated by the counter value with the new position calculated in step S1803 (step S1804).

その後、CPU101は、カウンタの値を判定することにより、3個の質量体全てについて上記演算を完了したか否かを判定する(ステップS1805)。ステップS1805の判定がNOならば、CPU101は、ステップS1802の処理に戻って、次の質量体について上記演算を続行する。ステップS1805の判定がYESになると、CPU101は、図17のフローチャートの処理を終了し、図15のステップS1603の質量体を3個演算する処理を終了する。   Thereafter, the CPU 101 determines whether or not the calculation has been completed for all three mass bodies by determining the value of the counter (step S1805). If the determination in step S1805 is NO, the CPU 101 returns to the process in step S1802 and continues the above calculation for the next mass body. If the determination in step S1805 is YES, the CPU 101 ends the process of the flowchart of FIG. 17 and ends the process of calculating three mass bodies in step S1603 of FIG.

上述の発音制御処理の第3の実施形態に関連する他の実施形態として、図13に例示される物理モデルの質量体を変えてもよいし、質量体をさらに増やしてもよい。また、モデルを別の物理モデルの構成と入れ替えてもよい。   As another embodiment related to the third embodiment of the sound generation control process described above, the mass body of the physical model illustrated in FIG. 13 may be changed, or the mass bodies may be further increased. Also, the model may be replaced with the configuration of another physical model.

以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
複数種の吹奏センサそれぞれから吹奏出力値を取得するとともに、当該取得された複数の吹奏出力値夫々を特徴量とする特徴ベクトルを生成する特徴ベクトル生成手段と、
予め定められた吹奏パターンに対応して記憶された代表特徴ベクトルと、前記吹奏出力生成手段により生成された特徴ベクトルとを比較し、当該比較結果に基づいて音源にて発生すべき楽音の複数のパラメータの少なくともひとつを制御する制御手段と、
を有することを特徴とする電子楽器。
(付記2)
前記制御手段は、複数種の吹奏パターンそれぞれに対応した代表特徴ベクトルを複数記憶し、
前記音源は、前記複数の吹奏パターンのそれぞれに対応する吹奏波形を記憶する複数のウエーブテーブルと、当該各ウエーブテーブルの出力それぞれを加算した出力に基づく楽音を出力する出力回路とを含み、
前記制御手段は、前記特徴ベクトル生成手段により生成された特徴ベクトルと前記複数の代表特徴ベクトルとしての座標それぞれとの距離を算出し、前記各ウエーブテーブルの出力夫々に対して当該距離に反比例するように重み付けを行って加算する、
ことを特徴とする付記1に記載の電子楽器。
(付記3)
前記複数の吹奏パターンから吹奏パターンをひとつ指定した後、前記特徴ベクトル生成手段により特徴ベクトルが生成される毎に、当該生成された特徴ベクトルを、前記指定されている吹奏パターンに対応づけて記憶する動作を繰り返し、
前記複数の吹奏パターンそれぞれについて、当該各吹奏パターン対応付けて記憶されている複数の前記特徴ベクトルにより求められた重心値を、当該演奏パターン毎の代表特徴ベクトルとして記憶する記憶制御手段をさらに有することを特徴とする付記1または2に記載の電子楽器。
(付記4)
前記制御手段により算出された距離に基づいて、前記生成された吹奏出力に対応する吹奏パターンと前記予め記憶された吹奏パターンとの相違度を吹奏者に提示する提示手段をさらに備える、
ことを特徴とする付記1ないし3のいずれかに記載の電子楽器。
(付記5)
前記提示手段は、吹奏を行うためのマウスピース部の左右に配置され、前記相違度に応じていずれか一方を点滅させるとともに、前記相違度の値に応じて当該点滅の速度を変化させる2つの発光素子を含む、
ことを特徴とする付記4に記載の電子楽器。
(付記6)
電子楽器が、
複数種の吹奏センサそれぞれから吹奏出力値を取得するとともに、当該取得された複数の吹奏出力値夫々を特徴量とする特徴ベクトルを生成し、
予め定められた吹奏パターンに対応して記憶された代表特徴ベクトルと、前記生成された特徴ベクトルとを比較し、当該比較結果に基づいて音源にて発生すべき楽音の複数のパラメータの少なくともひとつを制御する、発音制御方法。
(付記7)
複数種の吹奏センサそれぞれから吹奏出力値を取得するとともに、当該取得された複数の吹奏出力値夫々を特徴量とする特徴ベクトルを生成するステップと、
予め定められた吹奏パターンに対応して記憶された代表特徴ベクトルと、前記生成された特徴ベクトルとを比較し、当該比較結果に基づいて音源にて発生すべき楽音の複数のパラメータの少なくともひとつを制御するステップと、
をコンピュータに実行させるプログラム。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
A feature vector generating means for acquiring a wind power output value from each of the plurality of types of wind sensors and generating a feature vector having the acquired wind output values as feature quantities,
A representative feature vector stored corresponding to a predetermined wind pattern is compared with a feature vector generated by the wind output generating means, and a plurality of musical sounds to be generated by the sound source based on the comparison result are compared. Control means for controlling at least one of the parameters;
An electronic musical instrument characterized by comprising:
(Appendix 2)
The control means stores a plurality of representative feature vectors corresponding to each of a plurality of types of wind patterns,
The sound source includes a plurality of wave tables that store a wind waveform corresponding to each of the plurality of wind patterns, and an output circuit that outputs a musical sound based on an output obtained by adding the outputs of the wave tables.
The control means calculates a distance between the feature vector generated by the feature vector generation means and each of the coordinates as the plurality of representative feature vectors, and is inversely proportional to the distance with respect to each output of each wave table. Add weighted to
The electronic musical instrument according to Supplementary Note 1, wherein
(Appendix 3)
After specifying one wind pattern from the plurality of wind patterns, each time a feature vector is generated by the feature vector generating means, the generated feature vector is stored in association with the specified wind pattern. Repeat the action
For each of the plurality of playing patterns, there is further provided a storage control means for storing the centroid value obtained from the plurality of feature vectors stored in association with each of the playing patterns as a representative feature vector for each performance pattern. The electronic musical instrument according to appendix 1 or 2, characterized by:
(Appendix 4)
And a presentation means for presenting a difference between the wind pattern corresponding to the generated wind output and the previously stored wind pattern to the winder based on the distance calculated by the control means.
The electronic musical instrument according to any one of appendices 1 to 3, characterized in that:
(Appendix 5)
The presenting means is arranged on the left and right of the mouthpiece part for performing the wind, and blinks one of them according to the degree of difference and changes the blinking speed according to the value of the degree of difference. Including light emitting elements,
The electronic musical instrument according to appendix 4, characterized by the above.
(Appendix 6)
Electronic musical instruments
While obtaining a wind output value from each of a plurality of types of wind sensors, generating a feature vector having each of the obtained multiple wind output values as a feature amount,
A representative feature vector stored corresponding to a predetermined playing pattern is compared with the generated feature vector, and at least one of a plurality of parameters of a musical tone to be generated by the sound source is compared based on the comparison result. Sound control method to control.
(Appendix 7)
Obtaining a wind power output value from each of the multiple types of wind sensors, and generating a feature vector having the obtained wind output values as feature quantities,
A representative feature vector stored corresponding to a predetermined playing pattern is compared with the generated feature vector, and at least one of a plurality of parameters of a musical tone to be generated by the sound source is compared based on the comparison result. Controlling step;
A program that causes a computer to execute.

1 本体形状部
2 スイッチ部
3 開口部
4 スピーカ部
5 操作子
6 マウスピース部
101 CPU
102 ROM
103 RAM
104 センサ群
105 ADC
106 スイッチ群
107 GPIO
108 WAVE音源
109 DAC
110 音響システム
111 提示装置
112 バス
401 吹奏圧センサ
402 リップセンサ
403 バイトセンサ
404 タンセンサ
405 ボイスセンサ
501 ウエーブテーブル
502 乗算器
503 加算器
504 音量調整部
1101 左LED
1102 右LED
DESCRIPTION OF SYMBOLS 1 Main body shape part 2 Switch part 3 Opening part 4 Speaker part 5 Manipulator 6 Mouthpiece part 101 CPU
102 ROM
103 RAM
104 sensor group 105 ADC
106 Switch group 107 GPIO
108 WAVE sound source 109 DAC
DESCRIPTION OF SYMBOLS 110 Sound system 111 Presentation apparatus 112 Bus 401 Wind pressure sensor 402 Lip sensor 403 Byte sensor 404 Tan sensor 405 Voice sensor 501 Wave table 502 Multiplier 503 Adder 504 Volume adjustment part 1101 Left LED
1102 Right LED

Claims (12)

複数種の吹奏センサそれぞれから出力されるセンサ出力値の組を取得する取得手段と、
前記取得手段により取得されたセンサ出力値の組から、それぞれのセンサ出力値を特徴量とする特徴ベクトルを、出力特徴ベクトルとして生成する生成手段と、
特定の条件に基づく前記特徴ベクトルを、代表特徴ベクトルとして記憶している記憶手段と、
前記生成手段により生成された前記出力特徴ベクトルを、前記記憶手段に記憶されている前記代表特徴ベクトルと比較してベクトル間の距離を算出する比較手段と、
前記比較手段により算出された距離に基づいて、前記取得手段により前記センサ出力値の組が取得された際の発音を制御する、制御手段と、
を有することを特徴とする電子楽器。
Acquisition means for acquiring a set of sensor output values output from each of the plurality of types of wind sensors;
Generating means for generating, as an output feature vector, a feature vector having each sensor output value as a feature quantity from a set of sensor output values acquired by the acquiring means;
Storage means for storing the feature vector based on a specific condition as a representative feature vector ;
Comparing means for comparing the output feature vector generated by the generating means with the representative feature vector stored in the storage means to calculate a distance between vectors ;
Control means for controlling sound generation when the set of sensor output values is acquired by the acquisition means based on the distance calculated by the comparison means;
An electronic musical instrument characterized by comprising:
前記記憶手段は、予め定められた吹奏パターンに対応した前記代表特徴ベクトルと、前記吹奏パターンとの対応関係を記憶し、The storage means stores the correspondence between the representative feature vector corresponding to a predetermined wind pattern and the wind pattern,
前記制御手段は、前記比較手段により算出されたベクトル間の距離の近さに基づいて、前記取得手段により前記センサ出力値の組が取得された際の演奏による吹奏パターンが、前記代表特徴ベクトルに対応する吹奏パターンであるか否かを特定し、前記特定された吹奏パターンに基づいて発音を制御する、 The control means, based on the proximity of the distance between the vectors calculated by the comparison means, a wind pattern by a performance when the set of sensor output values is acquired by the acquisition means is the representative feature vector. Specify whether or not it is a corresponding wind pattern, and control pronunciation based on the specified wind pattern,
ことを特徴とする請求項1に記載の電子楽器。The electronic musical instrument according to claim 1.
前記記憶手段は、前記代表特徴ベクトルと波形データとの対応関係を記憶し、
前記制御手段は、前記比較手段により算出された距離に基づいて、前記取得手段により前記センサ出力値の組が取得された際に発音すべき楽音の波形データを特定し、前記特定された波形データに基づいて発音を制御する、
ことを特徴とする請求項1または2に記載の電子楽器。
The storage means stores a correspondence relationship between the representative feature vector and waveform data,
The control means specifies waveform data of a musical sound to be generated when the sensor output value set is acquired by the acquisition means based on the distance calculated by the comparison means, and the specified waveform data To control pronunciation based on the
The electronic musical instrument according to claim 1 or 2 , wherein
学習モードと演奏モードとのいずれかの動作モードを設定する設定手段を更に備え、
前記制御手段は、前記学習モードが設定されている場合には、前記生成手段により生成された前記出力特徴ベクトルを前記代表特徴ベクトルとして前記記憶手段に記憶させ、
前記演奏モードが設定されている場合には、前記記憶手段に記憶されている前記代表特徴ベクトルを用いて吹奏演奏に係る制御を行う、
ことを特徴とする請求項1乃至3のいずれかに記載の電子楽器。
It further comprises setting means for setting one of the learning mode and the performance mode.
When the learning mode is set, the control means stores the output feature vector generated by the generation means as the representative feature vector in the storage means,
When the performance mode is set, the representative feature vector stored in the storage means is used to perform control related to the wind performance.
The electronic musical instrument according to any one of claims 1 to 3 , wherein
前記制御手段は、前記比較手段の比較結果に基づいて、音源にて発生すべき楽音の複数のパラメータの少なくともひとつを制御する、
ことを特徴とする請求項1乃至4のいずれかに記載の電子楽器。
The control means controls at least one of a plurality of parameters of a musical sound to be generated by a sound source based on a comparison result of the comparison means;
The electronic musical instrument according to any one of claims 1 to 4 , wherein
前記制御手段は、前記比較手段の比較結果に基づく情報を報知する制御を行う、The control means performs control for notifying information based on a comparison result of the comparison means.
ことを特徴とする請求項1乃至5のいずれかに記載の電子楽器。An electronic musical instrument according to any one of claims 1 to 5, wherein
前記記憶手段は、複数種の吹奏パターンそれぞれに対応した前記代表特徴ベクトルを複数記憶するとともに、前記複数種の吹奏パターンのそれぞれに対応する吹奏波形を記憶し、
前記比較手段は、前記生成手段により生成された前記出力特徴ベクトルと前記複数の前記代表特徴ベクトルとを対象としたベクトル間の距離をそれぞれ算出し、各代表特徴ベクトルに対応する吹奏波形に対して前記距離に反比例するように重み付けを行い、
前記制御手段は、前記重み付けに従って前記複数の吹奏波形を加算した出力に基づく発音を制御する、
ことを特徴とする請求項1乃至6のいずれかに記載の電子楽器。
The storage means is configured to store a plurality of the representative feature vectors corresponding to a plurality of kinds of blowing pattern, stores the blow waveform corresponding to each of said plurality of kinds of blowing pattern,
The comparison means, to the blowing waveform the distance between the target and generated the output feature vector and the plurality of the representative feature vectors by the generation unit vector is calculated respectively, corresponding to each representative feature vector Weighting to be inversely proportional to the distance,
The control means controls sound generation based on an output obtained by adding the plurality of wind waveforms according to the weighting.
The electronic musical instrument according to any one of claims 1 to 6,
複数種の吹奏パターンから吹奏パターンをひとつ指定した後、前記生成手段により前記出力特徴ベクトルが生成される毎に、前記生成された前記出力特徴ベクトルを、前記指定されている吹奏パターンに対応づけて記憶する動作を繰り返し、
前記複数種の吹奏パターンそれぞれについて、前記各吹奏パターン対応付けて記憶されている複数の前記特徴ベクトルにより求められた重心値を、前記吹奏パターン毎の前記代表特徴ベクトルとして記憶する記憶制御手段をさらに有することを特徴とする請求項1乃至7のいずれかに記載の電子楽器。
After specifying one blowing pattern from a plurality kinds of the blowing pattern, each time the output feature vector by the generation unit is generated, the output feature vector said generated by relating corresponding to blowing pattern being said specified Repeat the action to memorize,
For each of the plurality of kinds of blowing pattern, the center of gravity values obtained by the plurality of the feature vectors stored in association with each blowing pattern, the storage control means for storing as said representative feature vector of each of the blowing pattern The electronic musical instrument according to claim 1 , further comprising:
前記比較手段により算出されたベクトル間の距離に基づいて、前記生成された吹奏出力に対応する吹奏パターンと前記予め記憶された吹奏パターンとの相違度を吹奏者に提示する提示手段をさらに備える、
ことを特徴とする請求項1乃至7のいずれかに記載の電子楽器。
And a presentation means for presenting a difference between the wind pattern corresponding to the generated wind output and the previously stored wind pattern to the winder based on the distance between the vectors calculated by the comparing means.
The electronic musical instrument according to any one of claims 1 to 7,
前記提示手段は、吹奏を行うためのマウスピース部の左右に配置され、前記相違度に応じていずれか一方を点滅させるとともに、前記相違度の値に応じて当該点滅の速度を変化させる2つの発光素子を含む、
ことを特徴とする請求項9に記載の電子楽器。
The presenting means is arranged on the left and right of the mouthpiece part for performing the wind, and blinks one of them according to the degree of difference and changes the blinking speed according to the value of the degree of difference. Including light emitting elements,
The electronic musical instrument according to claim 9 .
電子楽器が、
複数種の吹奏センサそれぞれから出力されるセンサ出力値の組を取得し、
前記取得されたセンサ出力値の組から、それぞれのセンサ出力値を特徴量とする特徴ベクトルを、出力特徴ベクトルとして生成し、
前記生成手段により生成された前記出力特徴ベクトルを、特定の条件に基づく前記特徴ベクトルとして記憶手段に記憶されている代表特徴ベクトルと比較してベクトル間の距離を算出し、
前記算出された距離に基づいて、前記センサ出力値の組が取得された際の発音を制御する、発音制御方法。
Electronic musical instruments
Acquire a set of sensor output values output from each of multiple types of wind sensors,
From the acquired set of sensor output values, a feature vector having each sensor output value as a feature quantity is generated as an output feature vector,
The output feature vector generated by the generation unit is compared with a representative feature vector stored in the storage unit as the feature vector based on a specific condition, and a distance between the vectors is calculated .
A sound generation control method for controlling sound generation when the set of sensor output values is acquired based on the calculated distance .
複数種の吹奏センサそれぞれから出力されるセンサ出力値の組を取得するステップと、
前記取得されたセンサ出力値の組から、それぞれのセンサ出力値を特徴量とする特徴ベクトルを、出力特徴ベクトルとして生成するステップと、
前記生成手段により生成された前記出力特徴ベクトルを、特定の条件に基づく前記特徴ベクトルとして記憶手段に記憶されている代表特徴ベクトルと比較してベクトル間の距離を算出するステップと、
前記算出された距離に基づいて、前記センサ出力値の組が取得された際の発音を制御するするステップと、
をコンピュータに実行させるプログラム。
Obtaining a set of sensor output values output from each of a plurality of types of wind sensors;
Generating, as an output feature vector, a feature vector having a feature value of each sensor output value from the set of sensor output values obtained ;
Comparing the output feature vector generated by the generating unit with a representative feature vector stored in a storage unit as the feature vector based on a specific condition, and calculating a distance between vectors ;
Controlling sound generation when the set of sensor output values is acquired based on the calculated distance ;
A program that causes a computer to execute.
JP2014111550A 2014-05-29 2014-05-29 Electronic musical instrument, pronunciation control method for electronic musical instrument, and program Active JP6402492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014111550A JP6402492B2 (en) 2014-05-29 2014-05-29 Electronic musical instrument, pronunciation control method for electronic musical instrument, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014111550A JP6402492B2 (en) 2014-05-29 2014-05-29 Electronic musical instrument, pronunciation control method for electronic musical instrument, and program

Publications (3)

Publication Number Publication Date
JP2015225303A JP2015225303A (en) 2015-12-14
JP2015225303A5 JP2015225303A5 (en) 2017-06-29
JP6402492B2 true JP6402492B2 (en) 2018-10-10

Family

ID=54842055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014111550A Active JP6402492B2 (en) 2014-05-29 2014-05-29 Electronic musical instrument, pronunciation control method for electronic musical instrument, and program

Country Status (1)

Country Link
JP (1) JP6402492B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3360579B2 (en) * 1997-09-12 2002-12-24 ヤマハ株式会社 Electronic musical instrument
JP2000122641A (en) * 1998-10-21 2000-04-28 Casio Comput Co Ltd Electronic wind instrument
JP4717042B2 (en) * 2004-03-31 2011-07-06 ヤマハ株式会社 Saxophone
JP2011164172A (en) * 2010-02-05 2011-08-25 Yamaha Corp Data search apparatus

Also Published As

Publication number Publication date
JP2015225303A (en) 2015-12-14

Similar Documents

Publication Publication Date Title
CN105741639B (en) A kind of micro- sense palm musical instrument for simulating bowstring kind musical instrument
CN109791740A (en) Intelligent measurement and feedback system for intelligent piano
JP6007476B2 (en) Performance device and electronic musical instrument
US11557269B2 (en) Information processing method
Odowichuk et al. Sensor fusion: Towards a fully expressive 3d music control interface
CN102568453A (en) Performance apparatus and electronic musical instrument
CN111052223A (en) Playback control method, playback control device, and program
US10140967B2 (en) Musical instrument with intelligent interface
Morales-Manzanares et al. SICIB: An interactive music composition system using body movements
Jensenius An action–sound approach to teaching interactive music
Weinberg et al. Robotic musicianship: embodied artificial creativity and mechatronic musical expression
US20190385577A1 (en) Minimalist Interval-Based Musical Instrument
JP6402493B2 (en) Electronic musical instrument, pronunciation control method, and program
WO2006011342A1 (en) Music sound generation device and music sound generation system
Kapur Digitizing North Indian music: preservation and extension using multimodal sensor systems, machine learning and robotics
JP6402492B2 (en) Electronic musical instrument, pronunciation control method for electronic musical instrument, and program
Eigenfeldt Generative Music for Live Performance: Experiences with real-time notation
Torre The design of a new musical glove: a live performance approach
KR101746216B1 (en) Air-drum performing apparatus using arduino, and control method for the same
Overholt Advancements in violin-related human-computer interaction
Lopes et al. Tumaracatu: an ubiquitous digital musical experience of maracatu
Sourin Music in the air with leap motion controller
Martin Touchless gestural control of concatenative sound synthesis
Thelle Making sensors make sense: challenges in the development of digital musical instruments
Trail Non-invasive gesture sensing, physical modeling, machine learning and acoustic actuation for pitched percussion

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170518

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180827

R150 Certificate of patent or registration of utility model

Ref document number: 6402492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150