JP2018054859A - Musical tone generation apparatus, musical tone generation method, electronic musical instrument, and program - Google Patents
Musical tone generation apparatus, musical tone generation method, electronic musical instrument, and program Download PDFInfo
- Publication number
- JP2018054859A JP2018054859A JP2016190428A JP2016190428A JP2018054859A JP 2018054859 A JP2018054859 A JP 2018054859A JP 2016190428 A JP2016190428 A JP 2016190428A JP 2016190428 A JP2016190428 A JP 2016190428A JP 2018054859 A JP2018054859 A JP 2018054859A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- musical
- signal
- deviation
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 64
- 230000015572 biosynthetic process Effects 0.000 claims description 24
- 238000003786 synthesis reaction Methods 0.000 claims description 24
- 230000005236 sound signal Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 35
- 239000000835 fiber Substances 0.000 abstract description 16
- 239000002184 metal Substances 0.000 abstract description 15
- 238000007664 blowing Methods 0.000 abstract description 12
- 230000000694 effects Effects 0.000 abstract description 9
- 230000004888 barrier function Effects 0.000 abstract description 5
- 230000004043 responsiveness Effects 0.000 abstract description 2
- 239000011295 pitch Substances 0.000 description 54
- 230000008569 process Effects 0.000 description 51
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 7
- 238000005311 autocorrelation function Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 239000003599 detergent Substances 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、電子楽器の楽音生成技術に関する。 The present invention relates to a musical sound generation technique for an electronic musical instrument.
管楽器を電子技術によって実現する電子楽器として、演奏者の吹奏する強さと発声する音声とを検出し、両検出結果から発音する楽音信号をシームレスに変化させる電子楽器の技術が開示されている(例えば特許文献1)。 As an electronic musical instrument that realizes a wind instrument using electronic technology, a technique of an electronic musical instrument that detects the strength of a player's playing and the voice that is uttered and seamlessly changes a musical sound signal that is generated from both detection results is disclosed (for example, Patent Document 1).
このような従来技術によれば、伝統的な管楽器において、ただ吹いたりタンギングしたりするだけでなく、演奏時に「ウーーーーー」っと実際に声を出しながら吹奏を行い、音に濁りを与える特殊奏法「グロウル音」を実現することができる。 According to such conventional technology, in traditional wind instruments, not only blowing and hanging, but also a special performance method that makes the sound turbid while performing the wind while actually speaking out "Woooooo" A “growl sound” can be realized.
しかし、上述の従来技術では、吹奏する強さを検出するブレス(気圧)センサと、音声を検出するボイスセンサの2種類のセンサを搭載する必要があった。 However, in the above-described conventional technology, it is necessary to mount two types of sensors, that is, a breath (atmospheric pressure) sensor for detecting the strength of playing and a voice sensor for detecting sound.
また、ブレス(気圧)センサは一定以上に気密された状態において正しい検出を行うことが可能であるため、ブレスセンサとボイスセンサは、管楽器の場合と同様の構造を有するマウスピース内に実装される場合が多い。そのために演奏者は、マウスピースを口で咥える必要があるため、複数の演奏者が1台の電子楽器を共有するには心理面や衛生面のでの障壁が存在するという課題があった。
In addition, since the breath (barometric pressure) sensor can perform correct detection in a state where the air pressure is more than a certain level, the breath sensor and the voice sensor are mounted in a mouthpiece having the same structure as that of a wind instrument. There are many cases. Therefore, since the performer needs to hold the mouthpiece with his mouth, there is a problem that there are psychological and hygienic barriers for a plurality of performers to share one electronic musical instrument.
更に、マウスピースが必要なことから、電子楽器はマウスピースに接続された管楽器形状のボディーを有する構造をとらざるを得ず、従来は、例えば電子鍵盤楽器を使って管楽器の吹奏効果を得ることが難しいという課題があった。 Furthermore, since a mouthpiece is necessary, an electronic musical instrument must have a structure having a wind instrument-shaped body connected to the mouthpiece. Conventionally, for example, an electronic keyboard instrument is used to obtain a wind instrument wind effect. There was a problem that was difficult.
本発明は、1種類のセンサで吹奏楽器としてのブレス音とグロウル音の効果を同時に出すことを可能とし、心理面や衛生面のでの障壁を取り除けると共に、電子鍵盤楽器等でも吹奏効果を簡単に実現可能とすることを目的とする。 The present invention makes it possible to simultaneously produce a breath sound and a glow sound effect as a wind instrument with a single type of sensor, removes psychological and hygiene barriers, and makes it easy to perform wind effects even with electronic keyboard instruments, etc. It aims to be feasible.
態様の一例では、カルマン渦を生じさせる部材を介して音声センサからブレス音及び発声音が入力され、入力に応じて音声センサから連続して出力される出力値に基づいて算出される複数の自己相関値から偏差を算出する偏差算出手段と、自己相関値の偏差に基づいて、発音部に発音させる楽音を生成する楽音生成手段と、を有する。 In an example, a breath sound and a utterance sound are input from a voice sensor through a member that generates a Karman vortex, and a plurality of self values calculated based on output values that are continuously output from the voice sensor according to the input Deviation calculation means for calculating a deviation from the correlation value, and musical tone generation means for generating a musical sound to be generated by the sound generation unit based on the deviation of the autocorrelation value.
本発明によれば、1種類のセンサで吹奏楽器としてのブレス音とグロウル音の効果を同時に検出することが可能となり、心理面や衛生面のでの障壁を取り除くことができると共に、電子鍵盤楽器等でも吹奏効果を簡単に実現することが可能となる。 According to the present invention, it is possible to simultaneously detect the effect of breath sound and growl sound as a wind instrument with one type of sensor, and it is possible to remove psychological and hygiene barriers, as well as electronic keyboard instruments, etc. However, it is possible to easily achieve the blowing effect.
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
図1は、本発明による電子楽器である電子鍵盤楽器100の一実施形態の外観図である。 FIG. 1 is an external view of an embodiment of an electronic keyboard instrument 100 which is an electronic musical instrument according to the present invention.
鍵盤部102を有する電子鍵盤楽器100の楽器本体108のボイス入力端子104に、接続ケーブル105及びヘッドバンド106に取り付けられたマイクアーム107を介して、ボイスセンサ101(音声センサ)が取り付けられている。また、楽器本体108のライン出力端子109には、ラインケーブル110が接続されてもよい。 A voice sensor 101 (voice sensor) is attached to a voice input terminal 104 of a musical instrument main body 108 of an electronic keyboard instrument 100 having a keyboard 102 via a connection cable 105 and a microphone arm 107 attached to a headband 106. . Further, a line cable 110 may be connected to the line output terminal 109 of the musical instrument main body 108.
ボイスセンサ101は、左側拡大図に示されるように、マイクアーム107が結合接続されるセンサ基部111に、例えば音声マイクであるボイスセンサ本体112が取り付けられ、更にボイスセンサ本体112の開口部側に、金属網113が取り付けられ、この金属網113とボイスセンサ本体112の開口部間に積層繊維114が充填された構造を有する。積層繊維114と金属網113は、ボイスセンサ本体112から取り外すことができ、中性洗剤等により洗浄することが可能である。金属網113及び積層繊維114からなる部分は、ボイスセンサ101の開口部に障害物として配置されている。 As shown in the enlarged left side view of the voice sensor 101, a voice sensor main body 112, for example, a voice microphone, is attached to a sensor base 111 to which a microphone arm 107 is coupled and connected, and further on the opening side of the voice sensor main body 112. A metal net 113 is attached, and a laminated fiber 114 is filled between the metal net 113 and the opening of the voice sensor main body 112. The laminated fiber 114 and the metal net 113 can be detached from the voice sensor main body 112 and can be washed with a neutral detergent or the like. A portion composed of the metal net 113 and the laminated fiber 114 is disposed as an obstacle in the opening of the voice sensor 101.
本実施形態では、電子鍵盤楽器100を、管楽器をシミュレートする電子楽器として使用できるようにするために、演奏者は、ボイス入力端子104に、ヘッドバンド106、マイクアーム107、ボイスセンサ101、及び接続ケーブル105からなる吹奏入力装置を接続することができる。演奏者は、ボイスセンサ101が口元にくるようにヘッドバンド106を自分の頭部に装着して、鍵盤部102でキー操作を行いながら、ボイスセンサ101を用いて吹奏演奏を行うことができる。そして、演奏者は、ボイスセンサ101に向かって「フー」という感じで息を吹きかけることにより、ボイスセンサ101をブレスセンサとして機能させて、電子鍵盤楽器100からブレス音を発音させることができる。また、演奏者は、ボイスセンサ101に向かって「ウ〜」という感じでグロウル音を発声することにより、ボイスセンサ101を本来のボイスセンサとして機能させて、電子鍵盤楽器100がグロウル音を発音させることができる。更に、演奏者は、自身の発声する音声をコントロールすることにより、ブレス音とグロウル音がミックスされた楽音を発音させることができ、あたかも管楽器でブレス音とグロウル音をミックスさせてシームレスに発音させるような演奏を行うことができる。 In this embodiment, in order to enable the electronic keyboard instrument 100 to be used as an electronic musical instrument that simulates a wind instrument, a performer can connect a voice input terminal 104 to a headband 106, a microphone arm 107, a voice sensor 101, and A wind instrument input device composed of the connection cable 105 can be connected. The performer can perform a wind performance using the voice sensor 101 while wearing the headband 106 on his / her head so that the voice sensor 101 is at the mouth and performing key operations on the keyboard 102. Then, the player can make the voice sensor 101 function as a breath sensor and generate a breath sound from the electronic keyboard instrument 100 by blowing a breath toward the voice sensor 101 with a feeling of “foo”. In addition, the performer utters a glow sound with a feeling of “U” toward the voice sensor 101, thereby causing the voice sensor 101 to function as an original voice sensor and causing the electronic keyboard instrument 100 to generate the growl sound. be able to. In addition, by controlling the sound that the performer utters, the performer can produce a musical sound that is a mixture of breath sound and growl sound, and it can be seamlessly produced by mixing the breath sound and growl sound with a wind instrument. You can perform like this.
本実施形態では、上述のようにボイスセンサ101にブレスセンサと本来のボイスセンサの両方の機能を持たせるために、図1に示されるように、ボイスセンサ本体112の開口部側に、金属網113と積層繊維114とからなる障害物が取り付けられている。本実施形態では、演奏者がボイスセンサ101に向かって吹奏する気流が金属網113及び積層繊維114からなる障害物を通過したり反射したりする際に発生するカルマン渦の乱流により、ブレスノイズを発生させ、そのブレスノイズの信号強度をボイスセンサ101で取得することにより吹奏する強さの検出を可能にするものである。更に、上述の乱流により発生するブレスノイズがホワイトノイズになるように障害物を構成し、演奏者が吹奏のみ行った場合と音声による特殊奏法を行った場合とを容易に判別できるようにするものである。より具体的には、演奏者が吹奏のみを行った場合には、ボイスセンサ101からホワイトノイズのボイス信号が取得されることによりブレス演奏が検出され、同時に演奏者が発声による特殊奏法を行ったことが、ボイス信号の自己相関値の偏差から検出され、ノーマル音とグロウル音の合成比が調整されて出力される。 In the present embodiment, in order to give the voice sensor 101 the functions of both the breath sensor and the original voice sensor as described above, as shown in FIG. An obstacle composed of 113 and laminated fiber 114 is attached. In this embodiment, breath noise is generated by Karman vortex turbulence generated when the air current blown toward the voice sensor 101 passes or reflects an obstacle composed of the metal net 113 and the laminated fiber 114. , And the intensity of the breath noise is acquired by the voice sensor 101, thereby making it possible to detect the strength of playing. Furthermore, the obstacle is configured so that the breath noise generated by the turbulence described above becomes white noise, so that the player can easily discriminate between the case where the performer performs only the blowing and the case where the special performance method is performed by voice. Is. More specifically, when the performer performs only the wind performance, a breath performance is detected by obtaining a voice signal of white noise from the voice sensor 101, and at the same time, the performer performs a special performance method by speaking. Is detected from the deviation of the autocorrelation value of the voice signal, and the synthesis ratio of the normal sound and the growl sound is adjusted and output.
図2(a)は、ボイスセンサ本体112の開口部に取り付けられる障害物として、図1の金属網113のみを用い積層繊維114は用いないで息を吹きかけた時の、ボイスセンサ101が出力するボイス信号における周波数分布の例を示すグラフである。低周波域の信号成分を多く含み、高周波域になるにつれて信号成分が徐々に下がる特性を示している。 FIG. 2A shows the output of the voice sensor 101 when the air is blown without using the laminated fiber 114 as the obstacle attached to the opening of the voice sensor main body 112 and using the metal mesh 113 of FIG. It is a graph which shows the example of the frequency distribution in a voice signal. It shows a characteristic that many signal components in the low frequency range are included and the signal components gradually decrease as the frequency becomes higher.
図2(b)は、金属網113の内側に繊維シートを複数枚かぶせたもの(以下「積層繊維114」と記載する)を、ボイスセンサ本体112に取り付けて息を吹きかけた時の、ボイスセンサ101が出力するボイス信号における周波数分布の例を示すグラフである。低周波域から4kHz(キロヘルツ)近辺に至るまでほぼ均等な分布となり、図2(a)に比べて、ホワイトノイズに近い特性を示している。このように障害物を変更することによりボイスセンサ101が出力するボイス信号の周波数分布の特性を調整することが可能である。特に、気流が円筒の障害物を通過する際に発生するカルマン渦の周波数は円筒の直径に反比例することが知られており、障害物の金属網113や積層繊維114の径から周波数分布特性を調整することができる。 FIG. 2B shows a voice sensor when a plurality of fiber sheets (hereinafter referred to as “laminated fibers 114”) covered with a metal net 113 are attached to the voice sensor main body 112 and blown. 10 is a graph showing an example of a frequency distribution in a voice signal output from 101. The distribution is almost uniform from the low frequency range to the vicinity of 4 kHz (kilohertz), and shows characteristics close to white noise as compared with FIG. Thus, by changing the obstacle, it is possible to adjust the frequency distribution characteristics of the voice signal output from the voice sensor 101. In particular, it is known that the frequency of Karman vortices generated when an air current passes through a cylindrical obstacle is inversely proportional to the diameter of the cylinder, and the frequency distribution characteristics are determined from the diameters of the metal mesh 113 and the laminated fiber 114 of the obstacle. Can be adjusted.
図2(c)は、図2(b)と同じ金属網113及び積層繊維114からなる障害物に息を吹きかける際に同時に発声を行った場合の、ボイスセンサ101が出力するボイス信号の周波数分布の例を示すグラフである。発声音には基音周波数(ピッチ周波数)及びその倍数の周波数が多く含まれており、図2(b)と比較して70Hzから1000Hzの周波数領域にその特性が現れており、ピッチ周波数及びその倍音周波数の位置に櫛形の極大値のピークが現れている。図2(b)及び図2(c)の周波数特性の違いにより、図1の構造を有するボイスセンサ101を用いた場合に、吹奏のみの通常演奏と発声を伴う特殊演奏は、各周波数成分が一様の場合と特定の周波数成分を多く含む場合とで、判別できることがわかる。 FIG. 2C shows the frequency distribution of the voice signal output from the voice sensor 101 when uttering at the same time when blowing on the obstacle made of the same metal mesh 113 and laminated fiber 114 as in FIG. 2B. It is a graph which shows the example of. The uttered sound includes many fundamental frequencies (pitch frequencies) and multiples thereof, and its characteristics appear in the frequency range from 70 Hz to 1000 Hz as compared with FIG. A comb-like maximum peak appears at the frequency position. Due to the difference in frequency characteristics between FIG. 2 (b) and FIG. 2 (c), when using the voice sensor 101 having the structure shown in FIG. It can be seen that it is possible to distinguish between a uniform case and a case where a lot of specific frequency components are included.
特定の周波数成分を多く含む状態を検出する手法として、自己相関関数を計算することから算出される自己相関値を判定する手法が知られている。いま、自己相関関数G(τ)は、時刻tにおけるボイス値をV(t)とすると、下式となることが知られている。ここで、τは遅れ時間であり、周波数をf(Hz)とすると1/f(秒)である。また、Tは積分区間である。 As a technique for detecting a state containing a lot of specific frequency components, a technique for determining an autocorrelation value calculated from calculating an autocorrelation function is known. Now, it is known that the autocorrelation function G (τ) is expressed by the following equation when the voice value at time t is V (t). Here, τ is a delay time, which is 1 / f (second) when the frequency is f (Hz). T is an integration interval.
ボイス値の信号に含まれる周波数成分fが少ない場合は低い値となり、周波数成分fを多く含む場合は高い値となる。しかし、数1式から分かる通り、G(τ)はボイス値の信号レベルの影響を強く受けてしまう。このため自己相関関数G(τ)に、下記数2式を用いると、信号レベルの影響を受け難くなることが知られている。 When the frequency component f included in the voice value signal is small, the value is low, and when the frequency component f is large, the value is high. However, as can be seen from Equation 1, G (τ) is strongly influenced by the signal level of the voice value. For this reason, it is known that if the following equation (2) is used for the autocorrelation function G (τ), it is difficult to be influenced by the signal level.
ボイス値の信号に含まれる周波数成分fが少ない場合は高い値となり、周波数成分fを多く含む場合は低い値となる。 When the frequency component f included in the voice value signal is small, the value is high, and when the frequency component f is large, the value is low.
ここで、演奏者が音声の発声による特殊奏法音の入力を行った場合は、発声による基音周波数及びその倍音周波数の存在により、自己相関値は該当する基音周波数で最も低い値となることから、自己相関値が最小となる音高を検出することで、特殊奏法音の音高を検出することが可能となる。そして、数2式の演算により算出される自己相関関数G(τ)から得られる値(以降「自己相関値」と記載)を、発声可能な基音の周波数範囲で算出し、その偏差を求めることで、発声による特殊奏法とその強さが検出できる。なお、自己相関値を算出する際の遅れ時間τ(=1/f)は、電子楽器のキーとして指定され得る例えば基音49音階の周波数に対応する離散時間についてのみ計算することで十分であり、少ない演算量で自己相関値を計算することが可能である。 Here, when the performer inputs a special performance sound by voice utterance, the autocorrelation value is the lowest value in the corresponding fundamental frequency due to the presence of the fundamental frequency and its harmonic frequency by utterance, By detecting the pitch at which the autocorrelation value is minimized, it is possible to detect the pitch of the special performance sound. Then, a value (hereinafter referred to as “autocorrelation value”) obtained from the autocorrelation function G (τ) calculated by the calculation of Equation 2 is calculated in the frequency range of the fundamental sound that can be uttered, and the deviation is obtained. Thus, it is possible to detect the special performance method by the utterance and its strength. Note that it is sufficient to calculate the delay time τ (= 1 / f) when calculating the autocorrelation value only for the discrete time corresponding to the frequency of, for example, the 49th fundamental tone that can be specified as a key of the electronic musical instrument, It is possible to calculate the autocorrelation value with a small amount of calculation.
なお、自己相関値からの音高検出は演奏者が発声している場合のみ可能であるが、発声しているかどうかは自己相関値の偏差から判断可能である。即ち自己相関値の偏差は、演奏者が息を吹きかけた場合はホワイトノイズとなるためその値は低い値となる。また、演奏者が何もしない場合においてもボイス信号は全て0近傍値となるため、自己相関値の偏差も極めて低い値になる。よって、演奏者が発声した場合のみ自己相関値の偏差は高い値となり、その偏差値が所定の偏差閾値より高い値である場合に、音高判定が可能であると判断できる。 Note that the pitch can be detected from the autocorrelation value only when the performer utters, but whether the utterance is uttered can be determined from the deviation of the autocorrelation value. That is, the deviation of the autocorrelation value becomes white noise when the player blows, and the value is low. Even when the performer does nothing, the voice signals are all near 0, so the deviation of the autocorrelation value is also extremely low. Therefore, only when the performer utters, the deviation of the autocorrelation value becomes a high value, and when the deviation value is higher than a predetermined deviation threshold value, it can be determined that the pitch can be determined.
一方、自己相関値の偏差の値が偏差閾値以下の値である場合には、演奏者がボイスセンサ101に向かって単に息を吹きかけ、ブレス音が入力されたと判定することができる。この場合には、ボイス値の信号強度を検出することにより、ブレス音の強さを決定することができる。この信号強度の検出にあたっては、いかに安定した信号強度を検出するかが課題となる。図2(d)及び(e)は、ボイスセンサ101に障害物がなし/ありの場合を比較した、ボイス値の入力波形図である。図2(d)はボイスセンサ本体112に障害物が取り付けられていない場合、図2(e)はボイスセンサ本体112に金属網113と積層繊維114からなる障害物が取り付けられている場合であり、それぞれ息を3回吹きかけた時の入力波形を示している。図2(d)及び(e)において、濃い部分が入力波形(のピーク部)、薄い部分はその実効値(≒検出レベル)となっている。図2(d)及び(e)を比較して理解されるように、障害物を設置した場合(図2(e))のほうがホワイトノイズに近い高周波成分を多く含み、その結果として実効値(≒検出レベル)が安定的に検出されることがわかる。このように、本実施形態では、図1のボイスセンサ本体112に金属網113と積層繊維114からなる障害物を取り付けることにより、演奏者がボイスセンサ101に息を吹きかけてブレス奏法を行ったときの情報を効率よく音声として入力することができ、信号強度の検出における応答性及び安定性を向上させることが可能となる。 On the other hand, when the deviation value of the autocorrelation value is equal to or less than the deviation threshold value, it can be determined that the performer simply blows toward the voice sensor 101 and a breath sound is input. In this case, the strength of the breath sound can be determined by detecting the signal strength of the voice value. In detecting the signal intensity, how to detect a stable signal intensity is a problem. FIGS. 2D and 2E are input waveform diagrams of voice values, comparing the cases where the voice sensor 101 has no obstacle / is present. 2D shows a case where no obstacle is attached to the voice sensor main body 112, and FIG. 2E shows a case where an obstacle made of a metal net 113 and a laminated fiber 114 is attached to the voice sensor main body 112. The input waveforms when each breath is blown three times are shown. In FIGS. 2D and 2E, the dark portion is the input waveform (its peak portion), and the thin portion is its effective value (≈detection level). As can be understood by comparing FIGS. 2 (d) and 2 (e), when an obstacle is installed (FIG. 2 (e)), more high-frequency components closer to white noise are included, and as a result, an effective value ( It can be seen that (≈detection level) is detected stably. As described above, in this embodiment, when the performer performs a breath performance by blowing the breath on the voice sensor 101 by attaching the obstacle made of the metal net 113 and the laminated fiber 114 to the voice sensor main body 112 of FIG. This information can be efficiently input as voice, and the response and stability in signal intensity detection can be improved.
図3は、図1の電子鍵盤楽器100の制御システムの一実施形態のブロック図である。この制御システムは、ボイス入力手段301、自己相関値・偏差検出手段302、信号強度決定手段303、エンベロープ決定手段304、キー検出手段305、音高制御手段306、発音指示手段307、Wave Generator(ウェーブ・ジェネレータ)308(音源)、ノーマル音波形データ309、グロウル音波形データ310、合成比決定手段311、乗算器312、313、315(音源)、加算器314(音源)、及びDAC(デジタルアナログコンバータ)/増幅器316を備える。 FIG. 3 is a block diagram of an embodiment of a control system for the electronic keyboard instrument 100 of FIG. This control system includes a voice input unit 301, an autocorrelation value / deviation detection unit 302, a signal strength determination unit 303, an envelope determination unit 304, a key detection unit 305, a pitch control unit 306, a sound generation instruction unit 307, a wave generator (wave generator). Generator 308 (sound source), normal sound waveform data 309, growl sound waveform data 310, synthesis ratio determining means 311, multipliers 312, 313, 315 (sound source), adder 314 (sound source), and DAC (digital analog converter) ) / Amplifier 316.
ボイス入力手段301(音声入力手段)は、ボイスセンサ101が出力するボイス値(音声値)を所定の離散時間間隔で逐次ボイス入力情報として取得する。 The voice input unit 301 (speech input unit) sequentially acquires voice values (speech values) output from the voice sensor 101 as voice input information at predetermined discrete time intervals.
自己相関値・偏差検出手段302は、前述の数2式に従って、上記ボイス入力情報として得られる所定のボイス信号処理単位数(音声信号処理単位数)(=T)のボイス値に対して、ボイス信号に含まれる各波長の自己相関値を算出し、ボイス信号全体の自己相関値の偏差を演算する。 The autocorrelation value / deviation detecting means 302 performs voice processing for a voice value of a predetermined number of voice signal processing units (number of voice signal processing units) (= T) obtained as the voice input information according to the above equation (2). The autocorrelation value of each wavelength included in the signal is calculated, and the deviation of the autocorrelation value of the entire voice signal is calculated.
信号強度決定手段303は、上記ボイス信号処理単位数のボイス値の振幅変化の大きさに基づき、信号強度を検出する。信号強度決定手段303は、ボイス入力手段301で順次取得される所定のボイス信号処理単位数のボイス値の各振幅値を積分し、当該積分の結果に対してローパスフィルタ処理を実行して得られる値を信号強度情報として出力する、 The signal strength determining means 303 detects the signal strength based on the magnitude of the amplitude change of the voice value of the number of voice signal processing units. The signal strength determination unit 303 is obtained by integrating the amplitude values of the voice values of a predetermined number of voice signal processing units sequentially obtained by the voice input unit 301 and executing a low-pass filter process on the integration result. Output the value as signal strength information,
キー検出手段305は、例えば演奏者による図1の鍵盤部102でのキー操作(押鍵操作又は離鍵操作)をキー検出情報として検出する。なお、キー操作は、必ずしも演奏者が鍵盤部102で演奏したものである必要はなく、キー装置は、例えば特には図示しないMIDI(Musical Instrument Digital Interface)端子を介して外部の他の演奏楽器又はシーケンサ(自動演奏装置)などから入力されるものであってもよい。 The key detection unit 305 detects, for example, a key operation (key pressing operation or key release operation) on the keyboard unit 102 of FIG. 1 by the performer as key detection information. The key operation does not necessarily have to be performed by the performer on the keyboard unit 102. The key device may be, for example, another external musical instrument or an external musical instrument via a MIDI (Musical Instrument Digital Interface) terminal (not shown). It may be input from a sequencer (automatic performance device) or the like.
音高制御手段306は、キー検出手段305がキー検出情報として検出した演奏キー操作により指定される音高に変化があった場合には、キー検出情報から得られる音高を新たな音高情報として決定し出力する。 When there is a change in the pitch specified by the performance key operation detected by the key detection unit 305 as the key detection information, the pitch control unit 306 changes the pitch obtained from the key detection information to the new pitch information. Is determined and output.
この音高制御手段306は更に、キー検出手段305がキー検出情報として検出した演奏キー操作により指定される音高に変化がなかった場合には、自己相関値・偏差検出手段302からの破線で示される制御線を介して、自己相関値・偏差検出手段302から入力する自己相関値の偏差が所定の偏差閾値よりも高いか否かを判定する。そして、音高制御手段306は、自己相関値の偏差が所定の偏差閾値よりも高いと判定した場合に、図3の破線の制御線を介して自己相関値・偏差検出手段302から入力する自己相関値が最も低い値に対応する周波数によって、音高の変更又はピッチベンドを指示する音高情報を出力する。 This pitch control means 306 is further indicated by a broken line from the autocorrelation value / deviation detection means 302 when there is no change in the pitch designated by the performance key operation detected by the key detection means 305 as the key detection information. It is determined whether or not the deviation of the autocorrelation value input from the autocorrelation value / deviation detection means 302 is higher than a predetermined deviation threshold via the indicated control line. When the pitch control means 306 determines that the deviation of the autocorrelation value is higher than the predetermined deviation threshold, the pitch control means 306 inputs the self input from the autocorrelation value / deviation detection means 302 via the dashed control line in FIG. Pitch information indicating pitch change or pitch bend is output according to the frequency corresponding to the lowest correlation value.
合成比決定手段311は、自己相関値・偏差検出手段302が検出する自己相関値の偏差と信号強度決定手段303が出力する信号強度情報とに基づいて決定される合成比(割合)情報を出力する。合成比情報は、後述するようにWave Generator308から出力される管楽器の通常の楽音であるノーマル音と、管楽器のグロウリング奏法によって発音される楽音であるグロウル音の合成比率(割合)を決定し、乗算器312、313に対してそれぞれ乗算値を与える。 The synthesis ratio determination unit 311 outputs synthesis ratio (ratio) information determined based on the deviation of the autocorrelation value detected by the autocorrelation value / deviation detection unit 302 and the signal strength information output by the signal strength determination unit 303. To do. The synthesis ratio information determines a synthesis ratio (ratio) between a normal sound, which is a normal musical tone of a wind instrument output from the Wave Generator 308, and a glow sound, which is a musical sound generated by the groling technique of the wind instrument, as will be described later. Multiplication values are given to the multipliers 312 and 313, respectively.
エンベロープ決定手段304は、信号強度決定手段303で得られた信号強度情報に基づいてエンベロープ情報を決定する。エンベロープ情報は、ノーマル音とグロウル音が加算器314で合成された後に、乗算器315で乗算される最終ゲインである。 The envelope determination unit 304 determines envelope information based on the signal strength information obtained by the signal strength determination unit 303. The envelope information is a final gain that is multiplied by the multiplier 315 after the normal sound and the growl sound are synthesized by the adder 314.
発音指示手段307は、Wave Generator308が発音をしていない状態で、信号強度決定手段303が出力する信号強度情報の値が所定の発音開始閾値未満から発音開始閾値以上に変化した場合に、Wave Generator308に音高制御手段306が出力する音高情報が示す音高による発音開始を指示する発音指示情報を出力する。このとき、発音指示手段307は、発音開始のベロシティ情報として、信号強度決定手段303が出力する信号強度情報の値を設定する。また、発音指示手段307は、Wave Generator308が発音中の状態で、音高制御手段306が出力する音高情報が示す音高が変化した場合に、Wave Generator308に音高変更又はピッチベンドを指示する発音指示情報を出力する。更に、発音指示手段307は、Wave Generator308が発音中の状態で、信号強度決定手段303が出力する信号強度情報の値が発音停止閾値以上の状態から発音停止閾値未満の状態に変化した場合に、Wave Generator308に音高制御手段306が出力する音高情報が示す音高による発音の停止を指示する発音指示情報を出力する。 The sound generation instruction unit 307 is configured to generate a wave generator 308 when the value of the signal strength information output from the signal strength determination unit 303 changes from less than a predetermined sound generation start threshold value to a sound generation start threshold value or more in a state where the Wave Generator 308 is not sounding. Sound generation instruction information for instructing the start of sound generation by the pitch indicated by the pitch information output by the pitch control means 306 is output. At this time, the sound generation instruction unit 307 sets the value of the signal strength information output from the signal strength determination unit 303 as the velocity information at the start of sound generation. In addition, the sound generation instruction unit 307 generates a sound that instructs the Wave Generator 308 to change the pitch or pitch bend when the pitch indicated by the pitch information output from the pitch control unit 306 is changed while the Wave Generator 308 is sounding. Output instruction information. Further, the sound generation instruction unit 307 is in a state where the Wave Generator 308 is sounding and the value of the signal intensity information output from the signal strength determination unit 303 changes from a state equal to or higher than the sound generation stop threshold to a state lower than the sound generation stop threshold. Sound generation instruction information for instructing to stop sound generation by the pitch indicated by the pitch information output from the pitch control means 306 is output to the Wave Generator 308.
Wave Generator308は、それが内蔵するROMに記憶されたノーマル音波形データ309及びグロウル音波形データ310を、発音指示手段307による発音指示に基づく音高でそれぞれ並列に読み出して出力する。ノーマル音波形データ309は例えば、管楽器の通常演奏時の楽音をサンプリングした波形データである。グロウル音波形データ310は例えば、管楽器のグロウリング奏法による演奏時の楽音をサンプリングした波形データである。 The Wave Generator 308 reads and outputs the normal sound waveform data 309 and the glow sound waveform data 310 stored in the ROM incorporated therein in parallel at the pitches based on the sound generation instruction by the sound generation instruction means 307. The normal sound waveform data 309 is, for example, waveform data obtained by sampling musical tones during normal performance of a wind instrument. The growl sound waveform data 310 is, for example, waveform data obtained by sampling musical tones during a performance by a wind instrument's glowing technique.
乗算器312、313はそれぞれ、Wave Generator308から出力されるノーマル音及びグロウル音に対して、合成比決定手段311から与えられた各乗算値を乗算する。 The multipliers 312 and 313 multiply the normal sound and the glow sound output from the Wave Generator 308 by each multiplication value given from the synthesis ratio determining unit 311.
加算器314は、乗算器312及び313の各出力を加算することにより、ノーマル音とグロウル音を混合する。 The adder 314 mixes the normal sound and the growl sound by adding the outputs of the multipliers 312 and 313.
乗算器315は、加算器314の出力に対して、エンベロープ決定手段304から与えられた乗算値を乗算する。 Multiplier 315 multiplies the output of adder 314 by the multiplication value given from envelope determination means 304.
DAC/増幅器316は、乗算器315から出力される楽音信号を、デジタル信号からアナログ信号に変換した後、増幅する。 The DAC / amplifier 316 converts the musical tone signal output from the multiplier 315 from a digital signal to an analog signal, and then amplifies it.
図1のスピーカ103は、DAC/増幅器316から出力される増幅された楽音信号を放音する。或いは、この楽音信号は、図1のライン出力端子109からラインケーブル110を介して外部の音響装置に出力されてもよい。 The speaker 103 in FIG. 1 emits the amplified tone signal output from the DAC / amplifier 316. Alternatively, the musical sound signal may be output from the line output terminal 109 of FIG. 1 to an external audio device via the line cable 110.
ここで、Wave Generator308から出力されるノーマル音波形データ309とグロウル音波形データ310は同位相で鳴る(以下これを「シンクロスタート」と呼ぶ)ように信号処理されていて、加算器314で混合されても音量が不自然に打ち消しあうようなことはない。 Here, the normal sound waveform data 309 and the growl sound waveform data 310 output from the Wave Generator 308 are signal-processed so as to sound in the same phase (hereinafter referred to as “synchronous start”), and are mixed by the adder 314. But the volume doesn't cancel out unnaturally.
図4は、図1の合成比決定手段311及びエンベロープ決定手段304の構成例を示す図である。 FIG. 4 is a diagram illustrating a configuration example of the synthesis ratio determining unit 311 and the envelope determining unit 304 of FIG.
合成比決定手段311は、自己相関値・偏差検出手段302が出力する自己相関値の偏差が大きくなりかつ信号強度決定手段303が出力する信号強度情報の値が小さくなるほど出力値が大きくなり、逆に、上記自己相関値の偏差が小さくなりかつ上記信号強度情報の値が大きくなるほど出力値が小さくなるようなグロウル値を生成する。合成比決定手段311は、このような特性を有するグロウル値を、例えば次の数3式に従って生成する。ここで、Grはグロウル値、Dvは自己相関値の偏差、Dgは偏差調整用のゲイン(固定値)、Lvは信号強度情報の値、Lgは強度調整用のゲイン(固定値)、Laは強度調整用のオフセット(固定値)である。 The combination ratio determining unit 311 increases the output value as the deviation of the autocorrelation value output from the autocorrelation value / deviation detection unit 302 increases and the value of the signal strength information output from the signal strength determination unit 303 decreases. In addition, a growl value is generated such that the output value decreases as the deviation of the autocorrelation value decreases and the value of the signal strength information increases. The composition ratio determining unit 311 generates a growl value having such characteristics according to, for example, the following equation (3). Here, Gr is the Grow value, Dv is the deviation of the autocorrelation value, Dg is the gain for adjusting the deviation (fixed value), Lv is the value of the signal intensity information, Lg is the gain for adjusting the intensity (fixed value), and La is This is an offset (fixed value) for strength adjustment.
そして、合成比決定手段311は、上記グロウル値が(横軸)が大きくなるほど1から0に向かって出力乗算値(縦軸)が減少する特性を有するノーマル音用テーブル401と、グロウル値(横軸)が大きくなるほど0から1に向かって出力乗算値(縦軸)が増加する特性を有するグロウル音用テーブル402を備える。合成比決定手段311は、ボイス・レベルの入力値に対して、ノーマル音用テーブル401及びグロウル音用テーブル402をそれぞれ参照することにより、乗算器312及び313に対する各乗算値をそれぞれ決定する。 The synthesis ratio determining means 311 includes a normal sound table 401 having a characteristic that the output multiplication value (vertical axis) decreases from 1 to 0 as the growl value (horizontal axis) increases, and the grow value (horizontal axis). A growl sound table 402 having a characteristic that the output multiplication value (vertical axis) increases from 0 to 1 as the axis increases. The synthesis ratio determining means 311 determines each multiplication value for the multipliers 312 and 313 by referring to the normal sound table 401 and the glow sound table 402 with respect to the input value of the voice level.
合成比決定手段311、乗算器312、313、及び加算器314により、自己相関値の偏差が大きくなりかつ信号強度が小さくなるほどグロウル音(第2の楽音信号)の出力レベルが大きくなり、自己相関値の偏差が小さくなりかつ信号強度が大きくなるほど第1の楽音信号(ノーマル音)の出力レベルが大きくなるように、ノーマル音とグロウル音が混合された楽音信号が得られることになる。 By the synthesis ratio determining means 311, the multipliers 312, 313 and the adder 314, the output level of the glow sound (second musical sound signal) increases as the deviation of the autocorrelation value increases and the signal intensity decreases. A musical sound signal in which a normal sound and a growl sound are mixed is obtained so that the output level of the first musical sound signal (normal sound) increases as the value deviation decreases and the signal strength increases.
エンベロープ決定手段304は、信号強度決定手段303が出力する信号強度情報の値が所定の発音開始閾値に達するまではゲイン出力がゼロで、信号強度が発音開始閾値を超えると信号強度が大きくなるほどゲイン出力が増加する特性を有するエンベロープテーブル403を備える。エンベロープ決定手段304は、信号強度情報の値に対して、エンベロープテーブル403を参照することにより、乗算器315に対する乗算値であるエンベロープ情報を決定する。 The envelope determining means 304 is such that the gain output is zero until the value of the signal intensity information output from the signal intensity determining means 303 reaches a predetermined sounding start threshold, and the gain increases as the signal intensity increases when the signal intensity exceeds the sounding start threshold. An envelope table 403 having a characteristic of increasing output is provided. The envelope determination unit 304 determines envelope information which is a multiplication value for the multiplier 315 by referring to the envelope table 403 with respect to the value of the signal strength information.
エンベロープ決定手段304及び乗算器315により、信号強度情報の値が発音開始閾値に達するまではノーマル音とグロウル音の混合出力がゼロで、信号強度が発音開始閾値を超えると、信号強度が大きくなるほど上記混合出力が増加する制御が実現される。これにより、演奏者は、ボイスセンサ101に対する吹奏の強弱をコントロールすることにより、ノーマル音とグロウル音の出力を自在に変更することが可能となる。 By the envelope determining means 304 and the multiplier 315, the mixed output of the normal sound and the growl sound is zero until the value of the signal intensity information reaches the sounding start threshold, and when the signal intensity exceeds the sounding start threshold, the signal intensity increases. Control that increases the mixed output is realized. As a result, the performer can freely change the output of the normal sound and the glow sound by controlling the strength of the playing with respect to the voice sensor 101.
以上のようにして、図3及び図4の構成を有する電子鍵盤楽器100の制御システムの実施形態によれば、1種類のボイスセンサ101で吹奏楽器としてのブレス音(ノーマル音)とグロウル音を、シームレスに混合しながら同時に発音させることが可能となる。本実施形態では、演奏者はボイスセンサ101を口で咥える必要がないため、複数の演奏者が1台の電子楽器を共有する場合でも心理面や衛生面のでの障壁を取り除くことができると共に、電子鍵盤楽器100等でもボイスセンサ101のヘッドセットのユニットを接続するだけで、吹奏効果を簡単に実現することが可能となる。 As described above, according to the embodiment of the control system for the electronic keyboard instrument 100 having the configuration of FIGS. 3 and 4, the breath sound (normal sound) and the glow sound as the wind instrument are generated by one type of voice sensor 101. It is possible to produce sound simultaneously while mixing seamlessly. In this embodiment, since the performer does not need to hold the voice sensor 101 with his mouth, even if a plurality of performers share one electronic musical instrument, the psychological and hygienic barriers can be removed. Even with the electronic keyboard instrument 100 or the like, it is possible to easily realize the wind effect simply by connecting the headset unit of the voice sensor 101.
図5は、図3及び図4に示した電子鍵盤楽器100の制御システムの実施形態の機能をソフトウェア処理によって実現可能な電子楽器の第2の実施形態のハードウェア構成例を示すブロック図である。 FIG. 5 is a block diagram illustrating a hardware configuration example of the second embodiment of the electronic musical instrument capable of realizing the functions of the control system for the electronic keyboard musical instrument 100 illustrated in FIGS. 3 and 4 by software processing. .
図5に示されるハードウェア構成例は、CPU(セントラルプロセッシングユニット:中央演算処理装置)501、ROM(リードオンリーメモリ)502、RAM(ランダムアクセスメモリ)503、図1のボイスセンサ101の出力が接続されるADC(アナログデジタルコンバータ)504、図1の鍵盤部102の出力が接続されるGPIO(ジェネラルパーパスインプットアウトプット)505、Wave Generator506、出力が図1のスピーカ103に接続される図3と同様のDAC/増幅器316を備え、これらがバス507によって相互に接続された構成を有する。同図に示される構成は、電子鍵盤楽器100の制御システムを実現できるハードウェア構成の一例であり、そのようなハードウェア構成はこの構成に限定されるものではない。 In the hardware configuration example shown in FIG. 5, a CPU (central processing unit: central processing unit) 501, ROM (read only memory) 502, RAM (random access memory) 503, and the output of the voice sensor 101 in FIG. 1 are connected. ADC (analog / digital converter) 504, GPIO (general purpose input output) 505 to which the output of the keyboard unit 102 in FIG. 1 is connected, Wave Generator 506, and the output is connected to the speaker 103 in FIG. These DAC / amplifiers 316 are connected to each other by a bus 507. The configuration shown in the figure is an example of a hardware configuration capable of realizing the control system of the electronic keyboard instrument 100, and such a hardware configuration is not limited to this configuration.
CPU501は、当該電子鍵盤楽器100の制御を行う。ROM502は、発音制御プログラムを記憶する。RAM503は、発音制御プログラムの実行時に、前述したボイス入力情報、信号強度情報、キー検出情報、音高情報、合成比情報、エンベロープ情報データ、発音指示情報等を一時的に格納する。 The CPU 501 controls the electronic keyboard instrument 100. The ROM 502 stores a sound generation control program. The RAM 503 temporarily stores the above-described voice input information, signal strength information, key detection information, pitch information, synthesis ratio information, envelope information data, sound generation instruction information, and the like when the sound generation control program is executed.
ボイスセンサ101の出力は、図3のボイス入力手段301と同様の機能を有するADC504でアナログ信号からデジタル信号のボイス入力情報に変換されて、RAM103に書き込まれる。 The output of the voice sensor 101 is converted from analog signal to digital voice input information by the ADC 504 having the same function as the voice input unit 301 in FIG.
図1の鍵盤部102の各操作状態は、図3のキー検出手段305と同様の機能を有するGPIO107を介してCPU101に読み込まれる。 Each operation state of the keyboard unit 102 in FIG. 1 is read into the CPU 101 via the GPIO 107 having the same function as the key detection unit 305 in FIG.
Wave Generator506は、図3のWave Generator308と乗算器312、313、加算器314、乗算器315の機能を実現する、例えばデジタルシグナルプロセッサ(DSP)である。 The Wave Generator 506 is, for example, a digital signal processor (DSP) that realizes the functions of the Wave Generator 308, the multipliers 312, 313, the adder 314, and the multiplier 315 of FIG.
Wave Generator506から出力された楽音信号は、CPU501を介してDAC/増幅器316においてデジタル信号からアナログ信号に変換されて増幅された後、スピーカ103を介して放音される。 The musical tone signal output from the wave generator 506 is converted from a digital signal to an analog signal by the DAC / amplifier 316 via the CPU 501 and amplified, and then emitted through the speaker 103.
図6は、図5のハードウェア構成例を有する第2の実施形態のメイン処理の例を示すフローチャートである。この処理は、図5のCPU501が、ROM502に記憶された発音制御処理プログラムを実行する動作として実現される。この処理は、図3のボイス入力手段301、自己相関値・偏差検出手段302、信号強度決定手段303、エンベロープ決定手段304、キー検出手段305、音高制御手段306、発音指示手段307、及び合成比決定手段311の各機能を実現する。以下、随時図5の構成を参照するものとする。 FIG. 6 is a flowchart illustrating an example of a main process of the second embodiment having the hardware configuration example of FIG. This processing is realized as an operation in which the CPU 501 in FIG. 5 executes the sound generation control processing program stored in the ROM 502. This processing includes voice input means 301, autocorrelation value / deviation detection means 302, signal strength determination means 303, envelope determination means 304, key detection means 305, pitch control means 306, sound generation instruction means 307, and synthesis in FIG. Each function of the ratio determining unit 311 is realized. Hereinafter, the configuration of FIG. 5 will be referred to as needed.
まず、CPU501は、初期化処理を実行する(ステップS601)。図7は、ステップS601の初期化処理の詳細例を示すフローチャートである。初期化処理では、RAM503内の関連する各変数に初期値を格納する処理等が実行される。図7のステップS701において、まず、ウェーブ・ジェネレータの初期化として、RAM503内の変数GeneratorStatusに、ROM502に記憶されている定数値GENERATOR_DEADが格納される。また、エンベロープ情報の値の初期化として、RAM503内の変数Envelopeに0(ゼロ)が格納される。また、合成比の初期化として、RAM503内の変数NomalRatioにノーマル音の初期ゲイン値0(ゼロ)が格納される。また、RAM503内の変数GrowlRatioにグロウル音の初期ゲイン値0(ゼロ)が格納される。そして、発音開始閾値の初期化として、RAM503内の変数ThreshNoteOnにROM502に記憶されている定数値THRESHOLD_NOTEONが格納される。 First, the CPU 501 executes an initialization process (step S601). FIG. 7 is a flowchart showing a detailed example of the initialization process in step S601. In the initialization process, a process of storing an initial value in each related variable in the RAM 503 is executed. In step S701 in FIG. 7, first, as a wave generator initialization, a constant value GENERATOR_DEAD stored in the ROM 502 is stored in a variable GeneratorStatus in the RAM 503. Further, 0 (zero) is stored in a variable Envelope in the RAM 503 as initialization of the value of the envelope information. In addition, as an initialization of the synthesis ratio, an initial gain value 0 (zero) of normal sound is stored in a variable NormalRatio in the RAM 503. In addition, an initial gain value 0 (zero) of the glow sound is stored in a variable GrowlRatio in the RAM 503. Then, as initialization of the sound generation start threshold, the constant value THRESHOLD_NOTEON stored in the ROM 502 is stored in the variable ThreshNoteOn in the RAM 503.
図6の処理に戻って、CPU501は、ボイス信号処理(ステップS602)と、楽音制御処理(ステップS603)を繰り返し実行する。 Returning to the processing of FIG. 6, the CPU 501 repeatedly executes the voice signal processing (step S602) and the musical tone control processing (step S603).
図8は、図6のステップS602のボイス信号処理の詳細例を示すフローチャートである。図3のボイス入力手段301、自己相関値・偏差検出手段302、信号強度決定手段303、キー検出手段305、及び音高制御手段306の各機能を実現する。 FIG. 8 is a flowchart showing a detailed example of the voice signal processing in step S602 of FIG. The voice input unit 301, autocorrelation value / deviation detection unit 302, signal strength determination unit 303, key detection unit 305, and pitch control unit 306 in FIG.
まず、CPU501は、ステップS801からS804の一連の処理で示されるボイス入力処理を実行する。この処理は、図3のボイス入力手段301の機能を実現する。 First, the CPU 501 executes a voice input process indicated by a series of processes in steps S801 to S804. This process realizes the function of the voice input means 301 of FIG.
始めに、CPU501は、一定の短い時間だけ待機する(ステップS801)。 First, the CPU 501 waits for a certain short time (step S801).
次に、CPU501は、図1のボイスセンサ101からADC504を介して、ボイス値を取得する(ステップS802)。 Next, the CPU 501 acquires a voice value from the voice sensor 101 of FIG. 1 via the ADC 504 (step S802).
CPU501は、取得したボイス値をボイス入力情報としてRAM103に格納する(ステップS803)。 The CPU 501 stores the acquired voice value in the RAM 103 as voice input information (step S803).
CPU501は、所定のボイス信号処理単位数のボイス値を取得したか否かを判定する(ステップS804)。 The CPU 501 determines whether or not voice values for a predetermined number of voice signal processing units have been acquired (step S804).
ステップS804の判定がNOならば、CPU501は、図8のフローチャートで示される図6のステップS602のボイス信号処理を終了する。 If the determination in step S804 is NO, the CPU 501 ends the voice signal processing in step S602 of FIG. 6 shown in the flowchart of FIG.
ステップS804の判定がYESになると、CPU501は、自己相関値・偏差検出処理(ステップS805)、信号強度決定処理(ステップS806)、及び音高制御処理(ステップS807)を順次実行する。これらは、図3の自己相関値・偏差検出手段302、信号強度決定手段303、及び音高制御手段306の各機能を実現する。これらの処理が終了すると、CPU501は、図8のフローチャートで示される図6のステップS602のボイス信号処理を終了する。なお、ステップS807の処理が終了した時点で、CPU501は、RAM103に記憶されていたいままでのボイス信号処理単位数のボイス値をクリアする。 If the determination in step S804 is YES, the CPU 501 sequentially executes an autocorrelation value / deviation detection process (step S805), a signal strength determination process (step S806), and a pitch control process (step S807). These realize the functions of the autocorrelation value / deviation detection means 302, the signal intensity determination means 303, and the pitch control means 306 in FIG. When these processes are completed, the CPU 501 ends the voice signal process in step S602 of FIG. 6 shown in the flowchart of FIG. Note that when the processing in step S807 ends, the CPU 501 clears the voice value of the number of voice signal processing units as it is stored in the RAM 103.
図9は、図8のステップS805の自己相関値・偏差検出処理の詳細例を示すフローチャートである。CPU501は、数2式で示した自己相関関数の遅れ時間τについて、ステップS901で音階Nを音階C2(約65.4Hz)に初期設定した後、ステップS904で音階Nを+1ずつインクリメントしながら、ステップS903で音階Nが音階C6(約1046.5Hz)を超えたと判定するまで、発声可能な基音49音階について、前述した数2式により、自己相関値を算出する(ステップS902)。 FIG. 9 is a flowchart showing a detailed example of the autocorrelation value / deviation detection process in step S805 of FIG. The CPU 501 initializes the scale N to the scale C2 (about 65.4 Hz) in step S901 with respect to the delay time τ of the autocorrelation function shown in Equation 2, and then increments the scale N by +1 in step S904. Until it is determined in step S903 that the scale N has exceeded the scale C6 (about 1046.5 Hz), the autocorrelation value is calculated for the 49 basic scales that can be uttered by the above-described equation (step S902).
ステップS903の判定がYESになると、CPU501は、ステップS902で算出された音階C2からC6までの全自己相関値の偏差を算出する(ステップS905)。 If the determination in step S903 is YES, the CPU 501 calculates the deviation of all autocorrelation values from the scales C2 to C6 calculated in step S902 (step S905).
CPU501は、ステップS902で算出した音階C2からC6までの全自己相関値と、ステップS905で算出した自己相関値の偏差を、自己相関値・偏差情報としてRAM103に記憶させる。 The CPU 501 stores the total autocorrelation value from the scales C2 to C6 calculated in step S902 and the deviation of the autocorrelation value calculated in step S905 in the RAM 103 as autocorrelation value / deviation information.
図10は、図8のステップS806の信号強度決定処理の詳細例を示すフローチャートである。CPU501は、図8のステップS801からS804の繰返し処理でRAM103にボイス入力情報として取得されたボイス信号処理単位数のボイス値の各振幅値を積分する(ステップS1001)。 FIG. 10 is a flowchart showing a detailed example of the signal strength determination process in step S806 of FIG. The CPU 501 integrates each amplitude value of the voice value of the number of voice signal processing units acquired as the voice input information in the RAM 103 by the repetition processing of steps S801 to S804 in FIG. 8 (step S1001).
次に、CPU501は、ステップS1001での積分の結果に対して、ローパスフィルタ処理を実行する(ステップS1002)。 Next, the CPU 501 executes low-pass filter processing on the result of integration in step S1001 (step S1002).
そして、CPU501は、ステップS1002のローパスフィルタ処理の結果を、信号強度情報としてRAM103内の変数SignalStrengthに記憶させる(ステップS1003)。 Then, the CPU 501 stores the result of the low-pass filter processing in step S1002 in the variable SignalStrength in the RAM 103 as signal strength information (step S1003).
図11は、図8のステップS807の音高制御処理の詳細例を示すフローチャートである。CPU501はまず、GPIO505が出力する鍵盤部102のキー検出情報より、検出されたキーの音高を検出する(ステップS1101)。 FIG. 11 is a flowchart showing a detailed example of the pitch control process in step S807 of FIG. First, the CPU 501 detects the pitch of the detected key from the key detection information of the keyboard unit 102 output from the GPIO 505 (step S1101).
次に、CPU501は、前回のキー検出結果と比較してキーによる音高に変化があるか否かを判定する(ステップS1102)。 Next, the CPU 501 determines whether or not there is a change in the pitch by the key compared to the previous key detection result (step S1102).
ステップS1102の判定がYESの場合、CPU501は、ステップS1101で検出したキーによる音高を、音高情報を示す変数NoteNumberとしてRAM103に格納する(ステップS1103)。その後、CPU501は、図11のフローチャートで例示される図8のステップS807の音高制御処理を終了する。 If the determination in step S1102 is YES, the CPU 501 stores the pitch by the key detected in step S1101 in the RAM 103 as a variable NoteNumber indicating pitch information (step S1103). Thereafter, the CPU 501 ends the pitch control process of step S807 of FIG. 8 illustrated by the flowchart of FIG.
ステップS1102の判定がNOの場合、CPU501は、図8のステップS805でRAM103に得られている自己相関値・偏差情報の自己相関値の偏差の値が所定の偏差閾値より高いか否かを判定することにより、自己相関値から音高を検出可能か否かを判定する(ステップS1104)。この動作については、図3の音高制御手段306の説明で前述した。 When the determination in step S1102 is NO, the CPU 501 determines whether or not the deviation value of the autocorrelation value of the autocorrelation value / deviation information obtained in the RAM 103 in step S805 of FIG. 8 is higher than a predetermined deviation threshold value. Thus, it is determined whether or not the pitch can be detected from the autocorrelation value (step S1104). This operation has been described above in the description of the pitch control means 306 in FIG.
ステップS1104の判定がNOの場合には、演奏者は特殊奏法音の発声を行っていないと判定できるため、CPU501は、図11のフローチャートで例示される図8のステップS807の音高制御処理を終了する。 If the determination in step S1104 is NO, it can be determined that the performer has not made a special performance sound, so the CPU 501 performs the pitch control process in step S807 of FIG. 8 illustrated in the flowchart of FIG. finish.
ステップS1104の判定がYESの場合には、演奏者は特殊奏法音の発声を行っていると判定できる。そこで、CPU501は、図8のステップS805でRAM103に得られている自己相関値・偏差情報の自己相関値のうち、最小値となる自己相関値に対応する遅れ時間τから、その逆数1/τとして音高を検出する(ステップS1105)。 If the determination in step S1104 is YES, it can be determined that the performer is uttering a special performance sound. Therefore, the CPU 501 determines the reciprocal 1 / τ from the delay time τ corresponding to the autocorrelation value that is the minimum value among the autocorrelation values of the autocorrelation value / deviation information obtained in the RAM 103 in step S805 of FIG. As a result, the pitch is detected (step S1105).
CPU501は、ステップS1105で算出した自己相関値による音高を、新たな音高情報として、RAM103内の変数NoteNumberに記憶させる。 The CPU 501 stores the pitch based on the autocorrelation value calculated in step S1105 in the variable NoteNumber in the RAM 103 as new pitch information.
以上の図8から図11で示される図6のステップS602のボイス信号処理の後、CPU501は、図6のステップS603の楽音制御処理を実行する。図12は、ステップS603の楽音制御処理の詳細例を示すフローチャートである。 After the voice signal processing in step S602 of FIG. 6 shown in FIGS. 8 to 11 described above, the CPU 501 executes the musical tone control process of step S603 in FIG. FIG. 12 is a flowchart showing a detailed example of the musical tone control process in step S603.
まず、CPU501は、発音状態を示すRAM503内の変数GeneratorStatusの値が未発音状態を示すROM502内の定数値GENERATOR_DEADになっているか否かを判定する(ステップS1201)。 First, the CPU 501 determines whether or not the value of the variable GeneratorStatus in the RAM 503 indicating the sound generation state is a constant value GENERATOR_DEAD in the ROM 502 indicating the sound generation state (step S1201).
ステップS1201の判定がYES(未発音状態)ならば、CPU501は、ステップS1202の処理に移行する。ここでは、CPU501は、図8のステップS806の信号強度決定処理でRAM503内の変数SignalStrengthに得られている信号強度情報の値が、図3の発音指示手段307の説明で前述した発音開始閾値を示すROM502内の定数値ThreshNoteOnを超えたか否かを判定する。 If the determination in step S1201 is YES (non-sounding state), the CPU 501 proceeds to the process in step S1202. Here, the CPU 501 determines that the value of the signal strength information obtained in the variable SignalStrength in the RAM 503 in the signal strength determination process in step S806 in FIG. 8 is the sound generation start threshold value described above in the description of the sound generation instruction unit 307 in FIG. It is determined whether or not the constant value ThreshNoteOn in the indicated ROM 502 has been exceeded.
ステップS1202の判定がNOならば、発音は開始されないため、CPU501は、図12のフローチャートで例示される図6のステップS603の楽音制御処理を終了する。 If the determination in step S1202 is NO, sound generation is not started, and thus the CPU 501 ends the musical tone control process in step S603 of FIG. 6 illustrated in the flowchart of FIG.
ステップS1202の判定がYESになると、CPU501は、音高情報を記憶するRAM503内の変数NoteNumberと図8のステップS806の信号強度決定処理でRAM503内の変数SignalStrengthに得られている信号強度情報の値とを入力として、発音処理を実行する(ステップS1203)。この処理の詳細については、図13のフローチャートの説明で後述する。 If the determination in step S1202 is YES, the CPU 501 determines the value of the signal strength information obtained in the variable NoteNumber in the RAM 503 for storing the pitch information and the variable SignalStrength in the RAM 503 in the signal strength determination process in step S806 in FIG. Is input, and the sound generation process is executed (step S1203). Details of this processing will be described later in the description of the flowchart of FIG.
次に、CPU501は、発音後処理として、発音状態か否かを示すRAM503内の変数GeneratorStatusに、発音状態を示すROM502内の定数値GENERATOR_ALIVEを格納する(ステップS1204)。その後、CPU501は、図12のフローチャートの処理を終了し、図6のステップS605の楽音制御処理を終了する。 Next, as post-sound generation processing, the CPU 501 stores a constant value GENERATOR_ALIVE in the ROM 502 indicating the sound generation state in a variable GeneratorStatus in the RAM 503 indicating whether or not the sound generation state is present (step S1204). Thereafter, the CPU 501 ends the process of the flowchart of FIG. 12, and ends the musical tone control process of step S605 of FIG.
ステップS1201の判定がNO(発音状態)ならば、CPU501は、ステップS1205の処理に移行する。ここでは、CPU501は、図8のステップS806の信号強度決定処理でRAM503内の変数SignalStrengthに得られている信号強度情報の値に基づいてエンベロープ情報の値を決定する、エンベロープ決定処理を実行し、この処理の結果得られるエンベロープ情報の値をRAM103内の変数Envelopeに格納する。この処理の詳細については、図4のエンベロープ決定手段304の説明で前述した。この結果得られたエンベロープ情報の値は、Wave Generator506に与えられる。Wave Generator506は、このゲイン値に基づいて、図3又は図4の乗算器315に対応する機能を実行する。 If the determination in step S1201 is NO (sound generation state), the CPU 501 proceeds to the process in step S1205. Here, the CPU 501 executes envelope determination processing for determining the value of envelope information based on the value of the signal strength information obtained in the variable SignalStrength in the RAM 503 in the signal strength determination processing in step S806 of FIG. The value of the envelope information obtained as a result of this processing is stored in a variable Envelope in the RAM 103. Details of this processing have been described above in the description of the envelope determining means 304 in FIG. The value of the envelope information obtained as a result is given to the Wave Generator 506. The Wave Generator 506 executes a function corresponding to the multiplier 315 in FIG. 3 or FIG. 4 based on this gain value.
次に、CPU501は、図8のステップS805でRAM103に得られている自己相関値・偏差情報の値と、図8のステップS806でRAM103の変数SignalStrengthに得られている信号強度情報の値とに基づいて、合成比決定処理を実行する(ステップS1206)。この処理の詳細は、図4の合成比決定手段311の説明において前述した。図4のノーマル音用テーブル401及びグロウル音用テーブル402にアクセスして決定された合成比はそれぞれ、RAM503内の変数NormalRatioと変数GrowlRatioに格納される。変数NormalRatioは、ノーマル音の合成比を示し、図3又は図4の乗算器312に与えられる乗算値に対応する。変数GrowlRatioは、グロウル音の合成比を示し、図3又は図4の乗算器313に与えられる乗算値に対応する。これらの変数値は、Wave Generator506に与えられる。Wave Generator506は、これらの変数値に基づいて、図3又は図4の乗算器312及び313に対応する機能を実行する。 Next, the CPU 501 converts the autocorrelation value / deviation information value obtained in the RAM 103 in step S805 in FIG. 8 and the signal strength information value obtained in the variable SignalStrength in the RAM 103 in step S806 in FIG. Based on this, a composition ratio determination process is executed (step S1206). Details of this processing have been described above in the description of the synthesis ratio determining means 311 in FIG. The synthesis ratios determined by accessing the normal sound table 401 and the glow sound table 402 in FIG. 4 are stored in a variable NormalRatio and a variable GrowlRatio in the RAM 503, respectively. The variable NormalRatio indicates the synthesis ratio of normal sounds, and corresponds to the multiplication value given to the multiplier 312 in FIG. 3 or FIG. The variable GrowlRatio indicates the synthesis ratio of the growl sound, and corresponds to the multiplication value given to the multiplier 313 in FIG. 3 or FIG. These variable values are provided to Wave Generator 506. The Wave Generator 506 performs a function corresponding to the multipliers 312 and 313 in FIG. 3 or FIG. 4 based on these variable values.
その後、CPU501は、図8のステップS806の信号強度決定処理でRAM503内の変数SignalStrengthに得られている信号強度情報の値が、図3の発音指示手段307の説明で前述した発音開始閾値を示すROM502内の定数値ThreshNoteOn以下となったか否かを判定する(ステップS1207)。ステップS1207の判定がYESになると、CPU501は、発音後処理として、発音状態か否かを示すRAM503内の変数GeneratorStatusに、未発音状態を示すROM502内の定数値GENERATOR_DEADを格納する(ステップS1208)。 Thereafter, the CPU 501 indicates the sounding start threshold value described above in the description of the sounding instruction means 307 in FIG. 3 by the value of the signal strength information obtained in the variable SignalStrength in the RAM 503 in the signal strength determining process in step S806 of FIG. It is determined whether or not the constant value ThreshNoteOn in the ROM 502 has become equal to or less (step S1207). If the determination in step S1207 is YES, the CPU 501 stores the constant value GENERATOR_DEAD in the ROM 502 indicating the non-sounding state in the variable GeneratorStatus in the RAM 503 indicating whether or not the sounding state as post-sounding processing (step S1208).
ステップS1207の判定がNOの場合又はステップS1208の処理の後、CPU501は、図12のフローチャートで例示される図6のステップS605の楽音制御処理を終了する。 When the determination in step S1207 is NO or after the process in step S1208, the CPU 501 ends the musical tone control process in step S605 of FIG. 6 illustrated in the flowchart of FIG.
図13は、図12のステップS1203の発音処理の詳細例を示すフローチャートである。 FIG. 13 is a flowchart showing a detailed example of the sound generation process in step S1203 of FIG.
まず、CPU501は、図8のステップS807の音高制御処理でRAM503内の変数NoteNumberに得られている音高情報を入力として、Wave Generator506におけるノーマル音用の初期化処理を実行する(ステップS1301)。ここでは、CPU501は、Wave Generator506に対して、ノーマル音波形データ309(図3参照)のスタートアドレスを設定し、また変数NoteNumberが示す音高に対応するノーマル音波形データ309の読出し速度を設定する。 First, the CPU 501 receives the pitch information obtained in the variable NoteNumber in the RAM 503 in the pitch control process of step S807 in FIG. 8 and executes initialization processing for normal sound in the Wave Generator 506 (step S1301). . Here, the CPU 501 sets the start address of the normal sound waveform data 309 (see FIG. 3) to the Wave Generator 506, and sets the reading speed of the normal sound waveform data 309 corresponding to the pitch indicated by the variable NoteNumber. .
次に、CPU501は、音高を記憶するRAM503内の変数NoteNumberを入力として、Wave Generator506におけるグロウル音用の初期化処理を実行する(ステップS1302)。ここでは、CPU501は、Wave Generator506に対して、グロウル音波形データ310(図3参照)のスタートアドレスを設定し、また変数NoteNumberが示す音高に対応するグロウル音波形データ310の読出し速度を設定する。 Next, the CPU 501 receives the variable NoteNumber in the RAM 503 for storing the pitch, and executes the initialization process for the glow sound in the Wave Generator 506 (step S1302). Here, the CPU 501 sets the start address of the glow sound waveform data 310 (see FIG. 3) to the Wave Generator 506, and sets the reading speed of the grow sound waveform data 310 corresponding to the pitch indicated by the variable NoteNumber. .
次に、CPU501は、合成比決定処理を実行する(ステップS1303)。この処理は、発音状態で実行される図12のステップS1206の処理と同様であり、図3又は図4の合成比決定手段311の機能を実現する。図4のノーマル音用テーブル401及びグロウル音用テーブル402にアクセスして決定された合成比はそれぞれ、RAM503内の変数NormalRatioと変数GrowlRatioに格納され、Wave Generator506に与えられる。Wave Generator506は、これらの変数値に基づいて、図3又は図4の乗算器312及び313に対応する機能を実行する。 Next, the CPU 501 executes a composition ratio determination process (step S1303). This process is the same as the process of step S1206 in FIG. 12 executed in the sound generation state, and realizes the function of the composition ratio determining means 311 in FIG. 3 or FIG. The synthesis ratios determined by accessing the normal sound table 401 and the glow sound table 402 in FIG. 4 are stored in a variable NormalRatio and a variable GrowlRatio in the RAM 503, respectively, and are given to the wave generator 506. The Wave Generator 506 performs a function corresponding to the multipliers 312 and 313 in FIG. 3 or FIG. 4 based on these variable values.
次に、CPU501は、エンベロープ決定処理を実行する(ステップS1304)。この処理は、発音状態で実行される図12のステップS1205の処理と同様である。この処理で得られたエンベロープ情報の値は、Wave Generator506に与えられる。Wave Generator506は、このゲイン値に基づいて、図3又は図4の乗算器315に対応する機能を実行する。 Next, the CPU 501 executes an envelope determination process (step S1304). This process is the same as the process in step S1205 of FIG. The value of the envelope information obtained by this processing is given to the Wave Generator 506. The Wave Generator 506 executes a function corresponding to the multiplier 315 in FIG. 3 or FIG. 4 based on this gain value.
最後に、CPU501は、ジェネレータ・シンクロ・スタート処理を実行する(ステップS1305)。この処理では、CPU501は、Wave Generator506に対してノーマル音波形データ309とグロウル音波形データ310を同期(シンクロ)させて出力処理させるための発音開始指示を出す。 Finally, the CPU 501 executes generator / synchronization / start processing (step S1305). In this process, the CPU 501 issues a sound generation start instruction to synchronize the normal sound waveform data 309 and the glow sound waveform data 310 to the Wave Generator 506 for output processing.
以上説明した第2の実施形態の動作により、第1の実施形態における図3又は図4の電子楽器の機能が、ソフトウェア処理として実現される。 By the operation of the second embodiment described above, the function of the electronic musical instrument of FIG. 3 or 4 in the first embodiment is realized as software processing.
以上説明したようにして、第1及び第2の実施形態では、図1のボイスセンサ本体112に金属網113と積層繊維114からなる障害物を取り付けることにより、演奏者がボイスセンサ101に息を吹きかけてブレス奏法を行ったときの情報を効率よく音声として入力することができ、信号強度の検出における応答性及び安定性を向上させることが可能となる。ボイスセンサ本体112に被せる障害物としては、息を吹きかけたときの周波数特性がホワイトノイズに近くなるようなものであれば、金属網113と積層繊維114の組合せには限られず、様々なものを適用できる。 As described above, in the first and second embodiments, the performer breathes into the voice sensor 101 by attaching the obstacle made of the metal net 113 and the laminated fiber 114 to the voice sensor main body 112 of FIG. It is possible to efficiently input the information when the breath performance is performed by blowing, and to improve the responsiveness and stability in detecting the signal intensity. The obstacle to cover the voice sensor main body 112 is not limited to the combination of the metal net 113 and the laminated fiber 114 as long as the frequency characteristic when blowing is close to white noise, and various objects can be used. Applicable.
以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
カルマン渦を生じさせる部材を介して音声センサからブレス音及び発声音が入力され、前記入力に応じて前記音声センサから連続して出力される出力値に基づいて算出される複数の自己相関値から偏差を算出する偏差算出手段と、
前記自己相関値の前記偏差に基づいて、発音部に発音させる楽音を生成する楽音生成手段と、
を有する楽音生成装置。
(付記2)
前記楽音生成手段は、
前記自己相関値の前記偏差が閾値より大きい場合に、ノーマル音の第1の楽音信号の合成比率よりもグロウル音の第2の楽音信号の合成比率を大きくすることにより、前記第1の楽音信号と前記第2の楽音信号とを合成して前記楽音を生成する、付記1に記載の楽音生成装置。
(付記3)
前記楽音生成手段は、
前記自己相関値の前記偏差が閾値より小さい場合に、ノーマル音の第1の楽音信号の合成比率よりもグロウル音の第2の楽音信号の合成比率を小さくすることにより、前記第1の楽音信号と前記第2の楽音信号とを合成して前記楽音を生成する、付記1または2に記載の楽音生成装置。
(付記4)
前記音声センサの前記出力値からブレスの信号強度情報を取得する信号強度決定手段と、
を更に有し、
前記楽音生成手段は、
前記自己相関値の前記偏差及び前記信号強度情報に基づいて決定される合性比率により、ノーマル音の第1の楽音信号とグロウル音の第2の楽音信号とを合成して前記楽音を生成する、付記1から3のいずれかに記載の楽音生成装置。
(付記5)
付記1乃至4のいずれかに記載の楽音生成装置と、
前記楽音生成装置により生成された楽音を発音する発音部と、
を有する電子楽器。
(付記6)
カルマン渦を生じさせる部材を介して音声センサからブレス音及び発声音が入力され、前記入力に応じて前記音声センサから連続して出力される出力値に基づいて算出される複数の自己相関値から偏差を算出し、
前記自己相関値の前記偏差に基づいて、発音部に発音させる楽音を生成する、楽音生成方法。
(付記7)
コンピュータに、
カルマン渦を生じさせる部材を介して音声センサからブレス音及び発声音が入力され、前記入力に応じて前記音声センサから連続して出力される出力値に基づいて算出される複数の自己相関値から偏差を算出するステップと、
前記自己相関値の前記偏差に基づいて、発音部に発音させる楽音を生成するステップと、
を実行させるためのプログラム。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
From a plurality of autocorrelation values calculated based on output values that are continuously output from the voice sensor in response to the input, breath sounds and utterance sounds are input from the voice sensor through a member that generates a Karman vortex Deviation calculating means for calculating the deviation;
Based on the deviation of the autocorrelation value, a musical sound generating means for generating a musical sound to be generated by the sound generation unit;
A musical sound generating device having
(Appendix 2)
The musical sound generating means includes
When the deviation of the autocorrelation value is larger than a threshold value, the first musical tone signal is increased by making the synthesis ratio of the second musical signal of the glow sound larger than the synthetic ratio of the first musical signal of the normal sound. The musical tone generation apparatus according to appendix 1, wherein the musical tone is generated by combining the second musical tone signal with the second musical tone signal.
(Appendix 3)
The musical sound generating means includes
When the deviation of the autocorrelation value is smaller than a threshold value, the first musical sound signal is reduced by making the synthesis ratio of the second musical signal of the glow sound smaller than the synthetic ratio of the first musical signal of the normal sound. The musical tone generation apparatus according to appendix 1 or 2, wherein the musical tone is generated by combining the second musical tone signal with the second musical tone signal.
(Appendix 4)
Signal strength determining means for acquiring breath signal strength information from the output value of the voice sensor;
Further comprising
The musical sound generating means includes
The musical tone is generated by synthesizing the first musical tone signal of the normal tone and the second musical tone signal of the glow tone based on the sexuality ratio determined based on the deviation of the autocorrelation value and the signal strength information. The musical sound generating device according to any one of appendices 1 to 3.
(Appendix 5)
A musical sound generating device according to any one of appendices 1 to 4,
A sound generation unit for generating a musical sound generated by the musical sound generation device;
Electronic musical instrument with
(Appendix 6)
From a plurality of autocorrelation values calculated based on output values that are continuously output from the voice sensor in response to the input, breath sounds and utterance sounds are input from the voice sensor through a member that generates a Karman vortex Calculate the deviation,
A musical sound generation method for generating a musical sound to be generated by the sound generation unit based on the deviation of the autocorrelation value.
(Appendix 7)
On the computer,
From a plurality of autocorrelation values calculated based on output values that are continuously output from the voice sensor in response to the input, breath sounds and utterance sounds are input from the voice sensor through a member that generates a Karman vortex Calculating a deviation;
Based on the deviation of the autocorrelation value, generating a musical sound to be generated by the sound generation unit;
A program for running
100 電子鍵盤
101 ボイスセンサ
102 鍵盤部
103 スピーカ
104 ボイス入力端子
105 接続ケーブル
106 ヘッドバンド
107 マイクアーム
108 楽器本体
109 ライン出力端子
110 ラインケーブル
111 センサ基部
112 ボイスセンサ本体
113 金属網
114 積層繊維
301 ボイス入力手段
302 自己相関値・偏差検出手段
303 信号強度決定手段
304 エンベロープ決定手段
305 キー検出手段
306 音高制御手段
307 発音指示手段
308、506 Wave Generator
309 ノーマル音波形データ
310 グロウル音波形データ
311 合成比決定手段
312、313、315 乗算器
314 加算器
316 DAC/増幅器
401 ノーマル音用テーブル
402 グロウル音用テーブル
501 CPU(セントラルプロセッシングユニット:中央演算処理装置)
502 ROM(リードオンリーメモリ)
503 RAM(ランダムアクセスメモリ)
504 ADC(アナログデジタルコンバータ)
505 GPIO(ジェネラルパーパスインプットアウトプット)
507 バス
DESCRIPTION OF SYMBOLS 100 Electronic keyboard 101 Voice sensor 102 Keyboard part 103 Speaker 104 Voice input terminal 105 Connection cable 106 Headband 107 Microphone arm 108 Musical instrument main body 109 Line output terminal 110 Line cable 111 Sensor base 112 Voice sensor main body 113 Metal net 114 Laminated fiber 301 Voice input Means 302 Autocorrelation value / deviation detection means 303 Signal strength determination means 304 Envelope determination means 305 Key detection means 306 Pitch control means 307 Sound generation instruction means 308, 506 Wave Generator
309 Normal sound waveform data 310 Growl sound waveform data 311 Synthesis ratio determining means 312, 313, 315 Multiplier 314 Adder 316 DAC / amplifier 401 Normal sound table 402 Growl sound table 501 CPU (Central processing unit: Central processing unit) )
502 ROM (Read Only Memory)
503 RAM (Random Access Memory)
504 ADC (analog / digital converter)
505 GPIO (General Purpose Input Output)
507 bus
Claims (7)
前記自己相関値の前記偏差に基づいて、発音部に発音させる楽音を生成する楽音生成手段と、
を有する楽音生成装置。 From a plurality of autocorrelation values calculated based on output values that are continuously output from the voice sensor in response to the input, breath sounds and utterance sounds are input from the voice sensor through a member that generates a Karman vortex Deviation calculating means for calculating the deviation;
Based on the deviation of the autocorrelation value, a musical sound generating means for generating a musical sound to be generated by the sound generation unit;
A musical sound generating device having
前記自己相関値の前記偏差が閾値より大きい場合に、ノーマル音の第1の楽音信号の合成比率よりもグロウル音の第2の楽音信号の合成比率を大きくすることにより、前記第1の楽音信号と前記第2の楽音信号とを合成して前記楽音を生成する、請求項1に記載の楽音生成装置。 The musical sound generating means includes
When the deviation of the autocorrelation value is larger than a threshold value, the first musical tone signal is increased by making the synthesis ratio of the second musical signal of the glow sound larger than the synthetic ratio of the first musical signal of the normal sound. The musical tone generation apparatus according to claim 1, wherein the musical tone is generated by combining the second musical tone signal with the second musical tone signal.
前記自己相関値の前記偏差が閾値より小さい場合に、ノーマル音の第1の楽音信号の合成比率よりもグロウル音の第2の楽音信号の合成比率を小さくすることにより、前記第1の楽音信号と前記第2の楽音信号とを合成して前記楽音を生成する、請求項1または2に記載の楽音生成装置。 The musical sound generating means includes
When the deviation of the autocorrelation value is smaller than a threshold value, the first musical sound signal is reduced by making the synthesis ratio of the second musical signal of the glow sound smaller than the synthetic ratio of the first musical signal of the normal sound. The musical sound generating apparatus according to claim 1, wherein the musical sound is generated by combining the second musical sound signal with the second musical sound signal.
を更に有し、
前記楽音生成手段は、
前記自己相関値の前記偏差及び前記信号強度情報に基づいて決定される合性比率により、ノーマル音の第1の楽音信号とグロウル音の第2の楽音信号とを合成して前記楽音を生成する、請求項1から3のいずれかに記載の楽音生成装置。 Signal strength determining means for acquiring breath signal strength information from the output value of the voice sensor;
Further comprising
The musical sound generating means includes
The musical tone is generated by synthesizing the first musical tone signal of the normal tone and the second musical tone signal of the glow tone based on the sexuality ratio determined based on the deviation of the autocorrelation value and the signal strength information. The musical tone generating device according to any one of claims 1 to 3.
前記楽音生成装置により生成された楽音を発音する発音部と、
を有する電子楽器。 A musical sound generating device according to any one of claims 1 to 4,
A sound generation unit for generating a musical sound generated by the musical sound generation device;
Electronic musical instrument with
前記自己相関値の前記偏差に基づいて、発音部に発音させる楽音を生成する、楽音生成方法。 From a plurality of autocorrelation values calculated based on output values that are continuously output from the voice sensor in response to the input, breath sounds and utterance sounds are input from the voice sensor through a member that generates a Karman vortex Calculate the deviation,
A musical sound generation method for generating a musical sound to be generated by the sound generation unit based on the deviation of the autocorrelation value.
カルマン渦を生じさせる部材を介して音声センサからブレス音及び発声音が入力され、前記入力に応じて前記音声センサから連続して出力される出力値に基づいて算出される複数の自己相関値から偏差を算出するステップと、
前記自己相関値の前記偏差に基づいて、発音部に発音させる楽音を生成するステップと、
を実行させるためのプログラム。 On the computer,
From a plurality of autocorrelation values calculated based on output values that are continuously output from the voice sensor in response to the input, breath sounds and utterance sounds are input from the voice sensor through a member that generates a Karman vortex Calculating a deviation;
Based on the deviation of the autocorrelation value, generating a musical sound to be generated by the sound generation unit;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016190428A JP6753250B2 (en) | 2016-09-28 | 2016-09-28 | Musical tone generator, musical tone generator, electronic musical instrument, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016190428A JP6753250B2 (en) | 2016-09-28 | 2016-09-28 | Musical tone generator, musical tone generator, electronic musical instrument, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018054859A true JP2018054859A (en) | 2018-04-05 |
JP6753250B2 JP6753250B2 (en) | 2020-09-09 |
Family
ID=61835704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016190428A Active JP6753250B2 (en) | 2016-09-28 | 2016-09-28 | Musical tone generator, musical tone generator, electronic musical instrument, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6753250B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021051100A (en) * | 2019-09-20 | 2021-04-01 | カシオ計算機株式会社 | Electronic wind instrument, musical sound generation method and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02223991A (en) * | 1989-02-23 | 1990-09-06 | Yamaha Corp | Exhalation sensor |
JP2010002937A (en) * | 2009-10-07 | 2010-01-07 | Casio Comput Co Ltd | Speech analysis and synthesis device, speed analyzer, speech synthesizer, and program |
JP2015079245A (en) * | 2013-10-14 | 2015-04-23 | パク、ジェスク | Wind instrument synthesizer controller |
JP2015225271A (en) * | 2014-05-29 | 2015-12-14 | カシオ計算機株式会社 | Electronic musical instrument, method for controlling sound production of electronic musical instrument, and program |
-
2016
- 2016-09-28 JP JP2016190428A patent/JP6753250B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02223991A (en) * | 1989-02-23 | 1990-09-06 | Yamaha Corp | Exhalation sensor |
JP2010002937A (en) * | 2009-10-07 | 2010-01-07 | Casio Comput Co Ltd | Speech analysis and synthesis device, speed analyzer, speech synthesizer, and program |
JP2015079245A (en) * | 2013-10-14 | 2015-04-23 | パク、ジェスク | Wind instrument synthesizer controller |
JP2015225271A (en) * | 2014-05-29 | 2015-12-14 | カシオ計算機株式会社 | Electronic musical instrument, method for controlling sound production of electronic musical instrument, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021051100A (en) * | 2019-09-20 | 2021-04-01 | カシオ計算機株式会社 | Electronic wind instrument, musical sound generation method and program |
Also Published As
Publication number | Publication date |
---|---|
JP6753250B2 (en) | 2020-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5582915B2 (en) | Score position estimation apparatus, score position estimation method, and score position estimation robot | |
US10832645B2 (en) | Transducer apparatus for a labrosone and a labrosone having the transducer apparatus | |
JP4207902B2 (en) | Speech synthesis apparatus and program | |
JP6728843B2 (en) | Electronic musical instrument, musical tone generating device, musical tone generating method and program | |
JP4645241B2 (en) | Voice processing apparatus and program | |
JP4672474B2 (en) | Automatic musical transcription device and program | |
JP2011180546A (en) | Electronic wind instrument | |
JP7140083B2 (en) | Electronic wind instrument, control method and program for electronic wind instrument | |
JP6753250B2 (en) | Musical tone generator, musical tone generator, electronic musical instrument, and program | |
WO2021060493A1 (en) | Information processing method, estimation model construction method, information processing device, and estimation model constructing device | |
JP6326976B2 (en) | Electronic musical instrument, pronunciation control method for electronic musical instrument, and program | |
JP6648457B2 (en) | Electronic musical instrument, sound waveform generation method, and program | |
US11127387B2 (en) | Sound source for electronic percussion instrument and sound production control method thereof | |
JP4483561B2 (en) | Acoustic signal analysis apparatus, acoustic signal analysis method, and acoustic signal analysis program | |
JP6435645B2 (en) | Electronic musical instrument, pronunciation control method for electronic musical instrument, and program | |
JP2001117578A (en) | Device and method for adding harmony sound | |
JP6569255B2 (en) | Electronic musical instrument, pronunciation control method for electronic musical instrument, and program | |
JPH04251294A (en) | Sound image assigned position controller | |
JP3903975B2 (en) | Musical sound processing apparatus, musical sound processing method, and musical sound processing program | |
JP5157488B2 (en) | Parameter setting device, sound generation device, and program | |
SHI | Extending the Sound of the Guzheng | |
JP6671633B2 (en) | Electronic wind instrument, musical sound generation method and program | |
JP5211437B2 (en) | Voice processing apparatus and program | |
JP2011197235A (en) | Sound signal control device and karaoke device | |
JP2021051100A (en) | Electronic wind instrument, musical sound generation method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190415 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200512 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200721 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6753250 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |