JPS63257000A - Voice synthesization - Google Patents

Voice synthesization

Info

Publication number
JPS63257000A
JPS63257000A JP62091705A JP9170587A JPS63257000A JP S63257000 A JPS63257000 A JP S63257000A JP 62091705 A JP62091705 A JP 62091705A JP 9170587 A JP9170587 A JP 9170587A JP S63257000 A JPS63257000 A JP S63257000A
Authority
JP
Japan
Prior art keywords
acoustic
sound
cross
sectional area
tube
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62091705A
Other languages
Japanese (ja)
Other versions
JPH0833747B2 (en
Inventor
典雄 須田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Electric Manufacturing Co Ltd
Priority to JP62091705A priority Critical patent/JPH0833747B2/en
Priority to CA000564051A priority patent/CA1334868C/en
Priority to CN88102086A priority patent/CN1020358C/en
Priority to EP88105993A priority patent/EP0287104B1/en
Priority to DE8888105993T priority patent/DE3866926D1/en
Priority to KR88004224A priority patent/KR970011021B1/en
Publication of JPS63257000A publication Critical patent/JPS63257000A/en
Priority to US07/540,864 priority patent/US5097511A/en
Publication of JPH0833747B2 publication Critical patent/JPH0833747B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 A、産業上の利用分野 本発明は人間の音声又は楽器の音の合成に関する。[Detailed description of the invention] A. Industrial application field The present invention relates to the synthesis of human speech or musical instrument sounds.

B1発明の概要 本発明は、音響管の断面積変化における音響伝搬の現象
が、送電線等の電気回路における系統過渡現象に近似し
ていることに着目し、音響管の断面積変化をザージイン
ピーダンス変化に対応させてザージインピーダンスの可
変により音の合成をするようにしたものである。
B1 Summary of the Invention The present invention focuses on the fact that the phenomenon of sound propagation caused by a change in the cross-sectional area of a sound tube is similar to a system transient phenomenon in an electric circuit such as a power transmission line, and the present invention is based on Sound is synthesized by varying the surge impedance in response to impedance changes.

また管楽器等の音響管の長さの変化による音の合成は、
インピーダンス結合部に遅延回路を設けて、その長さ変
化に対応した遅延定数を変化させて合成できるようにし
た音の合成方法である。
In addition, sound synthesis by changing the length of the acoustic tube of a wind instrument, etc.
This is a sound synthesis method in which a delay circuit is provided in the impedance coupling section, and the delay constant corresponding to the change in the length of the delay circuit is changed to enable synthesis.

C従来の技術 音声合成やミコージックシンセザイザー(電子楽器)等
の所謂音を人工的に合成して出力する電子装置は、最近
になって1ないし数チップの音声認識や音声合成のLS
Iが音声情報処理と半導体の大規模集積回路技術により
低価格で実現されるようになり、その使用目的、制約条
件により種々の方式が提案されている。この音声合成に
は、人間の発生した生の音声を録音しておき、これを適
当に結合して文章に編集する録音編集方式と、人間の声
を直接的には利用什ず、人間の音声のパラメータだけを
抽出し、音声合成過程で、そのパラメータを制御して人
工的に音声信号を作り出す方法がある。
C. Conventional technology Electronic devices that artificially synthesize and output so-called sounds, such as voice synthesis and mycosic synthesizers (electronic musical instruments), have recently become LS for voice recognition and voice synthesis using one or several chips.
I can now be realized at low cost through audio information processing and semiconductor large-scale integrated circuit technology, and various systems have been proposed depending on the purpose of use and constraints. This speech synthesis method involves two methods: recording and editing raw human voices, combining them appropriately and editing them into sentences, and another method that does not directly use the human voice. There is a method of extracting only the parameters of a speech signal and controlling those parameters during the speech synthesis process to artificially create a speech signal.

このパラメータ方式で良質な合成音が得られるコトで広
く利用されているパーコール(PARCOR)方がある
There is a widely used PARCOR method that allows high-quality synthesized sounds to be obtained using this parameter method.

音声を電子計算機で扱う場合、音声波形をある周期毎に
サンプリングして各サンプリング点での音声信号の値を
アナログ/ディジタル変換し、その値を0と1の符号で
表示して行われるが、アナログ信号に忠実な記録をする
には、ビット数を増やす必要があるが音声合成信号は大
変多くのメモリーを必要とする。
When handling audio using an electronic computer, the audio waveform is sampled at certain intervals, the audio signal value at each sampling point is converted from analog to digital, and the resulting values are displayed as codes of 0 and 1. To record faithfully to analog signals, it is necessary to increase the number of bits, but voice synthesis signals require a large amount of memory.

そこで、この情報量を極力少なくするために各種の高能
率な符号化法が研究開発されている。
Therefore, various highly efficient encoding methods are being researched and developed in order to reduce the amount of information as much as possible.

その方法の1つとして、1つの音声信号の情報=4− に対し、最低限の1ビツトとした方式で、デルタ変調方
式がある。この方式は、1ビツトの使い方として、次に
くる音声信号値が現在の値より高いか低いかを判定して
、高ければ符号“l”、低ければ符号“0”を与え音声
信号の符号化を行うもので、実際のシステム構成として
は一定の振幅ステップ量(デルタ)を定めておき、誤差
が蓄積されないように今までの符号化によって得られる
音声の値と、入力してくる音声信号との残差信号に対し
て、符号化を行う。
One such method is the delta modulation method, which uses a minimum of 1 bit for information of one audio signal = 4-. This method uses one bit to determine whether the next audio signal value is higher or lower than the current value, and if it is high, it gives the code "l" and if it is low, it gives the code "0" to encode the audio signal. In the actual system configuration, a constant amplitude step amount (delta) is determined, and the audio value obtained by conventional encoding is compared with the input audio signal to prevent errors from accumulating. The residual signal is encoded.

このような構成を予測コード化といわれ、線形予測法(
何個か前のサンプル値から予測する)およびパーコール
方式(線形予測法の予測係数の代わりにパーコール係数
にといわれる偏自己相関関数を用いる)がある。
This kind of configuration is called predictive coding, and is based on the linear prediction method (
There are two methods: the Percoll method (which uses a partial autocorrelation function called a Percoll coefficient instead of the prediction coefficient of the linear prediction method).

D1発明が解決しようとする問題点 萌述のように予測コード化を用いたものは、音と音との
継ぎ目に相当する調音結合が難しいという問題がある。
D1 Problems to be Solved by the Invention When predictive coding is used as in Moekei, there is a problem in that it is difficult to make articulatory connections, which correspond to joints between sounds.

即ち第10図は横軸に音声発生の時間Eをとり、縦軸に
パーコール係数kをとったもので、例えば母音から子音
を経て母音に至る発声において、母音の定常から過渡を
経て子音に至りまた母音の過渡を経て母音の定常音に至
る過程で母音と母音の継ぎ目の音が跡切れ、人間が聞い
たときに自然な感じを与えない。
In other words, in Figure 10, the horizontal axis represents the time E of sound generation, and the vertical axis represents the Percoll coefficient k.For example, in the utterance from a vowel to a consonant to a vowel, from the stationary state of the vowel to the transient state to the consonant. In addition, in the process of transitioning through vowels and reaching steady vowel sounds, the sound at the joint between vowels is cut off, which does not give a natural sound to humans.

また楽器音合成の場合は、音階の継ぎ目が重要であるが
合成手法が実際の楽器の音発生の原理と異なるため、や
はり自然な感じか無く、特に残響音において顕著にあら
れれる。これら両者において自然な音に近付けるために
は、これを構成するメモリや、演算器等の電子部品を多
く必要とし装置が高価になる等の問題がある。
Furthermore, in the case of musical instrument sound synthesis, the joints between scales are important, but since the synthesis method differs from the principle of sound generation in an actual musical instrument, it still lacks a natural sound, especially in reverberant sounds. In order to approximate natural sounds in both of these systems, there are problems such as the need for a large number of electronic components such as memory and arithmetic units, making the device expensive.

E1問題点を解決するための手段 以上の点に鑑み、本発明は人間の音の発生や楽器の楽音
は人間の口腔や音響管の長さや断面積等の形状変化によ
って作り出される。そこで、これら音響管の音波の伝達
を表す進行波現象を音響管等価回路で解析し、音響管の
断面積がサージインピーダンスに反比例することに着目
し、サージインピーダンスを変化させることで断面積を
模擬的に変化させ、サージインピーダンスを連続的変化
することで調音結合をスムーズに行うことができるよう
にして人間の発声と同様な音の合成を容易となし音声の
自然性の向上を図ったものである。
Means for Solving Problem E1 In view of the above points, the present invention proposes that human sounds and musical sounds of musical instruments are produced by changes in the shape of the human oral cavity and the length and cross-sectional area of the acoustic tube. Therefore, we analyzed the traveling wave phenomenon that represents the transmission of sound waves in acoustic tubes using acoustic tube equivalent circuits, and focused on the fact that the cross-sectional area of the acoustic tube is inversely proportional to the surge impedance, and simulated the cross-sectional area by changing the surge impedance. By continuously changing the surge impedance, it is possible to perform articulatory combination smoothly, making it easier to synthesize sounds similar to human speech, and improving the naturalness of speech. be.

また楽器の長さの変化は、遅延回路の段数で模擬し、断
面積変化と相俟ってより自然な楽器音を簡単に実現でき
るようにした。
In addition, changes in the length of the instrument were simulated by the number of stages in the delay circuit, and together with changes in cross-sectional area, it was possible to easily create a more natural instrument sound.

F1作用 人間は口腔を動かずことにより、音を発声し、管楽器は
音響管の長さや形状を変化させることによって楽音を作
る。本発明は音響管(人間の声帯から口唇までの声道も
1つの音響管とみなすことができる。)の断面積を等価
回路のサージインピーダンスにl対lに対応させている
ので、このサージインピーダンスを変化させれば音響管
の断面積を変化させたと同じとなる。このサージインピ
ーダンスの変更は、電気技術的に極めて簡単にできるの
で、人間の音の発生と全く同様な音の合成ができ、特に
従来の問題点とされた音と音の継ぎ目にあたる調音結合
もサージインピーダンスを連=8− 続的に変化することで良好に行われ、自然に近い音の発
声ができる。
F1 effect Humans produce sounds by not moving their mouths, and wind instruments produce musical sounds by changing the length and shape of their acoustic tubes. In the present invention, since the cross-sectional area of the acoustic tube (the human vocal tract from the vocal cords to the lips can be considered as one acoustic tube) corresponds to the surge impedance of the equivalent circuit on a l to l basis, this surge impedance Changing this is the same as changing the cross-sectional area of the acoustic tube. Changing this surge impedance is extremely easy electrically, so it is possible to synthesize sounds exactly like human sounds. By continuously changing the impedance, it is possible to produce sounds that are close to natural.

また、音響管の長さを変えることは、音波の進行波を遅
らせることあるから電気回路的には遅延回路(メモリ)
の段数を変えることに相当し遅延回路の定数を調整する
ことにより極めて簡単に模擬できる。従って断面積変化
と相俟ってより自然な楽器音も簡単に実現できる。
Also, changing the length of the acoustic tube delays the traveling wave of the sound wave, so in terms of electrical circuits it is called a delay circuit (memory).
This corresponds to changing the number of stages, and can be simulated extremely easily by adjusting the constants of the delay circuit. Therefore, in combination with the cross-sectional area change, a more natural musical instrument sound can be easily achieved.

G、実施例 音声を口から外に放射されるには、音源が必要で、この
音源は声帯にによって作り出される。一方声帯は2枚の
ヒダを開閉することによって呼気を断続的に止める働き
があり、その断続によってパフと呼ばれる空気流が発生
し、声帯を緊張させるとこのヒダに張力が加わりヒダの
開閉の周波数が高くなり、周波数の高いパフ音が発生す
る。そして呼気流を大きくすると大きな音となる。
G. Example In order for sound to be radiated out of the mouth, a sound source is required, and this sound source is produced by the vocal cords. On the other hand, the vocal cords have the function of intermittently stopping exhalation by opening and closing two folds, and this intermittent action generates airflow called puffs, and when the vocal cords are tensed, tension is added to the folds and the frequency of the opening and closing of the folds increases. becomes high, producing a high-frequency puffing sound. When the exhalation flow is increased, the sound becomes louder.

この音源波が声道のような円筒状の音響管を通過すると
、開放端から音波は共振現象によりある成分が強調され
、ある成分が減弱し複雑な母音の波形が作り出される。
When this sound source wave passes through a cylindrical acoustic tube like the vocal tract, a resonance phenomenon causes certain components of the sound waves from the open end to be emphasized and certain components to be attenuated, creating a complex vowel waveform.

音源が同じ波形をもっていても、口唇から放射されるま
でに通過する声道の形によって影響を受ける。即ち、声
道の形状が一定であれば音源のピッチや強度を変えても
スペクトル包絡はあまり変化しない。声道は母音によっ
て極めて複雑な形状を示すが、声道があまり変化しない
部分と大きく変化する部分に分けて考えることができる
。例えば第1図のように長さと断面積がA、、A2とそ
れぞれ異なるような2つの音響管が接続したものと仮定
することができる。
Even if the sound source has the same waveform, it will be affected by the shape of the vocal tract that it passes through before being emitted from the lips. That is, if the shape of the vocal tract is constant, the spectral envelope will not change much even if the pitch or intensity of the sound source is changed. The vocal tract has an extremely complex shape depending on the vowel, but it can be divided into parts that do not change much and parts that change significantly. For example, as shown in FIG. 1, it can be assumed that two acoustic tubes having different lengths and cross-sectional areas, A, A2, are connected.

第1図は音響管モデル図、第2図はその等価回路図で、
断面積がA 1. A 2とそれぞれ異なる2つの音響
管を接続した場合である。
Figure 1 is an acoustic tube model diagram, Figure 2 is its equivalent circuit diagram,
The cross-sectional area is A1. This is a case where two different acoustic tubes are connected to A2.

この音響管の接続する面に着目すると、音波の流れは断
面積の異なる場合、その異なる面で音波の一部が反射す
るという現象を生ずる。この現象は、電気回路でインピ
ーダンスの異なる線路にインパルス電流を流したときの
過渡現象と同じである。
Focusing on the connecting surfaces of the acoustic tubes, when the flow of sound waves has different cross-sectional areas, a phenomenon occurs in which a portion of the sound waves is reflected from the different surfaces. This phenomenon is the same as the transient phenomenon that occurs when impulse currents are passed through lines with different impedances in an electrical circuit.

音声の発生は、前述したように声帯による音源の断続に
よって行われるがこれは電気的には、インパルスが断続
的に印加すると等価となる。
As mentioned above, sound generation is performed by intermittent sound sources by the vocal cords, which is electrically equivalent to the intermittent application of impulses.

音は気体、液体、固体のいずれでも伝わる一種の振動で
あるが、電気回路的には、抵抗の無い無損失のLC分布
回路に対応させることができる。
Sound is a type of vibration that can be transmitted through any gas, liquid, or solid, but in terms of an electrical circuit, it can be made to correspond to a lossless LC distribution circuit with no resistance.

そしてこの等価回路の電気的インピーダンス(V/I)
は、JL/Cとなるので、音波の場合に置き換えると音
波の速度、空気密度ρと音速C′を掛けたρC′となり
、音場におけるインピーダンス即ち音響インピーダンス
は気体の質量と音速だけに依存する。
And the electrical impedance (V/I) of this equivalent circuit
is JL/C, so when converted to the case of a sound wave, it becomes ρC', which is the speed of the sound wave, the air density ρ multiplied by the sound speed C', and the impedance in the sound field, that is, the acoustic impedance, depends only on the mass of the gas and the speed of sound. .

断面積の異なる音響管が連設されていると、その境界面
で反射が起こる。これは電気的なサージインピーダンス
に模擬することができる。即ち、第1図のような音響管
の断面積の異なるブロックの接続された等価回路は第2
図に置き換えられるここで、空気密度をρ、音速をC′
とすれば、各音響管の音響アドミッタンスY、Ytは次
のように与えられる。
When acoustic tubes with different cross-sectional areas are connected, reflection occurs at the interface between them. This can be simulated by electrical surge impedance. In other words, the equivalent circuit in which blocks of acoustic tubes with different cross-sectional areas as shown in Fig. 1 are connected is the second one.
Here, the air density is ρ and the speed of sound is C′
Then, the acoustic admittances Y and Yt of each acoustic tube are given as follows.

但しZl、Z2は音響インピーダンス 次に隣接ブロックよりの伝搬電流源をIt、12とし、
これにより決定される電流分布a I + a 2及び
II+  12および接合点イの電圧をeとするとまた
a+””i、+ It、  a2=i、+1゜j+=a
+−11+   j2=a2−1となり、次のステップ
のための隣接ブロックの伝搬電流源11Z  12′は
、 +1’ =il+a+、12’ −!2+atとなる。
However, Zl and Z2 are the acoustic impedance, and then the propagation current source from the adjacent block is It, 12,
If the current distribution determined by this is a I + a 2 and II+ 12 and the voltage at junction A is e, then a + ""i, + It, a2=i, +1゜j+=a
+-11+ j2=a2-1, and the propagation current source 11Z 12' of the adjacent block for the next step is +1' = il+a+, 12' -! 2+at.

−」一式で!1”a+−11および12−a2+2を代
入してI、’ =2a、−1.,12′=2a2−1.
とじてもよい。
-''In one set! Substituting 1''a+-11 and 12-a2+2, I,'=2a,-1.,12'=2a2-1.
You can close it.

」二記の方式において断面積Aの時間に対する補間状況
を第7図に示す。ここで最も演算の簡単な直線補間を示
している。
FIG. 7 shows the interpolation situation of the cross-sectional area A with respect to time in the method described in 2. Here, linear interpolation, which is the simplest to calculate, is shown.

第3図は音響管の電気回路等価モデル図で、そ9の(ア
)図は声帯から口唇までの声道を1つの音響管とみなし
た音響管モデル図、(イ)図はその電気回路モデル図、
(つ)図は進行波等価モデル図を示している。
Figure 3 is an equivalent model diagram of the electrical circuit of an acoustic tube. Figure 9 (A) is a model diagram of the acoustic tube in which the vocal tract from the vocal cords to the lips is regarded as one acoustic tube, and Figure (B) is its electrical circuit. model diagram,
(1) Figure shows a traveling wave equivalent model diagram.

第3図を説明す番に先立ち、人間の母音はどのようにし
て作られるかを説明する。
Before explaining Figure 3, I will explain how human vowels are made.

第4図は音声発生時の声道の断面積変化を模擬したもの
で、その(ア)図は、「ア」の発声の場合で喉の奥が狭
く口唇が開いた状態で肺から押し出される呼気で声帯が
呼気を断続的に開閉して声道(音響管)の中で反射を繰
り返して出てくる音波が「ア」の音声波形となって出て
くる。「イ」は(イ)図のように喉の方が広く口唇の先
が狭いと「イ」の音声波形が出力される。
Figure 4 simulates the change in the cross-sectional area of the vocal tract when a sound is produced. Figure (A) shows that when a sound is uttered, the back of the throat is narrow and the lips are open and the sound is pushed out of the lungs. The vocal cords open and close intermittently during exhalation, and the sound waves that are reflected repeatedly in the vocal tract (acoustic tube) emerge as the sound waveform of "a". "I" is (A) If the throat is wide and the tip of the lips is narrow as shown in the figure, the sound waveform of "I" will be output.

このように口の恰好で周波数が決まり、口の恰好を模擬
すれば「ア」なり「イ」が発声される。
In this way, the frequency is determined by the shape of the mouth, and if the shape of the mouth is simulated, "a" or "i" will be uttered.

口の恰好は音響管の断面積で模擬でき、また音響管の断
面積の変化は、サージアドミッタンスの変化で模擬でき
、ザージアドミッタンスの変化は、電気回路」−極めて
容易に可変できる。第3図(ア)は断面積AI、A2・
・・Anと異なる断面積をもった音響管を接続して声道
を模擬したものである。同図(イ)はその音響インピー
ダンスを電気回路のL C回路に置き換えたもので、各
音響管を1個のLC線路とし、全体を集中線路のn−1
の電気回路としたものである。また第3図(つ)は進行
波等価モデル図で、各音響管の音響インピーダンス2、
.22・2.は、音響管の断面積に反比例(音響アドミ
ッタンスは比例)し、音波の速度に比例するので となる。なお、同図でZ。は音源インピーダンス。
The shape of the mouth can be simulated by the cross-sectional area of the sound tube, and changes in the cross-sectional area of the sound tube can be simulated by changes in surge admittance, and changes in surge admittance can be very easily varied using an electrical circuit. Figure 3 (a) shows the cross-sectional area AI, A2.
...An acoustic tube with a different cross-sectional area is connected to simulate the vocal tract. In the same figure (A), the acoustic impedance is replaced with an LC circuit of an electric circuit, and each sound tube is made into one LC line, and the whole is a concentrated line of n-1.
This is an electric circuit. In addition, Figure 3 (1) is a traveling wave equivalent model diagram, in which the acoustic impedance of each acoustic tube is 2,
.. 22.2. is inversely proportional to the cross-sectional area of the acoustic tube (acoustic admittance is proportional) and proportional to the speed of the sound wave. In addition, Z in the same figure. is the sound source impedance.

ZLは放射インピーダンスを示し、またブロック間の矢
印は、進行波と後進波を表している。
ZL indicates radiation impedance, and arrows between blocks indicate forward waves and backward waves.

今「ア」という音声を発声させる場合は、第4図の口唇
の先の断面積に相当する断面積A1のと=16− ころで「ア」の口の恰好を与えて、インパルスPを断続
的に印加することで、「ア]の音が得られ、また「ア」
から「イ」の音を発声させる場合は、同図(イ)に示す
ように断面積をA + ’に狭め「イ」の口の恰好を与
えることで「イ」が得られる。
Now, if you want to make the sound "A", the cross-sectional area A1 corresponding to the cross-sectional area of the tip of the lips in Figure 4 is = 16-, give the shape of the mouth of "A", and pulse P intermittently. By applying
In order to produce the sound "i" from the "i" sound, "i" can be obtained by narrowing the cross-sectional area to A + ' to give the appearance of the mouth of "i" as shown in the same figure (a).

インパルスPが連続して断続的に与えられ、断面積全体
を「イ」の口の恰好に変化させる場合、声道は第3図に
示すn個の音響管によって模擬しているので、これらの
各断面積を「ア」から動かして口の恰好を「アーイ」と
連続的に変えることになる。この音響管の断面積を変え
ろということは、サージインピーダンスを徐々に変える
ことによって行われる。
When the impulse P is applied continuously and intermittently to change the entire cross-sectional area to look like the mouth of "i", the vocal tract is simulated by n acoustic tubes shown in Figure 3, so these By moving each cross-sectional area from "A" to "A", the shape of the mouth will change continuously to "A". Changing the cross-sectional area of the acoustic tube is done by gradually changing the surge impedance.

従って、第5図に示すように断面積はA、からA1′に
連続的に変えられるので、定常状態の「ア」、「イ」の
音が得られることは勿論であるが、更にインピーダンス
は連続して可変できるので、その中間の音、即ち音と音
との間の音を得ることができる。従って第6図に示すよ
うに音の切れが無く人間の発音に近い調音結合がスムー
ズに行われろ。
Therefore, as shown in Fig. 5, the cross-sectional area is continuously changed from A to A1', so of course the steady state sounds of "a" and "i" can be obtained, but the impedance also changes. Since it can be varied continuously, it is possible to obtain intermediate sounds, that is, sounds between two sounds. Therefore, as shown in FIG. 6, articulatory combinations similar to human pronunciation should be performed smoothly without any sound breaks.

次に音波の伝搬速度を考えると、これは長さQでL C
を持った電線路にインパルスを印加した時の過渡現象に
似ている。
Next, considering the propagation speed of the sound wave, it has length Q and L C
This is similar to the transient phenomenon that occurs when an impulse is applied to a wire with .

即ち第7図に示すようにLCを有する線路を等価的に表
すと第8図のようになる。ここで両端部からみたサージ
インピーダンスZ。II ZO2は、ZOl−JL/C
、Zo、=&L/Cとなる。
That is, the line having the LC as shown in FIG. 7 is equivalently represented as shown in FIG. 8. Here is the surge impedance Z seen from both ends. II ZO2 is ZOl-JL/C
, Zo, =&L/C.

ここで相手から到達してきた進行波を等価的な電流源と
考えると、 1p=i+(t−τ) + −V + (を−τ) o
l となり電流は中間にn個の遅延回路ブロックZがあれば
、n時間後に出力される。即ち左側の回路で発生したも
のが1時間後右側に到達したということになる。
Here, if we consider the traveling wave arriving from the other party as an equivalent current source, 1p = i + (t-τ) + -V + (-τ) o
l, and if there are n delay circuit blocks Z in the middle, the current is output after n hours. In other words, what occurred in the left circuit reached the right circuit one hour later.

■、は送り管側の電流i++   V+(t−τ)とな
る。但し、ディノタル計算においては、電圧または電流
を細分割するのでV、、V、は計測時刻tにおける電圧
、τは経過時間を示している。
(2) is the current i++ V+ (t-τ) on the feed pipe side. However, in the dinotal calculation, voltage or current is subdivided, so V, , V represents the voltage at measurement time t, and τ represents the elapsed time.

第8図では、L、C回路にインパルスを印加すれば、τ
時間後に出力管側に出る。そしてτ時間面到達されたも
のは相手にも到達しているということを等価的に表して
いる。線路の長さρを1にするということは、遅延ブロ
ックnを正規化して1にすることで計算し易くなる。ρ
を3cmに刻む場合は遅延ブロックのnを3ブロツクに
すればよい。
In Figure 8, if an impulse is applied to the L and C circuits, τ
After some time, it will come out to the output tube side. This equivalently represents that what has reached the τ time plane has also reached the other party. Setting the line length ρ to 1 can be easily calculated by normalizing the delay block n to 1. ρ
When dividing into 3 cm, n of the delay block should be set to 3 blocks.

第3図(ア)を人間の声道は男性で約17c1Nなので
、lam刻みで17本の音響管で模擬すれば、A、から
入った波形は、半周期の電流を10に分割しそのΔtを
lOμsecとすれば、170μsecかかってAn側
から出てくる。楽器のトロンポンを考えると、トロンポ
ンは音響管の長短によって楽音を変える。本発明によれ
ば、トロンポンの「ア」の音からトロンポンの「二」の
音のパラメータを2つ持てば良いトロンポンの「ア」の
音はトロンポンの「ド」の音からトロンポンの一20= 上の音という2つのパラメータがあればよい。その中間
音は、遅延回路の遅延ブロックを変えることによって自
由に調音することができる。
The human vocal tract in Figure 3 (A) is approximately 17c1N for a male, so if we simulate it with 17 acoustic tubes in lam increments, the waveform that enters from A will be obtained by dividing the half-cycle current into 10, and then dividing the current at Δt. If it is 10μsec, it takes 170μsec to come out from the An side. If you think of the musical instrument trompon, the musical tone of the trompon changes depending on the length of the acoustic tube. According to the present invention, it is only necessary to have two parameters from the "a" sound of trompon to the "two" sound of trompon. All you need is two parameters: the upper tone. The intermediate tones can be freely articulated by changing the delay blocks of the delay circuit.

即ち第8図における遅延回路ZI−+Zn、Zn→Z1
を可変することで同じ面積をもつ音響管の長さを変化す
ることに対応させることができる。
That is, the delay circuit ZI-+Zn, Zn→Z1 in FIG.
By varying , it is possible to respond to changes in the length of acoustic tubes that have the same area.

次に、第3図(つ)の進行波等価モデルの演算処理を第
9図のフローチャートに基づいて説明する。
Next, the arithmetic processing of the traveling wave equivalent model shown in FIG. 3 will be explained based on the flowchart shown in FIG.

音響管A1にインパルスが入力されると、コンピュータ
よりなる演算処理装置は、ステップS。
When an impulse is input to the acoustic tube A1, the arithmetic processing device consisting of a computer performs step S.

にてメモリよりA、のa OAI  i QA、  I
 OAI Eを取り出す。取り出した値をもとに、ステ
ップS2では、 aoA′−f(E、IaA) i OA’  −21OA’    I 。Aの演算を
行う。この演算値a。A’+ioA’およびステップS
3でメモリより導入された管A2の値a+B、  a+
A、  l IB、  i+A、  I IB+  I
IAを用いてステップS4では、 a IB’  −9IB(I IB+ I IA)j 
IB’  −fL+B’   I +。
From memory at A, a OAI i QA, I
Take out OAI E. Based on the extracted value, in step S2, aoA'-f(E, IaA) i OA'-21OA' I . Perform the calculation of A. This calculated value a. A'+ioA' and step S
Values a+B, a+ of tube A2 introduced from memory in step 3
A, l IB, i+A, I IB+ I
In step S4 using IA, a IB' -9IB(I IB+ I IA)j
IB'-fL+B'I+.

!  IA’  −2LIA’   I lB11B′
 −1゜A′ −aoA′ の演算を行う。ステップS5ではS4にて求められた!
 IB’ l aha′を用いて I oA’  =  i  +a+  a +aを演算
する。また一方、B5にて求めら4tl二(直j+A’
+2L+A′と、ステ・ツブS6においてメモ1)より
導入された管A3の値i12B+ 12A+  12B
+ l 2A+T 2B+  12−&を用いてステッ
プS7にて次の演算が行われる。
! IA'-2LIA'IlB11B'
-1°A'-aoA' is calculated. In step S5, it was determined in S4!
Using IB' l aha', calculate I oA' = i + a + a + a. On the other hand, 4tl2 (direct j+A'
+2L+A' and the value of tube A3 introduced from memo 1) in step S6 i12B+ 12A+ 12B
The following calculation is performed in step S7 using +l 2A+T 2B+ 12-&.

a 2B’ −92B (12B+ 12A)i2B’
 −a2B’ −12B j 2A’ −12A’  I 2A 12B’ −i IA+ a IA’ ステップS8ではS7にて求めらり、た12B’11.
A′を用いて 11A’ −1tB’ +a2A’ の演算が行われる。以下同様にして模擬された音響管の
断面積A、〜Anに夫々対応した演算が行われ、ステッ
プS n−1では、 anB’ −f (I nB) l nB’ −and’  I nB I nB”’ i n−IA + a n−IAの演算
を行う。その結果を用いてステップSnでは、 11□A’−1nB’  + a nB’の演算を行う
。すなわち、音響管のAl−Anに対応した等価回路の
最終段(n段)における演算結果の出力がD/A変換さ
れて図示省略されたスピーカに出力され、スピーカより
音声として出力さ=24− れる。
a 2B' -92B (12B+ 12A)i2B'
-a2B' -12B j 2A'-12A' I 2A 12B' -i IA+ a IA' In step S8, 12B'11.
Using A', the calculation 11A'-1tB'+a2A' is performed. Thereafter, calculations corresponding to the cross-sectional areas A and ~An of the simulated acoustic tube are performed in the same manner, and in step Sn-1, anB' -f (InB) l nB'-and' I nB I nB ``'in-IA + a n-IA is calculated. Using the result, in step Sn, 11□A'-1nB' + a nB' is calculated. In other words, the Al-An of the acoustic tube is The output of the calculation result at the final stage (n stage) of the corresponding equivalent circuit is D/A converted and output to a speaker (not shown), and is output as audio from the speaker.

したがって演算処理装置は音響管A、〜A、に対応した
演算を行うものであるから、この演算処理装置は音響管
のA、−An個々の等価回路を流れる各部の電流値およ
び関数f、SIB、5iA(j=1゜2・・・n−1)
をテーブルとして有しているメモリと、当該等価回路の
各部の電流値を演算する第1の演算手段と、当該等価回
路とは相隣接する等価回路の電流値を用いて当該等価回
路の電流値を演算する第2の演算手段とを備えている。
Therefore, since the arithmetic processing unit performs calculations corresponding to the acoustic tubes A, -A, this arithmetic processing unit calculates the current value of each part flowing through the equivalent circuit of each of the acoustic tubes A, -An, and the function f, SIB , 5iA (j=1°2...n-1)
a memory having as a table; a first calculation means for calculating the current value of each part of the equivalent circuit; and second calculation means for calculating.

H1発明の効果 以上のように本発明は、音響管の断面積が等価回路のザ
ージインピーダンスに1対lに対応していることに着目
し、この断面積の変化をザージインピーダンスの変化で
模擬ずろようにしたものてあるから、パラメータとして
は、断面積だけを持てばよいので、極めて簡単にでき、
従来のように音声合成のための多くのメモリを必要とし
ない。
H1 Effects of the Invention As described above, the present invention focuses on the fact that the cross-sectional area of the sound tube corresponds to the surge impedance of the equivalent circuit in a one-to-l ratio, and calculates the change in this cross-sectional area by the change in the surge impedance. Since there is a simulated grid, you only need to have the cross-sectional area as a parameter, so it can be done extremely easily.
Unlike conventional methods, it does not require a large amount of memory for speech synthesis.

また、調音結合も、サージインピーダンスの連続的な変
化によってスムーズに行われ、自然音に近い発声が得ら
れる。
Furthermore, articulatory coupling is also performed smoothly due to continuous changes in surge impedance, resulting in vocalizations that are close to natural sounds.

また、楽音も遅延回路のメモリーの段数を変えろことに
より容易に得ることができ、断面積変化と相俟ってより
自然な楽器音を簡単に実現出来る。
Furthermore, musical tones can be easily obtained by changing the number of memory stages in the delay circuit, and together with the change in cross-sectional area, more natural musical instrument sounds can be easily realized.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図〜第9図は本発明を説明するための図で、第1図
は音響管モデル図、第2図は音響管等価回路図、第3図
は音響管の電気回路等価モデル図、第4図は声道の変化
説明図、第5図は音響管断面積の時間に対する補間説明
図、第6図は本発明の詳細な説明図、第7図は音声伝搬
を電気的に模擬した電気回路図、第8図は第7図の等価
回路図、第9図は本発明の音合成をコンピュータ処理す
るプログラムの一例を示すフローチャート図、第1O図
は従来のパーコール合成による調音結合説明図を示す。 A1.A2・・・Ao・・音響管の断面積、Yl、Y+
音響管の音響アドミッタンス、C,、C,・・・On電
気回路モデルの静電容量、L、、1.・・弓、。・・・
同上のりアクタンス、2..2.・・・Zo サージイ
ンピーダンス。
1 to 9 are diagrams for explaining the present invention, in which FIG. 1 is an acoustic tube model diagram, FIG. 2 is an acoustic tube equivalent circuit diagram, and FIG. 3 is an electric circuit equivalent model diagram of the acoustic tube. Figure 4 is an explanatory diagram of changes in the vocal tract, Figure 5 is an illustration of interpolation of acoustic tube cross-sectional area over time, Figure 6 is a detailed diagram of the present invention, and Figure 7 is an electrical simulation of sound propagation. An electric circuit diagram, FIG. 8 is an equivalent circuit diagram of FIG. 7, FIG. 9 is a flowchart showing an example of a computer processing program for sound synthesis of the present invention, and FIG. 1O is an explanatory diagram of articulatory combination by conventional Percoll synthesis. shows. A1. A2...Ao...Cross-sectional area of the acoustic tube, Yl, Y+
Acoustic admittance of acoustic tube, C,, C,...On capacitance of electric circuit model, L, 1. ··bow,. ...
ditto actance, 2. .. 2. ...Zo Surge impedance.

Claims (3)

【特許請求の範囲】[Claims] (1)音響管を用いて模擬する音合成において、隣合う
2つの音響管を伝搬電流源と音響断面積に反比例したサ
ージインピーダンスの並列回路として扱い、音響管の形
状変化に伴う断面積変化に対応して Ai/(Ai+A_i_+_1)、A_i_+_1/(
Ai+A_i_+_1)(但しAi、A_i_+_1は
隣合う2つの音響管断面積、iは1、2、3・・・n)
の係数を備えることを特徴とする音合成方法。
(1) In sound synthesis simulated using acoustic tubes, two adjacent acoustic tubes are treated as a parallel circuit with a propagating current source and a surge impedance inversely proportional to the acoustic cross-sectional area, and the change in cross-sectional area due to the change in the shape of the acoustic tube is Correspondingly, Ai/(Ai+A_i_+_1), A_i_+_1/(
Ai+A_i_+_1) (Ai and A_i_+_1 are the cross-sectional areas of two adjacent acoustic tubes, and i is 1, 2, 3...n)
A sound synthesis method characterized by having coefficients of.
(2)音響管を用いて模擬する音合成において、隣合う
2つの音響管を伝搬電流源と音響断面積に反比例したサ
ージインピーダンスの並列回路として扱い、音響管の形
状変化に伴う断面積変化に対応して Ai/(Ai+A_i_+_1)、A_i_+_1/(
Ai+A_i_+_1)(但しAi、A_i_+_1は
隣合う2つの音響管断面積、iは1、2、3・・・n)
の係数を備えると共に隣へ新しく伝搬すべき電流源をサ
ージインピーダンスに流れ込む電流と、当該音響管に流
れ込む電流の和、若しくはサージインピーダンスに流れ
込む電流の2倍の値と当該音響管の電流源との差を用い
ることを特徴とする音合成方法。
(2) In sound synthesis simulated using acoustic tubes, two adjacent acoustic tubes are treated as parallel circuits with a propagating current source and a surge impedance inversely proportional to the acoustic cross-sectional area, and changes in cross-sectional area due to changes in the shape of the acoustic tube are Correspondingly, Ai/(Ai+A_i_+_1), A_i_+_1/(
Ai+A_i_+_1) (Ai and A_i_+_1 are the cross-sectional areas of two adjacent acoustic tubes, and i is 1, 2, 3...n)
The sum of the current flowing into the surge impedance and the current flowing into the sound tube, or the value twice the current flowing into the surge impedance and the current source of the sound tube, which has a coefficient of A sound synthesis method characterized by using differences.
(3)音響管を用いて模擬する音合成において、隣合う
2つの音響管を伝搬電流源と音響管断面積に反比例した
サージインピーダンスの並列回路として扱うと共に、前
記伝搬電流源の伝搬に遅延回路を持ち、且つこの遅延回
路を可変とすることで同面積を持つ音響管の長さを変化
することに対応させたことを特徴とした音合成方法。
(3) In sound synthesis simulated using acoustic tubes, two adjacent acoustic tubes are treated as a parallel circuit of a propagating current source and a surge impedance inversely proportional to the cross-sectional area of the acoustic tube, and a delay circuit is added to the propagation of the propagating current source. and by making this delay circuit variable, a sound synthesis method is characterized in that it corresponds to changing the length of an acoustic tube having the same area.
JP62091705A 1987-04-14 1987-04-14 Sound synthesis method Expired - Lifetime JPH0833747B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP62091705A JPH0833747B2 (en) 1987-04-14 1987-04-14 Sound synthesis method
CA000564051A CA1334868C (en) 1987-04-14 1988-04-13 Sound synthesizing method and apparatus
CN88102086A CN1020358C (en) 1987-04-14 1988-04-14 Sound synthesizing method and apparatus
EP88105993A EP0287104B1 (en) 1987-04-14 1988-04-14 Sound synthesizing method and apparatus
DE8888105993T DE3866926D1 (en) 1987-04-14 1988-04-14 METHOD AND DEVICE FOR SYNTHETIZING LOUD.
KR88004224A KR970011021B1 (en) 1987-04-14 1988-04-14 Sound synthesizing method and apparatus
US07/540,864 US5097511A (en) 1987-04-14 1990-06-20 Sound synthesizing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62091705A JPH0833747B2 (en) 1987-04-14 1987-04-14 Sound synthesis method

Publications (2)

Publication Number Publication Date
JPS63257000A true JPS63257000A (en) 1988-10-24
JPH0833747B2 JPH0833747B2 (en) 1996-03-29

Family

ID=14033928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62091705A Expired - Lifetime JPH0833747B2 (en) 1987-04-14 1987-04-14 Sound synthesis method

Country Status (1)

Country Link
JP (1) JPH0833747B2 (en)

Also Published As

Publication number Publication date
JPH0833747B2 (en) 1996-03-29

Similar Documents

Publication Publication Date Title
US5528726A (en) Digital waveguide speech synthesis system and method
Linggard Electronic synthesis of speech
Mullen et al. Waveguide physical modeling of vocal tract acoustics: flexible formant bandwidth control from increased model dimensionality
Smith Virtual acoustic musical instruments: Review and update
US5097511A (en) Sound synthesizing method and apparatus
JPS63257000A (en) Voice synthesization
JPS63311400A (en) Sound synchronization
JP2990691B2 (en) Speech synthesizer
JP2990693B2 (en) Speech synthesizer
JPS63311399A (en) Sound synchronization
JPH01292400A (en) Speech synthesis system
JPH01167800A (en) Sound synthesizing method
JP2992995B2 (en) Speech synthesizer
Schnell et al. Analysis of lossy vocal tract models for speech production
JPH01182900A (en) Voice synthesizing system
JPH01219896A (en) Speech synthesis system
JPH01177097A (en) Voice synthesizing system
JPH01177096A (en) Voice synthesizing system
JPH01177098A (en) Voice synthesizing device
JPH01171000A (en) Voice synthesis system
JPH01185700A (en) Speech synthesizing method
JPH02106799A (en) Synthetic voice emotion imparting circuit
JPH01219899A (en) Speech synthesizing device
Childers et al. Articulatory synthesis: Nasal sounds and male and female voices
JPH0833751B2 (en) Speech synthesis method