JPH0833747B2 - Sound synthesis method - Google Patents

Sound synthesis method

Info

Publication number
JPH0833747B2
JPH0833747B2 JP62091705A JP9170587A JPH0833747B2 JP H0833747 B2 JPH0833747 B2 JP H0833747B2 JP 62091705 A JP62091705 A JP 62091705A JP 9170587 A JP9170587 A JP 9170587A JP H0833747 B2 JPH0833747 B2 JP H0833747B2
Authority
JP
Japan
Prior art keywords
acoustic
sound
cross
acoustic tube
sectional area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62091705A
Other languages
Japanese (ja)
Other versions
JPS63257000A (en
Inventor
典雄 須田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP62091705A priority Critical patent/JPH0833747B2/en
Priority to CA000564051A priority patent/CA1334868C/en
Priority to CN88102086A priority patent/CN1020358C/en
Priority to EP88105993A priority patent/EP0287104B1/en
Priority to DE8888105993T priority patent/DE3866926D1/en
Priority to KR88004224A priority patent/KR970011021B1/en
Publication of JPS63257000A publication Critical patent/JPS63257000A/en
Priority to US07/540,864 priority patent/US5097511A/en
Publication of JPH0833747B2 publication Critical patent/JPH0833747B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 A. 産業上の利用分野 本発明は人間の音声又は楽器の音の合成に関する。DETAILED DESCRIPTION OF THE INVENTION A. INDUSTRIAL FIELD OF APPLICATION The present invention relates to the synthesis of human speech or musical instrument sounds.

B. 発明の概要 本発明は、音響管の断面積変化における音響伝搬の現
象が、送電線等の電気回路における系統過渡現象に近似
していることに着目し、音響管の断面積変化をサージイ
ンピーダンス変化に対応させてサージインピーダンスの
可変により音の合成をするようにしたものである。
B. Summary of the Invention The present invention focuses on the fact that the phenomenon of sound propagation in a change in the cross-sectional area of an acoustic tube is similar to a system transient phenomenon in an electric circuit such as a power transmission line, and the change in the cross-sectional area of the acoustic tube is surged. It is designed to synthesize sounds by varying surge impedance in response to impedance changes.

また管楽器等の音響管の長さの変化による音の合成
は、インピーダンス結合部に遅延回路を設けて、その長
さ変化に対応した遅延定数を変化させて合成できるよう
にした音の合成方法である。
To synthesize sounds by changing the length of the acoustic tube of a wind instrument, etc., a delay circuit is provided in the impedance coupling section, and the delay constant corresponding to the change in length can be changed to synthesize the sound. is there.

C. 従来の技術 音声合成やミュージックシンセサイザー(電子楽器)
等の所謂音を人工的に合成して出力する電子装置は、最
近になって1ないし数チップの音声認識や音声合成のLS
Iが音声情報処理と半導体の大規模集積回路技術により
低価格で実現されるようになり、その使用目的,制約条
件により種々の方式が提案されている。この音声合成に
は、人間の発生した生の音声を録音しておき、これを適
当に結合して文章に編集する録音編集方式と、人間の声
を直接的には利用せず、人間の音声のパラメータだけを
抽出し、音声合成過程で、そのパラメータを制御して人
工的に音声信号を作り出す方法がある。
C. Conventional technology Speech synthesis and music synthesizer (electronic musical instrument)
Recently, electronic devices that artificially synthesize and output so-called sounds such as LS have been used for LS for voice recognition and voice synthesis of one or several chips.
I has come to be realized at a low price by means of voice information processing and semiconductor large-scale integrated circuit technology, and various methods have been proposed depending on the purpose of use and constraints. In this speech synthesis, a raw voice generated by a human being is recorded, and the recording and editing method in which the raw voice is appropriately combined and edited into a sentence, and the human voice is not directly used. There is a method of extracting only the parameter of, and controlling the parameter in the voice synthesis process to artificially generate a voice signal.

このパラメータ方式で良質な合成音が得られることで
広く利用されているパーコール(PARCOR)方がある。
There is a PARCOR method that is widely used because it produces high quality synthesized sounds with this parameter method.

音声を電子計算機で扱う場合、音声波形をある周期毎
にサンプリングして各サンプリング点での音声信号の値
をアナログ/ディジタル変換し、その値を0と1の符号
で表示して行われるが、アナログ信号に忠実な記録をす
るには、ビット数を増やす必要があるが音声合成信号は
大変多くのメモリーを必要とする。
When a voice is handled by an electronic computer, the voice waveform is sampled at a certain cycle, the value of the voice signal at each sampling point is converted from analog to digital, and the value is displayed with a code of 0 and 1. It is necessary to increase the number of bits in order to record faithfully to the analog signal, but the voice synthesis signal requires a very large amount of memory.

そこで、この情報量を極力少なくするために各種の高
能率な符号化法が研究開発されている。
Therefore, various highly efficient coding methods have been researched and developed in order to reduce the amount of this information as much as possible.

その方法の1つとして、1つの音声信号の情報に対
し、最低限の1ビットとした方式で、デルタ変調方式が
ある。この方式は、1ビットの使い方として、次にくる
音声信号値が現在の値より高いか低いかを判定して、高
ければ符号“1"、低ければ符号“0"を与え音声信号の符
号化を行うもので、実際のシステム構成としては一定の
振幅ステップ量(デルタ)を定めておき、誤差が蓄積さ
れないように今までの符号化によって得られる音声の値
と、入力してくる音声信号との残差信号に対して、符号
化を行う。
As one of the methods, there is a delta modulation method in which a minimum of 1 bit is used for information of one audio signal. This method uses one bit to judge whether the next audio signal value is higher or lower than the current value, and if the value is higher, the code "1" is given, and if the value is lower, the code "0" is given. In the actual system configuration, a fixed amplitude step amount (delta) is set, and the audio value obtained by the encoding up to now and the input audio signal are set so that errors are not accumulated. The residual signal of is encoded.

このような構成を予測コード化といわれ、線形予測法
(何個か前のサンプル値から予測する)およびパーコー
ル方式(線形予測法の予測係数の代わりにパーコール係
数kといわれる偏自己相関関数を用いる)がある。
Such a configuration is called predictive coding, and a linear prediction method (predicting from several previous sample values) and a Percoll method (a partial autocorrelation function called a Percoll coefficient k instead of the prediction coefficient of the linear prediction method is used. ).

D. 発明が解決しようとする問題点 前述のように予測コード化を用いたものは、音と音と
の継ぎ目に相当する調音結合が難しいという問題があ
る。即ち第10図は横軸に音声発生の時間tをとり、縦軸
にパーコール係数kをとったもので、例えば母音から子
音を経て母音に至る発声において、母音の定常から過渡
を経て子音に至りまた母音の過渡を経て母音の定常音に
至る過程で母音と母音の継ぎ目の音が跡切れ、人間が聞
いたときに自然な感じを与えない。
D. Problems to be Solved by the Invention As described above, the method using predictive coding has a problem that articulatory coupling corresponding to a joint between sounds is difficult. That is, in FIG. 10, the horizontal axis represents the sound generation time t, and the vertical axis represents the Percoll coefficient k. Also, in the process of passing a vowel transition to a stationary vowel sound, the seam of the vowel and the vowel sound is cut off, which does not give a natural feeling to humans.

また楽器音合成の場合は、音階の継ぎ目が重要である
が合成手法が実際の楽器の音発生の原理と異なるため、
やはり自然な感じが無く、特に残響音において顕著にあ
らわれる。これら両者において自然な音に近付けるため
には、これを構成するメモリや、演算器等の電子部品を
多く必要とし装置が高価になる等の問題がある。
Also, in the case of musical instrument sound synthesis, the seam of the scale is important, but the synthesis method is different from the principle of sound generation of the actual instrument,
After all, there is no natural feeling, and it appears remarkably especially in reverberation sound. In order to bring the sound closer to a natural sound in both cases, there is a problem that a large amount of memory and an electronic component such as an arithmetic unit are required and the apparatus becomes expensive.

E. 問題点を解決するための手段 以上の点に鑑み、本発明は人間の音の発生や楽器の楽
音は人間の口腔や音響管の長さや断面積等の形状変化に
よって作り出される。そこで、これら音響管の音波の伝
達を表す進行波現象を音響管等価回路で解析し、音響管
の断面積がサージインピーダンスに反比例することに着
目し、サージインピーダンスを変化させることで断面積
を模擬的に変化させ、サージインピーダンスを連続的変
化することで調音結合をスムーズに行うことができるよ
うにして人間の発声と同様な音の合成を容易となし音声
の自然性の向上を図ったものである。
E. Means for Solving the Problems In view of the above points, according to the present invention, the generation of human sounds and the musical sounds of musical instruments are created by shape changes such as the length and cross-sectional area of the human oral cavity and acoustic tube. Therefore, we analyze the traveling wave phenomenon that expresses the transmission of sound waves in these acoustic tubes with an acoustic tube equivalent circuit, and pay attention to the fact that the cross-sectional area of the acoustic tube is inversely proportional to the surge impedance, and simulate the cross-sectional area by changing the surge impedance. It is possible to smoothly synthesize articulation by changing the surge impedance continuously and changing the surge impedance continuously, making it easy to synthesize sounds similar to human speech and improving the naturalness of speech. is there.

また楽器の長さの変化は、遅延回路の段数で模擬し、
断面積変化と相俟ってより自然な楽器音を簡単に実現で
きるようにした。
Also, the change in the length of the musical instrument is simulated by the number of stages of the delay circuit,
Together with the change in cross-sectional area, we made it easier to achieve more natural instrument sounds.

F. 作用 人間は口腔を動かすことにより、音を発声し、管楽器
は音響管の長さや形状を変化させることによって楽音を
作る。本発明は音響管(人間の声帯から口唇までの声道
も1つの音響管とみなすことができる。)の断面積を等
価回路のサージインピーダンスに1対1に対応させてい
るので、このサージインピーダンスを変化させれば音響
管の断面積を変化させたと同じとなる。このサージイン
ピーダンスの変更は、電気技術的に極めて簡単にできる
ので、人間の音の発生と全く同様な音の合成ができ、特
に従来の問題点とされた音と音の継ぎ目にあたる調音結
合もサージインピーダンスを連続的に変化することで良
好に行われ、自然に近い音の発声ができる。
F. Action Humans produce sounds by moving their mouths, and wind instruments make musical sounds by changing the length and shape of acoustic tubes. According to the present invention, the cross-sectional area of the acoustic tube (the vocal tract from the human vocal cord to the lip can be regarded as one acoustic tube) corresponds to the surge impedance of the equivalent circuit one to one. If is changed, it is the same as changing the cross-sectional area of the acoustic tube. Since this surge impedance can be changed very easily in terms of electrotechniques, it is possible to synthesize sounds that are exactly the same as the generation of human sounds. In particular, the articulation coupling that is a problem between sounds and sounds, which is a problem in the past, is also surged. Good performance is achieved by continuously changing the impedance, and it is possible to produce a sound that is close to natural.

また、音響管の長さを変えることは、音波の進行波を
遅らせることあるから電気回路的には遅延回路(メモ
リ)の段数を変えることに相当し遅延回路の定数を調整
することにより極めて簡単に模擬できる。従って断面積
変化と相俟ってより自然な楽器音も簡単に実現できる。
Also, changing the length of the acoustic tube is equivalent to changing the number of stages of the delay circuit (memory) because it may delay the traveling wave of the sound wave, and it is extremely simple by adjusting the constant of the delay circuit. Can be simulated. Therefore, in combination with the change in cross-sectional area, a more natural instrument sound can be easily realized.

G. 実施例 音声を口から外に放射されるには、音源が必要で、こ
の音源は声帯にによって作り出される。一方声帯は2枚
のヒダを開閉することによって呼気を断続的に止める働
きがあり、その断続によってパフと呼ばれる空気流が発
生し、声帯を緊張させるとこのヒダに張力が加わりヒダ
の開閉の周波数が高くなり、周波数の高いパフ音が発生
する。そして呼気流を大きくすると大きな音となる。
G. Example A sound source is required to radiate sound out of the mouth, which is produced by the vocal cords. On the other hand, the vocal cords have the function of intermittently stopping the exhalation by opening and closing two folds, and the intermittent flow creates an air flow called a puff. Becomes higher and a high frequency puff sound is generated. And when the expiratory flow is increased, a loud sound is produced.

この音源波が声道のような円筒状の音響管を通過する
と、開放端から音波は共振現象によりある成分が強調さ
れ、ある成分が減弱し複雑な母音の波形が作り出され
る。音源が同じ波形をもっていても、口唇から放射され
るまでに通過する声道の形によって影響を受ける。即
ち、声道の形状が一定であれば音源のピッチや強度を変
えてもスペクトル包絡はあまり変化しない。声道は母音
によって極めて複雑な形状を示すが、声道があまり変化
しない部分と大きく変化する部分に分けて考えることが
できる。例えば第1図のように長さと断面積がA1,A2
それぞれ異なるような2つの音響管が接続したものと仮
定することができる。
When this sound source wave passes through a cylindrical acoustic tube such as the vocal tract, a certain component of the sound wave is emphasized by the resonance phenomenon from the open end, and a certain component is attenuated to form a complicated vowel waveform. Even if the sound source has the same waveform, it is affected by the shape of the vocal tract that passes through before it is emitted from the lips. That is, if the shape of the vocal tract is constant, the spectrum envelope does not change much even if the pitch or intensity of the sound source is changed. The vocal tract shows an extremely complicated shape due to vowels, but it can be divided into a part where the vocal tract does not change much and a part where the vocal tract changes greatly. For example, as shown in FIG. 1 , it can be assumed that two acoustic tubes having different lengths and sectional areas A 1 and A 2 are connected.

第1図は音響管モデル図、第2図はその等価回路図
で、断面積がA1,A2とそれぞれ異なる2つの音響管を接
続した場合である。
FIG. 1 is an acoustic tube model diagram, and FIG. 2 is an equivalent circuit diagram thereof, in which two acoustic tubes having different sectional areas A 1 and A 2 are connected.

この音響管の接続する面に着目すると、音波の流れは
断面積の異なる場合、その異なる面で音波の一部が反射
するという現象を生ずる。この現象は、電気回路でイン
ピーダンスの異なる線路にインパルス電流を流したとき
の過渡現象と同じである。
Focusing on the surface to which the acoustic tube is connected, when the sound waves have different cross-sectional areas, a phenomenon occurs in which a part of the sound wave is reflected on the different surface. This phenomenon is the same as a transient phenomenon when an impulse current is passed through lines having different impedances in an electric circuit.

音声の発生は、前述したように声帯による音源の断続
によって行われるがこれは電気的には、インパルスが断
続的に印加すると等価となる。
As described above, the sound is generated by the intermittent sound source by the vocal cords, which is electrically equivalent to the intermittent application of impulses.

音は気体,液体,固体のいずれでも伝わる一種の振動
であるが、電気回路的には、抵抗の無い無損失のLC分布
回路に対応させることができる。そしてこの等価回路の
電気的インピーダンス(V/I)は、 となるので、音波の場合に置き換えると音波の速度,空
気密度ρと音速C′を掛けたρC′となり、音場におけ
るインピーダンス即ち音響インピーダンスは気体の質量
と音速だけに依存する。
Sound is a kind of vibration that can be transmitted by gas, liquid, or solid, but in terms of electrical circuits, it can be applied to a lossless LC distribution circuit with no resistance. And the electrical impedance (V / I) of this equivalent circuit is Therefore, when the sound wave is replaced, the sound wave velocity, the air density ρ, and the sound velocity C ′ are multiplied by ρC ′, and the impedance in the sound field, that is, the acoustic impedance, depends only on the mass of the gas and the sound velocity.

断面積の異なる音響管が連設されていると、その境界
面で反射が起こる。これは電気的なサージインピーダン
スに模擬することができる。即ち、第1図のような音響
管の断面積の異なるブロックの接続された等価回路は第
2図に置き換えられる。
When acoustic tubes with different cross-sectional areas are connected in series, reflection occurs at the boundary surface. This can be simulated as an electrical surge impedance. That is, an equivalent circuit in which blocks having different cross-sectional areas of the acoustic tube as shown in FIG. 1 are connected is replaced with FIG.

ここで、空気密度をρ,音速をC′とすれば、各音響
管の音響アドミッタンスY,Y2は次のように与えられる。
Here, if the air density is ρ and the sound velocity is C ′, the acoustic admittances Y and Y 2 of the respective acoustic tubes are given as follows.

但しZ1,Z2は音響インピーダンス 次に隣接ブロックよりの伝搬電流源をI1,I2とし、こ
れにより決定される電流分布a1,a2及びi1,i2および接
合点イの電圧をeとすると またa1=i1+I1,a2=i2+I21=a1−I1,i2=a2−I となり、次のステップのための隣接ブロックの伝搬電流
源I1′,I2′は、 I1′=i1+a1,I2′=i2+a2となる。
Where Z 1 and Z 2 are acoustic impedances, and I 1 and I 2 are propagation current sources from the adjacent blocks, and the current distributions a 1 and a 2 and i 1 and i 2 and the voltage at the junction point a are determined by these. Let be e Also, a 1 = i 1 + I 1 , a 2 = i 2 + I 2 i 1 = a 1 -I 1 , i 2 = a 2 -I, and the propagation current source I 1 ′, of the adjacent block for the next step is obtained. I 2 ′ becomes I 1 ′ = i 1 + a 1 and I 2 ′ = i 2 + a 2 .

上式でi1=a1−I1およびi2=a2−I2を代入して
1′=2a1−I1,I2′=2a2−I1としてもよい。
It is also possible to substitute i 1 = a 1 -I 1 and i 2 = a 2 -I 2 in the above formula to obtain I 1 ′ = 2a 1 −I 1 and I 2 ′ = 2a 2 −I 1 .

上記の方式において断面積Aの時間に対する補間状況
を第7図に示す。ここで最も演算の簡単な直線補間を示
している。
FIG. 7 shows the interpolation situation with respect to time of the sectional area A in the above method. Here, the simplest linear interpolation is shown.

第3図は音響管の電気回路等価モデル図で、その
(ア)図は声帯から口唇までの声道を1つの音響管とみ
なした音響管モデル図、(イ)図はその電気回路モデル
図、(ウ)図は進行波等価モデル図を示している。
Fig. 3 is an electrical circuit equivalent model diagram of the acoustic tube. Fig. 3 (a) is an acoustic tube model diagram in which the vocal tract from the vocal cords to the lips is regarded as one acoustic tube, and Fig. 3 (a) is its electrical circuit model diagram. , (C) shows a traveling wave equivalent model diagram.

第3図を説明するに先立ち、人間の母音はどのように
して作られるかを説明する。
Before explaining FIG. 3, it will be explained how human vowels are created.

第4図は音声発生時の声道の断面積変化を模擬したも
ので、その(ア)図は、「ア」の発声の場合で喉の奥が
狭く口唇が開いた状態で肺から押し出される呼気で声帯
が呼気を断続的に開閉して声道(音響管)の中で反射を
繰り返して出てくる音波が「ア」の音声波形となって出
てくる。「イ」は(イ)図のように喉の方が広く口唇の
先が狭いと「イ」の音声波形が出力される。
Fig. 4 simulates the cross-sectional area change of the vocal tract when a voice is generated. Fig. 4 (a) shows the case of "A" when it is pushed out of the lungs with a narrow throat and open lips. The vocal cords open and close during breathing, and the sound waves that are repeatedly reflected in the vocal tract (acoustic tube) emerge as a voice waveform of "A". As shown in (a), “i” has a wide throat and a narrow lip, and the audio waveform of “i” is output.

このように口の恰好で周波数が決まり、口の恰好を模
擬すれば「ア」なり「イ」が発声される。口の恰好は音
響管の断面積で模擬でき、また音響管の断面積の変化
は、サージアドミッタンスの変化で模擬でき、サージア
ドミッタンスの変化は、電気回路上極めて容易に可変で
きる。第3図(ア)は断面積A1,A2…Anと異なる断面
積をもった音響管を接続して声道を模擬したものであ
る。同図(イ)はその音響インピーダンスを電気回路の
LC回路に置き換えたもので、各音響管を1個のLC線路と
し、全体を集中線路のn−1の電気回路としたものであ
る。また第3図(ウ)進行波等価モデル図で、各音響管
の音響インピーダンスZ1,Z2…Znは、音響管の断面積
に反比例(音響アドミッタンスは比例)し、音波の速度
に比例するので となる。なお、同図でZOは音源インピーダンス,ZLは放
射インピーダンスを示し、またブロック間の矢印は、進
行波と後進波を表している。
In this way, the frequency is determined by the mouth preference, and if the mouth preference is simulated, "a" or "a" is uttered. The appearance of the mouth can be simulated by the cross-sectional area of the acoustic tube, and the change of the cross-sectional area of the acoustic tube can be simulated by the change of the surge admittance, and the change of the surge admittance can be changed very easily on the electric circuit. Figure 3 (A) is obtained by simulating the vocal tract by connecting the sound tube having different cross-sectional area as the cross-sectional area A 1, A 2 ... A n . The same figure (a) shows the acoustic impedance of the electric circuit.
It is replaced with an LC circuit, and each acoustic tube is one LC line, and the whole is an n-1 electric circuit of a concentrated line. Further, in FIG. 3 (c) traveling wave equivalent model diagram, the acoustic impedances Z 1 , Z 2 ... Z n of each acoustic tube are inversely proportional to the cross-sectional area of the acoustic tube (acoustic admittance is proportional) and proportional to the velocity of the sound wave. Because Becomes In the figure, Z O represents the sound source impedance, Z L represents the radiation impedance, and the arrows between the blocks represent the traveling wave and the backward wave.

今「ア」という音声を発声させる場合は、第4図の口
唇の先の断面積に相当する断面積A1のところで「ア」
の口の恰好を与えて、インパルスPを断続的に印加する
ことで、「ア」の音が得られ、また「ア」から「イ」の
音を発声させる場合は、同図(イ)に示すように断面積
をA1′に狭め「イ」の口の恰好を与えることで「イ」
が得られる。
When uttering the voice "A", "A" is placed at the cross-sectional area A 1 corresponding to the cross-sectional area of the tip of the lip in Fig. 4.
When the sound of "A" is obtained by applying the impulse P intermittently by giving the shape of the mouth of "A" and the sound of "A" is produced from "A", As shown in the figure, the cross-sectional area is narrowed to A 1 ′ to give the mouth of “a” the appearance of “a”.
Is obtained.

インパルスPが連続して断続的に与えられ、断面積全
体を「イ」の口の恰好に変化させる場合、声道は第3図
に示すn個の音響管によって模擬しているので、これら
の各断面積を「ア」から動かして口の恰好を「ア−イ」
と連続的に変えることになる。この音響管の断面積を変
えるということは、サージインピーダンスを徐々に変え
ることによって行われる。
If impulses P are given continuously and intermittently and the entire cross-sectional area is changed to the shape of the mouth of "a", the vocal tract is simulated by n acoustic tubes shown in FIG. Move each cross section from "A" to change the mouth appearance to "A"
Will be changed continuously. Changing the cross-sectional area of this acoustic tube is performed by gradually changing the surge impedance.

従って、第5図に示すように断面積はA1からA1′に
連続的に変えられるので、定常状態の「ア」,「イ」の
音が得られることは勿論であるが、更にインピーダンス
は連続して可変できるので、その中間の音、即ち音と音
との間の音を得ることができる。従って第6図に示すよ
うに音の切れが無く人間の発音に近い調音結合がスムー
ズに行われる。
Therefore, as shown in FIG. 5, since the cross-sectional area is continuously changed from A 1 to A 1 ′, steady-state “A” and “A” sounds can be obtained, but further impedance Can be varied continuously, so that an intermediate sound, that is, a sound between sounds can be obtained. Therefore, as shown in FIG. 6, there is no break in the sound, and the articulatory coupling similar to the human pronunciation is smoothly performed.

次に音波の伝搬速度を考えると、これは長さlでLCを
持った電線路にインパルスを印加した時の過渡現象に似
ている。
Next, considering the propagation velocity of sound waves, this is similar to a transient phenomenon when an impulse is applied to an electric line having a length of l and having an LC.

即ち第7図に示すようにLCを有する線路を等価的に表
すと第8図のようになる。ここで両端部からみたサージ
インピーダンスZ01,Z02は、 となる。
That is, a line having LC as shown in FIG. 7 is equivalently expressed as shown in FIG. Here, the surge impedances Z 01 and Z 02 seen from both ends are Becomes

ここで相手から到達してきた進行波を等価的な電流源
と考えると、 となり電流は中間にn個の遅延回路ブロックZがあれ
ば、n時間後に出力される。即ち左側の回路で発生した
ものがτ時間後右側に到達したということになる。
Considering the traveling wave that arrives from the other party as an equivalent current source, If there are n delay circuit blocks Z in the middle, the next current is output after n hours. That is, what has occurred in the circuit on the left has arrived on the right after τ.

2は送り管側の電流 となる。但し、ディジタル計算においては、電圧または
電流を細分割するのでV1,V2は計測時刻tにおける電
圧,τは経過時間を示している。
I 2 is the current on the feed tube side Becomes However, in the digital calculation, since the voltage or current is subdivided, V 1 and V 2 indicate the voltage at the measurement time t, and τ indicates the elapsed time.

第8図では、L,C回路にインパルスを印加すれば、τ
時間後に出力管側に出る。そしてτ時間前到達されたも
のは相手にも到達しているということを等価的に表して
いる。線路の長さlを1にするということは、遅延ブロ
ックnを正規化して1にすることで計算し易くなる。l
を3cmに刻む場合は遅延ブロックのnを3ブロックにす
ればよい。
In Fig. 8, if impulses are applied to the L and C circuits, τ
It goes out to the output tube side after time. And, it is equivalently expressed that what has arrived τ time ago has also reached the other party. Setting the line length 1 to 1 facilitates calculation by normalizing the delay block n to 1. l
In case of dividing into 3 cm, the delay block n may be set to 3 blocks.

第3図(ア)を人間の声道は男性で約17cmなので、1c
m刻みで17本の音響管で模擬すれば、A1から入った波形
は、半周期の電流を10に分割しそのΔtを10μsecとす
れば、170μsecかかってAn側から出てくる。楽器のトロ
ンボンを考えると、トロンボンは音響管の長短によって
楽音を変える。本発明によれば、トロンボンの「ア」の
音からトロンボンの「ニ」の音のパラメータを2つ持て
ば良いトロンボンの「ア」の音はトロンボンの「ド」の
音からトロンボンの上の音という2つのパラメータがあ
ればよい。その中間音は、遅延回路の遅延ブロックを変
えることによって自由に調音することができる。
Figure 3 (a) shows that the human vocal tract is about 17 cm for men, so 1c
If you simulate with 17 acoustic tubes in m steps, the waveform input from A 1 will come out from the An side in 170 μsec if you divide the half-cycle current into 10 and Δt is 10 μsec. Considering the musical instrument thrombone, the thrombone changes the musical sound depending on the length of the acoustic tube. According to the present invention, it suffices to have two parameters from the sound of "A" of thrombon to the sound of "D" of thrombon. The sound of "A" of thrombone is the sound of "Do" of thrombone There are two parameters. The intermediate tone can be freely articulated by changing the delay block of the delay circuit.

即ち第8図における遅延回路Z1→Zn,Zn→Z1を可変
することで同じ面積をもつ音響管の長さを変化すること
に対応させることができる。
That is, by varying the delay circuits Z 1 → Z n and Z n → Z 1 in FIG. 8, it is possible to deal with changing the length of the acoustic tube having the same area.

次に、第3図(ウ)の進行波等価モデルの演算処理を
第9図のフローチャートに基づいて説明する。
Next, the calculation processing of the traveling wave equivalent model of FIG. 3C will be described based on the flowchart of FIG.

音響管A1にインパルスが入力されると、コンピュー
タよりなる演算処理装置は、ステップS1にてメモリよ
りA1のaOA,iOA,IOA,Eを取り出す。取り出した値をも
とに、ステップS2では、 aOA′=f(E,IaA) iOA′=aOA′−IOA の演算を行う。この演算値aOA′,iOA′およびステップ
3でメモリより導入された管A2の値a1B,a1A,i1B,
i1A,I1B,I1Aを用いてステップS4では、 a1B′=S1B(I1B+I1A) a1A′=S1A(I1B+I1A1B′=a1B′−I1B1A′=aiA′−I1B1B′=i0A′−a0A′ の演算を行う。ステップS5ではS4にて求められた
1B′,a1B′を用いて I0A′=i1B+a1B を演算する。また一方、S5にて求められた値i1A′,a
1A′と、ステップS6においてメモリより導入された管
3の値a2B,a2A,i2B,i2A,I2B,I2Aとを用いてステップ
7にて次の演算が行われる。
When an impulse is input to the acoustic tube A 1 , the arithmetic processing unit including a computer retrieves a OA , i OA , I OA , E of A 1 from the memory in step S 1 . Based on the retrieved values, in step S 2, a OA '= f (E, I aA) i OA' calculation of = a OA '-I OA performed. The calculated values a OA ′, i OA ′ and the values a 1B , a 1A , i 1B , of the pipe A 2 introduced from the memory in step S 3 .
i 1A, I 1B, in step S 4 by using the I 1A, a 1B '= S 1B (I 1B + I 1A) a 1A' = S 1A (I 1B + I 1A) i 1B ′ = a 1B ′ −I 1B i 1A ′ = a iA ′ −I 1B I 1B ′ = i 0A ′ −a 0A ′ is calculated. In step S 5 , I 0A ′ = i 1B + a 1B is calculated using i 1B ′, a 1B ′ obtained in S 4 . On the other hand, the value i 1A ′, a obtained in S 5
And 1A ', the value a 2B tube A 3 introduced from the memory, a 2A, i 2B, i 2A, I 2B, the next operation at step S 7 by using the I 2A performed in step S 6 .

2B′=S2B(I2B+I2A) a2A′=S2A(I2B+I2A2B′=a2B′−I2B2A′=a2A′−I2A2B′=i1A+aiA′ ステップS8ではS7にて求められたi2B′,i2A′を用
いて I1A′=i2B′+a2A′ の演算が行われる。以下同様にして模擬された音響管の
断面積A1〜Anに夫々対応した演算が行われ、ステップ
n-1では、 anB′=f(InB) inB′=anB′−InBnB=in-1A+an-1A の演算を行う。その結果を用いてステップSnでは、 In-1A′=inB′+anB′ の演算を行う。すなわち、音響管のA1〜Anに対応した
等価回路の最終段(n段)における演算結果の出力がD/
A変換されて図示省略されたスピーカに出力され、スピ
ーカより音声として出力される。
a 2B ′ = S 2B (I 2B + I 2A ) a 2A ′ = S 2A (I 2B + I 2A ) i 2B ′ = a 2B ′ −I 2B i 2A ′ = a 2A ′ −I 2A I 2B ′ = i 1A + a iA ′ In step S 8 , i 2B ′, i 2A ′ obtained in S 7 is used. The calculation of I 1A ′ = i 2B ′ + a 2A ′ is performed. Similarly, calculations corresponding to the cross-sectional areas A 1 to A n of the simulated acoustic tube are performed, and in step S n-1 , a nB ′ = f (I nB ) inB ′ = a nB ′ − The calculation of I nB I nB = i n-1A + a n-1A is performed. Using the result, in step S n , I n-1A ′ = i nB ′ + a nB ′ is calculated. That is, the output of the calculation result at the final stage (n stages) of the equivalent circuit corresponding to A 1 to A n of the acoustic tube is D /
It is A-converted and output to a speaker (not shown), and is output as sound from the speaker.

したがって演算処理装置は音響管A1〜Anに対応した
演算を行うものであるから、この演算処理装置は音響管
のA1〜An個々の等価回路を流れる各部の電流値および
関数f,SiB,SiA(i=1,2…n−1)をテーブルとして有
しているメモリと、当該等価回路の各部の電流値を演算
する第1の演算手段と、当該等価回路とは相隣接する等
価回路の電流値を用いて当該等価回路の電流値を演算す
る第2の演算手段とを備えている。
Therefore, since the arithmetic processing unit performs the arithmetic operation corresponding to the acoustic tubes A 1 to A n , this arithmetic processing unit uses the electric current value and the function f of each part flowing through each equivalent circuit of A 1 to A n of the acoustic tube. A memory having S iB , S iA (i = 1, 2 ... N-1) as a table, a first calculating means for calculating the current value of each part of the equivalent circuit, and the equivalent circuit are Second arithmetic means for calculating the current value of the equivalent circuit by using the current value of the adjacent equivalent circuit.

H. 発明の効果 以上のように本発明は、音響管の断面積が等価回路の
サージインピーダンスに1対1に対応していることに着
目し、この断面積の変化をサージインピーダンスの変化
で模擬するようにしたものであるから、パラメータとし
ては、断面積だけを持てばよいので、極めて簡単にで
き、従来のように音声合成のための多くのメモリを必要
としない。また、調音結合も、サージインピーダンスの
連続的な変化によってスムーズに行われ、自然音に近い
発声が得られる。
H. Effect of the Invention As described above, the present invention focuses on the fact that the cross-sectional area of the acoustic tube corresponds to the surge impedance of the equivalent circuit in a one-to-one manner, and simulates the change in this cross-sectional area by the change in surge impedance. Since this is done, only the cross-sectional area needs to be given as a parameter, so that it can be made extremely simple and does not require many memories for speech synthesis as in the conventional case. Further, articulatory coupling is smoothly performed by the continuous change of surge impedance, and utterance close to natural sound can be obtained.

また、楽音も遅延回路のメモリーの段数を変えること
により容易に得ることができ、断面積変化と相俟ってよ
り自然な楽器音を簡単に実現出来る。
Also, musical tones can be easily obtained by changing the number of stages of the memory of the delay circuit, and in combination with the change in cross-sectional area, a more natural musical instrument sound can be easily realized.

【図面の簡単な説明】[Brief description of drawings]

第1図〜第9図は本発明を説明するための図で、第1図
は音響管モデル図、第2図は音響管等価回路図、第3図
は音響管の電気回路等価モデル図、第4図は声道の変化
説明図、第5図は音響管断面積の時間に対する補間説明
図、第6図は本発明の調音結合説明図、第7図は音声伝
搬を電気的に模擬した電気回路図、第8図は第7図の等
価回路図、第9図は本発明の音合成をコンピュータ処理
するプログラムの一例を示すフローチャート図、第10図
は従来のパーコール合成による調音結合説明図を示す。 A1,A2…An……音響管の断面積、Y1,Y2……音響管の
音響アドミッタンス、C1,C2…Cn……電気回路モデル
の静電容量、L1,L2…Ln……同上のリアクタンス、
1,Z2…Zn……サージインピーダンス。
1 to 9 are diagrams for explaining the present invention. FIG. 1 is an acoustic tube model diagram, FIG. 2 is an acoustic tube equivalent circuit diagram, and FIG. 3 is an electrical circuit equivalent model diagram of the acoustic tube. FIG. 4 is an explanatory view of changes in the vocal tract, FIG. 5 is an explanatory view of interpolation of the acoustic tube cross-section with respect to time, FIG. 6 is an explanatory view of articulatory coupling of the present invention, and FIG. 7 is an electrical simulation of voice propagation. FIG. 8 is an electric circuit diagram, FIG. 8 is an equivalent circuit diagram of FIG. 7, FIG. 9 is a flow chart showing an example of a program for computer-processing the sound synthesis of the present invention, and FIG. Indicates. A 1 , A 2 ... A n ... cross-sectional area of the acoustic tube, Y 1 , Y 2 ... acoustic admittance of the acoustic tube, C 1 , C 2 ... C n ... capacitance of the electric circuit model, L 1 , L 2 … L n …… Same reactance,
Z 1, Z 2 ... Z n ...... surge impedance.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】音響管を用いて模擬する音合成において、
隣合う2つの音響管を伝搬電流源と音響断面積に反比例
したサージインピーダンスの並列回路として扱い、音響
管の形状変化に伴う断面積変化に対応して (但しAi,Ai+1は隣合う2つの音響管断面積,iは1,2,3…
n)の係数を備えることを特徴とする音合成方法。
1. In sound synthesis that simulates using an acoustic tube,
Two adjacent acoustic tubes are treated as a parallel circuit of a propagating current source and a surge impedance that is inversely proportional to the acoustic cross-sectional area. (However, Ai, A i + 1 is the cross section of two adjacent acoustic tubes, i is 1,2,3…
A method for synthesizing sounds, characterized by comprising the coefficient n).
【請求項2】音響管を用いて模擬する音合成において、
隣合う2つの音響管を伝搬電流源と音響断面積に反比例
したサージインピーダンスの並列回路として扱い、音響
管の形状変化に伴う断面積変化に対応して (但しAi,Ai+1は隣合う2つの音響管断面積,iは1,2,3…
n)の係数を備えると共に隣へ新しく伝搬すべき電流源
をサージインピーダンスに流れ込む電流と、当該音響管
に流れ込む電流の和、若しくはサージインピーダンスに
流れ込む電流の2倍の値と当該音響管の電流源との差を
用いることを特徴とする音合成方法。
2. In the sound synthesis simulated by using an acoustic tube,
Two adjacent acoustic tubes are treated as a parallel circuit of a propagating current source and a surge impedance that is inversely proportional to the acoustic cross-sectional area. (However, Ai, A i + 1 is the cross section of two adjacent acoustic tubes, i is 1,2,3…
The current source of the acoustic tube having the coefficient of n) and the sum of the current flowing into the surge impedance and the current flowing into the surge impedance of the current source to be newly propagated to the next, or twice the value of the current flowing into the surge impedance and the current impedance of the acoustic tube. A sound synthesis method characterized by using a difference between and.
【請求項3】音響管を用いて模擬する音合成において、
隣合う2つの音響管を伝搬電流源と音響管断面積に反比
例したサージインピーダンスの並列回路として扱うと共
に、前記伝搬電流源の伝搬に遅延回路を持ち、且つこの
遅延回路を可変とすることで同面積を持つ音響管の長さ
を変化することに対応させたことを特徴とした音合成方
法。
3. In sound synthesis that simulates using an acoustic tube,
By treating two adjacent acoustic tubes as a parallel circuit of a propagation current source and a surge impedance inversely proportional to the cross-sectional area of the acoustic tube, and having a delay circuit for the propagation of the propagation current source, and making this delay circuit variable. A sound synthesis method characterized in that it is adapted to change the length of an acoustic tube having an area.
JP62091705A 1987-04-14 1987-04-14 Sound synthesis method Expired - Lifetime JPH0833747B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP62091705A JPH0833747B2 (en) 1987-04-14 1987-04-14 Sound synthesis method
CA000564051A CA1334868C (en) 1987-04-14 1988-04-13 Sound synthesizing method and apparatus
CN88102086A CN1020358C (en) 1987-04-14 1988-04-14 Sound synthesizing method and apparatus
EP88105993A EP0287104B1 (en) 1987-04-14 1988-04-14 Sound synthesizing method and apparatus
DE8888105993T DE3866926D1 (en) 1987-04-14 1988-04-14 METHOD AND DEVICE FOR SYNTHETIZING LOUD.
KR88004224A KR970011021B1 (en) 1987-04-14 1988-04-14 Sound synthesizing method and apparatus
US07/540,864 US5097511A (en) 1987-04-14 1990-06-20 Sound synthesizing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62091705A JPH0833747B2 (en) 1987-04-14 1987-04-14 Sound synthesis method

Publications (2)

Publication Number Publication Date
JPS63257000A JPS63257000A (en) 1988-10-24
JPH0833747B2 true JPH0833747B2 (en) 1996-03-29

Family

ID=14033928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62091705A Expired - Lifetime JPH0833747B2 (en) 1987-04-14 1987-04-14 Sound synthesis method

Country Status (1)

Country Link
JP (1) JPH0833747B2 (en)

Also Published As

Publication number Publication date
JPS63257000A (en) 1988-10-24

Similar Documents

Publication Publication Date Title
US5528726A (en) Digital waveguide speech synthesis system and method
Smith Virtual acoustic musical instruments: Review and update
Mullen et al. Waveguide physical modeling of vocal tract acoustics: flexible formant bandwidth control from increased model dimensionality
WO2020095950A1 (en) Information processing method and information processing system
EP0287104B1 (en) Sound synthesizing method and apparatus
JPH0833749B2 (en) Sound synthesis method
JPH0833747B2 (en) Sound synthesis method
JPH0833748B2 (en) Sound synthesis method
JPH0833750B2 (en) Speech synthesis method
JP2990693B2 (en) Speech synthesizer
JP2990691B2 (en) Speech synthesizer
JP2992995B2 (en) Speech synthesizer
JPH02106799A (en) Synthetic voice emotion imparting circuit
Nowakowska et al. On the model of vocal tract dynamics
JPH01292400A (en) Speech synthesis system
Childers et al. Articulatory synthesis: Nasal sounds and male and female voices
JPH01177098A (en) Voice synthesizing device
JPH0833751B2 (en) Speech synthesis method
JPH01182900A (en) Voice synthesizing system
Pizzi New speech-inspired tools for exploring timbre in computer-based composition and music production
Singh et al. Removal of spectral discontinuity in concatenated speech waveform
JPH01171000A (en) Voice synthesis system
JPH01197799A (en) Articulation and sound source parameter producing method for sound synthesizer
WO2007097215A1 (en) Wave synthesizing device
JPH01219896A (en) Speech synthesis system