JPH02106799A - Synthetic voice emotion imparting circuit - Google Patents

Synthetic voice emotion imparting circuit

Info

Publication number
JPH02106799A
JPH02106799A JP26017088A JP26017088A JPH02106799A JP H02106799 A JPH02106799 A JP H02106799A JP 26017088 A JP26017088 A JP 26017088A JP 26017088 A JP26017088 A JP 26017088A JP H02106799 A JPH02106799 A JP H02106799A
Authority
JP
Japan
Prior art keywords
parameters
speech
converting
emotion
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26017088A
Other languages
Japanese (ja)
Inventor
Yoshinori Kitahara
義典 北原
Yoichi Higashikura
東倉 洋一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A T R SHICHIYOUKAKU KIKO KENKYUSHO KK
Original Assignee
A T R SHICHIYOUKAKU KIKO KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A T R SHICHIYOUKAKU KIKO KENKYUSHO KK filed Critical A T R SHICHIYOUKAKU KIKO KENKYUSHO KK
Priority to JP26017088A priority Critical patent/JPH02106799A/en
Publication of JPH02106799A publication Critical patent/JPH02106799A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To obtain the voice having natural emotion and to control the intensity thereof by controlling only the three elements of rhythms; basic frequency, time structure and amplitude among extracted characteristic parameters. CONSTITUTION:The emotion imparting circuit 4 subjects the basic frequency, time structure and amplitude parameters among the sound source parameters outputted from a sound source analyzing section 2 to function conversion and synthesizes the voice waveforms by these sound source parameters and spectral parameters in a synthesizing section 5. Namely, the fresh basic frequency f'(t) and the fresh amplitude parameter P'(t) are determined with respect to the basic frequency f0(t) among the sound source parameters outputted from the sound source analyzing section 2. The converted fresh sound source parameters are sent together with the spectral parameters to the synthesizing section 5 from which the parameters are outputted in the form of the synthesized voice waveforms via a D/A conversion section 6. The synthesized sounds having the 'emotion and feel' which are natural and are comfortable to be listened by listeners are outputted in this way.

Description

【発明の詳細な説明】 U産業上の利用分野コ この発明は合成音声情緒付り9回路に関し、特に、分析
合成装置や規則合成装置のような音声合成装置において
、聴取者にとって自然で聞きやすい「情緒・感情」を持
った合成音を出力するような合成音声情緒イ・jJjl
路に関する。
[Detailed Description of the Invention] U Industrial Field of Application This invention relates to a nine-circuit with synthesized speech emotion, particularly in a speech synthesizer such as an analysis synthesizer or a rule synthesizer, which is natural and easy to hear for the listener. Synthetic voice emotion that outputs a synthesized voice with "emotions/feelings"
related to the road.

[従来の技術および発明か解決しようとする課題]従来
の音声合成装置の一例として、たとえば特開昭62−1
38898号公報に記載されているような「音声規則合
成ツノ−式」か知られている。この音声規則合成h°式
は、11本語の疑問文、命令文。
[Prior art and problems to be solved by the invention] As an example of a conventional speech synthesis device, for example, Japanese Patent Laid-Open No. 62-1
``Speech rule synthesis horn type'' as described in Japanese Patent No. 38898 is known. This phonetic rule synthesis h° formula consists of 11 questions and commands.

禁市文1願望文、感動文なとの文章タイプ情報に基つい
て、それに勾応するイントネーンヨンを臨界制動2次線
形系の応答関数により記述される基本周波数時間変化パ
ターンを生成するようにしたものである。
Kinichi Sentence 1 Based on the sentence type information such as desire sentences and inspirational sentences, the corresponding intonation is generated to generate a fundamental frequency time change pattern described by the response function of a critical damped quadratic linear system. It is.

しかしなから、このような音声規則合成方式において、
単に基本周波数パターンを変えるだけでは、人間の音声
か持つような細かい情緒表現を十分に行なうことかでき
す、合成音を聴取したとき、不自然さか残るという欠点
かあった。
However, in such a speech rule synthesis method,
By simply changing the fundamental frequency pattern, it is not possible to fully express the detailed emotional expressions that human voices have, but when listening to the synthesized sound, it still sounds unnatural.

それゆえに、この発明の主たる目的は、音声合成装置i
!7において、自然な「怒り」の感情を持った合成音声
をノ1成できるような合成音声情緒fζjリー回路を提
供することである。
Therefore, the main object of the present invention is to
! 7, it is an object of the present invention to provide a synthesized speech emotion fζj Lee circuit that can generate synthetic speech having a natural emotion of "anger."

[課題を解決するための手段] 第12iI求項にかかる発明は、ディジタルB J”j
 f+j号を入力するための入力手段と、入力されたデ
ィジタル音声信号を分析して特徴パラメータを抽出する
分析手段と、分析手段によって抽出された特徴パラメー
タを合成音j4iに変換するための合成石川変換手段と
、変換された合成8f!1をアナログ信号二号に変換し
て出力するD/A礎換手段とを備えた音声合成装置にお
いて、分析手段によって抽出された特徴パラメータのう
ちの基本周波数1時間)1η造および振幅パラメータを
関数変換し、合成量tI変換手段によって1怒り」の情
緒の表現されたご成金を生成するように合成音声情緒イ
・I”7回路をh′11成したものである。
[Means for solving the problem] The invention according to claim 12iI is a digital BJ”j
an input means for inputting f+j, an analysis means for analyzing the input digital audio signal and extracting feature parameters, and a synthetic Ishikawa transformation for converting the feature parameters extracted by the analysis means into a synthesized sound j4i. Means and converted synthesis 8f! In a speech synthesizer equipped with a D/A conversion means for converting 1 to an analog signal No. 2 and outputting it, the fundamental frequency 1 time) 1η structure and amplitude parameter of the characteristic parameters extracted by the analysis means are functioned. 7 circuits are constructed so as to convert the synthesized voice emotion tI and generate a message expressing the emotion of 1 anger by means of the synthesized amount tI conversion means.

第2.情求項にかかる発明は、文字列または記−3列を
入力するための入力手段と、入力された文字列または記
号列を読み列に変換するための読み列変換手段と、変換
された読み列を合成音声に変換するための合成音声変換
手段と、変換された合成音用をアナログ信号に変換する
D/A?換手段とを6jkえた召Ti合成装置において
、特徴パラメータのうちの基本周波数 11.ff間措
造および振幅パラメタを関数変換し、合成音、ji変換
手段によって「怒り」の情緒の表現された合成石を生成
するように合成音パー情緒(’J ”7回路を構成した
ものである。
Second. The invention related to the information item includes an input means for inputting a character string or a notation, a reading sequence conversion means for converting the input character string or symbol string into a reading string, and a converted reading string. Synthetic speech converting means for converting the string into synthetic speech, and D/A converting the converted synthetic speech into analog signals. 11. The fundamental frequency of the characteristic parameters in the Ti synthesis device with 6jk additional conversion means. The synthesized sound per emotion ('J'' is composed of 7 circuits so as to generate a synthetic stone expressing the emotion of "anger" by functionally converting the ff interval and amplitude parameters, and using the synthesized sound and ji conversion means. be.

[作Ji月 この発明にかかる情緒イ・111回路は、音声信号また
は変換された読み列をスペクトルに関するパラメータに
変換し、一方で音源に関するパラメータを抽出または牛
j戊し、この音源パラメータのうちの基本周波数1時間
(IXi造および振幅パラメータを制御した後出力する
[Made in Japan] The emotion-111 circuit according to the present invention converts an audio signal or a converted pronunciation sequence into parameters related to a spectrum, while extracting or extracting parameters related to a sound source, and extracts or extracts parameters related to a sound source. The basic frequency is output for 1 hour (after controlling the IXi structure and amplitude parameters).

[発明の実施例コ 第1図はこの発明の一実施例の概略ブロック図である。[Embodiments of the invention] FIG. 1 is a schematic block diagram of an embodiment of the present invention.

まず、第1図を参照して、この発明の一実施例の構成と
ともに動作について説明する。ディジタル音声信号入力
部]にはディジモル音11信号が入力され、そのデイン
タル8F!1信号は音源分析部2とスペクトル分析部3
にJjえられる。スペクトル分析部3はディジタル音声
イ11号を、音韻性情報を担ったスペクトルパラメータ
に変換する。このスペクトルとしては、たとえば斉藤・
11月II著“音声情報処理の規則” (オーム月発行
)に記載されているようなPARCOR係数なとがある
。なお、このPARCOR係数はスペクトルパラメータ
の一例であり、この発明では特にこれに限定されるもの
ではない。
First, with reference to FIG. 1, the structure and operation of an embodiment of the present invention will be described. Digimol sound 11 signal is input to the digital audio signal input section], and the digital 8F! 1 signal is sent to the sound source analysis section 2 and the spectrum analysis section 3
I can get JJ. The spectrum analysis section 3 converts the digital voice number 11 into spectral parameters carrying phonological information. This spectrum includes, for example, Saito and
There is a PARCOR coefficient as described in "Rules for Audio Information Processing" by November II (published by Ohm Month). Note that this PARCOR coefficient is an example of a spectral parameter, and the present invention is not particularly limited to this.

一方、音源分析部2は入力されたディジタル音声信号か
ら音源情報である基本周波数や振幅情報などの音源パラ
メータを抽出する。音源9111部2によって抽出され
た音源パラメータは情緒(J’ ”j回路4を介して合
成部5にり、えられ、スペクトル分析部3によって分析
されたスペクトルパラメータも合成部5に1jえられる
。合成部5はスペクトルパラメータおよび音源パラメー
タを用いて合成音声を生成する。
On the other hand, the sound source analysis section 2 extracts sound source parameters such as fundamental frequency and amplitude information, which are sound source information, from the input digital audio signal. The sound source parameters extracted by the sound source 9111 section 2 are sent to the synthesis section 5 via the emotion circuit 4, and the spectral parameters analyzed by the spectrum analysis section 3 are also sent to the synthesis section 5. The synthesis unit 5 generates synthesized speech using the spectral parameters and the sound source parameters.

すなわち、合成部5では、前述の基本周波数の逆数(ヒ
ツチ周期)の間隔で中位フレーム内のスベクトルパラメ
ータを繰返し、名声パラメータの列に変換する。この合
成部5としては、たとえばJ、D、Markel  a
nd  A、H,GrayJrF5、鈴木訳“音声の線
形〕Zdlす“ (コロナト1発行)に記載されている
ような2乗痺2に格子形音声rり成フィルタを用いて、
前述のスペクI・ルパラメータおよび8諒パラメータに
より名声波形を合成する。なお、2乗算器格子形昌声劇
成フィルタは一例てあ一ノで、他のgパ1合成手段を用
いるようにしてしよい。合成されたiHf’j波形はD
/A変換部6を介して一昌゛メ1として出力される。
That is, the synthesizing unit 5 repeats the vector parameters in the intermediate frame at intervals of the reciprocal of the fundamental frequency (hitchi cycle) and converts them into a string of fame parameters. This synthesis section 5 includes, for example, J, D, Markel a.
nd A, H, GrayJrF5, using a lattice-shaped speech synthesis filter on the square paralysis 2 as described in Suzuki translation "Speech Linearity] Zdl" (published by Coronato 1),
A fame waveform is synthesized using the above-mentioned spectrum parameters and eight parameters. Note that the square multiplier lattice type voice dramatization filter is only one example, and other g/P synthesis means may be used. The synthesized iHf'j waveform is D
/A converter 6 and output as Issho-me 1.

次に、前述の酢パi合成の情緒付lj動作についてより
具体的に説明する。情1[・1す9回路4は、音源分F
ji部2から出力された召−源パラメータのうち、基本
周波数1時間t++1’*造および振幅パラメータに対
して関数変換を施し、合成部5においてこれら音源パラ
メータとスペクトルパラメータにより音声波形を合成す
ることによって実現する。
Next, the emotion-adding lj operation of the above-mentioned vinegar pie i synthesis will be explained in more detail. Information 1[・1su9 circuit 4 is the sound source part F
Among the source parameters output from the ji section 2, the fundamental frequency 1 time t++1'* structure and the amplitude parameter are subjected to functional transformation, and the synthesis section 5 synthesizes a speech waveform using these sound source parameters and spectral parameters. Realized by

すなわち、名源分+11部2から出力された音源パラメ
ータのうち、)、(本周波数f。(1)にλ・jして、
たとえば fo ’  (t) −fo  (t) −1−lr 
(t)の変換式により、新しい基本周波数f’  (t
)を決定する。ここで、α(1)は、各時刻における基
本周波数の増分を表わす定数である。ここに挙げた関数
は一例であり、この発明を限定するものではない。また
、時間構造については、分+17フレームの時系列を、
たとえば、北原、東0考、“音声の時間構造と伸縮特性
” (日本音響学会講演論文集(昭和63年3月発行)
)に記載されているようなLPCケプストラム回帰係数
を用いたスペクトル変化率に依存した非線形圧縮を行な
わせる。
In other words, among the sound source parameters output from the source part + 11 section 2, ), (main frequency f. (1) is given λ j,
For example fo ' (t) -fo (t) -1-lr
(t), the new fundamental frequency f' (t
) to determine. Here, α(1) is a constant representing the increment of the fundamental frequency at each time. The functions listed here are examples and do not limit the invention. Also, regarding the time structure, the time series of minutes + 17 frames is
For example, Kitahara, Higashi Oko, “Temporal Structure and Stretching Characteristics of Speech” (Proceedings of the Acoustical Society of Japan (published March 1986))
) performs nonlinear compression depending on the rate of spectral change using LPC cepstral regression coefficients.

もちろん伸縮の方法はこれに限定されるものではない。Of course, the method of expansion and contraction is not limited to this.

一方、振幅パラメータP (L)についても、たとえば
、 P’  (t)=P (t)xβ(1)の変換式により
、新しい振幅パラメータP’  (t)を決定する。こ
こでβ(1)は、各時刻における振幅の増分を表わす定
数である。この場合ももちろん任意の変換関数を用いる
ことができる。
On the other hand, regarding the amplitude parameter P (L), a new amplitude parameter P' (t) is determined, for example, using the conversion formula P' (t)=P (t) x β (1). Here, β(1) is a constant representing the amplitude increment at each time. Of course, any conversion function can be used in this case as well.

上述のごとくして変換された新しい音源パラメタは、ス
ペクトルパラメータとともに合成部5に送られ、合成音
声波形となってD/A変換部6を経て出力される。
The new sound source parameters converted as described above are sent to the synthesis section 5 together with the spectral parameters, and are outputted via the D/A conversion section 6 as a synthesized speech waveform.

第2図はこの発明の他の実施例を示す概略ブロック図で
ある。第2図において、入力端子7には図示しないOC
Rやキーボードなどの入力手段が接続され、この人カー
丁段から文字列または記号列で表現された文−r;<や
!lj li!iなとか入力される。入力された文へt
や単語は、形態素解析部8によって形態素辞書部9に記
憶されている内:ゴに基づいて、形態素の列に変換され
る。形態素辞書部9は少なくとも“読み“品詞“を記憶
しており、入力された文゛了′列または記号列に対して
、たとえば、相沢、江J+;i著゛計算機によるかな漢
字変換”、NHIく技術(V+究、25−5に記載され
ているような最長−成仏な古の手段を用いて形態素への
分割を行なう。この最長−成仏は、形態素分割のための
手段の一例であり、これに限定されるものではない。
FIG. 2 is a schematic block diagram showing another embodiment of the invention. In Fig. 2, an OC (not shown) is connected to the input terminal 7.
An input means such as R or a keyboard is connected, and the sentence −r;<ya! lj li! Something like "i" is input. To the input sentence
The morphological analysis unit 8 converts the `` and `` words into a string of morphemes based on the ``chu:go'' stored in the morphological dictionary unit 9 . The morphological dictionary section 9 stores at least the "pronunciation" and "part of speech", and for the input sentence string or symbol string, for example, "Kana-Kanji Conversion by Computer" by Aizawa and Jiang J +; Dividing into morphemes is performed using the ancient method of morpheme division, such as the technique (V + Study, 25-5). It is not limited to.

形態素解析部r部8によって解+11された11ニ態素
はピッチ制御処理部10に与えられ、アクセンl−XI
?古部11およびアクセント結合規則部]2に記憶され
ている内容に基づいて、−8の高低を表わす基本周波数
成分が決定される。基本周波数成分の付lうされた形態
素列は、金貨パラメータ合成部13に与えられ、音素片
スY書部14に記憶されている内容に基づいて、音素の
パラメータの列に変換される。
The 11 morphemes solved by +11 by the morphological analysis section r section 8 are given to the pitch control processing section 10, and
? Based on the contents stored in the old part 11 and the accent combination rule part]2, a fundamental frequency component representing the height of -8 is determined. The morpheme string with the fundamental frequency component attached is given to the gold coin parameter synthesis section 13, and is converted into a string of phoneme parameters based on the contents stored in the phoneme segment Y writing section 14.

音素J−1辞書部14は音素片、すなわち、文華や単語
を構成している音素またはcv、vcなとの音韻連鎖を
パラメータとして保持しており、形態素を構成する音素
またはcv、vcなとの音韻の順に従って該音素片を配
列し、−上述のピッチ周期の間隔で単位フレーム内のパ
ラメータを繰返し音声パラメータの列に変換する。この
ときに、\I尺静平叙文の基本周波数1時間構造、振幅
パラメータのそれぞれに対して、たとえば前述の関数変
換を施し、新しいδ源パラメータとしてピッチ制御処理
部]0に出力する。以下、合成部16およびD/A変換
部17は第1図に示した実施例と同様の動f’lをiノ
なう。
The phoneme J-1 dictionary unit 14 holds phoneme fragments, that is, phonemes constituting bunka or words, or phoneme chains such as cv, vc, etc., as parameters, and phonemes constituting morphemes or cv, vc, etc. The phoneme segments are arranged in accordance with the phoneme order, and the parameters within the unit frame are repeatedly converted into a string of speech parameters at intervals of the above-mentioned pitch period. At this time, the fundamental frequency 1-temporal structure and amplitude parameters of the \I scale-declarative sentence are each subjected to, for example, the above-mentioned function transformation, and are output as new δ source parameters to the pitch control processing unit]0. Thereafter, the synthesizing section 16 and the D/A converting section 17 perform the same operation f'l as in the embodiment shown in FIG.

[発明の効用コ 以上のように、第] +:1’I求項にかかる発明は、
入力されたディジタル音小信号を分析して特徴パラメー
タを抽出し、抽出された特徴パラメータのうちの基本周
波数9時間構造および振幅といった韻律の3要素のみを
制御することにより、「怒り」を表現するようにしたの
で、音韻性か大ぎく歪むことなく自然な情緒を持った音
声を得ることかでき、さらにその強度を制御することも
できる。
[Efficacy of the invention As mentioned above, the invention according to claim 1'I is:
It analyzes the input digital sound small signal to extract feature parameters, and expresses "anger" by controlling only the three elements of prosody, such as the fundamental frequency, temporal structure, and amplitude of the extracted feature parameters. As a result, it is possible to obtain a voice with natural emotion without significantly distorting the phonology, and it is also possible to control its intensity.

第2請求項にかかる発明では、入力された文字列または
記号列を読み列に変換し、変換された読み列を合成音声
に変換し、第1 i!:’I求項と同様にして韻律の′
3要素のみを制御ずろことにより、音韻性か人きく歪む
ことな(自然な情緒を持った音声を?l−Jることかで
き、さらにその強度を制御することもてきる。
In the invention according to the second claim, the input character string or symbol string is converted into a pronunciation sequence, the converted pronunciation sequence is converted into synthesized speech, and the first i! :'In the same way as the I term, the prosodic '
By controlling only the three elements, it is possible to produce speech with natural emotion without distorting the phonology, and it is also possible to control its intensity.

【図面の簡単な説明】 第1図はこの発明の一実施例のlI託略ブロック図であ
る。第2図はこの発明の他の実施例の概略ブ0ツク図で
ある。 図において、]はディジタル音声信号入力部、2は音源
分析部、3はスペクトル分tli部、4.]5は情緒付
11回路、5.]6は合成部、6.17はD/A変換部
、7は入力端r・、8は形態素解析部、9は形態素辞書
部、10はピッチ制■1処理部、1−1はアクセント辞
書部、12はアクセント結合規則部、]3は音声パラメ
ータ合成部、14は音素片辞書部を示す。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic block diagram of an embodiment of the present invention. FIG. 2 is a schematic block diagram of another embodiment of the invention. In the figure, ] is a digital audio signal input section, 2 is a sound source analysis section, 3 is a spectrum tli section, 4. ] 5 is 11 circuits with emotions, 5. ] 6 is a synthesis unit, 6.17 is a D/A conversion unit, 7 is an input terminal r, 8 is a morphological analysis unit, 9 is a morphological dictionary unit, 10 is a pitch system ■1 processing unit, 1-1 is an accent dictionary 12 is an accent combination rule section, ] 3 is a speech parameter synthesis section, and 14 is a phoneme dictionary section.

Claims (2)

【特許請求の範囲】[Claims] (1)ディジタル音声信号を入力するための入力手段と
、 前記入力手段によって入力されたディジタル音声信号を
分析して特徴パラメータを抽出する分析手段と、 前記分析手段によって抽出された特徴パラメータを合成
音声に変換するための合成音声変換手段と、 前記合成音声変換手段によって変換された合成音声をア
ナログ信号に変換して出力するD/A変換手段とを備え
た音声合成装置において、 前記分析手段によって抽出された特徴パラメータのうち
の基本周波数、時間構造および振幅パラメータを関数変
換し、前記合成音声変換手段によって「怒り」の情緒の
表現された合成音を生成することを特徴とする、合成音
声情緒付与回路。
(1) An input means for inputting a digital audio signal; an analysis means for analyzing the digital audio signal input by the input means to extract feature parameters; and a synthesized speech using the feature parameters extracted by the analysis means. A speech synthesis device comprising a synthetic speech converting means for converting into an analog signal, and a D/A converting means for converting the synthetic speech converted by the synthetic speech converting means into an analog signal and outputting the synthesized speech extracted by the analyzing means. Synthetic speech emotion imparting characterized in that the fundamental frequency, time structure and amplitude parameters among the characteristic parameters obtained are functionally transformed, and a synthetic speech expressing the emotion of "anger" is generated by the synthetic speech converting means. circuit.
(2)文字列または記号列を入力するための入力手段と
、 前記入力手段によって入力された文字列または記号列を
読み列に変換するをための読み列変換手段と、 前記読み列変換手段によって変換された読み列を合成音
声に変換するための合成音声変換手段と、前記合成音声
変換手段によって変換された合成音声をアナログ信号に
変換するD/A変換手段とを備えた音声合成装置におい
て、 特徴パラメータのうちの基本周波数、時間構造および振
幅パラメータを関数変換し、前記合成音声変換手段によ
って「怒り」の情緒の表現された合成音を生成すること
を特徴とする、合成音声情緒付与回路。
(2) an input means for inputting a character string or a symbol string; a pronunciation conversion means for converting the character string or symbol string input by the input means into a pronunciation; and a pronunciation conversion means by the pronunciation conversion means. A speech synthesis device comprising a synthetic speech converting means for converting the converted pronunciation into synthetic speech, and a D/A converting means for converting the synthetic speech converted by the synthetic speech converting means into an analog signal, A synthesized speech emotion imparting circuit characterized in that a fundamental frequency, a time structure, and an amplitude parameter among characteristic parameters are functionally converted, and a synthesized voice expressing an emotion of "anger" is generated by the synthesized speech converting means.
JP26017088A 1988-10-14 1988-10-14 Synthetic voice emotion imparting circuit Pending JPH02106799A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26017088A JPH02106799A (en) 1988-10-14 1988-10-14 Synthetic voice emotion imparting circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26017088A JPH02106799A (en) 1988-10-14 1988-10-14 Synthetic voice emotion imparting circuit

Publications (1)

Publication Number Publication Date
JPH02106799A true JPH02106799A (en) 1990-04-18

Family

ID=17344296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26017088A Pending JPH02106799A (en) 1988-10-14 1988-10-14 Synthetic voice emotion imparting circuit

Country Status (1)

Country Link
JP (1) JPH02106799A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980065482A (en) * 1997-01-10 1998-10-15 김광호 Speech synthesis method to change the speaking style
US6263202B1 (en) 1998-01-28 2001-07-17 Uniden Corporation Communication system and wireless communication terminal device used therein
WO2002073594A1 (en) * 2001-03-09 2002-09-19 Sony Corporation Voice synthesis device
JP2011242470A (en) * 2010-05-14 2011-12-01 Nippon Telegr & Teleph Corp <Ntt> Voice text set creating method, voice text set creating device and voice text set creating program
CN108648768A (en) * 2018-04-16 2018-10-12 广州市菲玛尔咨询服务有限公司 A kind of consulting recommendation method and its management system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60144799A (en) * 1984-01-09 1985-07-31 日本電気株式会社 Automatic interpreting apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60144799A (en) * 1984-01-09 1985-07-31 日本電気株式会社 Automatic interpreting apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980065482A (en) * 1997-01-10 1998-10-15 김광호 Speech synthesis method to change the speaking style
US6263202B1 (en) 1998-01-28 2001-07-17 Uniden Corporation Communication system and wireless communication terminal device used therein
WO2002073594A1 (en) * 2001-03-09 2002-09-19 Sony Corporation Voice synthesis device
JP2011242470A (en) * 2010-05-14 2011-12-01 Nippon Telegr & Teleph Corp <Ntt> Voice text set creating method, voice text set creating device and voice text set creating program
CN108648768A (en) * 2018-04-16 2018-10-12 广州市菲玛尔咨询服务有限公司 A kind of consulting recommendation method and its management system

Similar Documents

Publication Publication Date Title
Dutoit et al. The MBROLA project: Towards a set of high quality speech synthesizers free of use for non commercial purposes
JP3294604B2 (en) Processor for speech synthesis by adding and superimposing waveforms
US6785652B2 (en) Method and apparatus for improved duration modeling of phonemes
JPH0677200B2 (en) Digital processor for speech synthesis of digitized text
Okamoto et al. Neural speech-rate conversion with multispeaker WaveNet vocoder
JPH02106799A (en) Synthetic voice emotion imparting circuit
US6829577B1 (en) Generating non-stationary additive noise for addition to synthesized speech
JP2001242882A (en) Method and device for voice synthesis
JPH05307395A (en) Voice synthesizer
US20060178873A1 (en) Method of synthesis for a steady sound signal
Sawusch Acoustic analysis and synthesis of speech
JPH02236600A (en) Circuit for giving emotion of synthesized voice information
JP3113101B2 (en) Speech synthesizer
JPH07261798A (en) Voice analyzing and synthesizing device
JPH05281984A (en) Method and device for synthesizing speech
JPH09179576A (en) Voice synthesizing method
JP2658109B2 (en) Speech synthesizer
JPH02293900A (en) Voice synthesizer
JPS5880699A (en) Voice synthesizing system
JPH06250685A (en) Voice synthesis system and rule synthesis device
JPH01262598A (en) Utterance speed control circuit for voice synthesizing device
Lam et al. Interpolating V/UV mixture functions of a harmonic model for concatenative speech synthesis
JPH06308999A (en) Voice synthesizing device
JPH0833749B2 (en) Sound synthesis method
JPH01197799A (en) Articulation and sound source parameter producing method for sound synthesizer