JPH02106799A - Synthetic voice emotion imparting circuit - Google Patents
Synthetic voice emotion imparting circuitInfo
- Publication number
- JPH02106799A JPH02106799A JP26017088A JP26017088A JPH02106799A JP H02106799 A JPH02106799 A JP H02106799A JP 26017088 A JP26017088 A JP 26017088A JP 26017088 A JP26017088 A JP 26017088A JP H02106799 A JPH02106799 A JP H02106799A
- Authority
- JP
- Japan
- Prior art keywords
- parameters
- speech
- converting
- emotion
- sound source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 21
- 238000006243 chemical reaction Methods 0.000 claims abstract description 15
- 230000015572 biosynthetic process Effects 0.000 claims description 19
- 238000003786 synthesis reaction Methods 0.000 claims description 19
- 230000005236 sound signal Effects 0.000 claims description 7
- 230000003595 spectral effect Effects 0.000 abstract description 9
- 230000002194 synthesizing effect Effects 0.000 abstract description 4
- 230000033764 rhythmic process Effects 0.000 abstract 1
- 230000000877 morphologic effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 238000010183 spectrum analysis Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 2
- 206010033799 Paralysis Diseases 0.000 description 1
- 239000002969 artificial stone Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 235000021419 vinegar Nutrition 0.000 description 1
- 239000000052 vinegar Substances 0.000 description 1
Abstract
Description
【発明の詳細な説明】
U産業上の利用分野コ
この発明は合成音声情緒付り9回路に関し、特に、分析
合成装置や規則合成装置のような音声合成装置において
、聴取者にとって自然で聞きやすい「情緒・感情」を持
った合成音を出力するような合成音声情緒イ・jJjl
路に関する。[Detailed Description of the Invention] U Industrial Field of Application This invention relates to a nine-circuit with synthesized speech emotion, particularly in a speech synthesizer such as an analysis synthesizer or a rule synthesizer, which is natural and easy to hear for the listener. Synthetic voice emotion that outputs a synthesized voice with "emotions/feelings"
related to the road.
[従来の技術および発明か解決しようとする課題]従来
の音声合成装置の一例として、たとえば特開昭62−1
38898号公報に記載されているような「音声規則合
成ツノ−式」か知られている。この音声規則合成h°式
は、11本語の疑問文、命令文。[Prior art and problems to be solved by the invention] As an example of a conventional speech synthesis device, for example, Japanese Patent Laid-Open No. 62-1
``Speech rule synthesis horn type'' as described in Japanese Patent No. 38898 is known. This phonetic rule synthesis h° formula consists of 11 questions and commands.
禁市文1願望文、感動文なとの文章タイプ情報に基つい
て、それに勾応するイントネーンヨンを臨界制動2次線
形系の応答関数により記述される基本周波数時間変化パ
ターンを生成するようにしたものである。Kinichi Sentence 1 Based on the sentence type information such as desire sentences and inspirational sentences, the corresponding intonation is generated to generate a fundamental frequency time change pattern described by the response function of a critical damped quadratic linear system. It is.
しかしなから、このような音声規則合成方式において、
単に基本周波数パターンを変えるだけでは、人間の音声
か持つような細かい情緒表現を十分に行なうことかでき
す、合成音を聴取したとき、不自然さか残るという欠点
かあった。However, in such a speech rule synthesis method,
By simply changing the fundamental frequency pattern, it is not possible to fully express the detailed emotional expressions that human voices have, but when listening to the synthesized sound, it still sounds unnatural.
それゆえに、この発明の主たる目的は、音声合成装置i
!7において、自然な「怒り」の感情を持った合成音声
をノ1成できるような合成音声情緒fζjリー回路を提
供することである。Therefore, the main object of the present invention is to
! 7, it is an object of the present invention to provide a synthesized speech emotion fζj Lee circuit that can generate synthetic speech having a natural emotion of "anger."
[課題を解決するための手段]
第12iI求項にかかる発明は、ディジタルB J”j
f+j号を入力するための入力手段と、入力されたデ
ィジタル音声信号を分析して特徴パラメータを抽出する
分析手段と、分析手段によって抽出された特徴パラメー
タを合成音j4iに変換するための合成石川変換手段と
、変換された合成8f!1をアナログ信号二号に変換し
て出力するD/A礎換手段とを備えた音声合成装置にお
いて、分析手段によって抽出された特徴パラメータのう
ちの基本周波数1時間)1η造および振幅パラメータを
関数変換し、合成量tI変換手段によって1怒り」の情
緒の表現されたご成金を生成するように合成音声情緒イ
・I”7回路をh′11成したものである。[Means for solving the problem] The invention according to claim 12iI is a digital BJ”j
an input means for inputting f+j, an analysis means for analyzing the input digital audio signal and extracting feature parameters, and a synthetic Ishikawa transformation for converting the feature parameters extracted by the analysis means into a synthesized sound j4i. Means and converted synthesis 8f! In a speech synthesizer equipped with a D/A conversion means for converting 1 to an analog signal No. 2 and outputting it, the fundamental frequency 1 time) 1η structure and amplitude parameter of the characteristic parameters extracted by the analysis means are functioned. 7 circuits are constructed so as to convert the synthesized voice emotion tI and generate a message expressing the emotion of 1 anger by means of the synthesized amount tI conversion means.
第2.情求項にかかる発明は、文字列または記−3列を
入力するための入力手段と、入力された文字列または記
号列を読み列に変換するための読み列変換手段と、変換
された読み列を合成音声に変換するための合成音声変換
手段と、変換された合成音用をアナログ信号に変換する
D/A?換手段とを6jkえた召Ti合成装置において
、特徴パラメータのうちの基本周波数 11.ff間措
造および振幅パラメタを関数変換し、合成音、ji変換
手段によって「怒り」の情緒の表現された合成石を生成
するように合成音パー情緒(’J ”7回路を構成した
ものである。Second. The invention related to the information item includes an input means for inputting a character string or a notation, a reading sequence conversion means for converting the input character string or symbol string into a reading string, and a converted reading string. Synthetic speech converting means for converting the string into synthetic speech, and D/A converting the converted synthetic speech into analog signals. 11. The fundamental frequency of the characteristic parameters in the Ti synthesis device with 6jk additional conversion means. The synthesized sound per emotion ('J'' is composed of 7 circuits so as to generate a synthetic stone expressing the emotion of "anger" by functionally converting the ff interval and amplitude parameters, and using the synthesized sound and ji conversion means. be.
[作Ji月
この発明にかかる情緒イ・111回路は、音声信号また
は変換された読み列をスペクトルに関するパラメータに
変換し、一方で音源に関するパラメータを抽出または牛
j戊し、この音源パラメータのうちの基本周波数1時間
(IXi造および振幅パラメータを制御した後出力する
。[Made in Japan] The emotion-111 circuit according to the present invention converts an audio signal or a converted pronunciation sequence into parameters related to a spectrum, while extracting or extracting parameters related to a sound source, and extracts or extracts parameters related to a sound source. The basic frequency is output for 1 hour (after controlling the IXi structure and amplitude parameters).
[発明の実施例コ 第1図はこの発明の一実施例の概略ブロック図である。[Embodiments of the invention] FIG. 1 is a schematic block diagram of an embodiment of the present invention.
まず、第1図を参照して、この発明の一実施例の構成と
ともに動作について説明する。ディジタル音声信号入力
部]にはディジモル音11信号が入力され、そのデイン
タル8F!1信号は音源分析部2とスペクトル分析部3
にJjえられる。スペクトル分析部3はディジタル音声
イ11号を、音韻性情報を担ったスペクトルパラメータ
に変換する。このスペクトルとしては、たとえば斉藤・
11月II著“音声情報処理の規則” (オーム月発行
)に記載されているようなPARCOR係数なとがある
。なお、このPARCOR係数はスペクトルパラメータ
の一例であり、この発明では特にこれに限定されるもの
ではない。First, with reference to FIG. 1, the structure and operation of an embodiment of the present invention will be described. Digimol sound 11 signal is input to the digital audio signal input section], and the digital 8F! 1 signal is sent to the sound source analysis section 2 and the spectrum analysis section 3
I can get JJ. The spectrum analysis section 3 converts the digital voice number 11 into spectral parameters carrying phonological information. This spectrum includes, for example, Saito and
There is a PARCOR coefficient as described in "Rules for Audio Information Processing" by November II (published by Ohm Month). Note that this PARCOR coefficient is an example of a spectral parameter, and the present invention is not particularly limited to this.
一方、音源分析部2は入力されたディジタル音声信号か
ら音源情報である基本周波数や振幅情報などの音源パラ
メータを抽出する。音源9111部2によって抽出され
た音源パラメータは情緒(J’ ”j回路4を介して合
成部5にり、えられ、スペクトル分析部3によって分析
されたスペクトルパラメータも合成部5に1jえられる
。合成部5はスペクトルパラメータおよび音源パラメー
タを用いて合成音声を生成する。On the other hand, the sound source analysis section 2 extracts sound source parameters such as fundamental frequency and amplitude information, which are sound source information, from the input digital audio signal. The sound source parameters extracted by the sound source 9111 section 2 are sent to the synthesis section 5 via the emotion circuit 4, and the spectral parameters analyzed by the spectrum analysis section 3 are also sent to the synthesis section 5. The synthesis unit 5 generates synthesized speech using the spectral parameters and the sound source parameters.
すなわち、合成部5では、前述の基本周波数の逆数(ヒ
ツチ周期)の間隔で中位フレーム内のスベクトルパラメ
ータを繰返し、名声パラメータの列に変換する。この合
成部5としては、たとえばJ、D、Markel a
nd A、H,GrayJrF5、鈴木訳“音声の線
形〕Zdlす“ (コロナト1発行)に記載されている
ような2乗痺2に格子形音声rり成フィルタを用いて、
前述のスペクI・ルパラメータおよび8諒パラメータに
より名声波形を合成する。なお、2乗算器格子形昌声劇
成フィルタは一例てあ一ノで、他のgパ1合成手段を用
いるようにしてしよい。合成されたiHf’j波形はD
/A変換部6を介して一昌゛メ1として出力される。That is, the synthesizing unit 5 repeats the vector parameters in the intermediate frame at intervals of the reciprocal of the fundamental frequency (hitchi cycle) and converts them into a string of fame parameters. This synthesis section 5 includes, for example, J, D, Markel a.
nd A, H, GrayJrF5, using a lattice-shaped speech synthesis filter on the square paralysis 2 as described in Suzuki translation "Speech Linearity] Zdl" (published by Coronato 1),
A fame waveform is synthesized using the above-mentioned spectrum parameters and eight parameters. Note that the square multiplier lattice type voice dramatization filter is only one example, and other g/P synthesis means may be used. The synthesized iHf'j waveform is D
/A converter 6 and output as Issho-me 1.
次に、前述の酢パi合成の情緒付lj動作についてより
具体的に説明する。情1[・1す9回路4は、音源分F
ji部2から出力された召−源パラメータのうち、基本
周波数1時間t++1’*造および振幅パラメータに対
して関数変換を施し、合成部5においてこれら音源パラ
メータとスペクトルパラメータにより音声波形を合成す
ることによって実現する。Next, the emotion-adding lj operation of the above-mentioned vinegar pie i synthesis will be explained in more detail. Information 1[・1su9 circuit 4 is the sound source part F
Among the source parameters output from the ji section 2, the fundamental frequency 1 time t++1'* structure and the amplitude parameter are subjected to functional transformation, and the synthesis section 5 synthesizes a speech waveform using these sound source parameters and spectral parameters. Realized by
すなわち、名源分+11部2から出力された音源パラメ
ータのうち、)、(本周波数f。(1)にλ・jして、
たとえば
fo ’ (t) −fo (t) −1−lr
(t)の変換式により、新しい基本周波数f’ (t
)を決定する。ここで、α(1)は、各時刻における基
本周波数の増分を表わす定数である。ここに挙げた関数
は一例であり、この発明を限定するものではない。また
、時間構造については、分+17フレームの時系列を、
たとえば、北原、東0考、“音声の時間構造と伸縮特性
” (日本音響学会講演論文集(昭和63年3月発行)
)に記載されているようなLPCケプストラム回帰係数
を用いたスペクトル変化率に依存した非線形圧縮を行な
わせる。In other words, among the sound source parameters output from the source part + 11 section 2, ), (main frequency f. (1) is given λ j,
For example fo ' (t) -fo (t) -1-lr
(t), the new fundamental frequency f' (t
) to determine. Here, α(1) is a constant representing the increment of the fundamental frequency at each time. The functions listed here are examples and do not limit the invention. Also, regarding the time structure, the time series of minutes + 17 frames is
For example, Kitahara, Higashi Oko, “Temporal Structure and Stretching Characteristics of Speech” (Proceedings of the Acoustical Society of Japan (published March 1986))
) performs nonlinear compression depending on the rate of spectral change using LPC cepstral regression coefficients.
もちろん伸縮の方法はこれに限定されるものではない。Of course, the method of expansion and contraction is not limited to this.
一方、振幅パラメータP (L)についても、たとえば
、
P’ (t)=P (t)xβ(1)の変換式により
、新しい振幅パラメータP’ (t)を決定する。こ
こでβ(1)は、各時刻における振幅の増分を表わす定
数である。この場合ももちろん任意の変換関数を用いる
ことができる。On the other hand, regarding the amplitude parameter P (L), a new amplitude parameter P' (t) is determined, for example, using the conversion formula P' (t)=P (t) x β (1). Here, β(1) is a constant representing the amplitude increment at each time. Of course, any conversion function can be used in this case as well.
上述のごとくして変換された新しい音源パラメタは、ス
ペクトルパラメータとともに合成部5に送られ、合成音
声波形となってD/A変換部6を経て出力される。The new sound source parameters converted as described above are sent to the synthesis section 5 together with the spectral parameters, and are outputted via the D/A conversion section 6 as a synthesized speech waveform.
第2図はこの発明の他の実施例を示す概略ブロック図で
ある。第2図において、入力端子7には図示しないOC
Rやキーボードなどの入力手段が接続され、この人カー
丁段から文字列または記号列で表現された文−r;<や
!lj li!iなとか入力される。入力された文へt
や単語は、形態素解析部8によって形態素辞書部9に記
憶されている内:ゴに基づいて、形態素の列に変換され
る。形態素辞書部9は少なくとも“読み“品詞“を記憶
しており、入力された文゛了′列または記号列に対して
、たとえば、相沢、江J+;i著゛計算機によるかな漢
字変換”、NHIく技術(V+究、25−5に記載され
ているような最長−成仏な古の手段を用いて形態素への
分割を行なう。この最長−成仏は、形態素分割のための
手段の一例であり、これに限定されるものではない。FIG. 2 is a schematic block diagram showing another embodiment of the invention. In Fig. 2, an OC (not shown) is connected to the input terminal 7.
An input means such as R or a keyboard is connected, and the sentence −r;<ya! lj li! Something like "i" is input. To the input sentence
The morphological analysis unit 8 converts the `` and `` words into a string of morphemes based on the ``chu:go'' stored in the morphological dictionary unit 9 . The morphological dictionary section 9 stores at least the "pronunciation" and "part of speech", and for the input sentence string or symbol string, for example, "Kana-Kanji Conversion by Computer" by Aizawa and Jiang J +; Dividing into morphemes is performed using the ancient method of morpheme division, such as the technique (V + Study, 25-5). It is not limited to.
形態素解析部r部8によって解+11された11ニ態素
はピッチ制御処理部10に与えられ、アクセンl−XI
?古部11およびアクセント結合規則部]2に記憶され
ている内容に基づいて、−8の高低を表わす基本周波数
成分が決定される。基本周波数成分の付lうされた形態
素列は、金貨パラメータ合成部13に与えられ、音素片
スY書部14に記憶されている内容に基づいて、音素の
パラメータの列に変換される。The 11 morphemes solved by +11 by the morphological analysis section r section 8 are given to the pitch control processing section 10, and
? Based on the contents stored in the old part 11 and the accent combination rule part]2, a fundamental frequency component representing the height of -8 is determined. The morpheme string with the fundamental frequency component attached is given to the gold coin parameter synthesis section 13, and is converted into a string of phoneme parameters based on the contents stored in the phoneme segment Y writing section 14.
音素J−1辞書部14は音素片、すなわち、文華や単語
を構成している音素またはcv、vcなとの音韻連鎖を
パラメータとして保持しており、形態素を構成する音素
またはcv、vcなとの音韻の順に従って該音素片を配
列し、−上述のピッチ周期の間隔で単位フレーム内のパ
ラメータを繰返し音声パラメータの列に変換する。この
ときに、\I尺静平叙文の基本周波数1時間構造、振幅
パラメータのそれぞれに対して、たとえば前述の関数変
換を施し、新しいδ源パラメータとしてピッチ制御処理
部]0に出力する。以下、合成部16およびD/A変換
部17は第1図に示した実施例と同様の動f’lをiノ
なう。The phoneme J-1 dictionary unit 14 holds phoneme fragments, that is, phonemes constituting bunka or words, or phoneme chains such as cv, vc, etc., as parameters, and phonemes constituting morphemes or cv, vc, etc. The phoneme segments are arranged in accordance with the phoneme order, and the parameters within the unit frame are repeatedly converted into a string of speech parameters at intervals of the above-mentioned pitch period. At this time, the fundamental frequency 1-temporal structure and amplitude parameters of the \I scale-declarative sentence are each subjected to, for example, the above-mentioned function transformation, and are output as new δ source parameters to the pitch control processing unit]0. Thereafter, the synthesizing section 16 and the D/A converting section 17 perform the same operation f'l as in the embodiment shown in FIG.
[発明の効用コ
以上のように、第] +:1’I求項にかかる発明は、
入力されたディジタル音小信号を分析して特徴パラメー
タを抽出し、抽出された特徴パラメータのうちの基本周
波数9時間構造および振幅といった韻律の3要素のみを
制御することにより、「怒り」を表現するようにしたの
で、音韻性か大ぎく歪むことなく自然な情緒を持った音
声を得ることかでき、さらにその強度を制御することも
できる。[Efficacy of the invention As mentioned above, the invention according to claim 1'I is:
It analyzes the input digital sound small signal to extract feature parameters, and expresses "anger" by controlling only the three elements of prosody, such as the fundamental frequency, temporal structure, and amplitude of the extracted feature parameters. As a result, it is possible to obtain a voice with natural emotion without significantly distorting the phonology, and it is also possible to control its intensity.
第2請求項にかかる発明では、入力された文字列または
記号列を読み列に変換し、変換された読み列を合成音声
に変換し、第1 i!:’I求項と同様にして韻律の′
3要素のみを制御ずろことにより、音韻性か人きく歪む
ことな(自然な情緒を持った音声を?l−Jることかで
き、さらにその強度を制御することもてきる。In the invention according to the second claim, the input character string or symbol string is converted into a pronunciation sequence, the converted pronunciation sequence is converted into synthesized speech, and the first i! :'In the same way as the I term, the prosodic '
By controlling only the three elements, it is possible to produce speech with natural emotion without distorting the phonology, and it is also possible to control its intensity.
【図面の簡単な説明】
第1図はこの発明の一実施例のlI託略ブロック図であ
る。第2図はこの発明の他の実施例の概略ブ0ツク図で
ある。
図において、]はディジタル音声信号入力部、2は音源
分析部、3はスペクトル分tli部、4.]5は情緒付
11回路、5.]6は合成部、6.17はD/A変換部
、7は入力端r・、8は形態素解析部、9は形態素辞書
部、10はピッチ制■1処理部、1−1はアクセント辞
書部、12はアクセント結合規則部、]3は音声パラメ
ータ合成部、14は音素片辞書部を示す。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic block diagram of an embodiment of the present invention. FIG. 2 is a schematic block diagram of another embodiment of the invention. In the figure, ] is a digital audio signal input section, 2 is a sound source analysis section, 3 is a spectrum tli section, 4. ] 5 is 11 circuits with emotions, 5. ] 6 is a synthesis unit, 6.17 is a D/A conversion unit, 7 is an input terminal r, 8 is a morphological analysis unit, 9 is a morphological dictionary unit, 10 is a pitch system ■1 processing unit, 1-1 is an accent dictionary 12 is an accent combination rule section, ] 3 is a speech parameter synthesis section, and 14 is a phoneme dictionary section.
Claims (2)
、 前記入力手段によって入力されたディジタル音声信号を
分析して特徴パラメータを抽出する分析手段と、 前記分析手段によって抽出された特徴パラメータを合成
音声に変換するための合成音声変換手段と、 前記合成音声変換手段によって変換された合成音声をア
ナログ信号に変換して出力するD/A変換手段とを備え
た音声合成装置において、 前記分析手段によって抽出された特徴パラメータのうち
の基本周波数、時間構造および振幅パラメータを関数変
換し、前記合成音声変換手段によって「怒り」の情緒の
表現された合成音を生成することを特徴とする、合成音
声情緒付与回路。(1) An input means for inputting a digital audio signal; an analysis means for analyzing the digital audio signal input by the input means to extract feature parameters; and a synthesized speech using the feature parameters extracted by the analysis means. A speech synthesis device comprising a synthetic speech converting means for converting into an analog signal, and a D/A converting means for converting the synthetic speech converted by the synthetic speech converting means into an analog signal and outputting the synthesized speech extracted by the analyzing means. Synthetic speech emotion imparting characterized in that the fundamental frequency, time structure and amplitude parameters among the characteristic parameters obtained are functionally transformed, and a synthetic speech expressing the emotion of "anger" is generated by the synthetic speech converting means. circuit.
、 前記入力手段によって入力された文字列または記号列を
読み列に変換するをための読み列変換手段と、 前記読み列変換手段によって変換された読み列を合成音
声に変換するための合成音声変換手段と、前記合成音声
変換手段によって変換された合成音声をアナログ信号に
変換するD/A変換手段とを備えた音声合成装置におい
て、 特徴パラメータのうちの基本周波数、時間構造および振
幅パラメータを関数変換し、前記合成音声変換手段によ
って「怒り」の情緒の表現された合成音を生成すること
を特徴とする、合成音声情緒付与回路。(2) an input means for inputting a character string or a symbol string; a pronunciation conversion means for converting the character string or symbol string input by the input means into a pronunciation; and a pronunciation conversion means by the pronunciation conversion means. A speech synthesis device comprising a synthetic speech converting means for converting the converted pronunciation into synthetic speech, and a D/A converting means for converting the synthetic speech converted by the synthetic speech converting means into an analog signal, A synthesized speech emotion imparting circuit characterized in that a fundamental frequency, a time structure, and an amplitude parameter among characteristic parameters are functionally converted, and a synthesized voice expressing an emotion of "anger" is generated by the synthesized speech converting means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26017088A JPH02106799A (en) | 1988-10-14 | 1988-10-14 | Synthetic voice emotion imparting circuit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26017088A JPH02106799A (en) | 1988-10-14 | 1988-10-14 | Synthetic voice emotion imparting circuit |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH02106799A true JPH02106799A (en) | 1990-04-18 |
Family
ID=17344296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26017088A Pending JPH02106799A (en) | 1988-10-14 | 1988-10-14 | Synthetic voice emotion imparting circuit |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH02106799A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19980065482A (en) * | 1997-01-10 | 1998-10-15 | 김광호 | Speech synthesis method to change the speaking style |
US6263202B1 (en) | 1998-01-28 | 2001-07-17 | Uniden Corporation | Communication system and wireless communication terminal device used therein |
WO2002073594A1 (en) * | 2001-03-09 | 2002-09-19 | Sony Corporation | Voice synthesis device |
JP2011242470A (en) * | 2010-05-14 | 2011-12-01 | Nippon Telegr & Teleph Corp <Ntt> | Voice text set creating method, voice text set creating device and voice text set creating program |
CN108648768A (en) * | 2018-04-16 | 2018-10-12 | 广州市菲玛尔咨询服务有限公司 | A kind of consulting recommendation method and its management system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60144799A (en) * | 1984-01-09 | 1985-07-31 | 日本電気株式会社 | Automatic interpreting apparatus |
-
1988
- 1988-10-14 JP JP26017088A patent/JPH02106799A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60144799A (en) * | 1984-01-09 | 1985-07-31 | 日本電気株式会社 | Automatic interpreting apparatus |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19980065482A (en) * | 1997-01-10 | 1998-10-15 | 김광호 | Speech synthesis method to change the speaking style |
US6263202B1 (en) | 1998-01-28 | 2001-07-17 | Uniden Corporation | Communication system and wireless communication terminal device used therein |
WO2002073594A1 (en) * | 2001-03-09 | 2002-09-19 | Sony Corporation | Voice synthesis device |
JP2011242470A (en) * | 2010-05-14 | 2011-12-01 | Nippon Telegr & Teleph Corp <Ntt> | Voice text set creating method, voice text set creating device and voice text set creating program |
CN108648768A (en) * | 2018-04-16 | 2018-10-12 | 广州市菲玛尔咨询服务有限公司 | A kind of consulting recommendation method and its management system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dutoit et al. | The MBROLA project: Towards a set of high quality speech synthesizers free of use for non commercial purposes | |
JP3294604B2 (en) | Processor for speech synthesis by adding and superimposing waveforms | |
US6785652B2 (en) | Method and apparatus for improved duration modeling of phonemes | |
JPH0677200B2 (en) | Digital processor for speech synthesis of digitized text | |
Okamoto et al. | Neural speech-rate conversion with multispeaker WaveNet vocoder | |
JPH02106799A (en) | Synthetic voice emotion imparting circuit | |
US6829577B1 (en) | Generating non-stationary additive noise for addition to synthesized speech | |
JP2001242882A (en) | Method and device for voice synthesis | |
JPH05307395A (en) | Voice synthesizer | |
US20060178873A1 (en) | Method of synthesis for a steady sound signal | |
Sawusch | Acoustic analysis and synthesis of speech | |
JPH02236600A (en) | Circuit for giving emotion of synthesized voice information | |
JP3113101B2 (en) | Speech synthesizer | |
JPH07261798A (en) | Voice analyzing and synthesizing device | |
JPH05281984A (en) | Method and device for synthesizing speech | |
JPH09179576A (en) | Voice synthesizing method | |
JP2658109B2 (en) | Speech synthesizer | |
JPH02293900A (en) | Voice synthesizer | |
JPS5880699A (en) | Voice synthesizing system | |
JPH06250685A (en) | Voice synthesis system and rule synthesis device | |
JPH01262598A (en) | Utterance speed control circuit for voice synthesizing device | |
Lam et al. | Interpolating V/UV mixture functions of a harmonic model for concatenative speech synthesis | |
JPH06308999A (en) | Voice synthesizing device | |
JPH0833749B2 (en) | Sound synthesis method | |
JPH01197799A (en) | Articulation and sound source parameter producing method for sound synthesizer |