JP3805065B2 - In-car speech synthesizer - Google Patents

In-car speech synthesizer Download PDF

Info

Publication number
JP3805065B2
JP3805065B2 JP13259797A JP13259797A JP3805065B2 JP 3805065 B2 JP3805065 B2 JP 3805065B2 JP 13259797 A JP13259797 A JP 13259797A JP 13259797 A JP13259797 A JP 13259797A JP 3805065 B2 JP3805065 B2 JP 3805065B2
Authority
JP
Japan
Prior art keywords
data
character string
prosody
vehicle
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP13259797A
Other languages
Japanese (ja)
Other versions
JPH10319992A (en
Inventor
俊孝 大和
博之 藤本
修 石川
伸之 片江
晋太 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Fujitsu Ltd
Original Assignee
Denso Ten Ltd
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd, Fujitsu Ltd filed Critical Denso Ten Ltd
Priority to JP13259797A priority Critical patent/JP3805065B2/en
Publication of JPH10319992A publication Critical patent/JPH10319992A/en
Application granted granted Critical
Publication of JP3805065B2 publication Critical patent/JP3805065B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は情報センター側から走行中の車両側で受信した文字列データを韻律パターンにはめ込んで音声に合成する車載用音声合成装置に関し、特に、文字列データの追加、変更に対して車載端末側での音声合成装置の負担軽減に関する。
【0002】
【従来の技術】
図4は従来の車載用音声合成装置を示す図である。本図に示す如く、情報センター側では、はめ込み合成データ生成部1で生成されたデータが変調されて送信機2を経由して車載端末側に送信される。送信データは「文章番号+文字列(単語読み+アクセント)」で構成される。ここに、文字列(単語読み+アクセント)は具体的には単語1(単語読み+アクセント)+単語2(単語読み+アクセント)+…+単語n(単語読み+アクセント)」として構成される。さらに、文章番号は文字列にイントネーションを付与する韻律パターンの情報を表すために送出される番号である。つまり、情報センター側のはめ込み合成データ生成部1は、送信先の車載端末側での言語処理の負担を軽減するために、韻律パターンに文字列を構成する複数の単語(単語読み及びアクセント)を自由に置き換え、はめ込み可能にする送信データを生成する。
【0003】
一方、車載端末側では、車両に搭載された受信機3で送信データが受信され、復調され一時的に入力バッファ3Aに蓄えられる。韻律パターン記憶部4は複数の韻律パターンを記憶し、入力データのうち「文章番号」を入力し、且つ文章番号に対応して韻律パターンを出力する。韻律制御部5は入力データのうち「文字列(単語読み+アクセント)」を入力し、韻律パターン記憶部4から韻律パターンを入力し、単語1(単語読み+アクセント)+単語2(単語読み+アクセント)+…+単語n(単語読み+アクセント)を韻律パターンにはめ込む韻律制御を行う。
【0004】
なお、アクセントは単語固有のピッチパターン(ピッチ周波数の時間的な変化)であり、イントネーションは呼気段落におけるピッチパターンである。
図5は図4の韻律パターン記憶部4に記憶される韻律パターン例を示す図である。本図に示す如く、文章例No.1の「今日は(単語1)、晴れです(単語2)」に対して、2つのイントネーションを有する韻律パターンAが記憶される。韻律制御部5では単語1、単語2を韻律パターンAにはめ込む韻律制御が行われる。
【0005】
文章例No.2の「今日は(単語1)、午前晴れです(単語3)」に対して、上記とは異なる2つのイントネーションを有する韻律パターンBが記憶される。韻律制御部5では単語1、単語3を韻律パターンBにはめ込む韻律制御が行われる。
図4に戻り、音素片辞書部6は自然音声から得られた一定のピッチ周波数を有する複数の音声波形素片を波形辞書に登録する。
【0006】
音声生成処理部7は韻律制御部5で生成された文字列の各音素に対して音素片辞書部6より音声波形を選択し、アクセント、韻律パターンのピッチパターンに対して音声波形を重ね合わせたり、繰り返したり、間引いたりして音声を合成してスピーカに出力させる。
【0007】
【発明が解決しようとする課題】
しかしながら、上記車載用音声合成装置では、例えば、図5の下段の如く、情報センター側から追加の文字列「今日は(単語1)、午前晴れで(単語3)、午後曇りです(単語3)」が送信され、韻律パターン記憶部4に、このような文章例に対しての如く、3つの異なるイントネーションを有する韻律パターンが記憶されていない場合には、新たな韻律パターンを記憶する必要がある。新たな韻律パターンが無いと、例えば、韻律パターンBを使用すると、「午後曇りです(単語3)」の部分はイントネーション無しで音声合成されることになり、音質の低下を招くためである。車載端末側では多数の車両に音声合成装置が使用されているので、情報センター側で頻繁な文章のデータ追加、データ変更があると、車載端末側では全ての車両に対して新たな韻律パターンを韻律パターン記憶部4に頻繁に記憶させる必要があるが、これは事実上処理不可能であるという問題がある。
【0008】
したがって、本発明は、上記問題点に鑑み、情報センター側で送信データを任意に変えても、車載端末側では新たな韻律パターンのデータ追加、変更の処理を必要とせずに音声合成が可能になる車載用音声合成装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明は、前記問題点を解決するために、情報センター側から車載端末側に送信される文字列データを音声に合成する車載用音声合成装置において、前記情報センター側に、前記文字列データを構成する複数の単語の読み及び該単語のアクセントと共に、呼気段落における周波数の時間的な変化情報である韻律パターンを生成するはめ込み合成データ生成部と、前記はめ込み合成データ生成部によって生成された、単語の読み及びアクセントを含む文字列データと韻律パターンを含む韻律パターンデータとを送信する送信部と、が設けられ、前記車載端末側に、前記情報センター側から送信された、前記文字列データと前記韻律パターンデータとを受信する受信部と、前記受信部によって受信された、前記韻律パターンに前記単語の読み及び前記アクセントをはめ込んで韻律制御を行う韻律制御部と、が設けられることを特徴とする。この手段により、はめ込み対象の文章追加、改良を車載端末側の音声合成装置で行うことが不要となり、情報センター側で一括して行えるため、簡単に文章追加、改良が可能になる。
【0010】
前記文字列データを呼気段落毎に分割して音声合成を行うと共に、前記はめ込み合成データ生成部は、送信データを文章単位で送信するか呼気段落単位で送信するかを制御する制御コマンドを送信データに付加し、前記韻律制御部は、受信した制御コマンドに応じて韻律制御を行う。この手段により、音声合成以外の通信データの合間に効率良く音声合成のためのデータ送信が可能になる。
【0011】
前記韻律制御部は、呼気段落毎に受信した前記韻律パターン、前記複数の単語の読み及び前記単語のアクセントに関するデータが一時的に蓄えられたものについて受信終了時点で韻律制御を行って音声合成の処理を開始させる。この手段により、一時的に蓄えられたものについて韻律制御を行うので、車載端末側の入力バッファ容量を小さくでき、且つ合成音を途切らすことなく生成可能になる。
【0012】
前記情報センター側から送信される前記文字列データに対してさらに音声種別コードと、該音声種別コードに相当する韻律パラメータとを送信し、前記車載端末側では前記音声種別コード、前記韻律パラメータに対応する音声を合成する。この手段により、情報センター側の意図する音声種類で音声合成が可能になる。
前記車載端末側から前記情報センター側に音声種別の選択を要求する。この手段により、車載端末側の意図する音声種類で音声合成が可能になる。
【0013】
【発明の実施の形態】
以下本発明の実施の形態について図面を参照して説明する。
図1は本発明に係る車載用音声合成装置の例を説明する図であり、図2は情報センター側からの送信データの例を説明する図である。図1に示す如く、情報センター側では、はめ込み合成データ生成部10は漢字かな混じり文の文字列である入力情報を解析して単語に分割し、単語の読み、アクセントを付与して発音記号列に変換する情報解析部11と、該情報解析部11に文法情報、読み、アクセント情報を与える単語辞書部12と、前記入力情報に対して予めイントネーションである韻律パターンを記憶する韻律記憶部13と、情報解析部11により変換される入力情報に対応する韻律パターンを韻律記憶部13より選択する韻律パターン選択部14と、入力情報に対して韻律パターン選択部14により選択された韻律パターンと情報解析部11により得られる発音記号列化された文字列とから送信データを生成する送信データ生成部15を具備する。送信データ生成部15で生成されたデータは送信機20で変調されて、受信機30に送信される。なお、韻律記憶部13に記憶される韻律パターンは入力情報の変化に対応して新たに加えられ、韻律パターンに対するメンテナンスを行うことが可能である。
【0014】
図2は情報センター側からの送信データの例を示す図である。本図に示す如く、上記送信データ生成部15では、韻律パターン+単語1(単語読み+アクセント)+単語2(単語読み+アクセント)+…単語n(単語読み+アクセント)のようなデータを生成する。
一方、車載端末側では、車両に搭載される受信機30で送信データが受信され、復調され一時的に入力バッファ30Aに蓄えられる。韻律制御部50は受信情報信号から韻律パターンデータと文字列データとに分離するデータ分離部51と、分離された各単位の文字列データを文章としての連続した文字列に合成する合成文字列生成部52と、同じく分離された各韻律パターンデータを再生する韻律再生部53と、韻律再生部53で再生された韻律パターンデータに合成文字列生成部52で合成された合成文字列をはめ込むはめ込み部54とを具備する。
【0015】
音素片辞書部60は男女の自然音声から得られた一定のピッチ周波数を有する複数の音声波形素片を波形辞書に登録する。音声生成処理部7は図1の構成と同様である。
このように、情報センター側から、単語読み及びアクセント付きの文字列データと共に韻律パターンを併せて送信させ、車載側端末側ではこの韻律パターンを用いて音声を合成するようにしたので、情報センター側で任意に文章を追加、変更しても、従来の如く、車載側端末側では何ら韻律パターンの追加、変更のための処理が不要となり、簡単に文章の追加、改良が可能になる。
【0016】
図3は情報センター側からの送信データの別の例を説明する図である。本図に示す如く、はめ込み合成データ生成部10では1つの文を複数の単語からなる呼気段落単位に分け、それぞれの呼気段落単位毎に韻律パターンを設け、呼気段落毎に送信させる。韻律制御部50は呼気段落毎に韻律制御を行って音声合成を行わせる。このようにすることにより、音声合成以外の通信データの合間に効率良く音声合成のためのデータ送信が行えるようになる。
【0017】
また、図1の送受信機30の入力バッファ30Aを呼気段落毎に送信されるデータを一時蓄えておくだけの容量にしてもよい。韻律制御部50では呼気段落毎に韻律制御が行われる。このため、入力バッファの容量を最小にすることが可能になる。なお、呼気段落毎の全データの送信が終了した時点で音声合成の処理を開始することにより、合成音を途切らすことなく生成できる。
【0018】
情報センター側からの送信データには、「制御コマンド+韻律パターン+単語1(単語読み+アクセント)+単語2(単語読み+アクセント)+…+単語n(単語読み+アクセント)」の如く、制御コマンドを設けてもよい。車載端末側ではこの制御コマンドにしたがって韻律制御、音声合成が行われる。この制御コマンドにより、1つの文章単位で送信するオプション(図2参照)と、呼気段落単位で送信するオプション(図3参照)とを任意に選択できるようになる。なお、呼気段落単位で送信するオプションでは、1文章の最初の呼気段落単位の音声データのみに制御コマンドを付記するようにしてもよい。
【0019】
さらに、前記制御コマンドに男性音や女性音といった音声種別コードを含め、これに対応した韻律パラメータと共に送信するようにしてもよい。韻律制御部50では、この韻律パラメータに従って韻律制御が行われ、音素片辞書部60では、男女の音声種類に合った音素片辞書を選択、活用することにより、情報センター側の意図する音声種類で音声合成が可能になる。
【0020】
また、車載側端末から情報センター側に男性音、女性音の音声種類を要求できるようにしてもよい。これにより情報センター側では要求のあった音声種類のコードとこれに対応する韻律パラメータと共にデータの送信が行われる。車載端末側では上記と同様の処理により要求通りの音声種類で音声合成が可能になる。
なお、以上の例については、天気予報のみならず、交通情報、駐車場等の施設情報の音声合成についても同様に適用可能である。
【0021】
【発明の効果】
以上の説明により、本発明によれば、はめ込み対象の文章追加、改良を車載端末側の音声合成装置で行うことが不要となり、情報センター側で一括して行えるため、簡単に文章追加、改良が可能になる。
【図面の簡単な説明】
【図1】本発明に係る車載用音声合成装置の例を説明する図である。
【図2】情報センター側からの送信データの例を説明する図である。
【図3】情報センター側からの送信データの別の例を説明する図である。
【図4】従来の車載用音声合成装置を示す図である。
【図5】図4の韻律パターン記憶部4に記憶される韻律パターン例を示す図である。
【符号の説明】
7…音声生成処理部
10…はめ込み合成データ生成部
20、30…送受信機
30A…入力バッファ
50…韻律制御部
60…音素片辞書部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an in-vehicle speech synthesizer that synthesizes character string data received on the side of a traveling vehicle from an information center side into a speech by fitting it into a prosodic pattern. Related to reducing the burden on the speech synthesizer.
[0002]
[Prior art]
FIG. 4 is a diagram showing a conventional on-vehicle speech synthesizer. As shown in this figure, on the information center side, the data generated by the inset synthesized data generation unit 1 is modulated and transmitted to the in-vehicle terminal side via the transmitter 2. The transmission data is composed of “sentence number + character string (word reading + accent)”. Here, the character string (word reading + accent) is specifically configured as “word 1 (word reading + accent) + word 2 (word reading + accent) +... + Word n (word reading + accent)”. Furthermore, the sentence number is a number transmitted to represent information of the prosodic pattern that gives the intonation to the character string. In other words, the inset composite data generation unit 1 on the information center side adds a plurality of words (word readings and accents) constituting a character string to the prosodic pattern in order to reduce the burden of language processing on the destination in-vehicle terminal side. Transmission data that can be freely replaced and fitted is generated.
[0003]
On the other hand, on the in-vehicle terminal side, the transmission data is received by the receiver 3 mounted on the vehicle, demodulated, and temporarily stored in the input buffer 3A. The prosodic pattern storage unit 4 stores a plurality of prosodic patterns, inputs “sentence number” in the input data, and outputs a prosodic pattern corresponding to the sentence number. The prosody control unit 5 inputs “character string (word reading + accent)” in the input data, inputs the prosodic pattern from the prosody pattern storage unit 4, and word 1 (word reading + accent) + word 2 (word reading + Prosody control is performed in which an accent) +... + Word n (word reading + accent) is inserted into the prosodic pattern.
[0004]
Note that the accent is a pitch pattern specific to the word (a temporal change in pitch frequency), and the intonation is the pitch pattern in the expiratory paragraph.
FIG. 5 is a diagram showing an example of a prosodic pattern stored in the prosodic pattern storage unit 4 of FIG. As shown in FIG. A prosodic pattern A having two intonations is stored for one “Today is (word 1), sunny (word 2)”. The prosody control unit 5 performs prosody control in which the words 1 and 2 are inserted into the prosody pattern A.
[0005]
Example sentence No. For 2, “Today is (word 1), clear in the morning (word 3)”, a prosodic pattern B having two intonations different from the above is stored. The prosody control unit 5 performs prosody control to insert the words 1 and 3 into the prosody pattern B.
Returning to FIG. 4, the phoneme segment dictionary unit 6 registers a plurality of speech waveform segments having a constant pitch frequency obtained from natural speech in the waveform dictionary.
[0006]
The speech generation processing unit 7 selects a speech waveform from the phoneme segment dictionary unit 6 for each phoneme of the character string generated by the prosody control unit 5, and superimposes the speech waveform on the pitch pattern of the accent and prosody pattern. , Repeat or thin out to synthesize voice and output to speaker.
[0007]
[Problems to be solved by the invention]
However, in the in-vehicle speech synthesizer, for example, as shown in the lower part of FIG. 5, an additional character string “Today is (word 1), clear in the morning (word 3), and cloudy in the afternoon (word 3). ”Is transmitted, and when the prosodic pattern storage unit 4 does not store prosodic patterns having three different intonations as in the case of such a sentence example, it is necessary to store a new prosodic pattern. . This is because if there is no new prosodic pattern, for example, if prosodic pattern B is used, the portion “cloudy in the afternoon (word 3)” is synthesized without speech intonation, resulting in a decrease in sound quality. Since the speech synthesizer is used for many vehicles on the in-vehicle terminal side, if there is frequent text data addition or data change on the information center side, a new prosodic pattern will be created for all vehicles on the in-vehicle terminal side. Although it must be frequently stored in the prosodic pattern storage unit 4, there is a problem that this is practically impossible to process.
[0008]
Therefore, in view of the above problems, the present invention makes it possible to synthesize speech without requiring new prosody pattern data addition or change processing on the in-vehicle terminal side even if transmission data is arbitrarily changed on the information center side. An object of the present invention is to provide an in-vehicle speech synthesizer.
[0009]
[Means for Solving the Problems]
In order to solve the above problems, the present invention provides an in-vehicle speech synthesizer that synthesizes character string data transmitted from an information center side to an in-vehicle terminal side into speech, and the character string data is added to the information center side. reading a plurality of words constituting and with said word accents, and inset composite data generator for generating a temporal change information der Ru prosody pattern of frequencies in breath, generated by the fitting combined data generating unit A transmission unit that transmits character string data including word reading and accent and prosody pattern data including prosody pattern, and the character string data transmitted from the information center side to the in-vehicle terminal side and a receiver for receiving said prosodic pattern data, received by the receiving unit, reading of the pre Kitan words in the prosodic pattern and A prosody control unit for performing prosody control by fitting the Kia accent, characterized in that is provided. By this means, it is not necessary to add or improve the text to be inserted by the speech synthesizer on the in-vehicle terminal side, and can be added and improved easily because it can be performed collectively on the information center side.
[0010]
The character string data is divided into exhalation paragraphs to perform speech synthesis, and the inset synthesis data generation unit transmits a control command for controlling whether transmission data is transmitted in sentence units or in exhalation paragraph units. In addition, the prosody control unit performs prosody control according to the received control command . By this means, it is possible to efficiently transmit data for speech synthesis between communication data other than speech synthesis.
[0011]
The prosody control unit performs prosodic control at the end of reception of the prosody pattern received for each exhalation paragraph, data on the reading of the plurality of words, and data on the accent of the word temporarily stored, and performs speech synthesis Start processing. By this means, the prosody control is performed on the temporarily stored data, so that the input buffer capacity on the in-vehicle terminal side can be reduced, and the synthesized sound can be generated without interruption.
[0012]
A voice type code and a prosodic parameter corresponding to the voice type code are further transmitted to the character string data transmitted from the information center side, and the in-vehicle terminal side corresponds to the voice type code and the prosodic parameter. Synthesize the voice to be played. By this means, it is possible to perform speech synthesis with the intended speech type on the information center side.
The vehicle type terminal side requests the information center side to select a voice type. By this means, it is possible to perform speech synthesis with the intended speech type on the in-vehicle terminal side.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram for explaining an example of an in-vehicle speech synthesizer according to the present invention, and FIG. 2 is a diagram for explaining an example of transmission data from the information center side. As shown in FIG. 1, on the information center side, the inset synthesized data generation unit 10 analyzes input information, which is a character string of a kanji-kana mixed sentence, divides it into words, reads a word, adds accents, and generates a phonetic symbol string An information analysis unit 11 for converting into grammatical information, reading and accent information to the information analysis unit 11, and a prosody storage unit 13 for storing a prosodic pattern which is intonation for the input information in advance. a prosodic pattern selection unit 14 that selects from the prosodic storage unit 13 prosody pattern corresponding to the input information is converted by the information analysis unit 11, prosodic pattern and information analysis selected by prosodic pattern selection unit 14 to the input information A transmission data generation unit 15 is provided that generates transmission data from the character string converted into a phonetic symbol string obtained by the unit 11 . The data generated by the transmission data generation unit 15 is modulated by the transmitter 20 and transmitted to the receiver 30. A prosodic pattern stored in the prosodic storage unit 13 is newly added in response to a change in input information, and maintenance of the prosodic pattern can be performed.
[0014]
FIG. 2 is a diagram illustrating an example of transmission data from the information center side. As shown in the figure, the transmission data generation unit 15 generates data such as prosodic pattern + word 1 (word reading + accent) + word 2 (word reading + accent) +... Word n (word reading + accent). To do.
On the other hand, on the in-vehicle terminal side, the transmission data is received by the receiver 30 mounted on the vehicle, demodulated, and temporarily stored in the input buffer 30A. The prosody control unit 50 generates a synthesized character string that synthesizes the character string data of each unit into a continuous character string as a sentence, and a data separation unit 51 that separates the received information signal into prosodic pattern data and character string data. A prosody reproducing unit 53 that reproduces each separated prosodic pattern data, and a fitting unit that inserts the synthesized character string synthesized by the synthesized character string generating unit 52 into the prosodic pattern data reproduced by the prosody reproducing unit 53 54.
[0015]
The phoneme segment dictionary unit 60 registers a plurality of speech waveform segments having a constant pitch frequency obtained from male and female natural speech in the waveform dictionary. The voice generation processing unit 7 has the same configuration as that shown in FIG.
In this way, the information center side transmits the prosodic pattern together with word reading and accented character string data, and the in-vehicle terminal side synthesizes speech using this prosodic pattern. Even if a sentence is arbitrarily added or changed, the in-vehicle terminal side does not need any processing for adding or changing a prosodic pattern as in the prior art, and can easily add or improve a sentence.
[0016]
FIG. 3 is a diagram for explaining another example of transmission data from the information center side. As shown in this figure, the inset synthesized data generation unit 10 divides one sentence into exhalation paragraph units each composed of a plurality of words, provides a prosodic pattern for each exhalation paragraph unit, and transmits it for each exhalation paragraph. The prosody control unit 50 performs speech synthesis by performing prosody control for each exhalation paragraph. In this way, data transmission for voice synthesis can be efficiently performed between communication data other than voice synthesis.
[0017]
Further, the input buffer 30A of the transceiver 30 in FIG. 1 may have a capacity for temporarily storing data transmitted for each exhalation paragraph. The prosody control unit 50 performs prosody control for each exhalation paragraph. For this reason, the capacity of the input buffer can be minimized. Note that the synthesized speech can be generated without interruption by starting the speech synthesis process when transmission of all data for each exhalation paragraph is completed.
[0018]
The transmission data from the information center side is controlled as “control command + prosodic pattern + word 1 (word reading + accent) + word 2 (word reading + accent) +... + Word n (word reading + accent)” A command may be provided. On the vehicle-mounted terminal side, prosody control and speech synthesis are performed according to this control command. With this control command, an option to transmit in units of one sentence (see FIG. 2) and an option to transmit in units of expiratory paragraphs (see FIG. 3) can be arbitrarily selected. Note that in the option of transmitting in the exhalation paragraph unit, the control command may be added only to the voice data in the first exhalation paragraph unit of one sentence.
[0019]
Furthermore, a voice type code such as male sound or female sound may be included in the control command and transmitted together with the prosodic parameters corresponding thereto. The prosody control unit 50 performs prosody control according to this prosody parameter, and the phoneme segment dictionary unit 60 selects and uses a phoneme dictionary that matches the gender's speech type, and uses the intended speech type on the information center side. Speech synthesis is possible.
[0020]
Moreover, you may enable it to request | require the audio | voice type of a male sound and a female sound from the vehicle-mounted terminal to the information center side. As a result, the information center transmits data together with the requested voice type code and the prosodic parameters corresponding thereto. On the in-vehicle terminal side, it is possible to synthesize speech with the required speech type by the same processing as described above.
In addition, about the above example, it can apply similarly not only for a weather forecast but the voice synthesis | combination of facility information, such as traffic information and a parking lot.
[0021]
【The invention's effect】
From the above description, according to the present invention, it is not necessary to add and improve the text to be inserted by the speech synthesizer on the in-vehicle terminal side and can be performed collectively on the information center side, so that the text can be easily added and improved. It becomes possible.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of an on-vehicle speech synthesizer according to the present invention.
FIG. 2 is a diagram illustrating an example of transmission data from the information center side.
FIG. 3 is a diagram illustrating another example of transmission data from the information center side.
FIG. 4 is a diagram showing a conventional on-vehicle speech synthesizer.
5 is a diagram illustrating an example of a prosodic pattern stored in a prosodic pattern storage unit 4 in FIG. 4;
[Explanation of symbols]
7 ... voice generation processing unit 10 ... inset synthesized data generation unit 20, 30 ... transceiver 30A ... input buffer 50 ... prosody control unit 60 ... phoneme segment dictionary unit

Claims (6)

情報センター側から車載端末側に送信される文字列データを音声に合成する車載用音声合成装置において、
前記情報センター側に、
前記文字列データを構成する複数の単語の読み及び該単語のアクセントと共に、呼気段落における周波数の時間的な変化情報である韻律パターンを生成するはめ込み合成データ生成部と、
前記はめ込み合成データ生成部によって生成された、単語の読み及びアクセントを含む文字列データと韻律パターンを含む韻律パターンデータとを送信する送信部と、が設けられ、
前記車載端末側に、
前記情報センター側から送信された、前記文字列データと前記韻律パターンデータとを受信する受信部と、
前記受信部によって受信された、前記韻律パターンに前記単語の読み及び前記アクセントをはめ込んで韻律制御を行う韻律制御部と、が設けられることを特徴とする車載用音声合成装置。
In the in-vehicle speech synthesizer that synthesizes character string data transmitted from the information center side to the in-vehicle terminal side into speech,
On the information center side,
With accents plurality of word reading and said word constituting the character string data, and inset composite data generator for generating a temporal change information der Ru prosody pattern of frequencies in a breath,
A transmitter that transmits the character string data including the word reading and accent and the prosodic pattern data including the prosody pattern generated by the inset synthesized data generator ; and
On the in-vehicle terminal side,
A receiving unit for receiving the character string data and the prosodic pattern data transmitted from the information center side ;
The received by the reception unit, a vehicle-mounted voice synthesizer for the prosody control unit for prosody control by fitting the reading and the previous Kia accent before Kitan word to the prosody pattern, characterized in that is provided.
前記文字列データを呼気段落毎に分割して音声合成を行うと共に
前記はめ込み合成データ生成部は、送信データを文章単位で送信するか呼気段落単位で送信するかを制御する制御コマンドを送信データに付加し、
前記韻律制御部は、受信した制御コマンドに応じて韻律制御を行うことを特徴とする、請求項1に記載の車載用音声合成装置。
The character string data is divided into exhalation paragraphs for voice synthesis ,
The inset composite data generation unit adds a control command to the transmission data to control whether the transmission data is transmitted in units of sentences or in units of expiratory paragraphs,
The in-vehicle speech synthesizer according to claim 1, wherein the prosody control unit performs prosody control according to the received control command .
前記韻律制御部は、呼気段落毎に受信した前記韻律パターン、前記複数の単語の読み及び前記単語のアクセントに関するデータが一時的に蓄えられたものについて受信終了時点で韻律制御を行って音声合成の処理を開始させることを特徴とする、請求項2に記載の車載用音声合成装置。The prosody control unit performs prosody control at the end of reception of the speech pattern for the data in which the data related to the prosody pattern received for each exhalation paragraph, the reading of the plurality of words, and the accent of the word are temporarily stored. The in-vehicle speech synthesizer according to claim 2, wherein processing is started. 前記情報センター側から送信される前記文字列データに対してさらに音声種別コードと、該音声種別コードに相当する韻律パラメータとを送信し、前記車載端末側では前記音声種別コード、前記韻律パラメータに対応する音声を合成することを特徴とする、請求項1に記載の車載用音声合成装置。A voice type code and a prosodic parameter corresponding to the voice type code are further transmitted to the character string data transmitted from the information center side, and the in-vehicle terminal side corresponds to the voice type code and the prosodic parameter. The in-vehicle speech synthesizer according to claim 1, wherein speech to synthesize is synthesized. 前記車載端末側から前記情報センター側に音声種別の選択を要求することを特徴とする、請求項1に記載の車載用音声合成装置。The in-vehicle speech synthesizer according to claim 1, wherein the in-vehicle terminal side requests the information center side to select a voice type. 情報センター側から車載端末側に送信される文字列データを音声に合成する車載用音声合成装置において、
前記車載端末側には、
前記情報センター側からの情報を受信する受信部と、
前記受信部によって受信された受信情報に含まれる、複数の単語の読み及び該単語のアクセントを表す文字列データと、当該文字列データに付随して送信された呼気段落における周波数の時間的な変化情報である韻律パターンと、を分離するデータ分離部と、
前記データ分離部によって分離された、韻律パターンから各文字列データの読みに対応した韻律制御信号を再生する再生部と、が設けられ、
前記韻律制御信号で分離された文字列データに対し順次連続して韻律を制御し発生音声を合成することを特徴とする車載用音声合成装置。
In the in-vehicle speech synthesizer that synthesizes character string data transmitted from the information center side to the in-vehicle terminal side into speech,
On the in-vehicle terminal side,
A receiver for receiving the information from the information center side,
Time-dependent changes in frequency in character string data representing the reading of a plurality of words and accents of the words included in the reception information received by the reception unit, and an exhalation paragraph transmitted along with the character string data a data separator for separating the prosodic pattern is information, and
The separated by the data separating unit, a reproducing unit for reproducing the prosody control signal corresponding to the reading of the prosodic pattern or we each character string data, is provided,
A vehicle-mounted speech synthesizer characterized in that the generated speech is synthesized by sequentially controlling the prosody for the character string data separated by the prosodic control signal.
JP13259797A 1997-05-22 1997-05-22 In-car speech synthesizer Expired - Fee Related JP3805065B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13259797A JP3805065B2 (en) 1997-05-22 1997-05-22 In-car speech synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13259797A JP3805065B2 (en) 1997-05-22 1997-05-22 In-car speech synthesizer

Publications (2)

Publication Number Publication Date
JPH10319992A JPH10319992A (en) 1998-12-04
JP3805065B2 true JP3805065B2 (en) 2006-08-02

Family

ID=15085067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13259797A Expired - Fee Related JP3805065B2 (en) 1997-05-22 1997-05-22 In-car speech synthesizer

Country Status (1)

Country Link
JP (1) JP3805065B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7822606B2 (en) * 2006-07-14 2010-10-26 Qualcomm Incorporated Method and apparatus for generating audio information from received synthesis information
JP5049310B2 (en) * 2009-03-30 2012-10-17 日本電信電話株式会社 Speech learning / synthesis system and speech learning / synthesis method
JP2013246742A (en) * 2012-05-29 2013-12-09 Azone Co Ltd Passive output device and output data generation system

Also Published As

Publication number Publication date
JPH10319992A (en) 1998-12-04

Similar Documents

Publication Publication Date Title
EP2053595B1 (en) Text pre-processing for text-to-speech generation
US6081780A (en) TTS and prosody based authoring system
US7233901B2 (en) Synthesis-based pre-selection of suitable units for concatenative speech
KR100303411B1 (en) Singlecast interactive radio system
JPH06332494A (en) Apparatus for enhancement of voice comprehension in translation of voice from first language into second language
JPH10504116A (en) Apparatus for reproducing encoded audio information in a vehicle
WO2005093713A1 (en) Speech synthesis device
JP2008107454A (en) Voice synthesis apparatus
EP0936597B1 (en) Storage medium having electronic circuits, and voice synthesizer having the storage medium
JP3805065B2 (en) In-car speech synthesizer
CN101523483B (en) Method for the rendition of text information by speech in a vehicle
US7698139B2 (en) Method and apparatus for a differentiated voice output
EP1324313B1 (en) Text to speech conversion
JPH0876796A (en) Voice synthesizer
JP2003029774A (en) Voice waveform dictionary distribution system, voice waveform dictionary preparing device, and voice synthesizing terminal equipment
JP3192981B2 (en) Text-to-speech synthesizer
JPH0712581A (en) Voice output device for vehicle
JP2006337403A (en) Voice guidance device and voice guidance program
JP3115232B2 (en) Speech synthesizer that synthesizes received character data into speech
JPH04270395A (en) On-vehicle traffic information providing device
JP2577372B2 (en) Speech synthesis apparatus and method
KR100612780B1 (en) Speech and music reproduction apparatus
JPH0934490A (en) Method and device for voice synthetization, navigation system, and recording medium
JPH10200468A (en) Synthesized voice data communication method, transmitter and receiver
JP4244706B2 (en) Audio playback device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060509

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100519

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees