JPH09330093A - Voice synthesizing device synthesizing received character data and voice - Google Patents

Voice synthesizing device synthesizing received character data and voice

Info

Publication number
JPH09330093A
JPH09330093A JP8149126A JP14912696A JPH09330093A JP H09330093 A JPH09330093 A JP H09330093A JP 8149126 A JP8149126 A JP 8149126A JP 14912696 A JP14912696 A JP 14912696A JP H09330093 A JPH09330093 A JP H09330093A
Authority
JP
Japan
Prior art keywords
data
voice
synthesizing
word
kanji
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8149126A
Other languages
Japanese (ja)
Other versions
JP3115232B2 (en
Inventor
Osamu Ishikawa
修 石川
Hiroyuki Fujimoto
博之 藤本
Toshitaka Yamato
俊孝 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP08149126A priority Critical patent/JP3115232B2/en
Publication of JPH09330093A publication Critical patent/JPH09330093A/en
Application granted granted Critical
Publication of JP3115232B2 publication Critical patent/JP3115232B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To simplify processing by which character data constituting a received KANJI and KANA sentence is synthesized to a voice. SOLUTION: In a voice synthesizing device by which a KANJI and KANA sentence for display is received and synthesized to a voice, in a transmitting side 20, a KANJI and KANA sentence for display is divided into words, character symbol train data for display, voice symbol train data for phonetics, and pause data, for each word are sent out, in receiving side 10, data sent from the transmitting side is received, the voice symbol train data for each word is extracted, and a voice is synthesized by adding rhyme information to this data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、車両に搭載される
受信機に使用される音声合成装置に関し、特に受信した
FM文字多重放送、VICS(自動車情報通信システ
ム)情報を構成する文字データを音声に合成する処理を
簡単化することに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice synthesizing apparatus used for a receiver mounted on a vehicle, and in particular, it receives FM character multiplex broadcasting and character data constituting VICS (Vehicle Information Communication System) information as voice. The present invention relates to simplifying the process of combining.

【0002】[0002]

【従来の技術】図5は車両の搭載される受信機を示す。
なお、全図を通して同一の構成要素には同一の参照番号
又は記号を付して示す。本図に示すように、車両に搭載
される受信機10として、例えば、FM文字多重放送を
受信するFMラジオ受信機1では放送信号がスピーカ2
により音声に変換される。他方、放送信号の多重した文
字データが表示器3に表示される。そして、その文字デ
ータは音声合成装置4で音声信号に合成され、スピーカ
5を介して、音声に変換される。
2. Description of the Related Art FIG. 5 shows a receiver mounted on a vehicle.
Note that the same components are denoted by the same reference numerals or symbols throughout the drawings. As shown in this figure, as a receiver 10 installed in a vehicle, for example, in an FM radio receiver 1 that receives FM character multiplex broadcasting, a broadcast signal is a speaker 2
Is converted into voice. On the other hand, the character data in which the broadcast signal is multiplexed is displayed on the display 3. Then, the character data is synthesized into a voice signal by the voice synthesizing device 4 and converted into voice through the speaker 5.

【0003】なお、上記FM文字多重放送に代わり、V
ICS情報を受信した場合にも同様に、文字データは、
表示器により表示され、音声合成装置により音声に変換
され得る。図6は図5の音声合成装置4を示す図であ
る。本図に示すように、音声合成装置4には、漢字かな
混じり文について、文字記号列の入力文字データを、文
法解釈、意味解析を用いて、単語に分割し、各単語の文
字を表音に変換するために、つまり、文字記号列のデー
タを音声記号列のデータに変換した音韻情報を形成する
言語処理部41が設けられる。言語処理部41の処理で
は、分割された単語を文字記号列から音声記号列(読
み)に変換する音韻規則、さらにその単語にアクセン
ト、イントネーション、ポーズ等の韻律情報を与える韻
律規則を格納する言語辞書42が用いられる。このよう
に、アクセント、イントネーション、ポーズ等を加える
のは、もちろん、表示に適した散文的な漢字かな混じり
文を韻律的表音に適するようにするためである。この言
語辞書42はROMで構成され、通常1Mビット程度の
メモリ容量が使用される。言語処理部41で処理された
音声記号列を入力する音響処理部43は音声記号列を音
声合成単位の音声素片に変換する。音素処理部43の処
理では音声素片を格納し、ROMで構成される音素辞書
44が用いられる。
In place of the above FM character multiplex broadcasting, V
Similarly, when the ICS information is received, the character data is
It can be displayed by a display device and converted into voice by a voice synthesizer. FIG. 6 is a diagram showing the speech synthesizer 4 of FIG. As shown in the figure, the speech synthesizer 4 divides the input character data of a character / symbol string into words using a grammatical interpretation and a semantic analysis for a mixed kanji / kana sentence, and outputs the characters of each word by phonetic expression. In order to convert into, that is, in other words, the language processing unit 41 that forms phonological information in which the data of the character symbol string is converted into the data of the phonetic symbol string is provided. In the processing of the language processing unit 41, a language that stores a phonological rule that converts a divided word from a character symbol string into a phonetic symbol string (reading) and a prosodic rule that gives prosodic information such as accent, intonation, and pause to the word. The dictionary 42 is used. In this way, accents, intonations, pauses, and the like are added, of course, so that a prose-like kanji-kana mixed sentence suitable for display is suitable for prosodic phonetic. The language dictionary 42 is composed of a ROM, and usually has a memory capacity of about 1 Mbit. The acoustic processing unit 43, which receives the voice symbol string processed by the language processing unit 41, converts the voice symbol string into a voice unit of a voice synthesis unit. In the processing of the phoneme processing unit 43, a phoneme dictionary 44 which stores a phoneme unit and is composed of a ROM is used.

【0004】この変換を通じて得られた音声素片をつな
げて、連続音声波形が出力されて、以下に示すような入
力文字データが音声で読み上がられる。なお、言語処理
部41には、演算量が多いので、一般的には汎用のCP
Uが用いられ、音響処理部43には、演算理速度が要求
れるので、DSPの高速演算プロセッサが用いられる。
By connecting the speech units obtained through this conversion, a continuous speech waveform is output, and the input character data as shown below is read aloud. Since the language processing unit 41 has a large amount of calculation, it is generally a general-purpose CP.
Since U is used and the acoustic processing unit 43 is required to have an arithmetic processing speed, a DSP high-speed arithmetic processor is used.

【0005】漢字かな混じり文の入力文字データ 「阪神高速 上り 渋滞 生田川 7km」 音声記号列データ 「ハンシンコーソク、ノボリ、ジュータイ、イクタガ
ワ、ナナキロメートル」
Input character data of kanji and kana mixed sentences "Hanshin Expressway up traffic jam Ikutagawa 7 km" Voice symbol string data "Hanshin Kosoku, Novoli, Jutai, Ikugawa, Nanakm"

【0006】[0006]

【発明が解決しようとする課題】ところで、上記音声合
成装置では、受信した漢字かな混じり文の文字記号列デ
ータが、膨大な言語辞書42を用いて、音声記号列のデ
ータに変換されている。このため、各々の受信機はそれ
ぞれに膨大な言語辞書を持って、その言語辞書の検索を
行い、音韻情報、韻律情報を求めなければならず、負荷
が大きいという問題がある。
By the way, in the above speech synthesizing apparatus, the received character / symbol string data of the kanji / kana mixed sentence is converted into the data of the speech symbol string by using the huge language dictionary 42. For this reason, each receiver has to have a huge language dictionary and search the language dictionary to obtain phonological information and prosody information, which is a heavy load.

【0007】さらに、FM文字多重放送の中でも交通情
報や天気予報などでは、視覚的に情報を伝えるため散文
的な文章になることが多くこれをそのまま音声で読み上
げても不自然な文章となるという問題がある。したがっ
て、本発明は、上記問題点に鑑み、受信機の負荷を軽減
でき、且つ自然な文章にすることができる、受信した文
字データを音声に合成する音声合成装置を提供すること
を目的とする。
[0007] Further, even in the FM text multiplex broadcasting, in traffic information and weather forecast, since the information is visually transmitted, it is often a prose sentence, which is unnatural even if it is read aloud as it is. There's a problem. Therefore, in view of the above problems, it is an object of the present invention to provide a voice synthesizing device for synthesizing received character data into voice, which can reduce the load on the receiver and can form a natural sentence. .

【0008】[0008]

【課題を解決するための手段】本発明は、前記問題点を
解決するために、表示用の漢字かな混じり文を受信して
音声に合成する音声合成装置において、送信側では、表
示用の漢字かな混じり文を単語に分割して、単語毎に表
示用の文字記号列データ、表音用の音声記号列データ及
びポーズデータを送出し、受信側では、送信側から送出
したデータを受信し、単語毎の音声記号列データを抽出
して、これにアクセント、イントネーションに韻律情報
を加えて音声に合成することを特徴とする受信した文字
データを音声に合成する。この手段により、放送側で、
単語の表音用の音声記号列が付加されるので、受信側で
は大容量の言語辞書を持つことが不要となり、さらに、
漢字かな混じり文から単語に分割するための言語処理を
することが不要となり、時受信側の負担が大幅に軽減で
きる。
SUMMARY OF THE INVENTION In order to solve the above problems, the present invention provides a voice synthesizer for receiving a kanji mixed kana sentence for display and synthesizing it into a voice. The kana mixed sentence is divided into words, and the character symbol string data for display, the phonetic symbol string data and the pause data for each word are transmitted, and the receiving side receives the data transmitted from the transmitting side, The received character data is characterized in that the phonetic symbol string data for each word is extracted, and prosodic information is added to the accent and intonation to synthesize it into a speech. By this means, on the broadcast side,
Since a phonetic symbol string for word phonetic is added, it is unnecessary for the receiving side to have a large-capacity language dictionary.
It is not necessary to perform language processing for dividing a kanji-kana mixed sentence into words, and the burden on the receiving side can be greatly reduced.

【0009】前記送信側では、さらに前記表示用の漢字
かな混じり文の文型を示す番号データを送出し、前記受
信側では、前記文型の番号データに対応して助詞、助動
詞、名詞の音声記号列データのパターンを格納し、前記
単語の音声記号列データをこのパターンに嵌め込む。こ
の手段により、単語間に助詞、助動詞、名詞等を加え
て、散文的な漢字かな混じり文の表示をさらに韻律的表
音に適させることが可能になる。
The transmitting side further transmits number data indicating the sentence pattern of the kanji / kana mixed sentence for display, and the receiving side corresponds to the sentence pattern number data, and a phonetic symbol string of particles, auxiliary verbs and nouns. The data pattern is stored, and the phonetic symbol string data of the word is fitted into this pattern. By this means, it is possible to add particles, auxiliary verbs, nouns, etc. between words to make the display of prose-like kanji and kana mixed sentences more suitable for prosodic phonetics.

【0010】前記送信側では、さらに前記表示用の漢字
かな混じり文を構成する単語毎に音声合成するための順
番データを送信し、前記受信側では、前記順番データに
したがって前記単語を音声合成する。この手段により、
表示用に適した漢字かな混じり文を構成する単語の順番
を入れ換えて、さらに韻律的表音に適させることが可能
になる。
The transmitting side further transmits order data for voice synthesis for each word constituting the kanji / kana mixed sentence for display, and the receiving side voice synthesizes the words according to the order data. . By this means
It is possible to rearrange the order of the words that compose a kanji-kana mixed sentence suitable for display so that the sentence can be further adapted to prosodic phonetics.

【0011】前記送信側では、さらに単語のアクセント
データを送出し、受信側では、受信したアクセントデー
タにイントネーションを加えて音声を合成する。この手
段により、受信側ではアクセント韻律規則を持つ必要が
なくなるので、さらに受信側の負担が軽減できる。前記
送信側では、送信するデータに受信側で判別することを
可能にするフラグを付ける。この手段により、このフラ
グを基に処理が行えて受信側の処理がさらに軽減され
る。
On the transmitting side, word accent data is further transmitted, and on the receiving side, intonation is added to the received accent data to synthesize a voice. By this means, it is not necessary for the receiving side to have an accent prosody rule, so the load on the receiving side can be further reduced. On the transmitting side, a flag is attached to the data to be transmitted so that the receiving side can discriminate. By this means, processing can be performed based on this flag, and the processing on the receiving side is further reduced.

【0012】[0012]

【発明の実施の形態】以下本発明の実施の形態について
図面を参照して説明する。図1は本発明に係る、FM放
送局又はVICSセンタが送信するFM放送、VICS
情報の内容を説明する図である。本図に示すように、F
M放送局又はVICSセンタ20では、送信すべき漢字
かな混じり文を構成する各単語の文字記号列データと同
時に、各単語の音声記号列データ、音声合成順序数、補
助データ読み出し番号を、以下のように、形成し、これ
らが車両の搭載の受信機10に送信される。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows an FM broadcast or VICS transmitted by an FM broadcast station or VICS center according to the present invention.
It is a figure explaining the content of information. As shown in this figure, F
In the M broadcasting station or VICS center 20, at the same time as the character / symbol string data of each word that constitutes a kanji / kana mixed sentence to be transmitted, the voice symbol string data of each word, the voice synthesis order number, and the auxiliary data read number are As such, these are transmitted to the onboard receiver 10 of the vehicle.

【0013】送出データ例 FF 213 OA 1 OB 阪神高速 OC ハン
シンコーソク OA 2 OB 上り OC ノボリ OA 5 OB 渋滞 OC ジュータイ OA 3 OB 行田川 OC イクタガワ OA 4 OB 7km OC ナナキロメートル 送出データ例の説明 FF :補助データ呼出番号開始フラグ 213:補助データ呼出番号 OA :音声合成順序開始フラグ OB :文字記号列の漢字かな混じり文データ開始フラ
グ OC :音声記号列データ開始フラグ 1、2、3、4、5:音声合成順序番号 図2は本発明に係る受信した文字データを音声に合成す
る音声合成装置を示す図である。本図に示すように、F
M放送局又はVICSセンタ20から送信される入力デ
ータを基に、制御部45は、補助データ呼出番号を参照
し補助データ辞書42により漢字かな混じり文の文型に
対応する補助データを検索する。補助データ辞書42に
は、漢字かな混じり文の単語の音声記号列データをはめ
込むために、以下に示すように、助詞、助動詞、名詞の
パターンからなる補助データが多数格納される。
Sending data example FF 213 OA 1 OB Hanshin high speed OC Hanshin Shinsok OA 2 OB upstream OC Novoli OA 5 OB traffic jam OC Jutai OA 3 OB Gyodagawa OC Ikugawa OA 4 OB 7 km OC Nana Kilometer Explanation of sending data example FF: Auxiliary data call number start flag 213: Auxiliary data call number OA: Speech synthesis sequence start flag OB: Kanji / Kana mixed sentence data start flag of character / symbol string OC: Voice symbol string data start flag 1, 2, 3, 4, 5: Speech Synthesis Sequence Number FIG. 2 is a diagram showing a speech synthesis apparatus for synthesizing received character data into speech according to the present invention. As shown in this figure, F
Based on the input data transmitted from the M broadcasting station or VICS center 20, the control unit 45 refers to the auxiliary data calling number and searches the auxiliary data dictionary 42 for auxiliary data corresponding to the sentence pattern of the kanji / kana mixed sentence. The auxiliary data dictionary 42 stores a large number of auxiliary data including patterns of particles, auxiliary verbs and nouns, as described below, in order to fit phonetic symbol string data of words in a kanji / kana mixed sentence.

【0014】図3は補助データ辞書に格納される表音用
の補助データの1例を示す図である。本図に示すよう
に、補助データ呼出番号213に関して、5つの単語に
対応して「ドウロノ 」、「ワ(ハ) 」、「デ 」、
「ノ 」と、「デス」の音声記号列からなる補助データ
が格納される。この補助データにおいて、最初の「ドウ
ロノ 」中の「ドウロ」は道路(名詞)の音声記号列で
「ノ」は助詞であり、「 」は単語間のポーズを示す。次
に3つの助詞とポーズが続き、最後に助動詞で構成され
る。このようにして、表示に適した漢字かな混じり文の
文型に応じて、助詞、助動詞、名詞を、単語間に嵌め込
み、散文的表示から韻律的表音に適するようにする。
FIG. 3 shows a phonetic sound stored in the auxiliary data dictionary.
It is a figure which shows an example of the auxiliary data of. As shown in this figure
And, regarding auxiliary data call number 213,
In response to "Dourono "," Wa (ha) "," De "
"No , And auxiliary data consisting of the phonetic symbol sequence of "death"
Is stored. In this ancillary data, the first
Rono Is a phonetic symbolic string of roads (nouns)
"No" is a particle, "Indicates a pause between words. Next
Is followed by three particles and a pose, and finally consists of auxiliary verbs
You. In this way, a kanji-kana mixed sentence suitable for display is displayed.
Insert particles, auxiliary verbs, and nouns between words according to the sentence pattern
From the prose display to the prosodic phonetic.

【0015】図4は、補助データ呼出番号により、各単
語の音声記号列データを補助データにはめ込む制御動作
例を説明する。本図に示すように、入力データの概略に
対して、制御部45は補助データ辞書46から補助デー
タ呼出番号213を呼び出して、送出される単語の音声
記号列データを音声合成順序番号に従ってはめ込む。こ
のようにして、表示に適した漢字かな混じり文を構成す
る単語の順番を変更して、韻律的表音に適するようにす
る。
FIG. 4 illustrates an example of a control operation for fitting the phonetic symbol string data of each word into the auxiliary data by the auxiliary data calling number. As shown in the figure, the control unit 45 calls the auxiliary data calling number 213 from the auxiliary data dictionary 46 to the outline of the input data, and fits the phonetic symbol string data of the word to be sent out according to the phonetic synthesis sequence number. In this way, the order of the words constituting the kanji-kana mixed sentence suitable for display is changed so as to be suitable for prosodic phonetic.

【0016】さらに、補助データ辞書42には、このよ
うな補助データに対して、単語のアクセント、イントネ
ーション等の韻律規則が格納されている。例えば、単語
のアクセントについては、一般的にはnモーラの固有名
詞の語句には、0型、1型、…、n型と(n+1)種の
基本アクセント型があるので、モーラ長から基本アクセ
ント型を求める規則が用いられる。ここに、モーラと
は、単語の長さを表す単位で1モーラが概ね日本語の5
0音の1文字に相当する。また、日本語を話す場合に
は、右下がりのイントネーションとなるので、これを規
則として用いる。そして、制御部45では、アクセント
とイントネーションとを合成する。
Furthermore, the auxiliary data dictionary 42 stores prosody rules such as word accents and intonations for such auxiliary data. For example, regarding word accents, there are generally 0 type, 1 type, ..., N type and (n + 1) types of basic accent types in the n-mora proper noun phrase. The rules for type are used. Here, a mora is a unit that represents the length of a word, and one mora is approximately 5 in Japanese.
It corresponds to one character of 0 sound. In addition, when speaking Japanese, this is used as a rule because the intonation is downward sloping. Then, the control unit 45 combines the accent and the intonation.

【0017】したがって、本発明によれば、放送局又は
VICSセンタ1の側で、送出すべき漢字かな混じり文
を構成する単語毎に、表示用の文字記号列データと、表
音用の音声記号列とを送信するので、受信機側では大容
量の言語辞書を持つ必要がなくなった。また、漢字かな
混じり文を単語に分割する言語処理が不必要となる。さ
らに、送出される漢字かな混じり文を構成する単語は表
示に適する順序になっているが、音声合成順序を付する
ので、表音に適する順序にでき、散文的な表示を韻律を
重視することが可能になる。
Therefore, according to the present invention, on the side of the broadcasting station or the VICS center 1, for each word constituting the kanji / kana mixture sentence to be transmitted, the character / symbol string data for display and the phonetic symbol for phonetic sound. Since there is no need to have a large linguistic dictionary on the receiver side, there is no need to have a language dictionary. In addition, language processing for dividing a kanji-kana mixed sentence into words is unnecessary. In addition, the words that make up the sent-out Kanji / Kana mixed sentence are in an order suitable for display, but since they are given a voice synthesis order, they can be arranged in an order suitable for phonetics, and prosodic display emphasizes prosody. Will be possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る、FM放送局又はVICSセンタ
が送信するFM放送、VICS情報の内容を説明する図
である。
FIG. 1 is a diagram for explaining the contents of FM broadcast and VICS information transmitted by an FM broadcast station or VICS center according to the present invention.

【図2】本発明に係る受信した文字データを音声に合成
する音声合成装置を示す図である。
FIG. 2 is a diagram showing a voice synthesizing apparatus for synthesizing received character data into voice according to the present invention.

【図3】補助データ辞書に格納される表音用の補助デー
タの1例を示す図である。
FIG. 3 is a view showing an example of phonetic auxiliary data stored in an auxiliary data dictionary.

【図4】補助データ呼出番号により、各単語の音声記号
列データを補助データにはめ込む制御動作例を説明する
図である。
FIG. 4 is a diagram illustrating an example of a control operation of fitting phonetic symbol string data of each word into auxiliary data according to an auxiliary data calling number.

【図5】車両の搭載される受信機を示す図である。FIG. 5 is a diagram showing a receiver mounted on a vehicle.

【図6】図5の音声合成装置4を示す図である。6 is a diagram showing the speech synthesizer 4 of FIG.

【符号の説明】[Explanation of symbols]

10…受信機 20…FM放送局、VICSセンタ 42…音素辞書 43…音響処理部 45…制御部 46…補助データ辞書 10 ... Receiver 20 ... FM broadcasting station, VICS center 42 ... Phoneme dictionary 43 ... Sound processing unit 45 ... Control unit 46 ... Auxiliary data dictionary

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 表示用の漢字かな混じり文を受信して音
声に合成する音声合成装置において、 送信側では、表示用の漢字かな混じり文を単語に分割し
て、単語毎に表示用の文字記号列データ、表音用の音声
記号列データ及びポーズデータを送出し、受信側では、
送信側から送出したデータを受信し、単語毎の音声記号
列データを抽出して、これに韻律情報を加えて音声に合
成することを特徴とする受信した文字データを音声に合
成する音声合成装置。
1. A voice synthesizer for receiving a kanji / kana mixed sentence for display and synthesizing it into a voice, wherein the transmitting side divides the kanji / kana mixed sentence for display into words, and displays a character for display for each word. The symbol string data, the phonetic symbolic phonetic symbol string data and the pause data are transmitted, and the receiving side
A voice synthesizing device for synthesizing received character data into voice, characterized by receiving data sent from a transmitting side, extracting voice symbol string data for each word, adding prosodic information to the extracted data, and synthesizing into voice .
【請求項2】 前記送信側では、さらに前記表示用の漢
字かな混じり文の文型を示す番号データを送出し、前記
受信側では、前記文型の番号データに対応して助詞、助
動詞、名詞の音声記号列データのパターンを格納し、前
記単語の音声記号列データをこのパターンに嵌め込むこ
とを特徴とする、請求項1に記載の受信した文字データ
を音声に合成する音声合成装置。
2. The transmitting side further sends out number data indicating the sentence pattern of the kanji-kana mixed sentence for display, and the receiving side corresponds to the sentence pattern number data, and a voice of a particle, an auxiliary verb, or a noun. The speech synthesizer for synthesizing received character data into speech according to claim 1, wherein a pattern of symbol string data is stored, and the speech symbol string data of the word is fitted into this pattern.
【請求項3】 前記送信側では、さらに前記表示用の漢
字かな混じり文を構成する単語毎に音声合成するための
順番データを送信し、前記受信側では、前記順番データ
にしたがって前記単語を音声合成することを特徴とす
る、請求項2に記載の受信した文字データを音声に合成
する音声合成装置。
3. The transmitting side further transmits order data for voice synthesis for each word constituting the kanji / kana mixed sentence for display, and the receiving side voices the word according to the order data. The voice synthesizing apparatus for synthesizing the received character data according to claim 2, into voice.
【請求項4】 前記送信側では、さらに単語のアクセン
トデータを送出し、受信側では、受信したアクセントデ
ータに韻律情報を加えて音声を合成することを特徴とす
る、請求項1に記載の受信した文字データを音声に合成
する音声合成装置。
4. The reception according to claim 1, wherein the transmitting side further transmits word accent data, and the receiving side synthesizes voice by adding prosody information to the received accent data. A voice synthesizer that synthesizes character data into voice.
【請求項5】 前記送信側では、送信するデータに受信
側で判別することを可能にするフラグを付けることを特
徴とする、請求項1乃至4のいずれか1項に記載の受信
した文字データを音声に合成する音声合成装置。
5. The received character data according to claim 1, wherein the transmitting side attaches a flag to the data to be transmitted so that the receiving side can determine the data. A speech synthesizer that synthesizes speech into speech.
JP08149126A 1996-06-11 1996-06-11 Speech synthesizer that synthesizes received character data into speech Expired - Fee Related JP3115232B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08149126A JP3115232B2 (en) 1996-06-11 1996-06-11 Speech synthesizer that synthesizes received character data into speech

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08149126A JP3115232B2 (en) 1996-06-11 1996-06-11 Speech synthesizer that synthesizes received character data into speech

Publications (2)

Publication Number Publication Date
JPH09330093A true JPH09330093A (en) 1997-12-22
JP3115232B2 JP3115232B2 (en) 2000-12-04

Family

ID=15468303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08149126A Expired - Fee Related JP3115232B2 (en) 1996-06-11 1996-06-11 Speech synthesizer that synthesizes received character data into speech

Country Status (1)

Country Link
JP (1) JP3115232B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6937987B2 (en) 2000-06-14 2005-08-30 Nec Corporation Character information receiving apparatus
JP2016201643A (en) * 2015-04-08 2016-12-01 ソニー株式会社 Transmission device, transmission method, reception device, and reception method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6937987B2 (en) 2000-06-14 2005-08-30 Nec Corporation Character information receiving apparatus
JP2016201643A (en) * 2015-04-08 2016-12-01 ソニー株式会社 Transmission device, transmission method, reception device, and reception method

Also Published As

Publication number Publication date
JP3115232B2 (en) 2000-12-04

Similar Documents

Publication Publication Date Title
JPH06332494A (en) Apparatus for enhancement of voice comprehension in translation of voice from first language into second language
WO2005093713A1 (en) Speech synthesis device
JPH11231885A (en) Speech synthesizing device
JPH05165486A (en) Text voice transforming device
JPH09330093A (en) Voice synthesizing device synthesizing received character data and voice
JP3518898B2 (en) Speech synthesizer
EP1324313B1 (en) Text to speech conversion
JPH0420998A (en) Voice synthesizing device
JP3900892B2 (en) Synthetic speech quality adjustment method and speech synthesizer
JP3192981B2 (en) Text-to-speech synthesizer
JPH0916190A (en) Text reading out device
JP4056647B2 (en) Waveform connection type speech synthesis apparatus and method
JP3805065B2 (en) In-car speech synthesizer
JP3058439B2 (en) Rule speech synthesizer
JP2006330486A (en) Speech synthesizer, navigation device with same speech synthesizer, speech synthesizing program, and information storage medium stored with same program
JP3432336B2 (en) Speech synthesizer
JP2000352990A (en) Foreign language voice synthesis apparatus
JPH05120596A (en) Traffic information display device
JPH03214197A (en) Voice synthesizer
JPH10228294A (en) Voice synthesizer
JPH09114807A (en) Sentence voice synthetic device
JPH04270395A (en) On-vehicle traffic information providing device
JPH07245745A (en) Voice presentation method for character information data
DasMandal et al. Bengali text to speech synthesis system a novel approach for crossing literacy barrier
JPH0420996A (en) Sentence-voice converter

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000822

LAPS Cancellation because of no payment of annual fees