JPH0997094A - Onboard voice synthesizer - Google Patents

Onboard voice synthesizer

Info

Publication number
JPH0997094A
JPH0997094A JP7252354A JP25235495A JPH0997094A JP H0997094 A JPH0997094 A JP H0997094A JP 7252354 A JP7252354 A JP 7252354A JP 25235495 A JP25235495 A JP 25235495A JP H0997094 A JPH0997094 A JP H0997094A
Authority
JP
Japan
Prior art keywords
voice
vehicle
received
converting
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7252354A
Other languages
Japanese (ja)
Other versions
JP3315845B2 (en
Inventor
Toshimitsu Minowa
輪 利 光 蓑
Hiroko Yoshida
田 博 子 吉
Hirofumi Nishimura
村 洋 文 西
Takeshi Nametake
武 剛 行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP25235495A priority Critical patent/JP3315845B2/en
Publication of JPH0997094A publication Critical patent/JPH0997094A/en
Application granted granted Critical
Publication of JP3315845B2 publication Critical patent/JP3315845B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To convert a teletext sent from a base station to a voice easy to listen of a message style by a start instruction by the voice from a user such as a driver, etc., and to output it. SOLUTION: When the teletext is received by a receiver 101, is stored in a storage 103, and is informed the driver by a display device 112 or a speaker 110. When the driver depresses a button 115, or performs voice instruction by a microphone 114, a central processing unit ill operates a language processor 104 and a voice synthesizer 107 to convert character information in the storage 103 to the voice. The conversion to the voice is performed so that the information is analyzed to a clause so as to become a message style, and its sound recorded voice is outputted when the clause coincides with the contents beforehand registered in a fixed sound recorded voice data base 108, and a synthesis voice or a fixed sound recorded voice using a synonym is outputted when they disagree. Further, a proper noun such as a place name, an institution name, etc., in the clause is voice converted automatically by twice each together with an attached noun.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、交通情報などの文字放
送を、音声に変換して運転者などの利用者に提供する車
載音声合成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an in-vehicle voice synthesizing device for converting teletext such as traffic information into voice and providing it to a user such as a driver.

【0002】[0002]

【従来の技術】近年、社会インフラ基地局から、交通情
報を文字放送によって運転者に提供するサービスが増え
ており、車載テレビなどの表示装置に漢字仮名混じり文
で情報が表示されている。このような装置の例につい
て、図面を参照して説明する。図7は従来の文字放送表
示装置の構成を示している。図7において、701はア
ンテナ、702は受信器、703は蓄積装置、704は
中央処理装置、705は表示装置、706はチューニン
グボタンである。運転者がチューニングボタン706を
押して、文字放送に受信機702をチューニングして文
字放送が受信されると、受信された漢字仮名混じり文字
情報は、いったん蓄積装置703に蓄積されたうえ、中
央処理装置704によって画面表示用に電気信号化さ
れ、表示装置705に漢字仮名混じり文として表示され
る。文字放送の情報はフレーム単位で送信され、そのフ
レームの先頭にID部を持つため、中央処理装置704
は、このID部を現在表示中の情報フレームのIDと比
較し、異なった時に新たなフレームの情報を表示して画
面を更新する。
2. Description of the Related Art In recent years, services for providing traffic information to drivers by text broadcasting from social infrastructure base stations are increasing, and information is displayed in kanji / kana mixed sentences on a display device such as an in-vehicle television. An example of such a device will be described with reference to the drawings. FIG. 7 shows the configuration of a conventional teletext display device. In FIG. 7, 701 is an antenna, 702 is a receiver, 703 is a storage device, 704 is a central processing unit, 705 is a display device, and 706 is a tuning button. When the driver presses the tuning button 706 to tune the receiver 702 to the teletext and the teletext is received, the received kanji / kana mixed text information is once stored in the storage device 703, and then the central processing unit. It is converted into an electric signal for screen display by 704 and is displayed on the display device 705 as a kanji-kana mixed sentence. Information on teletext is transmitted in frame units, and since an ID part is provided at the beginning of the frame, the central processing unit 704
Compares this ID part with the ID of the information frame currently being displayed, and when different, displays the information of a new frame and updates the screen.

【0003】このように、従来の文字放送表示装置によ
っても、文字放送を視覚情報として運転者に提供するこ
とが可能である。
As described above, the conventional teletext display device can also provide the teletext to the driver as visual information.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、運転中
に画面を注視することは危険であり、望ましくない。視
覚情報ではなく、聴覚情報、すなわち音声に変換したう
えで運転者に提供できれば、運転の安全性を大きく向上
できる。また、その操作も運転者の音声を使って行えれ
ば、ハンドルから手を離す必要もなくなり、さらに安全
性の向上を図ることができる。
However, gazing at the screen while driving is dangerous and undesirable. If the information can be provided to the driver after being converted into auditory information, that is, voice, instead of visual information, driving safety can be greatly improved. Further, if the operation can be performed by using the voice of the driver, it is not necessary to release the hand from the steering wheel, and the safety can be further improved.

【0005】本発明は、このような従来の問題を解決す
るものであり、交通情報などを運転者に音声で伝えるこ
とのできる車載音声合成装置を提供することを目的とす
る。
The present invention solves such a conventional problem, and an object of the present invention is to provide an in-vehicle voice synthesizer capable of transmitting traffic information to a driver by voice.

【0006】[0006]

【課題を解決するための手段】本発明は、上記目的を達
成するために、受信した漢字仮名混じり文字情報を構文
解析して、聞き易いメッセージ調音声となるように文節
に分解する言語処理手段と、この言語処理結果にもとづ
いて、予め録音してある定型音声または規則合成などに
よって合成された非定型音声を使って出力音声を作成す
る音声合成手段とを備え、文字情報を加工したうえで高
音質の音声に変換できるようにしたものである。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention is a language processing means for parsing received character information mixed with kanji and kana and breaking it down into clauses so as to give a message-like voice that is easy to hear. And a voice synthesizing means for creating an output voice using a prerecorded fixed voice or an atypical voice synthesized by rule synthesis based on the result of the language processing. It is designed to be converted into high-quality sound.

【0007】また、運転者が音声変換を開始するタイミ
ングを、ボタンやタッチパネルによらず、声で指示でき
るように音声認識手段を備えたものである。
Further, the voice recognition means is provided so that the driver can instruct the timing of starting voice conversion by voice without using a button or a touch panel.

【0008】[0008]

【作用】本発明は、上記構成によって、受信された文字
情報は、運転者からの声などの指示があると、言語処理
手段で文節単位に分解され、音声合成手段で予め録音し
てあった音声と同義のものに割り当てられ、同義のもの
が無い場合には規則合成などによって合成される合成音
声に割り当てられ、音声への変換が実現できる。また、
音声認識手段によって、運転者が手をハンドルから放さ
ないで声だけの指示で音声変換を行うすることができる
ので、運転の安全性を向上させることができる。
According to the present invention, the character information received is decomposed into phrase units by the language processing means and prerecorded by the voice synthesizing means when an instruction such as a voice from the driver is given. It is assigned to the synonymous one with the speech, and if there is no synonymous one, it is assigned to the synthetic speech synthesized by rule synthesis or the like, and the conversion into the speech can be realized. Also,
By the voice recognition means, the driver can perform voice conversion by only voice instructions without releasing the hand from the steering wheel, so that driving safety can be improved.

【0009】[0009]

【実施例】以下、本発明の実施例について図面を参照し
ながら説明する。図1は本発明の一実施例における車載
音声合成装置の構成を示すものである。図1において、
101はアンテナ、102は受信機、103は蓄積装
置、104は言語処理器、105は辞書データベース、
106は同義テーブル、107は音声合成器、108は
定型録音音声データベース、109は規則合成器、11
0はスピーカ、111は中央処理装置、112は表示装
置、113は音声認識装置、114はマイク、115は
ボタンである。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows the configuration of an in-vehicle voice synthesizer according to an embodiment of the present invention. In FIG.
101 is an antenna, 102 is a receiver, 103 is a storage device, 104 is a language processor, 105 is a dictionary database,
106 is a synonym table, 107 is a voice synthesizer, 108 is a fixed recording voice database, 109 is a rule synthesizer, 11
Reference numeral 0 is a speaker, 111 is a central processing unit, 112 is a display device, 113 is a voice recognition device, 114 is a microphone, and 115 is a button.

【0010】次に、上記実施例の動作について説明す
る。従来、文字放送は、利用者がチャンネルを合わせて
受信していたが、本実施例では利用者が予めセットした
交通情報チャンネルなどに常時チューニングしてあり、
表示装置112がナビゲーションなどの別画面を表示の
最中でも、受信器102がアンテナ101を通じて新た
なフレームを受信する度に、中央処理装置111がこれ
を検知し(検知は従来通り、フレームのID部分の比較
によって行う。)、音声合成器107から「交通情報を
受信しました」のようなメッセージをスピーカ110を
通して送出し、運転者(または利用者)に知らせる。運
転者は必要を感じなければ、何も操作する必要がなく、
受信されたフレーム情報は、蓄積装置103において、
それより前に受信されていたフレーム情報と置き換えら
れるのみである。
Next, the operation of the above embodiment will be described. Conventionally, the teletext has been received by the user by matching the channels, but in the present embodiment, the user is always tuned to a traffic information channel set in advance,
Even when the display device 112 is displaying another screen such as navigation, each time the receiver 102 receives a new frame through the antenna 101, the central processing unit 111 detects this (detection is performed in the same manner as in the conventional art. The voice synthesizer 107 sends a message such as “Traffic information received” through the speaker 110 to notify the driver (or user). If the driver does not feel the need, there is no need to operate anything,
The received frame information is stored in the storage device 103.
It only replaces the previously received frame information.

【0011】ただし、聞き逃しを防止するため、音声メ
ッセージと同時に、図2に示すように、表示装置112
の表示画面201の片隅に受信マーク202を一定時間
だけ表示する。表示時間は5秒程度が適当であり、受信
マーク202を点滅させればその効果が一層向上するこ
とは言うまでもない。
However, in order to prevent the user from not listening, at the same time as the voice message, as shown in FIG.
The reception mark 202 is displayed in one corner of the display screen 201 of FIG. A display time of about 5 seconds is suitable, and it goes without saying that blinking the reception mark 202 will further improve the effect.

【0012】受信を知った運転者は、ボタン115を押
して指示するか、マイク114に向かって音声変換を開
始する旨の音声指示を行う。この際の発声内容は「交通
情報表示」のようなもので、予め工場出荷時に設定され
ているが、好みによって利用者が登録し直すことも可能
である。登録する場合は、表示装置112の画面に日本
語の全音節を表示し、利用者が一音一音を選んで登録す
るか、利用者が車載音声合成装置を登録モードに切り替
えたうえで、発声内容を実際に発声することで登録す
る。後者の場合には、発声内容を登録した利用者以外の
声に反応しづらくなるので、防犯上にも有効である。
The driver who knows the reception pushes the button 115 to give an instruction, or gives a voice instruction to the microphone 114 to start voice conversion. The utterance content at this time is something like "traffic information display", which is set in advance at the time of factory shipment, but can be re-registered by the user if desired. When registering, all the Japanese syllables are displayed on the screen of the display device 112, and the user selects and registers one sound and one sound, or after the user switches the in-vehicle voice synthesizer to the registration mode, Register by actually speaking the utterance content. In the latter case, it is difficult to react to a voice other than the user who registered the utterance content, which is also effective in crime prevention.

【0013】この指示にもとづき、中央処理装置111
は、従来通り受信内容を表示装置112に表示するとと
もに、言語処理器104および音声合成器107を動作
させ、蓄積装置103に新たに受信されたフレームの漢
字仮名混じり文字情報を音声に変換させる。漢字仮名混
じり文字情報の音声への変換に際しては、聞き易いメッ
セージ調になるように、文節の長さを決め、文節の間に
ポーズが自動挿入される。
Based on this instruction, the central processing unit 111
Displays the received contents on the display device 112 as usual, and operates the language processor 104 and the voice synthesizer 107 to cause the storage device 103 to convert the character information containing the kanji and kana of the newly received frame into voice. When converting character information mixed with kanji and kana into speech, the length of the phrase is determined and a pause is automatically inserted between the phrases so that the message tone is easy to hear.

【0014】文節の長さは図3に示すフローチャートに
従って決められる。図3において、まず、言語処理器1
04は、蓄積装置103から受信した漢字仮名混じり文
字情報を、辞書105の中に格納された単語情報を使っ
て単語に分割する(ステップ301、302)。具体的
には、周知の構文解析アルゴリズム(たとえば岡田,p
p.10−19,「自然言語処理入門」, 共立出版株式会
社1991年)に従って、単語の品詞と係り受け情報(
ともに辞書データベース105に単語毎に格納されてい
る) を使って、単語どうしの接続関係が決められ、文節
が仮決定される(ステップ303)。このように決まっ
た文節の中の単語数と音節の数がチェックされ、5単語
を越えているか(ステップ304)、文節全体が13音
節以上でできている場合は(ステップ305)、この文
節を単語の切れめによって分割する(ステップ30
7)。分割は文節の中央の単語の直後を基本とするが、
この単語が付属語を伴う自立語の場合は、付属語の後を
分割点にする。このように分割された文節についても、
同じ基準で更に分割すべきときは分割が行われる(ステ
ップ308)、このような処理をすべての文節について
行う(ステップ306、309)。
The length of the phrase is determined according to the flowchart shown in FIG. In FIG. 3, first, the language processor 1
04 divides the kanji / kana mixed character information received from the storage device 103 into words using the word information stored in the dictionary 105 (steps 301 and 302). Specifically, well-known parsing algorithms (eg Okada, p.
p.10-19, "Introduction to Natural Language Processing", Kyoritsu Shuppan Co., Ltd., 1991), and the part of speech of a word and dependency information (
Both are stored in the dictionary database 105 for each word), the connection relation between the words is determined, and the clause is provisionally determined (step 303). In this way, the number of words and the number of syllables in the determined syllable are checked. If the number of words exceeds 5 words (step 304), or if the entire syllable consists of 13 syllables or more (step 305), this syllable is selected. Divide by breaking words (step 30)
7). The division is basically immediately after the word in the middle of the phrase,
If this word is an independent word accompanied by an adjunct word, a split point follows the adjunct word. For clauses divided in this way,
When further division is to be performed with the same criterion, division is performed (step 308), and such processing is performed for all clauses (steps 306 and 309).

【0015】図4は「明治通りは上り車線が事故によ
り、およそ5kmの渋滞です。」という放送内容の分割
例を示し、「明治通りは」「上り斜線が」「事故によ
り」「およそ5kmの」「渋滞です」に分割されてい
る。
FIG. 4 shows an example of division of the broadcast content "Meiji Dori is about 5 km of traffic congestion due to an accident in the up lane.""MeijiDori""Uphill diagonal line""Due to accident""About 5 km It is divided into "it is a traffic jam".

【0016】なお、1単語が13音節以上のものの場合
は例外とし、その単語と付属語のみの文節とする。ま
た、最大単語数の5、最大音節数の13は合成音声の話
速によっては別の値を用いた方が良い場合もある。早口
の場合は単語数は単語数、音節数ともに増やし、遅口の
場合は単語数、音節数ともに減らすべきである。
An exception is made when one word has 13 syllables or more, and a syllable of only that word and an annex is adopted. Further, it may be better to use different values for the maximum number of words 5 and the maximum number of syllables 13 depending on the speech speed of the synthesized speech. The number of words and the number of syllables should be increased in the case of fast talk, and the number of words and the number of syllables should be decreased in the case of late talk.

【0017】文節は、単語辞書からの読みとアクセント
情報を使って中間言語に書き換えられる。その例を図6
に示すが、カナの読みのアクセント核となる音の直後に
制御記号(/)とともに、アクセントの強さ(例えば0
と1の2段階)を示す数字が付けられる。
The phrase is rewritten into an intermediate language by using the reading from the word dictionary and the accent information. An example is shown in FIG.
, The accent strength of the accent (for example, 0
And 1)).

【0018】その後、文節は、予め定型録音音声データ
ベース108に登録してある定型録音音声内容と一致す
るものがあるかどうか、同義テーブル106を検索する
ことによりチェックされる。検索の際にはアクセント情
報は無視される。一致するものがある場合は、当該定型
録音音声番号が制御記号(&)とともに当該音節の中間
言語の後ろに付けられ、一致しないものには何も付けら
れない。この場合はカナの読みとアクセント情報を使っ
て合成音声が規則合成器109によって作成される。こ
のようにしてメッセージ調の音声変換が実現される。
After that, the phrase is checked by searching the synonym table 106 to find out whether or not there is a phrase that matches the content of the standard recorded voice registered in the standard recorded voice database 108 in advance. Accent information is ignored when searching. If there is a match, the fixed recording voice number is added after the intermediate language of the syllable together with the control symbol (&), and nothing is added to the non-match. In this case, the rule synthesizing unit 109 creates a synthesized voice using the reading of Kana and the accent information. In this way, message-like voice conversion is realized.

【0019】なお、規則合成器109の代わりに、日本
語の全音節を予め録音しておき、読み仮名通りに、この
録音された一音一音を送出することによっても合成音声
を実現することができる。日本語の全音節を声の高、
中、低の3段階程度で録音しておけば、アクセントを実
現することも可能である。
It should be noted that instead of the rule synthesizer 109, all Japanese syllables are recorded in advance, and the synthesized speech can be realized by sending out the recorded one note and one note as the reading kana. You can All Japanese syllables are loud,
Accent can also be realized by recording in three levels, medium and low.

【0020】また、図5に示すように、文節が必ずしも
定型録音音声データベース108に登録してある内容と
一致していなくても、同義テーブル106を参照して、
一致するものがある場合には、定型録音音声が出力され
る。
Further, as shown in FIG. 5, even if the phrase does not necessarily match the content registered in the standard recording voice database 108, the synonym table 106 is referred to,
If there is a match, the standard recording sound is output.

【0021】また、図6に示すように、漢字仮名混じり
文中の地名、施設名などの固有名詞は、名詞付属語とと
もに自動的に2回中間言語が割当られ、音声が2回ずつ
出力されるようにして聞きのがしを防止するようにす
る。
Further, as shown in FIG. 6, proper nouns such as place names and facility names in a sentence containing kanji and kana are automatically assigned an intermediate language twice together with a noun attached word, and a voice is output twice. In this way, we try to prevent listening.

【0022】なお、上記の実施例は、交通情報の文字放
送を受信する例を示したが、列車、船舶、航空機の発着
案内放送、飲食店などのサービス案内放送など、他の放
送にも同様に適用することは容易である。
Although the above-mentioned embodiment shows an example of receiving the teletext of the traffic information, the same applies to other broadcasts such as train / ship / aircraft departure / arrival guidance broadcasts and restaurant service announcements. Is easy to apply to.

【0023】また、案内放送以外の場合は、メッセージ
調の音声変換が不適切な場合もあり、利用者が選択ボタ
ンなどによって、文節長の制限を外し、定型録音音声の
割当をやめ、固有名詞も2回音声変換することをやめ
て、普通の読み上げ調の音声変換を行うようにすること
も容易である。
In addition, in cases other than guide broadcasting, message-style voice conversion may be inadequate, so that the user removes the phrase length restriction by using a selection button or the like, cancels the allocation of fixed-form recording voice, and uses proper nouns. Also, it is easy to stop the voice conversion twice and perform normal reading voice conversion.

【0024】また、文字放送が漢字仮名混じり文ではな
く、仮名だけであっても、単語辞書を仮名単語辞書にす
ることで、同様の処理を行うことができる。
Even if the character broadcast is not a mixed kanji / kana sentence but only kana, the same process can be performed by changing the word dictionary to a kana word dictionary.

【0025】[0025]

【発明の効果】以上のように、本発明によれば、運転者
が文字放送の内容を、必要な時に声で指示すれば、聞き
易いメッセージ調の音声として聞くことができる優れた
車載音声合成装置を実現することができる。
As described above, according to the present invention, if the driver indicates the content of the teletext with a voice when necessary, an excellent in-vehicle voice synthesis can be heard as a voice of a message tone that is easy to hear. The device can be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における車載音声合成装置の
構成を示すブロック図
FIG. 1 is a block diagram showing a configuration of an in-vehicle voice synthesizer according to an embodiment of the present invention.

【図2】本発明の一実施例における受信通知画面図FIG. 2 is a reception notification screen diagram according to an embodiment of the present invention.

【図3】本発明の一実施例におけるメッセージ調音声作
成のための受信文の文節への分解方法を示すフロー図
FIG. 3 is a flowchart showing a method of decomposing a received sentence into clauses for creating a message tone voice according to an embodiment of the present invention.

【図4】本発明の一実施例におけるメッセージ調音声作
成のための受信文文節分解図
FIG. 4 is an exploded view of a received phrase for creating a message tone voice according to an embodiment of the present invention.

【図5】本発明の一実施例における文節と録音された定
型音声の変換図
FIG. 5 is a conversion diagram of a phrase and a recorded fixed voice according to an embodiment of the present invention.

【図6】本発明の一実施例における固有名詞とその付属
名詞を自動的に2回音声変換するデータ図
FIG. 6 is a data diagram of automatically converting a proper noun and its adjunct nouns twice in one embodiment of the present invention.

【図7】従来の文字放送表示装置の構成を示すブロック
FIG. 7 is a block diagram showing a configuration of a conventional teletext display device.

【符号の説明】[Explanation of symbols]

101 アンテナ 102 受信機 103 蓄積装置 104 言語処理器 105 辞書データベース 106 同義テーブル 107 音声合成器 108 定型録音音声データベース 109 規則合成器 110 スピーカ 111 中央処理装置 112 表示装置 113 音声認識装置 114 マイク 115 ボタン( 音声変換開始ボタン) 101 antenna 102 receiver 103 storage device 104 language processor 105 dictionary database 106 synonym table 107 voice synthesizer 108 fixed recording voice database 109 rule synthesizer 110 speaker 111 central processing unit 112 display device 113 voice recognition device 114 microphone 115 button (voice (Start conversion button)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 行 武 剛 神奈川県横浜市港北区綱島東四丁目3番1 号 松下通信工業株式会社内 ─────────────────────────────────────────────────── ─── Continued Front Page (72) Inventor Takeshi Takeshi 4-3-1, Tsunashima-higashi, Kohoku-ku, Yokohama-shi, Kanagawa Matsushita Communication Industrial Co., Ltd.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 交通情報等の文字放送を受信し、その内
容を音声に変換して出力する手段を備えた車載音声合成
装置。
1. An in-vehicle voice synthesizing device comprising means for receiving teletext of traffic information and converting the content into voice and outputting the voice.
【請求項2】 交通情報等の文字放送を受信し、その内
容を音声に変換して出力するとともに、表示装置に表示
する手段を備えた請求項1記載の車載音声合成装置。
2. The in-vehicle voice synthesizing apparatus according to claim 1, further comprising means for receiving a text broadcast of traffic information, converting the content into a voice and outputting the voice, and displaying the voice on a display device.
【請求項3】 文字放送を受信し、いったん受信情報を
蓄積装置に蓄積して、合成音声によるか、または表示装
置上のマーク表示によって、またはその両者によって受
信があったことを運転者に通知する手段を備えた請求項
2記載の車載音声合成装置。
3. A driver is notified that a teletext is received, the received information is temporarily stored in a storage device, and the reception is made by a synthesized voice, a mark display on a display device, or both. The vehicle-mounted speech synthesizer according to claim 2, further comprising:
【請求項4】 受信した漢字仮名混じりの文字情報を音
声に変換する際に、構文解析を行い、一個の文節内に最
大5単語まで、または一個の文節内に音節数が最大13
個までという条件を設け、このうちの少ない方にしたが
って文節の範囲を決定し、文節と文節の間には一定の無
音区間を自動的に挿入してメッセージ調の音声になるよ
うに文節に分解する言語処理手段を備えた請求項1から
3のいずれかに記載の車載音声合成装置。
4. When converting the received character information mixed with kanji and kana into speech, a syntactic analysis is performed and a maximum of 5 words in one syllable or a maximum of 13 syllables in one syllable.
We set the condition of up to individual pieces, determine the range of bunsetsu according to the lesser one, and automatically insert a certain silent interval between bunsetsu and decompose it into bunsetsu to give a message-like voice. 4. The in-vehicle voice synthesizer according to claim 1, further comprising a language processing unit for performing the processing.
【請求項5】 受信した漢字仮名混じり文字情報を音声
に変換する際に、予め録音された定型音声を蓄積してあ
るデータベースの内容と比較し、一致した内容の場合に
は、その録音された音声を使い、一致した内容のものが
無い場合には、規則合成などの合成音声によって音声に
変換する音声合成手段を備えた請求項1から4のいずれ
かに記載の車載音声合成装置。
5. When converting the received kanji / kana mixed character information into voice, the prerecorded standard voice is compared with the contents of a database in which it is stored, and if the contents match, the recorded voice is recorded. 5. The in-vehicle voice synthesizing apparatus according to claim 1, further comprising a voice synthesizing unit that uses a voice and, when there is no matching content, converts the voice into a voice by a synthesized voice such as rule synthesis.
【請求項6】 受信した漢字仮名混じり文字情報を音声
に変換する際に、予め録音された定型音声を蓄積してあ
るデータベースの内容と比較し、一致していなくとも、
同義の場合には、その録音された音声を使い、同義のも
のが無い場合には、規則合成などの音声合成によって音
声に変換することを特徴とする請求項5記載の車載音声
合成装置。
6. When converting the received kanji-kana mixed character information into voice, the prerecorded standard voice is compared with the contents of a database in which it is stored, and even if they do not match,
The in-vehicle voice synthesizing apparatus according to claim 5, wherein the recorded voice is used in the case of synonym, and when there is no synonym, the voice is converted into voice by voice synthesis such as rule synthesis.
【請求項7】 受信した漢字仮名混じり文字情報を音声
に変換する際に、地名、施設名などの固有名詞の場合に
は、その固有名詞とその固有名詞に付属する名詞の付属
語を含んだ部分だけ一定の無音区間をおいて2回ずつ音
声変換することを特徴とする請求項5または6記載の車
載音声合成装置。
7. When converting the received kanji-kana mixed character information into voice, in the case of proper nouns such as place names and facility names, the proper nouns and the annexes of the nouns attached to the proper nouns are included. 7. The in-vehicle voice synthesizing apparatus according to claim 5 or 6, wherein voice conversion is performed twice for each part with a constant silence interval.
【請求項8】 音声変換の開始をボタンまたはタッチパ
ネルまたは音声認識によって利用者から指示することを
特徴とする請求項1から7のいずれかに記載の車載音声
合成装置。
8. The in-vehicle voice synthesizing apparatus according to claim 1, wherein the user instructs the start of voice conversion by a button, a touch panel, or voice recognition.
JP25235495A 1995-09-29 1995-09-29 In-vehicle speech synthesizer Expired - Fee Related JP3315845B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25235495A JP3315845B2 (en) 1995-09-29 1995-09-29 In-vehicle speech synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25235495A JP3315845B2 (en) 1995-09-29 1995-09-29 In-vehicle speech synthesizer

Publications (2)

Publication Number Publication Date
JPH0997094A true JPH0997094A (en) 1997-04-08
JP3315845B2 JP3315845B2 (en) 2002-08-19

Family

ID=17236130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25235495A Expired - Fee Related JP3315845B2 (en) 1995-09-29 1995-09-29 In-vehicle speech synthesizer

Country Status (1)

Country Link
JP (1) JP3315845B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006145848A (en) * 2004-11-19 2006-06-08 Kenwood Corp Speech synthesizer, speech segment storage device, apparatus for manufacturing speech segment storage device, method for speech synthesis, method for manufacturing speech segment storage device, and program
WO2009104613A1 (en) * 2008-02-19 2009-08-27 日本電気株式会社 Text conversion device, method, and program
US8027835B2 (en) 2007-07-11 2011-09-27 Canon Kabushiki Kaisha Speech processing apparatus having a speech synthesis unit that performs speech synthesis while selectively changing recorded-speech-playback and text-to-speech and method
JP2014238654A (en) * 2013-06-06 2014-12-18 株式会社豊田中央研究所 Operation assist device and program
JP2015132736A (en) * 2014-01-14 2015-07-23 カシオ計算機株式会社 Voice synthesizer, voice synthesis method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006145848A (en) * 2004-11-19 2006-06-08 Kenwood Corp Speech synthesizer, speech segment storage device, apparatus for manufacturing speech segment storage device, method for speech synthesis, method for manufacturing speech segment storage device, and program
US8027835B2 (en) 2007-07-11 2011-09-27 Canon Kabushiki Kaisha Speech processing apparatus having a speech synthesis unit that performs speech synthesis while selectively changing recorded-speech-playback and text-to-speech and method
WO2009104613A1 (en) * 2008-02-19 2009-08-27 日本電気株式会社 Text conversion device, method, and program
JP5521554B2 (en) * 2008-02-19 2014-06-18 日本電気株式会社 Text conversion device, method, and program
JP2014238654A (en) * 2013-06-06 2014-12-18 株式会社豊田中央研究所 Operation assist device and program
JP2015132736A (en) * 2014-01-14 2015-07-23 カシオ計算機株式会社 Voice synthesizer, voice synthesis method, and program

Also Published As

Publication number Publication date
JP3315845B2 (en) 2002-08-19

Similar Documents

Publication Publication Date Title
KR100303411B1 (en) Singlecast interactive radio system
US6081780A (en) TTS and prosody based authoring system
US5924068A (en) Electronic news reception apparatus that selectively retains sections and searches by keyword or index for text to speech conversion
EP2407961B1 (en) Broadcast system using text to speech conversion
US8380499B2 (en) Speech recognition adjustment based on manual interaction
US20050043067A1 (en) Voice recognition in a vehicle radio system
JP2007538278A (en) Speech recognition system
JPH10504116A (en) Apparatus for reproducing encoded audio information in a vehicle
JPH0944189A (en) Device for reading text information by synthesized voice and teletext receiver
JP3315845B2 (en) In-vehicle speech synthesizer
JP2001005487A (en) Voice recognition device
JP3900892B2 (en) Synthetic speech quality adjustment method and speech synthesizer
EP1324313B1 (en) Text to speech conversion
JP3821511B2 (en) Traffic information device
JPH02196373A (en) Voice transmission/reception device
JPH1028068A (en) Radio device
JP2002062889A (en) Speech synthesizing method
JP2000112488A (en) Voice converting device
JP4979336B2 (en) Audio output device
JP3115232B2 (en) Speech synthesizer that synthesizes received character data into speech
JP3372382B2 (en) FM multiplex broadcast receiver
JPH03214197A (en) Voice synthesizer
JPH11353587A (en) Navigation system
JPH02196372A (en) Voice transmission/reception device
JPH0535776A (en) Translation system provided with automatic language selecting function

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080607

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090607

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees