JPS6288028A - Text vocalizing device - Google Patents

Text vocalizing device

Info

Publication number
JPS6288028A
JPS6288028A JP60229246A JP22924685A JPS6288028A JP S6288028 A JPS6288028 A JP S6288028A JP 60229246 A JP60229246 A JP 60229246A JP 22924685 A JP22924685 A JP 22924685A JP S6288028 A JPS6288028 A JP S6288028A
Authority
JP
Japan
Prior art keywords
kanji
utterance
kana
vocalizing
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60229246A
Other languages
Japanese (ja)
Inventor
Yutaka Ooyama
裕 大山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP60229246A priority Critical patent/JPS6288028A/en
Publication of JPS6288028A publication Critical patent/JPS6288028A/en
Pending legal-status Critical Current

Links

Landscapes

  • Document Processing Apparatus (AREA)

Abstract

PURPOSE:To improve the understandability of a test by providing plural vocalizing devices that prepare different vocalizing forms with each other at a vocalizing means and switching them from a specified character combination. CONSTITUTION:A text vocalizing device is constituted with an overall controller 1, a KANJI(Chinese character/KANA(Japanese syllabary) character string input device 2, a character string attribute detecting device 3, a KANJI/KANA conversion device 4 that forms read information, three kinds of vocalizing devices 11-13, and a vocalizing device controller 5 that selects one out of the above vocalizing devices. In the device, the presence of the character combination that regulates an attribute in a KANJI/KANA character string inputted from the input device 2 is investigated at the attribute detecting device 3 and also, the read information of the character string is formed at the conversion device 4. The read information and an attribute information are sent to the vocalizing device controller 5, and one of the vocalizing devices 11-13 is selected by the attribute information, the reading information being vocalized.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、入力された漢字かな文字列を音声で発声する
文章発声装置に関するものであり、さらに詳細には、漢
字かな文字列の会話部分や注釈部分の発声をそれら以外
と変えることにより、発声内容をより明確にする文章発
声装置に関するものである。
[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to a text utterance device that utters input Kanji-Kana character strings, and more specifically, the present invention relates to a text utterance device that utters input Kanji-Kana character strings. The present invention relates to a text utterance device that makes the content of the utterance more clear by changing the utterance of the text and annotation portions to other parts.

〔従来の技術とその問題点〕[Conventional technology and its problems]

漢字かな文字列を入力して音声を出力する文章発声装置
は、入力文章の読み合わせやデータベース問い合わせな
どに利用することで、非常に大きな効果を上げることが
できる。従来の文章発声装置は、入力された漢字かな文
字列を漢字かな変換して読み文字列を得た後に昨音節早
−位に発声するものであり、このとき形態素解析による
m語区切りやアクセ〉1〜、イントネーション情報の付
与。などにより、発声をより自然にすることも可能とな
っている。このような従来技術に関する文献としたは、
例えば昭和57年度電子通信学会総合全国大会予稿56
−3[日本語テキストからの音声合成」などが挙げられ
る。しかしながら、上記の技術では、発声する部分が会
話の途中であったり注釈部分であるといった情報がない
ため、例えば、「有難う」と彼が言った。
A text utterance device that inputs kanji and kana character strings and outputs audio can be used to great effect when used to read input text aloud, query databases, etc. Conventional sentence utterance devices convert the input kanji-kana character string to kanji-kana to obtain the reading character string, and then utter the previous syllable in the early - position. 1 - Adding intonation information. This makes it possible to make the vocalizations more natural. Documents related to such prior art include:
For example, Proceedings of the 1981 National Conference of the Institute of Electronics and Communication Engineers 56
-3 [Speech synthesis from Japanese text] etc. However, with the above technology, there is no information such as whether the part to be uttered is in the middle of a conversation or an annotation, so for example, he says, "Thank you."

という文章は、 ありがとう−とかれがいった のように、ポーズをあけることはできても、その音質を
変えるなどにより会話部分であることを明確化すること
はできなかった。(下線はポーズを示すものとする) 同様に、 昭和60年(1985)に、 という文章は、 しょうわろくじゅうねん−せんきゅうひやくはちじゆう
ご−に のように発声されるため、” 1985°゛が゛昭和C
)0年゛の注釈であることを明確に知ることはできず、
結果的に文章の了解度を著しく低下させていた。
Although the sentence ``Thank you'' could be paused, it was not possible to make it clear that it was a conversation by changing the sound quality. (The underline indicates a pose.) Similarly, in 1985, the sentence ``Showarokujuunen-senkyuhiyakuhachijiyugo-ni'' is pronounced as ``1985''. °゛ga゛Showa C
) It is not possible to clearly know that it is an annotation for year 0,
As a result, the intelligibility of the text was significantly reduced.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、これまで述べてきた従来技術の欠点を
回避し、文章発声途中の会話部分や注釈部分などを明確
に聞き取ることの可能な文章発声装置を提供することに
ある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a text utterance device that avoids the drawbacks of the conventional techniques described above and allows a user to clearly hear a conversation part, annotation part, etc. during the utterance of a text.

〔発明の構成〕[Structure of the invention]

本発明によれば、漢字かな文字列を入力するための人力
装置と、該漢字かな文字列を漢字かな変換して該漢字か
な文字列の読み情報を形成する漢字かな変換装置と、該
読み情報をもとに発声を行なう発声手段とを有する文章
発声装置において、前記発声手段が、互いに異なる発声
形態を収る複数個の発声装置を備え、前記漢字かな文字
列内における特定の文字組み合わせの存在を知ることに
よって該特定の文字組み合わせで囲まれた部分の属性を
検出する属性検出装置と、該属性検出装置で得られた該
属性により前記発声装置を切り替える発声装置制御装置
を備えとことを特徴とする文章発声装置が得られる。
According to the present invention, there is provided a human-powered device for inputting a Kanji-Kana character string, a Kanji-Kana conversion device that converts the Kanji-Kana character string into Kanji-Kana character strings to form reading information of the Kanji-Kana character string, and the reading information. A text utterance device having a utterance means for uttering a utterance based on the utterance, the utterance means comprising a plurality of utterance devices each having a different utterance form, and wherein the utterance device includes a plurality of utterance devices each having a different utterance form, and the utterance device is configured to emit a utterance based on the existence of a specific character combination in the kanji-kana character string. an attribute detection device that detects an attribute of a portion surrounded by the specific character combination by knowing the character combination; and a voice device control device that switches the voice device based on the attribute obtained by the attribute detection device. A sentence utterance device is obtained.

〔実施例〕〔Example〕

以下、本発明の実施例について図面を参照して詳細に説
明する6 第1図は本発明の一実施例を示す。1は全体の流れの制
御を行うための全体制御装置であり、2は漢字かな文字
列を入力する漢字かな文字列入力装置であり、3は漢字
かな文字列内における特定の文字組み合わせの存在を知
ることによって該特定の文字組み合わせで囲まれた部分
の属性を検出する属性検出装置であり、4は漢字かな文
字列入力装置2で得られた漢字かな文字列を解析して、
読み情報を形成する漢字かな変換装置であり、5は属性
検出装置3によって得られた漢字かな文字列の属性をも
とに、後述する3種類の発声装置の中から1つを選択す
る発声装置制御装置であり、]、1.12.13は発声
装置制御装置5の制御のらとに漢字かな変換装置4で得
られた読み情報を発声するための発声装置である。本実
施例における処理手順の流れを第3図に示す。なお、本
実施例において属性検出装置3が検出する特定の文字組
み音わせは、会話部分を示す“°「パと1°′、および
注釈部分を示ず°(“′と゛)″であるらのとし、会話
部分発声装置11を、注釈部分発声用に発声装置12を
、それ以外(以後、通常部分と呼ぶ)に発声装置13を
使用するものとする。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.6 Figure 1 shows an embodiment of the present invention. 1 is an overall control device for controlling the overall flow, 2 is a kanji-kana character string input device for inputting kanji-kana character strings, and 3 is a device for detecting the existence of a specific character combination within a kanji-kana character string. 4 is an attribute detection device that detects the attribute of the part surrounded by the specific character combination by knowing the character combination; 4 analyzes the Kanji-Kana character string obtained by the Kanji-Kana character string input device 2;
It is a kanji-kana conversion device that forms reading information, and 5 is a vocalization device that selects one of the three types of vocalization devices described below based on the attributes of the kanji-kana character string obtained by the attribute detection device 3. ], 1.12.13 is a voice device for vocalizing the reading information obtained by the Kanji-Kana conversion device 4 under the control of the voice device control device 5. FIG. 3 shows the flow of the processing procedure in this embodiment. In this embodiment, the specific character combinations detected by the attribute detection device 3 are "°" and "1°'" indicating a conversational part, and "°("' and ゛)'' indicating an annotation part. Assume that the conversation part voicing device 11 is used, the voicing device 12 is used for voicing the annotation part, and the voicing device 13 is used for other parts (hereinafter referred to as normal parts).

ここでは、実際に 「有難う」と彼(太部)が言った。Here we actually ``Thank you,'' he said.

という文章が人力された際の処理の流れを説明する。We will explain the processing flow when the sentence is written manually.

はじめに、漢字かな文字列人力装置2から入力された上
記漢字かな文字列は、全体制御装置1の制御のもとで属
性検出装置3に送られる。属性検出装置3は、入力漢字
かな文字列の中から属性を規定する文字組み合わせの存
在を調べる。本例では、”r”とJ”′に囲まれている
°“有難う゛が会話部分であることがわかる。一方、入
力漢字かな文字列は、全体制御装置1の制御のもとて漢
字かな変換装置4に送られ、漢字かな変換され、発声に
必要な読み情報が形成される。本例における゛°有難う
“からは、読み゛ありがとう゛が得られる。
First, the above-mentioned Kanji/Kana character string inputted from the Kanji/Kana character string human power device 2 is sent to the attribute detection device 3 under the control of the overall control device 1 . The attribute detection device 3 checks the existence of a character combination that defines an attribute in the input Kanji/Kana character string. In this example, it can be seen that "Thank you" surrounded by "r" and J"' is a conversational part. On the other hand, the input Kanji/Kana character string is sent to the Kanji/Kana conversion device 4 under the control of the overall control device 1, where it is converted into Kanji/Kana and the reading information necessary for vocalization is formed. In this example, "thank you" translates into "thank you for reading."

漢字かな変換′A置4によって得られた読み情報と属性
検出装置3によって得られた属性情報は、全体制陶装;
な1の制御のもとて発声装置制御装置5に送られ、発声
装置制御装置5によって属性情報に応じて発声装置11
〜】3のいずれかに出力される。発声装置11〜13は
読み情報を受けると、全体制御装置1の制御のもとで与
えられた読み情報を発声する。本例では、漢字かな変換
′!A置4から送られた読み″ありがとう″が会話部分
であるなめ5発声装置11に送られ、発声される。
The reading information obtained by the kanji-kana conversion 'A device 4 and the attribute information obtained by the attribute detection device 3 are used as a whole system;
1 to the voice generating device control device 5, and the voice generating device control device 5 controls the voice generating device 11 according to the attribute information.
]3. When the vocalization devices 11 to 13 receive the reading information, they vocalize the given reading information under the control of the overall control device 1. In this example, Kanji-kana conversion′! The reading "Thank you" sent from A4 is sent to the name 5 voice device 11, which is the conversation part, and is uttered.

以下同様にして、“と彼゛の読みである゛とかれ′が通
常部分として発声装置13から発声され、゛′太部゛が
゛(°°と°゛)“に囲まれているため注釈部分とみな
され、その読みである″たろう″が発声装置I2から発
声され、°゛が言った′の読みである′″がいった”′
が通常部分として発声装置13から発声される。
In the same way, "and he" are uttered from the voice device 13 as normal parts, and the "fat part" is surrounded by "(°° and °゛)", so it is annotated. ``Taro'', which is the reading, is uttered from the vocal device I2, and ``'', which is the reading of ``, which ゛ said'' was said.''
is uttered from the vocalization device 13 as a normal part.

これら一連の1順により、利用者は ありがとう−とかれ−なろう−かいつ/、二の発声を間
きながら、“ありがとう°が会話部分、゛たろう″かl
t釈部分、それ以外が通常部分て、hることを知ること
ができる。
Through this series of first order, the user can say ``Arigatou ° is the conversation part, ``Tarou'' or ``Arigatou ° is the conversational part,'' while pausing the second utterance.
You can see that the t-interpreted part is the normal part, and the other part is the normal part.

なお、第1図に示されている各装置在は、いずれら従来
技術により実現可能なものである。また。
Note that each device shown in FIG. 1 can be realized using conventional techniques. Also.

発声装置11〜13の異なる発声形態の実現は、例えば
音量やピ・ソチを変えろことなと゛により容′−hに実
現することができる。
The different vocal forms of the voice generating devices 11 to 13 can be easily realized by, for example, changing the volume or pitch.

第2図は本発明の他の実施例でj)ろ。第1[七ハ実施
例では、属性検出装置3によ−)て得に>Itたに:*
:性情報と漢字かな変換装置4によ−)で得らiまた読
み情報が別々に発声装置制御装置5に送t、ノlる構成
をとっているが、本実施例では属性情?G a漢字かな
文字列に付加した形で漢字かな変換装置・1を経由して
発声装置制御装置5に送るI[3態をと−っている。
FIG. 2 shows another embodiment of the present invention. The first [in the seventh embodiment, the attribute detection device 3] specifically>It is: *
Although the configuration is such that the gender information and the reading information obtained from the Kanji/Kana conversion device 4 are sent separately to the voice control device 5, in this embodiment, the attribute information? Ga is added to the kanji-kana character string and sent to the voice-producing device control device 5 via the kanji-kana conversion device 1.

すなわち、この場合は、漢字かな文字列入力装置2から
入力された入力漢字かな文字列は、ま・J”全体制御装
置1の制御のらとで属性検出装置3に送られ、特定の文
字組み合わせで囲まれた部分の属性が検出される。次に
入力漢字かな文字列は全体制御装置1の制御のらとで漢
字かな変換装置4に送られ、漢字かな変換され、発声に
必要な読み情報が形成される6次に、漢字かな変換装置
4によって得られた読み情報と属性検出装置3によって
得られた属性情報は、全体制御装置1の制御のもとで発
声装置制御装置5に送られ、発声装置制御装置5によっ
て属性情報に応じて発声装置11〜13のいずれかに出
力される。
That is, in this case, the input kanji/kana character string inputted from the kanji/kana character string input device 2 is sent to the attribute detection device 3 under the control of the overall control device 1, and is searched for a specific character combination. The attributes of the part surrounded by are detected.Next, the input kanji-kana character string is sent to the kanji-kana conversion device 4 under the control of the overall control device 1, where it is converted into kanji-kana and the reading information necessary for utterance is generated. Next, the reading information obtained by the kanji-kana conversion device 4 and the attribute information obtained by the attribute detection device 3 are sent to the utterance device control device 5 under the control of the overall control device 1. , is outputted by the voice device control device 5 to any of the voice devices 11 to 13 according to the attribute information.

第3図は第1図に示す実施例における処理の流れを示す
フローチャートである。漢字かな文字列が入力されると
、属性の検出により、会話部、注釈部9通常部が検出さ
れる。一方漢字かな変換により読みが得られ、前記属性
に応じた発声が行なわれる。また、第3図の流れは、漢
字かな文字列をまとめて入力し、属性検出、ン英字かな
変換の後、発声を行う形態になっているが、漢字かな文
字列入力から音声出力までの手順を繰り返す形態をとる
など、いろいろの変形か’+7]能である。
FIG. 3 is a flowchart showing the flow of processing in the embodiment shown in FIG. When a kanji/kana character string is input, a conversation part, an annotation part 9, and a normal part are detected by attribute detection. On the other hand, the reading is obtained by kanji-kana conversion, and utterances are performed according to the attributes. In addition, the flow shown in Figure 3 is to input Kanji/Kana character strings all at once, detect attributes, convert to English/Kana, and then utter the words. It can be modified in various ways, such as by repeating ``+7''.

〔発明の効果J 以上述べたように本発明を用いると、利用者か発Jhを
聞くだけで会話部分、注釈部分1通常部分の区別を容易
に認識することができるため、た竜の了解度を大きく向
上させることができる。
[Effect of the invention J As described above, when the present invention is used, the user can easily distinguish between the conversation part, the annotation part 1 and the normal part just by listening to the utterance Jh, so the intelligibility of the user can be improved. can be greatly improved.

【図面の簡単な説明】[Brief explanation of drawings]

第1図および第2図は本発明を説明するためJ)ブロッ
ク図4第3図は第1図における処理の?FLれを示すフ
ローチャー1・である。 1・・全体制御装置、2・・・漢字かな文字列入力装置
、3・・・属性検出装置、4・・・漢字かな変換装置、
5・・・発声装置制御装置、11.12.13・・発声
装置。 、、、:’、、L 代理入 弁理士 内 原  昔゛6゜ + 、’!!、、、。 茅 3 図
1 and 2 are for explaining the present invention J) Block diagram 4 FIG. 3 shows the processing in FIG. 1? This is a flowchart 1 showing FL deviation. 1... Overall control device, 2... Kanji-kana character string input device, 3... Attribute detection device, 4... Kanji-kana conversion device,
5...Voice device control device, 11.12.13...Voice device. ,,,:',, L Acting Patent Attorney Uchihara Former゛6゜+ ,'! ! ,,,. Kaya 3 figure

Claims (1)

【特許請求の範囲】 1、漢字かな文字列を入力するための入力装置と、該漢
字かな文字列を漢字かな変換して該漢字かな文字列の読
み情報を形成する漢字かな変換装置と、該読み情報をも
とに発声を行う発声手段とを有する文章発声装置におい
て、前記発声手段が、互いに異なる発声形態を取る複数
個の発声装置を備え、前記漢字かな文字列内における特
定の文字組み合わせの存在を知ることによって該特定の
文字組み合わせで囲まれた部分の属性を検出する属性検
出装置と、該属性検出装置で得られた該属性により前記
発声装置を切り替える発声装置制御装置を備えたことを
特徴とする文章発声装置。 2、前記特定の文字組み合わせは、会話部分、注釈部分
の少なくとも一方であることを規定する文字組み合わせ
であることを特徴とする特許請求の範囲第1項記載の文
章発声装置。
[Scope of Claims] 1. An input device for inputting a Kanji-Kana character string, a Kanji-Kana conversion device that converts the Kanji-Kana character string to Kanji-Kana to form reading information of the Kanji-Kana character string, and In a text utterance device, the utterance device includes a plurality of utterance devices each having a different utterance form, and the utterance means includes a plurality of utterance devices that make utterances based on reading information, and the utterance means includes a plurality of utterance devices that take different utterance forms, and the utterance device is configured to utter a specific character combination in the Kanji-Kana character string. An attribute detection device that detects the attribute of the part surrounded by the specific character combination by knowing the existence thereof, and a voice device control device that switches the voice device based on the attribute obtained by the attribute detection device. Characteristic text production device. 2. The text utterance device according to claim 1, wherein the specific character combination is a character combination that defines at least one of a conversation part and an annotation part.
JP60229246A 1985-10-14 1985-10-14 Text vocalizing device Pending JPS6288028A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60229246A JPS6288028A (en) 1985-10-14 1985-10-14 Text vocalizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60229246A JPS6288028A (en) 1985-10-14 1985-10-14 Text vocalizing device

Publications (1)

Publication Number Publication Date
JPS6288028A true JPS6288028A (en) 1987-04-22

Family

ID=16889104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60229246A Pending JPS6288028A (en) 1985-10-14 1985-10-14 Text vocalizing device

Country Status (1)

Country Link
JP (1) JPS6288028A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0282300A (en) * 1988-09-20 1990-03-22 Fujitsu Ltd Device for reading sentence aloud

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0282300A (en) * 1988-09-20 1990-03-22 Fujitsu Ltd Device for reading sentence aloud

Similar Documents

Publication Publication Date Title
JP4536323B2 (en) Speech-speech generation system and method
US20070088547A1 (en) Phonetic speech-to-text-to-speech system and method
JP2004271895A (en) Multilingual speech recognition system and pronunciation learning system
JPS63157226A (en) Conversation type sentence reading device
JPS6288028A (en) Text vocalizing device
JPH08335096A (en) Text voice synthesizer
JP2003162524A (en) Language processor
JPS6288026A (en) Text vocalizing device
JPS60188995A (en) Sentence enunciation
JP2000330588A (en) Method and system for processing speech dialogue and storage medium where program is stored
JP2001343987A (en) Method and device for voice synthesis
JP3034554B2 (en) Japanese text-to-speech apparatus and method
JP2658476B2 (en) Document Braille device
JP2001042883A (en) Text speech synthesis apparatus
JPH0760378B2 (en) Text-to-speech device
JPS62119591A (en) Sentence reciting apparatus
JP2001350490A (en) Device and method for converting text voice
JP2004053979A (en) Method and system for generating speech recognition dictionary
JPH02308194A (en) Foreign language learning device
JPS63140329A (en) Sentence reading system
JPS58154900A (en) Sentence voice converter
JPS60225272A (en) Kana-kanji converting device of voice input
JPS6027433B2 (en) Japanese information input device
JPS6184772A (en) Audio typewriter
JPS63153595A (en) Voice sentence input device