JPS6288028A - Text vocalizing device - Google Patents
Text vocalizing deviceInfo
- Publication number
- JPS6288028A JPS6288028A JP60229246A JP22924685A JPS6288028A JP S6288028 A JPS6288028 A JP S6288028A JP 60229246 A JP60229246 A JP 60229246A JP 22924685 A JP22924685 A JP 22924685A JP S6288028 A JPS6288028 A JP S6288028A
- Authority
- JP
- Japan
- Prior art keywords
- kanji
- utterance
- kana
- vocalizing
- character string
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Document Processing Apparatus (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、入力された漢字かな文字列を音声で発声する
文章発声装置に関するものであり、さらに詳細には、漢
字かな文字列の会話部分や注釈部分の発声をそれら以外
と変えることにより、発声内容をより明確にする文章発
声装置に関するものである。[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to a text utterance device that utters input Kanji-Kana character strings, and more specifically, the present invention relates to a text utterance device that utters input Kanji-Kana character strings. The present invention relates to a text utterance device that makes the content of the utterance more clear by changing the utterance of the text and annotation portions to other parts.
漢字かな文字列を入力して音声を出力する文章発声装置
は、入力文章の読み合わせやデータベース問い合わせな
どに利用することで、非常に大きな効果を上げることが
できる。従来の文章発声装置は、入力された漢字かな文
字列を漢字かな変換して読み文字列を得た後に昨音節早
−位に発声するものであり、このとき形態素解析による
m語区切りやアクセ〉1〜、イントネーション情報の付
与。などにより、発声をより自然にすることも可能とな
っている。このような従来技術に関する文献としたは、
例えば昭和57年度電子通信学会総合全国大会予稿56
−3[日本語テキストからの音声合成」などが挙げられ
る。しかしながら、上記の技術では、発声する部分が会
話の途中であったり注釈部分であるといった情報がない
ため、例えば、「有難う」と彼が言った。A text utterance device that inputs kanji and kana character strings and outputs audio can be used to great effect when used to read input text aloud, query databases, etc. Conventional sentence utterance devices convert the input kanji-kana character string to kanji-kana to obtain the reading character string, and then utter the previous syllable in the early - position. 1 - Adding intonation information. This makes it possible to make the vocalizations more natural. Documents related to such prior art include:
For example, Proceedings of the 1981 National Conference of the Institute of Electronics and Communication Engineers 56
-3 [Speech synthesis from Japanese text] etc. However, with the above technology, there is no information such as whether the part to be uttered is in the middle of a conversation or an annotation, so for example, he says, "Thank you."
という文章は、
ありがとう−とかれがいった
のように、ポーズをあけることはできても、その音質を
変えるなどにより会話部分であることを明確化すること
はできなかった。(下線はポーズを示すものとする)
同様に、
昭和60年(1985)に、
という文章は、
しょうわろくじゅうねん−せんきゅうひやくはちじゆう
ご−に
のように発声されるため、” 1985°゛が゛昭和C
)0年゛の注釈であることを明確に知ることはできず、
結果的に文章の了解度を著しく低下させていた。Although the sentence ``Thank you'' could be paused, it was not possible to make it clear that it was a conversation by changing the sound quality. (The underline indicates a pose.) Similarly, in 1985, the sentence ``Showarokujuunen-senkyuhiyakuhachijiyugo-ni'' is pronounced as ``1985''. °゛ga゛Showa C
) It is not possible to clearly know that it is an annotation for year 0,
As a result, the intelligibility of the text was significantly reduced.
本発明の目的は、これまで述べてきた従来技術の欠点を
回避し、文章発声途中の会話部分や注釈部分などを明確
に聞き取ることの可能な文章発声装置を提供することに
ある。SUMMARY OF THE INVENTION An object of the present invention is to provide a text utterance device that avoids the drawbacks of the conventional techniques described above and allows a user to clearly hear a conversation part, annotation part, etc. during the utterance of a text.
本発明によれば、漢字かな文字列を入力するための人力
装置と、該漢字かな文字列を漢字かな変換して該漢字か
な文字列の読み情報を形成する漢字かな変換装置と、該
読み情報をもとに発声を行なう発声手段とを有する文章
発声装置において、前記発声手段が、互いに異なる発声
形態を収る複数個の発声装置を備え、前記漢字かな文字
列内における特定の文字組み合わせの存在を知ることに
よって該特定の文字組み合わせで囲まれた部分の属性を
検出する属性検出装置と、該属性検出装置で得られた該
属性により前記発声装置を切り替える発声装置制御装置
を備えとことを特徴とする文章発声装置が得られる。According to the present invention, there is provided a human-powered device for inputting a Kanji-Kana character string, a Kanji-Kana conversion device that converts the Kanji-Kana character string into Kanji-Kana character strings to form reading information of the Kanji-Kana character string, and the reading information. A text utterance device having a utterance means for uttering a utterance based on the utterance, the utterance means comprising a plurality of utterance devices each having a different utterance form, and wherein the utterance device includes a plurality of utterance devices each having a different utterance form, and the utterance device is configured to emit a utterance based on the existence of a specific character combination in the kanji-kana character string. an attribute detection device that detects an attribute of a portion surrounded by the specific character combination by knowing the character combination; and a voice device control device that switches the voice device based on the attribute obtained by the attribute detection device. A sentence utterance device is obtained.
以下、本発明の実施例について図面を参照して詳細に説
明する6
第1図は本発明の一実施例を示す。1は全体の流れの制
御を行うための全体制御装置であり、2は漢字かな文字
列を入力する漢字かな文字列入力装置であり、3は漢字
かな文字列内における特定の文字組み合わせの存在を知
ることによって該特定の文字組み合わせで囲まれた部分
の属性を検出する属性検出装置であり、4は漢字かな文
字列入力装置2で得られた漢字かな文字列を解析して、
読み情報を形成する漢字かな変換装置であり、5は属性
検出装置3によって得られた漢字かな文字列の属性をも
とに、後述する3種類の発声装置の中から1つを選択す
る発声装置制御装置であり、]、1.12.13は発声
装置制御装置5の制御のらとに漢字かな変換装置4で得
られた読み情報を発声するための発声装置である。本実
施例における処理手順の流れを第3図に示す。なお、本
実施例において属性検出装置3が検出する特定の文字組
み音わせは、会話部分を示す“°「パと1°′、および
注釈部分を示ず°(“′と゛)″であるらのとし、会話
部分発声装置11を、注釈部分発声用に発声装置12を
、それ以外(以後、通常部分と呼ぶ)に発声装置13を
使用するものとする。Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.6 Figure 1 shows an embodiment of the present invention. 1 is an overall control device for controlling the overall flow, 2 is a kanji-kana character string input device for inputting kanji-kana character strings, and 3 is a device for detecting the existence of a specific character combination within a kanji-kana character string. 4 is an attribute detection device that detects the attribute of the part surrounded by the specific character combination by knowing the character combination; 4 analyzes the Kanji-Kana character string obtained by the Kanji-Kana character string input device 2;
It is a kanji-kana conversion device that forms reading information, and 5 is a vocalization device that selects one of the three types of vocalization devices described below based on the attributes of the kanji-kana character string obtained by the attribute detection device 3. ], 1.12.13 is a voice device for vocalizing the reading information obtained by the Kanji-Kana conversion device 4 under the control of the voice device control device 5. FIG. 3 shows the flow of the processing procedure in this embodiment. In this embodiment, the specific character combinations detected by the attribute detection device 3 are "°" and "1°'" indicating a conversational part, and "°("' and ゛)'' indicating an annotation part. Assume that the conversation part voicing device 11 is used, the voicing device 12 is used for voicing the annotation part, and the voicing device 13 is used for other parts (hereinafter referred to as normal parts).
ここでは、実際に 「有難う」と彼(太部)が言った。Here we actually ``Thank you,'' he said.
という文章が人力された際の処理の流れを説明する。We will explain the processing flow when the sentence is written manually.
はじめに、漢字かな文字列人力装置2から入力された上
記漢字かな文字列は、全体制御装置1の制御のもとで属
性検出装置3に送られる。属性検出装置3は、入力漢字
かな文字列の中から属性を規定する文字組み合わせの存
在を調べる。本例では、”r”とJ”′に囲まれている
°“有難う゛が会話部分であることがわかる。一方、入
力漢字かな文字列は、全体制御装置1の制御のもとて漢
字かな変換装置4に送られ、漢字かな変換され、発声に
必要な読み情報が形成される。本例における゛°有難う
“からは、読み゛ありがとう゛が得られる。First, the above-mentioned Kanji/Kana character string inputted from the Kanji/Kana character string human power device 2 is sent to the attribute detection device 3 under the control of the overall control device 1 . The attribute detection device 3 checks the existence of a character combination that defines an attribute in the input Kanji/Kana character string. In this example, it can be seen that "Thank you" surrounded by "r" and J"' is a conversational part. On the other hand, the input Kanji/Kana character string is sent to the Kanji/Kana conversion device 4 under the control of the overall control device 1, where it is converted into Kanji/Kana and the reading information necessary for vocalization is formed. In this example, "thank you" translates into "thank you for reading."
漢字かな変換′A置4によって得られた読み情報と属性
検出装置3によって得られた属性情報は、全体制陶装;
な1の制御のもとて発声装置制御装置5に送られ、発声
装置制御装置5によって属性情報に応じて発声装置11
〜】3のいずれかに出力される。発声装置11〜13は
読み情報を受けると、全体制御装置1の制御のもとで与
えられた読み情報を発声する。本例では、漢字かな変換
′!A置4から送られた読み″ありがとう″が会話部分
であるなめ5発声装置11に送られ、発声される。The reading information obtained by the kanji-kana conversion 'A device 4 and the attribute information obtained by the attribute detection device 3 are used as a whole system;
1 to the voice generating device control device 5, and the voice generating device control device 5 controls the voice generating device 11 according to the attribute information.
]3. When the vocalization devices 11 to 13 receive the reading information, they vocalize the given reading information under the control of the overall control device 1. In this example, Kanji-kana conversion′! The reading "Thank you" sent from A4 is sent to the name 5 voice device 11, which is the conversation part, and is uttered.
以下同様にして、“と彼゛の読みである゛とかれ′が通
常部分として発声装置13から発声され、゛′太部゛が
゛(°°と°゛)“に囲まれているため注釈部分とみな
され、その読みである″たろう″が発声装置I2から発
声され、°゛が言った′の読みである′″がいった”′
が通常部分として発声装置13から発声される。In the same way, "and he" are uttered from the voice device 13 as normal parts, and the "fat part" is surrounded by "(°° and °゛)", so it is annotated. ``Taro'', which is the reading, is uttered from the vocal device I2, and ``'', which is the reading of ``, which ゛ said'' was said.''
is uttered from the vocalization device 13 as a normal part.
これら一連の1順により、利用者は
ありがとう−とかれ−なろう−かいつ/、二の発声を間
きながら、“ありがとう°が会話部分、゛たろう″かl
t釈部分、それ以外が通常部分て、hることを知ること
ができる。Through this series of first order, the user can say ``Arigatou ° is the conversation part, ``Tarou'' or ``Arigatou ° is the conversational part,'' while pausing the second utterance.
You can see that the t-interpreted part is the normal part, and the other part is the normal part.
なお、第1図に示されている各装置在は、いずれら従来
技術により実現可能なものである。また。Note that each device shown in FIG. 1 can be realized using conventional techniques. Also.
発声装置11〜13の異なる発声形態の実現は、例えば
音量やピ・ソチを変えろことなと゛により容′−hに実
現することができる。The different vocal forms of the voice generating devices 11 to 13 can be easily realized by, for example, changing the volume or pitch.
第2図は本発明の他の実施例でj)ろ。第1[七ハ実施
例では、属性検出装置3によ−)て得に>Itたに:*
:性情報と漢字かな変換装置4によ−)で得らiまた読
み情報が別々に発声装置制御装置5に送t、ノlる構成
をとっているが、本実施例では属性情?G a漢字かな
文字列に付加した形で漢字かな変換装置・1を経由して
発声装置制御装置5に送るI[3態をと−っている。FIG. 2 shows another embodiment of the present invention. The first [in the seventh embodiment, the attribute detection device 3] specifically>It is: *
Although the configuration is such that the gender information and the reading information obtained from the Kanji/Kana conversion device 4 are sent separately to the voice control device 5, in this embodiment, the attribute information? Ga is added to the kanji-kana character string and sent to the voice-producing device control device 5 via the kanji-kana conversion device 1.
すなわち、この場合は、漢字かな文字列入力装置2から
入力された入力漢字かな文字列は、ま・J”全体制御装
置1の制御のらとで属性検出装置3に送られ、特定の文
字組み合わせで囲まれた部分の属性が検出される。次に
入力漢字かな文字列は全体制御装置1の制御のらとで漢
字かな変換装置4に送られ、漢字かな変換され、発声に
必要な読み情報が形成される6次に、漢字かな変換装置
4によって得られた読み情報と属性検出装置3によって
得られた属性情報は、全体制御装置1の制御のもとで発
声装置制御装置5に送られ、発声装置制御装置5によっ
て属性情報に応じて発声装置11〜13のいずれかに出
力される。That is, in this case, the input kanji/kana character string inputted from the kanji/kana character string input device 2 is sent to the attribute detection device 3 under the control of the overall control device 1, and is searched for a specific character combination. The attributes of the part surrounded by are detected.Next, the input kanji-kana character string is sent to the kanji-kana conversion device 4 under the control of the overall control device 1, where it is converted into kanji-kana and the reading information necessary for utterance is generated. Next, the reading information obtained by the kanji-kana conversion device 4 and the attribute information obtained by the attribute detection device 3 are sent to the utterance device control device 5 under the control of the overall control device 1. , is outputted by the voice device control device 5 to any of the voice devices 11 to 13 according to the attribute information.
第3図は第1図に示す実施例における処理の流れを示す
フローチャートである。漢字かな文字列が入力されると
、属性の検出により、会話部、注釈部9通常部が検出さ
れる。一方漢字かな変換により読みが得られ、前記属性
に応じた発声が行なわれる。また、第3図の流れは、漢
字かな文字列をまとめて入力し、属性検出、ン英字かな
変換の後、発声を行う形態になっているが、漢字かな文
字列入力から音声出力までの手順を繰り返す形態をとる
など、いろいろの変形か’+7]能である。FIG. 3 is a flowchart showing the flow of processing in the embodiment shown in FIG. When a kanji/kana character string is input, a conversation part, an annotation part 9, and a normal part are detected by attribute detection. On the other hand, the reading is obtained by kanji-kana conversion, and utterances are performed according to the attributes. In addition, the flow shown in Figure 3 is to input Kanji/Kana character strings all at once, detect attributes, convert to English/Kana, and then utter the words. It can be modified in various ways, such as by repeating ``+7''.
〔発明の効果J
以上述べたように本発明を用いると、利用者か発Jhを
聞くだけで会話部分、注釈部分1通常部分の区別を容易
に認識することができるため、た竜の了解度を大きく向
上させることができる。[Effect of the invention J As described above, when the present invention is used, the user can easily distinguish between the conversation part, the annotation part 1 and the normal part just by listening to the utterance Jh, so the intelligibility of the user can be improved. can be greatly improved.
第1図および第2図は本発明を説明するためJ)ブロッ
ク図4第3図は第1図における処理の?FLれを示すフ
ローチャー1・である。
1・・全体制御装置、2・・・漢字かな文字列入力装置
、3・・・属性検出装置、4・・・漢字かな変換装置、
5・・・発声装置制御装置、11.12.13・・発声
装置。
、、、:’、、L
代理入 弁理士 内 原 昔゛6゜
+ 、’!!、、、。
茅 3 図1 and 2 are for explaining the present invention J) Block diagram 4 FIG. 3 shows the processing in FIG. 1? This is a flowchart 1 showing FL deviation. 1... Overall control device, 2... Kanji-kana character string input device, 3... Attribute detection device, 4... Kanji-kana conversion device,
5...Voice device control device, 11.12.13...Voice device. ,,,:',, L Acting Patent Attorney Uchihara Former゛6゜+ ,'! ! ,,,. Kaya 3 figure
Claims (1)
字かな文字列を漢字かな変換して該漢字かな文字列の読
み情報を形成する漢字かな変換装置と、該読み情報をも
とに発声を行う発声手段とを有する文章発声装置におい
て、前記発声手段が、互いに異なる発声形態を取る複数
個の発声装置を備え、前記漢字かな文字列内における特
定の文字組み合わせの存在を知ることによって該特定の
文字組み合わせで囲まれた部分の属性を検出する属性検
出装置と、該属性検出装置で得られた該属性により前記
発声装置を切り替える発声装置制御装置を備えたことを
特徴とする文章発声装置。 2、前記特定の文字組み合わせは、会話部分、注釈部分
の少なくとも一方であることを規定する文字組み合わせ
であることを特徴とする特許請求の範囲第1項記載の文
章発声装置。[Scope of Claims] 1. An input device for inputting a Kanji-Kana character string, a Kanji-Kana conversion device that converts the Kanji-Kana character string to Kanji-Kana to form reading information of the Kanji-Kana character string, and In a text utterance device, the utterance device includes a plurality of utterance devices each having a different utterance form, and the utterance means includes a plurality of utterance devices that make utterances based on reading information, and the utterance means includes a plurality of utterance devices that take different utterance forms, and the utterance device is configured to utter a specific character combination in the Kanji-Kana character string. An attribute detection device that detects the attribute of the part surrounded by the specific character combination by knowing the existence thereof, and a voice device control device that switches the voice device based on the attribute obtained by the attribute detection device. Characteristic text production device. 2. The text utterance device according to claim 1, wherein the specific character combination is a character combination that defines at least one of a conversation part and an annotation part.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP60229246A JPS6288028A (en) | 1985-10-14 | 1985-10-14 | Text vocalizing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP60229246A JPS6288028A (en) | 1985-10-14 | 1985-10-14 | Text vocalizing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS6288028A true JPS6288028A (en) | 1987-04-22 |
Family
ID=16889104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP60229246A Pending JPS6288028A (en) | 1985-10-14 | 1985-10-14 | Text vocalizing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS6288028A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0282300A (en) * | 1988-09-20 | 1990-03-22 | Fujitsu Ltd | Device for reading sentence aloud |
-
1985
- 1985-10-14 JP JP60229246A patent/JPS6288028A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0282300A (en) * | 1988-09-20 | 1990-03-22 | Fujitsu Ltd | Device for reading sentence aloud |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4536323B2 (en) | Speech-speech generation system and method | |
US20070088547A1 (en) | Phonetic speech-to-text-to-speech system and method | |
JP2004271895A (en) | Multilingual speech recognition system and pronunciation learning system | |
JPS63157226A (en) | Conversation type sentence reading device | |
JPS6288028A (en) | Text vocalizing device | |
JPH08335096A (en) | Text voice synthesizer | |
JP2003162524A (en) | Language processor | |
JPS6288026A (en) | Text vocalizing device | |
JPS60188995A (en) | Sentence enunciation | |
JP2000330588A (en) | Method and system for processing speech dialogue and storage medium where program is stored | |
JP2001343987A (en) | Method and device for voice synthesis | |
JP3034554B2 (en) | Japanese text-to-speech apparatus and method | |
JP2658476B2 (en) | Document Braille device | |
JP2001042883A (en) | Text speech synthesis apparatus | |
JPH0760378B2 (en) | Text-to-speech device | |
JPS62119591A (en) | Sentence reciting apparatus | |
JP2001350490A (en) | Device and method for converting text voice | |
JP2004053979A (en) | Method and system for generating speech recognition dictionary | |
JPH02308194A (en) | Foreign language learning device | |
JPS63140329A (en) | Sentence reading system | |
JPS58154900A (en) | Sentence voice converter | |
JPS60225272A (en) | Kana-kanji converting device of voice input | |
JPS6027433B2 (en) | Japanese information input device | |
JPS6184772A (en) | Audio typewriter | |
JPS63153595A (en) | Voice sentence input device |