JP3280729B2 - Phonetic symbol creation device - Google Patents

Phonetic symbol creation device

Info

Publication number
JP3280729B2
JP3280729B2 JP36004392A JP36004392A JP3280729B2 JP 3280729 B2 JP3280729 B2 JP 3280729B2 JP 36004392 A JP36004392 A JP 36004392A JP 36004392 A JP36004392 A JP 36004392A JP 3280729 B2 JP3280729 B2 JP 3280729B2
Authority
JP
Japan
Prior art keywords
language analysis
phonetic symbol
language
word
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP36004392A
Other languages
Japanese (ja)
Other versions
JPH06202684A (en
Inventor
順子 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP36004392A priority Critical patent/JP3280729B2/en
Publication of JPH06202684A publication Critical patent/JPH06202684A/en
Application granted granted Critical
Publication of JP3280729B2 publication Critical patent/JP3280729B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、テキスト音声合成シス
テムなどに利用され、漢字仮名混じり文を発音記号列に
変換する発音記号作成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a phonetic symbol creation device used in a text-to-speech synthesis system or the like, for converting a sentence mixed with kanji kana into a phonetic symbol string.

【0002】[0002]

【従来の技術】近年、漢字仮名混じりの日本語文章を言
語解析し、読み,アクセント情報を含む発音記号列に変
換した後に、音声合成器によって合成音声として出力す
るテキスト音声合成システムが開発されており、この種
のテキスト音声合成システムの用途としては、ワープロ
などで作成した文章の読み上げ校閲や、パソコンなどの
画面に表示された文字を音声に変換して出力するという
所謂オンライン的な用途と、音声マニュアルや合成音声
によるテレフォンサービスなど予め発音記号列を作成し
ておいて、それを使って同じ文章を繰り返し音声出力す
るという所謂オフライン的な用途とがある。
2. Description of the Related Art In recent years, a text-to-speech synthesis system has been developed in which a Japanese sentence containing kanji and kana is subjected to linguistic analysis, converted into a phonetic symbol string containing reading and accent information, and then output as a synthesized speech by a speech synthesizer. The applications of this type of text-to-speech synthesis system include text-to-speech and text-to-speech editing, and the so-called online use of converting characters displayed on the screen of a personal computer into speech and outputting them. There is a so-called off-line application in which a phonetic symbol string is prepared in advance, such as a voice manual or a telephone service using synthetic voice, and the same sentence is repeatedly output using the generated voice symbol string.

【0003】オンライン的な用途の場合には、文章の内
容が一通り音声で伝達できれば十分なので、読み方が多
少ユーザの希望に合わなくてもそれほど問題はないが、
オフライン的な用途のように、同じ文章が繰り返し聞か
れる場合は、読み誤りをなくし、ポーズ位置などの読み
方もユーザの希望に合うものにする必要がある。しかし
ながら、入力文書には、同形語(表記が同じで読みが異
なる単語),数字の読み方の違い(棒読み,桁読みな
ど)など種々の曖昧性があり、システムが自動的に作成
した発音記号列が必ずしもユーザの希望通りにならない
場合がある。
[0003] In the case of online use, it is sufficient if the contents of a sentence can be conveyed by voice as a whole, so there is not much problem even if the way of reading does not suit the user's wish somewhat.
When the same sentence is repeatedly heard, such as in an off-line application, it is necessary to eliminate reading errors and to make the reading such as the pause position match the user's desire. However, input documents have various ambiguities such as homomorphic words (words with the same notation but different readings) and differences in how to read numbers (stick reading, digit reading, etc.). May not always be as desired by the user.

【0004】このようにユーザの希望通りにならない部
分を修正するため、従来では、特開平2−244095
号に開示されているように、入力となる漢字仮名混じり
文の中に予め発音記号列を挿入しておく方法や、あるい
は、最終的に作成された発音記号列を通常のテキストエ
ディタで修正する方法などが提案されている。
In order to correct a portion that does not satisfy the user's desire, a conventional method has been proposed in Japanese Patent Application Laid-Open No. Hei 2-24495.
As disclosed in the issue, a method of inserting a phonetic symbol string in the input Kanji kana mixed sentence in advance, or correcting the final created phonetic symbol string with a normal text editor Methods have been proposed.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、入力と
なる漢字仮名混じり文の中に予め発音記号列を挿入して
おく方法では、漢字仮名混じり文からシステムが自動生
成した発音記号列と、予め挿入されていた発音記号列と
の整合性が取りにくい上、ユーザの要求を極めて細かく
反映することが困難であるという問題があった。また、
最終的に作成された発音記号列を通常のテキストエディ
タで修正する方法では、ユーザは希望通りの音声を出力
させるために、発音記号列の定義に習熟している必要が
あり、ユーザの負担が大きいという問題があった。
However, in the method of inserting a phonetic symbol string in a kanji kana-mixed sentence to be input in advance, a phonetic symbol string automatically generated by the system from a kanji kana-mixed sentence is inserted in advance. There is a problem in that it is difficult to obtain consistency with the phonetic symbol string that has been used, and it is difficult to reflect user's requirements very finely. Also,
In the method of modifying the final generated phonetic symbol string with an ordinary text editor, the user needs to be proficient in the definition of the phonetic symbol string in order to output the desired sound, and the burden on the user is reduced. There was a problem of being big.

【0006】本発明は、ユーザの要求をきめ細かく反映
しユーザの希望に合った発音記号列をユーザに差程の負
担をかけずに作成することの可能な発音記号作成装置を
提供することを目的としている。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a phonetic symbol creation device capable of creating a phonetic symbol string that meets a user's request in a detailed manner without imposing a burden on the user. And

【0007】[0007]

【課題を解決するための手段および作用】上記目的を達
成するために、請求項1記載の発明は、ユーザからの指
示に応じて、言語解析手段,言語解析結果記憶手段,発
音記号生成手段,音声合成手段を制御するユーザインタ
フェース制御手段が設けられており、ユーザインタフェ
ース手段により発音記号作成作業を積極的に支援するこ
とができる。これにより、ユーザの要求を決め細かく反
映しユーザの希望に合った発音記号列をユーザに差程の
負担をかけずに作成することができる。また、言語解析
を行なう前に予め特定の単語の単語情報を指定する特定
単語情報指定手段が設けられていることにより、言語解
析時の曖昧性を減らし、後編集作業を軽減できる。
In order to achieve the above object, according to the present invention, a language analysis means, a language analysis result storage means, a phonetic symbol generation means, A user interface control means for controlling the voice synthesizing means is provided, and the user interface means can actively support a phonetic symbol creation operation. As a result, it is possible to determine a user's request and reflect it in detail, and to create a phonetic symbol string that meets the user's request without imposing a burden on the user. Also, language analysis
Specify the word information of a specific word in advance before performing
With the provision of word information designating means, language
The ambiguity at the time of analysis can be reduced, and post-editing work can be reduced.

【0008】また、請求項2記載の発明は、言語解析を
行なう前に予め種々の区切り位置を指定する区切位置指
定手段が設けられている。これにより、言語解析時の曖
昧性を減らし、後編集作業を軽減できる。
Further, the invention according to claim 2 is provided with division position designation means for designating various division positions in advance before performing language analysis. This can reduce ambiguity during language analysis and reduce post-editing work.

【0009】また、請求項3記載の発明は、言語解析を
行なう前に予め複数の言語解析方法が考えられている部
分について、どの言語解析方法をとるか指定する言語解
析方法指定手段が設けられている。これにより、言語解
析時の曖昧性を減らし、後編集作業を軽減できる。
The invention according to claim 3 is provided with a language analysis method designating means for designating which language analysis method is to be used for a portion where a plurality of language analysis methods are considered before performing the language analysis. ing. This can reduce ambiguity during language analysis and reduce post-editing work.

【0010】[0010]

【0011】また、請求項4記載の発明は、言語解析結
果記憶バッファの内容をユーザが指定した任意の位置か
ら、種々の発話区分で合成音声として出力する音声合成
手段が設けられている。これにより、ユーザにとって文
章中の修正箇所を容易に見出すことができる。
Further, the invention according to claim 4 is provided with a speech synthesizing means for outputting the contents of the language analysis result storage buffer from any position designated by the user as synthesized speech in various utterance segments. As a result, the user can easily find the corrected portion in the text.

【0012】また、請求項5記載の発明は、入力文章の
一部を再度言語解析して、言語解析結果記憶バッファの
内容の一部を更新する再言語解析起動手段が設けられて
いる。これにより、発音記号の後編集作業におけるユー
ザの負担を軽減できる。
Further, the invention according to claim 5 is provided with re-language analysis activation means for re-linguing a part of the input sentence and updating a part of the contents of the linguistic analysis result storage buffer. Thus, the burden on the user in post-editing the phonetic symbols can be reduced.

【0013】また、請求項6記載の発明は、言語解析結
果記憶バッファ中の単語情報を、単語の表記、品詞、読
みなどの単語情報の一部をキーにして検索する検索手段
が設けられている。これにより、ユーザにとって一度修
正した部分と同様の誤りが生じている部分を容易に見出
すことができる。
According to a sixth aspect of the present invention, there is provided a search means for searching the word information in the linguistic analysis result storage buffer by using a part of the word information such as a word notation, a part of speech, and a reading as a key. I have. As a result, the user can easily find a portion where an error similar to the once corrected portion has occurred.

【0014】また、請求項7記載の発明は、言語解析結
果記憶バッファ中の指定の位置の単語情報を、指定の内
容に置換する置換手段が設けられている。これにより、
一度修正した部分と同様の誤りが生じている部分の修正
を容易に行なうことができる。
Further, the invention according to claim 7 is provided with a replacing means for replacing word information at a designated position in a language analysis result storage buffer with designated contents. This allows
It is possible to easily correct a portion where an error similar to the once corrected portion occurs.

【0015】[0015]

【実施例】以下、本発明の一実施例を図面に基づいて説
明する。図1は本発明に係る発音記号作成装置の一実施
例を示すブロック図である。図1を参照すると、この発
音記号作成装置は、漢字仮名混じりの日本語文章を言語
解析し、読み,品詞,アクセント型,単語の区切り情報
などを含む単語情報の列に変換する言語解析部1と、言
語解析部1の解析結果を記憶する言語解析結果記憶バッ
ファ2と、言語解析結果記憶バッファ2の内容の一部ま
たは全部を入力としてアクセント結合処理などを行なっ
て、発音記号列に変換する発音記号生成部3と、発音記
号生成部3が生成する発音記号列に基づいて合成音声を
生成する音声合成部4と、ユーザからの指示に応じて、
言語解析部1,言語解析結果記憶バッファ2,発音記号
生成部3,音声合成部4を制御するユーザインタフェー
ス制御部5とを備えている。ここで、言語解析部1に
は、単語辞書やその他の文法規則が含まれているものと
する。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a phonetic symbol generation device according to the present invention. With reference to FIG. 1, this phonetic symbol creation device performs a linguistic analysis of a Japanese sentence containing kanji and kana, and converts the sentence into a sequence of word information including reading, part of speech, accent type, word delimiter information, and the like. And a linguistic analysis result storage buffer 2 for storing the analysis result of the linguistic analysis unit 1 and a part or all of the contents of the linguistic analysis result storage buffer 2 as input to perform accent combining processing and the like to convert them to phonetic symbol strings. A phonetic symbol generation unit 3, a speech synthesis unit 4 that generates a synthesized voice based on a phonetic symbol string generated by the phonetic symbol generation unit 3, and, in response to an instruction from a user,
It has a language analysis unit 1, a language analysis result storage buffer 2, a phonetic symbol generation unit 3, and a user interface control unit 5 for controlling the speech synthesis unit 4. Here, it is assumed that the language analysis unit 1 includes a word dictionary and other grammatical rules.

【0016】図2はユーザインタフェース制御部5の構
成例を示す図である。図2の構成例では、ユーザインタ
フェース制御部5は、基本的に、エディット画面10
と、前編集部11と、後編集部12とを有しており、エ
ディット画面10からのユーザの指示内容に基づき、言
語解析部1,言語解析結果記憶バッファ2,発音記号生
成部3,音声合成部4を制御するようになっている。図
3には、エディット画面10の構成例が示されている。
図3の例では、エディット画面は、ユーザに種々の指定
を行なわせるためのメニュー部MNと、ユーザに確認さ
せるための文章表示部CGとを有している。
FIG. 2 is a diagram showing a configuration example of the user interface control unit 5. In the configuration example of FIG. 2, the user interface control unit 5 basically includes the edit screen 10
And a pre-editing unit 11 and a post-editing unit 12. Based on the user's instruction from the edit screen 10, a linguistic analysis unit 1, a linguistic analysis result storage buffer 2, a phonetic symbol generation unit 3, a voice The combining unit 4 is controlled. FIG. 3 shows a configuration example of the edit screen 10.
In the example of FIG. 3, the edit screen has a menu section MN for allowing the user to make various designations, and a text display section CG for allowing the user to confirm.

【0017】また、前編集部11は、漢字仮名混じりの
日本語文章が言語解析部1において言語解析されるのに
先立って、言語解析部1に対して、区切り位置の指定,
言語解析の方法の指定,特定の単語の単語情報の指定が
可能に構成されている。すなわち、前編集部11は、言
語解析がなされるのに先立って、ポーズの位置やアクセ
ント句の切れ目の位置などの種々の区切り位置をユーザ
に設定させ、これらの情報を言語解析部1に与える区切
り位置指定部21と、文章の内容に応じて複数の言語解
析方法が考えられる数字や記号などの部分について、ど
の言語解析方法をとるかをユーザに指定させ、この情報
を言語解析部1に与える言語解析方法指定部22と、同
形語が予測される単語や固有名詞などの特定の単語の単
語情報をユーザに指定させ、この情報を言語解析部1に
与える特定単語情報指定部23とを有している。
The pre-editing section 11 specifies the delimiter position to the language analysis section 1 before the language analysis section 1 analyzes the language of the Japanese sentence containing kanji and kana.
The language analysis method and the word information of a specific word can be specified. That is, the pre-editing unit 11 allows the user to set various delimiter positions such as the position of a pause and the position of a break of an accent phrase before the language analysis is performed, and gives the information to the language analysis unit 1. The user designates which language analysis method is to be used for a part such as a numeral or a symbol, for which a plurality of language analysis methods can be considered according to the contents of the sentence, and specifies this information to the language analysis unit 1. The given language analysis method designating unit 22 and the specific word information designating unit 23 that allows the user to specify word information of a specific word such as a word or proper noun for which a homonym is predicted, and gives this information to the language analysis unit 1 Have.

【0018】なお、ユーザインタフェース制御部5の前
編集部11により上記のような指定情報が与えられたと
きに、言語解析部1は、前編集部11で指定された部分
についてはその指定に従って言語解析を行ない、前編集
部11で特に指定されなかった部分については通常通り
の言語解析を行なって、単語の表記ポインタ,表記の長
さ,読み,アクセント型,品詞,単語の区切り情報から
なる単語情報の列を作成し、言語解析結果記憶バッファ
2に蓄えるようになっている。
When the above-mentioned designation information is given by the pre-editing unit 11 of the user interface control unit 5, the language analyzing unit 1 executes the language designated by the pre-editing unit 11 in accordance with the designation. An analysis is performed, and a part not particularly specified by the preediting unit 11 is subjected to a linguistic analysis as usual, and a word composed of a word notation pointer, a notation length, a reading, an accent type, a part of speech, and word delimiter information. A sequence of information is created and stored in the linguistic analysis result storage buffer 2.

【0019】また、ユーザインタフェース制御部5の後
編集部12は、言語解析結果記憶バッファ2に蓄えられ
た内容をユーザが指定した任意の位置から種々の発話区
分で合成音声として出力する合成音声出力部25と、言
語解析結果記憶バッファ2に蓄えられている内容のう
ち、修正すべき部分範囲がユーザにより指定されたとき
に、この部分範囲に対応した入力文章の範囲を言語解析
部1に再度言語解析させ、言語解析結果記憶バッファ2
の内容を更新させる再言語解析起動部26と、言語解析
結果記憶バッファ2中の単語情報を表記,品詞,読みな
どの単語情報の一部をキーにして検索する検索部27
と、言語解析結果記憶バッファ2中の指定の位置の単語
情報を指定の内容に置換する置換部28とを有してい
る。
The post-editing unit 12 of the user interface control unit 5 outputs a synthesized speech in various utterance categories from an arbitrary position designated by the user as a synthesized speech from the contents stored in the language analysis result storage buffer 2. When the user specifies a partial range to be corrected among the contents stored in the linguistic analysis result storage buffer 2, the range of the input sentence corresponding to this partial range is transmitted to the linguistic analysis unit 1 again. Language analysis, language analysis result storage buffer 2
Re-language analysis activation unit 26 for updating the content of the word, and a search unit 27 for searching word information in the language analysis result storage buffer 2 using a part of word information such as notation, part of speech, and reading as keys.
And a replacement unit 28 that replaces word information at a specified position in the language analysis result storage buffer 2 with specified content.

【0020】次に、このような構成の発音記号作成装置
の処理動作について説明する。本実施例の発音記号作成
装置は、基本的には、前編集,言語解析,後編集の順に
発音記号作成作業がなされることを前提としている。ユ
ーザは、漢字仮名混じりの日本語文章を言語解析部1に
より言語解析させるに先立って、先ず、図2に示すよう
なエディット画面を用いて、ユーザインタフェース制御
部5の前編集部11により、言語解析部1に対し、区切
り位置の指定,言語解析方法の指定,特定の単語の単語
情報の指定を行なうことができる。具体的には、区切り
位置の指定は、エディット画面の文字表示部CGに表示
されている文章の希望の位置にカーソルを移動して、メ
ニュー部MNの「ポーズ」メニューまたは「アクセント
句」メニューを選択することによってなされ、この場
合、区切り位置指定部21は、カーソルの位置をポー
ズ、またはアクセント句の切れ目として認識し、この認
識結果を区切り位置情報として言語解析部1に与える。
Next, the processing operation of the phonetic symbol generation device having such a configuration will be described. The phonetic symbol creation device of this embodiment is basically based on the premise that phonetic symbol creation work is performed in the order of pre-editing, language analysis, and post-editing. Prior to causing the language analysis unit 1 to analyze the language of a Japanese sentence mixed with kanji and kana, the user first uses the edit screen as shown in FIG. The analysis unit 1 can specify a break position, a language analysis method, and word information of a specific word. Specifically, to specify the break position, move the cursor to a desired position of the text displayed on the character display section CG of the edit screen, and open the “pause” menu or the “accent phrase” menu of the menu section MN. In this case, the delimiter position specification unit 21 recognizes the position of the cursor as a pause or a break of an accent phrase, and gives the recognition result to the language analysis unit 1 as delimiter position information.

【0021】また、言語解析方法の指定は、エディット
画面のメニュー部MNの「言語解析指定」メニューを選
択することにより行なうことができる。いま、数字につ
いては“棒読み”または“桁読み”、記号については
“読まない”または“記号として読み上げる”のそれぞ
れ2種類の解析方法があるとするとき、「言語解析指
定」メニューが選択されると、言語解析方法指定部22
は、文章中で現在のカーソル位置より後ろに数字または
記号部分を自動的に検索し、その部分をどのように解析
をするかをユーザに問い合わせる。このときに、ユーザ
は自分の希望に合った解析方法を選択すれば良い。例え
ば、数字の解析法についてユーザが特に指定しなければ
デフォールトで桁読み、また、記号の解析法についてユ
ーザが特に指定しなければ、“読まない”が選択され
る。このようにして指定され選択された言語解析方法
は、言語解析指定部22から言語解析部1に与えられ
る。
The language analysis method can be designated by selecting the "language analysis designation" menu in the menu section MN of the edit screen. Assuming that there are two types of analysis methods, "stick reading" or "digit reading" for numbers, and "not read" or "speak as symbols" for symbols, the "language analysis designation" menu is selected. And a language analysis method designation unit 22
Automatically searches for a number or symbol part after the current cursor position in a sentence and asks the user how to analyze that part. At this time, the user may select an analysis method that suits his or her wish. For example, digit reading is selected by default if the user does not specify the number analysis method, and "not read" is selected unless the user specifies the symbol analysis method. The language analysis method designated and selected in this way is provided from the language analysis designation unit 22 to the language analysis unit 1.

【0022】また、特定単語の指定は、ユーザが単語の
範囲を指定して、エディット画面のメニュー部MNの
「単語指定」メニューを先ず選択することによって行な
われる。なお、この指定は、同形語が予想される単語や
固有名詞など、予め単語情報を指定しておいた方が後編
集作業が軽減されると思われる単語について単語情報を
予め限定しておくのが良い場合になされる。ユーザが単
語の範囲を指定して、「単語指定」メニューを選択する
と、特定単語情報指定部23は、その範囲の表記に対応
する単語候補を辞書(図示せず)から検索して、エディ
ット画面の文字表示部CGに単語候補表示ウィンドウを
表示する。図4は単語表記として、“一月”を指定した
場合の単語候補表示ウィンドウの一例を示す図であり、
この例では、単語表記“一月”がユーザにより指定され
たときに、特定単語情報指定部23は、この表記に対応
する単語候補として、読みが“いちがつ”の第1候補と
読みが“ひとつき”の第2候補とをウィンドウに表示す
る。ユーザはこの中に希望のものがあれば、その候補を
選択し確定し、希望のものがなければ、単語候補表示ウ
ィンドウのユーザ入力フィールドに単語の読み,アクセ
ント,品詞を入力し、特定単語の指定を行なうことがで
きる。このようにして指定,選択された特定単語は、特
定単語情報指定部23から言語解析部1に与えられる。
以上のように前編集を行なうことによって、言語解析時
の曖昧性が減少し、後編集作業の負荷を軽減することが
できる。
The specification of a specific word is performed by the user specifying a range of words and first selecting the "word specification" menu in the menu section MN of the edit screen. In this specification, the word information is limited in advance for words for which the post-editing work is considered to be easier if the word information is specified in advance, such as words that are expected to have the same form and proper nouns. Is made if it is good. When the user specifies a word range and selects the “word specification” menu, the specific word information specifying unit 23 searches a dictionary (not shown) for a word candidate corresponding to the notation in the range, and edits the screen. The word candidate display window is displayed on the character display section CG of. FIG. 4 is a diagram showing an example of a word candidate display window when "January" is designated as the word notation.
In this example, when the word notation “January” is specified by the user, the specific word information specifying unit 23 determines that the word candidate corresponding to this notation is the first candidate having the pronunciation “Ichigatsu” and the reading The second candidate of “one-touch” is displayed in the window. If there is a desired one, the user selects and confirms the candidate. If there is no desired one, the user inputs a word reading, an accent, and a part of speech in a user input field of the word candidate display window, and inputs a specific word. You can specify. The specific word specified and selected in this way is provided from the specific word information specification unit 23 to the language analysis unit 1.
By performing pre-editing as described above, ambiguity during language analysis is reduced, and the load of post-editing work can be reduced.

【0023】前編集作業が行なわれた後、ユーザは「言
語解析」メニューを選択することで、言語解析部1を起
動することができる。言語解析部1では、前編集で指定
された部分については、その指定に従って言語解析を行
ない、前編集で特に指定されなかった部分については、
通常通りの言語解析を行なって、単語の表記ポインタ,
表記の長さ,読み,アクセント型,品詞,単語の区切り
情報からなる単語情報の列を作成し、言語解析結果記憶
バッファ2に蓄える。なお、ここで、表記ポインタと
は、この単語情報が文章中のどの表記部分に対応するか
を表わすポインタであり、また、単語の区切り情報と
は、この単語が文節の切れ目になるか、アクセント句の
切れ目になるか、ポーズ位置になるかなどの情報をい
う。
After the pre-editing operation is performed, the user can activate the language analysis section 1 by selecting the "language analysis" menu. The linguistic analysis unit 1 performs a linguistic analysis on the part specified in the pre-editing according to the specification, and performs a linguistic analysis on the part not specified in the pre-editing.
Perform normal linguistic analysis to find word pointers,
A string of word information including the length of the notation, reading, accent type, part of speech, and word delimiter information is created and stored in the linguistic analysis result storage buffer 2. Here, the notation pointer is a pointer indicating which notation part in the sentence this word information corresponds to, and the word delimiter information means that this word becomes a break of a phrase or an accent. It refers to information such as a break in a phrase or a pause position.

【0024】入力文章に対して上述のように言語解析が
なされ、その結果が言語解析結果記憶バッファ2に蓄え
られた後、ユーザは、この結果に基づいて後編集を行な
うことができる。後編集では、ユーザは、合成音声出力
部25を起動させ、言語解析結果記憶バッファ2の内容
を合成音声に変換して耳で聞きながら、修正が必要な部
分を探すことができる。その際、読み上げはユーザが指
定した任意の位置から開始させ、また、任意の位置で停
止させることができる。具体的には、ユーザは、文字表
示部CGに表示させている文章の希望の位置にカーソル
を移動させることにより、読み上げ開始位置を指定する
ことができる。ユーザが読み上げ開始位置を指定し、
「音声出力」メニューを選択すると、合成音声出力部2
5は、指定された読み上げ開始位置から、指定の発話区
分で読み上げを開始する。なお、読み上げる際の発話区
分には、発音記号通りのポーズで区切る,アクセント区
単位で区切る,文節単位で区切る,単語単位で区切るの
4種類があり、これらのいずれのものにするかは、「発
話区分変更」メニューで選択することができる。また、
「フォワード」メニュー,「バックワード」メニューに
よって、読み上げ開始位置を発話区分単位に前後させる
こともできる。ユーザは、先ず発音記号通りの発話区分
で音声を聞きながら、修正が必要な部分の大体の位置を
見つけた後に、その近辺で発話区分を細かくして、聞き
直すことによって、修正すべき部分を容易に見出すこと
ができる。
After the input sentence is subjected to the linguistic analysis as described above, and the result is stored in the linguistic analysis result storage buffer 2, the user can perform post-editing based on the result. In the post-editing, the user can activate the synthesized speech output unit 25, convert the contents of the language analysis result storage buffer 2 into synthesized speech, and listen to the ear to search for a portion that needs correction. At this time, the reading can be started from an arbitrary position designated by the user, and can be stopped at an arbitrary position. Specifically, the user can specify the reading start position by moving the cursor to a desired position of the text displayed on the character display section CG. The user specifies the reading start position,
When the "voice output" menu is selected, the synthesized voice output unit 2
5 starts reading aloud from a specified reading start position in a specified utterance section. There are four types of utterance classification for reading aloud: a punctuation according to phonetic symbols, a punctuation according to accent punctuation, a punctuation according to a phrase, and a punctuation according to a word. This can be selected in the "Change utterance category" menu. Also,
With the “forward” menu and the “backward” menu, the reading start position can be moved back and forth in units of speech segments. The user first finds the approximate position of the portion that needs to be corrected while listening to the voice in the utterance segment according to the phonetic symbols, then finely divides the utterance segment in the vicinity and re-listens to determine the portion to be corrected. Can be easily found.

【0025】修正すべき部分範囲が確定し、ユーザが
「言語解析」メニューを選択すると、再言語解析起動部
26は、言語解析部1を再び起動し、修正すべき部分範
囲を言語解析部1に再解析させて次候補を選択すること
ができる。この際、再言語解析起動部26は、再解析範
囲を始めは文節として解析させて、前述したと同様にし
て単語候補表示ウィンドウに解析結果の候補を表示させ
るが、それでも希望の結果が得られない場合は、範囲を
さらに狭めて単語の範囲を指定して解析させることもで
きる。指定の範囲の表記を持つ単語が辞書に存在しない
場合は、ユーザにその単語の読み、アクセント型、品詞
を入力するように要求する。このときには、ユーザは、
所定のフィールドにこれらの情報を入力すれば良い。ま
た、この際に、同時に、辞書にこの単語を追加登録する
ことも可能である。言語解析部1において、言語解析結
果が確定すると、言語解析結果が言語解析バッファ2に
送られ、言語解析結果記憶バッファ2の内容が更新され
る。
When the partial range to be corrected is determined and the user selects the "language analysis" menu, the re-linguistic analysis activation unit 26 activates the language analysis unit 1 again, and determines the partial range to be corrected. And the next candidate can be selected. At this time, the re-language analysis activation unit 26 causes the re-analysis range to be analyzed as a phrase at first, and displays the analysis result candidates in the word candidate display window in the same manner as described above, but the desired result is still obtained. If not, the range can be narrowed further and the range of the word can be specified for analysis. If a word with a specified range of notation does not exist in the dictionary, the user is requested to input the pronunciation, accent type, and part of speech of the word. At this time, the user
What is necessary is just to input these information in a predetermined field. At this time, it is also possible to additionally register this word in the dictionary. When the linguistic analysis result is determined in the linguistic analysis unit 1, the linguistic analysis result is sent to the linguistic analysis buffer 2, and the contents of the linguistic analysis result storage buffer 2 are updated.

【0026】このように、修正すべき部分がなくなるま
で修正作業を繰り返し行なうことができるが、その際、
同一の文章には同一の単語や文節が複数箇所で用いられ
ることがしばしばある。本実施例の発音記号作成装置で
は、さらに、検索部27を用いて、言語解析結果記憶バ
ッファ2中の単語情報を、単語の表記,品詞,読みなど
の単語情報の一部をキーにして検索することができ、ま
た、置換部28を用いて、検索された部分の単語情報ま
たは単語情報の列を指定の単語情報または単語情報の列
に置換することができる。これにより、同一の文章にお
いて同一の単語や文節が複数箇所で用いられているとき
に、この部分の修正作業をより容易に行なうことができ
る。すなわち、「検索」メニューを選択すると、検索部
27は、文字表示部CGに検索ウィンドウを先ず表示す
る。図5はこの検索ウィンドウの一例を示す図である。
この検索ウィンドウには、検索キーとして表記,読み,
品詞を入力するフィールドが設けられており、ユーザが
これらのキーのいずれかの組み合わせを入力してリター
ンを押すと、検索部27は、現在のカーソル位置よりも
後方にある、検索キーに一致する単語の先頭にカーソル
を移動させる。このとき、ユーザが「置換」メニューを
選択すると、置換部28は、例えば、どのように置換す
るかをユーザに対し問い合わせ、この問い合わせに対
し、ユーザが置換後の例になる範囲(以前に修正した範
囲)を指定すると、現在のカーソル位置にある単語情報
または単語情報の列を指定の単語情報または単語情報の
列に置換する。但し、置換が行なわれるのは、置換され
る箇所の表記と置換後の例になる範囲の表記とが完全に
一致している場合に限られる。このような検索,置換処
理がなされることによって、一度修正した部分と同様の
誤りが生じている部分の修正を容易に行なうことができ
る。
As described above, the correcting operation can be repeatedly performed until there is no portion to be corrected.
The same word or phrase is often used in multiple places in the same sentence. In the phonetic symbol generation device of the present embodiment, the search unit 27 further searches the word information in the linguistic analysis result storage buffer 2 using a part of the word information such as the word notation, part of speech, and reading as a key. In addition, the replacement unit 28 can be used to replace the word information or the string of word information in the searched portion with the specified word information or the string of word information. Thus, when the same word or phrase is used in a plurality of places in the same sentence, the work of correcting this part can be performed more easily. That is, when the “search” menu is selected, the search unit 27 first displays a search window on the character display unit CG. FIG. 5 shows an example of the search window.
This search window contains notation, reading,
A field for inputting a part of speech is provided. When the user inputs any combination of these keys and presses return, the search unit 27 matches the search key located behind the current cursor position. Move the cursor to the beginning of a word. At this time, when the user selects the “replace” menu, the replacement unit 28 inquires, for example, how to perform replacement, and in response to this inquiry, Is specified, the word information or the column of the word information at the current cursor position is replaced with the specified word information or the column of the word information. However, replacement is performed only when the notation of the replaced portion and the notation of the range as an example after the replacement completely match. By performing such a search and replacement process, it is possible to easily correct a portion where an error similar to the once corrected portion occurs.

【0027】このようにして、最終的に合成音声出力部
25からユーザの希望に合った合成音声が得られるよう
になったときに、ユーザは、「保管」メニューを選択す
ることによって、言語解析結果記憶バッファ2の内容を
ファイルに保管することができる。また、「発音記号出
力」メニューを選択することによって、発声記号生成部
3を起動し、言語解析結果記憶バッファ2の内容を発音
記号列に変換させ、その結果をファイルに出力すること
ができる。
As described above, when the synthesized speech that meets the user's desire can be finally obtained from the synthesized speech output unit 25, the user selects the "save" menu to execute the language analysis. The contents of the result storage buffer 2 can be stored in a file. By selecting the "pronunciation symbol output" menu, the utterance symbol generation unit 3 is activated, the contents of the linguistic analysis result storage buffer 2 are converted into a pronunciation symbol string, and the result can be output to a file.

【0028】[0028]

【発明の効果】以上に説明したように、請求項1記載の
発明によれば、ユーザからの指示に応じて、言語解析手
段,言語解析結果記憶手段,発音記号生成手段,音声合
成手段を制御するユーザインタフェース制御手段が設け
られており、ユーザインタフェース手段により発音記号
作成作業を積極的に支援することができるので、ユーザ
の要求をきめ細かく反映しユーザの希望に合った発音記
号列をユーザに差程の負担をかけずに作成することがで
きる。また、言語解析を行なう前に予め特定の単語の単
語情報を指定する特定単語情報指定手段が設けられてい
るので、言語解析時の曖昧性を減らし、後編集作業を軽
減できる。
As described above, according to the first aspect of the present invention, the language analysis means, the language analysis result storage means, the phonetic symbol generation means, and the speech synthesis means are controlled in accordance with an instruction from the user. User interface control means is provided, and the user interface means can actively support the phonetic symbol creation work, so that the user's request can be reflected in detail and a phonetic symbol string that meets the user's wishes can be provided to the user. It can be created without much burden. In addition, before performing linguistic analysis, the specific word
A specific word information specifying means for specifying word information is provided;
This reduces ambiguity during language analysis and reduces post-editing work.
Can be reduced.

【0029】また、請求項2記載の発明によれば、言語
解析を行なう前に予め種々の区切り位置を指定する区切
位置指定手段が設けられているので、言語解析時の曖昧
性を減らし、後編集作業を軽減できる。
According to the second aspect of the present invention, since the delimiter position specifying means for specifying various delimiter positions is provided in advance before performing the language analysis, the ambiguity at the time of the language analysis can be reduced. Editing work can be reduced.

【0030】また、請求項3記載の発明によれば、言語
解析を行なう前に予め複数の言語解析方法が考えられて
いる部分について、どの言語解析方法をとるか指定する
言語解析方法指定手段が設けられているので、言語解析
時の曖昧性を減らし、後編集作業を軽減できる。
According to the third aspect of the present invention, a language analysis method designating means for designating which language analysis method is to be used for a part in which a plurality of language analysis methods are considered before performing language analysis. Since it is provided, ambiguity during language analysis can be reduced, and post-editing work can be reduced.

【0031】[0031]

【0032】また、請求項4記載の発明によれば、言語
解析結果記憶バッファの内容をユーザが指定した任意の
位置から、種々の発話区分で合成音声として出力する音
声合成手段が設けられているので、ユーザにとって文章
中の修正箇所を容易に見出すことができる。
According to the fourth aspect of the present invention, there is provided a speech synthesizing means for outputting the contents of the linguistic analysis result storage buffer from any position designated by the user as synthesized speech in various utterance segments. Therefore, it is possible for the user to easily find the corrected portion in the text.

【0033】また、請求項5記載の発明によれば、入力
文章の一部を再度言語解析して、言語解析結果記憶バッ
ファの内容の一部を更新する再言語解析起動手段が設け
られているので、発音記号の後編集作業におけるユーザ
の負担を軽減できる。
According to the fifth aspect of the present invention, there is provided a re-language analysis activation means for re-linguing a part of the input sentence and updating a part of the contents of the linguistic analysis result storage buffer. Therefore, the burden on the user in post-editing the phonetic symbols can be reduced.

【0034】また、請求項6記載の発明によれば、言語
解析結果記憶バッファ中の単語情報を、単語の表記、品
詞、読みなどの単語情報の一部をキーにして検索する検
索手段が設けられているので、ユーザにとって一度修正
した部分と同様の誤りが生じている部分を容易に見出す
ことができる。
According to the sixth aspect of the present invention, there is provided a search means for searching the word information in the linguistic analysis result storage buffer using a part of the word information such as the word notation, part of speech, and reading as a key. Therefore, the user can easily find a portion where an error similar to the once corrected portion has occurred.

【0035】また、請求項7記載の発明によれば、言語
解析結果記憶バッファ中の指定の位置の単語情報を、指
定の内容に置換する置換手段が設けられているので、一
度修正した部分と同様の誤りが生じている部分の修正を
容易に行なうことができる。
According to the seventh aspect of the present invention, the replacement means for replacing the word information at the specified position in the linguistic analysis result storage buffer with the specified content is provided, so that the once corrected portion The same error can be easily corrected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る発音記号作成装置の一実施例のブ
ロック図である。
FIG. 1 is a block diagram of an embodiment of a phonetic symbol generation device according to the present invention.

【図2】ユーザインタフェース制御部の構成例を示す図
である。
FIG. 2 is a diagram illustrating a configuration example of a user interface control unit.

【図3】エディット画面の構成例を示す図である。FIG. 3 is a diagram showing a configuration example of an edit screen.

【図4】単語候補表示ウィンドウの一例を示す図であ
る。
FIG. 4 is a diagram illustrating an example of a word candidate display window.

【図5】検索ウィンドウの一例を示す図である。FIG. 5 is a diagram illustrating an example of a search window.

【符号の説明】 1 言語解析部 2 言語解析結果記憶バッファ 3 発音記号生成部 4 音声合成部 5 ユーザインタフェース制御部 10 エディット画面 11 前編集部 12 後編集部 21 区切り位置指定部 22 言語解析方法指定部 23 特定単語情報指定部 25 合成音声出力部 26 再言語解析起動部 27 検索部 28 置換部[Description of Signs] 1 Language analysis unit 2 Language analysis result storage buffer 3 Phonetic symbol generation unit 4 Voice synthesis unit 5 User interface control unit 10 Edit screen 11 Pre-editing unit 12 Post-editing unit 21 Delimiter position specifying unit 22 Language analysis method specification Unit 23 specific word information designating unit 25 synthesized speech output unit 26 relanguage analysis activation unit 27 search unit 28 replacement unit

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 漢字仮名混じりの日本語文章を言語解析
し、読み,品詞,アクセント型,単語の区切り情報など
を含む単語情報の列に変換する言語解析手段と、前記言
語解析手段の解析結果を記憶する言語解析結果記憶手段
と、前記言語解析結果記憶手段の内容の一部または全部
を入力としてアクセント結合処理などを行なって、発音
記号列に変換する発音記号生成手段と、前記発音記号生
成手段により生成された発音記号列に基づいて合成音声
を生成する音声合成手段と、ユーザからの指示に応じ
て、言語解析手段,言語解析結果記憶手段,発音記号生
成手段,音声合成手段を制御するユーザインターフェイ
ス制御手段とを備えており、前記ユーザインターフェイ
ス制御手段は、言語解析手段において言語解析が行なわ
れるに先立って、予め特定の単語の単語情報をユーザに
指定させ、前記言語解析手段に与える特定単語情報指定
手段を有していることを特徴とする発音記号作成装置。
1. A linguistic analysis means for linguistically analyzing a Japanese sentence mixed with kanji and kana, and converting it into a sequence of word information including reading, part of speech, accent type, word delimiter information, and the like, and an analysis result of the linguistic analysis means Linguistic analysis result storage means for storing a part of or all of the contents of the linguistic analysis result storage means, and performing accent connection processing or the like to convert it into a phonetic symbol string; A voice synthesizing means for generating a synthesized voice based on the phonetic symbol sequence generated by the means, and controlling a language analyzing means, a language analysis result storing means, a phonetic symbol generating means, and a voice synthesizing means in accordance with an instruction from a user. User interface control means , wherein the user interface
The language control means performs language analysis in the language analysis means.
Before the user, the word information of a specific word is given to the user in advance.
Specific word information to be given to the language analysis means
A phonetic symbol creation device characterized by having means .
【請求項2】 請求項1記載の発音記号作成装置におい
て、前記ユーザインターフェイス制御手段は、言語解析
手段において言語解析が行なわれるに先立って、予め種
々の区切り位置をユーザに指定させ、前記言語解析手段
に与える区切り位置指定手段を有していることを特徴と
する発音記号作成装置。
2. The phonetic symbol creation device according to claim 1, wherein the user interface control means allows the user to designate various break positions in advance before the language analysis is performed by the language analysis means. A phonetic symbol creation device characterized by having a delimiter position designating means provided to the means.
【請求項3】 請求項1記載の発音記号作成装置におい
て、前記ユーザインターフェイス制御手段は、言語解析
手段において言語解析が行なわれるに先立って、予め複
数の言語解析方法が考えられている部分についてどの言
語解析方法をとるかをユーザに指定させ、前記言語解析
手段に与える言語解析方法指定手段を有していることを
特徴とする発音記号作成装置。
3. The phonetic symbol creation device according to claim 1, wherein the user interface control means determines a part where a plurality of language analysis methods are considered in advance before the language analysis is performed by the language analysis means. A phonetic symbol creation device comprising a language analysis method designating means for allowing a user to designate a language analysis method and giving the language analysis means.
【請求項4】 漢字仮名混じりの日本語文章を言語解析
し、読み,品詞,アクセント型,単語の区切り情報など
を含む単語情報の列に変換する言語解析手段と、前記言
語解析手段の解析結果を記憶する言語解析結果記憶手段
と、前記言語解析結果記憶手段の内容の一部または全部
を入力としてアクセント結合処理などを行なって、発音
記号列に変換する発音記号生成手段と、前記発音記号生
成手段により生成された発音記号列に基づいて合成音声
を生成する音声合成手段と、ユーザからの指示に応じ
て、言語解析手段,言語解析結果記憶手段,発音記号生
手段,音声合成手段を制御するユーザインターフェイ
ス制御手段とを備えており、前記ユーザインターフェイ
ス制御手段は、前記言語解析結果記憶手段の内容をユー
ザが指定した任意の位置から、種々の発話区分で合成音
声として出力する音声合成手段を有していることを特徴
とする発音記号作成装置。
4. A language analysis of a Japanese sentence containing kanji and kana
Reading, part of speech, accent type, word delimiter information, etc.
Language analysis means for converting into a sequence of word information containing
Language analysis result storage means for storing analysis results of word analysis means
And part or all of the contents of the language analysis result storage means.
To perform accent connection processing etc.
A phonetic symbol generation means for converting the phonetic symbol into a symbol string;
Synthesized speech based on the phonetic symbol sequence generated by the synthesizing means
Voice synthesizing means for generating
Language analysis means, language analysis result storage means, phonetic symbol generation
Forming means, a user interface for controlling the speech synthesizing means
The user interface control means , wherein the user interface control means has a speech synthesis means for outputting the contents of the linguistic analysis result storage means from any position designated by the user as synthesized speech in various utterance segments. A phonetic symbol creation device characterized by the following.
【請求項5】 請求項4記載の発音記号作成装置におい
て、前記ユーザインターフェイス制御手段は、前記言語
解析手段に対し入力文章の一部を再度言語解析させて、
前記言語解析結果記憶手段の内容の一部を更新させる再
言語解析起動手段を有していることを特徴とする発音記
号作成装置。
5. The phonetic symbol creation device according to claim 4 , wherein the user interface control means causes the language analysis means to re-language a part of the input sentence.
A phonetic symbol creation device comprising re-language analysis activation means for updating a part of the contents of the language analysis result storage means.
【請求項6】 漢字仮名混じりの日本語文章を言語解析
し、読み,品詞,アクセント型,単語の区切り情報など
を含む単語情報の列に変換する言語解析手段と、前記言
語解析手段の解析結果を記憶する言語解析結果記憶手段
と、前記言語解析結果記憶手段の内容の一部または全部
を入力としてアクセント結合処理などを行なって、発音
記号列に変換する発音記号生成手段と、前記発音記号生
成手段により生成された発音記号列に基づいて合成音声
を生成する音声合成手段と、ユーザからの指示に応じ
て、言語解析手段,言語解析結果記憶手段,発音記号生
成手段,音声合成手段を制御するユーザインターフェイ
ス制御手段とを備えており、前記ユーザインターフェイ
ス制御手段は、前記言語解析結果記憶手段中の単語情報
を、単語の表記,品詞,読みなどの単語情報の一部をキ
ーにして検索する検索手段を有していることを特徴とす
る発音記号作成装置。
6. A language analysis of a Japanese sentence containing kanji and kana
Reading, part of speech, accent type, word delimiter information, etc.
Language analysis means for converting into a sequence of word information containing
Language analysis result storage means for storing analysis results of word analysis means
And part or all of the contents of the language analysis result storage means.
To perform accent connection processing etc.
A phonetic symbol generation means for converting the phonetic symbol into a symbol string;
Synthesized speech based on the phonetic symbol sequence generated by the synthesizing means
Voice synthesizing means for generating
Language analysis means, language analysis result storage means, phonetic symbol generation
User interface for controlling the
And a scan control unit, the user interface control means, the word information in the language analysis result storage unit, notation of words, parts of speech, read retrieval means part to search the key word information, such as A phonetic symbol creation device characterized by having:
【請求項7】 請求項6記載の発音記号作成装置におい
て、前記ユーザインターフェイス制御手段は、前記言語
解析結果記憶手段中の指定の位置の単語情報を、指定の
内容に置換する置換手段を有していることを特徴とする
発音記号作成装置。
7. The pronunciation symbol generating apparatus according to claim 6 , wherein said user interface control means has a replacement means for replacing word information at a specified position in said linguistic analysis result storage means with specified contents. A phonetic symbol creation device characterized by the following.
JP36004392A 1992-12-28 1992-12-28 Phonetic symbol creation device Expired - Fee Related JP3280729B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36004392A JP3280729B2 (en) 1992-12-28 1992-12-28 Phonetic symbol creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36004392A JP3280729B2 (en) 1992-12-28 1992-12-28 Phonetic symbol creation device

Publications (2)

Publication Number Publication Date
JPH06202684A JPH06202684A (en) 1994-07-22
JP3280729B2 true JP3280729B2 (en) 2002-05-13

Family

ID=18467611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36004392A Expired - Fee Related JP3280729B2 (en) 1992-12-28 1992-12-28 Phonetic symbol creation device

Country Status (1)

Country Link
JP (1) JP3280729B2 (en)

Also Published As

Publication number Publication date
JPH06202684A (en) 1994-07-22

Similar Documents

Publication Publication Date Title
KR100378898B1 (en) A pronunciation setting method, an articles of manufacture comprising a computer readable medium and, a graphical user interface system
US5850629A (en) User interface controller for text-to-speech synthesizer
JP3795692B2 (en) Character processing apparatus and method
JPH07114558A (en) Chinese character conversion correcting process system
JP3270356B2 (en) Utterance document creation device, utterance document creation method, and computer-readable recording medium storing a program for causing a computer to execute the utterance document creation procedure
JP5343293B2 (en) Speech editing / synthesizing apparatus and speech editing / synthesizing method
JP3483230B2 (en) Utterance information creation device
JP3280729B2 (en) Phonetic symbol creation device
JP3230868B2 (en) Speech synthesizer
JP3762300B2 (en) Text input processing apparatus and method, and program
JPH09325787A (en) Voice synthesizing method, voice synthesizing device, method and device for incorporating voice command in sentence
JPH06119144A (en) Document read-alout device
JP3284976B2 (en) Speech synthesis device and computer-readable recording medium
JP3093498B2 (en) Document reading device
JP3414326B2 (en) Speech synthesis dictionary registration apparatus and method
US6327560B1 (en) Chinese character conversion apparatus with no need to input tone symbols
JPH08221095A (en) Method for reading sentence aloud
JP2002123281A (en) Speech synthesizer
JPH07210185A (en) Reading information preparing device and reading device
JP3082576B2 (en) Document editing device
JPH06176023A (en) Speech synthesis system
JPH01130262A (en) Voice word processor
JPH07134597A (en) Device for reading out sentence with read learning function and method of reading out sentence
JPH04177526A (en) Sentence reading-out device
JPH05189194A (en) Document reader

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080222

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090222

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100222

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees