JPH07244491A - Conversion system for text sound - Google Patents

Conversion system for text sound

Info

Publication number
JPH07244491A
JPH07244491A JP6033656A JP3365694A JPH07244491A JP H07244491 A JPH07244491 A JP H07244491A JP 6033656 A JP6033656 A JP 6033656A JP 3365694 A JP3365694 A JP 3365694A JP H07244491 A JPH07244491 A JP H07244491A
Authority
JP
Japan
Prior art keywords
dictionary
user
text
word
conversion system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6033656A
Other languages
Japanese (ja)
Other versions
JP3330719B2 (en
Inventor
Tadahiro Hoshino
恭祐 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP03365694A priority Critical patent/JP3330719B2/en
Publication of JPH07244491A publication Critical patent/JPH07244491A/en
Application granted granted Critical
Publication of JP3330719B2 publication Critical patent/JP3330719B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide a system which is excellent in operation convenience for a user and can extract unknown words and can process it afterward, in a conversion system for text sound which is provided with a text analyzing section, a parameter generating section for synthesizing sound, sound synthesizing section and a sound outputting section, and obtains a sound output from text data. CONSTITUTION:This system is provided with an unknown words extracting means 23 which extracts successively unknown words included till a termination in an input text data at a step of morpheme analysis processing, a transmitting means 25 for unknown words which transmits unknown words extracted already when processing reaches the termination of the input text data, an information inputting means 27 to which a user inputs information required for registering transmitted unknown words to a word dictionary, and an information registering means 29 which registers unknown words and inputted information relating to unknown words to the word dictionary.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、テキストデータを音
声信号に変換して出力させるテキスト音声変換システム
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a text-to-speech conversion system for converting text data into a voice signal and outputting the voice signal.

【0002】[0002]

【従来の技術】入力されたテキストデータにアクセント
やイントネーション等を付加してこのテキストデータに
対応する音声信号を出力するシステムは、テキスト音声
変換システムとして知られている。この種のシステムを
実現する形態として、:テキスト解析装置と規則合成
装置とからなる形態、:上位装置(テキスト発生装置
と称されることもある。)とテキスト音声変換装置とか
らなる形態が知られている。いずれの形態のシステム
も、テキストデータを単語辞書を参照して単語等の形態
素に切り分ける形態素解析処理とこれに続く音韻・韻律
付与処理とをして音韻、韻律記号列を生成するテキスト
解析部、音韻、韻律記号列を音声素片記憶部を利用して
音声合成用パラメータに変換する合成パラメータ生成
部、音声合成用パラメータを音声波形データに変換する
音声合成部、及び音声波形データをアナログ音声信号に
変換して出力する音声出力部を具えている。
2. Description of the Related Art A system for adding an accent or intonation to input text data and outputting a voice signal corresponding to the text data is known as a text-to-speech conversion system. Known forms of implementing this type of system include: a form composed of a text analysis device and a rule synthesis device; a form composed of a host device (sometimes called a text generation device) and a text-to-speech conversion device. Has been. Both forms of the system, a text analysis unit that generates a phoneme, a prosodic symbol string by performing a morpheme analysis process that cuts text data into morphemes such as words with reference to a word dictionary, and a phonological / prosodic assignment process that follows, A synthesizing parameter generation unit that converts a phoneme and a prosodic symbol string into a voice synthesis parameter using a voice unit storage unit, a voice synthesis unit that converts a voice synthesis parameter into voice waveform data, and an analog voice signal from the voice waveform data. It is equipped with a voice output unit that converts and outputs.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
テキスト音声変換装置では次に説明するような問題があ
った。
However, the conventional text-to-speech converter has the following problems.

【0004】(1) テキストデータ中に単語辞書に登録さ
れていない語いわゆる未知語があるとその語についての
正しい読みが得られない。
(1) If there is a word in the text data that is not registered in the word dictionary, a so-called unknown word, the correct reading of that word cannot be obtained.

【0005】(2) テキストデータ中のどの語が未知語扱
いとされるのかがユーザで分からない。なぜなら、テキ
ストデータ中に未知語となるものがあるか否かをユーザ
自身が判断するには、単語辞書中にどのような単語が登
録されているのかを知っていて初めて判断できる訳だ
が、単語辞書中の膨大な単語をユーザがおぼえておくこ
とは実質的に困難だからである。結局、上記(1),(2) の
問題は音声出力を行なった段階で不具合を検出してい
た。
(2) The user does not know which word in the text data is treated as an unknown word. This is because the user can determine whether or not there is an unknown word in the text data only by knowing what word is registered in the word dictionary. This is because it is practically difficult for the user to remember a large number of words in the dictionary. After all, the problems of (1) and (2) above were detected when the voice was output.

【0006】(3) また、仮に、これから入力するテキス
トデータ中の未知語を判断できたとしても、それら未知
語を単語辞書に登録するにはシステムを未知語登録モー
ド等にその都度ユーザが自ら変更する必要があるので使
い勝手が悪い。
(3) Further, even if unknown words in the text data to be inputted can be determined, the user must enter the unknown word registration mode or the like in order to register the unknown words in the word dictionary. Since it needs to be changed, it is not easy to use.

【0007】(4) また、これから入力しようとする多数
のテキストデータに同一の未知語が複数回出現した場合
その都度少なくとも上記(1)、(2) の問題が生じる。
(4) Further, when the same unknown word appears a plurality of times in a large number of text data to be input, the problems (1) and (2) at least occur each time.

【0008】また、さらに以下のような問題があった。Further, there are the following problems.

【0009】(a) 複数のユーザが交代でテキスト音声変
換システムを使用する場合、システム内のユーザ辞書は
単一ユーザにしか対応していないので、ユーザが変わる
ごとに、旧ユーザはユーザ辞書の内容を外部媒体(例え
ばフロッピーディスク)にバックアップする必要があ
り、新ユーザは外部媒体からユーザ辞書をシステムのユ
ーザ辞書エリアにダウンロードする必要があり、時間と
手間がかかる。
(A) When a plurality of users take turns using the text-to-speech conversion system, the user dictionary in the system corresponds only to a single user, so that the old user changes the user dictionary every time the user changes. The contents have to be backed up to an external medium (eg floppy disk) and the new user has to download the user dictionary from the external medium into the user dictionary area of the system, which is time consuming and tedious.

【0010】(b) ユーザがシステム使用中にユーザ辞書
を更新した場合でシステム使用終了時にユーザ辞書の内
容を外部媒体にバックアップし忘れた場合、システム上
にある旧ユーザの上記更新したユーザ辞書は、新ユーザ
により消されてしまうので、今後の使用は出来ない。
(B) If the user updates the user dictionary while using the system and forgets to back up the contents of the user dictionary to an external medium at the end of using the system, the updated user dictionary of the old user on the system is , It will not be used in the future because it will be erased by the new user.

【0011】[0011]

【課題を解決するための手段】そこで、上記(1) 〜(4)
の問題を解決するため、この出願の第一発明では、単語
辞書を参照してなされる形態素解析処理とこれに続く音
韻・韻律付与処理とを含む処理によりテキストデータか
ら音韻、韻律記号列を生成するテキスト解析部、生成さ
れた音韻、韻律記号列を音声素片記憶部を利用して音声
合成用パラメータに変換する合成パラメータ生成部、生
成された音声合成用パラメータを音声波形データに変換
する音声合成部、及び生成された音声波形データをアナ
ログ音声信号に変換して出力する音声出力部を具えたテ
キスト音声変換システムに、さらに、(i) 入力テキスト
データ中の終端までに含まれる未知語を形態素解析処理
の段階で順次に抽出する未知語抽出手段と、(ii)入力テ
キストデータの終端に至った際にいままでに抽出された
未知語を一括してユーザに伝える未知語伝達手段と、(i
ii) 伝えられた未知語を単語辞書に登録するため必要な
情報をユーザが入力するための情報入力手段と、(iv)こ
れら未知語及び該未知語について入力された情報を単語
辞書に登録するための情報登録手段とを具えたテキスト
音声変換システムを主張する。
[Means for Solving the Problems] Therefore, the above (1) to (4)
In order to solve the above problem, in the first invention of this application, a phoneme and a prosodic symbol string are generated from text data by a process including a morphological analysis process performed by referring to a word dictionary and a subsequent phoneme / prosodic process. A text analysis unit, a generated phoneme, a synthesis parameter generation unit that converts the prosodic symbol string into a voice synthesis parameter using the voice unit storage unit, and a voice that converts the generated voice synthesis parameter into voice waveform data. A text-to-speech conversion system that includes a synthesis section and a speech output section that converts the generated speech waveform data into an analog speech signal and outputs the analog speech signal.In addition, (i) unknown words included up to the end of the input text data Unknown word extraction means that sequentially extracts at the stage of morphological analysis processing, and (ii) the unknown words that have been extracted so far when the end of the input text data is reached. And the unknown word transmission means to tell the The, (i
ii) Information input means for the user to input the necessary information for registering the transmitted unknown words in the word dictionary, and (iv) registering these unknown words and the information input for the unknown words in the word dictionary. Claims a text-to-speech conversion system with a means for registering information.

【0012】また、上記(a) の問題を解決するため、こ
の出願の第二発明では、単語辞書を参照してなされる形
態素解析処理と、これに続く音韻・韻律付与処理とを含
む処理によりテキストデータから音韻、韻律記号列を生
成するテキスト解析手段、生成された音韻、韻律記号列
を音声素片記憶部を利用して音声合成用パラメータに変
換する合成パラメータ生成手段、生成された音声合成用
パラメータを音声波形データに変換する音声合成部、及
び該生成された音声波形データをアナログ音声信号に変
換して出力する音声出力部を具えたテキスト音声変換シ
ステムであって、前記単語辞書は、予め定めた単語が登
録された標準辞書と、システムの使用に応じユーザによ
り更新、修正されるユーザ辞書と、これら標準辞書及び
ユーザ辞書から単語を検索するための辞書テーブルとを
有している構成のテキスト音声変換システムにおいて、
さらに、(I) 単語辞書の少なくともユーザ辞書中に複数
のユーザごとのエリアを確保するための手段と、(II)
前記複数のユーザを識別するパスワードを入力するため
のパスワード入力手段と、(III) 単語辞書中の前記複数
のユーザごとのエリアのうちのパスワード入力手段から
入力されたパスワードに対応するエリアを選択的に有効
とするための辞書選択手段と、(IV)辞書テーブルを修正
するための手段とを具えたテキスト音声変換システムを
主張する。
In order to solve the above problem (a), in the second invention of this application, a process including a morphological analysis process performed by referring to a word dictionary and a subsequent phonological / prosodic process process is performed. Text analysis means for generating phonemes and prosodic symbol strings from text data, synthesis parameter generating means for converting the generated phoneme and prosodic symbol strings into speech synthesis parameters using a speech segment storage unit, generated speech synthesis A text-to-speech conversion system comprising a voice synthesizing unit for converting a voice parameter into voice waveform data, and a voice output unit for converting the generated voice waveform data into an analog voice signal and outputting the analog voice signal. A standard dictionary in which predetermined words are registered, a user dictionary updated and modified by the user according to the use of the system, and words from these standard dictionary and user dictionary In a text-to-speech conversion system having a dictionary table for searching
Further, (I) means for securing an area for each of a plurality of users in at least the user dictionary of the word dictionary, and (II)
A password input means for inputting a password for identifying the plurality of users, and (III) selectively selecting an area corresponding to the password input from the password input means out of the areas for each of the plurality of users in the word dictionary. A text-to-speech conversion system is provided, which comprises a dictionary selection means for making the above effective and (IV) means for modifying the dictionary table.

【0013】また、上記(b) 問題を解決するため、この
出願の第三発明では、単語辞書を参照してなされる形態
素解析処理と、これに続く音韻・韻律付与処理とを含む
処理によりテキストデータから音韻、韻律記号列を生成
するテキスト解析手段、生成された音韻、韻律記号列を
音声素片記憶部を利用して音声合成用パラメータに変換
する合成パラメータ生成手段、生成された音声合成用パ
ラメータを音声波形データに変換する音声合成部、及び
該生成された音声波形データをアナログ音声信号に変換
して出力する音声出力部を具えたテキスト音声変換シス
テムにおいて、さらに、(A) 単語辞書中のユーザ辞書の
情報がテキスト音声変換作業中に変更されているか否か
を検出するためのユーザ辞書変更検出手段と、(B) ユー
ザ辞書の変更があった場合その旨をユーザに伝えるユー
ザ辞書変更伝達手段とを具えたテキスト音声変換システ
ムを主張する。
In order to solve the above problem (b), in the third invention of this application, text processing is performed by a process including a morphological analysis process performed by referring to a word dictionary and a subsequent phonological / prosodic process. Text analysis means for generating phoneme and prosody symbol string from data, synthesis parameter generation means for converting the generated phoneme and prosody symbol string into speech synthesis parameters using the speech segment storage section, and generated speech synthesis A text-to-speech conversion system comprising a voice synthesis unit for converting parameters into voice waveform data, and a voice output unit for converting the generated voice waveform data into an analog voice signal and outputting the analog voice signal, further comprising (A) a word dictionary There is a user dictionary change detection means for detecting whether or not the information of the user dictionary of is changed during the text-to-speech conversion work, and (B) the user dictionary is changed. If claiming the text-to-speech conversion system comprising a user dictionary change transmission means to convey the fact to the user.

【0014】また、上記(1) 〜(4) 、(a) 及び(b) の問
題をそれぞれ解決するため、この第四発明では、第一〜
第三発明の各構成をすべて具えたテキスト音声変換シス
テムを主張する。
In order to solve the problems (1) to (4), (a) and (b), respectively, in the fourth invention, the first to
Claim a text-to-speech conversion system that includes all of the components of the third invention.

【0015】[0015]

【作用】この第一発明の構成によれば、テキストデータ
中に未知語が出現した場合入力テキストデータ単位でこ
のテキストデータ中に出現した全未知語(1または複数
の場合いずれもある。)をユーザに自動的に一括して知
らせる。また、未知語抽出は形態素解析結果を得た段階
で行なわれるので、音韻、韻律付与処理後に未知語を抽
出する場合に比べ、未知語抽出処理時間の短縮が図れ
る。また、情報入力手段からユーザにより入力された未
知語についての必要情報は情報登録手段により単語辞書
に登録されるので、その後に入力される別のテキストデ
ータ中にこの未知語と同じ文字若しくは文字列が出現し
てもこの文字若しくは文字列は未知語とされなくなる。
また、未知語バッファを用いその中に格納されている未
知語を調べる構成の場合は入力テキストデータ中から同
じ未知語が重複して抽出されることを防止できる。
According to the first aspect of the invention, when an unknown word appears in the text data, all unknown words (in the case of one or a plurality of them) appearing in the text data in units of input text data. Notify users automatically and collectively. Further, since the unknown word is extracted at the stage when the morphological analysis result is obtained, the unknown word extraction processing time can be shortened as compared with the case where the unknown word is extracted after the phoneme and prosody addition processing. Further, since the necessary information about the unknown word input by the user from the information input means is registered in the word dictionary by the information registration means, the same character or character string as the unknown word is included in another text data to be input thereafter. Even if appears, this character or character string is no longer considered an unknown word.
Further, in the case of the configuration in which the unknown word buffer is used to check the unknown word, it is possible to prevent the same unknown word from being extracted in duplicate from the input text data.

【0016】また、第二発明の構成によれば、単語辞書
中に複数のユーザごとのエリアを確保でき、それらエリ
アをパスワードにより選択的に有効として使用できる。
なお、選択されたユーザエリアのユーザ辞書と標準辞書
とを検索するため必要な辞書テーブルは、辞書テーブル
修正手段により生成出来る。
Further, according to the configuration of the second invention, areas for each of a plurality of users can be secured in the word dictionary, and those areas can be selectively and effectively used by the password.
The dictionary table required for searching the user dictionary and the standard dictionary in the selected user area can be generated by the dictionary table correction means.

【0017】また、第三発明の構成によれば、単語辞書
中のユーザ辞書の情報がテキスト音声変換作業中に変更
されている場合この点がユーザに伝達されるので、ユー
ザにユーザ辞書のバックアップを促すことができる。
Further, according to the configuration of the third invention, when the information of the user dictionary in the word dictionary is changed during the text-to-speech conversion work, this point is transmitted to the user, so that the user has a backup of the user dictionary. Can be encouraged.

【0018】[0018]

【実施例】以下、図面を参照してこの出願の第一〜第四
発明の各実施例について説明する。なお、説明に用いる
各図はこの発明を理解出来る程度に概略的に示してある
にすぎない。また、各図において、同様な構成成分につ
いては同一の番号を付して示しその重複説明を省略する
こともある。なお、テキスト音声変換システムを実現す
る形態として、:テキスト解析装置と規則合成装置と
からなる形態、:上位装置(テキスト発生装置と称さ
れることもある。)とテキスト音声変換装置とからなる
形態が知られていることは既に述べた。この出願の各発
明は上記の形態のシステム、の形態のシステムいず
れにも適用可能であるが、以下の各実施例ではこの出願
の各発明をの形態のテキスト音声変換システムに適用
した例を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Each embodiment of the first to fourth inventions of this application will be described below with reference to the drawings. It should be noted that the drawings used for the description are only schematically shown so that the present invention can be understood. Further, in each drawing, the same components may be denoted by the same reference numerals, and the duplicate description thereof may be omitted. As a form for realizing the text-to-speech conversion system: a form composed of a text analysis device and a rule synthesizing device, a form composed of a higher-level device (sometimes referred to as a text generation device) and a text-speech conversion device. It is already known that is known. The inventions of this application are applicable to both the system of the above-mentioned form and the system of form, but in each of the following embodiments, an example in which each invention of this application is applied to the text-to-speech conversion system of the form is described. To do.

【0019】1.第一発明の実施例 1−1.第一発明の第1実施例 図1は第一発明の第1実施例のテキスト音声変換システ
ムの構成を示したブロック図、図2は第1実施例のシス
テムと、上位装置100及びテキスト音声変換装置20
0からなる形態のシステムとの対応関係の例を示したブ
ロック図である。なお、上位装置100は例えばワード
プロセッタやパーソナルコンピュータで構成出来る。こ
れらは、キーボード等の入力手段、ディスプレイ等の表
示手段さらに通信機能を有している為、上位装置を構成
するための手段として好適だからである。
1. Example of first invention 1-1. First Embodiment of First Invention FIG. 1 is a block diagram showing a configuration of a text-to-speech conversion system of a first embodiment of the first invention, and FIG. 2 is a system of the first embodiment, a host device 100 and a text-speech conversion. Device 20
It is the block diagram which showed the example of the correspondence with the system of the form which consists of 0. The host device 100 can be composed of, for example, a word processor or a personal computer. This is because these have an input means such as a keyboard, a display means such as a display, and a communication function, and are therefore suitable as means for configuring a host device.

【0020】第一発明の第1実施例のテキスト音声変換
システムは、図1に示したように、単語辞書11を参照
してなされる形態素解析処理とこれに続く音韻・韻律付
与処理とを含む処理によりテキストデータから音韻、韻
律記号列を生成するテキスト解析部13、該生成された
音韻、韻律記号列を音声素片記憶部15を利用して音声
合成用パラメータに変換する合成パラメータ生成部1
7、該生成された音声合成用パラメータを音声波形デー
タに変換する音声合成部19、及び該生成された音声波
形データをアナログ音声信号に変換して出力する音声出
力部21を具えている。さらに、このシステムは、入力
テキストデータ中の終端までに含まれる未知語を形態素
解析処理の段階で順次に抽出する未知語抽出手段23
と、入力テキストデータの終端に至った際にいままでに
未知語抽出手段23で抽出された未知語を一括してユー
ザに伝える未知語伝達手段25と、未知語伝達手段25
から伝えられた未知語を単語辞書に登録するため必要な
情報をユーザが入力するための情報入力手段27と、こ
れら未知語及び未知語について入力された情報を単語辞
書11に登録するための情報登録手段29とを具えてい
る。なお、図1中23aは抽出された未知語を格納する
ための記憶手段(以下、未知語バッファという。)であ
る。
As shown in FIG. 1, the text-to-speech conversion system of the first embodiment of the first invention includes a morphological analysis process performed by referring to the word dictionary 11 and a subsequent phonological / prosodic process process. A text analysis unit 13 that generates a phoneme and a prosodic symbol string from text data by processing, and a synthesis parameter generation unit 1 that converts the generated phoneme and a prosodic symbol string into a speech synthesis parameter using a speech unit storage unit 15.
7, a voice synthesizing unit 19 for converting the generated voice synthesizing parameter into voice waveform data, and a voice output unit 21 for converting the generated voice waveform data into an analog voice signal and outputting the analog voice signal. Further, this system further comprises an unknown word extracting means 23 for sequentially extracting unknown words included in the input text data up to the end in the stage of morphological analysis processing.
The unknown word transmitting means 25 and the unknown word transmitting means 25 which collectively convey the unknown words extracted by the unknown word extracting means 23 to the user when the end of the input text data is reached.
The information input means 27 for the user to input the information necessary for registering the unknown word transmitted from the word dictionary, and the information for registering the unknown word and the information input for the unknown word in the word dictionary 11. It has a registration means 29. Note that reference numeral 23a in FIG. 1 denotes a storage unit (hereinafter referred to as an unknown word buffer) for storing the extracted unknown word.

【0021】ここで、テキスト解析部13、合成パラメ
ータ生成部17、未知語抽出手段23、未知語バッファ
23a、未知語伝達手段25の一部及び情報登録手段2
9はこの実施例ではテキスト音声変換装置200に備わ
る制御部201(例えばCPUやレジスタ等)で構成す
る(詳細は後述する。)。また、単語辞書11、音声素
片記憶部15、音声合成部19及び音声出力部21は公
知のもので構成出来る。以下、これら構成成分について
順次説明する。
Here, the text analysis unit 13, the synthesis parameter generation unit 17, the unknown word extraction unit 23, the unknown word buffer 23a, a part of the unknown word transmission unit 25 and the information registration unit 2 are described.
In this embodiment, 9 is composed of a control unit 201 (for example, CPU, register, etc.) provided in the text-to-speech conversion device 200 (details will be described later). Further, the word dictionary 11, the voice unit storage unit 15, the voice synthesis unit 19, and the voice output unit 21 can be configured by known ones. Hereinafter, these constituent components will be sequentially described.

【0022】先ず、単語辞書11は、この場合、図3に
示したように、例えばROMで構成され予め定めた単語
が登録された標準辞書11aと、例えばRAMで構成さ
れシステムの使用に応じユーザによる単語の追加、削除
(更新、修正)が可能なユーザ辞書11bと、例えばR
AMで構成され標準辞書及びユーザ辞書から単語を検索
するための辞書テーブル11cと、標準辞書11aのみ
から単語を検索するため及び上記辞書テーブル11cの
修正処理の際の基準として用いる標準辞書テーブル11
dを有するものとしてある。標準辞書11aには、1文
字レベルの形態素まで用意してあるので、文字キャラク
タコードで構成される入力は1文字レベルの形態素(以
下、単漢字と呼ぶ。また、ここで言う単漢字とはひらが
な、カタカナ等も含む。)まで解析を進めれば切り分け
られる。また、この単漢字が単語となりえるかどうか
(例えば国語辞典に1文字の単語として登録されている
か、又は、接頭語や接尾語となりえると登録されている
ものなど)が単語辞書11には登録されている。1文字
が単語となり得ない場合は未知語としてその後処理され
る(詳細は後述する。)。
First, as shown in FIG. 3, the word dictionary 11 is composed of, for example, a standard dictionary 11a composed of a ROM in which predetermined words are registered, and a RAM composed of a standard dictionary 11a, for example, according to the use of the system. A user dictionary 11b capable of adding and deleting (updating, correcting) words by
A dictionary table 11c configured by AM for searching words from the standard dictionary and the user dictionary, and a standard dictionary table 11 used for searching words only from the standard dictionary 11a and used as a reference when modifying the dictionary table 11c.
with d. Since the standard dictionary 11a has morphemes at the 1-character level, the input composed of the character character code is a morpheme at the 1-character level (hereinafter referred to as a single Kanji. The single Kanji referred to here is Hiragana. , Katakana, etc.) are included in the analysis. In addition, whether or not this single kanji can be a word (for example, whether it is registered as a one-character word in the Japanese dictionary or registered as a prefix or suffix) is registered in the word dictionary 11. Has been done. If one character cannot be a word, it is processed as an unknown word (details will be described later).

【0023】次に、図1〜図5を参照して第1実施例に
おける未知語抽出手段23、未知語伝達手段25、情報
入力手段27及び情報登録手段29について説明する。
ここで、図4、図5は各手段23〜29の動作を示すフ
ローチャートである。
Next, the unknown word extracting means 23, the unknown word transmitting means 25, the information inputting means 27 and the information registering means 29 in the first embodiment will be described with reference to FIGS.
Here, FIG. 4 and FIG. 5 are flowcharts showing the operations of the respective means 23 to 29.

【0024】上位装置(テキストデータ発生装置)10
0からテキストデータが入力されると(図4のステップ
S41)、この入力テキストデータに対しテキスト解析
部13はテキスト解析処理の一環である形態素解析処理
をする(ステップS42)。例えば、入力テキストデー
タを単語辞書11に登録されている単語を参照し公知の
最長一致法などの方法で形態素解析するのである。この
形態素解析において、単漢字でも、接頭語或は接尾語で
もない語、つまり未知語を抽出する(図4のステップ4
3、詳細には図5)。抽出された未知語はこの第1実施
例ではすべて未知語バッファ23aに格納される(図4
のステップS44)。未知語でなければ、文終端(入力
テキストデータの終端)か否かの確認を行なう(図4の
ステップS45)。ここでいう文終端とは、音声で読み
上げする単位の終端であることができる。例えば、文章
の終端や文の終端や句の終端であることが出来る。文終
端でない場合は続くテキストデータについての形態素解
析及び未知語抽出処理を続ける(S42,S43)。文
終端をテキスト音声変換システムの制御部(未知語抽出
手段23)が検出すると制御部(未知語伝達手段25)
は未知語バッファ23aをオープンし(図4のステップ
S46)、未知語バッファ23a中の未知語の形態素を
そのまま上位装置100に一括返送する。上位装置10
0はこの返信された未知語を例えば入出力バッファ10
1で保持しそのデータを未知語伝達手段の一構成成分と
しての例えばCRTの画面に表示して(図4のステップ
S46)、ユーザに入力をうながすメッセージを表示す
る。このとき、つまり入出力バッファ101に未知語入
力を検知したとき、上位装置100はビープ音や、音声
メッセージ等で、ユーザに未知語が表示されたことを通
知すれば、よりユーザインターフェースが優れたシステ
ムになることは、いうまでもない。次に、ユーザは情報
入力手段27より、未知語を単語辞書11のユーザ辞書
11b(図3参照)に登録する為必要な情報を、入力す
る(図4のステップS47)。この情報は、未知語とし
て検出された形態素に対し、その読み、品詞、アクセン
ト位置、前後の接続情報等であることができる。このと
き入力の例を画面表示すれば更にユーザインターフェー
スに優れたシステムになる。
Upper device (text data generator) 10
When the text data is input from 0 (step S41 of FIG. 4), the text analysis unit 13 performs a morphological analysis process which is a part of the text analysis process on the input text data (step S42). For example, the input text data is referred to a word registered in the word dictionary 11 and morphologically analyzed by a known method such as the longest matching method. In this morphological analysis, a word that is neither a single Chinese character nor a prefix or suffix, that is, an unknown word is extracted (step 4 in FIG. 4).
3, in detail Fig. 5). In the first embodiment, all the extracted unknown words are stored in the unknown word buffer 23a (see FIG. 4).
Step S44). If it is not an unknown word, it is confirmed whether it is the sentence end (end of the input text data) (step S45 in FIG. 4). The sentence end here can be the end of a unit read aloud by voice. For example, it can be the end of a sentence, the end of a sentence, or the end of a phrase. If it is not the end of sentence, the morphological analysis and unknown word extraction processing for the following text data is continued (S42, S43). When the control section (unknown word extracting means 23) of the text-to-speech conversion system detects the sentence end, the control section (unknown word transmitting means 25)
Opens the unknown word buffer 23a (step S46 in FIG. 4) and collectively returns the unknown word morphemes in the unknown word buffer 23a to the upper level device 100 as they are. Host device 10
0 indicates the returned unknown word, for example, the input / output buffer 10
The data held in 1 is displayed on the screen of, for example, a CRT as one component of the unknown word transmission means (step S46 in FIG. 4), and a message prompting the user to input is displayed. At this time, that is, when the unknown word input is detected in the input / output buffer 101, if the higher-level device 100 notifies the user that the unknown word is displayed by a beep sound, a voice message, or the like, the user interface is more excellent. Needless to say, it becomes a system. Next, the user inputs the information necessary for registering the unknown word in the user dictionary 11b (see FIG. 3) of the word dictionary 11 from the information input means 27 (step S47 in FIG. 4). This information can be, for a morpheme detected as an unknown word, its reading, part of speech, accent position, connection information before and after, and the like. At this time, if an example of input is displayed on the screen, the system has a better user interface.

【0025】ユーザによる所定の情報が入力されると上
位装置100は、これら未知語及びこれについてユーザ
が入力した情報(上記読み、品詞等)をテキスト音声変
換装置200に送る。テキスト音声変換装置200では
情報登録手段29がこれら情報をユーザ辞書11bに自
動登録する(図4のステップS48)。ここで未知語の
ユーザ辞書11bへの自動登録は例えば次の手順で行な
える。この説明を図6〜図8を参照して説明する。なお
ここでは、上位装置100からテキスト音声変換装置2
00に送る情報を格納するバッファ(以下、送信バッフ
ァともいう。)と、テキスト音声変換装置200から上
位装置100に返信されてくる情報(返値ともいう。)
を格納するバッファ(以下、返値バッファともいう。)
とを用いる例を説明する。これらバッファは例えば入出
力バッファ201で構成出来る。返値バッファの内部
は、未知語となった形態素のコードが入っておりその最
後にEOFコードが入っている(図6参照)。入ってい
る未知語の数は、抽出された未知語数により変わり単数
又は複数の場合がある。未知語が複数ある場合、その区
切りを示す改行コード“¥0”などで区別ができるよう
になっているものとする(同じく図6参照)。
When the predetermined information is input by the user, the upper level device 100 sends the unknown words and the information (the reading, the part of speech, etc.) input by the user for the unknown words to the text-to-speech conversion device 200. In the text-to-speech conversion device 200, the information registration means 29 automatically registers these pieces of information in the user dictionary 11b (step S48 in FIG. 4). Here, the unknown word can be automatically registered in the user dictionary 11b by the following procedure, for example. This description will be described with reference to FIGS. Note that, here, the higher-level device 100 to the text-to-speech conversion device 2
00 (hereinafter, also referred to as a transmission buffer) for storing information to be sent to 00, and information (also referred to as a return value) returned from the text-to-speech conversion apparatus 200 to the upper level apparatus 100.
A buffer for storing (hereinafter also referred to as the return value buffer)
An example using and will be described. These buffers can be composed of, for example, the input / output buffer 201. The inside of the return value buffer contains the code of the morpheme that became the unknown word, and the EOF code at the end thereof (see FIG. 6). The number of unknown words contained varies depending on the number of extracted unknown words, and may be single or plural. When there are a plurality of unknown words, it is assumed that they can be distinguished by a line feed code "\ 0" indicating the division (also see FIG. 6).

【0026】図7は上位装置100が返値バッファより
未知語を読み込み、自動登録を行う処理を表わすフロー
チャートである。図6に示される返値バッファより1文
字読み込み(ステップS71)その文字が改行コードか
を判定する(S72)。改行になるまで返値バッファの
内容を読み込み、改行コード以前を1つの未知語とし
て、読み、品詞などの情報入力処理(S73)を行い、
送信バッファに格納する(S74)。図8は送信バッフ
ァの一実施例を示すデータの構成図である。図7の処理
において、改行の次にEOFコードを上位装置が検知す
ると(S72,S75)、送信バッファは図8に示した
情報すなわち各未知語の表記、読み等の情報をテキスト
音声変換装置200に送信する。これら情報はユーザ辞
書11bに格納される。
FIG. 7 is a flow chart showing a process in which the higher-level device 100 reads an unknown word from the return value buffer and performs automatic registration. One character is read from the return value buffer shown in FIG. 6 (step S71) and it is determined whether the character is a line feed code (S72). The contents of the return value buffer are read until a line feed occurs, and the information before the line feed code is treated as an unknown word and information input processing such as part of speech (S73) is performed.
The data is stored in the transmission buffer (S74). FIG. 8 is a data structure diagram showing an embodiment of the transmission buffer. In the process of FIG. 7, when the host device detects the EOF code next to the line feed (S72, S75), the transmission buffer stores the information shown in FIG. Send to. These pieces of information are stored in the user dictionary 11b.

【0027】次に、音韻韻律記号生処理、音声合成用パ
ラメータ生成処理、音声合成処理ががなされ、音声出力
がなされる(ステップS49、S50、S51)。これ
ら音韻韻律記号生処理、音声合成用パラメータ生成処
理、音声合成処理は、任意好適な方法で行なえる。これ
ら処理は本発明の要旨ではないので簡単に述べる。音韻
韻律記号列処理においては、単語辞書に格納されている
情報に基づいて、自立語と自立語を接続したり、自立語
と付属語を接続したりして文節を作り、また、文節と文
節を接続することで文章の読みを作ると共に、その際に
文中のポーズ位置やアクセント位置た強度などを決定し
て、入力文の読み、アクセント、イントネーション、ポ
ーズ等の情報を文字列として記述した音韻韻律記号列
(中間言語)を生成する。合成パラメータ生成処理で
は、音韻韻律記号列に基づき、音声素片(音の種類)デ
ータを音声素片記憶部15(図1参照)から取り出し、
各音韻の継続時間(音の長さ)を設定し、音韻韻律記号
列のアクセント情報に基づいてピッチパタン(音の高
さ)を決定し、さらに各句の長さ等により振幅パタン
(音の強弱)を決定しこれらの情報でなる音声合成用パ
ラメータを生成する。ここで、音声素片は接続して合成
波形を作るための基本単位であり音の種類に応じて様々
なものが予め用意されている。音声素片記憶部15はこ
のような音声素片を記憶しているものである。音声合成
部19(図1参照)では、音声合成用パラメータに基づ
き音声波形データを生成する。音声出力部21(図1参
照)では、内蔵するバッファメモリに上記音声波形デー
タを一時保持し、このデータを所定クロックに従ってデ
ィジタル/アナログ変換してアナログ音声信号に変換す
る。そして、内蔵するスピーカからこのアナログ音声信
号を発音出力させたり、又は、送信手段によって他の装
置に送信したりする。
Next, phonological prosodic symbol live processing, voice synthesis parameter generation processing, and voice synthesis processing are performed, and voice output is performed (steps S49, S50, S51). The phonological prosodic symbol raw process, the voice synthesis parameter generation process, and the voice synthesis process can be performed by any suitable method. Since these processes are not the subject of the present invention, they will be briefly described. In phonological prosodic symbol string processing, based on the information stored in the word dictionary, independent words and independent words are connected, independent words and auxiliary words are connected to create bunsetsu, and bunsetsu and bunsetsu A phoneme that describes the input sentence reading, accent, intonation, pose, etc. as a character string while making the reading of the sentence by connecting and determining the strength of the pose position and accent position in the sentence at that time. Generate a prosodic symbol string (intermediate language). In the synthesis parameter generation process, the speech unit (sound type) data is retrieved from the speech unit storage unit 15 (see FIG. 1) based on the phonological prosodic symbol string,
The duration of each phoneme (sound length) is set, the pitch pattern (sound pitch) is determined based on the accent information of the phoneme prosodic symbol string, and the amplitude pattern (sound pitch) is determined by the length of each phrase. (Strength) is determined, and a voice synthesis parameter including these pieces of information is generated. Here, the speech unit is a basic unit for connecting and creating a synthetic waveform, and various units are prepared in advance according to the type of sound. The speech unit storage unit 15 stores such speech units. The voice synthesis unit 19 (see FIG. 1) generates voice waveform data based on the voice synthesis parameters. The audio output unit 21 (see FIG. 1) temporarily holds the audio waveform data in a built-in buffer memory, and performs digital / analog conversion of this data according to a predetermined clock to convert it into an analog audio signal. Then, the built-in speaker outputs this analog audio signal as a sound, or transmits it to another device by the transmitting means.

【0028】この第一発明の第1実施例のシステムで
は、入力テキストデータごとに未知語抽出ができ、さら
に、入力テキストデータの終端までくると抽出した未知
語を一括してユーザに自動的に伝達でき、さらに、ユー
ザは未知語をユーザ辞書に登録するに必要な情報を入力
でき、かつ、システムによるこれら未知語の単語辞書へ
の一括自動登録ができる。
In the system of the first embodiment of the first aspect of the present invention, unknown words can be extracted for each input text data, and when the end of the input text data is reached, the extracted unknown words are automatically collected by the user. Further, the user can input information necessary for registering unknown words in the user dictionary, and the system can perform batch automatic registration of these unknown words in the word dictionary.

【0029】1−2.第一発明の第2実施例 上述の第1実施例では入力テキストデータの終端までで
抽出される未知語は重複する未知語であってもすべて未
知語バッファに格納されユーザへ伝達されてしまう。こ
の重複格納及び重複伝達がなくなれば例えばメモリ容量
の低減や処理時間の短縮が図れ好適と考えられる。この
第2実施例はこれを改善する例である。このため、この
第2実施例では、未知語抽出手段23を以下のように構
成する。図9はその説明に供する図である。この第2実
施例では、未知語抽出手段23は、入力テキストデータ
から未知語が抽出されるごとに該抽出された未知語と同
じ未知語が未知語バッファ中に既に格納されているか否
かを調べる(図9のステップS52)。そして、格納さ
れていない場合に該抽出された未知語を未知語バッファ
に格納する(図9のステップS53)。抽出された未知
語と同一の未知語が未知語バッファに格納されている場
合はこの未知語は未知語バッファに格納せず、文終端か
否かの判定処理に移る。文終端を検出したなら第1実施
例と同様にステップS46以降の処理をする。
1-2. Second Embodiment of First Invention In the first embodiment described above, all unknown words extracted up to the end of the input text data are stored in the unknown word buffer and transmitted to the user even if they are duplicate unknown words. If this redundant storage and redundant transmission are eliminated, for example, the memory capacity and the processing time can be shortened, which is considered preferable. The second embodiment is an example of improving this. Therefore, in this second embodiment, the unknown word extracting means 23 is configured as follows. FIG. 9 is a diagram used for the explanation. In the second embodiment, the unknown word extraction means 23 determines whether an unknown word that is the same as the extracted unknown word is already stored in the unknown word buffer every time the unknown word is extracted from the input text data. Check (step S52 in FIG. 9). Then, if it is not stored, the extracted unknown word is stored in the unknown word buffer (step S53 in FIG. 9). If the same unknown word as the extracted unknown word is stored in the unknown word buffer, the unknown word is not stored in the unknown word buffer, and the process proceeds to the determination process of whether it is the sentence end or not. If the end of the sentence is detected, the processes from step S46 onward are performed as in the first embodiment.

【0030】1−3.第一発明の第3実施例 上述の第1及び第2実施例では未知語を単語辞書に登録
する際に必要な情報(読み、品詞等)は、ユーザが情報
入力手段で入力していた。これに対しこの第3実施例は
大規模なデータベースをアクセスする手段を設けること
により、未知語を単語辞書に登録する際に必要な情報
を、場合によってはデータベースから得ようとするもの
である。図10及び図11はその説明に供する図であ
る。
1-3. Third Embodiment of First Invention In the above first and second embodiments, the user inputs the information (reading, part of speech, etc.) required when registering an unknown word in the word dictionary by the information input means. On the other hand, in the third embodiment, by providing means for accessing a large-scale database, the information necessary for registering an unknown word in the word dictionary may be obtained from the database in some cases. 10 and 11 are diagrams provided for the description.

【0031】図10において、71は未知語を単語辞書
に登録するため必要な情報が登録されているであろうよ
り大規模なデータベースを示し、73はネットワークで
ある。ネットワーク73は第3実施例のテキスト音声変
換システム75(図10では複数台を示している。)と
大規模データベース71を結ぶものである。なお、この
第3実施例では、データベースアクセス手段103を上
位装置100側に設けた例を示している。
In FIG. 10, 71 indicates a larger database in which information necessary for registering an unknown word in the word dictionary may be registered, and 73 is a network. The network 73 connects the text-to-speech conversion system 75 (three units are shown in FIG. 10) of the third embodiment and the large-scale database 71. The third embodiment shows an example in which the database access means 103 is provided on the higher-level device 100 side.

【0032】テキスト音声変換装置200の内部に存在
する標準辞書11a(図3参照)は数万から十数万個レ
ベルの単語しか登録されていない為、固有名詞等のデー
タは多くない。それに対し、大規模データベース(例え
ば大規模日本語データベース)71は固有名詞も含め、
数十万から数百万個の単語のデータがある。この第3実
施例はこのようなデータベースを利用出来るのである。
その手順について以下に述べる。
The standard dictionary 11a (see FIG. 3) existing inside the text-to-speech conversion apparatus 200 has only tens of thousands to hundreds of thousands of words registered therein, and therefore there is not much data such as proper nouns. On the other hand, the large-scale database (for example, large-scale Japanese database) 71 includes proper nouns,
There are data of hundreds of thousands to millions of words. The third embodiment can use such a database.
The procedure will be described below.

【0033】テキスト音声変換装置200側の未知語抽
出手段23により抽出された未知語が未知語伝達手段2
5により上位装置100に伝達(入力)されると(図1
1のステップS81)、上位装置100はネットワーク
73上の大規模日本語データベース71をアクセスし
(図11のステップS82)、テキスト音声変換装置2
0側から受け取った未知語の単語辞書登録に必要な情報
がデータベース71上にあるか否かの検索を行う(図1
1のステップS83)。データベース上にこの未知語の
情報があるときは、そのデータを取り込む(S84、S
85)。データベース上にこの未知語の情報がないとき
は、第1及び第2実施例で説明した手順で情報入力手段
27によりユーザーに情報を入力してもらう(S86,
S87)。そして、ユーザ辞書を自動登録し(S8
8)、解析を進める。
The unknown word extracted by the unknown word extracting means 23 on the side of the text-to-speech converter 200 is the unknown word transmitting means 2
5 is transmitted (input) to the higher-level device 100 (see FIG.
1, step S81), the host device 100 accesses the large-scale Japanese database 71 on the network 73 (step S82 in FIG. 11), and the text-to-speech conversion device 2
It is searched whether or not the information necessary for registering the word dictionary of the unknown word received from the 0 side exists in the database 71 (FIG. 1).
1 step S83). When the information of this unknown word exists in the database, the data is taken in (S84, S
85). When there is no information of this unknown word in the database, the user inputs information by the information input means 27 by the procedure described in the first and second embodiments (S86,
S87). Then, the user dictionary is automatically registered (S8
8), proceed with the analysis.

【0034】当然の事ながらセットワーク73を上位装
置100がアクセスするタイミングは、未知語ごとであ
ってもよく、未知語バッファに格納されている未知語全
体で一括であっても良い。
As a matter of course, the timing at which the host device 100 accesses the set work 73 may be for each unknown word or may be for all the unknown words stored in the unknown word buffer at once.

【0035】この第3実施例のシステムによれば、ユー
ザによる未知語についての情報入力を軽減若しくは不要
にできる場合があるという利点がある。
According to the system of the third embodiment, there is an advantage that the user may be able to reduce or eliminate the information input about the unknown word.

【0036】1−4.第一発明の第4実施例 上述した第1〜第3実施例では未知語は文字であるもの
として説明していた。しかし、テキスデータ中には、J
IS、シフトJIS、EUCなどで規定されている標準
キャラクタコード以外の規格による文字キャラクタコー
ドが付与されている文字いわゆる外字(例えば図表作成
のための記号、或は特殊マークなど)も多々出現する。
このような外字は未知語となる。例えばスタンドアロン
のワードプロセッサで作成したテキストデータをテキス
ト音声変換システムの上位装置100に媒体を介して入
力すると、このスタンドアロンのワードプロセッサ特有
の外字は、未知語となる。また、このような外字は、当
該システムにおける標準コードとは異なるコードで表現
されているので、このテキスト音声変換システムの上位
装置では表現できない。このため、この第4実施例のシ
ステムでは、未知語が外字である場合で該外字の当該シ
ステムにおける標準コードが存在する場合に該外字に付
与されていたコードを標準コードに置き換えるための、
外字コード置換手段を具える。これについて図12を参
照して以下詳細に説明する。
1-4. Fourth Embodiment of First Invention In the above-described first to third embodiments, the unknown word is described as a character. However, in the text data, J
Many so-called external characters (for example, a symbol for creating a chart or a special mark) to which a character character code according to a standard other than the standard character code defined by IS, shift JIS, EUC, etc. are given.
Such external characters become unknown words. For example, when text data created by a stand-alone word processor is input to the host device 100 of the text-to-speech conversion system via a medium, the external character unique to this stand-alone word processor becomes an unknown word. Further, since such an external character is expressed by a code different from the standard code in the system, it cannot be expressed by the host device of this text-to-speech conversion system. Therefore, in the system according to the fourth embodiment, when the unknown word is an external character and the standard code in the system of the external character exists, the code assigned to the external character is replaced with the standard code.
Equipped with external character code replacement means. This will be described in detail below with reference to FIG.

【0037】先ず、第1実施例で主に説明した未知語抽
出の手順でこのような外字を抽出し上位装置にこの外字
を表示する。外字以外の通常の文字の辞書では、1形態
素に対応する辞書は、図12(A)に示したように、表
記、読み、品詞、アクセント位置、接続情報などで構成
される。これは、未知語となった形態素の表記に対する
各情報を入力することにより作成される。ところが、未
知語が外字である場合、この第4実施例では、図12
(B)に示したように、外字を標準辞書にある記号にお
きかえる。すなわち未知語となった表記に対し、読み、
品詞、アクセント位置、接続情報は入力せず、置き換え
コードエリアに標準辞書にあるコードを格納する。そし
て、この図12(B)の状態でユーザ辞書に登録する。
外字でも標準辞書のコードに置きかえられているため、
外字の未知語入力時にも、この外字については形態素解
析を進めることが出来る。なお、未知語となった形態素
のコードが何であるかユーザが知る必要はないのは当然
である。
First, such an external character is extracted by the procedure of extracting an unknown word mainly described in the first embodiment, and the external character is displayed on the host device. In the dictionary of ordinary characters other than the external character, the dictionary corresponding to one morpheme is composed of notation, reading, part of speech, accent position, connection information, etc., as shown in FIG. This is created by inputting each information for the notation of the morpheme that has become an unknown word. However, when the unknown word is an external character, in this fourth embodiment, as shown in FIG.
As shown in (B), the external character is replaced with the symbol in the standard dictionary. That is, for the notation that became an unknown word, read,
The code in the standard dictionary is stored in the replacement code area without inputting the part of speech, the accent position, and the connection information. Then, it is registered in the user dictionary in the state of FIG.
Even the external characters are replaced with the standard dictionary code,
Morphological analysis can be performed on an external character even when an unknown word is input. Of course, the user does not need to know what is the code of the morpheme that has become an unknown word.

【0038】2.第二発明の実施例の説明 次に、複数のユーザが同一のテキスト音声変換システム
を使用する場合のユーザ辞書の使用の便宜を図るべくな
された、第二発明の実施例を説明する。この第二発明で
は、単語辞書中にユーザごとのエリアを確保するための
手段と、パスワード入力手段と、辞書選択手段と、辞書
テーブル修正手段とを具えることを特徴としている。こ
れら手段は以下の各実施例では以下に説明するように構
成している。
2. Description of Embodiment of Second Invention Next, an embodiment of the second invention will be described in order to facilitate the use of the user dictionary when a plurality of users use the same text-to-speech conversion system. The second aspect of the invention is characterized by including means for securing an area for each user in the word dictionary, password input means, dictionary selection means, and dictionary table correction means. These means are configured as described below in each of the following embodiments.

【0039】2−1.第二発明の第1実施例 第二発明の第1実施例では、単語辞書中にユーザごとの
エリアを確保するための手段を単語辞書を工夫すること
で実現している。図13はその単語辞書11の構成を示
した図である。すなわち、単語辞書11は、標準辞書1
1aと、11b1 ,11b2 ,・・・、11bN で示し
たN個のユーザ辞書と、11c1 ,11c2 ,・・・、
11cN で示したN個の辞書テーブルと、標準辞書テー
ブル11dとを有したものとしている。ここで、Nはユ
ーザの数に当たるものである。なお、標準辞書、複数の
ユーザ辞書、複数の辞書テーブルそれぞれの領域はシス
テムのメモリ上に割りあてられている。また、この実施
例ではあるユーザ用のユーザ辞書及び辞書テーブルから
成るセットと、このユーザ以外のユーザのセットとは、
メモリの同一アドレスに重複して割り当てられ選択的に
使用される。これら単語辞書のメモリ上の割りつけにつ
いては後述する(図16を参照して後述する)。
2-1. First Embodiment of the Second Invention In the first embodiment of the second invention, means for securing an area for each user in the word dictionary is realized by devising the word dictionary. FIG. 13 is a diagram showing the structure of the word dictionary 11. That is, the word dictionary 11 is the standard dictionary 1
1a, 11b 1 , 11b 2 , ..., 11b N , which are N user dictionaries, and 11c 1 , 11c 2 ,.
It has N dictionary tables indicated by 11c N and a standard dictionary table 11d. Here, N corresponds to the number of users. The areas of the standard dictionary, the plurality of user dictionaries, and the plurality of dictionary tables are allocated in the memory of the system. Further, in this embodiment, a set including a user dictionary and a dictionary table for a user and a set of users other than this user are
The same address of the memory is redundantly assigned and selectively used. The allocation of these word dictionaries on the memory will be described later (will be described later with reference to FIG. 16).

【0040】次に、パスワード入力手段及び辞書選択手
段について説明する。図14はその説明に供する図であ
る。上位装置100は、既に説明したように、例えばパ
ーソナルコンピュータ、ワークステーション、ワードプ
ロセッサなどで構成出来る。近年では情報通信の拡大に
伴い機密保持のためにも、この上位装置100よりシス
テムを利用する際利用前にパスワードなどの、システム
利用権を確認するコードを入力するのが一般的である。
この実施例では上位装置中にパスワード入力手段110
を具える。またこの実施例ではパスワード入力手段11
0はパスワード入力部110aとパスワード出力部11
0bとで構成している。上位装置100はパスワードを
パスワード入力手段110のパスワード入力部110a
で受け付け、このパスワードをパスワード出力部110
bよりテキスト音声変換装置200内の辞書選択手段2
10へ送信する。この実施例の場合の辞書選択手段21
0は、パスワード入力部212とパスワード識別部21
4とを具えている。辞書選択手段210内部ではパスワ
ード入力部212がパスワードを受信しパスワード識別
部214にパスワードを渡す。パスワード識別部214
ではパスワードに応じた辞書テーブルとユーザ辞書のメ
モリエリアを単語辞書内に確保する。次に、ユーザコー
ドの識別とパスワードに応じた単語辞書部のメモリエリ
アの確保に対する一実施例を述べる。図15は上述した
パスワード識別部214の具体的構成例を表わすブロッ
ク図である。この場合のパスワード識別部214はここ
に入力されるパスワードを保持するパスワードレジスタ
214aと、このパスワードレジスタ214aに保持さ
れた値に応じたメモリセレクト信号を生成するデコーダ
部214bとで構成してある。パスワードレジスタ21
4aのビット長は、利用者(ユーザ)数により異なる
が、例えば最大256人が利用するとしたときすなわち
上記N=256としたときなら、16bit長である。
デコード部214bの出力は、テキスト音声変換装置の
制御部201(図2参照)が、単語辞書11のアクセス
を行う時に制御部内のCPUのアドレスデコードなどで
生成される。そして、デコード部214bの出力は、チ
ップセレクト信号CSがアクティブのときのみ有効とな
る。このことにより制御部は、複数ある辞書テーブル1
1c1〜11cN 、ユーザ辞書11b1 〜11bN を意
識した複雑な制御を行うことなく、唯一の辞書部を扱う
のと同様の簡単な処理で辞書テーブル及びユーザ辞書を
アクセスする事ができる。
Next, the password input means and the dictionary selection means will be described. FIG. 14 is a diagram used for the description. As described above, the host device 100 can be composed of, for example, a personal computer, a workstation, a word processor, or the like. In recent years, in order to maintain confidentiality with the expansion of information communication, it is common to use a code such as a password to confirm the system usage right before using the system from the host device 100 before using the system.
In this embodiment, the password input means 110 is installed in the host device.
Equipped with. Further, in this embodiment, the password input means 11
0 is a password input unit 110a and a password output unit 11
It is composed of 0b. The upper level device 100 uses the password as the password input unit 110a of the password input means 110.
And accept this password in the password output section 110
From b, dictionary selection means 2 in the text-to-speech conversion device 200
Send to 10. Dictionary selection means 21 in the case of this embodiment
0 indicates the password input unit 212 and the password identification unit 21.
4 and. In the dictionary selection means 210, the password input unit 212 receives the password and transfers the password to the password identification unit 214. Password identification unit 214
Then, the dictionary table corresponding to the password and the memory area of the user dictionary are secured in the word dictionary. Next, an embodiment for securing the memory area of the word dictionary unit according to the identification of the user code and the password will be described. FIG. 15 is a block diagram showing a specific configuration example of the password identification unit 214 described above. In this case, the password identification unit 214 is composed of a password register 214a for holding the password input here and a decoder unit 214b for generating a memory select signal according to the value held in the password register 214a. Password register 21
The bit length of 4a varies depending on the number of users (users), but is 16 bits when, for example, 256 people at maximum are used, that is, N = 256.
The output of the decoding unit 214b is generated by the address decoding of the CPU in the control unit when the control unit 201 (see FIG. 2) of the text-to-speech conversion device accesses the word dictionary 11. Then, the output of the decoding unit 214b becomes valid only when the chip select signal CS is active. As a result, the control unit has a plurality of dictionary tables 1
1c 1 ~11c N, without complicated control-conscious user dictionary 11b 1 ~11b N, can be accessed dictionary table and user dictionary a simple process similar to dealing with only the dictionary unit.

【0041】図16(A)は辞書選択手段210中のデ
コード部214aでつくられたチップセレクト(メモリ
セレクト)信号により制御される、辞書部内のメモリの
構成を示すメモリマップである。この図16(A)の例
では256人分のユーザ辞書と辞書テーブルが収められ
ている例を示している。また、この図16に示されてい
るユーザ辞書と辞書テーブルの物理アドレス例について
詳説すると以下のようである。図16(B)はその例
(制御部201(図2参照)内のCPUのメモリマッ
プ)を図示したものである。この実施例では、0000
h番地から3FFFh番地まではCPUのプログラムエ
リア、4000h番地から7FFFh番地まではCPU
のワークエリア、8000h番地からBFFFまでは辞
書テーブルエリア及びユーザ辞書エリア(ここでは、8
000h番地から9FFFh番地までは辞書テーブルエ
リア、A000h番地からBFFFh番地まではユーザ
辞書エリアとしている。)、C000h番地からFFF
Fh番地までは標準辞書エリア及び標準辞書テーブルエ
リアとそれぞれしてある。したがって、制御部内のCP
Uのアドレスデコードはアドレスの上位2bitをデコ
ードすることによりメモリを上述した4つのエリアに分
割できることがわかる。例えば上位2bitが“1,
0,”のときは、CPUの周辺回路により、ユーザ辞
書、辞書テーブルをアクセスする為のチップセレクト信
号が出力される。なぜなら、ここでは、16ビット構成
であるので、その上位2ビットが1,0というからには
16進表示の最上位表示は8、9、A、Bのいずれかで
あるから、8000h番地からBFFFまでのいずれか
をアクセスできることになる。また、上述した4つのエ
リアのそれぞれの物理的な大きさは、アドレスの総ビッ
ト数からアドレスデコードの為に用いた2bitを差し
引いた、14bit(3fffh)がそれぞれの大きさ
(サイズ)となる。ユーザ辞書、辞書テーブルを複数持
つということは上述した制御部CPUのアドレスの上位
2bitが“1,0,”のエリアを複数持つ(同じアド
レスに重複して持つ)事に相当し(ただし、上記のごと
く切り換えて使用される)、個々のユーザ辞書、辞書テ
ーブルのサイズは、上述した通り、14bit長のサイ
ズとなる。
FIG. 16A is a memory map showing the structure of the memory in the dictionary section, which is controlled by the chip select (memory select) signal produced by the decoding section 214a in the dictionary selecting means 210. The example of FIG. 16A shows an example in which user dictionaries for 256 people and a dictionary table are stored. The physical addresses of the user dictionary and dictionary table shown in FIG. 16 will be described in detail below. FIG. 16B shows an example thereof (memory map of the CPU in the control unit 201 (see FIG. 2)). In this example, 0000
Program area of CPU from address h to 3FFFh, CPU from address 4000h to 7FFFh
Work area, from 8000h to BFFF, the dictionary table area and the user dictionary area (here, 8
A dictionary table area is provided from addresses 000h to 9FFFh, and a user dictionary area is provided from addresses A000h to BFFFh. ), FFF from C000h
Up to the address Fh, the standard dictionary area and the standard dictionary table area are provided. Therefore, the CP in the control unit
It can be seen that the address decoding of U can divide the memory into the above-mentioned four areas by decoding the upper 2 bits of the address. For example, the upper 2 bits are "1,
When it is "0,", a peripheral circuit of the CPU outputs a chip select signal for accessing the user dictionary and the dictionary table. Since the 16-bit configuration is used here, the upper 2 bits are 1. Since it is 0, the highest hexadecimal display is any one of 8, 9, A, and B, which means that any of the addresses from 8000h to BFFF can be accessed. The size of each address is 14 bits (3 fffh), which is obtained by subtracting 2 bits used for address decoding from the total number of bits of the address. The upper 2 bits of the address of the control unit CPU described above have a plurality of areas of "1, 0," (having the same address in duplicate. Corresponds to things (but are used by switching as described above), each user dictionary, the size of the dictionary table, as described above, the size of 14bit length.

【0042】図17は、辞書選択手段を構成するハード
ウエア構成例をまとめて示した図である。すなわち、複
数のユーザ辞書、複数の辞書テーブル、テキスト音声変
換装置200の制御部CPU周辺のアドレスデコード
部、及び、パスワードレジスタ、パスワードデコーダで
構成した辞書選択手段のハードウェア例である。この構
成によれば、複数のユーザ辞書をテキスト音声変換装置
内に保有するシステムにおいて、使用者が交代しても、
パスワードを入力するだけで、自動的に登録してあるユ
ーザのパスワードに相当するユーザ辞書を用いて、形態
素解析を行う装置を実現することができる。
FIG. 17 is a diagram collectively showing an example of the hardware configuration of the dictionary selecting means. That is, it is a hardware example of a dictionary selection means including a plurality of user dictionaries, a plurality of dictionary tables, an address decoding unit around the control unit CPU of the text-to-speech conversion apparatus 200, a password register, and a password decoder. According to this configuration, in the system having a plurality of user dictionaries in the text-to-speech conversion device, even if the user changes,
By simply inputting a password, it is possible to realize an apparatus for performing morphological analysis by using a user dictionary corresponding to a password of a user who is automatically registered.

【0043】ところで、単語辞書中の辞書テーブル11
cは、標準辞書及びユーザ辞書で構成される辞書群を参
照して形態素解析を効率的に行なうためのものであり、
例えば図18に示すような構成となっている。すなわ
ち、辞書テーブルにはテキスト音声変換装置に入力され
るテキストデータの表記1文字がキーコード91として
登録されている。さらに辞書テーブルには、そのキーコ
ードを先頭とする最長の形態素(単語)が存在する標準
辞書またはユーザ辞書のアドレス93が登録されてい
る。このアドレスをたどることにより、入力されたテキ
ストデータの表記1文字目で始る第一候補の形態素が辞
書から引き出され入力テキストデータとのマッチングが
行なわれる。なお、単語辞書内のユーザ辞書に何れも登
録されていない場合は、辞書テーブルの辞書アドレスは
全て標準辞書エリアをさしているのはいうまでもない。
By the way, the dictionary table 11 in the word dictionary
c is for efficiently performing morphological analysis with reference to a dictionary group including a standard dictionary and a user dictionary,
For example, the configuration is as shown in FIG. That is, one character of the text data input to the text-to-speech conversion device is registered as the key code 91 in the dictionary table. Further, in the dictionary table, the address 93 of the standard dictionary or the user dictionary in which the longest morpheme (word) starting with the key code exists is registered. By tracing this address, the morpheme of the first candidate starting with the first character of the input text data is retrieved from the dictionary and is matched with the input text data. Needless to say, if none of the user dictionaries in the word dictionary are registered, all dictionary addresses in the dictionary table refer to the standard dictionary area.

【0044】このような辞書テーブルでは、(A):ユ
ーザ辞書エリアに外部媒体(フロッピディスク)から新
たなユーザ辞書をダウンロードした際や、(B):その
後のシステム使用時にユーザ辞書に新たな単語(未知語
であったもの)を登録した際に、辞書テーブルを修正す
る必要がそれぞれ生じる。ユーザ辞書の内容が代わった
ことに対応してキーコード及びそのアドレスを変更しな
いと辞書テーブルと成り得ないからである。辞書テーブ
ルの修正方法は種々のものが考えられる。以下にその一
例を説明する。図19、図20はその説明に供する図で
ある。なお、以下の説明では辞書テーブルと標準辞書テ
ーブルとを区別するために、標準辞書テーブルでない辞
書テーブルを「ユーザ辞書テーブル」と称することもあ
る。
In such a dictionary table, (A): when a new user dictionary is downloaded from the external medium (floppy disk) to the user dictionary area, and (B): a new word is added to the user dictionary when the system is used thereafter. When registering (what was an unknown word), it is necessary to modify the dictionary table. This is because the dictionary table cannot be created unless the key code and its address are changed in response to the contents of the user dictionary changed. There are various possible methods for modifying the dictionary table. An example will be described below. 19 and 20 are diagrams used for the description. In the following description, in order to distinguish between the dictionary table and the standard dictionary table, a dictionary table that is not the standard dictionary table may be referred to as a “user dictionary table”.

【0045】図19はユーザ辞書テーブルの修正手順例
を示したフローチャート、図20は単語辞書内での各単
語の情報同士のリンクについての説明図である。
FIG. 19 is a flow chart showing an example of a procedure for correcting the user dictionary table, and FIG. 20 is an explanatory diagram of links between pieces of information of each word in the word dictionary.

【0046】テキスト音声変換装置200(辞書テーブ
ル修正手段)は上位装置100から送られてくるパスワ
ードに相当するユーザ辞書用のメモリエリアを確保し、
そこに例えば外部媒体からのユーザ辞書をダウンロード
する(図19のステップS1)。さらに、このユーザ辞
書内の表記第一文字のコードが同じである表記を表記の
長い方から順に走査する処理(リンク処理)をする(ス
テップS2)。また、この際ユーザ辞書内に表記第一文
字のコードが同じであるリンクがいくつかあるか(リン
ク数L)を求めこれをバッファに格納する(ステップS
3)。ここで、リンク処理及びリンク数を図20の例で
説明すると、表記第一文字が「沖」であるデータをリン
クする場合、ユーザ辞書の物理アドレスA000hの
「沖□電気」が先ず走査され、次に、図20中の「沖□
電気」の欄の右端にあるアドレス(これはリンク先を示
すため登録されているアドレス情報である。)に移り即
ち物理アドレスA002hが走査されるというようにリ
ンクされる。また、表記第一文字が「恩」であるデータ
がリンクされる。この例では「沖」及び「恩」について
それぞれリンクが存在する例としているので、リンク数
Lは2となる。このようにリンク処理がなされ、かつ、
リンク数Lが求まると、テキスト音声変換装置200
(辞書テーブル修正手段)は変数nを0に設定し(ステ
ップS4)、標準辞書テーブルのデータをユーザ辞書テ
ーブルへコピーする(ステップS5)。次に、変数nを
イクリメントし(ステップS6)、次いで、この標準テ
ーブルの中から、変数nで示されている数のリンクの文
字、具体的には、リンク数が2であれば先ず1番目のリ
ンクの文字の表記(上記例でいえば「沖」のリンクの文
字の表記)に一致するデータのアドレスを取り出す(ス
テップS7)。次に、標準テーブル中の「沖」のアドレ
スをユーザ辞書の先頭一文字「沖」のリンクにおける最
後のデータ欄(リンクの最終単語つまり形態素の一番短
いデータ欄)の右端のアドレス欄(リンク先のアドレス
欄)に書き込む(ステップS8)。このステップS8の
処理は、図20の例で具体的に説明すれば、この場合ユ
ーザ辞書の先頭一文字が「沖」であるリンクにおける最
後のデータとは物理アドレスA002hの「沖縄」であ
るのでその欄の右端のアドレスに標準辞書での「沖」の
アドレスC000hが書き込まれるのである。次に、先
頭一文字が「沖」であるリンクにおける物理アドレス
(図20の場合であればA000h)がユーザ辞書テー
ブルのキーコード「沖」の欄のアドレス欄に書き込まれ
る(ステップS9)。ここまでの処理でキーコード
「沖」の辞書テーブルのアドレス変更が終了する。ただ
し、ここでは、図18に示したアドレスのまま(A00
0のまま)の例である。次に、変数nがリンク数Lに一
致しているかを判断する(ステップS10)。この判断
ではユーザ辞書中の各リンク(図20の例では「沖」の
リンク、「恩」のリンク)についてステップS7〜S9
の処理が行なわれたか否かが判断されるのである。すな
わち、nがLに一致していない場合は残りのリンク(こ
こでは先頭一文字が「恩」であるリンク)について辞書
テーブルの修正を行なう。この処理を登録したユーザ辞
書の最後まで行なうことにより辞書テーブルを修正、変
更することが出来る。
The text-to-speech conversion device 200 (dictionary table correction means) secures a memory area for the user dictionary corresponding to the password sent from the upper level device 100,
A user dictionary from, for example, an external medium is downloaded there (step S1 in FIG. 19). Further, a process (link process) of scanning the notations in which the code of the first letter of the notation in the user dictionary is the same from the longest notation is performed (step S2). Further, at this time, it is determined whether or not there are some links (the number of links L) in which the code of the first character is the same in the user dictionary and this is stored in the buffer (step S).
3). Here, the link process and the number of links will be described with reference to the example of FIG. 20. When linking data whose first character is “Oki”, “Oki Electric” at the physical address A000h of the user dictionary is scanned first and then In addition, “Oki □ in FIG.
The address is linked to the address at the right end of the "Electrical" column (this is the address information registered to indicate the link destination), that is, the physical address A002h is scanned. In addition, data in which the first character of the notation is "Gon" is linked. In this example, there are links for "Oki" and "On", so the number of links L is 2. Link processing is done in this way, and
When the number of links L is obtained, the text-to-speech conversion device 200
The (dictionary table correction means) sets the variable n to 0 (step S4) and copies the data of the standard dictionary table to the user dictionary table (step S5). Next, the variable n is incremented (step S6), and then, from this standard table, the character of the number of links indicated by the variable n, specifically, if the number of links is 2, first The address of the data that matches the character notation of the link (in the above example, the character notation of the link "Oki") is taken out (step S7). Next, the address of "Oki" in the standard table is the address field at the right end of the last data field (the last word of the link, that is, the shortest morpheme data field) in the link of the first character "Oki" in the user dictionary Address column) (step S8). The process of step S8 will be described in detail with reference to the example of FIG. 20. In this case, the last data in the link in which the first character of the user dictionary is “Oki” is “Okinawa” at the physical address A002h. The address C000h of "Oki" in the standard dictionary is written in the rightmost address of the column. Next, the physical address (A000h in the case of FIG. 20) in the link in which the first character is "Oki" is written in the address field of the key code "Oki" in the user dictionary table (step S9). By the processing up to this point, the address change of the dictionary table for the key code "Oki" is completed. However, here, the address shown in FIG. 18 remains (A00
(It remains 0). Next, it is determined whether the variable n matches the number of links L (step S10). In this determination, steps S7 to S9 are performed for each link in the user dictionary (in the example of FIG. 20, the link of "Oki" and the link of "gratitude").
It is determined whether or not the process of (1) has been performed. That is, when n does not match L, the dictionary table is corrected for the remaining links (links in which the first character is "Gaku" here). The dictionary table can be corrected or changed by performing this processing to the end of the registered user dictionary.

【0047】2−2.第二発明の第2実施例 上述の第二発明の第1実施例のシステムは、単語辞書中
にユーザ辞書と辞書テーブルで構成されるセットを複数
持つ形態のものであった。これに対しこの第2実施例
は、ユーザ辞書自体は複数でも、辞書テーブルは単一と
なっており、かつ、複数のユーザ辞書の中からユーザに
対応するユーザ辞書がユーザが入力したパスワードによ
って自動的に選択されるシステムの例である。
2-2. Second Embodiment of Second Invention The system of the first embodiment of the second invention described above has a form in which a plurality of sets each including a user dictionary and a dictionary table are included in the word dictionary. On the other hand, in the second embodiment, even if there are a plurality of user dictionaries, a single dictionary table is provided, and the user dictionary corresponding to the user is automatically selected from the plurality of user dictionaries by the password entered by the user. 2 is an example of a system that is selectively selected.

【0048】図21はこの第2実施例での単語辞書の構
成を示した図である。この単語辞書11は、標準辞書1
1aと、N個のユーザ辞書11b1 〜11bN 、と単一
の辞書テーブル(ユーザ共通辞書テーブルということも
ある。)11c、標準辞書テーブル11dとを具えてい
る。また、ユーザ数Nが256であると仮定した場合の
ユーザ辞書用のメモリ構成を図22に、また、制御部2
01(図2参照)内のCPUから見たメモリマップを図
23にそれぞれ示した。図23に示したように、この第
2実施例では、0000h番地から3FFFh番地まで
はCPUのプログラムエリア、4000h番地から7F
FFh番地まではCPUのワークエリア、8000h番
地から9FFFh番地までは辞書テーブルエリア、A0
00h番地からBFFFh番地まではユーザ辞書エリ
ア、C000h番地からFFFFh番地までは標準辞書
エリアとしている。従って、制御部内のCPUのアドレ
スデコードはアドレスの上位3bitをデコードする事
によりメモリを上述した5つのエリアに分割できる事が
わかる。例えば、上位3bitが“1,0,0,”のと
きCPUの周辺回路により辞書テーブルエリアをアクセ
スする為のチップセレクトが出力され、“1,0,
1,”のとき、ユーザ辞書エリアをアクセスする為のチ
ップセレクトが出力される。なぜなら、ここでは、16
ビット構成であるので、その上位3ビットが1,0,0
というからには16進表示の最上位表示は8,9のいず
れかであるので8000h番地から9FFF番地までの
いずれかをアクセスでき、また、上位3ビットが1,
0,1というからには16進表示の最上位表示はA、B
のいずれかであるので0h番地からBFFFhまでのい
ずれかをアクセスできるからである。辞書テーブル、ユ
ーザ辞書の各エリアの物理的な大きさは、アドレスの総
ビット数からアドレスデコードの為の3bitを差し引
いた13bit(1fffh)がそれぞれの大きさ(サ
イズ)となる。ユーザ辞書を複数持つということは、C
PUのアドレスの上位3bitが“1,0,1,”のエ
リアを複数持つことに相当し、個々のユーザ辞書のサイ
ズは13bit長のサイズとなる。
FIG. 21 is a diagram showing the structure of the word dictionary in this second embodiment. This word dictionary 11 is a standard dictionary 1
1a, N user dictionaries 11b 1 to 11b N , a single dictionary table (sometimes called a user common dictionary table) 11c, and a standard dictionary table 11d. Further, FIG. 22 shows a memory configuration for the user dictionary when the number of users N is 256, and the control unit 2
The memory map as seen from the CPU in 01 (see FIG. 2) is shown in FIG. As shown in FIG. 23, in the second embodiment, the program area of the CPU from the address 0000h to the address 3FFFh, the address from the address 4000h to the address 7F.
CPU work area up to address FFh, dictionary table area A0 from address 8000h to 9FFFh
Addresses 00h to BFFFh are user dictionary areas, and addresses C000h to FFFFh are standard dictionary areas. Therefore, it is understood that the address decoding of the CPU in the control unit can divide the memory into the above-mentioned five areas by decoding the upper 3 bits of the address. For example, when the upper 3 bits are "1, 0, 0," a chip select for accessing the dictionary table area is output by the peripheral circuit of the CPU, and "1, 0, 0" is output.
When 1, ", the chip select for accessing the user dictionary area is output. Here, 16 is selected.
Since it has a bit configuration, the upper 3 bits are 1, 0, 0
Therefore, since the highest hexadecimal display is either 8 or 9, it is possible to access any of addresses 8000h to 9FFF, and the upper 3 bits are 1.
Because it is 0 or 1, the highest hexadecimal display is A or B.
This is because any of the addresses 0h to BFFFh can be accessed. The physical size of each area of the dictionary table and the user dictionary is 13 bits (1 fffh) obtained by subtracting 3 bits for address decoding from the total number of bits of the address. Having multiple user dictionaries means C
The upper 3 bits of the PU address correspond to having a plurality of areas of "1, 0, 1,", and the size of each user dictionary is 13 bits long.

【0049】この第2実施例において、パスワードの入
力による、ユーザの識別、メモリエリアの確保、辞書選
択(ただし、この第2実施例ではユーザ辞書の選択)の
詳細、テキスト音声変換装置、制御部内のCPUから見
た辞書のデコード方法については、第二発明の第1実施
例と同様であるのでそれらの説明は省略する。
In the second embodiment, the user is identified by inputting a password, the memory area is secured, details of dictionary selection (however, in the second embodiment, selection of user dictionary), text-to-speech conversion device, control unit The dictionary decoding method viewed from the CPU is the same as that of the first embodiment of the second invention, and therefore the description thereof is omitted.

【0050】また、この第二発明の第2実施例の場合
は、システム使用者が交代するごとに辞書テーブルを修
正する必要がある。この修正は、第二発明の第1実施例
の場合と同様な方法で行なえば良いのでこの説明も省略
する。
In the case of the second embodiment of the second invention, it is necessary to correct the dictionary table every time the system user changes. Since this correction can be performed by the same method as in the case of the first embodiment of the second invention, this explanation is also omitted.

【0051】2−3.第二発明の第3実施例 次に、複数のユーザが同一のテキスト音声変換システム
を使用する場合であって、しかもユーザ識別子を用いる
という工夫によって単一のユーザ辞書を複数のユーザが
共用できるようにする例を説明する。具体的には、複数
のユーザが同一のテキスト音声変換システムを使用する
際、ユーザがユーザ辞書に登録しようとする単語に該ユ
ーザのパスワードによって後に検索が可能な(パスワー
ドにリンクした)ユーザ識別子を付与し、このユーザ識
別子によって辞書テーブルを個々に作成することによ
り、複数のユーザが個々に登録したユーザ辞書の単語を
用いて形態素解析を行なうことを可能とする例である。
2-3. Third Embodiment of Second Invention Next, in the case where a plurality of users use the same text-to-speech conversion system, and by devising that a user identifier is used, a single user dictionary can be shared by a plurality of users. An example will be described. Specifically, when a plurality of users use the same text-to-speech conversion system, a word that the user wants to register in the user dictionary has a user identifier that can be searched later by the password of the user (linked to the password). This is an example in which a plurality of users can perform morphological analysis using the words of the user dictionary that are individually registered by adding and creating a dictionary table individually with this user identifier.

【0052】図24はこの第3実施例での単語辞書の構
成を示した図である。この単語辞書11は、標準辞書1
1aと、単一のユーザ辞書(複合ユーザ辞書ともい
う。)11bと、N個のユーザ辞書テ〜ブル11c1
11cN と、標準辞書テーブルとを具えている。また、
ユーザ数Nが256であると仮定した場合のユーザ辞書
テーブル用のメモリ構成を図25に、また、制御部20
1(図2参照)内のCPUから見たメモリマップを図2
6にそれぞれ示した。CPUから見たメモリマップは基
本的には第2実施例と同じである。ただし、第2実施例
は複数のユーザ辞書エリアが同一番地に重複して割り当
てられていたのに対し、この第3実施例ではユーザ辞書
は単一であって複数のユーザ辞書テーブルエリアが同一
番地に重複して割り当てられている点で第2及び第3実
施例は相違している。
FIG. 24 is a diagram showing the structure of the word dictionary in this third embodiment. This word dictionary 11 is a standard dictionary 1
And 1a, (also referred to as a composite user dictionary.) Single user dictionary 11b and, N pieces of user dictionaries Te ~ table 11c 1 ~
11c N and a standard dictionary table. Also,
FIG. 25 shows the memory configuration for the user dictionary table when the number of users N is 256, and the control unit 20
2 shows a memory map viewed from the CPU in FIG. 1 (see FIG. 2).
6 respectively. The memory map viewed from the CPU is basically the same as that of the second embodiment. However, in the second embodiment, a plurality of user dictionary areas are redundantly assigned to the same address, whereas in the third embodiment, a single user dictionary is used and a plurality of user dictionary table areas have the same address. The second and third embodiments are different in that they are assigned redundantly.

【0053】次に、ユーザ識別子について説明する。本
実施例ではユーザ辞書自体は単一である為ユーザ辞書内
の個々の単語がどのユーザによって登録されたものかが
分からなければならない。
Next, the user identifier will be described. In the present embodiment, since the user dictionary itself is single, it is necessary to know which user registered each word in the user dictionary.

【0054】図27(A)は、この第3実施例に係るユ
ーザ辞書の内部フォーマットである。表記、読み、品
詞、アクセント位置、接続情報、次候補アドレスの各情
報については既に説明してあるので省く。ただし、次候
補アドレスとは図20において右端に示したアドレスの
ことでありリンク先を示すアドレスのことである。図2
7(A)中のユーザ識別子という情報がこの第3実施例
において新たに設定された情報である。
FIG. 27A shows the internal format of the user dictionary according to the third embodiment. The notation, reading, part-of-speech, accent position, connection information, and next candidate address information have already been described and will be omitted. However, the next candidate address is the address shown at the right end in FIG. 20, and is the address showing the link destination. Figure 2
The information of the user identifier in 7 (A) is the information newly set in the third embodiment.

【0055】本システムの利用者が本システムを使用す
る前にパスワードを入力してから使用をすることが前提
であることは前述している。つまり、ある利用者が本シ
ステムを使用している間そのパスワードは上位装置10
0及びテキスト音声変換装置200(図2参照)で知る
ことは容易である。本システム上でユーザ辞書を作成す
る際、このパスワードとリンクするユーザ識別子をユー
ザ辞書データのユーザ識別子エリアに書き込むことも容
易である。このユーザ識別子の書き込みは、上位装置1
00或はテキスト音声変換装置200のどちら側でも書
き込む事が出来ることは双方が共にパスワードを知るこ
とが出来ることからも明白である。
As described above, it is premised that the user of the system inputs the password before using the system and then uses the password. In other words, while a user is using this system, the password is
0 and the text-to-speech converter 200 (see FIG. 2) are easy to know. When creating a user dictionary on this system, it is easy to write the user identifier linked with this password in the user identifier area of the user dictionary data. This writing of the user identifier is performed by the host device 1
It is clear that both sides can write the password, either 00 or the text-to-speech converter 200, because both can know the password.

【0056】図27(B)は、ユーザ識別子を用いて作
成したユーザ辞書の一例の内部構成を示す図である。一
列が1単語を示し1単語の最後に図27(A)でも示し
たユーザ識別子が格納されている。ここでは、”0
0”,”01”,”02”,”03”,等で示されるコ
ードがユーザを示すユーザ識別子とされているい例であ
る。ユーザ辞書の最後には辞書の最後を示すEOFコー
ドが入っている。
FIG. 27B is a diagram showing an internal structure of an example of a user dictionary created using a user identifier. One column indicates one word, and the user identifier shown in FIG. 27A is stored at the end of one word. Here, "0
This is an example in which the code indicated by 0 "," 01 "," 02 "," 03 ", etc. is used as the user identifier indicating the user. The end of the user dictionary contains the EOF code indicating the end of the dictionary. There is.

【0057】図27に示したような形態のユーザ辞書で
あると、複数のユーザが同一の辞書に対し追加を行なう
時ただ辞書の最後に登録単語を付加していけば良いので
従来のように個々の辞書を管理する場合と異なり統一の
管理が行なえる。あるユーザが自分のユーザ識別子の単
語の登録、削除を行なってもその他の辞書の物理的なア
ドレスは変化しないので、変更を行なったユーザの辞書
テーブルのみを更新すれば良い。
With the user dictionary having the form as shown in FIG. 27, when a plurality of users add to the same dictionary, it is sufficient to add the registered word to the end of the dictionary. Unlike the case of managing individual dictionaries, unified management can be performed. Even if a user registers or deletes the word of his or her user identifier, the physical addresses of other dictionaries do not change, so only the dictionary table of the user who has made the change needs to be updated.

【0058】なお、この第3実施例の場合においてもユ
ーザ辞書テーブルの修正作業は必要となる。ユーザ辞書
テーブルの修正作業は、基本的には第1実施例で述べた
方法で行なえる。ただし、図19に示したステップS2
でのリンク処理作業は、複合ユーザ辞書11b(図24
参照)中のユーザ識別子で選択されるデータのみについ
て行なうようにする。
In the case of the third embodiment, it is necessary to correct the user dictionary table. The correction work of the user dictionary table can be basically performed by the method described in the first embodiment. However, step S2 shown in FIG.
The link processing work in is performed by the compound user dictionary 11b (see FIG. 24).
Refer only to the data selected by the user identifier in.

【0059】以上の説明からも明らかなように第3実施
例によれば、他ユーザがユーザ辞書の削除、追加を行な
ったとしても自分のテーブルを変更する必要がない為、
1つのテキスト音声変換システムのユーザ辞書と同時に
複数の上位装置がアクセスしても対応出来るシステムを
構築出来ることが分かる。
As is apparent from the above description, according to the third embodiment, even if another user deletes or adds a user dictionary, it is not necessary to change his table.
It can be seen that it is possible to construct a system that can be handled even when a plurality of upper-level devices simultaneously access the user dictionary of one text-to-speech conversion system.

【0060】2−4.第二発明の第4実施例 上述の第1〜第3実施例では、ユーザ辞書及び辞書テー
ブルの少なくとも一方が、システムを使用するユーザ数
Nに応じてN個とされていた。しかし、第3実施例をよ
り発展させると、ユーザ辞書及び辞書テーブルそれぞれ
を単一とすることもできる。この第4実施例はその例で
ある。以下、詳細を説明する。
2-4. Fourth Embodiment of Second Invention In the above-described first to third embodiments, at least one of the user dictionary and the dictionary table is N in number according to the number N of users who use the system. However, if the third embodiment is further developed, it is possible to use a single user dictionary and a single dictionary table. This fourth embodiment is such an example. The details will be described below.

【0061】図28はこの第4実施例での単語辞書の構
成を示した図である。この単語辞書11は、標準辞書1
1aと、単一のユーザ辞書(ただし第3実施例で述べた
複合ユーザ辞書)11bと、単一の辞書テーブル(ただ
し、第2実施例で述べたユーザ共通辞書テーブル)11
cと、標準辞書テーブルとを具えている。パスワードに
よるユーザの識別、メモリエリアの確保、ユーザ単語の
登録においてユーザ識別子を付与する処理などは第1実
施例〜第3実施例の該当する方法で行なえる。
FIG. 28 is a diagram showing the structure of the word dictionary in the fourth embodiment. This word dictionary 11 is a standard dictionary 1
1a, a single user dictionary (however, compound user dictionary described in the third embodiment) 11b, and a single dictionary table (however, user common dictionary table described in the second embodiment) 11
c and a standard dictionary table. The identification of the user by the password, the securing of the memory area, the process of assigning the user identifier in the registration of the user word, and the like can be performed by the corresponding methods of the first to third embodiments.

【0062】次に、この第4実施例においての、制御部
201内のCPUから見た辞書テーブルとユーザ辞書に
ついて説明する。上述したように本実施例においては複
数のユーザが登録した1つの複合ユーザ辞書とユーザの
変化によって修正、更新を行なう1つのユーザ共通辞書
テーブルがあるのみであるので、上述の第1〜第3実施
例に見られたCPUのアドレスデコーダによるメモリの
割りつけは発生せず、ユーザ共通辞書テーブルと複合ユ
ーザ辞書のセット1つのメモリエリアだけあれば良い。
Next, the dictionary table and the user dictionary viewed from the CPU in the control unit 201 in the fourth embodiment will be described. As described above, in the present embodiment, there is only one compound user dictionary registered by a plurality of users and one user common dictionary table that is modified and updated according to changes in users. Memory allocation by the address decoder of the CPU seen in the embodiment does not occur, and only one memory area is required as a set of the user common dictionary table and the composite user dictionary.

【0063】ここで、複合ユーザ辞書についてである
が、本実施例で用いる複合ユーザ辞書は、第3実施例で
述べた複合ユーザ辞書(図27(A)、(B)参照)と
同様である為その説明は省略する。また、ユーザ共通辞
書テーブルは、ユーザが変わるごとに、及び、同一ユー
ザであってもテキスト音声変換処理中にユーザ単語を追
加した場合に、修正する必要がある。ユーザS共通辞書
テーブルについてのこのような修正は、第1実施例の修
正方法であってユーザ識別子で選択されるユーザ単語の
みを考慮した修正方法(従って、第3実施例での修正方
法)で行なえば良い。
Regarding the composite user dictionary, the composite user dictionary used in this embodiment is the same as the composite user dictionary described in the third embodiment (see FIGS. 27A and 27B). Therefore, its explanation is omitted. Further, the user common dictionary table needs to be modified every time the user changes, and even when the same user adds a user word during the text-to-speech conversion process. Such modification of the user S common dictionary table is performed by the modification method of the first embodiment, which considers only the user word selected by the user identifier (hence, the modification method of the third embodiment). You can do it.

【0064】以上の説明よりこの第4実施例によれば、
単一の複合ユーザ辞書及び単一のユーザ辞書テーブルで
済む為、ユーザ辞書エリアが可変長とでき、かつ、メモ
リ使用効率の良い、システムを構築することが出来る。
From the above description, according to the fourth embodiment,
Since a single compound user dictionary and a single user dictionary table are sufficient, the user dictionary area can be variable in length, and a system with good memory usage efficiency can be constructed.

【0065】2−5.第二発明の第5実施例 この第5実施例はユーザ識別子をより有効に使用するも
のである。すなわち、単一のユーザ辞書を複数のユーザ
が使用する場合であって、しかも、ユーザ単語にユーザ
識別子を付与してユーザ単語をユーザ辞書に登録する場
合に、異なるユーザが登録した単語において同一の表
記、読み等、形態素にあたえるデータが同一ならば、こ
の単語にこれら異なるユーザで共有し得るという識別子
(共有ユーザ識別子)を使用することとする例である。
この使用とは、例えば、あるユーザ登録単語がユーザ辞
書エリア内に他ユーザの登録単語としても存在していた
とき(もちろん他ユーザの識別子が付与されてい
る。)、その単語のユーザ識別子エリアに格納されてい
る他ユーザの識別子を共有ユーザ識別子に書き換えるよ
うに使用することである。こうすると、形態素にあたえ
るデータが同一のユーザ単語が重複して登録されること
を防止できるので、メモリ使用効率をさらに向上させる
ことが出来る。以下に詳細を説明する。
2-5. Fifth Embodiment of the Second Invention This fifth embodiment uses the user identifier more effectively. That is, when a single user dictionary is used by a plurality of users, and when user words are registered in the user dictionary by giving user identifiers to the user words, the same words are registered by different users. This is an example of using an identifier (shared user identifier) that can be shared by these different users if the data to be given to the morpheme such as notation and reading is the same.
This use means, for example, when a certain user-registered word also exists as a registered word of another user in the user dictionary area (of course, the identifier of the other user is given), the user identifier area of that word is displayed. It is used to rewrite the stored other user's identifier to the shared user identifier. By doing so, it is possible to prevent the same user word having the same morpheme data from being registered in duplicate, so that it is possible to further improve the memory use efficiency. The details will be described below.

【0066】図29(A)はこの第5実施例においては
参考例に相当するユーザ識別子(第3や第4実施例での
ユーザ識別子)のコード例を示した図である。具体的に
は、4ビット構成でユーザ1〜ユーザ16の合計16人
の独自のユーザ識別子のコードを形成した例を示してい
る。これに対し図29(B)は、第5実施例における共
有ユーザ識別子のコード例である。具体的には、4ビッ
トで4人のユーザを識別でき、かつ、ユーザ単語を各ユ
ーザ独自で登録する場合はもちろん、2人〜4人それぞ
れで共有できる状態で登録することができる。図29
(B)中、「0001」のコードがユーザDのみがユー
ザ単語を登録している例であり、「1100」のコード
がユーザA及びBが共有する例、「1101」がユーザ
A、B及びDが共有する例、「1111」のコードがA
〜Dの4人で共有する例である。図29(B)に示した
コードによれば、各ビットの操作で登録単語の共有化が
可能となることが分かる。これに基づく辞書テーブルの
作成、変更は、上位より入力されるパスワードに対応す
るユーザのユーザ識別子データのビットにのみ注目し、
かかるビットが1なら有効、0なら無効とすれば、辞書
テーブルの作成は第3、第4実施例と同様で良い。次
に、この第5実施例での、ユーザ辞書へのユーザ単語の
登録であるが、制御部内のCPUが登録する単語をユー
ザ辞書エリアに書き込む前に、これから登録する単語の
辞書データと既に登録済みの複合ユーザ辞書のコンペア
チェックを行ない、同一のものがあれば、既登録単語の
ユーザ識別子ビットを1にし、かつ、登録する単語のユ
ーザ自体のユーザ識別子ビットを1にし登録する。既登
録がなければ、登録する単語のユーザ識別子エリアの登
録するユーザのユーザ識別ビットを1として登録してい
けば良い。
FIG. 29A is a diagram showing a code example of a user identifier (user identifier in the third and fourth embodiments) corresponding to the reference example in the fifth embodiment. Specifically, an example is shown in which codes of unique user identifiers of 16 users in total of users 1 to 16 are formed with a 4-bit structure. On the other hand, FIG. 29B is a code example of the shared user identifier in the fifth embodiment. Specifically, four users can be identified by 4 bits, and the user word can be registered in a state where it can be shared by two to four people, as well as when the user word is registered by each user. FIG. 29
In (B), the code “0001” is an example in which only the user D has registered the user word, the code “1100” is shared by the users A and B, and the code “1101” is the users A, B and An example shared by D, the code of "1111" is A
It is an example of sharing with four people of ~ D. According to the code shown in FIG. 29B, it can be seen that the registered word can be shared by operating each bit. When creating or changing the dictionary table based on this, pay attention only to the bits of the user identifier data of the user corresponding to the password input from the upper level,
If this bit is 1 if it is valid, and if it is 0 it is invalid, then the dictionary table may be created in the same manner as in the third and fourth embodiments. Next, regarding the registration of the user word in the user dictionary in the fifth embodiment, before writing the word registered by the CPU in the control unit in the user dictionary area, the dictionary data of the word to be registered and the already registered word are already registered. The already-combined user dictionary is subjected to a compare check, and if there is the same, the user identifier bit of the registered word is set to 1, and the user identifier bit of the user of the word to be registered is set to 1. If it has not been registered, the user identification bit of the user to be registered in the user identifier area of the word to be registered may be registered as 1.

【0067】3.第三発明の実施例の説明 次に、単語辞書内のユーザ辞書がシステムを利用中に変
更、追加された場合にこのことをユーザに伝える機能を
有したテキスト音声変換システムの実施例について説明
する。この第三発明のテキスト音声変換システムは、単
語辞書中のユーザ辞書の情報がテキスト音声変換作業中
に変更されているか否かを検出するためのユーザ辞書変
更検出手段と、ユーザ辞書の変更があった場合その旨を
ユーザに伝えるユーザ辞書変更伝達手段とを具えるもの
である。これら各手段を以下の各実施例では以下に説明
するよう構成している。
3. Description of Embodiment of Third Invention Next, an embodiment of a text-to-speech conversion system having a function of notifying the user of the fact that the user dictionary in the word dictionary is changed or added while the system is being used will be described. . The text-to-speech conversion system according to the third aspect of the invention includes a user dictionary change detection unit for detecting whether or not the information in the user dictionary in the word dictionary is changed during the text-speech conversion work, and the user dictionary is changed. In this case, the user dictionary change transmitting means for notifying the user of this is provided. Each of these means is configured as described below in each of the following embodiments.

【0068】3−1.第三発明の第1実施例 図30は第三発明の第1実施例のテキスト音声変換シス
テムの要部を示すブロック図である。この第1実施例で
は、ユーザ辞書変更検出手段120は、当該システム利
用開始時と利用終了時それぞれでのユーザ辞書中のデー
タのサイズ同士の比較と、このデータの合計量を示すビ
ット表示中の最下位1バイト同士の比較を行なう構成の
例である。具体的には以下の構成をとる。なお、ユーザ
辞書のデータは、ユーザが所有しているユーザ辞書格納
用媒体121(例えばフロッピーディスクや上位装置内
のメモリなど)に保存されているものとして説明する。
また、これに限られないが、ここでは、ユーザ辞書変更
検出手段120は上位装置100側に設けている例を示
す。
3-1. First Embodiment of Third Invention FIG. 30 is a block diagram showing a main part of a text-to-speech conversion system according to a first embodiment of the third invention. In the first embodiment, the user dictionary change detecting means 120 compares the sizes of the data in the user dictionary at the start of use of the system and at the end of use of the system, and displays a bit indicating the total amount of this data. This is an example of a configuration in which the least significant 1 bytes are compared with each other. Specifically, it has the following configuration. The data of the user dictionary will be described as being stored in the user dictionary storage medium 121 owned by the user (for example, a floppy disk or a memory in the host device).
Although not limited to this, here, an example in which the user dictionary change detection means 120 is provided on the higher-level device 100 side is shown.

【0069】上位装置100は、登録すべきユーザ辞書
のデータをユーザ辞書保存用媒体121からテキスト音
声変換装置200の単語辞書11のユーザ辞書11bに
へ書き込む時、ユーザ辞書のサイズと、ユーザ辞書内の
データをすべて足し合わせた結果の下1バイト(以下、
BCCデータと呼ぶ。)とを、第1の記憶手段123
(以下、第1のサイズバッファ123という)に格納す
る。第1のサイズバッファ123はユーザ辞書の初回登
録時のサイズのみが収められ、既登録してあるユーザ辞
書に追加変更を行なうときに書き替えられることはな
い。次に、システム終了時にテキスト音声変換装置20
0の制御部201は、単語辞書11内のユーザ辞書のサ
イズ及びBCCデータを測り、入出力部より上位装置の
入出力部を介し、これらサイズ及びデータを上位装置1
00に送る。上位装置100はこれらサイズ及びBCC
データを第2の記憶手段125(以下、第2のサイズバ
ッファ125という)に書き込む。なお、ユーザ辞書の
サイズとは前述したようにユーザ辞書の最後はEOFコ
ードにより示されるのでEOFコードまでのサイズがユ
ーザ辞書のサイズとなる。また、第1のサイズバッファ
123、第2のサイズバッファ125及び単語辞書内の
ユーザ辞書サイズバッファそれぞれは、デフォルトオー
ルゼロクリア(”0”のデータで初期化)されているの
で、ユーザ辞書の登録のない場合はユーザ辞書、第1の
サイズバッファ、第2のサイズバッファは全て”0”の
データのまま変更されることはない。
When the host device 100 writes the data of the user dictionary to be registered from the user dictionary storage medium 121 to the user dictionary 11b of the word dictionary 11 of the text-to-speech conversion device 200, the size of the user dictionary and the contents of the user dictionary. The lower 1 byte of the result of adding all the data of
Called BCC data. ) And the first storage means 123
(Hereinafter, referred to as the first size buffer 123). The first size buffer 123 stores only the size of the user dictionary at the time of initial registration, and is not rewritten when the user dictionary already registered is added or changed. Next, when the system ends, the text-to-speech converter 20
The control unit 201 of 0 measures the size and the BCC data of the user dictionary in the word dictionary 11, and the size and the data are transmitted from the input / output unit via the input / output unit of the host device.
Send to 00. The host device 100 has these sizes and BCC
The data is written in the second storage means 125 (hereinafter referred to as the second size buffer 125). Note that the size of the user dictionary is indicated by the EOF code at the end of the user dictionary as described above, so the size up to the EOF code is the size of the user dictionary. Also, since the first size buffer 123, the second size buffer 125, and the user dictionary size buffer in the word dictionary are all cleared to default zero (initialized with "0" data), it is necessary to register the user dictionary. If there is no such data, the user dictionary, the first size buffer, and the second size buffer are all kept as "0" data.

【0070】上位装置は、システム終了処理をテキスト
音声変換装置に伝えると、第1のサイズバッファ123
が”0”でなければ第2のサイズバッファ125にデー
タが書かれているのを待ち、書き込まれると第1のサイ
ズバッファ123と第2のサイズバッファ125とのの
サイズデータ、BCCデータをそれぞれをコンペアしど
ちらかでも違えば、システム利用開始時と終了時の間で
ユーザ辞書が変更、修正されたものと判断し、例えば上
位装置のCRTにメッセージを表示または、音声出力に
てユーザに辞書が変更修正されたことを通知する。
Upon notifying the text-to-speech conversion device of the system termination processing, the upper device receives the first size buffer 123.
Is not "0", waits for the data to be written in the second size buffer 125, and when written, the size data of the first size buffer 123 and the size data of the second size buffer 125 and the BCC data are respectively written. If either of them is compared, it is determined that the user dictionary has been changed or modified between the start and end of system use, and a message is displayed on the CRT of the host device or the dictionary is changed to the user by voice output. Notify that it has been fixed.

【0071】次に、ユーザ辞書に変更、修正のあったこ
とを通知するユーザ辞書変更伝達手段手段についての一
例を説明する。上位装置でメッセージ例「あなたのユー
ザ辞書は更新されています。」といった文字列を用意
し、上位装置のメモリ上に格納しておく画面に出力する
ときは、プログラム中にその文字列の出力先を画面とす
るように指示し、又、音声出力するときはテキスト音声
変換装置を出力先とするように指示すれば良い。もちろ
ん両方に出力する事が可能であることはいうまでもな
い。
Next, an example of the user dictionary change transmitting means for notifying that the user dictionary has been changed or modified will be described. When preparing a character string such as the message example "Your user dictionary has been updated." In the upper device and outputting it to the screen stored in the memory of the upper device, output the character string in the program. Is displayed on the screen, and when outputting the voice, the text-to-speech conversion device may be instructed to be the output destination. Of course, it is possible to output to both.

【0072】3−2.第三発明の第2実施例 上述の第三発明の第1実施例では、辞書更新の検出を、
辞書サイズ、BCCデータの比較により行なっていた
が、他の構成でも良い。このため、この第2実施例で
は、図31に示したように、ユーザ辞書の変更時にビッ
トデータが変化される辞書ステータスレジスタ127を
用い、該レジスタ127のビットデータ変化からユーザ
辞書の変更の有無を検出する構成とする。以下、図31
及び図32を参照してこの第2実施例について説明す
る。ここで、図31は第2実施例のテキスト音声変換シ
ステムの要部を示すブロック図、図32は辞書ステータ
スレジスタの一構成例を示した図である。
3-2. Second Embodiment of Third Invention In the first embodiment of the third invention described above, the detection of the dictionary update is
Although the comparison is performed by comparing the dictionary size and the BCC data, other configurations may be used. Therefore, in the second embodiment, as shown in FIG. 31, the dictionary status register 127 in which the bit data is changed when the user dictionary is changed is used, and whether the user dictionary is changed or not based on the bit data change of the register 127. Is detected. Below, FIG.
The second embodiment will be described with reference to FIGS. Here, FIG. 31 is a block diagram showing the main part of the text-to-speech conversion system of the second embodiment, and FIG. 32 is a diagram showing an example of the configuration of the dictionary status register.

【0073】上位装置100は、ユーザ辞書格納用媒体
121より登録すべきユーザ辞書のデータをテキスト音
声変換装置200の単語辞書11のユーザ辞書エリアに
書き込むとき、辞書ステータスレジスタのユーザ辞書有
/無ビットに”1”をたてる(図32参照)。辞書ステ
ータスビットは、システム利用開始時はゼロクリアされ
ているものとする。また、登録すべきユーザ辞書がない
とき辞書ステータスレジスタのユーザ辞書有/無ビット
は”0”のままでセットされることはない。また、既に
ユーザ辞書が登録されている状態で、システム利用を開
始したときは、実態とは異なるが、辞書ステータスレジ
スタのユーザ辞書有/無ビットは”0”のままである。
次に、システム利用中にユーザ辞書の修正、追加を行な
ったとき、上位装置は修正、追加のユーザ単語のデータ
をテキスト音声変換装置に送信したときに辞書ステータ
スレジスタの修正、追加ビットに”1”をたてる。修
正、追加ビットに”1”をたてるときユーザ辞書有/無
ビットが”0”であるならば、このとき、このビットも
共に”1”にセットされる。つまり辞書ステータスレジ
スタのとりえる値というのは、”0,0,””1,
0,””1,1,”(”ユーザ辞書有無ビット,修正追
加ビット,1:有,0:無)の3通りであり”0,
1,”のパタンは存在しえない。もちろん、辞書ステー
タスレジスタのビット構成はこれに限られず好適なもの
とできる。
When writing the data of the user dictionary to be registered from the user dictionary storage medium 121 into the user dictionary area of the word dictionary 11 of the text-to-speech conversion device 200, the upper level device 100 sets the user dictionary presence / absence bit of the dictionary status register. Set "1" to (see FIG. 32). It is assumed that the dictionary status bits are cleared to zero when the system starts to be used. Further, when there is no user dictionary to be registered, the user dictionary presence / absence bit of the dictionary status register is not set as "0". Further, when the system is started with the user dictionary already registered, the user dictionary presence / absence bit of the dictionary status register remains "0" although it is different from the actual situation.
Next, when the user dictionary is modified or added while the system is being used, the host device corrects or corrects the dictionary status register when the data of the additional user word is transmitted to the text-to-speech conversion device, and the added bit has "1". "Set up." If the user dictionary existence / non-existence bit is "0" when "1" is added to the correction / addition bit, this bit is also set to "1" at this time. In other words, the values that the dictionary status register can take are "0,0,""1,
There are three types: 0, "" 1,1, "(" User dictionary presence / absence bit, correction addition bit, 1: Yes, 0: No) ".
The pattern of 1, "cannot exist. Of course, the bit configuration of the dictionary status register is not limited to this and can be a suitable one.

【0074】次に、システム終了時に上位装置は、辞書
ステータスレジスタの修正追加ビットを参照し、この値
が”1”のときユーザ辞書が更新されていると判断し、
例えば上位CRTにメッセージを出力するか音声を出力
するかしてユーザに辞書変更、修正されたことを伝達す
る。伝達方法の詳細については、第1実施例で詳細に説
明しているため省略する。
Next, at the end of the system, the host device refers to the correction addition bit of the dictionary status register, and when this value is "1", determines that the user dictionary has been updated,
For example, a message is output to the upper CRT or a voice is output to notify the user that the dictionary has been changed or corrected. Details of the transmission method have been described in detail in the first embodiment, and will not be repeated.

【0075】3−3.第三発明の第3実施例 上述の第三発明の第1及び第2実施例では、ユーザ辞書
の更新があったことをユーザに伝達できたので、ユーザ
にいま使用しているユーザ辞書の内容をユーザ辞書格納
用媒体にバックアップする必要があるか否かを促すこと
ができた。しかし、いま使用しているユーザ辞書の内容
をユーザ辞書格納用媒体に自動的にバックアップできれ
ばユーザ辞書の保護という点でより好ましい。この第3
実施例はその例である。この説明を図30〜図32を参
照して行なう。
3-3. Third Embodiment of Third Invention In the first and second embodiments of the third invention described above, the fact that the user dictionary has been updated can be communicated to the user. Therefore, the contents of the user dictionary currently used by the user It was possible to prompt whether or not it was necessary to back up to the user dictionary storage medium. However, it is more preferable in terms of protection of the user dictionary if the contents of the user dictionary currently used can be automatically backed up in the user dictionary storage medium. This third
The example is an example. This description will be given with reference to FIGS.

【0076】ユーザ辞書が更新されていることの検出及
びこの点をユーザに伝達することは上記第1または2実
施例のとおり行なえる。この第3実施例ではユーザ辞書
が更新されていることをユーザに対しメッセージすると
共に、上位装置100よりテキスト音声変換システム2
00に対しユーザ辞書バックアップ命令を送信する。ユ
ーザ辞書バックアップ命令は、テキスト音声変換システ
ム200の制御部201が受け取る。これに対し制御部
210は、単語辞書11のユーザ辞書エリアをアクセス
し、ユーザ辞書の先頭からユーザ辞書の終わりを示すE
OFコードまでを読み取り、テキスト音声変換装置20
0の入出力部より上位装置100に出力する。上位装置
100はテキスト音声変換装置200から返信されてく
るユーザ辞書データをユーザ辞書格納用媒体121に上
書きし、この上書きが終了するとユーザ辞書のバックア
ップが終了した事になりシステム終了が完了する。
Detecting that the user dictionary has been updated and transmitting this point to the user can be performed as in the first or second embodiment. In the third embodiment, the user is informed that the user dictionary has been updated, and the text-to-speech conversion system 2 is sent from the host device 100.
00 to send a user dictionary backup command. The control unit 201 of the text-to-speech conversion system 200 receives the user dictionary backup command. On the other hand, the control unit 210 accesses the user dictionary area of the word dictionary 11 and indicates E from the beginning of the user dictionary to the end of the user dictionary.
Text-to-speech conversion device 20 that reads up to OF code
It is output to the higher-level device 100 from the 0 input / output unit. The upper level device 100 overwrites the user dictionary data returned from the text-to-speech conversion device 200 on the user dictionary storage medium 121, and when this overwriting is completed, the backup of the user dictionary is completed and the system termination is completed.

【0077】以上詳細に説明したようにシステム終了時
にユーザ辞書の修正、追加の確認を行ない、修正、追加
が発生したときはユーザに対しメッセージを出力し、ユ
ーザ辞書を自動的にバックアップするテキスト音声変換
システムを実現することができる。
As described above in detail, when the system is terminated, the user dictionary is corrected and additions are confirmed. When the corrections or additions are made, a message is output to the user and a text voice for automatically backing up the user dictionary. A conversion system can be realized.

【0078】3−4.第三発明の第4実施例 この第4実施例のテキスト音声変換システムは、第3実
施例のシステムにさらに、自動バックアップを行なうか
行なわないかを選択できる機能を追加したものである。
これについて図30〜32を参照して説明する。
3-4. Fourth Embodiment of Third Invention The text-to-speech conversion system of the fourth embodiment is the system of the third embodiment with the addition of a function for selecting whether or not to perform automatic backup.
This will be described with reference to FIGS.

【0079】ユーザ辞書が更新されていることの検出及
びこの点をユーザに伝達することは上記第1または2実
施例のとおり行なえる。この第4実施例ではユーザ辞書
が更新されていることをユーザに対しメッセージすると
共に、ユーザに対し、自動バックアップをするか否かの
当メッセージ、例えば「あなたのユーザ辞書は更新され
ています。バックアップするなら”y”を、しないな
ら”n”を入力して下さい。」とCRT画面表示又は音
声出力がなされる。このとき上位装置100はユーザか
ら入力される”y”又は”n”のコードを待ち、”y”
のときには第3実施例で示した自動バックアップを行な
いシステムを終了し、ユーザからの入力が”n”のとき
にはユーザ辞書の自動バックアップを行なうことなくシ
ステムを終了する。以上の説明で分かるように本発明に
よりユーザインターフェースについてより優れたテキス
ト音声変換システムを実現することができる。
Detecting that the user dictionary has been updated and transmitting this point to the user can be performed as in the first or second embodiment. In the fourth embodiment, the user is informed that the user dictionary has been updated, and the user is informed of whether or not to automatically backup the message, for example, "Your user dictionary has been updated. If yes, enter "y". If not, enter "n". "CRT screen display or voice output is performed. At this time, the high-level equipment 100 waits for the code "y" or "n" input by the user, and waits for "y".
In the case of, the system is terminated by performing the automatic backup shown in the third embodiment, and when the input from the user is "n", the system is terminated without performing the automatic backup of the user dictionary. As can be seen from the above description, the present invention can realize a text-to-speech conversion system having a better user interface.

【0080】4.第四発明の説明 詳細は省略するが、上記第一〜第三発明を組み合わせた
テキスト音声変換装置をこうせいすることにより、上記
第一〜第三発明の効果を有するシステムが得られる。
4. Description of Fourth Invention Although not described in detail, a text-to-speech conversion apparatus that combines the first to third inventions is used to obtain a system having the effects of the first to third inventions.

【0081】[0081]

【発明の効果】上述した説明から明らかなようにこの出
願の第一発明のテキスト音声変換システムによれば、入
力テキストデータ中の終端までに含まれる未知語を形態
素解析処理の段階で順次に抽出する手段と、入力テキス
トデータの終端に至った際にいままでに抽出された未知
語を一括してユーザに伝える手段と、該伝えられた未知
語を単語辞書に登録するため必要な情報をユーザが入力
するための手段と、未知語及び該未知語について入力さ
れた情報を単語辞書に登録するための手段とを具えたの
で、入力テキストデータ単位で一括して未知語抽出及び
ユーザへの未知後伝達ができ、また、ユーザも情報入力
が一括で出来る。このため、上記問題点(1) 〜(4)の解
決が図れる。また、未知語を逐次抽出し、逐次伝達し及
びその情報を逐次入力する場合では例えばユーザはシス
テムに拘束される等の不具合が生じると考えられるが、
本発明ではその点が緩和される。例えば、夜間や休み時
間に未知後抽出を行なわせておくことが本発明では可能
となる。また、未知語抽出は形態素解析結果を得た段階
で行なわれるので、音律、韻律付与処理後に未知語を抽
出する場合に比べ、未知語抽出処理時間の短縮が図れ
る。
As is apparent from the above description, according to the text-to-speech conversion system of the first invention of this application, unknown words included in the input text data up to the end are sequentially extracted at the stage of morphological analysis processing. Means, and means for collectively transmitting the unknown words extracted so far to the user when the end of the input text data is reached, and the information necessary for registering the transmitted unknown words in the word dictionary. Means for inputting an unknown word and means for registering an unknown word and information input about the unknown word in a word dictionary. It can be transmitted later, and the user can also input information in a batch. Therefore, the above problems (1) to (4) can be solved. In addition, in the case where the unknown words are sequentially extracted, sequentially transmitted, and the information is sequentially input, it is considered that, for example, the user may be restricted by the system.
The present invention alleviates that point. For example, in the present invention, it is possible to perform unknown post-extraction at night or during breaks. Further, since the unknown word is extracted at the stage when the morphological analysis result is obtained, the unknown word extraction processing time can be shortened as compared with the case where the unknown word is extracted after the process of adding the temperament and prosody.

【0082】また、この出願の第二発明のテキスト音声
変換システムによれば、単語辞書の少なくともユーザ辞
書中に複数のユーザごとのエリアを確保するための手段
と、複数のユーザを識別するパスワードを入力する手段
と、パスワード入力手段から入力されたパスワードに対
応する辞書エリアを選択的に有効とするための辞書選択
手段と、辞書テーブルを修正する手段とを具えたので、
ユーザごとでユーザ辞書を専用できる。これは、ユーザ
が変わるごとに、旧ユーザがユーザ辞書をシステムから
バックアップし、一方、新ユーザがその者のユーザ辞書
をシステムへダウンロードするという処理を除去でき
る。
Further, according to the text-to-speech conversion system of the second invention of this application, a means for securing an area for each of a plurality of users in at least the user dictionary of the word dictionary and a password for identifying the plurality of users are provided. Since the means for inputting, the dictionary selecting means for selectively enabling the dictionary area corresponding to the password input from the password inputting means, and the means for correcting the dictionary table are provided,
A user dictionary can be dedicated to each user. This eliminates the need for the old user to back up the user dictionary from the system as the user changes, while the new user downloads his or her user dictionary to the system.

【0083】また、この出願の第三発明のテキスト音声
変換システムによれば、ユーザ辞書の情報がテキスト音
声変換作業中に変更されているか否かを検出するための
手段と、ユーザ辞書の変更があった場合その旨をユーザ
に伝える手段とを具えたので、ユーザにユーザ辞書のバ
ックアップを促すことができる。このため、ユーザがユ
ーザ辞書のバックアップをし忘れる危険性を低減出来
る。
According to the text-to-speech conversion system of the third invention of this application, the means for detecting whether or not the information in the user dictionary is changed during the text-to-speech conversion work, and the user dictionary are changed. Since it is provided with a means for notifying the user of that fact, it is possible to prompt the user to back up the user dictionary. Therefore, the risk of the user forgetting to back up the user dictionary can be reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は主に第一発明のシステムの説明に供する
図である。
FIG. 1 is a diagram mainly used for explaining a system of a first invention.

【図2】図2は主に第一発明のシステムの説明に供する
図1に続く図である。
FIG. 2 is a view following FIG. 1 mainly for explaining the system of the first invention.

【図3】第一発明での単語辞書の構成例を示した図であ
る。
FIG. 3 is a diagram showing a configuration example of a word dictionary in the first invention.

【図4】第一発明の第1実施例の手順説明図である。FIG. 4 is a procedure explanatory diagram of the first embodiment of the first invention.

【図5】第一発明の第1実施例の手順説明図(その2)
である。
FIG. 5 is a procedure explanatory view (No. 2) of the first embodiment of the first invention.
Is.

【図6】情報登録手段の説明図である。FIG. 6 is an explanatory diagram of information registration means.

【図7】情報登録手段の図6に続く説明図である。FIG. 7 is an explanatory view of the information registration means following FIG. 6;

【図8】情報登録手段の図7に続く説明図である。8 is an explanatory diagram of the information registration means following FIG. 7. FIG.

【図9】第一発明の第2実施例の説明図である。FIG. 9 is an explanatory diagram of a second embodiment of the first invention.

【図10】第一発明の第3実施例の説明図である。FIG. 10 is an explanatory diagram of the third embodiment of the first invention.

【図11】第一発明の第3実施例の説明図であり、デー
タアクセス手段の説明図である。
FIG. 11 is an explanatory diagram of the third embodiment of the first invention and is an explanatory diagram of data access means.

【図12】外字コード置換手段の説明図である。FIG. 12 is an explanatory diagram of external character code replacing means.

【図13】第二発明の第1実施例の説明図である。FIG. 13 is an explanatory diagram of the first embodiment of the second invention.

【図14】第二発明の第1実施例の図13に続く説明図
である。
FIG. 14 is an explanatory diagram of the first embodiment of the second invention, following FIG.

【図15】第二発明の第1実施例の図14に続く説明図
である。
FIG. 15 is an explanatory view of the first embodiment of the second invention, following FIG.

【図16】第二発明の第1実施例の図15に続く説明図
である。
FIG. 16 is an explanatory view of the first embodiment of the second invention, following FIG. 15;

【図17】第二発明の第1実施例の図16に続く説明図
である。
FIG. 17 is an explanatory view of the first embodiment of the second invention, following FIG. 16;

【図18】辞書テーブルの説明図である。FIG. 18 is an explanatory diagram of a dictionary table.

【図19】辞書テーブル修正手段の説明図である。FIG. 19 is an explanatory diagram of a dictionary table correction means.

【図20】単語辞書内でのデータのリンクの説明図であ
FIG. 20 is an explanatory diagram of data links in the word dictionary.

【図21】第二発明の第2実施例の説明図である。FIG. 21 is an explanatory diagram of the second embodiment of the second invention.

【図22】第二発明の第2実施例の図21に続く説明図
である。
FIG. 22 is an explanatory diagram of the second embodiment of the second invention, following FIG. 21;

【図23】第二発明の第2実施例の図22に続く説明図
である。
FIG. 23 is an explanatory diagram of the second embodiment of the second invention, following FIG. 22;

【図24】第二発明の第3実施例の説明図である。FIG. 24 is an explanatory diagram of the third embodiment of the second invention.

【図25】第二発明の第3実施例の図24に続く説明図
である。
FIG. 25 is an explanatory view of the third embodiment of the second invention, following FIG. 24;

【図26】第二発明の第3実施例の図25に続く説明図
である。
FIG. 26 is an explanatory diagram of the third embodiment of the second invention, following FIG. 25;

【図27】第二発明の第3実施例の説明図である。FIG. 27 is an explanatory diagram of the third embodiment of the second invention.

【図28】第二発明の第4実施例の説明図である。FIG. 28 is an explanatory diagram of the fourth embodiment of the second invention.

【図29】(A)は第5実施例における比較例の説明
図、(B)は第5実施例の説明図である共有ユーザ識別
子のコード例の説明図である。
29A is an explanatory diagram of a comparative example in the fifth embodiment, and FIG. 29B is an explanatory diagram of a code example of a shared user identifier which is an explanatory diagram of the fifth embodiment.

【図30】第三発明の主に第1実施例の説明図である。FIG. 30 is an illustration mainly of the first embodiment of the third invention.

【図31】第三発明の主に第2実施例の説明図である。FIG. 31 is an illustration mainly of the second embodiment of the third invention.

【図32】第三発明の主に第2実施例の図31に続く説
明図である。
32 is an explanatory diagram of the third aspect of the invention, mainly following the FIG. 31. FIG.

【符号の説明】[Explanation of symbols]

11:単語辞書 11a:標準辞書 11b:ユーザ辞書(複合ユーザ辞書の場合もある) 11b1 〜11bN :ユーザ辞書 11c:辞書テーブル(ユーザ辞書テーブル、ユーザ共
通辞書テーブルの場合もある) 11c1 〜11cN :辞書テーブル(ユーザ辞書テーブ
ル) 11d:標準辞書テーブル 13:テキスト解析部 15:音声素片記憶部 17:合成パラメータ生成部 19:音声合成部 21:音声出力部 100:上位装置 200:テキスト音声変換装置
11: word dictionary 11a: Standard Dictionary 11b: user dictionary (which may be a composite user dictionary) 11b 1 ~11b N: user dictionary 11c: dictionary table (user dictionary table, there is a case of the user common dictionary table) 11c 1 ~ 11c N : dictionary table (user dictionary table) 11d: standard dictionary table 13: text analysis unit 15: speech element storage unit 17: synthesis parameter generation unit 19: speech synthesis unit 21: speech output unit 100: upper device 200: text Voice converter

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 単語辞書を参照してなされる形態素解析
処理とこれに続く音韻・韻律付与処理とを含む処理によ
りテキストデータから音韻、韻律記号列を生成するテキ
スト解析部、該生成された音韻、韻律記号列を音声素片
記憶部を利用して音声合成用パラメータに変換する合成
パラメータ生成部、該生成された音声合成用パラメータ
を音声波形データに変換する音声合成部、及び該生成さ
れた音声波形データをアナログ音声信号に変換して出力
する音声出力部を具えたテキスト音声変換システムにお
いて、 入力テキストデータ中の終端までに含まれる未知語を形
態素解析処理の段階で順次に抽出する未知語抽出手段
と、 入力テキストデータの終端に至った際にいままでに抽出
された未知語を一括してユーザに伝える未知語伝達手段
と、 該伝えられた未知語を単語辞書に登録するため必要な情
報をユーザが入力するための情報入力手段と、 該未知語及び該未知語について入力された前記情報を単
語辞書に登録するための情報登録手段とを具えたことを
特徴とするテキスト音声変換システム。
1. A text analysis unit for generating a phoneme and a prosodic symbol string from text data by a process including a morphological analysis process performed by referring to a word dictionary and a subsequent phoneme / prosodic process, and the generated phoneme. , A synthesis parameter generation unit for converting a prosodic symbol string into a voice synthesis parameter using a voice unit storage unit, a voice synthesis unit for converting the generated voice synthesis parameter into voice waveform data, and the generated In a text-to-speech conversion system that has a speech output unit that converts speech waveform data into analog speech signals and outputs the unknown speech, unknown words that are included in the input text data up to the end are sequentially extracted at the stage of morphological analysis processing. An extracting unit, an unknown word transmitting unit that collectively conveys to the user the unknown words extracted so far when the end of the input text data is reached, Information input means for the user to input the necessary information for registering the obtained unknown word in the word dictionary, and information registration for registering the unknown word and the information input for the unknown word in the word dictionary A text-to-speech conversion system comprising means.
【請求項2】 請求項1に記載のテキスト音声変換シス
テムにおいて、 前記未知語抽出手段は、未知語を格納するための未知語
バッファを具え、かつ、入力テキストデータから未知語
が抽出されるごとに該抽出された未知語と同じ未知語が
前記未知語バッファ中に既に格納されているか否かを調
べ、格納されていない場合に該抽出された未知語を未知
語バッファに格納する構成としてあり、 前記未知語伝達手段は、未知語バッファに格納されてい
る未知語をユーザに伝達する構成としてあることを特徴
とするテキスト音声変換システム。
2. The text-to-speech conversion system according to claim 1, wherein the unknown word extracting means includes an unknown word buffer for storing the unknown word, and the unknown word is extracted from the input text data. Is configured to check whether the same unknown word as the extracted unknown word is already stored in the unknown word buffer, and if not, store the extracted unknown word in the unknown word buffer. The text-to-speech conversion system is characterized in that the unknown word transmitting means is configured to transmit an unknown word stored in an unknown word buffer to a user.
【請求項3】 請求項1に記載のテキスト音声変換シス
テムにおいて、 未知語を単語辞書に登録するため必要な情報が登録され
ているであろうより大規模なデータベースをアクセスし
該必要な情報を取り込むためのデータベースアクセス手
段を具えたことを特徴とするテキスト音声変換システ
ム。
3. The text-to-speech conversion system according to claim 1, wherein a necessary information for registering an unknown word in a word dictionary is registered, and a larger database is accessed to access the necessary information. A text-to-speech conversion system having a database access means for importing.
【請求項4】 請求項1に記載のテキスト音声変換シス
テムにおいて、 前記伝えられた未知語が外字である場合で該外字の当該
システムにおける標準コードが存在する場合に該外字に
付与されていたコードを標準コードに置き換えるため
の、外字コード置換手段を具えたことを特徴とするテキ
スト音声変換システム。
4. The text-to-speech conversion system according to claim 1, wherein when the transmitted unknown word is an external character and a standard code of the external character in the system exists, a code assigned to the external character. A text-to-speech conversion system characterized by comprising external character code replacement means for replacing a standard character with a standard character.
【請求項5】 単語辞書を参照してなされる形態素解析
処理と、これに続く音韻・韻律付与処理とを含む処理に
よりテキストデータから音韻、韻律記号列を生成するテ
キスト解析手段、該生成された音韻、韻律記号列を音声
素片記憶部を利用して音声合成用パラメータに変換する
合成パラメータ生成手段、該生成された音声合成用パラ
メータを音声波形データに変換する音声合成部、及び該
生成された音声波形データをアナログ音声信号に変換し
て出力する音声出力部を具えたテキスト音声変換システ
ムであって、前記単語辞書は、予め定めた単語が登録さ
れた標準辞書と、システムの使用に応じユーザにより更
新、修正されるユーザ辞書と、これら標準辞書及びユー
ザ辞書から単語を検索するための辞書テーブルとを有し
ている構成のテキスト音声変換システムにおいて、 単語辞書の少なくともユーザ辞書中に複数のユーザごと
のエリアを確保するための手段と、 前記複数のユーザを識別するパスワードを入力するため
のパスワード入力手段と、 単語辞書中の前記複数のユーザごとのエリアのうちの前
記パスワード入力手段から入力されたパスワードに対応
するエリアを選択的に有効とするための辞書選択手段
と、 辞書テーブルを修正するための手段とを具えたことを特
徴とするテキスト音声変換システム。
5. A text analysis means for generating a phoneme and a prosodic symbol string from text data by a process including a morphological analysis process performed by referring to a word dictionary and a subsequent phonological / prosodic process. A synthesis parameter generating means for converting a phoneme and a prosodic symbol string into a voice synthesis parameter using a voice segment storage unit, a voice synthesis unit for converting the generated voice synthesis parameter into voice waveform data, and the generated voice synthesis data. A text-to-speech conversion system comprising a voice output unit for converting the voice waveform data into an analog voice signal and outputting the analog voice signal, wherein the word dictionary is a standard dictionary in which predetermined words are registered, and a system according to the use of the system. Text having a configuration having a user dictionary updated and modified by the user and a dictionary table for searching words from these standard dictionary and user dictionary In the speech conversion system, means for securing an area for each of a plurality of users in at least the user dictionary of the word dictionary, password input means for inputting a password for identifying the plurality of users, and A dictionary selecting unit for selectively validating an area corresponding to the password input from the password input unit out of the areas for each of the plurality of users; and a unit for correcting the dictionary table. A text-to-speech conversion system characterized by.
【請求項6】 請求項5に記載のテキスト音声変換シス
テムにおいて、 単語辞書中にユーザごとのエリアを確保するための前記
手段を、標準辞書と複数のユーザごとの個別ユーザ辞書
と複数のユーザごとの個別辞書テーブルとを有する単語
辞書で構成し、 前記辞書選択手段を、前記複数の個別ユーザ辞書及び個
別辞書テーブルのうちの、前記入力されたパスワードに
応じた個別ユーザ辞書及び個別辞書テーブルを有効とす
る構成とし、 前記辞書テーブル修正手段を、前記有効とされた個別ユ
ーザ辞書の情報が変更された場合に該個別ユーザ辞書に
対応する個別辞書テーブルを修正する構成としてあるこ
とを特徴とするテキスト音声変換システム。
6. The text-to-speech conversion system according to claim 5, wherein the means for ensuring an area for each user in the word dictionary includes a standard dictionary, an individual user dictionary for each of a plurality of users, and a plurality of users. And an individual dictionary table according to the input password, among the plurality of individual user dictionaries and individual dictionary tables, the dictionary selecting means is effective. And the dictionary table correction means is configured to correct the individual dictionary table corresponding to the valid individual user dictionary when the information of the validated individual user dictionary is changed. Voice conversion system.
【請求項7】 請求項5に記載のテキスト音声変換シス
テムにおいて、 単語辞書中にユーザごとのエリアを確保するための前記
手段を、標準辞書と複数のユーザごとの個別ユーザ辞書
と、単一の辞書テーブルとを有する単語辞書で構成し、 前記辞書選択手段を、前記複数の個別ユーザ辞書のうち
の、前記入力されたパスワードに応じた個別ユーザ辞書
を有効とする構成とし、 前記辞書テーブル修正手段を、前記有効とされた個別ユ
ーザ辞書に対応するよう前記単一の辞書テーブルを修正
する構成としてあることを特徴とするテキスト音声変換
システム。
7. The text-to-speech conversion system according to claim 5, wherein the means for securing an area for each user in the word dictionary includes a standard dictionary, an individual user dictionary for a plurality of users, and a single user dictionary. And a dictionary table, and the dictionary selection means is configured to enable an individual user dictionary corresponding to the input password among the plurality of individual user dictionaries, and the dictionary table correction means. Is configured to correct the single dictionary table so as to correspond to the validated individual user dictionary.
【請求項8】 請求項5に記載のテキスト音声変換シス
テムにおいて、 単語辞書中にユーザごとのエリアを確保するための前記
手段を、ユーザがユーザ辞書に登録しようとする単語に
該ユーザのパスワードによって後に検索が可能なユーザ
識別子を付与するためのユーザ識別子付与手段としたこ
とを特徴とするテキスト音声変換システム。
8. The text-to-speech conversion system according to claim 5, wherein the means for securing an area for each user in the word dictionary is a word that the user wants to register in the user dictionary, and the password of the user is used. A text-to-speech conversion system, characterized in that the text-to-speech conversion system is a user identifier assigning unit for assigning a user identifier that can be searched later.
【請求項9】 請求項5に記載のテキスト音声変換シス
テムにおいて、 前記単語辞書を、標準辞書と、単一のユーザ辞書と、複
数のユーザごとに用意された個別辞書テーブルとを有す
るものとし、 該単語辞書中にユーザごとのエリアを確保するための前
記手段を請求項10に記載のユーザ識別子付与手段と
し、 前記辞書選択手段を、前記複数の個別辞書テーブルのう
ちの、前記入力されたパスワードに応じた個別辞書テー
ブルを有効とする構成とし、 前記辞書テーブル修正手段を、ユーザ辞書の情報が変更
された場合各々の個別辞書テーブルを修正する構成とし
てあることを特徴とするテキスト音声変換システム。
9. The text-to-speech conversion system according to claim 5, wherein the word dictionary has a standard dictionary, a single user dictionary, and an individual dictionary table prepared for each of a plurality of users, The means for securing an area for each user in the word dictionary is the user identifier assigning means according to claim 10, and the dictionary selecting means is the input password of the plurality of individual dictionary tables. The text-to-speech conversion system is characterized in that the individual dictionary table according to the above is enabled, and the dictionary table correction means is configured to correct each individual dictionary table when the information of the user dictionary is changed.
【請求項10】 請求項5に記載のテキスト音声変換シ
ステムにおいて、 前記単語辞書を、標準辞書と、単一のユーザ辞書と、単
一の辞書テーブルとを有するものとし、 該単語辞書中にユーザごとのエリアを確保するための前
記手段を請求項10に記載のユーザ識別子付与手段と
し、 前記辞書テーブル修正手段を、ユーザがユーザ辞書の情
報を変更した場合辞書テーブルを修正する構成としてあ
ることを特徴とするテキスト音声変換システム。
10. The text-to-speech conversion system according to claim 5, wherein the word dictionary has a standard dictionary, a single user dictionary, and a single dictionary table, and the user is included in the word dictionary. The means for ensuring each area is the user identifier giving means according to claim 10, and the dictionary table correction means is configured to correct the dictionary table when the user changes the information of the user dictionary. Characteristic text-to-speech conversion system.
【請求項11】 単語辞書を参照してなされる形態素解
析処理と、これに続く音韻・韻律付与処理とを含む処理
によりテキストデータから音韻、韻律記号列を生成する
テキスト解析手段、該生成された音韻、韻律記号列を音
声素片記憶部を利用して音声合成用パラメータに変換す
る合成パラメータ生成手段、該生成された音声合成用パ
ラメータを音声波形データに変換する音声合成部、及び
該生成された音声波形データをアナログ音声信号に変換
して出力する音声出力部を具えたテキスト音声変換シス
テムにおいて、 単語辞書中のユーザ辞書の情報がテキスト音声変換作業
中に変更されているか否かを検出するためのユーザ辞書
変更検出手段と、 ユーザ辞書の変更があった場合その旨をユーザに伝える
ユーザ辞書変更伝達手段とを具えたことを特徴とするテ
キスト音声変換システム。
11. A text analysis means for generating a phoneme and a prosodic symbol string from text data by a process including a morpheme analysis process performed by referring to a word dictionary and a subsequent phonological / prosodic process. A synthesis parameter generating means for converting a phoneme and a prosodic symbol string into a voice synthesis parameter using a voice segment storage unit, a voice synthesis unit for converting the generated voice synthesis parameter into voice waveform data, and the generated voice synthesis data. In a text-to-speech conversion system equipped with a speech output unit that converts speech waveform data into an analog speech signal and outputs it, it is detected whether the information in the user dictionary in the word dictionary has been changed during the text-speech conversion work. And a user dictionary change transmission means for notifying the user of a change in the user dictionary. Text-to-speech conversion system which is characterized.
【請求項12】 請求項11に記載のテキスト音声変換
システムにおいて、 前記ユーザ辞書変更検出手段は、当該システム利用開始
時と利用終了時それぞれでのユーザ辞書中のデータのサ
イズ、各データの合計量及び該合計量の一部データの少
なくとも2つを同じパラメータ同士比較することでユー
ザ辞書の変更の有無を検出する構成としてあることを特
徴とするテキスト音声変換システム。
12. The text-to-speech conversion system according to claim 11, wherein the user dictionary change detection means is the size of data in the user dictionary at the start and end of use of the system, and the total amount of each data. And a text-to-speech conversion system configured to detect whether or not the user dictionary has been changed by comparing at least two pieces of partial data of the total amount with the same parameters.
【請求項13】 請求項11に記載のテキスト音声変換
システムにおいて、 前記ユーザ辞書変更検出手段は、ユーザ辞書の変更時に
ビットデータが変化される辞書ステータスレジスタを有
し、該レジスタのビットデータ変化からユーザ辞書の変
更の有無を検出する構成としてあることを特徴とするテ
キスト音声変換システム。
13. The text-to-speech conversion system according to claim 11, wherein the user dictionary change detection means has a dictionary status register in which bit data is changed when the user dictionary is changed. A text-to-speech conversion system having a configuration for detecting whether or not a user dictionary has been changed.
【請求項14】 請求項11に記載のテキスト音声変換
システムにおいて、 ユーザ辞書の変更を検出した場合ユーザ辞書の情報を所
定媒体にバックアップするためのバックアップ手段を具
えたことを特徴とするテキスト音声変換システム。
14. The text-to-speech conversion system according to claim 11, further comprising backup means for backing up the information in the user dictionary to a predetermined medium when a change in the user dictionary is detected. system.
【請求項15】 請求項14に記載のテキスト音声変換
システムにおいて、 前記バックアップ手段を動作させるか否かをユーザに選
択させるためのバックアップ実行/停止手段を具えたこ
とを特徴とするテキスト音声変換システム。
15. The text-to-speech conversion system according to claim 14, further comprising backup execution / stop means for allowing a user to select whether or not to operate the backup means. .
【請求項16】 請求項1に記載のテキスト音声変換シ
ステムにおいて、 請求項5に記載の各手段、請求項11に記載の各手段、
請求項14に記載の手段及び請求項15に記載の手段を
さらに具えたことを特徴とするテキスト音声変換システ
ム。
16. The text-to-speech conversion system according to claim 1, wherein each means according to claim 5, each means according to claim 11,
A text-to-speech conversion system further comprising the means according to claim 14 and the means according to claim 15.
JP03365694A 1994-03-03 1994-03-03 Text-to-speech conversion system Expired - Fee Related JP3330719B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03365694A JP3330719B2 (en) 1994-03-03 1994-03-03 Text-to-speech conversion system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03365694A JP3330719B2 (en) 1994-03-03 1994-03-03 Text-to-speech conversion system

Publications (2)

Publication Number Publication Date
JPH07244491A true JPH07244491A (en) 1995-09-19
JP3330719B2 JP3330719B2 (en) 2002-09-30

Family

ID=12392498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03365694A Expired - Fee Related JP3330719B2 (en) 1994-03-03 1994-03-03 Text-to-speech conversion system

Country Status (1)

Country Link
JP (1) JP3330719B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123457A (en) * 1994-10-21 1996-05-17 Oki Electric Ind Co Ltd Undefined code detecting device of text speech conversion system
JP2000148179A (en) * 1998-11-12 2000-05-26 Internatl Business Mach Corp <Ibm> Method for designating sub-vocabulary and program memory system
JP2002221979A (en) * 2001-01-24 2002-08-09 Matsushita Electric Ind Co Ltd Voice synthesizer, language dictionary maintenance method and language dictionary maintenance device
JP2006194952A (en) * 2005-01-11 2006-07-27 Nissan Motor Co Ltd Registering method for sentence analysis dictionary for voice synthesis and voice reading device using the method
JP2009245235A (en) * 2008-03-31 2009-10-22 Nec Software Kyushu Ltd Dictionary maintenance system and method, and program
JP2016009428A (en) * 2014-06-26 2016-01-18 株式会社日立超エル・エス・アイ・システムズ Morphological analysis turning apparatus, voice synthesis system, and morphological analysis tuning method
CN111914563A (en) * 2019-04-23 2020-11-10 广东小天才科技有限公司 Intention recognition method and device combined with voice

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123457A (en) * 1994-10-21 1996-05-17 Oki Electric Ind Co Ltd Undefined code detecting device of text speech conversion system
JP2000148179A (en) * 1998-11-12 2000-05-26 Internatl Business Mach Corp <Ibm> Method for designating sub-vocabulary and program memory system
JP2002221979A (en) * 2001-01-24 2002-08-09 Matsushita Electric Ind Co Ltd Voice synthesizer, language dictionary maintenance method and language dictionary maintenance device
JP2006194952A (en) * 2005-01-11 2006-07-27 Nissan Motor Co Ltd Registering method for sentence analysis dictionary for voice synthesis and voice reading device using the method
JP2009245235A (en) * 2008-03-31 2009-10-22 Nec Software Kyushu Ltd Dictionary maintenance system and method, and program
JP2016009428A (en) * 2014-06-26 2016-01-18 株式会社日立超エル・エス・アイ・システムズ Morphological analysis turning apparatus, voice synthesis system, and morphological analysis tuning method
CN111914563A (en) * 2019-04-23 2020-11-10 广东小天才科技有限公司 Intention recognition method and device combined with voice

Also Published As

Publication number Publication date
JP3330719B2 (en) 2002-09-30

Similar Documents

Publication Publication Date Title
JP4570509B2 (en) Reading generation device, reading generation method, and computer program
JP4502615B2 (en) Similar sentence search device, similar sentence search method, and program
JP3330719B2 (en) Text-to-speech conversion system
JP2009059159A (en) Information processor, information processing method and program
JPWO2008018287A1 (en) Search device and search database generation device
KR101777141B1 (en) Apparatus and method for inputting chinese and foreign languages based on hun min jeong eum using korean input keyboard
JP3904504B2 (en) Character string conversion device, history information generation method, and history information generation processing program.
JPH08147289A (en) System and method for kana/kanji conversion
JP2001109740A (en) Device and method for preparing chinese document
JP3414326B2 (en) Speech synthesis dictionary registration apparatus and method
JP2004258561A (en) Program and device for inputting data for singing synthesis
JPS59100941A (en) Kana (japanese syllabary)-kanji (chinese character) converter
JP2011237886A (en) Information processor and control method therefor
JP2592793B2 (en) Character processing method
JP3884807B2 (en) Document processing method and apparatus
JPH1063651A (en) Chinese language input device
JP3048793B2 (en) Character converter
JP3537888B2 (en) Kana-Kanji conversion device
JPS60112175A (en) Abbreviation conversion system of kana (japanese syllabary)/kanji (chinese character) convertor
JP3847869B2 (en) Character string conversion apparatus and method
JP4061283B2 (en) Apparatus, method and program for converting lexical data to data
JPH05210629A (en) Display control system
JPH10154141A (en) Kana-to-kanji (japanese syllabary-to-chinese character) conversion device
JPH0131229B2 (en)
JPH10187700A (en) Document processor

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020709

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080719

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090719

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees