JP2966954B2 - Document reading instruction device - Google Patents
Document reading instruction deviceInfo
- Publication number
- JP2966954B2 JP2966954B2 JP3078930A JP7893091A JP2966954B2 JP 2966954 B2 JP2966954 B2 JP 2966954B2 JP 3078930 A JP3078930 A JP 3078930A JP 7893091 A JP7893091 A JP 7893091A JP 2966954 B2 JP2966954 B2 JP 2966954B2
- Authority
- JP
- Japan
- Prior art keywords
- reading
- data
- unit
- document
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Description
【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION
【0001】[0001]
【産業上の利用分野】本発明は、日本語解析処理を用い
て文書データの読上げ位置を指示出力する文書読上げ指
示装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a document reading instruction device for outputting a reading position of document data by using Japanese language analysis processing.
【0002】[0002]
【従来の技術】従来、人間が原稿などの文書の読上げを
一定時間で行なう方法としては、その人間の感覚により
例えば原稿用紙一枚当たりに要する通常の読上げ時間な
どから原稿全体を読上げる時間を推定し、これを指示材
料として読上げ速度を加減して読上げるようにしてい
た。すなわち、読上げる人間の勘に頼って読上げ速度を
決定するようにしていた。この方法は当然のことながら
読上げを行なう人間に習熟を必要とし、個人によってそ
の技術に差を有するので、誰に対しても指定した時間内
に過不足なく正確に読上げを終了させるのを期待するこ
とはできない。さらに、読上げる文書中の単語の読みや
アクセント位置なども読上げる人間によって個人差を有
するので、必ずしも正しい読み、アクセントで読上げら
れるとは限らない。2. Description of the Related Art Conventionally, as a method of reading a document such as a manuscript in a fixed time, a method of reading a whole manuscript from a normal reading time required for one manuscript sheet or the like according to a human sense is used. It was presumed and this was used as an instructional material, and the reading speed was adjusted and read out. That is, the reading speed is determined based on the intuition of the person who reads. Naturally, this method requires the skill of the person who reads the text, and since there is a difference in the skill among individuals, it is expected that anyone will finish the reading correctly and accurately within the specified time. It is not possible. Furthermore, since the reading of words and accent positions in the text to be read have individual differences depending on the person who reads, the reading is not always performed with correct reading and accent.
【0003】[0003]
【発明が解決しようとする課題】上述した如く、誰に対
しても文書の読上げを一定時間内に過不足なく、且つ、
読み、アクセント等を正確にして読上げさせる方法はな
く、読上げる人の勘、習熟に頼るのみしか方法がなかっ
た。SUMMARY OF THE INVENTION As described above, the reading of a document to anyone can be performed within a certain period of time, and
There was no way to read aloud and accented correctly, but only to rely on the intuition and proficiency of the reader.
【0004】本発明は上記のような実情に鑑みてなされ
たもので、その目的とするところは、誰に対しても文書
の読上げを一定時間内に過不足なく、且つ、読み、アク
セント等を正確にして読上げさせることが可能な文書読
上げ指示装置を提供することにある。The present invention has been made in view of the above-described circumstances, and has as its object the purpose of making it possible for anyone to read and read a document within a certain period of time, and to read, accent, etc. It is an object of the present invention to provide a text-to-speech instruction device that can read aloud accurately.
【0005】[0005]
【課題を解決するための手段及び作用】すなわち本発明
は、単語データを記憶した単語辞書と、文書データを記
憶する文書記憶メモリと、この文書記憶手段に記憶され
る文書データに対する読上げ時間を入力設定する時間設
定部と、上記単語辞書に記憶される単語データを用いて
上記文書記憶手段に記憶される文書データを解析してそ
のよみがな及びアクセント位置を得る解析部と、この解
析部の解析結果と上記時間設定部で設定した読上げ時間
に基づいて読上げ速度を算出して設定する速度設定部と
を備え、この速度設定部で設定された読上げ速度に従っ
て上記解析部で解析された文書データのよみがな及びア
クセント位置と読上げ位置とを順次移動表示により指示
出力するようにしたもので、順次移動表示されるよみが
な及びアクセント位置に従って読上げるだけで、設定時
間内での正確な読上げを誰もが容易に行なうことができ
る。That is, the present invention provides a word dictionary storing word data, a document storage memory storing document data, and a reading time for the document data stored in the document storage means. A time setting unit to be set; an analyzing unit that analyzes the document data stored in the document storage unit using the word data stored in the word dictionary to obtain the reading positions and accent positions; and an analysis result of the analyzing unit. And a speed setting unit that calculates and sets a reading speed based on the reading time set by the time setting unit, and reads the document data analyzed by the analysis unit according to the reading speed set by the speed setting unit. The instruction position and the reading position of the accent position and the reading position are sequentially output by moving the display. Just read aloud according to location, can be anyone easily perform accurate reading within the set time.
【0006】[0006]
【実施例】以下図面を参照して本発明の一実施例を説明
する。An embodiment of the present invention will be described below with reference to the drawings.
【0007】図1はその回路構成を示すもので、 1がC
PUで構成され、他の回路全体の動作制御を行なう制御
部である。 2は文書データの入力や各種指示、読上げ時
間の入力設定を行なうキー入力部、 3は例えばCRTで
構成される表示部、 4はキー入力部2 で入力設定された
読上げ時間データを格納する設定バッファ、 5は文書デ
ータを記憶する文書データ記憶部、 6は単語の形態情
報、読み情報、アクセント情報等からなる単語データを
多数記憶している単語辞書、 7は単語辞書6 に記憶され
ている単語データに基づいて上記文書データ記憶部5 か
ら読出された文書データの日本語解析を行なう日本語解
析部、 8はこの日本語解析部7 で解析された解析結果を
保持する解析結果バッファであり、 9は読上げを行なう
ための読上げデータを保持する表示データバッファ、10
は表示データを作成する表示データ作成部、11は設定バ
ッファ4 に記憶される読上げ時間と表示データバッファ
9 に記憶される読上げデータとに従って読上げ速度を設
定する読上げ速度設定部である。さらに、12は音声を合
成する上での文法的な規則等を記憶した音声データ規則
部、13は音声データ規則部12に記憶される規則等に則っ
て上記解析結果バッファ8 に保持される解析結果から上
記設定バッファ4 及び解析結果バッファ8 を参照しなが
ら音声データを生成する音声データ生成部、14は上記音
声データ生成部13で生成された音声データを格納する音
声データバッファ、15はこの音声データバッファ14に格
納される音声データを基に音声の規則合成を行なう音声
合成部、16は例えばスピーカで構成され、音声合成部15
で合成された電気信号による音声信号を実際の音声にし
て出力する音声発生部である。次いで上記実施例の動作
について説明する。FIG. 1 shows the circuit configuration, wherein 1 is C
It is a control unit that is configured by a PU and controls the operation of the entire other circuit. Reference numeral 2 denotes a key input unit for inputting document data, various instructions, and input setting of reading time, 3 denotes a display unit constituted by, for example, a CRT, and 4 denotes a setting for storing reading time data input and set by the key input unit 2. Buffer, 5 is a document data storage unit that stores document data, 6 is a word dictionary that stores a lot of word data including word form information, reading information, accent information, etc., and 7 is stored in the word dictionary 6 A Japanese analysis unit that performs Japanese analysis of the document data read from the document data storage unit 5 based on the word data, and 8 is an analysis result buffer that holds the analysis results analyzed by the Japanese analysis unit 7 , 9 is a display data buffer for holding read-out data for reading out, 10
Is a display data creation unit for creating display data, and 11 is a reading time stored in the setting buffer 4 and a display data buffer.
This is a reading speed setting section for setting a reading speed according to the reading data stored in the reading device 9. Further, reference numeral 12 denotes a voice data rule unit that stores grammatical rules and the like for synthesizing voice, and 13 denotes an analysis data stored in the analysis result buffer 8 in accordance with rules stored in the voice data rule unit 12. An audio data generation unit that generates audio data from the result by referring to the setting buffer 4 and the analysis result buffer 8, 14 is an audio data buffer that stores the audio data generated by the audio data generation unit 13, and 15 is this audio data buffer. A speech synthesizer 16 for performing rule-based synthesis of speech based on the speech data stored in the data buffer 14 is composed of, for example, a speaker, and a speech synthesizer 15
Is a voice generating unit that converts a voice signal based on the electric signal synthesized in step 1 into an actual voice and outputs the actual voice. Next, the operation of the above embodiment will be described.
【0008】図2は文書データ記憶部5 に記憶されてい
る文書を選択して読出し、選択した読上げ時間に対応し
て読上げデータを表示出力する場合の処理手順を示すも
のであり、その制御は主として制御部1 によってなされ
る。FIG. 2 shows a processing procedure for selecting and reading a document stored in the document data storage section 5 and displaying and outputting read-out data in accordance with the selected read-out time. This is mainly performed by the control unit 1.
【0009】その動作当初には、制御部1 が文書データ
記憶部5 に記憶されている複数の文書データ名を読出
し、表示部3 上に表示出力した上で、いずれの文書デー
タを読上げ対象とするかその選択を促す。ここで文書デ
ータ記憶部5 には、日本語ワードプロセッサで作成した
文書データや光学的文字読取装置(OCR)で読込んだ
文書データを予め記憶させておくもので、表示に対応し
てキー入力部2 で任意の文書データを選択指示する(ス
テップS1)。図3はこのようにして選択した文書デー
タの内容を例示するもので、文中に“私は今日本を読み
ました”なる文を含む文書データを選択したものとす
る。At the beginning of the operation, the control unit 1 reads out a plurality of document data names stored in the document data storage unit 5 and outputs them on the display unit 3, and then selects any of the document data as a reading target. Or prompt for a choice. Here, the document data storage unit 5 stores document data created by a Japanese word processor and document data read by an optical character reader (OCR) in advance, and a key input unit corresponding to the display. In step 2, an instruction is given to select any document data (step S1). FIG. 3 exemplifies the contents of the document data selected in this manner, and it is assumed that the document data including the sentence "I read the book today" is selected.
【0010】続いて制御部1 は、選択した文書データ全
体の基本的な読上げ条件の各項目を表示部3 に表示出力
させた上で、その設定入力を促す。これに対応してキー
入力部2 で条件を設定する(ステップS2)。図4は表
示部3 で表示される読上げの条件を例示するものであ
り、設定情報としては、例えば読上げ速度、音質、高
さ、強さ、終了設定時間、強調文字の特殊読みの有無、
特殊読みの変更点、読上げの有無、休みの長さ、…等が
あり、それぞれの項目に対して取り得る条件に合致する
値の情報を設定することにより、該設定情報を制御部1
が設定バッファ4 に格納する。Subsequently, the control unit 1 causes the display unit 3 to display and output each item of the basic reading conditions of the selected entire document data, and then prompts the user to input the setting. Corresponding to this, conditions are set in the key input section 2 (step S2). FIG. 4 exemplifies the reading conditions displayed on the display unit 3. The setting information includes, for example, reading speed, sound quality, height, strength, end setting time, presence / absence of special reading of emphasized characters,
There is a change in special reading, presence / absence of reading aloud, length of rest,..., And the like.
Is stored in the setting buffer 4.
【0011】次に制御部1 は、選択された文書データを
日本語解析部7へ送り、単語辞書6に記憶されている多数
の単語データに従って日本語解析を行なわせる(ステッ
プS3)。図5は単語辞書6 に記憶されている“私”な
る単語データ近傍のデータ構造を示し、各単語データは
その見出し、品詞、読み、アクセントと意味その他とか
ら構成される。日本語解析部7 はこのような単語データ
に基づいて文書データを形態的、構文敵、意味的に解析
して単語毎に分割するもので、解析結果は制御部1 によ
って解析結果バッファ8 に格納される。図6は上記文書
データ中の“私は今日本を読みました”なる文を解析し
た結果を示し、各単語毎にその読み、アクセント(AC
S)、拍数、品詞、活用形と強調の有無及び内容からな
る。また、このときに拡大文字、反転文字、下線の施さ
れた文字等の強調文字に関しては、強調文字であること
の属性と共に解析結果バッファ8 に格納される。この強
調文字の属性は、定められた制御コードが対象文字の直
前に入っていることなどにより表現されるものである。Next, the control unit 1 sends the selected document data to the Japanese language analysis unit 7 and causes the Japanese language analysis to be performed in accordance with a large number of word data stored in the word dictionary 6 (step S3). FIG. 5 shows the data structure near the word data "I" stored in the word dictionary 6, and each word data is composed of its headline, part of speech, reading, accent, meaning and others. The Japanese analysis unit 7 analyzes the document data morphologically, syntactically and semantically based on such word data and divides it into words, and stores the analysis results in the analysis result buffer 8 by the control unit 1. Is done. FIG. 6 shows the result of analyzing the sentence "I read the book today" in the above document data.
S), number of beats, part of speech, inflected form, presence / absence of emphasis, and content. At this time, emphasized characters such as enlarged characters, inverted characters, and underlined characters are stored in the analysis result buffer 8 together with the attribute of being emphasized characters. The attribute of the emphasized character is expressed, for example, by the fact that the determined control code is immediately before the target character.
【0012】解析終了後、日本語解析部7 は制御部1 に
対して解析を終了した旨を示す信号を送出するもので、
制御部1 はこの日本語解析部7 からの信号に対応して図
示しない内部カウンタを初期化し、解析結果バッファ8
に格納されている解析結果の先頭データを読込み、音声
データ生成部13に対して該解析結果を基に音声データ規
則部12と設定バッファ4 を参照しながら基準の音質設定
情報による音声データの生成を行なわせる(ステップS
4)。After the analysis is completed, the Japanese language analyzer 7 sends a signal to the controller 1 indicating that the analysis has been completed.
The control unit 1 initializes an internal counter (not shown) corresponding to the signal from the Japanese analysis unit 7 and
The voice data generating unit 13 reads the leading data of the analysis result stored therein, and generates the voice data based on the reference sound quality setting information while referring to the voice data rule unit 12 and the setting buffer 4 based on the analysis result. (Step S
4).
【0013】図7は音声データ規則部12に記憶されてい
る規則の一部を示すものであり、例えば「アクセント
(ACS)の形が0型の5段活用の動詞が未然形である
場合には、そのアクセントの形は0型となる」ことを示
している。制御部1 は生成された音声データを音声デー
タバッファ14に一旦保持させる。FIG. 7 shows a part of a rule stored in the voice data rule unit 12. For example, when a verb utilizing an accent (ACS) of type 0 and a five-stage inflection is an uncompleted verb. Indicates that the shape of the accent is 0 type. " The control unit 1 causes the audio data buffer 14 to temporarily hold the generated audio data.
【0014】その後、制御部1 は生成した音声データ中
に上述したような強調文字を示す属性があるか否かを判
断する(ステップS5)。そして、強調文字がある場合
はさらにその強調文字が例えば記号として下線で示すよ
うな読みを強調するためのものであるか否かを判断する
(ステップS6)。読みを強調するためのものであれ
ば、その強調文字の読上げ条件に応じて上記音声データ
バッファ14に保持させている生成した音声データの該当
部分のみを区別して強調読上げの追加設定を行なう(ス
テップS7)。図8は音声データ生成部13が生成する音
声データのフォーマットを示すものであり、図示する如
く音声データは速度;音質;高さ;強さ;読上げ文字
列;Thereafter, the control section 1 determines whether or not the generated voice data has the attribute indicating the emphasized character as described above (step S5). Then, if there is an emphasized character, it is further determined whether or not the emphasized character is for emphasizing the reading indicated by, for example, an underline as a symbol (step S6). If it is for emphasizing the reading, additional setting of emphasized reading is performed by discriminating only a corresponding portion of the generated sound data held in the sound data buffer 14 in accordance with the reading condition of the emphasized character (step). S7). FIG. 8 shows a format of the audio data generated by the audio data generating unit 13. As shown in the figure, the audio data has a speed; a sound quality; a height; an intensity;
【0015】の形で構成される。ここでは、原文が“私
は今日本を読みました(わたしはきょうほんをよみまし
た)”という文書が解析されて解析結果バッファ8 に格
納されているものとする。強調が上記ステップS4の処
理で音声データ規則部12と設定バッファ4 に設定されて
いる基準の音質設定情報による音声データの生成が行な
われ、女性音の早い低めのやや弱めの声を示す0.5;
1;20;20;ワタシワ./キ^ョウ/ホ^ンヲ/ヨ
ミマ^シタ;[0015] Here, the original text is "I've read the book today (I have been reading a book today)" is assumed to be stored in the analysis result buffer 8 are analyzed document is called. In the process of step S4, the voice data is generated based on the voice data ruler 12 and the reference sound quality setting information set in the setting buffer 4 in the process of step S4. 5;
1: 20; 20; / Kyo / phone / yomishimashita;
【0016】なるフォーマットの音声データが生成され
る。上記図8中に示す如く読上げ文字列中のカタカナは
実祭の音声データ、“^”はアクセント位置、“.”は
ポーズ、“/”は区切りを示す。[0016] Audio data in the following format is generated. As shown in FIG. 8, katakana in the character string to be read out is audio data of the festival, "@" indicates an accent position, "." Indicates a pause, and "/" indicates a delimiter.
【0017】ここで、強調読上げを行なう強調文字の属
性があり、上記ステップS7により下線が施された「キ
ョウ」の部分を強調読上げする設定を行なった場合は、
例えば0.5;1;20;20;ワタシワ.;0.8;
1;20;20;キ^ョウ;0.5;1;20;20;
ホ^ンヲ/ヨミマ^シタ;のようにその該当部分のみを
予め設定した強調読上げ条件により区別して追加設定す
るものである。Here, if there is an attribute of the emphasized character to be emphasized and read out, and if the setting of the underlined "Kyou" is set to be emphasized and read out in step S7,
For example, 0.5; 1; 20; 20; 0.8;
1: 20; 20; Kyo; 0.5; 1; 20; 20;
Only the relevant portion is additionally set by distinguishing it according to a preset emphasis reading-out condition, such as a phone / reading device.
【0018】なお、上記ステップS5で強調文字がない
と判断した場合、あるいはステップS6で強調文字があ
ってもそれが強調読みを行なうためのものではないと判
断した場合には、ステップS7の処理は省略する。If it is determined in step S5 that there is no emphasized character, or if it is determined in step S6 that there is an emphasized character but that it is not for emphasized reading, the processing in step S7 is performed. Is omitted.
【0019】音声データの生成及び強調読上げの設定処
理終了後、終了した旨の信号を音声データ生成部13から
受取ると制御部1 は、一旦音声合成部15を初期化し(ス
テップS8)、その後に設定バッファ4 を参照して読上
げ終了時間が設定されているか否か判断する(ステップ
S9)。読上げ終了時間が設定されている場合は、読上
げ速度設定部11を起動して音声データバッファ14に保持
されている全音声データの総拍数を算出し、読上げ終了
時間から文書内の休みの回数を考慮に入れて各拍に要す
る単位時間を算出し、それに基づいた読上げ速度の設定
を行なう(ステップS10)。After the generation of the voice data and the setting process of the emphasized reading, after receiving a signal indicating the completion from the voice data generating unit 13, the control unit 1 once initializes the voice synthesizing unit 15 (step S8), and thereafter. With reference to the setting buffer 4, it is determined whether or not the reading end time has been set (step S9). If the reading end time is set, the reading speed setting unit 11 is activated to calculate the total number of beats of all the sound data held in the sound data buffer 14, and the number of rests in the document is calculated from the reading end time. , The unit time required for each beat is calculated, and the reading speed is set based on the calculated unit time (step S10).
【0020】ここで拍とは、発音の最小単位の数であ
り、例えば「学校(がっこう)」という単語は4拍、
「社会(しゃかい)」は3拍の単語となる。図9には拍
の構成単位の一部を示す。図8に示した例文は14拍の
文であり、休みの数は1である。Here, the beat is the number of the minimum units of pronunciation. For example, the word “school” is four beats,
"Society" is a three-beat word. FIG. 9 shows a part of the constituent units of a beat. The example sentence shown in FIG. 8 is a sentence of 14 beats, and the number of rests is one.
【0021】例えば上記のような算出の方法で文全体と
して1500拍あり、休みの数が100個あって、1回
当たりの休みの長さが10[m秒]であると設定バッフ
ァ4に設定されている場合、この文書を5分で読上げる
ためには ((60×5−(100×0.01))/1500 なる計算により1拍当たり0.199秒の速度で読上げ
ればよいこととなる。こうして読上げ速度設定部11で算
出された読上げ速度の情報は制御部1 によって音声合成
部15に設定される。For example, according to the above-described calculation method, it is set in the setting buffer 4 that the whole sentence has 1500 beats, the number of rests is 100, and the length of each rest is 10 [msec]. In this case, in order to read this document in 5 minutes, it should be read at the rate of 0.199 seconds per beat by the calculation of ((60 × 5- (100 × 0.01)) / 1500. The information on the reading speed calculated by the reading speed setting unit 11 in this manner is set in the speech synthesis unit 15 by the control unit 1.
【0022】また、上記ステップS9で読上げ終了時間
が設定されていないと判断した場合は、ステップS10
の処理は行なわずに、予め設定された読上げ条件に従っ
た読上げの速度データを音声合成部15に設定する。If it is determined in step S9 that the reading end time has not been set, the process proceeds to step S10.
The speech speed data in accordance with the preset speech condition is set in the speech synthesizer 15 without performing the above process.
【0023】その後に制御部1 は、音声データバッファ
14に保持されている音声データを表示データ作成部10に
読出させ、該音声データからアクセントや読みが分かり
易くなっている表示データを作成させる(ステップS1
1)。作成された表示データは、制御部1 により表示デ
ータバッファ9 に順次保持される。表示データの作成を
終了すると制御部1 は、次いで該表示データを表示デー
タバッファ9 から読出し、表示部3 にて表示出力させる
(ステップS12)。また、この表示と同時に制御部1
は、表示データに対応する音声データを音声データバッ
ファ14から読出し、上記ステップS8で初期化した音声
合成部15を諸設定した後にこの音声合成部15に音声デー
タを送出する。音声合成部15は、音声データのフォーマ
ットの文字列に従って音声の規則合成を行ない、指定さ
れた速度、音質、高さ、強さによりそれに続いて送られ
てくる文字列に対して規則合成を行なう。そして、規則
合成により得られた電気的な音声信号が音声発生部16に
より実際の合成音として出力される。Thereafter, the control unit 1 controls the audio data buffer.
The display data creation unit 10 reads the audio data held in the display data 14 and creates display data in which accents and readings are easy to understand from the audio data (step S1).
1). The created display data is sequentially stored in the display data buffer 9 by the control unit 1. When the creation of the display data is completed, the control section 1 reads the display data from the display data buffer 9 and causes the display section 3 to display and output the display data (step S12). At the same time as this display,
Reads out the audio data corresponding to the display data from the audio data buffer 14, sets the audio synthesizing unit 15 initialized in step S8, and sends out the audio data to the audio synthesizing unit 15. The voice synthesizer 15 performs the rule synthesis of the voice according to the character string in the format of the voice data, and performs the rule synthesis for the character string subsequently transmitted according to the specified speed, sound quality, height, and strength. . Then, the electric sound signal obtained by the rule synthesis is output by the sound generation unit 16 as an actual synthesized sound.
【0024】しかして、図10は表示部3 にて表示され
るデータを示すものである。同図では、表示データを、
対応する文書データと共に表示出力する例を示したもの
で、読みを示す表示データ中の記号“^”は、発声を行
なう際にその拍に対してアクセントがあることをその位
置と共に示すものである。FIG. 10 shows the data displayed on the display unit 3. In the figure, the display data is
This shows an example of displaying and outputting together with the corresponding document data. The symbol “^” in the display data indicating the reading indicates that there is an accent on the beat at the time of uttering, together with its position. .
【0025】制御部1 は、このように表示部3 で表示さ
れた表示データと共に、上述した如く対応する音声を出
力する。この際に制御部1 は、音声データの音声発生部
16からの出力のタイミングに同期して該当する表示デー
タの文字を着色、反転、下線等の手段によって表示し、
現在どこを読み上げているかを表現するものである。The control unit 1 outputs the corresponding sound as described above together with the display data displayed on the display unit 3 in this manner. At this time, the control unit 1
Display the characters of the corresponding display data by means of coloring, inversion, underlining, etc. in synchronization with the output timing from 16;
It expresses where you are currently reading.
【0026】図11は、その表示画面を示すものであ
り、ここでは現在「今日」という単語の「キョ」という
拍を読上げている状態を示し、上に表示している文書デ
ータに対しては該当する単語に対して反転表示による表
現を行なう一方、下に表示している音声データを基に作
成された表示データに対しては、今まで読上げた部分を
反転表示により表現し、読上げのタイミングを表わす。FIG. 11 shows the display screen. Here, a state in which the beat of "Kyo" of the word "today" is read aloud, and the document data displayed above is shown in FIG. While the corresponding word is expressed in reverse video, the display data created based on the audio data displayed below is expressed in reverse video, and the readout timing is displayed. Represents
【0027】ここで、設定バッファ4 により読上げの有
無を示すデータが「無」の側に設定されている場合に
は、上述した音声合成部15、音声発生部16による音声デ
ータの読上げ出力は行なわず、表示部3 での表示出力の
みを行なうものとする。これはつまり、この機能を用い
てオペレータが表示部3 に表示されていく表示データに
合わせて文書を読上げていくと、設定した時間に正しい
アクセントで文書を読上げることが可能となるものであ
る。Here, if the data indicating the presence or absence of the reading is set to the "absence" side by the setting buffer 4, the above-described voice data is read out by the voice synthesizing unit 15 and the voice generating unit 16. Instead, only the display output on the display unit 3 is performed. In other words, if the operator uses this function to read out a document in accordance with the display data displayed on the display unit 3, it is possible to read out the document with a correct accent at a set time. .
【0028】[0028]
【発明の効果】以上詳記した如く本発明によれば、単語
データを記憶した単語辞書と、文書データを記憶する文
書記憶メモリと、この文書記憶手段に記憶される文書デ
ータに対する読上げ時間を入力設定する時間設定部と、
上記単語辞書に記憶される単語データを用いて上記文書
記憶手段に記憶される文書データを解析してそのよみが
な及びアクセント位置を得る解析部と、この解析部の解
析結果と上記時間設定部で設定した読上げ時間に基づい
て読上げ速度を算出して設定する速度設定部とを備え、
この速度設定部で設定された読上げ速度に従って上記解
析部で解析された文書データのよみがな及びアクセント
位置と読上げ位置とを順次移動表示により指示出力する
ようにしたので、順次移動表示されるよみがな及びアク
セント位置に従って読上げるだけで、誰に対しても文書
の読上げを一定時間内に過不足なく、且つ、読み、アク
セント等を正確にして読上げさせることが可能な文書読
上げ指示装置を提供することができる。As described in detail above, according to the present invention, a word dictionary storing word data, a document storage memory storing document data, and a reading time for the document data stored in the document storage means are input. A time setting section to be set;
An analysis unit that analyzes the document data stored in the document storage unit using the word data stored in the word dictionary to obtain the reading position and the accent position thereof, and sets the analysis result of the analysis unit and the time setting unit. A speed setting unit that calculates and sets a reading speed based on the read-out time,
In accordance with the reading speed set by the speed setting unit, the yoga and accent positions of the document data analyzed by the analysis unit and the reading position are sequentially instructed and output by moving display, so that the yoga and accent characters sequentially moved and displayed are displayed. It is possible to provide a text-to-speech instruction apparatus capable of making a text-to-speech text-to-speech process for anybody within a certain period of time simply by reading aloud according to a position, and making it possible to read aloud with correct reading, accent, etc. .
【図1】本発明の一実施例に係る回路構成を示すブロッ
ク図。FIG. 1 is a block diagram showing a circuit configuration according to an embodiment of the present invention.
【図2】図1の制御部が行なう処理内容を示すフローチ
ャート。FIG. 2 is a flowchart showing processing contents performed by a control unit in FIG. 1;
【図3】図1の文書データ記憶部に記憶される文書デー
タを例示する図。FIG. 3 is a view exemplifying document data stored in a document data storage unit in FIG. 1;
【図4】図1の設定バッファに格納される読上げの設定
条件情報を示す図。FIG. 4 is a diagram showing read-out setting condition information stored in a setting buffer of FIG. 1;
【図5】図1の単語辞書に記憶される単語データのデー
タ構造を示す図。FIG. 5 is a diagram showing a data structure of word data stored in the word dictionary of FIG. 1;
【図6】図1の解析結果バッファに記憶される解析結果
を例示する図。FIG. 6 is a diagram illustrating an analysis result stored in an analysis result buffer of FIG. 1;
【図7】図1の音声データ規則部に記憶される規則の一
部を示す図。FIG. 7 is a view showing a part of a rule stored in a voice data rule unit of FIG. 1;
【図8】図1の音声データ生成部が生成する音声データ
のフォーマットを示す図。FIG. 8 is a diagram showing a format of audio data generated by the audio data generation unit in FIG. 1;
【図9】図1の読上げ速度設定部に格納される拍の構成
単位の一部を示す図。FIG. 9 is a diagram showing a part of a constituent unit of a beat stored in the reading speed setting unit in FIG. 1;
【図10】図1の表示部で表示される文書と表示データ
とを示す図。FIG. 10 is a view showing a document and display data displayed on the display unit of FIG. 1;
【図11】図1の表示部で表示される文書読上げ状態で
の文書と表示データとを示す図。FIG. 11 is a view showing a document and display data in a text-to-speech state displayed on the display unit of FIG. 1;
1…制御部、 2…キー入力部、 3…表示部、 4…設定バ
ッファ、 5…文書データ記憶部、 6…単語辞書、 7…日
本語解析部、 8…解析結果バッファ、 9…表示データバ
ッファ、10…表示データ作成部、11…読上げ速度設定
部、12…音声データ規則部、13…音声データ生成部、14
…音声データバッファ、15…音声合成部、16…音声発生
部。1 ... Control unit, 2 ... Key input unit, 3 ... Display unit, 4 ... Setting buffer, 5 ... Document data storage unit, 6 ... Word dictionary, 7 ... Japanese analysis unit, 8 ... Analysis result buffer, 9 ... Display data Buffer, 10: display data creation unit, 11: reading speed setting unit, 12: audio data rule unit, 13: audio data generation unit, 14
... Sound data buffer, 15 ... Speech synthesis unit, 16 ... Sound generation unit.
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平3−211661(JP,A) 特開 平4−199420(JP,A) 特開 平2−289071(JP,A) 特開 平3−216759(JP,A) 特開 平1−201699(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06F 17/21 - 17/28 G06F 3/16 G10L 3/00 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-3-211661 (JP, A) JP-A-4-199420 (JP, A) JP-A-2-28971 (JP, A) JP-A-3-1990 216759 (JP, A) JP-A-1-201699 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G06F 17/21-17/28 G06F 3/16 G10L 3/00
Claims (1)
データを記憶する文書記憶手段と、この文書記憶手段に
記憶される文書データに対する読上げ時間を設定する時
間設定手段と、上記単語辞書に記憶される単語データを
用いて上記文書記憶手段に記憶される文書データを解析
してそのよみがな及びアクセント位置を得る解析手段
と、この解析手段の解析結果と上記時間設定手段で設定
した読上げ時間に基づいて読上げ速度を算出して設定す
る速度設定手段と、この速度設定手段で設定された読上
げ速度に従って上記解析手段で解析された文書データの
よみがな及びアクセント位置と読上げ位置とを順次移動
表示により指示出力する指示手段とを具備したことを特
徴とする文書読上げ指示装置。1. A word dictionary that stores word data, a document storage unit that stores document data, a time setting unit that sets a reading time for document data stored in the document storage unit, and a word dictionary that stores the word data. Analysis means for analyzing the document data stored in the document storage means using the word data to be obtained to obtain the reading position and the accent position thereof, based on the analysis result of the analysis means and the reading time set by the time setting means. Speed setting means for calculating and setting the reading speed by reading and outputting the instruction by sequentially moving and displaying the reading position and the reading position of the document data analyzed by the analyzing means according to the reading speed set by the speed setting means. And a reading means for reading a document.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3078930A JP2966954B2 (en) | 1991-04-11 | 1991-04-11 | Document reading instruction device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3078930A JP2966954B2 (en) | 1991-04-11 | 1991-04-11 | Document reading instruction device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04312169A JPH04312169A (en) | 1992-11-04 |
JP2966954B2 true JP2966954B2 (en) | 1999-10-25 |
Family
ID=13675591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3078930A Expired - Fee Related JP2966954B2 (en) | 1991-04-11 | 1991-04-11 | Document reading instruction device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2966954B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4133559B2 (en) * | 2003-05-02 | 2008-08-13 | 株式会社コナミデジタルエンタテインメント | Audio reproduction program, audio reproduction method, and audio reproduction apparatus |
-
1991
- 1991-04-11 JP JP3078930A patent/JP2966954B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH04312169A (en) | 1992-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6560574B2 (en) | Speech recognition enrollment for non-readers and displayless devices | |
US4831654A (en) | Apparatus for making and editing dictionary entries in a text to speech conversion system | |
JPH07181992A (en) | Device and method for reading document out | |
JP2966954B2 (en) | Document reading instruction device | |
JP2580565B2 (en) | Voice information dictionary creation device | |
JPH07334075A (en) | Presentation supporting device | |
JP2007071904A (en) | Speaking learning support system by region | |
JPH08272388A (en) | Device and method for synthesizing voice | |
JP7533525B2 (en) | Electronic device, learning support system, learning processing method and program | |
JPH04199421A (en) | Document read-aloud device | |
JPH11259094A (en) | Regular speech synthesis device | |
JP2801622B2 (en) | Text-to-speech synthesis method | |
JP2680643B2 (en) | Character display method of rule synthesizer | |
JPH04199420A (en) | Document lead-aloud device | |
JPH01119822A (en) | Sentence reader | |
JPH0798709A (en) | Aural translating device | |
JPH08221095A (en) | Method for reading sentence aloud | |
JPH04177526A (en) | Sentence reading-out device | |
WO2024205497A1 (en) | Method and apparatus to generate differentiated oral prompts for learning | |
JPH01300334A (en) | Sentence read-aloud device | |
JP2977201B2 (en) | Accent dictionary creation device | |
RU12268U1 (en) | DEVICE FOR TRANSLATION OF SIGNALS OF AUDIO OPERATION OF A TV FROM ONE LANGUAGE TO ANOTHER | |
KR100768286B1 (en) | Apparatus and method for memorizing sentence by image | |
JPS62103724A (en) | Document preparing device | |
JPH06175576A (en) | Chinese language learning device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |