JPH045696A - Method and device for editing voice dictionary - Google Patents

Method and device for editing voice dictionary

Info

Publication number
JPH045696A
JPH045696A JP2106895A JP10689590A JPH045696A JP H045696 A JPH045696 A JP H045696A JP 2106895 A JP2106895 A JP 2106895A JP 10689590 A JP10689590 A JP 10689590A JP H045696 A JPH045696 A JP H045696A
Authority
JP
Japan
Prior art keywords
speech
word
information
dictionary
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2106895A
Other languages
Japanese (ja)
Inventor
Kanji Tadano
只野 完二
Hiroyuki Kinukawa
博之 絹川
Norie Moriki
森木 紀恵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2106895A priority Critical patent/JPH045696A/en
Publication of JPH045696A publication Critical patent/JPH045696A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To efficiently edit the voice dictionary, while confirming instantly voice information by inputting voice information of a word, repeating reading- out of the word and a display of a position of an accent and generating a desired voice. CONSTITUTION:First of all, when a pronunciation character-string is selected in a step ST 4001, a screen for explaining an input method of its expression format, etc., is displayed on a display in an ST 4005. Subsequently, in an ST 4006, the displayed pronunciation character-string is inputted, and in an ST 41, count processing of the molar number is executed, and next, in an ST 42, a specific phoneme is checked. Also, when an accent position is selected, whether the pronunciation character-string is inputted already or not is checked in an ST 4009, and when it is inputted, an accent display table is generated in an ST 43. Subsequently, the accent position is displayed on the display. Thereafter, a position of the word and a position of the accent are displayed repeatedly, and by repeating, while confirming it, a voice dictionary can be edited efficiently.

Description

【発明の詳細な説明】 [発明の利用分野] 本発明は、音声辞書編集方法および装置に関し、さらに
詳しくは、音声情報を集めた音声辞書の編集方法および
その方法を実施する装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Application of the Invention] The present invention relates to a method and apparatus for editing a speech dictionary, and more particularly to a method for editing a speech dictionary that collects speech information and an apparatus for implementing the method.

[従来の技術] 日本語の単語を音声合成装置を用いて発音するための音
声情報を集めた音声辞書を編集する従来技術としては、
例えば特開昭59−127147号公報に記載の技術が
ある。
[Prior art] Conventional technology for editing a speech dictionary that collects speech information for pronouncing Japanese words using a speech synthesizer is as follows.
For example, there is a technique described in Japanese Unexamined Patent Publication No. 59-127147.

この従来技術では、文字列入力手段を用いて音声情報の
文字列を入力することによって音声辞書に登録する。そ
して、ある単語か正しい音声情報が登録されたかは、そ
の単語を含む文章を音声合成装置を用いて読み上げるこ
とにより確認する。
In this conventional technique, a character string of voice information is inputted using a character string input means and thereby registered in a voice dictionary. Then, whether correct speech information for a certain word has been registered is confirmed by reading out a sentence containing the word using a speech synthesis device.

[発明か解決しようとする課題] 上記従来技術においては、音声情報を確認するのに音声
合成装置を用いて文章を読み上げる必要かあった。
[Problems to be Solved by the Invention] In the above-mentioned prior art, it was necessary to read out the text using a speech synthesizer to confirm the speech information.

このため、入力した音声情報をすばやく確認することか
できす、能率良く音声辞書を編集することができない問
題点かあった。
Therefore, there were problems in that it was not possible to quickly check the input voice information, and it was not possible to edit the voice dictionary efficiently.

そこで、本発明の目的は、入力した音声情報を即座に確
認しなから音声辞書を編集することか出来る音声辞書編
集方法を提供することにある。また、その音声辞書編集
方法を好適に実施する装置を提供することにある。
SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a voice dictionary editing method that allows a voice dictionary to be edited without immediately checking input voice information. Another object of the present invention is to provide a device that suitably implements the speech dictionary editing method.

[課題を解決するための手段] 本発明は、第1の観点では、日本語の単語を音声合成装
置を用いて発音するための音声情報を集めた音声辞書の
編集方法であって、単語の音声情報を入力する単語音声
情報入力ステ・ツブと、入力した音声情報により音声合
成装置を用いて単語を−読み上げる単語読み上げステ・
ツブと、アクセントの位置が分かる形態で単語の読み文
字列をディスプレイに表示する単語アクセント位置表示
ステ・ンプと、前記各ステップを繰り返して所望の音声
情報を作成する繰り返しステ・ツブと、作成した音声情
報を音声辞書に登録する登録ステ・ツブとを有する音声
辞書編集方法を提供する。
[Means for Solving the Problems] In a first aspect, the present invention is a method for editing a speech dictionary that collects speech information for pronouncing Japanese words using a speech synthesis device. A word voice information input step that inputs voice information, and a word reading step that uses a voice synthesizer to read out words based on the input voice information.
A word accent position display step that displays the pronunciation of a word on a display in a form that shows the accent position, and a repeat step that repeats each of the above steps to create desired phonetic information. Provided is a voice dictionary editing method having a registration step and a step for registering voice information in a voice dictionary.

本発明は、第2の観点では、日本語の単語を音声合成装
置を用いて発音するための音声情報を集めた音声辞書の
編集方法であって、音声辞書中の単語を指定する単語指
定ステ・ツブと、指定した単語の音声情報を音声辞書か
ら得て音声合成装置を用いて読み上げる単語読み上げス
テ・ノブと、アクセントの位置が分かる形態で単語の読
み文字列をディスプレイに表示する単語アクセント位置
表示ステップと、音声情報を修正する音声情報修正ステ
ップと、修正した音声情報を音声辞書に登録する登録ス
テップとを有する音声辞書編集方法を提供する。
In a second aspect, the present invention is a method for editing a speech dictionary that collects speech information for pronouncing Japanese words using a speech synthesis device, and includes a word specification step for specifying words in the speech dictionary.・Word-reading knob and word-accent position knob that obtains the audio information of a specified word from a voice dictionary and uses a speech synthesizer to read it out loud, and a word accent position that displays the word pronunciation string on the display in a form that shows the accent position. A speech dictionary editing method is provided, which includes a display step, a speech information modification step for correcting speech information, and a registration step for registering the modified speech information in a speech dictionary.

[作用] 上記第1の観点による音声辞書編集方法では、単語を入
力すると、その単語の音声情報に基づいてその単語を音
声合成装置で読み上げると共にアクセント位置を画面に
表示する。そこで、単語を入力すると同時に確認でき、
容易に且つ正確に音声辞書を作成できるようになる。
[Operation] In the speech dictionary editing method according to the first aspect, when a word is input, the speech synthesizer reads out the word based on the speech information of the word and displays the accent position on the screen. There, you can check the word as you enter it,
It becomes possible to easily and accurately create a speech dictionary.

上記第2の観点による音声辞書編集方法では、音声辞書
の単語を指定すると、その単語の音声情報に基づいてそ
の単語を音声合成装置で読み上げると共にアクセント位
置を画面に表示する。そして、音声情報を修正すると、
その修正した音声情報に基づいてその単語を音声合成装
置で読み上げると共にアクセント位置を画面に表示する
。そこで、単語を修正すると同時に確認でき、容易に且
つ正確に音声辞書を修正できるようになる。
In the speech dictionary editing method according to the second aspect, when a word in the speech dictionary is specified, the word is read out loud by the speech synthesis device based on the speech information of the word, and the accent position is displayed on the screen. Then, if you modify the audio information,
Based on the corrected speech information, the word is read aloud by a speech synthesizer and the accent position is displayed on the screen. Therefore, the user can check the words as they are corrected, and the speech dictionary can be easily and accurately corrected.

[実施例コ 以下、図に示す実施例に基づいて本発明の詳細な説明す
る。なお、これにより本発明が限定されるものではない
[Embodiments] The present invention will be described in detail below based on embodiments shown in the figures. Note that the present invention is not limited thereby.

まず、第1図から第11図を参照して本発明の第1実施
例を説明する。
First, a first embodiment of the present invention will be described with reference to FIGS. 1 to 11.

第1図は、本発明の音声辞書編集方法を実施する音声辞
書編集装置1000のブロック図である。
FIG. 1 is a block diagram of a speech dictionary editing device 1000 that implements the speech dictionary editing method of the present invention.

この音声辞書編集装置1000は、中央処理装置1と、
音声情報が登録されている音声辞書ファイル2と、ディ
スプレイ3と、キーボード4と音声合成装置5と、スピ
ーカ6と、プリンタ7とから構成されている。
This speech dictionary editing device 1000 includes a central processing unit 1,
It is composed of a voice dictionary file 2 in which voice information is registered, a display 3, a keyboard 4, a voice synthesizer 5, a speaker 6, and a printer 7.

中央処理装置1は、主制御部10と、音声情報入力・表
示部40と、音声出力部50と、音声辞書印刷部60と
、音声辞書ファイルインタフェース70と、音声情報バ
ッファ101と、特殊文字が格納されている特殊文字テ
ーブル102および103とを含んでいる。
The central processing unit 1 includes a main control unit 10, a voice information input/display unit 40, a voice output unit 50, a voice dictionary printing unit 60, a voice dictionary file interface 70, a voice information buffer 101, and a special character It includes stored special character tables 102 and 103.

第2図は、中央処理装置1の主制御部10の機能を詳細
に表わしたブロック図である。
FIG. 2 is a block diagram showing the functions of the main control section 10 of the central processing unit 1 in detail.

主制御部10は、音声辞書編集制御部11と。The main control section 10 has a speech dictionary editing control section 11 .

単語登録制御部15と、単語修正制御部20と。A word registration control section 15 and a word correction control section 20.

単語削除制御部25と、音声辞書読み上げ制御部30と
、音声情報検索部45と、辞書作成・更新部55とを含
んでいる。
It includes a word deletion control section 25, a voice dictionary reading control section 30, a voice information search section 45, and a dictionary creation/update section 55.

第3図は、上記音声辞書編集装置1000の作動の流れ
図である。
FIG. 3 is a flow chart of the operation of the speech dictionary editing device 1000.

この流れ図において、(登録)150か主として前記単
語登録制御部15の作動を示し、(修正)200が主と
して前記単語修正制御部20の作動を示し、(削除)2
50か主として前記単語削除制御部25の作動を示し、
(印刷)600か主として前記音声辞書印刷部60の作
動を示し、(読み上げ)300か主として前記音声辞書
読み上げ制御部30の作動を示す。また、音声情報入力
・表示処理400が主として前記音声情報入力・表示部
40の作動を示し、音声出力処理500が主として前記
音声出力部50の作動を示し、音声情報検索処理450
か主として前記音声情報検索部45の作動を示し、辞書
作成・更新処理550か主として前記辞書作成・更新部
55の作動を示す。
In this flowchart, (registration) 150 mainly indicates the operation of the word registration control section 15, (modification) 200 mainly indicates the operation of the word correction control section 20, and (deletion) 2
50 mainly indicates the operation of the word deletion control unit 25,
(Print) 600 mainly indicates the operation of the voice dictionary printing unit 60, and (Reading) 300 mainly indicates the operation of the voice dictionary reading control unit 30. Furthermore, audio information input/display processing 400 mainly indicates the operation of the audio information input/display section 40, audio output processing 500 mainly indicates the operation of the audio output section 50, and audio information search processing 450.
5 mainly shows the operation of the voice information search section 45, and dictionary creation/update processing 550 mainly shows the operation of the dictionary creation/update section 55.

まず、ステップ12では、作業者がキーボード4を操作
して、(登録)、(修正)、(削除)、(印刷)、(読
み上げ)、(終了)のいずれかを選択する。
First, in step 12, the operator operates the keyboard 4 to select one of (registration), (modification), (delete), (print), (read out), and (end).

単語を新しく登録するときは、(登録)を選択する。To register a new word, select (Register).

(登録)150のステップ1501では、音声情報バッ
ファ101の初期化を行う。
In step 1501 of (registration) 150, the audio information buffer 101 is initialized.

ステップ1502では、第10図に示す如き音声情報確
認・入力画面を表示する(但し、データ部分は空白にな
っている)。
In step 1502, a voice information confirmation/input screen as shown in FIG. 10 is displayed (however, the data portion is blank).

ステップ1503では、処理コマンド入力可能状態にな
る。オペレータは、音声情報確認・入力画面の処理コマ
ンドウィンドウC胃内に表示された「入力」、「確認」
、「完了」、「取消」のいずれかの処理コマンドを選択
する。
In step 1503, a state is entered in which processing commands can be input. The operator presses the "input" and "confirmation" buttons displayed in the processing command window C on the voice information confirmation/input screen.
, "Complete", or "Cancel".

ステップ1504では、入力された処理コマンドが「取
消」か否かをチエツクする。「取消」なら、前記ステッ
プ12に戻る。「取消」でないなら、ステップ1505
へ進む。
In step 1504, it is checked whether the input processing command is "cancel". If "cancel", return to step 12 above. If not “cancel”, step 1505
Proceed to.

ステップ1505では、入力された処理コマンドが「完
了」か否かをチエツクする。「完了」なら、ステップ5
50へ進む。「完了」でないなら、ステップ1506へ
進む。
In step 1505, it is checked whether the input processing command is "complete". If “Completed”, step 5
Go to 50. If not “completed”, the process advances to step 1506.

ステップ1506では、入力された処理コマンドが「確
認」か否かをチエツクする。「確認」なら、ステップ5
00へ進む。「確認」でないなら、ステップ400へ進
む。
In step 1506, it is checked whether the input processing command is "confirmation". If “confirm”, step 5
Go to 00. If it is not "confirmation", the process advances to step 400.

ステップ400は音声情報入力・表示処理であり、単語
の音声情報の入力と表示を行なう。入力した音声情報は
音声情報バッファ101に保持される。音声情報入力・
表示処理400の詳細については第4図を参照して後述
する。
Step 400 is an audio information input/display process, in which audio information of words is input and displayed. The input audio information is held in the audio information buffer 101. Voice information input/
Details of the display process 400 will be described later with reference to FIG.

ステップ500は音声出力処理であり、音声情報バッフ
ァ101に保持している単語を読み上げる。この音声出
力処理500の詳細については第9図を参照して後述す
る。
Step 500 is an audio output process in which the words held in the audio information buffer 101 are read out. Details of this audio output processing 500 will be described later with reference to FIG.

操作手順としては、最初に処理コマンド「入力」を選択
し、ステップ400で単語を入力する(具体的には、見
出し語1品詞1発音文字列、アクセント位置を入力する
)。単語の入力が終わったなら、キーボード4の実行キ
ーを押して前記ステップ1503に戻り、処理コマンド
「確認」を選択し、入力した単語がステップ500で読
み上げられるのを聞いて、正しいか否かを確認する。こ
の「入力」と「確認」の作業は、作業者が納得のいくま
で何度でも繰り返し行うことができるので、単語の正確
な音声情報を容易に作成できる。
As for the operating procedure, first select the processing command "input" and input a word in step 400 (specifically, input a headword, 1 part of speech, 1 pronunciation character string, and an accent position). When the input of the word is finished, press the execution key on the keyboard 4 to return to step 1503, select the processing command "Confirm", and listen to the input word being read out in step 500 to confirm whether it is correct or not. do. This "input" and "confirmation" work can be repeated as many times as the operator is satisfied, making it easy to create accurate speech information for words.

「入力」と「確認」の繰り返しにより、正確な音声情報
か作成できたなら、前記ステップ1503で処理コマン
ド「完了」を選択し、ステップ550に進む。
If accurate voice information has been created by repeating "input" and "confirmation", the processing command "complete" is selected in step 1503, and the process proceeds to step 550.

ステップ550では、音声情報バッファ101中のデー
タに抜けがないかをチエツクし、そのデータを音声辞書
ファイル2に格納する。そして、前記ステップ12に戻
る。もし、音声情報バッファ101のデータに抜けがあ
ったら、その旨のエラーメツセージを出力して前記ステ
ップ1503に戻る。
In step 550, it is checked whether there are any omissions in the data in the voice information buffer 101, and the data is stored in the voice dictionary file 2. Then, the process returns to step 12. If there is any data missing in the audio information buffer 101, an error message to that effect is output and the process returns to step 1503.

(登録)を中断したいときは、前記ステップ1503で
処理コマンド「取消」を選択する。
If the user wishes to interrupt (registration), the process command "cancel" is selected in step 1503.

さて、音声辞書ファイル2に登録しである単語を修正し
たいときは、前記ステップ12で(修正)を選択する。
Now, if you want to modify a word registered in the speech dictionary file 2, select (Modify) in step 12 above.

(修正)200のステップ2001では、修正する単語
の指定を行う。
(Modification) In step 2001 of 200, a word to be corrected is specified.

ステップ450では、指定の単語の音声情報を音声辞書
ファイル2から検索する。
In step 450, the audio dictionary file 2 is searched for audio information of the specified word.

ステップ2003では、検索した音声情報を第10図に
示す如き音声情報確認・入力画面に表示する。
In step 2003, the retrieved voice information is displayed on a voice information confirmation/input screen as shown in FIG.

以下のステップ2004,2005,20062007
.400,500,550は、前記ステップ1503,
1504,1505,1506゜400.500,55
0とそれぞれ同じであり、説明を省略する。。
Steps below 2004, 2005, 2006 2007
.. 400, 500, 550 are the steps 1503,
1504,1505,1506゜400.500,55
0 and the explanation thereof will be omitted. .

ここでも修正のための1入力」と1確認」の作業を何度
でも繰り返し行うことが出来るので、音声情報を容易に
修正できる。
Here too, the process of ``1 input for correction and 1 confirmation'' can be repeated as many times as necessary, so the audio information can be easily corrected.

次に、音声辞書ファイル2に登録しである単語を削除し
たいときは、前記ステップ12で(削除)を選択する。
Next, if you want to delete a word registered in the speech dictionary file 2, select (Delete) in step 12 above.

(削除)250のステップ2501では、削除する単語
の指定を行う。
(Deletion) In step 2501 of 250, a word to be deleted is specified.

ステップ450では、指定の単語の音声情報を音声辞書
ファイル2から検索する。
In step 450, the audio dictionary file 2 is searched for audio information of the specified word.

ステップ2003では、検索した音声情報を第10図に
示す如き音声情報確認・入力画面に表示する。
In step 2003, the retrieved voice information is displayed on a voice information confirmation/input screen as shown in FIG.

ステップ2504では、処理コマンド入力可能状態にな
る。そこで、音声情報確認・入力画面に表示された音声
情報を確認し、削除を実行する場合は「実行」を選択し
、削除を実行しない場合は「取消」を選択する。
In step 2504, a state is entered in which processing commands can be input. Therefore, check the voice information displayed on the voice information confirmation/input screen, and select "Execute" if you want to delete it, or select "Cancel" if you do not want to delete it.

ステップ2505では、入力された処理コマンドが「取
消」か否かをチエツクする。「取消」なら、前記ステッ
プ12に戻る。「取消Jでないなら、ステップ5501
へ進む。
In step 2505, it is checked whether the input processing command is "cancel". If "cancel", return to step 12 above. “If not cancel J, step 5501
Proceed to.

ステップ5501では、指定の単語を音声辞書ファイル
2から削除する。そして、前記ステップ12に戻る。
In step 5501, the specified word is deleted from the speech dictionary file 2. Then, the process returns to step 12.

次に、音声辞書ファイル2の内容を印刷するときは、前
記ステップ12で(印刷)を選択する。
Next, when printing the contents of the speech dictionary file 2, select (Print) in step 12 above.

(印刷)600のステップ601では、音声辞書ファイ
ル2に登録されている単語の音声情報を一覧表としてプ
リンタ7に出力する。そして、前記ステップ12に戻る
(Print) In step 601 of 600, the audio information of the words registered in the audio dictionary file 2 is outputted to the printer 7 as a list. Then, the process returns to step 12.

次に、音声辞書ファイル2の内容を読み上げさせるとき
は、前記ステップ12で(読み上げ)を選択する。
Next, when the content of the audio dictionary file 2 is to be read aloud, (read aloud) is selected in step 12 above.

(読み上げ)300のステップ3001では、読み始め
単語の指定を行う。
In step 3001 of (reading) 300, a word to start reading is specified.

ステップ3002では、音声合成装置5の読み上げモー
ドを指定する。読み上げモードにより発声ピッチ7高低
等が異なる。
In step 3002, the reading mode of the speech synthesis device 5 is designated. The utterance pitch 7, pitch, etc., differs depending on the reading mode.

ステップ450では、音声辞書ファイル2を検索し、前
記指定した読み始め単語の音声情報を取り出す。
In step 450, the speech dictionary file 2 is searched to extract the speech information of the specified reading start word.

ステップ500では、前記取り出した音声情報により読
み上げる。
In step 500, the extracted audio information is read aloud.

ステップ3005では、読み上げを中断させる割込みキ
ーが操作されたか判定する。割込みキーか操作されたな
ら、読み上げを中断して、前記ステップ12に戻る。割
込みキーか操作されてないなら、ステップ3006に進
む。
In step 3005, it is determined whether an interrupt key for interrupting the reading has been operated. If the interrupt key is operated, the reading is interrupted and the process returns to step 12. If the interrupt key has not been operated, the process advances to step 3006.

ステップ3006では、音声辞書ファイル2の最後まで
読み上げたかを判定する。最後まで読み上げたなら、前
記ステップ12に戻る。最後まで読み上げてないなら、
前記ステップ450に戻り、次の単語の音声情報を検索
する。
In step 3006, it is determined whether speech dictionary file 2 has been read to the end. When the end is read out, the process returns to step 12. If you haven't read it all the way to the end,
Returning to step 450, the phonetic information of the next word is searched.

この(読み上げ)により、音声辞書ファイル2の内容の
一括確認を行なうことが出来る。
By this (reading out), the contents of the voice dictionary file 2 can be checked all at once.

所望の編集処理を終えたなら、ステップ12で(終了)
を選択する。これにより音声辞書ファイル20編集処理
が終了する。
After completing the desired editing process, proceed to step 12 (finish).
Select. This completes the speech dictionary file 20 editing process.

第4図は、第3図に示す音声情報入力・表示処理400
の詳細な流れ図である。
FIG. 4 shows the audio information input/display processing 400 shown in FIG.
This is a detailed flowchart.

ステップ4001では、入力する項目の選択を行う。前
述のように、入力する項目には(見出し語)と、(品詞
)と、(発音文字列)と、(アクセント位置)とがある
In step 4001, items to be input are selected. As mentioned above, the items to be input include (headword), (part of speech), (pronunciation character string), and (accent position).

(見出し語)を選択すると、ステップ4002に進む。When (headword) is selected, the process advances to step 4002.

ステップ4002ては、見出し語を入力する。In step 4002, a headword is input.

(品詞)を選択すると、ステップ4003に進む。ステ
ップ4003では、ディスプレイ3の画面に別のウィン
ドウを開いて、入力可能な品詞の一覧を表示する。ステ
ップ4004では、−覧がら品詞を選択する。
If (part of speech) is selected, the process advances to step 4003. In step 4003, another window is opened on the screen of the display 3 to display a list of parts of speech that can be input. In step 4004, the part of speech is selected while looking.

(発音文字列)を選択すると、ステップ4005に進む
。ステップ4005では、発音文字列の表現形式等の入
力方法を簡単な例で説明する画面をディスプレイ3に表
示する。ステップ4006では、表示された説明に従っ
て発音文字列の入力を行う。ステップ41では、入力し
た発音文字列からモーラ数(拍数)のカウントを行なう
。このモーラ数カウント処理は、第5図を参照して後述
する。ステップ42では、特定音韻のチエツクを行なう
。この特定音韻チエツク処理は、第6図を参照して後述
する。
If (pronounced character string) is selected, the process advances to step 4005. In step 4005, a screen is displayed on the display 3 for explaining the input method of the expression format of the pronunciation character string, etc. using a simple example. In step 4006, a pronunciation character string is input according to the displayed explanation. In step 41, the number of moras (number of beats) is counted from the input phonetic character string. This mora number counting process will be described later with reference to FIG. In step 42, a specific phoneme is checked. This specific phoneme check process will be described later with reference to FIG.

(アクセント位置)を選択すると、ステップ4009に
進む。ステップ4009では、発音文字列が入力済みか
どうかのチエツクを行い、未入力のときはステップ40
14に進み、入力済のときはステップ43に進む。
If (accent position) is selected, the process advances to step 4009. In step 4009, a check is made to see if the pronunciation character string has been input, and if it has not been input, step 4009 is performed.
The process proceeds to step 14, and if the information has been input, the process proceeds to step 43.

ステップ4014では、発音文字列か未入力である旨の
エラーメツセージをディスプレイ3に表示する。
In step 4014, an error message indicating that the pronunciation character string has not been input is displayed on the display 3.

ステップ43では、アクセント位置をディスプレイ3上
に表示するために、発音文字列からアクセント表示用テ
ーブルを作成する。このアクセント表示用テーブルは、
発音文字列の各音節の終りの文字がその文字列の先頭側
から何番目かをテーブルにしたものである。アクセント
表示用テーブル作成処理については第7図を参照して後
述する。
In step 43, an accent display table is created from the pronunciation character string in order to display the accent position on the display 3. This accent display table is
This is a table showing the number of characters at the end of each syllable in a pronunciation string from the beginning of the string. The accent display table creation process will be described later with reference to FIG.

ステップ44では、発音文字列とアクセント表示用テー
ブルとを用いてディスプレイ3にアクセント位置を表示
する。このアクセント位置表示処理については第8図を
参照して後述する。
In step 44, the accent position is displayed on the display 3 using the pronunciation character string and the accent display table. This accent position display process will be described later with reference to FIG.

ステップ4012では、キーボード4がらの操作により
アクセント位置を左右に移動させることが出来る。
In step 4012, the accent position can be moved to the left or right by operating the keyboard 4.

ステップ4013では、(アクセント位置)の処理を終
了するための実行キーが操作されたかを判定する。実行
キーが操作されたなら、ステップ4015に進む。実行
キーが操作されてないなら、前記ステップ43に戻る。
In step 4013, it is determined whether the execution key for terminating the processing at (accent position) has been operated. If the execution key is operated, the process advances to step 4015. If the execution key has not been operated, the process returns to step 43.

そこで、先に移動させたアクセント位置がディスプレイ
3上に表示されることになる。
Therefore, the previously moved accent position will be displayed on the display 3.

ステップ4015では、音声情報を音声情報バッファ1
01内に作成する。第11図は、音声情報バッファ10
1内のデータ形式と、それに対応するアクセント表示用
テーブルと、アクセント位置表示例である。
In step 4015, the audio information is stored in the audio information buffer 1.
Create within 01. FIG. 11 shows the audio information buffer 10
1, the corresponding accent display table, and an example of accent position display.

ステップ4016では、その音声情報をディスプレイ3
上に表示する。
In step 4016, the audio information is displayed on the display 3.
Display above.

第5図は、第4図に示すモーラ数カウント処理41の詳
細な流れ図である。
FIG. 5 is a detailed flowchart of the mora number counting process 41 shown in FIG.

ステップ4101では、モーラ数の初期値を○とする。In step 4101, the initial value of the mora number is set to ○.

ステップ4102では、発音文字列の先頭文字を指すよ
うにポインタを設定する。
In step 4102, a pointer is set to point to the first character of the phonetic character string.

ステップ4103では、ポインタの指すところか発音文
字列の最後の文字を過ぎたか判定する。
In step 4103, it is determined whether the pointer has passed the last character of the pronunciation character string.

ポインタの指すところが発音文字列の最後の文字を過ぎ
たなら、モーラ数カウント処理41を終了する。ポイン
タの指すところか発音文字列の最後の文字を過ぎてない
なら、ステップ4104に進む。
When the pointer has passed the last character of the phonetic character string, the mora number counting process 41 is ended. If the pointer has not passed the last character of the phonetic character string, the process advances to step 4104.

ステップ4104では、ポインタの指す文字について特
殊文字テーブル■102との間でマツチングを行う。こ
こで特殊文字とは、濁点、半濁点。
In step 4104, the character pointed to by the pointer is matched with the special character table 102. The special characters here are dakuten and handakuten.

拗音の“ヤ 、    1  ヨ 、無声化母音を表す
“〉”記号、二重母音や長音を表す“#”記号などであ
る。ポインタの指す文字と特殊文字テーブル■102中
の文字とが一致したら、ステップ4106に進む。ポイ
ンタの指す文字と特殊文字テーブル■102中の文字と
が不一致なら、ステップ4105に進む。
These include the ``ya'' and ``1 yo'' symbols for persistent sounds, the ">" symbol for devoiced vowels, and the "#" symbol for diphthongs and long sounds.If the character pointed to by the pointer matches the character in the special character table ■102, The process advances to step 4106. If the character pointed to by the pointer and the character in the special character table 102 do not match, the process advances to step 4105.

ステップ4105では、モーラ数を1つカウントアツプ
する。
In step 4105, the number of moras is counted up by one.

ステップ41o6では、ポインタを1文字進め、前記ス
テップ4103に戻る。
In step 41o6, the pointer is advanced by one character and the process returns to step 4103.

第6図は、第4図に示す特定音韻チエツク処理42の詳
細な流れ図である。
FIG. 6 is a detailed flowchart of the specific phoneme check process 42 shown in FIG.

ステップ4201では、特定音韻フラグの初期値をOと
する。
In step 4201, the initial value of the specific phoneme flag is set to O.

ステップ4202では、発音文字列の先頭文字を指すよ
うにポインタを設定する。
In step 4202, a pointer is set to point to the first character of the phonetic character string.

ステップ4203では、ポインタの指すところが発音文
字列の最後の文字を過ぎたが判定する。
In step 4203, it is determined whether the pointer has passed the last character of the phonetic character string.

ポインタの指すところが発音文字列の最後の文字を過ぎ
たなら、特定音韻チエツク処理42を終了する。ポイン
タの指すところが発音文字列の最後の文字を過ぎてない
なら、ステップ42o4に進む。
When the pointer has passed the last character of the phonetic character string, the specific phoneme check process 42 is terminated. If the pointer has not passed the last character of the phonetic character string, the process proceeds to step 42o4.

ステップ4204では、ポインタの指す文字について、
特殊文字テーブル■103との間でマツチングを行う。
In step 4204, regarding the character pointed to by the pointer,
Matching is performed with the special character table ■103.

ここでの特殊文字とは、音声合成時にアクセント位置の
移動などの特殊な処理を必要とする文字のことであり、
促音の“ン”、撥音の“ツ” 無声化母音を表す“〉”
記号、二重母音や長音を表す“#”記号である。ポイン
タの指す文字と特殊文字テーブル■103中の文字とか
一致したら、ステップ4205に進む。不一致なら、ス
テップ4206に進む。
Special characters here are characters that require special processing such as moving the accent position during speech synthesis.
“n” for consonant, “tsu” for consonant “〉” for devoiced vowel
It is the "#" symbol that represents a symbol, a diphthong, or a long sound. If the character pointed to by the pointer matches a character in the special character table 103, the process advances to step 4205. If they do not match, the process advances to step 4206.

ステップ4205では、特定音韻フラグを1にする。そ
して、特定音韻チエ・ツク処理42を終了する。
In step 4205, the specific phoneme flag is set to 1. Then, the specific phoneme check process 42 ends.

ステップ4206では、ポインタを1文字進め、前記ス
テップ4203に戻る。
In step 4206, the pointer is advanced by one character and the process returns to step 4203.

第7図は、第4図に示すアクセント表示用テブル作成処
理43の詳細な流れ図である。
FIG. 7 is a detailed flowchart of the accent display table creation process 43 shown in FIG.

ステップ4301では、アクセント位置表示用テーブル
の各エントリに初期値としてOを設定する。
In step 4301, O is set as an initial value in each entry of the accent position display table.

ステップ4302では、テーブルカウンタi=1とする
。テーブルカウンタiは、アクセント位置表示用テーブ
ルの各エントリを指標するもので、例えばテーブルカウ
ンタi−0は先頭のエントリを指標する。
In step 4302, table counter i=1. The table counter i indexes each entry in the accent position display table; for example, the table counter i-0 indexes the first entry.

ステップ4303では、発音文字列の先頭文字を指すよ
うにポインタを設定する。
In step 4303, a pointer is set to point to the first character of the phonetic character string.

ステップ4304では、ポインタの指すところが発音文
字列の最後の文字を過ぎたか判定する。
In step 4304, it is determined whether the pointer has passed the last character of the phonetic character string.

ポインタの指すところが発音文字列の最後の文字を過ぎ
たなら、ステップ4310に進む。ポインタの指すとこ
ろが対象発音文字列の最後の文字を過ぎてないなら、ス
テップ4305に進む。
If the pointer has passed the last character of the phonetic character string, the process advances to step 4310. If the pointer has not passed the last character of the target pronunciation character string, the process advances to step 4305.

ステップ4305では、ポインタの指す文字について特
殊文字テーブル■102との間でマツチングを行う。こ
こで特殊文字とは、濁点、半濁点。
In step 4305, the character pointed to by the pointer is matched with the special character table 102. The special characters here are dakuten and handakuten.

拗音の“ヤ 、   、  ヨ 7無声化母音を表す“
〉”記号、二重母音や長音を表す“#”記号なとである
。ポインタの指す文字と特殊文字テーブル■102中の
文字とが一致したら、ステップ4307に進む。ポイン
タの指す文字と特殊文字テーブル■102中の文字とが
不一致なら、ステップ4306に進む。
``Ya, , yo'' in the sul sound represents the 7 devoiced vowels.
〉" symbol, "#" symbol representing a diphthong or long sound. If the character pointed to by the pointer matches a character in the special character table ■102, proceed to step 4307. The character pointed to by the pointer and the special character table (2) If the characters in 102 do not match, the process advances to step 4306.

ステップ4306では、テーブルカウンタiを1増やす
In step 4306, table counter i is incremented by 1.

ステップ4307では、テーブルカウンタiで指標され
るエントリT[1]の内容を1増やす。
In step 4307, the contents of entry T[1] indexed by table counter i are incremented by 1.

ステップ4308では、エントリT [i]の内容をエ
ントリT [i+1]の内容とする。
In step 4308, the contents of entry T [i] are set to the contents of entry T [i+1].

ステップ4309では、ポインタを1文字進め、前記ス
テップ4304に戻る。
In step 4309, the pointer is advanced by one character and the process returns to step 4304.

第8図は、第4図に示すアクセント位置表示処理44の
詳細な流れ図である。
FIG. 8 is a detailed flowchart of the accent position display process 44 shown in FIG.

このアクセント位置表示処理44ての入力は、処理対象
発音文字列と、モーラ数と、アクセント位置と、アクセ
ント表示用テーブルである。出力は、アクセントの種類
にあった画面表示である。
Inputs to this accent position display processing 44 are a pronunciation character string to be processed, the number of moras, an accent position, and an accent display table. The output is a screen display that matches the type of accent.

ステップ4401では、アクセント位置かOか判定し、
0でないならステップ4402へ進む。
In step 4401, it is determined whether the accent position is O,
If it is not 0, proceed to step 4402.

0ならステップ4403へ進む。If it is 0, proceed to step 4403.

ステップ4402では、モーラ数=アクセント位置か判
定し、モーラ数=アクセント位置ならステップ4404
へ進む。モーラ数=アクセント位置でないならステップ
4405へ進む。
In step 4402, it is determined whether the number of moras = accent position, and if the number of moras = accent position, step 4404
Proceed to. If the number of moras does not equal the accent position, the process advances to step 4405.

ステップ4403では、平板型アクセント表示を行なう
。アクセント表示を例えば下線と上線とで行なうとすれ
ば、発音文字列の中の2番目の音節の前までは下線を付
け、2番目の音節以後には上線を付ける。
In step 4403, flat accent display is performed. If the accent is to be displayed using an underline and an overline, for example, an underline is placed before the second syllable in the pronunciation character string, and an overline is placed after the second syllable.

ステップ4404では、頭高型アクセント表示を行なう
。例えば、発音文字列の中の2番目の音節の前までは上
線を付け、2番目の音節以後には下線を付ける。
In step 4404, a head-height accent is displayed. For example, an overline is placed before the second syllable in the pronunciation character string, and an underline is placed after the second syllable.

ステップ4405では、中高型アクセント表示を行なう
。例えば、発音文字列の中の2番目の音節の前までは下
線を付け、2番目の音節からアクセント位置(アクセン
トのある音節が発音文字列の音節の後から何番目かを示
す)の音節まで上線を付け、アクセント位置の音節以後
は下線を付ける。
In step 4405, medium-high accent display is performed. For example, the part before the second syllable in the pronunciation string is underlined, and the syllable from the second syllable to the accent position (indicating how many syllables the accented syllable is after the syllable in the pronunciation string) Add an overline, and underline the syllable after the accented syllable.

第9図は、第1図に示す音声出力処理500の詳細な流
れ図である。
FIG. 9 is a detailed flowchart of the audio output process 500 shown in FIG.

ステップ5001では、音声合成装置5の状態をチエツ
クする。
In step 5001, the state of the speech synthesizer 5 is checked.

ステップ5002では、音声合成装置5にエラーがある
か否かにより分岐する。エラーがあれば、ステップ50
08に進む。エラーかなければ、ステップ5o03に進
む。
In step 5002, the process branches depending on whether or not there is an error in the speech synthesis device 5. If there is an error, step 50
Proceed to 08. If there is no error, proceed to step 5o03.

ステップ5003では、音声合成装置5の読み上げパラ
メータを読み取って保存しておく。
In step 5003, reading parameters of the speech synthesis device 5 are read and saved.

ステップ5004では、単語読み上げ用の音声合成パラ
メータの設定を行う。
In step 5004, speech synthesis parameters for word reading are set.

ステップ5005では、音声情報バッファ101に格納
している発音文字列とモーラ数とアクセント位置の音声
情報を用いて、音声合成装置5へ送る単語読み上げ用テ
キストを作成する。
In step 5005, a word reading text to be sent to the speech synthesis device 5 is created using the pronunciation character string, mora number, and accent position speech information stored in the speech information buffer 101.

ステップ5006では、その単語読み上げ用テキストを
音声合成装置5へ送って、単語の読み上げを行う。
In step 5006, the word reading text is sent to the speech synthesis device 5, and the words are read out.

ステップ5007では、前記ステップ5003で保存し
ておいた読み上げパラメータを再設定する。そして、音
声出力処理500を終了する。
In step 5007, the reading parameters saved in step 5003 are reset. Then, the audio output processing 500 ends.

一方、ステップ5008では、エラーメツセージをディ
スプレイ3に表示する。
On the other hand, in step 5008, an error message is displayed on the display 3.

ステップ5009では、音声合成装置5のリセットを行
い、音声出力処理を終了する。
In step 5009, the voice synthesis device 5 is reset, and the voice output process is ended.

次に、第12図および第13図を参照して本発明の第2
実施例を説明する。
Next, referring to FIGS. 12 and 13, the second embodiment of the present invention will be described.
An example will be explained.

第12図は、音声入力可能な音声辞書編集装置10CI
のブロック図である。
FIG. 12 shows a voice dictionary editing device 10CI capable of voice input.
FIG.

91は音声入力装置、92はマイクである。その他の構
成要素は第1図に示す同じ参照符号の構成要素と同じで
ある。
91 is an audio input device, and 92 is a microphone. Other components are the same as those shown in FIG. 1 with the same reference numerals.

第13図は、第12図の音声辞書編集装置1003の作
動の要部の流れ図である。
FIG. 13 is a flowchart of the main part of the operation of the speech dictionary editing device 1003 of FIG. 12.

ステップ4017では、音声情報バッファ101に格納
されている音声情報を表示する。
In step 4017, the audio information stored in the audio information buffer 101 is displayed.

ステップ4018では、表示されている単語の読みをマ
イク92および音声入力装置91を用いて入力する。こ
の音声入力により発音文字列を作成し、アクセント位置
を決定する。
In step 4018, the pronunciation of the displayed word is input using the microphone 92 and the voice input device 91. Using this voice input, a pronunciation character string is created and the accent position is determined.

ステップ41では、発音文字列からモーラ数をカウント
する。この処理は第5図を参照して先に説明したもので
ある。
In step 41, the number of moras is counted from the phonetic character string. This process was previously described with reference to FIG.

ステップ42では、特定音韻をチエツクする。In step 42, a specific phoneme is checked.

この処理は第6図を参照して先に説明したものである。This process was previously described with reference to FIG.

ステップ4017では、得られた音声情報を表示する。In step 4017, the obtained audio information is displayed.

このように、発音文字列やアクセント位置を音声入力す
るので、使用者と同じ発音をする音声辞書を編集できる
In this way, since the pronunciation character strings and accent positions are input by voice, it is possible to edit a voice dictionary that has the same pronunciation as the user.

次に、第14図および第15図を参照して本発明の第3
実施例を説明する。
Next, referring to FIGS. 14 and 15, the third embodiment of the present invention will be described.
An example will be explained.

第14図は、音声辞書の編集作業を支援するための日本
語文章読み上げ装置1001のブロック図である。
FIG. 14 is a block diagram of a Japanese sentence reading device 1001 for supporting the editing work of a speech dictionary.

この日本語文章読み上げ装置1001は、システムがか
な漢字変換などに利用している漢字見出しとそれに対応
する読みがなとを持つかな漢字辞書8と1文章読み上げ
部702と、辞書更新部80と、読み上げた文章を格納
しておくための入力文バッファ701と、音声情報が登
録されている音声辞書ファイル2と、ディスプレイ3と
、キーボード4と、音声出力部50と、音声合成装置5
と、スピーカ6とから構成されている。なお、第1図と
同じ参照番号のものは同じ構成要素である。
This Japanese text reading device 1001 includes a kana-kanji dictionary 8 that has kanji headings and corresponding readings that the system uses for kana-kanji conversion, a one-sentence reading section 702, a dictionary updating section 80, and a dictionary update section 80. An input sentence buffer 701 for storing sentences, a speech dictionary file 2 in which speech information is registered, a display 3, a keyboard 4, a speech output section 50, and a speech synthesis device 5.
and a speaker 6. Note that the same reference numbers as in FIG. 1 are the same components.

第15図は、第14図の日本語文章読み上げ装置100
1の作動を示す流れ図である。
FIG. 15 shows the Japanese text reading device 100 shown in FIG.
1 is a flowchart showing the operation of FIG.

ステップ13では、作業者かキーボード4を操作して、
(文章読み上げ)、(辞書更新)、(終了)のいずれか
の機能を選択する。
In step 13, the operator or the keyboard 4 is operated to
Select one of the following functions: (Text reading), (Dictionary update), (Exit).

文章を読み上げるときは、(文章読み上げ)を選択する
To read the text aloud, select (Sentence reading).

(文章読み上げ)700のステップ7001では、読み
上げたい文章をキーボード4から入力し、入力文バッフ
ァ701に格納する。
(Text reading) In step 7001 of 700, a sentence to be read out is input from the keyboard 4 and stored in the input sentence buffer 701.

ステップ7002では、入力文バッファ701内の文章
を取り出し、音声辞書ファイル2の音声情報を用いて音
声合成処理を行ない、音声合成装置5を通してスピーカ
6から音声出力する。
In step 7002, a sentence in the input sentence buffer 701 is extracted, a voice synthesis process is performed using the voice information in the voice dictionary file 2, and the voice is output from the speaker 6 through the voice synthesizer 5.

ステップ7003では、前記ステップ7002で読み上
げエラーがなかったかをチエツクする。
In step 7003, it is checked whether there was a reading error in step 7002.

エラーかなければ、前記ステップ13に戻る。音声辞書
ファイル2に登録されていない単語か出現した場合はエ
ラーであり、ステップ7004に移行する。
If there is no error, return to step 13 above. If a word that is not registered in the speech dictionary file 2 appears, it is an error and the process moves to step 7004.

ステップ7004では、かな漢字辞書8を検索し、単語
の読みがなを取り出す。
In step 7004, the kana-kanji dictionary 8 is searched and the reading of the word is extracted.

ステップ7005では、取り出した読みかなから音声情
報を作成する。
In step 7005, audio information is created from the extracted kana reading.

ステップ550では、音声辞書ファイル2に登録する。In step 550, it is registered in the speech dictionary file 2.

そして、前記ステップ13に戻る。Then, the process returns to step 13.

読み上げた文章の読みやアクセントに誤りがあった場合
は、前記ステップ13で(辞書更新)を選択する。
If there is an error in the pronunciation or accent of the read sentence, select (Update dictionary) in step 13 above.

(辞書更新)800のステップ8001では、入力文中
の修正したい単語を指定する。
(Dictionary update) In step 8001 of 800, the word to be corrected in the input sentence is specified.

ステップ450では、音声辞書ファイル2を検索し、前
記指定した単語の音声情報を取り出す。
In step 450, the speech dictionary file 2 is searched and the speech information of the specified word is extracted.

ステップ8002では、取り出した音声情報をディスプ
レイ3に表示する。
In step 8002, the extracted audio information is displayed on the display 3.

ステップ400では、作業者が音声情報を修正する。In step 400, the operator modifies the audio information.

ステップ550では、修正した音声情報を音声辞書ファ
イル2に登録する。
In step 550, the corrected voice information is registered in the voice dictionary file 2.

ステップ8005では、入力文バッファ701に文章が
格納されているかチエツクする。格納されていなければ
、前記ステップ13に戻る。格納されていたら、ステッ
プ8006に進む。
In step 8005, it is checked whether a sentence is stored in the input sentence buffer 701. If it is not stored, the process returns to step 13 above. If it has been stored, the process advances to step 8006.

ステップ8006では、文章を読み上げ、修正した単語
の音声情報を確認させる。そして、前記ステップ13に
戻る。
In step 8006, the sentence is read aloud and the user is asked to confirm the audio information of the corrected word. Then, the process returns to step 13.

この日本語文章読み上げ装置1001では、音声辞書フ
ァイル2に登録されていない単語の読みをかな漢字辞書
8から自動作成することか出来る。
This Japanese text reading device 1001 can automatically create pronunciations of words that are not registered in the audio dictionary file 2 from the kana-kanji dictionary 8.

すなわち、文章中に音声辞書に登録されていない単語が
あっても、かな漢字辞書を参照することにより中断する
ことなく文章を読み上げることが出来る。また、入力さ
れた文章を入力文バッファ701に格納しておき、その
文章中の単語を指定して修正するので、修正か容易であ
る。
That is, even if there are words in a sentence that are not registered in the speech dictionary, the sentence can be read aloud without interruption by referring to the kana-kanji dictionary. Further, since the input sentence is stored in the input sentence buffer 701 and the words in the sentence are specified and corrected, correction is easy.

次に、第16図および第17図を参照して本発明の第4
実施例を説明する。
Next, referring to FIGS. 16 and 17, the fourth embodiment of the present invention will be described.
An example will be explained.

第16図は、外国人向は日本語発音学習装置1002の
ブロック図である。
FIG. 16 is a block diagram of a Japanese pronunciation learning device 1002 for foreigners.

この外国人向は日本語発音学習装置1002は、音声情
報が登録されている音声辞書ファイル2とディスプレイ
3と、キーボード4と、音声情報入力・表示部40と、
音声出力制御部50と、音声合成装置5と、スピーカ6
と、音声情報ノ1ソファ101と、特殊文字テーブル■
102と、特殊文字テーブル■103とから構成されて
いる。なお、第1図と同じ参照番号のものは同し構成要
素である。
This Japanese pronunciation learning device 1002 for foreigners includes a voice dictionary file 2 in which voice information is registered, a display 3, a keyboard 4, a voice information input/display section 40,
Audio output control section 50, speech synthesis device 5, and speaker 6
, audio information No. 1 sofa 101, and special character table ■
102, and a special character table 103. Note that the same reference numbers as in FIG. 1 indicate the same components.

第17図は、第16図の外国人向は日本語発音学習装置
1002の作動を示す流れ図である。
FIG. 17 is a flowchart showing the operation of the Japanese pronunciation learning device 1002 for foreigners shown in FIG. 16.

学習者は、音声辞書ファイル2に登録されている単語の
中から自分か知りたい単語を選択し、その単語を読み上
げさせて、読みやアクセントの確認を行なう。また、そ
の単語の音声情報を表示し、必要に応して変更する。読
みやアクセント位置を自由に変更して読み上げさせるこ
とにより、その違いを容易に確認できるので、高い学習
効果を得られる。
The learner selects a word that he/she wants to know from among the words registered in the speech dictionary file 2, has the word read aloud, and confirms the pronunciation and accent. Also, the phonetic information of the word is displayed and can be changed if necessary. By having students read out loud by freely changing the pronunciation and accent position, the differences can be easily confirmed, resulting in a high learning effect.

さらに他の実施例としては、国語辞典やアクセント辞典
に載っている形式で音声情報を入力する手段と、それを
第11図に示す形式に変換する手段とを備えた音声辞書
編集装置が挙げられる。この装置では、国語辞典やアク
セント辞典の内容をそのまま入力できるので、入力作業
か容易となる。
Still another example is a speech dictionary editing device that includes means for inputting speech information in a format listed in a Japanese language dictionary or an accent dictionary, and means for converting it into the format shown in FIG. . With this device, the contents of a Japanese dictionary or an accent dictionary can be input as is, making the input process easier.

[発明の効果] 本発明によれば、音声辞書の編集時に単語を音声合成装
置を用いて読み上げると共にその音声情報を表示するの
で、音声辞書の編集作業(データの入力、確認作業)を
、数値データではなく、耳や目を用いて直接的に即座に
確認しつつ行えるようになる。そこで、能率良く、確実
に編集を行なえるようになる。また、音声の専門家以外
の作業者でも容易に音声辞書の編集を行うことが出来る
ようになる。
[Effects of the Invention] According to the present invention, when editing a speech dictionary, words are read aloud using a speech synthesis device and the speech information is displayed. It will be possible to check directly and immediately using ears and eyes rather than data. Therefore, editing can be done efficiently and reliably. Furthermore, even operators other than audio experts can easily edit the audio dictionary.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の第1実施例の音声辞書編集装置のブロ
ック図、第2図は第1図の装置の機能ブロック図、第3
図は第1図の装置の作動の流れ図、第4図は音声情報入
力・表示処理の流れ図、第5図はモーラ数カウント処理
の流れ図、第6図は特定音韻チエツク処理の流れ図、第
7図はアクセント表示用テーブル作成処理の流れ図、第
8図はアクセント位置表示処理の流れ図、第9図は音声
出力処理の流れ図、第10図は音声情報入力・表示画面
の例示図、第11図は音声情報バッファ内のデータとそ
れに対応するアクセント表示用テーブルとアクセント位
置表示例の説明図、第12図は本発明の第2実施例の音
声辞書編集装置のブロック図、第13図は第12図の装
置の作動の要部流れ図、第14図は本発明の第3実施例
の日本語文章読み上げ装置のブロック図、第15図は第
14図の装置の作動の要部流れ図、第16図は本発明の
第4実施例の外国人向は日本語発音学習装置のブロック
図、第17図は第16図の装置の作動の要部流れ図であ
る。 (符号の説明) 1000・・・音声辞書編集装置 2・・・音声辞書ファイル 5・・・音声合成装置 10・・・主制御部 40・・音声情報入力・表示部 50・・音声出力部 1003・・音声辞書編集装置 1001・・・日本語文章読み上げ装置1002・・・
外国人向は日本語発音学習装置。
FIG. 1 is a block diagram of a speech dictionary editing device according to a first embodiment of the present invention, FIG. 2 is a functional block diagram of the device shown in FIG. 1, and FIG.
The figure is a flowchart of the operation of the device in Figure 1, Figure 4 is a flowchart of speech information input/display processing, Figure 5 is a flowchart of mora count processing, Figure 6 is a flowchart of specific phoneme check processing, and Figure 7 is a flowchart of the accent display table creation process, Figure 8 is a flowchart of the accent position display process, Figure 9 is a flowchart of the voice output process, Figure 10 is an example of the voice information input/display screen, and Figure 11 is the voice An explanatory diagram of the data in the information buffer and the corresponding accent display table and accent position display example, FIG. 12 is a block diagram of the speech dictionary editing device according to the second embodiment of the present invention, and FIG. 13 is the same as that of FIG. FIG. 14 is a block diagram of the Japanese text reading device according to the third embodiment of the present invention; FIG. 15 is a flowchart of the main parts of the operation of the device shown in FIG. 14; FIG. The fourth embodiment of the invention for foreigners is a block diagram of a Japanese pronunciation learning device, and FIG. 17 is a flowchart of essential parts of the operation of the device shown in FIG. 16. (Explanation of symbols) 1000...Speech dictionary editing device 2...Speech dictionary file 5...Speech synthesis device 10...Main control section 40...Speech information input/display section 50...Sound output section 1003 ...Voice dictionary editing device 1001...Japanese sentence reading device 1002...
For foreigners, this is a Japanese pronunciation learning device.

Claims (1)

【特許請求の範囲】 1、日本語の単語を音声合成装置を用いて発音するため
の音声情報を集めた音声辞書の編集方法であって、単語
の音声情報を入力する単語音声情報入力ステップと、入
力した音声情報により音声合成装置を用いて単語を読み
上げる単語読み上げステップと、アクセントの位置が分
かる形態で単語の読み文字列をディスプレイに表示する
単語アクセント位置表示ステップと、前記各ステップを
繰り返して所望の音声情報を作成する繰り返しステップ
と、作成した音声情報を音声辞書に登録する登録ステッ
プとを有することを特徴とする音声辞書編集方法。 2、単語音声情報入力ステップが、音声入力から音声情
報を抽出するものである請求項1の音声辞書編集方法。 3、日本語の単語を音声合成装置を用いて発音するため
の音声情報を集めた音声辞書の編集方法であって、音声
辞書中の単語を指定する単語指定ステップと、指定した
単語の音声情報を音声辞書から得て音声合成装置を用い
て読み上げる単語読み上げステップと、アクセントの位
置が分かる形態で単語の読み文字列をディスプレイに表
示する単語アクセント位置表示ステップと、音声情報を
修正する音声情報修正ステップと、修正した音声情報を
音声辞書に登録する登録ステップとを有することを特徴
とする音声辞書編集方法。 4、音声辞書中の所望の範囲を指定する範囲指定ステッ
プと、前記指定範囲の単語を順に取り出して指定された
単語とする単語取り出しステップとをさらに有する請求
項3の音声辞書編集方法。 5、日本語の単語の音声情報を入力する単語音声情報入
力手段と、入力された音声情報に基づいて音声合成装置
により単語を読み上げる単語読み上げ手段と、入力され
た音声情報に基づいてアクセントの位置が分かる形態で
単語の読み文字列をディスプレイに表示する単語アクセ
ント位置表示手段と、入力された音声情報を音声辞書に
登録する音声辞書登録手段とを具備したことを特徴とす
る音声辞書編集装置。 6、単語音声情報入力手段が、音声入力装置と、音声入
力から音声情報を抽出する音声情報抽出手段からなる請
求項5の音声辞書編集装置。 7、単語音声情報入力手段が、所定の記述形式で表現さ
れた単語の音声情報を入力する入力手段と、所定の記述
形式で表現された単語の音声情報を音声辞書の形式に変
換する音声情報形式変換手段からなる請求項5の音声辞
書編集装置。 8、音声辞書中の単語を指定する単語指定手段と、指定
した単語の音声情報を音声辞書から得て音声合成装置を
用いて読み上げる単語読み上げ手段と、アクセントの位
置が分かる形態で単語の読み文字列をディスプレイに表
示する単語アクセント位置表示手段と、音声情報を修正
する音声情報修正手段と、修正した音声情報を音声辞書
に登録する登録手段とを具備したことを特徴とする音声
辞書編集装置。 9、音声辞書中の所望の範囲を指定する範囲指定手段と
、前記指定範囲の単語を順に取り出して指定された単語
とする単語取り出し手段とをさらに具備してなる請求項
8の音声辞書編集装置。 10、音声合成装置を用いて日本語の単語を発音するた
めの音声情報を集めた音声辞書の編集装置であって、日
本語の文章を入力する文章入力手段と、入力された文章
を読み上げる文章読み上げ手段と、入力した文章中の単
語を指定する単語指定手段と、指定された単語の音声情
報をディスプレイに表示する音声情報表示手段と、音声
情報を修正する音声情報修正手段と、修正された音声情
報を音声辞書に登録する登録手段とを具備したことを特
徴とする音声辞書編集装置。 11、音声合成装置を用いて日本語の単語を発音するた
めの音声情報を集めた音声辞書の編集装置であって、か
な漢字変換辞書と、日本語の文章を入力する文章入力手
段と、音声辞書にない単語が文章中に出現した場合にか
な漢字変換辞書を用いてその単語の読みがなを検索する
読みがな検索手段と、検索した読みがなに基づいて音声
情報を作成する音声情報作成手段と、作成した音声情報
を音声辞書に登録する登録手段とを具備したことを特徴
とする音声辞書編集装置。
[Claims] 1. A method for editing a speech dictionary that collects speech information for pronouncing Japanese words using a speech synthesis device, comprising: a word speech information input step of inputting speech information of words; , a word reading step of reading out the word using a speech synthesizer based on the input voice information, a word accent position display step of displaying the word pronunciation string on a display in a form that allows the accent position to be identified, and repeating each of the above steps. 1. A speech dictionary editing method comprising the steps of repeatedly creating desired speech information and registering the created speech information in a speech dictionary. 2. The speech dictionary editing method according to claim 1, wherein the word speech information input step extracts speech information from the speech input. 3. A method for editing a speech dictionary that collects speech information for pronouncing Japanese words using a speech synthesis device, comprising a word specification step of specifying a word in the speech dictionary, and speech information of the specified word. a word reading step in which the words are obtained from a speech dictionary and read out using a speech synthesizer, a word accent position display step in which the word pronunciation string is displayed on a display in a form that shows the accent position, and a voice information correction step in which the voice information is corrected. and a registration step of registering the corrected audio information in the audio dictionary. 4. The speech dictionary editing method according to claim 3, further comprising: a range specifying step of specifying a desired range in the speech dictionary; and a word extracting step of sequentially extracting words in the specified range as designated words. 5. A word voice information input means for inputting voice information of Japanese words, a word reading means for reading out words by a speech synthesizer based on the input voice information, and an accent position based on the input voice information. What is claimed is: 1. A speech dictionary editing device comprising: word accent position display means for displaying the pronunciation of a word on a display in a form that allows the pronunciation of the word to be understood; and speech dictionary registration means for registering input speech information in a speech dictionary. 6. The speech dictionary editing device according to claim 5, wherein the word speech information input means comprises a speech input device and speech information extraction means for extracting speech information from the speech input. 7. The word audio information input means includes input means for inputting audio information of a word expressed in a predetermined description format, and audio information for converting the audio information of a word expressed in a predetermined description format into a speech dictionary format. 6. The speech dictionary editing device according to claim 5, comprising format conversion means. 8. A word specifying means for specifying a word in a speech dictionary; a word reading means for obtaining speech information of the specified word from the speech dictionary and reading it out using a speech synthesis device; and a word pronunciation means for obtaining the speech information of the specified word from the speech dictionary and reading it aloud using a speech synthesis device; A speech dictionary editing device comprising: word accent position display means for displaying columns on a display; speech information correction means for correcting speech information; and registration means for registering the modified speech information in a speech dictionary. 9. The speech dictionary editing device according to claim 8, further comprising: a range specifying means for specifying a desired range in the speech dictionary; and a word extracting means for sequentially extracting words in the specified range as designated words. . 10. A speech dictionary editing device that collects speech information for pronouncing Japanese words using a speech synthesis device, comprising a text input means for inputting Japanese sentences, and a text for reading out the input sentences. A reading means, a word specifying means for specifying a word in an input sentence, an audio information display means for displaying audio information of the specified word on a display, an audio information correcting means for modifying the audio information, A speech dictionary editing device comprising: registration means for registering speech information in a speech dictionary. 11. A speech dictionary editing device that collects speech information for pronouncing Japanese words using a speech synthesis device, which comprises a kana-kanji conversion dictionary, a text input means for inputting Japanese sentences, and a speech dictionary. A reading search means for searching for the reading of a word that does not appear in a sentence using a kana-kanji conversion dictionary, and a speech information creation means for creating speech information based on the searched reading. 1. A speech dictionary editing device comprising: and a registration means for registering the created speech information in a speech dictionary.
JP2106895A 1990-04-23 1990-04-23 Method and device for editing voice dictionary Pending JPH045696A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2106895A JPH045696A (en) 1990-04-23 1990-04-23 Method and device for editing voice dictionary

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2106895A JPH045696A (en) 1990-04-23 1990-04-23 Method and device for editing voice dictionary

Publications (1)

Publication Number Publication Date
JPH045696A true JPH045696A (en) 1992-01-09

Family

ID=14445209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2106895A Pending JPH045696A (en) 1990-04-23 1990-04-23 Method and device for editing voice dictionary

Country Status (1)

Country Link
JP (1) JPH045696A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004097792A1 (en) * 2003-04-28 2004-11-11 Fujitsu Limited Speech synthesizing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004097792A1 (en) * 2003-04-28 2004-11-11 Fujitsu Limited Speech synthesizing system
US7143038B2 (en) 2003-04-28 2006-11-28 Fujitsu Limited Speech synthesis system

Similar Documents

Publication Publication Date Title
US4831654A (en) Apparatus for making and editing dictionary entries in a text to speech conversion system
JP3142803B2 (en) A text-to-speech synthesizer
Carlson et al. A text-to-speech system based entirely on rules
US10650089B1 (en) Sentence parsing correction system
JP3483230B2 (en) Utterance information creation device
JP2010169973A (en) System and program for supporting foreign language learning
JPH045696A (en) Method and device for editing voice dictionary
JP6197523B2 (en) Speech synthesizer, language dictionary correction method, and language dictionary correction computer program
JP3589972B2 (en) Speech synthesizer
JP2580565B2 (en) Voice information dictionary creation device
JPH03245192A (en) Method for determining pronunciation of foreign language word
JP3414326B2 (en) Speech synthesis dictionary registration apparatus and method
JPH07210185A (en) Reading information preparing device and reading device
JP2003202886A (en) Device, method, and program for text input processing
JP4305515B2 (en) Audio output device and audio output program
JP2966954B2 (en) Document reading instruction device
JPH04177526A (en) Sentence reading-out device
JPH0319005Y2 (en)
JP2924089B2 (en) Japanese pronunciation training machine
JP2004287192A (en) Device and program for editing synthesized speech
JPH0282300A (en) Device for reading sentence aloud
JPH05960Y2 (en)
JPH04166899A (en) Text-voice conversion device
EP1149349A2 (en) Computerized translating apparatus
JPH04199421A (en) Document read-aloud device