JP2680643B2 - Character display method of rule synthesizer - Google Patents
Character display method of rule synthesizerInfo
- Publication number
- JP2680643B2 JP2680643B2 JP63292872A JP29287288A JP2680643B2 JP 2680643 B2 JP2680643 B2 JP 2680643B2 JP 63292872 A JP63292872 A JP 63292872A JP 29287288 A JP29287288 A JP 29287288A JP 2680643 B2 JP2680643 B2 JP 2680643B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- parameter
- voice
- display
- string
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Description
【発明の詳細な説明】 (イ)産業上の利用分野 本発明は計算機システムやワードプロセッサと接続し
て文字列入力から音声を生成する規則合成装置の文字表
示方法に関する。The present invention relates to a character display method of a rule synthesizing device which is connected to a computer system or a word processor to generate a voice from a character string input.
(ロ)従来の技術 従来、例えば特公昭62−23889号公報に示すように、
計算機により表示データ及び音声出力データを生成し、
表示装置により表示、音声出力装置により音声合成を行
い、さらに出力音声に対応する表示の状態を変化させて
表示データの確認を行い易くしていた。(B) Conventional Technology Conventionally, for example, as shown in Japanese Patent Publication No. 62-23889,
Display data and audio output data are generated by a computer,
It has been made easy to confirm the display data by performing display by the display device, voice synthesis by the voice output device, and changing the display state corresponding to the output voice.
しかしながら、この様な従来の音声出力装置に於て
は、作成文書の校正時等、長い文章の文字列を表示した
状態で、音声出力する場合には、句読点単位で表示状態
を変化させることになり、発声箇所の文字を正確に知る
事ができなかった。However, in such a conventional voice output device, when outputting a voice while displaying a character string of a long sentence such as when proofreading a created document, it is necessary to change the display state in units of punctuation marks. I was not able to know the character of the utterance accurately.
また、文章を単語、文節などに区切って表示及び音声
出力を行わせると、音声出力装置では、文章全体にわた
るフレーズ成分を決定できず、自然性の欠如した、機械
的な合成音声になってしまうという欠点があった。Also, if a sentence is divided into words and clauses for display and voice output, the voice output device cannot determine the phrase component over the whole sentence, resulting in a mechanical synthesized voice lacking naturalness. There was a drawback.
(ハ)発明が解決しようとする課題 本発明は、上述の点に鑑みて成されたものであり、発
声中の音声に対応して、表示中の文字、単語あるいは文
節単位に表示状態を変え、発声位置を分かり易くした規
則合成装置の文字表示方法を提供するものである。(C) Problems to be Solved by the Invention The present invention has been made in view of the above points, and changes the display state in units of characters, words, or phrases being displayed in correspondence with the voice being uttered. The present invention provides a character display method of a rule synthesizing device that makes it easy to understand the vocalization position.
(ニ)課題を解決するための手段 本発明の規則合成装置の文字表示方法は、文字列の入
力により音声を生成する規則合成装置であって、入力文
字列から表示器に表示される文字の位置を示す文字位置
表および該入力文字列に基づいて音声発声器から発声さ
れる音声のパラメータ列中の位置を示すパラメータ位置
表をそれぞれ作成し、前記文字位置表およびパラメータ
位置表から表示器に表示される文字の位置と音声発声器
から発声される音声のパラメータ列中の位置とを対応づ
けて発声中の音声のパラメータ列中の位置に対応する文
字位置情報を出力し、該文字位置情報に従って発声中の
音声のパラメータ列中の位置に同期した表示器に表示さ
れる文字の位置を示す表示文字位置を実時間で可視表示
するものである。(D) Means for Solving the Problem A character display method of a rule synthesizing device according to the present invention is a rule synthesizing device for generating a voice by inputting a character string, and the method for displaying characters displayed on a display device from an input character string is A character position table indicating the position and a parameter position table indicating the position in the parameter string of the voice uttered from the voice utterer based on the input character string are created respectively, and the character position table and the parameter position table are displayed on the display device. The character position information corresponding to the position in the parameter string of the voice being uttered is output by associating the position of the displayed character with the position in the parameter string of the voice uttered by the voice utterer, and the character position information is output. The display character position indicating the position of the character displayed on the display synchronized with the position in the parameter sequence of the voice being uttered is visually displayed in real time.
(ホ)作用 本発明によれば、発声中のパラメータに対応する文字
位置情報が出力され、該文字位置情報の文字の表示状態
を文字あるいは語単位等で変更するので、きめこまかい
表示変更を可能とでき、合成音声と表示の対応が明瞭に
確認できる。(E) Operation According to the present invention, the character position information corresponding to the parameter being uttered is output, and the display state of the character of the character position information is changed on a character-by-character or word-by-character basis. Yes, the correspondence between synthetic voice and display can be clearly confirmed.
(ヘ)実施例 第1図に本発明の規則合成装置の文字表示方法を実現
する装置構成の一実施例のブロック図を示す。第2図は
処理文章例を示し、第3図は各表のデータ例を示してお
り、これらの図に基ずいて、以下に本発明方法を詳述す
る。(F) Embodiment FIG. 1 shows a block diagram of an embodiment of the device configuration for realizing the character display method of the rule synthesizing device of the present invention. FIG. 2 shows an example of processed text, and FIG. 3 shows an example of data in each table. The method of the present invention will be described in detail below based on these figures.
コンピュータやワープロから日本語の漢字かな混じり
文章、例えば「吾輩は猫である。」[第2図(a)]が
入力されると、形態素解析部(1)により、前記文章が
単語に分割される[第2図(b)]。この時、文章の先
頭から各単語の先頭文字までの文字数をカウントし、第
3図(a)の如き文字位置表(2)に保存する。前記分
割された単語は読みがな付与部(3)に送られ、各単語
に読みがなを与えられる[第2図(c)]とともに、文
字位置表(2)の各文字位置に対応する読みの位置が算
出され、第3図(b)の如き読み位置表(4)に保存さ
れる。前記読みがなの与えられた単語はアクセント付与
・フレーズ決定部(5)に送られる。アクセンタ付与・
フレーズ決定部(5)では、各単語にアクセントが付け
られ、アクセント結合すなわち単語同士が結合して1つ
のアクセント句となり、さらにフレーズすなわち息継ぎ
の位置と深さが決定される〔第2図(d)〕。When a Japanese or Kana / Kana mixed sentence such as “I am a cat.” [FIG. 2 (a)] is input from a computer or word processor, the morphological analysis unit (1) divides the sentence into words. [Fig. 2 (b)]. At this time, the number of characters from the beginning of the sentence to the first character of each word is counted and stored in the character position table (2) as shown in FIG. 3 (a). The divided words are sent to the reading unit (3) to give readings to each word [Fig. 2 (c)] and correspond to each character position in the character position table (2). The reading position is calculated and stored in the reading position table (4) as shown in FIG. 3 (b). The word provided with the reading is sent to the accenting / phrase determining unit (5). Accent
In the phrase determination unit (5), each word is accented, accents are combined, that is, words are combined to form one accent phrase, and the position and depth of the phrase, that is, the breath is determined [Fig. 2 (d. )].
次に、素片接続部(6)で、各読みがな(発音)に対
する素片が接続され、音声合成のためのパラメータ列が
生成される[第2図(e)]とともに読み位置表(4)
の各読みの位置に対応するパラメータ位置が算出され、
第3図(c)の如きパラメータ位置表(7)に保存され
る。さらに、韻律付与部(8)で、前記アクセント及び
フレーズデータより韻律情報となるピッチデータを算出
し、前記パラメータ列に追加し、音声合成部(9)で音
声波形を生成し、スピーカ(10)から音声出力する。Next, the phoneme connecting unit (6) connects the phonemes for each reading (pronunciation) and generates a parameter string for voice synthesis [Fig. 2 (e)] together with the reading position table ( 4)
The parameter position corresponding to each reading position of is calculated,
It is stored in the parameter position table (7) as shown in FIG. 3 (c). Further, the prosody imparting unit (8) calculates pitch data serving as prosody information from the accent and phrase data, adds the pitch data to the parameter string, and the voice synthesis unit (9) generates a voice waveform, and a speaker (10). Output from.
以下に、上述の構成の各種表(2),(4),(7)
の作成手法を具体的に詳述する。Below, various tables (2), (4), (7) of the above-mentioned configuration
The method of creating will be described in detail below.
第5図に従い、文字位置表(2)、読み位置表(4)
の作成プロセスについて説明する。According to FIG. 5, character position table (2), reading position table (4)
Explain the creation process of.
ワードプロセッサ等から文章が入力されると、文章バ
ッファ(11)に格納される。文章ポインタ(12)は文章
の先頭文字を指し示しており、形態素解析部(1)が、
文章ポインタ(12)が指し示す文章位置から単語辞書
(13)に格納されている単語の文字数分だけ読み出し
て、単語辞書(13)と比較する。これが一致すれば、対
応する単語辞書(13)の単語番号を読みがな付与部
(3)に送るとともに、一致信号(14)を出力する。位
置表ポインタ(15)は当初、文字位置表(2)及び読み
位置表(4)の先頭位置より1だけ手前を指し示してお
り、一致信号(14)によりインクリメントされ各位置表
の先頭位置を指し示すことになる。When a sentence is input from a word processor or the like, it is stored in the sentence buffer (11). The sentence pointer (12) points to the first character of the sentence, and the morphological analysis unit (1)
The number of characters of the word stored in the word dictionary (13) is read from the sentence position pointed by the sentence pointer (12) and compared with the word dictionary (13). If they match, the word number of the corresponding word dictionary (13) is sent to the reading unit (3) and the match signal (14) is output. Initially, the position table pointer (15) points one position before the start position of the character position table (2) and reading position table (4), and is incremented by the coincidence signal (14) to point to the start position of each position table. It will be.
更に、一致信号(14)によりアンドゲートが開き、文
章ポインタ(12)の値、即ち文章位置が文字位置表
(2)に送られ、文字位置表(2)の位置表ポインタ
(15)が指し示す場所に保存される。Further, the AND gate is opened by the coincidence signal (14), the value of the sentence pointer (12), that is, the sentence position is sent to the character position table (2), and the position table pointer (15) of the character position table (2) points to it. Stored in place.
読みがな付与部(3)は、形態素解析部(1)から単
語番号を受け取ると、これに該当する単語辞書(13)中
の読みがなを読み出して、アクセント付与・フレーズ決
定部(5)、及び読み位置表作成部(16)に送る。この
読み位置表作成部(16)は読みがなの文字数を数え、文
章の先頭からの読みがなの文字数を積算して、読み位置
表(4)の位置表ポインタ(15)が指し示す場所に保存
する。Upon receiving the word number from the morpheme analysis unit (1), the reading unit (3) reads out the reading unit from the word dictionary (13) corresponding to this, and the accenting / phrase determination unit (5). , And the reading position table preparation section (16). This reading position table creation unit (16) counts the number of reading characters, accumulates the number of reading characters from the beginning of the sentence, and saves it in the position indicated by the position table pointer (15) of the reading position table (4). .
更に、形態素解析部(1)は一致した単語の文字数分
だけ文章ポインタ(12)を進め、次の単語の形態素解析
に移り、これを続ける。Further, the morphological analysis unit (1) advances the sentence pointer (12) by the number of characters of the matched word, moves to the morphological analysis of the next word, and continues this.
次に、第6図に従い、パラメータ位置表(7)の作成
プロセスにいて説明を加える。Next, the process of creating the parameter position table (7) will be described with reference to FIG.
アクセント付与・フレーズ決定部(5)により各単語
のアクセント位置及び息継ぎ位置等が決定され、読みバ
ッファ(61)に読みがな列が入力される。The accent assigning / phrase deciding unit (5) decides the accent position and breathing position of each word, and inputs a phonetic string into the reading buffer (61).
素片接続部(6)は先ず読みポインタ(62)及びパラ
メータポインタ(92)を各々読みバッファ(61)、パラ
メータバッファ(91)の先頭を指し示す様にセットす
る。次に、読みバッファ(67)の読みポインタ(62)が
指し示す読みに対応するパラメータ列を素片メモリ(6
3)より読み出し、パラメータバッファ(92)のパラメ
ータポインタ(92)が指し示す位置に格納する。The segment connecting unit (6) first sets the read pointer (62) and the parameter pointer (92) so as to point to the heads of the read buffer (61) and the parameter buffer (91), respectively. Next, the parameter string corresponding to the reading indicated by the reading pointer (62) of the reading buffer (67) is stored in the segment memory (6
It is read from 3) and stored in the position pointed to by the parameter pointer (92) of the parameter buffer (92).
更に、上記の素片接続部(6)は読みポインタ(62)
をインクリメントし、パラメータポインタ(92)を格納
したパラメータ列分だけ進め、次の読みに対応する素片
パラメータを接続していく。第6図中の破線部分がパラ
メータ位置表作成部(63)であり、その中の比較回路
(631)は読みポインタ(62)と、読み位置表(4)の
位置表ポインタ(15)とが指し示す読み位置を比較し、
一致すれば、アンドゲートを開いてパラメータポインタ
(92)の値をパラメータ位置表(7)の位置表ポインタ
(15)が指し示す場所に格納する。その後、位置表ポイ
ンタ(15)をインクリメントし、これを続ける。Further, the above-mentioned segment connecting portion (6) has a reading pointer (62).
Is incremented, the parameter pointer (92) is advanced by the stored parameter string, and the segment parameters corresponding to the next reading are connected. A broken line portion in FIG. 6 is a parameter position table creation unit (63), and the comparison circuit (631) therein has a reading pointer (62) and a position table pointer (15) of the reading position table (4). Compare the reading position to point,
If they match, the AND gate is opened and the value of the parameter pointer (92) is stored in the location indicated by the position table pointer (15) of the parameter position table (7). After that, the position table pointer (15) is incremented and this is continued.
次に、上記音声合成部(9)の詳しいブロック図を第
4図に示し、動作を説明する。Next, a detailed block diagram of the voice synthesizer (9) is shown in FIG. 4 to explain the operation.
韻律付与部(8)の出力であるパラメータ(LSPパラ
メータ、アンプデータ、ピッチデータ)はパラメータバ
ッファ(91)に保持される。パラメータポインタ(92)
はパラメータバッファ(91)の先頭を指し示しており、
タンミング制御回路(93)からフレーム周期例えば12.8
msec毎にタイミング信号がくるとパラメータポインタ
(92)はインクリメントされ次のパラメータを指し示す
ことになる。このパラメータポインタ(92)に指し示さ
れているパラメータは合成フィルタ(94)に送られ、合
成フィルタ(94)で音声波形を生成し、スピーカ(10)
より出力される。比較回路(96)は、パラメータポイン
タ(92)の内容とパラメータ位置表(7)のカウンタ
(97)が指し示すパラメータ位置とを比較し、これが一
致すると一致信号を出す。該一致信号によりアンドゲー
トが開き、文字位置表(2)のカウンタ(97)により指
し示されている文字位置が出力される。カウンタ(97)
は、パラメータ位置表(7)と文字位置表(2)の同一
場所を指し示しており、パラメータ位置と文字位置は対
応している。その後、一致信号はカウンタ(97)をイン
クリメントし、次のパラメータ位置、文字位置を指し示
す。このように出力された文字位置情報は表示装置に送
られ、対応する表示部分の表示状態を変える。例えば、
表示色を変化させたり、点滅表示を行うことができる。The parameters (LSP parameters, amplifier data, pitch data) output from the prosody imparting unit (8) are held in the parameter buffer (91). Parameter pointer (92)
Indicates the beginning of the parameter buffer (91),
Frame cycle from the tamming control circuit (93), eg 12.8
When the timing signal comes every msec, the parameter pointer (92) is incremented to point to the next parameter. The parameter pointed to by this parameter pointer (92) is sent to the synthesis filter (94), which produces a speech waveform and outputs it to the speaker (10).
Output. The comparison circuit (96) compares the contents of the parameter pointer (92) with the parameter position indicated by the counter (97) of the parameter position table (7), and outputs a coincidence signal when they match. The AND gate is opened by the coincidence signal, and the character position pointed by the counter (97) of the character position table (2) is output. Counters (97)
Indicates the same location in the parameter position table (7) and the character position table (2), and the parameter position and the character position correspond to each other. After that, the coincidence signal increments the counter (97) to indicate the next parameter position and character position. The character position information thus output is sent to the display device to change the display state of the corresponding display portion. For example,
The display color can be changed and blinking can be displayed.
以上の説明では、単語単位で文字位置を出力し表示状
態の変化を可能としたが、文字単位、文節単位で文字位
置を出力してもよい。In the above description, the character position is output for each word and the display state can be changed, but the character position may be output for each character or phrase.
(ト)発明の効果 本発明の音声の規則合成装置の文字表示方法によれ
ば、入力文字列を表示する表示器と、入力文字列中の文
字の表示位置と対応するパラメータ列中のパラメータの
位置との対応表を有し、該対応表に基ずいて発声中のパ
ラメータに対応する文字位置情報を出力し、該文字位置
情報に従って発声中の音声に同期した表示文字位置を実
時間で可視表示するものであるので、文字、単語、ある
いは文節単位で発声中の音声に対応する文字位置の表示
状態を変化させることができ、合成音声と表示の対応の
精度を高めることが可能となる。(G) Effect of the Invention According to the character display method of the speech rule synthesizing device of the present invention, a display for displaying an input character string and a parameter in a parameter string corresponding to a display position of a character in the input character string are displayed. It has a correspondence table with the position, outputs the character position information corresponding to the parameter being uttered based on the correspondence table, and displays the display character position synchronized with the uttered voice in real time according to the character position information. Since it is displayed, it is possible to change the display state of the character position corresponding to the voice being uttered in units of characters, words, or phrases, and it is possible to improve the accuracy of correspondence between synthetic voice and display.
従って、本発明方法によれば、作成した文章の校正が
非常に容易に行える文章校閲装置の実現に寄与できる。Therefore, according to the method of the present invention, it is possible to contribute to the realization of a text reviewing device that can proofread a created text very easily.
第1図は本発明の音声の規則合成装置の文字表示方法を
実現する装置構成のブロック図、第2図は入力文章に対
する処理を示す図、第3図は第1図の各表の状態を示す
図、第4図は第1図の音声合成部の詳細ブロック図、第
5図及び第6図は第1図の各表の状態を示す図である。 (2)……文字位置表、 (4)……読み位置表、 (7)……パラメータ位置表。FIG. 1 is a block diagram of a device configuration for realizing a character display method of a speech rule synthesizing device of the present invention, FIG. 2 is a diagram showing processing for an input sentence, and FIG. 3 is a state of each table in FIG. FIG. 4, FIG. 4 is a detailed block diagram of the voice synthesizing unit of FIG. 1, and FIGS. 5 and 6 are diagrams showing states of respective tables of FIG. (2) …… Character position table, (4) …… Reading position table, (7) …… Parameter position table.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 北村 徹 大阪府守口市京阪本通2丁目18番地 三 洋電機株式会社内 (56)参考文献 特開 昭60−79427(JP,A) 実開 昭57−114434(JP,U) ─────────────────────────────────────────────────── ─── Continued Front Page (72) Toru Kitamura Toru Kitamura 2-18 Keihan Hondori, Moriguchi City, Osaka Sanyo Electric Co., Ltd. (56) Reference JP-A-60-79427 (JP, A) 57-114434 (JP, U)
Claims (1)
成装置であって、 入力文字列から表示器に表示される文字の位置を示す文
字位置表および該入力文字列に基づいて音声発声器から
発声される音声のパラメータ列中の位置を示すパラメー
タ位置表をそれぞれ作成し、 前記文字位置表およびパラメータ位置表から表示器に表
示される文字の位置と音声発声器から発声される音声の
パラメータ列中の位置とを対応づけて発声中の音声のパ
ラメータ列中の位置に対応する文字位置情報を出力し、
該文字位置情報に従って発声中の音声のパラメータ列中
の位置に同期した表示器に表示される文字の位置を示す
表示文字位置を実時間で可視表示することを特徴とした
規則合成装置の文字表示方法。1. A rule synthesizing device for generating a voice by inputting a character string, comprising a character position table indicating the position of a character displayed on a display from the input character string, and a voice utterer based on the input character string. Create a parameter position table showing the position in the parameter sequence of the voice uttered from, respectively, the position of the character displayed on the display from the character position table and the parameter position table and the parameters of the voice uttered from the voice utterer The character position information corresponding to the position in the parameter string of the voice being uttered is output in association with the position in the string,
Character display of a rule synthesizing device characterized by displaying in real time a display character position indicating a position of a character displayed on a display synchronized with a position in a parameter string of a voice being uttered according to the character position information Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63292872A JP2680643B2 (en) | 1988-11-18 | 1988-11-18 | Character display method of rule synthesizer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63292872A JP2680643B2 (en) | 1988-11-18 | 1988-11-18 | Character display method of rule synthesizer |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH02137899A JPH02137899A (en) | 1990-05-28 |
JP2680643B2 true JP2680643B2 (en) | 1997-11-19 |
Family
ID=17787470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63292872A Expired - Fee Related JP2680643B2 (en) | 1988-11-18 | 1988-11-18 | Character display method of rule synthesizer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2680643B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997037344A1 (en) * | 1996-03-29 | 1997-10-09 | Hitachi, Ltd. | Terminal having speech output function, and character information providing system using the terminal |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57114434U (en) * | 1980-12-29 | 1982-07-15 | ||
JPS6079427A (en) * | 1983-10-07 | 1985-05-07 | Fujitsu Ltd | Readout and display system for program |
-
1988
- 1988-11-18 JP JP63292872A patent/JP2680643B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH02137899A (en) | 1990-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5940797A (en) | Speech synthesis method utilizing auxiliary information, medium recorded thereon the method and apparatus utilizing the method | |
JP2000206982A (en) | Speech synthesizer and machine readable recording medium which records sentence to speech converting program | |
JP3270356B2 (en) | Utterance document creation device, utterance document creation method, and computer-readable recording medium storing a program for causing a computer to execute the utterance document creation procedure | |
JP2844817B2 (en) | Speech synthesis method for utterance practice | |
JP2680643B2 (en) | Character display method of rule synthesizer | |
JPH08335096A (en) | Text voice synthesizer | |
JP2580565B2 (en) | Voice information dictionary creation device | |
JPH0731509B2 (en) | Voice analyzer | |
JPH09244677A (en) | Speech synthesis system | |
JP2703253B2 (en) | Speech synthesizer | |
JP3397406B2 (en) | Voice synthesis device and voice synthesis method | |
JPH02234198A (en) | Text voice synthesizing system | |
JPH08160983A (en) | Speech synthesizing device | |
JPH1063287A (en) | Pronunciation trainer | |
JPH0644247A (en) | Speech synthesizing device | |
JP2614912B2 (en) | Text-to-speech device | |
JP2578876B2 (en) | Text-to-speech device | |
JPH06131148A (en) | Speech synthesizing device | |
JPH0562356B2 (en) | ||
JPH05960Y2 (en) | ||
JP2624708B2 (en) | Speech synthesizer | |
JPH06138894A (en) | Device and method for voice synthesis | |
JPH01119822A (en) | Sentence reader | |
JPS62103724A (en) | Document preparing device | |
JPH06195094A (en) | Phonogram string display method and speech synthesizing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |