JPH09171392A - Pronunciation information creating method and device therefor - Google Patents

Pronunciation information creating method and device therefor

Info

Publication number
JPH09171392A
JPH09171392A JP7327753A JP32775395A JPH09171392A JP H09171392 A JPH09171392 A JP H09171392A JP 7327753 A JP7327753 A JP 7327753A JP 32775395 A JP32775395 A JP 32775395A JP H09171392 A JPH09171392 A JP H09171392A
Authority
JP
Japan
Prior art keywords
pronunciation information
pronunciation
information
text
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7327753A
Other languages
Japanese (ja)
Other versions
JP3483230B2 (en
Inventor
Tetsuya Sakayori
哲也 酒寄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP32775395A priority Critical patent/JP3483230B2/en
Publication of JPH09171392A publication Critical patent/JPH09171392A/en
Application granted granted Critical
Publication of JP3483230B2 publication Critical patent/JP3483230B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently correct pronunciation information when pronunciation information is created from a text. SOLUTION: A pronunciation information creating device is provided with a language processing part 5 which converts a text into pronunciation information by language processing, and a pronunciation information utterance part 7 which utters pronunciation information in synthetic voice, and a user interface part 1 which displays, corrects, etc., the text and pronunciation information. The device creates the pronunciation information interactively by means of an interaction between an automatic conversion by the language processing part 5 and a correction work by user.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はテキストを音声に変換す
るテキスト音声合成技術に関する。特に、あらかじめ発
音記号ファイルを用意して何度も発声させる、あるいは
複数の装置によって出力する等の用途に使用される音声
合成装置、例えば発音記号を電話回線等から受信蓄積す
る携帯型の音声情報端末等に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a text-to-speech technique for converting text into speech. In particular, a voice synthesizer used for purposes such as preparing a phonetic symbol file in advance to make it utter many times, or outputting by a plurality of devices, for example, portable voice information for receiving and storing phonetic symbols from a telephone line or the like. Regarding terminals, etc.

【0002】[0002]

【従来の技術】従来、テキスト音声合成装置では、形態
素解析、構文解析、発音単位分割処理、アクセント結合
処理等の言語処理を行ない、自動的にテキストを発音記
号に変換し、これを規則音声合成器によって音声に変換
していた。しかし、現状の言語処理技術による自動変換
だけでは、完全な読み、アクセント、イントネーション
等を得ることは不可能に近く、これを実現するためには
意味解析を含めた非常に高度な分析を必要とし現実的で
ない。そこで、誤りのない音声が必要であって、テキス
トからリアルタイムに音声を合成する必要のない場合、
自動変換によって得られた発音記号を人手を介して修正
していた。発音記号には様々な種類のものが使われてい
るが、日本語の場合、音韻を片仮名やローマ字で表し、
アクセント核位置やポーズ等のそのほかの韻律情報を様
々な記号で表した独特の記号列を用いることが多い。こ
のため発音記号の修正を行なうためには、これらの記号
の意味を理解することが必要となってくる。又、特に韻
律記号は直感的に音声に結び付く表現とは言いがたいた
め、熟練した人でも効率良く修正作業を行なうことは難
しかった。
2. Description of the Related Art Conventionally, a text-to-speech synthesizer performs linguistic processing such as morphological analysis, syntactic analysis, pronunciation unit division processing, and accent combination processing to automatically convert text into phonetic symbols, which is then subjected to regular speech synthesis. It was converted to voice by a container. However, it is almost impossible to obtain perfect readings, accents, intonations, etc. only by automatic conversion using the current language processing technology, and in order to realize this, very sophisticated analysis including semantic analysis is required. Not realistic. So, if you want a sound that doesn't have an error and you don't need to synthesize it in real time from text,
The phonetic symbols obtained by automatic conversion were corrected manually. Although various kinds of phonetic symbols are used, in Japanese, phonetics are expressed in katakana or romaji,
In many cases, a unique symbol string representing various prosodic information such as accent nucleus position and pose is used. Therefore, in order to correct phonetic symbols, it is necessary to understand the meaning of these symbols. In addition, since it is difficult to say that prosodic symbols are expressions that are intuitively associated with speech, it is difficult for even a skilled person to efficiently perform correction work.

【0003】この修正作業を容易に行なうことを目的と
した発明として、特開平4−166899号公報「テキ
スト・音声変換装置」がある。又、株式会社リコーから
1994年に発売されているパソコン用ソフトウェア
「雄弁家 for Windows ver.1.0」にも修正作業を支援す
る機能が搭載されている。
As an invention for the purpose of facilitating this correction work, there is Japanese Unexamined Patent Publication No. 4-166899 "text / speech converter". In addition, the software for the personal computer "Obeniya for Windows ver.1.0" released by Ricoh Co., Ltd. in 1994 has a function to support the correction work.

【0004】又、特願平07−273320号の「発音
情報作成方法およびその装置」には、発音記号とは異な
る、視覚的にわかりやすくアイコン化されたアクセント
核や発音単位境界によって、発音情報を表示している。
In Japanese Patent Application No. 07-273320, "pronunciation information creation method and apparatus", pronunciation information is provided by an accent nucleus or a pronunciation unit boundary which is different from a phonetic symbol and is iconified in a visually easy-to-understand manner. Is displayed.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、特開平
4−166899号公報の従来技術では、テキストと発
音記号を並行して表示し、通常のテキストエディタ機能
によって発音記号の修正を可能としている。しかし、こ
の発明ではテキストの最初から音声を聴き、間違いを発
見した時点で修正モードに移行し、修正を完了したら続
きの音声を聴き始めるという単純な流れを想定しており
自由度に欠ける。又、修正作業の対象とするのは発音記
号そのものであるため、直感的に音声に結び付きにく
く、修正操作と結果としての音声の対応も予想しにくい
ため、試行錯誤を多く必要とする。さらに、自動変換を
利用するのは最初だけで、一度修正を始めたら、その後
はすべて修正するユーザーのキー操作によって発音記号
が作られることになる。このことは少なくとも以下の3
つの不具合を生ずる。 ・結果がユーザーの能力に依存することになり、さらに
操作ミスによる致命的な誤りを生ずる危険性も避けられ
ない。 ・テキスト中の同じ表現を同じように誤解析することは
良くあることだが、これをいちいちすべて修正しなけれ
ばならない。 ・形態素境界を誤検出した場合等、言語処理の一部だけ
を修正すれば自動変換によって容易に修正できる場合で
も、最終結果の発音記号を修正することしか出来ない。
However, in the prior art disclosed in Japanese Patent Laid-Open No. 4-166899, the text and the phonetic symbols are displayed in parallel, and the phonetic symbols can be corrected by the ordinary text editor function. However, the present invention assumes a simple flow of listening to the voice from the beginning of the text, transitioning to the correction mode when a mistake is found, and starting to listen to the subsequent voice when the correction is completed, which lacks flexibility. In addition, since the target of the correction work is the phonetic symbol itself, it is difficult to intuitively connect to the voice, and it is difficult to predict the correspondence between the correction operation and the resultant voice, so that a lot of trial and error is required. Furthermore, the automatic conversion is used only at the beginning, and once the correction is started, the phonetic symbols are made by the user's key operation to correct all the corrections. This is at least the following 3
It causes two problems. -The result depends on the ability of the user, and there is an unavoidable risk of causing a fatal error due to an operation error.・ It is common to misparse the same expression in the text in the same way, but you have to correct all of this. -Even if the morpheme boundary is erroneously detected, even if only a part of the language processing can be easily corrected by automatic conversion, the final phonetic symbol can only be corrected.

【0006】又、前述の「雄弁家」ではテキスト中の任
意の部分へカーソルを移動することが出来るため上記の
発明よりは自由度は大きい。しかし修正対象はやはり発
音記号であり、修正効率の面では同様である。又、自動
変換の結果として複数の候補からの選択が可能なため、
言語処理による自動変換を修正作業中に部分的に利用す
ることもできる。しかし、候補中に所望の結果が含まれ
ていない場合は、結局キー操作によって発音記号を修正
しなければならない。
Further, in the above-mentioned "orator", the cursor can be moved to an arbitrary portion in the text, so that the degree of freedom is greater than that of the above invention. However, the correction target is still a phonetic symbol, which is the same in terms of correction efficiency. Also, since it is possible to select from multiple candidates as a result of automatic conversion,
The automatic conversion by language processing can be partially used during the correction work. However, if the desired result is not included in the candidates, the phonetic symbols must be corrected by key operation.

【0007】又、特願平07−273320号では、わ
かりやすくアイコン化された発音情報表示は使われてい
るが、その移動には特に言及されていない。言語的に存
在しえない、もしくは存在しにくい位置にも、そうでな
い位置と同様にアクセント核や発音単位境界が移動して
しまうことは無駄であり、作業効率を低下させることに
なる。
Further, in Japanese Patent Application No. 07-273320, although the iconic pronunciation information display is used in an easy-to-understand manner, its movement is not particularly mentioned. It is useless to move the accent nucleus and the pronunciation unit boundary to a position that cannot or does not exist linguistically, as well as a position that does not exist, which reduces work efficiency.

【0008】本発明では、以上の問題点に鑑み、テキス
トから発音情報を作成するとき効率的に発音情報を修正
する発音情報作成方法およびその装置を提供することを
目的とするために、言語処理によってテキストを音声情
報に自動変換することおよび発音情報の修正を対話的に
行うことによって発音情報の効率的な修正作業を支援す
る方法およびその装置を提供する。
In view of the above problems, the present invention has an object to provide a pronunciation information creating method and apparatus for efficiently modifying pronunciation information when creating pronunciation information from a text. (EN) A method and apparatus for supporting an efficient correction work of pronunciation information by automatically converting text into speech information and interactively modifying pronunciation information.

【0009】[0009]

【課題を解決するための手段】かかる課題を解決するた
めに請求項1の発明の発音情報作成方法は、テキストを
言語処理して発音情報へ変換し、該変換結果を対話的に
修正し、該修正結果を合成音声にて発声させて発音情報
を作成するようにしたことを特徴とする。又、請求項2
の発明の発音情報作成装置は、テキストを言語処理して
発音情報へ変換する言語処理部と、発音情報を合成音声
にて発声する発音情報発声部と、テキストと発音情報の
表示、修正等を行なうユーザーインターフェース部とを
有し、前記言語処理部による自動変換とユーザーによる
修正作業の相互作用によって、対話的に発音情報を作成
することを特徴とする。又、請求項3の発明の前記ユー
ザーインターフェース部は、発音情報として、読み、ア
クセント、発音単位種別をそれぞれ異なる領域に表示さ
せるようにしたことを特徴とする。又、請求項4の発明
の前記ユーザーインターフェース部は、テキストと発音
情報を単語、アクセント句、呼気段落等の特定発音単位
毎に先頭を合わせて表示するようにしたことを特徴とす
る。又、請求項5の発明の前記ユーザーインターフェー
ス部は、発音単位境界を移動、削除、挿入等の修正を行
なった場合、該境界に隣接する前後2つの発音単位のみ
を、言語処理部によって再変換し、ただちに再表示する
ようにしたことを特徴とする。又、請求項6の発明の発
音情報作成装置は、前記言語処理部でテキストを発音情
報へ変換しているとき、未登録語を発見した場合、前記
ユーザーインターフェース部で該未登録語を他の部分と
は区別して表示するようにしたことを特徴とする。又、
請求項7の発明の前記ユーザーインターフェース部は、
表示されたテキストの指定された範囲を単語辞書に登録
し、次回以降の言語処理に使用できるようにしたことを
特徴とする。又、請求項8の発明の前記発音情報発声部
は、特定の箇所を自動的に繰り返し発声するようにした
ことを特徴とする。又、請求項9の発明の前記ユーザー
インターフェース部は、発声とは並行して発音情報を修
正させ、該修正結果を前記言語処理部で再変換し、該変
換結果を前記発音情報発声部によってただちに発声させ
るようにしたことを特徴とする。又、請求項10の発明
の前記ユーザーインターフェース部は、視覚的に表示さ
れたアクセント核記号を言語的特徴による制限を加えて
移動するようにしたことを特徴とする。又、請求項11
の発明の前記言語的特徴の制限は、アクセント核記号を
モーラ単位で移動させることを特徴とする。又、請求項
12の発明の前記言語的特徴の制限は、アクセント核が
存在しにくいモーラへのアクセント核記号の移動を禁止
あるいは抑制することを特徴とする。又、請求項13の
発明の前記言語的特徴の制限は、外来語のアクセント核
位置を、原語のアクセントに準ずる位置と、日本語とし
てなじんだ場合に現われやすい位置のそれぞれへ移動す
ることを特徴とする。又、請求項14の発明の前記言語
的特徴の制限は、発音単位境界の移動単位を文字、単語
境界、字種境界等の中から選択可能とすることを特徴と
する。
In order to solve such a problem, the pronunciation information creating method of the invention of claim 1 verbally processes a text to convert it into pronunciation information, and interactively corrects the conversion result, It is characterized in that the correction result is uttered by a synthetic voice to generate pronunciation information. Claim 2
The pronunciation information creation apparatus of the invention of claim 1 performs a language processing unit that linguistically processes text to convert it into pronunciation information, a pronunciation information utterance unit that utters pronunciation information in synthetic speech, and displays and corrects text and pronunciation information. It is characterized in that it has a user interface section for performing the conversion, and interactively creates pronunciation information by the interaction of the automatic conversion by the language processing section and the correction work by the user. Further, the user interface section of the invention of claim 3 is characterized in that reading, accent, and pronunciation unit type are displayed in different areas as pronunciation information. Further, the user interface unit of the invention of claim 4 is characterized in that the text and pronunciation information are displayed at the beginning of each specific pronunciation unit such as a word, an accent phrase, and a breath paragraph. Further, in the user interface unit of the invention of claim 5, when the pronunciation unit boundary is moved, deleted, inserted or otherwise modified, only the two preceding and following pronunciation units adjacent to the boundary are reconverted by the language processing unit. However, the feature is that it is displayed again immediately. Further, in the pronunciation information creating apparatus according to the invention of claim 6, when an unregistered word is found while the text is converted into pronunciation information by the language processing unit, the unregistered word is changed to another by the user interface unit. It is characterized in that it is displayed separately from the part. or,
The user interface unit of the invention of claim 7 is
The feature is that the specified range of the displayed text is registered in the word dictionary so that it can be used for the language processing from the next time. Further, the pronunciation information voicing section of the invention of claim 8 is characterized in that a specific portion is automatically and repeatedly uttered. Further, the user interface unit of the invention of claim 9 corrects pronunciation information in parallel with utterance, reconverts the correction result in the language processing unit, and immediately outputs the conversion result by the pronunciation information utterance unit. The feature is that it is made to speak. Further, the user interface unit of the invention of claim 10 is characterized in that the accent nucleus symbol visually displayed is moved while being restricted by linguistic features. Also, claim 11
The limitation of the linguistic feature of the invention of 1 is characterized in that the accent kernel symbol is moved in mora units. Further, the limitation of the linguistic feature of the invention of claim 12 is characterized in that the movement of the accent nucleus symbol to the mora in which the accent nucleus is hard to exist is prohibited or suppressed. Further, the limitation of the linguistic feature of the invention of claim 13 is that the position of the accent nucleus of the foreign word is moved to each of the position corresponding to the accent of the original word and the position that is likely to appear when familiar with Japanese. And Further, the limitation of the linguistic feature of the invention of claim 14 is that the movement unit of the pronunciation unit boundary can be selected from a character, a word boundary, a character type boundary and the like.

【0010】[0010]

【作用】本発明の発音情報作成装置は、次のように動作
させる。先ず、発声させたいテキスト文をテキスト入力
部2から入力する。その入力したテキストを言語処理部
5で発音情報へ変換し、ユーザーインターフェース部1
をへて表示部7へアクセント、読み、表記、発音単位種
別等を表示する。ユーザーは、ユーザーインターフェー
ス部1を介して、その操作中は修正中の発音情報の発声
を並行して聞きながらテキストのアクセント句の境界位
置の移動・挿入・削除を行い、その変更結果を言語処理
部5で再変換し、又、登録すべき単語は単語辞書へ登録
させ、又、「発音単位の種別変更」(ポーズを入れる/
取る、声立てを入れる/取る等)、「アクセント核の移
動、レベル変更」、「読みの変更」等を行いながらユー
ザーの希望する発音情報へと編集していく。このユーザ
ーインターフェース部1での編集結果を求める発音記号
として出力する。
The pronunciation information generating apparatus of the present invention operates as follows. First, a text sentence to be uttered is input from the text input unit 2. The input text is converted into pronunciation information by the language processing unit 5, and the user interface unit 1
To display accents, readings, notations, pronunciation unit types, etc. on the display unit 7. The user moves, inserts, or deletes the boundary position of the accent phrase of the text while listening to the utterance of the pronunciation information being modified during the operation through the user interface unit 1, and the result of the change is processed by the language. The words to be re-converted in the section 5 and registered should be registered in the word dictionary, and "change the type of pronunciation unit" (put a pause /
(Take, put voice / take, etc.), "Move accent accent, change level", "Change reading", etc. while editing to the pronunciation information desired by the user. The result of editing by the user interface unit 1 is output as a phonetic symbol.

【0011】[0011]

【実施例】以下、図面を参照して本発明を詳細に説明す
る。図1は本発明による発音情報作成装置の一実施例を
あらわす概略構成図である。ユーザーインターフェース
1は、テキストの入力、言語処理、ユーザーとの会話操
作、発声等の処理のユーザーと装置間の相互インターフ
ェースを制御する。又、最終的に変更された発音情報を
発音記号として出力する。テキスト入力部2は、音声と
して発声させるための日本語テキストを入力する。この
テキストの入力はキーボードからの入力、外部記憶装置
やメモリのような内部記憶装置から入力される。入力部
3は、言語処理された音声情報を変更するための編集操
作をユーザーインターフェース部1へ指示する。例え
ば、タッチパネル、ジョイスティック、マウスやキーボ
ード等が考えられるが、本実施例ではパソコンのテンキ
ーに各機能を割り付けるという簡単な方法を採用した
(図3参照)。なお、図3中のAPはアクセント句を表
すものとする。表示部4は、言語処理された発音情報を
変更するための編集操作状況を表示装置へ表示する。言
語処理部5は、形態素解析、構文解析、発音単位分割処
理、アクセント結合処理等を行い、発音情報に変換す
る。単語辞書6は、言語処理部5で使う読み、表記、品
詞、アクセント等に関する情報を保持する。発音情報発
声部7は、言語処理部5で言語処理された発音情報を音
声合成によって発声する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in detail with reference to the drawings. FIG. 1 is a schematic configuration diagram showing an embodiment of a pronunciation information generating apparatus according to the present invention. The user interface 1 controls a mutual interface between a user and a device such as text input, language processing, conversation operation with the user, and vocalization. The finally changed pronunciation information is output as a phonetic symbol. The text input unit 2 inputs a Japanese text to be uttered as a voice. The input of this text is input from a keyboard or an internal storage device such as an external storage device or a memory. The input unit 3 instructs the user interface unit 1 to perform an editing operation for changing the speech-processed voice information. For example, a touch panel, a joystick, a mouse, a keyboard, and the like are conceivable, but in this embodiment, a simple method of assigning each function to the numeric keypad of the personal computer was adopted (see FIG. 3). AP in FIG. 3 represents an accent phrase. The display unit 4 displays the editing operation status for changing the language-processed pronunciation information on the display device. The language processing unit 5 performs morphological analysis, syntactic analysis, pronunciation unit division processing, accent combination processing, and the like to convert into pronunciation information. The word dictionary 6 holds information about reading, notation, parts of speech, accents, etc. used in the language processing unit 5. The pronunciation information voicing unit 7 utters the pronunciation information that has been language-processed by the language processing unit 5 by voice synthesis.

【0012】本発明の請求項1乃至請求項9に対する実
施例の動作を図2のフローチャートに基づいて説明す
る。 ステップ10:テキスト入力部2から図4(a)のような
日本語漢字仮名混じりテキストを読み込む。 ステップ20:入力されたテキストは、言語処理部5に
よって形態素解析、構文解析、発音単位分割処理、アク
セント結合処理等を行い、自動的に発音情報に自動変換
される。 ステップ30:ユーザーインターフェース部1は、表示
部4へ自動変換された発音情報を図4(b)のように表示
させる。次のように表示することによって、それぞれの
情報を直感的に操作しやすくする。 ・表記(テキスト)の上に、読みをルビのように表示す
る。 ・アクセント核位置を対応する読み文字上に表示する。 ・これらの情報は読みと表記の対応が付きやすいよう
に、アクセント句を単位とするブロックとして表す。 又、アクセント句間の境界情報はポーズの入る場合を矩
形、入らない場合を縦線で表している。この例では特に
示していないが、そのほかの声立て(フレーズ成分の立
て直し)等も適宜表示する。 ステップ40:「発声を行わせるためのスイッチ」がO
Nになっており、現在発声中でなければステップ50
へ。そうでなければステップ60へ。 ステップ50:変換された発音情報を発音情報発声部7
から音声合成によって発声させる。 ステップ60:入力部3からの入力キーの種類によっ
て、次の各ステップへ進む。終了キーのとき、ステップ
70へ。発声キーのとき、ステップ80へ。単語登録キ
ーのとき、ステップ90へ。境界変更キーのとき、ステ
ップ100へ。その他のキーのとき、ステップ120
へ。 ステップ70:発音情報の修正が終了したものとして、
変更結果を発音記号へ変換して出力し、この処理を終了
する。 ステップ80:「発声」キーであれば、現在の「発声を
行わせるためのスイッチ」がONならば、それをOFF
にする。そうでなければONにする。その後、ステップ
30へ戻る。 ステップ90:「単語登録」キーであれば、指示した単
語を単語辞書6へ登録し、ステップ110へ進む。 ステップ100:表示部4に表示された発音情報の境界
を変更する処理を行わせ、ステップ110へ進む。 ステップ110:修正情報に基づいて言語処理部5によ
ってテキストを音声情報に変換し直す。発音情報の境界
を変更された場合は、その前後のアクセント句のみをそ
れぞれアクセント句分割処理を行なわずに、強制的に単
独アクセント句として解析する。単語登録を行なった場
合はその単語を含む句読点までの単位を変換する。その
後、ステップ30へ戻る。 ステップ120:いずれのキーでもなければ、「カーソ
ルの移動」、「発音単位の種別変更」(ポーズを入れる
/取る、声立てを入れる/取る等)、「アクセント核の
移動、レベル変更」、「読みの変更」等の言語処理を伴
わない修正を行う。その後、ステップ30へ戻る。
The operation of the embodiments of claims 1 to 9 of the present invention will be described with reference to the flow chart of FIG. Step 10: Read a text containing Japanese kanji and kana as shown in FIG. 4A from the text input unit 2. Step 20: The input text is subjected to morphological analysis, syntactic analysis, pronunciation unit division processing, accent combination processing, etc. by the language processing unit 5, and is automatically converted into pronunciation information. Step 30: The user interface section 1 causes the display section 4 to display the automatically converted pronunciation information as shown in FIG. 4 (b). By displaying as follows, it becomes easy to operate each information intuitively.・ Display readings like ruby text above the notation (text).・ Display the accent nucleus position on the corresponding reading character. -This information is represented as a block with accent phrases as units so that reading and notation can be easily associated. The boundary information between accent phrases is represented by a rectangle when a pose is entered and a vertical line when a pose is not entered. Although not particularly shown in this example, other voice calls (rebuilding phrase components) and the like are also displayed as appropriate. Step 40: "Switch for making voice" is O
If it is N and is not currently speaking, step 50
What. Otherwise, go to step 60. Step 50: The pronunciation information converted by the pronunciation information utterance unit 7
The voice is synthesized by voice synthesis. Step 60: Depending on the type of input key from the input unit 3, the process proceeds to the next step. If the end key, go to step 70. If it is a vocal key, go to step 80. If it is a word registration key, go to step 90. If it is a boundary change key, go to step 100. Other keys, step 120
What. Step 70: Assuming that the correction of the pronunciation information is completed,
The result of the change is converted into a phonetic symbol and output, and this processing ends. Step 80: If it is the "speaking" key, if the current "switch for making a speech" is on, turn it off
To Otherwise turn it on. Then, the process returns to step 30. Step 90: If the key is a "word registration" key, the designated word is registered in the word dictionary 6, and the process proceeds to step 110. Step 100: A process for changing the boundary of the pronunciation information displayed on the display unit 4 is performed, and the process proceeds to step 110. Step 110: The language processing unit 5 reconverts the text into voice information based on the correction information. When the boundary of the pronunciation information is changed, only the accent phrase before and after the boundary is forcibly analyzed as a single accent phrase without performing accent phrase division processing. When a word is registered, the unit up to the punctuation mark containing the word is converted. Then, the process returns to step 30. Step 120: If none of the keys, "move cursor", "type change of pronunciation unit" (put / take pause, put / take voice, etc.), "move accent nucleus, change level", " Make corrections that do not involve language processing, such as "reading changes." Then, the process returns to step 30.

【0013】以下、例文「山梨県上九一色村にある」を
使って、ユーザーインターフェース部1における本実施
例の動作を説明する。最初に言語処理部5から変換され
た結果は、「山梨県上」と「九一色」とに区切られてい
た。しかし、本来は「山梨県」と「上九一色」とに区切
られていなければならなかった。そこで境界を1文字分
左に移動する。例えば、コントロールキーを押しながら
左右移動キーを押すことによって境界を移動する(図3
参照)。その結果、言語処理部5は「山梨県」という文
字列を発音情報に自動変換する。このときアクセント句
に分割する処理は行わずに、強制的に1つのアクセント
句として解析する。次に「上九一色」という文字列にも
同様の処理を行なう。図4(c)は、このように境界を変
更した結果を表示部4へ表示したものである。
The operation of the present embodiment in the user interface section 1 will be described below by using the example sentence "located in Kamikichimura, Yamanashi Prefecture". The result converted first from the language processing unit 5 was divided into “Yamanashi prefecture” and “91 colors”. However, originally it had to be divided into "Yamanashi Prefecture" and "Kamikichiki." Therefore, the boundary is moved left by one character. For example, pressing the left / right key while holding down the control key moves the boundary (Fig. 3
reference). As a result, the language processing unit 5 automatically converts the character string “Yamanashi Prefecture” into pronunciation information. At this time, the processing of forcibly analyzing as one accent phrase is performed without performing the process of dividing into accent phrases. Next, the same processing is performed on the character string "upper color". FIG. 4C shows the result of changing the boundary in this way on the display unit 4.

【0014】ここで「上九」のところに下線が引かれて
いるが、この部分の「上九一色」という地名が単語辞書
6にないために未登録語となり、解析に失敗したことを
示している。そこで「上九一色」という地名を単語辞書
に登録するために、単語登録モードに入り(図3の割り
付けではEnter キーを押す)、「表記」に対して左右移
動キーを使って登録範囲の始点を選択し、Enter キーに
よって確定、同様に終点を選択し確定すると、図4
(d)のような単語登録ウインドウが現れる。ここで登
録語に関する情報をユーザーが入力する(図4(d)参
照)。このような操作は通常のワードプロセッサー等の
単語登録と同様にして行うことができる。この登録ウイ
ンドウは、上下移動キーによって項目を選び、左右移動
キーおよび文字入力キーによって内容を変更する。例え
ば、品詞は用意されており、その中の品詞を左右移動キ
ーによって選択し、読みに関しては通常の文字入力キー
によって入力する。又、アクセントは読みのどこのある
のかを左右移動キーによって指定する。単語登録後、ユ
ーザーインターフェース部1は言語処理部5へこの登録
した単語を含む句読点までの範囲に対して自動変換を再
び行なって、表示部4へ図4(e)のように表示する。
[0014] Here, the "Kamikyu" is underlined, but because the place name "Kamikichiiro" in this part is not in the word dictionary 6, it becomes an unregistered word and the analysis failed. Shows. Therefore, in order to register the place name "Kamikichiki" in the word dictionary, enter the word registration mode (press the Enter key in the layout in Fig. 3), and use the left / right movement keys for "Notation" to enter the registration range. Select the start point and confirm with the Enter key. Similarly, select the end point and confirm.
A word registration window as shown in (d) appears. Here, the user inputs information about the registered word (see FIG. 4 (d)). Such an operation can be performed in the same manner as word registration in a normal word processor or the like. In this registration window, an item is selected by the up / down movement key, and the content is changed by the left / right movement key and the character input key. For example, a part of speech is prepared, and the part of speech in the part of speech is selected by the left and right movement keys, and the reading is input by a normal character input key. Also, the accent is designated by the left / right movement key as to where the reading is. After the word is registered, the user interface unit 1 again automatically converts the range up to the punctuation mark including the registered word into the language processing unit 5, and displays it on the display unit 4 as shown in FIG.

【0015】これで正確な発音情報が得られたので、ユ
ーザーは最終的な出力である発音記号を得るためのキー
操作を行ない、図4(f)のような記号列を得る。この操
作は、ファイルメニューが割り当てられたファンクショ
ンキーを押すことによってメニューを開き上下移動キー
によって「発音記号列出力」メニューを選ぶ等の方法で
実現できる。
Since accurate phonetic information has been obtained, the user performs a key operation to obtain a phonetic symbol which is the final output, and obtains a symbol string as shown in FIG. 4 (f). This operation can be realized by, for example, opening the menu by pressing the function key to which the file menu is assigned and selecting the "phonetic symbol string output" menu by using the up and down movement keys.

【0016】さらに、このような修正過程においても、
発音情報をキー操作等の妨げとならないように繰り返し
音声として合成し続ける。この発声する内容は、繰り返
し発声する1回の発声を開始した時点での発音情報であ
って、次ぎの繰り返しからは修正された内容を発声す
る。又、繰り返す単位はアクセント句とは限らず、呼気
段落や文等の「任意の発音単位」で大きさを選ぶことも
可能である。このようにユーザーの操作や自動変換によ
って発音情報が変化した場合、ただちにその内容が音声
に反映されるので、間違いを見つけやすく、操作と結果
の対応が直感的につくため作業効率を向上させることが
出来る。
Further, even in such a correction process,
The pronunciation information is repeatedly synthesized as a voice so as not to interfere with key operation. This uttered content is the pronunciation information at the time when one utterance that is repeatedly uttered is started, and the corrected content is uttered from the next repetition. Further, the repeating unit is not limited to the accent phrase, and the size can be selected by "arbitrary pronunciation unit" such as an exhalation paragraph or a sentence. In this way, when the pronunciation information changes due to the user's operation or automatic conversion, the content is immediately reflected in the voice, so mistakes can be easily found and the correspondence between the operation and the result can be intuitively improved to improve work efficiency. Can be done.

【0017】このような音声の発声は、タブキー等に割
り当てられた音声 ON/OFF キーを押すことによって音声
出力モードのON/OFF を切り替える。音声出力モードがO
N の場合は、図2から分かるように、一定区間の音声出
力が終わるとすぐにまた同じ区間を出力し始め、結果と
してこの区間のループ出力を続けることになる。このよ
うなことは、音声情報発声部7を別プロセスのソフトウ
ェアや外部ハードウェアとして装備することで容易に実
現することが可能である。
For such voice utterance, the voice output mode is switched on / off by pressing a voice ON / OFF key assigned to a tab key or the like. Audio output mode is O
In the case of N, as can be seen from FIG. 2, as soon as the voice output in the certain section is finished, the same section is output again, and as a result, the loop output in this section is continued. Such a thing can be easily realized by equipping the voice information voicing unit 7 as software of another process or external hardware.

【0018】次に境界を挿入、削除する例として「日本
人形協会」という複合語を考える。この場合、「日本の
人形協会」なのか、「日本人形の協会」なのかによっ
て、アクセント句境界が違ってくる。前者ならば「日
本」と「人形」の間に入るが、後者ならこの複合語の中
に入らない。このような意味を考慮した複合語の分割は
非常に難しい処理となってくる。そこで自動変換された
結果のアクセント句が希望する分割パターンにならなか
った場合、境界挿入、削除操作を行うことによって希望
するパターンに修正しなければならない。この操作は、
コントロールキーを押しながら挿入(0キー)、削除
(ピリオド・キー)を押す(図3参照)ことによって境
界が挿入、削除される。挿入の場合は前述の移動操作に
よってさらに希望の位置に境界を移動する。
Next, as an example of inserting and deleting a boundary, consider the compound word "Japanese form association". In this case, the accent phrase boundaries differ depending on whether it is a "Japanese doll association" or a "Japanese doll association." In the former case, it falls between "Japan" and "doll", but in the latter case, it does not fall within this compound word. Dividing a compound word in consideration of such meaning is a very difficult process. Therefore, if the accent phrase resulting from the automatic conversion does not have the desired division pattern, it must be corrected to the desired pattern by performing boundary insertion and deletion operations. This operation
The boundary is inserted or deleted by pressing the insert (0 key) and delete (period key) while pressing the control key (see FIG. 3). In the case of insertion, the boundary is further moved to the desired position by the above-mentioned moving operation.

【0019】図5は本発明の請求項10乃至請求項14
に対する実施例における発音情報の操作例である。又、
図5は図2のステップ120におけるアクセント核の移
動に対応する操作例である。アクセント核を▼にアイコ
ン化し、その位置を対応する読み文字上に表示して示し
ている。ユーザーインターフェース部1では、入力部3
を操作して、▼を移動することによって、アクセント核
の移動(アクセント型の変更)が可能であり、直感的に
操作ができることになる。
FIG. 5 shows claims 10 to 14 of the present invention.
3 is an operation example of pronunciation information in the embodiment. or,
FIG. 5 shows an operation example corresponding to the movement of the accent nucleus in step 120 of FIG. The accent nucleus is iconized by ▼, and its position is displayed on the corresponding reading character. In the user interface unit 1, the input unit 3
By operating and moving ▼, the accent nucleus can be moved (the accent type can be changed), and the operation can be performed intuitively.

【0020】ここでは、例文「コミュニケーションパッ
ケージを東京限定発売する」を使って説明する。まず、
言語処理部5で得た発音情報は表示部4へユーザーイン
ターフェース部1を通じて表示される。このとき読み文
字に通常のひらがなを用いているが、これは日常の生活
で使用するルビの形態と同じであるため、ユーザーにと
って違和感が少なくわかりやすいというメリットがあ
る。しかし、ユーザーインターフェース部1は、必ずし
も1文字が1モーラとならないような1モーラが2文字
以上から構成される場合、1文字目以外に×を表示する
と共に、アクセント核移動操作の際に×の場所を自動的
にスキップするように制御する。このようにしたことに
よって、アクセント核は必ず1モーラ単位で移動するよ
うにできるので、ユーザーの操作概念と実際の操作の一
致がはかれるようになる(図5(a)参照)。
Here, an example sentence "Communication package will be sold only in Tokyo" will be described. First,
The pronunciation information obtained by the language processing unit 5 is displayed on the display unit 4 through the user interface unit 1. At this time, normal hiragana is used for reading characters, but this is the same as the form of ruby used in daily life, so it has the advantage that it is easy for the user to understand and is easy to understand. However, the user interface unit 1 displays x in addition to the first character when the one mora is composed of two or more characters so that one character is not necessarily one mora, and the x is displayed when the accent nucleus movement operation is performed. Control to skip locations automatically. By doing so, the accent nucleus can always be moved in units of one mora, so that the concept of the user's operation and the actual operation can be matched (see FIG. 5A).

【0021】しかるに、アクセント核はどのモーラにも
等しく存在するわけではなく、長音や促音、撥音といっ
たモーラにはアクセント核が存在しにくいことが知られ
ている。ユーザーインターフェース部1は、このような
アクセント核が存在しにくいモーラには×を表示し、ア
クセント核移動操作の際には×の場所を自動的にスキッ
プするようにする(図5(b)参照)。このようにする
ことによってユーザーの知識不足や不注意によるミスの
削減とアクセント核移動の際の操作数削減による効率化
がはかれる。
However, it is known that accent nuclei do not exist equally in every mora, and that accent nuclei do not easily exist in mora such as long sound, consonant, and sound repellency. The user interface unit 1 displays x in the mora in which such an accent nucleus is unlikely to exist, and automatically skips the location of the x when the accent nucleus moving operation is performed (see FIG. 5B). ). By doing so, it is possible to reduce mistakes due to lack of knowledge and carelessness of the user and to improve efficiency by reducing the number of operations when moving the accent nucleus.

【0022】又、外来語のアクセントは、日本語として
馴染みのないものは原語のアクセントに準じて発音さ
れ、原語のアクセントが分からない場合や、日本語とし
て馴染んだものは特定のパターンで発音される場合が多
いことが知られている。ここで特定のパターンとは、モ
ーラ数から2を引いた数をアクセント型とするものであ
る。更に、業界用語等の浸透したものは平板化する等の
パターンが知られている。これらのことから、ユーザー
インターフェース部1は、カタカナ単語を外来語とし
て、上記規則によってアクセント核の存在する可能性の
高い位置を〇で表示する。即ち、ユーザーインターフェ
ース部1は、各単語の原語のアクセント位置と(モーラ
数)−2の位置に○を表示することになる(図5(c)
参照)。ここで図5(c)の表示の▼と○とを組み合わ
せた表示は、アクセント核の位置を示す▼アイコンと、
アクセント核位置の候補の○アイコンとを重ねて表示し
たものである。更に、この位置へ1操作で移動する移動
手段を備えることで、これによってオペレーターの知識
不足や不注意によるミスの削減とアクセント核移動の際
の操作数削減による効率化がはかれる。この移動手段と
しては、例えば、「コントロールキーを押しながらアク
セント核移動キー(テンキー割り付けで言うと7と9)
を押す」等の操作で実現することができる。(図3参
照)
Foreign word accents are pronounced according to the original accent if they are unfamiliar as Japanese. If the original accent is unknown, or if familiar with Japanese, it is pronounced in a specific pattern. It is known that there are many cases. Here, the specific pattern is one in which the number obtained by subtracting 2 from the number of mora is used as the accent type. Further, it is known that the permeation of the terminology in industry is flattened. From these things, the user interface unit 1 displays the position where the accent nucleus is highly likely to exist by ◯ according to the above rule, using the Katakana word as a foreign word. That is, the user interface unit 1 displays a circle at the accent position of the original word of each word and the position of (number of mora) -2 (Fig. 5 (c)).
reference). Here, the combination of ▼ and ◯ in the display of FIG. 5C shows a ▼ icon indicating the position of the accent nucleus,
It is displayed by overlaying the ○ icon that is a candidate for the accent nucleus position. Further, by providing a moving means for moving to this position by one operation, it is possible to reduce mistakes due to lack of operator's knowledge and carelessness and to improve efficiency by reducing the number of operations when moving the accent nucleus. As this moving means, for example, “the accent key moving key while pressing the control key (7 and 9 in the ten-key assignment)
It can be realized by an operation such as “press”. (See Fig. 3)

【0023】ファンクションキーに割り当てられた設定
メニューを開いて「アクセント候補を表示」メニューを
選択することによりアクセント核の位置を表示させた
り、このメニューを非選択とすることによってアクセン
ト核の位置を非表示とすることもできる。
The position of the accent nucleus is displayed by opening the setting menu assigned to the function key and selecting the "display accent candidate" menu, and by deselecting this menu, the position of the accent nucleus is hidden. It can also be displayed.

【0024】又、発音単位境界、特にアクセント句境界
位置の誤りは、不自然な発音を引き起こす大きな原因で
ある。アクセント句境界位置が正しく推定されない主な
ケースのひとつに複合語がある。この様な場合には単語
は正しく切り出せているものの、単語間の隠された格関
係が正しく解析できずにアクセント句がうまく切り出せ
ていない。そこで単語境界毎にアクセント句境界を移動
すれば、素早いアクセント句境界の修正が可能となる
(図5(d)参照)。本例文では、「東京」「限定」
「発売する」の間が単語境界である。
In addition, an error in the position of the pronunciation unit boundary, especially the accent phrase boundary position, is a major cause of unnatural pronunciation. A compound word is one of the main cases where the accent phrase boundary position is not correctly estimated. In such a case, the words can be cut out correctly, but the hidden case relation between the words cannot be correctly analyzed, and the accent phrase cannot be cut out well. Therefore, if the accent phrase boundary is moved for each word boundary, it is possible to quickly correct the accent phrase boundary (see FIG. 5D). In this example sentence, "Tokyo" and "limited"
The word boundary is between “release”.

【0025】又、固有名詞や専門用語等単語分割に失敗
するような場合では、文字毎にアクセント句境界の移動
を行う。例えば、「カーナビショー」等は「カーナビ」
という新しい用語を含んでいるために、単語分割に失敗
し「カーナビショー」が1単語となってしまう場合があ
る。このような場合は「カ」「ー」「ナ」「ビ」「シ」
「ョ」「ー」の間のすべての文字境界の中からアクセン
ト句境界を設定できるようにする。このようなアクセン
ト句境界の設定は、「境界の移動」操作(コントロール
+1又はコントロール+3の押下)を行なったときに、
境界を示す縦棒が移動する単位を、例えばコントロール
+8を押すたびに、文字/単語の切り替えをトグルよう
に行なうように設定することもできる。(図3参照)
In the case where a proper noun or a technical term fails to be divided into words, the accent phrase boundary is moved for each character. For example, "Car Navi Show" is "Car Navi"
In some cases, the word division fails and "car navigation show" becomes one word because it includes the new term. In such a case, "ka""-""na""bi""shi"
Allows accent phrase boundaries to be set from all character boundaries between "yo" and "-". Such an accent phrase boundary is set when the "move boundary" operation (control + 1 or control + 3 is pressed)
It is also possible to set the unit in which the vertical bar indicating the boundary is moved so that the character / word is toggled each time the control +8 is pressed, for example. (See Fig. 3)

【0026】このようにユーザーが両者を使い分けるよ
うに操作することによって、効率的なアクセント句境界
移動が可能になる。
As described above, the user can operate the accent phrase boundary efficiently by selectively operating the two.

【0027】又、ファンクションキーで設定メニューを
開いて「字種境界で移動」メニューを選択するか、ある
いは上記境界移動単位のトグルを単語/文字/字種と3
段階のトグルにすることによって、「カーナビ搭載」と
いう場合は「カーナビ」「搭載」という字種境界を利用
してアクセント句境界を設定できるようにもできる。
Further, the setting menu is opened by the function key and the "move by character type boundary" menu is selected, or the toggle of the boundary movement unit is set to word / character / character type 3
By setting the toggle in stages, the phrase "car navigation system" can be used to set the accent phrase boundary using the character type boundaries "car navigation system" and "carrying system".

【発明の効果】以上説明してきたように、請求項1およ
び請求項2の発明の発音情報作成方法およびその装置
は、言語処理の自動変換だけでは得られない正確な発音
情報を、ユーザーの負担を最小限にして得ることができ
る。又、ユーザーの能力によるバラツキや致命的なミス
を抑えることができる。又、請求項3の発明は、発音情
報と音声、操作と結果の直感的な対応がつきやすく作業
効率が向上する。又、請求項4の発明は、テキストと発
音情報の対応がわかりやすくなり、間違い箇所が発見し
やすくなる。又、発音単位区切りの間違いはその後の処
理に多く影響するので、通常、読み、アクセント等も正
しいものにはならず、最終結果の発音記号を修正するこ
とはかなりの作業量を要求することになるが、請求項5
の発明では、発音単位境界を移動して隣接発音単位のみ
を再変換することによって最小限のユーザーの負担によ
って発音単位区切りの間違いを修正できる。又、請求項
6の発明は、言語処理部による誤りのもっとも大きな原
因である未登録語を表示することによって、発音情報の
間違いを素早く発見できる。又、請求項7の発明は、発
音記号の修正作業中に単語辞書に未登録語を登録できる
ことで、その後、同じ単語による自動変換誤りを防ぐこ
とができる。又、請求項8の発明は、発音情報を繰り返
し音声出力することによって、発音情報と音声の対応が
つき、間違いが発見しやすくなる。又、請求項9の発明
は、発音情報の編集操作結果を即座に音声で確認できる
ので操作と結果の対応が直感的にわかり、作業効率が向
上する。又、請求項10の発明の発音情報作成装置は、
アクセント核の操作とその結果の直感的な対応がつきや
すく、無駄な移動が減ることで作業効率が向上する。
又、請求項11の発明の発音情報作成装置は、アクセン
ト核のモーラ内での移動という無意味な動作がなくな
り、作業効率が向上する。又、請求項12の発明の発音
情報作成装置は、アクセント核の存在しにくい位置を避
けることができるので、無駄な動きを減らして作業効率
が向上するとともに、知識の十分でないユーザーへの支
援および不注意ミスを削減できる。又、請求項13の発
明の発音情報作成装置は、外来語のアクセントの2つの
高頻度パターンを選択することができるので、無駄な動
きを減らして作業効率が向上するとともに、知識の十分
でないユーザーへの支援および不注意ミスを削減でき
る。又、請求項14の発明の発音情報作成装置は、発音
単位境界を通常は単語単位のみに設定し、固有名詞等の
単語境界を検出しにくい場合に限り文字単位に移動し、
無駄な動きを減らして作業効率が向上する。
As described above, the pronunciation information creating method and apparatus according to the inventions of claims 1 and 2 provide the user with accurate pronunciation information that cannot be obtained only by automatic conversion of language processing. Can be obtained with a minimum. Further, it is possible to suppress variations due to user's ability and fatal mistakes. Further, according to the invention of claim 3, it is easy to intuitively correspond the pronunciation information and the voice, and the operation and the result, and the work efficiency is improved. Further, in the invention of claim 4, the correspondence between the text and the pronunciation information is easy to understand, and it is easy to find the error portion. In addition, since the mistake of the pronunciation unit delimitation greatly affects the subsequent processing, the reading, accent, etc. are usually not correct, and correcting the phonetic symbol of the final result requires a considerable amount of work. However, claim 5
In the invention of (1), by moving the pronunciation unit boundary and re-converting only the adjacent pronunciation units, it is possible to correct the mistake in the pronunciation unit division with a minimum burden of the user. Further, according to the invention of claim 6, the unregistered word which is the largest cause of the error by the language processing unit is displayed, so that the error in the pronunciation information can be found quickly. Further, according to the invention of claim 7, unregistered words can be registered in the word dictionary during the operation of correcting the phonetic symbols, so that an automatic conversion error due to the same word can be prevented thereafter. Further, according to the invention of claim 8, the pronunciation information is repeatedly output by voice, so that the pronunciation information and the voice are associated with each other, and an error can be easily found. Further, according to the invention of claim 9, since the result of the editing operation of the pronunciation information can be immediately confirmed by voice, the correspondence between the operation and the result can be intuitively understood and the working efficiency is improved. Further, the pronunciation information creating apparatus of the invention of claim 10 is
It is easy to intuitively respond to the operation of the accent nucleus and the result, and unnecessary work is reduced to improve work efficiency.
Further, in the pronunciation information creating apparatus according to the eleventh aspect of the present invention, the meaningless movement of the accent nucleus in the mora is eliminated, and the work efficiency is improved. Further, since the pronunciation information generating apparatus of the invention of claim 12 can avoid the position where the accent nucleus is hard to exist, unnecessary movement is reduced to improve work efficiency, and support to a user with insufficient knowledge and Careless mistakes can be reduced. Further, since the pronunciation information generating apparatus of the invention of claim 13 can select two high-frequency patterns of the accent of a foreign word, unnecessary movement is reduced, work efficiency is improved, and a user who has insufficient knowledge is required. Support and careless mistakes can be reduced. Further, the pronunciation information creating apparatus according to the invention of claim 14 sets the pronunciation unit boundary normally only in word units, and moves to character units only when it is difficult to detect word boundaries such as proper nouns,
Work efficiency is improved by reducing unnecessary movement.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施例を示す発音情報作成装置の
概略構成図である。
FIG. 1 is a schematic configuration diagram of a phonetic information creation device showing an embodiment of the present invention.

【図2】 本発明の一実施例の処理の流れを示すフロー
チャートである。
FIG. 2 is a flowchart showing a flow of processing according to an embodiment of the present invention.

【図3】 本発明の操作に用いる機能のキーへの割り付
け例である。
FIG. 3 is an example of assigning a function used for an operation of the present invention to a key.

【図4】 本発明の実行の表示例である。FIG. 4 is a display example of execution of the present invention.

【図5】 本発明のアクセント核の移動操作の表示例で
ある。
FIG. 5 is a display example of an operation of moving an accent nucleus according to the present invention.

【符号の説明】[Explanation of symbols]

1 …… ユーザーインターフェース部、 2 …… テキスト入力部、 3 …… 入力部、 4 …… 表示部、 5 …… 言語処理部、 6 …… 単語辞書、 7 …… 発音情報発声部。 1 ... User interface part, 2 ... Text input part, 3 ... Input part, 4 ... Display part, 5 ... Language processing part, 6 ... Word dictionary, 7 ... Pronunciation information voicing part.

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 テキストから音声を合成するための発音
情報を作成する発音情報作成方法において、テキストを
言語処理して発音情報へ変換し、該変換結果を対話的に
修正し、該修正結果を合成音声にて発声させるようにし
たことを特徴とする発音情報作成方法。
1. A pronunciation information creating method for creating pronunciation information for synthesizing a voice from a text, wherein a text is linguistically processed to be converted into pronunciation information, the conversion result is interactively modified, and the modification result is A method for creating phonetic information, characterized in that a synthetic voice is used.
【請求項2】 テキストから音声を合成するための音声
情報を作成する発音情報作成装置において、テキストを
言語処理して発音情報へ変換する言語処理部と、発音情
報を合成音声にて発声する発音情報発声部と、テキスト
と発音情報の表示、修正等を行なうユーザーインターフ
ェース部とを有し、前記言語処理部による自動変換とユ
ーザーによる修正作業の相互作用によって、対話的に発
音情報を作成することを特徴とする発音情報作成装置。
2. A pronunciation information creating apparatus for creating speech information for synthesizing speech from text, and a linguistic processing section for linguistically processing text to convert it into pronunciation information, and pronunciation for uttering pronunciation information in synthesized speech. An information utterance section and a user interface section for displaying and correcting text and pronunciation information, and interactively creating pronunciation information by interaction between the automatic conversion by the language processing section and the correction operation by the user. A pronunciation information generating device characterized by.
【請求項3】 前記ユーザーインターフェース部は、発
音情報として、読み、アクセント、発音単位種別をそれ
ぞれ異なる領域に表示させるようにしたことを特徴とす
る請求項2記載の発音情報作成装置。
3. The pronunciation information creating apparatus according to claim 2, wherein the user interface unit displays pronunciation, accent, and pronunciation unit type in different areas as pronunciation information.
【請求項4】 前記ユーザーインターフェース部は、テ
キストと発音情報を単語、アクセント句、呼気段落等の
特定発音単位毎に先頭を合わせて表示するようにしたこ
とを特徴とする請求項2記載の発音情報作成装置。
4. The pronunciation according to claim 2, wherein the user interface section displays the text and pronunciation information at the beginning of each specific pronunciation unit such as a word, an accent phrase, and a breath paragraph. Information creation device.
【請求項5】 前記ユーザーインターフェース部は、発
音単位境界を移動、削除、挿入等の修正を行なった場
合、該境界に隣接する前後2つの発音単位のみを、言語
処理部によって再変換し、ただちに再表示するようにし
たことを特徴とする請求項3記載の発音情報作成装置。
5. The user interface unit, when the pronunciation unit boundary is moved, deleted, inserted, or otherwise modified, only the two preceding and following pronunciation units adjacent to the boundary are reconverted by the language processing unit, and immediately. The pronunciation information generating apparatus according to claim 3, wherein the pronunciation information is displayed again.
【請求項6】 前記言語処理部でテキストを発音情報へ
変換しているとき、未登録語を発見した場合、前記ユー
ザーインターフェース部で該未登録語を他の部分とは区
別して表示するようにしたことを特徴とする請求項2記
載の発音情報作成装置。
6. When an unregistered word is found while converting text into pronunciation information in the language processing unit, the unregistered word is displayed separately from other parts in the user interface unit. The phonetic information creation device according to claim 2, wherein
【請求項7】 前記ユーザーインターフェース部は、表
示されたテキストの指定された範囲を単語辞書に登録
し、次回以降の言語処理に使用できるようにしたことを
特徴とする請求項2記載の発音情報作成装置。
7. The pronunciation information according to claim 2, wherein the user interface unit registers a designated range of the displayed text in a word dictionary so that it can be used for language processing from the next time onward. Creation device.
【請求項8】 前記発音情報発声部は、特定の箇所を自
動的に繰り返し発声するようにしたことを特徴とする請
求項2記載の発音情報作成装置。
8. The pronunciation information creating apparatus according to claim 2, wherein the pronunciation information voicing section is configured to automatically and repeatedly utter a specific portion.
【請求項9】 前記ユーザーインターフェース部は、発
声とは並行して発音情報を修正させ、該修正結果を前記
言語処理部で再変換し、該変換結果を前記発音情報発声
部によってただちに発声させるようにしたことを特徴と
する請求項2記載の発音情報作成装置。
9. The user interface unit corrects pronunciation information in parallel with utterance, reconverts the correction result in the language processing unit, and causes the pronunciation information utterance unit to immediately utter the conversion result. 3. The pronunciation information creating apparatus according to claim 2, wherein
【請求項10】 前記ユーザーインターフェース部は、
視覚的に表示されたアクセント核記号を言語的特徴によ
る制限を加えて移動するようにしたことを特徴とする請
求項2記載の発音情報作成装置。
10. The user interface unit comprises:
3. The pronunciation information creating apparatus according to claim 2, wherein the accented nuclear symbols displayed visually are moved while being restricted by linguistic features.
【請求項11】 前記言語的特徴の制限は、アクセント
核記号をモーラ単位で移動させることを特徴とする請求
項10記載の発音情報作成装置。
11. The pronunciation information creation device according to claim 10, wherein the restriction of the linguistic feature is to move the accent nucleus symbol in mora units.
【請求項12】 前記言語的特徴の制限は、アクセント
核が存在しにくいモーラへのアクセント核記号の移動を
禁止あるいは抑制することを特徴とする請求項10記載
の発音情報作成装置。
12. The pronunciation information creating apparatus according to claim 10, wherein the restriction of the linguistic feature prohibits or suppresses the movement of the accent nucleus symbol to the mora in which the accent nucleus is unlikely to exist.
【請求項13】 前記言語的特徴の制限は、外来語のア
クセント核位置を、原語のアクセントに準ずる位置と、
日本語としてなじんだ場合に現われやすい位置のそれぞ
れへ移動することを特徴とする請求項10記載の発音情
報作成装置。
13. The limitation of the linguistic feature is that the accent nucleus position of a foreign word is a position corresponding to the accent of the original word,
11. The pronunciation information generating apparatus according to claim 10, wherein the pronunciation information creating apparatus moves to each of the positions that are likely to appear when familiar with Japanese.
【請求項14】 前記言語的特徴の制限は、発音単位境
界の移動単位を文字、単語境界、字種境界等の中から選
択可能とすることを特徴とする請求項10記載の発音情
報作成装置。
14. The pronunciation information creating apparatus according to claim 10, wherein the linguistic feature restriction enables the movement unit of the pronunciation unit boundary to be selected from a character, a word boundary, a character type boundary, and the like. .
JP32775395A 1995-10-20 1995-12-18 Utterance information creation device Expired - Fee Related JP3483230B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32775395A JP3483230B2 (en) 1995-10-20 1995-12-18 Utterance information creation device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP27332095 1995-10-20
JP7-273320 1995-10-20
JP32775395A JP3483230B2 (en) 1995-10-20 1995-12-18 Utterance information creation device

Publications (2)

Publication Number Publication Date
JPH09171392A true JPH09171392A (en) 1997-06-30
JP3483230B2 JP3483230B2 (en) 2004-01-06

Family

ID=26550613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32775395A Expired - Fee Related JP3483230B2 (en) 1995-10-20 1995-12-18 Utterance information creation device

Country Status (1)

Country Link
JP (1) JP3483230B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09305193A (en) * 1996-05-13 1997-11-28 Canon Inc Method for setting accent and device therefor
US5809467A (en) * 1992-12-25 1998-09-15 Canon Kabushiki Kaisha Document inputting method and apparatus and speech outputting apparatus
JP2002023781A (en) * 2000-07-12 2002-01-25 Sanyo Electric Co Ltd Voice synthesizer, correction method for phrase units therein, rhythm pattern editing method therein, sound setting method therein, and computer-readable recording medium with voice synthesis program recorded thereon
KR100378898B1 (en) * 1999-04-30 2003-04-07 루센트 테크놀러지스 인크 A pronunciation setting method, an articles of manufacture comprising a computer readable medium and, a graphical user interface system
JP2007199410A (en) * 2006-01-26 2007-08-09 Internatl Business Mach Corp <Ibm> System supporting editing of pronunciation information given to text
JP2008268478A (en) * 2007-04-19 2008-11-06 Hitachi Business Solution Kk Accent adjustable speech synthesizer
JP2013130904A (en) * 2011-12-20 2013-07-04 Fujitsu Ltd Method and program for displaying reading of compound word, and reading generation device
JP2019152712A (en) * 2018-03-01 2019-09-12 Kddi株式会社 Analyzer and program
CN112307712A (en) * 2019-07-31 2021-02-02 株式会社理光 Text evaluation device and method, storage medium, and computer device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5809467A (en) * 1992-12-25 1998-09-15 Canon Kabushiki Kaisha Document inputting method and apparatus and speech outputting apparatus
JPH09305193A (en) * 1996-05-13 1997-11-28 Canon Inc Method for setting accent and device therefor
KR100378898B1 (en) * 1999-04-30 2003-04-07 루센트 테크놀러지스 인크 A pronunciation setting method, an articles of manufacture comprising a computer readable medium and, a graphical user interface system
JP2002023781A (en) * 2000-07-12 2002-01-25 Sanyo Electric Co Ltd Voice synthesizer, correction method for phrase units therein, rhythm pattern editing method therein, sound setting method therein, and computer-readable recording medium with voice synthesis program recorded thereon
JP2007199410A (en) * 2006-01-26 2007-08-09 Internatl Business Mach Corp <Ibm> System supporting editing of pronunciation information given to text
JP2008268478A (en) * 2007-04-19 2008-11-06 Hitachi Business Solution Kk Accent adjustable speech synthesizer
JP2013130904A (en) * 2011-12-20 2013-07-04 Fujitsu Ltd Method and program for displaying reading of compound word, and reading generation device
JP2019152712A (en) * 2018-03-01 2019-09-12 Kddi株式会社 Analyzer and program
CN112307712A (en) * 2019-07-31 2021-02-02 株式会社理光 Text evaluation device and method, storage medium, and computer device
CN112307712B (en) * 2019-07-31 2024-04-16 株式会社理光 Text evaluation device and method, storage medium, and computer device

Also Published As

Publication number Publication date
JP3483230B2 (en) 2004-01-06

Similar Documents

Publication Publication Date Title
US7260529B1 (en) Command insertion system and method for voice recognition applications
EP1096472B1 (en) Audio playback of a multi-source written document
EP0880127B1 (en) Method and apparatus for editing synthetic speech messages and recording medium with the method recorded thereon
JPS61107430A (en) Editing unit for voice information
JPH08185308A (en) Electronic interpreter
JP3616250B2 (en) Synthetic voice message creation method, apparatus and recording medium recording the method
JP3795692B2 (en) Character processing apparatus and method
JP3483230B2 (en) Utterance information creation device
JPH06195326A (en) Method and device for inputting document
JP4584511B2 (en) Regular speech synthesizer
JP3762300B2 (en) Text input processing apparatus and method, and program
JP3589972B2 (en) Speech synthesizer
JP2580565B2 (en) Voice information dictionary creation device
JP2006031725A (en) Character processor
JPH07160289A (en) Voice recognition method and device
JP3280729B2 (en) Phonetic symbol creation device
JP3284976B2 (en) Speech synthesis device and computer-readable recording medium
JP3414326B2 (en) Speech synthesis dictionary registration apparatus and method
JPH08221095A (en) Method for reading sentence aloud
JP3069532B2 (en) Kana-kanji conversion method and device, and computer-readable recording medium storing a program for causing a computer to execute the kana-kanji conversion method
JPH05210482A (en) Method for managing sounding dictionary
JPH01130262A (en) Voice word processor
JPH0195323A (en) Voice input device
JPH06214593A (en) Word processor
JPH04166899A (en) Text-voice conversion device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071017

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081017

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081017

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091017

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees