JP2004037528A - Information processor and information processing method - Google Patents
Information processor and information processing method Download PDFInfo
- Publication number
- JP2004037528A JP2004037528A JP2002190545A JP2002190545A JP2004037528A JP 2004037528 A JP2004037528 A JP 2004037528A JP 2002190545 A JP2002190545 A JP 2002190545A JP 2002190545 A JP2002190545 A JP 2002190545A JP 2004037528 A JP2004037528 A JP 2004037528A
- Authority
- JP
- Japan
- Prior art keywords
- information
- word
- accent
- speech
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は情報処理装置およびその方法に関し、例えば、音声認識や音声合成で用いられる単語情報を効率よく編集、作成するための情報処理に関する。
【0002】
【従来の技術】
近年の機器性能およびソフトウェア技術の向上により、ユーザが発声した音声を認識して、機器に対するコマンドとして用いるシステムが開発されている。これらシステムに用いられる多くの音声認識装置は、前もって認識可能な語彙(認識語彙)を登録しておく必要がある。認識語彙の登録は、音声あるいは発声内容を含むテキスト(例えば単語の読みを表すカタカナ)によって行う。また、音声によって認識語彙を登録する場合は、登録ユーザと利用ユーザとが異なると認識率が下がる欠点がある。このため、現状は、テキストによって認識語彙を登録する装置が多い。
【0003】
また、電子化されたテキストを音声情報に変換する音声合成技術も実用化されている。音声合成は、基本的に、ユーザが単語を登録する必要はないが、装置にとって未知の語彙を正確に発声させようとする場合、語彙の発声辞書が必要になる。発声辞書は、語彙の読みのほか、アクセント情報(読みの何処でアクセントが上がる、下がる)や、その単語の品詞情報も含む場合がある。
【0004】
【発明が解決しようとする課題】
音声認識を利用するには、上述したように認識語彙が必要である。また、音声合成で単語を正確に発声させるには、上述したように発声辞書が必要である。これらのデータ(以下、まとめて「単語辞書」と呼ぶ)は、認識語彙や発声内容が変化しなければ、システムの構築時に一度作成すれば済むが、システムの対話内容が変化する場合には単語辞書をメンテナンスする必要が生じる。
【0005】
特開2002−41081公報には、文字列を入力として受け付け、その文字列を構成単語ごとに分割し、各単語の読み情報を自動補完することで、音声認識用の認識語彙を作成する技術が開示されている。この技術は、認識語彙が含まれる文章を入力するだけで認識語彙が生成されるため、ユーザの負荷が少ない。しかし、この方式ではアクセント、品詞などが必要な音声合成用の発声辞書を作成することはできず、また、認識語彙に自動的に付加された誤った読みを編集することも難しい。
【0006】
本発明は、上述の問題を個々にまたはまとめて解決するためのもので、音声認識や音声合成で用いられる単語情報を効率よく編集、作成することを目的とする。
【0007】
また、単語情報に自動付加された情報の訂正を可能にすることを他の目的とする。
【0008】
【課題点を解決するための手段】
本発明は、前記の目的を達成する一手段として、以下の構成を備える。
【0009】
本発明にかかる情報処理装置は、単語の表記情報を入力または編集する入力編集手段と、入力または編集された表記情報に基づき、その単語の読み、アクセントおよび品詞を示す単語情報を補完する補完手段と、前記補間手段によって補完された単語情報を、必要に応じて訂正する訂正手段と、作成された単語情報を出力する出力手段とを有することを特徴とする。
【0010】
本発明にかかる情報処理方法は、単語の表記情報を入力または編集し、入力または編集された表記情報に基づき、その単語の読み、アクセントおよび品詞を示す単語情報を補完し、補完された単語情報を、必要に応じて訂正し、作成された単語情報を出力することを特徴とする。
【0011】
好ましくは、さらに、前記単語情報の利用形態を設定し、前記利用形態に応じて前記単語情報を出力することを特徴とする。
【0012】
【発明の実施の形態】
以下、本発明にかかる一実施形態の単語辞書を編集する情報処理装置(以下「単語辞書編集装置」と呼ぶ)を図面を参照して詳細に説明する。
【0013】
[構成]
図1は単語辞書を編集する装置の構成例を示すブロック図である。
【0014】
単語辞書編集装置101には、入力装置としてキーボード104およびマウスなどのポインティングデバイス105が接続され、編集作業や登録単語の情報をユーザに通知する出力装置としてディスプレイ102およびスピーカ103が接続されている。なお、これら装置を一体に構成することも可能である。また、単語辞書編集装置101は専用の装置として構成することもできるが、単語辞書編集を実行するソフトウェアをコンピュータ機器(PC)に供給することでも実現可能である。
【0015】
入力装置によって入力される、単語編集者(以下「ユーザ」と呼ぶ)の入力操作を示す情報(操作情報)は、単語辞書編集装置101の操作情報入力部110によって解釈され、その操作情報は単語データ編集部108へ送られて、単語データ編集部108により、各単語の表記や読み情報の編集、アクセント設定などが行われる。そして、編集された単語データは、単語データ管理部109へ送られて、単語辞書113へ格納される。単語辞書113は、例えばハードディスクや半導体メモリカードに割り付けられた領域に格納されていて、外部の音声認識装置や音声合成装置は、所定のインタフェイスを介して、単語辞書113に格納された単語データを読み込み、音声認識や音声合成処理を行う。
【0016】
単語データ編集部108によって単語表記が編集された場合、単語データ自動補完部111は、その単語表記から読みやアクセント情報を自動的に付加する自動補完処理を行う。この自動補間処理により、表記に対応する読みやアクセントを入力するユーザの手間を省くことができ、ユーザによる読みやアクセントの設定は、主に、自動補完処理に誤りがあった場合に限られる。自動補完処理は、詳細は後述するが、単語の表記に基づき言語辞書114を検索し、言語辞書114に格納された読み、アクセントおよび品詞を設定する処理である。
【0017】
情報出力部106は、出力装置を用いて、ユーザの操作情報をフィードバックし、また、単語データ管理部109が管理する単語データを、逐次、ユーザに提示する。具体的には、ユーザが音声出力によって単語を確認するコマンドを入力すると、情報出力部106は、選択された単語情報(読み、アクセントおよび品詞)および音声合成用素片データ112を用いる音声合成処理を音声合成部107に実行させ、生成された音声波形をスピーカ103に出力する。なお、音声合成処理は、公知の技術を用いているため、詳しい説明は省略する。
【0018】
なお、言語辞書114および音声合成用素片データ112は、単語辞書113と同様に、例えばハードディスクや半導体メモリカードに割り付けられた領域に格納されている。
【0019】
[処理]
図2は単語辞書の編集処理の一例を示すフローチャートである。なお、以下では、単語辞書編集装置101が、図3に示すようなユーザインタフェイス(UI)画面を有するダイアログベースのアプリケーションソフトウェアとしてPCなどに実装された場合を説明する。
【0020】
単語辞書編集装置101は、起動されるとユーザ操作情報を読み込み(S201)、読み込んだユーザ操作情報に対応する処理を行う下記のループに入る。言い換えれば、ユーザの操作によって発生するイベントに基づき各処理を呼び出す。
【0021】
UI画面のボタンあるいはメニューによって「新規単語追加」が指示されると(S202)、新規単語用に空のレコード(情報群)を作成する(S211)。図3に示すUI画面は一行が一つの単語情報を示し、新規単語追加は行を追加する処理に対応し、具体的には、UI画面のID列402に新規単語のIDを例えば数字列で付加する。なお、IDは、登録単語に対してユニークに割り振ることが望ましい。
【0022】
UI画面に表示された特定の単語が選択され、ボタンあるいはメニューによって「単語削除」が指示されると(S203)、その単語情報のレコードを削除する(S212)。
【0023】
マウス105などにより、表記列403のセルが選択されると(S204)、「表記編集」が指示されたとして、キーボード104などを介して入力される文字列を選択セルに表示して、その文字列を単語の表記情報として設定し(S213)、その表記情報を用いて単語情報(読み、アクセントおよび品詞)を自動補完する(S214)。
【0024】
マウス105などにより、読み列404のセルが選択されると(S205)、「読み修正処理」が指定されたとして、キーボード104などを介して入力される文字列を選択セルに表示して、その文字列を単語の読み情報として設定する(S215)。
【0025】
マウス105などにより、アクセント列405のセルが選択されると(S206)、「アクセント修正処理」が指定されたとして、キーボード104などを介して入力される文字列を選択セルに表示して、その文字列を単語のアクセント情報として設定する(S216)。その際、図4に示すようなアクセント設定用の別のUI画面を開き、グラフィカルユーザインタフェイス(GUI)を利用してアクセントを設定することも可能である。図4に示すGUIの例は、単語の読み情報のモーラ(発声の単位)ごとに一つずつアクセント指定ボタン602を割り当て、各ボタンの状態によってアクセントを指定するものである。ボタンの状態と、アクセントの高低との関係は、例えば、次のように定める。
ボタンが押された状態 … アクセントが低い
ボタンが押されていない状態 … アクセントが高い
【0026】
マウス105などにより、品詞列406のセルが選択されると(S207)、「品詞修正処理」が指定されたとして、キーボード104などを介して入力されるまたはリストボックスなどから選択される品詞名を示す文字列を選択セルに表示して、その品詞名を単語の品詞情報として設定する(S217)。
【0027】
特定の単語(複数の単語でもよい)が選択され、ボタンあるいはメニューによって「音声確認」が指示されると(S208)、その単語の読み/アクセントをユーザに確認させるための音声合成処理および音声出力を行う(S218)。なお、複数の単語が選択された場合、例えばUI画面の上から順に単語の音声を出力する。また、図4に示すように、アクセント設定用のGUIにも音声確認ボタン603を用意して、アクセント設定時に音声確認が行えるようにしてもよい。
【0028】
ボタンあるいはメニューによって「ファイル書き出し」が指示された場合(S209)、現在登録されている全単語を単語辞書113としてファイル出力する(S219)。その際、出力する単語辞書113の形式を選択できるようにしてもよいし、音声合成用の発声辞書や、音声認識用の認識語彙データ(音声認識用の認識文法に従う単語情報)として出力することを明示して、ファイルに書き出してもよい。図5はファイルの保存先を設定するUI画面の一例であるが、このUI画面の中で、データフォーマット選定リスト702により、書き出すファイルの形式を選択できる。図6はファイル出力された単語辞書113の一例を示す図である。なお、ファイルの出力先は、装置101のハードディスクや半導体メモリカードであるが、所定のインタフェイスを備えることによって、IEEE1394やUSB(Universal Serial Bus)などのシリアルバスや、BluetoothやIrDAなどの無線インタフェイスを介して、音声認識装置や音声合成装置のメモリに出力することも可能である。
【0029】
また、ボタンあるいはメニューによって「終了」が指示された場合(S210)、処理を終了する。その際、ファイル出力していない単語情報があれば、ユーザにファイル出力を促すダイアログを提示してもよい。
【0030】
[単語情報の補完]
図7は単語情報の自動補完処理の一例を示すフローチャートで、単語の表記が新規に入力または編集された場合にこの処理が実行される。
【0031】
まず、単語の表記を用いて言語辞書114を検索(辞書引き)し(S301)、その単語表記に対応する単語が言語辞書114に格納されている否かを判定する(S302)。対応する単語が格納されている場合、言語辞書114から対応する単語情報(読み、アクセントおよび品詞)を取り出し(S306)、取り出した単語情報を、入力または編集された単語表記に対応する読み、アクセントおよび品詞に設定する(S307)。
【0032】
また、入力された単語表記に対応する単語が検索されなかった場合は、その単語表記を細分して個々の表記を検索する(S303)。単語表記の分割は、形態素ごとに区切ればよいが、形態素に区切っても検索されない場合は一文字ごとに分割する。そして、分割された表記それぞれに対応する読みを、分割前の表記順に繋げ(S304)、アクセントはデフォルト値(例えば0型)に、品詞は名詞にして(S305)、入力または編集された単語表記に対応する読み、アクセントおよび品詞に設定する(S307)。
【0033】
例えば「YRP野比」という表記から読み、アクセントおよび品詞を自動補完する場合、次のような処理になる。
【0034】
まず「YRP野比」が言語辞書114から辞書引きされ、「YRP野比」が検索されなかったとすると、「YRP野比」が形態素解析される。解析の結果、「Y」「R」「P」および「野比」に分割され、それぞれが辞書引きされて「ワイ」「アール」「ピー」「ノビ」という読みが得られる。これらを一つの読み「ワイアールピーノビ」と繋げて読みとし、アクセントは0型、品詞は名詞に設定する。
【0035】
[キーオペレーション]
図8は単語情報補完装置101で可能なキーオペレーション用のキー割り当ての一覧を示す図である。図8に示すように、装置101はUI画面のボタンやメニューからだけではなく、キー操作によっても各種コマンド指示を行うことができる。
【0036】
【変形例】
図9は、図3に示したUI画面の変形例を示す図である。この例では、UI画面に単語利用先を指定する列902が追加されている。列902の各セルにはリストボックスなどから選択可能な利用先を示す「音声合成」「音声認識」「音声合成・認識両方」が入力可能である。
【0037】
利用先情報は、その単語を音声認識用の認識語彙データとして用いるか、音声合成用の発声辞書として用いるか、あるいは、その双方に用いるかを示す情報で、この設定値により、単語辞書編集装置101の処理を変えることができる。例えば、ステップS219において、認識語彙データを出力する場合は「音声認識」「音声合成・認識両方」が設定された単語だけを出力し、同様に、発声辞書を出力する場合は「音声合成」「音声合成・認識両方」が設定された単語だけを出力することができる。
【0038】
このようにすれば、図9に示す一つのUI画面で、音声認識用および音声合成用の語彙を同時に管理することが可能になる。
【0039】
図10は、図4に示したUI画面の変形例を示す図である。この例では、アクセントの高低をボタンで指示するのではなく、スライダバー1002を用いてより細かく指示することができる。また、スライダバー1002の各スライダを結ぶ曲線(アクセントイメージ)1004により、単語に設定されたアクセントをグラフィックス表示することができる。
【0040】
なお、上記では、、単語情報が表記、読み、アクセントおよび品詞で構成されると説明したが、それら以外の情報を含めることができる。例えば、出現確率、重要度、音声認識された際に実行する処理名、音声合成する際の波形辞書名、並びに、音声合成する際の速度・音程のパラメータなどを含めることができる。
【0041】
勿論、単語辞書編集装置101は日本語以外の言語にも適用可能である。
【0042】
【他の実施形態】
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
【0043】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0044】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0045】
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0046】
【発明の効果】
以上説明したように、本発明によれば、
【0047】
本単語辞書編集装置において、単語の表記を入力すれば、その読み、アクセント、品詞などが自動補完される。これら補完された単語情報が間違っていた場合だけ、それらの内容を編集すればよいため、ユーザの手間を大幅に削減することが可能になる。
【図面の簡単な説明】
【図1】単語辞書を編集する装置の構成例を示すブロック図、
【図2】単語辞書の編集処理の一例を示すフローチャート、
【図3】ユーザインタフェイス画面の一例を示す図、
【図4】アクセント設定用のユーザインタフェイス画面の一例を示す図、
【図5】ファイルの保存先を設定するユーザインタフェイス画面の一例、
【図6】ファイル出力された単語辞書の一例を示す図、
【図7】単語情報の自動補完処理の一例を示すフローチャート、
【図8】単語情報補完装置で可能なキーオペレーション用のキー割り当ての一覧を示す図、
【図9】図3に示したユーザインタフェイス画面の変形例を示す図、
【図10】図4に示したユーザインタフェイス画面の変形例を示す図である。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information processing apparatus and method, for example, to information processing for efficiently editing and creating word information used in speech recognition and speech synthesis.
[0002]
[Prior art]
Due to recent improvements in device performance and software technology, systems that recognize voices uttered by users and use the commands as commands for the devices have been developed. Many speech recognition devices used in these systems need to register a recognizable vocabulary (recognized vocabulary) in advance. The registration of the recognition vocabulary is performed by text including text or utterance content (for example, katakana indicating reading of a word). In addition, when the recognition vocabulary is registered by voice, there is a disadvantage that the recognition rate is reduced if the registered user and the user are different. For this reason, at present, there are many devices for registering recognition vocabulary by text.
[0003]
Speech synthesis techniques for converting digitized text into speech information have also been put to practical use. Speech synthesis basically does not require the user to register words, but requires a vocabulary dictionary of vocabulary if the vocabulary unknown to the device is to be uttered accurately. The utterance dictionary may include, in addition to the vocabulary reading, accent information (where the accent goes up or down in the reading) and part of speech information of the word.
[0004]
[Problems to be solved by the invention]
To use speech recognition, a recognition vocabulary is required as described above. Further, in order to accurately utter words in speech synthesis, an utterance dictionary is necessary as described above. These data (hereinafter collectively referred to as a “word dictionary”) need only be created once when the system is built unless the recognized vocabulary and utterance content change, but if the dialog content of the system changes, the word The dictionary needs to be maintained.
[0005]
Japanese Patent Application Laid-Open No. 2002-41081 discloses a technique for generating a recognition vocabulary for speech recognition by receiving a character string as input, dividing the character string into constituent words, and automatically complementing reading information of each word. It has been disclosed. According to this technique, the recognition vocabulary is generated only by inputting a sentence including the recognition vocabulary, so that the load on the user is small. However, with this method, it is not possible to create an utterance dictionary for speech synthesis requiring accents, parts of speech, etc., and it is also difficult to edit erroneous readings automatically added to the recognized vocabulary.
[0006]
The present invention is to solve the above-mentioned problems individually or collectively, and aims to efficiently edit and create word information used in speech recognition and speech synthesis.
[0007]
Another object of the present invention is to enable correction of information automatically added to word information.
[0008]
[Means for solving the problems]
The present invention has the following configuration as one means for achieving the above object.
[0009]
An information processing apparatus according to the present invention includes an input / editing unit that inputs or edits notation information of a word, and a complementing unit that complements word information indicating the reading, accent, and part of speech of the word based on the input or edited notation information. And correction means for correcting the word information complemented by the interpolation means as necessary, and output means for outputting the created word information.
[0010]
The information processing method according to the present invention inputs or edits notation information of a word, and based on the input or edited notation information, complements word information indicating the reading, accent, and part of speech of the word, and complements the complemented word information. Is corrected as necessary, and the created word information is output.
[0011]
Preferably, the method further comprises setting a usage mode of the word information, and outputting the word information according to the usage mode.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an information processing apparatus for editing a word dictionary (hereinafter, referred to as a “word dictionary editing apparatus”) according to an embodiment of the present invention will be described in detail with reference to the drawings.
[0013]
[Constitution]
FIG. 1 is a block diagram showing a configuration example of a device for editing a word dictionary.
[0014]
A
[0015]
Information (operation information) indicating an input operation of a word editor (hereinafter, referred to as “user”) input by the input device is interpreted by the operation
[0016]
When the word notation is edited by the word
[0017]
The
[0018]
Note that, similarly to the
[0019]
[processing]
FIG. 2 is a flowchart illustrating an example of a word dictionary editing process. Hereinafter, a case will be described in which the word
[0020]
When activated, the word
[0021]
When "Add new word" is instructed by a button or menu on the UI screen (S202), an empty record (information group) is created for a new word (S211). In the UI screen shown in FIG. 3, one line indicates one piece of word information, and adding a new word corresponds to a process of adding a line. Specifically, the ID of the new word is added to the
[0022]
When a specific word displayed on the UI screen is selected and "delete word" is instructed by a button or a menu (S203), the record of the word information is deleted (S212).
[0023]
When a cell of the
[0024]
When a cell of the
[0025]
When the cell of the
Button pressed… State with low accent button not pressed… High accent
When the cell of the part-of-
[0027]
When a specific word (or a plurality of words) is selected and "voice confirmation" is instructed by a button or a menu (S208), a speech synthesis process and a speech output for causing the user to confirm the reading / accent of the word. Is performed (S218). When a plurality of words are selected, for example, the sounds of the words are output in order from the top of the UI screen. Also, as shown in FIG. 4, a
[0028]
When "file writing" is instructed by a button or a menu (S209), all words registered at present are output as a
[0029]
When "end" is instructed by the button or the menu (S210), the process ends. At this time, if there is word information that has not been output to a file, a dialog prompting the user to output a file may be presented.
[0030]
[Complete word information]
FIG. 7 is a flowchart illustrating an example of a word information auto-completion process. This process is executed when a word notation is newly input or edited.
[0031]
First, the
[0032]
If no word corresponding to the input word notation is found, the word notation is subdivided and individual notations are searched (S303). The word notation may be divided for each morpheme. However, if the search is not performed even if it is divided for each morpheme, it is divided for each character. Then, the pronunciations corresponding to each of the divided notations are connected in the notation order before the division (S304), the accent is set to a default value (for example, type 0), the part of speech is set to a noun (S305), and the input or edited word notation is used. Are set to the reading, accent, and part of speech (S307).
[0033]
For example, when reading from the notation “YRP Nobi” and automatically complementing accents and parts of speech, the following processing is performed.
[0034]
First, if “YRP Nobi” is looked up in the dictionary from the
[0035]
[Key operation]
FIG. 8 is a diagram showing a list of key assignments for key operations that can be performed by the word
[0036]
[Modification]
FIG. 9 is a diagram showing a modification of the UI screen shown in FIG. In this example, a
[0037]
The usage destination information is information indicating whether the word is used as recognition vocabulary data for speech recognition, as an utterance dictionary for speech synthesis, or both, and the set value is used to set the word dictionary editing device. The processing of 101 can be changed. For example, in step S219, when outputting recognized vocabulary data, only words for which "speech recognition" and "both speech synthesis / recognition" are set are output, and similarly, when outputting a speech dictionary, "speech synthesis" and "voice synthesis" are output. Only words for which both "speech synthesis and recognition" are set can be output.
[0038]
This makes it possible to simultaneously manage the vocabularies for speech recognition and speech synthesis on one UI screen shown in FIG.
[0039]
FIG. 10 is a diagram showing a modification of the UI screen shown in FIG. In this example, instead of instructing the height of the accent with a button, the
[0040]
In the above description, it has been described that the word information is composed of notation, reading, accent, and part of speech, but other information can be included. For example, an appearance probability, a degree of importance, a name of a process to be executed when speech recognition is performed, a waveform dictionary name for speech synthesis, and parameters of speed and pitch for speech synthesis can be included.
[0041]
Of course, the word
[0042]
[Other embodiments]
The present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), but can be applied to a device including one device (for example, a copier, a facsimile machine, etc.). May be applied.
[0043]
Further, an object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and a computer (or a CPU or a CPU) of the system or the apparatus. Needless to say, the present invention can also be achieved by an MPU) reading and executing a program code stored in a storage medium. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.
[0044]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is executed based on the instruction of the program code. It goes without saying that the CPU included in the expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0045]
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.
[0046]
【The invention's effect】
As described above, according to the present invention,
[0047]
In the present word dictionary editing device, when a word notation is input, its reading, accent, part of speech, and the like are automatically complemented. Only when the complemented word information is wrong, it is sufficient to edit the contents thereof, so that it is possible to greatly reduce the trouble of the user.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration example of a device for editing a word dictionary;
FIG. 2 is a flowchart showing an example of a word dictionary editing process;
FIG. 3 is a diagram showing an example of a user interface screen.
FIG. 4 is a diagram showing an example of a user interface screen for setting an accent.
FIG. 5 is an example of a user interface screen for setting a save destination of a file;
FIG. 6 is a diagram showing an example of a word dictionary output as a file.
FIG. 7 is a flowchart showing an example of an automatic completion process of word information;
FIG. 8 is a diagram showing a list of key assignments for key operations that can be performed by the word information complementing device;
FIG. 9 is a view showing a modification of the user interface screen shown in FIG. 3;
FIG. 10 is a diagram showing a modification of the user interface screen shown in FIG.
Claims (11)
入力または編集された表記情報に基づき、その単語の読み、アクセントおよび品詞を示す単語情報を補完する補完手段と、
前記補間手段によって補完された単語情報を、必要に応じて訂正する訂正手段と、
作成された単語情報を出力する出力手段とを有することを特徴とする情報処理装置。Input editing means for inputting or editing word notation information;
A complementing means for complementing word information indicating the reading, accent, and part of speech of the word based on the input or edited written information;
Correction means for correcting the word information complemented by the interpolation means, if necessary,
An output unit that outputs the created word information.
前記出力手段は、前記利用形態に応じて前記単語情報を出力することを特徴とする請求項1に記載された情報処理装置。Further, there is a setting means for setting a use form of the word information,
The information processing apparatus according to claim 1, wherein the output unit outputs the word information according to the use mode.
前記訂正手段は、前記アクセント設定手段によって設定されるアクセント情報を前記単語情報に反映することを特徴とする請求項1から請求項5の何れかに記載された情報処理装置。Furthermore, it has accent setting means for setting accent information for each mora of the word,
The information processing apparatus according to claim 1, wherein the correction unit reflects the accent information set by the accent setting unit in the word information.
入力または編集された表記情報に基づき、その単語の読み、アクセントおよび品詞を示す単語情報を補完し、
補完された単語情報を、必要に応じて訂正し、
作成された単語情報を出力することを特徴とする情報処理方法。Enter or edit the word ’s notation information,
Based on the input or edited written information, complement the word information indicating the reading, accent and part of speech of the word,
Correct the complemented word information as necessary,
An information processing method characterized by outputting the created word information.
前記利用形態に応じて前記単語情報を出力することを特徴とする請求項8に記載された情報処理方法。Further, a use mode of the word information is set,
The information processing method according to claim 8, wherein the word information is output according to the use mode.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002190545A JP2004037528A (en) | 2002-06-28 | 2002-06-28 | Information processor and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002190545A JP2004037528A (en) | 2002-06-28 | 2002-06-28 | Information processor and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004037528A true JP2004037528A (en) | 2004-02-05 |
Family
ID=31700443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002190545A Pending JP2004037528A (en) | 2002-06-28 | 2002-06-28 | Information processor and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004037528A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007047412A (en) * | 2005-08-09 | 2007-02-22 | Toshiba Corp | Apparatus and method for generating recognition grammar model and voice recognition apparatus |
-
2002
- 2002-06-28 JP JP2002190545A patent/JP2004037528A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007047412A (en) * | 2005-08-09 | 2007-02-22 | Toshiba Corp | Apparatus and method for generating recognition grammar model and voice recognition apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1091346B1 (en) | Background system for audio signal recovery | |
US6446041B1 (en) | Method and system for providing audio playback of a multi-source document | |
JP4987623B2 (en) | Apparatus and method for interacting with user by voice | |
JP5172682B2 (en) | Generating words and names using N-grams of phonemes | |
US20080120093A1 (en) | System for creating dictionary for speech synthesis, semiconductor integrated circuit device, and method for manufacturing semiconductor integrated circuit device | |
JP3795692B2 (en) | Character processing apparatus and method | |
JP2008083239A (en) | Device, method and program for editing intermediate language | |
JP2004037528A (en) | Information processor and information processing method | |
JP2008146019A (en) | System for creating dictionary for speech synthesis, semiconductor integrated circuit device, and method for manufacturing semiconductor integrated circuit device | |
JP4311710B2 (en) | Speech synthesis controller | |
JP6232724B2 (en) | Speech synthesis apparatus and language dictionary registration method | |
JPH09325787A (en) | Voice synthesizing method, voice synthesizing device, method and device for incorporating voice command in sentence | |
JP3581044B2 (en) | Spoken dialogue processing method, spoken dialogue processing system, and storage medium storing program | |
JP4026512B2 (en) | Singing composition data input program and singing composition data input device | |
JP2008257116A (en) | Speech synthesis system | |
JP2006031725A (en) | Character processor | |
JP2003202886A (en) | Device, method, and program for text input processing | |
JP2015055793A (en) | Voice synthesizer, voice synthesizing method, and program | |
JP3414326B2 (en) | Speech synthesis dictionary registration apparatus and method | |
JP3284976B2 (en) | Speech synthesis device and computer-readable recording medium | |
JP2007127994A (en) | Voice synthesizing method, voice synthesizer, and program | |
JP3821131B2 (en) | Speech synthesis apparatus and speech synthesis method | |
JP2004287192A (en) | Device and program for editing synthesized speech | |
JP2009271209A (en) | Voice message creation system, program, semiconductor integrated circuit device and method for manufacturing the same | |
JPH08221095A (en) | Method for reading sentence aloud |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040609 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060529 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060728 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060828 |