JP4559946B2 - 入力装置、入力方法および入力プログラム - Google Patents

入力装置、入力方法および入力プログラム Download PDF

Info

Publication number
JP4559946B2
JP4559946B2 JP2005284282A JP2005284282A JP4559946B2 JP 4559946 B2 JP4559946 B2 JP 4559946B2 JP 2005284282 A JP2005284282 A JP 2005284282A JP 2005284282 A JP2005284282 A JP 2005284282A JP 4559946 B2 JP4559946 B2 JP 4559946B2
Authority
JP
Japan
Prior art keywords
correction
notation
input
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005284282A
Other languages
English (en)
Other versions
JP2007094086A (ja
Inventor
哲朗 知野
聡史 釜谷
一男 住田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005284282A priority Critical patent/JP4559946B2/ja
Priority to US11/528,558 priority patent/US8346537B2/en
Publication of JP2007094086A publication Critical patent/JP2007094086A/ja
Application granted granted Critical
Publication of JP4559946B2 publication Critical patent/JP4559946B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Description

この発明は、提示した用例から適切な入力内容を指定することにより入力を受付ける入力装置、入力方法および入力プログラムに関するものである。
近年、音声入力を用いたヒューマンインタフェースの実用化が進んでいる。例えば、利用者が予め設定されている特定のコマンドを音声入力し、これをシステムが認識して対応する操作を実行することによって、利用者が音声でシステムを操作することができるようにした音声操作システムが実現されている。また、利用者が発生した任意の文章をシステムが分析し、文字列に変換することによって、音声入力による文書作成を可能とするシステムが実現されている。
さらに、第一の言語による音声入力を第二の言語に翻訳して音声出力することによって異言語コミュニケーションを支援する音声翻訳システムや、利用者とシステムが話し言葉によって対話することを可能とするための音声対話システムなどが開発されている。
このようなシステムでは、利用者から発声された音声信号をデジタルデータに変換し、予め定められたパターンと比較することによって発話内容を認識する音声認識技術を利用している。
音声認識では、周囲の環境の雑音の影響や、利用者の声質、音量、発声速度等の相違に起因して誤認識が発生しうる。また、誤認識時には利用者が再度音声入力を行う必要があるため、操作負担が増大する。さらに、任意の文章を音声入力可能とすると、音声認識処理における比較処理等の処理負担が増大し、十分な精度を得ることが困難となる。
これに対し、特許文献1では、利用者に対して、音声入力の内容についての用例を提示し、利用者がその用例を参考として一部を変更した音声入力を行うことのできる入力装置が提案されている。この方法によれば、利用者に対して提示された用例または用例の一部を変更した入力に限定することができるため、音声認識処理を高精度に行うことが可能となる。また、利用者は提示された用例を参照することにより入力内容の指針を得ることができるため、入力処理の操作性を向上させることができる。
特開2000−200275号公報
しかしながら、特許文献1の方法では、利用者に提示される用例が予め入力装置内に用意されているものに限定されるため、性別、年齢、職業、旅行経験などが異なるすべての利用者に対して適切な候補を提示することができないという問題があった。
このため、ほとんどの場合に用例の一部を改変する必要が避けられず、利用者による音声入力がほぼ毎回必要になるという問題があった。また、誤認識を完全に回避することができない音声認識が必須となるため、誤認識時の再入力の負担を軽減することができないという問題があった。
本発明は、上記に鑑みてなされたものであって、利用者ごとに適切な入力内容の用例を提示することができる入力装置、入力方法および入力プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、入力装置において、用例を記憶する用例記憶手段と、用例の修正部分の修正前の表記と、用例の修正部分の修正後の表記とを対応づけて記憶する修正記憶手段と、前記用例記憶手段に記憶された用例から、利用者に提示する少なくとも1つの用例を決定する提示用例決定手段と、決定された前記用例に含まれる前記修正前の表記に対応する前記修正後の表記を前記修正記憶手段から取得し、決定された前記用例に含まれる前記修正前の表記を、取得した前記修正後の表記に置換することにより、前記提示用例決定手段が決定した用例を修正する修正適用手段と、前記提示用例決定手段が決定し、前記修正適用手段が修正した用例を利用者に対して提示する表示制御手段と、前記表示制御手段が表示した用例の中から利用者が選択した用例、または、利用者が用例の一部を修正した内容の入力を受付ける入力受付手段と、を備えたことを特徴とする。
また、本発明は、上記装置を実行することができる入力方法および入力プログラムである。
本発明によれば、利用者が行った修正を反映することにより利用者ごとに適切な入力内容の用例を提示することができる。このため、用例の改変入力の必要性が減少し、利用者の操作負担を軽減することができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる入力装置、入力方法および入力プログラムの最良な実施の形態を詳細に説明する。
(第1の実施の形態)
第1の実施の形態では、本発明にかかる入力装置を、日本語から英語へ翻訳して出力する用例翻訳方式の音声翻訳装置の一部として実現した例について説明する。なお、翻訳の原言語および対象言語の組み合わせはこれに限られるものではなく、あらゆる言語の組に対して適用可能である。
また、入力装置を実現する形態はこれに限られず、予め定められた入力内容の用例を提示し、提示した用例の中から利用者が選択した用例を入力する機能を有するものであればあらゆる装置に適用することができる。例えば、カーナビゲーションシステム、家電制御システムなどの入力インタフェースに本発明にかかる入力装置を適用することができる。
第1の実施の形態にかかる音声翻訳装置は、利用者が用例を修正したときの修正内容を記憶手段に記憶し、その後用例を提示する際には、記憶手段に記憶された修正内容を参照して事前に用意された用例を変更し、利用者に提示するものである。
図1は、第1の実施の形態にかかる音声翻訳装置100の構成を示すブロック図である。同図に示すように、音声翻訳装置100は、用例記憶部111と、修正記憶部112と、位置情報取得部113と、ユーザI/F114と、使用状況検出部101と、提示用例決定部102と、修正適用部103と、表示制御部104と、用例選択受付部105と、音声入力受付部106と、解析部107と、対訳生成出力部108と、を備えている。
用例記憶部111は、意味的に等価な日本語表現と英語表現の組である対訳の用例を記憶するものであり、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random AccesSmemory)などの一般的に利用されているあらゆる記憶手段により構成することができる。
図2は、用例記憶部111に格納される用例のデータ構造の一例を示す説明図である。同図に示すように、用例記憶部111は、用例を一意に識別するための用例IDと、日本語表現と、当該日本語表現と同じ意味の英語表現と、場面とを対応づけて格納している。
場面の欄には、対応する用例が利用される場面の種別を設定する。例えば、「TRANSPORT」は、交通機関の利用などに関連する場面を表し、「FAMILY」は、家族や親族などに関連する場面を表し、「SIGHTSEEING」は、観光に関連する場面を表している。
なお、例えば、同図の用例IDがp01〜p14で示される用例のように、利用する場面を特定しない単語等を対応づけている用例は、場面の欄には記号“−”を設定する。
また、例えば、同図の用例IDがq01〜q07で示される用例のように、利用する場面を特定することができる文等を対応づけている用例では、文に含まれる単語などの表記に、記号“#”に続けて表記の意味を表す意味属性(意味クラス)を付記することができる。この場合、記号“[”、“]”の組によって、意味クラスに関する付記を持つ表記の範囲を特定する。
例えば、“#CITY”は都市を表す意味クラス、“#PERSON”は人を表す意味クラス、“#POI”は関心スポット(Point of Interest)を表す意味クラス、“#AIRPORT”は空港を表す意味クラスを表している。
このように意味クラスを付記された表現の部分が、後述する修正適用部103により修正される可能性がある部分を表している。なお、同図に示す例では、名詞の表現のみに意味クラスが付与されているが、名詞以外の表現についても書き換えを行うように構成することができる。
用例記憶部111には、日本語表現と英語表現の各部分の対応関係が記憶されており、一方の表現の任意の部分が、他方の表現のいずれの部分に対応するかを判断することができる。
修正記憶部112は、提示した用例に対して利用者が修正を行ったとき、その修正内容を記憶するものであり、HDD、光ディスク、メモリカード、RAMなどの一般的に利用されているあらゆる記憶手段により構成することができる。
図3は、修正記憶部112に格納される修正内容のデータ構造の一例を示す説明図である。同図に示すように、修正記憶部112は、修正内容を一意に識別するための修正IDと、修正元の用例の用例IDを表す元用例IDと、被修正表現と、修正結果表現と、意味クラスとを対応づけて格納している。
ここで、被修正表現とは、修正元の用例のうち修正を行った部分の表現を表す。また、修正結果表現とは、修正を行った部分に新たに設定された修正後の表現をいう。意味クラスの欄には、被修正表現に対応する意味クラスが得られる場合に、その意味クラスが設定される。
例えば、図2の用例ID=q01に示された用例に対して利用者が単語“ニューヨーク”の部分を単語“ロサンゼルス”に修正したという修正内容が得られたとする。この場合、元用例IDに“q01”、被修正表現に単語“ニューヨーク”、修正結果表現に単語“ロサンゼルス”が設定される。また、被修正表現である単語“ニューヨーク”の意味クラス“#CITY”が、用例記憶部111の用例ID=q01の用例から取得できるため、この値が修正記憶部112の意味クラス欄にも設定される。この結果を示したのが、図3の修正ID=r01に対応する修正内容である。
修正記憶部112の記憶する修正内容は、所定の時間経過、場所の移動、利用者の変更などに応じて削除する。また、複数の修正記憶部112を用意して、所定の時間経過、場所の移動、利用者の変更などに応じて適用する修正記憶部112を変更するように構成してもよい。
位置情報取得部113は、GPS受信機能により音声翻訳装置100の緯度・経度などの位置情報を取得するものである。なお、位置情報は緯度・経度に限られるものではなく、音声翻訳装置100が存在する位置が識別できるものであれば、どのような情報を用いてもよい。
また、位置情報取得部113は、通信手段(図示せず)がネットワーク接続する際に検出する無線LAN(Local Area Network)等のアクセスポイントの情報や、実環境に設置された無線タグや、バーコードなどの情報を検出する検出手段(図示せず)から取得した情報を位置情報として取得するように構成してもよい。
入出力部114は、操作画面や提示用例決定部102が決定した用例などを表示する液晶ディスプレイなどの表示部と、ボタン、キーボード、音声入力用マイクなどから入力を行う入力部と、対訳生成出力部108が生成した翻訳の対象言語による合成音声などを出力するスピーカなどの出力部とを有する。
なお、表示部と入力部とを兼ねたタッチパネルにより入出力部114を構成してもよい。これにより、例えば、表示部に提示された複数の用例から、利用者が触れることにより選択した用例の入力を受付けることが可能となる。
使用状況検出部101は、位置情報取得部113が取得した位置情報から音声翻訳装置100の使用状況を検出するものである。ここで、使用状況とは、利用者が音声翻訳装置100を使用する場面を特定する情報をいう。例えば、交通機関を利用する場面では“交通機関の利用”が、観光名所を訪れている場面では“観光”が、家族などを話題にする場面では“家族”が、使用状況として検出される。
なお、予め設定された複数の使用状況を利用者に提示し、利用者により選択された使用状況を使用状況検出部101が検出するように構成してもよい。
提示用例決定部102は、使用状況検出部101が検出した使用状況に関連する場面情報に対応づけられた用例を用例記憶部111から取得し、利用者に提示する用例として決定するものである。
例えば、使用状況検出部101により、音声翻訳装置100が空港の中で使用されているという使用状況が検出された場合、提示用例決定部102は、交通機関の利用などに関連する場面「TRANSPORT」に対応づけられた用例を選択する。図2の例では、用例IDがq01からq04の用例が提示する用例として決定される。
修正適用部103は、修正記憶部112に記憶された修正内容を参照して、提示用例決定部102が決定した用例を修正するものである。修正方法としては、以下の2つの方法が存在する。
第1の方法は、決定した用例の中に修正記憶部112の被修正表現欄に記載された表現が含まれる場合に、その部分を当該被修正表現に対応づけられた修正結果表現に置換するものである。
第2の方法は、決定した用例の中に、修正記憶部112の意味クラス欄に記載された意味クラスと同一の意味クラスが付記された表現が含まれる場合に、その部分を当該意味クラスに対応づけられた修正結果表現に置換するものである。
表示制御部104は、入出力部114の表示部に対して、操作画面や提示用例決定部102が決定した用例の提示を行うものである。
用例選択受付部105は、入出力部114の表示部に提示された複数の用例から、利用者が選択した用例の入力を受付けるものである。例えば、上述のように表示部と入力部を兼ねたタッチパネルにより用例を選択するように構成する。
なお、用例選択の受付け方法はこれに限られるものではない。例えば、各用例に対応づけられたボタンの押下を検出することにより用例の選択を受付けるように構成してもよい。また、用例の1つにカーソルやマークなどの目印を配置して、この目印を移動させることのできるボタンまたはダイアルを備え、選択を確定するためのボタンの押下を検出することにより用例の選択を受付けるように構成してもよい。
音声入力受付部106は、音声入力用マイクにより利用者が入力した音声を受信し、受信した音を解析部107が処理可能な電気信号に変換して出力するものである。具体的には、音声を取りこみ、電気信号に変換した後、A/D(アナログ・デジタル)変換を行い、PCM(パルスコードモジュレーション)形式などにより変換したデジタルデータを出力する。これらの処理は、従来から用いられている音声信号のデジタル化処理と同様の方法によって実現することができる。
なお、用例選択受付部105と音声入力受付部106が、本発明における入力受付手段に相当する。
解析部107は、音声入力受付部106からデジタルデータ化された音声信号を受け取り、音声認識処理を実行するものである。また、解析部107は、提示した用例と音声認識結果とを比較して不一致部分を検出することにより修正部分を特定し、修正部分における修正前の表現と修正後の表現とを対応づけた修正内容を出力する。
具体的には、解析部107は、FFT(高速フーリエ変換)などの処理による周波数分析などを行って、入力音声の所定区間ごとに、各区間についての音声認識のために必要な特徴情報(例えばスペクトルなど)を時系列に出力する。所定区間とは、例えば、単語などの文字列、アクセント句などの音素列、音素、音節など単位をいう。この処理は、従来の音声分析処理技術により実現することができる。
さらに、解析部107は、特徴情報と、音声認識用辞書(図示せず)格納された音声解析パターンとを照合して類似度を表すスコアを算出し、スコアが最も大きい認識候補を出力する。照合処理は、隠れマルコフモデル(HMM:Hidden Markov Model)、DP(ダイナミックプログラミング)、NN(ニューラルネットワーク)などの、一般的に利用されているあらゆる方法を適用することができる。
また、認識精度を高めるために、生成された認識候補に対して、例えばN−グラムなどに代表されるような統計的な言語モデルを利用して、最も確からしい候補を推定し選択するように構成してもよい。
なお、第1の実施の形態では、提示用例決定部102が決定して提示した用例、または、提示した用例の一部を改変して発声された音声入力であることを前提として音声認識処理を実行することができる。従って、任意の音声入力を前提とした音声認識と比較して高精度に音声認識処理を実行することができる。
すなわち、解析部107は、提示した各用例を構成する単語から作成した音素列と、音声認識で得られる音素列候補との間で、DPなどの従来から用いられる手法によって照合処理を行う。そして、照合の一致度によって、元となった用例を決定するとともに、その用例と音声認識結果との間の不一致部分を検出することにより修正部分を特定することができる。
対訳生成出力部108は、利用者により入力された日本語表現の英語訳を生成して表示部に出力するものである。なお、英語訳を音声によって出力する場合は、対訳生成出力部108は、生成した英語訳を音声合成し、合成音声をスピーカなどの出力部に出力する。
なお、音声合成処理は、音声素片編集音声合成、フォルマント音声合成などを用いたテキストトゥスピーチシステムなどの一般的に利用されているあらゆる方法を適用することができる。
次に、このように構成された第1の実施の形態にかかる音声翻訳装置100による音声翻訳処理について説明する。図4は、第1の実施の形態における音声翻訳処理の全体の流れを示すフローチャートである。
まず、使用状況検出部101が、使用状況を検出してRAM(図示せず)等の一時記憶手段に設定する(ステップS401)。設定された使用状況は、提示用例決定部102が提示する用例を決定する際に参照される。
次に、用例記憶部111と修正記憶部112とを参照して提示する用例を決定し、修正内容を反映した用例を生成する提示用例生成処理を実行する(ステップS402)。提示用例生成処理の詳細については後述する。
次に、表示制御部104が、提示用例生成処理により生成された用例を入出力部114の表示部上の画面に表示する(ステップS403)。続いて、用例選択受付部105が、利用者が直接用例を選択したか否かを判断する(ステップS404)。用例を直接選択するとは、画面に表示された用例を利用者が修正せずに、タッチパネル上で選択、または、対応するボタンの押下などにより選択することをいう。
利用者が直接用例を選択した場合は(ステップS404:YES)、選択された用例に対する対訳文を生成するための対訳生成処理1を実行する(ステップS407)。対訳生成処理1の詳細については後述する。
利用者が直接用例を選択したと判断されない場合は(ステップS404:NO)、音声入力受付部106が、利用者により音声入力がなされたか否かを判断する(ステップS405)。
音声入力がなされたと判断された場合は(ステップS405:YES)、解析部107が、入力された音声を解析して修正情報を抽出する(ステップS408)。具体的には、入力された音声を音声認識し、提示された用例のいずれに対応するか、および、修正部分が存在するかを解析する。修正部分が存在する場合には、修正前の表現である被修正表現と、修正後の表現である修正結果表現とを取得する。また、被修正表現に対応づけられた意味クラスを用例記憶部111から取得する。
このようにして、修正元の用例を特定し、その用例IDである元用例IDと、被修正表現と、修正結果表現と、意味クラスとを対応づけた修正内容を抽出することができる。
次に、解析部107は、抽出した修正情報を修正記憶部112に登録する(ステップS409)。これにより、以降の処理で当該修正情報を参照して用例記憶部111に記憶した用例を修正することが可能となる。
次に、音声入力の内容に対する対訳文を生成するための対訳生成処理2を実行する(ステップS410)。対訳生成処理2の詳細については後述する。
ステップS407の対訳生成処理1、または、ステップS410の対訳生成処理2の実行後、対訳生成出力部108は、生成された対訳を入出力部114の表示部またはスピーカなどの出力部に出力する(ステップS411)。
なお、用例の使用頻度などに応じて、出力する用例の個数を制限するように構成してもよい。これにより、より適切な用例を利用者に提示し、用例選択の操作負担を軽減することができる。また、携帯型の装置のように表示領域が小さい場合に、すべての用例を確認するために画面をスクロール等する操作負担が増大するという課題を解消することができる。
ステップS405で音声入力がなされたと判断されない場合は(ステップS405:NO)、使用状況検出部101が、使用状況が変更されたか否かを判断する(ステップS406)。
使用状況が変更されていない場合は(ステップS406:NO)、直接用例を選択したか否かの判定処理に戻り処理を繰り返す(ステップS404)。
使用状況が変更された場合(ステップS406:YES)、または、ステップS411で対訳を出力した後は、別の用例を生成して表示するためにステップS402に戻り処理を繰り返す。
次に、ステップS402で示した提示用例生成処理の詳細について説明する。図5は、第1の実施の形態における提示用例生成処理の全体の流れを示すフローチャートである。
まず、提示用例決定部102は、生成した用例を格納するための用例レジスタを初期化する(ステップS501)。用例レジスタとは、RAM等の一時記憶手段に設定する記憶領域である。
次に、提示用例決定部102は、使用状況に適合する用例を、用例記憶部111から取得する(ステップS502)。なお、取得した用例をR1〜Rm(mは取得数)と表す。
例えば、位置情報取得部113が、GPS受信機能により現在音声翻訳装置100を使用している場所が、空港内または駅の構内であることを示す位置情報を取得したとすると、使用状況検出部101は、使用状況が“交通機関の利用”であることを検出する。
用例記憶部111に図2に示すような用例が記憶されていたとすると、提示用例決定部102は、検出した使用状況“交通機関の利用”に関連する場面である「TRANSPORT」に対応づけられた用例として、用例IDがq01からq04の用例を、用例記憶部111から取得する。
次に、提示用例決定部102は、修正記憶部112からすべての修正情報を取得する(ステップS503)。なお、取得した修正情報をT1〜Tp(pは取得数)と表す。
次に、提示用例決定部102は、処理済みの用例をカウントするための用例カウンタjの初期化を行う(ステップS504)。具体的には、jに1を設定することにより初期化を行う。
次に、提示用例決定部102は、すべての用例を処理したか否かを判断する(ステップS505)。具体的には、用例カウンタjが用例の取得数mより大きいか否かを判断する。
すべての用例を処理していない場合は(ステップS505:NO)、処理済みの修正情報をカウントするための修正カウンタkの初期化を行う(ステップS506)。具体的には、kに1を設定することにより初期化を行う。
次に、提示用例決定部102は、すべての修正情報を処理したか否かを判断する(ステップS507)。具体的には、修正カウンタkが修正情報の取得数pより大きいか否かを判断する。
すべての修正情報を処理していない場合は(ステップS507:NO)、修正情報を適用して修正した修正用例を生成する修正用例生成処理を実行する(ステップS508)。修正用例生成処理の詳細については後述する。
修正用例生成処理の実行後、修正カウンタkに1を加算し(ステップS509)、すべての修正情報を処理したか否かの判定処理に戻って処理を繰り返す(ステップS507)。
ステップS507ですべての修正情報を処理したと判断した場合は(ステップS507:YES)、提示用例決定部102は、修正用例生成処理内で修正用例が追加されたか否かを判断する(ステップS510)。
修正用例が追加されなかった場合は(ステップS510:NO)、提示用例決定部102は、用例Rjを用例レジスタに追加する(ステップS511)。用例Rjを修正した場合は、修正用例生成処理内で修正した用例が用例レジスタに追加されるが、用例Rjが修正されない場合は、用例Rj自身を用例レジスタに追加する必要があるためである。
なお、同一の用例が既に存在する場合、提示用例決定部102は、重複して用例レジスタに追加しないように制御する。
ステップS510で修正用例が追加されたと判断された場合(ステップS510:YES)、または、ステップS511で用例Rjを用例レジスタに追加した場合、提示用例決定部102は、用例カウンタに1を加算する(ステップS512)。
用例カウンタに1を加算した後、提示用例決定部102は、すべての用例を処理したか否かの判定処理に戻り処理を繰り返す(ステップS505)。
ステップS505で、すべての用例を処理したと判断した場合は(ステップS505:YES)、提示用例決定部102は、用例レジスタの内容を提示する用例として決定して出力する(ステップS513)。
次に、ステップS508に示した修正用例生成処理の詳細について説明する。図6は、第1の実施の形態における修正用例生成処理の全体の流れを示すフローチャートである。
まず、修正適用部103が、修正情報Tkの被修正表現Sが用例Rjに出現しているか否かを判断する(ステップS601)。出現している場合は(ステップS601:YES)、用例Rjの中の被修正表現Sに相当する部分を、修正情報Tk内の修正結果表現Tに置換した修正用例Rj'を用例レジスタに追加する(ステップS602)。
例えば、図2の用例IDがq01からq04に示す用例が取得され、図3の修正IDがr01およびr02に示す修正情報が取得されたとする。この前提で、用例カウンタj=1、修正カウンタk=1の状態で修正用例生成処理が実行されたとすると、修正情報Tkの被修正表現Sは、修正ID=r01で表される修正情報における被修正表現“ニューヨーク”である。
また、用例Rjは、用例ID=q01の用例“[ニューヨーク#CITY]へ行きます”である。この用例の中に、被修正表現“ニューヨーク”が出現するため、この部分が、修正ID=r01で表される修正情報における修正結果表現“ロサンゼルス”に置換され、修正用例Rj’として、“ロサンゼルスへ行きます”が用例レジスタに追加される。
ステップS601で修正情報Tkの被修正表現Sが用例Rjに出現していないと判断された場合は(ステップS601:NO)、修正適用部103は、修正情報Tkの意味クラスCが用例Rjに出現しているか否かを判断する(ステップS603)。
出現している場合は(ステップS603:YES)、用例Rjの中の意味クラスCで表現された部分を、修正情報Tk内の修正結果表現Tに置換した修正用例Rj''を用例レジスタに追加する(ステップS604)。
例えば、上述と同様の前提で、用例カウンタj=2、修正カウンタk=1の状態で修正用例生成処理が実行されたとすると、修正情報Tkの意味クラスCは、修正ID=r01で表される修正情報における意味クラス“#CITY”である。
また、用例Rjは、用例ID=q02の用例“[シカゴ#CITY]には何時に着きますか”である。この用例の中に、意味クラス“#CITY”が出現するため、この部分が、修正ID=r01で表される修正情報における修正結果表現“ロサンゼルス”に置換され、修正用例Rj’’として、“ロサンゼルスには何時に着きますか”が用例レジスタに追加される。
ステップS603で修正情報Tkの意味クラスCが用例Rjに出現していないと判断された場合(ステップS603:NO)、または、ステップS602あるいはステップS604で用例レジスタに修正用例が追加された後、修正用例生成処理を終了する。
なお、後述する対訳生成処理で修正元の用例を取得する必要があるため、ステップS602およびステップS604では、修正の元となった用例を識別することができる情報を修正用例と対応づけて用例レジスタに出力する。
このように、第1の実施の形態では、用例記憶部111に事前に登録されている用例を提示するだけでなく、修正記憶部112を参照して、過去の修正内容を反映して用例を修正することができる。このため、利用者の過去の利用状況などに応じて、利用者ごとに適切な用例を提示することが可能となる。
次に、ステップS407に示した対訳生成処理1の詳細について説明する。対訳生成処理1は、日本語の表現を提示する際に適用した修正と同様の修正を英語表現に対して適用し、選択された日本語の用例に対応する正しい対訳を生成するものである。
図7は、第1の実施の形態における対訳生成処理1の全体の流れを示すフローチャートである。
まず、対訳生成出力部108が、利用者により選択された用例(以下、用例Yiという。)の修正元の用例(以下、用例Y0という。)を取得し(ステップS701)、用例Y0を修正して用例Yiを生成しているか否かを判断する(ステップS702)。
上述したように、用例レジスタに修正元の用例を識別する情報が出力されているため、この情報を参照して用例Y0を取得することができる。また、修正元の用例を識別する情報が設定されているか否かにより、用例Y0を修正して用例Yiを生成しているか否かを判断することができる。
用例Y0を修正して用例Yiを生成していると判断されない場合(ステップS702:NO)、すなわち、提示された用例を修正せずに利用者が選択した場合は、対訳生成出力部108は、用例Yiの英語表現を用例記憶部111から取得して対訳として生成する(ステップS707)。
用例Y0を修正して用例Yiを生成していると判断された場合(ステップS702:YES)、対訳生成出力部108は、修正部分について、被修正表現(以下、被修正表現Oという。)と、修正部分の修正結果表現(以下、修正結果表現Mという。)を取得する(ステップS703)。
例えば、用例“[ニューヨーク#CITY]へ行きます”を修正用例“ロサンゼルスへ行きます”に修正した場合、被修正表現Oは単語“ニューヨーク”であり、修正結果表現Mは単語“ロサンゼルス”である。
次に、対訳生成出力部108は、修正結果表現Mを日本語表現欄に有する用例(以下、用例Pjという。)を用例記憶部111から取得する(ステップS704)。例えば、修正結果表現Mが単語“ロサンゼルス”であり、図2に示すような用例が用例記憶部111に記憶されている場合は、用例ID=p02の用例が取得される。
次に、対訳生成出力部108は、用例Pjの英語表現(以下、英語表現Ejという。)を、用例記憶部111から取得する(ステップS705)。上述の例では、単語“Los Angeles”が取得される。
次に、対訳生成出力部108は、元の用例Y0の英語表現(以下、英語表現E0という。)の被修正表現Oに対応する部分を、英語表現Ejで置換した対訳を生成する(ステップS706)。上述の例では、英語表現E0は“I'll go to New York”であり、被修正表現Oに対応する部分である単語“New York”を、英語表現Ej(“Los Angeles”)で置換した対訳“I'll go to Los Angeles”が生成される。
なお、修正部分が複数存在する場合は、ステップS703からステップS706までの処理は、すべての修正部分について実行される。
対訳生成出力部108は、ステップS706またはステップS707で対訳を生成した後、対訳生成処理1を終了する。
次に、ステップS410に示した対訳生成処理2の詳細について説明する。対訳生成処理2は、提示した用例に対して利用者が修正入力したときの修正と同様の修正を英語表現に対して適用し、選択された日本語の用例に対応する正しい対訳を生成するものである。
図8は、第1の実施の形態における対訳生成処理2の全体の流れを示すフローチャートである。
まず、対訳生成出力部108が、解析部107が出力した修正情報(以下、修正情報Wという。)を取得し(ステップS801)、提示された用例が利用者により修正されているか否かを判断する(ステップS802)。
修正情報Wには、修正元の用例(以下、用例Ywという。)と、修正前の表現である被修正表現(以下、被修正表現Owという。)と、修正後の表現である修正結果表現(以下、修正結果表現Mという。)とが含まれている。また、提示した用例に対して利用者が修正を行っていない場合には、修正が行われていないことを示す情報が修正情報Wに含まれるため、対訳生成出力部108は、この情報を参照して修正の有無を判断する。
ステップS802で提示した用例が修正されていると判断されない場合(ステップS802:NO)、すなわち、提示された用例を修正せずに利用者が音声入力により当該用例を選択した場合は、対訳生成出力部108は、用例Ywの英語表現を用例記憶部111から取得して対訳として生成する(ステップS806)。
提示した用例が修正されていると判断された場合(ステップS802:YES)、対訳生成出力部108は、修正結果表現Mを日本語表現欄に有する用例(以下、用例Yzという。)を用例記憶部111から取得する(ステップS803)。例えば、修正結果表現Mが単語“ロサンゼルス”であり、図2に示すような用例が用例記憶部111に記憶されている場合は、用例ID=p02の用例が取得される。
次に、対訳生成出力部108は、用例Yzの英語表現(以下、英語表現Ezという。)を、用例記憶部111から取得する(ステップS804)。上述の例では、単語“Los Angeles”が取得される。
次に、対訳生成出力部108は、元の用例Ywの英語表現(以下、英語表現Ewという。)の被修正表現Owに対応する部分を、英語表現Ezで置換した対訳を生成する(ステップS805)。上述の例では、英語表現Ewは“I'll go to New York”であり、被修正表現Owに対応する部分である単語“New York”を、英語表現Ez(“Los Angeles”)で置換した対訳“I'll go to Los Angeles”が生成される。
なお、修正部分が複数存在する場合は、ステップS803からステップS805までの処理は、すべての修正部分について実行される。
対訳生成出力部108は、ステップS805またはステップS806で対訳を生成した後、対訳生成処理2を終了する。
次に、上述した手順に従って実行される音声翻訳処理の具体例について説明する。図9は、音声翻訳処理で処理されるデータの一例を示す説明図である。
ここでは、用例記憶部111には、図2に示したような用例が記憶されており、修正記憶部112には修正情報が記憶されていないことを前提として説明する。
まず、例えば、利用者が使用状況として交通機関の利用を指定し、使用状況検出部101により検出されたとする(ステップS401)。この場合、関連する場面である「TRANSPORT」を場面欄に有する用例として、用例IDがq01、q02、q03、q04の用例が用例記憶部111から取得される(ステップS502)。修正記憶部112は空であるので、修正情報は取得されない(ステップS503)。
修正情報が存在しないため、修正用例生成処理(ステップS508)では修正用例が追加されず、取得された4つの用例がそのまま用例レジスタに追加される(ステップS511)。
この結果、図9の(a1)〜(a4)に示すような4つの用例が入出力部114の表示部に表示される(ステップS403)。
これに対して、利用者が、(a1)の用例に対してその一部を改変した文“ロサンゼルスへ行きます”を音声入力したとする。
この場合は、音声入力受付部106により、音声入力がなされたと判断され(ステップS405:YES)、解析部107による修正情報の抽出処理が実行される(ステップS408)。
図9の(b1)は、解析部107が出力した修正情報を表している。この例では、元用例IDが(a1)に対応するq01であり、修正内容として被修正表現が単語“ニューヨーク”、修正結果表現が単語“ロサンゼルス”であることが示されている。
この修正内容は修正記憶部112に出力される(ステップS409)。上記例では、図3における修正IDがr01で示される修正内容と同様の修正内容が出力される。図9の(c1)は修正記憶部112に出力される修正内容を表している。なお、修正部分の単語“ニューヨーク”は、用例ID=q01の用例で意味クラス「#CITY」が付記されているため、修正ID=r01の修正情報の意味クラス欄に「#CITY」が設定される。
対訳生成処理2(ステップS410)では、図9の(b1)に示すような修正情報が取得される(ステップS801)。また、修正が存在するため(ステップS802:YES)、修正結果表現である単語"ロサンゼルス"を日本語表現欄に有する用例ID=p02の用例が用例記憶部111から取得される(ステップS803)。
さらに、用例ID=p02の用例の英語表現である単語“Los Angels”が用例記憶部111から取得される(ステップS804)。次に、元の用例である用例ID=q01の用例の英語表現“I'll go to New York”のうち、被修正表現“ニューヨーク"に対応する部分である単語“New York”が単語“Los Angels”に置換され、対訳として“I'll go to Los Angels”が生成される(ステップS805)。
この結果、図9の(d1)に示すような対訳が、入出力部114の表示部に表示される(ステップS411)。表示部への表示の代わりに対訳を音声合成してスピーカに出力してもよい。
このように、利用者は、使用状況に応じて提示された用例に対してその一部を自分の意図に合わせて修正した音声入力を行い、その対訳を得ることができる。
その後処理は継続し、再度提示用例生成処理が実行される(ステップS402)。ここでは、修正記憶部112に修正情報が記憶されているため、図9の(c1)で示すような修正情報が取得される(ステップS503)。なお、使用状況は変更されていないため、初回と同様に用例IDがq01、q02、q03、q04の用例が用例記憶部111から取得される(ステップS502)。
この場合は、修正情報が存在するため修正用例生成処理(ステップS508)が実行される。用例ID=q01の用例に対しては、被修正表現である単語“ニューヨーク”が出現していると判断され(ステップS601:YES)、その部分が修正結果表現である単語“ロサンゼルス”に置換される(ステップS602)。図9の(e1)に、置換した結果の用例が示されている。
用例ID=q02の用例に対しては、被修正表現である単語“ニューヨーク”が出現していないと判断される(ステップS601:NO)。一方、用例ID=q02の用例は文“[シカゴ#CITY]には何時に着きますか”であり、修正情報の意味クラス“#CITY”と同一の意味クラスを含んでいる。このため、単語“[シカゴ#CITY]”の部分が、である単語“ロサンゼルス”に置換される(ステップS603:YES、ステップS604)。図9の(e2)に、置換した結果の用例が示されている。
以降、同様に処理されるが、用例ID=q03および用例ID=q04の用例については、被修正表現に適合する表現や、意味クラスが一致する表現が存在しないため、用例がそのまま用例レジスタに追加される(ステップS511)。
この結果、図9の(e1)〜(e4)に示すような4つの用例が入出力部114の表示部に表示される(ステップS403)。
このように、以前行った修正と同様の修正を行った用例を提示することができるため、利用者が用例を修正する必要性を軽減することができる。また、修正のための音声入力や音声認識処理が不要となるため、利用者の操作負担を軽減することができる。
ここで、図9の(e2)に示された用例が、利用者が次に入力する内容に合致したとする。この場合は、利用者は音声入力を行う必要はなく、タッチパネルやボタン押下により用例を選択することができる。
この場合、用例選択受付部105により、利用者が直接用例を選択したと判断され(ステップS404:YES)、対訳生成処理1が実行される(ステップS407)。
対訳生成処理1では、図9の(e2)の修正元の用例である用例ID=q02の用例が取得される(ステップS701)。また、修正されているため(ステップS702:YES)、被修正表現“シカゴ”と、修正結果表現“ロサンゼルス”が取得される(ステップS703)。
次に、修正結果表現である単語"ロサンゼルス"を日本語表現欄に有する用例ID=p02の用例が用例記憶部111から取得される(ステップS704)。
さらに、用例ID=p02の用例の英語表現である単語“Los Angels”が用例記憶部111から取得される(ステップS705)。次に、元の用例である用例ID=q02の用例の英語表現“What time does it arrive at Chicago#CITY?”のうち、被修正表現“シカゴ"に対応する部分である単語“Chicago”が単語“Los Angels”に置換され、対訳として“What time does it arrive at Los Angels?”が生成される(ステップS706)。
この結果、図9の(f1)に示すような対訳が、入出力部114の表示部に表示される(ステップS411)。
このように、過去に利用されたことがない用例についても、利用者の使用状況等に応じて、利用される可能性が高い表現に事前に修正して提示することができる。このため、予め個々の利用者に応じた適切な用例を準備できないという用例ベースインタフェースの問題点を効果的に解決することができる。また、利用者は提示された用例を直接選択することができる可能性が高まるため、音声入力の回数を減少させることができる。これにより、使用環境に対する制限が軽減される。すなわち、例えば、音声入力のために雑音の少ない環境でなければならないといった制限が解消される。
なお、上述の例では、入力内容は提示された用例から選択することを前提としていたが、任意の音声を入力可能とし、通常の音声認識と併用することで用例に縛られない入力も受け付けるように構成してもよい。この場合は、上述のような用例ベース翻訳の他に、規則ベース翻訳と組み合わせてもよい。また、音声を入力し音声認識を実行する代わりに、例えば、手書き文字を入力し手書き文字認識を実行するように構成してもよい。
このように、第1の実施の形態にかかる音声翻訳装置100では、利用者が用例を修正したときの修正内容を記憶し、その後用例を提示する際には、記憶された修正内容を参照して事前に用意された用例を変更し、利用者に提示することができる。このため、利用者ごとに適切な入力内容の用例を提示することができるとともに、用例の改変入力の必要性が減少し、利用者の操作負担を軽減することができる。
(第2の実施の形態)
第2の実施の形態にかかる音声翻訳装置は、記憶手段に記憶された修正内容に加えて、2つの表現間の意味関係を記憶した記憶手段を参照して事前に用意された用例を変更し、利用者に提示するものである。
図10は、第2の実施の形態にかかる音声翻訳装置1000の構成を示すブロック図である。同図に示すように、音声翻訳装置1000は、用例記憶部111と、修正記憶部112と、位置情報取得部113と、ユーザI/F114と、意味関係記憶部1015と、使用状況検出部101と、提示用例決定部102と、修正適用部1003と、表示制御部104と、用例選択受付部105と、音声入力受付部106と、解析部107と、対訳生成出力部108と、を備えている。
第2の実施の形態では、意味関係記憶部1015を追加したこと、および、修正適用部1003の機能が第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる音声翻訳装置100の構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
意味関係記憶部1015は、用例記憶部111に記憶されている表現間に成り立つ意味的な関係を知識として記憶するものであり、HDD、光ディスク、メモリカード、RAMなどの一般的に利用されているあらゆる記憶手段により構成することができる。
図11は、意味関係記憶部1015に格納される意味関係のデータ構造の一例を示す説明図である。同図に示すように、意味関係記憶部1015は、意味関係を一意に識別するための知識IDと、概念表現1と、概念表現2と、関係とを対応づけて格納している。
概念表現1および概念表現2の欄には、意味的な関係を持つ概念を表す2つの表現が設定される。また、関係の欄には、概念表現1が表す概念と概念表現2が表す概念の間に成り立つ意味的関係が設定される。
なお、ここで記号“%”は、意味的関係の名前に付与される識別記号である。なお、各意味関係が表現する知識を、日本語の文として表現すると「<概念表現1>の<関係>は<概念表現2>である」となる。例えば、知識ID=S04の意味関係は、「<ロサンゼルス>の<主要観光スポット>は<チャイニーズシアター>である」という知識を表している。また、知識ID=s06の意味関係は、「<ロサンゼルス>の<主要観光スポット>は<ハリウッド>である」という別の知識を表している。
なお、意味関係記憶部1015に格納される意味関係のデータ構造はこれに限られるものではなく、例えば、概念シソーラスを併用するように構成してもよい。また、“time(eat(john,apple),today)”のような述語形式で記述してもよいし、中間言語により意味関係を記述するように構成してもよい。
修正適用部1003は、第1の実施の形態における修正適用部103と同様に、修正記憶部112に記憶された修正内容を参照して、提示用例決定部102が決定した用例を修正するものである。修正方法としては、第1の実施の形態における修正適用部103の2つの方法の他に、以下の第3の方法が存在する。
第3の方法は、修正記憶部112に、表現E1を別の表現E2に変更する修正Lが存在し、かつ、意味関係記憶部1015に、表現E1と別の表現F1とが意味関係Rを持つことおよび表現E2と別の表現F2とが意味関係Rを持つことが記憶されており、かつ、決定した用例Xが表現F1を含む場合に、用例Xの表現F1をF2に置換するものである。
次に、このように構成された第2の実施の形態にかかる音声翻訳装置1000による音声翻訳処理について説明する。第2の実施の形態では、修正用例生成処理で、上記第3の方法を適用して修正を行う点が、第1の実施の形態と異なっている。その他の処理内容は第1の実施の形態と同様であるのでその説明を省略する。
図12は、第2の実施の形態における修正用例生成処理の全体の流れを示すフローチャートである。
ステップS1201からステップS1204までの、第1の方法および第2の方法による修正処理は、第1の実施の形態にかかる音声翻訳装置100におけるステップS601からステップS604までと同様の処理なので、その説明を省略する。
ステップS1203で修正情報Tkの意味クラスCが用例Rjに出現していないと判断された場合(ステップS1203:NO)、修正適用部1003は、修正情報Tkの被修正表現Sを概念表現1に含む意味関係(以下、意味関係Rsという。)を意味関係記憶部1015から取得する(ステップS1205)。
次に、修正適用部1003は、修正情報Tkの修正結果表現Tを概念表現1に含む意味関係(以下、意味関係Rtという。)を意味関係記憶部1015から取得する(ステップS1206)
次に、修正適用部1003は、取得した意味関係Rsの関係欄と意味関係Rtの関係欄が一致するか否かを判断し(ステップS1207)、一致するものが存在しない場合は(ステップS1207:NO)、修正用例生成処理を終了する。
意味関係Rsの関係欄と意味関係Rtの関係欄が一致する場合は(ステップS1207:YES)、修正適用部1003は、意味関係Rsの概念表現2が用例Rjに出現しているか否かを判断する(ステップS1208)。
意味関係Rsの概念表現2が用例Rjに出現している場合は(ステップS1208:YES)、修正適用部1003は、用例Rjの中の概念表現2の部分を、意味関係Rtの概念表現2に置換した修正用例Rj'''を用例レジスタに追加する(ステップS1209)。
意味関係Rsの概念表現2が用例Rjに出現していない場合は(ステップS1208:NO)、修正用例生成処理を終了する。
次に、上述した手順に従って実行される音声翻訳処理の具体例について説明する。図13は、音声翻訳処理で処理されるデータの一例を示す説明図である。
ここでは、第1の実施の形態の図9で説明したものと同様の手順により、図11の(f1)に示す対訳が出力された状態を前提とする。また、意味関係記憶部1015には、図11で示したような意味関係が記憶されているものとする。
ここで、利用者が使用状況を“観光”に変更したとすると(ステップS406)、この使用状況に応じた用例を提示するため、提示用例生成処理が実行される(ステップS402)。この場合、関連する場面である“SIGHTSEEING”を場面欄に有する用例として、用例IDがq06、q07の用例が用例記憶部111から取得される(ステップS502)。
このとき取得された用例を示したのが、図13の(g1)、(g2)である。なお、修正記憶部112からは、修正ID=r01の修正情報が取得される(ステップS503)。
用例ID=q06の用例については、修正情報の被修正表現である単語“ニューヨーク”が出現しておらず(ステップS1201:NO)、修正情報の意味クラスである“#CITY”も含まれていないため(ステップS1203:NO)、意味関係記憶部1015を参照した修正処理が実行される。
まず、被修正表現である単語“ニューヨーク”を概念表現1に含む意味関係として、知識ID=s01の意味関係が意味関係記憶部1015から取得される(ステップS1205)。次に、修正結果表現である単語“ロサンゼルス”を概念表現1に含む意味関係として、知識ID=s04〜知識ID=s06の意味関係が意味関係記憶部1015から取得される(ステップS1206)。
知識ID=s01の意味関係の関係欄と、知識ID=s04〜知識ID=s06の意味関係の関係欄はすべて一致するため(ステップS1207:YES)、知識ID=s01の概念表現2である単語“エンパイアステートビル”が用例ID=q06の用例に出現するか否かが判断される(ステップS1208)。
用例ID=q06の用例は文“エンパイアステートビルはどこですか”であり、知識ID=s01の概念表現2である単語“エンパイアステートビル”が含まれている(ステップS1208:YES)。このため、この部分が、知識ID=s04〜知識ID=s06の概念表現2で置換した3つの用例が用例レジスタに追加される(ステップS1209)。
なお、用例ID=q07の用例は、修正が行われず、元の用例がそのまま出力される。この結果、図13の(h1)〜(h4)に示した用例が用例レジスタに追加される。
なお、上述の例のように、同じ用例を修正して複数の修正結果を提示する場合には、図13の(i1)で示すように、修正部分のみ複数の候補を選択可能として1つの用例の文を提示するように構成してもよい。
このように、利用者が初めて利用する使用状況として“観光”を選択した場合であっても、利用者が利用する可能性の高い用例を生成し提示することができる。これにより、利用者の入力操作の負担を軽減することができる。
また、図13の(h1)〜(h3)で示された用例のように、事前に用例記憶部111に記憶されている用例を、利用者に適した用例に修正して提示することができる。また、上述の例での意味クラス“#POI”のように、過去に利用者が全く利用していない意味クラスの表現についても、適切に用例を修正して提示することができる。
以上のように、第2の実施の形態にかかる音声翻訳装置では、2つの表現間の意味関係を考慮して用例を変更し、利用者に提示することができる。このため、性別、年齢、職業、旅行経験などの利用者の属性に応じた用例を網羅的に準備する必要なく、用例を利用者の属性に適合するように修正して提示することができる。このため、用例の改変入力の必要性が減少し、利用者の操作負担を軽減することができる。
なお、第1および第2の実施の形態にかかる入力装置で実行される入力プログラムは、ROM(Read Only Memory)等に予め組み込まれて提供される。
第1および第2の実施の形態にかかる入力装置で実行される入力プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、第1および第2の実施の形態にかかる入力装置で実行される入力プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、第1および第2の実施の形態にかかる入力装置で実行される入力プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
第1および第2の実施の形態にかかる入力装置で実行される入力プログラムは、上述した各部(使用状況検出部、提示用例決定部、修正適用部、表示制御部、用例選択受付部、音声入力受付部、解析部、対訳生成出力部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(Central Processing Unit)が上記ROMから入力プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。
以上のように、本発明にかかる入力装置、入力方法および入力プログラムは、用例を提示して、提示した用例から適切な入力内容を指定する入力装置に適している。
第1の実施の形態にかかる音声翻訳装置の構成を示すブロック図である。 用例記憶部に格納される用例のデータ構造の一例を示す説明図である。 修正記憶部に格納される修正内容のデータ構造の一例を示す説明図である。 第1の実施の形態における音声翻訳処理の全体の流れを示すフローチャートである。 第1の実施の形態における提示用例生成処理の全体の流れを示すフローチャートである。 第1の実施の形態における修正用例生成処理の全体の流れを示すフローチャートである。 第1の実施の形態における対訳生成処理1の全体の流れを示すフローチャートである。 第1の実施の形態における対訳生成処理2の全体の流れを示すフローチャートである。 音声翻訳処理で処理されるデータの一例を示す説明図である。 第2の実施の形態にかかる音声翻訳装置の構成を示すブロック図である。 意味関係記憶部に格納される意味関係のデータ構造の一例を示す説明図である。 第2の実施の形態における修正用例生成処理の全体の流れを示すフローチャートである。 音声翻訳処理で処理されるデータの一例を示す説明図である。
符号の説明
100 音声翻訳装置
101 使用状況検出部
102 提示用例決定部
103 修正適用部
104 表示制御部
105 用例選択受付部
106 音声入力受付部
107 解析部
108 対訳生成出力部
111 用例記憶部
112 修正記憶部
113 位置情報取得部
114 入出力部
1000 音声翻訳装置
1003 修正適用部
1015 意味関係記憶部

Claims (11)

  1. 用例を記憶する用例記憶手段と、
    用例の修正部分の修正前の表記と、用例の修正部分の修正後の表記とを対応づけて記憶する修正記憶手段と、
    前記用例記憶手段に記憶された用例から、利用者に提示する少なくとも1つの用例を決定する提示用例決定手段と、
    決定された前記用例に含まれる前記修正前の表記に対応する前記修正後の表記を前記修正記憶手段から取得し、決定された前記用例に含まれる前記修正前の表記を、取得した前記修正後の表記に置換することにより、前記提示用例決定手段が決定した用例を修正する修正適用手段と、
    前記提示用例決定手段が決定し、前記修正適用手段が修正した用例を利用者に対して提示する表示制御手段と、
    前記表示制御手段が表示した用例の中から利用者が選択した用例、または、利用者が用例の一部を修正した内容の入力を受付ける入力受付手段と、
    を備えたことを特徴とする入力装置。
  2. 前記用例記憶手段は、用例に含まれる表記に前記表記の意味を表す意味属性を付与した用例を記憶し、
    前記修正記憶手段は、用例の修正部分の前記意味属性と、用例の修正部分の修正前の表記と、用例の修正部分の修正後の表記とを対応づけて記憶し、
    前記修正適用手段は、用例の修正部分の前記意味属性と同一の前記意味属性が付与された表記を含む用例に対し、用例の修正部分の前記意味属性と同一の前記意味属性が付与された表記を前記修正後の表記に置換することにより用例を修正することを特徴とする請求項1に記載の入力装置。
  3. 複数の表記と前記複数の表記間の意味関係とを対応づけて記憶する意味関係記憶手段をさらに備え、
    前記修正適用手段は、前記修正前の表記に対応づけられた意味関係を前記意味関係記憶手段から取得し、前記修正後の表記に対して、取得した意味関係と同一の意味関係を有する表記を前記意味関係記憶手段から取得し、前記修正前の表記に対して取得した意味関係を有する表記を含む用例に対し、前記修正前の表記に対して取得した意味関係を有する表記を前記修正後の表記に対して取得した意味関係を有する表記に置換することにより用例を修正することを特徴とする請求項に記載の入力装置。
  4. 前記入力受付手段が、利用者により用例の一部が修正された内容の入力を受付けたとき、用例と修正された内容とを比較して修正部分を特定し、修正部分における修正前の表記と修正後の表記とを対応づけて前記修正記憶手段に登録する解析手段をさらに備えたことを特徴とする請求項1に記載の入力装置。
  5. 自装置の使用状況を検出する使用状況検出手段をさらに備え、
    前記用例記憶手段は、用例と、用例を使用する状況とを対応づけて記憶し、
    前記提示用例決定手段は、前記使用状況検出手段が検出した前記使用状況と関連する用例を使用する状況と対応づけられた用例を、前記用例記憶手段から取得して利用者に提示する用例として決定することを特徴とする請求項1に記載の入力装置。
  6. 前記表示制御手段は、予め定められた自装置の使用状況を利用者に対して提示し、
    前記入力受付手段は、前記表示制御手段が表示した前記使用状況の中から利用者が選択した前記使用状況の入力を受付け、
    前記使用状況検出手段は、前記入力受付手段が受付けた前記使用状況を自装置の使用状況として検出することを特徴とする請求項に記載の入力装置。
  7. 自装置の位置に関する情報を取得する位置情報取得手段をさらに備え、
    前記使用状況検出手段は、前記位置情報取得手段が取得した位置に関する情報に基づいて自装置の使用状況を検出することを特徴とする請求項に記載の入力装置。
  8. 前記入力受付手段は、選択した用例の音声入力、または、用例の一部を修正した内容の音声入力を受付け、受付けた音声入力を音声認識し、音声認識結果を用例または用例の一部を修正した内容の入力として受付けることを特徴とする請求項1に記載の入力装置。
  9. 前記入力受付手段は、利用者による音声入力が、前記表示制御手段が表示した用例のうちのいずれかの用例と、利用者が用例の一部を修正した内容との少なくとも1つであることに基づき、音声認識結果の候補を限定して前記音声入力を音声認識することを特徴とする請求項に記載の入力装置。
  10. 入力内容の用例を記憶する用例記憶手段に記憶された用例から、利用者に提示する少なくとも1つの用例を決定する提示用例決定ステップと、
    用例の修正部分の修正前の表記と、用例の修正部分の修正後の表記とを対応づけて記憶する修正記憶手段を参照して決定された前記用例に含まれる前記修正前の表記に対応する前記修正後の表記を前記修正記憶手段から取得し、決定された前記用例に含まれる前記修正前の表記を、取得した前記修正後の表記に置換することにより、前記提示用例決定ステップが決定した用例を修正する修正適用ステップと、
    前記提示用例決定ステップが決定し、前記修正適用ステップが修正した用例を利用者に対して提示する表示制御ステップと、
    前記表示制御ステップが表示した用例の中から利用者が選択した用例、または、利用者が用例の一部を修正した内容の入力を受付ける入力受付ステップと、
    を備えたことを特徴とする入力方法。
  11. 入力内容の用例を記憶する用例記憶手段に記憶された用例から、利用者に提示する少なくとも1つの用例を決定する提示用例決定手順と、
    用例の修正部分の修正前の表記と、用例の修正部分の修正後の表記とを対応づけて記憶する修正記憶手段を参照して決定された前記用例に含まれる前記修正前の表記に対応する前記修正後の表記を前記修正記憶手段から取得し、決定された前記用例に含まれる前記修正前の表記を、取得した前記修正後の表記に置換することにより、前記提示用例決定手順が決定した用例を修正する修正適用手順と、
    前記提示用例決定手順が決定し、前記修正適用手順が修正した用例を利用者に対して提示する表示制御手順と、
    前記表示制御手順が表示した用例の中から利用者が選択した用例、または、利用者が用例の一部を修正した内容の入力を受付ける入力受付手順と、
    をコンピュータに実行させる入力プログラム。
JP2005284282A 2005-09-29 2005-09-29 入力装置、入力方法および入力プログラム Active JP4559946B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005284282A JP4559946B2 (ja) 2005-09-29 2005-09-29 入力装置、入力方法および入力プログラム
US11/528,558 US8346537B2 (en) 2005-09-29 2006-09-28 Input apparatus, input method and input program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005284282A JP4559946B2 (ja) 2005-09-29 2005-09-29 入力装置、入力方法および入力プログラム

Publications (2)

Publication Number Publication Date
JP2007094086A JP2007094086A (ja) 2007-04-12
JP4559946B2 true JP4559946B2 (ja) 2010-10-13

Family

ID=37979878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005284282A Active JP4559946B2 (ja) 2005-09-29 2005-09-29 入力装置、入力方法および入力プログラム

Country Status (2)

Country Link
US (1) US8346537B2 (ja)
JP (1) JP4559946B2 (ja)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
JP4393494B2 (ja) * 2006-09-22 2010-01-06 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
US8090570B2 (en) * 2006-10-26 2012-01-03 Mobile Technologies, Llc Simultaneous translation of open domain lectures and speeches
US11222185B2 (en) 2006-10-26 2022-01-11 Meta Platforms, Inc. Lexicon development via shared translation database
US9128926B2 (en) 2006-10-26 2015-09-08 Facebook, Inc. Simultaneous translation of open domain lectures and speeches
US8972268B2 (en) 2008-04-15 2015-03-03 Facebook, Inc. Enhanced speech-to-speech translation system and methods for adding a new word
JP2008305167A (ja) * 2007-06-07 2008-12-18 Toshiba Corp 原言語文を目的言語文に機械翻訳する装置、方法およびプログラム
US8874549B2 (en) * 2007-06-26 2014-10-28 Oracle Otc Subsidiary Llc System and method for measuring the quality of document sets
JP5235344B2 (ja) * 2007-07-03 2013-07-10 株式会社東芝 機械翻訳を行う装置、方法およびプログラム
JP5100445B2 (ja) * 2008-02-28 2012-12-19 株式会社東芝 機械翻訳する装置および方法
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
JP4977116B2 (ja) * 2008-12-03 2012-07-18 株式会社東芝 音声認識装置、方法、およびプログラム
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
JP2012064059A (ja) * 2010-09-16 2012-03-29 Ntt Communications Kk 翻訳装置、翻訳方法、及び翻訳プログラム
JP5704686B2 (ja) * 2010-09-28 2015-04-22 独立行政法人情報通信研究機構 音声翻訳システム、音声翻訳装置、音声翻訳方法、およびプログラム
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
JP5653392B2 (ja) * 2012-06-29 2015-01-14 株式会社東芝 音声翻訳装置、方法およびプログラム
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
GB2511667A (en) 2012-11-06 2014-09-10 Intuit Inc Stack-based adaptive localization and internationalization of applications
CN110096712B (zh) * 2013-03-15 2023-06-20 苹果公司 通过智能数字助理的用户培训
KR101456974B1 (ko) 2013-05-21 2014-10-31 삼성전자 주식회사 사용자 단말기, 음성인식 서버 및 음성인식 가이드 방법
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9436676B1 (en) 2014-11-25 2016-09-06 Truthful Speaking, Inc. Written word refinement system and method
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000268026A (ja) * 1999-03-18 2000-09-29 Fujitsu Ltd 文書作成システムおよび記録媒体
JP2002125047A (ja) * 2000-10-17 2002-04-26 Hitachi Ltd 通訳サービス方法および通訳サービス装置
JP2002366543A (ja) * 2001-06-06 2002-12-20 Matsushita Electric Ind Co Ltd 文書作成システム
JP2003058539A (ja) * 2001-08-13 2003-02-28 Logo Vista Corp 事例翻訳におけるシソーラス辞書作成装置
JP2004118720A (ja) * 2002-09-27 2004-04-15 Toshiba Corp 翻訳装置、翻訳方法及び翻訳プログラム
JP2004220266A (ja) * 2003-01-14 2004-08-05 Cross Language Inc 機械翻訳装置および機械翻訳方法
JP2005141759A (ja) * 2001-01-24 2005-06-02 Matsushita Electric Ind Co Ltd 音声変換装置、音声変換方法、プログラム、及び記録媒体

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5170349A (en) * 1989-03-14 1992-12-08 Canon Kabushiki Kaisha Text processing apparatus using modification relation analysis
US5129605A (en) * 1990-09-17 1992-07-14 Rockwell International Corporation Rail vehicle positioning system
US6047327A (en) * 1996-02-16 2000-04-04 Intel Corporation System for distributing electronic information to a targeted group of users
GB2303955B (en) * 1996-09-24 1997-05-14 Allvoice Computing Plc Data processing method and apparatus
US6169498B1 (en) * 1997-07-16 2001-01-02 Siemens Information And Communication Networks, Inc. Device and method for communication location-specific messages
JP3822990B2 (ja) 1999-01-07 2006-09-20 株式会社日立製作所 翻訳装置、記録媒体
US6385586B1 (en) * 1999-01-28 2002-05-07 International Business Machines Corporation Speech recognition text-based language conversion and text-to-speech in a client-server configuration to enable language translation devices
US6453168B1 (en) * 1999-08-02 2002-09-17 Itt Manufacturing Enterprises, Inc Method and apparatus for determining the position of a mobile communication device using low accuracy clocks
US7487112B2 (en) * 2000-06-29 2009-02-03 Barnes Jr Melvin L System, method, and computer program product for providing location based services and mobile e-commerce
US7103533B2 (en) * 2001-02-21 2006-09-05 International Business Machines Corporation Method for preserving contextual accuracy in an extendible speech recognition language model
US6691026B2 (en) * 2001-03-29 2004-02-10 Intellisist, Llc Vehicle navigation system and method
US6757544B2 (en) * 2001-08-15 2004-06-29 Motorola, Inc. System and method for determining a location relevant to a communication device and/or its associated user
US20030069690A1 (en) * 2001-10-04 2003-04-10 General Motors Corporation Method and system for navigation-enhanced directory assistance
JP3933449B2 (ja) * 2001-11-22 2007-06-20 株式会社東芝 コミュニケーション支援装置
JP3801049B2 (ja) * 2002-01-22 2006-07-26 ソニー株式会社 情報処理装置及び情報処理方法並びに情報処理プログラム
US7272377B2 (en) * 2002-02-07 2007-09-18 At&T Corp. System and method of ubiquitous language translation for wireless devices
EP2375690B1 (en) * 2002-03-01 2019-08-07 Extreme Networks, Inc. Locating devices in a data network
JP3762327B2 (ja) * 2002-04-24 2006-04-05 株式会社東芝 音声認識方法および音声認識装置および音声認識プログラム
JP3920812B2 (ja) * 2003-05-27 2007-05-30 株式会社東芝 コミュニケーション支援装置、支援方法、及び支援プログラム
EP1779062A1 (en) * 2004-07-17 2007-05-02 Shahriar Sarkeshik Location codes for destination routing
US7403851B2 (en) * 2004-09-30 2008-07-22 Navteq North America, Llc Method of operating a navigation system to report effects of updated portions of a geographic database
US7848765B2 (en) * 2005-05-27 2010-12-07 Where, Inc. Location-based services

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000268026A (ja) * 1999-03-18 2000-09-29 Fujitsu Ltd 文書作成システムおよび記録媒体
JP2002125047A (ja) * 2000-10-17 2002-04-26 Hitachi Ltd 通訳サービス方法および通訳サービス装置
JP2005141759A (ja) * 2001-01-24 2005-06-02 Matsushita Electric Ind Co Ltd 音声変換装置、音声変換方法、プログラム、及び記録媒体
JP2002366543A (ja) * 2001-06-06 2002-12-20 Matsushita Electric Ind Co Ltd 文書作成システム
JP2003058539A (ja) * 2001-08-13 2003-02-28 Logo Vista Corp 事例翻訳におけるシソーラス辞書作成装置
JP2004118720A (ja) * 2002-09-27 2004-04-15 Toshiba Corp 翻訳装置、翻訳方法及び翻訳プログラム
JP2004220266A (ja) * 2003-01-14 2004-08-05 Cross Language Inc 機械翻訳装置および機械翻訳方法

Also Published As

Publication number Publication date
US8346537B2 (en) 2013-01-01
JP2007094086A (ja) 2007-04-12
US20070124131A1 (en) 2007-05-31

Similar Documents

Publication Publication Date Title
JP4559946B2 (ja) 入力装置、入力方法および入力プログラム
US11783830B2 (en) Systems and methods for adaptive proper name entity recognition and understanding
US9818401B2 (en) Systems and methods for adaptive proper name entity recognition and understanding
JP5121252B2 (ja) 原言語による音声を目的言語に翻訳する装置、方法およびプログラム
US9449599B2 (en) Systems and methods for adaptive proper name entity recognition and understanding
JP4058071B2 (ja) 用例翻訳装置、用例翻訳方法および用例翻訳プログラム
KR100998566B1 (ko) 음성인식을 이용한 언어 번역 방법 및 장치
JP4398966B2 (ja) 機械翻訳を行う装置、システム、方法およびプログラム
US7369998B2 (en) Context based language translation devices and methods
JP6150268B2 (ja) 単語登録装置及びそのためのコンピュータプログラム
AU2017326987B2 (en) Systems and methods for adaptive proper name entity recognition and understanding
JP2014145842A (ja) 発話解析装置、音声対話制御装置、方法、及びプログラム
JP2009205579A (ja) 音声翻訳装置およびプログラム
JP2006277119A (ja) コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
JP2005043461A (ja) 音声認識方法及び音声認識装置
JP2008243080A (ja) 音声を翻訳する装置、方法およびプログラム
EP3005152B1 (en) Systems and methods for adaptive proper name entity recognition and understanding
JP5396530B2 (ja) 音声認識装置および音声認識方法
JP5160594B2 (ja) 音声認識装置および音声認識方法
JP2007171275A (ja) 言語処理装置及び現後処理方法
WO2023166651A1 (ja) 情報処理装置及び情報処理プログラム
JP2010039864A (ja) 形態素解析装置、形態素解析方法及びコンピュータプログラム
JP2004139530A (ja) 読み修正プログラム
JP2006098552A (ja) 音声情報生成装置、音声情報生成プログラム及び音声情報生成方法
KR20130137367A (ko) 이미지 기반 도서 관련 서비스 제공 시스템 및 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100629

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100723

R151 Written notification of patent or utility model registration

Ref document number: 4559946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3