JP2006330298A - コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム - Google Patents

コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム Download PDF

Info

Publication number
JP2006330298A
JP2006330298A JP2005152989A JP2005152989A JP2006330298A JP 2006330298 A JP2006330298 A JP 2006330298A JP 2005152989 A JP2005152989 A JP 2005152989A JP 2005152989 A JP2005152989 A JP 2005152989A JP 2006330298 A JP2006330298 A JP 2006330298A
Authority
JP
Japan
Prior art keywords
speech
source language
sentence
translation
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005152989A
Other languages
English (en)
Other versions
JP4439431B2 (ja
Inventor
Tetsuro Chino
哲朗 知野
Satoshi Kamaya
聡史 釜谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005152989A priority Critical patent/JP4439431B2/ja
Priority to US11/368,406 priority patent/US7873508B2/en
Priority to CNA2006100845357A priority patent/CN1869976A/zh
Publication of JP2006330298A publication Critical patent/JP2006330298A/ja
Application granted granted Critical
Publication of JP4439431B2 publication Critical patent/JP4439431B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/45Example-based machine translation; Alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

【課題】利用者が再入力する負担を軽減し、適切な対訳文を出力することができるコミュニケーション支援装置を提供する。
【解決手段】複数の言語間の翻訳を行うことによりコミュニケーションを支援するコミュニケーション支援装置において、翻訳の元となる原言語による音声を認識して認識の結果である原言語文を出力する音声認識部101と、連続して認識した複数の音声の間の類似性に基づいて類似する音声が連続して入力されたか否かを判定する連続入力判定部102と、原言語文を翻訳して対象言語で記述された対訳文に変換して出力する言語変換部103とを備え、言語変換部103は、連続入力判定部102が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して出力した対訳文と異なる対訳文を、後に認識した音声に対応する原言語文に対して出力する。
【選択図】 図1

Description

この発明は、複数の言語間の翻訳を行うことによりコミュニケーションを支援するコミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラムに関するものである。
近年、自然言語処理技術の進展に伴い、例えば日本語で書かれたテキストを、英語などの他の言語によるテキストへ翻訳する機械翻訳システムが実用化され、広く普及している。
また、音声処理技術の進展に伴い、利用者が発声した文章を文字に変換することにより、音声による自然言語文字列の入力を可能にする音声ディクテーションシステムや、電子データとして得られた文章やシステムから出力された自然言語文字列を、音声出力に変換する音声合成システムも利用されている。
また、画像処理技術の進展に伴い、カメラ等で撮影した文字画像を解析することにより、画像内の文を機械処理可能な文字データに変換する文字認識システムが実現されている。さらに、手書き文字認識技術の進展によって、利用者がペン入力装置などによって手書き入力した文を機械処理可能な文字データへと変換する技術が実現されている。
一方、文化や経済のグローバル化に伴い、異なる言語を母語とする人同士のコミュニケーションの機会が増加している。そこで、上述のような自然言語処理技術、音声処理技術、画像処理技術、手書き文字認識技術を統合して、異なる言語を母語とする人同士のコミュニケーションを支援するコミュニケーション支援装置に適用する技術に対する期待が高まっている。
このような装置として、例えば次のようなコミュニケーション支援装置が考えられる。まず、日本語話者が発声またはペン入力した日本語文を、音声認識技術または手書き文字認識技術を利用して、機械処理可能な日本語文字データに変換する。次に、機械翻訳技術を使って意味が等価な英語文へと翻訳し、その結果を英語文字列として提示する。または、音声合成技術を利用して英語音声の形式により英語話者に提示する。他方、英語話者が発生またはペン入力した英語文に対しては、逆の処理を施すことにより、翻訳した日本語文を日本語話者に提示する。このような方法により、異なる言語を母語とする人同士の双方向のコミュニケーションを可能としたコミュニケーション支援装置の実現が試みられている。
また、別の例として、例えば次のようなコミュニケーション支援装置が考えられる。まず、英語で表記されている現地の看板や注意書きなどの文字列をカメラで撮影する。次に、画像処理技術および文字認識技術を利用して、撮影した文字列を機械処理可能な英語文字列データに変換する。さらに、機械翻訳技術を使って意味が等価な日本語文へと翻訳し、その結果を日本語文字列として利用者に提示する。または、音声合成技術を利用して日本語音声の形式により利用者に提示する。このような方法により、英語圏の地域を旅行する日本語を母語とし英語を解さない旅行者が、英語で表記されている看板や注意書きを理解できるようにするコミュニケーション支援装置の実現が試みられている。
このようなコミュニケーション支援装置では、利用者から入力される原言語による入力文を音声認識処理、手書き文字認識処理、または画像文字認識処理によって認識して機械処理可能な文字データへと変換する際に、正しい候補を間違いなく得ることは非常に困難であり、一般に複数の解釈候補が得られることによる曖昧性が生じる。
また、機械翻訳処理においても、原言語文を意味的に等価な対訳文へと変換する際に曖昧性が生じ、複数の対訳文の候補が存在するために、意味的に等価な対訳文を一意に選択できず、曖昧性が解消できないことが多い。
その原因としては、例えば、元の原言語文自体が複数の解釈が存在する曖昧な表現であった場合や、元の原言語文自体が文脈依存性の高い表現であるために複数の解釈が生じる場合や、原言語と対象言語との間の、言語的・文化的な背景や概念の体系などが異なっているために複数の翻訳候補が生じる場合が考えられる。
このような曖昧性を解消するため、複数の候補が得られた場合に、最初に得られた候補を選択する方法や、複数の候補を利用者に提示して、その中から利用者が選択する方法が提案されている。また、複数の候補が得られた場合に、それぞれの候補を何らかの基準に従いスコア付けして、このスコアが高い候補を選択する方法も提案されている。例えば、特許文献1においては、単語から想起される概念の類似性が高い訳語を、翻訳の結果得られた複数の訳語から選択することにより、訳文の品質を向上させる技術が提案されている。
特開平07−334506号公報
しかしながら、特許文献1の方法では、利用者が訳語を選択する負担はなくなるが、スコア付けの根拠となる基準の設定が困難であるため、必ずしも最適な候補が選ばれる保証は無く、原言語文の意図に沿わない対訳文が出力される可能性があるという問題があった。
さらに、上述のようなコミュニケーション支援装置は、相互に理解できる言語が異なる利用者間のコミュニケーションを支援するものであり、一般に利用者は出力される対象言語を理解できないため、複数の候補から利用者が選択する方法では、誤訳が発生した場合であってもその誤りを発見して訂正することができないという問題があった。
このため、誤訳が発生して相手に発話の意図がうまく伝わらなかった場合、通常、利用者は同じ文を再入力する。このとき、例えば、音声認識と言語翻訳とを組み合わせて実現されたコミュニケーション支援装置において音声認識の失敗により誤訳が発生した場合であれば、再入力して再度音声認識を実行することにより、音声認識が成功し、誤訳を回避することができる場合がある。
しかし、音声認識が成功し、その後の翻訳処理において誤訳が発生している場合は、何度利用者が同じ文を再入力しても音声認識の出力結果は変わらないため、翻訳処理において同じ誤訳が繰り返し発生し、誤訳を回避することができないという問題があった。また、繰り返し入力を行うことによる利用者の負担が増加するという問題があった。
本発明は、上記に鑑みてなされたものであって、原言語文を翻訳して対訳文を出力する処理において誤りが発生し、利用者の意図が正しく伝わらなかった場合であっても、利用者が再入力する負担を軽減し、適切な対訳文を出力することができるコミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、複数の言語間の翻訳を行うことによりコミュニケーションを支援するコミュニケーション支援装置において、翻訳の元となる原言語による音声を認識して認識の結果である原言語文を出力する音声認識手段と、前記音声認識手段が連続して認識した複数の音声の間の類似性に基づいて、類似する音声が連続して入力されたか否かを判定する連続入力判定手段と、前記音声認識手段が出力した前記原言語文を翻訳し、翻訳の対象言語で記述された対訳文に変換して出力する言語変換手段と、を備え、前記言語変換手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して出力した前記対訳文と異なる前記対訳文を、後に認識した音声に対応する原言語文に対して出力することを特徴とする。
また、本発明は、複数の言語間の翻訳を行うことによりコミュニケーションを支援するコミュニケーション支援装置において、翻訳の元となる原言語による音声を認識して認識の結果である原言語文を出力する音声認識手段と、前記音声認識手段が連続して認識した複数の音声の間の類似性に基づいて、類似する音声が連続して入力されたか否かを判定する連続入力判定手段と、前記音声認識手段が出力した前記原言語文を翻訳し、翻訳の対象言語で記述された対訳文に変換して出力する言語変換手段と、前記言語変換手段が出力した前記対訳文を対象言語による音声に合成し、合成した音声を複数の発声様式から選択した1の発声様式によって出力する音声合成手段と、を備え、前記音声合成手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して選択した前記発声様式と異なる前記発声様式を、後に認識した音声に対応する原言語文に対して選択することを特徴とする。
また、本発明は、上記装置を実行することができるコミュニケーション支援方法およびコミュニケーション支援プログラムである。
本発明によれば、利用者が複数の対訳文の候補を有する原言語文を連続して入力したときに、先に入力された原言語文に対して出力した対訳文と異なる対訳文を、後に入力された原言語文に対して出力することができる。このため、翻訳の誤りにより相手に発話の意図が伝わらず、利用者が再度同様の原言語文を入力した場合であっても、利用者に特別な操作をさせることなく、適切な対訳文を出力することができるという効果を奏する。
以下に添付図面を参照して、この発明にかかるコミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラムの最良な実施の形態を詳細に説明する。
(第1の実施の形態)
第1の実施の形態にかかるコミュニケーション支援装置は、原言語による文と対訳候補文とを対応付けて格納した対訳データ記憶手段から、入力された原言語文に対応する対訳候補文を選択して出力するものである。その際、原言語文に対応する対訳候補文が複数存在し、かつ、選択した対訳候補文が不適切であったため、利用者が類似する原言語文を連続して入力した場合に、最初に選択した対訳候補文と異なる対訳候補文を、後に入力された原言語文に対して選択して対訳文として出力するものである。
ここで、対訳文とは、入力された原言語文に対して出力された対象言語による文をいい、1つの原言語文に対して1つの対訳文が出力される。また、対訳候補文とは、入力された原言語文に対する対訳文の候補となりうる文であり、当該原言語文に対応付けられて対訳データ記憶手段に格納されている文をいう。1つの原言語文に対して、複数の対訳候補文が存在しうる。なお、原言語文、対訳文、対訳候補文は、句点で区切られる文に限るものではなく、文章、段落、句、単語などであってもよい。
第1の実施の形態にかかるコミュニケーション支援装置は、例えば、原言語による文とそれに対応する対訳文とを対応付けて格納した情報を参照して翻訳を行う用例ベース翻訳や統計ベース翻訳などの直接変換方式の機械翻訳を利用するコミュニケーション支援装置に適用することができる。
図1は、第1の実施の形態にかかるコミュニケーション支援装置100の構成を示すブロック図である。同図に示すように、コミュニケーション支援装置100は、音声認識部101と、連続入力判定部102と、言語変換部103と、出力制御部104と、候補データ記憶部110と、先行認識結果記憶部111と、対訳データ記憶部112を備えている。言語変換部103と、出力制御部104とが、本発明における言語変換手段に相当する。
対訳データ記憶部112は、原言語による文と、当該原言語による文と同じ意味内容を表す対象言語による文である少なくとも1つの対訳候補文とを対応付けて格納するものである。対訳データ記憶部112は、入力された原言語文に対する対訳候補文を言語変換部103が選択して対訳文として出力する際に参照される。
図2は、対訳データ記憶部112のデータ構造の一例を示す説明図である。同図に示すように、対訳データ記憶部112は、原言語による文と、当該原言語による文に対応する対訳候補文を予め定められた優先度順に並べた対訳候補リストとを対応付けて格納している。例えば、同図においては、原言語である日本語の文「すみません」に対し、英語による対訳候補文として「Excuse me.」および「I'm sorry.」を含む対訳候補リストが格納されている。なお、対訳候補リスト内では、対訳候補文を一意に識別するための候補インデックスが、対訳候補文の優先度順に付与されている。また、優先度は対訳候補文の出現頻度などによって予め定められた値を用いる。
同図においては、原言語が日本語であり、対象言語が英語である場合の例が示されているが、コミュニケーション支援装置100が扱うことのできるすべての言語に対して、同様のデータを対訳データ記憶部112に格納することができる。
候補データ記憶部110は、原言語文と、原言語文を検索キーとして対訳データ記憶部112から検索した結果である少なくとも1つの対訳候補文とを対応付けて格納するものである。候補データ記憶部110は、原言語文に対応する対訳候補文を一時的に格納するものであり、言語変換部103が出力制御部104の指定に応じて当該対訳候補文から1つの対訳候補文を選択する際に参照される。
図3は、候補データ記憶部110のデータ構造の一例を示す説明図である。同図に示すように、候補データ記憶部110は、音声認識部101により認識され出力された原言語文と、当該原言語文に対して言語変換部103が対訳データ記憶部112から検索した対訳候補文の個数である候補数と、1つまたは複数の対訳候補文を含む対訳候補リストとを対応付けて格納している。
先行認識結果記憶部111は、音声認識部101によって直前に認識され出力された原言語文を格納するものである。先行認識結果記憶部111は、連続入力判定部102が類似する原言語文が連続して入力されたか否かを判断する際に参照される。
図4は、先行認識結果記憶部111のデータ構造の一例を示す説明図である。同図に示すように、先行認識結果記憶部111は、先行認識結果である原言語文を格納している。
音声認識部101は、利用者が発した原言語による音声を受け取り、音声認識を行うことによって、発話内容を書き下した原言語文を連続入力判定部102および言語変換部103に出力するものである。なお、音声認識部101により行われる音声認識処理は、LPC分析、隠れマルコフモデル(HMM:Hidden Markov Model)、ダイナミックプログラミング、ニューラルネットワーク、Nグラム言語モデルなどを用いた、一般的に利用されているあらゆる音声認識方法を適用することができる。
連続入力判定部102は、音声認識部101から出力される原言語文を受け取り、受け取った原言語文と、先行認識結果記憶部111に記憶された先行認識結果との類似性の比較を行うことにより、類似する音声が連続して入力されたか否かを判定するものである。
連続入力判定部102により行われる類似性の判定は、例えば、HMM、ダイナミックプログラミング、ニューラルネットワークなどを用いた文字列などのシンボル系列の一致・不一致の度合いを比較する方法により、その類似の度合いを数値として算出するように構成することができる。または、両者の文字列の間の編集距離を比較して、その類似の度合いを数値として算出するように構成してもよい。
ここで、編集距離とは、一方の文字から他方の文字へ変換する際の文字の編集操作の回数をいう。編集距離の算出方法は、Smith−Waterman法などの従来から用いられているあらゆる方法を適用することができる。このようにして算出した類似の度合いが、予め定められた値を超えた場合に、原言語文と先行認識結果とが類似すると判定する。
なお、類似性の判定は上記手法に限られるものではなく、音声認識結果の類似性を判断するものであれば、従来から用いられているあらゆる手法を適用することができる。例えば、音声認識の結果得られる音声の波形の類似性により判定するように構成してもよい。
言語変換部103は、音声認識部101から出力される原言語文を受け取り、受け取った原言語文に対応する対訳候補文を対訳データ記憶部112に格納された対訳候補リストから検索して候補データ記憶部110に出力するとともに、後述する出力制御部104から指定された候補インデックスに対応する対訳候補文を、候補データ記憶部110に格納された対訳候補リストから取得して対訳文として出力するものである。
なお、言語変換部103は、対訳文をディスプレイなどの出力部(図示せず)にテキストとして出力するように構成してもよいし、対訳文を音声合成機能により合成した音声として出力するように構成してもよい。
出力制御部104は、連続入力判定部102が類似する原言語文が連続して入力されたと判定した場合に、言語変換部103が先に選択した対訳候補文と異なる対訳候補文を、後に入力された原言語文に対して選択して対訳文として出力するように、言語変換部103による出力処理を制御するものである。入力された原言語文に対応する対訳候補文が1つしか存在しない場合には、選択する対訳候補文の切り替えの制御は行われない。
次に、このように構成された第1の実施の形態にかかるコミュニケーション支援装置100によるコミュニケーション支援処理について説明する。図5および図6は、第1の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。
まず、音声認識部101が、初期化処理を実行する(ステップS501)。初期化処理では、連続入力回数カウンタを1に、候補インデックスを0に設定し、先行認識結果記憶部111のクリアを実行する。
次に、音声認識部101は、タイマの初期化後、タイマの計時をスタートする(ステップS502)。その後、音声認識部101は、タイマの値が予め定められた閾値未満であるか否かを判断し(ステップS503)、閾値以上である場合は(ステップS503:NO)、初期化処理を再度実行し、処理を繰り返す(ステップS501)。一定時間経過後に類似する音声が連続して入力された場合は、利用者が発話する状況や発話の相手が異なる可能性が高いため、言い直しにより連続して入力されたと判断せず、対訳候補出力処理を初めから実行する必要があるからである。
ステップS503において、タイマの値が閾値未満であると判断された場合は(ステップS503:YES)、音声認識部101は、原言語による音声が入力されたか否かを判断する(ステップS504)。
音声が入力されていない場合は(ステップS504:NO)、タイマの値と閾値との比較処理に戻り処理を繰り返す(ステップS503)。音声が入力された場合は(ステップS504:YES)、音声認識部101は、入力された音声を認識する(ステップS505)。
次に、連続入力判定部102が、先行認識結果記憶部111が空か否か、すなわち、前回の認識結果が記憶されているか否かを判断する(ステップS506)。
先行認識結果記憶部111が空である場合は(ステップS506:YES)、言語変換部103が対訳データ記憶部112から認識結果である原言語に対応する対訳候補文を検索し、候補データ記憶部110に出力する(ステップS514)。先行認識結果が存在しないため、現在の認識結果に対応する対訳候補文を取得する必要があるからである。なお、対訳データ記憶部112から検索した対訳候補文の個数を、候補データ記憶部110の候補数欄に設定する。
先行認識結果記憶部111が空でない場合は(ステップS506:NO)、連続入力判定部102は、音声認識部101から受け取った認識結果と、先行認識結果記憶部111に記憶されている先行認識結果との類似性を判定する(ステップS507)。
連続入力判定部102は、認識結果と先行認識結果とが類似しているか否かを判断し(ステップS508)、類似していない場合は(ステップS508:NO)、言語変換部103による対訳候補出力処理が実行される(ステップS514)。利用者により異なる原言語文が入力されたと考えられるため、新たにその原言語文に対応する対訳候補文を取得する必要があるからである。
類似している場合は(ステップS508:YES)、連続入力判定部102は、連続入力回数カウンタに1を加算する(ステップS509)。次に、連続入力判定部102は、連続入力回数カウンタが予め定められた閾値以上であるか否かを判断する(ステップS510)。
閾値以上でない場合は(ステップS510:NO)、言語変換部103による対訳候補出力処理が実行される(ステップS514)。
連続入力回数カウンタが予め定められた閾値以上である場合は(ステップS510:YES)、連続入力判定部102は、候補インデックスに1を加算する(ステップS511)。
次に、連続入力判定部102は、候補インデックスが全候補数以下であるか否かを判断する(ステップS512)。全候補数は、候補データ記憶部110の候補数欄から取得することができる。候補インデックスが全候補数を超えている場合は(ステップS512:NO)、言語変換部103による対訳候補出力処理が実行される(ステップS514)。候補インデックスに対応する対訳候補文が存在しないため、対訳候補出力処理からやり直す必要があるからである。
候補インデックスが全候補数以下である場合は(ステップS512:YES)、出力制御部104は、ステップS511で1を加算された候補インデックスに対応する対訳候補文を、候補データ記憶部110から取得するように言語変換部103に対して指定する(ステップS513)。
例えば、連続して3回類似する原言語文が入力された場合に、出力する対訳候補文を切り替えるようにする場合は、閾値として3を予め定めておく。連続して3回類似する原言語文が入力されると、連続入力回数カウンタが3となり、閾値(=3)に達するため(ステップS510:YES)、出力制御部104は、1加算された候補インデックスに対応する対訳候補文の取得を指定する。
ステップS514において、言語変換部103が対訳データ記憶部112から認識結果である原言語に対応する対訳候補文を検索し、候補データ記憶部110に出力した後、言語変換部103は、候補インデックスを1に初期化する(ステップS515)。次に、連続入力判定部102は、先行認識結果記憶部111に認識結果を格納する(ステップS516)。
次に、出力制御部104は、初期化された候補インデックス(=1)に対応する対訳候補文、すなわち、対訳候補リストの先頭の対訳候補文を、候補データ記憶部110から取得するように言語変換部103に対して指定する(ステップS513)。
次に、言語変換部103は、出力制御部104により指定された対訳候補文を候補データ記憶部110から取得して出力し(ステップS517)、次の入力を受付けるために、タイマ計時開始処理(ステップS502)に戻り処理を繰り返す。
次に、上述した手順に従って実行されるコミュニケーション支援処理の具体例について説明する。図7は、コミュニケーション支援処理において処理されるデータの一例を示す説明図である。なお、ここでは簡略化のため連続入力回数カウンタの閾値として2が設定され、対訳データ記憶部112には、図2に示すようなデータが格納されていることを前提とする。
まず、時点t0において、利用者が日本語で音声「おこさまはいらっしゃいますか」を入力したとする(ステップS504:YES)。これに対し、音声認識部101が音声認識を行い(ステップS505)、時点t1に、正しい認識結果「お子様はいらっしゃいますか」を出力したとする。この時点t2では、先行認識結果記憶部111は空である(ステップS506:YES)。したがって、言語変換部103が通常の対訳候補文検索処理を実行し、時点t3において、対訳候補文1「Will your child come here?」と、対訳候補文2「Do you have any children?」との2つの対訳候補文を候補データ記憶部110に出力する(ステップS514)。
次に、時点t4において、言語変換部103が、第1番目の候補インデックスを設定し(ステップS515)、先行認識結果記憶部111には、「お子様はいらっしゃいますか」を格納する(ステップS516)。次に、時点t5において、言語変換部103が、出力制御部104により指定された候補インデックス=1に対応する対訳候補文1「Will your child come here?」を対訳文として出力する(ステップS517)。
しかし、対訳候補文1は、ユーザが意図していた内容と異なり、文脈に合わない誤った対訳文であったため、発話の相手に適切に伝わらず、通訳が失敗したとする(時点t6)。これに対して、利用者は英語で記述された対訳文を理解できないため、なぜ通訳が失敗したか分からず、時点t7において、再度同一の音声入力を行い、時点t8において、また正しく音声認識がされ、認識結果「お子様はいらっしゃいますか」が得られたとする。
この場合、時点t9において、連続入力判定部102が、認識結果と先行認識結果とが類似していると判断し(ステップS508)、連続入力回数カウンタに1を加算する(ステップS509)。また、連続入力判定部102は、時点t10において、連続入力回数が閾値(=2)に達することを検知し(ステップS510)、時点t11において、候補インデックスに1を加算する(ステップS511)。時点t12において、言語変換部103は、出力制御部104により指定された前回と異なる対訳候補文2「Do you have any children?」を対訳文として出力し(ステップS517)、通訳が成功する(時点t13)。
このように、従来の技術では、再入力された場合でも前回と同様の処理が行われ、何度でも同じ失敗が発生するに対し、本実施の形態においては、上述のような処理により、同じ失敗の繰り返しが発生することを回避することができる。
次に、第1の実施の形態にかかるコミュニケーション支援装置100により表示される画面の表示例について説明する。図8は、表示画面の一例を示す説明図である。なお、表示画面は、本装置が備えるディスプレイなどの出力部(図示せず)に表示される。
同図の(a)は、最初に入力された音声の認識結果が表示された状態の表示画面800を表している。表示画面800では、入力文801に、音声認識結果である「お子様はいらっしゃいますか」が表示された例が示されている。また、この時点では、翻訳結果である出力文802は表示されていない。
同図の(b)は、最初に入力された音声の認識結果と、それに対する翻訳結果が表示された状態の表示画面810を表している。表示画面810では、入力文811に対応する翻訳結果である出力文812「Will your child come here?」が表示された例が示されている。
同図の(c)は、翻訳が失敗し、再度入力された音声の認識結果と、それに対する翻訳結果が表示された状態の表示画面820を表している。表示画面820では、入力文821に、音声認識結果である「お子様はいらっしゃいますか」が表示された例が示されている。また、この時点では、翻訳結果である出力文822は表示されていない。
同図の(d)は、再度入力された音声の認識結果と、それに対する翻訳結果が表示された状態の表示画面830を表している。表示画面830では、入力文831に対応して、最初に出力された翻訳結果と異なる翻訳結果である出力文832「Do you have any children?」が表示された例が示されている。
このように、連続して同じ音声が入力された場合、利用者が特別な操作を行うことなく、異なる出力文を画面に表示することができる。なお、表示画面には出力文を表示せず、出力文を対象言語により音声合成した音声のみ出力するように構成してもよい。
このように、第1の実施の形態にかかるコミュニケーション支援装置100では、類似した音声認識結果が連続して得られた場合、最初に出力した対訳候補文と異なる対訳候補文を、後に認識した原言語文に対する対訳候補文として対訳データ記憶手段から検索して対訳文として出力することができる。このため、誤訳が発生したため、利用者が再度同様の原言語文を入力した場合であっても、同じ誤訳が繰り返されるのを防止し、利用者が再入力する負担を軽減し、適切な対訳文を出力することができる。
(第2の実施の形態)
第2の実施の形態にかかるコミュニケーション支援装置は、原言語文の意味内容を解析して対応する対象言語による文に翻訳して出力するものである。その際、原言語の解析結果の候補が複数存在し、かつ、選択した候補が不適切で誤訳が発生したため、利用者が類似する原言語文を連続して入力した場合に、最初に選択した候補と異なる候補を、後に入力された原言語文に対して選択し、それに対応する対訳文を出力するものである。
第2の実施の形態にかかるコミュニケーション支援装置は、例えば、原言語文の解析、解析結果の変換、変換結果から対訳文の生成を行うトランスファ方式の機械翻訳を利用するコミュニケーション支援装置に適用することができる。
図9は、第2の実施の形態にかかるコミュニケーション支援装置900の構成を示すブロック図である。同図に示すように、コミュニケーション支援装置900は、音声認識部101と、連続入力判定部102と、言語変換部903と、出力制御部904と、原言語解析部905と、候補データ記憶部910と、先行認識結果記憶部111とを備えている。
第2の実施の形態においては、原言語解析部905を追加したこと、言語変換部903と出力制御部904の機能、および候補データ記憶部910のデータ構造が第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかるコミュニケーション支援装置100の構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
原言語解析部905は、音声認識部101により認識された原言語文を受け取り、原言語の語彙情報、文法規則を参照した形態素解析、構文解析、係り受け解析、照応解析、省略補完関係解析、発話意図解析などの自然言語解析処理を行うことによって、原言語文が表している意味内容の解釈の候補である解析結果候補を出力するものである。解析結果候補は、上述の自然言語解析処理の解析処理(形態素解析、構文解析、係り受け解析、照応解析、省略補完関係解析、発話意図解析)のうち、いずれの解析処理における解析結果候補を出力してもよい。
なお、原言語解析部905により行われる自然言語解析処理は、CYK法による形態素解析や、アーリー法、チャート法、一般化LR法による構文解析など、一般的に利用されているあらゆる方法を適用することができる。また、形態素情報、構文情報、文法規則、翻訳規則などを格納した自然言語処理用の辞書が、HDD(Hard Disk Drive)、光ディスク、メモリカードなどの一般的に利用されている記憶手段に格納され、これらの自然言語解析処理において参照される。
言語変換部903は、原言語解析部905が出力した解析結果候補から1つを選択し、その解析結果候補が表す意味内容と同じ意味内容を表す対象言語による文に翻訳し、翻訳結果を対訳文として出力するものである。その際、言語変換部903は、後述する出力制御部904から指定された候補インデックスに対応する解析結果候補を選択する。言語変換部903は、トランスファ方式の機械翻訳における変換処理、生成処理を実行する部分に相当する。
出力制御部904は、連続入力判定部102が類似する原言語文が連続して入力されたと判定した場合に、言語変換部903が先に選択した解析結果候補と異なる解析結果候補を、後に入力された原言語文に対して選択するように、言語変換部903による解析結果候補の選択処理を制御するものである。入力された原言語文に対応する解析結果候補が1つしか存在しない場合には、選択する解析結果候補の切り替えを制御する処理は行われない。
候補データ記憶部910は、原言語文と、原言語解析部905が当該原言語文を解析した結果である少なくとも1つの解析結果候補とを対応付けて格納するものである。図10は、候補データ記憶部910のデータ構造の一例を示す説明図である。
同図に示すように、候補データ記憶部910は、音声認識部101により認識され出力された原言語文と、当該原言語文に対して原言語解析部905が出力した解析結果候補の個数である候補数と、1つまたは複数の解析結果候補を含む解析候補リストとを対応付けて格納している。
なお、原言語解析部905により解析結果候補をスコアづけして優先度順に候補インデックスを付与して候補データ記憶部910に格納するように構成してもよい。スコアづけの方法は、特許文献1に記載された方法などの従来から用いられているあらゆる方法を適用することができる。このように構成することにより、適切な候補から順に選択することができるため、より適切な対訳文を出力することが可能となる。
候補データ記憶部910は、いずれの解析処理の解析結果を格納するかにより、その格納する内容が異なる。図10においては、(a)は形態素解析処理の解析結果を格納した例、(b)は構文解析処理の解析結果を格納した例、(c)は係り受け解析処理の解析結果を格納した例、(d)は照応解析処理の解析結果を格納した例、(e)は省略補完関係解析処理の解析結果を格納した例、(f)は発話意図解析処理の解析結果を格納した例を、それぞれ表している。
図10の(a)に示す例では、原言語文「かばんはいりません」に対し、形態素解析結果候補数が2であり、形態素解析結果候補として「鞄/は/要り/ませ/ん」および「鞄/入り/ませ/ん」を含む解析候補リストが格納されている。なお、解析候補リスト内では、解析結果候補を一意に識別するための候補インデックスが付与されている。
図10の(b)に示す例では、原言語文「急いで走る太郎を見た」に対し、構文解析結果候補数が2であり、構文解析結果候補として「構文木1」および「構文木2」を含む解析候補リストが格納されている。ここで、「構文木1」「構文木2」とは、木構造で表現された構文解析結果を示している。
図11は、木構造で表現された構文解析結果の一例を示す説明図である。同図は、田中穂積監修、「自然言語処理−基礎と応用−」(社団法人電子情報通信学会刊、ISBN4-88552-160-2、1999)P.22の図1.14に示された例を引用したものである。同図の(a)および(b)に、原言語文「急いで走る太郎を見た」に対して出力された構文解析結果である「構文木1」、「構文木2」の2つの木構造がそれぞれ示されている。構文木1は、副詞「急いで」が、動詞「走る」のみを含む動詞句を修飾して、ひとつの動詞句を形成する構造を表している。また、構文木2は、副詞「急いで」が、「走る一郎を見た」から構成される動詞句全体を修飾して、文全体に対応する動詞句を構成する構造を表している。構文解析の結果を解析結果候補として格納する場合は、このような木構造のデータに候補インデックスを付与して解析候補リストに格納する。
図10の(c)に示す例では、原言語文「昨日買った本を読んだ」に対し、係り受け解析結果候補数が2であり、係り受け解析結果候補として「昨日→買った」および「昨日→読んだ」を含む解析候補リストが格納されている。すなわち、この例では、「昨日」が「買った」または「読んだ」のどちらに係るかにより、2つの解析結果候補が出力されている。
図10の(d)に示す例では、原言語文「太郎から本をもらった次郎はうれしかった。彼は笑っていた。」に対し、照応解析結果候補数が2であり、照応解析結果候補として「彼→太郎」および「彼→次郎」を含む解析候補リストが格納されている。すなわち、この例では、「彼」が「太郎」を表すのか、または「次郎」を表すのかにより、2つの解析結果候補が出力されている。
図10の(e)に示す例では、原言語文「行けますか?」に対し、省略補完関係解析結果候補数が2であり、省略補完関係解析結果候補として「私は行けますか」および「あなたは行けますか」を含む解析候補リストが格納されている。すなわち、この例では、省略された主語が「私」か「あなた」かにより、2つの解析結果候補が出力されている。
図10の(f)に示す例では、原言語文「結構です」に対し、発話意図解析結果候補数が2であり、発話意図解析結果候補として「OKです」および「いりません」を含む解析候補リストが格納されている。すなわち、この例では、「結構です」の表す意味として肯定および否定の2つが存在しうるため、発話意図として2つの解析結果候補が出力されている。
なお、解析結果候補は、上述の(a)から(f)のいずれか1つのみに限られるものではない。すなわち、形態素解析、構文解析、係り受け解析、照応解析、省略補完関係解析、発話意図解析のうち複数の解析結果候補を候補データ記憶部910に格納し、出力制御部904による選択処理の制御の対象とすることができる。
次に、このように構成された第2の実施の形態にかかるコミュニケーション支援装置900によるコミュニケーション支援処理について説明する。図12−1および図12−2は、第2の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。
ステップS1201からステップS1212までの、入力処理、連続入力判定処理は、第1の実施の形態にかかるコミュニケーション支援装置100におけるステップS501からステップS512までと同様の処理なので、その説明を省略する。
第1の実施の形態では、ステップS514において言語変換部103が認識結果に対応する対訳候補文を候補データ記憶部110に出力するが、第2の実施の形態においては、原言語解析部905が認識結果を解析してその結果である解析結果候補を候補データ記憶部910に出力する点が第1の実施の形態と異なっている(ステップS1214)。
この後、原言語解析部905が、候補インデックスを1に初期化し(ステップS1215)、連続入力判定部102が、先行認識結果記憶部111に認識結果を格納する(ステップS1216)。
次に、出力制御部904は、候補インデックスに対応する候補を、候補データ記憶部910から取得するよう指定する(ステップS1213)。すなわち、例えば、最初の入力時であれば、解析処理実行後(ステップS1214)、候補インデックスに1が設定されているため(ステップS1215)、解析結果候補のうち候補インデックスが1である最初の候補の取得が指定される。
また、連続して類似する音声が入力された場合は、候補インデックスに1加算された値が設定されているため(ステップS1211)、ステップS1214で再度解析処理を実行することなく、前回の処理で格納されている解析結果候補から、次の候補インデックスに対応する候補の取得が指定される。
次に、言語変換部903は、出力制御部904により指定された候補を候補データ記憶部910から取得し、取得した解析結果候補が表す意味内容と同じ意味内容を表す対象言語による文に翻訳し、翻訳結果を対訳文として出力する(ステップS1217)。
次に、上述した手順に従って実行されるコミュニケーション支援処理の具体例について説明する。なお、ここでは簡略化のため連続入力回数カウンタの閾値として2が設定されていることを前提とする。
例えば、利用者が「いらない」という意味で「結構です」という原言語文を入力した場合を考える(ステップS1204)。この場合、原言語解析部905により、図10(f)に示すような形態素解析結果候補が出力され(ステップS1214)、初回の入力に対しては、候補インデックス1に対応する解析結果候補である「OKです」が選択されて(ステップS1213)、それに対応する対訳文が出力される(ステップS1217)。
しかし、利用者の意図が正しく伝わらないため、利用者が再度「結構です」という原言語文を入力すると、連続入力判定部102により類似する原言語文が入力されたと判定され(ステップS1208)、連続入力回数カウンタに1が加算される(ステップS1209)。また、連続入力回数カウンタが閾値である2と同値になるため(ステップS1210:YES)、候補インデックスにも1が加算され(ステップS1211)、出力制御部904により候補インデックスが2の候補の取得が指定される(ステップS1213)。これにより、言語変換部903は、図10(f)の候補インデックス2に対応する解析結果候補である「いりません」を取得し、正しい対訳文を出力することができる(ステップS1217)。
このように、第2の実施の形態にかかるコミュニケーション支援装置900では、原言語解析結果が複数存在し、かつ、類似した音声認識結果が連続して得られた場合、最初に選択した解析結果と異なる解析結果を、後に認識した原言語文に対して選択し、それに対応する対訳文を出力することができる。このため、誤訳が発生したため、利用者が再度同様の原言語文を入力した場合であっても、同じ誤訳が繰り返されるのを防止し、利用者が再入力する負担を軽減し、適切な対訳文を出力することができる。また、類似する音声が入力された場合に、再度原言語の解析処理を実行することなく、前回の解析結果の候補から異なる候補を選択して翻訳処理を行うことができるため、処理負荷の高い解析処理の実行回数を軽減することができる。
(第3の実施の形態)
第3の実施の形態にかかるコミュニケーション支援装置は、原言語文の意味内容を解析して対応する対象言語による文に翻訳して対訳文として出力するものである。その際、翻訳時の訳語の候補が複数存在し、かつ、選択した候補が不適切で誤訳が発生したため、利用者が類似する原言語文を連続して入力した場合に、最初に選択した候補と異なる候補を、後に入力された原言語文に対して選択し、それに対応する対訳文を出力するものである。
第3の実施の形態にかかるコミュニケーション支援装置は、第2の実施の形態と同様に、原言語文の解析、解析結果の変換、変換結果から対訳文の生成を行うトランスファ方式の機械翻訳を利用するコミュニケーション支援装置に適用することができる。第2の実施の形態では、原言語文の解析過程において出力された複数の候補に対して選択制御が行われるが、第3の実施の形態では、解析結果の変換過程において出力された複数の候補に対して選択制御が行われる。
図13は、第3の実施の形態にかかるコミュニケーション支援装置1300の構成を示すブロック図である。同図に示すように、コミュニケーション支援装置1300は、音声認識部101と、連続入力判定部102と、言語変換部1303と、出力制御部1304と、原言語解析部905と、候補データ記憶部1310と、先行認識結果記憶部111とを備えている。
第3の実施の形態においては、言語変換部1303と出力制御部1304の機能、および候補データ記憶部1310のデータ構造が第2の実施の形態と異なっている。その他の構成および機能は、第2の実施の形態にかかるコミュニケーション支援装置900の構成を表すブロック図である図9と同様であるので、同一符号を付し、ここでの説明は省略する。
言語変換部1303は、原言語解析部905により出力された解析結果を、当該解析結果が表す意味内容と同じ意味内容を表す対象言語で翻訳し、少なくとも1つの翻訳結果である訳語候補を出力し、出力した訳語候補から1つの候補を選択して対訳文を生成して出力するものである。その際、言語変換部1303は、後述する出力制御部1304から指定された候補インデックスに対応する訳語候補を選択する。
出力制御部1304は、連続入力判定部102が類似する原言語文が連続して入力されたと判定した場合に、言語変換部1303が先に選択した訳語候補と異なる訳語候補を、後に入力された原言語文に対して選択するように、言語変換部1303による訳語候補の選択処理を制御するものである。入力された原言語文に対応する訳語候補が1つしか存在しない場合には、選択する訳語候補の切り替えを制御する処理は行われない。
候補データ記憶部1310は、原言語による解析結果と、言語変換部1303が当該解析結果を翻訳した結果である少なくとも1つの訳語候補とを対応付けて格納するものである。図14は、候補データ記憶部1310のデータ構造の一例を示す説明図である。
同図に示すように、候補データ記憶部1310は、原言語解析部905が出力した解析結果と、言語変換部1303が当該原言語を翻訳した結果である訳語候補の個数である候補数と、1つまたは複数の訳語候補を含む訳語候補リストとを対応付けて格納している。なお、同図においては、翻訳の原言語が英語、翻訳の対象言語が日本語であり、英語の意味内容を表す日本語の訳語候補が複数存在する場合の例が示されている。
次に、このように構成された第3の実施の形態にかかるコミュニケーション支援装置1300によるコミュニケーション支援処理について説明する。図15−1および図15−2は、第3の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。
ステップS1501からステップS1512までの、入力処理、連続入力判定処理は、第2の実施の形態にかかるコミュニケーション支援装置900におけるステップS1201からステップS1212までと同様の処理なので、その説明を省略する。
第2の実施の形態では、ステップS1214において原言語解析部905が認識結果を解析してその結果である解析結果候補を候補データ記憶部110に出力するが、第3の実施の形態においては、原言語解析部905が認識結果を解析し(ステップS1514)、その解析結果を言語変換部1303が翻訳し、翻訳結果である訳語候補を候補データ記憶部1310に出力する点が第2の実施の形態と異なっている(ステップS1515)。
この後、言語変換部1303が、候補インデックスを1に初期化し(ステップS1516)、連続入力判定部102が、先行認識結果記憶部111に認識結果を格納する(ステップS1517)。
次に、出力制御部1304は、候補インデックスに対応する候補を、候補データ記憶部1310から取得するよう指定する(ステップS1513)。すなわち、例えば、最初の入力時であれば、翻訳処理実行後(ステップS1515)、候補インデックスに1が設定されているため(ステップS1516)、解析結果候補のうち候補インデックスが1である最初の候補の取得が指定される。
また、連続して類似する音声が入力された場合は、候補インデックスに1加算された値が設定されているため(ステップS1511)、ステップS1514およびステップS1515で再度解析処理および翻訳処理を実行することなく、前回の処理で格納されている訳語候補から、候補インデックスに対応する候補の取得が指定される。
次に、言語変換部1303は、出力制御部1304により指定された候補を候補データ記憶部1310から取得し、取得した訳語候補を用いて対訳文を生成して出力する(ステップS1518)。
このように、第3の実施の形態にかかるコミュニケーション支援装置1300では、翻訳時の訳語候補が複数存在し、かつ、類似した音声認識結果が連続して得られた場合、最初に選択した訳語候補と異なる訳語候補を、後に認識した原言語文に対して選択し、選択した訳語候補から対訳文を生成することができる。このため、誤訳が発生したため、利用者が再度同様の原言語文を入力した場合であっても、同じ誤訳が繰り返されるのを防止し、利用者が再入力する負担を軽減し、適切な対訳文を出力することができる。また、類似する音声が入力された場合に、再度原言語の解析処理、変換処理を実行することなく、前回の変換処理結果の候補から異なる候補を選択して翻訳処理を行うことができるため、処理負荷の高い解析処理、変換処理の実行回数を軽減することができる。
(第4の実施の形態)
第4の実施の形態にかかるコミュニケーション支援装置は、翻訳の元となる原言語と翻訳の対象言語との組み合わせを表す翻訳方向を状況に応じて適切に選択して翻訳処理を実行するものである。その際、翻訳方向が複数存在し、かつ、選択した翻訳方向が不適切で誤訳が発生したため、利用者が類似する原言語文を連続して入力した場合に、最初に選択した翻訳方向と異なる翻訳方向を、後に入力された原言語文に対して選択し、それに対応する対訳文を出力するものである。ここで、翻訳方向とは、翻訳の元となる原言語と翻訳の対象言語との組み合わせをいう。
なお、第4の実施の形態においては、第2または第3の実施の形態と同様に、トランスファ方式の機械翻訳により構成した形態を前提として説明するが、第1の実施の形態のように直接変換方式の機械翻訳に適用するように構成することもできる。
図16は、第4の実施の形態にかかるコミュニケーション支援装置1600の構成を示すブロック図である。同図に示すように、コミュニケーション支援装置1600は、音声認識部101と、連続入力判定部102と、言語変換部1603と、出力制御部1604と、翻訳方向データ記憶部1610と、先行認識結果記憶部111とを備えている。
第4の実施の形態においては、言語変換部1603と出力制御部1604の機能、および翻訳方向データ記憶部1610を追加したことが第2の実施の形態と異なっている。その他の構成および機能は、第2の実施の形態にかかるコミュニケーション支援装置900の構成を表すブロック図である図9と同様であるので、同一符号を付し、ここでの説明は省略する。
翻訳方向データ記憶部1610は、コミュニケーション支援装置1600で使用できる翻訳方向を格納するものである。図17は、翻訳方向データ記憶部1610のデータ構造の一例を示す説明図である。
同図に示すように、翻訳方向データ記憶部1610は、翻訳方向を一意に識別するための候補インデックスと、翻訳方向とを対応付けて格納している。なお、同図においては、日本語、英語、中国語をそれぞれ原言語、対象言語として組み合わせた6つの翻訳方向が格納されている場合の例が示されている。翻訳方向およびその格納順序は、本装置を利用する状況等に応じて変更可能とするように構成してもよい。
言語変換部1603は、原言語解析部905により出力された解析結果を、当該解析結果が表す意味内容と同じ意味内容を表す対象言語で翻訳した訳語から対訳文を生成して出力するものである。その際、言語変換部1603は、後述する出力制御部1604から指定された候補インデックスに対応する翻訳方向を選択し、選択した翻訳方向に従って対訳文を翻訳する。
出力制御部1604は、連続入力判定部102が類似する原言語文が連続して入力されたと判定した場合に、言語変換部1603が先に選択した翻訳方向と異なる翻訳方向を、後に入力された原言語文に対して選択するように、言語変換部1603による翻訳方向の選択処理を制御するものである。
次に、このように構成された第4の実施の形態にかかるコミュニケーション支援装置1600によるコミュニケーション支援処理について説明する。図18−1および図18−2は、第4の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。
ステップS1801からステップS1812までの、入力処理、連続入力判定処理は、第2の実施の形態にかかるコミュニケーション支援装置900におけるステップS1201からステップS1212までと同様の処理なので、その説明を省略する。
第2の実施の形態では、ステップS1214において原言語解析部905による解析処理が実行されるが、第4の実施の形態においては、解析処理は実行されず、候補インデックスの初期化処理(ステップS1814)、および認識結果の格納処理(ステップS1815)が実行される点が、第2の実施の形態と異なっている。
すなわち、第2の実施の形態においては、入力された原言語文によって候補データ(解析結果候補)が変動するが、第4の実施の形態においては、候補データ(翻訳方向の候補)が事前に用意されているため、候補データを出力する処理は実行されない。代わりに、単に候補インデックスを初期化し、デフォルトの翻訳方向を指定する処理が実行される。
次に、原言語解析部905が、認識結果を解析し、解析結果を出力する(ステップS1813)。次に、出力制御部1604は、候補インデックスに対応する翻訳方向を、翻訳方向データ記憶部1610から選択するよう指定する(ステップS1816)。
例えば、最初の入力時であれば、ステップS1814において指定された候補インデックスが1の翻訳方向の選択が指定される。また、連続して類似する音声が入力された場合は、候補インデックスに1加算された値が設定されているため(ステップS1811)、その候補インデックスに対応する翻訳方向の選択が指定される。
次に、言語変換部1603は、出力制御部1604により指定された翻訳方向を翻訳方向データ記憶部1610から選択し(ステップS1817)、選択した翻訳方向に従い原言語解析部905が出力した解析結果を変換し、対訳文を生成して出力する(ステップS1818)。
次に、上述した手順に従って実行されるコミュニケーション支援処理の具体例について説明する。例えば、利用者が日本語により音声入力を行い(ステップS1804)、英語の対訳文が出力されたが(ステップS1818)、発話の相手は中国語を理解するが英語を理解しないため、利用者の発話の意図が伝わらなかったとする。この際、利用者が再度同じ音声入力を行うと(ステップS1804)、翻訳方向の次の候補として「日本語→中国語」が選択されるため(ステップS1817)、適切に中国語の対訳文を出力することができる(ステップS1818)。
このように、第4の実施の形態にかかるコミュニケーション支援装置1600では、翻訳方向が複数存在し、かつ、類似した音声認識結果が連続して得られた場合、最初に選択した翻訳方向と異なる翻訳方向を、後に認識した原言語文に対して選択し、選択した翻訳方向に従い翻訳を行って対訳文を出力することができる。このため、誤訳が発生したため、利用者が再度同様の原言語文を入力した場合であっても、同じ誤訳が繰り返されるのを防止し、利用者が再入力する負担を軽減し、適切な対訳文を出力することができる。
(第5の実施の形態)
第5の実施の形態にかかるコミュニケーション支援装置は、複数の発声様式から適切な発声様式を選択し、選択した発声様式により対訳文を音声合成して出力するものである。その際、発声様式が不適切であったため利用者の意図が相手に伝わらず、利用者が類似する原言語文を連続して入力した場合に、最初に選択した発声様式と異なる発声様式を、後に入力された原言語文に対して選択し、それに対応する対訳文を音声合成して出力するものである。
図19は、第5の実施の形態にかかるコミュニケーション支援装置1900の構成を示すブロック図である。同図に示すように、コミュニケーション支援装置1900は、音声認識部101と、連続入力判定部102と、言語変換部1903と、出力制御部1904と、原言語解析部905と、音声合成部1906と、発声様式データ記憶部1910と、先行認識結果記憶部111とを備えている。
第5の実施の形態においては、音声合成部1906と発声様式データ記憶部1910を追加したこと、および、言語変換部1903と出力制御部1904の機能が第2の実施の形態と異なっている。その他の構成および機能は、第2の実施の形態にかかるコミュニケーション支援装置900の構成を表すブロック図である図9と同様であるので、同一符号を付し、ここでの説明は省略する。
発声様式データ記憶部1910は、コミュニケーション支援装置1900の音声合成処理において使用できる発生様式を格納するものである。図20は、発声様式データ記憶部1910のデータ構造の一例を示す説明図である。
同図に示すように、発声様式データ記憶部1910は、発声様式を一意に識別するための候補インデックスと、発声様式とを対応付けて格納している。発声様式は、例えば、音量、発声の速度、声の高さ、抑揚、アクセントなどの要素をさまざまに組み合わせて指定することができる。なお、これらの要素は例示であり、合成した音声の発声の方法を変えるものであればあらゆる要素を用いることができる。
言語変換部1903は、原言語解析部905により出力された解析結果を、当該解析結果が表す意味内容と同じ意味内容を表す対象言語で翻訳し、翻訳した訳語から対訳文を生成して出力するものである。
音声合成部1906は、言語変換部1903が出力した対訳文を受け取り、その内容を対象言語の合成音声として出力するものである。その際、音声合成部1906は、後述する出力制御部1904から指定された候補インデックスに対応する発声様式を選択し、選択した発声様式に従って対訳文の音声合成処理を実行する。
なお、音声合成部1906により行われる音声合成処理は、音声素片編集音声合成、フォルマント音声合成などを用いたテキストトゥスピーチシステムなどの一般的に利用されているあらゆる方法を適用することができる。
出力制御部1904は、連続入力判定部102が類似する原言語文が連続して入力されたと判定した場合に、音声合成部1906が先に選択し発声様式と異なる発声様式を、後に入力された原言語文に対して選択するように、音声合成部1906による発声様式の選択処理を制御するものである。
次に、このように構成された第5の実施の形態にかかるコミュニケーション支援装置1900によるコミュニケーション支援処理について説明する。図21−1および図21−2は、第5の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。
ステップS2101からステップS2112までの、入力処理、連続入力判定処理は、第2の実施の形態にかかるコミュニケーション支援装置900におけるステップS1201からステップS1212までと同様の処理なので、その説明を省略する。
連続入力判定部102が、候補インデックスが全候補数を超えていると判断した場合(ステップS2112:NO)、原言語解析部905は、認識結果を解析し、解析結果を出力する(ステップS2114)。次に、言語変換部1903が、原言語解析部905が出力した解析結果を翻訳し対訳文を出力した後(ステップS2115)、候補インデックスを1に初期化する(ステップS2116)。また、連続入力判定部102が、先行認識結果記憶部111に認識結果を格納する(ステップS2117)。
次に、出力制御部1904は、候補インデックスに対応する発声様式を、発声様式データ記憶部1910から選択するよう指定する(ステップS2113)。
例えば、最初の入力時であれば、ステップS2116において指定された候補インデックスが1である最初の発声様式の選択が指定される。また、連続して類似する音声が入力された場合は、候補インデックスに1加算された値が設定されているため(ステップS2111)、その候補インデックスに対応する発声様式の選択が指定される。
次に、言語変換部1903は、出力制御部1904により指定された発声様式を発声様式データ記憶部1910から選択し、選択した発声様式に従いステップS2115において出力した対訳文に対して音声合成処理を実行し、その結果を出力する(ステップS2118)。
このように、第5の実施の形態にかかるコミュニケーション支援装置1900では、音声合成時の発声様式が複数存在し、かつ、類似した音声認識結果が連続して得られた場合、最初に選択した発声様式と異なる発声様式を、後に認識した原言語文に対して選択し、選択した発声様式に従い音声合成を行って対訳文の音声を出力することができる。このため、不適切な音声合成処理により利用者の発話の意図が相手に伝わらず、利用者が再度同様の原言語文を入力した場合であっても、不適切な音声合成処理が繰り返されるのを防止し、利用者が再入力する負担を軽減し、適切な対訳文を出力することができる。
なお、第1〜第5の実施の形態においては、認識処理として音声認識を用いた構成について説明したが、認識処理は音声認識に限らず、例えば、文字認識や、手書き入力認識や、画像認識を利用するように構成してもよい。また、学習機能を追加して、過去に何度も一回で正しく訳せている入力には上述のような連続入力の判定処理や出力の制御処理を実行しないように構成してもよい。
なお、第1〜第5の実施の形態にかかるコミュニケーション支援装置で実行されるコミュニケーション支援プログラムは、ROM(Read Only Memory)等に予め組み込まれて提供される。
第1〜第5の実施の形態にかかるコミュニケーション支援装置で実行されるコミュニケーション支援プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、第1〜第5の実施の形態にかかるコミュニケーション支援装置で実行されるコミュニケーション支援プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、第1〜第5の実施の形態にかかるコミュニケーション支援装置で実行されるコミュニケーション支援プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
第1〜第5の実施の形態にかかるコミュニケーション支援装置で実行されるコミュニケーション支援プログラムは、上述した各部(音声認識部、連続入力判定部、言語変換部、出力制御部、原言語解析部、音声合成部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(Central Processing Unit)が上記ROMからコミュニケーション支援プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。
以上のように、本発明にかかるコミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラムは、音声入力した原言語文を対象言語に翻訳して文字出力または音声出力するコミュニケーション支援装置に適している。
第1の実施の形態にかかるコミュニケーション支援装置の構成を示すブロック図である。 対訳データ記憶部のデータ構造の一例を示す説明図である。 候補データ記憶部のデータ構造の一例を示す説明図である。 先行認識結果記憶部のデータ構造の一例を示す説明図である。 第1の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。 第1の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。 コミュニケーション支援処理において処理されるデータの一例を示す説明図である。 表示画面の一例を示す説明図である。 第2の実施の形態にかかるコミュニケーション支援装置の構成を示すブロック図である。 候補データ記憶部のデータ構造の一例を示す説明図である。 木構造で表現された構文解析結果の一例を示す説明図である。 第2の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。 第2の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。 第3の実施の形態にかかるコミュニケーション支援装置の構成を示すブロック図である。 候補データ記憶部のデータ構造の一例を示す説明図である。 第3の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。 第3の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。 第4の実施の形態にかかるコミュニケーション支援装置の構成を示すブロック図である。 翻訳方向データ記憶部のデータ構造の一例を示す説明図である。 第4の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。 第4の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。 第5の実施の形態にかかるコミュニケーション支援装置の構成を示すブロック図である。 発声様式データ記憶部のデータ構造の一例を示す説明図である。 第5の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。 第5の実施の形態におけるコミュニケーション支援処理の全体の流れを示すフローチャートである。
符号の説明
100 コミュニケーション支援装置
101 音声認識部
102 連続入力判定部
103 言語変換部
104 出力制御部
110 候補データ記憶部
111 先行認識結果記憶部
112 対訳データ記憶部
800、810、820、830 表示画面
801、811、821、831 入力文
802、812、822、832 出力文
900 コミュニケーション支援装置
903 言語変換部
904 出力制御部
905 原言語解析部
910 候補データ記憶部
1300 コミュニケーション支援装置
1303 言語変換部
1304 出力制御部
1310 候補データ記憶部
1600 コミュニケーション支援装置
1603 言語変換部
1604 出力制御部
1610 翻訳方向データ記憶部
1900 コミュニケーション支援装置
1903 言語変換部
1904 出力制御部
1906 音声合成部
1910 発声様式データ記憶部

Claims (16)

  1. 複数の言語間の翻訳を行うことによりコミュニケーションを支援するコミュニケーション支援装置において、
    翻訳の元となる原言語による音声を認識して認識の結果である原言語文を出力する音声認識手段と、
    前記音声認識手段が連続して認識した複数の音声の間の類似性に基づいて、類似する音声が連続して入力されたか否かを判定する連続入力判定手段と、
    前記音声認識手段が出力した前記原言語文を翻訳し、翻訳の対象言語で記述された対訳文に変換して出力する言語変換手段と、を備え、
    前記言語変換手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して出力した前記対訳文と異なる前記対訳文を、後に認識した音声に対応する原言語文に対して出力することを特徴とするコミュニケーション支援装置。
  2. 原言語による文と、該原言語による文と同じ意味内容を表す対象言語による文である少なくとも1つの対訳候補文とを対応付けて記憶する対訳データ記憶手段をさらに備え、
    前記言語変換手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、前記音声認識手段が出力した前記原言語文を検索キーとして前記対訳データ記憶手段から少なくとも1つの前記対訳候補文を検索し、検索した前記対訳候補文から、先に認識した音声に対応する原言語文に対して選択した前記対訳候補文と異なる前記対訳候補文を、後に認識した音声に対応する原言語文に対して選択して前記対訳文として出力することを特徴とする請求項1に記載のコミュニケーション支援装置。
  3. 前記音声認識手段が出力した前記原言語文の意味内容を解析する際に少なくとも1つの解析結果候補を出力する原言語解析手段をさらに備え、
    前記言語変換手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して選択した前記解析結果候補と異なる前記解析結果候補を、後に認識した音声に対応する原言語文に対して選択し、選択した前記解析結果候補に基づいて前記原言語文を翻訳して前記対訳文を出力することを特徴とする請求項1に記載のコミュニケーション支援装置。
  4. 前記原言語解析手段は、前記音声認識手段が出力した前記原言語文を形態素解析して少なくとも1つの形態素解析結果候補を前記解析結果候補として出力し、
    前記言語変換手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して選択した前記形態素解析結果候補と異なる前記形態素解析結果候補を、後に認識した音声に対応する原言語文に対して選択し、選択した前記形態素解析結果候補に基づいて前記原言語文を翻訳して前記対訳文を出力することを特徴とする請求項3に記載のコミュニケーション支援装置。
  5. 前記原言語解析手段は、前記音声認識手段が出力した前記原言語文を構文解析して少なくとも1つの構文解析結果候補を前記解析結果候補として出力し、
    前記言語変換手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して選択した前記構文解析結果候補と異なる前記構文解析結果候補を、後に認識した音声に対応する原言語文に対して選択し、選択した前記構文解析結果候補に基づいて前記原言語文を翻訳して前記対訳文を出力することを特徴とする請求項3に記載のコミュニケーション支援装置。
  6. 前記原言語解析手段は、前記音声認識手段が出力した前記原言語文を係り受け解析して少なくとも1つの係り受け解析結果候補を前記解析結果候補として出力し、
    前記言語変換手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して選択した前記係り受け解析結果候補と異なる前記係り受け解析結果候補を、後に認識した音声に対応する原言語文に対して選択し、選択した前記係り受け解析結果候補に基づいて前記原言語文を翻訳して前記対訳文を出力することを特徴とする請求項3に記載のコミュニケーション支援装置。
  7. 前記原言語解析手段は、前記音声認識手段が出力した前記原言語文を照応解析して少なくとも1つの照応解析結果候補を前記解析結果候補として出力し、
    前記言語変換手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して選択した前記照応解析結果候補と異なる前記照応解析結果候補を、後に認識した音声に対応する原言語文に対して選択し、選択した前記照応解析結果候補に基づいて前記原言語文を翻訳して前記対訳文を出力することを特徴とする請求項3に記載のコミュニケーション支援装置。
  8. 前記原言語解析手段は、前記音声認識手段が出力した前記原言語文の省略補完関係を解析して少なくとも1つの省略補完関係解析結果候補を前記解析結果候補として出力し、
    前記言語変換手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して選択した前記省略補完関係解析結果候補と異なる前記省略補完関係解析結果候補を、後に認識した音声に対応する原言語文に対して選択し、選択した前記省略補完関係解析結果候補に基づいて前記原言語文を翻訳して前記対訳文を出力することを特徴とする請求項3に記載のコミュニケーション支援装置。
  9. 前記原言語解析手段は、前記音声認識手段が出力した前記原言語文の発話意図を解析して少なくとも1つの発話意図解析結果候補を前記解析結果候補として出力し、
    前記言語変換手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して選択した前記発話意図解析結果候補と異なる前記発話意図解析結果候補を、後に認識した音声に対応する原言語文に対して選択し、選択した前記発話意図解析結果候補に基づいて前記原言語文を翻訳して前記対訳文を出力することを特徴とする請求項3に記載のコミュニケーション支援装置。
  10. 前記音声認識手段が出力した前記原言語文の意味内容を解析し解析結果を出力する原言語解析手段をさらに備え、
    前記言語変換手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、前記原言語解析手段が出力した前記解析結果に基づき前記原言語文と同じ意味内容を表す対象言語による文である少なくとも1つの訳語候補を出力し、出力した前記訳語候補から、先に認識した音声に対応する原言語文に対して選択した前記訳語候補と異なる前記訳語候補を、後に認識した音声に対応する原言語文に対して選択し、選択した前記訳語候補に基づいて前記対訳文を生成して出力することを特徴とする請求項1に記載のコミュニケーション支援装置。
  11. 前記言語変換手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して選択した翻訳の元となる原言語と翻訳の対象言語との組み合わせを表す翻訳方向と異なる前記翻訳方向を、後に認識した音声に対応する原言語文に対して選択し、選択した前記翻訳方向に基づいて前記音声認識手段が出力した前記原言語文を翻訳して前記対訳文を出力することを特徴とする請求項1に記載のコミュニケーション支援装置。
  12. 複数の言語間の翻訳を行うことによりコミュニケーションを支援するコミュニケーション支援装置において、
    翻訳の元となる原言語による音声を認識して認識の結果である原言語文を出力する音声認識手段と、
    前記音声認識手段が連続して認識した複数の音声の間の類似性に基づいて、類似する音声が連続して入力されたか否かを判定する連続入力判定手段と、
    前記音声認識手段が出力した前記原言語文を翻訳し、翻訳の対象言語で記述された対訳文に変換して出力する言語変換手段と、
    前記言語変換手段が出力した前記対訳文を対象言語による音声に合成し、合成した音声を複数の発声様式から選択した1の発声様式によって出力する音声合成手段と、を備え、
    前記音声合成手段は、前記連続入力判定手段が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して選択した前記発声様式と異なる前記発声様式を、後に認識した音声に対応する原言語文に対して選択することを特徴とするコミュニケーション支援装置。
  13. 複数の言語間の翻訳を行うことによりコミュニケーションを支援するコミュニケーション支援方法において、
    翻訳の元となる原言語による音声を認識して認識の結果である原言語文を出力する音声認識ステップと、
    前記音声認識ステップが連続して認識した複数の音声の間の類似性に基づいて、類似する音声が連続して入力されたか否かを判定する連続入力判定ステップと、
    前記音声認識ステップが出力した前記原言語文を翻訳し、翻訳の対象言語で記述された対訳文に変換して出力する言語変換ステップと、を備え、
    前記言語変換ステップは、前記連続入力判定ステップが類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して出力した前記対訳文と異なる前記対訳文を、後に認識した音声に対応する原言語文に対して出力することを特徴とするコミュニケーション支援方法。
  14. 複数の言語間の翻訳を行うことによりコミュニケーションを支援するコミュニケーション支援方法において、
    翻訳の元となる原言語による音声を認識して認識の結果である原言語文を出力する音声認識ステップと、
    前記音声認識ステップが連続して認識した複数の音声の間の類似性に基づいて、類似する音声が連続して入力されたか否かを判定する連続入力判定ステップと、
    前記音声認識ステップが出力した前記原言語文を翻訳し、翻訳の対象言語で記述された対訳文に変換して出力する言語変換ステップと、
    前記言語変換ステップが出力した前記対訳文を対象言語による音声に合成し、合成した音声を複数の発声様式から選択した1の発声様式によって出力する音声合成ステップと、を備え、
    前記音声合成ステップは、前記連続入力判定ステップが類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して選択した前記発声様式と異なる前記発声様式を、後に認識した音声に対応する原言語文に対して選択することを特徴とするコミュニケーション支援方法。
  15. 複数の言語間の翻訳を行うことによりコミュニケーションを支援するコミュニケーション支援装置におけるコミュニケーション支援プログラムにおいて、
    翻訳の元となる原言語による音声を認識して認識の結果である原言語文を出力する音声認識手順と、
    前記音声認識手順が連続して認識した複数の音声の間の類似性に基づいて、類似する音声が連続して入力されたか否かを判定する連続入力判定手順と、
    前記音声認識手順が出力した前記原言語文を翻訳し、翻訳の対象言語で記述された対訳文に変換して出力する言語変換手順と、をコンピュータに実行させ、
    前記言語変換手順は、前記連続入力判定手順が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して出力した前記対訳文と異なる前記対訳文を、後に認識した音声に対応する原言語文に対して出力することを特徴とするコミュニケーション支援プログラム。
  16. 複数の言語間の翻訳を行うことによりコミュニケーションを支援するコミュニケーション支援装置におけるコミュニケーション支援プログラムにおいて、
    翻訳の元となる原言語による音声を認識して認識の結果である原言語文を出力する音声認識手順と、
    前記音声認識手順が連続して認識した複数の音声の間の類似性に基づいて、類似する音声が連続して入力されたか否かを判定する連続入力判定手順と、
    前記音声認識手順が出力した前記原言語文を翻訳し、翻訳の対象言語で記述された対訳文に変換して出力する言語変換手順と、
    前記言語変換手順が出力した前記対訳文を対象言語による音声に合成し、合成した音声を複数の発声様式から選択した1の発声様式によって出力する音声合成手順と、をコンピュータに実行させ、
    前記音声合成手順は、前記連続入力判定手順が類似する音声が連続して入力されたと判定した場合に、先に認識した音声に対応する原言語文に対して選択した前記発声様式と異なる前記発声様式を、後に認識した音声に対応する原言語文に対して選択することを特徴とするコミュニケーション支援プログラム。
JP2005152989A 2005-05-25 2005-05-25 コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム Expired - Fee Related JP4439431B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005152989A JP4439431B2 (ja) 2005-05-25 2005-05-25 コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
US11/368,406 US7873508B2 (en) 2005-05-25 2006-03-07 Apparatus, method, and computer program product for supporting communication through translation between languages
CNA2006100845357A CN1869976A (zh) 2005-05-25 2006-05-25 通过执行不同语言之间的翻译来支持交流的装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005152989A JP4439431B2 (ja) 2005-05-25 2005-05-25 コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム

Publications (2)

Publication Number Publication Date
JP2006330298A true JP2006330298A (ja) 2006-12-07
JP4439431B2 JP4439431B2 (ja) 2010-03-24

Family

ID=37443642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005152989A Expired - Fee Related JP4439431B2 (ja) 2005-05-25 2005-05-25 コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム

Country Status (3)

Country Link
US (1) US7873508B2 (ja)
JP (1) JP4439431B2 (ja)
CN (1) CN1869976A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010186339A (ja) * 2009-02-12 2010-08-26 Toshiba Corp 通訳装置、方法、及びプログラム
JP2010538374A (ja) * 2007-08-31 2010-12-09 マイクロソフト コーポレーション 曖昧感応自然言語処理システムにおける同一指示解決
US8712758B2 (en) 2007-08-31 2014-04-29 Microsoft Corporation Coreference resolution in an ambiguity-sensitive natural language processing system
US9484034B2 (en) 2014-02-13 2016-11-01 Kabushiki Kaisha Toshiba Voice conversation support apparatus, voice conversation support method, and computer readable medium

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4393494B2 (ja) 2006-09-22 2010-01-06 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
JP4481972B2 (ja) * 2006-09-28 2010-06-16 株式会社東芝 音声翻訳装置、音声翻訳方法及び音声翻訳プログラム
JP4791984B2 (ja) * 2007-02-27 2011-10-12 株式会社東芝 入力された音声を処理する装置、方法およびプログラム
US8799307B2 (en) * 2007-05-16 2014-08-05 Google Inc. Cross-language information retrieval
US20100324884A1 (en) * 2007-06-26 2010-12-23 Jeffrey Therese M Enhanced telecommunication system
FR2923928B1 (fr) * 2007-11-19 2009-12-04 Bonneton William Systeme d'interpretation simultanee automatique.
US8219407B1 (en) 2007-12-27 2012-07-10 Great Northern Research, LLC Method for processing the output of a speech recognizer
JP2010176543A (ja) * 2009-01-30 2010-08-12 Toshiba Corp 翻訳装置、方法、及びプログラム
US8577910B1 (en) 2009-05-15 2013-11-05 Google Inc. Selecting relevant languages for query translation
US8572109B1 (en) 2009-05-15 2013-10-29 Google Inc. Query translation quality confidence
US8577909B1 (en) 2009-05-15 2013-11-05 Google Inc. Query translation using bilingual search refinements
US8538957B1 (en) * 2009-06-03 2013-09-17 Google Inc. Validating translations using visual similarity between visual media search results
US8875019B2 (en) 2010-03-16 2014-10-28 International Business Machines Corporation Virtual cultural attache
US8775156B2 (en) * 2010-08-05 2014-07-08 Google Inc. Translating languages in response to device motion
US9063931B2 (en) * 2011-02-16 2015-06-23 Ming-Yuan Wu Multiple language translation system
KR101870729B1 (ko) * 2011-09-01 2018-07-20 삼성전자주식회사 휴대용 단말기의 번역 트리구조를 이용한 번역장치 및 방법
US8914277B1 (en) * 2011-09-20 2014-12-16 Nuance Communications, Inc. Speech and language translation of an utterance
JP2013206253A (ja) * 2012-03-29 2013-10-07 Toshiba Corp 機械翻訳装置、方法、およびプログラム
KR101864361B1 (ko) * 2014-04-08 2018-06-04 네이버 주식회사 다양한 의미 범주에 기반한 번역 결과 제공 방법 및 시스템
US10191899B2 (en) * 2016-06-06 2019-01-29 Comigo Ltd. System and method for understanding text using a translation of the text
US10489516B2 (en) * 2016-07-13 2019-11-26 Fujitsu Social Science Laboratory Limited Speech recognition and translation terminal, method and non-transitory computer readable medium
CN109710952B (zh) * 2018-12-27 2023-06-16 北京百度网讯科技有限公司 基于人工智能的翻译历史检索方法、装置、设备和介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04319769A (ja) 1991-04-18 1992-11-10 Toshiba Corp 通訳システム
JP2775655B2 (ja) 1991-05-20 1998-07-16 株式会社シーエスケイ 省略語補完装置及び日本語解析システム
JPH07334506A (ja) 1994-06-14 1995-12-22 Nec Field Service Ltd 機械翻訳装置
US5774859A (en) * 1995-01-03 1998-06-30 Scientific-Atlanta, Inc. Information system having a speech interface
JP3363283B2 (ja) 1995-03-23 2003-01-08 株式会社日立製作所 入力装置、入力方法、情報処理システムおよび入力情報の管理方法
JPH10177577A (ja) 1996-12-17 1998-06-30 Toshiba Corp 言語変換システム及び言語変換方法
JP2001083990A (ja) 1999-09-09 2001-03-30 Toshiba Corp 音声認識装置および方法
JP3444486B2 (ja) 2000-01-26 2003-09-08 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声認識手段を使用する自動音声応答システムおよび方法
JP2002041844A (ja) 2000-07-26 2002-02-08 Takuo Tanaka 電話を用いた同時通訳システムおよびその仲介システムならびに同時通訳サービスの提供方法およびその仲介方法
JP4517260B2 (ja) 2000-09-11 2010-08-04 日本電気株式会社 自動通訳システム、自動通訳方法、および自動通訳用プログラムを記録した記憶媒体
JP2003099080A (ja) 2001-09-25 2003-04-04 Nissan Motor Co Ltd 音声読み上げ装置、音声読み上げシステム、及び音声読み上げ方法
JP4065936B2 (ja) 2001-10-09 2008-03-26 独立行政法人情報通信研究機構 機械学習法を用いた言語解析処理システムおよび機械学習法を用いた言語省略解析処理システム
US7386454B2 (en) * 2002-07-31 2008-06-10 International Business Machines Corporation Natural error handling in speech recognition
JP2004118720A (ja) 2002-09-27 2004-04-15 Toshiba Corp 翻訳装置、翻訳方法及び翻訳プログラム
JP2004206185A (ja) 2002-12-24 2004-07-22 Toshiba Corp 翻訳訳語決定システム、翻訳訳語決定サーバ、翻訳訳語決定方法およびプログラム
JP3920812B2 (ja) * 2003-05-27 2007-05-30 株式会社東芝 コミュニケーション支援装置、支援方法、及び支援プログラム
US7983896B2 (en) * 2004-03-05 2011-07-19 SDL Language Technology In-context exact (ICE) matching

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010538374A (ja) * 2007-08-31 2010-12-09 マイクロソフト コーポレーション 曖昧感応自然言語処理システムにおける同一指示解決
US8712758B2 (en) 2007-08-31 2014-04-29 Microsoft Corporation Coreference resolution in an ambiguity-sensitive natural language processing system
JP2010186339A (ja) * 2009-02-12 2010-08-26 Toshiba Corp 通訳装置、方法、及びプログラム
US9484034B2 (en) 2014-02-13 2016-11-01 Kabushiki Kaisha Toshiba Voice conversation support apparatus, voice conversation support method, and computer readable medium

Also Published As

Publication number Publication date
CN1869976A (zh) 2006-11-29
US7873508B2 (en) 2011-01-18
JP4439431B2 (ja) 2010-03-24
US20060271350A1 (en) 2006-11-30

Similar Documents

Publication Publication Date Title
JP4439431B2 (ja) コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
US6442524B1 (en) Analyzing inflectional morphology in a spoken language translation system
US6374224B1 (en) Method and apparatus for style control in natural language generation
US6266642B1 (en) Method and portable apparatus for performing spoken language translation
US6243669B1 (en) Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation
JP4064413B2 (ja) コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
US6223150B1 (en) Method and apparatus for parsing in a spoken language translation system
US6278968B1 (en) Method and apparatus for adaptive speech recognition hypothesis construction and selection in a spoken language translation system
US6282507B1 (en) Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection
US6356865B1 (en) Method and apparatus for performing spoken language translation
JP4050755B2 (ja) コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
US6952665B1 (en) Translating apparatus and method, and recording medium used therewith
WO2016067418A1 (ja) 対話制御装置および対話制御方法
JP2001100781A (ja) 音声処理装置および音声処理方法、並びに記録媒体
WO1999063456A1 (fr) Dispositif de preparation de regles de conversion du langage, dispositif de conversion du langage et support d'enregistrement de programme
JP2008243080A (ja) 音声を翻訳する装置、方法およびプログラム
JP4811557B2 (ja) 音声再生装置及び発話支援装置
Zong et al. Toward practical spoken language translation
JP2000305930A (ja) 言語変換規則作成装置、言語変換装置及びプログラム記録媒体
JP2003162524A (ja) 言語処理装置
JP2001117922A (ja) 翻訳装置および翻訳方法、並びに記録媒体
Polyákova et al. Introducing nativization to spanish TTS systems
JP2001117583A (ja) 音声認識装置および音声認識方法、並びに記録媒体
JP2001100788A (ja) 音声処理装置および音声処理方法、並びに記録媒体
Roland et al. Incorporating Acoustic and Textual Information for Language Modeling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100105

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4439431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140115

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees