JP2013206253A - 機械翻訳装置、方法、およびプログラム - Google Patents

機械翻訳装置、方法、およびプログラム Download PDF

Info

Publication number
JP2013206253A
JP2013206253A JP2012075966A JP2012075966A JP2013206253A JP 2013206253 A JP2013206253 A JP 2013206253A JP 2012075966 A JP2012075966 A JP 2012075966A JP 2012075966 A JP2012075966 A JP 2012075966A JP 2013206253 A JP2013206253 A JP 2013206253A
Authority
JP
Japan
Prior art keywords
character string
target language
language character
translation
phrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012075966A
Other languages
English (en)
Inventor
Satoshi Kamaya
聡史 釜谷
Akiko Sakamoto
明子 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012075966A priority Critical patent/JP2013206253A/ja
Priority to US13/727,144 priority patent/US9170994B2/en
Priority to CN2013100084394A priority patent/CN103365837A/zh
Publication of JP2013206253A publication Critical patent/JP2013206253A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/51Translation evaluation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

【課題】誤解される可能性を低減した同時通訳を実現する。
【解決手段】本実施形態に係る機械翻訳装置は、取得部、解析部、翻訳部、検出部および語句付加部を含む。取得部は、第1言語による発話を音声認識し、認識結果文字列を得る。解析部は、認識結果文字列を翻訳処理を行なう単位で分割し、原語文字列を得る。翻訳部は、原語文字列を、第1言語とは異なる言語である第2言語の目的言語文字列に翻訳する。検出部は、目的言語文字列のうちの第1目的言語文字列と、第1目的言語文字列よりも発話に関して過去に翻訳された結果である第2目的言語文字列との関係に基づいて、第1目的言語文字列に対応する発話の内容に即した解釈に曖昧性が存在するかどうかを検出する。語句付加部は、曖昧性が存在すると検出された場合、第1目的言語文字列と第2目的言語文字列との間の係り受け関係を一意に解釈させるための語句を示す付加語句を第1目的言語文字列に付加する。
【選択図】図1

Description

本発明の実施形態は、第1言語を第2言語に翻訳する機械翻訳装置、方法、およびプログラムに関する。
第1言語で記述された原言語の文字列の入力を受け付け、原言語の文字列を所望の第2言語に変換する機械翻訳機器がある。さらに、近年の音声言語処理技術の進展により、第1言語での発話に準じて、漸進的に第2言語に翻訳する同時通訳機器がある。
特許第3059398号公報
しかし、従来手法では、文単位で独立した翻訳結果や、真に意図する訳と誤訳との差分が生じないような翻訳結果において、それらがユーザに提示された際に発生する解釈の曖昧性を解消することができない。
本開示は、上述の課題を解決するためになされたものであり、誤解される可能性を低減した同時通訳を実現することができる機械翻訳装置、方法、およびプログラムを提供することを目的とする。
本実施形態に係る機械翻訳装置は、取得部、解析部、翻訳部、検出部および語句付加部を含む。取得部は、第1言語による発話を順次受け取り音声認識して、音声認識結果の文字列を示す認識結果文字列を得る。解析部は、前記認識結果文字列を翻訳処理を行なう単位で分割し、翻訳前の前記第1言語の文字列を示す複数の原言語文字列を得る。翻訳部は、前記複数の原言語文字列を、前記第1言語とは異なる言語である第2言語の文字列を示す目的言語文字列に翻訳する。検出部は、前記目的言語文字列のうちの第1目的言語文字列と、該第1目的言語文字列よりも前記発話に関して過去に翻訳された結果である1以上の第2目的言語文字列との関係に基づいて、該第1目的言語文字列に対応する前記発話の内容に即した解釈に曖昧性が存在するかどうかを検出する。語句付加部は、前記曖昧性が存在すると検出された場合、前記第1目的言語文字列と前記第2目的言語文字列との間の係り受け関係を一意に解釈させるための語句を示す付加語句を前記第1目的言語文字列に付加する。
本実施形態に係る機械翻訳装置を示すブロック図。 解析部における分割パターンの一例を示す図。 解析部における分割パターンの別例を示す図。 語句生成部における語句生成規則の一例を示す図。 語句生成部における語句生成規則の別例を示す図。 機械翻訳装置の動作を示すフローチャート。 本実施形態に係る機械翻訳装置を用いた英語文から日本語文への機械翻訳処理の具体例を示す図。 本実施形態に係る機械翻訳装置を用いた日本語文から英語文への機械翻訳処理の具体例を示す図。
以下、図面を参照しながら本実施形態に係る機械翻訳装置、方法、およびプログラムについて詳細に説明する。なお、以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。本実施形態では、英語と日本語との間の翻訳を例に説明するが、翻訳処理の対象となる言語は、これらの2言語に限られることなく、あらゆる言語を対象とすることができる。
本実施形態に係る機械翻訳装置について図1を参照して説明する。
本実施形態に係る機械翻訳装置100は、音声取得部101、解析部102、翻訳部103、曖昧性検出部104、語句生成部105、語句付加部106および出力部107を含む。
音声取得部101は、ユーザが第1言語により発話した音声を取得する。音声取得部101は、取得した音声に対して音声認識処理を施し、音声認識結果のテキストである認識結果文字列を得る。音声取得部101における音声の取得は、ユーザからの音声入力が継続する間、音声認識処理における処理単位ごとに順次音声認識が行われ、認識結果文字列が得られるたびに後段に渡される。以下では、音声認識の処理単位として、単語ごとに処理する場合を想定しているが、文ごと、句ごとに後段に渡すようにしてもよい。
解析部102は、音声取得部101から認識結果文字列を受け取り、認識結果文字列を連結して翻訳に適した翻訳処理を行なう単位で分割し、原言語文字列を生成する。原言語文字列は、翻訳前の第1言語の文字列を示す。解析部102の詳細については、図2および図3を参照して後述する。
翻訳部103は、解析部102から原言語文字列を受け取り、目的言語文字列に翻訳する。目的言語文字列は、第1言語と異なる言語である第2言語による文字列である。例えば、日本語による文を英語による文に変換する場合は、原言語認識文が日本語文であり、目的言語文字列が英語文である。
曖昧性検出部104は、解析部102から原言語文字列を、翻訳部103から原言語文字列に対応する目的言語文字列をそれぞれ受け取る。曖昧性検出部104は、一連のユーザの発話に対して過去に生成された目的言語文字列に基づいて原言語文字列を解析し、第2言語の目的言語文字列の発話の内容に即した解釈に曖昧性が存在するかどうかを検出する。
本実施形態における曖昧性の検出には、係り受け(修飾および被修飾)の関係を用い、目的言語文字列が複数の係り受け関係を有するかどうかを検出する。なお、本実施形態では、曖昧性検出部104が翻訳部103から受け取った目的言語文字列を格納することを想定するが、格納部(図示せず)を用意し、格納部に目的言語文字列を格納してもよい。この場合、曖昧性検出部104が解析処理を行なう場合は、格納部から過去に出力された目的言語文字列を抽出すればよい。
語句生成部105は、曖昧性検出部104から目的言語文字列に関する曖昧性の検出結果を受け取り、曖昧性の種類に応じて付加語句を生成する。付加語句は、発話の内容に即して、目的言語文字列間の係り受けを一意に解釈させるための語句を示す。語句生成部105の詳細については、図4および図5を参照して後述する。
語句付加部106は、曖昧性検出部104から目的言語文字列を、語句生成部105から付加語句をそれぞれ受け取り、目的言語文字列に対して付加語句を付加する。
出力部107は、曖昧性検出部104から目的言語文字列を受け取り、曖昧性検出部104で曖昧性が検出された場合は、語句付加部106から付加語句が付加された目的言語文字列を受け取り、外部に出力する。
次に、解析部102において分割位置を規定する分割パターンの一例について図2および図3を参照して説明する。
図2は英語用の分割パターンのテーブルを示し、図3は日本語用の分割パターンのテーブルを示す。
機械翻訳において同時通訳を実現するためには、ユーザの発話から翻訳結果の出力までの時間をできるだけ短縮する必要がある。よりユーザの発話に対して追随性を高めるには、入力された音声を順次処理し、できるだけ短い単位で訳出していくことが必要である。一方、追随性を高めることに重点を置き、あまりに短い単位で訳出すると、翻訳結果の了解性が低下する。例えば、単語ごとに訳出する逐語訳は、きわめて追随性が高いと言える。しかし、日本語から英語への翻訳のように、語順が大きく変化する言語間の翻訳においては、元の文意を欠落させずに翻訳することは困難である。
そこで本実施形態では、文を分割する分割位置を決定する手法として、規則ベースのパターンマッチング手法を用いる。
図2および図3に示すような分割パターンに一致した文字列は、分割パターンにおける斜線の位置で分割される。例えば、英語文の場合、図2に示す「/(接続詞)/」の分割パターンは、接続詞の前後で文が節単位で分割されることを示す。具体的には、「It is going to rain, but we continue to work.」という文であれば、「but」が接続詞に該当するため、「It is going to rain」「but」「we continue to work」という3つの文に分割される。
同様に、日本語文の場合、図3に示す「(接続助詞)/」の分割パターンは、接続助詞の後で文が分割される。具体的には「今日は晴れているので、散歩に出かける。」という文であれば、「ので」が接続助詞に該当するため、「今日は晴れているので」「散歩に出かける」という2つの文に分割される。
すなわち、解析部102は、音声取得部101から認識結果文字列を受け取るごとに、認識結果文字列について上述のパターンマッチングを行なう。いずれかの分割パターンに一致する場合、解析部102は、認識結果文字列を分割パターンに従って斜線位置で分割し、分割した文を原言語文字列として得る。
なお、文を分割する分割位置を決定する手法として、構文解析手法を用いて、一定の構文構造が蓄積されるごとに訳出してもよい。例えば、文脈自由文法を用いたチャートパーサにおいて、予め決めた文法カテゴリ(終端記号、非終端記号)が現れた場合に、支配下にある文法構造に対応する文字列を分割の単位として切り出す方法を採用してもよい。
また、統計的な手法により、訳出開始位置を検出してもよい。例えば、予め訳出開始位置を付与したコーパスを用意し、機械学習手法によって訳出開始位置の出現をモデル化する。このモデルにより、認識結果文字列における訳出開始位置を予測させ、同位置で分割された認識結果文字列を原言語文字列として得ればよい。
次に、語句生成部105で用いる語句生成規則の一例を図4および図5を参照して説明する。
図4は目的言語文字列が日本語文の場合の語句生成規則のテーブルを示し、図5は目的言語文字列が英語文である場合を語句生成規則のテーブルを示す。なお、本実施形態では、言語ごとに語句生成規則を分けているが、複数の言語で共通して用いることができるような規則体系にまとめてもよい。
語句生成規則は、新たに出力される目的言語文字列とそれ以前に出力された先行文脈における目的言語文字列との系列の間で発生する、係り受け関係の曖昧性の条件401、および生成語句402が互いに対応づけられる。
条件401は、係り受け関係に関する曖昧性の方向と曖昧性の種類とを示す。係り受け関係の曖昧性の方向は、「R」と「L」とで表され、「R」は、「新たに出力される目的言語文字列がそれ以前に出力された先行文脈における目的言語文字列から誤って係られる」ことを示す。「L」は、「新たに出力される目的言語文字列が、それ以前に出力された先行文脈における目的言語文字列に誤って係る」ことを示す。
係り受け関係の曖昧性の種類は、例えば、場所や時間、目的語、従属節における理由を示す句といった、語句の意味属性を示す。図4の例では、係り受け関係の曖昧性の方向と、係り受け関係の曖昧性の種類とは、カンマで区別される。
生成語句402は、付加語句自体、またはどのように付加語句を生成するかを示す付加語句の生成手法を示す。例えば、直接文字列を生成する場合は、条件401「L,場所」と生成語句402「ですが」とが対応づけられる。
また、図4に示すように、生成語句402「ですが」「ね」など固定の語句ではなく、文脈に応じた句に基づいて付加語句を生成してもよい。
具体的には、例えば、認識結果文字列として英語文「Because the train is delayed due to the strong wind, we do not refund.」が生成され、この目的言語文字列として日本語文「電車が遅れたので」「強風のため」と漸進的に訳出され、続けて「返金できません」と訳出される場合を想定する。
この場合、既に訳出された「強風のため」という目的言語文字列の係り先候補としては、認識結果文字列における「電車が遅れたので」という文のみである。しかし、目的言語文字列において漸進的に訳出される場合は、「(強風のため)電車が遅れたので」という解釈と「(強風のため)返金できません」という解釈との両方の解釈がありえる。すなわち、複数の係り受け関係を有することになる。
図4に示す語句生成規則を参照すると、「強風のため」という節が、条件401「R,従属節_理由」に該当する。つまり、新たに出力される目的言語文字列「返金できません」が「従属節_理由」という関係を有して、それ以前に出力された先行文脈における目的言語文字列「強風のため」から誤って係られる。そこで、生成語句402の“先行文脈の真の係り先の句”を抽出する。ここでは、目的言語文字列「強風のため」の真の係り先の語句「遅れたので」が付加語句として生成される。
図5に示す語句生成規則についても同様に、新たに出力される目的言語文字列とそれ以前に出力された先行文脈における目的言語文字列との系列の間で発生する係り受け関係の曖昧性の条件501と、生成される付加語句を示す生成語句502とが互いに対応づけられる。具体的には、例えば、条件501「R,place_to」と生成語句502「as for」とが対応づけられる。
次に、本実施形態に係る機械翻訳装置100の動作について図6のフローチャートを参照して説明する。
ステップS601では、音声取得部101が、音声を取得し、音声に対して音声認識処理を行うことにより認識結果文字列を得る。音声取得部101における音声認識処理は、例えば以下の順序で行えばよい。はじめに、入力された音声信号を一定の時間間隔で区切る。得られた一定間隔の音声信号をフーリエ変換およびコサイン変換することにより、ケプストラム係数からなる特徴ベクトルを生成する。予め構築した音声パターンに基づき、DPマッチング(Dynamic Programming Matching)、セグメンテーションと音素ラベリングとに基づく方法、HMM(Hidden Markov Model)による方法、ニューラルネットワークのいずれかを用いて、取り出した特徴ベクトルの系列尤度を最大にするモデルに対応するカテゴリを音声認識結果とすればよい。
なお、言語資源またはコーパスなどを用いて、語の連続の生起しやすさを学習して構築する言語モデルによって、音声認識精度を高める手法を適用してもよい。
ステップS602では、解析部102が、図2および図3で上述したような手法を用いて、認識結果文字列を機械翻訳処理を行なう単位で分割し、原言語文字列S(iは自然数であり、機械翻訳処理を行なう時系列順を示す)を得る。
ステップS603では、翻訳部103が、原言語文字列Sを目的言語文字列Tに翻訳する。翻訳部103における翻訳処理は、トランスファ方式、用例ベース方式、統計ベース方式、中間言語方式などに代表さえる一般的な機械翻訳手法を用いればよいため、ここでの説明は省略する。
ステップS604では、曖昧性検出部104が、過去にステップS601からステップS603で翻訳された結果である目的言語文字列T1、2、・・・i−1に基づいて、現時点iで機械翻訳処理すべき目的言語文字列Tを解析する。本実施形態では、アーリー法、チャート法、一般化LR法による構文解析、Maximum Spanning Treeを用いた係り受け解析など、一般的な手法を用いればよいためここでの説明を省略する。
ステップS605では、曖昧性検出部104が、現時点iで機械翻訳処理すべき目的言語文字列Tの解釈に曖昧性が存在するかどうかを検出する。目的言語文字列Tの解釈に曖昧性が存在する場合は、ステップS607に進み、目的言語文字列Tの解釈に曖昧性が存在しない場合は、ステップS606へ進む。
ステップS606では、出力部107が、目的言語文字列を出力する。本実施形態では、目的言語文字列を音声合成し、目的言語文字列を音としてユーザに出力する。音声合成処理は、例えば、音声素片編集音声合成、フォルマント音声合成、音声コーパスベースの音声合成、テキストトゥスピーチといった一般的に利用される手法を用いればよい。また、目的言語文字列を音として出力することに限定されず、目的言語文字列のテキストを画面表示するディスプレイなど表示装置によるテキスト出力や、プリンタなどの印刷といった種々の出力手段、表示手段を合わせて利用してもよい。
ステップS607では、語句生成部105が、上述の図4および図5の規則に従い、解釈の曖昧性の種類に応じて付加語句を生成する。
ステップS608では、語句付加部106が、目的言語文字列Tiに付加語句を付加し、出力部107が、付加語句が付加された目的言語文字列を出力する。なお、語句付加部106は、上述のような語句生成部105が生成した付加語句ではなく、解釈の曖昧性の種類によらず、同一の語句を付加してもよい。例えば、間投詞やフィラーを付加してもよい。
ステップS609では、iが1つインクリメントされ、ステップS601に戻り同様の処理を繰り返す。以上で機械翻訳装置100の動作を終了する。
次に、本実施形態に係る機械翻訳装置100の機械翻訳処理の具体例について図7を参照して説明する。
図7は、英語による発話が音声取得部101により取得されて認識結果文字列が得られ、解析部102により、下線が引かれる単位で区切られた原言語文字列が得られる場合を想定する。すなわち、原言語文字列として“Last Friday”、“from John I heard”、“you finished a market research survey”が順に得られる。
始めに、解析部102が“Last Friday”を得、これを翻訳部103で翻訳し目的言語文字列T1「先週の金曜日」を得る。このとき、先行して訳出された目的言語文字列はないため、目的言語文字列において曖昧性は発生しない。
次に、解析部102が“from John I heard”を得て、これを翻訳部103で翻訳し、目的言語文字列T2として「ジョンから聞きました」を得る。
同様に、“you finished a market research survey”に対して目的言語文字列T3「市場調査を終えたことを」が得られ、“I will attend a meeting”に対して目的言語文字列T4「会議に参加するのです」が得られ、“tomorrow”に対して目的言語文字列T5「明日」が得られる。これらの処理は前述と同様であるので省略する。
次に、“Could you provide the report to me”に対して目的言語文字列T6「レポートをもらえますか」が得られる。
ここで、過去に訳出された目的言語文字列T1,・・・,T5と、現在の目的言語文字列T6とを曖昧性検出部104で解析した結果、T5「明日」がT6「レポートにもらえますか」に係る可能性があることを検出したと仮定する。つまり、日本語文の目的言語文字列においては「明日レポートをもらえますか」という解釈となるが、実際の英語文における認識結果文字列を参照すると、「明日会議に参加する」という解釈の方が正しい。
すなわち、曖昧性検出部104は、新たに出力される目的言語文字列が、それ以前に出力された先行文脈における目的言語文字列から誤って係られると判定する。また、目的言語文字列T5は「明日」であり、時制を示すので係り受け関係は「時間」と判定される。よって、曖昧性検出部104は、目的言語文字列T6を解析したときに、日本語での解釈に曖昧性が存在することを検出する。
語句生成部105は、図4に示す語句生成規則に基づいて、この解釈の曖昧性に対応する条件における付加語句「先行文脈の真の係り先の句」を選択する。つまり、目的言語文字列T5の正しい係り先である、目的言語文字列T4の句から「参加するのです」を選択する。語句生成部105は、選択された句に基づいて「参加します」を付加語句701として生成する。
語句付加部106は、付加語句701を目的言語文字列T5に付加して「参加します。レポートをもらえますか」を生成する。これにより、原言語に基づく解釈ではありえない「明日レポートもらえますか」という解釈がされる可能性が低くなる。
最終的には、出力部107における目的言語文字列の出力は、漸進的に、「先週の金曜日」「ジョンから聞きました」「市場調査を終えたことを」「会議に参加するのです」「明日」「参加します。レポートをもらえますか」となる。よって、原言語文字列の内容である「明日参加する」いうことが明確となり、英語文における意図を、翻訳された日本語文においても意図通りに解釈することができる。よって、解釈に曖昧性を生じさせない翻訳文を提示することができる。
次に、図7とは翻訳方向が反対、すなわち認識結果文字列として日本語文を得て、目的言語文字列として英語文を出力する場合について図8を参照して説明する。
図7の場合と同様に、解析部102が、「東京駅で」、「まず」、「山手線に乗ります」の順に原言語文字列を得る。
翻訳部103において、「東京駅で」に対して目的言語文字列T1“At Tokyo station”、「まず」に対して目的言語文字列T2“first”、「山手線に乗ります」に対して目的言語文字列T3“you take a Yamanote-line train”がそれぞれ得られる。
続いて、「浅草までは」に対して目的言語文字列T4“to Asakusa”を得たとする。ここで、過去に訳出された目的言語文字列T1,・・・,T3と目的言語文字列T4とを曖昧性検出部104で解析した結果、目的言語文字列T4“to Asakusa”が目的言語文字列T3“you take a Yamanote-line train”の“train”に係りうることを検出する。これは、“train to Asakusa”となり「浅草行きの電車」という解釈となりえる。しかし、実際の日本語文を参照すると、原言語文字列「浅草まで」は「上野駅で乗り換えて向かいます」に係るべきであり、「浅草行きの電車」という解釈は誤りである。すなわち、目的言語文字列T4“to Asakusa”は、後続する目的言語文字列T5“At Ueno station”に係るほうが正しい。
曖昧性検出部104は、新たに出力される目的言語文字列が、それ以前に出力された先行文脈における目的言語文字列に誤って係ると判定する。また、係り受け関係は「place_to」と判定される。よって、曖昧性検出部104は、英語での解釈に曖昧性が存在することを検出する。
語句生成部105は、図5に示す語句生成規則に従って、“as for”を付加語句801として生成する。語句付加部106が、付加語句801を目的言語文字列T4に付加し“as for to Asakusa”を生成する。これにより、“as for to Asakusa”、すなわち「浅草までに関しては」という解釈のみとなり、先行する目的言語文字列と切り分けた解釈ができ、原言語の意図を反映し、解釈に曖昧性を生じさせない翻訳文を提示することができる。
なお、本実施形態に係る語句生成部105は、係り受け関係を条件として付加語句を生成するが、その他の条件を用いて付加語句を生成してもよい。例えば、目的言語文字列を出力してからの経過時間、原言語の発話における無音区間の時間、目的言語文字列の長さ、原言語文字列の長さ、発声に必要な時間、曖昧性の強度の少なくとも1つに基づいて、生成される付加語句を決定してもよい。
具体的には、目的言語文字列を出力してからの経過時間が閾値よりも長い場合、または原言語の発話における無音区間の時間が閾値よりも長い場合は、ユーザ(発話者)が発言したい内容を忘れており内容を思い出しているとき、または発話者の発言(1つの文)が終了したときが想定される。このような場合、語句生成部105は、前後の文脈における係り受け関係が存在するかどうかにかかわらず、間投詞や、1つの文が終了したことを示す語または音響を付加語句として生成してもよい。
また、語句生成部105は、付加語句に優先度を設け、原言語文字列または目的言語文字列で用いられる言語の種類、発話内容の種類、話者の性別、年齢などに応じて、生成する付加語句を決定してもよい。例えば、話者が女性であり、付加語句として間投詞が生成される場合は、一般的な付加語句の規則よりも、女性が発言する可能性ある「あら」「そうねぇ」といった語句の優先度を高くすることで、これらの語句を付加語句として決定することができる。
以上に示した本実施形態に係る機械翻訳装置によれば、漸進的に訳出された目的言語文字列において、解釈曖昧性が発生する場合に、解釈の曖昧性を解消する語句を目的言語文字列に付加することで、ユーザが誤解する可能性を低減した翻訳結果を出力することができ、適切な同時通訳を実現することができる。
上述の実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した機械翻訳装置による効果と同様な効果を得ることも可能である。上述の実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RW、Blu−ray(登録商標)Discなど)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータまたは組み込みシステムが読み取り可能な記録媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の機械翻訳装置と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合又は読み込む場合はネットワークを通じて取得又は読み込んでもよい。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
なお、本実施形態におけるコンピュータまたは組み込みシステムは、記録媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100・・・機械翻訳装置、101・・・音声取得部、102・・・解析部、103・・・翻訳部、104・・・曖昧性検出部、105・・・語句生成部、106・・・語句付加部、107・・・出力部、401,501・・・条件、402,502・・・生成語句、701,801・・・付加語句。

Claims (7)

  1. 第1言語による発話を順次受け取り音声認識して、音声認識結果の文字列を示す認識結果文字列を得る取得部と、
    前記認識結果文字列を翻訳処理を行なう単位で分割し、翻訳前の前記第1言語の文字列を示す複数の原言語文字列を得る解析部と、
    前記複数の原言語文字列を、前記第1言語とは異なる言語である第2言語の文字列を示す目的言語文字列に時系列順に翻訳する翻訳部と、
    前記目的言語文字列のうちの第1目的言語文字列と、該第1目的言語文字列よりも前記発話に関して過去に翻訳された結果である1以上の第2目的言語文字列との関係に基づいて、該第1目的言語文字列に対応する前記発話の内容に即した解釈に曖昧性が存在するかどうかを検出する検出部と、
    前記曖昧性が存在すると検出された場合、前記第1目的言語文字列と前記第2目的言語文字列との間の係り受け関係を一意に解釈させるための語句を示す付加語句を前記第1目的言語文字列に付加する語句付加部と、を具備することを特徴とする機械翻訳装置。
  2. 前記曖昧性の種類に応じた付加語句を生成する語句生成部をさらに具備することを特徴とする請求項1に記載の機械翻訳装置。
  3. 前記語句生成部は、前記係り受け関係の係り受けの方向に応じて、真の係り受け先である第2目的言語文字列の用言から、付加語句を生成することを特徴とする請求項2に記載の機械翻訳装置。
  4. 前記語句生成部は、前記第1言語および前記第2言語の種類、前記発話の内容の種類、発話者の性別および該発話者の年齢の少なくとも1つに基づいて前記付加語句を決定することを特徴とする請求項2に記載の機械翻訳装置。
  5. 前記検出部は、前記第1目的言語文字列と前記第2目的言語文字列との間の語句の係り受け関係を解析し、複数の係り受け関係を有する第1目的言語文字列および複数の係り受け関係を有する第2目的言語文字列の少なくともどちらか一方が存在した場合に、前記曖昧性が存在すると検出することを特徴とする請求項1から請求項4のいずれか1項に記載の機械翻訳装置。
  6. 第1言語による発話を順次受け取り音声認識して、音声認識結果の文字列を示す認識結果文字列を得、
    前記認識結果文字列を翻訳処理を行なう単位で分割し、翻訳前の前記第1言語の文字列を示す複数の原言語文字列を得、
    前記複数の原言語文字列を、前記第1言語とは異なる言語である第2言語の文字列を示す目的言語文字列に時系列順に翻訳し、
    前記目的言語文字列のうちの第1目的言語文字列と、該第1目的言語文字列よりも前記発話に関して過去に翻訳された結果である1以上の第2目的言語文字列との関係に基づいて、該第1目的言語文字列に対応する前記発話の内容に即した解釈に曖昧性が存在するかどうかを検出し、
    前記曖昧性が存在すると検出された場合、前記第1目的言語文字列と前記第2目的言語文字列との間の係り受け関係を一意に解釈させるための語句を示す付加語句を前記第1目的言語文字列に付加することを具備することを特徴とする機械翻訳方法。
  7. コンピュータを、
    第1言語による発話を順次受け取り音声認識して、音声認識結果の文字列を示す認識結果文字列を得る取得手段と、
    前記認識結果文字列を翻訳処理を行なう単位で分割し、翻訳前の前記第1言語の文字列を示す複数の原言語文字列を得る解析手段と、
    前記複数の原言語文字列を、前記第1言語とは異なる言語である第2言語の文字列を示す目的言語文字列に時系列順に翻訳する翻訳手段と、
    前記目的言語文字列のうちの第1目的言語文字列と、該第1目的言語文字列よりも前記発話に関して過去に翻訳された結果である1以上の第2目的言語文字列との関係に基づいて、該第1目的言語文字列に対応する前記発話の内容に即した解釈に曖昧性が存在するかどうかを検出する検出手段と、
    前記曖昧性が存在すると検出された場合、前記第1目的言語文字列と前記第2目的言語文字列との間の係り受け関係を一意に解釈させるための語句を示す付加語句を前記第1目的言語文字列に付加する語句付加手段として機能させるための機械翻訳プログラム。
JP2012075966A 2012-03-29 2012-03-29 機械翻訳装置、方法、およびプログラム Pending JP2013206253A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012075966A JP2013206253A (ja) 2012-03-29 2012-03-29 機械翻訳装置、方法、およびプログラム
US13/727,144 US9170994B2 (en) 2012-03-29 2012-12-26 Machine translation apparatus, method and computer readable medium
CN2013100084394A CN103365837A (zh) 2012-03-29 2013-01-10 机器翻译装置、方法和计算机可读媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012075966A JP2013206253A (ja) 2012-03-29 2012-03-29 機械翻訳装置、方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015105517A Division JP2015201215A (ja) 2015-05-25 2015-05-25 機械翻訳装置、方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2013206253A true JP2013206253A (ja) 2013-10-07

Family

ID=49236193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012075966A Pending JP2013206253A (ja) 2012-03-29 2012-03-29 機械翻訳装置、方法、およびプログラム

Country Status (3)

Country Link
US (1) US9170994B2 (ja)
JP (1) JP2013206253A (ja)
CN (1) CN103365837A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9600475B2 (en) 2014-09-18 2017-03-21 Kabushiki Kaisha Toshiba Speech translation apparatus and method
US9672820B2 (en) 2013-09-19 2017-06-06 Kabushiki Kaisha Toshiba Simultaneous speech processing apparatus and method
US10423700B2 (en) 2016-03-16 2019-09-24 Kabushiki Kaisha Toshiba Display assist apparatus, method, and program
WO2020240905A1 (ja) * 2019-05-31 2020-12-03 株式会社Abelon 音声処理装置、音声の対のコーパスの生産方法、およびプログラムを記録した記録媒体
JP7513288B2 (ja) 2019-05-31 2024-07-09 株式会社Abelon 音声処理装置、コーパスの生産方法、およびプログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5653392B2 (ja) * 2012-06-29 2015-01-14 株式会社東芝 音声翻訳装置、方法およびプログラム
WO2017112813A1 (en) * 2015-12-22 2017-06-29 Sri International Multi-lingual virtual personal assistant
CN106022987A (zh) * 2016-05-21 2016-10-12 李林瑛 真人在线翻译系统及方法
CN105912535A (zh) * 2016-05-21 2016-08-31 李林瑛 一种真人在线翻译系统及方法
CN108073572B (zh) * 2016-11-16 2022-01-11 北京搜狗科技发展有限公司 信息处理方法及其装置、同声翻译系统
KR102637338B1 (ko) * 2017-01-26 2024-02-16 삼성전자주식회사 번역 보정 방법 및 장치와 번역 시스템
WO2018169493A1 (en) * 2017-03-17 2018-09-20 Uilicious Private Limited Systems, methods and computer readable media for ambiguity resolution in instruction statement interpretation
CN107632980B (zh) * 2017-08-03 2020-10-27 北京搜狗科技发展有限公司 语音翻译方法和装置、用于语音翻译的装置
CN107731232A (zh) * 2017-10-17 2018-02-23 深圳市沃特沃德股份有限公司 语音翻译方法和装置
US10733389B2 (en) * 2018-09-05 2020-08-04 International Business Machines Corporation Computer aided input segmentation for machine translation
US11361168B2 (en) * 2018-10-16 2022-06-14 Rovi Guides, Inc. Systems and methods for replaying content dialogue in an alternate language
US11972210B2 (en) * 2021-05-13 2024-04-30 Motorola Solutions, Inc. System and method for predicting a penal code and modifying an annotation based on the prediction
CN114239613B (zh) * 2022-02-23 2022-08-02 阿里巴巴达摩院(杭州)科技有限公司 实时语音翻译方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0756923A (ja) * 1993-08-16 1995-03-03 Nippon Telegr & Teleph Corp <Ntt> 曖昧性除去可能な日本語文生成装置
JP2010086143A (ja) * 2008-09-30 2010-04-15 Toshiba Corp 機械翻訳システム及び機械翻訳プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3059398B2 (ja) 1997-03-04 2000-07-04 株式会社エイ・ティ・アール音声翻訳通信研究所 自動通訳装置
JP2001188779A (ja) 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
US8874431B2 (en) * 2001-03-16 2014-10-28 Meaningful Machines Llc Knowledge system method and apparatus
JP4050755B2 (ja) * 2005-03-30 2008-02-20 株式会社東芝 コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
JP4439431B2 (ja) * 2005-05-25 2010-03-24 株式会社東芝 コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
JP4398966B2 (ja) * 2006-09-26 2010-01-13 株式会社東芝 機械翻訳を行う装置、システム、方法およびプログラム
JP4481972B2 (ja) 2006-09-28 2010-06-16 株式会社東芝 音声翻訳装置、音声翻訳方法及び音声翻訳プログラム
JP5100445B2 (ja) 2008-02-28 2012-12-19 株式会社東芝 機械翻訳する装置および方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0756923A (ja) * 1993-08-16 1995-03-03 Nippon Telegr & Teleph Corp <Ntt> 曖昧性除去可能な日本語文生成装置
JP2010086143A (ja) * 2008-09-30 2010-04-15 Toshiba Corp 機械翻訳システム及び機械翻訳プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200001146006; 松原茂樹 他3名: '英日話し言葉翻訳のための漸進的文生成手法' 電子情報通信学会技術研究報告 Vol.99 No.228, 19990723, 39-44頁, 社団法人電子情報通信学会 *
JPN6014031312; 松原茂樹 他3名: '英日話し言葉翻訳のための漸進的文生成手法' 電子情報通信学会技術研究報告 Vol.99 No.228, 19990723, 39-44頁, 社団法人電子情報通信学会 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9672820B2 (en) 2013-09-19 2017-06-06 Kabushiki Kaisha Toshiba Simultaneous speech processing apparatus and method
US9600475B2 (en) 2014-09-18 2017-03-21 Kabushiki Kaisha Toshiba Speech translation apparatus and method
US10423700B2 (en) 2016-03-16 2019-09-24 Kabushiki Kaisha Toshiba Display assist apparatus, method, and program
WO2020240905A1 (ja) * 2019-05-31 2020-12-03 株式会社Abelon 音声処理装置、音声の対のコーパスの生産方法、およびプログラムを記録した記録媒体
JP7513288B2 (ja) 2019-05-31 2024-07-09 株式会社Abelon 音声処理装置、コーパスの生産方法、およびプログラム

Also Published As

Publication number Publication date
CN103365837A (zh) 2013-10-23
US9170994B2 (en) 2015-10-27
US20130262076A1 (en) 2013-10-03

Similar Documents

Publication Publication Date Title
JP2013206253A (ja) 機械翻訳装置、方法、およびプログラム
US10140973B1 (en) Text-to-speech processing using previously speech processed data
US11062694B2 (en) Text-to-speech processing with emphasized output audio
US11594215B2 (en) Contextual voice user interface
US11373633B2 (en) Text-to-speech processing using input voice characteristic data
US11830485B2 (en) Multiple speech processing system with synthesized speech styles
US10163436B1 (en) Training a speech processing system using spoken utterances
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
JP5208352B2 (ja) 声調言語用分節声調モデリング
US20160379638A1 (en) Input speech quality matching
US10176809B1 (en) Customized compression and decompression of audio data
JP2015201215A (ja) 機械翻訳装置、方法、およびプログラム
US20080208597A1 (en) Apparatus, method, and computer program product for processing input speech
US9495955B1 (en) Acoustic model training
US20090138266A1 (en) Apparatus, method, and computer program product for recognizing speech
US10565989B1 (en) Ingesting device specific content
Ekpenyong et al. Statistical parametric speech synthesis for Ibibio
JP6235280B2 (ja) 音声同時処理装置、方法およびプログラム
US11715472B2 (en) Speech-processing system
CN112580340A (zh) 逐字歌词生成方法及装置、存储介质和电子设备
JP2008243080A (ja) 音声を翻訳する装置、方法およびプログラム
Baljekar Speech synthesis from found data
KR20100068965A (ko) 자동 통역 장치 및 그 방법
US11211056B1 (en) Natural language understanding model generation
KR20150027465A (ko) 외국어 고유명사에 대한 다중 발음열 생성 방법 및 장치

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150224