JP4945086B2 - 論理形式のための統計的言語モデル - Google Patents

論理形式のための統計的言語モデル Download PDF

Info

Publication number
JP4945086B2
JP4945086B2 JP2005098366A JP2005098366A JP4945086B2 JP 4945086 B2 JP4945086 B2 JP 4945086B2 JP 2005098366 A JP2005098366 A JP 2005098366A JP 2005098366 A JP2005098366 A JP 2005098366A JP 4945086 B2 JP4945086 B2 JP 4945086B2
Authority
JP
Japan
Prior art keywords
mapping
transfer
score
node
mappings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005098366A
Other languages
English (en)
Other versions
JP2005285129A (ja
Inventor
オウ アンソニー
エー.メネゼス アルール
ビー.カーク クリストファー
ケー.リンガー エリック
シー.ムーア ロバート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2005285129A publication Critical patent/JP2005285129A/ja
Application granted granted Critical
Publication of JP4945086B2 publication Critical patent/JP4945086B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Description

本発明は、自動化された言語システムに関する。より詳細には、本発明は統計的言語システムにおける言語モデルに関する。
自動化された言語システムには、音声認識、手書き文字認識、スピーチ生成、文法チェック、および機械翻訳などが含まれる。
機械翻訳(MT)システムは、1つの言語(「ソース」言語)の状態で入力を受け取り、その入力を第2の言語(「目的」言語)に翻訳し、第2の言語の出力を生成するシステムである。
MTシステムの一例は、論理形式(logical form:LF)を使用する。このLFは、翻訳の中間工程として、文字列内の内容語(content word)間の、ラベル付けされた依存関係を記述する依存グラフ(dependency graph)である。このシステムでは、まず、自然言語パーサを使用してソース言語の文字列を解析し、ソース言語LFを生成する。次に、ソース言語LFを目的言語LFに変換する必要がある。この変換には、ソース言語LF要素(source language LF pieces)から目的言語LF要素(target language LF pieces)へのマッピング(およびマッピングのサイズや、トレーニング・セットにおけるマッピングの頻度などの、他のメタデータとともに)のデータベースを使用する。まず、ソース言語LFの部分グラフであるソース言語LF要素を持つすべてのマッピングが取り出される。通常は、1つのマッピングのソース言語LF要素がソース言語LF全体をカバーすることはない。その結果、複数のマッピングから成る1つのセット(場合によっては重複することもある)を選択しなければならず、それらの目的言語LFの複数の要素を組み合わせて完全な目的言語LFを形成する必要がある。
目的言語論理形式のセットを特定するために、MTシステムはグルーディ検索アルゴリズム(greedy search algorithm)を使用して、可能性のあるマッピングのうちから、ソース言語LFに適合するソース言語LF要素を持つマッピングの組合せを選択する。このグルーディ検索は、そのマッピングを、サイズ、頻度、および、マッピングのソース言語LF要素がソース言語LFにどの程度適合しているかを示すその他の特徴によって、
ソートすることから開始する。次に、ソートされたリストをトップ・ダウン方式で走査し、ソース言語論理形式をカバーする、最初に見つかった適合するマッピングのセットを選択する。この発見的システム(heuristic system)は、入力マッピングの可能な組合せをすべて調べるわけではなく、単純に、ソース言語LFを完全にカバーする最初のマッピングのセットを選択するに過ぎない。
マッピングのセットを選択した後、マッピングの目的言語LF要素は、目的言語LFを生成するために、ソース言語LFに整合する方式で組み合わせる。最後に、目的言語LFに対して自然言語生成システムを実行することによって、目的言語の出力を生成する。
しかし、MTシステムは、必ずしも論理形式またはその他の構文解析された構造を中間表現として使用するとは限らない。また、翻訳の曖昧さを解決するために必ずしも発見的方法を使用するわけではない。MTシステムによっては、統計的モデルを使用して、ソース言語の入力文字列が与えられた場合の最も可能性の高い目的言語文字列を予測しようとするものもある。そのようなMTシステムは、雑音チャネル(noisy-channel)フレームワークなどの従来の統計的フレームワークや統計的モデルを使用してデコードし、所与のソース言語センテンスSに対する最も可能性の高い翻訳である目的言語センテンスTを求める。この確率の最大化は以下の式で表される。
Figure 0004945086
上式で、T’は、目的言語の複数のセンテンスに及ぶ。ベイズの規則を使用すれば、この確率の最大化は以下の式でも表すことができる。
Figure 0004945086
上式で、P(S|T’)は、目的言語文字列T’を仮定した場合のソース言語文字列Sの確率であり、P(T’)は、目的言語文字列T’の確率である。文字列ベースの統計的MT(構文解析された中間表現を使用しないMT)では、単一言語の目的言語データでトレーニングした目的言語モデルを使用して、P(T)の推定値を計算し、複雑さの様々なアライメント・モデルを使用してP(S|T)を計算し、推定する。
米国特許第5,966,686号明細書 Powell, M. J. D., "An efficient method for finding the minimum of a function of several variables without calculating derivatives", Computer Journal, Vol. 7 pages 155-162, 1964. Papineni et al., K. A., "Bleu: a Method for Automatic Evaluation of Machine Translation", Technical Report, RC22176 (W0109-022), IBM Research Division, Thomas J. Watson Research Center, September 17, 2001. On structuring probabilistic dependences in stochastic language modeling(Ney、Essen、およびKneser、1994年、Computer Speech and Language、8:1〜38頁) Brown et al., P. F., "The Mathematics of Statistical Machine Translation: Parameter Estimation", Association for Computational Linguistics, Vol. 19, pages 263-311, 1993. Charniak, E., "Immediate-Head Parsing for Language Models", Meeting of the Association for Computational Linguistics, 2001. Charniak et al., E., "Syntax-based Language Models for Statistical Machine Translation", Proceedings of MT Summit IX 2003, 2003. Chelba et al., C. "Exploiting Syntactic Structure for Language Modeling" Proceedings of the Thirty-Sixth Annual Meeting of the Association for Computational Linguistics and Seventeenth International Conference on Computational Linguistics, pages 225-231, 1998. Eisner, J., "Learning Non-Isomorphic Tree Mappings for Machine Translation", Proceedings of the 41st Meeting of the Association for Computational Linguistics (ACL 2003), Companion Volume, July 2003. Goodman, J., "A Bit of Progress in Language Modeling", Technical Report, MSR-TR-2001-72, December 2001. Klein et al., D., "Accurate unlexicalized Parsing", Proceedings of the 41st Annual Meeting of the Association for Computational Linguistics, pages 423-430, July 2003. Knight, K. "Decoding Complexity in Word-Replacement Translation Models", Association for Computational Linguistics, 25(4), pages 607-615, 1999. Moore, R., "Towards a Simple and Accurate Statistical Approach to Learning Translation Relationships among Words", Proceedings, Workshop on Data-driven Machine Translation, 39th Annual Meeting and 10th Conference of the European Chapter, Association for Computation Linguistics, pages 79-86, 2001. Och et al., F., "Discriminative Training and Maximum Entropy Models for Statistical Machine Translation", Proceedings of the 40th Annual Meeting of the Association for Computation Linguistics, Philadelphia, pages 295-302, July 2002. Richardson et al., S., "Achieving commercial-quality translation with exampl- based methods", Proceedings of MT Summit VIII, pages 293-298, 2001. Stolcke, A., "Entropy-based Pruning of Backoff Language Models", DARPA Broadcast News Transcription and Understanding Workshop, pages 270-274, 1998. Yamada et al., K., "A Syntax-Based Statistical Translation Model", Proceedings of the 39th Annual Meeting of the Association for Computational Linguistics, pages 523-529, 2001.
従来の文字列ベースの統計的MTシステムにはいくつかの問題がある。具体的には、検索空間(目的言語のすべての可能な文字列)がかなり大きいことである。この検索空間を制限しない限り、すべての可能な翻訳文字列を検討するのに時間がかかり過ぎるため、実用的なMTシステムを構築することができない。これに対処するために、多くのシステムは、文字列全体のチャネル・モデルと目的言語モデルの確率が当該文字列内の複数の部分文字列の確率の積として求めることができる、という単純化仮定を用いる。この仮定は、文字列内および文字列間の依存関係が、部分文字列によって規定される局所的な範囲に限定される限り、有効であるだけである。しかし、1つのソース言語テキストのかなりの部分に対する最良の翻訳が、予測対象要素から比較的離れたソース言語文字列および目的言語文字列の要素によって条件付けられる場合がある。文字列ベースの統計的MTモデルにおけるこの単純化仮定は、主として文字列の局所性に基づいているため、この条件付け要素が、予測する要素から離れ過ぎていて、モデルによる考慮の範囲に入れることができないことがある。
たとえば、文字列ベースの統計的MTシステムには、言語モデル(LM)として文字列のnグラム・モデルを使用するものがある。そのようなnグラム・モデルは、トレーニングすること、使用すること、最適化すること、が簡単である。しかし、nグラム・モデルにはいくつかの制約がある。1つの語をその直前の1語または2語から正確に予測することができるけれども、多くの言語構造は、予測の重要な手掛かりとなる語を、それらの語によって予測される語から離れて配置し、それらは、文字列のnグラム・モデルの範囲から除外される。以下のような能動文と受動文を考えてみる。
1.John hit the ball.(ジョンがボールを打った。)
2.The balls were hit by Lucy.(ボールがルーシーによって打たれた。)
上記のセンテンスでは、以下のトライ・グラムが以下の頻度で出現する。
<P> <P> John 1 <P> <P> The 1
<P> John hit 1 <P> The balls 1
John hit the 1 the balls were 1
hit the ball 1 balls were hit 1
the ball <POST> 1 were hit by 1
hit by Lucy 1
by Lucy <POST> 1
ここで、<P>は、センテンスの先頭における仮想記号(imaginary token)で、文頭コンテクストを示し、<POST>は、文末の仮想記号である。両方の事例で事象(ボールを打つこと)は同じであるにもかかわらず、上記の各トライ・グラムは1回しか出現しないことに注目されたい。
他の統計的MTシステムでは、ソース言語の統語論的構造(syntax structure)は、目的言語内文字列にマップされる。構文ベースのモデルには、文字列ベースのモデルよりも優れた利点がいくつかある。ある面において、構文ベースのモデルは、見出し語(lemmas)を正規化することによって、疎データ問題(sparse data problem)の重大さを軽減することができることである。他の面では、構文ベースのモデルは、言語の統語論的構造(syntactic structure)を考慮に入れることができることである。したがって、互いに依存する事象が、構文木においては、表面的な文字列(surface string)におけるよりも互いに近くなることが多く、その結果、構文木における共通の親までの距離が文字列における距離よりも短くなる可能性がある。
しかし、構文ベースのモデルであっても、以下の欠点は残る。互いに依存した語の間の距離が、局所的モデルによって捉えられないほど遠くなる場合がある。また、類似した概念が、異なる構造(たとえば能動態と受動態)によって表され、この結果まとめてモデル化されない。これらによって、モデルのトレーニングが不十分になり、翻訳のパフォーマンスも悪くなる。
本発明は、入力意味構造をデコードして出力意味構造を生成する方法を含む。この技法は、入力意味構造の各部分に対して一組のトランスファ・マッピングを使用する。統計モデルを使用して、この一組のトランスファ・マッピングのうちの少なくとも1つのトランスファ・マッピングのスコアが計算される。このスコアに基づいて少なくとも1つのトランスファ・マッピングを選択し、出力意味構造の構築に使用する。本発明は、コンピュータ実装方法として、および機械翻訳システムとしても実施可能である。本発明の他の態様は、意味構造から構築される言語モデルである。
本発明が機械翻訳システムのコンテクストで説明されるという点で、本発明は、複数の語を生成するその他のシステム、または言語モデルを必要とするその他のシステムにも適用可能であることに留意されたい。たとえば、これらのシステムとしては、音声認識、光学式文字認識(OCR)、文法チェックなどのシステムがある。本発明について詳細に説明する前に、本発明を適用することができる例示のコンピューティング環境の実施形態について説明する。
図1に、本発明を実装可能な適合するコンピューティング・システム環境の一例を示す。このコンピューティング・システム環境100は、適合するコンピューティング環境の一例に過ぎず、本発明の使用または機能の範囲に関する制限を示唆するものではない。また、このコンピューティング環境100は、例示の動作環境100に示す構成要素のいずれか1つまたはその組合せに関する依存または要件を有するものと解釈するべきではない。
本発明は、他の多くの汎用または特殊目的コンピューティング・システム環境または構成でも動作可能である。本発明と共に使用するのに適した公知のコンピューティング・システム、環境、および/または構成の例としては、パーソナル・コンピュータ、サーバ・コンピュータ、ハンドヘルド装置またはラップトップ装置、マルチ・プロセッサ・システム、マイクロ・プロセッサ使用システム、セットトップボックス、プログラム可能民生電子機器、ネットワークPC、ミニ・コンピュータ、メインフレーム・コンピュータ、電話システム、およびこれらのシステムまたは装置のいずれかを備えた分散コンピューティング環境などがあるが、これらには限定されない。
本発明について、コンピュータによって実行されるプログラム・モジュールなどのコンピュータ実行可能命令という一般的なコンテクストで説明することができる。通常、プログラム・モジュールは、特定のタスクを実行するかまたは特定の抽象データタイプを実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。本発明は、通信ネットワークによって接続された遠隔処理装置によってタスクが実行される分散コンピューティング環境で実施されるように設計される。分散コンピューティング環境では、メモリ記憶装置を含むローカルと遠隔の両方のコンピュータ記憶媒体にプログラム・モジュールが格納される。
図1を参照すると、本発明を実装する例示のシステムは、コンピュータ110の形態の汎用コンピューティング装置を含む。コンピュータ110の構成要素としては、処理装置120、システム・メモリ130、およびシステム・メモリを含む様々なシステム構成要素を処理装置に接続するシステム・バス121があるが、これらには限定されない。システム・バス121は、様々なバス・アーキテクチャのいずれかを使用した、メモリ・バスまたはメモリ・コントローラ、周辺装置バス、およびローカル・バスなどを含めた、数種類のバス構造のいずれかとすることができる。そのようなアーキテクチャとしては、たとえば、業界標準アーキテクチャ(ISA)バス、マイクロ・チャネル・アーキテクチャ(MCA)バス、拡張ISA(EISA)バス、ビデオ・エレクトロニクス規格協会(Video Electronics Standards Association:VESA)ローカル・バス、および、メザニン・バスとも呼ばれる周辺コンポーネント・インターコネクト(Peripheral Component Interconnect:PCI)バスがあるが、これらには限定されない。
コンピュータ110は典型的には、様々なコンピュータ可読媒体を備える。コンピュータ可読媒体は、コンピュータ110がアクセス可能であって、揮発性媒体と不揮発性媒体、取外し可能媒体と取外し不能媒体の両方を含む、利用可能な任意の媒体とすることができる。たとえば、コンピュータ可読媒体には、コンピュータ記憶媒体と通信媒体が含まれるが、これらには限定されない。コンピュータ記憶媒体には、コンピュータ可読命令、データ構造、プログラム・モジュール、またはその他のデータなどの情報の記憶のための任意の方法または技法で実装された、揮発性と不揮発性、取外し可能と取外し不能の両方の媒体が含まれる。コンピュータ記憶媒体には、RAM、ROM、EEPROM、フラッシュ・メモリ、またはその他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)またはその他の光ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置またはその他の磁気記憶装置、あるいは、所望の情報を記憶するために使用することができ、コンピュータ110がアクセス可能な他の任意の媒体が含まれるが、これらには限定されない。通信媒体は、一般には、コンピュータ可読命令、データ構造、プログラム・モジュール、またはその他のデータを、搬送波などの被変調データ信号またはその他の伝送機構として実現し、あらゆる情報配信媒体を含む。「被変調データ信号」という用語は、その特性のうちの1つまたは複数の特性が、情報を信号の形態で符号化するように設定または変更された信号を意味する。たとえば、通信媒体には、有線ネットワークや直接配線接続などの有線媒体、音響、RF、赤外線、およびその他の無線媒体などの無線(ワイヤレス)媒体が含まれるが、これらには限定されない。上記のいずれの組合せも、コンピュータ可読媒体の範囲に含まれるものとする。
システム・メモリ130は、読取り専用メモリ(ROM)131およびランダム・アクセス・メモリ(RAM)132などの揮発性および/または不揮発性のメモリの形態のコンピュータ記憶媒体を含む。起動時などにコンピュータ110内の要素間で情報を転送するのを助ける基本ルーチンを含む基本入出力システム133(BIOS)は、典型的には、ROM131に記憶される。RAM132は、典型的には、処理装置120が、ダイレクトにアクセス可能および/または現在処理中のデータおよび/またはプログラム・モジュールを含む。たとえば、図1に、オペレーティング・システム134、アプリケーション・プログラム135、その他のプログラム・モジュール136、およびプログラム・データ137が図示されているが、これらには限定されない。
コンピュータ110は、他の取外し可能/取外し不能の揮発性/不揮発性コンピュータ記憶媒体も備えることができる。たとえば、例示に過ぎないが、図1には、取外し不能な不揮発性磁気媒体の読み書きを行うハードディスク・ドライブ141と、取外し可能な不揮発性磁気ディスク152の読み書きを行う磁気ディスク・ドライブ151と、CD−ROMまたはその他の光媒体などの取外し可能な不揮発性光ディスク156の読み書きを行う光ディスク・ドライブ155とが図示されている。例示の動作環境で使用可能なその他の取外し可能/取外し不能な揮発性/不揮発性コンピュータ記憶媒体としては、磁気テープカセット、フラッシュ・メモリ・カード、デジタル多用途ディスク、デジタル・ビデオ・テープ、半導体RAM、半導体ROMなどがあるが、これらには限定されない。ハードディスク・ドライブ141は、一般には、インターフェース140などの取外し不能メモリ・インターフェースを介してシステム・バス121に接続され、磁気ディスク・ドライブ151および光ディスク・ドライブ155は、一般には、インターフェース150などの取外し可能メモリ・インターフェースによってシステム・バス121に接続される。
上記および図1に図示するドライブおよびそれに付随するコンピュータ記憶媒体は、コンピュータ110に、コンピュータ可読命令、データ構造、プログラム・モジュール、およびその他のデータの記憶域を提供する。たとえば、図1で、ハードディスク・ドライブ141はオペレーティング・システム144と、アプリケーション・プログラム145と、その他のプログラム・モジュール146と、プログラム・データ147とを記憶しているものとして図示されている。これらの構成要素は、オペレーティング・システム134、アプリケーション・プログラム135、その他のプログラム・モジュール136、およびプログラム・データ137と同一のものであっても異なるものであってもよいことに注目されたい。オペレーティング・システム144、アプリケーション・プログラム145、その他のプログラム・モジュール146、およびプログラム・データ147は、ここでは少なくとも異なるコピーであることを示すために異なる番号が付与されている。
ユーザは、キーボード162、マイクロフォン163、マウスやトラック・ボールやタッチ・パッドなどのポインティング・デバイス161などの入力装置を介して、コンピュータ110にコマンドと情報を入力することができる。その他の入力装置(図示せず)としては、ジョイスティック、ゲームパッド、衛星通信受信アンテナ、スキャナなどがある。上記およびその他の入力装置は、システム・バスに接続されたユーザ入力インターフェース160を介して処理装置120に接続されることが多いが、パラレル・ポート、ゲームポート、ユニバーサル・シリアル・バス(USB)など、その他のインターフェースおよびバス構造によって接続することもできる。システム・バス121には、ビデオ・インターフェース190などのインターフェースを介してモニタ191またはその他の種類の表示装置も接続されている。モニタに加えて、コンピュータは、スピーカ197やプリンタ196などのその他の周辺出力装置も備えることができ、これらは出力周辺装置インターフェース195を介して接続することができる。
コンピュータ110は、遠隔コンピュータ180などの1つまたは複数の遠隔コンピュータへの論理接続を使用するネットワーク化環境で運用される。遠隔コンピュータ180は、パーソナル・コンピュータ、ハンドヘルド装置、サーバ、ルータ、ネットワークPC、ピア装置、またはその他の共通ネットワーク・ノードとすることができ、典型的には、コンピュータ110に関して上述した要素の多くまたは全てを備える。図1に示す論理接続は、ローカル・エリア・ネットワーク(LAN)171とワイド・エリア・ネットワーク(WAN)173とを含むが、その他のネットワークも含むことができる。そのようなネットワーク環境は、オフィス、企業規模コンピュータ・ネットワーク、イントラネット、およびインターネットにおいて一般的に見られるものである。
LANネットワーク環境で使用する場合、コンピュータ110はネットワーク・インターフェースまたはアダプタ170を介してLAN171に接続される。WANネットワーク環境で使用する場合、コンピュータ110は、一般には、モデム172、またはインターネットなどのWAN173を介した通信を確立するその他の手段を備える。モデム172は、内蔵または外付けモデムとすることができ、ユーザ入力インターフェース160またはその他の適切な機構を介してシステム・バス121に接続することができる。ネットワーク化環境では、コンピュータ110に関して上述した各プログラム・モジュールまたはその一部を、遠隔メモリ記憶装置に記憶することができる。たとえば、図1には、遠隔アプリケーション・プログラム185が遠隔コンピュータ180上に常駐するものとして図示されているが、これには限定されない。図のネットワーク接続は例示に過ぎず、コンピュータ間で通信リンクを確立するその他の手段も使用可能であることがわかるであろう。
図2は、コンピューティング環境の一例であるモバイル装置200のブロック図である。モバイル装置200は、マイクロ・プロセッサ202と、メモリ204と、入出力(I/O)構成要素206と、遠隔コンピュータまたは他のモバイル装置と通信するための通信インターフェース208とを備える。一実施形態では、上記の構成要素は、適切なバス210を介して互いに通信するように接続されている。
メモリ204は、モバイル装置200の全体的電源が遮断されてもメモリ204に記憶された情報が失われないように、バッテリ・バックアップ・モジュール(図示せず)を備えたランダム・アクセス・メモリ(RAM)などの不揮発性電子メモリとして実装される。メモリ204の一部は、プログラム実行のためのアドレス可能メモリとして割り振られることが好ましく、メモリ204の他の部分はディスク・ドライブ上の記憶をシミュレートするためなどの記憶域として使用されることが好ましい。
メモリ204は、オペレーティング・システム212およびアプリケーション・プログラム214並びにオブジェクト・ストア216を含む。動作時、オペレーティング・システム212は、プロセッサ202によってメモリ204から実行されることが好ましい。オペレーティング・システム212は、好ましい一実施形態では、マイクロソフト・コーポレーションが市販するWINDOWS(登録商標)CEブランドのオペレーティング・システムである。オペレーティング・システム212は、モバイル装置用に設計されていることが好ましく、アプリケーション214が、公開されているアプリケーション・プログラミング・インターフェースおよびメソッドのセットを介して使用することができる、データベース機能を実装する。オブジェクト・ストア216内のオブジェクトは、少なくとも部分的には、公開アプリケーション・プログラミング・インターフェースおよびメソッドに対する呼出しに応答して、アプリケーション214とオペレーティング・システム212とによって維持される。
通信インターフェース208は、モバイル装置200が情報の送受信を行うことができるようにする多くの装置および技法を代表的に表す。その種の装置としては、たとえば有線モデムおよび無線(ワイヤレス)モデム、衛星通信受信器、放送チューナなどがある。モバイル装置200は、コンピュータに直接接続してコンピュータとデータを交換することもできる。その場合、通信インターフェース208は、赤外線送受信機またはシリアルもしくはパラレル通信接続とすることができ、これらはすべてストリーミング情報を送信することができる。
入出力構成要素206には、タッチ・センシティブ・スクリーン、ボタン、ローラ、マイクロフォンなどの各種入力装置と、音声発生装置、振動装置、表示装置などの各種出力装置が含まれる。上記の装置は例示に過ぎず、上記の装置のすべてがモバイル装置200上に存在する必要はない。また、本発明の範囲内で、モバイル装置200にその他の入出力装置も装着または搭載することができる。
論理形式(logical form)
本発明について詳細に説明する前に、論理形式について概説すれば有益であろう。論理形式およびシステムとその生成方法の詳細な説明は、特許文献1に記載されている。簡単に言えば、論理形式は、文法的な複数の関係で補強された従来の句構造解析を生成する、入力テキストに対しての形態素解析(morphological analysis)を実行することによって、生成される。統語解析は、テキスト入力内の内容語間のラベル付き依存関係を記述するデータ構造である論理形式を得るためにさらに処理される。
一般に、論理形式は、センテンスまたはセンテンスの一部などの単一の入力を表す関連した論理関係から成るデータ構造である。この論理形式は、少なくとも1つの論理関係から成り、入力文字列内の重要な語の間の構造的関係(すなわち統語関係および意味関係)、具体的には、項および/または付加詞関係(argument and/or adjunct relation(s))を表す。
論理形式は、特定の統語的交替(syntactical alternations)(たとえば能動/受動)を正規化し、センテンス内照応関係(intrasentential anaphora)と、長距離依存関係(long distance dependencies)の両方を解決することができる。論理形式の要素の理解の助けとなるように、たとえば、「背景技術」の項で例として挙げた能動文と受動文の論理形式または依存グラフ300および400を、図3および図4に示す。ただし、当業者ならわかるように、コンピュータ可読媒体に記憶されると、論理形式は、グラフを表すものと容易には理解することができない。図3および図4は、背景技術の項で述べたように、表層的な文字列および構文モデルでは表現することができない重要な一般化を示している。
なぜ依存グラフが文字列ベースのnグラム・モデルまたは構文木よりも優れた言語モデルを示し得るのかを理解するために、以下のセンテンスについて検討してみる。
1.John hit the ball.
2.The balls were hit by Lucy.
表層文字列ベースの3グラム・モデルでは、以下のような回数となる。
<P> <P> John 1 <P> <P> The 1
<P> John hit 1 <P> The balls 1
John hit the 1 the balls were 1
hit the ball 1 balls were hit 1
the ball <POST> 1 were hit by 1
hit by Lucy 1
by Lucy <POST> 1
両方のセンテンスで事象(ボールを打つこと)は同じであるにもかかわらず、これらの各トライ・グラムは1回しか出現しないことに注目されたい。
構文木を見ると、わずかに異なる状態がわかる。具体的には、上記のセンテンスの場合、以下のような構文木が生成される。
John hit the ball.
Decl1
|_____NP1 ____NOUN1 "John"
|_____VERB1 "hit"
|_____NP2 ____DETP1 _____ADJ* "the"
| |____NOUN2 "ball"
|_____CHAR1 "."
The balls were hit by Lucy.

Decl1
|_____NP1_____DETP1_____ADJ1* "the"
| |_____NOUN1 "balls"
|_____AUX1 ___VERB1 "were"
|_____VERB2* "hit"
|_____PP1 ____PP2_______PREP1* "by"
| |_____NOUN2* "Lucy"
|_____CHAR1 "."
この場合も、ボールを打つことが別個の2つのバケットに分かれており(能動態の規則セットと受動態の規則セット)、したがってシステムは有用な一般化を学習することができないことに注目されたい。
図3および図4は、論理形式300および400を示している。LF300および400は、親ノード302および402と、子ノード304、308、404、および408と、意味関係ノード306、307、406、および407とを含む。意味関係ノード306および406は、子ノード304、308、404、および408を、親ノード302および402に接続するように機能し、親ノードと子ノードとの間の意味関係を明らかにする。
親ノード302および402は、語形(word form)または見出し語を収容する。たとえば、親ノード302および402の見出し語は、単語「hit」である。子ノード304、308、404、および408も語形または見出し語を含む。意味関係ノード306および406は、子ノード304および404が深層主語であることを示し、意味関係ノード307および407は、子ノード308および408が親ノード302および402の深層目的語であることを示している。さらに、LF300および400は、各ノードの各見出し語に付加された二項素性(Binary features)(または「ビット」)も含む。たとえば、二項素性はLF300および400の各見出し語に付加され、括弧内に示される。二項素性は、見出し語の統語特性を記述するものである。たとえば、ノード302の語形は、語「hit」を過去時制(past tense)および命題(proposition)として記述する「ビット」を含む。
文字列および構文木とは異なり、論理形式300および400は、同じグラフ構造内に能動態構文と受動態構文の両方を含む。LF構造のグラフを解体して、ノードが親を2つ持たないような木構造を生成することができる。論理形式300および400は、対応するセンテンス(またはセンテンスの断片)の階層的論理表現である。各ノードは、そのすべての先祖(ancestors)に依存する。(目的言語)言語モデルを構築するために、各子ノードがその親(または、nグラムのLFモデルの場合、n−1個の先祖)にのみ依存するという近似に基づいてローカル構造をモデリングする。
一実施形態例では、統語解析から論理形式を構築する特定のコードを、機械翻訳システムが処理する様々なソース言語および目的言語間で共有する。この共有構造によって、2つの言語における表面上明確に異なる構造が、類似または同一の論理形式表現にまとめられるため、異なる言語からの論理形式セグメントをアライメントする作業が大幅に簡略化される。
機械翻訳
図5は、本発明の一実施形態による機械翻訳システム500のアーキテクチャの一例を示すブロック図である。システム500は、解析部504および506、統計的語彙連合学習部(statistical word association learning component)508、論理形式アライメント部510、語彙知識ベース(lexical knowledge base)(LKB)構築部512、二言語対訳辞書514、連合リスト(association list)520、およびトランスファ・マッピング・データベース518を備える。翻訳実行時、システム500は、解析部522と、検索部524と、デコード部554と、トランスファ部526と、生成部528とを使用する。
一実施形態例では、二言語コーパス(bilingual corpus)を使用して、システムをトレーニングする。二言語コーパス(または「バイテキスト(bitext)」)には、アライメント済み翻訳センテンス(たとえば、英語などのソース言語と目的言語のうちのいずれか一方のセンテンスと、スペイン語などのソース言語と目的言語のうちの他方の言語に人間によって作成されたそれらの翻訳文とを1対1に対応させた複数のセンテンス)が含まれている。トレーニング時、アライメント済み二言語コーパスからシステム500に、複数のセンテンスがソース言語センテンス530(翻訳対象センテンス)および目的言語センテンス532(ソース言語センテンスの翻訳)として入力される。解析部504および506が、アライメント済み二言語コーパスからのこれらのソース言語センテンスおよび目的言語センテンスを解析して、ソース言語論理形式534および目的言語論理形式536を生成する。
解析時、センテンス中の複数の単語が正規化語形または正規化見出し語に変換され、統計的語彙連合学習部508に送ることができる。単一語連合と多語連合の両方が、それぞれの信頼性の高い組が得られるまで、統計的語彙連合学習部508によって反復的に仮定されて、スコアが決定される。統計的語彙連合学習部508は、学習された語翻訳対(learned word translation pairs)538を出力する。
語対(Word pairs)は、連合リスト520に登録され、この連合リストは更新された二言語対訳辞書として機能する。
語対538は、ソース言語論理形式534および目的言語論理形式536と共に、論理形式アライメント部510に送られる。簡単に言うと、論理形式アライメント部510は、まず、ソース言語論理形式および目的言語論理形式534および536それぞれの各ノード間に仮の対応付けを設定する。これは、二言語レキシコン(たとえば二言語対訳辞書)514からの翻訳対を使用して行われる。この二言語レキシコンは、統計的語彙連合学習部508からの語対538によって増強することができる。可能な対応付けが設定された後、アライメント部510が語彙と構造の両方の考察に従って、論理形式ノードのアライメントを行い、単語および/または論理形式トランスファ・マッピング542を作成する。
基本的には、アライメント部510は、二言語対訳辞書情報514と語対538とを使用して、論理形式間にリンクを設定する。このトランスファ・マッピングは、任意選択により、ソース言語論理形式および目的言語論理形式534および536での出現頻度に基づいてフィルタリングされ、語彙知識ベース構築部512に送られる。
フィルタリングは任意選択であるが、一実施例では、トランスファ・マッピングがトレーニング・データ内に少なくとも2回現れない場合、そのトランスファ・マッピングはトランスファ・マッピング・データベース518の構築には使用しない。ただし、他の所望の頻度もフィルタとして使用可能である。また、出現頻度以外の他のフィルタリング技法も使用することができることに留意されたい。たとえば、トランスファ・マッピングは、ソース言語センテンスの完全な解析から形成されているか否か、および、トランスファ・マッピングの作成に使用された論理形式が完全にアライメントされているか否かに基づいてフィルタリングすることもできる。
語彙知識ベース構築部512は、トランスファ・マッピング・データベース518を構築し、これは、基本的に、1つの言語の語および/または論理形式を、第2の言語の語および/または論理形式にリンクするトランスファ・マッピングを収容する。トランスファ・マッピング・データベース518がこのようにして作成されるにしたがって、システム500は、翻訳の実行に備えて構成されることになる。
翻訳実行時、翻訳対象のソース言語テキスト550が解析部522に入力される。解析部522は、ソース言語テキスト550を受け取り、入力されたソース言語テキストに基づくソース言語論理形式552を作成する。
ソース言語論理形式552は、検索部524に送られる。検索部524は、当該ソース言語論理形式552の全部または一部をカバーするトランスファ・マッピングを得るために、トランスファ・マッピング・データベース518の検索を試みる。ソース言語論理形式552内の複数のノードのうちの1つまたはそれ以上のノードについて複数のマッピングが見つかる場合もある。
可能なトランスファ・マッピングのセットと、トランスファ・マッピングの可能な組合せのセットが見つかった後、デコード部554が複数のモデルを使用してトランスファ・マッピングの各組合わせのスコアを決定する。一実施形態では、後で詳述する線形補間スコアを使用して、個々のトランスファ・マッピングおよびトランスファ・マッピングの組合せのスコアが決定される。スコアが生成された後、デコード部554は、トランスファ・マッピングの最良の組合せを選択し、記憶する。
トランスファ部526が、デコード部554から候補マッピングの最良の組合せを受け取り、目的言語翻訳の基礎となる目的言語論理形式556を作成する。これは、選択されたトランスファ・マッピングのノードを組み合わせることによって行われる。
検索部524によって、適用可能なトランスファ・マッピングが見つからない場合、ソース言語論理形式552内のノードとそれらの関係が、単純に目的言語論理形式556にコピーされる。さらに、トランスファ・マッピング・データベース518内で、これらのノードのデフォルトの単一語翻訳(single-word translation)が検出され、目的言語論理形式556に挿入される場合もある。しかし、何も見つからない場合は、たとえば、アライメント時に使用した連合リスト520から翻訳を入手することができる。
生成部528は、たとえば目的言語論理形式556から目的言語テキスト(または目的言語文字列)558にマップする、アプリケーションに依存しないルールベースの生成部である。または、生成部528は、機械学習センテンス実現手法(machine learned approach to sentence realization)を使用することもできる。たとえば、生成部528は、入力された論理形式のソース言語に関する情報を持たず、トランスファ部526から渡された情報のみを使用して動作する。また、生成部528は、たとえば、この情報を単一言語(たとえば目的言語)辞書と共に使用して、目的言語テキスト558を生成する。したがって、各言語に1つの汎用生成部528で十分である。
論理形式の統計的機械翻訳
以下の説明に関しては、当業者であれば、依存グラフ、論理形式、意味構造、意味関係、および意味表現は、すべて、実行時に入力される入力論理形式に関するものであり、入力論理形式を記述するものであることが、認識されよう。さらに、当業者であれば、トランスファ・マッピングまたはマッピングは、トレーニング時に形成されたマッピングを指すことが、認識されよう。
以下の式は、式2と同様の式であり、本発明の一実施形態の高水準概念を示すものである。
Figure 0004945086
ここで、T’は目的言語の論理形式であり、P(S|T’)は、目的言語論理形式T’が与えられた場合のソース言語論理形式Sの確率であり、P(T’)は、目的言語論理形式T’の確率であり、
Figure 0004945086
とも書き、μは目的言語モデルである。上記の式は、以下の式と同等である。
Figure 0004945086
本発明の一実施形態では、以下のようないくつの知識源を組み込むことによって、
P(S|T’)を近似する。すなわち、チャネル・モデルまたは翻訳モデル
Figure 0004945086
、ファティリティ・モデル
Figure 0004945086
、マッピングサイズ情報ソース
Figure 0004945086
、および二項素性マッチング(binary features matching)(または「ランク」)情報ソース
Figure 0004945086
である。これらの知識ソースを組み込むことによって、P(S|T’)を以下のように近似することができる。
Figure 0004945086
したがって、以下のようになる。
Figure 0004945086
各スコアまたは対数確率の相対寄与率に、重み係数(λ、λ、λ、λ、およびλ)によって重み付けすると、線形補間近似は以下のようになる。
Figure 0004945086
実際には、本実施形態は、一度にソース言語論理形式および目的言語論理形式全体のスコアを決定するのではなく、検索(上記の各式で「argmax」で示されている)によって、目的言語論理形式を作成し、一度に1つずつ翻訳マッピングが作成される。その際、各マッピングのスコアを使用する。トランスファ・マッピングmの合計線形補間スコアは、次式によって表される。
Figure 0004945086
完全近似と同様に、また上記のように、各情報ソースのスコアまたは確率は、係数で重み付けされる。これらの係数(λ、λ、λ、λ、およびλ)または重みは、パウエルのアルゴリズムを使用してトレーニングされて、システムの出力でのBLEUスコアが最大化される。パウエルのアルゴリズムは当技術分野で周知である。このアルゴリズムの一例は、非特許文献1に記載されている。BLEUスコアも、当技術分野で周知であり、非特許文献2に記載されている。
モデル
一実施形態によると、目的言語モデルは、一連のn−1個の先行ノードおよび関係が与えられた場合の目的言語依存グラフにおけるノードの確率を示すnグラム・モデルである。図6に、目的言語依存グラフの例600を示す。これは、トランスファ・マッピング・データベース518内の目的言語側上に見出すことができる。図6で、ノードA、B、C、およびDは語形を収容する。ノードB、C、およびDは子ノードであり、ノードAは親ノードまたはルート・ノードである。ノードR1およびR2は、意味関係ノードである。
このnグラム・モデルを使用すると、目的言語モデルが与えられた場合の目的言語依存グラフτ600の全体の確率は、これらのノードのそれぞれのnグラム確率の積になる。したがって、この目的言語モデルが与えられた場合の目的言語依存グラフ600の確率は、以下の式で表される。
Figure 0004945086
ここで、iは論理形式τ内のすべてのノードにわたる指標である。各ノードcについて、目的言語モデルによるスコアは、当該ノードのn−1個の最も近い先祖ci−1〜ci−(n−1)を仮定した場合の、cの確率である。たとえば、この種のトライグラム・モデルによる目的言語論理形式600の確率は、以下のようになる。
Figure 0004945086
このトライグラム・モデルでは、意味関係(R1、R2)は、目的言語モデルが簡略化され、その結果、見出し語と意味関係とに対して別々のモデルが不要になるような、最高クラスのエンティティとして扱われる。この目的言語モデルは、出現頻度の低いnグラムを除去することによって切り詰められ、補間絶対ディスカウント(interpolated absolute discounting)手法を使用して平滑化される。補間絶対ディスカウントは、当技術分野で周知であり、非特許文献3に記載されている。
チャネル・モデルは、目的言語論理形式P(S|T)が与えられた場合のソース言語論理形式の確率を推定する。一実施形態では、所与のソース言語論理形式Sおよび目的言語論理形式Tのトランスファ・マッピング・カバー(transfer mapping cover)Mを、SからTへのトランスファ・マッピングのセットと定義する(M:S→Tで示す)。目的言語論理形式Tが与えられた場合のソース言語論理形式Sの確率は、以下の式によって、推定される。
Figure 0004945086
ここで、iはすべてのトランスファ・マッピング・カバーM:S→Tにおける値(潜在的に)であり、および、以下の式
Figure 0004945086
によって、チャネル・モデルμによるマッピングmの確率が定義される。式count(m,m)は、トレーニング・データ・セットにおいて、マッピングmのソース言語側の構造がマッピングmの目的言語側の構造にマップされた回数である。count(m)は、トレーニング・データにおいて、マッピングmの目的言語側の構造が任意のマッピングの目的言語側で検出された回数である。
言い換えると、トランスファ・マッピングmのチャネル・モデルμによる確率は、トランスファ・マッピングのソース言語側が(論理形式バイテキスト内で)トランスファ・マッピングの目的言語側に遭遇した回数count(m,m)を、トランスファ・マッピングが遭遇した目的言語側の回数count(m)で割ることによって推定される。
チャネル・モデルは、重複トランスファ・マッピングも使用する。したがって、式12で求められた確率は、非正規化確率である。この非正規化確率は、チャネル・モデルが、他のマッピングよりも多くの重複(overlap)を有する特定のマッピングに有利に働かないように正規化することができる。
図7に入力LF700を示し、図8に、トランスファ・マッピング・データベース518内で見出されるトランスファ・マッピング800を示す。トランスファ・マッピング800は、マッピング802、803、804、806、および808を含む。図を簡単にするために、トランスファ・マッピングにおける見出し語のノードのみを本アプリケーションの図に示し、意味関係のノードは図示していない。トランスファ・マッピングは、意味関係の追加のノードも含むことに留意されたい。しかし、それらのノードは、本発明では見出し語のノードと同様に扱われるため、これらの図および以下の説明は、見出し語ノードのみの説明に限定されている。
マッピング800を様々に組み合わせて、ソース言語LF700のノードをすべてカバーすることができる。たとえば、マッピング802をマッピング808と組み合わせることができ、マッピング803をマッピング806と組み合わせることができ、マッピング804と806と808とを一緒に組み合わせることができる。ソース言語LF700内の各ノードは単一のトランスファ・マッピングによってのみカバーされるため、これらの各組合わせは重複しない。しかし、ソース言語LF700をすべてカバーするようにマッピング800を組み合わせる他の方法は、マッピング802をマッピング803と組み合わせることである。これによって、ソース言語ノードAがマッピング802とマッピング803の両方によってカバーされるため、重複マッピングが形成される。
チャネル・モデルが重複マッピングに有利に作用しないようにするため、チャネル・モデルを正規化する。チャネル・モデルμが与えられた場合のマッピングmの正規化確率
Figure 0004945086
は、以下の式によって計算される。
Figure 0004945086
ここで、「new」は、入力グラフ内で前にカバーされていなかった構成要素またはノードの数であり、「total」は、ソース言語側トランスファ・マッピングの構成要素の合計数であり、
Figure 0004945086
は、上記で定義したチャネル・モデルによるトランスファ・マッピングの非正規化確率である。したがって、式13は、チャネル・モデルによるトランスファ・マッピングの正規化確率が、例示の指数を有するチャネル・モデルによるトランスファ・マッピングの非正規化確率と等しくなることを示している。
前述のように、場合によっては、入力LF内のノードは、解析不能であったためや単に出現しなかったためにトレーニング・データ内に存在せず、または頻度が所定の閾値(通常は1回)よりも低かったためにトランスファ・マッピング・データベース518から除外されることがある。そのような場合、デフォルト・ノードが挿入される。デフォルト・ノードは、辞書から単一語翻訳によって形成される。このデフォルト・マッピングの確率は、二言語テキストでトレーニングしたIBMモデル1を使用して求めることができる。この確率は、他のチャネル確率とは異なる方法で求められるため、デフォルト・マッピング確率は、重み(λ)によって調整してから、他のチャネル確率と結合される。さらに、デフォルト・マッピングの確率を決定することができない場合、デフォルト値(λ)が使用される。重みλおよびλは、この翻訳システムで使用される他の重みと同様、パウエルのアルゴリズムを使用してトレーニングされ、トレーニング・センテンスのセットのBLEUスコアを最大限にする。これらのパラメータは、式8に示すようにトランスファ・マッピングの最終スコアを計算する際にチャネル・モデルに付けられる重み(λ)とは別個のものであることに留意されたい。
チャネル・モデルは、目的言語モデルとは異なる動作をする。具体的には、チャネル・モデルは翻訳の正確さを向上させるのに対し、目的言語モデルは、ソース言語を考慮せずに目的言語の流暢さ(fluency)を向上させる。
目的言語モデルは、大きなグラフよりも小さなグラフの方を選ぶ役目を負っている。その結果、目的言語モデルは、ソース言語構造内と目的言語構造内のノード数を同数に維持するマッピングや、目的言語構造内のノードを追加するマッピングよりも、目的言語構造内のノードを削除するマッピングをしがちである。たとえば、図9および図10に、トレーニング・データベース518がトランスファ・マッピング900および1000を含む様子を示す。トランスファ・マッピング900は、目的言語側がソース言語側よりもノードが1個少ないことを示している。トランスファ・マッピング1000は、マッピングのソース言語側と目的言語側とでノード数が同じであることを示している。マッピング900による目的言語LFのフラグメントの積と成る確率の数が、マッピング1000によるフラグメントよりも少ないため、目的言語モデルは、マッピング1000よりもマッピング900に高いスコアを決定することになる。
ファティリティ・モデル(fertility model)は、トレーニング・データ中のマッピング内のノードが削除される回数に基づくスコアを提供することによって、この問題を克服することを支援する。トレーニング・データにおいてノードが希にしか削除されない場合、ファティリティ・モデルは削除のないマッピングにより高いスコアを与える。
ファティリティ・モデルは、トレーニング・データを調べ、トランスファ・マッピングのソース言語側のノード毎に、対応するノードがトランスファ・マッピングの目的言語側に出現する回数をカウントすることによって、算定される。疎データ問題を回避するために、見出し語のカウントを品詞(parts of speech)別にグループ化し、意味関係のカウント(この数は、品詞の数にほぼ等しい)を別個に維持する。次に、これらの頻度を使用して、削除の発生確率を算定する。
各品詞または意味関係のラベルxについて、ファティリティ・テーブル内のエントリを次式によって表す。
Figure 0004945086
言い換えると、構成要素xのファティリティ・テーブル・エントリは、目的言語構造とソース言語構造の両方においてxに遭遇した回数と、ソース言語構造内で構成要素xに遭遇した回数との比を計算することによって、取り込まれる。したがって、ファティリティ・モデルμによるトランスファ・マッピングmの確率は、以下の式によって計算される。
Figure 0004945086
上式で、
Figure 0004945086
言い換えると、目的言語のノードがソース言語のノードに対応する場合、f(c)はファティリティ・テーブル・エントリF[x]である。対応しない場合、f(c)は1−F[x]である。
次の情報ソースは、マッピング・サイズ・スコアである。これは、トランスファ・マッピングのソース言語側のノードの数を考慮に入れる。この情報ソースは、次式によって求めたスコアを割り当てる。
Figure 0004945086
実際に、このサイズ・スコアは、コンテクスト情報の多いマッピングの方が、コンテクスト情報の少ないマッピングよりも良くなる可能性が高いという仮定のもとに、より大きなマッピングを優先する。図9および図10を参照すると、ソース言語側のノードが2個であるため、トランスファ・マッピング900のスコアは2となる。トランスファ・マッピング1000も、ソース言語側のノードが2個であるためスコアは2となる。
二項素性(またはビット)情報ソースは、入力依存グラフとトランスファ・マッピングのソース言語側との間で適合する二項素性(ビット)の数を考慮に入れる。この二項素性情報ソースは、トランスファ・マッピングのソース言語側のビットに適合するソース言語依存グラフ内の入力ビットの和であるランク・スコアを与える。図11は入力LF1100を示し、図12はトランスファ・マッピング・データベース518に格納されたトランスファ・マッピング1200を示す。入力LF1100内のノードAは、ノードAの見出し語が受動ビットおよび単数ビットを有することを示している。トランスファ・マッピング1200のソース言語側のノードAは、ノードAの見出し語が単数ビットを有することを示している。したがって、入力LF1100のノードAとマッピング1200のソース言語側のノードAの両方が、適合する単数ビットを有するため、トランスファ・マッピング1200のランク・スコアは1である。
図13は、図5のデコード部554によって実装されるデコード・アルゴリズムを示す流れ図1300である。デコード部554は、本発明の一実施形態によるトランスファ・マッピングのセットを選択し、スコアを決定する。デコード部554は、メモ化(memoization)によるトップ−ダウン検索を使用して、検索部524が検出したトランスファ・マッピングのセットから最も確率の高いマッピングの組合せを見つける。図14は、本発明の一実施例によるソース言語LF1400を示す。図15から図21は、ソース言語LF1400に関係する、検索部524が検出したトランスファ・マッピングのセットの例を示す。
図5のデコード部554は、ブロック1302に示すようにソース言語LF1400の最上位ノードを選択することから開始する。図14では、最上位ノードはノードAである。ノードAを選択した後、デコード部554は、ブロック1304に進み、このコンテクストにおける当該ノードの最良のマッピングが、前に特定されているか否かを決定する。この例では、ノードAのいずれのマッピングもまだスコアが決定していない。
次に、プロセスはステップ1306に進み、検索部524が検出したマッピングのセットから、選択されたノードをカバーするソース言語側を有するトランスファ・マッピングを選択する。たとえば、デコード部554は、図15のトランスファ・マッピング1500を選択する。
ブロック1308で、デコード部554は、選択されたマッピングによってカバーされず、選択されたマッピングから直接延びているソース言語LF1400内のノードがあるか否かを決定する。上記の例では、マッピング1500は、ノードAとノードBのみをカバーする。したがって、子ノードCは、選択されたマッピングによってカバーされず、選択されたマッピングによってカバーされるノードAから直接延びている。ステップ1308で、カバーされない子ノードがある場合、プロセスはブロック1310に進む。
ブロック1310で、デコード部554は、子ノードCを選択し、ブロック1304に戻る。ブロック1304で、デコード部554は、選択されたコンテクスト内の選択されたノードについて最良のマッピングがすでに特定されているか否かを決定する。具体的には、3グラムの目的言語モデルの場合は、「選択されたコンテクスト」は、ノードCのn−1の目的言語側祖先から構成される(この場合、<PRE_ROOT、PRE_ROOT、A’>)。ノードCについては、最良のマッピングがまだ特定されておらず、したがって、プロセスはステップ1306に進み、デコード部554は、子ノードCをカバーするトランスファ・マッピングのセットから、トランスファ・マッピングを選択する。たとえば、デコード部554は、図16に示すトランスファ・マッピング1600を選択することができる。ステップ1306の後、デコード部554はブロック1308に進み、当該マッピングによってカバーされるノードから延びるカバーされていない子ノードがあるか否かを決定する。上記の例では、ノードEとノードFが、マッピング1600によってカバーされるノードから延びるカバーされていない子ノードである。カバーされていない子ノードの検出により、デコード部554はブロック1310に進む。
ブロック1310で、デコード部554は、カバーされていない子ノードのうちの1つ、たとえばノードEを選択し、ブロック1304に戻る。ブロック1304で、デコード部554は、現在アクティブな目的言語コンテクスト(この場合、<PRE_ROOT、A’、C’>)においてノードEの最良のマッピングがまだ決定されていないと決定する。次に、プロセスはブロック1306に進み、デコード部554は、トランスファ・マッピングのセットから、ノードEをカバーするトランスファ・マッピングを選択する。たとえば、デコード部554は、図17に示すトランスファ・マッピング1700を選択する。次に、デコード部554はブロック1308に進み、当該トランスファ・マッピングが、カバーされていない子ノードを残しているか否かを決定する。
ソース言語LF1400によると、ノードEには子ノードがない。したがって、デコード部554は、ブロック1312に進み、選択されたトランスファ・マッピングのスコアを計算する。このスコアは、上述のすべてのモデルを組み込んで、前述の式8を使用して計算される。図13のトップ−ダウン手法を採用する1つの理由は、(スコアを決定するマッピングの)ノードのコンテクストが既知であり、それによって(コンテクストを必要とする)目的言語モデルを使用して目的言語モデルのスコアを計算することができることを確実にするためであることに留意されたい。
マッピングのスコアを求めた後、デコード部554はブロック1314に進み、選択されたノードをカバーするトランスファ・マッピングがまだあるか否かを決定する。この例では、図18に、選択されたノードEのもう1つのトランスファ・マッピング1800が示されている。他のトランスファ・マッピングがある場合、デコード部554は、ブロック1306に戻り、追加のトランスファ・マッピングを選択する。たとえば、マッピング1800が選択される。この例では、マッピング1800には、カバーされていない子ノードがない。したがって、デコード部554は、ブロック1308を経由してブロック1312に進み、式3を使用してトランスファ・マッピング1800のスコアを計算する。
次に、デコード部554はブロック1314に進み、選択されたノードについて他のトランスファ・マッピングがあるか否かを決定する。この例では、図19に、ノードEをカバーするトランスファ・マッピング1900が図示されている。この場合も、デコード部はブロック1306に戻る。この例では、トランスファ・マッピング1900には、カバーされていない子ノードはない。したがって、デコード部554は、式3を使用してトランスファ・マッピング1900のスコアを計算する。スコアを計算した後、デコード部554はブロック1314に進む。
ステップ1314で、デコード部554が、それ以上マッピングがないと決定した場合、プロセスはステップ1316に進み、選択されたノードをカバーするトランスファ・マッピングを比較し、最高のスコアのトランスファ・マッピングを選択する。上記の例では、マッピング1700、1800、および1900のスコアを比較し、最高のスコアのトランスファ・マッピングが選択される。この例では、最高のスコアのトランスファ・マッピングは、トランスファ・マッピング1700であるものとする。デコード部554は、マッピングの先頭のノードと、最高スコアのマッピングのコンテクスト(ソース言語LF内でマッピングがそこから延びているノード)と、最高のスコアのマッピングのスコアと、各モデルの確率または最高スコアのマッピングの情報ソース・スコアとを記憶する。したがって、選択されたマッピングの、目的言語モデル確率と、チャネル・モデル確率と、ファティリティ・モデル確率と、サイズ・スコアと、ランク・スコアとがすべて記憶される。各確率または各モデルのスコアが記憶されるが、式8で求めたスコアを記憶することが最も重要であることは、当業者ならわかるはずである。
選択されたマッピングのスコアが記憶された後、デコード部554はブロック1318に進み、選択されたノードより上位階層があるか否かを決定する。上記の例では、ノードCがノードEより上位にある。現在選択されているノードより上位の他の階層のノードがある場合、デコード部554は、ブロック1320で、当該ノードについて検討した最後のマッピングに戻る。上記の例では、図16のマッピング1600に戻る必要がある。
ブロック1322で、デコード部554は、当該マッピングに、未検討のカバーされていない子ノードが他にあるか否かを決定する。検討すべきカバーされていない子ノードがまだ他にある場合、デコード部554はブロック1310に進み、カバーされていない子ノードを選択する。上記の例では、子ノードFを選択する必要がある。次に、デコード部554は、ブロック1304に進み、当該コンテクストにおいて当該ノードの最良のマッピングが特定されたか否かを決定する。最良のマッピングがまだ決定していない場合、デコード部554は、ステップ1306で、選択された子ノードをカバーするトランスファ・マッピング(たとえば図20のマッピング2000)を選択する。この例では、トランスファ・マッピング2000はまだスコアが付けられていない。ブロック1308で、デコード部554は、ノードFには、カバーされていない子ノードがないと決定する。したがって、デコード部554はブロック1312に進み、式3を使用してノードFのスコアを計算する。
デコード部554はブロック1314に進み、ノードFにトランスファ・マッピングがそれ以上あるか否かを決定する。この例では、ノードFをカバーする他のトランスファ・マッピングはない。したがって、デコード部554は、トランスファ・マッピング2000のスコアを記憶し、マッピング200の各モデル確率または情報ソース・スコアと、トランスファ・マッピング2000を評価した目的言語側コンテクストのn−a個のノードと、トランスファ・マッピング2000の先頭ノードに対応する入力ノードと、トランスファ・マッピング2000の合計スコアとを記憶する。
この例では、ソース言語LF1400のノードFよりも上位の階層が存在する。したがって、デコード部554はブロック1320に進み、検討したノードCの最後のマッピングに戻る。ブロック1322で、デコード部554は、ノードCの選択されたマッピングには、カバーされていない子ノードがないと決定する。したがって、デコード部554はブロック1312に進み、トランスファ・マッピング1600の合計スコアを計算する。
選択されたマッピングに、カバーされていない子ノードがある場合は、それらのカバーされていない子ノードの最高得点マッピングのスコアを、選択されたマッピングのスコアと結合することによって、当該マッピングのスコアを決定する。たとえば、マッピング1700とマッピング2000のスコアを、マッピング1600のスコアと結合して、ソース言語LFにおけるノードCより下位のマッピング全体の合計スコアを提供する。
一実施形態では、マッピング・スコアの各構成要素を別々に結合する。したがって、マッピング1600の合計目的言語モデル確率は、以下のようになる。
Figure 0004945086
上式で、
Figure 0004945086
は、マッピング1700の目的言語モデル確率であり、
Figure 0004945086
は、マッピング2000の目的言語モデル確率であり、
Figure 0004945086
は、マッピング1600の目的言語モデル確率である。
同様に、マッピング1600の合計チャネル・モデル確率は以下のようになり、
Figure 0004945086
マッピング1600の合計ファティリティ・モデル確率は、以下のようになる。
Figure 0004945086
マッピング1600の合計マッピング・サイズ・スコアは、以下のような、子マッピング・サイズ・スコアとマッピング1600のみのマッピング・サイズ・スコアの平均である。
Figure 0004945086
合計マッピング・サイズ・スコアと同様に、マッピング1600の合計ランク・スコアは、子ランク・スコアとマッピング1600のみのランク・スコアとの平均であり、以下のように表される
Figure 0004945086
各構成要素の合計スコアを求めた後は、前掲の式8を使用してそれらのスコアを結合して、選択されたマッピングの単一のスコアとする。
次に、デコード部554はブロック1314に進み、ノードCに他のトランスファ・マッピングが存在するか否かを決定する。この例では、ノードCには他のトランスファ・マッピングが存在せず、したがって、デコード部554はトランスファ・マッピング1600を、最高スコア・マッピングを有するものとして選択し、マッピング1600の合計スコアと、マッピング1600のコンテクスト(ノードA)と、マッピング1600の先頭ノード(ノードC)と、マッピング1600の個別合計構成要素スコアとを記憶する。
ブロック1318で、デコード部554は、ソース言語LF1400においてノードCより上位の階層が存在するか否かを決定する。この例では、ノードAがノードCより上位である。したがって、デコード部554は、ブロック1320に示すように、マッピングの次の上位階層に戻る。この例では、図15のマッピング1500に戻る必要がある。ブロック1322で、デコード部554は、選択されたマッピングが、検討を必要とするカバーされていない他の子ノードを持つか否かを決定する。この例では、カバーされていない他の子ノードはなく、したがって、デコード部554はブロック1312に進み、トランスファ・マッピング1500の合計スコアを計算する。マッピング1600と同様、トランスファ・マッピング1500の合計スコアは、マッピング1600のスコアをマッピング1500のスコアと結合することによって形成される。
次に、デコード部554はブロック1314に進み、ノードAに他のトランスファ・マッピングが存在するか否かを決定する。この例では、トランスファ・マッピング2100もノードAをカバーする。その結果として、プロセスはステップ1306に戻り、トランスファ・マッピング2100を選択する。
ステップ1308でプロセスは、マッピング2100が、カバーされていない子ノードを持つか否かを決定する。具体的には、ノードEおよびノードFがマッピング2100によってカバーされていない。ステップ1310で、ノードEが選択され、プロセスはステップ1304に戻り、上記でマッピング2100を選択した場合の現行コンテクスト(この場合、<PRE_ROOT、A’、C’>)においてノードEのために、最良のマッピングが選択されたか否かを決定する。そんな最良のマッピングが選択される(マッピング1700)。次に、この最良のマッピングとそのスコアが選択され、ステップ1320でプロセスはマッピング2100に戻る。
次に、プロセスは、検討すべきカバーされていない子ノードが他にあるか否かを決定する。マッピング2100の場合、子ノードFがまだ検討されておらず、ステップ1310で選択される。ステップ1304で、ノードDのコンテクストにおけるノードFの最良のマッピングが求められた(マッピング2000)と決定する。次に、この最良マッピングが選択され、ステップ1320でプロセスはマッピング2100に戻る。
ステップ1322に戻ると、検討すべきカバーされていない他の子ノードはなく、マッピング1700および2000の記憶されているスコアと、マッピング2100の個々のマッピング・スコアとを使用して、マッピング2100のスコアが計算される。以上のように、マッピング・スコアの個々の構成要素が別々に結合される。
ステップ1314で、他のトランスファ・マッピングは存在せず、したがって、デコード部554はブロック1316に進み、トランスファ・マッピング1500を先頭とするトランスファ・マッピング構造と、トランスファ・マッピング2100を先頭とするトランスファ・マッピング構造とのいずれかを、その2つのマッピング構造の各合計スコアに基づいて選択する。デコード部554は、最高スコアのトランスファ・マッピング構造の合計スコアを記憶し、ブロック1318に進む。ブロック1318で、デコード部は、ノードAより上位の階層が存在するか否かを決定する。この例では、ノードAはソース言語LF1400の最上位ノードであり、したがって、デコード部554はデコードを終了し、ノードAについて決定された最高スコアのトランスファ・マッピング構造に戻る。
図15から図21に示す記憶された最高スコアのトランスファ・マッピングに基づいて、トランスファ部526は目的言語LFを作成することができる。たとえば、トランスファ・マッピング1500、1600、1700、および1900が、最高スコア・トランスファ・マッピングとして選択され、したがって、目的言語翻訳についての最高確率を有する場合、これらは目的言語LFを形成するために結合される。
本発明では、統計モデルおよびその他のスコアリング技法などの情報ソースを使用して、ある意味構造の最良の翻訳を決定する。入力意味構造は、トランスファ・マッピングのセットに対して(一実施形態では)グリーディ検索アルゴリズムを使用して出力意味構造を生成ために、使用されている。しかし、グリーディ検索アルゴリズムは、トランスファ・マッピングの可能な組合せをすべて検査するわけではなく、単に、入力意味構造を完全にカバーするトランスファ・マッピングの最初のセットを選択するに過ぎない。また、統計モデルが、入力文字列が与えられた場合の最も可能性の高い出力文字列を予測するために、使用されている。しかし、文字列ベースのシステムで使用される統計的モデルは、要素が他の隣接要素またはほぼ隣接する要素に基づいて予測されることを仮定している。したがって、本発明は、意味構造の最良の翻訳を予測するために、統計的モデルを使用する。
本発明の意味構造に適用した目的言語モデルは、出力単語列の構築に使用することができるが、意味構造に適用した目的言語モデルは、他の言語プログラムにも使用することができる。たとえば、他のシステムとしては、音声認識、光学式文字認識、手書き文字認識、情報抽出、文法チェックなどがある。
本発明について、特定の実施形態を参照しながら説明したが、本発明の主旨および範囲から逸脱することなく、態様および詳細に変更を加えることができることが、当業者ならわかるであろう。
本発明を実施することができる一般的コンピューティング環境を示すブロック図である。 本発明を実施することができるモバイル装置を示すブロック図である。 論理形式の一例を示す図である。 論理形式の一例を示す図である。 本発明の一実施形態による機械翻訳構造を示すブロック図である。 トランスファ・マッピングの目的言語側の目的言語論理形式の一例を示す図である。 入力論理形式の一例を示す図である。 トランスファ・マッピング・データベースに格納されたトランスファ・マッピングの一例を示す図である。 トランスファ・マッピング・データベースに格納されたトランスファ・マッピングの一例を示す図である。 トランスファ・マッピング・データベースに格納されたトランスファ・マッピングの一例を示す図である。 入力論理形式の一例を示す図である。 トランスファ・マッピング・データベースに格納されたトランスファ・マッピングの一例を示す図である。 本発明の一実施形態によるデコード・アルゴリズムを示すフローチャートである。 図13のフローチャートと共に使用可能なソース言語論理形式の一例を示す図である。 図13のフローチャートと共に使用可能な、トランスファ・マッピング・データベースに格納されたトランスファ・マッピングの一例を示す図である。 図13のフローチャートと共に使用可能な、トランスファ・マッピング・データベースに格納されたトランスファ・マッピングの一例を示す図である。 図13のフローチャートと共に使用可能な、トランスファ・マッピング・データベースに格納されたトランスファ・マッピングの一例を示す図である。 図13のフローチャートと共に使用可能な、トランスファ・マッピング・データベースに格納されたトランスファ・マッピングの一例を示す図である。 図13のフローチャートと共に使用可能な、トランスファ・マッピング・データベースに格納されたトランスファ・マッピングの一例を示す図である。 図13のフローチャートと共に使用可能な、トランスファ・マッピング・データベースに格納されたトランスファ・マッピングの一例を示す図である。 図13のフローチャートと共に使用可能な、トランスファ・マッピング・データベースに格納されたトランスファ・マッピングの一例を示す図である。
符号の説明
100 コンピューティング・システム環境
110 コンピュータ
120 処理装置
121 システム・バス
130 システム・メモリ
134 オペレーティング・システム
135 アプリケーション・プログラム
136 その他のプログラム・モジュール
137 プログラム・データ
140 取外し不能不揮発性メモリ・インターフェース
141 ハードディスク・ドライブ
144 オペレーティング・システム
145 アプリケーション・プログラム
146 その他のプログラム・モジュール
147 プログラム・データ
150 取外し可能不揮発性メモリ・インターフェース
151 磁気ディスク・ドライブ
152 磁気ディスク
155 光ディスク・ドライブ
156 光ディスク
160 ユーザ入力インターフェース
161 ポインティング・デバイス
162 キーボード
163 マイクロフォン
170 ネットワーク・インターフェース
171 ローカル・エリア・ネットワーク
172 モデム
173 ワイド・エリア・ネットワーク
180 リモートコンピュータ
185 リモート・アプリケーション・プログラム
190 ビデオ・インターフェース
191 モニタ
195 出力周辺装置インターフェース
196 プリンタ
197 スピーカ
200 モバイル装置
202 プロセッサ
204 メモリ
208 通信インターフェース
214 アプリケーション・プログラム
216 オブジェクト・ストア
300、400 依存グラフ(論理形式)
500 機械翻訳システム
504 解析
506 解析
508 統計語彙連合学習
510 LFアライメント
512 LKB構築
514 二言語対訳辞書
518 トランスファ・マッピング・データベース
520 連合リスト
522 解析
524 検索
526 翻訳
528 生成
530 ソース言語センテンス
532 目的言語センテンス
534 ソース言語LF
536 目的言語LF
538 語対
542 LFトランスファ・マッピング
550 ソース言語テキスト
552 ソース言語LF
554 デコード
556 目的言語LF
558 目的言語テキスト
600 目的言語依存グラフ(論理形式)の例
700 入力LF
800、900,1000 トランスファ・マッピング
1100 入力LF
1200 トランスファ・マッピング
1400 ソース言語LF
1500、1600,1700,1800,1900,2000,2100 トランスファ・マッピング

Claims (14)

  1. 入力意味構造をデコードして出力意味構造を生成する方法であって、該方法は、プロセッサによって実行され、
    前記方法は、
    第1の言語の入力単語列に関連する前記入力意味構造の少なくとも一部分をカバーするトランスファ・マッピングのセットを提供するステップであって、各トランスファ・マッピングは、前記入力意味構造の少なくとも1つのノードを記述する第1の論理形式および前記出力意味構造の少なくとも1つのノードを記述する第2の論理形式を有する、ステップと、
    統計モデルを使用して前記入力意味構造の少なくとも1つの選択ノードをカバーする前記トランスファ・マッピングのセットのそれぞれのトランスファ・マッピングのスコアを計算するステップであって、前記それぞれのトランスファ・マッピングのスコアを計算するステップは、複数のモデルの別々のスコアを計算することと、前記別々のスコアを結合して前記入力意味構造の選択ノードを記述する前記トランスファ・マッピングのそれぞれのスコアを決定することとを含み、前記別々のスコアを結合することは、各スコアに重みを乗じて重み付きモデル・スコアを形成することと、前記重み付きモデル・スコアを合計して前記入力意味構造の選択ノードを記述する前記トランスファ・マッピングのそれぞれのスコアを決定することとをさらに含み、該それぞれのトランスファ・マッピングのスコアを計算するステップは、該トランスファ・マッピングによってカバーされていない該選択ノードの各子ノードについての最高スコアのマッピングのスコアを該トランスファ・マッピングのスコアと結合することを含む、ステップと、
    前記少なくとも1つの選択ノードをカバーする前記トランスファ・マッピングのセットの内の最高スコアのトランスファ・マッピングを選択するステップと、
    前記選択された最高スコアのトランスファ・マッピングを使用して、第2の言語の出力単語列に関連する前記出力意味構造を構築するステップと
    を含むことを特徴とする方法。
  2. 前記複数のモデルは、トランスファ・マッピングの前記第2の論理形式が与えられた場合の前記トランスファ・マッピングの第1の論理形式の確率を提供するチャネル・モデルを含むことを特徴とする請求項に記載の方法。
  3. 前記チャネル・モデルを使用してスコアを計算することは、トランスファ・マッピング間で重複するノードの数に基づいてチャネル・モデル・スコアを正規化することをさらに含むことを特徴とする請求項2に記載の方法。
  4. 前記複数のモデルは、トランスファ・マッピングにおけるノード削除の確率を提供するファティリティ・モデルを含むことを特徴とする請求項に記載の方法。
  5. 前記複数のモデルは、前記出力意味構造中にノードのセットが出現する確率を提供する目的言語モデルを含むことを特徴とする請求項に記載の方法。
  6. 前記入力意味構造の選択ノードを記述する前記トランスファ・マッピングのそれぞれのサイズ・スコアを計算するステップであって、該サイズ・スコアはそれぞれのトランスファ・マッピングの前記第1の論理形式のノードの数に基づくスコアである、ステップと、
    前記サイズ・スコアを前記複数のモデルの別々の前記スコアと結合して、前記入力意味構造の選択ノードを記述するそれぞれのトランスファ・マッピングのスコアを決定するステップと
    をさらに含むことを特徴とする請求項に記載の方法。
  7. 前記入力意味構造の選択ノードを記述する前記トランスファ・マッピングのそれぞれのランク・スコアを計算するステップであって、該ランク・スコアは前記入力意味構造と各トランスファ・マッピングの前記第1の論理形式とで適合する二項素性の数に基づくスコアである、ステップと、
    前記ランク・スコアを前記複数のモデルの別々の前記スコアと結合して前記入力意味構造の選択ノードを記述する前記トランスファ・マッピングのそれぞれのスコアを決定するステップと
    をさらに含むことを特徴とする請求項に記載の方法。
  8. 前記トランスファ・マッピングのセットを提供するステップは、ルート・トランスファ・マッピングおよびサブツリーを含む、木構造および複数階層のネストされたサブツリーとして配列されたトランスファ・マッピングのセットを提供するステップをさらに含み、各サブツリーはルート・トランスファ・マッピングを含み、前記トランスファ・マッピングのセット内の各トランスファ・マッピングは前記木構造およびサブツリーのうちの少なくとも1つにおいてルート・トランスファ・マッピングとして出現することを特徴とする請求項1に記載の方法。
  9. 第1の言語の入力を第2の言語の出力に翻訳する機械翻訳システムであって、
    前記機械翻訳システムは、
    プロセッサと、
    システムコンポーネントを実行するように前記プロセッサを構成するコンピュータ実行可能命令を格納するコンピュータ読み取り可能な記憶媒体と
    を備え、
    前記システムコンポーネントは、
    前記第1の言語の入力を入力意味表現に構文解析するパーサと、
    トランスファ・マッピングのセットを検出するように構成された検索部であって、各トランスファ・マッピングが前記入力意味表現の一部に対応する第1の論理形式を含む、検索部と、
    前記入力意味表現の選択部分に対応する前記トランスファ・マッピングのセットのそれぞれのトランスファ・マッピングのスコアを計算し、前記入力意味表現の選択部分に対応する前記トランスファ・マッピングのいずれが最高スコアを有するかを選択するように構成されたデコード部であって、前記それぞれのトランスファ・マッピングのスコアを計算することは、複数の統計モデルの別々のスコアを計算することと、前記別々のスコアを結合して前記入力意味表現の選択部分に対応する前記トランスファ・マッピングのそれぞれのスコアを決定することとを含み、前記別々のスコアを結合することは、各スコアに重みを乗じて重み付きモデル・スコアを形成することと、前記重み付きモデル・スコアを合計して前記入力意味表現の選択部分に対応する前記トランスファ・マッピングのそれぞれのスコアを決定することとをさらに含み、該それぞれのトランスファ・マッピングのスコアを計算することは、該トランスファ・マッピングによってカバーされていない選択ノードの各子ノードについての最高スコアのマッピングのスコアを該トランスファ・マッピングのスコアと結合することを含む、デコード部と、
    選択された前記トランスファ・マッピングに基づいて前記第2の言語の出力を生成するように構成された生成部と
    を含むことを特徴とする機械翻訳システム。
  10. 前記第2の言語の出力は出力意味表現を含み、前記複数の統計モデルは、前記出力意味表現内にノードのシーケンスが出現する確率を提供する目的言語モデルを含むことを特徴とする請求項に記載の機械翻訳システム。
  11. 前記複数の統計モデルは、前記トランスファ・マッピングの第2の論理形式の意味ノードのセットが与えられた場合のトランスファ・マッピングの第1の論理形式における意味ノードのセットの確率を提供するチャネル・モデルを含むことを特徴とする請求項に記載の機械翻訳システム。
  12. 前記複数の統計モデルは、前記トランスファ・マッピングにおけるノード削除の確率を提供するファティリティ・モデルを含むことを特徴とする請求項に記載の機械翻訳システム。
  13. 前記デコード部は、各トランスファ・マッピングの第1の論理形式のノードの数に基づくサイズ・スコアを使用して、当該トランスファ・マッピングのスコアを計算することを特徴とする請求項に記載の機械翻訳システム。
  14. 前記デコード部は、前記第1の言語の入力と各トランスファ・マッピングの第1の論理形式との間で適合する二項素性の数に基づくランク・スコアを使用して当該トランスファ・マッピングのスコアを計算することを特徴とする請求項に記載の機械翻訳システム。
JP2005098366A 2004-03-30 2005-03-30 論理形式のための統計的言語モデル Expired - Fee Related JP4945086B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/813,208 2004-03-30
US10/813,208 US7593843B2 (en) 2004-03-30 2004-03-30 Statistical language model for logical form using transfer mappings

Publications (2)

Publication Number Publication Date
JP2005285129A JP2005285129A (ja) 2005-10-13
JP4945086B2 true JP4945086B2 (ja) 2012-06-06

Family

ID=34887697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005098366A Expired - Fee Related JP4945086B2 (ja) 2004-03-30 2005-03-30 論理形式のための統計的言語モデル

Country Status (6)

Country Link
US (1) US7593843B2 (ja)
EP (1) EP1582997B1 (ja)
JP (1) JP4945086B2 (ja)
KR (1) KR101122850B1 (ja)
CN (1) CN1677388B (ja)
ES (1) ES2416359T3 (ja)

Families Citing this family (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8214196B2 (en) 2001-07-03 2012-07-03 University Of Southern California Syntax-based statistical translation model
WO2004001623A2 (en) 2002-03-26 2003-12-31 University Of Southern California Constructing a translation lexicon from comparable, non-parallel corpora
US8548794B2 (en) 2003-07-02 2013-10-01 University Of Southern California Statistical noun phrase translation
US8296127B2 (en) 2004-03-23 2012-10-23 University Of Southern California Discovery of parallel text portions in comparable collections of corpora and training using comparable texts
US8666725B2 (en) 2004-04-16 2014-03-04 University Of Southern California Selection and use of nonstatistical translation components in a statistical machine translation framework
DE112005002534T5 (de) * 2004-10-12 2007-11-08 University Of Southern California, Los Angeles Training für eine Text-Text-Anwendung, die eine Zeichenketten-Baum-Umwandlung zum Training und Decodieren verwendet
US8676563B2 (en) 2009-10-01 2014-03-18 Language Weaver, Inc. Providing human-generated and machine-generated trusted translations
US8886517B2 (en) 2005-06-17 2014-11-11 Language Weaver, Inc. Trust scoring for language translation systems
US20070010989A1 (en) * 2005-07-07 2007-01-11 International Business Machines Corporation Decoding procedure for statistical machine translation
US10983695B2 (en) * 2005-10-24 2021-04-20 Kinoma, Inc. Focus management system
US10319252B2 (en) 2005-11-09 2019-06-11 Sdl Inc. Language capability assessment and training apparatus and techniques
CN101030197A (zh) * 2006-02-28 2007-09-05 株式会社东芝 双语词对齐方法和装置、训练双语词对齐模型的方法和装置
US8943080B2 (en) 2006-04-07 2015-01-27 University Of Southern California Systems and methods for identifying parallel documents and sentence fragments in multilingual document collections
US7827028B2 (en) * 2006-04-07 2010-11-02 Basis Technology Corporation Method and system of machine translation
US8886518B1 (en) 2006-08-07 2014-11-11 Language Weaver, Inc. System and method for capitalizing machine translated text
US9471562B2 (en) * 2006-10-10 2016-10-18 Abbyy Infopoisk Llc Method and system for analyzing and translating various languages with use of semantic hierarchy
US8433556B2 (en) * 2006-11-02 2013-04-30 University Of Southern California Semi-supervised training for statistical word alignment
US9122674B1 (en) 2006-12-15 2015-09-01 Language Weaver, Inc. Use of annotations in statistical machine translation
US8468149B1 (en) 2007-01-26 2013-06-18 Language Weaver, Inc. Multi-lingual online community
US8615389B1 (en) 2007-03-16 2013-12-24 Language Weaver, Inc. Generation and exploitation of an approximate language model
US8185375B1 (en) * 2007-03-26 2012-05-22 Google Inc. Word alignment with bridge languages
US8326598B1 (en) 2007-03-26 2012-12-04 Google Inc. Consensus translations from multiple machine translation systems
US8332207B2 (en) * 2007-03-26 2012-12-11 Google Inc. Large language models in machine translation
US8831928B2 (en) 2007-04-04 2014-09-09 Language Weaver, Inc. Customizable machine translation service
US8825466B1 (en) 2007-06-08 2014-09-02 Language Weaver, Inc. Modification of annotated bilingual segment pairs in syntax-based machine translation
US8639509B2 (en) * 2007-07-27 2014-01-28 Robert Bosch Gmbh Method and system for computing or determining confidence scores for parse trees at all levels
US8180624B2 (en) * 2007-09-05 2012-05-15 Microsoft Corporation Fast beam-search decoding for phrasal statistical machine translation
JP5239307B2 (ja) * 2007-11-20 2013-07-17 富士ゼロックス株式会社 翻訳装置及び翻訳プログラム
US8209164B2 (en) * 2007-11-21 2012-06-26 University Of Washington Use of lexical translations for facilitating searches
US8849665B2 (en) * 2008-01-30 2014-09-30 At&T Intellectual Property I, L.P. System and method of providing machine translation from a source language to a target language
US8615388B2 (en) * 2008-03-28 2013-12-24 Microsoft Corporation Intra-language statistical machine translation
US8682660B1 (en) * 2008-05-21 2014-03-25 Resolvity, Inc. Method and system for post-processing speech recognition results
JP5288371B2 (ja) * 2008-06-03 2013-09-11 独立行政法人情報通信研究機構 統計的機械翻訳装置
WO2010046902A1 (en) * 2008-10-22 2010-04-29 Sankhya Technologies Private Limited System and method for automatically generating sentences of a language
US9798720B2 (en) * 2008-10-24 2017-10-24 Ebay Inc. Hybrid machine translation
US8185373B1 (en) * 2009-05-05 2012-05-22 The United States Of America As Represented By The Director, National Security Agency, The Method of assessing language translation and interpretation
US20100299132A1 (en) * 2009-05-22 2010-11-25 Microsoft Corporation Mining phrase pairs from an unstructured resource
US8990064B2 (en) 2009-07-28 2015-03-24 Language Weaver, Inc. Translating documents based on content
US8380486B2 (en) 2009-10-01 2013-02-19 Language Weaver, Inc. Providing machine-generated translations and corresponding trust levels
US10417646B2 (en) 2010-03-09 2019-09-17 Sdl Inc. Predicting the cost associated with translating textual content
US9069755B2 (en) * 2010-03-11 2015-06-30 Microsoft Technology Licensing, Llc N-gram model smoothing with independently controllable parameters
US8972930B2 (en) 2010-06-04 2015-03-03 Microsoft Corporation Generating text manipulation programs using input-output examples
US20110307240A1 (en) * 2010-06-10 2011-12-15 Microsoft Corporation Data modeling of multilingual taxonomical hierarchies
US9613115B2 (en) 2010-07-12 2017-04-04 Microsoft Technology Licensing, Llc Generating programs based on input-output examples using converter modules
KR101762866B1 (ko) * 2010-11-05 2017-08-16 에스케이플래닛 주식회사 구문 구조 변환 모델과 어휘 변환 모델을 결합한 기계 번역 장치 및 기계 번역 방법
US8407041B2 (en) * 2010-12-01 2013-03-26 Microsoft Corporation Integrative and discriminative technique for spoken utterance translation
US8600730B2 (en) * 2011-02-08 2013-12-03 Microsoft Corporation Language segmentation of multilingual texts
US11003838B2 (en) 2011-04-18 2021-05-11 Sdl Inc. Systems and methods for monitoring post translation editing
US8260615B1 (en) * 2011-04-25 2012-09-04 Google Inc. Cross-lingual initialization of language models
US8694303B2 (en) 2011-06-15 2014-04-08 Language Weaver, Inc. Systems and methods for tuning parameters in statistical machine translation
KR101870729B1 (ko) * 2011-09-01 2018-07-20 삼성전자주식회사 휴대용 단말기의 번역 트리구조를 이용한 번역장치 및 방법
CN103000052A (zh) * 2011-09-16 2013-03-27 上海先先信息科技有限公司 人机互动的口语对话系统及其实现方法
US8886515B2 (en) 2011-10-19 2014-11-11 Language Weaver, Inc. Systems and methods for enhancing machine translation post edit review processes
US8942973B2 (en) 2012-03-09 2015-01-27 Language Weaver, Inc. Content page URL translation
US10261994B2 (en) 2012-05-25 2019-04-16 Sdl Inc. Method and system for automatic management of reputation of translators
US9552335B2 (en) 2012-06-04 2017-01-24 Microsoft Technology Licensing, Llc Expedited techniques for generating string manipulation programs
CN102968409B (zh) * 2012-11-23 2015-09-09 海信集团有限公司 智能人机交互语义分析方法及交互系统
US9152622B2 (en) 2012-11-26 2015-10-06 Language Weaver, Inc. Personalized machine translation via online adaptation
US9786269B2 (en) * 2013-03-14 2017-10-10 Google Inc. Language modeling of complete language sequences
US9213694B2 (en) 2013-10-10 2015-12-15 Language Weaver, Inc. Efficient online domain adaptation
CN103810999B (zh) * 2014-02-27 2016-10-19 清华大学 基于分布式神经网络的语言模型训练方法及其系统
US9569526B2 (en) 2014-02-28 2017-02-14 Ebay Inc. Automatic machine translation using user feedback
US9530161B2 (en) 2014-02-28 2016-12-27 Ebay Inc. Automatic extraction of multilingual dictionary items from non-parallel, multilingual, semi-structured data
US9881006B2 (en) 2014-02-28 2018-01-30 Paypal, Inc. Methods for automatic generation of parallel corpora
US9940658B2 (en) 2014-02-28 2018-04-10 Paypal, Inc. Cross border transaction machine translation
GB201405025D0 (en) 2014-03-20 2014-05-07 Gould Tech Solutions Ltd Apparatus and method for content handling
US9740687B2 (en) 2014-06-11 2017-08-22 Facebook, Inc. Classifying languages for objects and entities
CN105279552B (zh) * 2014-06-18 2018-06-22 清华大学 一种基于字的神经网络的训练方法和装置
US9953646B2 (en) 2014-09-02 2018-04-24 Belleau Technologies Method and system for dynamic speech recognition and tracking of prewritten script
US9864744B2 (en) 2014-12-03 2018-01-09 Facebook, Inc. Mining multi-lingual data
US9830386B2 (en) 2014-12-30 2017-11-28 Facebook, Inc. Determining trending topics in social media
US10067936B2 (en) 2014-12-30 2018-09-04 Facebook, Inc. Machine translation output reranking
US9830404B2 (en) 2014-12-30 2017-11-28 Facebook, Inc. Analyzing language dependency structures
US9477652B2 (en) 2015-02-13 2016-10-25 Facebook, Inc. Machine learning dialect identification
CN106372053B (zh) * 2015-07-22 2020-04-28 华为技术有限公司 句法分析的方法和装置
CN106372054B (zh) * 2015-07-24 2020-10-09 中兴通讯股份有限公司 一种多语言语义解析的方法和装置
US9734142B2 (en) 2015-09-22 2017-08-15 Facebook, Inc. Universal translation
US9990361B2 (en) * 2015-10-08 2018-06-05 Facebook, Inc. Language independent representations
US10586168B2 (en) 2015-10-08 2020-03-10 Facebook, Inc. Deep translations
US10133738B2 (en) 2015-12-14 2018-11-20 Facebook, Inc. Translation confidence scores
US9734143B2 (en) 2015-12-17 2017-08-15 Facebook, Inc. Multi-media context language processing
US9747283B2 (en) 2015-12-28 2017-08-29 Facebook, Inc. Predicting future translations
US10002125B2 (en) 2015-12-28 2018-06-19 Facebook, Inc. Language model personalization
US9805029B2 (en) 2015-12-28 2017-10-31 Facebook, Inc. Predicting future translations
US10902221B1 (en) 2016-06-30 2021-01-26 Facebook, Inc. Social hash for language models
US10902215B1 (en) 2016-06-30 2021-01-26 Facebook, Inc. Social hash for language models
US10235336B1 (en) * 2016-09-14 2019-03-19 Compellon Incorporated Prescriptive analytics platform and polarity analysis engine
US11256710B2 (en) 2016-10-20 2022-02-22 Microsoft Technology Licensing, Llc String transformation sub-program suggestion
US11620304B2 (en) 2016-10-20 2023-04-04 Microsoft Technology Licensing, Llc Example management for string transformation
US10846298B2 (en) 2016-10-28 2020-11-24 Microsoft Technology Licensing, Llc Record profiling for dataset sampling
WO2018093904A1 (en) 2016-11-17 2018-05-24 Goldman Sachs & Co. LLC System and method for coupled detection of syntax and semantics for natural language understanding and generation
US10282415B2 (en) 2016-11-29 2019-05-07 Ebay Inc. Language identification for text strings
US10180935B2 (en) 2016-12-30 2019-01-15 Facebook, Inc. Identifying multiple languages in a content item
US10318634B2 (en) * 2017-01-02 2019-06-11 International Business Machines Corporation Enhancing QA system cognition with improved lexical simplification using multilingual resources
US10318633B2 (en) * 2017-01-02 2019-06-11 International Business Machines Corporation Using multilingual lexical resources to improve lexical simplification
CN106897268B (zh) * 2017-02-28 2020-06-02 科大讯飞股份有限公司 文本语义理解方法、装置和系统
US20190065462A1 (en) * 2017-08-31 2019-02-28 EMR.AI Inc. Automated medical report formatting system
US10380249B2 (en) 2017-10-02 2019-08-13 Facebook, Inc. Predicting future trending topics
US10671353B2 (en) 2018-01-31 2020-06-02 Microsoft Technology Licensing, Llc Programming-by-example using disjunctive programs
US11068758B1 (en) 2019-08-14 2021-07-20 Compellon Incorporated Polarity semantics engine analytics platform
CN111090460B (zh) * 2019-10-12 2021-05-04 浙江大学 一种基于最近邻算法的代码变更日志自动生成方法
CN114333830A (zh) * 2020-09-30 2022-04-12 中兴通讯股份有限公司 同声传译模型的训练方法、同声传译方法、设备和存储介质
US20240062021A1 (en) * 2022-08-22 2024-02-22 Oracle International Corporation Calibrating confidence scores of a machine learning model trained as a natural language interface

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US547745A (en) * 1895-10-08 Shend
JPS58201175A (ja) * 1982-05-20 1983-11-22 Kokusai Denshin Denwa Co Ltd <Kdd> 機械翻訳方式
JP2814634B2 (ja) * 1989-12-29 1998-10-27 松下電器産業株式会社 機械翻訳装置
US5329446A (en) * 1990-01-19 1994-07-12 Sharp Kabushiki Kaisha Translation machine
US5289375A (en) * 1990-01-22 1994-02-22 Sharp Kabushiki Kaisha Translation machine
US5418717A (en) * 1990-08-27 1995-05-23 Su; Keh-Yih Multiple score language processing system
US5477451A (en) * 1991-07-25 1995-12-19 International Business Machines Corp. Method and system for natural language translation
JP2968151B2 (ja) * 1993-06-17 1999-10-25 シャープ株式会社 機械翻訳装置
GB2295470A (en) * 1994-11-28 1996-05-29 Sharp Kk Machine translation system
US5643088A (en) * 1995-05-31 1997-07-01 Interactive Network, Inc. Game of skill or chance playable by remote participants in conjunction with a common game event including inserted interactive advertising
US6769128B1 (en) * 1995-06-07 2004-07-27 United Video Properties, Inc. Electronic television program guide schedule system and method with data feed access
US6233545B1 (en) * 1997-05-01 2001-05-15 William E. Datig Universal machine translator of arbitrary languages utilizing epistemic moments
US6804825B1 (en) * 1998-11-30 2004-10-12 Microsoft Corporation Video on demand methods and systems
US6330530B1 (en) * 1999-10-18 2001-12-11 Sony Corporation Method and system for transforming a source language linguistic structure into a target language linguistic structure based on example linguistic feature structures
US6942574B1 (en) * 2000-09-19 2005-09-13 Igt Method and apparatus for providing entertainment content on a gaming machine
US7734459B2 (en) * 2001-06-01 2010-06-08 Microsoft Corporation Automatic extraction of transfer mappings from bilingual corpora
US7050964B2 (en) * 2001-06-01 2006-05-23 Microsoft Corporation Scaleable machine translation system
US7249012B2 (en) * 2002-11-20 2007-07-24 Microsoft Corporation Statistical method and apparatus for learning translation relationships among phrases
WO2005002697A1 (en) * 2003-06-29 2005-01-13 Nds Limited Interactive inter-channel game
US7580080B2 (en) * 2005-11-22 2009-08-25 Gateway, Inc. Automatic launch of picture-in-picture during commercials

Also Published As

Publication number Publication date
CN1677388B (zh) 2011-02-02
US7593843B2 (en) 2009-09-22
US20050228640A1 (en) 2005-10-13
ES2416359T3 (es) 2013-07-31
JP2005285129A (ja) 2005-10-13
KR20060045349A (ko) 2006-05-17
EP1582997A3 (en) 2008-08-20
KR101122850B1 (ko) 2012-04-19
CN1677388A (zh) 2005-10-05
EP1582997A2 (en) 2005-10-05
EP1582997B1 (en) 2013-05-08

Similar Documents

Publication Publication Date Title
JP4945086B2 (ja) 論理形式のための統計的言語モデル
JP4694121B2 (ja) 句の間の翻訳関係を学習するための統計的な方法および装置
KR101084786B1 (ko) 트리 서열화 컴포넌트를 저장하는 컴퓨터 판독가능 기록매체
US7493251B2 (en) Using source-channel models for word segmentation
US7050964B2 (en) Scaleable machine translation system
JP4993762B2 (ja) 用例ベースの機械翻訳システム
US7266491B2 (en) Statistically driven sentence realizing method and apparatus
US6990439B2 (en) Method and apparatus for performing machine translation using a unified language model and translation model
US8185377B2 (en) Diagnostic evaluation of machine translators
KR101120798B1 (ko) 텍스트로부터 세만틱 구조들을 식별하기 위한 방법 및장치
KR101130457B1 (ko) 트리렛 번역쌍 추출
US20060282255A1 (en) Collocation translation from monolingual and available bilingual corpora
JP5497048B2 (ja) コンパラブルコーパスを使用する固有表現の翻字
US20080208566A1 (en) Automated word-form transformation and part of speech tag assignment
EP3598321A1 (en) Method for parsing natural language text with constituent construction links
US8224642B2 (en) Automated identification of documents as not belonging to any language
US10810368B2 (en) Method for parsing natural language text with constituent construction links
US20070016397A1 (en) Collocation translation using monolingual corpora

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110809

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111208

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20111209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20111209

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120305

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4945086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees