JP2005302023A - ユーザモデリングによる効率のよい大文字化 - Google Patents

ユーザモデリングによる効率のよい大文字化 Download PDF

Info

Publication number
JP2005302023A
JP2005302023A JP2005110069A JP2005110069A JP2005302023A JP 2005302023 A JP2005302023 A JP 2005302023A JP 2005110069 A JP2005110069 A JP 2005110069A JP 2005110069 A JP2005110069 A JP 2005110069A JP 2005302023 A JP2005302023 A JP 2005302023A
Authority
JP
Japan
Prior art keywords
capitalization
word
training
computer
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005110069A
Other languages
English (en)
Other versions
JP4672418B2 (ja
JP2005302023A5 (ja
Inventor
Dong Yu
ユ ドン
Peter K L Mau
ケー.エル.マウ ピーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2005302023A publication Critical patent/JP2005302023A/ja
Publication of JP2005302023A5 publication Critical patent/JP2005302023A5/ja
Application granted granted Critical
Publication of JP4672418B2 publication Critical patent/JP4672418B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/232Orthographic correction, e.g. spell checking or vowelisation
    • EFIXED CONSTRUCTIONS
    • E03WATER SUPPLY; SEWERAGE
    • E03FSEWERS; CESSPOOLS
    • E03F5/00Sewerage structures
    • E03F5/04Gullies inlets, road sinks, floor drains with or without odour seals or sediment traps
    • E03F5/042Arrangements of means against overflow of water, backing-up from the drain
    • EFIXED CONSTRUCTIONS
    • E03WATER SUPPLY; SEWERAGE
    • E03FSEWERS; CESSPOOLS
    • E03F5/00Sewerage structures
    • E03F5/04Gullies inlets, road sinks, floor drains with or without odour seals or sediment traps
    • E03F2005/0416Gullies inlets, road sinks, floor drains with or without odour seals or sediment traps with an odour seal
    • E03F2005/0417Gullies inlets, road sinks, floor drains with or without odour seals or sediment traps with an odour seal in the form of a valve

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Water Supply & Treatment (AREA)
  • Public Health (AREA)
  • Hydrology & Water Resources (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Acyclic And Carbocyclic Compounds In Medicinal Compositions (AREA)
  • Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)

Abstract

【課題】 ユーザモデリングによる効率のよい大文字化処理を可能にする。
【解決手段】 テキストを自動的に大文字化する方法として、キャピタライゼーションモデル312を利用する。このキャピタライゼーションモデルは、個々のユーザに関連付けられた文書から取られたデータからトレーニングされる。特に、電子メールなど、そのユーザによって書かれた文書を用いてモデル312がトレーニングされる。
【選択図】 図3

Description

本発明は、自動テキスト訂正(automatic text correction)に関する。より詳細には、本発明は、自動大文字化(automatic capitalization)に関する。
ユーザ入力から生成されたテキストは、しばしば、大文字化誤り(capitalization error)を含むことがある。これは、音声認識システムによって生成されたテキストでは特によく起こることである。そのような認識システムは、通常、各文および一部の既知の名称の最初のワードを大文字化(capitalizing)するための簡単なルールを含むが、それらは、決まって、テキスト中の多くのワードを大文字化(capitalize)し損なう。その結果、音声認識システムでの大文字化誤り率(capitalization error rate)は約5%になる。これは、音声認識システムによって提供されるテキスト中に存在する誤りへの多大な貢献を表すものである。
これまで、自動大文字化システム(automatic capitalization)が開発されている。しかしながら、そうしたこれまでのシステムは理想的とは言えない。1つのそのようなシステムによれば、大規模な文書コーパスに基づいてキャピタライゼーションルール(大文字化規則:capitalization rule)が策定される。それらのシステムが大規模なコーパスを使用するのは、大規模なコーパスが可能なキャピタライゼーションフォーム(capitalization form)のより適切な適用範囲を提供し、ゆえに、より正確な大文字化システムを提供するであろうと考えられるからである。
しかしながら、そのようなシステムには多くの欠陥がある。まず、大規模なコーパスが使用されるため、キャピタライゼーションルール(大文字化規則:capitalization rule)自体が非常に大きくなり、テキスト中の各ワードごとにキャピタライゼーションルールをサーチすることを非効率的にする。また、ルールが大規模なコーパスから導出されるため、それらのルールは、通常、モデルが出荷される前に一度導出され、そのモデルが出荷された後は更新されない。その結果、そのモデルは、新しいキャピタライゼーションフォーム(capitalization form)に適合しないことになる。さらに、個々のユーザは、その大規模なコーパス中の文書の未知の著者とは異なるようにワードを大文字化し得る。その結果、そのモデルは、ユーザが期待するように動作しないことがある。
他のシステムでは、受け入れ可能な大文字使用のリスト(list of acceptable capitalization)が言語専門家によって生成される。このリストは、大規模なコーパスよりも縮約されたものであるが、専門家の関与を必要とするため作成するのに高くつくという問題がある。
テキストを自動的に大文字化(automatically capitalizing text)する方法は、キャピタライゼーションモデル(capitalization model)を利用する。このキャピタライゼーションモデルは、個々のユーザに関連付けられた文書(document)から取られたデータからトレーニング(train)される。特に、電子メールなどそのユーザによって書かれた文書を用いて、上記モデルがトレーニングされる。
図1は、本発明を実施し得る適当なコンピューティングシステム環境100の一例を示す。コンピューティングシステム環境100は、適当なコンピューティング環境の一例にすぎず、本発明の用途または機能の範囲についてのどんな限定を示唆するためのものでもない。また、コンピューティング環境100は、例示的動作環境100に示す構成要素のいずれか1つまたはそれらの組み合わせに関連するどんな依存関係または要件を有するとも解釈すべきではない。
本発明は、他の多数の汎用または専用コンピューティングシステム環境または構成を用いて動作する。本発明と共に使用するのに適すると考えられるよく知られているコンピューティングシステム、環境、および/または構成の例には、それだけに限らないが、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドまたはラップトップコンピュータ、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラム可能家庭用電化製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、電話技術システム、上記のシステムまたは装置のいずれかを含む分散コンピューティング環境などが含まれる。
本発明は、コンピュータにより実行される、プログラムモジュールなどのコンピュータ実行可能命令の一般的状況で説明することができる。一般に、プログラムモジュールには、個々のタスクを実行し、または個々の抽象データ型を実施するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などが含まれる。本発明は、通信ネットワークを介してリンクされたリモート処理ユニットによりタスクが実行される分散コンピューティング環境で実施されるように設計される。分散コンピューティング環境では、プログラムモジュールは、記憶装置を含むローカルとリモート両方のコンピュータ記憶媒体に位置し得る。
図1を参照すると、本発明を実施する例示的システムは、コンピュータ110の形で汎用コンピューティングデバイスを含む。コンピュータ110の構成要素には、それだけに限らないが、処理ユニット120、システムメモリ130、およびシステムメモリを含む様々なシステム構成要素を処理ユニット120に結合するシステムバス121が含まれ得る。システムバス121は、様々なバスアーキテクチャのいずれかを使用したメモリバスまたはメモリコントローラ、周辺バス、およびローカルバスを含むいくつかの種類のバス構造のいずれでもよい。例をあげると、それだけに限らないが、そのようなアーキテクチャには、産業標準アーキテクチャ(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、拡張ISA(EISA)バス、ビデオ電子装置規格化協会(VESA)ローカルバス、およびメザニンバスとも呼ばれる周辺装置相互接続(PCI)バスが含まれる。
コンピュータ110は、通常、様々なコンピュータ可読媒体を含む。コンピュータ可読媒体は、コンピュータ110からアクセスし得る任意の使用可能な媒体とすることができ、それには揮発性媒体と不揮発性媒体の両方、取り外し可能媒体と取り外し不能媒体の両方が含まれる。例をあげると、それだけに限らないが、コンピュータ可読媒体には、コンピュータ記憶媒体および通信媒体が含まれ得る。コンピュータ記憶媒体には、コンピュータ可読命令、データ構造、プログラムモジュールまたはその他のデータなどの情報を記憶するための任意の方法または技術で実施された、揮発性と不揮発性両方、取り外し可能と取り外し不能両方の媒体が含まれる。コンピュータ記憶媒体には、それだけに限らないが、RAM、ROM、EEPROM、フラッシュメモリなどのメモリ技術、CD−ROM、ディジタル多用途ディスク(DVD)などの光ディスク記憶、磁気カセット、磁気テープ、磁気ディスク記憶などの磁気記憶装置、あるいは所望の情報の記憶に使用でき、コンピュータ110からアクセスし得る他の任意の媒体が含まれる。通信媒体は、通常、コンピュータ可読命令、データ構造、プログラムモジュールまたはその他のデータを、搬送波または他の搬送機構などの変調データ信号として実施し、任意の情報配信媒体を含む。「被変調データ信号(modulated data signal)」という用語は、その特性の1つまたは複数が、その信号に情報を符号化するような方式で設定または変更されている信号を意味する。例をあげると、それだけに限らないが、通信媒体には、有線ネットワークや直接配線接続などの有線媒体、および音響、RF、赤外線、その他の無線媒体などの無線媒体が含まれる。上記のいずれかの組み合わせも、コンピュータ可読媒体の範囲内に含むべきである。
システムメモリ130は、読取り専用メモリ(ROM)131やランダムアクセスメモリ(RAM)132などの揮発性および/または不揮発性メモリの形でコンピュータ記憶媒体を含む。始動時などに、コンピュータ110内の要素間の情報転送を支援する基本ルーチンを含む基本入出力システム(BIOS)133は、通常、ROM131に記憶される。RAM132は、通常、処理ユニット120から直ちにアクセス可能であり、かつ/またはそれによって現在処理されているデータおよび/またはプログラムモジュールを含む。例として、それだけに限らないが、図1に、オペレーティングシステム134、アプリケーションプログラム135、その他のプログラムモジュール136、およびプログラムデータ137を示す。
コンピュータ110は、他の取り外し可能/取り外し不能、揮発性/不揮発性コンピュータ記憶媒体も含み得る。例にすぎないが、図1に、取り外し不能、不揮発性磁気媒体との間で読取りまたは書込みを行うハードディスクドライブ141、取り外し可能、不揮発性磁気ディスク152との間で読取りまたは書込みを行う磁気ディスクドライブ151、およびCD−ROMまたは他の光媒体などの取り外し可能、不揮発性光ディスク156との間で読取りまたは書込みを行う光ディスクドライブ155を示す。例示的動作環境で使用され得る他の取り外し可能/取り外し不能、揮発性/不揮発性のコンピュータ記憶媒体には、それだけに限らないが、磁気テープカセット、フラッシュメモリカード、ディジタル多用途ディスク、ディジタルビデオテープ、ソリッドステートRAM、ソリッドステートROMなどが含まれる。ハードディスクドライブ141は、通常、インターフェイス140などの取り外し不能メモリインターフェイスを介してシステムバス121に接続され、磁気ディスクドライブ151および光ディスクドライブ155は、通常、インターフェイス150などの取り外し可能メモリインターフェイスによってシステムバス121に接続される。
前述の、図1に示す各ドライブおよびそれに関連するコンピュータ記憶媒体は、コンピュータ110のためのコンピュータ可読命令、データ構造、プログラムモジュールおよびその他のデータの記憶を提供する。図1では、例えば、ハードディスクドライブ141は、オペレーティングシステム144、アプリケーションプログラム145、その他のプログラムモジュール146、およびプログラムデータ147を格納するものとして示されている。これらのコンポーネントは、オペレーティングシステム134、アプリケーションプログラム135、その他のプログラムモジュール136、およびプログラムデータ137と同じでも、異なっていてもよいことに留意されたい。オペレーティングシステム144、アプリケーションプログラム145、その他のプログラムモジュール146、およびプログラムデータ147には、少なくともそれらが異なるコピーであることを示すために、図では異なる番号を付してある。
ユーザは、キーボード162や、マイクロホン163や、マウス、トラックボール、タッチパッドといったポインティングデバイス161などの入力装置を介してコンピュータ110にコマンドおよび情報を入力することができる。他の入力装置(図示せず)には、ジョイスティック、ゲームパッド、衛星パラボラアンテナ、スキャナなどが含まれ得る。上記その他の入力装置は、しばしば、システムバス121に結合されたユーザ入力インターフェイス160を介して処理ユニット120に接続されるが、パラレルポート、ゲームポート、ユニバーサルシリアルバス(USB)といった他のインターフェイスおよびバス構造によって接続することもできる。システムバス121には、ビデオインターフェイス190などのインターフェイスを介して、モニタ191または他の種類の表示装置も接続される。モニタ191以外に、コンピュータは、スピーカ197やプリンタ196など他の周辺出力装置を含むこともでき、それらは、出力周辺インターフェイス195を介して接続され得る。
コンピュータ110は、リモートコンピュータ180など、1つまたは複数のリモートコンピュータへの論理接続を使用したネットワーク化環境で動作し得る。リモートコンピュータ180は、パーソナルコンピュータ、ハンドヘルド機器、サーバ、ルータ、ネットワークPC、ピアデバイスなどの一般的ネットワークノードとすることができ、通常は、コンピュータ110に関連して前述した要素の多くまたはすべてを含む。図1に示す論理接続には、ローカルエリアネットワーク(LAN)171および広域ネットワーク(WAN)173が含まれるが、他のネットワークも含まれ得る。そのようなネットワーク環境は、オフィス、企業規模のコンピュータネットワーク、イントラネットおよびインターネットではよく見られるものである。
LANネットワーク環境で使用されるとき、コンピュータ110はネットワークインターフェイスまたはアダプタ170を介してLAN171に接続される。WANネットワーク環境で使用されるとき、コンピュータ110は、通常、モデム172またはインターネットなどのWAN173を介して通信を確立する他の手段を含む。モデム172は、内蔵でも外付けでもよく、ユーザ入力インターフェイス160または他の適当な機構を介してシステムバス121に接続することができる。ネットワーク化環境では、コンピュータ110に関連して示すプログラムモジュール、またはその一部は、リモート記憶装置にも格納し得る。例として、それだけに限らないが、図1に、リモートコンピュータ180上にあるものとしてリモートアプリケーションプログラム185を示す。図示のネットワーク接続は例示的なものであり、コンピュータ間で通信を確立する他の手段も使用され得ることが理解されるであろう。
図2は、例示的コンピューティング環境であるモバイル機器200を示すブロック図である。モバイル機器200は、マイクロプロセッサ202、メモリ204、入出力(I/O)コンポーネント206、およびリモートコンピュータまたは他のモバイル機器と通信するための通信インターフェイス208を含む。一実施形態では、前述の構成要素は、相互の通信のために適当なバス210を介して結合される。
メモリ204は、モバイル機器200への全体電源が停止されたときにメモリ204に記憶された情報が失われないように、バッテリバックアップモジュール(図示せず)を備えるランダムアクセスメモリ(RAM)などの不揮発性電子メモリとして実施される。メモリ204の一部は、好ましくは、プログラム実行のためのアドレス指定可能メモリとして割り振られ、メモリ204の別の部分は、好ましくは、ディスクドライブ上の記憶をシミュレートするなどの記憶のために使用される。
メモリ204は、オペレーティングシステム212、アプリケーションプログラム214ならびにオブジェクトストア216を含む。動作中、オペレーティングシステム212は、好ましくは、メモリ204からプロセッサ202によって実行される。オペレーティングシステム212は、好ましい一実施形態では、マイクロソフト社から市販されているWINDOWS(登録商標)CEブランドのオペレーティングシステムである。オペレーティングシステム212は、好ましくは、モバイル機器用に設計され、1組の公開されたアプリケーションプログラミングのインターフェイスおよび方法を介してアプリケーション214によって利用され得るデータベース機能を実施する。オブジェクトストア216中のオブジェクトは、少なくとも一部は公開されたアプリケーションプログラミングのインターフェイスおよび方法への呼び出しに応答して、アプリケーション214およびオペレーティングシステム212によって維持される。
通信インターフェイス208は、モバイル機器200が情報を送受信できるようにする多数の装置および技術を表す。これらの装置には、いくつか例をあげると、有線および無線モデム、衛星受信機、放送チューナなどが含まれる。モバイル機器200は、コンピュータに直接接続してデータをやりとりすることもできる。そのような場合、通信インターフェイス208は、赤外線送受信機あるいはシリアル/パラレル通信接続とすることができ、そのすべてがストリーミング情報を送信し得る。
入出力コンポーネント206には、タッチスクリーン、ボタン、ローラ、マイクロホンなど様々な入力装置、および音声発生器、振動装置、ディスプレイを含む様々な出力装置が含まれる。上記の装置は例としてあげたものであり、すべてがモバイル機器200上にある必要はない。また、本発明の範囲内で、他の入出力装置をモバイル機器200に接続し、またはこれと一緒に使用することもできる。
本発明によれば、特定のユーザのために、そのユーザによって書かれ、またはそのユーザに関連付けられた文書を利用することによって、キャピタライゼーションモデルが構築される。大文字化トレーニングデータを、そのユーザによって書かれ、またはそのユーザに関連付けられた文書に限定することによって、キャピタライゼーションモデルのサイズが縮小される一方で、キャピタライゼーションモデルが、その特定のユーザにとってより正確なものになる。特に、ユーザのデータから構築されるキャピタライゼーションモデルは、ユーザが使用することを望むキャピタライゼーションフォームを含み、ユーザが許容可能であると認めないキャピタライゼーションフォームを含まない。ゆえに、トレーニングデータを、そのユーザに関連付けられ、またはそのユーザによって書かれたデータのみに縮小することにより、本発明のキャピタライゼーションモデルは、より効率的で、より正確なものになる。
図3および図4は、それぞれ、本発明の実施形態によるキャピタライゼーションモデルの構成および使用を示すブロック図および流れ図を提示する。
図4のステップ400において、図3のモデルアップデートユニット301のハーベスタ(harvester)300は、ユーザに関連付けられた、アプリケーション文書302や電子メール304などの文書を獲得する。一実施形態によれば、ハーベスタ300は周期的に実行され、ハーベスタが最後に実行されたときに存在しなかった文書だけを取り出す。
一実施形態では、ハーベスタ300は、ユーザによって書かれた文書だけを獲得する。それには、ユーザによって書かれた文書、およびユーザによって転送され、または返信された電子メールを含むユーザによって送信された電子メールが含まれる。そのため、ユーザがその電子メールを転送し、またはそれに返信した場合は、誰か他の人によって書かれた電子メールがそのユーザによるものとされ得る。他の実施形態では、ユーザによって開かれた任意の文書が、そのユーザによって書かれたものであるか否かを問わず、ハーベスタ300によって獲得される。別の実施形態では、ネットワーク上ではなくユーザのローカルマシン上に記憶された文書がハーベスタ300によって獲得される。別の実施形態では、大文字化トレーニング(capitalization training)用の文書を探し出す(locate)ために、ユーザに関連付けられたネットワーク上に位置するディレクトリもハーベスタ300によってサーチされる。
図4のステップ402において、大文字使用カウンタ306は、ハーベスタ300によって獲得されたテキストに基づき、キャピタライゼーションフォームの出現カウントを更新する。これは、好ましくは、段落ごとに行われる。カウントには、大文字使用語の割合が高くない段落だけが使用される。この更新ステップの間、カウンタ306は、1つのテキストセグメントの大文字と小文字の各一意の組み合わせを別個のキャピタライゼーションフォームとして扱う。ゆえに、「State Department」と「STATE DEPARTMENT」は、テキストセグメント「state department」の2つの異なるキャピタライゼーションフォームを表す。テキストセグメントは、シングルワード(single word)を含むことも、この例に示すようにワードのシーケンスを含むことできる。また、セグメントは、1ワード(one word)や2ワード(two word)など特定の長さのセット(set of specific length)に限定(limit)することもでき、その長さを全く限定しないこともできる。
獲得した文書(harvested document)中の各テキストセグメント(text segment)ごとに、キャピタライゼーションカウンタ(capitalization counter)306は、そのセグメントが出現リスト(occurrence list)308に出現するかどうか判定する。そのセグメントが出現リスト308に出現せず、大文字も含まない場合、それは無視される。そのセグメントが出現リスト308に出現せず、単にそのセグメント中のワードの1つが文頭にあるだけのために大文字使用を含む場合、そのセグメントはやはり無視される。そのセグメントが出現リスト308に出現し、かつ/またはそのセグメントが大文字使用を含む場合、そのセグメントのキャピタライゼーションフォームのカウントが出現リスト308で増分される。
一実施形態によれば、出現リスト308は、小文字使用形で書かれた各セグメントごとの主エントリ(primary entry)と、そのセグメントの各キャピタライゼーションフォームごとのサブエントリ(sub-entry)からなる。例えば、出現リスト308は、
<segment, total_occurrences>
<cap_form1, occurrence_1>
<cap_form2, occurrence_2>

<cap_formn, occurrence_n>
のフォーマットを持つことができ、その場合、主エントリは、すべて小文字で書かれたその「セグメント」と、そのセグメントのキャピタライゼーションフォームにかかわらず、その文書中にそのセグメントが出現する合計回数を示す合計出現値からなる。各サブエントリは、「cap_form1」、「cap_form2」、「cap_formn」などの特定のキャピタライゼーションフォームと、その文書中で各キャピタライゼーションフォームが見つかった回数を提供する「occurrence_1」、「occurrence_2」、「occurrence_n」などのカウントからなる。例えば、「state」というワードが、「state」として1回、「State」として2回、「STATE」として4回出現した場合、その主エントリは、「state」という形を合計出現値(total _ occurrences value)7と共に含み、サブエントリの一方は、出現値(occurrence value)2を持つ「State」のものになり、サブエントリのもう一方は出現値4を持つ「STATE」のものになるはずである。
キャピタライゼーションカウンタ306が、あるセグメントの新しいキャピタライゼーションフォームに遭遇すると、そのセグメントの主エントリがすでに出現リスト308に存在していた場合には、そのキャピタライゼーションフォームの新しいサブエントリが加えられ、主エントリの合計出現カウントが1増分される。そのセグメントが出現リスト308に存在していなかった場合には、そのセグメントの主エントリが、そのトレーニングデータ中で遭遇した特定のキャピタライゼーションフォームのサブエントリと一緒に出現リスト308に加えられる。出現リスト308に存在するキャピタライゼーションフォームに遭遇した場合、そのセグメントの合計出現カウントが1増分され、その特定のキャピタライゼーションフォームの出現カウントが1増分される。
文書中であるセグメントの小文字使用例に遭遇し、そのセグメントが出現リスト308に存在する場合には、そのワードのキャピタライゼーションフォームのいずれも増分せずに、そのセグメントの主エントリの合計出現カウントが1増分される。トレーニングデータ中であるセグメントの小文字使用例に遭遇しても、そのセグメントの主エントリがない場合は、そのセグメントは無視されることに留意されたい。
ある特定の実施形態によれば、セグメント(segments)は、ワード対(word pairs)とシングルワード(single words)からなる。一実施形態によれば、ワード対は、そのワード対の両方のワードが何らかのキャピタライゼーションフォームを含むとき、またはそのワード対の一方のワードが何らかのキャピタライゼーションフォームを含み、そのワード対の第2のワードが、そのワード対の大文字使用語を別の大文字使用語に接続するワード前置詞からなるときに記憶される。例えば、「University of Washington」という語句では、1つのワード対は「University of」として形成され、第2のワード対は「of Washington」として形成される。これらのワード対のそれぞれは、出現リスト308に別個の主エントリ下のサブエントリとして入れられるはずである。他の実施形態では、少なくとも1つの大文字を含む任意のワードのシーケンスが、出現リスト308に別個のエントリとして記憶され得る。そのようなシステムは、多数の一意の文字列を記憶することが必要になるため、大量のメモリを必要とする。
一実施形態によれば、ある文書中の2ワードについてワード対が記憶され得る場合、そのワード対における大文字化ワード(capitalized word)のためのシングルワードエントリ(single word entry)は作成されない。例えば、文書中に「University of」が含まれる場合、出現リスト308にシングルワード対エントリ(single word pair entry)「University of」が入れられ、またはそれが更新される。しかしながら、出現リスト308で、「University」単独でのエントリは更新されない。
本発明のいくつかの実施形態によれば、キャピタライゼーションカウンタ306は、ユーザとそのセグメントが出現する文書の関係に応じて各出現に異なる重みを適用する。ある特定の実施形態では、文書がユーザによって書かれたものである場合、出現カウントに重み(weight)1が適用され、文書がユーザによって書かれたものではなく、そのユーザに関連付けられたものである場合、その出現カウントに、0.5または0.1といったより低い重み(lower weight)が適用される。
ステップ402において出現カウント(occurrence count)が更新された後、ルールビルダ(rule builder)307は、出現リスト308中の各セグメントごとに最も可能性の高いキャピタライゼーションフォームを選択する。一実施形態では、これは、最大出現カウントを持つキャピタライゼーションフォームを選択することによってなされる。この選択プロセスの間、そのセグメントの小文字使用形(lower case form)は、そのセグメントの1つの可能なキャピタライゼーションフォームであるとみなされる。セグメントの小文字使用形のカウントは、そのセグメントの合計出現カウントからその小文字使用形以外のキャピタライゼーションフォームすべての出現カウントの和を差し引くことにより導出される。結果として生じる差が様々なキャピタライゼーションフォームの出現カウントすべてより大きい場合、そのワードの小文字使用形が最も可能性の高いキャピタライゼーションフォームとして選択される。
ステップ404において各セグメントの最も可能性の高いキャピタライゼーションフォームが選択された後、ステップ405において、ルールビルダ307が1組のキャピタライゼーションルール(capitalization rule)309を構築する。次いで、ステップ406において、プルーニング(枝刈り:pruning)要素310がいくつかのキャピタライゼーションルールを除去する。具体的には、ステップ404の後、ある大文字使用語のより一般的なルールが存在する場合、その相対的に特殊なルールが除去される。例えば、「Microsoft」が存在する場合、より特殊なエントリ「from Microsoft」は除去される。同様に、「Microsoft」と「Office」が両方とも存在する場合、「Microsoft Office」でのエントリは除去される。より大きなセグメントを除去するために、ワードのシーケンス中の大文字使用を伴うワードすべてがより小さいセグメントとして存在する必要があることに留意されたい。例えば、前述の例で「Office」が存在しなかった場合、「Microsoft Office」のエントリは、リストに「Microsoft」があっても除去されない。
エントリを除去(pruning)した後、プルーニング(枝刈り)要素310は、残りのルールをソートして効率のよいサーチを可能にする。シングルワードおよびワード対エントリを許容する実施形態では、エントリは1ワードグループ(one-word group)と2ワードグループ(two-word group)に分けられる。各グループ中のエントリには、そのエントリが表すセグメントでの適正なキャピタライゼーションフォームだけが含まれることに留意されたい。
より長いワードのシーケンスを許容する実施形態では、選択されたキャピタライゼーションフォームは、それらのワードのシーケンス中の第1のワードに従ってグループ化される。一実施形態によれば、これらのキャピタライゼーションフォームは、以下の構造として記憶される。
<word, maxlength>
<word, 1>
<word word2, 2>
<word word2B word3, 3>



<word...wordN, maxlength>
上記において、トップエントリ(top entry)は、このワードで始まるすべてのワードのシーケンスの索引(index)であるワードを含み、maxlengthは、その索引下に記憶された最長のワードのシーケンスに含まれるワード数である。トップエントリの下には、それぞれ、ワードのシーケンスの後にそのシーケンス中のワード数を示す数がくる一連のサブエントリがある。索引エントリ(index entry)の下には同じ長さで異なるワードのシーケンスを持つ複数のエントリが含まれる。上記の例では、副ワードエントリの1つは、「word word2」というワードのシーケンスであり、そのシーケンスの長さは「2」であると示されている。
ステップ408において形成されたソート済みルールは、ステップ410においてキャピタライゼーション訂正(capitalization correction)ユニット316によってテキスト314に適用されるキャピタライゼーションモデル(capitalization model)312として配置される。詳細には、キャピタライゼーション訂正ユニット316は、テキスト314に含まれるワードの適正なキャピタライゼーションフォームを求めてキャピタライゼーションモデル312をサーチし、次いで、テキスト314中のワードを見つかったキャピタライゼーションフォームで置換して大文字使用を伴うテキスト318を作成する。キャピタライゼーションフォームをサーチする方法は、一部は、そのキャピタライゼーションフォームがキャピタライゼーションモデル312にどのようにして記憶されたかによって決まる。図5および6の流れ図において、キャピタライゼーションフォームをサーチする2つの別個の方法について説明する。
図5の方法は、キャピタライゼーションモデルが、シングルワード(single woes)用と2ワード対(two-word pairs)用の2つの別個のリストとして記憶されているときに用いられる。図5のプロセスはステップ500から始まり、ステップ502に進み、テキスト314中の現在のテキスト文字列(text string)が調べられ、それが1ワードだけを含むか否かが判定される。テキスト文字列が複数のワードを含む場合、プロセスはステップ504に進み、テキスト314中の次の2ワードが選択される。ステップ506において、選択されたワードを求めてキャピタライゼーションモデルの2ワードリストがサーチされ、2ワードリストにマッチングしているか否かが判定される。2ワードリストはキャピタライゼーションフォームのワード対を含み、テキスト314から選択された2語は大文字化されないこともあるので、このサーチは、大文字と小文字を区別しない比較(case insensitive comparison)を用いて実行される。
ステップ508において、選択された2ワードのマッチングが2ワードリスト中で見つかった場合、ステップ510において、2ワードリストからのマッチングしているキャピタライゼーションフォームが、テキスト314にあったテキストの代わりに大文字化テキスト318で使用される。
テキスト318にキャピタライゼーションフォームが入れられた後、ステップ512において、サーチポインタがテキスト314中の次のワードに進められる。次いで、ステップ514において、プロセスは、現在のサーチポインタの後に次のワードがあるか否か判定する。次のワードがない場合、ステップ516において、プロセスが終了する。次のワードがある場合、プロセスはステップ502に戻り、残りが1ワードだけであるか否か調べる。複数のワードがある場合、ステップ504、506、508が繰り返される。
ステップ508において、入力テキスト314中の選択された2ワード対(two-word pair)のマッチングが見つからなかった場合、ステップ518において、その対の後のワード(last word)が除去(drop)される。これにより、ステップ520で1ワードリスト(one-word list)をサーチするのに使用されるシングルサーチワード(single search word)が生じる。同様に、ステップ502で入力テキスト314の現在の文に1ワードだけしか残されていない場合、ステップ520において、そのシングルワードを用い、マッチングを求めて1ワードリストがサーチされる。
ステップ522においてシングルワードのマッチングが見つかった場合、ステップ510において、マッチングしているキャピタライゼーションフォームが、テキスト318中のそのシングルワードの代わりに使用される。ステップ512において、サーチポインタ(search pointer)が、その1ワードリストエントリにマッチングしているシングルワードの後のポイントに進められる。
ステップ522においてそのシングルワードのマッチングが見つからなかった場合、ステップ512において、サーチポインタがそのシングルワードの後のポイントに進められ、テキスト314からのそのシングルワードのフォームがテキスト318に入れられる。次いで、プロセスはステップ514に進み、入力テキスト中に次のワードがあるか否かを判定する。
図6は、キャピタライゼーションモデルが各ワード文字列(word string)の第1のワードで索引付け(index)されるワード文字列エントリとして記憶されるときの、キャピタライゼーションモデルを適用する流れ図を示す。図6のステップ600において、テキスト314からワードが選択される。ステップ602において、選択されたワードを求めてキャピタライゼーションモデルがサーチされる。詳細には、そのワードが、トップエントリと、そのトップエントリ中のワードを先頭とする、各ワード文字列ごとに1つずつの1組のサブエントリとからなる索引構造(index structure)のトップエントリとして含まれるか否かを判定するために、サーチが実行される。一実施形態によれば、各索引構造のトップエントリは、そのトップエントリの下にサブエントリとして含まれる最長の文字列の長さも含む。
ステップ604においてトップエントリが見つからなかった場合、ステップ605でサーチポインタを1ワードだけ進め、次いで、ステップ606において、プロセスは、入力テキスト314に次のワードがあるか否かを判定する。次のワードがある場合、プロセスはステップ600に戻り、ステップ600、602、604が繰り返される。
ステップ604において、選択されたワードがトップエントリとマッチングすると、ステップ607において、そのトップエントリに関連付けられた最大長が取り出される。ステップ608において、その最大長を用いて、テキスト314から次のワード文字列が選択される。この文字列が最初に選択されたワードに付加されてサーチ文字列(search string)が形成される。例えば、そのエントリのmaxlengthが3である場合、テキスト314中の次の2ワードが選択され、前に選択されたワードに付加されてサーチ文字列が形成される。
ステップ610において、サーチ文字列の長さと同じ長さを持つマッチングしているトップエントリ(the matching top entry)下のサブエントリで、選択された文字列を求めるサーチが実行される。ステップ612でマッチングが見つからなかった場合、ステップ613で、サーチ文字列中の最後のワードが除去される。次いで、ステップ615において、新しいサーチ文字列が検査(examine)され、それがワードを含むか否かが判定される。サーチ文字列がワードを含まない場合、ステップ620でプロセスが終了する。サーチ文字列が少なくとも1つのワードを含む場合、ステップ610において、より短い文字列を求める新しいサーチが実行される。ゆえに、ステップ610、612、613、615は、サーチ文字列が十分に短くなってステップ612でマッチングが見つかるまで、あるいはサーチ文字列にそれ以上ワードがなくなるまで繰り返される。
ステップ612でマッチングが見つかった後、ステップ614において、大文字化テキスト(capitalized text)318中のそのサーチ文字列の代わりに、キャピタライゼーションモデル312中のマッチングしている文字列(the matching top entry)が使用される。その文字列のキャピタライゼーションフォームが大文字化テキスト(capitalized text)318に入れられた後、ステップ616において、サーチポインタが、テキスト314中のマッチングした文字列(the matched string)の末尾に進められる。次いで、プロセスは、ステップ606に戻ってテキスト314に次のワードがあるか否かを判定する。次のワードがない場合、ステップ620においてプロセスが終了する。
キャピタライゼーションモデル312を形成するのに使用されるトレーニングデータを、ユーザによって書かれ、またはユーザに直接関連付けられた文書に限定することにより、本発明は、キャピタライゼーションモデル312のサイズを縮小し、キャピタライゼーションモデル312をより正確なものにする。また、モデルをユーザデータに基づいて周期的に更新できるようにすることにより、そのモデルは、そのユーザによって採用された新しいキャピタライゼーションフォームを知ることもできる。
以上、本発明を特定の実施形態を参照して説明してきたが、本発明の精神および範囲を逸脱することなく形式および内容の変更が加えられ得ることを当分野の技術者は理解するであろう。
本発明を実施するための例示的環境を示すブロック図である。 本発明を実施するために使用可能なモバイル機器を示すブロック図である。 本発明の一実施形態によるキャピタライゼーションモデルの構築および使用について説明したブロック図である。 本発明の一実施形態によるキャピタライゼーションモデルの構築および使用について示した流れ図である。 本発明の一実施形態によるキャピタライゼーションモデルの構築および使用について示した流れ図である。 本発明の他の実施形態によるキャピタライゼーションモデルについて示した流れ図である。
符号の説明
120 処理ユニット
130 システムメモリ
134、144 オペレーティングシステム
135、145 アプリケーションプログラム
136、146 その他のプログラムモジュール
137、147 プログラムデータ
140 取り外し不能不揮発性メモリインターフェイス
150 取り外し可能不揮発性メモリインターフェイス
160 ユーザ入力インターフェイス
161 ポインティングデバイス
162 キーボード
163 マイクロホン
170 ネットワークインターフェイス
171 ローカルエリアネットワーク
172 モデム
173 広域ネットワーク
180 リモートコンピュータ
185 リモートアプリケーションプログラム
190 ビデオインターフェイス
191 モニタ
195 出力周辺インターフェイス
196 プリンタ
197 スピーカ
202 プロセッサ
200 メモリ
208 通信インターフェイス
214 アプリケーション
216 オブジェクトストア
300 ハーベスタ
301 モデルアップデート
302 アプリケーション文書
304 電子メール
306 キャピタライゼーションカウンタ
307 ルールビルダ
308 出現リスト
309 キャピタライゼーションルール
310 プルーニング(枝刈り)
312 キャピタライゼーションモデル
314 入力テキスト
316 キャピタライゼーション訂正
318 キャピタライゼーションを伴うテキスト

Claims (30)

  1. テキストを自動的に大文字化するためのキャピタライゼーションモデルをトレーニングする方法であって、
    トレーニング文書が特定のユーザに関連付けられていることを必要とする制限事項を満たす前記トレーニング文書を収集するステップと、
    前記収集したトレーニング文書を用いて前記キャピタライゼーションモデルをトレーニングするステップと、
    を含むことを特徴とする方法。
  2. 前記制限事項は、前記トレーニング文書が前記ユーザによって書かれたものである、ことを必要とすることを特徴とする請求項1に記載の方法。
  3. 前記ユーザが電子メールに返信した場合、前記電子メールは、前記ユーザによって書かれたものとみなされる、ことを特徴とする請求項2に記載の方法。
  4. 前記ユーザが電子メールを転送した場合、前記電子メールは、前記ユーザによって書かれたものとみなされる、ことを特徴とする請求項2に記載の方法。
  5. 前記制限事項は、前記トレーニング文書が前記ユーザのローカルマシン上に記憶されていることを必要とする、ことを特徴とする請求項1に記載の方法。
  6. 前記制限事項は、前記トレーニング文書が前記ユーザに関連付けられたネットワーク上のディレクトリに記憶されていることを必要とする、ことを特徴とする請求項1に記載の方法。
  7. 前記収集したトレーニング文書を用いて前記キャピタライゼーションモデルをトレーニングするステップは、前記収集したトレーニング文書中のキャピタライゼーションフォームの出現をカウントするステップを含む、ことを特徴とする請求項1に記載の方法。
  8. 前記キャピタライゼーションフォームの出現をカウントするステップは、ワード対のうちの少なくとも1つのワードが大文字を含むワード対の出現をカウントするステップを含む、ことを特徴とする請求項7に記載の方法。
  9. 前記ワード対の出現をカウントするステップは、少なくとも1つの大文字を持つワード、および、前記ワードと少なくとも1つの大文字を持つ第2のワードとの間にある前置詞を含んだワード対の出現をカウントするステップを含む、ことを特徴とする請求項8に記載の方法。
  10. 前記ワード対の出現をカウントするステップは、少なくとも1つの大文字を持つ第1のワード、および、少なくとも1つの大文字を持つ隣接した第2のワードを含んだワード対の出現をカウントするステップを含む、ことを特徴とする請求項8に記載の方法。
  11. 前記収集したトレーニング文書を用いて前記キャピタライゼーションモデルをトレーニングするステップは、前記キャピタライゼーションフォームの出現のカウントを用いて、少なくとも1つのキャピタライゼーションフォームが前記キャピタライゼーションモデルに入れられないように該少なくとも1つのキャピタライゼーションフォームを除去するステップをさらに含む、ことを特徴とする請求項7に記載の方法。
  12. 前記収集したトレーニング文書を用いて前記キャピタライゼーションモデルをトレーニングするステップは、2ワードを含むキャピタライゼーションフォーム中の大文字使用を含んだ各ワードが前記キャピタライゼーションモデル中の単一ワードと同じ大文字使用として現れる場合、前記キャピタライゼーションフォームが前記キャピタライゼーションモデルに入れられないように、少なくとも1つの前記キャピタライゼーションフォームを除去するステップをさらに含む、ことを特徴とする請求項11に記載の方法。
  13. 前記キャピタライゼーションモデルをトレーニングするステップは、ワード対のためのキャピタライゼーションフォームをワード対リストに記憶し、単一ワードのためのキャピタライゼーションフォームを別個の単一ワードリストに記憶するステップを含む、ことを特徴とする請求項1に記載の方法。
  14. 前記キャピタライゼーションモデルを用いてテキスト中のワードを大文字化するステップをさらに含む、ことを特徴とする請求項1に記載の方法。
  15. 前記キャピタライゼーションモデルを用いてテキスト中のワードを大文字化するステップは、ワード対中のワードの1つを求めて単一ワードリストをサーチする前に、前記テキスト中のワード対に対するマッチングを求めてワード対リストをサーチするステップを含む、ことを特徴とする請求項14に記載の方法。
  16. 前記キャピタライゼーションフォームの出現をカウントするステップは、文書がユーザに関連付けられる度合いに基づいて出現カウントに重み付けするステップを含む、ことを特徴とする請求項7に記載の方法。
  17. 文書が前記ユーザによって書かれている場合、前記出現カウントにより高い重みが適用される、ことを特徴とする請求項16に記載の方法。
  18. 前記キャピタライゼーションモデルがトレーニングされた後に、前記キャピタライゼーションモデルを更新するステップをさらに含む、ことを特徴とする請求項1に記載の方法。
  19. テキストを自動的に大文字化するコンピュータ実行可能命令として、
    特定のユーザに関連付けられた文書からトレーニングデータを獲得するステップと、
    前記トレーニングデータを用いてキャピタライゼーションモデルをトレーニングするステップと、
    前記キャピタライゼーションモデルを用いて、前記特定のユーザに関連付けられたテキストを自動的に大文字化するステップとを含む、
    ことを特徴とするコンピュータ可読媒体。
  20. 前記文書からトレーニングデータを獲得するステップは、前記特定のユーザに関連付けられた電子メールからトレーニングデータを獲得するステップを含む、ことを特徴とする請求項19に記載のコンピュータ可読媒体。
  21. 前記電子メールからトレーニングデータを獲得するステップは、前記特定のユーザによって書かれた電子メールからデータを獲得するステップを含む、ことを特徴とする請求項20に記載のコンピュータ可読媒体。
  22. 前記電子メールからトレーニングデータを獲得するステップは、前記特定のユーザによって転送された電子メールからデータを獲得するステップを含む、ことを特徴とする請求項20に記載のコンピュータ可読媒体。
  23. 前記電子メールからトレーニングデータを獲得するステップは、前記特定のユーザによって返信された電子メールからデータを獲得するステップを含む、ことを特徴とする請求項20に記載のコンピュータ可読媒体。
  24. 前記文書からトレーニングデータを獲得するステップは、前記特定のユーザによって書かれた文書からデータを獲得するステップを含む、ことを特徴とする請求項19に記載のコンピュータ可読媒体。
  25. 前記文書からトレーニングデータを獲得するステップは、前記特定のユーザによって開かれた文書からデータを獲得するステップを含む、ことを特徴とする請求項19に記載のコンピュータ可読媒体。
  26. 前記トレーニングデータを用いてキャピタライゼーションモデルをトレーニングするステップは、大文字使用を伴う少なくとも1つのワードを含んだ大文字使用を伴うワードのシーケンスを求めて、前記トレーニングデータをサーチするステップを含む、ことを特徴とする請求項19に記載のコンピュータ可読媒体。
  27. 前記大文字使用を伴うワードのシーケンスを求めてサーチするステップは、大文字使用を伴うワードだけを持つシーケンスを求めてサーチするステップを含む、ことを特徴とする請求項26に記載のコンピュータ可読媒体。
  28. 前記大文字使用を伴うワードのシーケンスを求めてサーチするステップは、大文字使用を伴うワード、および前記トレーニングデータ中の大文字使用を伴う2ワード間にある前置詞だけを持つシーケンスを求めてサーチするステップを含む、ことを特徴とする請求項26に記載のコンピュータ可読媒体。
  29. 大文字使用を伴う単一ワードを求めてサーチするステップをさらに含む、ことを特徴とする請求項26に記載のコンピュータ可読媒体。
  30. 大文字使用を伴う単一ワードの出現を、前記出現が大文字使用を伴うワードのシーケンスの出現の一部を構成しない場合に限って、カウントするステップさらに含む、ことを特徴とする請求項29に記載のコンピュータ可読媒体。
JP2005110069A 2004-04-06 2005-04-06 ユーザモデリングによる効率のよい大文字化 Expired - Fee Related JP4672418B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/819,023 US7827025B2 (en) 2004-04-06 2004-04-06 Efficient capitalization through user modeling

Publications (3)

Publication Number Publication Date
JP2005302023A true JP2005302023A (ja) 2005-10-27
JP2005302023A5 JP2005302023A5 (ja) 2008-05-22
JP4672418B2 JP4672418B2 (ja) 2011-04-20

Family

ID=34912696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005110069A Expired - Fee Related JP4672418B2 (ja) 2004-04-06 2005-04-06 ユーザモデリングによる効率のよい大文字化

Country Status (7)

Country Link
US (1) US7827025B2 (ja)
EP (1) EP1585030B1 (ja)
JP (1) JP4672418B2 (ja)
KR (1) KR101122887B1 (ja)
CN (1) CN1680935B (ja)
AT (1) ATE497213T1 (ja)
DE (1) DE602005026077D1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003005166A2 (en) 2001-07-03 2003-01-16 University Of Southern California A syntax-based statistical translation model
US7620538B2 (en) 2002-03-26 2009-11-17 University Of Southern California Constructing a translation lexicon from comparable, non-parallel corpora
US8548794B2 (en) 2003-07-02 2013-10-01 University Of Southern California Statistical noun phrase translation
US8296127B2 (en) 2004-03-23 2012-10-23 University Of Southern California Discovery of parallel text portions in comparable collections of corpora and training using comparable texts
US8666725B2 (en) 2004-04-16 2014-03-04 University Of Southern California Selection and use of nonstatistical translation components in a statistical machine translation framework
US8886517B2 (en) 2005-06-17 2014-11-11 Language Weaver, Inc. Trust scoring for language translation systems
US8676563B2 (en) 2009-10-01 2014-03-18 Language Weaver, Inc. Providing human-generated and machine-generated trusted translations
US10319252B2 (en) 2005-11-09 2019-06-11 Sdl Inc. Language capability assessment and training apparatus and techniques
US8943080B2 (en) 2006-04-07 2015-01-27 University Of Southern California Systems and methods for identifying parallel documents and sentence fragments in multilingual document collections
US8886518B1 (en) * 2006-08-07 2014-11-11 Language Weaver, Inc. System and method for capitalizing machine translated text
US8433556B2 (en) 2006-11-02 2013-04-30 University Of Southern California Semi-supervised training for statistical word alignment
US9122674B1 (en) 2006-12-15 2015-09-01 Language Weaver, Inc. Use of annotations in statistical machine translation
US8468149B1 (en) 2007-01-26 2013-06-18 Language Weaver, Inc. Multi-lingual online community
US8615389B1 (en) 2007-03-16 2013-12-24 Language Weaver, Inc. Generation and exploitation of an approximate language model
US8831928B2 (en) 2007-04-04 2014-09-09 Language Weaver, Inc. Customizable machine translation service
US8825466B1 (en) 2007-06-08 2014-09-02 Language Weaver, Inc. Modification of annotated bilingual segment pairs in syntax-based machine translation
US8972855B2 (en) * 2008-12-16 2015-03-03 At&T Intellectual Property I, L.P. Method and apparatus for providing case restoration
US8990064B2 (en) 2009-07-28 2015-03-24 Language Weaver, Inc. Translating documents based on content
US8380486B2 (en) 2009-10-01 2013-02-19 Language Weaver, Inc. Providing machine-generated translations and corresponding trust levels
US10417646B2 (en) 2010-03-09 2019-09-17 Sdl Inc. Predicting the cost associated with translating textual content
US11003838B2 (en) 2011-04-18 2021-05-11 Sdl Inc. Systems and methods for monitoring post translation editing
US8694303B2 (en) 2011-06-15 2014-04-08 Language Weaver, Inc. Systems and methods for tuning parameters in statistical machine translation
US8886515B2 (en) 2011-10-19 2014-11-11 Language Weaver, Inc. Systems and methods for enhancing machine translation post edit review processes
US8942973B2 (en) 2012-03-09 2015-01-27 Language Weaver, Inc. Content page URL translation
US10261994B2 (en) 2012-05-25 2019-04-16 Sdl Inc. Method and system for automatic management of reputation of translators
US9152622B2 (en) 2012-11-26 2015-10-06 Language Weaver, Inc. Personalized machine translation via online adaptation
US9213694B2 (en) 2013-10-10 2015-12-15 Language Weaver, Inc. Efficient online domain adaptation
US10733235B2 (en) * 2015-06-09 2020-08-04 Patricia Henery Aid for dyslexic readers

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6366667A (ja) * 1986-09-09 1988-03-25 Toshiba Corp ユ−ザモデル内蔵型デ−タ処理装置
US20020099744A1 (en) * 2001-01-25 2002-07-25 International Business Machines Corporation Method and apparatus providing capitalization recovery for text
JP2003167901A (ja) * 2001-11-29 2003-06-13 Kddi Corp 協調フィルタリング方法、協調フィルタリング装置及び協調フィルタリングプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4323241A1 (de) * 1993-07-12 1995-02-02 Ibm Verfahren und Computersystem zur Suche fehlerhafter Zeichenketten in einem Text
US5761689A (en) * 1994-09-01 1998-06-02 Microsoft Corporation Autocorrecting text typed into a word processing document
CN1180204A (zh) * 1996-05-02 1998-04-29 微软公司 大写和无重音文本的词典处理的方法和系统
US5819265A (en) * 1996-07-12 1998-10-06 International Business Machines Corporation Processing names in a text
US6618697B1 (en) * 1999-05-14 2003-09-09 Justsystem Corporation Method for rule-based correction of spelling and grammar errors
US6981040B1 (en) * 1999-12-28 2005-12-27 Utopy, Inc. Automatic, personalized online information and product services
US6490549B1 (en) * 2000-03-30 2002-12-03 Scansoft, Inc. Automatic orthographic transformation of a text stream
JP2002169834A (ja) 2000-11-20 2002-06-14 Hewlett Packard Co <Hp> 文書のベクトル解析を行うコンピュータおよび方法
CA2493443C (en) * 2002-07-23 2011-07-19 Research In Motion Limited Systems and methods of building and using custom word lists
US6873996B2 (en) * 2003-04-16 2005-03-29 Yahoo! Inc. Affinity analysis method and article of manufacture
US7447627B2 (en) * 2003-10-23 2008-11-04 Microsoft Corporation Compound word breaker and spell checker

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6366667A (ja) * 1986-09-09 1988-03-25 Toshiba Corp ユ−ザモデル内蔵型デ−タ処理装置
US20020099744A1 (en) * 2001-01-25 2002-07-25 International Business Machines Corporation Method and apparatus providing capitalization recovery for text
JP2003167901A (ja) * 2001-11-29 2003-06-13 Kddi Corp 協調フィルタリング方法、協調フィルタリング装置及び協調フィルタリングプログラム

Also Published As

Publication number Publication date
KR20060045535A (ko) 2006-05-17
US7827025B2 (en) 2010-11-02
CN1680935B (zh) 2011-05-11
EP1585030A2 (en) 2005-10-12
ATE497213T1 (de) 2011-02-15
JP4672418B2 (ja) 2011-04-20
DE602005026077D1 (de) 2011-03-10
KR101122887B1 (ko) 2012-03-22
EP1585030B1 (en) 2011-01-26
US20050228642A1 (en) 2005-10-13
EP1585030A3 (en) 2006-07-12
CN1680935A (zh) 2005-10-12

Similar Documents

Publication Publication Date Title
JP4672418B2 (ja) ユーザモデリングによる効率のよい大文字化
JP4173774B2 (ja) 重み付き編集距離に基づく例文の自動検索用システムおよび方法
US7024351B2 (en) Method and apparatus for robust efficient parsing
CN105512291B (zh) 用于扩展数据库搜索查询的方法和系统
US7831911B2 (en) Spell checking system including a phonetic speller
JP4647336B2 (ja) グラフベースの順位付けを使用してテキスト内の単語および概念に順位付けする方法およびシステム
EP1367501B1 (en) Lexicon with sectionalized data and method of using the same
US7493251B2 (en) Using source-channel models for word segmentation
US5896321A (en) Text completion system for a miniature computer
US7599828B2 (en) Grammatically correct contraction spelling suggestions for french
JP2004078962A (ja) コーパスの中のテキストを構文解析する方法および記録媒体
WO2012095696A2 (en) Text segmentation with multiple granularity levels
JPH11184855A (ja) 翻訳方法およびシステム
JP2003523559A (ja) 辞典、セグメンテーションおよび言語モデルを同時最適化するためのシステムおよび反復的方法
WO2008103894A1 (en) Automated word-form transformation and part of speech tag assignment
CN110222194A (zh) 基于自然语言处理的数据图表生成方法和相关装置
WO2024103609A1 (zh) 一种对话模型的训练方法及装置、对话响应方法及装置
US7398210B2 (en) System and method for performing analysis on word variants
KR20060043583A (ko) 언어 데이터의 로그의 압축 방법 및 시스템
TW548600B (en) Method and system for identifying attributes of new words in non-segmented text
WO2007088902A1 (ja) 文字処理装置、方法、プログラムおよび記録媒体
US7231349B2 (en) Method and apparatus for compressing asymmetric clustering language models
JP4155970B2 (ja) 情報処理装置、同義語データベース生成方法、同義語データベース生成プログラム
US9323753B2 (en) Method and device for representing digital documents for search applications
KR101754580B1 (ko) 임베디드 환경에서 풀텍스트 검색을 지원하기 위한 방법, 장치 및 컴퓨터 판독가능 매체에 저장된 컴퓨터 프로그램

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110114

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110119

R150 Certificate of patent or registration of utility model

Ref document number: 4672418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees