JP7031101B2 - 方法、システムおよび有形コンピュータ可読デバイス - Google Patents

方法、システムおよび有形コンピュータ可読デバイス Download PDF

Info

Publication number
JP7031101B2
JP7031101B2 JP2020505241A JP2020505241A JP7031101B2 JP 7031101 B2 JP7031101 B2 JP 7031101B2 JP 2020505241 A JP2020505241 A JP 2020505241A JP 2020505241 A JP2020505241 A JP 2020505241A JP 7031101 B2 JP7031101 B2 JP 7031101B2
Authority
JP
Japan
Prior art keywords
word
neural network
sentence
classification
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020505241A
Other languages
English (en)
Other versions
JP2020529666A (ja
Inventor
ホェィ リン,
チュアン ワン,
ルオビン リ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lingochamp Information Technology (shanghai) Co Ltd
Original Assignee
Lingochamp Information Technology (shanghai) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lingochamp Information Technology (shanghai) Co Ltd filed Critical Lingochamp Information Technology (shanghai) Co Ltd
Publication of JP2020529666A publication Critical patent/JP2020529666A/ja
Application granted granted Critical
Publication of JP7031101B2 publication Critical patent/JP7031101B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Description

背景
[0001]本開示は、一般には、人工知能に関し、より詳細には、人工ニューラルネットワークを使用した文法誤り訂正に関する。
[0002]自動文法誤り訂正(GEC)は、英語を第二言語として学習する数百万の人々にとって必須で有用なツールである。英語を学習している書き手は、標準的な校正ツールによって対処されない様々な文法及び慣用法の間違いを犯す。文法誤り検出及び/又は訂正のための、高い精度及び再現率を有する自動システムを開発することは、自然言語処理(NLP)において急速に成長している分野となっている。
[0003]当該自動システムには大きな可能性があるが、既知のシステムは、様々な文法誤りパターンをカバーすることの限界、及び、複雑な言語特徴エンジニアリング又は人間が注釈を付けた訓練サンプルの要件のような問題に直面している。
概要
[0004]本開示は、一般には人工知能に関し、より詳細には、人工ニューラルネットワークを使用した文法誤り訂正に関する。
[0005]一例において、文法誤り検出のための方法が開示される。文が受信される。文内の1つ又は複数の対象語が1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別される。1つ又は複数の対象語の各々は、1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応する。1つ又は複数の対象語のうちの少なくとも1つについて、対応する文法誤りタイプに関連する対象語の分類が、文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定される。モデルは、文内の対象語の前の少なくとも1つの単語及び対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワークを含む。モデルは、対象語の文脈ベクトルに少なくとも部分的に基づいて、文法誤りタイプに関連する対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークをさらに含む。文内の文法誤りが、対象語及び対象語の推定された分類に少なくとも部分的に基づいて検出される。
[0006]別の例において、人工ニューラルネットワークモデルを訓練するための方法が提供される。文法誤りタイプに関連して文内の対象語の分類を推定するための人工ニューラルネットワークモデルが提供される。モデルは、文内の対象語の前の少なくとも1つの単語及び対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワークを含む。モデルは、対象語の文脈ベクトルに少なくとも部分的に基づいて、対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークをさらに含む。訓練サンプルのセットが取得される。訓練サンプルのセット内の各訓練サンプルは、文法誤りタイプに関連する対象語を含む文、及び、文法誤りタイプに関連する対象語の実際の分類を含む。再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットが、各訓練サンプル内の対象語の実際の分類と推定された分類との間の差に少なくとも部分的に基づいて、共に訓練される。
[0007]異なる例において、文法誤り検出のためのシステムは、メモリと、メモリに結合されている少なくとも1つのプロセッサとを含む。少なくとも1つのプロセッサは、文を受信し、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて、文内の1つ又は複数の単語を識別するように構成されている。1つ又は複数の対象語の各々は、1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応する。少なくとも1つのプロセッサは、1つ又は複数の対象語のうちの少なくとも1つについて、対応する文法誤りタイプに関連する対象語の分類を、文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定するようにさらに構成されている。モデルは、文内の対象語の前の少なくとも1つの単語及び対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、対象語の文脈ベクトルを生成するように構成されている2つの再帰型ニューラルネットワークを含む。モデルは、対象語の文脈ベクトルに少なくとも部分的に基づいて、文法誤りタイプに関連する対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークをさらに含む。少なくとも1つのプロセッサは、文内の文法誤りを、対象語及び対象語の推定された分類に少なくとも部分的に基づいて検出するようにさらに構成されている。
[0008]別の例において、文法誤り検出のためのシステムは、メモリと、メモリに結合されている少なくとも1つのプロセッサとを含む。少なくとも1つのプロセッサは、文法誤りタイプに関連して文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供するように構成されている。モデルは、文内の対象語の前の少なくとも1つの単語及び対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワークを含む。モデルは、対象語の文脈ベクトルに少なくとも部分的に基づいて、対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークをさらに含む。少なくとも1つのプロセッサは、訓練サンプルのセットを取得するようにさらに構成されている。訓練サンプルのセット内の各訓練サンプルは、文法誤りタイプに関連する対象語を含む文、及び、文法誤りタイプに関連する対象語の実際の分類を含む。少なくとも1つのプロセッサは、再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の対象語の実際の分類と推定された分類との間の差に少なくとも部分的に基づいて、共に調整するようにさらに構成されている。
[0009]他の概念は、文法誤り検出及び人工ニューラルネットワークモデル訓練のためのソフトウェアに関する。本概念によるソフトウェア製品は、少なくとも1つのコンピュータ可読非一時的デバイス、及び、デバイスによって担持される情報を含む。デバイスによって担持される情報は、要求と関連するパラメータ又は動作パラメータに関する実行可能命令であってもよい。
[0010]一例において、有形コンピュータ可読非一時的デバイスは、文法誤り検出のための命令を記録されており、命令は、コンピュータによって実行されると、コンピュータに一連の動作を実施させる。文が受信される。文内の1つ又は複数の対象語が1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別される。1つ又は複数の対象語の各々は、1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応する。1つ又は複数の対象語のうちの少なくとも1つについて、対応する文法誤りタイプに関連する対象語の分類が、文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定される。モデルは、文内の対象語の前の少なくとも1つの単語及び対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワークを含む。モデルは、対象語の文脈ベクトルに少なくとも部分的に基づいて、文法誤りタイプに関連する対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークをさらに含む。文内の文法誤りが、対象語及び対象語の推定された分類に少なくとも部分的に基づいて検出される。
[0011]別の例において、有形コンピュータ可読非一時的デバイスは、人工ニューラルネットワークモデルを訓練するための命令を記録されており、命令は、コンピュータによって実行されると、コンピュータに一連の動作を実施させる。文法誤りタイプに関連して文内の対象語の分類を推定するための人工ニューラルネットワークモデルが提供される。モデルは、文内の対象語の前の少なくとも1つの単語及び対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワークを含む。モデルは、対象語の文脈ベクトルに少なくとも部分的に基づいて、対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークをさらに含む。訓練サンプルのセットが取得される。訓練サンプルのセット内の各訓練サンプルは、文法誤りタイプに関連する対象語を含む文、及び、文法誤りタイプに関連する対象語の実際の分類を含む。再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットが、各訓練サンプル内の対象語の実際の分類と推定された分類との間の差に少なくとも部分的に基づいて、共に訓練される。
[0012]本概要は、本明細書において記載されている主題の理解を提供するためにいくつかの実施形態を例示することのみを目的として与えられている。したがって、上述した特徴は、例に過ぎず、本開示における主題の範囲又は精神を狭めるように解釈されるべきではない。本開示の他の特徴、態様、及び利点は、以下の詳細な説明、図面、及び特許請求の範囲から明らかになる。
[0013]本明細書に組み込まれ、本明細書の一部を形成する添付の図面は、提示されている開示を図解し、本明細書とともに、本開示の原理を説明し、当業者が本開示を作成し、使用することを可能にする役割をさらに果たす。
[0014]図1は、一実施形態による文法誤り訂正(GEC)システムを示すブロック図である。
[0015]図2は、図1のシステムによって実施される自動文法誤り訂正の一例の図である。
[0016]図3は、一実施形態による文法誤り訂正のための方法の一例を示す流れ図である。
[0017]図4は、一実施形態による、図1のシステムの分類ベースGECモジュールの一例を示すブロック図である。
[0018]図5は、一実施形態による、図1のシステムを使用した文内の対象語の分類の提供の一例の図である。
[0019]図6は、一実施形態による文法誤り訂正のための人工ニューラルネットワーク(ANN)モデルの一例を示す概略図である。
[0020]図7は、一実施形態による文法誤り訂正のためのANNモデルの別の例を示す概略図である。
[0021]図8は、一実施形態による図6のANNモデルの一例を示す詳細な概略図である。
[0022]図9は、一実施形態による文の文法誤り訂正のための方法の一例を示す流れ図である。
[0023]図10は、一実施形態による文法誤りタイプに関連して対象語を分類するための方法の一例を示す流れ図である。
[0024]図11は、一実施形態による文法誤りタイプに関連して対象語を分類するための方法の別の例を示す流れ図である。
[0025]図12は、一実施形態による文法スコアを提供するための方法の一例を示す流れ図である。
[0026]図13は、一実施形態によるANNモデル訓練システムを示すブロック図である。
[0027]図14は、図13のシステムによって使用される訓練サンプルの一例の図である。
[0028]図15は、一実施形態による文法誤り訂正のためのANNモデル訓練のための方法の一例を示す流れ図である。
[0029]図16は、一実施形態による文法誤り訂正のためのANNモデルの訓練の一例を示す概略図である。
[0030]図17は、本開示において記載されている様々な実施形態を実施するのに有用なコンピュータシステムの一例を示すブロック図である。
[0031]本開示は、添付の図面を参照して説明される。図面において、一般に、同様の参照符号は、同一の又は機能的に同様の要素を示す。加えて、一般に、参照符号の左端の数字(複数可)は、当該参照符号が最初に現れる図面を識別する。
[0032]以下の詳細な説明において、関連する本開示の完全な理解を提供するために、例として多数の具体的な詳細が記載される。しかしながら、本開示は当該詳細なしに実践することができることが当業者には明らかなはずである。他の事例において、周知の方法、手順、システム、構成要素、及び/又は回路は、本開示の態様を不必要に曖昧にすることを回避するために、詳細を省いて、相対的に高いレベルにおいて説明されている。
[0033]本明細書及び特許請求の範囲全体を通じて、用語は、明示的に陳述されている意味合いを超えて、文脈において示唆又は暗示される微妙な意味合いを有する場合がある。同様に、「1つの実施形態/例において」という語句は、本明細書において使用される場合、必ずしも同じ実施形態を参照するとは限らず、「別の実施形態/例において」という語句は、本明細書において使用される場合、必ずしも異なる実施形態を参照するとは限らない。例えば、特許請求される主題が、例示的な実施形態の組み合わせを全体的に又は部分的に含むことが意図される。
[0034]概して、専門用語は、少なくとも部分的に文脈における使用法から理解され得る。例えば、「及び」、「又は」、又は「及び/又は」のような用語は、本明細書において使用される場合、当該用語が使用されている文脈に少なくとも部分的に依存し得る様々な意味合いを含むことができる。典型的には、「又は」は、A、B又はCなど、リストを関連付けるために使用される場合、A、B、及びCを意味するように意図され、ここでは包含的な意味で使用され、また、A、B、又はCを意味するように意図され、ここでは排他的な意味で使用される。加えて、「1つ又は複数」という用語は、本明細書において使用される場合、文脈に少なくとも部分的に依存して、単数の意味において任意の特徴、構造、若しくは特性を説明するために使用され得、又は、複数の意味において特徴、構造又は特性の組み合わせを説明するために使用され得る。同様に、「1つの」(“a,” “an”)又は「その」(“the”)のような用語は、ここでも、文脈に少なくとも部分的に依存して、単数の用法を伝えるか、又は、複数の用法を伝えるものと理解され得る。加えて、「~に基づいて」という用語は、必ずしも、要因の排他的な集合を伝えるように意図されているとは限らないものとして理解され得、代わりに、ここでも、文脈に少なくとも部分的に依存して、必ずしも明示的に記載されていない追加の要因の存在を許容し得る。
[0035]下記に詳細に開示されるように、他の新規の特徴の中でも、本明細書において開示される自動GECシステム及び方法は、ネイティブテキストデータから訓練することができる深層文脈(deep context, ディープコンテキスト)モデルを使用して、文法誤りを効率的且つ効果的に検出し訂正する能力を提供する。いくつかの実施形態において、特定の文法誤りタイプについて、誤り訂正作業は、文法的文脈表現を、主に利用可能であるネイティブテキストデータから学習することができる分類問題として処理することができる。従来の分類方法と比較すると、本明細書において開示されているシステム及び方法は、通常、言語知識を必要として、すべての文脈パターンをカバーすることができない、洗練された特徴エンジニアリングを必要としない。いくつかの実施形態において、表面的で浅い特徴を使用する代わりに、本明細書において開示されているシステム及び方法は、文脈を表現するための再帰型ニューラルネットワークのような、深い特徴を直接的に使用することができる。いくつかの実施形態において、大量の教師データが通常必要とされるが限られた量しか利用可能でない、従来のNLP作業とは異なり、本明細書において開示されているシステム及び方法は、文法誤りを効果的に訂正するために、冗長なネイティブ平文コーパスを活用し、文脈表現及び分類を共にエンドツーエンドの様式で学習することができる。
[0036]追加の新規の特徴は、部分的には、後続する説明に記載され、部分的には、以下及び添付の図面の検討を受けて当業者に明らかになるか、又は、実施例の生成又は動作によって学習することができる。本開示の新規の特徴は、下記に論じられている詳細な例に記載されている方法、手段、及び組み合わせの様々な態様を実践又は使用することによって実現し、達成することができる。
[0037]図1は、一実施形態によるGECシステム100を示すブロック図である。GECシステム100は、入力前処理モジュール102と、構文解析モジュール104と、対象語ディスパッチモジュール106と、各々が深層文脈を使用して分類ベースの文法誤り検出及び訂正を実施するように構成されている複数の分類ベースGECモジュール108とを含む。いくつかの実施形態において、GECシステム100は、GECシステム100の性能をさらに向上させるために、機械翻訳及び所定の規則ベースの方法のような、他のGEC方法を、分類ベースの方法と組み合わせるためのパイプラインアーキテクチャを使用して実施されてもよい。図1に示すように、GECシステム100は、機械翻訳ベースGECモジュール110と、規則ベースGECモジュール112と、スコア付け/訂正モジュール114とをさらに含むことができる。
[0038]入力前処理モジュール102は、入力テキスト116を受信し、入力テキスト116を前処理するように構成されている。入力テキスト116は、例えば、単一の文、段落、記事、又は任意のテキストコーパスなど、少なくとも1つの英文を含んでもよい。入力テキスト116は、例えば、手書き、タイピング、又はコピー/ペーストを介して直接的に受信することができる。入力テキスト116は、例えば、音声認識又は画像認識を介して間接的に受信することもできる。例えば、任意の適切な音声認識技法を使用して、音声入力を入力テキスト116に変換することができる。別の例において、任意の適切な光学文字認識(OCR)技法を使用して、画像に含まれるテキストを入力テキスト116に転換することができる。
[0039]入力前処理モジュール102は、様々な方法で入力テキスト116を前処理することができる。いくつかの実施形態において、文法誤りは通常、特定の文の文脈において分析されるため、入力前処理モジュール102は、入力テキスト116を複数の文に分割することができ、結果、各文を、後の処理のための単位として処理することができる。入力テキスト116を複数の文に分割することは、文の始まり及び/又は終わりを認識することによって実施することができる。例えば、入力前処理モジュール102は、文の終わりの指標として、ピリオド、セミコロン、疑問符、又は感嘆符のような一定の句読点を探索することができる。入力前処理モジュール102はまた、文の開始の指標として、最初の文字が大文字になっている単語を探索することもできる。いくつかの実施形態において、入力前処理モジュール102は、例えば、入力テキスト116の任意の大文字を小文字に変換することによって、後のプロセスを容易にするために、入力テキスト116を小文字にすることができる。いくつかの実施形態において、入力前処理モジュール102はまた、語彙データベース118にない任意のトークンを判定するために、入力テキスト116のトークン(単語、語句、又は任意のテキスト文字列)を語彙データベース118に照らして調べることもできる。一致しないトークンは、例えば、単一のunkトークン(未知のトークン)などの特別なトークンとして処理され得る。語彙データベース118は、GECシステム100によって処理することができるすべての単語を含む。語彙データベース118にない任意の単語又は他のトークンは、GECシステム100によって無視されるか、又は、別様に処理され得る。
[0040]構文解析モジュール104は、入力テキスト116の各文内の1つ又は複数の対象語を識別するために、入力テキスト116を構文解析(parse, パース)するように構成されている。すべての文法誤りをまとめて考慮し、正しくないテキストを正しいテキストに置き換えるようと試行する既知のシステムとは異なり、GECシステム100は、詳細に後述するように、各特定の文法誤りタイプについて訓練されたモデルを使用する。したがって、いくつかの実施形態において、構文解析モジュール104は、各対象語が文法誤りタイプのうちの少なくとも1つに対応するように、所定の文法誤りタイプに基づいて、各文内のテキストトークンから対象語を識別することができる。文法誤りタイプは、限定ではないが、冠詞誤り、主語一致誤り、動詞形態誤り、前置詞誤り、及び名詞単数複数誤りを含む。文法誤りタイプは上記の例に限定されず、任意の他のタイプを含んでもよいことは諒解されたい。いくつかの実施形態において、構文解析モジュール104は、各文をトークン化し、語彙情報及びGECシステム100が分かっている知識を含む語彙データベース118と協働して、トークンから対象語を識別することができる。
[0041]例えば、主語一致誤りについて、構文解析モジュール104は、三人称でない単数現在形の単語及び三人称単数現在形の単語のマップ関係を前もって抽出することができる。構文解析モジュール104は、次いで、動詞を対象語として特定することができる。冠詞誤りについて、構文解析モジュール104は、名詞及び名詞句(名詞語と形容詞語との組み合わせ)を対象語として特定することができる。動詞形態誤りについて、構文解析モジュール104は、原形、動名詞若しくは現在分詞、又は過去分詞の形態の動詞を、対象語として特定することができる。前置詞誤りに関して、構文解析モジュール104は、前置詞を対象語として特定することができる。名詞単数複数誤りに関して、構文解析モジュール104は、名詞を対象語として特定することができる。1つの単語が、構文解析モジュール104によって複数の文法誤りタイプに対応するものとして識別される場合があることは諒解されたい。例えば、動詞が、主語一致誤り及び動詞形態誤りに関連する対象語として識別される場合があり、名詞又は名詞句が、冠詞誤り及び名詞単数複数誤りに関連する対象語として識別される場合がある。対象語が、名詞句のような、複数の単語の組み合わせである句を含む場合があることも諒解されたい。
[0042]いくつかの実施形態において、各文法誤りタイプについて、構文解析モジュール104は、各対象語の実際の分類を判定するように構成することができる。構文解析モジュール104は、対応する文法誤りタイプに関連する元のラベルを、対象語の実際の分類値として、各対象語に割り当てることができる。例えば、主語一致誤りについて、動詞の実際の分類は、三人称単数現在形又は原形のいずれかである。構文解析モジュール104は、対象語が三人称単数現在形である場合、例えば「1」の元のラベルを対象語に割り当て、又は、対象語が原形である場合、「0」を割り当てることができる。冠詞誤りについて、対象語の実際の分類は、「a/an」、「the」又は「無冠詞」であり得る。構文解析モジュール104は、対象語(名詞語又は名詞句)の前の冠詞を調べて、各対象語の実際の分類を判定することができる。動詞形態誤りに関して、対象語(例えば、動詞)の実際の分類は、「原形」、「動名詞又は現在分詞」、又は「過去分詞」であり得る。前置詞誤りに関して、最も頻繁に使用される前置詞が、構文解析モジュール104によって実際の分類として使用され得る。いくつかの実施形態において、実際の分類は、「about」、「at」、「by」、「for」、「from」、「in」、「of」、「on」、「to」、「until」、「with」及び「against」の、11個の元のラベルを含む。名詞単数複数誤りに関して、対象語(例えば、名詞)の実際の分類は、単数形又は複数形であり得る。いくつかの実施形態において、構文解析モジュール104は、語彙データベース118と協働して、品詞(PoS)タグに基づいて対応する文法誤りタイプに関連する各対象語の元のラベルを判定することができる。
[0043]対象語ディスパッチモジュール106は、対応する文法誤りタイプについて分類ベースGECモジュール108に各対象語をディスパッチするように構成されている。いくつかの実施形態において、各文法誤りタイプについて、ANNモデル120は、独立して訓練され、対応する分類ベースGECモジュール108によって使用される。したがって、各分類ベースGECモジュール108は、1つの特定の文法誤りタイプと関連付けられ、同じ文法誤りタイプに関連する対象語を取り扱うように構成されている。例えば、前置詞(前置詞誤りタイプに関連する)である対象語について、対象語ディスパッチモジュール106は、前置詞誤りを取り扱う分類ベースGECモジュール108に、前置詞を送信することができる。1つの単語が、複数の文法誤りタイプに関連する対象語として判定される場合があるため、対象語ディスパッチモジュール106は、複数の分類ベースGECモジュール108に同じ単語を送信する場合があることは諒解されたい。いくつかの実施形態において、GECシステム100によって各分類ベースGECモジュール108に割り当てられるリソースは等しくない場合があることも諒解されたい。例えば、一定のユーザ群内で又は特定のユーザについて各文法誤りタイプが発生した頻度に応じて、対象語ディスパッチモジュール106は、最も頻繁に発生した文法誤りタイプに関連する対象語を、最高の優先度をもってディスパッチすることができる。例えば、多数の文及び/又は各文内の対象語など、サイズの大きい入力テキスト116について、対象語ディスパッチモジュール106は、待ち時間を低減するために、各分類ベースGECモジュール108の作業負荷に照らして、各文内の各対象語の処理を最適にスケジュールすることができる。
[0044]各分類ベースGECモジュール108は、対応する文法誤りタイプについて訓練された対応するANNモデル120を含む。分類ベースGECモジュール108は、対応するANNモデル120を使用して、対応する文法誤りタイプに関連する対象語の分類を推定するように構成されている。下記に詳細に説明するように、いくつかの実施形態において、ANNモデル120は、文内の対象語の前の少なくとも1つの単語及び対象語の後の少なくとも1つの単語に基づいて、対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワークを含む。ANNモデル120は、対象語の文脈ベクトルに基づいて、文法誤りタイプに関する対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークをさらに含む。
[0045]分類ベースGECモジュール108は、対象語及び対象語の推定された分類に基づいて、文内の文法誤りを検出するようにさらに構成されている。上述したように、いくつかの実施形態において、各対象語の実際の分類は、構文解析モジュール104によって判定することができる。その後、分類ベースGECモジュール108は、対象語の推定された分類を、対象語の実際の分類と比較し、実際の分類が対象語の推定された分類と一致しないとき、文内の文法誤りを検出することができる。例えば、一定の文法誤りタイプについて、対応するANNモデル120は、対象語の周囲の可変長文脈の埋め込み関数を学習することができ、対応する分類ベースGECモジュール108は、文脈埋め込みによって、対象語の分類を予測することができる。予測される分類ラベルが対象語の元のラベルと異なる場合、対象語は誤りとしてフラグ立てすることができ、予測を訂正として使用することができる。
[0046]図1に示すように、いくつかの実施形態において、様々な文法誤りタイプについて文法誤りを同時に検出するために、複数の分類ベースGECモジュール108が、GECシステム100に並列に適用されてもよい。上述したように、GECシステム100のリソースは、各文法誤りタイプの発生頻度に基づいて、異なる文法誤りタイプに割り当てることができる。例えば、他よりも頻繁に発生する文法誤りタイプを取り扱うために、GECシステム100によってより多くの計算リソースを配分することができる。リソースの配分は、頻度変化及び/又は各分類ベースGECモジュール108の作業負荷に照らして動的に調整することができる。
[0047]機械翻訳ベースGECモジュール110は、語句ベースの機械翻訳、ニューラルネットワークベースの機械翻訳などのような、統計的機械翻訳に基づいて、各文内の1つ又は複数の文法誤りを検出するように構成されている。いくつかの実施形態において、機械翻訳ベースGECモジュール110は、文について確率を割り当てる言語サブモデルと、条件付き確率を割り当てる翻訳サブモデルとを有するモデルを含む。言語サブモデルは、標的言語の単一言語訓練データセットを使用して訓練することができる。翻訳サブモデルのパラメータは、並列訓練データセット、すなわち、外国語文及び当該外国語文の標的言語への対応する翻訳から成るセットから推定することができる。GECシステム100のパイプラインアーキテクチャにおいて、機械翻訳ベースGECモジュール110を、分類ベースGECモジュール108の出力に適用することができ、又は、分類ベースGECモジュール108を、機械翻訳ベースGECモジュール110の出力に適用することができることは諒解されたい。また、いくつかの実施形態において、機械翻訳ベースGECモジュール110をパイプラインに追加することによって、一定の分類ベースGECモジュール108は、機械翻訳ベースGECモジュール110の方が性能が優れている場合、パイプラインに含まれなくてもよい。
[0048]規則ベースGECモジュール112は、所定の規則に基づいて、各文内の1つ又は複数の文法誤りを検出するように構成されている。パイプライン内の規則ベースGECモジュール112の位置は、図1に示すような終端部に限定されず、最初の検出モジュールとしてパイプラインの始まりにあってもよく、又は、分類ベースGECモジュール108と機械翻訳ベースGECモジュール110との間にあってもよいことは諒解されたい。いくつかの実施形態において、句読点、綴り、及び大文字化の誤りのような、他の機械的誤りを、規則ベースGECモジュール112によって所定の規則を使用して検出及び修正することもできる。
[0049]スコア付け/訂正モジュール114は、パイプラインから受信される文法誤り結果に基づいて、入力テキスト116の訂正済みテキスト及び/又は文法スコア122を提供するように構成されている。分類ベースGECモジュール108を例に挙げると、推定された分類が実際の分類と一致しないために文法誤りがあるものとして検出される各対象語について、スコア付け/訂正モジュール114によって、対象語の推定された分類に基づいて、対象語の文法誤り訂正が与えられ得る。入力テキスト116を評価するために、スコア付け/訂正モジュール114はまた、スコアリング関数を使用して、パイプラインから受信される文法誤り結果に基づいて文法スコア122を与えることもできる。いくつかの実施形態において、スコアリング関数は、異なるタイプの文法誤りが異なるレベルの影響を文法スコア122に及ぼすことができるように、各文法誤りタイプに重みを割り当てることができる。重みは、文法誤り結果を評価する際の重み付け係数として、精度及び再現率に割り当てることができる。いくつかの実施形態において、入力テキスト116の提供元であるユーザも、スコアリング関数によって考慮することができる。例えば、重みは、異なるユーザに対しては異なり得、又は、ユーザの情報(例えば、母国語、居住地、教育レベル、履歴スコア、年齢など)が、スコアリング関数に織り込まれ得る。
[0050]図2は、図1のGECシステム100によって実施される自動文法誤り訂正の一例の図である。図2に示すように、入力テキスト202は、複数の文を含み、ユーザID-1234によって識別されるユーザから受信される。各々が対応する文法誤りタイプについて個々に訓練された複数のANNモデル120によってGECシステム100を通過した後、文法スコアを有する訂正済みテキスト204が、ユーザに与えられる。例えば、入力テキスト202内の文「it will just adding on their misery」において、動詞「adding」は、GECシステム100によって動詞形態誤りに関連する対象語として識別される。対象語「adding」の実際の分類は、動名詞又は現在分詞である。GECシステム100は、動詞形態誤りについて訓練されたANNモデル120を適用し、対象語「adding」の分類が原形「add」であると推定する。推定された分類が対象語「adding」の実際の分類と一致しないため、動詞形態文法誤りがGECシステム100によって検出され、当該誤りは、動詞形態誤りタイプ及び/又はユーザの個人情報に適用される重みに照らして文法スコアに影響を及ぼす。対象語「adding」の推定された分類はまた、GECシステム100によって、訂正済みテキスト204において「adding」を置き換えるための訂正「add」を与えるためにも使用される。「dishearten」を「disheartening」にするなど、入力テキスト202内の他の文法形態誤りを検出し訂正するために、動詞形態誤りのための同じANNモデル120が、GECシステム100によって使用される。他のタイプの文法誤りを検出するためには、他の文法誤りタイプのためのANNモデル120が、GECシステム100によって使用される。例えば、「for」を「in」にする、及び、「to」を「on」など、入力テキスト202内の前置詞誤りを検出し訂正するために、前置詞誤りのためのANNモデル120が、GECシステム100によって使用される。
[0051]図3は、一実施形態による文法誤り訂正のための方法300の一例を示す流れ図である。方法300は、ハードウェア(例えば、回路、専用論理、プログラム可能論理、マイクロコードなど)、ソフトウェア(例えば、処理デバイス上で実行する命令)、又はハードウェアとソフトウェアとの組み合わせを含み得る処理論理によって実施することができる。本明細書において与えられている本開示を実施するために、すべてのステップが必要とされるとは限らない場合があることは諒解されたい。さらに、当業者には理解されるように、ステップのいくつかは、同時に実施されてもよく、又は、図3に示す順序とは異なる順序において実施されてもよい。
[0052]方法300を図1を参照しながら説明する。しかしながら、方法300は、当該例示的実施形態には限定されない。302において、入力テキストが受信される。入力テキストは、少なくとも1つの文を含む。入力テキストは、例えば、手書き、タイピング、若しくはコピー/ペーストから直接的に受信されてもよく、又は、例えば、音声認識若しくは画像認識から間接的に受信されてもよい。304において、受信されている入力テキストが、複数の文に分割される、すなわちテキストトークン化など、前処理される。いくつかの実施形態において、前処理は、入力テキストが小文字になるように、大文字を小文字に変換することを含むことができる。いくつかの実施形態において、前処理は、語彙データベース118にない、入力テキスト内の任意のトークンを識別することと、それらのトークンを特別なトークンとして表現することとを含むことができる。302及び304は、GECシステム100の入力前処理モジュール102によって実施することができる。
[0053]306において、前処理されている入力テキストは、各文内の1つ又は複数の対象語を識別するために構文解析される。対象語は、各対象語が文法誤りタイプのうちの少なくとも1つに対応するように、文法誤りタイプに基づいて、テキストトークンから識別することができる。文法誤りタイプは、限定ではないが、冠詞の誤り、主語一致の誤り、動詞形態の誤り、前置詞の誤り、及び名詞単数複数の誤りを含む。いくつかの実施形態において、対応する文法誤りタイプに関連する各対象語の実際の分類が判定される。判定は、例えば、PoSタグ又は文内のテキストトークンに基づいて自動的に行うことができる。いくつかの実施形態において、対象語の識別及び実際の分類の判定は、Stanford corenlpツールのようなNLPツールによって実施されてもよい。306は、GECシステム100の構文解析モジュール104によって実施することができる。
[0054]308において、各対象語が、対応する分類ベースGECモジュール108にディスパッチされる。各分類ベースGECモジュール108は、例えば、ネイティブ訓練サンプルに対して、対応する文法誤りタイプについて訓練されたANNモデル120を含む。308は、GECシステム100の対象語ディスパッチモジュール106によって実施することができる。310において、各文内の1つ又は複数の文法誤りが、ANNモデル120を使用して検出される。いくつかの実施形態において、各対象語について、対応する文法誤りタイプに関連する対象語の分類を、対応するANNモデル120を使用して推定することができる。その後、文法誤りを、対象語及び対象語の推定された分類に基づいて検出することができる。例えば、推定が元のラベルと異なり、且つ、確率が所定の閾値よりも大きい場合、文法誤りが見つかったと考えられる。310は、GECシステム100の分類ベースGECモジュール108によって実施することができる。
[0055]312において、各文内の1つ又は複数の文法誤りを、機械翻訳を使用して検出することができる。312は、GECシステム100の機械翻訳ベースGECモジュール110によって実施することができる。314において、各文内の1つ又は複数の文法誤りを、所定の規則に基づいて検出することができる。314は、GECシステム100の規則ベースGECモジュール112によって実施することができる。いくつかの実施形態において、GECシステム100の性能をさらに向上させるために、パイプラインアーキテクチャを使用して、任意の適切な機械翻訳及び所定の規則ベースの方法を、本明細書において説明されているような分類ベースの方法と組み合わせることができる。
[0056]316において、入力テキストの検出されている文法誤り及び/又は文法スコアに対する訂正が与えられる。いくつかの実施形態において、対応する文法誤りタイプに基づいて、対象語の各文法誤り結果に、重みを適用することができる。文法誤り結果及び文内の対象語並びに各文法誤り結果に適用される重みに基づいて、各文の文法スコアを決定することができる。いくつかの実施形態において、文法スコアは、文がそこから受信されたユーザと関連付けられる情報にも基づいて与えることができる。検出されている文法誤りに対する訂正に関して、いくつかの実施形態において、対応する文法誤りタイプに関連する対象語の推定された分類を使用して、訂正を生成することができる。訂正及び文法スコアは必ずしもともに与えられるとは限らないことは諒解されたい。316は、GECシステム100のスコア付け/訂正モジュール114によって実施することができる。
[0057]図4は、一実施形態による、図1のGECシステム100の分類ベースGECモジュール108の一例を示すブロック図である。上述したように、分類ベースGECモジュール108は、文402内の対象語を受信し、対象語の対応する文法誤りタイプのためのANNモデル120を使用して対象語の分類を推定するように構成されている。文402内の対象語はまた、(例えば、構文解析モジュール104内の)対象語ラベリングユニット404によっても受信される。対象語ラベリングユニット404は、例えばPoSタグ又は文402内のテキストトークンに基づいて、対象語の実際の分類(例えば、元のラベル)を判定するように構成されている。分類ベースGECモジュール108は、対象語の推定された分類及び実際の分類に基づいて、文法誤り結果を提供するようにさらに構成されている。図4に示すように、分類ベースGECモジュール108は、初期文脈生成ユニット406と、深層文脈表現ユニット408と、分類ユニット410と、注意ユニット(attention unit)412と、分類比較ユニット414とを含む。
[0058]初期文脈生成ユニット406は、文402内の対象語の周囲の単語(文脈語)に基づいて、対象語の初期文脈ベクトル複数のセット(初期文脈行列)を生成するように構成されている。いくつかの実施形態において、初期文脈ベクトルセットは、文402内の対象語の前の少なくとも1つの単語(順方向文脈語)に基づいて生成される順方向初期文脈ベクトルのセット(順方向初期文脈行列)、及び、文402内の対象語の後の少なくとも1つの単語(逆方向文脈語)に基づいて生成される逆方向初期文脈ベクトルのセット(逆方向初期文脈行列)を含む。各初期文脈ベクトルは、文402内の1つの文脈語を表す。いくつかの実施形態において、初期文脈ベクトルは、one-hotベクトルであってもよく、one-hotベクトルは、one-hotベクトルのサイズ(次元)が(例えば、語彙データベース118内の)語彙サイズと同じであるような、one-hot符号化に基づいて単語を表す。いくつかの実施形態において、初期文脈ベクトルは、文脈語の単語埋め込みベクトルのような、語彙サイズよりも次元が小さい低次元ベクトルであってもよい。例えば、単語埋め込みベクトルは、限定ではないがword2vec又はGloveのような、任意の適切で一般的な単語埋め込み手法によって生成されてもよい。いくつかの実施形態において、初期文脈生成ユニット406は、初期文脈ベクトルの1つ又は複数のセットを出力するように構成されている1つ又は複数の再帰型ニューラルネットワークを使用することができる。初期文脈生成ユニット406によって使用される再帰型ニューラルネットワーク(複数可)は、ANNモデル120の一部であってもよい。
[0059]順方向又は逆方向初期文脈ベクトルのセットを生成するのに使用される文脈語の数は限定されないことは諒解されたい。いくつかの実施形態において、順方向初期文脈ベクトルのセットは、文402内の対象語の前のすべての単語に基づいて生成され、逆方向初期文脈ベクトルのセットは、文402内の対象語の後のすべての単語に基づいて生成される。各分類ベースGECモジュール108及び対応するANNモデル120は、特定の文法誤りタイプを取り扱い、異なるタイプの分布誤りの訂正は、異なる単語距離からの依存性を必要とし得るため(例えば、前置詞は対象語の近くの単語によって判定され、一方、動詞の状態は動詞から遠く離れた主語によって影響され得る)、いくつかの実施形態において、順方向又は逆方向初期文脈ベクトルのセットを生成するために使用される文脈語の数(すなわち、ウィンドウサイズ)は、分類ベースGECモジュール108及び対応するANNモデル120と関連付けられる文法誤りタイプに基づいて判定することができる。
[0060]いくつかの実施形態において、初期文脈ベクトルは、対象語自体の見出し語に基づいて生成することができる。見出し語は、単語の基本形である(例えば、単語「walk」、「walks」、「walked」、「walking」はすべて同じ見出し語「walk」を有する)。例えば、名詞単数複数誤りと関連付けられる分類ベースGECモジュール108及び対応するANNモデル120について、対象語が単数形であるべきか又は複数形であるべきかは、対象語自体に密接に関係するため、文脈語(すなわち、文402内の対象語の周囲の単語)に加えて、対象名詞語の見出し語形態を、抽出文脈情報として、初期見出し語文脈ベクトルの形態で導入することができる。いくつかの実施形態において、対象語の見出し語の初期文脈ベクトルは、順方向初期文脈ベクトルのセットの一部又は逆方向初期文脈ベクトルのセットの一部であってもよい。
[0061]いくつかの既知のGECシステムにおいては、意味特徴を、文から、生成される特徴ベクトルへと手動で設計及び抽出する必要があり、言語の複雑性に起因してすべての状況をカバーすることは困難である。対照的に、文402内の対象語の文脈語が(例えば、初期文脈ベクトルの形態の)初期文脈情報として直接的に使用され、下記に詳細に説明するように、深層文脈特徴表現を、分類と共にエンドツーエンドの様式で学習することができるため、本明細書において開示される分類ベースGECモジュール108は、複雑な特徴エンジニアリングを必要としない。
[0062]図5を参照すると、当該例において、文が、対象語iを含むn個の単語1~nから構成される。対象語iの前の各単語、すなわち、単語1、単語2、...、又は単語i-1について、対応する初期文脈ベクトル1、2、...、又はi-1が生成される。初期文脈ベクトル1、2、...、及びi-1は、対象語iの前の単語から生成されるため、「順方向」ベクトルであり、順方向において(すなわち、文の始まり、すなわち第1の単語1から)後の段へと供給されることになる。対象語iの後の各単語、すなわち、単語i+1、単語i+2、...、又は単語nについて、対応する初期文脈ベクトルi+1、i+2、...、又はnが生成される。初期文脈ベクトルn、...、i+2、及びi+1は、対象語iの後の単語から生成されるため、「逆方向」ベクトルであり、逆方向方向において(すなわち、文の終端部、すなわち最後の単語nから)後の段へと供給されることになる。
[0063]当該例において、順方向初期文脈ベクトルのセットは、単語埋め込みの次元と同じ数の列及び対象語iの前の単語の数と同じ数の行を有する順方向初期文脈行列として表すことができる。順方向初期文脈行列の第1の行は、第1の単語1の単語埋め込みベクトルであり得、順方向初期文脈行列の最後の行は、対象語iの直前の単語i-1の単語埋め込みベクトルであり得る。逆方向初期文脈ベクトルのセットは、単語埋め込みの次元と同じ数の列及び対象語iの後の単語の数と同じ数の行を有する逆方向初期文脈行列として表すことができる。逆方向初期文脈行列の第1の行は、最後の単語nの単語埋め込みベクトルであり得、逆方向初期文脈行列の最後の行は、対象語iの直後の単語i+1の単語埋め込みベクトルであり得る。各単語埋め込みベクトルの次元の数は、少なくとも100、例えば300であってもよい。当該例において、見出し語初期文脈ベクトルlem(例えば、単語埋め込みベクトル)も、対象語iの見出し語に基づいて生成され得る。
[0064]図4に戻って参照すると、深層文脈表現ユニット408は、ANNモデル120を使用して、例えば、初期文脈生成ユニット406によって生成される順方向及び逆方向初期文脈ベクトルのセットなど、文402内の文脈語に基づいて、対象語の文脈ベクトルを提供するように構成されている。分類ユニット410は、ANNモデル120を使用して、例えば、深層文脈表現ユニット408によって生成される文脈ベクトルなど、文402内の対象語の深層文脈表現に基づいて、文法誤りタイプに関連する対象語の分類値を提供するように構成されている。
[0065]図6を参照すると、一実施形態による、ANNモデル120の一例の概略図が示されている。当該例において、ANNモデル120は、深層文脈表現ユニット408によって使用することができる深層文脈表現サブモデル602と、分類ユニット410によって使用することができる分類サブモデル604とを含む。深層文脈表現サブモデル602及び分類サブモデル604は共に、エンドツーエンドの様式で訓練することができる。深層文脈表現サブモデル602は、2つの再帰型ニューラルネットワーク、すなわち、順方向再帰型ニューラルネットワーク606及び逆方向再帰型ニューラルネットワーク608を含む。各再帰型ニューラルネットワーク606又は608は、長・短期記憶(LSTM)ニューラルネットワーク、ゲート付き再帰型ユニット(GRU)ニューラルネットワーク、又は、隠れユニット間の接続が有向閉路を形成する任意の他の適切な再帰型ニューラルネットワークであってもよい。
[0066]再帰型ニューラルネットワーク606及び608は、文402内の対象語の文脈語から生成される初期文脈ベクトルに基づいて、対象語の文脈ベクトルを出力するように構成されている。いくつかの実施形態において、順方向再帰型ニューラルネットワーク606は、順方向初期文脈ベクトルのセットを受信し、順方向初期文脈ベクトルのセットに基づいて対象語の順方向文脈ベクトルを提供するように構成されている。順方向再帰型ニューラルネットワーク606には、順方向における順方向初期文脈ベクトルのセットを供給することができる。逆方向再帰型ニューラルネットワーク608は、逆方向初期文脈ベクトルのセットを受信し、逆方向初期文脈ベクトルのセットに基づいて対象語の逆方向文脈ベクトルを提供するように構成されている。逆方向再帰型ニューラルネットワーク608には、逆方向における逆方向初期文脈ベクトルのセットを供給することができる。いくつかの実施形態において、順方向及び逆方向初期文脈ベクトルのセットは、上述したような単語埋め込みベクトルであってもよい。いくつかの実施形態において、順方向文脈ベクトル及び/又は逆方向文脈ベクトルを生成するために、対象語の見出し語初期文脈ベクトルが、順方向再帰型ニューラルネットワーク606及び/又は逆方向再帰型ニューラルネットワーク608に供給されてもよいことは諒解されたい。
[0067]ここで図5を参照すると、当該例において、順方向再帰型ニューラルネットワークは、順方向における(例えば、順方向初期文脈行列の形態の)順方向初期文脈ベクトルのセットを供給され、順方向文脈ベクトルforを生成する。逆方向再帰型ニューラルネットワークは、逆方向における(例えば、逆方向初期文脈行列の形態の)逆方向初期文脈ベクトルのセットを供給され、逆方向文脈ベクトルbackを生成する。いくつかの実施形態において、見出し語初期文脈ベクトルlemが、順方向再帰型ニューラルネットワーク及び/又は逆方向再帰型ニューラルネットワークに供給されてもよいことは諒解されたい。順方向及び逆方向再帰型ニューラルネットワークの各々の隠れユニットの数は少なくとも300、例えば600である。当該例において、次いで、対象語iの深層文脈ベクトルiが、順方向文脈ベクトルfor及び逆方向文脈ベクトルbackを連結することによって生成される。深層文脈ベクトルiは、対象語iの周囲の文脈語1~i-1及び文脈語i+1~n(並びにいくつかの実施形態においては対象語iの見出し語)に基づいて、対象語iの深層文脈情報を表現する。言い換えれば、深層文脈ベクトルiは、対象語iの周りの結合文脈の埋め込みと考えられ得る。上述したように、深層文脈ベクトルiは、対象語iの文脈を表現するために意味内容を手動で設計し抽出するために、複雑な特徴エンジニアリングが必要とされないため、様々な状況を取り扱うことができる一般的な表現である。
[0068]図6に戻って参照すると、分類サブモデル604は、対象語の文脈ベクトルに基づいて、文法誤りタイプに関する対象語の分類値を出力するように構成されている順伝播型ニューラルネットワーク610を含む。順伝播型ニューラルネットワーク610は、多層パーセプトロン(MLP)ニューラルネットワーク、又は、隠れユニットの間の接続が閉路を形成しない任意の他の適切な順伝播型ニューラルネットワークを含んでもよい。例えば、図5に示すように、深層文脈ベクトルiは、順伝播型ニューラルネットワークに供給されて、対象語iの分類値yが生成される。異なる文法誤りタイプについて、分類値yは、表Iに示すような異なる方法で定義することができる。文法誤りタイプは表Iの5つの例に限定されず、分類値yの定義もまた、表Iに示す例に限定されないことは諒解されたい。いくつかの実施形態において、分類値yは、文法誤りタイプと関連付けられるクラス(ラベル)にわたる対象語の確率分布として表現されてもよいことも諒解されたい。
Figure 0007031101000001
[0069]いくつかの実施形態において、順伝播型ニューラルネットワーク610は、文脈ベクトルに対する全結合線形演算(fully connected linear operation)の第1の活性化関数を有する第1の層を含むことができる。第1の層の第1の活性化関数は、例えば、正規化線形ユニット活性化関数、又は、先行する層(複数可)からの1倍の出力の関数である任意の他の適切な活性化関数であってもよい。順伝播型ニューラルネットワーク610はまた、第1の層に接続されており、分類値を生成するための第2の活性化関数を有する第2の層をも含むことができる。第2の層の第2の活性化関数は、例えば、ソフトマックス活性化関数、又は、マルチクラス分類に使用される任意の他の適切な活性化関数であってもよい。
[0070]図4に戻ると、いくつかの実施形態において、注意ユニット412は、ANNモデル120を使用して、文402内の対象語の前の少なくとも1つの単語及び対象語の後の少なくとも1つの単語に基づいて、対象語の文脈重みベクトルを提供するように構成されている。図7は、一実施形態による文法誤り訂正のためのANNモデル120の別の例を示す概略図である。図6に示す例と比較すると、図7のANNモデル120は、注意ユニット412によって使用することができる注意メカニズムサブモデル702をさらに含む。ひいては、重み付き文脈ベクトルが、文脈重みベクトルを文脈ベクトルに適用することによって計算される。深層文脈表現サブモデル602、分類サブモデル604、及び注意メカニズムサブモデル702は共に、エンドツーエンドの様式で訓練することができる。いくつかの実施形態において、注意メカニズムサブモデル702は、対象語の文脈語に基づいて、対象語の文脈重みベクトルを生成するように構成されている順伝播型ニューラルネットワーク704を含む。順伝播型ニューラルネットワーク704は、文内の各文脈語と対象語との間の距離に基づいて訓練することができる。いくつかの実施形態において、文脈重みベクトルは対象語への異なる距離によって文脈語の重みを調整することができるため、文内のすべての周囲の単語に基づいて初期文脈ベクトルのセットを生成することができ、文脈重みベクトルは、文法的用法に影響を及ぼす文脈語に焦点を当てるように重み付き文脈ベクトルを調整することができる。
[0071]図4に戻って参照すると、分類比較ユニット414は、文法誤りタイプの任意の誤りの存在を検出するために、分類ユニット410によって与えられる推定された分類値を、対象語ラベリングユニット404によって与えられる実際の分類値と比較するように構成されている。実際の分類値が推定された分類値と同じである場合、文法誤りタイプの誤りは、当該対象語について検出されない。異なる場合、文法誤りタイプの誤りが検出され、推定された分類値が使用されて、訂正が与えられる。例えば、図2に関連して上述されている例において、動詞形態誤りに関連する対象語「adding」の推定された分類値は「0」(原形)であり、一方、対象語「adding」の実際の分類値は「1」(動名詞又は現在分詞)である。したがって、動詞形態誤りが検出され、訂正は対象語「adding」の原形である。
[0072]図8は、一実施形態による図6のANNモデル120の一例を示す詳細な概略図である。当該例において、ANNモデル120は、共に訓練される順方向GRUニューラルネットワーク、逆方向GRUニューラルネットワーク、及びMLPニューラルネットワークを含む。文「I go to school everyday」内の対象語「go」について、順方向文脈語「I」は左から右への(順方向の)順方向GRUニューラルネットワークに供給され、逆方向文脈語「to school everyday」は、右から左への(逆方向の)逆方向GRUニューラルネットワークに供給される。文脈w1:nを所与とすると、対象語wの文脈ベクトルは、式1のように定義することができる。
Figure 0007031101000002

式中、lGRUは、所与の文脈において左から右へと(順方向に)単語を読み取るGRUであり、rGRUは、逆に右から左へと(逆方向に)単語を読み取るものであり、l/fは、文脈語の個別の左から右への/右から左への単語埋め込みを表す。その後、連結されたベクトルは、2辺の相互依存性を捉えるために、MLPニューラルネットワークに供給される。MLPニューラルネットワークの第2の層において、ソフトマックス層を使用して、対象語の分類(例えば、対象語、又は、例えば単数若しくは複数などの対象語の状態)を予測することができる。
MLP(x)=softmax(ReLU(x)), (2)
式中、ReLUは正規化線形ユニット活性化関数であり、ReLU(x)=max(0,x)、L(x)=W(x)+bは全結合線形演算である。当該例におけるANNモデル120の最終的な出力は以下のとおりである。
y=MLP(biGRU(w1:n,i)), (3)
式中、yは上述したような分類値である。
[0073]図9は、一実施形態による文の文法誤り訂正のための方法900の一例を示す流れ図である。方法900は、ハードウェア(例えば、回路、専用論理、プログラム可能論理、マイクロコードなど)、ソフトウェア(例えば、処理デバイス上で実行する命令)、又はハードウェアとソフトウェアとの組み合わせを含み得る処理論理によって実施することができる。本明細書において与えられている本開示を実施するために、すべてのステップが必要とされるとは限らない場合があることは諒解されたい。さらに、当業者には理解されるように、ステップのいくつかは、同時に実施されてもよく、又は、図9に示す順序とは異なる順序において実施されてもよい。
[0074]方法900を図1及び図4を参照しながら説明する。しかしながら、方法900は、当該例示的実施形態には限定されない。902において、文が受信される。文は、入力テキストの一部であり得る。902は、GECシステム100の入力前処理モジュール102によって実施することができる。904において、文内の1つ又は複数の対象語が1つ又は複数の文法誤りタイプに基づいて識別される。各対象語は、1つ又は複数の文法誤りタイプに対応する。904は、GECシステム100の構文解析モジュール104によって実施することができる。906において、対応する文法誤りタイプに関連する1つの対象語の分類が、文法誤りタイプについて訓練されたANNモデル120を使用して推定される。908において、文法誤りが、対象語及び対象語の推定された分類に基づいて検出される。検出は、対象語の実際の分類を、対象語の推定された分類と比較することによって行うことができる。906及び908は、GECシステム100の分類ベースGECモジュール108によって実施することができる。
[0075]910において、文内にまだ処理されていない対象語がさらに存在するか否かが判定される。回答が肯定である場合、方法900は文内の次の対象語を処理するために、904に戻る。文内のすべての対象語が処理されると、912において、文に対する文法誤り訂正が、文法誤り結果に基づいて与えられる。各対象語の推定された分類が、文法誤り訂正を生成するために使用され得る。文法誤り結果に基づいて、文法スコアを与えることもできる。912は、GECシステム100のスコア付け/訂正モジュール114によって実施することができる。
[0076]図10は、一実施形態による文法誤りタイプに関連して対象語を分類するための方法1000の一例を示す流れ図である。方法1000は、ハードウェア(例えば、回路、専用論理、プログラム可能論理、マイクロコードなど)、ソフトウェア(例えば、処理デバイス上で実行する命令)、又はハードウェアとソフトウェアとの組み合わせを含み得る処理論理によって実施することができる。本明細書において与えられている本開示を実施するために、すべてのステップが必要とされるとは限らない場合があることは諒解されたい。さらに、当業者には理解されるように、ステップのいくつかは、同時に実施されてもよく、又は、図10に示す順序とは異なる順序において実施されてもよい。
[0077]方法1000を図1及び図4を参照しながら説明する。しかしながら、方法1000は、当該例示的実施形態には限定されない。1002において、対象語の文脈ベクトルが、文内の文脈語に基づいて与えられる。文脈語は、文内の対象語の周囲の任意の数の単語であり得る。いくつかの実施形態において、文脈語は、対象語を除く文内のすべての単語を含む。いくつかの実施形態において、文脈語は、対象語の見出し語も含む。文脈ベクトルは、文から抽出される意味特徴を含まない。1002は、分類ベースGECモジュール108の深層文脈表現ユニット408によって実施することができる。
[0078]1004において、文脈重みベクトルが、文内の文脈語に基づいて与えられる。1006において、文脈重みベクトルが文脈ベクトルに適用されて、重み付き文脈ベクトルが生成される。文脈重みベクトルは、文脈語の対象語への距離に基づいて、それぞれの重みを文内の各文脈語に適用することができる。1004及び1006は、分類ベースGECモジュール108の注意ユニット412によって実施することができる。
[0079]1008において、文法誤りタイプに関する対象語の分類値が、対象語の重み付き文脈ベクトルに基づいて与えられる。分類値は、文法誤りタイプと関連付けられる複数のクラスのうちの1つを表す。分類値は、文法誤りタイプと関連付けられるクラスにわたる対象語の確率分布であってもよい。1008は、分類ベースGECモジュール108の分類ユニット410によって実施することができる。
[0080]図11は、一実施形態による文法誤りタイプに関連して対象語を分類するための方法1100の別の例を示す流れ図である。方法1100は、ハードウェア(例えば、回路、専用論理、プログラム可能論理、マイクロコードなど)、ソフトウェア(例えば、処理デバイス上で実行する命令)、又はハードウェアとソフトウェアとの組み合わせを含み得る処理論理によって実施することができる。本明細書において与えられている本開示を実施するために、すべてのステップが必要とされるとは限らない場合があることは諒解されたい。さらに、当業者には理解されるように、ステップのいくつかは、同時に実施されてもよく、又は、図11に示す順序とは異なる順序において実施されてもよい。
[0081]方法1100を図1及び図4を参照しながら説明する。しかしながら、方法1100は、当該例示的実施形態には限定されない。1102において、対象語の文法誤りタイプが、例えば、複数の所定の文法誤りタイプから判定される。1104において、文脈語のウィンドウサイズが、文法誤りタイプに基づいて決定される。ウィンドウサイズは、文脈語として考えられることになる文内の対象語の前の単語の最大数、及び、対象語の後の単語の最大数を示す。ウィンドウサイズは、異なる文法誤りタイプについて変化し得る。例えば、主語一致誤り及び動詞形態誤りについて、これら2つの誤りタイプは通常、対象語から遠く離れた文脈語からの依存性を必要とするため、文全体が文脈として考慮され得る。冠詞誤り、前置詞誤り、及び名詞単数複数誤りに関して、ウィンドウサイズは、冠詞誤りについては3、5、又は10、前置詞誤りについては3、5、又は10、及び、名詞単数複数誤りについては10、15、又は20など、文全体よりも小さくなり得る。
[0082]1106において、順方向単語埋め込みベクトルのセットが、対象語の前の文脈語に基づいて生成される。各順方向単語埋め込みベクトルの次元の数は、300など、少なくとも100であってもよい。順方向単語埋め込みベクトルのセットが生成される順序は、ウィンドウサイズ内の第1の単語から、対象語の直前の単語への方向(順方向)であり得る。1108において、並行して、逆方向単語埋め込みベクトルのセットが、対象語の後の文脈語に基づいて生成される。各逆方向単語埋め込みベクトルの次元の数は、300など、少なくとも100であってもよい。逆方向単語埋め込みベクトルのセットが生成される順序は、ウィンドウサイズ内の最後の単語から、対象語の直後の単語への方向(逆方向)であり得る。1102、1104、1106及び1108は、分類ベースGECモジュール108の初期文脈生成ユニット406によって実施することができる。
[0083]1110において、順方向文脈ベクトルが、順方向単語埋め込みベクトルのセットに基づいて与えられる。順方向単語埋め込みベクトルのセットは、ウィンドウサイズ内の第1の単語の順方向単語埋め込みベクトルから、対象語の直前の単語の順方向単語埋め込みベクトルへの順序(順方向)に従う、再帰型ニューラルネットワークに供給され得る。1112において、逆方向文脈ベクトルが、逆方向単語埋め込みベクトルのセットに基づいて与えられる。逆方向単語埋め込みベクトルのセットは、ウィンドウサイズ内の最後の単語の逆方向単語埋め込みベクトルから、対象語の直後の単語の逆方向単語埋め込みベクトルへの順序(逆方向)に従う、別の再帰型ニューラルネットワークに供給され得る。1114において、文脈ベクトルが、順方向文脈ベクトル及び逆方向文脈ベクトルを連結することによって与えられる。1110、1112及び1114は、分類ベースGECモジュール108の深層文脈表現ユニット408によって実施することができる。
[0084]1116において、全結合線形協力が、文脈ベクトルに適用される。1118において、例えば、MLPニューラルネットワークの第1の層の活性化関数が、全結合線形演算の出力に適用される。活性化関数は、正規化線形ユニット活性化関数であってもよい。1120において、文法誤りタイプに関連する対象語の分類値を生成するために、例えば、MLPニューラルネットワークの第2の層の別の活性化関数が、第1の層の活性化関数の出力に適用される。文法誤りタイプに関連する対象語のマルチクラス分類が、1116、1118、及び1120において、MLPニューラルネットワークによって文脈ベクトルに基づいて実施され得る。1116、1118及び1120は、分類ベースGECモジュール108の分類ユニット410によって実施することができる。
[0085]図12は、一実施形態による文法スコアを提供するための方法1200の一例を示す流れ図である。方法1200は、ハードウェア(例えば、回路、専用論理、プログラム可能論理、マイクロコードなど)、ソフトウェア(例えば、処理デバイス上で実行する命令)、又はハードウェアとソフトウェアとの組み合わせを含み得る処理論理によって実施することができる。本明細書において与えられている本開示を実施するために、すべてのステップが必要とされるとは限らない場合があることは諒解されたい。さらに、当業者には理解されるように、ステップのいくつかは、同時に実施されてもよく、又は、図12に示す順序とは異なる順序において実施されてもよい。
[0086]方法1200を図1及び図4を参照しながら説明する。しかしながら、方法1200は、当該例示的実施形態には限定されない。1202において、ユーザ因子(user factor, ユーザファクタ)が、ユーザの情報に基づいて判定される。情報は、例えば、母国語、居住地、教育レベル、年齢、履歴スコアなどを含む。1204において、精度及び再現率の重みが決定される。精度及び再現率は、一般的に、組み合わせて、GECの主な評価の尺度として使用される。精度P及び再現率Rは、以下のように定義される。
Figure 0007031101000003

式中、gは、特定の文法誤りタイプについての、2人の人間の注釈者の究極的な基準であり、eは対応するシステムエディットである。多くの他の文法誤りタイプと動詞形態誤りタイプとの間には重複があり得、そのため、gは、文法形態誤り性能を計算するときに、すべての文法誤りタイプの注釈に基づき得る。精度と再現率との間の重みは、評価の尺度として精度と再現率とをともに組み合わせるときに調整することができる。例えば、式5において定義されるF0.5は、いくつかの実施形態において、正確なフィードバックがカバー率よりも重要であるとき、2倍の重みを精度に割り当てながら、精度と再現率の両方を組み合わせる。
Figure 0007031101000004

Fnにおいて、nは0~1である、が、他の例において適用され得ることは諒解されたい。いくつかの実施形態において、異なる文法誤りタイプの重みも変化し得る。
[0087]1206において、スコアリング関数が、ユーザ因子及び重みに基づいて取得される。スコアリング関数は、パラメータとして、ユーザ因子及び重み(異なる文法誤りタイプについて同じ又は異なる)を使用することができる。1208において、文内の各対象語の文法誤り結果が受信される。1210において、文法スコアが、文法誤り結果及びスコアリング関数に基づいて与えられる。文法誤り結果は、スコアリング関数の変数であり得、ユーザ因子及び重みは、スコアリング関数のパラメータであり得る。1202、1204、1206、1208、及び1210は、GECシステム100のスコア付け/訂正モジュール114によって実施することができる。
[0088]図13は、一実施形態によるANNモデル訓練システム1300を示すブロック図である。ANNモデル訓練システム1300は、訓練アルゴリズム1308を使用して、目的関数1306に基づいて訓練サンプルのセット1304に対して特定の文法誤りタイプのために各ANNモデル120を訓練するように構成されているモデル訓練モジュール1302を含む。いくつかの実施形態において、各訓練サンプル1304は、ネイティブ訓練サンプルであってもよい。本明細書において開示されるものとしてのネイティブ訓練サンプルは、1つ又は複数の文法誤りのある文を含む学習者訓練サンプルとは対照的に、文法誤りのない文を含む。教師あり訓練データのサイズ及び可用性によって制限される、調整された訓練を必要とする、すなわち、教師ありデータを訓練サンプル(例えば、学習者訓練サンプル)として使用する何らかの既知のGECシステムと比較して、ANNモデル訓練システム1300は、ANNモデル120をより効果的且つ効率的に訓練するために、冗長なネイティブ平文コーパスを、訓練サンプル1304として利用することができる。例えば、訓練サンプル1304は、wikiダンプから取得されてもよい。ANNモデル訓練システム1300の訓練サンプル1304はネイティブ訓練サンプルに限定されないことは諒解されたい。いくつかの実施形態において、特定の文法誤りタイプについて、ANNモデル訓練システム1300は、学習者訓練サンプル、又は、ネイティブ訓練サンプルと学習者訓練サンプルとの組み合わせを使用して、ANNモデル120を訓練することができる。
[0089]図14は、図13のANNモデル訓練システム1300によって使用される訓練サンプル1304の一例の図である。訓練サンプルは、1つ又は複数の文法誤りタイプ1、...、nと関連付けられる文を含む。訓練サンプルは文法誤りのないネイティブ訓練サンプルであり得るが、上述したように、例えば、PoSタグに基づいて、特定の単語が1つ又は複数の文法誤りタイプと関連付けられるため、文は依然として文法誤りタイプと関連付けることができる。例えば、文が動詞を含む限り、文は、例えば、動詞形態誤り及び主語一致誤りと関連付けられ得る。1つ又は複数の対象語1、...、mは、各文法誤りタイプと関連付けられ得る。例えば、文内のすべての動詞は、訓練サンプルにおいて動詞形態誤り又は主語一致誤りに関連する対象語である。各対象語について、対象語は、2つの情報、すなわち、単語埋め込みベクトルセット(行列)x、及び、実際の分類値yとさらに関連付けられる。単語埋め込みベクトルセットxは、文内の対象語の文脈語に基づいて生成することができる。いくつかの実施形態において、単語埋め込みベクトルセットxは、one-hotベクトルセットのような、任意の他の初期文脈ベクトルセットであってもよいことは諒解されたい。上述したように、実際の分類値yは、名詞単数複数誤りに関する単数形の「0」及び複数形の「1」のような、特定の文法誤りタイプに関連するクラスラベルのうちの1つであり得る。したがって、訓練サンプルは、各々が文内の文法誤りタイプに関連する対象語に対応する、単語埋め込みベクトルセットx及び実際の分類値yの対を含む。
[0090]図13に戻って参照すると、ANNモデル120は、訓練サンプル1304を供給されているときにモデル訓練モジュール1302によって共に調整することができる複数のパラメータを含む。モデル訓練モジュール1302は、訓練アルゴリズム1308を使用して訓練サンプル1304に対する目的関数1306を最小化するために、ANNモデル120のパラメータを共に調整する。図8に関連して上述した例において、ANNモデル120を訓練するための目的関数は、以下のとおりである。
Figure 0007031101000005

式中、nは訓練サンプル1304の数である。訓練アルゴリズム1308は、勾配降下アルゴリズム(例えば、確率的勾配降下アルゴリズム)を含む、目的関数1306の最小値を求めるための任意の適切な反復最適化アルゴリズムであってもよい。
[0091]図15は、一実施形態による文法誤り訂正のためのANNモデル訓練のための方法1500の一例を示す流れ図である。方法1500は、ハードウェア(例えば、回路、専用論理、プログラム可能論理、マイクロコードなど)、ソフトウェア(例えば、処理デバイス上で実行する命令)、又はハードウェアとソフトウェアとの組み合わせを含み得る処理論理によって実施することができる。本明細書において与えられている本開示を実施するために、すべてのステップが必要とされるとは限らない場合があることは諒解されたい。さらに、当業者には理解されるように、ステップのいくつかは、同時に実施されてもよく、又は、図15に示す順序とは異なる順序において実施されてもよい。
[0092]方法1500を、図13を参照しながら説明する。しかしながら、方法1500は、当該例示的実施形態には限定されない。1502において、文法誤りタイプのためのANNモデルが与えられる。ANNモデルは、文法誤りタイプに関連して文内の対象語の分類を推定するためのものである。ANNモデルは、例えば、図6及び図7に示すものなど、本明細書において開示されている任意のANNモデルであってもよい。いくつかの実施形態において、ANNモデルは、文内の対象語の前の少なくとも1つの単語及び対象語の後の少なくとも1つの単語に基づいて、対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワークを含む。いくつかの実施形態において、文脈ベクトルは、訓練サンプル内の文の意味特徴を含まない。上述したように、ANNモデルは、順方向再帰型ニューラルネットワーク606及び逆方向再帰型ニューラルネットワーク608としてパラメータ化することができる深層文脈表現サブモデル602を含むことができる。ANNモデルはまた、対象語の文脈ベクトルに基づいて、対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークをも含むことができる。上述したように、ANNモデルは、順伝播型ニューラルネットワーク610としてパラメータ化することができる分類サブモデル604を含むことができる。
[0093]1504において、訓練サンプルセットが取得される。各訓練サンプルは、対象語を有する文、及び、文法誤りタイプに関連する対象語の実際の分類を含む。いくつかの実施形態において、訓練サンプルは、順方向単語埋め込みベクトルのセット及び逆方向単語埋め込みベクトルのセットを含む、対象語の単語埋め込み行列を含むことができる。各順方向単語埋め込みベクトルは、対象語の前のそれぞれの文脈語に基づいて生成され、各逆方向単語埋め込みベクトルは、対象語の後のそれぞれの文脈語に基づいて生成される。各単語埋め込みベクトルの次元の数は、300など、少なくとも100であってもよい。
[0094]1506において、ANNモデルのパラメータは、例えばエンドツーエンドの様式で、共に調整される。いくつかの実施形態において、各訓練サンプル内の対象語の実際の分類と推定された分類との間の差に基づいて、再帰型ニューラルネットワーク606及び608と関連付けられる深層文脈表現サブモデル602のパラメータの第1のセットが、順伝播型ニューラルネットワーク610と関連付けられる分類サブモデル604のパラメータの第2のセットと共に調整される。いくつかの実施形態において、順方向再帰型ニューラルネットワーク606と関連付けられるパラメータは、逆方向再帰型ニューラルネットワーク608と関連付けられるパラメータとは別個のものである。いくつかの実施形態において、ANNモデルはまた、順伝播型ニューラルネットワーク610としてパラメータ化することができる注意メカニズムサブモデル702を含むこともできる。順伝播型ニューラルネットワーク610と関連付けられる、注意メカニズムサブモデル702のパラメータもまた、ANNモデルの他のパラメータと共に調整することができる。いくつかの実施形態において、ANNモデルのパラメータは、訓練アルゴリズム1308を使用して目的関数1306からの各訓練サンプルの対象語の実際の分類と推定された分類との間の差を最小化するために、共に調整される。1502、1504、及び1506は、ANNモデル訓練システム1300のモデル訓練モジュール1302によって実施することができる。
[0095]図16は、一実施形態による文法誤り訂正のためのANNモデル120の訓練の一例を示す概略図である。この例において、ANNモデル120は、特定の文法誤りタイプに関連して訓練サンプル1304に対して訓練される。訓練サンプル1304は、ネイティブテキストからのものであってもよく、図1を参照して上述したように前処理及び構文解析されてもよい。各訓練サンプル1304は、文法誤りタイプに関連する対象語を有する文、及び、文法誤りタイプに関連する対象語の実際の分類を含む。いくつかの実施形態において、対象語の単語埋め込み行列、及び、対象語の実際の分類値yを含む対を、各訓練サンプル1304について取得することができる。単語埋め込み行列xは、対象語の前の文脈語に基づいて生成される順方向単語埋め込みベクトルのセット、及び、対象語の後の文脈語に基づいて生成される逆方向単語埋め込みベクトルのセットを含むことができる。したがって、訓練サンプル1304は、複数の(x,y)対を含むことができる。
[0096]いくつかの実施形態において、ANNモデル120は、複数の再帰型ニューラルネットワーク1~n 1602及び複数の順伝播型ニューラルネットワーク1~m 1604を含むことができる。ニューラルネットワーク1602及び1604の各々は、訓練アルゴリズム1308を使用して目的関数1306に基づいて訓練サンプル1304に対して訓練されるために、パラメータのセットと関連付けられる。再帰型ニューラルネットワーク1602は、対象語の文脈語に基づいて、対象語の文脈ベクトルを出力するように構成されている順方向再帰型ニューラルネットワーク及び逆方向再帰型ニューラルネットワークを含むことができる。いくつかの実施形態において、再帰型ニューラルネットワーク1602は、対象語の文脈語に基づいて、対象語の単語埋め込み行列を生成するように構成されている別の1つ又は複数の再帰型ニューラルネットワークをさらに含むことができる。順伝播型ニューラルネットワーク1604は、対象語の文脈ベクトルに基づいて、対象語の分類値y’を出力するように構成されている順伝播型ニューラルネットワークを含むことができる。いくつかの実施形態において、順伝播型ニューラルネットワーク1604はまた、文脈ベクトルに適用されるための文脈重みベクトルを出力するように構成されている別の順伝播型ニューラルネットワークをも含むことができる。ニューラルネットワーク1602及び1604は、共にエンドツーエンドの様式で訓練することができるように、接続することができる。いくつかの実施形態において、文脈ベクトルは、訓練サンプル1304内の文の意味特徴を含まない。
[0097]いくつかの実施形態において、各反復について、対応する訓練サンプル1304内の対象語の単語埋め込み行列xは、ANNモデル120に供給することができ、ニューラルネットワーク1602及び1604を通過する。推定された分類値y’は、ANNモデル120の出力層(例えば、順伝播型ニューラルネットワーク1604の一部)から出力することができる。対応する訓練サンプル1304内の対象語の推定された分類値y’及び実際の分類値yは、目的関数1306に送信することができ、訓練アルゴリズム1308を使用する目的関数1306によって、推定された分類値y’と実際の分類値yとの間の差を使用して、ANNモデル120内のニューラルネットワーク1602及び1604の各々と関連付けられる各パラメータセットを共に調整することができる。各訓練サンプル1304に対して、ANNモデル120内のニューラルネットワーク1602及び1604の各々と関連付けられる各パラメータセットを反復的に共に調整することによって、推定された分類値y’と実際の分類値yとの間の差は小さくなっていき、目的関数1306が最適化される。
[0098]例えば、図17に示すコンピュータシステム1700のような1つ又は複数のコンピュータシステム1700を使用して、様々な実施形態を実施することができる。1つ又は複数のコンピュータシステム1700を使用して、例えば、図3の方法300、図9の方法900、図10の方法1000、図11の方法1100、図12の方法1200、及び図15の方法1500を実施することができる。例えば、コンピュータシステム1700は、様々な実施形態に従って、文法誤りを検出及び訂正し、並びに/又は、文法誤りを検出及び訂正するための人工ニューラルネットワークを訓練することができる。コンピュータシステム1700は、本明細書において説明されている機能を実施することが可能な任意のコンピュータであってもよい。
[0099]コンピュータシステム1700は、本明細書において説明されている機能を実施することが可能な任意の周知のコンピュータであってもよい。コンピュータシステム1700は、プロセッサ1704のような、1つ又は複数のプロセッサ(中央処理装置、すなわちCPUとも呼ばれる)を含む。プロセッサ1704は、通信インフラストラクチャ又はバス1706に接続される。1つ又は複数のプロセッサ1704は各々、グラフィックス処理装置(GPU)であってもよい。一実施形態において、GPUは、数学的に処理の多いアプリケーションを処理するように設計された専用電子回路であるプロセッサである。GPUは、コンピュータグラフィックスアプリケーション画像、ビデオなどに一般的な数学的の処理量の多いデータのような、大規模なデータブロックの並列処理に効率的な並列構造を有してもよい。
[00100]コンピュータシステム1700はまた、ユーザ入出力インターフェース(複数可)1702を通じて通信インフラストラクチャ1706と通信する、モニタ、キーボード、ポインティングデバイスなどのようなユーザ入出力デバイス(複数可)1703をも含む。
[00101]コンピュータシステム1700はまた、ランダムアクセスメモリ(RAM)のような、メイン又は一次メモリ1708をも含む。メインメモリ1708は、1つ又は複数のレベルのキャッシュを含むことができる。メインメモリ1708は、制御論理(すなわち、コンピュータソフトウェア)及び/又はデータを記憶されている。コンピュータシステム1700はまた、1つ又は複数の二次記憶デバイス又はメモリ1710をも含むことができる。二次メモリ1710は、例えば、ハードディスクドライブ1712及び/又はリムーバブル記憶デバイス若しくはドライブ1714を含んでもよい。リムーバブル記憶ドライブ1714は、フロッピーディスクドライブ、磁気テープドライブ、コンパクトディスクドライブ、光学記憶デバイス、テープバックアップデバイス、及び/又は、任意の他の記憶デバイス/ドライブであってもよい。リムーバブル記憶ドライブ1714は、リムーバブル記憶ユニット1718と相互作用することができる。リムーバブル記憶ユニット1718は、コンピュータソフトウェア(制御論理)及び/又はデータを記憶されているコンピュータ使用可能又は可読記憶デバイスを含む。リムーバブル記憶ユニット1718は、フロッピーディスク、磁気テープ、コンパクトディスク、DVD、光学記憶ディスク、及び/又は任意の他のコンピュータデータ記憶デバイスであってもよい。リムーバブル記憶ドライブ1714は、周知の方法でリムーバブル記憶ユニット1718に対して読み出し及び/又は書き込みを行う。
[00102]例示的な実施形態によれば、二次メモリ1710は、コンピュータプログラム並びに/又は他の命令及び/若しくはデータがコンピュータシステム1700によってアクセスされることを可能にするための他の手段、機器又は他の手法を含んでもよい。そのような手段、機器又は他の手法は、例えば、リムーバブル記憶ユニット1722及びインターフェース1720を含んでもよい。リムーバブル記憶ユニット1722及びインターフェース1720の例は、プログラムカートリッジ及びカートリッジインターフェース(ビデオゲームデバイスに見られるものなど)、リムーバブルメモリチップ(EPROM又はPROMなど)及び関連付けられるソケット、メモリスティック及びUSBポート、メモリカード及び関連付けられるメモリカードスロット、並びに/又は、任意の他のリムーバブル記憶ユニット及び関連付けられるインターフェースを含んでもよい。
[00103]コンピュータシステム1700は、通信又はネットワークインタフェース1724をさらに含むことができる。通信インターフェース1724は、コンピュータシステム1700が、遠隔デバイス、遠隔ネットワーク、遠隔エンティティなど(個々に及びまとめて参照符号1728によって参照される)の任意の組み合わせと通信及び対話することを可能にする。例えば、通信インターフェース1724は、コンピュータシステム1700が、有線及び/又は無線であってもよく、LAN、WAN、インターネットなどの任意の組み合わせを含んでもよい通信経路1726を介して、遠隔デバイス1728と通信することを可能にすることができる。制御論理及び/又はデータは、通信経路1726を介して、コンピュータシステム1700へと、及び、コンピュータシステム1700から送信することができる。
[00104]一実施形態において、制御論理(ソフトウェア)を記憶されている有形コンピュータ使用可能又は可読媒体を備える有形装置又は製造品も、コンピュータプログラム製品又はプログラム記憶デバイスとして、本明細書において参照される。有形装置又は製造品は、限定ではないが、コンピュータシステム1700と、メインメモリ1708と、二次メモリ1710と、リムーバブル記憶ユニット1718及び1722、並びに、上記の任意の組み合わせを具現化する有形製造品を含む。当該制御論理は、1つ又は複数のデータ処理デバイス(コンピュータシステム1700など)によって実行されると、当該データ処理デバイスに、本明細書において説明されているように動作させる。
[00105]本開示に含まれる教示に基づいて、図17に示すもの以外のデータ処理デバイス、コンピュータシステム及び/又はコンピュータアーキテクチャを使用して本開示の実施形態の作成及び使用する方法が、当業者には諒解されよう。特に、実施形態は、本明細書において説明されているもの以外のソフトウェア、ハードウェア、及び/又はオペレーティングシステム実装を用いて動作することができる。
[00106]概要及び要約の節ではなく、詳細な説明の節は、特許請求の範囲を解釈するために使用されるように意図されていることは諒解されたい。概要及び要約の節は、本発明者(複数可)によって企図されるものとしての、本開示の1つ又は複数の、ただしすべてではない例示的な実施形態を記載し得、したがって、本開示又は添付の特許請求の範囲を限定するようには決して意図されていない。
[00107]本開示を例示的な分野及び用途の例示的な実施形態を参照して本明細書において説明したが、本開示は当該実施形態には限定されないことを理解されたい。他の実施形態及び当該実施形態に対する修正が可能であり、本開示の範囲及び精神の内にある。例えば、本段落の一般性を限定することなく、実施形態は、図面に示されており、及び/又は、本明細書において説明されているソフトウェア、ハードウェア、ファームウェア、及び/又はエンティティには限定されない。さらに、実施形態(本明細書において明示的に説明されているか否かにかかわらず)は、本明細書において説明されている例を超えて、分野及び用途に対する多大な有用性を有する。
[00108]実施形態は、本明細書において、実施形態の指定されている機能及び関係の実施態様を示す機能的構成単位を用いて説明されている。当該機能的構成単位の境界は、説明の便宜上、本明細書においては任意裁量で規定されている。指定されている機能及び関係(又は当該機能及び関係の均等物)が適切に実施される限り、代替の境界を規定することができる。また、代替的な実施形態は、本明細書において説明されているものとは異なる順序付けを使用して、機能ブロック、ステップ、動作、方法などを実施することができる。
[00109]本開示の幅及び範囲は、上述した実施形態例のいずれによっても限定されるべきではなく、添付の特許請求の範囲及び特許請求の範囲の均等物に従ってのみ規定されるべきである。
[発明の項目]
[発明の項目]
[項目1]
文法誤り検出のための方法であって、
少なくとも1つのプロセッサによって、文を受信するステップと、
前記少なくとも1つのプロセッサによって、前記文内の1つ又は複数の対象語を、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別するステップであり、前記1つ又は複数の対象語の各々が、前記1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応する、識別するステップと、
前記1つ又は複数の対象語のうちの少なくとも1つについて、前記少なくとも1つのプロセッサによって、前記対応する文法誤りタイプに関連する前記対象語の分類を、前記文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定するステップであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、推定するステップと、
前記少なくとも1つのプロセッサによって、前記文内の文法誤りを、前記対象語及び前記対象語の前記推定された分類に少なくとも部分的に基づいて検出するステップと
を含む、文法誤り検出のための方法。
[項目2]
前記推定するステップが、
前記2つの再帰型ニューラルネットワークを使用して、前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の前記文脈ベクトルを与えることと、
前記順伝播型ニューラルネットワークを使用して、前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の前記分類値を与えることと
をさらに含む、項目1に記載の文法誤り検出のための方法。
[項目3]
前記対象語の前記文脈ベクトルが、前記対象語の見出し語に少なくとも部分的に基づいて与えられる、項目2に記載の文法誤り検出のための方法。
[項目4]
前記推定するステップが、
単語埋め込みベクトルの第1のセットを生成することであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の前の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成することと、
単語埋め込みベクトルの第2のセットを生成することであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の後の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成することと
をさらに含む、項目2に記載の文法誤り検出のための方法。
[項目5]
各単語埋め込みベクトルの次元の数が少なくとも100である、項目4に記載の文法誤り検出のための方法。
[項目6]
前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、項目1に記載の文法誤り検出のための方法。
[項目7]
前記対象語の前の前記少なくとも1つの単語の数及び/又は前記対象語の後の前記少なくとも1つの単語の数が、前記文法誤りタイプに少なくとも部分的に基づいて決定される、項目1に記載の文法誤り検出のための方法。
[項目8]
前記推定するステップが、
前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈重みベクトルを与えることと、
前記文脈重みベクトルを前記文脈ベクトルに適用することと
をさらに含む、項目2に記載の文法誤り検出のための方法。
[項目9]
前記文脈ベクトルを与える前記ステップが、
前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えることと、
前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えることと、
前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えることと
をさらに含む、項目4に記載の文法誤り検出のための方法。
[項目10]
前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、項目9に記載の文法誤り検出のための方法。
[項目11]
前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、項目1に記載の文法誤り検出のための方法。
[項目12]
前記順伝播型ニューラルネットワークが、
前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
を備える、項目1に記載の文法誤り検出のための方法。
[項目13]
前記分類値が、前記文法誤りタイプと関連付けられる複数のクラスにわたる前記対象語の確率分布である、項目1に記載の文法誤り検出のための方法。
[項目14]
前記検出するステップが、
前記対象語の前記推定された分類を、前記対象語の実際の分類と比較することと、
前記対象語の前記実際の分類が前記推定された分類と一致しないとき、前記文内の前記文法誤りを検出することと
をさらに含む、項目1に記載の文法誤り検出のための方法。
[項目15]
前記文内の前記文法誤りの検出に応答して、前記対象語の前記推定された分類に少なくとも部分的に基づいて、前記対象語の文法誤り訂正を与えるステップをさらに含む、項目1に記載の文法誤り検出のための方法。
[項目16]
前記1つ又は複数の対象語の各々について、前記文法誤りタイプについて訓練されたそれぞれの人工ニューラルネットワークを使用して、前記対応する文法誤りタイプに関連する前記対象語のそれぞれの分類を推定し、前記対象語の前記推定された分類を前記対象語の実際の分類と比較して、前記対象語の文法誤り結果を生成するステップと、
前記対応する文法誤りタイプに少なくとも部分的に基づいて、前記1つ又は複数の対象語の前記文法誤り結果の各々に重みを適用するステップと、
前記1つ又は複数の対象語の前記文法誤り結果及び前記重みに基づいて、前記文の文法スコアを与えるステップと
をさらに含む、項目1に記載の文法誤り検出のための方法。
[項目17]
前記文法スコアが、前記文がそこから受信されたユーザと関連付けられる情報に少なくとも部分的に基づいて与えられる、項目16に記載の文法誤り検出のための方法。
[項目18]
前記モデルが、ネイティブ訓練サンプルによって訓練される、項目1に記載の文法誤り検出のための方法。
[項目19]
前記2つの再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが共に訓練される、項目1に記載の文法誤り検出のための方法。
[項目20]
前記モデルが、
前記文脈ベクトルを生成するために前記2つの再帰型ニューラルネットワークに入力されるための初期文脈ベクトルのセットを出力するように構成されている別の再帰型ニューラルネットワークと、
前記文脈ベクトルに適用されるための文脈重みベクトルを出力するように構成されている別の順伝播型ニューラルネットワークと
をさらに含む、項目1に記載の文法誤り検出のための方法。
[項目21]
すべての前記再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが、ネイティブ訓練サンプルによって共に訓練される、項目20に記載の文法誤り検出のための方法。
[項目22]
メモリと、
前記メモリに結合されている少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサが、
文を受信することと、
前記文内の1つ又は複数の対象語を、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別することであり、前記1つ又は複数の対象語の各々が、前記1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応する、識別することと、
前記1つ又は複数の対象語のうちの少なくとも1つについて、前記対応する文法誤りタイプに関連する前記対象語の分類を、前記文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを生成するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、推定することと、
前記文内の文法誤りを、前記対象語及び前記対象語の前記推定された分類に少なくとも部分的に基づいて検出することと
を行うように構成されている、文法誤り検出のためのシステム。
[項目23]
前記対象語の分類を推定するために、前記少なくとも1つのプロセッサが、
前記2つの再帰型ニューラルネットワークを使用して、前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の前記文脈ベクトルを与えることと、
前記順伝播型ニューラルネットワークを使用して、前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の前記分類値を与えることと
を行うように構成されている、項目22に記載の文法誤り検出のためのシステム。
[項目24]
前記対象語の前記文脈ベクトルが、前記対象語の見出し語に少なくとも部分的に基づいて与えられる、項目23に記載の文法誤り検出のためのシステム。
[項目25]
前記対象語の分類を推定するために、前記少なくとも1つのプロセッサが、
単語埋め込みベクトルの第1のセットを生成することであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の前の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成することと、
単語埋め込みベクトルの第2のセットを生成することであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の後の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成することと
を行うように構成されている、項目23に記載の文法誤り検出のためのシステム。
[項目26]
各単語埋め込みベクトルの次元の数が少なくとも100である、項目25に記載の文法誤り検出のためのシステム。
[項目27]
前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、項目22に記載の文法誤り検出のためのシステム。
[項目28]
前記対象語の前の前記少なくとも1つの単語の数及び/又は前記対象語の後の前記少なくとも1つの単語の数が、前記文法誤りタイプに少なくとも部分的に基づいて決定される、項目22に記載の文法誤り検出のためのシステム。
[項目29]
前記対象語の分類を推定するために、前記少なくとも1つのプロセッサが、
前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈重みベクトルを与えることと、
前記文脈重みベクトルを前記文脈ベクトルに適用することと
を行うように構成されている、項目23に記載の文法誤り検出のためのシステム。
[項目30]
前記対象語の前記文脈ベクトルを与えるために、前記少なくとも1つのプロセッサが、
前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えることと、
前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えることと、
前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えることと
を行うように構成されている、項目25に記載の文法誤り検出のためのシステム。
[項目31]
前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、項目30に記載の文法誤り検出のためのシステム。
[項目32]
前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、項目22に記載の文法誤り検出のためのシステム。
[項目33]
前記順伝播型ニューラルネットワークが、
前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
を備える、項目22に記載の文法誤り検出のためのシステム。
[項目34]
前記分類値が、前記文法誤りタイプと関連付けられる複数のクラスにわたる前記対象語の確率分布である、項目22に記載の文法誤り検出のためのシステム。
[項目35]
文法誤りを検出するために、前記少なくとも1つのプロセッサが、
前記対象語の前記推定された分類を、前記対象語の実際の分類と比較することと、
前記対象語の前記実際の分類が前記推定された分類と一致しないとき、前記文内の前記文法誤りを検出することと
を行うように構成されている、項目22に記載の文法誤り検出のためのシステム。
[項目36]
前記少なくとも1つのプロセッサが、前記文内の前記文法誤りの検出に応答して、前記対象語の前記推定された分類に少なくとも部分的に基づいて、前記対象語の文法誤り訂正を与えるようにさらに構成されている、項目22に記載の文法誤り検出のためのシステム。
[項目37]
前記少なくとも1つのプロセッサが、
前記1つ又は複数の対象語の各々について、前記文法誤りタイプについて訓練されたそれぞれの人工ニューラルネットワークを使用して、前記対応する文法誤りタイプに関連する前記対象語のそれぞれの分類を推定し、前記対象語の前記推定された分類を前記対象語の実際の分類と比較して、前記対象語の文法誤り結果を生成することと、
前記対応する文法誤りタイプに少なくとも部分的に基づいて、前記1つ又は複数の対象語の前記文法誤り結果の各々に重みを適用することと、
前記1つ又は複数の対象語の前記文法誤り結果及び前記重みに基づいて、前記文の文法スコアを与えることと
を行うようにさらに構成されている、項目22に記載の文法誤り検出のためのシステム。
[項目38]
前記文法スコアが、前記文がそこから受信されたユーザと関連付けられる情報に少なくとも部分的に基づいて与えられる、項目37に記載の文法誤り検出のためのシステム。
[項目39]
前記モデルが、ネイティブ訓練サンプルによって訓練される、項目22に記載の文法誤り検出のためのシステム。
[項目40]
前記2つの再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが共に訓練される、項目22に記載の文法誤り検出のためのシステム。
[項目41]
前記モデルが、
前記文脈ベクトルを生成するために前記2つの再帰型ニューラルネットワークに入力されるための初期文脈ベクトルのセットを出力するように構成されている別の再帰型ニューラルネットワークと、
前記文脈ベクトルに適用されるための文脈重みベクトルを出力するように構成されている別の順伝播型ニューラルネットワークと
をさらに含む、項目22に記載の文法誤り検出のためのシステム。
[項目42]
すべての前記再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが、ネイティブ訓練サンプルによって共に訓練される、項目41に記載の文法誤り検出のためのシステム。
[項目43]
少なくとも1つのコンピューティングデバイスによって実行されると、前記少なくとも1つのコンピューティングデバイスに、動作を実施させる命令を記憶されている、有形コンピュータ可読デバイスであって、前記動作が、
文を受信することと、
前記文内の1つ又は複数の対象語を、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別することであり、前記1つ又は複数の対象語の各々が、前記1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応する、識別することと、
前記1つ又は複数の対象語のうちの少なくとも1つについて、前記対応する文法誤りタイプに関連する前記対象語の分類を、前記文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、推定することと、
前記文内の文法誤りを、前記対象語及び前記対象語の前記推定された分類に少なくとも部分的に基づいて検出することと
を含む、有形コンピュータ可読デバイス。
[項目44]
少なくとも1つのプロセッサによって、文法誤りタイプに関連する文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供するステップであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、提供するステップと、
前記少なくとも1つのプロセッサによって、訓練サンプルのセットを取得するステップであり、前記訓練サンプルのセット内の各訓練サンプルが、前記文法誤りタイプに関連する対象語を含む文、及び、前記文法誤りタイプに関連する前記対象語の実際の分類を含む、取得するステップと、
前記少なくとも1つのプロセッサによって、前記再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、前記順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差に少なくとも部分的に基づいて、共に調整するステップと
を含む、人工ニューラルネットワークモデルを訓練するための方法。
[項目45]
各訓練サンプルが文法誤りのないネイティブ訓練サンプルである、項目44に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目46]
前記再帰型ニューラルネットワークが、ゲート付き再帰型ユニット(GRU)ニューラルネットワークであり、前記順伝播型ニューラルネットワークが、多層知覚(MLP)ニューラルネットワークである、項目44に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目47]
前記モデルが、前記文脈ベクトルに適用されるための文脈重みベクトルを出力するように構成されている別の順伝播型ニューラルネットワークをさらに含む、項目44に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目48]
前記共に調整するステップが、前記パラメータの第1のセット及び前記パラメータの第2のセット、並びに、前記別の順伝播型ニューラルネットワークと関連付けられるパラメータの第3のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差に少なくとも部分的に基づいて、共に調整するステップを含む、項目47に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目49]
各訓練サンプルについて、
単語埋め込みベクトルの第1のセットを生成するステップであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の前の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成するステップと、
単語埋め込みベクトルの第2のセットを生成するステップであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の後の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成するステップと
をさらに含む、項目44に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目50]
各単語埋め込みベクトルの次元の数が少なくとも100である、項目49に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目51]
前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、項目49に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目52]
各訓練サンプルについて、
前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えるステップと、
前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えるステップと、
前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えるステップと
をさらに含む、項目49に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目53]
前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、項目52に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目54]
前記第1の文脈ベクトル及び前記第2の文脈ベクトルが、前記訓練サンプル内の前記文の意味特徴を含まない、項目52に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目55]
前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、項目44に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目56]
前記順伝播型ニューラルネットワークが、
前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
を備える、項目44に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目57]
メモリと、
前記メモリに結合されている少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサが、
文法誤りタイプに関連する文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、提供することと、
訓練サンプルのセットを取得することであり、前記訓練サンプルのセット内の各訓練サンプルが、前記文法誤りタイプに関連する対象語を含む文、及び、前記文法誤りタイプに関連する前記対象語の実際の分類を含む、取得することと、
前記再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、前記順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差に少なくとも部分的に基づいて、共に調整することと
を行うように構成されている、人工ニューラルネットワークモデルを訓練するためのシステム。
[項目58]
各訓練サンプルが文法誤りのないネイティブ訓練サンプルである、項目57に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目59]
前記再帰型ニューラルネットワークが、ゲート付き再帰型ユニット(GRU)ニューラルネットワークであり、前記順伝播型ニューラルネットワークが、多層知覚(MLP)ニューラルネットワークである、項目57に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目60]
前記モデルが、前記文脈ベクトルに適用されるための文脈重みベクトルを出力するように構成されている別の順伝播型ニューラルネットワークをさらに含む、項目57に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目61]
パラメータの第1のセット及びパラメータの第2のセットを共に調整するために、前記少なくとも1つのプロセッサが、
前記パラメータの第1のセット及び前記パラメータの第2のセット、並びに、前記別の順伝播型ニューラルネットワークと関連付けられるパラメータの第3のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差に少なくとも部分的に基づいて、共に調整するように構成されている、項目60に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目62]
前記少なくとも1つのプロセッサが、各訓練サンプルについて、
単語埋め込みベクトルの第1のセットを生成することであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の前の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成することと、
単語埋め込みベクトルの第2のセットを生成することであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の後の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成することと
を行うようにさらに構成されている、項目57に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目63]
各単語埋め込みベクトルの次元の数が少なくとも100である、項目62に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目64]
前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、項目62に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目65]
前記少なくとも1つのプロセッサが、各訓練サンプルについて、
前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えることと、
前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えることと、
前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えることと
を行うようにさらに構成されている、項目62に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目66]
前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、項目65に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目67]
前記第1の文脈ベクトル及び前記第2の文脈ベクトルが、前記訓練サンプル内の前記文の意味特徴を含まない、項目65に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目68]
前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、項目57に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目69]
前記順伝播型ニューラルネットワークが、
前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
を備える、項目57に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目70]
少なくとも1つのコンピューティングデバイスによって実行されると、前記少なくとも1つのコンピューティングデバイスに、動作を実施させる命令を記憶されている、有形コンピュータ可読デバイスであって、前記動作が、
文法誤りタイプに関連する文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、提供することと、
訓練サンプルのセットを取得することであり、前記訓練サンプルのセット内の各訓練サンプルが、前記文法誤りタイプに関連する対象語を含む文、及び、前記文法誤りタイプに関連する前記対象語の実際の分類を含む、取得することと、
前記再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、前記順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差に少なくとも部分的に基づいて、共に調整することと
を含む、有形コンピュータ可読デバイス。

Claims (66)

  1. 文法誤り検出のための方法であって、
    少なくとも1つのプロセッサによって、文を受信するステップと、
    前記少なくとも1つのプロセッサによって、受信した前記文をトークン化することにより、前記文内の1つ又は複数の対象語を、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別するステップであり、前記1つ又は複数の対象語の各々が、前記1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応し、複数の文法誤りタイプが予め品詞タグに基づいて判定される、識別するステップと、
    前記少なくとも1つのプロセッサによって、前記品詞タグに基づいて対応する文法誤りタイプに関連する各対象語の元のラベルを、各対象語の実際の分類に対応する実際の分類値として、判定するステップと、
    前記1つ又は複数の対象語のうちの少なくとも1つについて、前記少なくとも1つのプロセッサによって、前記対応する文法誤りタイプに関連する前記対象語の分類を、前記文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定するステップであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の各分類に対応する分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、推定するステップと、
    前記少なくとも1つのプロセッサによって、前記文内の文法誤りを、前記対象語及び前記対象語の前記推定された分類に少なくとも部分的に基づいて検出するステップであり、該検出するステップが、
    前記対象語の前記推定された分類を、前記対象語の実際の分類と比較することと、
    前記対象語の前記実際の分類が前記推定された分類と一致しないとき、前記文内の前記文法誤りを検出することと、
    前記文内の前記文法誤りの検出に応答して、前記対象語の文法誤り訂正として前記対象語の前記推定された分類を利用することと、
    を含む、検出するステップ
    を含む、文法誤り検出のための方法。
  2. 前記推定するステップが、
    前記2つの再帰型ニューラルネットワークを使用して、前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の前記文脈ベクトルを与えることと、
    前記順伝播型ニューラルネットワークを使用して、前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の前記分類値を与えることと
    をさらに含む、請求項1に記載の文法誤り検出のための方法。
  3. 前記対象語の前記文脈ベクトルが、前記対象語の見出し語に少なくとも部分的に基づいて与えられる、請求項2に記載の文法誤り検出のための方法。
  4. 前記推定するステップが、
    単語埋め込みベクトルの第1のセットを生成することであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の前の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成することと、
    単語埋め込みベクトルの第2のセットを生成することであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の後の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成することと
    をさらに含む、請求項2に記載の文法誤り検出のための方法。
  5. 各単語埋め込みベクトルの次元の数が少なくとも100である、請求項4に記載の文法誤り検出のための方法。
  6. 前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
    前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、請求項1に記載の文法誤り検出のための方法。
  7. 前記対象語の前の前記少なくとも1つの単語の数及び/又は前記対象語の後の前記少なくとも1つの単語の数が、前記文法誤りタイプに少なくとも部分的に基づいて決定される、請求項1に記載の文法誤り検出のための方法。
  8. 前記推定するステップが、
    前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈重みベクトルを与えることと、
    前記文脈重みベクトルを前記文脈ベクトルに適用することと
    をさらに含む、請求項2に記載の文法誤り検出のための方法。
  9. 前記文脈ベクトルを与える前記ステップが、
    前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えることと、
    前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えることと、
    前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えることと
    をさらに含む、請求項4に記載の文法誤り検出のための方法。
  10. 前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
    前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、請求項9に記載の文法誤り検出のための方法。
  11. 前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、請求項1に記載の文法誤り検出のための方法。
  12. 前記順伝播型ニューラルネットワークが、
    前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
    前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
    を備える、請求項1に記載の文法誤り検出のための方法。
  13. 前記分類値が、前記文法誤りタイプと関連付けられる複数のクラスにわたる前記対象語の確率分布である、請求項1に記載の文法誤り検出のための方法。
  14. 前記1つ又は複数の対象語の各々について、前記文法誤りタイプについて訓練されたそれぞれの人工ニューラルネットワークを使用して、前記対応する文法誤りタイプに関連する前記対象語のそれぞれの分類を推定し、前記対象語の前記推定された分類を前記対象語の実際の分類と比較して、前記対象語の文法誤り結果を生成するステップと、
    前記対応する文法誤りタイプに少なくとも部分的に基づいて、前記1つ又は複数の対象語の前記文法誤り結果の各々に重みを適用するステップと、
    前記1つ又は複数の対象語の前記文法誤り結果及び前記重みに基づいて、前記文の文法スコアを与えるステップと
    をさらに含む、請求項1に記載の文法誤り検出のための方法。
  15. 前記文法スコアを特定するための係数として、前記文を入力したユーザ情報が利用される、請求項14に記載の文法誤り検出のための方法。
  16. 前記モデルが、ネイティブ訓練サンプルによって訓練される、請求項1に記載の文法誤り検出のための方法。
  17. 前記2つの再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが共に訓練される、請求項1に記載の文法誤り検出のための方法。
  18. 前記モデルが、
    前記文脈ベクトルを生成するために前記2つの再帰型ニューラルネットワークに入力されるための初期文脈ベクトルのセットを、前記対象語の周囲の単語に基づき出力するように構成されている別の再帰型ニューラルネットワークと、
    前記文脈ベクトルに適用されるための文脈重みベクトルを、前記初期文脈ベクトルに基づき出力するように構成されている別の順伝播型ニューラルネットワークと
    をさらに含む、請求項1に記載の文法誤り検出のための方法。
  19. すべての前記再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが、ネイティブ訓練サンプルによって共に訓練される、請求項18に記載の文法誤り検出のための方法。
  20. メモリと、
    前記メモリに結合されている少なくとも1つのプロセッサと
    を備え、前記少なくとも1つのプロセッサが、
    文を受信することと、
    受信した前記文をトークン化することにより、前記文内の1つ又は複数の対象語を、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別することであり、前記1つ又は複数の対象語の各々が、前記1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応し、複数の文法誤りタイプが予め品詞タグに基づいて判定される、識別することと、
    前記品詞タグに基づいて対応する文法誤りタイプに関連する各対象語の元のラベルを、各対象語の実際の分類に対応する実際の分類値として、判定することと、
    前記1つ又は複数の対象語のうちの少なくとも1つについて、前記対応する文法誤りタイプに関連する前記対象語の分類を、前記文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを生成するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の各分類に対応する分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、推定することと、
    前記文内の文法誤りを、前記対象語及び前記対象語の前記推定された分類に少なくとも部分的に基づいて検出することと
    前記対象語の前記推定された分類を、前記対象語の実際の分類と比較することと、
    前記対象語の前記実際の分類が前記推定された分類と一致しないとき、前記文内の前記文法誤りを検出することと、
    前記文内の前記文法誤りの検出に応答して、前記対象語の文法誤り訂正として前記対象語の前記推定された分類を利用することと、
    を行うように構成されている、文法誤り検出のためのシステム。
  21. 前記対象語の分類を推定するために、前記少なくとも1つのプロセッサが、
    前記2つの再帰型ニューラルネットワークを使用して、前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の前記文脈ベクトルを与えることと、
    前記順伝播型ニューラルネットワークを使用して、前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の前記分類値を与えることと
    を行うように構成されている、請求項20に記載の文法誤り検出のためのシステム。
  22. 前記対象語の前記文脈ベクトルが、前記対象語の見出し語に少なくとも部分的に基づいて与えられる、請求項21に記載の文法誤り検出のためのシステム。
  23. 前記対象語の分類を推定するために、前記少なくとも1つのプロセッサが、
    単語埋め込みベクトルの第1のセットを生成することであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の前の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成することと、
    単語埋め込みベクトルの第2のセットを生成することであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の後の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成することと
    を行うように構成されている、請求項21に記載の文法誤り検出のためのシステム。
  24. 各単語埋め込みベクトルの次元の数が少なくとも100である、請求項23に記載の文法誤り検出のためのシステム。
  25. 前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
    前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、請求項20に記載の文法誤り検出のためのシステム。
  26. 前記対象語の前の前記少なくとも1つの単語の数及び/又は前記対象語の後の前記少なくとも1つの単語の数が、前記文法誤りタイプに少なくとも部分的に基づいて決定される、請求項20に記載の文法誤り検出のためのシステム。
  27. 前記対象語の分類を推定するために、前記少なくとも1つのプロセッサが、
    前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈重みベクトルを与えることと、
    前記文脈重みベクトルを前記文脈ベクトルに適用することと
    を行うように構成されている、請求項21に記載の文法誤り検出のためのシステム。
  28. 前記対象語の前記文脈ベクトルを与えるために、前記少なくとも1つのプロセッサが、
    前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えることと、
    前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えることと、
    前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えることと
    を行うように構成されている、請求項23に記載の文法誤り検出のためのシステム。
  29. 前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
    前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、請求項28に記載の文法誤り検出のためのシステム。
  30. 前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、請求項20に記載の文法誤り検出のためのシステム。
  31. 前記順伝播型ニューラルネットワークが、
    前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
    前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
    を備える、請求項20に記載の文法誤り検出のためのシステム。
  32. 前記分類値が、前記文法誤りタイプと関連付けられる複数のクラスにわたる前記対象語の確率分布である、請求項20に記載の文法誤り検出のためのシステム。
  33. 前記少なくとも1つのプロセッサが、
    前記1つ又は複数の対象語の各々について、前記文法誤りタイプについて訓練されたそれぞれの人工ニューラルネットワークを使用して、前記対応する文法誤りタイプに関連する前記対象語のそれぞれの分類を推定し、前記対象語の前記推定された分類を前記対象語の実際の分類と比較して、前記対象語の文法誤り結果を生成することと、
    前記対応する文法誤りタイプに少なくとも部分的に基づいて、前記1つ又は複数の対象語の前記文法誤り結果の各々に重みを適用することと、
    前記1つ又は複数の対象語の前記文法誤り結果及び前記重みに基づいて、前記文の文法スコアを与えることと
    を行うようにさらに構成されている、請求項20に記載の文法誤り検出のためのシステム。
  34. 前記文法スコアを特定するための係数として、前記文を入力したユーザ情報が利用される、請求項33に記載の文法誤り検出のためのシステム。
  35. 前記モデルが、ネイティブ訓練サンプルによって訓練される、請求項20に記載の文法誤り検出のためのシステム。
  36. 前記2つの再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが共に訓練される、請求項20に記載の文法誤り検出のためのシステム。
  37. 前記モデルが、
    前記文脈ベクトルを生成するために前記2つの再帰型ニューラルネットワークに入力されるための初期文脈ベクトルのセットを、前記対象語の周囲の単語に基づき出力するように構成されている別の再帰型ニューラルネットワークと、
    前記文脈ベクトルに適用されるための文脈重みベクトルを、前記初期文脈ベクトルに基づき出力するように構成されている別の順伝播型ニューラルネットワークと
    をさらに含む、請求項20に記載の文法誤り検出のためのシステム。
  38. すべての前記再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが、ネイティブ訓練サンプルによって共に訓練される、請求項37に記載の文法誤り検出のためのシステム。
  39. 少なくとも1つのコンピューティングデバイスによって実行されると、前記少なくとも1つのコンピューティングデバイスに、動作を実施させる命令を記憶されている、有形コンピュータ可読デバイスであって、前記動作が、
    文を受信することと、
    受信した前記文をトークン化することにより、前記文内の1つ又は複数の対象語を、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別することであり、前記1つ又は複数の対象語の各々が、前記1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応し、複数の文法誤りタイプが予め品詞タグに基づいて判定される、識別することと、
    前記品詞タグに基づいて対応する文法誤りタイプに関連する各対象語の元のラベルを、各対象語の実際の分類に対応する実際の分類値として、判定することと、
    前記1つ又は複数の対象語のうちの少なくとも1つについて、前記対応する文法誤りタイプに関連する前記対象語の分類を、前記文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の各分類に対応する分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、推定することと、
    前記文内の文法誤りを、前記対象語及び前記対象語の前記推定された分類に少なくとも部分的に基づいて検出することであり、該検出することが、
    前記対象語の前記推定された分類を、前記対象語の実際の分類と比較することと、
    前記対象語の前記実際の分類が前記推定された分類と一致しないとき、前記文内の前記文法誤りを検出することと、
    前記文内の前記文法誤りの検出に応答して、前記対象語の文法誤り訂正として前記対象語の前記推定された分類を利用することと、
    を含む、検出すること
    を含む、有形コンピュータ可読デバイス。
  40. 少なくとも1つのプロセッサによって、文法誤りタイプに関連する文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供するステップであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含み、特定の文法誤りタイプに対する各人工ニューラルネットワークモデルが、訓練アルゴリズムを使用して目的関数に基づいて訓練サンプルのセットに対して訓練され、前記訓練アルゴリズムが勾配降下アルゴリズムであり、前記目的関数がクロスエントロピーアルゴリズムであり、モデルパラメータが、前記モデルを最適にするために前記目的関数のサイズおよび勾配に従って最適化される、提供するステップと、
    前記少なくとも1つのプロセッサによって、訓練サンプルのセットを取得するステップであり、前記訓練サンプルのセット内の各訓練サンプルが、前記文法誤りタイプに関連する対象語を含む文、及び、前記文法誤りタイプに関連する前記対象語の実際の分類を含む、取得するステップと、
    前記少なくとも1つのプロセッサによって、前記再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、前記順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差が小さくなるように、共に調整するステップと
    を含む、人工ニューラルネットワークモデルを訓練するための方法。
  41. 各訓練サンプルが文法誤りのないネイティブ訓練サンプルである、請求項40に記載の人工ニューラルネットワークモデルを訓練するための方法。
  42. 前記再帰型ニューラルネットワークが、ゲート付き再帰型ユニット(GRU)ニューラルネットワークであり、前記順伝播型ニューラルネットワークが、多層知覚(MLP)ニューラルネットワークである、請求項40に記載の人工ニューラルネットワークモデルを訓練するための方法。
  43. 前記モデルが、前記文脈ベクトルに適用されるための文脈重みベクトルを、前記文内の文脈語に基づき出力するように構成されている別の順伝播型ニューラルネットワークをさらに含む、請求項40に記載の人工ニューラルネットワークモデルを訓練するための方法。
  44. 前記共に調整するステップが、前記パラメータの第1のセット及び前記パラメータの第2のセット、並びに、前記別の順伝播型ニューラルネットワークと関連付けられるパラメータの第3のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差が小さくなるように、共に調整するステップを含む、請求項43に記載の人工ニューラルネットワークモデルを訓練するための方法。
  45. 各訓練サンプルについて、
    単語埋め込みベクトルの第1のセットを生成するステップであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の前の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成するステップと、
    単語埋め込みベクトルの第2のセットを生成するステップであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の後の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成するステップと
    をさらに含む、請求項40に記載の人工ニューラルネットワークモデルを訓練するための方法。
  46. 各単語埋め込みベクトルの次元の数が少なくとも100である、請求項45に記載の人工ニューラルネットワークモデルを訓練するための方法。
  47. 前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
    前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、請求項45に記載の人工ニューラルネットワークモデルを訓練するための方法。
  48. 各訓練サンプルについて、
    前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えるステップと、
    前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えるステップと、
    前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えるステップと
    をさらに含む、請求項45に記載の人工ニューラルネットワークモデルを訓練するための方法。
  49. 前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
    前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、請求項48に記載の人工ニューラルネットワークモデルを訓練するための方法。
  50. 前記第1の文脈ベクトル及び前記第2の文脈ベクトルが、前記訓練サンプル内の前記文の意味特徴を含まない、請求項48に記載の人工ニューラルネットワークモデルを訓練するための方法。
  51. 前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、請求項40に記載の人工ニューラルネットワークモデルを訓練するための方法。
  52. 前記順伝播型ニューラルネットワークが、
    前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
    前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
    を備える、請求項40に記載の人工ニューラルネットワークモデルを訓練するための方法。
  53. メモリと、
    前記メモリに結合されている少なくとも1つのプロセッサと
    を備え、前記少なくとも1つのプロセッサが、
    文法誤りタイプに関連する文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含み、特定の文法誤りタイプのための各人工ニューラルネットワークモデルが、訓練アルゴリズムを使用して目的関数に基づいて訓練サンプルのセットに対して訓練され、前記訓練アルゴリズムが勾配降下アルゴリズムであり、前記目的関数がクロスエントロピーアルゴリズムであり、モデルパラメータが、前記モデルを最適にするために前記目的関数のサイズおよび勾配に従って最適化される、提供することと、
    訓練サンプルのセットを取得することであり、前記訓練サンプルのセット内の各訓練サンプルが、前記文法誤りタイプに関連する対象語を含む文、及び、前記文法誤りタイプに関連する前記対象語の実際の分類を含む、取得することと、
    前記再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、前記順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差が小さくなるように、共に調整することと
    を行うように構成されている、人工ニューラルネットワークモデルを訓練するためのシステム。
  54. 各訓練サンプルが文法誤りのないネイティブ訓練サンプルである、請求項53に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
  55. 前記再帰型ニューラルネットワークが、ゲート付き再帰型ユニット(GRU)ニューラルネットワークであり、前記順伝播型ニューラルネットワークが、多層知覚(MLP)ニューラルネットワークである、請求項53に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
  56. 前記モデルが、前記文脈ベクトルに適用されるための文脈重みベクトルを、前記文内の文脈語に基づき出力するように構成されている別の順伝播型ニューラルネットワークをさらに含む、請求項53に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
  57. パラメータの第1のセット及びパラメータの第2のセットを共に調整するために、前記少なくとも1つのプロセッサが、
    前記パラメータの第1のセット及び前記パラメータの第2のセット、並びに、前記別の順伝播型ニューラルネットワークと関連付けられるパラメータの第3のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差が小さくなるように、共に調整するように構成されている、請求項56に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
  58. 前記少なくとも1つのプロセッサが、各訓練サンプルについて、
    単語埋め込みベクトルの第1のセットを生成することであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の前の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成することと、
    単語埋め込みベクトルの第2のセットを生成することであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の後の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成することと
    を行うようにさらに構成されている、請求項53に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
  59. 各単語埋め込みベクトルの次元の数が少なくとも100である、請求項58に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
  60. 前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
    前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、請求項58に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
  61. 前記少なくとも1つのプロセッサが、各訓練サンプルについて、
    前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えることと、
    前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えることと、
    前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えることと
    を行うようにさらに構成されている、請求項58に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
  62. 前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
    前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、請求項61に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
  63. 前記第1の文脈ベクトル及び前記第2の文脈ベクトルが、前記訓練サンプル内の前記文の意味特徴を含まない、請求項61に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
  64. 前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、請求項53に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
  65. 前記順伝播型ニューラルネットワークが、
    前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
    前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
    を備える、請求項53に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
  66. 少なくとも1つのコンピューティングデバイスによって実行されると、前記少なくとも1つのコンピューティングデバイスに、動作を実施させる命令を記憶されている、有形コンピュータ可読デバイスであって、前記動作が、
    文法誤りタイプに関連する文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含み、特定の文法誤りタイプのための各人工ニューラルネットワークモデルが、訓練アルゴリズムを使用して目的関数に基づいて訓練サンプルのセットに対して訓練され、前記訓練アルゴリズムが勾配降下アルゴリズムであり、前記目的関数がクロスエントロピーアルゴリズムであり、モデルパラメータが、前記モデルを最適にするために前記目的関数のサイズおよび勾配に従って最適化される、提供することと、
    訓練サンプルのセットを取得することであり、前記訓練サンプルのセット内の各訓練サンプルが、前記文法誤りタイプに関連する対象語を含む文、及び、前記文法誤りタイプに関連する前記対象語の実際の分類を含む、取得することと、
    前記再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、前記順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差が小さくなるように、共に調整することと
    を含む、有形コンピュータ可読デバイス。
JP2020505241A 2017-08-03 2017-08-03 方法、システムおよび有形コンピュータ可読デバイス Active JP7031101B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/095841 WO2019024050A1 (en) 2017-08-03 2017-08-03 CORRECTION OF GRAMMAR ERRORS BASED ON DEEP CONTEXT AND USING ARTIFICIAL NEURAL NETWORKS

Publications (2)

Publication Number Publication Date
JP2020529666A JP2020529666A (ja) 2020-10-08
JP7031101B2 true JP7031101B2 (ja) 2022-03-08

Family

ID=65233230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020505241A Active JP7031101B2 (ja) 2017-08-03 2017-08-03 方法、システムおよび有形コンピュータ可読デバイス

Country Status (5)

Country Link
JP (1) JP7031101B2 (ja)
KR (1) KR102490752B1 (ja)
CN (1) CN111226222B (ja)
MX (1) MX2020001279A (ja)
WO (1) WO2019024050A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210294B (zh) * 2019-04-23 2024-08-20 平安科技(深圳)有限公司 优化模型的评价方法、装置、存储介质及计算机设备
US11176321B2 (en) 2019-05-02 2021-11-16 International Business Machines Corporation Automated feedback in online language exercises
CN111914540A (zh) * 2019-05-10 2020-11-10 阿里巴巴集团控股有限公司 语句鉴定方法及装置、存储介质和处理器
CN110399607B (zh) * 2019-06-04 2023-04-07 深思考人工智能机器人科技(北京)有限公司 一种基于拼音的对话系统文本纠错系统及方法
CN110309512A (zh) * 2019-07-05 2019-10-08 北京邮电大学 一种基于生成对抗网络的中文语法错误更正方法
CN110472243B (zh) * 2019-08-08 2023-04-07 河南大学 一种中文拼写检查方法
CN110797010A (zh) * 2019-10-31 2020-02-14 腾讯科技(深圳)有限公司 基于人工智能的问答评分方法、装置、设备及存储介质
CN110889284B (zh) * 2019-12-04 2023-04-07 成都中科云集信息技术有限公司 一种基于双向长短时记忆网络的多任务学习中文语病诊断方法
EP4220474A1 (en) * 2019-12-18 2023-08-02 Fujitsu Limited Information processing program, information processing method, and information processing device
US11886812B2 (en) * 2020-03-02 2024-01-30 Grammarly, Inc. Proficiency and native language-adapted grammatical error correction
CN111310447B (zh) * 2020-03-18 2024-02-02 河北省讯飞人工智能研究院 语法纠错方法、装置、电子设备和存储介质
CN112749553B (zh) * 2020-06-05 2023-07-25 腾讯科技(深圳)有限公司 视频文件的文本信息处理方法、装置和服务器
US11593557B2 (en) 2020-06-22 2023-02-28 Crimson AI LLP Domain-specific grammar correction system, server and method for academic text
CN111950292B (zh) * 2020-06-22 2023-06-27 北京百度网讯科技有限公司 文本纠错模型的训练方法、文本纠错处理方法和装置
KR102517971B1 (ko) * 2020-08-14 2023-04-05 부산대학교 산학협력단 자동회귀 언어 모형을 이용한 문맥의존 철자오류 교정 장치 및 방법
CN112016603B (zh) * 2020-08-18 2021-04-30 上海松鼠课堂人工智能科技有限公司 基于图神经网络的错因分析方法
KR102379660B1 (ko) * 2020-11-30 2022-03-29 주식회사 티맥스에이아이 딥러닝 기반 의미역 분석을 활용하는 방법
CN112380883B (zh) * 2020-12-04 2023-07-25 北京有竹居网络技术有限公司 模型训练方法、机器翻译方法、装置、设备及存储介质
CN112597754B (zh) * 2020-12-23 2023-11-21 北京百度网讯科技有限公司 文本纠错方法、装置、电子设备和可读存储介质
KR20220106331A (ko) * 2021-01-22 2022-07-29 삼성전자주식회사 전자 장치 및 그 제어 방법
CN114372441B (zh) * 2022-03-23 2022-06-03 中电云数智科技有限公司 一种中文文本自动纠错方法及装置
CN114818713B (zh) * 2022-05-11 2024-09-06 安徽理工大学 一种基于边界检测的中文命名实体识别方法
CN114896966B (zh) * 2022-05-17 2024-09-06 西安交通大学 一种中文文本语法错误定位方法、系统、设备及介质
CN115544259B (zh) * 2022-11-29 2023-02-17 城云科技(中国)有限公司 一种长文本分类预处理模型及其构建方法、装置及应用
CN116306598B (zh) * 2023-05-22 2023-09-08 上海蜜度信息技术有限公司 针对不同领域字词的定制化纠错方法、系统、设备及介质
CN117350283B (zh) * 2023-10-11 2024-10-01 西安栗子互娱网络科技有限公司 文本缺陷检测方法、装置、设备和存储介质
CN117574860A (zh) * 2024-01-16 2024-02-20 北京蜜度信息技术有限公司 一种用于文本润色的方法与设备
CN118014083B (zh) * 2024-02-29 2024-09-17 云南联合视觉科技有限公司 一种基于多轮提示的临床病例分析问题生成方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150309982A1 (en) 2012-12-13 2015-10-29 Postech Academy-Industry Foundation Grammatical error correcting system and grammatical error correcting method using the same
CN106610930A (zh) 2015-10-22 2017-05-03 科大讯飞股份有限公司 外语写作自动纠错方法及系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
CN101739870B (zh) * 2009-12-03 2012-07-04 深圳先进技术研究院 交互式语言学习系统及交互式语言学习方法
SG188531A1 (en) 2010-09-24 2013-04-30 Univ Singapore Methods and systems for automated text correction
US8775341B1 (en) * 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
CN103365838B (zh) * 2013-07-24 2016-04-20 桂林电子科技大学 基于多元特征的英语作文语法错误自动纠正方法
US10339920B2 (en) * 2014-03-04 2019-07-02 Amazon Technologies, Inc. Predicting pronunciation in speech recognition
KR102199445B1 (ko) * 2014-07-30 2021-01-06 에스케이텔레콤 주식회사 클래스 기반 음향 모델의 변별 학습 방법 및 장치, 그리고 이를 이용한 음성 인식 장치
US10115055B2 (en) * 2015-05-26 2018-10-30 Booking.Com B.V. Systems methods circuits and associated computer executable code for deep learning based natural language understanding
US9595002B2 (en) * 2015-05-29 2017-03-14 Sas Institute Inc. Normalizing electronic communications using a vector having a repeating substring as input for a neural network
US9552547B2 (en) * 2015-05-29 2017-01-24 Sas Institute Inc. Normalizing electronic communications using a neural-network normalizer and a neural-network flagger
US20180260860A1 (en) * 2015-09-23 2018-09-13 Giridhari Devanathan A computer-implemented method and system for analyzing and evaluating user reviews
CN105845134B (zh) * 2016-06-14 2020-02-07 科大讯飞股份有限公司 自由朗读题型的口语评测方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150309982A1 (en) 2012-12-13 2015-10-29 Postech Academy-Industry Foundation Grammatical error correcting system and grammatical error correcting method using the same
CN106610930A (zh) 2015-10-22 2017-05-03 科大讯飞股份有限公司 外语写作自动纠错方法及系统

Also Published As

Publication number Publication date
CN111226222A (zh) 2020-06-02
CN111226222B (zh) 2023-07-07
WO2019024050A1 (en) 2019-02-07
KR102490752B1 (ko) 2023-01-20
JP2020529666A (ja) 2020-10-08
MX2020001279A (es) 2020-08-20
KR20200031154A (ko) 2020-03-23

Similar Documents

Publication Publication Date Title
JP7031101B2 (ja) 方法、システムおよび有形コンピュータ可読デバイス
Torfi et al. Natural language processing advancements by deep learning: A survey
Yu et al. Learning composition models for phrase embeddings
US10025778B2 (en) Training markov random field-based translation models using gradient ascent
US11669740B2 (en) Graph-based labeling rule augmentation for weakly supervised training of machine-learning-based named entity recognition
CN111401084A (zh) 一种机器翻译的方法、设备以及计算机可读存储介质
US11386270B2 (en) Automatically identifying multi-word expressions
CN111428490B (zh) 一种利用语言模型的指代消解弱监督学习方法
Plank Keystroke dynamics as signal for shallow syntactic parsing
US20220351634A1 (en) Question answering systems
EP3832485A1 (en) Question answering systems
CN110991193B (zh) 一种基于OpenKiWi的翻译矩阵模型选择系统
US11893344B2 (en) Morpheme analysis learning device, morpheme analysis device, method, and program
JP2005181928A (ja) 機械学習システム及び機械学習方法、並びにコンピュータ・プログラム
CN111723583B (zh) 基于意图角色的语句处理方法、装置、设备及存储介质
CN111144134B (zh) 基于OpenKiWi的翻译引擎自动化评测系统
CN113705207A (zh) 语法错误识别方法及装置
Siddique et al. Bilingual word embeddings for cross-lingual personality recognition using convolutional neural nets
Heyman et al. Automatic detection and correction of context-dependent dt-mistakes using neural networks
CN114676699A (zh) 实体情感分析方法、装置、计算机设备和存储介质
Duma et al. UHH submission to the WMT17 quality estimation shared task
US20230132090A1 (en) Bridging semantics between words and definitions via aligning word sense inventories
He Automatic detection of grammatical errors in english verbs based on rnn algorithm: auxiliary objectives for neural error detection models
Sardarov Development and Design of Deep Learning-based Parts-of-Speech Tagging System for Azerbaijani language
Song et al. A hybrid model for community-oriented lexical simplification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220131

R150 Certificate of patent or registration of utility model

Ref document number: 7031101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150