JP7031101B2 - 方法、システムおよび有形コンピュータ可読デバイス - Google Patents
方法、システムおよび有形コンピュータ可読デバイス Download PDFInfo
- Publication number
- JP7031101B2 JP7031101B2 JP2020505241A JP2020505241A JP7031101B2 JP 7031101 B2 JP7031101 B2 JP 7031101B2 JP 2020505241 A JP2020505241 A JP 2020505241A JP 2020505241 A JP2020505241 A JP 2020505241A JP 7031101 B2 JP7031101 B2 JP 7031101B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- neural network
- sentence
- classification
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 123
- 238000013528 artificial neural network Methods 0.000 claims description 403
- 239000013598 vector Substances 0.000 claims description 397
- 238000012549 training Methods 0.000 claims description 195
- 230000000306 recurrent effect Effects 0.000 claims description 124
- 230000006870 function Effects 0.000 claims description 65
- 238000012937 correction Methods 0.000 claims description 39
- 238000001514 detection method Methods 0.000 claims description 38
- 230000004913 activation Effects 0.000 claims description 30
- 230000015654 memory Effects 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 22
- 238000013519 translation Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 239000011159 matrix material Substances 0.000 description 17
- 238000007781 pre-processing Methods 0.000 description 11
- 230000000877 morphologic effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000590419 Polygonia interrogationis Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001915 proofreading effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Description
式中、lGRUは、所与の文脈において左から右へと(順方向に)単語を読み取るGRUであり、rGRUは、逆に右から左へと(逆方向に)単語を読み取るものであり、l/fは、文脈語の個別の左から右への/右から左への単語埋め込みを表す。その後、連結されたベクトルは、2辺の相互依存性を捉えるために、MLPニューラルネットワークに供給される。MLPニューラルネットワークの第2の層において、ソフトマックス層を使用して、対象語の分類(例えば、対象語、又は、例えば単数若しくは複数などの対象語の状態)を予測することができる。
MLP(x)=softmax(ReLU(x)), (2)
式中、ReLUは正規化線形ユニット活性化関数であり、ReLU(x)=max(0,x)、L(x)=W(x)+bは全結合線形演算である。当該例におけるANNモデル120の最終的な出力は以下のとおりである。
y=MLP(biGRU(w1:n,i)), (3)
式中、yは上述したような分類値である。
式中、gは、特定の文法誤りタイプについての、2人の人間の注釈者の究極的な基準であり、eは対応するシステムエディットである。多くの他の文法誤りタイプと動詞形態誤りタイプとの間には重複があり得、そのため、gは、文法形態誤り性能を計算するときに、すべての文法誤りタイプの注釈に基づき得る。精度と再現率との間の重みは、評価の尺度として精度と再現率とをともに組み合わせるときに調整することができる。例えば、式5において定義されるF0.5は、いくつかの実施形態において、正確なフィードバックがカバー率よりも重要であるとき、2倍の重みを精度に割り当てながら、精度と再現率の両方を組み合わせる。
Fnにおいて、nは0~1である、が、他の例において適用され得ることは諒解されたい。いくつかの実施形態において、異なる文法誤りタイプの重みも変化し得る。
式中、nは訓練サンプル1304の数である。訓練アルゴリズム1308は、勾配降下アルゴリズム(例えば、確率的勾配降下アルゴリズム)を含む、目的関数1306の最小値を求めるための任意の適切な反復最適化アルゴリズムであってもよい。
[発明の項目]
[発明の項目]
[項目1]
文法誤り検出のための方法であって、
少なくとも1つのプロセッサによって、文を受信するステップと、
前記少なくとも1つのプロセッサによって、前記文内の1つ又は複数の対象語を、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別するステップであり、前記1つ又は複数の対象語の各々が、前記1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応する、識別するステップと、
前記1つ又は複数の対象語のうちの少なくとも1つについて、前記少なくとも1つのプロセッサによって、前記対応する文法誤りタイプに関連する前記対象語の分類を、前記文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定するステップであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、推定するステップと、
前記少なくとも1つのプロセッサによって、前記文内の文法誤りを、前記対象語及び前記対象語の前記推定された分類に少なくとも部分的に基づいて検出するステップと
を含む、文法誤り検出のための方法。
[項目2]
前記推定するステップが、
前記2つの再帰型ニューラルネットワークを使用して、前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の前記文脈ベクトルを与えることと、
前記順伝播型ニューラルネットワークを使用して、前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の前記分類値を与えることと
をさらに含む、項目1に記載の文法誤り検出のための方法。
[項目3]
前記対象語の前記文脈ベクトルが、前記対象語の見出し語に少なくとも部分的に基づいて与えられる、項目2に記載の文法誤り検出のための方法。
[項目4]
前記推定するステップが、
単語埋め込みベクトルの第1のセットを生成することであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の前の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成することと、
単語埋め込みベクトルの第2のセットを生成することであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の後の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成することと
をさらに含む、項目2に記載の文法誤り検出のための方法。
[項目5]
各単語埋め込みベクトルの次元の数が少なくとも100である、項目4に記載の文法誤り検出のための方法。
[項目6]
前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、項目1に記載の文法誤り検出のための方法。
[項目7]
前記対象語の前の前記少なくとも1つの単語の数及び/又は前記対象語の後の前記少なくとも1つの単語の数が、前記文法誤りタイプに少なくとも部分的に基づいて決定される、項目1に記載の文法誤り検出のための方法。
[項目8]
前記推定するステップが、
前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈重みベクトルを与えることと、
前記文脈重みベクトルを前記文脈ベクトルに適用することと
をさらに含む、項目2に記載の文法誤り検出のための方法。
[項目9]
前記文脈ベクトルを与える前記ステップが、
前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えることと、
前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えることと、
前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えることと
をさらに含む、項目4に記載の文法誤り検出のための方法。
[項目10]
前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、項目9に記載の文法誤り検出のための方法。
[項目11]
前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、項目1に記載の文法誤り検出のための方法。
[項目12]
前記順伝播型ニューラルネットワークが、
前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
を備える、項目1に記載の文法誤り検出のための方法。
[項目13]
前記分類値が、前記文法誤りタイプと関連付けられる複数のクラスにわたる前記対象語の確率分布である、項目1に記載の文法誤り検出のための方法。
[項目14]
前記検出するステップが、
前記対象語の前記推定された分類を、前記対象語の実際の分類と比較することと、
前記対象語の前記実際の分類が前記推定された分類と一致しないとき、前記文内の前記文法誤りを検出することと
をさらに含む、項目1に記載の文法誤り検出のための方法。
[項目15]
前記文内の前記文法誤りの検出に応答して、前記対象語の前記推定された分類に少なくとも部分的に基づいて、前記対象語の文法誤り訂正を与えるステップをさらに含む、項目1に記載の文法誤り検出のための方法。
[項目16]
前記1つ又は複数の対象語の各々について、前記文法誤りタイプについて訓練されたそれぞれの人工ニューラルネットワークを使用して、前記対応する文法誤りタイプに関連する前記対象語のそれぞれの分類を推定し、前記対象語の前記推定された分類を前記対象語の実際の分類と比較して、前記対象語の文法誤り結果を生成するステップと、
前記対応する文法誤りタイプに少なくとも部分的に基づいて、前記1つ又は複数の対象語の前記文法誤り結果の各々に重みを適用するステップと、
前記1つ又は複数の対象語の前記文法誤り結果及び前記重みに基づいて、前記文の文法スコアを与えるステップと
をさらに含む、項目1に記載の文法誤り検出のための方法。
[項目17]
前記文法スコアが、前記文がそこから受信されたユーザと関連付けられる情報に少なくとも部分的に基づいて与えられる、項目16に記載の文法誤り検出のための方法。
[項目18]
前記モデルが、ネイティブ訓練サンプルによって訓練される、項目1に記載の文法誤り検出のための方法。
[項目19]
前記2つの再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが共に訓練される、項目1に記載の文法誤り検出のための方法。
[項目20]
前記モデルが、
前記文脈ベクトルを生成するために前記2つの再帰型ニューラルネットワークに入力されるための初期文脈ベクトルのセットを出力するように構成されている別の再帰型ニューラルネットワークと、
前記文脈ベクトルに適用されるための文脈重みベクトルを出力するように構成されている別の順伝播型ニューラルネットワークと
をさらに含む、項目1に記載の文法誤り検出のための方法。
[項目21]
すべての前記再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが、ネイティブ訓練サンプルによって共に訓練される、項目20に記載の文法誤り検出のための方法。
[項目22]
メモリと、
前記メモリに結合されている少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサが、
文を受信することと、
前記文内の1つ又は複数の対象語を、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別することであり、前記1つ又は複数の対象語の各々が、前記1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応する、識別することと、
前記1つ又は複数の対象語のうちの少なくとも1つについて、前記対応する文法誤りタイプに関連する前記対象語の分類を、前記文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを生成するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、推定することと、
前記文内の文法誤りを、前記対象語及び前記対象語の前記推定された分類に少なくとも部分的に基づいて検出することと
を行うように構成されている、文法誤り検出のためのシステム。
[項目23]
前記対象語の分類を推定するために、前記少なくとも1つのプロセッサが、
前記2つの再帰型ニューラルネットワークを使用して、前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の前記文脈ベクトルを与えることと、
前記順伝播型ニューラルネットワークを使用して、前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の前記分類値を与えることと
を行うように構成されている、項目22に記載の文法誤り検出のためのシステム。
[項目24]
前記対象語の前記文脈ベクトルが、前記対象語の見出し語に少なくとも部分的に基づいて与えられる、項目23に記載の文法誤り検出のためのシステム。
[項目25]
前記対象語の分類を推定するために、前記少なくとも1つのプロセッサが、
単語埋め込みベクトルの第1のセットを生成することであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の前の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成することと、
単語埋め込みベクトルの第2のセットを生成することであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の後の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成することと
を行うように構成されている、項目23に記載の文法誤り検出のためのシステム。
[項目26]
各単語埋め込みベクトルの次元の数が少なくとも100である、項目25に記載の文法誤り検出のためのシステム。
[項目27]
前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、項目22に記載の文法誤り検出のためのシステム。
[項目28]
前記対象語の前の前記少なくとも1つの単語の数及び/又は前記対象語の後の前記少なくとも1つの単語の数が、前記文法誤りタイプに少なくとも部分的に基づいて決定される、項目22に記載の文法誤り検出のためのシステム。
[項目29]
前記対象語の分類を推定するために、前記少なくとも1つのプロセッサが、
前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈重みベクトルを与えることと、
前記文脈重みベクトルを前記文脈ベクトルに適用することと
を行うように構成されている、項目23に記載の文法誤り検出のためのシステム。
[項目30]
前記対象語の前記文脈ベクトルを与えるために、前記少なくとも1つのプロセッサが、
前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えることと、
前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えることと、
前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えることと
を行うように構成されている、項目25に記載の文法誤り検出のためのシステム。
[項目31]
前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、項目30に記載の文法誤り検出のためのシステム。
[項目32]
前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、項目22に記載の文法誤り検出のためのシステム。
[項目33]
前記順伝播型ニューラルネットワークが、
前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
を備える、項目22に記載の文法誤り検出のためのシステム。
[項目34]
前記分類値が、前記文法誤りタイプと関連付けられる複数のクラスにわたる前記対象語の確率分布である、項目22に記載の文法誤り検出のためのシステム。
[項目35]
文法誤りを検出するために、前記少なくとも1つのプロセッサが、
前記対象語の前記推定された分類を、前記対象語の実際の分類と比較することと、
前記対象語の前記実際の分類が前記推定された分類と一致しないとき、前記文内の前記文法誤りを検出することと
を行うように構成されている、項目22に記載の文法誤り検出のためのシステム。
[項目36]
前記少なくとも1つのプロセッサが、前記文内の前記文法誤りの検出に応答して、前記対象語の前記推定された分類に少なくとも部分的に基づいて、前記対象語の文法誤り訂正を与えるようにさらに構成されている、項目22に記載の文法誤り検出のためのシステム。
[項目37]
前記少なくとも1つのプロセッサが、
前記1つ又は複数の対象語の各々について、前記文法誤りタイプについて訓練されたそれぞれの人工ニューラルネットワークを使用して、前記対応する文法誤りタイプに関連する前記対象語のそれぞれの分類を推定し、前記対象語の前記推定された分類を前記対象語の実際の分類と比較して、前記対象語の文法誤り結果を生成することと、
前記対応する文法誤りタイプに少なくとも部分的に基づいて、前記1つ又は複数の対象語の前記文法誤り結果の各々に重みを適用することと、
前記1つ又は複数の対象語の前記文法誤り結果及び前記重みに基づいて、前記文の文法スコアを与えることと
を行うようにさらに構成されている、項目22に記載の文法誤り検出のためのシステム。
[項目38]
前記文法スコアが、前記文がそこから受信されたユーザと関連付けられる情報に少なくとも部分的に基づいて与えられる、項目37に記載の文法誤り検出のためのシステム。
[項目39]
前記モデルが、ネイティブ訓練サンプルによって訓練される、項目22に記載の文法誤り検出のためのシステム。
[項目40]
前記2つの再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが共に訓練される、項目22に記載の文法誤り検出のためのシステム。
[項目41]
前記モデルが、
前記文脈ベクトルを生成するために前記2つの再帰型ニューラルネットワークに入力されるための初期文脈ベクトルのセットを出力するように構成されている別の再帰型ニューラルネットワークと、
前記文脈ベクトルに適用されるための文脈重みベクトルを出力するように構成されている別の順伝播型ニューラルネットワークと
をさらに含む、項目22に記載の文法誤り検出のためのシステム。
[項目42]
すべての前記再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが、ネイティブ訓練サンプルによって共に訓練される、項目41に記載の文法誤り検出のためのシステム。
[項目43]
少なくとも1つのコンピューティングデバイスによって実行されると、前記少なくとも1つのコンピューティングデバイスに、動作を実施させる命令を記憶されている、有形コンピュータ可読デバイスであって、前記動作が、
文を受信することと、
前記文内の1つ又は複数の対象語を、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別することであり、前記1つ又は複数の対象語の各々が、前記1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応する、識別することと、
前記1つ又は複数の対象語のうちの少なくとも1つについて、前記対応する文法誤りタイプに関連する前記対象語の分類を、前記文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、推定することと、
前記文内の文法誤りを、前記対象語及び前記対象語の前記推定された分類に少なくとも部分的に基づいて検出することと
を含む、有形コンピュータ可読デバイス。
[項目44]
少なくとも1つのプロセッサによって、文法誤りタイプに関連する文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供するステップであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、提供するステップと、
前記少なくとも1つのプロセッサによって、訓練サンプルのセットを取得するステップであり、前記訓練サンプルのセット内の各訓練サンプルが、前記文法誤りタイプに関連する対象語を含む文、及び、前記文法誤りタイプに関連する前記対象語の実際の分類を含む、取得するステップと、
前記少なくとも1つのプロセッサによって、前記再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、前記順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差に少なくとも部分的に基づいて、共に調整するステップと
を含む、人工ニューラルネットワークモデルを訓練するための方法。
[項目45]
各訓練サンプルが文法誤りのないネイティブ訓練サンプルである、項目44に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目46]
前記再帰型ニューラルネットワークが、ゲート付き再帰型ユニット(GRU)ニューラルネットワークであり、前記順伝播型ニューラルネットワークが、多層知覚(MLP)ニューラルネットワークである、項目44に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目47]
前記モデルが、前記文脈ベクトルに適用されるための文脈重みベクトルを出力するように構成されている別の順伝播型ニューラルネットワークをさらに含む、項目44に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目48]
前記共に調整するステップが、前記パラメータの第1のセット及び前記パラメータの第2のセット、並びに、前記別の順伝播型ニューラルネットワークと関連付けられるパラメータの第3のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差に少なくとも部分的に基づいて、共に調整するステップを含む、項目47に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目49]
各訓練サンプルについて、
単語埋め込みベクトルの第1のセットを生成するステップであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の前の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成するステップと、
単語埋め込みベクトルの第2のセットを生成するステップであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の後の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成するステップと
をさらに含む、項目44に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目50]
各単語埋め込みベクトルの次元の数が少なくとも100である、項目49に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目51]
前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、項目49に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目52]
各訓練サンプルについて、
前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えるステップと、
前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えるステップと、
前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えるステップと
をさらに含む、項目49に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目53]
前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、項目52に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目54]
前記第1の文脈ベクトル及び前記第2の文脈ベクトルが、前記訓練サンプル内の前記文の意味特徴を含まない、項目52に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目55]
前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、項目44に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目56]
前記順伝播型ニューラルネットワークが、
前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
を備える、項目44に記載の人工ニューラルネットワークモデルを訓練するための方法。
[項目57]
メモリと、
前記メモリに結合されている少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサが、
文法誤りタイプに関連する文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、提供することと、
訓練サンプルのセットを取得することであり、前記訓練サンプルのセット内の各訓練サンプルが、前記文法誤りタイプに関連する対象語を含む文、及び、前記文法誤りタイプに関連する前記対象語の実際の分類を含む、取得することと、
前記再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、前記順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差に少なくとも部分的に基づいて、共に調整することと
を行うように構成されている、人工ニューラルネットワークモデルを訓練するためのシステム。
[項目58]
各訓練サンプルが文法誤りのないネイティブ訓練サンプルである、項目57に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目59]
前記再帰型ニューラルネットワークが、ゲート付き再帰型ユニット(GRU)ニューラルネットワークであり、前記順伝播型ニューラルネットワークが、多層知覚(MLP)ニューラルネットワークである、項目57に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目60]
前記モデルが、前記文脈ベクトルに適用されるための文脈重みベクトルを出力するように構成されている別の順伝播型ニューラルネットワークをさらに含む、項目57に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目61]
パラメータの第1のセット及びパラメータの第2のセットを共に調整するために、前記少なくとも1つのプロセッサが、
前記パラメータの第1のセット及び前記パラメータの第2のセット、並びに、前記別の順伝播型ニューラルネットワークと関連付けられるパラメータの第3のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差に少なくとも部分的に基づいて、共に調整するように構成されている、項目60に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目62]
前記少なくとも1つのプロセッサが、各訓練サンプルについて、
単語埋め込みベクトルの第1のセットを生成することであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の前の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成することと、
単語埋め込みベクトルの第2のセットを生成することであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の後の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成することと
を行うようにさらに構成されている、項目57に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目63]
各単語埋め込みベクトルの次元の数が少なくとも100である、項目62に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目64]
前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、項目62に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目65]
前記少なくとも1つのプロセッサが、各訓練サンプルについて、
前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えることと、
前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えることと、
前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えることと
を行うようにさらに構成されている、項目62に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目66]
前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、項目65に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目67]
前記第1の文脈ベクトル及び前記第2の文脈ベクトルが、前記訓練サンプル内の前記文の意味特徴を含まない、項目65に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目68]
前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、項目57に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目69]
前記順伝播型ニューラルネットワークが、
前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
を備える、項目57に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
[項目70]
少なくとも1つのコンピューティングデバイスによって実行されると、前記少なくとも1つのコンピューティングデバイスに、動作を実施させる命令を記憶されている、有形コンピュータ可読デバイスであって、前記動作が、
文法誤りタイプに関連する文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、提供することと、
訓練サンプルのセットを取得することであり、前記訓練サンプルのセット内の各訓練サンプルが、前記文法誤りタイプに関連する対象語を含む文、及び、前記文法誤りタイプに関連する前記対象語の実際の分類を含む、取得することと、
前記再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、前記順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差に少なくとも部分的に基づいて、共に調整することと
を含む、有形コンピュータ可読デバイス。
Claims (66)
- 文法誤り検出のための方法であって、
少なくとも1つのプロセッサによって、文を受信するステップと、
前記少なくとも1つのプロセッサによって、受信した前記文をトークン化することにより、前記文内の1つ又は複数の対象語を、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別するステップであり、前記1つ又は複数の対象語の各々が、前記1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応し、複数の文法誤りタイプが予め品詞タグに基づいて判定される、識別するステップと、
前記少なくとも1つのプロセッサによって、前記品詞タグに基づいて対応する文法誤りタイプに関連する各対象語の元のラベルを、各対象語の実際の分類に対応する実際の分類値として、判定するステップと、
前記1つ又は複数の対象語のうちの少なくとも1つについて、前記少なくとも1つのプロセッサによって、前記対応する文法誤りタイプに関連する前記対象語の分類を、前記文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定するステップであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の各分類に対応する分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、推定するステップと、
前記少なくとも1つのプロセッサによって、前記文内の文法誤りを、前記対象語及び前記対象語の前記推定された分類に少なくとも部分的に基づいて検出するステップであり、該検出するステップが、
前記対象語の前記推定された分類を、前記対象語の実際の分類と比較することと、
前記対象語の前記実際の分類が前記推定された分類と一致しないとき、前記文内の前記文法誤りを検出することと、
前記文内の前記文法誤りの検出に応答して、前記対象語の文法誤り訂正として前記対象語の前記推定された分類を利用することと、
を含む、検出するステップと
を含む、文法誤り検出のための方法。 - 前記推定するステップが、
前記2つの再帰型ニューラルネットワークを使用して、前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の前記文脈ベクトルを与えることと、
前記順伝播型ニューラルネットワークを使用して、前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の前記分類値を与えることと
をさらに含む、請求項1に記載の文法誤り検出のための方法。 - 前記対象語の前記文脈ベクトルが、前記対象語の見出し語に少なくとも部分的に基づいて与えられる、請求項2に記載の文法誤り検出のための方法。
- 前記推定するステップが、
単語埋め込みベクトルの第1のセットを生成することであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の前の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成することと、
単語埋め込みベクトルの第2のセットを生成することであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の後の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成することと
をさらに含む、請求項2に記載の文法誤り検出のための方法。 - 各単語埋め込みベクトルの次元の数が少なくとも100である、請求項4に記載の文法誤り検出のための方法。
- 前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、請求項1に記載の文法誤り検出のための方法。 - 前記対象語の前の前記少なくとも1つの単語の数及び/又は前記対象語の後の前記少なくとも1つの単語の数が、前記文法誤りタイプに少なくとも部分的に基づいて決定される、請求項1に記載の文法誤り検出のための方法。
- 前記推定するステップが、
前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈重みベクトルを与えることと、
前記文脈重みベクトルを前記文脈ベクトルに適用することと
をさらに含む、請求項2に記載の文法誤り検出のための方法。 - 前記文脈ベクトルを与える前記ステップが、
前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えることと、
前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えることと、
前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えることと
をさらに含む、請求項4に記載の文法誤り検出のための方法。 - 前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、請求項9に記載の文法誤り検出のための方法。 - 前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、請求項1に記載の文法誤り検出のための方法。
- 前記順伝播型ニューラルネットワークが、
前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
を備える、請求項1に記載の文法誤り検出のための方法。 - 前記分類値が、前記文法誤りタイプと関連付けられる複数のクラスにわたる前記対象語の確率分布である、請求項1に記載の文法誤り検出のための方法。
- 前記1つ又は複数の対象語の各々について、前記文法誤りタイプについて訓練されたそれぞれの人工ニューラルネットワークを使用して、前記対応する文法誤りタイプに関連する前記対象語のそれぞれの分類を推定し、前記対象語の前記推定された分類を前記対象語の実際の分類と比較して、前記対象語の文法誤り結果を生成するステップと、
前記対応する文法誤りタイプに少なくとも部分的に基づいて、前記1つ又は複数の対象語の前記文法誤り結果の各々に重みを適用するステップと、
前記1つ又は複数の対象語の前記文法誤り結果及び前記重みに基づいて、前記文の文法スコアを与えるステップと
をさらに含む、請求項1に記載の文法誤り検出のための方法。 - 前記文法スコアを特定するための係数として、前記文を入力したユーザの情報が利用される、請求項14に記載の文法誤り検出のための方法。
- 前記モデルが、ネイティブ訓練サンプルによって訓練される、請求項1に記載の文法誤り検出のための方法。
- 前記2つの再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが共に訓練される、請求項1に記載の文法誤り検出のための方法。
- 前記モデルが、
前記文脈ベクトルを生成するために前記2つの再帰型ニューラルネットワークに入力されるための初期文脈ベクトルのセットを、前記対象語の周囲の単語に基づき出力するように構成されている別の再帰型ニューラルネットワークと、
前記文脈ベクトルに適用されるための文脈重みベクトルを、前記初期文脈ベクトルに基づき出力するように構成されている別の順伝播型ニューラルネットワークと
をさらに含む、請求項1に記載の文法誤り検出のための方法。 - すべての前記再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが、ネイティブ訓練サンプルによって共に訓練される、請求項18に記載の文法誤り検出のための方法。
- メモリと、
前記メモリに結合されている少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサが、
文を受信することと、
受信した前記文をトークン化することにより、前記文内の1つ又は複数の対象語を、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別することであり、前記1つ又は複数の対象語の各々が、前記1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応し、複数の文法誤りタイプが予め品詞タグに基づいて判定される、識別することと、
前記品詞タグに基づいて対応する文法誤りタイプに関連する各対象語の元のラベルを、各対象語の実際の分類に対応する実際の分類値として、判定することと、
前記1つ又は複数の対象語のうちの少なくとも1つについて、前記対応する文法誤りタイプに関連する前記対象語の分類を、前記文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを生成するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の各分類に対応する分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、推定することと、
前記文内の文法誤りを、前記対象語及び前記対象語の前記推定された分類に少なくとも部分的に基づいて検出することと、
前記対象語の前記推定された分類を、前記対象語の実際の分類と比較することと、
前記対象語の前記実際の分類が前記推定された分類と一致しないとき、前記文内の前記文法誤りを検出することと、
前記文内の前記文法誤りの検出に応答して、前記対象語の文法誤り訂正として前記対象語の前記推定された分類を利用することと、
を行うように構成されている、文法誤り検出のためのシステム。 - 前記対象語の分類を推定するために、前記少なくとも1つのプロセッサが、
前記2つの再帰型ニューラルネットワークを使用して、前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の前記文脈ベクトルを与えることと、
前記順伝播型ニューラルネットワークを使用して、前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の前記分類値を与えることと
を行うように構成されている、請求項20に記載の文法誤り検出のためのシステム。 - 前記対象語の前記文脈ベクトルが、前記対象語の見出し語に少なくとも部分的に基づいて与えられる、請求項21に記載の文法誤り検出のためのシステム。
- 前記対象語の分類を推定するために、前記少なくとも1つのプロセッサが、
単語埋め込みベクトルの第1のセットを生成することであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の前の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成することと、
単語埋め込みベクトルの第2のセットを生成することであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記文内の前記対象語の後の前記少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成することと
を行うように構成されている、請求項21に記載の文法誤り検出のためのシステム。 - 各単語埋め込みベクトルの次元の数が少なくとも100である、請求項23に記載の文法誤り検出のためのシステム。
- 前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、請求項20に記載の文法誤り検出のためのシステム。 - 前記対象語の前の前記少なくとも1つの単語の数及び/又は前記対象語の後の前記少なくとも1つの単語の数が、前記文法誤りタイプに少なくとも部分的に基づいて決定される、請求項20に記載の文法誤り検出のためのシステム。
- 前記対象語の分類を推定するために、前記少なくとも1つのプロセッサが、
前記文内の前記対象語の前の前記少なくとも1つの単語及び前記対象語の後の前記少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈重みベクトルを与えることと、
前記文脈重みベクトルを前記文脈ベクトルに適用することと
を行うように構成されている、請求項21に記載の文法誤り検出のためのシステム。 - 前記対象語の前記文脈ベクトルを与えるために、前記少なくとも1つのプロセッサが、
前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えることと、
前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えることと、
前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えることと
を行うように構成されている、請求項23に記載の文法誤り検出のためのシステム。 - 前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、請求項28に記載の文法誤り検出のためのシステム。 - 前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、請求項20に記載の文法誤り検出のためのシステム。
- 前記順伝播型ニューラルネットワークが、
前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
を備える、請求項20に記載の文法誤り検出のためのシステム。 - 前記分類値が、前記文法誤りタイプと関連付けられる複数のクラスにわたる前記対象語の確率分布である、請求項20に記載の文法誤り検出のためのシステム。
- 前記少なくとも1つのプロセッサが、
前記1つ又は複数の対象語の各々について、前記文法誤りタイプについて訓練されたそれぞれの人工ニューラルネットワークを使用して、前記対応する文法誤りタイプに関連する前記対象語のそれぞれの分類を推定し、前記対象語の前記推定された分類を前記対象語の実際の分類と比較して、前記対象語の文法誤り結果を生成することと、
前記対応する文法誤りタイプに少なくとも部分的に基づいて、前記1つ又は複数の対象語の前記文法誤り結果の各々に重みを適用することと、
前記1つ又は複数の対象語の前記文法誤り結果及び前記重みに基づいて、前記文の文法スコアを与えることと
を行うようにさらに構成されている、請求項20に記載の文法誤り検出のためのシステム。 - 前記文法スコアを特定するための係数として、前記文を入力したユーザの情報が利用される、請求項33に記載の文法誤り検出のためのシステム。
- 前記モデルが、ネイティブ訓練サンプルによって訓練される、請求項20に記載の文法誤り検出のためのシステム。
- 前記2つの再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが共に訓練される、請求項20に記載の文法誤り検出のためのシステム。
- 前記モデルが、
前記文脈ベクトルを生成するために前記2つの再帰型ニューラルネットワークに入力されるための初期文脈ベクトルのセットを、前記対象語の周囲の単語に基づき出力するように構成されている別の再帰型ニューラルネットワークと、
前記文脈ベクトルに適用されるための文脈重みベクトルを、前記初期文脈ベクトルに基づき出力するように構成されている別の順伝播型ニューラルネットワークと
をさらに含む、請求項20に記載の文法誤り検出のためのシステム。 - すべての前記再帰型ニューラルネットワーク及び前記順伝播型ニューラルネットワークが、ネイティブ訓練サンプルによって共に訓練される、請求項37に記載の文法誤り検出のためのシステム。
- 少なくとも1つのコンピューティングデバイスによって実行されると、前記少なくとも1つのコンピューティングデバイスに、動作を実施させる命令を記憶されている、有形コンピュータ可読デバイスであって、前記動作が、
文を受信することと、
受信した前記文をトークン化することにより、前記文内の1つ又は複数の対象語を、1つ又は複数の文法誤りタイプに少なくとも部分的に基づいて識別することであり、前記1つ又は複数の対象語の各々が、前記1つ又は複数の文法誤りタイプのうちの少なくとも1つに対応し、複数の文法誤りタイプが予め品詞タグに基づいて判定される、識別することと、
前記品詞タグに基づいて対応する文法誤りタイプに関連する各対象語の元のラベルを、各対象語の実際の分類に対応する実際の分類値として、判定することと、
前記1つ又は複数の対象語のうちの少なくとも1つについて、前記対応する文法誤りタイプに関連する前記対象語の分類を、前記文法誤りタイプについて訓練された人工ニューラルネットワークモデルを使用して推定することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記文法誤りタイプに関連する前記対象語の各分類に対応する分類値を出力するように構成されている順伝播型ニューラルネットワークを含む、推定することと、
前記文内の文法誤りを、前記対象語及び前記対象語の前記推定された分類に少なくとも部分的に基づいて検出することであり、該検出することが、
前記対象語の前記推定された分類を、前記対象語の実際の分類と比較することと、
前記対象語の前記実際の分類が前記推定された分類と一致しないとき、前記文内の前記文法誤りを検出することと、
前記文内の前記文法誤りの検出に応答して、前記対象語の文法誤り訂正として前記対象語の前記推定された分類を利用することと、
を含む、検出することと
を含む、有形コンピュータ可読デバイス。 - 少なくとも1つのプロセッサによって、文法誤りタイプに関連する文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供するステップであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含み、特定の文法誤りタイプに対する各人工ニューラルネットワークモデルが、訓練アルゴリズムを使用して目的関数に基づいて訓練サンプルのセットに対して訓練され、前記訓練アルゴリズムが勾配降下アルゴリズムであり、前記目的関数がクロスエントロピーアルゴリズムであり、モデルパラメータが、前記モデルを最適にするために前記目的関数のサイズおよび勾配に従って最適化される、提供するステップと、
前記少なくとも1つのプロセッサによって、訓練サンプルのセットを取得するステップであり、前記訓練サンプルのセット内の各訓練サンプルが、前記文法誤りタイプに関連する対象語を含む文、及び、前記文法誤りタイプに関連する前記対象語の実際の分類を含む、取得するステップと、
前記少なくとも1つのプロセッサによって、前記再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、前記順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差が小さくなるように、共に調整するステップと
を含む、人工ニューラルネットワークモデルを訓練するための方法。 - 各訓練サンプルが文法誤りのないネイティブ訓練サンプルである、請求項40に記載の人工ニューラルネットワークモデルを訓練するための方法。
- 前記再帰型ニューラルネットワークが、ゲート付き再帰型ユニット(GRU)ニューラルネットワークであり、前記順伝播型ニューラルネットワークが、多層知覚(MLP)ニューラルネットワークである、請求項40に記載の人工ニューラルネットワークモデルを訓練するための方法。
- 前記モデルが、前記文脈ベクトルに適用されるための文脈重みベクトルを、前記文内の文脈語に基づき出力するように構成されている別の順伝播型ニューラルネットワークをさらに含む、請求項40に記載の人工ニューラルネットワークモデルを訓練するための方法。
- 前記共に調整するステップが、前記パラメータの第1のセット及び前記パラメータの第2のセット、並びに、前記別の順伝播型ニューラルネットワークと関連付けられるパラメータの第3のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差が小さくなるように、共に調整するステップを含む、請求項43に記載の人工ニューラルネットワークモデルを訓練するための方法。
- 各訓練サンプルについて、
単語埋め込みベクトルの第1のセットを生成するステップであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の前の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成するステップと、
単語埋め込みベクトルの第2のセットを生成するステップであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の後の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成するステップと
をさらに含む、請求項40に記載の人工ニューラルネットワークモデルを訓練するための方法。 - 各単語埋め込みベクトルの次元の数が少なくとも100である、請求項45に記載の人工ニューラルネットワークモデルを訓練するための方法。
- 前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、請求項45に記載の人工ニューラルネットワークモデルを訓練するための方法。 - 各訓練サンプルについて、
前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えるステップと、
前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えるステップと、
前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えるステップと
をさらに含む、請求項45に記載の人工ニューラルネットワークモデルを訓練するための方法。 - 前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、請求項48に記載の人工ニューラルネットワークモデルを訓練するための方法。 - 前記第1の文脈ベクトル及び前記第2の文脈ベクトルが、前記訓練サンプル内の前記文の意味特徴を含まない、請求項48に記載の人工ニューラルネットワークモデルを訓練するための方法。
- 前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、請求項40に記載の人工ニューラルネットワークモデルを訓練するための方法。
- 前記順伝播型ニューラルネットワークが、
前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
を備える、請求項40に記載の人工ニューラルネットワークモデルを訓練するための方法。 - メモリと、
前記メモリに結合されている少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサが、
文法誤りタイプに関連する文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含み、特定の文法誤りタイプのための各人工ニューラルネットワークモデルが、訓練アルゴリズムを使用して目的関数に基づいて訓練サンプルのセットに対して訓練され、前記訓練アルゴリズムが勾配降下アルゴリズムであり、前記目的関数がクロスエントロピーアルゴリズムであり、モデルパラメータが、前記モデルを最適にするために前記目的関数のサイズおよび勾配に従って最適化される、提供することと、
訓練サンプルのセットを取得することであり、前記訓練サンプルのセット内の各訓練サンプルが、前記文法誤りタイプに関連する対象語を含む文、及び、前記文法誤りタイプに関連する前記対象語の実際の分類を含む、取得することと、
前記再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、前記順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差が小さくなるように、共に調整することと
を行うように構成されている、人工ニューラルネットワークモデルを訓練するためのシステム。 - 各訓練サンプルが文法誤りのないネイティブ訓練サンプルである、請求項53に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
- 前記再帰型ニューラルネットワークが、ゲート付き再帰型ユニット(GRU)ニューラルネットワークであり、前記順伝播型ニューラルネットワークが、多層知覚(MLP)ニューラルネットワークである、請求項53に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
- 前記モデルが、前記文脈ベクトルに適用されるための文脈重みベクトルを、前記文内の文脈語に基づき出力するように構成されている別の順伝播型ニューラルネットワークをさらに含む、請求項53に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
- パラメータの第1のセット及びパラメータの第2のセットを共に調整するために、前記少なくとも1つのプロセッサが、
前記パラメータの第1のセット及び前記パラメータの第2のセット、並びに、前記別の順伝播型ニューラルネットワークと関連付けられるパラメータの第3のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差が小さくなるように、共に調整するように構成されている、請求項56に記載の人工ニューラルネットワークモデルを訓練するためのシステム。 - 前記少なくとも1つのプロセッサが、各訓練サンプルについて、
単語埋め込みベクトルの第1のセットを生成することであって、前記単語埋め込みベクトルの第1のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の前の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第1のセットを生成することと、
単語埋め込みベクトルの第2のセットを生成することであって、前記単語埋め込みベクトルの第2のセット内の各単語埋め込みベクトルが、前記訓練サンプル内の前記対象語の後の少なくとも1つの単語のそれぞれに少なくとも部分的に基づいて生成される、単語埋め込みベクトルの第2のセットを生成することと
を行うようにさらに構成されている、請求項53に記載の人工ニューラルネットワークモデルを訓練するためのシステム。 - 各単語埋め込みベクトルの次元の数が少なくとも100である、請求項58に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
- 前記対象語の前の前記少なくとも1つの単語が、前記文内の前記対象語の前のすべての単語を含み、
前記対象語の後の前記少なくとも1つの単語が、前記文内の前記対象語の後のすべての単語を含む、請求項58に記載の人工ニューラルネットワークモデルを訓練するためのシステム。 - 前記少なくとも1つのプロセッサが、各訓練サンプルについて、
前記2つの再帰型ニューラルネットワークのうちの第1の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第1のセットに少なくとも部分的に基づいて、前記対象語の第1の文脈ベクトルを与えることと、
前記2つの再帰型ニューラルネットワークのうちの第2の再帰型ニューラルネットワークを使用して、前記単語埋め込みベクトルの第2のセットに少なくとも部分的に基づいて、前記対象語の第2の文脈ベクトルを与えることと、
前記第1の文脈ベクトルと前記第2の文脈ベクトルとを連結することによって前記文脈ベクトルを与えることと
を行うようにさらに構成されている、請求項58に記載の人工ニューラルネットワークモデルを訓練するためのシステム。 - 前記単語埋め込みベクトルの第1のセットが、前記文の始まりにある単語の前記単語埋め込みベクトルから開始して、前記第1の再帰型ニューラルネットワークに与えられ、
前記単語埋め込みベクトルの第2のセットが、前記文の終端部にある単語の前記単語埋め込みベクトルから開始して、前記第2の再帰型ニューラルネットワークに与えられる、請求項61に記載の人工ニューラルネットワークモデルを訓練するためのシステム。 - 前記第1の文脈ベクトル及び前記第2の文脈ベクトルが、前記訓練サンプル内の前記文の意味特徴を含まない、請求項61に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
- 前記2つの再帰型ニューラルネットワークの各々の隠れユニットの数が少なくとも300である、請求項53に記載の人工ニューラルネットワークモデルを訓練するためのシステム。
- 前記順伝播型ニューラルネットワークが、
前記文脈ベクトルに対する全結合線形演算の第1の活性化関数を有する第1の層と、
前記第1の層に接続されており、前記分類値を生成するための第2の活性化関数を有する第2の層と
を備える、請求項53に記載の人工ニューラルネットワークモデルを訓練するためのシステム。 - 少なくとも1つのコンピューティングデバイスによって実行されると、前記少なくとも1つのコンピューティングデバイスに、動作を実施させる命令を記憶されている、有形コンピュータ可読デバイスであって、前記動作が、
文法誤りタイプに関連する文内の対象語の分類を推定するための人工ニューラルネットワークモデルを提供することであり、前記モデルが、(i)前記文内の前記対象語の前の少なくとも1つの単語及び前記対象語の後の少なくとも1つの単語に少なくとも部分的に基づいて、前記対象語の文脈ベクトルを出力するように構成されている2つの再帰型ニューラルネットワーク、及び(ii)前記対象語の前記文脈ベクトルに少なくとも部分的に基づいて、前記対象語の分類値を出力するように構成されている順伝播型ニューラルネットワークを含み、特定の文法誤りタイプのための各人工ニューラルネットワークモデルが、訓練アルゴリズムを使用して目的関数に基づいて訓練サンプルのセットに対して訓練され、前記訓練アルゴリズムが勾配降下アルゴリズムであり、前記目的関数がクロスエントロピーアルゴリズムであり、モデルパラメータが、前記モデルを最適にするために前記目的関数のサイズおよび勾配に従って最適化される、提供することと、
訓練サンプルのセットを取得することであり、前記訓練サンプルのセット内の各訓練サンプルが、前記文法誤りタイプに関連する対象語を含む文、及び、前記文法誤りタイプに関連する前記対象語の実際の分類を含む、取得することと、
前記再帰型ニューラルネットワークと関連付けられるパラメータの第1のセット、及び、前記順伝播型ニューラルネットワークと関連付けられるパラメータの第2のセットを、各訓練サンプル内の前記対象語の前記実際の分類と前記推定された分類との間の差が小さくなるように、共に調整することと
を含む、有形コンピュータ可読デバイス。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2017/095841 WO2019024050A1 (en) | 2017-08-03 | 2017-08-03 | CORRECTION OF GRAMMAR ERRORS BASED ON DEEP CONTEXT AND USING ARTIFICIAL NEURAL NETWORKS |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020529666A JP2020529666A (ja) | 2020-10-08 |
JP7031101B2 true JP7031101B2 (ja) | 2022-03-08 |
Family
ID=65233230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020505241A Active JP7031101B2 (ja) | 2017-08-03 | 2017-08-03 | 方法、システムおよび有形コンピュータ可読デバイス |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP7031101B2 (ja) |
KR (1) | KR102490752B1 (ja) |
CN (1) | CN111226222B (ja) |
MX (1) | MX2020001279A (ja) |
WO (1) | WO2019024050A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210294B (zh) * | 2019-04-23 | 2024-08-20 | 平安科技(深圳)有限公司 | 优化模型的评价方法、装置、存储介质及计算机设备 |
US11176321B2 (en) | 2019-05-02 | 2021-11-16 | International Business Machines Corporation | Automated feedback in online language exercises |
CN111914540A (zh) * | 2019-05-10 | 2020-11-10 | 阿里巴巴集团控股有限公司 | 语句鉴定方法及装置、存储介质和处理器 |
CN110399607B (zh) * | 2019-06-04 | 2023-04-07 | 深思考人工智能机器人科技(北京)有限公司 | 一种基于拼音的对话系统文本纠错系统及方法 |
CN110309512A (zh) * | 2019-07-05 | 2019-10-08 | 北京邮电大学 | 一种基于生成对抗网络的中文语法错误更正方法 |
CN110472243B (zh) * | 2019-08-08 | 2023-04-07 | 河南大学 | 一种中文拼写检查方法 |
CN110797010A (zh) * | 2019-10-31 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的问答评分方法、装置、设备及存储介质 |
CN110889284B (zh) * | 2019-12-04 | 2023-04-07 | 成都中科云集信息技术有限公司 | 一种基于双向长短时记忆网络的多任务学习中文语病诊断方法 |
EP4220474A1 (en) * | 2019-12-18 | 2023-08-02 | Fujitsu Limited | Information processing program, information processing method, and information processing device |
US11886812B2 (en) * | 2020-03-02 | 2024-01-30 | Grammarly, Inc. | Proficiency and native language-adapted grammatical error correction |
CN111310447B (zh) * | 2020-03-18 | 2024-02-02 | 河北省讯飞人工智能研究院 | 语法纠错方法、装置、电子设备和存储介质 |
CN112749553B (zh) * | 2020-06-05 | 2023-07-25 | 腾讯科技(深圳)有限公司 | 视频文件的文本信息处理方法、装置和服务器 |
US11593557B2 (en) | 2020-06-22 | 2023-02-28 | Crimson AI LLP | Domain-specific grammar correction system, server and method for academic text |
CN111950292B (zh) * | 2020-06-22 | 2023-06-27 | 北京百度网讯科技有限公司 | 文本纠错模型的训练方法、文本纠错处理方法和装置 |
KR102517971B1 (ko) * | 2020-08-14 | 2023-04-05 | 부산대학교 산학협력단 | 자동회귀 언어 모형을 이용한 문맥의존 철자오류 교정 장치 및 방법 |
CN112016603B (zh) * | 2020-08-18 | 2021-04-30 | 上海松鼠课堂人工智能科技有限公司 | 基于图神经网络的错因分析方法 |
KR102379660B1 (ko) * | 2020-11-30 | 2022-03-29 | 주식회사 티맥스에이아이 | 딥러닝 기반 의미역 분석을 활용하는 방법 |
CN112380883B (zh) * | 2020-12-04 | 2023-07-25 | 北京有竹居网络技术有限公司 | 模型训练方法、机器翻译方法、装置、设备及存储介质 |
CN112597754B (zh) * | 2020-12-23 | 2023-11-21 | 北京百度网讯科技有限公司 | 文本纠错方法、装置、电子设备和可读存储介质 |
KR20220106331A (ko) * | 2021-01-22 | 2022-07-29 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN114372441B (zh) * | 2022-03-23 | 2022-06-03 | 中电云数智科技有限公司 | 一种中文文本自动纠错方法及装置 |
CN114818713B (zh) * | 2022-05-11 | 2024-09-06 | 安徽理工大学 | 一种基于边界检测的中文命名实体识别方法 |
CN114896966B (zh) * | 2022-05-17 | 2024-09-06 | 西安交通大学 | 一种中文文本语法错误定位方法、系统、设备及介质 |
CN115544259B (zh) * | 2022-11-29 | 2023-02-17 | 城云科技(中国)有限公司 | 一种长文本分类预处理模型及其构建方法、装置及应用 |
CN116306598B (zh) * | 2023-05-22 | 2023-09-08 | 上海蜜度信息技术有限公司 | 针对不同领域字词的定制化纠错方法、系统、设备及介质 |
CN117350283B (zh) * | 2023-10-11 | 2024-10-01 | 西安栗子互娱网络科技有限公司 | 文本缺陷检测方法、装置、设备和存储介质 |
CN117574860A (zh) * | 2024-01-16 | 2024-02-20 | 北京蜜度信息技术有限公司 | 一种用于文本润色的方法与设备 |
CN118014083B (zh) * | 2024-02-29 | 2024-09-17 | 云南联合视觉科技有限公司 | 一种基于多轮提示的临床病例分析问题生成方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150309982A1 (en) | 2012-12-13 | 2015-10-29 | Postech Academy-Industry Foundation | Grammatical error correcting system and grammatical error correcting method using the same |
CN106610930A (zh) | 2015-10-22 | 2017-05-03 | 科大讯飞股份有限公司 | 外语写作自动纠错方法及系统 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6964023B2 (en) * | 2001-02-05 | 2005-11-08 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
CN101739870B (zh) * | 2009-12-03 | 2012-07-04 | 深圳先进技术研究院 | 交互式语言学习系统及交互式语言学习方法 |
SG188531A1 (en) | 2010-09-24 | 2013-04-30 | Univ Singapore | Methods and systems for automated text correction |
US8775341B1 (en) * | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
CN103365838B (zh) * | 2013-07-24 | 2016-04-20 | 桂林电子科技大学 | 基于多元特征的英语作文语法错误自动纠正方法 |
US10339920B2 (en) * | 2014-03-04 | 2019-07-02 | Amazon Technologies, Inc. | Predicting pronunciation in speech recognition |
KR102199445B1 (ko) * | 2014-07-30 | 2021-01-06 | 에스케이텔레콤 주식회사 | 클래스 기반 음향 모델의 변별 학습 방법 및 장치, 그리고 이를 이용한 음성 인식 장치 |
US10115055B2 (en) * | 2015-05-26 | 2018-10-30 | Booking.Com B.V. | Systems methods circuits and associated computer executable code for deep learning based natural language understanding |
US9595002B2 (en) * | 2015-05-29 | 2017-03-14 | Sas Institute Inc. | Normalizing electronic communications using a vector having a repeating substring as input for a neural network |
US9552547B2 (en) * | 2015-05-29 | 2017-01-24 | Sas Institute Inc. | Normalizing electronic communications using a neural-network normalizer and a neural-network flagger |
US20180260860A1 (en) * | 2015-09-23 | 2018-09-13 | Giridhari Devanathan | A computer-implemented method and system for analyzing and evaluating user reviews |
CN105845134B (zh) * | 2016-06-14 | 2020-02-07 | 科大讯飞股份有限公司 | 自由朗读题型的口语评测方法及系统 |
-
2017
- 2017-08-03 JP JP2020505241A patent/JP7031101B2/ja active Active
- 2017-08-03 WO PCT/CN2017/095841 patent/WO2019024050A1/en active Application Filing
- 2017-08-03 MX MX2020001279A patent/MX2020001279A/es unknown
- 2017-08-03 CN CN201780094942.2A patent/CN111226222B/zh active Active
- 2017-08-03 KR KR1020207005087A patent/KR102490752B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150309982A1 (en) | 2012-12-13 | 2015-10-29 | Postech Academy-Industry Foundation | Grammatical error correcting system and grammatical error correcting method using the same |
CN106610930A (zh) | 2015-10-22 | 2017-05-03 | 科大讯飞股份有限公司 | 外语写作自动纠错方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111226222A (zh) | 2020-06-02 |
CN111226222B (zh) | 2023-07-07 |
WO2019024050A1 (en) | 2019-02-07 |
KR102490752B1 (ko) | 2023-01-20 |
JP2020529666A (ja) | 2020-10-08 |
MX2020001279A (es) | 2020-08-20 |
KR20200031154A (ko) | 2020-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7031101B2 (ja) | 方法、システムおよび有形コンピュータ可読デバイス | |
Torfi et al. | Natural language processing advancements by deep learning: A survey | |
Yu et al. | Learning composition models for phrase embeddings | |
US10025778B2 (en) | Training markov random field-based translation models using gradient ascent | |
US11669740B2 (en) | Graph-based labeling rule augmentation for weakly supervised training of machine-learning-based named entity recognition | |
CN111401084A (zh) | 一种机器翻译的方法、设备以及计算机可读存储介质 | |
US11386270B2 (en) | Automatically identifying multi-word expressions | |
CN111428490B (zh) | 一种利用语言模型的指代消解弱监督学习方法 | |
Plank | Keystroke dynamics as signal for shallow syntactic parsing | |
US20220351634A1 (en) | Question answering systems | |
EP3832485A1 (en) | Question answering systems | |
CN110991193B (zh) | 一种基于OpenKiWi的翻译矩阵模型选择系统 | |
US11893344B2 (en) | Morpheme analysis learning device, morpheme analysis device, method, and program | |
JP2005181928A (ja) | 機械学習システム及び機械学習方法、並びにコンピュータ・プログラム | |
CN111723583B (zh) | 基于意图角色的语句处理方法、装置、设备及存储介质 | |
CN111144134B (zh) | 基于OpenKiWi的翻译引擎自动化评测系统 | |
CN113705207A (zh) | 语法错误识别方法及装置 | |
Siddique et al. | Bilingual word embeddings for cross-lingual personality recognition using convolutional neural nets | |
Heyman et al. | Automatic detection and correction of context-dependent dt-mistakes using neural networks | |
CN114676699A (zh) | 实体情感分析方法、装置、计算机设备和存储介质 | |
Duma et al. | UHH submission to the WMT17 quality estimation shared task | |
US20230132090A1 (en) | Bridging semantics between words and definitions via aligning word sense inventories | |
He | Automatic detection of grammatical errors in english verbs based on rnn algorithm: auxiliary objectives for neural error detection models | |
Sardarov | Development and Design of Deep Learning-based Parts-of-Speech Tagging System for Azerbaijani language | |
Song et al. | A hybrid model for community-oriented lexical simplification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7031101 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |