JP2019511033A - ニューラルネットワークを用いたテキストセグメントの係り受け解析の生成 - Google Patents

ニューラルネットワークを用いたテキストセグメントの係り受け解析の生成 Download PDF

Info

Publication number
JP2019511033A
JP2019511033A JP2018539314A JP2018539314A JP2019511033A JP 2019511033 A JP2019511033 A JP 2019511033A JP 2018539314 A JP2018539314 A JP 2018539314A JP 2018539314 A JP2018539314 A JP 2018539314A JP 2019511033 A JP2019511033 A JP 2019511033A
Authority
JP
Japan
Prior art keywords
neural network
training
dependency analysis
token
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018539314A
Other languages
English (en)
Other versions
JP2019511033A5 (ja
JP6789303B2 (ja
Inventor
ユアン・チャン
ディヴィッド・ジョセフ・ワイス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2019511033A publication Critical patent/JP2019511033A/ja
Publication of JP2019511033A5 publication Critical patent/JP2019511033A5/ja
Application granted granted Critical
Publication of JP6789303B2 publication Critical patent/JP6789303B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

自然言語処理システムに入力として与えられ得る入力テキストセグメントについての係り受け解析を生成するための、コンピュータ記憶媒体上に符号化されたコンピュータプログラムを含む方法、システム、および装置。システムのうちの1つは、入力テキストシーケンス内の各トークンについて、トークンについての特徴を受け取り、特徴を集合的に処理して、入力テキストシーケンス内のトークンの音声の部分を決定する際に使用するための、特徴の代替表現を生成するように構成された1つまたは複数の初期ニューラルネットワークレイヤを備える第1のニューラルネットワークと、1つまたは複数の初期ニューラルネットワークレイヤによって生成された入力テキストシーケンス内のトークンについての特徴の代替表現を処理して、入力テキストシーケンスの係り受け解析を生成するように構成された係り受け解析ニューラルネットワークとを含む。

Description

本明細書は、ニューラルネットワークを使用して、テキストセグメントについての係り受け解析(dependency parse)を生成することに関する。
ニューラルネットワークは、非線型ユニットの1つまたは複数のレイヤを利用して、受け取った入力についての出力を予測する機械学習モデルである。いくつかのニューラルネットワークは、出力レイヤに加えて1つまたは複数の隠れレイヤを含む。各隠れレイヤの出力は、ネットワーク内の次のレイヤ、すなわち次の隠れレイヤまたは出力レイヤに対する入力として使用される。ネットワークの各レイヤは、パラメータのそれぞれのセットの現在値に従って、受け取った入力から出力を生成する。
http://nlp.stanford.edu/software/dependencies_manual.pdf Danqi ChenおよびChristopher Manning、A Fast and Accurate Dependency Parser Using Neural Networks. In Proceedings of EMNLP 2014
自然言語処理は、コンピュータと人間の(自然)言語との間の対話に関する計算機科学の一分野である。自然言語処理は、人間機械自然言語インターフェースを提供する際に使用されることを含む多くの適用分野を有する。そのようなインターフェースは、人間が、例えば、自分の音声のみを使用して「スマート環境」においてデバイスを制御することを可能にし得る。
音声コマンドまたは発声だけに基づいて人間の意図を理解することは、データ集約的なタスクであり得、正確に実施することが困難であり得る。したがって、音声コマンドの意図を理解することは、多くの場合不可能であり、したがって、コマンドを理解しようと試みる間に計算資源を使い果たしたにも関わらず、所期の動作(例えば、特定のデバイスの、特定の方式での制御)が正しく実施されず、または全く実施されないことがある。
したがって、そのような状況の発生を低減するために、自然言語処理の信頼性を改善することが望ましい。自然言語処理の速度を向上させ、かつ/または計算資源の使用量を削減することも望ましいことがある。
自然言語処理において使用され得る1つの入力は係り受け解析であり、一般的に言えば、係り受け解析は、テキストセグメント内のワード間の依存関係を定義する。すなわち、係り受け解析は、テキストセグメント内のどのワードがテキストセグメント内の他のどのワードに依存するか、および任意選択で、依存関係のそれぞれのタイプを定義する。本明細書は、1つまたは複数の位置における1つまたは複数のコンピュータ上のコンピュータプログラムとして実装されたシステムが、改良型の方式で入力テキストセグメントについての係り受け解析をどのように生成することができ、それによって、入力テキストセグメントに関する自然言語処理の性能を潜在的に改善するかを説明する。
本明細書において説明される主題の特定の実施形態は、以下の利点のうちの1つまたは複数を実現するように実装され得る。テキストセグメントの係り受け解析を生成する際にPOSタグを直接的に使用しないことにより、テキストセグメントの係り受け解析を予測する際のPOSタグ付け誤りの連鎖が低減され、係り受け解析が正確に予測され得る。語彙化された特徴を係り受けパーサニューラルネットワークによって使用することを必要としないことにより、その代わりに初期ニューラルネットワークレイヤによって生成された表現を再利用することにより、係り受け解析を生成するモデルはより小さいサイズを有し、すなわちよりコンパクトであり、語彙化された特徴を使用する代替よりも高速に係り受け解析を生成し得る。理解するであろうが、より迅速かつ/または正確に係り受け解析を生成することにより、入力テキストセグメントおよび係り受け解析に基づいて自然言語処理システムによって決定される応答動作(例えば、スマートホームでのデバイスの制御)も、より迅速かつ/または正確に実施され得る。さらに、複数のタスクにわたる、すなわちPOSタグ付けおよび係り受け解析にわたるパイプラインまでの逆伝播を可能にする連続的な形のスタッキングを使用することにより、モデルの構成要素が効率的かつ迅速にトレーニングされ得る。
本明細書において説明される主題の1つまたは複数の実施形態の詳細が、添付の図面および以下の説明において述べられる。説明、図面、および特許請求の範囲から主題の他の特徴、態様、および利点が明らかとなるであろう。
例示的な係り受け解析生成システムを示す図である。 入力テキストセグメントについての係り受け解析を生成するための例示的なプロセスの流れ図である。 現在の解析状態を更新するための例示的なプロセスの流れ図である。 POSタグ付けニューラルネットワークおよび係り受け解析ニューラルネットワークをトレーニングするための例示的なプロセスの流れ図である。
様々な図面内の同様の参照番号および名称は、同様の要素を示す。
図1は例示的な係り受け解析生成システム100を示す。係り受け解析生成システム100は、1つまたは複数の位置における1つまたは複数のコンピュータ上のコンピュータプログラムとして実装されたシステムの一例であり、その中で、以下で説明されるシステム、構成要素、および技法が実装され得る。
係り受け解析生成システム100は、入力テキストセグメント102を受け取り、各入力テキストセグメントについてのそれぞれの係り受け解析152を生成する。各入力テキストセグメントは、トークンのシーケンス、すなわち特定の自然言語のワードおよび任意選択で句読点のシーケンスである。例えば、セグメントは、センテンス、センテンスフラグメント、または別の複数ワードシーケンスであり得る。
所与のテキストセグメントについての係り受け解析は、セグメント内のトークン間の依存関係を定義するデータである。具体的には、係り受け解析は、セグメント内のヘッドワードと、ヘッドワードに依存するセグメント内のワードおよび任意選択で句読点とを特定する。
任意選択で、係り受け解析はまた、所与のヘッドワードに依存する各ワードについて、ヘッドワードと従属ワードとの間の関係のタイプ、例えば従属ワードはヘッドワードの形容詞補語か、ヘッドワードの副詞修飾語か、ヘッドワードの直接目的語か、などを指定するラベルをも含み得る。係り受け解析においてトークン間で指定され得る関係タイプの例示的なセットが、http://nlp.stanford.edu/software/dependencies_manual.pdfにおいて説明されている。
いくつかのケースでは、係り受け解析はトリプルのセットであり、各トリプルは、セグメントからヘッドワードを特定し、セグメントから従属ワードを特定し、ヘッドワードと従属ワードとの間の関係のタイプを指定するラベルを特定する。
係り受け解析生成システム100は、1つまたは複数の初期ニューラルネットワークレイヤ110、解析サブシステム130、および係り受け解析ニューラルネットワーク140を含む。トレーニングの間、および任意選択でトレーニングの後、係り受け解析生成システム100はまた、POS(part-of-speech)出力レイヤ120をも含む。
入力テキストセグメント102についての係り受け解析を生成する部分として、係り受け解析生成システム100は、初期ニューラルネットワークレイヤ110を使用して、入力テキストセグメント102内の各トークンについてのそれぞれの特徴入力を処理する。
一般には、所与のトークンについての特徴入力は、その所与のトークンの特徴と、入力テキストセグメント内のその所与のトークンを取り囲む1つまたは複数のトークン、すなわち入力テキストセグメント内のその所与のトークンのウィンドウ内のトークンの特徴とを含む。
トークンの特徴は、トークンを特徴付けるベクトルまたは他の数値の集合である。例えば、トークンの特徴は、トークンを特定する、すなわちワードまたは句読点を特定するワンホット符号化特徴ベクトル(one-hot encoded feature vector)、トークンがシンボル、例えばハイフン、数字、または句読点を含むかどうかを示す特徴ベクトル、トークンが接頭辞または接尾辞を含むワードであるかどうかを示す特徴ベクトル、トークンが大文字化されたワードであるかどうかを示す特徴ベクトルなどを含み得る。
いくつかの実装では、ウィンドウは各特徴について同一の固定サイズである。他の実装では、異なる特徴は異なるウィンドウサイズを有する。例えば、トークンを特定するワンホット符号化特徴ベクトルについてのウィンドウサイズは、所与のトークンの3つのトークン以内のトークンを含み得、大文字化を特定する特徴ベクトルは、所与のトークンの1つのトークン以内のトークンを含み得る。
初期ニューラルネットワークレイヤ110は、入力セグメント内の各トークンについて、トークンについての特徴入力を処理して、トークンについての特徴表現112を生成するように集合的に構成されるフィードフォワードニューラルネットワークレイヤである。トークンについての特徴表現は、トークンについての特徴入力の代替表現、すなわちトークンについての特徴入力を表すベクトルまたは他の数値の集合である。
例えば、初期ニューラルネットワークレイヤ110は、埋込みレイヤと、その後に続く1つまたは複数の完全に接続された隠れレイヤとを含み得る。
埋込みレイヤは、一般にはまばらである、特徴入力内の特徴を受け取り、各特徴についてのそれぞれの埋込みベクトルを決定し、埋込みベクトルを組み合わせ、例えば連結し、特徴の組合せ埋込みを生成するように構成される。
1つまたは複数の完全に接続された隠れレイヤは、組合せ埋込みを処理して、すなわち1つまたは複数の非線形変換を組合せ埋込みに適用することによって処理して、トークンについての特徴表現を生成するように構成される。
解析サブシステム130は、初期ニューラルネットワークレイヤ110によって生成された入力テキストセグメント102内のトークンについての特徴表現112を受け取り、特徴表現112を使用して、係り受け解析ニューラルネットワーク140についての入力を生成する。
係り受け解析ニューラルネットワーク140は、状態特徴132、すなわち解析サブシステム130によって維持される解析状態の現在の構成の特徴を受け取り、現在の解析状態に対する状態更新142を定義する出力を生成するように構成されるフィードフォワードニューラルネットワークである。いくつかの実装では、係り受け解析ニューラルネットワーク140は、埋込みレイヤ、1つまたは複数の完全に接続された隠れレイヤ、および出力レイヤを含む。
係り受け解析の生成中の任意の所与の時刻で、解析サブシステム130によって維持される解析状態は、スタックまたはバッファ内のそれぞれの位置を、入力シーケンス内のトークンの一部またはすべてに割り当て、入力セグメントについての、それまでに生成された依存関係トリプルを特定する。解析状態の例示的な構成が、Danqi ChenおよびChristopher Manning、A Fast and Accurate Dependency Parser Using Neural Networks. In Proceedings of EMNLP 2014においてより詳細に説明されている。
所与の構成の状態特徴は、複数の特徴表現の順序付き組合せ、例えば行列または連結ベクトルであり、順序付き組合せ内の各位置は、解析状態のスタックまたはバッファ内の異なる位置に対応する。
いくつかの実装では、解析状態の現在の構成についての状態特徴を生成するために、解析サブシステム130は、順序付き組合せ内の各位置での特徴表現として、解析状態の現在の構成内の対応する位置にあるトークンの特徴表現を選択する。したがって、順序付き組合せ内の各位置は、解析状態の現在の構成内の対応する位置からの特徴表現を含む。簡略化した例として、順序付き組合せ内の位置が[buffer_0;stack_0;stack_1]であり、現在の構成がバッファ内の位置0においてtoken1を含み、スタック内の位置0においてtoken2を含み、スタック内の位置1においてtoken3を含む場合、現在の構成についての状態特徴は、[token1についての特徴表現,token2についての特徴表現,token3についての特徴表現]となる。順序付き組合せ内の位置のうちの1つに対応する位置が空である場合、解析サブシステム130は、指定のヌル特徴表現を順序付き組合せに追加し得る。
いくつかの実装では、順序付き組合せ内の各位置は、解析状態の現在の構成内の対応する位置を有し、順序付き組合せ位置での特徴は、対応する構成位置にあるトークンの特徴表現と、それまでに生成された依存関係トリプルによる対応する構成位置にあるトークンに関係するトークン、例えば子トークンおよび兄弟トークンの特徴表現の組合せ、例えば連結である。対応する構成位置のトークンが、それまでに生成されたトリプル内の特定の関係を有するトークンを有さない場合、システムは指定のヌル特徴表現を使用し得る。
いくつかの実装では、順序付き組合せはまた、それまでに生成された依存関係トリプルについてのラベルの数値表現をも含む。
解析サブシステム130および係り受け解析ニューラルネットワーク140は、解析状態を反復的に更新することによって、特徴表現112から係り受け解析152を生成する。係り受け解析を生成すること、および解析状態を更新することは、図2および図3を参照しながら以下でより詳細に説明される。
POS出力レイヤ120は、入力テキストセグメント内の所与のトークンの特徴表現112を処理して、その所与のトークンについてのpart-of-speech割当てを定義する、その所与のトークンについてのPOSタグ122を定義する出力を生成するように構成される。具体的には、POS出力レイヤ120は、特徴表現112を処理して、POSタグの所定のセット内の各POSタグについてのそれぞれのスコアを生成するように構成されるsoftmaxまたは他の種類のニューラルネットワーク出力レイヤである。各スコアは、音声の対応する部分が入力テキストシーケンス内のトークンの音声の部分である可能性を表す。
したがって、特徴表現112は、入力セグメント102内のトークンについてのPOSタグを生成し、すなわち最高のスコアのPOSタグをトークンについてのPOSタグとして選択することによって生成し、かつ入力セグメント102の係り受け解析152を生成するように使用され得る。しかしながら、係り受け解析ニューラルネットワーク140は、係り受け解析152を生成するとき、トークンについてのPOSタグを直接的に使用せず、すなわち特徴表現112のみを使用することによって使用しない。
いくつかの実装では、生成された後に、係り受け解析生成システム100は、さらなる処理のために、係り受け解析152を別のシステムに対する入力として供給する。例えば、係り受け解析生成システム100は、入力テキストセグメント102を解析し、応答動作の実施を引き起こす自然言語処理システムに対する入力として係り受け解析152を供給し得る。例えば、自然言語処理システムは、人間機械自然言語(例えば音声)インターフェースを容易にするために利用され得る。そのような例では、応答動作は、スマート環境内のデバイスを制御することを含み得る。自然言語処理システムによって実施され得る動作の他の例には、感情解析、質問回答、要約、または他の自然言語処理タスクが含まれる。例えば、これらの動作は、例えばスマートスピーカまたは他の自動インテリジェントパーソナルアシスタントサービスによって要求される、処理ユーザ要求の部分として実施され得る。
別のシステムに対する入力として係り受け解析152を供給する代わりに、またはそれに加えて、係り受け解析生成システム100は、係り受け解析生成システム100のユーザへの提示のために、係り受け解析を記憶し、または係り受け解析を指定するデータを供給し得る。
係り受け解析生成システム100は、初期ニューラルネットワークレイヤ110および係り受け解析ニューラルネットワーク140をトレーニングして、初期ニューラルネットワークレイヤ110および係り受け解析ニューラルネットワーク140のパラメータのトレーニング後の値を決定し得る。初期ニューラルネットワークレイヤおよび係り受け解析ニューラルネットワークをトレーニングすることは、図4を参照しながら以下でより詳細に説明される。
図2は、入力テキストシーケンスについての係り受け解析を生成するための例示的なプロセス200の流れ図である。便宜上、プロセス200は、1つまたは複数の位置に配置された1つまたは複数のコンピュータのシステムによって実施されるものとして説明される。例えば、適切にプログラムされた係り受け解析生成システム、例えば図1の係り受け解析生成システム100が、プロセス200を実施し得る。
システムは入力テキストセグメントを得る(ステップ202)。入力テキストセグメントは、入力順に従って配置された複数のトークン、すなわちワードおよび任意選択で句読点を含む。
システムは、1つまたは複数の初期ニューラルネットワークレイヤを通じて、入力テキストセグメント内のトークンのそれぞれについての特徴入力を処理する(ステップ204)。前述のように、初期ニューラルネットワークレイヤは、所与のトークンの特徴入力を処理して、トークンの音声の部分を決定する際に使用するために、すなわちPOSタグ出力レイヤによって処理するために、および入力テキストセグメントの係り受け解析を生成する際に使用するために、特徴表現、すなわち特徴の代替表現を生成するように構成される。
システムは、係り受け解析ニューラルネットワークを使用して代替表現を処理して、入力テキストセグメントの係り受け解析を生成する(ステップ206)。
具体的には、システムは解析状態を初期化し、係り受け解析ニューラルネットワークを使用して解析状態を反復的に更新し、係り受け解析を生成する。初期解析状態は、例えば、スタック内の所定のROOTトークンと、入力セグメント内のその位置に従って配置されたバッファ内の入力セグメント内のトークンとを含み得、既に生成された依存関係トリプルを含まない。システムは、解析状態が終端状態となるまで、解析状態を反復的に更新し、次いで終端状態の依存関係トリプルを、入力テキストセグメントについての係り受け解析として扱う。例えば、終端状態は、空バッファと、スタック内のROOTトークンのみを含み得る。
解析状態を更新することは、図3を参照しながら以下でより詳細に説明される。
図3は、解析状態を更新するための例示的なプロセス300の流れ図である。便宜上、プロセス300は、1つまたは複数の位置に配置された1つまたは複数のコンピュータのシステムによって実施されるものとして説明される。例えば、適切にプログラムされた係り受け解析生成システム、例えば図1の係り受け解析生成システム100が、プロセス300を実施し得る。
システムは、現在の解析状態を使用して状態特徴を生成する(ステップ302)。具体的には、システムは、解析状態の現在の構成内の対応する位置にあるトークンについての特徴表現を、順序付き組合せ内の各位置に追加することによって、特徴表現の順序付き組合せを生成する。
システムは、係り受け解析ニューラルネットワークを使用して状態特徴を処理する(ステップ304)。係り受け解析ニューラルネットワークは、状態特徴を処理して、現在の解析状態に対する更新を定義する出力を生成するように構成される。
より具体的には、係り受け解析ニューラルネットワークは、潜在的解析状態更新のセット内の各潜在的更新についてのそれぞれのスコアを生成する。解析状態更新は、バッファからトークンを除去し、トークンをスタック上にプッシュする更新を含み、従属ワードとヘッドワードとの間の可能な各ラベルについて、(i)スタック上の第2のトークンを第1のトークンの従属とマークするそれぞれの左アーク更新が、対応するラベルを依存関係に割り当て、スタックから第2のトークンを除去し、(ii)スタック上の第1のトークンを第2のトークンの従属とマークするそれぞれの右アーク更新が、対応するラベルを依存関係に割り当て、スタックから第1のトークンを除去する。例えば、可能なラベルは、http://nlp.stanford.edu/software/dependencies_manual.pdfにおいて説明されている関係タイプのセット内の関係タイプの一部またはすべてでよい。
システムは、出力を使用して現在の解析状態を更新する(ステップ306)。具体的には、システムは、スコアを使用して、すなわち最高のスコアを有する更新を選択することによって、または対応するスコアに従って、可能な更新からサンプリングすることによって、可能な更新から更新を選択し、更新を現在の解析状態に適用して、更新後解析状態を生成する。
更新後解析状態が終端解析状態である場合、システムは、更新後解析状態によって定義される係り受け解析を、テキストセグメントについての最終係り受け解析として選択する。
更新後解析状態が所定の終端解析状態ではない場合、システムは、現在の解析状態の代わりに更新後解析状態でプロセス300を反復する。
図4は、POSタグ付けニューラルネットワークおよび係り受け解析ニューラルネットワークをトレーニングするための例示的なプロセス400の流れ図である。便宜上、プロセス400は、1つまたは複数の位置に配置された1つまたは複数のコンピュータのシステムによって実施されるものとして説明される。例えば、適切にプログラムされた係り受け解析生成システム、例えば図1の係り受け解析生成システム100が、プロセス400を実施し得る。
システムは、プロセス400を実施して、POSタグ付けニューラルネットワーク、すなわち図1の1つまたは複数の初期ニューラルネットワークレイヤおよびPOS出力レイヤを含むニューラルネットワークと、係り受け解析ニューラルネットワーク、すなわち図1の係り受け解析ニューラルネットワークとをトレーニングする。
システムは、トレーニングテキストシーケンスと、各トレーニングテキストシーケンスについて、トレーニングテキストシーケンス内の各トークンについてのそれぞれのPOSタグとを含む第1のトレーニングデータを得る(ステップ402)。
システムは、トレーニングテキストシーケンスと、各トレーニングテキストシーケンスについて、トレーニングテキストシーケンスの係り受け解析を定義するパーサ状態のセットとを含む第2のトレーニングデータを得る(ステップ404)。
すなわち、第2のトレーニングデータ内の所与のトレーニングテキストシーケンスについて、システムは、係り受け解析を生成する(パーサ状態、アクション)対のセットを得る。各(パーサ状態、アクション)対内のアクションは、トレーニングテキストシーケンスについて正しい係り受け解析を生成するために対の中のパーサ状態に適用すべき状態更新である。
いくつかの実装では、システムは(パーサ状態、アクション)対を受け取る。他の実装では、システムは、シーケンスについての係り受け解析を受け取り、係り受け解析を広げて、シーケンスについての(パーサ状態、アクション)対を決定する。
次いで、システムは、第1および第2のトレーニングデータに関してPOSニューラルネットワークおよび係り受け解析ニューラルネットワークをトレーニングして、初期ニューラルネットワークレイヤ、POS出力レイヤ(出力レイヤがトレーニング可能なパラメータを有する場合)、および係り受け解析ニューラルネットワークのパラメータのトレーニング後の値を決定する(ステップ306)。
具体的には、システムは、以下を反復的に実施することによってネットワークをトレーニングする。(i)第1のトレーニングデータからのトレーニング例に関してPOSニューラルネットワークをトレーニングして、POSニューラルネットワークのパラメータの値を更新すること、および(ii)第2のトレーニングデータからのトレーニング例に関して解析ニューラルネットワークおよび初期ニューラルネットワークレイヤをトレーニングすること。
第1のトレーニングデータからのトレーニング例は、第1のトレーニングデータ内のトレーニングシーケンスのうちの1つからのトークンについての特徴入力、およびトークンについての対応するPOSタグである。
第2のトレーニングデータからのトレーニング例は、第2のトレーニングデータ内の(解析状態、アクション)対に対応する状態特徴、および(解析状態、アクション)対からのアクションである。
システムは、動作(i)および(ii)の各反復について、対応するトレーニングデータ内のトレーニング例からランダムにトレーニング例を選択し得る。
動作(i)および(ii)を反復的に実施するために、システムは、動作(i)を実施することと、動作(ii)を実施することとの間で反復的に交替し得る。例えば、システムは、第1の数のトレーニングエポックについて動作(i)を実施することと、第2の数のトレーニングエポックについて動作(ii)を実施することとの間で交替し得る。いくつかの実装では、第1の数は第2の数に等しい。いくつかの他の実装では、第1の数は第2の数とは異なる。システムは、トレーニングデータ内のトレーニング例のすべてがサンプリングされるまで、または何らかの他の終了基準が満たされるまで、所定の反復数について動作を実施することの間で交替し得る。
第2のトレーニングデータからのトレーニング例に関して解析ニューラルネットワークおよび初期ニューラルネットワークレイヤをトレーニングするために、システムは、トレーニング例についての解析損失の勾配を決定し、係り受け解析ニューラルネットワークおよび初期ニューラルネットワークレイヤを通じて勾配を逆伝播し、係り受け解析ニューラルネットワークおよび初期ニューラルネットワークレイヤのパラメータの値を、すなわち逆伝播トレーニング技法を用いる確率的勾配降下を使用して更新する。
具体的には、システムは、(i)トレーニング例内の状態特徴を処理することによって解析ニューラルネットワークによって生成されたスコアと、(ii)トレーニング例内のアクションを状態に適用すべき状態更新として特定するスコアのセットとの間の誤差から解析損失を決定する。
第1のトレーニングデータからのトレーニング例に関してPOSニューラルネットワークをトレーニングするために、システムは、POS損失の勾配を決定し、POS出力レイヤおよび初期ニューラルネットワークレイヤを通じて勾配を逆伝播し、初期ニューラルネットワークレイヤのパラメータの値を、すなわち逆伝播トレーニング技法を用いる同一の確率的勾配降下、または逆伝播トレーニング技法を用いる異なる確率的勾配降下を使用して更新する。
具体的には、システムは、(i)トレーニング例内のトークンについての特徴入力を処理することによってPOSニューラルネットワークによって生成されたスコアと、(ii)トレーニング例内のPOSタグがトークンについての正しいPOSタグであることを示すスコアのセットとの間の誤差からPOS損失を決定する。
いくつかの実装では、システムは、トレーニング動作を反復的に実施する前に、POSニューラルネットワークを事前トレーニングする。すなわち、システムは、動作(ii)を実施することを開始する前に、動作(i)を反復的に実施することによってPOSニューラルネットワークを事前トレーニングする。
本明細書において説明される主題および機能的動作の実施形態は、本明細書において開示された構造およびその構造的均等物を含む、デジタル電子回路、有形に実施されたコンピュータソフトウェアまたはファームウェア、コンピュータハードウェア、またはそれらのうちの1つまたは複数の組合せとして実装され得る。
本明細書において説明される主題の実施形態は、1つまたは複数のコンピュータプログラム、すなわちデータ処理装置による実行のために、またはデータ処理装置の動作を制御するために有形の非一時的プログラムキャリア上に符号化されたコンピュータプログラム命令の1つまたは複数のモジュールとして実装され得る。代替または追加として、プログラム命令は、データ処理装置による実行のために、適切な受信機装置への送信のために情報を符号化するように生成される、人工的に生成された伝播信号、例えば機械で生成された電気信号、光信号、または電磁信号上で符号化され得る。コンピュータ記憶媒体は、機械可読記憶デバイス、機械可読記憶基板、ランダムもしくはシリアルアクセスメモリデバイス、またはそれらのうちの1つまたは複数の組合せであり得る。
「データ処理装置」という用語は、例としてプログラム可能プロセッサ、コンピュータ、または複数のプロセッサもしくはコンピュータを含む、データを処理するためのすべての種類の装置、デバイス、および機械を包含する。装置は、専用論理回路、例えばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)を含み得る。装置はまた、ハードウェアに加えて、当該のコンピュータプログラムのための実行環境を生成するコード、例えばプロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらのうちの1つまたは複数の組合せを構成するコードをも含み得る。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、モジュール、ソフトウェアモジュール、スクリプト、またはコードとも呼ばれ、またはそれらとして説明されることがある)が、コンパイル型言語またはインタプリタ型言語、宣言型言語または手続型言語を含む任意の形態のプログラミング言語として書かれ得、スタンドアロンプログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピューティング環境内での使用に適した他のユニットとしての形態を含む任意の形態として配置され得る。コンピュータプログラムは、必須ではないがファイルシステム内のファイルに対応し得る。プログラムは、他のプログラムまたはデータを保持するファイルの一部、例えばマークアップ言語文書内に記憶された1つまたは複数のスクリプトの中に、当該のプログラム専用の単一のファイル内に、または複数の協調ファイル、例えば1つまたは複数のモジュール、サブプログラム、もしくはコードの部分を記憶するファイル内に格納され得る。コンピュータプログラムは、1つのコンピュータ上で、または1つの場所に配置され、または複数の場所にわたって分散され、通信ネットワークによって相互接続される複数のコンピュータ上で実行されるように配置され得る。
本明細書において説明されたプロセスおよび論理フローは、1つまたは複数のコンピュータプログラムを実行して、入力データに対して演算し、出力を生成することによって機能を実施する1つまたは複数のプログラム可能コンピュータによって実施され得る。プロセスおよび論理フローはまた、専用論理回路、例えばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)によっても実施され得、装置は、それらとしても実装され得る。
コンピュータプログラムの実行に適したコンピュータは、例として、汎用もしくは専用マイクロプロセッサまたはその両方、あるいは任意の他の種類の中央演算処理装置に基づくものであり得る。一般には、中央演算処理装置は、読取り専用メモリもしくはランダムアクセスメモリまたはその両方から命令およびデータを受け取る。コンピュータの不可欠な要素は、命令を実施または実行するための中央演算処理装置と、命令およびデータを記憶するための1つまたは複数のメモリデバイスである。一般には、コンピュータはまた、データを記憶するための1つまたは複数の大容量記憶デバイス、例えば磁気ディスク、光磁気ディスク、または光ディスクをも含み、あるいはそれらからデータを受け取り、もしくはそれらにデータを転送し、またはその両方を行うように動作可能に結合される。しかしながら、コンピュータはそのようなデバイスを有する必要はない。さらに、コンピュータは、ほんのいくつかの例を挙げれば、別のデバイス、例えば携帯電話、携帯情報端末(PDA)、モバイルオーディオもしくはビデオプレーヤ、ゲームコンソール、全地球測位システム(GPS)受信機、またはポータブル記憶デバイス、例えばユニバーサルシリアルバス(USB)フラッシュドライブ内に組み込まれ得る。
コンピュータプログラム命令およびデータを記憶するのに適したコンピュータ可読媒体は、例として、半導体メモリデバイス、例えばEPROM、EEPROM、およびフラッシュメモリデバイス、磁気ディスク、例えば内部ハードディスクまたは取外し可能ディスク、光磁気ディスク、ならびにCD-ROMおよびDVD-ROMディスクを含む、すべての形態の不揮発性メモリ、媒体、およびメモリデバイスを含む。プロセッサおよびメモリは、専用論理回路によって補足され、またはその中に組み込まれ得る。
ユーザとの対話を実現するために、本明細書において説明される主題の実施形態は、ユーザに情報を表示するためのディスプレイデバイス、例えばCRT(陰極線管)もしくはLCD(液晶ディスプレイ)モニタと、ユーザがそれによってコンピュータに入力を与えることのできるキーボードおよびポインティングデバイス、例えばマウスもしくはトラックボールとを有するコンピュータ上に実装され得る。他の種類のデバイスもユーザとの対話を実現するために使用され得、例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック、例えば視覚フィードバック、音声フィードバック、または触覚フィードバックであり得、ユーザからの入力は、音響、音声、または触覚入力を含む任意の形態として受け取られ得る。さらに、コンピュータは、ユーザによって使用されるデバイスに文書を送り、デバイスから文書を受け取ることによって、例えば、ウェブブラウザから受け取った要求に応答して、ユーザのクライアントデバイス上のウェブブラウザにウェブページを送ることによって、ユーザと対話し得る。
本明細書において説明される主題の実施形態は、バックエンド構成要素を例えばデータサーバとして含み、またはミドルウェア構成要素、例えばアプリケーションサーバを含み、またはフロントエンド構成要素、例えばユーザが本明細書において説明される主題の実装とそれを通じて対話することができるグラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピュータを含み、あるいは1つまたは複数のそのようなバックエンド、ミドルウェア、またはフロントエンド構成要素の任意の組合せを含むコンピューティングシステムとして実装され得る。システムの構成要素は、任意の形態または媒体のデジタルデータ通信、例えば通信ネットワークによって相互接続され得る。通信ネットワークの例には、ローカルエリアネットワーク(「LAN」)および広域ネットワーク(「WAN」)、例えばインターネットが含まれる。
コンピューティングシステムはクライアントおよびサーバを含み得る。クライアントおよびサーバは、一般には互いに離れており、通常は通信ネットワークを通じて対話する。クライアントとサーバの関係は、それぞれのコンピュータ上で実行中の、互いにクライアント-サーバ関係を有するコンピュータプログラムによって生じる。
本明細書は、多くの特定の実装詳細を含むが、これらを、何らかの発明の範囲、または特許請求され得るものの範囲に関する限定と解釈すべきではなく、むしろ特定の発明の特定の実施形態に特有のものであり得る特徴の説明と解釈すべきである。本明細書において別々の実施形態の状況において説明されるいくつかの特徴はまた、単一の実施形態において組み合わせて実装され得る。逆に、単一の実施形態の状況において説明される様々な特徴はまた、複数の実施形態として別々に、または任意の適切な部分組合せとして実装され得る。さらに、特徴が、いくつかの組合せとして働くものとして上記で説明され、さらにはそのように最初に特許請求され得るが、あるケースでは、特許請求される組合せからの1つまたは複数の特徴が組合せから削除され得、特許請求される組合せは、部分組合せまたは部分組合せの変形を対象とし得る。
同様に、図面では動作が特定の順序で示されるが、このことは、望ましい結果を達成するために、そのような動作が図示される特定の順序で、または順次的に実施されること、またはすべての図示される動作が実施されることを必要とすると理解すべきではない。いくつかの環境では、マルチタスキングおよび並列処理が有利であることがある。さらに、前述の実施形態での様々なシステムモジュールおよび構成要素の分離を、すべての実施形態においてそのような分離を必要とすると理解すべきではなく、記載のプログラム構成要素およびシステムは一般に、単一のソフトウェア製品として共に一体化され、または複数のソフトウェア製品としてパッケージ化され得ることを理解されたい。
主題の特定の実施形態が説明された。他の実施形態は以下の特許請求の範囲内にある。例えば、請求項に記載の動作は、異なる順序で実施され、それでもなお望ましい結果を達成し得る。一例として、添付の図に示されるプロセスは、望ましい結果を達成するために、図示される特定の順序、または順次的順序を必ずしも必要とするわけではない。いくつかの実装では、マルチタスキングおよび並列処理が有利であることがある。
204 ノード
100 係り受け解析生成システム
102 入力テキストセグメント
110 初期ニューラルネットワークレイヤ
112 特徴表現
120 POS出力レイヤ
122 POSタグ
130 解析サブシステム
132 状態特徴
140 係り受け解析ニューラルネットワーク
142 状態更新
152 係り受け解析

Claims (14)

1つまたは複数のコンピュータによって実装されるシステムであって、
入力テキストシーケンス内の各トークンについて、
前記トークンについての特徴入力を受け取り、
前記トークンについての前記特徴入力を集合的に処理して、前記入力テキストシーケンス内の前記トークンの音声の部分を決定する際に使用するための、前記特徴入力の代替表現を生成する
ように構成された1つまたは複数の初期ニューラルネットワークレイヤ
を備える第1のニューラルネットワークと、
前記1つまたは複数の初期ニューラルネットワークレイヤによって生成された前記入力テキストシーケンス内の前記トークンについての前記特徴の前記代替表現を処理して、前記入力テキストシーケンスの係り受け解析を生成する
ように構成された係り受け解析ニューラルネットワークと
を備えるシステム。
前記第1のニューラルネットワークが、
各トークンについて、
前記特徴入力の前記代替表現を受け取り、音声の対応する部分が前記入力テキストシーケンス内の前記トークンの音声の前記部分である可能性を表す、音声タグの複数の部分のそれぞれについてのそれぞれのスコアを生成する
ように構成された出力レイヤ
をさらに備える請求項1に記載のシステム。
前記係り受け解析ニューラルネットワークが状態ベースの係り受け解析ニューラルネットワークである請求項1または2に記載のシステム。
前記係り受け解析ニューラルネットワークが、現在のパーサ状態での特定の位置のトークンについての前記特徴入力の前記代替表現を処理することによってパーサ状態を更新することによって前記係り受け解析を生成するように構成される請求項3に記載のシステム。
前記係り受け解析ニューラルネットワークが、現在のパーサ状態での特定の位置のトークンについての前記特徴入力の前記代替表現を含む状態特徴入力を受け取り、前記状態特徴入力を処理して、複数のパーサ状態更新のそれぞれについてのそれぞれのスコアを生成するように構成される請求項4に記載のシステム。
前記係り受け解析ニューラルネットワークが、前記係り受け解析を生成する際に前記入力テキストシーケンス内の前記トークンの音声の前記部分を直接的に使用しない請求項1から5のいずれか一項に記載のシステム。
前記生成した係り受け解析を入力として使用して前記入力テキストセグメントを解析し、
前記解析した入力テキストセグメントに基づいて、前記入力テキストセグメントに応答する動作の実施を引き起こす
ように構成された自然言語処理システムを備える請求項1から6のいずれか一項に記載のシステム。
前記1つまたは複数のコンピュータによって実行されるとき、請求項1から7のいずれか一項に記載のニューラルネットワークシステムを前記1つまたは複数のコンピュータに実装させる命令と共に符号化された1つまたは複数のコンピュータ可読記憶媒体。
請求項2から7のいずれか一項に記載のシステムの前記第1のニューラルネットワークおよび前記係り受け解析ニューラルネットワークをトレーニングするための方法であって、
トレーニングテキストシーケンスと、各トレーニングテキストシーケンスについて、前記トレーニングテキストシーケンス内の各トークンについての音声タグのそれぞれの部分とを含む第1のトレーニングデータを得るステップと、
トレーニングテキストシーケンスと、各トレーニングテキストシーケンスについて、前記トレーニングテキストシーケンスの係り受け解析を定義するパーサ状態のセットとを含む第2のトレーニングデータを得るステップと、
前記第1および第2のトレーニングデータに関して前記第1のニューラルネットワークおよび前記係り受け解析ニューラルネットワークをトレーニングするステップを含み、トレーニングする前記ステップが、
前記第1のトレーニングデータからのトレーニング例上の前記第1のニューラルネットワークをトレーニングして、前記第1のニューラルネットワークのパラメータの値を更新するステップと、
前記係り受け解析ニューラルネットワークおよび前記第1のニューラルネットワークの前記初期ニューラルネットワークレイヤをトレーニングするステップであって、
前記第2のトレーニングデータからのトレーニング例について解析損失を決定することと、
前記係り受け解析ニューラルネットワークおよび前記初期ニューラルネットワークレイヤを通じて前記解析損失を逆伝播し、前記係り受け解析ニューラルネットワークおよび前記初期ニューラルネットワークレイヤのパラメータの値を更新することと
を含むステップと
を反復的に実施するステップを含む、方法。
反復的に実施する前記ステップが、
前記第1のニューラルネットワークの前記トレーニングを実施するステップと、前記第1および第2のトレーニングデータとは異なるトレーニング例に関して前記解析ニューラルネットワークおよび前記初期ニューラルネットワークレイヤの前記トレーニングとを実施するステップとを反復的に交替するステップ
を含む請求項9に記載の方法。
前記第2のトレーニングデータを得る前記ステップが、
前記第2のトレーニングデータ内の前記トレーニングテキストシーケンスのそれぞれについて、
前記トレーニングテキストシーケンスの前記係り受け解析を得るステップと、
前記係り受け解析を広げて、前記トレーニングテキストシーケンスの前記係り受け解析を定義するパーサ状態の前記セットを決定するステップと
を含む請求項9または10に記載の方法。
前記第1および第2のトレーニングデータに関して前記第1のニューラルネットワークおよび前記係り受け解析ニューラルネットワークをトレーニングする前記ステップが、
前記トレーニング動作を反復的に実施する前に、前記第1のニューラルネットワークを事前トレーニングするステップ
をさらに含む請求項9から11のいずれか一項に記載の方法。
1つまたは複数のコンピュータによって実行されるとき、請求項9から12のいずれか一項に記載の方法の動作を前記1つまたは複数のコンピュータに実施させる命令と共に符号化された1つまたは複数のコンピュータ可読記憶媒体。
1つまたは複数のコンピュータと、前記1つまたは複数のコンピュータによって実行されるとき、請求項9から12のいずれか一項に記載の方法の動作を前記1つまたは複数のコンピュータに実施させる命令を記憶する1つまたは複数の記憶デバイスとを備えるシステム。
JP2018539314A 2016-03-18 2017-03-17 ニューラルネットワークを用いたテキストセグメントの係り受け解析の生成 Active JP6789303B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662310513P 2016-03-18 2016-03-18
US62/310,513 2016-03-18
PCT/US2017/023047 WO2017161320A1 (en) 2016-03-18 2017-03-17 Generating dependency parses of text segments using neural networks

Publications (3)

Publication Number Publication Date
JP2019511033A true JP2019511033A (ja) 2019-04-18
JP2019511033A5 JP2019511033A5 (ja) 2019-12-19
JP6789303B2 JP6789303B2 (ja) 2020-11-25

Family

ID=58547795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018539314A Active JP6789303B2 (ja) 2016-03-18 2017-03-17 ニューラルネットワークを用いたテキストセグメントの係り受け解析の生成

Country Status (6)

Country Link
US (1) US10878188B2 (ja)
EP (1) EP3394798A1 (ja)
JP (1) JP6789303B2 (ja)
KR (1) KR102201936B1 (ja)
CN (1) CN109313719B (ja)
WO (1) WO2017161320A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558583A (zh) * 2017-09-27 2019-04-02 株式会社理光 一种自动生成文摘的方法、装置及设备
US10482162B2 (en) * 2017-11-30 2019-11-19 International Business Machines Corporation Automatic equation transformation from text
US10721190B2 (en) * 2018-07-31 2020-07-21 Microsoft Technology Licensing, Llc Sequence to sequence to classification model for generating recommended messages
CN110033091B (zh) * 2018-12-13 2020-09-01 阿里巴巴集团控股有限公司 一种基于模型进行预测的方法和装置
RU2721190C1 (ru) * 2018-12-25 2020-05-18 Общество с ограниченной ответственностью "Аби Продакшн" Обучение нейронных сетей с использованием функций потерь, отражающих зависимости между соседними токенами
US10956474B2 (en) 2019-03-14 2021-03-23 Microsoft Technology Licensing, Llc Determination of best set of suggested responses
US11436486B2 (en) * 2019-08-19 2022-09-06 Advanced Micro Devices, Inc. Neural network internal data fast access memory buffer
CN110765243A (zh) * 2019-09-17 2020-02-07 平安科技(深圳)有限公司 自然语言处理系统的构建方法、电子装置及计算机设备
CN112800737B (zh) * 2019-10-29 2024-06-18 京东科技控股股份有限公司 自然语言文本生成方法和装置以及对话系统
CN111178039B (zh) * 2019-12-18 2023-05-09 北京明略软件系统有限公司 一种模型训练方法、装置、实现文本处理的方法及装置
CN111832316B (zh) * 2020-06-30 2024-05-24 北京小米松果电子有限公司 语义识别的方法、装置、电子设备和存储介质
CN111832315B (zh) * 2020-06-30 2024-04-30 北京小米松果电子有限公司 语义识别的方法、装置、电子设备和存储介质
CN112528671A (zh) * 2020-12-02 2021-03-19 北京小米松果电子有限公司 语义分析方法、装置以及存储介质
CN112699665B (zh) * 2021-03-25 2021-08-27 北京智源人工智能研究院 一种安全报告文本的三元组抽取方法、装置及电子设备
CN113762445B (zh) * 2021-04-26 2023-11-07 重庆大学 一种基于装配式建筑的标识解析系统
CN113468878A (zh) * 2021-07-13 2021-10-01 腾讯科技(深圳)有限公司 词性标注方法、装置、电子设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03263266A (ja) 1990-03-14 1991-11-22 Fujitsu Ltd 未知語の品詞選択装置
US6076051A (en) * 1997-03-07 2000-06-13 Microsoft Corporation Information retrieval utilizing semantic representation of text
JP2002523828A (ja) 1998-08-24 2002-07-30 ビーシーエル コンピューターズ, インコーポレイテッド 適応型自然言語インターフェース
US7016828B1 (en) * 2000-10-23 2006-03-21 At&T Corp. Text-to-scene conversion
US20060241946A1 (en) 2003-08-12 2006-10-26 Martin Oerder Speech input interface for dialog systems
GB2428508B (en) * 2005-07-15 2009-10-21 Toshiba Res Europ Ltd Parsing method
US8700403B2 (en) 2005-11-03 2014-04-15 Robert Bosch Gmbh Unified treatment of data-sparseness and data-overfitting in maximum entropy modeling
US7603330B2 (en) * 2006-02-01 2009-10-13 Honda Motor Co., Ltd. Meta learning for question classification
US8874434B2 (en) 2010-06-02 2014-10-28 Nec Laboratories America, Inc. Method and apparatus for full natural language parsing
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US8935151B1 (en) * 2011-12-07 2015-01-13 Google Inc. Multi-source transfer of delexicalized dependency parsers
CN102662931B (zh) * 2012-04-13 2015-03-25 厦门大学 一种基于协同神经网络的语义角色标注方法
CN102866989B (zh) * 2012-08-30 2016-09-07 北京航空航天大学 基于词语依存关系的观点抽取方法
US9507852B2 (en) * 2013-12-10 2016-11-29 Google Inc. Techniques for discriminative dependency parsing
CN105940395B (zh) * 2014-01-31 2019-07-16 谷歌有限责任公司 生成文档的矢量表示
CN104049755B (zh) * 2014-06-18 2017-01-18 中国科学院自动化研究所 信息处理方法及装置
CN104575501B (zh) * 2015-01-19 2017-11-03 北京云知声信息技术有限公司 一种收音机语音操控指令解析方法及系统

Also Published As

Publication number Publication date
CN109313719B (zh) 2022-03-22
KR20180099822A (ko) 2018-09-05
US20190073351A1 (en) 2019-03-07
JP6789303B2 (ja) 2020-11-25
US10878188B2 (en) 2020-12-29
EP3394798A1 (en) 2018-10-31
KR102201936B1 (ko) 2021-01-12
CN109313719A (zh) 2019-02-05
WO2017161320A1 (en) 2017-09-21

Similar Documents

Publication Publication Date Title
JP6789303B2 (ja) ニューラルネットワークを用いたテキストセグメントの係り受け解析の生成
US11869530B2 (en) Generating audio using neural networks
CN108351982B (zh) 卷积门控递归神经网络
JP6790286B2 (ja) 強化学習を用いたデバイス配置最適化
EP3312777B1 (en) Recurrent neural network system for data item generation
EP3523759B1 (en) Image processing neural networks with separable convolutional layers
JP7043596B2 (ja) ニューラルアーキテクチャ検索
CN109074517B (zh) 全局归一化神经网络
CN110023963A (zh) 使用神经网络处理文本序列
KR20190117713A (ko) 신경망 아키텍처 최적화
JP2019535091A (ja) 畳み込みニューラルネットワークを使用したシーケンスの処理
CN109791631A (zh) 奖励增强模型训练
JP2019517075A (ja) 比較セットを使用する入力例の分類
JP2018537788A (ja) 外部メモリを用いたニューラルネットワークの拡張
CN110663049A (zh) 神经网络优化器搜索
CN110023928A (zh) 预测搜索引擎排名信号值
CN111133458B (zh) 增强神经网络
US10635972B1 (en) Recurrent neural networks with rectified linear units
US10657435B1 (en) Processing inputs using recurrent neural networks
CN114298004A (zh) 复述文本生成方法、装置、设备、介质和程序产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190805

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20191105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200807

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200807

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200814

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201102

R150 Certificate of patent or registration of utility model

Ref document number: 6789303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250