JP7072585B2 - 文脈固有の単語ベクトルを用いた自然言語処理 - Google Patents

文脈固有の単語ベクトルを用いた自然言語処理 Download PDF

Info

Publication number
JP7072585B2
JP7072585B2 JP2019561306A JP2019561306A JP7072585B2 JP 7072585 B2 JP7072585 B2 JP 7072585B2 JP 2019561306 A JP2019561306 A JP 2019561306A JP 2019561306 A JP2019561306 A JP 2019561306A JP 7072585 B2 JP7072585 B2 JP 7072585B2
Authority
JP
Japan
Prior art keywords
sequence
encoder
natural language
language processing
processing task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019561306A
Other languages
English (en)
Other versions
JP2020520505A (ja
Inventor
マッカン,ブライアン
ション,カイミング
ソーチャー,リチャード
Original Assignee
セールスフォース ドット コム インコーポレイティッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by セールスフォース ドット コム インコーポレイティッド filed Critical セールスフォース ドット コム インコーポレイティッド
Publication of JP2020520505A publication Critical patent/JP2020520505A/ja
Application granted granted Critical
Publication of JP7072585B2 publication Critical patent/JP7072585B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/47Machine-assisted translation, e.g. using translation memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)

Description

関連出願への相互参照
本願は2018年5月17日に出願された米国特許出願第15/982,841号、2017年5月19日に出願された米国仮特許出願第62/508,977号および2017年7月25日に出願された米国仮特許出願第62/536,959号の優先権を主張するものである。これらの出願の内容はここに参照によってその全体においてあらゆる目的のために組み込まれる。
技術分野
本開示は、概括的にはニューラル・ネットワークに、より詳細には文脈固有の単語ベクトルを用いた自然言語処理のためのニューラル・ネットワークに関する。
ニューラル・ネットワークは、人間のような正確さで現実世界の情報を自動的に解析するための技法としてきわめて有望であることを実証してきた。一般に、ニューラル・ネットワークは入力情報を受け取り、該入力情報に基づいて予測をする。たとえば、ニューラル・ネットワーク分類器が、あらかじめ決定されたクラスの集合のうちで、入力情報のクラスを予測してもよい。現実世界の情報を解析することに向けた他の手法がハードコードされたプロセス、統計的解析および/または同様のものに関わりうるのに対し、ニューラル・ネットワークは、機械学習プロセスを使って試行錯誤式に徐々に予測することを学習する。所与のニューラル・ネットワーク・モデルは、多数のトレーニング例を使って、ニューラル・ネットワークがトレーニング例から人間がしうるのと同様の推論を一貫してするようになりはじめるまで逐次反復的に進めることによって、トレーニングされてもよい。ニューラル・ネットワーク・モデルは、多数の応用において他のコンピューティング技法をしのぐ性能を発揮するおよび/または発揮するポテンシャルをもつことが示されている。実際、ニューラル・ネットワーク・モデルが人間レベルの実績を超えるいくつかの応用さえ発見されている。
いくつかの実施形態に基づくコンピューティング装置の簡略化された図である。
いくつかの実施形態に基づく、第一の自然言語処理(NLP)タスクについてエンコーダを事前トレーニングし、それを用いて第二のNLPタスクを実行するための方法の簡略化された図である。
いくつかの実施形態に基づくエンコーダの事前トレーニングを示す簡略化された図である。
単語のシーケンスについて単語ベクトルの例を示す図である。
いくつかの実施形態に基づく、翻訳のNLPタスクについてエンコーダの事前トレーニングを示す簡略化された図である。
いくつかの実施形態に基づく、翻訳のNLPタスクについてエンコーダの事前トレーニングのための方法の簡略化された図である。
いくつかの実施形態に基づく自然言語処理のためのシステムの簡略化された図である。
いくつかの実施形態に基づく、翻訳のNLPタスクについて事前トレーニングされたエンコーダを使う自然言語処理のためのシステムの簡略化された図である。
異なる入力エンコードに基づく自然言語処理のためのシステムの性能を比較する簡略化された図の一つである。 異なる入力エンコードに基づく自然言語処理のためのシステムの性能を比較する簡略化された図の一つである。
異なる入力表現に基づく自然言語処理のためのシステムの性能を示す表である。
図面において、同じ指示をもつ要素は同じまたは同様の機能をもつ。
諸側面、実施形態、実装または応用を示す本稿および付属の図面は、限定するものと解釈すべきではない。請求項が、保護される発明を定義する。本稿および請求項の精神および範囲から外れることなく、さまざまな機械的、組成的、構造的、電気的および動作上の変更がなしうる。いくつかの事例では、よく知られた回路、構造または技法は、当業者には知られているので、詳細には図示または記述されていない。二つ以上の図における同様の符号は同じまたは同様の要素を表わす。
本稿において、本開示と整合するいくつかの実施形態を記述する個別的詳細が記載される。実施形態の十全な理解を提供するために数多くの個別的詳細が記載される。しかしながら、いくつかの実施形態はこれらの個別的詳細の一部または全部なしでも実施されうることは当業者には明白であろう。本稿に開示される個別的実施形態は、限定ではなく、例示することが意図されている。当業者は、具体的に本稿に記載されていないが本開示の範囲および精神の中にある他の要素を認識しうる。さらに、不必要な反復を避けるため、ある実施形態との関連で図示および記述される一つまたは複数の特徴は、そうでないことが明確に記載されるのでない限り、または該一つまたは複数の特徴が実施形態を機能しなくするのでない限り、他の実施形態に組み込まれてもよい。
自然言語処理(natural language processing、NLP)は、ニューラル・ネットワークが適用されうる問題の一つのクラスである。NLPは、新しいニューラル・ネットワークに個々の単語および句の理解を浸透させるために使われる。しかしながら、NLPにおける大半の問題またはタスクのためには、文脈を理解することも重要である。たとえば、翻訳モデルは、ドイツ語の翻訳を生成するために、英語の文における単語がどのように一緒に機能するかを理解する必要がある。同様に、要約モデルは、どの諸単語が最も重要であるかを知るために、文脈を必要とする。感情分析を実行するモデルは、他によって表現される感情を変化させるキーワードをどのように拾い出すかを理解する必要がある。そして、質問回答モデルは、質問中の単語がどのように文書中の単語の重要性をシフトさせるかの理解に頼る。よって、NLPのためのニューラル・ネットワークを、さまざまな単語がどのように他の単語に関係しうるかまたは文脈が単語の意味にどのように影響するかの理解を用いて初期化する方法を開発することが望ましい。
いくつかの実施形態によれば、ニューラル・ネットワークは、第一のNLPタスクでトレーニングすること――たとえばどのように英語からドイツ語に翻訳するかを教えること――によって、文脈中の単語をどのように理解するかを教えられる。トレーニングされたネットワークは次いで、第二のNLPタスク――たとえば分類、質問回答、感情分析、含意分類、言語翻訳など――を実行する新しいまたは他のニューラル・ネットワークにおいて再利用されることができる。事前トレーニングされたネットワークの出力――文脈固有の単語ベクトル(context-specific word vectors、CoVe)――が、他のNLPタスクを学習する新しいネットワークに入力として与えられる。実験によれば、これらの新しいネットワークにCoVeを提供することがそのパフォーマンスを改善できることが示されており、さまざまなNLPモデルまたはタスクが、いかにして単語を文脈に照らして考慮するか(how to contextualize words)をすでに学習したニューラル・ネットワークを使うことから恩恵を得られることが確認されている。
いくつかの実施形態では、さまざまなNLPモデルまたはタスク――たとえば分類、質問回答、感情分析および翻訳――は、実行されるべきNLPタスクとは異なっていてもよいNLPタスクを用いてエンコーダをトレーニングすることによって生成された文脈固有の単語ベクトルを使うことによって、改善されることができる。より一般的な言い方では、相乗的な(synergistic)タスクの間の転移およびマルチタスク学習を通じて、有意な利益が得られる。多くの場合、これらの相乗作用(synergies)は、同様のコンポーネントに頼るアーキテクチャーによって活用される。本稿に開示される実施形態は、すでに単語を文脈に照らして考慮することをどうやるかを学習したまたはそうするようトレーニングされたネットワークを使って、他のニューラル・ネットワークに、自然言語の他の部分を理解することを学習することにおける利点を与える。
図1は、いくつかの実施形態に基づくコンピューティング装置100の簡略化された図である。図1に示されるように、コンピューティング装置100は、メモリ120に結合されたプロセッサ110を含む。コンピューティング装置100の動作はプロセッサ110によって制御される。一つだけのプロセッサ110をもつコンピューティング装置100が示されているが、プロセッサ110がコンピューティング装置100内の一つまたは複数の中央処理ユニット、マルチコアプロセッサ、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、グラフィック処理ユニット(GPU)、テンソル処理ユニット(tensor processing unit、TPU)および/または同様のものを表わしていてもよいことが理解される。コンピューティング装置100は、スタンドアローンのサブシステムとして、コンピューティング装置に追加される基板としておよび/または仮想マシンとして実装されてもよい。
メモリ120は、コンピューティング装置100によって実行されるソフトウェアおよび/またはコンピューティング装置100の動作の間に使用される一つまたは複数のデータ構造を記憶するために使われてもよい。メモリ120は、一つまたは複数の型の機械可読媒体を含んでいてもよい。機械可読媒体のいくつかの一般的な形は、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、他の任意の磁気媒体、CD-ROM、他の任意の光学式媒体、パンチカード、紙テープ、孔のパターンをもつ他の任意の物理的な媒体、RAM、PROM、EPROM、FLASH-EPROM、他の任意のメモリチップまたはカートリッジおよび/またはそこからプロセッサまたはコンピュータが読み出すよう適応される他の任意の媒体を含みうる。
プロセッサ110および/またはメモリ120は、いかなる好適な物理的配置に配置されてもよい。いくつかの実施形態では、プロセッサ110および/またはメモリ120は、同じ基板上に、同じパッケージ内に(たとえばシステム・イン・パッケージ)、同じチップ上に(たとえばシステム・オン・チップ)および/または同様の形で実装されてもよい。いくつかの実施形態では、プロセッサ110および/またはメモリ120は、分散された、仮想化されたおよび/またはコンテナ化されたコンピューティング資源を含んでいてもよい。そのような実施形態と整合して、プロセッサ110および/またはメモリ120は、一つまたは複数のデータ・センターおよび/またはクラウド・コンピューティング施設に位置されていてもよい。いくつかの例では、メモリ120は、一つまたは複数のプロセッサ(たとえばプロセッサ110)によって実行されたときに該一つまたは複数のプロセッサに本稿にさらに記載される方法のいずれかを実行させうる実行可能コードを含む非一時的な、有体な、機械可読な媒体を含んでいてもよい。
図のように、メモリ120は、ニューラル・ネットワーク130を含む。ニューラル・ネットワーク130は、本稿でさらに記載されるニューラル・ネットワークの任意のものを実装および/またはエミュレートするために使用されうる。いくつかの例では、ニューラル・ネットワーク130は、多層または深層ニューラル・ネットワークを含んでいてもよい。いくつかの実施形態によれば、多層ニューラル・ネットワークの例は、ResNet-32、DenseNet、PyramidNet、SENet、AWD-LSTM、AWD-QRNNおよび/または同様のニューラル・ネットワークを含む。ResNet-32ニューラル・ネットワークは非特許文献1においてより詳細に記述されている。DenseNetニューラル・ネットワークは非特許文献2においてより詳細に記述されている。PyramidNetニューラル・ネットワークは非特許文献3においてより詳細に記述されている。SENetニューラル・ネットワークは非特許文献4においてより詳細に記述されている。AWD-LSTMニューラル・ネットワークは非特許文献5においてより詳細に記述されている。これらの各文献はここに参照によって組み込まれる。
He, et al.、"Deep Residual Learning for Image Recognition"、arXiv:1512.03385、提出日December 10, 2015 Iandola, et al.、"Densenet: Implementing Efficient Convnet Descriptor Pyramids"、arXiv:1404.1869、提出日April 7, 2014 Han, et al.、"Deep Pyramidal Residual Networks"、arXiv:1610.02915、提出日October 10, 2016 Hu, et al.、"Squeeze-and-Excitation Networks"、arXiv:1709.01507、September 5, 2017 Bradbury, et al.、"Quasi-Recurrent Neural Networks"、arXiv:1611.01576、提出日November 5, 2016
いくつかの実施形態によれば、ニューラル・ネットワーク130は、たとえば翻訳のような第一の種類のNLPタスクのために事前トレーニングされたエンコーダを使用してもよい。コンピューティング装置100は、第一の言語(たとえば英語)での単語の一つまたは複数のシーケンスと、それぞれの第一の言語の単語シーケンスの期待されるおよび/または所望される翻訳を表わす第二の言語(たとえばドイツ語)での単語の一つまたは複数の対応するシーケンスとを含むトレーニング・データを受領してもよい。例解すると、コンピューティング装置100に与えられる入力単語シーケンスが英語の単語シーケンス"Let's go for a walk."を含むとする。対応するドイツ語の単語シーケンスは"Lass uns spazieren gehen."である。コンピューティング装置100はこのトレーニング・データを使って、第一の言語の単語または単語シーケンスについて、文脈固有の単語ベクトルまたは「文脈ベクトル」(CoVe)を生成して出力する。異なる言い方をすれば、エンコーダは、まずどのようにしてある言語から別の言語に(たとえば英語からドイツ語に)翻訳するかを教えることによって、どのようにして単語を文脈において理解するかを教えられる。ひとたびトレーニングされたら、エンコーダは、第二の種類のNLPタスク――たとえば感情分析(Stanford Sentiment Treebank (SST)、IMDb)、質問分類(TREC)、含意分類(Stanford Natural Language Inference Corpus (SNLI))、質問回答(Stanford Question Answering Dataset (SQuAD))など――を実行するためにニューラル・ネットワーク130によって使用されてもよい。この目的に向け、コンピューティング装置100は、第二の種類のNLPタスクのための入力150を受け取り、そのタスクについての結果160を生成する。
図2は、いくつかの実施形態に基づく、第一のNLPタスクでエンコーダを事前トレーニングし、それを使って第二のNLPタスクを実行するための方法200の簡略化された図である。方法200のプロセス210~220の一つまたは複数は、少なくとも部分的には、一つまたは複数のプロセッサによって実行されたときに該一つまたは複数のプロセッサにプロセス210~230の一つまたは複数を実行させうる、非一時的な、有体な、機械可読な媒体に記憶された実行可能コードの形で実装されてもよい。いくつかの実施形態では、方法200は、図1のコンピューティング装置100によって実行されることができる。
いくつかの実施形態によれば、方法200は、転移学習またはドメイン適応を利用する。転移学習は、独立して収集されたデータセットどうしの間に研究者が相乗的な関係を識別した多様な領域において応用される。いくつかの実施形態では、転移学習の源ドメインは機械翻訳である。
プロセス210では、ニューラル・ネットワークのエンコーダは、第一のNLPタスクを実行するためのトレーニング・データを使って事前トレーニングされる。いくつかの実施形態では、第一のNLPタスクは翻訳であることができる。翻訳タスクの性質は、一般的なコンテキストのエンコーダをトレーニングするための魅力的な特性をもつ。たとえば、翻訳は、テキスト分類のような他のNLPタスクよりも、より一般的な意味での言語理解を要求するように思われる。トレーニングの間、エンコーダはトレーニングおよび/または試験データ150を提供される。データ150はいくつかの実施形態では、第一の言語(たとえば英語)での単語の一つまたは複数のシーケンスと、第二の言語(たとえばドイツ語)での単語の一つまたは複数の対応するシーケンスとを含みうる。トレーニング・データ150は、一つまたは複数の機械翻訳(MT)データセットであることができる。機械翻訳は、転移学習のための好適な源ドメインである。そのタスクは性質上、モデルが、起点言語の文における情報を失うことなく忠実に目標言語における文を再生することを要求するからである。さらに、転移学習のために使用できる豊富な機械翻訳データがある;実際、機械翻訳トレーニング・セットは、たいていの他のNLPタスクのトレーニング・セットよりもずっと大きい。可能なトレーニング・セットは、さまざまな英語‐ドイツ語機械翻訳(MT)データセットを含む。たとえば、WMT 2016複数モード翻訳共有タスク(the WMT 2016 multi-modal translation shared task)――しばしば「Multi30k」と称され、ここに参照により組み込まれる非特許文献6においてさらに記述されている――は、手短かにFlickrキャプションを記述する30,000文のペアからなるデータセットである。画像キャプションという性質上、このデータセットは、平均して、より大きな対応物からのものよりも短く、単純な文を含む。話し言葉翻訳についての国際ワークショップ(the International Workshop on Spoken Language Translation)のために用意された機械翻訳タスクの2016年バージョン――ここに参照によって組み込まれる非特許文献7においてより詳細に記述されている――は、会話言語での幅広い多様なトピックをカバーする文字起こしされたTEDプレゼンテーションからの209,772文のペアからなる、他の機械翻訳データセットよりも大きなデータセットである。WMT2017からのニュース翻訳共有タスクは、ウェブ・クロール・データ、ニュースおよび論評コーパス、欧州議会プロシーディングズおよび欧州連合報道発表に由来する約700万文のペアからなる大きなMTデータセットである。これら三つのMTデータセットは、それぞれ小MT、中MT、大MTと称されてもよい。これらのMTデータセットのそれぞれは、参照によってここに組み込まれる非特許文献8においてより詳細に記述されているMoses Toolkitを使ってトークン化される。
Specia, et al.、"A shared task on multimodal machine translation and crosslingual image description"、Proceedings of the 1st Conference on Machine Translation, WMT, 2016, pp.543-553 Cettolo, et al.、"The IWSLT 2015 evaluation campaign"、International Workshop on Spoken Language Translation, 2015 Koehn, et al.、"Moses: Open source toolkit for statistical machine translation"、Proceedings of the 45th Annual Meeting of the Association of the Computational Linguistics, 2007, pp.177-180
エンコーダは、第一の言語での単語またはシーケンスについて文脈ベクトル(またはCoVe)160を生成または出力する。小MT、中MTおよび大MTでトレーニングされたエンコーダからの文脈ベクトルは、CoVe-S、CoVe-MおよびCoVe-Lと称されてもよい。次いで、ニューラル・ネットワークの事前トレーニングされたエンコーダは、一つまたは複数の他のNLPタスクに再利用または適用されることができる。
プロセス220では、新しいまたは別のニューラル・ネットワーク130が、事前トレーニングされた文脈エンコーダを使って、第二のNLPタスクのためにトレーニングされる。事前トレーニングされたエンコーダの出力――第一の言語での単語または文についての文脈ベクトル(またはCoVe)――は、分類、質問回答、感情分析、他の機械翻訳タスクなどといった、同じ言語で実行される他のNLPタスクを学習または実行する新しいまたは他のニューラル・ネットワーク130への入力として提供される。いくつかの実施形態では、ニューラル機械翻訳(neural machine translation、NMT)エンコーダから得られた固定長の表現が該トレーニングのために移入される。いくつかの実施形態では、入力シーケンスにおける各トークンについての表現がトレーニングのために移入される。後者の手法は、事前トレーニングされた文脈エンコーダの、他のNLPタスクのための転移を、その後の長期短期メモリ(long-term short-term memories、LSTMs)、注目機構(attention mechanisms)および一般に入力シーケンスを予期する層と、より直接的に互換(compatible)にする。これは、エンコーダ状態の間の逐次的な依存性の転移を容易にする。いくつかの実施形態では、事前トレーニングされたエンコーダは、プロセス220の間、さらにトレーニングされない。
プロセス230では、ニューラル・ネットワーク130は、第二のNLPタスクを実行するために使用される。コンピューティング装置100は第二のNLPタスクのための入力150を受領し、そのタスクのための結果160を生成する。実験によれば、ニューラル・ネットワーク130に、第一のNLPタスク(たとえば機械翻訳)で事前トレーニングされたエンコーダからの文脈ベクトルを提供することが、第二のNLPタスク(たとえば分類、質問回答、感情分析)のためのそのパフォーマンスを改善することが示される。
方法200のこれらのプロセス210~230のそれぞれについての諸側面または諸実施形態が本稿でより詳細に記述される。
図3は、いくつかの実施形態によるエンコーダ310の事前トレーニングを示す簡略化された図である。いくつかの実施形態では、エンコーダ310は、一つまたは複数の長期短期メモリ(LSTM)エンコーダを含むまたはそれを用いて実装されるのでもよい。
エンコーダ310は、第一の言語(たとえば英語)の単語の一つまたは複数のシーケンスについての単語ベクトル320の形であってもよいトレーニング・データを受領する。単語のシーケンスをテキストとして読む代わりに、深層学習モデルは単語ベクトルのシーケンスを読む。単語ベクトルは言語における各単語を、数字のリストと関連付ける。NLPのための多くの深層学習モデルは、個々の単語の意味を表わすために単語ベクトルに頼る。
図4は、単語のシーケンス"Let's go for a walk."についての単語ベクトルの例を示している。いくつかの実施形態では、モデルの単語ベクトル320は、該モデルが特定のタスクのためにトレーニングされる前に、ランダムな数のリストに初期化される。いくつかの実施形態では、モデルの単語ベクトル320は、word2vec、GloVeまたはFastTextのような方法を実行することによって得られるもので初期化されることができる。それらのモデルのそれぞれは、有用な特性をもつ単語ベクトルを学習する仕方を定義する。最初の二つの方法は、単語の意味の少なくとも一部は、その単語がどのように使われるかに結びつけられるという仮説に基づいて機能する。word2vecは単語を取り込んでローカルな文脈ウィンドーを予測するモデルをトレーニングする;このモデルは単語を見て、そのまわりの単語を予測しようとする。GloVeは同様のアプローチを取るが、それぞれの単語が他のそれぞれの単語と一緒に生起する頻度についての統計をも明示的に加える。いずれの場合にも、それぞれの単語は対応する単語ベクトルによって表現され、トレーニングは、自然言語におけるその単語の使用に結びつけられた仕方で互いに相関付けるよう単語ベクトルを強制する。図4に示される"Let's go for a walk"という具体例を参照するに、word2vecおよびGloVeのようなアルゴリズムは、自然言語においてそのまわりによく生起する単語ベクトルと相関付けられた単語ベクトルを生成する。こうして、"go"について単語ベクトルは単語"go"が"Let's"、"for"、"a"、"walk"のような単語のまわりに現われることを意味するようになる。
図3の参照に戻ると、エンコーダ310は、該エンコーダに第一のNLPタスクを実行させることによってトレーニングされる。第一のNLPタスクは、いくつかの実施形態では、第一の言語における単語シーケンス(たとえば"Let's go for a walk")の第二の言語における対応する単語シーケンス(たとえば"Lass uns spazieren gehen")への機械翻訳(MT)であることができる。このトレーニングを達成するために、エンコーダ310は翻訳340を生成するデコーダ330と対話する。いくつかの実施形態では、LSTMエンコーダはいくつかの機械翻訳データセットに基づいてトレーニングされる。実験によれば、MT-LSTMをトレーニングするために使われるトレーニング・データの量が、該エンコーダが第二のNLPタスクのために使われるまたは用いられるときなどの下流のタスクでのパフォーマンスと正の相関をもつことが示される。これは、MTをトレーニング・タスクとして使うことのもう一つの利点である。MTについてのデータはたいていの他の教師付きNLPタスクについてのデータよりも豊富であり、そのことは、より高品質のMT-LSTMがより有用な情報につながることを示唆するからである。機械翻訳はテキスト分類および質問回答のような他のNLPタスクとは無関係と思われるかもしれないが、これは、機械翻訳が、より強い意味での自然言語理解をもつモデルのための良好な候補NLPタスクであるという発想を補強する。
図3は高レベルの図であるが、図5は、いくつかの実施形態に基づく機械翻訳のNLPタスクでのエンコーダ310の事前トレーニングについてのさらなる詳細を示している。そして図6は、図5に示されるエンコーダを事前トレーニングする対応する方法600を示している。
図5および図6を参照するに、方法600はプロセス602で始まる。プロセス602では、第一の言語または起点言語での単語のシーケンスwx=[wx 1,…,wx n](たとえば英語"Let's go for a walk")についての単語ベクトル320a~eがエンコーダ310に入力または提供される。そして第二のまたは目標言語での単語のシーケンスwz=[wz 1,…,wz n](たとえばドイツ語"Lass uns spazieren gehen")についての単語ベクトル540がデコーダ330に入力または提供される。GloVe(wx)がwxにおける諸単語に対応する諸GloVeベクトルのシーケンスであるとし、zがwzにおける諸単語に対応するランダムに初期化された単語ベクトルのシーケンスであるとする。
いくつかの実施形態では、エンコーダ310は、リカレント・ニューラル・ネットワーク(recurrent neural network、RNN)を含むまたはRNNを用いて実装される。RNNは、可変長のベクトル・シーケンスを処理する深層学習モデルである。このため、RNNは単語ベクトル320a~eのシーケンスを処理するのに好適になる。いくつかの実施形態では、エンコーダ310は一つまたは複数の長期短期メモリ(LSTM)エンコーダ510a~eを用いて実装されることができる。これらは、長い単語シーケンスを扱うことのできる特定の種類のRNNである。
プロセス604では、エンコーダは単語ベクトル320a~eのシーケンスを処理して、それぞれ隠れベクトルと呼ばれる一つまたは複数の新たなベクトル520a~eを生成する。いくつかの実施形態では、エンコーダ310は入力シーケンスをエンコードする。たとえば、各LSTM 510a~eがそれぞれの単語ベクトル320a~eを受け取って、それぞれの隠れベクトル520a~eを出力する。エンコーダ310は前向きに実行され、よって、入力シーケンスにおいて先に現われる単語ベクトル320に作用するLSTMエンコーダ510によって生成される情報は、シーケンスにおいて後に現われる単語ベクトル320に作用するLSTMエンコーダ510に渡される。これは、後のLSTMエンコーダ510の隠れベクトルが先の単語ベクトル320についての情報を組み込むことを許容する。いくつかの実施形態では、エンコーダ310は後ろ向きにも実行され、LSTMエンコーダ510a~eは、シーケンスにおいてより後に現われる単語からの情報を組み込む隠れベクトルを生成または出力することができる。これら後ろ向きの出力ベクトルは、前向きの出力ベクトルと連結されて、より有用な隠れベクトルを与えることができる。前向きおよび後ろ向きLSTMの各対が単位として扱われることができ、典型的には双方向LSTMと称される。双方向LSTMエンコーダは、それぞれの単語に先行する情報および後続する情報を組み込む。機械翻訳に基づいてトレーニングされたLSTMは、MT-LSTMと称されてもよい。第一の双方向LSTM 510aは、出力を第二のLSTM 510bに渡す前にそのシーケンス全体を処理する;第二の双方向LSTM 510bも同じことをする、などとなる。双方向LSTM(またはbiLSTM)のそれぞれは、各時間ステップiにおける出力を、hiとして、
Figure 0007072585000001
に基づくhi およびhi の連結として生成する。ここで、xはそれぞれのbiLSTMへの入力であり、LSTMは長期短期メモリネットワークに対応する。双方向LSTM 510a~eをもつエンコーダ310は、単語ベクトル320a~eのシーケンスを受け入れ、前向きおよび後ろ向きLSTM動作を実行し、同じ入力に対応する出力を連結し、第一の言語(たとえば英語)についての隠れベクトルh 520a~e
h=MT-LSTM(GloVe(wx)) (1)
の、結果として得られるシーケンスを返す。機械翻訳のために、MT-LSTMは、各時間ステップtにおける出力単語にわたる分布
Figure 0007072585000002
を生成する注目デコーダのために前記文脈を供給する。ここで、Hは、時間次元に沿って積層されたhの要素をいう。
プロセス606では、デコーダ330は、エンコーダ310からの最終状態/隠れベクトルh 520a~eを用いて初期化される。デコーダ330は第二の言語または目標言語(たとえばドイツ語)の文を生成するまたはかかる文に翻訳する際にそれらの隠れベクトルh 520a~eを参照する別のニューラル・ネットワークを含むまたはそれを用いて実装される。エンコーダ310と同様に、いくつかの実施形態では、デコーダ330は、双方向であってもよい一つまたは複数のLSTM 530a~bを含む、またはそれを用いて実装されることができる。時間ステップtにおいて、デコーダ330はまず二層の単方向LSTMを使って、直前の目標埋め込み(zt-1)および文脈調整された隠れ状態(チルダ付きのht-1)に基づいて隠れ状態ベクトル550(ht dec)を生成する。
Figure 0007072585000003
デコーダLSTMの第一のもの530aは、エンコーダ310の最終状態hから初期化され、開始するために特別なドイツ語の単語ベクトル540aを読み込む。
プロセス610では、第一の言語のシーケンスから単語が選択される。いくつかの実施形態では、第一の言語(たとえば英語)の文のどの単語を次に翻訳するかを決定するために、注目機構560が、隠れベクトル520a~eを見返す。注目機構560は、現在のデコーダ状態にとっての各エンコード時間ステップの重要性を表わす注目重みαのベクトルを計算する。
αt=softmax(H(W1ht dec+b1)) (3)
プロセス612では、注目機構560は、文脈調整された状態(context-adjusted state)と称することのできる、新たなベクトル570を生成する。注目機構560は、重みαを注目和(attentional sum)における係数として使う。注目和はデコーダ状態と連結されて、tanh層を通されて、文脈調整された隠れ状態(context-adjusted hidden state)(チルダ付きのh)を形成する:
Figure 0007072585000004
換言すれば、注目機構560は、デコーダ状態ベクトル550aを使って、それぞれの隠れベクトル520a~eがどのくらい重要かを決定し、次いで、その観察を記録するために文脈調整された状態570を生成する。
プロセス614では、生成器580は文脈調整された状態570を見て、出力すべき第二の言語(たとえばドイツ語)の単語を決定する。文脈調整された状態570は次のLSTM 540に渡され、それにより次のLSTMはすでに翻訳したものを正確に知る。出力単語にわたる分布は、文脈調整された隠れ状態の最終的な変換によって生成される。
Figure 0007072585000005
プロセス616では、第一の言語における現在の単語が文の最後の単語かどうかについて判定がなされる。そうでなければ、デコーダ330は、第二の言語における翻訳された単語シーケンスの生成を完了するまで、プロセス610~616を繰り返す。
いくつかの例では、エンコーダ310のMT-LSTMのトレーニングは、英語の単語ベクトルについての、CommonCrawl-840B GloVeモデルのような、固定された300次元の単語ベクトルを使う。これらの単語ベクトルは、トレーニングの間、完全に固定されており、よって、MT-LSTMは、どのようにして事前トレーニングされたベクトルを翻訳のために使うかを学習する。すべてのMT-LSTMにおけるLSTMの隠れたサイズは300である。すべてのMT-LSTMは双方向なので、それらは600次元のベクトルを出力する。エンコーダ310は、統計的勾配降下法(stochastic gradient descent)を用いてトレーニングされることができる。学習率は1で始まり、有効確認パープレキシティが初めて上昇した後はエポック毎に半分に減衰する。エンコーダ310およびデコーダ330のすべての層の入力および出力に、比0:2でのドロップアウトが適用されてもよい。
トレーニングが終了したら、事前トレーニングされたエンコーダは、自然言語処理(NLP)における他のタスクのためにトレーニングされたニューラル・モデルのパフォーマンスを改善するために使用されることができる。機械翻訳のためのエンコーダとしてトレーニングされたLSTM 510が抽出されることができ、その学習が下流のNLPタスク(分類または質問回答)に転移させられることができる。MT-LSTMと称されてもよい事前トレーニングされたLSTMは、第一の言語における他の文または単語シーケンスについての隠れベクトルを出力するために使用されることができる。これらの機械翻訳隠れベクトルは、別のNLPモデルへの入力として使われるとき、文脈固有の単語ベクトルまたは「文脈ベクトル」〔コンテキスト・ベクトル〕(context vector、CoVe)を提供するまたはそのはたらきをする。wが単語のシーケンスであり、GloVe(w)がGloVeモデルによって生成された単語ベクトルの対応するシーケンスであるとすると、
CoVe(w)=MT-LSTM(GloVe(w)) (5)
は、MT-LSTMによって生成されたコンテキスト・ベクトルのシーケンスである。図5の参照に戻ると、たとえばGloVe(w)は320a~eに対応し、CoVe(w)は520a~eに対応する。いくつかの実施形態では、下流のNLPタスクのために、入力シーケンスwについて、GloVe(w)における各ベクトルはCoVe(w)におけるその対応するベクトルと連結されて、ベクトル・シーケンス(w)を生じることができる。
Figure 0007072585000006
コンピューティング装置、たとえばコンピューティング装置100のいくつかの例は、一つまたは複数のプロセッサ(たとえばプロセッサ110)によって実行されるときに該一つまたは複数のプロセッサに方法600のプロセスを実行させうる実行可能コードを含む非一時的な、有体な、機械可読な媒体を含んでいてもよい。方法600のプロセスを含みうる機械可読媒体のいくつかの一般的な形は、たとえば、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、他の任意の磁気媒体、CD-ROM、他の任意の光学式媒体、パンチカード、紙テープ、孔のパターンをもつ他の任意の物理的な媒体、RAM、PROM、EPROM、FLASH-EPROM、他の任意のメモリチップまたはカートリッジおよび/またはそこからプロセッサまたはコンピュータが読み出すよう適応される他の任意の媒体を含みうる。
図7は、いくつかの実施形態に基づく自然言語処理のためのシステム700を示す簡略化された図である。システム700は、一つまたは複数のエンコーダ710を含み、これが本稿に記載されるようなたとえば機械学習のような第一のNLPタスクで事前トレーニングされ、新しいモデルの一部として今、再利用される。いくつかの実施形態では、各エンコーダ710は、エンコーダ310と整合する。いくつかの実施形態では、各エンコーダ710は、一つまたは複数の事前トレーニングされたMT-LSTMを含むまたはそれを用いて実装される。事前トレーニングされたエンコーダ710は、入力単語ベクトル720から文脈ベクトル(CoVe)を提供するまたは生成することができる。
モデルの単語ベクトル720は、word2vec、FastTextまたはGloVeのような方法を実行することによって得られたもので初期化されることができる。これらの方法のそれぞれは、有用な特性をもつ単語ベクトルを学習する仕方を定義する。いくつかの実施形態では、モデルの単語ベクトル720は、モデルが特定のタスクのためにトレーニングされる前に、ランダムな数のリストに初期化される。
システム700は、第二の特定のNLPタスク、たとえば感情分析(Stanford Sentiment Treebank (SST)、IMDb)、質問分類(TREC)、含意分類(Stanford Natural Language Inference Corpus (SNLI))、質問回答(Stanford Question Answering Dataset (SQuAD))などを実行するためのニューラル・モデル730をも含む。いくつかの実施形態では、ニューラル・モデル730はモデル130のニューラル・ネットワークと整合する。ニューラル・モデル730は、事前トレーニングされたエンコーダ710から文脈ベクトル(CoVe)を提供される。いくつかの実施形態では、エンコーダ710からの文脈ベクトル(CoVe)は、これらの種類のニューラル・モデルへの入力として典型的に使われる単語ベクトル720(たとえばGloVe)とアペンドまたは連結されてもよく(式(6)参照)、結果がニューラル・モデル730に提供されてもよい。この手法は、下流のタスクについてのニューラル・モデル730のパフォーマンスを、事前トレーニングされた単語ベクトルだけを使うベースライン・モデルに対して改善する。一般に、文脈ベクトル(CoVe)は、その入力をベクトルのシーケンスとして表現する任意のニューラル・モデル730と一緒に使用されることができる。実験によれば、テキスト分類および質問回答モデルといったNLPタスクを実行するニューラル・モデルのための文脈ベクトル(CoVe)を生成するために事前トレーニングされたMT-LSTMを使うことの利点が示されている。スタンフォード感情ツリーバンク(SST)およびスタンフォード自然言語推論コーパス(SNLI)については、文脈ベクトル(CoVe)の使用はベースライン・モデルのパフォーマンスを先端技術まで押し上げる。
図8は、いくつかの実施形態に基づく、翻訳のNLPタスクで事前トレーニングされた一つまたは複数のエンコーダ810を使った自然言語処理のためのシステム800を示す図である。いくつかの実施形態では、各エンコーダ810はエンコーダ310、710と整合する。システム800は、翻訳の前記NLPタスクとは異なる特定のNLPタスク――たとえば質問分類(TREC)、質問回答(SQuAD)、感情分析(SST、IMDb)、含意分類(SNLI)など――を実行するために複数層ニューラル・ネットワークまたはニューラル・モデル830を含むまたはそれを用いて実装されるのでもよい。いくつかの実施形態では、ニューラル・モデル830はニューラル・モデル130、730と整合する。
システム800のニューラル・モデル830は、好適なデータセットを用いて前記特定のNLPタスクのためにトレーニングされてもよい。たとえば、質問分類のためのニューラル・モデル830のトレーニングは、ここに参照によって組み込まれる非特許文献9により詳細に記載されるように、大まかな意味カテゴリーに分割されたオープン・ドメインの、事実ベースの質問の小さなTRECデータセットを使ってもよい。このデータセットは、それぞれTREC-50およびTREC-6と称される、TRECの50クラスのまたは6クラスのバージョンであることができる。いずれも4300個のトレーニング例をもつが、TREC-50のほうが細かい粒度のラベルをもつ。質問回答については、ニューラル・モデル830は、ここに参照によって組み込まれる非特許文献10においてより詳細に記載されるように、スタンフォード質問回答データセット(SQuAD)を用いてトレーニングされることができる。SQuADは大規模な質問回答データセットであり、87,599のトレーニング例および10,570の発展例をもつ。例は、英語のウィキペディアからの段落と、該段落についての関連する質問‐回答ペアからなる。SQuADの例は、質問が回答可能であり、回答が段落中のどこかにそのまま含まれていることを想定する。感情分析については、ニューラル・モデル830は、スタンフォード感情ツリーバンク(SST)(ここに参照によって組み込まれる非特許文献11においてより詳細に記載されている)およびIMDbデータセット(ここに参照によって組み込まれる非特許文献12においてより詳細に記載されている)という二つの感情分析データセットで別個にトレーニングされることができる。これらのデータセットはいずれも、映画のレビューとその感情を含む。各データセットの二値バージョンおよびSSTの5クラス・バージョンが使われる。IMDbは22,500の複数文のレビューを含み、各レビューは最初の200語に打ち切られることがある。SST-2は56,400の例を含み、「中立」クラスは除去され、すべてのサブツリーが含められており、SST-5は94,200のレビューをすべてのクラスおよびサブツリーとともに含む。含意(entailment)については、ニューラル・モデル830は、ここに参照によって組み込まれる非特許文献13により詳細に記載されるように、スタンフォード自然言語推論コーパス(SNLI)を用いてトレーニングされることができる。SNLIは550,152のトレーニング例、10,000の有効確認例および10,000の試験例をもつ。各例は、前提と、仮説と、前提が仮説を含意するか、仮説に矛盾するか、あるいは中立的であるかを指定するラベルとからなる。
Voorhees, et al.、"The TREC-8 question answering track evaluation"、The Eighth Text Retrieval Conference, volume 1999, p.83 Rajpurkar, et al.、"SQuAD: 100,000+ questions for machine comprehension of text"、arXiv preprint arXiv:1606.05250、提出日June 16, 2016 Socher, et al.、"Recursive deep models for semantic compositionality over a sentiment Treebank"、Empirical Methods in Natural Language Processing, 2013 Maas, et al.、"Learning word vectors for sentiment analysis"、Proceedings of the 49th Annual Meetings of the Association for Computational Linguistics: Human Language Technologies, pp.142-150, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. URL http://www.aclweb.org/anthology.P11-1015 Bowman, et al.、"Recursive neural networks for learning logical semantics"、arXiv preprint arXiv:1406.1827、提出日June 6, 2014
図8に示されるように、システム800は、一般的な双注目分類ネットワーク(biattentive classification network、BCN)のためのニューラル・モデル830を含む。このモデル830は、単一シーケンスおよび二シーケンスの分類タスク両方を扱うよう設計されている。単一シーケンス・タスクの場合、入力単語シーケンスが複製されて二つのシーケンスをなす。
二つの入力シーケンスwxおよびwyは、事前トレーニングされたエンコーダ810において、単語ベクトル820(たとえばGlove(w))としてシステム800に提供される。いくつかの実施形態では、各エンコーダ810はエンコーダ310、710と整合する。エンコーダ810は機械翻訳のNLPタスクで事前トレーニングされており、よって、入力単語ベクトル820からそれぞれの文脈ベクトル(CoVe(w))を提供または生成する。いくつかの実施形態では、各単語ベクトル820(たとえばGlove(w))はその対応する文脈ベクトル(CoVe(w))と連結またはアペンドされて、本稿(たとえば式(6))に記載されるように、ベクトルのシーケンス(チルダ付きのwxおよびwy)を生成する。ベクトル・シーケンス(チルダ付きのwxおよびwy)は、モデル830のタスク固有の部分に入力として提供される。
ニューラル・ネットワークまたはモデル830は、事前トレーニングされたエンコーダ810を使ってトレーニングされる。いくつかの実施形態では、エンコーダ810はニューラル・ネットワークまたはモデル830がトレーニングされるときにさらにトレーニングされない。
モデル830は、入力ベクトル・シーケンス(チルダ付きのwxおよびwy)を受け取る一つまたは複数の整流線形ユニット(ReLU)832を含む。ReLU 832は、チルダ付きのwxおよびwyの各要素に(ここに参照によって組み込まれる非特許文献14においてより詳細に記載されるように)ReLU型の活性化をもつフィードフォワード・ネットワークを適用する関数fを実装または実行する。結果として得られるシーケンスを、それぞれ双方向LSTM(biLSTM)を含むまたはbiLSTMとして実装されることのできるエンコーダ834が処理して、タスク固有の表現(xおよびy)を得る。
Figure 0007072585000007
これらのシーケンスはそれぞれ時間軸に沿って積層されて、行列XおよびYを生成する。
Nair et al.、"Rectified linear units improve restricted Boltzmann machines"、Proceedings of the 27th International Conference on Machine Learning, 2010
独立な諸表現を計算するために、モデル830は、いずれもここに参照によって組み込まれる非特許文献15および非特許文献16においてより詳細に記載されている双注目機構836を使う。双注目は、それぞれの表現を他方で条件付けする。
Seo, et al.、"Bidirectional attention flow for machine comprehension"、International Conference on Learning Representations, 2017 Xiong, et al.、"Dynamic coattention networks for question answering"、International Conference on Learning Representations, 2017
ニューラル・モデル830において双注目機構836を使うことは、たとえば、含意分類および感情分析もしくは分類といったいくつかのNLP分類タスクにおいて利点を提供する。含意分類(entailment classification)は、何らかの形の関係がある可能性のある二つの単語シーケンスの処理――たとえば一方のシーケンスが真であることが他方のシーケンスを含意するかどうかを判定すること、一方のシーケンスが真であることが他方のシーケンスの否定を含意するかどうかを判定すること、または一方のシーケンスが真であることが、他方のシーケンスが真であることも偽であることも許容するかどうかを判定すること――に関わる。含意分類のシーケンスの例は:(wx)「二人の女性が回路を論じている」および(wy)「二人の人が技術を論じている」でありうる。この例では、シーケンスwxはシーケンスwyを含意する。感情分類は、単語シーケンスの話者または著者の、何らかのトピックに関する態度または感情を判別することをねらいとする。これらのシーケンスのそれぞれが、ニューラル・モデル830において、それぞれのチャネルに(たとえばReLU 832のための入力として)与えられることができる。含意分類のためのシーケンスの例は:(wx)「この映画は時間の無駄だ」であることができる。このシーケンスは繰り返されて、ニューラル・モデル830における各チャネルに与えられることができる。いくつかの実施形態では、双注目機構836が、注目を分類の要素ごとの特徴とを組み合わせることによって、NLP分類タスクのためのよりよい結果を生じるまたは与える。
双注目機構836はまず、親和性行列A=XYTを計算する。双注目機構836は次いで、列ごとの正規化を用いて注目重み(AxおよびAy)を抽出する:
Ax=softmax(A) Ay=softmax(AT) (9)
これは、タスク固有の表現が同じである(x=y)ときの自己注目の形であることができる。次に、双注目機構836は、各シーケンスを他方のシーケンスで条件付けるよう、文脈要約(context summary)(CxおよびCy
Cx=Ax TX Cy=Ay TY (10)
を使う。
二つの別個の統合器838が、条件付け情報(双注目機構836から生成される)を各入力シーケンスについてのタスク固有の表現(xおよびy)に統合する。いくつかの実施形態では、各統合器838は一層biLSTMを含むまたは一層biLSTMを用いて実装されることができる。biLSTMは、もとの表現(条件付けにおいて情報が失われないことを保証するため)、その文脈要約(CxおよびCy)からの差(もとの信号からの差を明示的に捕捉するため)およびもとと文脈要約との間の要素ごとの積(もとの信号を増幅または減衰させるため)の連結に対して作用する。
Figure 0007072585000008
プール機構840は、時間次元に沿ってプールすることによって、統合器838の双方向LSTMの出力を総合する。いくつかの実施形態では、最大(max)および平均(mean)プーリングが特徴を抽出するために使用されることができる。いくつかの実施形態では、最小(min)プーリングおよびパラメータなし形の自己注目プーリングの両方を加えることが、いくつかのタスクを助けることが見出された。それぞれの型のプーリングは、条件付けされたシーケンスについての異なるパースペクティブを捕捉する。自己注目プーリングは、シーケンスの各時間ステップについて重み(βxおよびβy)を計算する:
βx=softmax(X|yv1+d1) βy=softmax(X|xv2+d2) (13)
重み(βxおよびβy)は、各シーケンスの重み付けされた和(xselfおよびyself)を得るために使われる:
xself=X|y Tβx xself=X|y Tβx (14)
プールされた表現は、すべての入力についての一つの結合された表現(xpoolおよびypool)を得るために組み合わされる:
xpool=[max(X|y);mean(X|y);min(X|y);xself] (15)
ypool=[max(Y|x);mean(Y|x);min(Y|x);yself] (16)
分類のNLPタスクのためには、結合された表現はmaxout層842に提供または入力される。maxout層842は三層のバッチ正規化された(ここに参照により組み込まれる非特許文献17に、より詳細に記載されるように)maxoutネットワーク(ここに参照により組み込まれる非特許文献18に、より詳細に記載される)として実装されて、可能な諸クラスにわたる確率分布を生成する。
Ioffee, et al.、"Batch normalization: Accelerating deep network training by reducing internal covariate shift"、Proceedings of the 32nd International Conference on Machine Learning, 2015 Goodfellow, et al.、"Maxout networks"、Proceedings of the 30th Annual Conference on Machine Learning, 2013
上記で論じられ、ここでさらに強調されるように、図8は単に自然言語処理のためのシステムの例であり、これは請求項の範囲を不相応に限定するべきではない。当業者は多くの変形、代替および修正を認識するであろう。いくつかの実施形態では、システム800は、異なるNLPタスク、たとえば質問回答を実行するよう修正されてもよい。質問回答のNLPタスクについては、タスク固有シーケンスxおよびyは、ReLU活性化の代わりにtanh活性化を使う関数gで関数fが置き換えられることのほかは、分類について(式(7)および式(8))と同じように得られる。この場合、シーケンスの一方は文書であり、他方は質問‐文書ペアにおける質問である。これらのシーケンスxおよびyは次いで、共注目かつ動的デコーダ(coattention and dynamic decoder)、たとえばここに参照により組み込まれる非特許文献19に、より詳細に記載されるような動的共注目ネットワーク(Dynamic Coattention Network)を通じてフィードされる。
Xiong, et al.、"Dynamic memory networks for visual and textual question answering"、Proceedings of the 33rd International Conference on Machine Learning, pp.2397-2406, 2016
図9および図10は、異なる入力エンコードに基づく自然言語処理のためのシステムのパフォーマンスを比較する簡略化された図である。図9および図10は、入力表現――たとえばGloVeのみ、GloVeとCoVe、GloVeとCharならびにGloVeとCoVeとChar――を変えることがどのように感情分析、質問分類、含意分類および質問回答のようなNLPタスクの最終的なパフォーマンスに影響するかを示す。
同様に、図11は、異なる入力表現(SST-2、SST-5、IMDb、TREC-6、TREC-50、SNLI、SQuaAD)に基づき、エンコーダ(それぞれCoVe-S, CoVe-M, CoVe-L)のための異なるトレーニング・セット(それぞれ小MT、中MTおよび大MT)を用いる自然言語処理のためのシステムのパフォーマンス結果を示す表である。
図9および図10は、CoVeをGloVeと併用したモデルのほうがGloVeのみを使ったモデルよりも高いパフォーマンスを達成したことを示している。図11は、式(6)におけるCoVeを使うことが、ここに参照により組み込まれる非特許文献20により詳細に記載されるようなキャラクタnグラム埋め込みを使うことよりも高い改善をもたらすことを示している。図11はまた、キャラクタnグラム埋め込みを追加的にアペンドすることによって式(6)を変更すると、いくつかのNLPタスクについてはパフォーマンスをさらにブーストできることをも示している。このことは、CoVeによって提供される情報がGloVeによって提供される単語レベルの情報およびキャラクタnグラム埋め込みによって提供されるキャラクタ・レベルの情報と相補的であることを示している。
Hashimoto, et al.、"A joint many-task model: Growing a neural network for multiple NLP tasks"、arXiv preprint arXiv 1611.01587、提出日November 5, 2016
図9~図11は、機械翻訳で事前トレーニングされたエンコーダからの知識を多様な他の下流のNLPタスクに転移させることの利点または恩恵を確認している。すべての場合において、文脈ベクトル(CoVe)を使うモデルは、ランダム単語ベクトル初期化を使ったベースライン、GloVeモデルからの事前トレーニングされた単語ベクトルを使ったベースラインおよびGloVeモデルからの単語ベクトルをキャラクタnグラムと一緒に使ったベースラインよりもよい性能を発揮した。
例示的な実施形態が示され、記述されてきたが、幅広い範囲の修正、変更および代替が上記の開示において考えられており、場合によっては、前記実施形態のいくつかの事項が、他の事項の対応する使用なしに用いられてもよい。当業者は、多くの変形、代替および修正を認識するであろう。このように、本願の範囲は、付属の請求項によってのみ限定されるべきであり、請求項が広義に、本稿に開示される実施形態の範囲と整合する仕方で解釈されることが適切である。
いくつかの態様を記載しておく。
〔態様1〕
自然言語処理のためのシステムであって:
当該システムは多層ニューラル・ネットワークを有し;
当該システムは:
第一の言語の単語の少なくとも一つの入力シーケンスを単語ベクトルのシーケンスに変換し;
句を前記第一の言語から第二の言語の句に翻訳するためのトレーニング・データを使って事前トレーニングされたエンコーダを使って、前記第一の言語の単語の前記少なくとも一つの入力シーケンスについての文脈固有の単語ベクトルを生成し;
前記単語ベクトルおよび前記文脈固有の単語ベクトルを連結し;
連結された単語ベクトルおよび文脈固有の単語ベクトルを使って、前記第一の言語の単語の前記少なくとも一つの入力シーケンスに対して第一の自然言語処理タスクを実行するよう構成されている、
システム。
〔態様2〕
前記第一の自然言語処理タスクが、感情分析、質問分類、含意分類および質問回答のうちの一つである、態様1記載のシステム。
〔態様3〕
前記エンコーダが、前記シーケンス内の単語ベクトルの少なくとも一つを処理するよう構成された少なくとも一つの双方向長期短期メモリを有する、態様1記載のシステム。
〔態様4〕
前記エンコーダが、前記少なくとも一つの双方向長期短期メモリの出力に基づいて注目重みを計算するよう構成された注目機構を有する、態様3記載のシステム。
〔態様5〕
前記エンコーダの前記事前トレーニングにおいてデコーダが使用され、該デコーダは前記エンコーダによって生成された隠れベクトルを用いて初期化される、態様1記載のシステム。
〔態様6〕
前記デコーダが、前記エンコーダのトレーニングの間に前記第二の言語の少なくとも一つの単語ベクトルを処理するよう構成された少なくとも一つの双方向長期短期メモリを有する、態様5記載のシステム。
〔態様7〕
前記連結された単語ベクトルおよび文脈固有の単語ベクトルに基づいて注目重みを生成するよう構成された双注目分類ネットワークをさらに有する、態様1記載のシステム。
〔態様8〕
自然言語処理のためのシステムであって:
単語の少なくとも一つの入力シーケンスについての文脈固有の単語ベクトルを生成するエンコーダであって、該エンコーダは第一の自然言語処理タスクを実行するためのトレーニング・データを使って事前トレーニングされている、エンコーダと;
前記文脈固有の単語ベクトルを使って、単語の前記少なくとも一つの入力シーケンスに対して第二の自然言語処理タスクを実行するためのニューラル・ネットワークであって、前記第一の自然言語処理タスクは前記第二の自然言語処理タスクとは異なり、前記ニューラル・ネットワークは前記エンコーダとは別個にトレーニングされる、ニューラル・ネットワークとを有する、
システム。
〔態様9〕
前記第一の自然言語処理タスクが機械翻訳である、態様8記載のシステム。
〔態様10〕
前記第二の自然言語処理タスクが、感情分析、質問分類、含意分類および質問回答のうちの一つである、態様8記載のシステム。
〔態様11〕
前記エンコーダが、機械翻訳データセットを使って事前トレーニングされている、態様8記載のシステム。
〔態様12〕
前記ニューラル・ネットワークが、感情分析、質問分類、含意分類および質問回答のうちの一つのためのデータセットを使ってトレーニングされる、態様8記載のシステム。
〔態様13〕
前記第一の自然言語処理タスクが前記第二の自然言語処理タスクとは異なる、態様8記載のシステム。
〔態様14〕
前記エンコーダが少なくとも一つの双方向長期短期メモリを有する、態様8記載のシステム。
〔態様15〕
エンコーダを使って、単語の少なくとも一つの入力シーケンスについての文脈固有の単語ベクトルを生成する段階であって、該エンコーダは第一の自然言語処理タスクを実行するためのトレーニング・データを使って事前トレーニングされている、段階と;
ニューラル・ネットワークを使って、前記文脈固有の単語ベクトルを使って、単語の前記少なくとも一つの入力シーケンスに対して第二の自然言語処理タスクを実行する段階であって、前記第一の自然言語処理タスクは前記第二の自然言語処理タスクとは異なり、前記ニューラル・ネットワークは前記エンコーダとは別個にトレーニングされる、段階とを含む、
方法。
〔態様16〕
前記第一の自然言語処理タスクが機械翻訳である、態様15記載の方法。
〔態様17〕
前記第二の自然言語処理タスクが、感情分析、質問分類、含意分類および質問回答のうちの一つである、態様15記載の方法。
〔態様18〕
前記エンコーダが、機械翻訳データセットを使って事前トレーニングされている、態様15記載の方法。
〔態様19〕
前記ニューラル・ネットワークが、感情分析、質問分類、含意分類および質問回答のうちの一つのためのデータセットを使ってトレーニングされる、態様15記載の方法。
〔態様20〕
前記第一の自然言語処理タスクが前記第二の自然言語処理タスクとは異なる、態様15記載の方法。

Claims (20)

  1. 自然言語処理のためのシステムであって:
    当該システムは多層ニューラル・ネットワークを有し;
    当該システムは:
    第一の言語の単語の少なくとも一つの入力シーケンスを単語ベクトルのシーケンスに変換し;
    句を前記第一の言語から第二の言語の句に翻訳するためのトレーニング・データを使って事前トレーニングされたエンコーダを使って、前記第一の言語の単語の前記少なくとも一つの入力シーケンスについての文脈固有の単語ベクトルのシーケンスを生成し;
    前記単語ベクトルのシーケンスおよび前記文脈固有の単語ベクトルのシーケンスを連結して連結されたベクトルのシーケンスにし;
    前記連結されたベクトルのシーケンスを使って、前記第一の言語の単語の前記少なくとも一つの入力シーケンスに対して第一の自然言語処理タスクを実行するよう構成されている、
    システム。
  2. 前記第一の自然言語処理タスクが、感情分析、質問分類、含意分類および質問回答のうちの一つである、請求項1記載のシステム。
  3. 前記エンコーダが、前記シーケンス内の単語ベクトルの少なくとも一つを処理するよう構成された少なくとも一つの双方向長期短期メモリを有する、請求項1記載のシステム。
  4. 前記エンコーダが、前記少なくとも一つの双方向長期短期メモリの出力に基づいて注目重みを計算するよう構成された注目機構を有する、請求項3記載のシステム。
  5. 前記エンコーダの前記事前トレーニングにおいてデコーダが使用され、該デコーダは前記エンコーダによって生成された隠れベクトルを用いて初期化される、請求項1記載のシステム。
  6. 前記デコーダが、前記エンコーダのトレーニングの間に前記第二の言語の少なくとも一つの単語ベクトルを処理するよう構成された少なくとも一つの双方向長期短期メモリを有する、請求項5記載のシステム。
  7. 前記連結されたベクトルのシーケンスに基づいて注目重みを生成するよう構成された双注目分類ネットワークをさらに有する、請求項1記載のシステム。
  8. 自然言語処理のためのシステムであって:
    単語の少なくとも一つの入力シーケンスについての文脈固有の単語ベクトルのシーケンスを生成するエンコーダであって、該エンコーダは第一の自然言語処理タスクを実行するためのトレーニング・データを使って事前トレーニングされている、エンコーダと;
    前記エンコーダに通信上結合されており、前記エンコーダから前記文脈固有の単語ベクトルのシーケンスを受領するニューラル・ネットワークであって、該ニューラル・ネットワークは、単語の前記少なくとも一つの入力シーケンスから変換された単語ベクトルのシーケンスおよび前記文脈固有の単語ベクトルのシーケンスを連結した、連結されたベクトルのシーケンスを使って、単語の前記少なくとも一つの入力シーケンスに対して第二の自然言語処理タスクを実行するものであり、前記第一の自然言語処理タスクは前記第二の自然言語処理タスクとは異なり、前記ニューラル・ネットワークは前記エンコーダとは別個にトレーニングされる、ニューラル・ネットワークとを有する、
    システム。
  9. 前記第一の自然言語処理タスクが機械翻訳である、請求項8記載のシステム。
  10. 前記第二の自然言語処理タスクが、感情分析、質問分類、含意分類および質問回答のうちの一つである、請求項8記載のシステム。
  11. 前記エンコーダが、機械翻訳データセットを使って事前トレーニングされている、請求項8記載のシステム。
  12. 前記ニューラル・ネットワークが、感情分析、質問分類、含意分類および質問回答のうちの一つのためのデータセットを使ってトレーニングされる、請求項8記載のシステム。
  13. 前記第一の自然言語処理タスクが前記第二の自然言語処理タスクとは異なる、請求項8記載のシステム。
  14. 前記エンコーダが少なくとも一つの双方向長期短期メモリを有する、請求項8記載のシステム。
  15. エンコーダを使って、単語の少なくとも一つの入力シーケンスについての文脈固有の単語ベクトルのシーケンスを生成する段階であって、該エンコーダは第一の自然言語処理タスクを実行するためのトレーニング・データを使って事前トレーニングされている、段階と;
    ニューラル・ネットワークを使って、単語の前記少なくとも一つの入力シーケンスから変換された単語ベクトルのシーケンスおよび前記文脈固有の単語ベクトルのシーケンスを連結した、連結されたベクトルのシーケンスを使って、単語の前記少なくとも一つの入力シーケンスに対して第二の自然言語処理タスクを実行する段階であって、前記第一の自然言語処理タスクは前記第二の自然言語処理タスクとは異なり、前記ニューラル・ネットワークは前記エンコーダとは別個にトレーニングされる、段階とを含む、
    方法。
  16. 前記第一の自然言語処理タスクが機械翻訳である、請求項15記載の方法。
  17. 前記第二の自然言語処理タスクが、感情分析、質問分類、含意分類および質問回答のうちの一つである、請求項15記載の方法。
  18. 前記エンコーダが、機械翻訳データセットを使って事前トレーニングされている、請求項15記載の方法。
  19. 前記ニューラル・ネットワークが、感情分析、質問分類、含意分類および質問回答のうちの一つのためのデータセットを使ってトレーニングされる、請求項15記載の方法。
  20. 前記第一の自然言語処理タスクが前記第二の自然言語処理タスクとは異なる、請求項15記載の方法。

JP2019561306A 2017-05-19 2018-05-18 文脈固有の単語ベクトルを用いた自然言語処理 Active JP7072585B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201762508977P 2017-05-19 2017-05-19
US62/508,977 2017-05-19
US201762536959P 2017-07-25 2017-07-25
US62/536,959 2017-07-25
US15/982,841 2018-05-17
US15/982,841 US10817650B2 (en) 2017-05-19 2018-05-17 Natural language processing using context specific word vectors
PCT/US2018/033487 WO2018213763A1 (en) 2017-05-19 2018-05-18 Natural language processing using context-specific word vectors

Publications (2)

Publication Number Publication Date
JP2020520505A JP2020520505A (ja) 2020-07-09
JP7072585B2 true JP7072585B2 (ja) 2022-05-20

Family

ID=64459677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019561306A Active JP7072585B2 (ja) 2017-05-19 2018-05-18 文脈固有の単語ベクトルを用いた自然言語処理

Country Status (6)

Country Link
US (3) US10817650B2 (ja)
JP (1) JP7072585B2 (ja)
CN (1) CN110678881B (ja)
CA (1) CA3062891C (ja)
DE (1) DE112018002601T5 (ja)
WO (1) WO2018213763A1 (ja)

Families Citing this family (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10706351B2 (en) * 2016-08-30 2020-07-07 American Software Safety Reliability Company Recurrent encoder and decoder
US10565305B2 (en) 2016-11-18 2020-02-18 Salesforce.Com, Inc. Adaptive attention model for image captioning
US11386327B2 (en) 2017-05-18 2022-07-12 Salesforce.Com, Inc. Block-diagonal hessian-free optimization for recurrent and convolutional neural networks
US10817650B2 (en) * 2017-05-19 2020-10-27 Salesforce.Com, Inc. Natural language processing using context specific word vectors
US10762637B2 (en) * 2017-10-27 2020-09-01 Siemens Healthcare Gmbh Vascular segmentation using fully convolutional and recurrent neural networks
JP6894534B2 (ja) * 2017-10-31 2021-06-30 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報処理方法及び端末、コンピュータ記憶媒体
US10542270B2 (en) 2017-11-15 2020-01-21 Salesforce.Com, Inc. Dense video captioning
KR102608469B1 (ko) * 2017-12-22 2023-12-01 삼성전자주식회사 자연어 생성 방법 및 장치
US11501076B2 (en) 2018-02-09 2022-11-15 Salesforce.Com, Inc. Multitask learning as question answering
US10783875B2 (en) 2018-03-16 2020-09-22 Salesforce.Com, Inc. Unsupervised non-parallel speech domain adaptation using a multi-discriminator adversarial network
US11106182B2 (en) 2018-03-16 2021-08-31 Salesforce.Com, Inc. Systems and methods for learning for domain adaptation
US11776036B2 (en) * 2018-04-19 2023-10-03 Adobe Inc. Generating and utilizing classification and query-specific models to generate digital responses to queries from client device
US10909157B2 (en) 2018-05-22 2021-02-02 Salesforce.Com, Inc. Abstraction of text summarization
US11205121B2 (en) 2018-06-20 2021-12-21 Disney Enterprises, Inc. Efficient encoding and decoding sequences using variational autoencoders
CN109086348B (zh) * 2018-07-13 2023-04-18 腾讯科技(深圳)有限公司 超链接的处理方法和装置及存储介质
US11138392B2 (en) * 2018-07-26 2021-10-05 Google Llc Machine translation using neural network models
US11194974B2 (en) * 2018-08-09 2021-12-07 Nec Corporation Teaching syntax by adversarial distraction
CN112889073A (zh) * 2018-08-30 2021-06-01 谷歌有限责任公司 使用多语言神经机器翻译的跨语言分类
US11010559B2 (en) * 2018-08-30 2021-05-18 International Business Machines Corporation Multi-aspect sentiment analysis by collaborative attention allocation
US10970486B2 (en) 2018-09-18 2021-04-06 Salesforce.Com, Inc. Using unstructured input to update heterogeneous data stores
US11436481B2 (en) 2018-09-18 2022-09-06 Salesforce.Com, Inc. Systems and methods for named entity recognition
US11029694B2 (en) 2018-09-27 2021-06-08 Salesforce.Com, Inc. Self-aware visual-textual co-grounded navigation agent
US11645509B2 (en) 2018-09-27 2023-05-09 Salesforce.Com, Inc. Continual neural network learning via explicit structure learning
US11087177B2 (en) 2018-09-27 2021-08-10 Salesforce.Com, Inc. Prediction-correction approach to zero shot learning
US11514915B2 (en) 2018-09-27 2022-11-29 Salesforce.Com, Inc. Global-to-local memory pointer networks for task-oriented dialogue
DE102018218098A1 (de) * 2018-10-23 2020-04-23 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Abstrahieren eines Datensatzes
US10789429B2 (en) * 2018-11-21 2020-09-29 Intuit, Inc. Visualizing comment sentiment
CN111178099B (zh) * 2018-11-28 2023-03-10 腾讯科技(深圳)有限公司 一种文本翻译的方法以及相关装置
US11822897B2 (en) 2018-12-11 2023-11-21 Salesforce.Com, Inc. Systems and methods for structured text translation with tag alignment
US10963652B2 (en) 2018-12-11 2021-03-30 Salesforce.Com, Inc. Structured text translation
CN109740148B (zh) * 2018-12-16 2023-12-22 北京工业大学 一种BiLSTM结合Attention机制的文本情感分析方法
CN109726299B (zh) * 2018-12-19 2023-03-17 中国科学院重庆绿色智能技术研究院 一种不完备专利自动标引方法
CN111400461B (zh) * 2019-01-02 2023-03-31 中国移动通信有限公司研究院 智能客服问题匹配方法及装置
JP2020113035A (ja) * 2019-01-11 2020-07-27 株式会社東芝 分類支援システム、分類支援装置、学習装置、分類支援方法、及びプログラム
CN109977199B (zh) * 2019-01-14 2021-06-29 浙江大学 一种基于注意力池化机制的阅读理解方法
US11922323B2 (en) 2019-01-17 2024-03-05 Salesforce, Inc. Meta-reinforcement learning gradient estimation with variance reduction
US11106873B2 (en) * 2019-01-22 2021-08-31 Sap Se Context-based translation retrieval via multilingual space
CN110147532B (zh) * 2019-01-24 2023-08-25 腾讯科技(深圳)有限公司 编码方法、装置、设备及存储介质
CN110147533B (zh) * 2019-01-24 2023-08-29 腾讯科技(深圳)有限公司 编码方法、装置、设备及存储介质
US10937416B2 (en) * 2019-02-01 2021-03-02 International Business Machines Corporation Cross-domain multi-task learning for text classification
US11281867B2 (en) * 2019-02-03 2022-03-22 International Business Machines Corporation Performing multi-objective tasks via primal networks trained with dual networks
US11151324B2 (en) * 2019-02-03 2021-10-19 International Business Machines Corporation Generating completed responses via primal networks trained with dual networks
US11069352B1 (en) * 2019-02-18 2021-07-20 Amazon Technologies, Inc. Media presence detection
US11568306B2 (en) 2019-02-25 2023-01-31 Salesforce.Com, Inc. Data privacy protected machine learning systems
US11366969B2 (en) 2019-03-04 2022-06-21 Salesforce.Com, Inc. Leveraging language models for generating commonsense explanations
US11003867B2 (en) 2019-03-04 2021-05-11 Salesforce.Com, Inc. Cross-lingual regularization for multilingual generalization
US11580445B2 (en) 2019-03-05 2023-02-14 Salesforce.Com, Inc. Efficient off-policy credit assignment
US11087092B2 (en) 2019-03-05 2021-08-10 Salesforce.Com, Inc. Agent persona grounded chit-chat generation framework
US11742879B2 (en) 2019-03-13 2023-08-29 Samsung Electronics Co., Ltd. Machine-learning error-correcting code controller
US11221769B2 (en) * 2019-09-27 2022-01-11 Samsung Electronics Co., Ltd. Performing noise cancellation on a memory device using a neural network
US10902289B2 (en) 2019-03-22 2021-01-26 Salesforce.Com, Inc. Two-stage online detection of action start in untrimmed videos
JP2020160917A (ja) * 2019-03-27 2020-10-01 国立研究開発法人情報通信研究機構 ニューラル機械翻訳モデルを訓練する方法及びコンピュータプログラム
US11281863B2 (en) 2019-04-18 2022-03-22 Salesforce.Com, Inc. Systems and methods for unifying question answering and text classification via span extraction
CN109948165B (zh) * 2019-04-24 2023-04-25 吉林大学 基于混合注意力网络的细粒度情感极性预测方法
US11176333B2 (en) 2019-05-07 2021-11-16 International Business Machines Corporation Generation of sentence representation
US11132513B2 (en) 2019-05-07 2021-09-28 International Business Machines Corporation Attention-based natural language processing
US11487939B2 (en) 2019-05-15 2022-11-01 Salesforce.Com, Inc. Systems and methods for unsupervised autoregressive text compression
US11620572B2 (en) 2019-05-16 2023-04-04 Salesforce.Com, Inc. Solving sparse reward tasks using self-balancing shaped rewards
US11562251B2 (en) 2019-05-16 2023-01-24 Salesforce.Com, Inc. Learning world graphs to accelerate hierarchical reinforcement learning
US11604965B2 (en) 2019-05-16 2023-03-14 Salesforce.Com, Inc. Private deep learning
US11687588B2 (en) 2019-05-21 2023-06-27 Salesforce.Com, Inc. Weakly supervised natural language localization networks for video proposal prediction based on a text query
US11775775B2 (en) 2019-05-21 2023-10-03 Salesforce.Com, Inc. Systems and methods for reading comprehension for a question answering task
US11669712B2 (en) 2019-05-21 2023-06-06 Salesforce.Com, Inc. Robustness evaluation via natural typos
US11657269B2 (en) 2019-05-23 2023-05-23 Salesforce.Com, Inc. Systems and methods for verification of discriminative models
CN110188200A (zh) * 2019-05-27 2019-08-30 哈尔滨工程大学 一种使用社交上下文特征的深度微博情感分析方法
CN111160467B (zh) * 2019-05-31 2021-12-10 北京理工大学 一种基于条件随机场和内部语义注意力的图像描述方法
CN112116095B (zh) * 2019-06-19 2024-05-24 北京搜狗科技发展有限公司 一种多任务学习模型训练的方法及相关装置
CN111611375B (zh) * 2019-07-03 2022-06-07 北京航空航天大学 一种基于深度学习和转折关系的文本情感分类方法
CN110457682B (zh) * 2019-07-11 2022-08-09 新华三大数据技术有限公司 电子病历词性标注方法、模型训练方法及相关装置
CN110472244B (zh) * 2019-08-14 2020-05-29 山东大学 一种基于Tree-LSTM和情感信息的短文本情感分类方法
US11615240B2 (en) 2019-08-15 2023-03-28 Salesforce.Com, Inc Systems and methods for a transformer network with tree-based attention for natural language processing
CN110489567B (zh) * 2019-08-26 2022-03-22 重庆邮电大学 一种基于跨网络特征映射的节点信息获取方法及其装置
US11568000B2 (en) 2019-09-24 2023-01-31 Salesforce.Com, Inc. System and method for automatic task-oriented dialog system
US11599792B2 (en) 2019-09-24 2023-03-07 Salesforce.Com, Inc. System and method for learning with noisy labels as semi-supervised learning
US11640527B2 (en) 2019-09-25 2023-05-02 Salesforce.Com, Inc. Near-zero-cost differentially private deep learning with teacher ensembles
US11132492B2 (en) * 2019-10-07 2021-09-28 Vyasa Analytics, LLC Methods for automated filling of columns in spreadsheets
KR20210043995A (ko) * 2019-10-14 2021-04-22 삼성전자주식회사 모델 학습 방법 및 장치, 및 시퀀스 인식 방법
CN110826344B (zh) * 2019-10-24 2022-03-01 北京小米智能科技有限公司 神经网络模型压缩方法、语料翻译方法及其装置
CN111008517A (zh) * 2019-10-30 2020-04-14 天津大学 一种基于张量分解技术的神经语言模型的压缩方法
US11620515B2 (en) 2019-11-07 2023-04-04 Salesforce.Com, Inc. Multi-task knowledge distillation for language model
US11347708B2 (en) 2019-11-11 2022-05-31 Salesforce.Com, Inc. System and method for unsupervised density based table structure identification
CN111026937B (zh) 2019-11-13 2021-02-19 百度在线网络技术(北京)有限公司 提取poi名称的方法、装置、设备和计算机存储介质
US11288438B2 (en) 2019-11-15 2022-03-29 Salesforce.Com, Inc. Bi-directional spatial-temporal reasoning for video-grounded dialogues
US11334766B2 (en) 2019-11-15 2022-05-17 Salesforce.Com, Inc. Noise-resistant object detection with noisy annotations
US11481636B2 (en) 2019-11-18 2022-10-25 Salesforce.Com, Inc. Systems and methods for out-of-distribution classification
US11922303B2 (en) 2019-11-18 2024-03-05 Salesforce, Inc. Systems and methods for distilled BERT-based training model for text classification
CN111813913B (zh) * 2019-11-27 2024-02-20 上海交通大学 以问题为导向的两阶段问题生成系统
CN111078881B (zh) * 2019-12-09 2023-04-07 携程计算机技术(上海)有限公司 细粒度情感分析方法、系统、电子设备和存储介质
US11640505B2 (en) 2019-12-09 2023-05-02 Salesforce.Com, Inc. Systems and methods for explicit memory tracker with coarse-to-fine reasoning in conversational machine reading
US11256754B2 (en) 2019-12-09 2022-02-22 Salesforce.Com, Inc. Systems and methods for generating natural language processing training samples with inflectional perturbations
US11599730B2 (en) 2019-12-09 2023-03-07 Salesforce.Com, Inc. Learning dialogue state tracking with limited labeled data
US11573957B2 (en) 2019-12-09 2023-02-07 Salesforce.Com, Inc. Natural language processing engine for translating questions into executable database queries
US11487999B2 (en) 2019-12-09 2022-11-01 Salesforce.Com, Inc. Spatial-temporal reasoning through pretrained language models for video-grounded dialogues
CN111125317A (zh) * 2019-12-27 2020-05-08 携程计算机技术(上海)有限公司 对话型文本分类的模型训练、分类、系统、设备和介质
CN111144507B (zh) * 2019-12-30 2021-06-08 北京百度网讯科技有限公司 情感分析模型预训练方法、装置及电子设备
WO2021134432A1 (en) * 2019-12-31 2021-07-08 Paypal, Inc. Framework for managing natural language processing tools
CN111222344B (zh) * 2020-01-03 2023-07-18 支付宝(杭州)信息技术有限公司 训练神经网络的方法、装置及电子设备
US11669745B2 (en) 2020-01-13 2023-06-06 Salesforce.Com, Inc. Proposal learning for semi-supervised object detection
US11562147B2 (en) 2020-01-23 2023-01-24 Salesforce.Com, Inc. Unified vision and dialogue transformer with BERT
US11341334B2 (en) * 2020-01-28 2022-05-24 Here Global B.V. Method and apparatus for evaluating natural language input to identify actions and landmarks
US20210249104A1 (en) 2020-02-06 2021-08-12 Salesforce.Com, Inc. Systems and methods for language modeling of protein engineering
CN111325028B (zh) * 2020-02-20 2021-06-18 齐鲁工业大学 一种基于深度分层编码的智能语义匹配方法和装置
CN111368058B (zh) * 2020-03-09 2023-05-02 昆明理工大学 一种基于迁移学习的问答匹配方法
US11263476B2 (en) 2020-03-19 2022-03-01 Salesforce.Com, Inc. Unsupervised representation learning with contrastive prototypes
US11328731B2 (en) 2020-04-08 2022-05-10 Salesforce.Com, Inc. Phone-based sub-word units for end-to-end speech recognition
CN111476184B (zh) * 2020-04-13 2023-12-22 河南理工大学 一种基于双注意力机制的人体关键点检测方法
CN111581351B (zh) * 2020-04-30 2023-05-02 识因智能科技(北京)有限公司 一种基于多头自注意力机制的动态元嵌入方法
CN111767710B (zh) * 2020-05-13 2023-03-28 广东外语外贸大学 印尼语的情感分类方法、装置、设备及介质
US11947925B2 (en) * 2020-05-21 2024-04-02 International Business Machines Corporation Adaptive language translation using context features
CN111667158B (zh) * 2020-05-26 2022-06-10 南开大学 一种基于多图神经网络联合学习的工作技能预测方法
US11625543B2 (en) 2020-05-31 2023-04-11 Salesforce.Com, Inc. Systems and methods for composed variational natural language generation
US11720559B2 (en) 2020-06-02 2023-08-08 Salesforce.Com, Inc. Bridging textual and tabular data for cross domain text-to-query language semantic parsing with a pre-trained transformer language encoder and anchor text
US11625544B2 (en) * 2020-08-13 2023-04-11 Naver Corporation Method and system for training document-level natural language processing models
US20220050877A1 (en) 2020-08-14 2022-02-17 Salesforce.Com, Inc. Systems and methods for query autocompletion
US11934952B2 (en) 2020-08-21 2024-03-19 Salesforce, Inc. Systems and methods for natural language processing using joint energy-based models
US11934781B2 (en) 2020-08-28 2024-03-19 Salesforce, Inc. Systems and methods for controllable text summarization
US11664010B2 (en) 2020-11-03 2023-05-30 Florida Power & Light Company Natural language domain corpus data set creation based on enhanced root utterances
US11829442B2 (en) 2020-11-16 2023-11-28 Salesforce.Com, Inc. Methods and systems for efficient batch active learning of a deep neural network
US11574130B2 (en) * 2020-11-24 2023-02-07 International Business Machines Corporation Enhancing multi-lingual embeddings for cross-lingual question-answer system
CN112287698B (zh) * 2020-12-25 2021-06-01 北京百度网讯科技有限公司 篇章翻译方法、装置、电子设备和存储介质
CN112699216A (zh) * 2020-12-28 2021-04-23 平安科技(深圳)有限公司 端到端的语言模型预训练方法、系统、设备及存储介质
CN112732915A (zh) * 2020-12-31 2021-04-30 平安科技(深圳)有限公司 情感分类方法、装置、电子设备及存储介质
CN113158659B (zh) * 2021-02-08 2024-03-08 银江技术股份有限公司 一种基于司法文本的涉案财物计算方法
CN113204640B (zh) * 2021-04-02 2023-05-30 南京邮电大学 一种基于注意力机制的文本分类方法
CN112966096B (zh) * 2021-04-07 2022-05-24 重庆大学 一种基于多任务学习的云服务发现方法
WO2022246194A1 (en) * 2021-05-21 2022-11-24 Google Llc Machine-learned language models which generate intermediate textual analysis in service of contextual text generation
CN113254592B (zh) * 2021-06-17 2021-10-22 成都晓多科技有限公司 基于门机制的多级注意力模型的评论方面检测方法及系统
US11720615B2 (en) * 2021-07-30 2023-08-08 DSilo Inc. Self-executing protocol generation from natural language text
WO2023069017A2 (en) * 2021-10-19 2023-04-27 Grabtaxi Holdings Pte. Ltd. System and method for recognizing sentiment of user's feedback
CN114330474B (zh) * 2021-10-20 2024-04-26 腾讯科技(深圳)有限公司 一种数据处理方法、装置、计算机设备以及存储介质
CN113688212B (zh) * 2021-10-27 2022-02-08 华南师范大学 句子情感分析方法、装置以及设备
US11431472B1 (en) 2021-11-22 2022-08-30 Morgan Stanley Services Group Inc. Automated domain language parsing and data extraction
CN114549534B (zh) * 2022-01-17 2022-11-15 中国矿业大学(北京) 矿区土地利用识别方法、装置、设备及介质
CN114139532B (zh) * 2022-01-30 2022-04-19 北京语言大学 一种基于多任务框架进行简单释义生成的方法与系统
CN116055293B (zh) * 2023-04-03 2023-06-20 深圳市纵联网络科技有限公司 路由器的远程故障监控方法及路由器
CN116794115B (zh) * 2023-05-30 2024-01-30 恩迈智能数字医疗(嘉兴)有限公司 基于多元掺杂导电聚合物的气敏传感器电极及制作方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160247061A1 (en) 2015-02-19 2016-08-25 Digital Reasoning Systems, Inc. Systems and Methods for Neural Language Modeling

Family Cites Families (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8355550B2 (en) 2007-05-01 2013-01-15 Siemens Aktiengesellschaft Methods and apparatus for virtual coronary mapping
US8121367B2 (en) 2007-09-21 2012-02-21 Siemens Aktiengesellschaft Method and system for vessel segmentation in fluoroscopic images
US8775341B1 (en) * 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) * 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US11113598B2 (en) * 2015-06-01 2021-09-07 Salesforce.Com, Inc. Dynamic memory network
US20160350653A1 (en) * 2015-06-01 2016-12-01 Salesforce.Com, Inc. Dynamic Memory Network
US20170032280A1 (en) 2015-07-27 2017-02-02 Salesforce.Com, Inc. Engagement estimator
US20170140240A1 (en) 2015-07-27 2017-05-18 Salesforce.Com, Inc. Neural network combined image and text evaluator and classifier
US10282663B2 (en) 2015-08-15 2019-05-07 Salesforce.Com, Inc. Three-dimensional (3D) convolution with 3D batch normalization
US9836671B2 (en) * 2015-08-28 2017-12-05 Microsoft Technology Licensing, Llc Discovery of semantic similarities between images and text
US10395118B2 (en) * 2015-10-29 2019-08-27 Baidu Usa Llc Systems and methods for video paragraph captioning using hierarchical recurrent neural networks
US10262062B2 (en) * 2015-12-21 2019-04-16 Adobe Inc. Natural language system question classifier, semantic representations, and logical form templates
US20190087677A1 (en) * 2016-03-24 2019-03-21 Ramot At Tel-Aviv University Ltd. Method and system for converting an image to text
US10007866B2 (en) 2016-04-28 2018-06-26 Microsoft Technology Licensing, Llc Neural network image classifier
CN106126507B (zh) 2016-06-22 2019-08-09 哈尔滨工业大学深圳研究生院 一种基于字符编码的深度神经翻译方法及系统
KR20180001889A (ko) * 2016-06-28 2018-01-05 삼성전자주식회사 언어 처리 방법 및 장치
US9830315B1 (en) * 2016-07-13 2017-11-28 Xerox Corporation Sequence-based structured prediction for semantic parsing
US10565493B2 (en) 2016-09-22 2020-02-18 Salesforce.Com, Inc. Pointer sentinel mixture architecture
CN106569998A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
US11222253B2 (en) 2016-11-03 2022-01-11 Salesforce.Com, Inc. Deep neural network model for processing data through multiple linguistic task hierarchies
US20180129937A1 (en) * 2016-11-04 2018-05-10 Salesforce.Com, Inc. Quasi-recurrent neural network
US10963782B2 (en) 2016-11-04 2021-03-30 Salesforce.Com, Inc. Dynamic coattention network for question answering
US10565305B2 (en) 2016-11-18 2020-02-18 Salesforce.Com, Inc. Adaptive attention model for image captioning
US10268679B2 (en) * 2016-12-02 2019-04-23 Microsoft Technology Licensing, Llc Joint language understanding and dialogue management using binary classification based on forward and backward recurrent neural network
US20180203851A1 (en) * 2017-01-13 2018-07-19 Microsoft Technology Licensing, Llc Systems and methods for automated haiku chatting
US11354565B2 (en) 2017-03-15 2022-06-07 Salesforce.Com, Inc. Probability-based guider
US10572595B2 (en) 2017-04-13 2020-02-25 Baidu Usa Llc Global normalized reader systems and methods
US10565318B2 (en) 2017-04-14 2020-02-18 Salesforce.Com, Inc. Neural machine translation with latent tree attention
US10474709B2 (en) 2017-04-14 2019-11-12 Salesforce.Com, Inc. Deep reinforced model for abstractive summarization
US10747761B2 (en) 2017-05-18 2020-08-18 Salesforce.Com, Inc. Neural network based translation of natural language queries to database queries
US11386327B2 (en) 2017-05-18 2022-07-12 Salesforce.Com, Inc. Block-diagonal hessian-free optimization for recurrent and convolutional neural networks
US10817650B2 (en) * 2017-05-19 2020-10-27 Salesforce.Com, Inc. Natural language processing using context specific word vectors
US12014257B2 (en) 2017-05-19 2024-06-18 Salesforce, Inc. Domain specific language for generation of recurrent neural network architectures
US20190130896A1 (en) 2017-10-26 2019-05-02 Salesforce.Com, Inc. Regularization Techniques for End-To-End Speech Recognition
US11562287B2 (en) 2017-10-27 2023-01-24 Salesforce.Com, Inc. Hierarchical and interpretable skill acquisition in multi-task reinforcement learning
US11604956B2 (en) 2017-10-27 2023-03-14 Salesforce.Com, Inc. Sequence-to-sequence prediction using a neural network model
US10573295B2 (en) 2017-10-27 2020-02-25 Salesforce.Com, Inc. End-to-end speech recognition with policy learning
US11928600B2 (en) 2017-10-27 2024-03-12 Salesforce, Inc. Sequence-to-sequence prediction using a neural network model
US10592767B2 (en) 2017-10-27 2020-03-17 Salesforce.Com, Inc. Interpretable counting in visual question answering
US11170287B2 (en) 2017-10-27 2021-11-09 Salesforce.Com, Inc. Generating dual sequence inferences using a neural network model
US10346721B2 (en) 2017-11-01 2019-07-09 Salesforce.Com, Inc. Training a neural network using augmented training datasets
US10542270B2 (en) 2017-11-15 2020-01-21 Salesforce.Com, Inc. Dense video captioning
US11276002B2 (en) 2017-12-20 2022-03-15 Salesforce.Com, Inc. Hybrid training of deep networks
US11501076B2 (en) 2018-02-09 2022-11-15 Salesforce.Com, Inc. Multitask learning as question answering
US10929607B2 (en) 2018-02-22 2021-02-23 Salesforce.Com, Inc. Dialogue state tracking using a global-local encoder
US11227218B2 (en) 2018-02-22 2022-01-18 Salesforce.Com, Inc. Question answering from minimal context over documents
US10783875B2 (en) 2018-03-16 2020-09-22 Salesforce.Com, Inc. Unsupervised non-parallel speech domain adaptation using a multi-discriminator adversarial network
US11106182B2 (en) 2018-03-16 2021-08-31 Salesforce.Com, Inc. Systems and methods for learning for domain adaptation
US11600194B2 (en) 2018-05-18 2023-03-07 Salesforce.Com, Inc. Multitask learning as question answering
US10909157B2 (en) 2018-05-22 2021-02-02 Salesforce.Com, Inc. Abstraction of text summarization
US11631009B2 (en) 2018-05-23 2023-04-18 Salesforce.Com, Inc Multi-hop knowledge graph reasoning with reward shaping
US20200090034A1 (en) 2018-09-18 2020-03-19 Salesforce.Com, Inc. Determining Intent from Unstructured Input to Update Heterogeneous Data Stores
US11436481B2 (en) 2018-09-18 2022-09-06 Salesforce.Com, Inc. Systems and methods for named entity recognition
US10970486B2 (en) 2018-09-18 2021-04-06 Salesforce.Com, Inc. Using unstructured input to update heterogeneous data stores
US11514915B2 (en) 2018-09-27 2022-11-29 Salesforce.Com, Inc. Global-to-local memory pointer networks for task-oriented dialogue
US11087177B2 (en) 2018-09-27 2021-08-10 Salesforce.Com, Inc. Prediction-correction approach to zero shot learning
US11029694B2 (en) 2018-09-27 2021-06-08 Salesforce.Com, Inc. Self-aware visual-textual co-grounded navigation agent
US11645509B2 (en) 2018-09-27 2023-05-09 Salesforce.Com, Inc. Continual neural network learning via explicit structure learning
US10963652B2 (en) 2018-12-11 2021-03-30 Salesforce.Com, Inc. Structured text translation
US11922323B2 (en) 2019-01-17 2024-03-05 Salesforce, Inc. Meta-reinforcement learning gradient estimation with variance reduction
US11568306B2 (en) 2019-02-25 2023-01-31 Salesforce.Com, Inc. Data privacy protected machine learning systems
US11366969B2 (en) 2019-03-04 2022-06-21 Salesforce.Com, Inc. Leveraging language models for generating commonsense explanations
US11003867B2 (en) 2019-03-04 2021-05-11 Salesforce.Com, Inc. Cross-lingual regularization for multilingual generalization
US11580445B2 (en) 2019-03-05 2023-02-14 Salesforce.Com, Inc. Efficient off-policy credit assignment
US11087092B2 (en) 2019-03-05 2021-08-10 Salesforce.Com, Inc. Agent persona grounded chit-chat generation framework
US11550908B2 (en) * 2019-03-15 2023-01-10 Paul J Long Method and apparatus for producing a machine learning system for malware prediction in low complexity sensor networks
US10902289B2 (en) 2019-03-22 2021-01-26 Salesforce.Com, Inc. Two-stage online detection of action start in untrimmed videos
US11281863B2 (en) 2019-04-18 2022-03-22 Salesforce.Com, Inc. Systems and methods for unifying question answering and text classification via span extraction
US11487939B2 (en) 2019-05-15 2022-11-01 Salesforce.Com, Inc. Systems and methods for unsupervised autoregressive text compression
US11562251B2 (en) 2019-05-16 2023-01-24 Salesforce.Com, Inc. Learning world graphs to accelerate hierarchical reinforcement learning
US11604965B2 (en) 2019-05-16 2023-03-14 Salesforce.Com, Inc. Private deep learning
US11775775B2 (en) 2019-05-21 2023-10-03 Salesforce.Com, Inc. Systems and methods for reading comprehension for a question answering task
US11669712B2 (en) 2019-05-21 2023-06-06 Salesforce.Com, Inc. Robustness evaluation via natural typos
US11687588B2 (en) 2019-05-21 2023-06-27 Salesforce.Com, Inc. Weakly supervised natural language localization networks for video proposal prediction based on a text query
US11657269B2 (en) 2019-05-23 2023-05-23 Salesforce.Com, Inc. Systems and methods for verification of discriminative models
US11615240B2 (en) 2019-08-15 2023-03-28 Salesforce.Com, Inc Systems and methods for a transformer network with tree-based attention for natural language processing
US11568000B2 (en) 2019-09-24 2023-01-31 Salesforce.Com, Inc. System and method for automatic task-oriented dialog system
US11599792B2 (en) 2019-09-24 2023-03-07 Salesforce.Com, Inc. System and method for learning with noisy labels as semi-supervised learning
US11640527B2 (en) 2019-09-25 2023-05-02 Salesforce.Com, Inc. Near-zero-cost differentially private deep learning with teacher ensembles
US11620515B2 (en) * 2019-11-07 2023-04-04 Salesforce.Com, Inc. Multi-task knowledge distillation for language model

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160247061A1 (en) 2015-02-19 2016-08-25 Digital Reasoning Systems, Inc. Systems and Methods for Neural Language Modeling

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Yangfeng Ji 他4名,DOCUMENT CONTEXT LANGUAGE MODELS,Workshop track - ICLR 2016 [online],2016年02月21日,https://arxiv.org/pdf/1511.03962.pdf,[検索日2021年 1月13日],インターネット
長谷川 美夏,画像によって単語意味表現をエンハンスするニューラルネットワークモデル(ViEW model),言語処理学会第23回年次大会 発表論文集 [online] Proceedings of the Twenty-third Annual Meeting of the Association for Natural Language Processing,日本,言語処理学会

Also Published As

Publication number Publication date
US20210073459A1 (en) 2021-03-11
WO2018213763A1 (en) 2018-11-22
CN110678881B (zh) 2023-10-03
US20180349359A1 (en) 2018-12-06
JP2020520505A (ja) 2020-07-09
CA3062891A1 (en) 2018-11-22
US20180373682A1 (en) 2018-12-27
US10817650B2 (en) 2020-10-27
DE112018002601T5 (de) 2020-03-05
US11409945B2 (en) 2022-08-09
CA3062891C (en) 2023-01-03
CN110678881A (zh) 2020-01-10
US10699060B2 (en) 2020-06-30

Similar Documents

Publication Publication Date Title
JP7072585B2 (ja) 文脈固有の単語ベクトルを用いた自然言語処理
US11934791B2 (en) On-device projection neural networks for natural language understanding
JP2021524623A (ja) 質問応答としてのマルチタスク学習
US11580975B2 (en) Systems and methods for response selection in multi-party conversations with dynamic topic tracking
Nguyen et al. From film to video: Multi-turn question answering with multi-modal context
KR102315830B1 (ko) 반지도 학습 기반 단어 단위 감정 임베딩과 lstm 모델을 이용한 대화 내에서 발화의 감정 분류 방법
Tripathy et al. Comprehensive analysis of embeddings and pre-training in NLP
Nagaraj et al. Kannada to English Machine Translation Using Deep Neural Network.
Bokka et al. Deep Learning for Natural Language Processing: Solve your natural language processing problems with smart deep neural networks
CN114254645A (zh) 一种人工智能辅助写作系统
Iosifov et al. Transferability evaluation of speech emotion recognition between different languages
Sanjanaashree et al. Joint layer based deep learning framework for bilingual machine transliteration
Hashana et al. Deep Learning in ChatGPT-A Survey
Tsakiris et al. The development of a chatbot using Convolutional Neural Networks
Sitender et al. Effect of GloVe, Word2Vec and fastText embedding on english and hindi neural machine translation systems
Mou et al. Multimodal dialogue state tracking by qa approach with data augmentation
Okur et al. End-to-end evaluation of a spoken dialogue system for learning basic mathematics
Sawant et al. Analytical and Sentiment based text generative chatbot
Kulkarni et al. Applied Generative AI for Beginners
Kumar et al. ManuBERT: A pretrained Manufacturing science language representation model
Amrutha et al. Effortless and beneficial processing of natural languages using transformers
He et al. Recurrent neural network language model with structured word embeddings for speech recognition
Alabbad et al. A robot-based arabic sign language translating system
Sahu Adaptive Fusion Techniques for Effective Multimodal Deep Learning
Toan et al. Human-Robot Interaction System Using Vietnamese

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220510

R150 Certificate of patent or registration of utility model

Ref document number: 7072585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150