JP2021125217A - マルチホップ機械読み取りのための潜在質問再定式化および情報蓄積 - Google Patents
マルチホップ機械読み取りのための潜在質問再定式化および情報蓄積 Download PDFInfo
- Publication number
- JP2021125217A JP2021125217A JP2020160062A JP2020160062A JP2021125217A JP 2021125217 A JP2021125217 A JP 2021125217A JP 2020160062 A JP2020160062 A JP 2020160062A JP 2020160062 A JP2020160062 A JP 2020160062A JP 2021125217 A JP2021125217 A JP 2021125217A
- Authority
- JP
- Japan
- Prior art keywords
- question
- vector representation
- response
- module
- document
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000009825 accumulation Methods 0.000 title 1
- 239000013598 vector Substances 0.000 claims abstract description 184
- 238000000034 method Methods 0.000 claims abstract description 37
- 230000004044 response Effects 0.000 claims description 239
- 238000011176 pooling Methods 0.000 claims description 35
- 230000014509 gene expression Effects 0.000 claims description 31
- 230000002457 bidirectional effect Effects 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 17
- 230000000306 recurrent effect Effects 0.000 claims description 9
- 235000008694 Humulus lupulus Nutrition 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 description 20
- 239000011159 matrix material Substances 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 230000015654 memory Effects 0.000 description 16
- 238000004590 computer program Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000001052 transient effect Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 2
- 239000010931 gold Substances 0.000 description 2
- 229910052737 gold Inorganic materials 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 101100521334 Mus musculus Prom1 gene Proteins 0.000 description 1
- 241001422033 Thestylus Species 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- ZLIBICFPKPWGIZ-UHFFFAOYSA-N pyrimethanil Chemical compound CC1=CC(C)=NC(NC=2C=CC=CC=2)=N1 ZLIBICFPKPWGIZ-UHFFFAOYSA-N 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3325—Reformulation based on results of preceding query
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/47—Machine-assisted translation, e.g. using translation memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Probability & Statistics with Applications (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】質問応答システムは、複数の単語を含む質問Qを第1ベクター表現でエンコーディングする第1エンコーダモジュールと、複数の単語を含む文書Dを第2ベクター表現でエンコーディングする第2エンコーダモジュールと、第1ベクター表現および第2ベクター表現に基づいて第3ベクター表現を生成するように構成された第1読み取りモジュールと、第1ベクター表現に基づいて再定式化されたベクター表現を生成するように構成された再定式化モジュールと、第2ベクター表現および再定式化されたベクター表現に基づいて第5ベクター表現を生成するように構成された第2読み取りモジュールと、再定式化されたベクター表現に基づいて質問に対する応答を決定するように構成された応答モジュールと、を含む。
【選択図】図5
Description
本出願は2020年2月6日付出願された米国仮出願番号第62/971、100号の利益を主張する。参照された出願の全体の開示内用は本明細書に参照として含まれる。
本開示内容は質問応答システムおよび方法に関し、より詳細には、ニューラルネットワーク、アテンションメカニズム(attention mechanism)および双方向ゲートリカレントユニット(bidirectional gated recurrent unit)を使うマルチホップ質問応答に関する。
一特徴において、情報を集計し再定式化して(reformulate)応答を生成するために、単一ホップ読み取り機が文書の結合された(concatenated)セットを順次読み取りできるようにするシステムアーキテクチャが提供される。このような順次的推論能力を処理するために、一特徴において、質問の新しい、2次元であり、固定されるように大きさが設定された潜在表現が定式化される。応答プロセスにおいて、制御器とも呼ぶことができる潜在空間で、文書の情報と質問の再定式化を相関させるアテンションメカニズムを使って質問の表現がアップデートされる。
エンコーダはまず、ルックアップテーブル
適応型マックスプーリング階層(適応型マックスプール)113はh次元空間で定義された、質問(Q)をエンコーディングするL個のトークンのシーケエンス(これはBiGRUの使用の有無にかかわらず、単語エンコーディング、文字エンコーディングまたは両者の組み合わせの結果であり得る)を次元(h×C)(Cは与えられた定数)の固定された大きさ表現に変換するために選択的に使われ得る。適応型マックスプーリング階層113は本来質問(Q)の長さであるLに依存する適応型カーネルの大きさを有するマックスプーリング階層であり得る。結果として、固定次元のマトリクスは本来長さLに独立的に、パッディング次元のない入力を適切に表現する。
前記に定義されたエンコーディングおよび選択的変換後に、入力マトリクス
段階tで、すなわち与えられた読み取りブロックtで、制御器状態Ut−1(これは以前のホップt−1の制御器状態であり得る)が与えられると、読み取り機116と後続する抽出アテンションモジュール117は入力文書(D)に対してアテンションAtを演算し、Atは与えられたトークンが応答範囲の一部である、ED内のそれぞれの与えられたトークンに対する確率を与える確率値のベクターである。
文書のエンコーディング(ED∈Rh×N)、制御器の以前の状態(Ut−1∈Rh×C)およびアテンションベクター(At∈RN)が与えられると、制御器アップデートモジュール118の目的は制御器のアップデートされたバージョン(Ut∈Rh×C)を演算することである。この目的は、
応答モジュール120はエンコーディングされた文書EDの表現および制御器の最終状態UTを入力として受信することができる。応答モジュール120は、例えば、質問に対する応答が「はい」である確率、応答が「いいえ」である確率、および応答が文書の範囲である確率を含む確率のセットが出力されるという点で、1)質問がバイナリ質問(すなわち、「はい/いいえ」質問)なのかまたは抽出質問(すなわち、前述した応答範囲である、文書(D)の範囲で応答され得る質問)なのか;2)応答範囲の開始確率と3)応答範囲の最終確率(これらは質問が抽出質問であると決定される場合、応答範囲を決定するのに使われる);および4)サポート因子を予測するために応答出力122を演算するように構成され得る。一特徴において、応答モジュール120はその全体がここに参照として含まれたYang et al.、2018に記述されたモデルアーキテクチャを有する。応答モジュールは「はい」、「いいえ」または文書(D)の範囲である応答を有する確率を生成するために具現された3方向分類器を含むことができる。
一特徴において、図1のアーキテクチャの多重ヘッドバージョンが具現され得る。このアーキテクチャで、K個の独立的な読み取りヘッドは情報を応答モジュール120に供給する前に情報を収集(蓄積)する。応答モジュール120までは、それぞれの読み取りヘッドは図1のアーキテクチャの一つの独立的な具現に対応する一方、応答モジュール120はすべての読み取りヘッドに共通である。それぞれの読み取りヘッドに対して同一の読み取りブロックの個数Tが使われ得る。したがって、それぞれの読み取りヘッドは制御器の最終状態UTのマトリクスを生成し、K個の読み取りヘッドはK個の独立マトリクスUTを提供する。最後に、このようなK個のマトリクスは応答モジュール120の入力を演算するために合算される。ヘッドは自然に異なる出力を生成したり、2個以上のヘッドが同一の出力を生成することができる。
一特徴において、応答の第1出現のみがポジティブでラベリングされて、その他はネガティブでラベリングされ得る。応答の弱い指導と呼ばれる他の特徴で、サポート因子内の応答のすべての出現はポジティブでラベリングされ得る。
表1はモデルの訓練中に使われたハイパー媒介変数の値を提供する。質問(Q)および文書(D)の単語をエンコーディングするために、事前に訓練されたグローブ(Glove)単語エンベッディングをエンコーダ111で使った。また、0.5の初期訓練速度で確率的勾配降下法(stochastic gradient descent)を使ってモデルを最適化した。学習率スケジュールとして、開発セットに対する損失が二段階連続して減少しないときに学習率を2で割る。中止基準として、学習率が0.005未満になると訓練プロセスが終了する。
前述したモデルの異なるコンポーネントの技術的影響を評価するために切除(ablation)分析が遂行された。順次的読み取りの技術的影響(すなわち、最終結果に対するT(読み取りブロックの数)の影響)を経験的に研究するために、前記モデルを制御器の状態を順次アップデートしない(すなわち、単一読み取りブロックを有する(T=1を意味))類似するアーキテクチャと比較した。
実施例は前記と関連して、また、文書(D)に基づいて質問(Q)に応答するためのコンピュータの具現方法を例示するフローチャートである図2を参照して詳細に記述されるであろう。方法はコードを実行する一つ以上のプロセッサによって実行され得る。説明された例は本明細書に開示された機械−読み取りシステムの最終の具現内で互いに結合され得る。
マルチホップモデルは質問の現在の再定式化に関する文書から関連情報を順次抽出する読み取りのT個のホップを含む。段階tで、再定式化された質問の表現
例示的な再定式化モジュールの機能ブロック図が図7に提供される。再定式化モジュールtは、以前のアテンションモジュールの出力(V(t))、再定式化された質問の以前の表現U(t)および文書のエンコーディングEDを入力として取る。再定式化モジュールは入力に基づいて質問のアップデートされた再定式化U(t+1)を生成する。
次元(M×2h)の現在の表現を追加するためにダイナミックマックスプーリングモジュールを使って
例示的な応答モジュールの機能ブロック図が図8に提供される。応答モジュールは4個のBiGRUを含むことができ、それぞれには完全結合(fc)階層が後続する。BiGRUは(1)サポート因子(psf)(2)文書のそれぞれの単語の応答開始そして(3)応答終わりである確率(pe、ps)を指導する。最終BiGRUは応答がはい、いいえまたはテキストの範囲に分類される確率を予測するために3方向分類器として使われ得る。
多重ホップモデルは多数のヘッドを含むことができる。この具現例は前記で議論された通り、複数の独立的な並列ヘッドを含むことができる。それぞれのヘッドは同じ数の読み取りおよび再定式化モジュールを含むことができる。それぞれのヘッドは文書の表現(Vk (T))を生成する。合算モジュールは応答モジュールに対する入力を生成するためにk個のヘッドによって生成されたk個のマトリクスを合算することができる。
マルチホップモデルは3個の下位タスクを共同で最適化することによって訓練され得る。3個の下位タスクはサポート因子を探索すること、範囲を識別すること、および、はい、いいえまたは範囲を分類するものであり得る。訓練は
Claims (22)
- 質問応答システムであって、
ネットワークを通じてコンピューティングデバイスから、第1複数の単語を含む質問を受信し、前記質問を第1ベクター表現でエンコーディングするように構成された第1エンコーダモジュール;
文書(D)を第2ベクター表現でエンコーディングするように構成された第2エンコーダモジュールであって、前記文書は第2複数の単語を含む、第2エンコーダモジュール;
前記第1ベクター表現および前記第2ベクター表現に基づいて第3ベクター表現を生成するように構成された第1読み取りモジュール;
前記第1ベクター表現に基づいて前記質問に対する第1再定式化されたベクター表現を生成するように構成された第1再定式化モジュール;
前記第2ベクター表現および前記第1再定式化されたベクター表現に基づいて第5ベクター表現を生成するように構成された第2読み取りモジュール;
前記第1再定式化されたベクター表現に基づいて前記質問に対する第2再定式化されたベクター表現を生成するように構成された第2再定式化モジュール;および
前記第2再定式化されたベクター表現に基づいて前記質問に対する応答を決定し、前記ネットワークを通じて前記コンピューティングデバイスに前記応答を伝送するように構成された応答モジュール;
を含む質問応答システム。 - 前記第1エンコーダモジュールおよび前記第2エンコーダモジュールのそれぞれは、単語レベルエンコーディング、文字レベルエンコーディング、および単語レベルエンベッディングと文字レベルエンコーディングの両方のうち一つを実行するように構成される、請求項1に記載の質問応答システム。
- 前記第1再定式化モジュールは、前記第2ベクター表現にさらに基づいて前記第1再定式化されたベクター表現を生成するように構成される、請求項1に記載の質問応答システム。
- 前記第2再定式化モジュールは、前記第2ベクター表現にさらに基づいて前記第2再定式化されたベクター表現を生成するように構成される、請求項1に記載の質問応答システム。
- 前記応答モジュールは、前記第2ベクター表現にさらに基づいて前記応答を生成するように構成される、請求項1に記載の質問応答システム。
- 前記第1ベクター表現の次元をあらかじめ決定された次元に調整するように構成されたマックスプーリングモジュールをさらに含む、請求項1に記載の質問応答システム。
- 前記第2ベクター表現および前記第2再定式化されたベクター表現に基づいて第5ベクター表現を生成するように構成された第3読み取りモジュール;および
前記第2再定式化されたベクター表現に基づいて前記質問に対する第3再定式化されたベクター表現を生成するように構成された第3再定式化モジュール;
をさらに含み、
前記応答モジュールは前記第3再定式化されたベクター表現に基づいて前記質問に対する前記応答を決定するように構成される、請求項1に記載の質問応答システム。 - 前記第1読み取りモジュールは、(a)前記文書のそれぞれの単語が応答範囲(answer span)の最初となる確率と(b)前記文書のそれぞれの単語が前記応答範囲の最終となる確率をそれぞれ表現する(a)第1セットの確率および(b)第2セットの確率を決定するように構成され、前記応答範囲は前記質問に正しく応答する前記文書の単語の範囲である、請求項1に記載の質問応答システム。
- 前記第1セットの確率および前記第2セットの確率に基づいて、前記第2ベクター表現のエントリが前記応答範囲の一部となる確率のアテンションベクターを決定するように構成された抽出アテンションモジュールをさらに含む、請求項8に記載の質問応答システム。
- 前記第1再定式化モジュールは、前記アテンションベクターの値に基づいて前記第2ベクター表現の加重値エントリを適用することによって加重化された第2ベクター表現を生成し、前記加重化された第2ベクター表現に基づいて前記第1再定式化されたベクター表現を決定するように構成される、請求項9に記載の質問応答システム。
- 前記第1ベクター表現の次元をあらかじめ決定された次元に調整するように構成されたマックスプーリングモジュールをさらに含み、
前記第1再定式化モジュールは、前記加重化された第2ベクター表現の次元を前記あらかじめ決定された次元に調整するように構成される、請求項10に記載の質問応答システム。 - 前記第1再定式化モジュールは双方向ゲートリカレントユニット(BiGRU)を含み、前記第2再定式化モジュールはBiGRUを含む、請求項1に記載の質問応答システム。
- 前記第2エンコーダモジュールは、単語レベルエンコーディングおよび文字レベルエンコーディングの結合に基づいて前記第2ベクター表現を生成するように構成される、請求項1に記載の質問応答システム。
- 前記応答モジュールは、前記応答がはいである第1確率、前記応答がいいえである第2確率、前記応答が前記文書の前記第2複数の単語中の前記単語の範囲である第3確率を決定するようにさらに構成される、請求項1に記載の質問応答システム。
- 前記応答モジュールは
前記第1確率が前記第2確率および前記第3確率より大きい場合、前記応答をはいに設定し;
前記第2確率が前記第1確率および前記第3確率より大きい場合、前記応答をいいえに設定し;
前記第3確率が前記第1確率および前記第2確率より大きい場合、前記応答を前記単語の範囲に設定するように構成される、請求項14に記載の質問応答システム。 - 前記コンピューティングデバイスをさらに含み、
前記コンピューティングデバイスは、
ディスプレイ上に前記応答をディスプレイすること;および
少なくとも一つのスピーカーを通じて前記応答を出力すること;
のうち少なくとも一つをするように構成される、請求項1に記載の質問応答システム。 - 前記コンピューティングデバイスをさらに含み、
前記コンピューティングデバイスはマイクロホンを通じて前記質問を受信するように構成される、請求項1に記載の質問応答システム。 - 前記応答モジュールは4個の双方向ゲートリカレントユニットおよび4個の完全結合階層を含む、請求項1に記載の質問応答システム。
- 訓練システムであって、
請求項1に記載された前記質問応答システム;および
質問に対する応答のサポート因子に関する第1損失、単語の範囲に関する第2損失、および応答の分類に関する第3損失を最小化することによって前記質問応答システムを訓練させるように構成された訓練モジュール;
を含む訓練システム。 - 質問応答システムであって、
ネットワークを通じてコンピューティングデバイスから第1複数の単語を含む質問を受信し、前記質問を第1ベクター表現でエンコーディングするための手段;
文書(D)を第2ベクター表現でエンコーディングするための手段であって、前記文書は第2複数の単語を含む、手段;
前記第1ベクター表現および前記第2ベクター表現に基づいて第3ベクター表現を生成するための手段;
前記第1ベクター表現に基づいて前記質問に対する第1再定式化されたベクター表現を生成するための手段;
前記第2ベクター表現および前記第1再定式化されたベクター表現に基づいて第5ベクター表現を生成するための手段;
前記第1再定式化されたベクター表現に基づいて前記質問に対する第2再定式化されたベクター表現を生成するための手段;および
前記第2再定式化されたベクター表現に基づいて前記質問に対する応答を決定し、前記ネットワークを通じて前記コンピューティングデバイスに前記応答を伝送するための手段;
を含む質問応答システム。 - 質問応答方法であって、
一つ以上のプロセッサによって、ネットワークを通じてコンピューティングデバイスから第1複数の単語を含む質問を受信し、前記質問を第1ベクター表現でエンコーディングする段階;
前記一つ以上のプロセッサによって、文書(D)を第2ベクター表現でエンコーディングする段階であって、前記文書は第2複数の単語を含む、段階;
前記一つ以上のプロセッサによって、前記第1ベクター表現および前記第2ベクター表現に基づいて第3ベクター表現を生成する段階;
前記一つ以上のプロセッサによって、前記第1ベクター表現に基づいて前記質問に対する第1再定式化されたベクター表現を生成する段階;
前記一つ以上のプロセッサによって、前記第2ベクター表現および前記第1再定式化されたベクター表現に基づいて第5ベクター表現を生成する段階;
前記一つ以上のプロセッサによって、前記第1再定式化されたベクター表現に基づいて前記質問に対する第2再定式化されたベクター表現を生成する段階;
前記一つ以上のプロセッサによって、前記第2再定式化されたベクター表現に基づいて前記質問に対する応答を決定する段階;および
前記一つ以上のプロセッサによって、前記ネットワークを通じて前記コンピューティングデバイスに前記応答を伝送する段階を含む、質問応答方法。 - 文書を使って質問に応答するためのシステムであって、
(A)順次的なホップの複数のコンポーネントであって、第1コンポーネントホップは第2コンポーネントホップと順次カップリングされ、
(a)前記第1コンポーネントホップは第1再定式化モジュールにカップリングされた第1読み取りモジュールを含み、
(i)前記第1読み取りモジュールは前記質問および前記文書を受信し、前記文書の第1質問認識表現を前記第1再定式化モジュールに出力するように構成され、
(ii)前記第1再定式化モジュールは前記文書の前記第1質問認識表現から要素を抽出し、前記質問の第1アップデート表現を演算するように構成され、
(b)前記第2コンポーネントホップは第2再定式化モジュールにカップリングされた第2読み取りモジュールを含み、
(i)前記第2読み取りモジュールは前記質問の前記第1アップデートされた表現および前記文書を受信し、前記文書の第2質問認識表現を前記第2再定式化モジュールに出力するように構成され、
(ii)前記第2再定式化モジュールは前記文書の前記第2質問認識表現から要素を抽出し、前記質問の第2アップデート表現を演算するように構成され、複数のコンポーネント;
(B)複数の並列ヘッドであって、前記複数の並列ヘッドそれぞれは、(A)前記順次的なホップの複数のコンポーネントの独立的なインスタンスを含む、複数の並列ヘッド;および
(C)応答モジュール;
を含み、前記応答モジュールは
前記複数の並列ヘッドによって出力された前記文書のアップデートされた表現をそれぞれ受信し;
前記文書の前記アップデートされた表現に基づいて、前記質問に対する応答および前記質問に対する前記応答の、前記文書内のサポート因子を決定するように構成される、システム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062971100P | 2020-02-06 | 2020-02-06 | |
US62/971,100 | 2020-02-06 | ||
US17/015,501 US11893060B2 (en) | 2020-02-06 | 2020-09-09 | Latent question reformulation and information accumulation for multi-hop machine reading |
US17/015,501 | 2020-09-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021125217A true JP2021125217A (ja) | 2021-08-30 |
Family
ID=77273480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020160062A Pending JP2021125217A (ja) | 2020-02-06 | 2020-09-24 | マルチホップ機械読み取りのための潜在質問再定式化および情報蓄積 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11893060B2 (ja) |
JP (1) | JP2021125217A (ja) |
KR (1) | KR20210100517A (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11893060B2 (en) * | 2020-02-06 | 2024-02-06 | Naver Corporation | Latent question reformulation and information accumulation for multi-hop machine reading |
US11727209B2 (en) * | 2020-04-27 | 2023-08-15 | Adobe Inc. | Systems for role classification |
CN112257393B (zh) * | 2020-12-22 | 2021-04-13 | 北京百度网讯科技有限公司 | 实现文本生成的方法、装置、设备和介质 |
US11520815B1 (en) * | 2021-07-30 | 2022-12-06 | Dsilo, Inc. | Database query generation using natural language text |
CN113836283B (zh) * | 2021-09-24 | 2024-04-12 | 上海金仕达软件科技股份有限公司 | 答案的生成方法、装置、电子设备及存储介质 |
CN114254107B (zh) * | 2021-11-30 | 2023-03-24 | 重庆邮电大学 | 一种事件抽取系统及方法 |
US20230316000A1 (en) * | 2022-04-05 | 2023-10-05 | Nvidia Corporation | Generation of conversational responses using neural networks |
CN114780707B (zh) * | 2022-06-21 | 2022-11-22 | 浙江浙里信征信有限公司 | 基于多跳推理联合优化的多跳问题回答方法 |
CN115114932B (zh) * | 2022-06-24 | 2024-06-28 | 重庆邮电大学 | 一种基于关键词的多粒度中文短文本匹配方法 |
CN117033613B (zh) * | 2023-08-18 | 2024-05-14 | 中航信移动科技有限公司 | 一种应答文本的生成方法、电子设备及存储介质 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10963789B2 (en) * | 2016-11-28 | 2021-03-30 | Conduent Business Services, Llc | Long-term memory networks for knowledge extraction from text and publications |
US10839790B2 (en) * | 2017-02-06 | 2020-11-17 | Facebook, Inc. | Sequence-to-sequence convolutional architecture |
US11620506B2 (en) * | 2017-09-18 | 2023-04-04 | Koninklijke Philips N.V. | Condensed memory networks |
US11170287B2 (en) * | 2017-10-27 | 2021-11-09 | Salesforce.Com, Inc. | Generating dual sequence inferences using a neural network model |
US11227218B2 (en) * | 2018-02-22 | 2022-01-18 | Salesforce.Com, Inc. | Question answering from minimal context over documents |
GB201803805D0 (en) * | 2018-03-09 | 2018-04-25 | Cambridge Entpr Ltd | Smart Stethoscopes |
US11630987B2 (en) * | 2018-04-30 | 2023-04-18 | International Business Machines Corporation | Neural belief reasoner |
US11076039B2 (en) * | 2018-06-03 | 2021-07-27 | Apple Inc. | Accelerated task performance |
US11514915B2 (en) * | 2018-09-27 | 2022-11-29 | Salesforce.Com, Inc. | Global-to-local memory pointer networks for task-oriented dialogue |
WO2020069533A1 (en) * | 2018-09-29 | 2020-04-02 | Brainworks | Method, machine-readable medium and system to parameterize semantic concepts in a multi-dimensional vector space and to perform classification, predictive, and other machine learning and ai algorithms thereon |
US20200134449A1 (en) * | 2018-10-26 | 2020-04-30 | Naver Corporation | Training of machine reading and comprehension systems |
US10853394B2 (en) * | 2018-11-02 | 2020-12-01 | Optum, Inc. | Method, apparatus and computer program product for a hybrid question-answering (QA) system with a question classification model |
US11544259B2 (en) * | 2018-11-29 | 2023-01-03 | Koninklijke Philips N.V. | CRF-based span prediction for fine machine learning comprehension |
CN109754012A (zh) * | 2018-12-29 | 2019-05-14 | 新华三大数据技术有限公司 | 实体语义关系分类方法、模型训练方法、装置及电子设备 |
US11727243B2 (en) * | 2019-01-30 | 2023-08-15 | Baidu Usa Llc | Knowledge-graph-embedding-based question answering |
US10937416B2 (en) * | 2019-02-01 | 2021-03-02 | International Business Machines Corporation | Cross-domain multi-task learning for text classification |
US11366969B2 (en) * | 2019-03-04 | 2022-06-21 | Salesforce.Com, Inc. | Leveraging language models for generating commonsense explanations |
DK180129B1 (en) * | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11657094B2 (en) * | 2019-06-28 | 2023-05-23 | Meta Platforms Technologies, Llc | Memory grounded conversational reasoning and question answering for assistant systems |
US11442992B1 (en) * | 2019-06-28 | 2022-09-13 | Meta Platforms Technologies, Llc | Conversational reasoning with knowledge graph paths for assistant systems |
US11271876B2 (en) * | 2019-08-22 | 2022-03-08 | Adobe Inc. | Utilizing a graph neural network to identify supporting text phrases and generate digital query responses |
US11113479B2 (en) * | 2019-09-12 | 2021-09-07 | Adobe Inc. | Utilizing a gated self-attention memory network model for predicting a candidate answer match to a query |
US11423093B2 (en) * | 2019-09-25 | 2022-08-23 | Microsoft Technology Licensing, Llc | Inter-document attention mechanism |
US11132994B1 (en) * | 2019-11-05 | 2021-09-28 | Amazon Technologies, Inc. | Multi-domain dialog state tracking |
US11461613B2 (en) * | 2019-12-05 | 2022-10-04 | Naver Corporation | Method and apparatus for multi-document question answering |
US11501080B2 (en) * | 2019-12-30 | 2022-11-15 | Accenture Global Solutions Limited | Sentence phrase generation |
US11288324B2 (en) * | 2020-01-22 | 2022-03-29 | Adobe Inc. | Chart question answering |
US11893060B2 (en) * | 2020-02-06 | 2024-02-06 | Naver Corporation | Latent question reformulation and information accumulation for multi-hop machine reading |
-
2020
- 2020-09-09 US US17/015,501 patent/US11893060B2/en active Active
- 2020-09-23 KR KR1020200122885A patent/KR20210100517A/ko unknown
- 2020-09-24 JP JP2020160062A patent/JP2021125217A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US11893060B2 (en) | 2024-02-06 |
US20210256069A1 (en) | 2021-08-19 |
KR20210100517A (ko) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021125217A (ja) | マルチホップ機械読み取りのための潜在質問再定式化および情報蓄積 | |
CN109033068B (zh) | 基于注意力机制的用于阅读理解的方法、装置和电子设备 | |
KR101950985B1 (ko) | 휴먼 인스파이어드된 간단한 질문 응답(hisqa)을 위한 시스템 및 방법 | |
CN106997370B (zh) | 基于作者的文本分类和转换 | |
CN106910497B (zh) | 一种中文词语发音预测方法及装置 | |
US20170351663A1 (en) | Iterative alternating neural attention for machine reading | |
US11475225B2 (en) | Method, system, electronic device and storage medium for clarification question generation | |
CN113127624B (zh) | 问答模型的训练方法及装置 | |
CN108604311B (zh) | 利用层级式外部存储器的增强神经网络 | |
KR101896973B1 (ko) | 기계학습 모델을 이용한 자연어 생성 시스템, 방법, 및 컴퓨터 판독가능매체 | |
US11875120B2 (en) | Augmenting textual data for sentence classification using weakly-supervised multi-reward reinforcement learning | |
CN114676234A (zh) | 一种模型训练方法及相关设备 | |
US10872208B2 (en) | Sentence conversion system, sentence conversion method, and information storage medium | |
CN113434683A (zh) | 文本分类方法、装置、介质及电子设备 | |
CN117216544A (zh) | 模型训练方法、自然语言处理方法、装置及存储介质 | |
CN114462425B (zh) | 社交媒体文本处理方法、装置、设备及存储介质 | |
CN116341564A (zh) | 基于语义理解的问题推理方法和装置 | |
CN114492661B (zh) | 文本数据分类方法和装置、计算机设备、存储介质 | |
CN112307738B (zh) | 用于处理文本的方法和装置 | |
CN116680575B (zh) | 模型处理方法、装置、设备及存储介质 | |
Chen | [Retracted] Analysis of Intelligent Translation Systems and Evaluation Systems for Business English | |
CN113704466B (zh) | 基于迭代网络的文本多标签分类方法、装置及电子设备 | |
CN113591493B (zh) | 翻译模型的训练方法及翻译模型的装置 | |
JP7473583B2 (ja) | 長い文書の要約のためのモデルグローバル化 | |
KR102510645B1 (ko) | 한글 단어 임베딩에서의 어휘 밖 단어표현을 처리하기 위한 방법, 이를 수행하기 위한 기록 매체 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20201014 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240828 |