JP2021157842A - 質問の答えの決定方法、装置、機器及び記憶媒体 - Google Patents

質問の答えの決定方法、装置、機器及び記憶媒体 Download PDF

Info

Publication number
JP2021157842A
JP2021157842A JP2021106452A JP2021106452A JP2021157842A JP 2021157842 A JP2021157842 A JP 2021157842A JP 2021106452 A JP2021106452 A JP 2021106452A JP 2021106452 A JP2021106452 A JP 2021106452A JP 2021157842 A JP2021157842 A JP 2021157842A
Authority
JP
Japan
Prior art keywords
question
text
identifier
question set
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021106452A
Other languages
English (en)
Other versions
JP7262519B2 (ja
Inventor
ユーグワーン・チェン
Yuguang Chen
シヤオジン・ジョウ
Xiaojin Zhou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021157842A publication Critical patent/JP2021157842A/ja
Application granted granted Critical
Publication of JP7262519B2 publication Critical patent/JP7262519B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/52Multiplying; Dividing
    • G06F7/523Multiplying only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】人工知能、深層学習、機械の質問応答、知識グラフ及びイベントグラフの分野における、質問の答えの決定方法、装置、機器、記憶媒体及びコンピュータプログラム製品を提供する。【解決手段】質問の答えの決定方法は、第1テキスト及び第1テキストに関連する質問セットを含む、質問セット内の複数の質問を区切る第1区切り識別子を有する第1入力を取得することと、第1区切り識別子の第1入力での位置を指示する質問インデックス及び質問セットに対する、第1入力内の質問セットを選別するための質問マスクを決定することと、質問インデックス、質問マスク及び読解モデルに基づいて、複数の質問にそれぞれ対応する複数の答えを生成するために、第1入力に対応する第1出力を決定することと、を含む。【効果】この方式によれば、質問に対する機械読解モデルの処理効率を改善することができる。【選択図】図2

Description

本開示は、データ処理の分野に関し、特に、人工知能、深層学習、機械の質問応答、知識グラフ及びイベントグラフの分野に関し、且つより具体的には、質問の答えの決定方法、装置、機器、記憶媒体及びコンピュータプログラム製品に関する。
コンピュータ技術の発展に伴って、現在、人工知能技術に基づいて様々なデータを処理することができる技術的解決策がある。例えば、機械読解技術を利用して回答対象質問の答えを与えることができる。機械読解(本明細書において、読解質問応答又は読解と呼ばれる場合もある)は、機械に自然言語テキストを理解させ、質問とドキュメントが与えられた場合に、対応する答えを回答する技術である。該技術は、テキスト質問応答、知識グラフ及びイベントグラフの情報抽出、対話システム等の様々な分野に適用することができ、近年の研究のホットスポットとなっている。いくつかの解決策では、読解モデルは、回答対象質問の答えとして、ドキュメントのテキストから1つの断片を決定することができる。しかしながら、読解モデルは、通常、一度に1つのテキスト及び対応する1つの質問しか処理できず、同じテキストに対して、複数の回答対象質問がある場合、該読解モデルによって複数回で処理し、毎回1つの質問に対する答えのみを決定する必要がある。従って、複数の回答対象質問を効率よく処理することができる解決策が求められている。
本開示は、質問の答えの決定方法、装置、機器、記憶媒体及びコンピュータプログラム製品を提供する。
本開示の第1態様によれば、質問の答えの決定方法を提供する。該方法は、第1テキスト、及び第1テキストに関連する質問セットを含む、質問セット内の複数の質問を区切る第1区切り識別子を有する第1入力を取得することと、第1区切り識別子の第1入力での位置を指示する質問インデックス、及び質問セットに対する、第1入力内の質問セットを選別するための質問マスクを決定することと、質問インデックス、質問マスク及び読解モデルに基づいて、複数の質問にそれぞれ対応する複数の答えを生成するために、第1入力に対応する第1出力を決定することとを含む。
本開示の第2態様によれば、読解モデルのトレーニング方法を提供する。該方法は、第1テキスト、及び前記第1テキストに関連する質問セットを含むトレーニングデータを取得することと、本開示の第1態様に係る方法を利用して、前記複数の答えを生成することと、前記複数の答えと対応する複数の正解の答えとの間の差異に基づいて、前記読解モデルのパラメータを更新して、前記読解モデルをトレーニングすることとを含む。
本開示の第3態様によれば、質問の答えの決定装置を提供する。該装置は、第1テキスト、及び第1テキストに関連する質問セットを含む、質問セット内の複数の質問を区切る第1区切り識別子を有する第1入力を取得するように構成される入力取得モジュールと、第1区切り識別子の第1入力での位置を指示する質問インデックス、及び質問セットに対する、第1入力内の質問セットを選別するための質問マスクを決定するように構成される質問セット前処理モジュールと、質問インデックス、質問マスク及び読解モデルに基づいて、複数の質問にそれぞれ対応する複数の答えを生成するために、第1入力に対応する第1出力を決定するように構成される出力決定モジュールと、を備える。
本開示の第4態様によれば、第1テキスト、及び第1テキストに関連する質問セットを含むトレーニングデータを取得するように構成されるデータ取得モジュールと、本開示の第1態様に係る方法を利用して、複数の答えを生成するように構成される第2答え生成モジュールと、複数の答えと対応する複数の正解の答えとの間の差異に基づいて、読解モデルのパラメータを更新して、読解モデルをトレーニングするように構成されるトレーニングモジュールと、を備える読解モデルのトレーニング装置を提供する。
本開示の第5態様によれば、少なくとも1つのプロセッサと、少なくとも1つのプロセッサと通信可能に接続されたメモリとを備え、該メモリは、少なくとも1つのプロセッサによって実行されると、少なくとも1つのプロセッサに本開示の第1態様及び/又は第2態様に係る方法を実行させるための、少なくとも1つのプロセッサによって実行可能な命令が記憶される電子機器を提供する。
本開示の第6態様によれば、コンピュータに本開示の第1態様及び/又は第2態様に係る方法を実行させるためのコンピュータ命令が記憶される非一時的なコンピュータ読み取り可能な記憶媒体を提供する。
本開示の第7態様によれば、コンピュータプログラム命令を含み、該コンピュータプログラム命令がプロセッサによって実行されると本開示の第1態様及び/又は第2態様に係る方法を実現させるコンピュータプログラム製品を提供する。
本願の技術によれば、質問に対する機械読解モデルの処理効率を改善することができる。
理解すべきなのは、本部分で説明された内容は、本開示の実施例の主要な又は重要な特徴を特定することを意図するものではなく、また、本開示の範囲を限定するためのものでもない。本開示の他の特徴は、以下の明細書を通して容易に理解できるようになる。
図面及び以下の詳細な説明を参照することにより、本開示の各実施例の上記及び他の特徴、利点及び態様はより明瞭になる。図面では、同じ又は類似する図面記号は、同じ又は類似する要素を表す。
本開示の複数の実施例を実現できる例示的な環境の概略図を示す。 本開示の実施例に係る質問の答えの決定方法のフローチャートを示す。 本開示の実施例に係る第1出力の決定方法の概略図を示す。 本開示の実施例に係る第1出力に基づいて答えを決定する方法の概略図を示す。 本開示の実施例に係る質問マスク行列の一例の概略図を示す。 本開示の実施例に係る質問の答えの決定装置の概略ブロック図を示す。 本開示の実施例に係る読解モデルのトレーニング方法のフローチャートを示す。 本開示の実施例に係る読解モデルのトレーニング装置の概略ブロック図を示す。 本開示の複数の実施例を実施できる電子機器のブロック図を示す。
以下、図面を参照しながら本願の実施例を説明する。それには、理解しやすくするために、本願の実施例の各種の細部が含まれるが、これらが例示的なものに過ぎないと考えられるべきである。従って、当業者は、本願の範囲及び精神を逸脱することなく、ここで説明される実施例に対して様々な変更や修正を行うことができる。同様に、明確かつ簡潔にするために、以下の説明には公知の機能や構造についての説明は省略される。
本開示の実施例の説明において、「含む」という用語及びそれに類似する用語は、「含むが、これらに限定されない」という非限定の表現として理解されるべきである。「基づく」という用語は、「少なくとも部分的に基づく」と理解されるべきである。「一実施例」又は「該実施例」という用語は、「少なくとも1つの実施例」と理解されるべきである。「第1」、「第2」等の用語は異なる又は同一な対象を指してもよい。以下、他の明示的な定義及び暗示的な定義をさらに含む可能性がある。
上記で検討されたように、通常の解決策では、同じテキストに関連する複数の回答対象質問に対して、コンピューティング機器は複数回で読解モデルを利用して操作する必要があり、その結果、計算のオーバーヘッドが大きく、処理が遅いため、効率が高くない。
上記の問題及び他の潜在的な問題のうちの1つ又は複数を少なくとも部分的に解決するために、本開示の実施例は、質問の答えの決定の技術的解決策を提案する。該解決策では、テキスト及び該テキストに関連する複数の質問が、読解モデルが読み取り可能な方式で同時に読解モデルに入力され、出力の特徴表現を取得し、複数の質問に対するインデックスを使用して複数の質問の位置を指示し、これにより、出力の特徴表現から各質問に対する部分を決定することができ、且つ複数の質問を決定するためのマスクを使用して複数の質問の間のテキストの相互な干渉をシールドし、従って、各質問に対する特徴表現はテキストの特徴表現と相互作用して、各質問の答えを決定することができる。この方式で、読解モデルは、同じドキュメントに対する複数の質問を一回で処理することができ、これにより、質問に対する読解モデルの処理効率を向上させる。
以下、図面を参照しながら、本開示の実施例を具体的に説明する。
図1は、本開示の複数の実施例を実現できる例示的な環境100の概略図を示す。理解すべきなのは、環境100の構造及び機能は、本開示の範囲に対するいかなる制限を意味することなく、例示的な目的のみで説明されている。本開示の実施例は異なる構造及び/又は機能を有する環境にさらに適用することができる。
例示的な環境100はコンピューティング機器105を含んでもよい。コンピューティング機器105は、読解モデル120をトレーニングして、配置し、及び該読解モデル120を使用して予測するように構成されてもよい。いくつかの実施例では、読解モデル120は、自然言語処理(NLO)のための各種のモデルを使用して実現することができ、CNN(畳み込みニューラルネットワーク)に基づくモデル、RNN(再帰型ニューラルネットワーク)に基づくモデル、LSTM(長短期記憶人工ニューラルネットワーク)に基づくモデル、注意メカニズムに基づくモデル、例えば、BERT(Bidirectional Encoder Representation from Transformers)のトランスフォーマー(Transformer)に基づくモデルを含むが、これらに限定されない。
読解モデル120は、第1入力110に基づいて第1出力130を決定するように構成され、第1出力130は、第1入力110の特徴を指示することができ、すなわち、第1入力110の特徴表現を含む。例えば、第1入力110は識別子(tokenと呼ばれる場合もある)シーケンスの形式を採用することができ、第1出力130はベクトルの形を採用することができる。
第1入力110は第1テキスト112を含む。第1テキスト112は、一文、一段落、一文章、一ドキュメント、又はテキストを運び可能な他の任意の形であってもよい。いくつかの実施例では、第1テキスト112は、知識グラフにおける1つのエンティティエントリの説明テキストであってもよい。いくつかの実施例では、第1テキスト112は、イベントグラフにおける1つの情報イベントの説明テキストであってもよい。
第1入力110は第1テキスト112に関連する質問セット111をさらに含み、該質問セット111内の少なくとも1つの質問は、第1テキスト112の一部によって回答することができる。理解できるのは、質問セット111内のすべての質問がいずれも第1テキスト112の一部によって回答できるわけではない。第1入力110において、質問セット111内の複数の質問は一体に結合されて、第1テキスト112と共に読解モデル120によって処理される。いくつかの実施例では、質問セット111内の複数の質問の間は第1区切り識別子によって区切られ、質問セット111と第1テキスト112は第2区切り識別子によって区切られる。従って、第1入力110を介して、複数の質問は対応する第1テキスト112と同時に読解モデル120に入力されて、更なる処理を行うことができる。
第1出力130は第1テキスト112の特徴表現、及び質問セット111の特徴表現を含んでもよい。質問セット111の特徴表現は、質問セット111内の各質問の特徴表現を含んでもよい。本明細書において、特徴表現は、ベクトル又は行列の形で実現できるが、本願はこれに限定されない。
第1テキスト112の特徴、及び質問セット111内の各質問の特徴を指示できる第1出力130に基づいて、コンピューティング機器105は、質問セット111内の各質問に対する答え140を同時に決定することができる。
明瞭に説明するために、以下、図1の環境100を参照して本開示の実施例を説明する。理解すべきなのは、本開示の実施例は、図示されない付加的な動作をさらに含んでもよく、及び/又は、図示される動作を省略してもよい。本開示の範囲はこの点では限定されない。容易に理解するために、以下の説明に言及される具体的なデータは全て例示的なものであり、本開示の保護範囲を限定するためのものではない。
図2は、本開示のいくつかの実施例に係る質問の答えの決定方法200のフローチャートを示す。例えば、方法200は図1に示されるコンピューティング機器105によって実行されてもよい。以下、図3を参照しながら方法200の各動作を詳細に説明する。
ブロック202において、コンピューティング機器105は、第1テキスト、及び第1テキストに関連する質問セットを含む、質問セット内の複数の質問を区切る第1区切り識別子を有する第1入力を取得することができる。
具体的には、読解モデルによって処理する前に、該モデルが識別可能な第1入力を構築する必要があり、これは、質問セット内の複数の質問を一体に結合する方式で実現できる。複数の質問を区切り、それを単独で識別して対応する答えを得るために、各質問のテキストの先頭に、第1区切り識別子を設定することができる。
以下、図3を参照して、図3は、本開示のいくつかの実施例に係る第1出力の決定方法300の概略図を示す。
第1入力310は質問セット311を含み、質問セット311は順に並べられた第1質問3111〜第n質問311n(nは1より大きい整数である)を含む。第1質問3111の前の位置に、第1区切り識別子311Aがある。理解できるのは、図示されないが、第1質問に従った第2質問の前の位置に、同様に第1区切り識別子がある。類似に、第n質問311nの前の位置に、第1区切り識別子311Bがある。この方式で、複数の質問のテキストは一連の第1識別子によって区切られる。
いくつかの実施例では、結合された質問セットをさらに第1テキストと結合して、第1入力310を生成する必要がある。この場合に、第1入力310は、第1区切り識別子と異なり、第1テキスト312を質問セット311と区切る第2区切り識別子312Aをさらに含む。いくつかの実施例では、第1テキストは、単語分割によって複数のフレーズ、すなわち、第1フレーズ3121〜第mフレーズ312m(mは1より大きい整数である)に分割することができる。各フレーズは、明確な意味を有する文字又は単語であってもよい。
例えば、1つの具体例では、テキストは、「A社はレイオフの新しいラウンドで職員350名を解雇すると宣言した」であり、且つ該テキストに関連する質問セットに2つの質問があり、その第1質問が「解雇方が誰ですか?」、第2質問が「被解雇者が何人ですか?」であり、この場合に、第1入力は、「[第1区切り識別子] 解雇方が誰ですか?[第1区切り識別子] 被解雇者が何人ですか?[第2区切り識別子] A社はレイオフの新しいラウンドで職員350名を解雇すると宣言した」のを含むことを決定することできる。一例では、読解モデルがBERT事前トレーニングモデルに基づいて構築されると、第1区切り識別子は、分類器識別子CLS(classifer token)として定義されることができ、第2区切り識別子は文区切り識別子SEP(sentence separator)として定義されることができ、この場合に、読解モデルは、第1入力を、「[CLS] 解雇方が誰ですか?[CLS] 被解雇者が何人ですか?」及び「[SEP] A社はレイオフの新しいラウンドで職員350名を解雇すると宣言した」の2つの文に分割して処理することができる。
理解できるのは、読解モデルが自然言語処理用の他のモデルに基づいて構築されると、第1区切り識別子と第2区切り識別子は、該他のモデルが識別可能な他の識別子としてさらに定義されることができる。
図2に戻ると、ブロック204において、コンピューティング機器105は、第1区切り識別子の第1入力での位置を指示する質問インデックス、及び質問セットに対する、第1入力内の質問セットを選別するための質問マスクを決定することができる。
読解モデルが構築された第1入力を正確に処理できるために、質問セットの各質問の位置を指示できる(これは第1区切り識別子の位置によって指示できる)質問インデックスを構築し、第1入力内の質問セットを選別するための質問マスクを構築する必要があり、読解モデルが第1入力を処理する時に、質問セット内の複数の質問のテキストが互いに干渉しないようにする。
図3に示すように、いくつかの実施例では、コンピューティング機器105は、質問セット311に関連する質問インデックスベクトルを構築することができ、質問インデックスベクトル312内の1セットの第1要素は、質問セット311に含まれる各文字及び第1区切り識別子311A、311Bに対応して、質問セット311に含まれる各文字及び第1区切り識別子の位置を指示する。次に、コンピューティング機器105は、第1区切り識別子311A、311Bに対応する第1要素を第1値として設定することにより質問インデックス321を決定することができる。
また、上記第1入力が、「[第1区切り識別子] 解雇方が誰ですか?[第1区切り識別子] 被解雇者が何人ですか?[第2区切り識別子] A社はレイオフの新しいラウンドで職員350名を解雇すると宣言した」のを含むという具体的な例を使用して説明し、質問インデックスは第1区切り識別子の第1入力での位置、より具体的には、質問セットに対応するテキストでの位置を指示するために用いられる。質問インデックスはベクトルで表すことができ、該ベクトルにおいて、質問セットに対応する各文字、及び各区切り識別子は一つの位置を占め、すなわち、該ベクトル内の1つの要素(第1要素)である。従って、上記の具体的な例に対応する質問インデックスはベクトル[10000001000000000]で表すことができ、第1値1は区切り識別子を識別するために用いられてもよい。
いくつかの実施例では、コンピューティング機器105は、質問セット311に関連する第1データ項目を構築することができ、第1データ項目は行と列で表される1セットの第2要素を含み、1セットの第2要素は質問セット311に含まれる各文字及び第1区切り識別子311A、311Bに対応して、質問セットに含まれる各文字及び第1区切り識別子311A、311Bの位置を指示する。次に、コンピューティング機器105は、1セットの第2要素内の複数の第2要素を決定することができ、該複数の第2要素は質問セット311内のマスクされる複数の文字に対応し、且つコンピューティング機器105は、決定された複数の第2要素を第2値として設定することにより質問マスク322を決定することができる。
いくつかの実施例では、質問マスクは図5に示される質問マスク行列500の方式で実現でき、図5は、本開示のいくつかの実施例に係る質問マスク行列の1つの具体的な例の概略図を示す。
質問マスク行列500は、行と列の方式で配布される複数の要素(第2要素)を含む。いくつかの実施例では、行数と列数は同じであってもよい。
質問マスク行列500に対応する具体的な例では、質問セットは3つの質問を含み、第1質問が2つの文字を含み、第2質問が3つの文字を含み、第3質問が2つの文字を含み、質問セットに関連する第1テキストが4つの文字を含む。各質問の前に全て第1区切り識別子が設定され、且つ質問セットと第1テキストとの間に第2区切り識別子が設定されている。理解できるのは、第1テキスト及び質問セットに含まれる文字数に基づき、コンピューティング機器105により生成された質問マスク行列500は、より多くの又はより少ない要素を含んでもよい。
例えば、第1質問に対して、質問マスク行列の要素領域522内の要素の値を第2値(例えば、0)として設定することにより、読解モデルは要素領域523及び要素領域521のみを処理することができる。要素領域523は、例えば、2つの文字を有する第1質問、及びこれに関連する1つの第1区切り識別子に対応することができ、要素5231が第1区切り識別子を指示し、要素5232が第1質問に含まれる文字を指示する。要素領域521は、例えば、4つの文字を有する第1質問、及びこれに関連する1つの第2区切り識別子に対応することができる。
同様な方式で、さらに質問マスク行列を設定することにより、質問マスク行列500の要素領域524(第2質問に対応する)及び要素領域525(第3質問に対応する)に対応する質問内の文字は読解モデルにより処理されることができる。いくつかの実施例では、要素領域523、524及び525のそれぞれは上三角行列として設定することができる。
いくつかの実施例では、コンピューティング機器105はさらに、複数の質問の間の類似度を決定し、且つ該類似度(例えば、所定の閾値より大きい)に基づいて、マスクする必要がある複数の要素を決定することができる。例えば、第1質問と第2質問がそれぞれ時間及び日期に関連する場合、その答えは同じ又は類似する。これにより、コンピューティング機器105は、これらの質問の文字をマスクしないように選択することができる。
この方式で、コンピューティング機器105は例えば読解モデルによって質問セット内の第1質問、及び第1テキストを処理する時に、質問マスクを設定することにより、質問セット内の他の質問のテキストが読解モデルに対して不可視になり、従って、複数の質問が一体に結合された後、他の質問に含まれる文字による第1質問への影響を解消することができる。
図2に戻ると、ブロック206において、質問インデックス、質問マスク及び読解モデルに基づいて、複数の質問にそれぞれ対応する複数の答えを生成するために、第1入力に対応する第1出力を決定する。
図3に示すように、第1出力330は、読解モデル320により決定される第1入力に対する特徴表現であり、従って、それは質問セット311内の各質問3111〜311nに対する特徴表現、及び第1テキスト312に対する特徴表現を含んでもよい。
上記特徴表現は相互作用層335の処理を介して、複数の質問にそれぞれ対応する複数の答え340を決定することができる。相互作用層335によって実行される操作の1つの具体的な実現は以下で図4を参照しながら説明し、また、図4の説明と異なる方法で、上記特徴表現を処理して、テキストの形式で表される複数の答えを決定することができることを理解できる。
この方式で、読解モデルは、同じドキュメントに対する複数の質問を一回で処理することができ、これにより、質問に対する読解モデルの処理効率を向上させる。
図4は、本開示のいくつかの実施例に係る第1出力に基づいて答えを決定する方法の概略図を示す。
コンピューティング機器105は、第1出力430に基づいて、第1テキストに関連する第1テキスト特徴表現432、及び質問セットに関連する質問セット特徴表現431を決定することができる。読解モデルが複数の質問を一回で処理するため、その出力された質問セット特徴表現は複数の質問の特徴表現を含む。従って、コンピューティング機器105は、質問インデックス(それが複数の質問の所在位置を指示することができる)に基づいて、質問セット特徴表現431内のそれぞれ質問セットの各質問に関連する質問特徴表現(例えば、第1質問特徴表現4311〜第n質問特徴表現431n)を決定する(例えば、それを分割する)ことができる。次に、コンピューティング機器105は、第1テキスト特徴表現432、及び質問セット内の各質問に関連する質問特徴表現に基づいて、例えば、処理435を介して複数の答え440を生成することができる。
いくつかの実施例では、コンピューティング機器105は、質問セット内の各質問に関連する質問特徴表現4311〜431nに基づいて、行と列で表される第2データ項目433を構築することができ、第2データ項目433内の一行が質問セット内の1つの質問に関連する質問特徴表現に対応する。いくつかの実施例では、第1質問特徴表現4311〜第n質問特徴表現431nは、第2データ項目内の行に順に対応することができる。
次に、コンピューティング機器105は、第2データ項目433及び第1テキスト特徴表現432(例えば、第1フレーズ特徴表現4321〜第mフレーズ特徴表現4320mを含む)に対して、例えば、第1操作を行う処理435により、行と列で表され、質問セットに関連する開始識別子要素S及び終止識別子要素Eを含む第3データ項目450を決定することができる。いくつかの実施例では、開始識別子要素Sと終止識別子要素Eは全て第1値(例えば、1)を有する。いくつかの実施例では、第1操作は、例えば、第2データ項目433及び第1テキスト特徴表現432に対して要素乗算を実行し、得られる結果を例えば多層パーセプトロン(MLP)のニューラルネットワークに送って処理435を実行して、第3データ項目450を取得することを含んでもよい。第3データ項目450はポインタとして、答えと第1テキストとの間の位置関係を指示することができる。
次に、コンピューティング機器105は、第3データ項目450に含まれる開始識別子要素及び終止識別子要素に基づき、第1テキストを利用して複数の答えを生成することができる。例えば、コンピューティング機器105は、第3データ項目内の、第1質問に関連する二行の要素451内の開始識別子S及び終止識別子Eに対応する要素の位置を識別して、第1テキスト内の、開始識別子S及び終止識別子Eの位置に対応する2つの位置を見つけ、これ(例えば、該2つの位置の間のテキストを利用する)により、第1答えを生成することができる。同様な方式で、コンピューティング機器105は、第3データ項目内の、第n質問に関連する二行の要素452内の開始識別子S及び終止識別子Eに対応する要素の位置を識別して、第1テキスト内の、開始識別子S及び終止識別子Eの位置に対応する2つの位置を見つけ、これにより、第n答えを生成することができる。
図6は、本開示の実施例に係る質問の答えの決定装置600の概略ブロック図を示す。図6に示すように、装置600は、第1テキスト、及び第1テキストに関連する質問セットを含む、質問セット内の複数の質問を区切る第1区切り識別子を有する第1入力を取得するように構成される入力取得モジュール602を備えてもよい。装置600は、第1区切り識別子の第1入力での位置を指示する質問インデックス、及び質問セットに対する、第1入力内の質問セットを選別するための質問マスクを決定するように構成される質問セット前処理モジュール604をさらに備えてもよい。装置600は、質問インデックス、質問マスク及び読解モデルに基づいて、複数の質問にそれぞれ対応する複数の答えを生成するために、第1入力に対応する第1出力を決定するように構成される出力決定モジュール606をさらに備えてもよい。
いくつかの実施例では、第1入力は、第1区切り識別子と異なり、第1テキストを質問セットと区切る第2区切り識別子をさらに含む。
いくつかの実施例では、質問セット前処理モジュール604は、質問セットに関連する質問インデックスベクトルを構築するように構成され、質問インデックスベクトル内の1セットの第1要素は質問セットに含まれる各文字及び第1区切り識別子に対応して、質問セットに含まれる各文字及び第1区切り識別子の位置を指示する質問インデックス構築モジュールと、第1区切り識別子に対応する第1要素を第1値として設定することにより、質問インデックスを決定するように構成される質問インデックス決定モジュールとをさらに備える。
いくつかの実施例では、質問セット前処理モジュール604は、質問セットに関連する第1データ項目を構築するように構成され、第1データ項目は行と列で表される1セットの第2要素を含み、1セットの第2要素が質問セットに含まれる各文字及び第1区切り識別子に対応して、質問セットに含まれる各文字及び第1区切り識別子の位置を指示する第1データ項目構築モジュールと、1セットの第2要素内の、質問セットに含まれる各文字に対応する複数の第2要素を決定するように構成される第2要素決定モジュールと、複数の第2要素を第1値として設定することにより、質問マスクを決定するように構成される質問マスク決定モジュールとをさらに備える。
いくつかの実施例では、装置600は、第1出力に基づいて、第1テキストに関連する第1テキスト特徴表現、及び質問セットに関連する質問セット特徴表現を決定するように構成される第1特徴表現決定モジュールと、質問インデックスに基づいて、質問セット特徴表現内の、それぞれ質問セット内の各質問に関連する質問特徴表現を決定するように構成される第2特徴表現決定モジュールと、第1テキスト特徴表現、及び質問セット内の各質問に関連する質問特徴表現に基づいて、複数の答えを生成するように構成される第1答え生成モジュールとをさらに備える。
いくつかの実施例では、答え生成モジュールは、質問セット内の各質問に関連する質問特徴表現に基づいて、行と列で表され、その一行が質問セット内の1つの質問に関連する質問特徴表現に対応する第2データ項目を構築するように構成される第2データ項目構築モジュールと、第2データ項目及び第1テキスト特徴表現に対して第1操作を行うことにより、行と列で表され、質問セットに関連する開始識別子要素及び終止識別子要素を含む第3データ項目を決定するように構成される第3データ項目決定モジュールとをさらに備え、答え生成モジュールは、開始識別子要素及び終止識別子要素に基づき、第1テキストを利用して複数の答えを生成するようにさらに構成される。
図7は、本開示の実施例に係る読解モデルのトレーニング方法のフローチャートを示す。
ブロック702において、コンピューティング機器105は、第1テキスト、及び第1テキストに関連する質問セットを含むトレーニングデータを取得することができる。
理解できるのは、読解モデルが読み取って正確に処理できるように、トレーニングデータは、図2のブロック202及び204に説明される方法で用意され得る。
ブロック704において、コンピューティング機器105は、前の図2〜図5に説明される方法を利用して、複数の答えを生成することができる。
ブロック706において、コンピューティング機器105は、複数の答えと対応する複数の正解の答えとの間の差異に基づいて、読解モデルのパラメータを更新して、読解モデルをトレーニングすることができる。
この方式で、読解モデルのトレーニングプロセスで、同じドキュメントに基づく複数の質問は、読解モデルのパラメータを更新するために複数の結果を一回で取得することができ、これにより、トレーニングに必要なデータ量を消減して、トレーニングの効率を改善することができる。
図8は、本開示の実施例に係る読解モデルのトレーニング装置の概略ブロック図を示し、図8に示すように、装置800は、第1テキスト、及び第1テキストに関連する質問セットを含むトレーニングデータを取得するように構成されるデータ取得モジュール802を備えてもよい。装置800は、前の図2〜図5に説明される方法を利用して、複数の答えを生成するように構成される第2答え生成モジュール804をさらに備えてもよい。装置800は、複数の答えと対応する複数の正解の答えとの間の差異に基づいて、読解モデルのパラメータを更新して、読解モデルをトレーニングするように構成されるトレーニングモジュール806をさらに備えてもよい。
本願の実施例によれば、本願は、電子機器、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム製品をさらに提供する。
図9は、本願の実施例に係る質問の答えの決定方法の電子機器900のブロック図である。電子機器は様々な形態のデジタルコンピュータを表すことを目的とし、例えば、ラップトップコンピュータ、デスクトップコンピュータ、作業台、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータである。電子機器は様々な形態のモバイル装置を表すこともでき、例えば、パーソナルデジタルアシスタント、セルラーホン、スマートフォン、ウェアラブル端末及び他の類似するコンピューティング装置である。本明細書に示される部材、それらの接続及び関係、並びにそれらの機能は例示的なものに過ぎず、本明細書に説明される、及び/又は、求められる本願の実現を制限することを意図するものではない。
図9に示すように、該電子機器は、1つ又は複数のプロセッサ901と、メモリ902と、高速インタフェースと低速インタフェースを含んで各部材を接続するためのインタフェースとを備える。各部材は、異なるバスで互いに接続され、且つ共通のマザーボードに取り付けられて又は必要に応じて他の方式で取り付けられてもよい。プロセッサは、電子機器内に実行される命令を処理することができ、メモリ内又はメモリ上に記憶されて外部入力/出力装置(例えば、インタフェースに結合された表示機器)上にGUIのグラフィック情報を表示する命令を含む。他の実施形態では、必要な場合、複数のプロセッサ及び/又は複数本のバスを複数のメモリと共に使用することができる。同様に、複数の電子機器を接続してもよく、各機器は必要な操作の一部を提供する(例えば、サーバシーケンス、1セットのブレードサーバ、又はマルチプロセッサシステムとする)。図9では、1つのプロセッサ901を例とする。
メモリ902は、本願に係る非一時的なコンピュータ読み取り可能な記憶媒体である。前記メモリは、前記少なくとも1つのプロセッサに本願に係る質問の答えの決定方法を実行させるための、少なくとも1つのプロセッサによって実行可能な命令を記憶する。本願の非一時的なコンピュータ読み取り可能な記憶媒体は、コンピュータに本願に係る質問の答えの決定方法を実行させるためのコンピュータ命令を記憶する。
メモリ902は非一時的なコンピュータ読み取り可能な記憶媒体として、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能プログラム及びモジュール、例えば、本願の実施例の質問の答えの決定方法に対応するプログラム命令/モジュール(例えば、図6に示される入力取得モジュール602、質問セット前処理モジュール604及び出力決定モジュール606、図8に示されるデータ取得モジュール802、第2答え生成モジュール804及びトレーニングモジュール806)を記憶するために用いられてもよい。プロセッサ901は、メモリ902内に記憶される非一時的なソフトウェアプログラム、命令及びモジュールを実行することにより、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち、上記の方法実施例の質問の答えの決定方法を実現する。
メモリ902は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができるプログラム記憶領域と、質問の答えを決定する電子機器の使用に応じて作成されたデータ等を記憶することができるデータ記憶領域とを含んでもよい。また、メモリ902は、高速ランダムアクセスメモリを含んでもよく、例えば、少なくとも1つの磁気ディスクメモリ、フラッシュメモリデバイス、又は、他の非一時的なソリッドステートストレージデバイスのような非一時的なメモリをさらに含んでもよい。いくつかの実施例では、メモリ902は、プロセッサ901に対して遠隔的に設置されたメモリを選択的に含んでもよく、これらの遠隔メモリは質問の答えを決定する電子機器にネットワークを介して接続されることができる。上記ネットワークの実例は、インターネット、企業イントラネット、ローカルエリアネットワーク、移動通信ネットワーク及びその組み合わせを含むが、これらに限定されない。
質問の答えを決定する電子機器は、入力装置903と出力装置904をさらに備えてもよい。プロセッサ901、メモリ902、入力装置903及び出力装置904は、バス又は他の方式で接続されることができ、図9ではバスによる接続を例とする。
入力装置903は、入力された数字又は文字情報を受信し、キーフレーズ識別モデルをトレーニングする電子機器のユーザ設定及び機能制御に関するキー信号入力を発生させてもよく、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、操作レバー等の入力装置である。出力装置904は、表示機器、補助照明装置(例えば、LED)及び触覚フィードバック装置(例えば、振動モーター)等を含んでもよい。該表示機器は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むが、これらに限定されない。いくつかの実施形態では、表示機器はタッチスクリーンであってもよい。
ここで説明されるシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、専用ASIC(専用集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現されてもよい。これらの様々な実施形態は、少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステムにおいて実行可能及び/又は解釈可能な1つ又は複数のコンピュータプログラムにおける実現を含んでもよく、該プログラム可能なプロセッサは、専用又は汎用のプログラム可能なプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、且つデータ及び命令を該記憶システム、該少なくとも1つの入力装置、及び該少なくとも1つの出力装置に送信することができる。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラム可能なプロセッサの機械命令を含み、且つ高レベルのプロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械言語を利用してこれらのコンピュータプログラムを実施することができる。本明細書で使用されるように、「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」という用語は、機械命令及び/又はデータをプログラム可能なプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号としての機械命令を受信する機械読み取り可能な媒体を含む。「機器読み取り可能な信号」という用語は、機械命令及び/又はデータをプログラム可能なプロセッサに提供するための任意の信号を指す。
ユーザとの相互作用を提供するために、ここで説明されるシステム及び技術をコンピュータにおいて実施することができ、該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニター)と、ユーザがそれを介して入力をコンピュータに提供できるキーボード及びポインティング装置(例えば、マウス又はトラックボール)とを有する。他の種類の装置はさらにユーザとの相互作用を提供するために用いられてもよく、例えば、ユーザに対して提供されるフィードバックは、任意の形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、且つ任意の形態(音響入力、音声入力又は、触覚入力を含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術を、バックグラウンド部材を含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェア部材を含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンド部材を含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はインターネットブラウザを有するユーザコンピュータであり、ユーザは該グラフィカルユーザインタフェース又は該インターネットブラウザによって、ここで説明されるシステム及び技術の実施形態と相互作用することができる)、又はこのようなバックグラウンド部材、ミドルウェア部材、又はフロントエンド部材の組み合わせのいずれかを含むコンピューティングシステムにおいて実施することができる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)を介してシステムの部材を相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットを含む。
コンピュータシステムはクライアント及びサーバを含んでもよい。クライアントとサーバは、一般的に互いに離れ、且つ通常、通信ネットワークを介して相互作用する。クライアントとサーバの関係は、対応するコンピュータにおいて実行され且つ互いにクライアント−サーバ関係を有するコンピュータプログラムによって発生される。
本願の実施例に係る技術的解決策によれば、コンピューティング機器は例えば読解モデルによって質問セット内の第1質問、及び第1テキストを処理する時に、質問マスクを設定することにより、質問セット内の他の質問のテキストが読解モデルに対して不可視になり、従って、複数の質問が一体に結合された後、他の質問に含まれる文字による第1質問への影響を解消することができる。
理解すべきなのは、上記に示される様々な形態のプロセスを使用して、ステップを再ソートし、追加し又は削除することができる。例えば、本願に記載の各ステップは、本願に開示されている技術的解決策の所望の結果を実現できる限り、並列的に実行されてもよく、順に実行されてもよく、又は異なる順序で実行されてもよく、本明細書は、これに対して限定しない。
上記具体的な実施形態は、本願の保護範囲を限定するものではない。当業者は、設計要件及び他の要因に基づき、様々な修正、組み合わせ、サブ組み合わせ及び代替を行うことができることを理解すべきである。本願の精神及び原則内に行った修正、同等置換及び改良等は、いずれも本願の保護範囲に属すべきである。

Claims (17)

  1. 質問の答えの決定方法であって、
    第1テキスト、及び前記第1テキストに関連する質問セットを含む、前記質問セット内の複数の質問を区切る第1区切り識別子を有する第1入力を取得することと、
    前記第1区切り識別子の前記第1入力での位置を指示する質問インデックス、及び前記質問セットに対する、前記第1入力内の前記質問セットを選別するための質問マスクを決定することと、
    前記質問インデックス、前記質問マスク及び読解モデルに基づいて、前記複数の質問にそれぞれ対応する複数の答えを生成するために、前記第1入力に対応する第1出力を決定することとを含む、質問の答えの決定方法。
  2. 前記第1入力は、前記第1区切り識別子と異なり、前記第1テキストを前記質問セットと区切る第2区切り識別子をさらに含む請求項1に記載の方法。
  3. 前記質問インデックスの決定は、
    前記質問セットに関連する質問インデックスベクトルを構築することであって、前記質問インデックスベクトル内の1セットの第1要素は前記質問セットに含まれる各文字及び前記第1区切り識別子に対応して、前記質問セットに含まれる各文字及び前記第1区切り識別子の位置を指示することと、
    前記第1区切り識別子に対応する第1要素を第1値として設定することにより、前記質問インデックスを決定することとを含む請求項1に記載の方法。
  4. 前記質問マスクの決定は、
    前記質問セットに関連する第1データ項目を構築することであって、前記第1データ項目は行と列で表される1セットの第2要素を含み、前記1セットの第2要素が前記質問セットに含まれる各文字及び前記第1区切り識別子に対応して、前記質問セットに含まれる各文字及び前記第1区切り識別子の位置を指示することと、
    前記1セットの第2要素内の、前記質問セット内のマスクされる複数の文字に対応する複数の第2要素を決定することと、
    前記複数の第2要素を第2値として設定することにより、前記質問マスクを決定することとを含む、請求項1に記載の方法。
  5. 前記方法は、
    前記第1出力に基づいて、前記第1テキストに関連する第1テキスト特徴表現、及び前記質問セットに関連する質問セット特徴表現を決定することと、
    前記質問インデックスに基づいて、前記質問セット特徴表現内の、それぞれ前記質問セット内の各質問に関連する質問特徴表現を決定することと、
    第1テキスト特徴表現、及び前記質問セット内の各質問に関連する質問特徴表現に基づいて、前記複数の答えを生成することとをさらに含む請求項1に記載の方法。
  6. 前記複数の答えを生成することは、
    前記質問セット内の各質問に関連する前記質問特徴表現に基づいて、行と列で表され、その一行が前記質問セット内の1つの質問に関連する質問特徴表現に対応する第2データ項目を構築することと、
    前記第2データ項目及び前記第1テキスト特徴表現に対して第1操作を行うことにより、行と列で表され、前記質問セットに関連する開始識別子要素及び終止識別子要素を含む第3データ項目を決定することと、
    前記開始識別子要素及び前記終止識別子要素に基づき、前記第1テキストを利用して前記複数の答えを生成することとを含む請求項5に記載の方法。
  7. 読解モデルのトレーニング方法であって、
    第1テキスト、及び前記第1テキストに関連する質問セットを含むトレーニングデータを取得することと、
    請求項1〜6のいずれか1項に記載の方法を利用して、前記複数の答えを生成することと、
    前記複数の答えと対応する複数の正解の答えとの間の差異に基づいて、前記読解モデルのパラメータを更新して、前記読解モデルをトレーニングすることとを含む読解モデルのトレーニング方法。
  8. 質問の答えの決定装置であって、
    第1テキスト、及び前記第1テキストに関連する質問セットを含む、前記質問セット内の複数の質問を区切る第1区切り識別子を有する第1入力を取得するように構成される入力取得モジュールと、
    前記第1区切り識別子の前記第1入力での位置を指示する質問インデックス、及び前記質問セットに対する、前記第1入力内の前記質問セットを選別するための質問マスクを決定するように構成される質問セット前処理モジュールと、
    前記質問インデックス、前記質問マスク及び読解モデルに基づいて、前記複数の質問にそれぞれ対応する複数の答えを生成するために、前記第1入力に対応する第1出力を決定するように構成される出力決定モジュールとを備える、質問の答えの決定装置。
  9. 前記第1入力は、前記第1区切り識別子と異なり、前記第1テキストを前記質問セットと区切る第2区切り識別子をさらに含む請求項8に記載の装置。
  10. 前記質問セット前処理モジュールは、
    前記質問セットに関連する質問インデックスベクトルを構築するように構成され、前記質問インデックスベクトル内の1セットの第1要素は前記質問セットに含まれる各文字及び前記第1区切り識別子に対応して、前記質問セットに含まれる各文字及び前記第1区切り識別子の位置を指示する質問インデックス構築モジュールと、
    前記第1区切り識別子に対応する第1要素を第1値として設定することにより、前記質問インデックスを決定するように構成される質問インデックス決定モジュールとをさらに備える請求項8に記載の装置。
  11. 前記質問セット前処理モジュールは、
    前記質問セットに関連する第1データ項目を構築するように構成され、前記第1データ項目は行と列で表される1セットの第2要素を含み、前記1セットの第2要素が前記質問セットに含まれる各文字及び前記第1区切り識別子に対応して、前記質問セットに含まれる各文字及び前記第1区切り識別子の位置を指示する第1データ項目構築モジュールと、
    前記1セットの第2要素内の、前記質問セット内のマスクされる複数の文字に対応する複数の第2要素を決定するように構成される第2要素決定モジュールと、
    前記複数の第2要素を第2値として設定することにより、前記質問マスクを決定するように構成される質問マスク決定モジュールとをさらに備える請求項8に記載の装置。
  12. 前記第1出力に基づいて、前記第1テキストに関連する第1テキスト特徴表現、及び前記質問セットに関連する質問セット特徴表現を決定するように構成される第1特徴表現決定モジュールと、
    前記質問インデックスに基づいて、前記質問セット特徴表現内の、それぞれ前記質問セット内の各質問に関連する質問特徴表現を決定するように構成される第2特徴表現決定モジュールと、
    第1テキスト特徴表現、及び前記質問セット内の各質問に関連する質問特徴表現に基づいて、前記複数の答えを生成するように構成される第1答え生成モジュールとをさらに備える請求項8に記載の装置。
  13. 前記答え生成モジュールは、
    前記質問セット内の各質問に関連する前記質問特徴表現に基づいて、行と列で表され、その一行が前記質問セット内の1つの質問に関連する質問特徴表現に対応する第2データ項目を構築するように構成される第2データ項目構築モジュールと、
    前記第2データ項目及び前記第1テキスト特徴表現に対して第1操作を行うことにより、行と列で表され、前記質問セットに関連する開始識別子要素及び終止識別子要素を含む第3データ項目を決定するように構成される第3データ項目決定モジュールとをさらに備え、且つ、
    前記答え生成モジュールは、前記開始識別子要素及び前記終止識別子要素に基づき、前記第1テキストを利用して前記複数の答えを生成するようにさらに構成される請求項12に記載の装置。
  14. 読解モデルのトレーニング装置であって、
    第1テキスト、及び前記第1テキストに関連する質問セットを含むトレーニングデータを取得するように構成されるデータ取得モジュールと、
    請求項1〜6のいずれか1項に記載の方法を利用して、前記複数の答えを生成するように構成される第2答え生成モジュールと、
    前記複数の答えと対応する複数の正解の答えとの間の差異に基づいて、前記読解モデルのパラメータを更新して、前記読解モデルをトレーニングするように構成されるトレーニングモジュールとを備える読解モデルのトレーニング装置。
  15. 電子機器であって、
    少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信可能に接続されたメモリとを備え、
    前記メモリは、前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに請求項1〜7のいずれか1項に記載の方法を実行させるための、前記少なくとも1つのプロセッサによって実行可能な命令が記憶される電子機器。
  16. コンピュータ命令を記憶する非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、前記コンピュータに請求項1〜7のいずれか1項に記載の方法を実行させるための非一時的なコンピュータ読み取り可能な記憶媒体。
  17. コンピュータプログラム製品であって、コンピュータプログラム命令を含み、前記コンピュータプログラム命令がプロセッサによって実行されると請求項1〜7のいずれか1項に記載の方法を実現させるコンピュータプログラム製品。
JP2021106452A 2020-12-01 2021-06-28 質問の答えの決定方法、装置、機器及び記憶媒体 Active JP7262519B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011388370.9 2020-12-01
CN202011388370.9A CN112541052B (zh) 2020-12-01 2020-12-01 确定问题的答案的方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2021157842A true JP2021157842A (ja) 2021-10-07
JP7262519B2 JP7262519B2 (ja) 2023-04-21

Family

ID=75015274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021106452A Active JP7262519B2 (ja) 2020-12-01 2021-06-28 質問の答えの決定方法、装置、機器及び記憶媒体

Country Status (5)

Country Link
US (1) US20210312308A1 (ja)
EP (1) EP3869382A3 (ja)
JP (1) JP7262519B2 (ja)
KR (1) KR20210082399A (ja)
CN (1) CN112541052B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113505207B (zh) * 2021-07-02 2024-02-20 中科苏州智能计算技术研究院 一种金融舆情研报的机器阅读理解方法及系统
US20230095180A1 (en) * 2021-09-29 2023-03-30 International Business Machines Corporation Question answering information completion using machine reading comprehension-based process

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132661A (ja) * 2000-10-20 2002-05-10 Mitsubishi Electric Corp 自動応答装置及び自動応答方法及び自動応答プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2006059082A (ja) * 2004-08-19 2006-03-02 Yokohama National Univ 文書要約システム及び文書要約方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム
US20160048514A1 (en) * 2014-08-13 2016-02-18 International Business Machines Corporation Handling information source ingestion in a question answering system
WO2019106965A1 (ja) * 2017-12-01 2019-06-06 日本電信電話株式会社 情報処理装置、情報処理方法、及びプログラム
CN111832277A (zh) * 2020-06-04 2020-10-27 北京百度网讯科技有限公司 阅读理解模型的训练方法及阅读理解处理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190007213A (ko) * 2017-07-12 2019-01-22 주식회사 마인즈랩 질문 배분 장치 및 질문 배분 방법
CN110020010A (zh) * 2017-10-10 2019-07-16 阿里巴巴集团控股有限公司 数据处理方法、装置及电子设备
US10878197B2 (en) * 2018-11-27 2020-12-29 International Business Machines Corporation Self-learning user interface with image-processed QA-pair corpus
CN110688491B (zh) * 2019-09-25 2022-05-10 暨南大学 基于深度学习的机器阅读理解方法、系统、设备及介质
CN111309889B (zh) * 2020-02-27 2023-04-14 支付宝(杭州)信息技术有限公司 用于文本处理的方法和装置
CN111382255B (zh) * 2020-03-17 2023-08-01 北京百度网讯科技有限公司 用于问答处理的方法、装置、设备和介质
CN111897934B (zh) * 2020-07-28 2024-03-29 腾讯科技(深圳)有限公司 问答对生成方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132661A (ja) * 2000-10-20 2002-05-10 Mitsubishi Electric Corp 自動応答装置及び自動応答方法及び自動応答プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2006059082A (ja) * 2004-08-19 2006-03-02 Yokohama National Univ 文書要約システム及び文書要約方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム
US20160048514A1 (en) * 2014-08-13 2016-02-18 International Business Machines Corporation Handling information source ingestion in a question answering system
WO2019106965A1 (ja) * 2017-12-01 2019-06-06 日本電信電話株式会社 情報処理装置、情報処理方法、及びプログラム
CN111832277A (zh) * 2020-06-04 2020-10-27 北京百度网讯科技有限公司 阅读理解模型的训练方法及阅读理解处理方法

Also Published As

Publication number Publication date
US20210312308A1 (en) 2021-10-07
KR20210082399A (ko) 2021-07-05
CN112541052A (zh) 2021-03-23
EP3869382A3 (en) 2021-12-29
EP3869382A2 (en) 2021-08-25
CN112541052B (zh) 2023-11-03
JP7262519B2 (ja) 2023-04-21

Similar Documents

Publication Publication Date Title
JP7481251B2 (ja) テキスト中のイベント抽出方法、装置、電子機器及び記憶媒体
EP3549069B1 (en) Neural network data entry system
US11403468B2 (en) Method and apparatus for generating vector representation of text, and related computer device
JP2021197137A (ja) モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム
KR20210040851A (ko) 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체
JP7169389B2 (ja) 文書タイトルツリーの構築方法、装置、電子設備、記憶媒体、及びプログラム
KR20210040319A (ko) 엔티티 링킹 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램
JP2022018095A (ja) マルチモーダル事前訓練モデル取得方法、装置、電子デバイス及び記憶媒体
JP7262571B2 (ja) 知識グラフのベクトル表現生成方法、装置及び電子機器
KR102573637B1 (ko) 엔티티 링킹 방법, 장치, 전자 기기 및 기록 매체
EP3822842A2 (en) Method and apparatus for generating semantic representation model, electronic device, and storage medium
US20210334669A1 (en) Method, apparatus, device and storage medium for constructing knowledge graph
EP3851977A1 (en) Method, apparatus, electronic device, and storage medium for extracting spo triples
CN114970522B (zh) 语言模型的预训练方法、装置、设备、存储介质
EP3885963A1 (en) Method and apparatus for determining causality, electronic device and storage medium
WO2014137672A2 (en) Probabilistic parsing
JP2022014429A (ja) 語義表現モデルの訓練方法、装置、デバイス及びコンピュータ記憶媒体
CN111666751B (zh) 训练文本扩充方法、装置、设备以及存储介质
US11216615B2 (en) Method, device and storage medium for predicting punctuation in text
JP2021157842A (ja) 質問の答えの決定方法、装置、機器及び記憶媒体
US11321370B2 (en) Method for generating question answering robot and computer device
KR20210148813A (ko) 의료 사실 검증 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN112329429B (zh) 文本相似度学习方法、装置、设备以及存储介质
CN111539222B (zh) 语义相似度任务模型的训练方法、装置、设备及存储介质
CN115688796B (zh) 用于自然语言处理领域中预训练模型的训练方法及其装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230411

R150 Certificate of patent or registration of utility model

Ref document number: 7262519

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150