JP2022008207A - トリプルサンプルの生成方法、装置、電子デバイス及び記憶媒体 - Google Patents

トリプルサンプルの生成方法、装置、電子デバイス及び記憶媒体 Download PDF

Info

Publication number
JP2022008207A
JP2022008207A JP2021103322A JP2021103322A JP2022008207A JP 2022008207 A JP2022008207 A JP 2022008207A JP 2021103322 A JP2021103322 A JP 2021103322A JP 2021103322 A JP2021103322 A JP 2021103322A JP 2022008207 A JP2022008207 A JP 2022008207A
Authority
JP
Japan
Prior art keywords
answer
question
paragraph text
trained
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021103322A
Other languages
English (en)
Inventor
リウ,ホンギュ
Hongyu Li
リウ,ジン
Jing Liu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022008207A publication Critical patent/JP2022008207A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Figure 2022008207000001
【課題】既存の方式で生成されたトリプル(Q、P、A)サンプルの正確度が悪いので、正確度が高いトリプルサンプルの生成方法を提供する。
【解決手段】トリプルサンプルの生成方法は、トリプルサンプルにおける段落テキストを取得しS101、段落テキストから少なくとも1つの答案セグメントを抽出しS102、段落テキストと各答案セグメントとに基づいて、それぞれ事前に訓練された語義表現モデルに基づいて訓練された質問生成モデルを用いて対応する質問を生成してトリプルサンプルを得るS103。
【選択図】図1

Description

本開示は、コンピュータ技術分野に関し、特に人工知能に基づく自然言語処理の技術分野、及びディープラーニング技術分野に関し、具体的にトリプルサンプルの生成方法、装置、電子デバイス、及び記憶媒体に関する。
自然言語処理(Natural Language Processing;NLP)では、質問生成技術とは、自然なテキストのパラグラフPを与え、パラグラフPからある質問可能な答案セグメントAを見つけ、その答案セグメントAに対して質問を行うことで質問Qを生成することである。質問生成技術を用いて、大量の自然なテキストから大規模な(Q、P、A)トリプルを生成的に得ることができる。これらのトリプルはパラグラフ序列、読解モデルの訓練に大量の訓練サンプルを提供し、人工でサンプルをマークするコストを節約することができる。それと共に、キー対(key-value;kv)検索の方式に従って検索、質問応答システムをサポートすることも可能である。
従来技術における(Q、P、A)トリプルのサンプル取得方法は、主に循環型ニューラルネットワーク(Recurrent Neural Network;RNN)、長短期記憶(Long Short-Term Memory;LSTM)ネットワーク又はTransformer等の従来のsequence-to-sequenceモデル構造を利用して、目標領域のデータセットにおいて直接に訓練を行う。そして、訓練されたモデルを用いて、提供されたパラグラフPと答案セグメントAから対応する生成質問Qを生成する。
しかし、目標領域のデータセットのデータ量が少ないため、訓練されたモデルの効果が望ましくなく、さらにこの訓練されたモデルを用いて対応する生成質問Qを生成した場合の正確度が悪く、既存の方式で生成されたトリプル(Q、P、A)サンプルの正確度が悪い。
上述問題を解決するために、本開示はトリプルサンプルの生成方法、装置、電子デバイス、及び記憶媒体を提供する。
本開示の一態様によれば、トリプルサンプルにおけるパラグラフテキストを取得ことと、前記パラグラフテキストから少なくとも1つの答案セグメントを抽出ことと、前記パラグラフテキスト及び各前記答案セグメントに基づいて、事前訓練された語義表現モデルに基づいて訓練された予め訓練された質問生成モデルを用いてそれぞれ対応する質問を生成して前記トリプルサンプルを得ることと、を含むトリプルサンプルの生成方法を提供する。
本開示の別の態様によれば、トリプルサンプルにおけるパラグラフテキストを取得する取得モジュールと、前記パラグラフテキストから少なくとも1つの答案セグメントを抽出する答案抽出モジュールと、前記パラグラフテキスト及び各前記答案セグメントに基づいて、事前訓練された語義表現モデルに基づいて訓練された予め訓練された質問生成モデルを用いてそれぞれ対応する質問を生成して前記トリプルサンプルを得る質問生成モジュールと、を備えるトリプルサンプルの生成装置を提供する。
本開示の別の態様によれば、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信接続されたメモリと、を備え、前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに上述の方法を実行させる電子デバイスを提供する。
本開示の別の態様によれば、コンピュータに上述した方法を実行させるためのコンピュータコマンドが記憶された非一時的なコンピュータ可読記憶媒体を提供する。
本願の技術によれば、事前に訓練された質問生成モデルは、事前訓練された語義表現モデルに基づいて訓練されたため、当該質問生成モデルの正確度は非常に良い。したがって、当該質問生成モデルを用いて生成された(Q、P、A)トリプルサンプルの正確度は非常に高い。
理解すべきなのは、本セクションで説明される内容は、本開示の実施形態の肝心又は重要な特徴を識別することを意図しておらず、本開示の範囲を制限することを意図していない。本開示の他の特徴は、以下の説明により容易に理解されるであろう。
図面は、本技術案をより良く理解するためのものであり、本願に制限されない。図面において、
本発明の第1実施形態に係る概略図である。 本発明の第2実施形態に係る概略図である。 図2に示した実施形態の一例を示す図である。 本発明の第3実施形態に係る概略図である。 本発明の第4実施形態に係る概略図である。 本発明の実施形態に係るトリプルサンプルの生成方法を実施するための電子デバイスのブロック図である。
以下、図面に基づいて、本開示の例示的な実施例を説明する。理解を容易にするために、本開示の実施例の様々な詳細が含まれており、それらは単なる例示と見なされるべきである。従って、当業者は、本開示の範囲及び精神から逸脱することなく、本明細書に記載の実施形態に対して様々な変更及び修正を行うことができることを認識するはずである。同様に、簡明のために、以下の説明では、よく知られた機能と構造の説明は省略される。
図1本発明の第1実施形態に係る概略図である。図1に示すように、本実施形態は、トリプルサンプルの生成方法を提供し、具体的に以下のステップを含むことができる。
S101において、トリプルサンプルにおけるパラグラフテキストを取得する。
本実施形態のトリプルサンプルの生成方法の実行主体は、トリプルサンプルの生成装置である。この装置は、電子エンティティであってもよく、使用時にコンピュータ装置上で動作してトリプルサンプルの生成を実現するソフトウェア統合によるアプリケーションであってもよい。
本実施形態のパラグラフテキストは、取得可能ないずれかの文章のパラグラフである。例えば、トリプルサンプルを生成するために、本実施形態では、様々な書籍、定期刊行物、雑誌のいずれかの文章を取得し、いずれかのパラグラフを抽出することにより、トリプルサンプルの生成を実現することができる。また、本実施例では、ネットワーク上のニュース、電子書籍、あるいはフォーラムなどのネットワークプラットフォームからいずれかの文章を取得し、文章中のいずれかのパラグラフテキストを抽出することにより、トリプルサンプルの生成を実現することもできる。
S102において、パラグラフテキストから少なくとも1つの答案セグメントを抽出する。
本実施形態のパラグラフテキストには、少なくとも1つの文が含まれる。通常の場合に、一つのパラグラフテキストに複数の文を含めることができる。パラグラフテキストの内容が豊富であるため、パラグラフテキストにおいて答案となり得る答案セグメントの数も少なくとも1つ含まれる。これに基づいて、パラグラフテキストから少なくとも1つの答案セグメントを抽出することができる。この場合にパラグラフテキストと各答案セグメントとが1セットの(P,A)を構成することができる。
S103において、パラグラフテキストと各答案セグメントに基づいて、それぞれ事前に訓練された質問生成モデルを用いて対応する質問を生成してトリプルサンプルを得る。この事前に訓練された質問生成モデルは、事前に訓練された語義表現モデルに基づいて訓練された。
上記で得られたパラグラフテキストと各答案セグメント、すなわち1セットの(P,A)に対して、事前に訓練された質問生成モデルを用いて対応する質問Qを生成することができる。この場合に(Q,P,A)トリプルが得られる。
本実施形態における事前に訓練された質問生成モデルは、事前に訓練された語義表現モデルに基づいて訓練され、すなわち、訓練のFine-tuning段階で、目標領域で収集された少量の(Q,P,A)トリプルサンプルを用いて、事前訓練(Pre-training)により得られた語義表現モデルを微調整して当該質問生成モデルを得る。この質問生成モデルは、新たに大量の訓練データを収集して生成タスク向けの事前訓練を実現することなく、事前に訓練された語義表現モデルを用いてFine-tuning段階の微調整により得られるため、構築コストが低く、且つ事前に訓練された語義表現モデルを採用しているため、正確度が非常に高い。従って、得られた当該質問生成モデルの効果も非常に高い。
オプションとして、本実施形態の当該語義表現モデルは、具体的に、Transformerベースの双方向符号化器(Bidirectional Encoder Representation from Transformers;BERT)又は知識強化語義表現モデル(Enhanced Representation from knowledge Integration;ERNIE)のような当該技術分野における既知の事前訓練モデルを使用することができる。
本実施形態の技術案によれば、取得された各パラグラフテキストPについて、対応する少なくとも1つの答案セグメントAを抽出することができ、さらに、各(P,A)セットに基づいて、上述の事前訓練された質問生成モデルを用いて対応するQを生成することにより、各(Q,P,A)トリプルサンプルを得ることができる。上記のスキームを使用すると、取得された大量のパラグラフテキストPに対して、大量の(Q,P,A)トリプルサンプルを生成することができる。本実施形態の技術案によれば、生成された(Q,P,A)トリプルサンプルの正確度が非常に高い。これらの(Q,P,A)トリプルサンプルは、パラグラフ順序付け、読解モデルの訓練として大量の訓練サンプルを提供し、人工によるサンプルの標識のコストを節約することができる。また、kv検索の方式に沿って、検索、質問応答システムをサポートすることも可能である。
本実施形態のトリプルサンプルの生成方法は、トリプルサンプルにおけるパラグラフテキストを取得し、パラグラフテキストから少なくとも1つの答案セグメントを抽出し、パラグラフテキストと各答案セグメントとに基づいて、それぞれ事前に訓練された質問生成モデルを用いて対応する質問を生成してトリプルサンプルを得る。本実施形態では、事前に訓練された質問生成モデルは、事前に訓練された語義表現モデルに基づいて訓練されるため、正確度が非常に良い。従って、この質問生成モデルを用いて生成された(Q,P,A)トリプルサンプルの正確度は非常に高い。
図2は本発明の第2実施形態に係る概略図である。図2に示すように、本実施形態のトリプルサンプルの生成方法は、上述した図1に示した実施形態の技術案に加えて、本開示の技術案をより詳細に説明する。図2に示すように、本実施形態のトリプルサンプルの生成方法は、具体的に以下のステップを含むことができる。
S201において、トリプルサンプルにおけるパラグラフテキストを取得する。
このステップの実施形態は、上述した図1に示した実施形態のステップS101の実現と同じであり、上述の実施形態の関連記載を参照でき、ここでは詳しく説明しない。
S202において、事前に訓練された語義表現モデルに基づいて訓練された事前訓練された答案選択モデルを用いて、パラグラフテキストから少なくとも1つの答案セグメントを抽出する。
このステップS202は、上述した図1に示された実施形態のステップS102の一実施形態である。この実施形態では、答案選択モデルを用いて、パラグラフから少なくとも1つの答案セグメントを抽出する。例えば、オプションとして、当該ステップS202は、具体的に以下のステップを含むことができる。
(1)事前に訓練された答案選択モデルを用いて、パラグラフテキストにおけるすべての答案候補セグメントが答案セグメントとなり得る確率を予測する。
(2)全ての候補答案セグメントから確率が最大となる少なくとも1つを少なくとも1つの答案セグメントとして選択する。
具体的には、本実施形態を実施する場合、答案選択モデルは、答案セグメントを抽出する際に、パラグラフテキストにおけるすべての候補答案セグメントを解析する必要がある。具体的には、パラグラフテキストをトークン化してT、T、……、TというN個のトークンを得ることができる。そして、各トークンは、単独で候補答案セグメントとしても良く、隣接する少なくとも1つのトークンと共に候補答案セグメントとしても良い。例えば、1番目のトークンから始めて、候補答案セグメントを分割可能なすべての可能な長さで、T、T、T、…、T…T、T、T、T、…、T…T、…、TN-2、TN-2N-1、TN-2N-1、TN-1、TN-1、Tという候補答案セグメントを全て得られる。本実施形態の答案選択モデルは、符号化層による符号化処理と予測層による予測とを経て、各答案候補セグメントに対する確率を予測することができる。次に、必要に応じて、その中から最も確率の高いTopN個を選択すべき答案セグメントとして選択することができる。ここで、当該Nは1以上の正整数であってよい。
上記の答案選択モデルを用いて答案セグメントを選別することにより、選別された候補答案セグメントの正確度を効果的に確保することにより、後続で抽出される(Q,P,A)トリプルサンプルの正確度を確保することができる。
また、オプションとして、上述した図1に示す実施形態のステップS102における「パラグラフテキストから少なくとも1つの答案セグメントを抽出する」ことは、具体的に、予め設定された答案セグメント抽出ルールに従って、パラグラフテキストから少なくとも1つの答案セグメントを抽出することであって良い。
例えば、本実施形態では、当該分野の専門家が、当該分野における全てのパラグラフテキストのうち答案となり得る答案セグメントを分析することにより、対応する答案セグメント抽出ルールを抽出し、さらに答案セグメント抽出ルールに基づいて、パラグラフテキストから少なくとも1つの答案セグメントを抽出することができる。具体的には、実際の必要に応じて、1つ、2つ、又は複数の答案セグメント抽出ルールを予め設定することができる。
このような答案セグメント抽出ルールを用いて答案セグメントを選別することにより、選別された答案セグメント候補の正確度も効果的に保証し、後続で抽出される(Q,P,A)トリプルサンプルの正確度を保証することができる。
S203において、各答案セグメントについて、質問生成モデルを用いて答案セグメントとパラグラフテキストに基づいて、予め設定されたシソーラスにおいて復号化して確率が最大の単語を質問の1番目の単語として取得する。
S204において、質問生成モデルを用いて、答案セグメント、パラグラフテキスト及び質問において復号化された最初のN個の単語に基づいて、予め設定されたシソーラスにおいて復号化を継続して確率が最大の単語を質問のN+1番目の単語として取得する。ここで、Nは1以上である。
S205において、N+1番目の単語がエンドキャラクタであるか否か、又は現在に得られているN+1個の単語の全長が予め設定された長さ閾値に達しているか否かを判断し、肯定の場合に、ステップS206を実行し、否定の場合に、ステップS204に戻る。
S206において、復号化の終了を確定し、N+1個の単語を復号順でスプライシングして質問を得る。
上述のステップS203~S206は、上述の図1に示された実施形態のステップS103の一実施形態である。
本実施形態では、この質問生成の過程で、質問中のすべての単語を一度に生成することではなく、1単語ずつ段階的に生成する。
たとえば、各答案セグメントについて、対応する質問を生成する過程で、抽出された答案セグメントとパラグラフテキストをこの質問生成モデルに入力する場合に、この質問生成モデルは、入力された情報に基づいて、あらかじめ設定されたシソーラスにおいて復号化して確率が最大の単語を質問の1番目の単語として取得することができる。ここで、当該予め設定されたシソーラスは、1つの分野のすべてのトークンを含む予め設定されたシソーラスであってよい。ここで、予め設定されたシソーラスは、質問生成モデル内に配置することができ、質問生成モデル外に配置するが質問生成モデルが使用されているときにいつでも呼び出すこともできる。
同様に、この質問生成モデルでは、ループ復号化の過程であり、2番目の単語を復号化することから、答案セグメント、パラグラフテキスト及びすでに復号化された前のN個の単語に基づいて、あらかじめ設定されたシソーラスにおいて復号化を継続して確率が最大の単語を質問のN+1番目の単語として取得する。Nは1以上である。
そして、2番目の単語を復号化してから、復号後に現在復号して得られたN+1番目の単語がエンドキャラクタであるか否かを検出するとともに、現在復号して得られたN+1個の単語の全長が予め設定された長さ閾値に達しているか否かを検出し、いずれかの条件を満たしていれば復号を停止し、このとき復号化されたN+1個の単語を復号順でスプライシングして生成すべき質問となる。さもなければ、ステップS204を用いて復号化を継続し、復号化が終了するまで同様にして質問を生成する。
例えば、図3は、図2に示す実施形態の一例を示す図である。図3に示すように、答案選択モデルと質問生成モデルにより一つの質問生成システムを構成することを例にする。ここで、答案選択モデルは、step1の作業を行い、与えられたテキストパラグラフPから答案セグメントAを選択する。質問生成モデルは、step2の作業を行い、テキストパラグラフPと答案セグメントAに基づいて復号化して対応する質問Qを取得する。
図3に示すように、一つのテキストパラグラフPを例にする。当該テキストパラグラフPは、「王羲之(321-379年、又は303-61年)は、字が逸少、東晋の著名な書家。琅邪臨沂(現在の山東臨沂)人。初任は秘書郎、後に寧遠将軍、江州刺史、右軍将軍、会稽内史などを歴任し、世は右軍王と呼ばれた。その後、揚州刺史である王述との不仲により、官職を辞して会稽山陰(現在の紹興)に定住した。王羲之の出身は…」である。
そして、本実施形態のトリプルサンプルの生成方法を用いて、取得されたテキストパラグラフPに基づいて、答案選択モデルを採用してこのテキストパラグラフPから、図3の「東晋」のような答案セグメントAを抽出し、さらに本実施形態の質問生成モデルを採用することにより、入力されたテキストパラグラフPと答案セグメントA「東晋」とに基づいて、対応する質問Qを生成することができる。例えば、図3に生成された質問Qは「王羲之はどの時代の人ですか」であって良い。図3は1つの実施形態のみを示しており、実際の応用においては、本実施形態のように、任意の分野において、任意のパラグラフテキストに基づいて(Q,P,A)トリプルの生成を実現することができる。
本実施形態に係るトリプルサンプルの生成方法は、上述の技術案を採用することにより、事前に訓練された答案選択モデルを使用して、パラグラフテキストから答案セグメントを抽出し、事前に訓練された質問生成モデルを使用してパラグラフテキストと答案セグメントに基づいて対応する質問を生成することができる。事前に訓練された語義表現モデルに基づいて訓練された答案選択モデルと質問生成モデルを採用しているため、この答案選択モデルと質問生成モデルの正確度は非常に高く、更に生成された(Q,P,A)トリプルの正確度が非常に高いことを確保することができる。
図4は本開示の第3実施形態に係る概略図である。図4に示すように、本実施形態は、トリプルサンプルにおけるパラグラフテキストを取得する取得モジュール401と、パラグラフテキストから少なくとも1つの答案セグメントを抽出する答案抽出モジュール402と、パラグラフテキスト及び各答案セグメントに基づいて、それぞれ事前訓練された語義表現モデルに基づいて訓練された事前に訓練された質問生成モデルを用いて対応する質問を生成する質問生成モジュール403と、を備えるトリプルサンプルの生成装置400を提供する。
本実施形態のトリプルサンプルの生成装置400は、上述したモジュールを用いてトリプルサンプルの生成を実現する実現原理及び技術的効果は、上述した関連方法の実施形態の実現と同じであり、詳細は上述した関連する実施形態の記載を参照でき、ここでは再度言及しない。
図5は本開示の第4実施形態に係る概略図である。図5に示すように、本実施形態のトリプルサンプルの生成装置400は、上述した図4に示す実施形態の技術案に加えて、本開示の技術案をより詳細に説明する。
本実施形態に係るトリプルサンプルの生成装置400において、答案抽出モジュール402は、予め設定された答案セグメント抽出ルールに従って、パラグラフテキストから少なくとも1つの答案セグメントを抽出する。
或いは、答案抽出モジュール402は、事前に訓練された語義表現モデルに基づいて訓練された事前訓練された答案選択モデルを用いて、パラグラフテキストから少なくとも1つの答案セグメントを抽出する。
さらに、当該答案抽出モジュール402は、答案選択モデルを用いて、パラグラフテキストにおけるすべての候補答案セグメントが答案セグメントとなり得る確率を予測し、全ての候補答案セグメントから確率が最大となる少なくとも1つを少なくとも1つの答案セグメントとして選択する。
さらに、オプションとして、図5に示すように、本実施形態のトリプルサンプルの生成装置400において、質問生成モジュール403は、各答案セグメントについて、質問生成モデルを用いて、答案セグメントとパラグラフテキストとに基づいて予め設定されたシソーラスにおいて復号化して確率が最大の単語を質問の1番目の単語として取得する第1復号ユニット4031と、質問生成モデルを用いて、答案セグメント、パラグラフテキスト、及び質問において復号化された最初のN個(Nは1以上である)の単語に基づいて、予め設定されたシソーラスにおいて復号化を継続して質問のN+1番目の単語として最も確率の高い単語を取得する第2復号ユニット4032と、N+1番目の単語がエンドキャラクタであるか否か、又は現在得られているN+1個の単語の全長が予め設定された長さ閾値に達しているか否かを判定する検出ユニット4033と、肯定の場合に、復号が終了したと判定し、N+1個の単語を復号順でスプライシングして質問を得る生成ユニット4034とを備える。
本実施形態のトリプルサンプルの生成装置400は、上述したモジュールを用いてトリプルサンプルの生成を実現する実現原理及び技術的効果は、上述した関連方法の実施形態の実現と同じであり、詳細は上述した関連する実施形態の記載を参照でき、ここでは再度言及しない。
本開示の実施形態によれば、本開示はさらに電子デバイス及び可読記憶媒体を提供する。
図6は、トリプルサンプルの生成方法を実施する本開示の実施形態の電子デバイスのブロック図である。電子デバイスは、様々な形式のデジタルコンピュータ、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、PDA、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータであることが意図される。電子デバイスは、様々な形式のモバイル装置、例えば、PDA、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の類似するコンピューティング装置を示してもよい。本文で示された構成要素、それらの接続及び関係、ならびにそれらの機能は例示にすぎなく、本明細書において説明及び/又は請求される本開示の実現を限定することが意図されない。
図6に示すように、この電子デバイスは、一つ又は複数のプロセッサ601、メモリ602、及び各構成要素に接続するための高速インターフェース及び低速インターフェースを含むインターフェースを備える。各構成要素は、異なるバスで相互接続され、そして、共通マザーボードに、又は必要に応じて、他の態様で実装されてもよい。プロセッサは、電子デバイス内で実行されるコマンドを処理してもよく、メモリに記憶される又はメモリ上で外部入力/出力装置(例えば、インターフェースに結合される表示装置)にグラフィカルユーザインターフェースのグラフィカル情報を表示するコマンドを含む。他の実施形態において、必要な場合に、複数のプロセッサ及び/又は複数のバスが、複数のメモリとともに用いられてもよい。同様に、複数の電子デバイスが接続されてもよく、それぞれのデバイスが必要な操作の一部を提供する(例えば、サーババンク、ブレードサーバの集まり、又はマルチプロセッサシステムとする)。図6において、一つのプロセッサ601を例とする。
メモリ602は、本開示で提供される非一時的なコンピュータ可読記憶媒体である。なお、前記メモリには、少なくとも1つのプロセッサが本願に提供されたトリプルサンプルの生成方法を実行するように、前記少なくとも1つのプロセッサに実行可能なコマンドが記憶されている。本開示の非一時的コンピュータ可読記憶媒体は、本願に提供されたトリプルサンプルの生成方法をコンピュータに実行させるためのコンピュータコマンドを記憶している。
メモリ602は、非一時的コンピュータ可読記憶媒体として、非一時的ソフトウェアプログラム、非一時的コンピュータに実行可能なプログラム、モジュール、例えば、本開示の実施例におけるトリプルサンプルの生成方法に対応するプログラムコマンド/モジュール(例えば、図4及び図5に示す関連モジュール)を記憶するために用いられる。プロセッサ601は、メモリ602に記憶されている非一時的ソフトウェアプログラム、コマンド及びモジュールを実行することで、サーバの様々な機能アプリケーション及びデータ処理を実行し、即ち、上記の方法実施例におけるトリプルサンプルの生成方法を実現する。
メモリ602は、プログラム記憶領域及びデータ記憶領域を含んでもよく、プログラム記憶領域はオペレーティングシステム、少なくとも一つの機能に必要なアプリケーションプログラムを記憶してもよく、データ記憶領域はトリプルサンプルの生成方法を実現する電子デバイスの使用により作成されたデータなどを記憶してもよい。また、メモリ602は、高速ランダムアクセスメモリを含んでもよく、さらに非一時的メモリ、例えば、少なくとも一つの磁気ディスク記憶装置、フラッシュメモリ装置、又は他の非一時的固体記憶装置を含んでもよい。幾つかの実施例において、メモリ602は、プロセッサ601に対して遠隔設置されたメモリを選択的に含んでもよく、これらのリモートメモリは、ネットワークを介してトリプルサンプルの生成方法を実現する電子デバイスに接続されてもよい。上記のネットワークの実例には、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせが含まれるが、これらに限定されない。
トリプルサンプルの生成方法を実現する電子デバイスは、入力装置603と出力装置604とをさらに備えても良い。プロセッサ601、メモリ602、入力装置603及び出力装置604は、バス又は他の手段により接続されても良く、図6においてバスによる接続を例とする。
入力装置603は、入力された数字又はキャラクタ情報を受信し、トリプルサンプルの生成方法を実現する電子デバイスのユーザ設定及び機能制御に関連するキー信号入力を生成でき、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、一つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置604は、表示装置、補助照明装置(例えば、LED)、触覚フィードバック装置(例えば、振動モータ)などを含むことができる。当該表示装置は、液晶ディスプレイ(LCD)、発光ダイオードディスプレイ(LED)、及びプラズマディスプレイを含み得るが、これらに限定されない。いくつかの実施形態では、表示装置はタッチパネルであってもよい。
本明細書に説明されるシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、専用ASIC(専用集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現することができる。これらの様々な実施形態は、記憶システム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及びコマンドを受信し、当該記憶システム、当該少なくとも一つの入力装置、及び当該少なくとも一つの出力装置にデータ及びコマンドを送信するようにつなげられた、特殊用途でもよく一般用途でもよい少なくとも一つのプログラマブルプロセッサを含む、プログラマブルシステム上で実行可能及び/又は解釈可能な一つ又は複数のコンピュータプログラムにおける実行を含んでもよい。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又は、コードとも称される)は、プログラマブルプロセッサの機械命令を含み、高水準のプロセス及び/又はオブジェクト向けプログラミング言語、及び/又はアセンブリ/機械言語で実行されることができる。本明細書で用いられる「機械可読媒体」及び「コンピュータ可読媒体」という用語は、機械可読信号としての機械命令を受け取る機械可読媒体を含むプログラマブルプロセッサに機械命令及び/又はデータを提供するのに用いられる任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、及びプログラマブル論理デバイス(PLD))を指す。「機械可読信号」という用語は、プログラマブルプロセッサに機械命令及び/又はデータを提供するために用いられる任意の信号を指す。
ユーザとのインタラクティブを提供するために、本明細書に説明されるシステムと技術は、ユーザに対して情報を表示するための表示装置(例えば、CRT(ブラウン管)又はLCD(液晶ディスプレイ)モニタ)、ユーザがコンピュータに入力を与えることができるキーボード及びポインティングデバイス(例えば、マウスや、トラックボール)を有するコンピュータ上に実施されることが可能である。その他の種類の装置は、さらに、ユーザとのインタラクションを提供するために使用されることが可能であり、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚的なフィードバック、聴覚的なフィードバック、又は触覚的なフィードバック)であり得、ユーザからの入力は、任意の形態で(音響、音声又は触覚による入力を含む)受信され得る。
本明細書に説明されるシステムと技術は、バックエンド構成要素を含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェア構成要素を含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンド構成要素を含むコンピューティングシステム(例えば、グラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピュータであり、ユーザは、当該グラフィカルユーザインターフェースもしくは当該ウェブブラウザを通じて本明細書で説明されるシステムと技術の実施形態とインタラクションすることができる)、そのようなバックエンド構成要素、ミドルウェア構成要素、もしくはフロントエンド構成要素の任意の組合せを含むコンピューティングシステムに実施されることが可能である。システムの構成要素は、任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互に接続されることが可能である。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、ワイド・エリア・ネットワーク(「WAN」)、インターネットワークを含む。
コンピュータシステムは、クライアントとサーバーを含み得る。クライアントとサーバーは、一般的に互いから遠く離れており、通常は、通信ネットワークを通じてインタラクトする。クライアントとサーバとの関係は、相応するコンピュータ上で実行され、互いにクライアント-サーバの関係を有するコンピュータプログラムによって生じる。
本開示の実施形態の技術案によれば、トリプルサンプルにおけるパラグラフテキストを取得し、パラグラフテキストから少なくとも1つの答案セグメントを抽出し、パラグラフテキストと各答案セグメントとに基づいて、それぞれ事前に訓練された質問生成モデルを用いて対応する質問を生成してトリプルサンプルを得る。本実施形態では、事前に訓練された質問生成モデルは、事前に訓練された語義表現モデルに基づいて得られ、正確度が非常に良いため、この質問生成モデルを用いて生成された(Q,P,A)トリプルサンプルの正確度は非常に高い。
本開示の実施形態に係る技術案によれば、事前に訓練された答案選択モデルを使用してパラグラフテキストから答案セグメントを抽出し、事前に訓練された質問生成モデルを使用してパラグラフテキストと答案セグメントに基づいて対応する質問を生成することができる。事前に訓練された語義表現モデルに基づいて訓練された答案選択モデルと質問生成モデルを採用しているため、この答案選択モデルと質問生成モデルの正確度は非常に高く、更に生成された(Q,P,A)トリプルの正確度が非常に高いことを確保することができる。
以上で示された様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除できることを理解されたい。例えば、本開示に説明される各ステップは、並列の順序又は順次的な順序で実施されてもよいし、又は異なる順序で実行されてもよく、本開示で開示された技術案の望ましい結果が達成できる限り、ここで制限されない。
上記の具体的な実施形態は本開示の保護範囲に対する制限を構成しない。設計要件及び他の要因に従って、様々な修正、組み合わせ、部分的組み合わせ及び置換を行うことができることを当業者は理解するべきである。本開示の精神及び原則の範囲内で行われる修正、同等の置換、改善は、何れも本開示の保護範囲内に含まれるべきである。

Claims (13)

  1. トリプルサンプルの生成方法であって、
    トリプルサンプルにおけるパラグラフテキストを取得することと、
    前記パラグラフテキストから少なくとも1つの答案セグメントを抽出することと、
    前記パラグラフテキスト及び各前記答案セグメントに基づいて、予め訓練された語義表現モデルに基づいて訓練された事前に訓練された質問生成モデルを用いてそれぞれ対応する質問を生成して前記トリプルサンプルを得ることと、を含む
    方法。
  2. 前記パラグラフテキストから少なくとも1つの答案セグメントを抽出することは、
    予め設定された答案セグメント抽出ルールに従って、前記パラグラフテキストから前記少なくとも1つの答案セグメントを抽出すること、を含む、
    請求項1に記載の方法。
  3. 前記パラグラフテキストから少なくとも1つの答案セグメントを抽出することは、
    予め訓練された語義表現モデルに基づいて訓練された事前に訓練された答案選択モデルを用いて前記パラグラフテキストから前記少なくとも1つの答案セグメントを抽出すること、を含む、
    請求項1に記載の方法。
  4. 事前に訓練された答案選択モデルを用いて前記パラグラフテキストから前記少なくとも1つの答案セグメントを抽出することは、
    前記答案選択モデルを用いて、前記パラグラフテキストにおけるすべての候補答案セグメントが答案セグメントとなり得る確率を予測することと、
    前記全ての候補答案セグメントから確率が最大の少なくとも1つを前記少なくとも1つの答案セグメントとして選択することと、を含む
    請求項3に記載の方法。
  5. 前記パラグラフテキスト及び各前記答案セグメントに基づいて、事前に訓練された質問生成モデルを用いてそれぞれ対応する質問を生成することは、
    各前記答案セグメントについて、前記質問生成モデルを用いて、前記答案セグメントと前記パラグラフテキストとに基づいて、予め設定されたシソーラスにおいて復号化して確率が最大の単語を前記質問の1番目の単語として取得することと、
    前記質問生成モデルを用いて、前記答案セグメント、前記パラグラフテキスト、及び前記質問において復号化された前のN(Nは1以上である)個の単語に基づいて、前記予め設定されたシソーラスにおいて復号化を継続して確率が最大の単語を前記質問のN+1番目の単語として取得することと、
    前記N+1番目の単語がエンドキャラクタであるか否か、又は現在得られているN+1個の単語の全長が予め設定された長さ閾値に達しているか否かを判断することと、
    肯定の場合に、復号化が終了したと判定し、前記N+1個の単語を復号順でスプライシングして前記質問を得ることと、を含む
    請求項1~4のいずれか1項に記載の方法。
  6. トリプルサンプルの生成装置であって、
    トリプルサンプルにおけるパラグラフテキストを取得する取得モジュールと、
    前記パラグラフテキストから少なくとも1つの答案セグメントを抽出する答案抽出モジュールと、
    前記パラグラフテキスト及び各前記答案セグメントに基づいて、予め訓練された語義表現モデルに基づいて訓練された事前に訓練された質問生成モデルを用いてそれぞれ対応する質問を生成して前記トリプルサンプルを得る質問生成モジュールと、を備える
    装置。
  7. 前記答案抽出モジュールは、
    予め設定された答案セグメント抽出ルールに従って、前記パラグラフテキストから前記少なくとも1つの答案セグメントを抽出する、
    請求項6に記載の装置。
  8. 前記答案抽出モジュールは、
    予め訓練された語義表現モデルに基づいて訓練された事前に訓練された答案選択モデルを用いて、前記パラグラフテキストから前記少なくとも1つの答案セグメントを抽出する、
    請求項6に記載の装置。
  9. 前記答案抽出モジュールは、
    前記答案選択モデルを用いて、前記パラグラフテキストにおけるすべての候補答案セグメントが答案セグメントとなり得る確率を予測し、
    前記全ての候補答案セグメントから確率が最大の少なくとも1つを前記少なくとも1つの答案セグメントとして選択する、
    請求項8に記載の装置。
  10. 前記質問生成モジュールは、
    各前記答案セグメントについて、前記質問生成モデルを用いて、前記答案セグメントと前記パラグラフテキストとに基づいて、予め設定されたシソーラスにおいて復号化して確率が最大となる単語を前記質問の1番目の単語として取得する第1復号ユニットと、
    前記質問生成モデルを用いて、前記答案セグメント、前記パラグラフテキスト、及び前記質問において復号化された前のN(Nは1以上である)個の単語に基づいて、前記予め設定されたシソーラスにおいて復号化を継続して最も確率の高い単語を前記質問のN+1番目の単語として取得する第2復号ユニットと、
    前記N+1番目の単語がエンドキャラクタであるか否か、又は現在得られているN+1個の単語の全長が予め設定された長さ閾値に達しているか否かを判定する検出ユニットと、
    肯定の場合に、復号化が終了したと判定し、前記N+1個の単語を復号順でスプライシングして前記質問を得る生成ユニットと、を備える
    請求項6~9のいずれか1項に記載の装置。
  11. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信接続されたメモリと、を備え、
    前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1~5のいずれか1項に記載の方法を実行させる電子デバイス。
  12. コンピュータに請求項1~5のいずれか1項に記載の方法を実行させるためのコンピュータコマンドが記憶された非一時的なコンピュータ可読記憶媒体。
  13. コンピュータに請求項1~5のいずれか1項に記載の方法を実行させるためのプログラム。
JP2021103322A 2020-06-24 2021-06-22 トリプルサンプルの生成方法、装置、電子デバイス及び記憶媒体 Pending JP2022008207A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010587031.7 2020-06-24
CN202010587031.7A CN111858883A (zh) 2020-06-24 2020-06-24 三元组样本的生成方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
JP2022008207A true JP2022008207A (ja) 2022-01-13

Family

ID=72988739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021103322A Pending JP2022008207A (ja) 2020-06-24 2021-06-22 トリプルサンプルの生成方法、装置、電子デバイス及び記憶媒体

Country Status (5)

Country Link
US (1) US20210406467A1 (ja)
EP (1) EP3929768A1 (ja)
JP (1) JP2022008207A (ja)
KR (1) KR20210158815A (ja)
CN (1) CN111858883A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112487139B (zh) * 2020-11-27 2023-07-14 平安科技(深圳)有限公司 基于文本的自动出题方法、装置及计算机设备
CN113239160B (zh) * 2021-04-29 2022-08-12 桂林电子科技大学 一种问题生成方法、装置及存储介质
CN116415594A (zh) * 2021-12-28 2023-07-11 华为技术有限公司 问答对生成的方法和电子设备
CN115713065B (zh) * 2022-11-08 2023-09-15 贝壳找房(北京)科技有限公司 一种生成问题的方法、电子设备及计算机可读存储介质
CN117097442B (zh) * 2023-10-19 2024-01-16 深圳大普微电子股份有限公司 一种数据解码方法、系统、设备及计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045652A (ja) * 2014-08-21 2016-04-04 国立研究開発法人情報通信研究機構 質問文生成装置及びコンピュータプログラム
JP2017049681A (ja) * 2015-08-31 2017-03-09 国立研究開発法人情報通信研究機構 質問応答システムの訓練装置及びそのためのコンピュータプログラム

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9613317B2 (en) * 2013-03-29 2017-04-04 International Business Machines Corporation Justifying passage machine learning for question and answer systems
US9058374B2 (en) * 2013-09-26 2015-06-16 International Business Machines Corporation Concept driven automatic section identification
US10146751B1 (en) * 2014-12-31 2018-12-04 Guangsheng Zhang Methods for information extraction, search, and structured representation of text data
US11899728B2 (en) * 2015-10-05 2024-02-13 Yahoo Assets Llc Methods, systems and techniques for ranking personalized and generic search query suggestions
US11042590B2 (en) * 2015-10-05 2021-06-22 Verizon Media Inc. Methods, systems and techniques for personalized search query suggestions
US10229188B2 (en) * 2015-12-04 2019-03-12 International Business Machines Corporation Automatic corpus expansion using question answering techniques
US10540967B2 (en) * 2016-11-14 2020-01-21 Xerox Corporation Machine reading method for dialog state tracking
CN106777275B (zh) * 2016-12-29 2018-03-06 北京理工大学 基于多粒度语义块的实体属性和属性值提取方法
CN107423286A (zh) * 2017-07-05 2017-12-01 华中师范大学 初等数学代数型题自动解答的方法与系统
CN107662617B (zh) * 2017-09-25 2019-11-05 重庆邮电大学 基于深度学习的车载交互控制算法
US11033216B2 (en) * 2017-10-12 2021-06-15 International Business Machines Corporation Augmenting questionnaires
CN108009285B (zh) * 2017-12-22 2019-04-26 重庆邮电大学 基于自然语言处理的林业生态环境人机交互方法
US11250038B2 (en) * 2018-01-21 2022-02-15 Microsoft Technology Licensing, Llc. Question and answer pair generation using machine learning
CN109086273B (zh) * 2018-08-14 2022-04-15 北京猿力未来科技有限公司 基于神经网络解答语法填空题的方法、装置和终端设备
KR102128549B1 (ko) * 2018-09-19 2020-07-08 주식회사 포티투마루 인공 지능 질의 응답 시스템, 방법 및 컴퓨터 프로그램
CN109657041B (zh) * 2018-12-04 2023-09-29 南京理工大学 基于深度学习的问题自动生成方法
CN109697228A (zh) * 2018-12-13 2019-04-30 平安科技(深圳)有限公司 智能问答方法、装置、计算机设备及存储介质
CN109726274B (zh) * 2018-12-29 2021-04-30 北京百度网讯科技有限公司 问题生成方法、装置及存储介质
CN110008327B (zh) * 2019-04-01 2022-01-14 河北省讯飞人工智能研究院 法律回答生成方法及装置
CN110083690B (zh) * 2019-04-10 2022-05-03 华侨大学 一种基于智能问答的对外汉语口语训练方法及系统
CN110046240B (zh) * 2019-04-16 2020-12-08 浙江爱闻格环保科技有限公司 结合关键词检索与孪生神经网络的目标领域问答推送方法
CN111949758A (zh) * 2019-05-16 2020-11-17 北大医疗信息技术有限公司 医疗问答推荐方法、推荐系统和计算机可读存储介质
CN110633730B (zh) * 2019-08-07 2023-05-23 中山大学 一种基于课程学习的深度学习机器阅读理解训练方法
CN110543631B (zh) * 2019-08-23 2023-04-28 深思考人工智能科技(上海)有限公司 机器阅读理解的实现方法、装置、存储介质及电子设备
CN110647629B (zh) * 2019-09-20 2021-11-02 北京理工大学 一种多粒度答案排序的多文档机器阅读理解方法
CN110688491B (zh) * 2019-09-25 2022-05-10 暨南大学 基于深度学习的机器阅读理解方法、系统、设备及介质
CN110750998B (zh) * 2019-10-14 2023-10-31 腾讯科技(深圳)有限公司 一种文本输出方法、装置、计算机设备和存储介质
CN110866098B (zh) * 2019-10-29 2022-10-28 平安科技(深圳)有限公司 基于transformer和lstm的机器阅读方法、装置及可读存储介质
US11610069B2 (en) * 2019-12-20 2023-03-21 Naver Corporation Training a question answering network using relational loss
CN111159340B (zh) * 2019-12-24 2023-11-03 重庆兆光科技股份有限公司 基于随机优化预测的机器阅读理解的答案匹配方法及系统
CN111104503A (zh) * 2019-12-24 2020-05-05 华中科技大学 一种建筑工程质量验收规范问答系统及其构建方法
US11501080B2 (en) * 2019-12-30 2022-11-15 Accenture Global Solutions Limited Sentence phrase generation
CN111241244A (zh) * 2020-01-14 2020-06-05 平安科技(深圳)有限公司 基于大数据的答案位置获取方法、装置、设备及介质
CN111666374A (zh) * 2020-05-15 2020-09-15 华东师范大学 一种在深度语言模型中融入额外知识信息的方法
US11556573B2 (en) * 2020-05-29 2023-01-17 Adobe Inc. Semantic cluster formation in deep learning intelligent assistants
US11775839B2 (en) * 2020-06-10 2023-10-03 International Business Machines Corporation Frequently asked questions and document retrieval using bidirectional encoder representations from transformers (BERT) model trained on generated paraphrases

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045652A (ja) * 2014-08-21 2016-04-04 国立研究開発法人情報通信研究機構 質問文生成装置及びコンピュータプログラム
JP2017049681A (ja) * 2015-08-31 2017-03-09 国立研究開発法人情報通信研究機構 質問応答システムの訓練装置及びそのためのコンピュータプログラム

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CHRIS ALBERTI 他4名: "Synthetic QA Corpora Generation with Roundtrip Consistency", PROCEEDINGS OF THE 57TH ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS, JPN6023018570, 2 August 2019 (2019-08-02), pages 6168 - 6173, ISSN: 0005049566 *
DU, XINYA ET AL., HARVESTING PARAGRAPH-LEVEL QUESTION-ANSWER PAIRS FROM WIKIPEDIA [ONLINE], JPN6020009305, 15 May 2018 (2018-05-15), ISSN: 0004829253 *
ILYA SUTSKEVER, ORIOL VINYALS, QUOC V. LE: "Sequence to Sequence Learning with Neural Networks", ARXIV, JPN6022054164, 14 December 2014 (2014-12-14), ISSN: 0005049565 *
JACOB DEVLIN, BERT: PRE-TRAINING OF DEEP BIDIRECTIONAL TRANSFORMERS FOR LANGUAGE UNDERSTANDING, JPN6022030088, 13 March 2019 (2019-03-13), ISSN: 0005049563 *
三品 博崇、青山 敦、前田 亮: "経営哲学に関する講演録を用いた質問応答システム", 第10回データ工学と情報マネジメントに関するフォーラム (第16回日本データベース学会年次大会) [, JPN6022030092, 17 April 2018 (2018-04-17), JP, ISSN: 0005049564 *

Also Published As

Publication number Publication date
EP3929768A1 (en) 2021-12-29
CN111858883A (zh) 2020-10-30
KR20210158815A (ko) 2021-12-31
US20210406467A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
JP7247441B2 (ja) セマンティック表現モデルの処理方法、装置、電子機器、及び記憶媒体
KR102497945B1 (ko) 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
JP7098853B2 (ja) ラベルラベリングモデルを確立する方法、装置、電子機器、プログラム及び可読記憶媒体
JP2022008207A (ja) トリプルサンプルの生成方法、装置、電子デバイス及び記憶媒体
JP7194150B2 (ja) ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器
JP7264866B2 (ja) イベント関係の生成方法、装置、電子機器及び記憶媒体
JP7178441B2 (ja) 要約生成方法、装置、プログラム、電子デバイス及び記憶媒体
JP7179123B2 (ja) 言語モデルの訓練方法、装置、電子デバイス及び可読記憶媒体
JP2022031804A (ja) イベント抽出方法、装置、電子機器及び記憶媒体
JP2021111416A (ja) コアエンティティのタグ付け方法、コアエンティティのタグ付け装置、電子機器、記憶媒体及びコンピュータプログラム
JP7159248B2 (ja) レビュー情報の処理方法、装置、コンピュータ機器及び媒体
JP7149993B2 (ja) 感情分析モデルの事前トレーニング方法、装置及び電子機器
EP3940581A1 (en) Method and apparatus for training multilingual semantic representation model, device and storage medium
JP2022020582A (ja) 自然言語処理モデルの訓練方法、装置、デバイス及び記憶媒体
JP2021184255A (ja) 語義表現モデルの生成方法、語義表現モデルの生成装置、電子機器、記憶媒体及びコンピュータプログラム
JP2021197131A (ja) 機械翻訳におけるモデルトレーニング方法、装置、電子機器、プログラム及び記憶媒体
JP2021099890A (ja) 因果関係の判別方法、装置、電子機器及び記憶媒体
JP2021197188A (ja) 機械翻訳モデルの訓練方法、装置、電子デバイス及び記憶媒体
JP7192192B2 (ja) 語義類似度モデルの訓練方法、装置、電子デバイス及び記憶媒体
JP2022087814A (ja) 多言語モデルの訓練方法、装置、電子デバイス及び可読記憶媒体
CN111831814A (zh) 摘要生成模型的预训练方法、装置、电子设备和存储介质
JP2022028897A (ja) 文章翻訳方法、装置、電子機器及び記憶媒体
CN111738015A (zh) 文章情感极性分析方法、装置、电子设备及存储介质
EP3855341A1 (en) Language generation method and apparatus, electronic device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230228

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230228

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230307

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230308

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230512