JP7250052B2 - 自然言語及び知識グラフに基づく表現学習方法及び装置 - Google Patents
自然言語及び知識グラフに基づく表現学習方法及び装置 Download PDFInfo
- Publication number
- JP7250052B2 JP7250052B2 JP2020571787A JP2020571787A JP7250052B2 JP 7250052 B2 JP7250052 B2 JP 7250052B2 JP 2020571787 A JP2020571787 A JP 2020571787A JP 2020571787 A JP2020571787 A JP 2020571787A JP 7250052 B2 JP7250052 B2 JP 7250052B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- layer
- knowledge graph
- natural language
- association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9024—Graphs; Linked lists
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本願は、2019年12月17日に中国国家知識産権局に提出された、出願番号が201911297702Xであり、発明の名称が「自然言語及び知識グラフに基づくテキスト処理方法及び装置」である中国特許出願の優先権を主張し、その内容の全てが参照によって本願に組み込まれる。
前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、前記エンティティに対する前記目標トレーニングサンプルのM個の重みを決定することを含み、ここで、前記M≧1で、かつ整数である。
前記トレーニング結果が正しいか否かを判断することと、前記トレーニング結果が正しい場合に、励起信号を生成し、前記励起信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を増強することと、前記トレーニング結果が間違っている場合に、ペナルティ信号を生成し、前記ペナルティ信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を調整することとを含む。
予めトレーニングされた、知識グラフ表現学習及び自然言語表現学習のために用いられる連合学習モデルに前記予測オブジェクトを入力して、前記予測オブジェクトの、前記連合学習モデルが前記知識グラフ表現学習及び前記自然言語表現学習を組み合わせて得た意味表現を取得するための取得モジュールと、
前記意味表現に基づいて前記テキストを処理するための処理モジュールと、を含む。
前記受信モジュールがユーザから入力されたテキスト処理要求を受信する前に、トレーニングサンプルをトレーニングして、自然言語学習層と、知識グラフ学習層と、前記自然言語学習層と前記知識グラフ学習層を連合させるための連合学習関連層とを含む前記連合学習モデルを取得するためのトレーニングモジュールをさらに含む。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、ここで、
前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサに、第1の態様又は第1の態様の任意の実現可能な方法を実行させる。
ユーザから入力された、テキストにおける予測オブジェクトの意味表現に基づいて前記テキストを処理することを要求するためのテキスト処理要求を受信するための受信モジュール11と、
予めトレーニングされた、知識グラフ表現学習及び自然言語表現学習のために用いられる連合学習モデルに前記予測オブジェクトを入力して、前記予測オブジェクトの、前記連合学習モデルが前記知識グラフ表現学習及び前記自然言語表現学習を組み合わせて得た意味表現を取得するための取得モジュール12と、
前記意味表現に基づいて前記テキストを処理するための処理モジュール13と、を含み得る。
前記受信モジュール11がユーザから入力されたテキスト処理要求を受信する前に、トレーニングサンプルをトレーニングして、自然言語学習層と、知識グラフ学習層と、前記自然言語学習層と前記知識グラフ学習層を連合させるための連合学習関連層とを含む前記連合学習モデルを取得するためのトレーニングモジュール14をさらに含む。
Claims (8)
- 電子機器が、ユーザから入力された、前記電子機器にテキストにおける予測オブジェクトの意味表現に基づいて前記テキストを処理することを要求するテキスト処理要求を受信することと、
前記電子機器が、予めトレーニングされた、自然言語学習層と、知識グラフ学習層と、前記自然言語学習層と前記知識グラフ学習層を連合させる連合学習関連層とを含む連合学習モデルに前記予測オブジェクトを入力し、前記自然言語学習層は、前記テキストに対して処理して得られた前記予測オブジェクトである単語又は字を前記連合学習関連層に入力し、前記知識グラフ学習層は、前記テキストから認識して得られた前記予測オブジェクトである前記テキストに含まれるエンティティからなる知識グラフを前記連合学習関連層に入力し、前記連合学習関連層は、入力された前記単語又は字、及び前記知識グラフに基づいて、知識グラフ表現学習及び自然言語表現学習を組み合わせて前記予測オブジェクトの意味表現を取得することと、
前記電子機器が、前記意味表現に基づいて前記テキストを処理することと、を含み、
前記テキストを処理することとは、読書理解、知能質問応答、機械翻訳、自動書記、知識ベースの補完、知識ベースの推理、知識ベースの質問応答であり、
前記電子機器が、ユーザから入力されたテキスト処理要求を受信する前に、
前記電子機器が、トレーニングサンプルをトレーニングして、前記連合学習モデルを取得することをさらに含み、前記トレーニングサンプルは単語又は字であり、
前記連合学習関連層は1つ又は複数種のリードライトメカニズムから構成され、前記自然言語学習層と、前記連合学習関連層と、前記知識グラフ学習層は、それぞれ相応のサブニューラルネットワークモデルに対応し、
前記電子機器が、トレーニングサンプルをトレーニングして前記連合学習モデルを取得することは、
前記電子機器が、前記自然言語学習層において、前記トレーニングサンプルにおける目標トレーニングサンプルの隣接サンプルを決定することと、
前記電子機器が、前記隣接サンプルに基づいて、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みを決定することと、
前記電子機器が、前記連合学習関連層において前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、
前記電子機器が、前記自然言語学習層で、前記知識グラフ意味表現及び前記隣接サンプルに基づいて、前記目標トレーニングサンプルのトレーニング結果を決定することと、を含み、
前記電子機器が、前記隣接サンプルに基づいて、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みを決定することは、
前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、前記エンティティに対する前記隣接サンプルのM個の重みを決定することを含み、前記MはM≧1で、かつ整数であり、
前記電子機器が、前記連合学習関連層において前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することは、
前記知識グラフ学習層における各エンティティに対して、前記電子機器が、前記連合学習関連層において、それぞれの前記エンティティを前記知識グラフ学習層に入力して得られたそれぞれの前記エンティティの知識グラフ意味表現と対応する重みを乗算して、複数の処理された知識グラフ意味表現を取得することと、
前記電子機器が前記連合学習関連層で、前記複数の処理された知識グラフ意味表現の和を計算することにより、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、を含む、自然言語及び知識グラフに基づくテキスト処理方法。 - 前記電子機器が、前記自然言語学習層において前記知識グラフ意味表現及び前記隣接サンプルに基づいて前記目標トレーニングサンプルのトレーニング結果を決定した後に、
前記電子機器が、前記連合学習関連層において、前記トレーニング結果に基づいて、前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を最適化することをさらに含み、
前記電子機器が、前記連合学習関連層において前記トレーニング結果に基づいて、前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を最適化することは、
前記電子機器が、前記連合学習関連層において前記トレーニング結果が正しいか否かを判断することであって、前記トレーニング結果が正しいとは、前記連合学習関連層の前記トレーニング結果と前記目標トレーニングサンプルが一致することである、判断することと、
前記トレーニング結果が正しい場合に、前記電子機器が、前記連合学習関連層において励起信号を生成し、前記励起信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を増強することと、
前記トレーニング結果が間違っている場合に、前記電子機器が、前記連合学習関連層においてペナルティ信号を生成し、前記ペナルティ信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を調整することと、を含む、請求項1に記載の自然言語及び知識グラフに基づくテキスト処理方法。 - 自然言語及び知識グラフに基づくテキスト処理装置であって、電子機器に組み込まれるか、又は、前記電子機器により実現され、
ユーザから入力された、テキストにおける予測オブジェクトの意味表現に基づいて前記テキストを処理することを要求するテキスト処理要求を受信するための受信モジュールと、
予めトレーニングされた、自然言語学習層と、知識グラフ学習層と、前記自然言語学習層と前記知識グラフ学習層を連合させる連合学習関連層とを含む連合学習モデルに前記予測オブジェクトを入力し、前記自然言語学習層は、前記テキストに対して処理して得られた前記予測オブジェクトである単語又は字を前記連合学習関連層に入力し、前記知識グラフ学習層は、前記テキストから認識して得られた前記予測オブジェクトである前記テキストに含まれるエンティティからなる知識グラフを前記連合学習関連層に入力し、前記連合学習関連層は、入力された前記単語又は字、及び前記知識グラフに基づいて、知識グラフ表現学習及び自然言語表現学習を組み合わせて前記予測オブジェクトの意味表現を取得する取得モジュールと、
前記意味表現に基づいて前記テキストを処理する処理モジュールであって、前記テキストを処理することとは、読書理解、知能質問応答、機械翻訳、自動書記、知識ベースの補完、知識ベースの推理、知識ベースの質問応答である処理モジュールと、
前記受信モジュールがユーザから入力されたテキスト処理要求を受信する前に、トレーニングサンプルをトレーニングして、前記連合学習モデルを取得するトレーニングモジュールと、を含み、前記トレーニングサンプルは単語又は字であり、
前記連合学習関連層は1つ又は複数種のリードライトメカニズムから構成され、前記自然言語学習層と、前記連合学習関連層と、前記知識グラフ学習層は、それぞれ相応のサブニューラルネットワークモデルに対応し、
前記トレーニングモジュールは、前記自然言語学習層において、前記トレーニングサンプルにおける目標トレーニングサンプルの隣接サンプルを決定することと、前記連合学習関連層において、前記隣接サンプルに基づいて、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みを決定することと、前記連合学習関連層で、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、前記自然言語学習層で、前記知識グラフ意味表現及び前記隣接サンプルに基づいて、前記目標トレーニングサンプルのトレーニング結果を決定することと、に用いられ、
前記トレーニングモジュールは、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みを決定するとき、前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、前記エンティティに対する前記隣接サンプルのM個の重みを決定し、前記MはM≧1で、かつ整数であり、
前記トレーニングモジュールは、前記連合学習関連層で、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定するとき、前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、それぞれの前記エンティティを前記知識グラフ学習層に入力して得られたそれぞれの前記エンティティの知識グラフ意味表現と対応する重みを乗算して、複数の処理された知識グラフ意味表現を取得し、前記複数の処理された知識グラフ意味表現の和を計算することにより、前記目標トレーニングサンプルの知識グラフ意味表現を決定する、自然言語及び知識グラフに基づくテキスト処理装置。 - 前記トレーニングモジュールは、前記自然言語学習層において前記知識グラフ意味表現及び前記隣接サンプルに基づいて前記目標トレーニングサンプルのトレーニング結果を決定した後に、さらに、前記連合学習関連層において、前記トレーニング結果に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を最適化することにさらに用いられ、
前記トレーニングモジュールは、前記連合学習関連層において、前記トレーニング結果が正しいか否かを判断することであって、前記トレーニング結果が正しいとは、前記連合学習関連層の前記トレーニング結果と前記目標トレーニングサンプルが一致することである、判断することと、前記トレーニング結果が正しい場合に、前記連合学習関連層において、励起信号を生成し、前記励起信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を増強することと、前記トレーニング結果が間違っている場合に、前記連合学習関連層において、ペナルティ信号を生成し、前記ペナルティ信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を調整することと、に用いられる、請求項3に記載の自然言語及び知識グラフに基づくテキスト処理装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、ここで、
前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサに、請求項1又は2に記載の自然言語及び知識グラフに基づくテキスト処理方法を実行させる、電子機器。 - コンピュータ命令を記憶した非一時的コンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、請求項1又は2に記載の自然言語及び知識グラフに基づくテキスト処理方法をコンピュータに実行させるために用いられる、コンピュータ命令を記憶した非一時的コンピュータ読み取り可能な記憶媒体。
- 連合学習モデルのトレーニング方法であって、
前記連合学習モデルは、知識グラフ学習層と自然言語学習層とを含み、前記連合学習モデルのトレーニング方法は、
電子機器が、前記知識グラフ学習層により前記自然言語学習層をトレーニングすることと、
前記電子機器が、トレーニングされた自然言語学習層を用いて前記知識グラフ学習層を改善することと、を含み、
前記連合学習モデルは、前記自然言語学習層と前記知識グラフ学習層を連合させ、
連合学習関連層は1つ又は複数種のリードライトメカニズムから構成され、前記自然言語学習層と、前記連合学習関連層と、前記知識グラフ学習層は、それぞれ相応のサブニューラルネットワークモデルに対応し、
前記電子機器が、前記知識グラフ学習層により前記自然言語学習層をトレーニングすることと、前記電子機器が、トレーニングされた自然言語学習層を用いて前記知識グラフ学習層を改善することとは、
前記電子機器が、前記自然言語学習層において、トレーニングサンプルにおける目標トレーニングサンプルの隣接サンプルを決定することであって、前記トレーニングサンプルは単語又は字である、決定することと、
前記電子機器が、前記連合学習関連層において、前記隣接サンプルに基づいて、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みを決定することと、
前記電子機器が、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、
前記電子機器が、前記自然言語学習層において、前記知識グラフ意味表現及び前記隣接サンプルに基づいて、前記目標トレーニングサンプルのトレーニング結果を決定することと、を含み、
前記電子機器が、前記連合学習関連層において、前記隣接サンプルに基づいて、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みを決定することは、
前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、前記エンティティに対する前記隣接サンプルのM個の重みを決定することを含み、前記MはM≧1で、かつ整数であり、
前記電子機器が、前記連合学習関連層において前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することは、
前記知識グラフ学習層における各エンティティに対して、前記電子機器が、前記連合学習関連層において、それぞれの前記エンティティを前記知識グラフ学習層に入力して得られたそれぞれの前記エンティティの知識グラフ意味表現と対応する重みを乗算して、複数の処理された知識グラフ意味表現を取得することと、
前記電子機器が前記連合学習関連層で、前記複数の処理された知識グラフ意味表現の和を計算することにより、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、を含む、連合学習モデルのトレーニング方法。 - コンピュータに請求項1又は2に記載の自然言語及び知識グラフに基づくテキスト処理方法を実行させる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911297702.X | 2019-12-17 | ||
CN201911297702.XA CN110727806B (zh) | 2019-12-17 | 2019-12-17 | 基于自然语言和知识图谱的文本处理方法及装置 |
PCT/CN2020/095108 WO2021120543A1 (zh) | 2019-12-17 | 2020-06-09 | 基于自然语言和知识图谱的表示学习方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022517292A JP2022517292A (ja) | 2022-03-08 |
JP7250052B2 true JP7250052B2 (ja) | 2023-03-31 |
Family
ID=69226014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020571787A Active JP7250052B2 (ja) | 2019-12-17 | 2020-06-09 | 自然言語及び知識グラフに基づく表現学習方法及び装置 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3866025A4 (ja) |
JP (1) | JP7250052B2 (ja) |
CN (1) | CN110727806B (ja) |
WO (1) | WO2021120543A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110727806B (zh) * | 2019-12-17 | 2020-08-11 | 北京百度网讯科技有限公司 | 基于自然语言和知识图谱的文本处理方法及装置 |
CN113360751A (zh) * | 2020-03-06 | 2021-09-07 | 百度在线网络技术(北京)有限公司 | 意图识别方法、装置、设备和介质 |
CN111462914B (zh) * | 2020-03-13 | 2023-07-25 | 云知声智能科技股份有限公司 | 一种实体链接方法及装置 |
CN111488740B (zh) * | 2020-03-27 | 2023-12-22 | 北京百度网讯科技有限公司 | 一种因果关系的判别方法、装置、电子设备及存储介质 |
CN111522944B (zh) * | 2020-04-10 | 2023-11-14 | 北京百度网讯科技有限公司 | 用于输出信息的方法、装置、设备以及存储介质 |
CN111611410B (zh) * | 2020-06-23 | 2024-01-12 | 中国人民解放军国防科技大学 | 基于多层网络空间知识表示的知识处理方法和装置 |
CN111950303B (zh) * | 2020-10-19 | 2021-01-08 | 平安科技(深圳)有限公司 | 医疗文本翻译方法、装置及存储介质 |
CN112507040B (zh) * | 2020-12-21 | 2023-08-08 | 北京百度网讯科技有限公司 | 多元关系生成模型的训练方法、装置、电子设备及介质 |
CN113642319B (zh) * | 2021-07-29 | 2022-11-29 | 北京百度网讯科技有限公司 | 文本处理方法、装置、电子设备及存储介质 |
CN113656709B (zh) * | 2021-08-24 | 2023-07-25 | 东北大学 | 一种融合知识图谱和时序特征的可解释兴趣点推荐方法 |
CN113505244B (zh) * | 2021-09-10 | 2021-11-30 | 中国人民解放军总医院 | 基于深度学习的知识图谱构建方法、系统、设备及介质 |
CN113961679A (zh) * | 2021-09-18 | 2022-01-21 | 北京百度网讯科技有限公司 | 智能问答的处理方法、系统、电子设备及存储介质 |
CN113591442B (zh) * | 2021-10-08 | 2022-02-18 | 北京明略软件系统有限公司 | 文本生成方法、装置、电子装置及可读存储介质 |
WO2024007119A1 (zh) * | 2022-07-04 | 2024-01-11 | 华为技术有限公司 | 文本处理模型的训练方法、文本处理的方法及装置 |
CN115017337B (zh) * | 2022-08-03 | 2022-11-01 | 中国电子科技集团公司第五十四研究所 | 一种面向深度学习模型的隐语义解释方法 |
CN115587175B (zh) * | 2022-12-08 | 2023-03-14 | 阿里巴巴达摩院(杭州)科技有限公司 | 人机对话及预训练语言模型训练方法、系统及电子设备 |
CN116312971B (zh) * | 2023-05-15 | 2023-08-29 | 之江实验室 | 认知训练素材生成方法、认知训练方法、装置和介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019511797A (ja) | 2016-02-29 | 2019-04-25 | 日本電気株式会社 | 情報処理システム、情報処理方法、及び、プログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106649878A (zh) * | 2017-01-07 | 2017-05-10 | 陈翔宇 | 基于人工智能的物联网实体搜索方法及系统 |
CN108073673B (zh) * | 2017-05-15 | 2019-02-26 | 北京华宇元典信息服务有限公司 | 一种基于机器学习的法律知识图谱构建方法、装置、系统和介质 |
EP3625699A1 (en) * | 2017-10-25 | 2020-03-25 | Google LLC | Natural language processing with an n-gram machine |
CN108256065B (zh) * | 2018-01-16 | 2021-11-09 | 智言科技(深圳)有限公司 | 基于关系检测和强化学习的知识图谱推理方法 |
CN108681544A (zh) * | 2018-03-07 | 2018-10-19 | 中山大学 | 一种基于图谱拓扑结构和实体文本描述的深度学习方法 |
CN109978060B (zh) * | 2019-03-28 | 2021-10-22 | 科大讯飞华南人工智能研究院(广州)有限公司 | 一种自然语言要素抽取模型的训练方法及装置 |
CN110083690B (zh) * | 2019-04-10 | 2022-05-03 | 华侨大学 | 一种基于智能问答的对外汉语口语训练方法及系统 |
CN110727806B (zh) * | 2019-12-17 | 2020-08-11 | 北京百度网讯科技有限公司 | 基于自然语言和知识图谱的文本处理方法及装置 |
-
2019
- 2019-12-17 CN CN201911297702.XA patent/CN110727806B/zh active Active
-
2020
- 2020-06-09 JP JP2020571787A patent/JP7250052B2/ja active Active
- 2020-06-09 EP EP20864301.5A patent/EP3866025A4/en active Pending
- 2020-06-09 WO PCT/CN2020/095108 patent/WO2021120543A1/zh unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019511797A (ja) | 2016-02-29 | 2019-04-25 | 日本電気株式会社 | 情報処理システム、情報処理方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN110727806A (zh) | 2020-01-24 |
EP3866025A1 (en) | 2021-08-18 |
EP3866025A4 (en) | 2022-02-09 |
WO2021120543A1 (zh) | 2021-06-24 |
JP2022517292A (ja) | 2022-03-08 |
CN110727806B (zh) | 2020-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7250052B2 (ja) | 自然言語及び知識グラフに基づく表現学習方法及び装置 | |
JP7317791B2 (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
KR102514434B1 (ko) | 지식 표현 학습 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
CN112507715B (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
Li et al. | A survey on deep learning event extraction: Approaches and applications | |
CN108628935B (zh) | 一种基于端到端记忆网络的问答方法 | |
CN111339255B (zh) | 目标情感分析的方法、模型训练方法、介质和设备 | |
US20210192364A1 (en) | Representation learning method and device based on natural language and knowledge graph | |
JP7206515B2 (ja) | 言語モデルに基づいて単語ベクトルを取得する方法、装置、デバイス及び記憶媒体 | |
WO2021169745A1 (zh) | 基于语句前后关系预测的用户意图识别方法及装置 | |
JP2021190087A (ja) | テキスト認識処理方法、装置、電子機器及び記憶媒体 | |
JP7262539B2 (ja) | 会話推薦方法、装置及び機器 | |
JP2022020582A (ja) | 自然言語処理モデルの訓練方法、装置、デバイス及び記憶媒体 | |
JP2022040026A (ja) | エンティティリンキング方法、装置、電子デバイス及び記憶媒体 | |
US20210256045A1 (en) | Method for generating question answering robot and computer device | |
JP7262537B2 (ja) | 機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体 | |
JP2022087814A (ja) | 多言語モデルの訓練方法、装置、電子デバイス及び可読記憶媒体 | |
JP7295200B2 (ja) | 汎化処理方法、装置、デバイス、コンピュータ記憶媒体及びプログラム | |
JP7192192B2 (ja) | 語義類似度モデルの訓練方法、装置、電子デバイス及び記憶媒体 | |
CN116432019A (zh) | 一种数据处理方法及相关设备 | |
CN111611808A (zh) | 用于生成自然语言模型的方法和装置 | |
Cao et al. | Relmkg: reasoning with pre-trained language models and knowledge graphs for complex question answering | |
CN111710428A (zh) | 一种建模全局和局部上下文交互的生物医学文本表示方法 | |
EP3855341A1 (en) | Language generation method and apparatus, electronic device and storage medium | |
CHAURASIA et al. | Conversational AI Unleashed: A Comprehensive Review of NLP-Powered Chatbot Platforms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201223 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220622 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230113 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230113 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230120 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7250052 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |