JP7250052B2 - 自然言語及び知識グラフに基づく表現学習方法及び装置 - Google Patents

自然言語及び知識グラフに基づく表現学習方法及び装置 Download PDF

Info

Publication number
JP7250052B2
JP7250052B2 JP2020571787A JP2020571787A JP7250052B2 JP 7250052 B2 JP7250052 B2 JP 7250052B2 JP 2020571787 A JP2020571787 A JP 2020571787A JP 2020571787 A JP2020571787 A JP 2020571787A JP 7250052 B2 JP7250052 B2 JP 7250052B2
Authority
JP
Japan
Prior art keywords
learning
layer
knowledge graph
natural language
association
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020571787A
Other languages
English (en)
Other versions
JP2022517292A (ja
Inventor
ハイフェン ワン
ウェンビン ジアン
ヤジュアン リュイ
ヨン チュー
フア ウー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022517292A publication Critical patent/JP2022517292A/ja
Application granted granted Critical
Publication of JP7250052B2 publication Critical patent/JP7250052B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

「関連出願の相互参照」
本願は、2019年12月17日に中国国家知識産権局に提出された、出願番号が201911297702Xであり、発明の名称が「自然言語及び知識グラフに基づくテキスト処理方法及び装置」である中国特許出願の優先権を主張し、その内容の全てが参照によって本願に組み込まれる。
本願の実施例は、人工知能(Artificial Intelligence、AI)技術の分野に関し、特に、自然言語及び知識グラフに基づく表現学習方法及び装置に関する。
現在、大量データから価値のある情報を取得するために、知識グラフ(knowledgegraph、KG)が機運に乗じて生まれてきた。また、自然言語は、人間がコミュニケーション及びマインドのために使用する道具や担体として、自然言語の文字や単語の表現は、深層学習に基づく言語処理系人工知能タスクの基本的な処理対象である。
通常、知識グラフと自然言語は、2つの独立な分野であり、これらの2つの分野は、いずれも表現学習技術体系を独立して発展させ、ここで、知識グラフ表現学習は、通常、知識グラフ意味表現を学習するために、知識グラフに含まれるポイント(Point)とエッジ(Edge)との間の共起規則をベクトル空間演算の形式でモデリングし、自然言語表現学習は、通常、自然言語意味表現を学習するために、単語又は文の間の共起規則をシーケンス生成の形式でモデリングする。
しかし、上記の表現学習方法に基づいて学習した意味表現の精度が低いため、上記の意味表現がテキスト処理に用いられる場合、テキスト処理の精度が低くなる。
本願の実施例は、知識グラフの表現学習と自然意味の表現学習を組み合わせることで、より良い品質の意味表現を学習し、テキスト処理の精度を高めることを目的とする、自然言語及び知識グラフに基づく表現学習方法及び装置を提供する。
第1の態様では、本願の実施例にて自然言語及び知識グラフに基づくテキスト処理方法を提供し、ユーザから入力された、テキストにおける予測オブジェクトの意味表現に基づいて前記テキストを処理することを要求するためのテキスト処理要求を受信することと、予めトレーニングされた、知識グラフ表現学習及び自然言語表現学習のために用いられる連合学習モデルに前記予測オブジェクトを入力して、前記予測オブジェクトの、前記連合学習モデルが前記知識グラフ表現学習及び前記自然言語表現学習を組み合わせて得た意味表現を取得することと、前記意味表現に基づいて前記テキストを処理することとを含む
1つの実施可能な設計では、ユーザから入力されたテキスト処理要求を受信する前に、トレーニングサンプルをトレーニングして、自然言語学習層と、知識グラフ学習層と、前記自然言語学習層と前記知識グラフ学習層を連合させるための連合学習関連層とを含む前記連合学習モデルを取得することをさらに含む
1つの実施可能な設計では、トレーニングサンプルをトレーニングして前記連合学習モデルを取得することは、前記自然言語学習層において、前記トレーニングサンプルにおける目標トレーニングサンプルの隣接サンプルを決定することと、前記隣接サンプルに基づいて、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記目標トレーニングサンプルの重みを決定することと、前記各エンティティの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、前記知識グラフ意味表現及び前記隣接サンプルに基づいて、前記目標トレーニングサンプルのトレーニング結果を決定することとを含む
1つの実施可能な設計では、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記目標トレーニングサンプルの重みを決定することは、
前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、前記エンティティに対する前記目標トレーニングサンプルのM個の重みを決定することを含み、ここで、前記M≧1で、かつ整数である
1つの実施可能な設計では、前記各エンティティの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することは、前記知識グラフ学習層における各エンティティに対して、前記エンティティに対応する重みに基づいて、前記エンティティの知識グラフ意味表現を処理して、複数の処理された知識グラフ意味表現を取得することと、前記複数の処理された知識グラフ意味表現に基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することとを含む
1つの実施可能な設計では、前記知識グラフ意味表現及び前記隣接サンプルに基づいて前記目標トレーニングサンプルのトレーニング結果を決定した後に、前記トレーニング結果に基づいて、前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を最適化することをさらに含む
1つの実施可能な設計では、前記トレーニング結果に基づいて、前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を最適化することは、
前記トレーニング結果が正しいか否かを判断することと、前記トレーニング結果が正しい場合に、励起信号を生成し、前記励起信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を増強することと、前記トレーニング結果が間違っている場合に、ペナルティ信号を生成し、前記ペナルティ信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を調整することとを含む
第2の態様では、本願の実施例は自然言語及び知識グラフに基づくテキスト処理装置を提供し、ユーザから入力された、テキストにおける予測オブジェクトの意味表現に基づいて前記テキストを処理することを要求するためのテキスト処理要求を受信するための受信モジュールと、
予めトレーニングされた、知識グラフ表現学習及び自然言語表現学習のために用いられる連合学習モデルに前記予測オブジェクトを入力して、前記予測オブジェクトの、前記連合学習モデルが前記知識グラフ表現学習及び前記自然言語表現学習を組み合わせて得た意味表現を取得するための取得モジュールと、
前記意味表現に基づいて前記テキストを処理するための処理モジュールとを含む。
1つの実施可能な設計では、前記装置は、
前記受信モジュールがユーザから入力されたテキスト処理要求を受信する前に、トレーニングサンプルをトレーニングして、自然言語学習層と、知識グラフ学習層と、前記自然言語学習層と前記知識グラフ学習層を連合させるための連合学習関連層とを含む前記連合学習モデルを取得するためのトレーニングモジュールをさらに含む。
1つの実施可能な設計では、前記トレーニングモジュールは、前記自然言語学習層において、前記トレーニングサンプルにおける目標トレーニングサンプルの隣接サンプルを決定することと、前記連合学習関連層において、前記隣接サンプルに基づいて、前記知識グラフ学習層における各エンティティに対する前記目標トレーニングサンプルの重みを決定することと、前記各エンティティの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、前記知識グラフ意味表現及び前記隣接サンプルに基づいて、前記目標トレーニングサンプルのトレーニング結果を決定することに用いられる。
1つの実施可能な設計では、前記トレーニングモジュールは、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記目標トレーニングサンプルの重みを決定するとき、前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、前記エンティティに対する前記目標トレーニングサンプルのM個の重みを決定し、ここで、前記M≧1で、かつ整数である。
1つの実施可能な設計では、前記トレーニングモジュールは、前記各エンティティの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定するとき、前記知識グラフ学習層における各エンティティに対して、前記エンティティに対応する重みに基づいて、前記エンティティの知識グラフ意味表現を処理し、複数の処理された知識グラフ意味表現を取得し、前記複数の処理された知識グラフ意味表現に基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定する。
1つの実施可能な設計では、前記トレーニングモジュールは、前記知識グラフ意味表現及び前記隣接サンプルに基づいて前記目標トレーニングサンプルのトレーニング結果を決定した後に、さらに、前記トレーニング結果に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を最適化することにさらに用いられる。
1つの実施可能な設計では、前記トレーニングモジュールは、具体的に、前記トレーニング結果が正しいか否かを判断することと、前記トレーニング結果が正しい場合に、励起信号を生成し、前記励起信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を増強することと、前記トレーニング結果が間違っている場合に、ペナルティ信号を生成し、前記ペナルティ信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を調整することに用いられる。
第3の態様では、本願の実施例は電子機器を提供し、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリとを含み、ここで、
前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサに、第1の態様又は第1の態様の任意の実現可能な方法を実行させる。
第4の態様では、本願の実施例は命令を含むコンピュータプログラム製品を提供し、電子機器で実行されるとき、電子機器に、上記の第1の態様又は第1の態様の様々な可能な実現形態における方法を実行させる。
第5の態様では、本願の実施例は記憶媒体を提供し、命令を記憶し、電子機器で実行されるとき、電子機器に、上記の第1の態様又は第1の態様の様々な可能な実現形態における方法を実行させる
上記の出願における一実施例は、以下の利点又は有益な効果を有する:電子機器は、ユーザから入力されたテキスト処理要求を受信した後、予めトレーニングされた連合学習モデルにテキストにおける予測オブジェクトを入力して、予測オブジェクトの、連合学習モデルが知識グラフ表現学習及び自然言語表現学習を組み合わせて得た意味表現を学習し、その後、電子機器は意味表現に基づいてテキストを処理する。この過程において、電子機器が連合学習モデルを使用して得た意味表現は、該連合学習モデルが知識グラフ表現学習及び自然言語表現学習を組み合わせて得たもので、それは知識グラフ表現学習と自然言語表現学習を組み合わせ、知識グラフ表現学習のみ、又は自然言語表現学習のみで予測オブジェクトの意味表現を学習することに比較して、連合学習モデルが考慮する要素がより多くより包括的であるため、意味表現の精度を向上させ、ひいてはテキスト処理の精度を高めることができる。
以下、具体的な実施例と組み合わせて、上記の好ましい形態が有する他の効果を説明する。
図面は、本解決手段をよりよく理解するためのもので、本願を限定するものではない。ここで、
本願の実施例にて提供される自然言語及び知識グラフに基づくテキスト処理方法のフローチャートである。 本願の実施例にて提供される自然言語及び知識グラフに基づくテキスト処理方法に適用される連合学習モデルの構造概略図である。 本願の実施例にて提供される自然言語及び知識グラフに基づくテキスト処理装置の構造概略図である。 本願の実施例にて提供される別の自然言語及び知識グラフに基づくテキスト処理装置の構造概略図である。 本願の実施例の自然言語及び知識グラフに基づくテキスト処理方法を実現するための電子機器のブロック図である。
以下、理解を容易にするために、本願の実施例の様々な詳細を含む本願の例示的な実施例について、添付の図面を組み合わせて説明し、それらは単に例示的なものとみなされるべきである。したがって、当業者は、本願の範囲及び精神から逸脱することなく、本明細書に記述された実施例に対して様々な変更及び修正を行うことができることを理解するべきである。また、以下の記述では、説明の明瞭と簡潔のため、周知の機能及び構造に対する記述は省略する。
一般に、知識グラフと自然言語処理は、2つの独立した領域である。この2つの分野は、それぞれ独立した表現学習体系を発展させ、各分野の表現学習技術は、それぞれ異なるモデリング方法と最適化目標に従い、互いに融合することがない。知識グラフ表現学習は、通常、ポイントとエッジとの間の共起規則をベクトル空間演算の形式でモデリングし、自然言語表現学習は、通常、単語又は文の間の共起規則をシーケンス生成の形式でモデリングする。
現在、自然言語の分野において、自然言語表現学習に知識を導入する初期版とみなされるもので、言語表現学習を名前付きエンティティ情報により改善する方法が登場したが、この方法は、学習モデルとして多層自己注意型ニューラルネットワークを用い、学習対象として空所補充、隣接文対判定など、単語、文の共起のようなタスクを用いる。その知識を導入する具体的な方式は、自然言語文における対応する単語シーケンスに対して、名前付きエンティティ辞書に従ってバンドル取り扱いを行い、統一的な処理対象として言語表現学習過程に参加させることであり、バンドル取り扱いとは、1つの単語は名前付きエンティティ辞書において対応するエンティティがあれば、該単語を1つの全体として分離しないことを意味し、例えば、該単語に括弧を付けると、該単語が1つのエンティティであり、それ以上分解できないことを意味する。これにより、自然言語表現学習を名前付きエンティティ辞書の知識により改善することができるという効果を奏する。ここで、名前付きエンティティ辞書には複数のエンティティが記録されており、エンティティリストとみなされてもよく、それは知識グラフに基づいて得られたものであってもよいし、エンティティを収集することで得られたものであってもよい。
上記の自然言語表現学習を名前付きエンティティ辞書の知識により改善することは、非常に初歩的な外部知識を利用する方式である。しかし、この方法は、外部知識により自然言語表現学習をサポートすることができるが、逆に自然言語により外部知識グラフ表現学習をサポートすることはできない。
自然言語表現学習の観点からみると、上記の自然言語表現学習を名前付きエンティティ辞書の知識により改善する方法は、2つの欠点があり、1つ目の欠点は、知識使用範囲の点で、1つの単語又は1つの文字に対応するエンティティが存在するか否かを、名前付きエンティティ辞書のみにより判断することである。具体的には、知識グラフは、大量のポイントだけでなく、エッジと、ポイント及びエッジにより構成されるトポロジー構造をさらに含み、上記の方法は、1つの単語又は字がエンティティであるか否かという情報のみを利用し、2つ目の欠点は、知識使用方式の点で、上記の方法は自然言語表現学習を基本骨格とし、その上で、1つの単語又は字がエンティティであるか否かを、名前付きエンティティ辞書が提供するエンティティリストに従って判断することであり、この方式の情報の流れは、外部知識つまり名前付きエンティティ辞書から自然言語までの一方向であり、自然言語と外部知識との間の双方向対応規則を有効に利用することができない。
これに鑑みて、本願の実施例は、知識グラフの表現学習と自然意味の表現学習を組み合わせることで、より良い品質の意味表現を学習する自然言語及び知識グラフに基づくテキスト処理方法及び装置を提供する。
以下、本願の実施例に係る名詞について説明する。
まずは知識グラフである。
本願の実施例では、知識グラフは、ポイントとエッジが図の形式で構成するもので、知識の構造化表現形式である。知識グラフのポイントが表す情報は、概念グラフ、インタレストグラフ、及びイベントグラフなどの具体的な知識グラフ型にそれぞれ対応するエンティティ、概念、インタレスト、及びイベントなどを含むが、それらに限定されない。それ相応に、エッジが表す情報は、属性、従属、時系列、因果などを含むが、これらに限定されない。知識グラフのポイント及びエッジの意味表現は、知識ベースの補完、知識ベースの質問応答、知能推奨、イベント分析、言語理解、機械翻訳などの人工知能タスクに用いることができる。
次は自然言語学習である。
本願の実施例では、自然言語は、文字又は単語がシーケンスの方式で構成されるもので、人間がコミュニケーションとマインドのために使用する道具や担体であり、例えば、読書理解、知能質問応答、機械翻訳及び自動書記などの知能タスクをテキスト処理により認知するために用いられえる。
本願の実施例では、電子機器は、知識グラフの表現学習と自然言語の表現学習の過程を連合してモデリングし、モデリング過程において、知識グラフを構成するエンティティと自然言語を構成する単語との関連関係を導入することで、連合学習モデルを得て、この連合学習モデルに基づいてより良い知識グラフ意味表現と自然言語意味表現を学習する。ただし、電子機器は、例えば、サーバや端末機器などである。
図1は本願の実施例にて提供される自然言語及び知識グラフに基づくテキスト処理方法のフローチャートであり、本実施例は、電子機器の角度から説明し、本実施例は、101と、102と、103とを含む。
101、ユーザから入力された、テキストにおける予測オブジェクトの意味表現に基づいて前記テキストを処理することを要求するためのテキスト処理要求を受信する。
例示的に、電子機器に連合学習モデルを予めロードしておき、テキスト処理が必要な場合に、ユーザが、処理要求をクリック操作、タッチ操作又は音声入力などの方式で電子機器に入力し、電子機器がこのテキスト処理要求を受信して認識する。
例えば、関連学習モデルが知能タスクの認知をサポートするために用いられる場合、電子機器は、テキスト処理要求を受信すると、処理対象テキストに単語を引くなどの処理を行い、テキストを個々の単語又は字に分割し、この個々の単語又は字が予測オブジェクトとなる。
また、例えば、関連学習モデルが知識グラフのタスクをサポートするために用いられる場合、電子機器は、テキスト処理要求を受信すると、処理対象テキストに含まれるエンティティを認識し、これらのエンティティが予測オブジェクトとなる。
102、予めトレーニングされた、知識グラフ表現学習及び自然言語表現学習のために用いられる連合学習モデルに前記予測オブジェクトを入力して、前記予測オブジェクトの、前記連合学習モデルが前記知識グラフ表現学習及び前記自然言語表現学習を組み合わせて得た意味表現を取得する。
例示的に、各予測オブジェクトに対して、電子機器は、該予測オブジェクトを連合学習モデルに入力することで、該予測オブジェクトの意味表現を取得する。例えば、予測オブジェクトが単語又は字である場合、関連学習モデルは自然言語意味表現を出力し、また、例えば、予測オブジェクトがエンティティである場合、関連学習モデルは知識グラフ意味表現を出力する。
本実施例では、関連学習モデルにより出力された意味表現は、知識グラフ意味表現にも、自然言語意味表現にもかかわらず、いずれも連合学習モデルが知識グラフ表現学習及び自然言語表現学習を予め組み合わせて得たものである。すなわち、電子機器は、連合学習モデルをトレーニングするとき、単語又は字であるトレーニングサンプルに対して、トレーニング過程において該トレーニングサンプルの隣接トレーニングサンプルに加えて、該トレーニングサンプルの知識グラフ情報を考慮する。さらに、該トレーニングサンプルのトレーニング結果は、知識グラフにおける各エンティティの知識グラフ意味表現を調整するためにも用いられることにより、知識グラフにおける各エンティティの意味表現は、知識グラフにおける他のエンティティに加えて、自然言語処理におけるトレーニングサンプルのトレーニング結果を考慮するようになる。
103、前記意味表現に基づいて前記テキストを処理する。
例示的に、電子機器は、処理対象テキストにおける各予測オブジェクトの意味表現を取得した後、これらの意味表現に基づいてテキストを処理する。例えば、関連学習モデルが知能タスクの認知をサポートするために用いられる場合、電子機器は、意味表現に基づいて読書理解、知能質問応答、機械翻訳及び自動書記などを行う。また、例えば、関連学習モデルが知識グラフのタスクをサポートするために用いられる場合、電子機器は、意味表現に基づいて知識ベースの補完、知識ベースの推理、知識ベースの質問応答などを行う。
本願の実施例にて提供される自然言語及び知識グラフに基づくテキスト処理方法では、電子機器は、ユーザから入力されたテキスト処理要求を受信した後、予めトレーニングされた連合学習モデルにテキストにおける予測オブジェクトを入力して、予測オブジェクトの、連合学習モデルが知識グラフ表現学習及び自然言語表現学習を組み合わせで得た意味表現を学習し、その後、電子機器は意味表現に基づいてテキストを処理する。この過程において、電子機器が連合学習モデルを使用して得た意味表現は、該連合学習モデルが知識グラフ表現学習及び自然言語表現学習を組み合わせて得たものであり、それは知識グラフ表現学習と自然言語表現学習を組み合わせるため、知識グラフ表現学習のみ、又は自然言語表現学習のみで予測オブジェクトの意味表現を学習することと比較して、連合学習モデルが考慮する要素がより多くより包括的であるため、意味表現の精度を向上させ、ひいてはテキスト処理の精度を高めることができる。
上記の実施例では、電子機器は、ユーザから入力されたテキスト処理要求を受信する前に、さらに、トレーニングサンプルをトレーニングして上記の連合学習モデルを取得し、上記の連合学習モデルに含まれる3つの核心的なモジュールは、自然言語学習層、連合学習関連層及び知識グラフ学習層であり、前記連合学習関連層は、前記知識グラフ学習層と前記自然言語学習層を関連させるために用いられる。例示的に、図2に示すように、図2は、本願の実施例にて提供される自然言語及び知識グラフに基づくテキスト処理方法に適用される連合学習モデルの構造概略図である。
図2に示すように、連合学習モデルは、自然言語学習層、連合学習関連層及び知識グラフ学習層を含み、それぞれ相応のサブニューラルネットワークモデルに対応し、知識グラフ学習層と自然言語学習層は連合学習関連層により組み合わせられ、組み合わせメカニズムは多種の異なるニューラルネットワークメカニズムを用いることができる。また、連合学習モデルは、知識グラフ表現学習及び自然言語表現学習を駆動するための他のタスクの学習モジュールをさらに含む。
図2に示すように、自然言語学習層は、実線枠で示されるもので、例えば、循環ニューラルネットワーク(Recurrent Neural Network、RNN)モデル、長短期記憶ネットワーク(Long Short-Term Memor、LSTM)モデル、変換器(transformer)モデル、変換器による双方向のエンコード表現(Bidirectional Encoder Representations from Transformers、BERT)、及び知識が増強された意味表現モデル(Enhanced Representation through kNowledge IntEgration、ERNIE)など、様々な主流のニューラルネットワーク言語モデルを採用することができる。自然言語学習層は、本質上に、文と単語との間で情報伝達を行い、単語間の関連関係をモデリングすることで、単語表現を学習するという効果を奏する。
図2に示すように、知識グラフ学習層は、点線枠で示されるもので、グラフニューラルネットワークを用いて知識グラフのトポロジー構造をよりよく反映させることができる。また、知識グラフ学習層は、いかなるモデルを用いず、単に、知識グラフをポイントとエッジからなるリストとしてもよい。
図2に示すように、連合学習関連層は、点鎖線で示されるものであり、それは1つ又は複数種のリードライトメカニズムから構成され、連合学習関連層は、単語と知識との間に関連を付け、自然言語の文と知識グラフのデータベースとの間の情報伝達を実現するという役割を果たす。連合学習関連層のリードライトメカニズムの入力は、通常、自然言語学習層における単語又は字、及び知識グラフ学習層における知識グラフであり、ここで、単語又は字は、目標トレーニングサンプルの隣接サンプルであり、例えば、トレーニングサンプルは、図における単語1(word 1、w1)~wnのようなn個の単語又は字を含み、目標トレーニングサンプルをw3とすると、例えば、w1、w2、w4、w5など、w3の隣接サンプル、及び知識グラフが入力され、連合学習関連層は、入力に基づいて目標トレーニングサンプルの知識グラフ意味表現を得て出力する。その後、自然言語学習層は、目標トレーニングサンプルの知識グラフ意味表現及び隣接トレーニングサンプルに基づいて、目標トレーニングサンプルのトレーニング結果を得る。
本実施例では、トレーニングして、知識グラフ表現学習及び自然言語表現学習のための連合学習モデルを取得するという目的が実現される。
上記の実施例では、電子機器は、トレーニングサンプルをトレーニングして連合学習モデルを取得するとき、知識グラフ学習層により自然言語学習層を改善することができ、その後、自然言語学習層を利用して知識グラフ学習層を改善することができる。以下、この2つの点についてそれぞれ詳細に説明する。
まず、知識グラフ学習層により自然言語学習層を改善する。
1つの実施可能な設計では、電子機器がトレーニングサンプルをトレーニングして前記連合学習モデルを取得するとき、前記自然言語学習層において、前記トレーニングサンプルにおける目標トレーニングサンプルの隣接サンプルを決定し、前記連合学習関連層において、前記隣接サンプルに基づいて、前記知識グラフ学習層における各エンティティに対する前記目標トレーニングサンプルの重みを決定し、前記各エンティティの重みに基づいて前記目標トレーニングサンプルの知識グラフ意味表現を決定し、前記知識グラフ意味表現及び前記隣接サンプルに基づいて前記目標トレーニングサンプルのトレーニング結果を決定する。
例示的に、図2に示すように、トレーニングサンプルはw1~wnを含み、w3を目標トレーニングサンプルとすることを例にとると、従来のトレーニング過程では、w3が目標トレーニングサンプルである場合、w3以外の他のトレーニングサンプルのトレーニング結果が既知であるとデフォルトし、これら既知のトレーニング結果を用いてw3のトレーニング結果を予測する必要があり、予測過程で、電子機器は、例えばw1、w2、w4、w5など、w3の隣接サンプルのトレーニング結果を主に利用する。本願の実施例では、w3が目標トレーニングサンプルである場合、w3以外の他のトレーニングサンプルのトレーニング結果は既知であるとデフォルトし、電子機器は、w3のトレーニング結果を予測する際、w3の隣接サンプルw1、w2、w4、w5などのトレーニング結果を利用する以外に、w3の知識グラフ言語表現も考慮する必要がある。
本願の実施例では、w3の知識グラフ言語表現は、w3の隣接サンプルなどに基づいて取得することができる。例えば、電子機器はw3の隣接サンプルw1、w2、w4、w5などを統合して統合情報を取得し、この統合情報を連合学習関連層に入力し、連合学習関連層において、知識グラフ学習層における各エンティティ(entity、e)、例えばei、ej、ek、elに対する該統合情報の重みを決定し、該5つの重みと各エンティティの知識グラフ意味表現に基づいて、目標トレーニングサンプルの知識グラフ意味表現を決定し、また、例えば、w3の各隣接サンプルに対して、電子機器は、連合学習関連層において、知識グラフ学習層における各エンティティ(entity、e)、例えばei、ej、ek、elに対する該隣接サンプルの重みをそれぞれ決定し、20個の重みを得、該20個の重みと各エンティティの知識グラフ意味表現に基づいて、目標トレーニングサンプルの知識グラフ意味表現を決定する。
本実施例では、知識グラフにより自然言語表現学習を改善し、自然言語表現学習の観点からみると、該方法の知識使用範囲がより広く、知識使用方法がより効率的であり、表現学習連合モデリングにより、該方法は、ポイント、エッジ、及びポイントとエッジからなるトポロジー構造の知識を統合して利用し、自然言語表現学習の効果を改善することができる。
上記の実施例では、電子機器が前記統合学習関連層において、M個の異なる角度から、目標トレーニングオブジェクトのために知識グラフ意味表現を決定することができる。この場合に、電子機器は、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記目標トレーニングサンプルの重みを決定するとき、前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、前記エンティティに対する前記目標トレーニングサンプルのM個の重みを決定し、ここで、前記M≧1で、かつ整数である。
例示的に、目標トレーニングサンプルの隣接サンプルを1つの統合情報に統合することを例にとると、該統合情報が連合学習関連層に達した後、電子機器が前記連合学習関連層において、M個の角度から、知識グラフ学習層における各エンティティ(entity、e)、例えばei、ej、ek、elに対する該統合情報の重みを決定して、5M個の重みを得、該5M個の重みと各エンティティの知識グラフ意味表現に基づいて、目標トレーニングサンプルの知識グラフ意味表現を決定する。
M個の異なる角度から、目標トレーニングオブジェクトのために知識グラフ意味表現を決定することを可能にするために、連合学習関連層のリードライトメカニズムによって実現するものとしてもよい。例示的に、連合学習関連層は、1つ又は複数のリードライトメカニズムから構成され、リードライトメカニズムは注意力メカニズムを最も一般的に使用し、連合学習関連層は、1つの注意力モジュールを採用してもよいし、複数の注意力モジュールを採用してもよく、図2は、M個の注意力モジュールを用いることを示す。ここで、注意モジュールはリードライト(read write)モジュールとも呼ばれてもよい。複数の注意力モジュールを用いる場合、知識グラフを用いて学習されたデータの部数、例えば、各エンティティに対する重みの数は注意力モジュールの数と同じである。例えば、知識グラフ学習層がグラフニューラルネットワークを採用する場合、グラフニューラルネットワークはM回動作し、それにより、注意力メカニズムがアクセスするためにM個のバージョンの知識グラフデータを取得する。また、例えば、知識グラフ学習層がいかなるニューラルネットワークモジュールも採用しない場合、M部の同じのデータ構造、すなわちポイント及びエッジのリストを維持するだけでよく、このように、M個のバージョンの注意力メカニズムにより、このM部の同じデータ構造は異なる角度の知識グラフ意味表現を学習することができる。
本実施例では、複数の注意力メカニズムにより知識グラフに対して異なる学習を行って、目標トレーニングサンプルの複数の角度の知識グラフ意味表現を取得することができ、複数の角度の知識グラフ意味表現と複数の隣接サンプルを利用して目標トレーニングサンプルを予測し、予測の正確性を向上させることができる。
なお、本願の実施例におけるトレーニングサンプルの数は膨大であり、1つの目標トレーニングサンプルの隣接トレーニングサンプルは4個以上であってもよく、同様に、知識グラフ学習層におけるエンティティの数も特に多く、上記のei、ej、ek、elは単なる例示的なものであり、実際に実施する際、エンティティの数は数万ほどである。
電子機器は、目標トレーニングサンプルの知識グラフ意味表現を取得した後、該知識グラフ意味表現と目標トレーニングサンプルの隣接サンプルに基づいて、目標トレーニングサンプルのトレーニング結果を決定し、すなわち目標トレーニングサンプルに対して予測を行う。例えば、図2では、w1、w2、w4、w5及びw3の知識グラフ意味表現が既知であり、w3がどの単語又はどの字であるかを予測する。
なお、上記では、w1、w2、w4、w5が既知であり、w3が未知であることを例として本願の実施例を詳細に説明したが、本願の実施例はこれに限定されず、他の実行可能な実施形態では、a)前の複数の単語が既知であり、現在の単語を予測し、例えば、w1及びw2が既知であり、w3を予測することと、b)前及び後の複数の単語が既知であり、現在の単語を予測し、例えば、w1、w2、w4、w5が既知であり、w3を予測することと、c)2つの分、すなわち2つの単語のシーケンスが隣接分であるか否かを予測することと、d)前の複数の単語が既知であり、現在の複数の単語、すなわち文を予測し、例えば、w1、w2、w3が既知であり、w4及びw5を予測することとを含むが、これらに限定されない。
上記の実施例では、電子機器は、知識グラフ学習層における各エンティティに対する目標トレーニングオブジェクトの重みを取得した後に、各エンティティの重みに基づいて、目標トレーニングサンプルの知識グラフ意味表現を決定するとき、前記知識グラフ学習層における各エンティティに対して、前記エンティティに対応する重みに基づいて、前記エンティティの知識グラフ意味表現を処理して、複数の処理された知識グラフ意味表現を取得し、前記複数の処理された知識グラフ意味表現に基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定する。
例示的に、連合学習関連層が1つの注意力モジュールを用いることを例にとると、電子機器はw3の隣接サンプルw1、w2、w4、w5などを統合して統合情報を取得し、該統合情報を連合学習関連層に入力し、連合学習関連層において、知識グラフ学習層における各エンティティ(entity、e)、例えばei、ej、ek、elに対する該統合情報の重みを決定し、各エンティティの知識グラフ意味表現と対応する重みを乗算して、5つの処理された知識グラフ意味表現を取得し、次に、該5つの処理された知識グラフ意味表現の和を計算することで、目標トレーニングサンプルの知識グラフ意味表現を取得する。また、乗算と加算以外に、他の演算方式を用いてもよく、本願の実施例はこれについて限定しない。
本実施例では、目標トレーニングサンプルの知識グラフ意味表現を決定するという目的が達成される。
次に、自然言語学習層により知識グラフ学習層を改善する。
1つの実施可能な設計では、電子機器は前記知識グラフ意味表現及び前記隣接サンプルに基づいて前記目標トレーニングサンプルのトレーニング結果を決定した後に、さらに、前記トレーニング結果に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を最適化する。
例示的に、本願の実施例では、知識グラフ学習層により自然言語学習層を改善した後、さらに、目標トレーニングサンプルのトレーニング結果に基づいて知識グラフ学習層における各エンティティの意味表現を最適化することができる。
本実施例では、自然言語学習層により知識グラフ学習層を改善するという目的が達成される。知識グラフ表現学習の観点からみると、該方法は、自然言語表現学習のトレーニング過程により、知識グラフ表現学習過程を調整し最適化し、知識グラフ表現学習自体の学習過程を補助し補足することができ、それにより知識グラフ表現をよりよく学習することに寄与する。
自然言語学習層により知識グラフ学習層を改善する場合に、電子機器は、目標トレーニングオブジェクトのトレーニング結果が正しいか否かを判断し、トレーニング結果が正しい場合に、励起信号を生成し、前記励起信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を増強し、前記トレーニング結果が間違っている場合に、ペナルティ信号を生成し、前記ペナルティ信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を弱める。
例示的に、図2に示すように、隣接サンプルw1、w2、w4、w5及びw3の知識グラフ言語表現を用いてw3を予測した後、電子機器は、w3のトレーニング結果が正しいか否か、すなわち、w3がどの単語又はどの字であるかが正しく予測されたか否かを判断し、トレーニング結果が正しい場合、励起信号を生成して知識グラフ学習層にフィードバックすることで、電子機器は知識グラフ学習層においてエンティティei、ej、ek及びelの知識グラフ意味表現を増強するようになり、トレーニング結果が間違っている場合に、知識グラフ学習層のエンティティei、ej、ek及びelの知識グラフ意味表現が間違っている可能性があることが示され、この場合、電子機器は、ペナルティ信号を生成して知識グラフ学習層にフィードバックすることで、電子機器が知識グラフ学習層において知識グラフ学習モデルに含まれる複数のエンティティの各々の意味表現を調整するようになる。
本実施例では、自然言語学習層により知識グラフ学習層を改善するという目的が達成される。
以下、連合学習モデルのトレーニングをどのように駆動するかについて詳細に説明する。
一実施形態では、自然言語学習層の駆動で連合学習モデル全体の学習を行うことができる。
例示的に、自然言語学習層は、一般的な言語モデル学習戦略を採用しているが、a)前の複数の単語が既知であり、現在の単語を予測し、例えば、w1及びw2が既知であり、w3を予測することと、b)前及び後の複数の単語が既知であり、現在の単語を予測し、例えば、w1、w2、w4、w5が既知であり、w3を予測することと、c)2つの分、すなわち2つの単語のシーケンスが隣接単語であるか否かを予測することと、d)前の複数の単語が既知であり、現在の複数の単語、すなわち文を予測し、例えば、w1、w2、w3が既知であり、w4及びw5を予測することとを含むが、これらに限定されない。自然言語学習層は、上記の言語モデル学習戦略で駆動し、さらに連合学習関連層の橋渡しの役により、知識グラフ学習層の学習をさらに駆動することで、自然言語の単語の自然意味表現、及び知識グラフのポイントとエッジの知識グラフ意味表現を同期して学習することができる。また、ユーザが連合学習モデルのみを言語モデルとして用いる場合、知識グラフ学習層は自然言語学習層の外部掛けの知識ベースとみなすことができ、連合学習モデル全体を知識が増強された言語モデルとみなすことができる。
他の実施形態では、連合学習モデルのトレーニングを上位層タスクで駆動することもできる。ここで、上位層タスクとは、自然言語学習層の認知知能タスク、例えば、読書理解、質問システム、機械翻訳などである。具体的に実施する際、自然言語学習層の単語の表現を最上層駆動タスクの入力として実現することができる。このようにすると、最上層認知タスクの駆動で、上位層タスク自体のパラメータ、自然言語学習層のパラメータ、連合学習関連層のパラメータ、及び知識グラフ学習層のパラメータを、全て同期的に学習することができる。その上で、知識グラフ類のタスクを導入して、連合学習モデル全体の学習、例えば知識ベースの補完、知識ベースの質問応答、その他の知識推理のタスク駆動をサポートして、知識グラフの表現部分の最適化学習を行うことにしてもよい。この場合、マルチタスク学習又はマルチ目標学習の戦略を採用して、知識グラフの最適化目標と知能タスクを認知する最適化目標を協調して最適化することができる。
上記の実施例では、知識グラフ表現学習と自然言語表現学習の過程を連合モデリングすることで、知識グラフ構成要素と自然言語構成要素との間の関連関係を利用して、よりよい知識グラフ意味表現と自然言語意味表現を学習することができる。
なお、上記の実施例では、知識グラフは、伝統的な意味での事実の知識グラフだけでなく、概念グラフ、インタレストグラフ、及びイベントグラフなど、特定の知識グラフのタイプも含む。それ相応に、知識グラフにおけるポイントは、エンティティ、概念、インタレスト、及びイベントなどのタイプの情報を含むが、これらに限定されなく、エッジは、属性、従属、時系列、及び因果関係などのタイプの関連を含むが、これらに限定されない。
以上、本願の実施例に係る自然言語及び知識グラフに基づくテキスト処理の具体的な実現を紹介し、以下は、本願の装置の実施例であり、本願の方法の実施例を実行するために用いられる。本願の装置の実施例に開示されていない細部については、本願の方法の実施例を参照する。
図3は本願の実施例にて提供される自然言語及び知識グラフに基づくテキスト処理装置の構造概略図である。該装置は、電子機器に組み込まれてもよいし、又は、電子機器により実現されてもよく、電子機器は、端末機器又はサーバなどであってもよい。図3に示すように、本実施例では、この自然言語及び知識グラフに基づくテキスト処理装置100は、
ユーザから入力された、テキストにおける予測オブジェクトの意味表現に基づいて前記テキストを処理することを要求するためのテキスト処理要求を受信するための受信モジュール11と、
予めトレーニングされた、知識グラフ表現学習及び自然言語表現学習のために用いられる連合学習モデルに前記予測オブジェクトを入力して、前記予測オブジェクトの、前記連合学習モデルが前記知識グラフ表現学習及び前記自然言語表現学習を組み合わせて得た意味表現を取得するための取得モジュール12と、
前記意味表現に基づいて前記テキストを処理するための処理モジュール13とを含み得る。
図4は本願の実施例にて提供される別の自然言語及び知識グラフに基づくテキスト処理装置の構造概略図であり、図4に示すように、上記の自然言語及び知識グラフに基づくテキスト処理装置100は、
前記受信モジュール11がユーザから入力されたテキスト処理要求を受信する前に、トレーニングサンプルをトレーニングして、自然言語学習層と、知識グラフ学習層と、前記自然言語学習層と前記知識グラフ学習層を連合させるための連合学習関連層とを含む前記連合学習モデルを取得するためのトレーニングモジュール14をさらに含む。
1つの実施可能な設計では、前記トレーニングモジュール14は、前記自然言語学習層において、前記トレーニングサンプルにおける目標トレーニングサンプルの隣接サンプルを決定することと、前記連合学習関連層において、前記隣接サンプルに基づいて、前記知識グラフ学習層における各エンティティに対する前記目標トレーニングサンプルの重みを決定することと、前記各エンティティの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、前記知識グラフ意味表現及び前記隣接サンプルに基づいて、前記目標トレーニングサンプルのトレーニング結果を決定することに用いられる。
1つの実施可能な設計では、前記トレーニングモジュール14は、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記目標トレーニングサンプルの重みを決定するとき、前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、前記エンティティに対する前記目標トレーニングサンプルのM個の重みを決定し、ここで、前記M≧1で、かつ整数である。
1つの実施可能な設計では、前記トレーニングモジュール14は、前記各エンティティの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定するとき、前記知識グラフ学習層における各エンティティに対して、前記エンティティに対応する重みに基づいて、前記エンティティの知識グラフ意味表現を処理し、複数の処理された知識グラフ意味表現を取得し、前記複数の処理された知識グラフ意味表現に基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定する。
1つの実施可能な設計では、前記トレーニングモジュール14は、前記知識グラフ意味表現及び前記隣接サンプルに基づいて、前記目標トレーニングサンプルのトレーニング結果を決定した後に、さらに、前記トレーニング結果に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を最適化することに用いられる。
1つの実施可能な設計では、前記トレーニングモジュール14は、具体的に、前記トレーニング結果が正しいか否かを判断することと、前記トレーニング結果が正しい場合に、励起信号を生成し、前記励起信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を増強することと、前記トレーニング結果が間違っている場合に、ペナルティ信号を生成し、前記ペナルティ信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を調整することに用いられる。
本願の実施例にて提供される装置は、上記の実施例における電子機器が実行する方法に用いることができ、その実現原理と技術的効果は類似しており、ここでは説明は省略する。
本願の実施例によれば、本願は、電子機器及び読み取り可能な記憶媒体をさらに提供する。
図5は本願の実施例の自然言語及び知識グラフに基づくテキスト処理方法を実現するための電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことが意図される。電子機器は、さらに、パーソナルデジタルプロセッシング、携帯電話、スマートフォン、ウェアラブル機器、及び他の同様のコンピューティング装置など、様々な形態のモバイル装置を表すことができる。本明細書に示される構成要素、それらの接続及び関係、並びにそれらの機能は、単なる例であり、本明細書に記述及び/又は要求される本願の実現を限定することを意図しない。
図5に示すように、該電子機器は、1つ又は複数のプロセッサ501と、メモリ502と、高速インタフェースと低速インタフェースとを含む、各構成要素を接続させるためのインタフェースとを含む。各構成要素は、異なるバスで互いに接続され、共通のマザーボードに実装されてもよいし、又は必要に応じて他の方式で実装されてもよい。プロセッサは、外部入力/出力装置(例えば、インタフェースに結合されたディスプレイ機器)にGUIのグラフィック情報を表示するように、メモリ中又はメモリ上に記憶された命令を含む、電子機器内で実行される命令を処理できる。他の実施形態では、必要に応じて、複数のプロセッサ及び/又は複数のバスを複数のメモリと共に使用してもよい。同様に、それぞれが必要な操作の一部(例えば、サーバアレイ、1組のブレードサーバ、又はマルチプロセッサシステムとして)を提供する複数の電子機器を接続させてもよい。図5では、1つのプロセッサ501を例にする。
メモリ502は、本願にて提供される非一時的コンピュータ読み取り可能な記憶媒体である。ここで、前記メモリは、少なくとも1つのプロセッサに、本願にて提供される自然言語及び知識グラフに基づくテキスト処理方法を実行させるように、前記少なくとも1つのプロセッサによって実行可能な命令を記憶する。本願の非一時的コンピュータ読み取り可能な記憶媒体は、本願にて提供される自然言語及び知識グラフに基づくテキスト処理方法をコンピュータに実行させるために用いられるコンピュータ命令を記憶する。
メモリ502は、非一時的コンピュータ読み取り可能な記憶媒体として、非一時的ソフトウェアプログラム、非一時的コンピュータ実行可能なプログラム及びモジュール、例えば、本願の実施例における自然言語及び知識グラフに基づくテキスト処理方法に対応するプログラム命令/モジュール(例えば、図3と図5に示す受信モジュール11、取得モジュール12、処理モジュール13及びトレーニングモジュール14)を記憶するために用いられえる。プロセッサ501は、メモリ502に記憶された非一時的ソフトウェアプログラム、命令及びモジュールを実行することで、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち、上記の方法の実施例における自然言語及び知識グラフに基づくテキスト処理方法を実現する。
メモリ502は、プログラム記憶領域とデータ記憶領域とを含んでもよく、ここで、プログラム記憶領域は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データ記憶領域は、電子機器の使用に応じて作成されたデータなどを記憶することができる。また、メモリ502は、高速ランダムアクセスメモリを含んでもよいし、また、例えば、少なくとも1つの磁気ディスク記憶機器、フラッシュメモリ機器、又は他の非一時的固体記憶機器などの非一時的メモリを含んでもよい。いくつかの実施例では、メモリ502は、プロセッサ501から遠隔に配置されたメモリなどを選択することができ、これらの遠隔メモリは、ネットワークを介して電子機器に接続することができる。上記のネットワークの例としては、インターネット、イントラネット、ローカルエリアネットワーク、移動通信ネットワーク、及びそれらの組み合わせを含むが、これらに限定されない。
自然言語及び知識グラフに基づくテキスト処理方法の電子機器は、入力装置503と出力装置504とをさらに含んでもよい。プロセッサ501、メモリ502、入力装置503、及び出力装置504は、バス又は他の方式で接続されてもよく、図5では、バスによる接続を例にする。
入力装置503は、入力された数字又は文字情報を受信し、電子機器のユーザ設定及び機能制御に関連するキー信号入力を生成することができるもので、例えば、タッチパネル、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ以上のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置504は、ディスプレイ機器、補助照明装置(例えば、LED)、触覚フィードバック装置(例えば、振動モータ)などを含んでもよい。該ディスプレイ機器は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含み得るが、これらに限定されない。いくつかの実施形態では、ディスプレイ機器はタッチスクリーンであってもよい。
本明細書に記述されるシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組合で実現されえる。これらの様々な実施形態は、専用又は汎用のプログラマブルプロセッサであり得、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、該記憶システム、該少なくとも1つの入力装置、及び該少なくとも1つの出力装置にデータ及び命令を送信することができる少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行及び/又は解釈され得る1つ以上のコンピュータプログラム内で実施されることを含んでもよい。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、高度プロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械語でこれらのコンピュータプログラムを実行してもよい。本明細書で使用される用語「機械可読媒体」及び「コンピュータ可読媒体」は、プログラマブルプロセッサに機械命令及び/又はデータを提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光学ディスク、メモリ、プログラマブル論理機器(PLD))を指し、機械可読信号として機械命令を受け取る機械可読媒体を含む。用語「機械可読信号」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するために用いられる任意の信号を指す。
ユーザとの対話機能を提供するために、ここで説明されているシステムと技術は、コンピュータで実行されてもよく、該コンピュータは、ユーザに情報を表示する表示装置(例えばCRT(陰極線管)やLCD(液晶ディスプレイ)モニター)、及びキーボードやポインティング装置(例えばマウスやトラックボール)を有し、ユーザは、該キーボード及び該ポインティング装置を介してコンピュータに入力して提供することができる。他の種類の装置はユーザとの対話機能を提供するために用いることができ、例えば、ユーザに提供するフィードバックは、任意の形態の感知フィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(声入力、音声入力又は触覚入力を含む)でユーザからの入力を受信することができる。
ここで説明するシステムと技術は、バックエンド部材を含むコンピューティングシステム(例えば、データサーバーとして)、又はミドルウェア部材を含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンド部材を含むコンピューティングシステム(例えば、グラフィックユーザインタフェース又はインターネットブラウザを有するユーザコンピュータであり、ユーザが該グラフィックユーザインタフェース又は該インターネットブラウザを介してここで説明するシステムと技術の実施形態と対話できる)、又はこのようなバックエンド部材、ミドルウェア部材、或いはフロントエンド部材の任意の組み合わせを含むコンピューティングシステム内で実施されてもよい。システムの部材は、任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によって互に接続されてもよい。通信ネットワークとしては、例えば、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネットなどが挙げられる。
コンピューティングシステムは、クライアント及びサーバを含んでもよい。クライアント及びサーバは、一般に、互に離れており、通常、通信ネットワークを介して対話する。クライアントとサーバの関係は、相応するコンピュータ上で実行され、互にクライアント-サーバ関係を有するコンピュータプログラムによって生成される。
本願の実施例は、連合学習モデルのトレーニング方法をさらに提供し、前記連合学習モデルは、知識グラフ学習層と自然言語学習層とを含み、前記方法は、前記知識グラフ学習層により前記自然言語学習層をトレーニングすることと、トレーニングされた自然言語学習層を用いて前記知識グラフ学習層を改善することとを含む。
本願の実施例の技術的解決手段によれば、電子機器は、ユーザから入力されたテキスト処理要求を受信した後、予めトレーニングされた連合学習モデルにテキストにおける予測オブジェクトを入力して、予測オブジェクトの、連合学習モデルが知識グラフ表現学習及び自然言語表現学習を組み合わせて得た意味表現を学習し、その後、電子機器は意味表現に基づいてテキストを処理する。この過程において、電子機器が連合学習モデルを使用して得た意味表現は、該連合学習モデルが知識グラフ表現学習及び自然言語表現学習を組み合わせて得たもので、それは知識グラフ表現学習と自然言語表現学習を組み合わせ、知識グラフ表現学習のみ、又は自然言語表現学習のみで予測オブジェクトの意味表現を学習することと比較して、連合学習モデルが考慮する要素がより多くより包括的であるため、意味表現の精度を向上させ、ひいてはテキスト処理の精度を高めることができる。また、連合学習モデルのトレーニング過程では、知識グラフ表現学習と自然言語表現学習の過程を連合モデリングすることで、知識グラフ構成要素と自然言語構成要素との間の関連関係を利用して、知識グラフ意味表現と自然言語意味表現をよりよく学習することができる。
上記に示された様々な形態のフローを使用して、ステップを並べ替え、追加、又は削除することができることが理解される。例えば、本開示に記載された各ステップは、並列に実行されても、順次実行されても、異なる順序で実行されてもよく、本出願に開示された技術的解決手段の所望の結果を実現できればよく、本明細書はここで限定しない。
上記した具体的な実施形態は、本出願の保護範囲を限定するものではない。当業者は、設計要件及び他の要因に応じて、様々な補正、組み合わせ、サブコンビネーション、及び置換を行うことができることを理解すべきである。本出願の趣旨と原則の範囲内で行われた変更、同等の置換、及び改善などは、いずれも本出願の保護範囲に含まれるべきである。

Claims (8)

  1. 電子機器が、ユーザから入力された、前記電子機器にテキストにおける予測オブジェクトの意味表現に基づいて前記テキストを処理することを要求するテキスト処理要求を受信することと、
    前記電子機器が、予めトレーニングされた、自然言語学習層と、知識グラフ学習層と、前記自然言語学習層と前記知識グラフ学習層を連合させる連合学習関連層とを含む連合学習モデルに前記予測オブジェクトを入力し、前記自然言語学習層は、前記テキストに対して処理して得られた前記予測オブジェクトである単語又は字を前記連合学習関連層に入力し、前記知識グラフ学習層は、前記テキストから認識して得られた前記予測オブジェクトである前記テキストに含まれるエンティティからなる知識グラフを前記連合学習関連層に入力し、前記連合学習関連層は、入力された前記単語又は字、及び前記知識グラフに基づいて、知識グラフ表現学習及び自然言語表現学習を組み合わせて前記予測オブジェクトの意味表現を取得することと、
    前記電子機器が、前記意味表現に基づいて前記テキストを処理することと、を含み、
    前記テキストを処理することとは、読書理解、知能質問応答、機械翻訳、自動書記、知識ベースの補完、知識ベースの推理、知識ベースの質問応答であり、
    前記電子機器が、ユーザから入力されたテキスト処理要求を受信する前に、
    前記電子機器が、トレーニングサンプルをトレーニングして、前記連合学習モデルを取得することをさらに含み、前記トレーニングサンプルは単語又は字であり、
    前記連合学習関連層は1つ又は複数種のリードライトメカニズムから構成され、前記自然言語学習層と、前記連合学習関連層と、前記知識グラフ学習層は、それぞれ相応のサブニューラルネットワークモデルに対応し、
    前記電子機器が、トレーニングサンプルをトレーニングして前記連合学習モデルを取得することは、
    前記電子機器が、前記自然言語学習層において、前記トレーニングサンプルにおける目標トレーニングサンプルの隣接サンプルを決定することと、
    前記電子機器が、前記隣接サンプルに基づいて、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みを決定することと、
    前記電子機器が、前記連合学習関連層において前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、
    前記電子機器が、前記自然言語学習層で、前記知識グラフ意味表現及び前記隣接サンプルに基づいて、前記目標トレーニングサンプルのトレーニング結果を決定することと、を含
    前記電子機器が、前記隣接サンプルに基づいて、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みを決定することは、
    前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、前記エンティティに対する前記隣接サンプルのM個の重みを決定することを含み、前記MはM≧1で、かつ整数であり、
    前記電子機器が、前記連合学習関連層において前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することは、
    前記知識グラフ学習層における各エンティティに対して、前記電子機器が、前記連合学習関連層において、それぞれの前記エンティティを前記知識グラフ学習層に入力して得られたそれぞれの前記エンティティの知識グラフ意味表現と対応する重みを乗算して、複数の処理された知識グラフ意味表現を取得することと、
    前記電子機器が前記連合学習関連層で、前記複数の処理された知識グラフ意味表現の和を計算することにより、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、を含む、自然言語及び知識グラフに基づくテキスト処理方法。
  2. 前記電子機器が、前記自然言語学習層において前記知識グラフ意味表現及び前記隣接サンプルに基づいて前記目標トレーニングサンプルのトレーニング結果を決定した後に、
    前記電子機器が、前記連合学習関連層において、前記トレーニング結果に基づいて、前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を最適化することをさらに含み、
    前記電子機器が、前記連合学習関連層において前記トレーニング結果に基づいて、前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を最適化することは、
    前記電子機器が、前記連合学習関連層において前記トレーニング結果が正しいか否かを判断することであって、前記トレーニング結果が正しいとは、前記連合学習関連層の前記トレーニング結果と前記目標トレーニングサンプルが一致することである、判断することと、
    前記トレーニング結果が正しい場合に、前記電子機器が、前記連合学習関連層において励起信号を生成し、前記励起信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を増強することと、
    前記トレーニング結果が間違っている場合に、前記電子機器が、前記連合学習関連層においてペナルティ信号を生成し、前記ペナルティ信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を調整することと、を含む、請求項1に記載の自然言語及び知識グラフに基づくテキスト処理方法。
  3. 自然言語及び知識グラフに基づくテキスト処理装置であって、電子機器に組み込まれるか、又は、前記電子機器により実現され、
    ユーザから入力された、テキストにおける予測オブジェクトの意味表現に基づいて前記テキストを処理することを要求するテキスト処理要求を受信するための受信モジュールと、
    予めトレーニングされた、自然言語学習層と、知識グラフ学習層と、前記自然言語学習層と前記知識グラフ学習層を連合させる連合学習関連層とを含む連合学習モデルに前記予測オブジェクトを入力し、前記自然言語学習層は、前記テキストに対して処理して得られた前記予測オブジェクトである単語又は字を前記連合学習関連層に入力し、前記知識グラフ学習層は、前記テキストから認識して得られた前記予測オブジェクトである前記テキストに含まれるエンティティからなる知識グラフを前記連合学習関連層に入力し、前記連合学習関連層は、入力された前記単語又は字、及び前記知識グラフに基づいて、知識グラフ表現学習及び自然言語表現学習を組み合わせて前記予測オブジェクトの意味表現を取得する取得モジュールと、
    前記意味表現に基づいて前記テキストを処理する処理モジュールであって、前記テキストを処理することとは、読書理解、知能質問応答、機械翻訳、自動書記、知識ベースの補完、知識ベースの推理、知識ベースの質問応答である処理モジュールと、
    前記受信モジュールがユーザから入力されたテキスト処理要求を受信する前に、トレーニングサンプルをトレーニングして、前記連合学習モデルを取得するトレーニングモジュールと、を含み、前記トレーニングサンプルは単語又は字であり
    記連合学習関連層は1つ又は複数種のリードライトメカニズムから構成され、前記自然言語学習層と、前記連合学習関連層と、前記知識グラフ学習層は、それぞれ相応のサブニューラルネットワークモデルに対応し、
    前記トレーニングモジュールは、前記自然言語学習層において、前記トレーニングサンプルにおける目標トレーニングサンプルの隣接サンプルを決定することと、前記連合学習関連層において、前記隣接サンプルに基づいて、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みを決定することと、前記連合学習関連層で、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、前記自然言語学習層で、前記知識グラフ意味表現及び前記隣接サンプルに基づいて、前記目標トレーニングサンプルのトレーニング結果を決定することと、に用いられ、
    前記トレーニングモジュールは、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みを決定するとき、前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、前記エンティティに対する前記隣接サンプルのM個の重みを決定し、前記MはM≧1で、かつ整数であり、
    前記トレーニングモジュールは、前記連合学習関連層で、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定するとき、前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、それぞれの前記エンティティを前記知識グラフ学習層に入力して得られたそれぞれの前記エンティティの知識グラフ意味表現と対応する重みを乗算して、複数の処理された知識グラフ意味表現を取得し、前記複数の処理された知識グラフ意味表現の和を計算することにより、前記目標トレーニングサンプルの知識グラフ意味表現を決定する、自然言語及び知識グラフに基づくテキスト処理装置。
  4. 前記トレーニングモジュールは、前記自然言語学習層において前記知識グラフ意味表現及び前記隣接サンプルに基づいて前記目標トレーニングサンプルのトレーニング結果を決定した後に、さらに、前記連合学習関連層において、前記トレーニング結果に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を最適化することにさらに用いられ、
    前記トレーニングモジュールは、前記連合学習関連層において、前記トレーニング結果が正しいか否かを判断することであって、前記トレーニング結果が正しいとは、前記連合学習関連層の前記トレーニング結果と前記目標トレーニングサンプルが一致することである、判断することと、前記トレーニング結果が正しい場合に、前記連合学習関連層において、励起信号を生成し、前記励起信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を増強することと、前記トレーニング結果が間違っている場合に、前記連合学習関連層において、ペナルティ信号を生成し、前記ペナルティ信号に基づいて前記知識グラフ学習層に含まれる複数のエンティティの各々の知識グラフ意味表現を調整することと、に用いられる、請求項に記載の自然言語及び知識グラフに基づくテキスト処理装置。
  5. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、ここで、
    前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサに、請求項1又は2に記載の自然言語及び知識グラフに基づくテキスト処理方法を実行させる、電子機器。
  6. コンピュータ命令を記憶した非一時的コンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、請求項1又は2に記載の自然言語及び知識グラフに基づくテキスト処理方法をコンピュータに実行させるために用いられる、コンピュータ命令を記憶した非一時的コンピュータ読み取り可能な記憶媒体。
  7. 連合学習モデルのトレーニング方法であって、
    前記連合学習モデルは、知識グラフ学習層と自然言語学習層とを含み、前記連合学習モデルのトレーニング方法は、
    電子機器が、前記知識グラフ学習層により前記自然言語学習層をトレーニングすることと、
    前記電子機器が、トレーニングされた自然言語学習層を用いて前記知識グラフ学習層を改善することと、を含み、
    前記連合学習モデルは、前記自然言語学習層と前記知識グラフ学習層を連合させ、
    連合学習関連層は1つ又は複数種のリードライトメカニズムから構成され、前記自然言語学習層と、前記連合学習関連層と、前記知識グラフ学習層は、それぞれ相応のサブニューラルネットワークモデルに対応し、
    前記電子機器が、前記知識グラフ学習層により前記自然言語学習層をトレーニングすることと、前記電子機器が、トレーニングされた自然言語学習層を用いて前記知識グラフ学習層を改善することとは、
    前記電子機器が、前記自然言語学習層において、トレーニングサンプルにおける目標トレーニングサンプルの隣接サンプルを決定することであって、前記トレーニングサンプルは単語又は字である、決定することと、
    前記電子機器が、前記連合学習関連層において、前記隣接サンプルに基づいて、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みを決定することと、
    前記電子機器が、前記連合学習関連層において、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、
    前記電子機器が、前記自然言語学習層において、前記知識グラフ意味表現及び前記隣接サンプルに基づいて、前記目標トレーニングサンプルのトレーニング結果を決定することと、を含
    前記電子機器が、前記連合学習関連層において、前記隣接サンプルに基づいて、前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みを決定することは、
    前記知識グラフ学習層における各エンティティに対して、前記連合学習関連層において、前記エンティティに対する前記隣接サンプルのM個の重みを決定することを含み、前記MはM≧1で、かつ整数であり、
    前記電子機器が、前記連合学習関連層において前記知識グラフ学習層における各エンティティに対する前記隣接サンプルの重みに基づいて、前記目標トレーニングサンプルの知識グラフ意味表現を決定することは、
    前記知識グラフ学習層における各エンティティに対して、前記電子機器が、前記連合学習関連層において、それぞれの前記エンティティを前記知識グラフ学習層に入力して得られたそれぞれの前記エンティティの知識グラフ意味表現と対応する重みを乗算して、複数の処理された知識グラフ意味表現を取得することと、
    前記電子機器が前記連合学習関連層で、前記複数の処理された知識グラフ意味表現の和を計算することにより、前記目標トレーニングサンプルの知識グラフ意味表現を決定することと、を含む、連合学習モデルのトレーニング方法。
  8. コンピュータに請求項1又は2に記載の自然言語及び知識グラフに基づくテキスト処理方法を実行させる、コンピュータプログラム。
JP2020571787A 2019-12-17 2020-06-09 自然言語及び知識グラフに基づく表現学習方法及び装置 Active JP7250052B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911297702.X 2019-12-17
CN201911297702.XA CN110727806B (zh) 2019-12-17 2019-12-17 基于自然语言和知识图谱的文本处理方法及装置
PCT/CN2020/095108 WO2021120543A1 (zh) 2019-12-17 2020-06-09 基于自然语言和知识图谱的表示学习方法及装置

Publications (2)

Publication Number Publication Date
JP2022517292A JP2022517292A (ja) 2022-03-08
JP7250052B2 true JP7250052B2 (ja) 2023-03-31

Family

ID=69226014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020571787A Active JP7250052B2 (ja) 2019-12-17 2020-06-09 自然言語及び知識グラフに基づく表現学習方法及び装置

Country Status (4)

Country Link
EP (1) EP3866025A4 (ja)
JP (1) JP7250052B2 (ja)
CN (1) CN110727806B (ja)
WO (1) WO2021120543A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110727806B (zh) * 2019-12-17 2020-08-11 北京百度网讯科技有限公司 基于自然语言和知识图谱的文本处理方法及装置
CN113360751A (zh) * 2020-03-06 2021-09-07 百度在线网络技术(北京)有限公司 意图识别方法、装置、设备和介质
CN111462914B (zh) * 2020-03-13 2023-07-25 云知声智能科技股份有限公司 一种实体链接方法及装置
CN111488740B (zh) * 2020-03-27 2023-12-22 北京百度网讯科技有限公司 一种因果关系的判别方法、装置、电子设备及存储介质
CN111522944B (zh) * 2020-04-10 2023-11-14 北京百度网讯科技有限公司 用于输出信息的方法、装置、设备以及存储介质
CN111611410B (zh) * 2020-06-23 2024-01-12 中国人民解放军国防科技大学 基于多层网络空间知识表示的知识处理方法和装置
CN111950303B (zh) * 2020-10-19 2021-01-08 平安科技(深圳)有限公司 医疗文本翻译方法、装置及存储介质
CN112507040B (zh) * 2020-12-21 2023-08-08 北京百度网讯科技有限公司 多元关系生成模型的训练方法、装置、电子设备及介质
CN113642319B (zh) * 2021-07-29 2022-11-29 北京百度网讯科技有限公司 文本处理方法、装置、电子设备及存储介质
CN113656709B (zh) * 2021-08-24 2023-07-25 东北大学 一种融合知识图谱和时序特征的可解释兴趣点推荐方法
CN113505244B (zh) * 2021-09-10 2021-11-30 中国人民解放军总医院 基于深度学习的知识图谱构建方法、系统、设备及介质
CN113961679A (zh) * 2021-09-18 2022-01-21 北京百度网讯科技有限公司 智能问答的处理方法、系统、电子设备及存储介质
CN113591442B (zh) * 2021-10-08 2022-02-18 北京明略软件系统有限公司 文本生成方法、装置、电子装置及可读存储介质
WO2024007119A1 (zh) * 2022-07-04 2024-01-11 华为技术有限公司 文本处理模型的训练方法、文本处理的方法及装置
CN115017337B (zh) * 2022-08-03 2022-11-01 中国电子科技集团公司第五十四研究所 一种面向深度学习模型的隐语义解释方法
CN115587175B (zh) * 2022-12-08 2023-03-14 阿里巴巴达摩院(杭州)科技有限公司 人机对话及预训练语言模型训练方法、系统及电子设备
CN116312971B (zh) * 2023-05-15 2023-08-29 之江实验室 认知训练素材生成方法、认知训练方法、装置和介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019511797A (ja) 2016-02-29 2019-04-25 日本電気株式会社 情報処理システム、情報処理方法、及び、プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106649878A (zh) * 2017-01-07 2017-05-10 陈翔宇 基于人工智能的物联网实体搜索方法及系统
CN108073673B (zh) * 2017-05-15 2019-02-26 北京华宇元典信息服务有限公司 一种基于机器学习的法律知识图谱构建方法、装置、系统和介质
EP3625699A1 (en) * 2017-10-25 2020-03-25 Google LLC Natural language processing with an n-gram machine
CN108256065B (zh) * 2018-01-16 2021-11-09 智言科技(深圳)有限公司 基于关系检测和强化学习的知识图谱推理方法
CN108681544A (zh) * 2018-03-07 2018-10-19 中山大学 一种基于图谱拓扑结构和实体文本描述的深度学习方法
CN109978060B (zh) * 2019-03-28 2021-10-22 科大讯飞华南人工智能研究院(广州)有限公司 一种自然语言要素抽取模型的训练方法及装置
CN110083690B (zh) * 2019-04-10 2022-05-03 华侨大学 一种基于智能问答的对外汉语口语训练方法及系统
CN110727806B (zh) * 2019-12-17 2020-08-11 北京百度网讯科技有限公司 基于自然语言和知识图谱的文本处理方法及装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019511797A (ja) 2016-02-29 2019-04-25 日本電気株式会社 情報処理システム、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
CN110727806A (zh) 2020-01-24
EP3866025A1 (en) 2021-08-18
EP3866025A4 (en) 2022-02-09
WO2021120543A1 (zh) 2021-06-24
JP2022517292A (ja) 2022-03-08
CN110727806B (zh) 2020-08-11

Similar Documents

Publication Publication Date Title
JP7250052B2 (ja) 自然言語及び知識グラフに基づく表現学習方法及び装置
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
KR102514434B1 (ko) 지식 표현 학습 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN112507715B (zh) 确定实体之间关联关系的方法、装置、设备和存储介质
Li et al. A survey on deep learning event extraction: Approaches and applications
CN108628935B (zh) 一种基于端到端记忆网络的问答方法
CN111339255B (zh) 目标情感分析的方法、模型训练方法、介质和设备
US20210192364A1 (en) Representation learning method and device based on natural language and knowledge graph
JP7206515B2 (ja) 言語モデルに基づいて単語ベクトルを取得する方法、装置、デバイス及び記憶媒体
WO2021169745A1 (zh) 基于语句前后关系预测的用户意图识别方法及装置
JP2021190087A (ja) テキスト認識処理方法、装置、電子機器及び記憶媒体
JP7262539B2 (ja) 会話推薦方法、装置及び機器
JP2022020582A (ja) 自然言語処理モデルの訓練方法、装置、デバイス及び記憶媒体
JP2022040026A (ja) エンティティリンキング方法、装置、電子デバイス及び記憶媒体
US20210256045A1 (en) Method for generating question answering robot and computer device
JP7262537B2 (ja) 機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体
JP2022087814A (ja) 多言語モデルの訓練方法、装置、電子デバイス及び可読記憶媒体
JP7295200B2 (ja) 汎化処理方法、装置、デバイス、コンピュータ記憶媒体及びプログラム
JP7192192B2 (ja) 語義類似度モデルの訓練方法、装置、電子デバイス及び記憶媒体
CN116432019A (zh) 一种数据处理方法及相关设备
CN111611808A (zh) 用于生成自然语言模型的方法和装置
Cao et al. Relmkg: reasoning with pre-trained language models and knowledge graphs for complex question answering
CN111710428A (zh) 一种建模全局和局部上下文交互的生物医学文本表示方法
EP3855341A1 (en) Language generation method and apparatus, electronic device and storage medium
CHAURASIA et al. Conversational AI Unleashed: A Comprehensive Review of NLP-Powered Chatbot Platforms

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220622

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230113

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230113

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230120

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R150 Certificate of patent or registration of utility model

Ref document number: 7250052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150