JP7317791B2 - エンティティ・リンキング方法、装置、機器、及び記憶媒体 - Google Patents
エンティティ・リンキング方法、装置、機器、及び記憶媒体 Download PDFInfo
- Publication number
- JP7317791B2 JP7317791B2 JP2020206160A JP2020206160A JP7317791B2 JP 7317791 B2 JP7317791 B2 JP 7317791B2 JP 2020206160 A JP2020206160 A JP 2020206160A JP 2020206160 A JP2020206160 A JP 2020206160A JP 7317791 B2 JP7317791 B2 JP 7317791B2
- Authority
- JP
- Japan
- Prior art keywords
- entity
- vector
- mention
- candidate
- embedding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/955—Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
- G06F16/9558—Details of hyperlinks; Management of linked annotations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Description
第1の態様によれば、
ターゲットテキストを取得するステップと、
上記ターゲットテキストに含まれる少なくとも1つのエンティティ・メンション及び各上記エンティティ・メンションに対応する候補エンティティを決定するステップと、
各候補エンティティ及び予め設定されたエンティティ埋め込みベクトル決定モデルに基づいて、各候補エンティティの埋め込みベクトルを決定するステップと、
上記ターゲットテキスト及び各上記埋め込みベクトルに基づいて、上記ターゲットテキストのコンテキストセマンティック情報を決定するステップと、
上記少なくとも1つのエンティティ・メンションのタイプ情報を決定するステップと、各上記埋め込みベクトル、上記コンテキストセマンティック情報及び各上記タイプ情報に基づいて、上記少なくとも1つのエンティティ・メンションのエンティティ・リンキング結果を決定するステップと、を含むエンティティ・リンキング方法を提供する。
本実施例では、実行主体は、各候補エンティティを事前訓練されたエンティティ埋め込みベクトル決定モデルに入力し、各候補エンティティの埋め込みベクトル(embedding)を得る。上記エンティティ埋め込みベクトル決定モデルは、候補エンティティと埋め込みベクトルとの間の対応関係を表す。上記エンティティ埋め込みベクトル決定モデルは、従来の複数の言語モデル、たとえば、Bert(Bidirectional Encoder Representation from Transformers、双方向Transformerのエンコーダ)、Ernie(Ernieは百度による深層学習フレームワークPaddlePaddleに基づいて構築されたもの)などであってもよい。埋め込みベクトルは、候補エンティティのベクトル表現であり、エンティティ・メンションのセマンティック情報を含む。
実行主体は、また、ターゲットテキスト及び各候補エンティティの埋め込みベクトルに基づいて、ターゲットテキストのコンテキストセマンティック情報を決定することができる。具体的には、実行主体は、注意力メカニズムを利用して、候補エンティティの埋め込みベクトルを学習し、それにより、エンティティ・メンションセマンティクスと相関の最も高いコンテキスト語彙又はエンティティ・メンションセマンティクスと相関の最も高いコンテキストエンティティをターゲットテキストから選択する。ここでのコンテキストセマンティック情報は、これらのコンテキスト語彙又はエンティティを含むか、これらのコンテキスト語彙又はエンティティのベクトルを含み得る。たとえば、実行主体は、従来のエンコーディングアルゴリズムを用いてコンテキスト語彙をエンコーディングし、コンテキスト語彙のベクトルを得る。
実行主体は、得た各項情報に基づいて、各エンティティ・メンションのエンティティ・リンキング結果を決定することができる。具体的には、実行主体は、各項情報を予め設定されたモデルに入力し、各エンティティ・メンションのベクトルを決定し、次に、上記ベクトルと該エンティティ・メンションの候補エンティティのベクトルとの間の類似性を算出する。類似性の最も高い候補エンティティを該エンティティ・メンションのエンティティ・リンキング結果とする。
実行主体は、それぞれのエンティティ・メンションに対応する各候補エンティティを得た後、各候補エンティティの記述テキストを決定することができる。具体的には、実行主体は、知識ベース又はほかの電子機器から候補エンティティの記述テキストを取得できる。
実行主体は、各候補エンティティ同士の関係情報を得た後、各候補エンティティ同士の関係情報を第2のベクトル決定モデルに入力し、各候補エンティティの第2の埋め込みベクトルを得ることができる。第2のベクトル決定モデルは、このような関係情報を学習し、得た第2の埋め込みベクトルに当該関係情報を含め、それによりエンティティ・リンキング効果を高める。
実行主体は、第1の埋め込みベクトル及び第2の埋め込みベクトルを得た後、両方について融合又はスプライシング又はほかの処理をして、埋め込みベクトルを得ることができる。
本願の上記実施例によるエンティティ・リンキング方法は、記述テキスト中の候補エンティティ同士の関係情報を十分に学習し、また候補エンティティのセマンティクス関連ワードを学習することにより、外部知識を十分に利用することで、エンティティ・リンキングの正確率を向上させることができる。
また、図5には、本願に係るエンティティ・リンキング方法においてコンテキストセマンティック情報を決定する一実施例の手順500が示されている。図5に示すように、本実施例のエンティティ・リンキング方法は、ステップ501、ステップ502によってコンテキストセマンティック情報を決定し得る。
実行主体は、ターゲットテキストをワードベクトル決定モデルに入力し、ワードベクトルシーケンスを決定することができる。若しくは、実行主体は、まず、ターゲットテキストに対して単語分割を行う。次に、各分割単語をワードベクトル決定モデルに入力し、各単語のベクトルを得る。各単語のベクトルを組み合わせて、ワードベクトルシーケンスを得ることができる。上記ワードベクトル決定モデルは、char2vecであってもよい。
実行主体は、注意力(Attention)メカニズムを利用して、ワードベクトルシーケンス及び各候補エンティティの埋め込みベクトルを学習し、コンテキスト情報を決定することができる。ここでのコンテキスト情報は、ターゲットテキストを示すベクトルであってもよいし、ターゲットテキストを示す語彙などであってもよい。Attentionメカニズムは、人間の注意力を模倣した問題解決手法であり、簡単に言えば、大量の情報から高価値情報を素早くスクリーニングすることである。
実行主体は、隠されたターゲットテキストを事前訓練された言語モデルに入力し、該エンティティ・メンションのタイプ情報を得ることができる。事前訓練された言語モデルは、Bert(Bidirectional Encoder Representation from Transformers、二方向Transformerのエンコーダ)、Ernie(Ernieは百度の深層学習フレームワークPaddlePaddleに基づいて建築された)などであってもよい。実行主体は、隠されたターゲットテキストを利用して事前訓練された言語モデルを微細調整することができる。このようにして、事前訓練された言語モデルは、ターゲットテキストのコンテキスト情報を強化学習し、即ち、隠されたエンティティ・メンションの隣接語彙と隠されたエンティティ・メンションとの間の関係を学習できる。上記言語モデルの出力はタイプ情報を示すベクトルであり、実行主体は、上記ベクトルを解析して、エンティティ・メンションのタイプ情報を決定する。
本実施例では、実行主体は、各エンティティ・メンションの埋め込みベクトル、ターゲットテキストのコンテキストセマンティック情報及び各エンティティ・メンションのタイプ情報を上記ランク学習(Learning to Rank、LTR)モデルに入力し、それぞれのエンティティ・メンションに対応する各候補エンティティへのランクを得ることができる。実行主体は、それぞれのエンティティ・メンションに対応するランクのうち一位にある候補エンティティを、該エンティティ・メンションのエンティティ・リンキング結果とすることができる。
上記LTRモデルは、Pairwiseアルゴリズム、Listwiseアルゴリズム、及びPointwiseアルゴリズムを含み得る。その中でも、Pairwiseアルゴリズムは、ターゲットテキストと2つの候補エンティティ(1つの正の例と1つの負の例)を入力し、3つを併せた後、パーセプトロンネットワークによって、ランキング損失関数を使用して2つの候補エンティティのそれぞれについてスコアリングする。Listwiseアルゴリズムでは、ターゲットテキストとすべての候補エンティティを入力し、ターゲットテキスト表示とすべての候補エンティティ表示を合わせ、ランキング損失関数を使用してそれぞれの候補エンティティについてスコアリングする。Pointwiseアルゴリズムは、ランクの問題を分類の問題に変換するものであり、ターゲットテキストと1つの候補エンティティを入力する必要があり、二分類予測結果の信頼度を候補エンティティスコアとして、分類損失関数を使用する。
本実施例では、エンティティ・メンションごとに、実行主体は、また、コンテキストセマンティック情報、該エンティティ・メンションの埋め込みベクトル、該エンティティ・メンションのタイプ情報をスプライシングし、該エンティティ・メンションの1つのベクトル表示を得る。次に、該ベクトル表示と各候補エンティティのベクトルとの間の距離を算出する。ここで、距離とは、該エンティティ・メンションと各候補エンティティとの類似性を示す。次に、類似性の最も高い候補エンティティを該エンティティ・メンションのエンティティ・リンキング結果とすることができる。
本願の実施例の技術案によれば、外部知識を十分に利用することで、エンティティ・リンキングの正確性を向上させることができる。
Claims (21)
- エンティティ・リンキング装置により実行される方法であって、
ターゲットテキストを取得するターゲットテキスト取得ステップと、
前記ターゲットテキストに対して単語分割処理及び/または命名エンティティ認識処理を行って、前記ターゲットテキストに含まれる少なくとも1つのエンティティ・メンションを決定し、エンティティ・メンションと対応するエンティティとを関連して記憶した予め設定された知識ベースから、各前記エンティティ・メンションに対応する候補エンティティを決定する候補エンティティ決定ステップと、
各前記候補エンティティを予め設定されたエンティティ埋め込みベクトル決定モデルに入力して、各前記候補エンティティの埋め込みベクトルを決定する埋め込みベクトル決定ステップであって、前記エンティティ埋め込みベクトル決定モデルは、エンティティと埋め込みベクトルとの間の対応関係を表すためのモデルであり、前記埋め込みベクトルに、エンティティ・メンションのセマンティック情報が含まれる、ステップと、
前記候補エンティティの埋め込みベクトルを学習して、前記ターゲットテキストから、前記エンティティ・メンションのセマンティックに関連の最も高いコンテキスト語彙又はコンテキストエンティティを選び出し、前記ターゲットテキストのコンテキストセマンティック情報として決定するコンテキスト決定ステップと、
前記ターゲットテキストのコンテキストセマンティック情報に基づいて、前記少なくとも1つのエンティティ・メンションのタイプ情報を決定するタイプ情報決定ステップと、
各前記埋め込みベクトル、前記コンテキストセマンティック情報及び各前記タイプ情報に基づいて、前記少なくとも1つのエンティティ・メンションのベクトルを決定し、前記決定したベクトルと前記候補エンティティの埋め込みベクトルとの間の類似度を算出し、前記算出した類似度に基づいて、前記少なくとも1つのエンティティ・メンションのエンティティ・リンキング結果を決定するエンティティ・リンキングステップと、を含む方法。 - 前記エンティティ埋め込みベクトル決定モデルは、第1のベクトル決定モデルと第2のベクトル決定モデルを含み、前記第1のベクトル決定モデルは、エンティティの記述テキストと埋め込みベクトルとの間の対応関係を表し、前記第2のベクトル決定モデルは、エンティティ同士の関係情報と埋め込みベクトルとの対応関係を表す、請求項1に記載の方法。
- 前記埋め込みベクトル決定ステップは、
各前記候補エンティティの記述テキストを取得するステップと、
各前記記述テキスト及び前記第1のベクトル決定モデルに基づいて、各前記候補エンティティの第1の埋め込みベクトルを決定するステップと、
各前記候補エンティティ同士の関係情報を決定するステップと、
各前記候補エンティティ同士の関係情報及び前記第2のベクトル決定モデルに基づいて、各前記エンティティ・メンションの第2の埋め込みベクトルを決定するステップと、
前記第1の埋め込みベクトル及び前記第2の埋め込みベクトルに基づいて、各前記候補エンティティの埋め込みベクトルを決定するステップと、を含む、請求項2に記載の方法。 - 前記コンテキスト決定ステップは、
前記ターゲットテキストのワードベクトルシーケンスを決定するステップと、
前記ワードベクトルシーケンス及び各前記埋め込みベクトルに基づいて、前記コンテキストセマンティック情報を決定するステップと、を含む、請求項1に記載の方法。 - 前記ターゲットテキストのワードベクトルシーケンスを決定する前記ステップは、
前記少なくとも1つのエンティティ・メンションのエンティティ・リンキング結果を取得することに応答して、前記エンティティ・リンキング結果に対応する候補エンティティの埋め込みベクトルを決定するステップと、
決定された埋め込みベクトルを利用して、前記ワードベクトルシーケンスを更新するステップと、を含む、請求項4に記載の方法。 - 前記タイプ情報決定ステップは、
エンティティ・メンションごとに、前記ターゲットテキストにおいてこのエンティティ・メンションを隠すステップと、
隠されたターゲットテキスト及び事前訓練された言語モデルに基づいて、該エンティティ・メンションのタイプ情報を決定するステップと、を含む、請求項1に記載の方法。 - 前記エンティティ・リンキングステップは、
各前記埋め込みベクトル、前記コンテキストセマンティック情報、各前記タイプ情報、及び予め設定されたランク学習モデルに基づいて、それぞれのエンティティ・メンションに対応する候補エンティティを決定し、決定した候補エンティティを前記少なくとも1つのエンティティ・メンションのエンティティ・リンキング結果とするステップを含む、請求項1に記載の方法。 - 前記エンティティ・リンキングステップは、
エンティティ・メンションごとに、前記コンテキストセマンティック情報、該エンティティ・メンションの埋め込みベクトル、該エンティティ・メンションのタイプ情報、及び該エンティティ・メンションに対応する各候補エンティティのベクトルに基づいて、各エンティティ・メンションと各候補エンティティとの類似性を決定するステップと、
類似性の最も高い候補エンティティを該エンティティ・メンションのエンティティ・リンキング結果として決定するステップと、を含む、請求項1に記載の方法。 - 前記エンティティ・リンキングステップは、
エンティティ・メンションごとに、前記コンテキストセマンティック情報、該エンティティ・メンションの埋め込みベクトルに基づいて、該エンティティ・メンションのエンティティ・リンキング結果を決定するステップと、
該エンティティ・メンションのタイプ情報を利用して、前記エンティティ・リンキング結果をチェックするステップと、を含む、請求項1に記載の方法。 - エンティティ・リンキング装置であって、
ターゲットテキストを取得するように構成されているターゲットテキスト取得ユニットと、
前記ターゲットテキストに対して単語分割処理及び/または命名エンティティ認識処理を行って、前記ターゲットテキストに含まれる少なくとも1つのエンティティ・メンションを決定し、エンティティ・メンションと対応するエンティティとを関連して記憶した予め設定された知識ベースから、各前記エンティティ・メンションに対応する候補エンティティを決定するように構成されている候補エンティティ決定ユニットと、
各前記候補エンティティを予め設定されたエンティティ埋め込みベクトル決定モデルに入力して、各前記候補エンティティの埋め込みベクトルを決定するように構成されている埋め込みベクトル決定ユニットであって、前記エンティティ埋め込みベクトル決定モデルは、エンティティと埋め込みベクトルとの間の対応関係を表すためのモデルであり、前記埋め込みベクトルに、エンティティ・メンションのセマンティック情報が含まれる、ユニットと、
前記候補エンティティの埋め込みベクトルを学習して、前記ターゲットテキストから、前記エンティティ・メンションのセマンティックに関連の最も高いコンテキスト語彙又はコンテキストエンティティを選び出し、前記ターゲットテキストのコンテキストセマンティック情報として決定するように構成されているコンテキスト決定ユニットと、
前記ターゲットテキストのコンテキストセマンティック情報に基づいて、前記少なくとも1つのエンティティ・メンションのタイプ情報を決定するように構成されているタイプ情報決定ユニットと、
各前記埋め込みベクトル、前記コンテキストセマンティック情報及び各前記タイプ情報に基づいて、前記少なくとも1つのエンティティ・メンションのベクトルを決定し、前記決定したベクトルと前記候補エンティティの埋め込みベクトルとの間の類似度を算出し、前記算出した類似度に基づいて、前記少なくとも1つのエンティティ・メンションのエンティティ・リンキング結果を決定するように構成されているエンティティ・リンキングユニットと、を備える、エンティティ・リンキング装置。 - 前記エンティティ埋め込みベクトル決定モデルは、第1のベクトル決定モデルと第2のベクトル決定モデルを含み、前記第1のベクトル決定モデルは、記述テキストと埋め込みベクトルとの間の対応関係を表し、前記第2のベクトル決定モデルは、関係情報と埋め込みベクトルとの対応関係を表す、請求項10に記載の装置。
- 前記埋め込みベクトル決定ユニットは、第1のベクトル決定モジュール、第2のベクトル決定モジュール、及び埋め込みベクトル決定モジュールを備え、
前記第1のベクトル決定モジュールは、各前記候補エンティティの記述テキストを取得し、各前記記述テキスト及び前記第1のベクトル決定モデルに基づいて、各前記候補エンティティの第1の埋め込みベクトルを決定するように構成されており、
前記第2のベクトル決定モジュールは、各前記候補エンティティ同士の関係情報を決定し、各前記候補エンティティ同士の関係情報及び前記第2のベクトル決定モデルに基づいて、各前記エンティティ・メンションの第2の埋め込みベクトルを決定するように構成されており、
前記埋め込みベクトル決定モジュールは、前記第1の埋め込みベクトル及び前記第2の埋め込みベクトルに基づいて、各前記候補エンティティの埋め込みベクトルを決定するように構成されている、請求項11に記載の装置。 - 前記コンテキスト決定ユニットは、
前記ターゲットテキストのワードベクトルシーケンスを決定するように構成されているワードベクトルシーケンス決定モジュールと、
前記ワードベクトルシーケンス及び各前記埋め込みベクトルに基づいて、前記コンテキストセマンティック情報を決定するように構成されているコンテキスト決定モジュールと、を備える、請求項10に記載の装置。 - 前記ワードベクトルシーケンス決定モジュールは、さらに、
前記少なくとも1つのエンティティ・メンションのエンティティ・リンキング結果を取得することに応答して、前記エンティティ・リンキング結果に対応する候補エンティティの埋め込みベクトルを決定し、
決定された埋め込みベクトルを利用して、前記ワードベクトルシーケンスを更新するように構成されている、請求項13に記載の装置。 - 前記タイプ情報決定ユニットは、さらに、
エンティティ・メンションごとに、前記ターゲットテキストにおいてこのエンティティ・メンションを隠し、
隠されたターゲットテキスト及び事前訓練された言語モデルに基づいて、該エンティティ・メンションのタイプ情報を決定するように構成されている、請求項10に記載の装置。 - 前記エンティティ・リンキングユニットは、さらに、
各前記埋め込みベクトル、前記コンテキストセマンティック情報、各前記タイプ情報、及び予め設定されたランク学習モデルに基づいて、それぞれのエンティティ・メンションに対応する候補エンティティを決定し、決定した候補エンティティを前記少なくとも1つのエンティティ・メンションのエンティティ・リンキング結果とするように構成されている、請求項10に記載の装置。 - 前記エンティティ・リンキングユニットは、さらに、
エンティティ・メンションごとに、前記コンテキストセマンティック情報、該エンティティ・メンションの埋め込みベクトル、該エンティティ・メンションのタイプ情報、及び該エンティティ・メンションに対応する各候補エンティティのベクトルに基づいて、各エンティティ・メンションと各候補エンティティとの類似性を決定し、
類似性の最も高い候補エンティティを該エンティティ・メンションのエンティティ・リンキング結果として決定するように構成されている、請求項10に記載の装置。 - 前記エンティティ・リンキングユニットは、さらに、
エンティティ・メンションごとに、前記コンテキストセマンティック情報、該エンティティ・メンションの埋め込みベクトルに基づいて、該エンティティ・メンションのエンティティ・リンキング結果を決定し、
該エンティティ・メンションのタイプ情報を利用して、前記エンティティ・リンキング結果をチェックするように構成されている、請求項17に記載の装置。 - エンティティ・リンキング電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を備え、
前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサにより実行されて、前記少なくとも1つのプロセッサに請求項1~9のいずれか1項に記載の方法を実行させる、エンティティ・リンキング電子機器。 - コンピュータ命令が記憶された非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、請求項1~9のいずれか1項に記載の方法を前記コンピュータに実行させる、非一時的なコンピュータ読み取り可能な記憶媒体。 - プロセッサにより実行されると、請求項1~9のいずれか1項に記載の方法を実現するコンピュータ実行可能なプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010519600.4A CN111428507B (zh) | 2020-06-09 | 2020-06-09 | 实体链指方法、装置、设备以及存储介质 |
CN202010519600.4 | 2020-06-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021197138A JP2021197138A (ja) | 2021-12-27 |
JP7317791B2 true JP7317791B2 (ja) | 2023-07-31 |
Family
ID=71551300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020206160A Active JP7317791B2 (ja) | 2020-06-09 | 2020-12-11 | エンティティ・リンキング方法、装置、機器、及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11727216B2 (ja) |
EP (1) | EP3923178A1 (ja) |
JP (1) | JP7317791B2 (ja) |
KR (1) | KR102448129B1 (ja) |
CN (1) | CN111428507B (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931509A (zh) * | 2020-08-28 | 2020-11-13 | 北京百度网讯科技有限公司 | 实体链指方法、装置、电子设备及存储介质 |
CN112307752A (zh) * | 2020-10-30 | 2021-02-02 | 平安科技(深圳)有限公司 | 一种数据处理方法、装置、电子设备及存储介质 |
CN112328710A (zh) * | 2020-11-26 | 2021-02-05 | 北京百度网讯科技有限公司 | 实体信息处理方法、装置、电子设备和存储介质 |
CN112541346A (zh) * | 2020-12-24 | 2021-03-23 | 北京百度网讯科技有限公司 | 摘要生成方法、装置、电子设备及可读存储介质 |
CN112966117A (zh) * | 2020-12-28 | 2021-06-15 | 成都数之联科技有限公司 | 实体链接方法 |
CN112732917A (zh) * | 2021-01-13 | 2021-04-30 | 上海明略人工智能(集团)有限公司 | 一种实体链指结果的确定方法和装置 |
CN112905917B (zh) * | 2021-02-09 | 2023-07-25 | 北京百度网讯科技有限公司 | 内链生成方法、模型训练方法、相关装置及电子设备 |
CN112966513B (zh) * | 2021-03-05 | 2023-08-01 | 北京百度网讯科技有限公司 | 用于实体链接的方法和装置 |
CN112989235B (zh) * | 2021-03-09 | 2023-08-01 | 北京百度网讯科技有限公司 | 基于知识库的内链构建方法、装置、设备和存储介质 |
CN113157946A (zh) * | 2021-05-14 | 2021-07-23 | 咪咕文化科技有限公司 | 实体链接方法、装置、电子设备及存储介质 |
CN113657100B (zh) * | 2021-07-20 | 2023-12-15 | 北京百度网讯科技有限公司 | 实体识别方法、装置、电子设备及存储介质 |
US20230123711A1 (en) * | 2021-10-18 | 2023-04-20 | Intuit Inc. | Extracting key value pairs using positional coordinates |
CN113971216B (zh) * | 2021-10-22 | 2023-02-03 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备和存储器 |
CN114118049B (zh) * | 2021-10-28 | 2023-09-22 | 北京百度网讯科技有限公司 | 信息获取方法、装置、电子设备及存储介质 |
KR20230089056A (ko) * | 2021-12-13 | 2023-06-20 | 삼성전자주식회사 | 데이터 결합을 위한 전자 장치 및 이의 제어 방법 |
CN114239583B (zh) * | 2021-12-15 | 2023-04-07 | 北京百度网讯科技有限公司 | 实体链指模型的训练及实体链指方法、装置、设备及介质 |
CN114385833B (zh) * | 2022-03-23 | 2023-05-12 | 支付宝(杭州)信息技术有限公司 | 更新知识图谱的方法及装置 |
CN114970666B (zh) * | 2022-03-29 | 2023-08-29 | 北京百度网讯科技有限公司 | 一种口语处理方法、装置、电子设备及存储介质 |
CN115129883B (zh) * | 2022-05-27 | 2024-02-13 | 腾讯科技(深圳)有限公司 | 实体链接方法和装置、存储介质及电子设备 |
CN115329755B (zh) * | 2022-08-18 | 2023-10-31 | 腾讯科技(深圳)有限公司 | 实体链接模型处理方法、装置和实体链接处理方法、装置 |
CN115496039B (zh) * | 2022-11-17 | 2023-05-12 | 荣耀终端有限公司 | 一种词语提取方法及计算机设备 |
CN115982352B (zh) * | 2022-12-12 | 2024-04-02 | 北京百度网讯科技有限公司 | 文本分类方法、装置以及设备 |
KR102649675B1 (ko) * | 2023-12-20 | 2024-03-20 | 주식회사 인텔렉투스 | 그래프 자료 구조 및 벡터 데이터가 통합된 풀 텍스트 인덱스를 이용한 정보 제공 방법 및 시스템 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015125209A1 (ja) | 2014-02-18 | 2015-08-27 | 株式会社日立製作所 | 情報構造化システム及び情報構造化方法 |
JP2019049964A (ja) | 2017-06-30 | 2019-03-28 | アクセンチュア グローバル ソリューションズ リミテッド | 電子診療レコードからの医学的状態および事実の自動的特定および抽出 |
WO2019224891A1 (ja) | 2018-05-21 | 2019-11-28 | 楽天株式会社 | 分類装置、分類方法、生成方法、分類プログラム及び生成プログラム |
WO2020003928A1 (ja) | 2018-06-28 | 2020-01-02 | 株式会社Nttドコモ | エンティティ特定システム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104462126B (zh) * | 2013-09-22 | 2018-04-27 | 富士通株式会社 | 一种实体链接方法及装置 |
CN106940702A (zh) * | 2016-01-05 | 2017-07-11 | 富士通株式会社 | 连接短文本中实体提及与语义知识库中实体的方法和设备 |
US20180232443A1 (en) * | 2017-02-16 | 2018-08-16 | Globality, Inc. | Intelligent matching system with ontology-aided relation extraction |
US10380259B2 (en) * | 2017-05-22 | 2019-08-13 | International Business Machines Corporation | Deep embedding for natural language content based on semantic dependencies |
US11238339B2 (en) * | 2017-08-02 | 2022-02-01 | International Business Machines Corporation | Predictive neural network with sentiment data |
CN107861939B (zh) * | 2017-09-30 | 2021-05-14 | 昆明理工大学 | 一种融合词向量和主题模型的领域实体消歧方法 |
US11250331B2 (en) * | 2017-10-31 | 2022-02-15 | Microsoft Technology Licensing, Llc | Distant supervision for entity linking with filtering of noise |
US10963514B2 (en) * | 2017-11-30 | 2021-03-30 | Facebook, Inc. | Using related mentions to enhance link probability on online social networks |
US10593422B2 (en) * | 2017-12-01 | 2020-03-17 | International Business Machines Corporation | Interaction network inference from vector representation of words |
CN108280061B (zh) * | 2018-01-17 | 2021-10-26 | 北京百度网讯科技有限公司 | 基于歧义实体词的文本处理方法和装置 |
US20200065422A1 (en) * | 2018-08-24 | 2020-02-27 | Facebook, Inc. | Document Entity Linking on Online Social Networks |
US11551042B1 (en) * | 2018-08-27 | 2023-01-10 | Snap Inc. | Multimodal sentiment classification |
CN110110324B (zh) * | 2019-04-15 | 2022-12-02 | 大连理工大学 | 一种基于知识表示的生物医学实体链接方法 |
CN110991187B (zh) * | 2019-12-05 | 2024-03-08 | 北京奇艺世纪科技有限公司 | 一种实体链接的方法、装置、电子设备及介质 |
-
2020
- 2020-06-09 CN CN202010519600.4A patent/CN111428507B/zh active Active
- 2020-12-03 EP EP20211569.7A patent/EP3923178A1/en not_active Ceased
- 2020-12-10 KR KR1020200172512A patent/KR102448129B1/ko active IP Right Grant
- 2020-12-10 US US17/117,553 patent/US11727216B2/en active Active
- 2020-12-11 JP JP2020206160A patent/JP7317791B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015125209A1 (ja) | 2014-02-18 | 2015-08-27 | 株式会社日立製作所 | 情報構造化システム及び情報構造化方法 |
JP2019049964A (ja) | 2017-06-30 | 2019-03-28 | アクセンチュア グローバル ソリューションズ リミテッド | 電子診療レコードからの医学的状態および事実の自動的特定および抽出 |
WO2019224891A1 (ja) | 2018-05-21 | 2019-11-28 | 楽天株式会社 | 分類装置、分類方法、生成方法、分類プログラム及び生成プログラム |
WO2020003928A1 (ja) | 2018-06-28 | 2020-01-02 | 株式会社Nttドコモ | エンティティ特定システム |
Also Published As
Publication number | Publication date |
---|---|
EP3923178A1 (en) | 2021-12-15 |
US20210383069A1 (en) | 2021-12-09 |
CN111428507B (zh) | 2020-09-11 |
KR20210152924A (ko) | 2021-12-16 |
KR102448129B1 (ko) | 2022-09-27 |
CN111428507A (zh) | 2020-07-17 |
US11727216B2 (en) | 2023-08-15 |
JP2021197138A (ja) | 2021-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7317791B2 (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
EP3923160A1 (en) | Method, apparatus, device and storage medium for training model | |
KR102532152B1 (ko) | 멀티 모달 콘텐츠 처리 방법, 장치, 기기 및 저장 매체 | |
US11704492B2 (en) | Method, electronic device, and storage medium for entity linking by determining a linking probability based on splicing of embedding vectors of a target and a reference text | |
CN112507715B (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
US11847164B2 (en) | Method, electronic device and storage medium for generating information | |
US20210390260A1 (en) | Method, apparatus, device and storage medium for matching semantics | |
US11403468B2 (en) | Method and apparatus for generating vector representation of text, and related computer device | |
JP7196145B2 (ja) | 多義語の翻訳方法、多義語の翻訳装置、電子機器及び媒体 | |
JP2021184237A (ja) | データセット処理方法、装置、電子機器及び記憶媒体 | |
US20210334669A1 (en) | Method, apparatus, device and storage medium for constructing knowledge graph | |
EP3852000A1 (en) | Method and apparatus for processing semantic description of text entity, device and storage medium | |
US20210200813A1 (en) | Human-machine interaction method, electronic device, and storage medium | |
CN111709252B (zh) | 基于预训练的语义模型的模型改进方法及装置 | |
JP2021108098A (ja) | レビュー情報の処理方法、装置、コンピュータ機器及び媒体 | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
JP7395553B2 (ja) | 文章翻訳方法、装置、電子機器及び記憶媒体 | |
EP3855341A1 (en) | Language generation method and apparatus, electronic device and storage medium | |
US11893977B2 (en) | Method for recognizing Chinese-English mixed speech, electronic device, and storage medium | |
CN112329429B (zh) | 文本相似度学习方法、装置、设备以及存储介质 | |
US11900918B2 (en) | Method for training a linguistic model and electronic device | |
CN111859981B (zh) | 语言模型获取及中文语义理解方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210512 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230417 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230719 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7317791 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |