JP2022505015A - 知識グラフのベクトル表現生成方法、装置及び電子機器 - Google Patents

知識グラフのベクトル表現生成方法、装置及び電子機器 Download PDF

Info

Publication number
JP2022505015A
JP2022505015A JP2021515601A JP2021515601A JP2022505015A JP 2022505015 A JP2022505015 A JP 2022505015A JP 2021515601 A JP2021515601 A JP 2021515601A JP 2021515601 A JP2021515601 A JP 2021515601A JP 2022505015 A JP2022505015 A JP 2022505015A
Authority
JP
Japan
Prior art keywords
knowledge graph
language environment
vector representation
entity
environment type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021515601A
Other languages
English (en)
Other versions
JP7262571B2 (ja
Inventor
ワン,クアン
ファン,ピンピン
ワン,ハイフェン
ジャン,ウェンビン
リュウ,ヤジャン
シュ,ヨン
ウー,ファ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022505015A publication Critical patent/JP2022505015A/ja
Application granted granted Critical
Publication of JP7262571B2 publication Critical patent/JP7262571B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9017Indexing; Data structures therefor; Storage structures using directory or table look-up
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

Figure 2022505015000001
【解決手段】本出願の実施例は、知識グラフのベクトル表現生成方法、装置及び電子機器を提供し、人工知能技術分野に関し、具体的な実現方案は、知識グラフを取得し、知識グラフは複数のエンティティノードを含み、知識グラフに対応する言語環境タイプ及び言語環境データを取得し、言語環境データ及び言語環境タイプに基づいて、言語環境モデルによって複数のエンティティノードに対応するベクトル表現を生成する。これにより、言語環境内のエンティティのより洗練された意味表現が実現され、知識グラフ表現学習の精度がさらに向上させる。

Description

本出願は、コンピュータ技術分野に関し、特に人工知能技術分野に関し、知識グラフのベクトル表現生成方法、装置及び電子機器を提供する。
知識グラフは、世界の実際の知識を記述する有向グラフ構造を持つ知識ベースであり、知識グラフ表現学習の目標は、知識グラフにおける離散シンボルのエンティティ/関係をベクトルとして表現することであり:ベクトル表現は、一方で、知識グラフ内のエンティティの構造の重要な情報を保持することができ、他方で、アプリケーションタスクが知識グラフを使用すると便利である。現在、情報抽出、質問応答、読解などのタスクにおいて、知識グラフはすべてベクトル形式で適用されて機能を発揮される。
関連技術における知識グラフ表現学習は、グラフ要素(エンティティと関係とを含む)が静的な、固定的なベクトル表現を学習することに、表現能力が制限され、精度を向上させる必要がある。
本出願は、関連技術における少なくとも一つの技術的課題をある程度で解決することを目的とする。
そのため、本出願の1番目の目的は、言語環境内のエンティティのより洗練された意味表現を実現し、知識グラフ表現学習の精度をさらに向上させる知識グラフのベクトル表現生成方法を提供することである。
本出願の2番目の目的は、知識グラフのベクトル表現生成装置を提供することである。
本出願の3番目の目的は、電子機器を提供することである。
本出願の4番目の目的は、コンピュータ読み取り可能な記憶媒体を提供することである。
本出願の第1側面の実施例は、知識グラフのベクトル表現生成方法を提供し、知識グラフを取得するステップであって、前記知識グラフは複数のエンティティノードを含むステップと、前記知識グラフに対応する言語環境タイプ及び言語環境データを取得するステップと、前記言語環境データ及び前記言語環境タイプに基づいて、言語環境モデルによって前記複数のエンティティノードに対応するベクトル表現を生成するステップと、を含む。
本出願の第2側面の実施例は、知識グラフのベクトル表現生成装置を提供し、知識グラフを取得するための取得モジュールであって、前記知識グラフは複数のエンティティノードを含む取得モジュールと、前記知識グラフに対応する言語環境タイプ及び言語環境データを取得するための処理モジュールと、前記言語環境データ及び前記言語環境タイプに基づいて、言語環境モデルによって前記複数のエンティティノードに対応するベクトル表現を生成するための生成モジュールと、を含む。
本出願の第3側面の実施例は、電子機器をさらに提供し、少なくとも一つのプロセッサと、前記少なくとも一つのプロセッサと通信可能に接続されるメモリと、を含み、前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサによって実行される場合、前記少なくとも一つのプロセッサが第1側面の実施例に記載の知識グラフのベクトル表現生成方法を実行する。
本出願の第4側面の実施例は、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体をさらに提供し、前記コンピュータ命令は、前記コンピュータに第1側面の実施例に記載の知識グラフのベクトル表現生成方法を実行させる。
上記の出願における一つの実施例は、以下のような利点又は有益な効果を有する。知識グラフを取得し、さらに知識グラフに対応する言語環境タイプ及び言語環境データを取得する。さらに言語環境データ及び言語環境タイプに基づいて、言語環境モデルによって複数のエンティティノードに対応するベクトル表現を生成する。これにより、エンティティのベクトル表現を生成する場合、エンティティがいる言語環境を考慮し、エンティティがいる言語環境が異なる場合、取得されるベクトル表現は異なり、複雑な関係をモデル化するベクトル表現の能力を向上させ、表現能力はより十分であり、言語環境内のエンティティのより洗練された意味表現が実現され、それによって知識グラフ表現学習の精度がさらに向上させる。
上記の選択可能な方式が有する他の効果については、以下、具体的な実施例を組み合わせて説明する。
図面は、本技術案をよりよく理解するために使用されており、本出願の限定を構造するものではない。
本出願の実施例により提供される知識グラフのベクトル表現生成方法の概略フローチャートである。 本出願の実施例により提供されるもう一つの知識グラフのベクトル表現生成方法の概略フローチャートである。 本出願の実施例により提供される知識グラフの概略図である。 本出願の実施例により提供されるもう一つの知識グラフの概略図である。 本出願の実施例により提供されるもう一つの知識グラフのベクトル表現生成方法の概略フローチャートである。 本出願の実施例により提供されるもう一つの知識グラフの概略図である。 本出願の実施例により提供されるシーケンス構造言語環境モデルをトレーニングする概略フローチャートである。 シーケンス構造言語環境モデルの概略図である。 本出願の実施例により提供されるサブグラフ言語環境モデルをトレーニングする概略フローチャートである。 サブグラフ言語環境モデルの概略図である。 本出願の実施例により提供される知識グラフのベクトル表現生成装置の概略構造図である。 本出願の実施例により提供されるもう一つの知識グラフのベクトル表現生成装置の概略構造図である。 本出願の実施例を実現するための例示性の電子機器のブロック図である。
以下、図面を組み合わせて本出願の例示的な実施例を説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項を含んでおり、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、明確及び簡潔するために、以下の説明では、周知の機能及び構造の説明を省略する。
図1は本出願の実施例により提供される知識グラフのベクトル表現生成方法の概略フローチャートであり、図1に示すように、当該方法は、ステップ101~ステップ103を含む。
ステップ101において、知識グラフを取得し、知識グラフは複数のエンティティノードを含む。
実際の応用において、知識グラフ表現学習を行う場合、知識グラフのベクトル表現を取得する必要があり、例えば、知識グラフにおける離散シンボルのエンティティ/関係を連続ベクトルとして表現する。本実施例において、知識グラフのベクトル表現を生成するときに、まず知識グラフを取得することができる。
選択可能に、知識グラフは、複数のエンティティノードとエンティティノードの間のエッジとを含む。一つの例示をとして、知識グラフには、エンティティノード「人物A」及び「職業B」、及びエンティティの間に「役職」の関係があることを示して二つのエンティティノードを接続するエッジが含まれる。
ステップ102において、知識グラフに対応する言語環境タイプ及び言語環境データを取得する。
本実施例において、知識グラフに対応する言語環境タイプを取得し、さらに言語環境タイプに基づいて知識グラフの言語環境データを決定することができる。言語環境タイプは、シーケンス構造言語環境タイプと、サブグラフ言語環境タイプと、を含む。
以下、知識グラフに対応する言語環境タイプを取得することを説明する。
一つの例示をとして、知識グラフにおける複数のエンティティノードの数を取得し、知識グラフに二つのエンティティノードが含まれる場合、知識グラフに対応する言語環境タイプがシーケンス構造言語環境タイプであると判断され、知識グラフには二つ以上のエンティティノードが含まれる場合、知識グラフに対応する言語環境タイプがサブグラフ言語環境タイプであると判断される。
本実施例において、知識グラフに対応する言語環境タイプを決定した後、異なる言語環境タイプに基づいて対応する方式を選択して知識グラフの言語環境データを決定する。
一つの例示をとして、シーケンス構造言語環境タイプの知識グラフに対して、知識グラフにおけるエンティティノード及びエンティティノードの間のエッジを言語環境データに追加することができる。
もう一つの例示をとして、サブグラフ言語環境タイプの知識グラフに対して、知識グラフにおける目標エンティティノードを決定し、知識グラフにおける目標エンティティノードを中心とする予め設定された範囲内のエンティティノード及びエッジを言語環境データに追加することができる。
ステップ103において、言語環境データ及び言語環境タイプに基づいて、言語環境モデルによって複数のエンティティノードに対応するベクトル表現を生成する。
本実施例において、言語環境タイプに対応する言語環境モデルを予めトレーニングすることができ、言語環境モデルの入力は言語環境データであり、出力はベクトル表現である。さらに、言語環境データを言語環境モデルに入力することによって、知識グラフにおける複数のエンティティノードに対応するベクトル表現を生成する。
一つの例示をとして、言語環境タイプがシーケンス構造言語環境タイプである場合、シーケンス構造言語環境モデルを呼び出して言語環境データに基づいて複数のエンティティノードに対応するベクトル表現を生成し、言語環境タイプがサブグラフ言語環境タイプである場合、サブグラフ言語環境モデルを呼び出して言語環境データに基づいて複数のエンティティノードに対応するベクトル表現を生成する。
なお、関連技術においてグラフ要素(エンティティノードとエッジとを含む)が静的な、固定的なベクトル表現を学習し、例えば、同じのエンティティに対して、対応するベクトル表現は同じであり、グラフ要素の言語環境が無視される。グラフ要素の言語環境は、当該グラフ要素と他のグラフ要素で構成される接続構造を指す。本実施例において、知識グラフに対応する言語環境タイプ及び言語環境データを取得することによって、言語環境データ及び言語環境タイプに基づいて、言語環境モデルによって複数のエンティティノードに対応するベクトル表現を生成する。これにより、同じのエンティティに対して、エンティティがいる言語環境が異なる場合、取得される表現ベクトルは異なる。例えば、知識グラフにおけるエンティティ人物Aに対して、異なる言語環境に生成されるベクトル表現は異なる。これにより、知識グラフにおける複数のエンティティノードのベクトル表現を生成する場合、エンティティがいる言語環境を考慮し、複雑な関係(例えば、1対多、多対多)をモデル化するベクトル表現の能力を向上させ、表現能力はより十分である。
本出願の実施例の知識グラフのベクトル表現生成方法は、知識グラフを取得し、さらに知識グラフに対応する言語環境タイプ及び言語環境データを取得する。さらに言語環境データ及び言語環境タイプに基づいて、言語環境モデルによって複数のエンティティノードに対応するベクトル表現を生成する。これにより、エンティティのベクトル表現を生成する場合、エンティティがいる言語環境を考慮し、エンティティがいる言語環境が異なる場合、取得されるベクトル表現は異なり、複雑な関係をモデル化するベクトル表現の能力を向上させ、表現能力はより十分であり、言語環境内のエンティティのより洗練された意味表現が実現され、それによって知識グラフ表現学習の精度がさらに向上させる。
上記の実施例に基づいて、以下はシーケンス構造言語環境タイプを例として説明する。
図2は本出願の実施例により提供されるもう一つの知識グラフのベクトル表現生成方法の概略フローチャートであり、図2に示すように、当該方法は、ステップ201~ステップ204を含む。
ステップ201において、知識グラフを取得し、知識グラフは複数のエンティティノードを含む。
ステップ202において、知識グラフにおける複数のエンティティノードの数を取得し、知識グラフに二つのエンティティノードが含まれる場合、知識グラフに対応する言語環境タイプがシーケンス構造言語環境タイプであると判断される。
本実施例において、知識グラフに二つのエンティティノードが含まれ、すなわち言語環境タイプはシーケンス構造言語環境タイプであることを決定した後、二つのエンティティノードの間のエッジの数をさらに決定することもできる。選択可能に、二つのエンティティノードの間のエッジの数を取得し、二つのエンティティノードの間のエッジの数が1に等しい場合、知識グラフに対応する言語環境タイプがエッジ構造言語環境タイプであると判断され、二つのエンティティノードの間のエッジの数が1より大きい場合、知識グラフに対応する言語環境タイプがパス構造言語環境タイプであると判断される。
一つの例示をとして、図3を参照して、知識グラフには、エンティティノード「人物A」及び「職業B」、及び二つのエンティティノードを接続するエッジ「役職」が含まれ、言語環境タイプがエッジ構造言語環境タイプであることを決定する。
もう一つの例示をとして、図4を参照して、知識グラフには、エンティティノード「人物A」及び「英語」、及び二つのエンティティノードを順次に接続するエッジ「娘」、「生活する国」、「公用語」が含まれ、言語環境タイプがパス構造言語環境タイプであることを決定する。
ステップ203において、知識グラフに対応する言語環境データを取得する。
本実施例において、知識グラフの言語環境タイプは、エッジ構造言語環境タイプと、パス構造言語環境タイプと、を含み、知識グラフの言語環境タイプに基づいて知識グラフに対応する言語環境データを取得する。
一つの例示をとして、言語環境タイプがエッジ構造言語環境タイプであり、知識グラフに対応するトライアドを言語環境データに追加する。例えば、図3に示す知識グラフは、対応するトライアド(人物A、役職、職業B)を言語環境データに追加する。
もう一つの例示をとして、言語環境タイプがパス構造言語環境タイプであり、知識グラフに対応するパスを取得し、パスサンプリングによってパスのパスデータを取得し、パスデータ及び知識グラフにおけるエンティティノードを言語環境データに追加する。例えば、図4に示す知識グラフは、パスデータ「娘」、「生活する国」、「公用語」及びエンティティノード「人物」、「英語」を言語環境データに追加する。選択可能に、知識グラフにおけるエッジに基づいて、ランダムウォークサンプリングによって対応する数のパスデータを取得することができる。
ステップ204において、言語環境データに基づいて、シーケンス構造言語環境モデルによって複数のエンティティノードに対応するベクトル表現を生成する。
本実施例において、知識グラフに対応する言語環境タイプがシーケンス構造言語環境タイプであり、知識グラフの言語環境データを取得した後、言語環境データを予めトレーニングされたシーケンス構造言語環境モデルに入力して処理し、複数のエンティティノードに対応するベクトル表現を生成する。
本出願の実施例の知識グラフのベクトル表現生成方法は、シーケンス構造言語環境タイプの知識グラフに対して対応する言語環境データを取得することができ、さらに言語環境データに基づいて知識グラフにおける複数のエンティティノードのベクトル表現を生成し、知識グラフにおける複数のエンティティノードのベクトル表現を生成する場合、エンティティがいる言語環境を考慮し、表現能力はより十分である。
上記の実施例に基づいて、以下はサブグラフ言語環境タイプを例として説明する。
図5は本出願の実施例により提供されるもう一つの知識グラフのベクトル表現生成方法の概略フローチャートであり、図5に示すように、当該方法は、ステップ501~ステップ504を含む。
ステップ501において、知識グラフを取得し、知識グラフは複数のエンティティノードを含む。
ステップ502において、知識グラフにおける複数のエンティティノードの数を取得し、知識グラフには二つ以上のエンティティノードが含まれる場合、知識グラフに対応する言語環境タイプがサブグラフ言語環境タイプであると判断される。
一つの例示をとして、図6を参照して、知識グラフにはエンティティノード「人物A」、「人物B」、「人物C」、「人物D」、及びエッジ「娘」、「妻」が含まれ、言語環境タイプがサブグラフ言語環境タイプであることを決定する。
ステップ503において、知識グラフに対応する言語環境データを取得する。
本実施例において、以下のような方式によって言語環境データを取得する。
S1、知識グラフに対応するエンティティノードセットを生成し、S2、エンティティノードセットから第1の初期エンティティノードを抽出し、ウオーキング半径dを生成し、S3、第1の初期エンティティノードを中心として、ウオーキング半径dで知識グラフの上をウオーキングし、第1の初期エンティティノードを中心とするd次のサブグラフを決定し、第1の初期エンティティノードを中心とするd次のサブグラフを言語環境データに追加し、S4、エンティティノードセットにおけるエンティティノードが抽出を完了するまで、ステップS2及びS3を繰り返す。
選択可能に、予め設定された範囲(例えば、1ーDmax)においてランダムサンプリングによってウオーキング半径dを生成することができる。第1の初期エンティティノードを中心とするd次のサブグラフを決定した後、当該サブグラフのエッジを完成させることもできる。
ステップ504において、言語環境データに基づいて、サブ言語環境タイプによって複数のエンティティノードに対応するベクトル表現を生成する。
本実施例において、知識グラフに対応する言語環境タイプがサブグラフ言語環境タイプであり、知識グラフの言語環境データを取得した後、言語環境データを予めトレーニングされたサブグラフ言語環境モデルに入力して処理し、複数のエンティティノードに対応するベクトル表現を生成する。
本出願の実施例の知識グラフのベクトル表現生成方法は、サブグラフ言語環境タイプの知識グラフに対して対応する言語環境データを取得することができ、さらに言語環境データに基づいて知識グラフにおける複数のエンティティノードのベクトル表現を生成し、知識グラフにおける複数のエンティティノードのベクトル表現を生成する場合、エンティティがいる言語環境を考慮し、表現能力はより十分である。
上記の実施例に基づいて、以下はシーケンス構造言語環境モデルをトレーニングすることを説明する。
図7は本出願の実施例により提供されるシーケンス構造言語環境モデルをトレーニングする概略フローチャートであり、図7に示すように、当該方法は、ステップ701~ステップ704を含む。
ステップ701において、サンプル知識グラフを取得し、サンプル知識グラフはエンティティノードとエッジとを含む。
本実施例において、シーケンス構造言語環境モデルをトレーニングする場合、サンプル知識グラフを取得することができ、サンプル知識グラフはエンティティノードとエッジとを含む。例えば、言語環境タイプがシーケンス構造言語環境タイプである知識グラフをサンプル知識グラフとして取得することができる。
ステップ702において、ルックアップテーブル操作によってサンプル知識グラフにおけるエンティティノード及びエッジの第1のベクトル表現、及びサンプル知識グラフにおけるエンティティノード及びエッジの位置情報の第2のベクトル表現を取得する。
本実施例において、ルックアップテーブル操作によってエンティティノードのベクトル表現及びエッジのベクトル表現を第1のベクトル表現として取得する。及び、ルックアップテーブル操作によってシーケンス中のエンティティノードの位置情報に対応するベクトル表現、及びシーケンス中のエッジの位置情報に対応するベクトル表現を第2のベクトル表現として取得する。
ステップ703において、第1のベクトル表現と第2のベクトル表現とを予め設定されたモデルに入力して処理し、サンプル知識グラフにおける各エンティティノードに対応する第3のベクトル表現を取得する。
本実施例において、エンティティノード及びエッジを予め設定されたモデルの入力とし、例えば、エンティティノード/エッジに対応する第1のベクトル表現と第2のベクトル表現を予め設定されたモデルの入力として追加する。
Figure 2022505015000002
Figure 2022505015000003
なお、Transformerモデルによって算出してベクトル表現を取得することである具体的な実現方式は関連技術に基づいて実現されることができ、ここでは説明を省略する。
ステップ704において、第3のベクトル表現に基づいてエンティティ分類予測を行い、予測結果に応じて予め設定されたモデルの処理パラメータを調整し、シーケンス構造言語環境モデルをトレーニングする。
Figure 2022505015000004
さらに、エンティティノードに対応する実際の結果の確率値を最大化するにより、モデルのパラメータの最適化を行う。
一つの例示をとして、エンティティノードは「英語」であり、取得された各予測結果は英語と、フランス語と、日本語となどを含み、モデルのパラメータを調整することによって、予測結果で英語の確率が最大化され、これによってシーケンス構造言語環境モデルをトレーニングする。
一つの例示をとして、図8を参照して、図4に示す知識グラフを例として、エンティティノード「人物A」、「英語」、及びエッジ「娘」、「生活する国」、「公用語」を予め設定されたモデルの入力とし、遮蔽位置はエンティティノード「英語」がいる位置であることを決定し、L層のトランスフォーマモデルで処理し、遮蔽位置で出力された第3のベクトル表現を取得し、第3のベクトル表現に基づいて各予測結果の確率分布を取得し、エンティティノードに対応する実際の結果の確率値を最大化するにより、モデルのパラメータの最適化を行う。さらに、遮蔽位置をエンティティノード「人物A」がいる位置として設置してトレーニングする。
これにより、言語環境における一つのエンティティノードを遮蔽するにより、予め設定されたモデルによって遮蔽されたエンティティノードを予測し、予測結果を実際の結果と比較して、予測結果が実際の結果と一致されるまで、比較結果に応じて予め設定されたモデルのパラメータを調整し、これによってシーケンス構造言語環境モデルをトレーニングすることを実現する。
本出願の実施例において、シーケンス構造言語環境モデルをトレーニングして、シーケンス構造言語環境モデルの入力を言語環境データとし、出力をエンティティノードに対応するベクトル表現とするようにすることができる。
上記の実施例に基づいて、以下はサブグラフ言語環境モデルをトレーニングすることを説明する。
図9は本出願の実施例により提供されるサブグラフ言語環境モデルをトレーニングする概略フローチャートであり、図9に示すように、当該方法は、ステップ901~ステップ903を含む。
ステップ901において、サンプル知識グラフを取得し、サンプル知識グラフはエンティティノードとエッジとを含む。
本実施例において、シーケンス構造言語環境モデルをトレーニングする場合、サンプル知識グラフを取得することができ、サンプル知識グラフはエンティティノードとエッジとを含む。例えば、言語環境タイプがサブグラフ言語環境タイプである知識グラフをサンプル知識グラフとして取得することができる。
ステップ902において、ルックアップテーブル操作によってサンプル知識グラフにおけるエンティティノードのノードベクトルを取得し、ノードベクトルを予め設定されたモデルに入力して処理し、サンプル知識グラフにおける各エンティティノードに対応する第4のベクトル表現を取得する。
本実施例において、エンティティノードを予め設定されたモデルの入力とし、すなわちルックアップテーブル操作によってサンプル知識グラフにおけるエンティティノードのノードベクトルを取得し、ノードベクトルを予め設定されたモデルに入力して処理し、サンプル知識グラフにおける各エンティティノードに対応する第4のベクトル表現を取得する。
Figure 2022505015000005
なお、上記の実施例における第1のベクトル表現を取得することの説明は、本実施例におけるノードベクトル表現を取得することにも適用され、ここでは説明を省略する。
Figure 2022505015000006
エンティティの間の相関行列を取得し、相関行列に基づいて各エンティティノードから他のエンティティノードへの注意力計算の到達可能性を制御する。これにより、サブグラフ構造のデータを支持することができる。
一つの例示をとして、ステップ1:モデルのheadの数を知識グラフにおける関係カテゴリの数Rとして設定し、各エッジ関係の下のQuery(Q)/Kery(K)/Value(V)ベクトル表現を取得する:
Figure 2022505015000007
ステップ2:他のノードに対する各ノードのアテンション(attention)を算出し、attentionを算出する場合、特定の関係rの下のエンティティノードの間の相関行列Aによって、各エンティティノードから他のエンティティノードへの注意力計算の到達可能性を制御し、すなわち:
Figure 2022505015000008
はアテンションベクトルの次元パラメータである(例えば、一般的な値は64である)。
Figure 2022505015000009
ステップ903において、第4のベクトル表現に基づいてエンティティ分類予測を行い、予測結果に応じて予め設定されたモデルの処理パラメータを調整し、サブグラフ構造言語環境モデルをトレーニングする。
Figure 2022505015000010
さらに、エンティティノードに対応する実際の結果の確率値を最大化するにより、モデルのパラメータの最適化を行う。
一つの例示をとして、エンティティノードは「英語」であり、取得された各予測結果は英語と、フランス語と、日本語となどを含み、モデルのパラメータを調整することによって、予測結果で英語の確率が最大化され、これによってサブグラフ言語環境モデルをトレーニングする。
一つの例示をとして、図10を参照して、図6に示す知識グラフを例として、エンティティノード「人物A」、「人物B」、「人物C」、「人物D」を予め設定されたモデルの入力とし、遮蔽位置はエンティティノード「人物A」がいる位置であることを決定し、L層のトランスフォーマモデルで処理し、遮蔽位置で出力された第4のベクトル表現を取得し、第4のベクトル表現に基づいて各予測結果の確率分布を取得し、エンティティノードに対応する実際の結果の確率値を最大化するにより、モデルのパラメータの最適化を行う。さらに、遮蔽位置をエンティティノード「人物B」がいる位置として設置してトレーニングする。
本出願の実施例において、サブグラフ言語環境モデルをトレーニングして、サブグラフ言語環境モデルの入力を言語環境データとし、出力をエンティティノードに対応するベクトル表現とするようにすることができ、サブグラフ構造のデータを支持することができる。
なお、上記のシーケンス構造言語環境モデルとサブグラフ言語環境モデルは、ルックアップテーブル操作に対応するテーブルを共有することができるため、異なる言語環境データが一緒にエンティティ表現学習に影響して、これによってエンティティがさまざまな言語環境データを完全に学習することができる。
上記の実施例を実現するために、本出願は、知識グラフのベクトル表現生成装置を提供する。
図11は本出願の実施例により提供される知識グラフのベクトル表現生成装置の概略構造図であり、図11に示すように、当該装置は、取得モジュール10と、処理モジュール20と、生成モジュール30と、を含む。
取得モジュール10は、知識グラフを取得するために用いられ、知識グラフは複数のエンティティノードを含む。
処理モジュール20は、知識グラフに対応する言語環境タイプ及び言語環境データを取得するために用いられる。
生成モジュール30は、言語環境データ及び言語環境タイプに基づいて、言語環境モデルによって複数のエンティティノードに対応するベクトル表現を生成するために用いられる。
選択可能に、処理モジュール20は、具体的に、知識グラフにおける前記複数のエンティティノードの数を取得し、知識グラフに二つのエンティティノードが含まれる場合、前記知識グラフに対応する言語環境タイプがシーケンス構造言語環境タイプであると判断され、知識グラフには二つ以上のエンティティノードが含まれる場合、前記知識グラフに対応する言語環境タイプがサブグラフ言語環境タイプであると判断されるために用いられる。
選択可能に、知識グラフに対応する言語環境タイプがサブグラフ言語環境タイプであり、処理モジュール20は、具体的に、S1、前記知識グラフに対応するエンティティノードセットを生成し、S2、前記エンティティノードセットから第1の初期エンティティノードを抽出し、ウオーキング半径dを生成し、S3、前記第1の初期エンティティノードを中心として、前記ウオーキング半径dで知識グラフの上をウオーキングし、前記第1の初期エンティティノードを中心とするd次のサブグラフを決定し、前記第1の初期エンティティノードを中心とするd次のサブグラフを前記言語環境データに追加し、S4、前記エンティティノードセットにおけるエンティティノードが抽出を完了するまで、前記ステップS2及びS3を繰り返すために用いられる。
選択可能に、知識グラフに対応する言語環境タイプがエッジ構造言語環境タイプであり、処理モジュール20は、具体的に、知識グラフに対応するトライアドを前記言語環境データに追加するために用いられる。
選択可能に、知識グラフに対応する言語環境タイプがパス構造言語環境タイプであり、処理モジュール20は、具体的に、知識グラフに対応するパスを取得し、パスサンプリングによってパスのパスデータを取得し、パスデータ及び知識グラフにおけるエンティティノードを言語環境データに追加するために用いられる。
選択可能に、言語環境モデルはシーケンス構造言語環境モデルとサブグラフ言語環境モデルとを含み、生成モジュール30は、具体的に、前記言語環境タイプがシーケンス構造言語環境タイプである場合、前記シーケンス構造言語環境モデルを呼び出して前記言語環境データに基づいて前記複数のエンティティノードに対応するベクトル表現を生成し、前記言語環境タイプがサブグラフ言語環境タイプである場合、前記サブグラフ言語環境モデルを呼び出して前記言語環境データに基づいて前記複数のエンティティノードに対応するベクトル表現を生成するために用いられる。
図11に基づいて、図12に示す装置は、判断モジュール40と、第1のトレーニングモジュール50と、第2のトレーニングモジュール60と、をさらに含む。
判断モジュール40は、言語環境タイプはシーケンス構造言語環境タイプであると判断される場合、二つのエンティティノードの間のエッジの数を取得し、二つのエンティティノードの間のエッジの数が1に等しい場合、知識グラフに対応する言語環境タイプがエッジ構造言語環境タイプであると判断され、二つのエンティティノードの間のエッジの数が1より大きい場合、知識グラフに対応する言語環境タイプがパス構造言語環境タイプであると判断されるために用いられる。
第1のトレーニングモジュール50は、サンプル知識グラフを取得し、前記サンプル知識グラフはエンティティノードとエッジとを含み、ルックアップテーブル操作によって前記サンプル知識グラフにおけるエンティティノード及びエッジの第1のベクトル表現と、前記サンプル知識グラフにおけるエンティティノード及びエッジの位置情報の第2のベクトル表現とを取得し、前記第1のベクトル表現と前記第2のベクトル表現とを予め設定されたモデルに入力して処理し、前記サンプル知識グラフにおける各エンティティノードに対応する第3のベクトル表現を取得し、前記第3のベクトル表現に基づいてエンティティ分類予測を行い、予測結果に応じて前記予め設定されたモデルの処理パラメータを調整し、前記シーケンス構造言語環境モデルをトレーニングするために用いられる。
第2のトレーニングモジュール60は、サンプル知識グラフを取得し、前記サンプル知識グラフはエンティティノードとエッジとを含み、ルックアップテーブル操作によって前記サンプル知識グラフにおけるエンティティノードのノードベクトルを取得し、前記ノードベクトルを予め設定されたモデルに入力して処理し、前記サンプル知識グラフにおける各エンティティノードに対応する第4のベクトル表現を取得し、相関行列を取得し、前記相関行列に基づいて各エンティティノードから他のエンティティノードへの注意力計算の到達可能性を制御し、前記第4のベクトル表現に基づいてエンティティ分類予測を行い、予測結果に応じて前記予め設定されたモデルの処理パラメータを調整し、前記サブグラフ構造言語環境モデルをトレーニングするために用いられる。
なお、上記の知識グラフのベクトル表現生成方法の実施例の説明は、当該実施例の知識グラフのベクトル表現生成装置にも適用され、ここでは説明を省略する。
本出願の実施例の知識グラフのベクトル表現生成装置は、知識グラフを取得し、さらに知識グラフに対応する言語環境タイプ及び言語環境データを取得する。さらに言語環境データ及び言語環境タイプに基づいて、言語環境モデルによって複数のエンティティノードに対応するベクトル表現を生成する。これにより、エンティティのベクトル表現を生成する場合、エンティティがいる言語環境を考慮し、エンティティがいる言語環境が異なる場合、取得されるベクトル表現は異なり、複雑な関係をモデル化するベクトル表現の能力を向上させ、表現能力はより十分であり、言語環境内のエンティティのより洗練された意味表現が実現され、それによって知識グラフ表現学習の精度がさらに向上させる。
上記の実施例を実現するために、本出願は、コンピュータプログラム製品を提供し、コンピュータプログラム製品における命令がプロセッサによって実行される場合、上記の実施例のいずれかに記載の知識グラフのベクトル表現生成方法を実現する。
本出願の実施例によれば、本出願は、電子機器及び読み取り可能な記憶媒体をさらに提供する。
図13に示すように、それは本出願の実施例に係る知識グラフのベクトル表現生成方法の電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様のコンピューティングデバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限することを意図したものではない。
図13に示すように、当該電子機器は、一つ又は複数のプロセッサ1301と、メモリ1302と、高速インターフェースと低速インターフェースを含む各コンポーネントを接続するためのインターフェースと、を含む。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられるか、又は必要に応じて他の方式で取り付けることができる。プロセッサは、外部入力/出力装置(インターフェースに結合されたディスプレイデバイスなど)にGUIの図形情報をディスプレイするためにメモリに記憶されている命令を含む、電子機器内に実行される命令を処理することができる。他の実施方式では、必要であれば、複数のプロセッサ及び/又は複数のバスを、複数のメモリと複数のメモリとともに使用することができる。同様に、複数の電子機器を接続することができ、各電子機器は、部分的な必要な操作(例えば、サーバアレイ、ブレードサーバ、又はマルチプロセッサシステムとする)を提供することができる。図13では、一つのプロセッサ1301を例とする。
メモリ1302は、本出願により提供される非一時的なコンピュータ読み取り可能な記憶媒体である。その中、前記メモリには、少なくとも一つのプロセッサによって実行される命令を記憶して、前記少なくとも一つのプロセッサが本出願により提供される知識グラフのベクトル表現生成方法を実行することができるようにする。本出願の非一時的なコンピュータ読み取り可能な記憶媒体は、コンピュータが本出願により提供される知識グラフのベクトル表現生成方法を実行するためのコンピュータ命令を記憶する。
メモリ1302は、非一時的なコンピュータ読み取り可能な記憶媒体として、本出願の実施例における知識グラフのベクトル表現生成方法に対応するプログラム命令/モジュール(例えば、図11に示す取得モジュール10、処理モジュール20、及び生成モジュール30)ように、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶するために用いられる。プロセッサ1301は、メモリ1302に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち上記の方法の実施例における知識グラフのベクトル表現生成方法を実現する。
メモリ1302は、ストレージプログラム領域とストレージデータ領域とを含むことができ、その中、ストレージプログラム領域は、オペレーティングシステム、少なくとも一つの機能に必要なアプリケーションプログラムを記憶することができ、ストレージデータ領域は、知識グラフのベクトル表現生成方法に基づく電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ1302は、高速ランダム存取メモリを含むことができ、非一時的なメモリをさらに含むことができ、例えば、少なくとも一つのディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスである。いくつかの実施例では、メモリ1302は、プロセッサ1301に対して遠隔に設置されたメモリを含むことができ、これらの遠隔メモリは、ネットワークを介して知識グラフのベクトル表現生成方法の電子機器に接続されることができる。上記のネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びその組み合わせを含むが、これらに限定しない。
知識グラフのベクトル表現生成方法の電子機器は、入力装置1303と出力装置1304とをさらに含むことができる。プロセッサ1301、メモリ1302、入力装置1303、及び出力装置1304は、バス又は他の方式を介して接続することができ、図13では、バスを介して接続することを例とする。
入力装置1303は、入力された数字又は文字情報を受信することができ、及び知識グラフのベクトル表現生成方法の電子機器のユーザ設置及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、指示杆、一つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置1304は、ディスプレイデバイス、補助照明デバイス(例えば、LED)、及び触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。当該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定しない。いくつかの実施方式では、ディスプレイデバイスは、タッチスクリーンであってもよい。
本明細書で説明されるシステムと技術の様々な実施方式は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施方式は、一つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該一つ又は複数のコンピュータプログラムは、少なくとも一つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも一つの入力装置、及び当該少なくとも一つの出力装置に伝送することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令、高レベルのプロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピューティングプログラムを実施することを含む。本明細書に使用されるように、用語「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。用語「機械読み取り可能な信号」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、コンピュータ上でここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するために用いられることもでき、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施方式とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続されることができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。
本出願の実施例の発明によれば、取得された候補ボックスの位置はより正確であり、密なシーン知識グラフのベクトル表現生成が候補ボックスを取得する精度を向上させる必要があるという問題を解決して、知識グラフのベクトル表現生成の精度を向上させる。
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本出願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術案が所望の結果を実現することができれば、本明細書では限定されない。
上記の具体的な実施方式は、本出願に対する保護範囲の制限を構成するものではない。当業者は、設計要求と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。任意の本出願の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本出願の保護範囲内に含まれなければならない。
本出願は、バイドゥオンラインテクノロジーリミテッドカンパニーが2019年10月08日付に提出した、発明の名称が「知識グラフのベクトル表現生成方法、装置及び電子機器」であり、中国特許出願番号が「201910950874.6」である特許出願の優先権を主張する。
本出願の第4側面の実施例は、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体をさらに提供し、前記コンピュータ命令は、前記コンピュータに第1側面の実施例に記載の知識グラフのベクトル表現生成方法を実行させる。
本出願の第5側面の実施例は、コンピュータプログラムを提供し、前記コンピュータプログラムにおける命令が実行された場合に、第1の側面の実施例に記載の知識グラフのベクトル表現生成方法が実行される。
本出願の実施例によれば、本出願は、電子機器及び読み取り可能な記憶媒体をさらに提供する。
本出願の実施例によれば、コンピュータプログラムが提供される。当該コンピュータプログラムにおける命令が実行された場合に、上記知識グラフのベクトル表現生成方法が実行される。

Claims (20)

  1. 知識グラフのベクトル表現生成方法であって、
    知識グラフを取得するステップであって、前記知識グラフは複数のエンティティノードを含むステップと、
    前記知識グラフに対応する言語環境タイプ及び言語環境データを取得するステップと、
    前記言語環境データ及び前記言語環境タイプに基づいて、言語環境モデルによって前記複数のエンティティノードに対応するベクトル表現を生成するステップと、
    を含む、
    ことを特徴とする知識グラフのベクトル表現生成方法。
  2. 前記知識グラフに対応する言語環境タイプを取得するステップは、
    前記知識グラフにおける前記複数のエンティティノードの数を取得するステップと、
    前記知識グラフに二つのエンティティノードが含まれる場合、前記知識グラフに対応する言語環境タイプがシーケンス構造言語環境タイプであると判断されるステップと、
    前記知識グラフには二つ以上のエンティティノードが含まれる場合、前記知識グラフに対応する言語環境タイプがサブグラフ言語環境タイプであると判断されるステップと、
    を含む、
    ことを特徴とする請求項1に記載の知識グラフのベクトル表現生成方法。
  3. 前記知識グラフに対応する言語環境タイプがシーケンス構造言語環境タイプであると判断される場合、
    前記二つのエンティティノードの間のエッジの数を取得するステップと、
    前記二つのエンティティノードの間のエッジの数が1に等しい場合、前記知識グラフに対応する言語環境タイプがエッジ構造言語環境タイプであると判断されるステップと、
    前記二つのエンティティノードの間のエッジの数が1より大きい場合、知識グラフに対応する言語環境タイプがパス構造言語環境タイプであると判断されるステップと、
    をさらに含む、
    ことを特徴とする請求項2に記載の知識グラフのベクトル表現生成方法。
  4. 前記知識グラフに対応する言語環境タイプがサブグラフ言語環境タイプであり、前記知識グラフに対応する言語環境データを取得するステップは、
    S1、前記知識グラフに対応するエンティティノードセットを生成するステップと、
    S2、前記エンティティノードセットから第1の初期エンティティノードを抽出し、ウオーキング半径dを生成するステップと、
    S3、前記第1の初期エンティティノードを中心として、前記ウオーキング半径dで知識グラフの上をウオーキングし、前記第1の初期エンティティノードを中心とするd次のサブグラフを決定し、前記第1の初期エンティティノードを中心とするd次のサブグラフを前記言語環境データに追加するステップと、
    S4、前記エンティティノードセットにおけるエンティティノードが抽出を完了するまで、前記ステップS2及びS3を繰り返すステップと、
    を含む、
    ことを特徴とする請求項2に記載の知識グラフのベクトル表現生成方法。
  5. 前記知識グラフに対応する言語環境タイプがエッジ構造言語環境タイプであり、前記知識グラフに対応する言語環境データを取得するステップは、
    前記知識グラフに対応するトライアドを前記言語環境データに追加するステップを含む、
    ことを特徴とする請求項3に記載の知識グラフのベクトル表現生成方法。
  6. 前記知識グラフに対応する言語環境タイプがパス構造言語環境タイプであり、前記知識グラフに対応する言語環境データを取得するステップは、
    前記知識グラフに対応するパスを取得するステップと、
    パスサンプリングによって前記パスのパスデータを取得し、前記パスデータ及び前記知識グラフにおけるエンティティノードを前記言語環境データに追加するステップと、
    を含む、
    ことを特徴とする請求項3に記載の知識グラフのベクトル表現生成方法。
  7. 前記言語環境モデルはシーケンス構造言語環境モデルとサブグラフ言語環境モデルとを含み、前記言語環境データ及び前記言語環境タイプに基づいて、言語環境モデルによって前記複数のエンティティノードに対応するベクトル表現を生成するステップは、
    前記言語環境タイプがシーケンス構造言語環境タイプである場合、前記シーケンス構造言語環境モデルを呼び出して前記言語環境データに基づいて前記複数のエンティティノードに対応するベクトル表現を生成するステップと、
    前記言語環境タイプがサブグラフ言語環境タイプである場合、前記サブグラフ言語環境モデルを呼び出して前記言語環境データに基づいて前記複数のエンティティノードに対応するベクトル表現を生成するステップと、
    を含む、
    ことを特徴とする請求項2に記載の知識グラフのベクトル表現生成方法。
  8. 前記シーケンス構造言語環境モデルは、以下のステップによってトレーニングされて取得され、前記ステップは、
    サンプル知識グラフを取得するステップであって、前記サンプル知識グラフはエンティティノードとエッジとを含むステップと、
    ルックアップテーブル操作によって前記サンプル知識グラフにおけるエンティティノード及びエッジの第1のベクトル表現と、前記サンプル知識グラフにおけるエンティティノード及びエッジの位置情報の第2のベクトル表現とを取得するステップと、
    前記第1のベクトル表現と前記第2のベクトル表現とを予め設定されたモデルに入力して処理し、前記サンプル知識グラフにおける各エンティティノードに対応する第3のベクトル表現を取得するステップと、
    前記第3のベクトル表現に基づいてエンティティ分類予測を行い、予測結果に応じて前記予め設定されたモデルの処理パラメータを調整し、前記シーケンス構造言語環境モデルをトレーニングするステップと、
    を含む、
    ことを特徴とする請求項7に記載の知識グラフのベクトル表現生成方法。
  9. 前記サブグラフ構造言語環境モデルは、以下のステップによってトレーニングされて取得され、前記ステップは、
    サンプル知識グラフを取得するステップであって、前記サンプル知識グラフはエンティティノードとエッジとを含むステップと、
    ルックアップテーブル操作によって前記サンプル知識グラフにおけるエンティティノードのノードベクトルを取得し、前記ノードベクトルを予め設定されたモデルに入力して処理し、前記サンプル知識グラフにおける各エンティティノードに対応する第4のベクトル表現を取得するステップであって、
    相関行列を取得し、前記相関行列に基づいて各エンティティノードから他のエンティティノードへの注意力計算の到達可能性を制御するステップと、
    前記第4のベクトル表現に基づいてエンティティ分類予測を行い、予測結果に応じて前記予め設定されたモデルの処理パラメータを調整し、前記サブグラフ構造言語環境モデルをトレーニングするステップと、
    を含む、
    ことを特徴とする請求項7に記載の知識グラフのベクトル表現生成方法。
  10. 知識グラフのベクトル表現生成装置であって、
    知識グラフを取得するための取得モジュールであって、前記知識グラフは複数のエンティティノードを含む取得モジュールと、
    前記知識グラフに対応する言語環境タイプ及び言語環境データを取得するための処理モジュールと、
    前記言語環境データ及び前記言語環境タイプに基づいて、言語環境モデルによって前記複数のエンティティノードに対応するベクトル表現を生成するための生成モジュールと、
    を含む、
    ことを特徴とする知識グラフのベクトル表現生成装置。
  11. 前記処理モジュールは、具体的に、
    前記知識グラフにおける前記複数のエンティティノードの数を取得し、
    前記知識グラフに二つのエンティティノードが含まれる場合、前記知識グラフに対応する言語環境タイプがシーケンス構造言語環境タイプであると判断され、
    前記知識グラフには二つ以上のエンティティノードが含まれる場合、前記知識グラフに対応する言語環境タイプがサブグラフ言語環境タイプであると判断されるために用いられる、
    ことを特徴とする請求項10に記載の知識グラフのベクトル表現生成装置。
  12. 前記知識グラフに対応する言語環境タイプがシーケンス構造言語環境タイプであると判断される場合、前記二つのエンティティノードの間のエッジの数を取得し、
    前記二つのエンティティノードの間のエッジの数が1に等しい場合、前記知識グラフに対応する言語環境タイプがエッジ構造言語環境タイプであると判断され、
    前記二つのエンティティノードの間のエッジの数が1より大きい場合、前記知識グラフに対応する言語環境タイプがパス構造言語環境タイプであると判断されるための判断モジュールをさらに含む、
    ことを特徴とする請求項11に記載の知識グラフのベクトル表現生成装置。
  13. 前記知識グラフに対応する言語環境タイプがサブグラフ言語環境タイプであり、前記処理モジュールは、具体的に、
    S1、前記知識グラフに対応するエンティティノードセットを生成し、
    S2、前記エンティティノードセットから第1の初期エンティティノードを抽出し、ウオーキング半径dを生成し、
    S3、前記第1の初期エンティティノードを中心として、前記ウオーキング半径dで知識グラフの上をウオーキングし、前記第1の初期エンティティノードを中心とするd次のサブグラフを決定し、前記第1の初期エンティティノードを中心とするd次のサブグラフを前記言語環境データに追加し、
    S4、前記エンティティノードセットにおけるエンティティノードが抽出を完了するまで、前記ステップS2及びS3を繰り返すために用いられる、
    ことを特徴とする請求項11に記載の知識グラフのベクトル表現生成装置。
  14. 前記知識グラフに対応する言語環境タイプがエッジ構造言語環境タイプであり、前記処理モジュールは、具体的に、
    前記知識グラフに対応するトライアドを前記言語環境データに追加するために用いられる、
    ことを特徴とする請求項12に記載の知識グラフのベクトル表現生成装置。
  15. 前記知識グラフに対応する言語環境タイプがパス構造言語環境タイプであり、前記処理モジュールは、具体的に、
    前記知識グラフに対応するパスを取得し、
    パスサンプリングによって前記パスのパスデータを取得し、前記パスデータ及び前記知識グラフにおけるエンティティノードを前記言語環境データに追加するために用いられる、
    ことを特徴とする請求項12に記載の知識グラフのベクトル表現生成装置。
  16. 前記言語環境モデルはシーケンス構造言語環境モデルとサブグラフ言語環境モデルとを含み、前記生成モジュールは、具体的に、
    前記言語環境タイプがシーケンス構造言語環境タイプである場合、前記シーケンス構造言語環境モデルを呼び出して前記言語環境データに基づいて前記複数のエンティティノードに対応するベクトル表現を生成し、
    前記言語環境タイプがサブグラフ言語環境タイプである場合、前記サブグラフ言語環境モデルを呼び出して前記言語環境データに基づいて前記複数のエンティティノードに対応するベクトル表現を生成するために用いられる、
    ことを特徴とする請求項11に記載の知識グラフのベクトル表現生成装置。
  17. サンプル知識グラフを取得し、前記サンプル知識グラフはエンティティノードとエッジとを含み、
    ルックアップテーブル操作によって前記サンプル知識グラフにおけるエンティティノード及びエッジの第1のベクトル表現と、前記サンプル知識グラフにおけるエンティティノード及びエッジの位置情報の第2のベクトル表現とを取得し、
    前記第1のベクトル表現と前記第2のベクトル表現とを予め設定されたモデルに入力して処理し、前記サンプル知識グラフにおける各エンティティノードに対応する第3のベクトル表現を取得し、
    前記第3のベクトル表現に基づいてエンティティ分類予測を行い、予測結果に応じて前記予め設定されたモデルの処理パラメータを調整し、前記シーケンス構造言語環境モデルをトレーニングするための第1のトレーニングモジュールをさらに含む、
    ことを特徴とする請求項16に記載の知識グラフのベクトル表現生成装置。
  18. サンプル知識グラフを取得し、前記サンプル知識グラフはエンティティノードとエッジとを含み、
    ルックアップテーブル操作によって前記サンプル知識グラフにおけるエンティティノードのノードベクトルを取得し、前記ノードベクトルを予め設定されたモデルに入力して処理し、前記サンプル知識グラフにおける各エンティティノードに対応する第4のベクトル表現を取得し、
    相関行列を取得し、前記相関行列に基づいて各エンティティノードから他のエンティティノードへの注意力計算の到達可能性を制御し、
    前記第4のベクトル表現に基づいてエンティティ分類予測を行い、予測結果に応じて前記予め設定されたモデルの処理パラメータを調整し、前記サブグラフ構造言語環境モデルをトレーニングするための第2のトレーニングモジュールをさらに含む、
    ことを特徴とする請求項16に記載の知識グラフのベクトル表現生成装置。
  19. 電子機器であって、
    少なくとも一つのプロセッサと、
    前記少なくとも一つのプロセッサと通信可能に接続されるメモリと、を含み、
    前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサによって実行される場合、前記少なくとも一つのプロセッサが請求項1~9のいずれかに記載の知識グラフのベクトル表現生成方法を実行する、
    ことを特徴とする電子機器。
  20. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は、前記コンピュータに請求項1~9のいずれかに記載の知識グラフのベクトル表現生成方法を実行させる、
    ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
JP2021515601A 2019-10-08 2020-04-07 知識グラフのベクトル表現生成方法、装置及び電子機器 Active JP7262571B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910950874.6A CN110795569B (zh) 2019-10-08 2019-10-08 知识图谱的向量表示生成方法、装置及设备
CN201910950874.6 2019-10-08
PCT/CN2020/083547 WO2021068468A1 (zh) 2019-10-08 2020-04-07 知识图谱的向量表示生成方法、装置及设备

Publications (2)

Publication Number Publication Date
JP2022505015A true JP2022505015A (ja) 2022-01-14
JP7262571B2 JP7262571B2 (ja) 2023-04-21

Family

ID=69440099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021515601A Active JP7262571B2 (ja) 2019-10-08 2020-04-07 知識グラフのベクトル表現生成方法、装置及び電子機器

Country Status (6)

Country Link
US (1) US11995560B2 (ja)
EP (1) EP4044045A4 (ja)
JP (1) JP7262571B2 (ja)
KR (1) KR102604959B1 (ja)
CN (1) CN110795569B (ja)
WO (1) WO2021068468A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110795569B (zh) 2019-10-08 2021-06-15 北京百度网讯科技有限公司 知识图谱的向量表示生成方法、装置及设备
CN111626044B (zh) * 2020-05-14 2023-06-30 北京字节跳动网络技术有限公司 文本生成方法、装置、电子设备及计算机可读存储介质
CN112052680B (zh) * 2020-10-14 2023-01-10 腾讯科技(深圳)有限公司 问题生成方法、装置、设备及存储介质
CN112580716B (zh) * 2020-12-16 2023-07-11 北京百度网讯科技有限公司 图谱中边类型的识别方法、装置、设备及存储介质
CN112948592A (zh) * 2021-02-26 2021-06-11 平安科技(深圳)有限公司 基于人工智能的订单分级方法、装置、设备及存储介质
CN113569773B (zh) * 2021-08-02 2023-09-15 南京信息工程大学 基于知识图谱和Softmax回归的干扰信号识别方法
CN113673249B (zh) * 2021-08-25 2022-08-16 北京三快在线科技有限公司 实体识别方法、装置、设备及存储介质
CN114817424A (zh) * 2022-05-27 2022-07-29 中译语通信息科技(上海)有限公司 一种基于语境信息的图表征方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012176317A1 (ja) * 2011-06-23 2012-12-27 サイバーアイ・エンタテインメント株式会社 画像認識システムを組込んだ関連性検索によるインタレスト・グラフ収集システム
US20180341863A1 (en) * 2017-05-27 2018-11-29 Ricoh Company, Ltd. Knowledge graph processing method and device
WO2019003069A1 (en) * 2017-06-26 2019-01-03 International Business Machines Corporation ADAPTIVE EVALUATION OF META-RELATIONS IN SEMANTIC GRAPHICS
JP2019125364A (ja) * 2018-01-03 2019-07-25 エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー マルチモーダルレコメンデーション方法及びシステム
JP6567218B1 (ja) * 2018-09-28 2019-08-28 三菱電機株式会社 推論装置、推論方法、及び推論プログラム
WO2019178155A1 (en) * 2018-03-13 2019-09-19 Pinterest, Inc. Efficient convolutional network for recommender systems

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106339401A (zh) * 2015-07-16 2017-01-18 富士通株式会社 确定实体之间的关系的方法和设备
CN106227794B (zh) * 2016-07-20 2019-09-17 北京航空航天大学 时态图数据中动态属性数据的存储方法和装置
US10515400B2 (en) * 2016-09-08 2019-12-24 Adobe Inc. Learning vector-space representations of items for recommendations using word embedding models
US10482336B2 (en) * 2016-10-07 2019-11-19 Noblis, Inc. Face recognition and image search system using sparse feature vectors, compact binary vectors, and sub-linear search
US11176188B2 (en) * 2017-01-11 2021-11-16 Siemens Healthcare Gmbh Visualization framework based on document representation learning
KR101914853B1 (ko) * 2017-02-08 2018-11-02 경북대학교 산학협력단 논리적 속성이 반영된 지식 그래프 임베딩 방법 및 시스템, 이를 수행하기 위한 기록매체
US20180232443A1 (en) * 2017-02-16 2018-08-16 Globality, Inc. Intelligent matching system with ontology-aided relation extraction
US11481603B1 (en) * 2017-05-19 2022-10-25 Wells Fargo Bank, N.A. System for deep learning using knowledge graphs
CN108052625B (zh) * 2017-12-18 2020-05-19 清华大学 一种实体精细分类方法
CN108153901B (zh) * 2018-01-16 2022-04-19 北京百度网讯科技有限公司 基于知识图谱的信息推送方法和装置
CN108920527A (zh) * 2018-06-07 2018-11-30 桂林电子科技大学 一种基于知识图谱的个性化推荐方法
CN109189882A (zh) * 2018-08-08 2019-01-11 北京百度网讯科技有限公司 序列内容的回答类型识别方法、装置、服务器和存储介质
CN109165278B (zh) * 2018-09-07 2021-11-09 桂林电子科技大学 一种基于实体和关系结构信息的知识图谱表示学习方法
CN109271516B (zh) * 2018-09-26 2020-09-15 清华大学 一种知识图谱中实体类型分类方法及系统
CN109739995B (zh) 2018-12-21 2022-12-09 中国银联股份有限公司 一种信息处理方法及装置
CN109902145B (zh) * 2019-01-18 2021-04-20 中国科学院信息工程研究所 一种基于注意力机制的实体关系联合抽取方法和系统
US10902203B2 (en) * 2019-04-23 2021-01-26 Oracle International Corporation Named entity disambiguation using entity distance in a knowledge graph
CN110147414B (zh) * 2019-05-23 2022-05-13 北京金山数字娱乐科技有限公司 一种知识图谱的实体表征方法及装置
CN110795569B (zh) 2019-10-08 2021-06-15 北京百度网讯科技有限公司 知识图谱的向量表示生成方法、装置及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012176317A1 (ja) * 2011-06-23 2012-12-27 サイバーアイ・エンタテインメント株式会社 画像認識システムを組込んだ関連性検索によるインタレスト・グラフ収集システム
US20180341863A1 (en) * 2017-05-27 2018-11-29 Ricoh Company, Ltd. Knowledge graph processing method and device
WO2019003069A1 (en) * 2017-06-26 2019-01-03 International Business Machines Corporation ADAPTIVE EVALUATION OF META-RELATIONS IN SEMANTIC GRAPHICS
JP2019125364A (ja) * 2018-01-03 2019-07-25 エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー マルチモーダルレコメンデーション方法及びシステム
WO2019178155A1 (en) * 2018-03-13 2019-09-19 Pinterest, Inc. Efficient convolutional network for recommender systems
JP6567218B1 (ja) * 2018-09-28 2019-08-28 三菱電機株式会社 推論装置、推論方法、及び推論プログラム

Also Published As

Publication number Publication date
JP7262571B2 (ja) 2023-04-21
KR102604959B1 (ko) 2023-11-22
EP4044045A1 (en) 2022-08-17
EP4044045A4 (en) 2023-07-19
CN110795569A (zh) 2020-02-14
KR20210043493A (ko) 2021-04-21
CN110795569B (zh) 2021-06-15
WO2021068468A1 (zh) 2021-04-15
US20230103430A1 (en) 2023-04-06
US11995560B2 (en) 2024-05-28

Similar Documents

Publication Publication Date Title
JP7166322B2 (ja) モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム
KR102484617B1 (ko) 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램
JP2022505015A (ja) 知識グラフのベクトル表現生成方法、装置及び電子機器
KR102514434B1 (ko) 지식 표현 학습 방법, 장치, 전자 기기, 저장 매체 및 프로그램
JP7074964B2 (ja) セッション推奨方法、装置及び電子機器
JP7113097B2 (ja) テキストエンティティの語義記述処理方法、装置及び機器
JP2021099884A (ja) イベント引数抽出方法、イベント引数抽出装置、電子デバイス、記憶媒体及びコンピュータプログラム製品
WO2022000802A1 (zh) 深度学习模型的适配方法、装置及电子设备
JP2021119381A (ja) 音声スペクトル生成モデルの学習方法、装置、電子機器及びコンピュータプログラム製品
KR20210036318A (ko) 이벤트 아규먼트 추출 방법, 장치 및 전자 기기
JP7044839B2 (ja) エンドツーエンドモデルのトレーニング方法および装置
JP2022013600A (ja) イベント関係の生成方法、装置、電子機器及び記憶媒体
JP2021111334A (ja) 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器
CN111709252B (zh) 基于预训练的语义模型的模型改进方法及装置
JP7133002B2 (ja) 句読点予測方法および装置
CN111241838B (zh) 文本实体的语义关系处理方法、装置及设备
JP2021128779A (ja) データ拡張の方法及び装置、機器、記憶媒体
JP7262519B2 (ja) 質問の答えの決定方法、装置、機器及び記憶媒体
CN111475614A (zh) 知识推理对话方法、装置、电子设备和存储介质
CN114912522A (zh) 信息分类方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230411

R150 Certificate of patent or registration of utility model

Ref document number: 7262571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150