JP2022028908A - 多項関係生成モデルのトレーニング方法、装置、電子機器及び媒体 - Google Patents
多項関係生成モデルのトレーニング方法、装置、電子機器及び媒体 Download PDFInfo
- Publication number
- JP2022028908A JP2022028908A JP2021195422A JP2021195422A JP2022028908A JP 2022028908 A JP2022028908 A JP 2022028908A JP 2021195422 A JP2021195422 A JP 2021195422A JP 2021195422 A JP2021195422 A JP 2021195422A JP 2022028908 A JP2022028908 A JP 2022028908A
- Authority
- JP
- Japan
- Prior art keywords
- training
- graph
- polynomial
- attribute
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 67
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 52
- 238000004590 computer program Methods 0.000 claims abstract description 14
- 238000004458 analytical method Methods 0.000 claims description 30
- 230000006978 adaptation Effects 0.000 claims description 22
- 238000010276 construction Methods 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims 3
- 238000005516 engineering process Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 5
- 241000282412 Homo Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000010225 co-occurrence analysis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012407 engineering method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/288—Entity relationship models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Machine Translation (AREA)
Abstract
【課題】多項関係生成モデルのトレーニング方法、装置、電子機器、記憶媒体及びコンピュータプログラム製品を提供する。【解決手段】複数の知識項目テキストを取得し、知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得し、エンティティと意味情報に基づいて異種グラフを構築し、異種グラフに基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得することを具体的な実現案とし、複数の知識項目の意味完全性を大いに学習でき、これによって多項関係生成モデルの多項関係表示の精度を効果的に向上させ、より正確な多元知識推理を実現する。【選択図】図1
Description
本出願はコンピュータ技術の分野に関し、具体的には、自然言語処理、深層学習、ナレッジグラフなどの人工知能技術の分野に関し、特に多項関係生成モデルのトレーニング方法、装置、電子機器及び媒体に関する。
人工知能はコンピュータに人間のある思惟過程と知能行為(学習、推理、思考、計画など)をシミュレーションさせることを研究する学科であり、ハードウェアレベルの技術もソフトウェアレベルの技術もある。人工知能ハードウェア技術は一般にセンサー、専用人工知能チップ、クラウド計算、分散記憶、ビッグデータ処理などの技術を含む。人工知能ソフトウェア技術は主にコンピュータ視覚技術、音声認識技術、自然言語処理技術及び機械学習/深層学習、ビッグデータ処理技術、ナレッジグラフ技術などのいくつかの方向を含む。
ナレッジグラフはエンティティと関係によって構成され、世界、分野と言語知識の構造化知識ライブラリを説明し、通常、ナレッジグラフはエンティティ間の二項関係に関することが多く、知識項目を(主語、述語、目的語)形式のトライアド表示、例えば、(マリ・キュリー、受賞した種類、ノーベル物理学賞)として処理する。
多項関係生成モデルのトレーニング方法、装置、電子機器、記憶媒体及びコンピュータプログラム製品を提供する。
第1様態によれば、複数の知識項目テキストを取得するステップと、前記知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得するステップと、前記エンティティと前記意味情報に基づいて異種グラフを構築するステップと、前記異種グラフに基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得するステップと、を含む多項関係生成モデルのトレーニング方法を提供する。
第2様態によれば、複数の知識項目テキストを取得するための取得モジュールと、前記知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得するための解析モジュールと、前記エンティティと前記意味情報に基づいて異種グラフを構築するための構築モジュールと、前記異種グラフに基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得するためのトレーニングモジュールと、を備える多項関係生成モデルのトレーニング装置を提供する。
第3態様によれば、電子機器を提供し、少なくとも1つのプロセッサと、該少なくとも1つのプロセッサと通信可能に接続されるメモリと、を備え、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが本出願の実施例の多項関係生成モデルのトレーニング方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
第4態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令が、前記コンピュータに本出願の実施例に開示された多項関係生成モデルのトレーニング方法を実行させることに用いられる。
第5態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムがプロセッサによって実行される場合、本出願の実施例に開示された多項関係生成モデルのトレーニング方法を実現する。
この部分に記載されている内容は、本出願の実施例の肝心または重要な特徴を特定することを意図しておらず、本出願の範囲を限定することも意図していないことを理解されたい。本出願の他の特徴は、以下の説明を通して容易に理解される。
図面は、本技術案をよりよく理解するために使用され、本出願を限定するものではない。
本出願の第1実施例に係る概略図である。
本出願の実施例における異種グラフの概略図である。
本出願の第2実施例に係る概略図である。
本出願の実施例における人工知能ネットワークモデルの概略図である。
本出願の第3実施例に係る概略図である。
本出願の第4実施例に係る概略図である。
本出願の実施例の多項関係生成モデルのトレーニング方法を実現する電子機器のブロック図である。
以下、図面と組み合わせて本出願の例示的な実施例を説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項を含んでおり、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、明確及び簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
図1は、本出願の第1実施例に係る概略図である。
なお、本実施例の多項関係生成モデルのトレーニング方法の実行主体は多項関係生成モデルのトレーニング装置であり、当該装置はソフトウェア及び/又はハードウェアの方式によって実現されてもよく、当該装置は電子機器に配置されてもよく、端末、サーバ側などを備えるが、これらに限定されない。
本出願の実施例は自然言語処理、深層学習、ナレッジグラフなどの人工知能技術の分野に関する。
人工知能(Artificial Intelligence)は、英語でAIと省略される。これは人間の知能をシミュレーション、拡張、拡大する理論、方法、技術及びアプリケーションシステムを研究、開発するための新しい技術科学である。
深層学習はサンプルデータの内的な規則と表示レベルを学習するものであり、これらの学習プロセスで取得された情報は、文字、画像、音声などのデータの解釈に大いに役立つ。その最終的な目標は機械が人間のように分析学習能力を持ち、文字、画像、音声などのデータを認識できるようにすることである。
自然言語処理(Natural Language Processing、NLP)は、人とコンピュータの間で自然言語を用いて効果的に通信するさまざまな理論と方法を実現することができる。深層学習はサンプルデータの内的な規則と表示レベルを学習するものであり、これらの学習プロセスで取得された情報は文字、画像、音声などのデータの解釈に大いに役立つ。その最終的な目標は機械が人間のように分析学習能力を持ち、文字、画像、音声などのデータを認識できるようにすることである。
ナレッジグラフは、応用数学、図形学、情報の可視化技術、情報科学などの学科理論と方法を、計量学の引用分析、共起分析などの方法と組み合わせて、可視化のグラフを使用して学科の核心構造、発展歴史、先端領域及び全体的な知識構造をイメージ的に展示して多学科融合の目的を達成する現代理論である。
図1に示すように、当該多項関係生成モデルのトレーニング方法は、以下のステップ101~104を含む。
ステップ101において、複数の知識項目テキストを取得する。
知識項目テキストが、例えば「マリ・キュリーは1903年にピエール・キュリー、アンリ・ベクレルと共にノーベル物理学賞を受賞した」であるとすると、それは、これは5元関係によって表示された知識項目テキストであり、または、知識項目テキストも、三項関係表示、四項関係表示、六項関係表示などの任意の数の項目の関係表示を含んでもよいが、これに対しては制限をしない。
本出願の実施例では、上記各知識項目テキストにおける項目の関係表示は、任意の数量であってもよく、これによって複数の知識項目テキストをトレーニング用のデータとする場合、トレーニング用のデータの特徴次元を効果的に拡張し、モデルトレーニングの精度を保障することができる。
ステップ102において、知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得する。
上記複数の知識項目テキストを取得した後、各知識項目テキストに対して意味解析を行うことができ、その中から各エンティティ、及び当該知識項目テキストの意味情報を取得する。
「マリ・キュリーは1903年にピエール・キュリー、アンリ・ベクレルと共にノーベル物理学賞を受賞した」という上記知識項目テキストを例示とすると、エンティティは例えば「マリ・キュリー」「受賞した」「受賞時間」「共同受賞者」「共同受賞者」であってもよく、それに応じて、意味情報は、当該知識項目テキストに対応する意味を説明でき、または、上記各エンティティに対応する実際の意味内容も説明でき、例えば「1903年」「ノーベル物理学賞」「ピエール・キュリー」「アンリ・ベクレル」などであり、これに対しては制限をしない。
いくつかの実施例では、知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得するステップは、知識項目テキストに対して意味解析を行って、知識項目テキストにおける複数のエンティティを取得し、複数のエンティティから、主属性と補助属性を決定し、主属性に対応する主内容、及び補助属性に対応する補助内容を決定し、主内容と補助内容を意味情報とすることであってもよい。
例えば、「マリ・キュリーは1903年にピエール・キュリー、アンリ・ベクレルと共にノーベル物理学賞を受賞した」という上記知識項目テキストを例示とすると、エンティティは例えば「マリ・キュリー」「受賞した」「受賞時間」「共同受賞者」「共同受賞者」であってもよく、それに応じて、主属性は「受賞した」であってもよく、補助属性は「受賞時間」「共同受賞者」「共同受賞者」であってもよく、それに応じて、主属性「受賞した」に対応する「ノーベル物理学賞」は、主内容と呼ぶことができ、しかしながら、補助属性「受賞時間」に対応する「在1903年」、及び補助属性「共同受賞者」に対応する「ピエール・キュリー」「アンリ・ベクレル」は補助内容と呼ぶことができる。
つまり、本出願の実施例では、各複数の知識項目テキストをコアトライアド(当該コアトライアドに少なくとも一部分エンティティ、及びエンティティに対応する内容が含まれる)と補助属性-値ペアとの組み合わせとして先に表示でき、具体的には、「マリ・キュリーは1903年にピエール・キュリー、アンリ・ベクレルと共にノーベル物理学賞を受賞した」であり、当該五項知識項目テキストは以下のように表示することができる。
(マリ・キュリー、受賞した種類、ノーベル物理学賞)
|-受賞時間:1903年。
|-共同受賞者:ピエール・キュリー。
|-共同受賞者:アンリ・ベクレル。
(マリ・キュリー、受賞した種類、ノーベル物理学賞)
|-受賞時間:1903年。
|-共同受賞者:ピエール・キュリー。
|-共同受賞者:アンリ・ベクレル。
(マリ・キュリー、受賞した種類、ノーベル物理学賞)はコアトライアドであり、「受賞時間:1903年」、「共同受賞者:ピエール・キュリー」、「共同受賞者:アンリ・ベクレル」は3組の補助属性-値ペアであり、コアトライアドを補充する。
本出願の実施例では、上記コアトライアドのマリ・キュリー、受賞した種類、を対応するエンティティとして抽象し、且つトライアドのマリ・キュリー、受賞した種類、を主属性として、上記補助属性と組み合わせることができ、または、他の任意の可能な組み合わせ方式であってもよい、これに対しては制限をしない。
上記知識項目テキストに対して意味解析を行って、知識項目テキストにおける複数のエンティティを取得し、複数のエンティティから、主属性と補助属性を決定し、主属性に対応する主内容、及び補助属性に対応する補助内容を決定し、主内容と補助内容を意味情報とする。以上により、トレーニング用のデータの特徴次元を効果的に拡張し、モデルトレーニングの精度を保障することができるため、トレーニングして取得された多項関係生成モデルが複数の知識項目の意味完全性を大いに学習できるようにする。
他のいくつかの実施例では、他の任意の可能な方式を用いて知識項目テキストに対して意味解析を行うことができて、対応する複数のエンティティと意味情報を取得し、例えば数学の方式、エンジニアリングの方式などであり、これに対しては制限をしない。
ステップ103において、エンティティと意味情報に基づいて異種グラフを構築する。
上記知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得した後、エンティティと意味情報に基づいて異種グラフを構築することができる。
異種グラフはグラフィカルモデルであり、グラフィカルモデルは、深層学習のグラフィカルモデルであってもよく、または人工知能技術の分野において他の任意の可能な構造形式のグラフィカルモデルであってもよく、これに対しては制限をしない。異種グラフには、一種以上のノードとエッジが存在してもよく、異なるタイプのノードが異なる次元の特徴または属性を有することが可能であり、つまり、本出願は、エンティティと意味情報に基づいて異種グラフを構築し、当該異種グラフのノードのタイプは同じであってもよいし、または異なってもよく、当該異種グラフは、知識項目テキストに関連する異なる次元の特徴または属性を備えることができる。
選択可能に、いくつかの実施例では、エンティティと意味情報に基づいて異種グラフを構築するステップは、エンティティ、主属性、補助属性、主内容、及び補助内容をそれぞれ対応するノードにマッピングし、エンティティ、主属性、補助属性、主内容、及び補助内容の品詞をそれぞれ用いて、対応するノードの品詞を説明し、対応関係を有するノードの間にエッジを構築し、エッジに接続されるノードに対応する品詞に基づいて、エッジの品詞タイプを生成し、及び品詞タイプを用いてエッジにラベル付けして、ノード、エッジ、及びエッジのラベルに基づいて異種グラフを構築することであってもよい。
そのうちの品詞、主語、述語、目的語のようなものであり、1つのエッジが2つのノードに接続される可能性があるため、2つのノードに対応する品詞がそれぞれ主語、述語である場合、対応する当該エッジの品詞タイプは主語-述語のタイプである。
例を挙げて以下のように説明する。各複数の知識項目テキストはコアトライアド(s,r,o)と補助属性-値ペア(ai,vi)の組み合わせ、即ち、
として表示され、mは補助属性-値ペアの数であり、本出願の実施例では、
のような形の複数の知識項目テキストを1つの異種グラフG=(E,L)として完全に表示することができ、図2に示すように、図2は本出願の実施例における異種グラフの概略図であり、図2では、異なる形態のエッジは1つの品詞タイプに対応し、Eは図上のノード集合であり、対応する複数の知識項目テキストにおけるすべてのエンティティ(値)と関係(属性)を含み、即ち、E={r,s,o,a1,・・・,am,v1,・・・,vm}である。Lは図上のエッジのセットであり、4つの品詞タイプ、合計で(2m+2)本のエッジを含み、即ち、
主語-述語型のエッジ(s,r)、合計1本、
目的語-述語型のエッジ(o,r)、合計1本、
述語-属性型のエッジ(r,ai)、合計m本、
属性-値型のエッジ(ai,vi)、合計m本。
として表示され、mは補助属性-値ペアの数であり、本出願の実施例では、
のような形の複数の知識項目テキストを1つの異種グラフG=(E,L)として完全に表示することができ、図2に示すように、図2は本出願の実施例における異種グラフの概略図であり、図2では、異なる形態のエッジは1つの品詞タイプに対応し、Eは図上のノード集合であり、対応する複数の知識項目テキストにおけるすべてのエンティティ(値)と関係(属性)を含み、即ち、E={r,s,o,a1,・・・,am,v1,・・・,vm}である。Lは図上のエッジのセットであり、4つの品詞タイプ、合計で(2m+2)本のエッジを含み、即ち、
主語-述語型のエッジ(s,r)、合計1本、
目的語-述語型のエッジ(o,r)、合計1本、
述語-属性型のエッジ(r,ai)、合計m本、
属性-値型のエッジ(ai,vi)、合計m本。
本出願の実施例の異種グラフ、そのノードと連結エッジは対応する品詞タイプがあり、ノードはエンティティと関係(関係は主属性、補助属性、主内容、及び補助内容を含む)という2つのタイプに分かれ、連結エッジの品詞タイプは主語-述語、目的語-述語、述語-属性、属性-値という4つのタイプであってもよい。本出願の実施例では、エンティティと意味情報に基づいて異種グラフを構築することにより、意味情報を損失しない前提で知識項目の完全性を最大限に保留でき、当該異種グラフが複数の知識項目テキストの意味情報を完全に保留できるようにして、多項関係生成モデルのモデリング効果の向上を効果的に補助することができる。
ステップ104において、異種グラフに基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得する。
上記エンティティと意味情報に基づいて異種グラフを構築した後、異種グラフに基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得することができ、例えば、初期の人工知能ネットワークモデルが収束するまで、異種グラフの各ノードとエッジ、及びノードとエッジが備える複数の次元の特徴または属性を初期の人工知能ネットワークモデルに入力することができ、したがってトレーニングして取得された人工知能ネットワークモデルを多項関係生成モデルとする。
上記人工知能ネットワークモデルは、例えば、ニューラルネットワーク、機器学習モデルであってもよい。本出願の実施例では、グラフニューラルネットワークを用いてトレーニングして、多項関係生成モデルを取得することができ、グラフニューラルネットワーク技術を用いて当該異種グラフをモデリングし、複数の知識項目テキストの各要素(エンティティ、主属性、補助属性およびその対応する内容)間の潜在的な関連を十分に捉えることができる。
本実施例では、複数の知識項目テキストを取得し、知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得し、エンティティと意味情報に基づいて異種グラフを構築し、異種グラフに基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得することにより、複数の知識項目の意味完全性を大いに学習でき、これによって多項関係生成モデルの多項関係表示の精度を効果的に向上させ、より正確な多元知識推理を実現する。
図3は本出願の第2実施例に係る概略図である。
図3に示すように、当該多項関係生成モデルのトレーニング方法は以下のステップ301~307を含む。
ステップ301において、複数の知識項目テキストを取得する。
ステップ302において、知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得する。
ステップ303において、エンティティと意味情報に基づいて異種グラフを構築する。
ステップ301~303の説明は、上記実施例を具体的に参照してもよく、ここでは説明を省略する。
ステップ304において、異種グラフを入力表現層に入力して、入力表現層から出力された、ノードに対応するベクトル表示を取得し、ベクトル表示は、ノードに対応する内容の間の意味関係を説明する。
つまり、本出願の実施例における初期の人工知能ネットワークモデルは、入力表現層、グラフ注意層(当該グラフ注意層の数量は多層、例えばL層であってもよく、各層グラフ注意層は順に並べる)、及び線形予測層を含む。
図4に示すように、本出願の実施例における人工知能ネットワークモデルの概略図であり、入力表現層、L層のグラフ注意層、及び線形予測層を含む。
上記エンティティと意味情報に基づいて異種グラフを構築した後、異種グラフを入力表現層に入力して、入力表現層から出力された、ノードに対応するベクトル表示を取得することができ、ベクトル表示がノードに対応する内容の間の意味関係を説明できるようにし、これによって異種グラフと人工知能ネットワークモデルを効果的に融合させ、人工知能ネットワークモデルがノードに対応する内容の間の意味関係を迅速に学習できるようにする。
ステップ305において、異種グラフをグラフ注意層に入力して、グラフ注意層から出力された、エッジの品詞タイプに対応する適応係数を取得する。
上記異種グラフを入力表現層に入力し、入力表現層から出力された、ノードに対応するベクトル表示を取得した後、さらに、入力表現層から出力されたベクトル表示を異種グラフのノードのラベルとし、且つラベル付けされた異種グラフをグラフ注意層に入力して、グラフ注意層から出力された、エッジの品詞タイプに対応する適応係数を取得することができ、当該適応係数の形式は具体的には1つのベクトルであってもよく、適応係数は、その対応するエッジの品詞タイプが全体の知識項目テキストを占める比率を説明することに用いてもよい。
異種グラフをグラフ注意層に入力して、グラフ注意層から出力された、エッジの品詞タイプに対応する適応係数を取得した後、適応係数に基づいてグラフ注意層の注意強度値を調整してもよく、これによってより正確な、連結エッジを感知する自己注意力規制を生成し、グラフの異種性を迅速で正確にモデリングすることを実現する。
ステップ306において、ベクトル表示と適応係数が線形予測層に入力されることに基づいて、線形予測層から出力された予測多項関係を取得する。
上記異種グラフを入力表現層に入力して、入力表現層から出力された、ノードに対応するベクトル表示を取得し、異種グラフをグラフ注意層に入力して、グラフ注意層から出力された、エッジの品詞タイプに対応する適応係数を取得した後、ベクトル表示と適応係数が線形予測層に入力されることに基づいて、線形予測層から出力された予測多項関係を取得することができる。
つまり、トレーニングプロセスにおいて、複数の知識項目テキストを用いて初期の人工知能ネットワークモデルをトレーニングし、すなわち初期の人工知能ネットワークモデルを用いて各知識項目テキストに対応する多項関係を予測し、当該予測で取得された多項関係は、予測多項関係と呼ぶことができ、その後、予測多項関係に基づいて人工知能ネットワークモデルが収束すると判定されるまで、予測多項関係に対して対応の判定を行う。
例えば、多元知識推理を異種グラフ上のノード予測問題に変換し、複数の知識項目
の主語sの予測を例(予測して取得された多項関係、すなわち予測多項関係と呼ぶことができる)とすると、人工知能ネットワークモデルの入力はすなわちはノードの欠損の異種グラフ
であり、出力は予測多項関係(予測して取得されたターゲットノード主語sを含む)であるべきである。
ステップ307において、予測多項関係とラベル付け多項関係に基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得する。
選択可能に、いくつかの実施例では、予測多項関係とラベル付け多項関係に基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得するステップは、予測多項関係とラベル付け多項関係との間の損失値を決定し、損失値が設定された損失閾値を満たす場合、トレーニングして取得された人工知能ネットワークモデルを多項関係生成モデルとすることであってもよく、これによってより良いモデルトレーニング効果を実現する。
当該損失値は初期の人工知能ネットワークモデルに対応する損失関数によって計算して取得されたものであってもよい。その適用において、損失関数は通常学習基準として最適化問題に関連し、すなわち損失関数の最小化によって解を求めてモデルを評価し、これによって本出願の実施例では、予測多項関係とラベル付け多項関係との間の損失値を決定でき、その後、当該損失値を用いてトレーニングプロセスを指導する。
上記予測多項関係とラベル付け多項関係との間の損失値を決定した後、損失値が設定された損失閾値を満たすかどうかをリアルタイムに判定することができ(当該設定された損失閾値は、予め較正された、人工知能ネットワークモデルが収束する損失値を判定する閾値であってもよい)、損失値が設定された損失閾値を満たす場合、トレーニングして取得された人工知能ネットワークモデルを多項関係生成モデルとし、すなわちモデルトレーニングが完了し、この時の多項関係生成モデルは予め設定された収束条件を満たす。
本実施例では、複数の知識項目テキストを取得し、知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得し、エンティティと意味情報に基づいて異種グラフを構築し、異種グラフに基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得することにより、複数の知識項目の意味完全性を大いに学習でき、これによって多項関係生成モデルの多項関係表示の精度を効果的に向上させ、より正確な多元知識推理を実現する。エンティティと意味情報に基づいて異種グラフを構築した後、異種グラフを入力表現層に入力できて、入力表現層から出力された、ノードに対応するベクトル表示を取得し、異種グラフをグラフ注意層に入力して、グラフ注意層から出力された、エッジの品詞タイプに対応する適応係数を取得し、ベクトル表示と適応係数が線形予測層に入力されることに基づいて、線形予測層から出力された予測多項関係を取得し、ベクトル表示がノードに対応する内容の間の意味関係を説明できるようにさせ、これによって異種グラフと人工知能ネットワークモデルを効果的に融合させ、人工知能ネットワークモデルがノードに対応する内容の間の意味関係を迅速に学習するようにする。異種グラフをグラフ注意層に入力して、グラフ注意層から出力された、エッジの品詞タイプに対応する適応係数を取得した後、適応係数に基づいてグラフ注意層の注意強度値も調整でき、これによってより正確な、連結エッジを感知する自己注意力規制を生成し、グラフの異種性を迅速で正確にモデリングすることを実現する。
図5は本出願の第3実施例に係る概略図である。
図5に示すように、当該多項関係生成モデルのトレーニング装置50は、複数の知識項目テキストを取得するための取得モジュール501と、知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得するための解析モジュール502と、エンティティと意味情報に基づいて異種グラフを構築するための構築モジュール503と、異種グラフに基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得するためのトレーニングモジュール504と、を備える。
本出願のいくつかの実施例では、解析モジュール502は、具体的に、知識項目テキストに対して意味解析を行って、知識項目テキストにおける複数のエンティティを取得し、複数のエンティティから、主属性と補助属性を決定し、主属性に対応する主内容、及び補助属性に対応する補助内容を決定し、主内容と補助内容を意味情報とすることに用いられる。
本出願のいくつかの実施例では、図6に示すように、図6は、本出願の第4実施例に係る概略図であり、当該多項関係生成モデルのトレーニング装置60は、取得モジュール601、解析モジュール602、構築モジュール603、及びトレーニングモジュール604を備え、構築モジュール603は、エンティティ、主属性、補助属性、主内容、及び補助内容をそれぞれ対応するノードにマッピングし、エンティティ、主属性、補助属性、主内容、及び補助内容の品詞をそれぞれ用いて、対応するノードの品詞を説明するためのマッピングサブモジュール6031と、対応関係を有するノードの間にエッジを構築する第1構築サブモジュール6032と、エッジに接続されるノードに対応する品詞に基づいて、エッジの品詞タイプを生成するための生成サブモジュール6033と、品詞タイプを用いてエッジにラベル付けして、ノード、エッジ、及びエッジのラベルに基づいて異種グラフを構築するための第2構築サブモジュール6034と、を備える。
本出願のいくつかの実施例では、初期の人工知能ネットワークモデルは、入力表現層、グラフ注意層、及び線形予測層を含み、トレーニングモジュール604は、具体的に、異種グラフを入力表現層に入力して、入力表現層から出力された、ノードに対応するベクトル表示を取得し、ベクトル表示が、ノードに対応する内容の間の意味関係を説明し、異種グラフをグラフ注意層に入力して、グラフ注意層から出力された、エッジの品詞タイプに対応する適応係数を取得し、ベクトル表示と適応係数が線形予測層に入力されることに基づいて、線形予測層から出力された予測多項関係を取得し、予測多項関係とラベル付け多項関係に基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得することに用いられる。
本出願のいくつかの実施例では、トレーニングモジュール604は、具体的には、適応係数に基づいてグラフ注意層の注意強度値を調整することに用いられる。
本出願のいくつかの実施例では、トレーニングモジュール604は、具体的には、予測多項関係とラベル付け多項関係との間の損失値を決定し、損失値が設定された損失閾値を満たす場合、トレーニングして取得された人工知能ネットワークモデルを多項関係生成モデルとすることに用いられる。
本実施例の図6の多項関係生成モデルのトレーニング装置60と上記実施例の多項関係生成モデルのトレーニング装置50、取得モジュール601と上記実施例の取得モジュール501、解析モジュール602と上記実施例の解析モジュール502、構築モジュール603と上記実施例の構築モジュール503、トレーニングモジュール604と上記実施例のトレーニングモジュール504は、同じ機能と構造を有してもよいと理解されることができる。
なお、前記多項関係生成モデルのトレーニング方法に対する説明は本実施例の多項関係生成モデルのトレーニング装置にも適用され、ここでは説明を省略する。
本実施例では、複数の知識項目テキストを取得し、知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得し、エンティティと意味情報に基づいて異種グラフを構築し、異種グラフに基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得することにより、複数の知識項目の意味完全性を大いに学習でき、これによって多項関係生成モデルの多項関係表示の精度を効果的に向上させ、より正確な多元知識推理を実現する。
本出願の実施例によれば、本出願は、電子機器、読み取り可能な記憶媒体、及びコンピュータプログラム製品をさらに提供する。
図7は、本出願の実施例の多項関係生成モデルのトレーニング方法を実現する電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、携帯情報端末、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の同様のコンピューティングデバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は、単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限することを意図したものではない。
図7に示すように、電子機器700は、読み取り専用メモリ(ROM)702に記憶されるコンピュータプログラムまたはメモリ708からランダムアクセスメモリ(RAM)703にロードされたコンピュータプログラムに従って様々な適切な動作および処理を実行する計算ユニット701を備える。RAM 703には、デバイス700の動作に必要な各種プログラムやデータも記憶されてもよい。計算ユニット701、ROM702、およびRAM703は、バス704を介して互いに接続されておる。
デバイス700の複数のコンポーネントはI/Oインタフェース705に接続され、キーボード、マウスなどの入力ユニット706、各タイプのディスプレイ、スピーカなどの出力ユニット707、磁気ディスク、光ディスクなどの記憶ユニット708、およびネットワークカード、モデム、無線通信トランシーバなどの通信ユニット709を備える。通信ユニット709は、デバイス700が、インターネットなどのコンピュータネットワーク及び/又は各種の電信ネットワークを介して他のデバイスと情報/データを交換することを可能にする。
計算ユニット701は、処理および計算能力を有する様々な汎用及び/又は専用の処理コンポーネントであってもよい。計算ユニット701のいくつかの例は、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、各種の専用の人工知能(AI)計算チップ、各種のマシン運転学習モデルアルゴリズムの計算ユニット、デジタル信号プロセッサ(DSP)、およびいずれかの適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット701は、上記に記載された各方法および処理、例えば、多項関係生成モデルのトレーニング方法を実行する。
例えば、いくつかの実施例では、多項関係生成モデルのトレーニング方法を、記憶ユニット708などの機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現することができる。いくつかの実施例では、いくつかの実施例では、コンピュータプログラムの一部または全部はROM702および/または通信ユニット709を介してデバイス700にロードおよび/またはインストールされてもよい。コンピュータプログラムがRAM703にロードされ、計算ユニット701によって実行される場合、上記に記載された多項関係生成モデルのトレーニング方法の1つまたは複数のステップが実行されてもよい。代替的に、他の実施例では、計算ユニット701は多項関係生成モデルのトレーニング方法を実行するように、他のいずれかの適切な方式(例えば、ファームウェアを介して)によって配置されてもよい。
本明細書で記載されたシステムと技術の様々な実施方式は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックス・プログラマブル・ロジック・デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを備えるプログラム可能なシステムで実行及び/又は解釈することができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
本出願の多項関係生成モデルのトレーニング方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで書くことができる。これらのプログラムコードは、プロセッサ又はコントローラによって実行された際に、フローチャート及び/又はブロック図に規定された機能/動作が実施されるように、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されてもよい。プログラムコードは、完全に機械上で実行され、部分的に機械上で実行され、スタンドアロンソフトウェアパッケージとして、部分的に機械上で実行され、かつ部分的にリモート機械上で実行され、又は完全にリモート機械又はサーバ上で実行されてもよい。
本出願のコンテクストでは、機械読み取り可能な媒体は、命令実行システム、装置、またはデバイスによって使用されるために、又は命令実行システム、装置、またはデバイスと組み合わせて使用するためのプログラムを含むか、又は記憶することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体システム、装置又はデバイス、または上記内容のいずれかの適切な組み合わせを含むことができるが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、1つ又は複数のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または上記内容のいずれかの適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、ここで説明されているシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力、または、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを備えるコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを備えるコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを備えるコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを備えるコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークを含む。
コンピュータシステムは、クライアントとサーバを備えることができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、かつ互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバはクラウドサーバであってもよく、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおける1つのホスト製品であり、従来の物理ホストとVPSサービス(Virtual Private Server,または VPSと省略する)に存在する管理の難しさ、業務拡張性の弱いという欠陥を解決した。サーバは分散システムのサーバであってもよく、またはブロックチェーンと組み合わせたサーバであってもよい。
なお、上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術案の所望の結果を実現することができれば、本明細書では限定されない。
上記具体的な実施形態は、本出願の保護範囲を制限するものではない。当業者は、設計要件と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができることを理解されたい。任意の本出願の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本出願の保護範囲内に含まれなければならない。
Claims (15)
- 複数の知識項目テキストを取得するステップと、
前記知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得するステップと、
前記エンティティと前記意味情報に基づいて異種グラフを構築するステップと、
前記異種グラフに基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得するステップと、
を含む、多項関係生成モデルのトレーニング方法。 - 前記知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得するステップが、
前記知識項目テキストに対して意味解析を行って、前記知識項目テキストにおける前記複数のエンティティを取得するステップと、
前記複数のエンティティから、主属性と補助属性を決定するステップと、
前記主属性に対応する主内容、及び前記補助属性に対応する補助内容を決定するステップと、
前記主内容と前記補助内容を前記意味情報とするステップと、
を含む請求項1に記載の方法。 - 前記エンティティと前記意味情報に基づいて異種グラフを構築するステップが、
前記エンティティ、前記主属性、前記補助属性、前記主内容、及び前記補助内容をそれぞれ対応するノードにマッピングするステップと、
前記エンティティ、前記主属性、前記補助属性、前記主内容、及び前記補助内容の品詞をそれぞれ用いて、対応するノードの品詞を説明するステップと、
対応関係を有するノードの間にエッジを構築するステップと、
前記エッジに接続されるノードに対応する品詞に基づいて、前記エッジの品詞タイプを生成するステップと、
前記品詞タイプを用いて前記エッジにラベル付けして、前記ノード、前記エッジ、及び前記エッジのラベルに基づいて前記異種グラフを構築するステップと、
を含む請求項2に記載の方法。 - 前記初期の人工知能ネットワークモデルは、入力表現層、グラフ注意層、及び線形予測層を含み、前記異種グラフに基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得するステップが、
前記異種グラフを前記入力表現層に入力して、前記入力表現層から出力された、前記ノードに対応するベクトル表示を取得するステップであって、前記ベクトル表示は、前記ノードに対応する内容の間の意味関係を説明するステップと、
前記異種グラフを前記グラフ注意層に入力して、前記グラフ注意層から出力された、前記エッジの品詞タイプに対応する適応係数を取得するステップと、
前記ベクトル表示と前記適応係数が前記線形予測層に入力されることに基づいて、前記線形予測層から出力された予測多項関係を取得するステップと、
前記予測多項関係とラベル付け多項関係に基づいて前記初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得するステップと、
を含む請求項3に記載の方法。 - 前記異種グラフを前記グラフ注意層に入力して、前記グラフ注意層から出力された、前記エッジの品詞タイプに対応する適応係数を取得するステップの後、
前記適応係数に基づいて前記グラフ注意層の注意強度値を調整するステップを含む請求項4に記載の方法。 - 前記予測多項関係とラベル付け多項関係に基づいて前記初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得するステップが、
前記予測多項関係とラベル付け多項関係との間の損失値を決定するステップと、
前記損失値が設定された損失閾値を満たす場合、トレーニングして取得された人工知能ネットワークモデルを前記多項関係生成モデルとするステップと、
を含む請求項4に記載の方法。 - 複数の知識項目テキストを取得するための取得モジュールと、
前記知識項目テキストに対して意味解析を行って、対応する複数のエンティティと意味情報を取得するための解析モジュールと、
前記エンティティと前記意味情報に基づいて異種グラフを構築するための構築モジュールと、
前記異種グラフに基づいて初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得するためのトレーニングモジュールと、
を備える、多項関係生成モデルのトレーニング装置。 - 前記解析モジュールが、
前記知識項目テキストに対して意味解析を行って、前記知識項目テキストにおける前記複数のエンティティを取得し、
前記複数のエンティティから、主属性と補助属性を決定し、
前記主属性に対応する主内容、及び前記補助属性に対応する補助内容を決定し、
前記主内容と前記補助内容を前記意味情報とすることに用いられる請求項7に記載の装置。 - 前記構築モジュールが、
前記エンティティ、前記主属性、前記補助属性、前記主内容、及び前記補助内容をそれぞれ対応するノードにマッピングし、前記エンティティ、前記主属性、前記補助属性、前記主内容、及び前記補助内容の品詞をそれぞれ用いて、対応するノードの品詞を説明するためのマッピングサブモジュールと、
対応関係を有するノードの間にエッジを構築する第1構築サブモジュールと、
前記エッジに接続されるノードに対応する品詞に基づいて、前記エッジの品詞タイプを生成するための生成サブモジュールと、
前記品詞タイプを用いて前記エッジにラベル付けして、前記ノード、前記エッジ、及び前記エッジのラベルに基づいて前記異種グラフを構築するための第2構築サブモジュールと、
を備える請求項8に記載の装置。 - 前記初期の人工知能ネットワークモデルが、入力表現層、グラフ注意層、及び線形予測層を含み、前記トレーニングモジュールが、
前記異種グラフを前記入力表現層に入力して、前記入力表現層から出力された、前記ノードに対応するベクトル表示を取得し、前記ベクトル表示が、前記ノードに対応する内容の間の意味関係を説明し、
前記異種グラフを前記グラフ注意層に入力して、前記グラフ注意層から出力された、前記エッジの品詞タイプに対応する適応係数を取得し、
前記ベクトル表示と前記適応係数が前記線形予測層に入力されることに基づいて、前記線形予測層から出力された予測多項関係を取得し、
前記予測多項関係とラベル付け多項関係に基づいて前記初期の人工知能ネットワークモデルをトレーニングして、多項関係生成モデルを取得することに用いられる請求項9に記載の装置。 - 前記トレーニングモジュールが、前記適応係数に基づいて前記グラフ注意層の注意強度値を調整することに用いられる請求項10に記載の装置。
- 前記トレーニングモジュールが、
前記予測多項関係とラベル付け多項関係との間の損失値を決定し、
前記損失値が設定された損失閾値を満たす場合、トレーニングして取得された人工知能ネットワークモデルを前記多項関係生成モデルとすることに用いられる請求項10に記載の装置。 - 少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
を備え、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが請求項1から6のいずれか一項に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1から6のいずれか一項に記載の方法を実行させることに用いられる非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムがプロセッサによって実行される場合、請求項1から6のいずれか一項に記載の方法を実現するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011520491.4A CN112507040B (zh) | 2020-12-21 | 2020-12-21 | 多元关系生成模型的训练方法、装置、电子设备及介质 |
CN202011520491.4 | 2020-12-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022028908A true JP2022028908A (ja) | 2022-02-16 |
Family
ID=74922899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021195422A Pending JP2022028908A (ja) | 2020-12-21 | 2021-12-01 | 多項関係生成モデルのトレーニング方法、装置、電子機器及び媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220004892A1 (ja) |
EP (1) | EP3913543A3 (ja) |
JP (1) | JP2022028908A (ja) |
KR (1) | KR20220005416A (ja) |
CN (1) | CN112507040B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022224915A1 (en) | 2021-04-21 | 2022-10-27 | Ricoh Company, Ltd. | Contact member, drying apparatus, and printing apparatus |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221565A (zh) * | 2021-05-07 | 2021-08-06 | 北京百度网讯科技有限公司 | 实体识别模型的训练方法、装置、电子设备及存储介质 |
CN113642319B (zh) * | 2021-07-29 | 2022-11-29 | 北京百度网讯科技有限公司 | 文本处理方法、装置、电子设备及存储介质 |
CN113792155B (zh) * | 2021-08-30 | 2022-12-09 | 北京百度网讯科技有限公司 | 基于知识图谱的文本校验方法、装置、电子设备和介质 |
CN114234995A (zh) * | 2021-12-21 | 2022-03-25 | 浙江数智交院科技股份有限公司 | 一种导航方法、装置、电子设备及存储介质 |
CN114329244A (zh) * | 2021-12-28 | 2022-04-12 | 北京百度网讯科技有限公司 | 地图兴趣点查询方法、装置、设备、存储介质及程序产品 |
CN114595686B (zh) * | 2022-03-11 | 2023-02-03 | 北京百度网讯科技有限公司 | 知识抽取方法、知识抽取模型的训练方法及装置 |
CN114596574A (zh) * | 2022-03-22 | 2022-06-07 | 北京百度网讯科技有限公司 | 文本识别方法、装置、电子设备和介质 |
CN116484870B (zh) * | 2022-09-09 | 2024-01-05 | 北京百度网讯科技有限公司 | 提取文本信息的方法、装置、设备及介质 |
CN116127319B (zh) * | 2023-01-16 | 2024-03-29 | 北京百度网讯科技有限公司 | 多模态负样本构建、模型预训练方法、装置、设备及介质 |
CN116564408B (zh) * | 2023-04-28 | 2024-03-01 | 上海科技大学 | 基于知识图谱推理的合成致死基因对预测方法、装置、设备及介质 |
CN116468131B (zh) * | 2023-06-19 | 2023-09-01 | 成都市奇点软件有限公司 | 一种基于阶段性再训练的ai驱动项目自动化方法及系统 |
CN116932013B (zh) * | 2023-09-15 | 2023-11-21 | 广州市桂勤器械设备工程有限公司 | 基于人工智能的医用气体设备运行系统更新方法及系统 |
CN117274006B (zh) * | 2023-11-21 | 2024-03-12 | 山东山大鸥玛软件股份有限公司 | 一种命题方法、系统、设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674317A (zh) * | 2019-09-30 | 2020-01-10 | 北京邮电大学 | 一种基于图神经网络的实体链接方法及装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100185568A1 (en) * | 2009-01-19 | 2010-07-22 | Kibboko, Inc. | Method and System for Document Classification |
US20180260389A1 (en) * | 2017-03-08 | 2018-09-13 | Fujitsu Limited | Electronic document segmentation and relation discovery between elements for natural language processing |
CN108304911B (zh) * | 2018-01-09 | 2020-03-13 | 中国科学院自动化研究所 | 基于记忆神经网络的知识抽取方法以及系统和设备 |
US11625620B2 (en) * | 2018-08-16 | 2023-04-11 | Oracle International Corporation | Techniques for building a knowledge graph in limited knowledge domains |
US11210590B2 (en) * | 2019-01-08 | 2021-12-28 | International Business Machines Corporation | Generating free text representing semantic relationships between linked entities in a knowledge graph |
CN112015859B (zh) * | 2019-05-31 | 2023-08-18 | 百度在线网络技术(北京)有限公司 | 文本的知识层次抽取方法及装置、计算机设备及可读介质 |
CN110765235B (zh) * | 2019-09-09 | 2023-09-05 | 深圳市人马互动科技有限公司 | 训练数据的生成方法、装置、终端及可读介质 |
CN110727806B (zh) * | 2019-12-17 | 2020-08-11 | 北京百度网讯科技有限公司 | 基于自然语言和知识图谱的文本处理方法及装置 |
CN111950291B (zh) * | 2020-06-22 | 2024-02-23 | 北京百度网讯科技有限公司 | 语义表示模型的生成方法、装置、电子设备及存储介质 |
CN111950293B (zh) * | 2020-06-24 | 2023-06-23 | 北京百度网讯科技有限公司 | 语义表示模型的生成方法、装置、电子设备及存储介质 |
-
2020
- 2020-12-21 CN CN202011520491.4A patent/CN112507040B/zh active Active
-
2021
- 2021-09-21 US US17/480,575 patent/US20220004892A1/en active Pending
- 2021-09-22 EP EP21198333.3A patent/EP3913543A3/en not_active Withdrawn
- 2021-11-29 KR KR1020210167756A patent/KR20220005416A/ko unknown
- 2021-12-01 JP JP2021195422A patent/JP2022028908A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674317A (zh) * | 2019-09-30 | 2020-01-10 | 北京邮电大学 | 一种基于图神经网络的实体链接方法及装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022224915A1 (en) | 2021-04-21 | 2022-10-27 | Ricoh Company, Ltd. | Contact member, drying apparatus, and printing apparatus |
Also Published As
Publication number | Publication date |
---|---|
CN112507040B (zh) | 2023-08-08 |
EP3913543A3 (en) | 2022-04-27 |
KR20220005416A (ko) | 2022-01-13 |
CN112507040A (zh) | 2021-03-16 |
US20220004892A1 (en) | 2022-01-06 |
EP3913543A2 (en) | 2021-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022028908A (ja) | 多項関係生成モデルのトレーニング方法、装置、電子機器及び媒体 | |
CN112668671B (zh) | 预训练模型的获取方法和装置 | |
JP7421604B2 (ja) | モデル事前訓練方法および装置、テキスト生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム | |
EP4113354A2 (en) | Method and apparatus for generating pre-trained language model, electronic device and storage medium | |
JP7283009B2 (ja) | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 | |
US20210342549A1 (en) | Method for training semantic analysis model, electronic device and storage medium | |
JP7358698B2 (ja) | 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 | |
KR20210124938A (ko) | 이벤트 추출 방법, 장치, 전자 기기 및 저장 매체 | |
JP7301922B2 (ja) | 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
JP7309798B2 (ja) | 対話意図の認識方法及び装置、電子機器並びに記憶媒体 | |
EP4113357A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
JP2022006173A (ja) | 知識事前訓練モデルの訓練方法、装置及び電子機器 | |
JP2022118263A (ja) | 自然言語処理モデルの訓練方法、自然言語処理方法、装置、電子機器、記憶媒体及びプログラム | |
JP7297038B2 (ja) | ニューラルネットワークモデルの事前トレーニング方法、装置、電子機器及び媒体 | |
JP2021193617A (ja) | 医療データ検証方法、装置及び電子機器 | |
JP2022031863A (ja) | 単語スロットの認識方法、装置及び電子機器 | |
CN114782722B (zh) | 图文相似度的确定方法、装置及电子设备 | |
US20220198358A1 (en) | Method for generating user interest profile, electronic device and storage medium | |
CN113553411B (zh) | 查询语句的生成方法、装置、电子设备和存储介质 | |
CN114722833A (zh) | 一种语义分类方法及装置 | |
Leng et al. | Automatic MEP knowledge acquisition based on documents and natural language processing | |
Han et al. | DTaxa: An actor–critic for automatic taxonomy induction | |
CN113408702B (zh) | 音乐神经网络模型预训练方法及电子设备和存储介质 | |
CN116484870B (zh) | 提取文本信息的方法、装置、设备及介质 | |
Zhao et al. | Test case classification via few-shot learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230711 |