JP2024513293A - トランスフォーマベースのモデルナレッジグラフリンク予測 - Google Patents
トランスフォーマベースのモデルナレッジグラフリンク予測 Download PDFInfo
- Publication number
- JP2024513293A JP2024513293A JP2023549061A JP2023549061A JP2024513293A JP 2024513293 A JP2024513293 A JP 2024513293A JP 2023549061 A JP2023549061 A JP 2023549061A JP 2023549061 A JP2023549061 A JP 2023549061A JP 2024513293 A JP2024513293 A JP 2024513293A
- Authority
- JP
- Japan
- Prior art keywords
- triples
- entities
- entity
- subset
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 54
- 238000000034 method Methods 0.000 claims abstract description 40
- 230000006870 function Effects 0.000 claims description 44
- 238000003860 storage Methods 0.000 claims description 35
- 238000012549 training Methods 0.000 claims description 35
- 238000004590 computer program Methods 0.000 claims description 25
- 238000013473 artificial intelligence Methods 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 8
- 230000002457 bidirectional effect Effects 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims 2
- 238000012545 processing Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 22
- 238000012360 testing method Methods 0.000 description 15
- 239000008186 active pharmaceutical agent Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000007726 management method Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- SPBWHPXCWJLQRU-FITJORAGSA-N 4-amino-8-[(2r,3r,4s,5r)-3,4-dihydroxy-5-(hydroxymethyl)oxolan-2-yl]-5-oxopyrido[2,3-d]pyrimidine-6-carboxamide Chemical compound C12=NC=NC(N)=C2C(=O)C(C(=O)N)=CN1[C@@H]1O[C@H](CO)[C@@H](O)[C@H]1O SPBWHPXCWJLQRU-FITJORAGSA-N 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013439 planning Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 238000012384 transportation and delivery Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000009172 bursting Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 102000054767 gene variant Human genes 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000009469 supplementation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
- G06N5/025—Extracting rules from data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9024—Graphs; Linked lists
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
トランスフォーマベースの人工ニューラルネットワークを使用してナレッジグラフ(KG)リンク予測を改善するためのシステム、製品、及び方法が提供される。第1のトピックモデルは、複数の第1のトリプルを含むKGから導出された第1のデータセットに対して利用される。第1のトリプルは、第1のエンティティ、及び第1のエンティティを接続して第1の接続されたエンティティ間の関係を表す第1のエッジを含む。第1の類似性関数は、第1のトリプルの第1の接続されたエンティティに適用されて、それぞれの第1の類似性スコアを提供する。1つ又は複数の第1のトリプルの第1のサブセットは、第1の類似性スコアに基づいて複数の第1のトリプルから選択される。人工ニューラルネットワークは、1つ又は複数の第1のトリプルの選択された第1のサブセットを使用してトレーニングされる。
Description
本実施形態は、ナレッジグラフの補足又は完成に関連した予測のための、人工ニューラルネットワークに基づく言語モデル、詳細には、トランスフォーマベースのモデルの性能を改善することに関する。
人工知能(Artificial Intelligence:AI)は、コンピュータ及び人間に関連するコンピュータの挙動を対象としたコンピュータ科学の分野に関する。AIとは、機械が情報に基づいて判断を行うことが可能である場合の知能を指し、これにより所与のトピックにおける成功の機会を最大化する。より具体的には、AIはデータセットから学習して問題を解決し、関連する推奨事項を提供することができる。例えば、人工知能(AI)コンピュータシステムの分野では、自然言語システム(IBM Watson(登録商標)人工知能コンピュータシステム又は他の自然言語の質問応答システムなど)は、システム取得型ナレッジに基づいて自然言語を処理する。自然言語を処理するために、システムは、ナレッジのデータベース又はコーパスから導出されるデータを用いてトレーニングされ得るが、結果の成果が様々な理由に関して不適切又は不正確となり得る。
AIのサブセットである機械学習(Machine Learning:ML)は、アルゴリズムを利用してデータから学習し、このデータに基づいて展望を作成する。AIとは、機械が情報に基づいて判断を行うことが可能である場合の知能を指し、これにより所与のトピックにおける成功の機会を最大化する。より具体的には、AIはデータセットから学習して問題を解決し、関連する推奨事項を提供することができる。認知コンピューティングは、コンピュータ科学及び認知科学を混合したものである。認知コンピューティングは、最小データ、視覚認識及び自然言語処理を用いる自己学習アルゴリズムを利用して、問題を解決し、人間の処理を最適化する。
AI及び関連付けられる論理的思考の中核には、類似性の概念が存在する。自然言語及びオブジェクトを理解するプロセスは、困難であり得る、関係性の視点からの論理的思考を必要とする。静的構造及び動的構造を含む構造が、所与の確定的な入力のために決定された出力又はアクションを規定する。より具体的には、決定された出力又はアクションは、構造内の明示的な関係又は固有の関係に基づいている。これらの構造を構築するために、適切なデータセットが依拠している。そのようなデータセットの例としては、グラフ構造のデータモデル又はトポロジを使用してデータを統合するナレッジグラフ(Knowledge Graph:KG)がある。
多くのAIシステムは、質問応答(Question Answering:QA)、セマンティック検索、推奨事項作成などのタスクを実行するための重要なリソースとしてナレッジグラフ(KG)に依存している。KGは、典型的には、情報のトリプル(トリプレットとも呼ばれる)で構成される相互リンクされたデータの集合又はデータセットを表す。KGには、頂点又はノードによって表され、関係又は述語によって相互にリンク又は接続されたエンティティの記述が含まれ、関係又は述語は、KG内の頂点又はノードをリンク又は接続するエッジによって表される。トリプルの相互リンクされたエンティティは、トリプルの関係によって表される関係を有するサブジェクト及びオブジェクトと呼ばれることもある。エンティティには、例えば、現実世界のオブジェクト、イベント、状況、又は抽象的な概念が含まれ得る。KGは、異なるエンティティ間の関連を識別することによって構築され得る。KGは進歩し、数百万、さらには数十億のエントリを含むものも知られるほどである。
一部のKGはオントロジと組み合わせて使用される。オントロジには、1つ、多数、又はすべての議論領域を実証する概念、データ、エンティティ間のカテゴリ、プロパティ、関係の表現、正式な命名、定義が含まれる。複雑さを制限し、情報をデータ及びナレッジに整理するために、あらゆる分野でオントロジが作成される。新しいオントロジが作成されると、その使用によって、その領域内の問題解決が改善されることが期待される。
KGには、多くの場合、形式的な意味論に乏しい大量の事実情報が含まれている。例えば、ゲノミクス領域内のKGには、遺伝子、遺伝子変異体、薬剤、及び疾患などのエンティティが含まれ得、特定の遺伝子変異体と特定の疾患との関連など、エンティティ間の関係を示し得る。KGの構築に対する従来の手法では、エンティティ間の関係を発見するために、内容領域専門家である研究者が新しい出版物を研究する必要がある。KGは研究者にエンティティの相互関係についての洞察を提供するが、KGの手動組み立て及び更新は非常に複雑で時間がかかり得る。KGに関連して生じるもう1つの問題は、多くの場合、KGに含まれるデータが不完全であることである。
一方、オープンKGは事前に指定されたオントロジを必要としないため、オープンKGは適応性が高くなる。オープンKGでは、同じ潜在的なエンティティは、異なる名詞句(Noun Phrase:NP)でラベル付けされた異なるノードによって表され得る。例えば、エンティティ「米国大統領」は、第1のノード「米国大統領」及び第2のノード「大統領」によって表され得る。同様に、オープンKGでは、同じ潜在的な関係を異なる関係句(Relation Phrase:RP)で表すことができる。例えば、RPの「誕生した」及び「生まれた」は、同じ基本的な関係を指す。
リンク予測モデルを使用することによって、内容領域専門家(Subject Matter Expert:SME)をKGの準備プロセスから少なくとも部分的に排除できる。リンク予測モデルの目的は、KG内で欠落しているエンティティ(ノード)又は関係(エッジ)を予測することである。予測モデルは、KGを補完又は完成させるために、KGに存在しないトリプルの妥当性を評価する。例えば、リンク予測には、欠落しているオブジェクトを予測するために、サブジェクト及び関係を識別するクエリに回答することが含まれ得る。特定の例として、リンク予測は、オブジェクトとして「米国大統領」を識別するために、サブジェクトとして「ファーストレディ」及び関係として「配偶者」のクエリをリンク予測モデルに提供し得る。別の実施形態では、KGは、「ファーストレディ」及び「米国大統領」の間のリンクを含んでもよいが、「ファーストレディ」及び「米国」の間の同様のリンクを欠いてもよい。この例の予測モデルは、不完全なKGから関係が欠落しているエンティティであるファーストレディ及び米国大統領(又は「大統領」)の間の関係を表すエッジを識別する。
Liang Yaoら、KG-BERT:ナレッジグラフ補完のためのBERTは、参照により本明細書に組み込まれるが、転移によるナレッジグラフ双方向エンコーダ表現(KG-BERT)として知られる事前トレーニングされた言語モデルをモデルトリプルに使用することを提案している。Yao氏は、BERTを多層双方向トランスフォーマエンコーダ上に構築された事前トレーニング済みの文脈上の言語表現モデルであると説明している。Yao氏によると、トリプルのエンティティ及び関係の記述は、KG-BERTモデルへのテキスト順序入力として受信され、KG-BERTはトリプルのスコアリング関数を計算する。この方法は、「トリプル分類、関係予測、及びリンク予測タスクにおいて最先端の結果」を達成すると言われている。トリプル分類は、所与のサブジェクト-関係-オブジェクト(s、r、o)のトリプルが正しいかどうかを判断することを目的としている。リンク予測は、他の要素(オブジェクト又はサブジェクト)及び関係、すなわち、(s,r,?)又は(?,r,o)を考慮して、欠落している要素(サブジェクト又はオブジェクト)を予測する。関係予測は、サブジェクト及びオブジェクト、すなわち、(s,?,o)から関係を予測することを目的としている。
しかし、発明者らは、大規模なデータセットに対する予測モデルのトレーニング及び使用に関連して、スケーラビリティに関連する大きな技術的問題を発見した。予測モデルのトレーニング、テスト(又は検証)、及び使用の実行時間は、KGに数百万又は数十億のエントリが含まれるなど、特に関連するKGが複雑である場合、長くなる可能性がある。特に大量のKG又はデータセットのトレーニング及びテストの実行時間は、理論的には数日、数か月、さらには数年かかる可能性があり、したがって、大きな技術的問題が発生する。
実施形態は、システム、コンピュータプログラム製品、及び自然言語処理(Natural Language Processing:NLP)のための方法を含み、NLPは、ナレッジグラフリンク予測及び/又は関係予測において言語モデル、特にトランスフォーマベースのモデルのパフォーマンスを改善することを対象とするNLPを含む。
1つの態様では、システムには、メモリに動作可能に結合された処理ユニット、処理ユニット及びメモリと通信する人工知能(AI)プラットフォームが設けられる。AIプラットフォームは、ナレッジグラフの修正をサポートする1つ又は複数のツールで構成され、ツールはトピックモデルマネージャ及び機械学習マネージャ(Machine Learning Manager:MLM)を含む。トピックマネージャは、複数の第1のトリプルを含むナレッジグラフ(KG)から導出された第1のデータセットに対して第1のトピックモデルを利用するように構成されている。第1のトリプルは、第1のエンティティ、及び第1のエンティティを接続して第1の接続されたエンティティ間の関係を表す第1のエッジを含む。トピックモデルは、第1の類似性関数を第1のトリプルの第1の接続されたエンティティに適用して、それぞれの第1の類似性スコアを提供し、第1の類似性スコアに基づいて、複数の第1のトリプルから1つ又は複数の第1のトリプルの第1のサブセットを選択するようにさらに構成されている。MLMは、1つ又は複数の第1のトリプルの選択された第1のサブセットを使用して人工ニューラルネットワークをトレーニングするように構成されている。
別の態様では、コンピュータプログラム製品が提供される。コンピュータプログラム製品は、プロセッサによって実行可能である具現化されたプログラムコードを有するコンピュータ可読記憶デバイスを含む。プログラムコードはプロセッサによって実行可能であり、第1のエンティティ、及び第1のエンティティを接続して第1の接続されたエンティティ間の関係を表す第1のエッジを含む、複数の第1のトリプルを含むナレッジグラフ(KG)から導出された第1のデータセットに対して第1のトピックモデルを利用する。プログラムコードはさらにプロセッサによって実行可能であり、第1の類似性関数を第1のトリプルの第1の接続されたエンティティに適用して、それぞれの第1の類似性スコアを提供し、第1の類似性スコアに基づいて、複数の第1のトリプルから1つ又は複数の第1のトリプルの第1のサブセットを選択し、1つ又は複数の第1のトリプルの選択された第1のサブセットを使用して人工ニューラルネットワーク(Artificial Neural Network:ANN)をトレーニングする。
さらに別の態様では、複数の第1のトリプルを含むナレッジグラフ(KG)から導出された第1のデータセットに対して第1のトピックモデルを利用する方法が提供される。第1のトリプルは、第1のエンティティ、及び第1のエンティティを接続して第1の接続されたエンティティ間の関係を表す第1のエッジを含む。第1の類似性関数は、第1のトリプルの第1の接続されたエンティティに適用されて、それぞれの第1の類似性スコアを提供する。1つ又は複数の第1のトリプルの第1のサブセットは、第1の類似性スコアに基づいて複数の第1のトリプルから選択される。人工ニューラルネットワークは、1つ又は複数の第1のトリプルの選択された第1のサブセットを使用してトレーニングされる。
これら及び他の特徴及び利点は、添付の図面と併せて、以下の例示的な実施形態の詳細な説明から明らかになるであろう。
ここで参照される図面は、明細書の一部を形成する。図面に示す特徴は、特に明記しない限り、一部の実施形態のみの例示を意味するものであり、すべての実施形態の例示を意味するものではない。
本実施形態の構成要素は、本明細書で概して説明され、図面に示されているように、多種多様な異なる構成で配置及び設計され得ることが容易に理解されるであろう。したがって、図面に表されるような、本実施形態の装置、システム、方法、及びコンピュータプログラム製品の実施形態の以下の詳細な説明は、特許請求される実施形態の範囲を限定することを意図するものではなく、単に選択された実施形態を表するものである。
本明細書を通して、「選択された実施形態(a select embodiment)」、「1つの実施形態(one embodiment)」、又は「一実施形態(an embodiment)」への言及は、実施形態に関連して説明される特定の特徴、構造又は特性が少なくとも1つの実施形態に含まれることを意味する。したがって、本明細書を通した様々な箇所で、「選択された実施形態(a select embodiment)」、「1つの実施形態では(in one embodiment)」、又は「一実施形態では(in an embodiment)」という語句が現れても、必ずしも同一の実施形態を指していない。様々な実施形態が互いに組み合わせされ得、任意の1つの実施形態が別の実施形態を修正するために使用され得ることを理解されたい。
例示された実施形態は、図面を参照することにより最もよく理解され、全体を通して、同様の部分は同様の番号により指定されている。以下の説明は、例としてのみ意図されており、本明細書で特許請求されるような実施形態と一致するデバイス、システム及び処理の特定の選択された実施形態を単に示しているだけである。
本明細書に図示及び説明するように、この技術的問題に対する技術的解決策は、本明細書に説明及び/又は例示するシステム、コンピュータプログラム製品、方法、及び他の態様を開発することによって提供される。
図1を参照すると、システム(100)の概略図が示されている。図示されるように、コンピュータネットワーク(本明細書ではネットワーク接続とも呼ばれる)(105)を介して複数のコンピューティングデバイス(180)、(182)、(184)、(186)、(188)及び(190)と通信するサーバ(110)が設けられる。サーバ(110)は、コンピュータネットワーク(105)から入力コンテンツ(102)を受信し、出力コンテンツ(104)をコンピュータネットワーク(105)に送信するように構成されている。サーバ(110)には、本明細書では処理ユニットとも呼ばれるプロセッサ(112)が設けられ、バス(114)を介してメモリ(116)に動作可能に結合される。人工知能(AI)プラットフォーム(本明細書ではナレッジエンジンとも呼ばれる)(150)の形態のツールが、サーバ(110)に対してローカルに示されており、処理ユニット(112)及びメモリ(116)に動作可能に結合されている。図示されるように、AIプラットフォーム(150)は、1つ又は複数のツール(152)及び(154)を含む。ツール(152)及び(154)は、1つ又は複数のコンピューティングデバイス(180)、(182)、(184)、(186)、(188)及び(190)からコンピュータネットワーク(105)を介して、KG-BERTなどのトランスフォーマベースの人工ニューラルネットワーク(ANN)モデルを含む、ANNモデルのトレーニング及び推論処理を可能にするための管理を提供する。
コンピューティングデバイス(180)、(182)、(184)、(186)、(188)及び(190)は、1つ又は複数の有線及び/又は無線データ通信リンクを介して、互いに及び他のデバイス又は構成要素と通信し、各通信リンクは、電線、ルータ、スイッチ、送信機又は受信機、又は同様のもののうちの1つ又は複数を備え得る。このネットワーク化された構成では、サーバ(110)及びネットワーク接続(105)は、入力コンテンツ(102)及び出力コンテンツ(104)、例えば、1人又は複数のコンテンツユーザに対するモデルトレーニング及び推論操作の交換を可能にし得る。サーバ(110)の他の実施形態は、ここに示されるもの以外の構成要素、システム、サブシステム及び/又はデバイスと共に使用され得る。
本明細書に図示及び説明するように、AIプラットフォーム(150)のツールには、トピックモデルマネージャ(152)及び機械学習モデル(MLM)マネージャ(154)が含まれる。AIプラットフォーム(150)は、限定されないが、入力コンテンツ(102)及び出力コンテンツ(104)を介したネットワーク(105)、ナレッジベース又はコーパス構造(160)からの1つ又は複数のナレッジグラフ(KG)データセット、トピックモデル(172)、及び人工ニューラルネットワーク(ANN)(174)からの入力を含む、様々なソースからの入力を受信する、及び/又はそれらに送信するように構成され得る。
図示されるように、ナレッジベース(160)は、一実施形態では、第1のデータセット、Dataset0(1620)及び第2のデータセット、Dataset1(1621)を含む、データセットのライブラリを含む。例示的な実施形態では、データセット、Dataset0(1620)及びDataset1(1621)は、同じナレッジグラフ(KG)から導出された異なるデータを表す。例えば、KGからのデータは、そのサブセットがトレーニングに使用されるDataset0(1620)、及びそのサブセットがテスト又は推論に使用されるDataset1(1621)に分割され得る。例示的な実施形態では、Dataset0(1620)及びDataset1(1621)はKGとして具現化される。あるいは、Dataset0(1620)及びDataset1(1621)のいずれか又は両方は、別の形式、具体的には、例えば、トピックモデル(172)によって生成される埋め込みルックアップテーブルなどのKGから導出される構造化データとして具現化され得る。本明細書に示すデータセットの量は、限定的であると考えるべきではない。
当技術分野で理解されているように、KGは構造(例えば、オントロジ)であり、単にデータを記憶するだけではない。具体的には、情報抽出(Information Extraction:IE)モデルは、その例が当技術分野で知られており、非構造化データからデータ及び1つ又は複数のデータ関係を抽出し、抽出されたデータ及びデータ関係のエントリをKGに作成し、作成されたKGエントリにデータ及びデータ関係を記憶する。IEモデルを利用して、非構造化テキストからトリプルを自動的に抽出し得る。あるいは、データセットは、内容領域専門家(SME)などによって手動でまとめ得る。
一実施形態では、KG内のデータ要素はノードに記憶又は表現され、2つのデータ要素間の関係は、2つのノードを接続又はリンクするエッジとして表現される。同様に、一実施形態では、各ノードはノードレベルの信頼性又は正確性の値を有し、各関係は関係信頼性又は正確性の値を有し、関係の正確性の値は、相互接続された2つのノードの正確性の値に基づいて計算される。
図1では、第1のデータセット、Dataset0(1620)は、第1の複数のトリプルを含むナレッジグラフ(KG)から導出されたデータを表す。具体的には、Dataset0(1620)は、Triple0,0(1640,0)、Triple0,1(1640,1)、及びTriple0,m(1640,m)を含み、ここで、mは2に等しい又はそれよりも大きい整数である。第1のデータセット、Dataset0(1620)には3つのトリプルが示されているが、Dataset0(1620)は、数十、数百、数千、数百万、又は数十億のトリプルを含む追加のトリプルを含み得、例えば、「m」は、例えば、10~10億に等しくてもよいことを理解されたい。各Triple0,0(1640,0)、Triple0,1(1640,1)、…、及びTriple0,m(1640,m)には、サブジェクト、関係、及びオブジェクトが含まれる。例として、本明細書に示すように、Triple0,0(1640,0)には、Subject0,0(1660,0)、Relation0,0(1670,0)、及びObject0,0(1680,0)が含まれる。Triple0,1(1640,1)には、Subject0,1(1660,1)、Relation0,1(1670,1)、及びObject0,1(1680,1)が含まれる。Triple0,m(1640,m)には、Subject0,m(1660,m)、Relation0,m(1670,m)、及びObject0,m(1680,m)が含まれる。
トピックモデルマネージャ(152)は、第1のデータセット、Dataset0(1620)に対してトピックモデル(172)を利用するように構成されている。概して、トピックモデリングは、テキストデータを自動的に分析して、文書のセットのクラスタワードを決定する機械学習技術である。この技術は、事前に人間によって分類されたタグ又はトレーニングデータの予め定められたリストを必要としないため、これは「教師なし」機械学習として知られている。機械学習及び自然言語処理では、トピックモデルは、文書の集合内で発生する抽象的な「トピック」を発見するための統計モデルの一種である。トピックモデルの例には、限定されないが、潜在意味解析(Latent Semantic Analysis:LSA)及びWord2Vecが含まれる。トピックモデリングは、テキスト本文内の隠された意味構造を発見するために頻繁に使用されるテキストマイニングツールである。
例示的な実施形態によれば、第1のデータセット、Dataset0(1620)に対するトピックモデル(172)を利用することにより、トレーニングのために第1のデータセット、Dataset0(1620)のサブセットを選択することによって、ANN(174)をトレーニングするために使用されるデータ量がダウンサンプリングされる。第1のデータセット全体ではなく、第1のデータセットのサブセットである、トレーニングセットとも呼ばれる、ダウンサンプリングされたサブセット、Dataset0(1620)を使用したトレーニングにより、ANN(174)のトレーニングに関連する計算時間が削減される。例示的な実施形態によれば、第1の類似性関数は、第1の類似性スコアを生成するために各トリプルのサブジェクト及びオブジェクトに適用されるコサイン類似性関数である。例示的な実施形態では、コサイン類似性関数は、トピックモデル、例えば、LSA又はWord2Vecによって適用される。例えば、Triple0,0(1640,0)の類似性スコア、例えば、SimilarityScore0,0は、Subject0,0(1660,0)及びObject0,0(1680,0)から計算されたコサイン類似性スコアであり、Triple0,1(1640,1)の類似性スコア、例えば、SimilarityScore0,1は、Subject0,1(1660,1)及びObject0,1(1680,1)に対して計算されたコサイン類似性スコアであり、Triple0,m(1640,m)の類似性スコア、例えば、SimilarityScore0,mは、Subject0,m(1660,m)及びObject0,m(1680,m)に対して計算されたコサイン類似性スコアである。
類似性スコアSimilarityScore0,0、SimilarityScore0,1、…及びSimilarityScore0,mに基づいて、トピックモデル(172)は、第1のデータセット、Dataset0(1620)のTriple0,0(1640,0)、Triple0,1(1640,1)、…、及びTriple0,m(1640,m)からトリプルのサブセットをトレーニングセットとして選択し、ここで、サブセットには、1個から「mマイナス1」(m-1)個のトリプルが含まれる。一実施形態によれば、トリプル、Triple0,0(1640,0)、Triple0,1(1640,1)、…、及びTriple0,m(1640,m)は、トピックモデルマネージャ(152)によってランク付けされ、トピックモデルマネージャ(152)は、上位にランク付けされたトリプルの予め決められた量を選択する。別の実施形態によれば、トピックモデルマネージャ(152)は、トレーニングセットとして第1の閾値を満たす類似性スコアを有する、第1のデータセット、Dataset0(1620)のTriple0,0(1640,0)、Triple0,1(1640,1)、…、及びTriple0,m(1640,m)からトリプルのサブセットを選択する。例えば、トレーニングセットは、第1の閾値を満たすTriple0,0(1640,0)及びTriple0,1(1640,1)を含み得るが、第1の閾値を満たさないTriple0,m(1640,m)を省略し得る。類似性スコアがコサイン類似性を反映する実施形態では、コサイン類似性は、主題に関して2つのデータメンバがどの程度類似している可能性が高いかを示す測定値を示す。一般に、コサイン類似性スコアの範囲はマイナス1(-1)から1(1)までで、マイナス1のスコアは反対を表し、1のスコアは同一を表し、0のスコアは無相関を表す。一実施形態では、第1の閾値は0と1の間、0.5などに設定され、この実施形態によれば、0.5から1までのすべてのスコアが第1の閾値を満たす。
MLMマネージャ(154)は、選択されたトレーニングセットの1つ又は複数のトリプル、例えば、第1のデータセット、Dataset0(1620)のサブセット、Triple0,0(1640,0)及びTriple0,1(1640,1)を使用してANN(174)をトレーニングするように構成されている。例示的な実施形態では、ANN(174)は、トレーニングトリプルを使用して、トリプル分類、リンク予測、関係予測、それらの組み合わせ、及び/又は1つ又は複数の追加の動作及びタスクについてトレーニングされる。
一実施形態によるトレーニング中に、MLMマネージャ(154)は、ANN(174)を使用して、トレーニングセットのデータに信頼性又は正確性の値を割り当てるか、そうでない場合は指定する。
AIプラットフォーム(150)は、クエリ(176)を受信するようにさらに構成されている。ネットワーク(105)と通信する様々なコンピューティングデバイス(180)、(182)、(184)、(186)、(188)、及び(190)は、クエリ(176)を送信するためのアクセスポイントを示す。あるいは、クエリ(176)は、ナレッジベース(160)から、又は別のナレッジベース、ユーザ入力、又は別のソースからアクセスされ得る。一実施形態では、クエリ(176)は自然言語処理(NLP)されて、第1のエンティティ、Entity1(177)、及び関係、Relation(178)を抽出する。
図1に示す実施形態では、クエリ、Query(176)は、既知のエンティティ、EntityKNOWN(177)及び関係、Relation(178)を含むが、未知のエンティティ、EntityUNKNOWN(179)は含まない。EntityUNKNOWN(179)は、EntityKNOWN(177)に関してRelation(178)を有する。一実施形態では、EntityUNKNOWN(179)は、EntityKNOWN(177)及びRelation(178)から提起された質問に対する回答である。一実施形態によれば、Query(176)は、EntityKNOWN(177)としてのサブジェクト及びRelation(178)を含み、Query(176)に対する回答を表すオブジェクトであるEntityUNKNOWN(179)を求める。別の実施形態では、Query(176)は、EntityKNOWN(177)としてのオブジェクト及びRelation(178)を含み、Query(176)に対する回答を表すサブジェクトである、EntityUNKNOWN(179)を求める。
トピックモデルマネージャ(152)は、推論又はテストの目的で、Dataset1(1621)として図1で表される第2のデータセットに対してトレーニングされたトピックモデル(172)を利用するように構成されている。さらに、図1には1つのトピックモデル(172)が示されているが、2つ以上のトピックモデル、例えば、ANN(174)をトレーニングする前にデータセットをダウンサンプリングするための第1のトピックモデル、及びトレーニングされたANN(174)でテストする前に、別のデータセットを制限するサンプルのための第2のトピックモデルがアクセス可能及び利用可能であり得ることを理解されたい。
例示的な実施形態によれば、第2のデータセット、Dataset1(1621)は、第1のデータセット、Dataset0(1620)と同じKGから導出される追加データを表す。一実施形態では、データセット、Dataset0(1620)及びDataset1(1621)は異なり、例えば、トピックモデル(172)によって生成された埋め込みルックアップテーブルなどの同じKGから導出される。別の実施形態では、Dataset0(1620)及びDataset1(1621)は相互に排他的である。すなわち、Dataset1(1621)のデータはトレーニングに使用されていない。Dataset1(1611)は、第2のエンティティ、及び第2のエンティティをリンク又は接続する第2のエッジを有する。Dataset1(1621)は、複数のトリプル、具体的には、Triple1,0(1641,0)、Triple1,1(1641,1)、…、及びTriple1,n(1641,n)を含み、ここで、nは2に等しい又はそれよりも大きい整数である。Dataset1(1621)には3つのトリプルが示されているが、Dataset1(1621)は、数十、数百、数千、数百万、又は数十億のトリプルを含む追加のトリプルを含み得ることを理解されたい。Triple1,0(1641,0)には、Subject1,0(1661,0)、Relation1,0(1671,0)、及びObject1,0(1681,0)が含まれる。Triple1,1(1641,1)には、Subject1,1(1661,1)、Relation1,1(1671,1)、及びObject1,1(1681,1)が含まれる。Triple1,n(1641,n)には、Subject1,n(1661,n)、Relation1,n(1671,n)、及びObject1,n(1681,n)が含まれる。
例示的な実施形態によれば、第2のデータセット、Dataset1(1621)に対するトピックモデル(172)を利用することにより、第2のデータセット、Dataset1(1621)のサブセットを候補セットとして選択することによって、例えば、質問応答クエリ解決のために、ANN(174)をテスト又は使用するために使用されるデータ量がダウンサンプリングされる。第2のデータセット全体、Dataset1(1621)ではなく第2のデータセットのサブセットである候補セットにより、ANN(174)をテストすること又は使用することに関連する計算時間が削減される。一実施形態によれば、トピックモデル(172)は、第2の類似性関数を、第2のデータセット、Dataset1(1621)のトリプル、Triple1,0(1641,0)、Triple1,1(1641,1)、及びTriple1,n(1641,n)に適用する。
トピックモデル(172)によって評価される第2の類似性関数は、第1の類似性関数と同じであっても、異なっていてもよい。例示的な実施形態によれば、第2の類似性関数は、第2の類似性スコアを生成するために各トリプルのサブジェクト及びオブジェクトに適用されるコサイン類似性関数である。例えば、Triple1,0(1641,0)の類似性スコア、例えば、SimilarityScore1,0は、Subject1,0(1661,0)及びObject1,0(1681,0)から計算されたコサイン類似性スコアであり、Triple1,1(1641,1)の類似性スコア、例えば、SimilarityScore1,1は、Subject1,1(1661,1)及びObject1,1(1681,1)に対して計算されたコサイン類似性スコアであり、Triple1,n(1641,n)の類似性スコア、例えば、SimilarityScore1,nは、Subject1,n(1661,n)及びObject1,n(1681,n)に対して計算されたコサイン類似性スコアである。
類似性スコアSimilarityScore1,0、SimilarityScore1,1、…及びSimilarityScore1,nに基づいて、トピックモデルマネージャ(152)、又は一実施形態ではMLMマネージャ(154は、第2のデータセット、Dataset1(1621)のTriple1,0(1641,0)、Triple1,1(1641,1)、…、及びTriple1,n(1641,n)からトリプルのサブセットを候補として選択し、ここで、サブセットには、1個から「nマイナス1」(n-1)個のトリプルが含まれる。一実施形態によれば、トリプル、Triple1,0(1641,0)、Triple1,1(1641,1)、…、及びTriple1,n(1641,n)は、トピックモデルマネージャ(152)によってランク付けされ、予め決められた数の、上位にランク付けされたトリプルが候補セットとして選択される。別の実施形態によれば、トピックモデル(152)は、第2の閾値を満たす類似性スコアを有する、第2のデータセット、Dataset1(1621)のTriple1,0(1641,0)、Triple1,1(1641,1)、…、及びTriple1,n(1641,n)からトリプルのサブセットを候補セットとして識別及び選択する。例えば、トレーニングセットは、第2の閾値を満たすTriple1,0(1641,0)及びTriple1,1(1641,1)を含み得るが、第2の閾値を満たさないTriple1,n(1641,n)を省略し得る。類似性スコアがコサイン類似性を反映する実施形態では、コサイン類似性は、主題に関して2つのデータメンバがどの程度類似している可能性が高いかを示す測定値を示す。一般に、コサイン類似性スコアの範囲はマイナス1(-1)から1(1)までで、マイナス1のスコアは反対を表し、1のスコアは同一を表し、0のスコアは無相関を表す。一実施形態では、第2の閾値は0と1の間、0.5などに設定され、この実施形態によれば、0.5から1までのすべてのスコアが第2の閾値を満たす。
MLMマネージャ(154)は、トレーニングされたANN(174)を利用して、第2のサブセットの各候補トリプルについて、Query(176)のEntityUNKNOWN(179)に対応する候補トリプルのエンティティのそれぞれの信頼スコアを評価するように構成されている。1つ又は複数の例示的な実施形態では、第2のサブセット(又は候補トリプル)に対してトレーニングされたANN(174)を利用することには、Query(176)のEntityUNKNOWN(179)に対応する各候補トリプルのエンティティの信頼値の評価又はスコアリングが含まれる。一実施形態では、Query(176)のEntityKNOWN(177)がサブジェクトである場合、トレーニングされたANN(174)による評価により、候補セットの各オブジェクト、例えば、Object1,0(1681,0)、Object1,1(1681,1)、...及び/又はObject1,n(1681,n)の信頼スコアが決定される。別の実施形態では、Query(176)のEntityKNOWN(177)がオブジェクトである場合、評価により、候補セットの各サブジェクト、例えば、Subject1,0(1661,0)、Subject1,1(1661,1)、...及び/又はSubject1,n(1661,n)の信頼スコアが決定される。第2のサブセットの第2のエンティティの少なくとも1つは、信頼スコアに基づいてクエリ(176)のEntityUNKNOWN(179)の候補として出力される。
ネットワーク(105)と通信する様々なコンピューティングデバイス(180)、(182)、(184)、(186)、(188)、及び(190)は、Query(176)を送信するためのアクセスポイントを示す。コンピューティングデバイスの一部は、ナレッジエンジン(150)、及び、1つの実施形態では、ツール(152)及び(154)によって使用される大量の情報としてデータのコーパスを記憶するデータベース用のデバイスを含み得る。コンピュータネットワーク(105)は、ナレッジエンジン(150)及び埋め込みツール(152)及び(154)が、ローカル及びグローバル、例えば、インターネットを含む任意の規模の環境で動作し得るように、様々な実施形態で、ローカルネットワーク接続及びリモート接続を含み得る。
サーバ(110)は、ニューヨーク州アーモンクのInternational Business Machines Corporationから入手可能なIBM Watson(登録商標)システムであり得、これは、以下に説明する例示的な実施形態の機構で拡張される。IBM Watson(登録商標)ナレッジマネージャシステムは、複数のトリプル(例えば、Triple0,0(1640,0)、Triple0,1(1640,1)、…Triple0,m(1640,m))を有する第1のデータセット、Dataset0(1620)をトピックモデル(172)にインポートする。具体的には、一実施形態では、第1のデータセット、Dataset0(1620)のトリプルは、本明細書ではトレーニングトリプルとも呼ばれる、トリプルのサブセットにダウンサンプリングされる。トレーニングトリプルは、ANN(174)のトレーニングに使用される。
さらに、IBM Watson(登録商標)ナレッジマネージャシステムは、複数のトリプル(例えば、Triple1,0(1641,0)、Triple1,1(1641,1)、…Triple1,n(1641,n))を有する第2のデータセット、Dataset0(1621)をトピックモデル(172)にインポートする。具体的には、一実施形態では、第2のデータセット、Dataset1(1621)のトリプルは、本明細書では候補トリプルとも呼ばれる、トリプルのサブセットにダウンサンプリングされる。トレーニングされたANN(174)は、候補トリプル及びクエリに対して利用される。
サーバ(110)は、AIプラットフォーム(150)及び関連付けられたツール(152)及び(154)を利用して、ANN(174)のトレーニング及びテストをサポートする。AIプラットフォーム(150)は、サーバ(110)内に具現化されるか、サーバ(110)と統合されるように示されているが、コンピュータネットワーク(105)を介してサーバ(110)に接続される別個のコンピューティングシステム(例えば、190)内に実装され得る。サーバ(110)に対してローカルに示されているが、ツール(152)及び(154)は、集合的に又は個別にメモリ(114)又は他の場所に埋め込まれ得る。
システム(110)を利用できる情報処理システムのタイプは、ハンドヘルドコンピュータ/携帯電話(180)などの小型のハンドヘルドデバイスから、メインフレームコンピュータ(182)などの大規模なメインフレームシステムまでの範囲にわたる。ハンドヘルドコンピュータ(180)の例は、パーソナルデジタルアシスタント(PDA(登録商標))、MP4プレーヤ、ポータブルテレビ及びコンパクトディスクプレーヤなどのパーソナルエンターテインメントデバイスを含む。情報処理システムの他の例は、ペン又はタブレットコンピュータ(184)、ラップトップ又はノートブックコンピュータ(186)、パーソナルコンピュータシステム(188)及びサーバ(190)を含む。示すように、様々な情報処理システムは、コンピュータネットワーク(105)を使用して、共にネットワーク化され得る。様々な情報処理システムを相互接続するために使用できるコンピュータネットワーク(105)のタイプは、ローカルエリアネットワーク(LAN)、ワイヤレスローカルエリアネットワーク(WLAN)、インターネット、公衆交換電話ネットワーク(PSTN)、その他のワイヤレスネットワーク、及び情報処理システムを相互接続するために使用できる任意の他のネットワークトポロジを含む。情報処理システムの多くは、ハードドライブ及び/又は不揮発性メモリなどの不揮発性データストアを含む。情報処理システムの一部は、別個の不揮発性データストアを使用し得る(例えば、サーバ(190)が不揮発性データストア(190A)を利用し、メインフレームコンピュータ(182)が不揮発性データストア(182a)を利用する)。不揮発性データストア(182a)は、様々な情報処理システムの外部にある構成要素であり得るか、又は、情報処理システムのうちの1つの内部にあり得る。
情報処理システムには様々な形態を取り得るが、その一部を図1に示す。例えば、情報処理システムは、デスクトップ、サーバ、ポータブルラップトップ、ノートブック又は他のフォームファクタコンピュータ、又は、データ処理システムの形態を取り得る。さらに、情報処理システムは、パーソナルデジタルアシスタント(PDA)、ゲーミングデバイス、ATM機、ポータブル電話デバイス、通信デバイス又はプロセッサ及びメモリを含む他のデバイスなどの他のフォームファクタを取り得る。
アプリケーションプログラムインターフェース(API)は、当技術分野において、2つ以上のアプリケーション間のソフトウェア仲介者として理解される。図1に図示及び説明したシステムに関して、1つ又は複数のAPIを利用して、1つ又は複数のツール(152)及び(154)及びそれらの関連付けられた機能をサポートし得る。図2を参照すると、NL処理ツール及びそれらに関連付けられたAPIを示すブロック図(200)が提供されている。図示のように、ナレッジエンジン(205)内には複数のツールが埋め込まれており、そのツールには、API0(212)に関連付けられたトピックモデルマネージャ(252)、及びAPI1(222)に関連付けられたMLMマネージャ(254)が含まれる。APIのそれぞれは、1つ又は複数の言語及びインターフェース仕様で実装され得る。トピックモデルマネージャ(252)に関連付けられたAPI0(212)は、データセットに対する1つ又は複数のトピックモデルの利用及びサブセットの選択を提供し;MLMマネージャ(254)に関連付けられたAPI1(222)は、選択された第1のサブセットでANNをトレーニングし、例えば、テストの目的で、選択された第2のサブセットに対してトレーニングされたANNを利用することを提供する。図示のように、API(212)及び(222)のそれぞれは、オーケストレータ層とも呼ばれる、APIオーケストレータ(260)に動作可能に結合され、これは、当技術分野では、別個のAPIと共に透過的にスレッド化する抽象化層として機能することが理解されている。1つの実施形態では、別個のAPIの機能は、つながれ得るか又は組み合わされ得る。したがって、本明細書で示すAPIの構成は、限定とみなされるべきではない。したがって、本明細書に示すように、ツールの機能は、それらのそれぞれのAPIにより具現化又はサポートされ得る。
本開示の選択された実施形態の理解を深めるための追加の詳細を提供するために、ここで図3を参照すると、人工ニューラルネットワーク(ANN)をトレーニングするためにデータセットを、トレーニングデータのサブセットにダウンサンプリングするための第1のトピックモデルの使用方法のフローチャート(300)が示されている。図3を参照すると、例示的な実施形態では、複数のトリプルを含む1つ又は複数のナレッジグラフを有する、又はそこから導出される第1のデータセットにアクセスする(302)。トリプルの総数が定量化され、MTOTALとして設定される(304)。データセットのトリプルを表す変数Mが初期化される(306)。第1のトピックモデルを、トリプル、TripleMに対して利用する(308)。(310)において、第1の類似性スコア、ScoreMが、TripleMについて評価される。例示的な実施形態によれば、第1の類似性スコアは、TripleMのエンティティ(例えば、サブジェクト及びオブジェクト)間のコサイン類似性に基づく。次いで、変数Mが増分され(312)、第1のデータセット内のトリプルのそれぞれが評価されたかどうか、例えば、増分されたMの値がデータセット内のトリプルの総量、MTOTALより大きいかどうかの判定が行われる(314)。否定の回答の場合、方法は、増分された変数Mを使用してトリプルに対して第1のトピックモデルを利用するためにステップ(308)に戻る。ステップ(314)で評価が肯定で回答された場合、トリプル、Triple1から
が、それらに関連付けられた第1の類似性スコアに基づいて並び替えアルゴリズムによってランク付けされるか、又は別の方法で並び替えられる(316)。トレーニングトリプルの第1のサブセットが、トリプルのランク付け又は並び替えられたデータセットから識別される(318)。一実施形態によれば、第1のサブセットのトレーニングトリプルは、第1の閾値を満たす関連付けられた第1の類似性スコアを有する。第1のサブセットのトレーニングトリプルを使用して、トランスフォーマベースのANNをトレーニングする(320)。
図4は、第2のトピックモデルを使用して第2のデータセットを、トレーニングされたANNの使用、テスト、又は検証のための候補のサブセットにダウンサンプリングするための方法の一実施形態に関するフローチャート(400)を示す。図4を参照すると、例示的な実施形態では、複数のトリプルを含む1つ又は複数のナレッジグラフを有する、又はそこから導出される第2のデータセットにアクセスする(402)。トリプルの総数が定量化され、NTotalとして設定される(404)。第2のデータセットのトリプルを表す計数変数Nが初期化される(406)。図3に関連して上記で論じた第1のトピックモデルと同じであり得るか、又は異なり得る、第2のトピックモデルを、トリプル、TripleNに対して利用する(408)。(410)において、第2の類似性スコア、ScoreN、TripleNについて評価される。例示的な実施形態によれば、第2の類似性スコアは、TripleNのエンティティ(例えば、サブジェクト及びオブジェクト)間のコサイン類似性に基づく。次いで、変数Nが増分され(412)、第2のデータセット内のトリプルのそれぞれが評価されたかどうか、例えば、増分されたNの値がNTOTALより大きいかどうかの判定が行われる(414)。判定ステップ(414)における否定応答は、1つ又は複数の追加のトリプルが処理のために残っていることを示し、方法は、増分された変数Nを使用してトリプルに対して第2のトピックモデルを利用するために、ステップ(408)に戻る。判定ステップ(414)における肯定応答は、トリプルのすべてが処理されたことを示し、方法はステップ(416)に進む。トリプル、Triple1から
が、それらに関連付けられた第2の類似性スコアに基づいて、ランク付けされるか、又は別の方法で並び替えアルゴリズムによって並び替えられる(416)。トリプルのデータセットから、トリプルの第2のサブセットが識別される(418)。一実施形態によれば、トリプルの第2のサブセットのトリプルは、第2の閾値を満たす関連付けられた第2の類似性スコアを有する。
図5を参照すると、例えば、テスト、検証、又は予測に関連してトレーニングされたANNを使用する実施形態の方法を示すフローチャート(500)が提供されている。既知のエンティティ及び関係を含むクエリが受信されるが、既知のエンティティに対する関係を有する未知のエンティティは省略される(502)。図4のフローチャート(400)の方法に従って開発された、候補トリプルの第2のセットにアクセスする(504)。候補トリプルの総量をPTOTALとして設定され(506)、計数変数Pが初期化される(508)。Candidate TriplePについて、クエリの未知のエンティティに対応するCandidate TriplePのエンティティがCandidate EntityPとして識別される(510)。例えば、クエリに未知のエンティティとしてサブジェクトが含まれる場合、Candidate TriplePのサブジェクトはCandidate EntityPとして識別される。一方、クエリに未知のエンティティとしてオブジェクトが含まれている場合、Candidate TriplePのオブジェクトが、Candidate EntityPとして識別される。
トレーニングされたANNを利用して、Candidate TriplePのCandidate EntityPの信頼スコア、ScorePが評価される。(514)において、計数変数Pが増分され、候補トリプルのそれぞれが信頼スコアの評価に関して処理されたかどうか、例えば、増分された計数変数PがPTOTALより大きいかどうかの判定が行われる(516)。判定ステップ(516)における否定的な決定により、1つ又は複数のさらなる候補トリプルが処理のために残っていることが示されている場合、方法はステップ(510)に戻る。一方、判定ステップ(516)における肯定的な決定により、トレーニングされたANNがすべての候補エンティティに対して利用されたことが示される。
Candidate Entity1からCandidate
は、それらに関連付けられた信頼スコアに基づいて並び替えアルゴリズムによってランク付けされるか、又は別の方法で並び替えられる(518)。一実施形態によれば、最も有利な(例えば、最高の)信頼スコアを有する候補エントリが出力として識別される。別の実施形態によれば、第3の閾値を満たす関連付けられた信頼スコアを有する1つ又は複数の候補エンティティが識別される(520)。さらに別の実施形態によれば、候補エントリはSMEによって評価される。
一実施形態によれば、1つ又は複数の識別された候補エンティティに関連付けられた1つ又は複数の追加のエッジ及び/又はノードが、KGに選択的に埋め込まれる(522)。したがって、本明細書に示すように、トピックモデルを利用して、ANNによるトレーニング、テスト、及び/又は処理の候補を効果的に制限し、次いで、対応するKGに1つ又は複数のエッジを選択的に埋め込むための候補エンティティを識別する。
ANNのトレーニング、テスト、検証、及び/又は使用にトピックモデルを使用する態様を、図1及び図2に示すツール及びAPI、及び図3、図4、及び図5に示す処理を使用して示して説明する。機能ツール(152)及び(154)及びそれらの関連付けられた機能の態様は、単一の場所にあるコンピュータシステム/サーバ内に具現化され得るか、又は、一実施形態では、コンピューティングリソースを共有するクラウドベースのシステム内に構成され得る。図6を参照すると、図3~図5に関して上記で説明したプロセスを実装するための、クラウドベースのサポートシステムと通信する、以下、ホスト(602)と呼ぶ、コンピュータシステム/サーバ(602)の一例を示すブロック図(600)が提供される。ホスト(602)は、多数の他の汎用又は専用コンピューティングシステム環境又は構成で動作可能である。ホスト(602)での使用に適し得る周知のコンピューティングシステム、環境、及び/又は構成の例には、限定されないが、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、シッククライアント、ハンドヘルドデバイス又はラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラマブル家電製品、ネットワークPC、ミニコンピュータシステム、メインフレームコンピュータシステム、並びに、上記のシステム、デバイス、及びそれらの同等物のいずれかを含むファイルシステム(例えば、分散型ストレージ環境及び分散型クラウドコンピューティング環境)が含まれる。
ホスト(602)は、コンピュータシステムによって実行される、プログラムモジュールなどのコンピュータシステム実行可能命令の一般的な文脈で説明され得る。一般に、プログラムモジュールは、特定のタスクを実行するか、又は特定の抽象データタイプを実施するルーチン、プログラム、オブジェクト、構成要素、ロジック、データ構造などを含み得る。ホスト(602)は、通信ネットワークを介してリンクされたリモート処理デバイスによってタスクが実行される分散型クラウドコンピューティング環境(610)で実施され得る。分散型クラウドコンピューティング環境では、プログラムモジュールは、メモリストレージデバイスを含むローカル及びリモートの両方のコンピュータシステムストレージ媒体に配置され得る。
図6に示すように、ホスト(602)は、汎用コンピューティングデバイスの形態で示されている。ホスト(602)の構成要素は、限定されないが、1つ又は複数のプロセッサ又は処理ユニット(604)、例えば、ハードウェアプロセッサ、システムメモリ(606)、システムメモリ(606)、処理ユニット(604)を含む様々なシステム構成要素を結合するバス(608)を含み得る。バス(608)は、メモリバス又はメモリコントローラ、ペリフェラルバス、アクセラレーテッドグラフィックスポート、及び様々なバスアーキテクチャのいずれかを使用するプロセッサ又はローカルバスを含む、いくつかのタイプのバス構造のいずれかの1つ又は複数を表す。限定ではなく例として、そのようなアーキテクチャには、業界標準アーキテクチャ(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、拡張ISA(EISA)バス、ビデオエレクトロニクススタンダーズアソシエーション(VESA)ローカルバス、及びペリフェラル構成要素インターコネクト(PCI)バスが含まれる。ホスト(602)は、典型的には、様々なコンピュータシステム可読媒体を含む。そのような媒体は、ホスト(602)によってアクセス可能である任意の利用可能な媒体であり得、揮発性及び不揮発性の両方の媒体、取り外し可能及び取り外し不可能な媒体を含む。
メモリ(606)は、ランダムアクセスメモリ(RAM)(630)及び/又はキャッシュメモリ(632)などの揮発性メモリの形態のコンピュータシステム可読媒体を含むことができる。単なる例として、ストレージシステム(634)は、取り外し不可能な不揮発性磁気媒体(図示せず、一般に「ハードドライブ」と呼ばれる)との間の読み取り及び書き込みのために設けられ得る。図示されていないが、取り外し可能な不揮発性磁気ディスク(例えば、「フロッピディスク」)との間の読み取り及び書き込みのための磁気ディスクドライブ、及びCD-ROM、DVD-ROM又は他の光媒体などの取り外し可能な不揮発性光ディスクとの間の読み取り又は書き込みのための光ディスクドライブが設けられ得る。そのような例では、それぞれが1つ又は複数のデータ媒体インターフェースによってバス(608)に接続され得る。
プログラムモジュール(642)のセット(少なくとも1つ)を有するプログラム/ユーティリティ(640)は、限定ではなく例として、オペレーティングシステム、1つ又は複数のアプリケーションプログラム、他のプログラムモジュール、及びプログラムデータと同様に、メモリ(606)に記憶され得る。オペレーティングシステム、1つ又は複数のアプリケーションプログラム、他のプログラムモジュールのそれぞれ、及びプログラムデータ又はそれらのいくつかの組み合わせは、ネットワーク環境の実装を含み得る。プログラムモジュール(642)は、概して、ダウンサンプリング及びANNのトレーニング及び使用をサポート及び可能にするために、実施形態の機能及び/又は方法論を実行する。例えば、プログラムモジュール(642)のセットは、図1で説明したツール(152)及び(154)を含み得る。
ホスト(602)はまた、キーボード、ポインティングデバイスなどのような1つ又は複数の外部デバイス(614);ディスプレイ(624);ユーザがホスト(602)と相互作用できるようにする1つ又は複数のデバイス;及び/又はホスト(602)が1つ又は複数の他のコンピューティングデバイスと通信できるようにする任意のデバイス(例えば、ネットワークカード、モデムなど)と通信し得る。そのような通信は、入力/出力(I/O)インターフェース(622)を介して行うことができる。さらにまた、ホスト(602)は、ネットワークアダプタ(620)を介して、ローカルエリアネットワーク(LAN)、一般的なワイドエリアネットワーク(WAN)、及び/又はパブリックネットワーク(例えば、インターネット)などの1つ又は複数のネットワークと通信することができる。示されているように、ネットワークアダプタ(620)は、バス(608)を介してホスト(602)の他の構成要素と通信する。一実施形態では、分散ファイルシステム(図示せず)の複数のノードは、I/Oインターフェース(622)又はネットワークアダプタ(620)を介してホスト(602)と通信する。図示されていないが、他のハードウェア及び/又はソフトウェア構成要素を、ホスト(602)と併せて使用できることを理解されたい。例としては、限定されないが、マイクロコード、デバイスドライバ、冗長処理ユニット、外部ディスクドライブアレイ、RAIDシステム、テープドライブ、データアーカイブストレージシステムなどが含まれる。
本書では、用語「コンピュータプログラム媒体」、「コンピュータ使用可能媒体」及び「コンピュータ可読媒体」は、概して、RAM(630)、キャッシュ(632)、及び、リムーバブルストレージドライブ及びハードディスクドライブにインストールされるハードディスクなどのストレージシステム(634)を含むメインメモリ(606)などの媒体を指すために使用される。
コンピュータプログラム(コンピュータ制御ロジックとも呼ばれる)は、システムメモリ(606)に記憶される。コンピュータプログラムはまた、ネットワークアダプタ(620)などの通信インターフェースを介して受信され得る。そのようなコンピュータプログラムは、実行時、コンピュータシステムが、本明細書で論じられるような本実施形態の機能を実行することを可能にする。特に、コンピュータプログラムは、実行時、処理ユニット(604)が、コンピュータシステムの機能を実行することを可能にする。したがって、そのようなコンピュータプログラムは、コンピュータシステムのコントローラを表す。
一実施形態では、ホスト(602)は、クラウドコンピューティング環境のノードである。当技術分野で知られるように、クラウドコンピューティングは、最小限の管理労力又はサービスプロバイダとの相互作用で、迅速にプロビジョニング及びリリースできる、構成可能なコンピューティングリソース(例えば、ネットワーク、ネットワーク帯域幅、サーバ、処理、メモリ、ストレージ、アプリケーション、仮想マシン及びサービス)の共有プールへの便利なオンデマンドネットワークアクセスを可能にするサービス提供のモデルである。このクラウドモデルは、少なくとも5つの特性、少なくとも3つのサービスモデル、及び少なくとも4つの展開モデルを含み得る。そのような特性の例は次の通りである。
オンデマンドセルフサービス:クラウド消費者は、サービスプロバイダとの人間の対話を必要とせずに、必要に応じて自動的に、サーバタイム及びネットワークストレージなどのコンピューティング能力を一方的にプロビジョニングできる。
幅広いネットワークアクセス:能力は、ネットワーク経由で利用可能であり、異種のシンクライアントプラットフォーム又はシッククライアントプラットフォーム(例えば、携帯電話、ラップトップ、PDA)による使用を促進する標準機構を介してアクセスされる。
リソースプーリング:プロバイダのコンピューティングリソースは、マルチテナントモデルを使用して複数の消費者にサービスを提供するためにプールされ、異なる物理リソース及び仮想リソースが、需要に従って動的に割り当て及び再割り当てされる。消費者は、一般に、提供されたリソースの正確な位置に関して制御しないか、又は知識がないものの、より高い抽象化層(例えば、国、州、又はデータセンタ)で位置を指定することが可能であり得るという点で、位置独立の感覚が存在する。
迅速な弾力性:能力は、迅速かつ弾力的にプロビジョニングでき、場合によっては、自動的に、迅速にスケールアウトされ、迅速にリリースされて迅速にスケールインされる。消費者には、プロビジョニングに使用できる能力は無制限に見えることが多く、いつでも任意の数量で購入できる。
測定されたサービス:クラウドシステムは、サービスのタイプ(例えば、ストレージ、処理、帯域幅、及びアクティブなユーザアカウント)に適したある程度の抽象化層で計測能力を利用することによって、リソースの使用を自動的に制御及び最適化する。リソースの使用状況を監視、制御、及び報告して、利用するサービスのプロバイダ及び消費者の両方に透明性を提供できる。
サービスモデルは次の通りである。
サービスとしてのソフトウェア(SaaS):消費者に提供される能力は、クラウドインフラストラクチャで実行されているプロバイダのアプリケーションを使用することである。アプリケーションには、ウェブブラウザ(例えば、ウェブベースの電子メール)などのシンクライアントインターフェースを通して、様々なクライアントデバイスからアクセス可能である。消費者は、限られたユーザ固有のアプリケーション構成設定を除き得て、ネットワーク、サーバ、オペレーティングシステム、ストレージ、さらには個別のアプリケーション機能を含む基盤となるクラウドインフラストラクチャを管理又は制御しない。
サービスとしてのプラットフォーム(PaaS):消費者に提供される能力は、プロバイダがサポートするプログラミング言語及びツールを使用して作成された、消費者が作成又は取得したアプリケーションをクラウドインフラストラクチャ上に展開することである。消費者は、ネットワーク、サーバ、オペレーティングシステム、又はストレージを含む基盤となるクラウドインフラストラクチャを管理又は制御しないが、展開されたアプリケーション、及び、場合によっては、アプリケーションホスティング環境の構成を制御する。
サービスとしてのインフラストラクチャ(IaaS):消費者に提供される能力は、処理、ストレージ、ネットワーク、及び消費者が、オペレーティングシステム及びアプリケーションを含み得る、任意のソフトウェアを展開及び実行できるその他の基本的なコンピューティングリソースをプロビジョニングすることである。消費者は、基盤となるクラウドインフラストラクチャを管理又は制御しないが、オペレーティングシステム、ストレージ、展開されたアプリケーションを制御し、場合によっては、選択したネットワーク構成要素(例えば、ホストファイアウォール)の制御を制限する。
展開モデルは次の通りである。
プライベートクラウド:クラウドインフラストラクチャは、組織のためだけに運用される。組織又は第三者によって管理され得、オンプレミス又はオフプレミスに存在し得る。
コミュニティクラウド:クラウドインフラストラクチャは複数の組織によって共有されており、共有された懸念事項(例えば、ミッション、セキュリティ要件、ポリシ、コンプライアンスの考慮事項)を有する特定のコミュニティをサポートしている。組織又は第三者によって管理され得、オンプレミス又はオフプレミスに存在し得る。
パブリッククラウド:クラウドインフラストラクチャは、一般の人々又は大規模な業界団体が利用できるようにしたもので、クラウドサービスを販売する組織によって所有される。
ハイブリッドクラウド:クラウドインフラストラクチャは、一意のエンティティのままであるが、データ及びアプリケーションの移植性を可能にする標準化された技術又は独自の技術(例えば、クラウド間の負荷分散のためのクラウドバースト)によって結合された2つ以上のクラウド(プライベート、コミュニティ、又はパブリック)の構成である。
クラウドコンピューティング環境は、ステートレス性、低結合、モジュール性、及び意味的相互運用性に重点を置いたサービス指向型である。クラウドコンピューティングの中心は、相互接続されたノードのネットワークを備えたインフラストラクチャである。
ここで図7を参照すると、クラウドコンピューティングネットワーク(700)が示されている。図示されるように、クラウドコンピューティングネットワーク(700)は、クラウド消費者によって使用されるローカルコンピューティングデバイスが通信し得る1つ又は複数のクラウドコンピューティングノード(710)を有するクラウドコンピューティング環境(750)を含む。これらのローカルコンピューティングデバイスの例には、限定されないが、パーソナルデジタルアシスタント(PDA)又は携帯電話(754A)、デスクトップコンピュータ(754B)、ラップトップコンピュータ(754C)、及び/又は自動車コンピュータシステム(754N)が含まれる。クラウドコンピューティングノード(710)内の個々のノードは、さらに相互に通信し得る。それらは、上記で説明されたようなプライベートクラウド、コミュニティクラウド、パブリッククラウド、又はハイブリッドクラウド、又は、それらの組み合わせなどの1つ又は複数のネットワーク内で、物理的に又は仮想的にグループ分け(図示せず)され得る。これによって、クラウドコンピューティング環境(700)は、クラウド消費者がローカルコンピューティングデバイス上でリソースを維持する必要がないサービスとして、インフラストラクチャ、プラットフォーム及び/又はソフトウェアを提供できる。図7に示すコンピューティングデバイス(754A~N)のタイプは、例示のみを意図しており、クラウドコンピューティング環境(750)は、任意のタイプのネットワーク及び/又はネットワークアドレス可能な接続(例えば、ウェブブラウザを使用して)を介して、任意のタイプのコンピュータ化されたデバイスと通信できることが理解されよう。
ここで図8を参照すると、図7のクラウドコンピューティングネットワークによって提供される機能的抽象化層(800)のセットが図示されている。図8で示す構成要素、層、及び機能は、例示のみを意図するものであり、実施形態がそれらに限定されないことを事前に理解されたい。示されているように、ハードウェア層及びソフトウェア層(810)、仮想化層(820)、管理層(830)、及びワークロード層(840)の層及び対応する機能が提供される。
ハードウェア及びソフトウェア層(810)は、ハードウェア及びソフトウェア構成要素を含む。ハードウェア構成要素の例には、メインフレーム、一例では、IBM(登録商標)zSeries(登録商標)システム;RISC(縮小命令セットコンピュータ)アーキテクチャベースのサーバ、一例では、IBM pSeries(登録商標)システム;IBM xSeries(登録商標)システム;IBM BladeCenter(登録商標)システム;ストレージデバイス;ネットワーク及びネットワーク構成要素が含まれる。ソフトウェア構成要素の例には、ネットワークアプリケーションサーバソフトウェアが含まれ、一例では、IBM WebSphere(登録商標)アプリケーションサーバソフトウェア;データベースソフトウェア、一例では、IBM DB2(登録商標)データベースソフトウェアが含まれる。(IBM、zSeries、pSeries、xSeries、BladeCenter、WebSphere、及びDB2は、世界中の多くの法域で登録されている、International Business Machines Corporationの商標である)。
仮想化層(820)は、仮想エンティティの次の例、仮想サーバ;仮想ストレージ;仮想プライベートネットワークを含む仮想ネットワーク;仮想アプリケーション及びオペレーティングシステム;及び仮想クライアントが提供され得る抽象化層を提供する。
一例では、管理層(830)は、次の機能、リソースプロビジョニング、計測及び価格設定、ユーザポータル、サービスレベル管理及びSLAプランニング及び履行を提供し得る。リソースプロビジョニングは、クラウドコンピューティング環境内でタスクを実行するために利用されるコンピューティングリソース及び他のリソースの動的な調達を提供する。計測及び価格設定は、リソースがクラウドコンピューティング環境内で利用されるときのコスト追跡、及び、これらのリソースの消費に対する課金又は請求を提供する。一例では、これらのリソースは、アプリケーションソフトウェアライセンスを含み得る。セキュリティは、クラウド消費者及びタスクに対する識別検証、並びにデータ及びその他のリソースに対する保護を提供する。ユーザポータルは、消費者及びシステム管理者にクラウドコンピューティング環境へのアクセスを提供する。サービスレベル管理は、要求されるサービスレベルが満たされるように、クラウドコンピューティングリソースの割り当て及び管理を提供する。サービスレベル合意(SLA)計画及び履行は、将来の要件がSLAに従って予期されるクラウドコンピューティングリソースの事前の取り決め及び調達を提供する。
ワークロード層(840)は、クラウドコンピューティング環境が利用され得る機能の例を提供する。この層から提供され得るワークロード及び機能の例は、限定されないが、マッピング及びナビゲーション;ソフトウェア開発及びライフサイクル管理;仮想教室教育配信;データ分析処理;トランザクション処理;及びトピックモデルのダウンサンプリング及びANNのトレーニング及び使用を含む。
本実施形態の特定の実施形態が示され、説明されてきたが、本明細書の教示に基づいて、実施形態及びそのより広い態様から逸脱することなく変更及び修正がなされ得ることは当業者には明らかであろう。したがって、添付の特許請求の範囲は、実施形態の真の趣旨及び範囲内にあるようなすべてのそのような変更及び修正をその範囲内に包含するものとする。さらに、実施形態は、添付の特許請求の範囲によってのみ定義されることを理解されたい。導入される請求項要素の特定の数が意図される場合、そのような意図は、特許請求の範囲に明示的に記載され、そのような記載がない場合、そのような限定は存在しないことが、当業者には理解されよう。非限定的な例のために、理解の一助として、以下の添付の特許請求の範囲は、請求項要素を導入するための導入句「少なくとも1つ(at least one)」及び「1つ又は複数(one or more)」の使用法を含む。しかし、そのような句の使用は、同じ請求項が、「1つ又は複数」又は「少なくとも1つ」という導入句及び「a」又は「an」などの不定冠詞を含む場合であっても、不定冠詞「a」又は「an」による請求項要素の導入が、そのような導入される請求項要素を含む任意の特定の請求項を、そのような要素を1つだけ含む実施形態に限定することを意味すると解釈されるべきではなく、同じことが定冠詞の請求項での使用にも当てはまる。
本実施形態は、システム、方法及び/又はコンピュータプログラム製品であり得る。さらに、本実施形態の選択された態様は、完全にハードウェアの実施形態、完全にソフトウェア(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)の実施形態又は、本明細書では、すべて、一般に「回路」、「モジュール」、又は「システム」と呼ばれ得る、ソフトウェア及び/又はハードウェアの態様を組み合わせた実施形態の形態を取り得る。さらに、本実施形態の態様は、プロセッサに、本実施形態の態様を実行させるコンピュータ可読プログラム命令をその上に有するコンピュータ可読記憶媒体(又は複数の媒体)に具現化されるコンピュータプログラム製品の形態を取り得る。したがって、具現化され、開示されるシステム、方法及び/又はコンピュータプログラム製品は、転移学習動作に対する改善を提供するように動作する。
コンピュータ可読記憶媒体は、命令実行デバイスが使用するための命令を保持及び記憶できる有形のデバイスであり得る。コンピュータ可読記憶媒体は、例えば、限定されないが、電子ストレージデバイス、磁気ストレージデバイス、光ストレージデバイス、電磁ストレージデバイス、半導体ストレージデバイス、又は前述の任意の適切な組み合わせであり得る。コンピュータ可読記憶媒体のより具体的な例の非網羅的なリストには、ポータブルコンピュータディスケット、ハードディスク、動的又は静的ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、磁気ストレージデバイス、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピディスク、その上に命令が記録されたパンチカード又は溝に浮き彫りされた構造などの機械的にエンコードされたデバイス、及び前述の任意の適切な組み合わせが含まれる。本明細書で使用されるコンピュータ可読記憶媒体及びコンピュータ可読記憶デバイスは、電波又は他の自由に伝播する電磁波、導波管又は他の伝送媒体を通って伝播する電磁波(例えば、光ファイバーケーブルを通過する光パルス)、又は電線を通じて伝送される電気信号など、それ自体が一時的な信号であると解釈されるべきではない。
本明細書に記載のコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれのコンピューティング/処理デバイスに、又はネットワーク、例えば、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、及び/又は無線ネットワークを介して外部コンピュータ又は外部ストレージデバイスにダウンロードできる。ネットワークは、銅伝送ケーブル、光伝送ファイバ、ワイヤレス伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイコンピュータ及び/又はエッジサーバを有し得る。各コンピューティング/処理デバイス内のネットワークアダプタカード又はネットワークインターフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、それぞれのコンピューティング/処理デバイス内のコンピュータ可読記憶媒体に記憶するためにコンピュータ可読プログラム命令を転送する。
本実施形態の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は、Java(登録商標)、Smalltalk(登録商標)、C++などのオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語などの従来の手続型プログラミング言語を含む、1つ又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかであり得る。コンピュータ可読プログラム命令は、ユーザのコンピュータ上で、一部がユーザのコンピュータ上で、スタンドアロンのソフトウェアパッケージとして、一部がユーザのコンピュータ上で一部がリモートコンピュータ上で、又は全部がリモートコンピュータ上で又はサーバ又はクラスタサーバ上で完全に実行され得る。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続され得るか、又は、(例えば、インターネットサービスプロバイダを使用してインターネットを介して)外部コンピュータに接続され得る。いくつかの実施形態では、例えば、プログラマブルロジック回路、フィールドプログラマブルゲートアレイ(FPGA)、又はプログラマブルロジックアレイ(PLA)を含む電子回路は、本実施形態の態様を実行するために、電子回路をパーソナライズするためのコンピュータ可読プログラム命令の状態情報を利用することによって、コンピュータ可読プログラム命令を実行し得る。
本実施形態の態様は、実施形態による方法、装置(システム)、及びコンピュータプログラム製品のフローチャート図及び/又はブロック図を参照して本明細書に記載されている。フローチャート図及び/又はブロック図の各ブロック、及びフローチャート図及び/又はブロック図のブロックの組み合わせは、コンピュータ可読プログラム命令によって実装できることが理解されたい。
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータのプロセッサ、又は他のプログラマブルデータ処理装置に提供され、マシンを生成し得て、その結果、コンピュータ又は他のプログラマブルデータ処理装置のプロセッサを介して実行される命令が、フローチャート及び/又はブロック図の1つ又は複数のブロックで指定された機能/動作を実施するための手段を作成する。これらのコンピュータ可読プログラム命令はまた、コンピュータ、プログラマブルデータ処理装置及び/又は他のデバイスに特定の方法で機能するように指示できるコンピュータ可読記憶媒体内に記憶され得て、その結果、その中に記憶された命令を有するコンピュータ可読記憶媒体は、フローチャート及び/又はブロック図の1つ又は複数のブロックで指定された機能/動作の態様を実施する命令を含む製品を備える。
コンピュータ可読プログラム命令はまた、コンピュータ、他のプログラマブルデータ処理装置、又は他のデバイスにロードされ、コンピュータ、他のプログラマブル装置、又は他のデバイス上で一連の動作ステップを実行させて、コンピュータ実装プロセスを生成し得て、その結果、コンピュータ、他のプログラマブル装置、又は他のデバイス上で実行される命令が、フローチャート及び/又はブロック図の1つ又は複数のブロックで指定された機能/動作を実装する。
図中のフローチャート及びブロック図は、本実施形態の様々な実施形態によるシステム、方法、及びコンピュータプログラム製品の可能な実装のアーキテクチャ、機能、及び動作を示す。これに関して、フローチャート又はブロック図内の各ブロックは、指定された論理機能を実装するための1つ又は複数の実行可能命令を有する、モジュール、セグメント、又は命令の一部を表し得る。いくつかの代替的な実装では、ブロックに示される機能は、図に示される順序を外れて生じ得る。例えば、連続して示される2つのブロックは、実際には、実質的に同時に実行され得るか、又は、関連する機能に応じてブロックが逆の順序で実行されることもあり得る。図に表されていない、さらなるブロックが、例えば、1つ又は複数の示されているブロックの前、後、又はそれと同時に含まれ得る。また、ブロック図及び/又はフローチャート図の各ブロック、及びブロック図及び/又はフローチャート図のブロックの組み合わせは、指定された機能又は行動を実行する、又は専用ハードウェアとコンピュータ命令との組み合わせを実行する専用ハードウェアベースシステムによって実装できることにも留意されたい。
本明細書では、特定の実施形態が例示の目的で説明されているが、実施形態の趣旨及び範囲を逸脱することなく、様々な修正がなされ得ることを理解されたい。特に、転移学習動作は、異なるコンピューティングプラットフォームにより、又は、複数のデバイスにわたって実行され得る。さらに、データストレージ及び/又はコーパスは、ローカライズされ得るか、リモートされ得るか、又は複数のシステムに跨って広がり得る。したがって、実施形態の保護の範囲は、以下の特許請求の範囲及びその同等物によってのみ限定される。
Claims (20)
- メモリに動作可能に結合されたプロセッサ;及び
前記プロセッサ及び前記メモリと通信する人工知能(AI)プラットフォーム
を備え、前記AIプラットフォームが、
第1のデータセットに対して第1のトピックモデルを利用すること、前記第1のデータセットは、複数の第1のトリプルを含むナレッジグラフ(KG)から導出され、前記第1のトリプルは、第1のエンティティ、及び前記第1のエンティティを接続して前記第1の接続されたエンティティ間の関係を表す第1のエッジを有し、前記第1のトピックモデルの前記利用は、第1の類似性関数を前記第1のトリプルの前記第1のエンティティに適用して、それぞれの第1の類似性スコアを提供することを有する;及び
前記第1の類似性スコアに基づいて、前記複数の第1のトリプルから1つ又は複数の第1のトリプルの第1のサブセットを選択するために、前記第1のトピックモデルを利用すること
を行うように構成されているトピックモデルマネージャ;及び
前記1つ又は複数の第1のトリプルの選択された第1のサブセットを使用して、人工ニューラルネットワーク(ANN)をトレーニングするように構成されている機械学習マネージャ(MLM)
を有する
コンピュータシステム。 - 前記第1の類似性関数が、コサイン類似性関数を有する、請求項1に記載のコンピュータシステム。
- 前記AIプラットフォームは、既知のエンティティ及び関係を含むクエリを受信するように構成され、前記クエリは、前記既知のエンティティに対する前記関係を有する未知のエンティティを省略する;
前記トピックモデルマネージャは、
複数の第2のトリプルを有する第2のデータセットに対して、前記第1のトピックモデルと同じであり得るか、又は異なり得る、第2のトピックモデルを利用すること、前記第2のトリプルは、第2のエンティティ、及び前記第2のエンティティを接続して前記第2の接続されたエンティティ間の関係を表す第2のエッジを有し、前記第2のトピックモデルの前記利用は、前記第1の類似性関数と同じであり得るか、又は異なり得る、第2の類似性関数を、前記第2のトリプルの前記第2の接続されたエンティティに適用して、それぞれの第2の類似性スコアを提供することを有する;及び
前記第2の類似性スコアに基づいて、前記複数の第2のトリプルから前記1つ又は複数の第2のトリプルの第2のサブセットを選択すること
を行うようにさらに構成されている;及び
前記MLMは、
前記トレーニングされたANNを利用して、前記クエリの前記未知のエンティティに対応する前記第2のサブセットの前記第2のエンティティのそれぞれについて、それぞれの信頼スコアを評価すること;及び
前記信頼スコアに基づいて、前記第2のサブセットの前記第2のエンティティの少なくとも1つを出力すること
を行うようにさらに構成されている
請求項1に記載のコンピュータシステム。 - 前記第2の類似性関数が、コサイン類似性関数を有する、請求項3に記載のコンピュータシステム。
- 前記第2のデータセットは前記KGから導出され、前記第1のデータセットとは異なる、請求項3に記載のコンピュータシステム。
- 前記ANNは、トランスフォーマからのナレッジグラフの双方向エンコーダ表現(KG-BERT)モデルを有する、請求項1に記載のコンピュータシステム。
- 前記コンピュータシステムは、前記KGの前記第1のエンティティの正規化を実行するように構成されておらず、前記コンピュータシステムは教師なしに動作するように構成されている、請求項1に記載のコンピュータシステム。
- コンピュータ可読記憶デバイス;及び
前記コンピュータ可読記憶デバイスで具現化されるプログラムコード、前記プログラムコードは、
第1のデータセットに対して第1のトピックモデルを利用すること、前記第1のデータセットは、複数の第1のトリプルを有するナレッジグラフ(KG)から導出され、前記第1のトリプルは、第1のエンティティ、及び前記第1のエンティティを接続して前記第1の接続されたエンティティ間の関係を表す第1のエッジを有する;
第1の類似性関数を、前記第1のトリプルの前記第1の接続されたエンティティに適用して、それぞれの第1の類似性スコアを提供すること;
前記第1の類似性スコアに基づいて、前記複数の第1のトリプルから1つ又は複数の第1のトリプルの第1のサブセットを選択すること;及び
前記1つ又は複数の第1のトリプルの選択された第1のサブセットを使用して、人工ニューラルネットワーク(ANN)をトレーニングすること
を行うために、プロセッサによって実行可能である
を備えるコンピュータプログラム製品。 - 前記第1の類似性関数が、コサイン類似性関数を有する、請求項8に記載のコンピュータプログラム製品。
- 前記プログラムコードは、
既知のエンティティ及び関係を含むクエリを受信すること、前記クエリは、前記既知のエンティティに対する前記関係を有する未知のエンティティを省略する;
複数の第2のトリプルを有する第2のデータセットに対して、前記第1のトピックモデルと同じであり得るか、又は異なり得る、第2のトピックモデルを利用すること、前記第2のトリプルは、第2のエンティティ、及び前記第2のエンティティを接続して第2の接続されたエンティティ間の関係を表す第2のエッジを有し、前記第2のトピックモデルを利用することは、前記第2のトピックモデルの前記利用は、前記第1の類似性関数と同じであり得るか、又は異なり得る、第2の類似性関数を、前記第2のトリプルの前記第2の接続されたエンティティに適用して、それぞれの第2の類似性スコアを提供することを有する;及び
前記第2の類似性スコアに基づいて、前記複数の第2のトリプルから前記1つ又は複数の第2のトリプルの第2のサブセットを選択すること;及び
前記トレーニングされたANNを利用して、前記クエリの前記未知のエンティティに対応する前記第2のサブセットの前記第2のエンティティのそれぞれについて、それぞれの信頼スコアを評価すること;及び
前記信頼スコアに基づいて、前記第2のサブセットの前記第2のエンティティの少なくとも1つを出力することを行うために、前記プロセッサによってさらに実行可能である、請求項8に記載のコンピュータプログラム製品。 - 前記第2の類似性関数が、コサイン類似性関数を有する、請求項10に記載のコンピュータプログラム製品。
- 前記第2のデータセットは前記KGから導出され、前記第1のデータセットとは異なる、請求項10に記載のコンピュータプログラム製品。
- 前記ANNは、トランスフォーマからのナレッジグラフの双方向エンコーダ表現(KG-BERT)モデルを有する、請求項8に記載のコンピュータプログラム製品。
- 前記コンピュータプログラム製品は、前記KGの前記第1のエンティティの正規化を実行するために前記プロセッサによって実行可能なプログラムコードを有さず、前記コンピュータプログラム製品は教師なしを動作するように構成されている、請求項8に記載のコンピュータプログラム製品。
- 第1のデータセットに対して第1のトピックモデルを利用する段階、前記第1のデータセットは、複数の第1のトリプルを有するナレッジグラフ(KG)から導出され、前記第1のトリプルは、第1のエンティティ、及び前記第1のエンティティを接続して前記第1の接続されたエンティティ間の関係を表す第1のエッジを有する;
第1の類似性関数を、前記第1のトリプルの前記第1の接続されたエンティティに適用して、それぞれの第1の類似性スコアを提供する段階;
前記第1の類似性スコアに基づいて、前記複数の第1のトリプルから1つ又は複数の第1のトリプルの第1のサブセットを選択する段階;及び
前記1つ又は複数の第1のトリプルの選択された第1のサブセットを使用して、人工ニューラルネットワーク(ANN)をトレーニングする段階
を備える方法。 - 前記第1の類似性関数が、コサイン類似性関数を有する、請求項15に記載の方法。
- 既知のエンティティ及び関係を含むクエリを受信する段階、前記クエリは、前記既知のエンティティに対する前記関係を有する未知のエンティティを省略する;
複数の第2のトリプルを有する第2のデータセットに対して、前記第1のトピックモデルと同じであり得るか、又は異なり得る、第2のトピックモデルを利用する段階、前記第2のトリプルは、第2のエンティティ、及び前記第2のエンティティを接続して前記第2の接続されたエンティティ間の関係を表す第2のエッジを有し、前記第2のトピックモデルの前記利用する段階は、前記第1の類似性関数と同じであり得るか、又は異なり得る、第2の類似性関数を、前記第2のトリプルの前記第2の接続されたエンティティに適用して、それぞれの第2の類似性スコアを提供することを有する;及び
前記第2の類似性スコアに基づいて、前記複数の第2のトリプルから前記1つ又は複数の第2のトリプルの第2のサブセットを選択する段階;及び
前記トレーニングされたANNを利用して、前記クエリの前記未知のエンティティに対応する前記第2のサブセットの前記第2のエンティティのそれぞれについて、それぞれの信頼スコアを評価する段階;及び
前記信頼スコアに基づいて、前記第2のサブセットの前記第2のエンティティの少なくとも1つを出力する段階
をさらに備える、請求項15に記載の方法。 - 前記第2の類似性関数が、コサイン類似性関数を有する、請求項17に記載の方法。
- 前記第2のデータセットは前記KGから導出され、前記第1のデータセットとは異なる、請求項17に記載の方法。
- 前記ANNは、トランスフォーマからのナレッジグラフの双方向エンコーダ表現(KG-BERT)モデルを有する、請求項15に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/228,099 | 2021-04-12 | ||
US17/228,099 US20220327356A1 (en) | 2021-04-12 | 2021-04-12 | Transformer-Based Model Knowledge Graph Link Prediction |
PCT/IB2022/052547 WO2022219435A1 (en) | 2021-04-12 | 2022-03-21 | Transformer-based model knowledge graph link prediction |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024513293A true JP2024513293A (ja) | 2024-03-25 |
Family
ID=83509396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023549061A Pending JP2024513293A (ja) | 2021-04-12 | 2022-03-21 | トランスフォーマベースのモデルナレッジグラフリンク予測 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220327356A1 (ja) |
JP (1) | JP2024513293A (ja) |
CN (1) | CN117136366A (ja) |
WO (1) | WO2022219435A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220335307A1 (en) * | 2021-04-14 | 2022-10-20 | EMC IP Holding Company LLC | Knowledge graph management based on multi-source data |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10606849B2 (en) * | 2016-08-31 | 2020-03-31 | International Business Machines Corporation | Techniques for assigning confidence scores to relationship entries in a knowledge graph |
CN112119412A (zh) * | 2018-05-18 | 2020-12-22 | 伯耐沃伦人工智能科技有限公司 | 具有注意力的图神经网络 |
US11080300B2 (en) * | 2018-08-21 | 2021-08-03 | International Business Machines Corporation | Using relation suggestions to build a relational database |
US20200074301A1 (en) * | 2018-09-04 | 2020-03-05 | Beijing Jingdong Shangke Information Technology Co., Ltd. | End-to-end structure-aware convolutional networks for knowledge base completion |
-
2021
- 2021-04-12 US US17/228,099 patent/US20220327356A1/en active Pending
-
2022
- 2022-03-21 CN CN202280027738.XA patent/CN117136366A/zh active Pending
- 2022-03-21 WO PCT/IB2022/052547 patent/WO2022219435A1/en active Application Filing
- 2022-03-21 JP JP2023549061A patent/JP2024513293A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220327356A1 (en) | 2022-10-13 |
WO2022219435A1 (en) | 2022-10-20 |
CN117136366A (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11455473B2 (en) | Vector representation based on context | |
US11030402B2 (en) | Dictionary expansion using neural language models | |
US11562029B2 (en) | Dynamic query processing and document retrieval | |
US11741371B2 (en) | Automatically generating diverse text | |
US11599826B2 (en) | Knowledge aided feature engineering | |
US20210326346A1 (en) | Dynamically generating facets using graph partitioning | |
US10949613B2 (en) | Dynamic natural language processing | |
US11361031B2 (en) | Dynamic linguistic assessment and measurement | |
US11182416B2 (en) | Augmentation of a text representation model | |
US11226832B2 (en) | Dynamic generation of user interfaces based on dialogue | |
JP2024513293A (ja) | トランスフォーマベースのモデルナレッジグラフリンク予測 | |
JP2023510241A (ja) | 仮想エージェント対話システムの会話ログの検索方法、システム、プログラム | |
US11443216B2 (en) | Corpus gap probability modeling | |
JP2023002475A (ja) | コンピュータシステム、コンピュータプログラムおよびコンピュータで実装される方法(因果関係知識の識別および抽出) | |
US11288322B2 (en) | Conversational agents over domain structured knowledge | |
US11520783B2 (en) | Automated validity evaluation for dynamic amendment | |
WO2022194086A1 (en) | A neuro-symbolic approach for entity linking | |
US20230222290A1 (en) | Active Learning for Matching Heterogeneous Entity Representations with Language Models | |
US11947536B2 (en) | Identifying and processing poly-process natural language queries | |
US20220269858A1 (en) | Learning Rules and Dictionaries with Neuro-Symbolic Artificial Intelligence | |
US11334716B2 (en) | Document anonymization including selective token modification | |
JP2023152948A (ja) | コンピュータシステム、コンピュータプログラム、及び、コンピュータ実装方法(知識グラフ駆動コンテンツ生成) | |
US11074407B2 (en) | Cognitive analysis and dictionary management | |
US11036936B2 (en) | Cognitive analysis and content filtering | |
US20190164066A1 (en) | Dynamic run-time corpus builder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231024 |