JP2022111841A - 表示プログラム、情報処理装置および表示方法 - Google Patents
表示プログラム、情報処理装置および表示方法 Download PDFInfo
- Publication number
- JP2022111841A JP2022111841A JP2021007512A JP2021007512A JP2022111841A JP 2022111841 A JP2022111841 A JP 2022111841A JP 2021007512 A JP2021007512 A JP 2021007512A JP 2021007512 A JP2021007512 A JP 2021007512A JP 2022111841 A JP2022111841 A JP 2022111841A
- Authority
- JP
- Japan
- Prior art keywords
- contribution
- graph
- nodes
- node
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims description 29
- 238000010801 machine learning Methods 0.000 claims abstract description 76
- 230000008569 process Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000004931 aggregating effect Effects 0.000 claims 1
- 238000002910 structure generation Methods 0.000 description 81
- 238000010586 diagram Methods 0.000 description 50
- 230000035772 mutation Effects 0.000 description 42
- 238000012800 visualization Methods 0.000 description 37
- 230000008859 change Effects 0.000 description 27
- 238000004458 analytical method Methods 0.000 description 24
- 238000012549 training Methods 0.000 description 21
- 230000001717 pathogenic effect Effects 0.000 description 15
- 238000007781 pre-processing Methods 0.000 description 12
- 238000003780 insertion Methods 0.000 description 9
- 230000037431 insertion Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013264 cohort analysis Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Animal Behavior & Ethology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】機械学習モデルによる推定の根拠が理解しやすい情報を出力することを課題とする。【解決手段】情報処理装置は、機械学習モデルの推定結果に対する、ノード間の関係を示すグラフ構造に含まれる複数のノード間の関係のそれぞれに関する寄与度を取得する。情報処理装置は、グラフ構造のうち一又は複数のノードが属する第1のクラスを示す第1の構造と、第1のクラスに属し、関連する寄与度が閾値以上である第1のノードを示す第2の構造と、を接続したグラフを表示する。【選択図】図1
Description
本発明は、機械学習モデルの推定結果をグラフ化する技術に関する。
様々な分野において、深層学習(Deep Learning)などの機械学習により生成された機械学習モデルを用いて、事象、事例、現象、行動などを推定することが行われている。このような機械学習モデルは、ブラックボックスであることが多く、推定の根拠を説明することが難しい。近年では、データ間の関係が示されるグラフデータを訓練データとした機械学習により機械学習モデルを生成し、その機械学習モデルを用いてグラフ構造を推定する際に、推定に至る寄与度をグラフのノードやエッジ(ノード間の関係)などに付与して出力する技術が知られている。
しかしながら、上記技術では、ノード数が膨大である大規模なグラフデータの場合、例えば、各ノードに寄与度が付与されることになるので、情報量が膨大となり、推定への寄与度が大きいノードを理解することが難しい。
一つの側面では、機械学習モデルによる推定の根拠が理解しやすい情報を出力することができる表示プログラム、情報処理装置および表示方法を提供することを目的とする。
第1の案では、表示プログラムは、機械学習モデルの推定結果に対する、ノード間の関係を示すグラフ構造に含まれる複数のノード間の関係のそれぞれに関する寄与度を取得する処理をコンピュータに実行させる。表示プログラムは、前記グラフ構造のうち一又は複数のノードが属する第1のクラスを示す第1の構造と、前記第1のクラスに属し、関連する前記寄与度が閾値以上である第1のノードを示す第2の構造と、を接続したグラフを表示する処理をコンピュータに実行させる。
一実施形態によれば、機械学習モデルによる推定の根拠が理解しやすい情報を出力することができる。
以下に、本願の開示する表示プログラム、情報処理装置および表示方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
図1は、実施例1にかかる情報処理装置10を説明する図である。図1に示す情報処理装置10は、グラフ構造の訓練データを用いた機械学習により機械学習モデルを生成し、推定対象データを機械学習モデルに入力して、機械学習モデルが推定に至る寄与度を含む推定結果を取得する。そして、情報処理装置10は、推定結果に含まれる各ノードを寄与度に基づき集約することで、機械学習モデルによる推定の根拠が理解しやすい情報を出力する。なお、実施例では、機械学習モデルを用いて、事例の一例である「変異A」に関連する、1又は複数のノードを有するグラフ構造が病気を引き起こす原因となるか否か(PathogenicまたはBenign)を推定する例で説明する。
ここで、機械学習モデルの推定結果を出力する参考技術について説明する。図2は、参考技術を説明する図である。図2に示す参考技術は、機械学習済みの機械学習モデルに、特徴グラフの一例である推定対象データを入力して、推定結果を取得する。例えば、機械学習モデルは、変異AがPathogenicまたはBenignであるか否かを推定するモデルである。また、推定対象データは、知識グラフから取得された3つ要素(2つのノードとエッジ)の組であるトリプル(主語、述語、目的語)を用いて生成された、ノード間の関係を示すグラフ構造のデータ(以降では、グラフデータと記載する場合がある)である。
参考技術は、推定対象データを機械学習モデルに入力し、各ノードに対する推定結果とノード間の関係(エッジ)に対する寄与度とを取得する。そして、参考技術は、寄与度の大きさにしたがってノード間の辺の色や太さを変えることで、推定への貢献度を表示する。しかし、この参考技術では、推定対象データが大規模なグラフ構造の場合、推定への寄与度が大きいノードを理解することが難しく、ディスプレイの大きさによっては全体を表示できないこともあり、ユーザの利便性もよくない。
そこで、実施例1にかかる情報処理装置10は、寄与度を用いて、機械学習モデルによる推定の根拠が理解しやすい推定結果を出力する。具体的には、図1に示すように、情報処理装置10は、知識グラフから訓練データを生成し、訓練データを用いた機械学習により、機械学習モデルを生成する。一方で、情報処理装置10は、知識グラフから、可視化対象である第1の構造に属するトリプルを定義したオントロジーや、推定対象データを生成する。また、情報処理装置10は、機械学習済みの抽出モデルなどを用いて、オントロジーから、人が理解しやすいトリプルを定義したテンプレートを生成する。
そして、情報処理装置10は、推定対象データを機械学習モデルに入力して、寄与度を含む推定結果を取得する。その後、情報処理装置10は、この推定結果に対して、推定根拠の可視化処理を実行する。
例えば、情報処理装置10は、機械学習モデルの推定結果に対する、ノード間の関係を示すグラフ構造に含まれる複数のノード間の関係(エッジ)のそれぞれに関する寄与度を取得する。そして、情報処理装置10は、グラフ構造のうち一又は複数のノードが属する第1のクラスを示す第1の構造と、第1のクラスに属し、関連する寄与度が閾値以上である第1のノードを示す第2の構造と、を接続したグラフを表示する。
図3は、寄与度を考慮したグラフ構造の生成を説明する図である。図3に示すように、情報処理装置10は、機械学習モデルの推定に寄与した寄与度が閾値以上であるか否かによって、クラスを表す第1の構造に含めるか、単一のノードを表す第2の構造に含めるかを定め、それらを接続したグラフを生成する。なお、情報処理装置10は、情報を削減しすぎると、却って理解が難しくなることを考慮し、第2の構造に含めるノードの選択を適切に実行することもできる。
次に、上記情報処理装置10の機能構成について説明する。図4は、実施例1にかかる情報処理装置10の機能構成を示す機能ブロック図である。図4に示すように、情報処理装置10は、通信部11、記憶部12、制御部30を有する。
通信部11は、他の装置との間の通信を制御する。例えば、通信部11は、外部サーバから知識グラフなどを受信し、管理者が使用する管理者端末などから各種データや各種指示を受信し、生成したグラフデータを管理者端末に送信する。
記憶部12は、各種データや制御部30が実行するプログラムなどを記憶する。例えば、記憶部12は、機械学習モデル13、知識グラフDB14、訓練データDB15、推定データDB16、オントロジーDB17、テンプレートDB18、推定結果DB19、表示形式DB20を記憶する。
機械学習モデル13は、情報処理装置10による機械学習により生成されるモデルである。例えば、機械学習モデル13は、ディープニューラルネットワーク(DNN:Deep Neural Network)などを用いたモデルであり、他の機械学習や深層学習を採用することができる。また、機械学習モデル13は、推定値「PathogenicまたはBenign」と推定値に対する各ノードの寄与度とを出力するモデルである。例えば、機械学習モデル13としては、LIME(Local Interpretable Model-agnostic Explanations)とSHAP(Shapley Additive exPlanations)などを採用することができる。
知識グラフDB14は、知識に関するグラフデータを記憶する。ここで、知識は、「s(主語)についてr(述語)の値(目的語)はoである」といった3つ組、いわゆるトリプルで表現される。なお、sおよびoはエンティティ、rはリレーションと呼ばれることがある。
訓練データDB15は、機械学習モデル13の機械学習に利用される複数の訓練データを記憶する。具体的には、訓練データDB15に記憶される各訓練データは、「グラフデータ」と「教師ラベル」とが対応付けられたデータであり、知識グラフから生成される。なお、訓練データは、別の機械学習モデルを用いて生成することもでき、管理者等の人手により生成することもできる。
図5は、訓練データの一例を説明する図である。図5に示すように、情報処理装置10は、知識グラフDB14から、「変異A(s:主語)の臨床的意義(r:述語)はPathogenic(o:目的語)です。」を取得する。この場合、「変異A」に対して教師ラベル「Pathogenic」が設定される。
同様に、情報処理装置10は、知識グラフDB14から、「変異A(s:主語)のDB I(r:述語)はPathogenic(o:目的語)が記載されています。」を取得する。この場合、「変異A)に対して教師ラベル「Pathogenic」が設定される。
また、情報処理装置10は、知識グラフDB14から、「変異A(s:主語)のDB H(r:述語)はBengin(o:目的語)が記載されています。」を取得する。この場合、「変異A」に対して教師ラベル「Bengin」が設定される。
このようにして、情報処理装置10は、知識グラフDB14から、「変異A」を含む「グラフデータ」と、そのグラフデータにより決定される「教師ラベル」とを対応付けた訓練データを生成する。
推定データDB16は、機械学習モデル13を用いて推定する対象の推定対象データ16aと、知識グラフから取得した各ノードが属するクラスに関するクラスデータ16bとを記憶する。
図6は、推定データの一例を説明する図である。図6に示すように、推定対象データ16aは、「主語、述語、目的語」を対応付けた情報である。ここで、「主語」と「目的語」は、インスタンスを示し、「述語」は、2つのインスタンスの関係を表す。図6の例では、主語であるノード「変異A」と目的語であるノード「missense」とが述語「タイプ」のエッジ(ノード間の関係)で接続されることを示す。なお、図6では、表形式の推定対象データ16aを図示しているが、推定対象データ16aはグラフデータであってもよい。また、推定対象データ16aは、別の機械学習モデルを用いて生成することもでき、管理者等の人手により生成することもできる。
また、図6に示すように、クラスデータ16bは、「ノード」と「クラス」とを対応付けたデータである。「ノード」は、知識グラフに含まれる主語に対応するデータであり、「クラス」は、ノードが属するクラスである。例えば、図6の場合、ノード「変異A」はクラス「変異」に属し、ノード「DB I」と「DB J」と「DB K」は、それぞれクラス「DB」に属することを示す。なお、図6では、表形式のクラスデータ16bを図示しているが、クラスデータ16bは、グラフデータであってもよい。また、クラスデータ16bは、別の機械学習モデルを用いて生成することもでき、管理者等の人手により生成することもできる。
オントロジーDB17は、可視化対象であるノードが属する第1のクラスを示す第1の構造であるオントロジーを記憶する。例えば、オントロジーは、機械学習を行いたいノードの塊に関する情報であり、機械学習モデル13の推定根拠を説明するための特徴グラフに関する情報である。つまり、オントロジーは、機械学習モデル13の推定結果に含まれる寄与度が閾値未満のノードを集約させた集約ノードを用いて生成することができる。
図7は、オントロジーDB17に記憶される情報の例を示す図である。図7に示すように、オントロジーDB17は、「主語、関係、目的語」を対応付けて記憶する。ここで記憶される「主語」および「目的語」は、クラスを示し、「関係」は、クラス間の関係性を示す。図7の例では、クラス「変異」とクラス「タイプ」は、関係「タイプ」で接続されることを示す。また、クラス「変異」とクラス「DB」は、関係「DB」で接続されることを示し、クラス「変異」とクラス「指標」は、関係「指標」で接続されることを示す。なお、ここで記憶されるオントロジーは、管理者等により生成される。
テンプレートDB18は、オントロジーに即したデータであり、理解しやすいと想定されるノードのグループ(塊)を定義したテンプレートを記憶する。図8は、テンプレートDB18に記憶される情報の例を示す図である。図8に示すように、テンプレートDB18は、「主語、関係、目的語」を対応付けた各テンプレートを記憶する。なお、「主語、関係、目的語」は、図7と同様なので、詳細な説明は省略する。
図8に示すように、テンプレート「論文」は、「主語、関係、目的語」として「DB、臨床的意義、臨床的意義」、「DB、論文、論文」、「論文、タイトル、タイトル」、「論文、論点、論連」を定義する。テンプレート「指標」は、「主語、関係、目的語」として「指標、スコア、スコア」を定義する。
ここで、オントロジーとテンプレートとの関係を説明する。図9は、オントロジーとテンプレートの関係を説明する図である。図9に示すように、オントロジーに基づき生成される特徴グラフにおいて、線で囲まれた領域に含まれるグラフ構造がテンプレートに該当する。つまり、クラス「変異」に対する推定結果「PathogenicまたはBenign」の根拠として、クラス「DB」と所定の関係を有する各クラスやクラス「指標」と所定の関係を有する各クラスへの評価が、ユーザの理解を助ける情報になることを示している。
推定結果DB19は、機械学習済みの機械学習モデル13に、推定対象データ16aを入力して得られる推定結果を記憶する。具体的には、推定結果DB19は、図6に示した推定対象データ16aを機械学習モデル13に入力して得られる、推定値「PathogenicまたはBenign」と推定値に対する各トリプルの寄与度とを含む推定結果を記憶する。
図10は、推定結果DB19に記憶される推定結果を説明する図である。図10に示すように、推定結果DB19は、推定値と推定対象データとを対応付けた情報を記憶する。ここで記憶される「推定値」は、機械学習モデル13の推定値であり、この実施例では「Pathogenic」または「Benign」である。「推定対象データ」は、機械学習モデル13に入力する推定対象のデータである。「寄与度」は、推定値に対する各トリプルの寄与度である。
図10では、図6に示した推定対象データ16aに対して、推定値「Pathogenic」が取得された例を示している。また、推定対象データ16a内のトリプル「変異A、タイプ、missense」の推定値「Pathogenic」に対する寄与度が「0.01」であったことを示している。
表示形式DB20は、特徴グラフの表示形式を定義した情報を記憶する。具体的には、表示形式DB20は、寄与度に応じてグラフの辺の太さや表示色を変更するための定義情報を記憶する。図11は、表示形式DB20に記憶される情報の例を示す図である。図11に示すように、表示形式DB20は、「寄与度、線の太さ、線の表示色」を対応付けて記憶する。
ここで記憶される「寄与度」は、機械学習モデル13の出力から得られる寄与度である。「線の太さ」は、特徴グラフを表示する際のノード間(リレーション)の線の太さを示し、「線の表示色」は、特徴グラフを表示する際のノード間の線の表示色を示す。図11の例では、寄与度が「0.00から0.04」の場合、線の太さが「太さ1」、線の表示色が「色A」であることを示し、寄与度が「0.05から0.08」の場合、線の太さが「太さ2(太さ2>太さ1)」、線の表示色が「色B」であることを示す。このように、表示形式は、寄与度が大きいほど、強調表示されるように設定される。
制御部30は、情報処理装置10全体を司る処理部であり、事前処理部40と分析部50とを有する。事前処理部40は、機械学習モデル13の推定結果を可視化する前の事前処理を実行する。
例えば、事前処理部40は、図5で説明した手法を用いて、知識グラフDB14から訓練データを生成して訓練データDB15に格納する。また、事前処理部40は、管理者端末等から推定対象データ16aやクラスデータ16bを受け付けて、推定データDB16に格納する。同様に、事前処理部40は、管理者端末等からオントロジーを受け付けて、オントロジーDB17に格納し、管理者端末等からテンプレートを受け付けて、テンプレートDB18に格納する。なお、事前処理部40は、上記各データを管理者端末から受け付けるだけでなく、別途の機械学習に生成された生成モデルや生成ルール等にしたがって、自動で生成することもできる。
また、事前処理部40は、訓練データDB15に記憶される訓練データを用いた機械学習により、機械学習モデル13を生成する。例えば、事前処理部40は、訓練データに含まれるグラフデータを機械学習モデル13に入力し、機械学習モデル13の出力と訓練データに含まれる教師ラベルとの誤差が小さくなるように、機械学習モデル13の教師あり学習を実行することで、機械学習モデル13を生成する。
分析部50は、生成済みの機械学習モデル13を用いて推定を実行し、推定結果を可視化する。この分析部50は、推定実行部51、知識挿入部52、構造生成部53、表示出力部54を有する。
推定実行部51は、機械学習モデル13を用いた推定処理を実行する。例えば、推定実行部51は、推定データDB16に記憶される推定対象データ16aを機械学習モデル13に入力して、推定結果を取得する。また、推定実行部51は、推定結果に対する、ノード間の関係を示すグラフ構造に含まれる複数のノード間の関係のそれぞれに関する寄与度を取得する。
上記例で説明すると、機械学習モデル13は、推定対象データ16aの入力に応じて、推定結果「Pathogenic」または「Benign」とともに、推定対象データ16aに含まれる各トリプルの「寄与度」を出力する。つまり、推定実行部51は、図6に示した推定対象データ16aを機械学習モデル13に入力して図10に示した推定結果を取得し、推定結果DB19に格納する。なお、寄与度は、自信度や貢献度などとも呼ばれ、寄与度の算出手法などは機械学習に利用される公知の手法を採用することができる。
知識挿入部52は、管理者等により指定された知識を知識グラフから抽出して推定結果に挿入する。具体的には、知識挿入部52は、機械学習モデル13の推定結果の説明が理解しやすくなるように、テンプレートに定義されている情報に基づき、知識グラフから該当するデータを抽出して、推定結果に挿入する。例えば、知識挿入部52は、テンプレートに「構造変化スコアが0.8」という説明があった場合、知識として、構造変化スコアの算出方法のアルゴリズムの名称や説明などを挿入する。
図12は、知識挿入を説明する図である。なお、図12では、説明を簡略化するために、図10の推定値を省略している。図12に示すように、知識挿入部52は、図10に示した推定結果に、知識「主語(論文)、述語(タイトル)、目的語(コポートY分析)」を挿入する。このとき、知識挿入部52は、この知識が推定対象データ16aには含まれていないので、推定に寄与していないことから、寄与度を「0」とする。すなわち、知識挿入部52は、ノード「論文」とノード「コポートY分析」とがエッジ「タイトル」で接続されるグラフ構造を追加する。
構造生成部53は、グラフ構造のうち一又は複数のノードが属する第1のクラスを示す第1の構造と、第1のクラスに属し、関連する寄与度が閾値以上である第1のノードを示す第2の構造と、を接続したグラフデータを生成する。
具体的には、構造生成部53は、オントロジーに含まれないクラスに属するノード(未所属ノード)については、当該ノードを「主語」とする関係性の寄与度に基づき、可視化するか否かを判定する。また、構造生成部53は、オントロジーに含まれるクラスに属するノード(所属ノード)については、当該ノードを「主語」とする関係性の寄与度および当該ノードを「主語」としたときに接続される反対側のノード「目的語」を「主語」とする関係性の寄与度との両方に基づき、可視化するか否かを判定する。
このように、構造生成部53は、オントロジーに基づき生成される集約ノードに、テンプレートに該当する寄与度が高いノードを接続することで、機械学習モデル13の推定根拠を可視化したグラフ構造のデータ「以下では、可視化グラフデータと記載する場合がある」を生成する。なお、詳細な処理については後述する。
表示出力部54は、構造生成部53により生成された上記可視化グラフデータを表示出力する。例えば、表示出力部54は、表示形式DB20に記憶される定義情報に従って、可視化グラフデータにおけるノード間を接続するエッジ(リレーション、線)の太さや表示色を変更することで、寄与度に応じた強調表示を行った可視化グラフデータを生成する。そして、表示出力部54は、強調表示後の可視化グラフデータを、記憶部12に格納し、ディスプレイ等に表示し、または、管理者端末に送信する。
次に、図13以降を用いて、推定に影響を与える項目を抽出した可視化グラフデータの生成に関する具体例を説明する。なお、具体例では、一例として、寄与度の閾値を「0.14」とする。また、具体例では、説明を簡略化するために、図10の推定値を省略する。
まず、構造生成部53は、知識挿入部52による知識挿入後、オントロジーをグラフ化する。図13は、オントロジーの表示を説明する図である。図13に示すように、構造生成部53は、オントロジーDB17に記憶されるオントロジーに基づき、ノード「主語」とノード「目的語」とをエッジ「関係」で接続するグラフデータを生成する。図13の一例では、構造生成部53は、変異、タイプ、DB、指標、臨床的意義、論文、タイトル、論点、値をノードとし、ノード間をオントロジーの「関係」で接続したグラフデータを生成する。
続いて、構造生成部53は、推定結果DB19に記憶される推定結果に含まれる各ノードを順次選択し、可視化対象の要否を判定する。
まず、構造生成部53は、推定結果の「変異A」について可視化判定を実行する。図14は、変異Aの可視化判定を説明する図である。図14に示すように、構造生成部53は、推定結果から主語「変異A」を選択し、クラスデータ16bを参照して「変異A」に対応するクラス「変異」を特定する。そして、構造生成部53は、テンプレートDB18を参照し、このクラス「変異」がテンプレートに登録されているか否かを判定する。
ここで、構造生成部53は、クラス「変異」がテンプレートに登録されていないことから、クラス「変異」を特定した元の主語「変異A」だけで寄与度を算出する。具体的には、構造生成部53は、推定結果に基づき、主語「変異A」の寄与度の合計を「0.07」と算出する。この結果、構造生成部53は、主語「変異A」の寄与度「0.07」が閾値「0.14」より小さいことから、主語「変異A」を可視化対象外と判定する。
次に、構造生成部53は、推定結果の「DB I」について可視化判定を実行する。図15は、DB Iの可視化判定を説明する図である。図15に示すように、構造生成部53は、推定結果から主語「DB I」を選択し、クラスデータ16bを参照して「DB I」に対応するクラス「DB」を特定する。そして、構造生成部53は、テンプレートDB18を参照し、このクラス「DB」がテンプレートに登録されているか否かを判定する。
ここで、構造生成部53は、クラス「DB」がテンプレートに登録されていることから、第1のノードの一例であるノード「DB I」に関する寄与度と、クラス「DB」のテンプレートに関する寄与度とを用いて、主語「DB I」の寄与度を算出する。具体的には、構造生成部53は、テンプレートから、「主語:DB、関係:臨床的意義、目的語:臨床的意義」、「主語:DB、関係:論文、目的語:論文」の関係性を取得する。
このような状態において、構造生成部53は、推定結果のうち、主語が「DB I」である「主語:DB I、述語:臨床的意義、目的語:Pathogenic」の寄与度「0.01」と、「主語:DB I、述語:論文、目的語:論文X」の寄与度「0.03」」を取得する。
さらに、構造生成部53は、推定結果に、第2のノードの一例である「論文X」をノードとする「主語:論文X、述語:論点、目的語:マウス実験」が含まれており、テンプレートにはクラス「DB」からクラス「論文」を経由したクラス「論点」への関係性が登録されていることから、この推定結果「主語:論文X、述語:論点、目的語:マウス実験」の寄与度「0.01」を取得する。
これらの結果、構造生成部53は、推定結果の「DB I」の寄与度を「0.01+0.03+0.01=0.05」と算出する。ここで、構造生成部53は、主語「DB I」の寄与度「0.05」が閾値「0.14」未満であることから、主語「DB I」を可視化対象外と判定する。
次に、構造生成部53は、推定結果の「DB J」について可視化判定を実行する。図16は、DB Jの可視化判定を説明する図である。図16に示すように、構造生成部53は、推定結果から主語「DB J」を選択し、クラスデータ16bを参照して「DB I」に対応するクラス「DB」を特定する。そして、構造生成部53は、テンプレートDB18を参照し、このクラス「DB」がテンプレートに登録されているか否かを判定する。
ここで、構造生成部53は、クラス「DB」がテンプレートに登録されていることから、第1のノードの一例であるノード「DB J」に関する寄与度と、クラス「DB」のテンプレートに関する寄与度とを用いて、主語「DB J」の寄与度を算出する。具体的には、構造生成部53は、テンプレートから、「主語:DB、関係:臨床的意義、目的語:臨床的意義」、「主語:DB、関係:論文、目的語:論文」の関係性を取得する。
このような状態において、構造生成部53は、推定結果のうち、主語が「DB J」である「主語:DB J、述語:臨床的意義、目的語:Benign」の寄与度「0.03」と、「主語:DB J、述語:論文、目的語:論文Y」の寄与度「0.05」」を取得する。
さらに、構造生成部53は、推定結果に、第2のノードの一例である「論文Y」をノードとする「主語:論文Y、述語:タイトル、目的語:コホートY分析」、「主語:論文Y、述語:論点、目的語:健常者」、「主語:論文Y、述語:論点、目的語:231人」が含まれていることを特定する。また、構造生成部53は、テンプレートには、クラス「DB」かクラス「論文」を経由したクラス「タイトル」への関係性と、クラス「DB」かクラス「論文」を経由したクラス「論点」への関係性とが登録されていることから、こられの寄与度も取得する。すなわち、構造生成部53は、「主語:論文Y、述語:タイトル、目的語:コホートY分析」の寄与度「0」、「主語:論文Y、述語:論点、目的語:健常者」の寄与度「0.15」、「主語:論文Y、述語:論点、目的語:231人」の寄与度「0.15」を取得する。
これらの結果、構造生成部53は、推定結果の「DB J」の寄与度を「0.03+0.05+0.15+0.15=0.38」と算出する。ここで、構造生成部53は、主語「DB J」の寄与度「0.38」が閾値「0.14」以上であることから、主語「DB J」を可視化対象と判定する。
そこで、構造生成部53は、推定結果のノード「DB J」に関するグラフを第3のグラフ構造として特徴グラフに登場させて可視化する。図17は、DB Jの可視化を説明する図である。図17に示すように、構造生成部53は、第1の構造に該当するオントロジーに、第2の構造に該当するノード「DB J」のグラフ構造を追加する。例えば、構造生成部53は、オントロジーの「DB、臨床的意義、論文、タイトル、論点」に対して、「DB J、Benign、コホート分析、健常者・231人」が接続されるようにグラフ化する。さらに、構造生成部53は、第1の構造に含まれる「変異」と「DB」との関係性と同様に、第2の構造である「DB J」を第1の構造の「変異」とを接続する。
次に、構造生成部53は、推定結果の「DB K」について可視化判定を実行する。図18は、DB Kの可視化判定を説明する図である。図18に示すように、構造生成部53は、推定結果から主語「DB K」を選択し、クラスデータ16bを参照して「DB K」に対応するクラス「DB」を特定する。そして、構造生成部53は、テンプレートDB18を参照し、このクラス「DB」がテンプレートに登録されているか否かを判定する。
ここで、構造生成部53は、クラス「DB」がテンプレートに登録されていることから、ノード「DB K」に関する寄与度と、クラス「DB」のテンプレートに関する寄与度とを用いて、主語「DB K」の寄与度を算出する。具体的には、構造生成部53は、テンプレートから、「主語:DB、関係:臨床的意義、目的語:臨床的意義」、「主語:DB、関係:論文、目的語:論文」の関係性を取得する。
このような状態において、構造生成部53は、推定結果のうち、主語が「DB K」である「主語:DB K、述語:臨床的意義、目的語:Likely benign」の寄与度「0.05」を取得する。なお、構造生成部53は、推定結果にはテンプレートに対応する寄与度が含まれていないことから、テンプレートに関する寄与度を取得しない。
これらの結果、構造生成部53は、推定結果の「DB K」の寄与度を「0.05」と算出する。ここで、構造生成部53は、主語「DB K」の寄与度「0.05」が閾値「0.14」未満であることから、主語「DB K」を可視化対象外と判定する。
次に、構造生成部53は、推定結果の「保存スコア」について可視化判定を実行する。図19は、保存スコアの可視化判定を説明する図である。図19に示すように、構造生成部53は、推定結果から主語「保存スコア」を選択し、クラスデータ16bを参照して「保存スコア」に対応するクラス「指標」を特定する。そして、構造生成部53は、テンプレートDB18を参照し、このクラス「指標」がテンプレートに登録されているか否かを判定する。
ここで、構造生成部53は、クラス「指標」がテンプレートに登録されていることから、ノード「保存スコア」に関する寄与度と、クラス「指標」のテンプレートに関する寄与度とを用いて、主語「保存スコア」の寄与度を算出する。具体的には、構造生成部53は、テンプレートから、「主語:指標、関係:スコア、目的語:スコア」の関係性を取得する。
このような状態において、構造生成部53は、推定結果のうち、主語が「保存スコア」である「主語:保存スコア、述語:スコア、目的語:0.7」の寄与度「0.01」を取得する。なお、構造生成部53は、推定結果にはテンプレートに対応する寄与度が含まれていないことから、テンプレートに関する寄与度を取得しない。
これらの結果、構造生成部53は、推定結果の「保存スコア」の寄与度を「0.01」と算出する。ここで、構造生成部53は、主語「保存スコア」の寄与度「0.01」が閾値「0.14」未満であることから、主語「保存スコア」を可視化対象外と判定する。
次に、構造生成部53は、推定結果の「構造変化スコア」について可視化判定を実行する。図20は、構造変化スコアの可視化判定を説明する図である。図20に示すように、構造生成部53は、推定結果から主語「構造変化スコア」を選択し、クラスデータ16bを参照して「構造変化スコア」に対応するクラス「指標」を特定する。そして、構造生成部53は、テンプレートDB18を参照し、このクラス「指標」がテンプレートに登録されているか否かを判定する。
ここで、構造生成部53は、クラス「指標」がテンプレートに登録されていることから、ノード「構造変化スコア」に関する寄与度と、クラス「指標」のテンプレートに関する寄与度とを用いて、主語「構造変化スコア」の寄与度を算出する。具体的には、構造生成部53は、テンプレートから、「主語:指標、関係:スコア、目的語:スコア」の関係性を取得する。
このような状態において、構造生成部53は、推定結果のうち、主語が「構造変化スコア」である「主語:構造変化スコア、述語:スコア、目的語:0.3」の寄与度「0.16」を取得する。なお、構造生成部53は、推定結果にはテンプレートに対応する寄与度が含まれていないことから、テンプレートに関する寄与度を取得しない。
これらの結果、構造生成部53は、推定結果の「構造変化スコア」の寄与度を「0.16」と算出する。ここで、構造生成部53は、主語「構造変化スコア」の寄与度「0.16」が閾値「0.14」以上であることから、主語「構造変化スコア」を可視化対象と判定する。
そこで、構造生成部53は、推定結果のノード「構造変化スコア」を特徴グラフに登場させて可視化する。図21は、構造変化スコアの可視化を説明する図である。図21に示すように、構造生成部53は、第1の構造に該当するオントロジーに、第2の構造に該当するノード「構造変化スコア」のグラフ構造を追加する。例えば、構造生成部53は、オントロジーの「指標、値」に対して、「構造変化スコア、0.3」が接続されるようにグラフ化する。さらに、構造生成部53は、第1の構造に含まれる「変異」と「指標」との関係性と同様に、第2の構造である「構造変化スコア」を第1の構造の「変異」とを接続する。
次に、構造生成部53は、推定結果の「頻度スコア」について可視化判定を実行する。図22は、頻度スコアの可視化判定を説明する図である。図22に示すように、構造生成部53は、推定結果から主語「頻度スコア」を選択し、クラスデータ16bを参照して「頻度スコア」に対応するクラス「指標」を特定する。そして、構造生成部53は、テンプレートDB18を参照し、このクラス「指標」がテンプレートに登録されているか否かを判定する。
ここで、構造生成部53は、クラス「指標」がテンプレートに登録されていることから、ノード「頻度スコア」に関する寄与度と、クラス「指標」のテンプレートに関する寄与度とを用いて、主語「頻度スコア」の寄与度を算出する。具体的には、構造生成部53は、テンプレートから、「主語:指標、関係:スコア、目的語:スコア」の関係性を取得する。
このような状態において、構造生成部53は、推定結果のうち、主語が「頻度スコア」である「主語:頻度スコア、述語:スコア、目的語:0.4」の寄与度「0.10」を取得する。なお、構造生成部53は、推定結果にはテンプレートに対応する寄与度が含まれていないことから、テンプレートに関する寄与度を取得しない。
これらの結果、構造生成部53は、推定結果の「頻度スコア」の寄与度を「0.10」と算出する。ここで、構造生成部53は、主語「頻度スコア」の寄与度「0.10」が閾値「0.14」未満であることから、主語「頻度スコア」を可視化対象外と判定する。
上述したように、構造生成部53が推定結果に対して可視化判定を実行したのち、表示出力部54は、寄与度に応じて、表示形式を決定する。
まず、表示出力部54は、第1の構造の各ノード間について、第2の構造で抽出した構造以外の寄与度を合計することで、各ノード間の寄与度を算出する。
図23は、可視化グラフデータの第1の構造の各辺の寄与度算出を説明する図である。図23に示すように、表示出力部54は、クラス「変異」とクラス「タイプ」については、第2の構造が接続されていないので、図10に示した推定結果にしたがって、寄与度「0.01」を設定する。また、表示出力部54は、クラス「変異」とクラス「DB」については、第2の構造としてノード「DB J」が接続されているので、図10に示した推定結果から「DB J」を除く、寄与度の合計値を設定する。すなわち、表示出力部54は、推定結果から、第2のノードに対応する「主語:変異A、述語:DB、目的語:DB I、寄与度:0.01」と第3のノードに対応する「主語:変異A、述語:DB、目的語:DB K、寄与度:0.01」とを取得し、寄与度の合計値「0.02」を設定する。
同様に、表示出力部54は、クラス「変異」とクラス「指標」については、第2の構造としてノード「構造変化スコア」が接続されているので、図10に示した推定結果から「構造変化スコア」を除く、寄与度の合計値を設定する。すなわち、表示出力部54は、推定結果から、「主語:変異A、述語:指標、目的語:保存スコア、寄与度:0.01」と「主語:変異A、述語:指標、目的語:頻度スコア、寄与度:0.01」とを取得し、寄与度の合計値「0.02」を設定する。
同様に、表示出力部54は、クラス「DB」とクラス「臨床的意義」については、第2の構造としてグラフ「DB J-Benign」が接続されているので、図10に示した推定結果から「DB J-Benign」を除く、寄与度の合計値を設定する。すなわち、表示出力部54は、推定結果から、「主語:DB I、述語:臨床的意義、目的語:Pathogenic、寄与度:0.01」と「主語:DB K、述語:臨床的意義、目的語:Likely benign、寄与度:0.05」とを取得し、寄与度の合計値「0.06」を設定する。
同様に、表示出力部54は、クラス「指標」とクラス「スコア」については、第2の構造としてグラフ「構造変化スコア-0.3」が接続されているので、図10に示した推定結果から「構造変化スコア-0.3」を除く、寄与度の合計値を設定する。すなわち、表示出力部54は、推定結果から、「主語:保存スコア、述語:スコア、目的語:0.7、寄与度:0.01」と「主語:頻度スコア、述語:スコア、目的語:0.4、寄与度:0.10」とを取得し、寄与度の合計値「0.11」を設定する。
このような手法により、表示出力部54は、「DB」と「論文」との間に寄与度「0.03」、「論文」と「タイトル」との間に寄与度「0」、「論文」と「論点」との間に寄与度「0.01」を設定する。
その後、表示出力部54は、表示形式DB20に記憶される情報にしたがって、クラス(ノード)間の線の太さや表示色を変更し、変更後の可視化グラフデータを出力する。図24は、可視化グラフデータの表示例を説明する図である。図24に示すように、表示出力部54は、「論文」と「健常者」の間の接続線、「論文」と「231人」の間の接続線、「構造変化スコア」と「0.3」の間の接続線などのように、寄与度が高い接続線を強調表示する。
このように表示出力することで、管理者などのユーザは、推定結果への寄与度が高い情報を容易に取得することができる。なお、図24の表示例はあくまで一例であり、寄与度と表示形式との関係、寄与度の数値などを限定するものではない。
次に、上述した可視化処理の流れを説明する。図25は、可視化処理の流れを示すフローチャートである。図25に示すように、分析部50は、処理が開始されると、オントロジーDB17に記憶される情報を用いて、第1の構造であるオントロジーを表示する(S101)。
続いて、分析部50は、推定結果に未処理のノードがある場合(S102:Yes)、未処理の1ノードを選択する(S103)。そして、分析部50は、選択したノードのクラスがテンプレートに含まれているか否かを判定する(S104)。
ここで、分析部50は、選択したノードのクラスがテンプレートに含まれている場合(S104:Yes)、選択したノードのクラスを選択し(S105)、選択したクラスとテンプレート上で接続している未処理の関係があるか否かを判定する(S106)。
そして、分析部50は、S106を満たす関係が存在する場合(S106:Yes)、S106を満たす関係を選択する(S107)。続いて、分析部50は、選択した関係に相当し、かつ、選択したノードを終点にもつエッジを選択し、反対側のノードを選択し(S108)、S105以降を繰り返す。
なお、S106を満たす関係が存在しない場合(S106:No)、または、選択したノードのクラスがテンプレートに含まれていない場合(S104:No)、分析部50は、選択したノードとエッジがもつ寄与度が閾値以上か否かを判定する(S109)。
ここで、分析部50は、上記寄与度が閾値以上である場合(S109:Yes)、選択したノードとエッジを第2の構造として表示し、選択した各ノードと対応するクラス(第1の構造)を線で接続し(S110)、S102以降を繰り返す。一方、分析部50は、上記寄与度が閾値未満である場合(S109:No)、選択されたノードを第2のノードとしてグラフに含めないようにS110を実行することなく、S102以降を繰り返す。
なお、S102において、分析部50は、推定結果に未処理のノードがない場合(S102:No)、第1の構造のエッジをすべて処理したか否かを判定する(S111)。
ここで、分析部50は、未処理のエッジがある場合(S111:No)、未処理の1エッジを選択し(S112)、エッジのランク(色等)を変更する(S113)。具体的には、分析部50は、選択したエッジに相当するエッジで第2の構造として表示されていないエッジの寄与度からトータルの寄与度を計算し、計算結果に合わせてエッジのランク(色等)を変更する。なお、分析部50は、未処理のエッジがない場合(S111:Yes)、可視化処理を終了する。
上述したように、情報処理装置10は、グラフの機械学習を実行し、推定の寄与度をグラフの辺に付与し、オントロジー毎にノードを集約し、集約した辺の寄与度の集約値に合わせて、辺を表示する。また、情報処理装置10は、隣接する辺の寄与度の合計が大きい点が閾値を超えている場合に、その点のオントロジーが含まれているテンプレートに合わせてその点と連結するグラフを代表例として展開する。
この結果、情報処理装置10は、機械学習モデル13の推定に寄与した寄与度が閾値以上であるか否かによって、クラスを表す第1の構造に含めるか、単一のノードを表す第2の構造に含めるかを定め、それらを接続してグラフを表現することができる。この結果、情報処理装置10は、機械学習モデルによる推定の根拠が理解しやすい情報を出力することができる。
また、情報処理装置10は、テンプレートを用いて重要な推定観点を特定して表示することができるので、情報量が削減されすぎて、却って見にくくなることを抑制することができる。例えば、図24の例では、情報処理装置10は、「DB J-Benign」と「DB J-論文X-健常者」の表示に基づき、「同一変異を持つ231人の健常者がいるために、Benignと考えた」との推論根拠を提示することができる。また、情報処理装置10は、「変異-指標-スコア」と「構造変化スコア-0.3」の表示に基づき、「構造変化の計算値は0.3でやや低かった」との推論根拠を提示することができる。
上記実施例で用いたデータ例、数値例、閾値、表示例、グラフの構成例数、具体例等は、あくまで一例であり、任意に変更することができる。また、訓練データとしては、画像データ、音声データ、時系列データなどを用いることができ、機械学習モデル13は、画像分類や各種分析などにも用いることができる。
また、上記実施例では、トリプルに寄与度が付加されている例で説明したが、これに限定されるものではなく、機械学習モデルから得られる情報にあわせて可視化判定を実行することができる。例えば、2つのノード間の関係ごとに寄与度が付加されている場合やノードごとに寄与度が付加されている場合であっても、トリプルではなく、ノード間ごとまたはノードごとに可視化判定を行うことで、同様に処理することができる。
また、上記実施例では、第1の構造であるオントロジーに含まれないクラスに属するノードについても寄与度に基づく可視化判定を実行したが、これに限定されるものではない。例えば、オントロジーに含まれないクラスに属するノードを判定の対象外とし、オントロジーに含まるクラスに属するノードについてのみ寄与度に基づく可視化判定を実行することもできる。
なお、上記オントロジーは、推定結果のうち寄与度が閾値未満であるノード間を除いたノードを用いて生成することもできる。また、実施例で説明した知識の挿入は、省略することもできる。また、テンプレートとオントロジーとを同じ情報として処理することもできる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図26は、ハードウェア構成例を説明する図である。図26に示すように、情報処理装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図26に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他の装置との通信を行う。HDD10bは、図4に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図4に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図4等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、情報処理装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、事前処理部40と分析部50等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、事前処理部40と分析部50等と同様の処理を実行するプロセスを実行する。
このように、情報処理装置10は、プログラムを読み出して実行することで表示方法を実行する情報処理装置として動作する。また、情報処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 情報処理装置
11 通信部
12 記憶部
13 機械学習モデル
14 知識グラフDB
15 訓練データDB
16 推定データDB
17 オントロジーDB
18 テンプレートDB
19 推定結果DB
20 表示形式DB
30 制御部
40 事前処理部
50 分析部
51 推定実行部
52 知識挿入部
53 構造生成部
54 表示出力部
11 通信部
12 記憶部
13 機械学習モデル
14 知識グラフDB
15 訓練データDB
16 推定データDB
17 オントロジーDB
18 テンプレートDB
19 推定結果DB
20 表示形式DB
30 制御部
40 事前処理部
50 分析部
51 推定実行部
52 知識挿入部
53 構造生成部
54 表示出力部
Claims (7)
- 機械学習モデルの推定結果に対する、ノード間の関係を示すグラフ構造に含まれる複数のノード間の関係のそれぞれに関する寄与度を取得し、
前記グラフ構造のうち一又は複数のノードが属する第1のクラスを示す第1の構造と、前記第1のクラスに属し、関連する前記寄与度が閾値以上である第1のノードを示す第2の構造と、を接続したグラフを表示する、
処理をコンピュータに実行させることを特徴とする表示プログラム。 - 前記グラフは、前記一又は複数のノードのうち、関連する前記寄与度が前記閾値未満である第2のノードを含まない、
ことを特徴とする請求項1に記載の表示プログラム。 - 前記一又は複数のノードに含まれる第2のノードに関連する前記寄与度と前記第2のノードに接続される第3のノードに関連する前記寄与度との合計値を算出する、
処理を前記コンピュータに実行させ、
前記表示する処理は、前記合計値が閾値以上である場合、前記第2のノードと前記第3のノードとを示す第3の構造を含む前記グラフを表示する処理を含む、
ことを特徴とする請求項1または2に記載の表示プログラム。 - 前記算出する処理は、
前記第2のノードが、前記第1のノードと接続されるノードであるとともに、前記第1のクラスに属し、関連する前記寄与度が閾値以上である場合に、前記合計値を算出する、
ことを特徴とする請求項3に記載の表示プログラム。 - 前記表示する処理は、
前記グラフが有する各ノード間のリレーションを、前記各ノード間に関する前記寄与度にしたがって、前記寄与度が大きいほど強調して表示する処理、
を含むことを特徴とする請求項1から4のいずれか一つに記載の表示プログラム。 - 機械学習モデルの推定結果に対する、ノード間の関係を示すグラフ構造に含まれる複数のノード間の関係のそれぞれに関する寄与度を取得し、
前記グラフ構造のうち一又は複数のノードが属する第1のクラスを示す第1の構造と、前記第1のクラスに属し、関連する前記寄与度が閾値以上である第1のノードを示す第2の構造と、を接続したグラフを表示する、
制御部を含むことを特徴とする情報処理装置。 - 機械学習モデルの推定結果に対する、グラフ構造に含まれる複数のトリプルのそれぞれに関する寄与度を取得し、
前記グラフ構造のうち前記複数のトリプルに含まれ第1の属性に関連し前記寄与度が閾値未満であるトリプルを集約した第1の構造と、前記第1の構造に接続された、前記複数のトリプルに含まれ前記第1の属性に関連し前記寄与度が前記閾値以上であるトリプルを示す第2の構造と、を含むグラフを表示する、
処理をコンピュータが実行することを特徴とする表示方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021007512A JP2022111841A (ja) | 2021-01-20 | 2021-01-20 | 表示プログラム、情報処理装置および表示方法 |
US17/517,267 US20220230073A1 (en) | 2021-01-20 | 2021-11-02 | Computer-readable recording medium storing display program, information processing apparatus, and display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021007512A JP2022111841A (ja) | 2021-01-20 | 2021-01-20 | 表示プログラム、情報処理装置および表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022111841A true JP2022111841A (ja) | 2022-08-01 |
Family
ID=82405257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021007512A Pending JP2022111841A (ja) | 2021-01-20 | 2021-01-20 | 表示プログラム、情報処理装置および表示方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220230073A1 (ja) |
JP (1) | JP2022111841A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024202363A1 (ja) * | 2023-03-28 | 2024-10-03 | 富士通株式会社 | 情報処理プログラム、情報処理装置及び情報処理方法 |
-
2021
- 2021-01-20 JP JP2021007512A patent/JP2022111841A/ja active Pending
- 2021-11-02 US US17/517,267 patent/US20220230073A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024202363A1 (ja) * | 2023-03-28 | 2024-10-03 | 富士通株式会社 | 情報処理プログラム、情報処理装置及び情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220230073A1 (en) | 2022-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dieker et al. | Exact simulation of Brown-Resnick random fields at a finite number of locations | |
CN112507040B (zh) | 多元关系生成模型的训练方法、装置、电子设备及介质 | |
Darwiche | Bayesian networks | |
Fu et al. | Learning sparse causal Gaussian networks with experimental intervention: regularization and coordinate descent | |
Wadsworth et al. | Likelihood-based procedures for threshold diagnostics and uncertainty in extreme value modelling | |
Pretorius et al. | Tasks for multivariate network analysis | |
JP5845630B2 (ja) | 情報処理装置、情報処理方法、並びにプログラム | |
Zhang et al. | A consensus model for large-scale group decision-making based on the trust relationship considering leadership behaviors and non-cooperative behaviors | |
CN107688865A (zh) | 识别网络游戏中潜在高消费用户的方法及设备 | |
Nikas et al. | Developing robust climate policies: a fuzzy cognitive map approach | |
JP2020046891A (ja) | 予測プログラム、予測方法および学習装置 | |
JP2022111841A (ja) | 表示プログラム、情報処理装置および表示方法 | |
CN116431268B (zh) | 基于大数据处理的数据可视化分析方法、系统及存储介质 | |
Liu et al. | Ontology design with a granular approach | |
Gürünlü Alma et al. | Genetic algorithms for outlier detection in multiple regression with different information criteria | |
Reed et al. | Bayesian Network Parameter Learning using EM with Parameter Sharing. | |
JPWO2018235841A1 (ja) | グラフ構造解析装置、グラフ構造解析方法、及びプログラム | |
CN111310266B (zh) | 建筑信息模型产品的几何数据分割方法 | |
CN114065359A (zh) | 一种装修设计生成方法、装置、电子设备及存储介质 | |
JP6557613B2 (ja) | 推論モデル構築システム及び推論モデル構築方法 | |
Atzmueller et al. | Towards generating explanations for ASP-based link analysis using declarative program transformations | |
JP6721036B2 (ja) | 推論システム、推論方法、及び、プログラム | |
Fischer et al. | Fast detection of structural breaks | |
JPWO2016027297A1 (ja) | データ処理システムおよびデータ処理方法 | |
CN117539948B (zh) | 基于深度神经网络的业务数据检索方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231012 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240813 |