JP7020547B2 - 情報処理装置、制御方法、及びプログラム - Google Patents
情報処理装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP7020547B2 JP7020547B2 JP2020522504A JP2020522504A JP7020547B2 JP 7020547 B2 JP7020547 B2 JP 7020547B2 JP 2020522504 A JP2020522504 A JP 2020522504A JP 2020522504 A JP2020522504 A JP 2020522504A JP 7020547 B2 JP7020547 B2 JP 7020547B2
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- rule
- input data
- data
- condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
- G06N5/025—Extracting rules from data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/045—Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
<概要>
図1は、本実施形態の情報処理装置が行う処理を概念的に示す図である。情報処理装置2000は、入力されたデータに関する予測を出力する。図1において、入力されるデータは入力データ10であり、予測の結果を表すデータは予測結果20である。入力に対する予測を行う処理としては、例えば、入力された画像データに含まれるオブジェクトのクラス(例えば、人、犬、車など)を予測する処理(分類問題)がある。この場合、入力された画像データが入力データ10である。また、予測結果20は、予測されたクラス及びその予測の根拠を示す。
本実施形態の情報処理装置2000によって奏される作用効果を明瞭にするため、本技術分野の前提技術である決定木とグラフィカルモデルを説明する。
図4は、実施形態1の情報処理装置2000の機能構成を例示する図である。情報処理装置2000は、取得部2020、抽出部2040、及び出力部2060を有する。取得部2020は、入力データ10を取得する。抽出部2040は、ニューラルネットワーク30を用いて、使用ルールセット60の中から、入力データ10に対応する予測ルール50を抽出する。出力部2060は、抽出された予測ルール50に基づいて予測結果20を出力する。
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図6は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。取得部2020は、入力データ10を取得する(S102)。抽出部2040は、ニューラルネットワーク30を用い、使用ルールセット60から、入力データ10に対応する予測ルール50を抽出する(S104)。出力部2060は、予測ルール50に基づいて、予測結果20を出力する(S106)。
取得部2020は入力データ10を取得する(S102)。入力データ10は、目的とする予測を行うために必要なデータである。例えば前述したように、画像データに含まれるオブジェクトのクラスを予測する処理においては、入力データ10として画像データを利用することができる。ただし、入力データ10は画像データに限定されず、テキストデータなどの任意のデータを入力データ10とすることができる。
抽出部2040は、ニューラルネットワーク30を用いて、使用ルールセット60から予測ルール50を抽出する。例えばニューラルネットワーク30は、入力データ10が入力されたことに応じ、使用ルールセット60から予測ルール50を抽出し、抽出した予測ルール50を出力するように構成される。その他にも例えば、ニューラルネットワーク30は、使用ルールセット60に含まれる各予測ルール50について、抽出すべき度合いを示すベクトルを出力してもよい。以下、ニューラルネットワーク30の構成について具体例を挙げて説明する。
ここでは、ニューラルネットワーク30の構成について、詳細な具体例を説明する。ただし、以下で説明する構成は一例であり、ニューラルネットワーク30の構成には種々の構成を採用することができる。
出力部2060は、抽出された予測ルール50に基づいて、予測結果20を出力する(S106)。例えば出力部2060は、予測ルール50の内容を表す文字列を予測結果20として出力する。その他にも例えば、出力部2060は、予測ルール50の内容をグラフや図などを用いてグラフィカルに表した情報を予測結果20として出力してもよい。
予測ルール50には優先度が付されていてもよい。前述したように、この優先度を第1優先度と呼ぶ。この場合、抽出部2040は、ニューラルネットワーク30の出力結果と、予測ルール50に付された第1優先度とに基づいて、抽出する予測ルール50を決定する。例えば前述したように、ニューラルネットワーク30から各予測ルール50の生起確率を示すベクトルが抽出されるようにし、抽出部2040は、このベクトルと、各予測ルール50の第1優先度を示すベクトルとの積を算出する。そして、抽出部2040は、算出されたベクトルに基づいて予測ルール50を抽出する。例えば前述したように、抽出部2040は、上述した積が最大の予測ルール50を抽出する。その他にも例えば、抽出部2040は、各予測ルール50について算出された上述の積に基づく確率分布に従って、使用ルールセット60から予測ルール50をサンプリングすることで、予測ルール50を抽出してもよい。
実施形態2の情報処理装置2000は、使用ルールセット60を生成する機能をさらに有する。情報処理装置2000は、候補ルールセット70を用いて使用ルールセット60を生成する。候補ルールセット70は、複数の予測ルール50を含む。候補ルールセット70に含まれる予測ルール50の数は、使用ルールセット60に含まれる予測ルール50の数より多い。すなわち、使用ルールセット60は、候補ルールセット70のサブセットである。以下で説明する点を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様の機能を有する。
本実施形態の情報処理装置2000によれば、抽出部2040が抽出する予測ルール50の候補の集合である使用ルールセット60を、用意された全ての予測ルール50の集合(候補ルールセット70)の部分集合として生成する。このように使用ルールセット60を自動的に生成することにより、ユーザが使用ルールセット60を生成する負担を軽減することができる。
生成部2080が使用ルールセット60を生成する方法には、様々な方法を採用することができる。例えば生成部2080は、候補ルールセット70から所定個の予測ルール50をランダムにサンプリングし、サンプリングした予測ルール50を含む使用ルールセット60を生成する。なお、サンプリングする予測ルール50について、重複を許可してもよいし、許可しなくてもよい。前者の場合、使用ルールセット60に含まれる予測ルール50の数が所定個となる。一方、後者の場合、使用ルールセット60に含まれる予測ルール50の数が所定個以下となる。
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図5によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。また、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、候補ルールセット70が記憶されていてもよい。ただし、候補ルールセット70は、情報処理装置2000の外部の記憶装置ネットワークインタフェース1120を介して計算機1000と接続されているデータベースサーバなど)に記憶されていてもよい。
実施形態3の情報処理装置2000は、ニューラルネットワーク30の訓練を行う機能をさらに有する。すなわち、実施形態3の情報処理装置2000は、ニューラルネットワーク30の出力に基づいて計算される予測損失を小さくするように、ニューラルネットワーク30の内部パラメータを更新する機能を有する。
情報処理装置2000による予測の精度を向上させる方法として、ニューラルネットワーク30の最適化と、使用ルールセット60の最適化とがある。ニューラルネットワーク30の最適化とは、ニューラルネットワーク30を訓練することで予測損失を減少させることである。使用ルールセット60の最適化とは、候補ルールセット70の中から、予測に有用な予測ルール50を適切に抽出することである。
実施形態3の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図5によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1.
入力データを取得する取得部と、
ニューラルネットワークを用いて、予測ルールを複数含む使用ルールセットの中から、前記入力データに対応する前記予測ルールを抽出する抽出部と、を有し、
前記予測ルールは、予測の根拠となる条件を示す条件データと、前記条件データが示す条件に基づく予測を表す帰結データとを対応づけており、
前記抽出された予測ルールに基づく出力を行う出力部を有し、
前記入力データに対応する前記予測ルールの前記条件データは、前記取得した入力データが満たす条件を示す、情報処理装置。
2.
前記ニューラルネットワークは、前記使用ルールセットに含まれる各前記予測ルールについて、前記入力データに関する予測に利用する適切さの度合いを出力し、
前記抽出部は、前記出力された適切さ度合いに基づいて、前記予測ルールの抽出を行う、1.に記載の情報処理装置。
3.
前記抽出部は、
前記出力された適切さ度合いが最大である前記予測ルールを抽出するか、又は、
前記出力された適切さ度合いの大きさに基づく確率分布に従って前記使用ルールセットから前記予測ルールをサンプリングすることで、前記予測ルールを抽出する、2.に記載の情報処理装置。
4.
前記使用ルールセットにおいて、前記予測ルールには、前記使用ルールセットから抽出する優先度合いを表す第1優先度が与えられており、
前記抽出部は、各前記予測ルールについて、前記出力された適切さ度合いと前記第1優先度との積を算出し、算出した積の大きさに基づいて、前記予測ルールの抽出を行う、2.に記載の情報処理装置。
5.
前記抽出部は、
前記算出された積が最大である前記予測ルールを抽出するか、又は、
前記算出された積の大きさに基づく確率分布に従って前記使用ルールセットから前記予測ルールをサンプリングすることで、前記予測ルールを抽出する、4.に記載の情報処理装置。
6.
複数の前記予測ルールを含む候補ルールセットから一部の前記予測ルールを抽出し、抽出した複数の前記予測ルールを含む前記使用ルールセットを生成する生成部を有する、1.乃至5.いずれか一つに記載の情報処理装置。
7.
前記候補ルールセットにおいて、前記予測ルールには、前記候補ルールセットから抽出する優先度合いを表す第2優先度が与えられており、
前記生成部は、
前記第2優先度が高い予測ルールほど高い確率で前記候補ルールセットからサンプリングするサンプリング処理を複数回行い、少なくとも一回サンプリングされた各前記予測ルールを含む前記使用ルールセットを生成する、6.に記載の情報処理装置。
8.
前記使用ルールセットにおいて、前記予測ルールには、前記使用ルールセットから抽出する優先度合いを表す第1優先度が与えられており、
前記生成部は、前記予測ルールの第1優先度を、前記候補ルールセットからサンプリングされた回数が多いほど大きい値にする、7.に記載の情報処理装置。
9.
前記ニューラルネットワークのパラメータを更新する訓練部を有し、
前記訓練部は、訓練入力データ及び訓練正解データを取得し、
前記ニューラルネットワークは、各前記予測ルールについて、前記訓練入力データに対応する予測ルールとして選択される確率の高さを表す値を出力し、
前記訓練部は、各前記予測ルールについて出力された前記値と前記訓練正解データとを用いて予測損失を算出し、その予測損失が減少するように前記ニューラルネットワークのパラメータを更新する、1.乃至8.いずれか一つに記載の情報処理装置。
10.
コンピュータによって実行される制御方法であって、
入力データを取得する取得ステップと、
ニューラルネットワークを用いて、予測ルールを複数含む使用ルールセットの中から、前記入力データに対応する前記予測ルールを抽出する抽出ステップと、を有し、
前記予測ルールは、予測の根拠となる条件を示す条件データと、前記条件データが示す条件に基づく予測を表す帰結データとを対応づけており、
前記抽出された予測ルールに基づく出力を行う出力ステップを有し、
前記入力データに対応する前記予測ルールの前記条件データは、前記取得した入力データが満たす条件を示す、制御方法。
11.
前記ニューラルネットワークは、前記使用ルールセットに含まれる各前記予測ルールについて、前記入力データに関する予測に利用する適切さの度合いを出力し、
前記抽出ステップにおいて、前記出力された適切さ度合いに基づいて、前記予測ルールの抽出を行う、10.に記載の制御方法。
12.
前記抽出ステップにおいて、
前記出力された適切さ度合いが最大である前記予測ルールを抽出するか、又は、
前記出力された適切さ度合いの大きさに基づく確率分布に従って前記使用ルールセットから前記予測ルールをサンプリングすることで、前記予測ルールを抽出する、11.に記載の制御方法。
13.
前記使用ルールセットにおいて、前記予測ルールには、前記使用ルールセットから抽出する優先度合いを表す第1優先度が与えられており、
前記抽出ステップにおいて、各前記予測ルールについて、前記出力された適切さ度合いと前記第1優先度との積を算出し、算出した積の大きさに基づいて、前記予測ルールの抽出を行う、11.に記載の制御方法。
14.
前記抽出ステップにおいて、
前記算出された積が最大である前記予測ルールを抽出するか、又は、
前記算出された積の大きさに基づく確率分布に従って前記使用ルールセットから前記予測ルールをサンプリングすることで、前記予測ルールを抽出する、13.に記載の制御方法。
15.
複数の前記予測ルールを含む候補ルールセットから一部の前記予測ルールを抽出し、抽出した複数の前記予測ルールを含む前記使用ルールセットを生成する生成ステップを有する、10.乃至14.いずれか一つに記載の制御方法。
16.
前記候補ルールセットにおいて、前記予測ルールには、前記候補ルールセットから抽出する優先度合いを表す第2優先度が与えられており、
前記生成ステップにおいて、
前記第2優先度が高い予測ルールほど高い確率で前記候補ルールセットからサンプリングするサンプリング処理を複数回行い、少なくとも一回サンプリングされた各前記予測ルールを含む前記使用ルールセットを生成する、15.に記載の制御方法。
17.
前記使用ルールセットにおいて、前記予測ルールには、前記使用ルールセットから抽出する優先度合いを表す第1優先度が与えられており、
前記生成ステップにおいて、前記予測ルールの第1優先度を、前記候補ルールセットからサンプリングされた回数が多いほど大きい値にする、16.に記載の制御方法。
18.
前記ニューラルネットワークのパラメータを更新する訓練ステップを有し、
前記訓練ステップにおいて、訓練入力データ及び訓練正解データを取得し、
前記ニューラルネットワークは、各前記予測ルールについて、前記訓練入力データに対応する予測ルールとして選択される確率の高さを表す値を出力し、
前記訓練ステップにおいて、各前記予測ルールについて出力された前記値と前記訓練正解データとを用いて予測損失を算出し、その予測損失が減少するように前記ニューラルネットワークのパラメータを更新する、10.乃至17.いずれか一つに記載の制御方法。
19.
10.乃至18.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。
Claims (10)
- 入力データを取得する取得部と、
ニューラルネットワークを用いて、予測ルールを複数含む使用ルールセットの中から、前記入力データに対応する前記予測ルールを抽出する抽出部と、を有し、
前記予測ルールは、予測の根拠となる条件を示す条件データと、前記条件データが示す条件に基づく予測を表す帰結データとを対応づけており、
前記抽出された予測ルールに基づく出力を行う出力部を有し、
前記入力データに対応する前記予測ルールの前記条件データは、前記取得した入力データが満たす条件を示す、情報処理装置。 - 前記ニューラルネットワークは、前記使用ルールセットに含まれる各前記予測ルールについて、前記入力データに関する予測に利用する適切さの度合いを出力し、
前記抽出部は、前記出力された適切さ度合いに基づいて、前記予測ルールの抽出を行う、請求項1に記載の情報処理装置。 - 前記抽出部は、
前記出力された適切さ度合いが最大である前記予測ルールを抽出するか、又は、
前記出力された適切さ度合いの大きさに基づく確率分布に従って前記使用ルールセットから前記予測ルールをサンプリングすることで、前記予測ルールを抽出する、請求項2に記載の情報処理装置。 - 前記使用ルールセットにおいて、前記予測ルールには、前記使用ルールセットから抽出する優先度合いを表す第1優先度が与えられており、
前記抽出部は、各前記予測ルールについて、前記出力された適切さ度合いと前記第1優先度との積を算出し、算出した積の大きさに基づいて、前記予測ルールの抽出を行う、請求項2に記載の情報処理装置。 - 前記抽出部は、
前記算出された積が最大である前記予測ルールを抽出するか、又は、
前記算出された積の大きさに基づく確率分布に従って前記使用ルールセットから前記予測ルールをサンプリングすることで、前記予測ルールを抽出する、請求項4に記載の情報処理装置。 - 複数の前記予測ルールを含む候補ルールセットから一部の前記予測ルールを抽出し、抽出した複数の前記予測ルールを含む前記使用ルールセットを生成する生成部を有する、請求項1乃至5いずれか一項に記載の情報処理装置。
- 前記候補ルールセットにおいて、前記予測ルールには、前記候補ルールセットから抽出する優先度合いを表す第2優先度が与えられており、
前記生成部は、
前記第2優先度が高い予測ルールほど高い確率で前記候補ルールセットからサンプリングするサンプリング処理を複数回行い、少なくとも一回サンプリングされた各前記予測ルールを含む前記使用ルールセットを生成する、請求項6に記載の情報処理装置。 - 前記使用ルールセットにおいて、前記予測ルールには、前記使用ルールセットから抽出する優先度合いを表す第1優先度が与えられており、
前記生成部は、前記予測ルールの第1優先度を、前記候補ルールセットからサンプリングされた回数が多いほど大きい値にする、請求項7に記載の情報処理装置。 - コンピュータによって実行される制御方法であって、
入力データを取得する取得ステップと、
ニューラルネットワークを用いて、予測ルールを複数含む使用ルールセットの中から、前記入力データに対応する前記予測ルールを抽出する抽出ステップと、を有し、
前記予測ルールは、予測の根拠となる条件を示す条件データと、前記条件データが示す条件に基づく予測を表す帰結データとを対応づけており、
前記抽出された予測ルールに基づく出力を行う出力ステップを有し、
前記入力データに対応する前記予測ルールの前記条件データは、前記取得した入力データが満たす条件を示す、制御方法。 - コンピュータを、
入力データを取得する取得部、
ニューラルネットワークを用いて、予測ルールを複数含む使用ルールセットの中から、前記入力データに対応する前記予測ルールを抽出する抽出部、および、
前記抽出された予測ルールに基づく出力を行う出力部として機能させ、
前記予測ルールは、予測の根拠となる条件を示す条件データと、前記条件データが示す条件に基づく予測を表す帰結データとを対応づけており、
前記入力データに対応する前記予測ルールの前記条件データは、前記取得した入力データが満たす条件を示す、
プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/020953 WO2019229931A1 (ja) | 2018-05-31 | 2018-05-31 | 情報処理装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019229931A1 JPWO2019229931A1 (ja) | 2021-06-03 |
JP7020547B2 true JP7020547B2 (ja) | 2022-02-16 |
Family
ID=68697988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020522504A Active JP7020547B2 (ja) | 2018-05-31 | 2018-05-31 | 情報処理装置、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210209447A1 (ja) |
JP (1) | JP7020547B2 (ja) |
WO (1) | WO2019229931A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210019635A1 (en) * | 2019-07-15 | 2021-01-21 | Ramot At Tel Aviv University | Group specific decision tree |
JP7382633B2 (ja) * | 2019-12-05 | 2023-11-17 | 学校法人明治大学 | 学習モデル構築装置、学習モデル構築方法及びコンピュータプログラム |
JP7341387B2 (ja) * | 2020-07-30 | 2023-09-11 | オムロン株式会社 | モデル生成方法、探索プログラム及びモデル生成装置 |
CN113935251B (zh) * | 2021-12-17 | 2022-04-22 | 北京达佳互联信息技术有限公司 | 用户行为预测模型的生成方法、用户行为预测方法及装置 |
CN115599698B (zh) * | 2022-11-30 | 2023-03-14 | 北京航空航天大学 | 一种基于类关联规则的软件缺陷预测方法及系统 |
CN118396391B (zh) * | 2024-06-26 | 2024-09-10 | 深圳碳中和生物燃气股份有限公司 | 生物炭基肥的施用风险评估方法及系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3785049B2 (ja) * | 2000-06-21 | 2006-06-14 | 株式会社東芝 | 区間ルール抽出方法及びプログラム |
US20170109657A1 (en) * | 2011-05-08 | 2017-04-20 | Panaya Ltd. | Machine Learning-Based Model for Identifying Executions of a Business Process |
JP6563487B2 (ja) * | 2014-05-19 | 2019-08-21 | エピシス サイエンス、インコーポレイテッド | 動的状況認識データに基づいて複数の自律モバイルノードを制御する方法及び装置 |
US10475144B2 (en) * | 2016-02-26 | 2019-11-12 | Microsoft Technology Licensing, Llc | Presenting context-based guidance using electronic signs |
CN107492099B (zh) * | 2017-08-28 | 2021-08-20 | 京东方科技集团股份有限公司 | 医学图像分析方法、医学图像分析系统以及存储介质 |
US11150630B2 (en) * | 2017-10-19 | 2021-10-19 | International Business Machines Corporation | Predictive maintenance utilizing supervised sequence rule mining |
US10498688B2 (en) * | 2018-04-25 | 2019-12-03 | International Business Machines Corporation | Prioritizing notifications on a mobile communications device |
-
2018
- 2018-05-31 WO PCT/JP2018/020953 patent/WO2019229931A1/ja active Application Filing
- 2018-05-31 US US17/058,809 patent/US20210209447A1/en not_active Abandoned
- 2018-05-31 JP JP2020522504A patent/JP7020547B2/ja active Active
Non-Patent Citations (4)
Title |
---|
JEREZ-ARAGONES, M, JOSE et al.,A Combined Neural Network and Decision Trees Model for Prognosis of Breast Cancer Relapse,Artificial Intelligence in Medicine,Vol.27,ELSEVIER,2003年,http://atarazanas.sci.uma.es/docs/tesisuma/16644013.pdf,pp.45-63 |
RIBEIRO, T, MARCO et al.,"Why Should I Trust You?": Explaining the Predictions of Any Classifier,Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining,ACM,2016年08月13日,pp.1135-1144,https://dl.acm.org/citation.cfm?id=2939778,ISBN:978-1-4503-4232-2 |
中田雅也 et al.,解釈性に優れた知識獲得技術としての進化的機械学習,システム/制御/情報,日本,一般社団法人システム制御情報学会,2016年07月15日,第60巻 第7号,pp.16-21,ISSN:0916-1600 |
高橋省 et al.,電力系統制御システムの最新技術,富士時報,富士電機ホールディングス株式会社,2005年11月10日,第78巻 第6号,pp.409-413,ISSN:0367-3332 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2019229931A1 (ja) | 2021-06-03 |
WO2019229931A1 (ja) | 2019-12-05 |
US20210209447A1 (en) | 2021-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7020547B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
Vaicenavicius et al. | Evaluating model calibration in classification | |
Shukla | Neuro-genetic prediction of software development effort | |
CN110138595A (zh) | 动态加权网络的时间链路预测方法、装置、设备及介质 | |
WO2020236483A1 (en) | Cross-lingual information retrieval and information extraction | |
CN109120462A (zh) | 机会网络链路的预测方法、装置及可读存储介质 | |
CN110781686B (zh) | 一种语句相似度计算方法、装置及计算机设备 | |
CN110245310B (zh) | 一种对象的行为分析方法、装置及存储介质 | |
US11593619B2 (en) | Computer architecture for multiplier-less machine learning | |
US20230419075A1 (en) | Automated Variational Inference using Stochastic Models with Irregular Beliefs | |
CN111612262A (zh) | 一种基于分位数回归的风电功率概率预测方法 | |
WO2023179609A1 (zh) | 一种数据处理方法及装置 | |
JP6927409B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
Blanquero et al. | On optimal regression trees to detect critical intervals for multivariate functional data | |
US20240028931A1 (en) | Directed Acyclic Graph of Recommendation Dimensions | |
JP2017027509A (ja) | 予測モデル構築装置 | |
Mala et al. | Fuzzy rule based classification for heart dataset using fuzzy decision tree algorithm based on fuzzy RDBMS | |
Kim et al. | COVID-19 outbreak prediction using Seq2Seq+ Attention and Word2Vec keyword time series data | |
CN112597311A (zh) | 一种基于低轨卫星通信下的终端信息分类方法及系统 | |
Marwala et al. | Neuro-rough models for modelling HIV | |
Xiong et al. | Bayesian nonparametric regression modeling of panel data for sequential classification | |
US20240251225A1 (en) | Predicting user interaction with communications | |
Antonsson et al. | Fuzzy fitness functions applied to engineering design problems | |
EP4414891A1 (en) | Neural network construction method and apparatus | |
CN111310971B (zh) | 一种o2o商业模式的前景分析方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220117 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7020547 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |