JP2020046888A - 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置 - Google Patents

学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置 Download PDF

Info

Publication number
JP2020046888A
JP2020046888A JP2018174275A JP2018174275A JP2020046888A JP 2020046888 A JP2020046888 A JP 2020046888A JP 2018174275 A JP2018174275 A JP 2018174275A JP 2018174275 A JP2018174275 A JP 2018174275A JP 2020046888 A JP2020046888 A JP 2020046888A
Authority
JP
Japan
Prior art keywords
hypothesis
prediction
training data
hypotheses
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018174275A
Other languages
English (en)
Other versions
JP7172332B2 (ja
Inventor
岩下 洋哲
Hiroaki Iwashita
洋哲 岩下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018174275A priority Critical patent/JP7172332B2/ja
Priority to US16/566,375 priority patent/US20200090064A1/en
Priority to CN201910858365.0A priority patent/CN110909758A/zh
Priority to EP19196930.2A priority patent/EP3627402A1/en
Publication of JP2020046888A publication Critical patent/JP2020046888A/ja
Application granted granted Critical
Publication of JP7172332B2 publication Critical patent/JP7172332B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】入力データに対する予測結果と、予測に関する根拠とを示すことを可能とする。【解決手段】実施形態の学習プログラムは、生成する処理と、学習を行う処理とをコンピュータに実行させる。生成する処理は、それぞれに説明変数および目的変数を有する訓練データから、説明変数の組み合わせにより構成され、訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合を生成する。学習を行う処理は、訓練データそれぞれに対する、仮説集合に含まれる複数の仮説それぞれの成立有無に基づき、複数の仮説それぞれの重みを算出する学習を行う。【選択図】図2

Description

本発明の実施形態は、学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置に関する。
従来、離散データの非線形分類に用いられる技術として、教師つきの訓練データによってデータを分類するために用いる分類ルール、すなわち決定木を機械学習し、学習した決定木を用いて入力データの分類結果を予測する技術がある。
L. Breiman,"RANDOM FORESTS",Machine Learning, vol.45, pp. 5-32 (2001) J.R. Quinlan,"Induction of Decision Trees",Machine Learning, vol.1, pp. 81-106 (1986)
機械学習の結果に含まれるそれぞれの「点」(例えば決定木における葉)に対し、機械学習で利用したルールが対応づいている場合は、人間が直接理解できる形、すなわち解釈性を持つ形で機械学習の結果を利用することができる。
例えば、訓練データから決定木を生成した場合、それぞれの点の決定木による出力結果は、決定木を構成するルールと対応付けられており、判断の根拠を人間が理解することができる。このように、決定木は、予測モデル(予測結果を導くルール(根拠))を人間が理解しやすいことが特徴の一つである。
特に医療の分野などにおいては、機械学習による予測の結果に含まれる「点」を導くルール自体だけでなく、当該予測、および、代替の予測の可能性や、代替の予測を導くルールを知りたい場合がある。また、出力された予測が、不十分なデータによる学習である場合は、その旨を知ることができることが望ましい。
しかしながら、上記の従来技術における決定木を用いた予測では、特に、少ない説明変数の組み合わせで(決定木において根から葉に至る節点の数が少なく)対象の性質が説明できる場合に、訓練データ以外の点について予測の可能性や、代替の予測、代替の予測を導くルールなどが得られない場合がある。これは、決定木が、複数の可能性が存在する場合に、最も可能性が高いもの以外が除外され、かつ、複数のルールが相互に矛盾しない形で生成されることによる。
ここで、上記の課題について、具体例を示して説明する。図14は、訓練データの一例を示す説明図である。
図14に示すように、訓練データ(P〜P、N〜N)は、データの性質を説明するA〜Dの説明変数(予測に用いる情報)と、+または−へのClass(分類)を示す正解情報である目的変数(予測したい情報)とを含む。例えば、訓練データP〜Pは、目的変数A〜Dそれぞれが0または1であり、+に分類されるデータである。同様に、訓練データN〜Nは、目的変数A〜Dそれぞれが0または1であり、−に分類されるデータである。
図15−1、図15−2は、決定木の一例を示す説明図である。具体的には、図15−1に示す決定木T、図15−2に示す決定木Tともに、訓練データ(P〜P、N〜N)による学習で得られた決定木である。
図15−1に示すように、決定木Tは、訓練データ(P〜P、N〜N)に対し、分類精度100%で分類を行う。また、図15−2に示すように、決定木Tは、訓練データ(P〜P、N〜N)に対し、分類精度100%で分類を行う。このように、同じ訓練データ(P〜P、N〜N)に対しては、同品質(分類精度100%)の決定木T、Tが複数する場合がある。
そして、これらの決定木T、Tは、訓練データ(P〜P、N〜N)に含まれていない未知の入力に対してそれぞれ異なる予測値を与える場合がある。
図16は、決定木ごとの予測値を説明する説明図である。具体的には、図16は、入力データ(IN、IN)、訓練データ(P〜P、N〜N)および決定木T、Tについて、4説明変数(A〜D)のカルノー図例である。
なお、図16において、説明変数(1/0)については、オーバーライン(以下、「バー」と称する)の有無で表現している。例えばAは、A=1であり、AバーはA=0を示す。また、目的変数(+/−)については、網掛けで表現している。例えば、訓練データP〜P、Cバーなどの網掛けは、目的変数が+を示す。また、訓練データN〜N、CAなどの網掛けは、目的変数が−を示す。なお、これらの表現は、他の図面でも共通であるものとする。
図16に示すように、訓練データ(P〜P、N〜N)に含まれていない入力データIN、INについて、決定木Tと、決定木Tとでは、予測値(分類結果)が異なることとなる。具体的には、入力データINについて、決定木Tでは、−と分類される。これに対し、決定木Tでは、入力データINは+と分類される。
図17は、決定木Tによるルールを説明する説明図である。図17に示すように、決定木Tでは、予測結果に含まれる各点に対応付けられるパス(=ルール)は1つである。これは、決定木というモデル自体が有する性質であり、訓練データ(P〜P、N〜N)に含まれる、または、含まれない、いずれの点についてもルールは1つである。
例えば、ルールRは、決定木Tにおいて入力データINが+に分類されることを示す唯一のルールである。また、ルールRは、決定木Tにおいて入力データINが−に分類されることを示す唯一のルールである。
したがって、各決定木において、各点に関する代替の予測(例えば+の予測の代替として−に予測)の可能性を評価することは困難である。また、決定木Tまたは決定木Tのどちらの決定木が妥当であるかは、限られた訓練データ(P〜P、N〜N)から決められることではない(どちらの可能性も排除できない)。
1つの側面では、入力データに対する予測結果と、予測に関する根拠とを示すことを可能とする学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置を提供することを目的とする。
1つの案では、学習プログラムは、生成する処理と、学習を行う処理とをコンピュータに実行させる。生成する処理は、それぞれに説明変数および目的変数を有する訓練データから、説明変数の組み合わせにより構成され、訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合を生成する。学習を行う処理は、訓練データそれぞれに対する、仮説集合に含まれる複数の仮説それぞれの成立有無に基づき、複数の仮説それぞれの重みを算出する学習を行う。
本発明の1実施態様によれば、入力データに対する予測結果と、予測に関する根拠とを示すことができる。
図1は、実施形態にかかる情報処理装置の機能構成例を示すブロック図である。 図2は、実施形態にかかる情報処理装置の動作例を示すフローチャートである。 図3は、訓練データの一例を示す説明図である。 図4は、仮説の生成を説明する説明図である。 図5は、仮説の生成を説明する説明図である。 図6は、仮説の生成を説明する説明図である。 図7は、生成された仮説の一例を示す説明図である。 図8は、入力データに適合する仮説を説明する説明図である。 図9は、ロジスティック回帰による重み付けを説明する説明図である。 図10は、仮説の選別を説明する説明図である。 図11は、入力データに適合する仮説の一例を示す説明図である。 図12は、正例である確率の推定値を例示する説明図である。 図13は、実施形態にかかる情報処理装置のハードウエア構成例を説明する説明図である。 図14は、訓練データの一例を示す説明図である。 図15−1は、決定木の一例を示す説明図である。 図15−2は、決定木の一例を示す説明図である。 図16は、決定木ごとの予測値を説明する説明図である。 図17は、決定木によるルールを説明する説明図である。
以下、図面を参照して、実施形態にかかる学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
図1は、実施形態にかかる情報処理装置の機能構成例を示すブロック図である。
図1に示すように、情報処理装置1は、入力部10、記憶部20、仮説生成部30、学習部40、予測部50および出力部60を有する。
入力部10は、機械学習に関する訓練データ21や、予測対象となる入力データ22などの各種データの入力を受け付ける処理部である。入力部10は、入力を受け付けた訓練データ21や入力データ22を記憶部20に格納する。
記憶部20は、例えば訓練データ21、入力データ22、仮説集合データ23、重みデータ24および結果データ25などの各種データを記憶する。
仮説生成部30は、それぞれに説明変数および目的変数を有する訓練データ21から、説明変数の組み合わせにより構成される仮説(目的変数に応じた予測となることを説明するルール(根拠))を網羅的に探索する。
次いで、仮説生成部30は、探索した仮説それぞれについて、訓練データ21の説明変数および目的変数をもとに、訓練データ21のいずれかを分類し、特定の条件を満たす仮説を特定する。ここで、特定の条件とは、仮説(説明変数の組み合わせ)が示すルールによって所定のクラスに分類される訓練データ21の数または割合が所定の値以上であることなどである。例えば、仮説生成部30は、探索した仮説について、その仮説により分類される訓練データ21の数または割合が所定の値以上であり、仮説による分類結果があるクラスに属することを一定以上のサンプル数かつ(または)一定以上のサンプル割合で説明しているものを特定する。つまり、仮説生成部30は、訓練データ21の目的変数に応じた予測となることを正しく説明している可能性のある仮説を特定する。
次いで、仮説生成部30は、特定した仮説を仮説集合に加える。このようにして、仮説生成部30は、訓練データ21の目的変数に応じた予測となることを正しく説明している可能性のある仮説を仮説集合に列挙する。次いで、仮説生成部30は、仮説を列挙した仮説集合を示す仮説集合データ23を記憶部20に格納する。すなわち、仮説生成部30は、生成部の一例である。
学習部40は、訓練データ21それぞれに対する、仮説集合データ23の仮説集合に含まれる複数の仮説それぞれの成立有無に基づき、複数の仮説それぞれの重みを算出する学習を行う。学習部40は、学習結果により得られた複数の仮説それぞれの重みを重みデータ24として記憶部20に格納する。このようにして得られた仮説集合データ23および重みデータ24が、予測結果を得るための予測モデルである。
予測部50は、仮説集合データ23による仮説集合と、重みデータ24による複数の仮説の重み、すなわち予測モデルを用いて、予測対象である入力データ22の予測結果を生成する処理部である。
具体的には、予測部50は、入力データ22の性質を説明する説明変数をもとに、仮説集合データ23による仮説集合の中から入力データ22に適合する仮説(説明変数の組み合わせが共通する仮説)を求める。なお、この適合する仮説に対応付けられた分類結果(目的変数)が入力データ22の予測結果を示す。次いで、予測部50は、適合する仮説における、重みデータ24が示す仮説における重みをもとに、予測の確度を示す予測スコアを求める。次いで、予測部50は、予測結果、予測の確度を示す予測スコア、および、予測結果と対応付けられた仮説を結果データ25として記憶部20に格納する。
出力部60は、記憶部20に格納された結果データ25を読み出し、ディスプレイやファイルなどに出力する処理部である。これにより、情報処理装置1は、予測部50が予測した予測結果をディスプレイやファイルなどに出力する。
このように、情報処理装置1は、学習装置および予測装置の一例である。なお、本実施形態では学習および予測を一つの情報処理装置1で統合して行う構成を例示するが、学習および予測については、別々の情報処理装置1で実現してもよい。
次に、情報処理装置1の動作例を示しながら、上記の各機能部の処理を詳細に説明する。図2は、実施形態にかかる情報処理装置1の動作例を示すフローチャートである。
図2に示すように、情報処理装置1の動作は、予測モデルを生成する学習時の動作(S1)と、生成した予測モデルを予測対象の入力データ22に適用して予測結果を得る予測時の動作(S2)とがある。まず、学習時の動作(S1)について説明する。
図2に示すように、処理が開始されると、入力部10は、訓練データ21の入力を受け付け(S11)、記憶部20に格納する。
図3は、訓練データの一例を示す説明図である。訓練データ21は、複数の事例ごとの教師付きデータであり、データの性質を説明するA〜Dの説明変数と、+または−への分類結果(正解情報)である目的変数とを含む。なお、以下では、図3に示すように、図14と同様の訓練データ(P〜P、N〜N)を例に説明を行う。
例えば、医療の分野などにおいて、検査データから検査結果を分類する予測モデルを生成するための訓練データ(P〜P、N〜N)の場合、A〜Dの説明変数は検査項目ごとの検査値などに対応する。また、目的変数は、陽性/陰性などの検査結果に対応する。
次いで、仮説生成部30は、訓練データ(P〜P、N〜N)に含まれる説明変数について、それぞれとり得る値(使用しない=*、値=1、値=0)の組み合わせ、すなわち仮説を網羅的に列挙する(S12)。
なお、組み合わせる説明変数の数は、所定の数以下とするように制限(条件)を設けてもよい。例えば、A〜Dの4説明変数の場合、組み合わせる説明変数の数を2以下とする(4説明変数のうち「使用しない=*」とするものを少なくとも2つ組み合わせる)ように制限してもよい。これにより、組み合わせが増大することを事前に抑止できる。
次いで、仮説生成部30は、S12で列挙した組み合わせから所定の組み合わせを選択する(S13)。次いで、仮説生成部30は、訓練データ(P〜P、N〜N)の説明変数および目的変数をもとに、選択した組み合わせが訓練データ(P〜P、N〜N)のいずれかを分類し、特定の条件を満たす有効な組み合わせであるか否かを判定する(S14)。
図4は、仮説の生成を説明する説明図である。図4では、A〜Dの4説明変数の全てが「*」である組み合わせC01からCD(ABは「*」)である組み合わせC09が一例として示されている。
図4に示すように、仮説生成部30は、訓練データ(P〜P、N〜N)の説明変数をもとに、組み合わせC01〜C09それぞれの仮説(ルール)に該当する訓練データ(P〜P、N〜N)を列挙する。
例えば、組み合わせC02のDバー(残り3説明変数は「使用しない=*」)のルールには、訓練データP、N、Nが該当する。この組み合わせC02のルール(Dバー)では、目的変数が+である訓練データ(P)と、目的変数が−である訓練データ(N、N)とが混在している。したがって、組み合わせC02は、あるクラスに分類することを正しく説明する仮説としての可能性が低く、有効な組み合わせとは言えない。
ここで、組み合わせC04のルール(Cバー)には、目的変数が+である訓練データ(P、P、P)が該当する。すなわち、組み合わせC04は、+のクラスに分類される訓練データ(P、P、P)の数または割合が所定の値以上であり、+のクラスに分類することを正しく説明するルールとしての可能性が高い。よって、仮説生成部30は、組み合わせC04(Cバー)を、+のクラスに分類する有効な組み合わせ(仮説)と判定する。同様に、仮説生成部30は、組み合わせC05、C06についても+のクラスに分類する有効な組み合わせ(仮説)と判定する。
また、組み合わせC08のルール(CDバー)には、目的変数が−である訓練データ(N、N)が該当する。すなわち、組み合わせC08は、−のクラスに分類される訓練データ(N、N)の数または割合が所定の値以上であり、−のクラスに分類することを正しく説明するルールとしての可能性が高い。よって、仮説生成部30は、組み合わせC08(CDバー)を、−のクラスに分類する有効な組み合わせ(仮説)と判定する。
有効な組み合わせと判定するための条件である、所定のクラスに分類される訓練データ(P〜P、N〜N)の数または割合は、任意に設定してもよい。例えば、訓練データにはノイズが混じる場合があることから、所定のクラス(例えば+)とは逆のクラス(例えば−)を所定数許容するように設定してもよい。
一例として、訓練データ1つ分のノイズを許容する場合、組み合わせC03(D)については、+のクラスに分類する有効な組み合わせ(仮説)と判定される。同様に、組み合わせC07(C)については、−のクラスに分類する有効な組み合わせ(仮説)と判定される。
図2に戻り、組み合わせが有効でない場合(S14:NO)、仮説生成部30は、選択した組み合わせを仮説集合に加えることなく、S17へ処理を進める。
組み合わせが有効である場合(S14:YES)、仮説生成部30は、選択した組み合わせが仮説集合に含まれる他の仮説の特殊ケースになっているか否かを判定する(S15)。
例えば、図4における組み合わせC05のCバーDと、組み合わせC06のCバーDバーとは、組み合わせC04のCバーに新たなリテラルを付加して作られるものである。このような組み合わせC05、C06について、仮説生成部30は、組み合わせC04のCバーの特殊ケースになっているものと判定する。
特殊ケースになっている場合(S15:YES)、仮説生成部30は、選択した組み合わせを仮説集合に加えることなく、S17へ処理を進める。
図5は、仮説の生成を説明する説明図である。図5に示すように、仮説生成部30は、Cバーの特殊ケースになっている組み合わせ(組み合わせC05、C06)は省略し、Cバーの組み合わせC04aを仮説集合として残すようにする。
特殊ケースになっていない場合(S15:NO)、仮説生成部30は、選択した組み合わせを仮説集合データ23の仮説集合に加える(S16)。次いで、仮説生成部30は、S12で列挙した全ての組み合わせを選択済みであるか否かを判定する(S17)。未選択の組み合わせがある場合(S17:NO)、仮説生成部30はS13へ処理を戻す。
このS13〜S17の処理を繰り返すことで、仮説生成部30は、訓練データ21の目的変数に応じた予測となることを正しく説明している可能性のある仮説をもれなく仮説集合に列挙する。
図6は、仮説の生成を説明する説明図であり、具体的には図4、5の内容をカルノー図例で説明する図である。
図6に示すように、仮説生成部30は、A(残り3説明変数は「使用しない=*」)の組み合わせ(S31)、Aバー(残り3説明変数は「使用しない=*」)の組み合わせ(S32)…の順に組み合わせを変更して有効な組み合わせを検討する(S31〜S35…)。
ここで、S33の(Cバー)の組み合わせでは、目的変数が+である訓練データ(P、P、P)が該当する。すなわち、S33では、+のクラスに分類される訓練データ(P、P、P)の数または割合が所定の値以上である。よって、S33の(Cバー)の組み合わせを+のクラスに分類する有効な組み合わせ(仮説)と判定する。なお、以下の処理では、(Cバー)にリテラルを加える組み合わせは除外する。
次いで、仮説生成部30は、3説明変数を「使用しない=*」とする全ての組み合わせの検討後に、2説明変数を「使用しない=*」とする組み合わせの検討を開始する(S34)。ここで、S35の(AバーB)の組み合わせでは、目的変数が+である訓練データ(P、P)が該当する。すなわち、S35では、+のクラスに分類される訓練データ(P、P)の数または割合が所定の値以上である。よって、S35の(AバーB)の組み合わせを+のクラスに分類する有効な組み合わせ(仮説)と判定する。
図7は、生成された仮説の一例を示す説明図である。図7に示すように、訓練データ(P〜P、N〜N)からは、分類結果が+または−となる仮説H1〜H11の仮説が生成され、仮説集合データ23として記憶部20に格納される。
この仮説H1〜H11のそれぞれは、訓練データ(P〜P、N〜N)の分類結果が+または−となることについて正しく説明していることを要件とする独立した仮説である。よって、仮説H2と、仮説H6のように、相互には矛盾した仮説が含まれる場合がある。
また、訓練データ(P〜P、N〜N)に含まれていない入力データ(IN、IN、IN)については、仮説H1〜H11の中で適合する仮説から予測結果を得ることができる。
図8は、入力データ(IN、IN、IN)に適合する仮説を説明する説明図である。図8に示すように、入力データINについては、仮説H2のCDバー⇒−、仮説H6のBDバー⇒+、仮説H8のAバーB⇒+が適合する仮説である。また、入力データINについては、仮説H4のBバーD⇒+、仮説H5のBバーC⇒−、仮説H7のAバーD⇒+、仮説H9のAバーBバー⇒−が適合する仮説である。また、入力データINについては、仮説H1のCバー⇒+、仮説H7のAバーD⇒+、仮説H8のAバーB⇒+が適合する仮説である。
図2に戻り、未選択の組み合わせがない場合(S17:YES)、学習部40は、訓練データ(P〜P、N〜N)それぞれに対する、仮説集合データ23の仮説集合に含まれる各仮説(H1〜H11)の成立有無に基づき、各仮説(H1〜H11)の重みを算出する(S18)。次いで、学習部40は、算出結果を重みデータ24として記憶部20に格納する。
学習部40における重み算出は、例えば次の3つの手法のいずれであってもよい。
・どのルール(H1〜H11)も重み1(ルールの数による多数決)とする。
・ルール(H1〜H11)を支持(該当)する訓練データ(P〜P、N〜N)の数に応じた重みとする。
・訓練データ(P〜P、N〜N)を適用したロジスティック回帰による重み付けを行う。
図9は、ロジスティック回帰による重み付けを説明する説明図である。ロジスティック回帰では、図9に示すように、モデル式に訓練データ(P〜P、N〜N)適用し、仮説H1〜H11に関する重み(β〜β11)を求める。
ここで、学習部40は、ロジスティック回帰などで得られた各仮説(H1〜H11)の重みに応じて、仮説の選別を行ってもよい。
図10は、仮説の選別を説明する説明図である。図10に示すように、学習部40は、仮説H1〜H11の重み(β〜β11)をもとに、重みが所定値以上であり、予測結果に大きな影響を与える主要な仮説を選別する。図示例では、0ではい重みを有する、Cバー、CDバー、BバーDバー、AバーB、ACの5つの仮説H1〜3、H8、H11を主要な仮説として選別している。
図2に戻り、予測時(S2)の動作について説明する。S2が開始されると、入力部10は、予測対象の入力データ22を受け付けて記憶部20に格納する(S21)。
次いで、予測部50は、入力データ22の性質を説明する説明変数をもとに、仮説集合データ23による仮説集合の中から入力データ22に適合する仮説を特定する(S22)。次いで、予測部50は、重みデータ24を参照し、適合する仮説の重みをもとに、予測の確度を示す予測スコアを求める。次いで、予測部50は、入力データ22に適合する仮説に対応付けられた予測結果、予測スコア、および、入力データ22に適合する仮説などを結果データ25として記憶部20に格納する。次いで、出力部60は、結果データ25を参照することで、入力データ22の予測結果と予測に関連する仮説を示す情報(予測スコア、入力データ22に適合する仮説)をディスプレイやファイルなどに出力する(S23)。
図11は、入力データ(IN、IN、IN)に適合する仮説を説明する説明図である。
図11に示すように、入力データINについては、仮説H2のCDバー⇒−0.04、仮説H8のAバーB⇒+0.50が適合する仮説である。したがって、重み0.50を持つ仮説H8の「AバーB⇒+」により、正例と推定される。ただし、仮説H2の「CDバー⇒−」(重み0.04)もあることから、仮説H2が正しかった場合に、この点が負例である可能性も残っていることを示唆している。
また、入力データINについては、主要な仮説が存在しない。すなわち、訓練データ21のセットは、入力データINに関する推定を行うには十分ではない。
また、入力データINについては、仮説H1のCバー⇒+1.46、仮説H8のAバーB⇒+0.50が適合する仮説である。したがって、重み1.46を持つ仮説H1の「Cバー⇒+」と、重み0.50を持つ仮説H8の「AバーB⇒+」により、どちらにしても正例と推定される。また、訓練データ21のセットでは、入力データINが負例であると推定する根拠は観測されていない。
このように、情報処理装置1では、訓練データ(P〜P、N〜N)以外の点について予測の可能性や、代替の予測、代替の予測を導くルールなどを知ることができる。
図12は、正例である確率の推定値を例示する説明図である。図12に示すように、予測部50は、訓練データ(P〜P、N〜N)より得られた仮説集合データ23、重みデータ24をもとに、各組み合わせについて正例である確率の推定値(P)を求めてもよい。具体的には、L1正規化(λ=0.5)などの条件で、正例である確率の推定値(P:0.5を正例/負例を半々とする)を求めてもよい。
以上のように、情報処理装置1は、仮説生成部30と、学習部40とを有する。仮説生成部30は、それぞれに説明変数および目的変数を有する訓練データ(P〜P、N〜N)から、説明変数の組み合わせにより構成され、訓練データのいずれかを分類し、特定の条件を満たす仮説(H1〜H11)を列挙した仮説集合を生成する。学習部40は、訓練データ(P〜P、N〜N)それぞれに対する、仮説集合に含まれる複数の仮説(H1〜H11)それぞれの成立有無に基づき、複数の仮説それぞれの重みを算出する学習を行う。
これにより、情報処理装置1は、予測対象の入力データ(IN、IN)より、予測の確度を示す予測スコア、および、予測結果に対応付けられた仮説を含む予測結果を生成する予測モデルを得ることができる。したがって、情報処理装置1は、適用フェーズ(S2)において、予測対象の入力データ(IN、IN)に対し、生成した予測モデルを適用することで、予測の確度を示す予測スコア、および、予測結果に対応付けられた仮説、すなわち予測に関する根拠を含む予測結果を示すことができる。
また、仮説集合の生成に関する特定の条件は、リテラルの数が所定の値以下である。これにより、情報処理装置1では、学習の汎化性を高めることができる。
例えば、多くの機械学習技術は、学習対象における各事象の性質がそれぞれ少数の説明変数(特徴量)で説明できることを利用している。多くの説明変数を使った説明は、訓練データ個別の状況に特化したものとなるため、学習結果の汎用性が失われる(過学習と呼ばれる状態)。一つのリテラルは、ある説明変数の値が1(肯定)または0(否定)であることに対応しているため、リテラルの数が所定の値以下である条件は、組み合わせる説明変数を所定の数以下に制限することになり、学習の汎化性を高める効果がある。
また、仮説集合の生成に関する特定の条件は、仮説により分類される訓練データの数または割合が所定の値以上である。これにより、情報処理装置1では、訓練データに含まれるノイズに対して頑健に仮説を生成できる。
例えば、訓練データにはノイズ(説明変数または目的変数の値に誤りを含むもの)が含まれることがある。ノイズを考慮しない場合には、一つ以上の訓練データを含みその全てが正例または負例となるような分類を仮説とすることができる。
これに対し、一定数のノイズがあることを仮定する場合、ただ一つの訓練データから導かれる仮説は、ノイズによる無意味な仮説かもしれない。ただし、一定数以上の訓練データがあれば、それがノイズばかりである可能性は低いため、そこから導かれる仮説は信頼できると考えられる。また、本来のルールに対応している複数の訓練データがあっても、ノイズがあると100%の分類とはならず、仮説を見落としてしまう可能性がある。このような事態を避けるために、ある説明変数の組み合わせにおいて、分類される訓練データの数または割合が所定の値以上であれば仮説として許容してもよい。
また、仮説生成部30は、説明変数の組み合わせの中から特定の条件が成立する組み合わせのみを仮説として列挙する。例えば、特定の条件を満たさない組み合わせも全て仮説として列挙しておき、次の段階において、不要な仮説の重みを0とするように処理する場合と比較すると、不要な仮説を列挙の段階で除去し、特定の条件が成立する組み合わせのみを仮説として列挙することで処理効率を改善することができる。また、処理効率が改善するだけでなく、学習結果、列挙した仮説(仮説集合)を人間が直接理解しやすくもなる。
また、仮説生成部30は、説明変数の組み合わせの中から特定の条件が成立する組み合わせのうち、リテラルの数が極小となる組み合わせのみを仮説として列挙する。例えば、ある仮説が成立する場合、その仮説に新たなリテラルを付加して作られるものも(既に正例または負例で満たされた空間をさらに分割していることになるため)仮説の条件を満たす可能性が高い。そして、新たなリテラルを付加して作られた仮説は、同じ訓練データを同じような形で説明するものであり、リテラルを付加する前の仮説に対して意味が冗長なものとなる。したがって、リテラル数が極小の組み合わせは、最もカバー範囲が広く、範囲を代表する仮説として使用できる。また、人間が理解するためにも有用である。
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
情報処理装置1で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、情報処理装置1で行われる各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
ところで、上記の実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータ(ハードウエア)の一例を説明する。図13は、実施形態にかかる情報処理装置1のハードウエア構成例を説明する説明図である。
図13に示すように、情報処理装置1は、各種演算処理を実行するCPU101と、データ入力を受け付ける入力装置102と、モニタ103と、スピーカ104とを有する。また、情報処理装置1は、記憶媒体からプログラム等を読み取る媒体読取装置105と、各種装置と接続するためのインタフェース装置106と、有線または無線により外部機器と通信接続するための通信装置107とを有する。また、情報処理装置1は、各種情報を一時記憶するRAM108と、ハードディスク装置109とを有する。また、情報処理装置1内の各部(101〜109)は、バス110に接続される。
ハードディスク装置109には、上記の実施形態で説明した各種の処理を実行するためのプログラム111が記憶される。また、ハードディスク装置109には、プログラム111が参照する各種データ112(例えば訓練データ21、入力データ22、仮説集合データ23、重みデータ24および結果データ25)が記憶される。入力装置102は、例えば、情報処理装置1の操作者から操作情報の入力を受け付ける。モニタ103は、例えば、操作者が操作する各種画面を表示する。インタフェース装置106は、例えば印刷装置等が接続される。通信装置107は、LAN(Local Area Network)等の通信ネットワークと接続され、通信ネットワークを介した外部機器との間で各種情報をやりとりする。
CPU101は、ハードディスク装置109に記憶されたプログラム111を読み出して、RAM108に展開して実行することで、入力部10、仮説生成部30、学習部40、予測部50および出力部60に関する各種の処理を行う。なお、プログラム111は、ハードディスク装置109に記憶されていなくてもよい。例えば、情報処理装置1が読み取り可能な記憶媒体に記憶されたプログラム111を、情報処理装置1が読み出して実行するようにしてもよい。情報処理装置1が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラム111を記憶させておき、情報処理装置1がこれらからプログラムを読み出して実行するようにしてもよい。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)それぞれに説明変数および目的変数を有する訓練データから、前記説明変数の組み合わせにより構成され、前記訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合を生成し、
前記訓練データそれぞれに対する、前記仮説集合に含まれる複数の仮説それぞれの成立有無に基づき、前記複数の仮説それぞれの重みを算出する学習を行う、
処理をコンピュータに実行させることを特徴とする学習プログラム。
(付記2)前記特定の条件は、リテラルの数が所定の値以下である、
ことを特徴とする付記1に記載の学習プログラム。
(付記3)前記特定の条件は、前記仮説により分類される訓練データの数または割合が所定の値以上である、
ことを特徴とする付記1または2に記載の学習プログラム。
(付記4)前記生成する処理は、前記説明変数の組み合わせの中から前記特定の条件が成立する組み合わせのみを前記仮説として列挙する、
ことを特徴とする付記1乃至3のいずれか一に記載の学習プログラム。
(付記5)前記生成する処理は、前記説明変数の組み合わせの中から前記特定の条件が成立する組み合わせのうち、リテラルの数が極小となる組み合わせのみを前記仮説として列挙する、
ことを特徴とする付記1乃至4のいずれか一に記載の学習プログラム。
(付記6)予測対象の入力データを受け付け、
それぞれに説明変数および目的変数を有する訓練データから、前記説明変数の組み合わせにより構成され、前記訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合と、前記訓練データそれぞれに対する、前記仮説集合に含まれる複数の仮説それぞれの成立有無に基づき学習した、前記複数の仮説それぞれの重みを用いて、前記入力データの予測結果を生成する処理をコンピュータに実行させ、
前記予測結果は、予測の確度を示す予測スコア、および、当該予測結果に対応付けられた仮説を含む、
ことを特徴とする予測プログラム。
(付記7)それぞれに説明変数および目的変数を有する訓練データから、前記説明変数の組み合わせにより構成され、前記訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合を生成し、
前記訓練データそれぞれに対する、前記仮説集合に含まれる複数の仮説それぞれの成立有無に基づき、前記複数の仮説それぞれの重みを算出する学習を行う、
処理をコンピュータが実行することを特徴とする学習方法。
(付記8)前記特定の条件は、リテラルの数が所定の値以下である、
ことを特徴とする付記7に記載の学習方法。
(付記9)前記特定の条件は、前記仮説により分類される訓練データの数または割合が所定の値以上である、
ことを特徴とする付記7または8に記載の学習方法。
(付記10)前記生成する処理は、前記説明変数の組み合わせの中から前記特定の条件が成立する組み合わせのみを前記仮説として列挙する、
ことを特徴とする付記7乃至9のいずれか一に記載の学習方法。
(付記11)前記生成する処理は、前記説明変数の組み合わせの中から前記特定の条件が成立する組み合わせのうち、リテラルの数が極小となる組み合わせのみを前記仮説として列挙する、
ことを特徴とする付記7乃至10のいずれか一に記載の学習方法。
(付記12)予測対象の入力データを受け付け、
それぞれに説明変数および目的変数を有する訓練データから、前記説明変数の組み合わせにより構成され、前記訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合と、前記訓練データそれぞれに対する、前記仮説集合に含まれる複数の仮説それぞれの成立有無に基づき学習した、前記複数の仮説それぞれの重みを用いて、前記入力データの予測結果を生成する処理をコンピュータが実行し、
前記予測結果は、予測の確度を示す予測スコア、および、当該予測結果に対応付けられた仮説を含む、
ことを特徴とする予測方法。
(付記13)それぞれに説明変数および目的変数を有する訓練データから、前記説明変数の組み合わせにより構成され、前記訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合を生成する生成部と、
前記訓練データそれぞれに対する、前記仮説集合に含まれる複数の仮説それぞれの成立有無に基づき、前記複数の仮説それぞれの重みを算出する学習を行う学習部と、
を有することを特徴とする学習装置。
(付記14)前記特定の条件は、リテラルの数が所定の値以下である、
ことを特徴とする付記13に記載の学習装置。
(付記15)前記特定の条件は、前記仮説により分類される訓練データの数または割合が所定の値以上である、
ことを特徴とする付記13または14に記載の学習装置。
(付記16)前記生成部は、前記説明変数の組み合わせの中から前記特定の条件が成立する組み合わせのみを前記仮説として列挙する、
ことを特徴とする付記13乃至15のいずれか一に記載の学習装置。
(付記17)前記生成部は、前記説明変数の組み合わせの中から前記特定の条件が成立する組み合わせのうち、リテラルの数が極小となる組み合わせのみを前記仮説として列挙する、
ことを特徴とする付記13乃至16のいずれか一に記載の学習装置。
(付記18)予測対象の入力データを受け付ける入力部と、
それぞれに説明変数および目的変数を有する訓練データから、前記説明変数の組み合わせにより構成され、前記訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合と、前記訓練データそれぞれに対する、前記仮説集合に含まれる複数の仮説それぞれの成立有無に基づき学習した、前記複数の仮説それぞれの重みを用いて、前記入力データの予測結果を生成する予測部と、を有し、
前記予測結果は、予測の確度を示す予測スコア、および、当該予測結果に対応付けられた仮説を含む、
ことを特徴とする予測装置。
1…情報処理装置
10…入力部
20…記憶部
21…訓練データ
22…入力データ
23…仮説集合データ
24…重みデータ
25…結果データ
30…仮説生成部
40…学習部
50…予測部
60…出力部
101…CPU
102…入力装置
103…モニタ
104…スピーカ
105…媒体読取装置
106…インタフェース装置
107…通信装置
108…RAM
109…ハードディスク装置
110…バス
111…プログラム
112…各種データ
C01〜C09…組み合わせ
H1〜H11…仮説
IN〜IN…入力データ
〜P…訓練データ
〜N…訓練データ
、R…ルール
、T…決定木

Claims (10)

  1. それぞれに説明変数および目的変数を有する訓練データから、前記説明変数の組み合わせにより構成され、前記訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合を生成し、
    前記訓練データそれぞれに対する、前記仮説集合に含まれる複数の仮説それぞれの成立有無に基づき、前記複数の仮説それぞれの重みを算出する学習を行う、
    処理をコンピュータに実行させることを特徴とする学習プログラム。
  2. 前記特定の条件は、リテラルの数が所定の値以下である、
    ことを特徴とする請求項1に記載の学習プログラム。
  3. 前記特定の条件は、前記仮説により分類される訓練データの数または割合が所定の値以上である、
    ことを特徴とする請求項1または2に記載の学習プログラム。
  4. 前記生成する処理は、前記説明変数の組み合わせの中から前記特定の条件が成立する組み合わせのみを前記仮説として列挙する、
    ことを特徴とする請求項1乃至3のいずれか一項に記載の学習プログラム。
  5. 前記生成する処理は、前記説明変数の組み合わせの中から前記特定の条件が成立する組み合わせのうち、リテラルの数が極小となる組み合わせのみを前記仮説として列挙する、
    ことを特徴とする請求項1乃至4のいずれか一項に記載の学習プログラム。
  6. 予測対象の入力データを受け付け、
    それぞれに説明変数および目的変数を有する訓練データから、前記説明変数の組み合わせにより構成され、前記訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合と、前記訓練データそれぞれに対する、前記仮説集合に含まれる複数の仮説それぞれの成立有無に基づき学習した、前記複数の仮説それぞれの重みを用いて、前記入力データの予測結果を生成する処理をコンピュータに実行させ、
    前記予測結果は、予測の確度を示す予測スコア、および、当該予測結果に対応付けられた仮説を含む、
    ことを特徴とする予測プログラム。
  7. それぞれに説明変数および目的変数を有する訓練データから、前記説明変数の組み合わせにより構成され、前記訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合を生成し、
    前記訓練データそれぞれに対する、前記仮説集合に含まれる複数の仮説それぞれの成立有無に基づき、前記複数の仮説それぞれの重みを算出する学習を行う、
    処理をコンピュータが実行することを特徴とする学習方法。
  8. 予測対象の入力データを受け付け、
    それぞれに説明変数および目的変数を有する訓練データから、前記説明変数の組み合わせにより構成され、前記訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合と、前記訓練データそれぞれに対する、前記仮説集合に含まれる複数の仮説それぞれの成立有無に基づき学習した、前記複数の仮説それぞれの重みを用いて、前記入力データの予測結果を生成する処理をコンピュータが実行し、
    前記予測結果は、予測の確度を示す予測スコア、および、当該予測結果に対応付けられた仮説を含む、
    ことを特徴とする予測方法。
  9. それぞれに説明変数および目的変数を有する訓練データから、前記説明変数の組み合わせにより構成され、前記訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合を生成する生成部と、
    前記訓練データそれぞれに対する、前記仮説集合に含まれる複数の仮説それぞれの成立有無に基づき、前記複数の仮説それぞれの重みを算出する学習を行う学習部と、
    を有することを特徴とする学習装置。
  10. 予測対象の入力データを受け付ける入力部と、
    それぞれに説明変数および目的変数を有する訓練データから、前記説明変数の組み合わせにより構成され、前記訓練データのいずれかを分類し、特定の条件を満たす仮説を列挙した仮説集合と、前記訓練データそれぞれに対する、前記仮説集合に含まれる複数の仮説それぞれの成立有無に基づき学習した、前記複数の仮説それぞれの重みを用いて、前記入力データの予測結果を生成する予測部と、を有し、
    前記予測結果は、予測の確度を示す予測スコア、および、当該予測結果に対応付けられた仮説を含む、
    ことを特徴とする予測装置。
JP2018174275A 2018-09-18 2018-09-18 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置 Active JP7172332B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018174275A JP7172332B2 (ja) 2018-09-18 2018-09-18 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置
US16/566,375 US20200090064A1 (en) 2018-09-18 2019-09-10 Computer-readable recoding medium, learning method, prediction method, learning apparatus, and prediction apparatus
CN201910858365.0A CN110909758A (zh) 2018-09-18 2019-09-11 计算机可读记录介质、学习方法和学习装置
EP19196930.2A EP3627402A1 (en) 2018-09-18 2019-09-12 Learning program, learning method, and learning apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018174275A JP7172332B2 (ja) 2018-09-18 2018-09-18 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置

Publications (2)

Publication Number Publication Date
JP2020046888A true JP2020046888A (ja) 2020-03-26
JP7172332B2 JP7172332B2 (ja) 2022-11-16

Family

ID=67953624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018174275A Active JP7172332B2 (ja) 2018-09-18 2018-09-18 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置

Country Status (4)

Country Link
US (1) US20200090064A1 (ja)
EP (1) EP3627402A1 (ja)
JP (1) JP7172332B2 (ja)
CN (1) CN110909758A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022137386A1 (ja) 2020-12-23 2022-06-30 富士通株式会社 ルール更新プログラム、ルール更新方法およびルール更新装置
WO2022168245A1 (ja) 2021-02-04 2022-08-11 富士通株式会社 精度算出プログラム、精度算出方法および情報処理装置
WO2022190384A1 (ja) 2021-03-12 2022-09-15 富士通株式会社 特徴量選択プログラム、装置、及び方法
WO2022208734A1 (ja) 2021-03-31 2022-10-06 富士通株式会社 情報提示プログラム、情報提示方法および情報提示装置
EP4372626A1 (en) 2022-11-16 2024-05-22 Fujitsu Limited Information processing program, method for processing information, and information processing apparatus

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020103150A1 (de) 2020-02-07 2021-08-12 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH Elektromechanische Zweikreislenkung für ein Nutzfahrzeug
CN115885294A (zh) * 2020-07-31 2023-03-31 富士通株式会社 预测程序、预测方法以及预测装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229026A (ja) * 1999-12-09 2001-08-24 Nec Corp 知識発見方式

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8538904B2 (en) * 2010-11-01 2013-09-17 International Business Machines Corporation Scalable ontology extraction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229026A (ja) * 1999-12-09 2001-08-24 Nec Corp 知識発見方式

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022137386A1 (ja) 2020-12-23 2022-06-30 富士通株式会社 ルール更新プログラム、ルール更新方法およびルール更新装置
WO2022168245A1 (ja) 2021-02-04 2022-08-11 富士通株式会社 精度算出プログラム、精度算出方法および情報処理装置
WO2022190384A1 (ja) 2021-03-12 2022-09-15 富士通株式会社 特徴量選択プログラム、装置、及び方法
WO2022208734A1 (ja) 2021-03-31 2022-10-06 富士通株式会社 情報提示プログラム、情報提示方法および情報提示装置
EP4372626A1 (en) 2022-11-16 2024-05-22 Fujitsu Limited Information processing program, method for processing information, and information processing apparatus

Also Published As

Publication number Publication date
JP7172332B2 (ja) 2022-11-16
US20200090064A1 (en) 2020-03-19
EP3627402A1 (en) 2020-03-25
CN110909758A (zh) 2020-03-24

Similar Documents

Publication Publication Date Title
JP2020046888A (ja) 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置
US20220222353A1 (en) Open source vulnerability remediation tool
Xuan et al. Developer prioritization in bug repositories
US9536200B2 (en) Sentiment analysis of data logs
EP2991003A2 (en) Method and apparatus for classification
US11556747B2 (en) Testing bias checkers
US8655824B1 (en) Global policy framework analyzer
US11630758B2 (en) Artificial intelligence enabled output space exploration for guided test case generation
US10984288B2 (en) Malicious software recognition apparatus and method
US20160026561A1 (en) Resolving nondeterminism in system under test behavior models
Nguyen et al. Similarity-based and rank-based defect prediction
US11989663B2 (en) Prediction method, prediction apparatus, and computer-readable recording medium
Duque-Torres et al. Using source code metrics for predicting metamorphic relations at method level
US9037916B2 (en) Dynamic concolic execution of an application
Glauer et al. Chebifier: automating semantic classification in ChEBI to accelerate data-driven discovery
WO2022024339A1 (ja) 予測プログラム、予測方法および予測装置
WO2021095222A1 (ja) 閾値生成装置、閾値生成方法、及び閾値生成プログラム
US11443210B2 (en) Predicting method, predicting apparatus, and computer-readable recording medium
Hasnain et al. An ontology based test case prioritization approach in regression testing
JP7573548B2 (ja) 特徴ベクトル実現可能性推定
JPWO2020044413A1 (ja) 仮説推論装置、仮説推論方法、及びプログラム
US11797893B2 (en) Machine learning for generating an integrated format data record
US11893362B2 (en) Mobile application development device
US11748075B2 (en) Two-phase application development device
Jandaghi et al. Human-like Time Series Summaries via Trend Utility Estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7172332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150