JP2009301557A - 学習システム - Google Patents
学習システム Download PDFInfo
- Publication number
- JP2009301557A JP2009301557A JP2009170637A JP2009170637A JP2009301557A JP 2009301557 A JP2009301557 A JP 2009301557A JP 2009170637 A JP2009170637 A JP 2009170637A JP 2009170637 A JP2009170637 A JP 2009170637A JP 2009301557 A JP2009301557 A JP 2009301557A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- value
- output
- leaf
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
【解決手段】入力装置1により、ラベルが設定された学習データと終了条件とを入力する。学習部21は、学習アルゴリズムを用いて、仮説を生成する。記憶部33には、そのラベルが設定されていない複数の候補データが格納されている。データ選択部23は、記憶部を参照し、仮説を用いて、複数の候補データの各々に対するスコアを計算し、計算されたスコアに基づいて、候補データの中から第1候補データを選択する。データ更新部24は、ユーザにより決定されたラベルを上記選択された第1候補データに設定し、選択された第1候補データを学習データに付加して学習部に出力する。データ選択処理とデータ更新処理と学習処理とを終了条件を満たすまで繰り返す。終了条件が満たされたとき、制御部22は、学習部により生成された仮説を最終仮説として出力装置4に出力する。
【選択図】図2
Description
学習(能動学習や知識発見)では、クラスまたは関数値を含むラベルが用いられる。クラスは、ある事象の状態の有無を表し、関数値は、ある事象の状態を大きさとして数値で表したものである。能動学習である場合、ラベルは、学習データ、選択された候補データに設定され、知識発見である場合、ラベルは、学習データ、候補データに設定されている。
第1の問題点の理由としては、従来手法のように情報量最大の候補データを選択していると、情報数が少ない候補データが選択されないため、学習データのラベル(クラス、関数値)に属する多様な候補データが得られず、学習アルゴリズムによる学習が困難となるためである。それを防ぐためには、学習アルゴリズムでコストなどを設定する、あるいは候補データを増減させるなどの手法が考えられるが、学習前に適切なコストや適切な候補データの増減を決めるのは難しい。候補データの価値が異なる場合、価値の高い候補データを選択することにより、所望の結果を予測することができる学習システムが望まれる。
第2の問題点の理由としては、候補データを選択するための基準が予めに決められている(情報量最大の候補データを選択する)ために、選択される候補データが偏ってしまい、候補データ全体から反映されるような仮説が生成されないためである。予測精度が安定する学習システムが望まれる。
第3の問題点の理由としては、例えば属性の選択確率を0.5と予め定めた場合、選択される属性数はおよそ半分になるが、実際には不要な属性が多かった場合、対応できない。学習前に適切な属性数を決めるのは難しい。また、学習しながら、属性数を計算(選択確率)により決めるようにするとその計算に時間がかかり計算コストが膨大になる。予測精度が向上する学習システムが望まれる。
創薬のスクリーニングでは、活性化合物(正例)の数が非活性化合物(負例)の数に比べて非常に少ない。従って、情報量最大の候補データを選択していると、上記第2の問題点として、非活性化合物を多く選択してしまい、多様な活性化合物が得られない。
また、実験を通して薬物候補となる活性化合物を発見するために、活性化合物を如何に少ない実験回数で発見するかが重要である。情報量最大という基準では、上記第1の問題点として、効率的に学習(能動学習、知識発見)することができない。このため、より良い仮説を生成すること(所望の結果を予測すること)ができないことがある。
まず、本発明の能動学習システム(50)において、アンサンブル学習としてバギングを用いた場合について説明する。
コンピュータプログラムが格納された記憶部(33)と、
前記コンピュータプログラムを実行する処理装置(5)と、
出力装置(4)と
を具備し、
前記処理装置(5)は、
1つ以上のデータの特徴を示す属性である入力とクラス又は関数値である出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行し(S1)、
前記学習データに対して、入力である複数の属性の中から一部の属性をランダムに選択し、更にランダムに選択された同一の部分属性からなる入力と出力との組であるデータをランダムに選択し、それら選択したデータの入力から出力値を出力するような仮説を、予め定めた学習アルゴリズムを用いて生成するという一連の処理をT回(Tは1以上の整数)行って、T個の仮説を生成する(b)処理を実行し(S21〜S24)、
前記記憶部(33)には、更に、そのラベルが設定されていないデータである複数の候補データが格納され、
前記処理装置(5)は、
前記記憶部(33)に格納された前記複数の候補データのそれぞれのデータの入力に対し、前記T個の仮説を用いてT個の出力値を計算し、出力値が関数値の場合はそれら出力値の平均をそれぞれのデータに対するスコアとし、出力値がクラス値の場合は、予め定めたクラス値となる割合(予め定めたクラス値となる回数をTで除した値)をそれぞれのデータに対するスコアとし、スコアから選択確率を計算するような予め定めた選択関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行し(S4)、
ユーザにより決定されたラベルを前記選択候補データに設定し、ラベル設定候補データとして生成する(d)処理を実行し(S5)、
前記ラベル設定候補データを前記学習データに付加して前記(b)処理を実行する(e)処理を実行し(S5)、
前記終了条件が満たされないとき(S3−NO)、前記(c)、(d)、(e)処理を実行する(f)処理を実行し、
前記終了条件が満たされたとき(S3−YES)、前記(e)処理により生成された前記T個の仮説を前記出力装置(4)に出力する(h)処理を実行する。
コンピュータプログラムが格納された記憶部(33)と、
前記コンピュータプログラムを実行する処理装置(5)と、
出力装置(4)と
を具備し、
前記処理装置(5)は、
1つ以上のデータの特徴を示す属性である入力とクラス又は関数値である出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行し(S1)、
前記学習データに対して、入力である複数の属性の中から一部の属性をランダムに選択し、ランダムに選択された同一の部分属性からなる入力と出力との組であるデータに第1回目は全て同じ重みを割り当て、その重み付けられたデータを用いて入力から出力値を出力するような仮説を、予め定めた学習アルゴリズムを用いて生成し、改めてデータの入力から仮説を用いて出力値を計算し、元の出力値と違いがあれば重みを重くし、元の出力値と違いのあるデータ数に応じて仮説に対する重要度を設定するという一連の処理をT回(Tは1以上の整数)行って、T個の仮説を生成する(b)処理を実行し(S21〜S24)、
前記記憶部(33)には、更に、そのラベルが設定されていないデータである複数の候補データが格納され、
前記処理装置(5)は、
前記記憶部(33)に格納された前記複数の候補データのそれぞれのデータに対し、T個の仮説を用いてT個の出力値を計算し、出力値が関数値の場合はそれら出力値に対し仮説に対する重要度を重みとして重み付き平均を計算してそれぞれのデータに対するスコアとし、出力値がクラス値の場合は、予め定めたクラス値となる重み付き回数(予め定めたクラス値となると重要度を加算してから全重要度で除した値)をそれぞれのデータに対するスコアとし、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行し(S4)、
ユーザにより決定されたラベルを前記選択候補データに設定し、ラベル設定候補データとして生成する(d)処理を実行し(S5)、
前記ラベル設定候補データを前記学習データに付加して前記(b)処理を実行する(e)処理を実行し(S5)、
前記終了条件が満たされないとき(S3−NO)、前記(c)、(d)、(e)処理を実行する(f)処理を実行し、
前記終了条件が満たされたとき(S3−YES)、前記(e)処理により生成された前記T個の仮説を前記出力装置(4)に出力する(h)処理を実行する。
コンピュータプログラムが格納された記憶部(33)と、
前記コンピュータプログラムを実行する処理装置(5)と、
出力装置(4)と
を具備し、
前記処理装置(5)は、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行し(S1)、
前記学習データに対して、入力である複数の属性の中から一部の属性をランダムに選択し、更にランダムに選択された同一の属性からなる入力と出力との組であるデータをランダムに選択し、それら選択したデータの入力から出力値を出力するような仮説である決定木を、予め定めた決定木生成アルゴリズムを用いて生成し、決定木のそれぞれの葉に対してその葉に該当した前記選択データのうちで予め定めたクラスであるデータ数の割合(葉に該当し予め定めたクラスである前記選択データ数/葉に該当した前記選択データ数)、あるいは、その割合をなました値((葉に該当し予め定めたクラスである前記選択データ数+1)/(葉に該当した前記選択データ数+2))を葉の値として計算し、データに対する出力値をそのデータが該当した葉の値とするという一連の処理をT回(Tは1以上の整数)行って、T個の仮説を生成する(b)処理を実行し(S21〜S24)、
前記記憶部(33)には、更に、そのラベルが設定されていないデータである複数の候補データが格納され、
前記処理装置(5)は、
前記記憶部(33)に格納された前記複数の候補データのそれぞれのデータの入力に対し、T個の決定木に対して、T個の出力値を計算し、それら出力値の平均をそれぞれのデータに対するスコアとし、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行し(S4)、
ユーザにより決定されたラベルを前記選択候補データに設定し、ラベル設定候補データとして生成する(d)処理を実行し(S5)、
前記ラベル設定候補データを前記学習データに付加して前記(b)処理を実行する(e)処理を実行し(S5)、
前記終了条件が満たされないとき(S3−NO)、前記(c)、(d)、(e)処理を実行する(f)処理を実行し、
前記終了条件が満たされたとき(S3−YES)、前記(e)処理により生成された前記T個の仮説を前記出力装置(4)に出力する(h)処理を実行する。
コンピュータプログラムが格納された記憶部(33)と、
前記コンピュータプログラムを実行する処理装置(5)と、
出力装置(4)と
を具備し、
前記処理装置(5)は、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行し(S1)、
前記学習データに対して、入力に対する出力値を表す決定木を、予め定めた決定木生成アルゴリズムを用いて生成し、決定木のそれぞれの葉に対してその葉に該当した前記選択データのうちで予め定めたクラスであるデータ数の割合(葉に該当し予め定めたクラスである前記選択データ数/葉に該当した前記選択データ数)、あるいは、その割合をなました値((葉に該当し予め定めたクラスである前記選択データ数+1)/(葉に該当した前記選択データ数+2)など)を葉の値として計算し、データに対する出力値をそのデータが該当した葉の値とした仮説を生成する(b)処理を実行し(S21〜S24)、
前記記憶部(33)には、更に、そのラベルが設定されたデータである複数の候補データが格納され、
前記処理装置(5)は、
前記記憶部(33)に格納された前記複数の候補データそれぞれのデータの入力に対し、葉の値という出力値をそれぞれのデータに対するスコアとして計算し、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行し(S4)、
前記選択候補データを前記学習データに付加して前記(b)処理を実行する(d)処理を実行し(S5)、
前記終了条件が満たされないとき(S3−NO)、前記(c)、(d)処理を実行する(e)処理を実行し、
前記終了条件が満たされたとき(S3−YES)、前記(d)処理により生成された前記仮説を前記出力装置(4)に出力する(g)処理を実行する。
コンピュータプログラムが格納された記憶部(33)と、
前記コンピュータプログラムを実行する処理装置(5)と、
出力装置(4)と
を具備し、
前記処理装置(5)は、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行し(S1)、
前記学習データに対して、入力である複数の属性の中から一部の属性をランダムに選択し、ランダムに選択された同一の部分属性からなる入力と出力との組であるデータに第1回目は全て同じ重みを割り当て、その重み付けられたデータを用いて入力から出力値を出力するような仮説を、予め定めた学習アルゴリズムを用いて生成し、改めてデータの入力から仮説を用いて出力値を計算し、元の出力値と違いがあれば重みを重くし、元の出力値と違いのあるデータ数に応じて仮説に対する重要度を設定するという一連の処理をT回(Tは1以上の整数)行って、T個の仮説を生成する(b)処理を実行し(S21〜S24)、
前記記憶部(33)には、更に、そのラベルが設定されたデータである複数の候補データが格納され、
前記処理装置(5)は、
前記記憶部(33)に格納された前記複数の候補データのそれぞれのデータに対し、T個の仮説を用いてT個の出力値を計算し、出力値が関数値の場合はそれら出力値に対し仮説に対する重要度を重みとして重み付き平均を計算してそれぞれのデータに対するスコアとし、出力値がクラス値の場合は、予め定めたクラス値となる重み付き回数(予め定めたクラス値となると重要度を加算してから全重要度で除した値)をそれぞれのデータに対するスコアとし、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行し(S4)、
前記選択候補データを前記学習データに付加して前記(b)処理を実行する(d)処理を実行し(S5)、
前記終了条件が満たされないとき(S3−NO)、前記(c)、(d)処理を実行する(f)処理を実行し、
前記終了条件が満たされたとき(S3−YES)、前記(d)処理により生成された前記T個の仮説を前記出力装置(4)に出力する(g)処理を実行する。
コンピュータプログラムが格納された記憶部(33)と、
前記コンピュータプログラムを実行する処理装置(5)と、
出力装置(4)と
を具備し、
前記処理装置(5)は、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行し(S1)、
前記学習データに対して、入力である複数の属性の中から一部の属性をランダムに選択し、更にランダムに選択された同一の属性からなる入力と出力との組であるデータをランダムに選択し、それら選択したデータの入力から出力値を出力するような仮説である決定木を、予め定めた決定木生成アルゴリズムを用いて生成し、決定木のそれぞれの葉に対してその葉に該当した前記選択データのうちで予め定めたクラスであるデータ数の割合(葉に該当し予め定めたクラスである前記選択データ数/葉に該当した前記選択データ数)、あるいは、その割合をなました値((葉に該当し予め定めたクラスである前記選択データ数+1)/(葉に該当した前記選択データ数+2))を葉の値として計算し、データに対する出力値をそのデータが該当した葉の値とするという一連の処理をT回(Tは1以上の整数)行って、T個の仮説を生成する(b)処理を実行し(S21〜S24)、
前記記憶部(33)には、更に、そのラベルが設定されたデータである複数の候補データが格納され、
前記処理装置(5)は、
前記記憶部(33)に格納された前記複数の候補データのそれぞれのデータの入力に対し、T個の決定木に対して、T個の出力値を計算し、それら出力値の平均をそれぞれのデータに対するスコアとし、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行し(S4)、
前記選択候補データを前記学習データに付加して前記(b)処理を実行する(d)処理を実行し(S5)、
前記終了条件が満たされないとき(S3−NO)、前記(c)、(d)処理を実行する(e)処理を実行し、
前記終了条件が満たされたとき(S3−YES)、前記(d)処理により生成された前記T個の仮説を前記出力装置(4)に出力する(g)処理を実行する。
(第1実施形態)
図1は、本発明の第1実施形態に係る学習システムとして能動学習システム50の構成を示すブロック図である。本発明の能動学習システム50は、入力装置1と、データ処理装置5と、出力装置4とを具備する。データ処理装置5はコンピュータであり、データ処理装置5には、入力装置1と出力装置4とが接続されている。出力装置4としては表示装置、印刷装置が例示される。
アンサンブル学習を行う場合、学習部21は、予め決められたリサンプリング回数分だけ上記の学習処理を繰り返して複数の仮説を得る。
本実施例では、候補データ記憶部33は、上記大容量メモリとしてメモリ7と分けられてデータ処理装置5に備えられているが、候補データの数が少ない場合、CPU6が高速に計算できるため、メモリ7内に設けられてもよい。この場合、メモリ7の記憶部3は、更に、候補データ記憶部33を具備する。
ここでは、アンサンブル学習としてバギングを用いて説明を行うが、本発明はブースティングなどの他のアンサンブル学習に適用してもよい。アンサンブル学習を行う場合、リサンプリング回数をTとし、上記の学習処理をT回繰り返して複数の仮説としてT個の仮説を得る。
また、下位学習アルゴリズムによる学習は、アンサンブル学習としてバギングを用いる場合には独立に行うことができるので、並列に実行することも可能である。
また、学習データとして、属性が少な過ぎる、あるいは全ての属性が重要であると類推されているなど不要な属性を減らす必要が無い場合には、上記のステップS23を省くことができる。
複数の候補データが前述のアンバランスなデータである場合、本発明の能動学習システム50では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、情報数が少ない候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
複数の候補データが前述の価値の異なるデータである場合、本発明の能動学習システム50では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、価値の高い候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
本発明の能動学習システム50では、第1候補データを選択するための基準が予めに決められているわけではない(必ずしも情報量最大の候補データを選択するわけではない)ために、選択される候補データ(第1候補データ)が偏ることはない。つまり、学習がある程度進んで、候補データに対するスコアが類似してきた場合、予めに決められたスコアを選択したのでは、例えば決定木のある部分木のデータばかりが選択される可能性があるが、本発明の能動学習システム50では、確率的に選択しているので、適切にばらついて選択データ(選択される候補データ)が偏ることが無くデータ空間から一様にデータが選択され、解の不安定さを防ぐことができる。このため、候補データ全体から反映されるような仮説を生成することができ、予測精度が安定する。
本発明の能動学習システム50では、学習データをリサンプリングすることに加えて、学習データの属性もリサンプリングするため、不要な属性を除くことができる。これにより、データや不要な属性数に依存する最適な選択確率が幾つであっても、ある程度カバーすることができ、予測精度が向上する。また、属性数が少なくなることにより計算効率が向上するため、予測精度が向上する。元の属性数と同数だけリサンプリングすると、平均的には属性の約6割が選択されることになるが、前述した従来の手法のように5割などと予め定めて5割の属性をランダムに選択した場合よりも広く分散させることができる。
このように、本発明の能動学習システム50では、部分データと不要な属性を除いた部分属性とにより学習データを学習し複数の仮説を生成した場合、従来の手法よりも迅速に所望の結果を予測することができ、予測精度が向上する。
学習部21は、ステップS1にて、活性の有無が明らかになっている学習データと、決定木を学習するアルゴリズム(下位学習アルゴリズム)と、終了条件とを受け取り、学習処理(ステップS2)にて、現時点のデータ、すなわち、学習データからサンプリングにより生成した複数の部分サンプルを、決定木の下位学習アルゴリズムに学習させ、複数の決定木を得る。
次に、制御部22は、ステップS3にて終了条件を満たしているかを判定し、満たしているなら、得られた複数の決定木を出力装置4に出力し、終了する。
満たしていなければ、データ選択部23は、データ選択処理(ステップS4)にて、候補データ記憶部33に格納された複数の候補データに対して、得られた複数の決定木の各々の正例スコアを上述した手法で計算し平均を取る。こうして計算された複数の候補データに対するスコアに応じて予め定めた選択関数に従って選択する第1候補データを決める。
選択された第1候補データのラベルが化合物の活性実験などで確定された場合、データ更新部25は、データ更新処理(ステップS5)にて、入力装置1から入力されたラベルを第1候補データに設定する。データ更新部25は、そのラベル付き選択データ(第1候補データ)を学習データに追加し、候補データ記憶部33からその選択データを削除する。学習部21は、第1候補データが追加された学習データにより能動学習を続行する。
本発明の第2実施形態に係る学習システムでは、本発明の第1実施形態に係る学習システム(能動学習システム50)と重複する説明を省略する。図5は、本発明の第2実施形態に係る学習システムとして知識発見システム60の構成を示すブロック図である。知識発見システム60のデータ処理部2は、能動学習システム50のデータ処理部2のデータ更新部24に代えて、データ更新部25を具備する。
次に、データ処理部2のデータ更新部25は、データ更新処理を行う(ステップS6)。
複数の候補データが前述のアンバランスなデータである場合、本発明の知識発見システム60では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、情報数が少ない候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
複数の候補データが前述の価値の異なるデータである場合、本発明の知識発見システム60では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、価値の高い候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
本発明の知識発見システム60では、第1候補データを選択するための基準が予めに決められているわけではない(必ずしも情報量最大の候補データを選択するわけではない)ために、選択される候補データ(第1候補データ)が偏ることはない。つまり、学習がある程度進んで、候補データに対するスコアが類似してきた場合、予めに決められたスコアを選択したのでは、例えば決定木のある部分木のデータばかりが選択される可能性があるが、本発明の知識発見システム60では、確率的に選択しているので、適切にばらついて選択データ(選択される候補データ)が偏ることが無くデータ空間から一様にデータが選択され、解の不安定さを防ぐことができる。このため、候補データ全体から反映されるような仮説を生成することができ、予測精度が安定する。
本発明の知識発見システム60では、学習データをリサンプリングすることに加えて、学習データの属性もリサンプリングするため、不要な属性を除くことができる。これにより、データや不要な属性数に依存する最適な選択確率が幾つであっても、ある程度カバーすることができ、予測精度が向上する。また、属性数が少なくなることにより計算効率が向上するため、予測精度が向上する。元の属性数と同数だけリサンプリングすると、平均的には属性の約6割が選択されることになるが、前述した従来の手法のように5割などと予め定めて5割の属性をランダムに選択した場合よりも広く分散させることができる。
このように、本発明の知識発見システム60では、部分データと不要な属性を除いた部分属性とにより学習データを学習し複数の仮説を生成した場合、従来の手法よりも迅速に所望の結果を予測することができ、予測精度が向上する。
学習部21は、ステップS1にて、活性の有無が明らかになっている学習データと、決定木を学習するアルゴリズム(下位学習アルゴリズム)と、終了条件とを受け取り、学習処理(ステップS2)にて、現時点のデータ、すなわち、学習データからサンプリングにより生成した複数の部分サンプルを、決定木の下位学習アルゴリズムに学習させ、複数の決定木を得る。
次に、制御部22は、ステップS3にて終了条件を満たしているかを判定し、満たしているなら、得られた複数の決定木を出力装置4に出力し、終了する。
満たしていなければ、データ選択部23は、データ選択処理(ステップS4)にて、候補データ記憶部33に格納された複数の候補データに対して、得られた複数の決定木の各々の正例スコアを上述した手法で計算し平均を取る。こうして計算された複数の候補データに対するスコアに応じて予め定めた選択関数に従って選択する第1候補データを決める。
能動学習システム50とは異なり、複数の候補データのラベルは既に既知である。このため、第1候補データのラベルも既に既知である。データ更新部25は、データ更新処理(ステップS5)にて、そのラベル付き選択データ(第1候補データ)を学習データとし、候補データ記憶部33からその選択データを削除する。学習部21は、学習データ(第1候補データ)により知識発見を続行する。
2 データ処理部
3 記憶部
4 出力装置
5 データ処理装置
6 CPU
7 メモリ
21 学習部
22 制御部
23 データ選択部
24 データ更新部
25 データ更新部
31 リサンプリングデータ記憶部
32 学習データ記憶部
33 候補データ記憶部
Claims (9)
- コンピュータプログラムが格納された記憶部と、
前記コンピュータプログラムを実行する処理装置と、
出力装置と
を具備し、
前記処理装置は、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行し、
前記学習データに対して、入力に対する出力値を表す決定木を、予め定めた決定木生成アルゴリズムを用いて生成し、決定木のそれぞれの葉に対してその葉に該当した前記選択データのうちで予め定めたクラスであるデータ数の割合(葉に該当し予め定めたクラスである前記選択データ数/葉に該当した前記選択データ数)、あるいは、その割合をなました値((葉に該当し予め定めたクラスである前記選択データ数+1)/(葉に該当した前記選択データ数+2)など)を葉の値として計算し、データに対する出力値をそのデータが該当した葉の値とした仮説を生成する(b)処理を実行し、
前記記憶部には、更に、そのラベルが設定されたデータである複数の候補データが格納され、
前記処理装置は、
前記記憶部に格納された前記複数の候補データそれぞれのデータの入力に対し、葉の値という出力値をそれぞれのデータに対するスコアとして計算し、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行し、
前記選択候補データを前記学習データに付加して前記(b)処理を実行する(d)処理を実行し、
前記終了条件が満たされないとき、前記(c)、(d)処理を実行する(e)処理を実行し、
前記終了条件が満たされたとき、前記(d)処理により生成された前記仮説を前記出力装置に出力する(g)処理を実行する
知識発見システム。 - コンピュータプログラムが格納された記憶部と、
前記コンピュータプログラムを実行する処理装置と、
出力装置と
を具備し、
前記処理装置は、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行し、
前記学習データに対して、入力である複数の属性の中から一部の属性をランダムに選択し、ランダムに選択された同一の部分属性からなる入力と出力との組であるデータに第1回目は全て同じ重みを割り当て、その重み付けられたデータを用いて入力から出力値を出力するような仮説を、予め定めた学習アルゴリズムを用いて生成し、改めてデータの入力から仮説を用いて出力値を計算し、元の出力値と違いがあれば重みを重くし、元の出力値と違いのあるデータ数に応じて仮説に対する重要度を設定するという一連の処理をT回(Tは1以上の整数)行って、T個の仮説を生成する(b)処理を実行し、
前記記憶部には、更に、そのラベルが設定されたデータである複数の候補データが格納され、
前記処理装置は、
前記記憶部に格納された前記複数の候補データのそれぞれのデータに対し、T個の仮説を用いてT個の出力値を計算し、出力値が関数値の場合はそれら出力値に対し仮説に対する重要度を重みとして重み付き平均を計算してそれぞれのデータに対するスコアとし、出力値がクラス値の場合は、予め定めたクラス値となる重み付き回数(予め定めたクラス値となると重要度を加算してから全重要度で除した値)をそれぞれのデータに対するスコアとし、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行し、
前記選択候補データを前記学習データに付加して前記(b)処理を実行する(d)処理を実行し、
前記終了条件が満たされないとき、前記(c)、(d)処理を実行する(f)処理を実行し、
前記終了条件が満たされたとき、前記(d)処理により生成された前記T個の仮説を前記出力装置に出力する(g)処理を実行する
知識発見システム。 - コンピュータプログラムが格納された記憶部と、
前記コンピュータプログラムを実行する処理装置と、
出力装置と
を具備し、
前記処理装置は、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行し、
前記学習データに対して、入力である複数の属性の中から一部の属性をランダムに選択し、更にランダムに選択された同一の属性からなる入力と出力との組であるデータをランダムに選択し、それら選択したデータの入力から出力値を出力するような仮説である決定木を、予め定めた決定木生成アルゴリズムを用いて生成し、決定木のそれぞれの葉に対してその葉に該当した前記選択データのうちで予め定めたクラスであるデータ数の割合(葉に該当し予め定めたクラスである前記選択データ数/葉に該当した前記選択データ数)、あるいは、その割合をなました値((葉に該当し予め定めたクラスである前記選択データ数+1)/(葉に該当した前記選択データ数+2))を葉の値として計算し、データに対する出力値をそのデータが該当した葉の値とするという一連の処理をT回(Tは1以上の整数)行って、T個の仮説を生成する(b)処理を実行し、
前記記憶部には、更に、そのラベルが設定されたデータである複数の候補データが格納され、
前記処理装置は、
前記記憶部に格納された前記複数の候補データのそれぞれのデータの入力に対し、T個の決定木に対して、T個の出力値を計算し、それら出力値の平均をそれぞれのデータに対するスコアとし、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行し、
前記選択候補データを前記学習データに付加して前記(b)処理を実行する(d)処理を実行し、
前記終了条件が満たされないとき、前記(c)、(d)処理を実行する(e)処理を実行し、
前記終了条件が満たされたとき、前記(d)処理により生成された前記T個の仮説を前記出力装置に出力する(g)処理を実行する
知識発見システム。 - コンピュータプログラムが格納された記憶部と、前記コンピュータプログラムを実行する処理装置とを具備するコンピュータを用いる学習方法であって、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行するステップと、
前記学習データに対して、入力に対する出力値を表す決定木を、予め定めた決定木生成アルゴリズムを用いて生成し、決定木のそれぞれの葉に対してその葉に該当した前記選択データのうちで予め定めたクラスであるデータ数の割合(葉に該当し予め定めたクラスである前記選択データ数/葉に該当した前記選択データ数)、あるいは、その割合をなました値((葉に該当し予め定めたクラスである前記選択データ数+1)/(葉に該当した前記選択データ数+2)など)を葉の値として計算し、データに対する出力値をそのデータが該当した葉の値とした仮説を生成する(b)処理を実行するステップと、前記記憶部には、そのラベルが設定されたデータである複数の候補データが格納され、
前記記憶部に格納された前記複数の候補データそれぞれのデータの入力に対し、葉の値という出力値をそれぞれのデータに対するスコアとして計算し、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行するステップと、
前記選択候補データを前記学習データに付加して前記(b)処理を実行する(d)処理を実行するステップと、
前記終了条件が満たされないとき、前記(c)、(d)処理を実行する(e)処理を実行するステップと、
前記終了条件が満たされたとき、前記(d)処理により生成された前記仮説を前記出力装置に出力する(g)処理を実行するステップと
を具備する学習方法。 - コンピュータプログラムが格納された記憶部と、前記コンピュータプログラムを実行する処理装置とを具備するコンピュータを用いる学習方法であって、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行するステップと、
前記学習データに対して、入力である複数の属性の中から一部の属性をランダムに選択し、ランダムに選択された同一の部分属性からなる入力と出力との組であるデータに第1回目は全て同じ重みを割り当て、その重み付けられたデータを用いて入力から出力値を出力するような仮説を、予め定めた学習アルゴリズムを用いて生成し、改めてデータの入力から仮説を用いて出力値を計算し、元の出力値と違いがあれば重みを重くし、元の出力値と違いのあるデータ数に応じて仮説に対する重要度を設定するという一連の処理をT回(Tは1以上の整数)行って、T個の仮説を生成する(b)処理を実行するステップと、前記記憶部には、そのラベルが設定されたデータである複数の候補データが格納され、
前記記憶部に格納された前記複数の候補データのそれぞれのデータに対し、T個の仮説を用いてT個の出力値を計算し、出力値が関数値の場合はそれら出力値に対し仮説に対する重要度を重みとして重み付き平均を計算してそれぞれのデータに対するスコアとし、出力値がクラス値の場合は、予め定めたクラス値となる重み付き回数(予め定めたクラス値となると重要度を加算してから全重要度で除した値)をそれぞれのデータに対するスコアとし、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行するステップと、
前記選択候補データを前記学習データに付加して前記(b)処理を実行する(d)処理を実行するステップと、
前記終了条件が満たされないとき、前記(c)、(d)処理を実行する(f)処理を実行するステップと、
前記終了条件が満たされたとき、前記(d)処理により生成された前記T個の仮説を前記出力装置に出力する(g)処理を実行するするステップと
を具備する学習方法。 - コンピュータプログラムが格納された記憶部と、前記コンピュータプログラムを実行する処理装置とを具備するコンピュータを用いる学習方法であって、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行するステップと、
前記学習データに対して、入力である複数の属性の中から一部の属性をランダムに選択し、更にランダムに選択された同一の属性からなる入力と出力との組であるデータをランダムに選択し、それら選択したデータの入力から出力値を出力するような仮説である決定木を、予め定めた決定木生成アルゴリズムを用いて生成し、決定木のそれぞれの葉に対してその葉に該当した前記選択データのうちで予め定めたクラスであるデータ数の割合(葉に該当し予め定めたクラスである前記選択データ数/葉に該当した前記選択データ数)、あるいは、その割合をなました値((葉に該当し予め定めたクラスである前記選択データ数+1)/(葉に該当した前記選択データ数+2))を葉の値として計算し、データに対する出力値をそのデータが該当した葉の値とするという一連の処理をT回(Tは1以上の整数)行って、T個の仮説を生成する(b)処理を実行するステップと、前記記憶部には、そのラベルが設定されたデータである複数の候補データが格納され、
前記記憶部に格納された前記複数の候補データのそれぞれのデータの入力に対し、T個の決定木に対して、T個の出力値を計算し、それら出力値の平均をそれぞれのデータに対するスコアとし、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行するステップと、
前記選択候補データを前記学習データに付加して前記(b)処理を実行する(d)処理を実行するステップと、
前記終了条件が満たされないとき、前記(c)、(d)処理を実行する(e)処理を実行するステップと、
前記終了条件が満たされたとき、前記(d)処理により生成された前記T個の仮説を前記出力装置に出力する(g)処理を実行するするステップと
を具備する学習方法。 - コンピュータプログラムが格納された記憶部と、前記コンピュータプログラムを実行する処理装置とを具備するコンピュータを用いる学習方法を、前記コンピュータに実行させる学習プログラムであって、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行するステップと、
前記学習データに対して、入力に対する出力値を表す決定木を、予め定めた決定木生成アルゴリズムを用いて生成し、決定木のそれぞれの葉に対してその葉に該当した前記選択データのうちで予め定めたクラスであるデータ数の割合(葉に該当し予め定めたクラスである前記選択データ数/葉に該当した前記選択データ数)、あるいは、その割合をなました値((葉に該当し予め定めたクラスである前記選択データ数+1)/(葉に該当した前記選択データ数+2)など)を葉の値として計算し、データに対する出力値をそのデータが該当した葉の値とした仮説を生成する(b)処理を実行するステップと、前記記憶部には、そのラベルが設定されたデータである複数の候補データが格納され、
前記記憶部に格納された前記複数の候補データそれぞれのデータの入力に対し、葉の値という出力値をそれぞれのデータに対するスコアとして計算し、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行するステップと、
前記選択候補データを前記学習データに付加して前記(b)処理を実行する(d)処理を実行するステップと、
前記終了条件が満たされないとき、前記(c)、(d)処理を実行する(e)処理を実行するステップと、
前記終了条件が満たされたとき、前記(d)処理により生成された前記仮説を前記出力装置に出力する(g)処理を実行するステップと
の各ステップを前記コンピュータに実行させる学習プログラム。 - コンピュータプログラムが格納された記憶部と、前記コンピュータプログラムを実行する処理装置とを具備するコンピュータを用いる学習方法を、前記コンピュータに実行させる学習プログラムであって、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行するステップと、
前記学習データに対して、入力である複数の属性の中から一部の属性をランダムに選択し、ランダムに選択された同一の部分属性からなる入力と出力との組であるデータに第1回目は全て同じ重みを割り当て、その重み付けられたデータを用いて入力から出力値を出力するような仮説を、予め定めた学習アルゴリズムを用いて生成し、改めてデータの入力から仮説を用いて出力値を計算し、元の出力値と違いがあれば重みを重くし、元の出力値と違いのあるデータ数に応じて仮説に対する重要度を設定するという一連の処理をT回(Tは1以上の整数)行って、T個の仮説を生成する(b)処理を実行するステップと、前記記憶部には、そのラベルが設定されたデータである複数の候補データが格納され、
前記記憶部に格納された前記複数の候補データのそれぞれのデータに対し、T個の仮説を用いてT個の出力値を計算し、出力値が関数値の場合はそれら出力値に対し仮説に対する重要度を重みとして重み付き平均を計算してそれぞれのデータに対するスコアとし、出力値がクラス値の場合は、予め定めたクラス値となる重み付き回数(予め定めたクラス値となると重要度を加算してから全重要度で除した値)をそれぞれのデータに対するスコアとし、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行するステップと、
前記選択候補データを前記学習データに付加して前記(b)処理を実行する(d)処理を実行するステップと、
前記終了条件が満たされないとき、前記(c)、(d)処理を実行する(f)処理を実行するステップと、
前記終了条件が満たされたとき、前記(d)処理により生成された前記T個の仮説を前記出力装置に出力する(g)処理を実行するするステップと
の各ステップを前記コンピュータに実行させる学習プログラム。 - コンピュータプログラムが格納された記憶部と、前記コンピュータプログラムを実行する処理装置とを具備するコンピュータを用いる学習方法を、前記コンピュータに実行させる学習プログラムであって、
1つ以上のデータの特徴を示す属性である入力とクラスである出力との組で表現され、且つ、その出力の具体的な値を示すラベルが設定された学習データと、終了条件とを入力する(a)処理を実行するステップと、
前記学習データに対して、入力である複数の属性の中から一部の属性をランダムに選択し、更にランダムに選択された同一の属性からなる入力と出力との組であるデータをランダムに選択し、それら選択したデータの入力から出力値を出力するような仮説である決定木を、予め定めた決定木生成アルゴリズムを用いて生成し、決定木のそれぞれの葉に対してその葉に該当した前記選択データのうちで予め定めたクラスであるデータ数の割合(葉に該当し予め定めたクラスである前記選択データ数/葉に該当した前記選択データ数)、あるいは、その割合をなました値((葉に該当し予め定めたクラスである前記選択データ数+1)/(葉に該当した前記選択データ数+2))を葉の値として計算し、データに対する出力値をそのデータが該当した葉の値とするという一連の処理をT回(Tは1以上の整数)行って、T個の仮説を生成する(b)処理を実行するステップと、前記記憶部には、そのラベルが設定されたデータである複数の候補データが格納され、
前記記憶部に格納された前記複数の候補データのそれぞれのデータの入力に対し、T個の決定木に対して、T個の出力値を計算し、それら出力値の平均をそれぞれのデータに対するスコアとし、スコアから選択確率を計算するような予め定めた関数を用いて、前記複数の候補データの中から、選択候補データを選択する(c)処理を実行するステップと、
前記選択候補データを前記学習データに付加して前記(b)処理を実行する(d)処理を実行するステップと、
前記終了条件が満たされないとき、前記(c)、(d)処理を実行する(e)処理を実行するステップと、
前記終了条件が満たされたとき、前記(d)処理により生成された前記T個の仮説を前記出力装置に出力する(g)処理を実行するするステップと
の各ステップを前記コンピュータに実行させる学習プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009170637A JP5126694B2 (ja) | 2009-07-21 | 2009-07-21 | 学習システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009170637A JP5126694B2 (ja) | 2009-07-21 | 2009-07-21 | 学習システム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003338793A Division JP2005107743A (ja) | 2003-09-29 | 2003-09-29 | 学習システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009301557A true JP2009301557A (ja) | 2009-12-24 |
JP5126694B2 JP5126694B2 (ja) | 2013-01-23 |
Family
ID=41548332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009170637A Expired - Fee Related JP5126694B2 (ja) | 2009-07-21 | 2009-07-21 | 学習システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5126694B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058095A (ja) * | 2011-09-08 | 2013-03-28 | Sony Corp | 情報処理装置、推定機生成方法、及びプログラム |
US20170004306A1 (en) * | 2015-06-30 | 2017-01-05 | Iyuntian Co., Ltd. | Method, apparatus and terminal for detecting a malware file |
WO2024105824A1 (ja) * | 2022-11-16 | 2024-05-23 | 富士通株式会社 | バイアス評価プログラム、装置、及び方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11316754A (ja) * | 1998-05-06 | 1999-11-16 | Nec Corp | 実験計画法及び実験計画プログラムを記録した記録媒体 |
JP2001229026A (ja) * | 1999-12-09 | 2001-08-24 | Nec Corp | 知識発見方式 |
JP2005107743A (ja) * | 2003-09-29 | 2005-04-21 | Nec Corp | 学習システム |
-
2009
- 2009-07-21 JP JP2009170637A patent/JP5126694B2/ja not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11316754A (ja) * | 1998-05-06 | 1999-11-16 | Nec Corp | 実験計画法及び実験計画プログラムを記録した記録媒体 |
JP2001229026A (ja) * | 1999-12-09 | 2001-08-24 | Nec Corp | 知識発見方式 |
JP2005107743A (ja) * | 2003-09-29 | 2005-04-21 | Nec Corp | 学習システム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058095A (ja) * | 2011-09-08 | 2013-03-28 | Sony Corp | 情報処理装置、推定機生成方法、及びプログラム |
US20170004306A1 (en) * | 2015-06-30 | 2017-01-05 | Iyuntian Co., Ltd. | Method, apparatus and terminal for detecting a malware file |
JP2017016626A (ja) * | 2015-06-30 | 2017-01-19 | 安一恒通(北京)科技有限公司 | 悪質な脆弱性のあるファイルを検出する方法、装置及び端末 |
US10176323B2 (en) * | 2015-06-30 | 2019-01-08 | Iyuntian Co., Ltd. | Method, apparatus and terminal for detecting a malware file |
WO2024105824A1 (ja) * | 2022-11-16 | 2024-05-23 | 富士通株式会社 | バイアス評価プログラム、装置、及び方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5126694B2 (ja) | 2013-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005107743A (ja) | 学習システム | |
KR102107378B1 (ko) | 하이퍼파라미터 자동 최적화 방법 및 그 장치 | |
US11468366B2 (en) | Parallel development and deployment for machine learning models | |
US11423082B2 (en) | Methods and apparatus for subgraph matching in big data analysis | |
Aydin et al. | Learning sparse models for a dynamic Bayesian network classifier of protein secondary structure | |
JP7215077B2 (ja) | 予測プログラム、予測方法及び予測装置 | |
JP6470165B2 (ja) | サーバ、システム及び探索方法 | |
JP6751376B2 (ja) | 最適解探索方法、最適解探索プログラム及び最適解探索装置 | |
US7636706B2 (en) | Parameter adjustment device | |
KR20210124109A (ko) | 정보 처리, 정보 추천의 방법과 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품 | |
Faerman et al. | Lasagne: Locality and structure aware graph node embedding | |
Trinh et al. | A novel constrained genetic algorithm-based Boolean network inference method from steady-state gene expression data | |
JP5126694B2 (ja) | 学習システム | |
WO2022166125A1 (en) | Recommendation system with adaptive weighted baysian personalized ranking loss | |
Bouzbita et al. | Hidden Markov model classifier for the adaptive ACS-TSP Pheromone parameters | |
Wang et al. | Lnetwork: an efficient and effective method for constructing phylogenetic networks | |
JP6743902B2 (ja) | マルチタスク関係学習システム、方法およびプログラム | |
CN111126443A (zh) | 基于随机游走的网络表示学习方法 | |
WO2011016281A2 (ja) | ベイジアンネットワーク構造学習のための情報処理装置及びプログラム | |
Ni et al. | Models and algorithm for the orienteering problem in a fuzzy environment | |
JP2016207136A (ja) | モデル推定システム、モデル推定方法およびモデル推定プログラム | |
US11868885B2 (en) | Learning device, inference device, learning method, and inference method using a transformation matrix generated from learning data | |
WO2021226709A1 (en) | Neural architecture search with imitation learning | |
Meng et al. | Learning non-stationary dynamic Bayesian network structure from data stream | |
Zhao et al. | CDSFM: a circular distributed SGLD-based factorization machines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120717 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121005 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121018 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151109 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |