JP2019200618A - 作成装置、作成方法、および作成プログラム - Google Patents
作成装置、作成方法、および作成プログラム Download PDFInfo
- Publication number
- JP2019200618A JP2019200618A JP2018094927A JP2018094927A JP2019200618A JP 2019200618 A JP2019200618 A JP 2019200618A JP 2018094927 A JP2018094927 A JP 2018094927A JP 2018094927 A JP2018094927 A JP 2018094927A JP 2019200618 A JP2019200618 A JP 2019200618A
- Authority
- JP
- Japan
- Prior art keywords
- time
- classifier
- learning
- data
- classification criteria
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/24765—Rule-based classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】分類基準の時間発展を考慮して、ラベルなし学習データを用いて分類精度が維持された分類器を作成する。【解決手段】学習部13が、過去の所定の時点までに収集されたラベルあり学習データと、該所定の時点以降に収集されたラベルなし学習データとを用いて、各時点における分類器の分類基準を学習し、該分類基準の時系列変化を学習し、分類器作成部14が、学習された分類基準と時系列変化とを用いて、未来の時点を含む任意の時点の分類器の分類基準と該分類基準の信頼性を表す確信度とを予測し、入力されたデータの属性を表すラベルを出力する分類器を作成する。【選択図】図1
Description
本発明は、作成装置、作成方法、および作成プログラムに関する。
機械学習において、あるデータが入力された場合に、そのデータの属性を表すラベルを出力する分類器が知られている。例えば、データとして新聞記事が分類器に入力された場合に、政治、経済、あるいはスポーツ等のラベルが出力される。分類器は、各ラベルのデータの特徴に基づいてデータの分類を行う。学習用のデータ(以下、学習データとも記す。)とこの学習データのラベルとを組み合わせたラベルありデータ(以下、ラベルあり学習データとも記す。)を用いて、データの特徴を学習させることにより、分類器の学習すなわち作成が行われる。
分類器における分類の基準値である分類基準は、時間経過とともに変化する場合がある。例えば、スパムメールの作成者は、分類器をすり抜けるために、常に新しい特徴を有するスパムメールを作成している。そのため、スパムメールの分類基準は時間経過とともに変化して、分類器の分類精度が大きく低下してしまう。
例えば、スパムメールか、それ以外かにメールを分類する二値問題を解く分類器では、メールの単語を解析して、該当する単語を含む場合にスパムメールと判定する。スパムメールに該当する単語は時間経過とともに変化するため、対応しないとメールを誤分類してしまう場合がある。
このような分類器の分類精度の経時劣化を防止するためには、分類基準が更新された分類器の作成(以下、分類器の更新とも記す。)を行う必要がある。そこで、ラベルあり学習データを継続的に収集し、収集された最新のラベルあり学習データを用いて分類器を更新する技術が知られている。しかしながら、ラベルあり学習データは、各学習データに人手でラベルが付与されたものであるため、収集コストが高く、継続的な収集は困難である。
そこで、ラベルあり学習データを追加せずに、予め与えられた過去のラベルあり学習データから、分類基準の時間発展を学習し、未来に適した分類基準を予測することにより、分類器の経時劣化を抑止する技術が開示されている(非特許文献1,2参照)。また、学習データとして、ラベルが付与されていないために収集コストの低いデータ(以下、ラベルなしデータ、またはラベルなし学習データとも記す。)を追加して、分類器の更新を行う技術が開示されている(非特許文献3,4参照)。
Atsutoshi Kumagai, Tomoharu Iwata, "Learning Future Classifiers without Additional Data", AAAI, 2016年
Atsutoshi Kumagai, Tomoharu Iwata, "Learning Non-Linear Dynamics of Decision Boundaries for Maintaining Classification Performance", AAAI, 2017年
Atsutoshi Kumagai, Tomoharu Iwata, "Learning Latest Classifiers without Additional Labeled Data", IJCAI, 2017年
Karl B Dyer, Robert Capo, Robi Polikar, "Compose: A Semisupervised Learning Framework for Initially Labeled Nonstationary Streaming Data", IEEE Transactions on Neural Networks and Learning Systems, vol.25, NO.1, 2014年, pp.12-26
しかしながら、一般に分類器の分類基準の未来予測は困難であり、必ずしも分類精度が高くなるとは限らない。また、ラベルなし学習データによる分類器の更新では、分類精度が低下する場合がある。
本発明は、上記に鑑みてなされたものであって、分類基準の時間発展を考慮して、ラベルなし学習データを用いて分類精度が維持された分類器を作成することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る作成装置は、入力されたデータの属性を表すラベルを出力する分類器を作成する作成装置であって、過去の所定の時点までに収集された、ラベルが付与されたデータと、該所定の時点以降に収集された、ラベルが付与されていないデータとを学習データとして用いて、各時点における分類器の分類基準を学習する分類器学習部と、該分類基準の時系列変化を学習する時系列変化学習部と、学習された前記分類基準と前記時系列変化とを用いて、未来の時点を含む任意の時点の分類器の分類基準と該分類基準の信頼性とを予測する予測部と、を備えることを特徴とする。
本発明によれば、分類基準の時間発展を考慮して、ラベルなし学習データを用いて分類精度が維持された分類器を作成することができる。
[第1の実施形態]
以下、図面を参照して、本発明の一実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
以下、図面を参照して、本発明の一実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[作成装置の構成]
まず、図1を参照して、本実施形態に係る作成装置の概略構成を説明する。本実施形態に係る作成装置1は、ワークステーションやパソコン等の汎用コンピュータで実現され、後述する作成処理を実行して、入力されたデータの属性を表すラベルを出力する分類器を作成する。
まず、図1を参照して、本実施形態に係る作成装置の概略構成を説明する。本実施形態に係る作成装置1は、ワークステーションやパソコン等の汎用コンピュータで実現され、後述する作成処理を実行して、入力されたデータの属性を表すラベルを出力する分類器を作成する。
なお、図1に示すように、本実施形態の作成装置1は、作成処理を行う作成部10に加え、分類処理を行う分類部20を有する。分類部20は、作成部10により作成された分類器を用いてデータを分類してラベルを出力する分類処理を行う。分類部20は、作成部10と同一のハードウェアに実装されてもよいし、異なるハードウェアに実装されてもよい。
[作成部]
作成部10は、学習データ入力部11、データ変換部12、学習部13、分類器作成部14、および分類器格納部15を有する。
作成部10は、学習データ入力部11、データ変換部12、学習部13、分類器作成部14、および分類器格納部15を有する。
学習データ入力部11は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部に対して各種指示情報を入力する。本実施形態において、学習データ入力部11は、作成処理に用いられるラベルあり学習データおよびラベルなし学習データを受け付ける。
ここで、ラベルあり学習データとは、データの属性を表すラベルが付与された学習データを意味する。例えば、学習データがテキストである場合、政治、経済、あるいはスポーツ等のテキストの内容を表すラベルが付与される。また、ラベルなし学習データとは、ラベルが付与されていない学習データを意味する。
また、ラベルあり学習データおよびラベルなし学習データには、時刻情報が付与されている。時刻情報とは、例えば、学習データがテキストである場合、テキストが発刊された日時等を意味する。本実施形態では、現在までの過去の異なる時刻情報が付与された、複数のラベルあり学習データおよび複数のラベルなし学習データが受け付けられる。
なお、ラベルあり学習データは、NIC(Network Interface Card)等で実現される図示しない通信制御部を介して、外部のサーバ装置等から作成部10に入力されてもよい。
制御部は、処理プログラムを実行するCPU(Central Processing Unit)等を用いて実現され、データ変換部12、学習部13、および分類器作成部14として機能する。
データ変換部12は、後述する学習部13における処理の準備として、受け付けられたラベルあり学習データを、収集時刻、特徴ベクトル、および数値ラベルの組み合わせのデータに変換する。また、データ変換部12は、ラベルなし学習データを、収集時刻および特徴ベクトルの組み合わせのデータに変換する。以下の作成部10の処理におけるラベルあり学習データおよびラベルなし学習データは、データ変換部12による変換後のデータを意味する。
ここで、数値ラベルとは、ラベルあり学習データに付与されているラベルが数値に変換されたものである。また、収集時刻とは、学習データが収集された時刻を示す時刻情報である。また、特徴ベクトルとは、受け付けられたラベルあり学習データの特徴をn次元の数ベクトルで表記したものである。機械学習における汎用手法により学習データが変換される。例えば、学習データがテキストである場合には、形態素解析、n−gram、または区切り文字により変換される。
学習部13は、分類器学習部として機能して、過去の所定の時点までに収集された、ラベルが付与されたデータと、該所定の時点以降に収集された、ラベルが付与されていないデータとを学習データとして用いて、各時点における分類器の分類基準を学習する。また、学習部13は、時系列変化学習部として機能して、該分類基準の時系列変化を学習する。本実施形態において、学習部13は、分類器学習部としての分基準の学習と、時系列変化学習部としての時系列変化の学習とを並列して行う。
具体的には、学習部13は、t1〜tLまでの収集時刻が付与されたラベルあり学習データと、tL+1〜tL+Uまでの収集時刻が付与されたラベルなし学習データとを用いて、分類器の分類基準の学習と分類基準の時系列変化の学習とを同時に行う。本実施形態において、分類器であるラベルが付与される事象が所定の確率分布で発生するものとして、分類器のモデルにロジスティック回帰が適用される。なお、分類器のモデルはロジスティック回帰に限定されず、サポートベクターマシン、ブースティング等でもよい。
また、本実施形態において、分類器の分類基準の時系列変化を表す時系列モデルには、Gaussian Processesが適用される。なお、時系列モデルはGaussian Processesに限定されず、VAR model等のモデルでもよい。
まず、時刻tにおけるラベルあり学習データを、次式(1)のように表すことにする。なお、本実施形態において、ラベルは0,1の2つの離散値としているが、ラベルが3つ以上の場合や連続値の場合にも、本実施形態を適用可能である。
また、ラベルあり学習データの全体を、次式(2)のように表すことにする。
また、時刻tにおけるラベルなし学習データを、次式(3)のように表すことにする。
また、ラベルなし学習データの全体を、次式(4)のように表すことにする。
この場合に、ロジスティック回帰が適用された分類器において、特徴ベクトルxn tのラベルyn tが1である確率は、次式(5)で表される。
時刻tにおける分類器のパラメタのd成分wtdは、非線形関数fdを用いて次式(6)により記述されるものと仮定する。ここで、d=1〜Dである。
また、非線形関数fdの事前分布は、Gaussian Processesに従うものとする。すなわち、次式(7)に示す時刻t=t1〜tL+Uの各時点における非線形関数fdの値は、次式(8)に示すガウス分布から生成されるものと仮定する。
ここで、この共分散行列の各成分は、次式(9)で表される。
上記のkdは任意のカーネル関数で定義され得るが、本実施形態において、次式(10)に示すカーネル関数で定義される。
この場合に、次式(11)に示す時刻t=t1〜tL+Uの分類器のパラメタ(d成分)の確率分布は、次式(12)で表される。
この共分散行列の成分は、次式(13)に示すカーネル関数cdで定義される。
この場合に、次式(14)に示す分類器の分類基準Wと、分類基準の時系列変化(ダイナミクス)を表す次式(15)に示すパラメタθとを学習するための同時分布の確率モデルは、次式(16)で定義される。
次に、上記式(16)で定義される確率モデルをもとに、データから事後分布を近似して与えるいわゆる変分ベイズ法を用いて、ラベルあり学習データが与えられた場合に分類基準Wの分類器(以下、分類器Wとも記す。)が得られる確率とダイナミクスパラメータθとを推定する。変分ベイズ法において、次式(17)に示す関数を最大化することにより、所望のWの分布すなわちq(W)とダイナミクスパラメータθとが得られる。
ただし、上記式(17)に示した関数は、ラベルなし学習データには依存しない。そこで、本実施形態では、ラベルなし学習データを活用するために、分類器の決定境界がデータ密度の低い領域を通ることを推奨するよう、次式(18)に示すEntropy minimization principleを適用する。
上記式(18)のRtをwtに関して最小化することで、wtが時刻tのラベルなし学習データのデータ密度の低い領域を通るように学習される。すなわち、本実施形態の最適化問題は、次式(19)に示す最適化問題を解くことになる。
最適化問題の解を求めるために、まずq(W)が、次式(20)に示すように、因数分解できるものと仮定する。
また、q(wt)が、次式(21)に示すように、ガウス分布の関数形で表されるものと仮定する。
その場合に、q(W)は、次式(22)に示すガウス分布の関数形で表されることがわかる。
ここで、μtdおよびλtdは、次式(23)に示す更新式を用いて推定される。
時刻tの分布q(wt)は、正則化項R(w)をReparameterization Trickを用いて近似した、次式(24)に示す目的関数を最大化することで得ることができる。この最大化は、例えば準ニュートン法を用いることで、数値的に実行可能である。
また、ダイナミクスパラメータθは、準ニュートン法を用いて更新される。準ニュートン法において、次式(25)に示す下限Lのθに関する項とθに関する微分とが用いられる。
学習部13は、上記の更新式を用いて、所定の収束条件が満たされるまで、q(W)の更新とθの更新とを交互に繰り返すことにより、所望のパラメタを推定できる。所定の収束条件とは、例えば、予め定められた更新回数を超えること、あるいは、パラメタの変化量がある一定値以下になること等を意味する。
分類器作成部14は、未来の時点を含む任意の時点の分類器の分類基準と分類基準の信頼性とを予測する予測部として機能する。具体的には、分類器作成部14は、学習部13が学習した分類器の分類基準と分類基準の時系列変化とを用いて、未来の時刻t*の分類器の分類基準の予測と、予測された分類基準の信頼性を表す確信度とを導出する。
分類器のモデルにロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにGaussian Processesが適用された場合には、時刻t*>tL+Uにおいて分類器Wが得られる確率分布は、次式(26)で表される。なお、時刻t*≦tL+Uにおいては、q(wt*)を適用すればよい。
これにより、分類器作成部14は、任意の時刻の予測された分類基準の分類器を、その予測の確信度とともに得ることができる。分類器作成部14は、予測された分類器の分類基準と確信度とを分類器格納部15に格納する。
分類器格納部15は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、作成された未来の時刻の分類器の分類基準と確信度とを格納する。格納形式は特に限定されず、例えば、MySQLやPostgreSQL等のデータベース形式、表形式、またはテキスト形式等が例示される。
[分類部]
分類部20は、データ入力部21、データ変換部22、分類部23、および分類結果出力部24を有し、上述したように、作成部10により作成された分類器を用いてデータを分類してラベルを出力する分類処理を行う。
分類部20は、データ入力部21、データ変換部22、分類部23、および分類結果出力部24を有し、上述したように、作成部10により作成された分類器を用いてデータを分類してラベルを出力する分類処理を行う。
データ入力部21は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部に対して各種指示情報を入力したり、分類処理対象のデータを受け付けたりする。ここで受け付けられる分類処理対象のデータには、ある時点の時刻情報が付与されている。データ入力部21は、学習データ入力部11と同一のハードウェアでもよい。
制御部は、処理プログラムを実行するCPU等を用いて実現され、データ変換部22と分類部23とを有する。
データ変換部22は、作成部10のデータ変換部12と同様に、データ入力部21が受け付けた分類処理対象のデータを収集時刻および特徴ベクトルの組み合わせに変換する。ここで、分類処理対象のデータには、ある時点の時刻情報が付与されているため、収集時刻と時刻情報とが同一となる。
分類部23は、分類器格納部15を参照し、分類処理対象のデータの収集時刻と同時刻の分類器とその確信度とを用いて、データの分類処理を行う。例えば、上記のように分類器のモデルにロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにGaussian Processesが適用された場合には、次式(27)により、当該データxのラベルyが1である確率が得られる。分類部23は、得られた確率が予め設定された所定の閾値以上であれば、ラベル=1とし、該閾値より小さい場合には、ラベル=0とする。
分類結果出力部24は、液晶ディスプレイなどの表示装置、プリンター等の印刷装置、情報通信装置等によって実現され、分類処理の結果を操作者に対して出力する。例えば、入力されたデータに対するラベルを出力したり、入力されたデータにラベルを付与して出力したりする。
[作成処理]
次に、図2を参照して、作成装置1の作成部10による作成処理について説明する。図2は、本実施形態の作成処理手順を例示するフローチャートである。図2のフローチャートは、例えば、ユーザによる作成処理の開始を指示する操作入力があったタイミングで開始される。
次に、図2を参照して、作成装置1の作成部10による作成処理について説明する。図2は、本実施形態の作成処理手順を例示するフローチャートである。図2のフローチャートは、例えば、ユーザによる作成処理の開始を指示する操作入力があったタイミングで開始される。
まず、学習データ入力部11が、時刻情報が付与されたラベルあり学習データおよびラベルなし学習データを受け付ける(ステップS1)。次に、データ変換部12が、受け付けたラベルあり学習データを、収集時刻、特徴ベクトルおよび数値ラベルの組み合わせのデータに変換する。また、データ変換部12が、受け付けたラベルなし学習データを、収集時刻および特徴ベクトルの組み合わせのデータに変換する(ステップS2)。
次に、学習部13が、時刻tまでの分類器の分類基準と分類器の時系列変化を表す時系列モデルとを学習する(ステップS3)。例えば、ロジスティック回帰モデルのパラメタwtと、Gaussian Processesのパラメタθとが、同時に求められる。
次に、分類器作成部14が、任意の時刻tの分類器の分類基準を確信度とともに予測して分類器を作成する(ステップS4)。例えば、ロジスティック回帰モデルおよびGaussian Processesが適用された分類器について、任意の時刻tの分類器のパラメタwtおよび確信度が求められる。
最後に、分類器作成部14が、作成した分類器の分類基準および確信度を分類器格納部15に格納する(ステップS5)。
[分類処理]
次に図3を参照して作成装置1の分類部20による分類処理について説明する。図3のフローチャートは、例えば、ユーザによる分類処理の開始を指示する操作入力があったタイミングで開始される。
次に図3を参照して作成装置1の分類部20による分類処理について説明する。図3のフローチャートは、例えば、ユーザによる分類処理の開始を指示する操作入力があったタイミングで開始される。
まず、データ入力部21が、時刻tの分類処理対象のデータを受け付け(ステップS6)、データ変換部22が、受け付けたデータを収集時刻、特徴ベクトルの組み合わせのデータに変換する(ステップS7)。
次に、分類部23が、分類器格納部15を参照して、受け付けたデータの収集時刻の分類器とともにその確信度を用いてデータの分類処理を行う(ステップS8)。そして、分類結果出力部24が、分類結果の出力すなわち分類されたデータのラベルの出力を行う(ステップS9)。
以上、説明したように、本実施形態の作成装置1では、学習部13が、過去の所定の時点までに収集されたラベルあり学習データと、該所定の時点以降に収集されたラベルなし学習データとを用いて、各時点における分類器の分類基準と、該分類基準の時系列変化とを学習し、分類器作成部14が、学習された分類基準と時系列変化とを用いて未来の時点を含む任意の時点の分類器の分類基準と分類基準の信頼性とを予測する。
すなわち、図4に例示するように、入力された現在までの収集時刻t=t1〜tLのラベルあり学習データDLと、収集時刻t=tL+1〜tL+Uのラベルなし学習データDUとを用いて、学習部13が、時刻t=t1〜tL+Uの分類器ht(h1、h2、…,hL,hL+1,…,hL+U)の分類基準と、分類基準の時系列変化すなわちダイナミクスを表す時系列モデルとを学習する。
図4に示した例では、時刻t=t1〜tLにおいて収集された、y=0のラベルあり学習データと、y=1のラベルあり学習データと、時刻t=t1〜tL+Uにおいて収集されたラベルなし学習データとを用いて、分類基準と、分類基準の時系列変化とが学習されている。そして、分類器作成部14が、未来の任意の時刻tの分類基準htと予測された分類基準htの確信度とを予測して、任意の時刻tの分類器htを作成する。
これにより、本実施形態の作成装置1における作成部10の作成処理によれば、ラベルあり学習データの収集時点以降に収集されたラベルなし学習データを用いて、ラベルあり学習データのみから学習された分類基準の時間発展を補正することができる。また、ラベルあり学習データと収集コストの低いラベルなし学習データとを用いて、未来の分類基準を確信度とともに予測する。したがって、予測される分類基準の確信度を考慮して分類器を選択して用いることにより、分類器の分類精度の低下を抑止して、高精度に分類を行うことが可能となる。このように、作成装置1の作成処理によれば、分類基準の時間発展を考慮して、ラベルなし学習データを用いて分類精度が維持された分類器を作成することができる。
また、特に分類器の分類基準と分類基準の時系列変化とを同時に学習する場合には、例えば、ラベルあり学習データの数が少ない場合にも、分類器の分類基準と分類基準の時系列変化とを別々に学習する場合より、安定した学習を行うことができる。
なお、本発明の作成処理は、ラベルを離散値とした分類問題に限定されず、ラベルを実数値とした回帰問題としてもよい。これにより、多様な分類器の未来の分類基準を予測することができる。
また、ラベルあり学習データおよびラベルなし学習データの過去の収集時刻は、一定の離散的な時間間隔で連続していなくてもよい。例えば、上記実施形態のように、分類器の分類基準の時系列変化を表す時系列モデルにGaussian Processesを適用した場合、離散的な時間間隔が不均一であっても、分類器を作成できる。
[第2の実施形態]
上記の第1の実施形態の学習部13は、分類器学習部13aと時系列モデル学習部13bとに分離されてもよい。図5は、第2の実施形態の作成装置1の概略構成を例示する図である。本実施形態は、上記の第1の実施形態の学習部13による処理を、分類器学習部13aおよび時系列モデル学習部13bが分担して行う点においてのみ異なる。本実施形態では、分類器学習部13aによる分類基準の学習の後、時系列モデル学習部13bによる時系列変化の学習が行われる。その他の点については、第1の実施形態と同一であるので、説明を省略する。
上記の第1の実施形態の学習部13は、分類器学習部13aと時系列モデル学習部13bとに分離されてもよい。図5は、第2の実施形態の作成装置1の概略構成を例示する図である。本実施形態は、上記の第1の実施形態の学習部13による処理を、分類器学習部13aおよび時系列モデル学習部13bが分担して行う点においてのみ異なる。本実施形態では、分類器学習部13aによる分類基準の学習の後、時系列モデル学習部13bによる時系列変化の学習が行われる。その他の点については、第1の実施形態と同一であるので、説明を省略する。
なお、本実施形態において、上記第1の実施形態と同様に、分類器のモデルにはロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにはGaussian Processesが適用される。なお、時系列モデルはGaussian Processesに限定されず、VAR model等のモデルでもよい。
図6は、本実施形態の作成処理手順を例示するフローチャートである。上記した第1の実施形態とは、ステップS31の処理およびステップS32の処理のみが異なる。
ステップS31の処理では、分類器学習部13aは、収集時刻t=t1〜tLのラベルあり学習データと収集時刻t=tL+1〜tL+Uのラベルなし学習データとを用いて、任意の時刻tの分類器の分類基準を学習する。例えば、ロジスティック回帰モデルの時刻tにおけるパラメタwtが求められる。
ステップS32の処理では、時系列モデル学習部13bが、分類器学習部13aにより得られた時刻tまでの分類器の分類基準を用いて、該分類基準の時系列変化を表す時系列モデルを学習する。例えば、Gaussian Processesのパラメタθが求められる。
このように、本実施形態の作成装置1では、分類器の分類基準と分類基準の時系列変化とが別々に学習される。これにより、例えば、ラベルあり学習データおよびラベルなし学習データの数が多い場合にも、分類器の分類基準と分類基準の時系列変化とを同時に学習する場合より、各機能部の処理負荷を軽くして、短時間で処理することが可能となる。
[プログラム]
上記実施形態に係る作成装置1が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。一実施形態として、作成装置1は、パッケージソフトウェアやオンラインソフトウェアとして上記の作成処理を実行する作成プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の作成プログラムを情報処理装置に実行させることにより、情報処理装置を作成装置1として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末、さらには、PDA(Personal Digital Assistants)などのスレート端末などがその範疇に含まれる。また、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の作成処理に関するサービスを提供するサーバ装置として作成装置1を実装することもできる。例えば、作成装置1は、ラベルあり学習データを入力とし、分類器を出力する作成処理サービスを提供するサーバ装置として実装される。この場合、作成装置1は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の作成処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。以下に、作成装置1と同様の機能を実現する作成プログラムを実行するコンピュータの一例を説明する。
上記実施形態に係る作成装置1が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。一実施形態として、作成装置1は、パッケージソフトウェアやオンラインソフトウェアとして上記の作成処理を実行する作成プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の作成プログラムを情報処理装置に実行させることにより、情報処理装置を作成装置1として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末、さらには、PDA(Personal Digital Assistants)などのスレート端末などがその範疇に含まれる。また、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の作成処理に関するサービスを提供するサーバ装置として作成装置1を実装することもできる。例えば、作成装置1は、ラベルあり学習データを入力とし、分類器を出力する作成処理サービスを提供するサーバ装置として実装される。この場合、作成装置1は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の作成処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。以下に、作成装置1と同様の機能を実現する作成プログラムを実行するコンピュータの一例を説明する。
図7は、作成プログラムを実行するコンピュータ1000の一例を示す図である。コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1051およびキーボード1052が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1061が接続される。
ここで、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各情報は、例えばハードディスクドライブ1031やメモリ1010に記憶される。
また、作成プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、ハードディスクドライブ1031に記憶される。具体的には、上記実施形態で説明した作成装置1が実行する各処理が記述されたプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。
また、作成プログラムによる情報処理に用いられるデータは、プログラムデータ1094として、例えば、ハードディスクドライブ1031に記憶される。そして、CPU1020が、ハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、作成プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、作成プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
以上、本発明者によってなされた発明を適用した実施形態について説明したが、本実施形態による本発明の開示の一部をなす記述および図面により本発明は限定されることはない。すなわち、本実施形態に基づいて当業者等によりなされる他の実施形態、実施例および運用技術等は全て本発明の範疇に含まれる。
1 作成装置
10 作成部
11 学習データ入力部
12 データ変換部
13 学習部
13a 分類器学習部
13b 時系列モデル学習部
14 分類器作成部
15 分類器格納部
20 分類部
21 データ入力部
22 データ変換部
23 分類部
24 分類結果出力部
10 作成部
11 学習データ入力部
12 データ変換部
13 学習部
13a 分類器学習部
13b 時系列モデル学習部
14 分類器作成部
15 分類器格納部
20 分類部
21 データ入力部
22 データ変換部
23 分類部
24 分類結果出力部
Claims (6)
- 入力されたデータの属性を表すラベルを出力する分類器を作成する作成装置であって、
過去の所定の時点までに収集された、ラベルが付与されたデータと、該所定の時点以降に収集された、ラベルが付与されていないデータとを学習データとして用いて、各時点における分類器の分類基準を学習する分類器学習部と、
該分類基準の時系列変化を学習する時系列変化学習部と、
学習された前記分類基準と前記時系列変化とを用いて、未来の時点を含む任意の時点の分類器の分類基準と該分類基準の信頼性とを予測する予測部と、
を備えることを特徴とする作成装置。 - 前記データは、離散的な時間間隔が不均一なデータであることを特徴とする請求項1に記載の作成装置。
- 前記時系列変化学習部は、前記分類器学習部による前記分類基準の学習と並列して、前記時系列変化を学習することを特徴とする請求項1または2に記載の作成装置。
- 前記時系列変化学習部は、前記分類器学習部による前記分類基準の学習の後、前記時系列変化を学習することを特徴とする請求項1または2に記載の作成装置。
- 入力されたデータの属性を表すラベルを出力する分類器を作成する作成装置で実行される作成方法であって、
過去の所定の時点までに収集された、ラベルが付与されたデータと、該所定の時点以降に収集された、ラベルが付与されていないデータとを学習データとして用いて、各時点における分類器の分類基準を学習する分類器学習工程と、
該分類基準の時系列変化を学習する時系列変化学習工程と、
学習された前記分類基準と前記時系列変化とを用いて、未来の時点を含む任意の時点の分類器の分類基準と該分類基準の信頼性とを予測する予測工程と、
を含んだことを特徴とする作成方法。 - コンピュータに、
過去の所定の時点までに収集された、ラベルが付与されたデータと、該所定の時点以降に収集された、ラベルが付与されていないデータとを学習データとして用いて、各時点における分類器の分類基準を学習する分類器学習ステップと、
該分類基準の時系列変化を学習する時系列変化学習ステップと、
学習された前記分類基準と前記時系列変化とを用いて、未来の時点を含む任意の時点の分類器の分類基準と該分類基準の信頼性とを予測する予測ステップと、
を実行させることを特徴とする作成プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018094927A JP2019200618A (ja) | 2018-05-16 | 2018-05-16 | 作成装置、作成方法、および作成プログラム |
PCT/JP2019/019399 WO2019221206A1 (ja) | 2018-05-16 | 2019-05-15 | 作成装置、作成方法、および作成プログラム |
US17/051,458 US20210232861A1 (en) | 2018-05-16 | 2019-05-15 | Creation device, creation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018094927A JP2019200618A (ja) | 2018-05-16 | 2018-05-16 | 作成装置、作成方法、および作成プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019200618A true JP2019200618A (ja) | 2019-11-21 |
Family
ID=68540256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018094927A Pending JP2019200618A (ja) | 2018-05-16 | 2018-05-16 | 作成装置、作成方法、および作成プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210232861A1 (ja) |
JP (1) | JP2019200618A (ja) |
WO (1) | WO2019221206A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022097034A (ja) * | 2020-12-18 | 2022-06-30 | 株式会社日立製作所 | 審査支援システム、及び審査支援方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017130835A1 (ja) * | 2016-01-27 | 2017-08-03 | 日本電信電話株式会社 | 作成装置、作成方法、および作成プログラム |
WO2017188048A1 (ja) * | 2016-04-28 | 2017-11-02 | 日本電信電話株式会社 | 作成装置、作成プログラム、および作成方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7574409B2 (en) * | 2004-11-04 | 2009-08-11 | Vericept Corporation | Method, apparatus, and system for clustering and classification |
US8200514B1 (en) * | 2006-02-17 | 2012-06-12 | Farecast, Inc. | Travel-related prediction system |
CN102099795B (zh) * | 2008-09-18 | 2014-08-13 | 日本电气株式会社 | 运用管理装置、运用管理方法和运用管理程序 |
GB2507217A (en) * | 2011-07-25 | 2014-04-23 | Ibm | Information identification method, program and system |
US8645304B2 (en) * | 2011-08-19 | 2014-02-04 | International Business Machines Corporation | Change point detection in causal modeling |
US9031897B2 (en) * | 2012-03-23 | 2015-05-12 | Nuance Communications, Inc. | Techniques for evaluation, building and/or retraining of a classification model |
EP2916721A4 (en) * | 2012-11-10 | 2016-10-26 | Univ California | SYSTEMS AND METHODS FOR ASSESSING NEUROPATHOLOGIES |
US10438130B2 (en) * | 2015-12-01 | 2019-10-08 | Palo Alto Research Center Incorporated | Computer-implemented system and method for relational time series learning |
US10719780B2 (en) * | 2017-03-31 | 2020-07-21 | Drvision Technologies Llc | Efficient machine learning method |
-
2018
- 2018-05-16 JP JP2018094927A patent/JP2019200618A/ja active Pending
-
2019
- 2019-05-15 US US17/051,458 patent/US20210232861A1/en active Pending
- 2019-05-15 WO PCT/JP2019/019399 patent/WO2019221206A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017130835A1 (ja) * | 2016-01-27 | 2017-08-03 | 日本電信電話株式会社 | 作成装置、作成方法、および作成プログラム |
WO2017188048A1 (ja) * | 2016-04-28 | 2017-11-02 | 日本電信電話株式会社 | 作成装置、作成プログラム、および作成方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022097034A (ja) * | 2020-12-18 | 2022-06-30 | 株式会社日立製作所 | 審査支援システム、及び審査支援方法 |
JP7442430B2 (ja) | 2020-12-18 | 2024-03-04 | 株式会社日立製作所 | 審査支援システム、及び審査支援方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210232861A1 (en) | 2021-07-29 |
WO2019221206A1 (ja) | 2019-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6450032B2 (ja) | 作成装置、作成方法、および作成プログラム | |
US10262272B2 (en) | Active machine learning | |
US20180302297A1 (en) | Methods and systems for controlling data backup | |
JP6535134B2 (ja) | 作成装置、作成プログラム、および作成方法 | |
US20220129794A1 (en) | Generation of counterfactual explanations using artificial intelligence and machine learning techniques | |
Chzhen et al. | Set-valued classification--overview via a unified framework | |
US11823058B2 (en) | Data valuation using reinforcement learning | |
US11526696B2 (en) | Model maintenance device, pattern recognition system, model maintenance method, and computer program product | |
JP6867276B2 (ja) | モデル学習装置、モデル学習方法、および、予測システム | |
CN113537630B (zh) | 业务预测模型的训练方法及装置 | |
CN112016633A (zh) | 一种模型训练方法、装置、电子设备及存储介质 | |
Kurmi et al. | Do not forget to attend to uncertainty while mitigating catastrophic forgetting | |
CN111190967B (zh) | 用户多维度数据处理方法、装置及电子设备 | |
US20220292393A1 (en) | Utilizing machine learning models to generate initiative plans | |
WO2019221206A1 (ja) | 作成装置、作成方法、および作成プログラム | |
JP7047664B2 (ja) | 学習装置、学習方法および予測システム | |
US20240013123A1 (en) | Utilizing machine learning models to analyze an impact of a change request | |
CN113612777B (zh) | 训练方法、流量分级方法、装置、电子设备以及存储介质 | |
CN115423038A (zh) | 用于确定公平性的方法、装置、电子设备和存储介质 | |
CN114610953A (zh) | 一种数据分类方法、装置、设备及存储介质 | |
CN114724174A (zh) | 基于增量学习的行人属性识别模型训练方法及装置 | |
WO2020202594A1 (en) | Learning system, method and program | |
Song et al. | Active learning for streaming data in a contextual bandit framework | |
US20240037504A1 (en) | Method and system for providing recommendations for bill of materials revision | |
US20240070658A1 (en) | Parsing event data for clustering and classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211201 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220510 |