JP6450032B2 - 作成装置、作成方法、および作成プログラム - Google Patents

作成装置、作成方法、および作成プログラム Download PDF

Info

Publication number
JP6450032B2
JP6450032B2 JP2017564202A JP2017564202A JP6450032B2 JP 6450032 B2 JP6450032 B2 JP 6450032B2 JP 2017564202 A JP2017564202 A JP 2017564202A JP 2017564202 A JP2017564202 A JP 2017564202A JP 6450032 B2 JP6450032 B2 JP 6450032B2
Authority
JP
Japan
Prior art keywords
classifier
learning
time
classification
creation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017564202A
Other languages
English (en)
Other versions
JPWO2017130835A1 (ja
Inventor
充敏 熊谷
充敏 熊谷
具治 岩田
具治 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2017130835A1 publication Critical patent/JPWO2017130835A1/ja
Application granted granted Critical
Publication of JP6450032B2 publication Critical patent/JP6450032B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/24765Rule-based classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Description

本発明は、作成装置、作成方法、および作成プログラムに関する。
機械学習において、あるデータが入力された場合に、そのデータの属性を表すラベルを出力する分類器が知られている。例えば、データとして新聞記事が分類器に入力された場合に、政治、経済、あるいはスポーツ等のラベルが出力される。学習すなわち分類器の作成は、学習用のデータとこの学習データのラベルとを組み合わせたラベルあり学習データを用いて行われる。
分類器の分類基準は時間経過とともに変化する場合がある。例えば、スパムメールの作成者は、分類器をすり抜けるために、常に新しい特徴を有するスパムメールを作成している。そのため、スパムメールの分類基準は時間経過とともに変化して、分類器の分類精度が大きく低下してしまう。
このような分類器の分類精度の経時劣化を防止するためには、分類基準が更新された分類器の作成(以下、分類器の更新とも記する)を行う必要がある。そこで、ラベルあり学習データを継続的に収集し、収集された最新のラベルあり学習データを用いて分類器を更新する技術が開示されている(非特許文献1,2参照)。
I.Koychev,"Gradual Forgetting for Adaptation to Concept Drift",Proceedings of ECAI 2000 Workshop on Current Issues in Spatio-Temporal Reasoning,Berlin,2000年,p.101-107 H.Shimodaira,"Improving predictive inference under covariate shift by weighting the log-likelihood function",Journal of Statistical Planning and Inference 90(2000),2000年,p.227-244
しかしながら、ラベルあり学習データは、各学習データに専門家によりラベルが付与されたものであるため、ラベルあり学習データの継続的な収集や分類器の頻繁な更新は困難であった。また、分類器が閉鎖的な環境で使用される場合には、分類器の更新もしくは更新された分類器の適用が困難であった。例えば、セキュリティドメインでは、アンチウィルスソフトの更新ファイルすなわち更新された分類器は定期的に配布されているものの、アンチウィルスソフトを閉鎖環境で利用している場合には、更新された分類器の適用は困難であった。
本発明は、上記に鑑みてなされたものであって、ラベルあり学習データを頻繁に収集することなく分類精度が維持された分類器を作成することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る作成装置は、入力されたデータの属性を表すラベルを出力する分類器を作成する作成装置であって、過去の各時点における分類器の分類基準を学習する分類器学習部と、該分類基準の時系列変化を学習する時系列変化学習部と、学習された前記分類基準と前記時系列変化とを用いて未来の分類器の分類基準を予測する予測部と、を備えることを特徴とする。
本発明によれば、ラベルあり学習データを頻繁に収集することなく分類精度が維持された分類器を作成することができる。
図1は、本発明の第1の実施形態に係る作成装置の概略構成を示す模式図である。 図2は、第1の実施形態の作成処理手順を示すフローチャートである。 図3は、第1の実施形態の分類処理手順を示すフローチャートである。 図4は、第1の実施形態の作成装置による作成処理の効果を説明するための説明図である。 図5は、第2の実施形態の作成装置の概略構成を示す模式図である。 図6は、第2の実施形態の作成処理手順を示すフローチャートである。 図7は、第3の実施形態の作成装置の概略構成を示す模式図である。 図8は、第3の実施形態の作成処理手順を示すフローチャートである。 図9は、第3の実施形態の分類処理手順を示すフローチャートである。 図10は、第3の実施形態の作成装置による作成処理の効果を説明するための説明図である。 図11は、第3の実施形態の作成装置による作成処理の効果を説明するための説明図である。 図12は、第4の実施形態の作成装置の概略構成を示す模式図である。 図13は、第4の実施形態の作成処理手順を示すフローチャートである。 図14は、作成プログラムを実行するコンピュータを例示する図である。
[第1の実施形態]
以下、図面を参照して、本発明の一実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[作成装置の構成]
まず、図1を参照して、本実施形態に係る作成装置の概略構成を説明する。本実施形態に係る作成装置1は、ワークステーションやパソコン等の汎用コンピュータで実現され、後述する作成処理を実行して、入力されたデータの属性を表すラベルを出力する分類器を作成する。
なお、図1に示すように、本実施形態の作成装置1は、作成処理を行う作成部10に加え、分類処理を行う分類部20を有する。分類部20は、作成部10により作成された分類器を用いてデータを分類してラベルを出力する分類処理を行う。分類部20は、作成部10と同一のハードウェアに実装されてもよいし、異なるハードウェアに実装されてもよい。
[作成部]
作成部10は、学習データ入力部11、データ変換部12、学習部13、分類器作成部14、および分類器格納部15を有する。
学習データ入力部11は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部に対して各種指示情報を入力する。本実施形態において、学習データ入力部11は、作成処理に用いられるラベルあり学習データを受け付ける。
ここで、ラベルあり学習データとは、学習用のデータとこの学習データのラベルとの組み合わせを意味する。例えば、学習データがテキストである場合、政治、経済、あるいはスポーツ等のテキストの内容を表すラベルが付与される。また、ラベルあり学習データには、時刻情報が付与されている。時刻情報とは、例えば、学習データがテキストである場合、テキストが発刊された日時等を意味する。本実施形態では、現在までの過去の異なる時刻情報が付与された複数のラベルあり学習データが受け付けられる。
なお、ラベルあり学習データは、NIC(Network Interface Card)等で実現される図示しない通信制御部を介して、外部のサーバ装置等から作成部10に入力されてもよい。
制御部は、処理プログラムを実行するCPU(Central Processing Unit)等を用いて実現され、データ変換部12、学習部13、および分類器作成部14として機能する。
データ変換部12は、後述する学習部13における処理の準備として、受け付けられたラベルあり学習データを、収集時刻、特徴ベクトル、および数値ラベルの組み合わせのデータに変換する。以下の作成部10の処理におけるラベルあり学習データとは、データ変換部12による変換後のデータを意味する。
ここで、数値ラベルとは、ラベルあり学習データに付与されているラベルが数値に変換されたものである。また、収集時刻は、時刻情報を元にデータに付与される離散化された時刻を表す。同一タイムウィンドウ内で受け付けられたラベルあり学習データの時刻情報が、同一の収集時刻に変換される。
また、特徴ベクトルとは、受け付けられたラベルあり学習データの特徴をn次元の数ベクトルで表記したものである。機械学習における汎用手法により変換される。例えば、学習データがテキストである場合には、形態素解析、n−gram、または区切り文字により変換される。
学習部13は、現在までの過去の各時点における分類器の分類基準を学習する分類器学習部として機能する。また、学習部13は、該分類基準の時系列変化を学習する時系列変化学習部として機能する。本実施形態において、学習部13は、分類器学習部としての処理と時系列学習部としての処理とを同時に行う。
具体的に、学習部13は、収集時刻t=1〜Tが付与されたラベルあり学習データを用いて、分類器の分類基準の学習と分類基準の時系列変化の学習とを同時に行う。本実施形態において、分類器であるラベルが付与される事象が所定の確率分布で発生するものとして、分類器のモデルにロジスティック回帰が適用される。なお、分類器のモデルはロジスティック回帰に限定されず、サポートベクターマシン、ブースティング等でもよい。
また、本実施形態において、分類器の分類基準の時系列変化を表す時系列モデルには、VAR(Vector AutoRegressive) modelが適用される。なお、時系列モデルはVAR modelに限定されず、Gaussian Processes等のモデルでもよい。
まず、時刻tにおけるラベルあり学習データを、次式(1)のように表すことにする。なお、本実施形態において、ラベルは2つの離散値とした。
Figure 0006450032
また、時刻t=1〜Tにおけるラベルあり学習データの全体を、次式(2)のように表すことにする。
Figure 0006450032
この場合に、ロジスティック回帰が適用された分類器において、特徴ベクトルx のラベルy が1である確率は、次式(3)で表される。
Figure 0006450032
また、m次のVAR modelが適用された分類器の分類基準を表すパラメタwは、過去のパラメタwt−1,…,wt−mに線形に依存すると仮定される。したがって、パラメタwの時系列変化すなわちダイナミクスは、次式(4)のように表すことができる。
Figure 0006450032
なお、t≦mの場合には、VAR modelが適用できないため、パラメタwは平均0の正規分布N(0,θ −1)に従うものとする。
また、本実施形態においては簡単化のため、ダイナミクスA,…,Aは対角行列に制限する。この場合、wの第i成分wt,i(i=1〜d)は、過去の値wt−1,i,…,wt−m,iにのみ依存する。
ここで、分類器のパラメタWと時系列モデルのパラメタAの同時分布の確率モデルは、次式(5)で定義される。
Figure 0006450032
上記式(5)に定義される確率モデルにおいて、ラベルあり学習データDが与えられた場合におけるパラメタW、A、Γ、θ、θの確率分布p(W,A、Γ、θ、θ|D)を求めればよい。ただし、これらの確率分布を直接求めることは困難であるため、本実施形態では、事後確率を近似的に求めるいわゆる変分ベイズ法を用いて、確率分布p(W,A、Γ、θ、θ|D)の近似分布q(W,A、Γ、θ、θ|D)を求める。
まず、計算の簡便化のため、ロジスティック回帰式を次式(6)の右辺に示すように近似する。
Figure 0006450032
次に、近似分布q(W,A、Γ、θ、θ|D)が次式(7)で表されるものと仮定する。
Figure 0006450032
この場合に、変分ベイズ法を用いると、パラメタW,A、Γ、θ、θの近似分布は次式(8)に示す関数形をもつことがわかる。
Figure 0006450032
学習部13は、上記式(8)に示したパラメタW,A、Γ、θ、θの近似分布を、次式(9)に示す更新式を用いて、所定の収束条件が満たされるまで更新を繰り返すことにより求めることができる。なお、所定の収束条件とは、例えば、予め定められた更新回数を超えること、あるいは、パラメタの変化量がある一定値以下になること等を意味する。
Figure 0006450032
分類器作成部14は、未来の分類器の分類基準を予測する予測部として機能する。具体的に、分類器生成部14は、学習部13によって求められた時系列モデルを用いて、未来の時刻t=T+1,T+2,…における分類器を作成する。例えば、上記のように分類器のモデルにロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにVAR modelが適用された場合には、上記式(9)により学習されたパラメタWおよびAを上記式(4)に適用することにより、逐次的に未来の分類器のパラメタwT+1,wT+2,…が求められる。これにより、分類器作成部14は、未来の時刻の予測された分類基準の分類器を作成することができる。分類器作成部14は、作成された分類器を分類器格納部15に格納する。
分類器格納部15は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、作成された未来の時刻の分類器を格納する。格納形式は特に限定されず、例えば、MySQLやPostgreSQL等のデータベース形式、表形式、またはテキスト形式等が例示される。
[分類部]
分類部20は、データ入力部21、データ変換部22、分類部23、および分類結果出力部24を有し、上述したように、作成部10により作成された分類器を用いてデータを分類してラベルを出力する分類処理を行う。
データ入力部21は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部に対して各種指示情報を入力したり、分類処理対象のデータを受け付けたりする。ここで受け付けられる分類処理対象のデータには、ある時点の時刻情報が付与されている。データ入力部21は、学習データ入力部11と同一のハードウェアでもよい。
制御部は、処理プログラムを実行するCPU等を用いて実現され、データ変換部22と分類部23とを有する。
データ変換部22は、作成部10のデータ変換部12と同様に、データ入力部21が受け付けた分類処理対象のデータを収集時刻および特徴ベクトルの組み合わせに変換する。ここで、分類処理対象のデータには、ある時点の時刻情報が付与されているため、収集時刻と時刻情報とが同一となる。
分類部23は、分類器格納部15を参照し、分類処理対象のデータの収集時刻と同時刻の分類器を用いて、データの分類処理を行う。例えば、上記のように分類器のモデルにロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにVAR modelが適用された場合には、上記式(3)により当該データのラベルが1である確率が得られる。分類部23は、得られた確率が予め設定された所定の閾値以上であれば、ラベル=1とし、該閾値より小さい場合には、ラベル=0とする。
分類結果出力部24は、液晶ディスプレイなどの表示装置、プリンター等の印刷装置、情報通信装置等によって実現され、分類処理の結果を操作者に対して出力する。例えば、入力されたデータに対するラベルを出力したり、入力されたデータにラベルを付与して出力したりする。
[作成処理]
次に、図2を参照して、作成装置1の作成部10による作成処理について説明する。図2のフローチャートは、例えば、ユーザによる作成処理の開始を指示する操作入力があったタイミングで開始される。
まず、学習データ入力部11が、時刻情報が付与されたラベルあり学習データを受け付ける(ステップS1)。次に、データ変換部12が、受け付けたラベルあり学習データを、収集時刻、特徴ベクトルおよび数値ラベルの組み合わせのデータに変換する(ステップS2)。
次に、学習部13が、データ変換部12による変換後のラベルあり学習データを用いて、時刻t=1〜Tの分類器の分類基準と分類基準の時系列変化を示す時系列モデルとを学習する(ステップS3)。例えば、ロジスティック回帰モデルのパラメタW(w=w〜w)と、VAR modelのパラメタA(=A〜A)とが、同時に求められる。
次に、分類器作成部14が、時系列モデルを用いて、未来の時刻t=T+1,T+2,…の分類器の分類基準を予測して分類器を作成する(ステップS4)。例えば、ロジスティック回帰およびVAR modelが適用された分類器について、未来の分類器のパラメタwT+1,wT+2,…が求められる。
最後に、分類器作成部14により作成された未来の時刻t=T+1,T+2,…の分類器が、分類器格納部15に格納される(ステップS5)。
[分類処理]
次に図3を参照して作成装置1の分類部20による分類処理について説明する。図3のフローチャートは、例えば、ユーザによる分類処理の開始を指示する操作入力があったタイミングで開始される。
まず、データ入力部21が、時刻t=T+1以降の分類処理対象のデータを受け付け(ステップS6)、データ変換部22が、受け付けたデータを収集時刻、特徴ベクトルの組み合わせのデータに変換する(ステップS7)。
次に、分類部23が、分類器格納部15を参照して、受け付けたデータの収集時刻の分類器を用いてデータの分類処理を行う(ステップS8)。そして、分類結果出力部24が、分類結果の出力すなわち分類されたデータのラベルの出力を行う(ステップS9)。
以上、説明したように、本実施形態の作成装置1では、学習部13が、現在までの過去の各時点における分類器の分類基準と、該分類基準の時系列変化とを学習し、分類器作成部14が、学習された分類基準と時系列変化とを用いて未来の分類器の分類基準を予測する。すなわち、図4に例示するように、入力された現在までの収集時刻t=1〜Tのラベルあり学習データD(D,…,D)を用いて、学習部13が、時刻t=1〜Tの分類器h(h、h、h、…,h)の分類基準と、分類基準の時系列変化すなわちダイナミクスを表す時系列モデルとを学習する。そして、分類器作成部14が、未来の時刻t=T+1,T+2,…の分類基準を予測して、各時刻の分類器hT+1,hT+2,…を作成する。
これにより、本実施形態の作成装置1における作成部10の作成処理によれば、最新のラベルあり学習データを用いなくても分類器の分類精度の低下を抑止できる。すなわち、最新のラベルあり学習データを頻繁に追加して分類器を更新しなくても、分類精度の低下を抑止できる。このように、ラベルあり学習データを頻繁に収集することなく分類精度が維持された分類器を作成することができる。
例えば、セキュリティベンダーがアンチウィルスソフトの更新ファイルすなわち更新された分類器を定期的に配布する場合に、次回の配布までの間に変化するウィルスにも対応して精度よく分類できる。また、アンチウィルスソフトに未来の時刻の分類器を内蔵しておけば、オフライン環境で使用される場合にも、変化するウィルスに対応できる。
また、特に分類器の分類基準と分類基準の時系列変化とを同時に学習する場合には、例えば、ラベルあり学習データの数が少ない場合にも、分類器の分類基準と分類基準の時系列変化とを別々に学習する場合より、安定した学習を行うことができる。
なお、本発明の作成処理は、ラベルを離散値とした分類問題に限定されず、ラベルを実数値とした回帰問題としてもよい。これにより、多様な分類器の未来の分類基準を予測することができる。
また、上記実施形態では、学習部13は一度の作成処理で過去の収集時刻t=1〜Tのラベルあり学習データを用いて分類器の分類基準と該分類基準の時系列変化とを学習しているが、これに限定されない。例えば、学習部13は、収集時刻t=1〜T−1のラベルあり学習データを用いて分類器の分類基準と該分類基準の時系列変化とを学習した後、最新の収集時刻Tのラベルあり学習データを用いて分類器の分類基準と該分類基準の時系列変化とを学習してもよい。その場合、学習した分類器の各分類基準と該分類基準の時系列変化とを用いて、未来の分類器を作成する。これにより、最新の収集時刻Tのラベルあり学習データの特徴を精度高く反映した分類器を作成できる。
また、ラベルあり学習データが過去の収集時刻t=1〜Tのうちの一部すなわち一定の離散的な時間間隔で連続していなくてもよい。例えば、分類器の分類基準の時系列変化を表す時系列モデルにGaussian Processesを適用した場合、離散的な時間間隔が不均一であっても、分類器を作成できる。
[第2の実施形態]
上記の第1の実施形態の学習部13は、分類器学習部13aと時系列モデル学習部13bとに分離されてもよい。図5は、第2の実施形態の作成装置1の概略構成を例示する図である。本実施形態は、上記の第1の実施形態の学習部13による処理を、分類器学習部13aおよび時系列モデル学習部13bが分担して行う点においてのみ異なる。その他の処理は第1の実施形態と同一であるので、説明を省略する。
なお、本実施形態において、上記第1の実施形態と同様に、分類器のモデルにはロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにはVAR modelが適用される。
分類器学習部13aは、現在までの過去の各時点における分類器の分類基準を学習する。具体的に、VAR modelへの入力となる分類器のパラメタwは、最大事後確率(MAP,Maximum A Posteriori)推定を利用して、次式(10)に示す対数事後分布を最大化する点として得られる。
Figure 0006450032
分類器学習部13aは、パラメタwからwまでについて、この順に上記のMAP推定を実行することにより、時刻t=1〜Tの分類器を得ることができる。
時系列モデル学習部13bは、該分類基準の時系列変化を学習する時系列変化学習部として機能する。本実施形態において、時系列モデル学習部13bは、分類器学習部13aによる分類器学習処理の後に、時系列変化学習処理を行う。
具体的に、分類器学習部13aにより得られた時刻t=1〜Tの分類器を用いると、分類器のパラメタWと時系列モデルのパラメタAの同時分布の確率モデルは、次式(11)で定義される。
Figure 0006450032
ここで、上記の第1の実施形態と同様に、変分ベイズ法を用いると、パラメタA、Γ、θの近似分布は次式(12)に示す関数形をもつことがわかる。
Figure 0006450032
時系列モデル学習部13bは、第1の実施形態と同様に、上記式(12)に示したパラメタA、Γ、θの近似分布を、次式(13)に示す更新式を用いて、所定の収束条件が満たされるまで更新を繰り返すことにより求めることができる。
Figure 0006450032
次に、図6を参照して、本実施形態の作成装置1の作成部10による作成処理について説明する。上記した第1の実施形態とは、ステップS31の処理およびステップS32の処理のみが異なる。
ステップS31の処理では、分類器学習部13aは、収集時刻t=1〜Tのラベルあり学習データを用いて、時刻t=1〜Tの分類器の分類基準を学習する。例えば、ロジスティック回帰モデルのパラメタW(w=w〜w)が求められる。
ステップS32の処理では、時系列モデル学習部13bが、分類器学習部13aにより得られた時刻t=1〜Tの分類器の分類基準を用いて、該分類基準の時系列変化を表す時系列モデルを学習する。例えば、VAR modelのパラメタA(=A〜A)が求められる。
このように、本実施形態の作成装置1の作成部10の作成処理によれば、分類器の分類基準と分類基準の時系列変化とが別々に学習される。これにより、例えば、ラベルあり学習データの数が多い場合にも、分類器の分類基準と分類基準の時系列変化とを同時に学習する場合より、各機能部の処理負荷を軽くすることができる。
[第3の実施形態]
上記の第1の実施形態または第2の実施形態の分類器作成部14は、さらに、分類器の分類基準の予測の確からしさを導出してもよい。図7は、第3の実施形態の作成装置1の概略構成を例示する図である。本実施形態において、分類器のモデルにはロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにはGaussian Processesが適用される。以下に、上記の第1の実施形態と異なる処理についてのみ説明する。なお、第1の実施形態と同一の処理については説明を省略する。
具体的に、学習部13は、tまでの収集時刻tが付与されたラベルあり学習データを用いて、分類器の分類基準の学習と分類基準の時系列変化の学習とを同時に行う。なお、以下の説明において、t<t<…<tとする。本実施形態において、分類器であるラベルが付与される事象が所定の確率分布で発生するものとして、分類器のモデルにロジスティック回帰が適用される。なお、分類器のモデルはロジスティック回帰に限定されず、サポートベクターマシン、ブースティング等でもよい。
また、本実施形態において、分類器の分類基準の時系列変化を表す時系列モデルには、Gaussian Processesが適用される。なお、時系列モデルはGaussian Processesに限定されず、VAR model等のモデルでもよい。
まず、時刻tにおけるラベルあり学習データを、次式(14)のように表すことにする。なお、本実施形態において、ラベルは2つの離散値としたが、ラベルが3つ以上の場合も適用可能である。
Figure 0006450032
また、時刻t=t〜tにおけるラベルあり学習データの全体を次式(15)のように表すことにする。
Figure 0006450032
この場合に、ロジスティック回帰が適用された分類器において、特徴ベクトルx のラベルy が1である確率は、次式(16)で表される。
Figure 0006450032
時刻tにおける分類器のパラメタのd成分wtdは、非線形関数fを用いて次式(17)より記述されるものと仮定する。ここで、d=1〜Dである。
Figure 0006450032
また、非線形関数fの事前分布は、Gaussian Processesに従うものとする。すなわち、次式(18)に示す時刻t=t〜tの各時点における非線形関数の値は、次式(19)に示すガウス分布から生成されるものと仮定する。
Figure 0006450032
Figure 0006450032
ここで、この共分散行列の各成分は、次式(20)で表される。
Figure 0006450032
上記のkは任意のカーネル関数で定義され得るが、本実施形態において、次式(21)に示すカーネル関数で定義される。
Figure 0006450032
この場合に、次式(22)に示す時刻t=t〜tの分類器のパラメタ(d成分)の確率分布は、次式(23)で表される。
Figure 0006450032
Figure 0006450032
この共分散行列の成分は、次式(24)に示すカーネル関数cで定義される。
Figure 0006450032
この場合に、次式(25)に示す分類器の分類基準Wと、分類基準の時系列変化(ダイナミクス)を表す次式(26)に示すパラメタθとを学習するための同時分布の確率モデルは、次式(27)で定義される。
Figure 0006450032
Figure 0006450032
Figure 0006450032
次に、上記式(27)で定義される確率モデルをもとに、データから事前確率を経験的に与えるいわゆる経験ベイズ法を用いて、ラベルあり学習データが与えられた場合に分類器Wが得られる確率とダイナミクスパラメータθとを推定する。経験ベイズ法において、次式(28)に示す下限Lを最大化することにより、所望のWの分布すなわちq(W)とダイナミクスパラメータθとが得られる。
Figure 0006450032
ここで、まずq(W)が次式(29)に示すように因数分解できるものと仮定する。
Figure 0006450032
その場合に、q(W)は次式(30)に示すガウス分布の関数形を示すことがわかる。
Figure 0006450032
ここで、μtdおよびλtdは、次式(31)に示す更新式を用いて推定される。
Figure 0006450032
また、ダイナミクスパラメータθは、非連立方程式の解を求めるためのいわゆる準ニュートン法を用いて更新される。準ニュートン法において、次式(32)に示す下限Lのθに関する項とθに関する微分とが用いられる。
Figure 0006450032
学習部13は、上記の更新式を用いて、所定の収束条件が満たされるまで、q(W)の更新とθの更新とを交互に繰り返すことにより、所望のパラメタを推定できる。所定の収束条件とは、例えば、予め定められた更新回数を超えること、あるいは、パラメタの変化量がある一定値以下になること等を意味する。
なお、更新を繰り返すと分類に影響を及ぼさない特徴に関するパラメタw・dの大きさは0に近づく。このように、Gaussian Processesを用いた場合に、重要ではない特徴が自動的に排除される。
分類器作成部14は、学習部13が学習した分類器の分類基準と分類基準の時系列変化とを用いて、未来の時刻t>tの分類器の分類基準の予測と、予測の確からしさすなわち確信度とを導出する。時刻t>tにおいて分類器Wが得られる確率分布は、次式(33)で表される。
Figure 0006450032
これにより、分類器作成部14は、未来の時刻の予測された分類基準の分類器を、その予測の確信度とともに得ることができる。分類器作成部14は、予測された分類器と確信度とを分類器格納部15に格納する。
分類部23は、分類器格納部15を参照し、分類処理対象のデータの収集時刻と同時刻の分類器とその確信度とを用いて、データの分類処理を行う。例えば、上記のように分類器のモデルにロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにGaussian Processesが適用された場合には、次式(34)により、当該データxのラベルyが1である確率が得られる。分類部23は、得られた確率が予め設定された所定の閾値以上であれば、ラベル=1とし、該閾値より小さい場合には、ラベル=0とする。
Figure 0006450032
次に、図8は、本実施形態の作成処理手順を例示するフローチャートである。図8に示すように、学習部13が時刻tまでの分類器の分類基準と分類器の時系列変化を表す時系列モデルとを学習する(ステップS30)。この場合に、上記の第1の実施形態とは、分類器作成部14がt>tの分類器の分類基準を確信度とともに予測して(ステップS40)、分類器格納部15に格納すること(ステップS50)が異なる。また、図9は、本実施形態の分類処理手順を例示するフローチャートである。図9に示すように、上記の第1の実施形態とは、分類部23が、受け付けたデータの収集時刻の分類器とともにその確信度を用いてデータを分類すること(ステップS80)が異なる。
このように、本実施形態の作成装置1によれば、未来の分類基準を確信度とともに予測する。すなわち、図10および図11に例示するように、予測できる未来の分類器の分類基準wの確率分布は様々に異なる。図10に例示するように、分類基準wの確率の分散が小さい場合には、高い確率すなわち高い確信度で分類基準wを予測できる。一方、図11に例示するように、分類基準wの確率の分散が大きい場合には、分類基準wの確率すなわち確信度が低くなる。したがって、予測される分類基準wの確信度を考慮して分類器を用いることにより、高精度に分類を行うことが可能となる。
[第4の実施形態]
上記の第3の実施形態の学習部13は、分類器学習部13aと時系列モデル学習部13bとに分離されてもよい。図12は、第4の実施形態の作成装置1の概略構成を例示する図である。本実施形態は、上記の第3の実施形態の学習部13による処理を、分類器学習部13aおよび時系列モデル学習部13bが分担して行う点においてのみ異なる。その他の処理は第3の実施形態と同一であるので、説明を省略する。
なお、本実施形態において、上記第3の実施形態と同様に、分類器のモデルにはロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにはGaussian Processesが適用される。なお、時系列モデルはGaussian Processesに限定されず、VAR model等のモデルでもよい。
分類器学習部13aは、現在までの過去の各時点における分類器の分類基準を学習する。具体的に、分類器の分類基準を表すパラメタwは、最大事後確率(MAP)推定を利用して、次式(35)に示す対数事後分布を最大化する点として得られる。
Figure 0006450032
分類器学習部13aは、時刻tからtまでの各時刻tにおけるパラメタwについて、この順に上記のMAP推定を実行することにより、時刻tまでの分類器を得ることができる。
また、時系列モデル学習部13bは、分類器学習部13aにより得られた時刻tまでの分類器をもとに、上記の第3の実施形態と同様に、分類器の分類基準の時系列変化を学習する。
図13は、本実施形態の作成処理手順を例示するフローチャートである。上記した第3の実施形態とは、ステップS301の処理およびステップS302の処理のみが異なる。
ステップS301の処理では、分類器学習部13aは、収集時刻t=t〜tのラベルあり学習データを用いて、時刻tの分類器の分類基準を学習する。例えば、ロジスティック回帰モデルの時刻tまでの各時刻tにおけるパラメタwが求められる。
ステップS302の処理では、時系列モデル学習部13bが、分類器学習部13aにより得られた時刻tまでの分類器の分類基準を用いて、該分類基準の時系列変化を表す時系列モデルを学習する。例えば、Gaussian Processesのパラメタθが求められる。
このように、本実施形態の作成装置1によれば、上記第2の実施形態と同様に、分類器の分類基準と分類基準の時系列変化とが別々に学習される。これにより、例えば、ラベルあり学習データの数が多い場合にも、分類器の分類基準と分類基準の時系列変化とを同時に学習する場合より、各機能部の処理負荷を軽くして、短時間で処理することができる。
[プログラム]
上記実施形態に係る作成装置1が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。一実施形態として、作成装置1は、パッケージソフトウェアやオンラインソフトウェアとして上記の作成処理を実行する作成プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の作成プログラムを情報処理装置に実行させることにより、情報処理装置を作成装置1として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末、さらには、PDA(Personal Digital Assistants)などのスレート端末などがその範疇に含まれる。また、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の作成処理に関するサービスを提供するサーバ装置として実装することもできる。例えば、作成装置1は、ラベルあり学習データを入力とし、分類器を出力する作成処理サービスを提供するサーバ装置として実装される。この場合、作成装置1は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の作成処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。以下に、作成装置1と同様の機能を実現する作成プログラムを実行するコンピュータの一例を説明する。
図14に示すように、作成プログラムを実行するコンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1051およびキーボード1052が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1061が接続される。
ここで、図14に示すように、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各テーブルは、例えばハードディスクドライブ1031やメモリ1010に記憶される。
また、作成プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、ハードディスクドライブ1031に記憶される。具体的には、上記実施形態で説明した作成装置1が実行する各処理が記述されたプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。
また、作成プログラムによる情報処理に用いられるデータは、プログラムデータ1094として、例えば、ハードディスクドライブ1031に記憶される。そして、CPU1020が、ハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、作成プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、作成プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
以上、本発明者によってなされた発明を適用した実施形態について説明したが、本実施形態による本発明の開示の一部をなす記述および図面により本発明は限定されることはない。すなわち、本実施形態に基づいて当業者等によりなされる他の実施形態、実施例および運用技術等は全て本発明の範疇に含まれる。
1 作成装置
10 作成部
11 学習データ入力部
12 データ変換部
13 学習部
13a 分類器学習部
13b 時系列モデル学習部
14 分類器作成部
15 分類器格納部
20 分類部
21 データ入力部
22 データ変換部
23 分類部
24 分類結果出力部

Claims (8)

  1. 入力されたデータの属性を表すラベルを出力する分類器を作成する作成装置であって、
    過去の各時点における分類器の分類基準を学習する分類器学習部と、
    該分類基準の時系列変化を学習する時系列変化学習部と、
    学習された前記分類基準と前記時系列変化とを用いて未来の分類器の分類基準を予測する予測部と、
    を備えることを特徴とする作成装置。
  2. 前記分類器学習部および前記時系列変化学習部は、現在までに収集された前記ラベルが付与された学習用のデータを用いることを特徴とする請求項1に記載の作成装置。
  3. 前記データは、一定の離散的な時間間隔で連続していないことを特徴とする請求項1または2に記載の作成装置。
  4. 前記予測部は、さらに、予測した前記分類基準の予測の確からしさを導出することを特徴とする請求項1〜3のいずれか1項に記載の作成装置。
  5. 前記分類器学習部の処理の後、前記時系列変化学習部の処理を行うことを特徴とする請求項1〜4のいずれか1項に記載の作成装置。
  6. 前記分類器学習部の処理と、前記時系列変化学習部の処理とを、同時に行うことを特徴とする請求項1〜4のいずれか1項に記載の作成装置。
  7. 入力されたデータの属性を表すラベルを出力する分類器を作成する作成装置で実行される作成方法であって、
    過去の各時点における分類器の分類基準を学習する分類器学習工程と、
    該分類基準の時系列変化を学習する時系列変化学習工程と、
    学習された前記分類基準と前記時系列変化とを用いて未来の分類器の分類基準を予測する予測工程と、
    を含んだことを特徴とする作成方法。
  8. コンピュータに、
    過去の各時点における分類器の分類基準を学習する分類器学習ステップと、
    該分類基準の時系列変化を学習する時系列変化学習ステップと、
    学習された前記分類基準と前記時系列変化とを用いて未来の分類器の分類基準を予測する予測ステップと、
    を実行させることを特徴とする作成プログラム。
JP2017564202A 2016-01-27 2017-01-19 作成装置、作成方法、および作成プログラム Active JP6450032B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016013430 2016-01-27
JP2016013430 2016-01-27
PCT/JP2017/001775 WO2017130835A1 (ja) 2016-01-27 2017-01-19 作成装置、作成方法、および作成プログラム

Publications (2)

Publication Number Publication Date
JPWO2017130835A1 JPWO2017130835A1 (ja) 2018-06-21
JP6450032B2 true JP6450032B2 (ja) 2019-01-09

Family

ID=59398213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017564202A Active JP6450032B2 (ja) 2016-01-27 2017-01-19 作成装置、作成方法、および作成プログラム

Country Status (3)

Country Link
US (1) US11615273B2 (ja)
JP (1) JP6450032B2 (ja)
WO (1) WO2017130835A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3518152A1 (en) * 2018-01-29 2019-07-31 Panasonic Intellectual Property Corporation of America Information processing method and information processing system
JP2019200618A (ja) * 2018-05-16 2019-11-21 日本電信電話株式会社 作成装置、作成方法、および作成プログラム
US20200327985A1 (en) * 2019-04-09 2020-10-15 Tencent America LLC Multimodal framework for heart abnormalities analysis based on emr/ehr and electrocardiography
EP3862933A1 (en) * 2020-02-10 2021-08-11 Banco Bilbao Vizcaya Argentaria, S.A. Method and system for monitoring alerts
JP7442430B2 (ja) 2020-12-18 2024-03-04 株式会社日立製作所 審査支援システム、及び審査支援方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7664819B2 (en) 2004-06-29 2010-02-16 Microsoft Corporation Incremental anti-spam lookup and update service
US8200514B1 (en) * 2006-02-17 2012-06-12 Farecast, Inc. Travel-related prediction system
US20070260568A1 (en) 2006-04-21 2007-11-08 International Business Machines Corporation System and method of mining time-changing data streams using a dynamic rule classifier having low granularity
US7630950B2 (en) * 2006-08-18 2009-12-08 International Business Machines Corporation System and method for learning models from scarce and skewed training data
CN102099795B (zh) * 2008-09-18 2014-08-13 日本电气株式会社 运用管理装置、运用管理方法和运用管理程序
WO2014075029A1 (en) * 2012-11-10 2014-05-15 The Regents Of The University Of California Systems and methods for evaluation of neuropathologies

Also Published As

Publication number Publication date
WO2017130835A1 (ja) 2017-08-03
US11615273B2 (en) 2023-03-28
US20190012566A1 (en) 2019-01-10
JPWO2017130835A1 (ja) 2018-06-21

Similar Documents

Publication Publication Date Title
JP6450032B2 (ja) 作成装置、作成方法、および作成プログラム
US11823058B2 (en) Data valuation using reinforcement learning
JP6535134B2 (ja) 作成装置、作成プログラム、および作成方法
US20220253725A1 (en) Machine learning model for entity resolution
JP2020071708A (ja) 分類装置、分類方法および分類プログラム
US20220129794A1 (en) Generation of counterfactual explanations using artificial intelligence and machine learning techniques
US20220147934A1 (en) Utilizing machine learning models for identifying a subject of a query, a context for the subject, and a workflow
JP2018190127A (ja) 判定装置、分析システム、判定方法および判定プログラム
CN111190967B (zh) 用户多维度数据处理方法、装置及电子设备
WO2019221206A1 (ja) 作成装置、作成方法、および作成プログラム
JP7276483B2 (ja) 学習装置、分類装置、学習方法及び学習プログラム
CN113612777B (zh) 训练方法、流量分级方法、装置、电子设备以及存储介质
US20230297430A1 (en) Machine-Learning Model Retargeting
JP7331938B2 (ja) 学習装置、推定装置、学習方法及び学習プログラム
US20220138573A1 (en) Methods and systems for training convolutional neural networks
JP7047664B2 (ja) 学習装置、学習方法および予測システム
US11676050B2 (en) Systems and methods for neighbor frequency aggregation of parametric probability distributions with decision trees using leaf nodes
JP7420244B2 (ja) 学習装置、学習方法、推定装置、推定方法及びプログラム
Song et al. Active learning for streaming data in a contextual bandit framework
JP7118938B2 (ja) 分類装置、学習装置、方法及びプログラム
US20240070658A1 (en) Parsing event data for clustering and classification
US11914665B2 (en) Multi-modal machine-learning model training for search
US20230196104A1 (en) Agent enabled architecture for prediction using bi-directional long short-term memory for resource allocation
WO2023067669A1 (ja) 学習装置、学習方法、および、学習プログラム
US20240037504A1 (en) Method and system for providing recommendations for bill of materials revision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181206

R150 Certificate of patent or registration of utility model

Ref document number: 6450032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150