WO2017130835A1 - 作成装置、作成方法、および作成プログラム - Google Patents

作成装置、作成方法、および作成プログラム Download PDF

Info

Publication number
WO2017130835A1
WO2017130835A1 PCT/JP2017/001775 JP2017001775W WO2017130835A1 WO 2017130835 A1 WO2017130835 A1 WO 2017130835A1 JP 2017001775 W JP2017001775 W JP 2017001775W WO 2017130835 A1 WO2017130835 A1 WO 2017130835A1
Authority
WO
WIPO (PCT)
Prior art keywords
classifier
learning
time
classification
unit
Prior art date
Application number
PCT/JP2017/001775
Other languages
English (en)
French (fr)
Inventor
充敏 熊谷
具治 岩田
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US16/064,659 priority Critical patent/US11615273B2/en
Priority to JP2017564202A priority patent/JP6450032B2/ja
Publication of WO2017130835A1 publication Critical patent/WO2017130835A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/24765Rule-based classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Definitions

  • the present invention relates to a creation device, a creation method, and a creation program.
  • a classifier that outputs a label representing the attribute of the data is known. For example, when a newspaper article is input as data to a classifier, a label such as politics, economy, or sports is output. Learning, that is, creation of a classifier, is performed using learning data with a label in which learning data and a label of the learning data are combined.
  • the classification criteria of the classifier may change over time. For example, spam mail creators are constantly creating spam mail with new features in order to bypass the classifier. For this reason, the spam mail classification standard changes with time, and the classification accuracy of the classifier is greatly reduced.
  • Non-Patent Documents 1 and 2 In order to prevent such deterioration of the classification accuracy of the classifier over time, it is necessary to create a classifier with updated classification criteria (hereinafter also referred to as classifier update). Therefore, a technique is disclosed in which learning data with labels is continuously collected and the classifier is updated using the collected learning data with latest labels (see Non-Patent Documents 1 and 2).
  • a creation device is a creation device that creates a classifier that outputs a label that represents an attribute of input data, at each time point in the past.
  • a classifier learning unit that learns the classification criteria of the classifier, a time series change learning unit that learns a time series change of the classification criteria, and a future classifier using the learned classification criteria and the time series change
  • a prediction unit for predicting the classification criteria.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a creation apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a creation processing procedure according to the first embodiment.
  • FIG. 3 is a flowchart illustrating a classification processing procedure according to the first embodiment.
  • FIG. 4 is an explanatory diagram for explaining the effect of the creation process performed by the creation apparatus according to the first embodiment.
  • FIG. 5 is a schematic diagram illustrating a schematic configuration of a creation apparatus according to the second embodiment.
  • FIG. 6 is a flowchart illustrating a creation processing procedure according to the second embodiment.
  • FIG. 7 is a schematic diagram illustrating a schematic configuration of a creation apparatus according to the third embodiment.
  • the creation unit 10 includes a learning data input unit 11, a data conversion unit 12, a learning unit 13, a classifier creation unit 14, and a classifier storage unit 15.
  • the numerical label is a label that is given to the learning data with label converted into a numerical value.
  • the collection time represents a discrete time given to the data based on the time information. Time information of labeled learning data received within the same time window is converted to the same collection time.
  • the feature vector is a notation of the feature of the accepted learning data with label by an n-dimensional number vector. It is converted by a general-purpose method in machine learning. For example, when the learning data is text, it is converted by morphological analysis, n-gram, or delimiter.
  • logistic regression is applied to a classifier model on the assumption that an event to which a label as a classifier is given occurs with a predetermined probability distribution.
  • the classifier model is not limited to logistic regression, and may be a support vector machine, boosting, or the like.
  • the classifier logistic regression is applied, the probability label y n t feature vector x n t is 1, represented by the following formula (3).
  • the parameter w t representing the classification criterion of the classifier to which the m-th order VAR model is applied depends linearly on the past parameters w t ⁇ 1 ,..., W t ⁇ m . Therefore, the time series change, that is, the dynamics of the parameter w t can be expressed as the following equation (4).
  • D) may be obtained.
  • the probability distribution p (W, A, ⁇ , ⁇ , ⁇ ) is used by using a so-called variational Bayes method that approximately obtains the posterior probability. 0
  • the learning unit 13 uses the update equation shown in the following equation (9) to calculate the approximate distribution of the parameters W, A, ⁇ , ⁇ , and ⁇ 0 shown in the above equation (8) until a predetermined convergence condition is satisfied. It can be obtained by repeating the update.
  • the predetermined convergence condition means, for example, that a predetermined number of updates is exceeded, or that the amount of change in the parameter falls below a certain value.
  • the classifier storage unit 15 stores a future time classifier realized by a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. To do.
  • the storage format is not particularly limited, and examples include a database format such as MySQL and PostgreSQL, a table format, a text format, and the like.
  • the data input unit 21 is realized by using an input device such as a keyboard or a mouse, and inputs various instruction information to the control unit or receives data to be classified according to an input operation by the operator. To do. The time information at a certain point in time is given to the classification processing target data received here.
  • the data input unit 21 may be the same hardware as the learning data input unit 11.
  • the control unit is realized by using a CPU or the like that executes a processing program, and includes a data conversion unit 22 and a classification unit 23.
  • the classification result output unit 24 is realized by a display device such as a liquid crystal display, a printing device such as a printer, an information communication device, and the like, and outputs the result of the classification process to the operator. For example, a label for input data is output, or a label is added to input data for output.
  • the learning data input unit 11 accepts learning data with a label to which time information is given (step S1).
  • the data conversion unit 12 converts the received learning data with label into data of a combination of the collection time, the feature vector, and the numerical label (step S2).
  • the classification unit 23 refers to the classifier storage unit 15 and performs data classification processing using the received data collection time classifier (step S8). Then, the classification result output unit 24 outputs the classification result, that is, the label of the classified data (step S9).
  • the learning unit 13 learns the classification criteria of the classifier at each past time point and the time series change of the classification criteria up to the present, and the classifier
  • the creation processing of the creation unit 10 in the creation device 1 of the present embodiment it is possible to suppress a reduction in classification accuracy of the classifier without using the latest labeled learning data. In other words, it is possible to prevent a decrease in classification accuracy without frequently adding the latest learning data with a label and updating the classifier. In this way, it is possible to create a classifier that maintains classification accuracy without frequently collecting labeled learning data.
  • anti-virus software that is, updated classifiers
  • it is possible to classify with high accuracy in response to viruses that change during the next distribution.
  • anti-virus software has a built-in classifier for future times, it can cope with changing viruses even when used in an offline environment.
  • the classification criteria of the classifier and the time series change of the classification criteria can be performed more stably than when learning separately.
  • the creation process of the present invention is not limited to a classification problem with labels as discrete values, but may be a regression problem with labels as real values. As a result, future classification criteria of various classifiers can be predicted.
  • the learning criteria may be used to learn the classification criteria of the classifier and the time series change of the classification criteria.
  • a future classifier is created using each learned classification standard of the classifier and the time series change of the classification standard. This makes it possible to create a classifier that accurately reflects the features of learning data with a label at the latest collection time T.
  • Gaussian Processes is applied to a time-series model representing a time-series change of the classification standard of the classifier, a classifier can be created even if the discrete time intervals are not uniform.
  • the learning unit 13 of the first embodiment may be separated into a classifier learning unit 13a and a time series model learning unit 13b.
  • FIG. 5 is a diagram illustrating a schematic configuration of the creation apparatus 1 according to the second embodiment. This embodiment is different only in that the processing by the learning unit 13 of the first embodiment is performed by the classifier learning unit 13a and the time-series model learning unit 13b. Since other processes are the same as those in the first embodiment, description thereof is omitted.
  • logistic regression is applied to the classifier model
  • VAR model is applied to the time series model representing the time series change of the classification standard of the classifier.
  • the time series model learning unit 13b functions as a time series change learning unit that learns the time series change of the classification standard.
  • the time series model learning unit 13b performs a time series change learning process after the classifier learning process by the classifier learning unit 13a.
  • step S31 and the process of step S32 are different from the above-described first embodiment.
  • the classifier creating unit 14 of the first embodiment or the second embodiment may further derive the certainty of the classification criterion prediction of the classifier.
  • FIG. 7 is a diagram illustrating a schematic configuration of the creation apparatus 1 according to the third embodiment. In this embodiment, logistic regression is applied to the classifier model, and Gaussian Processes is applied to the time series model representing the time series change of the classification criteria of the classifier. Only processes different from those in the first embodiment will be described below. Note that description of the same processing as in the first embodiment is omitted.
  • the learning unit 13 simultaneously performs learning of the classification standard of the classifier and learning of the time series change of the classification standard using the labeled learning data to which the collection time t up to t T is given.
  • t 1 ⁇ t 2 ⁇ ... ⁇ t T.
  • logistic regression is applied to a classifier model on the assumption that an event to which a label as a classifier is given occurs with a predetermined probability distribution.
  • the classifier model is not limited to logistic regression, and may be a support vector machine, boosting, or the like.
  • the classifier logistic regression is applied, the label y n t feature vector x n t is the probability of 1 is expressed by the following equation (16).
  • the above k d can be defined by an arbitrary kernel function, but in the present embodiment, it is defined by a kernel function represented by the following equation (21).
  • the classifier learning unit 13a learns the classification criteria of the classifier at each past time point up to the present time. Specifically, the parameter w t representing the classification criterion of the classifier is obtained as a point that maximizes the log posterior distribution represented by the following equation (35) using the maximum posterior probability (MAP) estimation.
  • MAP maximum posterior probability

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

ラベルあり学習データを頻繁に収集することなく分類精度が維持された分類器を作成することを目的として、学習部(13)が、現在までに収集されたラベルが付与された学習用のデータを用いて、現在までの過去の各時点における分類器の分類基準を学習し、該分類基準の時系列変化を学習し、分類器作成部(14)が、学習された分類基準と時系列変化とを用いて未来の分類器の分類基準を予測して、入力されたデータの属性を表すラベルを出力する分類器を作成する。

Description

作成装置、作成方法、および作成プログラム
 本発明は、作成装置、作成方法、および作成プログラムに関する。
 機械学習において、あるデータが入力された場合に、そのデータの属性を表すラベルを出力する分類器が知られている。例えば、データとして新聞記事が分類器に入力された場合に、政治、経済、あるいはスポーツ等のラベルが出力される。学習すなわち分類器の作成は、学習用のデータとこの学習データのラベルとを組み合わせたラベルあり学習データを用いて行われる。
 分類器の分類基準は時間経過とともに変化する場合がある。例えば、スパムメールの作成者は、分類器をすり抜けるために、常に新しい特徴を有するスパムメールを作成している。そのため、スパムメールの分類基準は時間経過とともに変化して、分類器の分類精度が大きく低下してしまう。
 このような分類器の分類精度の経時劣化を防止するためには、分類基準が更新された分類器の作成(以下、分類器の更新とも記する)を行う必要がある。そこで、ラベルあり学習データを継続的に収集し、収集された最新のラベルあり学習データを用いて分類器を更新する技術が開示されている(非特許文献1,2参照)。
I.Koychev,"Gradual Forgetting for Adaptation to Concept Drift",Proceedings of ECAI 2000 Workshop on Current Issues in Spatio-Temporal Reasoning,Berlin,2000年,p.101-107 H.Shimodaira,"Improving predictive inference under covariate shift by weighting the log-likelihood function",Journal of Statistical Planning and Inference 90(2000),2000年,p.227-244
 しかしながら、ラベルあり学習データは、各学習データに専門家によりラベルが付与されたものであるため、ラベルあり学習データの継続的な収集や分類器の頻繁な更新は困難であった。また、分類器が閉鎖的な環境で使用される場合には、分類器の更新もしくは更新された分類器の適用が困難であった。例えば、セキュリティドメインでは、アンチウィルスソフトの更新ファイルすなわち更新された分類器は定期的に配布されているものの、アンチウィルスソフトを閉鎖環境で利用している場合には、更新された分類器の適用は困難であった。
 本発明は、上記に鑑みてなされたものであって、ラベルあり学習データを頻繁に収集することなく分類精度が維持された分類器を作成することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る作成装置は、入力されたデータの属性を表すラベルを出力する分類器を作成する作成装置であって、過去の各時点における分類器の分類基準を学習する分類器学習部と、該分類基準の時系列変化を学習する時系列変化学習部と、学習された前記分類基準と前記時系列変化とを用いて未来の分類器の分類基準を予測する予測部と、を備えることを特徴とする。
 本発明によれば、ラベルあり学習データを頻繁に収集することなく分類精度が維持された分類器を作成することができる。
図1は、本発明の第1の実施形態に係る作成装置の概略構成を示す模式図である。 図2は、第1の実施形態の作成処理手順を示すフローチャートである。 図3は、第1の実施形態の分類処理手順を示すフローチャートである。 図4は、第1の実施形態の作成装置による作成処理の効果を説明するための説明図である。 図5は、第2の実施形態の作成装置の概略構成を示す模式図である。 図6は、第2の実施形態の作成処理手順を示すフローチャートである。 図7は、第3の実施形態の作成装置の概略構成を示す模式図である。 図8は、第3の実施形態の作成処理手順を示すフローチャートである。 図9は、第3の実施形態の分類処理手順を示すフローチャートである。 図10は、第3の実施形態の作成装置による作成処理の効果を説明するための説明図である。 図11は、第3の実施形態の作成装置による作成処理の効果を説明するための説明図である。 図12は、第4の実施形態の作成装置の概略構成を示す模式図である。 図13は、第4の実施形態の作成処理手順を示すフローチャートである。 図14は、作成プログラムを実行するコンピュータを例示する図である。
[第1の実施形態]
 以下、図面を参照して、本発明の一実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[作成装置の構成]
 まず、図1を参照して、本実施形態に係る作成装置の概略構成を説明する。本実施形態に係る作成装置1は、ワークステーションやパソコン等の汎用コンピュータで実現され、後述する作成処理を実行して、入力されたデータの属性を表すラベルを出力する分類器を作成する。
 なお、図1に示すように、本実施形態の作成装置1は、作成処理を行う作成部10に加え、分類処理を行う分類部20を有する。分類部20は、作成部10により作成された分類器を用いてデータを分類してラベルを出力する分類処理を行う。分類部20は、作成部10と同一のハードウェアに実装されてもよいし、異なるハードウェアに実装されてもよい。
[作成部]
 作成部10は、学習データ入力部11、データ変換部12、学習部13、分類器作成部14、および分類器格納部15を有する。
 学習データ入力部11は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部に対して各種指示情報を入力する。本実施形態において、学習データ入力部11は、作成処理に用いられるラベルあり学習データを受け付ける。
 ここで、ラベルあり学習データとは、学習用のデータとこの学習データのラベルとの組み合わせを意味する。例えば、学習データがテキストである場合、政治、経済、あるいはスポーツ等のテキストの内容を表すラベルが付与される。また、ラベルあり学習データには、時刻情報が付与されている。時刻情報とは、例えば、学習データがテキストである場合、テキストが発刊された日時等を意味する。本実施形態では、現在までの過去の異なる時刻情報が付与された複数のラベルあり学習データが受け付けられる。
 なお、ラベルあり学習データは、NIC(Network Interface Card)等で実現される図示しない通信制御部を介して、外部のサーバ装置等から作成部10に入力されてもよい。
 制御部は、処理プログラムを実行するCPU(Central Processing Unit)等を用いて実現され、データ変換部12、学習部13、および分類器作成部14として機能する。
 データ変換部12は、後述する学習部13における処理の準備として、受け付けられたラベルあり学習データを、収集時刻、特徴ベクトル、および数値ラベルの組み合わせのデータに変換する。以下の作成部10の処理におけるラベルあり学習データとは、データ変換部12による変換後のデータを意味する。
 ここで、数値ラベルとは、ラベルあり学習データに付与されているラベルが数値に変換されたものである。また、収集時刻は、時刻情報を元にデータに付与される離散化された時刻を表す。同一タイムウィンドウ内で受け付けられたラベルあり学習データの時刻情報が、同一の収集時刻に変換される。
 また、特徴ベクトルとは、受け付けられたラベルあり学習データの特徴をn次元の数ベクトルで表記したものである。機械学習における汎用手法により変換される。例えば、学習データがテキストである場合には、形態素解析、n-gram、または区切り文字により変換される。
 学習部13は、現在までの過去の各時点における分類器の分類基準を学習する分類器学習部として機能する。また、学習部13は、該分類基準の時系列変化を学習する時系列変化学習部として機能する。本実施形態において、学習部13は、分類器学習部としての処理と時系列学習部としての処理とを同時に行う。
 具体的に、学習部13は、収集時刻t=1~Tが付与されたラベルあり学習データを用いて、分類器の分類基準の学習と分類基準の時系列変化の学習とを同時に行う。本実施形態において、分類器であるラベルが付与される事象が所定の確率分布で発生するものとして、分類器のモデルにロジスティック回帰が適用される。なお、分類器のモデルはロジスティック回帰に限定されず、サポートベクターマシン、ブースティング等でもよい。
 また、本実施形態において、分類器の分類基準の時系列変化を表す時系列モデルには、VAR(Vector AutoRegressive) modelが適用される。なお、時系列モデルはVAR modelに限定されず、Gaussian Processes等のモデルでもよい。
 まず、時刻tにおけるラベルあり学習データを、次式(1)のように表すことにする。なお、本実施形態において、ラベルは2つの離散値とした。
Figure JPOXMLDOC01-appb-M000001
 また、時刻t=1~Tにおけるラベルあり学習データの全体を、次式(2)のように表すことにする。
Figure JPOXMLDOC01-appb-M000002
 この場合に、ロジスティック回帰が適用された分類器において、特徴ベクトルx のラベルy が1である確率は、次式(3)で表される。
Figure JPOXMLDOC01-appb-M000003
 また、m次のVAR modelが適用された分類器の分類基準を表すパラメタwは、過去のパラメタwt-1,…,wt-mに線形に依存すると仮定される。したがって、パラメタwの時系列変化すなわちダイナミクスは、次式(4)のように表すことができる。
Figure JPOXMLDOC01-appb-M000004
 なお、t≦mの場合には、VAR modelが適用できないため、パラメタwは平均0の正規分布N(0,θ -1)に従うものとする。
 また、本実施形態においては簡単化のため、ダイナミクスA,…,Aは対角行列に制限する。この場合、wの第i成分wt,i(i=1~d)は、過去の値wt-1,i,…,wt-m,iにのみ依存する。
 ここで、分類器のパラメタWと時系列モデルのパラメタAの同時分布の確率モデルは、次式(5)で定義される。
Figure JPOXMLDOC01-appb-M000005
 上記式(5)に定義される確率モデルにおいて、ラベルあり学習データDが与えられた場合におけるパラメタW、A、Γ、θ、θの確率分布p(W,A、Γ、θ、θ|D)を求めればよい。ただし、これらの確率分布を直接求めることは困難であるため、本実施形態では、事後確率を近似的に求めるいわゆる変分ベイズ法を用いて、確率分布p(W,A、Γ、θ、θ|D)の近似分布q(W,A、Γ、θ、θ|D)を求める。
 まず、計算の簡便化のため、ロジスティック回帰式を次式(6)の右辺に示すように近似する。
Figure JPOXMLDOC01-appb-M000006
 次に、近似分布q(W,A、Γ、θ、θ|D)が次式(7)で表されるものと仮定する。
Figure JPOXMLDOC01-appb-M000007
 この場合に、変分ベイズ法を用いると、パラメタW,A、Γ、θ、θの近似分布は次式(8)に示す関数形をもつことがわかる。
Figure JPOXMLDOC01-appb-M000008
 学習部13は、上記式(8)に示したパラメタW,A、Γ、θ、θの近似分布を、次式(9)に示す更新式を用いて、所定の収束条件が満たされるまで更新を繰り返すことにより求めることができる。なお、所定の収束条件とは、例えば、予め定められた更新回数を超えること、あるいは、パラメタの変化量がある一定値以下になること等を意味する。
Figure JPOXMLDOC01-appb-M000009
 分類器作成部14は、未来の分類器の分類基準を予測する予測部として機能する。具体的に、分類器生成部14は、学習部13によって求められた時系列モデルを用いて、未来の時刻t=T+1,T+2,…における分類器を作成する。例えば、上記のように分類器のモデルにロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにVAR modelが適用された場合には、上記式(9)により学習されたパラメタWおよびAを上記式(4)に適用することにより、逐次的に未来の分類器のパラメタwT+1,wT+2,…が求められる。これにより、分類器作成部14は、未来の時刻の予測された分類基準の分類器を作成することができる。分類器作成部14は、作成された分類器を分類器格納部15に格納する。
 分類器格納部15は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、作成された未来の時刻の分類器を格納する。格納形式は特に限定されず、例えば、MySQLやPostgreSQL等のデータベース形式、表形式、またはテキスト形式等が例示される。
[分類部]
 分類部20は、データ入力部21、データ変換部22、分類部23、および分類結果出力部24を有し、上述したように、作成部10により作成された分類器を用いてデータを分類してラベルを出力する分類処理を行う。
 データ入力部21は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部に対して各種指示情報を入力したり、分類処理対象のデータを受け付けたりする。ここで受け付けられる分類処理対象のデータには、ある時点の時刻情報が付与されている。データ入力部21は、学習データ入力部11と同一のハードウェアでもよい。
 制御部は、処理プログラムを実行するCPU等を用いて実現され、データ変換部22と分類部23とを有する。
 データ変換部22は、作成部10のデータ変換部12と同様に、データ入力部21が受け付けた分類処理対象のデータを収集時刻および特徴ベクトルの組み合わせに変換する。ここで、分類処理対象のデータには、ある時点の時刻情報が付与されているため、収集時刻と時刻情報とが同一となる。
 分類部23は、分類器格納部15を参照し、分類処理対象のデータの収集時刻と同時刻の分類器を用いて、データの分類処理を行う。例えば、上記のように分類器のモデルにロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにVAR modelが適用された場合には、上記式(3)により当該データのラベルが1である確率が得られる。分類部23は、得られた確率が予め設定された所定の閾値以上であれば、ラベル=1とし、該閾値より小さい場合には、ラベル=0とする。
 分類結果出力部24は、液晶ディスプレイなどの表示装置、プリンター等の印刷装置、情報通信装置等によって実現され、分類処理の結果を操作者に対して出力する。例えば、入力されたデータに対するラベルを出力したり、入力されたデータにラベルを付与して出力したりする。
[作成処理]
 次に、図2を参照して、作成装置1の作成部10による作成処理について説明する。図2のフローチャートは、例えば、ユーザによる作成処理の開始を指示する操作入力があったタイミングで開始される。
 まず、学習データ入力部11が、時刻情報が付与されたラベルあり学習データを受け付ける(ステップS1)。次に、データ変換部12が、受け付けたラベルあり学習データを、収集時刻、特徴ベクトルおよび数値ラベルの組み合わせのデータに変換する(ステップS2)。
 次に、学習部13が、データ変換部12による変換後のラベルあり学習データを用いて、時刻t=1~Tの分類器の分類基準と分類基準の時系列変化を示す時系列モデルとを学習する(ステップS3)。例えば、ロジスティック回帰モデルのパラメタW(w=w~w)と、VAR modelのパラメタA(=A~A)とが、同時に求められる。
 次に、分類器作成部14が、時系列モデルを用いて、未来の時刻t=T+1,T+2,…の分類器の分類基準を予測して分類器を作成する(ステップS4)。例えば、ロジスティック回帰およびVAR modelが適用された分類器について、未来の分類器のパラメタwT+1,wT+2,…が求められる。
 最後に、分類器作成部14により作成された未来の時刻t=T+1,T+2,…の分類器が、分類器格納部15に格納される(ステップS5)。
[分類処理]
 次に図3を参照して作成装置1の分類部20による分類処理について説明する。図3のフローチャートは、例えば、ユーザによる分類処理の開始を指示する操作入力があったタイミングで開始される。
 まず、データ入力部21が、時刻t=T+1以降の分類処理対象のデータを受け付け(ステップS6)、データ変換部22が、受け付けたデータを収集時刻、特徴ベクトルの組み合わせのデータに変換する(ステップS7)。
 次に、分類部23が、分類器格納部15を参照して、受け付けたデータの収集時刻の分類器を用いてデータの分類処理を行う(ステップS8)。そして、分類結果出力部24が、分類結果の出力すなわち分類されたデータのラベルの出力を行う(ステップS9)。
 以上、説明したように、本実施形態の作成装置1では、学習部13が、現在までの過去の各時点における分類器の分類基準と、該分類基準の時系列変化とを学習し、分類器作成部14が、学習された分類基準と時系列変化とを用いて未来の分類器の分類基準を予測する。すなわち、図4に例示するように、入力された現在までの収集時刻t=1~Tのラベルあり学習データD(D,…,D)を用いて、学習部13が、時刻t=1~Tの分類器h(h、h、h、…,h)の分類基準と、分類基準の時系列変化すなわちダイナミクスを表す時系列モデルとを学習する。そして、分類器作成部14が、未来の時刻t=T+1,T+2,…の分類基準を予測して、各時刻の分類器hT+1,hT+2,…を作成する。
 これにより、本実施形態の作成装置1における作成部10の作成処理によれば、最新のラベルあり学習データを用いなくても分類器の分類精度の低下を抑止できる。すなわち、最新のラベルあり学習データを頻繁に追加して分類器を更新しなくても、分類精度の低下を抑止できる。このように、ラベルあり学習データを頻繁に収集することなく分類精度が維持された分類器を作成することができる。
 例えば、セキュリティベンダーがアンチウィルスソフトの更新ファイルすなわち更新された分類器を定期的に配布する場合に、次回の配布までの間に変化するウィルスにも対応して精度よく分類できる。また、アンチウィルスソフトに未来の時刻の分類器を内蔵しておけば、オフライン環境で使用される場合にも、変化するウィルスに対応できる。
 また、特に分類器の分類基準と分類基準の時系列変化とを同時に学習する場合には、例えば、ラベルあり学習データの数が少ない場合にも、分類器の分類基準と分類基準の時系列変化とを別々に学習する場合より、安定した学習を行うことができる。
 なお、本発明の作成処理は、ラベルを離散値とした分類問題に限定されず、ラベルを実数値とした回帰問題としてもよい。これにより、多様な分類器の未来の分類基準を予測することができる。
 また、上記実施形態では、学習部13は一度の作成処理で過去の収集時刻t=1~Tのラベルあり学習データを用いて分類器の分類基準と該分類基準の時系列変化とを学習しているが、これに限定されない。例えば、学習部13は、収集時刻t=1~T-1のラベルあり学習データを用いて分類器の分類基準と該分類基準の時系列変化とを学習した後、最新の収集時刻Tのラベルあり学習データを用いて分類器の分類基準と該分類基準の時系列変化とを学習してもよい。その場合、学習した分類器の各分類基準と該分類基準の時系列変化とを用いて、未来の分類器を作成する。これにより、最新の収集時刻Tのラベルあり学習データの特徴を精度高く反映した分類器を作成できる。
 また、ラベルあり学習データが過去の収集時刻t=1~Tのうちの一部すなわち一定の離散的な時間間隔で連続していなくてもよい。例えば、分類器の分類基準の時系列変化を表す時系列モデルにGaussian Processesを適用した場合、離散的な時間間隔が不均一であっても、分類器を作成できる。
[第2の実施形態]
 上記の第1の実施形態の学習部13は、分類器学習部13aと時系列モデル学習部13bとに分離されてもよい。図5は、第2の実施形態の作成装置1の概略構成を例示する図である。本実施形態は、上記の第1の実施形態の学習部13による処理を、分類器学習部13aおよび時系列モデル学習部13bが分担して行う点においてのみ異なる。その他の処理は第1の実施形態と同一であるので、説明を省略する。
 なお、本実施形態において、上記第1の実施形態と同様に、分類器のモデルにはロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにはVAR modelが適用される。
 分類器学習部13aは、現在までの過去の各時点における分類器の分類基準を学習する。具体的に、VAR modelへの入力となる分類器のパラメタwは、最大事後確率(MAP,Maximum A Posteriori)推定を利用して、次式(10)に示す対数事後分布を最大化する点として得られる。
Figure JPOXMLDOC01-appb-M000010
 分類器学習部13aは、パラメタwからwまでについて、この順に上記のMAP推定を実行することにより、時刻t=1~Tの分類器を得ることができる。
 時系列モデル学習部13bは、該分類基準の時系列変化を学習する時系列変化学習部として機能する。本実施形態において、時系列モデル学習部13bは、分類器学習部13aによる分類器学習処理の後に、時系列変化学習処理を行う。
 具体的に、分類器学習部13aにより得られた時刻t=1~Tの分類器を用いると、分類器のパラメタWと時系列モデルのパラメタAの同時分布の確率モデルは、次式(11)で定義される。
Figure JPOXMLDOC01-appb-M000011
 ここで、上記の第1の実施形態と同様に、変分ベイズ法を用いると、パラメタA、Γ、θの近似分布は次式(12)に示す関数形をもつことがわかる。
Figure JPOXMLDOC01-appb-M000012
 時系列モデル学習部13bは、第1の実施形態と同様に、上記式(12)に示したパラメタA、Γ、θの近似分布を、次式(13)に示す更新式を用いて、所定の収束条件が満たされるまで更新を繰り返すことにより求めることができる。
Figure JPOXMLDOC01-appb-M000013
 次に、図6を参照して、本実施形態の作成装置1の作成部10による作成処理について説明する。上記した第1の実施形態とは、ステップS31の処理およびステップS32の処理のみが異なる。
 ステップS31の処理では、分類器学習部13aは、収集時刻t=1~Tのラベルあり学習データを用いて、時刻t=1~Tの分類器の分類基準を学習する。例えば、ロジスティック回帰モデルのパラメタW(w=w~w)が求められる。
 ステップS32の処理では、時系列モデル学習部13bが、分類器学習部13aにより得られた時刻t=1~Tの分類器の分類基準を用いて、該分類基準の時系列変化を表す時系列モデルを学習する。例えば、VAR modelのパラメタA(=A~A)が求められる。
 このように、本実施形態の作成装置1の作成部10の作成処理によれば、分類器の分類基準と分類基準の時系列変化とが別々に学習される。これにより、例えば、ラベルあり学習データの数が多い場合にも、分類器の分類基準と分類基準の時系列変化とを同時に学習する場合より、各機能部の処理負荷を軽くすることができる。
[第3の実施形態]
 上記の第1の実施形態または第2の実施形態の分類器作成部14は、さらに、分類器の分類基準の予測の確からしさを導出してもよい。図7は、第3の実施形態の作成装置1の概略構成を例示する図である。本実施形態において、分類器のモデルにはロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにはGaussian Processesが適用される。以下に、上記の第1の実施形態と異なる処理についてのみ説明する。なお、第1の実施形態と同一の処理については説明を省略する。
 具体的に、学習部13は、tまでの収集時刻tが付与されたラベルあり学習データを用いて、分類器の分類基準の学習と分類基準の時系列変化の学習とを同時に行う。なお、以下の説明において、t<t<…<tとする。本実施形態において、分類器であるラベルが付与される事象が所定の確率分布で発生するものとして、分類器のモデルにロジスティック回帰が適用される。なお、分類器のモデルはロジスティック回帰に限定されず、サポートベクターマシン、ブースティング等でもよい。
 また、本実施形態において、分類器の分類基準の時系列変化を表す時系列モデルには、Gaussian Processesが適用される。なお、時系列モデルはGaussian Processesに限定されず、VAR model等のモデルでもよい。
 まず、時刻tにおけるラベルあり学習データを、次式(14)のように表すことにする。なお、本実施形態において、ラベルは2つの離散値としたが、ラベルが3つ以上の場合も適用可能である。
Figure JPOXMLDOC01-appb-M000014
 また、時刻t=t~tにおけるラベルあり学習データの全体を次式(15)のように表すことにする。
Figure JPOXMLDOC01-appb-M000015
 この場合に、ロジスティック回帰が適用された分類器において、特徴ベクトルx のラベルy が1である確率は、次式(16)で表される。
Figure JPOXMLDOC01-appb-M000016
 時刻tにおける分類器のパラメタのd成分wtdは、非線形関数fを用いて次式(17)より記述されるものと仮定する。ここで、d=1~Dである。
Figure JPOXMLDOC01-appb-M000017
 また、非線形関数fの事前分布は、Gaussian Processesに従うものとする。すなわち、次式(18)に示す時刻t=t~tの各時点における非線形関数の値は、次式(19)に示すガウス分布から生成されるものと仮定する。
Figure JPOXMLDOC01-appb-M000018
Figure JPOXMLDOC01-appb-M000019
 ここで、この共分散行列の各成分は、次式(20)で表される。
Figure JPOXMLDOC01-appb-M000020
 上記のkは任意のカーネル関数で定義され得るが、本実施形態において、次式(21)に示すカーネル関数で定義される。
Figure JPOXMLDOC01-appb-M000021
 この場合に、次式(22)に示す時刻t=t~tの分類器のパラメタ(d成分)の確率分布は、次式(23)で表される。
Figure JPOXMLDOC01-appb-M000022
Figure JPOXMLDOC01-appb-M000023
 この共分散行列の成分は、次式(24)に示すカーネル関数cで定義される。
Figure JPOXMLDOC01-appb-M000024
 この場合に、次式(25)に示す分類器の分類基準Wと、分類基準の時系列変化(ダイナミクス)を表す次式(26)に示すパラメタθとを学習するための同時分布の確率モデルは、次式(27)で定義される。
Figure JPOXMLDOC01-appb-M000025
Figure JPOXMLDOC01-appb-M000026
Figure JPOXMLDOC01-appb-M000027
 次に、上記式(27)で定義される確率モデルをもとに、データから事前確率を経験的に与えるいわゆる経験ベイズ法を用いて、ラベルあり学習データが与えられた場合に分類器Wが得られる確率とダイナミクスパラメータθとを推定する。経験ベイズ法において、次式(28)に示す下限Lを最大化することにより、所望のWの分布すなわちq(W)とダイナミクスパラメータθとが得られる。
Figure JPOXMLDOC01-appb-M000028
 ここで、まずq(W)が次式(29)に示すように因数分解できるものと仮定する。
Figure JPOXMLDOC01-appb-M000029
 その場合に、q(W)は次式(30)に示すガウス分布の関数形を示すことがわかる。
Figure JPOXMLDOC01-appb-M000030
 ここで、μtdおよびλtdは、次式(31)に示す更新式を用いて推定される。
Figure JPOXMLDOC01-appb-M000031
 また、ダイナミクスパラメータθは、非連立方程式の解を求めるためのいわゆる準ニュートン法を用いて更新される。準ニュートン法において、次式(32)に示す下限Lのθに関する項とθに関する微分とが用いられる。
Figure JPOXMLDOC01-appb-M000032
 学習部13は、上記の更新式を用いて、所定の収束条件が満たされるまで、q(W)の更新とθの更新とを交互に繰り返すことにより、所望のパラメタを推定できる。所定の収束条件とは、例えば、予め定められた更新回数を超えること、あるいは、パラメタの変化量がある一定値以下になること等を意味する。
 なお、更新を繰り返すと分類に影響を及ぼさない特徴に関するパラメタw・dの大きさは0に近づく。このように、Gaussian Processesを用いた場合に、重要ではない特徴が自動的に排除される。
 分類器作成部14は、学習部13が学習した分類器の分類基準と分類基準の時系列変化とを用いて、未来の時刻t>tの分類器の分類基準の予測と、予測の確からしさすなわち確信度とを導出する。時刻t>tにおいて分類器Wが得られる確率分布は、次式(33)で表される。
Figure JPOXMLDOC01-appb-M000033
 これにより、分類器作成部14は、未来の時刻の予測された分類基準の分類器を、その予測の確信度とともに得ることができる。分類器作成部14は、予測された分類器と確信度とを分類器格納部15に格納する。
 分類部23は、分類器格納部15を参照し、分類処理対象のデータの収集時刻と同時刻の分類器とその確信度とを用いて、データの分類処理を行う。例えば、上記のように分類器のモデルにロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにGaussian Processesが適用された場合には、次式(34)により、当該データxのラベルyが1である確率が得られる。分類部23は、得られた確率が予め設定された所定の閾値以上であれば、ラベル=1とし、該閾値より小さい場合には、ラベル=0とする。
Figure JPOXMLDOC01-appb-M000034
 次に、図8は、本実施形態の作成処理手順を例示するフローチャートである。図8に示すように、学習部13が時刻tまでの分類器の分類基準と分類器の時系列変化を表す時系列モデルとを学習する(ステップS30)。この場合に、上記の第1の実施形態とは、分類器作成部14がt>tの分類器の分類基準を確信度とともに予測して(ステップS40)、分類器格納部15に格納すること(ステップS50)が異なる。また、図9は、本実施形態の分類処理手順を例示するフローチャートである。図9に示すように、上記の第1の実施形態とは、分類部23が、受け付けたデータの収集時刻の分類器とともにその確信度を用いてデータを分類すること(ステップS80)が異なる。
 このように、本実施形態の作成装置1によれば、未来の分類基準を確信度とともに予測する。すなわち、図10および図11に例示するように、予測できる未来の分類器の分類基準wの確率分布は様々に異なる。図10に例示するように、分類基準wの確率の分散が小さい場合には、高い確率すなわち高い確信度で分類基準wを予測できる。一方、図11に例示するように、分類基準wの確率の分散が大きい場合には、分類基準wの確率すなわち確信度が低くなる。したがって、予測される分類基準wの確信度を考慮して分類器を用いることにより、高精度に分類を行うことが可能となる。
[第4の実施形態]
 上記の第3の実施形態の学習部13は、分類器学習部13aと時系列モデル学習部13bとに分離されてもよい。図12は、第4の実施形態の作成装置1の概略構成を例示する図である。本実施形態は、上記の第3の実施形態の学習部13による処理を、分類器学習部13aおよび時系列モデル学習部13bが分担して行う点においてのみ異なる。その他の処理は第3の実施形態と同一であるので、説明を省略する。
 なお、本実施形態において、上記第3の実施形態と同様に、分類器のモデルにはロジスティック回帰が適用され、分類器の分類基準の時系列変化を表す時系列モデルにはGaussian Processesが適用される。なお、時系列モデルはGaussian Processesに限定されず、VAR model等のモデルでもよい。
 分類器学習部13aは、現在までの過去の各時点における分類器の分類基準を学習する。具体的に、分類器の分類基準を表すパラメタwは、最大事後確率(MAP)推定を利用して、次式(35)に示す対数事後分布を最大化する点として得られる。
Figure JPOXMLDOC01-appb-M000035
 分類器学習部13aは、時刻tからtまでの各時刻tにおけるパラメタwについて、この順に上記のMAP推定を実行することにより、時刻tまでの分類器を得ることができる。
 また、時系列モデル学習部13bは、分類器学習部13aにより得られた時刻tまでの分類器をもとに、上記の第3の実施形態と同様に、分類器の分類基準の時系列変化を学習する。
 図13は、本実施形態の作成処理手順を例示するフローチャートである。上記した第3の実施形態とは、ステップS301の処理およびステップS302の処理のみが異なる。
 ステップS301の処理では、分類器学習部13aは、収集時刻t=t~tのラベルあり学習データを用いて、時刻tの分類器の分類基準を学習する。例えば、ロジスティック回帰モデルの時刻tまでの各時刻tにおけるパラメタwが求められる。
 ステップS302の処理では、時系列モデル学習部13bが、分類器学習部13aにより得られた時刻tまでの分類器の分類基準を用いて、該分類基準の時系列変化を表す時系列モデルを学習する。例えば、Gaussian Processesのパラメタθが求められる。
 このように、本実施形態の作成装置1によれば、上記第2の実施形態と同様に、分類器の分類基準と分類基準の時系列変化とが別々に学習される。これにより、例えば、ラベルあり学習データの数が多い場合にも、分類器の分類基準と分類基準の時系列変化とを同時に学習する場合より、各機能部の処理負荷を軽くして、短時間で処理することができる。
[プログラム]
 上記実施形態に係る作成装置1が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。一実施形態として、作成装置1は、パッケージソフトウェアやオンラインソフトウェアとして上記の作成処理を実行する作成プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の作成プログラムを情報処理装置に実行させることにより、情報処理装置を作成装置1として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末、さらには、PDA(Personal Digital Assistants)などのスレート端末などがその範疇に含まれる。また、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の作成処理に関するサービスを提供するサーバ装置として実装することもできる。例えば、作成装置1は、ラベルあり学習データを入力とし、分類器を出力する作成処理サービスを提供するサーバ装置として実装される。この場合、作成装置1は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の作成処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。以下に、作成装置1と同様の機能を実現する作成プログラムを実行するコンピュータの一例を説明する。
 図14に示すように、作成プログラムを実行するコンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
 メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1051およびキーボード1052が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1061が接続される。
 ここで、図14に示すように、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各テーブルは、例えばハードディスクドライブ1031やメモリ1010に記憶される。
 また、作成プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、ハードディスクドライブ1031に記憶される。具体的には、上記実施形態で説明した作成装置1が実行する各処理が記述されたプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。
 また、作成プログラムによる情報処理に用いられるデータは、プログラムデータ1094として、例えば、ハードディスクドライブ1031に記憶される。そして、CPU1020が、ハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
 なお、作成プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、作成プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
 以上、本発明者によってなされた発明を適用した実施形態について説明したが、本実施形態による本発明の開示の一部をなす記述および図面により本発明は限定されることはない。すなわち、本実施形態に基づいて当業者等によりなされる他の実施形態、実施例および運用技術等は全て本発明の範疇に含まれる。
 1 作成装置
 10 作成部
 11 学習データ入力部
 12 データ変換部
 13 学習部
 13a 分類器学習部
 13b 時系列モデル学習部
 14 分類器作成部
 15 分類器格納部
 20 分類部
 21 データ入力部
 22 データ変換部
 23 分類部
 24 分類結果出力部

Claims (8)

  1.  入力されたデータの属性を表すラベルを出力する分類器を作成する作成装置であって、
     過去の各時点における分類器の分類基準を学習する分類器学習部と、
     該分類基準の時系列変化を学習する時系列変化学習部と、
     学習された前記分類基準と前記時系列変化とを用いて未来の分類器の分類基準を予測する予測部と、
     を備えることを特徴とする作成装置。
  2.  前記分類器学習部および前記時系列変化学習部は、現在までに収集された前記ラベルが付与された学習用のデータを用いることを特徴とする請求項1に記載の作成装置。
  3.  前記データは、一定の離散的な時間間隔で連続していないことを特徴とする請求項1または2に記載の作成装置。
  4.  前記予測部は、さらに、予測した前記分類基準の予測の確からしさを導出することを特徴とする請求項1~3のいずれか1項に記載の作成装置。
  5.  前記分類器学習部の処理の後、前記時系列変化学習部の処理を行うことを特徴とする請求項1~4のいずれか1項に記載の作成装置。
  6.  前記分類器学習部の処理と、前記時系列変化学習部の処理とを、同時に行うことを特徴とする請求項1~4のいずれか1項に記載の作成装置。
  7.  入力されたデータの属性を表すラベルを出力する分類器を作成する作成装置で実行される作成方法であって、
     過去の各時点における分類器の分類基準を学習する分類器学習工程と、
     該分類基準の時系列変化を学習する時系列変化学習工程と、
     学習された前記分類基準と前記時系列変化とを用いて未来の分類器の分類基準を予測する予測工程と、
     を含んだことを特徴とする作成方法。
  8.  コンピュータに、
     過去の各時点における分類器の分類基準を学習する分類器学習ステップと、
     該分類基準の時系列変化を学習する時系列変化学習ステップと、
     学習された前記分類基準と前記時系列変化とを用いて未来の分類器の分類基準を予測する予測ステップと、
     を実行させることを特徴とする作成プログラム。
PCT/JP2017/001775 2016-01-27 2017-01-19 作成装置、作成方法、および作成プログラム WO2017130835A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/064,659 US11615273B2 (en) 2016-01-27 2017-01-19 Creating apparatus, creating method, and creating program
JP2017564202A JP6450032B2 (ja) 2016-01-27 2017-01-19 作成装置、作成方法、および作成プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016013430 2016-01-27
JP2016-013430 2016-01-27

Publications (1)

Publication Number Publication Date
WO2017130835A1 true WO2017130835A1 (ja) 2017-08-03

Family

ID=59398213

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/001775 WO2017130835A1 (ja) 2016-01-27 2017-01-19 作成装置、作成方法、および作成プログラム

Country Status (3)

Country Link
US (1) US11615273B2 (ja)
JP (1) JP6450032B2 (ja)
WO (1) WO2017130835A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097184A (zh) * 2018-01-29 2019-08-06 松下电器(美国)知识产权公司 信息处理方法以及信息处理系统
WO2019221206A1 (ja) * 2018-05-16 2019-11-21 日本電信電話株式会社 作成装置、作成方法、および作成プログラム
JP2022097034A (ja) * 2020-12-18 2022-06-30 株式会社日立製作所 審査支援システム、及び審査支援方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020109950A1 (en) * 2018-11-30 2020-06-04 3M Innovative Properties Company Predictive system for request approval
US20200327985A1 (en) * 2019-04-09 2020-10-15 Tencent America LLC Multimodal framework for heart abnormalities analysis based on emr/ehr and electrocardiography
EP3862933A1 (en) * 2020-02-10 2021-08-11 Banco Bilbao Vizcaya Argentaria, S.A. Method and system for monitoring alerts

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006012165A (ja) * 2004-06-29 2006-01-12 Microsoft Corp 増分アンチスパムのルックアップサービスおよびアップデートサービス
US20070260568A1 (en) * 2006-04-21 2007-11-08 International Business Machines Corporation System and method of mining time-changing data streams using a dynamic rule classifier having low granularity
US20080071721A1 (en) * 2006-08-18 2008-03-20 Haixun Wang System and method for learning models from scarce and skewed training data

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8200514B1 (en) * 2006-02-17 2012-06-12 Farecast, Inc. Travel-related prediction system
US8700953B2 (en) * 2008-09-18 2014-04-15 Nec Corporation Operation management device, operation management method, and operation management program
KR102273684B1 (ko) * 2012-11-10 2021-07-07 더 리젠츠 오브 더 유니버시티 오브 캘리포니아 신경병리 평가를 위한 시스템 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006012165A (ja) * 2004-06-29 2006-01-12 Microsoft Corp 増分アンチスパムのルックアップサービスおよびアップデートサービス
US20070260568A1 (en) * 2006-04-21 2007-11-08 International Business Machines Corporation System and method of mining time-changing data streams using a dynamic rule classifier having low granularity
US20080071721A1 (en) * 2006-08-18 2008-03-20 Haixun Wang System and method for learning models from scarce and skewed training data

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097184A (zh) * 2018-01-29 2019-08-06 松下电器(美国)知识产权公司 信息处理方法以及信息处理系统
CN110097184B (zh) * 2018-01-29 2024-03-01 松下电器(美国)知识产权公司 信息处理方法以及信息处理系统
WO2019221206A1 (ja) * 2018-05-16 2019-11-21 日本電信電話株式会社 作成装置、作成方法、および作成プログラム
JP2019200618A (ja) * 2018-05-16 2019-11-21 日本電信電話株式会社 作成装置、作成方法、および作成プログラム
JP2022097034A (ja) * 2020-12-18 2022-06-30 株式会社日立製作所 審査支援システム、及び審査支援方法
JP7442430B2 (ja) 2020-12-18 2024-03-04 株式会社日立製作所 審査支援システム、及び審査支援方法

Also Published As

Publication number Publication date
US20190012566A1 (en) 2019-01-10
JP6450032B2 (ja) 2019-01-09
JPWO2017130835A1 (ja) 2018-06-21
US11615273B2 (en) 2023-03-28

Similar Documents

Publication Publication Date Title
JP6450032B2 (ja) 作成装置、作成方法、および作成プログラム
US11240121B2 (en) Methods and systems for controlling data backup
JP6535134B2 (ja) 作成装置、作成プログラム、および作成方法
US11823058B2 (en) Data valuation using reinforcement learning
US20210034976A1 (en) Framework for Learning to Transfer Learn
CN111190967B (zh) 用户多维度数据处理方法、装置及电子设备
WO2021061951A1 (en) Distance-based learning confidence model
KR101700030B1 (ko) 사전 정보를 이용한 영상 물체 탐색 방법 및 이를 수행하는 장치
WO2019221206A1 (ja) 作成装置、作成方法、および作成プログラム
JP7047664B2 (ja) 学習装置、学習方法および予測システム
WO2020170803A1 (ja) 拡張装置、拡張方法及び拡張プログラム
CN113612777B (zh) 训练方法、流量分级方法、装置、电子设备以及存储介质
US20220138573A1 (en) Methods and systems for training convolutional neural networks
WO2021075009A1 (ja) 学習装置、推定装置、学習方法及び学習プログラム
WO2021240661A1 (ja) 学習装置、学習方法、推定装置、推定方法及びプログラム
CN114067415A (zh) 回归模型的训练方法、对象评估方法、装置、设备和介质
Li et al. A BYY scale-incremental EM algorithm for Gaussian mixture learning
Song et al. Active learning for streaming data in a contextual bandit framework
CN113705786B (zh) 基于模型的数据处理方法、装置及存储介质
WO2023067669A1 (ja) 学習装置、学習方法、および、学習プログラム
WO2024134843A1 (ja) 異常検知装置、異常検知方法および異常検知プログラム
CN112639843B (zh) 使用机器学习模型来抑制偏差数据
US20240070658A1 (en) Parsing event data for clustering and classification
Shahabsamani End-to-end performance prediction and automated resource management of cloud services
CN117056596A (zh) 会话推荐方法、系统、终端设备及介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17744065

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017564202

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17744065

Country of ref document: EP

Kind code of ref document: A1