JP2016099716A - システム、識別装置、識別モデル生成装置、情報処理方法及びプログラム - Google Patents
システム、識別装置、識別モデル生成装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2016099716A JP2016099716A JP2014234600A JP2014234600A JP2016099716A JP 2016099716 A JP2016099716 A JP 2016099716A JP 2014234600 A JP2014234600 A JP 2014234600A JP 2014234600 A JP2014234600 A JP 2014234600A JP 2016099716 A JP2016099716 A JP 2016099716A
- Authority
- JP
- Japan
- Prior art keywords
- identification model
- training data
- probability density
- class
- known class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】正常クラスに属する訓練データが疎な領域に位置する入力データを、未知のクラスに識別することを目的とする。【解決手段】既知のクラスに関連付けて記憶されている訓練データに基づいて、訓練データの既知のクラスにおける条件付き確率密度を示す確率密度情報を取得する取得手段と、訓練データと、取得手段により取得された確率密度情報と、既知のクラスに関連付けて記憶されているコスト情報と、に基づいて、識別モデルを生成する生成手段と、を有することによって課題を解決する。【選択図】図2
Description
本発明は、システム、識別装置、識別モデル生成装置、情報処理方法及びプログラムに関する。
センサが取得した入力データを正常や異常等のクラスに識別する異常検知の問題がある。この異常検知の問題に対するアプローチには、訓練データから学習した識別器を用いて、入力データが各クラスに属する確信度を計算し、確信度に基づいてクラスを選択するものがある。アプローチにおいて重要なのは、異常クラスに属する入力データを誤って正常クラスに識別することを減らすことと、訓練データには含まれていない新しい種類の異常クラスに属する入力データを、未知のクラスに識別できることである。
非特許文献1では、各クラスに、誤識別のコストに比例した確信度の閾値を設定することにより、特徴空間上のクラス間の境界付近に位置する確信度の低い入力データをコストの低いクラスに識別している。
非特許文献1では、各クラスに、誤識別のコストに比例した確信度の閾値を設定することにより、特徴空間上のクラス間の境界付近に位置する確信度の低い入力データをコストの低いクラスに識別している。
W.T.Yih,J.Goodman and G. Hulten,Learning at Low False Positive Rates,The Third Conference on Email and Anti−Spam,2006
しかしながら、特徴空間上のクラス間境界からはずれた入力データは、正常クラスに属する訓練データが疎な領域においても、クラス間の境界付近と比べると、正常クラスに対して高い確信度を持つ。ここで、正常クラスに高いコストを設定し、異常クラスに低いコストを設定し、閾値を低く設定した場合、入力データは正常クラスに識別される。一方、閾値を高く設定した場合、入力データは異常クラスに識別されるが、クラス間境界付近の入力データは、過度に異常クラスに識別される。これにより、非特許文献1に記載されている異常検知手法では、正常クラスに属する訓練データが疎な領域に位置する入力データを、未知のクラスに識別することができない問題があった。
そこで、本発明のシステムは、既知のクラスに関連付けて記憶されている訓練データに基づいて、前記訓練データの前記既知のクラスにおける条件付き確率密度を示す確率密度情報を取得する第1の取得手段と、前記訓練データと、前記第1の取得手段により取得された前記確率密度情報と、既知のクラスに関連付けて記憶されているコスト情報と、に基づいて、識別モデルを生成する生成手段と、入力データの特徴量を抽出する抽出手段と、前記訓練データと、前記生成手段により出力された前記識別モデルと、前記抽出手段により抽出された特徴量と、に基づいて、前記入力データが既知のクラスに属する確信度を取得する第2の取得手段と、前記第2の取得手段により取得された前記確信度に基づいて、前記入力データが既知のクラスに属するか、未知のクラスに属するかを判定する判定手段と、前記判定手段による判定の結果を出力する出力手段と、を有する。
本発明によれば、正常クラスに属する訓練データが疎な領域に位置する入力データを、未知のクラスに識別することができるようにすることができる。
<第1の実施形態>
第1の実施形態について、図面を参照して説明する。本実施形態における異常検知システム1では、カメラ等の撮像装置が監視対象を撮影する。そして、識別装置が撮像装置から出力された入力データに基づいて、監視対象の状態を既知のクラス又は、未知のクラスに識別する。ここで、既知のクラスには、例えば、監視対象が既知の正常状態であることを示す正常クラスや、既知の異常状態を示す異常クラス等がある。また、未知のクラスとは、訓練データには含まれていないクラスのことである。そして、異常検知システム1では、識別装置が入力データを、異常クラス又は未知のクラスに識別した場合、警備室等の監視センタに常駐する監視者の端末装置に表示情報を送信し、警告させる。この監視対象には、例えば、一般家庭の屋内及び屋外、又は病院、駅等の公共施設が含まれる。また、本実施形態では、識別モデルを線形モデル又は対数線形モデルにより既知のクラスの事後確率を、入力データが既知のクラスに属する確信度として表わす場合について説明する。より具体的には、入力データXが与えられたもとでの、既知のクラスyの事後確率のモデルq(y|X)は、線形モデルの場合、以下に示す式(1)で表される(参考文献1参照)。
第1の実施形態について、図面を参照して説明する。本実施形態における異常検知システム1では、カメラ等の撮像装置が監視対象を撮影する。そして、識別装置が撮像装置から出力された入力データに基づいて、監視対象の状態を既知のクラス又は、未知のクラスに識別する。ここで、既知のクラスには、例えば、監視対象が既知の正常状態であることを示す正常クラスや、既知の異常状態を示す異常クラス等がある。また、未知のクラスとは、訓練データには含まれていないクラスのことである。そして、異常検知システム1では、識別装置が入力データを、異常クラス又は未知のクラスに識別した場合、警備室等の監視センタに常駐する監視者の端末装置に表示情報を送信し、警告させる。この監視対象には、例えば、一般家庭の屋内及び屋外、又は病院、駅等の公共施設が含まれる。また、本実施形態では、識別モデルを線形モデル又は対数線形モデルにより既知のクラスの事後確率を、入力データが既知のクラスに属する確信度として表わす場合について説明する。より具体的には、入力データXが与えられたもとでの、既知のクラスyの事後確率のモデルq(y|X)は、線形モデルの場合、以下に示す式(1)で表される(参考文献1参照)。
一方、対数線形モデルの場合、以下に示す式(2)で表される(参考文献2参照)。
ここで、Tはベクトルの転置であり、Cは既知のクラスの数であり、θyは、既知のクラスyに係る事後確率のN次元のモデルパラメータベクトルであり、Φ(X)は、入力データXに係るN次元の基底関数ベクトルである。なお、Nは訓練データ数である。
図1は、異常検知システム1に含まれる識別モデル生成装置や識別装置等の情報処理装置のハードウェア構成の一例を示す図である。
図1に示される様に、識別モデル生成装置や識別装置等の情報処理装置は、ハードウェア構成として、少なくとも、CPU101と、メモリ102と、ネットワークI/F103と、を有する。CPU101は、情報処理装置の全体を制御する。CPU101がメモリ102に記憶されたプログラムに基づき処理を実行することによって、後述する識別モデル生成装置や識別装置の機能や、フローチャートの処理が実現される。メモリ102は、RAMやROM、HD等であり、プログラムやCPU101が処理を実行する際に利用するデータ等を記憶する。後述する記憶部は、メモリ102に構成される。ネットワークI/F103は、情報処理装置をネットワーク等に接続する。
なお、撮像装置30や端末装置40等も図1に示されるようなハードウェア構成を少なくとも有する。そして、各々のCPUが各々のメモリに記憶されているプログラムに基づき処理を実行することによって、各々の装置の機能等が実現される。また、撮像装置30の場合は、CPUやメモリ以外にもハードウェア構成として少なくとも撮像素子等を有する。また、端末装置40の場合は、CPUやメモリ以外にもハードウェア構成として少なくともディスプレイ等の後述する表示部41を有する。
図1に示される様に、識別モデル生成装置や識別装置等の情報処理装置は、ハードウェア構成として、少なくとも、CPU101と、メモリ102と、ネットワークI/F103と、を有する。CPU101は、情報処理装置の全体を制御する。CPU101がメモリ102に記憶されたプログラムに基づき処理を実行することによって、後述する識別モデル生成装置や識別装置の機能や、フローチャートの処理が実現される。メモリ102は、RAMやROM、HD等であり、プログラムやCPU101が処理を実行する際に利用するデータ等を記憶する。後述する記憶部は、メモリ102に構成される。ネットワークI/F103は、情報処理装置をネットワーク等に接続する。
なお、撮像装置30や端末装置40等も図1に示されるようなハードウェア構成を少なくとも有する。そして、各々のCPUが各々のメモリに記憶されているプログラムに基づき処理を実行することによって、各々の装置の機能等が実現される。また、撮像装置30の場合は、CPUやメモリ以外にもハードウェア構成として少なくとも撮像素子等を有する。また、端末装置40の場合は、CPUやメモリ以外にもハードウェア構成として少なくともディスプレイ等の後述する表示部41を有する。
図2は、異常検知システム1のシステム構成等の一例を示す図である。異常検知システム1は、ネットワークを介して接続された識別モデル生成装置10と、識別装置20と、撮像装置30と、端末装置40と、を含む。このネットワークには、例えば、携帯電話回線網やインターネットが適用できる。
次に、識別モデル生成装置10の機能構成について説明する。
識別モデル生成装置10は、識別装置20にて用いられる識別モデルを示す識別モデル情報を生成する装置である。識別モデル生成装置10は、機能構成として、訓練データ記憶部M1と、確率密度記憶部M2と、コスト記憶部M3と、識別モデル記憶部M4と、確率密度計算部11と、識別モデル生成部(識別モデル選択部12及び識別モデル学習部13)と、を含む。
訓練データ記憶部M1は、既知のクラスに関連付けて訓練データを記憶する。より具体的には、訓練データ記憶部M1は、訓練データ点を識別する訓練データIDと、訓練データ点が属する既知のクラスを識別する既知クラスIDとに関連付けて、訓練データ点の特徴量を示す訓練特徴量を記憶する。この特徴量とは、事前に撮像装置30により取得された映像又は画像データから設定された方法を用いて抽出された、監視対象の一つ又は複数の特徴を示す情報である。特徴量の抽出方法については、識別装置20が備える特徴量抽出部21の説明にて後述する。既知のクラスには、例えば、監視対象が正常の状態であることを示す正常クラスや、異常の状態を示す異常クラス等がある。なお、既知のクラスは、正常及び異常の種類に対応していてもよく、3つ以上あってもよい。
次に、識別モデル生成装置10の機能構成について説明する。
識別モデル生成装置10は、識別装置20にて用いられる識別モデルを示す識別モデル情報を生成する装置である。識別モデル生成装置10は、機能構成として、訓練データ記憶部M1と、確率密度記憶部M2と、コスト記憶部M3と、識別モデル記憶部M4と、確率密度計算部11と、識別モデル生成部(識別モデル選択部12及び識別モデル学習部13)と、を含む。
訓練データ記憶部M1は、既知のクラスに関連付けて訓練データを記憶する。より具体的には、訓練データ記憶部M1は、訓練データ点を識別する訓練データIDと、訓練データ点が属する既知のクラスを識別する既知クラスIDとに関連付けて、訓練データ点の特徴量を示す訓練特徴量を記憶する。この特徴量とは、事前に撮像装置30により取得された映像又は画像データから設定された方法を用いて抽出された、監視対象の一つ又は複数の特徴を示す情報である。特徴量の抽出方法については、識別装置20が備える特徴量抽出部21の説明にて後述する。既知のクラスには、例えば、監視対象が正常の状態であることを示す正常クラスや、異常の状態を示す異常クラス等がある。なお、既知のクラスは、正常及び異常の種類に対応していてもよく、3つ以上あってもよい。
図3は、訓練データ記憶部M1に記憶されている情報の一例を示す図である。図3の表全体が訓練データに対応し、表の各行が訓練データ点に対応する。図3が示すように、訓練データIDと既知クラスIDとは、例えば、アルファベット及び数字とから成る文字列である。例えば、図3の2つの訓練データ点は、訓練データID「D0001」と訓練データID「D0002」とにより識別され、それぞれ、既知クラスID「1」と「2」とにより識別される既知のクラスに属している。そして、図3では、訓練データIDと既知クラスIDとに関連付けられ、複数の特徴量、例えば、特徴量1、特徴量2の値が格納されていることが示されている。
確率密度記憶部M2は、条件付き確率密度を示す確率密度情報を記憶する。より具体的には、確率密度記憶部M2は、訓練データIDに関連付けて、訓練データ点が属する既知のクラスが与えられたもとでの、訓練データ点の条件付き確率密度を示す確率密度情報を記憶する。
図4は、確率密度記憶部M2に記憶されている情報の一例を示す図である。図4の各行に、訓練データ点の確率密度情報が訓練データIDに関連付けられて記憶される。例えば、訓練データID「D0001」の確率密度情報は、「0.5」である。また、訓練データID「D0002」の確率密度情報は、「0.2」である。
図4は、確率密度記憶部M2に記憶されている情報の一例を示す図である。図4の各行に、訓練データ点の確率密度情報が訓練データIDに関連付けられて記憶される。例えば、訓練データID「D0001」の確率密度情報は、「0.5」である。また、訓練データID「D0002」の確率密度情報は、「0.2」である。
再び、図2を参照して、識別モデル生成装置10の構成について説明する。
確率密度計算部11は、訓練データ記憶部M1が既知のクラスに関連付けて記憶する訓練データの既知のクラスにおける条件付き確率密度を示す確率密度情報を計算し、確率密度記憶部M2に記憶する。より具体的には、確率密度計算部11は、訓練データ記憶部M1から、訓練データを読み込む。次に、確率密度計算部11は、読み込んだ訓練データに基づいて、各訓練データ点が属する既知のクラスが与えられたもとでの、各訓練データ点の条件付き確率密度を設定された方法を用いて計算する。そして、確率密度計算部11は、訓練データIDに関連づけて、計算した条件付き確率密度を示す確率密度情報を、確率密度記憶部M2に記憶する。それと共に、確率密度計算部11は、識別モデル選択部12にトリガーを出力する。
確率密度計算部11は、訓練データ記憶部M1が既知のクラスに関連付けて記憶する訓練データの既知のクラスにおける条件付き確率密度を示す確率密度情報を計算し、確率密度記憶部M2に記憶する。より具体的には、確率密度計算部11は、訓練データ記憶部M1から、訓練データを読み込む。次に、確率密度計算部11は、読み込んだ訓練データに基づいて、各訓練データ点が属する既知のクラスが与えられたもとでの、各訓練データ点の条件付き確率密度を設定された方法を用いて計算する。そして、確率密度計算部11は、訓練データIDに関連づけて、計算した条件付き確率密度を示す確率密度情報を、確率密度記憶部M2に記憶する。それと共に、確率密度計算部11は、識別モデル選択部12にトリガーを出力する。
条件付き確率密度を計算する設定された方法には、例えば、カーネル確率密度推定法がある。より具体的には、既知のクラスyに属する訓練データ点Xの確率密度は次のように推定される(参考文献3参照)。
(参考文献3)E.Parzen,On Estimation of a Probability Density Function and Mode,Annals of Mathematical Statistics,vol.33,no.3,pp.1065−1076,1962
ここで、Nyは、クラスyに属する訓練データ点の数、σkdeは、ガウスカーネル関数の幅である。この幅σkdeの値は、例えば、全ての訓練データ点間の距離の中央値(メディアン値)により設定される。
ここで、Nyは、クラスyに属する訓練データ点の数、σkdeは、ガウスカーネル関数の幅である。この幅σkdeの値は、例えば、全ての訓練データ点間の距離の中央値(メディアン値)により設定される。
識別モデル選択部12は、訓練データ記憶部M1に記憶されている訓練データから算出された設定された識別モデルの候補に対する評価に基づき、識別モデルを選択する。より具体的には、識別モデル選択部12は、確率密度計算部11からトリガーを入力したことに応じて、訓練データ記憶部M1に記憶されている訓練データを読み込む。次に、識別モデル選択部12は、読み込んだ訓練データに基づいて、設定された方法により、設定された識別モデルの候補に対する評価を示す評価情報を算出する。そして、識別モデル選択部12は、算出した評価情報を最大化する識別モデルを選択し、識別モデルを示す識別モデル情報を識別モデル学習部13に出力する。ここで、設定された識別モデルの候補には、例えば、式(3)にて前述したガウス基底関数の幅σの予め設定された複数の値の候補や、ガウス基底関数を置く訓練データ点をランダムに選択した複数の候補等がある。また、設定された評価情報の算出方法には、例えば、訓練データを分割し、その一部を用いて識別モデルのパラメータを設定し、残る部分で識別モデルの識別性能を評価する交差確認法等がある。この交差確認法については、第2の実施形態の識別モデル選択部の説明にて詳細に述べる。また、この評価情報としては、例えば、識別率等が用いられる。
コスト記憶部M3は、各既知のクラスに誤って識別した際に発生する損害を示すコスト情報を既知クラスIDに関連付けて記憶する。ここで、損害とは、例えば、入力データを誤って異なるクラスに識別した際に発生する費用や時間等のユーザにかかる負担をしん酌計量化した値である。また、コスト情報とは、例えば、この損害に比例する数値である。
図5は、コスト記憶部M3に記憶されている情報の一例を示す図である。図5では、誤ってクラスID「1」に識別された場合は、コスト情報が「5」、誤ってクラスID「2」に識別された場合は、コスト情報が「1」であることが示されている。
図5は、コスト記憶部M3に記憶されている情報の一例を示す図である。図5では、誤ってクラスID「1」に識別された場合は、コスト情報が「5」、誤ってクラスID「2」に識別された場合は、コスト情報が「1」であることが示されている。
識別モデル記憶部M4は、識別モデルを示す識別モデル情報を記憶する。より具体的には、識別モデル記憶部M4は、既知クラスIDと、訓練データIDとに関連付けて、訓練データ点に対応する識別モデル情報を記憶する。この識別モデル情報とは、例えば、後述する識別モデル学習部13が設定するパラメータθ(式(2)及び式(3)を参照)や、前述した識別モデル選択部12が選択した基底関数の幅σ等が含まれる。
図6は、識別モデル記憶部M4に記憶されている情報の一例を示す図である。図6では、既知クラスIDに関連付けられた表があり、各表には訓練データIDに関連付けて後述する識別モデル学習部13が設定するパラメータθと、前述した識別モデル選択部12が選択した基底関数の幅σとが記憶されていることが示されている。
図6は、識別モデル記憶部M4に記憶されている情報の一例を示す図である。図6では、既知クラスIDに関連付けられた表があり、各表には訓練データIDに関連付けて後述する識別モデル学習部13が設定するパラメータθと、前述した識別モデル選択部12が選択した基底関数の幅σとが記憶されていることが示されている。
識別モデル学習部13は、確率密度記憶部M2に記憶されている確率密度情報と、コスト記憶部M3に記憶されているコスト情報とに基づいた正則化のもと、訓練データ記憶部M1に記憶されている訓練データに基づき、識別モデルのパラメータを設定する。そして、識別モデル学習部13は、識別モデルを示す識別モデル情報を、識別モデル記憶部M4に記憶する。より具体的には、識別モデル学習部13は、識別モデル選択部12が識別モデル情報を出力したことに応じて、識別モデル情報を取得する。それと共に、識別モデル学習部13は、確率密度記憶部M2に記憶されている確率密度情報と、コスト記憶部M3に記憶されているコスト情報とを読み込む。次に、識別モデル学習部13は、読み込んだ確率密度情報とコスト情報とに基づき、設定された方法により、正則化項を計算する。次に、識別モデル学習部13は、訓練データ記憶部M1に記憶されている訓練データを読み込む。識別モデル学習部13は、読み込んだ訓練データに基づき、計算した正則化項の制約のもと、設定された方法により、識別モデルのパラメータθ(式(2)及び式(3)を参照)を設定する。そして、識別モデル学習部13は、当識別モデルを示す識別モデル情報を、識別モデル記憶部M4に記憶する。ここで、正則化項R(θ)の設定された計算方法としては、例えば、次式で定義される方法がある。
ここで、λyは既知のクラスyの正則化の影響度を制御する正則化パラメータであり、コスト情報に基づいて設定される。この正則化パラメータの設定方法としては、例えば2つの方法がある。
第1の設定方法として、識別モデル学習部13は、各既知のクラスの正則化パラメータを、各既知のクラスに対するコスト情報に設定する。例えば、既知クラスID「1」及び「2」の既知のクラスのコスト情報が、それぞれ、「5」及び「1」の場合、λ1=5及びλ2=1に設定される。
第2の設定方法として、識別モデル学習部13は、各既知のクラスの正則化パラメータを、各既知のクラスに対するコスト情報を、コスト情報の総和で割った値に設定する。例えば、既知クラスID「1」及び「2」の既知のクラスのコスト情報が、それぞれ、「5」及び「1」の場合、λ1=5/(5+1)=及びλ2=1/(5+1)に設定される。
第2の設定方法として、識別モデル学習部13は、各既知のクラスの正則化パラメータを、各既知のクラスに対するコスト情報を、コスト情報の総和で割った値に設定する。例えば、既知クラスID「1」及び「2」の既知のクラスのコスト情報が、それぞれ、「5」及び「1」の場合、λ1=5/(5+1)=及びλ2=1/(5+1)に設定される。
また、式(5)のDyは、NxNの半正定値行列であり、θyのノルムの距離計量を表している。このDyは、例えば、確率密度情報を用いて次のように定義される。
このDyの計算には、例えば、式(4)により推定される条件付き確率密度が用いられる。
この正則化のもと事後確率のパラメータθは、例えば、次の最適化問題により設定される。
ここで、L(θ)は、真の事後確率p(y|X)と事後確率のモデルq(y|X)との誤差を表す誤差関数である。この誤差関数としては、例えば、事後確率モデルq(y|X)が線形モデルの場合(式(1)を参照)、二乗誤差が用いられ、対数線形モデルの場合(式(2)を参照)、負の尤度が用いられる。
この最適化問題を解くことにより得られる事後確率モデルq(y|X)は、次の性質を持つ。条件付き確率密度が小さい訓練データ点Xiに対応するモデルパラメータθyi(θyのi番目の要素)の二乗は、正則化項R(θ)において、Dyにより大きく重みづけられる。そのため、式(7)の最小化により、モデルパラメータは、より0に近い値を取るように正則化される。これにより、識別モデル学習部13は、訓練データ点が疎(条件付き確率密度が低い)領域における入力データの事後確率を小さくするような識別モデルを生成することができる。
次に、図2を参照して、識別装置20の構成について説明する。
撮像装置30は、監視対象に係る画像データ又は映像データを撮像するカメラを含む。なお、撮像装置30は、監視対象の音声を入力するマイクロフォン、温度を測定する温度計、又は距離を測る距離センサ等を備えてもよい。撮像装置30は、取得した入力データを、識別装置20にネットワークを介して送信する。
識別装置20は、撮像装置30が取得した入力データに異常があるか否かを判定する装置である。識別装置20は、特徴量抽出部21と、識別部22と、未知クラス判定部23と、出力部24とを含む。
撮像装置30は、監視対象に係る画像データ又は映像データを撮像するカメラを含む。なお、撮像装置30は、監視対象の音声を入力するマイクロフォン、温度を測定する温度計、又は距離を測る距離センサ等を備えてもよい。撮像装置30は、取得した入力データを、識別装置20にネットワークを介して送信する。
識別装置20は、撮像装置30が取得した入力データに異常があるか否かを判定する装置である。識別装置20は、特徴量抽出部21と、識別部22と、未知クラス判定部23と、出力部24とを含む。
特徴量抽出部21は、入力データを入力し、入力データの特徴量である特徴量を抽出する。より具体的には、特徴量抽出部21は、撮像装置30が、設定された時間間隔で入力データを、ネットワークを介して出力したことに応じて、入力データを取得する。そして、特徴量抽出部21は、取得した入力データを、設定された特徴量抽出方法により特徴量に変換し、入力データと共に識別部22に出力する。ここで、入力データは、設定された長さ及び設定されたフレームレートで構成される。例えば、長さは5秒で、フレームレートは15fpsである。そして、例えば、特徴量抽出方法には、入力データの各フレームの局所的な特徴を抽出するHOG、HOF、又はSIFT等が用いられる(参考文献4〜6参照)。ここで、HOGとは、Histograms of Oriented Gradientの略である。HOFとは、Histograms of Optical Flowの略である。SIFTとは、Scale Invariant Feature Transformの略である。
(参考文献4)N.Dalal and B. Triggs,Histograms of oriented gradients for human detection,In proceedings of Computer Vision and Pattern Recognition (CVPR),pp.886−893,2005
(参考文献5)J.Pers, et al,Histograms of optical flow for efficient representation of body motion,Pattern Recognition Letters,vol.31,no.11,pp.1369−1376,2010
(参考文献6)D.G.Lowe,Object recognition from local scale−invariant features,In proceedings of international conference on computer vision (ICCV),pp.1150−1157,1999
なお、特徴量抽出部21は、これらの特徴抽出方法を、映像データの各フレームを複数の領域に分割した各領域に適用してもよい。なお、特徴量抽出方法は、特定の監視対象に特化してもよい。例えば、特徴量抽出部21は、監視対象が人物の場合は、人物の姿勢及び移動軌跡等を特徴量として抽出する方法でもよい。
(参考文献4)N.Dalal and B. Triggs,Histograms of oriented gradients for human detection,In proceedings of Computer Vision and Pattern Recognition (CVPR),pp.886−893,2005
(参考文献5)J.Pers, et al,Histograms of optical flow for efficient representation of body motion,Pattern Recognition Letters,vol.31,no.11,pp.1369−1376,2010
(参考文献6)D.G.Lowe,Object recognition from local scale−invariant features,In proceedings of international conference on computer vision (ICCV),pp.1150−1157,1999
なお、特徴量抽出部21は、これらの特徴抽出方法を、映像データの各フレームを複数の領域に分割した各領域に適用してもよい。なお、特徴量抽出方法は、特定の監視対象に特化してもよい。例えば、特徴量抽出部21は、監視対象が人物の場合は、人物の姿勢及び移動軌跡等を特徴量として抽出する方法でもよい。
識別部22は、訓練データ記憶部M1に記憶されている訓練データと、識別モデル記憶部M4に記憶されている識別モデル情報と、特徴量とに基づいて、入力データが各既知のクラスに属する確信度を計算し、識別結果情報として出力する。より具体的には、識別部22は、特徴量抽出部21が特徴量と入力データとを出力したことに応じて、これらの情報を取得する。それと共に、識別部22は、訓練データ記憶部M1に記憶されている訓練データと、識別モデル記憶部M4に記憶されている識別モデル情報とを読み込む。そして、識別部22は、読み込んだ訓練データと特徴量とに基づき、設定された方法により、基底関数を計算する。この設定された基底関数の計算方法としては、例えば、識別部22は、式(3)を用いる。そして、識別部22は、計算した基底関数と、読み込んだ識別モデル情報とに基づき、設定された方法により、入力データが各既知のクラスに属する確信度を計算する。この設定された確信度の計算としては、例えば、識別部22は、式(1)又は式(2)を用いる。そして、識別部22は、計算した確信度を含む識別結果情報と共に、特徴量と入力データとを、未知クラス判定部23に出力する。
未知クラス判定部23は、識別結果情報に基づき、入力データが、既知のクラス又は、既知のクラス以外のクラスである未知のクラスに属するかを判定し、判定結果を示す判定結果情報を出力する。より具体的には、未知クラス判定部23は、識別部22が識別結果情報と、特徴量と、入力データとを出力したことに応じて、これらの情報を取得する。そして、未知クラス判定部23は、取得した識別結果情報に基づき、設定された方法により、入力データが、既知のクラス又は未知のクラスに属するかを判定する。ここで、未知のクラスとは、既知のクラス以外の新しいクラス又は、既知のクラスの何れに属するかが不確かなクラスである。この設定された判定方法としては、例えば、未知クラス判定部23は、識別結果情報に含まれる最大の確信度が設定された閾値より小さい場合、入力データが未知のクラスに属すると判定する。一方、未知クラス判定部23は、確信度が閾値より大きい場合は、入力データが最大の確信度を有する既知のクラスに属すると判定する。
入力データが既知のクラスに属すると判定した場合、未知クラス判定部23は、未知のクラスに属している否かを示す未知クラス判定情報を、未知のクラスに属していないことを示す「0」に設定する。そして、未知クラス判定部23は、取得した識別結果情報に含まれる最大の確信度と、確信度を有する既知のクラスを識別する既知クラスIDと、未知クラス判定情報とを含む判定結果情報を、特徴量と、入力データと共に、出力部24に出力する。
一方、入力データが未知のクラスに属すると判定した場合、未知クラス判定部23は、未知クラス判定情報を、未知のクラスに属すことを示す「1」に設定する。そして、未知クラス判定部23は、確率密度記憶部M2に記憶されている確率密度情報を読み込む。未知クラス判定部23は、読み込んだ確率密度情報に基づき、最大の確信度を有する既知のクラスが与えられたもとでの、入力データの条件付き確率密度である入力データ確率密度情報を計算する。そして、未知クラス判定部23は、最大の確信度と、確信度を有する既知のクラスを識別する既知クラスIDと、未知クラス判定情報と、入力データ確率密度情報とを含む判定結果情報を、特徴量と、入力データと共に、出力部24に出力する。
一方、入力データが未知のクラスに属すると判定した場合、未知クラス判定部23は、未知クラス判定情報を、未知のクラスに属すことを示す「1」に設定する。そして、未知クラス判定部23は、確率密度記憶部M2に記憶されている確率密度情報を読み込む。未知クラス判定部23は、読み込んだ確率密度情報に基づき、最大の確信度を有する既知のクラスが与えられたもとでの、入力データの条件付き確率密度である入力データ確率密度情報を計算する。そして、未知クラス判定部23は、最大の確信度と、確信度を有する既知のクラスを識別する既知クラスIDと、未知クラス判定情報と、入力データ確率密度情報とを含む判定結果情報を、特徴量と、入力データと共に、出力部24に出力する。
出力部24は、判定結果情報に基づいて、入力データに係る表示情報を生成し出力する。より具体的には、出力部24は、未知クラス判定部23が、判定結果情報と、特徴量と、入力データとを、出力したことに応じて、これらの情報を取得する。そして、出力部24は、取得した判定結果情報に基づいて、取得した入力データに係る表示情報を生成し、ネットワークを介して端末装置40に出力する。この表示情報の生成方法としては、例えば、4つの方法がある。
第1の生成方法としては、以下の方法がある。判定結果情報により入力データが設定された正常クラスに属することが示される場合(未知クラス判定情報が「0」)、出力部24は、取得した入力データ、又は解像度及びフレームレートを低くした入力データを、表示情報として出力する。
第2の生成方法としては、以下の方法がある。判定結果情報により入力データが設定された異常クラスに属することが示される場合(未知クラス判定情報が「0」)、出力部24は、取得した判定結果情報に基づき警告情報を生成する。そして、出力部24は、警告情報と、入力データとを、表示情報として出力する。この警告情報は、例えば、「異常クラス2に識別されました。確認してください。」等のテキスト又は音声である。
第3の生成方法としては、以下の方法がある。判定結果情報により入力データが未知のクラスに属することが示される場合(未知クラス判定情報が「1」)、かつ、入力データ確率密度情報が予め定められた閾値以上の場合、出力部24は、未知のクラスに属することを示す警告情報を生成する。より具体的には、出力部24は、取得した判定結果情報に基づき前記警告情報を生成する。そして、出力部24は、警告情報と、入力データとを、表示情報として出力する。この警告情報は、例えば、「未知のクラスに識別されました。確認してください。」等のテキスト又は音声である。
第4の生成方法としては、以下の方法がある。判定結果情報により入力データが未知のクラスに属することが示される場合(未知クラス判定情報が「1」)、かつ、入力データ確率密度情報が予め定められた閾値未満の場合、出力部24は、以下の警告情報を生成する。即ち、出力部24は、未知のクラスに属することに加え、訓練データが不足していることを示す警告情報を、取得した判定結果情報に基づき生成する。そして、出力部24は、警告情報と、入力データとを、表示情報として出力する。この警告情報は、例えば、「未知のクラスに識別されました。既知のクラス1での条件付き確率密度は、0.3と低く、訓練データが不足しています。データを追加してください。」等のテキスト又は音声である。
第2の生成方法としては、以下の方法がある。判定結果情報により入力データが設定された異常クラスに属することが示される場合(未知クラス判定情報が「0」)、出力部24は、取得した判定結果情報に基づき警告情報を生成する。そして、出力部24は、警告情報と、入力データとを、表示情報として出力する。この警告情報は、例えば、「異常クラス2に識別されました。確認してください。」等のテキスト又は音声である。
第3の生成方法としては、以下の方法がある。判定結果情報により入力データが未知のクラスに属することが示される場合(未知クラス判定情報が「1」)、かつ、入力データ確率密度情報が予め定められた閾値以上の場合、出力部24は、未知のクラスに属することを示す警告情報を生成する。より具体的には、出力部24は、取得した判定結果情報に基づき前記警告情報を生成する。そして、出力部24は、警告情報と、入力データとを、表示情報として出力する。この警告情報は、例えば、「未知のクラスに識別されました。確認してください。」等のテキスト又は音声である。
第4の生成方法としては、以下の方法がある。判定結果情報により入力データが未知のクラスに属することが示される場合(未知クラス判定情報が「1」)、かつ、入力データ確率密度情報が予め定められた閾値未満の場合、出力部24は、以下の警告情報を生成する。即ち、出力部24は、未知のクラスに属することに加え、訓練データが不足していることを示す警告情報を、取得した判定結果情報に基づき生成する。そして、出力部24は、警告情報と、入力データとを、表示情報として出力する。この警告情報は、例えば、「未知のクラスに識別されました。既知のクラス1での条件付き確率密度は、0.3と低く、訓練データが不足しています。データを追加してください。」等のテキスト又は音声である。
端末装置40は、監視ユーザが利用するコンピュータ装置であり、識別装置20からネットワークを介して供給される表示情報を提供する。端末装置40は、表示部41を備える。端末装置40には、例えばPC(Personal Computer)やタブレットPC、スマートフォン、フューチャーフォン等が適用できる。より具体的には、端末装置40は、識別装置20が表示情報を出力したことに応じて、表示情報を取得する。そして、端末装置40は、取得した表示情報を表示部41に出力する。
図7は、端末装置40が備える表示部41が出力する表示情報の一例を示す図である。表示部41は、識別装置20が出力した表示情報に含まれる入力データを表示する画像表示部411と、表示情報に含まれる警告情報を表示する警告表示部412と、を含む画面を出力する。この警告情報には、例えば、HTML(Hyper Text Markup Language)で記述できるテキスト、入力フォーム及びボタン等が含まれる。
図7は、端末装置40が備える表示部41が出力する表示情報の一例を示す図である。表示部41は、識別装置20が出力した表示情報に含まれる入力データを表示する画像表示部411と、表示情報に含まれる警告情報を表示する警告表示部412と、を含む画面を出力する。この警告情報には、例えば、HTML(Hyper Text Markup Language)で記述できるテキスト、入力フォーム及びボタン等が含まれる。
次に、図8を参照して、異常検知システム1における識別モデル生成の動作について説明する。図8は、異常検知システム1の識別モデル生成の動作の一例を示すフローチャートである。
まず、ステップS101において、確率密度計算部11は、条件付き確率密度を計算する。より具体的には、確率密度計算部11は、訓練データ記憶部M1に記憶されている訓練データを読み込む。そして、確率密度計算部11は、読み込んだ訓練データに基づいて、条件付き確率密度を計算する。
次に、ステップS102において、確率密度計算部11は、計算した条件付き確率密度を示す確率密度情報を確率密度記憶部M2に記憶すると共に、識別モデル選択部12に、トリガーを出力する。
次に、ステップS103において、識別モデル選択部12は、識別モデルを選択する。より具体的には、識別モデル選択部12は、確率密度計算部11からトリガーを入力したことに応じて、訓練データ記憶部M1に記憶されている訓練データを読み込む。そして、識別モデル選択部12は、読み込んだ訓練データに基づいて、上述した設定された識別モデルの候補に対する、上述した設定された算出方法を用いて評価情報を算出する。そして、識別モデル選択部12は、算出した評価情報を最大化する識別モデルを選択し、識別モデル学習部13に出力する。
まず、ステップS101において、確率密度計算部11は、条件付き確率密度を計算する。より具体的には、確率密度計算部11は、訓練データ記憶部M1に記憶されている訓練データを読み込む。そして、確率密度計算部11は、読み込んだ訓練データに基づいて、条件付き確率密度を計算する。
次に、ステップS102において、確率密度計算部11は、計算した条件付き確率密度を示す確率密度情報を確率密度記憶部M2に記憶すると共に、識別モデル選択部12に、トリガーを出力する。
次に、ステップS103において、識別モデル選択部12は、識別モデルを選択する。より具体的には、識別モデル選択部12は、確率密度計算部11からトリガーを入力したことに応じて、訓練データ記憶部M1に記憶されている訓練データを読み込む。そして、識別モデル選択部12は、読み込んだ訓練データに基づいて、上述した設定された識別モデルの候補に対する、上述した設定された算出方法を用いて評価情報を算出する。そして、識別モデル選択部12は、算出した評価情報を最大化する識別モデルを選択し、識別モデル学習部13に出力する。
次に、ステップS104において、識別モデル学習部13は、正則化項を計算する。より具体的には、識別モデル学習部13は、識別モデル選択部12から識別モデル情報を入力したことに応じて、確率密度記憶部M2に記憶されている確率密度情報と、コスト記憶部M3に記憶されているコスト情報とを読み込む。そして、識別モデル学習部13は、読み込んだ確率密度情報と、コスト情報とに基づき、正則化項を計算する。
次に、ステップS105において、識別モデル学習部13は、識別モデルのパラメータを設定する。より具体的には、識別モデル学習部13は、訓練データ記憶部M1に記憶されている訓練データを読み込む。そして、識別モデル学習部13は、読み込んだ訓練データと、計算した正則化項とに基づいて、識別モデルのパラメータを設定する。
次に、ステップS106において、識別モデル学習部13は、設定した識別モデルを示す識別モデル情報を識別モデル記憶部M4に記憶する。
次に、ステップS105において、識別モデル学習部13は、識別モデルのパラメータを設定する。より具体的には、識別モデル学習部13は、訓練データ記憶部M1に記憶されている訓練データを読み込む。そして、識別モデル学習部13は、読み込んだ訓練データと、計算した正則化項とに基づいて、識別モデルのパラメータを設定する。
次に、ステップS106において、識別モデル学習部13は、設定した識別モデルを示す識別モデル情報を識別モデル記憶部M4に記憶する。
次に、図9を参照して、異常検知システム1における識別の動作について説明する。図9は、異常検知システム1の識別の動作の一例を示すフローチャートである。
まず、ステップT101において、特徴量抽出部21は、入力データを撮像装置から取得する。より具体的には、特徴量抽出部21は、撮像装置30が取得した入力データを、ネットワークを介して出力したことに応じて、入力データを取得する。そして、特徴量抽出部21は、特徴抽出方法を用いて、取得した入力データから映像特徴量を抽出する。そして、特徴量抽出部21は、抽出した特徴量と入力データとを識別部22に出力する。
次に、ステップT102において、識別部22は、確信度を計算する。より具体的には、識別部22は、特徴量抽出部21から、特徴量と、入力データとを取得すると共に、識別モデル記憶部M4に記憶されている識別モデル情報と、訓練データ記憶部M1に記憶されている訓練データ情報とを読み込む。そして、識別部22は、読み込んだ訓練データと、識別モデル情報と、取得した特徴量とに基づき、入力データが各既知のクラスに属する確信度を含む識別結果情報を計算し、特徴量と入力データと共に、未知クラス判定部23に出力する。
まず、ステップT101において、特徴量抽出部21は、入力データを撮像装置から取得する。より具体的には、特徴量抽出部21は、撮像装置30が取得した入力データを、ネットワークを介して出力したことに応じて、入力データを取得する。そして、特徴量抽出部21は、特徴抽出方法を用いて、取得した入力データから映像特徴量を抽出する。そして、特徴量抽出部21は、抽出した特徴量と入力データとを識別部22に出力する。
次に、ステップT102において、識別部22は、確信度を計算する。より具体的には、識別部22は、特徴量抽出部21から、特徴量と、入力データとを取得すると共に、識別モデル記憶部M4に記憶されている識別モデル情報と、訓練データ記憶部M1に記憶されている訓練データ情報とを読み込む。そして、識別部22は、読み込んだ訓練データと、識別モデル情報と、取得した特徴量とに基づき、入力データが各既知のクラスに属する確信度を含む識別結果情報を計算し、特徴量と入力データと共に、未知クラス判定部23に出力する。
次に、ステップT103において、未知クラス判定部23は、識別結果情報に基づき、入力データが既知のクラス又は未知のクラスに属するかを判定する。より具体的には、未知クラス判定部23は、識別部22が、識別結果情報と、特徴量と、入力データとを出力したことに応じて、これらの情報を取得する。そして、未知クラス判定部23は、識別結果情報に含まれる最大の確信度が設定された閾値より低いか否かを判定する。未知クラス判定部23は、最大の確信度が設定された閾値以上であると判定した場合(T103においてNO)、処理をステップT104へと進める。一方、未知クラス判定部23は、最大確信度が設定された閾値より低いと判定した場合(T103においてYES)、処理をステップT105へと進める。
次に、ステップT104において、未知クラス判定部23は、最大の確信度を有する既知のクラスを選択する。より具体的には、未知クラス判定部23は、「0」に設定した未知クラス判定情報と、最大確信度と、確信度を有する既知のクラスを識別する既知クラスIDとを含む判定結果情報を、特徴量と、入力データと共に、出力部24に出力する。そして、未知クラス判定部23は、処理をステップT107へと進める。
一方、ステップT105において、未知クラス判定部23は、条件付き確率密度を計算する。より具体的には、未知クラス判定部23は、確率密度記憶部M2から確率密度情報を読み込む。そして、未知クラス判定部23は、読み込んだ確率密度情報に基づき、最大確信度を有する既知のクラスが与えられたもとでの、入力データの条件付き確率密度である入力データ確率密度情報を計算する。
次に、ステップT106において、未知クラス判定部23は、未知のクラスを選択する。より具体的には、未知クラス判定部23は、以下の処理を実行する。即ち、未知クラス判定部23は、「1」に設定した未知クラス判定情報と、最大確信度と、確信度を有する既知のクラスを識別する既知クラスIDと、計算した入力データ確率密度情報とを含む判定結果情報を、特徴量と、入力データと共に、出力部24に出力する。そして、未知クラス判定部23は、処理をステップT107へと進める。
一方、ステップT105において、未知クラス判定部23は、条件付き確率密度を計算する。より具体的には、未知クラス判定部23は、確率密度記憶部M2から確率密度情報を読み込む。そして、未知クラス判定部23は、読み込んだ確率密度情報に基づき、最大確信度を有する既知のクラスが与えられたもとでの、入力データの条件付き確率密度である入力データ確率密度情報を計算する。
次に、ステップT106において、未知クラス判定部23は、未知のクラスを選択する。より具体的には、未知クラス判定部23は、以下の処理を実行する。即ち、未知クラス判定部23は、「1」に設定した未知クラス判定情報と、最大確信度と、確信度を有する既知のクラスを識別する既知クラスIDと、計算した入力データ確率密度情報とを含む判定結果情報を、特徴量と、入力データと共に、出力部24に出力する。そして、未知クラス判定部23は、処理をステップT107へと進める。
次に、ステップT107において、出力部24は、表示情報を生成する。より具体的には、出力部24は、未知クラス判定部23が判定結果情報と、特徴量と、入力データとを出力したことに応じて、これらの情報を取得する。そして、出力部24は、取得した判定結果情報と、入力データとに基づき、表示情報を生成し、ネットワークを介して、端末装置40に出力する。
次に、ステップT108において、端末装置40は、表示情報を出力し、図9に示す処理を終了する。より具体的には、端末装置40は、識別装置20の出力部24から表示情報が出力されたことに応じて、端末装置40は、表示情報を取得する。そして、端末装置40は、取得した表示情報を、表示部41に出力する。
次に、ステップT108において、端末装置40は、表示情報を出力し、図9に示す処理を終了する。より具体的には、端末装置40は、識別装置20の出力部24から表示情報が出力されたことに応じて、端末装置40は、表示情報を取得する。そして、端末装置40は、取得した表示情報を、表示部41に出力する。
以上説明したように、識別モデル生成装置10は、撮像装置30が取得した入力データを識別する識別装置20で用いられる識別モデルを生成する装置である。確率密度計算部11は、訓練データ記憶部M1が既知のクラスに関連付けて記憶する訓練データの既知のクラスにおける条件付き確率密度を示す確率密度情報を計算し、確率密度記憶部M2に記憶する。コスト記憶部M3は、各既知のクラスに誤って識別した際の損害を示すコスト情報を記憶する。識別モデル選択部12は、訓練データ記憶部M1に記憶されている訓練データから算出された識別モデルの候補に対する評価に基づき、識別モデルを選択する。識別モデル学習部13は、確率密度記憶部M2に記憶されている確率密度情報と、コスト記憶部M3に記憶されているコスト情報とに基づいた正則化のもと、訓練データ記憶部M1に記憶されている訓練データに基づき、識別モデルのパラメータを設定する。そして、識別モデル学習部13は、識別モデルを示す識別モデル情報を、識別モデル記憶部M4に記憶する。これにより、識別モデル生成装置10は、識別モデルの生成において、訓練データ点の条件付き確率密度を用いるため、訓練データ点の疎密さを考慮した識別モデルを生成できる。
なお、識別モデル生成装置10の識別モデル学習部13は、コスト記憶部M3に記憶されているコスト情報に基づいた強さの前記正則化を適用する。これにより、識別モデル生成装置10は、各既知のクラスの識別モデルの訓練データ点の疎密さに対する影響度合いを、コスト情報に基づいて調整することができる。
なお、識別モデル生成装置10の識別モデル学習部13は、コスト記憶部M3に記憶されているコスト情報に基づいた強さの前記正則化を適用する。これにより、識別モデル生成装置10は、各既知のクラスの識別モデルの訓練データ点の疎密さに対する影響度合いを、コスト情報に基づいて調整することができる。
識別装置20は、識別モデル生成装置10が生成した識別モデル情報を用いる装置である。特徴量抽出部21は、入力データの特徴量を抽出する。識別部22は、訓練データ記憶部M1に記憶されている訓練データと、識別モデル記憶部M4に記憶されている識別モデル情報と、特徴量とに基づいて、入力データが各既知のクラスに属する確信度を計算し、識別結果情報として出力する。未知クラス判定部23は、識別結果情報に基づき、入力データが既知のクラス又は、既知のクラス以外のクラスである未知のクラスに属するかを判定し、判定結果を示す判定結果情報を出力する。出力部24は、入力データと、判定結果情報とに基づいて、入力データに係る表示情報を生成し出力する。これにより、識別装置20は、入力データが各既知のクラスに属する確信度に基づいて、入力データを既知のクラス又は未知のクラスに識別することができる。
なお、識別装置20の未知クラス判定部23は、入力データが未知のクラスに属すると判定した場合、以下の処理を行う。即ち、未知クラス判定部23は、確率密度記憶部M2に記憶されている確率密度情報と、訓練データ記憶部M1に記憶されている訓練データとに基づいて、入力データの既知のクラスにおける条件付き確率密度である入力データ確率密度情報を計算する。そして、未知クラス判定部23は、算出した入力データ確率密度情報を判定結果情報に含めて出力する。出力部24は、入力データ確率密度情報を含む表示情報を出力する。これにより、識別装置20は、入力データが未知のクラスに属すると判定した場合に、入力データの条件付き確率密度をユーザに提示することができる。そのため、条件付き確率密度が低い場合、ユーザは、入力データに類似する訓練データが不足しているため、入力データが未知のクラスに識別されたと判断することができる。
なお、識別装置20の未知クラス判定部23は、入力データが未知のクラスに属すると判定した場合、以下の処理を行う。即ち、未知クラス判定部23は、確率密度記憶部M2に記憶されている確率密度情報と、訓練データ記憶部M1に記憶されている訓練データとに基づいて、入力データの既知のクラスにおける条件付き確率密度である入力データ確率密度情報を計算する。そして、未知クラス判定部23は、算出した入力データ確率密度情報を判定結果情報に含めて出力する。出力部24は、入力データ確率密度情報を含む表示情報を出力する。これにより、識別装置20は、入力データが未知のクラスに属すると判定した場合に、入力データの条件付き確率密度をユーザに提示することができる。そのため、条件付き確率密度が低い場合、ユーザは、入力データに類似する訓練データが不足しているため、入力データが未知のクラスに識別されたと判断することができる。
<第2の実施形態>
次に、第2の実施形態について、図面を参照して説明する。なお、上述した第1の実施形態における各構成と同一の構成については、同一の符号を付して説明を省略する。
本実施形態における異常検知システム1aについて、確率密度情報を、識別モデルの選択に用いた場合について説明する。
図10は、異常検知システム1aのシステム構成等の一例を示す図である。異常検知システム1aは、ネットワークを介して接続された識別モデル生成装置10aと、識別装置20と、撮像装置30と、端末装置40とを含む。
次に、第2の実施形態について、図面を参照して説明する。なお、上述した第1の実施形態における各構成と同一の構成については、同一の符号を付して説明を省略する。
本実施形態における異常検知システム1aについて、確率密度情報を、識別モデルの選択に用いた場合について説明する。
図10は、異常検知システム1aのシステム構成等の一例を示す図である。異常検知システム1aは、ネットワークを介して接続された識別モデル生成装置10aと、識別装置20と、撮像装置30と、端末装置40とを含む。
次に、識別モデル生成装置10aの詳細な構成について説明する。
識別モデル生成装置10aは、識別装置20で識別に用いられる識別モデルを示す識別モデル情報を生成する装置である。識別モデル生成装置10aは、訓練データ記憶部M1と、確率密度記憶部M2と、コスト記憶部M3と、識別モデル記憶部M4と、確率密度計算部11と、識別モデル生成部(識別モデル選択部12a及び識別モデル学習部13a)とを含む。
識別モデル選択部12aは、コスト情報と、確率密度情報とに基づいて各訓練データ点に重要度を割り当てる点において、実施形態1の識別モデル選択部12と異なる。より具体的には、識別モデル選択部12aは、確率密度計算部11からトリガーを入力したことに応じて、以下の処理を実行する。即ち、識別モデル選択部12aは、コスト記憶部M3に記憶されているコスト情報と、訓練データ記憶部M1に記憶されている訓練データと、確率密度記憶部M2に記憶されている確率密度情報とを読み込む。次に、識別モデル選択部12aは、読み込んだコスト情報と、確率密度情報とに基づいて、設定された方法により、読み込んだ各訓練データ点に、重要度を割り当てる。この設定された重要度の計算方法としては、例えば次式により重要度を計算する方法がある。
ここで、V(X、y)は、既知のクラスyに対する訓練データ点Xの重要度であり、Cyは、既知のクラスyに対する誤識別のコストであり、βは、1以上の任意の定数である。
識別モデル生成装置10aは、識別装置20で識別に用いられる識別モデルを示す識別モデル情報を生成する装置である。識別モデル生成装置10aは、訓練データ記憶部M1と、確率密度記憶部M2と、コスト記憶部M3と、識別モデル記憶部M4と、確率密度計算部11と、識別モデル生成部(識別モデル選択部12a及び識別モデル学習部13a)とを含む。
識別モデル選択部12aは、コスト情報と、確率密度情報とに基づいて各訓練データ点に重要度を割り当てる点において、実施形態1の識別モデル選択部12と異なる。より具体的には、識別モデル選択部12aは、確率密度計算部11からトリガーを入力したことに応じて、以下の処理を実行する。即ち、識別モデル選択部12aは、コスト記憶部M3に記憶されているコスト情報と、訓練データ記憶部M1に記憶されている訓練データと、確率密度記憶部M2に記憶されている確率密度情報とを読み込む。次に、識別モデル選択部12aは、読み込んだコスト情報と、確率密度情報とに基づいて、設定された方法により、読み込んだ各訓練データ点に、重要度を割り当てる。この設定された重要度の計算方法としては、例えば次式により重要度を計算する方法がある。
識別モデルの候補として、上述したガウス基底関数の幅の値がσ1及びσ2が用意されている場合について、この重要度を用いた識別モデルの選択について説明する。まず、識別モデル選択部12aは、訓練データQを、例えばランダムに5つのグループ{Q1,Q2、Q3,Q4,Q5}に分割する。次に、ステップ1として、識別モデル選択部12aは、Q1以外の訓練データからσ1及びσ2それぞれを用いた識別モデルpσ1(y|X)及びpσ2(y|X)のパラメータを設定する(式(7)参照)。そして、ステップ2として、識別モデル選択部12aは、Q1の訓練データを用いて、各識別モデルの重要度重み付きの識別率s(σ1、D1)及びs(σ2、D1)を、評価情報として、例えば次式により計算する。
ここで、ND1は、訓練データQ1のデータ数である。
識別モデル選択部12aは、これらのステップ1とステップ2とを、全ての訓練データのグループQ1〜Q5に対して繰り返し、平均識別率を次式により求める。
最後に、識別モデル選択部12aは、平均識別率を最大化するσ1又はσ2に対応する識別モデルを選択する。以上説明したように、重要度は、例えば、交差確認法の識別性能を計算する際の重みとして用いられる。これにより、条件付き確率密度が高い、つまり、密な訓練データに対して識別性能を最大化する識別モデルが選択される。例えば、コスト情報が高い既知のクラスに対しては、訓練データが密な領域にて高い確信度を出力するような狭い基底関数が選択される。
そして、識別モデル選択部12aは、設定された候補の中から選択した識別モデルを示す識別モデル情報を、識別モデル学習部13aに出力する。
識別モデル学習部13aは、識別モデル選択部12aにより選択された識別モデルにおいてコスト情報と確率密度情報とが考慮されている。そのため、識別モデル学習部13aは、識別モデルのパラメータの設定においてコスト情報と確率密度情報を用いない点において実施形態1の識別モデル学習部13と異なる。より具体的には、識別モデル学習部13aは、識別モデル選択部12aが識別モデル情報を出力したことに応じて、識別モデル情報を取得する。それと共に、識別モデル学習部13aは、訓練データ記憶部M1に記憶されている訓練データを読み込む。識別モデル学習部13aは、読み込んだ訓練データと、取得した識別モデル情報とに基づいて、設定された方法により、基底関数を計算する。この設定された基底関数の計算方法としては、例えば、式(3)が用いられる。そして、識別モデル学習部13aは、計算した基底関数と、識別モデルのパラメータとを設定する(式(7)参照)。そして、識別モデル学習部13aは、設定した識別モデルを示す識別モデル情報を、識別モデル記憶部M4に記憶する。
識別モデル学習部13aは、識別モデル選択部12aにより選択された識別モデルにおいてコスト情報と確率密度情報とが考慮されている。そのため、識別モデル学習部13aは、識別モデルのパラメータの設定においてコスト情報と確率密度情報を用いない点において実施形態1の識別モデル学習部13と異なる。より具体的には、識別モデル学習部13aは、識別モデル選択部12aが識別モデル情報を出力したことに応じて、識別モデル情報を取得する。それと共に、識別モデル学習部13aは、訓練データ記憶部M1に記憶されている訓練データを読み込む。識別モデル学習部13aは、読み込んだ訓練データと、取得した識別モデル情報とに基づいて、設定された方法により、基底関数を計算する。この設定された基底関数の計算方法としては、例えば、式(3)が用いられる。そして、識別モデル学習部13aは、計算した基底関数と、識別モデルのパラメータとを設定する(式(7)参照)。そして、識別モデル学習部13aは、設定した識別モデルを示す識別モデル情報を、識別モデル記憶部M4に記憶する。
次に、図11を参照して、異常検知システム1aにおける識別モデル生成の動作について説明する。図11は、異常検知システム1aの識別モデル生成の動作の一例を示すフローチャートである。なお、第1の実施形態と同一の動作については同一の符号を付して、その説明を省略する。
まず、ステップS201において、識別モデル選択部12aは、訓練データ点の重要度を計算する。より具体的には、識別モデル選択部12aは、確率密度計算部11からトリガーを入力したことに応じて、以下の処理を実行する。即ち、識別モデル選択部12aは、コスト記憶部M3に記憶されているコスト情報と、訓練データ記憶部M1に記憶されている訓練データと、確率密度記憶部M2に記憶されている確率密度情報とを読み込む。次に、識別モデル選択部12aは、読み込んだコスト情報と、確率密度情報とに基づいて、読み込んだ各訓練データ点に対する、重要度を計算する。
次に、ステップS202において、識別モデル選択部12aは、計算した重要度重みのもと、訓練データから計算した識別モデルの評価を示す評価情報に基づいて識別モデルを選択する。より具体的には、識別モデル選択部12aは、計算した重要度と、読み込んだ訓練データとに基づいて、例えば、上述した交差確認法を用いて、各識別モデルの候補に対する評価情報を計算する。そして、識別モデル選択部12は、評価情報を最大化する識別モデルを選択し、選択した識別モデルを示す識別モデル情報を識別モデル学習部13aに出力する。
次に、ステップS203において、識別モデル学習部13aは、識別モデルを生成する。より具体的には、識別モデル学習部13aは、識別モデル選択部12が識別モデル情報を出力したことに応じて、識別モデル情報を取得する。それと共に、識別モデル学習部13aは、訓練データ記憶部M1に記憶されている訓練データを読み込む。識別モデル学習部13aは、読み込んだ訓練データに基づき、識別モデルのパラメータを設定する。そして、識別モデル学習部13aは、設定した識別モデルを示す識別モデル情報を、識別モデル記憶部M4に記憶する。
まず、ステップS201において、識別モデル選択部12aは、訓練データ点の重要度を計算する。より具体的には、識別モデル選択部12aは、確率密度計算部11からトリガーを入力したことに応じて、以下の処理を実行する。即ち、識別モデル選択部12aは、コスト記憶部M3に記憶されているコスト情報と、訓練データ記憶部M1に記憶されている訓練データと、確率密度記憶部M2に記憶されている確率密度情報とを読み込む。次に、識別モデル選択部12aは、読み込んだコスト情報と、確率密度情報とに基づいて、読み込んだ各訓練データ点に対する、重要度を計算する。
次に、ステップS202において、識別モデル選択部12aは、計算した重要度重みのもと、訓練データから計算した識別モデルの評価を示す評価情報に基づいて識別モデルを選択する。より具体的には、識別モデル選択部12aは、計算した重要度と、読み込んだ訓練データとに基づいて、例えば、上述した交差確認法を用いて、各識別モデルの候補に対する評価情報を計算する。そして、識別モデル選択部12は、評価情報を最大化する識別モデルを選択し、選択した識別モデルを示す識別モデル情報を識別モデル学習部13aに出力する。
次に、ステップS203において、識別モデル学習部13aは、識別モデルを生成する。より具体的には、識別モデル学習部13aは、識別モデル選択部12が識別モデル情報を出力したことに応じて、識別モデル情報を取得する。それと共に、識別モデル学習部13aは、訓練データ記憶部M1に記憶されている訓練データを読み込む。識別モデル学習部13aは、読み込んだ訓練データに基づき、識別モデルのパラメータを設定する。そして、識別モデル学習部13aは、設定した識別モデルを示す識別モデル情報を、識別モデル記憶部M4に記憶する。
以上説明したように、識別モデル生成装置10aは、撮像装置30が取得した入力データを識別する識別装置20で用いられる識別モデルを生成する装置である。確率密度計算部11は、訓練データ記憶部M1が既知のクラスに関連付けて記憶する訓練データの既知のクラスにおける条件付き確率密度を示す確率密度情報を計算し、確率密度記憶部M2に記憶する。コスト記憶部M3は、各既知のクラスに誤って識別した際のコストを示すコスト情報を記憶する。識別モデル選択部12aは、確率密度記憶部M2に記憶されている確率密度情報と、コスト記憶部M3に記憶されているコスト情報とに基づいた訓練データ点の重要度のもと、訓練データ記憶部M1に記憶されている訓練データから算出された識別モデルの評価に基づき、識別モデルを設定された候補のなかから選択する。識別モデル学習部13aは、訓練データ記憶部M1に記憶されている訓練データに基づき、識別モデルのパラメータを設定し、識別モデルを示す識別モデル情報を、識別モデル記憶部M4に記憶する。これにより、識別モデル生成装置10aは、識別モデルの生成において、条件付き確率を考慮できるため、訓練データ点の疎密に敏感な識別モデルを生成できる。これにより、識別モデル生成装置10aは、識別モデルの生成において、訓練データ点の条件付き確率密度を用いるため、訓練データ点の疎密さを考慮した識別モデルを生成できる。
<第3の実施形態>
次に、第3の実施形態について、図面を参照して説明する。なお、上述した第1の実施形態における各構成と同一の構成については、同一の符号を付して説明を省略する。
本実施形態における異常検知システム1bについて、新たに訓練データがオンラインで追加された場合を例に説明する。つまり、本実施形態の識別モデル生成装置10bは、監視者により新たに追加された訓練データに基づいて、識別モデルを更新できる点において、第1の実施形態と異なる。
図12は、異常検知システム1bのシステム構成等の一例を示す図である。異常検知システム1bは、ネットワークを介して接続された識別モデル生成装置10bと、識別装置20と、撮像装置30と、端末装置40とを含む。
次に、第3の実施形態について、図面を参照して説明する。なお、上述した第1の実施形態における各構成と同一の構成については、同一の符号を付して説明を省略する。
本実施形態における異常検知システム1bについて、新たに訓練データがオンラインで追加された場合を例に説明する。つまり、本実施形態の識別モデル生成装置10bは、監視者により新たに追加された訓練データに基づいて、識別モデルを更新できる点において、第1の実施形態と異なる。
図12は、異常検知システム1bのシステム構成等の一例を示す図である。異常検知システム1bは、ネットワークを介して接続された識別モデル生成装置10bと、識別装置20と、撮像装置30と、端末装置40とを含む。
次に、識別モデル生成装置10bの詳細な構成について説明する。
識別モデル生成装置10bは、識別装置20で識別に用いられる識別モデルを示す識別モデル情報を生成する装置である。識別モデル生成装置10bは、訓練データ記憶部M1と、確率密度記憶部M2と、コスト記憶部M3と、識別モデル記憶部M4と、確率密度計算部11bと、識別モデル生成部(識別モデル選択部12及び識別モデル学習部13b)と、登録部14とを含む。
登録部14は、新しい訓練データを示す新規訓練データ情報に基づき、新しい訓練データを、訓練データ記憶部M1に登録する。より具体的には、登録部14は、端末装置40bが新しい訓練データを示す新規訓練データ情報を出力したことに応じて、新規訓練データ情報を取得する。登録部14は、取得した新規訓練データ情報に含まれる訓練データ点を、データ点が属する既知のクラスの既知クラスIDと、訓練データIDとに関連付けて訓練データ記憶部M1に記憶する。それと共に、登録部14は、新規訓練データ情報を、確率密度計算部11bに出力する。
識別モデル生成装置10bは、識別装置20で識別に用いられる識別モデルを示す識別モデル情報を生成する装置である。識別モデル生成装置10bは、訓練データ記憶部M1と、確率密度記憶部M2と、コスト記憶部M3と、識別モデル記憶部M4と、確率密度計算部11bと、識別モデル生成部(識別モデル選択部12及び識別モデル学習部13b)と、登録部14とを含む。
登録部14は、新しい訓練データを示す新規訓練データ情報に基づき、新しい訓練データを、訓練データ記憶部M1に登録する。より具体的には、登録部14は、端末装置40bが新しい訓練データを示す新規訓練データ情報を出力したことに応じて、新規訓練データ情報を取得する。登録部14は、取得した新規訓練データ情報に含まれる訓練データ点を、データ点が属する既知のクラスの既知クラスIDと、訓練データIDとに関連付けて訓練データ記憶部M1に記憶する。それと共に、登録部14は、新規訓練データ情報を、確率密度計算部11bに出力する。
確率密度計算部11bは、条件付き確率密度を計算することに加えて、確率密度記憶部M2に記憶されている確率密度情報を更新する点において、実施形態1の確率密度計算部11と異なる。より具体的には、確率密度計算部11bは、登録部14から新規訓練データ情報を入力したことに応じて、訓練データ記憶部M1に記憶されている訓練データと、確率密度記憶部M2に記憶されている確率密度情報とを読み込む。そして、確率密度計算部11bは、読み込んだ訓練データと、確率密度情報と、取得した新規訓練データ情報とに基づき、確率密度情報を設定された方法を用いて更新し、確率密度記憶部M2に記憶する。それと共に、確率密度計算部11bは、識別モデル学習部13bに、トリガーを出力する。ここで、確率密度情報を更新する設定された方法には、例えば、オンラインカーネル確率密度推定法がある(参考文献7参照)。
(参考文献7)M.Kristan and Ales Leonardis,Multivariate Online Kernel Density Estimation with Gaussian kernels,Pattern Recognition,vol.44,no.10−11,pp.2630−2642,2011
(参考文献7)M.Kristan and Ales Leonardis,Multivariate Online Kernel Density Estimation with Gaussian kernels,Pattern Recognition,vol.44,no.10−11,pp.2630−2642,2011
識別モデル学習部13bは、識別モデルを生成することに加え、識別モデル記憶部M4に記憶されている識別モデル情報を更新する点において、実施形態1の識別モデル学習部13と異なる。より具体的には、識別モデル学習部13bは、確率密度計算部11bからトリガーを入力したことに応じて、確率密度記憶部M2に記憶されている確率密度情報と、コスト記憶部M3に記憶されているコスト情報とを読み込む。識別モデル学習部13は、読み込んだ確率密度情報とコスト情報とに基づき、設定された方法により、正則化項を計算する。次に、識別モデル学習部13bは、訓練データ記憶部M1に記憶されている訓練データと、識別モデル記憶部M4に記憶されている識別モデル情報とを読み込む。識別モデル学習部13bは、読み込んだ訓練データと識別モデル情報と、計算した正則化項とに基づいて、設定された方法により、識別モデル情報を更新する。そして、識別モデル学習部13bは、更新した識別モデル情報を、識別モデル記憶部M4に記憶する。ここで、設定された正則化項の計算方法は、例えば、実施形態1の識別モデル学習部13の正則化項の計算方法と同じである(式(5)参照)。また、設定された識別モデル情報の更新方法とは、例えば、確率的勾配法がある。より具体的には、識別モデルのパラメータθyは、次式のように最適化問題(式(7)参照)における各項の微分値を用いて更新される。
ここで、αは、0以上の任意の更新ステップ幅である。誤差関数L(θ)の微分は、例えば、二乗誤差又は、負の尤度のパラメータθyに関する微分となる。また、正則化項R(θ)の微分は、式(5)を微分することにより求められ、次式のようになる。
識別装置20bは、撮像装置30が撮像した映像データに異常があるか否かを判定する装置である。識別装置20bは、特徴量抽出部21と、識別部22と、未知クラス判定部23と、出力部24bとを含む。
出力部24bは、判定結果情報を出力することに加えて、入力データを訓練データとして登録するための登録方法を示す登録方法情報を出力する点において、実施形態1の出力部24と異なる。より具体的には、出力部24bは、未知クラス判定部23が、判定結果情報と、特徴量と、入力データとを、出力したことに応じて、これらの情報を取得する。そして、出力部24bは、取得した判定結果情報に基づいて、取得した入力データの表示情報と登録方法情報とを生成し、ネットワークを介して端末装置40に出力する。この登録方法情報の生成方法としては、例えば、以下の2つの方法がある。
第1の生成方法としては、以下の方法がある。出力部24bは、判定結果情報が、入力データが未知のクラスに属することを示す場合、以下の情報を出力する。即ち、出力部24bは、入力データを既知のクラスを識別する既知クラスIDと関連付けるためのテキスト「データをどの(既知)のクラスに追加しますか?」と、クラスIDを選択するためのチェックボックスとを、登録方法情報として出力する。
第2の生成方法としては、以下の方法がある。出力部24bは、判定結果情報が、入力データが未知のクラスに属することを示す場合、入力データを新しいクラスと関連付けるためのテキスト「新規にクラスを追加しますか?」と、クラスIDを入力するための入力フォームとを、登録方法情報として出力する。登録方法情報には、識別モデル生成装置10bに、監視者により入力された情報を送信するための、送信ボタンと、ネットワーク上にある識別モデル生成装置10bのアドレスを示すURLとが含まれていてもよい。URLは、Uniform Resource Locatorの略である。
出力部24bは、判定結果情報を出力することに加えて、入力データを訓練データとして登録するための登録方法を示す登録方法情報を出力する点において、実施形態1の出力部24と異なる。より具体的には、出力部24bは、未知クラス判定部23が、判定結果情報と、特徴量と、入力データとを、出力したことに応じて、これらの情報を取得する。そして、出力部24bは、取得した判定結果情報に基づいて、取得した入力データの表示情報と登録方法情報とを生成し、ネットワークを介して端末装置40に出力する。この登録方法情報の生成方法としては、例えば、以下の2つの方法がある。
第1の生成方法としては、以下の方法がある。出力部24bは、判定結果情報が、入力データが未知のクラスに属することを示す場合、以下の情報を出力する。即ち、出力部24bは、入力データを既知のクラスを識別する既知クラスIDと関連付けるためのテキスト「データをどの(既知)のクラスに追加しますか?」と、クラスIDを選択するためのチェックボックスとを、登録方法情報として出力する。
第2の生成方法としては、以下の方法がある。出力部24bは、判定結果情報が、入力データが未知のクラスに属することを示す場合、入力データを新しいクラスと関連付けるためのテキスト「新規にクラスを追加しますか?」と、クラスIDを入力するための入力フォームとを、登録方法情報として出力する。登録方法情報には、識別モデル生成装置10bに、監視者により入力された情報を送信するための、送信ボタンと、ネットワーク上にある識別モデル生成装置10bのアドレスを示すURLとが含まれていてもよい。URLは、Uniform Resource Locatorの略である。
図13は、端末装置40が備える表示部41が出力する表示情報と登録方法情報との一例を示す図である。表示部41は、画像表示部411と、警告表示部412とに加え、出力部24bが出力した登録方法情報を表示する登録表示部413を含む画面を出力する。
異常検知システム1bにおける識別モデル生成の動作及び識別動作は、第1の実施形態にて説明した異常システム1と同様であるため、その説明を省略する。
異常検知システム1bにおける識別モデル生成の動作及び識別動作は、第1の実施形態にて説明した異常システム1と同様であるため、その説明を省略する。
以上説明したように、識別モデル生成装置10bの登録部14は、新しい訓練データを示す新規訓練データ情報に基づき、新しい訓練データを、訓練データ記憶部M1に記憶する。確率密度計算部11bは、新規訓練データ情報と、訓練データ記憶部M1に記憶されている訓練データとに基づき、確率密度記憶部M2に記憶されている確率密度情報を更新する。識別モデル学習部13bは、新規訓練データ情報に基づき、識別モデル記憶部M4に記憶されている識別モデル情報を更新する。これにより、識別モデル生成装置10bは、新しい訓練データを追加し、オンラインで識別モデルのパラメータを更新することができる。
識別装置20bの出力部24bは、未知クラス判定部23が、未知のデータが未知のクラスに属すると判定した場合、以下の処理を実行する。即ち、識別装置20bの出力部24bは、未知のデータと、データが属する既知のクラス又は、未知のクラスを識別するクラスIDとを関連付けるための登録方法を示す登録方法情報を出力する。これにより、識別装置20bは、入力データが未知のクラスに属すると判定した場合に、ユーザに、入力データにクラスIDを関連づけるための登録フォームを提供することができる。そのため、ユーザは、入力データを、既知のクラスで不足している訓練データとして、又は新しいクラスの訓練データとして、追加することができる。
識別装置20bの出力部24bは、未知クラス判定部23が、未知のデータが未知のクラスに属すると判定した場合、以下の処理を実行する。即ち、識別装置20bの出力部24bは、未知のデータと、データが属する既知のクラス又は、未知のクラスを識別するクラスIDとを関連付けるための登録方法を示す登録方法情報を出力する。これにより、識別装置20bは、入力データが未知のクラスに属すると判定した場合に、ユーザに、入力データにクラスIDを関連づけるための登録フォームを提供することができる。そのため、ユーザは、入力データを、既知のクラスで不足している訓練データとして、又は新しいクラスの訓練データとして、追加することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、上述した各実施形態の処理によれば、訓練データが疎な特徴空間上の領域に位置する入力データの確信度を低くすることができるので、前記領域にある入力データを未知のクラスに識別することができる。また、前記領域にある入力データを、ユーザに、訓練データとして追加することを促すことができる。
よって、正常クラスに属する訓練データが疎な領域に位置する入力データを、未知のクラスに識別することができるようにすることができる。
なお、上述した各実施形態を任意に組み合わせて実施してもよい。
また、上述した各実施形態においては、異常検知の問題を例に、実施形態について説明したが、例えば、上述した処理を、特定のクラスを人体のクラス、特定外のクラスを人体以外のクラスとし、画像又は映像データから人体を検知する問題に適用することができる。
また、上述した各実施形態においては、識別モデル生成装置10、10a及び10bが訓練データ記憶部M1、確率密度記憶部M2、コスト記憶部M3及び識別モデル記憶部M4を備えていると説明した。しかし、識別装置20及び20bがこれらの構成を備えてもよい。
また、上述した各実施形態においては、識別モデル生成装置10、10a及び10bは訓練データ記憶部M1、確率密度記憶部M2、コスト記憶部M3及び識別モデル記憶部M4を備えていると説明した。しかし、これら各構成を識別モデル生成装置10、10a及び10bが通信可能な他の装置が備えてもよい。
また、識別モデル生成装置と、識別装置とは、一つのコンピュータ内に実装されていてもよい。
よって、正常クラスに属する訓練データが疎な領域に位置する入力データを、未知のクラスに識別することができるようにすることができる。
なお、上述した各実施形態を任意に組み合わせて実施してもよい。
また、上述した各実施形態においては、異常検知の問題を例に、実施形態について説明したが、例えば、上述した処理を、特定のクラスを人体のクラス、特定外のクラスを人体以外のクラスとし、画像又は映像データから人体を検知する問題に適用することができる。
また、上述した各実施形態においては、識別モデル生成装置10、10a及び10bが訓練データ記憶部M1、確率密度記憶部M2、コスト記憶部M3及び識別モデル記憶部M4を備えていると説明した。しかし、識別装置20及び20bがこれらの構成を備えてもよい。
また、上述した各実施形態においては、識別モデル生成装置10、10a及び10bは訓練データ記憶部M1、確率密度記憶部M2、コスト記憶部M3及び識別モデル記憶部M4を備えていると説明した。しかし、これら各構成を識別モデル生成装置10、10a及び10bが通信可能な他の装置が備えてもよい。
また、識別モデル生成装置と、識別装置とは、一つのコンピュータ内に実装されていてもよい。
10、10a、10b 識別モデル生成装置、20 20b 識別装置
Claims (16)
- 既知のクラスに関連付けて記憶されている訓練データに基づいて、前記訓練データの前記既知のクラスにおける条件付き確率密度を示す確率密度情報を取得する第1の取得手段と、
前記訓練データと、前記第1の取得手段により取得された前記確率密度情報と、既知のクラスに関連付けて記憶されているコスト情報と、に基づいて、識別モデルを生成する生成手段と、
入力データの特徴量を抽出する抽出手段と、
前記訓練データと、前記生成手段により出力された前記識別モデルと、前記抽出手段により抽出された特徴量と、に基づいて、前記入力データが既知のクラスに属する確信度を取得する第2の取得手段と、
前記第2の取得手段により取得された前記確信度に基づいて、前記入力データが既知のクラスに属するか、未知のクラスに属するかを判定する判定手段と、
前記判定手段による判定の結果を出力する出力手段と、
を有するシステム。 - 前記出力手段により出力された判定の結果を表示する表示手段を更に有する請求項1記載のシステム。
- 入力データの特徴量を抽出する抽出手段と、
既知のクラスに関連付けて記憶されている訓練データと、識別モデルと、前記抽出手段により抽出された特徴量と、に基づいて、前記入力データが既知のクラスに属する確信度を取得する取得手段と、
前記取得手段により取得された前記確信度に基づいて、前記入力データが既知のクラスに属するか、未知のクラスに属するかを判定する判定手段と、
前記判定手段による判定の結果を出力する出力手段と、
を有する識別装置。 - 前記識別モデルは、既知のクラスに関連付けて記憶されている訓練データと、前記訓練データの前記既知のクラスにおける条件付き確率密度を示す確率密度情報と、既知のクラスに関連付けて記憶されているコスト情報と、に基づいて、生成される請求項3記載の識別装置。
- 前記取得手段は、既知のクラスに関連付けて記憶されている訓練データと、前記抽出手段により抽出された特徴量と、に基づいて、基底関数を求め、求めた基底関数と、前記識別モデルと、に基づいて、入力データが既知のクラスに属する確信度を算出し、前記確信度を取得する請求項3又は4記載の識別装置。
- 前記判定手段は、前記入力データが未知のクラスに属すると判定した場合、前記訓練データの前記既知のクラスにおける条件付き確率密度を示す確率密度情報を読み込み、読み込んだ前記確率密度情報に基づき、前記確信度を有する既知のクラスでの、前記入力データの条件付き確率密度である入力データ確率密度情報を取得し、
前記出力手段は、前記入力データが未知のクラスに属することを示す判定情報と、前記入力データ確率密度情報と、を前記判定の結果として出力する請求項3乃至5何れか1項記載の識別装置。 - 前記出力手段は、前記判定手段による判定の結果が、前記入力データが未知のクラスに属することを示していた場合、前記入力データが未知のクラスに属することを示す判定情報と、前記入力データをどの既知のクラスに追加するか、又は新規のクラスに追加するかの登録方法情報と、を前記判定の結果として出力する請求項3乃至5何れか1項記載の識別装置。
- 既知のクラスに関連付けて記憶されている訓練データに基づいて、前記訓練データの前記既知のクラスにおける条件付き確率密度を示す確率密度情報を取得する取得手段と、
前記訓練データと、前記取得手段により取得された前記確率密度情報と、既知のクラスに関連付けて記憶されているコスト情報と、に基づいて、識別モデルを生成する生成手段と、
を有する識別モデル生成装置。 - 前記生成手段は、前記訓練データに基づいて識別モデルの候補に対する評価を取得し、取得した評価に基づいて識別モデルを選択し、前記訓練データと、前記取得手段により取得された前記確率密度情報と、既知のクラスに関連付けて記憶されているコスト情報と、に基づいて、前記選択した前記識別モデルにパラメータを設定し、前記識別モデルを生成する請求項8記載の識別モデル生成装置。
- 前記生成手段は、前記訓練データと、前記取得手段により取得された前記確率密度情報と、既知のクラスに関連付けて記憶されているコスト情報と、に基づいて、識別モデルの候補に対する評価を取得し、取得した評価に基づいて識別モデルを選択し、前記訓練データに基づいて、前記選択した前記識別モデルにパラメータを設定し、前記識別モデルを生成する請求項8記載の識別モデル生成装置。
- 新しい訓練データを示す新規訓練データ情報に基づき、新しい訓練データを登録する登録手段を更に有する請求項8乃至10何れか1項記載の識別モデル生成装置。
- システムが実行する情報処理方法であって、
既知のクラスに関連付けて記憶されている訓練データに基づいて、前記訓練データの前記既知のクラスにおける条件付き確率密度を示す確率密度情報を取得する第1の取得ステップと、
前記訓練データと、前記第1の取得ステップにより取得された前記確率密度情報と、既知のクラスに関連付けて記憶されているコスト情報と、に基づいて、識別モデルを生成する生成ステップと、
入力データの特徴量を抽出する抽出ステップと、
前記訓練データと、前記生成ステップにより出力された前記識別モデルと、前記抽出ステップにより抽出された特徴量と、に基づいて、前記入力データが既知のクラスに属する確信度を取得する第2の取得ステップと、
前記第2の取得ステップにより取得された前記確信度に基づいて、前記入力データが既知のクラスに属するか、未知のクラスに属するかを判定する判定ステップと、
前記判定ステップによる判定の結果を出力する出力ステップと、
を含む情報処理方法。 - 識別装置が実行する情報処理方法であって、
入力データの特徴量を抽出する抽出ステップと、
既知のクラスに関連付けて記憶されている訓練データと、識別モデルと、前記抽出ステップにより抽出された特徴量と、に基づいて、前記入力データが既知のクラスに属する確信度を取得する取得ステップと、
前記取得ステップにより取得された前記確信度に基づいて、前記入力データが既知のクラスに属するか、未知のクラスに属するかを判定する判定ステップと、
前記判定ステップによる判定の結果を出力する出力ステップと、
を含む情報処理方法。 - 識別モデル生成装置が実行する情報処理方法であって、
既知のクラスに関連付けて記憶されている訓練データに基づいて、前記訓練データの前記既知のクラスにおける条件付き確率密度を示す確率密度情報を取得する取得ステップと、
前記訓練データと、前記取得ステップにより取得された前記確率密度情報と、既知のクラスに関連付けて記憶されているコスト情報と、に基づいて、識別モデルを生成する生成ステップと、
を含む情報処理方法。 - コンピュータに、
入力データの特徴量を抽出する抽出ステップと、
既知のクラスに関連付けて記憶されている訓練データと、識別モデルと、前記抽出ステップにより抽出された特徴量と、に基づいて、前記入力データが既知のクラスに属する確信度を取得する取得ステップと、
前記取得ステップにより取得された前記確信度に基づいて、前記入力データが既知のクラスに属するか、未知のクラスに属するかを判定する判定ステップと、
前記判定ステップによる判定の結果を出力する出力ステップと、
を実行させるためのプログラム。 - コンピュータに、
既知のクラスに関連付けて記憶されている訓練データに基づいて、前記訓練データの前記既知のクラスにおける条件付き確率密度を示す確率密度情報を取得する取得ステップと、
前記訓練データと、前記取得ステップにより取得された前記確率密度情報と、既知のクラスに関連付けて記憶されているコスト情報と、に基づいて、識別モデルを生成する生成ステップと、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014234600A JP2016099716A (ja) | 2014-11-19 | 2014-11-19 | システム、識別装置、識別モデル生成装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014234600A JP2016099716A (ja) | 2014-11-19 | 2014-11-19 | システム、識別装置、識別モデル生成装置、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016099716A true JP2016099716A (ja) | 2016-05-30 |
Family
ID=56077129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014234600A Pending JP2016099716A (ja) | 2014-11-19 | 2014-11-19 | システム、識別装置、識別モデル生成装置、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016099716A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539456A (zh) * | 2020-04-02 | 2020-08-14 | 浙江华睿科技有限公司 | 一种目标识别方法及设备 |
WO2020261700A1 (ja) * | 2019-06-25 | 2020-12-30 | パナソニックIpマネジメント株式会社 | 情報処理方法、及び、情報処理システム |
CN113743443A (zh) * | 2021-05-31 | 2021-12-03 | 高新兴科技集团股份有限公司 | 一种图像证据分类和识别方法及装置 |
-
2014
- 2014-11-19 JP JP2014234600A patent/JP2016099716A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020261700A1 (ja) * | 2019-06-25 | 2020-12-30 | パナソニックIpマネジメント株式会社 | 情報処理方法、及び、情報処理システム |
CN111539456A (zh) * | 2020-04-02 | 2020-08-14 | 浙江华睿科技有限公司 | 一种目标识别方法及设备 |
CN111539456B (zh) * | 2020-04-02 | 2024-03-01 | 浙江华睿科技股份有限公司 | 一种目标识别方法及设备 |
CN113743443A (zh) * | 2021-05-31 | 2021-12-03 | 高新兴科技集团股份有限公司 | 一种图像证据分类和识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240071185A1 (en) | Mobile device platform for automated visual retail product recognition | |
US11308334B2 (en) | Method and apparatus for integration of detected object identifiers and semantic scene graph networks for captured visual scene behavior estimation | |
CN110431560B (zh) | 目标人物的搜索方法和装置、设备和介质 | |
AU2014341919B2 (en) | Systems and methods for facial representation | |
JP6536058B2 (ja) | ユーザの人口統計学特性を推定する方法、コンピュータ・システム、及びプログラム | |
JP6164899B2 (ja) | ハッシュ値生成装置、システム、判定方法、プログラム、記憶媒体 | |
Zhou et al. | Semi-supervised salient object detection using a linear feedback control system model | |
CN112348117A (zh) | 场景识别方法、装置、计算机设备和存储介质 | |
CN108509994B (zh) | 人物图像聚类方法和装置 | |
JP6365024B2 (ja) | サービス提供装置、方法、及びプログラム | |
JP2018151833A (ja) | 識別器学習装置および識別器学習方法 | |
JP2016099716A (ja) | システム、識別装置、識別モデル生成装置、情報処理方法及びプログラム | |
US10592687B2 (en) | Method and system of enforcing privacy policies for mobile sensory devices | |
US20230115987A1 (en) | Data adjustment system, data adjustment device, data adjustment method, terminal device, and information processing apparatus | |
TW202125323A (zh) | 利用人工智慧模組學習臉部辨識的處理方法 | |
JP2015225410A (ja) | 認識装置、方法及びプログラム | |
KR101743169B1 (ko) | 얼굴 정보를 이용한 실종 가족 찾기 시스템 및 방법 그리고 이를 구현하는 프로그램을 기록한 기록 매체 | |
JP2022003526A (ja) | 情報処理装置、検出システム、情報処理方法、及びプログラム | |
JP6590477B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
US11527091B2 (en) | Analyzing apparatus, control method, and program | |
Costa‐Pazo et al. | Face presentation attack detection. A comprehensive evaluation of the generalisation problem | |
CN115880530A (zh) | 对抗攻击的检测方法和系统 | |
CN109063761B (zh) | 扩散器脱落检测方法、装置及电子设备 | |
CN112784691A (zh) | 一种目标检测模型训练方法、目标检测方法和装置 | |
Rungruangbaiyok et al. | Probabilistic static foreground elimination for background subtraction |