JP6708385B2 - 識別器作成装置、識別器作成方法、およびプログラム - Google Patents

識別器作成装置、識別器作成方法、およびプログラム Download PDF

Info

Publication number
JP6708385B2
JP6708385B2 JP2015188365A JP2015188365A JP6708385B2 JP 6708385 B2 JP6708385 B2 JP 6708385B2 JP 2015188365 A JP2015188365 A JP 2015188365A JP 2015188365 A JP2015188365 A JP 2015188365A JP 6708385 B2 JP6708385 B2 JP 6708385B2
Authority
JP
Japan
Prior art keywords
specific category
learning
data
discriminator
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015188365A
Other languages
English (en)
Other versions
JP2017062713A (ja
Inventor
裕輔 御手洗
裕輔 御手洗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015188365A priority Critical patent/JP6708385B2/ja
Priority to US15/273,221 priority patent/US11023822B2/en
Publication of JP2017062713A publication Critical patent/JP2017062713A/ja
Application granted granted Critical
Publication of JP6708385B2 publication Critical patent/JP6708385B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、識別器作成装置、識別器作成方法、およびプログラムに関し、特に、入力されたデータが特定カテゴリに属するか否かを識別するために用いて好適なものである。
識別器に入力されたパターン(データ)が、特定のカテゴリのパターンであるか否かを識別する方法として、様々な方法が提案されている。このような方法は、例えば、多数のデータ内から、特定のカテゴリのパターン(特定カテゴリパターン)を検出したり、逆に、特定のカテゴリとは異なるパターン(非特定カテゴリパターン)を検出したりするような用途に用いることができる。
特定のカテゴリのパターンであるか否かを識別する一般的な方法としては、Support Vector Machine(SVM)に代表される、いわゆる2クラス識別器を用いる方法がある。これは、多数の特定カテゴリパターン、および、多数の非特定カテゴリパターンを用いて、特定カテゴリパターンと非特定カテゴリパターンとを分離するように識別器を学習し、その識別器を用いて、識別器に入力されたパターンを識別する方法である。しかし、この方法では、識別器の学習に用いる非特定カテゴリパターンが少ないと、識別器の学習に用いていない非特定カテゴリパターンを、特定カテゴリパターンであると誤判定しやすいように識別器が学習されてしまう場合がある。例えば、監視カメラで撮影された画像に基づいて、異常な事態を検出するような用途において、正常な範囲を特定のカテゴリとし、何らかの異常な事態を非特定のカテゴリとする。この場合、識別器の学習に用いる異常な事態のパターン数が少ないと、このような状況が発生してしまう可能性が高くなる。つまり、学習に用いていない異常な事態を、正常と判定してしまうように、識別器が学習されてしまう場合がある。
一方、1クラスSVMに代表される、いわゆる1クラス識別器を用いた方法も存在する。この方法は、多数の特定カテゴリパターンを用いて、特定カテゴリパターンの範囲をモデル化するように識別器を学習し、その識別器を用いて、識別器に入力されたパターンを識別する方法である。しかし、この方法では、非特定カテゴリパターンを学習に用いることができない。そのため、特定のカテゴリと類似しているが、特定のカテゴリではないと判定すべきであることが既知のパターンに対する検出感度を高める(当該パターンを非特定カテゴリパターンであることを高い確率で判定する)ように学習することができない。例えば、監視カメラで撮影された画像に基づいて、異常な事態を検出するような用途においては、予め分かっている、正常の範囲に近いが、異常な事態と判定すべきパターンに対する検出感度を高めるように識別器を学習することができないことになる。したがって、そのような異常な事態を見逃す可能性が高くなる。
これに対し、特許文献1には、正常行動モデルと異常行動モデルとをそれぞれ学習しておき、各モデルに対する類似度を統合して、異常な行動を検出する方法が開示されている。
また、非特許文献1に記載には、Asymmetric SVMについて開示されている。Asymmetric SVMは、SVMと1クラスSVMとを統合した手法である。この手法は、特定カテゴリパターンと非特定カテゴリパターンとのマージンと、学習に用いているパターンと類似していないパターンを代表する、特徴空間における原点と特定カテゴリパターンとのマージンとを同時に最大化する手法である。
特許第4369961号公報 特開2006−079272号公報
Wu,S.−H.,K.−P.Lin,H.−H.Chien,C.−M.Chen and M.−S.Chen,"On Generalizable Low False−Positive Learning Using Asymmetric Support Vector Machines",IEEE Trans.on Knowledge and Data Engineering,Vol.25,No.5,pp.1083−1096,2013 Dalal,N.,B.Triggs and C.Schmid,"Human Detection using Oriented Histograms of Flow and Appearance",IEEE European Conference on Computer Vision,Vol.2,pp.428−441,2006 杉山将、"密度比に基づく機械学習の新たなアプローチ"、統計数理、Vol.58、No.2、pp.141−155、2010
しかしながら、特許文献1に記載の技術では、異常行動モデルを学習する際に、異常行動のデータが十分に存在している必要がある。したがって、異常行動のデータは少ない場合には、適切な異常行動モデルを生成することは容易ではない。
また、非特許文献1に記載の技術では、予め分かっている特定パターンに対する検出感度は担保される。しかしながら、既知の非特定カテゴリパターンに対する検出感度を高めようとすると、未知の非特定カテゴリパターンに対する検出感度が低くなる。すなわち、既知の非特定カテゴリパターンを非特定カテゴリパターンとして見逃しなく検出しようとすると、未知の非特定カテゴリパターンを特定カテゴリパターンであると判定し易くなる。したがって、異常なデータを正常なデータであると判定し易くなる。よって、異常なデータの見逃しを避けることが求められる用途には適さない。
本発明は、このような問題点に鑑みてなされたものであり、学習に用いる非特定カテゴリに属するデータの数が少なくても、識別器に入力される未知の非特定カテゴリに属するデータを識別できるようにすることを目的とする。
本発明の識別器作成装置は、入力されたデータに対する特定のカテゴリらしさを表す値を、所定のパラメータに基づいて計算し、計算した結果に基づいて、前記入力されたデータが前記特定のカテゴリに属するデータであるか否かを識別する識別器を作成する識別器作成装置であって、前記特定のカテゴリに属することが既知のデータである複数の学習用特定カテゴリデータの分布からの距離が大きいデータの前記学習用特定カテゴリデータの分布に対する乖離度を大きくするとともに、前記特定のカテゴリに属さないことが既知のデータである少なくとも1つの学習用非特定カテゴリデータの前記学習用特定カテゴリデータの分布に対する乖離度を大きくするように、前記パラメータを決定する決定手段を有することを特徴とする。
本発明によれば、学習に用いる非特定カテゴリに属するデータの数が少なくても、識別器に入力される未知の非特定カテゴリに属するデータを識別することができる。
識別器作成装置の構成の第1の例を示す図である。 識別器作成装置による処理の第1の例を説明するフローチャートである。 識別器の構成の第1の例を示す図である。 識別器による処理の第1の例を説明するフローチャートである。 識別器作成装置および識別器のハードウェア構成を示す図である。 パラメータ設定装置の構成を示す図である。 パラメータ設定装置による処理を説明するフローチャートである。 識別器作成装置の構成の第2の例を示す図である。 識別器作成装置による処理の第2の例を説明するフローチャートである。 識別器の構成の第2の例を示す図である。 識別器による処理の第2の例を説明するフローチャートである。 処理対象となるパターンを示す図である。 識別器作成装置の構成の第3の例を示す図である。 識別器作成装置による処理の第3の例を説明するフローチャートである。 識別器作成装置の構成の第4の例を示す図である。 識別器作成装置による処理の第4の例を説明するフローチャートである。 識別器の構成の第3の例を示す図である。 識別器による処理の第3の例を説明するフローチャートである。
以下、添付図面を参照しながら、本発明の実施形態を説明する。
(第1の実施形態)
まず、第1の実施形態を説明する。本実施形態では、監視カメラで撮影された動画像に基づいて、監視エリア内の異常を検出するためのパターン識別器の学習を行う方法を例に挙げて説明する。本実施形態では、異常が発生していない状況、つまり、正常な状況を、特定カテゴリとし、何らかの異常が発生している状況を、非特定カテゴリと定義する。また、本実施形態では、特定カテゴリのデータ、つまり、正常な状況を撮影した監視カメラの動画像を、必要に応じて正常データと記載する。また、非特定カテゴリのデータ、つまり、何らかの異常が発生している状況を撮影した監視カメラの動画像を、必要に応じて異常データと記載する。本実施形態では、入力されたデータが、正常であるか否かを判定する識別器を、予め得られている、多数の正常データと、少なくとも1つの異常データとを用いて学習する方法を示す。
図1は、識別器作成装置100の機能的な構成の一例を示す図である。また、図2は、識別器作成装置100による処理の一例を説明するフローチャートである。以下、図1および図2を参照しながら、本実施形態の識別器学習方法の一例を説明する。
ステップS201において、学習データ入力部101は、多数の学習データを入力する。学習データは、識別器の学習に用いられる。本実施形態では、多数の学習データとして、多数の正常データと、少なくとも1つの異常データとを用いる。学習データ入力部101は、N(Nは2以上の整数)個の正常データと、M(Mは1以上の整数)個の異常データを、それぞれ学習データとして入力し、学習データ保持部102に記録する。尚、このように学習データは、特定カテゴリおよび非特定カテゴリの何れのデータであるか(すなわち、正常であるか異常であるか)が既知のデータである。また、本実施形態では、例えば、正常データが学習用特定カテゴリデータの一例であり、異常データが学習用非特定カテゴリデータの一例である。
次に、ステップS202において、特徴抽出部103は、ステップS201で学習データ保持部102に記録された学習データのそれぞれから、特徴データ(特徴量)を抽出する。本実施形態では、データとして動画像を用いる。このため、本実施形態では、特徴抽出部103は、動画像を対象とした特徴データとして、例えば、特許文献2に記載の立体高次局所自己相関特徴(CHLAC)を抽出する。これにより、1つの学習データから、251次元の特徴ベクトルが抽出される。特徴抽出部103は、学習データのそれぞれから抽出した251次元の特徴ベクトルを、抽出元の学習データと相互に関連づけて学習パターン保持部104に記録する。以下の本実施形態の説明では、正常データから抽出され学習パターン保持部104に記録された特徴ベクトルを、必要に応じて正常パターンと記載する。また、異常データから抽出され学習パターン保持部104に記録された特徴ベクトルを、必要に応じて異常パターンと記載する。本実施形態では、正常パターンとして、N個の251次元の特徴ベクトルが、異常パターンとして、M個の251次元の特徴ベクトルが、それぞれ学習パターン保持部104に記録される。尚、ここでは、CHLACを特徴データとして抽出する場合を例に挙げて説明した。しかしながら、例えば、非特許文献2に記載の、Motion Boundary Histogram(MBH)特徴等を特徴データとして抽出しても構わない。
続いて、ステップS203において、パラメータ初期化部105は、N個の係数{αi}(i=1、2、・・・、N)を初期化する。この係数{αi}は、学習対象の識別器が、識別器に入力されたデータに対する特定カテゴリらしさの度合いを数値で表す正常度を導出する計算式に含まれるパラメータである、この係数{αi}の詳細については、後述する。パラメータ初期化部105は、以下の2つの条件に従うように、無作為に、N個のパラメータを初期化する。
条件1:0≦αi≦1/(νN)
条件2:Σ[i=1〜N]αi=1
ここで、条件1のνは、正常パターンの内、どの程度の割合のパターンが、正常パターン群の境界付近にあるようにするのかを設定するパラメータである。従って、このパラメータνの範囲は、0<ν≦1である。例えば、パラメータ初期化部105は、ν=0.1等に予め設定する。また、Σ[i=1〜N]は、i=1から、1ずつ順に、i=Nまでの
総和をとることを意味する。パラメータ初期化部105は、初期化したN個の係数{αi}を、識別器パラメータ106として記録する。
次に、ステップS204において、特定カテゴリ目的関数設定部107は、特定カテゴリ、つまり、正常パターンに関する目的関数Jp(θ)を設定する。ここでのθは、最適化すべき所定のパラメータを意味する。本実施形態の場合、このθは係数{αi}となる。そこで、本実施形態では、特定カテゴリ目的関数設定部107は、以下の(1)式の目的関数Jp({αi})を設定する。
ここで、xi、xnは、それぞれ、i番目、n番目の正常パターンである。本実施形態では、正常パターンは、正常データから抽出された251次元の特徴ベクトルのデータである。また、k(xi、xn)は、カーネル関数であり、本実施形態では、以下の(2)式のカーネル関数を用いる。
本実施形態では、カーネル関数として、(2)式に示すような、いわゆるガウスカーネルを用いるが、カーネル関数は、これに限定されない。すなわち、xiとxnが類似していない場合に、k(xi、xn)が0(ゼロ)に近づくような関数であれば、その他の関数でも構わない。また、本実施形態では、カーネル関数のパラメータσは、予め設定されるものとする。
(1)式に示した目的関数Jp(θ)は、前述の1クラスSVMの目的関数と一致する。この目的関数Jp(θ)を最大化するパラメータ、すなわち係数{αi}を求めることが、1クラスSVMの学習処理である。しかし、1クラスSVMの学習では、非特定カテゴリのデータを学習に用いることができず、目的関数Jp(θ)の最大化だけでは、非特定カテゴリであることが既知である学習データ(本実施形態では、異常データ)に対する感度を高めることができない。つまり、既に異常だとわかっている異常パターンを、正常ではないと判定するように、識別器のパラメータ、すなわち係数{αi}を調整することができない。そこで、本実施形態では、この目的関数Jp(θ)に、既知の異常データに対する正常度を小さくするペナルティ項を追加する。このようにすることにより、非特定カテゴリであると既知である学習データ(本実施形態では、異常データ)に対する感度を上げる。
この目的を達成するため、ステップS205において、非特定カテゴリ目的関数設定部108は、非特定カテゴリ、つまり、異常パターンに関する目的関数Jn({αi})を設定する。この目的関数Jn({αi})は、学習に用いる非特定カテゴリのパターン(すなわち、異常パターン)が、特定カテゴリ(本実施形態では、正常)であるとは判定されにくくなるようにするためのものである。以下、この目的関数Jn({αi})について、詳細に説明する。
前述の1クラスSVMでは、(1)式に示した目的関数Jp({αi})を最大化する係数{αi}を用いて、新たな入力データxに対する、以下の(3)式の値を導出する。この値が、0(ゼロ)以上であれば、入力データxは、特定カテゴリに属するデータであり、そうでなければ、入力データxは、特定カテゴリに属さないデータであると判定される。
ここで、(3)式中の、ρは閾値であり、任意の入力データxに対して一定である。従って、閾値ρを無視した、以下の(4)式のf(x)は、新たな入力データxに対する特定カテゴリ度、つまり、このf(x)の値が大きい程、新たな入力データxが特定カテゴリのデータである度合いが高いことを表す。
そこで、非特定カテゴリ目的関数設定部108は、学習に用いる非特定カテゴリのパターン、すなわち、学習に用いる異常パターンに対して、(4)式の値を下げるような目的関数を設定する。具体的に本実施形態では、非特定カテゴリ目的関数設定部108は、以下(5)式に示す目的関数Jn({αi})を、異常パターンに関する目的関数として設定する。
ここで、x'mは、m番目の異常パターンである。本実施形態では、異常パターンは、異常データから抽出された251次元の特徴ベクトルのデータである。(5)式より、αi≧0であり、(2)式より、k(xi、x'm)>0であるので、この目的関数Jn({αi})の値を大きくすることにより、異常パターンに対する(4)式の値の2乗平均を下げることになる。
本実施形態では、ステップS206、S207の処理において、パラメータ修正部109は、(1)式の目的関数Jp({αi})と、(5)式の目的関数Jn({αi})とを用いて、所定のパラメータ(本実施形態では、係数{αi})の最適化を行う。具体的にパラメータ修正部109は、以下の(6)式に示す目的関数J({αi})を最大化することにより、ステップS203で初期化されたパラメータ{αi}の最適化を行う。
ここで、λは、各目的関数Jp({αi})、Jn({αi})の効果のバランスを調整するための正のパラメータである。パラメータ修正部109は、例えば、λ=N/Mとなるようにパラメータλを予め設定する。この目的関数J({αi})の最大化により、係数{αi}を最適化することで、(6)式の第1項による効果と、(6)式の第2項による効果とを、合わせ持つ係数{αi}を得ることができる。(6)式の第1項による効果は、特定カテゴリのパターン(本実施形態では正常パターン)については(4)式の値が大きくなるとともに、特定カテゴリのパターンから乖離したパターンについては乖離度に応じて(4)式の値が小さくなるという効果である。また、(6)式の第2項による効果は、学習に用いる非特定カテゴリのパターン(本実施形態では異常パターン)について、(4)式の値が小さくなるという効果である。そのため、1クラスSVM等と同様に、特定カテゴリのパターンの分布から外れるパターンを、特定カテゴリとは異なるパターンであると判定できると共に、学習に用いる非特定カテゴリのパターンに対する感度を高めることができる。
尚、本実施形態では、例えば、(6)式の第1項が特定カテゴリ学習項の一例であり、(6)式の第2項が非特定カテゴリ学習項の一例である。また、例えば、(6)式の第1項により、学習用特定カテゴリデータの分布から相対的に乖離している学習用特定カテゴリデータに対する特定のカテゴリらしさを表す値を、相対的に特定のカテゴリらしくないことを示す方向に変更させることができる。また、例えば、(6)式の第2項により、学習用非特定カテゴリデータに対する特定のカテゴリらしさを表す値を、相対的に特定のカテゴリらしくないことを示す方向に変更させることができる。
そして、ステップS206において、パラメータ修正部109は、(6)式の目的関数Jp({αi})の値を最大化するため、係数{αi}の修正を行う。本実施形態では、目的関数Jp({αi})の値の最大化を、SVMのパラメータの最適化において一般的な、Sequential Minimal Optimization法(SMO法)を用いて行う。SMO法では、最適化するパラメータ内の、任意の2つを選択し、それらを逐次的に更新していくことで、パラメータの最適化を行う。本実施形態では、パラメータ修正部109は、識別器パラメータ106として記録されているN個の係数{αi}の内の、任意の2つの係数αs、αt(s、t=1、2、・・・、N、s≠t)を、以下の(7)式〜(11)式により更新する。
この処理において選択される2つの係数αs、αtは、任意で構わないが、効率的な更新を行うためには、(11)式の右辺第2項の絶対値が大きいようなsとtの組合せを選択することが好適である。
次に、ステップS207において、パラメータ修正部109は、ステップS206で修正した係数{αi}に基づいて、識別器の学習が収束したか否かを判定する。この判定の結果、識別器の学習が収束していない場合には、ステップS206に進む。そして、識別器の学習が収束すると判定されるまで、ステップS206、S207の処理を繰り返し実行することにより、係数{αi}の最適化を行う。識別器の学習が収束したか否かは、例えば、係数{αi}の修正が収束したか否かによって判定すればよい。本実施形態では、パラメータ修正部109は、全てのs、tの組合せにおける、(11)式の右辺第2項の分子の絶対値の最大値が、所定値以下(例えば、10-3以下)である場合に、識別器の学習が収束したと判定する。
以上のようにしてステップS207において、識別器の学習が収束したと判定された場合、ステップS208に進む。ステップS208に進むと、識別器データ出力部110は、学習の結果から得られる識別器データを外部に出力する。ここでは、識別器データ出力部110は、最適化した係数{αi}の内、αi>0であるものと、それに対応する正常パターンxiとをセットにしたリストを識別器データとして出力する。このリストは、識別器パラメータ106として記憶されている係数{αi}と、学習パターン保持部104に記録されている正常パターンとに基づいて作成される。
例えば、係数{αi}の内、0(ゼロ)を上回るものがNSV個であるとする。この場合、識別器データ出力部110は、NSV個の係数{α(SV)i}(i=1、2、・・・、NSV)と、それぞれに対応するNSV個の正常パターン{x(SV)i}(i=1、2、・・・、NSV)とを出力する。
また、識別器データ出力部110は、最終的な係数{αi}を用いて、学習パターン保持部104に記録されているM個の異常パターンに対する(4)式の値の最大値max{f(x'm)}を求め、それを識別器の閾値Vthとして出力することができる。この場合、識別器の閾値Vthも、識別器データに含められる。
このように本実施形態では、1クラスSVMの識別器と同様の機能を実現しつつ、既知の非特定カテゴリのパターンに対する特定カテゴリ度を小さくするように、識別器を学習することが可能になる。
本実施形態では、非特定カテゴリのパターンに対する特定カテゴリ度を小さくするために、その特定カテゴリ度の2乗の総和を小さくするような項を、1クラスSVMの目的関数に付加した((6)式の右辺第2項を参照)。しかしながら、非特定カテゴリのパターンに対する特定カテゴリ度を小さくする項を用いていれば、必ずしも、非特定カテゴリのパターンに対する特定カテゴリ度の2乗の総和を小さくする項を用いる必要はない。例えば、非特定カテゴリのパターンに対する特定カテゴリ度の単純な総和を小さくするような項を、1クラスSVMの目的関数に付加してもよい。
続いて、以上のようにして学習した識別器を用いて、監視カメラの動画像に基づいて、監視エリア内の異常を検出するパターン識別方法の一例を説明する。
図3は、識別器300の機能的な構成の一例を示す図である。また、図4は、識別器300による処理の一例を説明するフローチャートである。以下、図3および図4を参照しながら、本実施形態のパターン識別方法の一例を説明する。
まず、ステップS401において、識別器データ入力部301は、図2のステップS208で出力された識別器データを入力する。ここでは、NSV個の係数{α(SV)i}(i=1、2、・・・、NSV)と、それぞれの係数{α(SV)i}に対応するNSV個の正常パターン{x(SV)i}(i=1、2、・・・、NSV)と、識別器の閾値Vthとを入力する。尚、これらのデータの入力の形態は特に限定されない。例えば、識別器データ入力部301は、識別器データ出力部110から通信回線を介してこれらのデータを入力することができる。また、識別器データ出力部110が、これらのデータを、外部装置に送信した場合、識別器データ入力部301は、当該外部装置から通信回線を介してこれらのデータを入力することができる。また、識別器データ出力部110が、これらのデータを、可搬型の記憶媒体に記憶した場合、識別器データ入力部301は、当該可搬型記憶媒体から通信回線を介してこれらのデータを読み出すことができる。
SV個の係数{α(SV)i}と、NSV個の正常パターン{x(SV)i}は、後述する特定カテゴリ度算出部304において用いられる。このため、NSV個の係数{α(SV)i}と、NSV個の正常パターン{x(SV)i}は、特定カテゴリ度算出部304に送信される。また、識別器の閾値Vthは、後述する識別結果出力部305において用いられる。このため、識別器の閾値Vthは、識別結果出力部305に送信される。
続いて、ステップS402において、データ入力部302は、異常が存在するか否かの判定を行う動画像として、監視カメラ310によって撮影された動画像のデータを入力する。尚、監視カメラ310は、公知の技術で実現することができる。また、ステップS401で説明したのと同様に、動画像のデータの入力の形態は、特に限定されない、
次に、ステップS403において、特徴抽出部303は、ステップS402で入力された動画像のデータから、特徴データを抽出する。本実施形態では、図2のステップS202と同様に、特徴抽出部303は、立体高次局所自己相関特徴(CHLAC)を抽出する。これにより、ステップS402で入力された動画像データに対する特徴抽出が行われる。本実施形態では、251次元の特徴ベクトルが得られる。
次に、ステップS404において、特定カテゴリ度算出部304は、ステップS401で入力された識別器データと、ステップS403で抽出された特徴ベクトルとを用いて、以下の(12)式により、特定カテゴリ度を算出する。
ここで、xは、ステップS403で抽出された251次元の特徴ベクトルである。本実施形態では、特定カテゴリ度は、ステップS402で入力された動画像のデータの正常らしさの度合いを表したものとなる。
最後に、ステップS405において、識別結果出力部305は、ステップS404で算出された特定カテゴリ度と、ステップS401で入力された識別器の閾値Vthとを比較する。そして、特定カテゴリ度が、閾値Vth以上である場合、識別結果出力部305は、入力された動画像の特徴データは、特定カテゴリのパターンであり、入力された動画像内において、異常な事態は発生していないと判定する。一方、そうでない場合、識別結果出力部305は、入力された動画像の特徴データは、特定カテゴリのパターンではなく、入力した動画像内で、異常な事態が発生していると判定する。
識別結果出力部305は、この判定の結果を外部に出力する。判定の結果の出力の形態は、特に限定されない。例えば、コンピュータディスプレイへの表示と、外部装置への送信と、内部または外部の記憶媒体への記憶との少なくとも何れか1つを出力の形態として採用することができる。これにより、本実施形態のパターン識別方法の処理が終了となる。
以上の処理により、監視カメラ310で撮影された動画像内の異常を検出するに際し、特に、正常パターンとは乖離したパターンだけでなく、パターン識別器の学習に用いた既知の異常パターンと類似したパターンも、異常であると検出できる可能性が高くなる。
本実施形態では、1つの動画像に対するパターン識別方法の処理を例に挙げて説明した。しかしながら、図4のステップS402〜S405の処理を繰り返すことにより、監視カメラ310により撮影される動画像に対して、継続的に異常を検出する処理を行うことができる。また、本実施形態では、特定カテゴリ度に対する閾値として、識別器の学習時に算出した閾値Vthを用いた(図2のステップS208の説明を参照)。しかしながら、特定カテゴリ度に対する閾値は、これに限るものではない。例えば、より異常に対して敏感にしたいのであれば、識別器の学習時に算出した閾値よりも大きな閾値を採用すればよい。
最後に、図5を参照しながら、識別器作成装置100および識別器300のハードウェア構成の一例を説明する。尚、前述した機能を実現することができれば、識別器作成装置100および識別器300のハードウェア構成は、図5に示す構成に限定されない。
CPU501は、ROM502やRAM503に格納されたプログラムに従って命令を実行する。
ROM502は、不揮発性メモリであり、前述したフローチャートによる処理を実行するプログラムや、その他の制御に必要なプログラムや、データを格納する。
RAM503は、揮発性メモリであり、フレーム画像データや、被写体の同定の結果などの一時的なデータを記憶する。
2次記憶装置504は、ハードディスクドライブやフラッシュメモリーなど、データの書き換えが可能な2次記憶装置であり、画像情報や、各種設定内容などを記憶する。これらの情報は、RAM503に転送されて、CPU501がプログラムを実行する際に利用されたり、データとして利用されたりする。
入力装置505は、キーボードやマウスなどであり、ユーザからの入力を可能とする。
表示装置506は、ブラウン管CRTや液晶ディスプレイなどであり、ユーザに対して処理結果などを表示する。
ネットワークI/F507は、モデムやLANなどであり、インターネットやイントラネットなどのネットワークと接続を行う。
バス508は、前述した各要素を相互に通信可能に接続する。各要素は、バス508を介して相互にデータの入出力を行う。
以上のように本実施形態では、識別器のパラメータを学習するに際し、以下の2つを実施する。第1に、学習用の正常パターン群から相対的に乖離している学習用の正常パターンの特定カテゴリ度を、学習用の正常パターン群から相対的に乖離していない学習用の正常パターンの特定カテゴリ度に対し相対的に低減させる。第2に、学習用の異常パターンの特定カテゴリ度を、学習用の正常パターン群の特定カテゴリ度に対し相対的に低減させる。したがって、学習用の異常パターンに対する感度を高めながら、正常パターンの範囲をモデル化できる識別器を学習することが可能になる。よって、学習用の異常パターンが少なくても、識別器に入力される未知の異常なデータを高い確率で識別することができる。また、その識別器を用いることにより、学習に用いた異常パターンに対する感度を持ちながら、正常パターンの範囲から離れたパターンについては、正常ではないと判定することができるようなパターン識別を実現することができる。
(第2の実施形態)
次に、第2の実施形態を説明する。第1の実施形態における識別器の学習方法では、係数{αi}以外のパラメータν、σ、λについては、予め設定した値を用いた。パラメータλは、パラメータ初期化部105で使用する条件1に含まれるパラメータである。パラメータσは、(2)式に示したカーネル関数のパラメータσである。パラメータλは、各目的関数Jp({αi})、Jn({αi})の効果のバランスを調整するための正のパラメータである。これに対し、本実施形態では、これらのパラメータについても適切に探索する。このように本実施形態と第1の実施形態とは、パラメータν、σ、λを導出する方法が主として異なる。従って、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図5に付した符号と同一の符号を付す等して詳細な説明を省略する。以下の説明では、係数{αi}以外のパラメータを必要に応じてハイパーパラメータと記載する。
本実施形態におけるハイパーパラメータとしては、ν、σ、λがある。これらのハイパーパラメータν、σ、λについては、いわゆる交差検定の枠組みにより、適切な値を設定することができる。図6は、パラメータ設定装置600の機能的な構成の一例を示す図である。また、図7は、パラメータ設定装置600による処理の一例を説明するフローチャートである。以下、図6および図7を参照しながら、本実施形態のパラメータ設定方法の一例を説明する。
ステップS701において、学習データ入力部601は、多数の正常データと、少なくとも1つの異常データを、それぞれ学習データとして入力し、学習データ保持部602に記録する。ステップS701の処理は、図2のステップS201と同じ処理であるので、詳細な説明を省略する。
次に、ステップS702において、特徴抽出部603は、ステップS701で学習データ保持部602に記録された学習データのそれぞれから、特徴データを抽出し、抽出元の学習データと相互に関連づけて学習パターン保持部604に記録する。本実施形態では、特徴抽出部603は、特徴データとして、例えば、特許文献2に記載の立体高次局所自己相関特徴(CHLAC)を抽出する。ステップS702の処理は、図2のステップS202と同じ処理であるので、詳細な説明を省略する。
次に、ステップS703において、特定カテゴリデータ分割部605は、複数の特定カテゴリのパターン(本実施形態では正常パターン)のみを、複数のセットに分割する。このとき、ステップS701で入力した正常データの全てを用いるのが好ましい。ただし、必ずしも、ステップS701で入力した正常データの全てを用いる必要はない。また、複数の正常パターンをいくつに分割するかは任意である。本実施形態では、特定カテゴリデータ分割部605は、複数の正常パターンを5つのセットに分割する場合を例に挙げて説明する。
続いて、ステップS704において、パラメータ設定部606は、ハイパーパラメータν、σ、λを設定する。ここでは、パラメータ設定部606は、各ハイパーパラメータν、σ、λにつき、予め定めた複数の設定値を用意しておき、それらの組合せの内、1つの組合せを設定する。具体的には、例えば、ハイパーパラメータνについては、{0.1、0.2、・・・、0.9}の9つの設定値を用意する。また、例えば、ハイパーパラメータσについては、{0.1、0.32、1、3.2、10}の5つの設定値を用意する。また、例えば、ハイパーパラメータλについては、{1、2、・・・、10}の10個の設定値を用意する。この場合、ハイパーパラメータν、σ、λの組合せは、450(=9×5×10)通り存在する。ここでは、パラメータ設定部606は、その内の1つの組合せ(例えば、ν=0,1、σ=0.1、λ=1)を順に設定していく。パラメータ設定部606は、設定したハイパーパラメータν、σ、λを、学習部607に送信する。また、パラメータ設定部606は、設定したハイパーパラメータν、σ、λの値と相互に関連付けて平均評価値保持部610に記録する。
次に、ステップS705において、学習部607は、ステップS703で分割された複数のセットから、1つのセットを除いた残りのセットであるサブセットと、複数の異常パターンを用いた学習を実行する。本実施形態では、正常パターンを5つのセットに分割する。したがって、学習部607は、正常パターンに関しては、分割した内の4つのセットを、異常パターンについては、全てのパターンを、それぞれ用いて学習を行う。ここでの学習は、ステップS704において設定されたハイパーパラメータを用いて、図2のステップS206、S207で説明した手法により行われる。この学習の結果から、識別器データが得られる。第1の実施形態で説明した例では、NSV個の係数{α(SV)i}(i=1、2、・・・、NSV)と、それぞれに対応するNSV個の正常パターン{x(SV)i}(i=1、2、・・・、NSV)とが識別器データとして得られる。
次に、ステップS706において、評価値算出部608は、ステップS705で得られた識別器データと、ステップS705における学習に用いなかった1セットの正常パターンと、学習に用いた異常パターンとに基づいて、学習結果の評価値を算出する。具体的には、まず、評価値算出部608は、学習に用いなかった1セットの正常パターンと、学習に用いた異常パターンの全てに対し、(12)式を用いて、それぞれの特定カテゴリ度を算出する。そして、評価値算出部608は、異常パターンに対する特定カテゴリ度の内、最も特定カテゴリ度の高かったものを基準とし、学習に用いなかった1セットの正常パターンの中で、その基準よりも特定カテゴリ度の高かったパターンの比率を算出する。この比率が、学習結果の評価値となる。評価値算出部608は、学習の結果の評価値を、平均評価値記録部609に送信する。
次に、ステップS707において、パラメータ設定装置600は、ステップS703で分割された複数のセットから、1つのセットを除いた残りのセットであるサブセットとして取り得る全てのセットの学習結果の評価値の算出が終了したか否かを判定する。この判定の結果、サブセットとして取り得る全てのセットの学習結果の評価値の算出が終了していない場合には、ステップS705に戻る。ステップS705に戻ると、学習部607は、学習結果の評価値を算出していないサブセットと、複数の異常パターンを用いた学習を実行する。そして、サブセットとして取り得る全てのセットの学習結果の評価値の算出が終了するまで、ステップS705〜S707の処理を繰り返し行う。
サブセットとして取り得る全てのセットの学習結果の評価値の算出が終了すると、ステップS708に進む。本実施形態では、正常パターンを5つのセットに分割するので、学習と、学習結果の評価値の算出とを行うサブセットの組合せとしては、5つのパターンが存在する。したがって、それら5つのパターン全てに対し、学習と、学習結果の評価値の算出とを行って、それぞれのパターンにおける学習結果の評価値を算出する。
ステップS708に進むと、平均評価値記録部609は、全てのサブセットの組合せに対する学習結果の評価値の平均値を算出する。そして、評価値記録部608は、全てのサブセットの組合せに対する学習結果の評価値の平均値を、ステップS704で設定されたハイパーパラメータν、σ、λの値と相互に関連付けて平均評価値保持部610に記録する。
次に、ステップS709において、パラメータ設定装置600は、ハイパーパラメータν、σ、λの組合せの全てを設定したか否かを判定する。この判定の結果、ハイパーパラメータν、σ、λの組合せの全てを設定していない場合には、ステップS704に戻る。ステップS704に戻ると、パラメータ設定部606は、未選択のハイパーパラメータν、σ、λを設定する。そして、ハイパーパラメータν、σ、λの組合せの全てが設定され、それら全てのハイパーパラメータν、σ、λの組合せについて、学習結果の評価値の平均値が算出されるまで、ステップS704〜S709の処理を繰り返し行う。
以上のようにして全てのハイパーパラメータν、σ、λの組合せについて、学習結果の評価値の平均値が算出されると、ステップS710に進む。ステップS710に進むと、前述したハイパーパラメータの設定値の例であれば(ステップS704の説明を参照)、450通りの組合せそれぞれに対し、ステップS704〜S708の処理を実行する。その結果、450通りのハイパーパラメータの値と、それに対応する学習結果の評価値の平均値とが、平均評価値保持部610に記録される。
最後に、ステップS710において、パラメータ決定結果出力部611は、平均評価値保持部610に記録されている全てのハイパーパラメータν、σ、λの組合せの中で、学習結果の評価値の平均値が最も高いものを選択する。そして、パラメータ決定結果出力部611は、選択したハイパーパラメータν、σ、λの組合せを、ハイパーパラメータの決定結果として外部に出力する。ハイパーパラメータの決定結果の出力の形態は、特に限定されない。例えば、コンピュータディスプレイへの表示と、外部装置への送信と、内部または外部の記憶媒体への記憶との少なくとも何れか1つを出力の形態として採用することができる。これにより、本実施形態のパラメータ設定方法の処理が終了となる。
以上の処理により、適切なハイパーパラメータν、σ、λを決定することができ、決定したハイパーパラメータν、σ、λを用いて、図2のフローチャートによる識別器学習方法の処理を行う。
以上のように本実施形態では、正常パターンのみを、複数のセットに分割し、異常パターンを分割しない。そして、分割された複数のセットから、1つのセットを除いた残りのセットであるサブセットと、異常パターンと、ハイパーパラメータの候補とを用いた学習を実行し、学習結果の評価値を導出する。このような学習結果の評価値を、サブセットとして取り得る全てのセットについて導出し、学習結果の評価値の平均値を導出する。このような学習結果の評価値の平均値の導出を、全てのハイパーパラメータの候補について行う。そして、ハイパーパラメータの候補の内、学習結果の評価値の平均値が最も高くなるハイパーパラメータを選択する。したがって、異常パターンが少ない場合でも、ハイパーパラメータを適切に設定することができる。
尚、本実施形態のパラメータ設定装置600を第1の実施形態で説明した識別器作成装置100に含めることができる。このようにする場合、学習データ入力部601、学習データ保持部602、特徴抽出部603、学習パターン保持部604は、それぞれ、図1の学習データ入力部101、学習データ保持部102、特徴抽出部103、学習パターン保持部104で実現できる。したがって、学習データ入力部601、学習データ保持部602、特徴抽出部603、学習パターン保持部604を必ずしも設ける必要はない。
一般的な交差検定では、本実施形態で説明した方法とは異なり、非特定カテゴリのパターンに関しても分割を行い、その一部を学習結果の評価用に用いる。しかしながら、その場合、非特定カテゴリのパターンの数が少ないと、分割の仕方のバラつき等により、安定的にハイパーパラメータν、σ、λを決定することが難しいという問題がある。本実施形態のように、監視カメラ310により撮影された異常な事態の動画像といった、稀な事象のデータを、非特定カテゴリのデータとして利用する場合、このことが問題となり得る。これに対し、本実施形態で説明した方法では、非特定カテゴリのパターンが少なかったとしても、特定カテゴリのパターンが十分に存在すれば、安定的にハイパーパラメータν、σ、λを決定することができる。もし、一般的なSVMによる学習を、本実施形態と同様の手法に適用すると、学習に用いた非特定カテゴリのパターンのみを、特定のカテゴリではないと判定し、それ以外を全て特定カテゴリと判定してしまうハイパーパラメータが選択されてしまう虞がある。これに対し、第1の実施形態で説明した識別器学習方法では、特定カテゴリのパターンに対する特定カテゴリ度を下げることにより、非特定カテゴリパターンの特定カテゴリ度を下げるという、いわば正則化を行っている。そこで、本実施形態では、第1の実施形態で説明した識別器学習方法による学習を行い、その学習の結果の評価値を算出する。このように、正則化の枠組みとして、非特定カテゴリのパターンに対する特定カテゴリ度を下げるように識別器を学習することにより、学習に用いる非特定カテゴリのパターンが少ないとしても、安定的にハイパーパラメータを選択することが可能になる。ただし、例えば、様々な種類の非特定カテゴリのパターンを多数入手可能であれば、一般的な交差検定により、適切なハイパーパラメータν、σ、λを設定することができる。
(第3の実施形態)
次に、第3の実施形態を説明する。第1、第2の実施形態では、識別器のパラメータを学習するための目的関数を、1クラスSVMを用いた識別器のパラメータを学習するための目的関数を拡張した目的関数にする場合を例に挙げて説明した。これに対し、本実施形態では、識別器のパラメータを学習するための目的関数を、非特許文献3に記載のKullback−Leibler Importance Estimation Procedure(KLIEP)を拡張した目的関数とする。このように本実施形態と第1の実施形態とでは、識別器と、識別器のパラメータを学習するための目的関数とが異なることによる構成および処理が主として異なる。したがって、本実施形態の説明において、第1、第2の実施形態と同一の部分については、図1〜図7に付した符号と同一の符号を付す等して詳細な説明を省略する。
本実施形態でも、第1の実施形態と同様に、監視カメラで撮影された動画像に基づいて、監視エリア内の異常を検出するためのパターン識別器の学習を行う方法を例に挙げて説明する。また、本実施形態でも、正常データから抽出され学習パターン保持部104に記録された特徴ベクトルを、必要に応じて正常パターンと記載する。また、異常データから抽出され学習パターン保持部104に記録された特徴ベクトルを、必要に応じて異常パターンと記載する。
識別器作成装置100の機能的な構成の一例と、識別器作成装置100による処理の一例は、それぞれ、図1、図2に示したものと同じであり、目的関数に関する部分の処理が異なる。また、識別器300の機能的な構成の一例と、識別器300による処理の一例は、それぞれ、図3、図4に示したものと同じであり、特徴カテゴリ度に関する部分の処理が異なる。そこで、図1〜図4を参照しながら、第1の実施形態と異なる部分について、本実施形態の識別器学習方法とパターン識別方法の一例を説明する。
本実施形態では、ステップS204において特定カテゴリ目的関数設定部107が設定する正常パターン(特定カテゴリ)に関する目的関数に、KLIEPによる、異常パターンを検出するためのパターン識別器の学習における目的関数を用いる。そのため、本実施形態では、特定カテゴリ目的関数設定部107は、以下の(13)式の目的関数Jp({αi})を設定する。
本実施形態では、特定カテゴリ目的関数設定部107は、N個の正常パターンを、Nn個とNd個の2つのセットに分割する(よって、Nn+Nd=Nになる)。(13)式において、Nn個のセットに含まれる、n番目の正常パターンのベクトルをxn、Nd個のセットに含まれる、j番目の正常パターンのベクトルをx"jとする。また、φi(x)は、基底関数であり、本実施形態では、b=Ndとして、以下の(14)式の基底関数φi(x)を用いる。
KLIEPでは、(13)式の目的関数Jp({αi})を最大化する係数{αi}を求めることによって、パターン識別器を学習することになる。KLIEPにおける特定カテゴリ度は、以下の(15)式のf(x)で表される。
(4)式と同様に、(15)式のf(x)は、新たな入力データxに対する特定カテゴリ度、つまり、このf(x)の値が大きい程、新たな入力データxが特定カテゴリのデータである度合いが高いことを表す。そこで、本実施形態では、ステップS205において、非特定カテゴリ目的関数設定部108は、非特定カテゴリ、つまり、異常パターンに関する目的関数Jn({αi})として以下の(16)式を設定する。
以上より、ステップS206、S207の処理において、パラメータ修正部109は、(13)式と(16)式との和で表される以下の(17)式の目的関数J({αi})を最大化することによって、最適な係数{αi}を導出する。
この目的関数J({αi})は、係数{αi}に関して凸関数である。したがって、ステップS206において、パラメータ修正部109は、勾配法による係数{αi}の修正と、係数{αi}に対する制約充足を、識別器パラメータ106として記録されたN個の係数{αi}に対して繰り返す。これにより、大域的な最適解を得ることができる。
尚、本実施形態では、例えば、(17)式の第1項が特定カテゴリ学習項の一例であり、(17)式の第2項が非特定カテゴリ学習項の一例である。また、例えば、(17)式の第1項により、学習用特定カテゴリデータの分布から相対的に乖離している学習用特定カテゴリデータに対する特定のカテゴリらしさを表す値を、相対的に特定のカテゴリらしくないことを示す方向に変更させることができる。また、例えば、(17)式の第2項により、学習用非特定カテゴリデータに対する特定のカテゴリらしさを表す値を、相対的に特定のカテゴリらしくないことを示す方向に変更させることができる。
目的関数J({αi})を最大化する係数{αi}を導出した後、ステップS208において、識別器データ出力部110は、学習の結果から得られる識別器データを外部に出力し、学習結果を外部に出力して、本実施形態の識別器学習方法の処理が終了となる。ここでも、KLIEPの性質上、αi=0となるものが出てくるので、最適化した係数{αi}の内、αi>0であるものと、それに対応する正常パターンx"iとをセットにしたリストを識別器データとして出力する。例えば、係数{αi}の内、0(ゼロ)より大きいものがNs個であったとすると、NS個の係数{α(S)i}(i=1、2、・・・、NS)と、それぞれの係数に対応するNS個の正常パターン{x"(S)i}(i=1、2、・・・、NS)とを出力する。この学習の結果を用いた特定カテゴリ度の算出は、以下の(18)式により行うことができる。
本実施形態では、図4のステップS404において、(12)式ではなく、(18)式を用いる。この特定カテゴリ度が、所定の閾値以上である場合、識別結果出力部305は、入力した動画像の特徴データは、特定のカテゴリのパターンであり、入力した動画像内において、異常な事態は発生していないと判定する。一方、そうでない場合、識別結果出力部305は、入力した動画像の特徴データは、特定のカテゴリのパターンではなく、入力した動画像内で、異常な事態が発生していると判定する。
また、本実施形態でも、第2の実施形態と同様の方法で、ハイパーパラメータを選択することが可能である。本実施形態の場合、ハイパーパラメータは、(14)式に示した基底関数φi(x)のσと、(17)式に示した目的関数J({αi})のλである。これらのハイパーパラメータσ、λに、所定の設定値を設定し、第2の実施形態において説明したのと同様の交差検定を行うことにより、適切なハイパーパラメータパラメータσ、λを選択することが可能である。
以上のように、識別器のパラメータの学習に用いる目的関数は、1クラスSVMを用いた識別器のパラメータを学習するための目的関数を拡張したものだけでなく、その他の手法を用いた識別器のパラメータを学習するための目的関数を拡張したものでもよい。
(第4の実施形態)
次に、第4の実施形態を説明する。第1〜第3の実施形態では、いわゆる1クラス系の識別器のパラメータの学習に用いる目的関数を拡張する場合を例に挙げて説明した。これに対し、本実施形態では、2クラス識別器のパラメータの学習に用いる目的関数を拡張する場合を例に挙げて説明する。本実施形態では、2クラス識別器として一般的なロジスティック回帰を用いた識別器のパラメータの学習に用いる目的関数を拡張する場合について説明する。このように、本実施形態と第1〜3の実施形態は、識別器が2クラス識別器であることによる構成および処理が主として異なる。したがって、本実施形態の説明において、第1〜第3の実施形態と同一の部分については、図1〜図7に付した符号と同一の符号を付す等して詳細な説明を省略する。
本実施形態では、人物の顔画像(静止画像)を入力し、その顔画像の人物が、予め定められた特定の人物であるか否かを識別するためのパターン識別器の学習を行う場合を例に挙げて説明する。
図8は、識別器作成装置800の機能的な構成の一例を示す図である。また、図9は、識別器作成装置800による処理の一例を説明するフローチャートである。以下、図8および図9を参照しながら、本実施形態の識別器学習方法について、第1および第3の実施形態と異なる部分を説明する。
ステップS901において、学習データ入力部801は、多数の学習データを入力する。学習データは、識別器の学習に用いられる。本実施形態では、多数の学習データとして、多数の人物の顔画像を用いる。具体的には、本実施形態では、画像から、人物の顔の領域を切り出した、20×20画素のグレースケールの画像を人物の顔画像として用いる。以下の説明では、このような画像を、必要に応じて単に顔画像と記載する。これらの顔画像は、予め定めた特定の人物の顔画像と、特定の人物以外の任意の人物の顔画像とから構成される。本実施形態では、例えば、特定の人物の顔画像が学習用特定カテゴリデータの一例であり、予め定められた特定の人物以外の任意の人物の顔画像が学習用非特定カテゴリデータの一例である。
学習データ入力部801は、予め定められた特定の人物の顔画像に関しては、特定カテゴリのデータとして、学習データ保持部802に記録する。以下、本実施形態では、特定カテゴリのデータを必要に応じて特定カテゴリパターンと記載する。一方、学習データ入力部801は、予め定められた特定の人物以外の任意の人物の顔画像については、特定のカテゴリとは異なるデータとして、学習データ保持部802に記録する。以下、本実施形態では、特定カテゴリとは異なるデータを必要に応じて非特定カテゴリパターンと記載する。
本実施形態では、特定の人物に関して様々な状況下で撮影されたN枚の顔画像と、特定の人物以外の、任意の人物の顔画像に関して同じく様々な状況で撮影されたM枚の顔画像の、計N+M枚の顔画像を学習データとして用いる。このような計N+M枚の顔画像が、学習データ保持部802に記録される。以降、ここで記録された学習データ(顔画像のデータ)は、20×20画素の画素値をラスタスキャン的に並べた400次元のベクトルとして扱う。
続いて、ステップS902において、パラメータ初期化部803は、学習する識別器のパラメータであるN個の係数{wi}(i=1、2、・・・、N)を初期化する。この係数{wi}の詳細については、後述する。パラメータ初期化部803は、以下の2つの条件に従うように、無作為に、N個のパラメータを初期化する。
条件1:wi≧0
条件2:Σ[i=1〜N]wi=C
ここで、条件2のCは、正則化のための正のパラメータである。パラメータCの値が小さい程、正則化の効果が大きくなる。パラメータCは、学習の前の段階で予め定めておくハイパーパラメータである。例えば、パラメータ初期化部803は、C=0.1Nというように、パラメータCを予め設定することができる。また、第2の実施形態において説明した、交差検定によるハイパーパラメータの設定方法を用いて、パラメータCの値として適切な値を選択してもよい。パラメータ初期化部803は、初期化したN個の係数{wi}を、識別器パラメータ804として記録する。
2クラス識別器において一般的に使用されるロジスティック回帰の目的関数は、特定カテゴリパターンに関する項と、非特定カテゴリパターンに関する項に分離すると、以下の(19)式、(20)式のように表される。(19)式の目的関数J({wi})の値を最小化する係数{wi}を求めることによって、パターン識別器を学習することになる。
ここで、φi(x)は、b個の基底関数の内の、i番目の基底関数である。ロジスティック回帰における、特定カテゴリ度を求める関数f(x)は、(19)式の目的関数J({wi})の値を最小化する係数{wi}を用いて、以下の(21)式で表される。
本実施形態では、(19)式の目的関数J({wi})における基底関数φi(x)を所定の形式に制限する。更に、基底関数φi(x)を制限した目的関数に対し、係数{wi}に関する制約条件(制約式)を付加する。具体的に本実施形態では、基底関数φi(x)として、以下の(22)式の関数を用いる。
この基底関数φi(x)中のxiは、ステップS901において入力されたN個の特定カテゴリパターンのi番目の特定カテゴリパターンである(i=1、2、・・・、N)。このように、本実施形態では、基底関数φi(x)として、特定カテゴリパターンを核とするガウス基底関数を用いる。しかしながら、基底関数φi(x)は、これに限るものではない。特定カテゴリパターンから乖離したデータに対する値が0(ゼロ)に近づくような基底関数であれば、その他の基底関数を用いても構わない。
以上のことから本実施形態では、ステップS903において、目的関数設定部805は、(19)式の目的関数J({wi})に、係数{wi}に関する2つの制約条件を付加した、以下の(23)式の目的関数J({wi})を設定する。
本実施形態では、(23)式の基底関数φi(x)は(22)式で表される。
このように、本実施形態では、通常のロジスティック回帰の目的関数に対し、基底関数の制限と制約条件の付加とを行ったものを、パターン識別器の係数{wi}を学習するための目的関数とする。(23)式の右辺第1項は、特定カテゴリパターンから相対的に乖離した特定カテゴリパターンの特定カテゴリ度を、特定カテゴリパターンから相対的に乖離していない特定カテゴリパターンの特定カテゴリ度に対して、相対的に下げる効果を持つ項となる。また、(23)式の右辺第2項は、学習に用いる非特定カテゴリパターンに対する特定カテゴリ度を、特定カテゴリパターンの特定カテゴリ度に対して、相対的に下げる効果を持つ項となる。
尚、本実施形態では、例えば、(23)式の第1項が特定カテゴリ学習項の一例であり、(23)式の第2項が非特定カテゴリ学習項の一例である。また、例えば、(23)式の第1項により、学習用特定カテゴリデータの分布から相対的に乖離している学習用特定カテゴリデータに対する特定のカテゴリらしさを表す値を、相対的に特定のカテゴリらしくないことを示す方向に変更させることができる。また、例えば、(23)式の第2項により、学習用非特定カテゴリデータに対する特定のカテゴリらしさを表す値を、相対的に特定のカテゴリらしくないことを示す方向に変更させることができる。
続いて、ステップS904において、パラメータ修正部806は、第3の実施形態と同様に、勾配法による係数{wi}の修正と、係数{wi}に対する制約充足を、ステップS905において識別器の学習が収束したと判定されるまで繰り返し行う。これにより、最適解(係数{wi})を得ることができる。ただし、第3の実施形態においては、目的関数の最大化を行ったが、ここでは、目的関数の最小化を行う。このようにして、識別器パラメータ804として記録された係数{wi}が修正される。
以上のようにして、(23)式の目的関数J({wi})の値を最小化する係数{wi}が導出されると、ステップS906に進む。ステップS906に進むと、識別器データ出力部807は、学習の結果から得られる識別器データを外部に出力する。第1、第3の実施形態と同様に、識別器データ出力部807は、最適化した係数{wi}の内、wi>0である係数と、それに対応する特定カテゴリパターンxiとをセットにしたリストを、識別器データとして出力する。例えば、係数{wi}の内、0(ゼロ)より大きいものがNs個であったとする。この場合、NS個の係数{w(S)i}(i=1、2、・・・、NS)と、それぞれの係数{w(S)i}に対応するNS個の特定カテゴリパターン{x(S)i}(i=1、2、・・・、NS)とが出力される。
以上の手法により、入力された顔画像が、特定の人物の顔画像であるか否かを識別するパターン識別器を学習することが可能になる。また、以上の手法により学習したパターン識別器では、入力した顔画像が、特定の人物の顔画像と比べて大きく異なるような顔画像であれば、特定の人物の顔画像ではないと、正しく判定することができる可能性が高い。また、パターン識別器の学習に用いた、特定の人物以外の顔画像に対しても、特定の人物の顔画像ではないと、正しく判定できる可能性を高めることができる。特に、学習に用いた特定の人物以外の人物の内、特定の人物と類似した人物が存在しても、その人物の顔画像を、特定の人物の顔画像ではないと、正しく判定することができる可能性を高めることができる。
このように、1クラス系の識別器だけでなく、2クラス識別器においても、特定カテゴリパターンとは乖離したパターンと、識別器の学習に用いた既知の非特定カテゴリパターンと類似したパターンとの双方を識別できる識別器を構築することができる。また、第1、第3の実施形態のような、動画像に対する異常を検出するパターン識別器の学習だけでなく、特定の人物の顔画像であるか否かといった、一般的なパターンを対象にした場合にも適用可能である。
尚、本実施形態の識別器学習方法においても、いくつかのハイパーパラメータが存在する。具体的には、(22)式に示した基底関数φi(x)のパラメータσと、係数{wi}に関する制約条件を定める正則化パラメータCが、ハイパーパラメータである。これらのハイパーパラメータσ、Cに関しても、第2の実施形態において説明したのと同様の交差検定を行うことにより、適切な値を設定することができる。ただし、特定の人物以外の顔画像を多数入手可能であれば、一般的な交差検定により、適切なハイパーパラメータσ、Cを設定することができる。
続いて、以上のようにして学習した識別器を用いて、識別器に入力された顔画像が、特定の人物の顔画像であるか否かを判定するパターン識別方法の一例を示す。
図10は、識別器1000の機能的な構成の一例を示す図である。また、図11は、識別器1000による処理の一例を説明するフローチャートである。以下、図10および図11を参照しながら、本実施形態のパターン識別方法の一例を説明する。
まず、ステップS1101において、識別器データ入力部1001は、図9のステップS906で出力された識別器データを入力する。ここでは、NS個の係数{w(S)i}(i=1、2、・・・、NS)と、それぞれの係数{w(S)i}に対応するNS個の特定カテゴリパターン{x(S)i}(i=1、2、・・・、NS)を入力する。図4のステップS401で説明したのと同様に、識別器データの入力の形態は特に限定されない。NS個の係数{w(S)i}と、NS個の特定カテゴリパターン{x(S)i}は、後述する特定カテゴリ度算出部1003において用いられるため、これらのデータは、特定カテゴリ度算出部1003に送信される。
続いて、ステップS1102において、データ入力部1002は、特定の人物の顔画像であるか否かの判定を行う顔画像のデータを入力する。ステップS1102で入力される顔画像のデータとして、不図示の撮影装置で撮影された画像データ、または、ネットワークを介して送信された画像ファイル等、様々な形式のデータを利用することが可能である。ただし、いずれも、学習データと同じ形式の顔画像のデータとする。前述した例では、画像から顔の部分を切り出した、20×20画素のグレースケールの画像とする必要がある。また、入力された顔画像のデータは、20×20画素の画素値をラスタスキャン的に並べた400次元のベクトルとして扱われる。
そして、ステップS1103において、特定カテゴリ度算出部1003は、ステップS1101で入力された識別器データと、ステップS1102で入力された顔画像のデータとを用いて、以下の(24)式により、特定カテゴリ度を算出する。
ここで、xは、ステップS1102で入力された顔画像のデータ(400次元のベクトル)である。本実施形態では、特定カテゴリ度は、特定の人物の顔画像らしさの度合いを表したものとなる。
最後に、ステップS1104において、識別結果出力部1004は、ステップS1103で算出された特定カテゴリ度と閾値とを比較する。そして、特定カテゴリ度が、閾値0.5以上である場合、識別結果出力部1004は、入力された顔画像は、特定の人物の顔画像であると判定し、そうでない場合、識別結果出力部1004は、入力された顔画像は、特定の人物の顔画像ではないと判定する。識別結果出力部1004は、この判定の結果を外部に出力する。尚、本実施形態では、特定カテゴリ度が0.5以上であるか否かにより、特定の人物の顔画像であるか否かを判定した。しかしながら、閾値は、0.5に限るものではない。例えば、特定の人物の顔画像以外を、特定の人物の顔画像であると誤判定する可能性を低くするためには、この閾値を1よりも小さい範囲で大きくすればよい。これにより、本実施形態のパターン識別方法の処理が終了となる。尚、図4のステップS405で説明したのと同様に、判定の結果の出力の形態は、特に限定されない。
以上の処理により、識別器に入力された顔画像が、特定の人物であるか否かを判定することが可能になる。特に、特定の人物の顔画像と比べて、大きく異なるような顔画像だけでなく、パターン識別器の学習に用いた特定の人物以外の顔画像に類似した顔画像に対しても、特定の人物の顔画像ではないと、正しく判定できる可能性が高くなる。
(第5の実施形態)
次に、第5の実施形態を説明する。本実施形態では、複雑なテクスチャパターンを有する製造物の表面を撮影した画像から、その表面上の欠陥を、異常パターンとして検出する方法において用いるパターン識別器のパラメータの学習方法の一例を示す。本実施形態では、複雑なテクスチャパターンを有する製造物が、表面に粗し加工を施したゴム板である場合を例に挙げて説明する。ただし、本実施形態の手法は、その他の製造物等にも適用可能である。また、第1〜第4の実施形態では、所定の基底関数の線形結合で表される形式のパターン識別器を用いる。これに対し、本実施形態では、それとは異なる形式のパターン識別器を用いる。また、第1〜第4の実施形態では、学習に用いる非特定カテゴリのデータに対する特定カテゴリ度を小さくする場合を例に挙げて説明した((4)式、(6)式の右辺第2項等を参照)。これに対し、本実施形態では、学習に用いる非特定カテゴリのデータに対する非特定カテゴリ度を大きくするように、パターン識別器のパラメータの学習のために用いる目的関数を設定する。このように、本実施形態と第1〜第4の実施形態は、識別器と、識別器のパラメータを学習するための目的関数とが異なることによる構成および処理が主として異なる。したがって、本実施形態の説明において、第1〜第4の実施形態と同一の部分については、図1〜図11に付した符号と同一の符号を付す等して詳細な説明を省略する。
図12は、本実施形態での処理対象となるパターンの一例を示す図である。これらは、表面粗し加工を施したゴム板の表面を撮影したグレースケール画像から、128×128画素の領域を切り出したものである。図12において、画像データ1201a〜1201eは、正常であるゴム板の画像から切り出した画像である。画像データ1202a〜1202bは、欠陥を含むゴム板の画像から、欠陥部(図中、丸印にて図示)を含むような領域を切り出したものである。
本実施形態では、画像データ1201a〜1201eのような画像データを正常データとし、画像データ1202a〜1202eのような画像データを異常データとする。画像データ1202a〜1202eは、黒いスポット状のムラのような欠陥が存在する異常データである。図12に示すように、欠陥の形状やサイズは様々である。
欠陥のパターンには、画像データ1202cのように、全体的にグラデーションがあるパターンがある。また、画像データ1202dのように、白いスポット状のムラがあるパターンがある。この他、画像データ1202eのように、テクスチャのコントラストが一部だけ低いパターン等がある。このように、様々な欠陥の種類が存在する。本実施形態では、画像データ1201a〜1201eのような画像データが与えられた場合に、正常なデータであると判定し、画像データ1202a〜1202eのような画像データが与えられた場合に、異常なデータであると判定するパターン識別器を学習する。
図13は、識別器作成装置1300の機能的な構成の一例を示す図である。また、図14は、識別器作成装置1300による処理の一例を説明するフローチャートである。以下、図13および図14を参照しながら、本実施形態の識別器学習方法の一例について、第1〜第4の実施形態と異なる部分について説明する。
ステップS1401において、学習データ入力部1301は、多数の学習データを入力する。学習データは、識別器の学習に用いられる。本実施形態では、多数の学習データとして、図12に示したような、画像データ1201a〜1201e、1202a〜1202eを多数用いる。ここでは、画像データ1201a〜1201eのような、欠陥の無いN枚の画像データと、画像データ1202a〜1202eのような、何らかの欠陥が存在するM枚の画像データを入力する。尚、欠陥の無い画像データの数は多い程好ましい。一方、何らかの欠陥が存在する画像データの数は少なくとも1つあればよい。学習データ入力部1301は、入力した画像データを、学習データ保持部1302に記録する。また、本実施形態では、例えば、欠陥の無い画像データが学習用特定カテゴリデータの一例であり、何らかの欠陥が存在する画像データが学習用非特定カテゴリデータの一例である。
続いて、ステップS1402において、特徴抽出部1303は、ステップS1301で学習データ保持部1302に記録された学習データのそれぞれから、特徴データ(特徴量)を抽出する。本実施形態では、特徴抽出部1303は、各画像データのそれぞれに対し、画素値の平均値、分散、および最大値といった、d種類(例えば30種類程度)の特徴量を抽出する。特徴抽出部1303は、各画像データから抽出した、d種類の特徴量を並べたものを、d次元の特徴ベクトルとして、抽出元の画像データと相互に関連付けて学習パターン保持部1304に記録する。以下の説明では、欠陥の無い正常な画像データから抽出され学習パターン保持部1304に記録されたd次元の特徴ベクトルを、必要に応じて正常パターンと記載する。また、何らかの欠陥が存在する異常な画像データから抽出され学習パターン保持部1304に記録されたd次元の特徴ベクトルを、必要に応じて異常パターンと記載する。本実施形態では、正常パターンとして、N個のd次元の特徴ベクトルが、異常パターンとして、M個のd次元の特徴ベクトルが、それぞれ学習パターン保持部1304に記録される。
この後、学習パターン保持部1304に記録された複数の正常パターンと、少なくとも1つの異常パターンとを用いて、パターン識別器の学習が行われる。ここで、本実施形態において学習するパターン識別器について説明する。本実施形態において学習するパターン識別器は、入力データx(d次元の特徴ベクトル)に対し、以下の(25)式のf(x)の値が、所定の閾値以内であれば、入力データxが特定カテゴリ、つまり、正常パターンであると判定する。一方、入力データx(d次元の特徴ベクトル)に対し、以下の(25)式のf(x)の値が、所定の閾値以上であれば、パターン識別器は、入力データが特定カテゴリではない、つまり、異常パターンであると判定する。
ここで、μ、Σは、それぞれ学習により決定するパラメータである。具体的にパラメー
タμは、d次元の特徴ベクトルであり、パラメータΣはd×dの行列である。(25)式
に示す関数f(x)の値が大きい程、特定カテゴリではないと判定されやすい。従って、(25)式に示す関数f(x)は、非特定カテゴリ度を表していると言える。第1〜第4の実施形態においては、特定カテゴリ度をベースとして学習を行ったが、非特定カテゴリ度は、特定カテゴリ度の裏返しである。従って、(25)式に示す関数f(x)、すなわち非特定カテゴリ度をベースとしても、特定カテゴリ度をベースとした場合と同様に学習を行うことが可能である。
ステップS1403において、特定カテゴリ目的関数設定部1305は、特定カテゴリ、つまり、正常パターンに関する目的関数Jp(θ)を設定する。ここでのθは、学習により決定するパラメータを意味しているので、本実施形態の場合、パラメータμ、Σとな
る。そこで、本実施形態では、特定カテゴリ目的関数設定部1305は、以下の(26)式の目的関数Jp(μ、Σ)を設定する。
ここで、xnは、n番目の正常パターンであり、|Σ|はΣの行列式である。この目的
関数Jp(μ、Σ)の第1項は、学習に用いる正常パターンに対する、(25)式に示す
関数f(x)(すなわち非特定カテゴリ度)の総和である。したがって、目的関数Jp(μ、Σ)の第1項の値を小さくすることにより、正常パターンに対する平均的な非特定カ
テゴリ度を下げることができる。尚、n番目の正常パターンxnの正常パターンの分布からの乖離度は、(xn−μ)Σ-1(xn−μ)で表される。また、目的関数Jp(μ、Σ
)の第2項は、パラメータΣに関する正則化項である。
次に、ステップS1404において、非特定カテゴリ目的関数設定部1306は、非特定カテゴリ、つまり、異常パターンに関する目的関数Jn(μ、Σ)を設定する。本実施
形態では、異常パターンに対する非特定カテゴリ度を上げるような目的関数を設定するので、以下の(27)式の目的関数Jn(μ、Σ)を設定する。
ここで、x'mは、m番目の異常パターンである。また、目的関数Jn(μ、Σ)は、
学習に用いる異常パターンに対する、非特定カテゴリ度f(x)の総和の符号を反転したものである。そのため、この目的関数Jn(μ、Σ)の値を小さくすることにより、異常
パターンに対する、平均的な非特定カテゴリ度を上げることができる。
そして、ステップS1405において、パラメータ算出部1307は、(26)式の目的関数Jp(μ、Σ)と、(27)式の目的関数Jn(μ、Σ)を統合した、以下の(2
8)式に示す目的関数J(μ、Σ)を最小化するパラメータμ、Σを算出する。尚、本実
施形態では、例えば、(28)式の第1項が特定カテゴリ学習項の一例であり、(28)式の第3項が非特定カテゴリ学習項の一例である。また、例えば、(28)式の第1項により、学習用特定カテゴリデータの分布から相対的に乖離している学習用特定カテゴリデータに対する特定のカテゴリらしさを表す値を、相対的に特定のカテゴリらしくないことを示す方向に変更させることができる。また、例えば、(28)式の第3項により、学習用非特定カテゴリデータに対する特定のカテゴリらしさを表す値を、相対的に特定のカテゴリらしくないことを示す方向に変更させることができる。
ここで、λは、各目的関数Jp(μ、Σ)、Jn(μ、Σ)の効果のバランスを調整す
るための正のパラメータである。パラメータλは、λは、第1、第3の実施形態で説明したパラメータλと同じ意味を持つものである。ただし、本実施形態においては、パラメータ算出部1307は、λ<N/Mとなるようにパラメータλを設定することが好適である。(28)式に示す目的関数J(μ、Σ)の値を最小化するパラメータμ、Σは、第1〜
第4の実施形態とは異なり、解析的に求められる。目的関数J(μ、Σ)の値を最小化す
るパラメータμ、Σは、それぞれ以下の(29)式、(30)式により算出される。
パラメータ算出部1307は、以上のようにして算出したパラメータμ、Σを識別器デ
ータ出力部1308に送信する。
最後に、ステップS1406において、識別器データ出力部1308は、ステップS1405で算出されたパラメータμ、Σを、識別器データとして外部に出力する。
以上の処理により、正常パターンから乖離したパターンだけでなく、学習に用いた異常パターンと類似したパターンに対しても、正しく異常パターンであると判定できる可能性の高いパターン識別器を学習することができる。尚、本実施形態におけるハイパーパラメータは、パラメータλのみであるが、これに関しても、第2の実施形態において説明した交差検定による方法により、適切の値を選択することができる。ただし、何らかの欠陥が存在する画像データを多数入手可能であれば、一般的な交差検定により、適切なハイパーパラメータλを設定することができる。
以上の方法により学習したパターン識別器を用いて、複雑なテクスチャパターンを有する製造物の表面を撮影した画像から、その表面上の欠陥を、異常パターンとして検出する場合、まず、識別器は、識別器データであるパラメータμ、Σを入力する。そして、識別
器は、検査対象である画像データを入力し、当該画像データから、前述したように、d種類の特徴量を抽出して、それを並べたd次元の特徴ベクトルを生成する。そして、識別器は、入力したパラメータμ、Σを用いて(25)式の計算を行うことにより、そのd次元
の特徴ベクトルに対する非特定カテゴリ度を算出する。識別器は、この非特定カテゴリ度の値が、所定の閾値以下であれば、入力した画像データは、正常なパターンであると判定し、そうでなければ、入力した画像データは、欠陥が存在する異常パターンと判定する。
以上のように、識別器は、製造物の表面欠陥検査等に用いるパターン識別器であってもよい。また、第1〜第4の実施形態では、所定の基底関数の線形結合で表される形式のパターン識別器を用いたが、本実施形態のように、それとは異なる形式のパターン識別器であってもよい。また、第1〜第4の実施形態では、特定カテゴリ度をベースとしたが、本実施形態のように、特定カテゴリ度の裏返しである、非特定カテゴリ度をベースとした手法にも適用可能である。
(第6の実施形態)
次に、第6の実施形態を説明する。本実施形態では、製造装置等の装置内に設置した複数のセンサで検出された情報に基づき、その装置に異常が発生しているか否か判定する方法において用いるパターン識別器の学習方法の一例を示す。本実施形態では、製造装置を対象とする場合を例に挙げて説明するが、例えば、車両や印刷機器等を対象にした場合にも適用可能である。また、本実施形態では、識別器として1クラス系のk近傍法を拡張したパターン識別器を用いる。このように、本実施形態と第1〜第5の実施形態は、識別器が異なることによる構成および処理が主として異なる。したがって、本実施形態の説明において、第1〜第5の実施形態と同一の部分については、図1〜図14に付した符号と同一の符号を付す等して詳細な説明を省略する。
図15は、識別器作成装置1500の機能的な構成の一例を示す図である。また、図16は、識別器作成装置1300による処理の一例を説明するフローチャートである。以下、図15および図16を参照しながら、本実施形態の識別器学習方法の一例について、第1〜第5の実施形態と異なる部分について説明する。
ステップS1601において、学習データ入力部1501は、多数の学習データを入力する。学習データは、識別器の学習に用いられる。本実施形態では、多数の学習データとして、多数の様々な稼働状況における、製造装置内に設置した複数のセンサで検出された情報をセットにしたデータを用いる。以下の本実施形態の説明では、センサで検出された情報を必要に応じてセンサ情報と記載する。ここでは、正常な稼働状況で取得されたNセットのセンサ情報と、何らかの異常が発生した状況で取得されたMセットのセンサ情報を入力する。尚、正常な稼働状況で取得されたセンサ情報の数は多い程好ましい。一方、何らかの異常が発生した状況で取得されたセンサ情報は、少なくとも1つあればよい。学習データ入力部1501は、例えば、製造装置内の複数の箇所における温度、製造装置内の複数の配線箇所における電流量、および製造装置内の複数の可動箇所における一定期間内の応力変化等、複数のセンサ情報をセットにしたデータを入力する。学習データ入力部1501は、入力したデータを、学習データ保持部1502に記録する。本実施形態では、例えば、正常な稼働状況で取得されたセンサ情報が学習用特定カテゴリデータの一例であり、何らかの異常が発生した状況で取得されたセンサ情報が学習用非特定カテゴリデータの一例である。
続いて、ステップS1602において、特徴抽出・正規化部1503は、ステップS1601で入力されたそれぞれのデータに対して、特徴データの抽出と、特徴データの正規化とを行う。本実施形態では、特徴抽出・正規化部1503は、各種のセンサ情報に基づいて、d次元(例えば30次元程度)の特徴ベクトルを生成し、この特徴ベクトルの要素ごとに正規化処理を行う。d次元の特徴ベクトルの各要素として、温度センサの値等、センサ情報をそのまま用いる場合がある。また、例えば、一定期間内の応力変化といった、時系列的なデータに関しては、スペクトル解析により、所定の周波数成分の強度を抽出して、それを特徴ベクトルの要素として用いる場合もある。もちろん、周波数成分の強度に限らず、例えば、時系列的なデータの最大値と最小値の差分を特徴ベクトルの要素としても構わない。
そして、特徴抽出・正規化部1503は、正常な稼働状況で取得されたNセットのセンサ情報から生成した特徴ベクトルの各要素の標準偏差を求め、生成した全ての特徴ベクトルの各要素を、当該要素の標準偏差で除することによって正規化を行う。特徴抽出・正規化部1503は、学習データ保持部1502に記録されている全てのデータに対して、前述した特徴ベクトルの生成と、特徴ベクトルの正規化とを行う。そして、特徴抽出・正規化部1503は、それらを特徴ベクトルの生成元のデータと相互に関連付けて学習パターン保持部1504に記録する。
また、特徴抽出・正規化部1503は、何らかの異常が発生した状況で取得されたMセットのセンサ情報についても、前述したようにして、特徴ベクトルの生成と、特徴ベクトルの正規化とを行う。そして、特徴抽出・正規化部1503は、それらを特徴ベクトルの生成元のデータと相互に関連付けて学習パターン保持部1504に記録する。
以下の本実施形態の説明では、正常な稼働状況で取得されたセンサ情報から生成され正規化されたd次元の特徴ベクトルを、必要に応じて正常パターンと記載する。また、何らかの異常が発生した状況で取得されたセンサ情報から生成され正規化されたd次元の特徴ベクトルを、必要に応じて異常パターンと記載する。本実施形態では、正常パターンとして、N個のd次元の特徴ベクトルが、異常パターンとして、M個のd次元の特徴ベクトルが、それぞれ学習パターン保持部1504に記録される。
ここで、本実施形態において学習するパターン識別器について説明する。本実施形態では、1クラス系のk近傍法を拡張したパターン識別器を用いる。具体的には、識別器は、入力されたd次元の特徴ベクトルxに対する、N個の正常パターンそれぞれに対応する重みパラメータ{wi}(i=1、2、・・・、N)を用いた以下の(30)式に示す式f(x)の値を計算する。識別器は、この計算の結果に基づいて、入力されたd次元の特徴ベクトルxが特定のカテゴリであるか否かを判定する。
ここで、i*は、N個の正常パターンの内、入力した特徴ベクトルxとのユークリッド距離が近いk個(kはハイパーパラメータであり、例えば、k=3等)以内の正常パターンの番号である。xi*、wi*は、それぞれ、i*番目の正常パターン、i*番目の正常パターンに対応する重みパラメータである。つまり、(30)式は、学習に用いたN個の正常パターンの内、入力した特徴ベクトルxとのユークリッド距離が近いk個の正常パターンまでのユークリッド距離を、各正常パターンに対応する重みパラメータで重み付けして総和をとったものとなる。
そして、識別器は、この(30)式の値を、非特定カテゴリ度とみなし、この値が、所定の閾値未満ならば、入力した特徴ベクトルxは、特定カテゴリであり、そうでなければ、入力した特徴ベクトルxは特定カテゴリではないと判定する。ここで、全ての重みパラメータwi*を1とすると、いわゆる1クラス系のk近傍法のパターン識別器の一般的な方法の1つとなる。
これに対し、本実施形態では、正常パターンに対する重みパラメータ{wi}を導入する。そして、入力した学習用のデータを用いて、ステップS1603以降の処理で、この重みパラメータ{wi}を設定することで、学習に用いる異常パターンに対する感度を上げる。
まず、ステップS1603において、近傍データ距離算出部1505は、M個の異常パターンのそれぞれについて、N個の正常パターンの内、最もユークリッド距離が近いk個の正常パターンと、その正常パターンまでのユークリッド距離とを求める。ここでの具体的な処理を、m番目の異常パターンについての処理を例として説明する。まず、近傍データ距離算出部1505は、m番目の異常パターンと、1番目からN番目までの、N個の全ての正常パターンとのユークリッド距離を算出し、算出した全てのユークリッド距離の内、小さい値のユークリッド距離をk個探索する。そして、近傍データ距離算出部1505は、探索したk個のユークリッド距離のそれぞれについて、対応する正常パターンが何番目であるのかの番号と、当該番号の正常パターンとm番目の異常パターンとのユークリッド距離とをセットにしたものを求める。近傍データ距離算出部1505は、この処理を、M個の異常パターンの全てに対して行う。結局、ここでの処理により、正常パターンの番号と、それに対応するユークリッド距離とをセットにしたものが、M×k個分得られることになる。
次に、ステップS1604において、重みパラメータ算出部1506は、ステップS1603で求めた正常パターンの番号とそれに対応するユークリッド距離とのセットに基づき、N個の正常パターンのそれぞれに対応する重みパラメータ{wi}を算出する。具体的には、重みパラメータ算出部1506は、以下の(31)式により、各重みパラメータwiを算出する。
ここで、m^は、i番目の正常パターンが、k個以内の近傍であった異常パターンの番号である。m^は、ステップS1603の結果に基づいて得られる。x'm^は、m^番目の異常パターンである。また、λは、第1、第3、第5の実施形態で説明したパラメータλと同様の意味を持つハイパーパラメータである。すなわち、λは、パターン識別器の学習における、異常パターンに関しての効果を調整するための正のパラメータである。
(31)式に示すように、重みパラメータwiは、M個の異常パターンのいずれにおいても、i番目の正常パターンがk個以内の近傍ではなかった場合に最小値1となる。そして、少なくとも1つの異常パターンにおいて、i番目の正常パターンがk個以内の近傍にあった場合は、そのユークリッド距離に反比例する重みが加算されることになる。このように、異常パターンの近傍にある正常パターンに対する重みパラメータを増加させることで、当該正常パターンの近傍(つまり異常パターンの近傍)のデータに対しては、(30)式に示す非特定カテゴリ度が大きくなる。その結果として、学習に用いた異常パターンの非特定カテゴリ度が大きくなり、特定カテゴリではないと判定できる可能性が高くなるようにパターン識別器を学習できる。尚、(31)式に示す非特定カテゴリ度は、正常パターンの分布から乖離したようなデータに対しては、重みパラメータの値に関わらず、大きな値となるため、そのようなデータについても、特定のカテゴリではないと、正しく判定することができる。
最後に、ステップS1605において、識別器データ出力部1507は、学習の結果から得られる識別器データを外部に出力する。ここでは、識別器データ出力部1507は、N個の重みパラメータ{wi}と、各重みパラメータ{wi}に対応するN個の正常パターン{xi}と、特徴ベクトルの各要素の標準偏差(d個の標準偏差)とを、識別器データとして出力する。
尚、本実施形態の識別器学習方法においても、2つのハイパーパラメータk、λが存在する。これらのハイパーパラメータに関しても、第2の実施形態において説明したのと同様の交差検定を行うことにより、適切なパラメータを設定することができる。
続いて、以上のようにして学習した識別器を用いて、製造装置内に設置された複数のセンサ情報に基づき、当該製造装置に異常が発生しているか否か判定するパターン識別方法の一例を説明する。
図17は、識別器1700の機能的な構成の一例を示す図である。また、図18は、識別器1700による処理の一例を説明するフローチャートである。以下、図17および図18を参照しながら、本実施形態のパターン識別方法の一例を説明する。
まず、ステップS1801において、図16のステップS1605で出力された識別器データを入力する。ここでは、N個の重みパラメータ{wi}(i=1、2、・・・、N)と、各重みパラメータ{wi}に対応するN個の正常パターン{xi}(i=1、2、・・・、N)と、特徴ベクトルの各要素の標準偏差(d個の標準偏差)とを入力する。図4のステップS401で説明したのと同様に、識別器データの入力の形態は特に限定されない。N個の重みパラメータ{wi}とN個の正常パターン{xi}は、後述する非特定カテゴリ度算出部1704において用いられる。このため、N個の重みパラメータ{wi}とN個の正常パターン{xi}は、非特定カテゴリ度算出部1704に送信される。また、d個の標準偏差については、後述する特徴抽出・正規化部1703において、特徴ベクトルの正規化のために用いられる。このため、d個の標準偏差は、特徴抽出・正規化部1703に送信される。
続いて、ステップS1702において、データ入力部1702は、異常が発生しているか否かを判定する製造装置1710内に設置した複数のセンサで検出された情報(複数のセンサ情報)をセットにしたデータを入力する。ここでは、製造装置1710に設置された複数のセンサにより検出された温度等の複数のセンサ情報をセットにしたデータを入力する。
次に、ステップS1803において、特徴抽出・正規化部1703は、ステップS1802で入力されたデータに対し、図16のステップS1602で説明したのと同様にして、特徴ベクトルの生成と、特徴ベクトルの各要素の正規化とを行う。ここでの処理により、ステップS1802で入力されたデータに基づくd次元の特徴ベクトルxが得られる。
次に、ステップS1804において、非特定カテゴリ度算出部1704は、ステップS1801で入力された識別器データと、ステップS1803で生成された正規化後のd次元の特徴ベクトルxを用いて(31)式の計算を行い、非特定カテゴリ度を算出する。
最後に、ステップS1805において、識別結果出力部1705は、ステップS1804で算出された非特定カテゴリ度と閾値とを比較する。そして、非特定カテゴリ度が、閾値以下である場合、識別結果出力部1705は、正規化後のd次元の特徴ベクトルxは、特定カテゴリであり、制御装置は正常であると判定する。一方、非特定カテゴリ度が、閾値以下でない場合、識別結果出力部1705は、正規化後のd次元の特徴ベクトルxは、特定カテゴリではなく、制御装置に異常が発生していると判定する。識別結果出力部1705は、この判定の結果を外部に出力する。尚、図4のステップS405で説明したのと同様に、判定の結果の出力の形態は、特に限定されない。
以上の処理により、製造装置等の装置内に設置した複数のセンサで検出された情報(複数のセンサ情報)に基づき、その装置に異常が発生しているか否かを判定することが可能になる。特に、正常な状態におけるセンサ情報と比べて識別器に入力されたセンサ情報が大きく異なる場合だけでなく、パターン識別器の学習に用いた、何らかの異常が発生した時のセンサ情報に近い場合にも、異常が発生していると正しく判定を行える可能性が高くなる。
以上のように、識別器は、画像や動画像に対するパターン識別に限らず、センサ情報といったデータに対するパターン識別を行う識別器でもよい。そのため、装置の異常を検出する識別器であっても、学習に用いた特定カテゴリのデータと大きく異なるデータと、学習に用いた非特定カテゴリのデータに近いデータとを正しく識別することができる。また、本実施形態で示したように、パターン識別器の学習方法は、k近傍法をベースとしたような識別器の学習等、様々な識別器の学習方法を適用することが可能である。
尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
(その他の実施例)
本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。
100、600、800、1300、1500:識別器作成装置、300、1000、1700:識別器

Claims (12)

  1. 入力されたデータに対する特定のカテゴリらしさを表す値を、所定のパラメータに基づいて計算し、計算した結果に基づいて、前記入力されたデータが前記特定のカテゴリに属するデータであるか否かを識別する識別器を作成する識別器作成装置であって、
    前記特定のカテゴリに属することが既知のデータである複数の学習用特定カテゴリデータの分布からの距離が大きいデータの前記学習用特定カテゴリデータの分布に対する乖離度を大きくするとともに、前記特定のカテゴリに属さないことが既知のデータである少なくとも1つの学習用非特定カテゴリデータの前記学習用特定カテゴリデータの分布に対する乖離度を大きくするように、前記パラメータを決定する決定手段を有することを特徴とする識別器作成装置。
  2. 前記決定手段は、前記複数の学習用特定カテゴリデータの分布から乖離している前記学習用特定カテゴリデータであるほど、当該学習用特定カテゴリデータに対する前記特定のカテゴリらしさを表す値を、前記特定のカテゴリらしくないことを示す値にするとともに、前記学習用非特定カテゴリデータに対する前記特定のカテゴリらしさを表す値を、前記学習用特定カテゴリデータに対する前記特定のカテゴリらしさを表す値よりも前記特定のカテゴリらしくないことを示す値にする計算を行った結果に基づいて、前記パラメータを決定することを特徴とする請求項1に記載の識別器作成装置。
  3. 前記決定手段は、前記複数の学習用特定カテゴリデータの分布から乖離している前記学習用特定カテゴリデータであるほど、当該学習用特定カテゴリデータに対する前記特定のカテゴリらしさを表す値を、前記特定のカテゴリらしくないことを示す値にすることを計算する特定カテゴリ学習項と、前記学習用非特定カテゴリデータに対する前記特定のカテゴリらしさを表す値を、前記学習用特定カテゴリデータに対する前記特定のカテゴリらしさを表す値よりも前記特定のカテゴリらしくないことを示す値にすることを計算する非特定カテゴリ学習項と、を用いた計算の結果に基づいて、前記パラメータを決定することを特徴とする請求項1または2に記載の識別器作成装置。
  4. 前記特定カテゴリ学習項と前記非特定カテゴリ学習項の少なくとも1つは、前記特定のカテゴリらしさを表す値を計算するための、前記パラメータを含む計算式を含む項であり、
    前記決定手段は、前記特定カテゴリ学習項と前記非特定カテゴリ学習項とを含む目的関数であって、前記特定のカテゴリらしさを表す値を最大化または最小化することを目的とする目的関数の値を最大化または最小化する前記パラメータを決定することを特徴とする請求項3に記載の識別器作成装置。
  5. 前記決定手段は、前記パラメータを初期化する初期化手段と、
    前記複数の学習用特定カテゴリデータと、前記少なくとも1つの学習用非特定カテゴリデータとを用いて、前記初期化手段により初期化された前記パラメータを修正する修正手段と、をさらに有し、
    前記修正手段は、前記複数の学習用特定カテゴリデータの分布から乖離している前記学習用特定カテゴリデータであるほど、当該学習用特定カテゴリデータに対する前記特定のカテゴリらしさを表す値が、前記特定のカテゴリらしくないことを示す値になるとともに、前記学習用非特定カテゴリデータに対する前記特定のカテゴリらしさを表す値が、前記学習用特定カテゴリデータに対する前記特定のカテゴリらしさを表す値よりも前記特定のカテゴリらしくないことを示す値になるように、前記初期化手段により初期化された前記パラメータを修正することを特徴とする請求項1に記載の識別器作成装置。
  6. 前記特定のカテゴリらしさを表す値を計算するための、前記パラメータを含む計算式は、当該値を計算する対象となるデータと前記学習用特定カテゴリデータとの差を含む計算式であり、
    前記決定手段は、前記学習用非特定カテゴリデータと前記学習用特定カテゴリデータとの差に応じて、前記パラメータを決定することを特徴とする請求項1に記載の識別器作成装置。
  7. 前記学習用特定カテゴリデータが、前記複数の学習用特定カテゴリデータの分布から乖離するように、前記パラメータが変更されることによって、前記学習用非特定カテゴリデータが、前記複数の学習用特定カテゴリデータの分布から乖離することを特徴とする請求項1〜6の何れか1項に記載の識別器作成装置。
  8. 前記複数の学習用特定カテゴリデータを複数のセットに分割する分割手段と、
    前記複数のセットのうち少なくとも1つを除いたセットであるサブセットと、前記学習用非特定カテゴリデータと、前記パラメータを決定する際に使用されるハイパーパラメータの候補と、に基づいて、前記ハイパーパラメータを導出する導出手段と、をさらに有し、
    前記導出手段は、前記サブセットと、前記学習用非特定カテゴリデータと、前記ハイパーパラメータの候補とに基づいて、前記決定手段により前記パラメータを決定する方法と同じ方法を用いて、前記パラメータを決定し、決定した結果を、前記複数のセットのうち前記サブセットと異なるセットと、前記学習用非特定カテゴリデータとに基づいて評価し、評価した結果に基づいて、前記ハイパーパラメータを導出することを特徴とする請求項1〜7の何れか1項に記載の識別器作成装置。
  9. 請求項1〜8の何れか1項に記載の識別器作成装置により決定されたパラメータを用いて、入力されたデータに対する特定のカテゴリらしさを表す値を計算する計算手段と、
    前記計算手段により計算された値に基づいて、前記入力されたデータが前記特定のカテゴリに属するデータであるか否かを識別する識別手段と、を有することを特徴とする識別器。
  10. 入力されたデータに対する特定のカテゴリらしさを表す値を、所定のパラメータに基づいて計算し、計算した結果に基づいて、前記入力されたデータが前記特定のカテゴリに属するデータであるか否かを識別する識別器を作成する識別器作成装置による識別器作成方法であって、
    前記識別器作成装置が有する決定手段が、前記特定のカテゴリに属することが既知のデータである複数の学習用特定カテゴリデータの分布からの距離が大きいデータの前記学習用特定カテゴリデータの分布に対する乖離度を大きくするとともに、前記特定のカテゴリに属さないことが既知のデータである少なくとも1つの学習用非特定カテゴリデータの前記学習用特定カテゴリデータの分布に対する乖離度を大きくするように、前記パラメータを決定する決定工程を有することを特徴とする識別器作成方法。
  11. 請求項1〜8の何れか1項に記載の識別器作成装置の各手段としてコンピュータを機能させることを特徴とするプログラム。
  12. 前記識別器は、Support Vector Machineであることを特徴とする請求項1〜8の何れか1項に記載の識別器作成装置。
JP2015188365A 2015-09-25 2015-09-25 識別器作成装置、識別器作成方法、およびプログラム Active JP6708385B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015188365A JP6708385B2 (ja) 2015-09-25 2015-09-25 識別器作成装置、識別器作成方法、およびプログラム
US15/273,221 US11023822B2 (en) 2015-09-25 2016-09-22 Classifier generation apparatus for generating a classifier identifying whether input data is included in a specific category based on machine learning, classifier generation method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015188365A JP6708385B2 (ja) 2015-09-25 2015-09-25 識別器作成装置、識別器作成方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2017062713A JP2017062713A (ja) 2017-03-30
JP6708385B2 true JP6708385B2 (ja) 2020-06-10

Family

ID=58409656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015188365A Active JP6708385B2 (ja) 2015-09-25 2015-09-25 識別器作成装置、識別器作成方法、およびプログラム

Country Status (2)

Country Link
US (1) US11023822B2 (ja)
JP (1) JP6708385B2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10055882B2 (en) * 2016-08-15 2018-08-21 Aquifi, Inc. System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
US11182804B2 (en) 2016-11-17 2021-11-23 Adobe Inc. Segment valuation in a digital medium environment
US11132620B2 (en) * 2017-04-20 2021-09-28 Cisco Technology, Inc. Root cause discovery engine
CN107220710B (zh) * 2017-05-22 2020-05-19 陕西科技大学 稀缺样本数据集条件下bn模型参数的计算方法
JP6877245B2 (ja) * 2017-06-01 2021-05-26 株式会社東芝 情報処理装置、情報処理方法及びコンピュータプログラム
JP6840627B2 (ja) * 2017-06-15 2021-03-10 株式会社日立製作所 ハイパーパラメータの評価方法、計算機及びプログラム
US10592147B2 (en) * 2017-07-26 2020-03-17 International Business Machines Corporation Dataset relevance estimation in storage systems
EP3680639B1 (en) 2017-09-06 2023-11-15 Nippon Telegraph and Telephone Corporation Abnormality model learning device, method, and program
JP6881203B2 (ja) * 2017-10-03 2021-06-02 富士通株式会社 分類プログラム、分類方法、および分類装置
JP6886112B2 (ja) * 2017-10-04 2021-06-16 富士通株式会社 学習プログラム、学習装置及び学習方法
US10444442B2 (en) * 2017-11-03 2019-10-15 Senko Advanced Components, Inc. MPO optical fiber connector
CN108123487B (zh) * 2017-11-28 2019-10-18 广州供电局有限公司 分布式电源分类方法及系统
US11041993B2 (en) 2018-04-19 2021-06-22 Senko Advanced Components, Inc. Fiber optic adapter with removable insert for polarity change and removal tool for the same
US10921528B2 (en) 2018-06-07 2021-02-16 Senko Advanced Components, Inc. Dual spring multi-fiber optic connector
JP6989450B2 (ja) * 2018-06-21 2022-01-05 株式会社東芝 画像解析装置、画像解析方法及びプログラム
JP7028133B2 (ja) * 2018-10-23 2022-03-02 オムロン株式会社 制御システムおよび制御方法
WO2020223963A1 (en) * 2019-05-09 2020-11-12 Boe Technology Group Co., Ltd. Computer-implemented method of detecting foreign object on background object in image, apparatus for detecting foreign object on background object in image, and computer-program product
US11353664B1 (en) 2019-08-21 2022-06-07 Senko Advanced Components, Inc. Fiber optic connector
JP7293988B2 (ja) 2019-08-27 2023-06-20 富士通株式会社 学習プログラム、判定処理プログラム、学習装置、判定処理装置、学習方法および判定処理方法
JP6765555B1 (ja) * 2019-09-06 2020-10-07 三菱電機株式会社 学習装置、学習方法、学習データ生成装置、学習データ生成方法、推論装置、及び、推論方法
CN114521268A (zh) * 2019-10-07 2022-05-20 松下知识产权经营株式会社 分类系统、分类方法以及程序
WO2021097304A1 (en) 2019-11-13 2021-05-20 Senko Advanced Components, Inc. Fiber optic connector
TWI807536B (zh) * 2021-12-15 2023-07-01 國立高雄師範大學 檢測系統與其參數設定方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5666157A (en) * 1995-01-03 1997-09-09 Arc Incorporated Abnormality detection and surveillance system
JP2002358523A (ja) * 2001-05-31 2002-12-13 Canon Inc パターン認識処理装置及びその方法、画像入力装置
JP4368767B2 (ja) 2004-09-08 2009-11-18 独立行政法人産業技術総合研究所 異常動作検出装置および異常動作検出方法
JP5050607B2 (ja) * 2006-05-09 2012-10-17 オムロン株式会社 検査装置、検査方法、検査プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体
JP4757116B2 (ja) * 2006-06-30 2011-08-24 キヤノン株式会社 パラメータ学習方法及びその装置、パターン識別方法及びその装置、プログラム
JP4369961B2 (ja) 2007-03-23 2009-11-25 株式会社日立製作所 異常検知装置及び異常検知プログラム
JP5335536B2 (ja) * 2009-04-23 2013-11-06 キヤノン株式会社 情報処理装置及び情報処理方法
JP5675214B2 (ja) * 2010-08-18 2015-02-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP5706647B2 (ja) * 2010-09-03 2015-04-22 キヤノン株式会社 情報処理装置、およびその処理方法
JP6097517B2 (ja) * 2012-10-16 2017-03-15 三菱航空機株式会社 状態診断方法、および、状態診断装置

Also Published As

Publication number Publication date
US11023822B2 (en) 2021-06-01
US20170091671A1 (en) 2017-03-30
JP2017062713A (ja) 2017-03-30

Similar Documents

Publication Publication Date Title
JP6708385B2 (ja) 識別器作成装置、識別器作成方法、およびプログラム
US10896351B2 (en) Active machine learning for training an event classification
US10395136B2 (en) Image processing apparatus, image processing method, and recording medium
JP6781415B2 (ja) ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置
JP7058941B2 (ja) 辞書生成装置、辞書生成方法、及びプログラム
JP7007829B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6277818B2 (ja) 機械学習装置、機械学習方法、及びプログラム
JP5214760B2 (ja) 学習装置、方法及びプログラム
Abdelzad et al. Detecting out-of-distribution inputs in deep neural networks using an early-layer output
KR20160096460A (ko) 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
JP2006172437A (ja) データのストリームにおけるセグメント境界の位置の決定方法、データサブセットを近隣のデータサブセットと比較してセグメント境界を決定する方法、コンピュータによって実行可能な命令のプログラム、ならびにデータのストリームにおける境界及び非境界を識別するシステム又は装置
JP2008009893A (ja) パラメータ学習方法及びその装置、パターン識別方法及びその装置、プログラム
JP2018026122A5 (ja)
JP2017102906A (ja) 情報処理装置、情報処理方法及びプログラム
JP2011154501A (ja) 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム
Vengatesan et al. Face recognition of identical twins based on support vector machine classifier
Al Zorgani et al. Comparative study of image classification using machine learning algorithms
Silva et al. Online weighted one-class ensemble for feature selection in background/foreground separation
US10580127B2 (en) Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and storage medium
JP6988995B2 (ja) 画像生成装置、画像生成方法および画像生成プログラム
JP2011154500A (ja) 学習装置、学習方法、識別装置、識別方法、及びプログラム
CN113486902A (zh) 基于元学习的三维点云分类算法自动选择方法
CN112861881A (zh) 一种基于改进MobileNet模型的蜂窝肺识别方法
CN112597997A (zh) 感兴趣区域确定方法、图像内容识别方法及装置
US20230260259A1 (en) Method and device for training a neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200521

R151 Written notification of patent or utility model registration

Ref document number: 6708385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151