JP2017224156A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2017224156A
JP2017224156A JP2016119128A JP2016119128A JP2017224156A JP 2017224156 A JP2017224156 A JP 2017224156A JP 2016119128 A JP2016119128 A JP 2016119128A JP 2016119128 A JP2016119128 A JP 2016119128A JP 2017224156 A JP2017224156 A JP 2017224156A
Authority
JP
Japan
Prior art keywords
learning data
task
data
original
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016119128A
Other languages
English (en)
Other versions
JP6884517B2 (ja
JP2017224156A5 (ja
Inventor
裕輔 御手洗
Hirosuke Mitarai
裕輔 御手洗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016119128A priority Critical patent/JP6884517B2/ja
Priority to EP17000986.4A priority patent/EP3258425B1/en
Priority to US15/618,677 priority patent/US11544628B2/en
Priority to CN201710451308.1A priority patent/CN107527063B/zh
Publication of JP2017224156A publication Critical patent/JP2017224156A/ja
Publication of JP2017224156A5 publication Critical patent/JP2017224156A5/ja
Application granted granted Critical
Publication of JP6884517B2 publication Critical patent/JP6884517B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】転移学習を用いて、より高精度に識別可能な識別器を生成できるようにすることを目的とする。
【解決手段】目標とするタスクである第1のタスクの第1のカテゴリに属する複数の学習データである目標タスク学習データに係る第1の分布と、第1のタスクとは異なる第2のタスクの第1のカテゴリに属する学習データである元タスク学習データの第1のカテゴリに属する複数の学習データに係る第2の分布と、の差異に基づいて、元タスク学習データを変換するための変換パラメータを調整し、調整された変換パラメータに基づいて、元タスク学習データを変換し、変換された元タスク学習データと、目標タスク学習データとに基づいて、第1のタスクに係る識別器を生成する。
【選択図】図3

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
入力パターンが特定のカテゴリのパターンであるか否かといった識別を行う方法として、様々な方法が提案されている。このような方法は、例えば、多数のデータ内から、特定のカテゴリであるパターン(特定カテゴリパターン)を検出したり、逆に、特定のカテゴリとは異なるパターン(非特定カテゴリパターン)を検出したりするような用途に用いることができる。
特定のカテゴリのパターンであるか否かを識別する方法としては、Support Vector Machine(SVM)等の2クラス識別器を用いる方法がある。これは、多数の特定カテゴリパターン、及び、多数の非特定カテゴリパターンを用いて、特定カテゴリパターンと、非特定カテゴリパターンとを分離する識別器を生成し、その識別器を用いてパターンを識別する方法である。
しかしながら、状況によってはどちらか一方のカテゴリパターンのデータ量が不足することがある。例えば、識別器の生成に用いる非特定カテゴリパターンが少ないと、識別器の生成に用いていない非特定カテゴリパターンを、特定のカテゴリであると誤判定しやすいように識別器が生成されてしまう場合がある。そこで、識別器の生成において、ターゲットであるタスクについての学習データを学習に適正な量だけ確保することが難しい場合等に、他のタスクについての学習データを利用する転移学習という技術がある。
例えば、特許文献1に記載の方法のように、十分な量の学習データが存在するタスクAの学習データを変換して、それを、学習データが不十分な状況でパターンを学習したいタスクBにおける学習データに追加する方法が提案されている。他のタスクからデータを追加して学習を行うことにより、学習データが不十分な状況でも学習することができる。この手法は、転移学習の手法の一例である。タスクBのそれぞれの学習データに対応するタスクAの学習データを用い、タスクAからタスクBへの変換規則を求めて、その変換規則により、その他のタスクAの学習データを変換して、タスクBの学習データに追加、即ち、転移する。これにより、量が不十分であるタスクBの学習データを用いたパターンの学習においても、擬似的にデータを増やして学習を行うことができるようになる。
また、非特許文献1では、異なるタスク間で、同じカテゴリに属する学習データはより近く、異なるカテゴリに属する学習データはより遠くに写像されるような相互の変換規則を求める。そして、他のタスクの学習データをその変換規則により変換し、目標としているタスクの学習データに転移して学習を行う方法が提案されている。これも、特許文献1の手法と同様に、目標としているタスクのデータを用いた学習において、そのタスクのデータが少ない場合でも、他のタスクからパターンを変換して追加することで、擬似的にデータを増やした状態での学習が可能となる。
このように、入力パターンが特定のカテゴリのパターンであるか否かを識別することを目的とした識別器の生成方法において、以下の処理ができる。即ち、学習に用いることができる学習データの量が不十分な場合でも、他のタスクの学習データを用いて、擬似的に多くの学習データを用いて処理を行うことができる。
特許第3003353号公報 特開2006−079272号公報 特許第5414416号公報
Kulis、B.and T.Darrell、"What You Saw is Not What You Get:Domain Adaptation Using Asymmetric Kernel Transforms"、IEEE Conference on Computer Vision and Pattern Recognition、pp.1785−1792、2011 Dalal、N.、B.Triggs and C.Schmid、"Human Detection using Oriented Histograms of Flow and Appearance"、IEEE European Conference on Computer Vision、Vol.2、pp.428−441、2006 Sugiyama,M.,T.Kanamori,T.Suzuki,M.C.du Plessis,S.Liu and I.Takeuchi,"Density−Difference Estimation",Neural Computation,Vol.25,No.10,pp.2734−2775,2013 Yamada,M.,T.Suzuki,T.Kanamori,H.Hachiya and M.Sugiyama,"Relative Density−Ratio Estimation for Robust Distribution Comparison",Advances in Neural Information Processing Systems 24,pp.594−602,2011
特許文献1や非特許文献1等の従来技術では、異なるタスク間で対応する、それぞれの学習データに含まれる、ある特定のデータに基づいて、タスク間の学習データの変換規則が求められる。そのため、求められた変換規則は、利用された特定のデータに依存する変換規則となってしまう。したがって、利用されたデータによっては変換規則が不十分なものとなり、適切な学習データが得られない可能性がある。
そこで本発明は、転移学習を用いて、より高精度に識別可能な識別器を生成できるようにすることを目的とする。
本発明の情報処理装置は、目標とするタスクである第1のタスクにおいて、第1のカテゴリに属する複数の学習データを、目標タスク学習データとして、取得する第1の取得手段と、前記第1のタスクとは異なる第2のタスクにおいて、前記第1のカテゴリに属する学習データと前記第1のカテゴリとは異なる第2のカテゴリに属する学習データとを含む複数の学習データを、元タスク学習データとして、取得する第2の取得手段と、前記目標タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第1の分布と、前記元タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第2の分布との差異に基づいて、前記元タスク学習データを変換するための変換パラメータを調整する調整手段と、前記調整手段により調整された前記変換パラメータに基づいて、前記元タスク学習データを変換する変換手段と、前記変換手段によって変換された元タスク学習データと、前記目標タスク学習データとに基づいて、前記第1のタスクに係る識別器を生成する生成手段と、を有する。
本発明によれば、転移学習を用いて、より高精度に識別可能な識別器を生成することができる。
情報処理装置のハードウェア構成等の一例を示す図である。 情報処理装置の機能構成等の一例を示す図である。 識別器学習処理の一例を示すフローチャートである。 情報処理装置の機能構成等の一例を示す図である。 パターン識別処理の一例を示すフローチャートである。 処理対象となるパターンの一例を示す図である。 情報処理装置の機能構成等の一例を示す図である。 特徴選択処理の一例を示すフローチャートである。 情報処理装置の機能構成等の一例を示す図である。 パターン識別処理の一例を示すフローチャートである。 情報処理装置の機能構成等の一例を示す図である。 識別器学習処理の一例を示すフローチャートである。 領域抽出エリアの一例を示す図である。
以下、図面を参照しながら、本発明の実施形態を説明する。
<実施形態1>
本実施形態では、情報処理装置10がカメラ16により撮影された画像に基づいて、カメラ16の監視対象であるエリア内の異常を検出する識別器を生成する方法について説明する。以下では、異常が発生していない状況、つまり、正常な状況を示すカテゴリを、特定カテゴリ(第1のカテゴリ)とし、何らかの異常が発生している状況を示すカテゴリを、非特定カテゴリ(第2のカテゴリ)とする。また、以下では、特定カテゴリのデータ、つまり、正常な状況で監視カメラにより撮影された画像を正常データ、非特定カテゴリのデータ、つまり、何らかの異常が発生している状況で監視カメラにより撮影された画像を異常データとする。
まず、本実施形態の処理の概要について説明する。図1に示すように、情報処理装置10は、予め、カメラ16から監視エリアの撮影画像のデータである目標タスクにおける学習データ(目標タスク学習データ)を取得している。学習データとは、識別器の生成に利用されるデータであり、本実施形態の場合、監視エリアの撮影画像のデータや撮影画像のデータから抽出された特徴量のデータ等である。また、情報処理装置10は、カメラ16又はその他の監視カメラから、少なくとも1つの、監視エリアと類似したその他のエリアの撮影画像のデータである元タスクにおける学習データ(元タスク学習データ)を取得しているとする。本実施形態では、目標タスクは、監視エリアの異常事態を検出するタスクであり、元タスクは、監視エリアに類似するエリアの異常事態を検出するタスクである。目標タスクは、第1のタスクの一例であり、元タスクは、第2のタスクの一例である。本実施形態の処理は、情報処理装置10が入力されたデータが正常であるか否かを判定する識別器を、目標タスク学習データと、元タスク学習データとを用いて生成する処理である。ここで、目標タスク学習データに含まれる正常データの量は、学習に十分な量である。しかし、目標タスク学習データに含まれる異常データの量は、目標タスク学習データに含まれる正常データの量に比べて非常に少ない、又は、0であるとする。
識別器の生成に用いられる非特定カテゴリの学習データが適正な量よりも少ないと、識別器の生成に用いられていない非特定カテゴリのパターンを、特定のカテゴリであると誤判定しやすい識別器が生成されてしまう場合がある。例えば、監視カメラにより撮影された画像に基づいて、異常な事態を検出するような用途において、識別器の生成に用いる異常な事態を示す学習データの数が少ないほど、このような状況が発生してしまう可能性が高くなる。つまり、学習に用いられた学習データに対応する事態以外の異常な事態を、正常な事態と判定してしまう識別器が生成されてしまう場合がある。このような状況の発生を抑えるためには、異常な事態を示すパターンを適正な量だけ用意して識別器を生成すればよいが、異常な事態は、発生頻度が正常な事態に比べて非常に低いため、そのようなパターンを適正な量だけ用意するのは困難であるという問題がある。
一方、元タスク学習データに含まれる正常データの量は、目標タスク学習データと同様に学習に十分な量であり、元タスク学習データに含まれる異常データの量は、目標タスク学習データに比べて、多いものとする。また、監視エリアに類似したエリアとは、例えば、目標タスク学習データが、ある駅構内の監視エリアを撮影したものである場合、その他の駅構内の監視エリア等のように状況が類似したエリアである。このようなエリアで撮影されたデータが、元タスク学習データとして利用されることになる。このように、本実施形態では、目標タスク学習データと、元タスク学習データと、の2つの学習データを用いて識別器を生成する例について説明するが、何れの学習データにおいても、正常データについては十分な量が存在する。そして、情報処理装置10は、特定カテゴリの学習データの分布の差異に基づいて、データの変換規則を求める。情報処理装置10は、求めた変換規則に基づき、元タスク学習データの非特定カテゴリに属する学習データを変換して、目標タスクの非特定カテゴリに属する学習データとして利用する。目標タスクの特定カテゴリに属する学習データの分布は、第1の分布の一例であり、元タスクの特定カテゴリに属する学習データの分布は、第2の分布の一例である。情報処理装置10は、特定のデータに依らない変換規則で学習データを変換することで、変換後の学習データが不適切なものとなる可能性を低減できる。
また、本実施形態では、情報処理装置10は、元タスクの学習データの異常データを変換して目標タスクの学習データに追加する。これにより、情報処理装置10は、目標タスクの学習データには存在しないが、元タスクの学習データには存在するようなタイプの異常データを、擬似的に目標タスクの学習データとして追加することができる。そのため、情報処理装置10は、目標タスクの学習データには存在しなかったタイプの異常データに対しても、正しく異常であると判定できる識別器を生成できる可能性を高めることができる。
図1は、情報処理装置10のハードウェア構成等の一例を示すブロック図である。情報処理装置10は、CPU11、主記憶装置12、補助記憶装置13、入出力I/F14を含む。CPU11、主記憶装置12、補助記憶装置13、入出力I/F14は、システムバス15を介して、相互に接続されており、相互に情報のやり取りを行う。
CPU11は、情報処理装置10の処理を制御する中央演算装置である。主記憶装置12は、CPU11のワークエリアやデータの一時保存領域として利用される記憶装置である。補助記憶装置13は、各種プログラムや各種設定データ、識別器の生成に用いられる学習データ等を記憶する記憶装置である。入出力I/F14は、カメラ16等の外部の装置との間での情報の入出力に利用されるインターフェースである。本実施形態のカメラ16は、設定された監視エリアを撮影し、撮影した画像のデータを、情報処理装置10に送信する監視カメラである。
CPU11が、補助記憶装置13等に記憶されたプログラムに基づき処理を実行することによって、図2、4、6、9、11で後述する情報処理装置10の機能、及び図3、5、7、10、12で後述するフローチャートの処理が実現される。
図2は、本実施形態の情報処理装置10における識別器を生成するための機能構成等の一例を示すブロック図である。また、図3は、識別器学習処理の一例を示すフローチャートである。以下、図2、及び、図3を用いて、本実施形態の識別器生成方法について説明する。
情報処理装置10は、目標タスク学習データ入力部20、元タスク学習データ入力部21、目標タスク学習データ保持部20DB、元タスク学習データ保持部21DB、特徴抽出部22を含む。また、情報処理装置10は、目標タスク学習パターン保持部22−0DB、元タスク学習パターン保持部22−1DB、変換規則算出部23、変換処理部24、識別器生成部25、識別器データ出力部26を含む。
目標タスク学習データ入力部20は、カメラ16、補助記憶装置13等から目標タスクの学習データを取得する。元タスク学習データ入力部21は、補助記憶装置13等から予め記憶されている元タスクの学習データを取得する。
目標タスク学習データ保持部20DBは、目標タスク学習データ入力部20により取得された学習データを保持するデータベースであり、補助記憶装置13に実装される。元タスク学習データ保持部21DBは、元タスク学習データ入力部21により取得された学習データを保持するデータベースであり、補助記憶装置13に実装される。
特徴抽出部22は、目標タスク学習データ保持部20DB、元タスク学習データ保持部21DBに保持されている学習データから特徴抽出を行う。目標タスク学習パターン保持部22−0DBは、目標タスク学習データ保持部20DBに保持されている学習データから特徴抽出部22により抽出された特徴ベクトルのデータを保持するデータベースであり、補助記憶装置13に実装される。元タスク学習パターン保持部22−1DBは、元タスク学習データ保持部21DBに保持されている学習データから特徴抽出部22により抽出された特徴量のデータを保持するデータベースであり、補助記憶装置13に実装される。
変換規則算出部23は、目標タスク学習パターン保持部22−0DB、元タスク学習パターン保持部22−1DBに保持される特徴量のデータに基づいて、元タスクの学習データの特徴量を、目標タスクの学習データの特徴量に変換するための変換規則を算出する。
変換処理部24は、元タスク学習パターン保持部22−1DBに保持される特徴量のデータを、変換規則算出部23により算出された変換規則に基づいて、目標タスクの学習データの特徴量に変換する。
識別器生成部25は、目標タスク学習パターン保持部22−0DBに保持されている特徴量のデータと、変換処理部24により変換された特徴量のデータと、に基づいて、識別器を生成する。
識別器データ出力部26は、識別器生成部25により生成された識別器のデータを出力する。例えば、識別器データ出力部26は、識別器のデータを、補助記憶装置13に記録することにより出力する。
次に、識別器を生成する具体的な処理手順について図3を参照しながら説明する。
S30において、目標タスク学習データ入力部20は、監視エリアにおける異常を検出するための識別器の生成に用いられる学習データとして、監視エリアの撮影画像のデータを、カメラ16から取得する。また、目標タスク学習データ入力部20は、補助記憶装置13に予め記憶されている監視エリアの撮影画像のデータを、補助記憶装置13から取得することとしてもよい。本実施形態では、目標タスク学習データ入力部20は、学習データとして、Nt個の正常データと、Mt個の異常データとを取得する。そして、目標タスク学習データ入力部20は、取得した学習データを、目標タスク学習データ保持部20DBに記録する。
S31において、元タスク学習データ入力部21は、補助記憶装置13に予め記憶されている監視エリアに類似するエリアの撮影画像のデータを、補助記憶装置13から取得する。このとき、元タスク学習データ入力部21は、Ns個の正常データと、Ms個の異常データとを、それぞれ元タスクの学習データとして取得する。また、元タスク学習データ入力部21は、監視エリアに類似したエリアの撮影画像を、元タスクの学習データとして、カメラ16やその他の監視カメラから取得することとしてもよい。元タスク学習データ入力部21は、取得した元タスクの学習データを、元タスク学習データ保持部21DBに記録する。
S32において、特徴抽出部22は、S30、及び、S31において取得されたそれぞれのデータに対して特徴抽出を行う。本実施形態では、S30、S31で取得されたデータが画像であるため、特徴抽出部22は、画像を対象とした特徴抽出として、特許文献2に記載の立体高次局所自己相関特徴(CHLAC)の抽出を行う。これにより、特徴抽出部22は、1つのデータに対して、251次元の特徴ベクトルを抽出する。
特徴抽出部22は、S30で取得されたデータから抽出した特徴ベクトルを、目標タスク学習パターン保持部220DBに記録する。また、特徴抽出部22は、S31で取得されたデータから抽出した特徴ベクトルを、元タスク学習パターン保持部221DBに記録する。以下では、目標タスク学習パターン保持部220DBに記録された、目標タスクの学習データの正常データから抽出された特徴ベクトルを目標正常パターンとする。また、以下では、目標タスク学習パターン保持部220DBに記録された、目標タスクの学習データの異常データから抽出された特徴ベクトルを目標異常パターンとする。また、元タスク学習パターン保持部221DBに記録された、元タスクの学習データの正常データから抽出された特徴ベクトルを元正常パターンとする。また、元タスク学習パターン保持部221DBに記録された、元タスクの学習データの異常データから抽出された特徴ベクトルを元異常パターンとする。
したがって、本実施形態では、目標正常パターンとしてNt個の251次元ベクトルと、目標異常パターンとしてMt個の251次元ベクトルとが、目標タスク学習パターン保持部220DBに記録される。そして、元正常パターンとしてNs個の251次元ベクトルと、元異常パターンとしてMs個の251次元ベクトルとが、元タスク学習パターン保持部221DBに記録されることになる。本実施形態では、特徴抽出部22は、S32で、特徴量としてCHLACの抽出を行うこととしたが、他の特徴量を抽出してもよい。例えば、特徴抽出部22は、非特許文献2に記載の、Motion Boundary Histogram(MBH)特徴量等を抽出しても構わない。
S33において、変換規則算出部23は、S32で抽出された特徴量に基づいて、元タスクの学習データの特徴量を目標タスクの学習データの特徴量に変換するための変換規則を求める処理を行う。変換規則算出部23は、目標タスク学習パターン保持部22−0DBに記録されている複数の目標正常パターン、及び、元タスク学習パターン保持部22−1DBに記録されている複数の元正常パターンを用いて、処理を行う。本実施形態では、変換規則算出部23は、元タスクの学習データの特徴量を目標タスクの学習データの特徴量に、線形変換を用いて変換するためのパラメータを算出する。即ち、元正常パターン、又は元異常パターンをベクトルzとすると、ベクトルzを、目標正常パターンや目標異常パターンと同様の251次元のベクトルに変換することになる。変換後のベクトルをベクトルx'とした場合、ベクトルx'の次元である251次の正方行列A、及び、251次元のバイアスベクトルbを用いて、変換処理部24は、x'=ATz+bと変換することになる。ここで、上付きTは行列の転置である。S33では、変換規則算出部23は、変換に用いられる変換パラメータである、行列Aの各成分、及び、バイアスベクトルbの各要素の値を求めることになる。
本実施形態では、変換規則算出部23は、行列Aの各成分とバイアスベクトルbとの各要素の値を、目標正常パターンの分布と線形変換により変換された後の元正常パターンの分布との差異を最も小さくするようにすることで求める。より具体的には、変換規則算出部23は、目標正常パターンの分布と、変換された後の元正常パターンの分布との間のL2距離の推定値を最小化するような、行列Aの各成分、及びバイアスベクトルbの各要素の値を求める。つまり、それぞれのデータの密度分布の差異が最小化するように、線形変換の変換パラメータを求めることになる。本実施形態では、変換規則算出部23は、目標正常パターンの分布と、変換された後の元正常パターンの分布との間のL2距離の推定値を、非特許文献3に記載の推定方法により求める。また、変換規則算出部23は、目標正常パターンの分布と、変換された後の元正常パターンの分布との間のL2距離の推定値が設定された閾値よりも小さくなるような任意の値で、行列Aの各成分、及びバイアスベクトルbの各要素の値を求めることとしてもよい。
目標正常パターンの分布をχ、行列A、及び、バイアスベクトルbによる変換された後の元正常パターンの分布をχ'とした時、L2距離の推定値LII(χ,χ')は、以下の式1により求められる。
Figure 2017224156
式1中のh、及び、θは、それぞれ(Nt+Ns)次元のベクトルでる。また、Hは、Nt+Ns次の正方行列である。h、H、θは、それぞれ、以下の式2〜式4で表される。
Figure 2017224156
Figure 2017224156
Figure 2017224156
は、i番目の目標正常パターン、xj'は、j番目の元正常パターンである。また
、ckは、k≦Ntの場合、ck=xkとなり、k>Ntの場合、ck=xk−Nt'となる値である。そして、σは、ガウス基底関数のパラメータで、λは、正則化パラメータ、Iは、(Nt+Ns)次の単位行列である。
本実施形態では、変換規則算出部23は、行列Aとバイアスベクトルbとの各要素に適当な初期値を設定(例えば、擬似乱数等に基づいて求まる値を設定)する。そして、変換規則算出部23は、式1に示したL2距離の推定値を表す式を行列Aやバイアスベクトルbに対応するパラメータで微分した式に基づいて、行列Aやバイアスベクトルbに対応するパラメータを更新していく。即ち、変換規則算出部23は、勾配法により、行列Aとバイアスベクトルbとを求める。式1で求まるL2距離の推定値を、変換のパラメータである行列Aの成分aで微分した式は、以下の式5のように表される。
Figure 2017224156
式5を用いることにより、行列Aのr行c列の成分arcの更新後の値は、以下の式6のようになる。
Figure 2017224156
同様に、バイアスベクトルbのc番目の要素bcの更新後の値は、以下の式7のようになる。
Figure 2017224156
ここで、ηは、学習係数である。ηの値は、一定の値でもよいし、行列A及びバイアスベクトルbの更新の都度、徐々に小さくするようにしてもよい。例えば、変換規則算出部23は、行列A及びバイアスベクトルbの更新を1回行う度に、ηの値をη=0.9×ηの値に更新することとしてもよい。
変換規則算出部23は、行列A及びバイアスベクトルbの更新を、L2距離の推定値の減少量、及び、学習係数ηが、共に設定された閾値(例えば10-6等)よりも小さくなるまで繰り返し実行する。これにより、変換規則算出部23は、変換のための変換パラメータである行列A、及び、バイアスベクトルbの値を調整する。変換規則算出部23により求められた変換のためのパラメータ(本実施形態では、行列A及びバイアスベクトルb)を、変換パラメータ23dとする。
以上のように、本実施形態では、変換規則算出部23は、目標タスク学習データの特定カテゴリデータの分布と、変換後の元タスク学習データの特定カテゴリデータの分布と、の差異に基づいて変換規則を求める。
S33における勾配法は、L2距離の局所最小化であるため、最終的な結果は、変換パラメータの初期値に依存する。そのため、予め設定されている行列A及びバイアスベクトルbの複数(例えば3つ、4つ)の初期値について、変換規則算出部23は、これらの初期値毎にS33の処理を行い、以下の処理を行うこととしてもよい。即ち、変換規則算出部23は、これらの初期値毎に実行した処理の結果、最終的なL2距離の推定値が、最も小さかった場合の変換パラメータを採用することとしてもよい。また、変換規則算出部23は、ガウス基底関数のパラメータσ、及び、正則化パラメータλに関しては、交差検定により、検定データに対するL2距離の推定値の平均値が、最も小さくなるようなパラメータを設定すればよい。S33の処理は、変換パラメータの値を調整する調整処理の一例である。
S34において、変換処理部24は、S33で求められた変換規則を用い、S32で抽出されたMs個の元異常パターンを変換する処理を行う。本実施形態においては、変換処理部24は、S33で求められた行列A、及び、バイアスベクトルbを用いた線形変換を行うことになる。S34で変換された元異常パターンは、識別器生成部25による識別器の生成処理に用いられる。本実施形態では、情報処理装置10は、元異常パターンのみを変換するが、元正常パターンも変換して識別器の生成に用いてもよい。
S35において、識別器生成部25は、目標タスクパターン保持部32−0DBから、Nt個の目標正常パターン、Mt個の目標異常パターンを取得する。そして、識別器生成部25は、取得したNt個の目標正常パターン及びMt個の目標異常パターンと、S34で変換されたMs個の元異常パターンと、を用いて、識別器の生成を行う。本実施形態では、識別器生成部25は、S35で、識別器としてガウスカーネルを用いた非線形SVMの学習を行う。つまり、識別器生成部25は、目標正常パターンを正例パターンとし、目標異常パターン、及び、変換された元異常パターンを負例パターンとした2クラス識別器の生成を行う。識別器生成部25は、S34で元正常パターンも変換した場合、変換した元正常パターンは、正例パターンとして学習に用いればよい。
本実施形態では、識別器生成部25は、S35で識別器としてSVMの学習を行うが、例えば、ロジスティック回帰等、その他の識別器の生成を行うこととしてもよい。また、識別器生成部25は、例えばAdaBoostのような、各パターンに対して重みを設定して学習を行える識別器の生成を行う場合、変換した元異常パターンのようなデータの初期の重みを目標異常パターンの重みよりも小さくして学習してもよい。この場合、識別器生成部25は、S33で求められた、最終的なL2距離の推定値が大きいほど、この重みを小さくするように設定すると好適である。
S36において、識別器データ出力部26は、S35での学習処理の結果を外部に出力して、図3の処理を終了する。例えば、識別器データ出力部26は、S35で生成された識別器のデータを、補助記憶装置13等に記憶することで、出力する。本実施形態では、識別器データ出力部26は、識別器としてSVMの学習が行われるので、複数のサポートベクターと、それぞれに対応する係数、及び、閾値の情報を出力することになる。
以上のように、本実施形態では、情報処理装置10は、まず、目標タスクの特定カテゴリデータの分布と、変換後の元タスクの特定カテゴリデータの分布との差異に基づいて変換規則を求める。より具体的には、情報処理装置10は、各密度分布の差異が局所最小化するように変換規則を求める。これにより、特定のデータに依存せずにタスク間の違いを吸収するような変換規則を求めることができるようになる。そして、情報処理装置10は、その変換規則を用いて元タスクのデータを変換することで、変換したデータを目標タスクにおける学習用データとして利用することができる。
上記のように、この変換規則は、特定のデータに依存せずタスク間の違いを吸収するような変換規則である。そのため、例えば、この変換規則を用いて元タスクの異常データを変換することにより、変換した異常データは、目標タスクの異常データとして利用できる可能性が高くなる。即ち、情報処理装置10は、変換後の学習データが不適切となる可能性を低減できることになる。そのため、情報処理装置10は、学習に用いることができるデータが少ない場合でも、このように他のタスクのデータを変換して用いることにより、擬似的に多くのデータを用いて処理を行うことができる。そのため、本実施形態の処理により生成された識別器は、少ない学習データのみを用いた場合と比較して、例えば、目標タスク学習データには存在しないが、元タスク学習データには存在するようなタイプの異常データを検出できる可能性が高くなる。即ち、情報処理装置10は、識別器の識別精度をより向上させることができる。
本実施形態では、情報処理装置10は、1つの元タスク学習データのみを利用したが、複数の元タスク学習データを利用することもできる。より具体的には、情報処理装置10は、各元タスク学習データについて、S31〜S33の処理を行い、それぞれに対応した変換規則を求める。そして、情報処理装置10は、各元タスクに対応した変換規則により、元タスク学習データを変換して、変換したデータを識別器の生成に用いるようにすればよい。また、本実施形態では、目標タスク学習データに異常データが含まれる場合について説明したが、目標タスク学習データに異常データが含まれないこととしてもよい。その場合、情報処理装置10は、元タスクの異常データを変換したデータを、疑似的に、目標タスクの異常データとして、識別器の生成を行う。
次に、図3の処理により生成された識別器を用い、監視カメラの画像に基づいて、監視エリア内の異常を検出するパターン識別処理について説明する。
図4は、情報処理装置10におけるパターンの識別を行うための機能構成の一例を示すブロック図である。図5は、パターン識別処理の一例を示すフローチャートである。以下、図4、及び、図5を用いて、本実施形態のパターン識別処理について説明する。
情報処理装置10は、識別器データ入力部40、データ入力部41、特徴抽出部42、特定カテゴリ度算出部43、及び識別結果出力部44を含む。
識別器データ入力部40は、図3の処理により出力された識別器のデータを取得する。データ入力部41は、カメラ16から撮影エリアの撮影画像のデータを取得する。特徴抽出部42は、データ入力部41により取得されたデータから特徴量を抽出する。特定カテゴリ度算出部53は、特徴抽出部42により抽出された特徴量に基づいて、データ入力部41により取得されたデータの特定カテゴリらしさを示す特定カテゴリ度を算出する。識別結果出力部54は、特定カテゴリ度算出部53により算出された特定カテゴリ度に基づいて、データ入力部41により取得されたデータが特定カテゴリに属するか否かを判定し、判定結果を出力する。
次に、識別器を用いてパターンを識別する具体的な処理手順について図5を参照しながら説明する。
S50において、識別器データ入力部40は、図3の処理で生成された識別器のデータを、補助記憶装置13等から取得する処理を行う。本実施形態では、識別器データ入力部40は、SVMのサポートベクターと、それぞれに対応する係数、及び、閾値の情報を取得する。S50で取得された識別器データは、特定カテゴリ度算出部43により用いられるため、識別器データ入力部40は、取得した識別器のデータを、特定カテゴリ度算出部43に送信する。また、識別器の入力データが特定カテゴリか非特定カテゴリかの判定に利用される閾値の情報は、識別結果出力部44により用いられる。そのため、識別器データ入力部40は、このデータを、識別結果出力部44に送信する。
S51において、データ入力部411は、カメラ16から、異常が存在するか否かの判定を行う対象である監視エリアの撮影画像のデータを取得する処理を行う。
S52において、特徴抽出部42は、S51で取得した撮影画像のデータに対し、S32の処理と同様にCHLACの抽出を行う。特徴抽出部42は、S52の処理により、S51で取得された画像データに対する特徴抽出を行い、251次元の特徴ベクトルを得ることになる。
S53において、特定カテゴリ度算出部43は、S50で取得された識別器のデータ、及び、S52で抽出された特徴ベクトルを用い、以下の式8により特定カテゴリ度の算出を行う。
Figure 2017224156
式8で、xは、S52において抽出した251次元の特徴ベクトルである。また、x(sv)iは、全部でNSV個のサポートベクターの内のi番目のサポートベクターで、これも2
51次元のベクトルである。α(SV)iは、i番目のサポートベクターに対応する係数で、
k(x、x')は、SVMの学習時に用いたカーネル関数(例えばガウスカーネル等)である。S53で求める特定カテゴリ度は、本実施形態では、正常らしさを表した尺度となる。
S54において、識別結果出力部44は、S53で算出された特定カテゴリ度と、S50で取得された識別器の閾値と、を比較する。そして、識別結果出力部44は、特定カテゴリ度が閾値より大きい場合、S51で取得された画像内において、異常な事態は発生していないと判定する。識別結果出力部44は、特定カテゴリ度が閾値以下である場合、S51で取得された画像内で、異常な事態が発生していると判定する。そして、識別結果出力部44は、S54での判定処理の結果を出力する処理を行う。例えば、識別結果出力部44は、S54での判定処理の結果を、情報処理装置10の表示部に表示することで出力する。そして、識別結果出力部44は、図5の処理を終了する。情報処理装置10は、図3の処理により生成した識別器を用いることで、少ない異常データのみで学習した識別器を用いる場合と比較して、様々な種類の異常を検出することができる。
本実施形態では、カメラ16から取得された1つの画像に対するパターン識別処理について説明した。しかし、情報処理装置10は、図5のS51以降の処理を繰り返すことにより、カメラ16により撮影される画像に対して、継続的に異常を検出する処理を行うこともできる。また、本実施形態では、識別結果出力部44は、S54で特定カテゴリ度が特定カテゴリであるか否かを判定するための閾値として、S35で算出された閾値を用いたが、他の閾値を用いてもよい。例えば、識別結果出力部44は、より異常に対して敏感にすることを可能とするために、S35で算出された閾値に設定された値を加えた値を、閾値として用いてもよい。
本実施形態では、情報処理装置10がカメラ16で撮影された画像における異常を検出する例を示した。情報処理装置10は、例えば、監視目的でないカメラからの画像を入力として、特にイベントが発生していない状況を撮影したデータを、本実施形態の正常データと置き換え、特定のイベントが発生したか否かを検出するといったことが可能になる。このように、情報処理装置10は、正常、異常の判定だけでなく、その他のパターン識別処理も可能である。
以上、本実施形態の処理により、情報処理装置10は、十分な量の目標タスクの正常データと、十分な量の元タスクの正常データと、に基づいて、元タスクの学習データの特徴量を、目標タスクの学習データの特徴量に変換する変換パラメータを求める。このように、情報処理装置10は、特定のデータに依存しない変換パラメータを求め、求めた変換規則に基づいて、元タスクの学習データを変換する。求められた変換パラメータは、特定のデータに依存せず、汎用性があるため、変換後のデータが不適切である可能性が抑制される。即ち、情報処理装置10は、転移学習において、変換後の学習データが不適切なものとなる可能性を低減することができる。
また、情報処理装置10は、目標タスクにおける負例の学習データを十分に確保できない場合でも、負例の学習データが十分な量だけ存在する元タスクの学習データから元異常パターンを変換し、識別器の生成に利用する。これにより、情報処理装置10は、識別器が目標タスクにおける負例の学習データにオーバーフィットすることを防止することができる。
また、情報処理装置10は、識別器の生成に、元タスクの負例の学習データのみを変換して利用し、元タスクの正例の学習データを利用しないようにしている。これにより、情報処理装置10は、識別器が正常と識別する範囲を拡大させることなく、異常を正常と識別するような見逃しが発生する確率を低減できる。
<実施形態2>
本実施形態では、実施形態1の変形として、複雑なテクスチャパターンを有する製造物の表面を撮影した画像から、その表面上の欠陥を、異常パターンとして検出する際に用いる識別器の生成方法を説明する。本実施形態では、情報処理装置10は、複雑なテクスチャパターンを有する製造物として、表面に粗し加工を施したゴム板の表面上の欠陥を検出する識別器の生成を行うこととする。即ち、本実施形態の目標タスクは、表面に粗し加工を施したゴム板の表面上の欠陥を検出することである。しかし、情報処理装置10は、その他の物の表面上の欠陥を検出する識別器の生成を行うこととしてもよい。
本実施形態の情報処理装置10のハードウェア構成は、実施形態1と同様であるとする。また、本実施形態のカメラ16は、製造物の表面を撮影し、製造物の品質管理のための画像を撮影するカメラである。
図6に、本実施形態での識別器による識別処理の対象となるパターンの例を示す。図6(a)〜図6(j)の画像は、表面粗し加工が施されたゴム板の表面を撮影したグレースケール画像から、128×128画素の領域が切り出された画像である。図6(a)〜(e)は、正常であるゴム板の画像から切り出された画像である。図6(f)〜(j)は、欠陥を含むゴム板の画像から、欠陥部(図中、丸印にて図示)を含むように切り出された画像である。本実施形態では、図6(a)〜(e)のような正常であるゴム板の画像データを正常データとする。また、図6(f)〜(j)のようなゴム板の欠陥部を含む画像データを異常データとする。図6(f)、(g)は、黒いスポット状のムラのような欠陥が存在する異常データであり、図6に示されるように、形状やサイズが様々である。また、図6(h)のように、全体的にグラデーションがあるようなパターンや、図6(i)のように、白いスポット状のムラがあるもの、図6(j)のように、テクスチャのコントラストが一部だけ低いようなもの等、様々な欠陥の種類が存在する。本実施形態では、情報処理装置10は、図6(a)〜(e)のような画像データが与えられた場合には、正常なデータであると判定し、図6(f)〜(j)のような画像データが与えられた場合は、異常なデータであると判定する識別器を生成する。
図7は、本実施形態の情報処理装置10における識別器を生成するための機能構成等の一例を示すブロック図である。また、図8は、識別器生成処理の一例を示すフローチャートである。以下、図7、及び、図8を用いて、本実施形態の識別器生成処理について説明する。本実施形態では、実施形態1と異なる点について説明する。
情報処理装置10は、目標タスク学習データ入力部70、目標タスク学習データ保持部70DB、類似タスク探索部71−0、従来タスク学習データ保持部71−0DB、元タスク学習データ入力部71−1、元タスク学習データ保持部71−1DBを含む。また、情報処理装置10は、特徴抽出部72、目標タスク学習パターン保持部72−0DB、元タスク学習パターン保持部72−1DB、変換規則算出部73、変換処理部74、特徴選択部75、識別器生成部76、識別器データ出力部77を含む。
目標タスク学習データ入力部70は、カメラ16、補助記憶装置13等から目標タスクの学習データを取得する。
目標タスク学習データ保持部70DBは、目標タスク学習データ入力部70により取得された学習データを保持するデータベースであり、補助記憶装置13に実装される。
類似タスク探索部71−0は、学習データが目標タスクと類似したタスクを、複数の従来タスク学習データのタスクから探索する。
従来タスク学習データ保持部71−0DBは、従来タスク学習データを保持するデータベースであり、補助記憶装置13に実装される。なお、従来タスク学習データについては後述する。
元タスク学習データ入力部71−1は、従来タスク学習データ保持部71−0DB内の複数の従来タスク学習データの内、類似タスク探索部71−0により探索された学習データを元タスク学習データとして取得する。
元タスク学習データ保持部71−1DBは、元タスク学習データ入力部71−2により取得された元タスク学習データを保持するデータベースであり、補助記憶装置13に実装される。
特徴抽出部72は、目標タスク学習データ保持部70DB、元タスク学習データ保持部71−1DBに保持されている学習データから特徴抽出を行う。
目標タスク学習パターン保持部72−0DBは、目標タスク学習データ保持部70DBに保持されている学習データから特徴抽出部72により抽出された特徴量のデータを保持するデータベースであり、補助記憶装置13に実装される。
元タスク学習パターン保持部72−1DBは、元タスク学習データ保持部71−1DBに保持されている学習データから特徴抽出部72により抽出された特徴量のデータを保持するデータベースであり、補助記憶装置13に実装される。
変換規則算出部73は、目標タスク学習パターン保持部72−0DB、元タスク学習パターン保持部72−1DBに保持される特徴量のデータに基づいて、元タスクの学習データの特徴量を、目標タスクの学習データの特徴量に変換するための変換規則を算出する。
変換処理部74は、元タスク学習パターン保持部72−1DBに保持される特徴量のデータを、変換規則算出部73により算出された変換規則に基づいて、目標タスクの学習データの特徴量に変換する。
特徴選択部75は、変換処理部74により変換された特徴量、目標タスク学習データ保持部70DBに含まれる特徴量のうち、識別器の生成に用いる特徴量を選択する。
識別器生成部76は、特徴選択部75により選択された特徴量に基づいて、識別器の生成を行う。
識別器データ出力部77は、識別器生成部25により生成された識別器のデータを出力する。例えば、識別器データ出力部77は、識別器のデータを、補助記憶装置13に記憶することにより、出力する。
次に、識別器を生成する具体的な処理手順について図8を参照しながら説明する。
S80において、目標タスク学習データ入力部70は、カメラ16、補助記憶装置13等から、識別器の生成に用いられる、目標タスクの学習データを取得する。本実施形態では、目標タスク学習データ入力部70は、目標タスクの学習データとして、図7に示したようなゴム板の表面が撮影された画像データを複数取得する。本実施形態では、目標タスク学習データ入力部70は、S80で、図7(a)〜(e)のような、欠陥の無いNt枚の画像データ(正常データ)と、図7(f)〜(j)のような、何らか欠陥が存在するMt枚の画像データ(異常データ)を取得する。目標タスク学習データ入力部70は、取得したデータを、目標タスク学習データ保持部70DBに記録する。本実施形態では、Mt枚の異常データが取得されるが、Mt=0であってもよい。
S81−0において、類似タスク探索部71−0は、S80で取得された目標タスク学習データに基づき、学習データが目標タスクと類似したタスクを、複数の従来タスク学習データのタスクから探索する処理を行う。ここで、従来タスク学習データとは、過去に他の製造物の表面を撮影することにより取得した、目標タスク学習データと同様、正常データと異常データとからなるタスク毎の学習データである。本実施形態では、まず、類似タスク探索部71−0は、従来タスク学習データの正常データの画素値の分散が、目標タスク学習データの正常データにおける画素値の分散と類似する学習データを探索する処理を行う。例えば、類似タスク探索部71−0は、各従来タスク学習データにおける正常データについて画素値の分散を求め、求めた分散と目標タスク学習データの正常データとの画素値の分散との差分の大きさに反比例する類似度を決定する。この類似度は、各従来タスク学習データが目標タスク学習データとどれくらい類似しているかを示す指標である。類似タスク探索部71−0は、タスク毎に類似度の平均値を算出し、算出した平均値が設定された閾値以上であるタスクを、目標タスクに類似するタスクとして探索する。
本実施形態では、類似タスク探索部71−0は、正常データの画素値の分散が類似しているタスクを探索するが、例えば、Co−occurrence Matrixに基づくテクスチャ特徴量が類似している学習データのタスクを探索する等でもよい。ただし、正常データ間の類似性に基づいて、類似するタスクを探索する方が好適である。また、類似タスク探索部71−0は、画像データの情報だけでなく、例えば、製造物の素材情報や、製造工程の情報を別途取得し、その情報を利用して、類似するタスクを探索する等してもよい。このように、本実施形態では、類似タスク探索部71−0は、複数の従来タスク学習データの中から、学習データの類似性に基づき、目標タスクに類似する従来タスクを探索する。しかし、類似タスク探索部71−0は、例えば、目標タスクが、製造物の製造工程変更に対応するものである場合等は、製造工程変更前のデータを利用するようにしてもよい。
S81−1において、元タスク学習データ入力部71−1は、従来タスク学習データ保持部71−0DBからS81−0で探索された従来タスクに属する学習データを、元タスク学習データとして取得する処理を行う。本実施形態では、元タスク学習データ入力部71−1は、元タスク学習データとして、Ns枚の正常データ、及び、Ms枚の異常データを取得する。元タスク学習データ入力部71−1は、取得した学習データを、元タスク学習データ保持部71−1DBに記録する。
S82において、特徴抽出部72は、S80、S81−1で取得されたそれぞれの学習データに対して特徴抽出を行う。本実施形態では、S80、S81−1で取得された各画像それぞれに対し、画素値の平均値や、分散、最大値といった、d種類(例えば30種類程度)の特徴量を抽出する。特徴抽出部72は、各画像データから抽出された、それぞれd種類の特徴量を並べたものを、d次元の特徴ベクトルとする。そして、特徴抽出部72は、S80で取得されたデータから抽出した特徴ベクトルを、目標タスク学習パターン保持部72−0DBに記録する。また、特徴抽出部72は、S81−1で取得されたデータから抽出した特徴ベクトルを、元タスク学習パターン保持部72−1DBに記録する。以下では、目標タスク学習パターン保持部72−0DBに記録された、目標タスク学習データの正常データから抽出されたd次元のベクトルを目標正常パターン、目標タスク学習データの異常データから抽出されたd次元のベクトルを目標異常パターンとする。また、元タスク学習パターン保持部72−1DBに記録された、元タスク学習データの正常データから抽出されたd次元のベクトルを元正常パターン、元タスク学習データの異常データから抽出されたd次元のベクトルを元異常パターンとする。
S83において、変換規則算出部73は、S33と同様の処理により、元タスク学習データから、目標タスク学習データへの変換を行う変換規則を求める処理を行う。本実施形態でも、実施形態1と同様、変換規則算出部73は、目標正常パターンと、元正常パターンを特定カテゴリのデータとして、それらの分布の差異を局所最小化するような線形変換のための変換パラメータ(行列A及びバイアスベクトルb)の値を調整する。本実施形態では、各パターンは、d次元のベクトルなので、行列Aは、d次の正方行列、バイアスベクトルbは、d次元のベクトルとなる。S83で求められた行列Aとバイアスベクトルbのデータを、変換パラメータ73dとする。
S84において、変換処理部74は、S34と同様、特徴抽出ステップ52で抽出したMs個の元異常パターンを変換する処理を行う。S84で変換された元異常パターンは、実施形態1とは異なり、特徴選択部75による特徴選択処理に用いられるため、変換処理部74は、変換した元異常パターンを、特徴選択部75に送信することになる。
S85において、特徴選択部75は、Nt個の目標正常パターン、Mt個の目標異常パターン、及び、S84で変換されたMs個の元異常パターンを用いて、特徴選択の処理を行う。本実施形態では、特徴選択部75は、特徴選択の方法として、特許文献3に記載の特徴選択方法を用いる。特徴選択部75は、この処理により、各パターンの要素であるd個の特徴量の中から、有効であると考えられるd'個(d'<d)の特徴量を選択する。特徴選択部75は、選択したd'個の特徴量が、どの特徴量であるかを示す情報を、識別器生成部76に送信する。このように、情報処理装置10は、識別器の生成のみでなく、特徴選択処理といった、その他の情報処理も可能である。また、上記のように、特徴選択の処理を行い、特徴ベクトルの要素のうち、選択された要素のみを用いて識別器の生成を行う処理も可能である。
S86において、識別器生成部76は、目標正常パターンの内、特徴選択ステップ55で選択されたd'個の特徴のみを用いて、識別器の生成を行う。本実施形態では、情報処理装置10は、識別器として1クラスSVMを用いる。そのため、識別器生成部76は、識別器の生成には異常パターンを用いず、目標正常パターンのみを用いて生成を行う。識別器生成部76は、学習結果として得られる複数のサポートベクターと、それに対応する係数、及び、閾値を識別器データ出力部77に送信する。本実施形態では、識別器生成部76は、目標正常パターンのみを用いて識別器の生成を行うが、実施形態1と同様に、目標異常パターンや、変換した元異常パターンも用いて、2クラス識別器の生成を行ってもよい。
S87において、識別器データ出力部77は、S86で求められた複数のサポートベクターと、それに対応する係数、及び、閾値のデータを出力して、図8の処理を終了する。例えば、識別器データ出力部77は、S86で求められた複数のサポートベクターと、それに対応する係数、及び、閾値のデータを補助記憶装置13に記録することで出力する。
続いて、図8の処理により生成された識別器を用いた、複雑なテクスチャパターンを有する製造物であるゴム板の表面を撮影した画像から、その表面上の欠陥を、異常パターンとして検出する処理を説明する。
図9は、情報処理装置10においてパターン識別処理を行うための機能構成等の一例を示すブロック図である。図10は、パターン識別処理の一例を示すフローチャートである。以下、図9、及び、図10を用いて、本実施形態のパターン識別処理について説明する。
情報処理装置10は、識別器データ入力部90、データ入力部91、画像切り出し部92、特徴抽出部93、特定カテゴリ度算出部94、及び識別結果出力部96を含む。
識別器データ入力部90は、図8の処理により出力された識別器のデータを取得する。データ入力部91は、カメラ16からゴム板の表面の撮影画像のデータを取得する。画像切り出し部92は、データ入力部91により取得されたデータに対応する画像の一部を切り出し、切り出した画像のデータを出力する。特徴抽出部93は、画像切り出し部92により出力されたデータから特徴量を抽出する。特定カテゴリ度算出部94は、特徴抽出部93により抽出された特徴量に基づいて、データ入力部91により取得されたデータの特定カテゴリらしさを示す特定カテゴリ度を算出する。識別結果出力部96は、特定カテゴリ度算出部94により算出された特定カテゴリ度に基づいて、データ入力部91により取得されたデータが特定カテゴリに属するか否かを判定し、判定結果を出力する。
次に、識別器を用いてパターンを識別する具体的な処理手順について図10を参照しながら説明する。
S100において、識別器データ入力部90は、図8の処理により出力された識別器のデータである複数のサポートベクターと、それぞれに対応する係数、及び、閾値の情報を、補助記憶装置13等から取得する。識別器データ入力部90は、複数のサポートベクターと対応する係数との情報を、特定カテゴリ度算出部94に、閾値の情報を識別結果出力部96に送信する。
S101において、データ入力部91は、異常が存在するか否かを判定する対象である製造物(ゴム板)の表面を撮影した画像を、カメラ16から取得する。本実施形態では、データ入力部91は、カメラ16によりゴム板の表面が撮影された256×256画素のモノクロ画像を取得する処理を行う。
S102において、画像切り出し部92は、S101で取得された画像から、目標タスク学習データの画像サイズと同じ、128×128画素の画像切り出しを行う。画像切り出し部92は、切り出した画像を、特徴抽出部93に送信する。本実施形態では、画像切り出し部92は、S101で取得される画像が256×256画素の画像であるので、画像を128×128画素のサイズの4つの領域に分けて切り出す。情報処理装置10は、切り出されたそれぞれの画像について、異常が存在するか否かの判定を行う。
S103において、特徴抽出部93は、S102で切り出された128×128画素の画像に対して特徴抽出の処理を行う。ここでは、S85で選択されたd'個の特徴量を抽出する処理を行う。
S104において、特定カテゴリ度算出部94は、S103で抽出されたd'個の特徴量に対し、式8に示したものと同様の式を用いて、特定カテゴリ度の算出を行う。この特定カテゴリ度は、正常らしさを表した数値であり、この値が低い程、異常である可能性が高いことになる。
S105において、特定カテゴリ度算出部94は、S104で算出した特定カテゴリ度が、閾値以下であるか否かに基づいて、異常があるか否かの判定を行う。特定カテゴリ度算出部94は、異常があると判定した場合は、S106の処理に進む。特定カテゴリ度算出部94は、異常が無いと判定した場合、S102eの処理に進む。
S102eにおいて、特定カテゴリ度算出部94は、S102で取得された画像の全領域に対して処理を行ったか否かを判定し、行ったと判定した場合、S106の処理に進み、行っていないと判定した場合、S102の処理に進む。
S106において、識別結果出力部96は、S105により異常があると判定された場合は、入力された画像に異常が存在するという判定結果を出力し、そうでなければ、正常であるという判定結果を出力し、図10の処理を終了する。例えば、識別結果出力部96は、異常があるか否かの判定結果を示す情報を、情報処理装置10の不図示の表示部に表示することで出力する。
以上、本実施形態の処理により、情報処理装置10は、元タスクの学習データの特徴量を変換した特徴量のうち、特徴選択部75により選択された特徴量のみを用いて識別器の生成を行うことができる。これにより、情報処理装置10は、より識別に寄与する特徴量のみを用いた識別器を生成し、生成した識別器を用いて、入力データから抽出されたより識別に寄与する特徴量のみを用いて識別処理を行うことができる。情報処理装置10は、識別処理の際に利用するデータの量が減るため、処理の負荷を軽減できる。また、情報処理装置10は、本実施形態で示したように、類似したタスクを従来のタスクから探索して、そのタスクの学習データを元タスク学習データとして用いるといったこともできる。このような方法は、類似するタスクが明確でない場合に有効である。一方、例えば、製造物の材料変更への対応等の場合は、変更前のタスクが、目標タスクに最も類似している可能性が高いので、情報処理装置10は、その変更前のタスクの学習データを、元タスク学習データとして利用するのが好適である。
<実施形態3>
本実施形態では、実施形態1の変形として、監視カメラの動画像に基づいて、監視エリア内の異常を検出するパターン識別方法における、識別器の生成を行う処理を説明する。実施形態1では、情報処理装置10は、変換規則を求める際に、異なるタスクの正常データの分布間のL2距離の推定値を小さくするという基準で変換規則を求めた。これに対し、本実施形態では、情報処理装置10は、分布間の相対ピアソン距離の推定値を小さくするという基準で変換規則を求める。
本実施形態の情報処理装置10のハードウェア構成及び機能構成は、実施形態1と同様であるとする。
図2、及び、図3を用いて、本実施形態の識別器生成処理について説明する。本実施形態では、実施形態1と異なる部分について説明する。
S30〜S32の処理により、目標正常パターンとして、Nt個の251次元ベクトル、目標異常パターンとして、Mt個の251次元ベクトルが、目標タスク学習パターン保持部220DBに記録される。そして、元正常パターンとして、Ns個の251次元ベクトル、元異常パターンとして、Ms個の251次元ベクトルが、元タスク学習パターン保持部221DBに記録されることになる。
S33において、変換規則算出部23は、それぞれの学習データの特定カテゴリデータ、即ち、複数の目標正常パターン、及び、複数の元正常パターンを用いて、元異常パターンを識別器の生成に用いることができるように変換するための変換規則を求める。本実施形態でも、実施形態1と同様、ここでの変換として線形変換を用いる。ただし、変換規則算出部23は、実施形態1では、分布間のL2距離の推定値を局所最小化するような変換を求めたが、本実施形態では、非特許文献4に記載の、分布間の相対ピアソン距離の推定値を局所最小化するような変換を求める。
実施形態1と同様、目標正常パターンの分布をχ、行列A、及び、バイアスベクトルbによる変換された後の元正常パターンの分布をχ'とした場合、相対ピアソン距離の推定値rPE(χ,χ')は、以下の式9により求められる。
Figure 2017224156
この相対ピアソン距離の推定値は、式1のL2距離の推定値と、ほぼ同様であるが、式9中のh及びHの定義が異なり、以下の式10及び式11のように定義される。
Figure 2017224156
Figure 2017224156
ここで、実施形態1と同様、xは、i番目の目標正常パターン、xj'は、j番目の
元正常パターンである。式9のθは、実施形態1で示した式4におけるθと同じ定義であるが、h、及び、Hが異なるため、Nt次元のベクトルとなる。σは、ガウス基底関数のパラメータで、λは、正則化パラメータ、Iは、Nt次の単位行列である。また、式11内のβは、0≦β<1の分布混合パラメータで、例えば、β=0.5等となる。
本実施形態でも、実施形態1と同様、行列Aとバイアスベクトルbとに適当な初期値を設定し、式9に示した相対ピアソン距離の推定値を表す式を、行列Aやバイアスベクトルbに対応するパラメータで微分した式に基づいて更新していく。式9に示した相対ピアソン距離の推定値を、変換のパラメータaで微分した式は、以下の式12のように表される。
Figure 2017224156
変換規則算出部23は、式12を用い、行列Aのr行c列の成分ar,c、及び、バイアスベクトルbのc番目の要素bcを、以下の式13、14に従って更新する。
Figure 2017224156
Figure 2017224156
式13、14中のηは、第1の実施形態と同様の学習係数である。本実施形態でも、第1の実施形態と同様、行列A、及び、バイアスベクトルbの値を更新した後の相対ピアソン距離と、学習係数ηが、共に設定された閾値よりも小さくなるまで、式13、14による更新を繰り返す。それにより、変換規則算出部23は、変換のための行列A、及び、バイアスベクトルbを求める。S34〜S36の処理は、実施形態1と同様である。
このように、情報処理装置10は、分布間のL2距離の推定値でなく、分布間の相対ピアソン距離の推定値を局所最小化することでも、学習データの変換に用いられる変換パラメータを算出できる。
本実施形態の処理により、情報処理装置10は、分布間の相対ピアソン距離を近づけるような変換を行うことが好適である場合に対応することができる。
<実施形態4>
本実施形態では、人物の顔の画像を入力し、その画像内の人物が、予め定めた特定の人物であるか否かを識別する方法において用いる識別器の生成方法を示す。本実施形態では、対象である特定の人物に似て非なる人物の顔の画像が存在しない場合でも、識別器が似て非なる人物の顔の画像を、誤って特定の人物であると判定する可能性を低減させるように、識別器の生成を行う。
本実施形態の情報処理装置10のハードウェア構成は、実施形態1と同様であるとする。
図11は、本実施形態の情報処理装置10における識別器を生成するための機能構成等の一例を示すブロック図である。また、図12は、識別器生成処理の一例を示すフローチャートである。以下、図11、及び、図12を用いて、本実施形態の識別器生成処理について説明する。
情報処理装置10は、目標タスク学習データ入力部110、元タスク学習データ入力部111、目標タスク学習データ保持部110DB、元タスク学習データ保持部111DBを含む。情報処理装置10は、目標タスク学習データ領域抽出部112−0、目標タスク学習パターン保持部112−0DB、元タスク学習データ領域抽出部112−1、元タスク学習パターン保持部112−1DB、変換規則算出部113、変換処理部114を含む。また、情報処理装置10は、識別器生成部115、識別器データ出力部116を含む。
目標タスク学習データ入力部110は、カメラ16、補助記憶装置13等から目標タスクの学習データを取得する。元タスク学習データ入力部111は、カメラ16、補助記憶装置13等から元タスクの学習データを取得する。
目標タスク学習データ保持部110DBは、目標タスク学習データ入力部110により取得された学習データを保持するデータベースであり、補助記憶装置13に実装される。元タスク学習データ保持部111DBは、元タスク学習データ入力部111により取得された学習データを保持するデータベースであり、補助記憶装置13に実装される。
目標タスク学習データ領域抽出部112−0は、目標タスク学習データ入力部110により取得された画像から、人物の顔を検出し、検出した顔のうち、設定された領域を抽出し、抽出した領域から特徴量を取得する。元タスク学習データ領域抽出部112−1は、元タスク学習データ入力部111により取得された画像から、人物の顔を検出し、検出した顔のうち、設定された領域を抽出し、抽出した領域から特徴量を取得する。
目標タスク学習パターン保持部112−0DBは、目標タスク学習データ領域抽出部112−0により抽出された領域から取得された特徴量の情報を記憶するデータベースであり、補助記憶装置13に実装される。元タスク学習パターン保持部112−1DBは、元タスク学習データ領域抽出部112−1により抽出された領域から取得された特徴量の情報を記憶するデータベースであり、補助記憶装置13に実装される。
変換規則算出部23は、目標タスク学習パターン保持部112−0DB、元タスク学習パターン保持部112−1DBに保持される特徴量のデータに基づいて、元タスクの学習データの特徴量を目標タスクの学習データの特徴量に変換するための変換規則を算出する。
変換処理部114は、元タスク学習パターン保持部112−1DBに保持される特徴量のデータを、変換規則算出部113により算出された変換規則に基づいて、目標タスクの学習データの特徴量に変換する。
識別器生成部115は、目標タスク学習パターン保持部112−0DBに保持されている特徴量のデータと、変換処理部114により変換された特徴量のデータと、に基づいて、識別器の生成を行う。
識別器データ出力部116は、識別器生成部115により生成された識別器のデータを出力する。例えば、識別器データ出力部116は、識別器のデータを、補助記憶装置13に記録することにより出力する。
次に、識別器を生成する具体的な処理手順について図12を参照しながら説明する。
S120において、目標タスク学習データ入力部110は、識別器の生成に用いる複数の学習データをカメラ16、補助記憶装置13等から取得する。本実施形態では、目標タスク学習データ入力部110は、複数の学習データとして、複数の人物の顔画像を取得する。より具体的には、本実施形態では、目標タスク学習データ入力部110は、人物の顔の領域が切り出された40×40画素のグレースケール画像を取得する。以下では、人物の顔の領域が切り出された40×40画素のグレースケール画像を、顔画像とする。目標タスク学習データ入力部110は、目標タスク学習データとして、予め定めた特定の人物(人物Aとする)の顔画像と、人物A以外の任意の人物の顔画像とを取得する。ただし、この人物A以外の人物の顔画像の中に、人物Aの顔画像と類似するが人物Aとは別人の顔画像は存在しないものとする。目標タスク学習データ入力部110は、取得した顔画像のデータを、目標タスク学習データ保持部110DBに記録される。
S121において、元タスク学習データ入力部111は、人物Aとは異なる、ある人物(人物Bとする)と、人物Bと類似する人物(人物B'とする)と、のそれぞれの複数の顔画像を、カメラ16、補助記憶装置13等から取得する。本実施形態では、情報処理装置10は、S121で取得されたデータを、元タスク学習用データとして用いる。元タスク学習データ入力部111は、取得した顔画像のデータを、元タスク学習データとして、元タスク学習データ保持部111DBに記録する。
S122−0において、目標タスク学習データ領域抽出部1120は、S120で取得された全ての顔画像それぞれに対し、顔画像中に設定された局所領域から画素値を抽出して、その値を並べたベクトルデータを生成する処理を行う。本実施形態では、顔画像中に設定された局所領域は、図13(a)に矩形で示したような領域である。目標タスク学習データ領域抽出部1120は、各領域の画素値を抽出し、その値を並べたベクトルを、それぞれの画像について生成する。この矩形領域全てにおける総画素数がdであったとすると、ここで生成されるベクトルは、d次元のベクトルとなる。目標タスク学習データ領域抽出部1120は、生成したベクトルを、目標タスク学習パターン保持部1120DBに記録する。ここで、人物Aの顔画像に基づいて生成されたベクトルを目標特定人物パターン、人物A以外の顔画像に基づいて生成されたベクトルを目標非特定人物パターンとする。
S122−1において、元タスク学習データ領域抽出部112−1は、S121で取得された全ての顔画像それぞれに対し、以下の処理を行う。即ち、元タスク学習データ領域抽出部112−1は、図13(b)に示したような、顔の中心部分に設定されている図13(a)の各矩形領域に比べて大きな矩形領域から画素値を抽出し、その値を並べたベクトルデータを生成する処理を行う。図13(b)の矩形領域の画素数が、d'であったとすると、ここで生成するベクトルは、d'次元のベクトルとなる。この矩形の大きさは、任意であるが、元タスク学習データ側の情報量が多い方が、目標タスクへの適切な変換ができる可能性が高いため、d'>dとするのが好適である。元タスク学習データ領域抽出部112−1は、生成したベクトルを、元タスク学習パターン保持部112−1DBに記録する。ここで、人物Bの顔画像に基づいて生成されたベクトルを、目標特定人物パターンに対応する、元参照人物パターン、人物B'の顔画像に基づいて生成されたベクトルを元非特定人物パターンとする。そして、本実施形態では、目標タスクにおける目標特定人物パターン、及び、元タスクにおける元参照人物パターンが、特定カテゴリのデータとなる。
S123において、変換規則算出部113は、学習データの特定カテゴリのデータ、即ち、複数の目標特定人物パターン、及び、複数の元参照人物パターンを用いて、以下の処理を行う。即ち、変換規則算出部113は、元非特定人物パターンを識別器の生成に用いることができるように変換するための変換規則を求める処理を行う。本実施形態でも、ここでの変換は、線形変換であるとするが、他の実施形態と異なり、変換先と変換元との次元が異なるため、変換パラメータである行列Aが正方行列ではない。本実施形態では、変換先がd次元、変換元がd'次元であるので、線形変換の行列Aは、d'行d列の行列、バイアスベクトルbは、d次元のベクトルとなる。本実施形態でも、変換規則算出部113は、行列A、及び、バイアスベクトルbを、実施形態1と同様に、L2距離の推定値を小さくするという基準で求めるが、本実施形態のように、変換先と変換元とのベクトルの次元が異なっても変換規則を求めることができる。情報処理装置10は、目標タスクの学習データの特徴量のベクトルの次元と、元タスクの学習データの特徴量のベクトルの次元とが異なっていても、変換規則を求めて、変換できる。S123の処理は、行列の要素数が違うのみで、実施形態1と同様である。S123で求められた行列Aとバイアスベクトルbとを、変換パラメータ113dとする。
S124において、変換処理部114は、複数の元非特定人物パターンを、S123で求められた変換規則により変換する処理を行う。この処理では、元非特定人物パターン、つまり、人物Bと似て非なる人物B'のデータを、人物Aのデータの分布と人物Bのデータの分布との差異を局所最小化するような変換規則により変換することで、擬似的に、人物Aと類似する人物のデータを生成する。S124で変換された元非特定人物パターンは、識別器生成部115による識別器生成処理において用いられる。
S125において、識別器生成部115は、複数の目標特定人物パターンを正例、複数の目標非特定人物パターン、及び、S124で変換された複数の元非特定人物パターンを負例とした識別器の生成を行う。本実施形態の識別器は、実施形態1と同様に、ガウスカーネルを用いた非線形SVMである。
S126において、識別器データ出力部116は、S125での識別器の生成結果を外部に出力して、図12の処理を終了する。例えば、識別器データ出力部116は、S125で学習された識別器のデータを補助記憶装置13に記録することで、出力する。
以上、本実施形態の処理により、情報処理装置10は、入力された顔画像が、特定の人物の顔画像であるか否かを精度良く識別する識別器を生成することが可能になる。本実施形態の処理により生成された識別器は、人物Aと類似する人物のデータを学習に用いるため、人物Aと類似する人物の顔画像が入力された場合に、人物Aの顔画像ではないと、正しく判定することができる可能性が高くなる。このように、情報処理装置10は、他の実施形態のような、異常なデータを検出する識別器の生成だけでなく、特定の人物の顔画像であるか否かといった、一般的なパターン識別を行う識別器の生成もできる。
尚、本実施形態では、人物Bと類似する人物B'のデータのみを変換して学習に利用したが、人物B'のデータを特定カテゴリのデータとして変換規則を求め、その変換規則により変換した人物Bのデータを、追加で学習に利用してもよい。また、情報処理装置10は、人物Bと人物B'といった1つの組合せだけでなく、その他の人物の組合せを用い、それぞれに対して変換規則を求め、その変換規則により変換したデータを更に追加するようにすると好適である。
<その他の実施形態>
上記示した実施の形態では、情報処理装置10は、全て変換規則として線形変換を用いた。しかし、情報処理装置10は、変換規則として、基底関数を用いた非線形変換を用いることも可能である。より具体的には、例えば、情報処理装置10は、D個の基底関数(例えば、ガウス基底関数)を用い、まず、元タスク学習データのパターンそれぞれに対して、D個の基底関数それぞれにおける値を求める。そして、それをD次元のベクトルと考えることにより、元タスク学習データのそれぞれのパターンが、D次元のベクトルに変換される。後は、変換先のパターンの次元数がdであった場合、変換のための行列Aとして、D行d列の行列を用意し、その行列Aの各成分の値を、上記示した実施形態と同様の方法で求めるようにすればよい。このように、情報処理装置10は、変換規則として、非線形変換を用いることも可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、上述した情報処理装置10の機能構成の一部又は全てをハードウェアとして情報処理装置10に実装してもよい。
20 目標タスク学習データ入力部
21 元タスク学習データ入力部
23 変換規則算出部
24 変換処理部
25 識別器生成部

Claims (11)

  1. 目標とするタスクである第1のタスクにおいて、第1のカテゴリに属する複数の学習データを、目標タスク学習データとして、取得する第1の取得手段と、
    前記第1のタスクとは異なる第2のタスクにおいて、前記第1のカテゴリに属する学習データと前記第1のカテゴリとは異なる第2のカテゴリに属する学習データとを含む複数の学習データを、元タスク学習データとして、取得する第2の取得手段と、
    前記目標タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第1の分布と、前記元タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第2の分布との差異に基づいて、前記元タスク学習データを変換するための変換パラメータを調整する調整手段と、
    前記調整手段により調整された前記変換パラメータに基づいて、前記元タスク学習データを変換する変換手段と、
    前記変換手段によって変換された元タスク学習データと、前記目標タスク学習データとに基づいて、前記第1のタスクに係る識別器を生成する生成手段と、
    を有する情報処理装置。
  2. 前記調整手段は、前記第1の分布と前記第2の分布との密度分布が近づくように、前記変換パラメータを調整する請求項1記載の情報処理装置。
  3. 前記調整手段は、前記第1の分布と前記第2の分布とのL2距離の推定値を局所最小化するように、前記変換パラメータを調整する請求項2記載の情報処理装置。
  4. 前記調整手段は、前記第1の分布と前記第2の分布との相対ピアソン距離の推定値を局所最小化するように、前記変換パラメータを調整する請求項2記載の情報処理装置。
  5. 前記調整手段は、勾配法を用いて、前記第1の分布と前記第2の分布との差異を局所最小化するように、前記変換パラメータを調整する請求項2乃至4何れか1項記載の情報処理装置。
  6. 前記第2のタスクを前記第1のタスクに類似するタスクとして探索する探索手段を有し、
    前記第2の取得手段は、前記探索手段によって探索された第2のタスクの学習データを、前記元タスク学習データとして取得する請求項1乃至5何れか1項記載の情報処理装置。
  7. 前記変換手段は、前記元タスク学習データの内、前記第2のカテゴリに属する学習データを変換し、
    前記生成手段は、前記目標タスク学習データと、前記変換手段により変換された前記第2のカテゴリに属する学習データとを用いて、前記識別器を生成する請求項1乃至6何れか1項記載の情報処理装置。
  8. 前記生成手段は、前記目標タスク学習データと、前記変換手段により変換された前記元タスク学習データと、に基づいて前記識別器の生成に用いるための特徴量を選択し、前記選択した特徴量に基づいて、前記識別器を生成する請求項1乃至6何れか1項記載の情報処理装置。
  9. 前記生成手段により生成された前記識別器を用いて、識別の対象とする入力データが、前記第1のカテゴリに属するか否かを識別する識別手段、
    を更に有する請求項1乃至8何れか1項記載の情報処理装置。
  10. 情報処理装置が実行する情報処理方法であって、
    目標とするタスクである第1のタスクにおいて、第1のカテゴリに属する複数の学習データを、目標タスク学習データとして、取得する第1の取得ステップと、
    前記第1のタスクとは異なる第2のタスクにおいて、前記第1のカテゴリに属する学習データと前記第1のカテゴリとは異なる第2のカテゴリに属する学習データとを含む複数の学習データを、元タスク学習データとして、取得する第2の取得ステップと、
    前記目標タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第1の分布と、前記元タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第2の分布との差異に基づいて、前記元タスク学習データを変換するための変換パラメータを調整する調整ステップと、
    前記調整ステップで調整された前記変換パラメータに基づいて、前記元タスク学習データを変換する変換ステップと、
    前記変換ステップで変換された元タスク学習データと、前記目標タスク学習データとに基づいて、前記第1のタスクに係る識別器を生成する生成ステップと、
    を含む情報処理方法。
  11. コンピュータに、
    目標とするタスクである第1のタスクにおいて、第1のカテゴリに属する複数の学習データを、目標タスク学習データとして、取得する第1の取得ステップと、
    前記第1のタスクとは異なる第2のタスクにおいて、前記第1のカテゴリに属する学習データと前記第1のカテゴリとは異なる第2のカテゴリに属する学習データとを含む複数の学習データを、元タスク学習データとして、取得する第2の取得ステップと、
    前記目標タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第1の分布と、前記元タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第2の分布との差異に基づいて、前記元タスク学習データを変換するための変換パラメータを調整する調整ステップと、
    前記調整ステップで調整された前記変換パラメータに基づいて、前記元タスク学習データを変換する変換ステップと、
    前記変換ステップで変換された元タスク学習データと、前記目標タスク学習データとに基づいて、前記第1のタスクに係る識別器を生成する生成ステップと、
    を実行させるためのプログラム。
JP2016119128A 2016-06-15 2016-06-15 情報処理装置、情報処理方法及びプログラム Active JP6884517B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016119128A JP6884517B2 (ja) 2016-06-15 2016-06-15 情報処理装置、情報処理方法及びプログラム
EP17000986.4A EP3258425B1 (en) 2016-06-15 2017-06-09 Information processing apparatus, information processing method, and storage medium
US15/618,677 US11544628B2 (en) 2016-06-15 2017-06-09 Information processing apparatus and information processing method for generating classifier using target task learning data and source task learning data, and storage medium
CN201710451308.1A CN107527063B (zh) 2016-06-15 2017-06-15 信息处理装置、信息处理方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016119128A JP6884517B2 (ja) 2016-06-15 2016-06-15 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2017224156A true JP2017224156A (ja) 2017-12-21
JP2017224156A5 JP2017224156A5 (ja) 2019-07-18
JP6884517B2 JP6884517B2 (ja) 2021-06-09

Family

ID=59077784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016119128A Active JP6884517B2 (ja) 2016-06-15 2016-06-15 情報処理装置、情報処理方法及びプログラム

Country Status (4)

Country Link
US (1) US11544628B2 (ja)
EP (1) EP3258425B1 (ja)
JP (1) JP6884517B2 (ja)
CN (1) CN107527063B (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019092764A (ja) * 2017-11-22 2019-06-20 株式会社大一商会 遊技機
JP2019092765A (ja) * 2017-11-22 2019-06-20 株式会社大一商会 遊技機
JP2020126468A (ja) * 2019-02-05 2020-08-20 富士通株式会社 学習方法、学習プログラムおよび学習装置
WO2020202572A1 (ja) * 2019-04-05 2020-10-08 日本電気株式会社 画像処理システム、推定装置、処理方法及びプログラム
JPWO2021074990A1 (ja) * 2019-10-16 2021-04-22
JPWO2021095101A1 (ja) * 2019-11-11 2021-05-20
JP7062747B1 (ja) 2020-12-25 2022-05-06 楽天グループ株式会社 情報処理装置、情報処理方法およびプログラム
JP2022103190A (ja) * 2020-12-25 2022-07-07 楽天グループ株式会社 情報処理装置、情報処理方法およびプログラム
US11754985B2 (en) 2020-04-20 2023-09-12 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method and computer program product
US11929174B2 (en) 2018-02-28 2024-03-12 Fujifilm Corporation Machine learning method and apparatus, program, learned model, and discrimination apparatus using multilayer neural network
JP7484318B2 (ja) 2020-03-27 2024-05-16 富士フイルムビジネスイノベーション株式会社 学習装置及び学習プログラム
US12073643B2 (en) 2018-11-29 2024-08-27 Nec Corporation Machine learning apparatus, machine learning method, and computer-readable recording medium

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11392370B2 (en) * 2020-10-26 2022-07-19 Sap Se Distributed vectorized representations of source code commits
RU2759087C1 (ru) * 2020-12-07 2021-11-09 Общество с ограниченной ответственностью "Группа АйБи ТДС" Способ и система статического анализа исполняемых файлов на основе предиктивных моделей
CN115561140B (zh) * 2022-10-12 2023-08-04 宁波得立丰服饰有限公司 一种服装透气性检测方法、系统、存储介质及智能终端
US12003371B1 (en) 2022-12-13 2024-06-04 Sap Se Server configuration anomaly detection

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54430A (en) 1978-04-18 1979-01-05 Naka Tech Lab Antiislip material for building
DE3113349A1 (de) 1981-04-02 1982-10-21 Siemens AG, 1000 Berlin und 8000 München Gasentladungs-ueberspannungsableiter
JP3003353B2 (ja) 1992-02-14 2000-01-24 日本電気株式会社 タスク適応標準パターン学習装置
JP4368767B2 (ja) 2004-09-08 2009-11-18 独立行政法人産業技術総合研究所 異常動作検出装置および異常動作検出方法
US9323837B2 (en) * 2008-03-05 2016-04-26 Ying Zhao Multiple domain anomaly detection system and method using fusion rule and visualization
JP5414416B2 (ja) 2008-09-24 2014-02-12 キヤノン株式会社 情報処理装置及び方法
JP2011248636A (ja) 2010-05-27 2011-12-08 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2012113621A (ja) 2010-11-26 2012-06-14 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP5777390B2 (ja) 2011-04-20 2015-09-09 キヤノン株式会社 情報処理方法及び装置、パターン識別方法及び装置
JP5746550B2 (ja) 2011-04-25 2015-07-08 キヤノン株式会社 画像処理装置、画像処理方法
JP5906071B2 (ja) 2011-12-01 2016-04-20 キヤノン株式会社 情報処理方法、情報処理装置、および記憶媒体
US10515153B2 (en) * 2013-05-16 2019-12-24 Educational Testing Service Systems and methods for automatically assessing constructed recommendations based on sentiment and specificity measures
US9710729B2 (en) * 2014-09-04 2017-07-18 Xerox Corporation Domain adaptation for image classification with class priors
US20170220951A1 (en) * 2016-02-02 2017-08-03 Xerox Corporation Adapting multiple source classifiers in a target domain
US9805276B2 (en) * 2016-03-31 2017-10-31 Toyota Jidosha Kabushiki Kaisha Generating real-time driver familiarity index for fine-grained dynamic road scenes

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ARTHUR GRETTON, ET AL.: "Covariate Shift by Kernel Mean Matching", BOOK CHAPTER VERIFIED ONLINE <WWW.CS.CMU.EDU>, JPN7020001962, 31 December 2009 (2009-12-31), ISSN: 0004403991 *
ERHENG ZHONG, ET AL.: "Cross Validation Framework to Choose amongst Models and Datasets for Transfer Learning", JOINT EUROPEAN CONFERENCE ON MACHINE LEARNING AND KNOWLEDGE DISCOVERY IN DATABASES, JPN6020024739, 31 December 2010 (2010-12-31), pages 547 - 562, ISSN: 0004403992 *
YUN-QIAN MIAO, ET AL.: "Cross-Domain Facial Expression Recognition Using Supervised Kernel Mean Matching", 2012 11TH INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND APPLICATIONS, JPN6020024734, 15 December 2012 (2012-12-15), pages 326 - 332, XP032302742, ISSN: 0004403989, DOI: 10.1109/ICMLA.2012.178 *
杉山 将: "確率分布間の距離推定 :機械学習分野における最新動向", 日本応用数理学会論文誌, vol. Vol.23,No.3, 2013, JPN6020024736, 25 September 2013 (2013-09-25), pages 439 - 452, ISSN: 0004403990 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019092764A (ja) * 2017-11-22 2019-06-20 株式会社大一商会 遊技機
JP2019092765A (ja) * 2017-11-22 2019-06-20 株式会社大一商会 遊技機
US11929174B2 (en) 2018-02-28 2024-03-12 Fujifilm Corporation Machine learning method and apparatus, program, learned model, and discrimination apparatus using multilayer neural network
US12073643B2 (en) 2018-11-29 2024-08-27 Nec Corporation Machine learning apparatus, machine learning method, and computer-readable recording medium
JP2020126468A (ja) * 2019-02-05 2020-08-20 富士通株式会社 学習方法、学習プログラムおよび学習装置
JP7172677B2 (ja) 2019-02-05 2022-11-16 富士通株式会社 学習方法、学習プログラムおよび学習装置
US12039772B2 (en) 2019-04-05 2024-07-16 Nec Corporation Processing system, estimation apparatus, processing method, and non-transitory storage medium
JPWO2020202572A1 (ja) * 2019-04-05 2020-10-08
JP7124957B2 (ja) 2019-04-05 2022-08-24 日本電気株式会社 画像処理システム、推定装置、処理方法及びプログラム
WO2020202572A1 (ja) * 2019-04-05 2020-10-08 日本電気株式会社 画像処理システム、推定装置、処理方法及びプログラム
JP6991412B2 (ja) 2019-10-16 2022-02-03 三菱電機株式会社 検索装置、検索方法、検索プログラム及び学習モデル検索システム
WO2021074990A1 (ja) * 2019-10-16 2021-04-22 三菱電機株式会社 検索装置、検索方法、検索プログラム及び学習モデル検索システム
JPWO2021074990A1 (ja) * 2019-10-16 2021-04-22
JPWO2021095101A1 (ja) * 2019-11-11 2021-05-20
WO2021095101A1 (ja) * 2019-11-11 2021-05-20 日本電信電話株式会社 学習装置、検知装置、学習方法、及び異常検知方法
JP7338698B2 (ja) 2019-11-11 2023-09-05 日本電信電話株式会社 学習装置、検知装置、学習方法、及び異常検知方法
JP7484318B2 (ja) 2020-03-27 2024-05-16 富士フイルムビジネスイノベーション株式会社 学習装置及び学習プログラム
US11754985B2 (en) 2020-04-20 2023-09-12 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method and computer program product
JP7062747B1 (ja) 2020-12-25 2022-05-06 楽天グループ株式会社 情報処理装置、情報処理方法およびプログラム
JP7277645B2 (ja) 2020-12-25 2023-05-19 楽天グループ株式会社 情報処理装置、情報処理方法およびプログラム
JP2022103190A (ja) * 2020-12-25 2022-07-07 楽天グループ株式会社 情報処理装置、情報処理方法およびプログラム
JP2022102095A (ja) * 2020-12-25 2022-07-07 楽天グループ株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US11544628B2 (en) 2023-01-03
EP3258425A1 (en) 2017-12-20
CN107527063B (zh) 2023-01-17
JP6884517B2 (ja) 2021-06-09
US20170364826A1 (en) 2017-12-21
EP3258425B1 (en) 2022-04-27
CN107527063A (zh) 2017-12-29

Similar Documents

Publication Publication Date Title
JP6884517B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10896351B2 (en) Active machine learning for training an event classification
US11023822B2 (en) Classifier generation apparatus for generating a classifier identifying whether input data is included in a specific category based on machine learning, classifier generation method, and storage medium
US12002259B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
Khan et al. Situation recognition using image moments and recurrent neural networks
JP2019087181A (ja) 画像検査装置および方法
JP6565600B2 (ja) アテンション検出装置及びアテンション検出方法
US10331968B2 (en) One shot color calibrated metric learning for object re-identification
Aditya et al. Batik classification using neural network with gray level co-occurence matrix and statistical color feature extraction
CN111241924B (zh) 基于尺度估计的人脸检测及对齐方法、装置、存储介质
US11928813B2 (en) Method and system for detecting change to structure by using drone
KR20130058286A (ko) 보행자 검출기의 보행자 검출 방법
US20230115987A1 (en) Data adjustment system, data adjustment device, data adjustment method, terminal device, and information processing apparatus
US20200034649A1 (en) Object tracking system, intelligent imaging device, object feature extraction device, and object feature extraction method
CN116740652A (zh) 一种基于神经网络模型的锈斑面积扩大的监测方法与系统
CN111444816A (zh) 一种基于Faster RCNN的多尺度密集行人检测方法
US11507780B2 (en) Image analysis device, image analysis method, and image analysis program
US10580127B2 (en) Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and storage medium
JP2016224821A (ja) 学習装置、学習装置の制御方法及びプログラム
Mahmood Defocus Blur Segmentation Using Genetic Programming and Adaptive Threshold.
Vijayarani et al. An efficient algorithm for facial image classification
Goyal et al. Moving Object Detection in Video Streaming Using Improved DNN Algorithm
Jabaar et al. Detection of Spliced Images in Social Media Application
Foo et al. A Fast-Compressive Tracking Integrated with Differential Evolution to Optimize Object Tracking Performance
JP7221892B2 (ja) 学習装置、学習方法、および学習プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190610

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210305

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210316

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210512

R151 Written notification of patent or utility model registration

Ref document number: 6884517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151