JP2017224156A - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2017224156A JP2017224156A JP2016119128A JP2016119128A JP2017224156A JP 2017224156 A JP2017224156 A JP 2017224156A JP 2016119128 A JP2016119128 A JP 2016119128A JP 2016119128 A JP2016119128 A JP 2016119128A JP 2017224156 A JP2017224156 A JP 2017224156A
- Authority
- JP
- Japan
- Prior art keywords
- learning data
- task
- data
- original
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/90335—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】目標とするタスクである第1のタスクの第1のカテゴリに属する複数の学習データである目標タスク学習データに係る第1の分布と、第1のタスクとは異なる第2のタスクの第1のカテゴリに属する学習データである元タスク学習データの第1のカテゴリに属する複数の学習データに係る第2の分布と、の差異に基づいて、元タスク学習データを変換するための変換パラメータを調整し、調整された変換パラメータに基づいて、元タスク学習データを変換し、変換された元タスク学習データと、目標タスク学習データとに基づいて、第1のタスクに係る識別器を生成する。
【選択図】図3
Description
そこで本発明は、転移学習を用いて、より高精度に識別可能な識別器を生成できるようにすることを目的とする。
本実施形態では、情報処理装置10がカメラ16により撮影された画像に基づいて、カメラ16の監視対象であるエリア内の異常を検出する識別器を生成する方法について説明する。以下では、異常が発生していない状況、つまり、正常な状況を示すカテゴリを、特定カテゴリ(第1のカテゴリ)とし、何らかの異常が発生している状況を示すカテゴリを、非特定カテゴリ(第2のカテゴリ)とする。また、以下では、特定カテゴリのデータ、つまり、正常な状況で監視カメラにより撮影された画像を正常データ、非特定カテゴリのデータ、つまり、何らかの異常が発生している状況で監視カメラにより撮影された画像を異常データとする。
また、本実施形態では、情報処理装置10は、元タスクの学習データの異常データを変換して目標タスクの学習データに追加する。これにより、情報処理装置10は、目標タスクの学習データには存在しないが、元タスクの学習データには存在するようなタイプの異常データを、擬似的に目標タスクの学習データとして追加することができる。そのため、情報処理装置10は、目標タスクの学習データには存在しなかったタイプの異常データに対しても、正しく異常であると判定できる識別器を生成できる可能性を高めることができる。
CPU11は、情報処理装置10の処理を制御する中央演算装置である。主記憶装置12は、CPU11のワークエリアやデータの一時保存領域として利用される記憶装置である。補助記憶装置13は、各種プログラムや各種設定データ、識別器の生成に用いられる学習データ等を記憶する記憶装置である。入出力I/F14は、カメラ16等の外部の装置との間での情報の入出力に利用されるインターフェースである。本実施形態のカメラ16は、設定された監視エリアを撮影し、撮影した画像のデータを、情報処理装置10に送信する監視カメラである。
CPU11が、補助記憶装置13等に記憶されたプログラムに基づき処理を実行することによって、図2、4、6、9、11で後述する情報処理装置10の機能、及び図3、5、7、10、12で後述するフローチャートの処理が実現される。
情報処理装置10は、目標タスク学習データ入力部20、元タスク学習データ入力部21、目標タスク学習データ保持部20DB、元タスク学習データ保持部21DB、特徴抽出部22を含む。また、情報処理装置10は、目標タスク学習パターン保持部22−0DB、元タスク学習パターン保持部22−1DB、変換規則算出部23、変換処理部24、識別器生成部25、識別器データ出力部26を含む。
目標タスク学習データ入力部20は、カメラ16、補助記憶装置13等から目標タスクの学習データを取得する。元タスク学習データ入力部21は、補助記憶装置13等から予め記憶されている元タスクの学習データを取得する。
特徴抽出部22は、目標タスク学習データ保持部20DB、元タスク学習データ保持部21DBに保持されている学習データから特徴抽出を行う。目標タスク学習パターン保持部22−0DBは、目標タスク学習データ保持部20DBに保持されている学習データから特徴抽出部22により抽出された特徴ベクトルのデータを保持するデータベースであり、補助記憶装置13に実装される。元タスク学習パターン保持部22−1DBは、元タスク学習データ保持部21DBに保持されている学習データから特徴抽出部22により抽出された特徴量のデータを保持するデータベースであり、補助記憶装置13に実装される。
変換規則算出部23は、目標タスク学習パターン保持部22−0DB、元タスク学習パターン保持部22−1DBに保持される特徴量のデータに基づいて、元タスクの学習データの特徴量を、目標タスクの学習データの特徴量に変換するための変換規則を算出する。
識別器生成部25は、目標タスク学習パターン保持部22−0DBに保持されている特徴量のデータと、変換処理部24により変換された特徴量のデータと、に基づいて、識別器を生成する。
識別器データ出力部26は、識別器生成部25により生成された識別器のデータを出力する。例えば、識別器データ出力部26は、識別器のデータを、補助記憶装置13に記録することにより出力する。
S30において、目標タスク学習データ入力部20は、監視エリアにおける異常を検出するための識別器の生成に用いられる学習データとして、監視エリアの撮影画像のデータを、カメラ16から取得する。また、目標タスク学習データ入力部20は、補助記憶装置13に予め記憶されている監視エリアの撮影画像のデータを、補助記憶装置13から取得することとしてもよい。本実施形態では、目標タスク学習データ入力部20は、学習データとして、Nt個の正常データと、Mt個の異常データとを取得する。そして、目標タスク学習データ入力部20は、取得した学習データを、目標タスク学習データ保持部20DBに記録する。
S32において、特徴抽出部22は、S30、及び、S31において取得されたそれぞれのデータに対して特徴抽出を行う。本実施形態では、S30、S31で取得されたデータが画像であるため、特徴抽出部22は、画像を対象とした特徴抽出として、特許文献2に記載の立体高次局所自己相関特徴(CHLAC)の抽出を行う。これにより、特徴抽出部22は、1つのデータに対して、251次元の特徴ベクトルを抽出する。
したがって、本実施形態では、目標正常パターンとしてNt個の251次元ベクトルと、目標異常パターンとしてMt個の251次元ベクトルとが、目標タスク学習パターン保持部220DBに記録される。そして、元正常パターンとしてNs個の251次元ベクトルと、元異常パターンとしてMs個の251次元ベクトルとが、元タスク学習パターン保持部221DBに記録されることになる。本実施形態では、特徴抽出部22は、S32で、特徴量としてCHLACの抽出を行うこととしたが、他の特徴量を抽出してもよい。例えば、特徴抽出部22は、非特許文献2に記載の、Motion Boundary Histogram(MBH)特徴量等を抽出しても構わない。
本実施形態では、変換規則算出部23は、行列Aの各成分とバイアスベクトルbとの各要素の値を、目標正常パターンの分布と線形変換により変換された後の元正常パターンの分布との差異を最も小さくするようにすることで求める。より具体的には、変換規則算出部23は、目標正常パターンの分布と、変換された後の元正常パターンの分布との間のL2距離の推定値を最小化するような、行列Aの各成分、及びバイアスベクトルbの各要素の値を求める。つまり、それぞれのデータの密度分布の差異が最小化するように、線形変換の変換パラメータを求めることになる。本実施形態では、変換規則算出部23は、目標正常パターンの分布と、変換された後の元正常パターンの分布との間のL2距離の推定値を、非特許文献3に記載の推定方法により求める。また、変換規則算出部23は、目標正常パターンの分布と、変換された後の元正常パターンの分布との間のL2距離の推定値が設定された閾値よりも小さくなるような任意の値で、行列Aの各成分、及びバイアスベクトルbの各要素の値を求めることとしてもよい。
目標正常パターンの分布をχ、行列A、及び、バイアスベクトルbによる変換された後の元正常パターンの分布をχ'とした時、L2距離の推定値LII(χ,χ')は、以下の式1により求められる。
、ckは、k≦Ntの場合、ck=xkとなり、k>Ntの場合、ck=xk−Nt'となる値である。そして、σは、ガウス基底関数のパラメータで、λは、正則化パラメータ、Iは、(Nt+Ns)次の単位行列である。
本実施形態では、変換規則算出部23は、行列Aとバイアスベクトルbとの各要素に適当な初期値を設定(例えば、擬似乱数等に基づいて求まる値を設定)する。そして、変換規則算出部23は、式1に示したL2距離の推定値を表す式を行列Aやバイアスベクトルbに対応するパラメータで微分した式に基づいて、行列Aやバイアスベクトルbに対応するパラメータを更新していく。即ち、変換規則算出部23は、勾配法により、行列Aとバイアスベクトルbとを求める。式1で求まるL2距離の推定値を、変換のパラメータである行列Aの成分aで微分した式は、以下の式5のように表される。
変換規則算出部23は、行列A及びバイアスベクトルbの更新を、L2距離の推定値の減少量、及び、学習係数ηが、共に設定された閾値(例えば10-6等)よりも小さくなるまで繰り返し実行する。これにより、変換規則算出部23は、変換のための変換パラメータである行列A、及び、バイアスベクトルbの値を調整する。変換規則算出部23により求められた変換のためのパラメータ(本実施形態では、行列A及びバイアスベクトルb)を、変換パラメータ23dとする。
以上のように、本実施形態では、変換規則算出部23は、目標タスク学習データの特定カテゴリデータの分布と、変換後の元タスク学習データの特定カテゴリデータの分布と、の差異に基づいて変換規則を求める。
S33における勾配法は、L2距離の局所最小化であるため、最終的な結果は、変換パラメータの初期値に依存する。そのため、予め設定されている行列A及びバイアスベクトルbの複数(例えば3つ、4つ)の初期値について、変換規則算出部23は、これらの初期値毎にS33の処理を行い、以下の処理を行うこととしてもよい。即ち、変換規則算出部23は、これらの初期値毎に実行した処理の結果、最終的なL2距離の推定値が、最も小さかった場合の変換パラメータを採用することとしてもよい。また、変換規則算出部23は、ガウス基底関数のパラメータσ、及び、正則化パラメータλに関しては、交差検定により、検定データに対するL2距離の推定値の平均値が、最も小さくなるようなパラメータを設定すればよい。S33の処理は、変換パラメータの値を調整する調整処理の一例である。
本実施形態では、識別器生成部25は、S35で識別器としてSVMの学習を行うが、例えば、ロジスティック回帰等、その他の識別器の生成を行うこととしてもよい。また、識別器生成部25は、例えばAdaBoostのような、各パターンに対して重みを設定して学習を行える識別器の生成を行う場合、変換した元異常パターンのようなデータの初期の重みを目標異常パターンの重みよりも小さくして学習してもよい。この場合、識別器生成部25は、S33で求められた、最終的なL2距離の推定値が大きいほど、この重みを小さくするように設定すると好適である。
上記のように、この変換規則は、特定のデータに依存せずタスク間の違いを吸収するような変換規則である。そのため、例えば、この変換規則を用いて元タスクの異常データを変換することにより、変換した異常データは、目標タスクの異常データとして利用できる可能性が高くなる。即ち、情報処理装置10は、変換後の学習データが不適切となる可能性を低減できることになる。そのため、情報処理装置10は、学習に用いることができるデータが少ない場合でも、このように他のタスクのデータを変換して用いることにより、擬似的に多くのデータを用いて処理を行うことができる。そのため、本実施形態の処理により生成された識別器は、少ない学習データのみを用いた場合と比較して、例えば、目標タスク学習データには存在しないが、元タスク学習データには存在するようなタイプの異常データを検出できる可能性が高くなる。即ち、情報処理装置10は、識別器の識別精度をより向上させることができる。
本実施形態では、情報処理装置10は、1つの元タスク学習データのみを利用したが、複数の元タスク学習データを利用することもできる。より具体的には、情報処理装置10は、各元タスク学習データについて、S31〜S33の処理を行い、それぞれに対応した変換規則を求める。そして、情報処理装置10は、各元タスクに対応した変換規則により、元タスク学習データを変換して、変換したデータを識別器の生成に用いるようにすればよい。また、本実施形態では、目標タスク学習データに異常データが含まれる場合について説明したが、目標タスク学習データに異常データが含まれないこととしてもよい。その場合、情報処理装置10は、元タスクの異常データを変換したデータを、疑似的に、目標タスクの異常データとして、識別器の生成を行う。
図4は、情報処理装置10におけるパターンの識別を行うための機能構成の一例を示すブロック図である。図5は、パターン識別処理の一例を示すフローチャートである。以下、図4、及び、図5を用いて、本実施形態のパターン識別処理について説明する。
情報処理装置10は、識別器データ入力部40、データ入力部41、特徴抽出部42、特定カテゴリ度算出部43、及び識別結果出力部44を含む。
識別器データ入力部40は、図3の処理により出力された識別器のデータを取得する。データ入力部41は、カメラ16から撮影エリアの撮影画像のデータを取得する。特徴抽出部42は、データ入力部41により取得されたデータから特徴量を抽出する。特定カテゴリ度算出部53は、特徴抽出部42により抽出された特徴量に基づいて、データ入力部41により取得されたデータの特定カテゴリらしさを示す特定カテゴリ度を算出する。識別結果出力部54は、特定カテゴリ度算出部53により算出された特定カテゴリ度に基づいて、データ入力部41により取得されたデータが特定カテゴリに属するか否かを判定し、判定結果を出力する。
S50において、識別器データ入力部40は、図3の処理で生成された識別器のデータを、補助記憶装置13等から取得する処理を行う。本実施形態では、識別器データ入力部40は、SVMのサポートベクターと、それぞれに対応する係数、及び、閾値の情報を取得する。S50で取得された識別器データは、特定カテゴリ度算出部43により用いられるため、識別器データ入力部40は、取得した識別器のデータを、特定カテゴリ度算出部43に送信する。また、識別器の入力データが特定カテゴリか非特定カテゴリかの判定に利用される閾値の情報は、識別結果出力部44により用いられる。そのため、識別器データ入力部40は、このデータを、識別結果出力部44に送信する。
S52において、特徴抽出部42は、S51で取得した撮影画像のデータに対し、S32の処理と同様にCHLACの抽出を行う。特徴抽出部42は、S52の処理により、S51で取得された画像データに対する特徴抽出を行い、251次元の特徴ベクトルを得ることになる。
S53において、特定カテゴリ度算出部43は、S50で取得された識別器のデータ、及び、S52で抽出された特徴ベクトルを用い、以下の式8により特定カテゴリ度の算出を行う。
51次元のベクトルである。α(SV)iは、i番目のサポートベクターに対応する係数で、
k(x、x')は、SVMの学習時に用いたカーネル関数(例えばガウスカーネル等)である。S53で求める特定カテゴリ度は、本実施形態では、正常らしさを表した尺度となる。
本実施形態では、情報処理装置10がカメラ16で撮影された画像における異常を検出する例を示した。情報処理装置10は、例えば、監視目的でないカメラからの画像を入力として、特にイベントが発生していない状況を撮影したデータを、本実施形態の正常データと置き換え、特定のイベントが発生したか否かを検出するといったことが可能になる。このように、情報処理装置10は、正常、異常の判定だけでなく、その他のパターン識別処理も可能である。
また、情報処理装置10は、目標タスクにおける負例の学習データを十分に確保できない場合でも、負例の学習データが十分な量だけ存在する元タスクの学習データから元異常パターンを変換し、識別器の生成に利用する。これにより、情報処理装置10は、識別器が目標タスクにおける負例の学習データにオーバーフィットすることを防止することができる。
また、情報処理装置10は、識別器の生成に、元タスクの負例の学習データのみを変換して利用し、元タスクの正例の学習データを利用しないようにしている。これにより、情報処理装置10は、識別器が正常と識別する範囲を拡大させることなく、異常を正常と識別するような見逃しが発生する確率を低減できる。
本実施形態では、実施形態1の変形として、複雑なテクスチャパターンを有する製造物の表面を撮影した画像から、その表面上の欠陥を、異常パターンとして検出する際に用いる識別器の生成方法を説明する。本実施形態では、情報処理装置10は、複雑なテクスチャパターンを有する製造物として、表面に粗し加工を施したゴム板の表面上の欠陥を検出する識別器の生成を行うこととする。即ち、本実施形態の目標タスクは、表面に粗し加工を施したゴム板の表面上の欠陥を検出することである。しかし、情報処理装置10は、その他の物の表面上の欠陥を検出する識別器の生成を行うこととしてもよい。
本実施形態の情報処理装置10のハードウェア構成は、実施形態1と同様であるとする。また、本実施形態のカメラ16は、製造物の表面を撮影し、製造物の品質管理のための画像を撮影するカメラである。
情報処理装置10は、目標タスク学習データ入力部70、目標タスク学習データ保持部70DB、類似タスク探索部71−0、従来タスク学習データ保持部71−0DB、元タスク学習データ入力部71−1、元タスク学習データ保持部71−1DBを含む。また、情報処理装置10は、特徴抽出部72、目標タスク学習パターン保持部72−0DB、元タスク学習パターン保持部72−1DB、変換規則算出部73、変換処理部74、特徴選択部75、識別器生成部76、識別器データ出力部77を含む。
目標タスク学習データ保持部70DBは、目標タスク学習データ入力部70により取得された学習データを保持するデータベースであり、補助記憶装置13に実装される。
類似タスク探索部71−0は、学習データが目標タスクと類似したタスクを、複数の従来タスク学習データのタスクから探索する。
従来タスク学習データ保持部71−0DBは、従来タスク学習データを保持するデータベースであり、補助記憶装置13に実装される。なお、従来タスク学習データについては後述する。
元タスク学習データ入力部71−1は、従来タスク学習データ保持部71−0DB内の複数の従来タスク学習データの内、類似タスク探索部71−0により探索された学習データを元タスク学習データとして取得する。
元タスク学習データ保持部71−1DBは、元タスク学習データ入力部71−2により取得された元タスク学習データを保持するデータベースであり、補助記憶装置13に実装される。
特徴抽出部72は、目標タスク学習データ保持部70DB、元タスク学習データ保持部71−1DBに保持されている学習データから特徴抽出を行う。
目標タスク学習パターン保持部72−0DBは、目標タスク学習データ保持部70DBに保持されている学習データから特徴抽出部72により抽出された特徴量のデータを保持するデータベースであり、補助記憶装置13に実装される。
元タスク学習パターン保持部72−1DBは、元タスク学習データ保持部71−1DBに保持されている学習データから特徴抽出部72により抽出された特徴量のデータを保持するデータベースであり、補助記憶装置13に実装される。
変換処理部74は、元タスク学習パターン保持部72−1DBに保持される特徴量のデータを、変換規則算出部73により算出された変換規則に基づいて、目標タスクの学習データの特徴量に変換する。
特徴選択部75は、変換処理部74により変換された特徴量、目標タスク学習データ保持部70DBに含まれる特徴量のうち、識別器の生成に用いる特徴量を選択する。
識別器生成部76は、特徴選択部75により選択された特徴量に基づいて、識別器の生成を行う。
識別器データ出力部77は、識別器生成部25により生成された識別器のデータを出力する。例えば、識別器データ出力部77は、識別器のデータを、補助記憶装置13に記憶することにより、出力する。
S80において、目標タスク学習データ入力部70は、カメラ16、補助記憶装置13等から、識別器の生成に用いられる、目標タスクの学習データを取得する。本実施形態では、目標タスク学習データ入力部70は、目標タスクの学習データとして、図7に示したようなゴム板の表面が撮影された画像データを複数取得する。本実施形態では、目標タスク学習データ入力部70は、S80で、図7(a)〜(e)のような、欠陥の無いNt枚の画像データ(正常データ)と、図7(f)〜(j)のような、何らか欠陥が存在するMt枚の画像データ(異常データ)を取得する。目標タスク学習データ入力部70は、取得したデータを、目標タスク学習データ保持部70DBに記録する。本実施形態では、Mt枚の異常データが取得されるが、Mt=0であってもよい。
本実施形態では、類似タスク探索部71−0は、正常データの画素値の分散が類似しているタスクを探索するが、例えば、Co−occurrence Matrixに基づくテクスチャ特徴量が類似している学習データのタスクを探索する等でもよい。ただし、正常データ間の類似性に基づいて、類似するタスクを探索する方が好適である。また、類似タスク探索部71−0は、画像データの情報だけでなく、例えば、製造物の素材情報や、製造工程の情報を別途取得し、その情報を利用して、類似するタスクを探索する等してもよい。このように、本実施形態では、類似タスク探索部71−0は、複数の従来タスク学習データの中から、学習データの類似性に基づき、目標タスクに類似する従来タスクを探索する。しかし、類似タスク探索部71−0は、例えば、目標タスクが、製造物の製造工程変更に対応するものである場合等は、製造工程変更前のデータを利用するようにしてもよい。
S84において、変換処理部74は、S34と同様、特徴抽出ステップ52で抽出したMs個の元異常パターンを変換する処理を行う。S84で変換された元異常パターンは、実施形態1とは異なり、特徴選択部75による特徴選択処理に用いられるため、変換処理部74は、変換した元異常パターンを、特徴選択部75に送信することになる。
S85において、特徴選択部75は、Nt個の目標正常パターン、Mt個の目標異常パターン、及び、S84で変換されたMs個の元異常パターンを用いて、特徴選択の処理を行う。本実施形態では、特徴選択部75は、特徴選択の方法として、特許文献3に記載の特徴選択方法を用いる。特徴選択部75は、この処理により、各パターンの要素であるd個の特徴量の中から、有効であると考えられるd'個(d'<d)の特徴量を選択する。特徴選択部75は、選択したd'個の特徴量が、どの特徴量であるかを示す情報を、識別器生成部76に送信する。このように、情報処理装置10は、識別器の生成のみでなく、特徴選択処理といった、その他の情報処理も可能である。また、上記のように、特徴選択の処理を行い、特徴ベクトルの要素のうち、選択された要素のみを用いて識別器の生成を行う処理も可能である。
S87において、識別器データ出力部77は、S86で求められた複数のサポートベクターと、それに対応する係数、及び、閾値のデータを出力して、図8の処理を終了する。例えば、識別器データ出力部77は、S86で求められた複数のサポートベクターと、それに対応する係数、及び、閾値のデータを補助記憶装置13に記録することで出力する。
図9は、情報処理装置10においてパターン識別処理を行うための機能構成等の一例を示すブロック図である。図10は、パターン識別処理の一例を示すフローチャートである。以下、図9、及び、図10を用いて、本実施形態のパターン識別処理について説明する。
情報処理装置10は、識別器データ入力部90、データ入力部91、画像切り出し部92、特徴抽出部93、特定カテゴリ度算出部94、及び識別結果出力部96を含む。
識別器データ入力部90は、図8の処理により出力された識別器のデータを取得する。データ入力部91は、カメラ16からゴム板の表面の撮影画像のデータを取得する。画像切り出し部92は、データ入力部91により取得されたデータに対応する画像の一部を切り出し、切り出した画像のデータを出力する。特徴抽出部93は、画像切り出し部92により出力されたデータから特徴量を抽出する。特定カテゴリ度算出部94は、特徴抽出部93により抽出された特徴量に基づいて、データ入力部91により取得されたデータの特定カテゴリらしさを示す特定カテゴリ度を算出する。識別結果出力部96は、特定カテゴリ度算出部94により算出された特定カテゴリ度に基づいて、データ入力部91により取得されたデータが特定カテゴリに属するか否かを判定し、判定結果を出力する。
S100において、識別器データ入力部90は、図8の処理により出力された識別器のデータである複数のサポートベクターと、それぞれに対応する係数、及び、閾値の情報を、補助記憶装置13等から取得する。識別器データ入力部90は、複数のサポートベクターと対応する係数との情報を、特定カテゴリ度算出部94に、閾値の情報を識別結果出力部96に送信する。
S101において、データ入力部91は、異常が存在するか否かを判定する対象である製造物(ゴム板)の表面を撮影した画像を、カメラ16から取得する。本実施形態では、データ入力部91は、カメラ16によりゴム板の表面が撮影された256×256画素のモノクロ画像を取得する処理を行う。
S102において、画像切り出し部92は、S101で取得された画像から、目標タスク学習データの画像サイズと同じ、128×128画素の画像切り出しを行う。画像切り出し部92は、切り出した画像を、特徴抽出部93に送信する。本実施形態では、画像切り出し部92は、S101で取得される画像が256×256画素の画像であるので、画像を128×128画素のサイズの4つの領域に分けて切り出す。情報処理装置10は、切り出されたそれぞれの画像について、異常が存在するか否かの判定を行う。
S104において、特定カテゴリ度算出部94は、S103で抽出されたd'個の特徴量に対し、式8に示したものと同様の式を用いて、特定カテゴリ度の算出を行う。この特定カテゴリ度は、正常らしさを表した数値であり、この値が低い程、異常である可能性が高いことになる。
S105において、特定カテゴリ度算出部94は、S104で算出した特定カテゴリ度が、閾値以下であるか否かに基づいて、異常があるか否かの判定を行う。特定カテゴリ度算出部94は、異常があると判定した場合は、S106の処理に進む。特定カテゴリ度算出部94は、異常が無いと判定した場合、S102eの処理に進む。
S106において、識別結果出力部96は、S105により異常があると判定された場合は、入力された画像に異常が存在するという判定結果を出力し、そうでなければ、正常であるという判定結果を出力し、図10の処理を終了する。例えば、識別結果出力部96は、異常があるか否かの判定結果を示す情報を、情報処理装置10の不図示の表示部に表示することで出力する。
本実施形態では、実施形態1の変形として、監視カメラの動画像に基づいて、監視エリア内の異常を検出するパターン識別方法における、識別器の生成を行う処理を説明する。実施形態1では、情報処理装置10は、変換規則を求める際に、異なるタスクの正常データの分布間のL2距離の推定値を小さくするという基準で変換規則を求めた。これに対し、本実施形態では、情報処理装置10は、分布間の相対ピアソン距離の推定値を小さくするという基準で変換規則を求める。
本実施形態の情報処理装置10のハードウェア構成及び機能構成は、実施形態1と同様であるとする。
図2、及び、図3を用いて、本実施形態の識別器生成処理について説明する。本実施形態では、実施形態1と異なる部分について説明する。
S30〜S32の処理により、目標正常パターンとして、Nt個の251次元ベクトル、目標異常パターンとして、Mt個の251次元ベクトルが、目標タスク学習パターン保持部220DBに記録される。そして、元正常パターンとして、Ns個の251次元ベクトル、元異常パターンとして、Ms個の251次元ベクトルが、元タスク学習パターン保持部221DBに記録されることになる。
S33において、変換規則算出部23は、それぞれの学習データの特定カテゴリデータ、即ち、複数の目標正常パターン、及び、複数の元正常パターンを用いて、元異常パターンを識別器の生成に用いることができるように変換するための変換規則を求める。本実施形態でも、実施形態1と同様、ここでの変換として線形変換を用いる。ただし、変換規則算出部23は、実施形態1では、分布間のL2距離の推定値を局所最小化するような変換を求めたが、本実施形態では、非特許文献4に記載の、分布間の相対ピアソン距離の推定値を局所最小化するような変換を求める。
実施形態1と同様、目標正常パターンの分布をχ、行列A、及び、バイアスベクトルbによる変換された後の元正常パターンの分布をχ'とした場合、相対ピアソン距離の推定値rPE(χ,χ')は、以下の式9により求められる。
元正常パターンである。式9のθは、実施形態1で示した式4におけるθと同じ定義であるが、h、及び、Hが異なるため、Nt次元のベクトルとなる。σは、ガウス基底関数のパラメータで、λは、正則化パラメータ、Iは、Nt次の単位行列である。また、式11内のβは、0≦β<1の分布混合パラメータで、例えば、β=0.5等となる。
本実施形態でも、実施形態1と同様、行列Aとバイアスベクトルbとに適当な初期値を設定し、式9に示した相対ピアソン距離の推定値を表す式を、行列Aやバイアスベクトルbに対応するパラメータで微分した式に基づいて更新していく。式9に示した相対ピアソン距離の推定値を、変換のパラメータaで微分した式は、以下の式12のように表される。
このように、情報処理装置10は、分布間のL2距離の推定値でなく、分布間の相対ピアソン距離の推定値を局所最小化することでも、学習データの変換に用いられる変換パラメータを算出できる。
本実施形態の処理により、情報処理装置10は、分布間の相対ピアソン距離を近づけるような変換を行うことが好適である場合に対応することができる。
本実施形態では、人物の顔の画像を入力し、その画像内の人物が、予め定めた特定の人物であるか否かを識別する方法において用いる識別器の生成方法を示す。本実施形態では、対象である特定の人物に似て非なる人物の顔の画像が存在しない場合でも、識別器が似て非なる人物の顔の画像を、誤って特定の人物であると判定する可能性を低減させるように、識別器の生成を行う。
本実施形態の情報処理装置10のハードウェア構成は、実施形態1と同様であるとする。
情報処理装置10は、目標タスク学習データ入力部110、元タスク学習データ入力部111、目標タスク学習データ保持部110DB、元タスク学習データ保持部111DBを含む。情報処理装置10は、目標タスク学習データ領域抽出部112−0、目標タスク学習パターン保持部112−0DB、元タスク学習データ領域抽出部112−1、元タスク学習パターン保持部112−1DB、変換規則算出部113、変換処理部114を含む。また、情報処理装置10は、識別器生成部115、識別器データ出力部116を含む。
目標タスク学習データ入力部110は、カメラ16、補助記憶装置13等から目標タスクの学習データを取得する。元タスク学習データ入力部111は、カメラ16、補助記憶装置13等から元タスクの学習データを取得する。
目標タスク学習データ領域抽出部112−0は、目標タスク学習データ入力部110により取得された画像から、人物の顔を検出し、検出した顔のうち、設定された領域を抽出し、抽出した領域から特徴量を取得する。元タスク学習データ領域抽出部112−1は、元タスク学習データ入力部111により取得された画像から、人物の顔を検出し、検出した顔のうち、設定された領域を抽出し、抽出した領域から特徴量を取得する。
目標タスク学習パターン保持部112−0DBは、目標タスク学習データ領域抽出部112−0により抽出された領域から取得された特徴量の情報を記憶するデータベースであり、補助記憶装置13に実装される。元タスク学習パターン保持部112−1DBは、元タスク学習データ領域抽出部112−1により抽出された領域から取得された特徴量の情報を記憶するデータベースであり、補助記憶装置13に実装される。
変換規則算出部23は、目標タスク学習パターン保持部112−0DB、元タスク学習パターン保持部112−1DBに保持される特徴量のデータに基づいて、元タスクの学習データの特徴量を目標タスクの学習データの特徴量に変換するための変換規則を算出する。
識別器生成部115は、目標タスク学習パターン保持部112−0DBに保持されている特徴量のデータと、変換処理部114により変換された特徴量のデータと、に基づいて、識別器の生成を行う。
識別器データ出力部116は、識別器生成部115により生成された識別器のデータを出力する。例えば、識別器データ出力部116は、識別器のデータを、補助記憶装置13に記録することにより出力する。
S120において、目標タスク学習データ入力部110は、識別器の生成に用いる複数の学習データをカメラ16、補助記憶装置13等から取得する。本実施形態では、目標タスク学習データ入力部110は、複数の学習データとして、複数の人物の顔画像を取得する。より具体的には、本実施形態では、目標タスク学習データ入力部110は、人物の顔の領域が切り出された40×40画素のグレースケール画像を取得する。以下では、人物の顔の領域が切り出された40×40画素のグレースケール画像を、顔画像とする。目標タスク学習データ入力部110は、目標タスク学習データとして、予め定めた特定の人物(人物Aとする)の顔画像と、人物A以外の任意の人物の顔画像とを取得する。ただし、この人物A以外の人物の顔画像の中に、人物Aの顔画像と類似するが人物Aとは別人の顔画像は存在しないものとする。目標タスク学習データ入力部110は、取得した顔画像のデータを、目標タスク学習データ保持部110DBに記録される。
S121において、元タスク学習データ入力部111は、人物Aとは異なる、ある人物(人物Bとする)と、人物Bと類似する人物(人物B'とする)と、のそれぞれの複数の顔画像を、カメラ16、補助記憶装置13等から取得する。本実施形態では、情報処理装置10は、S121で取得されたデータを、元タスク学習用データとして用いる。元タスク学習データ入力部111は、取得した顔画像のデータを、元タスク学習データとして、元タスク学習データ保持部111DBに記録する。
S122−1において、元タスク学習データ領域抽出部112−1は、S121で取得された全ての顔画像それぞれに対し、以下の処理を行う。即ち、元タスク学習データ領域抽出部112−1は、図13(b)に示したような、顔の中心部分に設定されている図13(a)の各矩形領域に比べて大きな矩形領域から画素値を抽出し、その値を並べたベクトルデータを生成する処理を行う。図13(b)の矩形領域の画素数が、d'であったとすると、ここで生成するベクトルは、d'次元のベクトルとなる。この矩形の大きさは、任意であるが、元タスク学習データ側の情報量が多い方が、目標タスクへの適切な変換ができる可能性が高いため、d'>dとするのが好適である。元タスク学習データ領域抽出部112−1は、生成したベクトルを、元タスク学習パターン保持部112−1DBに記録する。ここで、人物Bの顔画像に基づいて生成されたベクトルを、目標特定人物パターンに対応する、元参照人物パターン、人物B'の顔画像に基づいて生成されたベクトルを元非特定人物パターンとする。そして、本実施形態では、目標タスクにおける目標特定人物パターン、及び、元タスクにおける元参照人物パターンが、特定カテゴリのデータとなる。
S124において、変換処理部114は、複数の元非特定人物パターンを、S123で求められた変換規則により変換する処理を行う。この処理では、元非特定人物パターン、つまり、人物Bと似て非なる人物B'のデータを、人物Aのデータの分布と人物Bのデータの分布との差異を局所最小化するような変換規則により変換することで、擬似的に、人物Aと類似する人物のデータを生成する。S124で変換された元非特定人物パターンは、識別器生成部115による識別器生成処理において用いられる。
S126において、識別器データ出力部116は、S125での識別器の生成結果を外部に出力して、図12の処理を終了する。例えば、識別器データ出力部116は、S125で学習された識別器のデータを補助記憶装置13に記録することで、出力する。
尚、本実施形態では、人物Bと類似する人物B'のデータのみを変換して学習に利用したが、人物B'のデータを特定カテゴリのデータとして変換規則を求め、その変換規則により変換した人物Bのデータを、追加で学習に利用してもよい。また、情報処理装置10は、人物Bと人物B'といった1つの組合せだけでなく、その他の人物の組合せを用い、それぞれに対して変換規則を求め、その変換規則により変換したデータを更に追加するようにすると好適である。
上記示した実施の形態では、情報処理装置10は、全て変換規則として線形変換を用いた。しかし、情報処理装置10は、変換規則として、基底関数を用いた非線形変換を用いることも可能である。より具体的には、例えば、情報処理装置10は、D個の基底関数(例えば、ガウス基底関数)を用い、まず、元タスク学習データのパターンそれぞれに対して、D個の基底関数それぞれにおける値を求める。そして、それをD次元のベクトルと考えることにより、元タスク学習データのそれぞれのパターンが、D次元のベクトルに変換される。後は、変換先のパターンの次元数がdであった場合、変換のための行列Aとして、D行d列の行列を用意し、その行列Aの各成分の値を、上記示した実施形態と同様の方法で求めるようにすればよい。このように、情報処理装置10は、変換規則として、非線形変換を用いることも可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、上述した情報処理装置10の機能構成の一部又は全てをハードウェアとして情報処理装置10に実装してもよい。
21 元タスク学習データ入力部
23 変換規則算出部
24 変換処理部
25 識別器生成部
Claims (11)
- 目標とするタスクである第1のタスクにおいて、第1のカテゴリに属する複数の学習データを、目標タスク学習データとして、取得する第1の取得手段と、
前記第1のタスクとは異なる第2のタスクにおいて、前記第1のカテゴリに属する学習データと前記第1のカテゴリとは異なる第2のカテゴリに属する学習データとを含む複数の学習データを、元タスク学習データとして、取得する第2の取得手段と、
前記目標タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第1の分布と、前記元タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第2の分布との差異に基づいて、前記元タスク学習データを変換するための変換パラメータを調整する調整手段と、
前記調整手段により調整された前記変換パラメータに基づいて、前記元タスク学習データを変換する変換手段と、
前記変換手段によって変換された元タスク学習データと、前記目標タスク学習データとに基づいて、前記第1のタスクに係る識別器を生成する生成手段と、
を有する情報処理装置。 - 前記調整手段は、前記第1の分布と前記第2の分布との密度分布が近づくように、前記変換パラメータを調整する請求項1記載の情報処理装置。
- 前記調整手段は、前記第1の分布と前記第2の分布とのL2距離の推定値を局所最小化するように、前記変換パラメータを調整する請求項2記載の情報処理装置。
- 前記調整手段は、前記第1の分布と前記第2の分布との相対ピアソン距離の推定値を局所最小化するように、前記変換パラメータを調整する請求項2記載の情報処理装置。
- 前記調整手段は、勾配法を用いて、前記第1の分布と前記第2の分布との差異を局所最小化するように、前記変換パラメータを調整する請求項2乃至4何れか1項記載の情報処理装置。
- 前記第2のタスクを前記第1のタスクに類似するタスクとして探索する探索手段を有し、
前記第2の取得手段は、前記探索手段によって探索された第2のタスクの学習データを、前記元タスク学習データとして取得する請求項1乃至5何れか1項記載の情報処理装置。 - 前記変換手段は、前記元タスク学習データの内、前記第2のカテゴリに属する学習データを変換し、
前記生成手段は、前記目標タスク学習データと、前記変換手段により変換された前記第2のカテゴリに属する学習データとを用いて、前記識別器を生成する請求項1乃至6何れか1項記載の情報処理装置。 - 前記生成手段は、前記目標タスク学習データと、前記変換手段により変換された前記元タスク学習データと、に基づいて前記識別器の生成に用いるための特徴量を選択し、前記選択した特徴量に基づいて、前記識別器を生成する請求項1乃至6何れか1項記載の情報処理装置。
- 前記生成手段により生成された前記識別器を用いて、識別の対象とする入力データが、前記第1のカテゴリに属するか否かを識別する識別手段、
を更に有する請求項1乃至8何れか1項記載の情報処理装置。 - 情報処理装置が実行する情報処理方法であって、
目標とするタスクである第1のタスクにおいて、第1のカテゴリに属する複数の学習データを、目標タスク学習データとして、取得する第1の取得ステップと、
前記第1のタスクとは異なる第2のタスクにおいて、前記第1のカテゴリに属する学習データと前記第1のカテゴリとは異なる第2のカテゴリに属する学習データとを含む複数の学習データを、元タスク学習データとして、取得する第2の取得ステップと、
前記目標タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第1の分布と、前記元タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第2の分布との差異に基づいて、前記元タスク学習データを変換するための変換パラメータを調整する調整ステップと、
前記調整ステップで調整された前記変換パラメータに基づいて、前記元タスク学習データを変換する変換ステップと、
前記変換ステップで変換された元タスク学習データと、前記目標タスク学習データとに基づいて、前記第1のタスクに係る識別器を生成する生成ステップと、
を含む情報処理方法。 - コンピュータに、
目標とするタスクである第1のタスクにおいて、第1のカテゴリに属する複数の学習データを、目標タスク学習データとして、取得する第1の取得ステップと、
前記第1のタスクとは異なる第2のタスクにおいて、前記第1のカテゴリに属する学習データと前記第1のカテゴリとは異なる第2のカテゴリに属する学習データとを含む複数の学習データを、元タスク学習データとして、取得する第2の取得ステップと、
前記目標タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第1の分布と、前記元タスク学習データの前記第1のカテゴリに属する複数の学習データに係る第2の分布との差異に基づいて、前記元タスク学習データを変換するための変換パラメータを調整する調整ステップと、
前記調整ステップで調整された前記変換パラメータに基づいて、前記元タスク学習データを変換する変換ステップと、
前記変換ステップで変換された元タスク学習データと、前記目標タスク学習データとに基づいて、前記第1のタスクに係る識別器を生成する生成ステップと、
を実行させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016119128A JP6884517B2 (ja) | 2016-06-15 | 2016-06-15 | 情報処理装置、情報処理方法及びプログラム |
EP17000986.4A EP3258425B1 (en) | 2016-06-15 | 2017-06-09 | Information processing apparatus, information processing method, and storage medium |
US15/618,677 US11544628B2 (en) | 2016-06-15 | 2017-06-09 | Information processing apparatus and information processing method for generating classifier using target task learning data and source task learning data, and storage medium |
CN201710451308.1A CN107527063B (zh) | 2016-06-15 | 2017-06-15 | 信息处理装置、信息处理方法以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016119128A JP6884517B2 (ja) | 2016-06-15 | 2016-06-15 | 情報処理装置、情報処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017224156A true JP2017224156A (ja) | 2017-12-21 |
JP2017224156A5 JP2017224156A5 (ja) | 2019-07-18 |
JP6884517B2 JP6884517B2 (ja) | 2021-06-09 |
Family
ID=59077784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016119128A Active JP6884517B2 (ja) | 2016-06-15 | 2016-06-15 | 情報処理装置、情報処理方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11544628B2 (ja) |
EP (1) | EP3258425B1 (ja) |
JP (1) | JP6884517B2 (ja) |
CN (1) | CN107527063B (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019092764A (ja) * | 2017-11-22 | 2019-06-20 | 株式会社大一商会 | 遊技機 |
JP2019092765A (ja) * | 2017-11-22 | 2019-06-20 | 株式会社大一商会 | 遊技機 |
JP2020126468A (ja) * | 2019-02-05 | 2020-08-20 | 富士通株式会社 | 学習方法、学習プログラムおよび学習装置 |
WO2020202572A1 (ja) * | 2019-04-05 | 2020-10-08 | 日本電気株式会社 | 画像処理システム、推定装置、処理方法及びプログラム |
JPWO2021074990A1 (ja) * | 2019-10-16 | 2021-04-22 | ||
JPWO2021095101A1 (ja) * | 2019-11-11 | 2021-05-20 | ||
JP7062747B1 (ja) | 2020-12-25 | 2022-05-06 | 楽天グループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2022103190A (ja) * | 2020-12-25 | 2022-07-07 | 楽天グループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
US11754985B2 (en) | 2020-04-20 | 2023-09-12 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method and computer program product |
US11929174B2 (en) | 2018-02-28 | 2024-03-12 | Fujifilm Corporation | Machine learning method and apparatus, program, learned model, and discrimination apparatus using multilayer neural network |
JP7484318B2 (ja) | 2020-03-27 | 2024-05-16 | 富士フイルムビジネスイノベーション株式会社 | 学習装置及び学習プログラム |
US12073643B2 (en) | 2018-11-29 | 2024-08-27 | Nec Corporation | Machine learning apparatus, machine learning method, and computer-readable recording medium |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11392370B2 (en) * | 2020-10-26 | 2022-07-19 | Sap Se | Distributed vectorized representations of source code commits |
RU2759087C1 (ru) * | 2020-12-07 | 2021-11-09 | Общество с ограниченной ответственностью "Группа АйБи ТДС" | Способ и система статического анализа исполняемых файлов на основе предиктивных моделей |
CN115561140B (zh) * | 2022-10-12 | 2023-08-04 | 宁波得立丰服饰有限公司 | 一种服装透气性检测方法、系统、存储介质及智能终端 |
US12003371B1 (en) | 2022-12-13 | 2024-06-04 | Sap Se | Server configuration anomaly detection |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS54430A (en) | 1978-04-18 | 1979-01-05 | Naka Tech Lab | Antiislip material for building |
DE3113349A1 (de) | 1981-04-02 | 1982-10-21 | Siemens AG, 1000 Berlin und 8000 München | Gasentladungs-ueberspannungsableiter |
JP3003353B2 (ja) | 1992-02-14 | 2000-01-24 | 日本電気株式会社 | タスク適応標準パターン学習装置 |
JP4368767B2 (ja) | 2004-09-08 | 2009-11-18 | 独立行政法人産業技術総合研究所 | 異常動作検出装置および異常動作検出方法 |
US9323837B2 (en) * | 2008-03-05 | 2016-04-26 | Ying Zhao | Multiple domain anomaly detection system and method using fusion rule and visualization |
JP5414416B2 (ja) | 2008-09-24 | 2014-02-12 | キヤノン株式会社 | 情報処理装置及び方法 |
JP2011248636A (ja) | 2010-05-27 | 2011-12-08 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP2012113621A (ja) | 2010-11-26 | 2012-06-14 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
JP5777390B2 (ja) | 2011-04-20 | 2015-09-09 | キヤノン株式会社 | 情報処理方法及び装置、パターン識別方法及び装置 |
JP5746550B2 (ja) | 2011-04-25 | 2015-07-08 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP5906071B2 (ja) | 2011-12-01 | 2016-04-20 | キヤノン株式会社 | 情報処理方法、情報処理装置、および記憶媒体 |
US10515153B2 (en) * | 2013-05-16 | 2019-12-24 | Educational Testing Service | Systems and methods for automatically assessing constructed recommendations based on sentiment and specificity measures |
US9710729B2 (en) * | 2014-09-04 | 2017-07-18 | Xerox Corporation | Domain adaptation for image classification with class priors |
US20170220951A1 (en) * | 2016-02-02 | 2017-08-03 | Xerox Corporation | Adapting multiple source classifiers in a target domain |
US9805276B2 (en) * | 2016-03-31 | 2017-10-31 | Toyota Jidosha Kabushiki Kaisha | Generating real-time driver familiarity index for fine-grained dynamic road scenes |
-
2016
- 2016-06-15 JP JP2016119128A patent/JP6884517B2/ja active Active
-
2017
- 2017-06-09 EP EP17000986.4A patent/EP3258425B1/en active Active
- 2017-06-09 US US15/618,677 patent/US11544628B2/en active Active
- 2017-06-15 CN CN201710451308.1A patent/CN107527063B/zh active Active
Non-Patent Citations (4)
Title |
---|
ARTHUR GRETTON, ET AL.: "Covariate Shift by Kernel Mean Matching", BOOK CHAPTER VERIFIED ONLINE <WWW.CS.CMU.EDU>, JPN7020001962, 31 December 2009 (2009-12-31), ISSN: 0004403991 * |
ERHENG ZHONG, ET AL.: "Cross Validation Framework to Choose amongst Models and Datasets for Transfer Learning", JOINT EUROPEAN CONFERENCE ON MACHINE LEARNING AND KNOWLEDGE DISCOVERY IN DATABASES, JPN6020024739, 31 December 2010 (2010-12-31), pages 547 - 562, ISSN: 0004403992 * |
YUN-QIAN MIAO, ET AL.: "Cross-Domain Facial Expression Recognition Using Supervised Kernel Mean Matching", 2012 11TH INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND APPLICATIONS, JPN6020024734, 15 December 2012 (2012-12-15), pages 326 - 332, XP032302742, ISSN: 0004403989, DOI: 10.1109/ICMLA.2012.178 * |
杉山 将: "確率分布間の距離推定 :機械学習分野における最新動向", 日本応用数理学会論文誌, vol. Vol.23,No.3, 2013, JPN6020024736, 25 September 2013 (2013-09-25), pages 439 - 452, ISSN: 0004403990 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019092764A (ja) * | 2017-11-22 | 2019-06-20 | 株式会社大一商会 | 遊技機 |
JP2019092765A (ja) * | 2017-11-22 | 2019-06-20 | 株式会社大一商会 | 遊技機 |
US11929174B2 (en) | 2018-02-28 | 2024-03-12 | Fujifilm Corporation | Machine learning method and apparatus, program, learned model, and discrimination apparatus using multilayer neural network |
US12073643B2 (en) | 2018-11-29 | 2024-08-27 | Nec Corporation | Machine learning apparatus, machine learning method, and computer-readable recording medium |
JP2020126468A (ja) * | 2019-02-05 | 2020-08-20 | 富士通株式会社 | 学習方法、学習プログラムおよび学習装置 |
JP7172677B2 (ja) | 2019-02-05 | 2022-11-16 | 富士通株式会社 | 学習方法、学習プログラムおよび学習装置 |
US12039772B2 (en) | 2019-04-05 | 2024-07-16 | Nec Corporation | Processing system, estimation apparatus, processing method, and non-transitory storage medium |
JPWO2020202572A1 (ja) * | 2019-04-05 | 2020-10-08 | ||
JP7124957B2 (ja) | 2019-04-05 | 2022-08-24 | 日本電気株式会社 | 画像処理システム、推定装置、処理方法及びプログラム |
WO2020202572A1 (ja) * | 2019-04-05 | 2020-10-08 | 日本電気株式会社 | 画像処理システム、推定装置、処理方法及びプログラム |
JP6991412B2 (ja) | 2019-10-16 | 2022-02-03 | 三菱電機株式会社 | 検索装置、検索方法、検索プログラム及び学習モデル検索システム |
WO2021074990A1 (ja) * | 2019-10-16 | 2021-04-22 | 三菱電機株式会社 | 検索装置、検索方法、検索プログラム及び学習モデル検索システム |
JPWO2021074990A1 (ja) * | 2019-10-16 | 2021-04-22 | ||
JPWO2021095101A1 (ja) * | 2019-11-11 | 2021-05-20 | ||
WO2021095101A1 (ja) * | 2019-11-11 | 2021-05-20 | 日本電信電話株式会社 | 学習装置、検知装置、学習方法、及び異常検知方法 |
JP7338698B2 (ja) | 2019-11-11 | 2023-09-05 | 日本電信電話株式会社 | 学習装置、検知装置、学習方法、及び異常検知方法 |
JP7484318B2 (ja) | 2020-03-27 | 2024-05-16 | 富士フイルムビジネスイノベーション株式会社 | 学習装置及び学習プログラム |
US11754985B2 (en) | 2020-04-20 | 2023-09-12 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method and computer program product |
JP7062747B1 (ja) | 2020-12-25 | 2022-05-06 | 楽天グループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP7277645B2 (ja) | 2020-12-25 | 2023-05-19 | 楽天グループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2022103190A (ja) * | 2020-12-25 | 2022-07-07 | 楽天グループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2022102095A (ja) * | 2020-12-25 | 2022-07-07 | 楽天グループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11544628B2 (en) | 2023-01-03 |
EP3258425A1 (en) | 2017-12-20 |
CN107527063B (zh) | 2023-01-17 |
JP6884517B2 (ja) | 2021-06-09 |
US20170364826A1 (en) | 2017-12-21 |
EP3258425B1 (en) | 2022-04-27 |
CN107527063A (zh) | 2017-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6884517B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US10896351B2 (en) | Active machine learning for training an event classification | |
US11023822B2 (en) | Classifier generation apparatus for generating a classifier identifying whether input data is included in a specific category based on machine learning, classifier generation method, and storage medium | |
US12002259B2 (en) | Image processing apparatus, training apparatus, image processing method, training method, and storage medium | |
Khan et al. | Situation recognition using image moments and recurrent neural networks | |
JP2019087181A (ja) | 画像検査装置および方法 | |
JP6565600B2 (ja) | アテンション検出装置及びアテンション検出方法 | |
US10331968B2 (en) | One shot color calibrated metric learning for object re-identification | |
Aditya et al. | Batik classification using neural network with gray level co-occurence matrix and statistical color feature extraction | |
CN111241924B (zh) | 基于尺度估计的人脸检测及对齐方法、装置、存储介质 | |
US11928813B2 (en) | Method and system for detecting change to structure by using drone | |
KR20130058286A (ko) | 보행자 검출기의 보행자 검출 방법 | |
US20230115987A1 (en) | Data adjustment system, data adjustment device, data adjustment method, terminal device, and information processing apparatus | |
US20200034649A1 (en) | Object tracking system, intelligent imaging device, object feature extraction device, and object feature extraction method | |
CN116740652A (zh) | 一种基于神经网络模型的锈斑面积扩大的监测方法与系统 | |
CN111444816A (zh) | 一种基于Faster RCNN的多尺度密集行人检测方法 | |
US11507780B2 (en) | Image analysis device, image analysis method, and image analysis program | |
US10580127B2 (en) | Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and storage medium | |
JP2016224821A (ja) | 学習装置、学習装置の制御方法及びプログラム | |
Mahmood | Defocus Blur Segmentation Using Genetic Programming and Adaptive Threshold. | |
Vijayarani et al. | An efficient algorithm for facial image classification | |
Goyal et al. | Moving Object Detection in Video Streaming Using Improved DNN Algorithm | |
Jabaar et al. | Detection of Spliced Images in Social Media Application | |
Foo et al. | A Fast-Compressive Tracking Integrated with Differential Evolution to Optimize Object Tracking Performance | |
JP7221892B2 (ja) | 学習装置、学習方法、および学習プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190610 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200828 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210305 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210305 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210316 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210512 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6884517 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |