JP2016133895A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2016133895A
JP2016133895A JP2015006899A JP2015006899A JP2016133895A JP 2016133895 A JP2016133895 A JP 2016133895A JP 2015006899 A JP2015006899 A JP 2015006899A JP 2015006899 A JP2015006899 A JP 2015006899A JP 2016133895 A JP2016133895 A JP 2016133895A
Authority
JP
Japan
Prior art keywords
training data
data
learning
information
abnormal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015006899A
Other languages
English (en)
Other versions
JP6632193B2 (ja
Inventor
将史 瀧本
Masafumi Takimoto
将史 瀧本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015006899A priority Critical patent/JP6632193B2/ja
Priority to US14/993,341 priority patent/US10262233B2/en
Publication of JP2016133895A publication Critical patent/JP2016133895A/ja
Application granted granted Critical
Publication of JP6632193B2 publication Critical patent/JP6632193B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

【課題】学習した訓練データだけでは過剰適合が起こる可能性があることを学習段階の間に検知し、データの追加やその他情報の追加をユーザに促すことで過剰適合を避けられるようにする。【解決手段】入力された訓練データに基づき機械学習を行う識別モデル学習部と、識別モデル学習部での学習時に訓練データやその他の情報が不足しているか否かを判定する判定部と、判定結果に応じてメッセージをユーザに通知する通知部とを有し、訓練データやその他の情報の追加の不足により過剰適合が起こる可能性があると判定した場合には、訓練データの追加やその他情報の追加をユーザに促すことで過剰適合を避けられるようにする。【選択図】図2

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
データ解析を行う際や、複数のデータを用いて学習した識別器によって、新たなデータが学習済データに属する性質を持つか否かを判定する認識問題において、過剰適合(過適合、過学習)と呼ばれる問題が起きることがある。過剰適合は、学習するモデルの自由度の高さに比して学習させるデータが少ない場合に起き、訓練データに対しては学習されているが、未知データに対しては適合できておらず汎化能力が不足している状態のことである。
過剰適合について図14を参照し説明する。図14は、訓練データが少なくなるにつれて正しいモデルを学習することが困難になることを示した図である。訓練データの分布を任意の識別器によって学習するという課題に対し、図14(A)、図14(B)、図14(C)の順に、それぞれ特徴空間内で訓練データの数を6個、23個、617個と増やした様子を可視化して示している。図14(D)、図14(E)、図14(F)は、それぞれ訓練データから学習して得られた訓練データの分布を推定したモデルを可視化している。
図14(A)に示す訓練データから学習されたモデルを図14(D)に示し、図14(B)に示す訓練データから学習されたモデルを図14(E)に示し、図14(C)に示す訓練データから学習されたモデルを図14(F)に示している。図14(C)に示す訓練データは推定対象の分布に対して充分な数が有った場合として例示しており、図14(A)及び図14(B)は不足している場合を例示している。これらによって推定された図14(D)及び図14(E)に示すモデルは、図14(F)に示すモデルとは異なり狭い領域を学習してしまっており、正しく学習できなかったことがわかる。この誤ったモデルによってテストデータの分類をすると分類誤りが発生する。
過剰適合を避けるための方法として、(1)学習するモデルの媒介変数を減らす方法、(2)正則化項を導入する方法、(3)モデル化計算の早期打ち切り(early stopping)等が知られている。前記(1)による方法は、学習モデルを少ない媒介変数で定義できる比較的単純な物にしたり、いくつかの媒介変数を固定値に設定したりすることによって、少ないデータによってもたらされる真の分布から大きくずれたモデルを得ることを回避することができる。
(2)は、ロジスティック回帰やサポートベクターマシンのように特徴量に対する重みを用いるモデルでは、モデル化の際に最小化する対象である誤差関数に正則化項を追加することでモデルの複雑度・自由度を抑制することができるという方法である。また、(3)のモデル化計算の早期打ち切りは、訓練データに適合しすぎる前に学習を打ち切ることによって汎化性能が高まるという方法である。
前述した(1)、(2)、(3)の方法にはそれぞれ課題がある。例えば、(1)では事前にデータの分布の状態等を知っている必要があるが、データの分布の状態を予め知っていることは稀であり汎用性に乏しい。また事前に得たデータの分布に関する情報が間違っていた場合には真の分布から大きく外れたモデルが推定される可能性が高い。(2)の正則化パラメータでは、どの程度訓練データに適応するかを制御することができるが、訓練データへの適応を強めると過剰適合になるリスクが高まり、正則化による抑制を強めるとモデルは訓練データへの適応から離れていき非効率になる。(3)に関しても同様に訓練の打ち切りをやりすぎると訓練データへの適応が強くなりすぎてしまい過剰適合になるリスクが高まる一方で、打ち切りが早すぎると真のモデルとは遠くかけ離れてしまう。
前述した(1)、(2)、(3)の方法において適切なパラメータを選択するための方法としては、訓練データの一部を訓練後のモデルの良さを測るために取り分けておき、これを訓練に使わずに検証用データとして用いて検証する方法がある。例えば、(3)であれば、訓練用に取り出したデータで学習したモデルを用いて検証用のデータで性能を検証することで過剰適合が起こり始めるのを検知して訓練を止めることができる。(1)、(2)に関してもパラメータの探索を同様にして行い過剰適合を避けながら訓練データへ適度に適合する良いパラメータを選択することができる。
また、過剰適合が起こったことを検知して、これを抑制する方法としては例えば特許文献1に記載の技術が提案されている。この方法は複数段の弱判別器により学習を行う場合に、弱判別器に対する評価値の推移から過剰適合を検知して学習データを追加して対処する方法である。
特許第5335536号公報
前記(1)、(2)、(3)で説明した過剰適合を避ける仕組みを組み込むことにより、不足した情報によって被る精度劣化を最小限に抑えることは可能であるが、実質的にデータが少ないことで得られなかった分布の情報に関して情報を補うことはできない。外観検査等の応用での利用形態によっては、前述したような過剰適合対策だけでなく、データが不足していることをユーザに知らせることによって識別器の表現能力を極力保ちながら良好な識別能力を得ることが望まれる場合がある。
本発明は、このような事情に鑑みてなされたものであり、学習した訓練データだけでは過剰適合が起こる可能性があることを学習段階の間に検知し、データの追加やその他情報の追加をユーザに促すことで過剰適合を避けられるようにすることを目的とする。
本発明に係る情報処理装置は、分類対象に係る訓練データを入力する訓練データ入力手段と、前記訓練データ入力手段より入力された前記訓練データに基づき機械学習を行う学習手段と、前記学習手段での学習時に、前記訓練データ又は前記訓練データに関する情報が不足しているか否かを判定する判定手段と、前記判定手段により前記訓練データ又は前記訓練データに関する情報が不足していると判定された場合に、前記訓練データ又は前記訓練データに関する情報の追加を促すメッセージを通知する通知手段とを有することを特徴とする。
本発明によれば、学習時に訓練データやその他の情報の不足により過剰適合が起こる可能性があると判定した場合には、データの追加やその他情報の追加をユーザに促すことで過剰適合を避けることが可能となり、分類精度を向上させることができる。
本実施形態における情報処理装置を実現可能なコンピュータ機能を示す図である。 本実施形態における情報処理装置の機能構成例を示す図である。 本実施形態での学習過程の一例を示すフローチャートである。 第1の実施形態での処理動作例を示すフローチャートである。 訓練データの数に応じて推定されるモデルを説明するための図である。 第1の実施形態において訓練データ不足検知時に表示するメッセージの例を示す図である。 第1の実施形態において訓練データ不足検知時に表示するメッセージの他の例を示す図である。 過剰適合が起こり易い訓練データ例、起こり難いデータ例を示す図である。 第2の実施形態での処理動作例を示すフローチャートである。 第2の実施形態において過剰適合が起こる可能性の検知時に表示するメッセージの例を示す図である。 第2の実施形態においてユーザに異常領域の問い合わせ、教示を受付ける画面の一例を示す図である。 第3の実施形態においてユーザの異常スコア順教示を受付ける画面の一例を示す図である。 第3の実施形態での処理動作例を示すフローチャートである。 過剰適合について説明するための図である。
以下、本発明の実施形態を図面に基づいて説明する。
(第1の実施形態)
本発明の第1の実施形態について説明する。図1は、本発明の実施形態における情報処理装置を実現可能なコンピュータ機能を示すブロック図である。例えば、本実施形態における情報処理装置は、図1に示すようなコンピュータ機能100を有し、そのCPU101により以下に説明する各実施形態での動作が実施される。
コンピュータ機能100は、図1に示すように、CPU101と、ROM102と、RAM103とを備える。また、操作部(CONS)109のコントローラ(CONSC)105と、LCD等の表示部としてのディスプレイ(DISP)110のディスプレイコントローラ(DISPC)106とを備える。さらに、ハードディスク(HD)111、及びフレキシブルディスク等の記憶デバイス(STD)112のコントローラ(DCONT)107と、ネットワークインタフェースカード(NIC)108とを備える。それら機能部101、102、103、105、106、107、108は、システムバス104を介して互いに通信可能に接続された構成としている。
CPU101は、ROM102又はHD111に記憶されたソフトウェア、又はSTD112より供給されるソフトウェアを実行することで、システムバス104に接続された各構成部を総括的に制御する。すなわち、CPU101は、以下に説明するような動作を行うための処理プログラムを、ROM102、HD111、又はSTD112から読み出して実行することで、本発明の実施形態での動作を実現するための制御を行う。RAM103は、CPU101の主メモリ又はワークエリア等として機能する。
CONSC105は、CONS109からの指示入力を制御する。DISPC106は、DISP110の表示を制御する。DCONT107は、ブートプログラム、種々のアプリケーション、ユーザファイル、ネットワーク管理プログラム、及び各実施形態における動作を実現するための処理プログラム等を記憶するHD111及びSTD112とのアクセスを制御する。NIC108はネットワーク113上の他の装置と双方向にデータをやりとりする。
図2は、本実施形態における情報処理装置の機能構成例を示すブロック図である。図2には、本実施形態における情報処理装置が有する機能部のうちの特徴的要素のみを示している。本実施形態における情報処理装置は、訓練データ入力部201、識別モデル学習部202、データ入力部203、特徴量抽出部204、分類処理部205、判定部206、及び通知部207を有する。
識別モデル学習部202は、訓練データ入力部201より入力される、分類したい対象に関する訓練データ(例えば、訓練画像データ)に基づき機械学習を行い、対象を分類するためのモデルを学習する。特徴量抽出部204は、データ入力部203より入力されるデータ(例えば、画像データ)から特徴量を抽出する。分類処理部205は、特徴量抽出部204により抽出された特徴量及び識別モデル学習部202により学習したモデルを基に、入力されたデータが学習済データに属する性質を持つか否かを分類する。
判定部206は、識別モデル学習部202での機械学習において訓練データやそれに関する情報が不足しているか否かを訓練時(学習時)に判定する。言い換えれば、判定部206は、識別モデル学習部202での機械学習において、既に学習した訓練データだけでは過剰適合が起こる可能性があるか否かを訓練時に判定する。通知部207は、判定部206により訓練データやそれに関する情報が不足していると判定された場合に、訓練データやそれに関する情報の追加をユーザに促すための通知を行う。
以下、第1の実施形態について具体的に説明する。第1の実施形態は、過剰適合が起こる可能性があるかどうかを訓練データからリサンプリングした複数のデータセットによって検知する方法である。
一例として、外観検査装置において画像が入力され、入力された画像から特徴量を抽出し、抽出された特徴量によって入力された画像が正常データであるか異常データであるかを分類するという具体的な問題を考える。良好な分類精度を得るために事前に外観検査用の訓練正常画像及び訓練異常画像のそれぞれがユーザによって複数用意され、この訓練画像セットを用いて入力された画像から正常データと異常データを分類するのに適した特徴量のセット等が学習されるものとする。
なお、学習時に画像から抽出される特徴量をN個(Nは自然数)とする。また、初期に抽出されるN個の特徴量は、以降の各実施形態において充分な数の特徴量であるものとし、N個の抽出特徴に分類問題にとって不足があることに起因する問題については考えないものとする。また、N個の特徴量の中で、正常データと異常データを分離するのに有意義な特徴量のセットは、N個に比してずっと少なく、その数をM個と仮定する(Mは、M<Nの自然数)。つまり、正常データと異常データの真の分布が判っていたとすると、その2つのクラスを分離するのに正解となる特徴量のセットはM個の特徴量で表現される空間内で定義できるものとする。また、各特徴量には、どの特徴量であるかを識別するために特徴量識別IDが1〜Nと付番されているものとする。
以上の設定で、識別モデル学習部202が、図3(A)に示す学習過程により正常データと異常データを分離する特徴量セットを選択し識別モデルを学習する。まず、ステップS301Aにて、N個の特徴量がすべての訓練画像から抽出される。次に、ステップS302Aにて、訓練正常データと訓練異常データの分離度を基準として特徴量をスコア化して全N個の特徴量に評価値を与える。続いて、ステップS303Aにて、ステップS302Aにおいて与えられた評価値を基に良い特徴量から順に1位からN位まで順位を付け、特徴量順位リストを作成する。次に、ステップS304Aにて、特徴量順位リストの上位から1個、2個、…、d個の特徴量を選択し、ステップS305Aにて、選択された特徴量のセットを用いて最も正常データと異常データを分離する識別器を学習する。
以上、一連の学習で推定された識別器から最も性能が高い結果となった識別器を今回求める識別器とする。なお、図3(A)のステップS304A及びS305Aをより効果的に行うように詳細に記載したフローチャートを図3(B)及び図3(C)に示す。すなわち、ステップS301B〜S303Bにて、図3(A)に示したステップS301A〜S303Aと同様の処理を行い、ステップS304Bにて、図3(C)に示す識別器を学習する処理を行う。
図3(C)に示す識別器を学習する処理では、探索範囲次元数から学習される識別器のすべての性能を得るまで、dの値を1〜Nと順次変化させてステップS305B〜S308Bの処理を繰り返す。すなわち、特徴量順位リストの上位からd個の特徴量を選択し(S306B)、選択した特徴量のセットを用いて識別器を学習する(S307B)ことを繰り返す。そして、ステップS309Bにて、学習により得られた識別器の中から最も正常データと異常データを分離する最良の識別器を選択する。
前述した手順は簡単な処理フローとなっているが、本発明はこういった単純な学習フローに対しても意義のある効果を示し、アルゴリズムに依存しない方法として提案する。なお、以下ではさらに説明内容を明確にするために、利用する識別器は、CLAFIC法(CLAss-Featuring Information Compression method)によって定義するものとする。CLAFIC法により正常データに関する部分空間を定義し、定義された正常の領域から任意の距離以上離れたデータを異常データであると判定する識別器を考える。つまり、正常データと異常データを分離する2クラスの判別であるが、2クラスの部分空間を定義するのではなく、正常の部分空間のみを定義することで解を得る方法を取る。よって、本実施形態で考える具体的学習アルゴリズムでは学習すべき主なパラメータは選択特徴数や選択特徴リスト、部分空間の次元数や射影行列である。
前述したフローチャートによる学習を行う外観検査装置において、学習する際に訓練データの数がどれほど必要であるかというのは重要な問題である。一般的には、課題が難しければ難しい程データが多く必要であり、簡単であれば少なくても充分良い性能を示すとされる。課題の難しさは分類対象のクラスがどれほど類似したものであるか等で判断することができる。
ただし、外観検査装置を利用するユーザが装置のアルゴリズムを充分に理解し、アルゴリズムに対する課題の難しさを事前に知り適切なデータ数を揃えることは容易ではない。通常、訓練データの数が少なすぎれば正しく学習されないため、多い方が望ましいとされる。しかし、モデルを推定する際に利用する識別器を定義する媒介変数は有限であるため、訓練データを増やしたとしても、ある一定の数以上の訓練データを与えても識別器の性能は、それ以上良くならない限界を迎える。
よって、分類対象の難しさと事前に仮定している識別モデルの複雑さとによって適切なデータ数のおよその数を知り、現状のデータ数で足りているか不足しているかを判定することができる。特に、訓練データの数が足りている場合には問題無いが、不足している場合には正しい判定を行えない可能性が高い。そのため、訓練データの数が不足している場合には、データを補充する必要があるメッセージを出して現状の訓練データだけでは過剰適合が発生する可能性があり、良好な性能が得られないことを知らせる必要がある。
まず、1つの方法は、全T個の訓練データの集合から重複を許さずS個(S=λT、0.5≦λ<1.0)のデータのサンプリングをし、部分データ集合としたものを複数(最大TS個)用意して検知する方法である。この処理のフローは図4に示した。図4は、第1の実施形態での処理動作例を示すフローチャートである。識別モデル学習部202が、ステップS401にて、訓練データの集合から重複を許さず一部のデータのサンプリングをして複数のパターンのデータセットを作成し、ステップS402にて、作成した全データセット毎に識別器を学習する。そして、判定部206が、ステップS403にて、学習により得られた識別器を比較して学習安定度を算出し、ステップS404にて、算出された学習安定度を基に識別器の学習結果が安定しているか否かを判定する。言い換えれば、学習により得られたモデルの類似性を基に識別器の学習結果が安定しているか否かを判定する。その結果、識別器の学習結果が安定していないと判定した場合には、学習の追加(訓練データの追加)を促すメッセージを通知部206より通知する。
なお、前述した処理において、Sの値はT個の訓練データの分布の性質をおよそ継承するものとして設定する必要があるため、λの値は極力1に近い値を設定することが好ましい。ここではλ=0.95とした場合を仮定して説明する。サンプリングのバリエーションは多い程良いため、ここではサンプリング方法によってTSセットの部分データ集合を得たものとする。この部分データ集合のデータセット毎に前述したフローで学習することによって各データセットに対応するモデルがTS個推定される。ここで、推定されたTS個のモデルを定義するパラメータセットを得る。
もし、T=∞であり推定するモデルを定義するパラメータセットが有限であるならば、ここで得られた各データセットで学習されるモデルはどれもほとんど同じモデルになり、定性的に学習結果は安定すると言える。この例ではT=∞としたが、実際にはモデルを定義するパラメータセットが有限であるため、Sの値がある一定の値以上になった場合にはデータセット同士の僅かな差をモデルでは表現しきれなくなる限界が存在する。したがって、安定したモデルを得るにはT=∞である必要は無く、Tの値は現実的な数で同様に安定したモデルを獲得することができる。このとき、各訓練データから推定されるモデルがどれもほとんど同じになる様子を図5(A)に示す。図5(A)に示す例では、充分な数の訓練データがあるために、学習に使うデータ501Aと学習に使わないデータ502Aとを変えても、推定されたモデル503Aは安定しており同様のモデルが得られる。
逆に、Tの値が推定するモデルを定義するパラメータセットの自由度に比して極めて小さい場合には、TS個のデータセットそれぞれに大いに偏りが発生する可能性が高まる。そのため、各々から推定されたモデルには定性的に大きな違いが発生することになる。このときの各訓練データから推定されるモデルに大きな違いが発生する様子を図5(B)に示す。図5(B)に示す例では、訓練データの数が少ないために、学習に使うデータ501Bと学習に使わないデータ502Bとを変えると、学習に使うデータ501Bに応じて推定されたモデル503Bは大きく変わってしまう。
よって、サブサンプリングされたデータセットから推定されたモデルが、前提としているモデルにとって真の分布に近い推定モデルになる場合、各サブサンプリングされたセットから学習されたモデル同士は大変近いモデルになっている。したがって、学習が前提としているモデルにとってT(訓練データの数)が充分数あると判断することができる。一方、サブサンプリングされたデータセットから推定されたモデルがそれぞれ大きく異なっている場合には、T(訓練データの数)が学習にとって不充分であるということが判る。
よって、サブサンプリングされたデータセットから推定されたモデルが安定しているか不安定であるかを、推定モデルを定義するパラメータベクトル同士を比較することで検知することができる。この方法としていくつかの方法が考えられるが、推定モデルを定義するパラメータセットから不安定度スコアを設定するものとする。このモデル同士の距離をどのように定義するかがデータ過不足検知の性能に大きく関わる部分であるが、本実施形態においては次のように定義することで良い結果が得られる。
学習によって得られた2つのモデルによって決定される距離を定義するために、各モデルをモデルi、モデルjと呼び、この2つのモデルから定義されるモデル間距離をdist(i,j)と表記することにする。dist(i,j)は、次のベクトルによって定義される。まず、前述した方法によって学習されたそれぞれの結果、モデルi及びモデルjの選択特徴からそれぞれ以下のように定義されるN次元ベクトルVi、Vjを生成する。N次元の各次元に対応する要素は抽出特徴の識別IDの1からNまで順に対応し、各要素はそれぞれのモデルで選択される場合に1と表記し、されない場合に0と表記する。
ここで例えば、Nは本来充分大きい数を想定しているが説明を簡易に行うためN=11であった場合を考える。モデルiでは抽出特徴から正常データと異常データを分離するのに適した特徴量のIDが1、3、5、10、11の5つの特徴であると学習された場合には、Vi=(1,0,1,0,1,0,0,0,0,1,1)となる。また、モデルjでは正常データと異常データを分離する特徴量のIDを1、5、8、10、11の5つの特徴であると学習された場合には、Vj=(1,0,0,0,1,0,0,1,0,1,1)となる。
次に、この選択特徴からCLAFIC法により正常データの分布を表す部分空間次元を学習したときの次元数をそれぞれCdi、Cdjとし、それぞれCdi=2、Cdj=4であったとする。このとき、dist(i,j)定義用に前記Vi、Vjに次元数の要素を連結して新たにVi’、Vj’とし、これらの2つのベクトル間の距離をハミング距離によって決定する。つまり、Vi’=(1,0,1,0,1,0,0,0,0,1,1,2)であり、Vj’=(1,0,0,0,1,0,0,1,0,1,1,4)であるので、ハミング距離は3となる。
2つのモデルが最も異なった場合の最大ハミング距離は12であることから、モデル間距離を0から1の間で正規化するためにモデル間距離をハミング距離/最大ハミング距離として定義すると、dist(i,j)=0.25となる。なお、ここではモデル間距離をハミング距離を元に定義したが、2つの数字列間の距離を定義できるものであれば何でも良い。また、モデルiとモデルjとの間の距離のみを考えたが、この距離をTS個のすべての推定モデル間の距離(差の絶対値)を累積して不安定度スコアとするため、不安定度スコアScoreは以下のように定義される。
Figure 2016133895
このスコアScoreを基にデータが充分足りているかどうかの指標とする。スコアScoreの値が小さければ各モデル同士は似通ったものであると判定することができ、スコアScoreの値が大きければ大きいほど学習されたモデルが異なっていると判定することができる。
その他、モデル同士の距離の累積スコアよりも簡単に学習モデルの安定度を定義できる指標として精度ベースのスコアを用いても良い。精度ベースのスコアを用いる場合には、モデル間で距離を定義する必要はなく、以下のような手順でスコアを算出する。
全T個の訓練データの集合から重複を許さずS個のデータを抽出することで訓練用データセットを作成するが、各々のデータセットについて選択されなかった(T−S)個のデータで検証用のデータセットを作成する。よって、S個のデータで学習したモデルによる分類誤り率を残りの(T−S)個の検証用データで算出する。モデルiの分類誤り率をError(i)と呼び、モデルiの性能指標とする。例えば検証用データ(T−S)個のうちU個(0≦U≦(T−S))のデータの分類を誤ったときの分類誤り率Error(i)はU/(T−S)として算出される。つまり、検証用データのすべてが正解した場合には分類誤り率が0になり、すべてのデータの分類結果を誤ると分類誤り率が1になるようにする。そして、TS個の学習されたすべてのモデルによる分類誤り率を求め、以下のようにして平均値を求めることで与えられた訓練データセットの過不足を判定するスコアErrorとすることができる。
Figure 2016133895
前記式(2)のスコアErrorの値が大きい場合には検証データを除いたS個のデータで学習したモデルが大きく変わる傾向があることが判り、訓練データが不足している可能性が高いと判定できる。訓練データが充分な数ある場合には検証データを除いて学習してもモデルは安定し、性能は高く保たれる傾向が有ると判定できる。訓練データの過不足を判定するスコアの2種を説明したが、これらの組み合わせにより定義されるスコアを用いても良い。その場合には単純に2つのスコアの和を判定に用いるスコアとして利用するようにしても良い。
以上が訓練データの過不足を判定するスコアの例である。データのサンプリング法は前述したサブサンプリング方法に限らず学習データセットの中のいくつかのデータを選択してデータセットを複数パターン作成し学習を行うような方法であれば(例えばブートストラップ法やジャックナイフ法)、何でも良い。
前述のようにして得られたスコアを基に訓練データの過不足を判定し、訓練データが不足していると判定した場合には、例えば図6に示すようなメッセージを表示する。これにより、学習した訓練データだけでは過剰適合が起こる可能性があることが訓練段階の間に検知された場合に、訓練データの追加をユーザに促すことが可能となる。そして、ユーザにより追加された訓練データを受け、さらに学習を行うことによって、過剰適合を避けることができ、分類精度を向上させることができる。
また、スコア算出時に得られた結果を用いて、さらに細かな指示を出すこともできる。例えば、各モデルからその他のモデルへの距離の平均値を各モデルの不安定度スコアとして、式(3)のように定義する。
Figure 2016133895
式(3)により算出されるスコアScore(i)がすべてのiの中で最大であったものの訓練データセットに選択されなかった(T−S)個のデータの中に訓練データに不足している傾向のデータが含まれる可能性が高いと考えられる。そのため、図7(A)に示すような、選択されなかった(T−S)個のデータに類似した訓練データの追加を促すメッセージを表示する。また、すべてのiの中でスコアScore(i)が大きかったものから順に複数個抽出し、それらデータセットに共通して選ばれなかったデータが訓練データ内に不足している傾向のデータであると判定し、図7(B)に示すようなメッセージを表示しても良い。このようにすることで、適切な訓練データの追加をユーザに促すことができる。さらに、式(3)により得られるスコアScore(i)の代わりに、各モデルに対して検証用データで測定した精度基準により算出した式(2)により得られる分類誤り率Error(i)を用いても同様の判定を行うことができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第2の実施形態は、過剰適合が起こる可能性があるかどうかを訓練途中又は訓練後の結果をユーザに提示することによってユーザに知らせて回避する方法である。以下では、前述した第1の実施形態と異なる点について説明する。
問題設定は第1の実施形態と同様である。外観検査装置において画像が入力され、入力された画像から特徴量を抽出し、抽出された特徴量によって入力された画像が正常データであるか異常データであるかを分類するという問題を考える。また、基本となる処理アルゴリズムを図9に示した。図9は、第2の実施形態での処理動作例を示すフローチャートである。ステップS901にて、異常データに対してすべての抽出特徴がどの領域に反応したか座標を保持する。続いて、ステップS902にて、同一異常データで異常領域として異なる箇所を示す特徴量を探索する。次に、ステップS903にて、異常領域の整合性、すなわち不整合が発生しているか否かを判定し、異常領域の不整合が発生している場合には、ステップS904にて、訓練データの追加又は正しい異常領域の教示を促すメッセージを表示させる。
ここで、第2の実施形態は、前述した第1の実施形態とともに適用することが可能であるが、特にサブサンプリングを用いなくとも実施することが可能である。また、1枚の入力画像から抽出されるN個の抽出特徴量は、それぞれ画像内の最大値や任意の局所内の最大輝度勾配等の統計量を基本としており、各特徴量は画像内のどの領域から抽出されたものであるかという座標を紐付けて各々保持しているものとする。
過剰適合が起こる場合の多くは、分類したい対象のクラスを分離する真の特徴ではなく、訓練データのランダムな特徴に適合してしまう場合である。この典型を与える訓練データのセットの例を図8(A)に示す。図8(A)において、上段の訓練正常データは一様パターンであるのに対し、下段の3個の訓練異常データにはすべてキズのような異常領域801があり、さらに製品にプリントされたロゴの一部802が写り込んでいる。このような訓練データの与え方をした場合、正常データから学習される分布から分離されて検知される信号はキズ領域から抽出された信号だけでなく、ロゴ領域から得られた特徴量も正常分布にはない信号であるとし異常候補領域として学習されてしまう。
この場合、キズはないがロゴが写り込んでいるテスト用正常データを入力すると、異常と検出するという誤りが発生する。これは真の正常データと異常データを分離する特徴を教示するにはデータが不足していたことに起因して無関係なロゴに反応するノイズ特徴量を識別モデルを学習する際に選択してしまったことによる過剰適合である。例えば図8(B)に示すような訓練データの与え方をすれば前述のような過剰適合は起こり得なかったはずである。
ここでは非常に簡単な例を示したが、課題の難しさに対してデータが少ない場合には、このような間違った学習が行われる可能性が高い。学習データを多く用意できればデータに偏りが発生する可能性を小さくすることができ、間違った特徴が選択されにくくなる。そこで、過剰適合の可能性を検知する方法として、以下の処理を行う。これは学習の途中であっても学習が終了した後に行っても良い。本実施形態では、学習の途中、選択特徴候補のリストが獲得された時点で保持している訓練データセットのみでは過剰適合が起こる可能性があることを検知するものとする。
訓練正常データがP個あるのに対し、訓練異常データがQ個あるものとする。本実施形態では、分類対象を分類する識別モデルを学習する際に悪影響を及ぼす特徴を判定することで性能を高める仕組みを導入することのできるアルゴリズムすべてに適応することができ、汎用性が高い。しかし、より効果を明瞭に示すために以下では学習アルゴリズムの一例を詳細に記している。ただし、この設定に限らないことは言うまでもない。
識別モデルの学習が行われるとき、最初のステップではN個の特徴量に訓練正常データと訓練異常データの分離度を基準としてスコア化し、良い特徴量から順に1位からN位まで順位が付けられ、分離度が同率のものには同じ順位が与えられる。ここでは、簡単のため分離度を次のように定義して用いることにする。
まず、特徴量毎に正常データの分布が正規分布に基くと仮定する。そして、各特徴量において全訓練正常データの平均値と分散値を算出する。各々の特徴量を添え字f(1≦f≦N)で識別することにし、平均値をμf、分散値をσf 2と表記する。これら値を各特徴における正常の分布モデル定義に用いる。よって、入力データが各特徴において正常らしいかどうかを判定するスコアを算出することができる。
この正常らしさのスコアをNScoreと呼称することにすると、入力データXの抽出特徴fにおける観測値をXfとした場合、このデータの特徴fにおける正常らしさのスコアは式(4)により表される。なお、スコアNScoreの算出においては(μf,σf 2)の組によって各特徴量におけるデータの分布を正規化し、訓練正常データの分散を1.0にし、平均を0.0になるように変換する。訓練異常データやテストデータについても各特徴量のスコア算出時に(μf,σf 2)によって同様の処理を行う。
Figure 2016133895
つまり、正常データの分布の中心にあるデータの正常らしさのスコアが最大になり、分布の中心から離れるほど0に限りなく近付く。ここで、異常データはQ個あるので、異常データセットをAとし、各異常データを添え字に1〜Qを与えて識別して
Figure 2016133895
と表記することとする。N個の特徴量において正常と異常の分離度を基準にスコアを与えるとすると、各特徴fの分離度スコアFScorefは、式(6)のように定義することができる。
Figure 2016133895
各特徴fの分離度を表すスコアFScorefの値は0から1であり、高いスコア程良い特徴であることを表す。さらに、このスコアには訓練正常データのスコアを含めて評価した方が良い場合もある。例えば、本実施形態における各特徴量の評価の際には、正常データの分布が単峰性の正規分布に基くと仮定している。しかし、N個の特徴量の中には正常データが単峰性の正規分布に従っていないものがある場合があるため、こういった特徴量の評価を下げた方が良い結果が得られることがある。よって、式(8)に記すようにスコアFScorefの算出に訓練正常データを用い、実際の正常データがどれ程算出された正常モデルに合致しているかを考慮したスコアを定義する。なお、P個の正常データは式(7)のように添え字で識別することとする。
Figure 2016133895
Figure 2016133895
前記式(6)又は式(8)により得られるスコアFScorefの値を基にしてN個の特徴に順位を与える。ここで、生成されたスコア順に第1の実施形態と同様に上位からd個の特徴を選択し、この選択特徴セットからモデルを学習する。識別モデルは第1の実施形態と同様にCLAFIC法により正常データの分布に対して良い説明を与える部分空間を求めることにより正常の分布から一定の距離以上離れたデータを異常として検出するという方法を取ることにする。そして、学習されたモデルの性能を比較することで選択すべき特徴数を決定する。
ただし、上位から順に並んだ特徴量のリストは分離度基準のみによる評価で決定したものである。そのため、訓練異常データの数Qが少なければ少ないほど、図8に示したように異常である根拠となっている信号以外のノイズで偶然正常の分布から異常データを分離することのできた特徴量が混入する可能性がある。そこで,選択特徴のチェックを以下の手順で行う。
過剰適合が起こり易い、訓練異常データが極端に少ない場合の代表事例としてQ=3である場合を考える。3個の異常データそれぞれが特徴fに関してスコアNScoreを持っている。スコアNScoreは、訓練正常データで正規化された分布を元に算出される正常らしさを基準にしたスコアであるため、スコアの値が小さい方が異常度が高いことになる。ここでは特徴量のチェックを簡易に行うために、閾値T(h)を導入する。閾値T(h)は、ユーザによって予め指定されている値h(h≧0)による関数であり式(9)によって自動的に決定する。
Figure 2016133895
通常、値hは2.0〜3.0が適切な値である。これは、スコアNScoreを定義するモデルが平均が0、分散が1で正規化されて定義されるため、全特徴量をこの閾値によって評価して差し支えない。値hは、閾値T(h)を用いた閾値処理の結果として得られる、後述する式(11)の結果等を参照しながら適応的に決定しても良い。3個ある異常データA1,A2,A3のうち、特徴量fにおいて各データが示すスコアNScoreが式(10)を満たすものが特徴量fで分離することができるデータと判定することにする。
Figure 2016133895
式(10)によって判定することにより、N個ある特徴すべてが簡易的にどの異常データが分離できて、また分離できないかを仮決定することができる。簡単のため、N=11として11個の特徴量が各異常データを分離できたがどうかを0又は1で表し、これら値をN個連結した数字の列をGと名付けて各異常データ毎に設定する。このGが3個の異常データのそれぞれに対し式(11)に記したようになったとする。
Figure 2016133895
式(11)からは、例えば異常データA1に関しては、特徴量IDが1、3、4、7、9、10のどれかを採用することによって正常データから分離できると判断される。また、11個の特徴の中でIDが1の特徴量を選択するだけでA1、A2、A3すべてを検出することができそうであると判定されてしまう。そこで、それぞれの特徴量の中で実際の異常とは無関係なノイズに反応しているものが混入している可能性があるものを次のようにして検知する。
本実施形態では、前提としてN個の特徴には、その特徴が抽出された座標が紐付いている。例えば、画像内の最大値(最大輝度値)という特徴量であれば、画像内で最大の輝度が観測された座標を保持している。同様にして、全11個の抽出特徴量がそれぞれの値の根拠となる座標を保持している。したがって、例えば異常データA1を分離した特徴量1、3、4、7、9、10のすべてが異常領域に正しく反応していた場合には、それらの特徴量が保持する座標がすべて同様の領域を示す。仮に、この異常領域座標が近いかどうかを判定する距離閾値をTNNとすると、異常候補領域が距離閾値TNN以内にある場合には同じ領域を示していると判定できることにする。この領域を根拠とする判定基準によって、異常データA1を分離した特徴量を分類する。この分類処理により特徴量ID1、4、10が同じ領域R1を異常領域と判定していることがわかり、特徴量ID3、7、9が領域R2を異常領域と判定していることが判ったとすると、式(11)のA1に関する式を式(12)のように書き換えることができる。
Figure 2016133895
つまり,異常領域を判断基準に入れることによって異常を正しく分離している特徴量はどちらかが正しく、またどちらか一方は正常と異常を分離する特徴とは無関係なノイズで分離していただけである可能性があることが示されたことになる。同様にして、自動的に領域を基準として各特徴量に対する全異常データの分離可能/不可能をベクトルで表記し直したものが式(13)のようになったとする。
Figure 2016133895
式(13)によると異常データA2に関しては異常領域の不整合が起こらなかった結果とわかる。異常データA3に関しては異常領域と判定されたのが3か所に及ぶことが判る。よって、この中で真の異常信号に反応していない特徴量セットを表す組合せを求める方法は2つある。
まず1つの対処方法は、A1やA3に類似した訓練異常データの追加をユーザに促すことで正常と異常を分離するのに無関係なノイズ特徴はどれであったのか求める方法であり、同様の異常データがすぐに用意できる場合には極めて容易に対処できる方法である。また、もう1つの対処方法は、式(13)のように異常領域候補が複数検出された場合には、どちらが真の異常領域であるかをユーザに問い合わせ、教示を得ることで対処する方法である。これらを促すメッセージの一例を図10に示した。また、GUIによって正しい異常領域を教示する画面の例を図11に示した。図11(A)は異常領域をユーザの手によってポインタにより入力することで教示する様子を表している。また、図11(B)は複数ある異常領域候補を表示し、どちらが異常領域であるかをポインタにより選択させる例を示している。
サンプルによっては複数の異常領域が画像内に存在することがあるため、複数選択することも可能である。ここでは異常領域を選択するという方法を例に挙げたが、その逆の異常領域ではない箇所を教示するという方法によっても同様の教示効果が得られることは言うまでもない。以上の教示方法により真の異常領域がユーザによって教示されると、複数あった有効な特徴量候補セットから良い方を選択することが可能となる。さらに、図11で異常領域を正しく教示した後、該画像の異常領域のみから得られたN個の特徴量を新たに訓練異常データに追加し、異常領域以外の領域から得られたN個の特徴量を新たに訓練正常データに追加して学習する。これにより、正常データと異常データに関する教示をさらに明らかにすることができる。
以上の手順に従い、式(13)から有効である特徴候補が絞られた結果の例が式(14)である。
Figure 2016133895
この式(14)を基に式(6)又は式(8)による特徴量fのスコアを評価し直したものをそれぞれ式(15)及び式(16)に示す。
Figure 2016133895
Figure 2016133895
このように式(15)又は式(16)で得たスコアによる特徴量評価による順位付けを行い、上位から特徴量のセットを選択した後、モデルの学習をすることによって過剰適合を避けた学習を導くことができる。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。第3の実施形態は、第2の実施形態と同様に、過剰適合が起こる可能性があるかどうかを訓練途中又は訓練後の結果をユーザに提示することによってユーザに知らせて回避する方法である。以下では、前述した第1、第2の実施形態と異なる点について説明する。
問題設定は第2の実施形態と同様である。外観検査装置において画像が入力され、入力された画像から特徴量を抽出し、抽出された特徴量によって入力された画像が正常データであるか異常データであるかを分類するという問題を考える。第3の実施形態では、異常信号に正しく反応しているかどうかを異常スコアの序列によって検知する方法である。前述した第2の実施形態では、異常信号の根拠となる領域の違いを検出してノイズ特徴の探索に利用したが、例えば同じ領域に反応した特徴量であったとしても異常スコアの大小関係が実態に則していない場合にはノイズに反応している可能性がある。第3の実施形態は、抽出特徴に局所領域の座標が紐付いていない場合にも効果を奏する。
第3の実施形態においては、第2の実施形態と同様の設定・手順にて訓練異常データを学習させるが、これら訓練異常データに対して異常であるというラベル以外に補助的に同種の異常については同種であることをさらに教示しているものとする。詳細なフローは図13に示している。図13は、第3の実施形態での処理動作例を示すフローチャートである。ステップS1301にて、異常種ラベル毎にすべての特徴量に対して異常スコア順に並べたリストを作成する。続いて、ステップS1302にて、異常種ラベル毎に異常スコア順の教示を受付ける画面を表示し、ステップS903にて、ユーザによる異常スコア順の教示を受付ける。そして、ステップS1304にて、異常順位の不整合が発生しているか否かを判定し、異常順位の不整合が発生している場合には、ステップS1305にて、ユーザにより教示された順序に合うように学習を行う。
例えば外観検査においては異常の形状等の見た目の様子からキズ、ムラ、ひび割れ等の名称が与えられて分類されていることがある。第2の実施形態と同様の手順にて分離度スコアを根拠にしてN個の特徴すべてにスコアFScorefが与えられているとき、異常種ラベルを補助的に用いる。同じ異常種ラベルの付与された異常データの一部又はすべてに対して図12に示すGUIのようにして異常度スコアの序列を教示する。図12に示す画面の例は装置側が推定した異常スコア順に並べた例をユーザに提示し、それをユーザ操作により修正させるといった入力方法として例示しているが、装置側は何も提示せずユーザが選択入力するようにしても良い。
全N個の特徴のそれぞれで式(4)により定義したスコアNScoreを基準としてスコアの低い物から順に順位を与える。このときの順位リストとユーザ教示により得られた順位リストとの差Pdfを異常種lA毎に算出されたハミング距離DH(lA)の和によって計算し、特徴量評価時のペナルティスコアとして利用する。このとき、差Pdfは式(17)によって与えられる。なお、異常種ラベルはL種類あるものとし、ωは異常種ラベル毎にペナルティスコアの影響を調整する重みとして調整可能な変数とする。
Figure 2016133895
式(17)によって得られた値を罰則項として第2の実施形態にて示した式(6)や式(8)、式(15)、式(16)に導入することによって式(18)を得る。式(18)におけるαは罰則項全体の影響を調整する重み変数である。式(17)のωや式(18)のαの値は、ユーザによってスライダーコントロール入力等で調整できるようにすれば良い。
Figure 2016133895
式(18)により特徴量を評価することによって、ユーザの意図を反映させノイズ特徴を選択しにくい仕組みにすることができる。以上は事前に異常種ラベルという情報が利用できる場合として説明した。しかし、整備された情報として異常種ラベルが多くのデータに対して与えられていなくとも、いくつかの異常データに対して正常データから明瞭に分離すべきものとそうでないものに関してユーザが知っている場合がある。こういった場合であっても、少しでも学習時に情報を与えることでノイズ特徴を学習してしまうリスクを抑えることができる。それには以下で説明する重要度という概念を導入することで達成することが可能である。
例えば、製品の機能や価値に大いに関わる異常データがある一方で、ほとんど関係ない異常データが存在する。そこで各異常データ(A1,A2,…,AQ)に対応する重要度γを式(19)に示すように全訓練異常データについて設定する。
Figure 2016133895
例えば、異常データの重要度γの値の範囲を0.0〜1.0とし、初期値はすべての異常データの重要度γの値が0.5と設定されているとする。ユーザによる異常データの重要度設定をGUI上の簡単なスライダーコントロール入力等により受付けるようにしておくことで、これら異常データのうちのいくつかの検出における重要度を上げたり下げたりして設定可能とする。この場合のスコアFScorefは式(20)のように定義することでユーザの意図をより反映させたスコアにすることができる。
Figure 2016133895
なお、当然のことながら第2の実施形態に示した式(8)のように正常データの分布も考慮したスコアとして式(21)のように定義しても良い。
Figure 2016133895
(本発明の他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
201:訓練データ入力部 202:識別モデル学習部 203:データ入力部 204:特徴量抽出部 205:分類処理部 206:判定部 207:通知部

Claims (8)

  1. 分類対象に係る訓練データを入力する訓練データ入力手段と、
    前記訓練データ入力手段より入力された前記訓練データに基づき機械学習を行う学習手段と、
    前記学習手段での学習時に、前記訓練データ又は前記訓練データに関する情報が不足しているか否かを判定する判定手段と、
    前記判定手段により前記訓練データ又は前記訓練データに関する情報が不足していると判定された場合に、前記訓練データ又は前記訓練データに関する情報の追加を促すメッセージを通知する通知手段とを有することを特徴とする情報処理装置。
  2. 前記訓練データ入力手段より入力された前記訓練データを抽出してそれぞれ学習して得られたモデルの類似性に基づいて、前記訓練データ又は前記訓練データに関する情報が不足しているか否かを判定することを特徴とする請求項1記載の情報処理装置。
  3. 前記訓練データに与えられた分類に係るラベルの根拠とするラベル以外の情報を参照し、参照した前記情報の整合性に基づいて前記通知手段が前記訓練データ又は前記訓練データに関する情報の追加を促すメッセージを通知することを特徴とする請求項1又は2記載の情報処理装置。
  4. 前記通知手段により通知されたメッセージに応じて追加された前記訓練データ又は前記訓練データに関する情報に基づき、さらに前記学習手段が機械学習を行うことを特徴とする請求項1〜3の何れか1項に記載の情報処理装置。
  5. 前記訓練データとして訓練正常データ及び訓練異常データの少なくとも一方が入力され、前記学習手段が、入力された前記訓練正常データ及び前記訓練異常データの少なくとも一方に基づいて機械学習を行うことを特徴とする請求項1〜4の何れか1項に記載の情報処理装置。
  6. 請求項1〜5の何れか1項に記載の情報処理装置における学習手段での学習で得られたモデルを取得する手段と、
    入力データ及び前記モデルに基づいて、前記入力データを分類する分類処理手段とを備えることを特徴とする情報処理装置。
  7. 分類対象に係る訓練データを入力する訓練データ入力工程と、
    入力された前記訓練データに基づき機械学習を行う学習工程と、
    前記訓練データに基づく学習時に、前記訓練データ又は前記訓練データに関する情報が不足しているか否かを判定する判定工程と、
    前記訓練データ又は前記訓練データに関する情報が不足していると判定された場合に、前記訓練データ又は前記訓練データに関する情報の追加を促すメッセージを通知する通知工程とを有することを特徴とする情報処理方法。
  8. 分類対象に係る訓練データを入力する訓練データ入力ステップと、
    入力された前記訓練データに基づき機械学習を行う学習ステップと、
    前記訓練データに基づく学習時に、前記訓練データ又は前記訓練データに関する情報が不足しているか否かを判定する判定ステップと、
    前記訓練データ又は前記訓練データに関する情報が不足していると判定された場合に、前記訓練データ又は前記訓練データに関する情報の追加を促すメッセージを通知する通知ステップとをコンピュータに実行させるためのプログラム。
JP2015006899A 2015-01-16 2015-01-16 情報処理装置、情報処理方法、及びプログラム Active JP6632193B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015006899A JP6632193B2 (ja) 2015-01-16 2015-01-16 情報処理装置、情報処理方法、及びプログラム
US14/993,341 US10262233B2 (en) 2015-01-16 2016-01-12 Image processing apparatus, image processing method, program, and storage medium for using learning data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015006899A JP6632193B2 (ja) 2015-01-16 2015-01-16 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016133895A true JP2016133895A (ja) 2016-07-25
JP6632193B2 JP6632193B2 (ja) 2020-01-22

Family

ID=56408108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015006899A Active JP6632193B2 (ja) 2015-01-16 2015-01-16 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10262233B2 (ja)
JP (1) JP6632193B2 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018105320A1 (ja) * 2016-12-06 2018-06-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置、情報処理方法及びプログラム
JP2018092613A (ja) * 2016-12-06 2018-06-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置、情報処理方法及びプログラム
JP2018116545A (ja) * 2017-01-19 2018-07-26 オムロン株式会社 予測モデル作成装置、生産設備監視システム、及び生産設備監視方法
JP2018120300A (ja) * 2017-01-23 2018-08-02 株式会社リコー 情報処理装置、情報処理方法およびプログラム
JP2018195231A (ja) * 2017-05-22 2018-12-06 コニカミノルタ株式会社 学習モデル作成装置、該方法および該プログラム
WO2019012653A1 (ja) * 2017-07-13 2019-01-17 日本電気株式会社 学習システム、分析システム、学習方法及び記憶媒体
KR20190048004A (ko) * 2017-10-30 2019-05-09 삼성에스디에스 주식회사 기계 학습 기반의 이상 행위 탐지 방법 및 그 장치
JP2019091454A (ja) * 2017-11-15 2019-06-13 キヤノンメディカルシステムズ株式会社 データ解析処理装置及びデータ解析処理プログラム
JP2019095217A (ja) * 2017-11-17 2019-06-20 ファナック株式会社 外観検査装置
JP2019133212A (ja) * 2018-01-29 2019-08-08 株式会社日立製作所 異常検知システム、異常検知方法、および、プログラム
KR102053694B1 (ko) * 2018-05-30 2019-12-09 조선대학교산학협력단 데이터 마이닝을 위한 기계 학습 훈련에 있어서의 분류 적합도 측정 장치 및 그 동작 방법
WO2020004049A1 (ja) * 2018-06-27 2020-01-02 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020513615A (ja) * 2016-11-23 2020-05-14 ヴァイタル イメージズ,インコーポレイテッド 深層学習ニューラルネットワークの分散化された診断ワークフロー訓練
JP2020166499A (ja) * 2019-03-29 2020-10-08 ファナック株式会社 検査装置、検査システム、及びユーザインタフェース
WO2021014823A1 (ja) * 2019-07-24 2021-01-28 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JPWO2021084623A1 (ja) * 2019-10-29 2021-05-06
JP2021524955A (ja) * 2019-04-16 2021-09-16 ワン・コネクト・スマート・テクノロジー・カンパニー・リミテッド・(シェンチェン) 肖像属性モデル構築方法、装置、コンピュータ機器および記憶媒体
WO2021229630A1 (ja) * 2020-05-11 2021-11-18 富士通株式会社 機械学習プログラム,機械学習方法および機械学習装置
WO2021260922A1 (ja) * 2020-06-26 2021-12-30 三菱電機株式会社 データ量十分性判定装置、データ量十分性判定方法、データ量十分性判定プログラム、学習モデル生成システム、学習済みの学習モデル生成方法、及び学習済みの学習モデル生成プログラム
WO2021260979A1 (ja) * 2020-06-22 2021-12-30 株式会社日立ソリューションズ データ収集システム
WO2022107262A1 (ja) * 2020-11-18 2022-05-27 日本電信電話株式会社 判定装置、判定方法、および、判定プログラム
JP7350582B2 (ja) 2019-03-28 2023-09-26 キヤノンメディカルシステムズ株式会社 モデル学習用のシステム、装置、及び学習方法
JP7445533B2 (ja) 2020-06-15 2024-03-07 日立グローバルライフソリューションズ株式会社 異常検出装置、プログラムおよび電気機器システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10977520B2 (en) * 2018-12-18 2021-04-13 Slyce Acquisition Inc. Training data collection for computer vision
US11756291B2 (en) 2018-12-18 2023-09-12 Slyce Acquisition Inc. Scene and user-input context aided visual search
US11120273B2 (en) * 2019-06-21 2021-09-14 Gfycat, Inc. Adaptive content classification of a video content item
US11562297B2 (en) * 2020-01-17 2023-01-24 Apple Inc. Automated input-data monitoring to dynamically adapt machine-learning techniques
CN114419400B (zh) * 2022-03-28 2022-07-29 北京字节跳动网络技术有限公司 图像识别模型的训练方法、识别方法、装置、介质和设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11344450A (ja) * 1998-06-03 1999-12-14 Hitachi Ltd 教示用データ作成方法並びに欠陥分類方法およびその装置
JP2004213567A (ja) * 2003-01-08 2004-07-29 Ntt Docomo Inc 画像学習装置及びその学習方法
JP2006189915A (ja) * 2004-12-28 2006-07-20 Olympus Corp 分類装置及び分類方法
JP2006292615A (ja) * 2005-04-13 2006-10-26 Sharp Corp 外観検査装置、外観検査方法、コンピュータを外観検査装置として機能させるためのプログラムおよび記録媒体
JP2010257140A (ja) * 2009-04-23 2010-11-11 Canon Inc 情報処理装置及び情報処理方法
JP2011138387A (ja) * 2009-12-28 2011-07-14 Canon Inc オブジェクト識別装置及びその制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP4767595B2 (ja) * 2005-06-15 2011-09-07 パナソニック株式会社 対象物検出装置及びその学習装置
JP6236296B2 (ja) * 2013-11-14 2017-11-22 株式会社デンソーアイティーラボラトリ 学習装置、学習プログラム、及び学習方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11344450A (ja) * 1998-06-03 1999-12-14 Hitachi Ltd 教示用データ作成方法並びに欠陥分類方法およびその装置
JP2004213567A (ja) * 2003-01-08 2004-07-29 Ntt Docomo Inc 画像学習装置及びその学習方法
JP2006189915A (ja) * 2004-12-28 2006-07-20 Olympus Corp 分類装置及び分類方法
JP2006292615A (ja) * 2005-04-13 2006-10-26 Sharp Corp 外観検査装置、外観検査方法、コンピュータを外観検査装置として機能させるためのプログラムおよび記録媒体
JP2010257140A (ja) * 2009-04-23 2010-11-11 Canon Inc 情報処理装置及び情報処理方法
JP2011138387A (ja) * 2009-12-28 2011-07-14 Canon Inc オブジェクト識別装置及びその制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤森友貴、御手洗裕輔、瀧本将史、真継優和: "特集2 優れた画像処理に触れる−ViEW2009より−:「1クラス特徴選択」を用いた外観検査方式", 映像情報インダストリアル, vol. 第42巻,第2号(通巻790号), JPN6019003444, 1 February 2010 (2010-02-01), JP, pages 89 - 96, ISSN: 0003971560 *

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020513615A (ja) * 2016-11-23 2020-05-14 ヴァイタル イメージズ,インコーポレイテッド 深層学習ニューラルネットワークの分散化された診断ワークフロー訓練
WO2018105320A1 (ja) * 2016-12-06 2018-06-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置、情報処理方法及びプログラム
JP2018092613A (ja) * 2016-12-06 2018-06-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置、情報処理方法及びプログラム
JP2018116545A (ja) * 2017-01-19 2018-07-26 オムロン株式会社 予測モデル作成装置、生産設備監視システム、及び生産設備監視方法
US11106197B2 (en) 2017-01-19 2021-08-31 Omron Corporation Prediction model creation apparatus, production facility monitoring system, and production facility monitoring method
JP2018120300A (ja) * 2017-01-23 2018-08-02 株式会社リコー 情報処理装置、情報処理方法およびプログラム
JP2018195231A (ja) * 2017-05-22 2018-12-06 コニカミノルタ株式会社 学習モデル作成装置、該方法および該プログラム
JP7043742B2 (ja) 2017-05-22 2022-03-30 コニカミノルタ株式会社 学習モデル作成装置
WO2019012653A1 (ja) * 2017-07-13 2019-01-17 日本電気株式会社 学習システム、分析システム、学習方法及び記憶媒体
JPWO2019012653A1 (ja) * 2017-07-13 2020-05-21 日本電気株式会社 学習システム、分析システム、学習方法及び記憶媒体
US11669771B2 (en) 2017-07-13 2023-06-06 Nec Corporation Learning system, analysis system, learning method, and storage medium
KR20190048004A (ko) * 2017-10-30 2019-05-09 삼성에스디에스 주식회사 기계 학습 기반의 이상 행위 탐지 방법 및 그 장치
KR102348536B1 (ko) * 2017-10-30 2022-01-06 삼성에스디에스 주식회사 기계 학습 기반의 이상 행위 탐지 방법 및 그 장치
US11954598B2 (en) 2017-11-15 2024-04-09 Canon Medical Systems Corporation Matching network for medical image analysis
JP2019091454A (ja) * 2017-11-15 2019-06-13 キヤノンメディカルシステムズ株式会社 データ解析処理装置及びデータ解析処理プログラム
US11625597B2 (en) 2017-11-15 2023-04-11 Canon Medical Systems Corporation Matching network for medical image analysis
JP7246898B2 (ja) 2017-11-15 2023-03-28 キヤノンメディカルシステムズ株式会社 データ解析処理装置及びデータ解析処理プログラム
JP2019095217A (ja) * 2017-11-17 2019-06-20 ファナック株式会社 外観検査装置
US10997711B2 (en) 2017-11-17 2021-05-04 Fanuc Corporation Appearance inspection device
JP2019133212A (ja) * 2018-01-29 2019-08-08 株式会社日立製作所 異常検知システム、異常検知方法、および、プログラム
JP7108417B2 (ja) 2018-01-29 2022-07-28 株式会社日立製作所 異常検知システム
KR102053694B1 (ko) * 2018-05-30 2019-12-09 조선대학교산학협력단 데이터 마이닝을 위한 기계 학습 훈련에 있어서의 분류 적합도 측정 장치 및 그 동작 방법
JPWO2020004049A1 (ja) * 2018-06-27 2021-07-08 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020004049A1 (ja) * 2018-06-27 2020-01-02 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP7318646B2 (ja) 2018-06-27 2023-08-01 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP7350582B2 (ja) 2019-03-28 2023-09-26 キヤノンメディカルシステムズ株式会社 モデル学習用のシステム、装置、及び学習方法
JP2020166499A (ja) * 2019-03-29 2020-10-08 ファナック株式会社 検査装置、検査システム、及びユーザインタフェース
JP7088871B2 (ja) 2019-03-29 2022-06-21 ファナック株式会社 検査装置、検査システム、及びユーザインタフェース
US11568290B2 (en) 2019-03-29 2023-01-31 Fanuc Corporation Method for displaying, user interface unit, display device and inspection apparatus
JP2021524955A (ja) * 2019-04-16 2021-09-16 ワン・コネクト・スマート・テクノロジー・カンパニー・リミテッド・(シェンチェン) 肖像属性モデル構築方法、装置、コンピュータ機器および記憶媒体
WO2021014823A1 (ja) * 2019-07-24 2021-01-28 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JPWO2021084623A1 (ja) * 2019-10-29 2021-05-06
JP7268756B2 (ja) 2019-10-29 2023-05-08 富士通株式会社 劣化抑制プログラム、劣化抑制方法および情報処理装置
JP7409495B2 (ja) 2020-05-11 2024-01-09 富士通株式会社 機械学習プログラム,機械学習方法および機械学習装置
WO2021229630A1 (ja) * 2020-05-11 2021-11-18 富士通株式会社 機械学習プログラム,機械学習方法および機械学習装置
JP7445533B2 (ja) 2020-06-15 2024-03-07 日立グローバルライフソリューションズ株式会社 異常検出装置、プログラムおよび電気機器システム
WO2021260979A1 (ja) * 2020-06-22 2021-12-30 株式会社日立ソリューションズ データ収集システム
JP7241718B2 (ja) 2020-06-22 2023-03-17 株式会社日立ソリューションズ データ収集システム
JP2022002058A (ja) * 2020-06-22 2022-01-06 株式会社日立ソリューションズ データ収集システム
JP7211562B2 (ja) 2020-06-26 2023-01-24 三菱電機株式会社 データ量十分性判定装置、データ量十分性判定方法、データ量十分性判定プログラム、学習モデル生成システム、学習済みの学習モデル生成方法、及び学習済みの学習モデル生成プログラム
JPWO2021260922A1 (ja) * 2020-06-26 2021-12-30
WO2021260922A1 (ja) * 2020-06-26 2021-12-30 三菱電機株式会社 データ量十分性判定装置、データ量十分性判定方法、データ量十分性判定プログラム、学習モデル生成システム、学習済みの学習モデル生成方法、及び学習済みの学習モデル生成プログラム
WO2022107262A1 (ja) * 2020-11-18 2022-05-27 日本電信電話株式会社 判定装置、判定方法、および、判定プログラム

Also Published As

Publication number Publication date
US20160210535A1 (en) 2016-07-21
JP6632193B2 (ja) 2020-01-22
US10262233B2 (en) 2019-04-16

Similar Documents

Publication Publication Date Title
JP6632193B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9721213B2 (en) Information matching apparatus, method of matching information, and computer readable storage medium having stored information matching program
US9886669B2 (en) Interactive visualization of machine-learning performance
JP6472621B2 (ja) 分類器構築方法、画像分類方法および画像分類装置
JP6679266B2 (ja) データ解析装置、データ解析方法及びプログラム
US20150279129A1 (en) Failure cause classification apparatus
JP2015087903A (ja) 情報処理装置及び情報処理方法
JP5214760B2 (ja) 学習装置、方法及びプログラム
JP6780769B2 (ja) 学習装置、学習方法および学習プログラム
JP2018142097A (ja) 情報処理装置、情報処理方法及びプログラム
US20200116522A1 (en) Anomaly detection apparatus and anomaly detection method
US20110213748A1 (en) Inference apparatus and inference method for the same
US11105855B2 (en) Tester and method for testing a device under test and tester and method for determining a single decision function
JP2017102906A (ja) 情報処理装置、情報処理方法及びプログラム
US11860930B2 (en) Automatic image selection for visual consistency
CN112766427A (zh) 图像识别模型的训练方法、装置及设备
JP5873764B2 (ja) 欠陥画像の提示方法
US20210166362A1 (en) Wafer map identification method and computer-readable recording medium
WO2019176988A1 (ja) 検査システム、識別システム、及び識別器評価装置
JP2021165909A (ja) 情報処理装置、情報処理装置の情報処理方法およびプログラム
CN111414930B (zh) 深度学习模型训练方法及装置、电子设备及存储介质
JP2006292615A (ja) 外観検査装置、外観検査方法、コンピュータを外観検査装置として機能させるためのプログラムおよび記録媒体
US20230297886A1 (en) Cluster targeting for use in machine learning
US20220405299A1 (en) Visualizing feature variation effects on computer model prediction
Campigotto et al. Adapting to a realistic decision maker: experiments towards a reactive multi-objective optimizer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191009

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191210

R151 Written notification of patent or utility model registration

Ref document number: 6632193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151