JP2011150541A - 学習装置、学習方法、及びプログラム - Google Patents
学習装置、学習方法、及びプログラム Download PDFInfo
- Publication number
- JP2011150541A JP2011150541A JP2010011356A JP2010011356A JP2011150541A JP 2011150541 A JP2011150541 A JP 2011150541A JP 2010011356 A JP2010011356 A JP 2010011356A JP 2010011356 A JP2010011356 A JP 2010011356A JP 2011150541 A JP2011150541 A JP 2011150541A
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- discriminator
- feature amount
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/945—User interactive design; Environments; Toolboxes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
【課題】少ない学習用画像を用いた学習において、過学習を抑制して、識別の精度が高い識別器を学習する。
【解決手段】学習部26は、複数のサンプル画像の中から、識別器を学習するのに用いる学習用画像がユーザにより指定されたことに対応して、学習用画像の特徴を表す画像特徴量を構成する複数の次元特徴量から、無作為に選択された次元特徴量からなるランダム特徴量を用いて識別器を学習する。本発明は、例えば画像を分類する処理を行なうコンピュータ等に適用できる。
【選択図】図1
【解決手段】学習部26は、複数のサンプル画像の中から、識別器を学習するのに用いる学習用画像がユーザにより指定されたことに対応して、学習用画像の特徴を表す画像特徴量を構成する複数の次元特徴量から、無作為に選択された次元特徴量からなるランダム特徴量を用いて識別器を学習する。本発明は、例えば画像を分類する処理を行なうコンピュータ等に適用できる。
【選択図】図1
Description
本発明は、学習装置、学習方法、及びプログラムに関し、特に、例えば、少ない枚数の学習用画像に基づいて、画像上に所定の識別対象が存在するか否かを識別するための識別器を学習する場合に用いて好適な学習装置、学習方法、及びプログラムに関する。
従来、複数の画像を、その被写体に対応するクラスに分類し、クラス毎に、分類された画像により構成される画像クラスタを生成する画像分類方法が存在する。
この画像分類方法では、例えば、画像上に所定の識別対象(例えば、人間の顔)が存在するか否かを識別するための識別器を用いて、複数の画像に、それぞれ、所定の識別対象が存在するか否かを識別する。
そして、その識別結果に基づいて、複数の画像を、それぞれ、画像上に所定の識別対象が存在するクラス、又は画像上に所定の識別対象が存在しないクラスのいずれかに分類し、分類したクラス毎に画像クラスタを生成している。
ここで、従来の画像分類方法において用いられる識別器を生成(学習)する場合、画像上に所定の識別対象が存在するか否かを表す正解ラベルが付加された大量の学習用画像と、大量の学習用画像に基づいて識別器を生成するための莫大な演算が必要になる。
したがって、企業や研究機関等では、上述した識別器を生成するために必要な大量の学習用画像と莫大な演算を行うコンピュータを、比較的容易に用意できるものの、個人レベルで用意することは非常に困難である。
このため、個人レベルで、各個人が所望する画像クラスタを生成するために用いる識別器を生成することは非常に困難であった。
また、画像上に存在する所定の識別対象を識別するための識別器を用いて、複数の画像のうち、画像上に所定の識別対象が存在する画像を検索する検索方法が提案されている(例えば、特許文献1を参照)。
この検索方法では、複数の画像の中から、画像上に所定の識別対象が存在するポジティブ画像、及び画像上の所定の識別対象が存在しないネガティブ画像を、ユーザが指定する。また、ユーザにより指定されたポジティブ画像及びネガティブ画像を学習用画像として、識別器を生成する。
そして、検索方法では、生成した識別器を用いて、複数の画像から、画像上に所定の識別対象が存在する画像を検索する。
なお、この検索方法では、解空間の絞込みを迅速に行なうことにより、識別器を迅速に生成するようにして、所望の画像をより迅速に検索できるようにしている。
ここで、所定の識別対象を識別する精度が高い識別器を生成するためには、多様なポジティブ画像(例えば、所定の識別対象が様々な角度で撮像されたポジティブ画像)が数多く必要となる。
しかしながら、上述した検索方法では、ユーザが、1枚ずつ学習用画像を指定するため、学習用画像の枚数は、従来の画像分類方法で識別器の生成に用いる学習用画像の枚数と比較してごく僅かであり、その結果、学習用画像のうち、ポジティブ画像もごく僅かとなる。
ごく僅かなポジティブ画像を用いた識別器の学習は、容易に過学習(オーバーフィッティング)を引き起こしてしまい、識別器による識別の精度が低下してしまう。
また、学習用画像の枚数が少ないにも拘らず、学習用画像の特徴を表す画像特徴量を、Bag-of-wordsや、学習用画像における複数の特徴の組合せ等により、数百から数千の次元のベクトルにより表し、学習用画像としてのベクトルを用いて、識別器を生成する場合には、その高い次元のベクトルに起因して、やはり、容易に過学習を引き起こしてしまう。
さらに、識別器を生成する場合、識別器の凡化性能を向上させるバギングを用いた方法が提案されている(例えば、非特許文献1を参照)。
しかしながら、バギングを用いた方法においても、学習用画像の枚数が少ないにも拘らず、数百から数千の次元のベクトルにより表される学習用画像の画像特徴量を用いる場合には、やはり、過学習を引き起こしてしまう。
Leo Breiman, Bagging Predictors, Machine Learning,1996,123-140
上述したように、少ない枚数の学習用画像を用いて識別器を生成する場合において、学習用画像の画像特徴量として、数百から数千の次元のベクトルにより表される画像特徴量を用いるときには、過学習が生じてしまい、識別の精度が高い識別器を生成することができない。
本発明は、このような状況に鑑みてなされたものであり、比較的、枚数の少ない学習用画像を用いた学習において、過学習を抑制して、識別の精度が高い識別器を学習するものである。
本発明の一側面の学習装置、又はコンピュータを学習装置として機能させるためのプログラムは、複数のサンプル画像の中から、画像上に所定の識別対象が存在するか否かを識別するための識別器を学習するのに用いる学習用画像がユーザにより指定されたことに対応して、前記学習用画像の特徴を表す画像特徴量を構成する複数の次元特徴量から、無作為に選択された次元特徴量からなるランダム特徴量を用いて前記識別器を学習する学習手段を含む学習装置、又はコンピュータを学習装置として機能させるためのプログラムである。
前記学習手段では、前記ランダム特徴量が存在する特徴空間において、画像上に所定の識別対象が存在するか否かを識別するための分離超平面と、前記ランダム特徴量を構成する次元特徴量のうち、前記分離超平面の近傍に存在する次元特徴量との距離を表すマージンを最大化するマージン最大化学習により、前記識別器を学習するようにすることができる。
前記学習手段では、前記学習用画像から、前記学習用画像の特徴を表す画像特徴量であって、且つ、複数の次元のベクトルにより表される前記画像特徴量を抽出する画像特徴量抽出手段と、前記画像特徴量の各次元の要素である複数の次元特徴量のうちのいくつかを無作為に選択し、選択した次元特徴量により構成されるランダム特徴量を生成するランダム特徴量生成手段と、前記ランダム特徴量を用いた前記マージン最大化学習により、前記識別器を生成する識別器生成手段とを有するようにすることができる。
前記識別器は、前記識別対象画像上に所定の識別対象が存在するか否かを判定する複数の弱識別器による判定結果に基づいて、最終的な判定結果を出力するものであり、前記ランダム特徴量生成手段では、前記複数の弱識別器毎に、前記弱識別器を生成するために用いるランダム特徴量を生成し、前記識別器生成手段では、前記複数の弱識別器毎に生成した前記ランダム特徴量に基づいて、前記複数の弱識別器を生成するようにすることができる。
前記識別器生成手段では、前記ランダム特徴量に基づいて、前記弱識別器による判定の信頼の度合いを表す信頼度も生成するようにすることができる。
前記識別器生成手段では、前記複数の弱識別器及び前記信頼度に基づいて、前記複数の弱識別器毎に出力される判定結果としての決定値と前記信頼度との積和演算結果を表す識別決定値を出力する前記識別器を生成し、前記識別手段では、前記識別器が出力する前記識別決定値に基づいて、前記識別対象画像上に所定の識別対象が存在するか否かを識別するようにすることができる。
前記ランダム特徴量生成手段では、前記ユーザにより前記学習用画像が指定される毎に、異なるランダム特徴量を生成するようにすることができる。
前記学習用画像は、画像上に前記所定の識別対象が存在するポジティブ画像と、画像上に所定の識別対象が存在しないネガティブ画像とにより構成されており、前記学習手段では、さらに、擬似的なネガティブ画像を、前記学習用画像として追加するネガティブ画像追加手段を有するようにすることができる。
前記学習手段では、前記識別器生成手段により前記識別器が生成された後に所定の条件を満たす場合、擬似的なポジティブ画像を前記学習用画像として追加するポジティブ画像追加手段をさらに有するようにし、前記識別器生成手段では、前記擬似的なポジティブ画像が追加された前記学習用画像の前記ランダム特徴量に基づいて、前記識別器を生成するようにすることができる。
前記ポジティブ画像追加手段では、前記ポジティブ画像と前記擬似的なポジティブ画像の総数が、前記ネガティブ画像と前記擬似的なネガティブ画像の総数よりも少ないという条件を満たす場合、擬似的なポジティブ画像を前記学習用画像として追加するようにすることができる。
前記学習手段では、前記マージン最大化学習として、SVM(support vector machine)を用いた学習を行なうようにすることができる。
前記識別器を用いて、識別対象画像上に所定の識別対象が存在するか否かを識別する識別手段をさらに含み、前記学習手段では、前記識別手段による識別処理に応じて前記ユーザにより新たに前記学習用画像が指定された場合、指定された前記学習用画像を用いた前記識別器の学習を繰り返して実行するようにすることができる。
前記識別手段では、前記識別手段による識別処理に応じて前記ユーザにより、画像上に所定の識別対象が存在する識別対象画像により構成される画像クラスタの生成を指示された場合、前記学習手段により生成された最新の識別器に基づいて、複数の前記識別対象画像から前記画像クラスタを生成するようにすることができる。
本発明の一側面の学習方法は、画像上に所定の識別対象が存在するか否かを識別するための識別器を学習する学習装置の学習方法であって、前記学習装置は、学習手段を含み、前記学習手段が、複数のサンプル画像の中から、画像上に所定の識別対象が存在するか否かを識別するための識別器を学習するのに用いる学習用画像がユーザにより指定されたことに対応して、前記学習用画像の特徴を表す画像特徴量を構成する複数の次元特徴量から、無作為に選択された次元特徴量からなるランダム特徴量を用いて前記識別器を学習するステップを含む学習方法である。
本発明によれば、複数のサンプル画像の中から、画像上に所定の識別対象が存在するか否かを識別するための識別器を学習するのに用いる学習用画像がユーザにより指定されたことに対応して、前記学習用画像の特徴を表す画像特徴量を構成する複数の次元特徴量から、無作為に選択された次元特徴量からなるランダム特徴量を用いて前記識別器が学習される。
本発明によれば、比較的、枚数の少ない学習用画像を用いた学習において、過学習を抑制して、識別の精度が高い識別器を学習することができる。
以下、発明を実施するための形態(以下、本実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.本実施の形態(学習用画像のランダム特徴量を用いて識別器を生成する場合の一例)
2.変形例
1.本実施の形態(学習用画像のランダム特徴量を用いて識別器を生成する場合の一例)
2.変形例
<1.本実施の形態>
[画像分類装置1の構成例]
図1は、本実施の形態である画像分類装置1の構成例を示している。
[画像分類装置1の構成例]
図1は、本実施の形態である画像分類装置1の構成例を示している。
この画像分類装置1は、画像分類装置1に記憶(保持)されている複数の画像それぞれに、所定の識別対象(例えば、図2に示す腕時計等)が存在するか否か識別するものである。
また、画像分類装置1は、その識別結果に基づいて、複数の画像を、所定の識別対象が存在するクラスと、所定の識別対象が存在しないクラスとに分類し、所定の識別対象が存在するクラスに分類された画像により構成される画像クラスタを生成して記憶するものである。
この画像分類装置1は、操作部21、制御部22、画像記憶部23、表示制御部24、表示部25、学習部26、及び識別部27により構成されている。
操作部21は、例えば、ユーザにより操作される操作ボタン等により構成されており、ユーザの操作に応じた操作信号を制御部22に供給する。
制御部22は、操作部21からの操作信号に応じて、表示制御部24、学習部26、及び識別部27等を制御する。
画像記憶部23は、画像を記憶する複数の画像データベースにより構成されている。
表示制御部24は、制御部22の制御にしたがって、画像記憶部23を構成する複数の画像データベースのうち、ユーザの選択操作に応じて選択された画像データベースから、複数のサンプル画像を読み出し、表示部25に供給して表示させる。
ここで、サンプル画像とは、画像上に所定の識別対象が存在する画像を表すポジティブ画像(例えば、画像上に被写体として腕時計が存在する画像)と、画像上に所定の識別対象が存在しない画像を表すネガティブ画像(例えば、画像上に被写体として腕時計が存在しない画像)とをユーザに指定させるために表示される画像をいう。
表示制御部24は、表示部25に表示された複数のサンプル画像のうち、ユーザの指定操作に応じて指定されたサンプル画像に、ユーザの指定操作に対応する正解ラベルを付加する。そして、表示制御部24は、正解ラベルを付加したサンプル画像を、学習用画像として、学習部26に供給する。
ここで、正解ラベルとは、サンプル画像がポジティブ画像であるかネガティブ画像であるかを表すものであり、サンプル画像がポジティブ画像であることを表すポジティブラベルと、サンプル画像がネガティブ画像であることを表すネガティブラベルとが存在する。
すなわち、表示制御部24は、ユーザの指定操作により、ポジティブ画像であると指定されたサンプル画像に対してポジティブラベルを付加するとともに、ユーザの指定操作により、ネガティブ画像であると指定されたサンプル画像に対してネガティブラベルを付加する。そして、表示制御部24は、ポジティブラベルやネガティブラベルを付加したサンプル画像を、学習用画像として、学習部26に供給する。
また、表示制御部24は、識別部27からの識別結果として、所定の識別対象が存在すると識別された画像を、表示部25に供給して表示させる。
表示部25は、表示制御部24からのサンプル画像や識別結果等を表示する。
学習部26は、表示制御部24からの学習用画像に基づいて、所定の識別対象(例えば、図2に示される腕時計)が画像上に存在するか否かを識別するための識別器を生成する学習処理を行い、その結果得られる識別器を、識別部27に供給する。
なお、学習部26が行なう学習処理の詳細は、図3乃至図5、及び図7のフローチャートを参照して後述する。
識別部27は、学習部26からの識別器を用いて、画像記憶部23が有する、ユーザの選択操作により選択された画像データベースに記憶されている画像上(但し、学習用画像とされたものは除く)に、所定の識別対象が存在するか否かを識別する識別処理を行なう。
そして、識別器27は、識別処理により、所定の識別対象が画像上に存在すると識別された画像を、識別結果として表示制御部24に供給する。なお、識別部27が行なう識別処理の詳細は、図8のフローチャートを参照して後述する。
[画像分類装置1が行う画像分類処理の概要]
図2は、画像分類装置1が行う画像分類処理の概要を示している。
図2は、画像分類装置1が行う画像分類処理の概要を示している。
ステップS1において、表示制御部24は、画像記憶部23を構成する複数の画像データベースのうち、ユーザの選択操作により選択された画像データベース(以下、選択画像データベースという)から、複数のサンプル画像を読み出し、表示部25に供給して表示させる。
この場合、ユーザは、操作部21を用いて、表示部25に表示された複数のサンプル画像の中から、ポジティブ画像を指定するか、又はネガティブ画像を指定する指定操作を行う。すなわち、例えば、ユーザは、画像上に腕時計が存在するサンプル画像をポジティブ画像として指定するか、又は画像上に腕時計以外の被写体が存在するサンプル画像をネガティブ画像として指定する指定操作を行う。
ステップS2において、表示制御部24は、ポジティブ画像として指定されたサンプル画像に対してはポジティブラベルを付加する。反対に、表示制御部24は、ネガティブ画像として指定されたサンプル画像に対してはネガティブラベルを付加する。そして、表示制御部24は、ポジティブラベルやネガティブラベルを付加したサンプル画像を、学習用画像として、学習部26に供給する。
ステップS3において、学習部26は、表示制御部24からの学習用画像を用いて、画像上に所定の識別対象(図2の例では腕時計)が存在するか否かを識別するための識別器を生成する学習処理を行ない、その結果得られる識別器を識別部27に供給する。
識別部27は、画像記憶部23の選択画像データベースに記憶されている複数の画像のうち、学習用画像以外の画像(ポジティブラベルやネガティブラベルが付加されていない画像)の幾つかを、識別処理の対象である識別対象画像として、画像記憶部23から読み出す。
そして、識別部27は、読み出した幾つかの識別対象画像をそれぞれ対象として、学習部26からの識別器を用いて、画像上に所定の識別対象が存在する画像であるか否かを識別する識別処理を行なう。
識別部27は、識別処理により、画像上に所定の識別対象が存在する画像であると識別した識別対象画像を、識別結果として表示制御部24に供給する。
ステップS4において、表示制御部24は、識別部27からの識別結果としての識別対象画像を、表示部25に供給して表示させる。
ユーザは、表示部25に表示された識別結果を参照して、識別器による画像の分類の精度に満足しない場合(例えば、図2に示されるように、被写体としてのパンダが存在する画像が、識別結果に含まれていた場合)、操作部21を用いて、新たに識別器の生成を指示する指示操作を行う。この指示操作が行われたことに対応して、処理はステップS4からステップS5に進められる。
ステップS5において、表示制御部24は、ユーザの指示操作に応じて、画像データベースから、以前にステップS2の処理で表示した複数のサンプル画像とは異なる、新たな複数のサンプル画像を読み出し、表示部25に供給して表示させ、処理をステップS2に戻し、それ以降、同様の処理が行なわれる。
また、ユーザは、表示部25に表示された識別結果を参照して、識別器による画像の分類の精度に満足した場合(例えば、被写体としての腕時計が存在する画像のみが、識別結果として表示された場合)、操作部21を用いて、その識別器を用いた画像クラスタの生成を指示する指示操作を行う。
この指示操作に応じて、処理はステップS4からステップS6に進められ、ステップS6では、識別部27は、直前のステップS3の処理で生成した識別器を用いて、選択画像データベースに記憶されている複数の画像に所定の識別対象が存在するか否かを識別する。
そして、識別部27は、その識別結果に基づいて、画像上に所定の識別対象が存在する画像により構成される画像クラスタを生成し、画像記憶部23に供給して記憶させる。以上で、画像分類処理は終了される。
[学習部26が行なう学習処理について]
次に、図3乃至図5を参照して、学習部26が行なう学習処理について説明する。
次に、図3乃至図5を参照して、学習部26が行なう学習処理について説明する。
学習部26は、表示制御部24からの学習用画像に基づいて、識別器を生成する学習処理を行なう。
なお、識別器は、画像上に所定の識別対象が存在するか否かを識別する複数の弱識別器を有しており、複数の弱識別器による識別結果に基づいて、最終的な識別結果を決定する。
したがって、学習処理において、識別器を生成することと、複数の弱識別器を生成することは等価であるため、以下、複数の弱識別器を生成することについて説明する。
学習部26は、表示制御部24から供給される学習用画像から、学習用画像の特徴を表す画像特徴量であって、且つ、複数の次元のベクトルにより表される画像特徴量を抽出する。
そして、学習部26は、抽出した画像特徴量に基づいて、複数の弱識別器を生成することとなるが、比較的少ない枚数の学習用画像を用いて識別器の生成を行なう場合には、学習用画像の画像特徴量の次元が大きい(画像特徴量としてのベクトルを構成する要素の個数が多い)ことに起因して、過学習(オーバーフィッティング)が生じてしまう。
そこで、学習部26では、過学習を抑制するために、学習用画像の枚数に応じて、学習に用いる画像特徴量の次元を制限するランダムインデキシングを行なっている。
[ランダムインデキシングについての説明]
次に、図3は、学習部26が行なうランダムインデキシングについて説明するための図である。
次に、図3は、学習部26が行なうランダムインデキシングについて説明するための図である。
図3は、複数の弱識別器41-1乃至41-Mの生成に用いられるランダム特徴量の一例を示している。
図3には、複数の弱識別器41-1乃至41-M毎に用いられる画像特徴量として、例えば24次元のベクトルにより表された画像特徴量が示されている。
したがって、図3において、この画像特徴量は、24個の次元特徴量(要素)により構成されている。
学習装置26は、画像特徴量を構成する複数の次元特徴量のうち、弱識別器41-1乃至41-Mそれぞれの生成に用いる次元特徴量を表すランダムインデックスを生成する。
すなわち、例えば、学習部26は、複数の弱識別器41-1乃至41-M毎に、学習用画像の画像特徴量を構成する複数の次元特徴量のうち、弱識別器41-1乃至41-Mそれぞれの学習に用いる所定数の次元特徴量を無作為(ランダム)に決定する。
なお、弱識別器41-1乃至41-Mそれぞれの学習に用いる次元特徴量の個数は、学習用画像の枚数や、学習用画像の画像特徴量を構成する次元特徴量の個数等に応じて、予め行なわれた実験結果等により、過学習が生じない程度に少ない個数とされる。
そして、学習部26は、無作為に決定された次元特徴量を表すランダムインデックス、つまり、無作為に決定された次元特徴量が、画像特徴量としてのベクトルを構成する要素のうち、何番目の要素であるかを表すランダムインデックスを生成するランダムインデキシングを行なう。
具体的には、例えば、学習部26は、弱識別器41-1の学習に用いる次元特徴量として、画像特徴量としてのベクトルを構成する24個の要素のうち、1,3,4,6,9乃至11,15乃至17,20,21、及び24番目の位置(図3において斜線で示される)に存在する13個の次元特徴量を表すランダムインデックスを生成する。
また、例えば、学習部26は、同様にして、弱識別器41-2乃至41-Mそれぞれの学習に用いる次元特徴量をそれぞれ表すランダムインデックスを生成する。
学習部26は、生成すべき弱識別器41-1乃至41-M毎に生成したランダムインデックスに基づいて、学習用画像の画像特徴量を構成する複数の次元特徴量のうち、ランダムインデックスが表す次元特徴量を抽出する。
そして、学習部26は、抽出した次元特徴量により構成されるランダム特徴量に基づいて、弱識別器41-1乃至41-Mを生成する。
[弱識別器の生成]
次に、図4は、学習部26が、ランダムインデックスに基づいて抽出したランダム特徴量を用いて、弱識別器41-1乃至41-Mを生成する様子を示している。
次に、図4は、学習部26が、ランダムインデックスに基づいて抽出したランダム特徴量を用いて、弱識別器41-1乃至41-Mを生成する様子を示している。
図4左側には、表示制御部24から学習部26に供給される学習用画像61-1乃至61-Nが示されている。
学習部26は、弱識別器41-1について生成したランダムインデックスに基づいて、表示制御部24からの学習用画像61-n(n=1,2,…,N)の画像特徴量から抽出した次元特徴量により構成されるランダム特徴量81-nを抽出する。
そして、学習部26は、学習用画像61-1乃至61-Nそれぞれの画像特徴量から抽出したN個のランダム特徴量81-1乃至81-Nに基づいて、SVM(support vector machine、サポートベクターマシン)を用いた弱識別器41-1の生成を行なう。
ここで、SVMとは、与えられたランダム特徴量81-1乃至81-Nそれぞれを構成する次元特徴量のうち、サポートベクトルと呼ばれる分離超平面(画像の識別に用いるための境界面であって、且つ、ランダム特徴量を構成する次元特徴量が存在する特徴空間上の境界面)近傍に位置する次元特徴量と分離超平面との距離であるマージンを最大化するように分離超平面を構築し、その構築した分離超平面を用いて画像の識別を行う弱識別器を生成する処理をいう。
なお、学習部26は、弱識別器41-1の他、弱識別器41-2乃至41-Mの生成を行なうが、その生成方法は、弱識別器41-1の生成と同様であるため、その説明は省略する。このことは、以下の説明についても同様である。
また、SVMを用いた弱識別器41-1の生成において、SVMを適用する場合には、カーネル関数内に現れるパラメータや、ソフトマージンへの緩和により現れるペナルティ制御のためのパラメータ等が、SVMにおいて用いられる。
したがって、学習部26は、SVMを用いた弱識別器41-1の生成を行なう前に、例えば図5に示されるような決定方法で、SVMに用いられるパラメータを決定する必要がある。
[クロスバリデーションを用いたパラメータの決定方法]
次に、図5を参照して、学習部26が、クロスバリデーションにより、SVMにおいて用いるパラメータを決定する決定方法を説明する。
次に、図5を参照して、学習部26が、クロスバリデーションにより、SVMにおいて用いるパラメータを決定する決定方法を説明する。
図5上側には、表示制御部24から学習部26に供給される学習用画像として、例えば学習用画像L1乃至L4が示されている。なお、学習用画像L1乃至L4のうち、学習用画像L1及びL2はポジティブ画像を表しており、学習用画像L3及びL4はネガティブ画像を表している。
学習部26は、SVMで用いるパラメータの候補である複数の候補パラメータを、順次、注目パラメータに設定し、注目パラメータに対する評価を表す評価値を算出するクロスバリデーションを行う。
すなわち、例えば、学習部26は、4枚の学習用画像L1乃至L4を、順次、注目学習用画像(例えば、学習用画像L1)に設定する。そして、学習部26は、4枚の学習用画像L1乃至L4のうち、注目学習用画像とは異なる残りの学習用画像(例えば、学習用画像L2乃至L4)に対して、注目パラメータを用いたSVMを適用して、弱識別器41-1を生成する。そして、学習部26は、生成した弱識別器41-1を用いて、注目学習用画像を対象として、画像上に所定の識別対象が存在するか否かを識別する。
学習部26は、弱識別器41-1による識別結果と、注目学習用画像に付加されている正解ラベルとに基づいて、弱識別器41-1により、注目学習用画像を正確に識別できたか否かを判定する。
学習部26は、図5に示されるように、4枚の学習用画像L1乃至L4すべてを順次、注目学習用画像として、4枚の学習用画像L1乃至L4それぞれを正確に識別できたか否かを判定する。そして、学習部26は、その判定結果に基づいて、例えば、4枚の学習用画像L1乃至L4それぞれを正確に識別できた確率を、注目パラメータの評価値として生成する。
学習部26は、注目パラメータとされた候補パラメータそれぞれについて算出された複数の評価値のうち、最大の評価値(最も評価が高い評価値)に対応する候補パラメータを、SVMに用いられる最終的なパラメータとして決定する。
そして、学習部26は、4枚の学習用画像L1乃至L4に基づいて、決定したパラメータを適用したSVMにより、弱識別器41-m(m=1,2,…,M)を生成する学習処理を行なう。
また、学習部26は、次式(1)にしたがって、生成した弱識別器41-mが行なう識別の信頼の度合いを表す信頼度confidenceを算出する。
なお、式(1)において、「# of true positive」は、弱識別器41-mにおいて、学習用画像としてのポジティブ画像を、正確にポジティブ画像であると識別した回数を表している。
また、式(1)において、「# of true negative」は、弱識別器41-mにおいて、学習用画像としてのネガティブ画像を、正確にネガティブ画像であると識別した回数を表している。さらに、「# of training data」は、弱識別器41-mの生成に用いられる学習用画像(ポジティブ画像及びネガティブ画像)の枚数を表している。
さらに、学習部26は、生成した弱識別器41-mと、弱識別器41-mの信頼度confidence(以下、信頼度amという)とに基づいて、次式(2)に示されるような識別決定値yIを出力する識別器を生成する。
なお、式(2)において、Mは弱識別器41-mの総数を表し、識別決定値yIは、弱識別器41-mそれぞれから出力される決定値ymと、弱識別器41-mの信頼度amとの積和演算による演算結果を表す。
また、弱識別器41−mが、入力されるランダム特徴量に基づいて、画像上に識別対象が存在すると識別した場合には、決定値ymとして正の値を出力し、画像上に識別対象が存在しないと識別した場合には、決定値ymとして負の値を出力することとなる。
なお、決定値ymは、弱識別器41-mに入力されたランダム特徴量と分離超平面との距離、又はロジスティック関数を介した確率表現によって定義される。
識別部27は、学習部26により生成された識別器に、識別対象画像Iを入力した場合、その識別器から出力される識別決定値yIが正の値であるときには、識別対象画像I上に所定の識別対象が存在すると識別する。また、識別部27は、識別器から出力される識別決定値yIが負の値であるときには、識別対象画像I上に所定の識別対象が存在しないと識別する。
[画像分類装置1の動作説明]
次に、図6のフローチャートを参照して、画像分類装置1が行う画像分類処理について説明する。
次に、図6のフローチャートを参照して、画像分類装置1が行う画像分類処理について説明する。
この画像分類処理は、例えば、ユーザが、画像記憶部23を構成する複数の画像データベースのうち、画像分類処理の対象とする画像データベースを選択するように、操作部21を操作したときに開始される。このとき、操作部21は、ユーザによる画像データベースの選択操作に対応する操作信号を、制御部22に供給する。
ステップS21において、図2のステップS1に対応する処理が行なわれる。すなわち、ステップS21では、制御部22は、操作部21からの操作信号に応じて、画像記憶部23を構成する複数の画像データベースのうち、ユーザの選択操作により選択された画像データベースを、画像分類処理の対象となる選択画像データベースとして選択する。
ステップS22及びステップS23において、図2のステップS2に対応する処理が行なわれる。
すなわち、ステップS22では、表示制御部24は、制御部22の制御にしたがって、画像記憶部23の選択画像データベースから、複数のサンプル画像を読み出し、表示部25に供給して表示させる。
ユーザが、操作部21を用いて、表示部25に表示された複数のサンプル画像の中から、ポジティブ画像とネガティブ画像を何枚か指定したことに対応して、処理はステップS22からステップS23に進められる。
そして、ステップS23では、表示制御部24は、ポジティブ画像として指定されたサンプル画像に対してポジティブラベルを付加する。反対に、表示制御部24は、ネガティブ画像として指定されたサンプル画像に対してネガティブラベルを付加する。そして、表示制御部24は、ポジティブラベルやネガティブラベルを付加してサンプル画像を、学習用画像として、学習部26に供給する。
ステップS24及びステップS25において、図2のステップS3に対応する処理が行なわれる。
すなわち、ステップS24では、学習部26は、表示制御部24からの学習用画像に基づいて学習処理を行い、その学習処理により得られる識別器及びランダムインデックスを、識別部27に供給する。なお、学習部26が行なう学習処理の詳細は、図7のフローチャートを参照して後述する。
ステップS25では、識別部27は、画像記憶部23の選択画像データベースに記憶されている複数の画像のうち、学習用画像以外の画像の幾つかを、識別の処理の対象である識別対象画像として、画像記憶部23から読み出す。
そして、識別部27は、読み出した幾つかの識別対象画像をそれぞれ対象として、学習部26からの識別器及びランダムインデックスを用いて、画像上に所定の識別対象が存在する画像であるか否かを識別する識別処理を行なう。なお、識別部27が行なう識別処理の詳細は、図8のフローチャートを参照して後述する。
また、識別部27は、識別処理により、画像上に所定の識別対象が存在する画像であると識別した識別対象画像を、識別結果として表示制御部24に供給する。
ステップS26及びステップS27において、図2のステップS4に対応する処理が行なわれる。
すなわち、ステップS26では、表示制御部24は、識別部27からの識別結果を、表示部25に供給して表示させる。
ユーザは、表示部25に表示された識別結果を参照して、直前のステップS24の処理により生成された識別器による画像の分類の精度に満足しない場合、操作部21を用いて、新たな識別器の生成を指示する指示操作を行う。
また、ユーザは、表示部25に表示された識別結果を参照して、直前のステップS24の処理により生成された識別器による画像の分類の精度に満足した場合、操作部21を用いて、その識別器を用いた画像クラスタの生成を指示する指示操作を行う。
操作部21は、ユーザの指示操作に応じた操作信号を、制御部22に供給する。
ステップS27では、制御部22は、操作部21からの、ユーザの指示操作に対応する操作信号に基づいて、ユーザが識別器による画像の分類の精度に満足しているか否かを判定し、ユーザが画像の分類の精度に満足していないと判定した場合、処理をステップS28に進める。
ステップS28において、図2のステップS5に対応する処理が行なわれる。
すなわち、ステップS28では、表示制御部24は、制御部22の制御にしたがって、画像記憶部23の選択画像データベースに記憶されている複数の画像における識別決定値yIに基づいて、画像記憶部23の選択画像データベースから、新たに複数のサンプル画像を読み出す。
具体的には、例えば、表示制御部24は、画像記憶部23の選択画像データベースに記憶されている複数の画像のうち、直前のステップS24の処理で生成された識別器による識別決定値yIがある条件(例えば、識別決定値yIの絶対値が所定の閾値未満であるという条件)を満たす画像を、それぞれサンプル画像として決定する。
そして、表示制御部24は、画像記憶部23の選択画像データベースから、決定した複数のサンプル画像を読み出す。
その後、表示制御部24は、処理をステップS22に戻し、ステップS22では、直前のステップS28の処理で読み出した複数のサンプル画像を、表示部25に供給して表示させ、処理はステップS23に進められ、それ以降、同様の処理が行なわれる。
また、ステップS27では、制御部22は、操作部21からの、ユーザの指示操作に対応する操作信号に基づいて、ユーザが識別器による画像の分類の精度に満足していると判定した場合、処理をステップS29に進める。
ステップS29において、図2のステップS6に対応する処理が行なわれる。すなわち、ステップS29では、識別部27は、直前のステップS24の処理で生成された識別器に基づいて、画像記憶部23の選択画像データベースに記憶されている複数の画像のうち、所定の識別対象が存在する画像により構成される画像クラスタを生成し、画像記憶部23に供給して記憶させる。以上で、画像分類処理は終了される。
[学習部26が行う学習処理の詳細]
次に、図7のフローチャートを参照して、学習部26が行なう、図6のステップS24における学習処理の詳細について説明する。
次に、図7のフローチャートを参照して、学習部26が行なう、図6のステップS24における学習処理の詳細について説明する。
ステップS41において、学習部26は、表示制御部24から供給される複数の学習用画像それぞれから、学習用画像の特徴を表す画像特徴量であって、且つ、複数の次元のベクトルにより表される画像特徴量を抽出する。
ステップS42において、学習部26は、生成すべき弱識別器41-m毎にランダムインデックスを生成するランダムインデキシングを行なう。ここで、学習部26は、学習処理において新たに識別器を生成する毎に、生成するランダムインデックスを異なるものに更新するようにすれば、解空間の固定を防止することができる。
すなわち、学習部26が、新たに識別器を生成する毎にランダムインデックスを異なるものに更新すれば、ユーザの操作に応じて複数回行われる学習処理において、固定された次元特徴量が存在する特徴空間、つまり、固定された解空間上で学習が行なわれることを防止できる。
ステップS43において、学習部26は、弱識別器41-mについて生成されたランダムインデックスに基づいて、複数の学習用画像それぞれから、弱識別器41-mの生成に用いるランダム特徴量を生成する。
すなわち、例えば、学習部26は、複数の学習用画像それぞれから抽出された画像特徴量を構成する複数の次元特徴量のうち、弱識別器41-mについて生成されたランダムインデックスが表す次元特徴量を選択し、選択した次元特徴量により構成されるランダム特徴量を生成する。
ステップS44において、学習部26は、複数の学習用画像毎に生成したランダム特徴量に対して、SVMを適用することにより、弱識別器41-mを生成する。また、学習部26は、弱識別器41-mの信頼度amを算出する。
ステップS45において、学習部26は、生成した弱識別器41-mと、弱識別器41-mの信頼度amとに基づいて、式(2)に示された識別決定値yIを出力する識別器を生成し、処理を、図6のステップS24にリターンさせる。
そして、図6のステップS24では、学習部26は、ステップS42の処理で生成した弱識別器41-1乃至41-M毎のランダムインデックス、及びステップS45の処理で生成した識別器を、識別部27に供給して、処理をステップS25に進める。
[識別部27が行なう識別処理の詳細]
次に、図8のフローチャートを参照して、識別部27が行なう、図6のステップS25における識別処理の詳細について説明する。
次に、図8のフローチャートを参照して、識別部27が行なう、図6のステップS25における識別処理の詳細について説明する。
ステップS61において、識別部27は、画像記憶部23の選択画像データベースから、学習用画像とされた画像以外の画像の幾つかを、それぞれ、識別対象画像Iとして読み出す。
そして、識別部27は、読み出した識別対象画像Iから、その識別対象画像の特徴を表す画像特徴量を抽出する。
ステップS62において、識別部27は、抽出した画像特徴量を構成する複数の次元特徴量の中から、学習部26からの、弱識別器41-mに対応するランダムインデックスが表す次元特徴量を選択し、選択した次元特徴量により構成されるランダム特徴量を生成する。
なお、識別部27には、この識別処理が行なわれる直前の学習処理におけるステップS42の処理で生成された弱識別器41-mそれぞれのランダムインデックスが、学習部26から供給される。
ステップS63において、識別部27は、生成した識別対象画像Iのランダム特徴量を、学習部26からの識別器が有する弱識別器41-mに入力する。これにより、弱識別器41-mは、識別部27から入力された識別対象画像Iのランダム特徴量に基づいて、識別対象画像Iの決定値ymを出力する。
ステップS64において、識別部27は、学習部26からの識別器、すなわち、式(2)に、弱識別器41-mから出力された決定値ymを入力(代入)して、式(2)に示された積和演算を行い、識別対象画像Iの識別決定値yIを算出する。
そして、識別部27は、算出した識別決定値yIに基づいて、識別対象画像Iがポジティブ画像であるかネガティブ画像であるかを識別する。すなわち、例えば、識別部27は、算出した識別決定値yIが正の値である場合には、識別対象画像Iがポジティブ画像であると識別し、識別決定値yIが正の値でない場合には、識別対象画像Iがネガティブ画像であると識別する。その後、識別部27は、識別処理を終了して、処理を、図6のステップS25にリターンさせる。
以上説明したように、画像分類処理において、ステップS24の学習処理では、学習用画像の画像特徴量ではなく、その画像特徴量よりも次元が低いランダム特徴量を用いるようにしたので、少ない枚数の学習用画像に基づいて識別器を生成する場合でも、過学習を抑制することが可能となる。
また、学習処理では、学習用画像のランダム特徴量から、マージンを最大化して識別器の凡化性能を向上させるSVMを用いて、複数の弱識別器41-1乃至41-Mを生成するようにした。
したがって、学習処理では、過学習を抑制しつつ、高い凡化性能を有する識別器を生成することができるため、少ない枚数の学習用画像であっても、比較的、識別の精度が高い識別器を生成することが可能となる。
このため、画像分類処理では、ユーザにより指定された少ない枚数の学習用画像に基づいて生成された識別器を用いて、比較的精度良く、画像クラスタとして構成される画像と、そうでない画像とを分類することができるので、ユーザが所望する画像クラスタを精度良く生成することが可能となる。
なお、従来、無作為に選択された次元特徴量を用いて、画像を識別するランダムフォレスト(random forests)による識別方法が存在する。
このランダムフォレストによる識別方法では、複数の学習用画像から、無作為に幾つかの学習用画像を選択し、選択した学習用画像により構成されるブートストラップ集合を生成する。
そして、ブートストラップ集合を構成する幾つかの学習用画像から、学習に用いる学習用画像を選択して、識別器の学習を行なっている。なお、ランダムフォレストによる識別方法としては、「Leo Breiman, "Random Forests", Machine Learning, 45, 5-32, 2001」により詳細な説明が記載されている。
これに対して、本発明では、ユーザにより指定された複数の学習用画像すべてを用いて、識別器の学習を行なうようにしている。このため、本発明では、ランダムフォレストによる識別方法と比較して、より多くの学習用画像を用いて、識別器の学習を行なうようにしているので、比較的、識別する精度の高い識別器を生成することが可能となる。
また、ランダムフォレストによる識別方法では、次元特徴量に基づいて決定木を生成し、生成した決定木に基づいて識別器の学習を行なう。
しかしながら、ランダムフォレストによる識別方法において行なわれる、決定木に基づく学習では、必ずしも、マージンを最大化するように構築された分離超平面を用いて画像の分類を行う識別器が生成されるとは限らない。
これに対して、本発明では、マージンを最大化するSVMにより、マージンを最大化するように構築された分離超平面を用いて画像の分類を行う識別器(弱識別器)を生成するようにしているため、枚数が少ない学習用画像に基づく学習においても、過学習を抑制して、高い凡化性能を有する識別器を生成することが可能となる。
このように、本発明は、従来の、ランダムフォレストによる識別方法と比較して、より識別の精度が高い識別器を生成することが可能となる。
<2.変形例>
本実施の形態では、学習用画像が少ない枚数であることに起因して生じる過学習を抑制するために、学習用画像の画像特徴量から、画像特徴量よりも次元の低いランダム特徴量を生成し、生成したランダム特徴量に基づいて、識別器を生成するようにしたが、これに限定されない。
本実施の形態では、学習用画像が少ない枚数であることに起因して生じる過学習を抑制するために、学習用画像の画像特徴量から、画像特徴量よりも次元の低いランダム特徴量を生成し、生成したランダム特徴量に基づいて、識別器を生成するようにしたが、これに限定されない。
すなわち、過学習が生じる原因として、学習用画像が少ない枚数であることの他、学習用画像のうち、ポジティブ画像が僅かであることが上げられる。このため、例えば、本実施の形態では、ポジティブ画像を擬似的に水増しするようにして、ポジティブ画像の枚数を増加させ、より過学習を抑制するように構成することができる。
ここで、従来、ユーザにより指定された学習用画像に基づいて、擬似的な学習用画像を増加させる擬似適合性フィードバック処理が提案されている。
この擬似適合性フィードバック処理では、ユーザにより指定された学習用画像に基づいて識別器を生成する。そして、学習用画像とされていない複数の画像(正解ラベルが付加されていない画像)のうち、生成した識別器の識別により識別器決定値が所定の閾値以上となる画像を、擬似的なポジティブ画像(擬似ポジティブ画像)として選択する。
擬似適合性フィードバック処理では、学習用画像のうち、ポジティブ画像を擬似的に水増しさせることができるものの、画像上に所定の識別対象が存在しないネガティブ画像が、擬似ポジティブ画像として選択されるフォルスポジティブ(false positive)が生じやすい。
特に、初期段階において、枚数が少ない学習用画像に基づいて生成した識別器では、識別器自体の識別による精度も低いため、フォルスポジティブが生じる可能性は比較的大きいものとなる。
そこで、学習部26では、学習処理に代えて、フォルスポジティブを抑制するために、バックグラウンド画像を、擬似的なネガティブ画像として採用した上で、識別器を生成し、生成した識別器に基づいて、擬似的なポジティブ画像を水増しするフィードバック学習処理を行うようにすることができる。
なお、バックグラウンド画像とは、画像記憶部23を構成する複数の画像データベースそれぞれに記憶されている画像を、その被写体に応じたクラスに分類した場合に、いずれのクラスにも分類されない画像をいう。
したがって、バックグラウンド画像としては、例えば、画像記憶部23を構成する複数の画像データベースそれぞれに記憶されている画像上に存在する被写体のいずれも含まない画像、具体的には、例えば、画像上に被写体として風景のみが存在する画像等が採用される。なお、バックグラウンド画像は、画像記憶部23に記憶されているものとする。
[フィードバック学習処理についての説明]
次に、図9は、図6のステップS24において、学習部26が、学習処理に代えて行なうフィードバック学習処理の詳細を説明する。
次に、図9は、図6のステップS24において、学習部26が、学習処理に代えて行なうフィードバック学習処理の詳細を説明する。
ステップS81では、図7のステップS41と同様の処理が行なわれる。
ステップS82において、学習部26は、画像記憶部23に記憶されているバックグラウンド画像を、擬似的なネガティブ画像を表すバックグラウンドネガティブ画像とする。そして、学習部26は、バックグラウンドネガティブ画像から、そのバックグラウンドネガティブ画像の特徴を表す画像特徴量を抽出する。
なお、ステップS82の処理で、学習部26が抽出したバックグラウンドネガティブ画像の画像特徴量は、ステップS84において、バックグラウンドネガティブ画像のランダム特徴量を生成するために用いられる。
学習部26は、ポジティブ画像、ネガティブ画像、及びバックグラウンドネガティブ画像それぞれを、学習用画像として、ステップS83乃至ステップS86において、それぞれ、図7のステップS42乃至ステップS45と同様の処理を行なう。
ステップS87において、学習部26は、例えば次式(3)に示される繰り返し条件を満たすか否かを判定する。
なお、式(3)において、Spはポジティブ画像の枚数、Ppは擬似ポジティブ画像の枚数、SNはネガティブ画像の枚数、及びBNはバックグラウンドネガティブ画像の枚数を表している。また、式(3)では、Sp<(SN+BN)を満たすものとする。
ステップS87において、学習部26は、式(3)を満たすと判定した場合、処理をステップS88に進める。
ステップS88において、学習部26は、画像記憶部23の選択画像データベースから、正解ラベルが付加されていない画像(学習用画像ではない画像)を識別対象画像Iとして読み出す。そして、学習部26は、直前のステップS86の処理で生成済みの識別器を用いて、読み出した識別対象画像Iの識別決定値yIを算出する。
学習部26は、算出した識別決定値yIのうち、上位にランキングされた識別決定値に対応する識別対象画像Iに、ポジティブラベルを付加し、ポジティブラベルが付加された識別対象画像Iを、擬似ポジティブ画像として取得する。
なお、ステップS82において、擬似的なネガティブ画像として、ネガティブバックグラウンド画像が水増しされているため、学習部26において算出される識別決定値yIは、全体的に下振れすることとなる。
しかし、この場合、擬似的なネガティブ画像が水増しされていない場合と比較して、識別決定値yIの上位にランキングされた画像が、ポジティブ画像である確率はより向上することとなるので、フォルスポジティブが生じる事態を抑制することが可能となる。
学習部26は、ステップS88の処理で取得した擬似ポジティブ画像を、新たに学習用画像として追加し、処理をステップS83に戻す。
そして、ステップS83では、学習部26は、以前のステップS83の処理で生成したランダムインデックスとは異なるランダムインデックスを生成する。
すなわち、学習部26は、新たに識別器を生成する毎に、ランダムインデックスを異なるものに更新するようにして、解空間の固定を防止するようにしている。
学習部26は、ランダムインデックスを生成した後、処理をステップS84に進め、直前のステップS83の処理で生成したランダムインデックスに基づいて、ランダム特徴量を生成し、それ以降同様の処理を行なう。
なお、ステップS87において、学習部26は、式(3)を満たさないと判定した場合、すなわち、擬似ポジティブ画像が十分に水増しされた状態で識別器が生成されたと判定した場合、直前のステップS83の処理で生成したランダムインデックス、及び直前のステップS86の処理で生成した識別器を、識別部27に供給する。
そして、学習部26は、フィードバック学習処理を終了し、処理を、図6のステップS24にリターンして、ステップS25において、識別部27が、認識処理を行なうこととなる。
以上説明したように、フィードバック学習処理では、学習部26が、新たにステップS83乃至ステップS86の処理を行なう毎に、ステップS83において、ランダムインデックスを更新するようにした。
したがって、新たにステップS83乃至ステップS86の処理を行なう毎に、それぞれ異なるランダムインデックスにより選択された、異なる次元特徴量が存在する特徴空間上で、SVMを用いた学習が行なわれることとなる。
このため、フィードバック学習処理では、例えば、固定のランダムインデックスを用いて識別器を生成する場合とは異なり、固定された次元特徴量が存在する特徴空間、すなわち、固定された解空間上で学習が行なわれることを防止できる。
また、フィードバック学習処理では、ステップS86において、識別器が生成される前に、ステップS82において、バックグラウンド画像を、擬似的なネガティブ画像を表すネガティブバックグラウンド画像とするようにして、ネガティブ画像を水増しするようにした。
このため、フィードバック学習処理では、ステップS86において、ネガティブ画像が上位にランキングされる識別器の生成を抑止することができるので、ステップS88において、擬似ポジティブ画像を生成する場合に、ネガティブ画像を誤って擬似ポジティブ画像として生成するフォルスポジティブが生じる事態を抑止することが可能となる。
また、フィードバック学習処理では、フォルスポジティブが生じたとしても、ステップS86において、マージンを最大化して凡化性能を向上させるSVMを用いて識別器を生成するようにしているので、比較的、識別の精度が高い識別器を生成することが可能となる。
したがって、フィードバック学習処理では、従来の擬似適合性フィードバック処理と比較して、より正確に、ユーザが所望する画像クラスタを生成することが可能となる。
なお、フィードバック学習処理では、通常、ステップS83乃至ステップS86による処理が複数回行なわれることとなる。これは、ステップS83乃至ステップS86による処理が1回目である場合には、いまだステップS88の処理による擬似ポジティブ画像の水増しが行われていないため、ステップS87の処理において、条件式(3)を満たすと判定されてしまうためである。
フィードバック学習処理では、ステップS83乃至ステップS86による処理を反復して行なうにつれて、学習用画像としての擬似ポジティブ画像も水増しされることとなるが、ステップS83乃至ステップS86による処理を反復して行なう回数が多くなる程に、その処理による計算量も増加してしまう。
そこで、学習処理と、フィードバック学習処理とを併用して、識別器を生成するための計算量を減少させるように構成することができる。
すなわち、例えば、画像分類処理において、1回目の、ステップS24の処理が行われる場合には、図7の学習処理を行うようにする。この場合、1回目の、ステップS24の処理(学習処理)では、その学習処理により得られた識別器の識別により、識別決定値yIが上位にランキングされた画像を、擬似ポジティブ画像として保持しておく。
そして、画像分類処理において、ステップS27の処理において、処理がステップS28を介してステップS22に戻された場合、2回目以降の、ステップS24の処理が行われることとなるが、このときには、ステップS24の処理として、フィードバック学習処理を行なうようにする。
この場合、1回目の、ステップS24の処理において保持された擬似ポジティブ画像が、学習用画像として水増しされた状態で、フィードバック学習処理が行なわれる。
これにより、学習処理とフィードバック学習処理とを併用して用いる場合には、2回目以降の、ステップS24の処理としてのフィードバック学習処理が、予め擬似ポジティブ画像が追加された状態で開始される。
このため、2回目以降の、ステップS24の処理としてのフィードバック学習処理では、ポジティブ画像と擬似ポジティブ画像との総数(Sp+Pp)が、画像分類処理のステップS24おいてフィードバック学習処理のみを行なう場合と比較して、多い状態で開始されるので、ステップS83乃至ステップS86の処理が行なわれる回数を少なくすることができ、画像分類処理のステップS24の処理による計算量を削減することが可能となる。
ここで、学習処理とフィードバック処理とを併用して用いる場合、学習処理において識別した識別結果により、上位にランキングされた画像を、より多く、擬似ポジティブ画像とすればするほど、ステップS87において、条件式(3)を満たし易くなるため、画像分類処理のステップS24の処理による計算量をより削減することができる。
しかしながら、1回目の、ステップS24の処理としての学習処理により生成した識別器は、比較的、識別の精度が低いと思われるため、上述したフォルスポジティブが生じる可能性も高くなってしまうが、ステップS86においてSVMを用いた識別器の生成を行なっているため、フォルスポジティブが生じていても、比較的、識別の精度が高い識別器を生成することが可能となる。
上述した画像分類処理において、ステップS25では、識別部27が、画像記憶部23の選択画像データベースに記憶されている複数の画像のうち、学習用画像以外の画像の幾つかを対象として識別処理を行なうようにしたが、例えば、複数の画像のうち、学習用画像以外の画像すべてを対象として、識別処理を行なうようにしてもよい。
この場合、ステップS26において、表示制御部24は、複数の画像のうち、学習用画像以外の画像すべての識別結果を表示部25に表示させることとなるため、ユーザは、より正確に、直前のステップS24の処理で生成された識別器による画像の分類の精度を判断することが可能となる。
また、ステップS25において、識別部27が、画像記憶部23の選択画像データベースに記憶されている複数の画像すべて(学習用画像を含む)を対象として識別処理を行なうようにしてもよい。
この場合、処理が、ステップS25からステップS26及びステップS27を介してステップS29に進められた場合、ステップS29において、ステップS25による識別結果を用いて、容易に画像クラスタを生成することが可能となる。
また、画像分類処理において、ステップS22では、表示制御部24は、複数のサンプル画像を表示部25に表示させるようにし、これに対応して、ユーザが、複数のサンプル画像の中から、ポジティブ画像及びネガティブ画像を指定するようにしたが、例えば、ポジティブ画像のみをユーザに指定させるようにしてもよい。
すなわち、例えば、ポジティブ画像のみをユーザに指定させるようにし、ステップS23において、表示制御部24は、ポジティブ画像として指定されたサンプル画像にポジティブラベルを付加し、バックグラウンド画像を、ネガティブ画像として、ネガティブラベルを付加するようにしてもよい。
この場合、ユーザは、ポジティブ画像のみを指定すればよいので、ユーザがポジティブ画像やネガティブ画像を指定する煩わしさを低減することが可能となる。
また、本実施の形態において、画像分類装置1は、画像分類装置1が有する画像記憶部23内の画像データベースに記憶されている複数の画像を対象として、画像分類処理を行なうようにしたが、例えば、画像分類装置1に接続される記憶装置に記憶されている複数の画像を対象として、画像分類処理を行なうようにすることができる。
なお、画像分類装置1は、識別器を用いて、複数の画像をクラスに分類し、分類されたクラス毎に、画像クラスタ等を生成するものであれば、どのようなものでもよく、例えば、画像分類装置1としてパーソナルコンピュータ等を採用することができる。
ところで、上述した一連の処理は、専用のハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、いわゆる組み込み型のコンピュータ、又は、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、記録媒体からインストールされる。
[コンピュータの構成例]
次に、図10は、上述した一連の処理をプログラムにより実行するコンピュータの構成例を示している。
次に、図10は、上述した一連の処理をプログラムにより実行するコンピュータの構成例を示している。
CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、又は記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータ等が適宜記憶される。これらのCPU201、ROM202、及びRAM203は、バス204により相互に接続されている。
CPU201にはまた、バス204を介して入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホン等よりなる入力部206、ディスプレイ、スピーカ等よりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。
入出力インタフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワーク等のネットワークを介して外部の装置と通信する。
また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。
入出力インタフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータ等を取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録(記憶)する記録媒体は、図10に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア211、又は、プログラムが一時的もしくは永続的に格納されるROM202や、記憶部208を構成するハードディスク等により構成される。記録媒体へのプログラムの記録は、必要に応じてルータ、モデム等のインタフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の通信媒体を利用して行われる。
なお、本明細書において、上述した一連の処理を記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本発明の実施の形態は、上述した本実施の形態や変形例に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 画像分類装置, 21 操作部, 22 制御部, 23 画像記憶部, 24 表示制御部, 25 表示部, 26 学習部, 27 識別部
Claims (15)
- 複数のサンプル画像の中から、画像上に所定の識別対象が存在するか否かを識別するための識別器を学習するのに用いる学習用画像がユーザにより指定されたことに対応して、前記学習用画像の特徴を表す画像特徴量を構成する複数の次元特徴量から、無作為に選択された次元特徴量からなるランダム特徴量を用いて前記識別器を学習する学習手段を含む
学習装置。 - 前記学習手段は、前記ランダム特徴量が存在する特徴空間において、画像上に所定の識別対象が存在するか否かを識別するための分離超平面と、前記ランダム特徴量を構成する次元特徴量のうち、前記分離超平面の近傍に存在する次元特徴量との距離を表すマージンを最大化するマージン最大化学習により、前記識別器を学習する
請求項1に記載の学習装置。 - 前記学習手段は、
前記学習用画像から、前記学習用画像の特徴を表す画像特徴量であって、且つ、複数の次元のベクトルにより表される前記画像特徴量を抽出する画像特徴量抽出手段と、
前記画像特徴量の各次元の要素である複数の次元特徴量のうちのいくつかを無作為に選択し、選択した次元特徴量により構成されるランダム特徴量を生成するランダム特徴量生成手段と、
前記ランダム特徴量を用いた前記マージン最大化学習により、前記識別器を生成する識別器生成手段と
を有する
請求項2に記載の学習装置。 - 前記識別器は、前記識別対象画像上に所定の識別対象が存在するか否かを判定する複数の弱識別器による判定結果に基づいて、最終的な判定結果を出力するものであり、
前記ランダム特徴量生成手段は、前記複数の弱識別器毎に、前記弱識別器を生成するために用いるランダム特徴量を生成し、
前記識別器生成手段は、前記複数の弱識別器毎に生成した前記ランダム特徴量に基づいて、前記複数の弱識別器を生成する
請求項3に記載の学習装置。 - 前記識別器生成手段は、前記ランダム特徴量に基づいて、前記弱識別器による判定の信頼の度合いを表す信頼度も生成する
請求項4に記載の学習装置。 - 前記識別器生成手段は、前記複数の弱識別器及び前記信頼度に基づいて、前記複数の弱識別器毎に出力される判定結果としての決定値と前記信頼度との積和演算結果を表す識別決定値を出力する前記識別器を生成し、
前記識別手段は、前記識別器が出力する前記識別決定値に基づいて、前記識別対象画像上に所定の識別対象が存在するか否かを識別する
請求項5に記載の学習装置。 - 前記ランダム特徴量生成手段は、前記ユーザにより前記学習用画像が指定される毎に、異なるランダム特徴量を生成する
請求項3に記載の学習装置。 - 前記学習用画像は、画像上に前記所定の識別対象が存在するポジティブ画像と、画像上に所定の識別対象が存在しないネガティブ画像とにより構成されており、
前記学習手段は、さらに、擬似的なネガティブ画像を、前記学習用画像として追加するネガティブ画像追加手段を有する
請求項7に記載の学習装置。 - 前記学習手段は、前記識別器生成手段により前記識別器が生成された後に所定の条件を満たす場合、擬似的なポジティブ画像を前記学習用画像として追加するポジティブ画像追加手段をさらに有し、
前記識別器生成手段は、前記擬似的なポジティブ画像が追加された前記学習用画像の前記ランダム特徴量に基づいて、前記識別器を生成する
請求項8に記載の学習装置。 - 前記ポジティブ画像追加手段は、前記ポジティブ画像と前記擬似的なポジティブ画像の総数が、前記ネガティブ画像と前記擬似的なネガティブ画像の総数よりも少ないという条件を満たす場合、擬似的なポジティブ画像を前記学習用画像として追加する
請求項9に記載の学習装置。 - 前記学習手段は、前記マージン最大化学習として、SVM(support vector machine)を用いた学習を行なう
請求項2に記載の学習装置。 - 前記識別器を用いて、識別対象画像上に所定の識別対象が存在するか否かを識別する識別手段をさらに含み、
前記学習手段は、前記識別手段による識別処理に応じて前記ユーザにより新たに前記学習用画像が指定された場合、指定された前記学習用画像を用いた前記識別器の学習を繰り返して実行する
請求項1に記載の学習装置。 - 前記識別手段は、前記識別手段による識別処理に応じて前記ユーザにより、画像上に所定の識別対象が存在する識別対象画像により構成される画像クラスタの生成を指示された場合、前記学習手段により生成された最新の識別器に基づいて、複数の前記識別対象画像から前記画像クラスタを生成する
請求項12に記載の学習装置。 - 画像上に所定の識別対象が存在するか否かを識別するための識別器を学習する学習装置の学習方法において、
前記学習装置は、学習手段を含み、
前記学習手段が、複数のサンプル画像の中から、画像上に所定の識別対象が存在するか否かを識別するための識別器を学習するのに用いる学習用画像がユーザにより指定されたことに対応して、前記学習用画像の特徴を表す画像特徴量を構成する複数の次元特徴量から、無作為に選択された次元特徴量からなるランダム特徴量を用いて前記識別器を学習する
ステップを含む学習方法。 - コンピュータを、
複数のサンプル画像の中から、画像上に所定の識別対象が存在するか否かを識別するための識別器を学習するのに用いる学習用画像がユーザにより指定されたことに対応して、前記学習用画像の特徴を表す画像特徴量を構成する複数の次元特徴量から、無作為に選択された次元特徴量からなるランダム特徴量を用いて前記識別器を学習する学習手段として
機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010011356A JP2011150541A (ja) | 2010-01-21 | 2010-01-21 | 学習装置、学習方法、及びプログラム |
US12/951,448 US20110176725A1 (en) | 2010-01-21 | 2010-11-22 | Learning apparatus, learning method and program |
CN2010106105901A CN102136072A (zh) | 2010-01-21 | 2010-12-29 | 学习设备、学习方法和程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010011356A JP2011150541A (ja) | 2010-01-21 | 2010-01-21 | 学習装置、学習方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011150541A true JP2011150541A (ja) | 2011-08-04 |
Family
ID=44277623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010011356A Withdrawn JP2011150541A (ja) | 2010-01-21 | 2010-01-21 | 学習装置、学習方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20110176725A1 (ja) |
JP (1) | JP2011150541A (ja) |
CN (1) | CN102136072A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014002723A (ja) * | 2012-06-15 | 2014-01-09 | Mitsubishi Electric Corp | スケール不変の画像特徴の量子化された埋込みを用いて画像を表現する方法 |
WO2014174932A1 (ja) * | 2013-04-26 | 2014-10-30 | オリンパス株式会社 | 画像処理装置、プログラム及び画像処理方法 |
JP2015191426A (ja) * | 2014-03-28 | 2015-11-02 | セコム株式会社 | 学習データ生成装置 |
JP2018125019A (ja) * | 2018-03-27 | 2018-08-09 | エルピクセル株式会社 | 画像処理装置及び画像処理方法 |
JP2019109924A (ja) * | 2019-02-27 | 2019-07-04 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、情報処理方法、プログラム |
JP2019208903A (ja) * | 2018-06-05 | 2019-12-12 | ザイオソフト株式会社 | 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム |
KR102131353B1 (ko) * | 2020-01-29 | 2020-07-07 | 주식회사 이글루시큐리티 | 머신 러닝의 예측 데이터 피드백 적용 방법 및 그 시스템 |
WO2022097353A1 (ja) * | 2020-11-09 | 2022-05-12 | 東京ロボティクス株式会社 | データセット生成装置、方法、プログラム及びシステム |
US11544563B2 (en) | 2017-12-19 | 2023-01-03 | Olympus Corporation | Data processing method and data processing device |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8233704B2 (en) * | 2007-06-13 | 2012-07-31 | Sri International | Exemplar-based heterogeneous compositional method for object classification |
JP5777390B2 (ja) * | 2011-04-20 | 2015-09-09 | キヤノン株式会社 | 情報処理方法及び装置、パターン識別方法及び装置 |
CN105023023B (zh) * | 2015-07-15 | 2018-08-17 | 福州大学 | 一种用于计算机辅助诊断的乳腺b超图像特征自学习提取方法 |
US10417524B2 (en) * | 2017-02-16 | 2019-09-17 | Mitsubishi Electric Research Laboratories, Inc. | Deep active learning method for civil infrastructure defect detection |
JP6942488B2 (ja) * | 2017-03-03 | 2021-09-29 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法、及びプログラム |
CN107909000B (zh) * | 2017-06-28 | 2021-01-19 | 中国科学院遥感与数字地球研究所 | 基于特征优选和支持向量机的不透水面覆盖度估算方法 |
US11935277B2 (en) * | 2019-03-14 | 2024-03-19 | Nec Corporation | Generation method, training data generation device and program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4596253B2 (ja) * | 2005-05-31 | 2010-12-08 | ソニー株式会社 | 画像処理システム、学習装置および方法、画像認識装置および方法、記録媒体、並びにプログラム |
CN100426314C (zh) * | 2005-08-02 | 2008-10-15 | 中国科学院计算技术研究所 | 一种基于特征分组的多分类器组合人脸识别方法 |
CN100373396C (zh) * | 2006-06-27 | 2008-03-05 | 电子科技大学 | 基于图像分割和二维小波变换的虹膜识别方法 |
CN101295305B (zh) * | 2007-04-25 | 2012-10-31 | 富士通株式会社 | 图像检索装置 |
CN101226590B (zh) * | 2008-01-31 | 2010-06-02 | 湖南创合世纪智能技术有限公司 | 一种人脸识别方法 |
CN101299238B (zh) * | 2008-07-01 | 2010-08-25 | 山东大学 | 一种基于协同训练的快速指纹图像分割方法 |
-
2010
- 2010-01-21 JP JP2010011356A patent/JP2011150541A/ja not_active Withdrawn
- 2010-11-22 US US12/951,448 patent/US20110176725A1/en not_active Abandoned
- 2010-12-29 CN CN2010106105901A patent/CN102136072A/zh active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014002723A (ja) * | 2012-06-15 | 2014-01-09 | Mitsubishi Electric Corp | スケール不変の画像特徴の量子化された埋込みを用いて画像を表現する方法 |
WO2014174932A1 (ja) * | 2013-04-26 | 2014-10-30 | オリンパス株式会社 | 画像処理装置、プログラム及び画像処理方法 |
JP2014215852A (ja) * | 2013-04-26 | 2014-11-17 | オリンパス株式会社 | 画像処理装置、プログラム及び画像処理方法 |
US9552536B2 (en) | 2013-04-26 | 2017-01-24 | Olympus Corporation | Image processing device, information storage device, and image processing method |
JP2015191426A (ja) * | 2014-03-28 | 2015-11-02 | セコム株式会社 | 学習データ生成装置 |
US11544563B2 (en) | 2017-12-19 | 2023-01-03 | Olympus Corporation | Data processing method and data processing device |
JP2018125019A (ja) * | 2018-03-27 | 2018-08-09 | エルピクセル株式会社 | 画像処理装置及び画像処理方法 |
JP7051595B2 (ja) | 2018-06-05 | 2022-04-11 | ザイオソフト株式会社 | 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム |
JP2019208903A (ja) * | 2018-06-05 | 2019-12-12 | ザイオソフト株式会社 | 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム |
JP2019109924A (ja) * | 2019-02-27 | 2019-07-04 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、情報処理方法、プログラム |
KR102131353B1 (ko) * | 2020-01-29 | 2020-07-07 | 주식회사 이글루시큐리티 | 머신 러닝의 예측 데이터 피드백 적용 방법 및 그 시스템 |
WO2022097353A1 (ja) * | 2020-11-09 | 2022-05-12 | 東京ロボティクス株式会社 | データセット生成装置、方法、プログラム及びシステム |
JP7446615B2 (ja) | 2020-11-09 | 2024-03-11 | 東京ロボティクス株式会社 | データセット生成装置、生成方法、プログラム、システム、機械学習装置、物体認識装置、及びピッキングシステム |
Also Published As
Publication number | Publication date |
---|---|
US20110176725A1 (en) | 2011-07-21 |
CN102136072A (zh) | 2011-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011150541A (ja) | 学習装置、学習方法、及びプログラム | |
JP6781415B2 (ja) | ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置 | |
JP6090286B2 (ja) | 機械学習装置、機械学習方法、分類装置、分類方法、プログラム | |
JP4757116B2 (ja) | パラメータ学習方法及びその装置、パターン識別方法及びその装置、プログラム | |
JP6954003B2 (ja) | データベースのための畳み込みニューラルネットワークモデルの決定装置及び決定方法 | |
US9002101B2 (en) | Recognition device, recognition method, and computer program product | |
JP2011013732A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP5123759B2 (ja) | パターン検出器の学習装置、学習方法及びプログラム | |
JP2011154501A (ja) | 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム | |
CN112286824B (zh) | 基于二分搜索迭代的测试用例生成方法、系统及电子设备 | |
US10635991B2 (en) | Learning method, information processing device, and recording medium | |
US20130204811A1 (en) | Optimized query generating device and method, and discriminant model learning method | |
US11954202B2 (en) | Deep learning based detection of malicious shell scripts | |
JP5311899B2 (ja) | パターン検出器の学習装置、学習方法及びプログラム | |
US20230034414A1 (en) | Dialogue processing apparatus, learning apparatus, dialogue processing method, learning method and program | |
JP2011154500A (ja) | 学習装置、学習方法、識別装置、識別方法、及びプログラム | |
JP5633424B2 (ja) | プログラム及び情報処理システム | |
KR102309002B1 (ko) | 환자별 유전자 특성에 기초하여 암의 예후 예측에 활용할 바이오 마커를 선정하는 전자 장치 및 그 동작 방법 | |
Kordík et al. | On performance of meta-learning templates on different datasets | |
JP7365261B2 (ja) | コンピュータシステムおよびプログラム | |
JP7395396B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20230222348A1 (en) | Personal information detection reinforcement method using multiple filtering and personal information detection reinforcement apparatus using the same | |
US20230237764A1 (en) | Techniques for using dynamic proposals in object detection | |
US20240037407A1 (en) | Learning apparatus, trained model generation method, classification apparatus, classification method, and computer readable recording medium | |
Baisero et al. | The Path Kernel. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130402 |