JP6118752B2 - 学習データ生成装置 - Google Patents

学習データ生成装置 Download PDF

Info

Publication number
JP6118752B2
JP6118752B2 JP2014067827A JP2014067827A JP6118752B2 JP 6118752 B2 JP6118752 B2 JP 6118752B2 JP 2014067827 A JP2014067827 A JP 2014067827A JP 2014067827 A JP2014067827 A JP 2014067827A JP 6118752 B2 JP6118752 B2 JP 6118752B2
Authority
JP
Japan
Prior art keywords
learning data
image
class
sample point
reconstructed image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014067827A
Other languages
English (en)
Other versions
JP2015191426A (ja
Inventor
徳見 修
修 徳見
黒川 高晴
高晴 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2014067827A priority Critical patent/JP6118752B2/ja
Publication of JP2015191426A publication Critical patent/JP2015191426A/ja
Application granted granted Critical
Publication of JP6118752B2 publication Critical patent/JP6118752B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像が属するクラスを識別するために用いる学習データを生成する学習データ生成装置に関する。
監視カメラやデジタルスチルカメラで撮影された画像から人などの対象物を検知する技術として識別器を用いたものが知られている。識別器は、対象物が撮された対象物画像、及び対象物が撮されていない非対象物画像からなる多数の学習用画像を用いた学習により生成される。
識別器の性能を向上させるには、学習データのバリエーションを増やす必要がある。例えば、入力画像が人の写った画像であるか否かを識別するための識別器を学習する場合、姿勢、体格、服装や撮影角度が異なる人の画像を多数撮影するなどして収集し、さらに被写体や場所が異なった人以外の画像を多数撮影するなどして収集する必要があり、多大な労力を要する。
このような収集作業を軽減するために、特許文献1に記載の画像学習装置は、登録されている画像の特徴ベクトルと撮影時刻、天候、撮影角度、撮影位置を表す撮影プロファイルのベクトルが属するクラス毎の分散を求め、分散の小さいクラスと分散の小さいクラス内に含まれる撮影プロファイルを通知する。
これにより、ユーザーは学習データとして不足している撮影条件を知ることができ、どのような撮影条件で撮影を行えばよいかが分かる。
特開2004−213567号公報
しかしながら、従来技術によってもデータ収集作業は十分に効率化することは困難であり、特に入力画像が人の写った画像であるか否かを識別するための学習データを収集する作業を効率化することは困難であった。すなわち、従来技術では撮影作業自体は無くならない。
また、従来技術では撮影プロファイルを作成すること自体が困難である。すなわち、人の姿勢、人の体格、人の服装、人以外の被写体の識別番号など多岐に亘るバリエーションを撮影プロファイルとしてデータ入力すること自体が困難である。
また、画像同士の見た目の近さとその特徴量同士の近さ(特徴空間における距離)とは異なるため、実際に被写体や撮影条件を変更して撮影したとしても特徴空間において現に不足している学習データを効率的に収集するのは困難であった。例えば、特徴空間において学習データが無い、或いは少ない領域の画像を追加しようとしても、当該領域に当てはまる画像としてどのような画像を撮影すべきかは一般に分からないのである。
本発明は、上記問題を鑑みてなされたものであり、新たな画像の撮影を行うことなく学習データのバリエーションや数を効率良く増加させることが可能な学習データ生成装置を提供することを目的とする。
本発明に係る学習データ生成装置は、入力画像が属するクラスの識別に用いる学習データを生成する学習データ生成装置であって、予め前記クラスのそれぞれに属する画像から得た特徴量を前記クラスと対応付けて記憶している学習データ記憶手段と、前記特徴量が分布する特徴空間の軸を表す複数の基底ベクトルそれぞれと対応する基底画像を予め記憶している基底画像記憶手段と、前記特徴空間内に少なくとも1つのサンプル点を生成するサンプル点生成手段と、前記サンプル点に対応する視認可能な再構成画像を前記基底画像を用いて生成する画像再構成手段と、前記再構成画像を表示して、前記再構成画像を視認したユーザーによる前記再構成画像が属するクラスの判断結果の入力を受け付けるユーザーインターフェースと、前記ユーザーインターフェースから入力されたクラスと対応付けて前記サンプル点を前記学習データ記憶手段に追記する学習データ更新手段と、を備える。
また、本発明に係る学習データ生成装置において、前記サンプル点生成手段は、前記学習データ記憶手段が記憶している前記特徴量の前記特徴空間における密度が予め定められた密度基準値未満である低密度領域を検出し、当該低密度領域内に前記サンプル点を生成する構成とすることができる。
さらに本発明に係る学習データ生成装置において、前記サンプル点生成手段は、前記低密度領域に、前記クラスの境界に交差する方向に並ぶ複数の前記サンプル点を生成し、前記ユーザーインターフェースは、前記複数のサンプル点に対応する複数の前記再構成画像を当該サンプル点の並び順に従って並べて表示する構成とすることができる。
上記本発明に係る学習データ生成装置において、前記ユーザーインターフェースは、前記複数の再構成画像の並びにおける前記クラスの境界を入力され、当該境界にて分けられたクラスを各サンプル点の判断結果として受け付ける構成とすることができる。
また、本発明に係る学習データ生成装置において、さらに、前記特徴空間において前記クラスを分ける識別境界を記憶した識別境界記憶手段を有し、前記サンプル点生成手段は、前記識別境界から近いほど高い密度基準値を設定して、前記学習データ記憶手段が記憶している前記特徴量の前記特徴空間における密度が前記密度基準値未満である低密度領域を検出し、当該低密度領域内に前記サンプル点を生成する構成とすることができる。
また、本発明に係る学習データ生成装置において、前記画像再構成手段は、前記再構成画像について自然画らしさの所定の指標を算出し、当該指標の値が予め定められた評価基準を満たさない前記再構成画像を破棄する構成とすることができる。
本発明によれば、新たな画像の撮影を行うことなく学習データを追加できるため、学習データのバリエーションや数を効率良く増加させることが可能となる。
本発明の実施形態に係る学習データ生成装置の概略の構成を示すブロック図である。 本発明の実施形態である学習データ生成装置の概略の機能ブロック図である。 識別境界に近いほど密度基準値を高く設定する処理の例を示す模式図である。 基底画像を用いてサンプル点に対応する再構成画像を生成する例を示す模式図である。 ユーザーインターフェースの表示画像の一例の模式図である。 本発明の実施形態に係る学習データ生成装置の概略の動作を示すフロー図である。 学習データ追加処理の概略のフロー図である。 低密度領域検出の変形例を説明する模式図である。 サンプル点の生成の仕方の変形例を示す模式図である。 サンプル点の生成の仕方の他の変形例を示す模式図である。 一方向に並んでサンプル点を複数生成する構成におけるユーザーインターフェースの表示画像の一例の模式図である。
以下、本発明の実施の形態(以下実施形態という)である学習データ生成装置1について、図面に基づいて説明する。学習データ生成装置1は入力画像が属するクラスを識別する識別器の機械学習に用いる学習データを生成する。本実施形態ではクラスは人の像と人以外の像とする。また、学習データは画像から抽出した特徴量とし、特徴ベクトルとして表現される。
[学習データ生成装置1の構成]
図1は学習データ生成装置1の概略の構成を示すブロック図である。学習データ生成装置1は記憶部2、表示部3、入力部4及び制御部5を含んで構成される。制御部5は記憶部2、表示部3及び入力部4と接続される。
記憶部2は制御部5を後述する各手段として動作させるためのプログラム、学習データや各手段が生成したデータなどの各種データを記憶し、制御部5との間でこれらのプログラムやデータを入出力する。記憶部2は、HDD(Hard Disk Drive)、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。
表示部3は制御部5から入力された画像を表示する液晶ディスプレイ、CRT(Cathode Ray Tube)などのディスプレイ装置である。学習データ生成装置1は表示部3により、新規に追加する学習データに対応する画像をユーザーに視認させる。
入力部4はユーザーが制御部5に対する入力を行うためのインターフェース機器であり、ユーザーは入力部4により、新規に追加する学習データの帰属クラスを制御部5に入力することができる。例えば、入力部4はキーボード、マウス、視線入力装置、音声認識機能付きマイクロフォンなどである。また表示部3と入力部4を一体化した液晶タッチパネルディスプレイを用いることもできる。
制御部5はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の少なくとも1つのプロセッサ、及びその周辺回路を用いて構成される。制御部5は記憶部2からプログラムを読み出して実行することで、後述する各手段として動作し、新規の学習データを生成して記憶部2に追記する。また、そのために表示部3と入力部4を制御する。
図2は学習データ生成装置1の概略の機能ブロック図である。記憶部2は、学習データ記憶手段10及び基底画像記憶手段12として機能する。制御部5は、サンプル点生成手段11、画像再構成手段13及び学習データ更新手段15として適宜動作する。表示部3及び入力部4はユーザーインターフェース14として機能する。
学習データ記憶手段10は入力画像が属するクラスを識別する識別器を生成するために用いる学習データを予め記憶している。すなわち、予め、クラスのそれぞれに属する画像から得た特徴量を、当該クラスを一意に識別する識別子と対応付けて記憶している。学習データ記憶手段10に記憶された学習データは新たな学習データの生成のためにサンプル点生成手段11により読み出され、学習データ更新手段15から新たな学習データが学習データ記憶手段10に追記される。
既に述べたように本実施形態ではクラスは例えば「人」と「人以外」としている。これに対応して、学習データ記憶手段10は、人が写っている多数の画像それぞれから得た特徴量と人のクラスであることを表す識別子とを対応付けて記憶すると共に、人が写っていない多数の画像それぞれから得た特徴量と人以外のクラスであることを表す識別子とを対応付けて記憶している。例えば、人のクラスを表す識別子は値“1”、人以外のクラスを表す識別子は値“0”とする。
特徴量は例えば2500次元のスパースコーディング(Sparse Coding)係数とし、当該係数を要素とするベクトル形式で表現することができる。この特徴量を表すベクトルは特徴ベクトルと称される。ちなみに、スパースコーディング係数が表す特徴空間は画像空間と1対1対応する。なお、特徴量としてスパースコーディング係数を用いた場合、各学習データについて特徴ベクトルの全次元を用いずとも画像空間との良好な対応関係を形成できる。例えば、各学習データを、学習データごとに有効な500次元の成分とそれ以外の2000次元の成分とを有した特徴ベクトルとすることができる。
また、学習データ記憶手段10は予め記憶している学習データを用いて学習した識別器を識別境界の情報として記憶している(識別境界記憶手段)。ちなみに識別境界は特徴空間においてクラスを分ける超平面である。
サンプル点生成手段11は、学習データ記憶手段10が記憶している学習データの特徴量が分布する特徴空間内に少なくとも1つのサンプル点(新規の学習データ)を生成し、画像再構成手段13及び学習データ更新手段15に出力する。
例えば、サンプル点生成手段11は学習データ記憶手段10が記憶している学習データの特徴量の特徴空間における密度が密度基準値未満である低密度領域を検出し、低密度領域内にサンプル点を生成する。具体的には、サンプル点生成手段11は現に学習データが分布している範囲、或いは当該範囲の周囲を含めた範囲をそれぞれが同サイズの評価領域に区分して各評価領域内における学習データ数を計数し、学習データ数が予め定めた個数閾値未満の評価領域を低密度領域として検出する。そして、低密度領域を検出すると当該領域の重心座標をサンプル点として生成する。これにより、現に特徴空間において学習データが不足している領域にサンプル点を生成できる。
このとき、識別境界近傍に対して重点的に学習データを追加するために、識別境界から評価領域までの距離が近いほど高く当該距離が遠いほど低い密度基準値を用いて低密度領域を検出することが好適である。識別境界からの距離値は、学習データ記憶手段10が記憶している識別器に評価領域の重心ベクトルを入力することで当該識別器の出力値として得られる。
図3は識別境界に近いほど密度基準値を高く設定する処理の例を示す模式図であり、特徴空間を2次元とした場合を示している。図3では特徴空間はその各軸F,Fについて量子化され、矩形の評価領域に区分されている。例えば、学習データの個数に適用する個数閾値を1個及び2個の2段階とし、識別境界から距離閾値T未満の領域について個数閾値は2個に設定され、距離閾値T以上の領域について個数閾値は1個に設定されている。図3の上側の特徴空間における評価領域を示す各矩形内の数値は当該評価領域に存在する学習データの数を表しており、斜線を付した評価領域が低密度領域として検知される。図3の下側の特徴空間では、低密度領域に追加された新たなサンプル点を黒丸で示している。この方法では、新たなサンプル点の追加により、学習データ密度の最低値は識別境界近傍以外では1個に引き上げられると共に、識別境界近傍では2個に引き上げられ、識別境界近傍以外に比べて2倍の学習データ密度とすることができる。
基底画像記憶手段12は予め特徴空間における各軸方向の単位ベクトル(基底ベクトル)それぞれに対応した基底画像を記憶している。この基底画像は画像再構成手段13により読み出され利用される。特徴量として2500次元のスパースコーディング係数を用いる本例では、2500個の単位ベクトルそれぞれが特徴空間の各軸を表す基底ベクトルであり、基底画像記憶手段12は各軸と対応づけて2500枚の基底画像を記憶している。
画像再構成手段13はサンプル点生成手段11が生成したサンプル点に対応する視認可能な再構成画像を生成し、ユーザーインターフェース14に出力する。具体的には、画像再構成手段13は特徴空間の軸のそれぞれと対応する基底画像を、サンプル点の当該軸と対応する座標値にて重み付け合成することにより再構成画像を生成する。例えば、(x,y)を画像平面のXY座標、軸iと対応する基底画像をB(x,y)、サンプル点の座標値を[f,f,…,f,…,f2500]と表すと、再構成画像R(x,y)はiについての総和Σを用いた次式で与えられる。
R(x,y)=ΣB(x,y)・f ………(1)
図4は基底画像を用いてサンプル点に対応する再構成画像を生成する上記(1)式の例を示す模式図である。図4ではその左側に示すように特徴空間は3次元とする。当該特徴空間内に生成されたサンプル点の座標を[0.9,0.6,0.4]とすると、再構成画像Rは図4の右側に示すように基底画像B〜Bにサンプル点の座標値を乗じて加算する重み付け加算で得られる。
なお、スパースコーディング係数を特徴量として用いた場合、特徴量の有効な成分のみ(例えば絶対値が大きな順に500次元の成分)を用いて(1)式による良好な再構成を行うことができ、再構成のための計算量を削減できる。
また、画像再構成手段13は再構成画像について自然画像らしさの評価を行う。以下これについて説明する。自動生成するサンプル点の中には、自然画像らしさが低く、実際に識別対象として入力されることが無いものも含まれ得る。そのため、再構成画像に対して自然画像らしさの指標を算出して予め定めた画像評価閾値と比較し、自然画像らしさが画像評価閾値未満の場合は、再構成画像を破棄して出力せず、代わりに学習データ更新手段15に追記不要を表す値“−2”を通知する。
自然画像らしさの指標は、例えば、フィールズ・オブ・エキスパーツ(Fields of Experts:FoE)と呼ばれる統計モデルに再構成画像を入力して得られる尤度とすることができる(S. Roth and M. J. Black. “Fields of Experts: A Framework for Learning Image Priors.” CVPR2005, II:860–867)。具体的には、自然画像らしさの指標は次式で計算するp(R)とすることができる。
Figure 0006118752
ここで、Rは再構成画像、Jはサイズi×iの所定の画像フィルタ(1≦i≦K)である。Rは再構成画像Rの各所に設定される画像フィルタと同サイズの局所領域であり、Cは再構成画像R内における局所領域Rの位置のインデックスである。また、αはフィルタ毎に決まる定数であり、Kは例えば5である。
予め多数の自然画像に対してp(R)を最大化するJ及びαを学習しておき、計算式p(R)を記憶部2に記憶させておく。具体的には、J及びαを変動させながら各J及びαについて学習用の自然画像すべての局所領域Rを用いて統計的にp(R)を求め、その中でp(R)を最大化するJ及びαが決定される。
画像評価閾値は、学習したp(R)の計算式にテスト用の多数の自然画像を入力して得た出力の最小値としたり、当該最小値より一定値だけ小さく設定した値、或いは当該最小値より一定値だけ大きく設定した値としたりすることができる。
当該学習及びテストに用いる多数の自然画像は、学習データ記憶手段10に記憶している学習データの基となった、人が写っている多数の画像及び人が写っていない多数の画像の一部(例えば半分ずつ)とすることができる。或いは、別の自然画像群としてもよい。
ちなみに、この自然画像らしさの指標は、再構成画像における近傍画素間の依存関係が多数の自然画像における近傍画素間の依存関係と統計的に類似する度合いである。
自然画像らしさの指標として、FoEの他にも、スケーリング・ロウズ(Scaling laws)、ガボール・ウェーブレット(gabol-wavelet)などの周波数特徴、ガウシアンFoE(Gaussian FOE)またはフィジカリー・インスパイアード・モデル(Physically Inspired Models)など、近傍画素間の依存関係に基づく公知の各種指標を用いることができる。
上述した手法により、自然画像らしさの低い再構成画像を自動的に除くことにより不要な学習データの追加による記憶部2の資源の無駄遣いを抑制でき、また不要なサンプル点を視認するユーザーの手間を省ける。
表示部3はユーザーインターフェース14として、画像再構成手段13から入力された再構成画像を表示してユーザーに視認させる。また、入力部4はユーザーインターフェース14として、再構成画像を視認したユーザーにより入力された再構成画像の帰属クラス(すなわちサンプル点の帰属クラス)を学習データ更新手段15へ出力する。なお、上述したように人のクラス、人以外のクラスはそれぞれ識別子“1”、“0”で表され、また、自然画像らしさに欠ける場合には識別子“−2”が割り当てられている。ここで、さらに帰属クラスが判断不能であることを表す識別子“−1”を設けても良い。
図5はユーザーインターフェース14の一例の模式図であり、表示部3の表示画像を示している。表示画像20には再構成画像21が表示され、例えば、その横にユーザーによる判断結果を入力させるGUI(graphical user interface)が表示される。例えば、ユーザーインターフェース14は表示画像20に「人のクラス」、「人以外のクラス」及び「判断不能」を選択肢として表示し、それらに対応付けてラジオボタンを表示する。図5に示す例ではユーザーがカーソル22を移動させて「人のクラス」のボタンをオンにした状態を示している。ユーザーがこのようにいずれかを選択した後、登録ボタン23をクリックすると、選択結果が受け付けられ、対応した識別子が学習データ更新手段15に入力される。
学習データ更新手段15はサンプル点生成手段11から入力されたサンプル点を、ユーザーインターフェース14から入力された帰属クラスと対応付けて学習データ記憶手段10に追記する。なお、帰属クラスが判断不能を表す値“−1”及び再構成画像が自然画像らしさに欠けることを表す値“−2”のときは追記を省略する。
[学習データ生成装置1の動作]
図6は学習データ生成装置1の概略の動作を示すフロー図である。
学習データ生成装置1は起動されると制御部5がまずサンプル点生成手段11として動作する。サンプル点生成手段11は、記憶部3の学習データ記憶手段10に記憶されている学習データが分布している範囲をその周囲に一定量だけ広げた学習データ追加範囲を算出して、学習データ追加範囲をそれぞれが同サイズの評価領域に分割し、評価領域内における学習データの数が予め定めた個数閾値未満である評価領域を低密度領域として検出する(ステップS1)。そのためにサンプル点生成手段11は、特徴空間の各軸iについて、学習データの最大値MAX(f)及び最小値MIN(f)を求め、[MAX(f)+Δ/2,MIN(f)−Δ/2]を学習データ追加範囲として算出する。但し、Δは予め定めた正の定数である。なお、学習データ追加範囲を周囲に広げたくない場合はΔ=0とすればよい。サンプル点生成手段11が低密度領域を検出した場合には(ステップS2にて「Yes」の場合)、検出した低密度領域を順次、処理領域に設定する(ステップS3)。そして、設定された低密度領域への学習データ追加処理が実行される(ステップS4)。学習データ追加処理S4では低密度領域の画像が再構成され、それに対してユーザーが帰属クラスを付与し、付与された帰属クラスとサンプル点が追加される。学習データ追加処理S4については後述する。
ステップS3,S4の処理は、ステップS1にて検出された各低密度領域について行われる(ステップS5にて「No」の場合)。そしてサンプル点生成手段11がステップS1にて検出された全ての低密度領域における学習データの数が個数閾値にまで増えたことを確認すると学習データ生成装置1は処理を終了する(ステップS5にて「Yes」の場合)。また、ステップS1で低密度領域が検出されなかった場合も(ステップS2にて「No」の場合)学習データ生成装置1は処理を終了する。
図7は学習データ追加処理S4の概略のフロー図である。
制御部5はサンプル点生成手段11として動作し、ステップS1にて検出した低密度領域の重心位置をサンプル点として生成する(ステップS10)。
次に制御部5は画像再構成手段13として動作し、サンプル点生成手段11にて生成されたサンプル点の座標値[f,f,…,f,…,f2500]と、基底画像記憶手段12から読込んだ基底画像B(x,y)から、(1)式に基づいて再構成画像R(x,y)を生成する(ステップS11)。
画像再構成手段13は、ステップS11にて生成された再構成画像について自然画像らしさの指標p(R)を(2)式により算出し(ステップS12)、指標p(R)が画像評価閾値T未満か否かを判断する(ステップS13)。その結果、閾値未満の場合、画像再構成手段13は再構成画像が自然らしさに欠けるとして識別子“−2”を出力する(ステップS13にて「No」の場合)。この出力が行われると、制御部5は学習データ更新手段15として動作し、サンプル点の追記は不要であるとしてステップS14〜S17を省略し、処理を図6のステップS5の処理に進める。
一方、指標p(R)が画像評価閾値T以上である場合は(ステップS13にて「Yes」の場合)、表示部3がユーザーインターフェース14として機能し、再構成画像を表示しユーザーに提示する(ステップS14)。
入力部4はユーザーインターフェース14として機能し、ユーザーによる帰属クラスの入力を待つ(ステップS15にて「No」の場合)。ユーザーは再構成画像について視認して判断した帰属クラスをキーボードやマウス等の入力部4により学習データ生成装置1に入力することができる。
ユーザーインターフェース14はユーザーが入力した帰属クラスに応じた識別子を制御部5へ出力する(ステップS15にて「Yes」の場合)。
制御部5は学習データ更新手段15として動作し、入力された帰属クラスがクラスを判断できたことを示すもの、つまり識別子の値が“1”又は“0”であれば(ステップS16にて「Yes」の場合)、識別子の値と対応付けて、サンプル点生成手段11にて生成されたサンプル点を記憶部3の学習データ記憶手段10に追記し(ステップS17)、その後、図6のステップS5の処理に進む。
一方、入力された帰属クラスがクラスを判断できないことを示すもの、つまり識別子の値が“−1”であれば(ステップS16にて「No」の場合)、学習データ記憶手段10への追記は行わずに図6のステップS5に処理を進める。
[画像再構成の変形例]
上述した実施形態では、特徴空間をスパースコーディング法による基底系で表す例を説明したが、基底系は任意のものを用いることができる。すなわち、いずれの基底系を採用しても、基底ベクトルに対応する基底画像を用い、その線形結合によりサンプル点に対応する再構成画像を生成することができる。
ここで、スパースコーディング法では画像再構成に必要とされる実質的な基底の数を実画像の次元数(画素数等)よりも各段に減らすことができ、再構成のために要する基底画像記憶手段12の容量削減、及び再構成に要する画像再構成手段13の計算量削減が可能となる利点がある。この特徴はスパースコーディング法に代えて、主成分分析、独立成分分析などの手法を採用しても得られる。主成分分析法を用いる場合、学習データの分析により導出された主成分を基底ベクトルとし、主成分に対応する画像を基底画像とすることができる。同様に、独立成分分析法を用いる場合、学習データの分析により導出された独立成分を基底ベクトルとし、独立成分に対応する画像を基底画像とすることができる。すなわち、スパースコーディング法に代えて主成分分析法などで学習データから生成した基底画像を基底画像記憶手段12に記憶させておき、画像再構成手段13はサンプル点の座標に対応する基底画像の重みづけ和をサンプル点の再構成画像として生成することができる。その際、主成分分析等と異なりスパースコーディング法では、特徴空間の次元数より少ない数の基底画像でサンプル点に対応する画像を良好な近似で再構成でき、画像再構成手段13の計算量削減効果が特に高い。
[低密度領域検出の変形例]
上述した実施形態では、特徴空間を区分した各評価領域を同じ大きさとし、学習データの個数で低密度領域を規定したが、各評価領域の大きさを可変とし、評価領域の大きさで低密度領域を規定してもよい。例えば、特徴空間において学習データが存在しない閉領域を検出し、その閉領域の大きさが予め定めた大きさ閾値以上であるときに、当該閉領域を低密度領域として検出することができる。
図8はその具体例を説明する模式図であり、2次元に簡略化した特徴空間における人のクラスの学習データ(○印)、人以外のクラスの学習データ(□印)が示されている。人のクラスに属する任意の学習データ30から人以外のクラスに属する学習データの中で最も近い学習データ31を探索して、当該2つの学習データ30,31を結ぶ線分を直径とする超球32を求める。そして、当該超球32内に人のクラスの学習データが他に存在せず、且つその大きさが予め定めた大きさ閾値以上であるときに(直径又は半径について閾値を設定し比較を行えばよい)、当該超球32を低密度領域として検出する。なお、低密度領域とされた超球32の中には、例えば、超球32の中心などに新規学習データであるサンプル点33(●印)が設定される。
この変形例において、評価領域が識別境界に近いほど高く遠いほど低い密度基準値を設定するには、識別境界から中心までの距離が距離閾値T以上の超球に対して大きさ閾値TS1を設定し、識別境界から中心までの距離が距離閾値T未満の超球に対してTS1よりも小さな大きさ閾値TS2を設定すればよい。
[サンプル点生成の変形例]
(1)各低密度領域に複数のサンプル点を生成
ここで述べる変形例ではサンプル点生成手段11は低密度領域内にクラスの境界に交差する方向に並ぶ複数の前記サンプル点を生成する。図9、図10はそのサンプル点の生成の仕方の例を示す模式図である。
図9の上側には2次元に簡略化した特徴空間を示し、下側には上側に示した特徴空間における低密度領域を拡大して示している。図9に示す例では、学習データ記憶手段10が記憶している対象データ群40の重心41と、サンプル点生成手段11により対象データ群40の外に検出された低密度領域42の重心43とを結ぶ直線44上に、当該低密度領域42に対する5個のサンプル点45(●印)を生成する。
図10は図8で説明した低密度領域でのサンプル点の生成例である。低密度領域として検出された超球32の直径の両端に位置する対象データ30と非対象データ31とを結ぶ直線60上に当該低密度領域(超球32)に対する5個のサンプル点61(●印)を生成する。
図11は上述のように一方向に並んでサンプル点を複数生成する構成におけるユーザーインターフェース14の一例の模式図であり、表示部3の表示画像を示している。画像再構成手段13は、複数のサンプル点それぞれに対応する画像を再構成し、ユーザーインターフェース14は複数のサンプル点に対応する複数の再構成画像70を特徴空間における当該サンプル点の並び順に従って並べて表示する。また、ユーザーインターフェース14は、複数の再構成画像70の並びにおけるクラスの境界の入力を受け付ける。
例えば、ユーザーインターフェース14は再構成画像70を表示画像の上側に水平方向に並べて表示し、その下に、複数の再構成画像70の並びのどの位置に「人」のクラスと「人以外」のクラスとの境界があるかを示す表示71とそれらに対応付けられたラジオボタン72とを表示する。またラジオボタン72の選択肢として「判断不能」を含めることができる。
図11に示す例ではユーザーがカーソル73を移動させてラジオボタンの1つをオンにしている。例えば、このオンされたボタンに対応する表示71は、再構成画像70の並びにて左から3番目までが人のクラスであり、それより右側が人以外のクラスであることを示している。ユーザーがこのようにいずれかを選択した後、登録ボタン74をクリックすると、選択結果が受け付けられ、ユーザーインターフェース14から学習データ更新手段15に入力される。学習データ更新手段15は入力された境界に応じて複数のサンプル点それぞれに対する帰属クラスを判定し、学習データ記憶手段10に追記する。
(2)サンプル点のマニュアル生成/半自動生成
上述の実施形態及び変形例では、サンプル点生成手段11が低密度領域を検出してサンプル点を生成したが、ユーザーがユーザーインターフェース14を介して入力した座標を用いてサンプル点生成手段11がサンプル点を生成してもよい。
或いは、ユーザーがユーザーインターフェース14を介して既存の複数の学習データを指定し、サンプル点生成手段11が当該複数の学習データの平均座標を有するサンプル点を生成してもよい。
[その他の変形例]
上記実施形態では人の像と人以外の像を識別する例を示したが、対象はこれに限らない。例えば、入力データが画像の場合は対象を人の顔、性別または車両などとすることができる。
また上記実施形態では対象と非対象を識別する2クラス問題を例示したが、車種判定、文字認識、顔による個人識別などの多クラス問題にも適用できる。この場合、クラスのペアごとに学習データを選出して該ペア間のローカル識別境界を学習すればよい。
さて、以上、実施形態により本発明を説明した。識別器の性能向上を妨げる要因の1つに学習データの偏りがある。偏りのある学習データは、特徴空間において学習データが不足している低密度領域を有し、低密度領域の特徴量を有する入力画像に対して識別精度が低下する。また、画像の見た目の類似性或いは相違性と、特徴量の類似性或いは相違性にはずれがあるため、低密度領域に該当する画像を意図的に撮影するのは困難である。
本発明によれば、特徴空間においてサンプル点を生成するので意図した学習データを容易に追加することができる。
また、生成したサンプル点と対応する画像を再構成して表示することで、ユーザーが視認してサンプル点の帰属クラスを判断でき、判断結果である帰属クラスと対応付けてサンプル点を学習データに加えるので、画像を撮影することなく意図した学習データを追加できる。
さらに、学習データを分析して低密度領域を検出し、低密度領域内にサンプル点を生成するので、不足している学習データを効率良く追加できる。
1 学習データ生成装置、2 記憶部、3 表示部、4 入力部、5 制御部、10 学習データ記憶手段、11 サンプル点生成手段、12 基底画像記憶手段、13 画像再構成手段、14 ユーザーインターフェース、15 学習データ更新手段。

Claims (6)

  1. 入力画像が属するクラスの識別に用いる学習データを生成する学習データ生成装置であって、
    予め前記クラスのそれぞれに属する画像から得た特徴量を前記クラスと対応付けて記憶している学習データ記憶手段と、
    前記特徴量が分布する特徴空間の軸を表す複数の基底ベクトルそれぞれと対応する基底画像を予め記憶している基底画像記憶手段と、
    前記特徴空間内に少なくとも1つのサンプル点を生成するサンプル点生成手段と、
    前記サンプル点に対応する視認可能な再構成画像を前記基底画像を用いて生成する画像再構成手段と、
    前記再構成画像を表示して、前記再構成画像を視認したユーザーによる前記再構成画像が属するクラスの判断結果の入力を受け付けるユーザーインターフェースと、
    前記ユーザーインターフェースから入力されたクラスと対応付けて前記サンプル点を前記学習データ記憶手段に追記する学習データ更新手段と、
    を備え
    前記サンプル点生成手段は、前記特徴空間内に評価領域を設定し、前記学習データ記憶手段が記憶している前記特徴量の前記評価領域内における個数が予め定められた基準を下回る場合に当該評価領域を低密度領域として検出し、当該低密度領域内に前記サンプル点を生成すること、を特徴とする学習データ生成装置。
  2. 前記サンプル点生成手段は、前記低密度領域に、前記クラスの境界に交差する方向に並ぶ複数の前記サンプル点を生成し、
    前記ユーザーインターフェースは、前記複数のサンプル点に対応する複数の前記再構成画像を当該サンプル点の並び順に従って並べて表示すること、
    を特徴とする請求項に記載の学習データ生成装置。
  3. 前記ユーザーインターフェースは、前記複数の再構成画像の並びにおける前記クラスの境界を入力され、当該境界にて分けられたクラスを各サンプル点の判断結果として受け付けること、を特徴とする請求項に記載の学習データ生成装置。
  4. さらに、前記特徴空間において前記クラスを分ける識別境界を記憶した識別境界記憶手段を有し、
    前記サンプル点生成手段は、前記識別境界から近いほど高い密度基準値を設定して、前記学習データ記憶手段が記憶している前記特徴量の前記特徴空間における密度が前記密度基準値未満である低密度領域を検出し、当該低密度領域内に前記サンプル点を生成すること、
    を特徴とする請求項1から請求項のいずれか1つに記載の学習データ生成装置。
  5. 前記画像再構成手段は、前記再構成画像について自然画らしさの所定の指標を算出し、当該指標の値が予め定められた評価基準を満たさない前記再構成画像を破棄すること、を特徴とする請求項1から請求項のいずれか1つに記載の学習データ生成装置。
  6. 入力画像が属するクラスの識別に用いる学習データを生成する学習データ生成装置であって、
    予め前記クラスのそれぞれに属する画像から得た特徴量を前記クラスと対応付けて記憶している学習データ記憶手段と、
    前記特徴量が分布する特徴空間の軸を表す複数の基底ベクトルそれぞれと対応する基底画像を予め記憶している基底画像記憶手段と、
    前記特徴空間内に少なくとも1つのサンプル点を生成するサンプル点生成手段と、
    前記サンプル点に対応する視認可能な再構成画像を前記基底画像を用いて生成する画像再構成手段と、
    前記再構成画像を表示して、前記再構成画像を視認したユーザーによる前記再構成画像が属するクラスの判断結果の入力を受け付けるユーザーインターフェースと、
    前記ユーザーインターフェースから入力されたクラスと対応付けて前記サンプル点を前記学習データ記憶手段に追記する学習データ更新手段と、
    を備え、
    前記画像再構成手段は、前記再構成画像について自然画らしさの所定の指標を算出し、当該指標の値が予め定められた評価基準を満たさない前記再構成画像を破棄すること、を特徴とする学習データ生成装置。
JP2014067827A 2014-03-28 2014-03-28 学習データ生成装置 Active JP6118752B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014067827A JP6118752B2 (ja) 2014-03-28 2014-03-28 学習データ生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014067827A JP6118752B2 (ja) 2014-03-28 2014-03-28 学習データ生成装置

Publications (2)

Publication Number Publication Date
JP2015191426A JP2015191426A (ja) 2015-11-02
JP6118752B2 true JP6118752B2 (ja) 2017-04-19

Family

ID=54425863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014067827A Active JP6118752B2 (ja) 2014-03-28 2014-03-28 学習データ生成装置

Country Status (1)

Country Link
JP (1) JP6118752B2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019022136A1 (ja) * 2017-07-25 2019-01-31 国立大学法人東京大学 学習方法、学習プログラム、学習装置及び学習システム
JP6330092B1 (ja) * 2017-08-02 2018-05-23 株式会社ディジタルメディアプロフェッショナル 機械学習用教師データ生成装置及び生成方法
US11200683B2 (en) 2017-08-22 2021-12-14 Mitsubishi Electric Corporation Image processing device and image processing method
JP7103421B2 (ja) * 2018-03-05 2022-07-20 オムロン株式会社 ワークを検出するための方法、装置、システム、プログラム、及び記憶媒体
JP6766839B2 (ja) * 2018-03-14 2020-10-14 オムロン株式会社 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置
JP6844564B2 (ja) * 2018-03-14 2021-03-17 オムロン株式会社 検査システム、識別システム、及び学習データ生成装置
KR102114367B1 (ko) * 2018-10-25 2020-05-22 카페24 주식회사 객체 영역 추출을 수행하는 인공 신경망을 위한 학습 데이터를 생성하는 방법 및 장치
US20230196746A1 (en) * 2019-11-01 2023-06-22 Nippon Telegraph And Telephone Corporation Data generation method, data generation apparatus and program
JP7298825B2 (ja) * 2019-12-24 2023-06-27 株式会社 東京ウエルズ 学習支援装置、学習装置、学習支援方法及び学習支援プログラム
JP7353198B2 (ja) * 2020-02-06 2023-09-29 株式会社日立ハイテク 計算機、識別器の学習方法、および分析システム
JP7055259B2 (ja) * 2020-03-04 2022-04-15 三菱電機株式会社 ラベリング装置及び学習装置
WO2022003974A1 (ja) * 2020-07-03 2022-01-06 株式会社ソニー・インタラクティブエンタテインメント 追加撮影要否通知装置、追加撮影要否通知方法及びプログラム
CN113761289A (zh) * 2021-02-02 2021-12-07 北京沃东天骏信息技术有限公司 图学习方法、框架、计算机系统及可读存储介质
US11807689B1 (en) 2022-06-01 2023-11-07 Tg Therapeutics, Inc. Anti-CD20 antibody compositions
US11965032B1 (en) 2022-06-01 2024-04-23 Tg Therapeutics, Inc. Anti-CD20 antibody compositions
US11814439B1 (en) 2022-06-01 2023-11-14 Tg Therapeutics, Inc. Anti-CD20 antibody compositions
US11884740B1 (en) 2022-06-01 2024-01-30 Tg Therapeutics, Inc. Anti-CD20 antibody compositions
JP7502808B2 (ja) 2022-06-24 2024-06-19 株式会社 東京ウエルズ 学習装置、学習方法及び学習プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011150541A (ja) * 2010-01-21 2011-08-04 Sony Corp 学習装置、学習方法、及びプログラム
JP2013125322A (ja) * 2011-12-13 2013-06-24 Olympus Corp 学習装置、プログラム及び学習方法
JP5899472B2 (ja) * 2012-05-23 2016-04-06 パナソニックIpマネジメント株式会社 人物属性推定システム、及び学習用データ生成装置

Also Published As

Publication number Publication date
JP2015191426A (ja) 2015-11-02

Similar Documents

Publication Publication Date Title
JP6118752B2 (ja) 学習データ生成装置
CN109255352B (zh) 目标检测方法、装置及系统
US10740652B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
CN107784282B (zh) 对象属性的识别方法、装置及系统
Adhikari et al. Activity recognition for indoor fall detection using convolutional neural network
JP5763965B2 (ja) 情報処理装置、情報処理方法、及びプログラム
Zhou et al. Semi-supervised salient object detection using a linear feedback control system model
US9330336B2 (en) Systems, methods, and media for on-line boosting of a classifier
CN104504366A (zh) 基于光流特征的笑脸识别系统及方法
US11449706B2 (en) Information processing method and information processing system
US20160306870A1 (en) System and method for capture, classification and dimensioning of micro-expression temporal dynamic data into personal expression-relevant profile
Hu et al. Exemplar-based recognition of human–object interactions
JP2017102906A (ja) 情報処理装置、情報処理方法及びプログラム
JP2020135551A (ja) 対象物認識装置、対象物認識方法、及び対象物認識プログラム
JP2011210054A (ja) 対象物検知装置及びその学習装置
CN111444850A (zh) 一种图片检测的方法和相关装置
Zhou et al. A study on attention-based LSTM for abnormal behavior recognition with variable pooling
CN116071790A (zh) 掌静脉图像质量评估方法、装置、设备及存储介质
Davis et al. Automated bone age assessment using feature extraction
JP5746550B2 (ja) 画像処理装置、画像処理方法
Yao et al. An improved feature-based method for fall detection
Huang et al. Real-time automated detection of older adults' hand gestures in home and clinical settings
JP2013016170A (ja) 人体動作の認識の方法、装置、及びプログラム
US20190385016A1 (en) Device that updates recognition model and method of updating recognition model
JP5952942B2 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170327

R150 Certificate of patent or registration of utility model

Ref document number: 6118752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250