JP2013117861A - 学習装置、学習方法およびプログラム - Google Patents
学習装置、学習方法およびプログラム Download PDFInfo
- Publication number
- JP2013117861A JP2013117861A JP2011265048A JP2011265048A JP2013117861A JP 2013117861 A JP2013117861 A JP 2013117861A JP 2011265048 A JP2011265048 A JP 2011265048A JP 2011265048 A JP2011265048 A JP 2011265048A JP 2013117861 A JP2013117861 A JP 2013117861A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- result
- image
- threshold
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Analysis (AREA)
Abstract
【課題】 学習データにおける外れ値の影響の少ない学習結果を少ない計算コストで得ること。
【解決手段】 学習装置は、学習に使用する複数のサンプル画像のそれぞれに対する弱判別器の判別学習の結果と弱判別器の判別学習の結果の信頼性を示すパラメータとを取得する学習部と、複数のサンプル画像のそれぞれについて、被検出対象が含まれている確からしさを示す値を、判別学習の結果とパラメータとを用いて算出する算出部と、一のサンプル画像について確からしさを示す値が、予め設定された学習閾値に比べて小さい場合に、複数のサンプル画像から一のサンプル画像を削除する削除部と、一のサンプル画像が削除された後の複数のサンプル画像のそれぞれに対する弱判別器の判別学習の結果から、当該判別学習の結果の信頼性を示すパラメータを取得する再学習部と、を備える。
【選択図】 図5
【解決手段】 学習装置は、学習に使用する複数のサンプル画像のそれぞれに対する弱判別器の判別学習の結果と弱判別器の判別学習の結果の信頼性を示すパラメータとを取得する学習部と、複数のサンプル画像のそれぞれについて、被検出対象が含まれている確からしさを示す値を、判別学習の結果とパラメータとを用いて算出する算出部と、一のサンプル画像について確からしさを示す値が、予め設定された学習閾値に比べて小さい場合に、複数のサンプル画像から一のサンプル画像を削除する削除部と、一のサンプル画像が削除された後の複数のサンプル画像のそれぞれに対する弱判別器の判別学習の結果から、当該判別学習の結果の信頼性を示すパラメータを取得する再学習部と、を備える。
【選択図】 図5
Description
本発明は、学習装置、学習方法およびプログラムに関する。特に、学習データにおける外れ値の影響を削減した学習装置に関する。ここで「外れ値」とは学習によって正しく識別できない学習データのことを指し、回帰分析などで言う「外れ値」(データ分布の中心から離れた点)とは意味が異なる。
入力されたデータを識別する手法には様々なものがあり、例えば、Support Vector Machine (SVM)と呼ばれる手法がある。当初は、学習のためのデータが完全に識別可能である場合にしか適用できないものであったが、やがてソフトマージンSVMと言って学習データが完全識別不可能な場合にも適用できる手法が開発された(非特許文献1)。SVMは扱いやすく精度が高いために、多くの場面で使われている。
オリジナルのSVMは外れ値に弱いということが知られており、ソフトマージンSVMにおいていくらかその弱点が改善された。改善法のひとつは、学習の評価関数においてヒンジロスを導入することにあった。それ以外にも非特許文献1では、学習に利用したデータに対して識別器を適用し、誤識別したものを学習データセットから取り除き、再度学習するという方法が提示されている。
しかし、外れ値の影響を充分に除去するのは難しく、その後も改良が試みられている。例えば、非特許文献2では、識別境界に近い学習データが学習に悪影響を及ぼすと仮定している。学習によって得られた識別器を利用して学習に使用したデータの識別を試み、識別境界に近い(SVMの出力が0に近い)データを取り除いてから、再度学習をしている(BandSVM)。
また、評価関数の工夫によってロバスト性の改善が図られることもあった。例えば、非特許文献3ではロス関数の形状を工夫することによって外れ値の影響を小さくしている。あるいは、非特許文献4では外れ値判定をロス関数に組み込むような仕組みを導入している。尚、非特許文献5乃至7は、発明を実施するための形態で参照する文献であり、内容の説明は省略する。
Cortes, C., & Vapnik, V. (1995). Support-vector networks. Machine Learning, 20(3).
Godbole, S., & Sarawagi, S. (2004). Discriminative Methods for Multi-labeled Classification. Advances in Knowledge Discovery and Data Mining.
L. Mason, J. Baxter, P.L. Bartlett, & M. Frean. (2000). Functional Gradient Techniques for Combining Hypotheses. Advances in Large-Margin Classifiers.
Xu, L., Crammer, K., & Schuurmans, D. (2006). Robust support vector machine training via convex outlier ablation. Proceedings of the 21st national conference on Artificial intelligence - Volume 1.
Viola, P., & Jones, M. (2001). Rapid object detection using a boosted cascade of simple features. Computer Vision and Pattern Recognition, 2001.
Dalal, N., & Triggs, B. (2005). Histograms of oriented gradients for human detection. Computer Vision and Pattern Recognition, 2005.
Chun-Fu Lin, & Sheng-De Wang. (2002). Fuzzy support vector machines. IEEE Transactions on Neural Networks, 13(2).
これまで考え出されたアルゴリズムでは、それぞれに課題が残っている。まず非特許文献2ではBandSVMによる統計上有意な改善は報告されていない。また、評価関数を工夫する手法の多くは、評価関数が凸関数でなくなってしまうために、局所解に陥るという問題がある。非特許文献4による方法は、計算コストが高く、現実的には数百のデータまでしか学習できない。
本発明は、上記の課題を鑑みてなされたもので、外れ値の影響の少ない解を少ない計算コストで得られるようにする学習技術を提供することを目的とする。本発明に適用可能な学習アルゴリズムはAdaBoost、SVMに限らない。特に本発明では、学習閾値と識別閾値が異なるという点で、従来とは異なる範囲の誤識別データを除外している点が従来技術と相違している。
上記課題を解決する本発明の一つの側面にかかる学習装置は、学習に使用する複数のサンプル画像のそれぞれに対する弱判別器の判別学習の結果と前記弱判別器の判別学習の結果の信頼性を示すパラメータとを取得する学習手段と、
前記複数のサンプル画像のそれぞれについて、被検出対象が含まれている確からしさを示す値を、前記判別学習の結果と前記パラメータとを用いて算出する算出手段と、
一のサンプル画像について前記確からしさを示す値が、予め設定された学習閾値に比べて小さい場合に、前記複数のサンプル画像から前記一のサンプル画像を削除する削除手段と、
前記一のサンプル画像が削除された後の複数のサンプル画像のそれぞれに対する弱判別器の判別学習の結果から、当該判別学習の結果の信頼性を示すパラメータを取得する再学習手段と、を備えることを特徴とする。
前記複数のサンプル画像のそれぞれについて、被検出対象が含まれている確からしさを示す値を、前記判別学習の結果と前記パラメータとを用いて算出する算出手段と、
一のサンプル画像について前記確からしさを示す値が、予め設定された学習閾値に比べて小さい場合に、前記複数のサンプル画像から前記一のサンプル画像を削除する削除手段と、
前記一のサンプル画像が削除された後の複数のサンプル画像のそれぞれに対する弱判別器の判別学習の結果から、当該判別学習の結果の信頼性を示すパラメータを取得する再学習手段と、を備えることを特徴とする。
本発明によれば、学習データにおける外れ値の影響の少ない学習結果を少ない計算コストで得ることが可能となる。
<第1実施形態>
本発明の第1実施形態では、入力された画像に顔があるかどうかを判定する情報処理装置(学習装置)の構成例を示す。実施形態を簡単にするために、入力される画像は、顔があればパスポート写真のようにほぼ中央に決められた大きさで配置されているものと仮定する。画像を走査したり画像を拡大・縮小するなどしたりすれば、任意の位置にある任意の大きさの顔を検出できることは言うまでもない。
本発明の第1実施形態では、入力された画像に顔があるかどうかを判定する情報処理装置(学習装置)の構成例を示す。実施形態を簡単にするために、入力される画像は、顔があればパスポート写真のようにほぼ中央に決められた大きさで配置されているものと仮定する。画像を走査したり画像を拡大・縮小するなどしたりすれば、任意の位置にある任意の大きさの顔を検出できることは言うまでもない。
図1は、情報処理装置(学習装置)のハードウェア構成の一例を示す図である。CPU(中央演算装置)100は、実施形態で説明する情報処理方法をプログラムに従って実行する。プログラムメモリ101には、CPU100により実行されるプログラムが記憶されている。RAM102は、CPU100によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリである。本実施形態の画像情報は、一時的にRAM102上に保持される。ハードディスク103は、画像ファイル等を保存するための記録媒体である。なお、プログラムは、ハードディスク103に記憶されていてもよい。また、RAM102の容量が許せば、本実施形態で説明する様々な情報はRAM102に保持しても良い。ディスプレイ104は、本実施形態の処理経過をユーザに提示する。バス110は、これら各部とCPU100とを接続している制御バス、データバスである。なお、情報処理装置(学習装置)は、これ以外にもキーボードやポインティング デバイス等の入力機器等を備えていてもよい。
顔を検出する際の処理の流れを図2のフローチャートを参照して説明する。本処理はCPU100の全体的な制御により実行される。まず、ステップS201で図1のハードディスク103より画像をRAM102に読み込む。RAM102上において画像は2次元配列として保持される。次のステップS202では、後述する学習方法により作成した識別パラメータをRAM102に読み込む。ステップS203では、ステップS202で読み込んだ識別パラメータを使用して、判別処理の対象となる画像(ステップS201で読み込んだ画像)に被検出対象となる顔が含まれているか否かを判別する。その判別結果は次のステップS204でディスプレイ104に表示される。
図2の処理の流れをデータフロー図として書き表すと図3ようになる。画像305は図1のハードディスク103に保存されている。画像の読み込み処理S201(図2)によってハードディスク103に保存されている画像305が読み込まれ、RAM102上に入力画像Iとして記憶される。識別パラメータ308はハードディスク103に保存されている。識別パラメータの読み込み処理S202(図2)によってハードディスク103内の識別パラメータ308が読み込まれ、RAM102上に識別パラメータ309として記憶される。検出処理S203(図2)では、入力画像Iと識別パラメータ309とを使用して、入力画像Iの中に顔が検出されるかどうかを判定し、検出結果307がRAM102に書き込まれる。検出結果の表示処理S204(図2)ではRAM102に書き込まれた検出結果307の内容がディスプレイ104に表示される。
ハードディスク103に保存されている画像305は、例えば、顔画像をあるディレクトリに保存し、顔が写っていない(背景)画像を別のディレクトリに保存することにより区別される。画像305はそれぞれ、例えば、JPEGフォーマットなどでハードディスク103に保存されている。ここでは、顔画像と背景画像の両方とも(Xj,Yj,Uj)と表現することにする。Xjは画像であり、Xjが顔画像であればYj=1、背景画像であればYj=0とする。また、Ujはその画像を学習に使用するかどうかを表すフラグ(識別情報)とし、1であればその画像を学習に使用し、0であれば学習に使用しないものとする。
Adaboostを利用した顔検出のアルゴリズムについては、非特許文献5に解説されているので、ここではその詳細には触れないが、入力画像に顔が写っているかどうかは、次の(1)式で判別できるということを引用する。この式が、図2のステップS203の顔検出処理で使用される。
ここで、xは入力画像、htはt番目の弱判別器を表し、Tは弱判別器の個数を表す。h(x)は判別学習の結果を示している。非特許文献5における弱判別器は、入力画像Iを輝度画像に変換した後の2つの矩形領域の差に閾値処理をしたものである。ただし、本発明においては、他の種類の弱判別器を利用しても発明の本質には影響がない。h(x)=1であれば、xに顔が存在し、h(x)=0であれば顔が存在しないと判定する。αtは弱判別器の判別学習の結果の信頼性に関わる係数(識別パラメータ)である。θは識別パラメータを用いて算出される識別閾値で、以下の(2)式が使用される。
また、本実施形態では、以下の(3)式で表わされる値を確からしさと呼ぶことにする。
弱判別器htの選択法とαtの求め方は非特許文献5に解説されている。ただし、本実施形態では、画像に付けられたフラグUjによって、学習に使用するかどうか決める。そのため、AdaBoostで学習する際には、(Xj,Yj,Uj)の中からUj=1なる画像を抽出し、連番となるように番号を振り直して(xi,yi)とし、学習に使用する画像情報とする。
学習過程のフローチャートを図4に示す。本処理はCPU100の全体的な制御により実行される。まず、ステップS401において、ハードディスク103より学習用画像をRAM102に読み込む。この際、学習画像(Xj,Yj,Uj)が読み込まれるが、Ujの初期値は1とする。このときJPEGフォーマットを使用して保存されてある画像に対して、伸張処理が必要となる。例えば、Independent JPEG Groupによって提供されているlibjpegライブラリなどを利用してこの処理を行うことができる。
ステップS402では、先ほど説明したようにUjが1の画像情報(学習に使用するサンプル画像の情報)を使用してAdaBoostによる学習を行う。これにより、(3)式の計算に必要な識別パラメータαiと弱判別器の判別学習の結果としてhtが取得される。
次にステップS403からステップS410までのループを各画像情報jに対して繰り返す。ステップS404では、Uj=1かどうかを確認し、Uj=1の画像情報に対してステップS405からステップS408までの処理を実行する。ステップS405では、画像情報jに対して(3)式を適用し、被検出対象(例えば、顔画像や背景画像)が含まれているか否かを判別するための値(確からしさL(Xj))を算出する。ここで予め定められた定数θfと比較して、Yj=1(顔画像)であり、かつL(Xj)<θjであれば、処理をステップS407に進める。ステップS407では、顔画像(Xj)を削除して、Uj=0(学習に使用しない)に設定する。
ステップS406の判定処理で、Yj=0(背景画像)である場合、または、L(Xj)≧θfの場合、処理をステップS408に進める。ステップS408では、予め定められた定数θbと比較して、Yj=0(背景画像)、かつ、L(Xj)>θbであれば、処理をステップS409に進める。
ステップS409では、背景画像(Xj)を削除して、Uj=0(学習に使用しない)に設定する。Uj=0に設定された画像情報は学習対象から外されて、ステップS411で、AdaBoostによる学習処理(再学習処理)が行われる。ステップS411で取得された識別パラメータαiと弱判別器htが、図2の顔検出処理(S203)に利用される。
上記θf、θbはいくつかの値を試し、交差検定によって確定するのが理想的である。しかし、学習時間を抑える必要がある場合には、例えば、次の(4)式で設定することもできる。(4)式によれば、学習サンプルの確からしさの分布より学習閾値を定めることができる。
ここで、minL1はサンプル画像に顔画像が含まれている確からしさの最小値であり、maxL0はサンプル画像に背景画像が含まれている確からしさの最大値である。rには、例えば0.5のような0<r<1を満たす定数を利用する。
以上の学習方法では、正しく識別できない学習データの全てではなく一部だけを学習対象から外している。特に本実施形態では、AdaBoostを利用して外れ値を削減する例を示した。その際、識別時の閾値(識別閾値)とは異なる学習閾値θfとθbを利用して外れ値を削減する方法を提案した。顔の検出に用いる識別閾値は学習閾値(第1学習閾値(θf))よりも大きく、背景の検出に用いる識別閾値は学習閾値(第2学習閾値(θb))よりも小さい。
本実施形態にかかる学習方法によれば、学習によって正しく識別できない学習データ(外れ値)を学習対象から外しているため、外れ値の影響を受けにくい学習を行うことができる。
<第2実施形態>
本実施形態では、画像中に人体が存在するかどうかを判定する識別器のための識別パラメータを求める例を示す。その際、SVMを利用して学習する方法を提案する。言うまでもなく入力データが画像でなくても音声情報やテキスト情報など他の内容であっても、本発明の要点は変わらない。
本実施形態では、画像中に人体が存在するかどうかを判定する識別器のための識別パラメータを求める例を示す。その際、SVMを利用して学習する方法を提案する。言うまでもなく入力データが画像でなくても音声情報やテキスト情報など他の内容であっても、本発明の要点は変わらない。
本実施形態における検出処理の流れは、第1実施形態における図2の検出処理の流れと基本的に同じであるが、ステップS203の処理では顔を検出するのではなく、人体を検出する点で相違する。この際、検出処理の前に入力画像を画像特徴量に変換する。入力画像を画像特徴量に変換するための処理としては、例えば非特許文献6に提案されているHistogram of Oriented Gradients (HOG)などを利用することができる。
ハードディスク103には、画像情報として(Ii,yi,si)が保存されているものとする。Iiは画像を表す。Iiが人物の写っている画像である場合には、ラベルyi=1とする。逆に人物が写っていない背景画像である場合には、ラベルyi=−1とする。siは各画像に割り当てられた重みであり、SVM学習においてその画像をどれほど重視するべきかを示す非負実数である。もし全ての画像を均等に扱うならば、全てのsiを1にすればよい。
更に、第1実施形態の図4の代わりに学習過程のフローチャートとして図5を利用する。本処理はCPU100の全体的な制御により実行される。まず、ステップS501において、ハードディスク103より学習用画像をRAM102に読み込む。この際、学習画像情報(Ii, yi, si)が読み込まれるが、学習画像Iiは画像特徴量xiに変換される。RAM102には(xi, yi, si)が記憶され、これらをまとめて学習画像情報群Wと呼ぶことにする。Wは後に説明する方法によって、徐々に要素数が減ることになる。
次に、ステップS502でSVM(Support Vector Machine)による学習処理を行う。重みsjを考慮した学習にはFuzzy Support Vector Machine (FSVM:非特許文献7)が使用できる。言うまでもなく、全てのsjが等しい場合には通常のSVMが使用できる。FSVMやSVM(まとめてSVMと呼ぶ)で取得される識別パラメータはラグランジュ乗数αjと定数項bである。線形カーネルを利用する場合には、数学的に等価で、より少ないパラメータによって表現できることは機械学習の専門家に知られている。これら識別パラメータを次の(5)式に代入することによって、入力画像Iに人物が写っているかどうか判定できる。
ここでlは学習画像情報群Wの要素数である。また、関数sign(L)は引数Lを識別閾値θ=0と比較して、大きければ+1、小さければ−1を返す関数である。L=0の場合は例えば+1を返しても良い。K(z,y)はSVMに使用するカーネル関数である。
次にステップS503からステップS511までの処理をR回繰り返し実行する。例えば、R=4回のように有限の回数だけ実行する。
ステップS504では、直前のSVM学習によって得られた識別パラメータを利用して次の(6)式により、学習画像情報群Wのyi=−1となる画像特徴量xjに対してL(xj)を求める。
L(xj)は入力画像Ijが人物画像である確からしさを表す。見方を変えると、-L(xj)は、入力画像Ijが背景画像である確からしさであると解釈することができる。そのため、ある閾値Mと比較してL(xi)>Mということは、背景としての確からしさが−M未満であることになる。
次のステップS505において、yi=−1、かつ、L(xi)>Mなる画像情報を選び出し、画像情報群Sを形成する。Sの要素の個数を|S|と表記する。M=1とすれば、SVMのマージンと一致する。
次にステップS506において、画像情報群Sの画像情報をL(xi)が降順となるようにソートする。添え字kを使って、このソートされた画像情報群の要素を(L(xM k), xM k,sM k)と表現する。xM, sMはそれぞれ画像特徴量の配列と重みの配列であり、xM k,sM kは、それぞれの配列のk番目の要素を指す。画像情報群Sの画像は全て背景画像であるため、ラベル情報はソート対象から外す。
次にステップS507で、配列Cを用意する。配列Cの各要素Cmは次式に定義するとおりである。
次にステップS508では、Cmをm=1,…,|S|の順にたどり、初めてCm>rC|S|を満たすmを求める。ここでrは、0<r≦1を満たす定数である。得られたmを元に学習閾値θb=L(xM m)に設定する。rはなるべく小さく設定して、毎回少数の画像情報だけが削除対象として選ばれるようにして、ステップS503からステップS511までのループ回数Rを大きくするのが、理想的ではある。しかし現実にはこれでは学習時間が長くなるため、rをより大きくし、ループの回数Rを減らすことで、学習時間と精度のトレードオフを行う必要がある。
ステップS509において、学習画像情報群Wの要素の中で、yi=−1、かつ、L(xi)>θbなる画像情報をWから削除する。ループの最後のステップS510では、要素が削除された学習画像情報群Wを使ってSVM(Support Vector Machine)による学習が行われる。
確からしさがどのように変わるかを明確にするために、図6に模式的に背景画像の確からしさの分布を示す。横軸は個々の背景画像を表す。縦軸はそれぞれの背景画像の確からしさである。図6(a)は削除前の分布を示し、図6(b)が削除・学習後の分布である。図6(a)から背景画像の確からしさが広く分布しており、+1を超えるものがいくつか存在するのが分かる。これらの一部を削除するのであるが、回帰分析の時に外れ値を外す場合とは異なり、分布の片側(この場合は上側)が削除対象である。また、識別器がSVMなどのmax-margin識別器(マージン最大化識別器)の場合、削除対象の範囲は分布の統計量(平均や分散)とは直接的な関係がない「マージン」を使って外れ値を定義する。図6の例では削除される画像が少ないが、マージンの設定次第ではかなり多くの数の外れ値が削除されることもあり得る。図5のフローチャートに従って背景画像の一部を削除し、SVMで再学習した後の確からしさの分布が図のようになる。削除時に、+1を超えるものを集めてから一部を削除し、削除されなかった残りを右側に追加しているので、図の右側に学習の難しい(人物画像としての確からしさが大きい)背景画像が集まっている。本実施形態では、このように学習の難しい画像を少しずつ削除しながら、学習を繰り返していく。
以上の処理により、外れ値の影響を受けにくい学習を行うことができる。本実施形態では、SVMを利用して外れ値を削減する例を示した。その際、外れ値を取り除くための閾値をマージンの外側にある画像情報の分布から算出する方法を提案した。特にSVMの識別境界から遠く離れた外れ値は学習できる望みの小さい画像情報であることに着目している。外れ値を誤識別の度合いに応じて徐々に削減していくことにより、始めの学習によって多少誤差がある識別境界が得られたとしても、最終的にはより精確な境界を得ることができる。
図5で最後に実行されたSVMの学習によって得られた識別パラメータを利用して、図2の処理を人体検出に適用することが可能になる。本実施形態では背景の確からしさに着目して閾値を設定したが、当然のことながら人物の確からしさに着目して同様な方法により外れ値を取り除くこともできる。また、その両方を行って、人物画像・背景画像双方の外れ値を取り除くことも可能である。
<第3実施形態>
本実施形態では、第2実施形態で示した学習装置における外れ値除去のためのパラメータrとRを自動的に定めるための方法を示す。ハードウェア構成図(図1)は第1および第2実施形態と同じである。
本実施形態では、第2実施形態で示した学習装置における外れ値除去のためのパラメータrとRを自動的に定めるための方法を示す。ハードウェア構成図(図1)は第1および第2実施形態と同じである。
図7を用いて、本実施形態での学習過程の流れを説明する。本処理はCPU100の全体的な制御により実行される。第2実施形態の図5の処理と同様の処理には同一のステップ番号を付している。まず、ステップS501で、ハードディスク103より学習用画像をRAM102に読み込む。ここで、学習画像情報(Ii,yi,si)が読み込まれるが、学習画像Iiは画像特徴量xiに変換するのは第2実施形態と同じである。
次にステップS701で学習画像情報を2つのグループに分ける。具体的には、学習画像情報全体の例えば1/5をランダムに選び評価用画像情報群Cとして取り置く。残りの画像情報を学習画像情報群Wとする。
次にステップS702で仮のパラメータrの初期値を、例えば、0.5に設定する。また、後で説明する変数Hを(−1,0,0)に初期化する。次にステップS502でSVMによる学習を行う。これにより、(5)式の識別パラメータαiと定数項bが得られる。
そして、ステップS703からステップS706までの処理を制限時間まで繰り返す。例えば、開発者、学習装置のユーザが制限時間を設定することが可能である。また、ループを始める前のステップS703で、後で説明する変数Xを(−1,0,0)に初期化する。
ループ内のステップS504からステップS510までの処理は第2実施形態の図5の処理内容と同じであり、詳細な説明は省略する。ループ最後のステップS705では、評価用画像を用いて被検出対象が含まれているか否かの判別学習の結果を評価する。ステップS701で取り置いた、学習に使用する複数のサンプル画像(学習用画像)の一部を評価用の画像(評価用画像情報群C)として、識別を試みる。このとき識別パラメータとして、ステップS510で得られたものを利用する。ここで識別精度を求めるわけであるが、その際、f(xi)=yiとなった画像情報の数を評価用画像情報群の要素数|C|で割った値を精度pと定義する。このpとXの第1要素X1を比較し、pの方が大きければXを(p,r,j)に設定する。ここでjは、ステップS703からステップS706までのループをそれまでに繰り返した回数である。Xは、それまで最高の精度を達成した時の精度とそのときのパラメータを保持するための変数である。
ステップS706までのループを繰り返した後は、ステップS707でXの第1要素X1とHの第1要素H1とを比較し、X1が大きければ、HにXの内容をコピーし、ステップS708へと進む。評価用画像を用いた再学習の結果が所定の精度になるまで、ステップS502以下の処理が繰り返される。一方、ステップS707の判定で、H1の方が大きければ、ステップS709へと進む。
ステップS708ではrをr/2に設定し直し、ステップS502からの処理を再び繰り返す。ステップS709では、rとしてHの第2要素H2、RとしてHの第3要素H3を設定し、第2実施形態の図5で説明した学習を行う。
以上の処理により、学習方法の繰り返し回数Rを決定することができる。本実施形態では、説明を分かりやすくするために最高精度のパラメータを保持し、これを随時更新する方法を採用した。これ以外にも、ステップS705で全ての(p,r,j)を記録し、pをrとRの関数として平滑化した後に、最適なrとRを求めることもできる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (11)
- 学習に使用する複数のサンプル画像のそれぞれに対する弱判別器の判別学習の結果と前記弱判別器の判別学習の結果の信頼性を示すパラメータとを取得する学習手段と、
前記複数のサンプル画像のそれぞれについて、被検出対象が含まれている確からしさを示す値を、前記判別学習の結果と前記パラメータとを用いて算出する算出手段と、
一のサンプル画像について前記確からしさを示す値が、予め設定された学習閾値に比べて小さい場合に、前記複数のサンプル画像から前記一のサンプル画像を削除する削除手段と、
前記一のサンプル画像が削除された後の複数のサンプル画像のそれぞれに対する弱判別器の判別学習の結果から、当該判別学習の結果の信頼性を示すパラメータを取得する再学習手段と、
を備えることを特徴とする学習装置。 - 前記再学習手段によって取得された前記パラメータを用いて算出される識別閾値を用いて、判別処理の対象となる画像に前記被検出対象が含まれているか否かを判別する判別手段を更に備えることを特徴とする請求項1に記載の学習装置。
- 前記算出手段によって算出された前記確からしさを示す値の中で最小値となる値と前記識別閾値とを用いて前記学習閾値を算出し、設定する設定手段を更に備えることを特徴とする請求項2に記載の学習装置。
- 前記算出手段は、前記複数のサンプル画像のそれぞれについて、前記被検出対象の背景画像が含まれている確からしさを示す値を、前記判別学習の結果と前記判別学習の結果の信頼性を示すパラメータとを用いて算出することを特徴とする請求項1乃至3のいずれか1項に記載の学習装置。
- 前記設定手段は、前記被検出対象の背景画像が含まれている確からしさを示す値の中で最大値となる値と前記識別閾値とを用いて算出される値を、前記学習閾値とは異なる第2学習閾値として設定し、
前記削除手段は、前記背景画像が含まれている確からしさを示す値が前記第2学習閾値より大きい場合、前記複数のサンプル画像から前記背景画像が含まれている一のサンプル画像を削除することを特徴とする請求項3に記載の学習装置。 - 前記判別手段によって算出される前記識別閾値は、前記学習閾値よりも大きい値であることを特徴とする請求項2に記載の学習装置。
- 前記学習手段および再学習手段は、AdaBoostによる学習処理により、前記弱判別器の判別学習の結果の信頼性を示すパラメータを取得することを特徴とする請求項1乃至6のいずれか1項に記載の学習装置。
- 前記学習手段および再学習手段は、SVM(Support Vector Machine)による学習処理により、前記弱判別器の判別学習の結果の信頼性を示すパラメータを取得することを特徴とする請求項1乃至6のいずれか1項に記載の学習装置。
- コンピュータを、請求項1乃至8のいずれか1項に記載の学習装置の各手段として機能させるためのプログラム。
- 学習装置における学習方法であって、
前記学習装置の学習手段が、学習に使用する複数のサンプル画像のそれぞれに対する弱判別器の判別学習の結果と前記弱判別器の判別学習の結果の信頼性を示すパラメータとを取得する学習工程と、
前記学習装置の算出手段が、前記複数のサンプル画像のそれぞれについて、被検出対象が含まれている確からしさを示す値を、前記判別学習の結果と前記パラメータとを用いて算出する算出工程と、
前記学習装置の削除手段が、一のサンプル画像について前記確からしさを示す値が、予め設定された学習閾値に比べて小さい場合に、前記複数のサンプル画像から前記一のサンプル画像を削除する削除工程と、
前記学習装置の再学習手段が、前記一のサンプル画像が削除された後の複数のサンプル画像のそれぞれに対する弱判別器の判別学習の結果から、当該判別学習の結果の信頼性を示すパラメータを取得する再学習工程と、
を有することを特徴とする学習方法。 - 前記学習装置の判別手段が、前記再学習工程で取得された前記パラメータを用いて算出される識別閾値を用いて、判別処理の対象となる画像に前記被検出対象が含まれているか否かを判別する判別工程を更に有することを特徴とする請求項10に記載の学習方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011265048A JP2013117861A (ja) | 2011-12-02 | 2011-12-02 | 学習装置、学習方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011265048A JP2013117861A (ja) | 2011-12-02 | 2011-12-02 | 学習装置、学習方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013117861A true JP2013117861A (ja) | 2013-06-13 |
JP2013117861A5 JP2013117861A5 (ja) | 2015-01-22 |
Family
ID=48712382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011265048A Withdrawn JP2013117861A (ja) | 2011-12-02 | 2011-12-02 | 学習装置、学習方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013117861A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016012258A (ja) * | 2014-06-30 | 2016-01-21 | 富士ゼロックス株式会社 | 学習プログラム及び情報処理装置 |
JP2016110625A (ja) * | 2014-11-28 | 2016-06-20 | キヤノン株式会社 | 分類方法、検査方法、検査装置、およびプログラム |
WO2019187594A1 (ja) * | 2018-03-29 | 2019-10-03 | 日本電気株式会社 | 学習装置、学習方法および学習プログラム |
JP2020161077A (ja) * | 2019-03-28 | 2020-10-01 | 株式会社イシダ | 学習済みモデル生成方法、学習済みモデル生成装置、商品判別方法、商品判別装置、商品判別システム及び計量装置 |
WO2020202731A1 (ja) * | 2019-04-04 | 2020-10-08 | ソニー株式会社 | 情報処理システム及び情報処理方法 |
KR20240020744A (ko) * | 2022-08-08 | 2024-02-16 | 한국과학기술원 | 딥 러닝 모델을 이용한 조직 이미지 분류 장치 및 조직 이미지 분류 방법 |
-
2011
- 2011-12-02 JP JP2011265048A patent/JP2013117861A/ja not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016012258A (ja) * | 2014-06-30 | 2016-01-21 | 富士ゼロックス株式会社 | 学習プログラム及び情報処理装置 |
JP2016110625A (ja) * | 2014-11-28 | 2016-06-20 | キヤノン株式会社 | 分類方法、検査方法、検査装置、およびプログラム |
WO2019187594A1 (ja) * | 2018-03-29 | 2019-10-03 | 日本電気株式会社 | 学習装置、学習方法および学習プログラム |
JPWO2019187594A1 (ja) * | 2018-03-29 | 2021-02-25 | 日本電気株式会社 | 学習装置、学習方法および学習プログラム |
JP2020161077A (ja) * | 2019-03-28 | 2020-10-01 | 株式会社イシダ | 学習済みモデル生成方法、学習済みモデル生成装置、商品判別方法、商品判別装置、商品判別システム及び計量装置 |
US11669948B2 (en) | 2019-03-28 | 2023-06-06 | Ishida Co., Ltd. | Learned model generating method, learned model generating device, product identifying method, product identifying device, product identifying system, and measuring device |
JP7374453B2 (ja) | 2019-03-28 | 2023-11-07 | 株式会社イシダ | 学習済みモデル生成方法、学習済みモデル生成装置、商品判別方法、商品判別装置、商品判別システム及び計量装置 |
WO2020202731A1 (ja) * | 2019-04-04 | 2020-10-08 | ソニー株式会社 | 情報処理システム及び情報処理方法 |
EP3951665A4 (en) * | 2019-04-04 | 2022-06-29 | Sony Group Corporation | Information processing system and information processing method |
KR20240020744A (ko) * | 2022-08-08 | 2024-02-16 | 한국과학기술원 | 딥 러닝 모델을 이용한 조직 이미지 분류 장치 및 조직 이미지 분류 방법 |
KR102642132B1 (ko) * | 2022-08-08 | 2024-03-06 | 한국과학기술원 | 딥 러닝 모델을 이용한 조직 이미지 분류 장치 및 조직 이미지 분류 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102535810B1 (ko) | 이미지 인식 시스템 및 방법 | |
JP5202148B2 (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
CN108681746B (zh) | 一种图像识别方法、装置、电子设备和计算机可读介质 | |
JP5385759B2 (ja) | 画像処理装置及び画像処理方法 | |
WO2019158015A1 (zh) | 样本获取方法、目标检测模型生成方法、目标检测方法 | |
JP5521881B2 (ja) | 画像識別情報付与プログラム及び画像識別情報付与装置 | |
JP5591360B2 (ja) | 分類及び対象物検出の方法及び装置、撮像装置及び画像処理装置 | |
US20110158535A1 (en) | Image processing apparatus and image processing method | |
TWI567660B (zh) | 多類別物件分類方法及系統 | |
TW201926140A (zh) | 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體 | |
WO2020164278A1 (zh) | 一种图像处理方法、装置、电子设备和可读存储介质 | |
JP5899179B2 (ja) | 人物認識装置、人物認識方法、人物認識プログラムおよびその記録媒体 | |
JP2013117861A (ja) | 学習装置、学習方法およびプログラム | |
US20070041638A1 (en) | Systems and methods for real-time object recognition | |
JP6897749B2 (ja) | 学習方法、学習システム、および学習プログラム | |
JP2014232533A (ja) | Ocr出力検証システム及び方法 | |
JP5335536B2 (ja) | 情報処理装置及び情報処理方法 | |
JP2006252559A (ja) | 画像において対象物の位置を特定する方法および対象物の画像を相異なる画像カテゴリに分類する方法 | |
JP2008217589A (ja) | 学習装置及びパターン認識装置 | |
US9489593B2 (en) | Information processing apparatus and training method | |
CN112651996B (zh) | 目标检测跟踪方法、装置、电子设备和存储介质 | |
WO2024087519A1 (zh) | 身份识别方法和装置及存储介质 | |
JP5214679B2 (ja) | 学習装置、方法及びプログラム | |
Han et al. | High-order statistics of microtexton for hep-2 staining pattern classification | |
JP5776694B2 (ja) | 物体識別向けの学習装置、学習システム、学習方法、及び学習プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141201 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20150402 |