JP4743312B2 - 画像識別装置 - Google Patents

画像識別装置 Download PDF

Info

Publication number
JP4743312B2
JP4743312B2 JP2009176474A JP2009176474A JP4743312B2 JP 4743312 B2 JP4743312 B2 JP 4743312B2 JP 2009176474 A JP2009176474 A JP 2009176474A JP 2009176474 A JP2009176474 A JP 2009176474A JP 4743312 B2 JP4743312 B2 JP 4743312B2
Authority
JP
Japan
Prior art keywords
image
weak classifier
score
class
weak
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009176474A
Other languages
English (en)
Other versions
JP2011028682A (ja
Inventor
誉司 坂東
直樹 深谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2009176474A priority Critical patent/JP4743312B2/ja
Priority to DE102010038567A priority patent/DE102010038567A1/de
Priority to US12/804,715 priority patent/US8538172B2/en
Publication of JP2011028682A publication Critical patent/JP2011028682A/ja
Application granted granted Critical
Publication of JP4743312B2 publication Critical patent/JP4743312B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数の弱識別器を使用して画像を識別する画像識別装置に関する。
車内に設置されたカメラの画像を用いて、運転中のドライバの視線をモニタすることによって、脇見や見落とし状態を検知/警報する運転支援システムにおいては、カメラから取得した画像中から顔画像(両眼、鼻、口を含んだ領域)を抽出して、その顔画像の位置(以下、顔位置という)を高速かつ正確に検出することが重要となる。
このような識別に有効な手法として、識別精度が低い識別器(以下「弱識別器」という)を多数組み合わせて使用することによって、識別の精度や頑健性を確保するブースティングと呼ばれる機械学習法が知られている。
ブースティングでは、入力をx、学習されたn個目の弱識別器の出力をfn (x)、各弱識別器の信頼度(重み)をwn 、弱識別器の数をNfとして、入力xが与えられた時の獲得スコア(信頼度wn で重み付けされた弱識別器の出力fn(x)の和)S1:Nf(x)を、(1)式により算出する。但し、重みwn は(2)式を満たすように正規化されている。
そして、弱識別器の組合せで構成される強識別器の出力F1:Nf(x)を、獲得スコアS1:Nf(x)に基づき(3)式に従って決定する。
つまり、多数の弱識別器の出力を用いた重み付き投票を行い、その結果の多数決により、最終的な出力(識別結果)を決定している。
ところで、ブースティングでは、識別の精度や頑健性を向上させるために、多くの弱識別器を用いているが、使用する弱識別器の数に応じて識別に要する処理時間も増大する。つまり、識別の頑健性と処理の高速性とはトレードオフの関係にある。
これに対して、弱識別器のカスケード結合を考え、入力画像に対して、その結合順に弱識別器を順次適用し、その都度獲得スコアを求め、その獲得スコアが、適用済みの弱識別器の数に応じて設定される閾値に達していない場合に、その入力画像は抽出すべき画像ではないものとして、それより後段の弱識別器を適用することなく棄却(以下「早期棄却」という)することによって処理を高速化する手法(Viola & Jones のアルゴリズム)が提案されている(例えば、特許文献1参照)。
米国特許US7099510B2
しかし、この従来手法では、早期棄却が行われた地点よりカスケードの下流にある弱識別器の情報が全く利用されず、「弱識別器を多数集めて精度の良い識別を実現する」というブースティングの方針に反することになる。従って、ブースティングが本来持っていた頑健性を低下させてしまうことになり、上述したトレードオフの関係を本質的に解決することができないという問題があった。
本発明は、上記問題点を解決するために、頑健性を低下させることなく早期棄却を実現する画像識別装置を提供することを目的とする。
上記目的を達成するためになされた本発明の画像識別装置では、適用手段が、識別手段を構成する弱識別器の一つを適宜選択し、その選択した弱識別器を対象画像(識別対象となる入力画像)に対して適用する。
すると、適用手段により弱識別器が適用される毎に、スコア算出手段が、弱識別器での識別の信頼度を表す重みを用いて、適用済弱識別器群の識別結果の重み付け加算値である獲得スコアを算出すると共に、分布算出手段が、未適用弱識別器群を対象画像に対して適用した場合に獲得し得る獲得スコアの予測分布を算出する。
そして、早期判断手段が、獲得スコアに予測分布の期待値を加算した予測スコア、及び予測分布の分散に基づく予測スコアのバラツキ範囲を求め、そのバラツキ範囲の上限値が予め設定された判定閾値より小さい場合、又は、そのバラツキ範囲の下限値が判定閾値より大きい場合に、予測スコアを、前記対象画像についての最終的な獲得スコアであるものとして、対象画像に対する処理を打ち切る。
なお、弱識別器が反応するとは、識別結果が肯定的であることを意味する。
また、判定閾値は、一般的には、弱識別器での識別結果の多数決によって対象画像が指定画像であるか否かが判断されるように、最大獲得スコア(全ての弱識別器が反応した場合の獲得スコア)の例えば1/2に設定される。
そして、予測スコアのバラツキ範囲の下限値が判定閾値より大きいということは、その後、更に弱識別器を適用し続けた際に、想定し得る範囲内で予測スコアが最大限にばらついたとしても、最終的な獲得スコアが判定閾値を下回ることがないことを意味する。逆に、予測スコアのバラツキ範囲の上限値が判定閾値より小さいということは、その後、更に弱識別器を適用し続けた際に、想定し得る範囲内で予測スコアが最大限にばらついたとしても、最終的な獲得スコアが判定閾値を上回ることがないことを意味する。
但し、バラツキ範囲の大きさは、予測スコアの確からしさ(バラツキ範囲が狭いほど確からしさが大きい)を意味するものと捉えることができる。つまり、本発明の画像識別装置では、少なくとも、獲得スコアを用いた最終的な識別について確信を持てるレベルまで、予測スコアの信頼度が向上した時点で、対象画像の処理を打ち切るようにされている。
このように構成された本発明の画像識別装置によれば、適用済弱識別器群の識別結果に基づく獲得スコアだけでなく、未適用弱識別器群の情報に基づく予測分布を考慮し、即ち、用意された全ての弱識別器の情報を考慮して、対象画像に対する処理を打ち切るか否かの判断(早期判断)を行っているため、ブースティングが本来持っている高い識別精度や頑健性を低下させることなく識別に要する処理時間を短縮することができる。
請求項2に記載の画像識別装置では、分布算出手段は、未適用弱識別器群に属する弱識別器毎に算出した個別予測分布を求め、該個別予測分布を加算することで獲得スコアの予測分布を算出し、適用手段は、未適用弱識別器群の中で次に適用する弱識別器として、個別予測分布の分散が最も大きいものを選択する。
つまり、それぞれの弱識別器が対象画像に対して各々独立に反応するものと仮定すれば、未適用弱識別器によって獲得し得る獲得スコアの予測分布は、各弱識別器での予測分布のパラメータ(期待値,分散)の和によって表現される。
従って、次に適用する弱識別器として、最も大きな分散を持つ弱識別器を選択するようにすれば、その弱識別器を適用した時の予測分布では、その弱識別器の分だけ分散が減少することになるため、予測分布の分散を最小化できることが期待できる。
つまり、適用済弱識別器群の反応傾向に従って、次に適用する最適(予測分布を最小にする)弱識別器が適宜選択されるため、早期判断のタイミングをより早めること、ひいては、対象画像の識別に要する時間をより短縮することができる。
請求項3に記載の画像識別装置では、記憶手段に、弱識別器毎、且つ対象画像を分類するために予め設定されたクラス毎に、そのクラスに属する対象画像に対して弱識別器が肯定的な判断を行う正判定確率、及びそのクラスに属さない対象画像に対して弱識別器が肯定的な判断を行う誤判定確率を設定した確率テーブルが記憶されている。
そして、確率算出手段が、適用済弱識別器群を構成する各弱識別器の識別結果に基づいて、クラス毎に、対象画像がそのクラスに属することの事後確率を表すクラス確率を算出し、分布算出手段は、獲得スコアの予測分布を、これらクラス確率及び確率テーブルを用いて算出する。
つまり、確率テーブルに示された確率はベイズ推定における尤度に相当し、クラス確率は、ベイズ推定における事後確率に相当するため、分布算出手段では、ベイズ推定の手法を用いて予測分布を算出することができる。
請求項4に記載の画像識別装置では、判定手段は、適用済弱識別器群に属する弱識別器の数が多いほど小さな値となるように設定された安全係数を予測分布の標準偏差(分散の平方根)に乗じた値を許容値とし、その許容値を予測スコアに加算又は減算した値を、バラツキ範囲の上限値及び下限値とする。
期待値に対して標準偏差を単純に加減算しただけでは、バラツキ範囲によってカバーすることができるのは、ばらつき全体の60%程度であるため、より信頼度を高めるためには、安全係数が1より大きな値となるように設定することが望ましい。
また、安全係数は、請求項5に記載のように、識別手段を構成する弱識別器の数によって正規化されていることが望ましい。
この場合、安全係数の振る舞いは、弱識別器の数によらず、弱識別器の数(全体数)に対する適用済弱識別器の数の比に応じて決まることになる。
また、請求項6に記載のように、対象画像として、車両のドライバを撮影した画像から、予め設定された規定サイズを有する切出用ウインドにより切り出した画像を用い、クラスには、顔が映っている画像を表す顔クラスと、顔が映っていない画像を表す非顔クラスが少なくとも含まれていてもよい。
この場合、本発明の画像識別装置を、例えば、ドライバの視線を検出して各種運転支援を行う運転支援システムに用いることができる。
運転支援システムの概略構成を示すブロック図。 顔位置検出部の詳細構成を示すブロック図。 確率テーブルの構成要素である弱識別器の正判定確率及び誤判定確率を例示するグラフ。 顔位置検出部における処理の流れを示すフローチャート。 スコア生成部における処理の流れを示すフローチャート。 実験に使用した訓練画像、テスト画像の生成方法を示す説明図。 獲得スコア,予測スコア,バラツキ上限値/下限値が変化する様子を示す実験結果のグラフ。 比較例との比較実験の結果を示す表およびグラフ。
以下に本発明の実施形態を図面と共に説明する。
[第1実施形態]
<全体構成>
図1は、本発明が適用された車載用の運転支援システム1の概略構成を示すブロック図である。
図1に示すように、運転支援システム1は、ドライバの顔周辺を撮影した画像を取得する画像取得部3と、画像取得部3にて取得した画像(以下、取得画像という)に基づいて、取得画像中のドライバの顔位置を検出する顔位置検出部5と、画像取得部3からの取得画像、及び顔位置検出部5にて検出された顔位置に基づき、ドライバの視線を検出する視線検出部7と、視線検出部7での検出結果に従って、視線の異常(脇見等)を判定して、警報などを発生させる運転支援制御部9とを備えている。
このうち、画像取得部3は、ドライバの頭部を含んだ画像を取得するCCDカメラと、夜間でも画像を取得できるようにするために近赤外の照明光をドライバの顔に向けて照射するLEDとからなり、ダッシュボード上に設置されている。但し、設置位置は、これに限らず、メータ内,ハンドルカラム内,ルームミラー付近等であってもよい。また、LEDは省略されていてもよい。
また、視線検出部7や運転支援制御部9での処理は周知のものであり、本発明の要旨とも関係が薄いため、ここでは説明を省略する。
<顔位置検出部>
図2は、顔位置検出部5の詳細を示すブロック図である。なお、この顔位置検出部5が本発明の画像識別装置に相当する。
なお、顔位置とは、眼,鼻,口を含むように設定された必要最小限の矩形状の画像領域(以下、顔画像という,図6の四角で示された領域Aを参照)が、取得画像内において占める位置のことである。また、画像の分類をクラス呼び、ここでは、顔画像を顔クラス、それ以外を非顔クラスとする。
図2に示すように、顔位置検出部5は、取得画像から識別の対象となる部分画像(以下、対象画像ともいう)の切り出しを行う画像切出部10と、画像切出部10で切り出された部分画像毎に、その部分画像のクラス(分類)を判定するための判定スコアを算出するスコア生成部20と、スコア生成部20にて算出された判定スコアを部分画像に対応付けて記憶するスコア記憶部30と、スコア記憶部30の記憶内容に基づいて、判定スコアが最大である部分画像の位置を顔位置として出力する顔位置判定部40とを備えている。
なお、顔位置判定部40では、画像中に複数の顔が含まれる可能性がある場合には、判定スコアが基準となる閾値(例えば0.5)を超える領域を全て顔画像として検出してもよい。
<画像切出部>
画像切出部10は、取得画像の左上から右方向を主走査方向、下方向を副走査方向として、予め設定された規定サイズの切出用ウインドを用いて部分画像を切り出す。なお、部分画像は、取得画像を分割するように切り出してもよいし、隣接するもの同士でその一部の領域が互いに重なり合うように切り出してもよい。
また、規定サイズには、複数種類(本実施形態では80×80画素、100×100画素、120×120画素、140×140画素、160×160画素、180×180画素の6種類)があり、画像切出部10は、その全てのサイズについて上述の切り出しを繰り返すように構成されている。
<スコア生成部>
スコア生成部20は、それぞれが互いに異なった特定のパターンを有した画像に反応するように設定された複数の弱識別器に関する情報を記憶する弱識別器データベース21を備えている。
なお、個々の弱識別器の実体は評価関数であり、本実施形態では、1又は複数種類のHaar Like 特徴量を用いて識別を行うように構成され、アダブーストによる学習を行った周知(例えば、特許文献1参照)のものである。また、弱識別器の識別子をn(n=1,2,…,Nf)として、入力画像xに対する弱識別器の出力fn (x)は、対象画像が顔クラスの画像であると識別した場合にfn (x)=1、非顔クラスの画像であると識別した場合にfn (x)=0となるように設定されている。
但し、弱識別器が扱う特徴量は、Haar Like 特徴量に限るものではなく、弱識別器に用いるものとして知られている特徴量であれば、何を用いてもよい。また、以下では、弱識別器の出力fn (x)は、入力画像を識別するパラメータxを省略して、単にfn と記すものとする。
また、弱識別器は、顔画像に正しく反応する確率(顔クラスに対する正判定確率)、非顔画像に誤って反応する確率(非顔クラスに対する誤判定確率)、非顔画像に正しく反応する確率(非顔クラスに対する正判定確率)、顔画像に誤って反応する確率(顔クラスに対する誤判定確率)を既知の情報として有しており、これらは、弱識別器の学習を行った際に設定される。
なお、クラスの集合をC、クラスの要素をc(顔クラスはc=1、非顔クラスはc=0)で表すものとして、以下では、これらの反応確率をp(fn |c)で表すものとする。
そして、弱識別器データベース21には、反応確率p(fn |c)を弱識別器に対応づけて示した反応確率テーブルが記憶されている。なお、図3は、反応確率テーブルの内容(顔クラスに対する正判定確率/非顔クラスに対する誤判定確率)を、横軸を弱識別器のインデックス、縦軸を顔画像であると判定する確率に設定したグラフによって例示したものである。
更に、弱識別器データベース21において、各弱識別器には、クラス毎に設定された重みwn が対応づけられている。この重みwn は、全ての弱識別器についての合計が1となるように、クラス毎に正判定確率を規格化したものである。
つまり、弱識別器の数がNf個である場合には、(4)式が成立することになる。
また、スコア生成部20は、弱識別器データベース21から弱識別器を適宜選択し、その選択した弱識別器(以下「選択識別器」という)を対象画像に適用することで識別結果fn (nは、現対象画像に対してn番目に選択されたものであることを意味する。以下同様。)を出力する識別器選択適用部22と、識別器選択適用部22での識別結果fn に基づいて、獲得スコアS(-) 1:nを算出する獲得スコア算出部23とを備えている。
なお、獲得スコア算出部23にて算出される獲得スコアS(-) 1:n は、選択識別器の出力にその重みを乗じた値を、現対象画像に対して適用された全ての弱識別器(以下「適用済弱識別器群」という)について累積したものであり、n番目の選択識別器についての処理が行われた場合、即ち、適用済弱識別器群の数がnである場合、(5)式で表される値となる。
更に、スコア生成部20は、適用済弱識別器の識別結果f1:n (={f1,f2,…,fn })を与件とする各クラスの事後確率であるクラス確率p(c|f1:n )を算出するクラス確率算出部24と、対象画像に対して未適用の弱識別器(以下「未適用弱識別器群」という)を、対象画像に対して適用した場合に、獲得し得る獲得スコアの予測分布を表すパラメータ(具体的には、分布の期待値En と分散Vn )を算出する予測分布算出部25と、獲得スコア算出部23で算出された獲得スコアS(-) 1:n 及び予測分布算出部25で算出された予測分布のパラメータEn ,Vn に基づき、対象画像に対する処理を継続するか否かを判断して、画像切出部10や識別器選択適用部22の動作を制御すると共に、対象画像に対する処理が終了した場合に、対象画像xの判定スコアS(x)を出力する継続制御部26とを備えている。
このうち、クラス確率算出部24では、(6)式を用いてクラス確率p(c|f1:n )を算出する。
但し、Ln は上述した反応確率であり(7)式で表され、kn は正規化係数であり(8)式で表される。また、(8)式に含まれる確率は、反応確率p(fn |c)から簡単に求めることができる。
つまり、(6)式より、前回のクラス確率p(c|f1:n-1 )に、今回の選択識別器の反応確率p(fn |c)を乗じ、更に、クラスに関して正規化を行う(kn を乗じる)だけで今回のクラス確率p(c|f1:n )を得ることができる。なお、(6)式の導出、及び(8)式に現れるパラメータα0 ,β0 については、後述する。
一方、予測分布算出部25では、(9)(10)式によって、獲得スコアの予測分布を表すパラメータである期待値En [Sn+1:Nf|f1:n ]、及び分散Vn [Sn+1:Nf|f1:n ]を算出する。
但し、(9)式におけるEn [Sm|f1:n]、(10)式におけるVn [Sm|f1:n]は、個々の未適用弱識別器における獲得スコアの予測分布の期待値と分散であり、(11)(12)式により算出する。
なお、(11)(12)式は、n個の適用済弱識別器の出力f1:n を与件として、識別子mで特定される未適用弱識別器のスコアSm (=wmm)の分布を表す(13)式から導出される。但し、αcm,βcmは、弱識別器の出力f1:Nfのモデル化に用いたベータ分布のパラメータであり、詳細は後述する。
そして、継続制御部26では、処理中の現取得画像について、画像切出部10が新たに切り出す部分画像が存在しない場合、即ち、全ての部分画像について判定値を求める処理が終了している場合には、顔位置判定部40に顔位置の判定を行わせるように、スコア記憶部30及び顔位置判定部40を制御する。
更に、継続制御部26では、予測分布の期待値En [Sn+1:Nf|f1:n ]を予測スコアS(+) n+1:Nf 、(14)式で算出される獲得スコアS(-) 1:nと予測スコアS(+) n+1:Nf の合計を予測最終スコアS1:Nfとして、(15)(16)式で算出されるバラツキ上限値SH、及びバラツキ下限値SLが、判定閾値TH(本実施形態では0.5)と比較して、SH<TH、又はSL>THであれば、予測最終スコアS1:Nfは、十分に信頼できるものとして、その対象画像に対する処理を打ち切り、その時点での予測最終スコアS1:Nfを、判定スコアS(x)としてスコア記憶部30に記憶させると共に、画像切出部10に新たな対象画像(部分画像)を切り出させて、その対象画像についての判定値を求める処理を繰り返すように各部を制御する。
一方、SH≧TH且つSL≦THであれば、予測最終スコアS1:Nfは十分に信頼できないものとして、その対象画像に対する処理を継続する(次の弱識別器を選択して同様の処理を繰り返す)ように各部を制御する。そして、途中で打ち切られることなく、全ての弱識別器の適用が終了した場合には、獲得スコアS(-) 1:Nf をそのまま判定スコアS(x)として出力する。
なお、Fsは安全係数であり、(17)式により算出する。
但し、aは適用済弱識別器の数が小数の際に付与するペナルティの大きさを決める係数、bは安全率の絶対的な大きさを決める係数、σは、弱識別器を適用するにつれて安全率が小さくなる程度を表す係数であり、いずれも実験等を通じて経験的に設定する。
[クラス確率の導出過程]
クラスの事後確率であるクラス確率p(c|f1:Nf)は、ベイズの定理を示した(6)式からもわかるように、クラスの尤度p(f1:Nf|c)と事前分布p(c)とから算出される。
ここで、弱識別器を適用した結果f1:Nf=(f1,f2,…,fNf)は、0若しくは1をとる離散変数なので、パラメータμc =(μc1,μc2,…,μcNf )のベルヌーイ分布により確率的に生成されたと仮定する。更に、各弱識別器の独立性を仮定すると、(18)式が成立する。
パラメータμc は、0〜1の値を採る連続変数で、ベルヌーイ分布の共役事前分布であるαc ,βc をパラメータとするベータ分布により生成されるとすれば、(19)式が得られる。但し、Γ(x)は、(20)式で定義されるガンマ関数である。
この時、クラスの尤度p(f1:Nf|c)は、パラメータμc を積分消去(周辺化)すると(21)式で表される。但し、正の実数x>0についてΓ(x+1)=xΓ(x)を用いた。
また、上述したものと同様に、クラスcがパラメータμ0 のベルヌーイ分布から確率的に生成されると仮定すると(22)式が得られ、更に、パラメータμ0 がα0 ,β0 をパラメータとするベータ分布により生成されると仮定すると(23)式が得られる。
この時、クラスの事前確率p(c)は、パラメータμ0 を積分消去(周辺化)すると(24)式で表される。なお、μ0 について知識を持っていない場合は、通常、α0=β0=1と設定する。
そして、クラス確率p(c|f1:Nf)は、(21)(24)式とベイズの定理を用いることで、(25)式のように求めることができる。
但し、(25)式は、Nf個の弱識別器を全て適用した時のクラス確率であり、これを、弱識別器を一つ適用する毎に、前回の算出結果p(c|f1:n-1 )を利用して、再帰的にクラス確率p(c|f1:n )を更新できるように修正したものが(6)式となる。
<動作>
ここで顔位置検出部5での全体的な処理の流れを、図4に示すフローチャートに沿って説明する。
顔位置検出部5に取得画像が供給されると、まず、画像切出部10にて、切出用ウインドのサイズや位置を、予め設定された選択順に従って、その選択順の一番最初から選択されるように初期化する(S110)。そして、切出用ウインドのサイズを選択し(S120)、切出用ウインドの位置を選択して、先に選択された切出用ウインドサイズでの対象画像(部分画像)xの切り出し(S130)を行う。
なお、S120では、最初に最小サイズの切出用ウインドを選択し、以後、S120が実行される毎に、順次大きいサイズの切出用ウインドを選択する。
また、S130では、切出用ウインドのサイズが新たに選択される毎に、最初に取得画像の左上隅の位置を選択し、以後、S130が実行される毎に、右方向を主走査方向、下方向を副走査方向として順次シフトした位置を選択して切り出しを行う。
次に、スコア生成部20が、対象画像xについての判定スコアS(x)を生成し、その判定スコアS(x)を対象画像xに対応づけてスコア記憶部30に記憶する(S140)。
S140にて判定スコアS(x)が生成されることにより現対象画像についての処理が終了すると、画像切出部10にて、切出用ウインドの位置は選択順の最後(右下隅)まで到達しているか否かにより、全画面について処理を終了したか否かを判断し(S150)、全画面について処理を終了していなければ、現サイズでの処理は終了していないものとして、S130に戻って、S130〜S140の処理を繰り返す。
一方、全画面について処理が終了していれば、現サイズでの処理は終了したものとして、画像切出部10にて、全てのサイズについて処理が終了しているか否かを判断し(S160)、未選択のサイズがある場合には、S120に戻って、S120〜S150の処理を繰り返す。
そして、全てのサイズが選択されている場合には、現取得画像についての処理は全て終了したものとして、顔位置判定部40に顔位置を判定させ、即ち、判定スコアS(x)が最大となる部分画像の位置を顔位置と判定して(S170)、本処理を終了する。
ここで、S140にてスコア生成部20が実行する処理の詳細を、図5に示すフローチャートに沿って説明する。なお、以下では、記述を簡単にするため、説明に使用する各記号から対象画像を識別するxを省略し、例えば、fn (x)であれば、単にfn と記述する。
識別器選択適用部22に対象画像が供給されると、まず、獲得スコア算出部23が算出,保持する獲得スコアS(-) 1:nをゼロクリアすることで、及びクラス確率算出部24が算出,保持するクラス確率p(c|f1:n )の値を1/(画像クラス数)とすることで、初期化する(S210)。
次に、識別器選択適用部22が、弱選択器群の中から一つの弱選択器を選択し、その選択した弱識別器を対象画像に適用することで識別結果fn を求める(S220)。なお、nは、その対象画像についてn番目に選択された弱識別器についての値であることを示す(以下同様)。
すると、獲得スコア算出部23が、識別結果fn に重みwn を乗じた値wnnを算出し、これを保持されている(n=1の時はゼロに初期化されている)獲得スコアS(-) 1:n-1に加算することで、獲得スコアS(-) 1:n(=S(-) 1:n-1+wnn)を更新する(S230)。
そして、現対象画像に対して全ての弱識別器を適用し終えたか否か、即ち、現在の選択識別器がNf個目のものであるか否かを判断する(S240)。
S240にて肯定判断された場合、即ち、現在の選択識別器に対して全ての弱識別器が適用済みである場合は、S230にて算出された獲得スコアS(-) 1:Nf を判定スコアSとして出力することでスコア記憶部30に記憶させて(S300)、本処理を終了する。
一方、S240にて否定判断された場合、即ち、現在の選択識別器に対して未適用の弱識別器が存在する場合には、クラス確率算出部24が、上述の(6)式に従って、保持されている(n=1の時はゼロに初期化されている)クラス確率p(c|f1:n )を更新する(S250)。なお、クラス確率p(c|f1:n )は、顔クラス(c=1)、非顔クラス(c=0)のそれぞれについて算出されることになる。
そして、クラス確率p(c|f1:n )が更新されると、予測分布算出部25が、そのクラス確率p(c|f1:n )を用いて、未適用弱識別器群を全て対象画像に対して適用した場合の獲得スコアの予測分布のパラメータEn ,Vn を、上述の(9)(10)式に従って算出する(S260)。
すると、継続制御部26では、(15)(16)式に従ってバラツキ上限値SH,バラツキ下限値SLを算出し、バラツキ上限値SHが判定閾値TH以上(S270:NO)且つバラツキ下限値SLが判定閾値TH以下(S280:NO)場合は、予測の精度が不十分であるものとして、対象画像に対する処理を継続する(S220に戻る)。
一方、バラツキ上限値SHが判定閾値THより小さい(S270:YES)か、或いはバラツキ下限値SLが判定閾値THより大きい(S280:YES)場合は、S230にて算出された獲得スコアS(-) 1:nに、S260で算出された期待値En[Sn+1:Nf|f1:n ]=S(+) n+1:Nfを加算することで算出される予測スコアを、判定スコアSとして出力することでスコア記憶部30に記憶させて(S290)、本処理を終了する。
<効果>
以上説明したように、運転支援システム1によれば、入力画像から切り出した対象画像に対して複数の弱識別器を適宜適用して判定値を求める過程において、対象画像に対する処理を継続するか打ち切るかを判断(早期判断)する際に、適用済弱識別器群の識別結果に基づく獲得スコアS(-) 1:nだけでなく、未適用弱識別器群を適用した場合に得られるであろう獲得スコアの予測分布(期待値En [Sn+1:Nf|f1:n ]=S(+) n+1:Nf,分散Vn )によって、未適用弱識別器群の振る舞いを予測することによって判断している。
従って、運転支援システム1によれば、未適用弱識別器群の情報が無視されることなく必ず利用されることになるため、ブースティングの頑健性を低下させることなく、顔位置の特定に要する時間を短縮することができ、ひいては信頼性の高い運転支援制御を実現することができる。
<発明との対応>
なお、上記実施形態において、弱識別器データベース21に記憶されている弱識別器群が識別手段、識別器選択適用部22が適用手段、獲得スコア算出部23がスコア算出手段、予測分布算出部25が分布算出手段、継続制御部26が早期判断手段、確率テーブルを記憶する弱識別器データベース21が記憶手段、クラス確率算出部24が確率算出手段に相当する。
[第2実施形態]
次に、第2実施形態について説明する。
なお、本実施形態では、識別器選択適用部22が実行するS220での処理、及び予測分布算出部25が実行するS260の処理の一部が、第1実施形態とは異なっているだけであるため、この相違する部分を中心に説明する。
<構成>
即ち、本実施形態では、S260において、予測分布の分散Vn [Sn+1:Nf|f1:n ]を算出する際に(12)式に従って算出される個々の弱識別器についての分散Vn [Sm |f1:n ]のうち、最も値が大きかった弱識別器を記憶する。
そして、S220では、未適用弱識別器の中から、対象画像に適用する弱識別器を選択する際に、前回の処理サイクルでのS260にて記憶された分散値が最大の弱識別器を、新たに適用する弱識別器として選択する。但し、対象画像に対する最初の処理サイクルでは、適用する弱識別器として、予め決められたもの(例えば、重みwnが最も大きいもの等)を用いてもよいし、ランダムに選択したものを用いてもよい。
<効果>
このように構成された運転支援システム1によれば、予測分布の分散Vn [Sn+1:Nf|f1:n ]を速やかに減少させることができるため、早期判断をより速い段階で行うことができる。その結果、顔位置の特定に要する時間を更に短縮することができる。
[実験例]
顔位置検出部5での処理の有効性を確認するため、実際の車内で撮影された画像(取得画像に相当)を用いて実験を行った。
図6は、実験に使用した訓練画像及びテスト画像の生成方法を示す説明図である。
取得画像中の正解顔領域は人手で指定し、そこからサイズと位置とをランダムにずらした画像を顔画像として生成した。また、正解顔領域を一部含むもの、正解顔領域を全く含まないものを非顔画像としてランダムに生成し、これを弱識別器の学習に用いる訓練画像集合とした。
また、実環境では、すべての照明環境やドライバの顔を訓練画像集合に含めることが実質的に不可能であるため、訓練画像集合に用いた画像とは異なる環境下で撮影された画像を識別できなければならない。このような汎化性,頑健性を確認するため、異なる環境下(ここでは、カメラ・被験者・照明環境)で撮影されたドライバについての取得画像から顔画像、非顔画像を作成し、これを弱識別器のテストに用いるテスト画像集合とした。
このように生成された訓練画像集合、テスト画像集合を利用して、第1実施形態に示した手法(ClassProb) と、第2実施形態に示した手法(AS Boost)と、全ての弱識別器を検出に利用する手法(比較例1:NormalBoost) と、特許文献1に示された早期棄却を利用する手法(比較例2:Viola&Jones) との比較を行った。
なお、弱識別器は、全て本実施形態と同様にHaar特徴を用いて識別を行うものとし、その数をNf=1000とした。また、本実施形態については、(17)式に示した安全係数Fsを決定するパラメータを、a=9,b=3,σ=Nf/6.25に設定した。なお、σを弱識別器の数Nfに依存して決めているため、安全係数Fsは、弱識別器の数Nfに関わらず同様な振る舞いとなる。
図7は、本実施形態の構成において、早期棄却を行うことなく、全ての弱識別器を適用した場合に算出される獲得スコアS(-) 1:n、予測スコアS(+) n+1:Nf 、バラツキ上限値SH、バラツキ下限値SLの振る舞いを示したグラフであり、(a)は対象画像が顔画像(顔クラスの画像)の場合、(b)は対象画像が非顔画像(非顔クラスの画像)の場合を示す。
図8(a)は、各手法について、テスト画像を用いて測定を行い、その結果から、非顔画像を顔画像であると判断(誤検出)した確率、顔画像を非顔画像であると判断(未検出)した確率、判断までに適用された弱識別器の数(平均)を求めた結果を示した表であり、図8(b)は、弱識別器群の数Nfを変化させて、誤り率(誤検出と未検出の合計)を測定した結果を示したグラフである。
図7からは、本実施形態の手法では、予測スコアは、適用識別器数が50個程度のかなり早い段階で最終的に獲得するスコアを予測できていること、及び、適用する弱識別器の数が増加するに従って、予測スコアの自信が大きく(予測分布の分散が小さく)なり、200個未満(図中「×」印で示した時点)で、早期判断が行われることがわかる。
図8(a)からは、本発明の第1及び第2実施形態によれば、全ての弱識別器を利用する比較例1(NormalBoost) と比較して誤り率を同程度以下とすることができ、また、早期判断を行う比較例2(Viola&Jones) と比較して、適用する弱識別器の数(ひいては早期判断のタイミング)及び誤り率を、いずれも向上させることができ、特に、第2実施形態(AS Boost)では、適用する弱識別器の数を半分近くまで大幅に減少させることができることがわかる。
更に、図8(b)からは、比較例2では、弱識別器の数が増えると却って性能が劣化(誤り率が増大)する過学習の傾向が見られるのに対して、本実施形態の手法では、弱識別器の数に関わらず比較例1と同等以下の性能が得られることがわかる。しかも、弱識別器の数を無闇に増やしても性能が劣化することはないが、大きく改善されることもなく、特に、第2実施形態では、Nf=400程度あれば、ほぼ最大限に能力を引き出すことができることがわかる。
つまり、本実施形態の手法では、比較例2とは異なり、弱識別器の数Nfに依存することなく、高速性と識別頑健性とを高いレベルで両立させることができることが確認された。
[他の実施形態]
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
上記実施形態では、クラスが二つである場合について説明したが、3個以上のクラスに拡張してもよい。この場合、例えば、顔画像を表す顔クラスを、眼鏡顔、サングラス顔等を表す複数のクラスに分割することが考えられる。
この場合、クラス毎に、使用する弱識別器群を設定し、弱識別器群の反応傾向からクラスを推定して、使用する弱識別器群を切り換えながら識別を行うようにすればよい。なお、その具体的な手法としては、例えば、特願2008−150679号にて提案したものを適用することができる。
1…運転支援システム 3…画像取得部 5…顔位置検出部 7…視線検出部 9…運転支援制御部 10…画像切出部 20…スコア生成部 21…弱識別器データベース 22…識別器選択適用部 23…獲得スコア算出部 24…クラス確率算出部 25…予測分布算出部 26…継続制御部 30…スコア記憶部 40…顔位置判定部

Claims (6)

  1. それぞれが互いに異なった特定のパターンを有した画像に反応するように設定された複数の弱識別器からなる識別手段と、
    前記識別手段を構成する前記弱識別器の一つを適宜選択し、該選択した弱識別器を、識別対象となる入力画像である対象画像に対して適用する適用手段と、
    前記適用手段により前記対象画像に対して適用された前記弱識別器を適用済弱識別器群として、前記適用手段により前記弱識別器が適用される毎に、前記弱識別器での識別の信頼度を表す重みを用いて、前記適用済弱識別器群の識別結果の重み付け加算値である獲得スコアを算出するスコア算出手段と、
    前記適用手段により前記対象画像に対して未だ適用されていない前記弱識別器を未適用弱識別器群として、前記適用手段により前記弱識別器が適用される毎に、前記未適用弱識別器群を前記対象画像に対して適用した場合に獲得し得る前記獲得スコアの予測分布を算出する分布算出手段と、
    前記獲得スコアに前記予測分布の期待値を加算した予測スコア、及び前記予測分布の分散に基づく前記予測スコアのバラツキ範囲を求め、前記バラツキ範囲の上限値が予め設定された判定閾値より小さい場合、又は、前記バラツキ範囲の下限値が前記判定閾値より大きい場合に、前記予測スコアを、前記対象画像についての最終的な獲得スコアであるものとして、前記対象画像に対する処理を打ち切る早期判断手段と、
    を備えることを特徴とする画像識別装置。
  2. 前記分布算出手段は、前記未適用弱識別器群に属する弱識別器毎に算出した個別予測分布を求め、該個別予測分布のパラメータを加算することで前記獲得スコアの予測分布のパラメータを算出し、
    前記適用手段は、前記未適用弱識別器群の中で次に適用する弱識別器として、前記個別予測分布の分散が最も大きいものを選択することを特徴とする請求項1に記載の画像識別装置。
  3. 前記弱識別器毎、且つ前記対象画像を分類するために予め設定されたクラス毎に、該クラスに属する対象画像に対して前記弱識別器が肯定的な判断を行う正判定確率、及び該クラスに属さない対象画像に対して前記弱識別器が肯定的な判断を行う誤判定確率を設定した確率テーブルを記憶する記憶手段と、
    前記適用済弱識別器群を構成する各弱識別器の識別結果に基づいて、前記クラス毎に、前記対象画像が該クラスに属することの事後確率を表すクラス確率を算出する確率算出手段と、
    を備え、
    前記分布算出手段は、前記獲得スコアの予測分布を、前記クラス確率及び前記確率テーブルを用いて算出することを特徴とする請求項1又は請求項2に記載の画像識別装置。
  4. 前記判定手段は、前記適用済弱識別器群に属する弱識別器の数が多いほど小さな値となるように設定された安全係数を前記予測分布の標準偏差に乗じた値を許容値とし、該許容値を前記予測スコアに加算又は減算した値を、前記バラツキ範囲の上限値及び下限値とすることを特徴とする請求項1乃至請求項3のいずれかに記載の画像識別装置。
  5. 前記安全係数は、前記識別手段を構成する弱識別器の数によって正規化されていることを特徴とする請求項4に記載の画像識別装置。
  6. 前記対象画像は、車両のドライバを撮影した画像から、予め設定された規定サイズを有する切出用ウインドにより切り出した画像であり、
    前記クラスには、顔が映っている画像を表す顔クラスと、顔が映っていない画像を表す非顔クラスが少なくとも含まれていることを特徴とする請求項1乃至請求項5のいずれかに記載の画像識別装置。
JP2009176474A 2009-07-29 2009-07-29 画像識別装置 Expired - Fee Related JP4743312B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009176474A JP4743312B2 (ja) 2009-07-29 2009-07-29 画像識別装置
DE102010038567A DE102010038567A1 (de) 2009-07-29 2010-07-28 Bilderkennungsvorrichtung mit mehreren Klassifizierern
US12/804,715 US8538172B2 (en) 2009-07-29 2010-07-28 Image recognition apparatus with a plurality of classifiers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009176474A JP4743312B2 (ja) 2009-07-29 2009-07-29 画像識別装置

Publications (2)

Publication Number Publication Date
JP2011028682A JP2011028682A (ja) 2011-02-10
JP4743312B2 true JP4743312B2 (ja) 2011-08-10

Family

ID=43495623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009176474A Expired - Fee Related JP4743312B2 (ja) 2009-07-29 2009-07-29 画像識別装置

Country Status (3)

Country Link
US (1) US8538172B2 (ja)
JP (1) JP4743312B2 (ja)
DE (1) DE102010038567A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102044064A (zh) * 2009-10-23 2011-05-04 鸿富锦精密工业(深圳)有限公司 影像处理系统及方法
US8873840B2 (en) * 2010-12-03 2014-10-28 Microsoft Corporation Reducing false detection rate using local pattern based post-filter
JP6540040B2 (ja) * 2015-01-23 2019-07-10 株式会社インテック 移動方面予測装置、移動方面予測方法及び移動方面予測プログラム
JP6282711B2 (ja) * 2016-10-25 2018-02-21 株式会社東芝 パターン認識装置、パターン認識方法、及びパターン認識プログラム
CN107610091A (zh) * 2017-07-31 2018-01-19 阿里巴巴集团控股有限公司 车险图像处理方法、装置、服务器及系统
CN110019776B (zh) * 2017-09-05 2023-04-28 腾讯科技(北京)有限公司 文章分类方法及装置、存储介质
WO2019102072A1 (en) * 2017-11-24 2019-05-31 Heyday Oy Method and system for identifying authenticity of an object
CN110392228B (zh) * 2018-04-16 2021-06-04 宏碁股份有限公司 监视方法与使用此方法的电子装置
US11120311B2 (en) * 2019-10-18 2021-09-14 Midea Group Co., Ltd. Adjusting machine settings through multi-pass training of object detection models
US11495019B2 (en) * 2020-03-27 2022-11-08 Givatar, Inc. Systems and methods for optical character recognition of text and information on a curved surface
CN113283548B (zh) * 2021-07-22 2021-10-19 天津所托瑞安汽车科技有限公司 一种车辆安全评分方法、装置、设备和存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP4517633B2 (ja) * 2003-11-25 2010-08-04 ソニー株式会社 対象物検出装置及び方法
JP2007066114A (ja) * 2005-08-31 2007-03-15 Fujifilm Software Co Ltd 分類器を用いた分類方法及びその装置
JP2009176474A (ja) 2008-01-22 2009-08-06 Japan Aviation Electronics Industry Ltd コネクタ
JP4513898B2 (ja) 2008-06-09 2010-07-28 株式会社デンソー 画像識別装置

Also Published As

Publication number Publication date
JP2011028682A (ja) 2011-02-10
US8538172B2 (en) 2013-09-17
DE102010038567A1 (de) 2011-02-24
US20110026829A1 (en) 2011-02-03

Similar Documents

Publication Publication Date Title
JP4743312B2 (ja) 画像識別装置
JP4513898B2 (ja) 画像識別装置
JP4744918B2 (ja) 顔検出方法および装置並びにプログラム
KR101607224B1 (ko) 동적 물체 분류 방법 및 장치
JP5127392B2 (ja) 分類境界確定方法及び分類境界確定装置
US7925093B2 (en) Image recognition apparatus
EP2657908A1 (en) Image authentication apparatus, image processing system, control program for image authentication apparatus, computer-readable recording medium, and image authentication method
US20130050502A1 (en) Moving object tracking system and moving object tracking method
CN111310850B (zh) 车牌检测模型的构建方法及系统、车牌检测方法及系统
JP2008146539A (ja) 顔認証装置
US20070286477A1 (en) Method and system for fast and accurate face detection and face detection training
JP2010142345A (ja) 眼開閉判別装置及びプログラム
CN107992807B (zh) 一种基于cnn模型的人脸识别方法及装置
CN110826558B (zh) 图像分类方法、计算机设备和存储介质
JP2008262331A (ja) オブジェクト追跡装置およびオブジェクト追跡方法
JP2012190159A (ja) 情報処理装置、情報処理方法及びプログラム
JP2007213182A (ja) 対象物状態認識方法および装置並びにプログラム
CN110458093B (zh) 一种基于驾驶员监控系统的安全带检测方法以及相应的设备
JP2017053699A (ja) 物質判別に用いる近赤外画像撮像用の波長決定方法および近赤外画像を用いた物質判別方法
WO2021229663A1 (ja) 学習装置、学習方法および記録媒体
WO2009096208A1 (ja) 物体認識システム,物体認識方法および物体認識用プログラム
WO2022264533A1 (ja) 検知枠位置精度向上システム、及び検知枠位置補正方法
WO2021229660A1 (ja) 判定装置、学習方法および記録媒体
JP2008027130A (ja) オブジェクト認識装置およびオブジェクト認識方法ならびにオブジェクト認識用プログラム
WO2021229662A1 (ja) 判定装置、判定方法および記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110425

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4743312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees