JP2007047965A - デジタル画像の対象物検出方法および装置並びにプログラム - Google Patents

デジタル画像の対象物検出方法および装置並びにプログラム Download PDF

Info

Publication number
JP2007047965A
JP2007047965A JP2005230495A JP2005230495A JP2007047965A JP 2007047965 A JP2007047965 A JP 2007047965A JP 2005230495 A JP2005230495 A JP 2005230495A JP 2005230495 A JP2005230495 A JP 2005230495A JP 2007047965 A JP2007047965 A JP 2007047965A
Authority
JP
Japan
Prior art keywords
image
predetermined
sample image
sample
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005230495A
Other languages
English (en)
Other versions
JP4708909B2 (ja
Inventor
Kensuke Terakawa
賢祐 寺川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2005230495A priority Critical patent/JP4708909B2/ja
Priority to US11/500,928 priority patent/US20070036429A1/en
Publication of JP2007047965A publication Critical patent/JP2007047965A/ja
Application granted granted Critical
Publication of JP4708909B2 publication Critical patent/JP4708909B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 入力画像における所定の対象物を検出する方法において、当該対象物の一部が遮蔽されている場合であっても検出を可能にする。
【解決手段】 対象物の全体を表すサンプル画像群の他に、サンプル画像の切出し位置をずらす等により所定の一部が遮蔽された対象物を表す1以上のサンプル画像群(SR,SU)を用意し、サンプル画像群の種類毎にマシンラーニングの学習手法を用いて判別器を学習させ、複数の判別器を生成する。入力画像上の異なる位置で切り出された部分画像の各々に対して上記複数の判別器を適用し、部分画像が対象物全体を表す画像もしくはその一部が遮蔽された画像(SQ1,SQ2)であるか否かを判別する。
【選択図】 図10

Description

本発明は、デジタル画像の中から所定の対象物を検出する対象物検出方法および装置並びにそのためのプログラムに関するものである。
従来、コンピュータ等の計算機を用いて一般写真等のデジタル画像から顔等の所定の対象物(オブジェクト)を検出する方法が種々提案されている。このような対象物を検出する方法としては、例えば、比較的古くから利用されているテンプレートマッチングによる方法のほか、近年注目されているブースティング(Boosting)と呼ばれる学習手法を用いて実現される方法(特許文献1参照)等が知られている。
このブースティングによる学習手法を用いて実現される方法は、所定の対象物を表す複数の異なるサンプル画像と、所定の対象物でないことが分かっている複数の異なるサンプル画像とを用いて、その対象物の特徴を学習させ、ある画像が所定の対象物を表す画像であるか否かを判別することが可能な判別器を生成して用意しておき、その所定の対象物を検出する対象となる検出対象画像において部分画像を順次切り出し、その部分画像が所定の対象物を表す画像であるか否かを上記の判別器を用いて判別することにより、検出対象画像上で所定の対象物を検出するものである。
これらの方法は、例えば、ある画像が顔と非顔のいずれであるかを判別して顔を検出するような2クラス問題を解決するには有用であり、特に、ブースティングによる学習手法を用いて実現される方法は、高速性と高い検出能が両立しており、これに類似する技術も含め、種々の分野において広く使用されている。
US 2002/0102024 A1
しかしながら、上記の方法は、検出対象物全体が画像として現れていることを前提としており、検出対象物の一部が何らかの理由で遮蔽されているような場合には、その対象物を的確に検出できないという問題がある。例えば、検出対象物が人の顔である場合に、髪の毛や手、あるいは他の被写体と重なって顔の一部が遮蔽されているような場合には、その顔を的確に検出できない。また、特に、ブースティングによる学習手法により学習・生成された判別器を用いて検出対象物を検出する方法では、その検出性能が学習に用いられるサンプル画像に強く依存するため、検出漏れも起きやすいという問題がある。
本発明は、上記事情に鑑み、デジタル画像において一部が遮蔽された所定の対象物をも的確に検出することが可能なデジタル画像の対象物検出方法および装置並びにそのためのプログラムを提供することを目的とするものである。
本発明の対象物検出方法は、入力画像における所定の対象物を検出する対象物検出方法であって、前記所定の対象物の全体を表す複数の異なる所定の大きさのサンプル画像からなる全体サンプル画像群と、少なくとも1種類の、所定の一部が遮蔽された前記所定の対象物を表すサンプル画像からなる遮蔽サンプル画像群とを含む複数のサンプル画像群を取得し、該サンプル画像群毎に、該サンプル画像が表す前記所定の対象物の画像上の特徴をマシンラーニングの手法により学習させて、判別対象画像が前記所定の対象物の全体を表す画像であるか否かを判別する判別器と、判別対象画像が所定の一部が遮蔽された前記所定の対象物を表す画像であるか否かを判別する少なくとも1種類の判別器とを含む複数の判別器を生成して用意するステップと、前記入力画像上の複数の異なる位置で前記所定の大きさの部分画像を切り出すステップと、前記部分画像の各々に対して、該部分画像を前記判別対象画像として前記複数の判別器のうち少なくとも1つを適用することにより、該部分画像が前記所定の対象物の全体を表す画像および所定の一部が遮蔽された前記所定の対象物を表す画像のうちのいずれかであるか否かを判別するステップとを有することを特徴とするものである。
本発明の対象物検出装置は、入力画像における所定の対象物を検出する対象物検出装置であって、前記所定の対象物の全体を表す複数の異なる所定の大きさのサンプル画像からなる全体サンプル画像群と、少なくとも1種類の、所定の一部が遮蔽された前記所定の対象物を表すサンプル画像からなる遮蔽サンプル画像群とを含む複数のサンプル画像群を取得し、該サンプル画像群毎に、該サンプル画像が表す前記所定の対象物の画像上の特徴をマシンラーニングの手法により学習させて、判別対象画像が前記所定の対象物の全体を表す画像であるか否かを判別する判別器と、判別対象画像が所定の一部が遮蔽された前記所定の対象物を表す画像であるか否かを判別する少なくとも1種類の判別器とを生成して得られた複数の判別器と、前記入力画像上の複数の異なる位置で前記所定の大きさの部分画像を切り出す部分画像切出し手段と、前記部分画像の各々に対して、該部分画像を前記判別対象画像として前記複数の判別器のうち少なくとも1つを適用することにより、該部分画像が前記所定の対象物の全体を表す画像および所定の一部が遮蔽された前記所定の対象物を表す画像のうちのいずれかであるか否かを判別する判別手段とを備えたことを特徴とするものである。
本発明のプログラムは、コンピュータを、入力画像における所定の対象物を検出する対象物検出手段として機能させるためのプログラムであって、該コンピュータを、前記所定の対象物の全体を表す複数の異なる所定の大きさのサンプル画像からなる全体サンプル画像群と、少なくとも1種類の、所定の一部が遮蔽された前記所定の対象物を表すサンプル画像からなる遮蔽サンプル画像群とを含む複数のサンプル画像群を取得し、該サンプル画像群毎に、該サンプル画像が表す前記所定の対象物の画像上の特徴をマシンラーニングの手法により学習させて、判別対象画像が前記所定の対象物の全体を表す画像であるか否かを判別する判別器と、判別対象画像が所定の一部が遮蔽された前記所定の対象物を表す画像であるか否かを判別する少なくとも1種類の判別器とを生成して得られた複数の判別器と、前記入力画像上の複数の異なる位置で前記所定の大きさの部分画像を切り出す部分画像切出し手段と、前記部分画像の各々に対して、該部分画像を前記判別対象画像として前記複数の判別器のうち少なくとも1つを適用することにより、該部分画像が前記所定の対象物の全体を表す画像および所定の一部が遮蔽された前記所定の対象物を表す画像のうちのいずれかであるか否かを判別する判別手段として機能させるためのプログラムである。
本発明において、前記遮蔽サンプル画像群は、前記全体サンプル画像群を構成する各サンプル画像を、該サンプル画像から所定方向に所定量だけずれた位置において、該サンプル画像と同じ大きさの枠で切り出すことにより得られたものとすることができる。
また、この場合において、前記所定方向は、前記サンプル画像に対して水平方向または垂直方向であり、前記所定量は、前記所定の対象物の幅の1/3から1/5の間の長さであることが望ましい。
また、本発明において、前記所定の対象物は、目、鼻、口を含む顔であり、前記所定の一部は、目または口の一部であってもよい。
また、本発明において、前記マシンラーニングの手法としては、例えば、ニューラルネットワーク(Neural Network)の学習手法、サポートベクターマシーン(SVM:Support Vector Machine)の学習手法、ブースティング(Boosting)等が考えられるが、特に、ブースティングとすることが望ましい。
また、前記「所定の一部が遮蔽された前記所定の対象物」は、所定の一部が何らかの描写がなされた画像で遮蔽されたものであっても、何も描写されていない画像、例えば、白または黒一色の画像で遮蔽されたものであってもよい。
本発明のデジタル画像の対象物検出方法および装置並びにそのためのプログラムによれば、入力画像上で切り出された部分画像が検出対象である所定の対象物であるか否かを判別する際に、判別すべき画像が所定の対象物の全体を表す画像である判別器(第1の判別器)と、判別すべき画像が一部遮蔽された上記所定の対象物を表す画像である他の判別器(第2の判別器)とを用いて判別するので、第1の判別器では判別が難しい、一部が遮蔽された上記所定の対象物は第2の判別器をもって判別することができ、従来、何らかの理由で上記所定の対象物の一部が遮蔽されて上記所定の対象物の全体の特徴が見出させないために検出できなかった対象物であっても、的確に検出することが可能となる。
以下、本発明の実施形態について説明する。
図1は、本発明の対象物検出方法が適用された顔検出システム1の構成を示す概略ブロック図である。顔検出システム1は、デジタル画像に含まれる顔をその位置や大きさに依らず検出するものであり、図1に示すように、顔を検出する対象となる入力画像S0を多重解像度化して解像度の異なる複数の画像(以下、解像度画像という)からなる解像度画像群S1(=S1_1,S1_2,・・・,S1_n)を得る多重解像度化部10と、解像度画像群S1の各々対して、解像度画像が後述の顔検出処理に適した階調の画像となるように画素値を変換する正規化処理を施し、正規化済みの解像度画像群S1′(=S1′_1,S1′_2,・・・,S1′_n)を得る正規化部20と、正規化済みの解像度画像群S1′の各々に対して顔検出処理を施すことにより、解像度画像群S1′の各解像度画像に含まれる顔を表す画像(以下、顔画像ともいう)S2を検出する顔検出部30と、各解像度画像上で検出された顔画像S2の各々について、同一の顔が重複して検出されたものであるか否かをその位置関係から判定して整理し、重複検出のない顔画像S3を得る重複検出判定部40とを備える。
多重解像度化部10は、入力画像S0の解像度(画像サイズ)を変換することにより、その解像度を所定の解像度、例えば、短辺が416画素の矩形サイズの画像に規格化し、規格化済みの入力画像S0′を得る。そして、この規格化済みの入力画像S0′を基本としてさらに解像度変換を行うことにより、解像度の異なる複数の解像度画像を生成し、解像度画像群S1を得る。このような解像度画像群を生成する理由は、通常、入力画像に含まれる顔の大きさは不明であるが、一方、検出しようとする顔の大きさ(画像サイズ)は、後述の判別器の生成方法と関連して一定の大きさに固定されるため、大きさの異なる顔を検出するためには、解像度の異なる画像上で位置をずらしながら所定サイズの部分画像をそれぞれ切り出し、その部分画像が顔か非顔かを判別してゆく必要があるためである。
図2は、入力画像の多重解像度化の工程を示した図である。多重解像度化、すなわち、解像度画像群の生成は、具体的には、図2に示すように、規格化済みの入力画像S0′を基本となる解像度画像S1_1とし、解像度画像S1_1に対して2の−1/3乗倍サイズの解像度画像S1_2と、解像度画像S1_2に対して2の−1/3乗倍サイズ(基本画像S1_1に対しては2の−2/3乗倍サイズ)の解像度画像S1_3とを先に生成し、その後、解像度画像S1_1,S1_2,S1_3のそれぞれを1/2倍サイズに縮小した解像度画像を生成し、それら縮小した解像度画像をさらに1/2倍サイズに縮小した解像度画像を生成する、といった処理を繰り返し行い、複数の解像度画像を所定の数だけ生成するようにする。このようにすることで、輝度を表す画素値の補間処理を必要としない1/2倍の縮小処理を主な処理とし、基本となる解像度画像から2の−1/3乗倍ずつサイズが縮小された複数の画像が高速に生成できる。例えば、解像度画像S1_1が短辺416画素の矩形サイズである場合、解像度画像S1_2,S1_3,・・・は、短辺がそれぞれ、330画素,262画素,208画素,165画素,131画素,104画素,82画素,65画素,・・・の矩形サイズとなり、2の−1/3乗倍ずつ縮小された複数の解像度画像を生成することができる。なお、このように画素値を補間しないで生成される画像は、元の画像パターンの特徴をそのまま担持する傾向が強いので、顔検出処理において精度向上が期待できる点で好ましい。
正規化部20は、解像度画像群S1の各々に対して正規化処理を施すものであるが、具体的には、例えば、画素値をsRGB空間におけるいわゆる逆ガンマ変換(=2.2乗する)した後にさらに対数をとるような変換曲線(ルックアップテーブル)にしたがって、画像全体における画素値を変換する処理を考えることができる。これは、次のような理由による。
画像として観測される光強度Iは、通常、被写体の反射率Rと光源の強度Lの積として表現される(I=R×L)。したがって、光源の強度Lが変化すると、画像として観測される光強度Iも変化することになるが、被写体の反射率Rのみを評価することができれば、光源の強度Lに依存しない、すなわち、画像の明るさの影響を受けない精度の高い顔判別を行うことができる。
ここで、光源の強度がLの場合において、被写体上で反射率がR1の部分から観測される光強度をI1、被写体上で反射率がR2の部分から観測される光強度をI2としたとき、それぞれの対数をとった空間では、下記の式が成り立つ。
log(I1)−log(I2)=log(R1×L)−log(R2×L)=log(R1)+log(L)−(log(R2)+log(L))=log(R1)−log(R2)=log(R1/R2)
すなわち、画像における画素値を対数変換することは、反射率の比が差として表現された空間へ変換することとなり、このような空間では、光源の強度Lに依存しない被写体の反射率のみを評価することが可能となる。言い換えると、画像中の明るさによって異なるコントラスト(ここでは画素値の差分そのもの)を揃えることができる。
一方、一般的なデジタルカメラ等の機器で取得された画像の色空間はsRGBである。sRGBとは、機器間の色再現の違いを統一するために、色彩、彩度等を規定・統一した国際標準の色空間のことであり、この色空間においては、ガンマ値(γout)が2.2の画像出力機器において適正な色再現を可能にするため、画像の画素値は、入力輝度を1/γout(=0.45)乗して得られる値となっている。
そこで、画像全体における画素値を、いわゆる逆ガンマ変換(すなわち、もとの画素値を2.2乗する)をした後にさらに対数をとるような変換曲線にしたがって変換し、その変換済みの画像において所定の複数点間の画素値の差分を評価することにより、光源の強度に依存しない被写体の反射率のみによる評価を適正に行うことができるようになる。
顔検出部30は、正規化部20により正規化処理がなされた解像度画像群S1′の各々に対して顔検出処理を施し、各解像度画像における顔画像S2を検出するものであり、さらに複数の要素から構成されている。すなわち、顔検出部30は、後述の各部を制御して顔検出処理におけるシーケンス制御を主に行う検出制御部31と、解像度画像群S1′の中から顔検出処理に供する解像度画像をサイズの小さいものから順に順次選択する解像度画像選択部32と、解像度画像選択部32により選択された解像度画像において、顔画像であるか否かの判別対象となる部分画像Wを切り出すサブウィンドウを、その位置をずらしながら順次設定するサブウィンドウ設定部33と、その切り出された部分画像Wが顔画像であるか否かを判別する複数の判別器からなる判別器群34から構成されている。
検出制御部31は、解像度画像群S1′の各画像に対して顔検出処理を行うべく、解像度画像選択部32およびサブウィンドウ設定部33を制御するものである。例えば、適宜、解像度画像選択部32に対して解像度画像の選択を指示したり、サブウィンドウ設定部33に対してサブウィンドウの設定条件を指示したり、また、得られた検出結果を重複検出判定部40に出力したりする。
解像度画像選択部32は、検出制御部31の制御により、解像度画像群S1′の中から顔検出処理に供する解像度画像をサイズの小さい順に(解像度の粗い順に)順次選択するものである。なお、本実施形態における顔検出の手法が、各解像度画像上で順次切り出された同じサイズの部分画像Wについてその部分画像Wが顔画像であるか否かを判別することにより入力画像S0における顔を検出する手法であるから、この解像度画像選択部32は、入力画像S0における検出すべき顔の大きさを毎回変えながら設定するものであって、検出すべき顔の大きさを大から小へ変えながら設定するものと同等なものということができる。
サブウィンドウ設定部33は、検出制御部31により設定されたサブウィンドウ設定条件に基づいて、解像度画像選択部32により選択された解像度画像上でサブウィンドウを移動させながら順次設定する。例えば、上記の選択された解像度画像において、所定のサイズすなわち32×32画素サイズの部分画像Wを切り出すサブウィンドウを、この解像度画像上を2次元的に走査するライン上の各位置において解像度画像を画像平面上で360度回転させながら順次設定する。そして、その切り出された部分画像Wを判別器群34へ入力する。
判別器群34は、部分画像Wが所定の状態にある顔を表す画像であるか否かを判別する複数の判別器から構成されており、具体的には、判別すべき画像が顔全体を表す画像である第1の判別器341、判別すべき画像が顔の右側の一部が遮蔽された右遮蔽顔を表す画像である第2の判別器342、判別すべき画像が顔の左側の一部が遮蔽された左遮蔽顔を表す画像である第3の判別器343、判別すべき画像が顔の上側の一部が遮蔽された上遮蔽顔を表す画像である第4の判別器344が並列に接続されている。
各判別器は、部分画像Wの画素値(輝度)の分布に係る少なくとも1つの特徴量として、所定の複数点間の画素値の差分に係る特徴量を算出し、この特徴量を用いてこの部分画像Wが所定の状態にある顔画像であるか否かを判別するものである。
ここで、判別器群34を構成する各判別器の構成、判別器における処理の流れおよび判別器の学習方法について説明する。
図3は、判別器の構成を示す図である。判別器は、図3に示すように、複数の弱判別器WCからなり、後述の学習により多数の弱判別器WCの中から選定された判別に有効な弱判別器WCをその有効な順に直列に接続したものである。弱判別器WCは、それぞれ、部分画像Wから弱判別器毎に固有の所定のアルゴリズムにしたがって特徴量を算出し、その特徴量と後述の自己のヒストグラムとに基づいて、部分画像Wが所定の状態にある顔画像であることの蓋然性を示すスコアを求めるものである。判別器341〜344は、これら複数の弱判別器WCの全部または一部から得られたスコアを評価して、部分画像Wが所定の状態にある顔画像であるか否かの判別結果Rを得る。
図4は、1つの判別器における処理の流れを示すフローチャートである。部分画像Wが判別器に入力されると、第1番目の弱判別器WCにおいて特徴量xが算出される(ステップS1)。例えば、図5に示すように、所定のサイズ、例えば、32×32画素サイズの部分画像Wに対して、4近傍画素平均(画像を2×2画素サイズ毎に複数のブロックに区分し、各ブロックの4画素における画素値の平均値をそのブロックに対応する1つの画素の画素値とする処理)を段階的に行うことにより、16×16画素サイズの画像と、8×8画素サイズの縮小した画像を得、もとの画像を含めたこれら3つの画像の平面内に設定される所定の2点を1ペアとして、複数種類のペアからなる1つのペア群を構成する各ペアにおける2点間の画素値(輝度)の差分値をそれぞれ計算し、これらの差分値の組合せを特徴量とする。各ペアの所定の2点は、例えば、画像上の顔の濃淡の特徴が反映されるよう決められた縦方向に並んだ所定の2点や、横方向に並んだ所定の2点とする。そして、特徴量である差分値の組合せに対応する値をxとして算出する。次に、その値xに応じて自己のヒストグラムから部分画像Wが判別すべき顔(例えば、第1の判別器341の場合には「全体顔」、第2の判別器342の場合には「右遮蔽顔」)を表す画像であることの蓋然性を示すスコアが求められる(ステップS2)。次に、1つ前の弱判別器WCから引き渡されたスコアにそのスコアを加算して累積スコアSCを算出するのであるが、第1番目の弱判別器WCの場合には、引き渡されるスコアが存在しないので、この場合には、求めたスコアをそのまま累積スコアSCとする(ステップS3)。次に、その累積スコアSCが予め決められた所定の閾値Th1を超えたか否か、および、その累積スコアSCが予め決められた所定の閾値Th2を下回ったか否かを判定する(ステップS4)。すなわち、SC>Th1という条件、もしくは、SC<Th2という条件のいずれかを満たすか否かを判定する。これらの条件を満たすと判定された場合には、SC>Th1のときに部分画像Wが判別すべき顔を表す「顔画像」であると判別し、SC<Th2のときに部分画像Wが「非顔画像」であると判別し、処理を終了する(ステップS5)。一方、ステップS4において、上記の条件を満たさないと判定された場合には、次の弱判別器WCがあるか否かを判定し(ステップS6)、ここで、次の弱判別器WCがあると判定されたときには、累積スコアSCを次の弱判別器WCに引き渡して、その次の弱判別器WCの処理に移行する(ステップS8)。一方、ステップS6において、次の弱判別器WCがないと判定された場合には、算出されたスコアの大小に基づいて、部分画像Wが判別すべき顔を表す「顔画像」、「非顔画像」のいずれかとして判別し処理を終了する(ステップS8)。
次に、判別器の学習(生成)方法について説明する。
図6は判別器の学習方法を示すフローチャートである。判別器の学習には、所定のサイズ、例えば32×32画素サイズで規格化され、さらに、前述の正規化部20による正規化処理と同様の処理が施された複数のサンプル画像を用いる。サンプル画像としては、顔であることが分かっている複数の異なる顔サンプル画像からなる顔サンプル画像群と、顔でないことが分かっている複数の異なる非顔サンプル画像からなる非顔サンプル画像群とを用意する。なお、本実施形態において、顔を表すサンプル画像としては、すべて、顔の向きが正面で顔の天地方向が垂直方向に略揃ったものを用いる。
顔サンプル画像群は、1つの顔サンプル画像につき、縦および/または横を0.7倍から1.2倍の範囲にて0.1倍単位で段階的に拡縮して得られる各サンプル画像に対し、平面上±15度の範囲にて3度単位で段階的に回転させて得られる複数の変形バリエーションを用いる。なおこのとき、顔サンプル画像は、目の位置が所定の位置に来るように顔のサイズと位置を規格化し、上記の平面上の回転、拡縮は目の位置を基準として行うようにする。例えば、d×dサイズのサンプル画像の場合においては、図7に示すように、両目の位置が、サンプル画像の最左上の頂点と最右上の頂点から、それぞれ、内側に1/4d、下側に1/4d移動した各位置とに来るように顔のサイズと位置を規格化し、また、上記の平面上の回転、拡縮は、両目の中間点を中心に行うようにする。
これら各サンプル画像には、重みすなわち重要度が割り当てられる。まず、すべてのサンプル画像の重みの初期値が等しく1に設定される(ステップS11)。
次に、サンプル画像およびその縮小画像の平面内に設定される所定の2点を1ペアとして複数のペアからなるペア群を複数種類設定したときの、この複数種類のペア群のそれぞれについて弱半別器が作成される(ステップS12)。ここで、それぞれの弱判別器とは、サブウィンドウWで切り出された部分画像とその縮小画像の平面内に設定される所定の2点を1ペアとして複数のペアからなる1つのペア群を設定したときの、この1つのペア群を構成する各ペアにおける2点間の画素値(輝度)の差分値の組合せを用いて、顔の画像と顔でない画像とを判別する基準を提供するものである。本実施形態においては、1つのペア群を構成する各ペアにおける2点間の画素値の差分値の組合せについてのヒストグラムを弱判別器のスコアテーブルの基礎として使用する。
図8はサンプル画像からヒストグラムが生成される様子を示した図である。図8の左側のサンプル画像に示すように、この判別器を作成するためのペア群を構成する各ペアの2点は、顔であることが分かっている複数のサンプル画像において、サンプル画像上の右目の中心にある点をP1、右側の頬の部分にある点をP2、眉間の部分にある点をP3、サンプル画像を4近傍画素平均で縮小した16×16画素サイズの縮小画像上の右目の中心にある点をP4、右側の頬の部分にある点をP5、さらに4近傍画素平均で縮小した8×8画素サイズの縮小画像上の額の部分にある点をP6、口の部分にある点をP7として、P1−P2、P1−P3、P4−P5、P4−P6、P6−P7の5ペアである。なお、ある判別器を作成するための1つのペア群を構成する各ペアの2点の座標位置はすべてのサンプル画像において同一である。そして顔であることが分かっているすべてのサンプル画像について上記5ペアを構成する各ペアの2点間の画素値の差分値の組合せが求められ、そのヒストグラムが作成される。ここで、画素値の差分値の組合せとしてとり得る値は、画像の輝度階調数に依存するが、仮に16ビット階調である場合には、1つの画素値の差分値につき65536通りあり、全体では階調数の(ペア数)乗、すなわち65536の5乗通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、画素値の差分値を適当な数値幅で区切って量子化し、n値化する(例えばn=100)。これにより、画素値の差分値の組合せの数はnの5乗通りとなるため、画素値の差分値の組合せを表すデータ数を低減できる。
同様に、顔でないことが分かっている複数の非顔サンプル画像についても、ヒストグラムが作成される。なお、非顔サンプル画像については、顔であることが分かっている顔サンプル画像上における上記各ペアの所定の2点の位置に対応する位置(同様に参照符号P1からP7を用いる)が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図8の一番右側に示す、弱判別器のスコアテーブルの基礎として用いられるヒストグラムである。この弱判別器のヒストグラムが示す各縦軸の値を、以下、判別ポイントと称する。この弱判別器によれば、正の判別ポイントに対応する、画素値の差分値の組合せの分布を示す画像は顔である可能性が高く、判別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の判別ポイントに対応する画素値の差分値の組合せの分布を示す画像は顔でない可能性が高く、やはり判別ポイントの絶対値が大きいほどその可能性は高まる。ステップS12では、判別に使用され得る複数種類のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せについて、上記のヒストグラム形式の複数の弱判別器が作成される。
続いて、ステップS12で作成した複数の弱半別器のうち、画像が顔であるか否かを判別するのに最も有効な弱判別器が選択される。最も有効な弱判別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各弱判別器の重み付き正答率が比較され、最も高い重み付き正答率を示す弱判別器が選択される(ステップS13)。すなわち、最初のステップS13では、各サンプル画像の重みは等しく1であるので、単純にその弱判別器によって画像が顔であるか否かが正しく判別されるサンプル画像の数が最も多いものが、最も有効な弱判別器として選択される。一方、後述するステップS15において各サンプル画像の重みが更新された後の2回目のステップS13では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップS13では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく判別されることに、より重点が置かれる。
次に、それまでに選択した弱判別器の組合せの正答率、すなわち、それまでに選択した弱判別器を組み合わせて使用して(学習段階では、弱判別器は必ずしも線形に結合させる必要はない)各サンプル画像が顔の画像であるか否かを判別した結果が、実際に顔の画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(ステップS14)。ここで、弱判別器の組合せの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した弱判別器を用いれば画像が顔であるか否かを十分に高い確率で判別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した弱判別器と組み合わせて用いるための追加の弱判別器を選択するために、ステップS16へと進む。
ステップS16では、直近のステップS13で選択された弱判別器が再び選択されないようにするため、その弱判別器が除外される。
次に、直近のステップS13で選択された弱判別器では顔であるか否かを正しく判別できなかったサンプル画像の重みが大きくされ、画像が顔であるか否かを正しく判別できたサンプル画像の重みが小さくされる(ステップS15)。このように重みを大小させる理由は、次の弱判別器の選択において、既に選択された弱判別器では正しく判別できなかった画像を重要視し、それらの画像が顔であるか否かを正しく判別できる弱判別器が選択されるようにして、弱判別器の組合せの効果を高めるためである。
続いて、ステップS13へと戻り、上記したように重み付き正答率を基準にして次に有効な弱判別器が選択される。
以上のステップS13からS16を繰り返して、顔であるか否かを判別するのに適した弱判別器として、特定のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せに対応する弱判別器が選択されたところで、ステップS14で確認される正答率が閾値を超えたとすると、顔であるか否かの判別に用いる弱判別器の種類と判別条件とが確定され(ステップS17)、これにより学習を終了する。なお、選択された弱判別器は、その重み付き正答率が高い順に線形結合され、1つの判別器が構成される。また、各弱判別器については、それぞれ得られたヒストグラムを基に、画素値の差分値の組合せに応じてスコアを算出するためのスコアテーブルが生成される。なお、ヒストグラム自身をスコアテーブルとして用いることもでき、この場合、ヒストグラムの判別ポイントがそのままスコアとなる。
このようにして、顔サンプル画像群と非顔サンプル画像群とを用いた学習により、判別器が生成されるわけであるが、上記の第1から第4の判別器341〜344のように、判別したい顔の状態が異なる複数の判別器を生成するには、各顔の状態に応じた顔サンプル画像群を用意し、その顔サンプル画像群と非顔サンプル画像群とを用いた学習を顔サンプル画像群の種類毎に行うこととなる。
すなわち、本実施形態においては、顔全体を表す複数の全体顔サンプル画像からなる全体顔サンプル画像群、右遮蔽顔を表す複数の右遮蔽顔サンプル画像からなる右遮蔽顔サンプル画像群、左遮蔽顔を表す複数の左遮蔽顔サンプル画像からなる左遮蔽顔サンプル画像群、上遮蔽顔を表す複数の上遮蔽顔サンプル画像からなる上遮蔽顔サンプル画像群、および、下遮蔽顔を表す複数の下遮蔽顔サンプル画像からなる下遮蔽顔サンプル画像群をそれぞれ用意する。なお、このような所定の一部が遮蔽された遮蔽顔サンプル画像は、全体顔サンプル画像から所定方向に所定量だけずれた位置において、この全体顔サンプル画像と同じ大きさの枠で切り出すことにより得ることができる。
図9は、全体顔サンプル画像から所定方向に所定量だけずれた位置において、全体顔サンプル画像と同サイズの枠で切り出すことにより、所定の一部が遮蔽された遮蔽顔サンプル画像を得る様子を示した図である。図9に示すように、例えば、右遮蔽顔サンプル画像SRを得るには、全体顔サンプル画像SNをそのサンプル画像から右側(サンプル画像から見て左側)に1/4dずれた位置において、このサンプル画像と同サイズの枠で切り出すようにする。このようにすることで、顔の右目から外側に相当する全体顔サンプル画像の1/4の領域が遮蔽された右遮蔽顔サンプル画像SRを得ることができる。同様に、全体顔サンプル画像SNをそのサンプル画像から左側(サンプル画像から見て右側)に1/4dずれた位置、下側に1/4dずれた位置の各位置において同サイズの枠で切り出すことにより、顔の左目から外側に相当する全体顔サンプル画像SNの1/4の領域が遮蔽された左遮蔽顔サンプル画像SL、顔の両目から上側に相当する全体顔サンプル画像の1/4の領域が遮蔽された上遮蔽顔サンプル画像SUがそれぞれ得られる。
全体顔サンプル画像群および各遮蔽顔サンプル画像群が得られたら、顔サンプル画像群の種類毎に、その顔サンプル画像群と非顔サンプル画像群とを用いて、上記の学習を行うことにより、第1から第4の判別器341〜344を生成することができる。
このような遮蔽顔サンプル画像群を用いた学習によって生成された第2から第4の判別器342〜344は、顔の一部が遮蔽された遮蔽顔の特徴を学習したものなので、顔全体が現れていないために顔全体の特徴を学習した第1の判別器341では判別が難しいような画像に対しても、判別が可能である。
図10は遮蔽顔を表す画像とその遮蔽顔を判別するのに適用可能な判別器との対応関係の例を示した図である。図10に示すように、例えば、集合写真の画像等で前列の他人の頭部が後列の人の顔の右側部に重なって遮蔽された画像SQ1のように顔の右側の特徴を充分に捉えることができないような画像に対しては、顔の右側が遮蔽されたサンプル画像で学習された第2の判別器342を適用して判別が可能であり、また、サングラスをかけた人の顔を表す画像SQ2のように両目の特徴を十分に捉えることができないような画像に対しては、顔の上側が遮蔽されたサンプル画像で学習された第4の判別器344を適用して判別が可能である。
なお、上記の学習手法を採用する場合において、弱判別器は、特定のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せを用いて顔の画像と顔でない画像とを判別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図8の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。
また、学習の方法としては上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。
重複検出判定部40は、顔検出部30によって検出された真の顔画像S2の位置情報に基づいて、解像度画像群S1′の各解像度画像上で検出された顔画像のうち同一の顔を表す画像、すなわち重複して検出された顔画像をそれぞれ1つの顔画像としてまとめる処理を行い、入力画像S0において検出された真の顔画像S3を出力する。判別器は、学習方法にもよるが、一般的に部分画像Wのサイズに対して検出できる顔の大きさにはある程度幅があるので、解像度レベルが隣接する複数の解像度画像において、同一の顔を表す画像が重複して検出される場合があるからである。
なお、本実施形態において、サブウィンドウ設定部33は本発明の部分画像切出し手段として機能し、判別器群34は本発明の判別手段として機能する。
次に、顔検出システム1における処理の流れについて説明する。
図11は、上記顔検出システムにおける処理の流れを示したフローチャートである。図11に示すように、多重解像度化部10に入力画像S0が供給されると(ステップS21)、この入力画像S0の画像サイズが所定のサイズに変換された画像S0′が生成され、この画像S0′から2の−1/3乗倍ずつサイズ(解像度)が縮小された複数の解像度画像からなる解像度画像群S1が生成される(ステップS22)。そして、正規化部20において、解像度画像群S1の各々に対し、画像全体のコントラストのばらつきを抑制する正規化処理を施し、正規化済みの解像度画像群S1′が得られる(ステップS23)。顔検出部30においては、検出制御部31からの指示を受けた解像度画像選択部32により、解像度画像群S1′の中から画像サイズの小さい順、すなわち、S1′_n,S1′_n−1,・・・,S1′_1の順に所定の解像度画像S1′_iを選択する(ステップS24)。次に検出制御部31が、サブウィンドウ設定部33に対して、サブウィンドウ設定条件を設定する。これにより、サブウィンドウ設定部33は、解像度画像S1′_i上でサブウィンドウを走査しながら設定して所定サイズの部分画像Wを順次切り出し(ステップS25)、その部分画像Wを判別器群34へ入力する(ステップS26)。判別器群34は、入力された部分画像Wが、遮蔽状態が異なる上記4種類の顔のいずれかを表す画像であるか否かを判別し、検出制御部31がその判別結果Rを取得する(ステップS27)。そして、検出制御部31は、現在切り出された部分画像Wが最後の順番に位置する部分画像であるか否かを判定し(ステップS28)、部分画像Wが最後の部分画像であると判定された場合には、次のステップS29へ移行し、部分画像Wが最後の部分画像でないと判定された場合には、ステップS25に戻って新たな部分画像Wが切り出される。このようにして解像度画像S1′_iについての顔画像を検出する。
1つの解像度画像における顔画像の検出が終了すると、検出制御部31は、現在選択されている解像度画像S1′_iが最後の順番に位置する画像であるか否かを判定し(ステップS28)、最後の解像度画像であると判定された場合には、検出処理を終了し、重複検出判定に移行する(ステップS29)。一方、最後の解像度画像ではないと判定された場合には、ステップS24に戻り、解像度画像選択部32により、現在選択されている解像度画像S1′_iより1段階サイズが大きい解像度画像S1′_i−1が選択され、さらに顔画像の検出が実行される。
このように、ステップS24からS29までの処理を繰り返すことにより、各解像度画像における顔画像S2を、一部が遮蔽された顔を含めて検出することができる。図12は、解像度画像がサイズの小さい順に選択されて顔検出が実施される様子を示した図である。
ステップS30では、重複検出判定部40により、真の顔画像S2のうち重複して検出された顔画像をそれぞれ1つの顔画像としてまとめる処理を行い、入力画像S0において検出された真の顔画像S3を出力する。
このように、本発明の実施形態に係る顔検出システムによれば、入力画像上で切り出された部分画像が検出対象である顔であるか否かを判別する際に、判別すべき画像が顔の全体を表す画像である判別器(第1の判別器)と、判別すべき画像が一部が遮蔽された顔を表す画像である他の判別器(第2の判別器)とを用いて判別するので、第1の判別器では判別が難しい一部が遮蔽された顔は第2の判別器をもって判別することができ、従来、何らかの理由で顔の一部が遮蔽されて顔全体の特徴が見出させないために検出できなかった顔であっても、的確に検出することが可能となる。
以上、本発明の実施形態に係る顔検出システムについて説明したが、この顔検出システムのうちの本発明の対象物検出装置に対応する部分における各処理をコンピュータに実行させるためのプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取可能な記録媒体も、本発明の実施形態の1つである。
顔検出システムの構成を示すブロック図 入力画像の多重解像度化の工程を示す図 判別器の構成を示すブロック図 判別器における処理フローを示す図 弱判別器における特徴量の算出を説明するための図 判別器の学習方法を示すフローチャート 目の位置が所定の位置にくるように規格化された顔のサンプル画像を示す図 サンプル画像からヒストグラムが生成される様子を示す図 所定の一部が遮蔽された遮蔽顔サンプル画像を得る様子を示す図 遮蔽顔の画像とその遮蔽顔の判別に適用可能な判別器との対応関係の例を示す図 顔検出システムにおける処理の流れを示すフローチャート 顔検出対象となる解像度画像の切替えとその画像上でのサブウィンドウの移動を説明するため図
符号の説明
1 顔検出システム
10 多重解像度化部
20 正規化部
30 顔検出部
31 検出制御部
32 解像度画像選択部
33 サブウィンドウ設定部(部分画像切出し手段)
34 判別器群(判別手段)
341〜344 判別器
40 重複検出判定部
WC 弱判別器

Claims (15)

  1. 入力画像における所定の対象物を検出する対象物検出方法であって、
    前記所定の対象物の全体を表す複数の異なる所定の大きさのサンプル画像からなる全体サンプル画像群と、少なくとも1種類の、所定の一部が遮蔽された前記所定の対象物を表すサンプル画像からなる遮蔽サンプル画像群とを含む複数のサンプル画像群を取得し、
    該サンプル画像群毎に、該サンプル画像が表す前記所定の対象物の画像上の特徴をマシンラーニングの手法により学習させて、判別対象画像が前記所定の対象物の全体を表す画像であるか否かを判別する判別器と、判別対象画像が所定の一部が遮蔽された前記所定の対象物を表す画像であるか否かを判別する少なくとも1種類の判別器とを含む複数の判別器を生成して用意するステップと、
    前記入力画像上の複数の異なる位置で前記所定の大きさの部分画像を切り出すステップと、
    前記部分画像の各々に対して、該部分画像を前記判別対象画像として前記複数の判別器のうち少なくとも1つを適用することにより、該部分画像が前記所定の対象物の全体を表す画像および所定の一部が遮蔽された前記所定の対象物を表す画像のうちのいずれかであるか否かを判別するステップとを有することを特徴とする対象物検出方法。
  2. 前記遮蔽サンプル画像群が、前記全体サンプル画像群を構成する各サンプル画像を、該サンプル画像から所定方向に所定量だけずれた位置において、該サンプル画像と同じ大きさの枠で切り出すことにより得られたものであることを特徴とする請求項1記載の対象物検出方法。
  3. 前記所定方向が、前記サンプル画像に対して水平方向または垂直方向であり、
    前記所定量が、前記所定の対象物の幅の1/3から1/5の間の長さであることを特徴とする請求項2記載の対象物検出方法。
  4. 前記所定の対象物が、目、鼻、口を含む顔であり、
    前記所定の一部が、目または口の一部であることを特徴とする請求項1、2または3記載の対象物検出方法。
  5. 前記マシンラーニングの手法が、ブースティングであることを特徴とする請求項1から4いずれか記載の対象物検出方法。
  6. 入力画像における所定の対象物を検出する対象物検出装置であって、
    前記所定の対象物の全体を表す複数の異なる所定の大きさのサンプル画像からなる全体サンプル画像群と、少なくとも1種類の、所定の一部が遮蔽された前記所定の対象物を表すサンプル画像からなる遮蔽サンプル画像群とを含む複数のサンプル画像群を取得し、
    該サンプル画像群毎に、該サンプル画像が表す前記所定の対象物の画像上の特徴をマシンラーニングの手法により学習させて、判別対象画像が前記所定の対象物の全体を表す画像であるか否かを判別する判別器と、判別対象画像が所定の一部が遮蔽された前記所定の対象物を表す画像であるか否かを判別する少なくとも1種類の判別器とを生成して得られた複数の判別器と、
    前記入力画像上の複数の異なる位置で前記所定の大きさの部分画像を切り出す部分画像切出し手段と、
    前記部分画像の各々に対して、該部分画像を前記判別対象画像として前記複数の判別器のうち少なくとも1つを適用することにより、該部分画像が前記所定の対象物の全体を表す画像および所定の一部が遮蔽された前記所定の対象物を表す画像のうちのいずれかであるか否かを判別する判別手段とを備えたことを特徴とする対象物検出装置。
  7. 前記遮蔽サンプル画像群が、前記全体サンプル画像群を構成する各サンプル画像を、該サンプル画像から所定方向に所定量だけずれた位置において、該サンプル画像と同じ大きさの枠で切り出すことにより得られたものであることを特徴とする請求項6記載の対象物検出装置。
  8. 前記所定方向が、前記サンプル画像に対して水平方向または垂直方向であり、
    前記所定量が、前記所定の対象物の幅の1/3から1/5の間の長さであることを特徴とする請求項7記載の対象物検出装置。
  9. 前記所定の対象物が、目、鼻、口を含む顔であり、
    前記所定の一部が、目または口の一部であることを特徴とする請求項6、7または8記載の対象物検出装置。
  10. 前記マシンラーニングの手法が、ブースティングであることを特徴とする請求項6から9いずれか記載の対象物検出装置。
  11. コンピュータを、入力画像における所定の対象物を検出する対象物検出手段として機能させるためのプログラムであって、
    該コンピュータを、
    前記所定の対象物の全体を表す複数の異なる所定の大きさのサンプル画像からなる全体サンプル画像群と、少なくとも1種類の、所定の一部が遮蔽された前記所定の対象物を表すサンプル画像からなる遮蔽サンプル画像群とを含む複数のサンプル画像群を取得し、
    該サンプル画像群毎に、該サンプル画像が表す前記所定の対象物の画像上の特徴をマシンラーニングの手法により学習させて、判別対象画像が前記所定の対象物の全体を表す画像であるか否かを判別する判別器と、判別対象画像が所定の一部が遮蔽された前記所定の対象物を表す画像であるか否かを判別する少なくとも1種類の判別器とを生成して得られた複数の判別器と、
    前記入力画像上の複数の異なる位置で前記所定の大きさの部分画像を切り出す部分画像切出し手段と、
    前記部分画像の各々に対して、該部分画像を前記判別対象画像として前記複数の判別器のうち少なくとも1つを適用することにより、該部分画像が前記所定の対象物の全体を表す画像および所定の一部が遮蔽された前記所定の対象物を表す画像のうちのいずれかであるか否かを判別する判別手段として機能させるためのプログラム。
  12. 前記遮蔽サンプル画像群が、前記全体サンプル画像群を構成する各サンプル画像を、該サンプル画像から所定方向に所定量だけずれた位置において、該サンプル画像と同じ大きさの枠で切り出すことにより得られたものであることを特徴とする請求項11記載のプログラム。
  13. 前記所定方向が、前記サンプル画像に対して水平方向または垂直方向であり、
    前記所定量が、前記所定の対象物の幅の1/3から1/5の間の長さであることを特徴とする請求項12記載のプログラム。
  14. 前記所定の対象物が、目、鼻、口を含む顔であり、
    前記所定の一部が、目または口の一部であることを特徴とする請求項11、12または13記載のプログラム。
  15. 前記マシンラーニングの手法が、ブースティングであることを特徴とする請求項11から14いずれか記載のプログラム。
JP2005230495A 2005-08-09 2005-08-09 デジタル画像の対象物検出方法および装置並びにプログラム Active JP4708909B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005230495A JP4708909B2 (ja) 2005-08-09 2005-08-09 デジタル画像の対象物検出方法および装置並びにプログラム
US11/500,928 US20070036429A1 (en) 2005-08-09 2006-08-09 Method, apparatus, and program for object detection in digital image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005230495A JP4708909B2 (ja) 2005-08-09 2005-08-09 デジタル画像の対象物検出方法および装置並びにプログラム

Publications (2)

Publication Number Publication Date
JP2007047965A true JP2007047965A (ja) 2007-02-22
JP4708909B2 JP4708909B2 (ja) 2011-06-22

Family

ID=37742591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005230495A Active JP4708909B2 (ja) 2005-08-09 2005-08-09 デジタル画像の対象物検出方法および装置並びにプログラム

Country Status (2)

Country Link
US (1) US20070036429A1 (ja)
JP (1) JP4708909B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210009A (ja) * 2007-02-23 2008-09-11 Fujifilm Corp 画像識別装置,画像識別方法,撮像装置及び撮像方法
JP2010211460A (ja) * 2009-03-10 2010-09-24 Toyota Central R&D Labs Inc 識別モデル生成装置、対象物検出装置、及び識別モデル生成プログラム
JP2012530994A (ja) * 2009-06-29 2012-12-06 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 半顔面検出のための方法および装置
JP2013191143A (ja) * 2012-03-15 2013-09-26 Secom Co Ltd 画像処理装置
US8633999B2 (en) 2009-05-29 2014-01-21 DigitalOptics Corporation Europe Limited Methods and apparatuses for foreground, top-of-the-head separation from background
US8873859B2 (en) 2009-09-02 2014-10-28 Canon Kabushiki Kaisha Apparatus and method that determines whether a pattern within the detection window is a subject based on characteristic amounts obtained from within a first region
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
WO2016038647A1 (en) * 2014-09-11 2016-03-17 Nec Corporation Image processing device, image processing method and storage medium storing program thereof
JP2016153984A (ja) * 2015-02-20 2016-08-25 株式会社デンソーアイティーラボラトリ ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、検出装置、検出方法、および、車両

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8200044B2 (en) * 2006-01-03 2012-06-12 Broadcom Corporation Image analyser and adaptive image scaling circuit and methods
US8009900B2 (en) * 2006-09-28 2011-08-30 Siemens Medical Solutions Usa, Inc. System and method for detecting an object in a high dimensional space
US8068654B2 (en) * 2007-02-02 2011-11-29 Siemens Akteingesellschaft Method and system for detection and registration of 3D objects using incremental parameter learning
JP2008217589A (ja) * 2007-03-06 2008-09-18 Toshiba Corp 学習装置及びパターン認識装置
DE102007050568A1 (de) * 2007-08-04 2009-02-05 Continental Teves Ag & Co. Ohg Verfahren und Einrichtung zur Objekterkennung in einem Bild
JP5517504B2 (ja) * 2009-06-29 2014-06-11 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2011090569A (ja) * 2009-10-23 2011-05-06 Sony Corp 画像処理装置および画像処理方法
CN101937510B (zh) * 2010-09-14 2015-05-20 南京信息工程大学 基于类Haar和AdaBoost分类器的快速增量学习方法
JP5742267B2 (ja) * 2011-02-08 2015-07-01 富士ゼロックス株式会社 画像処理プログラム及び画像処理装置
CN107967667A (zh) * 2017-12-21 2018-04-27 广东欧珀移动通信有限公司 素描的生成方法、装置、终端设备和存储介质
CN107992859A (zh) * 2017-12-28 2018-05-04 华慧视科技(天津)有限公司 一种基于人脸检测的切图方法
WO2022077139A1 (zh) * 2020-10-12 2022-04-21 鸿富锦精密工业(武汉)有限公司 人脸识别方法、装置及可读存储介质
KR102598322B1 (ko) * 2021-11-05 2023-11-02 연세대학교 산학협력단 안구 운동 측정 장치 및 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04264985A (ja) * 1991-02-20 1992-09-21 Hamamatsu Photonics Kk 画像認識システム
JPH0573521A (ja) * 1991-09-11 1993-03-26 Sharp Corp パーセプトロン型ニユーラルネツトワーク及びこれを使用した画像照合装置
JPH06231257A (ja) * 1993-02-02 1994-08-19 Nec Corp 学習データ生成装置
JPH07192097A (ja) * 1993-12-27 1995-07-28 Nec Corp 文字認識装置およびその方法
JP2003323622A (ja) * 2002-02-27 2003-11-14 Nec Corp 画像認識システム及びその認識方法並びにプログラム
JP2004334836A (ja) * 2003-04-14 2004-11-25 Fuji Photo Film Co Ltd 画像の特徴部分抽出方法及び特徴部分抽出プログラム並びに撮像装置と画像処理装置
JP2005039424A (ja) * 2003-07-17 2005-02-10 Omron Corp ホームセキュリティシステム
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP2005108195A (ja) * 2003-09-09 2005-04-21 Fuji Photo Film Co Ltd 対象物識別装置および方法並びにプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5828769A (en) * 1996-10-23 1998-10-27 Autodesk, Inc. Method and apparatus for recognition of objects via position and orientation consensus of local image encoding
JP4387552B2 (ja) * 2000-04-27 2009-12-16 富士通株式会社 画像照合処理システム
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US7050607B2 (en) * 2001-12-08 2006-05-23 Microsoft Corp. System and method for multi-view face detection
US7203346B2 (en) * 2002-04-27 2007-04-10 Samsung Electronics Co., Ltd. Face recognition method and apparatus using component-based face descriptor
US7542592B2 (en) * 2004-03-29 2009-06-02 Siemesn Corporate Research, Inc. Systems and methods for face detection and recognition using infrared imaging
KR100682906B1 (ko) * 2004-12-09 2007-02-15 삼성전자주식회사 부스트 알고리즘을 이용한 영상의 얼굴 검출 장치 및 방법
KR100695136B1 (ko) * 2005-01-04 2007-03-14 삼성전자주식회사 영상의 얼굴검출장치 및 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04264985A (ja) * 1991-02-20 1992-09-21 Hamamatsu Photonics Kk 画像認識システム
JPH0573521A (ja) * 1991-09-11 1993-03-26 Sharp Corp パーセプトロン型ニユーラルネツトワーク及びこれを使用した画像照合装置
JPH06231257A (ja) * 1993-02-02 1994-08-19 Nec Corp 学習データ生成装置
JPH07192097A (ja) * 1993-12-27 1995-07-28 Nec Corp 文字認識装置およびその方法
JP2003323622A (ja) * 2002-02-27 2003-11-14 Nec Corp 画像認識システム及びその認識方法並びにプログラム
JP2004334836A (ja) * 2003-04-14 2004-11-25 Fuji Photo Film Co Ltd 画像の特徴部分抽出方法及び特徴部分抽出プログラム並びに撮像装置と画像処理装置
JP2005039424A (ja) * 2003-07-17 2005-02-10 Omron Corp ホームセキュリティシステム
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP2005108195A (ja) * 2003-09-09 2005-04-21 Fuji Photo Film Co Ltd 対象物識別装置および方法並びにプログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210009A (ja) * 2007-02-23 2008-09-11 Fujifilm Corp 画像識別装置,画像識別方法,撮像装置及び撮像方法
JP2010211460A (ja) * 2009-03-10 2010-09-24 Toyota Central R&D Labs Inc 識別モデル生成装置、対象物検出装置、及び識別モデル生成プログラム
US8633999B2 (en) 2009-05-29 2014-01-21 DigitalOptics Corporation Europe Limited Methods and apparatuses for foreground, top-of-the-head separation from background
JP2012530994A (ja) * 2009-06-29 2012-12-06 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 半顔面検出のための方法および装置
US8605955B2 (en) 2009-06-29 2013-12-10 DigitalOptics Corporation Europe Limited Methods and apparatuses for half-face detection
US8873859B2 (en) 2009-09-02 2014-10-28 Canon Kabushiki Kaisha Apparatus and method that determines whether a pattern within the detection window is a subject based on characteristic amounts obtained from within a first region
US8977056B2 (en) 2010-07-26 2015-03-10 Fotonation Limited Face detection using division-generated Haar-like features for illumination invariance
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
JP2013191143A (ja) * 2012-03-15 2013-09-26 Secom Co Ltd 画像処理装置
WO2016038647A1 (en) * 2014-09-11 2016-03-17 Nec Corporation Image processing device, image processing method and storage medium storing program thereof
JP2017527040A (ja) * 2014-09-11 2017-09-14 日本電気株式会社 画像処理装置、画像処理方法およびそのプログラムを記憶する記憶媒体
US10878582B2 (en) 2014-09-11 2020-12-29 Nec Corporation Image processing device, image processing method and storage medium storing program for tracking an object
JP2016153984A (ja) * 2015-02-20 2016-08-25 株式会社デンソーアイティーラボラトリ ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、検出装置、検出方法、および、車両

Also Published As

Publication number Publication date
JP4708909B2 (ja) 2011-06-22
US20070036429A1 (en) 2007-02-15

Similar Documents

Publication Publication Date Title
JP4708909B2 (ja) デジタル画像の対象物検出方法および装置並びにプログラム
JP4628882B2 (ja) 判別器の学習方法、顔判別方法および装置並びにプログラム
CN108446617B (zh) 抗侧脸干扰的人脸快速检测方法
JP4619927B2 (ja) 顔検出方法および装置並びにプログラム
JP4624889B2 (ja) 顔検出方法および装置並びにプログラム
JP4744918B2 (ja) 顔検出方法および装置並びにプログラム
JP4712563B2 (ja) 顔検出方法および装置並びにプログラム
JP4657934B2 (ja) 顔検出方法および装置並びにプログラム
JP4640825B2 (ja) 特定向き顔判定方法および装置並びにプログラム
JP6330385B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4708948B2 (ja) 顔向き特定方法、顔判別方法および装置並びにプログラム
JP4588575B2 (ja) デジタル画像の複数対象物検出方法および装置並びにプログラム
JP4757598B2 (ja) 顔検出方法および装置並びにプログラム
US20050271245A1 (en) Specified object detection apparatus
JP2005157679A (ja) 対象物検出装置及び方法、並びに集団学習装置及び方法
WO2014074959A1 (en) Real-time face detection using pixel pairs
JP4795864B2 (ja) 特徴点検出装置および方法並びにプログラム
JP5317934B2 (ja) オブジェクト検出装置および方法並びにプログラム
JP2011170890A (ja) 顔検出方法および装置並びにプログラム
JP4749879B2 (ja) 顔判別方法および装置並びにプログラム
JP4657930B2 (ja) 顔検出方法および装置並びにプログラム
JP4749884B2 (ja) 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
JP4795737B2 (ja) 顔検出方法および装置並びにプログラム
JP2006244385A (ja) 顔判別装置およびプログラム並びに顔判別装置の学習方法
JP2007011935A (ja) 顔判別方法および装置並びにプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110317

R150 Certificate of patent or registration of utility model

Ref document number: 4708909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250