JP2007213182A - 対象物状態認識方法および装置並びにプログラム - Google Patents

対象物状態認識方法および装置並びにプログラム Download PDF

Info

Publication number
JP2007213182A
JP2007213182A JP2006030579A JP2006030579A JP2007213182A JP 2007213182 A JP2007213182 A JP 2007213182A JP 2006030579 A JP2006030579 A JP 2006030579A JP 2006030579 A JP2006030579 A JP 2006030579A JP 2007213182 A JP2007213182 A JP 2007213182A
Authority
JP
Japan
Prior art keywords
state
image
discriminator
predetermined object
discriminators
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006030579A
Other languages
English (en)
Inventor
Yoshitaka Yamaguchi
義隆 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006030579A priority Critical patent/JP2007213182A/ja
Priority to US11/703,139 priority patent/US8331631B2/en
Publication of JP2007213182A publication Critical patent/JP2007213182A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees

Abstract

【課題】時系列画像におけるオブジェクトの状態を高効率あるいは高信頼度で認識する。
【解決手段】あるオブジェクト(例えば顔)の状態(例えば向き)別に用意された複数種類の状態判別器を用いて、時系列画像におけるそのオブジェクトの状態を認識する際に、いずれの画像に対しても複数種類の状態判別器を所定の同じ順序で繰り返し適用してゆくのではなく、その時系列画像における過去の認識結果を用いて、そのオブジェクトのこれまでの段階的な変化を求め、その段階的な変化に基づいて、認識処理の対象となっている画像におけるそのオブジェクトの状態を予測し、予測した状態に対応する状態判別器を他の状態判別器に比して優先し、あるいは重みを置いて適用する。
【選択図】図17

Description

本発明は、所定の対象物を含むデジタルの時系列画像、例えば、動画用の複数のフレーム画像における当該対象物の状態を、複数種類の状態判別器を用いて状態判別することにより認識する対象物状態認識方法および装置並びにそのためのプログラムに関するものである。
従来、デジタル画像(以下、単に画像という)に含まれる所定の対象物(オブジェクト)の状態を認識する方法が種々提案されている。
例えば、特許文献1においては、所定の対象物を人物の顔、その対象物の状態を顔の向きとして、顔の向き毎に顔のテンプレートを用意し、これら複数のテンプレートのマッチングにより、画像に含まれる顔の向きを認識する方法が提案されている。
また例えば、非特許文献1においては、特許文献1と同様、所定の対象物を人物の顔、その対象物の状態を顔の向きとして、学習サンプルを用いた学習によって生成された、判別対象画像が所定の方向を向いた顔を含む画像である否かを判別する判別器を顔の向き毎に用意し、これら複数の判別器による判別結果から、画像に含まれる顔の向きを認識する方法が提案されている。
特開2004−259215号公報 「高速全方向顔検出」,Shihong LAO他,画像の認識・理解シンポジウム(MIRU2004),2004年7月,P.II-271−II-276
ところで、前記の画像認識方法は、いずれも、主に静止画像における所定の対象物の状態を認識することを想定したものである。したがって、動画撮影等により取得された複数のフレーム画像に代表される時系列画像の各々において、時系列的に連続して所定の対象物の状態の認識を行う場合には、各画像に対し毎回同じ処理を実行することとなる。
しかしながら、実際には、時系列的に近接する各画像間で所定の対象物の状態の相関関係が存在しており、その相関関係を無視した前記の方法では、効率が悪く認識に時間がかかり、特にリアルタイム処理に対しては大きな時間的制約が生じ好ましくない。
本発明は、上記事情に鑑みてなされたものであり、時系列画像に含まれる所定の対象物の状態を効率よく認識することが可能な対象物状態認識方法および装置並びにそのためのプログラムを提供することを目的とするものである。
本発明の対象物状態認識方法は、判別対象画像が、所定の状態にある所定の対象物を含む画像であるか否かを、前記状態別にそれぞれ判別する複数種類の状態判別器を用意し、前記所定の対象物の時系列画像のうち1つを取得し、該取得した画像に対して前記複数種類の状態判別器のうち少なくともいずれかを適用して、前記取得した画像がいずれかの前記状態判別器により前記所定の対象物を含む画像であると判別されたとき、前記取得した画像における前記所定の対象物が、該判別されたときの前記状態判別器に対応する状態と同じ状態にあると認識する対象物状態認識方法において、前記時系列画像のうち前記取得した画像より時系列的に前の複数の画像において既に認識された前記所定の対象物の状態に基づいて、該状態の段階的な変化を求め、該段階的な変化から前記取得した画像における前記所定の対象物の状態を少なくとも1つ予測し、前記取得した画像に前記状態判別器を適用する際に、前記複数種類の状態判別器のうち前記予測された少なくとも1つの状態に対応する状態判別器を他の状態判別器より優先して適用することを特徴とするものである(第1の対象物状態認識方法)。
また、本発明の対象物状態認識方法は、判別対象画像が、所定の状態にある所定の対象物を含む画像であるか否かを、前記状態別にそれぞれ判別する複数種類の状態判別器を用意し、前記所定の対象物の時系列画像のうち1つを取得し、該取得した画像に対して前記複数種類の状態判別器のうち少なくともいずれかを適用して、前記取得した画像がいずれかの前記状態判別器により前記所定の対象物を含む画像であると判別されたとき、前記取得した画像における前記所定の対象物が、該判別されたときの前記状態判別器に対応する状態と同じ状態にあると認識する対象物状態認識方法において、前記状態判別器が、前記判別対象画像が前記所定の状態にある前記所定の対象物を含む画像である蓋然性を示す指標値を算出し、該指標値の閾値判定により判別するものであり、前記時系列画像のうち前記取得した画像より時系列的に前の複数の画像において既に認識された前記所定の対象物の状態に基づいて、該状態の段階的な変化を求め、該段階的な変化から前記取得した画像における前記所定の対象物の状態を少なくとも1つ予測し、前記取得した画像に前記状態判別器を適用する際に、前記複数種類の状態判別器のうち前記予測された少なくとも1つの状態に対応する状態判別器の指標値に重み付けすることを特徴とするものである(第2の対象物状態認識方法)。
本発明の対象物状態認識装置は、判別対象画像が、所定の状態にある所定の対象物を含む画像であるか否かを、前記状態別にそれぞれ判別する複数種類の状態判別器と、前記所定の対象物の時系列画像のうち1つを取得する画像取得手段と、該取得した画像に対して前記複数種類の状態判別器のうち少なくともいずれかを適用する状態判別器適用手段と、前記取得した画像が前記適用された状態判別器により前記所定の対象物を含む画像であると判別されたとき、前記取得した画像における前記所定の対象物が、該判別されたときの前記状態判別器に対応する状態と同じ状態にあると認識する状態認識手段とを備えた対象物状態認識装置において、前記時系列画像における過去の認識結果を記憶する記憶手段と、該記憶手段に記憶されている認識結果が示す、前記時系列画像のうち前記取得した画像より時系列的に前の複数の画像において既に認識された前記所定の対象物の状態に基づいて、該状態の段階的な変化を求め、該段階的な変化から前記取得した画像における前記所定の対象物の状態を少なくとも1つ予測する状態予測手段と、前記取得した画像に前記状態判別器を適用する際に、前記複数種類の状態判別器のうち前記予測された少なくとも1つの状態に対応する状態判別器を他の状態判別器より優先して適用するよう、前記状態判別器の適用順序を設定する状態判別器適用順序設定手段とを備えたことを特徴とするものである(第1の対象物状態認識装置)。
また、本発明の対象物状態認識装置は、判別対象画像が、所定の状態にある所定の対象物を含む画像であるか否かを、前記状態別にそれぞれ判別する複数種類の状態判別器と、前記所定の対象物の時系列画像のうち1つを取得する画像取得手段と、該取得した画像に対して前記複数種類の状態判別器のうち少なくともいずれかを適用する状態判別器適用手段と、前記取得した画像が前記適用された状態判別器により前記所定の対象物を含む画像であると判別されたとき、前記取得した画像における前記所定の対象物が、該判別されたときの前記状態判別器に対応する状態と同じ状態にあると認識する状態認識手段とを備えた対象物状態認識装置において、前記状態判別器が、前記判別対象画像が前記所定の状態にある前記所定の対象物を含む画像である蓋然性を示す指標値を算出し、該指標値の閾値判定により判別するものであり、前記時系列画像における過去の認識結果を記憶する記憶手段と、該記憶手段に記憶されている認識結果が示す、前記時系列画像のうち前記取得した画像より時系列的に前の複数の画像において既に認識された前記所定の対象物の状態に基づいて、該状態の段階的な変化を求め、該段階的な変化から前記取得した画像における前記所定の対象物の状態を少なくとも1つ予測する状態予測手段と、前記取得した画像に前記状態判別器を適用する際に、前記複数種類の状態判別器のうち前記予測された少なくとも1つの状態に対応する状態判別器の指標値に重み付けする指標値重み付け手段とを備えたことを特徴とするものである(第2の対象物状態認識装置)。
本発明のプログラムは、コンピュータを、判別対象画像が、所定の状態にある所定の対象物を含む画像であるか否かを、前記状態別にそれぞれ判別する複数種類の状態判別器と、前記所定の対象物の時系列画像のうち1つを取得する画像取得手段と、該取得した画像に対して前記複数種類の状態判別器のうち少なくともいずれかを適用する状態判別器適用手段と、前記取得した画像が前記適用された状態判別器により前記所定の対象物を含む画像であると判別されたとき、前記取得した画像における前記所定の対象物が、該判別されたときの前記状態判別器に対応する状態と同じ状態にあると認識する状態認識手段として機能させることにより、該コンピュータを対象物状態認識装置として機能させるためのプログラムにおいて、該コンピュータを、前記時系列画像における過去の認識結果を記憶する記憶手段と、該記憶手段に記憶されている認識結果が示す、前記時系列画像のうち前記取得した画像より時系列的に前の複数の画像において既に認識された前記所定の対象物の状態に基づいて、該状態の段階的な変化を求め、該段階的な変化から前記取得した画像における前記所定の対象物の状態を少なくとも1つ予測する状態予測手段と、前記取得した画像に前記状態判別器を適用する際に、前記複数種類の状態判別器のうち前記予測された少なくとも1つの状態に対応する状態判別器を他の状態判別器より優先して適用するよう、前記状態判別器の適用順序を設定する状態判別器適用順序設定手段として機能させるものであることを特徴とするものである(第1のプログラム)。
また、本発明のプログラムは、コンピュータを、判別対象画像が、所定の状態にある所定の対象物を含む画像であるか否かを、前記状態別にそれぞれ判別する複数種類の状態判別器と、前記所定の対象物の時系列画像のうち1つを取得する画像取得手段と、該取得した画像に対して前記複数種類の状態判別器のうち少なくともいずれかを適用する状態判別器適用手段と、前記取得した画像が前記適用された状態判別器により前記所定の対象物を含む画像であると判別されたとき、前記取得した画像における前記所定の対象物が、該判別されたときの前記状態判別器に対応する状態と同じ状態にあると認識する状態認識手段として機能させることにより、該コンピュータを対象物状態認識装置として機能させるためのプログラムにおいて、前記状態判別器が、前記判別対象画像が前記所定の状態にある前記所定の対象物を含む画像である蓋然性を示す指標値を算出し、該指標値の閾値判定により判別するものであり、該コンピュータを、前記時系列画像における過去の認識結果を記憶する記憶手段と、該記憶手段に記憶されている認識結果が示す、前記時系列画像のうち前記取得した画像より時系列的に前の複数の画像において既に認識された前記所定の対象物の状態に基づいて、該状態の段階的な変化を求め、該段階的な変化から前記取得した画像における前記所定の対象物の状態を少なくとも1つ予測する状態予測手段と、前記取得した画像に前記状態判別器を適用する際に、前記複数種類の状態判別器のうち前記予測された少なくとも1つの状態に対応する状態判別器の指標値に重み付けする指標値重み付け手段として機能させることを特徴とするものである(第2のプログラム)。
本発明において、前記所定の対象物は顔であり、前記状態は、目の瞬きの過程におけるフェーズ、人物が笑う過程におけるフェーズ、および顔の向きのいずれかであってもよい。また、前記所定の対象物は人物であり、前記状態は、手を上げる過程におけるフェーズ、歩く過程におけるフェーズのいずれかであってもよい。また、前記所定の対象物をドアとし、前記状態を開閉過程におけるフェーズであってもよい。
ここで、対象物とは、画像処理の分野におけるいわゆるオブジェクトと同義である。
また、時系列画像とは、動画撮影や連写撮影によって取得された、時間軸方向に並んだ複数の画像のことを意味するものである。
また、予測された少なくとも1つの状態に対応する状態判別器の指標値に重み付けするとは、他の状態判別器が算出する指標値に比して、前記対応する状態判別器が算出する指標値を相対的に増加させたり、あるいは、他の状態判別器における閾値判定の基準である閾値に比して、前記対応する状態判別器における閾値判定の基準である閾値を相対的に下げたりすることを意味する。
また、顔の向きとは、アウトプレーン(out-plane;画像面外)方向での顔の向きを意味し、別の言い方をすれば、左右首振り方向における顔の向きを意味するものである。
状態判別器は、所定の対象物を含む複数の異なるサンプル画像を用いたマシンラーニングの手法によって学習、生成されたものを考えることができる。なお、マシンラーニングの手法としては、例えば、ニューラルネットワーク、ブースティング等の手法が考えられるが、本発明においては、ブースティングが好ましい。
本発明の対象物状態認識方法および装置並びにそのためのプログラムによれば、所定の対象物の状態別に用意された複数種類の状態判別器を用いて、時系列画像における所定の対象物の状態を認識する際に、いずれの画像に対しても複数種類の状態判別器を所定の同じ順序で繰り返し適用してゆくのではなく、その時系列画像における過去の認識結果を用いて、その所定の対象物のこれまでの段階的な変化を求め、その段階的な変化に基づいて、認識処理の対象となっている画像におけるその対象物の状態を予測し、予測した状態に対応する状態判別器を他の状態判別器に優先して適用するので、認識処理の対象となっている画像におけるその対象物の状態をより早い段階で認識することができ、時系列画像に含まれる所定の対象物の状態を効率よく認識することが可能となる。
また、本発明の対象物状態認識方法および装置並びにそのためのプログラムによれば、判別対象画像が所定の状態にある所定の対象物を含む画像であるか否かを指標値の閾値判定により判別する、状態別に用意された複数種類の状態判別器を用いて、時系列画像における所定の対象物の状態を認識する際に、いずれの判別器においても算出された指標値をそのまま用いて閾値判定するのではなく、その時系列画像における過去の認識結果を用いてその所定の対象物のこれまでの段階的な変化を求め、その段階的な変化に基づいて、認識処理の対象となっている画像におけるその対象物の状態を予測し、予測した状態に対応する状態判別器の指標値に重み付けをするので、認識処理の対象となっている画像におけるその対象物の状態を、認識される確率の高さを考慮した閾値判定により判別して認識することができ、時系列画像に含まれる所定の対象物の状態を高い信頼性を持って認識することが可能となる。
以下、本発明の実施形態について図を参照しながら説明する。
図1は本発明の実施形態である顔向き認識システム1の構成を示す概略ブロック図である。この顔向き認識システム1は、図1に示すように、判別対象画像が、所定の向きの顔を含む画像であるか否かを、顔の向き別にそれぞれ判別する複数種類の判別器(状態判別器)10a〜10mと、顔の時系列画像である複数のフレームのうち1つを取得するフレーム画像取得部(画像取得手段)20と、取得したフレームを正規化する画像正規化部30と、取得したフレームに対して前記複数種類の判別器のうち少なくとも1つを適用する判別器適用部(状態判別器適用手段)40と、適用した判別器の判別結果に基づいて取得したフレームにおける顔の向きを認識する顔向き認識部(状態認識手段)50と、前記時系列画像における過去の認識結果を記憶するメモリ(記憶手段)60と、過去の認識結果から取得したフレームにおける顔の向きを予測する顔向き予測部(状態予測手段)70と、判別器を適用する際に、予測された顔の向きに対応する判別器を他の判別器より優先して適用するように判別器の適用順序を設定する判別器適用順序設定部(状態判別器適用順序設定手段)80と、判別器を適用する際に、予測された顔の向きに対応する判別器を重視するように、判別器が判別に用いる指標値の重み付け係数を設定する重み付け係数設定部(指標値重み付け手段)90とを備えている。すなわち、本顔向き認識システムは、図17に示すように、時系列画像における所定の対象物(オブジェクト)である顔の向きが段階的に変化する場合において、複数種類の判別器を用いてその顔の向きを時系列画像毎に順次認識するものであって、過去の認識結果である顔の向きの段階的な変化から、現在の認識対象である画像における顔の向きを予測し、その予測結果を利用して、判別器による判別器の効率を高め、また、判別器による判別の信頼度を高めるものである。
判別器10a〜10mは、判別対象画像が所定の向きの顔を含む画像であるか否かを、顔の向き別にそれぞれ判別する複数種類の判別器であり、具体的には、正面の向きを角度の基準(0°)として−90°(左横)から+90°(右横)までを15°刻みで区切った計13通りの顔の向きについて、それぞれ判別する13個の判別器である。これらの判別器は、それぞれ、図2に示すように、各判別器に応じた所定の向きの顔を含む複数のサンプル画像を用いたマシンラーニングの手法、例えばブースティングにより、その所定の向きの顔の特徴を学習してなるものであり、判別対象画像の画像パターンに基づいて各判別器に固有の特徴量を算出し、その特徴量からその判別対象画像が各判別器に応じた所定の向きの顔を含む画像である蓋然性を示すスコアsc(指標値)を算出し、そのスコアscが所定の閾値Th1以上であるときに、その判別対象画像をその所定の向きの顔を含む画像であると判別するものである。
ここで、各判別器の構成、判別器における処理の流れおよび判別器の学習方法について説明する。
判別器は、後述の学習により多数の弱判別器WCの中から選定された判別に有効な複数の弱判別器WCを有している。弱判別器WCは、それぞれ、判別対象画像Wから弱判別器WC毎に固有の所定のアルゴリズムにしたがって特徴量を算出し、その特徴量と所定のスコアテーブルとしての後述の自己のヒストグラムとに基づいて、判別対象画像Wが所定の向きの顔を含む画像である蓋然性を示すスコアscwを求めるものである。判別器は、これら複数の弱判別器WCから得られた個々のスコアscwを合算してスコアscを求め、このスコアscが閾値Th1以上であるときに、判別対象画像Wをその所定の向きの顔を含む画像として判別する。
図3は1つの判別器における処理の流れを示すフローチャートである。判別対象画像Wが判別器に入力されると、複数の弱判別器WCにおいてそれぞれ種類の異なる特徴量xが算出される(ステップST11)。例えば、図4に示すように、所定のサイズ、例えば、32×32画素サイズの判別対象画像Wに対して、4近傍画素平均(画像を2×2画素サイズ毎に複数のブロックに区分し、各ブロックの4画素における画素値の平均値をそのブロックに対応する1つの画素の画素値とする処理)を段階的に行うことにより、16×16画素サイズに縮小した画像W′と、8×8画素サイズに縮小した画像W″を得、もとの画像Wを含めたこれら3つの画像の平面内に設定される所定の2点を1ペアとして、複数種類のペアからなる1つのペア群を構成する各ペアにおける2点間の画素値(輝度)の差分値をそれぞれ計算し、これらの差分値の組合せを特徴量とする。各ペアの所定の2点は、例えば、画像上の顔の濃淡の特徴が反映されるよう決められた縦方向に並んだ所定の2点や、横方向に並んだ所定の2点とする。そして、特徴量である差分値の組合せに対応する値をxとして算出する。次に、その値xに応じて所定のスコアテーブル(自己のヒストグラム)から判別対象画像Wが判別すべき顔(例えば、判別器10dの場合には「顔の向きが−45°の向きである顔」)を含む画像である蓋然性を示すスコアscwが弱判別器毎に算出される(ステップST12)。そして、弱判別器毎に算出された個々のスコアscwを合算してスコアscが得られ(ステップST13)、このスコアscが閾値Th1以上であるか否かを判定し(ステップST14)、肯定される場合に、その判別対象画像Wを、この判別器が判別すべき所定の向きの顔を含む画像として判別する(ステップST15)。
次に、判別器の学習(生成)方法について説明する。
図5は判別器の学習方法を示すフローチャートである。判別器の学習には、所定のサイズ、例えば32×32画素サイズで規格化され、さらに、後述の画像正規化部30による正規化処理と同様の処理が施された複数のサンプル画像を用いる。サンプル画像としては、判別器が判別すべき所定の向きの顔が含まれる複数の異なる顔サンプル画像(顔サンプル画像群)と、顔が含まれていない複数の異なる非顔サンプル画像(非顔サンプル画像群)とを用意する。
顔サンプル画像群は、1つの顔サンプル画像につき、縦および/または横を0.7倍から1.2倍の範囲にて0.1倍単位で段階的に拡縮して得られる各サンプル画像に対し、平面上±15°の範囲にて3°単位で段階的に回転させて得られる複数の変形バリエーションを用いる。これにより、顔の傾きや顔の形状の変化に許容度を有する判別器を生成することができる。すなわち、判別器が判別可能な顔の傾きや形状にある程度の幅をもたせることができる。
なおこのとき、顔サンプル画像は、目の位置が所定の位置に来るように顔のサイズと位置を規格化し、前記の平面上の回転、拡縮は目の位置を基準として行うようにする。例えば、d×dサイズのサンプル画像の場合においては、図6に示すように、両目の位置が、サンプル画像の最左上の頂点と最右上の頂点から、それぞれ、内側に1/4d、下側に1/4d移動した各位置とに来るように顔のサイズと位置を規格化し、また、前記の平面上の回転、拡縮は、両目の中間点を中心に行うようにする。
これら各サンプル画像には、重みすなわち重要度が割り当てられる。まず、すべてのサンプル画像の重みの初期値が等しく1に設定される(ステップST21)。
次に、サンプル画像およびその縮小画像の平面内に設定される所定の2点を1ペアとして複数のペアからなるペア群を複数種類設定したときの、この複数種類のペア群のそれぞれについて弱判別器が作成される(ステップST22)。ここで、それぞれの弱判別器とは、サブウィンドウで切り出された判別対象画像Wとその縮小画像の平面内に設定される所定の2点を1ペアとして複数のペアからなる1つのペア群を設定したときの、この1つのペア群を構成する各ペアにおける2点間の画素値(輝度)の差分値の組合せを用いて、顔の画像と顔でない画像とを判別する基準を提供するものである。本実施形態においては、1つのペア群を構成する各ペアにおける2点間の画素値の差分値の組合せについてのヒストグラムを弱判別器のスコアテーブルの基礎として使用する。
図7はサンプル画像からヒストグラムが生成される様子を示した図である。図7の左側のサンプル画像に示すように、この判別器を作成するためのペア群を構成する各ペアの2点は、顔であることが分かっている複数のサンプル画像において、サンプル画像上の右目の中心にある点をP1、右側の頬の部分にある点をP2、眉間の部分にある点をP3、サンプル画像を4近傍画素平均で縮小した16×16画素サイズの縮小画像上の右目の中心にある点をP4、右側の頬の部分にある点をP5、さらに4近傍画素平均で縮小した8×8画素サイズの縮小画像上の額の部分にある点をP6、口の部分にある点をP7として、P1−P2、P1−P3、P4−P5、P4−P6、P6−P7の5ペアである。なお、ある判別器を作成するための1つのペア群を構成する各ペアの2点の座標位置はすべてのサンプル画像において同一である。そして顔であることが分かっているすべてのサンプル画像について前記5ペアを構成する各ペアの2点間の画素値の差分値の組合せが求められ、そのヒストグラムが作成される。ここで、画素値の差分値の組合せとしてとり得る値は、画像の輝度階調数に依存するが、仮に16ビット階調である場合には、1つの画素値の差分値につき65536通りあり、全体では階調数の(ペア数)乗、すなわち65536の5乗通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、画素値の差分値を適当な数値幅で区切って量子化し、n値化する(例えばn=100)。これにより、画素値の差分値の組合せの数はnの5乗通りとなるため、画素値の差分値の組合せを表すデータ数を低減できる。
同様に、非顔サンプル画像群についても、ヒストグラムが作成される。なお、非顔サンプル画像については、顔サンプル画像上における前記各ペアの所定の2点の位置に対応する位置(同様に参照符号P1からP7を用いる)が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図7の一番右側に示す、弱判別器のスコアテーブルの基礎として用いられるヒストグラムである。この弱判別器のヒストグラムが示す各縦軸の値を、以下、判別ポイントと称する。この弱判別器によれば、正の判別ポイントに対応する、画素値の差分値の組合せの分布を示す画像は顔である可能性が高く、判別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の判別ポイントに対応する画素値の差分値の組合せの分布を示す画像は顔でない可能性が高く、やはり判別ポイントの絶対値が大きいほどその可能性は高まる。ステップST22では、判別に使用され得る複数種類のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せについて、前記のヒストグラム形式の複数の弱判別器が作成される。
続いて、ステップST22で作成した複数の弱判別器のうち、画像が顔画像であるか否かを判別するのに最も有効な弱判別器が選択される。最も有効な弱判別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各弱判別器の重み付き正答率が比較され、最も高い重み付き正答率を示す弱判別器が選択される(ステップST23)。すなわち、最初のステップST23では、各サンプル画像の重みは等しく1であるので、単純にその弱判別器によって画像が顔画像であるか否かが正しく判別されるサンプル画像の数が最も多いものが、最も有効な弱判別器として選択される。一方、後述するステップST25において各サンプル画像の重みが更新された後の2回目のステップST23では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップST23では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく判別されることに、より重点が置かれる。
次に、それまでに選択した弱判別器の組合せの正答率、すなわち、それまでに選択した弱判別器を組み合わせて使用して(学習段階では、弱判別器は必ずしも線形に結合させる必要はない)各サンプル画像が顔画像であるか否かを判別した結果が、実際に顔画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(ステップST24)。ここで、弱判別器の組合せの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した弱判別器を用いれば画像が顔であるか否かを十分に高い確率で判別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した弱判別器と組み合わせて用いるための追加の弱判別器を選択するために、ステップST26へと進む。
ステップST26では、直近のステップST23で選択された弱判別器が再び選択されないようにするため、その弱判別器が除外される。
次に、直近のステップST23で選択された弱判別器では顔であるか否かを正しく判別できなかったサンプル画像の重みが大きくされ、画像が顔画像であるか否かを正しく判別できたサンプル画像の重みが小さくされる(ステップST25)。このように重みを大小させる理由は、次の弱判別器の選択において、既に選択された弱判別器では正しく判別できなかった画像を重要視し、それらの画像が顔画像であるか否かを正しく判別できる弱判別器が選択されるようにして、弱判別器の組合せの効果を高めるためである。
続いて、ステップST23へと戻り、前記したように重み付き正答率を基準にして次に有効な弱判別器が選択される。
以上のステップST23からS26を繰り返して、顔画像であるか否かを判別するのに適した弱判別器として、特定のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せに対応する弱判別器が選択されたところで、ステップST24で確認される正答率が閾値を超えたとすると、顔画像であるか否かの判別に用いる弱判別器の種類と判別条件とが確定され(ステップST27)、これにより学習を終了する。なお、選択された弱判別器は、その重み付き正答率が高い順に線形結合され、1つの判別器が構成される。また、各弱判別器については、それぞれ得られたヒストグラムを基に、画素値の差分値の組合せに応じてスコアを算出するためのスコアテーブルが生成される。なお、ヒストグラム自身をスコアテーブルとして用いることもでき、この場合、ヒストグラムの判別ポイントがそのままスコアとなる。
このようにして、顔サンプル画像群と非顔サンプル画像群とを用いた学習により、判別器が生成されるわけであるが、前述のように、判別したい顔の向き毎に異なる複数の判別器を生成するには、図2に示すように、顔の各向きに対応した複数種類の顔サンプル画像群を用意し、その顔サンプル画像群と非顔サンプル画像群とを用いた学習を顔サンプル画像群の種類毎に行うこととなる。すなわち、本実施例では、判別したい顔の向きを、それぞれ、−90°,−75°,−60°,−45°,−30°,−15°,0°,+15°,+30°,+45°,+60°,+75°,+90°として、各向きに対応した13種類の顔サンプル画像群を用意し、顔サンプル画像群の種類毎に、その顔サンプル画像群と非顔サンプル画像群とを用いて前記の学習を行い、各判別器を生成する。
なお、前記の学習手法を採用する場合において、弱判別器は、特定のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せを用いて顔の画像と顔でない画像とを判別する基準を提供するものであれば、前記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図7の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。
また、学習の方法としては前記のブースティングの手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。
フレーム画像取得部20は、DSCやデジタルムービー等の動画撮影によって取得された時系列画像である複数のフレーム画像(以下、単にフレームという)を順次取得するものである。なお、本実施例では、動画撮影は毎秒30フレームで行うものとし、また、人物の顔が常に所定の位置および大きさでフレームに含まれるように撮影するものとする。
画像正規化部30は、フレーム画像取得部20により取得されたフレーム(以下、取得フレームという)S0の輝度のコントラストが判別器による判別処理に適した状態となるように、取得フレームS0に対して解像度変換処理(サイズ変更処理)や全体正規化処理を施し、正規化済の取得フレームS0′を得るものである。
ここで、全体正規化処理について説明する。全体正規化処理は、判別器の判別対象画像すなわち取得フレームS0の輝度のコントラストを、判別器の性能を引き出すのに適した所定のレベルに近づけるべく、取得フレームS0全体の画素値をこの画像における被写体の輝度の対数を表す値に近づける変換曲線にしたがって変換する処理である。
図8は全体正規化処理に用いる変換曲線の一例を示した図である。全体正規化処理としては、例えば、図8に示すような、画素値をsRGB空間におけるいわゆる逆ガンマ変換(=2.2乗する)した後にさらに対数をとるような変換曲線(ルックアップテーブル)にしたがって、画像全体における画素値を変換する処理を考えることができる。これは、次のような理由による。
画像として観測される光強度Iは、通常、被写体の反射率Rと光源の強度Lの積として表現される(I=R×L)。したがって、光源の強度Lが変化すると、画像として観測される光強度Iも変化することになるが、被写体の反射率Rのみを評価することができれば、光源の強度Lに依存しない、すなわち、画像の明るさの影響を受けない精度の高い顔判別を行うことができる。
ここで、光源の強度がLの場合において、被写体上で反射率がR1の部分から観測される光強度をI1、被写体上で反射率がR2の部分から観測される光強度をI2としたとき、それぞれの対数をとった空間では、下記の式が成り立つ。
Figure 2007213182
すなわち、画像における画素値を対数変換することは、反射率の比が差として表現された空間へ変換することとなり、このような空間では、光源の強度Lに依存しない被写体の反射率のみを評価することが可能となる。言い換えると、画像中の明るさによって異なるコントラスト(ここでは画素値の差分そのもの)を揃えることができる。
一方、一般的なデジタルカメラ等の機器で取得された画像の色空間はsRGBである。sRGBとは、機器間の色再現の違いを統一するために、色彩、彩度等を規定・統一した国際標準の色空間のことであり、この色空間においては、ガンマ値(γout)が2.2の画像出力機器において適正な色再現を可能にするため、画像の画素値は、入力輝度を1/γout(=0.45)乗して得られる値となっている。
そこで、画像全体における画素値を、いわゆる逆ガンマ変換、すなわち、2.2乗した後にさらに対数をとるような変換曲線にしたがって変換することにより、光源の強度に依存しない被写体の反射率のみによる評価を適正に行うことができるようになる。
なお、このような全体正規化処理は、別の言い方をすれば、画像全体における画素値を、特定の色空間を別の特性を有する色空間に変換する変換曲線にしたがって変換する処理ということができる。
このような処理を判別対象画像に施すことにより、画像中の明るさによって異なるコントラストを揃えることができ、判別処理の精度が向上することとなる。
判別器適用部40は、取得フレームS0′に対して判別器10a〜10mのうち少なくともいずれかを所定の順序で1つずつ適用して、その都度、取得フレームS0′が所定の向きの顔を含む画像であるか否かを判別するものである。なお、判別器の適用順序は、後述の判別器適用順序設定部80により設定される。
顔向き認識部50は、取得フレームS0′に適用された判別器による判別結果CRに基づいてその取得フレームS0′における顔の向きを認識するものであり、取得フレームS0′が、適用された判別器により所定の向きの顔を含む画像でないと判別されたとき、判別器適用部40に対して次の判別器を適用するよう指示し、所定の向きの顔を含む画像であると判別されたとき、取得フレームS0′における顔が、そのときの判別器に対応する顔の向きと同じ向きにあると認識するものである。顔の向きが認識されると、その認識結果IRを外部に出力するとともにメモリ60に記憶させる。
メモリ60は、本システムにおける処理を実行するのに必要な各種データを記憶するものであるが、少なくとも、前記時系列画像における過去の認識結果PIRを記憶するものである。
顔向き予測部70は、メモリ60に記憶されている認識結果PIRが示す、前記時系列画像のうち取得フレームS0より時系列的に前の複数のフレームにおいて既に認識された顔の向きに基づいて、その顔の向きの段階的な変化を求め、その段階的な変化から取得フレームS0′における顔の向きを少なくとも1つ予測し、その予測結果PRを出力するものである。顔の向きの変化は、直近の過去数秒間分の認識結果があれば十分に捉えることができると考えられるので、具体的には、図9(a)に示すように、取得フレームS0′より時系列的に前の直近の最大3秒間分のフレーム、すなわち毎秒30フレームの動画の場合では90フレームの各々における顔の認識結果から、顔の向きが時間の経過とともにどのように段階的に変化したかを調べ、その段階的な変化のパターンにしたがって、取得フレームS0′における顔の向きを予測する。すなわち、図9(b)に示すように、直近の過去90フレームの認識結果の中で顔の向きが変化した時点でフレームを区切り、顔の向きの状態遷移を考える。そして、顔の向きの状態遷移における直近の過去3段階の変化から、図10に示すような予測パターンにしたがって予測する。以下その予測パターンについて説明する。
本実施例においては、1フレーム分の時間変化では、顔の向きは一度に30°までは変化しないという仮定のもと、取得フレームS0′より1つ前のフレームにおいて認識された顔の向きをd°とすると、取得フレームS0′において認識され得る顔の向きは、d°,d±15°の3通りと考える。また、直近の過去90フレーム内での段階的な変化のパターンとしては、次のようなパターンが考えられる。
(1) d°(変化なし)
(2) d°→d−15°→d°, d°→d+15°→d°
(2)′ d−15°→d°, d+15°→d°
(3) d+30°→d+15°→d°, d−30°→d−15°→d°
これら変化のパターンの各々について、次のような考えに基づき、取得フレームS0′における顔の向きを予測する。
(1)顔の向きが変化しない場合:
図11に示すように、顔の向きが変化しない場合には、顔の向きが次にどの状態に変化するのかが分からないため、取得フレームS0′における顔の向きを、d°,d−15°,d+15°と予測する。
(2),(2)′顔の向きが同じ方向に1段階変化した場合:
図12に示すように、顔の向きが1段階変化した場合には、同じ方向への変化が続くと考えられることから、1フレーム前の顔の向きと次の段階の向きのいずれかの状態になる可能性が高いと考えられる。そこで、顔の向きがd°→d−15°→d°と変化した場合には、取得フレームS0′における顔の向きをd°,d+15°と予測する。同様に、d°→d+15°→d°と変化した場合には、取得フレームS0′における顔の向きを、d°,d−15°と予測し、d−15°→d°と変化した場合には、d°,d+15°と予測し、d+15°→d°と変化した場合には、d°,d−15°と予測する。
(3)顔の向きが同じ方向に連続して2段階変化した場合:
1段階目に変化したときのフレームをn1、2段階目に変化したときのフレームをn2として、その間のフレーム数+1をFとする。顔の向きの動きはほぼ等速であると仮定すると、次の段階に変化すると予測されるフレームは、フレームn2からF枚目のフレームであるから、取得フレームS0′がフレームn2から何枚目のフレームであるかによって次の段階に変化するか否かを予測する。すなわち、d−30°→d−15°→d°と変化した場合には、d−30°→d−15°と変化したときのフレームをn1、d−15°→d°と変化したときのフレームをn2として、その間のフレーム数+1をFとし、取得フレームS0′がn2からF−f枚目以内のフレームであるか否かによって予測を行う。ここでfは、f=F/4を満たすパラメータである。顔の向きの動きが完全な等速運動であれば、次の段階に変化するフレームは、フレームn2からF枚目のフレームとなるが、実際には完全な等速運動になるとは限らないので、次の段階に変化すると考えられるフレームの位置に若干の幅を持たせるようにしている。
(3-1)取得画像S0′がn2からF−f枚目以内のフレームである場合:
図13に示すように、取得フレームS0′がn2からF−f枚目以内のフレームである場合には、取得フレームS0′における顔の向きは次の段階にはまだ変化しないと考え、これまでにd−30°→d−15°→d°と変化している場合では、取得フレームS0′における顔の向きをd°と予測し、同様に、d+30°→d+15°→d°と変化している場合にも、d°と予測する。
(3-2)取得画像S0′がn2からF−f枚目を超えるフレームである場合:
図14に示すように、取得フレームS0′がn2からF−f枚目を超えるフレームである場合には、取得フレームS0′における顔の向きは次の段階に変化すると考え、これまでにd−30°→d−15°→d°と変化している場合では、取得画像S0′における顔の向きをd+15°と予測し、同様に、d+30°→d+15°→d°と変化している場合には、d−15°と予測する。
判別器適用順序設定部80は、取得画像S0′に判別器を適用する際に、前記複数種類の判別器のうち、顔向き予測部70により予測された少なくとも1つの顔の向きに対応する判別器を他の判別器より優先して適用するよう、判別器の適用順序Jを設定するものである。ただし、ここでは、1フレーム分の時間経過によって顔の向きが±15°より大きく変化することは考えにくいので、取得フレームS0′より1つ前のフレームにおける顔の向きをd°として、取得フレームS0′に適用する判別器は、d°,d±15°に対応する3つの判別器のみとする。具体的な設定ルールとは、例えば、これら適用する3つの判別器を顔向き予測部70により予測された顔の向きに対応する判別器のグループ(第1のグループ)とそれ以外の判別器のグループ(第2のグループ)とに分け、第1のグループに属する判別器を第2のグループに属する判別器より優先し、かつ、各グループ毎に判別器が予め決められた所定の優先順位、例えばd°→d−15°→d+15°にしたがうように判別器の適用順序Jを設定する。
このように予測された顔の向きに対応する判別器を優先的に適用することで、早い段階で取得フレームS0′における顔の向きが認識される可能性が高くなるので、認識処理にかかる時間が短縮でき、認識処理の効率化を図ることができる。
重み付け係数設定部90は、取得フレームS0′に判別器を適用する際に、前記複数種類の判別器のうち顔向き予測部70により予測された少なくとも1つの顔の向きに対応する判別器のスコア(指標値)scを重視するよう、適用する判別器のスコアscに対する重み付け係数を設定するものである。例えば、図15に示すように、取得フレームS0′より1つ前のフレームにおける顔の向きがd°である場合には、取得フレームS0′に適用する判別器は、d°,d±15°の判別器となり、そのうち予測された顔の向きがd+15°であるときには、例えば、重み付け係数をwd=wd-15=1.0,wd+15=1.2、と設定する。d°,d±15°の各判別器は、取得フレームS0′に適用されると、スコアscd,scd-15,scd+15にそれぞれ前記重み付け係数wd,wd-15,wd+15を掛け合わせ、重み付けされたスコアwd・scd,wd-15・scd-15,wd+15・scd+15を得る。各判別器はそれぞれこの重み付けされたスコアに基づく閾値判定により判別を行う。
このように、予測された顔の向きに対応する判別器のスコアscを他の判別器に比して重視するよう重み付けすることにより、認識処理の対象となっている画像、すなわち取得フレームS0′における顔の向きを、顔の向き毎の認識される確率の高さを考慮した閾値判定により判別して認識することができ、時系列画像に含まれる顔の向きを高い信頼性を持って認識することができる。
次に、顔向き認識システム1における処理の流れについて説明する。
図16は、顔向き認識システム1における処理の流れを示したフローチャートである。これらの図に示すように、まず、フレーム画像取得部20が時系列画像を構成する1枚のフレームS0を取得する(ステップST31)。すると、画像正規化部30が取得フレームS0に対して前述の解像度変換処理と全体正規化処理とを施し、正規化済みの取得フレームS0′を得る(ステップST32)。
顔向き予測部40は、メモリ60に記憶されている過去の認識結果に基づいて、直近の最大90フレームにおける顔の向きの段階的な変化を求め(ステップST33)、この段階的な変化のパターンから図10に示す対応表にしたがって取得フレームS0′における顔の向きを少なくとも1つ予測する(ステップST34)。
判別器適用順序設定部80は、取得フレームS0より1つ前のフレームにおいて認識された顔の向きをd°として、取得フレームS0′に適用する判別器をd°,d±15°にそれぞれ対応する3つの判別器とし、そのうちステップST34にて予測された顔の向きに対応する判別器を優先して適用するよう、前述のルールにしたがって判別器の適用順序を設定する(ステップST35)。
また、重み付け係数設定部90は、取得フレームS0′に適用する、d°,d−15°,d+15°の3つの判別器のうちステップST34にて予測された顔の向きに対応する判別器のスコアscを重視するよう、これら3つの判別器に対して重み付け係数wd,wd-15,wd+15を設定する(ステップST36)。例えば、予測された顔の向きに対応する判別器に対しては、重み付け係数を1.2、それ以外の判別器に対しては重み付け係数を1.0にする。
判別器適用部40は、判別器適用順序設定部80により設定された適用順序にしたがって判別器を1つ選択し、選択された判別器に取得フレームS0′を入力する(ステップST37)。適用された判別器は、重み付け係数設定部90により設定された重み付け係数を用いて、算出したスコアscに重み付けを行い(ステップST38)、重み付けされたスコアに基づく閾値判定により、取得フレームS0′が適用された判別器に応じた所定の向きの顔を含む画像であるか否かを判別する(ステップST39)。
顔向き認識部50は、その適用された判別器がその所定の向きの顔を含む画像であると判別したとき、取得フレームS0における顔の向きをその所定の顔の向きと認識し(ステップST40)、その認識結果をメモリ60に出力する。一方、その適用された判別器がその所定の向きの顔を含む画像でないと判別器したときは、ステップST37に戻り、次の優先順位の判別器を選択して、先と同様に、選択された判別器に取得フレームS′を入力する。
前記の処理は、1つの取得フレームS0についての顔の向きの認識処理であるが、このような認識処理を順次取得したフレームについて繰り返し行うことにより、順次取得したフレームにおける顔の向きを連続的に認識することができる。
このように、本実施形態による顔向き認識システムによれば、顔の向き別に用意された複数種類の判別器を用いて、時系列画像における顔の向きを認識する際に、いずれの画像に対しても複数種類の判別器を所定の同じ順序で繰り返し適用してゆくのではなく、その時系列画像における過去の認識結果を用いて、その顔の向きのこれまでの段階的な変化を求め、その段階的な変化に基づいて、認識処理の対象となっている画像における顔の向きを予測し、予測した顔の向きに対応する判別器を他の判別器に優先して適用するので、認識処理の対象となっている画像におけるその顔の向きをより早い段階で認識することができ、時系列画像に含まれる顔の向きを効率よく認識することが可能となる。
また、本実施形態による顔向き認識システムによれば、判別対象画像が所定の向きにある顔を含む画像であるか否かを指標値の閾値判定により判別する、顔の向き別に用意された複数種類の判別器を用いて、時系列画像における顔の向きを認識する際に、いずれの判別器においても算出された指標値をそのまま用いて閾値判定するのではなく、その時系列画像における過去の認識結果を用いてその顔の向きのこれまでの段階的な変化を求め、その段階的な変化に基づいて、認識処理の対象となっている画像におけるその顔の向きを予測し、予測した顔の向きに対応する判別器の指標値に重み付けをするので、認識処理の対象となっている画像におけるその顔の向きを、認識される確率の高さを考慮した閾値判定により判別して認識することができ、時系列画像に含まれる顔の向きを高い信頼性を持って認識することが可能となる。
なお、本実施例では、人物の顔が所定の大きさでフレームに含まれるように動画撮影したときの時系列画像におけるその顔の向きを認識する場合について説明したが、人物の顔の大きさや位置がフレーム内で変化するような動画撮影により取得した時系列画像について同様に顔の向きを認識する場合には、例えば、時系列画像の各々について、所定の大きさの部分画像をその位置を変えながら順次切り出し、その切り出された部分画像毎に前記認識処理を行い、時系列画像における顔の検出および顔の向きの認識を同時に行うようにすればよい。
また、本実施形態による顔向き認識システム1は、判別器適用順序設定部70と重み付け係数設定部80の両方を備えているが、どちらか一方のみを備えるようにしてもよい。
また、本実施例では、認識できる顔の大きさがほぼ固定されているが、顔の大きさに依らず種々の大きさの顔を認識しようとする場合には、例えば、取得フレームS0を多重解像度化して解像度の異なる複数の画像を生成し、生成された複数の画像の各々に対して本実施例と同様の認識処理を施すようにすればよい。
以上、本発明の実施形態に係る顔向き認識システムについて説明したが、このシステムにおける処理をコンピュータに実行させるためのプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取可能な記録媒体も、本発明の実施形態の1つである。
顔向き認識システム1の構成を示すブロック図 判別可能な顔の向きが異なる複数の判別器を生成する場合の概念図 判別器における処理フローを示す図 弱判別器における特徴量の算出を説明するための図 判別器の学習方法を示すフローチャート 目の位置が所定の位置にくるように規格化された顔のサンプル画像を示す図 弱判別器のヒストグラムを導出する方法を示す図 全体正規化処理に用いる変換曲線の一例を示す図 取得フレームより時系列的に前のフレームにおける過去の認識結果を示す図 過去の顔向きの段階的変化パターンと予測される現在の顔向きとの対応関係を示す図 顔の向きが変化しない場合の過去の認識結果を示す図 顔の向きが同じ方向に1段階変化した場合の過去の認識結果を示す図 顔の向きが同じ方向に2段階変改した場合の過去の認識結果を示す図(その1) 顔の向きが同じ方向に2段階変改した場合の過去の認識結果を示す図(その2) 判別器と判別器に設定される重み付け係数との関係を示す図 顔向き認識システム1における処理を示すフローチャート 本発明の概念を示す図
符号の説明
1 顔向き認識システム
10a〜10m 判別器(状態判別器)
20 フレーム画像取得部(画像取得手段)
30 画像正規化部
40 判別器適用部(状態判別器適用手段)
50 顔向き予測部(状態予測手段)
60 メモリ(記憶手段)
70 顔向き認識部(状態認識手段)
80 判別器適用順序設定部(状態判別器適用順序設定手段)
90 重み付け係数設定部(指標値重み付け手段)

Claims (9)

  1. 判別対象画像が、所定の状態にある所定の対象物を含む画像であるか否かを、前記状態別にそれぞれ判別する複数種類の状態判別器を用意し、
    前記所定の対象物の時系列画像のうち1つを取得し、
    該取得した画像に対して前記複数種類の状態判別器のうち少なくともいずれかを適用して、前記取得した画像がいずれかの前記状態判別器により前記所定の対象物を含む画像であると判別されたとき、前記取得した画像における前記所定の対象物が、該判別されたときの前記状態判別器に対応する状態と同じ状態にあると認識する対象物状態認識方法において、
    前記時系列画像のうち前記取得した画像より時系列的に前の複数の画像において既に認識された前記所定の対象物の状態に基づいて、該状態の段階的な変化を求め、該段階的な変化から前記取得した画像における前記所定の対象物の状態を少なくとも1つ予測し、
    前記取得した画像に前記状態判別器を適用する際に、前記複数種類の状態判別器のうち前記予測された少なくとも1つの状態に対応する状態判別器を他の状態判別器より優先して適用することを特徴とする対象物状態認識方法。
  2. 判別対象画像が、所定の状態にある所定の対象物を含む画像であるか否かを、前記状態別にそれぞれ判別する複数種類の状態判別器を用意し、
    前記所定の対象物の時系列画像のうち1つを取得し、
    該取得した画像に対して前記複数種類の状態判別器のうち少なくともいずれかを適用して、前記取得した画像がいずれかの前記状態判別器により前記所定の対象物を含む画像であると判別されたとき、前記取得した画像における前記所定の対象物が、該判別されたときの前記状態判別器に対応する状態と同じ状態にあると認識する対象物状態認識方法において、
    前記状態判別器が、前記判別対象画像が前記所定の状態にある前記所定の対象物を含む画像である蓋然性を示す指標値を算出し、該指標値の閾値判定により判別するものであり、
    前記時系列画像のうち前記取得した画像より時系列的に前の複数の画像において既に認識された前記所定の対象物の状態に基づいて、該状態の段階的な変化を求め、該段階的な変化から前記取得した画像における前記所定の対象物の状態を少なくとも1つ予測し、
    前記取得した画像に前記状態判別器を適用する際に、前記複数種類の状態判別器のうち前記予測された少なくとも1つの状態に対応する状態判別器の指標値に重み付けすることを特徴とする対象物状態認識方法。
  3. 前記所定の対象物が顔であり、前記状態が顔の向きであることを特徴とする請求項1または2記載の対象物状態認識方法。
  4. 判別対象画像が、所定の状態にある所定の対象物を含む画像であるか否かを、前記状態別にそれぞれ判別する複数種類の状態判別器と、
    前記所定の対象物の時系列画像のうち1つを取得する画像取得手段と、
    該取得した画像に対して前記複数種類の状態判別器のうち少なくともいずれかを適用する状態判別器適用手段と、
    前記取得した画像が前記適用された状態判別器により前記所定の対象物を含む画像であると判別されたとき、前記取得した画像における前記所定の対象物が、該判別されたときの前記状態判別器に対応する状態と同じ状態にあると認識する状態認識手段とを備えた対象物状態認識装置において、
    前記時系列画像における過去の認識結果を記憶する記憶手段と、
    該記憶手段に記憶されている認識結果が示す、前記時系列画像のうち前記取得した画像より時系列的に前の複数の画像において既に認識された前記所定の対象物の状態に基づいて、該状態の段階的な変化を求め、該段階的な変化から前記取得した画像における前記所定の対象物の状態を少なくとも1つ予測する状態予測手段と、
    前記取得した画像に前記状態判別器を適用する際に、前記複数種類の状態判別器のうち前記予測された少なくとも1つの状態に対応する状態判別器を他の状態判別器より優先して適用するよう、前記状態判別器の適用順序を設定する状態判別器適用順序設定手段とを備えたことを特徴とする対象物状態認識装置。
  5. 判別対象画像が、所定の状態にある所定の対象物を含む画像であるか否かを、前記状態別にそれぞれ判別する複数種類の状態判別器と、
    前記所定の対象物の時系列画像のうち1つを取得する画像取得手段と、
    該取得した画像に対して前記複数種類の状態判別器のうち少なくともいずれかを適用する状態判別器適用手段と、
    前記取得した画像が前記適用された状態判別器により前記所定の対象物を含む画像であると判別されたとき、前記取得した画像における前記所定の対象物が、該判別されたときの前記状態判別器に対応する状態と同じ状態にあると認識する状態認識手段とを備えた対象物状態認識装置において、
    前記状態判別器が、前記判別対象画像が前記所定の状態にある前記所定の対象物を含む画像である蓋然性を示す指標値を算出し、該指標値の閾値判定により判別するものであり、
    前記時系列画像における過去の認識結果を記憶する記憶手段と、
    該記憶手段に記憶されている認識結果が示す、前記時系列画像のうち前記取得した画像より時系列的に前の複数の画像において既に認識された前記所定の対象物の状態に基づいて、該状態の段階的な変化を求め、該段階的な変化から前記取得した画像における前記所定の対象物の状態を少なくとも1つ予測する状態予測手段と、
    前記取得した画像に前記状態判別器を適用する際に、前記複数種類の状態判別器のうち前記予測された少なくとも1つの状態に対応する状態判別器の指標値に重み付けする指標値重み付け手段とを備えたことを特徴とする対象物状態認識装置。
  6. 前記所定の対象物が顔であり、前記状態が顔の向きであることを特徴とする請求項3または4記載の対象物状態認識装置。
  7. コンピュータを、
    判別対象画像が、所定の状態にある所定の対象物を含む画像であるか否かを、前記状態別にそれぞれ判別する複数種類の状態判別器と、
    前記所定の対象物の時系列画像のうち1つを取得する画像取得手段と、
    該取得した画像に対して前記複数種類の状態判別器のうち少なくともいずれかを適用する状態判別器適用手段と、
    前記取得した画像が前記適用された状態判別器により前記所定の対象物を含む画像であると判別されたとき、前記取得した画像における前記所定の対象物が、該判別されたときの前記状態判別器に対応する状態と同じ状態にあると認識する状態認識手段として機能させることにより、該コンピュータを対象物状態認識装置として機能させるためのプログラムにおいて、
    該コンピュータを、
    前記時系列画像における過去の認識結果を記憶する記憶手段と、
    該記憶手段に記憶されている認識結果が示す、前記時系列画像のうち前記取得した画像より時系列的に前の複数の画像において既に認識された前記所定の対象物の状態に基づいて、該状態の段階的な変化を求め、該段階的な変化から前記取得した画像における前記所定の対象物の状態を少なくとも1つ予測する状態予測手段と、
    前記取得した画像に前記状態判別器を適用する際に、前記複数種類の状態判別器のうち前記予測された少なくとも1つの状態に対応する状態判別器を他の状態判別器より優先して適用するよう、前記状態判別器の適用順序を設定する状態判別器適用順序設定手段として機能させるものであることを特徴とするプログラム。
  8. コンピュータを、
    判別対象画像が、所定の状態にある所定の対象物を含む画像であるか否かを、前記状態別にそれぞれ判別する複数種類の状態判別器と、
    前記所定の対象物の時系列画像のうち1つを取得する画像取得手段と、
    該取得した画像に対して前記複数種類の状態判別器のうち少なくともいずれかを適用する状態判別器適用手段と、
    前記取得した画像が前記適用された状態判別器により前記所定の対象物を含む画像であると判別されたとき、前記取得した画像における前記所定の対象物が、該判別されたときの前記状態判別器に対応する状態と同じ状態にあると認識する状態認識手段として機能させることにより、該コンピュータを対象物状態認識装置として機能させるためのプログラムにおいて、
    前記状態判別器が、前記判別対象画像が前記所定の状態にある前記所定の対象物を含む画像である蓋然性を示す指標値を算出し、該指標値の閾値判定により判別するものであり、
    該コンピュータを、
    前記時系列画像における過去の認識結果を記憶する記憶手段と、
    該記憶手段に記憶されている認識結果が示す、前記時系列画像のうち前記取得した画像より時系列的に前の複数の画像において既に認識された前記所定の対象物の状態に基づいて、該状態の段階的な変化を求め、該段階的な変化から前記取得した画像における前記所定の対象物の状態を少なくとも1つ予測する状態予測手段と、
    前記取得した画像に前記状態判別器を適用する際に、前記複数種類の状態判別器のうち前記予測された少なくとも1つの状態に対応する状態判別器の指標値に重み付けする指標値重み付け手段として機能させることを特徴とするプログラム。
  9. 前記所定の対象物が顔であり、前記状態が顔の向きであることを特徴とする請求項7または8記載のプログラム。
JP2006030579A 2006-02-08 2006-02-08 対象物状態認識方法および装置並びにプログラム Pending JP2007213182A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006030579A JP2007213182A (ja) 2006-02-08 2006-02-08 対象物状態認識方法および装置並びにプログラム
US11/703,139 US8331631B2 (en) 2006-02-08 2007-02-07 Method, apparatus, and program for discriminating the states of subjects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006030579A JP2007213182A (ja) 2006-02-08 2006-02-08 対象物状態認識方法および装置並びにプログラム

Publications (1)

Publication Number Publication Date
JP2007213182A true JP2007213182A (ja) 2007-08-23

Family

ID=38491578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006030579A Pending JP2007213182A (ja) 2006-02-08 2006-02-08 対象物状態認識方法および装置並びにプログラム

Country Status (2)

Country Link
US (1) US8331631B2 (ja)
JP (1) JP2007213182A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152805A (ja) * 2008-12-26 2010-07-08 Fujifilm Corp 対象画像判別システムならびにその動作制御方法およびその動作制御プログラム
JP2011070623A (ja) * 2009-08-31 2011-04-07 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2011086259A (ja) * 2009-10-19 2011-04-28 Canon Inc 物体識別装置及び物体識別方法
JP2012220491A (ja) * 2011-04-13 2012-11-12 Xerox Corp Ir画像における多数のオブジェクトの決定
JP2013055706A (ja) * 1997-12-23 2013-03-21 Intel Corp 画像コンテンツに基づく画像選択法
JP2013069264A (ja) * 2011-09-07 2013-04-18 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2014021901A (ja) * 2012-07-23 2014-02-03 Casio Comput Co Ltd 被写体検出装置、被写体検出方法及びプログラム
WO2018163515A1 (ja) * 2017-03-07 2018-09-13 オムロン株式会社 画像処理装置、追跡方法、および追跡プログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2447976B (en) * 2007-03-30 2011-04-27 Sony Uk Ltd Apparatus and method of image capture
EP2717223A4 (en) * 2011-05-24 2015-06-17 Nec Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM
JP2014096070A (ja) * 2012-11-09 2014-05-22 International Business Maschines Corporation 連続的な時系列データの変化点を事前に予測する手法、コンピュータ・プログラム及びコンピュータ。
US20140379588A1 (en) 2013-03-15 2014-12-25 Compology, Inc. System and method for waste managment
US10853689B2 (en) * 2017-10-09 2020-12-01 WebFurther, LLC Methods for more effectively moderating one or more images and devices thereof
US10943356B2 (en) * 2018-12-12 2021-03-09 Compology, Inc. Method and system for fill level determination
US10798522B1 (en) 2019-04-11 2020-10-06 Compology, Inc. Method and system for container location analysis
CN111832496B (zh) * 2020-07-17 2023-11-03 南京康尼机电股份有限公司 一种轨道车门开关状态判断方法、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH027095A (ja) * 1988-06-27 1990-01-11 Kazuyuki Yamada フルート,ピッコロのトリル機構
JP2004062565A (ja) * 2002-07-30 2004-02-26 Canon Inc 画像処理装置及び方法並びにプログラム記憶媒体
JP2004133637A (ja) * 2002-10-09 2004-04-30 Sony Corp 顔検出装置、顔検出方法及びプログラム、並びにロボット装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6671391B1 (en) * 2000-05-26 2003-12-30 Microsoft Corp. Pose-adaptive face detection system and process
WO2002007095A1 (fr) 2000-07-17 2002-01-24 Mitsubishi Denki Kabushiki Kaisha Dispositif de representation en 3d du visage et dispositif de reconnaissance peripherique comprenant ce dernier
JP4043973B2 (ja) 2003-02-27 2008-02-06 株式会社東芝 顔検出システムとその方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH027095A (ja) * 1988-06-27 1990-01-11 Kazuyuki Yamada フルート,ピッコロのトリル機構
JP2004062565A (ja) * 2002-07-30 2004-02-26 Canon Inc 画像処理装置及び方法並びにプログラム記憶媒体
JP2004133637A (ja) * 2002-10-09 2004-04-30 Sony Corp 顔検出装置、顔検出方法及びプログラム、並びにロボット装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013055706A (ja) * 1997-12-23 2013-03-21 Intel Corp 画像コンテンツに基づく画像選択法
JP2010152805A (ja) * 2008-12-26 2010-07-08 Fujifilm Corp 対象画像判別システムならびにその動作制御方法およびその動作制御プログラム
JP2011070623A (ja) * 2009-08-31 2011-04-07 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2011086259A (ja) * 2009-10-19 2011-04-28 Canon Inc 物体識別装置及び物体識別方法
US8666176B2 (en) 2009-10-19 2014-03-04 Canon Kabushiki Kaisha Object recognition apparatus and object recognition method
JP2012220491A (ja) * 2011-04-13 2012-11-12 Xerox Corp Ir画像における多数のオブジェクトの決定
JP2013069264A (ja) * 2011-09-07 2013-04-18 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2014021901A (ja) * 2012-07-23 2014-02-03 Casio Comput Co Ltd 被写体検出装置、被写体検出方法及びプログラム
WO2018163515A1 (ja) * 2017-03-07 2018-09-13 オムロン株式会社 画像処理装置、追跡方法、および追跡プログラム
JP2018147311A (ja) * 2017-03-07 2018-09-20 オムロン株式会社 画像処理装置、追跡方法、および追跡プログラム

Also Published As

Publication number Publication date
US20080031525A1 (en) 2008-02-07
US8331631B2 (en) 2012-12-11

Similar Documents

Publication Publication Date Title
JP2007213182A (ja) 対象物状態認識方法および装置並びにプログラム
JP4640825B2 (ja) 特定向き顔判定方法および装置並びにプログラム
JP4657934B2 (ja) 顔検出方法および装置並びにプログラム
JP4619927B2 (ja) 顔検出方法および装置並びにプログラム
JP4708909B2 (ja) デジタル画像の対象物検出方法および装置並びにプログラム
JP4744918B2 (ja) 顔検出方法および装置並びにプログラム
JP4712563B2 (ja) 顔検出方法および装置並びにプログラム
JP4517633B2 (ja) 対象物検出装置及び方法
JP4767595B2 (ja) 対象物検出装置及びその学習装置
JP4628882B2 (ja) 判別器の学習方法、顔判別方法および装置並びにプログラム
JP4708948B2 (ja) 顔向き特定方法、顔判別方法および装置並びにプログラム
JP6330385B2 (ja) 画像処理装置、画像処理方法およびプログラム
US8837773B2 (en) Apparatus which detects moving object from image and method thereof
JP2007065844A (ja) 顔検出方法および装置並びにプログラム
JP4757598B2 (ja) 顔検出方法および装置並びにプログラム
JP2006318341A (ja) 検知対象画像判定装置、検知対象画像判定方法および検知対象画像判定プログラム
JP2009026326A (ja) 集団学習装置及び方法
JP4795864B2 (ja) 特徴点検出装置および方法並びにプログラム
JP5317934B2 (ja) オブジェクト検出装置および方法並びにプログラム
KR20130091441A (ko) 물체 추적 장치 및 그 제어 방법
JP4657930B2 (ja) 顔検出方法および装置並びにプログラム
JP4795737B2 (ja) 顔検出方法および装置並びにプログラム
JP2011170890A (ja) 顔検出方法および装置並びにプログラム
JP2011128916A (ja) オブジェクト検出装置および方法並びにプログラム
WO2022049704A1 (ja) 情報処理システム、情報処理方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110222