JP2008197722A - 顔追跡装置 - Google Patents

顔追跡装置 Download PDF

Info

Publication number
JP2008197722A
JP2008197722A JP2007029314A JP2007029314A JP2008197722A JP 2008197722 A JP2008197722 A JP 2008197722A JP 2007029314 A JP2007029314 A JP 2007029314A JP 2007029314 A JP2007029314 A JP 2007029314A JP 2008197722 A JP2008197722 A JP 2008197722A
Authority
JP
Japan
Prior art keywords
face
vehicle
initial value
determination
tracking device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007029314A
Other languages
English (en)
Inventor
Junya Inada
純也 稲田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2007029314A priority Critical patent/JP2008197722A/ja
Priority to US12/010,340 priority patent/US8098887B2/en
Publication of JP2008197722A publication Critical patent/JP2008197722A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】円筒モデルが必要とする正面顔の画像データを自動で取得することができる顔追跡装置を提供
【解決手段】カメラにより運転者の顔を連続して撮像して、撮像した画像データを取得するとともに、カメラにより取得された画像データの中から、追跡対象とする顔領域を抽出する(S30)。その後に、顔領域内の顔が正面を向いている顔(正面顔)であるか否かを顔形状モデルを用いて判定する処理を行う(S40)。そして、この処理で正面顔であると判定された顔領域の画像データを、円筒モデルで必要とする初期値として、円筒モデルを用いて、カメラにより撮像された人間の顔の向きを検出する。
【選択図】図3

Description

本発明は、人間の顔が向いている方向の変化を追跡する顔追跡装置に関する。
近年、人間の顔を撮像した画像データに基づいて、人間の顔が向いている方向(以下、顔向き方向という)の変化を追跡する顔追跡装置を自動車に装備し、自動車の運転者の顔向き方向に基づいて、運転行動に応じた適切な支援を行う技術が提案されている。
従来、画像データに基づいて顔向き方向を検出する手法として、顔形状モデル(例えば、非特許文献1を参照)と、円筒モデル(例えば、非特許文献2を参照)が知られている。
顔形状モデルによれば、正面を向いている時の顔向き方向の水平角度を0°として水平角度で±10°以内の顔向き方向を追跡することが可能である。しかし、例えば自動車の運転者が左右の安全確認を行う場合には顔向き方向が水平角度で±60°程度変化するため、運転者による安全確認の動作を検出することができなかった。
一方、円筒モデルによれば、大きな水平角度の顔向き方向を追跡することが可能であり、運転者による安全確認の動作を検出するのに有効である。
I. Matthews and S. Baker, "Active Appearance Models Revisited," International Journal of Computer Vision, Vol. 60, No. 2, November, 2004, pp. 135 - 164. J. Xiao, T. Moriyama, T.Kanade, and J. Cohn, "Robust Full-Motion Recovery of Head by Dynamic Templates and Re-registration Techniques," International Journal of Imaging Systems and Technology, Vol.13, September, 2003, pp. 85 - 94.
しかしながら、上記円筒モデルは、正面を向いている時の顔(以下、正面顔という)の画像データを初期値として手動で予め設定しておかなければ利用することができないという問題があった。
本発明は、こうした問題に鑑みなされたものであり、円筒モデルが必要とする正面顔の画像データを自動で取得することができる顔追跡装置を提供することを目的とする。
上記目的を達成するためになされた請求項1に記載の顔追跡装置では、撮像手段が人間の顔を連続して撮像して、撮像した画像データを取得するとともに、抽出手段が、撮像手段により取得された画像データの中から、追跡対象とする顔の部位を抽出する。その後に判定手段が、抽出手段により抽出された画像データを、円筒モデルで必要とする初期値とすることができるか否かを判定する。そして顔方向検出手段が、判定手段により前記初期値とすることができると判定された画像データを前記初期値として、前記円筒モデルを用いて、前記撮像手段により撮像された人間の顔の向きを検出する。
このように構成された顔追跡装置によれば、円筒モデルで必要とする初期値を判定手段により自動で取得することができる。このため、顔追跡装置の利用者自身が手動で上記初期値を与えるという手間を省略することができ、利用者にとって利便性の高い装置を提供することができるという効果を奏する。
なお、円筒モデルでは通常、正面を向いている時の顔(以下、正面顔という)を上記初期値として利用する。そこで、請求項1に記載の顔追跡装置において、判定手段は、請求項2に記載のように、顔形状モデルを用いて、初期値とすることができるか否かを判定するようにするとよい。
この顔形状モデルは、例えば上記の非特許文献1に記載の技術であり、水平角度で±10°以内の顔向き方向を追跡することが可能である。したがって、このように構成された顔追跡装置によれば、抽出手段により抽出された画像データが、正面顔であるか否かを精度良く判定することができる。また顔形状モデルは、顔の形状だけでなく顔の色合いをも条件に含めて正面顔であるか否かを判定することができるため、正面顔の表情に依存することなく精度良く正面顔であるか否かを判定することができる。
また、請求項2に記載のように顔形状モデルを用いて正面顔であるか否かを判定してもよいが、車両を運転する人の顔を追跡するために請求項1に記載の顔追跡装置を利用する場合には、請求項3に記載のように、判定手段は、顔形状モデルと、車両の状態を示す車両状態信号とを用いて、初期値とすることができるか否かを判定するようにするとよい。
このように構成された顔追跡装置によれば、顔形状モデルだけでなく車両状態信号を用いることにより、更に精度良く正面顔であるか否かを判定することができる。
この場合に、車両状態信号としては、請求項4に記載のように、車両に取り付けられた操舵角センサからの信号を用いるとよい。なぜならば、操舵角が大きいときには車両は右折か左折をしており、運転者が正面を向いている可能性が低い。このため、運転者が正面を向いているかを操舵角の大きさによりある程度判別可能であるからである。
また上述のように、操舵角が大きいときに運転者は正面を向いている可能性が低いという傾向があるため、正面顔であるか否かの判定に操舵角センサを用いる場合には、請求項5に記載のように、判定手段は、操舵角センサからの信号により得られる操舵角が0度を含むようにして予め設定された所定操舵角判定範囲に含まれる場合に、初期値とすることができると判定するようにするとよい。これにより、操舵角センサを用いた正面顔の判定を簡便に行うことができる。
また車両状態信号としては、請求項6に記載のように、車両に取り付けられた車速センサからの信号を用いるとよい。なぜならば、運転者が左右の確認をする頻度が多い右左折時の場合に車速は小さい。このため、運転者が正面を向いているかを車速の大きさによりある程度判別可能であるからである。
また上述のように、車速が小さいときに運転者は正面を向いている可能性が低いという傾向があるため、正面顔であるか否かの判定に車速センサを用いる場合には、請求項7に記載のように、判定手段は、車速センサからの信号により得られる車速が、予め設定された所定車速判定値以上である場合に、初期値とすることができると判定するようにするとよい。これにより、車速センサを用いた正面顔の判定を簡便に行うことができる。
また車両状態信号としては、請求項8に記載のように、車両に取り付けられた加速度センサからの信号を用いるとよい。なぜならば、運転者は車両の速度を上げるために加速している最中に通常は前方を注視している。このため、運転者が正面を向いているかを加速度の大きさによりある程度判別可能であるからである。
また上述のように、加速度が大きいときに運転者は正面を向いている可能性が高いという傾向があるため、正面顔であるか否かの判定に加速度センサを用いる場合には、請求項9に記載のように、判定手段は、加速度センサからの信号により得られる車両の進行方向に対する加速度が予め設定された所定加速度判定値以上である場合に、初期値とすることができると判定するようにするとよい。これにより、加速度センサを用いた正面顔の判定を簡便に行うことができる。
また車両状態信号としては、請求項10に記載のように、車両に取り付けられたアクセル開度センサからの信号を用いるとよい。なぜならば、運転者は車両の速度を上げるために加速している最中、即ちアクセルを踏み込んでいる最中に通常は前方を注視している。このため、運転者が正面を向いているかをアクセル開度の大きさによりある程度判別可能であるからである。
また上述のように、アクセル開度が大きいときに運転者は正面を向いている可能性が高いという傾向があるため、正面顔であるか否かの判定にアクセル開度センサを用いる場合には、請求項11に記載のように、判定手段は、アクセル開度センサからの信号により得られるアクセル開度が、予め設定された所定アクセル開度判定値以上である場合に、初期値とすることができると判定するようにするとよい。これにより、アクセル開度センサを用いた正面顔の判定を簡便に行うことができる。
以下に本発明の実施形態を図面とともに説明する。
図1は、本実施形態の顔追跡装置1の構成、及び顔追跡装置1が接続された車内LAN2の概略構成を示すブロック図である。
図1に示すように、顔追跡装置1は、車両に搭載され、車内LAN2を介してエンジンECU3,ブレーキECU4,ステアリングECU5,ナビゲーションECU6をはじめとする各種ECUや車載機器と接続されている。
このうちエンジンECU3は、少なくとも、運転者のアクセルペダルの踏込量に応じたアクセル開度を検出するアクセル開度センサ11からの検出信号に基づいて、エンジンの回転を制御するように構成されている。
またブレーキECU4は、少なくとも、運転者のブレーキペダル操作に応じてブレーキ油を圧送するマスタシリンダの油圧からブレーキ操作量を検出するマスタシリンダ圧センサ(不図示)や、車速を検出する車速センサ12からの検出信号に基づいて、ABS制御やトラクション制御等を実行するように構成されている。
またステアリングECU5は、少なくとも、ドライバのステアリング操作時における前輪の操舵角を検出する操舵角センサ13からの検出信号に基づいて、操舵輪の舵角変更時のアシスト力を発生させるパワーステアリング制御を実行するように構成されている。
またナビゲーションECU6は、GPS(Global Positioning System)アンテナ(不図示)を介して受信したGPS信号や、車両の前後方向の加速度を検出する加速度センサ14からの検出信号等に基づいて車両の現在位置を検出し、現在地から目的地までの経路案内等を実行するように構成されている。
そして、これらECU3〜6等にて検出される各種車両情報(アクセル開度、車速など)は、車内LAN2を介して相互に任意に送受信できるようにされている。
次に、顔追跡装置1は車両に搭載され、運転者の顔を連続して撮影するカメラ21と、カメラ21により撮影された画像のデータを一時的に記憶する画像キャプチャーボード22と、各種のガイド音声等を出力するための音声出力部23と、車内LAN2を介して他の装置と各種車両情報等をやりとりする車内LAN通信部24と、上述した画像キャプチャーボード22及び車内LAN通信部24からの入力に応じて各種処理を実行し、音声出力部23及び車内LAN通信部24を制御する制御部25とを備えている。
なお制御部25は、CPU,ROM,RAM,I/O及びこれらの構成を接続するバスラインなどからなる周知のマイクロコンピュータを中心に構成されており、ROM及びRAMに記憶されたプログラムに基づいて各種処理を実行する。
ここで、図2は、制御部25が実行する処理の概要を示す機能ブロック図である。
図2に示すように、制御部25は、画像キャプチャーボード22に一時的に記憶されている画像データを取得する顔画像取得部31と、顔画像取得部31にて取得した画像データにおいて顔を撮影している領域(以下、顔領域ともいう)を抽出する顔領域抽出部32と、ECU3〜6からの各種車両情報(アクセル開度、車速、操舵角、加速度)を参照して、顔領域抽出部32にて抽出した顔領域内の顔が円筒モデルで必要とする初期値(以下、円筒モデル初期値という)であるか否かを判定する初期値判定部33と、初期値判定部33で円筒モデル初期値と判定された画像データを、円筒モデルで利用可能な形に加工してテンプレートとして記憶するテンプレート記憶部34と、テンプレート記憶部34にて保持されたテンプレートを用いて円筒モデルを適用することにより、顔画像取得部31にて取得した画像データで示される顔が向いている方向(顔向き方向)を追跡する顔追跡部35とを備えている。
このように構成された顔追跡装置1において、制御部25は、円筒モデル初期値を取得する初期値取得処理と、カメラ21で撮影した顔の顔向き方向を追跡する顔追跡処理とをそれぞれ独立に実行する。
ここで、顔追跡装置1の制御部25が実行する初期値取得処理の手順を、図3を用いて説明する。図3は初期値取得処理を示すフローチャートである。この初期値取得処理は、制御部25が起動(電源オン)している間に繰り返し実行される処理である。
この初期値取得処理が実行されると、制御部25は、まずS10にて、S70でセットまたはS460でクリアされる初期値取得済フラグF1がセットされているか否かを判断する。即ち、円筒モデル初期値を取得しているか否かを判断する。ここで、初期値取得済フラグF1がセットされていれば、円筒モデル初期値を取得していると判断し(S10)、初期値取得処理を一旦終了する。一方、初期値取得済フラグF1がセットされていなければ、円筒モデル初期値を取得していないと判断し(S10)、S20にて、画像キャプチャーボード22から画像データを取得する。
その後S30にて、S20で取得した画像データから顔領域を抽出する処理を行う。具体的には、図6(a)に示すように、S20で取得した画像データGDの各画素の輝度とその画素に隣接する画素の輝度の差分を算出することにより、縦方向H1のエッジと横方向H2のエッジを検出することにより、矩形状の顔領域KRを抽出する。
次にS40にて、S20で取得した画像データGDの顔領域KR内の顔が正面を向いている顔(以下、正面顔ともいう)であるか否かを判定する正面顔判定処理(後述)を行う。そしてS50にて、S40の正面顔判定処理でセットまたはクリアされる正面顔判定フラグF2がセットされているか否かを判断する。即ち、顔領域KR内の顔が正面顔であるか否かを判断する。ここで、正面顔判定フラグF2がセットされていなければ、正面顔でないと判断し(S50)、初期値取得処理を一旦終了する。一方、正面顔判定フラグF2がセットされていれば、正面顔であると判断し(S50)、S60に移行する。
そしてS60では、まず、画像データGDにおいて顔領域KRとして抽出された画像データを円筒モデル初期値と設定する。そして更に、円筒モデル初期値と設定された画像データを、図6(c)に示すように、縦方向H1を軸とした円筒ETの円周面に貼り付けるように加工するデータ処理を行う。そして、円筒ETの円周面に貼り付けられた形に加工された画像データを、円筒モデルで使用するテンプレート(以下、初期値テンプレートという)として、制御部25内のRAMに記憶する。
その後S70にて、初期値取得済フラグF1をセットするとともに、正面顔判定フラグF2をクリアして、初期値取得処理を一旦終了する。
次に、S40にて行われる正面顔判定処理を、図4を用いて説明する。図4は正面顔判定処理を示すフローチャートである。
この正面顔判定処理が実行されると、制御部25は、まずS210にて、顔形状モデルを用いて、S30にて顔領域KRとして抽出された画像データのフィッティングを行う。
ここで、図7(a)は基本形状s0を示す図、図7(b)は形状ベクトルs1を示す図、図7(c)は形状ベクトルs2を示す図、図7(d)は形状ベクトルs3を示す図である。尚、図7(b),(c),(d)では、ベクトルの始点を明確にするために、基本形状s0の上にベクトルs1,s2,s3を上書きしている。
顔形状モデルは、正面顔を三角形状の複数のメッシュで表現した基本形状 (base shape) s0(図7(a)を参照)と、基本形状s0からの顔向き方向を示すn個(nは自然数)の形状ベクトル(shape vector)si(i=1,2,3・・・,n)(図7(b),(c),(d)を参照)とが予め設定されており、これら基本形状s0及びn個の形状ベクトルsiを用いて(1)式により計算することにより、人間の顔の形状を表現する。
尚、(1)式のpi(i=1,2,3・・・)は、重ね合せ係数である。また、形状ベクトルsi(i=1,2,3・・・)は、基本形状s0を構成するメッシュの頂点(以下、メッシュ頂点ともいう)を始点とするベクトルであり、基本形状s0の全頂点について形状ベクトルsiが設定されている(図7(b),(c),(d)では、一部のメッシュ頂点についてのみ形状ベクトルs1,s2,s3を表示している)。
更に顔形状モデルは、正面顔についての基本となる色合いを示す画像(base appearance image)A0(x)(以下、基本色合い像A0(x)という)と、色合いのフィッティングの際に基本色合い像A0(x)に重ね合わせるためのm個(mは自然数)の色合い像(appearance image)Ai(x)(i=1,2,3・・・,m)とが予め設定されており、これら基本色合い像A0(x)及びm個の色合い像Ai(x)を用いて(2)式で計算することにより人間の顔の色合いを表現する。
ここで、xは基本形状s0内の2次元座標を示す。また、(2)式のλi(i=1,2,3・・・)は、重ね合せ係数である。
即ちS210では、(1)式および(2)式で得られる画像が、S20で取得した画像GDに一致するように、重ね合せ係数pi及び重ね合せ係数λiを変化させるフィッティングを行う(図6(b)を参照)。そして、(1)式および(2)式で得られる画像と、S20で取得した画像とが最も一致したときの、両画像の差異の度合いを示すエラー値(以下、顔画像エラー値という)を算出する。尚、この顔画像エラー値は、S20で取得した画像の顔が正面顔に近付くほど小さくなるように算出される値である。
尚、顔追跡装置1は、性別、年代、人種に応じて異なる複数種類の基本形状s0、n個の形状ベクトルsi、基本色合い像A0(x)、及びm個の色合い像Ai(x)を制御部25のROMに記憶している。そして顔追跡装置1は、運転者が自身の性別、年代、人種に応じて複数種類のs0,si,A0(x),Ai(x)から1つのs0,si,A0(x),Ai(x)を選択できるように構成されている。
そしてS210の処理が終了すると、S220にて、S210のフィッティングで得られた顔画像エラー値が予め設定された第1所定エラー判定値(本実施形態では例えば20)以下であるか否かを判断する。即ち、顔画像エラー値が第1所定エラー判定値以下であれば、S20で取得した画像が正面顔の画像であると判断し、一方、顔画像エラー値が第1所定エラー判定値より大きければ、20で取得した画像が正面顔の画像でないと判断する。
ここで、エラー値が第1所定エラー判定値より大きい場合には、正面顔の画像でないと判断し(S220)、S280にて正面顔判定フラグF2をクリアして、正面顔判定処理を一旦終了する。一方、エラー値が第1所定エラー判定値以下である場合には、正面顔の画像であると判断し(S220)、S230にて、操舵角が予め設定され所定操舵角判定範囲内(本実施形態では例えば−20°〜+20°の範囲に相当する値)であるか否かを判断する。
ここで、操舵角が所定操舵角判定範囲外である場合には(S230)、S280にて、正面顔判定フラグF2をクリアして、正面顔判定処理を一旦終了する。一方、操舵角が所定操舵角判定範囲内である場合には(S230)、S240にて、車速が予め設定された所定車速判定値(本実施形態では例えば30km/hに相当する値)以上であるか否かを判断する
ここで、車速が所定車速判定値未満である場合には(S240)、S280にて正面顔判定フラグF2をクリアして、正面顔判定処理を一旦終了する。一方、車速が所定車速判定値以上である場合には(S240)、S250にて、加速度が予め設定された所定加速度判定値(本実施形態では例えば−0.03Gに相当する値)以下であるか否かを判断する。尚、本実施形態では、加速度の符号がマイナスの場合に車両の進行方向に向かって加速していることを示す。
ここで、加速度が所定加速度判定値より大きい場合には(S250)、S280にて正面顔判定フラグF2をクリアして、正面顔判定処理を一旦終了する。一方、加速度が所定加速度判定値以下である場合には(S250)、S260にて、アクセル開度が予め設定された所定アクセル開度判定値(本実施形態では例えば13%に相当する値)以上であるか否かを判断する。
ここで、アクセル開度が所定アクセル開度判定値未満である場合には(S260)、S280にて正面顔判定フラグF2をクリアして、正面顔判定処理を一旦終了する。一方、アクセル開度が所定アクセル開度判定値以上である場合には(S260)、S270にて、正面顔判定フラグF2をセットして、正面顔判定処理を一旦終了する。
尚、本実施形態では、運転者が正面を向いて直進路を走行中の操舵角を計測することにより、上記の所定操舵角判定範囲を決定した。この計測結果を図8(a)に示す。図8(a)は、正面を向いて直進路を走行中の操舵角の分布を示すヒストグラムである。図8(a)に示すように、正面を向いて直進路を走行中の操舵角は、−19.6°から+18.1°の範囲に収まっている。尚、左にハンドルを回す方向をマイナスとしている。これにより、所定操舵角判定範囲を−20°〜+20°の範囲と決定した。
また、右左折する時の車速を計測することにより、上記の所定車速判定値を決定した。停止中や右左折の運転者は左右確認をしている場合が多く、運転者は正面を向いている可能性が低いからである。この計測結果を図8(b)に示す。図8(b)は、右左折する時の車速の分布を示すヒストグラムである。図8(b)に示すように、右左折する時の車速は、0から28.2km/hの範囲に収まっている。尚、この計測結果は、右折レーン停止中の状況を含んでいる。これにより、所定車速判定値を30km/hと決定した。
また、周辺環境確認中の進行方向に対する加速度を計測することにより、上記の所定加速度判定値を決定した。この計測結果を図8(c)に示す。図8(c)は、周辺環境確認中の進行方向に対する加速度の分布を示すヒストグラムである。図8(c)に示すように、走行中に周辺環境を確認する状況での進行方向に対する加速度は、−0.028G上である。即ち、−0.03G以下の場合には運転者は前方を注視しながら加速を行っている。これにより、所定加速度判定値を−0.03Gと決定した。
また、周辺環境確認中のアクセル開度を計測することにより、上記の所定アクセル開度判定値を決定した。この計測結果を図8(d)に示す。図8(d)は、周辺環境確認中の進アクセル開度の分布を示すヒストグラムである。図8(d)に示すように、走行中に周辺環境を確認する状況でのアクセル開度は、12.2%以下である。即ち、13%以上の場合には運転者は前方を注視しながら加速を行っている。これにより、所定アクセル開度判定値を13%と決定した。
尚、図8(a)〜(d)に示す計測結果は、3人の運転者がそれぞれ一般道と高速道を走行中に計測した結果を平均することで得られたものである。
次に、顔追跡装置1の制御部25が実行する顔追跡処理の手順を、図5を用いて説明する。図5は顔追跡処理を示すフローチャートである。この顔追跡処理は、制御部25が起動(電源オン)している間に繰り返し実行される処理である。
この顔追跡処理が実行されると、制御部25は、まずS410にて、S70でセットまたはS460でクリアされる初期値取得済フラグF1がセットされているか否かを判断する。即ち、円筒モデル初期値を取得しているか否かを判断する。ここで、初期値取得済フラグF1がセットされていなければ、円筒モデル初期値を取得していないと判断し(S410)、顔追跡処理を一旦終了する。一方、初期値取得済フラグF1がセットされていれば、円筒モデル初期値を取得していると判断し(S410)、S420にて、画像キャプチャーボード22から画像データを取得する。
次にS430にて、円筒モデルを用いて、S420で取得した画像データのフィッティングを行う。具体的には、初期値テンプレートにより表現されている円筒を様々な回転角度で回転させる演算を行い、回転角度を変化させる毎に、この演算を行うことで得られた画像と、S420で取得した画像データとの比較を行い、この比較における差異の度合いを示すエラー値(以下、追跡エラー値という)を算出する。そして、この追跡エラー値が最も小さいときの回転角度を、S420で取得した画像データで示される顔が向いている方向(顔向き方向)とする(図6(d)の矢印YJ参照)。尚、この顔向き方向を示す回転角度の情報は、本実施形態では、ロール・ピッチ・ヨー角(θx,θy,θz)で与えられる。
その後S440にて、S430のフィッティングで得られた追跡エラー値が予め設定された第2所定エラー判定値(本実施形態では例えば20)以下であるか否かを判断する。即ち、S430によるフィッティングが成功したか否かを判断する。
ここで、エラー値が第2所定エラー判定値より大きい場合には、フィッティングが失敗したと判断し(S440)、S460にて、初期値取得済フラグF1をクリアして、顔追跡処理を一旦終了する。これにより、再び、円筒モデル初期値を取得する処理(S20〜S70)が行われる。
一方、エラー値が第2所定エラー判定値以下である場合には、フィッティングが成功したと判断し(S440)、S450にて、S430のフィッティングで得られた回転角度の情報を、運転者の現時点の顔向き方向を示す情報として確定する。そして、顔追跡処理を一旦終了する。
このように構成された顔追跡装置1では、カメラ21により運転者の顔を連続して撮像して、撮像した画像データを取得するとともに、カメラ21により取得された画像データの中から、追跡対象とする顔領域KRを抽出する(S30)。その後に、顔領域KR内の顔が正面を向いている顔(正面顔)であるか否かを判定する(S40,S210)。そして、この処理で正面顔であると判定された顔領域KRの画像データを円筒モデル初期値として、円筒モデルを用いて、カメラ21により撮像された人間の顔の向きを検出する(S430)。
このように顔追跡装置1によれば、円筒モデルで必要とする初期値(円筒モデル初期値)をS40の処理により自動で取得することができる。このため、顔追跡装置1の利用者自身が手動で円筒モデル初期値を与えるという手間を省略することができ、利用者にとって利便性の高い装置を提供することができるという効果を奏する。
また、S210の処理では顔形状モデルを用いているので、正面顔であるか否かを精度良く判定することができる。また顔形状モデルは、(1)式による顔形状のフィッティングだけではなく、(2)式による顔の色合いのフィッティングを行うことで、顔の表情に依存することなく、正面顔か否かを精度良く判定することができる。
また、顔形状モデル(S210)だけでなく、操舵角センサ、車速センサ、加速度センサ及びアクセル開度センサからの信号を用いて正面顔か否かの判定を行う(S230〜S260)ため、更に精度良く正面顔であるか否かを判定することができる。
また、操舵角センサ、車速センサ、加速度センサ及びアクセル開度センサからの信号を用いて正面顔であるか否かの判定する場合に、操舵角が所定操舵角判定範囲内であるか否か(S230)、車速が所定車速判定値以上であるか否か(S240)、加速度が所定加速度判定値以下であるか否か(S250)、アクセル開度が所定アクセル開度判定値以上であるか否か(S260)により判定しているため、正面顔の判定を簡便に行うことができる。
以上説明した実施形態において、カメラ21は本発明における撮像手段、S30の処理は本発明における抽出手段、S40の処理は本発明における判定手段、S430の処理は本発明における顔方向検出手段、円筒モデル初期値は本発明における初期値である。
以上、本発明の一実施例について説明したが、本発明は上記実施例に限定されるものではなく、本発明の技術的範囲に属する限り種々の形態を採ることができる。
例えば上記実施形態においては、操舵角センサ、車速センサ、加速度センサ及びアクセル開度センサの情報を用いて正面顔か否かの判定を行うものを示したが、これら4つのセンサのうち少なくとも1つを用いて判定を行うようにしてもよいし、4つのセンサを用いることなくS210の処理のみで判定を行うようにしてもよい。
また上記実施形態においては、顔向き方向を示す回転角度の情報をロール・ピッチ・ヨー角で与えるものを示したが、回転角度を特定することができるものであればよく、例えば3次元ベクトルやオイラー角などで与えるようにしてもよい。
また上記実施形態においては、運転者が自身の性別、年代、人種に応じて、s0,si,A0(x)及びAi(x)を選択できるように構成されているものを示したが、選択条件としては性別、年代、人種に限られない。また、性別、年代、人種等の条件に依存することなく利用できるs0,si,A0(x)及びAi(x)を制御部25のROMに記憶するようにしてもよい。これにより、運転者がs0,si,A0(x),Ai(x)を選択する手間を省略することができる。
顔追跡装置1の構成、及び顔追跡装置1が接続された車内LAN2の概略構成を示すブロック図である。 制御部25が実行する処理の概要を示す機能ブロック図である。 初期値取得処理を示すフローチャートである。 正面顔判定処理を示すフローチャートである。 顔追跡処理を示すフローチャートである。 S30,S210,S60及びS430の処理を説明する図である。 基本形状s0、形状ベクトルs1,s2,s3を示す図である。 正面顔判定処理での判定値を決定するための操舵角分布図、車速分布図、加速度分布図およびアクセル開度分布図である。
符号の説明
1…顔追跡装置、2…車内LAN、3…エンジンECU、4…ブレーキECU、5…ステアリングECU、6…ナビゲーションECU、11…アクセル開度センサ、12…車速センサ、13…操舵角センサ、14…加速度センサ、21…カメラ、22…画像キャプチャーボード、23…音声出力部、24…車内LAN通信部、25…制御部、31…顔画像取得部、32…顔領域抽出部、33…初期値判定部、34…テンプレート記憶部、35…顔追跡部

Claims (11)

  1. 人間の顔が向いている方向の変化を、円筒モデルを用いて追跡する顔追跡装置であって、
    人間の顔を連続して撮像して、該撮像した画像データを取得する撮像手段と、
    前記撮像手段により取得された画像データの中から、追跡対象とする顔の部位を抽出する抽出手段と、
    前記抽出手段により抽出された画像データを、前記円筒モデルで必要とする初期値とすることができるか否かを判定する判定手段と、
    前記判定手段により前記初期値とすることができると判定された画像データを前記初期値として、前記円筒モデルを用いて、前記撮像手段により撮像された人間の顔の向きを検出する顔方向検出手段と
    を備えることを特徴とする顔追跡装置。
  2. 前記判定手段は、顔形状モデルを用いて、前記初期値とすることができるか否かを判定することを特徴とする請求項1に記載の顔追跡装置。
  3. 前記人間は、車両を運転する人であり、
    前記判定手段は、顔形状モデルと、前記車両の状態を示す車両状態信号とを用いて、前記初期値とすることができるか否かを判定することを特徴とする請求項1に記載の顔追跡装置。
  4. 前記車両状態信号は、前記車両に取り付けられた操舵角センサからの信号であることを特徴とする請求項3に記載の顔追跡装置。
  5. 前記判定手段は、
    前記操舵角センサからの信号により得られる操舵角が0度を含むようにして予め設定された所定操舵角判定範囲に含まれる場合に、前記初期値とすることができると判定する
    ことを特徴とする請求項4に記載の顔追跡装置。
  6. 前記車両状態信号は、前記車両に取り付けられた車速センサからの信号であることを特徴とする請求項3に記載の顔追跡装置。
  7. 前記判定手段は、
    前記車速センサからの信号により得られる車速が、予め設定された所定車速判定値以上である場合に、前記初期値とすることができると判定する
    ことを特徴とする請求項6に記載の顔追跡装置。
  8. 前記車両状態信号は、前記車両に取り付けられた加速度センサからの信号であることを特徴とする請求項3に記載の顔追跡装置。
  9. 前記判定手段は、
    前記加速度センサからの信号により得られる前記車両の進行方向に対する加速度が予め設定された所定加速度判定値以上である場合に、前記初期値とすることができると判定する
    ことを特徴とする請求項8に記載の顔追跡装置。
  10. 前記車両状態信号は、前記車両に取り付けられたアクセル開度センサからの信号であることを特徴とする請求項3に記載の顔追跡装置。
  11. 前記判定手段は、
    前記アクセル開度センサからの信号により得られるアクセル開度が、予め設定された所定アクセル開度判定値以上である場合に、前記初期値とすることができると判定する
    ことを特徴とする請求項10に記載の顔追跡装置。
JP2007029314A 2007-02-08 2007-02-08 顔追跡装置 Pending JP2008197722A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007029314A JP2008197722A (ja) 2007-02-08 2007-02-08 顔追跡装置
US12/010,340 US8098887B2 (en) 2007-02-08 2008-01-24 Face tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007029314A JP2008197722A (ja) 2007-02-08 2007-02-08 顔追跡装置

Publications (1)

Publication Number Publication Date
JP2008197722A true JP2008197722A (ja) 2008-08-28

Family

ID=39756636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007029314A Pending JP2008197722A (ja) 2007-02-08 2007-02-08 顔追跡装置

Country Status (2)

Country Link
US (1) US8098887B2 (ja)
JP (1) JP2008197722A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014188704A1 (ja) * 2013-05-21 2014-11-27 株式会社デンソー ドライバステータスモニタ

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006053809A1 (de) * 2006-11-15 2008-05-21 Robert Bosch Gmbh Verfahren zur Einstellung von Kenngrößen eines Bremssystems in einem Kraftfahrzeug
US8478077B2 (en) 2011-03-20 2013-07-02 General Electric Company Optimal gradient pursuit for image alignment
KR101859997B1 (ko) * 2011-08-24 2018-07-05 한국전자통신연구원 국부 다해상도 3차원 얼굴 고유 모델 생성 장치, 방법 및 얼굴 피부 관리 시스템
JP5367037B2 (ja) * 2011-09-26 2013-12-11 本田技研工業株式会社 顔向き検出装置
KR20150026358A (ko) * 2013-09-02 2015-03-11 삼성전자주식회사 피사체 정보에 따른 템플릿 피팅 방법 및 그 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6553130B1 (en) * 1993-08-11 2003-04-22 Jerome H. Lemelson Motor vehicle warning and control system and method
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
JPH1148952A (ja) * 1997-08-06 1999-02-23 Mitsubishi Electric Corp 車両用制動装置
JPH11281661A (ja) 1998-02-02 1999-10-15 Sanyo Electric Co Ltd 顔向き検出方法及びその装置
JP4476424B2 (ja) 2000-04-05 2010-06-09 本田技研工業株式会社 画像処理装置およびその方法ならびにプログラム記録媒体
JP4052081B2 (ja) 2002-10-10 2008-02-27 日産自動車株式会社 視線方向検出装置
JP2005157648A (ja) 2003-11-25 2005-06-16 Toyota Motor Corp 運転者認識装置
JP4319535B2 (ja) 2003-12-19 2009-08-26 株式会社東海理化電機製作所 顔の向き検知装置
JP4130820B2 (ja) * 2004-08-27 2008-08-06 株式会社豊田中央研究所 顔中心位置検出装置及び方法並びにプログラム
JP2006215743A (ja) 2005-02-02 2006-08-17 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2006338329A (ja) * 2005-06-02 2006-12-14 Seiko Epson Corp 顔向き検出方法、顔向き検出装置、顔向き検出プログラムおよびそのプログラムを記録した記録媒体
JP2006350697A (ja) 2005-06-16 2006-12-28 Toyota Motor Corp 車両の安全運転支援装置
JP3962803B2 (ja) * 2005-12-16 2007-08-22 インターナショナル・ビジネス・マシーンズ・コーポレーション 頭部検出装置、頭部検出方法および頭部検出プログラム
JP2009136551A (ja) * 2007-12-07 2009-06-25 Denso Corp 車両用顔特徴量検出装置及び顔特徴量検出方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014188704A1 (ja) * 2013-05-21 2014-11-27 株式会社デンソー ドライバステータスモニタ

Also Published As

Publication number Publication date
US8098887B2 (en) 2012-01-17
US20080317284A1 (en) 2008-12-25

Similar Documents

Publication Publication Date Title
CN108496178B (zh) 用于估计未来路径的系统和方法
JP4319928B2 (ja) 車両状態検知システムおよび車両状態検知方法
JP4940168B2 (ja) 駐車スペース認識装置
JP5782708B2 (ja) 走行支援装置
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
CN103019524B (zh) 车辆操作输入装置和用于车辆操作输入装置的控制方法
CN107792061B (zh) 停车辅助装置
JP2020064046A (ja) 車両位置決定方法及び車両位置決定装置
CN108885108B (zh) 基于操纵难度的u形转弯辅助
KR20090088210A (ko) 두 개의 기준점을 이용한 목표주차위치 검출 방법과 장치및 그를 이용한 주차 보조 시스템
JP6776707B2 (ja) 自車位置推定装置
JP2007240422A (ja) 俯角算出装置、俯角算出方法、俯角算出プログラムおよび画像処理装置
JP2008197722A (ja) 顔追跡装置
JP2015505759A (ja) 車両の迫っている横転を検知するための方法
JP7148064B2 (ja) カメラパラメータ推定装置、カメラパラメータ推定方法、およびカメラパラメータ推定プログラム
JP2017068424A (ja) 姿勢計測装置及び姿勢計測方法
JP2019526105A (ja) 周辺モデルの写像を作成するための方法、並びに、車両制御システム、及び、対応する車両
JP2006284281A (ja) 自車情報認識装置及び自車情報認識方法
JP5695000B2 (ja) 車両周辺監視装置
JP2008082932A (ja) ナビゲーション装置、その制御方法及び制御プログラム
JP2021193340A (ja) 自己位置推定装置
JP7056379B2 (ja) 車両用走行制御装置
JP2015215299A (ja) 対象物位置推定装置
JP2019007739A (ja) 自己位置推定方法及び自己位置推定装置
JP2024005026A (ja) 車両用表示制御装置、車両用表示装置、車両、車両用表示制御方法、及び車両用表示制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090512