JP2007257333A - 車両乗員顔向き検出装置および車両乗員顔向き検出方法 - Google Patents

車両乗員顔向き検出装置および車両乗員顔向き検出方法 Download PDF

Info

Publication number
JP2007257333A
JP2007257333A JP2006081245A JP2006081245A JP2007257333A JP 2007257333 A JP2007257333 A JP 2007257333A JP 2006081245 A JP2006081245 A JP 2006081245A JP 2006081245 A JP2006081245 A JP 2006081245A JP 2007257333 A JP2007257333 A JP 2007257333A
Authority
JP
Japan
Prior art keywords
face
feature point
vehicle occupant
face orientation
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006081245A
Other languages
English (en)
Other versions
JP4735361B2 (ja
Inventor
Haruo Matsuo
治夫 松尾
Masayuki Kaneda
雅之 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006081245A priority Critical patent/JP4735361B2/ja
Publication of JP2007257333A publication Critical patent/JP2007257333A/ja
Application granted granted Critical
Publication of JP4735361B2 publication Critical patent/JP4735361B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】顔向きの変化を安定して精度よく検出できるようにする。
【解決手段】第1、第2カメラ2a,2bにより撮像された顔画像を取込む第1、第2画像取込部4a,4bと、取込んだ顔画像から顔特徴点を抽出する第1、第2顔特徴点出力部5a,5bと、抽出された顔特徴点を入力し、以降の処理を3次元座標か2次元座標かによって行うかを判断する処理判断部6と、処理判断部6の判断で3次元座標の推定を行う場合に、顔特徴点の3次元座標を推定する3次元座標推定部7と、3次元座標から顔向きを計算する顔向き計算部9と、処理判断部6の判断で2次元座標を用いる場合に、2次元座標情報から顔向きを推定する顔向き推定部8と、推定された顔向きが複数の場合に、適切な1つの顔向きを選択する顔向き設定部10と、顔向きの変化に応じて、顔向き計算部9及び顔向き推定部8で得られたいずれか一方の顔向きを出力する顔向き出力部11とを備えている。
【選択図】図1

Description

本発明は、運転者などの車両乗員の顔向きを検出するための車両乗員顔向き検出装置および車両乗員顔向き検出方法に関する。
従来より、撮像した運転者の顔画像に基づいて運転者の顔向きを検出(推定)する装置が多く提案されている(例えば、特許文献1参照)。前記特許文献1の装置では、候補特定手段で特定した顔部品の画像上の絶対位置を用いて、撮像手段に対する顔の向きを検出するようにしている。
特開平10−307923号公報
ところで、前記特許文献1の装置のように、1つのカメラ(単眼)によって顔向きを検出する構成では、顔の向き変えにより、処理対象とする顔部位が撮像される範囲内において存在する場合のみ顔向きの検出が可能であるが、予め求めたモデルとのマッチングを行う方法であるため、一般に2台のカメラによる3次元計測ほどの精度は期待できない。
そこで、本発明は、顔の向き変え角度が小さい場合でも顔の向き変え角度が大きい場合においても、顔向きを安定して精度よく検出することができる車両乗員顔向き検出装置および車両乗員顔向き検出方法を提供することを目的とする。
前記目的を達成するために本発明に係る車両乗員顔向き検出装置は、車両乗員の顔をその正面前方側の左右から撮像するための少なくとも2台の撮像手段と、前記各撮像手段により撮像された顔画像をそれぞれ取り込む複数の画像取込手段と、前記各画像取込手段からそれぞれ取り込んだ顔画像から顔特徴点を抽出して出力する複数の顔特徴点出力手段と、前記各顔特徴点出力手段から前記顔特徴点を入力し、以降の処理を3次元座標によって行うか2次元座標によって行うかを判断する処理判断手段と、前記処理判断手段による判断で3次元座標の推定を行う場合に、前記各顔特徴点出力手段で得られた前記顔特徴点の3次元座標を推定する3次元座標推定手段と、前記3次元座標推定手段で推定された3次元座標から前記車両乗員の顔向きを計算する顔向き計算手段と、前記処理判断手段による判断で2次元座標を用いる場合に、前記各顔特徴点出力手段で得られた2次元座標情報から前記車両乗員の顔向きを推定する顔向き推定手段と、前記顔向き推定手段で推定された顔向きが複数の場合に、適切な1つの顔向きを選択する顔向き設定手段と、前記車両乗員の顔向きの変化に応じて、前記顔向き計算手段および前記顔向き推定手段で得られたいずれか一方の顔向きを出力する顔向き出力手段と、を備えたことを特徴としている。
本発明に係る車両乗員顔向き検出装置および車両乗員顔向き検出方法によれば、処理判断手段による判断に基づいて、運転者の顔向き変え角度が小さいときには、2台の各撮像手段による3次元計測による精度の高い顔向き計算を行い、運転者の顔向き変え角度が大きいときには、2台の各撮像手段のいずれか一方の撮像手段による顔向き推定を行うことにより、顔の向き変え角度が小さい場合でも顔の向き変え角度が大きい場合においても、顔の向きを安定して精度よく検出することができる。
以下、本発明を図示の実施形態に基づいて説明する。図1は、本発明の実施形態に係る車両乗員顔向き検出装置の構成を示すブロック図、図2は、本発明の実施形態に係る車両乗員顔向き検出装置を備えた車両(自動車)の運転席付近を示す模式図である。
図1に示すように、本実施形態に係る運転者顔向き検出装置1は、運転者の顔を撮像するための撮像手段としての2台の第1、第2カメラ2a,2bと、装置本体3を有しており、装置本体3は車両内に設置されている。装置本体3は、演算を行うマイクロプロセッサ、該マイクロプロセッサに所定の処理を実行させるためのプログラム等を記憶しているROM、演算結果などの各種データを記憶するRAM等により構成されている。
装置本体3は、第1、第2カメラ2a,2bにより撮像された顔画像をそれぞれ取り込む第1、第2画像取込部4a,4bと、第1、第2画像取込部4a,4bからそれぞれ取り込んだ顔画像から顔特徴点を抽出して出力する第1、第2顔特徴点出力部5a,5bと、第1、第2顔特徴点出力部5a,5bから顔特徴点を入力し、以降の処理を3次元座標によって行うか2次元座標によって行うかを判断する処理判断部6と、処理判断部6による判断で3次元座標の推定を行う場合に、第1、第2顔特徴点出力部5a,5bで得られた顔特徴点の3次元座標を推定する3次元座標推定部7と、処理判断部6による判断で2次元座標を用いる場合に、第1、第2顔特徴点出力部5a,5bで得られた2次元座標情報から運転者の顔向きを推定する顔向き推定部8と、3次元座標推定部7で推定された3次元座標から運転者の顔向きを計算する顔向き計算部9と、顔向き推定部8で推定された顔向きが複数の場合に、適切な1つの顔向きを選択する顔向き設定部10と、運転者の顔向きの変化に応じて、顔向き計算部9および顔向き設定部10(顔向き推定部8)で得られたいずれか一方の顔向きを出力する顔向き出力部11と、を主要構成部として備えている。
2台の第1、第2カメラ2a,2bは、車室内の運転席に着座している運転者(車両乗員)の顔の正面側を撮像するためのカメラであり、本実施形態では図2に示すように、ステアリングハンドル20を間にして略左右対称位置となるようにして、インストルメントパネルの上面21に運転席の運転者側に向けて設置されている。よって、着座している運転者の顔の垂直中心線が存在すると想定される位置を境に左右方向に分け、かつ同条件下で運転者の同一顔部位が撮像できるような向きに第1、第2カメラ2a,2bが設置されている。
これにより、車両乗員の顔の向き変えや、光環境等が変化した場合でも、いずれかのカメラ(第1カメラ2aまたは第2カメラ2b)により顔画像を撮像できる可能性が高く、顔の向き変え変化および光環境等の変化に対して安定性の高い顔向き出力を行うことができる。
また、運転席のシート位置調整機構やステアリングハンドル20のチルト角調整機構、またはルームミラー等からの調整位置情報に基づいて、運転者の頭部が存在しうる位置を推定し、第1、第2カメラ2a,2bの左右方向の向きと上下方向の向きの補正を行う補正機構(不図示)を設けてもよい。
なお、第1、第2カメラ2a,2bの位置は、ステアリングハンドル20を中心にして左右対称位置から多少ずれていれも差し支えない。第1、第2カメラ2a,2bは、筐体にCCDやCMOSセンサなどの撮像素子とレンズ、フィルタ等を組み合わせたビデオカメラであり、時系列に順次撮像した画像を出力する。
図3は、第1、第2カメラ2a,2bと運転者の顔(頭部)Aとの位置を示した模式図であり、第1、第2カメラ2a,2bの撮像範囲(図3の斜線部分)に、運転者の顔(頭部)Aが存在するように第1、第2カメラ2a,2bの位置および向きを設定する。なお、図3では、第1、第2カメラ2a,2bを、顔(頭部)Aの中心(左右の眼の中間)にして左右対称位置に同じ角度で設置している。
一般に、カメラによる運転者の顔の特徴追跡では、顔の向き変えにより顔の特徴が撮像されなくなるまでが、顔の特徴の追跡可能な撮像範囲(追跡可能範囲)となる。例えば、図4(a)に示すように、顔(頭部)Aの真正面前方に1台のカメラ2を設置した場合、顔(頭部)Aが右側を向いている状況では、θまで顔(頭部)Aの右眼aを撮像可能範囲である。
一方、本実施形態では、図3に示したように、顔(頭部)Aの中心線に対して略左右対称位置に設置した第1、第2カメラ2a,2bは、それぞれ少し内側を向いてる。よって、例えば図4(b)に示すように、第1カメラ2bを顔(頭部)Aの中心線Lに対してθ2だけオフセットして設置した場合、顔(頭部)Aが右を向いている状況では、θ1+θ2までが顔(頭部)Aの右眼aの撮像可能範囲となり、前記図4(a)の場合よりも撮像可能範囲が広くなる。なお、第2カメラ2bにおいても同様である。
第1顔特徴点出力部5aは、図5に示すように、第1画像取込部4aから顔画像情報を入力して顔特徴点検出結果を出力する顔特徴点検出部12と、前記顔画像情報と顔特徴点検出部12で検出された顔画像特徴点検出結果とを入力して顔特徴点情報を出力する顔特徴点追跡部13を備えている。なお、第2画像取込部4bから顔画像情報を入力する第2顔特徴点出力部5bにおいても、同様の構成である。
次に、前記した本実施形態に係る車両乗員顔向き検出装置1による顔向き検出方法について説明する。
図2に示すように、インストルメントパネルの上面21に設置した2つの第1、第2カメラ2a,2bにより、運転者の顔をそれぞれ正面前方側の左右から撮像する。そして、第1、第2画像取込部4a,4bは、第1、第2カメラ2a,2bでそれぞれ撮像された各顔画像を、デジタル画像としてキャプチャしメモリ内に取り込む。第1、第2画像取込部4a,4bにそれぞれ取り込まれた顔画像情報は、第1、第2顔特徴点出力部5a,5bの顔特徴点検出部12(図5参照)にそれぞれ出力される。
第1、第2顔特徴点出力部5a,5bの各顔特徴点検出部12は、入力される顔画像情報に基づいて顔特徴点検出結果を出力する。顔特徴点検出部12の処理を、図6に示すフローチャートを参照して説明する。
〈顔特徴点検出部12の処理〉
先ず、入力される顔画像情報に対して横エッジ検出を行う(ステップS1)。この横エッジ検出では、顔画像の各列について、濃度値が極小となる極小値(極小点)を検出する。図7(a)は、横エッジ検出結果の一例を示した図である。
そして、ステップS1での横エッジ検出によって得られたエッジ画像に対してノイズ除去を行う(ステップS2)。このノイズ除去処理は、極小点のうち濃度値が設定値未満のものと、極小点の周囲8近傍(上下左右、右斜め上、左斜め上、右斜め下、左斜め下)に他の極小点が存在しない点(つまり独立点)を削除する。図7(b)は、ノイズ除去結果の一例を示した図である。
そして、ノイズ除去後に顔特徴点候補の選択処理を行う(ステップS3)。この顔特徴点候補の選択処理では、個々の極小点と周囲8近傍で検出された点との連接を調べて、その連接の傾きの大きい点を削除し、横方向への広がりが設定値以上のものについては濃度値の最も小さい極小点を削除することにより特徴点の分割を行い、顔特徴点候補とする。図7(c)は、顔特徴点候補の選択結果の一例を示した図である。
そして、顔特徴点候補の数が予め設定している最小候補数(設定値)未満の場合(ステップS4:NO)、即ち、例えば、左右の眉や左右の眼は検出できているが、鼻が検出できていない場合などの場合は、現顔画像においては正確に顔の検出ができていないと判定(ステップS5)して、この顔特徴点検出処理を終了する。
そして、顔特徴点候補の数が予め設定している最小候補数(設定値)以上の場合(ステップS4:YES)、即ち、例えば、左右の眉,左右の眼、鼻、口などが検出できて、正確に顔が検出されている場合は、各顔特徴点候補にラベル(数字や番号)を付すラベリング処理を行う(ステップS6)。図8(a)は、顔特徴点候補に対するラベリング結果の一例を示した図である。
そして、次にグラフマッチング処理を行う(ステップS7)。このグラフマッチング処理では、予め用意している顔特徴点と顔特徴点間の関係を、ラベル付きの顔特徴点候補の組み合わせで照合する(この顔特徴点と顔特徴点間の関係については、後述する)。図8(b)は、グラフマッチング結果の一例を示した図である。そして、前記照合の数が0(ゼロ)の場合(ステップS8:NO)は、現顔画像においては正確に顔の検出ができていないと判定(ステップS5)して、この顔特徴点検出処理を終了する。
そして、前記照合の数が1つまたは複数の場合(ステップS8:YES)、次に顔特徴点検出処理を行う(ステップS9)。この顔特徴点検出処理では、1つまたは複数の顔特徴点の組み合わせ結果のうち、予め用意している顔特徴点と最も一致しているデータを顔特徴点して選択する。図8(c)は、顔特徴点検出結果の一例を示した図である。そして、ステップS9で選択した顔特徴点の一致の度合いを表す評価値が予め設定している最小評価値(設定値)未満の場合(ステップS10:NO)、現顔画像においては正確に顔の検出ができていないと判定(ステップS5)して、この顔特徴点検出処理を終了する。
そして、ステップS9で選択した顔特徴点の一致の度合いを表す評価値が予め設定している最小評価値(設定値)以上の場合(ステップS10:YES)、正確に顔の検出ができたと判定(ステップS11)して、この顔特徴点検出処理を終了する。
〈顔特徴点と顔特徴点間の関係〉
本実施形態においては、顔特徴点として、例えば図9に示すように、右眼(EyeR)、左眼(EyeL)、右眉(BrowR)、左眉(BrowL)、右鼻孔(NoseR)、左鼻孔(NoseL)、口または唇(Lip)、顎(Chin)、右上眼鏡フレーム(GlasBL)、眼鏡フレーム中心(GlasC)という13個の点を規定することができる。なお、以下においては、右鼻孔(NoseR)と左鼻孔(NoseL)との中点位置を鼻(の位置)として一つにまとめ、顔特徴点の数を12個の点として説明する。
そして、前記した各顔特徴点の位置は、右眼の位置を基準(原点座標(0,0))とした相対位置で示すと、図10(a)のようになり、左眼の位置を基準(原点座標(0,0))とした相対位置で示すと、図10(b)のようになる。なお、図10(a),(b)は、それぞれ顔画像サイズ(横:320画素、縦:240画素)を5分の1にしたサイズで、相対位置関係を示している。
これらの各顔特徴点の位置は、グラフマッチング(図6に示したフローチャートのステップS7の処理)を行うため一定の範囲を有しており、グラフマッチングの際に、右眼もしくは左眼を基準としてその範囲内に存在する顔特徴点の個数をカウントすることで、顔特徴点の位置の照合が行われる。
また、各顔特徴点は、顔特徴点検出結果評価用の係数を有しており、前記グラフマッチング結果に対して、マッチングした顔特徴点の係数を合計した値を前記した評価値とする。なお、前記係数は、距離関係の重要性が高い顔特徴点間ほど大きい値に設定され、距離関係の重要性が低い顔特徴点間ほど小さい値に設定される。
ところで、眼の特徴点座標については、例えば図11に示すように、眼の付近の画像に対して、各列(縦)方向に画像の濃淡を調べて、淡(白)→濃(黒)と変化する点(図中の○印で表記した部分)と、濃(黒)→淡(白)と変化する点(図中の×印で表記した部分)を検出する。淡(白)→濃(黒)と変化する点の横方向への連続を調べることにより眼の左端と右端を確定して、座標位置が最も高い点を上端とし、また濃(黒)→淡(白)と変化する点の最も低い点を下端とし、これらを顔特徴点に追加更新する。
〈顔特徴点追跡部13の処理〉
顔特徴点追跡部13による顔特徴点追跡処理を、図12に示すフローチャートを参照して説明する。
先ず、最初の処理(メモリ13a(図5参照)に格納されているこの顔特徴点追跡部13による前回の顔特徴点追跡処理もしくは顔特徴点検出部12による顔特徴点検出処理)が実行された場合(ステップS21:YES)、例えば図13(a)に示すように、検出された顔特徴点の近辺の範囲から前回の基準となる顔特徴点(基準顔特徴点:図では右眼)が検出できた場合(ステップS22:YES)、例えば図13(b)に示すように、ステップS22で検出された基準顔特徴点(この場合は右眼)に基づいて、前回の顔特徴点追跡処理もしくは顔特徴点検出部12による顔特徴点検出処理により検出された顔特徴点間の距離を求めて、次の顔特徴点の検出範囲を設定し、この検出範囲から次の顔特徴点(この場合は左眼)の検出を行う(ステップS23)。
また、ステップS22で、基準顔特徴点(例えば、右眼)が検出できない場合(ステップS22:NO)には、次の顔特徴点(例えば、左眼)が有ると(ステップS24:YES)、この次の顔特徴点を基準顔特徴点に変えて(ステップS25)、ステップS22で再び基準顔特徴点の検出を行う。なお、ステップS24で、他の基準となる顔特徴点がない場合(ステップS24:NO)には、顔特徴点追跡に失敗と判断して(ステップS26)、この顔特徴点追跡処理を終了する。
そして、ステップS23で次の顔特徴点の検出を行って、次の顔特徴点(この場合は左眼)を検出できた場合(ステップS27:YES)、そのときの座標に基づいて次の顔特徴点の座標を更新して(ステップS28)、この顔特徴点追跡処理を終了する。
また、ステップS27で、次の顔特徴点を検出できない場合(ステップS27:NO)、前回の顔特徴点と基準顔特徴点との距離(位置関係)を求め、基準顔特徴点の座標をこの距離相当移動して次の顔特徴点の座標として更新して(ステップS29)、この顔特徴点追跡処理を終了する。
そして、他の残りの顔特徴点についても、前記同様の顔特徴点追跡処理を順次繰り返すことにより、全ての顔特徴点の座標位置を更新することができる。そして、前記第1、第2顔特徴点出力部5a,5bからの各顔特徴点出力は処理判断部6に入力される。
〈処理判断部6の処理〉
処理判断部6は、以降の処理を3次元座標推定部7または顔向き推定部8のいずれかで行うかを判断する。この判断は、以下のように行うことができる。
第1、第2顔特徴点出力部5a,5bの両方から顔特徴点出力が入力される場合は3次元座標推定部7に進み、いずれか一方から顔特徴点出力が入力される場合は顔向き推定部8に進む。即ち、この車両乗員顔向き検出装置1の顔向き出力部11による前回の顔向き出力結果から、例えば図14に示すように、運転者の顔(頭部)Aの向きを変えた場合でも第1、第2カメラ2a,2bの両方で撮像可能な範囲Aにある場合は3次元座標推定部7に進み、第1、第2カメラ2a,2bのいずれか一方で撮像可能な範囲B1,B1(斜線部分)にある場合は顔向き推定部8に進むように判断する。
また、図15に示すように、前記車両乗員顔向き検出装置1の装置本体3に車両情報取得部14を更に設けて、車体側に設置されている複数のセンサ(不図示)などから車両情報(例えば、車両の走行状況、車両周囲環境情報等)を取り込むようにしてもよい。この場合、処理判断部6は、これらの車両情報に基づいて、以降の処理を3次元座標推定部7または顔向き推定部8のいずれかで行うかを判断する。
例えば、ナビゲーションシステムから走行道路がほぼ直線道路であることを検出し、かつ車両速度がほぼ一定速度である場合、処理判断部6は、運転者が略真正面を向いている時間が長くなると判断して3次元座標推定部7に進む。また、例えば、ナビゲーションシステムから交差点であることを検出し、車両速度情報と方向指示器情報から右折待ちであるこを検出した場合、処理判断部6は、運転者が顔の向き変え角度が大きくなると判断して顔向き推定部8に進む。このように、ナビゲーションシステム等から得られる車両情報を取り込むことによって、より精度の高い判断処理を行うことが可能となる。
次に、処理判断部6による前記した判定条件によって、以降の処理を3次元座標推定部7で行う場合について説明する。
〈3次元座標推定部7の処理〉
3次元座標推定部7は、少なくとも2つの顔特徴点の座標から3点測量の要領にて顔特徴点の3次元座標を推定し、顔特徴点の3次元座標を出力する。図16(a)、(b)を参照して、2台のカメラ(前記第1、第2カメラ2a,2bに相当)による顔特徴点の3次元座標の推定方法の一例について説明する。
図16(a)に示すように、仮想撮像面上の座標PAとカメラ座標原点Aを結ぶ直線APの延長上、および仮想撮像面上の座標PBとカメラ座標原点Bを結ぶ直線BPの延長上に顔の特徴点(観測点)Cが存在すると仮定する。このように、2台のカメラ(カメラ座標原点A、カメラ座標原点B)で未知の特徴点(観測点)Cを観測することにより、図16(b)に示すように、3点測量の要領にて原点0に対する点(観測点)Cの3次元座標を推定することができる。
図16(b)において、A、Bはカメラの位置、V1はACの単位直線ベクトル、V2はBCの単位ベクトルとすると、点Cは以下の式(1)〜(3)でそれぞれ0C1,0c2として求められる。ただし、s、tは媒介変数である。
0C1=sV1+0A…式(1)
0C2=tV2+0B…式(2)
0C1と0C2の差を表すベクトルC1C2をV3とすると、以下の関係が成り立つ。ただし、uは媒介変数である。
(sV1+0A)−(tV2+0B)=V3
V3=u(V1×V2)
よって、この関係から以下の式が成立する。
sV1−tV2−u(V1×V2)=0B−0A…式(3)
各ベクトル(V1,V2,V3)は3次元で表されるため、媒介係数s、t、uを算出することができ、これにより、点Cの3次元座標を推定することが可能である。このような方法によって推定された顔特徴点の3次元座標は、顔向き計算部9に出力される。
〈顔向き計算部9の処理〉
顔向き計算部9は、3次元座標推定部7から入力される顔特徴点の3次元座標に基づいて顔の向きを計算(推定)する。以下、顔向き計算部9での顔の向き計算方法の一例を、図17を参照して説明する。
図17に示すように、少なくとも3点(図では、左右の眼と鼻)の各特徴点の3次元座標によって形成される面の法線ベクトルを求めることにより、顔の向きを計算することができる。
即ち、図17に示すように、右眼の位置をR、左眼の位置をL、鼻の位置をNとすると、法線ベクトルは、LN×RNによって得ることができる(LN、RNは、ベクトルである)。これによって得られる法線ベクトルの向きが、顔の向きとすることができる。なお、このような方法以外にも、例えば、顔の3次元モデルを予め用意し、この3次元モデルと前記3次元座標推定部7で得られた結果とのマッチングを行うことで、顔の向きを求めることも可能である。
次に、前記処理判断部6による前記した判定条件によって、以降の処理を顔向き推定部8で行う場合について説明する。
〈顔向き推定部8の処理〉
顔向き推定部8は、顔特徴点の2次元座標から顔の向きを推定する。以下にその推定方法の一例について説明する。一般に顔は左右対称に近い形状をしており、顔を左右に回転させると顔の特徴点の見かけの位置がずれる。そこで、このときに顔の対称性に生じる歪を用いることにより、顔の向きを推定することができる。
即ち、例えば図18(a)に示すように、右眼の座標をA、左眼をB、鼻をC、右耳をE’、左耳をF’として、線分ABに対してC(鼻)より下ろした垂線の交点をDし、また、顔の右端をE、顔の左端をFとしたときに、以下の式(4)〜(6)が成り立つ。ただし、式(4)〜(6)において、パラメータs、t、uは顔の対称性を評価するためのパラメータである。なお、これらのパラメータs、t、uは、前記式(1)〜(3)における媒介変数媒介変数s、t、uとは異なる。
AD:BD=s:(1−s)…式(4)
CE:CF=t:(1−t)…式(5)
AE:BF=u:(1−u)…式(6)
式(4)〜(6)は、図18(b)のように表すことができる。そして、顔の向き変えに対して、前記パラメータ(s、t、u)の理論値を予め求めると、図19に示すように、顔の回転角(ヨー運動)に連動して値が変化することが分かる。よって、第1、第2顔特徴出力部5a,5bのいずれか一方からの出力結果により得た顔の特徴点の2次元座標から前記パラメータ(s、t、u)を求めることにより、図19に示した理論値に基づいて顔の向きを推定することができる。
また、前記2台の第1、第2カメラ2a,2bは、その設置位置と向きが異なるため、顔向き推定部8で推定した顔の角度を補正する必要があるが、正面方向をヨー角の0度とした場合、図4(b)に示したように、推定した顔の角度θ1に角度θ2を加えるだけでよい。そして、顔向き推定部8で推定された顔の向き情報は顔向き設定部10に入力される。
〈顔向き設定部10の処理〉
顔向き設定部10は、顔向き推定部8で推定される顔向きが1つのみの場合はその値を出力する値とし、顔向き推定部8で推定される顔向きが複数の場合はいずれか1つの値を選択するか、もしくは複数の結果から出力する値を計算し、その計算結果に基づいて設定する。以下、顔向き推定部8で推定される顔向きが複数の場合における選択方法について説明する。
前記第1、第2顔特徴点出力部5a,5bの処理において、顔特徴点に対するパターンマッチングによる類似度(差分や二乗誤差など)を評価値として顔向きを設定する。例えば、第1、第2顔特徴点出力部5a,5bの処理において、前記グラフマッチング結果(図6に示したフローチャートのステップS7の処理)に対して、マッチングした顔特徴点の係数を合計した値(評価値)を用い、この値(評価値)の最も高い結果を用いた顔向き推定部8による推定結果を顔向きとして設定する。
例えば、前回の顔向き推定結果から、図4(b)や図14に示した第1、第2カメラ2a,2bの両方で撮像可能な範囲(追跡可能範囲)に照らして、運転者の顔の正対方向に近いカメラ(第1、第2カメラ2a,2bのいずれか一方のカメラ)の第1顔特徴点出力部5aもしくは第2顔特徴点出力部5bの出力を用いた顔向き推定部8の推定結果を顔向きとして設定する。このとき、運転者の顔が第1、第2カメラ2a,2bに対して正対方向に近いと判断される場合は、それらの平均値を求めて出力する。
また、図15に示したように、顔向き設定部10は、車両情報取得部14から車速、操舵角等の車両状態情報や、ナビゲーションシステムから周囲環境情報を取得して、走行状態に応じて顔向きを設定することもできる。例えば、ナビゲーションシステムにより交差点であることを検出し、また車速と方向指示器情報から、右折待ちであることを検出した場合には、運転者は右方向への顔の向き変え時間が長くなることから、運転者に対して右側に設置した第2カメラ2bの第2顔特徴点出力部5bの出力を用いた顔向き設定部10の結果を、顔向きとして設定する。このように、ナビゲーションシステム等から得られる車両情報を取り込むことによって、顔向きを精度よく設定することが可能となる。
前記顔向き計算部9および顔向き設定部10で求められた顔向き結果は、顔向き出力部11に出力される。
〈顔向き出力部11の処理〉
顔向き出力部11は、入力される顔向き計算部9および顔向き設定部10で求められた顔向き結果に基づき、顔の左右方向の回転角に応じて顔向き計算部9と顔向き設定部10のいずれか一方の顔向き結果を出力する。
図20は、顔向き計算部9および顔向き設定部10で求められた顔向き結果の一例を示す図である。なお、図20の横軸は撮像した画像のフレーム番号、縦軸は顔のY軸回転角(左右方向の回転角)である。
図20において、aは顔向き計算部9で求められた顔向き結果(3次元推定)、b1,b2は顔向き設定部10で求められた顔向き結果である。なお、b1は顔の正面右側から撮像する第1カメラ2aによる顔向き推定部8の結果であり、b2は顔の正面左側から撮像する第2カメラ2bによる顔向き推定部8の結果である。
図20に示したような顔向き結果に基づいて、顔向き出力部11は顔向き結果を出力する。図21は、顔向き出力結果(図のc)の一例を示す図である。なお、図21の横軸は撮像した画像のフレーム番号、縦軸は顔のY軸回転角(左右方向の回転角)である。
図21に示したように、本実施形態では、運転者の顔向きが左右方向に±20度程度以内の場合には3次元座標による顔向き計算部9の結果を採用した。また、運転者の顔向きが+20度程度より大きい場合には第1カメラ2aによる顔向き推定部8の結果(図20のb1)を採用を採用し、運転者の顔向きが−20度程度より小さい場合には第2カメラ2bによる顔向き推定部8の結果(図20のb2)を採用した。
更に、運転者の顔向きが左右方向に±20度程度以内のときにおいて、3次元座標による顔向き計算部9の結果が使えない場合(即ち、第1カメラ2aもしくは第2カメラ2bのいずれか一方側による顔特徴点出力しが得られない場合)は、いずれか一方から出力された顔特徴点を用いて、顔向き推定部8により顔向きを求めるようにする。
顔向き出力部11は、本実施形態では図21に示したように、運転者の顔向きが約50度を超える場合でも追従性よく顔向き情報を出力することができ、更に、運転者の顔向きが左右方向に±20度程度近辺での処理判断部6による3次元座標推定部7もしくは顔向き推定部8への切替えにおいても、滑らかに顔向きが繋がっている。
このように、本実施形態に係る車両乗員顔向き検出装置1によれば、処理判断部6による判断に基づいて、運転者の顔向き変え角度が小さいときには、2台の第1、第2カメラ2a,2bによる3次元計測による精度の高い顔向き計算を行い、運転者の顔向き変え角度が大きいときには、第1、第2カメラ2a,2bのいずれか一方のカメラによる顔向き推定を行うことにより、運転者の左右方向の顔向き変え変化に対して安定性の高い顔向き出力を行うことができる。
本発明の実施形態に係る車両乗員顔向き検出装置の構成を示すブロック図。 本発明の実施形態に係る車両乗員顔向き検出装置を備えた車両(自動車)の運転席付近を示す模式図。 運転者の正面前方側の左右に設置した2台の第1、第2カメラの撮像範囲を示す図。 (a),(b)は、運転者の顔向き変えに対するカメラの追跡可能な撮像範囲(追跡可能範囲)を説明するための図。 第1、第2顔特徴点出力部の構成を示すブロック図。 顔特徴点検出部による顔特徴点検出処理を示すフローチャート。 (a),(b),(c)は、第1、第2顔特徴点出力部の顔特徴点検出部における顔特徴点の選択過程を説明するための図。 (a),(b),(c)は、第1、第2顔特徴点出力部の顔特徴点検出部における顔特徴点点候補にラベリングを行い顔の特徴点候補を絞り込む過程を説明するための図。 第1、第2顔特徴点出力部の顔特徴点検出部における、顔特徴点と顔特徴点間の関係を説明するための図。 第1、第2顔特徴点出力部の顔特徴点検出部における、顔特徴点と顔特徴点間の関係を説明するための図。 眼の顔特徴点座標の取得方法を説明するための図。 顔特徴点追跡部による顔特徴点追跡処理を示すフローチャート。 第1、第2顔特徴点出力部の顔特徴点追跡部における、基準特徴点の検出と基準特徴点から次特徴点を検出する様子を説明するための図。 運転者の顔向き変えに対する2台の第1、第2カメラの追跡可能な撮像範囲(追跡可能範囲)を説明するための図。 本発明の実施形態の変形例に係る車両乗員顔向き検出装置の構成を示すブロック図。 (a),(b)は、2台のカメラによる特徴点の3次元座標を推定方法を説明するための図。 顔特徴点の3次元座標からの顔向き計算を説明するための図。 (a),(b)は、顔特徴点の座標から顔向きを推定するためのパラメータを説明するための図。 顔向きを、眼と鼻との関係、鼻と顔の端との関係、眼と顔の端との関係とから推定するするためのグラフを説明するための図。 顔向き計算部および顔向き推定部で求められた顔向き結果の一例を示す図。 顔向き出力部による顔向き出力結果の一例を示す図である。
符号の説明
1 車両乗員顔向き検出装置
2a 第1カメラ(撮像手段)
2b 第2カメラ(撮像手段)
3 装置本体
4a 第1画像取込部(画像取込手段)
4b 第2画像取込部(画像取込手段)
5a 第1顔特徴点出力部(顔特徴点出力手段)
5b 第2顔特徴点出力部(顔特徴点出力手段)
6 処理判断部(処理判断手段)
7 3次元座標推定部(3次元座標推定手段)
8 顔向き推定部(顔向き推定手段)
9 顔向き計算部(顔向き計算手段)
10 顔向き設定部(顔向き設定手段)
11 顔向き出力部(顔向き出力手段)
12 顔特徴点検出部
13 顔特徴点追跡部

Claims (10)

  1. 車両乗員の顔をその正面前方側の左右から撮像するための少なくとも2台の撮像手段と、
    前記各撮像手段により撮像された顔画像をそれぞれ取り込む画像取込手段と、
    前記各画像取込手段からそれぞれ取り込んだ顔画像から顔特徴点を抽出して出力する顔特徴点出力手段と、
    前記各顔特徴点出力手段から前記顔特徴点を入力し、以降の処理を3次元座標によって行うか2次元座標によって行うかを判断する処理判断手段と、
    前記処理判断手段による判断で3次元座標の推定を行う場合に、前記各顔特徴点出力手段で得られた前記顔特徴点の3次元座標を推定する3次元座標推定手段と、
    前記3次元座標推定手段で推定された3次元座標から前記車両乗員の顔向きを計算する顔向き計算手段と、
    前記処理判断手段による判断で2次元座標を用いる場合に、前記各顔特徴点出力手段で得られた2次元座標情報から前記車両乗員の顔向きを推定する顔向き推定手段と、
    前記顔向き推定手段で推定された顔向きが複数の場合に、適切な1つの顔向きを選択する顔向き設定手段と、
    前記車両乗員の顔向きの変化に応じて、前記顔向き計算手段および前記顔向き推定手段で得られたいずれか一方の顔向きを出力する顔向き出力手段と、を備えた、
    ことを特徴とする車両乗員顔向き検出装置。
  2. 前記各撮像手段は、車両乗員の着座位置で正面方向を注視したときの顔の垂直中心線が存在すると想定される位置を境に左右方向に分け、かつ同条件下で車両乗員の同一顔部位が撮像できるような向きにして設置されている、
    ことを特徴とする請求項1に記載の車両乗員顔向き検出装置。
  3. 前記処理判断手段は、前記顔特徴点出力手段により得られた顔特徴点の数をカウントして、カウント値が2以上であれば以降の処理を前記3次元座標推定手段で行うように判断し、カウント値が1であれば以降の処理を前記顔向き推定手段で行うように判断し、更に、カウント値が0であれば前回の値に基づいて判断する、
    ことを特徴とする請求項1に記載の車両乗員顔向き検出装置。
  4. 前記処理判断手段は、前回の前記顔向き出力手段により得られた顔向きと、前記各撮像手段の設置位置と向き、および前記各撮像手段の内部パラメータにより設定される撮像範囲とに基づいて、以降の処理を前記3次元座標推定手段によって行うか前記顔向き推定手段によって行うかを判断する、
    ことを特徴とする請求項1に記載の車両乗員顔向き検出装置。
  5. 前記顔向き設定手段は、前記各顔特徴点出力手段で得られた結果から1つの顔向きを選択する、
    ことを特徴とする請求項1に記載の車両乗員顔向き検出装置。
  6. 前記顔向き設定手段は、前回の前記顔向き出力手段により得られた顔向きと、前記各撮像手段の設置位置と向き、および前記各撮像手段の内部パラメータにより設定される撮像範囲とに基づいて、前記各顔特徴点出力手段で得られた結果から1つの顔向きを選択する、
    ことを特徴とする請求項1に記載の車両乗員顔向き検出装置。
  7. 前記処理判断手段は、車両情報取得手段によって得られる車両情報に基づいて、以降の処理を前記3次元座標推定手段によって行うか前記顔向き推定手段によって行うかを判断する、
    ことを特徴とする請求項1に記載の車両乗員顔向き検出装置。
  8. 前記顔向き設定手段は、車両情報取得手段によって得られる車両情報に基づいて、前記各顔特徴点出力手段で得られた結果から1つの顔向きを選択する、
    ことを特徴とする請求項1に記載の車両乗員顔向き検出装置。
  9. 前記各撮像手段の設置位置および向きは、車両乗員のシート位置、操作装置の位置に基づいて設定される、
    ことを特徴とする請求項1に記載の車両乗員顔向き検出装置。
  10. 車両乗員の顔の正面前方側の左右にそれぞれ設置した少なくとも2台の各撮像手段により撮像された顔画像をそれぞれ取り込む画像取込みステップと、
    前記画像取込みステップにより取り込んだ顔画像から顔特徴点を抽出して出力する顔特徴点出力ステップと、
    前記顔特徴点出力ステップで抽出された前記顔特徴点を入力し、以降の処理を3次元座標によって行うか2次元座標によって行うかを判断する処理判断ステップと、
    前記処理判断ステップによる判断で3次元座標の推定を行う場合に、前記各顔特徴点出力手段で得られた前記顔特徴点の3次元座標を推定する3次元座標推定ステップと、
    前記3次元座標推定ステップで推定された3次元座標から前記車両乗員の顔向きを計算する顔向き計算ステップと、
    前記処理判断ステップによる判断で2次元座標を用いる場合に、前記各顔特徴点出力ステップで得られた2次元座標情報から前記車両乗員の顔向きを推定する顔向き推定ステップと、
    前記顔向き推定ステップで推定された顔向きが複数の場合に、適切な1つの顔向きを選択する顔向き設定ステップと、
    前記車両乗員の顔向きの変化に応じて、前記顔向き計算ステップおよび前記顔向き推定ステップで得られたいずれか一方の顔向きを出力する顔向き出力ステップと、を有する、
    ことを特徴とする車両乗員顔向き検出方法。
JP2006081245A 2006-03-23 2006-03-23 車両乗員顔向き検出装置および車両乗員顔向き検出方法 Expired - Fee Related JP4735361B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006081245A JP4735361B2 (ja) 2006-03-23 2006-03-23 車両乗員顔向き検出装置および車両乗員顔向き検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006081245A JP4735361B2 (ja) 2006-03-23 2006-03-23 車両乗員顔向き検出装置および車両乗員顔向き検出方法

Publications (2)

Publication Number Publication Date
JP2007257333A true JP2007257333A (ja) 2007-10-04
JP4735361B2 JP4735361B2 (ja) 2011-07-27

Family

ID=38631511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006081245A Expired - Fee Related JP4735361B2 (ja) 2006-03-23 2006-03-23 車両乗員顔向き検出装置および車両乗員顔向き検出方法

Country Status (1)

Country Link
JP (1) JP4735361B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009148188A1 (ja) * 2008-06-06 2009-12-10 株式会社山城自動車教習所 運転行動自動評価システム
JPWO2009116242A1 (ja) * 2008-03-18 2011-07-21 パナソニック株式会社 運転者監視装置、運転者監視方法及び車両
JP2012068719A (ja) * 2010-09-21 2012-04-05 Fujitsu Ltd 画像処理プログラムおよび画像処理装置
WO2014207892A1 (ja) * 2013-06-28 2014-12-31 楽天株式会社 情報処理装置、情報処理方法、情報処理装置用プログラム、および、記録媒体
JP2016181051A (ja) * 2015-03-23 2016-10-13 キヤノン株式会社 画像処理装置、画像処理方法
JP2019087231A (ja) * 2017-11-07 2019-06-06 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited 顔の位置を追跡して使用者に警報する方法及びシステム
JP6562437B1 (ja) * 2019-04-26 2019-08-21 アースアイズ株式会社 監視装置、及び、監視方法
CN111665513A (zh) * 2019-03-05 2020-09-15 阿尔派株式会社 面部特征部检测装置、面部特征部检测方法
DE102019103197B4 (de) * 2018-02-27 2020-12-17 Omron Corporation Insassenüberwachungsvorrichtung

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115847A (ja) * 2003-10-10 2005-04-28 Babcock Hitachi Kk 特定立体画像と2次元画像に映し出された被写体の照合方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115847A (ja) * 2003-10-10 2005-04-28 Babcock Hitachi Kk 特定立体画像と2次元画像に映し出された被写体の照合方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2009116242A1 (ja) * 2008-03-18 2011-07-21 パナソニック株式会社 運転者監視装置、運転者監視方法及び車両
JP2011154721A (ja) * 2008-03-18 2011-08-11 Panasonic Corp 運転者監視装置、運転者監視方法及び車両
WO2009148188A1 (ja) * 2008-06-06 2009-12-10 株式会社山城自動車教習所 運転行動自動評価システム
JP2012068719A (ja) * 2010-09-21 2012-04-05 Fujitsu Ltd 画像処理プログラムおよび画像処理装置
US9811736B2 (en) 2013-06-28 2017-11-07 Rakuten, Inc. Information processing device, information processing method, information processing device program, and recording medium
WO2014207892A1 (ja) * 2013-06-28 2014-12-31 楽天株式会社 情報処理装置、情報処理方法、情報処理装置用プログラム、および、記録媒体
JP5894707B2 (ja) * 2013-06-28 2016-03-30 楽天株式会社 情報処理装置、情報処理方法、および、情報処理装置用プログラム
JPWO2014207892A1 (ja) * 2013-06-28 2017-02-23 楽天株式会社 情報処理装置、情報処理方法、および、情報処理装置用プログラム
JP2016181051A (ja) * 2015-03-23 2016-10-13 キヤノン株式会社 画像処理装置、画像処理方法
JP2019087231A (ja) * 2017-11-07 2019-06-06 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited 顔の位置を追跡して使用者に警報する方法及びシステム
DE102019103197B4 (de) * 2018-02-27 2020-12-17 Omron Corporation Insassenüberwachungsvorrichtung
CN111665513A (zh) * 2019-03-05 2020-09-15 阿尔派株式会社 面部特征部检测装置、面部特征部检测方法
CN111665513B (zh) * 2019-03-05 2024-05-07 阿尔派株式会社 面部特征部检测装置、面部特征部检测方法
JP6562437B1 (ja) * 2019-04-26 2019-08-21 アースアイズ株式会社 監視装置、及び、監視方法
JP2020182146A (ja) * 2019-04-26 2020-11-05 アースアイズ株式会社 監視装置、及び、監視方法

Also Published As

Publication number Publication date
JP4735361B2 (ja) 2011-07-27

Similar Documents

Publication Publication Date Title
JP4735361B2 (ja) 車両乗員顔向き検出装置および車両乗員顔向き検出方法
JP4899424B2 (ja) 物体検出装置
JP4889351B2 (ja) 画像処理装置及びその処理方法
JP4919036B2 (ja) 移動物体認識装置
JP4832321B2 (ja) カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法
US8299942B2 (en) Composite-image parking-assistant system
US20090015675A1 (en) Driving Support System And Vehicle
EP1637836A1 (en) Device and method of supporting stereo camera, device and method of detecting calibration, and stereo camera system
US8055016B2 (en) Apparatus and method for normalizing face image used for detecting drowsy driving
JP5105481B2 (ja) 車線検出装置、車線検出方法、及び車線検出プログラム
US20060093239A1 (en) Image processing method and image processing device
JP5086824B2 (ja) 追尾装置及び追尾方法
JP2006318062A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
JP2008309519A (ja) 画像処理を用いた物体検出装置
WO2018167996A1 (ja) 運転者状態推定装置、及び運転者状態推定方法
JP2019148491A (ja) 乗員監視装置
JP3936683B2 (ja) 道路位置検出装置及びプログラム
JP2008026999A (ja) 障害物検出システム、及び障害物検出方法
JP2008033781A (ja) 路面勾配検出装置及び画像表示装置
KR20170114523A (ko) Avm용 주행 자동 공차 보정 장치 및 방법
JP7380443B2 (ja) 部分画像生成装置及び部分画像生成用コンピュータプログラム
JP4106163B2 (ja) 障害物検出装置及びその方法
EP3227827B1 (en) Driver assistance system, motor vehicle and method for classifying a flow vector
JPH1055446A (ja) 物体認識装置
JP4070450B2 (ja) 前方車両認識装置及び認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110304

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees