JP4107104B2 - 顔部位追跡装置 - Google Patents

顔部位追跡装置 Download PDF

Info

Publication number
JP4107104B2
JP4107104B2 JP2003047918A JP2003047918A JP4107104B2 JP 4107104 B2 JP4107104 B2 JP 4107104B2 JP 2003047918 A JP2003047918 A JP 2003047918A JP 2003047918 A JP2003047918 A JP 2003047918A JP 4107104 B2 JP4107104 B2 JP 4107104B2
Authority
JP
Japan
Prior art keywords
face part
candidate
image
tracking target
search area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003047918A
Other languages
English (en)
Other versions
JP2004258907A (ja
Inventor
欣也 岩本
雅之 金田
治夫 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003047918A priority Critical patent/JP4107104B2/ja
Publication of JP2004258907A publication Critical patent/JP2004258907A/ja
Application granted granted Critical
Publication of JP4107104B2 publication Critical patent/JP4107104B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、顔部位追跡装置に関する。
【0002】
【従来の技術】
従来、被検出者の顔を撮像して得られた撮像画像から、追跡の対象となる顔の部位を検出し、顔部位を追跡していく顔部位追跡装置が知られている。この顔部位追跡装置は、まず、標準となるテンプレートを記憶し、この標準テンプレートにより撮影画像内から追跡対象となる顔の部位を抽出する。そして、抽出した画像を追跡用のテンプレートとして記憶し、追跡用テンプレートにより追跡対象である顔部位を追跡していく。(例えば特許文献1参照)。
【0003】
また、他の顔部位追跡装置では、撮影画像の縦方向に配列された画素列に沿って、濃度の局所的な高まりごとに1個ずつ画素を定めて抽出点を決定する。そして、画像横方向に並ぶ抽出点を曲線群とし、この曲線群が追跡対象となる顔部位の所定の形状(例えば眼である場合には横方向に長いかなど)と合致するかを判断して、追跡対象の位置を検出する。その後、検出された追跡対象を基に存在領域を設定し、存在領域を2値化して追跡対象の位置を詳細に特定し、特定された追跡対象の位置を次回の処理における存在領域の設定位置とする。そして、以上の処理を繰り返し、所望する顔部位を追跡していく(例えば特許文献2参照)。
【0004】
【特許文献1】
特開2000−163564号公報
【0005】
【特許文献2】
特開平10−143669号公報
【0006】
【発明が解決しようとする課題】
しかしながら、特許文献1に記載の装置では、1フレームの画像に対して顔の特定部位が見つかるまで、標準及び追跡用テンプレートにより繰り返しパターンマッチングを行っている。このため、追跡対象の顔部位をリアルタイムに追跡していくためには、非常に高い計算負荷が要求されることとなってしまう。
【0007】
また、特許文献2に記載の装置では、存在領域内の対象物が追跡したい顔部位であるか否かの判断をしておらず、追跡したい顔部位でないものを誤って追跡してしまう可能性がある。
【0008】
【課題を解決するための手段】
本発明によれば、被検出者の顔を撮像し入力した画像に基づいて、顔部位の動きを追跡する顔部位追跡装置において、顔部位検出手段は、入力した撮像画像の全体から、追跡の対象となる顔部位を検出し、顔部位探査領域設定手段は、検出後に入力した画像に対し、顔部位検出手段により検出された追跡対象の顔部位の画像上における位置に基づいて、顔部位探査領域を設定し、優先顔部位探査領域設定手段は、顔部位探査領域設定手段により設定された顔部位探査領域内に、優先顔部位探査領域を設定し、候補抽出手段は、顔部位探査領域内から、顔部位の候補を抽出し、第1顔部位判定手段は、候補抽出手段により抽出された候補が優先顔部位探査領域内にあるときに、その候補を追跡対象の顔部位と判定し、第2顔部位判定手段は、抽出された候補が優先顔部位探査領域内に無く顔部位探査領域内にあるときには、その候補の画像を画像処理することにより、抽出された候補が追跡対象の顔部位か否かを判定し、上記の顔部位探査領域設定手段は、被検出者が顔の向きを変えたときに、サンプリング時間中に移動する追跡対象の移動量に基づいて、顔部位探査領域を設定する。
【0009】
【発明の効果】
本発明によれば、検出された追跡対象の画像上の位置に基づいて、全体画像よりも狭い顔部位探査領域を設定している。このため、画像全体から顔部位の候補を抽出することなく、顔部位が存在する可能性の高い領域から候補を抽出することができ、迅速な処理を行うことができる。
【0010】
また、抽出された候補が顔部位探査領域内であって優先顔部位探査領域外にある場合に、その候補の画像を画像処理して候補が追跡対象であるか否かを判定している。これにより、追跡対象でない顔部位を誤って追跡してしまうことを防止することができる。
【0011】
従って、追跡対象となる顔部位を判定するのに際し、精度及び処理速度の向上を図ることができる。
【0012】
【発明の実施の形態】
以下、本発明の好適な実施形態を図面に基づいて説明する。
【0013】
図1は、本発明の実施形態に係る顔部位追跡装置の構成を示す機能ブロック図である。同図に示すように、顔部位追跡装置1は、被検出者の顔を撮像し入力した画像に基づいて、顔部位の動きを追跡するものであって、顔画像撮像手段CL1と、顔部位検出手段CL2と、顔部位追跡手段CL3とを備えている。
【0014】
顔画像撮像手段CL1は、被検出者の顔を撮像することにより、追跡対象となる顔部位を含む撮像画像を得るものである。また、顔画像撮像手段CL1は、入力した画像のデータを、顔部位検出手段CL2及び顔部位追跡手段CL3に送出する構成とされている。
【0015】
顔部位検出手段CL2は、入力した撮像画像の全体から追跡の対象となる顔部位を検出するものである。また、顔部位追跡手段CL3は、顔画像撮像手段CL1及び顔部位検出手段CL2からの信号に基づいて、追跡対象となる顔部位の動きを追跡するものである。
【0016】
上記顔部位追跡手段CL3は、顔部位探査領域設定手段CL31と、優先顔部位探査領域設定手段CL32とを備えている。また、顔部位追跡手段CL3は、顔部位候補抽出手段(候補抽出手段)CL33と、顔部位判定手段(第1顔部位判定手段、第2顔部位判定手段)CL34とを備えている。
【0017】
顔部位探査領域設定手段CL31は、顔部位検出手段CL2により追跡対象の顔部位が検出された場合に、検出後に入力した画像に対して処理を行うものである。行う処理としては、追跡対象の画像上の位置に基づいて、画像全体よりも狭い顔部位探査領域を設定する処理である。なお、顔部位探査領域は、例えば、被検出者が顔の向きを変えたときに、サンプリング時間中に移動する追跡対象の移動量に基づいて、設定されるものである。
【0018】
また、優先顔部位探査領域設定手段CL32は、上記の顔部位探査領域内に優先顔部位探査領域を設定するものである。この優先顔部位探査領域は、例えば、被検出者が一方向を視認しているときに、サンプリング時間中に移動する追跡対象の顔部位の移動量に基づいて、設定されるものである。
【0019】
顔部位候補抽出手段CL33は、顔部位探査領域内から追跡対象となる顔部位の候補を抽出するものである。すなわち、顔部位候補抽出手段CL33は、顔部位検出手段CL2と異なり、撮像画像全体から追跡対象の顔部位を抽出せず、顔部位検出手段CL2よりも高速に処理を行うことができるものである。
【0020】
顔部位判定手段CL34は、顔部位候補抽出手段CL33で抽出された追跡対象の候補が追跡対象であるか否かを判定するものである。具体的に、顔部位判定手段CL34は、抽出された候補が優先顔部位探査領域内にあるとき、その候補を追跡対象であると判定する。また、顔部位判定手段CL34は、抽出された候補が優先顔部位探査領域内に無く顔部位探査領域内にあるとき、その候補の画像を画像処理することにより、抽出された候補が追跡対象であるか否かを判定する。
【0021】
このような顔部位追跡装置1においては、まず、顔画像撮像手段CL1が被検出者の顔を撮像して、得られた画像データを顔部位検出手段CL2に送信する。これを受けた顔部位検出手段CL2は、画像全体から追跡対象となる顔部位を検出する。
【0022】
その後、顔画像撮像手段CL1により撮像画像が得られた場合、顔画像撮像手段CL1は、画像データを顔部位追跡手段CL3に送信する。これを受けた顔部位追跡手段CL3は、顔部位探査領域設定手段CL31により顔部位探査領域を設定すると共に、優先顔部位探査領域設定手段CL32により優先顔部位探査領域を設定する。
【0023】
そして、顔部位候補抽出手段CL33は、撮像画像のうち顔部位探査領域内から追跡対象となる顔部位の候補を抽出する。抽出後、顔部位判定手段CL34は、候補がどの領域に属するかを判断し、その候補が追跡対象となる顔部位であるか否かを判定する。すなわち、顔部位判定手段CL34は、候補が優先顔部位探査領域内にある場合には、その候補を追跡対象であると判定する。一方、候補が優先顔部位探査領域内に無く顔部位探査領域内にある場合には、その候補の画像を画像処理する。そして、画像処理により得られた結果に基づいて、追跡対象となる顔部位か否かを判定する。その後、本装置1は、この判定結果に基づいて、追跡対象の顔部位を追跡していく。
【0024】
なお、本装置1は、候補が顔部位探査領域及び優先顔部位探査領域内にあるか否かの判断を高精度に行うべく、抽出された候補に対し候補点を定めている。すなわち、顔部位候補抽出手段CL33は、追跡対象の候補を抽出し、その候補位置を特定するための候補点を定める。そして、顔部位判定手段CL34は、顔部位候補抽出手段CL33により定められた候補点が優先顔部位探査領域内にあるときに、その候補点を有する候補を追跡対象であると判定する。また、顔部位判定手段CL34は、候補点が優先顔部位探査領域内に無く顔部位探査領域内にあるときに、その候補点を有する候補を含む画像を画像処理して、その候補が追跡対象であるか否かを判定する。
【0025】
このように、点に基づく判断を行うことで、候補の一部が優先顔部位探査領域内であって、一部が優先顔部位探査領域外にあるという事態を無くすことができ、高精度に処理を行うことができる。
【0026】
また、本装置1は、自動車、鉄道車両、船舶の運転者やプラントのオペレータ等の顔部位追跡に用いることができるが、以下の説明においては、自動車の運転者の顔部位のうち特に左眼に適用した場合で説明する。なお、本装置1は、眼だけの追跡に留まらず眉、鼻、口、耳なども同様の方法で追跡処理することができる。
【0027】
図2は、本発明の実施形態に係る顔部位追跡装置の示すハード構成図である。同図に示すように、顔画像撮像手段CL1としてTVカメラ2が自動車のインストルメント上に設けられている。TVカメラ2は、運転者を略正面から撮像できる位置に設置されており、少なくとも運転者の顔部分を撮影するようにされている。このTVカメラ2の入力画像は、本実施形態では、例えば横方向(X)640画素、縦方向(Y)480画素からなる。前記TVカメラ2で撮像された入力画像は、インストルメント裏側など車体内部に設置されたマイクロコンピュータ3に画像データとして入力される。
【0028】
マイクロコンピュータ3には、顔部位検出手段CL2及び顔部位追跡手段CL3を構成するプログラムロジックがプログラミングされている。なお、顔部位追跡手段CL3のプログラムロジックは、顔部位探査領域設定手段CL31、優先顔部位探査領域設定手段CL32、顔部位候補抽出手段CL33及び顔部位判定手段CL34のそれぞれのロジックを含むものである。
【0029】
次に、本実施形態に係る顔部位追跡装置1の動作について説明する。図3は、本実施形態に係る顔部位追跡装置1の動作の概略を示すメインフローチャートである。同図に示すように、まず、処理が開始されると、マイクロコンピュータ3は、初期値入力処理を実行する(ST10)。この初期値入力の処理では、サンプリング時間などの各種定数が読み込まれる。
【0030】
そして、マイクロコンピュータ3は、追跡対象の顔部位が見つかっているか否かを示す追跡対象検出フラグ「GetFlag」を「FALSE」に設定する(ST11)。その後、マイクロコンピュータ3は、処理フレームカウンタ「i」を「0」に初期化する(ST12)。
【0031】
初期化後、マイクロコンピュータ3は、終了判断処理を実行する(ST13)。この際、マイクロコンピュータ3は、例えばエンジンが起動しているか等に基づいて判断を行う。
【0032】
そして、マイクロコンピュータ3は、「STOP」か否かを判断する(ST14)。例えばエンジンが起動されていないと判断した場合、マイクロコンピュータ3は、「STOP」であると判断し(ST14:YES)、処理は終了することとなる。
【0033】
一方、エンジンが起動され走行しているなどにより、「STOP」でないと判断した場合(ST14:NO)、マイクロコンピュータ3は、顔画像の撮像処理を実行する(ST15)。これにより、TVカメラ2は、運転者の顔を撮像する。
【0034】
その後、マイクロコンピュータ3は、追跡対象検出フラグ「GetFlag」が「FALSE」か否かを判断する(ST16)。すなわち、追跡対象となる顔部位が見つかっているか否かを判断する。
【0035】
追跡対象検出フラグ「GetFlag」が「FALSE」であり、追跡対象となる顔部位が見つかっていないと判断した場合(ST16:YES)、マイクロコンピュータ3は、追跡対象検出処理を実行する(ST17)。このステップST17の処理は、図1にて説明した顔部位検出手段CL2にて行われる処理である。すなわち、マイクロコンピュータ3は、顔部位検出手段CL2に相当するプログラムを実行することとなる。なお、この処理において、追跡対象となる顔部位が見つけられた場合には、後述するが、追跡対象検出フラグ「GetFlag」が「TRUE」とされることとなる。
【0036】
追跡対象検出処理の実行後、マイクロコンピュータ3は、処理フレームカウンタ「i」をインクリメントする(ST18)。そして、処理は、ステップST13に戻る。
【0037】
その後、上記したステップST13〜15を経て、ステップST15に至る。このとき、前述の追跡対象検出処理(ST17)において、追跡対象となる顔部位が見つけられていた場合には、追跡対象検出フラグ「GetFlag」が「TRUE」となっている。このため、追跡対象検出フラグ「GetFlag」が「FALSE」でないと判断されて(ST16:NO)、マイクロコンピュータ3は追跡処理を実行する(ST19)。このステップST19の処理は、図1にて説明した顔部位追跡手段CL3にて行われる処理である。すなわち、マイクロコンピュータ3は、顔部位追跡手段CL3に相当するプログラムを実行する。そして、顔部位の追跡が行われる。
【0038】
その後、処理はステップST18に移行し、処理フレームカウンタをインクリメント後、再度処理はステップST13に戻る。以上の処理が、ステップST14にて「YES」と判断されるまで繰り返されることとなる。
【0039】
なお、図1を参照して説明したように、顔部位検出手段CL2は、撮像画像全体に対して処理を行い、追跡対象となる顔部位を検出する。一方、顔部位追跡手段CL3は、撮像画像に領域を設定し、その領域内から追跡対象となる顔部位を判定し追跡していくようにしている。このため、本装置1は、少なくとも一度は画像全体に対して処理を行うものの、その後は画像の一部に対して処理を行うこととなり、常に画像全体に処理を行う装置に比して、迅速な処理を行うことができる。
【0040】
次に、追跡対象検出処理(ST17)の詳細な動作について説明する。図4は、図3に示した追跡対象検出処理(ST17)の詳細な動作を示すフローチャートである。
【0041】
同図に示すように、ステップST16にて「YES」と判断された場合、マイクロコンピュータ3は、追跡対象候補の位置の特定処理を実行する(ST20)。この処理により、画像全体から追跡対象の候補の位置が特定される。なお、この処理では、追跡対象となる顔部位である可能性を有する候補の位置が1又は複数特定される。
【0042】
そして、マイクロコンピュータ3は、追跡対象判定処理を実行する(ST21)。追跡対象判定処理(ST21)では、追跡対象候補位置の特定処理(ST20)にて特定された1又は複数の追跡対象候補のうち1つを選別し、この選別した候補が追跡対象であるか否かを判断する。
【0043】
その後、マイクロコンピュータ3は、追跡対象判定処理(ST21)の結果に基づいて、選別された追跡対象の候補が追跡対象であると判定されたか否かを判断する(ST22)。
【0044】
追跡対象であると判定されていなかった場合(ST22:NO)、マイクロコンピュータ3は、特定された1又は複数の追跡対象候補のすべてについて判定したか否かを判断する(ST24)。
【0045】
全てに対して判定した場合(ST24:YES)、処理は図3のステップST18に移行する。一方、全てに対して判定していない場合(ST24:NO)、処理はステップST21に戻る。
【0046】
ところで、ステップST22において、追跡対象であると判定されていた場合(ST22:YES)、マイクロコンピュータ3は、追跡対象検出フラグ「GetFlag」を「TRUE」にする(ST23)。そして、処理は図3のステップST18に移行する。
【0047】
以上のようにして、本装置1では、所望する顔部位である可能性を有する1又は複数の追跡対象候補を画像全体から特定し、特定された1又は複数の追跡対象候補を1つずつ判定して追跡対象を検出することとなる。なお、追跡対象である可能性を有する1又は複数の追跡対象候補を画像全体から特定する処理(ステップST20の処理)は、以下のようにして行われる。
【0048】
図5は、図4に示した追跡対象候補位置特定処理(ST20)の詳細を示すフローチャートである。同図において、まず、マイクロコンピュータ3は、撮像した画像のデータ全体を、全体画像として画像メモリに保存する(ST30)。
【0049】
次に、マイクロコンピュータ3は、ステップST31の判断を行う。この判断については後述する。ステップST31において「NO」と判断された場合、マイクロコンピュータ3は、全体画像の縦方向(Y軸方向)の画素列のうち1ラインのみに沿って濃度値の相加平均演算を行う(ST32)。
【0050】
この相加平均演算は、例えば縦方向に並ぶ所定数の画素について、濃度の平均値を求め、所定数の画素のうちの1画素の濃度値を前記平均値とする処理である。例えば、所定数が「5」である場合、画面上方から1〜5番目に位置する画素を選択して平均値を求め、この平均値を5番目の画素の濃度値とする。次に、画面上方から2〜6番目に位置する画素を選択して平均値を求め、この平均値を6番目の画素の濃度値とする。そして、これを順次繰り返し、1ラインすべての画素について濃度の平均値を求める。
【0051】
このように相加平均演算することで、本装置1は、画像データ撮影時の濃度値の変化の小さなバラツキを無くすことができ、濃度値の大局的な変化を捉えることができる。
【0052】
相加平均演算後、マイクロコンピュータ3は、縦方向に相加平均値の微分演算を行う(ST33)。そして、マイクロコンピュータ3は、微分値に基づいてポイント抽出を行う(ST34)。このポイント抽出とは、縦方向の画素列に沿って画素濃度の相加平均値の局所的な高まり毎に1個ずつの画素を定める処理であって、例えば相加平均値の微分値が負から正に変化する画素を定める処理である。
【0053】
ポイントとなる画素を定めた後、マイクロコンピュータ3は、現在ポイント抽出していたラインを次ラインへ切り替える(ST35)。
【0054】
そして、マイクロコンピュータ3は、縦方向の全ラインでのポイント抽出が終了したか否かを判断する(ST31)。全ラインでのポイント抽出が終了していないと判断した場合(ST31:NO)、前述のステップST32〜ST35の処理を経て、再度ステップST31に戻る。
【0055】
一方、全ラインでのポイント抽出が終了したと判断した場合(ST31:YES)、隣り合う各ラインの抽出ポイントのY座標値を比較する。そして、Y座標値が所定値以内の場合、連続データとして、(i)連続データのグループ番号、(ii)連続開始ライン番号、(iii)連続データ数をメモリする。また、(iv)連続データを構成する各抽出ポイントの縦方向位置の平均値(その連続データの代表上下位置)、(v)連続開始ラインと終了ラインの横方向位置の平均値(その連続データの代表左右位置)をメモリする(ST36)。
【0056】
なお、本実施形態では、追跡対象を眼としているため、連続データは横方向比較的長く延びるものとなる。このため、マイクロコンピュータ3は、連続データ形成後、横方向に所定値以上続くことを条件に連続データを選択することができる。
【0057】
その後、マイクロコンピュータ3は、各連続データについて代表座標値Cを定め、これを基準として存在領域EAを設定する(ST37)。この代表座標値Cとは、ステップST36の処理において、メモリされたX座標値の平均値及びY座標値の平均値により決定するものである(上記iv,vに示す平均値)。なお、存在領域EAについては、図6〜図11を参照して後述する。
【0058】
代表座標値Cを定めて存在領域EAを設定した後、処理は、図4のステップST21に移行する。以上が、追跡対象候補位置特定処理(ST20)である。以上のようにして、求められた連続データが眼の候補となり、連続データの代表座標値Cが眼の候補点の位置となる。
【0059】
次に、縦方向の画素列ごとに定められた抽出ポイントが画像横方向に隣接する場合に形成される連続データ、その連続データの代表座標値C及び存在領域EAについて説明する。
【0060】
図6は、図5に示したステップST36の処理にて形成される連続データ、並びにステップST37の処理にて定められる代表座標値C及び存在領域EAを示す説明図である。なお、追跡対象候補位置特定処理(ST20)は、1又は複数の追跡対象候補を特定するものであるが、図6では複数の追跡対象候補が特定された場合を例に説明する。
【0061】
同図に示すように、マイクロコンピュータ3は、複数の連続データGを形成している。これは、眼を検出対象としているため、眼と似た特徴量を示すもの(口、鼻、眉毛など)が検出されるためである。
【0062】
連続データGは、前述したように、縦方向の画素列ごとに定められた抽出ポイントが画像横方向に隣接する場合に形成されるものである。そして、この連続データを形成する横方向両端の画素のX座標値の平均値と、連続データを形成する各画素のY座標の平均値により、代表座標値Cが決定される。さらに、存在領域EAは、この代表座標値Cを基準として設定される。
【0063】
次に、存在領域EAの設定方法を説明する。図7は、図6に示した存在領域EAの大きさを示す説明図であり、図8及び図9は数人の眼の大きさを調べた横Xa、縦Yaの長さの統計データを示す説明図であり、図10は存在領域EAの画像上の位置を決定する方法を示す説明図である。
【0064】
存在領域EAの設定は、存在領域EAの大きさが決定され、その後、存在領域EAの画像上における位置が定められることでなされる。
【0065】
存在領域EAの大きさは、ノイズ(顔の皺や明暗などを抽出してしまう)の低減や処理速度を落とさないためにも、可能な限り小さい領域が良い。本実施形態では、数人の顔部位の大きさを調べ、それに余裕分(例えば×1.5倍)を加味して、存在領域EAの大きさを決定している。すなわち、図8及び図9のように、顔部位の縦横寸法のデータを集め、その分布の例えば95%をカバーする寸法に余裕分を考慮して決定する方法を採用している。
【0066】
そして上記95%をカバーする寸法、すなわち横寸法xa、縦寸法yaに余裕分(×1.5)を加味して決定している(図7)。なお、存在領域EAの大きさについては、画像処理により顔部位の幅や高さを推定し、縦横の大きさに余裕分を加える大きさとしてもよい。
【0067】
このように存在領域EAの大きさが決定された後、図10に示すように、例えば眼の座標値(x1,y1)を基準に、基準点Pを決める。基準点Pは、眼の座標値(x1,y1)から距離x2,y2だけ離れた位置に定められるものである。
【0068】
そして、マイクロコンピュータ3は、点Pを基準に存在領域EAの寸法x3,y3を描画する。これにより、存在領域EAの位置が決定される。その後、画像全体で見つかった連続データGすべてについて存在領域EAを設定する。
【0069】
なお、上記のx2及びy2はx3,y3の1/2であって、予め存在領域EAが眼の中心にくるような長さとすることが望ましい。
【0070】
以上の図5〜図10の処理により、図4の追跡対象候補位置特定処理(ST20)がなされる。
【0071】
次に、図4の追跡対象判定処理(ST21)について説明する。図11は、図4に示した追跡対象判定処理(ST21)の詳細を示すフローチャートである。
【0072】
まず、マイクロコンピュータ3は、図5の処理にて求められた存在領域EAの画像データを微少画像IGとして画像メモリに保存する(ST40)。全体画像と画像メモリに保存される微小画像IGとの状態を図12に示す。図12は、微小画像を示す説明図である。図12に示すように、マイクロコンピュータ3は、全体画像から存在領域EA内の画像を抽出し、微小画像IGとしている。
【0073】
再度、図11を参照して説明する。マイクロコンピュータ3は、全体画像の代表座標値Cを微少画像IGの代表座標値ICとする。そして、マイクロコンピュータ3は、微少画像IGの代表座標値ICを基準とした範囲ARを設定し、範囲ARの濃度情報をもとに二値化閾値を設定する(ST41)。
【0074】
範囲ARでの二値化閾値の算出方法の一例を、図13を参照して説明する。図13は、範囲ARでの二値化閾値の算出方法の説明図である。まず、マイクロコンピュータ3は、範囲ARにおいて縦方向に数ラインの濃度値の読み出しを行う。
【0075】
そして、マイクロコンピュータ3は、各ラインにおいて濃度値の最も高い(明るい)濃度値と、最も低い(暗い)濃度値をメモリしていく。全ラインのメモリが終了したら、マイクロコンピュータ3は、各ラインの最も高い(明るい)濃度値の中で、一番低い濃度値(皮膚の部分)と、各ラインの最も低い(暗い)濃度値の中で、一番低い濃度値(眼の部分)とを求める。そして、その中央値を二値化閾値とする。
【0076】
なお、上記した範囲ARは、好適に二値化閾値を決定するため、眼の黒い部分と眼の周囲の皮膚の白い部分が入るように設定される。また、範囲ARは、画像の明るさのバラツキによる影響を少なくするために必要最小限の大きさにされる。
【0077】
さらに、二値化閾値は、範囲AR内の眼の一番低い(暗い)濃度値と、皮膚の部分の一番低い(暗い)濃度値の中央値とすることで、皮膚の部分から眼の部分を切り出すのに適した値になる。
【0078】
ここで、二値化閾値を決定するのに皮膚部分における一番低い(暗い)濃度値を用いている理由は、次の通りである。例えば、範囲ARの一部に直射光が当たっている場合、皮膚部分は、眼球の黒色部分に比して、光を強く反射する傾向にある。このため、本装置1は、多くのノイズとも言える光を入力してしまうこととなる。
【0079】
この場合、濃度値を読み出す範囲ARを極力小さくしても、画像がノイズ光による影響を受け、本装置1は正確な二値化閾値を決定できなくなってしまう。このため、本実施形態では、強く反射している可能性がある濃度値の高い部分を用いず、皮膚の部分の濃度値の一番低い(暗い)濃度値を用いることで、より適切な二値化閾値を決定できるようにしている。
【0080】
再度、図11を参照して説明する。二値化閾値の決定後、マイクロコンピュータ3は、決定した二値化閾値を用いて微少画像IGを二値化処理し、二値画像bGとして画像メモリに保存する(ST42)。
【0081】
次に、マイクロコンピュータ3は、全体画像の代表座標値Cを二値画像bGの位置bCとし、この位置bCを初期位置として設定する(ST43)。その後、マイクロコンピュータ3は、設定位置が黒画素か否かを判断する(ST44)。ここでは、ステップST43において設定された初期位置が黒画素か否か判断される。
【0082】
そして、設定位置が黒画素でないと判断した場合(ST44:NO)、マイクロコンピュータ3は、設定位置を上下左右に1画素ずつずらす(ST45)。その後、マイクロコンピュータ3は、再度、設定位置が黒画素か否かを判断する。ここでは、ステップST45においてずらされた設定位置が黒画素か否か判断される。そして、黒画素と判断されるまで、この処理が繰り返される。
【0083】
一方、設定位置が黒画素であると判断した場合(ST44:YES)、マイクロコンピュータ3は、その黒画素の連結成分を候補オブジェクトとして設定する(ST46)。そして、マイクロコンピュータ3は、候補オブジェクトの幾何形状を算出する(ST47)。
【0084】
算出後、マイクロコンピュータ3は、予め記憶している追跡対象のテンプレートの幾何形状と候補オブジェクトの幾何形状とを比較する(ST48)。候補オブジェクトと追跡対象のテンプレートとの幾何形状の比較方法の一例を、図14を参照して説明する。
【0085】
図14は、候補オブジェクトと追跡対象である眼のテンプレートとの幾何形状の比較方法の説明図であり、(a)は候補オブジェクトが最適な状態で撮像された場合を示し、(b)は眼の右側が欠けた状態を示し、(c)は眼の左側が欠けた状態を示している。
【0086】
眼の画像を二値化した形状は光環境が良く安定した画像であれば図14(a)に示すようなものになる。ところが、車室内に直射日光が一側から当たる等して光環境が悪化したときには、図14(b)及び(c)に示すように、一部が欠けた形状になることもある。
【0087】
マイクロコンピュータ3は、上記のような候補オブジェクトを正確に判断するために、3つの条件により比較判断を行う。まず、条件(i)としては、横幅が眼の相場値の2/3以上あり、且つ上に凸の所定範囲の曲率を持っていることである。次に、条件(ii)としては、黒眼の左側の凹み形状があることである。また、条件(iii)としては、黒眼の右側の凹み形状があることである。
【0088】
再度、図11を参照して説明する。幾何形状の比較後、マイクロコンピュータ3は、上記3つの条件に基づき、比較判断を行い、候補オブジェクトと眼テンプレートとの幾何形状が一致するか否かを判断する(ST49)。ここで、図14(b)及び(c)のように眼の形状の一部が欠けている場合を考慮し、マイクロコンピュータ3は、条件(i)及び(ii)を満たすもの、並びに条件(ii)及び(iii)を満たすものを一致すると判断する。
【0089】
一致しないと判断した場合(ST49:NO)、マイクロコンピュータ3は、その候補オブジェクトが追跡対象となる顔部位でないと判定し(ST50)、その後、処理は、図4のステップST22に移行する。
【0090】
一方、一致すると判断した場合(ST49:YES)、マイクロコンピュータ3は、その候補オブジェクトが追跡対象となる顔部位であると判定する(ST51)。そして、判定された候補オブジェクトの座標値(全体画像における代表座標値Cに相当する)を、画像上における眼の座標値としてメモリする(ST52)。
【0091】
その後、マイクロコンピュータ3は、一致と判断された候補オブジェクトを含む微小画像IGを追跡対象画像MGとして、画像メモリに保存する(ST53)。その後、処理は、図4のステップST22に移行する。
【0092】
なお、図11の処理では、二値化閾値を用いて二値化した候補オブジェクトを検出している。このため、本実施形態では、眼の部分と他の部分(背景や眼以外の顔部分)とを明確に区別し、眼を正確に捉えることができる。さらには、候補オブジェクトの幾何形状を用いた判定をより正確に行うことができ、眼の位置検出精度をより向上させることができる。
【0093】
以上、図4〜図14を参照して説明したように、マイクロコンピュータ3(顔部位検出手段CL2)は、入力した画像全体から、追跡対象となる顔部位を検出することとなる。そして、前述したように、追跡対象となる顔部位が検出されると、追跡対象検出フラグ「GetFlag」が「TRUE」とされる。そして、図3に示すように、追跡処理(ST19)が実行されるようになる。
【0094】
図15は、図3に示した追跡処理(ST19)の詳細を示すフローチャートである。同図に示すように、ステップST16にて「NO」と判断された場合、マイクロコンピュータ3は、顔部位探査領域の設定処理を実行する(ST60)。このステップST60の処理は、図1に示した顔部位探査領域設定手段CL31にて行われる処理である。すなわち、マイクロコンピュータ3は、顔部位探査領域設定手段CL31に相当するプログラムを実行することとなる。図16を参照して、顔部位探査領域の設定処理の概略を説明する。
【0095】
図16は、図15に示した顔部位探査領域の設定処理(ST60)の説明図であり、(a)は時刻t0において撮像された画像を示し、(b)は時刻t1において撮像された画像を示し、(c)は時刻t2において撮像された画像を示し、(d)は時刻t3において撮像された画像を示し、(e)はこれらの画像上の左眼位置を一画像上で表した場合を示している。
【0096】
被検出者が顔の向きを変える場合、まず、時刻t0において図16(a)に示す画像が撮像される。このとき、被検出者は、ほぼ正面を視認している。その後、時刻t1において、図16(b)に示す画像が撮像される。このとき、被検出者は、サイドミラー等を確認すべく、顔を右(図16においては左側)に向け始める。顔の向きを右に向け始めたことから、被検出者の左眼の位置は、右側へ移動することとなる。
【0097】
そして、時刻t2において、図16(c)に示す画像が撮像される。このとき、被検出者は、時刻t1よりも、さらに顔を右に向けている。このため、左眼の位置は、さらに右側へ移動することとなる。
【0098】
その後、時刻t3において、図16(d)に示す画像が撮像される。このとき、被検出者は、サイドミラー等を確認しており、顔を最も右側に向けた状態となっている。故に、左眼の位置は、最も右側へ移動したこととなる。
【0099】
そして、図16(e)に示すように、時刻t0からt3に向かって、これら画像上の左眼の位置が徐々に移動していることがわかる。顔部位探査領域の設定処理(ST60)においては、これら時刻t0〜t3までの各期間(t0〜t1,t1〜t2,t2〜t3)に移動する左眼位置が含まれるように設定される。
【0100】
再度、図15を参照して説明する。ステップST60の後、マイクロコンピュータ3は、優先顔部位探査領域の設定処理を実行する(ST61)。このステップST61の処理は、図1に示した優先顔部位探査領域設定手段CL32にて行われる処理である。すなわち、マイクロコンピュータ3は、優先顔部位探査領域設定手段CL32に相当するプログラムを実行することとなる。図17を参照して、優先顔部位探査領域の設定処理の概略を説明する。
【0101】
図17は、図15に示した優先顔部位探査領域の設定処理(ST61)の説明図であり、(a)は時刻t10において撮像された画像を示し、(b)は時刻t11において撮像された画像を示し、(c)は時刻t12において撮像された画像を示し、(d)は時刻t13において撮像された画像を示し、(e)はこれらの画像上の左眼位置を一画像上で表した場合を示している。
【0102】
被検出者が一方向を視認している場合、まず、時刻t10において図17(a)の画像が撮像される。その後、時刻t11,時刻t12,時刻t13において、それぞれ図17(b)、(c)、(d)の画像が撮像される。
【0103】
これらの画像上における左眼位置は、被検出者が一方向を視認していることから、図17(e)からも明らかなように、ほぼ静止した状態となっている。
【0104】
優先顔部位探査領域の設定処理(ST61)においては、これら時刻t10〜t13までの各期間(t10〜t11,t11〜t12,t12〜t13)に移動する左眼位置が含まれるように設定される。
【0105】
ここで、一方向を視認している場合と顔の向きを変えた場合との左眼位置の分布について説明する。図18は、一方向を視認している場合と顔の向きを変えた場合との左眼位置の分布を示す説明図である。ここで、図18の縦軸は画像におけるX軸方向の座標値であり、横軸は画像におけるY軸方向の座標値である。また、画像サイズ640×480であり、縦軸の最大値は480で、横軸の最大値は680である。さらに、図18では30フレーム/秒のビデオレートでサンプリングしたときの座標をプロットしたものを示している。
【0106】
同図に示すように、被検出者が一方向を視認している場合、左眼位置はほぼ1点に滞留している。このとき、軌跡aに示すように、各時刻の座標値は、X軸において200〜230で、Y軸において350〜390でほぼ一定となっている。
【0107】
一方、被検出者が顔の向きを変えた場合、例えば、エアコン装置の操作パネル等が設置されている方向(左下方向)に、被検出者が顔を向けた場合、左眼位置は大きく移動する。このとき、軌跡bに示すように、各時刻の座標値は、X軸において390〜520で、Y軸において240〜350であり、大きく移動している。
【0108】
この分布についての解析結果を図19に示す。図19は、図18に示した分布から求まる左眼位置の移動量の解析結果を示す説明図である。なお、図19では、被検出者が図18の軌跡a及び軌跡bと同様の動きをした場合に、30ms/フレーム及び60ms/フレームにて、撮像したときの解析結果を示している。また、ここでの画像サイズは、640×480である。
【0109】
まず、軌跡aと同様の動きを30ms/フレームにて撮像した場合、1フレーム当たりの移動量の平均はX軸方向に「1.13」Y軸方向に「0.52」である。また、このときの標準偏差はX軸方向に「0.95」Y軸方向に「0.52」であり、3δ移動量はX軸方向に「3.97」Y軸方向に「2.08」である。そして、最大移動量は、X軸方向に「4」Y軸方向に「2」である。
【0110】
一方、軌跡bと同様の動きを30ms/フレームにて撮像した場合、1フレーム当たりの移動量の平均はX軸方向に「3.38」Y軸方向に「2.35」である。また、このときの標準偏差はX軸方向に「2.63」Y軸方向に「2.12」であり、3δ移動量はX軸方向に「11.27」Y軸方向に「8.72」である。そして、最大移動量は、X軸方向に「14」Y軸方向に「9」である。
【0111】
また、軌跡aと同様の動きを60ms/フレームにて撮像した場合、1フレーム当たりの移動量の平均はX軸方向に「1.76」Y軸方向に「0.91」である。また、このときの標準偏差はX軸方向に「1.47」Y軸方向に「0.68」であり、3δ移動量はX軸方向に「6.18」Y軸方向に「2.94」である。そして、最大移動量は、X軸方向に「6」Y軸方向に「3」である。
【0112】
一方、軌跡bと同様の動きを60ms/フレームにて撮像した場合、1フレーム当たりの移動量の平均はX軸方向に「5.77」Y軸方向に「4.25」である。また、このときの標準偏差はX軸方向に「4.10」Y軸方向に「3.70」であり、3δ移動量はX軸方向に「18.06」Y軸方向に「15.35」である。そして、最大移動量は、X軸方向に「15」Y軸方向に「14」である。
【0113】
このように、図19から明らかなように、被検出者が一方向を視認しているときには、左眼位置の移動量が最大数画素程度であるが、顔の向きを変えた場合には、左眼位置の移動量が最大数十画素となっている。
【0114】
再度、図15を参照して説明する。ステップST61の後、マイクロコンピュータ3は、追跡対象候補位置の特定処理を行う(ST62)。この処理は、図5に示す処理と同様である。この処理は、図1に示した顔部位候補抽出手段CL33にて行われる処理である。すなわち、マイクロコンピュータ3は、顔部位候補抽出手段CL33に相当するプログラムを実行することとなる。
【0115】
この処理の概略を説明すると、まず、マイクロコンピュータ3は、撮像画像の縦方向の画素列に沿って画素の濃度値を検出する。このとき、マイクロコンピュータ3は、相加平均演算を実行し、濃度の平均値を求める。そして、マイクロコンピュータ3は、検出された濃度平均値の局所的な高まり毎に1個ずつの画素を定めてポイント抽出する。これにより、抽出点が定まる。その後、マイクロコンピュータ3は、縦方向の画素列ごとに定められた抽出点が、画像横方向に隣接する場合に、横方向に延びる抽出点群の連続データGを形成する。この連続データGは、図5〜図9を参照して説明したものと同様である。そして、マイクロコンピュータ3は、形成された連続データGの代表座標値Cを、追跡対象候補の候補点とする。
【0116】
ステップST62の後、マイクロコンピュータ3は、追跡対象の候補が優先顔部位探査領域内にあるか否かを判断する(ST63)。より詳細には、追跡対象候補の候補点である代表座表値Cが優先顔部位探査領域内にあるか否かを判断する。なお、この処理は、図1に示した顔部位判定手段CL34にて行われる処理である。すなわち、マイクロコンピュータ3は、顔部位判定手段CL34に相当するプログラムを実行することとなる。
【0117】
候補が優先顔部位探査領域内にあると判断した場合(ST63:YES)、マイクロコンピュータ3は、追跡対象の候補が追跡対象であると判定する(ST64)。そして、マイクロコンピュータ3は、追跡対象であると判定された顔部位を含む存在領域EAを微小画像IGとして画像メモリに保存する(ST65)。
【0118】
その後、マイクロコンピュータ3は、追跡対象候補の代表座標値Cを追跡対象の座標値としてメモリし(ST66)、さらに、微小画像IGを追跡対象画像MGとして画像メモリに保存する(ST67)。
【0119】
そして、マイクロコンピュータ3は、不検出カウンタを初期化する(ST68)。その後、処理は図3に示したステップST18に移行する。なお、不検出カウンタとは、追跡対象が特定できない連続処理数をカウントするものである。
【0120】
ところで、候補が優先顔部位探査領域内に無いと判断した場合(ST63:NO)、処理は、図20に示すステップST70に移行する。
【0121】
図20は、追跡対象の候補が優先顔部位探査領域内に無いと判断された場合に実行される処理を示すフローチャートである。
【0122】
マイクロコンピュータ3は、まず、微小画像IGの濃度による追跡対象判定処理を行う(ST70)。このステップST70の処理は、図1にて説明した顔部位判定手段CL34にて行われる処理である。すなわち、マイクロコンピュータ3は、顔部位判定手段CL34に相当するプログラムを実行することとなる。
【0123】
詳細には、図21に示す処理が実行される。図21は、図20に示した濃度による追跡対象判定処理(ST70)の詳細を示すフローチャートである。
【0124】
同図に示すように、まず、マイクロコンピュータ3は、微小画像IGを画像メモリに保存する(ST90)。その後、マイクロコンピュータ3は、微小画像IGの濃度データと追跡対象画像MGi−1の濃度データの類似度パラメータを求める(ST91)。
【0125】
ここで、追跡対象画像MGi−1は、前回の追跡処理において画像メモリに記憶された追跡対象の画像である。また、図15のステップST67に示されるように、追跡対象画像MGi−1は、前回、追跡対象となる顔部位を含むと判定された微小画像IGでもある。
【0126】
すなわち、マイクロコンピュータ3は、現在の画像フレームから抽出された追跡対象の候補を含む微小画像IGと、過去の画像フレームにおいて特定された追跡対象を含む微小画像との双方から、濃度データの類似度パラメータを求めている。
【0127】
また、濃度値データの類似度パラメータは、次の式により求められる。
【0128】
【数1】
Figure 0004107104
なお、I(m,n)は、微小画像IGの画素の濃度を示し、T(m,n)は追跡対象画像MGi−1の画素の濃度を示し、M及びNは画素サイズを示している。上記式に示されるように、類似度パラメータは残差和として表される。この残差和は2枚の画像の類似性が高いと値が小さくなり、類似性が低いと大きくなることから、閾値をもうけて、残差和が閾値よりも小さいと類似性が高いと判断できる。
【0129】
この処理の後、マイクロコンピュータ3は、類似度パラメータに基づいて、抽出された候補が追跡対象の顔部位か否かを判定する(ST92)。すなわち、類似度が高い否かを判断して、微小画像IGが追跡対象となる顔部位を含むものか否かを判断している。
【0130】
類似度が高くないと判断した場合(ST92:NO)、マイクロコンピュータ3は、微小画像IGに含まれる候補オブジェクトが追跡対象となる顔部位でないと判定する(ST93)。その後、処理は、図20のステップST71に移行する。
【0131】
一方、類似度が高いと判断した場合(ST92:YES)、マイクロコンピュータ3は、微小画像IGに含まれる候補オブジェクトが追跡対象となる顔部位であると判定する(ST94)。その後、処理は、図20のステップST71に移行する。
【0132】
再度、図20を参照して説明する。ステップST70の後、マイクロコンピュータ3は、図21に示したステップST93,94の判定に基づいて、存在領域EAが追跡対象となる顔部位を含むものか否かを判断する(ST71)。
【0133】
追跡対象となる顔部位を含むものであると判断された場合(ST71:YES)、処理は、図15に示したステップST66に移行する。一方、追跡対象となる顔部位を含むものでないと判断された場合(ST71:NO)、マイクロコンピュータ3は、周波数画像による追跡対象判定処理を行う(ST72)。このステップST72の処理は、図1にて説明した顔部位判定手段CL34にて行われる処理である。
【0134】
詳細には、図22に示す処理が実行される。図22は、図20に示した周波数画像による追跡対象判定処理(ST72)の詳細を示すフローチャートである。
【0135】
同図に示すように、まず、マイクロコンピュータ3は、存在領域EAを微小画像IGとして画像メモリに保存する(ST100)。その後、マイクロコンピュータ3は、微小画像IGを周波数処理して周波数画像IFGを生成し、これを画像メモリに保存する(ST101)。すなわち、マイクロコンピュータ3は、現在の画像フレームから抽出された追跡対象の候補を含む微小画像IGを周波数処理して周波数画像IFGを生成している。
【0136】
ここでの周波数画像の生成は、フーリエ変換やウェーブレット変換などの一般的な方法により行われる。図23は、図22に示した周波数画像生成処理(ステップST101)の説明図であり、(a)は微小画像IGを示しており、(b)は周波数画像を示している。
【0137】
図23(a)に示すような微小画像IGを周波数処理した場合には、例えば、図23(b)に示す画像が得られる。マイクロコンピュータ3は、この周波数画像を画像メモリに保存することとなる。
【0138】
図22を参照して説明する。ステップST101の後、マイクロコンピュータ3は、前回の追跡処理において画像メモリに記憶された追跡対象画像MGi−1を周波数処理して周波数画像BIFGを求め、これを画像メモリに保存する(ST101)。すなわち、マイクロコンピュータ3は、過去の画像フレームにおいて特定された追跡対象の顔部位を含んだ追跡対象画像MGi−1を周波数処理して周波数画像BIFGを求めている。なお、ここでの周波数処理は、図23を参照して説明したものと同様である。
【0139】
次に、マイクロコンピュータ3は、周波数画像IFG,BIFGの類似度パラメータを算出する(ST103)。類似度パラメータの算出方法は、図21に示したステップST91と同様であり、濃度データの残差和を求めることによりなされる。
【0140】
この処理の後、マイクロコンピュータ3は、算出された類似度パラメータに基づいて、抽出された候補が追跡対象の顔部位か否かを判定する(ST104)。すなわち、類似度が高い否かを判断して、微小画像IGが追跡対象となる顔部位を含むものか否かを判断している。
【0141】
類似度が高くないと判断した場合(ST104:NO)、マイクロコンピュータ3は、微小画像IGに含まれる候補オブジェクトが追跡対象となる顔部位でないと判定する(ST105)。その後、処理は、図20のステップST73に移行する。
【0142】
一方、類似度が高いと判断した場合(ST104:YES)、マイクロコンピュータ3は、微小画像IGに含まれる候補オブジェクトが追跡対象となる顔部位であると判定する(ST106)。その後、処理は、図20のステップST73に移行する。
【0143】
再度、図20を参照して説明する。ステップST72の後、マイクロコンピュータ3は、図22に示したステップST105,106の判定に基づいて、存在領域EAが追跡対象となる顔部位を含むものか否かを判断する(ST73)。
【0144】
追跡対象となる顔部位を含むものであると判断された場合(ST73:YES)、処理は、図15に示したステップST66に移行する。一方、追跡対象となる顔部位を含むものでないと判断された場合(ST73:NO)、マイクロコンピュータ3は、候補オブジェクトの幾何形状による追跡対象判定処理を行う(ST74)。このステップST74の処理は、図1にて説明した顔部位判定手段CL34にて行われる処理である。
【0145】
詳細には、図24に示す処理が実行される。図24は、図20に示した候補オブジェクトの幾何形状による追跡対象判定処理(ST74)の詳細を示すフローチャートである。同図に示すステップST110〜ST118については、図11に示したステップST40〜ST48と同様であるため、説明を省略する。
【0146】
この処理の後、マイクロコンピュータ3は、算出された幾何形状のマッチング度合いに基づいて、抽出された候補が追跡対象の顔部位か否かを判定する(ST119)。すなわち、幾何形状が一致するかを判断して、微小画像IGが追跡対象となる顔部位を含むものか否かを判断している。
【0147】
一致しないと判断した場合(ST119:NO)、マイクロコンピュータ3は、微小画像IGに含まれる候補オブジェクトが追跡対象となる顔部位でないと判定する(ST120)。その後、処理は、図20のステップST75に移行する。
【0148】
一方、一致すると判断した場合(ST119:YES)、マイクロコンピュータ3は、微小画像IGに含まれる候補オブジェクトが追跡対象となる顔部位であると判定する(ST121)。その後、処理は、図20のステップST75に移行する。
【0149】
再度、図20を参照して説明する。ステップST74の後、マイクロコンピュータ3は、図24に示したステップST120,121の判定に基づいて、存在領域EAが追跡対象となる顔部位を含むものか否かを判断する(ST75)。
【0150】
追跡対象となる顔部位を含むものであると判断された場合(ST75:YES)、処理は、図15に示したステップST66に移行する。一方、追跡対象となる顔部位を含むものでないと判断された場合(ST75:NO)、マイクロコンピュータ3は、ステップST76の処理を行う。
【0151】
図15に示したステップST62では、複数の追跡対象候補が抽出されている場合がある。例えば、被検出者が眼鏡を着用している場合などには、複数の追跡対象候補が抽出されることがある(後述する)。このため、マイクロコンピュータ3は、他の追跡対象の候補があるか、すなわち未だ判定していない追跡対象の候補があるか否かを判断する(ST76)。他の追跡対象の候補があると判断した場合(ST76:YES)、処理は図15のステップST63に移行する。
【0152】
一方、他の追跡対象の候補がないと判断した場合(ST76:NO)、マイクロコンピュータ3は、不検出カウンタをインクリメントする(ST77)。その後、マイクロコンピュータ3は、不検出カウンタの数値が顔部位再検出処理移行数を超えたか否かを判断する(ST78)。顔部位再検出処理移行数は、追跡対象となる顔部位が特定できなかった場合であっても、図3のステップST17の処理を行うことなく、ステップST19の追跡処理を連続して何度実行するかを示す数である。この数は、システムの処理速度、処理精度等によって異なってくるものであり、本装置1の適用対象に合わせて適宜設定すればよいものである。
【0153】
顔部位再検出処理移行数を超えていないと判断した場合(ST78:NO)、処理は、図3に示したステップST18に移行する。そして、ステップST13〜ST15の処理が行われ、再度、追跡処理(ST19)が行われることとなる。なお、再度ステップST19の処理が実行され、再度、追跡対象の候補が追跡対象であると判定されなかった場合には、不検出カウンタがさらにインクリメントされることとなる。そして、ステップST19の処理が繰り返され、不検出カウンタの値が顔部位再検出処理移行数を超えた場合(ST78:YES)、マイクロコンピュータ3は、追跡対象検出フラグ「GetFlag」を「FALSE」に設定する(ST79)。
【0154】
その後、マイクロコンピュータ3は、不検出カウンタを初期化し(ST80)、処理は、図3に示したステップST18に移行する。
【0155】
なお、不検出カウンタの数値が顔部位再検出処理移行数を超えた場合、追跡対象検出フラグ「GetFlag」を「FALSE」に設定されるため、図3に示す追跡対象検出処理(ST17)が、再度実行されることとなる。すなわち、マイクロコンピュータ3は、追跡対象を特定できないため、ステップST19の処理を繰り返したにもかかわらず、数回に渡って追跡対象を特定できない場合に、最終的に追跡対象を特定できなかったとする。そして、再度の追跡対象検出処理(ST17)を実行することとなる。
【0156】
次に、図15に示した顔部位探査領域の設定処理(ST60)及び優先顔部位探査領域の設定処理(ST61)をさらに詳細に説明する。
【0157】
図25は、顔部位探査領域の設定処理(ST60)の詳細を示すフローチャートであり、図26は、優先顔部位探査領域の設定処理(ST61)の詳細を示すフローチャートである。図25に示すように、マイクロコンピュータ3は、顔部位探査領域の位置を設定する(ST130)。ここでは、前回の処理において検出又は判定された追跡対象の顔部位の代表座標値Cなどに基づいて、顔部位探査領域の中心位置が設定される。
【0158】
その後、顔部位探査領域の大きさを設定する(ST131)。この処理では、例えば、追跡対象が特定できずに何度追跡処理が実行されたか、すなわち不検出カウンタの数値などの情報に基づいて、大きさが決定される。そして、マイクロコンピュータ3は、顔部位探査領域の領域設定を行い(ST132)、処理は、図26のステップST140に移行する。
【0159】
ステップST140において、マイクロコンピュータ3は、不検出カウンタが優先顔部位領域の非設定数を超えた否かを判断する(ST140)。優先顔部位領域の非設定数は、顔部位が追跡できていないと判断するのに必要な数である。この数も、顔部位再検出処理移行数と同様に、システムの処理速度、処理精度によって設定される値が異なってくるものである。なお、優先顔部位領域の非設定数は、ほぼビデオレートで処理ができ、顔部位の検出率(顔部位を顔部位として判定する率)が90%程度であれば3〜5に設定できる。
【0160】
不検出カウンタが優先顔部位領域の非設定数を超えたと判断した場合(ST140:YES)、処理は図15のステップST62に移行する。一方、不検出カウンタが優先顔部位領域の非設定数を超えていないと判断した場合(ST140:NO)、優先顔部位探査領域の領域設定を行い(ST141)、処理は図15のステップST62に移行する。
【0161】
次に、図27〜図33を参照して、上記の図25及び図26に示した処理をさらに詳細に説明する。図27は、顔部位探査領域及び優先顔部位探査領域の説明図である。同図に示すように、顔部位探査領域は、中心から片側幅H1、片側高V1となっている。また、優先顔部位探査領域は、中心から片側幅H2、片側高V2となっている。ここでの中心は、例えば、前回の処理において検出又は判定された追跡対象の代表座標値Cである。また、前回の処理とは、追跡対象検出処理(ST17)及び追跡処理(ST19)のいずれであってもよい。なお、図25に示すステップST130では、この中心となる座標を定める処理を行っている。
【0162】
領域の大きさは、前述したように、検出対象等によって変わってくるものである。また、領域の大きさは、システムの処理速度、処理精度によっても変わってくるが、例えば、前述の例ではH1を30〜50画素、V1を20〜30画素とすればよい。また、H2を10〜15画素、V2を5から10画素程度に設定すればよい。
【0163】
ところが、上記のような顔部位探査領域では、被検出者が顔の向きを大きく変えた場合などには、追跡対象の顔部位が領域外へ移動してしまい、追跡対象の顔部位を特定できないこともある。すなわち、前回の処理において検出又は判定された追跡対象の代表座標値Cを顔部位探査領域の中心としているため、移動中の追跡対象は、今回の処理時において既に領域外に位置しているということもありうる。
【0164】
そこで、本実施形態では、図28に示すように、顔部位探査領域の大きさを可変としている。図28は、顔部位探査領域の大きさを可変とする場合の一例を示す説明図である。同図に示すように、マイクロコンピュータ3は、追跡対象の顔部位が特定できなかった場合には、顔部位探査領域を広くする。
【0165】
本実施形態においては、例えば、一度追跡対象が特定されず不検出カウンタが「1」となった場合、追跡対象が存在するであろう領域を広げて、追跡対象の候補を見つけるようにしている。図25に示すステップST131では、このようにして、顔部位探査領域の大きさを決定している。
【0166】
また、顔部位探査領域の大きさは次のようにして決定してもよい。図29は、顔部位探査領域の大きさを可変とする場合の他の例を示す説明図である。同図に示すように、マイクロコンピュータ3は、顔部位探査領域を広くする際に不検出カウンタのカウント値に基づいて、顔部位探査領域の大きさを順次大きくするようにしてもよい。すなわち、不検出カウンタの数値が大きければ大きいほど、顔部位探査領域を広くするようにしている。このように、不検出カウンタの数値に基づいて領域の大きさを決定することで、追跡対象が特定できなかった連続回数に応じて領域の大きさを決定することとなる。
【0167】
通常、顔部位探査領域を大きくすると処理速度の低下を招くため、顔部位探査領域の大きさを前回処理のときの大きさに比して、突然に大きくしてしまうことは、急激な処理速度の低下を招いてしまう。ところが、この例のように大きさを不検出カウンタの数値に応じて決定することで、処理速度の急激な低下を防止しつつ顔部位探査領域を適切な大きさにすることができる。
【0168】
さらに、本実施形態では、マイクロコンピュータ3が優先顔部位探査領域を設定しない場合もある。図26のステップST140の処理がこれに当たる。
【0169】
ステップST140では、不検出カウンタが優先顔部位領域非設定数を超えたか否かを判断している。すなわち、マイクロコンピュータ3は、追跡対象の候補のすべてについて追跡対象であるか否かの判断を行い、追跡対象を特定できなくとも、不検出カウンタが顔部位再検出移行数に達するまで、追跡対象の特定を試みる。そして、マイクロコンピュータ3は、不検出カウンタが顔部位再検出移行数に達した場合には、最終的に追跡対象が特定できなかったと判断し、図3のステップST17の追跡対象検出処理を行うこととなる。
【0170】
ステップST140では、最終的に追跡対象が特定できなかったと判断するまでの間において、不検出カウンタが優先顔部位領域非設定数を超えた場合に、優先顔部位探査領域の設定を行わないようにしている。
【0171】
なお、本例では、優先顔部位探査領域の設定を行わないようにしているが、これに限らず、優先顔部位探査領域を狭くして設定するようにしてもよい。
【0172】
また、図27にて説明した顔部位探査領域の中心は、前回の処理において検出又は判定された追跡対象の顔部位の代表座標値Cとしなくともよい。以下にその場合の例を示す。図30は、顔部位探査領域の中心位置を設定する場合の一例を示す説明図である。
【0173】
同図には、前々回及び前回の眼の位置及び顔部位探査領域の中心位置が示されている。図30に示す例の場合、まず、マイクロコンピュータ3は、前々回及び前回の顔部位探査領域について、中心位置のX軸方向での差分及びY軸方向での差分を求める。そして、前回の中心位置にこれらの差分値を加え、得られた座標値を今回の顔部位探査領域の中心位置とする。
【0174】
図31は、眼の位置及び顔部位探査領域の中心位置を含む画像例を示す説明図であり、(a)は全体画像を示し、(b)は拡大画像を示している。
【0175】
図30を参照して説明した処理を実行した場合、図31(a)に示すように、顔部位探査領域内に眼の位置が納まっている。また、図31(b)の拡大画像例からも明らかなように、前々回及び前回の中心位置に基づいて今回の顔部位探査領域を設定した結果、今回の顔部位探査領域内に眼の位置が納まっている。このように、本例では過去の画像フレームにおける追跡対象の移動量に基づいて顔部位探査領域を設定することで、被検出者の顔の動きに応じて適切処理を行うことができる。
【0176】
なお、本例においては、前回、前々回の追跡対称の位置から求まる移動量に応じて顔部位探査領域の中心位置を決定しているが、これに限らない。すなわち、前々回以前に特定された追跡対象の位置から移動量を求め、これに基づき、中心位置を決定するようにしてもよい。また、顔部位探査領域の中心位置を、まず、前回特定された追跡対象の位置とし、この位置にて追跡対象が特定されず不検出カウンタが「1」となった場合に、本例を用いるようにしてもよい。
【0177】
次に中心位置の設定の他の例について説明する。図32は、顔部位探査領域の中心位置を設定する場合の他の例を示す説明図である。図33は、眼の位置及び顔部位探査領域の中心位置を含む画像の他の例を示す説明図であり、(a)は全体画像を示し、(b)は拡大画像を示している。
【0178】
図30及び図31を参照して説明した例は、中心位置のX軸方向での差分値及びY軸方向での差分値が大きい場合に有効な手段となる。本例では、X軸方向での差分値及びY軸方向での差分値が小さい場合に有効な手段となる。
【0179】
図32及び図33に示すように、X軸方向での差分値及びY軸方向での差分値が大きくない場合には、これらの図に示すように、被検出者の顔の動きに応じて顔部位探査領域を設定しなくともよい。なぜなら、被検出者の顔の動きに応じて設定しなくとも追跡対象が顔部位探査領域内に含まれるからである。
【0180】
そこで、本例では、X軸方向での差分値及びY軸方向での差分値が小さい場合、前回の処理において検出又は判定された追跡対象の顔部位の代表座標値Cを中心位置としている。
【0181】
このように、X軸方向での差分値及びY軸方向での差分値を考慮しつつも移動量が所定の閾値を超えない場合、通常通り、前回の処理における代表座標値Cを中心位置とする。これにより、図30及び図31に示した例に比して、詳細な計算等を不要とし迅速な処理を行うことができる。
【0182】
次に、画像例を参照しつつ本実施形態に係る顔部位追跡装置1の動作を再度説明する。なお、以下の説明においては、便宜上代表座標値Cを代表座標点Cと称する。図34は、被検出者が一方向を視認しているときの画像例を示す図である。同図に示すように、本画像例では、連続データG4の代表座標点C4が優先顔部位探査領域内に納まっている。このため代表座標点C4が顔部位として判定される。すなわち、図15のステップST63において、「YES」と判断される。
【0183】
図35は、被検出者が顔の向きを変えたときの画像例を示す図であり、(a)は全体画像例を示しており、(b)は拡大画像例を示している。図35(a)に示すように、連続データG4の代表座標点C4は、優先顔部位探査領域に無く顔部位探査領域内にある。このため、図15のステップST63において、「NO」と判断される。そして、代表座標点C4を中心にして設定した存在領域EAが微小画像IG(図35(b))として画像メモリに保存される。その後、ステップST70以下の追跡対象判定処理を順次行っていくこととなる。
【0184】
次に、被検出者が眼鏡を着用している場合の本装置1の動作を説明する。図36は、被検出者が眼鏡を着用している場合の画像例を示す図であり、図37は、被検出者が眼鏡を着用している場合に得られる複数の微小画像例を示す図である。
【0185】
被検出者が眼鏡を着用している場合には、図36に示すように、顔部位探査領域内から複数の候補点が抽出されることがある。図36によると、連続データG2の代表座標点C2、連続データG3の代表座標点C3、連続データG4の代表座標点C4がいずれもが優先顔部位探査領域ではない顔部位探査領域内にある。
【0186】
このため、図37に示すように、代表座標点C2,C3,C4を中心にした存在領域EA1,EA2,EA3である微小画像IG1,IG2,IG3をそれぞれ画像メモリに保存し、ステップST70以下の追跡対象判定処理を順次行っていく。
【0187】
なお、この例において、1つ目の微小画像IGA1を判定した場合、追跡対象となる顔部位でないと判定されて、図20のステップST76の処理において、他の追跡対象候補があると判断される。そして、2つ目の微小画像IGA2が判定の対象とされ、追跡対象となる顔部位が特定されることとなる。
【0188】
また、本実施形態では、顔部位探査領域を囲む領域を連続データ抽出領域として設定し、その領域内だけで連続データを抽出するようにしてもよい。図38は、顔部位探査領域を囲む領域を連続データ抽出領域として設定したときの一例を示す図である。また、図39は、連続データ抽出領域を設定したときに抽出される連続データの一例を示す図である。図38及び図39に示すように、顔部位探査領域を囲む連続データ抽出領域を設定し、この範囲内から候補を抽出するようにしても処理は可能である。なお、この例の場合、連続データG1の代表座標点C1が優先顔部位探査領域内にあるので、代表座標点C1を顔部位として判定することとなる。
【0189】
このようにして、本実施形態における顔部位追跡装置1は、顔部位探査領域を設定している。この顔部位探査領域は、検出された追跡対象の画像上の位置に基づくものであり且つ被検出者が顔の向きを変えたときにサンプリング時間中に移動する追跡対象の移動量に基づいているため、追跡対象となる顔部位が存在する可能性の高い領域であるといえる。そして、本装置1はこの領域から追跡対象の候補を抽出するようにしている。このため、追跡対象の検出後の撮像画像については、画像全体から追跡対象の候補を抽出することなく、追跡対象が存在する可能性の高い領域から候補を抽出することができ、精度良く且つ迅速な処理を行うことができる。
【0190】
また、顔部位探査領域内に優先顔部位探査領域を設定している。この優先顔部位探査領域は、顔部位探査領域内に設定されるものであるため、追跡対象となる顔部位が存在する可能性が一層高い領域といえる。そして、追跡対象の候補が優先顔部位探査領域内にある場合には、その候補は追跡対象の顔部位である可能性が一層高いものであるため、顔部位判定手段CL34は、この候補を追跡対象の顔部位と判定する。
【0191】
一方、抽出された候補が顔部位探査領域内であって優先顔部位探査領域外にある場合、その候補は、追跡対象の顔部位である可能性が高いものの、優先顔部位探査領域内にある場合に比べ、追跡対象の顔部位である可能性が低い。このため、顔部位判定手段CL34は、その候補の画像を画像処理して候補が追跡対象となる顔部位か否かを判定している。すなわち、顔部位探査領域内の候補は、追跡したい顔部位でない可能性が少なからずあり、追跡したい顔部位でない場合に、顔部位判定手段CL34は、誤って追跡してしまうことを防止すべく、追跡対象となる顔部位であるか否かの判定している。これにより、誤った追跡をしてしまうことを防止している。
【0192】
以上から本発明では、追跡対象となる顔部位を判定するのに際し、精度及び処理速度の向上を図ることができる。
【0193】
また、被検出者が一方向を視認しているときに、サンプリング時間中に移動する追跡対象の顔部位の移動量に基づいて、優先顔部位探査領域を設定している。このため、追跡対処となる顔部位が位置する可能性が高い領域について、優先顔部位探査領域が設定することができる。
【0194】
また、顔部位判定手段CL34により追跡対象の顔部位が特定された後には、この特定された位置に基づいて顔部位探査領域及び優先顔部位探査領域を設定している。このため、一度、顔部位検出手段CL2により顔部位を検出した後には、画像全体に対して顔部位の検出処理を行うことが少なくなり、迅速な処理を継続して行うことができる。
【0195】
また、過去の画像フレームにおいて追跡対象の顔部位が判定されたときの位置を中心位置として、顔部位探査領域を設定する。このため、例えば、過去の画像上における追跡対象位置に基づいて、追跡対象が存在する可能性が高い箇所に、顔部位探査領域を設定することができる。
【0196】
また、過去の画像フレームにおける追跡対象の移動量に基づいて補正した位置を中心として、顔部位探査領域を設定している。このため、例えば、過去の画像上において追跡対象の位置がX軸方向及びY軸方向に大きく移動している場合などには、過去のデータに基づき今回の処理時に追跡対象が存在する可能性が高い箇所に、顔部位探査領域を設定することができる。
【0197】
また、顔部位判定手段CL34により追跡対象の顔部位が特定できなかった場合、顔部位探査領域の範囲を広くすることとしたので、追跡対象を見失ったとしても、すぐに追跡処理に復帰することができる。
【0198】
また、顔部位判定手段CL34により追跡対象の顔部位が特定できなかった場合、優先顔部位探査領域の範囲を狭くするもしくは優先顔部位探査領域を設定しないこととしている。このため、偶然に優先顔部位探査領域内に追跡対象と近似した特徴量の追跡対象候補があったとしても、誤って追跡対象と判断することを防止又は軽減でき、好適に追跡処理に復帰することができる。
【0199】
また、候補の位置を特定するための候補点を定めいるので、候補の一部が優先顔部位探査領域内であって、一部が優先顔部位探査領域外にあるという事態を無くすことができ、高精度に処理を行うことができる。
【0200】
また、画像縦方向について濃度値の局所的な高まり毎に1個ずつの画素を定めて抽出点とし、抽出点が画像横方向に隣接する場合に、横方向に延びる抽出点群の連続データを形成し、形成された連続データの代表座標値を顔部位の候補点とする。このため、得られる連続データが、追跡対象となる顔部位の特徴を有しているか否かなどの判断が行えるようになり、例えば、追跡対象となる顔部位の特徴を有するものだけを、選択することが可能となる。従って、本装置1の精度の向上を図ることができる。
【0201】
また、顔部位の候補を含んで、微小画像を抽出し、微小画像に基づいて、顔部位の追跡対象を判定する。すなわち、顔部位探査領域又は優先顔部位探査領域内から、画像を一部抽出して処理を行うので、処理負荷を軽減することができる。
【0202】
また、微小画像を抽出し、濃度、空間周波数、幾何形状のいずれかに基づいて、追跡対象の顔部位か否かを判定するので、処理負荷を軽減することができる上に、正確な判定を行うことができる。
【0203】
また、顔部位判定手段CL34により追跡対象の顔部位が特定できなかった場合、再度、顔部位検出手段CL2により追跡対象の検出処理を行うため、追跡対象を見失っても追跡処理に復帰することができる。
【0204】
なお、本実施形態は上記の構成に限られず、本発明の趣旨を逸脱しない範囲において変更等が可能である。例えば、顔部位判定手段CL34内に、それぞれ異なる判定精度とされた複数の顔部位判定部を有する構成としてもよい。すなわち、通常、判定等を行う手段は、判定精度が低くなると処理速度が速くなる傾向にある。これを利用して、本実施形態において追跡対象の顔部位か否かを判定する際に、判定精度が低く処理速度が速いものから順に判定処理を実行するようにしてもよい。これにより、処理速度を高めると共に、判定精度の低下を防ぐことができる。
【0205】
また、本実施形態における顔部位候補抽出手段CL33は、上記構成に限らず、例えば以下のような構成であってもよい。すなわち、顔部位候補抽出手段CL33は、画像横方向に延びる抽出点群である連続データGを形成できなかった場合、候補抽出を行っている現在の画像フレーム以前の画像フレームにおける候補点を、現在の候補点とするようにしてもよい。また、顔部位候補抽出手段CL33は、画像横方向に延びる抽出点群である連続データGを形成できなかった場合に、候補抽出を行っている現在の画像フレーム以前の画像フレームにおける追跡対象の移動量に基づいて、現在の候補点を決定するようにしてもよい。
【0206】
このように顔部位候補抽出手段CL33を構成した場合、連続データGを形成できなかったときに、再度候補点を抽出する処理を実行しなくとも、候補点が定められるので、演算負荷を軽減することができる。また、画像横方向に延びる適切な連続データGが形成されていないために、不適切な連続データGに基づいて候補点を定めてしまうという事態を防止することができる。故に、追跡精度の向上を図ることができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る顔部位追跡装置の構成を示す機能ブロック図である。
【図2】本発明の実施形態に係る顔部位追跡装置の示すハード構成図である。
【図3】本実施形態に係る顔部位追跡装置1の動作の概略を示すメインフローチャートである。
【図4】図3に示した追跡対象検出処理(ST17)の詳細な動作を示すフローチャートである。
【図5】図4に示した追跡対象候補位置特定処理(ST20)の詳細を示すフローチャートである。
【図6】図5に示したステップST36の処理にて形成される連続データ、並びにステップST37の処理にて定められる代表座標値C及び存在領域EAを示す説明図である。
【図7】図6に示した存在領域EAの大きさを示す説明図である。
【図8】数人の眼の大きさを調べた横Xaの長さの統計データを示す説明図である。
【図9】数人の眼の大きさを調べた縦Yaの長さの統計データを示す説明図である。
【図10】存在領域EAの画像上の位置を決定する方法を示す説明図である。
【図11】図4に示した追跡対象判定処理(ST21)の詳細を示すフローチャートである。
【図12】微小画像を示す説明図である。
【図13】範囲ARでの二値化閾値の算出方法の説明図である。
【図14】候補オブジェクトと追跡対象である眼のテンプレートとの幾何形状の比較方法の説明図であり、(a)は候補オブジェクトが最適な状態で撮像された場合を示し、(b)は眼の右側が欠けた状態を示し、(c)は眼の左側が欠けた状態を示している。
【図15】図3に示した追跡処理(ST19)の詳細を示すフローチャートである。
【図16】図15に示した顔部位探査領域の設定処理(ST60)の説明図であり、(a)は時刻t0において撮像された画像を示し、(b)は時刻t1において撮像された画像を示し、(c)は時刻t2において撮像された画像を示し、(d)は時刻t3において撮像された画像を示し、(e)はこれらの画像上の左眼位置を一画像上で表した場合を示している。
【図17】図15に示した優先顔部位探査領域の設定処理(ST61)の説明図であり、(a)は時刻t10において撮像された画像を示し、(b)は時刻t11において撮像された画像を示し、(c)は時刻t12において撮像された画像を示し、(d)は時刻t13において撮像された画像を示し、(e)はこれらの画像上の左眼位置を一画像上で表した場合を示している。
【図18】一方向を視認している場合と顔の向きを変えた場合との左眼位置の分布を示す説明図である。
【図19】図18に示した分布から求まる左眼位置の移動量の解析結果を示す説明図である。
【図20】顔部位の候補が優先顔部位探査領域内に無いと判断された場合に実行される処理を示すフローチャートである。
【図21】図20に示した濃度による追跡対象判定処理(ST70)の詳細を示すフローチャートである。
【図22】図20に示した周波数画像による追跡対象判定処理(ST72)の詳細を示すフローチャートである。
【図23】図22に示した周波数画像生成処理(ステップST101)の説明図であり、(a)は微小画像IGを示しており、(b)は周波数画像を示している。
【図24】図20に示した候補オブジェクトの幾何形状による追跡対象判定処理(ST74)の詳細を示すフローチャートである。
【図25】顔部位探査領域の設定処理(ST60)の詳細を示すフローチャートである。
【図26】優先顔部位探査領域の設定処理(ST61)の詳細を示すフローチャートである。
【図27】顔部位探査領域及び優先顔部位探査領域の説明図である。
【図28】顔部位探査領域の大きさを可変とする場合の一例を示す説明図である。
【図29】顔部位探査領域の大きさを可変とする場合の他の例を示す説明図である。
【図30】顔部位探査領域の中心位置を設定する場合の一例を示す説明図である。
【図31】眼の位置及び顔部位探査領域の中心位置を含む画像例を示す説明図であり、(a)は全体画像を示し、(b)は拡大画像を示している。
【図32】顔部位探査領域の中心位置を設定する場合の他の例を示す説明図である。
【図33】眼の位置及び顔部位探査領域の中心位置を含む画像の他の例を示す説明図であり、(a)は全体画像を示し、(b)は拡大画像を示している。
【図34】被検出者が一方向を視認しているときの画像例を示す図である。
【図35】被検出者が顔の向きを変えたときの画像例を示す図であり、(a)は全体画像例を示しており、(b)は拡大画像例を示している。
【図36】被検出者が眼鏡を着用している場合の画像例を示す図である。
【図37】被検出者が眼鏡を着用している場合に得られる複数の微小画像例を示す図である。
【図38】顔部位探査領域を囲む領域を連続データ抽出領域として設定したときの一例を示す図である。
【図39】連続データ抽出領域を設定したときに抽出される連続データの一例を示す図である。
【符号の説明】
1…顔部位追跡装置
CL1…顔画像撮像手段
CL2…顔部位検出手段
CL31…顔部位探査領域設定手段
CL32…優先顔部位探査領域設定手段
CL33…顔部位候補抽出手段(候補抽出手段)
CL34…顔部位判定手段(第1顔部位判定手段、第2顔部位判定手段)
G…連続データ
IG…微少画像
IFG,BIFG…周波数画像

Claims (16)

  1. 被検出者の顔を撮像し入力した画像に基づいて、顔部位の動きを追跡する顔部位追跡装置において、
    入力した撮像画像の全体から、追跡の対象となる顔部位を検出する顔部位検出手段と、
    検出後に入力した画像に対し、前記顔部位検出手段により検出された追跡対象の画像上における位置に基づいて、画像全体よりも狭くされた顔部位探査領域を設定する顔部位探査領域設定手段と、
    前記顔部位探査領域設定手段により設定された顔部位探査領域内に、優先顔部位探査領域を設定する優先顔部位探査領域設定手段と、
    前記顔部位探査領域内から、追跡対象となる顔部位の候補を抽出する候補抽出手段と、
    前記候補抽出手段により抽出された候補が前記優先顔部位探査領域内にあるときに、その候補を追跡対象であると判定する第1顔部位判定手段と、
    抽出された候補が前記優先顔部位探査領域内に無く前記顔部位探査領域内にあるときには、その候補の画像を画像処理することにより、抽出された候補が追跡対象であるか否かを判定する第2顔部位判定手段と、を備え、
    前記顔部位探査領域設定手段は、被検出者が顔の向きを変えたときに、サンプリング時間中に移動する追跡対象の移動量に基づいて、前記顔部位探査領域を設定することを特徴とする顔部位追跡装置。
  2. 前記優先顔部位探査領域設定手段は、被検出者が一方向を視認しているときに、サンプリング時間中に移動する追跡対象の移動量に基づいて、前記優先顔部位探査領域を設定することを特徴とする請求項1に記載の顔部位追跡装置。
  3. 前記顔部位探査領域設定手段は、前記第1又は第2顔部位判定手段による判定結果により追跡対象が特定された後には、特定された追跡対象の画像上における位置に基づいて、前記顔部位探査領域を設定することを特徴とする請求項1又は請求項2のいずれかに記載の顔部位追跡装置。
  4. 前記顔部位探査領域設定手段は、現在の画像フレーム以前の画像フレームにおいて追跡対象が特定されたときの位置を中心位置として、前記顔部位探査領域を設定することを特徴とする請求項3に記載の顔部位追跡装置。
  5. 前記顔部位探査領域設定手段は、前記中心位置を、現在の画像フレーム以前の画像フレームにおいて追跡対象が移動した画像上の移動量により補正して、前記顔部位探査領域を設定することを特徴とする請求項4に記載の顔部位追跡装置。
  6. 前記顔部位探査領域設定手段は、前記第1又は第2顔部位判定手段による判定結果により追跡対象が特定されなかった場合、前記顔部位探査領域を広くすることを特徴とする請求項1〜請求項5のいずれか1項に記載の顔部位追跡装置。
  7. 前記優先顔部位探査領域設定手段は、前記第1又は第2顔部位判定手段による判定結果により追跡対象が特定されなかった場合、前記優先顔部位探査領域を狭くするか又は設定しないことを特徴とする請求項1〜請求項6のいずれか1項に記載の顔部位追跡装置。
  8. 前記候補抽出手段は、追跡対象の候補を抽出する際に、候補位置を特定するための候補点を定め、
    前記第1顔部位判定手段は、前記候補抽出手段により定められた候補点が前記優先顔部位探査領域内にあるときに、その候補点を有する候補を追跡対象であると判定し、
    前記第2顔部位判定手段は、前記候補抽出手段により定められた候補点が前記優先顔部位探査領域内に無く前記顔部位探査領域内にあるときに、その候補点を有する候補を含む画像を画像処理することにより、その候補が追跡対象であるか否かを判定する
    ことを特徴とする請求項1〜請求項7のいずれか1項に記載の顔部位追跡装置。
  9. 前記候補抽出手段は、
    撮像画像の縦方向の画素列に沿って画素の濃度値を検出し、
    検出された濃度値の局所的な高まり毎に1個ずつの画素を定めて抽出点とし、
    縦方向の画素列ごとに定められた抽出点が、画像横方向に隣接する場合に、横方向に延びる抽出点群の連続データを形成し、
    形成された連続データの代表座標値を、追跡対象候補の候補点とする
    ことを特徴とする請求項1〜請求項8に記載の顔部位追跡装置。
  10. 前記第2顔部位判定手段は、
    前記候補抽出手段により抽出された追跡対象の候補を含んで、微小画像を抽出し、
    抽出された候補が前記優先顔部位探査領域内に無く前記顔部位探査領域内にあるときには、抽出された微小画像を画像処理することにより、抽出された候補が追跡対象であるか否かを判定する
    ことを特徴とする請求項1〜請求項9のいずれか1項に記載の顔部位追跡装置。
  11. 前記第2顔部位判定手段は、
    現在の画像フレームから抽出された追跡対象の候補を含む第1微小画像の濃度データと、現在の画像フレーム以前の画像フレームにおいて特定された追跡対象を含む第2微小画像の濃度データとから、双方の微小画像の類似度を算出し、
    算出された類似度パラメータに基づいて、抽出された候補が追跡対象であるか否かを判定する
    ことを特徴とする請求項10に記載の顔部位追跡装置。
  12. 前記第2顔部位判定手段は、
    現在の画像フレームから抽出された追跡対象の候補を含む第1微小画像と、現在の画像フレーム以前の画像フレームにおいて特定された追跡対象を含む第2微小画像とを周波数処理して第1及び第2周波数画像を求め、
    周波数処理した第1及び第2周波数画像の濃度データから双方の周波数画像の類似度を算出し、
    算出された類似度パラメータに基づいて、抽出された候補が追跡対象であるか否かを判定する
    ことを特徴とする請求項10に記載の顔部位追跡装置。
  13. 前記第2顔部位判定手段は、
    現在の画像フレームから追跡対象の候補を含む微小画像を抽出し、
    この微小画像からの追跡対象の候補の幾何形状を求め、
    求められた候補の幾何形状と、予め記憶された幾何形状とのマッチング度合いに基づいて、その候補が追跡対象であるか否かを判定する
    ことを特徴とする請求項10に記載の顔部位追跡装置。
  14. 前記第2顔部位判定手段は、
    それぞれ異なる判定精度とされた複数の顔部位判定部を有し、
    前記複数の顔部位判定部は、判定精度が低いものから順に処理速度が速くなっており、追跡対象であるか否かを判定する際には、判定精度が低く処理速度が速いものから順に判定処理を実行していく
    ことを特徴とする請求項1〜請求項13のいずれか1項に記載の顔部位追跡装置。
  15. 前記第1又は第2顔部位判定手段による判定結果により追跡対象が最終的に特定されなかった場合、再度、前記顔部位検出手段により追跡対象となる顔部位の検出を行うことを特徴とする請求項1〜請求項14のいずれか1項に記載の顔部位追跡装置。
  16. 被検出者の顔を撮像し入力した画像に基づいて、顔部位の動きを追跡する顔部位追跡装置において、
    入力した撮像画像の全体から、追跡の対象となる顔部位を検出し、
    検出された追跡対象の画像上における位置に基づき且つ画像全体よりも狭い顔部位探査領域と、当該顔部位探査領域内の優先顔部位探査領域とを、検出後に入力した画像に対し設定し、
    前記顔部位探査領域内から追跡対象となる顔部位の候補を抽出して、抽出された候補が前記優先顔部位探査領域内にあるときに、その候補を追跡対象であると判定し、抽出された候補が前記優先顔部位探査領域内に無く前記顔部位探査領域内にあるときには、その候補の画像を画像処理することにより、抽出された候補が追跡対象であるか否かを判定する
    ことを特徴とする顔部位追跡装置。
JP2003047918A 2003-02-25 2003-02-25 顔部位追跡装置 Expired - Fee Related JP4107104B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003047918A JP4107104B2 (ja) 2003-02-25 2003-02-25 顔部位追跡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003047918A JP4107104B2 (ja) 2003-02-25 2003-02-25 顔部位追跡装置

Publications (2)

Publication Number Publication Date
JP2004258907A JP2004258907A (ja) 2004-09-16
JP4107104B2 true JP4107104B2 (ja) 2008-06-25

Family

ID=33114035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003047918A Expired - Fee Related JP4107104B2 (ja) 2003-02-25 2003-02-25 顔部位追跡装置

Country Status (1)

Country Link
JP (1) JP4107104B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4838261B2 (ja) * 2004-11-18 2011-12-14 ジェンテックス コーポレイション 車両機器制御用の画像収集及び処理システム
JP4884251B2 (ja) * 2007-02-09 2012-02-29 富士フイルム株式会社 撮影装置および方法並びにプログラム
JP2010021943A (ja) 2008-07-14 2010-01-28 Sanyo Electric Co Ltd 撮像装置
JP2012068885A (ja) * 2010-09-23 2012-04-05 Denso Corp 視覚センシング方法および視覚センシング装置

Also Published As

Publication number Publication date
JP2004258907A (ja) 2004-09-16

Similar Documents

Publication Publication Date Title
JP3768735B2 (ja) 顔画像処理装置
US8435188B2 (en) Eye opening detection system and method of detecting eye opening
KR101490016B1 (ko) 인물 화상 처리 장치 및 인물 화상 처리 방법
CN101027678B (zh) 基于单个图像的多生物统计系统及方法
JP5675229B2 (ja) 画像処理装置及び画像処理方法
JP6234762B2 (ja) 眼部検出装置、方法、およびプログラム
KR100296215B1 (ko) 눈화상추적장치
EP3483832B1 (en) Image processing device
JP4912206B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
JP6739459B2 (ja) 人物照合装置
JP4506250B2 (ja) 上瞼検出装置
JP4529635B2 (ja) 開閉眼判定装置
CN108710841A (zh) 一种基于MEMs红外阵列传感器的人脸活体检测装置及方法
CN114299050A (zh) 一种基于改进Alphapose的红外图像摔倒检测方法
JP2009205283A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP4107104B2 (ja) 顔部位追跡装置
JP4042602B2 (ja) 画像処理装置
JP4725096B2 (ja) 覚醒度判断装置
JP2005013626A (ja) 覚醒状態検出装置
JPH10143669A (ja) 居眠り状態検出装置
JP2004341953A (ja) 顔部位追跡装置
JP2000067225A (ja) 眼位置検出装置
JP4710679B2 (ja) 開閉眼判定方法及びその装置
JP3801075B2 (ja) 画像拡大装置
JP2007026103A (ja) 顔部位判定装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080324

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110411

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees