JP2003015816A - ステレオカメラを使用した顔・視線認識装置 - Google Patents

ステレオカメラを使用した顔・視線認識装置

Info

Publication number
JP2003015816A
JP2003015816A JP2001197915A JP2001197915A JP2003015816A JP 2003015816 A JP2003015816 A JP 2003015816A JP 2001197915 A JP2001197915 A JP 2001197915A JP 2001197915 A JP2001197915 A JP 2001197915A JP 2003015816 A JP2003015816 A JP 2003015816A
Authority
JP
Japan
Prior art keywords
face
image
eyes
feature point
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001197915A
Other languages
English (en)
Other versions
JP4898026B2 (ja
Inventor
Yoshihisa Matsumoto
吉央 松本
Ryoji Igarashi
亮治 五十嵐
Tsukasa Ogasawara
司 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001197915A priority Critical patent/JP4898026B2/ja
Publication of JP2003015816A publication Critical patent/JP2003015816A/ja
Application granted granted Critical
Publication of JP4898026B2 publication Critical patent/JP4898026B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 リアルタイムでの顔向き・視線方向の追従に
おいて、高速な画像処理を実現するために無駄な演算時
間を発生させるエラーを可能な限り低減することを目的
とする。 【解決手段】 本発明の顔・視線認識装置は、ユーザの
顔を撮影する複数のカメラと、前記カメラの画像出力か
ら顔の向きを検出する検出手段と、前記カメラの画像出
力に撮影されている目周辺の画像領域から前記ユーザの
目が開いているかどうかを検出する手段と、前記ユーザ
の目が開いていることに応答して、前記カメラの画像出
力から前記ユーザの視線方向を検出する手段と、を備え
るよう構成される。この発明によると、ユーザの視線方
向を検出する前にユーザの目の開閉を検出することがで
きるので、視線方向の検出におけるエラーを回避するこ
とができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ヒューマン・イン
ターフェース一般に関連し、より具体的には、画像認識
を利用して人間の顔向きと視線方向を認識する技術に関
する。
【0002】
【従来の技術】人間の視線の動きは、人間の意図するも
のや注意するものに深い関係があり、この視線の動きを
キーボードやマウスなどの入力デバイスの代わりに利用
する研究が進められている。この様な次世代ヒューマン
・インターフェースは、カメラによって人間の行動を撮
影し、人間の意図や注意を認識する高度なインターフェ
ースとして構築される。
【0003】視線認識によるインターフェースでは、視
線の動きが顔の動きに追従して動く場合が多いので、視
線の動きを検出するのと同時に顔の向きを検出すること
が好ましい。この様な顔向きと視線方向を同時に検出す
る顔・視線認識装置は、松本ほかによる「顔・視線計測
システムの開発と動作認識への応用」(第5回ロボティ
クス・シンポジア、2000/3/26、27)の論文
に示されている。
【0004】
【発明が解決しようとする課題】松本ほかにより提案さ
れた顔・視線認識装置では、ステレオカメラにより撮影
された画像フレームから人間の顔の向きを3次元的に検
出し、その後で顔の向きに基づいて視線方向を検出して
いる。視線方向を検出した後では、新たに撮影された画
像フレームを使用して、同様の顔向き検出と視線方向検
出が繰り返される。この顔向きと視線方向の検出は、ビ
デオカメラによる画像フレームの撮影速度に応じた速度
で繰り返されて、顔向きと視線方向のリアルタイムでの
追従が可能とされる。
【0005】この様なリアルタイムでの顔向き・視線方
向の追従が高速な画像処理を必要とするので、無駄な演
算時間が発生した場合、顔・視線認識装置は顔向き・視
線方向をリアルタイムで追従することができなくなる。
したがって、顔・視線認識装置では、誤認識を減少さ
せ、精度を向上させることが望ましい。
【0006】本発明は、リアルタイムでの顔向き・視線
方向の追従において、高速な画像処理を実現するため
に、無駄な演算時間を発生させるエラーを可能な限り低
減することを目的とする。
【0007】
【課題を解決するための手段】上記課題を解決するため
に、本発明の顔・視線認識装置は、ユーザの顔を撮影す
る複数のカメラと、前記カメラの画像出力から顔の向き
を検出する検出手段と、前記カメラの画像出力に撮影さ
れている目周辺の画像領域から前記ユーザの目が開いて
いるかどうかを検出する手段と、前記ユーザの目が開い
ていることに応答して、前記カメラの画像出力から前記
ユーザの視線方向を検出する手段と、を備えるよう構成
される。
【0008】この発明によると、ユーザの視線方向を検
出する前にユーザの目の開閉を検出するので、視線方向
の検出におけるエラーを回避することができる。
【0009】この発明の1つの形態によれば、前記目が
開いているかどうかを検出する手段は、前記目周辺の画
像領域に含まれる水平方向エッジを検出し、該画像領域
に含まれている水平方向エッジの割合に応じて、目が開
いているかどうかを検出するよう構成される。
【0010】この形態によると、目が開いている場合に
は目周辺の画像領域に縦や斜めのエッジが多く含まれて
いるが、目が閉じている場合には水平方向のエッジが比
較的多く含まれているので、水平方向のエッジを検出
し、その割合を調べることにより、目が開いているかど
うかを検出することができる。
【0011】この発明の1つの形態によれば、前記顔向
き検出手段は、特徴的な顔の部分に相当する1つまたは
複数の特徴点のそれぞれについて用意された複数のテン
プレートから、顔向きに応じて各特徴点のために1つの
テンプレートを選択する手段と、前記選択されたテンプ
レートをそれぞれ使用して、前記画像出力から前記特徴
点に対応する1つまたは複数の画像領域を抽出する手段
と、を備え、前記抽出された1つまたは複数の画像領域
に基づいて、前記ユーザの顔向きを検出するよう構成さ
れる。
【0012】この形態によると、各特徴点のために複数
のテンプレートの中から顔向きに応じて最適なテンプレ
ートを選択し、その選択されたテンプレートを使用して
テンプレート・マッチングを実行するので、テンプレー
ト・マッチングでのエラーを低減することができる。
【0013】この発明の1つの形態によれば、前記テン
プレートの選択手段は、前回の画像出力から検出された
顔向きに基づいて、今回の画像出力のために前記複数の
テンプレートから1つのテンプレートを選択するよう構
成される。
【0014】この形態によると、前回の画像出力と今回
の画像出力が連続的な画像フレームであり、前回の画像
における顔向きと今回の画像における顔向きとが比較的
相関が高いので、今回の画像における顔向きに比較的近
い顔向きに対応したテンプレートを複数のテンプレート
から選択することができる。
【0015】この発明の1つの形態によれば、前記顔・
視線認識装置において、前記画像領域抽出手段は、前回
の画像出力から検出された顔向きに基づいて今回の画像
出力に撮影されていない特徴点を判断し、撮影されてい
ない特徴点に対応する画像領域の抽出を処理しないよう
構成される。
【0016】この発明の1つの形態によれば、今回の画
像出力に撮影されていない特徴点に関するテンプレート
・マッチングを回避することができるので、顔・視線認
識装置のエラーを回避することができる。
【0017】この発明の1つの形態によれば、前記顔・
視線認識装置の前記カメラの画像出力は、近赤外画像で
あり、前記視線方向の検出手段は、目周辺の画像の明暗
から瞳孔の位置を検出し、検出された瞳孔の中心位置と
眼球の中心位置から視線方向を検出するよう構成され
る。
【0018】この形態によると、近赤外画像に撮影され
ている瞳孔が虹彩との反射率の違いにより比較的暗く撮
影されるので、目周辺の画像から最も暗い部分を検出す
ることにより瞳孔が撮影されている領域を検出すること
ができる。
【0019】
【発明の実施の形態】次に本発明の実施例を図面を参照
して説明する。図1は、顔・視線認識装置におけるハー
ドウェア構成の1つの実施形態を示す。この実施形態で
は、顔・視線認識装置はコンピュータで構成されるが、
必ずしもこの様なハードウェア構成に限定されない。
【0020】図1の実施形態の顔・視線認識装置は、2
個のビデオカメラ(右カメラ11および左カメラ1
3)、2個のカメラ・コントロール・ユニット(15、
17)、画像処理ボード19、IR投光機14、パーソ
ナル・コンピュータ21、モニタ・ディスプレイ23、
キーボード25、およびマウス27を含む。
【0021】2個のビデオカメラは、撮影対象の人の前
方左右に設置され、撮影対象の顔をステレオ視して撮影
する。各ビデオカメラ(11、13)は、カメラ・コン
トロール・ユニット(15、17)を介してそれぞれ制
御される。各カメラ・コントロール・ユニットは、外部
同期信号線を介して相互接続されており、この同期信号
によって左右のビデオカメラの同期がとられ、左右の位
置で同じ時刻に撮影された2つの画像フレームが得られ
る。顔・視線認識装置は、左右の位置で同じ時刻に撮影
された2つの画像フレームを入力画像として使用し、ス
テレオ法を用いて3次元的な物体認識を処理することが
できる。
【0022】赤外線投光機14は、近赤外光を顔に照射
するよう被写体の前面に設置され、車内の照明変動によ
る画像の劣化を低減する。このため、ビデオカメラは、
近赤外透過フィルタ29などにより近赤外光以外の波長
を遮断された状態で被写体を撮影する。
【0023】近赤外光を照明として使用する第1の理由
は、照明変動に対する画像のロバスト性を向上させるこ
とにある。一般に撮影対象の周囲の明るさは、屋内外、
または日中や夜間などの環境変化によって大きく変動す
る。また、強い可視光が1方向から顔にあたる場合に
は、顔面上に陰影のグラデーションが発生する。この様
な照明の変動や陰影のグラデーションは、画像認識の精
度を著しく悪化させる。
【0024】この実施例では、正面から赤外線投光機1
4により近赤外光を照射して画像を撮影することによっ
て、周囲からの可視光による顔面上の陰影のグラデーシ
ョンを低減する。この様な近赤外画像は、可視光を使用
して得られる画像と比較して照明変化による影響を受け
にくく、画像認識の精度を向上させることができる。
【0025】近赤外光を使用する第2の理由は、目の瞳
孔を明瞭に抽出することが可能な点にある。瞳の位置が
視線方向を検出するために使用されるので、瞳を明瞭に
撮影することは重要である。
【0026】画像処理ボード47は、ビデオカメラで撮
影された画像を様々に処理する。例えば、各ビデオカメ
ラで撮影された画像がNTSC方式のビデオ信号として
送られてくる場合、画像処理ボード47は、それらの画
像を適当なフォーマットのクラスタ画像に変換し、内部
のバッファメモリに記憶する。さらに、画像処理ボード
47は、画像処理アルゴリズムを実行するハードウェア
回路を備えており、画像処理を高速に実行することがで
きる。例えば、ハードウェア回路による画像処理アルゴ
リズムには、斜方投影機構、ハフ変換、2値画像マッチ
ングフィルタ、アフィン変換(画像の回転、拡大、縮
小)などの処理が含まれる。
【0027】画像処理ボード19は、任意のインターフ
ェース(例えばPCIバス、シリアルバス、IEEE1
394など)を介してパーソナル・コンピュータ21に
接続され、パーソナル・コンピュータ21上のプログラ
ムに応じて制御される。パーソナル・コンピュータ21
は、モニタ・ディスプレイ23、キーボード25、マウ
ス27などのユーザ・インターフェースなどを備え、
「Linux」として知られるOSを使用して動作す
る。
【0028】図2は、図1に示すハードウェアによって
実施される顔・視線認識装置の機能ブロック図を示す。
図2の参照番号31は撮影対象となる顔を示している。
画像入力部33は、図1で示す左右のビデオカメラ(1
1、13)、カメラ・コントロール・ユニット(15、
17)、画像処理ボード19を総合的に示している。こ
の画像入力部33は、撮影対象の顔31を連続的にステ
レオ撮影し、それらの画像をクラスタ化して図2の画像
処理部35に提供する。
【0029】画像処理部35は、顔探索部37、顔トラ
ッキング部39、まばたき検出部41、視線検出部43
を含み、提供された画像に撮影されている顔から顔向き
と視線方向をリアルタイムで検出する。
【0030】顔探索部37は、画像全体から顔が撮影さ
れている領域を探索し、顔トラッキングの最初の初期化
とエラー回復のために使用される。顔トラッキング部3
9は、顔の特徴点を抽出し、撮影されている顔の向きを
リアルタイムで検出する。まばたき検出部41は、目周
辺の画像を解析し、目が閉じているかどうかを判断す
る。視線検出部43は、瞳孔を検出し、瞳孔の位置と眼
球の位置から視線方向をリアルタイムで検出する。
【0031】図3は、画像処理部35の全体的なフロー
チャートを示す。顔探索部37、顔トラッキング部3
9、まばたき検出部41、視線検出部43は、それぞれ
関連して動作し、連続的に撮影される左右の入力画像か
ら顔向きと視線方向をリアルタイムで検出することがで
きる。
【0032】図3のフローチャートでは、顔探索部37
の処理がステップ101から103で示され、顔トラッ
キング部39の処理がステップ105から113で示さ
れ、まばたき検出部41の処理がステップ115から1
17で示され、視線検出部43の処理がステップ119
から123で示される。以下では、このフローチャート
を参照して画像処理部35の各機能ブロックの処理を説
明する。
【0033】顔探索部37 図3を参照して顔探索部37の処理を説明する。顔探索
部37は、入力された画像から人間の顔が撮影されてい
る画像領域をおおまかに探索する。ここでの処理は、顔
トラッキング部39のための前処理ともいえる。顔探索
部37が、顔トラッキング部39の処理の前に、入力画
像から顔が撮影されている領域をおおまかに探索するこ
とにより、顔トラッキング部39は、入力画像中の顔の
詳細な解析を高速に実行することができる。
【0034】最初に、ステップ101で画像入力部33
から左右のビデオカメラの画像が入力され、入力画像全
体から人間の顔が撮影されている領域がおおまかに探索
される。これは、予め記憶された探索用テンプレート5
1を使用して2次元テンプレート・マッチングで実行さ
れる。
【0035】図4は、探索用テンプレート51の例を示
す。探索用テンプレート59に使用される画像は、正面
を向いた人間の顔を部分的に切り取った画像であり、こ
の画像には目、鼻、口などの人間の顔の特徴的な領域が
1つのテンプレートに含まれている。この探索用テンプ
レート51は、テンプレート・マッチングでの処理速度
を高めるために、予め低解像度化されており、さらに照
明変動の影響を低減するために微分画像にされている。
このテンプレートは、複数のサンプルから作成されて予
め記憶されている。
【0036】ステップ101での探索は、2次元的なテ
ンプレート・マッチングであるので、右ビデオカメラ1
1の画像かまたは左ビデオカメラ13の画像のどちらか
が使用される。以下では、右ビデオカメラ11の画像を
使用したテンプレート・マッチングを例として述べる。
【0037】右ビデオカメラ11の画像を使用したテン
プレート・マッチングの場合、右ビデオカメラ11の画
像から探索用テンプレート51に対応する画像領域が探
索され抽出される。次に、ステップ103において、マ
ッチした右画像内の画像領域をテンプレートにして、同
様のテンプレート・マッチングが左画像に対して実行さ
れ、そのステレオ・マッチングの結果から顔全体の3次
元位置がおおまかに求められる。この様にして得られた
画像情報は、顔トラッキング部39における各特徴点の
探索範囲を設定するために使用される。
【0038】顔トラッキング部39 顔トラッキング部39は、前もって得られた画像情報に
基づいて顔の特徴点を入力画像から抽出し、それらの特
徴点から顔の3次元位置と顔の向きを求める。以下で
は、顔トラッキング部39が入力画像から特徴点を抽出
する方法に関して説明する。
【0039】顔トラッキング部39は、テンプレート・
マッチングにより入力画像から顔の特徴点を探索する。
この探索に使用されるテンプレートは、データベース4
7に予め記憶されている3次元顔特徴点モデル69の画
像を使用する。図5は、3次元顔特徴点モデル69の例
を示す。
【0040】本実施例における3次元顔特徴点モデル6
9は、正面を向いた人間の顔の特徴的な部分を画像から
局所的に切り取った部分的画像(53〜67)から生成
される。例えば、これらの部分的画像は、図5に示すよ
うに、左の眉頭53、右の眉頭55、左の目尻57、左
の目頭59、右の目尻61、右の目頭63、口の左端6
5、口の右端67などのように予め用意された顔画像か
ら局所的に切り取られて生成される。これらの部分的画
像のそれぞれは、その画像内で撮影されている対象物
(この例では、左右の眉頭、左右の目尻と目頭、および
口の両端)の3次元位置を表す3次元座標に関連付けら
れ、データベース47に記憶されている。本明細書で
は、これらの3次元座標を有した顔特徴領域の部分的画
像を顔特徴点と呼び、これらの複数の顔特徴点から生成
される顔モデルを3次元顔特徴点モデル69と呼ぶ。3
次元顔特徴点モデル69は、複数のサンプルから生成さ
れデータベース47に記憶されている。
【0041】顔トラッキング部39は、3次元顔特徴点
モデル69の各部分的画像をテンプレートにしてそれぞ
れ対応する特徴点を入力画像から抽出する。このテンプ
レート・マッチングは、右ビデオカメラの画像と左ビデ
オカメラの画像のどちらを使用しても構わないが、この
実施例では、右ビデオカメラの画像を使用している。こ
のテンプレート・マッチングの結果得られる画像は、撮
影された顔の左右の眉頭、左右の目頭と目尻、口の両端
の計8個の画像である。
【0042】図3のフローチャートを参照してこの抽出
処理を説明すると、最初に、ステップ105で各特徴点
の探索範囲が設定される。この探索範囲の設定は、前も
って得られた画像情報に基づいて行われる。例えば、ス
テップ103の後にステップ105が処理される場合、
入力画像における顔全体の領域が既に分かっているので
(ステップ101で検出されているので)、入力画像に
おいて各特徴点が存在している領域もおおまかに分か
る。ステップ117またはステップ123の後にステッ
プ105が処理される場合には、前回のループで検出さ
れた各特徴点(前回の入力画像における各特徴点)の情
報から、今回の入力画像において各特徴点が存在してい
る領域がおおまかに予測できる。したがって、各特徴点
が存在する可能性が高い画像領域だけを各特徴点の探索
範囲として設定することができ、この各特徴点の探索範
囲の設定により、テンプレート・マッチングを高速に処
理することが可能になる。
【0043】ステップ107で、各特徴点の探索範囲に
基づいて3次元顔特徴点モデル69に対応する画像領域
が右ビデオカメラの画像から探索される。これは、3次
元顔特徴点モデル69の各特徴点の画像をテンプレート
とし、右ビデオカメラ11の画像に対してテンプレート
・マッチングを行うことにより実行される。
【0044】ステップ109では、ステップ107の探
索から得られた各特徴点の画像をテンプレートにして左
ビデオカメラ13の画像に対してステレオ・マッチング
が実行される。これにより、3次元顔特徴点モデル69
の各特徴点に対応する入力画像の各特徴点の3次元座標
が求められる。このステレオ・マッチングの結果、顔の
左右の眉頭、左右の目尻と目頭、口の両端の3次元座標
(観測点)がそれぞれ得られる。
【0045】ステップ111で、3次元顔特徴点モデル
69を使用して3次元モデル・フィッティングが実行さ
れ、顔の向きが検出される。以下ではこの3次元モデル
・フィッティングを説明する。
【0046】先に述べたように、3次元顔特徴点モデル
69は、正面を向いた顔の特徴点から生成されている。
それに対して入力画像で撮影されている顔は、必ずしも
正面を向いているとは限らない。入力画像に撮影されて
いる顔が正面を向いていない場合、ステップ111で得
られた入力画像の各特徴点の3次元座標(観測点)は、
3次元顔特徴点モデル67の各特徴点の3次元座標から
任意の角度と変位だけずれを有している。したがって、
正面を向いた3次元顔特徴点モデル67を任意に回転、
変位させたときに、入力画像の各特徴点に一致する角度
と変位が入力画像中の顔の向きと位置に相当する。
【0047】3次元顔特徴点モデル67を任意に回転、
変位させて、入力画像の各特徴点にフィッティングさせ
た場合、フィッティング誤差Eは、下記の式で表され
る。
【0048】
【数1】
【0049】ここで、Nが特徴点の数であり、xがモ
デル内の各特徴点の3次元座標であり、yが入力画像
からの各特徴点の3次元座標を表す。ωは、各特徴点
に関する重み付け係数であり、入力画像から特徴点の3
次元位置を求めたときのステレオ・マッチングにおける
相関値を利用する。この相関値を利用することによっ
て、それぞれの特徴点の信頼度を考慮することができ
る。回転行列は、R(φ,θ,ψ)であり、並進ベクト
ルは、t(x,y,z)で表され、これらが、この式に
おける変数となる。
【0050】したがって、上記の式におけるフィッティ
ング誤差Eを最小にする回転行列Rと並進ベクトルtを
求めれば、入力画像の顔向きと顔位置が求められる。こ
の演算は、最小二乗法または仮想バネモデルを使用した
フィッティング手法などを利用することによって実行さ
れる。
【0051】ステップ113では、ステップ111で顔
の向きが正しく検出されたかどうかが判定される。もし
顔の向きが正しく検出されなかったと判定された場合、
ステップ101に戻り、新しい入力画像を使用して一連
の処理が繰り返される。
【0052】図6は、より詳細な顔トラッキング部39
のフローチャートを示している。このフローチャート
は、基本的には図3に示す顔トラッキング部39の処理
と同一であるが、各特徴点のテンプレート・マッチング
(ステップ107)をより詳細に示している。
【0053】図6のフローチャートでは、1つの特徴点
に対して複数のテンプレートを使用するよう示されてい
る。1つの特徴点に対する複数のテンプレートは、テン
プレート・マッチングにおけるエラーを低減させ、顔向
き検出の精度を向上させるために使用される。さらに、
このフローチャートでは、カメラに撮影されていない特
徴点を予測し、撮影されていない特徴点のテンプレート
・マッチングを行わないよう処理している。
【0054】最初に、1つの特徴点に対して複数のテン
プレートを使用する顔トラッキング部39の処理を説明
する。
【0055】3次元顔特徴点モデル69における各特徴
点の画像に撮影されている対象物(左右の眉頭、左右の
目頭と目尻、口の両端など)は、平面ではなく立体であ
る。したがって、その見え方(すなわち撮影されている
対象物の状態)は、顔向きや傾きに応じて変化する。こ
のため、単一のテンプレートだけでテンプレート・マッ
チングを行う場合、入力画像がそのテンプレートとは異
なる見え方をしているときにテンプレート・マッチング
でエラーを生じる。
【0056】例えば正面の顔の画像から作成された特徴
点のテンプレートだけをテンプレート・マッチングに使
用する場合、入力画像の顔が斜めを向いているときにエ
ラーが生じることがある。この様な各特徴点の見え方の
違いで生じるエラーを回避するために、各顔向きの画像
から作成された各特徴点のテンプレートが使用される。
【0057】1つの顔特徴点に対して複数のテンプレー
トを使用する場合、前回の入力画像における顔の情報
(顔の向き)に基づいて、今回のテンプレート・マッチ
ングで使用するテンプレートが選択される。すなわち、
前回の入力画像における顔の情報に基づいて、予め用意
された複数のテンプレートから最適なテンプレートが選
択され、選択されたテンプレートが今回のフレームにお
ける特徴点のテンプレート・マッチングに使用される。
【0058】図7は、1つの特徴点に対する複数のテン
プレートを示す図であり、具体的には、右目尻の特徴点
に対する複数のテンプレートの例を示す図である。図7
のaは、頭部がカメラに対して左右方向を向いたときの
状態を示し、図7のbは、頭部がカメラに対して正面を
向いているときの状態を示し、図7のcは、頭部がカメ
ラの光軸に対して回転したときの状態を示す。図7のa
に対応する右目尻のテンプレートが参照番号71で示さ
れ、図7のbに対応する右目尻のテンプレートが参照番
号61で示され、図7のcに対応する右目尻のテンプレ
ートが参照番号73で示されている。
【0059】図7を参照して分かるように、同じ右目尻
の画像であっても、画像における見え方は、頭部の姿勢
に応じて変化する。このため、顔トラッキング部39
は、頭部の姿勢に応じた複数のテンプレートを予めデー
タベース47に記憶しておき、その複数のテンプレート
から1つのテンプレートを選択して使用する。例えば、
図7の例では、頭部が左右方向に回転した状態に対して
3種類のテンプレートを用意し、頭部が光軸に対して回
転した状態に対しても3種類のテンプレートを用意して
いる。したがって、右目尻の特徴点のために、計9(3
×3)個の右目尻のテンプレートの集合が使用される。
【0060】これらのテンプレートの集合のうち、テン
プレート・マッチングで実際に使用されるテンプレート
は1つだけである。このテンプレートの選択は、前回の
入力画像の顔の情報に基づいて決められる。前回の入力
画像と今回の入力画像が連続した画像フレームであるの
で、前回の頭部の姿勢と今回の頭部の姿勢は、比較的相
関が高いはずである。したがって、図6のステップ20
1で、前回の入力画像に撮影されていた頭部の姿勢が取
得され、ステップ203で、その頭部の姿勢に対応する
テンプレートが選択される。対応するテンプレートが選
択された後で、そのテンプレートを使用して今回の入力
画像に対してテンプレート・マッチングを行うので、エ
ラーを低減することができる。
【0061】上記では、計9個の右目尻のテンプレート
の集合を例として述べた。しかしながら、他の特徴点に
関しても複数のテンプレートが用意され、その中から前
回の画像における顔の情報に応じて1つのテンプレート
がそれぞれ使用される。各特徴点のためのテンプレート
の数は、必要に応じていくつ用意してもよい。
【0062】次に、カメラに撮影されていない特徴点を
予測する処理に関して詳細に説明する。これらの処理
は、図6のフローチャートのステップ205から209
で処理される。
【0063】図8および図9を参照して、カメラに撮影
されていない特徴点の予測の概要を説明する。図9は、
カメラに対して正面を向いた顔31の正面図と上面図を
示している。この図では便宜的に1個のカメラしか示さ
れていないが、実際には、ステレオカメラを構成する2
個のカメラが存在し、この処理は2個のカメラそれぞれ
に関して実行される。
【0064】図8では、カメラの設置位置に基づいて基
準位置が定められる。この基準位置と各特徴点の3次元
座標とを結ぶベクトルを各特徴点の「位置ベクトル」と
呼ぶことにする。さらに、各特徴点の座標を結んで得ら
れる曲面に対する各特徴点の法線方向のベクトルを各特
徴点の「法線ベクトル」と呼ぶ。各特徴点がカメラに撮
影されるかどうかは、各特徴点について「位置ベクト
ル」と「法線ベクトル」とがなす角度θによって判断す
ることができる。
【0065】例えば、図8の上面図におけるx−z平面
に関して考察する。この場合、各特徴点について位置ベ
クトルと法線ベクトルとがなす角度θは、90°より十
分小さい。したがって、各特徴点全てがカメラで撮影す
ることが可能である。しかしながら、顔が横向きである
図9の上面図の場合、特徴1について位置ベクトルと法
線ベクトルとがなす角度θが、ほぼ90°になる。こ
の場合、カメラは、特徴1を撮影することが出来なくな
り、この特徴1に関するテンプレート・マッチングがエ
ラーを生じる可能性が高くなる。
【0066】したがって、顔トラッキング部39は、各
特徴点ごとに位置ベクトルと法線ベクトルを求め、それ
らのベクトルがなす角度θを求める。この各特徴点のθ
が予め定められたしきい値より大きい場合、それに対応
する特徴点は、カメラによって撮影されていないと判断
される。結果として、顔トラッキング部39は、その特
徴点に関するテンプレート・マッチングを行わない。
【0067】上記の例では、x−z平面について説明し
たが、同様の処理は、x−y平面についても処理され
る。さらに、ステレオカメラを構成する2個のカメラの
それぞれについて、この処理が実行される。これによ
り、頭部の姿勢によって撮影されていない特徴点によっ
て生じるエラーを回避することができる。
【0068】図6のフローチャートを参照して説明する
と、ステップ205で前回の入力画像の頭部位置情報か
ら各特徴点について位置ベクトルと法線ベクトルが求め
られる。ステップ207で各特徴点の位置ベクトルと法
線ベクトルとがなす角度θが求められる。次に、ステッ
プ209で、求められた角度θが予め定められたしきい
値と比較され、テンプレート・マッチングを実行する特
徴点が選択される。ステップ211で、今回の画像フレ
ームに対して、選択されたテンプレートを使用してテン
プレート・マッチングが実行され、その結果に基づい
て、ステップ213で各特徴点のステレオ・マッチング
が実行される。最終的にステップ215で3次元顔特徴
点モデル63に対して、3次元観測値とのフィッティン
グが行われることによって、入力画像に撮影されている
顔向きが検出される。
【0069】まばたき検出部41 まばたき検出部41は、視線検出部43のために、入力
画像から目周辺の画像を抽出して目が閉じているかどう
かを判断する。もし目が閉じられている場合、視線方向
を検出する意味がないので顔トラッキング部39に戻る
よう処理される。
【0070】図10は、まばたき検出部41の処理(ス
テップ115)を詳細に示すフローチャートである。最
初にステップ301で、入力画像において目が存在して
いる領域が左右それぞれについて求められる。これは、
顔トラッキング部39で得られた左右の目尻と目頭の特
徴点の情報に基づいて行われる。例えば、左右それぞれ
の目について、目全体を含む画像領域が求められる。次
に、ステップ303で、その求められた領域から画像が
抽出される。
【0071】図11は、入力画像から抽出された右目の
領域75を示す。顔トラッキング部39で検出された右
目頭の特徴点は参照番号63で示されており、右目尻の
特徴点は参照番号61で示されている。この例では、入
力画像から抽出される目領域の範囲は、幅方向が目頭の
特徴点から目尻の特徴点までであり、高さ方向が特徴点
の高さの倍の長さである。
【0072】ステップ305で、目が開いているかどう
かを判断するために目領域の画像から水平な直線が検出
される。すなわち、目が開いている状態で撮影された入
力画像の場合、抽出された目領域の画像には、虹彩や目
の輪郭により生じる縦や斜めのエッジが多く含まれてい
る。それに対して目が閉じている状態で撮影された入力
画像の場合、閉じたまぶたによって生じる水平なエッジ
が比較的多く含まれている。したがって、目領域の画像
からエッジ検出を行い、その目領域に含まれるエッジの
種類(縦、斜め、水平など)の割合から目が閉じている
かどうかを判断することができる。エッジの種類は、例
えばハフ変換などの線分当てはめを行い、画像中に存在
する直線群を検出することによって求められる。画像中
に存在する直線群において水平とみなせる直線の割合が
予め定めたしきい値より多く存在している場合、まばた
き検出部41は、ステップ307で目を閉じていると判
断する。
【0073】この実施例では、左右両方の目についてそ
れぞれ目が開いているかどうかが検出される。左右どち
らかの目が閉じられていると判断された場合、視線方向
の検出には進まず、新たな画像フレームを使用して顔向
き検出を処理する。
【0074】視線検出部43 図12は、視線検出部43の詳細なフローチャートを示
す。視線検出部43は、顔トラッキング部39で得られ
た顔の位置と向きに基づき、入力画像から視線方向を検
出する。
【0075】視線検出部43では、人の眼球は、眼球の
中心が回転中心と一致する3次元的な球でモデル化され
る。視線方向は、顔トラッキング部39で検出された頭
部の位置および姿勢、並びに瞳孔の中心位置の関係で求
められる。すなわち、視線検出部43で検出される視線
方向は、眼球の中心位置と瞳孔の中心位置とを結ぶベク
トルとして求められる。
【0076】図12のステップ401で、視線検出部4
3は、顔トラッキング部39で検出された顔の位置と向
きから眼球の中心位置を求める。図13を参照してこれ
を詳細に説明する。
【0077】図13の参照番号77は、顔トラッキング
部39で検出された目尻の特徴点の3次元座標を示して
おり、参照番号77は、顔トラッキング部39で検出さ
れた目頭の特徴点の3次元座標を示している。最初に、
この2つの座標を結ぶ直線を得て、その直線の中点から
眼球の中心方向に向かう直線が求められる。この明細書
では、その中点から眼球の中心方向に向かうベクトルを
「オフセット・ベクトル」と呼び、顔トラッキング部3
9で得られた顔の向きに基づいて定める。眼球の中心位
置81は、その中点からオフセット・ベクトルに沿って
引かれた直線上に存在し、中点から眼球の半径に相当す
る距離上に存在する。眼球の半径は、標準的な眼球の大
きさに基づいて予め定められる。
【0078】次に、ステップ403で、画像から瞳孔の
中心位置83が検出される。先に述べたように、この実
施例では、近赤外光を使用して撮影された近赤外画像が
使用されている。この様な近赤外画像に撮影されている
瞳孔は、虹彩との反射率の違いにより比較的暗く撮影さ
れる。したがって、目周辺の画像から最も暗い部分を検
出することにより瞳孔が撮影されている領域を検出する
ことができる。
【0079】ステップ405で、眼球の中心位置81と
瞳孔の中心位置83とを結ぶベクトルから視線方向が求
められる。図14は、この様にして求められた視線方向
を水平面および垂直面に対する角度として示している。
図14では、眼球の中心位置が参照番号81で示され、
眼球表面上に存在する瞳孔の中心が参照番号82に示さ
れている。図14のaは、画像上平面をxy座標とした
場合に眼球の中心位置81と瞳孔の中心位置83とを結
ぶベクトル(視線ベクトル)を示している。カメラの光
軸方向をz軸とすると、図14のaに対応する側面図は
図14のbで示される。垂直面(この場合yz平面)に
対する視線方向は、視線ベクトルがxz平面に対してな
す角度85で表される。図14のcは、図14のaの上
面図を示している。この場合、水平面(xz平面)に対
する視線方向は、視線ベクトルがyz平面に対してなす
角度87で表される。
【0080】この実施例では、入力画像として左右の画
像を使用しているので、右画像、左画像それぞれに対し
て視線ベクトルを求めることができる。さらに、1つの
画像につき左右両方の視線ベクトルを求めることができ
るので、合計4つの視線ベクトルを求めることができ
る。本実施例では、この4つの視線ベクトルを平均した
ベクトルを入力画像の視線方向として使用する。
【0081】図3のステップ123で、顔の視線方向が
検出された後で、ステップ105に戻り、新たな入力画
像を使用して一連の処理が繰り返される。この繰り返し
の結果、ドライバーの顔向き、顔位置、視線方向の連続
的な追従をリアルタイムで実行することが可能になる。
【0082】他の実施形態 上記の顔・視線認識装置の実施形態では、コンピュータ
で構成されたハードウェア構成が説明されたが、本発明
はこの様な実施形態に限定されない。図15は、本発明
による顔・視線認識装置を備えた自動車の1つの実施形
態を示す。図15の自動車は、画像入力部33、サイド
ミラー91、ルームミラー93、制御装置95、赤外線
投光機14を備える。
【0083】図16は、図15に示す顔・視線認識装置
を備えた自動車の機能ブロック図を示す。この機能ブロ
ック図には、画像入力部33、赤外線投光機14、画像
解析部35、個人識別部96、環境設定部97、サイド
ミラー・アクチュエータ98、ルームミラー・アクチュ
エータ99、シート・アクチュエータ100が含まれ
る。
【0084】この実施形態における自動車は、図16に
示す各機能ブロックを使用して2種類の動作モードを処
理する。第1の動作モードは、画像解析部35が実行す
る顔向き・視線検出モードであり、このモードは、ドラ
イバーの存在を検出して顔向きと視線方向の状態を連続
的に検出する。第2の動作モードは、個人認証モードで
あり、このモードは、運転席に座っているドライバーを
特定して、そのドライバーに合わせてミラーやシートな
どの環境設定を実行する。
【0085】図15に示す自動車は、通常、顔向き・視
線検出モードで動作しており、ドライバーが運転席にい
るかどうかを監視している。ドライバーが運転席にいる
場合、ドライバーの顔向きと視線方向が常に画像解析部
35により検出される。自動車は、監視された顔向きと
視線方向に基づいてドライバーの状態を判断し、それに
応じた様々な処理を実行することができる。
【0086】個々のドライバーの情報は、データベース
92に予め登録されている。登録されているドライバー
情報は、個々のドライバーの顔のデータ、個々のドライ
バーに対応する環境設定情報などである。顔のデータ
は、画像入力部33で撮影された入力画像との照合のた
めに個人識別部96によって使用される。この実施形態
では、個人識別部96による個人認証の前に、画像解析
部35がドライバーの顔の位置や向き、視線方向などの
情報を取得しているので、それらの顔の情報に応じた個
人認証を実行することができる。
【0087】例えば、通常、ドライバーが斜め方向を向
いている場合、個人認証の精度が低下する。しかしなが
ら、この実施形態では、画像解析部35がドライバーの
顔の位置や向き、視線方向を前もって検出しているの
で、その様な顔の情報に応じた個人認証を実行すること
ができる。
【0088】個人識別部96によって運転席にいるドラ
イバーが特定された場合、環境設定部97は、登録され
た設定値を参照して、個々のドライバーのためにサイド
ミラー・アクチュエータ98、バックミラー・アクチュ
エータ99、シート・アクチュエータ100を制御す
る。
【0089】以上この発明を特定の実施例について説明
したが、この発明はこのような実施例に限定されるもの
ではなく、当業者が容易に行うことができる種々の変形
もこの発明の範囲に含まれる。
【0090】
【発明の効果】本発明は、リアルタイムでの顔向き・視
線方向の追従において、誤認識が減少し、高精度な画像
処理を実現させることができる。
【図面の簡単な説明】
【図1】コンピュータで構成される顔・視線認識装置の
実施例。
【図2】顔・視線認識装置の機能ブロック図の実施例。
【図3】画像処理部の全体的なフローチャート。
【図4】探索用テンプレートの例。
【図5】3次元顔特徴点モデルの例。
【図6】顔トラッキング部のフローチャート。
【図7】複数のテンプレートを示す図。
【図8】カメラに撮影されていない特徴点の予測方法を
示す図。
【図9】カメラに撮影されていない特徴点の予測方法を
示す図。
【図10】まばたき検出部のフローチャート。
【図11】入力画像から抽出された右目の領域を示す
図。
【図12】視線検出部のフローチャート。
【図13】視線検出部の処理を模式的に示す図。
【図14】視線検出部により検出された視線方向を水平
面および垂直面に対する角度として示した図。
【図15】顔・視線認識装置を備えた自動車の実施例。
【図16】図13に示す顔・視線認識装置を備えた自動
車の機能ブロック図。
【符号の説明】
14 赤外線投光機 33 画像入力部 35 画像解析部 37 顔探索部 39 顔トラッキング部 41 まばたき検出部 43 視線検出部
フロントページの続き (72)発明者 松本 吉央 奈良県生駒市高山町8916番地5号 ディー 303 (72)発明者 五十嵐 亮治 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 (72)発明者 小笠原 司 京都府相楽郡木津町相楽台8丁目5番13号 Fターム(参考) 5B057 BA02 DA07 DA17 DB03 DC08 DC16 DC22 DC33 5B087 AA07 AA10 AD01 BC32 CC33 5L096 AA09 BA18 CA05 DA02 EA37 FA06 FA14 FA62 FA67 FA69 HA07 JA09 JA16 KA01

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】ユーザの顔を撮影する複数のカメラと、 前記カメラの画像出力から顔の向きを検出する検出手段
    と、 前記カメラの画像出力に撮影されている目周辺の画像領
    域から前記ユーザの目が開いているかどうかを検出する
    手段と、 前記ユーザの目が開いていることに応答して、前記カメ
    ラの画像出力から前記ユーザの視線方向を検出する手段
    と、を備える顔・視線認識装置。
  2. 【請求項2】前記目が開いているかどうかを検出する手
    段は、前記目周辺の画像領域に含まれる水平方向エッジ
    を検出し、該画像領域に含まれている水平方向エッジの
    割合に応じて、目が開いているかどうかを検出する請求
    項1に記載の顔・視線認識装置。
  3. 【請求項3】前記顔向き検出手段は、 特徴的な顔の部分に相当する1つまたは複数の特徴点の
    それぞれについて用意された複数のテンプレートから、
    顔向きに応じて各特徴点のために1つのテンプレートを
    選択する手段と、 前記選択されたテンプレートをそれぞれ使用して、前記
    画像出力から前記特徴点に対応する1つまたは複数の画
    像領域を抽出する手段と、を備え、 前記抽出された1つまたは複数の画像領域に基づいて、
    前記ユーザの顔向きを検出する請求項1に記載の顔・視
    線認識装置。
  4. 【請求項4】前記テンプレートの選択手段は、前回の画
    像出力から検出された顔向きに基づいて、今回の画像出
    力のために前記複数のテンプレートから1つのテンプレ
    ートを選択する請求項3に記載の顔・視線認識装置。
  5. 【請求項5】前記画像領域抽出手段は、前回の画像出力
    から検出された顔向きに基づいて今回の画像出力に撮影
    されていない特徴点を判断し、 撮影されていない特徴点に対応する画像領域の抽出を処
    理しない請求項3に記載の顔・視線認識装置。
  6. 【請求項6】前記カメラの画像出力は、近赤外画像であ
    り、 前記視線方向の検出手段は、目周辺の画像領域の明暗か
    ら瞳孔の位置を検出し、検出された瞳孔の中心位置と眼
    球の中心位置から視線方向を検出する請求項1に記載の
    顔・視線認識装置。
JP2001197915A 2001-06-29 2001-06-29 ステレオカメラを使用した顔・視線認識装置 Expired - Fee Related JP4898026B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001197915A JP4898026B2 (ja) 2001-06-29 2001-06-29 ステレオカメラを使用した顔・視線認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001197915A JP4898026B2 (ja) 2001-06-29 2001-06-29 ステレオカメラを使用した顔・視線認識装置

Publications (2)

Publication Number Publication Date
JP2003015816A true JP2003015816A (ja) 2003-01-17
JP4898026B2 JP4898026B2 (ja) 2012-03-14

Family

ID=19035443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001197915A Expired - Fee Related JP4898026B2 (ja) 2001-06-29 2001-06-29 ステレオカメラを使用した顔・視線認識装置

Country Status (1)

Country Link
JP (1) JP4898026B2 (ja)

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004259043A (ja) * 2003-02-26 2004-09-16 Toyota Motor Corp 向き方向検出装置および向き方向検出方法
JP2005063041A (ja) * 2003-08-08 2005-03-10 Olympus Corp 3次元モデリング装置、方法、及びプログラム
JP2005078311A (ja) * 2003-08-29 2005-03-24 Fujitsu Ltd 顔部位の追跡装置、眼の状態判定装置及びコンピュータプログラム
JP2005141655A (ja) * 2003-11-10 2005-06-02 Olympus Corp 3次元モデリング装置及び3次元モデリング方法
JP2005182452A (ja) * 2003-12-19 2005-07-07 Tokai Rika Co Ltd 顔の向き検知装置
JP2006141862A (ja) * 2004-11-24 2006-06-08 Saga Univ 視線方向特定システム
JP2006177937A (ja) * 2004-11-26 2006-07-06 Denso It Laboratory Inc 距離計測装置及び距離計測方法
JP2006227736A (ja) * 2005-02-15 2006-08-31 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2006227734A (ja) * 2005-02-15 2006-08-31 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2006244385A (ja) * 2005-03-07 2006-09-14 Fuji Photo Film Co Ltd 顔判別装置およびプログラム並びに顔判別装置の学習方法
JP2006343859A (ja) * 2005-06-07 2006-12-21 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2007006427A (ja) * 2005-05-27 2007-01-11 Hitachi Ltd 映像監視装置
JP2007310828A (ja) * 2006-05-22 2007-11-29 Central Res Inst Of Electric Power Ind 電線異常検出方法、電線異常検出装置及び電線異常検出プログラム
WO2008007781A1 (fr) 2006-07-14 2008-01-17 Panasonic Corporation Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle
JP2008136789A (ja) * 2006-12-05 2008-06-19 Nec Corp 眼球パラメータ推定装置及び方法
JP2009087250A (ja) * 2007-10-02 2009-04-23 Canon Inc 画像処理装置及び画像処理方法
JP2009104524A (ja) * 2007-10-25 2009-05-14 Hitachi Ltd 視線方向計測方法および視線方向計測装置
JP2009103709A (ja) * 2003-11-21 2009-05-14 Siemens Corporate Res Inc ステレオ検出器を訓練する方法
JP2009266155A (ja) * 2008-04-30 2009-11-12 Toshiba Corp 移動体追跡装置及びその方法
JP2010020594A (ja) * 2008-07-11 2010-01-28 Kddi Corp 瞳画像認識装置
WO2010010926A1 (ja) * 2008-07-24 2010-01-28 国立大学法人静岡大学 特徴点追跡方法及び特徴点追跡装置
JP2010134608A (ja) * 2008-12-03 2010-06-17 Omron Corp 検出装置および方法、並びに、プログラム
US7835549B2 (en) 2005-03-07 2010-11-16 Fujifilm Corporation Learning method of face classification apparatus, face classification method, apparatus and program
JP2011034580A (ja) * 2010-10-12 2011-02-17 Oki Electric Industry Co Ltd 個人認証システム及び個人認証方法
JP2011044160A (ja) * 2005-12-12 2011-03-03 Sony Computer Entertainment Inc コンピュータプログラムとのインタフェース時に深さと方向の検出を可能とする方法およびシステム
JP2011243141A (ja) * 2010-05-21 2011-12-01 Nec System Technologies Ltd 操作情報処理装置、方法及びプログラム
US8199190B2 (en) 2007-05-09 2012-06-12 Toyota Jidosha Kabushiki Kaisha Image processing apparatus and image processing method
JP2012123515A (ja) * 2010-12-07 2012-06-28 Denso Corp 顔向き検出装置
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
JP2014210076A (ja) * 2013-04-19 2014-11-13 株式会社ユニバーサルエンターテインメント 遊技機および遊技機の管理方法
JP2015075916A (ja) * 2013-10-09 2015-04-20 アイシン精機株式会社 顔検出装置、方法およびプログラム
JP2015517239A (ja) * 2012-03-12 2015-06-18 アルカテル−ルーセント ビデオインターフェースを制御するための方法、ビデオインターフェースを動作させるための方法、顔向き検出器、およびビデオ会議サーバ
JP2015176273A (ja) * 2014-03-14 2015-10-05 オムロン株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP2015194838A (ja) * 2014-03-31 2015-11-05 株式会社国際電気通信基礎技術研究所 視線方向推定装置および視線方向推定方法
WO2017122299A1 (ja) * 2016-01-13 2017-07-20 フォーブ インコーポレーテッド 表情認識システム、表情認識方法及び表情認識プログラム
WO2017195405A1 (ja) * 2016-05-11 2017-11-16 ソニー株式会社 画像処理装置及び画像処理方法、並びに移動体
CN110099254A (zh) * 2019-05-21 2019-08-06 浙江师范大学 一种驾驶员人脸跟踪装置及方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102463169B1 (ko) 2015-09-07 2022-11-04 삼성전자주식회사 시점 추적 방법 및 장치

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02138673A (ja) * 1988-07-14 1990-05-28 A T R Tsushin Syst Kenkyusho:Kk 瞳孔画像撮影装置
JPH07244556A (ja) * 1994-03-04 1995-09-19 Hitachi Ltd 情報端末
JPH09259284A (ja) * 1996-03-22 1997-10-03 Nissan Motor Co Ltd 車両運転者の顔位置及び眼位置検出装置
JPH1020998A (ja) * 1996-06-28 1998-01-23 Osaka Kagaku Gijutsu Center 位置指示装置
JPH11212715A (ja) * 1998-01-29 1999-08-06 Shimadzu Corp 視線入力装置
JP2000123188A (ja) * 1998-10-20 2000-04-28 Toyota Motor Corp 眼開閉判定装置
JP2000132693A (ja) * 1998-10-27 2000-05-12 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000311238A (ja) * 1999-04-28 2000-11-07 Niles Parts Co Ltd 眼の開度検出装置
JP2001043382A (ja) * 1999-07-27 2001-02-16 Fujitsu Ltd 目追跡装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02138673A (ja) * 1988-07-14 1990-05-28 A T R Tsushin Syst Kenkyusho:Kk 瞳孔画像撮影装置
JPH07244556A (ja) * 1994-03-04 1995-09-19 Hitachi Ltd 情報端末
JPH09259284A (ja) * 1996-03-22 1997-10-03 Nissan Motor Co Ltd 車両運転者の顔位置及び眼位置検出装置
JPH1020998A (ja) * 1996-06-28 1998-01-23 Osaka Kagaku Gijutsu Center 位置指示装置
JPH11212715A (ja) * 1998-01-29 1999-08-06 Shimadzu Corp 視線入力装置
JP2000123188A (ja) * 1998-10-20 2000-04-28 Toyota Motor Corp 眼開閉判定装置
JP2000132693A (ja) * 1998-10-27 2000-05-12 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000311238A (ja) * 1999-04-28 2000-11-07 Niles Parts Co Ltd 眼の開度検出装置
JP2001043382A (ja) * 1999-07-27 2001-02-16 Fujitsu Ltd 目追跡装置

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004259043A (ja) * 2003-02-26 2004-09-16 Toyota Motor Corp 向き方向検出装置および向き方向検出方法
JP2005063041A (ja) * 2003-08-08 2005-03-10 Olympus Corp 3次元モデリング装置、方法、及びプログラム
JP2005078311A (ja) * 2003-08-29 2005-03-24 Fujitsu Ltd 顔部位の追跡装置、眼の状態判定装置及びコンピュータプログラム
JP2005141655A (ja) * 2003-11-10 2005-06-02 Olympus Corp 3次元モデリング装置及び3次元モデリング方法
JP2009169957A (ja) * 2003-11-21 2009-07-30 Siemens Corporate Res Inc イメージの対をテストする方法
JP2009150900A (ja) * 2003-11-21 2009-07-09 Siemens Corporate Res Inc リアルタイムの頭部ポーズ検出において使用するためのデータベースシステム
JP2009103709A (ja) * 2003-11-21 2009-05-14 Siemens Corporate Res Inc ステレオ検出器を訓練する方法
JP2005182452A (ja) * 2003-12-19 2005-07-07 Tokai Rika Co Ltd 顔の向き検知装置
JP4654434B2 (ja) * 2004-11-24 2011-03-23 国立大学法人佐賀大学 視線方向特定システム
JP2006141862A (ja) * 2004-11-24 2006-06-08 Saga Univ 視線方向特定システム
JP2006177937A (ja) * 2004-11-26 2006-07-06 Denso It Laboratory Inc 距離計測装置及び距離計測方法
JP2006227734A (ja) * 2005-02-15 2006-08-31 Toyota Motor Corp 画像処理装置及び画像処理方法
JP4692006B2 (ja) * 2005-02-15 2011-06-01 トヨタ自動車株式会社 画像処理装置及び画像処理方法
JP2006227736A (ja) * 2005-02-15 2006-08-31 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2006244385A (ja) * 2005-03-07 2006-09-14 Fuji Photo Film Co Ltd 顔判別装置およびプログラム並びに顔判別装置の学習方法
US7835549B2 (en) 2005-03-07 2010-11-16 Fujifilm Corporation Learning method of face classification apparatus, face classification method, apparatus and program
JP2007006427A (ja) * 2005-05-27 2007-01-11 Hitachi Ltd 映像監視装置
JP4622702B2 (ja) * 2005-05-27 2011-02-02 株式会社日立製作所 映像監視装置
JP2006343859A (ja) * 2005-06-07 2006-12-21 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2011044160A (ja) * 2005-12-12 2011-03-03 Sony Computer Entertainment Inc コンピュータプログラムとのインタフェース時に深さと方向の検出を可能とする方法およびシステム
JP2007310828A (ja) * 2006-05-22 2007-11-29 Central Res Inst Of Electric Power Ind 電線異常検出方法、電線異常検出装置及び電線異常検出プログラム
WO2008007781A1 (fr) 2006-07-14 2008-01-17 Panasonic Corporation Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle
US8406479B2 (en) 2006-07-14 2013-03-26 Panasonic Corporation Visual axis direction detection device and visual line direction detection method
JP5137833B2 (ja) * 2006-07-14 2013-02-06 パナソニック株式会社 視線方向検出装置および視線方向検出方法
JPWO2008007781A1 (ja) * 2006-07-14 2009-12-10 パナソニック株式会社 視線方向検出装置および視線方向検出方法
JP2008136789A (ja) * 2006-12-05 2008-06-19 Nec Corp 眼球パラメータ推定装置及び方法
US8077217B2 (en) 2006-12-05 2011-12-13 Nec Corporation Eyeball parameter estimating device and method
US8199190B2 (en) 2007-05-09 2012-06-12 Toyota Jidosha Kabushiki Kaisha Image processing apparatus and image processing method
JP2009087250A (ja) * 2007-10-02 2009-04-23 Canon Inc 画像処理装置及び画像処理方法
JP2009104524A (ja) * 2007-10-25 2009-05-14 Hitachi Ltd 視線方向計測方法および視線方向計測装置
JP2009266155A (ja) * 2008-04-30 2009-11-12 Toshiba Corp 移動体追跡装置及びその方法
JP2010020594A (ja) * 2008-07-11 2010-01-28 Kddi Corp 瞳画像認識装置
JPWO2010010926A1 (ja) * 2008-07-24 2012-01-05 国立大学法人静岡大学 特徴点追跡方法及び特徴点追跡装置
WO2010010926A1 (ja) * 2008-07-24 2010-01-28 国立大学法人静岡大学 特徴点追跡方法及び特徴点追跡装置
JP5429885B2 (ja) * 2008-07-24 2014-02-26 国立大学法人静岡大学 特徴点追跡方法及び特徴点追跡装置
JP2010134608A (ja) * 2008-12-03 2010-06-17 Omron Corp 検出装置および方法、並びに、プログラム
JP2011243141A (ja) * 2010-05-21 2011-12-01 Nec System Technologies Ltd 操作情報処理装置、方法及びプログラム
JP2011034580A (ja) * 2010-10-12 2011-02-17 Oki Electric Industry Co Ltd 個人認証システム及び個人認証方法
JP2012123515A (ja) * 2010-12-07 2012-06-28 Denso Corp 顔向き検出装置
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
JP2015517239A (ja) * 2012-03-12 2015-06-18 アルカテル−ルーセント ビデオインターフェースを制御するための方法、ビデオインターフェースを動作させるための方法、顔向き検出器、およびビデオ会議サーバ
US9402053B2 (en) 2012-03-12 2016-07-26 Alcatel Lucent Method for control of a video interface, method for operation of a video interface, face orientation detector, and video conferencing server
JP2014210076A (ja) * 2013-04-19 2014-11-13 株式会社ユニバーサルエンターテインメント 遊技機および遊技機の管理方法
JP2015075916A (ja) * 2013-10-09 2015-04-20 アイシン精機株式会社 顔検出装置、方法およびプログラム
JP2015176273A (ja) * 2014-03-14 2015-10-05 オムロン株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP2015194838A (ja) * 2014-03-31 2015-11-05 株式会社国際電気通信基礎技術研究所 視線方向推定装置および視線方向推定方法
WO2017122299A1 (ja) * 2016-01-13 2017-07-20 フォーブ インコーポレーテッド 表情認識システム、表情認識方法及び表情認識プログラム
JPWO2017122299A1 (ja) * 2016-01-13 2018-11-15 フォーブ インコーポレーテッド 表情認識システム、表情認識方法及び表情認識プログラム
WO2017195405A1 (ja) * 2016-05-11 2017-11-16 ソニー株式会社 画像処理装置及び画像処理方法、並びに移動体
JPWO2017195405A1 (ja) * 2016-05-11 2019-03-07 ソニー株式会社 画像処理装置及び画像処理方法、並びに移動体
CN110099254A (zh) * 2019-05-21 2019-08-06 浙江师范大学 一种驾驶员人脸跟踪装置及方法
CN110099254B (zh) * 2019-05-21 2023-08-25 浙江师范大学 一种驾驶员人脸跟踪装置及方法

Also Published As

Publication number Publication date
JP4898026B2 (ja) 2012-03-14

Similar Documents

Publication Publication Date Title
JP4898026B2 (ja) ステレオカメラを使用した顔・視線認識装置
US11699293B2 (en) Neural network image processing apparatus
JP6695503B2 (ja) 車両の運転者の状態を監視するための方法及びシステム
US7227976B1 (en) Method and system for real-time facial image enhancement
JP5016175B2 (ja) 顔画像処理システム
JP4546956B2 (ja) 奥行き検出を用いた対象の向きの推定
Ji 3D face pose estimation and tracking from a monocular camera
EP1687754B1 (en) System and method for detecting an occupant and head pose using stereo detectors
WO2022095440A1 (zh) 面向自动驾驶的人机协同感知方法及系统
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP5001930B2 (ja) 動作認識装置及び方法
Borghi et al. Hands on the wheel: a dataset for driver hand detection and tracking
WO2019067903A1 (en) HEAD POSTURE ESTIMATION FROM A LOCAL EYE REGION
EP3506149A1 (en) Method, system and computer program product for eye gaze direction estimation
US20210056291A1 (en) Method for analysis of an intrinsic facial feature of a face
Gurbuz et al. Model free head pose estimation using stereovision
JP2002274265A (ja) ミラー調整装置
CN112183200B (zh) 一种基于视频图像的眼动追踪方法和系统
US11048926B2 (en) Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms
Wallhoff et al. Multimodal face detection, head orientation and eye gaze tracking
JPH11283040A (ja) 操作制御装置および動作解析プログラムを記録したコンピュ―タ読み取り可能な記録媒体
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Miyachi et al. Development of Mouse System for Physically Disabled Person by Face Movement Using Kinect
Valenti et al. Simple and efficient visual gaze estimation
KR20010001021A (ko) 눈 깜빡임을 이용한 졸음 감지 방법 및 졸음 레벨 검출 전처리과정에서의 변형되는 눈 영역 추적 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100618

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110706

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110706

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111226

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees