JP2003015816A - ステレオカメラを使用した顔・視線認識装置 - Google Patents
ステレオカメラを使用した顔・視線認識装置Info
- Publication number
- JP2003015816A JP2003015816A JP2001197915A JP2001197915A JP2003015816A JP 2003015816 A JP2003015816 A JP 2003015816A JP 2001197915 A JP2001197915 A JP 2001197915A JP 2001197915 A JP2001197915 A JP 2001197915A JP 2003015816 A JP2003015816 A JP 2003015816A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- eyes
- feature point
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
おいて、高速な画像処理を実現するために無駄な演算時
間を発生させるエラーを可能な限り低減することを目的
とする。 【解決手段】 本発明の顔・視線認識装置は、ユーザの
顔を撮影する複数のカメラと、前記カメラの画像出力か
ら顔の向きを検出する検出手段と、前記カメラの画像出
力に撮影されている目周辺の画像領域から前記ユーザの
目が開いているかどうかを検出する手段と、前記ユーザ
の目が開いていることに応答して、前記カメラの画像出
力から前記ユーザの視線方向を検出する手段と、を備え
るよう構成される。この発明によると、ユーザの視線方
向を検出する前にユーザの目の開閉を検出することがで
きるので、視線方向の検出におけるエラーを回避するこ
とができる。
Description
ターフェース一般に関連し、より具体的には、画像認識
を利用して人間の顔向きと視線方向を認識する技術に関
する。
のや注意するものに深い関係があり、この視線の動きを
キーボードやマウスなどの入力デバイスの代わりに利用
する研究が進められている。この様な次世代ヒューマン
・インターフェースは、カメラによって人間の行動を撮
影し、人間の意図や注意を認識する高度なインターフェ
ースとして構築される。
線の動きが顔の動きに追従して動く場合が多いので、視
線の動きを検出するのと同時に顔の向きを検出すること
が好ましい。この様な顔向きと視線方向を同時に検出す
る顔・視線認識装置は、松本ほかによる「顔・視線計測
システムの開発と動作認識への応用」(第5回ロボティ
クス・シンポジア、2000/3/26、27)の論文
に示されている。
れた顔・視線認識装置では、ステレオカメラにより撮影
された画像フレームから人間の顔の向きを3次元的に検
出し、その後で顔の向きに基づいて視線方向を検出して
いる。視線方向を検出した後では、新たに撮影された画
像フレームを使用して、同様の顔向き検出と視線方向検
出が繰り返される。この顔向きと視線方向の検出は、ビ
デオカメラによる画像フレームの撮影速度に応じた速度
で繰り返されて、顔向きと視線方向のリアルタイムでの
追従が可能とされる。
向の追従が高速な画像処理を必要とするので、無駄な演
算時間が発生した場合、顔・視線認識装置は顔向き・視
線方向をリアルタイムで追従することができなくなる。
したがって、顔・視線認識装置では、誤認識を減少さ
せ、精度を向上させることが望ましい。
方向の追従において、高速な画像処理を実現するため
に、無駄な演算時間を発生させるエラーを可能な限り低
減することを目的とする。
に、本発明の顔・視線認識装置は、ユーザの顔を撮影す
る複数のカメラと、前記カメラの画像出力から顔の向き
を検出する検出手段と、前記カメラの画像出力に撮影さ
れている目周辺の画像領域から前記ユーザの目が開いて
いるかどうかを検出する手段と、前記ユーザの目が開い
ていることに応答して、前記カメラの画像出力から前記
ユーザの視線方向を検出する手段と、を備えるよう構成
される。
出する前にユーザの目の開閉を検出するので、視線方向
の検出におけるエラーを回避することができる。
開いているかどうかを検出する手段は、前記目周辺の画
像領域に含まれる水平方向エッジを検出し、該画像領域
に含まれている水平方向エッジの割合に応じて、目が開
いているかどうかを検出するよう構成される。
は目周辺の画像領域に縦や斜めのエッジが多く含まれて
いるが、目が閉じている場合には水平方向のエッジが比
較的多く含まれているので、水平方向のエッジを検出
し、その割合を調べることにより、目が開いているかど
うかを検出することができる。
き検出手段は、特徴的な顔の部分に相当する1つまたは
複数の特徴点のそれぞれについて用意された複数のテン
プレートから、顔向きに応じて各特徴点のために1つの
テンプレートを選択する手段と、前記選択されたテンプ
レートをそれぞれ使用して、前記画像出力から前記特徴
点に対応する1つまたは複数の画像領域を抽出する手段
と、を備え、前記抽出された1つまたは複数の画像領域
に基づいて、前記ユーザの顔向きを検出するよう構成さ
れる。
のテンプレートの中から顔向きに応じて最適なテンプレ
ートを選択し、その選択されたテンプレートを使用して
テンプレート・マッチングを実行するので、テンプレー
ト・マッチングでのエラーを低減することができる。
プレートの選択手段は、前回の画像出力から検出された
顔向きに基づいて、今回の画像出力のために前記複数の
テンプレートから1つのテンプレートを選択するよう構
成される。
の画像出力が連続的な画像フレームであり、前回の画像
における顔向きと今回の画像における顔向きとが比較的
相関が高いので、今回の画像における顔向きに比較的近
い顔向きに対応したテンプレートを複数のテンプレート
から選択することができる。
視線認識装置において、前記画像領域抽出手段は、前回
の画像出力から検出された顔向きに基づいて今回の画像
出力に撮影されていない特徴点を判断し、撮影されてい
ない特徴点に対応する画像領域の抽出を処理しないよう
構成される。
像出力に撮影されていない特徴点に関するテンプレート
・マッチングを回避することができるので、顔・視線認
識装置のエラーを回避することができる。
視線認識装置の前記カメラの画像出力は、近赤外画像で
あり、前記視線方向の検出手段は、目周辺の画像の明暗
から瞳孔の位置を検出し、検出された瞳孔の中心位置と
眼球の中心位置から視線方向を検出するよう構成され
る。
ている瞳孔が虹彩との反射率の違いにより比較的暗く撮
影されるので、目周辺の画像から最も暗い部分を検出す
ることにより瞳孔が撮影されている領域を検出すること
ができる。
して説明する。図1は、顔・視線認識装置におけるハー
ドウェア構成の1つの実施形態を示す。この実施形態で
は、顔・視線認識装置はコンピュータで構成されるが、
必ずしもこの様なハードウェア構成に限定されない。
個のビデオカメラ(右カメラ11および左カメラ1
3)、2個のカメラ・コントロール・ユニット(15、
17)、画像処理ボード19、IR投光機14、パーソ
ナル・コンピュータ21、モニタ・ディスプレイ23、
キーボード25、およびマウス27を含む。
方左右に設置され、撮影対象の顔をステレオ視して撮影
する。各ビデオカメラ(11、13)は、カメラ・コン
トロール・ユニット(15、17)を介してそれぞれ制
御される。各カメラ・コントロール・ユニットは、外部
同期信号線を介して相互接続されており、この同期信号
によって左右のビデオカメラの同期がとられ、左右の位
置で同じ時刻に撮影された2つの画像フレームが得られ
る。顔・視線認識装置は、左右の位置で同じ時刻に撮影
された2つの画像フレームを入力画像として使用し、ス
テレオ法を用いて3次元的な物体認識を処理することが
できる。
するよう被写体の前面に設置され、車内の照明変動によ
る画像の劣化を低減する。このため、ビデオカメラは、
近赤外透過フィルタ29などにより近赤外光以外の波長
を遮断された状態で被写体を撮影する。
は、照明変動に対する画像のロバスト性を向上させるこ
とにある。一般に撮影対象の周囲の明るさは、屋内外、
または日中や夜間などの環境変化によって大きく変動す
る。また、強い可視光が1方向から顔にあたる場合に
は、顔面上に陰影のグラデーションが発生する。この様
な照明の変動や陰影のグラデーションは、画像認識の精
度を著しく悪化させる。
4により近赤外光を照射して画像を撮影することによっ
て、周囲からの可視光による顔面上の陰影のグラデーシ
ョンを低減する。この様な近赤外画像は、可視光を使用
して得られる画像と比較して照明変化による影響を受け
にくく、画像認識の精度を向上させることができる。
孔を明瞭に抽出することが可能な点にある。瞳の位置が
視線方向を検出するために使用されるので、瞳を明瞭に
撮影することは重要である。
影された画像を様々に処理する。例えば、各ビデオカメ
ラで撮影された画像がNTSC方式のビデオ信号として
送られてくる場合、画像処理ボード47は、それらの画
像を適当なフォーマットのクラスタ画像に変換し、内部
のバッファメモリに記憶する。さらに、画像処理ボード
47は、画像処理アルゴリズムを実行するハードウェア
回路を備えており、画像処理を高速に実行することがで
きる。例えば、ハードウェア回路による画像処理アルゴ
リズムには、斜方投影機構、ハフ変換、2値画像マッチ
ングフィルタ、アフィン変換(画像の回転、拡大、縮
小)などの処理が含まれる。
ェース(例えばPCIバス、シリアルバス、IEEE1
394など)を介してパーソナル・コンピュータ21に
接続され、パーソナル・コンピュータ21上のプログラ
ムに応じて制御される。パーソナル・コンピュータ21
は、モニタ・ディスプレイ23、キーボード25、マウ
ス27などのユーザ・インターフェースなどを備え、
「Linux」として知られるOSを使用して動作す
る。
実施される顔・視線認識装置の機能ブロック図を示す。
図2の参照番号31は撮影対象となる顔を示している。
画像入力部33は、図1で示す左右のビデオカメラ(1
1、13)、カメラ・コントロール・ユニット(15、
17)、画像処理ボード19を総合的に示している。こ
の画像入力部33は、撮影対象の顔31を連続的にステ
レオ撮影し、それらの画像をクラスタ化して図2の画像
処理部35に提供する。
ッキング部39、まばたき検出部41、視線検出部43
を含み、提供された画像に撮影されている顔から顔向き
と視線方向をリアルタイムで検出する。
れている領域を探索し、顔トラッキングの最初の初期化
とエラー回復のために使用される。顔トラッキング部3
9は、顔の特徴点を抽出し、撮影されている顔の向きを
リアルタイムで検出する。まばたき検出部41は、目周
辺の画像を解析し、目が閉じているかどうかを判断す
る。視線検出部43は、瞳孔を検出し、瞳孔の位置と眼
球の位置から視線方向をリアルタイムで検出する。
チャートを示す。顔探索部37、顔トラッキング部3
9、まばたき検出部41、視線検出部43は、それぞれ
関連して動作し、連続的に撮影される左右の入力画像か
ら顔向きと視線方向をリアルタイムで検出することがで
きる。
の処理がステップ101から103で示され、顔トラッ
キング部39の処理がステップ105から113で示さ
れ、まばたき検出部41の処理がステップ115から1
17で示され、視線検出部43の処理がステップ119
から123で示される。以下では、このフローチャート
を参照して画像処理部35の各機能ブロックの処理を説
明する。
部37は、入力された画像から人間の顔が撮影されてい
る画像領域をおおまかに探索する。ここでの処理は、顔
トラッキング部39のための前処理ともいえる。顔探索
部37が、顔トラッキング部39の処理の前に、入力画
像から顔が撮影されている領域をおおまかに探索するこ
とにより、顔トラッキング部39は、入力画像中の顔の
詳細な解析を高速に実行することができる。
から左右のビデオカメラの画像が入力され、入力画像全
体から人間の顔が撮影されている領域がおおまかに探索
される。これは、予め記憶された探索用テンプレート5
1を使用して2次元テンプレート・マッチングで実行さ
れる。
す。探索用テンプレート59に使用される画像は、正面
を向いた人間の顔を部分的に切り取った画像であり、こ
の画像には目、鼻、口などの人間の顔の特徴的な領域が
1つのテンプレートに含まれている。この探索用テンプ
レート51は、テンプレート・マッチングでの処理速度
を高めるために、予め低解像度化されており、さらに照
明変動の影響を低減するために微分画像にされている。
このテンプレートは、複数のサンプルから作成されて予
め記憶されている。
ンプレート・マッチングであるので、右ビデオカメラ1
1の画像かまたは左ビデオカメラ13の画像のどちらか
が使用される。以下では、右ビデオカメラ11の画像を
使用したテンプレート・マッチングを例として述べる。
プレート・マッチングの場合、右ビデオカメラ11の画
像から探索用テンプレート51に対応する画像領域が探
索され抽出される。次に、ステップ103において、マ
ッチした右画像内の画像領域をテンプレートにして、同
様のテンプレート・マッチングが左画像に対して実行さ
れ、そのステレオ・マッチングの結果から顔全体の3次
元位置がおおまかに求められる。この様にして得られた
画像情報は、顔トラッキング部39における各特徴点の
探索範囲を設定するために使用される。
基づいて顔の特徴点を入力画像から抽出し、それらの特
徴点から顔の3次元位置と顔の向きを求める。以下で
は、顔トラッキング部39が入力画像から特徴点を抽出
する方法に関して説明する。
マッチングにより入力画像から顔の特徴点を探索する。
この探索に使用されるテンプレートは、データベース4
7に予め記憶されている3次元顔特徴点モデル69の画
像を使用する。図5は、3次元顔特徴点モデル69の例
を示す。
9は、正面を向いた人間の顔の特徴的な部分を画像から
局所的に切り取った部分的画像(53〜67)から生成
される。例えば、これらの部分的画像は、図5に示すよ
うに、左の眉頭53、右の眉頭55、左の目尻57、左
の目頭59、右の目尻61、右の目頭63、口の左端6
5、口の右端67などのように予め用意された顔画像か
ら局所的に切り取られて生成される。これらの部分的画
像のそれぞれは、その画像内で撮影されている対象物
(この例では、左右の眉頭、左右の目尻と目頭、および
口の両端)の3次元位置を表す3次元座標に関連付けら
れ、データベース47に記憶されている。本明細書で
は、これらの3次元座標を有した顔特徴領域の部分的画
像を顔特徴点と呼び、これらの複数の顔特徴点から生成
される顔モデルを3次元顔特徴点モデル69と呼ぶ。3
次元顔特徴点モデル69は、複数のサンプルから生成さ
れデータベース47に記憶されている。
モデル69の各部分的画像をテンプレートにしてそれぞ
れ対応する特徴点を入力画像から抽出する。このテンプ
レート・マッチングは、右ビデオカメラの画像と左ビデ
オカメラの画像のどちらを使用しても構わないが、この
実施例では、右ビデオカメラの画像を使用している。こ
のテンプレート・マッチングの結果得られる画像は、撮
影された顔の左右の眉頭、左右の目頭と目尻、口の両端
の計8個の画像である。
処理を説明すると、最初に、ステップ105で各特徴点
の探索範囲が設定される。この探索範囲の設定は、前も
って得られた画像情報に基づいて行われる。例えば、ス
テップ103の後にステップ105が処理される場合、
入力画像における顔全体の領域が既に分かっているので
(ステップ101で検出されているので)、入力画像に
おいて各特徴点が存在している領域もおおまかに分か
る。ステップ117またはステップ123の後にステッ
プ105が処理される場合には、前回のループで検出さ
れた各特徴点(前回の入力画像における各特徴点)の情
報から、今回の入力画像において各特徴点が存在してい
る領域がおおまかに予測できる。したがって、各特徴点
が存在する可能性が高い画像領域だけを各特徴点の探索
範囲として設定することができ、この各特徴点の探索範
囲の設定により、テンプレート・マッチングを高速に処
理することが可能になる。
基づいて3次元顔特徴点モデル69に対応する画像領域
が右ビデオカメラの画像から探索される。これは、3次
元顔特徴点モデル69の各特徴点の画像をテンプレート
とし、右ビデオカメラ11の画像に対してテンプレート
・マッチングを行うことにより実行される。
索から得られた各特徴点の画像をテンプレートにして左
ビデオカメラ13の画像に対してステレオ・マッチング
が実行される。これにより、3次元顔特徴点モデル69
の各特徴点に対応する入力画像の各特徴点の3次元座標
が求められる。このステレオ・マッチングの結果、顔の
左右の眉頭、左右の目尻と目頭、口の両端の3次元座標
(観測点)がそれぞれ得られる。
69を使用して3次元モデル・フィッティングが実行さ
れ、顔の向きが検出される。以下ではこの3次元モデル
・フィッティングを説明する。
69は、正面を向いた顔の特徴点から生成されている。
それに対して入力画像で撮影されている顔は、必ずしも
正面を向いているとは限らない。入力画像に撮影されて
いる顔が正面を向いていない場合、ステップ111で得
られた入力画像の各特徴点の3次元座標(観測点)は、
3次元顔特徴点モデル67の各特徴点の3次元座標から
任意の角度と変位だけずれを有している。したがって、
正面を向いた3次元顔特徴点モデル67を任意に回転、
変位させたときに、入力画像の各特徴点に一致する角度
と変位が入力画像中の顔の向きと位置に相当する。
変位させて、入力画像の各特徴点にフィッティングさせ
た場合、フィッティング誤差Eは、下記の式で表され
る。
デル内の各特徴点の3次元座標であり、yiが入力画像
からの各特徴点の3次元座標を表す。ωiは、各特徴点
に関する重み付け係数であり、入力画像から特徴点の3
次元位置を求めたときのステレオ・マッチングにおける
相関値を利用する。この相関値を利用することによっ
て、それぞれの特徴点の信頼度を考慮することができ
る。回転行列は、R(φ,θ,ψ)であり、並進ベクト
ルは、t(x,y,z)で表され、これらが、この式に
おける変数となる。
ング誤差Eを最小にする回転行列Rと並進ベクトルtを
求めれば、入力画像の顔向きと顔位置が求められる。こ
の演算は、最小二乗法または仮想バネモデルを使用した
フィッティング手法などを利用することによって実行さ
れる。
の向きが正しく検出されたかどうかが判定される。もし
顔の向きが正しく検出されなかったと判定された場合、
ステップ101に戻り、新しい入力画像を使用して一連
の処理が繰り返される。
のフローチャートを示している。このフローチャート
は、基本的には図3に示す顔トラッキング部39の処理
と同一であるが、各特徴点のテンプレート・マッチング
(ステップ107)をより詳細に示している。
に対して複数のテンプレートを使用するよう示されてい
る。1つの特徴点に対する複数のテンプレートは、テン
プレート・マッチングにおけるエラーを低減させ、顔向
き検出の精度を向上させるために使用される。さらに、
このフローチャートでは、カメラに撮影されていない特
徴点を予測し、撮影されていない特徴点のテンプレート
・マッチングを行わないよう処理している。
プレートを使用する顔トラッキング部39の処理を説明
する。
点の画像に撮影されている対象物(左右の眉頭、左右の
目頭と目尻、口の両端など)は、平面ではなく立体であ
る。したがって、その見え方(すなわち撮影されている
対象物の状態)は、顔向きや傾きに応じて変化する。こ
のため、単一のテンプレートだけでテンプレート・マッ
チングを行う場合、入力画像がそのテンプレートとは異
なる見え方をしているときにテンプレート・マッチング
でエラーを生じる。
点のテンプレートだけをテンプレート・マッチングに使
用する場合、入力画像の顔が斜めを向いているときにエ
ラーが生じることがある。この様な各特徴点の見え方の
違いで生じるエラーを回避するために、各顔向きの画像
から作成された各特徴点のテンプレートが使用される。
トを使用する場合、前回の入力画像における顔の情報
(顔の向き)に基づいて、今回のテンプレート・マッチ
ングで使用するテンプレートが選択される。すなわち、
前回の入力画像における顔の情報に基づいて、予め用意
された複数のテンプレートから最適なテンプレートが選
択され、選択されたテンプレートが今回のフレームにお
ける特徴点のテンプレート・マッチングに使用される。
プレートを示す図であり、具体的には、右目尻の特徴点
に対する複数のテンプレートの例を示す図である。図7
のaは、頭部がカメラに対して左右方向を向いたときの
状態を示し、図7のbは、頭部がカメラに対して正面を
向いているときの状態を示し、図7のcは、頭部がカメ
ラの光軸に対して回転したときの状態を示す。図7のa
に対応する右目尻のテンプレートが参照番号71で示さ
れ、図7のbに対応する右目尻のテンプレートが参照番
号61で示され、図7のcに対応する右目尻のテンプレ
ートが参照番号73で示されている。
の画像であっても、画像における見え方は、頭部の姿勢
に応じて変化する。このため、顔トラッキング部39
は、頭部の姿勢に応じた複数のテンプレートを予めデー
タベース47に記憶しておき、その複数のテンプレート
から1つのテンプレートを選択して使用する。例えば、
図7の例では、頭部が左右方向に回転した状態に対して
3種類のテンプレートを用意し、頭部が光軸に対して回
転した状態に対しても3種類のテンプレートを用意して
いる。したがって、右目尻の特徴点のために、計9(3
×3)個の右目尻のテンプレートの集合が使用される。
プレート・マッチングで実際に使用されるテンプレート
は1つだけである。このテンプレートの選択は、前回の
入力画像の顔の情報に基づいて決められる。前回の入力
画像と今回の入力画像が連続した画像フレームであるの
で、前回の頭部の姿勢と今回の頭部の姿勢は、比較的相
関が高いはずである。したがって、図6のステップ20
1で、前回の入力画像に撮影されていた頭部の姿勢が取
得され、ステップ203で、その頭部の姿勢に対応する
テンプレートが選択される。対応するテンプレートが選
択された後で、そのテンプレートを使用して今回の入力
画像に対してテンプレート・マッチングを行うので、エ
ラーを低減することができる。
の集合を例として述べた。しかしながら、他の特徴点に
関しても複数のテンプレートが用意され、その中から前
回の画像における顔の情報に応じて1つのテンプレート
がそれぞれ使用される。各特徴点のためのテンプレート
の数は、必要に応じていくつ用意してもよい。
予測する処理に関して詳細に説明する。これらの処理
は、図6のフローチャートのステップ205から209
で処理される。
されていない特徴点の予測の概要を説明する。図9は、
カメラに対して正面を向いた顔31の正面図と上面図を
示している。この図では便宜的に1個のカメラしか示さ
れていないが、実際には、ステレオカメラを構成する2
個のカメラが存在し、この処理は2個のカメラそれぞれ
に関して実行される。
準位置が定められる。この基準位置と各特徴点の3次元
座標とを結ぶベクトルを各特徴点の「位置ベクトル」と
呼ぶことにする。さらに、各特徴点の座標を結んで得ら
れる曲面に対する各特徴点の法線方向のベクトルを各特
徴点の「法線ベクトル」と呼ぶ。各特徴点がカメラに撮
影されるかどうかは、各特徴点について「位置ベクト
ル」と「法線ベクトル」とがなす角度θによって判断す
ることができる。
に関して考察する。この場合、各特徴点について位置ベ
クトルと法線ベクトルとがなす角度θは、90°より十
分小さい。したがって、各特徴点全てがカメラで撮影す
ることが可能である。しかしながら、顔が横向きである
図9の上面図の場合、特徴1について位置ベクトルと法
線ベクトルとがなす角度θ1が、ほぼ90°になる。こ
の場合、カメラは、特徴1を撮影することが出来なくな
り、この特徴1に関するテンプレート・マッチングがエ
ラーを生じる可能性が高くなる。
特徴点ごとに位置ベクトルと法線ベクトルを求め、それ
らのベクトルがなす角度θを求める。この各特徴点のθ
が予め定められたしきい値より大きい場合、それに対応
する特徴点は、カメラによって撮影されていないと判断
される。結果として、顔トラッキング部39は、その特
徴点に関するテンプレート・マッチングを行わない。
たが、同様の処理は、x−y平面についても処理され
る。さらに、ステレオカメラを構成する2個のカメラの
それぞれについて、この処理が実行される。これによ
り、頭部の姿勢によって撮影されていない特徴点によっ
て生じるエラーを回避することができる。
と、ステップ205で前回の入力画像の頭部位置情報か
ら各特徴点について位置ベクトルと法線ベクトルが求め
られる。ステップ207で各特徴点の位置ベクトルと法
線ベクトルとがなす角度θが求められる。次に、ステッ
プ209で、求められた角度θが予め定められたしきい
値と比較され、テンプレート・マッチングを実行する特
徴点が選択される。ステップ211で、今回の画像フレ
ームに対して、選択されたテンプレートを使用してテン
プレート・マッチングが実行され、その結果に基づい
て、ステップ213で各特徴点のステレオ・マッチング
が実行される。最終的にステップ215で3次元顔特徴
点モデル63に対して、3次元観測値とのフィッティン
グが行われることによって、入力画像に撮影されている
顔向きが検出される。
画像から目周辺の画像を抽出して目が閉じているかどう
かを判断する。もし目が閉じられている場合、視線方向
を検出する意味がないので顔トラッキング部39に戻る
よう処理される。
テップ115)を詳細に示すフローチャートである。最
初にステップ301で、入力画像において目が存在して
いる領域が左右それぞれについて求められる。これは、
顔トラッキング部39で得られた左右の目尻と目頭の特
徴点の情報に基づいて行われる。例えば、左右それぞれ
の目について、目全体を含む画像領域が求められる。次
に、ステップ303で、その求められた領域から画像が
抽出される。
領域75を示す。顔トラッキング部39で検出された右
目頭の特徴点は参照番号63で示されており、右目尻の
特徴点は参照番号61で示されている。この例では、入
力画像から抽出される目領域の範囲は、幅方向が目頭の
特徴点から目尻の特徴点までであり、高さ方向が特徴点
の高さの倍の長さである。
かを判断するために目領域の画像から水平な直線が検出
される。すなわち、目が開いている状態で撮影された入
力画像の場合、抽出された目領域の画像には、虹彩や目
の輪郭により生じる縦や斜めのエッジが多く含まれてい
る。それに対して目が閉じている状態で撮影された入力
画像の場合、閉じたまぶたによって生じる水平なエッジ
が比較的多く含まれている。したがって、目領域の画像
からエッジ検出を行い、その目領域に含まれるエッジの
種類(縦、斜め、水平など)の割合から目が閉じている
かどうかを判断することができる。エッジの種類は、例
えばハフ変換などの線分当てはめを行い、画像中に存在
する直線群を検出することによって求められる。画像中
に存在する直線群において水平とみなせる直線の割合が
予め定めたしきい値より多く存在している場合、まばた
き検出部41は、ステップ307で目を閉じていると判
断する。
れぞれ目が開いているかどうかが検出される。左右どち
らかの目が閉じられていると判断された場合、視線方向
の検出には進まず、新たな画像フレームを使用して顔向
き検出を処理する。
す。視線検出部43は、顔トラッキング部39で得られ
た顔の位置と向きに基づき、入力画像から視線方向を検
出する。
中心が回転中心と一致する3次元的な球でモデル化され
る。視線方向は、顔トラッキング部39で検出された頭
部の位置および姿勢、並びに瞳孔の中心位置の関係で求
められる。すなわち、視線検出部43で検出される視線
方向は、眼球の中心位置と瞳孔の中心位置とを結ぶベク
トルとして求められる。
3は、顔トラッキング部39で検出された顔の位置と向
きから眼球の中心位置を求める。図13を参照してこれ
を詳細に説明する。
部39で検出された目尻の特徴点の3次元座標を示して
おり、参照番号77は、顔トラッキング部39で検出さ
れた目頭の特徴点の3次元座標を示している。最初に、
この2つの座標を結ぶ直線を得て、その直線の中点から
眼球の中心方向に向かう直線が求められる。この明細書
では、その中点から眼球の中心方向に向かうベクトルを
「オフセット・ベクトル」と呼び、顔トラッキング部3
9で得られた顔の向きに基づいて定める。眼球の中心位
置81は、その中点からオフセット・ベクトルに沿って
引かれた直線上に存在し、中点から眼球の半径に相当す
る距離上に存在する。眼球の半径は、標準的な眼球の大
きさに基づいて予め定められる。
中心位置83が検出される。先に述べたように、この実
施例では、近赤外光を使用して撮影された近赤外画像が
使用されている。この様な近赤外画像に撮影されている
瞳孔は、虹彩との反射率の違いにより比較的暗く撮影さ
れる。したがって、目周辺の画像から最も暗い部分を検
出することにより瞳孔が撮影されている領域を検出する
ことができる。
瞳孔の中心位置83とを結ぶベクトルから視線方向が求
められる。図14は、この様にして求められた視線方向
を水平面および垂直面に対する角度として示している。
図14では、眼球の中心位置が参照番号81で示され、
眼球表面上に存在する瞳孔の中心が参照番号82に示さ
れている。図14のaは、画像上平面をxy座標とした
場合に眼球の中心位置81と瞳孔の中心位置83とを結
ぶベクトル(視線ベクトル)を示している。カメラの光
軸方向をz軸とすると、図14のaに対応する側面図は
図14のbで示される。垂直面(この場合yz平面)に
対する視線方向は、視線ベクトルがxz平面に対してな
す角度85で表される。図14のcは、図14のaの上
面図を示している。この場合、水平面(xz平面)に対
する視線方向は、視線ベクトルがyz平面に対してなす
角度87で表される。
像を使用しているので、右画像、左画像それぞれに対し
て視線ベクトルを求めることができる。さらに、1つの
画像につき左右両方の視線ベクトルを求めることができ
るので、合計4つの視線ベクトルを求めることができ
る。本実施例では、この4つの視線ベクトルを平均した
ベクトルを入力画像の視線方向として使用する。
検出された後で、ステップ105に戻り、新たな入力画
像を使用して一連の処理が繰り返される。この繰り返し
の結果、ドライバーの顔向き、顔位置、視線方向の連続
的な追従をリアルタイムで実行することが可能になる。
で構成されたハードウェア構成が説明されたが、本発明
はこの様な実施形態に限定されない。図15は、本発明
による顔・視線認識装置を備えた自動車の1つの実施形
態を示す。図15の自動車は、画像入力部33、サイド
ミラー91、ルームミラー93、制御装置95、赤外線
投光機14を備える。
を備えた自動車の機能ブロック図を示す。この機能ブロ
ック図には、画像入力部33、赤外線投光機14、画像
解析部35、個人識別部96、環境設定部97、サイド
ミラー・アクチュエータ98、ルームミラー・アクチュ
エータ99、シート・アクチュエータ100が含まれ
る。
示す各機能ブロックを使用して2種類の動作モードを処
理する。第1の動作モードは、画像解析部35が実行す
る顔向き・視線検出モードであり、このモードは、ドラ
イバーの存在を検出して顔向きと視線方向の状態を連続
的に検出する。第2の動作モードは、個人認証モードで
あり、このモードは、運転席に座っているドライバーを
特定して、そのドライバーに合わせてミラーやシートな
どの環境設定を実行する。
線検出モードで動作しており、ドライバーが運転席にい
るかどうかを監視している。ドライバーが運転席にいる
場合、ドライバーの顔向きと視線方向が常に画像解析部
35により検出される。自動車は、監視された顔向きと
視線方向に基づいてドライバーの状態を判断し、それに
応じた様々な処理を実行することができる。
92に予め登録されている。登録されているドライバー
情報は、個々のドライバーの顔のデータ、個々のドライ
バーに対応する環境設定情報などである。顔のデータ
は、画像入力部33で撮影された入力画像との照合のた
めに個人識別部96によって使用される。この実施形態
では、個人識別部96による個人認証の前に、画像解析
部35がドライバーの顔の位置や向き、視線方向などの
情報を取得しているので、それらの顔の情報に応じた個
人認証を実行することができる。
いている場合、個人認証の精度が低下する。しかしなが
ら、この実施形態では、画像解析部35がドライバーの
顔の位置や向き、視線方向を前もって検出しているの
で、その様な顔の情報に応じた個人認証を実行すること
ができる。
イバーが特定された場合、環境設定部97は、登録され
た設定値を参照して、個々のドライバーのためにサイド
ミラー・アクチュエータ98、バックミラー・アクチュ
エータ99、シート・アクチュエータ100を制御す
る。
したが、この発明はこのような実施例に限定されるもの
ではなく、当業者が容易に行うことができる種々の変形
もこの発明の範囲に含まれる。
線方向の追従において、誤認識が減少し、高精度な画像
処理を実現させることができる。
実施例。
示す図。
示す図。
図。
面および垂直面に対する角度として示した図。
車の機能ブロック図。
Claims (6)
- 【請求項1】ユーザの顔を撮影する複数のカメラと、 前記カメラの画像出力から顔の向きを検出する検出手段
と、 前記カメラの画像出力に撮影されている目周辺の画像領
域から前記ユーザの目が開いているかどうかを検出する
手段と、 前記ユーザの目が開いていることに応答して、前記カメ
ラの画像出力から前記ユーザの視線方向を検出する手段
と、を備える顔・視線認識装置。 - 【請求項2】前記目が開いているかどうかを検出する手
段は、前記目周辺の画像領域に含まれる水平方向エッジ
を検出し、該画像領域に含まれている水平方向エッジの
割合に応じて、目が開いているかどうかを検出する請求
項1に記載の顔・視線認識装置。 - 【請求項3】前記顔向き検出手段は、 特徴的な顔の部分に相当する1つまたは複数の特徴点の
それぞれについて用意された複数のテンプレートから、
顔向きに応じて各特徴点のために1つのテンプレートを
選択する手段と、 前記選択されたテンプレートをそれぞれ使用して、前記
画像出力から前記特徴点に対応する1つまたは複数の画
像領域を抽出する手段と、を備え、 前記抽出された1つまたは複数の画像領域に基づいて、
前記ユーザの顔向きを検出する請求項1に記載の顔・視
線認識装置。 - 【請求項4】前記テンプレートの選択手段は、前回の画
像出力から検出された顔向きに基づいて、今回の画像出
力のために前記複数のテンプレートから1つのテンプレ
ートを選択する請求項3に記載の顔・視線認識装置。 - 【請求項5】前記画像領域抽出手段は、前回の画像出力
から検出された顔向きに基づいて今回の画像出力に撮影
されていない特徴点を判断し、 撮影されていない特徴点に対応する画像領域の抽出を処
理しない請求項3に記載の顔・視線認識装置。 - 【請求項6】前記カメラの画像出力は、近赤外画像であ
り、 前記視線方向の検出手段は、目周辺の画像領域の明暗か
ら瞳孔の位置を検出し、検出された瞳孔の中心位置と眼
球の中心位置から視線方向を検出する請求項1に記載の
顔・視線認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001197915A JP4898026B2 (ja) | 2001-06-29 | 2001-06-29 | ステレオカメラを使用した顔・視線認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001197915A JP4898026B2 (ja) | 2001-06-29 | 2001-06-29 | ステレオカメラを使用した顔・視線認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003015816A true JP2003015816A (ja) | 2003-01-17 |
JP4898026B2 JP4898026B2 (ja) | 2012-03-14 |
Family
ID=19035443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001197915A Expired - Fee Related JP4898026B2 (ja) | 2001-06-29 | 2001-06-29 | ステレオカメラを使用した顔・視線認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4898026B2 (ja) |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004259043A (ja) * | 2003-02-26 | 2004-09-16 | Toyota Motor Corp | 向き方向検出装置および向き方向検出方法 |
JP2005063041A (ja) * | 2003-08-08 | 2005-03-10 | Olympus Corp | 3次元モデリング装置、方法、及びプログラム |
JP2005078311A (ja) * | 2003-08-29 | 2005-03-24 | Fujitsu Ltd | 顔部位の追跡装置、眼の状態判定装置及びコンピュータプログラム |
JP2005141655A (ja) * | 2003-11-10 | 2005-06-02 | Olympus Corp | 3次元モデリング装置及び3次元モデリング方法 |
JP2005182452A (ja) * | 2003-12-19 | 2005-07-07 | Tokai Rika Co Ltd | 顔の向き検知装置 |
JP2006141862A (ja) * | 2004-11-24 | 2006-06-08 | Saga Univ | 視線方向特定システム |
JP2006177937A (ja) * | 2004-11-26 | 2006-07-06 | Denso It Laboratory Inc | 距離計測装置及び距離計測方法 |
JP2006227736A (ja) * | 2005-02-15 | 2006-08-31 | Toyota Motor Corp | 画像処理装置及び画像処理方法 |
JP2006227734A (ja) * | 2005-02-15 | 2006-08-31 | Toyota Motor Corp | 画像処理装置及び画像処理方法 |
JP2006244385A (ja) * | 2005-03-07 | 2006-09-14 | Fuji Photo Film Co Ltd | 顔判別装置およびプログラム並びに顔判別装置の学習方法 |
JP2006343859A (ja) * | 2005-06-07 | 2006-12-21 | Toyota Motor Corp | 画像処理装置及び画像処理方法 |
JP2007006427A (ja) * | 2005-05-27 | 2007-01-11 | Hitachi Ltd | 映像監視装置 |
JP2007310828A (ja) * | 2006-05-22 | 2007-11-29 | Central Res Inst Of Electric Power Ind | 電線異常検出方法、電線異常検出装置及び電線異常検出プログラム |
WO2008007781A1 (fr) | 2006-07-14 | 2008-01-17 | Panasonic Corporation | Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle |
JP2008136789A (ja) * | 2006-12-05 | 2008-06-19 | Nec Corp | 眼球パラメータ推定装置及び方法 |
JP2009087250A (ja) * | 2007-10-02 | 2009-04-23 | Canon Inc | 画像処理装置及び画像処理方法 |
JP2009104524A (ja) * | 2007-10-25 | 2009-05-14 | Hitachi Ltd | 視線方向計測方法および視線方向計測装置 |
JP2009103709A (ja) * | 2003-11-21 | 2009-05-14 | Siemens Corporate Res Inc | ステレオ検出器を訓練する方法 |
JP2009266155A (ja) * | 2008-04-30 | 2009-11-12 | Toshiba Corp | 移動体追跡装置及びその方法 |
JP2010020594A (ja) * | 2008-07-11 | 2010-01-28 | Kddi Corp | 瞳画像認識装置 |
WO2010010926A1 (ja) * | 2008-07-24 | 2010-01-28 | 国立大学法人静岡大学 | 特徴点追跡方法及び特徴点追跡装置 |
JP2010134608A (ja) * | 2008-12-03 | 2010-06-17 | Omron Corp | 検出装置および方法、並びに、プログラム |
US7835549B2 (en) | 2005-03-07 | 2010-11-16 | Fujifilm Corporation | Learning method of face classification apparatus, face classification method, apparatus and program |
JP2011034580A (ja) * | 2010-10-12 | 2011-02-17 | Oki Electric Industry Co Ltd | 個人認証システム及び個人認証方法 |
JP2011044160A (ja) * | 2005-12-12 | 2011-03-03 | Sony Computer Entertainment Inc | コンピュータプログラムとのインタフェース時に深さと方向の検出を可能とする方法およびシステム |
JP2011243141A (ja) * | 2010-05-21 | 2011-12-01 | Nec System Technologies Ltd | 操作情報処理装置、方法及びプログラム |
US8199190B2 (en) | 2007-05-09 | 2012-06-12 | Toyota Jidosha Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2012123515A (ja) * | 2010-12-07 | 2012-06-28 | Denso Corp | 顔向き検出装置 |
US8885882B1 (en) | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
JP2014210076A (ja) * | 2013-04-19 | 2014-11-13 | 株式会社ユニバーサルエンターテインメント | 遊技機および遊技機の管理方法 |
JP2015075916A (ja) * | 2013-10-09 | 2015-04-20 | アイシン精機株式会社 | 顔検出装置、方法およびプログラム |
JP2015517239A (ja) * | 2012-03-12 | 2015-06-18 | アルカテル−ルーセント | ビデオインターフェースを制御するための方法、ビデオインターフェースを動作させるための方法、顔向き検出器、およびビデオ会議サーバ |
JP2015176273A (ja) * | 2014-03-14 | 2015-10-05 | オムロン株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
JP2015194838A (ja) * | 2014-03-31 | 2015-11-05 | 株式会社国際電気通信基礎技術研究所 | 視線方向推定装置および視線方向推定方法 |
WO2017122299A1 (ja) * | 2016-01-13 | 2017-07-20 | フォーブ インコーポレーテッド | 表情認識システム、表情認識方法及び表情認識プログラム |
WO2017195405A1 (ja) * | 2016-05-11 | 2017-11-16 | ソニー株式会社 | 画像処理装置及び画像処理方法、並びに移動体 |
CN110099254A (zh) * | 2019-05-21 | 2019-08-06 | 浙江师范大学 | 一种驾驶员人脸跟踪装置及方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102463169B1 (ko) | 2015-09-07 | 2022-11-04 | 삼성전자주식회사 | 시점 추적 방법 및 장치 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02138673A (ja) * | 1988-07-14 | 1990-05-28 | A T R Tsushin Syst Kenkyusho:Kk | 瞳孔画像撮影装置 |
JPH07244556A (ja) * | 1994-03-04 | 1995-09-19 | Hitachi Ltd | 情報端末 |
JPH09259284A (ja) * | 1996-03-22 | 1997-10-03 | Nissan Motor Co Ltd | 車両運転者の顔位置及び眼位置検出装置 |
JPH1020998A (ja) * | 1996-06-28 | 1998-01-23 | Osaka Kagaku Gijutsu Center | 位置指示装置 |
JPH11212715A (ja) * | 1998-01-29 | 1999-08-06 | Shimadzu Corp | 視線入力装置 |
JP2000123188A (ja) * | 1998-10-20 | 2000-04-28 | Toyota Motor Corp | 眼開閉判定装置 |
JP2000132693A (ja) * | 1998-10-27 | 2000-05-12 | Sony Corp | 画像処理装置および方法、並びに提供媒体 |
JP2000138872A (ja) * | 1998-10-30 | 2000-05-16 | Sony Corp | 情報処理装置および方法、並びに提供媒体 |
JP2000311238A (ja) * | 1999-04-28 | 2000-11-07 | Niles Parts Co Ltd | 眼の開度検出装置 |
JP2001043382A (ja) * | 1999-07-27 | 2001-02-16 | Fujitsu Ltd | 目追跡装置 |
-
2001
- 2001-06-29 JP JP2001197915A patent/JP4898026B2/ja not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02138673A (ja) * | 1988-07-14 | 1990-05-28 | A T R Tsushin Syst Kenkyusho:Kk | 瞳孔画像撮影装置 |
JPH07244556A (ja) * | 1994-03-04 | 1995-09-19 | Hitachi Ltd | 情報端末 |
JPH09259284A (ja) * | 1996-03-22 | 1997-10-03 | Nissan Motor Co Ltd | 車両運転者の顔位置及び眼位置検出装置 |
JPH1020998A (ja) * | 1996-06-28 | 1998-01-23 | Osaka Kagaku Gijutsu Center | 位置指示装置 |
JPH11212715A (ja) * | 1998-01-29 | 1999-08-06 | Shimadzu Corp | 視線入力装置 |
JP2000123188A (ja) * | 1998-10-20 | 2000-04-28 | Toyota Motor Corp | 眼開閉判定装置 |
JP2000132693A (ja) * | 1998-10-27 | 2000-05-12 | Sony Corp | 画像処理装置および方法、並びに提供媒体 |
JP2000138872A (ja) * | 1998-10-30 | 2000-05-16 | Sony Corp | 情報処理装置および方法、並びに提供媒体 |
JP2000311238A (ja) * | 1999-04-28 | 2000-11-07 | Niles Parts Co Ltd | 眼の開度検出装置 |
JP2001043382A (ja) * | 1999-07-27 | 2001-02-16 | Fujitsu Ltd | 目追跡装置 |
Cited By (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004259043A (ja) * | 2003-02-26 | 2004-09-16 | Toyota Motor Corp | 向き方向検出装置および向き方向検出方法 |
JP2005063041A (ja) * | 2003-08-08 | 2005-03-10 | Olympus Corp | 3次元モデリング装置、方法、及びプログラム |
JP2005078311A (ja) * | 2003-08-29 | 2005-03-24 | Fujitsu Ltd | 顔部位の追跡装置、眼の状態判定装置及びコンピュータプログラム |
JP2005141655A (ja) * | 2003-11-10 | 2005-06-02 | Olympus Corp | 3次元モデリング装置及び3次元モデリング方法 |
JP2009169957A (ja) * | 2003-11-21 | 2009-07-30 | Siemens Corporate Res Inc | イメージの対をテストする方法 |
JP2009150900A (ja) * | 2003-11-21 | 2009-07-09 | Siemens Corporate Res Inc | リアルタイムの頭部ポーズ検出において使用するためのデータベースシステム |
JP2009103709A (ja) * | 2003-11-21 | 2009-05-14 | Siemens Corporate Res Inc | ステレオ検出器を訓練する方法 |
JP2005182452A (ja) * | 2003-12-19 | 2005-07-07 | Tokai Rika Co Ltd | 顔の向き検知装置 |
JP4654434B2 (ja) * | 2004-11-24 | 2011-03-23 | 国立大学法人佐賀大学 | 視線方向特定システム |
JP2006141862A (ja) * | 2004-11-24 | 2006-06-08 | Saga Univ | 視線方向特定システム |
JP2006177937A (ja) * | 2004-11-26 | 2006-07-06 | Denso It Laboratory Inc | 距離計測装置及び距離計測方法 |
JP2006227734A (ja) * | 2005-02-15 | 2006-08-31 | Toyota Motor Corp | 画像処理装置及び画像処理方法 |
JP4692006B2 (ja) * | 2005-02-15 | 2011-06-01 | トヨタ自動車株式会社 | 画像処理装置及び画像処理方法 |
JP2006227736A (ja) * | 2005-02-15 | 2006-08-31 | Toyota Motor Corp | 画像処理装置及び画像処理方法 |
JP2006244385A (ja) * | 2005-03-07 | 2006-09-14 | Fuji Photo Film Co Ltd | 顔判別装置およびプログラム並びに顔判別装置の学習方法 |
US7835549B2 (en) | 2005-03-07 | 2010-11-16 | Fujifilm Corporation | Learning method of face classification apparatus, face classification method, apparatus and program |
JP2007006427A (ja) * | 2005-05-27 | 2007-01-11 | Hitachi Ltd | 映像監視装置 |
JP4622702B2 (ja) * | 2005-05-27 | 2011-02-02 | 株式会社日立製作所 | 映像監視装置 |
JP2006343859A (ja) * | 2005-06-07 | 2006-12-21 | Toyota Motor Corp | 画像処理装置及び画像処理方法 |
JP2011044160A (ja) * | 2005-12-12 | 2011-03-03 | Sony Computer Entertainment Inc | コンピュータプログラムとのインタフェース時に深さと方向の検出を可能とする方法およびシステム |
JP2007310828A (ja) * | 2006-05-22 | 2007-11-29 | Central Res Inst Of Electric Power Ind | 電線異常検出方法、電線異常検出装置及び電線異常検出プログラム |
WO2008007781A1 (fr) | 2006-07-14 | 2008-01-17 | Panasonic Corporation | Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle |
US8406479B2 (en) | 2006-07-14 | 2013-03-26 | Panasonic Corporation | Visual axis direction detection device and visual line direction detection method |
JP5137833B2 (ja) * | 2006-07-14 | 2013-02-06 | パナソニック株式会社 | 視線方向検出装置および視線方向検出方法 |
JPWO2008007781A1 (ja) * | 2006-07-14 | 2009-12-10 | パナソニック株式会社 | 視線方向検出装置および視線方向検出方法 |
JP2008136789A (ja) * | 2006-12-05 | 2008-06-19 | Nec Corp | 眼球パラメータ推定装置及び方法 |
US8077217B2 (en) | 2006-12-05 | 2011-12-13 | Nec Corporation | Eyeball parameter estimating device and method |
US8199190B2 (en) | 2007-05-09 | 2012-06-12 | Toyota Jidosha Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2009087250A (ja) * | 2007-10-02 | 2009-04-23 | Canon Inc | 画像処理装置及び画像処理方法 |
JP2009104524A (ja) * | 2007-10-25 | 2009-05-14 | Hitachi Ltd | 視線方向計測方法および視線方向計測装置 |
JP2009266155A (ja) * | 2008-04-30 | 2009-11-12 | Toshiba Corp | 移動体追跡装置及びその方法 |
JP2010020594A (ja) * | 2008-07-11 | 2010-01-28 | Kddi Corp | 瞳画像認識装置 |
JPWO2010010926A1 (ja) * | 2008-07-24 | 2012-01-05 | 国立大学法人静岡大学 | 特徴点追跡方法及び特徴点追跡装置 |
WO2010010926A1 (ja) * | 2008-07-24 | 2010-01-28 | 国立大学法人静岡大学 | 特徴点追跡方法及び特徴点追跡装置 |
JP5429885B2 (ja) * | 2008-07-24 | 2014-02-26 | 国立大学法人静岡大学 | 特徴点追跡方法及び特徴点追跡装置 |
JP2010134608A (ja) * | 2008-12-03 | 2010-06-17 | Omron Corp | 検出装置および方法、並びに、プログラム |
JP2011243141A (ja) * | 2010-05-21 | 2011-12-01 | Nec System Technologies Ltd | 操作情報処理装置、方法及びプログラム |
JP2011034580A (ja) * | 2010-10-12 | 2011-02-17 | Oki Electric Industry Co Ltd | 個人認証システム及び個人認証方法 |
JP2012123515A (ja) * | 2010-12-07 | 2012-06-28 | Denso Corp | 顔向き検出装置 |
US8885882B1 (en) | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
JP2015517239A (ja) * | 2012-03-12 | 2015-06-18 | アルカテル−ルーセント | ビデオインターフェースを制御するための方法、ビデオインターフェースを動作させるための方法、顔向き検出器、およびビデオ会議サーバ |
US9402053B2 (en) | 2012-03-12 | 2016-07-26 | Alcatel Lucent | Method for control of a video interface, method for operation of a video interface, face orientation detector, and video conferencing server |
JP2014210076A (ja) * | 2013-04-19 | 2014-11-13 | 株式会社ユニバーサルエンターテインメント | 遊技機および遊技機の管理方法 |
JP2015075916A (ja) * | 2013-10-09 | 2015-04-20 | アイシン精機株式会社 | 顔検出装置、方法およびプログラム |
JP2015176273A (ja) * | 2014-03-14 | 2015-10-05 | オムロン株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
JP2015194838A (ja) * | 2014-03-31 | 2015-11-05 | 株式会社国際電気通信基礎技術研究所 | 視線方向推定装置および視線方向推定方法 |
WO2017122299A1 (ja) * | 2016-01-13 | 2017-07-20 | フォーブ インコーポレーテッド | 表情認識システム、表情認識方法及び表情認識プログラム |
JPWO2017122299A1 (ja) * | 2016-01-13 | 2018-11-15 | フォーブ インコーポレーテッド | 表情認識システム、表情認識方法及び表情認識プログラム |
WO2017195405A1 (ja) * | 2016-05-11 | 2017-11-16 | ソニー株式会社 | 画像処理装置及び画像処理方法、並びに移動体 |
JPWO2017195405A1 (ja) * | 2016-05-11 | 2019-03-07 | ソニー株式会社 | 画像処理装置及び画像処理方法、並びに移動体 |
CN110099254A (zh) * | 2019-05-21 | 2019-08-06 | 浙江师范大学 | 一种驾驶员人脸跟踪装置及方法 |
CN110099254B (zh) * | 2019-05-21 | 2023-08-25 | 浙江师范大学 | 一种驾驶员人脸跟踪装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
JP4898026B2 (ja) | 2012-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4898026B2 (ja) | ステレオカメラを使用した顔・視線認識装置 | |
US11699293B2 (en) | Neural network image processing apparatus | |
JP6695503B2 (ja) | 車両の運転者の状態を監視するための方法及びシステム | |
US7227976B1 (en) | Method and system for real-time facial image enhancement | |
JP5016175B2 (ja) | 顔画像処理システム | |
JP4546956B2 (ja) | 奥行き検出を用いた対象の向きの推定 | |
Ji | 3D face pose estimation and tracking from a monocular camera | |
EP1687754B1 (en) | System and method for detecting an occupant and head pose using stereo detectors | |
WO2022095440A1 (zh) | 面向自动驾驶的人机协同感知方法及系统 | |
JP6822482B2 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
Borghi et al. | Hands on the wheel: a dataset for driver hand detection and tracking | |
WO2019067903A1 (en) | HEAD POSTURE ESTIMATION FROM A LOCAL EYE REGION | |
EP3506149A1 (en) | Method, system and computer program product for eye gaze direction estimation | |
US20210056291A1 (en) | Method for analysis of an intrinsic facial feature of a face | |
Gurbuz et al. | Model free head pose estimation using stereovision | |
JP2002274265A (ja) | ミラー調整装置 | |
CN112183200B (zh) | 一种基于视频图像的眼动追踪方法和系统 | |
US11048926B2 (en) | Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms | |
Wallhoff et al. | Multimodal face detection, head orientation and eye gaze tracking | |
JPH11283040A (ja) | 操作制御装置および動作解析プログラムを記録したコンピュ―タ読み取り可能な記録媒体 | |
JP7103443B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Miyachi et al. | Development of Mouse System for Physically Disabled Person by Face Movement Using Kinect | |
Valenti et al. | Simple and efficient visual gaze estimation | |
KR20010001021A (ko) | 눈 깜빡임을 이용한 졸음 감지 방법 및 졸음 레벨 검출 전처리과정에서의 변형되는 눈 영역 추적 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100618 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110706 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110706 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20110824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111206 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111226 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150106 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |