JP2006285531A - 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の視線方法を実行させるためのプログラム - Google Patents

視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の視線方法を実行させるためのプログラム Download PDF

Info

Publication number
JP2006285531A
JP2006285531A JP2005103168A JP2005103168A JP2006285531A JP 2006285531 A JP2006285531 A JP 2006285531A JP 2005103168 A JP2005103168 A JP 2005103168A JP 2005103168 A JP2005103168 A JP 2005103168A JP 2006285531 A JP2006285531 A JP 2006285531A
Authority
JP
Japan
Prior art keywords
center
eyeball
projection
reference points
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005103168A
Other languages
English (en)
Other versions
JP4682372B2 (ja
Inventor
Shinjiro Kawato
慎二郎 川戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005103168A priority Critical patent/JP4682372B2/ja
Publication of JP2006285531A publication Critical patent/JP2006285531A/ja
Application granted granted Critical
Publication of JP4682372B2 publication Critical patent/JP4682372B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】 1つのカメラより撮影された画像情報に基づいて、リアルタイムに視線を追跡する視線方向の推定装置を提供する。
【解決手段】 視線方向の検出装置は、カメラにより撮影された対象画像領域内において、虹彩を抽出し虹彩中心位置を算出するステップ(S204)と、対象画像領域内において、複数の参照点の投影位置を検出し、複数の較正用画像内の参照点の投影位置に基づいて、人間の眼球中心の投影位置を推定するステップ(S206)と、抽出された虹彩中心位置と推定された眼球中心の投影位置とに基づいて、視線を推定するステップ(S208)という各処理を行う。
【選択図】 図7

Description

この発明はカメラ等からの画像を処理する画像処理に関し、特に、画像中の人物の視線方向を検出するための画像認識の分野に関する。
人物の視線方向の検出は、マンマシンインタフェースの1つの方法として従来研究されてきた。
一方、たとえば、痴呆患者の介護者にとって、患者が例えばビデオ映像に心を集中してじっとしていてくれる時間が増えれば、負荷が軽減される。そこで、ビデオ映像を見ている患者をカメラで観察し、飽きてきたようすがみられたならばビデオの内容を切り替えて、引き続き興味を惹きつけ、じっとしている時間をより長くする方策が考えられる。患者がビデオ映像に心を集中しているかどうかは、たとえば、患者の目を検出追跡し、視線方向の時系列データを解析することにより判定できる可能性がある。
そして、視線検出についてはすでにさまざまな手法が提案されている(たとえば、非特許文献1を参照)。
ただし、たとえば、上述したような応用を考える場合は、対象が痴呆患者であり、非装着型のシステムとすることが前提となる。たとえば、2眼ステレオ方式で精度の高い実時間視線検出を実現した報告がある(たとえば、非特許文献2を参照)。しかし、2眼ステレオ方式では作動範囲が2つのカメラの共通視野領域に限定されるため、あらかじめ対象者の位置を限定できない場合には使いにくい。
そこで、対象者がビデオ映像装置から数mの範囲ならどの位置にいてもパン、チルト、ズームを制御して顔画像を得ることができるものとして、1台のビデオカメラの画像から、視線方向を推定する手法としては、従来、以下のような報告がある。
たとえば、顔の向きの変化にも対応するため、左右の目尻と口の両端(口角)から形成される台形を利用して顔の向きを推定すると同時に、両目尻の中点と左右の虹彩の中点の差から正面視からの目の片寄り量を推定し、両方合わせて視線方向を推定する原理を示した報告や(非特許文献3を参照)、眼球の幾何学的モデルから、両目尻ではなく、二つの眼球の中心を結ぶ直線が顔表面と交差する左右の2点(具体的には顔側面の目尻より少し上後方の点、以下、「三宅特徴点」と呼ぶ)を参照点とすれば、画像上のその中点と左右の虹彩の中点から、顔の向きに関係なく視線方向が計算できることを示し、実験でもよい結果を得た報告もある(非特許文献4を参照)。しかし、二つの三宅特徴点を画像から決定することは難しく、実験では人為的なマークを貼付し利用している。
なお、以下に説明する本発明の視線方向の検知方法においては、画像中からまず人物の顔を検出する。そこで、従来の画像中からの顔の検出手法の従来技術については、以下のようなものがある。
つまり、これまでに、肌色情報を用いた顔検出システムや、色情報を用いない(濃淡情報を用いる)顔検出手法では、テンプレートマッチングやニューラルネットワーク等の学習的手法を利用した手法については報告が数多くなされている。
たとえば、本発明の発明者も、安定性が高く、かつ実時間での顔の追跡が可能な手法として、安定した顔の特徴点として両目の間の点(以下では眉間(Between−the−Eyes)と呼ぶ)に着目し、眉間の周囲は、額部と鼻筋は相対的に明るく、両サイドの目と眉の部分は暗いパターンになっており、それを検出するリング周波数フィルタを用いるとの手法を提案している(たとえば、非特許文献5、特許文献1を参照)。
さらに、本発明の発明者は、他の手法として、たとえば、人間の顔領域を含む対象画像領域内の各画素の値のデジタルデータを準備して、順次、対象となる画像領域内において、6つの矩形形状の結合した眉間検出フィルタによるフィルタリング処理により眉間候補点の位置を抽出し、抽出された眉間候補点の位置を中心として、所定の大きさで対象画像を切り出し、パターン判別処理に応じて、眉間候補点のうちから真の候補点を選択する、というような顔を検出する方法も提案している(たとえば、特許文献2を参照)。
さらに、本発明の発明者らは、顔画像中から鼻位置をリアルタイムで追跡する手法についても報告している(たとえば、非特許文献6を参照)。
特開2001−52176号公報明細書 特開2004−185611号公報明細書 大野健彦:視線を用いたインターフェース、情報処理、Vol.44、 No.7、pp.726−732(2003) 松本吉央、小笠原司、Zelinsky,A.:リアルタイム視線検出・動作認識システムの開発、信学技報PRMU99−151、pp.9−14 (1999) 青山宏、河越正弘:顔の面対称性を利用した視線感知法、情処研報89−CV−61、pp.1-8(1989) 三宅哲夫、春田誠司、堀畑聡:顔の向きに依存しない特徴量を用いた注視判定法、信学論(D−II)、Vol.J86−D-II、No.12、 pp.1737−1744(2003) 川戸慎二郎、鉄谷信二、"リング周波数フィルタを利用した眉間の実時間検出"信学論(D−II),vol.J84−D−II,no12,pp.2577−2584,Dec.2001. 川戸慎二郎、鉄谷信二:鼻位置の検出とリアルタイム追跡:信学技報IE2002−263、pp.25−29(2003)
以上説明したような視線検出の方法は、1つのカメラより撮影された画像を用いる場合に、リアルタイムに視線を精度よく追跡する方法や装置については、必ずしもどのようにして実現すればよいかが明確となっていない、という問題があった。
それゆえに本発明の目的は、1つのカメラより撮影された画像情報に基づいて、リアルタイムに視線を追跡する視線方向の検知装置、視線方向の検知方法およびコンピュータに当該視線方向の検知方法を実行させるためのプログラムを提供することである。
この発明のある局面に従うと、視線方向の検知装置であって、複数の参照点が関連付けられた人間の顔領域を含む対象画像領域内の各画素に対応する画像データを撮影して獲得するための撮影手段と、人間が撮影手段を見ている状態で撮影手段により撮影された複数の較正用画像を予め取得する較正画像取得手段と、撮影手段により撮影された対象画像領域内において複数の参照点の投影位置を検出し、複数の較正用画像内の参照点の投影位置に基づいて、人間の眼球中心の投影位置を推定する眼球中心推定手段と、対象画像領域内において、虹彩を抽出し虹彩中心位置を算出する虹彩中心抽出手段と、抽出された虹彩中心位置と推定された眼球中心の投影位置とに基づいて、視線を推定する視線推定手段とを備える。
好ましくは、眼球中心推定手段は、複数の較正用画像内の複数の参照点の投影位置を結ぶ複数の線形独立なベクトルの線形結合により、較正用画像内の眼球中心の投影位置を表現するための線形結合定数を算出する眼球中心表現算出手段と、撮影手段により撮影された対象画像領域内において検出された複数の参照点と線形結合定数とにより、眼球中心の投影位置を推定する推定演算手段とを含む。
この発明の他の局面に従うと、視線方向の検出方法であって、複数の参照点が関連付けられた人間の顔領域を含む対象画像領域内の各画素に対応する画像データを撮影手段により撮影して準備するステップと、人間が撮影手段を見ている状態で撮影手段により撮影された複数の較正用画像を予め取得するステップと、撮影手段により撮影された対象画像領域内において複数の参照点の投影位置を検出し、複数の較正用画像内の参照点の投影位置に基づいて、人間の眼球中心の投影位置を推定するステップと、対象画像領域内において、虹彩を抽出し虹彩中心位置を算出するステップと、抽出された虹彩中心位置と推定された眼球中心の投影位置とに基づいて、視線を推定するステップとを備える。
好ましくは、複数の較正用画像内の複数の参照点の投影位置を結ぶ複数の線形独立なベクトルの線形結合により、較正用画像内の眼球中心の投影位置を表現するための線形結合定数を算出するステップをさらに備え、眼球中心の投影位置を推定するステップは、撮影手段により撮影された対象画像領域内において検出された複数の参照点と線形結合定数とにより、眼球中心の投影位置を推定するステップを含む。
この発明のさらに他の局面に従うと、コンピュータに、対象となる画像領域内の顔について視線方向の検出方法を実行させるためのプログラムであって、プログラムは、複数の参照点が関連付けられた人間の顔領域を含む対象画像領域内の各画素に対応する画像データを撮影手段により撮影して準備するステップと、人間が撮影手段を見ている状態で撮影手段により撮影された複数の較正用画像を予め取得するステップと、撮影手段により撮影された対象画像領域内において複数の参照点の投影位置を検出し、複数の較正用画像内の参照点の投影位置に基づいて、人間の眼球中心の投影位置を推定するステップと、対象画像領域内において、虹彩を抽出し虹彩中心位置を算出するステップと、抽出された虹彩中心位置と推定された眼球中心の投影位置とに基づいて、視線を推定するステップとを備える。
好ましくは、プログラムは、複数の較正用画像内の複数の参照点の投影位置を結ぶ複数の線形独立なベクトルの線形結合により、較正用画像内の眼球中心の投影位置を表現するための線形結合定数を算出するステップをさらに備え、眼球中心の投影位置を推定するステップは、撮影手段により撮影された対象画像領域内において検出された複数の参照点と線形結合定数とにより、眼球中心の投影位置を推定するステップを含む。
[実施の形態1]
[ハードウェア構成]
以下、本発明の実施の形態にかかる「視線方向の検知装置」について説明する。この視線方向の検知装置は、パーソナルコンピュータまたはワークステーション等、コンピュータ上で実行されるソフトウェアにより実現されるものであって、対象画像から人物の顔を抽出し、さらに人物の顔の映像に基づいて、視線方向を推定・検出するためのものである。図1に、この視線方向の検知装置の外観を示す。
図1を参照して、この視線方向の検知装置を構成するシステム20は、CD−ROM(Compact Disc Read-Only Memory)またはDVD−ROM(Digital Versatile Disc Read-Only Memory)ドライブ(以下、「光学ディスクドライブ」と呼ぶ)50、あるいはFD(Flexible Disk )ドライブ52のような記録媒体からデータを読み取るためのドライブ装置を備えたコンピュータ本体40と、コンピュータ本体40に接続された表示装置としてのディスプレイ42と、同じくコンピュータ本体40に接続された入力装置としてのキーボード46およびマウス48と、コンピュータ本体40に接続された、画像を取込むためのカメラ30とを含む。この実施の形態の装置では、カメラ30としてはCCD(Charge Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconduct-or)センサのような固体撮像素子を含むカメラを用い、カメラ30の前にいてこのシステム20を操作する人物の顔の位置および視線を推定・検出する処理を行うものとする。
すなわち、カメラ30により、人間の顔領域を含む画像であって対象となる画像領域内の各画素の値のデジタルデータが準備される。
図2は、カメラ30により撮影された画像に基づいて、コンピュータ本体40の処理結果がディスプレイ42に表示される一例を示す図である。
図2に示すように、カメラ30で撮影された画像は、ディスプレイ42の撮影画像表示領域200にリアルタイムに動画として表示される。特に限定されないが、たとえば、撮影画像表示領域200上に、視線方向を示す指標として、垂直な線を表示してもよい。すなわち、このように垂直な線のみを指標として表示する場合は、視線方向が中央から右を向いているか、あるいは左を向いているかのみを検出して、この指標のディスプレイの中央位置からのずれとして表示していることになる。
図3に、このシステム20の構成をブロック図形式で示す。図3に示されるようにこのシステム20を構成するコンピュータ本体40は、光学ディスクドライブ50およびFDドライブ52に加えて、それぞれバス66に接続されたCPU(Central Processing Unit )56と、ROM(Read Only Memory) 58と、RAM (Random Access Memory)60と、ハードディスク54と、カメラ30からの画像を取込むための画像取込装置68とを含んでいる。光学ディスクドライブ50にはCD−ROM(またはDVD−ROM)62が装着される。FDドライブ52にはFD64が装着される。
既に述べたようにこの視線方向の検知装置の主要部は、コンピュータハードウェアと、CPU56により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアはCD−ROM(またはDVD−ROM)62、FD64等の記憶媒体に格納されて流通し、光学ドライブ50またはFDドライブ52等により記憶媒体から読取られてハードディスク54に一旦格納される。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから一旦ハードディスク54にコピーされる。そうしてさらにハードディスク54からRAM60に読出されてCPU56により実行される。なお、ネットワーク接続されている場合には、ハードディスク54に格納することなくRAM60に直接ロードして実行するようにしてもよい。
図1および図3に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分は、CD−ROM(またはDVD−ROM)62、FD64、ハードディスク54等の記憶媒体に記憶されたソフトウェアである。
なお、最近の一般的傾向として、コンピュータのオペレーティングシステムの一部として様々なプログラムモジュールを用意しておき、アプリケーションプログラムはこれらモジュールを所定の配列で必要な時に呼び出して処理を進める方式が一般的である。そうした場合、当該視線方向の検知装置を実現するためのソフトウェア自体にはそうしたモジュールは含まれず、当該コンピュータでオペレーティングシステムと協働してはじめて視線方向の検知装置が実現することになる。しかし、一般的なプラットフォームを使用する限り、そうしたモジュールを含ませたソフトウェアを流通させる必要はなく、それらモジュールを含まないソフトウェア自体およびそれらソフトウェアを記録した記録媒体(およびそれらソフトウェアがネットワーク上を流通する場合のデータ信号)が実施の形態を構成すると考えることができる。
[視線方向の推定処理の動作]
以下では、本発明による視線の検知方法について説明する。
以下では、1つのカメラ30により撮影された画像において、ユーザの目の虹彩の中心位置の検出に加えて、ユーザの顔に添付されたマーカ(または自然特徴点)、あるいは、めがねに固定されたマーカの検出により眼球中心位置の推定を行うことにより、視線検出を行う。
(シングルカメラによる視線計測)
以下では、まず、本発明の視線方向の検出方法を説明する前提として、ビデオ画像から眼球中心の位置を推定するための原理について説明しておく。
(画像上の任意の投影点の位置の推定)
3次元空間上の点をベクトルXiを以下のように表す。
3次元の物体上で同一平面上にはない4点X0,X1,X2,X3を定めると、ベクトル(X1−X0),(X2−X0),(X3−X0)は一次独立(線形独立)で、物体上の任意の点Xrに対して、以下の関係を満たすような線形結合定数α、β、γが存在する。
物体の回転や並進移動によって、点X0,X1,X2,X3が点X0´,X1´,X2´,X3´に移動したとき、互いに相対位置関係は変化しないので、同じα、β、γを用いて、やはり、以下の関係が成り立つ。
式(1)、式(2)にはX0からの相対ベクトルしか現れないので、座標原点はどこにとっても問題ないが、便宜上、物体の重心を座標原点とし、以下では物体の回転のみを考える。
カメラは平行投影(正射影)モデルで考える。すなわち(x,y,z)Tは画像の座標(x,y)Tに投影(射影)されるとする。カメラから対象までの距離に比べて、対象の奥行き(z方向)が十分小さければ、カメラは平行投影モデルで近似しても誤差は小さいことが知られている。式(2)から、任意の姿勢の物体を観測した画像上で、以下の式(3)が常に成立する。
また、回転マトリクスを以下の式(4)で表す。
すると、物体の回転Rkによって点Xiは、以下の式(5)のように移動する。
物体に回転R0、R1、R2を施したときの画像上の観測点と、式(3)の関係から次の方程式(6)が成り立つ。
方程式(6)を解いて、一旦α、β、γが得られると任意の回転Rkを施した物体の観測において、点Xrが画像上で観測できなくても、X0,X1,X2,X3の観測座標(x0 k,y0 kT、(x1 k,y1 kT、(x2 k,y2 kT、(x3 k,y3 kTから、式(3)を用いて、以下の式(7)のように、点Xrの画像上の投影点を推定することができる。
以下では画像として現れないが計算によって得られる画像座標の点を投影点と呼ぶことがあるが、実質は画像上の点と同じである。
なお、方程式(6)が解けるためには、回転R0、R1、R2の回転軸の全てが平行であってはならない。
(視線推定の原理)
図4は、眼球中心、虹彩中心、および視線方向が画像面の法線とのなす角度との関係を示す概念図である。
以下では、「視線」は眼球中心と、虹彩中心を結ぶ直線であるとみなす。虹彩は画像として観測できるので、虹彩を円とみなしてその中心を画像処理により求めることができる。
一方、眼球中心は観測できないので、上述した画像上の任意の投影点の位置の推定法により、観測できる点X0,X1,X2,X3の観測点の線形結合で画像上の投影点を推定する。
視線方向は画像面内では眼球中心から虹彩中心へ向う方向で、画像面の法線とのなす角度θは、眼球半径をr、観測された眼球中心と虹彩中心の画像上の距離をdとすると、以下の式(8)のようになる。
ここで、眼球半径rの値は、解剖学的なモデルを用いてもいいし、別途キャリブレーションで求めてもよい。たとえば、解剖学的には、典型的には、成人では眼球半径は24mmであることが知られている。また、キャリブレーションとしては、ユーザの眼球から既知の距離にある平面上において、当該平面上の正面中央位置のマークとこの中央位置から所定距離だけ離れたマークとを、この平面に正対するユーザが見たときの虹彩中心のずれdを画像上で求めれば、式(8)から逆算して、眼球半径rを求めることができる。
眼球中心は、上述した点Xrに相当する。眼球中心を直接観測することはできないが、線形結合定数α、β、γを求めるためには、ユーザが画像内で回転R0、R1、R2を行ったとした時のユーザの眼球中心の投影座標を知る必要がある。そこで、眼球中心の投影座標が画像上にあらわれる特殊なケースを考える。
つまり、視線がカメラのレンズを向いているとき、レンズ中心、虹彩中心、眼球中心の3点は1直線上に並び、画像上、虹彩中心と眼球中心は同じ点に投影される。つまり、この特殊なケースでは眼球中心の投影座標は虹彩中心の画像座標として求まる。
そして、回転R0、R1、R2を行った場合について、線形結合定数α、β、γを求めておけば、任意の画像中において、眼球中心の位置を推定することが可能である。
図5は、画像上で、虹彩中心を求め、さらに、眼球中心を推定することで、視線方向を求めた場合を示す図である。
推定された眼球中心から虹彩中心へ向かう線分として視線方向が求まることになる。
以下では、画像上で虹彩中心および眼球中心を求めて、視線方向を検知する方法の手続きを説明する。
(初期設定処理)
図6は、視線検出システムの初期設定の処理のフローを説明するためのフローチャートである。
まず、図6を参照して、このような視線検出を行うためのシステム初期設定の処理について説明する。
まず、初期設定処理では、ユーザの目の近くに4つのマークを付けて、点X0,X1,X2,X3とする(S102)。
なお、以下の説明では、マークを用いるものとして説明するが、顔上の適切な自然特徴点を自動的に抽出、選択して利用することとしてもよい。このような自然特徴点としては、鼻の頂点、眉間の中央点、目尻、目頭、鼻孔中心、ホクロ、眉端等が想定される。自然特徴点のうちには、ユーザの表情により位置が動くものもあるが、このような表情の影響を無視する範囲では、マークの代わりとして用いることができる。以下、マークおよびこのような自然特徴点を総称して、「顔画像中の参照点」と呼ぶ。
参照点は、所定のマークを顔表面に貼付してもよいし、マークのついた眼鏡型のフレームを装着してもよい。自然特徴点を用いる場合は、互いに相対的位置が変化しないことが望ましいので、ユーザは顔表情を変化させないことが望まれる。あるいは表情が変ってもほとんど動かない点を自然特徴点として利用する必要がある。
次に、ユーザに対して、カメラの前で、カメラのレンズを見ながら顔の姿勢を回転軸が平行とならないように3回変化することを促す表示をして、画像(キャリブレーション用画像)を3枚撮る(S104)。
各画像から画像処理により各マーク点X0,X1,X2,X3を抽出し(S106)、さらに、虹彩中心の座標を抽出する(S108)。
このとき、虹彩中心の座標は眼球中心の座標とみなす。これで方程式(6)に必要なデータが得られる。
このような虹彩の中心位置の検出は、特に限定はされないが、たとえば、以下のような手続きで行うことができる。
1)ビデオ画像から顔を抽出し、目と鼻を追跡する。このような顔の検出と目と鼻の追跡アルゴリズムも、特に限定されないが、たとえば、上述した非特許文献5および非特許文献6で述べたものを使用することができる。
2)追跡された目と鼻の位置に関連するビデオ画像内の所定の領域内において、新たに円のフィッティングによる虹彩中心の抽出を行うことができる。つまり、目の位置が画像中で特定されているので、虹彩の概略位置は既知である。したがって、この虹彩の概略位置を含む所定の大きさの領域において、周辺に向かって暗から明に変化する点を輪郭点候補としてラプラシアンのゼロクロス法で抽出し、いわゆる「ハフ変換」で最適な円の半径と中心を決定する。この際、虹彩の上辺、下辺は瞼によって隠されることが多いので、円の上辺1/6、下辺1/6に相当する部分はハフ変換の際に投票しない。なお、このような「ハフ変換」については、たとえば、文献:川口 剛、モハメッド リゾン、日高 大輔 著、「ハフ変換と分離度フィルタによる人物顔からの両目の検出」電子情報通信学会論文誌 D−II Vol.J84-D-II No.10, pp.2190-2200 2001年10月に開示されている。
最後に、方程式(6)を解いて、線形結合定数α、β、γを求める(S110)。
(視線方向のリアルタイム検出)
図7は、視線検出システムが実行するリアルタイム視線検出の処理のフローを説明するためのフローチャートである。
図7を参照して、まず、任意の視線方向と顔の向きに対して、図6における初期設定と同じカメラで撮像し、マーク位置(マーカ)X0,X1,X2,X3を抽出し(S202)、さらに、上述したのと同様の方法で虹彩中心の座標を抽出する(S204)。
次に、式(7)により眼球中心の投影座標を計算する(S206)。
続いて、眼球中心の投影座標と、虹彩中心の画像座標から視線方向を計算する(S208)。追跡を継続する場合(S210)、処理はステップS202に復帰し、一方、追跡を終了する場合は、視線検出処理を終了する。
なお、キャリブレーション用画像を4枚以上撮影する場合、方程式(6)の等式の数が増えるが、そのような場合には最小自乗法を用いて最適な線形結合定数α、β、γを求めることができる。
(マーク配置例)
図8は、図6のステップS102におけるマーク配置の例を示す図である。
図8においては、主として眼鏡にマークを付けた場合を示している。
図8(a)のマーク配置は、マークを片眼の周囲に集中しているため、図8(b)(c)の場合に比べて撮像倍率を大きくとることができので、より精度の高い視線が得られる。しかし、図8(b)(c)に比べて、わずかに顔が動いただけでマークがカメラ視野からはずれるため、顔の可動範囲が狭く、ユーザはそれだけ拘束される。
図8(b)のマーク配置は4個以上のマークを用いている。メガネのツルに配置したマークは、顔が大きく横を向くと隠れることがあり、そのような場合でも観測できるマークを選択的に利用することにより視線計測が可能である。したがって、顔の向きや位置の許容度が高く、ユーザの拘束感は少なくなる。また、口の領域も画像として得られるため、必要に応じて、口のジェスチャーを同時にユーザインタフェース等として利用することができる。
図8(c)のマーク配置は、図8(b)よりも更に顔の向きや位置の許容度が広い。ただし、マークを鼻頭や眉間に貼付するため、ユーザには図8(b)よりも違和感が生じる可能性がある。
図8(b)および(c)のマーク配置では、両眼の視線を独立に計測できるので、片目が開眼の場合でも、開眼状態の方の目の視線を利用できる。また両目が開眼状態ならば、その平均を計算することにより精度を向上させることができる。
図8(b)および(c)のマーク配置のように、両目を観測できる場合、左右の虹彩中心の中点を仮想の虹彩中心と考えると、上述したキャリブレーション手順によって、左右の眼球中心の中点が仮想の眼球中心として求まり、仮想の眼球中心と仮想の虹彩中心を結ぶ直線も視線と考えることができる。この場合、両眼の情報を利用しているので片眼の情報から得られる視線より精度の高い視線が得られる。また、左右の目の視線を独立に計算してから平均をとるより計算が簡単である。
(キャリブレーション用画像の例)
図9は、図6のステップS104で撮影するキャリブレーション用画像の例を示す図である。
図9に示すように、ユーザが3種の異なった姿勢でカメラ30の方向を見ている画像をキャリブレーション用画像として撮影する。
(眼球中心推定の他の方法)
以上の説明では、式(7)により、眼球中心の位置を推定するものとして説明した。ただし、眼球中心を推定する方法としては、以下のような他方法を用いることもできる。
(他の方法1:中心投影モデルとシェイプ・フロム・モーション(Shape from Motion))
カメラとして中心投影モデルを考えると、2枚の画像8点の対応点がわかると、(大きな物体を遠くから撮像したものと小さな物体を近くから撮像したものは区別がつかないから)スケールをのぞいて、8点の3次元座標と、2枚の画像間での物体の回転、並進移動のパラメータを計算することができる(シェイプ・フロム・モーション(Shape from Motion)の理論)。対応点が9点以上ある場合、画像が3枚以上ある場合には最小自乗法による最適な推定アルゴリズムも知られている。
そこで、以下のような手続きが眼球中心の位置を推定することも可能である。
(1)8点の参照点を利用して、2枚のキャリブレーション画像(一枚を基準画像とする)から参照点と眼球中心の3次元座標を求めておく。
(2)視線計算画像の参照点とキャリブレーション基準画像の参照点(8点)から視線計算画像における顔の回転、並進移動パラメータを求める。
(3)(1)で求めてあった眼球中心の3次元座標に(2)で得られた回転、並進移動パラメータを適用して、視線計算画像の撮像時における眼球中心の3次元座標を計算する。
(4)カメラの中心投影モデルから、画像上の眼球中心の投影点を計算する。
(5)虹彩中心と眼球中心の画像座標から視線を計算する。
(他の方法2:平行投影モデルとシェイプ・フロム・モーション)
カメラとして平行投影モデルを考えると、参照点を4点にして、中心投影モデルの場合と同じことが言える。ただし、平行投影モデルでは並進移動によって奥行きの情報は得られないので、回転パラメータのみを考える。
以下のようにベクトルViを定義する。
このとき、2枚のキャリブレーション画像の内の一枚を基準画像として、他方は物体の回転Rによって、ViがVi´に変化した画像とする。
このとき、以下の式(9)が成り立つ。
、V、V、Vをまとめて成分表示すれば、以下の式(10)となる。
ただし、画像上では、u,vしか観測できないから、以下の式(11)が成り立つ。
また、Rは回転マトリクスであるから、以下の式(12)も成り立つ。
式(11)(12)を見ると、未知数が10個に対して、等式が11個なので、解くことができる。
視線の計算を行う画像(視線計算画像)ではur´,vr´が得られない(推定対象)が、その場合でも、式(11)(12)は未知数が9個に対して、等式も9個になるので解くことができ、得られたrijと、キャリブレーション画像から得たur,vr,wrを式(11)に代入して、視線計算画像におけるur´,vr´が得られる。眼球中心の投影点は、以下の式(13)により与えられる。
以上説明したような処理により、1台のカメラ30で撮影した画像に基づいて、リアルタイムにユーザの視線方向を追跡することが可能となる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明の実施の形態にかかるシステムの外観図である。 視線検出装置の外観を示す図である。 本発明の実施の形態にかかるシステムのハードウェア的構成を示すブロック図である。 眼球中心、虹彩中心、および視線方向が画像面の法線とのなす角度との関係を示す概念図である。 画像上で、虹彩中心を求め、さらに、眼球中心を推定することで、視線方向を求めた場合を示す図である。 視線検出システムの初期設定の処理のフローを説明するためのフローチャートである。 視線検出システムが実行するリアルタイム視線検出の処理のフローを説明するためのフローチャートである。 マーク配置の例を示す図である。 キャリブレーション用画像の例を示す図である。
符号の説明
20 視線方向の検知装置
30 カメラ
40 コンピュータ本体
42 モニタ

Claims (6)

  1. 複数の参照点が関連付けられた人間の顔領域を含む対象画像領域内の各画素に対応する画像データを撮影して獲得するための撮影手段と、
    前記人間が前記撮影手段を見ている状態で前記撮影手段により撮影された複数の較正用画像を予め取得する較正画像取得手段と、
    前記撮影手段により撮影された前記対象画像領域内において前記複数の参照点の投影位置を検出し、前記複数の較正用画像内の前記参照点の投影位置に基づいて、前記人間の眼球中心の投影位置を推定する眼球中心推定手段と、
    前記対象画像領域内において、虹彩を抽出し虹彩中心位置を算出する虹彩中心抽出手段と、
    抽出された前記虹彩中心位置と推定された眼球中心の投影位置とに基づいて、視線を推定する視線推定手段とを備える、視線方向の検出装置。
  2. 前記眼球中心推定手段は、
    前記複数の較正用画像内の前記複数の参照点の投影位置を結ぶ複数の線形独立なベクトルの線形結合により、前記較正用画像内の前記眼球中心の投影位置を表現するための線形結合定数を算出する眼球中心表現算出手段と、
    前記撮影手段により撮影された前記対象画像領域内において検出された前記複数の参照点と前記線形結合定数とにより、前記眼球中心の投影位置を推定する推定演算手段とを含む、請求項1記載の視線方向の検出装置。
  3. 複数の参照点が関連付けられた人間の顔領域を含む対象画像領域内の各画素に対応する画像データを撮影手段により撮影して準備するステップと、
    前記人間が前記撮影手段を見ている状態で前記撮影手段により撮影された複数の較正用画像を予め取得するステップと、
    前記撮影手段により撮影された前記対象画像領域内において前記複数の参照点の投影位置を検出し、前記複数の較正用画像内の前記参照点の投影位置に基づいて、前記人間の眼球中心の投影位置を推定するステップと、
    前記対象画像領域内において、虹彩を抽出し虹彩中心位置を算出するステップと、
    抽出された前記虹彩中心位置と推定された眼球中心の投影位置とに基づいて、視線を推定するステップとを備える、視線方向の検出方法。
  4. 前記複数の較正用画像内の前記複数の参照点の投影位置を結ぶ複数の線形独立なベクトルの線形結合により、前記較正用画像内の前記眼球中心の投影位置を表現するための線形結合定数を算出するステップをさらに備え、
    前記眼球中心の投影位置を推定するステップは、
    前記撮影手段により撮影された前記対象画像領域内において検出された前記複数の参照点と前記線形結合定数とにより、前記眼球中心の投影位置を推定するステップを含む、請求項3記載の視線方向の検出方法。
  5. コンピュータに、対象となる画像領域内の顔について視線方向の検出方法を実行させるためのプログラムであって、前記プログラムは、
    複数の参照点が関連付けられた人間の顔領域を含む対象画像領域内の各画素に対応する画像データを撮影手段により撮影して準備するステップと、
    前記人間が前記撮影手段を見ている状態で前記撮影手段により撮影された複数の較正用画像を予め取得するステップと、
    前記撮影手段により撮影された前記対象画像領域内において前記複数の参照点の投影位置を検出し、前記複数の較正用画像内の前記参照点の投影位置に基づいて、前記人間の眼球中心の投影位置を推定するステップと、
    前記対象画像領域内において、虹彩を抽出し虹彩中心位置を算出するステップと、
    抽出された前記虹彩中心位置と推定された眼球中心の投影位置とに基づいて、視線を推定するステップとを備える、プログラム。
  6. 前記プログラムは、
    前記複数の較正用画像内の前記複数の参照点の投影位置を結ぶ複数の線形独立なベクトルの線形結合により、前記較正用画像内の前記眼球中心の投影位置を表現するための線形結合定数を算出するステップをさらに備え、
    前記眼球中心の投影位置を推定するステップは、
    前記撮影手段により撮影された前記対象画像領域内において検出された前記複数の参照点と前記線形結合定数とにより、前記眼球中心の投影位置を推定するステップを含む、請求項5記載のプログラム。
JP2005103168A 2005-03-31 2005-03-31 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム Expired - Fee Related JP4682372B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005103168A JP4682372B2 (ja) 2005-03-31 2005-03-31 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005103168A JP4682372B2 (ja) 2005-03-31 2005-03-31 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム

Publications (2)

Publication Number Publication Date
JP2006285531A true JP2006285531A (ja) 2006-10-19
JP4682372B2 JP4682372B2 (ja) 2011-05-11

Family

ID=37407409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005103168A Expired - Fee Related JP4682372B2 (ja) 2005-03-31 2005-03-31 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム

Country Status (1)

Country Link
JP (1) JP4682372B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102902A (ja) * 2006-07-18 2008-05-01 Advanced Telecommunication Research Institute International 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP2008186075A (ja) * 2007-01-26 2008-08-14 Advanced Telecommunication Research Institute International インタラクティブ画像表示装置
JP2012212325A (ja) * 2011-03-31 2012-11-01 Advanced Telecommunication Research Institute International 視線計測システム、方法およびプログラム
CN105930821A (zh) * 2016-05-10 2016-09-07 上海青研信息技术有限公司 一种人眼识别跟踪的方法及将其应用于裸眼3d显示的装置
JP2017514193A (ja) * 2014-02-04 2017-06-01 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 視線方向を決定するための3d画像分析装置
WO2020179720A1 (ja) * 2019-03-04 2020-09-10 学校法人帝京大学 眼球運動解析システム、眼球運動解析方法およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004504684A (ja) * 2000-07-24 2004-02-12 シーイング・マシーンズ・プロプライエタリー・リミテッド 顔画像処理システム
JP2005066358A (ja) * 2004-10-29 2005-03-17 Arei Kk 計測装置およびその方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004504684A (ja) * 2000-07-24 2004-02-12 シーイング・マシーンズ・プロプライエタリー・リミテッド 顔画像処理システム
JP2005066358A (ja) * 2004-10-29 2005-03-17 Arei Kk 計測装置およびその方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102902A (ja) * 2006-07-18 2008-05-01 Advanced Telecommunication Research Institute International 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP4692526B2 (ja) * 2006-07-18 2011-06-01 株式会社国際電気通信基礎技術研究所 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP2008186075A (ja) * 2007-01-26 2008-08-14 Advanced Telecommunication Research Institute International インタラクティブ画像表示装置
JP2012212325A (ja) * 2011-03-31 2012-11-01 Advanced Telecommunication Research Institute International 視線計測システム、方法およびプログラム
US10074031B2 (en) 2014-02-04 2018-09-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. 2D image analyzer
JP2017514193A (ja) * 2014-02-04 2017-06-01 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 視線方向を決定するための3d画像分析装置
US10192135B2 (en) 2014-02-04 2019-01-29 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. 3D image analyzer for determining the gaze direction
US10592768B2 (en) 2014-02-04 2020-03-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Hough processor
CN105930821A (zh) * 2016-05-10 2016-09-07 上海青研信息技术有限公司 一种人眼识别跟踪的方法及将其应用于裸眼3d显示的装置
CN105930821B (zh) * 2016-05-10 2024-02-02 上海青研科技有限公司 一种人眼识别跟踪的方法及将其应用于裸眼3d显示的装置
WO2020179720A1 (ja) * 2019-03-04 2020-09-10 学校法人帝京大学 眼球運動解析システム、眼球運動解析方法およびプログラム
JP2020141762A (ja) * 2019-03-04 2020-09-10 学校法人帝京大学 眼球運動解析システム、眼球運動解析方法およびプログラム
JP7220905B2 (ja) 2019-03-04 2023-02-13 学校法人帝京大学 眼球運動解析システム、眼球運動解析方法およびプログラム

Also Published As

Publication number Publication date
JP4682372B2 (ja) 2011-05-11

Similar Documents

Publication Publication Date Title
JP4692526B2 (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
US11126016B2 (en) Method and device for determining parameters for spectacle fitting
US9864430B2 (en) Gaze tracking via eye gaze model
JP4936491B2 (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
CN107004275B (zh) 确定实物至少一部分的3d重构件空间坐标的方法和系统
US10201273B2 (en) Method for determining ocular measurements using a consumer sensor
Nishino et al. The world in an eye [eye image interpretation]
Nishino et al. Corneal imaging system: Environment from eyes
JP4585471B2 (ja) 特徴点検出装置及びその方法
EP3339943A1 (en) Method and system for obtaining optometric parameters for fitting eyeglasses
US20150029322A1 (en) Method and computations for calculating an optical axis vector of an imaged eye
CN110913751B (zh) 具有滑动检测和校正功能的可穿戴眼睛跟踪系统
US9110312B2 (en) Measurement method and equipment for the customization and mounting of corrective ophthalmic lenses
CN113808160B (zh) 视线方向追踪方法和装置
JP6191943B2 (ja) 視線方向推定装置、視線方向推定装置および視線方向推定プログラム
JP4682372B2 (ja) 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム
US20200393896A1 (en) System and method for gaze estimation
JPH0351407B2 (ja)
TWI557601B (zh) 瞳孔追蹤系統及其方法、電腦程式產品、及電腦可讀取紀錄媒體
JP2020140630A (ja) 注視点推定システム、注視点推定方法、注視点推定プログラム、及び、これが記録された情報記録媒体
JP2017194301A (ja) 顔形状測定装置及び方法
CN112232128A (zh) 基于视线追踪的老年残障人士照护需求识别方法
JP2015197803A (ja) 行動記録装置、行動記録方法及びプログラム
JP3711053B2 (ja) 視線測定装置及びその方法と、視線測定プログラム及びそのプログラムを記録した記録媒体
EP4185184A1 (en) Method for determining a coronal position of an eye relative to the head

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110120

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4682372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees