JP5688514B2 - 視線計測システム、方法およびプログラム - Google Patents

視線計測システム、方法およびプログラム Download PDF

Info

Publication number
JP5688514B2
JP5688514B2 JP2011077741A JP2011077741A JP5688514B2 JP 5688514 B2 JP5688514 B2 JP 5688514B2 JP 2011077741 A JP2011077741 A JP 2011077741A JP 2011077741 A JP2011077741 A JP 2011077741A JP 5688514 B2 JP5688514 B2 JP 5688514B2
Authority
JP
Japan
Prior art keywords
frame
face
parameter
face image
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011077741A
Other languages
English (en)
Other versions
JP2012212325A (ja
Inventor
内海 章
章 内海
大丈 山添
大丈 山添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2011077741A priority Critical patent/JP5688514B2/ja
Publication of JP2012212325A publication Critical patent/JP2012212325A/ja
Application granted granted Critical
Publication of JP5688514B2 publication Critical patent/JP5688514B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

この発明は視線計測システム、方法およびプログラムに関し、特に、たとえば単眼カメラで撮影した多数のフレーム顔画像を処理することによってその顔画像に含まれる目の視線方向を推定または計測する、視線計測システム、方法およびプログラムに関する。
特許文献1には本件出願人が提案した視線推定システムが開示されている。この背景技術では、単眼カメラからの被験者の顔画像信号を処理することによって、当該被験者の視線方向を推定できる。
特開2008−102902号公報[G06T 7/60 A61B 3/113]
特許文献1の背景技術ではカメラからの顔画像信号のリアルタイム処理によって視線方向を推定するものであり、被験者の顔の中の目や鼻口などのパーツの配置が全く分からない状態から処理を開始するので、逐次の学習による精度の向上に限界があった。
それゆえに、この発明の主たる目的は、新規な、視線計測システム、方法およびプログラムを提供することである。
この発明の他の目的は、精度を高められる、視線計測システム、方法およびプログラムを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために後述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、フレーム顔画像から取得した人の眼球位置と虹彩位置とに基づいてフレーム顔画像毎の視線方向を計測する視線計測システムであって、標準モデルを利用してフレーム顔画像毎に顔画像の虹彩位置を含む特徴点の位置データを取得する特徴点データ取得手段、特徴点の位置データを利用してフレーム顔画像毎に顔の位置および姿勢データを取得する顔データ取得手段、特徴点の位置データおよび顔の位置および姿勢データに基づいてフレーム画像毎に個人パラメータおよびフレームパラメータを設定するパラメータ設定手段、個人パラメータおよびフレームパラメータの全フレーム顔画像に対する適合度を計算する適合度計算手段、適合度が所定の閾値になるまで個人パラメータおよびフレームパラメータを修正する修正手段、および修正された個人パラメータおよびフレームパラメータに基づいて視線方向を計測する手段を備える、視線計測システムである。
第1の発明では、たとえばコンピュータ(サーバ12)によって形成される特徴点データ取得手段(12,261,S105)が、標準モデルを利用してフレーム顔画像毎に顔画像の虹彩位置を含む特徴点の位置データを取得する。ここで、標準モデルとは、一例として、解剖学の知見に従って構築した人の顔の所定の特徴点(たとえば、両目の目頭、目尻、口角)の3次元座標の位置を示す座標データと、それらの特徴点に対して解剖学的に推定できる眼球の位置および眼球の半径のデータとを含むものである。特徴点データ取得手段(12,261,S105)は、フレーム顔画像にこのような標準モデルを適用して、当該被験者の特徴点を検出する。顔データ取得手段(12,262,S107)は、特徴点の位置データを利用して、たとえば複数の特徴点に関する投影行列(P)をQR分解するなどして、フレーム顔画像毎に顔の位置および姿勢データを取得する。パラメータ設定手段(12, S111,S121)は、特徴点の位置データおよび顔の位置および姿勢データに基づいてフレーム画像毎に個人パラメータおよびフレームパラメータを設定する。個人パラメータとは、一例として、各被験者に独特の上述の標準モデルに相当しかつ全てのフレームに共通する、6つの特徴点の3次元座標、眼球の位置および眼球の半径(r)の1組のデータセットであり、フレームパラメータは、一例として、各フレームに特有のパラメータであって、顔の位置および姿勢、虹彩(瞳孔)の位置および虹彩(瞳孔)の半径を含むデータセットである。適合度計算手段(12,263,S115)は、パラメータ設定手段が設定した個人パラメータおよびフレームパラメータの各フレーム顔画像に対する適合度を示すスコア値を計算し、全フレーム画像についてそのスコア値を積算する。つまり、適合度計算手段(12,263,S115)は、積算スコア値を適合度として計算する。修正手段(12,264,S117,S121)はその適合度が所定の閾値になるまで個人パラメータおよびフレームパラメータを修正する。つまり、修正手段で個人パラメータおよびフレームパラメータを修正する都度積算スコア値を計算し、そのスコア値が所定の閾値を下回るまで、修正、積算スコア値計算が繰り返される。そして、視線方向計測手段(12,265,S123)は、修正された個人パラメータおよびフレームパラメータに基づいて、たとえば眼球中心と虹彩中心を結ぶ3次元直線として視線方向を計測する。
第1の発明によれば、個人的パラメータおよびフレームパラメータが全フレーム顔画像に対して適合するように修正されるので、視線計測の精度が向上する。
第2の発明は、第1の発明に従属し、適合度計算手段は、標準モデルを使って個人パラメータとフレームパラメータに基づいて生成した虹彩の投影像と、各フレーム顔画像における虹彩との比較の誤差の全フレーム顔画像の総計を適合度として計算する、視線計測システムである。
第2の発明によれば、生成した虹彩の投影像と実際のフレーム顔画像の虹彩との誤差を全フレームについて積算して適合度とするので、推定または計測する視線方向の精度向上が期待できる。
第3の発明は、第1の発明に従属し、適合度計算手段は、標準モデルを使って個人パラメータとフレームパラメータに基づいて生成した虹彩を含む顔の所定の特徴点の投影像と、各フレーム顔画像におけるそれらの特徴点との比較の誤差の全フレーム顔画像の総計を適合度として計算する、視線計測システムである。
第3の発明によれば、虹彩を含む顔の所定の特徴点の投影像と実際のフレーム顔画像におけるそれらの特徴点の誤差(距離)の和を全フレームについて積算して適合度とするので、これらの発明により適合度を正確に計算することができ、結果的に、推定または計測する視線方向の精度向上が期待できる。
第4の発明は、第1ないし第3のいずれか発明に従属し、修正したパラメータに基づいて標準モデルを更新する更新手段をさらに備える、視線計測システムである。
第4の発明によれば、修正した個人パラメータによって標準モデルを更新するので、その標準モデルを利用して特徴点を検出できる被験者の範囲が拡大する。つまり、より多くのタイプの被験者に適用できる標準モデルが得られる。
第5の発明は、フレーム顔画像から取得した人の眼球位置と虹彩位置とに基づいてフレーム顔画像毎の視線方向を計測する視線計測方法であって、標準モデルを利用してフレーム顔画像毎に顔画像の虹彩位置を含む特徴点の位置データを取得する特徴点データ取得ステップ、特徴点の位置データを利用してフレーム顔画像毎に顔の位置および姿勢データを取得する顔データ取得ステップ、特徴点の位置データおよび顔の位置および姿勢データに基づいてフレーム画像毎に個人パラメータおよびフレームパラメータを設定するパラメータ設定ステップ、個人パラメータおよびフレームパラメータの全フレーム顔画像に対する適合度を計算する適合度計算ステップ、適合度が所定の閾値になるまで個人パラメータおよびフレームパラメータを修正する修正ステップ、および修正された個人パラメータおよびフレームパラメータに基づいて視線方向を計測するステップを含む、視線計測方法である。
第5の発明でも第1の発明と同様の効果が期待できる。
第6の発明は、フレーム顔画像から取得した人の眼球位置と虹彩位置とに基づいてフレーム顔画像毎の視線方向を計測する視線計測システムのコンピュータによって実行される視線計測プログラムであって、コンピュータを、標準モデルを利用してフレーム顔画像毎に顔画像の虹彩位置を含む特徴点の位置データを取得する特徴点データ取得手段、特徴点の位置データを利用してフレーム顔画像毎に顔の位置および姿勢データを取得する顔データ取得手段、特徴点の位置データおよび顔の位置および姿勢データに基づいてフレーム画像毎に個人パラメータおよびフレームパラメータを設定するパラメータ設定手段、個人パラメータおよびフレームパラメータの全フレーム顔画像に対する適合度を計算する適合度計算手段、適合度が所定の閾値になるまで個人パラメータおよびフレームパラメータを修正する修正手段、および修正された個人パラメータおよびフレームパラメータに基づいて視線方向を計測する手段として機能させる、視線計測プログラムである。
第6の発明でも第1の発明と同様の効果が期待できる。
この発明によれば、全フレームの顔画像と照合して個人的パラメータおよびフレームパラメータを修正するので、視線の推定または計測の精度を向上させることができる。
この発明の上述の目的,その他の目的,特徴,および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の視線計測システムを示すブロック図である。 図2は図1実施例におけるサーバのメモリのメモリマップを示す図解図である。 図3はサーバが実行する視線計測の処理動作を示すフロー図である。 図4は図1実施例の視線計測システムにおいて視線計測をするための被験者の顔画像の一例を示す図解図である。 図5は眉間候補領域を検出するためのフィルタを説明するための概念図である。 図6は6分割矩形フィルタの他の構成を示す概念図である。 図7は眉間を中心とした画像領域を利用してSVMによるモデル化を説明する図解図である。 図8は顔検出結果の例を示す図解図である。 図9は視線方向を決定するためのモデルを説明する概念図である。 図10は被験者の虹彩中心、眼球中心および投影点の関係を示す概念図である。
この発明の一実施例の視線計測システム10は、サーバ12を含み、このサーバ12はネットワーク16を介してクライアント14からアクセスされる。クライアント14にたとえばCCDまたはCMOSセンサのような固体撮像素子を含むカメラ18が設けられ、このカメラ18は被験者20の顔を撮影して、被験者の顔画像(動画像)信号をクライアント14に送る。クライアント14は、カメラ18で取得した被験者20の一連の顔画像信号を、一連のフレーム顔画像データとして、被験者20の視線方向をフレーム顔画像から推定して計測してもらうために、ネットワーク16を通してサーバ12に送る。ただし、クライアント14からサーバ12へのフレーム顔画像データの送信は、ネットワーク16を介して行う他、たとえばフレーム顔画像データを記録した記録媒体(図示せず)からサーバ12に取り込むなどの方法が考えられる。
サーバ12は、そのようにして入力された入力画像データを、たとえばハードディスクや半導体メモリのような記憶装置である入力画像保存装置22に保存する。
なお、サーバ12が計測した視線方向のデータ(視線データ)は、必要に応じて、ネットワーク16を介してクライアント14に送られる。
サーバ12における視線計測は、背景技術として挙げた特許文献1(特開2008‐102902号)において本件発明者等が既に提案した視線推定方法を利用する。簡単にいうと、この背景となる視線計測技術は、被験者の顔の特徴点と虹彩中心の関係から顔特徴点と眼球中心の相対関係を求め、ついで、その相対関係を元にそのときの顔画像で得られている特徴点群から眼球中心位置を推定し、その位置と虹彩中心位置から視線方向を推定するのである。
図2は図1実施例におけるサーバ12のメモリ24のメモリマップを示し、このメモリ24にはプログラム記憶領域26およびデータ記憶領域28が形成される。プログラム記憶領域28には、それぞれ後に詳しく説明する、入力顔画像から被験者の顔を検出し、その顔の特徴点を抽出するための顔検出・特徴点抽出プログラム261、顔画像からカメラ16に対する被験者の顔の位置および姿勢を検出するための顔位置・姿勢検出プログラム262を含む。顔の特徴点としては、実施例では、被験者の左右の目の目頭および目尻、口の両端(口角)の計6点を用いる。これらの特徴点は2次元座標として表現される。
プログラム記憶領域26はさらに、個人パラメータおよびフレームパラメータ(後述)の入力顔画像に対する適合度を判定するために、後述のスコア積算のためのスコア積算プログラム263、およびそのスコア積算処理の結果に基づいて個人パラメータおよびフレームパラメータを修正するためのパラメータ修正プログラム264を含む。
プログラム記憶領域26はさらに、修正した個人パラメータに含まれる眼球中心とフレームパラメータに含まれる虹彩中心とに基づいて視線方向を推定する視線推定プログラム265、およびパラメータ修正の結果に基づいて標準モデルを更新する標準モデル更新プログラム266を含む。
データ記憶領域28には、一連のフレーム顔画像を分解した各フレーム顔画像のデータを記憶しておくための、フレーム顔画像データ記憶領域281を含み、この領域281に、入力画像保存装置22(図1)から読み出して各フレームに分解した顔画像データを記憶しておく。
データ記憶領域28はまた、上の顔検出・特徴点抽出プログラム261や顔位置・姿勢推定プログラム262で利用される標準モデルのデータを記憶した標準モデル記憶領域282が含まれる。ここで、標準モデルとは、解剖学の知見に従って構築した人の顔の上述の6つの特徴点の3次元座標の位置を示す座標データと、それらの特徴点に対して解剖学的に推定できる眼球の位置および眼球の半径(r)のデータとを含むデータベースである。
顔検出・特徴点抽出プログラム261や顔位置・姿勢推定プログラム262で検出した特徴点のデータや顔の位置および姿勢のデータは、入力画像から抽出した図7のような目領域の画像とともに、特徴点、顔位置、姿勢データ記憶領域283に記憶される。
データ記憶領域28はさらに、個人パラメータ記憶領域284およびフレームパラメータ記憶領域285を含む。個人パラメータとは、各被験者に独特の上述の標準モデルに相当しかつ全てのフレームに共通する、6つの特徴点の3次元座標、眼球の位置および眼球の半径(r)の1組のデータセットのことである。これに対して、フレームパラメータは、各フレームに特有のパラメータであって、顔の位置および姿勢、虹彩(瞳孔)の位置および虹彩(瞳孔)の半径を含むデータセットである。したがって、フレームパラメータ記憶領域285は、一連の顔画像のフレーム数(K)に相当する記憶場所を有する。
そして、データ記憶領域28に形成される視線データ記憶領域286は、上述の視線推定プログラムで推定または計測した視線方向を示すデータを、たとえばたとえば旋回方向の角度(水平面内の角度)および俯仰方向の角度(垂直面内の角度)のデータとして、フレーム毎に記憶するための領域である。この視線データ記憶領域も、一連の顔画像のフレーム数(K)に相当する記憶場所を含む。
図3はサーバ12が実行する図1実施例の動作を示すフロー図であり、最初のステップS101では、サーバ12は、たとえばクライアントコンピュータ14から入力され、入力画像保存装置22(図1)に保存されている一連のフレーム顔画像データを、フレーム毎の顔画像データに分解して、メモリ24(図2)のフレーム顔画像データ記憶領域281に記憶する。
そして、メモリ26の適宜の領域に形成されて、フレーム数をカウントするためのカウンタ(図示せず)をインクリメントする(ステップS103)。最初のフレームを処理するためにはこのカウンタに「1」がセットされ、順次フレーム毎にインクリメントされる。以下、ステップS113で最後のフレーム(K)までの処理が終了したと判断するまで、ステップS105‐S111を繰り返し実行する。
ステップS105では、図2に示す顔検出・特徴点抽出プログラム261に従って、そのときのフレーム顔画像から、被験者の顔を検出し、ついで特徴点を抽出する。
(顔検出)
視線方向の推定処理の動作の前提として、まず、たとえば6分割矩形フィルタを利用して、顔検出処理が実行される。
サーバ12は、顔画像を処理するにあたり、横が顔幅、縦がその半分程度の大きさの矩形フィルタで画面を走査する。矩形は、たとえば、3×2に6分割されていて、各分割領域の平均明るさが計算され、それらの相対的な明暗関係がある条件を満たすとき、その矩形の中心を眉間候補とする。
連続した画素が眉間候補となるときは、それを取囲む枠の中心候補のみを眉間候補として残す。残った眉間候補を標準モデルと比較してテンプレートマッチング等を行うことで、上述した手続きで得られた眉間候補のうちから、偽の眉間候補を捨て、真の眉間を抽出する。以下、さらに詳しく説明する。
は、眉間候補領域を検出するためのフィルタを説明するための概念図であり、図(a)は、上述した3×2に6分割された矩形フィルタ(以下、「6分割矩形フィルタ」と呼ぶ。)を示す。
6分割矩形フィルタは、(1) 鼻筋は両目領域よりも明るい、(2) 目領域は頬部よりも暗い、という顔の特徴を抽出し、顔の眉間位置を求めるフィルタである。たとえば、1点(x、y)を中心として、横i画素、縦j画素(i,j:自然数)の矩形の枠を設ける。そして、図(a)のように、この矩形の枠を、横に3等分、縦に2等分して、6個のブロックS1‐S6に分割する。
このような6分割矩形フィルタを顔画像の両目領域および頬部に当てはめてみると、図(b)のようになる。
ただし、図の6分割フィルタは各矩形領域が等分されたものであったが、このフィルタは図に示すように変形されてもよい。
鼻筋の部分が目の領域よりも通常は狭いことを考慮すると、ブロックS2およびS5の横幅w2は、ブロックS1,S3,S4およびS6の横幅w1よりも狭い方がより望ましい。好ましくは、幅w2は幅w1の半分とすることができる。図は、このような場合の6分割矩形フィルタの構成を示す。また、ブロックS1、S2およびS3の縦幅h1と、ブロックS4、S5およびS6の縦幅h2とは、必ずしも同一である必要もない。
図5に示す6分割矩形フィルタにおいて、それぞれのブロックSi(1≦i≦6)について、画素の輝度の平均値「バーSi」(Siに上に“−”(バー)をつける。)を求める。
ブロックS1に1つの目と眉が存在し、ブロックS3に他の目と眉が存在するものとすると、以下の関係式(1)および(2)が成り立つ。
そこで、これらの関係を満たす点を眉間候補(顔候補)として抽出する。
矩形枠内の画素の総和を求める処理には、公知の文献(P. Viola and M. Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features,”Proc. Of IEEEConf. CVPR, 1, pp.511-518, 2001)において開示されている、インテグラルイメージ(Integral Image)を利用した計算の高速化手法を取り入れることができる。インテグラルイメージを利用することでフィルタの大きさに依らず高速に実行することができる。多重解像度画像に本手法を適用することにより、画像上の顔の大きさが変化した場合にも顔候補の抽出が可能となる。
このようにして得られた眉間候補(顔候補)に対しては、上で説明した標準モデルとのテンプレートマッチングにより、真の眉間位置(真の顔領域)を特定することができる。
なお、得られた顔候補に対して、サポートベクタマシン(SVM)による顔モデルによる検証処理を適用し顔領域を決定することもできる。髪型の違いや髭の有無、表情変化による認識率の低下を避けるため、たとえば、図7に示すように、眉間を中心とした画像領域を利用してSVMによるモデル化を行うことができる。なお、このようなSVMによる真の顔領域の決定については、文献:S. Kawato, N. Tetsutani and K. Hosaka: “Scale-adaptive face detection and tracking in real time with ssr fi1ters and support vector machine”, IEICE Trans.on Info. and Sys., E88−D, 12, pp.2857−2863(2005)に開示されている。6分割矩形フィルタによる高速候補抽出とSVMによる処理とを組み合わせることで実時間の顔検出が可能である。
(特徴点検出)
続いて、目、口や虹彩(瞳孔)の位置を、たとえば、眼の両端、口の両端の特徴点抽出は、予め用意した各特徴点周辺のテンプレート画像を利用した類似点の探索処理によって実現できる。テンプレート画像をGaborフィルタ等の空間フィルタを利用して低次元のベクトルに変換することで、照明変化に対して頑健で効率的な照合処理とすることもできる。
両目の位置については、先に説明した顔領域検出で眉間のパターンを探索しているため、眉間の両側の暗い領域を再探索することにより、大まかな両目の位置を推定することができる。しかし、視線方向の推定のためには、虹彩中心をより正確に抽出する必要がある。ここでは、上で求まった目の周辺領域に対して、ラプラシアンにより虹彩のエッジ候補を抽出し、円のハフ変換を適用することにより、虹彩および虹彩の中心の投影位置を検出する。
図8は顔検出結果の例を示す図である。検出された顔において、虹彩中心や鼻先や口なども検出されている。たとえば、特徴点としては、左右の目の目尻や目頭、口の両端などを用いることができる。
このようにして検出された特徴点の位置データは、メモリ24(図2)の特徴点、顔位置、姿勢記憶領域283に、フレーム毎に、記憶される。
(視線推定の原理)
視線の推定においては、視線方向は眼球中心と虹彩中心を結ぶ3次元直線として与えられるものとする。
図9は視線方向を決定するためのモデルを説明する概念図である。画像上での眼球半径をr、画像上での眼球中心と虹彩中心との距離をdとすると、視線方向とカメラ光軸とのなす角θは次式(3)で表される。
後により詳しく説明するように、この実施例の視線方向の推定では、眼球中心と顔特徴点間の相対関係の推定処理と眼球中心の投影位置推定とを行なう。そのために、ステップS107で、顔の位置および姿勢を推定する。
(顔位置・姿勢推定)
顔特徴点pjの2次元観測位置xj(k)(太字)=[xj(k),yj(k)]tとv)標準モデルより求まった3次元位置sj(太字)=[Xj,Yj,Zj]t(j=1,…,M)の間には、M個の特徴点のうち観測されたm個の特徴点について注目すると、次式の関係が得られる。
ただし、行列P(k)は2×3の行列である。右辺の第2項の行列S(k)は行列Sのうち、観測された特徴点に対応する要素のみからなる部分行列である。上述の通り、カメラと顔は十分に離れているとし正射影を仮定している。ここで、4点以上の特徴点が観測されれば、行列P(k)は以下のように計算できる。
画像フレームIkにおける眼球中心の投影位置xr(i)(太字),xl(i)(太字)は、行列P(k)を用いて以下のように計算できる(ステップS210)。
したがって、画像フレームIkにおいて特徴点として抽出した虹彩中心の投影位置とこの眼球中心の投影位置を用いると、視線の推定を行なうことができる。
なお、行列PをQR分解により分解することで、顔の姿勢Rがまた、顔の位置が以下のように計算できる。
ただし、r1、r2はそれぞれ1×3のベクトルである。このような顔の姿勢Rの検出については、文献:L.Quan: “Self-calibration of an affine camera from multiple views”,Int’l Journal of Computer Vision, 19, pp. 93−105(1996)に開示がある。
得られたrを真値とみなして、式(10)、(11)、(12)に従って、最小二乗法により、投影誤差を最小とするスケールsおよび並進ベクトルvx,vyを求める。式(12)のスケールsが顔の大きさを示し、並進ベクトルvx,vyが顔の位置を示す。
このようにして、ステップS107で、各フレーム画像における被験者の顔の位置および姿勢を推定する。
このようにして検出された顔の位置および姿勢データは、メモリ24(図2)の特徴点、顔位置、姿勢記憶領域283に、フレーム毎に記憶される。
続くステップS109で、サーバ12はそのとき処理している入力画像から、先の図7に示すような目領域の画像データを抽出し、メモリ24の特徴点、顔位置、姿勢記憶領域283に、特徴点、顔位置および姿勢データと一緒に、フレーム毎に、記憶する。
次のステップS111で、サーバ12は、上で求めた特徴点、顔位置および姿勢データに従って、当該フレームの初期パラメータを設定する。個人パラメータは上述のように、特徴点との相対的位置関係から求めた眼球位置と、その眼球位置を中心とした解剖学的に得られる眼球半径である。ただし、個人パラメータはフレーム毎に変化するというものではなく、すべてのフレームに対して共通のものである。ステップS111で設定された個人パラメータの初期値が個人パラメータ記憶領域284(図2)に記憶される。また、フレームパラメータはフレーム毎に変化するもので、各フレームにおける顔の位置、姿勢、虹彩(瞳孔)位置および虹彩(瞳孔)半径の初期値をフレームパラメータ記憶領域285(図2)の該当フレームの記憶場所に記憶する。
このようにして初期パラメータを設定した後、サーバ12は、ステップS115において、全フレームについて、スコアを積算する。「スコア」とは、たとえば標準モデルのデータを使って個人パラメータ(眼球半径、眼球位置)とフレームパラメータ(虹彩半径および虹彩位置)に基づいて生成した虹彩の投影像(コンピュータグラフィックス画像)と、実際の各フレーム顔画像における虹彩との比較の誤差である。実際の顔画像としては、実施例では、ステップS109で特徴点、顔位置、姿勢記憶領域283に特徴点、顔位置、姿勢のデータとともにフレーム毎に記憶した図7で示すような目領域の画像を利用する。この誤差は、虹彩の投影像とフレーム顔画像における虹彩とのずれ(距離)、および大きさ(面積)の差をそれぞれ画像上のピクセル数として計算する。あるいは、虹彩を含む顔の所定の特徴点の投影像と実際のフレーム顔画像におけるそれらの特徴点の観測位置のずれ(距離)の和を誤差として計算してもよい。そのフレーム毎の誤差(スコア)を全Kフレームで合計する。つまり、全フレームについてスコアを積算する。スコアは、パラメータ設定手段として機能するステップS111で設定した個人パラメータおよびフレームパラメータが各フレーム顔画像に適合している程度(適合度)を示すものであり、したがって、このステップS115で得られる積算スコア値は、つまり、初期パラメータ設定手段が設定した個人パラメータおよびフレームパラメータの全フレーム顔画像に対する適合度である。
次に、ステップS117において、ステップS115で積算したスコア値を所定の閾値と比較し、スコア値が閾値より小さいかどうか、つまり、ステップS111で設定した、全フレームに共通する個人パラメータおよび各フレーム毎のフレームパラメータが実際の全部のフレーム画像に対して十分適合しているかどうかを判断する。ステップS117では、すなわち、そのようなパラメータを使って視線方向を推定したとき誤差が許容できる範囲に収まるパラメータであるかどうかを判断する。
ステップS117で“NO”が判断されると、つまり、積算したスコア値が閾値以上であると判断したとき、次のステップS119で、サーバ12は、ステップS115で求めたスコア値に基づいてステップS121で個人パラメータやフレームパラメータを修正した回数(繰り返し回数)が所定の規定値を超えたかどうか判断する。
ステップS119で“NO”なら、次のステップS121で、サーバ12は個人パラメータおフレームパラメータを、スコア値が最も小さくなるように最適化手法を用いて修正する。修正方法としては種々考えられるが、実施例では、一例として最急降下法を用いる。最急降下法とは、誤差曲面の傾斜が最も急に降下する方向に
パラメータを修正することで誤差が最小となるパラメータの数値を求める方法である。ただし、誤差修正の最適化のためには別の方法が採用されてもよい。
このようにして、ステップS115‐S121を繰り返し実行して、理想的にはスコア値がゼロ(0)になるように、実際的には、閾値を下回るように個人パラメータおよびフレームパラメータを修正する。なお、ステップS111で設定した個人パラメータおよび各フレームパラメータ(初期パラメータ)はステップS121でその後全フレームの顔画像との対比に基づいて、修正される。しかしながら、ステップS121で修正したパラメータもその後ステップS121でさらに修正されるのであり、その意味でステップS121は、先のステップS111と同じく、パラメータ設定手段としても機能するのである。
このステップS121で修正された個人パラメータおよびフレーム顔画像毎のフレームパラメータは、図2に示す個人パラメータ記憶領域284およびフレームパラメータ記憶領域285にそれぞれ記憶される。
そして、ステップS117で“YES”が判断されるか、もしくはステップS119で“YES”が判断されると、サーバ12は続いて、ステップS121で修正して記憶した個人パラメータおよび各フレームパラメータに基づいて、ステップS123において、眼球位置と虹彩位置とを結ぶ3次元直線(図10)としてフレーム顔画像毎に視線方向を推定し、視線方向データを視線データ記憶領域285(図2)に記憶する。この視線方向データが、先に入力された一連の顔画像信号の各フレーム毎の被験者の視線方向を示すデータとして、必要に応じてクライアント14に返される。
そして、最後に、サーバ12はステップS125において、ステップS121で修正した個人パラメータを用いて、標準モデルを更新する。標準モデルの該当するパラメータが平均値であるときは、ステップS121で修正した個人パラメータの該当するパラメータを加えて平均値を計算し直す。たとえば、標準モデルの1つのパラメータがN人の被験者の該当パラメータの平均値であれば、このステップS125では、N+1人の平均値を計算して、その結果で当該パラメータを更新する。標準モデルのパラメータの分散値を更新するときは、ステップS121で修正した当該パラメータ値に基づいて、たとえば重み付けを考慮して分散値を変更する。
標準モデルを修正した個人パラメータで更新することによって、その標準モデルを利用して特徴点を検出できる被験者の範囲が拡大する。つまり、より多くのタイプの被験者に適用できる標準モデルが得られる。
このように、この実施例によれば、ステップS121において、全フレームで積算したスコア値(設定パラメータと実際の顔画像との誤差の総和)を最小にするようにパラメータを修正するので、ステップS123で推定または計測する視線方向の精度が向上する。
10 …視線計測システム
12 …サーバ
14 …クライアント
16 …ネットワーク
18 …カメラ
20 …被験者
22 …入力画像保存装置
24 …メモリ

Claims (6)

  1. フレーム顔画像から取得した人の眼球位置と虹彩位置とに基づいてフレーム顔画像毎の視線方向を計測する視線計測システムであって、
    標準モデルを利用してフレーム顔画像毎に顔画像の前記虹彩位置を含む特徴点の位置データを取得する特徴点データ取得手段、
    前記特徴点の位置データを利用してフレーム顔画像毎に顔の位置および姿勢データを取得する顔データ取得手段、
    前記特徴点の位置データおよび前記顔の位置および姿勢データに基づいてフレーム画像毎に個人パラメータおよびフレームパラメータを設定するパラメータ設定手段、
    前記個人パラメータおよびフレームパラメータの全フレーム顔画像に対する適合度を計算する適合度計算手段、
    前記適合度が所定の閾値になるまで前記個人パラメータおよびフレームパラメータを修正する修正手段、および
    修正された個人パラメータおよびフレームパラメータに基づいて前記視線方向を計測する手段を備える、視線計測システム。
  2. 前記適合度計算手段は、標準モデルを使って個人パラメータとフレームパラメータに基づいて生成した虹彩の投影像と、各フレーム顔画像における虹彩との比較の誤差の全フレーム顔画像の総計を前記適合度として計算する、請求項1記載の視線計測システム。
  3. 前記適合度計算手段は、標準モデルを使って個人パラメータとフレームパラメータに基づいて生成した虹彩を含む顔の所定の特徴点の投影像と、各フレーム顔画像におけるそれらの特徴点との比較の誤差の全フレーム顔画像の総計を前記適合度として計算する、請求項1記載の視線計測システム。
  4. 前記修正した個人パラメータに基づいて前記標準モデルを更新する更新手段をさらに備える、請求項1ないし3のいずれかに記載の視線計測システム。
  5. フレーム顔画像から取得した人の眼球位置と虹彩位置とに基づいてフレーム顔画像毎の視線方向を計測する視線計測方法であって、
    標準モデルを利用してフレーム顔画像毎に顔画像の前記虹彩位置を含む特徴点の位置データを取得する特徴点データ取得ステップ、
    前記特徴点の位置データを利用してフレーム顔画像毎に顔の位置および姿勢データを取得する顔データ取得ステップ、
    前記特徴点の位置データおよび前記顔の位置および姿勢データに基づいてフレーム画像毎に個人パラメータおよびフレームパラメータを設定するパラメータ設定ステップ、
    前記個人パラメータおよびフレームパラメータの全フレーム顔画像に対する適合度を計算する適合度計算ステップ、
    前記適合度が所定の閾値になるまで前記個人パラメータおよびフレームパラメータを修正する修正ステップ、および
    修正された個人パラメータおよびフレームパラメータに基づいて前記視線方向を計測するステップを含む、視線計測方法。
  6. フレーム顔画像から取得した人の眼球位置と虹彩位置とに基づいてフレーム顔画像毎の視線方向を計測する視線計測システムのコンピュータによって実行される視線計測プログラムであって、前記コンピュータを、
    標準モデルを利用してフレーム顔画像毎に顔画像の前記虹彩位置を含む特徴点の位置データを取得する特徴点データ取得手段、
    前記特徴点の位置データを利用してフレーム顔画像毎に顔の位置および姿勢データを取得する顔データ取得手段、
    前記特徴点の位置データおよび前記顔の位置および姿勢データに基づいてフレーム画像毎に個人パラメータおよびフレームパラメータを設定するパラメータ設定手段、
    前記個人パラメータおよびフレームパラメータの全フレーム顔画像に対する適合度を計算する適合度計算手段、
    前記適合度が所定の閾値になるまで前記個人パラメータおよびフレームパラメータを修正する修正手段、および
    修正された個人パラメータおよびフレームパラメータに基づいて前記視線方向を計測する手段
    として機能させる、視線計測プログラム。
JP2011077741A 2011-03-31 2011-03-31 視線計測システム、方法およびプログラム Active JP5688514B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011077741A JP5688514B2 (ja) 2011-03-31 2011-03-31 視線計測システム、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011077741A JP5688514B2 (ja) 2011-03-31 2011-03-31 視線計測システム、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2012212325A JP2012212325A (ja) 2012-11-01
JP5688514B2 true JP5688514B2 (ja) 2015-03-25

Family

ID=47266219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011077741A Active JP5688514B2 (ja) 2011-03-31 2011-03-31 視線計測システム、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP5688514B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6191943B2 (ja) * 2013-03-28 2017-09-06 株式会社国際電気通信基礎技術研究所 視線方向推定装置、視線方向推定装置および視線方向推定プログラム
US11967138B2 (en) 2021-03-03 2024-04-23 Nec Corporation Processing apparatus, information processing method and recording medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4682372B2 (ja) * 2005-03-31 2011-05-11 株式会社国際電気通信基礎技術研究所 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム
JP4774818B2 (ja) * 2005-06-07 2011-09-14 トヨタ自動車株式会社 画像処理装置及び画像処理方法
JP4692526B2 (ja) * 2006-07-18 2011-06-01 株式会社国際電気通信基礎技術研究所 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム

Also Published As

Publication number Publication date
JP2012212325A (ja) 2012-11-01

Similar Documents

Publication Publication Date Title
JP6507046B2 (ja) 立体物検知装置及び立体物認証装置
Shreve et al. Macro-and micro-expression spotting in long videos using spatio-temporal strain
TWI383325B (zh) 臉部表情辨識
JP4692526B2 (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
US9031286B2 (en) Object detection device and object detection method
KR102462818B1 (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
JP7230939B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7015152B2 (ja) キーポイントデータに関する加工装置、方法及びプログラム
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP4936491B2 (ja) 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP6191943B2 (ja) 視線方向推定装置、視線方向推定装置および視線方向推定プログラム
CN110073363B (zh) 追踪对象的头部
KR101558547B1 (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
CN112232128B (zh) 基于视线追踪的老年残障人士照护需求识别方法
CN112257641A (zh) 一种人脸识别活体检测方法
CN112200074A (zh) 一种姿态对比的方法和终端
CN114894337B (zh) 一种用于室外人脸识别测温方法及装置
CN114333046A (zh) 舞蹈动作评分方法、装置、设备和存储介质
CN115035546B (zh) 三维人体姿态检测方法、装置及电子设备
JP3970573B2 (ja) 顔画像認識装置および方法
JP5688514B2 (ja) 視線計測システム、方法およびプログラム
CN110826495A (zh) 基于面部朝向的身体左右肢体一致性跟踪判别方法及系统
CN111444374B (zh) 人体检索系统和方法
Charoenpong et al. Accurate pupil extraction algorithm by using integrated method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141209

R150 Certificate of patent or registration of utility model

Ref document number: 5688514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250