JP6322986B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6322986B2
JP6322986B2 JP2013254308A JP2013254308A JP6322986B2 JP 6322986 B2 JP6322986 B2 JP 6322986B2 JP 2013254308 A JP2013254308 A JP 2013254308A JP 2013254308 A JP2013254308 A JP 2013254308A JP 6322986 B2 JP6322986 B2 JP 6322986B2
Authority
JP
Japan
Prior art keywords
eye
unit
region
reflected light
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013254308A
Other languages
English (en)
Other versions
JP2015112151A (ja
Inventor
隆宏 吉岡
隆宏 吉岡
哲 中島
哲 中島
小田切 淳一
淳一 小田切
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013254308A priority Critical patent/JP6322986B2/ja
Priority to EP14189931.0A priority patent/EP2881891B1/en
Priority to US14/520,565 priority patent/US9524446B2/en
Publication of JP2015112151A publication Critical patent/JP2015112151A/ja
Application granted granted Critical
Publication of JP6322986B2 publication Critical patent/JP6322986B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。
人物の顔を撮影した画像の目の領域から角膜による反射を示すプルキンエ像と瞳孔または虹彩とを検出し、検出したプルキンエ像と瞳孔または虹彩の中心との位置関係に基づいて、人物の視線の方向を検出する技術が提案されている。
例えば、人物の眼球に対して位置が固定された投光素子と撮像素子とを有する眼鏡型の視線検出装置で人物の視線を検出する際に、プルキンエ像を検出できない場合に、予め検出したプルキンエ像を利用して視線を検出する手法がある(例えば、特許文献1参照)。
一方、コンピュータなどの利用者の視線の方向を検出する視線検出装置では、例えば、コンピュータに接続されたディスプレイ装置やスマートフォンやタブレット型端末などの表示部に撮像素子と照明素子とが設けられる。この種の視線検出装置では、撮像素子および照明素子と人物の眼球との位置関係は変動する可能性がある。また、この種の視線検出装置では、人物が装着している眼鏡に外光やディスプレイ装置からの放射光などが映り込んだ場合に、瞳孔の位置の検出が困難になることがある。そして、眼鏡への外光などの映り込みがある状態で検出された瞳孔の位置とプルキンエ像の位置とを人物の視線の向きを算出する処理に用いると、算出される人物の視線の向きに誤差が生じる。
そこで、眼鏡への外光などの映り込みの発生を検出した場合に、視線を検出する処理を停止し、外光などの映り込みがない場合に視線の方向を算出する処理を行うことで、視線方向の算出誤差を低減する視線検出装置が提案されている(例えば、特許文献2参照)。
特開2000−070225号公報 再公表2011/158463号公報
ところで、撮像素子および照明素子をコンピュータ装置に接続されたディスプレイ装置に設けた視線検出装置では、撮像素子および照明素子と人物の眼球との位置関係が変動するため、予め検出したプルキンエ像の位置を用いる手法を用いることは困難である。
また、この種の視線検出装置において、外光などが眼鏡に映り込んだ場合に視線を検出する処理を停止すると、コンピュータなどの利用者が眼鏡を掛けている場合に視線の検出が困難になる可能性がある。
本件開示の画像処理装置、画像処理方法および画像処理プログラムは、眼球の前に位置する反射部材による反射がある場合にも視線の検出に用いる目の特徴部位の検出を可能にする技術を提供することを目的とする。
一つの観点によれば、画像処理装置は、目を撮影した画像において目の領域である目領域が、反射光による影響を受けているか否かを判定する判定部と、目の特徴部位の画像に表れる反射光の影響の強さ毎に、特徴部位の画像の特徴が蓄積された蓄積部と、目領域が反射光の影響を受けていると判定された場合に、目領域のうち、蓄積部に蓄積された特徴部位の特徴と類似する特徴を有する画素を含む領域を、特徴部位として検出する検出部と、を有する。
また、別の観点によれば、画像処理方法は、目を撮影した画像において目の領域である目領域が、反射光による影響を受けているか否かを判定し、目領域が反射光の影響を受けていると判定された場合に、目領域のうち、目の特徴部位の画像に表れる反射光の影響の強さ毎に蓄積部に蓄積された特徴部位の特徴と類似する特徴を有する画素を含む領域を、特徴部位として検出する。
また、別の観点によれば、画像処理プログラムは、目を撮影した画像において目の領域である目領域が、反射光による影響を受けているか否かを判定し、目領域が反射光の影響を受けていると判定された場合に、目領域のうち、目の特徴部位の画像に表れる反射光の影響の強さ毎に蓄積部に蓄積された特徴部位の特徴と類似する特徴を有する画素を含む領域を、特徴部位として検出する、処理をコンピュータに実行させる。
本件開示の画像処理装置、画像処理方法および画像処理プログラムは、眼球の前に位置する反射部材による反射がある場合にも視線の検出に用いる目の特徴部位を検出することができる。
画像処理装置の一実施形態を示す図である。 図1に示した画像に含まれる目領域の例を示す図である。 図1に示した蓄積部の例を示す図である。 図2に示した目領域から抽出された瞳孔に含まれる画素の候補の例を示す図である。 図1に示した画像処理装置の動作を示す図である。 画像処理装置の別実施形態を示す図である。 目領域の一方のみが反射光の影響を受けている画像の例を示す図である。 図6に示した画像処理装置の動作を示す図である。 画像処理装置の別実施形態を示す図である。 図2に示した目領域の別例を示す図である。 登録部によって蓄積部に蓄積される特徴の別例を示す図である。 図9に示した抽出部によって抽出された瞳孔の輪郭を示す画素の候補の例を示す図である。 画像処理装置の別実施形態を示す図である。 図13に示した収集部の例を示す図である。 図13に示した画像処理装置の動作を示す図である。 画像処理装置の別実施形態を示す図である。 図16に示した蓄積部の例を示す図である。 図16に示した特定部の動作を示す図である。 画像処理装置のハードウェア構成の一例を示す図である。
以下、図面に基づいて、実施形態を説明する。
図1は、画像処理装置の一実施形態を示す。図1に示した画像処理装置10は、判定部11と、蓄積部12と、検出部13とを含む。画像処理装置10に含まれる判定部11と蓄積部12と検出部13との機能および動作については、図2から図4を用いて説明する。
図1に示したディスプレイ装置DSPは、コンピュータ装置COMに接続されている。また、撮影装置CAMおよび光源LUMは、ディスプレイ装置DSPに固定されている。光源LUMは、例えば、近赤外線を放出するLED(Light Emitting Diode)などであり、ディスプレイ装置DSPに対向する位置にいる人物Q1の顔を照明する向きに固定される。また、撮影装置CAMは、光源LUMが放出する波長帯の光に対する感度を持つカメラであり、人物Q1の顔をおおよそ正面から撮影する向きに配置され、人物Q1の顔を含む所定の範囲を撮影する。
なお、撮影装置CAMおよび光源LUMは、デスクトップ型のコンピュータ装置COMに接続されたディスプレイ装置DSPに内蔵されていてもよい。また、撮影装置CAMおよび光源LUMは、ノート型のコンピュータ装置に搭載された表示部に固定されてもよいし、スマートフォンやタブレット型端末などの携帯端末装置に搭載された表示部に固定されてもよい。また、撮影装置CAMおよび光源LUMは、車両のダッシュボードなどに取り付けられるカーナビゲーションシステムなどの車載端末装置の表示部に固定されてもよいし、表示部に限らず運転者の前方に固定されてもよい。同様に、撮影装置CAMおよび光源LUMは、ノート型のコンピュータ装置に搭載された表示部に内蔵されてもよいし、スマートフォンやタブレット型端末などの携帯端末装置あるいは車載端末装置に搭載された表示部に内蔵されてもよい。
図1の例において、撮影装置CAMは、矩形状のディスプレイ装置DSPの上側の辺の中央部に配置されており、光源LUMは、ディスプレイ装置DSPの下側の辺の中央部に配置されている。なお、撮影装置CAMおよび光源LUMは、被写体となる人物Q1の前方方向など、撮影装置CAMによって被写体の目が撮影可能な位置に設置されてもよい。
顔認識装置RCNは、撮影装置CAMによって撮影された人物Q1の顔を含む画像IMGを受け、受けた画像IMGに対して顔認識処理を行うことで、人物Q1の両目を含む人物Q1の顔の特徴部位を検出する。また、顔認識装置RCNは、人物Q1の両目のそれぞれを含む領域である2つの目領域を画像IMGから抽出し、抽出した目領域の画像を画像処理装置10と特徴検出装置CDTとに渡す。なお、人物Q1の両目を含む顔の特徴部位を検出する方法は、顔認識処理を用いる場合に限らず、画像IMGから両目を含む顔の特徴部位を直接検出する方法を用いてもよい。
特徴検出装置CDTは、従来と同様の技術を用いて、2つの目領域のそれぞれから人物Q1の眼の特徴部位として瞳孔または虹彩を検出し、検出した特徴部位の位置を視線検出装置DETに渡す。例えば、特徴検出装置CDTは、目領域のそれぞれに眼鏡GLSなどの反射部材によって反射された外光などの影響がない状態での瞳孔と虹彩との輝度差を示すエッジを検出し、検出したエッジが円形に分布する箇所を瞳孔として検出する。特徴検出装置CDTは、2つの目領域の少なくとも一方から瞳孔を検出した場合に、検出した瞳孔の位置を示す情報として、例えば、瞳孔を示す円形の中心の位置を示す情報を視線検出装置DETに渡す。また、特徴検出装置CDTは、例えば、2つの目領域のそれぞれにおいて、人物Q1の眼球の一部である角膜の表面によって光源LUMからの光が反射されることで生じるプルキンエ像を検出し、検出したプルキンエ像の中心の位置を示す情報を視線検出装置DETに渡す。ここで、2つの目領域のそれぞれにおいて、プルキンエ像は、他の領域よりも輝度の高い円形の領域として現れる。このため、特徴検出装置CDTは、各目領域が、眼鏡GLSなどの反射部材によって反射された外光などの影響を受けているか否かにかかわらず、各目領域からプルキンエ像を検出することが可能である。
一方、2つの目領域の双方において特徴検出装置CDTによる瞳孔の検出ができない場合に、画像処理装置10は、図2から図5を用いて説明する処理を行うことで、2つの目領域の少なくとも一方における瞳孔の位置を特定する。そして、画像処理装置10は、特定した位置を示す情報を視線検出装置DETに渡す。
視線検出装置DETは、特徴検出装置CDTまたは画像処理装置10から受けた特徴部位の位置と、特徴検出装置CDTから受けたプルキンエ像の位置とに基づいて、人物Q1の視線方向を検出する処理を行う。視線検出装置DETは、ディスプレイ装置DSPに含まれる光源LUMと撮影装置CAMとの位置関係を示す情報を予め取得しており、取得した情報を用いて、視線方向を検出する処理を行う。視線検出装置DETによって求められた視線方向は、例えば、ディスプレイ装置DSPの表示画面において人物Q1が注視している位置の特定などに用いられる。
なお、顔認識装置RCNおよび特徴検出装置CDTは、画像処理装置10に含まれてもよいし、また、画像処理装置10は、視線検出装置DETに含まれてもよい。更に、顔認識装置RCN,特徴検出装置CDT,画像処理装置10および視線検出装置DETは、コンピュータ装置COMに含まれてもよい。
ところで、図1に示した人物Q1の眼球の前に眼鏡GLSなどの反射部材がある場合に、撮影装置CAMによって撮影された画像IMGに含まれる目領域の画素の輝度値などの特徴値が、眼鏡GLSによって反射された外光などの影響を受ける場合がある。ここで、外光とは、人物Q1の周囲にある光源LUM以外の光源からの光であり、例えば、室内の照明器具やディスプレイ装置DSPによって放射される光や太陽光線などである。また、目領域の画素の特徴値は、眼球の前に位置する眼鏡GLSなどの反射部材によって散乱された光源LUMからの光の強度を示す成分を含む場合があり、この場合にも、目領域の画像は人物Q1の両目のそれぞれの特徴を忠実に示さなくなる。以下の説明では、眼鏡GLSなどの反射部材によって反射された外光の成分あるいは散乱された光源LUMからの光の成分が目領域のそれぞれの画素の特徴値に含まれる場合に、目領域が反射光の影響を受けていると称する。
図2は、図1に示した画像IMGに含まれる目領域の例を示す。図2において一点鎖線で囲んだ矩形の領域EL,ERは、顔認識装置RCNによる顔認識処理によって画像IMGから抽出された目領域を示す。
なお、図2の例では、目領域ELは、人物Q1の左目および眼鏡GLSの左側のレンズを含み、目領域ERは、人物Q1の右目および眼鏡GLSの右側のレンズを含んでいる。また、図2に示した目領域ELにおいて、円形のパターンPLは、人物Q1の左の瞳孔を示し、瞳孔PLを取り囲む領域SLは、人物Q1の左の虹彩を示す。また、図2に示した目領域ELにおいて、円形のパターンPrLは、人物Q1の左の眼球に含まれる角膜の表面により、図1に示した光源LUMからの光が反射されることで現れるプルキンエ像を示す。同様に、図2に示した目領域ERにおいて、円形のパターンPRは、人物Q1の右の瞳孔を示し、瞳孔PRを取り囲む領域SRは、人物Q1の右の虹彩を示す。また、図2に示した目領域ERにおいて、円形のパターンPrRは、人物Q1の右の眼球に含まれる角膜の表面で光源LUMからの光が反射されることで現れるプルキンエ像を示す。一方、図2において、目領域EL,ERを示す一点鎖線は、説明のために示したものであり、画像IMGには含まれない。
図2に示した目領域ER,ELのそれぞれにおいて、破線で囲んで示した矩形REA1,REA2のそれぞれは、眼鏡GLSなどの反射部材による反射光の影響を受けている領域の例を示す。即ち、図2の例は、目領域EL,ERの双方が、反射光の影響を受けている例を示す。なお、図2の例では、領域REA1と領域REA2とのそれぞれにおける反射光の影響の強さの違いを、瞳孔PR,PLおよび虹彩SR,SLのそれぞれを示す図形に付した網掛けの濃度の違いによって示している。また、図2に示した目領域EL,ERにおいて、反射光の影響を受けた領域REA1,REA2を示す破線は、説明のために示したものであり、画像IMGには含まれない。
領域REA1および領域REA2の形状は、図2に示した矩形に限らず、不定形である場合もあり、また、領域REA1および領域REA2内の各画素の輝度値に含まれる反射光による成分の大きさは、画素毎に異なる場合もある。なぜなら、図1に示したディスプレイ装置DSPの表示画面からの放射光や太陽光線などの外光が眼鏡GLSなどの反射部材で反射されて生じる反射光の強度は、外光の明るさや外光が入射する角度などによって様々に変化するからである。
図2に示した領域REA1および領域REA2のそれぞれに含まれる画素の輝度値は、人物Q1の眼球の表面からの反射光の強度と眼鏡GLSのレンズなどの反射部材による反射光の強度との和で示される強度に対応する値となる。このため、領域REAの内部の画像は、眼鏡GLSのレンズによる反射光の影響を受けていない場合に比べて、全体的に輝度が高くなっている。また、図2に示した左目の瞳孔PLが領域REAに含まれている場合に、瞳孔PLの内部の画素の輝度値と瞳孔PLの外側の画素の輝度値との差は、レンズによる反射光の影響を受けていない場合に比べて小さくなる場合が多い。
このため、図2に示したように、目領域EL,ERのそれぞれが、眼球よりも前に位置する反射部材による反射光の影響を受けている場合に、図1に示した特徴検出装置CDTにより目領域EL,ERのそれぞれから瞳孔あるいは虹彩を検出することが困難になる。
そこで、図1に示した画像処理装置10は、判定部11により目領域の双方に反射光の影響があると判定した場合に、予め蓄積部12に蓄積された情報に基づいて、検出部13により、例えば、図2に示した目領域EL,ER内の瞳孔PL,PRを検出する。なお、瞳孔PL,PRは、人物Q1の目の特徴部位の一例であり、画像処理装置10は、人物Q1の目の特徴部位として、瞳孔PL,PRの代わりに虹彩SL,SRの位置を特定してもよいし、瞳孔と虹彩との双方を目の特徴部位として検出してもよい。目の特徴部位として虹彩を検出する画像処理装置については、図16〜図17を用いて後述する。
画像処理装置10に含まれる判定部11と検出部13とは、顔認識装置RCNから目領域の画像を受ける。判定部11の出力は、検出部13に接続される。また、蓄積部12と検出部13とは互いに接続されており、検出部13は、蓄積部12に蓄積された情報を参照可能である。
図1に示した判定部11は、例えば、図2に示した目領域EL,ERのそれぞれについて、目領域EL,ERに含まれる画素の輝度値のヒストグラムを求め、求めたヒストグラムに基づいて、各目領域EL,ERが反射光の影響を受けているか否かを判定する。例えば、判定部11は、反射光の影響がある場合に対応する第1のヒストグラムと反射光の影響がない場合に対応する第2のヒストグラムとを内蔵のメモリなどに予め保持しておく。そして、判定部11は、目領域EL,ERのそれぞれについて求めたヒストグラムと保持した第1のヒストグラムおよび第2のヒストグラムのそれぞれとを比較する。求めたヒストグラムが第2のヒストグラムよりも第1のヒストグラムに類似する場合に、判定部11は、対応する目領域は反射光の影響を受けていると判定する。一方、求めたヒストグラムが第2のヒストグラムよりも第1のヒストグラムに類似する場合に、判定部11は、対応する目領域は反射光の影響を受けていないと判定する。
例えば、図2に示した目領域ELについて求めたヒストグラムと第1のヒストグラムとの類似度は、目領域ELついて求めたヒストグラムと第2のヒストグラムとの類似度よりも高くなるため、判定部11は、目領域ELは反射光の影響を受けていると判定する。同様に、図2に示した目領域ERについて求めたヒストグラムと第1のヒストグラムとの類似度は、目領域ERついて求めたヒストグラムと第2のヒストグラムとの類似度よりも高くなるため、判定部11は、目領域ERは反射光の影響を受けていると判定する。
なお、判定部11において、各目領域EL,ERが反射光の影響を受けているか否かを判定する手法は、ヒストグラムの比較を用いる方法に限らず、反射光の影響の有無による画像の特徴の違いを検出する方法であればよい。例えば、判定部11は、各目領域EL,ERから検出したエッジのそれぞれの勾配を求め、求めた勾配の平均値と、反射光の影響を受けていない目領域から検出したエッジについて求めた勾配の平均値との比較に基づいて、反射光の影響の有無を判定してもよい。
また、図1に示した眼鏡GLSのレンズは、人物Q1の眼球の前に位置する反射部材の一例であり、判定部11によって判定される反射光の影響は、図1に示した眼鏡GLSのレンズによる反射光の影響に限られない。即ち、判定部11によって影響の有無が判定される反射光は、例えば、人物Q1の眼球の前に位置する反射部材による反射光であればよく、例えば、ブルーライトの入射を軽減する目的などで眼鏡GLSに装着されるフィルム部材による反射光も含まれる。また、判定部11は、人物Q1の眼球の前に複数種類の反射部材があり、複数種類の反射部材のそれぞれによる反射光の成分が複合している場合にも、以上に説明した処理と同様の処理により、目領域の画素の特徴値への影響の有無を判定することができる。
図1に示した蓄積部12は、2つの目のそれぞれに含まれる特徴部位の画像に表れる反射光の影響の強さ毎に、特徴部位の画像の特徴を予め蓄積している。例えば、蓄積部12は、強さの異なる複数種類の反射光の影響がある状態のそれぞれに対応して、目領域に含まれる特徴部位の画像の特徴として、瞳孔の内部にある画素の輝度値と瞳孔の周囲にある虹彩に含まれる画素の輝度値との組を蓄積している。
図3は、図1に示した蓄積部12の例を示す。図3に示した蓄積部12に含まれる各行は、互いに異なる強さを持つ反射光の影響がある状態に対応しており、瞳孔の輝度値を示す列の要素と虹彩の輝度値を示す列の要素とを含んでいる。
図3の例では、蓄積部12は、図2に示した領域REA1における反射光の影響の強さに相当する強さの影響を受けている状態での瞳孔の輝度Bp1および虹彩の輝度Bs1を示す情報を、瞳孔の特徴の一つとして蓄積している。同様に、図3に示した蓄積部12は、図2に示した領域REA2における反射光の影響の強さに相当する強さの影響を受けている状態での瞳孔の輝度Bp2および虹彩の輝度Bs2を示す情報を、瞳孔の特徴の一つとして蓄積している。なお、図3の例では、領域REA1、REA2のそれぞれにおける反射光の影響の強さとは異なる反射光の影響の強さに対応して蓄積された特徴部位の画像の特徴の図示は省略されている。また、様々な強さの反射光の影響がある状態における特徴部位の画像の特徴を蓄積部12に蓄積する手法については、図6〜図8を用いて後述する。
そして、図1に示した検出部13は、目領域の双方が反射光の影響を受けていると判定された場合に、目領域のそれぞれに含まれる画素のうち、蓄積部12に蓄積された特徴部位の特徴と類似する特徴を有する画素を含む領域を、特徴部位として検出する。
検出部13は、例えば、図2に示した目領域ELに含まれる画素PxL1の輝度値に類似する瞳孔の輝度値と画素PxL1から距離dの位置にある画素PxL2の輝度値に類似する虹彩の輝度値との組を、蓄積部12に蓄積された瞳孔の特徴から探す。そして、画素PxL1の輝度値に類似する瞳孔の輝度値と画素PxL2の輝度値に類似する虹彩の輝度値との組が蓄積部12に含まれている場合に、検出部13は、瞳孔PLに含まれる画素の候補として画素PxL1を抽出する。
同様に、検出部13は、目領域ERに含まれる画素PxR1の輝度値に類似する瞳孔の輝度値と画素PxR1から距離dの位置にある画素PxR2の輝度値に類似する虹彩の輝度値との組を、蓄積部12に蓄積された瞳孔の特徴から探す。そして、画素PxR1の輝度値に類似する瞳孔の輝度値と画素PxR2の輝度値に類似する虹彩の輝度値との組が蓄積部12に含まれている場合に、検出部13は、瞳孔PRに含まれる画素の候補として画素PxL1を抽出する。
ここで、画素PxL1,PxL2の間および画素PxR1,PxR2の間の距離dは、例えば、画像IMGに瞳孔PL、PRの画像として含まれる円形のパターンの半径よりも大きく、円形のパターンの直径よりも小さい値に設定されることが望ましい。
図4は、図2に示した目領域ERから抽出された瞳孔PRに含まれる画素の候補の例を示す。なお、図4に示す要素のうち、図2に示した要素と同等のものは、同一の符号で示すとともに要素の説明を省略する場合がある。また、図4において、破線で示した図形は、まぶたおよび虹彩の輪郭と図1に示した検出部13の処理で抽出された画素の候補との位置関係を示すための図形であり、目領域ERから抽出された瞳孔PRに含まれる画素の候補を示す画像には含まれない。
図4において実線で示した矩形のそれぞれは、蓄積部12に蓄積された瞳孔の特徴に基づいて、検出部13により、瞳孔PRに含まれる画素の候補として、目領域ERから抽出された画素の例を示す。また、図4に示した領域Pc1および領域Pc2のそれぞれは、検出部13によって抽出された画素の候補を含む領域の例を示す。
図1に示した検出部13は、例えば、抽出した画素の候補を含む領域(例えば、図4に示した領域Pc1,Pc2)の中から、他の領域よりも、円形に近い形状を有する領域を見つけ、見つけた領域を瞳孔PRの領域として検出する。
図4の例では、領域Pc1の輪郭と点線で示した瞳孔PRの輪郭を示す円形との類似度が、例えば、別の領域Pc2の輪郭と瞳孔PRの輪郭を示す円形との類似度に比べて高くなっている。この場合に、検出部13は、領域Pc1を瞳孔PRとして検出する。
同様にして検出部13は、図2に示した目領域ELから瞳孔PLに含まれる画素の候補として抽出した画素を含む領域から、他の領域よりも円形に近い形状を持つ領域を見つけることで、瞳孔PLを検出することができる。
図5は、図1に示した画像処理装置10の動作を示す。図5に示したステップS301〜ステップS303の処理は、図1に示した画像処理装置10の動作を示すとともに、反射光の影響が両方の目領域にある場合に人物Q1の目の特徴部位を検出するための画像処理方法および画像処理プログラムの例を示す。例えば、図5に示す処理は、画像処理装置10に搭載されたプロセッサが画像処理プログラムを実行することで実現される。なお、図5に示す処理は、画像処理装置10に搭載されるハードウェアによって実行されてもよい。また、図5に示したステップS301〜ステップS303の処理は、例えば、図1に示した画像処理装置10が、顔認識装置RCNから図2に示した目領域ER,ELの画像を受ける毎に実行されてもよい。すなわち、図5に示したステップS301〜ステップS303の処理は、撮影装置CAMによって人物Q1が撮影される毎に実行されてもよい。
ステップS301において、図1に示した判定部11は、図2を用いて説明したようにして、顔認識装置RCNから受けた目領域ER,ELのそれぞれが眼球の表面以外の反射部材による反射光の影響を受けているか否かを判定する。
ステップS302において、画像処置装置10に搭載されたプロセッサは、ステップS301の処理で、目領域ER,ELの双方が反射光による影響を受けているとされたか否かを判定する。
図2の例のように、目領域EL、ERの双方が眼鏡GLSのレンズなどの反射部材による反射光の影響を受けているとされた場合に(ステップS302の肯定判定(YES))、処理は、ステップS303に進む。
ステップS303において、検出部13は、図2および図4を用いて説明したようにして、目領域EL,ERのそれぞれから、蓄積部12に蓄積された特徴部位の特徴と類似する特徴を有する画素を抽出し、抽出した画素含む領域を特徴部位として検出する。
目領域ER,ELの双方が反射光による影響を受けているとされた場合に、ステップS303の処理で検出された特徴部位の位置を示す情報は、特徴検出装置CDTによる検出結果の代わりに視線検出装置DETに渡される。つまり、視線検出装置DETは、目領域ER,ELの双方が反射光による影響を受けているとされた場合に、画像処理装置10から渡された特徴部位の位置に基づいて、人物Q1の視線の向きを求める。
一方、目領域EL,ERの少なくとも一方が眼鏡GLSのレンズなどの反射部材による反射光の影響を受けていないとされた場合に(ステップS302の否定判定(NO))、画像処理装置10は、特徴部位の位置を特定せずに処理を終了する。
そして、この場合に、視線検出装置DETは、特徴検出装置CDTによって目領域EL,ERのそれぞれから検出された特徴部位の位置を用いて、人物Q1の視線の向きを求める。
以上に説明したように、図1に示した画像処理装置10は、目領域の双方が反射光の影響を受けている場合に、蓄積部12に蓄積された特徴情報に基づいて、目領域のそれぞれにおいて瞳孔を表す画素の候補を抽出することで、左右の目の瞳孔の位置を特定する。
即ち、図1に示した画像処理装置10は、眼球の前に位置する反射部材による反射がある場合にも、人物Q1の視線の検出に用いる目の特徴部位として、左右の瞳孔PL,PRの位置を特定することが可能である。
画像処理装置10により検出する目の特徴部位は、図2などに示した瞳孔PL,PRに限らず、図2に示した左右の虹彩SL,SRでもよいし、瞳孔PL,PRと虹彩SL,SRとの双方を検出してもよい。なお、特徴部位として虹彩SL,SRを検出する画像処理装置10については、図16、図17を用いて後述する。
次に、図1に示した撮影装置CAMで撮影された画像IMGに基づいて、特徴部位の画像の特徴を蓄積部12に蓄積する手法について説明する。
図6は、画像処理装置10の別実施形態を示す。なお、図6に示す構成要素のうち、図1に示した構成要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。
図6に示した画像処理装置10は、図1に示した判定部11と蓄積部12と検出部13とに加えて、特定部14と登録部15とを含んでいる。特定部14は、判定部11の出力と、特徴検出装置CDTの出力とを受ける。また、登録部15は、顔認識装置RCNによって抽出された目領域を受けるとともに、特定部14の出力を受ける。そして、登録部15の出力は、蓄積部12に渡される。
ここで、撮影装置CAMによって例えば時間間隔を空けて人物Q1を繰り返し撮影する場合に、撮影された複数の画像IMGの中には、両目のそれぞれに対応する目領域EL,ERの一方のみが反射光の影響を受けている画像IMGが含まれる可能性がある。
図7は、目領域EL,ERの一方のみが反射光の影響を受けている画像IMGの例を示す。なお、図7に示す要素のうち、図2または図4に示した要素と同等のものは、同一の符号で示すとともに要素の説明を省略する場合がある。
図7は、人物Q1の左目に対応する目領域ELが眼鏡GLSのレンズなどによる反射光の影響を受け、人物Q1の右目に対応する目領域ERは眼鏡GLSのレンズなどによる反射光の影響を受けない例を示している。つまり、図7は、人物Q1の両目のそれぞれに対応する2つの目領域EL,ERの一方が、眼球の前に位置する反射部材による反射光の影響を受けている例を示す。
図7において、破線で示した矩形REAは、目領域ELの中で、眼鏡GLSの左側のレンズによる反射光により輝度値が影響を受けている領域の例を示す。なお、図7において、反射光による影響を受けている領域REAを示す破線は、説明のために示したものであり、画像IMGには含まれない。
ところで、人物Q1の顔を含む領域を撮影した画像IMGにおいて、一方の目領域ERに含まれる瞳孔PRとプルキンエ像PrRとの相対位置と、他方の目領域ELに含まれる瞳孔PLとプルキンエ像PrLの相対位置との間には相関関係がある。また、プルキンエ像PrR,PrLは、いずれも、目領域ER,ELに含まれる他の画像に比べて輝度の高い円形のパターンである。したがって、特徴検出装置CDTは、図7に示したように、領域REAにプルキンエ像PrLが含まれている場合でも、例えば、輝度値が所定値以上である画素が円形のパターンで分布している箇所を検出することで、プルキンエ像PrLの位置を検出可能である。そして、特徴検出装置CDTは、図7に示した目領域ERから特徴部位として検出した瞳孔PRの位置とともに、目領域ER,ELのそれぞれから検出したプルキンエ像PrR,PrLのそれぞれの位置を示す情報を特定部14に渡す。
そこで、図6に示した特定部14は、反射光の影響を受けていない目領域から検出された瞳孔とプルキンエ像の相対位置と、反射光の影響を受けている目領域から検出されたプルキンエ像の位置とから、反射光の影響を受けている目領域の瞳孔の位置を特定する。
例えば、特定部14は、特徴検出装置CDTによって図7に示した目領域ERから検出された瞳孔PRおよびプルキンエ像PrRの位置に基づいて、瞳孔PRとプルキンエ像PrRとの相対位置を求める。そして、特定部14は、目領域ELから特徴検出装置CDTによって検出されたプルキンエ像PrLの位置を基準として、求めた相対位置で示される位置を、瞳孔PLの位置として登録部15に渡す。
なお、特定部14は、反射光の影響を受けている目領域(例えば、図7の目領域EL)について特定した特徴部位(例えば、瞳孔PL)の位置を、視線検出装置DETに渡してもよい。また、特定部14は、例えば、瞳孔PRとプルキンエ像PrRの相対位置で示される目領域EL内の位置を含む所定の領域から、目領域ERから検出された瞳孔PRの輪郭と類似した輪郭を持つパターンを検出することで、瞳孔PLの位置を特定してもよい。なお、反射光の影響を受けた目領域に含まれる瞳孔の位置の特定に、パターンマッチング処理を用いる特定部14については、図7、図8を用いて後述する。
図6に示した登録部15は、反射光の影響を受けているとされた目領域(例えば、図7の目領域EL)を受け、受けた目領域から、特定部14で特定された特徴部位の位置で示される領域の画像の特徴を抽出し、抽出した特徴を蓄積部12に蓄積させる。
登録部15は、例えば、図7に示した目領域ELにおいて、特定部14により特定された瞳孔PLの位置の画素PxL1の輝度値と、画素PxL1から所定の距離dの位置の画素PxL2の輝度値との組を、瞳孔の特徴の一つとして蓄積部12に登録する。ここで、特定部14によって特定された位置の画素PxL1と画素PxL1から所定の距離dの位置にある別の画素PxL2とは、特定された特徴部位の位置で示される領域の一例である。
図7に示した画素PxL1と画素PxL2との間の距離dは、例えば、反射光の影響を受けていない目領域ERから検出された瞳孔PRを示す円形の半径よりも大きく、瞳孔PRを示す円形の直径よりも小さい値に設定されることが望ましい。この場合に、画素PxL1の輝度値と画素PxL2の輝度値との組は、反射光の影響を受けた状態での瞳孔PLの輝度と同じ反射光の影響を受けた状態での虹彩SLの輝度を示す。即ち、登録部15によって蓄積部12に登録される2つの輝度値の組は、人物Q1の両目のそれぞれに対応する目領域の画像が眼鏡GLSなどの反射部材による反射光の影響を受けている場合に、瞳孔および虹彩の画像が示す特徴を示す。なお、図2において、画素PxL1および画素PxL2のそれぞれを示す矩形は、説明のために示した図形であり、画像IMGには含まれない。
図8は、図6に示した画像処理装置10の動作を示す。なお、図8に示すステップのうち、図5に示したステップと同等のものは、同一の符号で示すとともにステップの説明を省略する場合がある。図8に示すステップS301〜ステップS306の処理は、例えば、画像処理装置10に搭載されたプロセッサが画像処理プログラムを実行することで実現される。なお、図8に示す処理は、画像処理装置10に搭載されるハードウェアによって実行されてもよい。
図6に示した画像処理装置10は、図8に示したステップS302の否定判定(NO)ルートにおいて、次に述べるステップS304,S305,S306の処理を実行する。
ステップS304において、画像処理装置10に搭載されたプロセッサは、眼鏡GLSなどの反射部材による反射光の影響を受けている目領域が2つの目領域EL,ERの一方のみであるか否かを判定する。
図7に示した例のように、目領域ELのみが眼鏡GLSなどの反射部材による反射光の影響を受けているとされた場合に(ステップS304の肯定判定(YES))、処理は、ステップS305に進む。
一方、目領域EL,ERの双方ともに眼鏡GLSなどの反射部材による反射光の影響を受けていないとされた場合に(ステップS304の否定判定(NO))、図6に示した画像処理装置10は、特徴部位の位置を特定せずに処理を終了する。
ステップS305において、図6に示した特定部14は、図7を用いて説明したようにして、反射光の影響を受けているとされた目領域(例えば、目領域EL)に含まれる特徴部位の位置として、例えば瞳孔PLの位置を特定する。
ステップS306において、図6に示した登録部15は、反射光の影響を受けているとされた目領域の中で、ステップS305の処理で特定された位置で示される画素の特徴値を、反射光の影響を受けた特徴部位の画像の特徴として蓄積部12に蓄積させる。
以上に説明したように、図6に示した画像処理装置10は、目領域EL,ERの一方にのみ反射光の影響があると判定される毎に、ステップS305,S306の処理を実行することで、反射光の影響を受けた特徴部位の画像の特徴を蓄積部12に蓄積させる。
したがって、図6に示した撮影装置CAMにより多数の画像IMGが撮影される過程で、目領域ER,ELが受ける反射光の強さが様々に変化すれば、登録部15により、様々な強さの反射光の影響を受けた瞳孔の画像の特徴が蓄積部12に集積される。即ち、図6に示した画像処理装置10によれば、撮影装置CAMによって時系列的に撮影される画像IMGに基づいて、蓄積部12に、反射光の影響の強さ毎に、反射光の影響を受けた特徴部位の画像の特徴を蓄積させることができる。つまり、図6に示した画像処理装置10は、視線検出装置DETによる人物Q1の視線の向きの検出を行う過程と並行して、両方の目領域に反射光の影響がある場合の特徴部位の検出に用いる情報を生成し、蓄積部12に蓄積させることができる。
なお、登録部15により、図3に示した蓄積部12の列「虹彩の輝度値」に輝度値を蓄積させる画素は、図2および図8に示した位置関係で示される画素に限らず、特定部14によって特定された位置を中心とする半径dの円周上にある画素であればよい。また、登録部15は、特定された位置を中心とし、反射光の影響を受けていない目領域で検出された瞳孔と同等の半径を持つ円形の内側にある複数の画素のそれぞれの輝度値と、当該画素と輪郭を挟んで対向する画素の輝度値との組を蓄積部12に蓄積させてもよい。反射光の影響を受けた瞳孔の画像の特徴の一つとして、蓄積部12に登録部15が輝度値を蓄積させる画素の組の別例については、図11を用いて後述する。
以上に説明したように、図6に示した画像処理装置10は、目領域の一方が眼鏡GLSのレンズによる反射光の影響を受けている場合に、反射光の影響を受けた瞳孔の画像の特徴を蓄積部12に蓄積する。そして、目領域の双方が反射光の影響を受けている場合に、蓄積部12に蓄積された特徴に基づいて、目領域に含まれる画素の中から、検出部13により瞳孔を表す画素の候補を抽出することで、左右の目の瞳孔を検出する。
即ち、図6に示した画像処理装置10は、人物Q1に装着された眼鏡GLSのレンズなどによる反射光の影響のために特徴検出装置CDTでの特徴部位の検出が困難な場合にも、目領域EL,ERのそれぞれでの瞳孔PL,PRの位置を特定することが可能である。
なお、画像処理装置10により検出する人物Q1の目の特徴部位は、図2、図7に示した瞳孔PL,PRに限らず、同じく図2、図7に示した左右の虹彩SL,SRでもよいし、瞳孔PL,PRと虹彩SL,SRとの双方を検出してもよい。なお、特徴部位として虹彩SL,SRを検出する画像処理装置10については、図16、図17を用いて後述する。
図9は、画像処理装置10の別実施形態を示す。なお、図9に示す構成要素のうち、図6に示した構成要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。
図9に示した検出部13aは、抽出部131と位置特定部132とを含んでいる。抽出部131は、判定部11により、目領域EL,ERの一方が眼鏡GLSなどの反射部材による反射光の影響を受けているとされた場合に、反射光の影響を受けているとされた目領域の画像を受ける。また、抽出部131と蓄積部12とは互いに接続されており、抽出部131は、蓄積部12に蓄積された情報を参照可能である。抽出部131の出力は、位置特定部132に渡され、位置特定部132によって行われる特徴部位の位置を特定する処理に用いられる。そして、位置特定部132の出力は、視線検出装置DETに渡される。なお、検出部13aに含まれる抽出部131および位置特定部132の機能および動作については、図11および図12を用いて後述する。
図9に示した特定部14aは、予測部141と、探索部142とを含んでいる。予測部141は、目領域EL,ERの一方が眼鏡GLSなどの反射部材による反射光の影響を受けているとされた場合に、反射光の影響を受けていないとされた目領域から特徴検出装置CDTにより検出された特徴部位およびプルキンエ像の位置を示す情報を受ける。また、予測部141は、目領域EL,ERの一方が眼鏡GLSなどの反射部材による反射光の影響を受けているとされた場合に、反射光の影響を受けているとされた目領域から特徴検出装置CDTによって検出されたプルキンエ像の位置を示す情報を受ける。予測部141の出力は、探索部142に渡され、探索部142による探索処理において、特徴部位を探索する範囲の設定に用いられる。また、探索部142による探索で得られた特徴部位の位置を示す情報は、登録部15に渡され、特徴部位の画像の特徴として蓄積部12に輝度値を蓄積させる画素の特定に用いられる。
検出部13aに含まれる抽出部131および位置特定部132の説明に先立って特定部14aに含まれる予測部141および探索部142の機能および動作を説明する。
予測部141は、図6に示した特定部14と同様に、反射光の影響を受けていないとされた目領域のプルキンエ像と瞳孔との相対位置と、反射光の影響を受けている目領域のプルキンエ像の位置とから、後者の目領域に含まれる瞳孔の位置を予測する。
ところで、反射光の影響を受けている目領域からプルキンエ像として検出される領域は、反射光の影響を受けていない目領域から検出されるプルキンエ像に比べて、真円度が低い場合がある。
図10は、図2に示した目領域ELの別例を示す。なお、図10に示す要素のうち、図2に示した要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。図10において、破線で示した矩形の領域REA3は、目領域ELにおいて、眼鏡GLSなどの反射部材による反射光の成分により、輝度値が影響を受けている領域を示す。ここで、図10において領域REA3を示す破線は、説明のために示したものであり、目領域ELの画像には含まれない。
図10に示した楕円形の領域PrL1は、図9に示した特徴検出装置CDTにより、反射光の影響を受けた領域REA3を含む目領域ELからプルキンエ像として抽出された領域を示し、点PrLcは、領域PrL1の形状から求めたプルキンエ像の中心位置を示す。
図10に示したように、反射光の影響とプルキンエ像とが重なり合う場合には、特徴検出装置CDTでプルキンエ像の検出に用いる閾値以上の輝度を有する画素を含む領域として、領域PrL1のように円形とは異なる形状を持つ領域が検出される場合がある。
この場合に、領域PrL1の形状から求めた中心位置PrLcは、撮影装置CAMによって撮影された人物Q1の左の眼球に対応する本来のプルキンエ像の位置からずれている可能性がある。そして、点PrLcの位置に基づいて予測された人物Q1の左の瞳孔の中心位置PLcは、目領域ELに含まれる本来の瞳孔PLの中心と一致しない可能性がある。
そこで、図9に示した探索部142は、予測部141によって予測された瞳孔の中心位置PLcを含む所定の範囲ASにおいて、反射光の影響がないとされた目領域から検出された瞳孔と同等の形状を持つパターンを探索することで、瞳孔PLを検出する。また、探索部142は、検出した瞳孔PLの外形に基づいて、瞳孔PLの中心の位置として、図10において白色の円形で示した点PLc1の位置を求める。そして、探索部142は、第1の目領域(例えば、図8の目領域EL)に含まれる特徴部位の位置として、求めた瞳孔PLの中心PLc1の位置を示す情報を図9に示した蓄積部12に渡すとともに、視線検出装置DETに渡す。
なお、図10に示した点PrLcおよび点PLcを示す黒色の円形および点PLc1を示す白色の円形は、説明のためのものであり、目領域ELの画像には含まれない。同様に、図10において、探索部142による探索の範囲ASを示す二点鎖線は、説明のためのものであり、目領域ELの画像には含まれない。
以上に説明したように、図9に示した特定部14aは、反射光の影響を受けた目領域に含まれる瞳孔の位置の検出に、左右の瞳孔の形状が互いに類似していることを利用する。これにより、反射光の影響によってプルキンエ像が変形している場合などに、変形したプルキンエ像の位置をそのまま用いた場合に比べて、反射光の影響を受けた目領域に含まれる瞳孔の位置を高い精度で検出することができる。
次に、登録部15aによって蓄積部12に蓄積される特徴部位の画像の特徴の別例について説明する。
登録部15aは、探索部142による探索で特定された瞳孔(例えば、図8の瞳孔PL)の中心位置で示される瞳孔の輪郭と所定の位置関係を持つ複数の画素の輝度値を、それぞれ異なる強さの反射光の影響を受けた瞳孔の画像の特徴として蓄積部12に蓄積させる。また、登録部15aは、例えば、顔認識装置RCNから、人物Q1の上まぶたの輪郭および下まぶたの輪郭を示す情報を受け、反射光の影響を受けた瞳孔の画像の特徴を蓄積部12に蓄積させる際に、受けた情報を用いる。
図11は、登録部15によって蓄積部12に蓄積される特徴の別例を示す。なお、図11に示す要素のうち、図2または図10に示した要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。
図11に示した黒色の矩形PxL1は、探索部142による探索で特定された瞳孔の中心位置にある画素を示す。また、図11に実線で示した矩形Pu1,Pu2,Pu3,Pu4のそれぞれは、画素PxL1を中心とし、所定の半径D1を持つ円C1の周上に位置する画素の例を示す。また、図11に破線で示した矩形Ps1,Ps2,Ps3,Ps4のそれぞれは、画素PxL1を中心とし、所定の半径D2を持つ円C2の周上に位置する画素の例を示す。ここで、図11に示した円C1の半径D1は、例えば、反射光の影響を受けていないとされた目領域(例えば、図8に示した目領域ER)から検出された瞳孔(例えば、瞳孔PR)の半径よりも小さい値に設定される。また、図11に示した円C2の半径D2は、例えば、反射光の影響を受けていないとされた目領域から検出された瞳孔の半径よりも大きく、反射光の影響を受けていないとされた目領域から検出された虹彩の半径よりも小さい値に設定される。
また、図11に示した曲線Luは、顔認識装置RCNによる顔認識結果で示される人物Q1の上まぶたの輪郭を示し、曲線Ldは、同じく、人物Q1の下まぶたの輪郭を示す。
図9に示した登録部15aは、探索部142から受けた情報で示される瞳孔の中心位置に基づいて、図11に示した円C1上の画素Pu1,Pu2,Pu3,Pu4のそれぞれと円C2上の画素Ps1,Ps2,Ps3,Ps4のそれぞれを特定する。ここで、登録部15aは、円C2の周上の画素Ps1,Ps2,Ps3,Ps4のそれぞれを、円C1と円C2との中間の大きさを持つ円の輪郭を挟んで、円C1の周上の画素Pu1,Pu2,Pu3,Pu4のそれぞれに対向する位置に設定することが望ましい。この場合に、画素Pu1と画素Ps1とは、瞳孔PLの輪郭を挟んで、瞳孔PLの内部と瞳孔PLを取り巻く虹彩SLの内部とに位置することになる。同様に、画素Pu2と画素Ps2との組、画素Pu3と画素Ps3との組および画素Pu4と画素Ps4との組のそれぞれは、瞳孔PLの輪郭を挟んで、瞳孔PLの内部と虹彩SLの内部とに位置する。
そして、登録部15aは、画素Pu1の輝度値と画素Ps1の輝度値との組と、画素Pu2の輝度値と画素Ps2の輝度値との組とのそれぞれを、反射光の影響を受けた瞳孔の画像の特徴の一つとして蓄積部12に登録する。同様に、登録部15aは、画素Pu3の輝度値と画素Ps3の輝度値との組と、画素Pu4の輝度値と画素Ps4の輝度値との組とのそれぞれを、反射光の影響を受けた瞳孔の画像の特徴の一つとして蓄積部12に登録する。
ここで、図11の例では、画素Ps4は、上まぶたの輪郭Luよりも上まぶた側に位置しているため、画素Ps4の輝度値は、虹彩SLの輝度ではなく上まぶたの輝度を示す。このように、円C1又は円C2に基づいて抽出した画素が上まぶたあるいは下まぶたを示す領域に含まれる場合に、登録部15aは、上まぶたあるいは下まぶたを示す領域に含まれる画素の輝度値を含む輝度値の組を蓄積部12に登録しないことが望ましい。
なお、図11に示した画素Pu1〜Pu4のそれぞれは、反射光の影響を受けているとされた目領域に含まれる特徴部位(例えば、瞳孔PL)の内側に位置する複数の画素の例である。そして、図11に示した画素Ps1〜Ps4のそれぞれは、反射光の影響を受けているとされた目領域において、特徴部位の周囲に位置する画素の例である。
また、登録部15aにより蓄積部12に輝度値が蓄積される円C1の周上の画素の数は、図11に示した4つに限らず、1以上であればいくつでもよい。例えば、登録部15aは、例えば、図11に示した画素Pu1,Pu2,Pu3,Pu4のそれぞれの輝度値を含む特徴とともに、画素Pu1,Pu2,Pu3,Pu4のそれぞれの中間に位置する4つの画素の輝度値を含む特徴を蓄積部12に登録してもよい。
以上に説明したように、図9に示した登録部15aは、特定部14aによって特定された瞳孔の中心位置で示される瞳孔の輪郭を挟んで対向する複数組の画素の輝度値を、反射光の影響を受けた瞳孔の画像の特徴として蓄積部12に蓄積させる。これにより、例えば、図11に示した領域REA3の内部に反射光の影響の強さが異なる複数の領域が混在している場合に、各領域での強さを持つ反射光の影響を受けた瞳孔と虹彩との境界付近の特徴を一括して蓄積部12に蓄積させることができる。
次に、図9に示した検出部13aに含まれる抽出部131および位置特定部132の機能および動作を、図11および図12を用いて説明する。
抽出部131は、反射光の影響を受けているとされた目領域の各画素に順次に注目し、蓄積部12に蓄積された情報を用いて、次のようにして、特徴部位の輪郭を示す画素の候補を抽出する。例えば、抽出部131は、注目した第1画素の輝度値と、第1画素から所定の距離の位置にある第2画素の輝度値との組が、蓄積部12に蓄積されている場合に、第1画素および第2画素を瞳孔の輪郭を示す画素の候補として抽出する。ここで、抽出部131は、第1画素と第2画素との間の距離を、図11に示した円C1の半径D1と円C2の半径D2との差と同等に設定することが望ましい。この場合に、第2画素は、第1画素を中心とし、半径D1とD2との差で示される所定の半径を持つ円の周上に位置する複数の画素のいずれかである。
例えば、抽出部131は、第1画素の輝度値と蓄積部12に蓄積された特徴の一つに瞳孔の内部の輝度値として含まれる場合に、第1画素を中心とする所定の半径の円の周上にある各画素の輝度値を、対応して蓄積された虹彩の輝度値と比較する。そして、第1画素を中心とする所定の半径の円の周上にある画素のいずれかの輝度値が、第1画素の輝度値に対応して蓄積された虹彩の輝度値に類似する場合に、抽出部131は、第1画素を瞳孔の輪郭の内側に位置する画素の候補として抽出する。即ち、第1画素が、瞳孔の内部のうち、瞳孔の中心よりも瞳孔の輪郭に近い位置にある画素であるとし、第2画素が、虹彩のうち、瞳孔の輪郭に近い位置の特徴を示す場合に、抽出部131は、第1画素を瞳孔の輪郭を示す画素の候補として抽出する。
また、抽出部131は、瞳孔の輪郭の内側に位置する画素の候補を抽出する代わりに、次に述べるようにして、瞳孔の輪郭の外側に位置する画素の候補を抽出してもよい。例えば、第1画素の輝度値が、虹彩の輝度値として蓄積部12に蓄積されている場合に、抽出部131は、第1画素を中心とする所定の半径の円の周上にある各画素の輝度値を、対応して蓄積された瞳孔の輝度値と比較する。そして、第1画素を中心とする所定の半径の円の周上にある画素のいずれかの輝度値が、第1画素の輝度値に対応して蓄積された瞳孔の輝度値に類似する場合に、抽出部131は、第1画素を瞳孔の輪郭の外側に位置する画素の候補として抽出する。即ち、第1画素が、虹彩のうち、瞳孔の輪郭に近い位置にある画素であるとし、第2画素が、瞳孔の輪郭に近い位置の特徴を示す場合に、抽出部131は、第1画素を瞳孔の輪郭を示す画素の候補として抽出する。
また、抽出部131は、瞳孔の輪郭の内側に位置する画素の候補とともに、瞳孔の輪郭の外側に位置する画素の候補を、反射光の影響を受けているとされた目領域から抽出してもよい。
図12は、図9に示した抽出部131によって抽出された瞳孔の輪郭を示す画素の候補の例を示す。なお、図12に示す要素のうち、図11に示した要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。また、図12において、破線で示した図形は、図9に示した抽出部131によって目領域ELから抽出された画素とまぶたおよび虹彩の輪郭との位置関係を示すための図形であり、画素の候補を示す画像には含まれない。
図12の例において、網掛けを付した矩形Cpのそれぞれは、瞳孔の輪郭を示す画素の候補のうち、瞳孔の輪郭の内側に含まれる画素の候補として、抽出部131により抽出された画素を示す。また、図12の例において、白色で示した矩形Csのそれぞれは、瞳孔の輪郭を示す画素の候補のうち、瞳孔の輪郭の外側に含まれる画素の候補として、抽出部131により抽出された画素を示す。
図12から分かるように、抽出部131によって瞳孔の輪郭を示す画素の候補として抽出される画素Cpおよび画素Csは、目領域ELにおいて、瞳孔の輪郭に類似した形状である円形に分布する。
そこで、図9に示した位置特定部132は、抽出部131によって抽出された画素の候補のうち、特徴部位の形状と共通する形状を持つ画素の候補の集合を検出し、検出した画素の候補の集合に含まれる各画素の位置を特徴部位の位置として特定する。
例えば、位置特定部132は、図12に示した画素の候補Cpが円形に分布している箇所を検出し、検出した箇所と検出した箇所の外側との境界にフィットする円として瞳孔の輪郭を求め、求めた円の中心を瞳孔の中心として特定する。
また、位置特定部132は、図12に示した画素の候補Csが円形に分布している箇所を検出し、検出した箇所と検出した箇所の内側との境界にフィットする円として瞳孔の輪郭を求め、求めた円の中心を瞳孔の中心として特定してもよい。
また、位置特定部132は、画素の候補Cpと画素の候補Csとが同心円状のパターンを描いて分布する箇所を検出し、検出した箇所にて、画素の候補Cpに対応する領域と画素の候補Csに対応する領域との境界にフィットする円を瞳孔の輪郭としてもよい。
以上に説明したように、図9に示した抽出部131は、蓄積部12に蓄積された様々な強さの反射光の影響を受けた瞳孔の画像の特徴を用いて、瞳孔の輪郭を示す画素の候補を抽出する。そして、位置特定部132により、抽出部131によって抽出された画素の候補のうち、瞳孔の輪郭と類似した形状を持つ画素の候補の集合を検出することで、反射光の影響を受けているとされた目領域において瞳孔の位置を特定することができる。
ここで、抽出部131は、目領域内の各画素である第1画素の輝度と、第1画素と所定の位置関係を持つ第2画素の輝度とが、反射光の影響を受けた瞳孔の輪郭付近の画像の特徴を示す場合に、第1画素および第2画素を瞳孔の輪郭を示す画素の候補として抽出する。これにより、反射光の影響の強さが目領域において不均一である場合にも、抽出部131は、瞳孔の輪郭を内側から示す画素の候補Cpあるいは瞳孔の輪郭を外側から示す画素の候補Csを漏れなく抽出することができる。そして、抽出部131によって漏れなく抽出された画素の候補の目領域における分布を調べることにより、位置特定部132は、確からしい瞳孔の輪郭を検出することができる。
ところで、反射光の影響を受けているとされた目領域での瞳孔の位置の特定に、過去に、目領域の双方から検出された瞳孔の位置を用いることも可能である。以下に、過去に特徴検出装置CDTによって検出された瞳孔およびプルキンエ像の位置に基づいて、反射光の影響を受けているとされた目領域での瞳孔の位置を特定する方法について説明する。
図13は、画像処理装置10の別実施形態を示す。なお、図13に示す構成要素のうち、図1または図9に示した構成要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。
図13に示した特定部14bは、収集部143と、検索部144と、選択部145とを含んでいる。収集部143および検索部144は、判定部11による判定結果と、特徴検出装置CDTによって検出された特徴部位およびプルキンエ像のそれぞれの位置を示す情報を受ける。また、収集部143と検索部144とは互いに接続されており、検索部144は、収集部143に保持された情報を参照可能である。また、選択部145は、検索部144の出力と視線検出装置CDTによって検出されたプルキンエ像の位置を示す情報を受ける。
収集部143は、判定部11により、目領域EL,ERの双方が反射光の影響を受けていないとされる毎に、特徴検出装置CDTにより、目領域EL,ERのそれぞれから検出された特徴部位の位置とプルキンエ像の位置との対応付けを保持する。
図14は、図13に示した収集部143の例を示す。図14に示した収集部143は、特徴検出装置CDTにより、目領域ERから特徴部位として検出された右の瞳孔の位置を示す列と、右のプルキンエ像の位置を示す列とを含んでいる。また、図14に示した収集部143は、目領域ELから特徴部位として検出された左の瞳孔の位置を示す列と、左のプルキンエ像の位置を示す列とを含んでいる。
なお、図14の例で、列「右の瞳孔の位置」に示した座標(XRp1、YRp1)は、例えば、図2に示した目領域ER,ELの双方に反射の影響がないとされた場合に、目領域ERから検出された瞳孔PRの中心位置の例を示す。同様に、列「右のプルキンエ像の位置」に示した座標(XRr1、YRr1)は、図2に示した目領域ER,ELの双方に反射の影響がないとされた場合に、目領域ERから検出されたプルキンエ像PrRの中心位置の例を示す。また、列「左の瞳孔の位置」に示した座標(XLp1、YLp1)は、図2に示した目領域ER,ELの双方に反射の影響がないとされた場合に、目領域ELから検出された瞳孔PLの中心位置の例を示す。そして、列「左のプルキンエ像の位置」に示した座標(XLr1、YLr1)は、図2に示した目領域ER,ELの双方に反射の影響がないとされた場合に、目領域ELから検出されたプルキンエ像PrLの中心位置の例を示す。なお、図14の例では、座標(XRp1、YRp1)と座標(XRr1、YRr1)と座標(XLp1、YLp1)と座標(XLr1、YLr1)とについての対応付け以外の対応付けの図示を省略している。
図13に示した収集部143は、撮影装置CAMによって撮影された画像IMGに含まれる目領域ER,ELの両方が反射光の影響を受けていないと判定される毎に、特徴検出装置CDTで検出された特徴部位およびプルキンエ像の位置の対応付けを保持する。
したがって、撮影装置CAMが例えば毎秒数枚の画像IMGを数十秒にわたって撮影する間に、収集部143は、図1に示した人物Q1とディスプレイ装置DSPとの相対位置および人物Q1の視線方向で示される様々な状況での対応付けを保持することができる。
検索部144は、目領域のいずれか一方が反射光の影響を受けていると判定された場合に、反射光の影響を受けていないとされた目領域から特徴検出装置CDTによって検出された瞳孔およびプルキンエ像のそれぞれの位置を示す座標を含む情報を受ける。例えば、図7に示したように、目領域ELが反射光の影響を受けており、目領域ERは反射光の影響を受けていないとされた場合に、検索部144は、特徴検出装置CDTによって目領域ERから検出された瞳孔およびプルキンエ像の位置を示す情報を受ける。
そして、検索部144は、収集部143に保持された対応付けの中から、反射光の影響を受けていないとされた目領域から検出された瞳孔およびプルキンエ像のそれぞれの位置を含む対応付けを検索する。
ここで、収集部143に様々な状況での対応付けが既に保持されていれば、図2に示した画像IMGが撮影されたときと類似した状況で、かつ、両方の目領域ER,ELに反射の影響がない状態で収集された対応付けが収集部143に保持されているとみなせる。したがって、目領域ERから検出された瞳孔PRおよびプルキンエ像PrRに基づいて収集部143から検索される対応付けの中から、反射光の影響を受けた目領域ELにおける瞳孔の位置を示す情報を含む対応付けを見つけ出すことができる。例えば、収集部143からの検索で得られた対応付けから、反射光の影響を受けた目領域ELから検出されたプルキンエ像の位置を示す座標を含む対応付けを検出すれば、検出した対応付けに含まれる左の瞳孔の位置は目領域EL内の瞳孔PLの位置とみなせる。
そこで、図13に示した選択部145は、目領域のいずれか一方が反射光の影響を受けていると判定された場合に、反射光の影響を受けているとされた目領域から特徴検出装置CDTによって検出されたプルキンエ像の位置を示す座標を含む情報を受ける。次いで、選択部145は、検索部144によって収集部143から検索された対応付けの中から、特徴検出装置CDTから受けたプルキンエ像の位置を示す座標を含む対応付けを検出する。そして、検出した対応付けを用いて、選択部145は、反射光の影響を受けているとされた目領域の瞳孔の位置を特定し、特定した位置を特定部14bで得られた瞳孔の位置として出力する。
図15は、図13に示した画像処理装置10の動作を示す。なお、図15に示すステップのうち、図8に示したステップと同等のものは、同一の符号で示すとともにステップの説明を省略する場合がある。図15に示す処理は、例えば、画像処理装置10に搭載されたプロセッサが画像処理プログラムを実行することで実現される。なお、図15に示す処理は、画像処理装置10に搭載されるハードウェアによって実行されてもよい。
図13に示した画像処理装置10は、図15に示したステップS304の否定判定(NO)ルートの処理として、ステップS311の処理を実行する。
ステップS311において、図13に示した収集部143は、特徴検出装置CDTにより、目領域EL,ERのそれぞれから検出された特徴部位の位置とプルキンエ像の位置との対応付けを収集し、図14に示したように、収集した対応付けを保持する。
また、図13に示した画像処理装置10は、図15に示したステップS304の肯定判定(YES)ルートの処理において、図8に示したステップS305の処理に代えて、ステップS312およびステップS313の処理を実行する。
ステップS312において、図13に示した検索部144は、収集部143に保持された対応付けの中から、反射光の影響を受けていない目領域から検出された特徴部位の位置を含む対応付けを検索する。
ステップS313において、図13に示した選択部145は、ステップS312の処理で検索した対応付けの中から、反射光の影響があるとされた目領域から検出されたプルキンエ像の位置を含む対応付けを選択する。そして、選択部145は、選択した対応付けに含まれる特徴部位の位置を登録部15に渡す。
以上に説明したように、図13に示した特定部14bは、目領域ER,ELの両方が反射光の影響を受けていないと判定される毎に収集した対応付けを用いて、片方の目領域に反射光の影響がある場合に、反射光の影響受けた目領域の瞳孔の位置を特定できる。
また、選択部145によって選択した対応付けに含まれる特徴部位の位置を含む領域について、図9に示した探索部142により、円形のパターンを探索する処理を行うことで、反射光の影響受けた目領域における瞳孔の位置の特定精度を向上させてもよい。
更に、選択部145は、収集部143に保持された対応付けを用いて、特徴検出装置CDTによって反射光の影響を受けた目領域から検出されたプルキンエ像の位置の確からしさを評価することもできる。
ここで、反射光の影響を受けた目領域においては、特徴検出装置CDTにおいてプルキンエ像の検出に用いる閾値以上の輝度値を持つ画素が複数の箇所で検出される場合がある。そして、この場合に、特徴検出装置CDTは、プルキンエ像を示す領域として、閾値以上の輝度値を持つ画素をそれぞれ含む複数の領域を検出し、検出した領域のそれぞれの中心位置をプルキンエ像の位置として出力する。
この場合に、選択部145は、特徴検出装置CDTからプルキンエ像の位置として受けた複数の位置のそれぞれと、収集部143に保持された対応付けに含まれるプルキンエ像の位置とを照合することで、確からしいプルキンエ像の位置を選択することができる。例えば、選択部145は、特徴検出装置CDTからプルキンエ像の位置として受けた複数の位置の中で、検索部144によって収集部143から検索された対応付けにプルキンエ像の位置として含まれるものを、確からしいプルキンエ像の位置として選択する。更に、選択部145は、特徴検出装置CDTによりプルキンエ像として検出された複数の領域のそれぞれが持つ形状と、プルキンエ像を特徴付ける形状との類似性に基づいて、特徴検出装置CDTで検出された各プルキンエ像の確からしさを評価してもよい。
そして、選択部145により、確からしいプルキンエ像を選択することで、反射光の影響により特徴検出装置CDTで複数のプルキンエ像が検出された場合にも、確からしいプルキンエ像の位置を視線検出装置DETに渡すことができる。
また、反射光の影響を受けた目領域に含まれる特徴部位の位置の特定に、蓄積部12に蓄積された情報を用いることもできる。
次に、目の特徴部位として虹彩を検出する画像処理装置を例として、反射光の影響を受けた目領域に含まれる特徴部位の位置の特定に、蓄積部12に蓄積された情報を用いる方法について説明する。
図16は、画像処理装置10の別実施形態を示す。なお、図16に示す構成要素のうち、図9に示した構成要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。
図16に示した撮影装置CAM1は、例えば、スマートフォンやタブレット型端末などの携帯端末装置UEあるいは車載端末装置に内蔵されたカメラである。撮影装置CAM1は、人物Q1の顔を含む所定の領域を所定の時間間隔で撮影し、撮影したカラー画像を画像IMGとして顔認識装置RCNに渡す。撮影装置CAM1は、可視光線に対する感度を有するカメラであればよく、携帯端末装置に搭載されたカメラに限らず、ノート型のコンピュータ装置の表示部に内蔵されたカメラでも、車載端末装置に内蔵されたカメラでもよい。なお、可視光線に対する感度を有するカメラを撮影装置CAM1として用いる場合に、図1に示した光源LUMは省略されてもよい。
図16に示した特定部14cは、図9に示した特定部14aに相当する構成要素であり、予測部141aと、探索部142aと、特定制御部146とを含み、以下に説明するようにして、反射光の影響を受けているとされた目領域に含まれる虹彩の位置を特定する。
図16に示した画像処理装置10において、顔認識装置RCNによって画像IMGから抽出された目領域の画像は、判定部11と、登録部15bと、検出部13bと、探索部142aとに渡される。また、判定部11の出力は、検出部13bと特定制御部146とに接続される。また、予測部141aは、特徴検出装置CDTから、反射光の影響を受けていないとされた目領域から検出された虹彩とプルキンエ像との位置と、反射光の影響を受けているとされた目領域から検出されたプルキンエ像の位置とを受ける。
蓄積部12bは、図9に示した蓄積部12に相当する構成要素であり、人物Q1の2つの目のそれぞれに含まれる虹彩の画像に表れる反射光の影響の強さ毎に、反射光の影響を受けた特徴部位の画像の特徴として、虹彩および白目の画像の特徴を蓄積している。
図17は、図16に示した蓄積部12bの例を示す。図17に示した蓄積部12bは、虹彩の特徴を示す輝度値と色度値を格納する2つの列と、白目の特徴を示す輝度値と色度値とを格納する2つの列とを含んでいる。
図17に示した蓄積部12bは、反射光の影響を受けた虹彩の画像の特徴の一つとして、例えば、図2に示した目領域ELに含まれる虹彩SLの内部にある画素の輝度値Bs1および色度値Crs1,Cbs1を含む情報を蓄積している。また、図17に示した蓄積部12bは、反射光の影響を受けた虹彩の画像の特徴の一つとして、例えば、図2に示した目領域ELにおいて虹彩SLを囲む白目に含まれる画素の輝度値Bw1および色度値Crw1,Cbw1を含む情報を蓄積している。
なお、図17においては、輝度値Bs1および色度値Crs1,Cbs1と輝度値Bw1および色度値Crw1,Cbw1との組で示される虹彩の画像の特徴とは異なる強さの反射光の影響を受けた虹彩の画像の特徴の図示は省略されている。
検出部13bは、図9に示した検出部13aに相当する構成要素であり、反射光の影響を受けたとされた目領域に含まれる画素のうち、蓄積部12bに蓄積された虹彩の特徴と類似する特徴を有する画素を含む領域を、虹彩として検出する。
登録部15bは、図9に示した登録部15aに相当する構成要素であり、特定部14cで特定された虹彩の位置で示される領域の画像の特徴を抽出し、抽出した特徴を蓄積部12bに蓄積させる。例えば、登録部15bは、特定部14cから渡された情報で示される虹彩の中心の位置に基づいて、反射光の影響を受けた目領域の虹彩に含まれる画素および白目に含まれる画素とを特定する。そして、登録部15bは、特定した画素のそれぞれの輝度値と色度値とを、反射光の反射光の影響を受けた虹彩の特徴として蓄積部12bに蓄積させる。例えば、登録部15bは、特定部14cで特定された虹彩の中心から瞳孔の半径よりも大きく虹彩の半径よりも小さい距離が離れた画素の輝度値および色度値を、反射光の影響を受けた目領域の画像から抽出する。そして、登録部15bは、抽出した輝度値および色度値を、反射光の影響を受けた虹彩の特徴の一つとして蓄積部12bに蓄積させる。また、登録部15bは、特定部14cで特定された虹彩の中心から虹彩の半径よりも大きい距離が離れた画素の輝度値および色度値を、反射光の影響を受けた目領域の画像から抽出する。そして、登録部15bは、抽出した輝度値および色度値を、反射光の影響を受けた白目の特徴の一つとして蓄積部12bに蓄積させる。
また、予測部141aは、図9に示した予測部141に相当する構成要素であり、特定制御部146からの指示に従って、特徴検出装置CDTから渡される情報に基づいて、反射光の影響を受けているとされた目領域に含まれる虹彩の位置を予測する。
探索部142aは、図9に示した探索部142に相当する構成要素であり、予測部141aによって予測された位置を含む所定の領域において円形のパターンを探索することで、反射光の影響を受けているとされた目領域に含まれる虹彩の位置を求める。探索部142aの出力は、特定部14cの出力として、登録部15bおよび視線検出装置DETに渡される。
特定制御部146と蓄積部12bとは互いに接続されており、特定制御部146は、蓄積部12bに蓄積された情報量が所定の閾値以下である場合に、予測部141aに対して、目領域に含まれる虹彩の位置を予測する処理の実行を指示する。一方、蓄積部12bに蓄積された情報量が所定の閾値を超えている場合に、特定制御部146は、検出部13bを用いて虹彩を検出し、検出した虹彩の位置を示す情報を登録部15bに渡す。図16の例では、検出部13bは、目領域EL,ERの双方が反射光の影響を受けるとされた場合に、目領域EL,ERに含まれる特徴部位を検出するとともに、特定部14cに含まれる構成要素として、特定制御部146からの指示に応じて動作する。
図16に示した登録部15bは、目領域ER,ELの一方が反射光の影響を受けていると判定される毎に、反射光の影響を受けている目領域の虹彩および白目のそれぞれに含まれる画素の輝度値および色度値を虹彩の特徴として蓄積部12bに蓄積させる。
したがって、多数の画像IMGが撮影される過程で、目領域ER,ELが受ける反射光の強さが様々に変化すれば、蓄積部12bには、様々な強さの反射光の影響を受けた虹彩の特徴が集積されることになる。なお、登録部15bは、図11を用いて説明したようにして、虹彩の輪郭付近の複数の箇所において、虹彩および白目のそれぞれに含まれる複数の画素の輝度値および色度値を対応付けて蓄積部12bに蓄積させてもよい。
そして、様々な強さの反射光の影響を受けた虹彩および白目の特徴が蓄積部12bに集積された後には、反射光の影響を受けていると判定された目領域における虹彩の位置の特定に蓄積部12bに集積された虹彩の特徴を用いることができる。
図18は、図16に示した特定部14cの動作を示す。図18に示したステップS321〜ステップS327の各処理は、図8においてステップS305で示した特徴部位の位置を特定する処理の例を示す。図18に示す処理は、例えば、画像処理装置10に搭載されたプロセッサが画像処理プログラムを実行することで実現される。なお、図18に示す処理は、画像処理装置10に搭載されるハードウェアによって実行されてもよい。
ステップS321において、図16に示した特定制御部146は、蓄積部12bを参照し、蓄積部12bに蓄積された特徴の数を計数する。例えば、特定制御部146は、虹彩の輝度値として互いに異なる値を含む特徴の数を計数し、計数によって得られた数値を蓄積部12bに蓄積された特徴の数としてもよい。
ステップS322において、特定制御部146は、ステップS321の処理で得られた計数結果と所定値とを比較することで、蓄積部12bに蓄積された特徴の数が所定値以上である否かを判定する。なお、ステップS321において、計数結果と比較される所定値は、例えば、反射光の影響を受けた虹彩の輝度値として想定される互いに異なる輝度値の数に相当する値が設定されることが望ましい。
蓄積部12bに蓄積された特徴の数が所定値以上である場合に(ステップS312の肯定判定(YES))、特定制御部146は、受けた目領域に含まれる虹彩と同等の反射光の影響を受けた虹彩の特徴が蓄積部12bに蓄積されていると判断する。そして、この場合に、特定制御部146は、ステップS323において、図16に示した検出部13bを用いて虹彩を検出する処理を実行する。
ステップS323において、検出部13bは、例えば、図11、図12を用いて説明した瞳孔の輪郭を検出する処理と同様にして、蓄積部12bに蓄積された虹彩の特徴で示される虹彩の輪郭を検出する。
ステップS324において、特定制御部146は、ステップS323の処理で検出された虹彩の輪郭を示す情報を検出部13bから受け、受けた情報を特定部14cで得られた特徴部位の位置として出力する。
一方、蓄積部12b内の特徴の数が所定値未満である場合に(ステップS322の否定判定(NO))、特定制御部146は、受けた目領域に含まれる虹彩と同等の反射光の影響を受けた虹彩の特徴が蓄積部12bに蓄積されていないと判断する。そして、この場合に、特定制御部146は、ステップS325に進み、図16に示した予測部141aおよび探索部142aを用いて虹彩の位置を特定する処理を実行する。
ステップS325において、特定制御部146は、図6および図7を用いて説明した瞳孔の位置の予測と同様にして、反射光の影響を受けているとされた目領域に含まれる虹彩の位置を予測する処理を予測部141aに実行させる。例えば、予測部141aは、反射光の影響を受けていないとされた目領域から検出された虹彩とプルキンエ像との相対位置と、反射光の影響を受けているとされた目領域から検出されたプルキンエ像の位置とに基づいて、虹彩の位置を予測する。
ステップS326において、探索部142aは、図10を用いて説明した瞳孔を示すパターンの探索と同様にして、ステップS325の処理で予測された位置を含む所定の領域内において、特徴部位を示すパターンとして、虹彩を示す円形のパターンを探索する。
ステップS327において、探索部142aは、ステップS326の探索処理で得られた円形のパターンの中心位置を求め、求めた位置を、特定部14cで得られた特徴部位の位置として出力する。
以上に説明したように、図14に示した特定部14cは、蓄積部12bに十分な量の特徴が蓄積されている場合に、蓄積部12bに蓄積された特徴情報を用いた処理により、反射光の影響があるとされた目領域における特徴部位の位置を特定することができる。これにより、反射光の影響があるとされた目領域の画像に基づいて、虹彩の位置を精密に特定することができる。
なお、以上に説明した虹彩の位置の特定と同様に、蓄積部12に反射光の影響の強さ毎に蓄積された瞳孔の特徴を用いて、反射光の影響があるとされた目領域の画像に基づいて、瞳孔の位置を特定することも可能である。
以上に説明した本件開示の画像処置装置10は、例えば、コンピュータ装置を用いて実現することができる。
図19は、画像処理装置10のハードウェア構成の一例を示す。なお、図19に示した構成要素のうち、図1に示した構成要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。
コンピュータ装置COMは、プロセッサ21と、メモリ22と、ハードディスク装置23と、汎用インタフェース24と、入出力制御部25と、光学ドライブ装置26と、ネットワークインタフェース28とを含んでいる。図19に例示したプロセッサ21と、メモリ22と、ハードディスク装置23と、汎用インタフェース24と、入出力制御部25と、光学ドライブ装置26と、ネットワークインタフェース28とは、バスを介して互いに接続されている。また、プロセッサ21とメモリ22とハードディスク装置23と汎用インタフェース24とは、画像処理装置10に含まれる。コンピュータ装置COMは、図19に示したデスクトップ型のコンピュータに限らず、ノート型のコンピュータでもよいし、スマートフォンやタブレット型端末などの携帯端末装置でもよい。また、コンピュータ装置COMは、カーナビゲーションシステムなどの車載端末装置でもよい。
コンピュータ装置COMとディスプレイ装置DSPとは、入出力制御部25を介して接続されている。また、ディスプレイ装置DSPに固定された撮影装置CAMおよび光源LUMは、汎用インタフェース24に接続されている。また、コンピュータ装置COMは、入出力制御部25を介してキーボードKBDなどの入力装置に接続されており、人物Q1は、例えば、キーボードKBDを操作することで、コンピュータ装置COMに所望の指示を入力することができる。
また、図19に示した光学ドライブ装置26は、光ディスクなどのリムーバブルディスク27を装着可能であり、装着したリムーバブルディスク27に記録された情報の読出および記録を行う。
コンピュータ装置COMは、ネットワークインタフェース28を介して、インターネットなどのネットワークNWに接続されており、ネットワークNWに接続されたサーバ装置SVとの間で情報を授受することができる。
図19に示したメモリ22は、コンピュータ装置COMのオペレーティングシステムとともに、プロセッサ21が図5または図9に示した処理および顔認識処理を実行するためのアプリケーションプログラムを格納している。また、メモリ22は、図1に示した特徴検出装置CDTによる特徴検出処理をプロセッサ21に実行させるためのアプリケーションプログラムを格納していることが望ましい。更に、メモリ22は、図5または図9に示した処理で特定された特徴部位の位置と特徴検出処理で検出されたプルキンエ像の位置とに基づいて、人物Q1の視線方向を検出する処理のためのアプリケーションプログラムを格納していてもよい。なお、図5または図9に示した処理、顔認識処理、特徴検出処理および視線方向を検出する処理を実行するためのアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスク27に記録して頒布することができる。そして、リムーバブルディスク27を光学ドライブ装置26に装着して読み込み処理を行うことにより、以上に述べた各処理を実行するためのアプリケーションプログラムを、メモリ22およびハードディスク装置23に格納させてもよい。また、以上に述べた各処理を実行するためのアプリケーションプログラムは、図19に示したネットワークインタフェース28を介して、サーバ装置SVから、メモリ22およびハードディスク装置23にダウンロードされてもよい。
そして、プロセッサ21は、メモリ22に格納されたアプリケーションプログラムを実行することで、図6に示した判定部11、検出部13、特定部14および登録部15とともに、顔認識装置RCN、特徴検出装置CDTおよび視線検出装置DETの機能を果たす。また、図1に示した蓄積部12の機能は、メモリ22あるいはハードディスク装置23の記憶領域の一部を用いて実現される。
つまり、本件開示の画像処理装置10は、例えば、図19に示したコンピュータ装置COMに含まれるプロセッサ21と、メモリ22と、ハードディスク装置23と、汎用インタフェース24との協働によって実現することができる。
プロセッサ21は、例えば、汎用インタフェース24を介して画像IMGを受ける毎に、顔認識処理のためのアプリケーションプログラムを実行し、画像IMGに含まれる人物Q1の両目のそれぞれに対応する目領域EL,ERを抽出する。そして、目領域EL,ERが抽出される毎に、プロセッサ21は、特徴検出処理および図9に示した処理のためのアプリケーションプログラムを実行し、各目領域に人間の目の特徴部位として含まれる瞳孔または虹彩の位置およびプルキンエ像の位置を特定する。更に、プロセッサ21は、視線方向を検出する処理のためのアプリケーションプログラムを実行し、特定された特徴部位およびプルキンエ像の位置に基づいて、人物Q1の視線方向を検出する。
以上に説明したように、図19に示したコンピュータ装置COMに含まれる画像処理装置10は、人物Q1を撮影装置CAMによって撮影する毎に、撮影された画像IMGに基づいて、人物Q1の視線方向を検出することができる。したがって、例えば、撮影装置CAMにより、数ミリ秒から数十ミリ秒おきに人物Q1を撮影する場合に、図19に示した画像処理装置10により、ほぼリアルタイムで人物Q1の視線方向を検出することができる。これにより、画像処理装置10によって得られる人物Q1の視線方向に基づいて、例えば、ディスプレイ装置DSPの表示画面において、人物Q1が注視している位置をほぼリアルタイムで特定することが可能となる。つまり、以上に本件開示の画像処理装置10は、視線方向の検出を用いたユーザインタフェースを実現する上で有用である。
以上の詳細な説明により、実施形態の特徴点及び利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で、前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更を容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。
以上の説明に関して、更に、以下の各項を開示する。
(付記1) 目を撮影した画像において前記目の領域である目領域のが、前記反射光による影響を受けているか否かを判定する判定部と、
前記目の特徴部位の画像に表れる前記反射光の影響の強さ毎に、前記特徴部位の画像の特徴が蓄積された蓄積部と、
前記目領域が前記反射光の影響を受けていると判定された場合に、前記目領域のうち、前記蓄積部に蓄積された前記特徴部位の特徴と類似する特徴を有する画素を含む領域を、前記特徴部位として検出する検出部と、
を有することを特徴とする画像処理装置。
(付記2) 付記1に記載の画像処理装置において、
更に、
前記目領域が2つの目のそれぞれの領域であり、一方の目の領域である第1の目領域が前記反射光の影響を受けていると判定され、前記目領域の他方である第2の目領域が前記反射光の影響を受けていないと判定された場合に、前記反射光の影響を受けていないと判定された第2の目領域に含まれる前記特徴部位とプルキンエ像との間の位置関係と、前記第1の目領域に含まれるプルキンエ像の位置とに基づいて、前記第1の目領域に含まれる前記特徴部位の位置を特定する特定部と、
前記特定部で特定された前記特徴部位の位置で示される領域の画像の特徴を抽出し、抽出した特徴を前記蓄積部に蓄積させる登録部と、
を有することを特徴とする画像処理装置。
(付記3) 付記2に記載の画像処理装置において、
前記登録部は、前記第1の目領域に含まれる前記特徴部位の内側に位置する複数の画素の特徴値と、前記特徴部位の周囲の画素の特徴値との組を、前記特徴部位の画像の特徴として前記蓄積部に蓄積させ、
前記検出部は、
前記第1の目領域および前記第2の目領域のそれぞれに含まれる画素の一つである第1画素の特徴値と前記第1画素から所定の距離の位置にある第2画素の特徴値との組が、前記蓄積部に蓄積されている場合に、前記第1画素および前記第2画素を前記特徴部位の輪郭を示す画素の候補として抽出する抽出部と、
前記第1の目領域および前記第2の目領域のそれぞれから抽出された輪郭を示す画素の候補のうち、前記特徴部位の形状と共通する形状を持つ前記画素の候補の集合を検出し、検出した前記画素の候補の集合に含まれる各画素の位置を前記特徴部位の位置として特定する位置特定部とを有する
ことを特徴とする画像処理装置。
(付記4) 付記2に記載の画像処理装置において、
前記特定部は、
前記第2の目領域から検出されたプルキンエ像と前記特徴部位との相対位置に基づいて、前記第1の目領域から検出されたプルキンエ像に対応する前記特徴部位があることが予測される位置を求める予測部と、
前記第1の目領域内の前記予測部で予測された位置を含む所定の領域において、前記第2の目領域から検出された前記特徴部位に類似した形状を持つパターンを探索する探索部とを有し、
前記探索部による探索によって検出されたパターンの位置を、前記第1の目領域に含まれる前記特徴部位の位置とする
ことを特徴とする画像処理装置。
(付記5) 付記2に記載の画像処理装置において、
前記特定部は、
前記判定部により、前記第1の目領域および前記第2の目領域の両方が前記反射光の影響を受けていないと判定された場合に、前記第1の目領域および前記第2の目領域のそれぞれから検出されたプルキンエ像および特徴部位のそれぞれの位置を互いに対応付けて保持する収集部と、
前記収集部に保持された対応付けの中から、前記第2の目領域から検出されたプルキンエ像および特徴部位のそれぞれの位置を含む対応付けを検索する検索部と、
前記検索部による検索で得られた対応付けの中から、前記第1の目領域から検出されたプルキンエ像の位置を示す情報を含む対応付けを選択し、選択した対応付けに含まれる前記第1の目領域内の前記特徴部位の位置を示す情報を、前記第1の目領域において特定される前記特徴部位の位置として出力する選択部とを有する
ことを特徴とする画像処理装置。
(付記6) 付記2に記載の画像処理装置において、
前記特定部は、
前記第1の目領域に含まれる画素のうち、前記蓄積部に蓄積された前記特徴部位の特徴と類似する特徴を有する画素を含む領域を、前記第1の目領域における特徴部位の位置とする
ことを特徴とする画像処理装置。
(付記7) 目を撮影した画像において前記目の領域である目領域が、前記反射光による影響を受けているか否かを判定し、
前記目領域が前記反射光の影響を受けていると判定された場合に、前記目領域のうち、前記目の特徴部位の画像に表れる前記反射光の影響の強さ毎に蓄積部に蓄積された前記特徴部位の画像の特徴と類似する特徴を有する画素を含む領域を、前記特徴部位として検出する、
ことを特徴とする画像処理方法。
(付記8) 目を撮影した画像において前記目の領域である目領域が、前記反射光による影響を受けているか否かを判定し、
前記目領域が前記反射光の影響を受けていると判定された場合に、前記目領域のうち、前記目の特徴部位の画像に表れる前記反射光の影響の強さ毎に蓄積部に蓄積された前記特徴部位の画像の特徴と類似する特徴を有する画素を含む領域を、前記特徴部位として検出する、
処理をコンピュータに実行させることを特徴とする画像処理プログラム。
10…画像処理装置;11…判定部;12,12b…蓄積部;13,13a,13b…検出部;14,14a,14b,14c…特定部;15,15a,15b…登録部;131…抽出部;132…位置特定部;141,141a…予測部;142,142a…探索部;143…収集部;144…検索部;145…選択部;146…特定制御部;21…プロセッサ;22…メモリ;23…ハードディスク装置;24…汎用インタフェース;25…入出力制御部;26…光学ドライブ装置;27…リムーバブルディスク;28…ネットワークインタフェース;NW…ネットワーク;SV…サーバ装置;KBD…キーボード;COM…コンピュータ装置;CAM、CAM1…撮影装置;RCN…顔認識装置;CDT…特徴検出装置;DET…視線検出装置;DSP…ディスプレイ装置;LUM…光源;IMG…画像;GLS…眼鏡


Claims (5)

  1. 目を撮影した画像において前記目の領域である目領域が、反射光による影響を受けているか否かを判定する判定部と、
    前記目の特徴部位の画像に表れる前記反射光の影響の強さ毎に、前記特徴部位の画像の画素値が蓄積された蓄積部と、
    前記目領域が前記反射光の影響を受けていると判定された場合に、前記目領域のうち、前記蓄積部に蓄積された前記特徴部位の画素値との類似度が前記目領域の他の画素の画素値より高い画素を含む領域であって、他の領域よりも前記特徴部位の形状に近い領域を、前記特徴部位として検出する検出部と、
    を備えたことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    更に、
    前記目領域が2つの目のそれぞれの領域であり、一方の目の領域である第1の目領域が前記反射光の影響を受けていると判定され、前記目領域の他方である第2の目領域が前記反射光の影響を受けていないと判定された場合に、前記反射光の影響を受けていないと判定された第2の目領域に含まれる前記特徴部位とプルキンエ像との間の位置関係と、前記第1の目領域に含まれるプルキンエ像の位置とに基づいて、前記第1の目領域に含まれる前記特徴部位の位置を特定する特定部と、
    前記特定部で特定された前記特徴部位の位置で示される領域の画像の画素値を抽出し、抽出した画素値を前記蓄積部に蓄積させる登録部と、
    を備えたことを特徴とする画像処理装置。
  3. 請求項2に記載の画像処理装置において、
    前記登録部は、前記第1の目領域に含まれる前記特徴部位の内側に位置する複数の画素の画素値と、前記特徴部位の周囲の画素の画素値との組を、前記特徴部位の画像の画素値として前記蓄積部に蓄積させ、
    前記検出部は、
    前記第1の目領域および前記第2の目領域のそれぞれに含まれる画素の一つである第1画素の画素値と前記第1画素から所定の距離の位置にある第2画素の画素値との組が、前記蓄積部に蓄積されている場合に、前記第1画素および前記第2画素を前記特徴部位の輪郭を示す画素の候補として抽出する抽出部と、
    前記第1の目領域および前記第2の目領域のそれぞれから抽出された輪郭を示す画素の候補のうち、前記特徴部位の形状と共通する形状を持つ前記画素の候補の集合を検出し、
    検出した前記画素の候補の集合に含まれる各画素の位置を前記特徴部位の位置として特定する位置特定部とを有する
    ことを特徴とする画像処理装置。
  4. 目を撮影した画像において前記目の領域である目領域が、反射光による影響を受けているか否かを判定し、
    前記目領域が前記反射光の影響を受けていると判定された場合に、前記目領域のうち、前記目の特徴部位の画像に表れる前記反射光の影響の強さ毎に蓄積部に蓄積された前記特徴部位の画像の画素値との類似度が前記目領域の他の画素の画素値より高い画素を含む領域であって、他の領域よりも前記特徴部位の形状に近い領域を、前記特徴部位として検出する、
    ことを特徴とする画像処理方法。
  5. 目を撮影した画像において前記目の領域である目領域が、反射光による影響を受けているか否かを判定し、
    前記目領域が前記反射光の影響を受けていると判定された場合に、前記目領域のうち、前記目の特徴部位の画像に表れる前記反射光の影響の強さ毎に蓄積部に蓄積された前記特徴部位の画像の画素値との類似度が前記目領域の他の画素の画素値より高い画素を含む領域であって、他の領域よりも前記特徴部位の形状に近い領域を、前記特徴部位として検出する、
    処理をコンピュータに実行させることを特徴とする画像処理プログラム。
JP2013254308A 2013-12-09 2013-12-09 画像処理装置、画像処理方法および画像処理プログラム Active JP6322986B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013254308A JP6322986B2 (ja) 2013-12-09 2013-12-09 画像処理装置、画像処理方法および画像処理プログラム
EP14189931.0A EP2881891B1 (en) 2013-12-09 2014-10-22 Image processing device and image processing method
US14/520,565 US9524446B2 (en) 2013-12-09 2014-10-22 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013254308A JP6322986B2 (ja) 2013-12-09 2013-12-09 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015112151A JP2015112151A (ja) 2015-06-22
JP6322986B2 true JP6322986B2 (ja) 2018-05-16

Family

ID=51794754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013254308A Active JP6322986B2 (ja) 2013-12-09 2013-12-09 画像処理装置、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US9524446B2 (ja)
EP (1) EP2881891B1 (ja)
JP (1) JP6322986B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7041905B2 (ja) 2018-02-28 2022-03-25 ミョンジ ユニバーシティ インダストリー アンド アカデミア コーオペレイション ファウンデーション コンクリート圧送配管の潤滑層活性化装置及び潤滑層活性化方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6282907B2 (ja) * 2014-03-18 2018-02-21 株式会社東光高岳 画像処理装置、立体形状計測装置および画像処理方法
KR102463169B1 (ko) * 2015-09-07 2022-11-04 삼성전자주식회사 시점 추적 방법 및 장치
JP6231585B2 (ja) * 2016-01-05 2017-11-15 株式会社Qdレーザ 画像投影装置
US10969301B2 (en) * 2016-02-12 2021-04-06 Shamir Optical Industry Ltd. Self-administrated testing of eyeglasses
CN105809128B (zh) * 2016-03-08 2019-09-17 厦门美图之家科技有限公司 一种眼部图像的眼瞳定位方法、系统及拍摄终端
JP2017182739A (ja) * 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
US20180005057A1 (en) * 2016-07-01 2018-01-04 Hyundai Motor Company Apparatus and method for capturing face image of decreased reflection on spectacles in vehicle
JP6737057B2 (ja) * 2016-08-10 2020-08-05 富士通株式会社 視線検出装置、視線検出方法、及び視線検出プログラム
JP6617662B2 (ja) * 2016-08-24 2019-12-11 株式会社Jvcケンウッド 視線検出装置、視線検出方法、及びコンピュータプログラム
KR101776944B1 (ko) * 2017-01-09 2017-09-08 주식회사 쓰리이 홍채 패턴 코드화 방법
WO2019138515A1 (ja) * 2018-01-11 2019-07-18 株式会社ニコン・エシロール 画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム
CN109740491B (zh) * 2018-12-27 2021-04-09 北京旷视科技有限公司 一种人眼视线识别方法、装置、系统及存储介质
US11003936B2 (en) * 2019-06-14 2021-05-11 Tobii Ab Method and system for controlling an eye tracking system

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2950546B2 (ja) * 1988-08-31 1999-09-20 キヤノン株式会社 視線検出装置及び視線検出装置を有するカメラ
JPH1099275A (ja) 1996-10-02 1998-04-21 Canon Inc 視線検出装置及び光学機器
US6152563A (en) 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
JP2000070225A (ja) 1998-08-27 2000-03-07 Canon Inc 視線検出装置
AU2003264416A1 (en) * 2002-09-13 2004-04-30 Matsushita Electric Industrial Co., Ltd. Iris encoding method, individual authentication method, iris code registration device, iris authentication device, and iris authentication program
KR20050025927A (ko) * 2003-09-08 2005-03-14 유웅덕 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법
US8406479B2 (en) * 2006-07-14 2013-03-26 Panasonic Corporation Visual axis direction detection device and visual line direction detection method
JP2010244156A (ja) * 2009-04-02 2010-10-28 Toyota Motor Corp 画像特徴量検出装置及びこれを用いた視線方向検出装置
JP5702976B2 (ja) 2010-01-06 2015-04-15 株式会社東芝 検体検出装置
WO2011158463A1 (ja) 2010-06-17 2011-12-22 パナソニック株式会社 外光映り込み判定装置、視線検出装置及び外光映り込み判定方法
JP5529660B2 (ja) 2010-07-20 2014-06-25 パナソニック株式会社 瞳孔検出装置及び瞳孔検出方法
IL215883A0 (en) * 2011-10-24 2012-03-01 Iriss Medical Technologies Ltd System and method for indentifying eye conditions
US8824779B1 (en) * 2011-12-20 2014-09-02 Christopher Charles Smyth Apparatus and method for determining eye gaze from stereo-optic views
JP6036065B2 (ja) * 2012-09-14 2016-11-30 富士通株式会社 注視位置検出装置及び注視位置検出方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7041905B2 (ja) 2018-02-28 2022-03-25 ミョンジ ユニバーシティ インダストリー アンド アカデミア コーオペレイション ファウンデーション コンクリート圧送配管の潤滑層活性化装置及び潤滑層活性化方法

Also Published As

Publication number Publication date
EP2881891A2 (en) 2015-06-10
EP2881891B1 (en) 2018-07-18
JP2015112151A (ja) 2015-06-22
EP2881891A3 (en) 2015-07-29
US20150161472A1 (en) 2015-06-11
US9524446B2 (en) 2016-12-20

Similar Documents

Publication Publication Date Title
JP6322986B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6930223B2 (ja) 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法
CN110266916B (zh) 用于在眼睛追踪中处理眩光的方法和系统
JP5949319B2 (ja) 視線検出装置及び視線検出方法
US20170286771A1 (en) Gaze detection apparatus and gaze detection method
JP6056323B2 (ja) 視線検出装置、視線検出用コンピュータプログラム
JP4895797B2 (ja) 瞼検出装置、瞼検出方法及びプログラム
EP1933694B1 (en) Eye tracker having an extended span of operating distances
CN111212594B (zh) 电子设备和利用电子设备确定结膜充血程度的方法
CN109661668B (zh) 用于虹膜识别的图像处理方法和系统
JP5621456B2 (ja) 視線検出装置、視線検出方法及び視線検出用コンピュータプログラムならびに携帯端末
JP4491604B2 (ja) 瞳孔検出装置
EP3158921A1 (en) Line of sight detection system and method
JP2018205819A (ja) 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法
JP2019159518A (ja) 視認状態検知装置、視認状態検知方法および視認状態検知プログラム
CN101282680A (zh) 具有延长范围的操作距离的眼跟踪器
US20160026863A1 (en) Pupil detection device and pupil detection method
KR20120049605A (ko) 동공 중심 검출 장치 및 방법
JP4451195B2 (ja) 視線検出装置
WO2017154356A1 (ja) 視線検出装置および視線検出方法
JP3185522B2 (ja) 車両用視線方向計測装置
JP2017131446A (ja) 瞳孔検出装置、および瞳孔検出方法
KR101051434B1 (ko) 얼굴영상으로부터 안구영역을 인식하는 안구인식방법
JP2022187546A (ja) 視線推定システム
JP2015126850A (ja) 瞳孔検出装置、視線検出装置および瞳孔検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160804

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20170803

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170803

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171003

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R150 Certificate of patent or registration of utility model

Ref document number: 6322986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150