JP2014039617A - 視線検出装置及び視線検出方法 - Google Patents

視線検出装置及び視線検出方法 Download PDF

Info

Publication number
JP2014039617A
JP2014039617A JP2012182720A JP2012182720A JP2014039617A JP 2014039617 A JP2014039617 A JP 2014039617A JP 2012182720 A JP2012182720 A JP 2012182720A JP 2012182720 A JP2012182720 A JP 2012182720A JP 2014039617 A JP2014039617 A JP 2014039617A
Authority
JP
Japan
Prior art keywords
image
eye
face
user
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012182720A
Other languages
English (en)
Other versions
JP5949319B2 (ja
Inventor
Takuya Kamimura
拓也 上村
Hiroyasu Yoshikawa
浩寧 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012182720A priority Critical patent/JP5949319B2/ja
Priority to US13/909,452 priority patent/US20140055342A1/en
Publication of JP2014039617A publication Critical patent/JP2014039617A/ja
Application granted granted Critical
Publication of JP5949319B2 publication Critical patent/JP5949319B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ユーザが注視している位置を検出するために利用されるカメラとユーザとの相対的な位置関係が不定であっても、そのカメラを機械的に動かさずに、ユーザの注視位置を検出できる視線検出装置を提供する。
【解決手段】視線検出装置は、光源と、第1の画角を有し、第1の画像を生成する第1の撮像部と、第1の画角よりも狭い第2の画角を有し、第2の画像を生成する第2の撮像部と、第1の画像からユーザの顔が写っている顔領域を検出する顔検出部21と、顔領域またはユーザの眼が写っている眼周辺領域に対応する第2の画像上の第1の領域を特定する座標変換部23と、第1の領域に基づいて特定される第2の画像上でユーザの眼が写っている眼領域内で、光源の角膜反射像と瞳孔重心とを検出するプルキンエ像検出部24と、瞳孔重心と角膜反射像との位置関係に応じてユーザの視線方向または注視位置を検出する視線検出部25とを有する。
【選択図】図3

Description

本発明は、例えば、プルキンエ像を検出することにより視線方向を検出する視線検出装置及び視線検出方法に関する。
従来より、ディスプレイの周囲に配置された光源及び検知器を用いて、ディスプレイ上でユーザが注視している位置を検出する技術が提案されている(例えば、特許文献1及び2を参照)。
このような技術では、ユーザが注視する位置を正確に検出するために、検知器により得られたユーザの眼が写った画像を解析することで、光源の角膜反射像と瞳孔とが検出され、そのプルキンエ像の位置と瞳孔の位置の差が求められる。そして例えば、角膜反射像の位置と瞳孔の位置の差と、注視位置との対応関係を表したテーブルを参照することにより、注視位置が特定される。なお、光源の角膜反射像は、プルキンエ像またはプルキニエ像と呼ばれる。本願では、光源の角膜反射像をプルキンエ像と呼ぶ。
ディスプレイとユーザの頭部の位置関係は一定ではないので、画像上にユーザの眼が写るためには、ユーザの眼を撮影するカメラとしては、画角が広いカメラが用いられることが好ましい。一方、上記の技術では、画像上での眼のサイズが、画像上に写っている瞳孔及びプルキンエ像が識別可能な程度よりも大きいことが求められる。しかし、画角が広いカメラでは、画像上の眼のサイズが相対的に小さくなるので、画角が広いカメラにより撮影された画像上で瞳孔及びプルキンエ像を検出することは困難となるおそれがあった。さらに、このような画像では、検出すべきユーザの注視位置の移動量の最小値(例えば、ディスプレイ上に表示された、隣接する二つのアイコン間の距離に相当)に対応する瞳孔とプルキンエ像間の画像上の距離の変化量が1画素未満となることがあった。そのため、例え瞳孔及びプルキンエ像の検出がされたとしても、注視位置の変化が検出できないおそれがあった。
一方、被験者を広角に撮影する第1の撮像装置により撮影された映像から、被験者の眼球を撮影する第2の撮像装置の向きを制御して、第2の撮像装置により撮影された映像から視線の位置情報を算出する技術が提案されている(例えば、特許文献3を参照)。
国際公開第2004/045399号 特開2011−115606号公報 特開2005−323905号公報
しかしながら、特許文献3に開示された技術では、眼球の位置を特定してからユーザの視線を検出するために利用されるカメラの向きを変更し、その後にそのカメラにより得られた画像から視線を検出するので、視線を検出するまでに遅延が生じてしまう。また、ユーザの視線を検出するために利用されるカメラの向きを変更するための機構が必要なので、その技術を採用する装置のコストが高くなってしまう。
そこで本明細書は、ユーザが注視している位置を検出するために利用されるカメラとユーザとの相対的な位置関係が不定であっても、そのカメラを機械的に動かさずに、ユーザの注視位置を検出できる視線検出装置を提供することを目的とする。
一つの実施形態によれば、視線検出装置が提供される。この視線検出装置は、ユーザの眼を照明する光源と、第1の画角を有し、ユーザの顔を撮影した第1の画像を生成する第1の撮像部と、第1の画角よりも狭い第2の画角を有し、ユーザの顔の少なくとも一部を撮影した第2の画像を生成する第2の撮像部と、第1の画像からユーザの顔が写っている顔領域を検出する顔検出部と、顔領域または顔領域内でユーザの眼が写っている眼周辺領域に対応する第2の画像上の第1の領域を特定する座標変換部と、第1の領域に基づいて特定される、第2の画像上でユーザの眼が写っている眼領域内で、光源の角膜反射像とユーザの瞳孔重心とを検出するプルキンエ像検出部と、瞳孔重心と角膜反射像との位置関係に応じてユーザの視線方向または注視位置を検出する視線検出部とを有する。
本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
本明細書に開示された視線検出装置は、ユーザが注視している位置を検出するために利用されるカメラとユーザとの相対的な位置関係が不定であっても、そのカメラを機械的に動かさずに、ユーザの注視位置を検出できる。
視線検出装置の一実施形態であるコンピュータのハードウェア構成図である。 表示部の概略正面図である。 制御部の視線検出処理に関する機能ブロック図である。 表示部の表示画面から所定距離離れた位置における、広角カメラの視野と赤外カメラの視野との対応関係を示す図である。 参照テーブルの一例を示す図である。 注視位置テーブルの一例を示す図である。 視線検出処理の動作フローチャートを示す図である。 第2の実施形態による視線検出装置が有する制御部の視線検出処理に関する機能ブロック図である。 (a)は、拡大眼周辺領域と狭角画像の位置関係の一例を示す図であり、(b)は、拡大眼周辺領域と狭角画像の位置関係の他の一例を示す図である。 第2の実施形態による視線検出装置が実行する視線検出処理のうち、眼精密検出部に関する部分の動作フローチャートを示す図である。 第3の実施形態による視線検出装置が有する制御部の視線検出処理に関する機能ブロック図である。
以下、図を参照しつつ、一つの実施形態による視線検出装置について説明する。
この視線検出装置は、ユーザの顔の位置が想定される範囲内にある限り、その顔全体を撮影可能な画角を持つ第1のカメラと、画像上で瞳孔及びプルキンエ像が識別可能なサイズとなるように、第1のカメラの画角よりも狭い画角を持つ第2のカメラを有する。この視線検出装置は、第1のカメラにより撮影された第1の画像から、ユーザの顔の位置またはユーザの眼の位置を検出する。そしてこの視線検出装置は、その顔の位置または眼の位置を表す情報を利用して、第2のカメラにより撮影された第2の画像上で瞳孔及びプルキンエ像を検出する範囲を限定することで、瞳孔及びプルキンエ像の検出精度の向上を図る。
なお、以下に説明する実施形態では、視線検出装置は、コンピュータに実装され、そして視線検出装置は、コンピュータのディスプレイ上のユーザの注視位置を検出する。しかしこの視線検出装置は、ユーザの注視位置または視線方向を検出し、その注視位置または視線方向を利用する様々な装置、例えば、携帯情報端末、携帯電話機、運転支援装置あるいはカーナビゲーションシステムに利用可能である。
図1は、視線検出装置の一実施形態であるコンピュータのハードウェア構成図である。コンピュータ1は、表示部2と、広角カメラ3と、照明光源4と、赤外カメラ5と、入力部6と、記憶媒体アクセス装置7と、記憶部8と、制御部9とを有する。さらにコンピュータ1は、コンピュータ1を他の機器に接続するための通信インターフェース回路(図示せず)を有していてもよい。コンピュータ1は、いわゆるデスクトップ型のコンピュータとすることができる。この場合、コンピュータ1の各構成要素のうち、記憶媒体アクセス装置7、記憶部8及び制御部9は、筐体(図示せず)内に収容され、一方、表示部2、広角カメラ3、照明光源4、赤外カメラ5及び入力部6は、その筐体とは別個に設けられる。あるいは、コンピュータ1は、いわゆるノート型のコンピュータであってもよい。この場合には、コンピュータ1の全ての構成要素は、一つの筐体内に収容されてもよい。さらにまた、コンピュータ1は、入力部6以外の構成要素が一つの筐体内に収容される、ディスプレイ一体型のコンピュータであってもよい。
表示部2は、例えば、液晶ディスプレイまたは有機エレクトロルミネッセンスディスプレイを有する。そして表示部2は、例えば、様々なアイコンまたは操作メニューを制御部9からの制御信号に応じて表示する。各アイコンまたは操作メニューには、表示部2の表示画面上の位置及び範囲を表す情報が関連付けられている。そのため、後述するように、制御部9により検出されたユーザの注視位置が、何れかのアイコンまたは操作メニューと重なるとそのアイコンまたは操作メニューが選択されたと判定することが可能となっている。
図2は、表示部2の概略正面図である。表示部2の中央には、様々なアイコンなどを表示するための表示画面2aが設けられており、表示画面2aは、その周囲の枠2bにより保持されている。表示画面2aの上側には、枠2bの略中央に、広角カメラ3が取り付けられている。一方、表示画面2aの下側には、枠2bの略中央に、照明光源4及び赤外カメラ5が並んで取り付けられている。本実施形態では、広角カメラ3の水平位置と赤外カメラ5の水平位置は一致するように、広角カメラ3及び赤外カメラ5は取り付けられる。
なお、表示画面2aを注視するユーザの顔全体が画像上に写るように、広角カメラ3の光軸が表示画面2aと直交するように、広角カメラ3は取り付けられることが好ましい。一方、赤外カメラ5により撮影された画像上にユーザの眼及びその周囲が写るように、赤外カメラ5の光軸が表示画面2aと直交するか、表示画面2aの法線よりも上方を向くように、赤外カメラ5は取り付けられることが好ましい。
広角カメラ3は、第1の撮像部の一例であり、可視光に感度を有し、コンピュータ1の表示部2を注視するユーザの顔の位置が想定される範囲内の何れにあってもその顔全体を撮影可能な画角(例えば、対角60度〜80度)を持つ。そして広角カメラ3は、視線検出処理の実行中、所定のフレームレートで表示画面2aと対向するユーザの顔全体を撮影することにより、ユーザの顔全体が写った画像を生成する。そして広角カメラ3は、画像を生成する度に、その画像を制御部9へ渡す。
なお、広角カメラ3も、赤外カメラ5と同様に、照明光源4から発せられる赤外光に感度を有するカメラであってもよい。
照明光源4は、赤外光を発光する光源、例えば、少なくとも一つの赤外発光ダイオードと、制御部9からの制御信号に応じて、赤外発光ダイオードに図示しない電源からの電力を供給する駆動回路とを有する。照明光源4は、表示画面2aを見るために表示画面2aと対向するユーザの顔、特にユーザの眼を照明可能なように、枠2bに赤外カメラ5と並べて取り付けられている。そして照明光源4は、制御部9から光源を点灯させる制御信号を受信している間、照明光を発する。
なお、照明光源4が有する赤外発光ダイオードの数は、1個に限られず、互いに異なる位置に配置される複数個の赤外発光ダイオードを有してもよい。例えば、照明光源4は二つの赤外発光ダイオードを有し、その二つの赤外発光ダイオードの間に赤外カメラ5が位置するように、各赤外発光ダイオードが表示部2の枠2bに取り付けられてもよい。
赤外カメラ5は、第2の撮像部の一例であり、眼を含むユーザの顔の少なくとも一部の領域が写った画像を生成する。そのために、赤外カメラ5は、照明光源4が発する赤外光に感度を持つ2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上にユーザの眼の像を結像する撮像光学系を有する。赤外カメラ5は、虹彩による反射像及び照明光源4以外の光源からの光のプルキンエ像が検出されることを抑制するために、イメージセンサと撮像光学系の間に、可視光カットフィルタをさらに有してもよい。
また赤外カメラ5は、広角カメラ3の画角よりも狭い画角(例えば、対角30度〜40度)を持つ。そして赤外カメラ5は、視線検出処理の実行中、所定のフレームレートでユーザの眼を撮影することにより、ユーザの眼が写った画像を生成する。なお、赤外カメラ5は、この画像上でユーザの瞳に写った照明光源4のプルキンエ像及び瞳孔が識別可能な解像度を有する。そして赤外カメラ5は、画像を生成する度に、その画像を制御部9へ渡す。
上記のように、赤外カメラ5は、表示部2の表示画面2aの下方に取り付けられているので、赤外カメラ5は、表示画面2aを注視するユーザの顔を下方から撮影することになる。そのため、コンピュータ1は、赤外カメラ5に対してプルキンエ像及び瞳孔が睫毛に隠れてしまう可能性を低減できる。
また、広角カメラ3の感度と赤外カメラ5の感度は、それぞれ別個に最適化されてもよい。例えば、広角カメラ3の感度は、画像上で顔の輪郭が識別できるように、相対的に低く設定され、一方、赤外カメラ5の感度は、画像上でプルキンエ像及び瞳孔が識別できるように、相対的に高く設定されてもよい。
以下では、便宜上、広角カメラ3により生成された画像を広角画像と呼び、赤外カメラ5により生成された画像を狭角画像と呼ぶ。
入力部6は、例えば、キーボードと、マウスのようなポインティングデバイスとを有する。そして入力部6を介してユーザにより入力された操作信号は、制御部9へ渡される。
なお、表示部2と入力部6とは、例えば、タッチパネルディスプレイのように一体化されていてもよい。この場合、入力部6は、表示部2の表示画面上に表示されたアイコンの位置にユーザが触れた場合に、その位置に応じた操作信号を生成し、その操作信号を制御部9へ出力する。
記憶媒体アクセス装置7は、例えば、磁気ディスク、半導体メモリカード及び光記憶媒体といった記憶媒体10にアクセスする装置である。記憶媒体アクセス装置7は、例えば、記憶媒体10に記憶された、制御部9上で実行される、視線検出処理用のコンピュータプログラムを読み込み、制御部9に渡す。
記憶部8は、例えば、読み書き可能な不揮発性の半導体メモリ、及び読み書き可能な揮発性の半導体メモリを有する。そして記憶部8は、制御部9上で実行される、視線検出処理用のコンピュータプログラム、各種のアプリケーションプログラム及び各種のデータを記憶する。また記憶部8は、表示部2の表示画面に表示中のアイコンの位置及び範囲または操作メニューの位置及び範囲を表す情報を記憶する。
さらに、記憶部8は、ユーザが注視する位置を検出するために利用される各種のデータを記憶する。例えば、記憶部8は、プルキンエ像の重心に対する瞳孔重心の相対的な位置とユーザの視線方向との関係を表す参照テーブルを記憶する。また記憶部8は、広角画像上の位置座標と狭角画像上の位置座標との対応関係を表す座標変換テーブルを記憶してもよい。
制御部9は、一つまたは複数のプロセッサ及びその周辺回路を有する。そして制御部9は、コンピュータ1の各部と信号線を介して接続されており、コンピュータ1全体を制御する。例えば、制御部9は、入力部6から受け取った操作信号と実行中のアプリケーションプログラムに応じた処理を実行する。
さらに、制御部9は、視線検出処理を実行することにより、表示部2の表示画面2a上でユーザが注視している位置を求める。そして制御部9は、ユーザが注視している位置と記憶部8に記憶されている表示部2の表示画面2a上の各アイコンまたは操作メニューの表示領域とを比較する。そして制御部9は、ユーザが注視している位置と何れかのアイコンまたは操作メニューの表示領域とが重なっている場合、そのアイコンまたは操作メニューに応じた処理を実行する。あるいは、制御部9は、ユーザが注視している位置を表す情報を制御部9が実行中のアプリケーションプログラムに渡す。
図3は、制御部9の視線検出処理に関する機能ブロック図である。制御部9は、顔検出部21と、眼周辺領域検出部22と、座標変換部23と、プルキンエ像検出部24と、視線検出部25とを有する。
制御部9が有するこれらの各部は、制御部9が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。また制御部9が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として、制御部9が有するプロセッサとは別個にコンピュータ1に実装されてもよい。この場合、その集積回路は、記憶部8とは別個に、視線検出処理で利用される各種のデータを記憶して、視線検出装置が有する記憶部として機能する記憶回路を含んでいてもよい。
顔検出部21は、視線検出処理の実行中において、広角画像上でユーザの眼が写っている可能性のある領域を特定するために、広角画像上で、ユーザの顔が写っている領域である顔領域を検出する。
例えば、顔検出部21は、広角画像の各画素の値をHSV表色系により表される値に変換する。そして顔検出部21は、各画素の色相成分(H成分)の値が肌色に相当する値(例えば、0°〜30°の範囲内の値)となる画素を、顔の一部が写っている可能性がある顔領域候補画素として抽出する。
また、ユーザの視線に応じてコンピュータ1の操作が実行される場合、ユーザの顔は、表示部2の表示画面2aを向いており、かつ、表示画面2aから数十cm離れた位置にあると想定される。そのため、広角画像上でユーザの顔が占める領域は比較的大きく、かつ、広角画像上で顔が占める領域の大きさもある程度推定される。
そこで顔検出部21は、顔領域候補画素に対してラベリング処理を行って、互いに隣接している顔領域候補画素の集合を顔候補領域とする。そして顔検出部21は、顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれているか否か判定する。顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれていれば、顔検出部21はその顔候補領域を顔領域と判定する。
なお、顔候補領域の大きさは、例えば、顔候補領域の水平方向の最大幅の画素数で表される。この場合、基準範囲は、例えば、画像の水平方向画素数の1/4以上〜2/3以下に設定される。あるいは、顔候補領域の大きさは、例えば、顔候補領域に含まれる画素数で表されてもよい。この場合、基準範囲は、例えば、画像全体の画素数の1/16以上〜4/9以下に設定される。
顔検出部21は、顔候補領域の大きさだけでなく、顔候補領域の形状も、顔候補領域を顔領域と判定するための判定条件に加えてもよい。人の顔は、一般に略楕円形状を有している。そこで顔検出部21は、例えば、顔候補領域の大きさが上記の基準範囲に含まれ、かつ、顔候補領域の円形度が、一般的な顔の輪郭に相当する所定の閾値以上である場合に顔候補領域を顔領域としてもよい。なお顔検出部21は、顔候補領域の輪郭上に位置する画素の合計を顔候補領域の周囲長として求め、顔候補領域内の総画素数に4πを乗じた値を周囲長の2乗で除することにより円形度を算出できる。
あるいは、顔検出部21は、顔候補領域の輪郭上の各画素の座標を楕円方程式に当てはめて最小二乗法を適用することにより、顔候補領域を楕円近似してもよい。そして顔検出部21は、その楕円の長軸と短軸の比が一般的な顔の長軸と短軸の比の範囲に含まれる場合に、顔候補領域を顔領域としてもよい。なお、顔検出部21は、楕円近似により顔候補領域の形状を評価する場合、画像の各画素の輝度成分に対して近傍画素間演算を行ってエッジに相当するエッジ画素を検出してもよい。この場合、顔検出部21は、エッジ画素を例えばラベリング処理を用いて連結し、一定の長さ以上に連結されたエッジ画素を顔候補領域の輪郭とする。
なお、顔検出部21は、画像上に写っている顔の領域を検出する他の様々な方法の何れかに従って顔領域を検出してもよい。例えば、顔検出部21は、顔候補領域と一般的な顔の形状に相当するテンプレートとの間でテンプレートマッチングを行って、顔候補領域とテンプレートとの一致度を算出し、その一致度が所定値以上である場合に、顔候補領域を顔領域と判定してもよい。
顔検出部21は、顔領域を検出できると、顔領域の位置及び範囲を表す情報である顔領域情報を生成する。例えば、顔領域情報は、画像と同一のサイズを有し、かつ顔領域内の画素と顔領域外の画素とが異なる画素値を持つ2値画像とすることができる。あるいは、顔領域情報は、顔領域の外接矩形の各コーナーの座標を含んでいてもよい。
そして顔検出部21は、顔領域を表す情報を眼周辺領域検出部22へ渡す。
眼周辺領域検出部22は、広角画像の顔領域内でユーザの眼及び眼周辺が写っている領域である眼周辺領域を検出する。
画角が狭い赤外カメラ5により生成された狭角画像には、顔全体が写らず、場合によっては、一方の眼が写っていない可能性がある。このような場合、顔の輪郭といった顔の他の部分の情報を眼の位置を特定するために利用できないことで、眼の位置が正確に検出されなかったり、写っていない眼の代わりに、眼の特徴と似た特徴を持つ顔の他の部位が眼と誤検出されてしまうことがあった。その結果、瞳孔及びプルキンエ像が正確に検出されないおそれがあった。そこで本実施形態では、制御部9は、顔全体が写っている広角画像の顔領域内で眼周辺領域を検出し、その眼周辺領域を、狭角画像上で眼を探索する領域を限定するために利用する。
眼に相当する画素の輝度は、眼の周囲に相当する画素の輝度と大きく異なる。そこで眼周辺領域検出部22は、顔領域内の各画素に対して、例えば、Sobelフィルタを用いて垂直方向の近傍画素間差分演算を行って垂直方向に輝度が変化するエッジ画素を検出する。そして眼周辺領域検出部22は、例えば、エッジ画素が略水平方向に眼の大きさに相当する所定数以上連結された2本のエッジ線で囲まれた領域を眼周辺領域候補とする。
人の眼は、水平方向に二つ並んでいる。そこで、眼周辺領域検出部22は、検出された眼周辺領域候補のうち、眼周辺領域候補の重心間の垂直方向の位置差がもっとも少なく、かつ、水平方向に左眼と右眼間の間隔に相当する距離だけ離れている二つの眼周辺領域候補を抽出する。そして眼周辺領域検出部22は、その二つの眼周辺領域候補の外接矩形領域を眼周辺領域とする。
あるいは、眼周辺領域検出部22は、両眼を表すテンプレートと、顔領域とのテンプレートマッチングにより、顔領域内でテンプレートに最も一致する領域を検出し、その検出した領域を眼周辺領域としてもよい。
眼周辺領域検出部22は、広角画像上の眼周辺領域の位置及び範囲を表す情報である眼周辺領域情報を、座標変換部23へ渡す。なお、眼周辺領域情報は、例えば、眼周辺領域の各コーナーの広角画像上での位置座標を含む。
座標変換部23は、広角画像上で検出された眼周辺領域の位置座標、例えば、眼周辺領域の各コーナーの位置座標を、広角カメラ3及び赤外カメラ5の画角、画素数、設置位置及び撮影方向に基づいて狭角画像上の位置座標に変換する。これにより、座標変換部23は、眼周辺領域に対応する狭角画像上の領域を特定する。以下では、便宜上、眼周辺領域に対応する狭角画像上の領域を、拡大眼周辺領域と呼ぶ。この拡大眼周辺領域は、第1の領域の一例である。
図4は、表示部2の表示画面2aから所定距離離れた位置における、広角カメラ3の視野と赤外カメラ5の視野との対応関係を示す図である。この例では、広角カメラ3と赤外カメラ5の水平方向の位置は同一であり、表示画面2aからその所定距離の位置で、広角カメラ3の光軸と赤外カメラ5の光軸が交差するとした。そのため、広角カメラ3の視野400の中心と赤外カメラ5の視野410の中心は一致する。ここで、広角カメラ3の水平方向の画素数がNhwであり、広角カメラ3の垂直方向の画素数がNvwであるとする。一方、赤外カメラ5の水平方向の画素数がNhnであり、赤外カメラ5の垂直方向の画素数がNvnであるとする。また、広角カメラ3の水平方向の画角及び垂直方向の画角が、それぞれ、ωhw、ωvwであり、赤外カメラ5の水平方向の画角及び垂直方向の画角が、それぞれ、ωhn、ωvnであるとする。このとき、広角画像の中心を原点とする座標系で表される、広角画像の画素の座標(px,py)に対応する、狭角画像の画素の狭角画像の中心を原点とする座標(qx,qy)は、次式で表される。
Figure 2014039617
座標変換部23は、例えば、上記の(1)式に従って、広角画像上の眼周辺領域の各コーナーの位置座標を狭角画像上の対応する位置座標に変換することで、拡大眼周辺領域を特定できる。
なお、ユーザの顔の位置で、広角カメラ3の光軸と赤外カメラ5の光軸とが所定の間隔だけ離れている場合、座標変換部23は、座標(qx,qy)を求めるために、上記の(1)式において、その所定の間隔に相当するオフセットを(1)式の右辺に加えればよい。
変形例によれば、広角画像上の位置座標と狭角画像上の位置座標との対応関係を表した座標変換テーブルが予め準備され、記憶部8に記憶されていてもよい。この場合には、座標変換部23は、座標変換テーブルを参照することにより、広角画像上の眼周辺領域の各コーナーの位置座標を狭角画像上の対応する位置座標に変換できる。
この変形例によれば、広角カメラ3の歪曲収差と赤外カメラ5の歪曲収差が無視できないほど大きい場合でも、座標変換部23は、広角画像上の眼周辺領域に相当する狭角画像上の拡大眼周辺領域を正確に特定できる。
またさらに他の変形例によれば、座標変換部23は、広角画像上の眼周辺領域をテンプレートとして、狭角画像とテンプレートマッチングを行うことにより、そのテンプレートと最も一致する領域を拡大眼周辺領域としてもよい。
座標変換部23は、拡大眼周辺領域の位置及び範囲を表す情報である拡大眼周辺領域情報を、プルキンエ像検出部24へ通知する。なお、拡大眼周辺領域情報は、例えば、狭角画像上の拡大眼周辺領域の各コーナーの位置座標を含む。
プルキンエ像検出部24は、視線検出処理の実行中において、狭角画像上の拡大眼周辺領域内でプルキンエ像及び瞳孔を検出する。
本実施形態では、プルキンエ像検出部24は、一方の眼の瞳孔に相当するテンプレートと拡大眼周辺領域との間でテンプレートマッチングを行い、拡大眼周辺領域内でテンプレートとの一致度が最も高くなる領域を検出する。そしてプルキンエ像検出部24は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。なお、テンプレートは、瞳孔の大きさに応じて複数準備されてもよい。この場合、プルキンエ像検出部24は、各テンプレートと拡大眼周辺領域とのテンプレートマッチングをそれぞれ実行し、一致度の最高値を求める。そして一致度の最高値が一致度閾値よりも高い場合、プルキンエ像検出部24は、一致度の最高値に対応するテンプレートと重なった領域に瞳孔が写っていると判定する。なお、一致度は、例えば、テンプレートとそのテンプレートと重なった領域との正規化相互相関値として算出される。また一致度閾値は、例えば、0.7または0.8に設定される。
また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこでプルキンエ像検出部24は、拡大眼周辺領域内で、同心円状に半径の異なる2本のリングを設定する。そしてプルキンエ像検出部24は、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。またプルキンエ像検出部24は、内側のリングで囲まれた領域の平均輝度値が所定の閾値以下であることを、瞳孔領域として検出する条件に加えてもよい。この場合、所定の閾値は、例えば、拡大眼周辺領域内の最大輝度値と最小輝度値の差の10%〜20%を、最小輝度値に加えた値に設定される。
プルキンエ像検出部24は、瞳孔領域の検出に成功した場合、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心の位置座標として算出する。一方、プルキンエ像検出部24は、瞳孔領域の検出に失敗した場合、制御部9へその旨を表す信号を返す。
またプルキンエ像検出部24は、拡大眼周辺領域内で照明光源4のプルキンエ像を検出する。照明光源4のプルキンエ像が写っている領域の輝度は、その周囲の領域の輝度よりも高く、その輝度値は略飽和している(すなわち、輝度値が、画素値が取り得る輝度の値の略最高値となっている)。また、照明光源4のプルキンエ像が写っている領域の形状は、各光源の発光面の形状と略一致する。そこでプルキンエ像検出部24は、拡大眼周辺領域内で、照明光源4の発光面の輪郭形状と略一致する形状を持ち、かつ、大きさが異なるとともに中心が一致する2本のリングを設定する。そしてプルキンエ像検出部24は、内側のリングに相当する画素の輝度の平均値である内部輝度平均値から外側の画素の輝度の平均値を引いた差分値を求める。プルキンエ像検出部24は、その差分値が所定の差分閾値よりも大きく、かつ内側輝度平均値が所定の輝度閾値よりも高い場合、その内側のリングで囲まれた領域を照明光源4のプルキンエ像とする。なお、差分閾値は、例えば、拡大眼周辺領域内の近傍画素間の差分値の平均値とすることができる。また所定の輝度閾値は、例えば、拡大眼周辺領域内での輝度値の最高値の80%とすることができる。
なお、プルキンエ像検出部24は、画像上で瞳孔が写っている領域を検出する他の様々な方法の何れかを用いて、瞳孔が写っている領域を検出してもよい。同様に、プルキンエ像検出部24は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、光源のプルキンエ像が写っている領域を検出してもよい。
プルキンエ像検出部24は、照明光源4のプルキンエ像の検出に成功した場合、プルキンエ像に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、プルキンエ像の重心の位置座標として算出する。一方、プルキンエ像検出部24は、照明光源4のプルキンエ像の検出に失敗した場合、制御部9へその旨を表す信号を返す。
プルキンエ像検出部24は、プルキンエ像の重心及び瞳孔重心を視線検出部25へ通知する。
視線検出部25は、視線検出処理の実行中において、プルキンエ像の重心及び瞳孔重心に基づいてユーザの視線方向またはユーザの注視位置を検出する。
角膜の表面は略球形であるため、視線方向によらず、光源のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、ユーザの視線方向に応じて移動する。そのため、視線検出部25は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、ユーザの視線方向を検出できる。
本実施形態では、視線検出部25は、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして視線検出部25は、瞳孔重心の相対的な位置とユーザの視線方向との関係を表す参照テーブルを参照することにより、ユーザの視線方向を決定する。
図5は、参照テーブルの一例を示す図である。参照テーブル500の左側の列の各欄には、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置の座標が表される。また参照テーブル500の右側の列の各欄には、同じ行の瞳孔重心の相対的な位置の座標に対応するユーザの視線方向が表される。なお、この例では、視線方向は、所定の基準点(例えば、表示画面2aの中心または赤外カメラ5の取り付け位置)をユーザが注視しているときの視線方向を基準方向として、その基準方向からの水平方向及び垂直方向の角度の差で表される。なお、瞳孔重心の相対的な位置の座標は、画像上の画素単位で表される。
視線検出部25は、さらに、ユーザの視線方向に基づいて、ユーザが表示部2の表示画面2a上で注視している位置を検出する。なお、以下では、便宜上、ユーザが表示画面2a上で注視している位置を単に注視位置と呼ぶ。
本実施形態では、視線検出部25は、ユーザの視線方向と表示画面上でのユーザの注視位置との関係を表す注視位置テーブルを参照することにより、ユーザの注視位置を決定する。
図6は、注視位置テーブルの一例を示す図である。注視位置テーブル600の上端の行には、ユーザの視線方向が表される。そして注視位置テーブル600の各欄には、同じ列の視線方向に対応する、表示画面上の注視位置の座標が表示画面の画素単位で表される。例えば、注視位置テーブル600の欄601には、視線方向が水平方向0°、垂直方向1°の場合の注視位置が(cx,cy+40)であることが示されている。なお、cx、cyは、視線方向が(0,0)のときの注視位置、すなわち基準注視位置の座標、例えば、表示画面2aの中心の水平座標及び垂直座標である。
視線検出部25は、ユーザの注視位置を制御部9で実行中のアプリケーションプログラムへ通知する。
図7は、制御部9により実行される、視線検出処理の動作フローチャートを示す。制御部9は、広角画像及び狭角画像が生成される度に、以下の動作フローチャートに従って視線検出処理を実行する。
制御部9は、広角カメラ3から広角画像を取得し、赤外カメラ5から、照明光源4が点灯した状態でユーザの顔を撮影した狭角画像を取得する(ステップS101)。そして制御部9の顔検出部21は、広角画像上で顔が写っている顔領域を検出する(ステップS102)。顔検出部21は、顔領域の検出に成功したか否か判定する(ステップS103)。顔領域の検出に失敗した場合(ステップS103−No)、ユーザは表示部2の表示画面2aを向いていないと推定される。そのため、制御部9は、視線検出処理を終了する。
一方、顔検出部21が顔領域の検出に成功した場合(ステップS103−Yes)、顔検出部21は、顔領域情報を制御部9の眼周辺領域検出部22へ渡す。
眼周辺領域検出部22は、広角画像の顔領域内で眼周辺領域を検出する(ステップS104)。そして眼周辺領域検出部22は、眼周辺領域情報を制御部9の座標変換部23へ渡す。
座標変換部23は、狭角画像上で広角画像上の眼周辺領域に対応する拡大眼周辺領域を特定する(ステップS105)。そして座標変換部23は、拡大眼周辺領域情報を制御部9のプルキンエ像検出部24へ渡す。
プルキンエ像検出部24は、狭角画像上の拡大眼周辺領域内で瞳孔重心を検出する(ステップS106)。またプルキンエ像検出部24は、拡大眼周辺領域内で照明光源4のプルキンエ像を検出する(ステップS107)。そしてプルキンエ像検出部24は、瞳孔重心及びプルキンエ像の検出に成功したか否か判定する(ステップS108)。
プルキンエ像検出部24が瞳孔重心の検出または照明光源4のプルキンエ像の検出に失敗した場合(ステップS108−No)、制御部9は、視線検出処理を終了する。その後、制御部9は、前回の撮影時の露出条件と異なる露出条件でユーザの顔を撮影するように広角カメラ3及び赤外カメラ5に変更後の露出条件を表す制御信号を送信してもよい。
一方、プルキンエ像検出部24が瞳孔重心及び照明光源4のプルキンエ像の検出に成功した場合(ステップS108−Yes)、プルキンエ像検出部24は、プルキンエ像の重心及び瞳孔重心を制御部9の視線検出部25へ通知する。
視線検出部25は、参照テーブルを参照してプルキンエ像の重心を基準とする瞳孔重心の位置に対応する視線方向を検出する(ステップS109)。
視線検出部25は、注視位置テーブルを参照して、視線方向に対応する表示部2の表示画面2a上の注視位置を求める(ステップS110)。そして視線検出部25は、その注視位置を表す情報を、制御部9が実行中のアプリケーションプログラムへ渡す。
その後、制御部9は、視線検出処理を終了する。なお、プルキンエ像検出部24は、ステップS106の処理とステップS107の処理の順序を入れ替えてもよい。
以上に説明してきたように、第1の実施形態による視線検出装置は、ユーザの顔全体が写る広角画像上で顔領域を検出し、その顔領域内で眼周辺領域を検出するので、眼周辺領域の検出精度を向上できる。そしてこの視線検出装置は、狭角画像上でプルキンエ像及び瞳孔を検出する探索範囲を、広角画像で検出された眼周辺領域に対応する拡大眼周辺領域に限定する。これにより、この視線検出装置は、狭角画像にユーザの顔全体が写っていなくても、プルキンエ像及び瞳孔の検出精度が低下することを防止できる。またこの視線検出装置は、赤外カメラの向きを調節しなくても、瞳孔及びプルキンエ像を検出できるので、ユーザの視線方向の検出に要する時間を短縮できるとともに、装置構成を簡単化できる。
次に、第2の実施形態による視線検出装置について説明する。第2の実施形態による視線検出装置は、広角画像から求められた眼周辺領域に相当する、狭角画像の拡大眼周辺領域及びその周囲で再度眼が写っている領域を検出することで、狭角画像上での眼の位置をより正確に検出する。そしてこの視線検出装置は、再検出された眼が写っている領域内で瞳孔及びプルキンエ像を検出することで、眼の外にある他の部位、例えば、ほくろを、瞳孔などと誤検出することを抑制する。
第2の実施形態による視線検出装置は、第1の実施形態による視線検出装置と比較して、制御部の処理が異なる。そこで、制御部について説明する。視線検出装置のその他の部分に関しては、第1の実施形態における関連部分の説明を参照されたい。
図8は、第2の実施形態による視線検出装置が有する制御部の視線検出処理に関する機能ブロック図である。制御部9は、顔検出部21と、眼周辺領域検出部22と、座標変換部23と、眼精密検出部26と、プルキンエ像検出部24と、視線検出部25とを有する。
制御部9が有するこれらの各部は、制御部9が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。また制御部9が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として、制御部9が有するプロセッサとは別個にコンピュータ1に実装されてもよい。
図8において、制御部9の各構成要素には、図3に示された第1の実施形態による視線検出装置の制御部の対応する構成要素に付した参照番号と同じ参照番号を付した。また、第2の実施形態による視線検出装置の制御部9は、第1の実施形態による視線検出装置の制御部と比較して、眼精密検出部26を有する点で異なる。そこで、以下では、眼精密検出部26及びその関連部分について説明する。
眼精密検出部26は、座標変換部23から、拡大眼周辺領域情報を受け取る。そして眼精密検出部26は、狭角画像の拡大眼周辺領域及びその周囲で、再度眼が写っている領域を検出する。以下では、便宜上、眼精密検出部26により検出された眼が写っている領域を、精密眼領域と呼ぶ。
狭角画像上のユーザの眼のサイズは、広角画像上のユーザの眼のサイズよりも大きいので、眼精密検出部26は、眼及びその周囲のより詳細な情報を利用できるため、眼周辺領域検出部22よりも正確な眼の位置を特定できる。
なお、眼精密検出部26は、眼周辺領域検出部22が眼周辺領域を検出するのと同様に、例えば、両眼に相当するテンプレートと狭角画像上の拡大眼周辺領域とのテンプレートマッチングを行う。そして、眼精密検出部26は、拡大眼周辺領域内でテンプレートと最も一致する領域を精密眼領域として検出できる。
ただし、赤外カメラ5の視野は広角カメラ3の視野よりも狭いため、狭角画像にはユーザの顔全体が写らないことがある。この場合、眼精密検出部26が両眼に相当するテンプレートを利用すると、拡大眼周辺領域ではそのテンプレートと片方の眼しか一致しないので、精密眼領域の検出精度が低下するおそれがある。そこで眼精密検出部26は、拡大眼周辺領域全体が狭角画像に含まれるか否かによって、利用するテンプレートを変更してもよい。
図9(a)は、拡大眼周辺領域と狭角画像の位置関係の一例を示す図であり、図9(b)は、拡大眼周辺領域と狭角画像の位置関係の他の一例を示す図である。
図9(a)に示される例では拡大眼周辺領域900全体が、狭角画像901に含まれている。このような場合、眼精密検出部26は、例えば、精密眼領域を検出するために、両眼に相当するテンプレートを利用できる。一方、図9(b)に示される例では、拡大眼周辺領域910の一部が狭角画像911から外れている。この場合、眼精密検出部26は、狭角画像に含まれる方の眼と、顔の眼以外の部位(例えば、鼻孔、口、眉毛など)とを含むテンプレートを利用してもよい。またこの場合、顔の眼以外の部位は、眼と離れているので、拡大眼周辺領域内に含まれていない可能性がある。そこで図9(b)に示されるように、精密眼領域の探索範囲912は、拡大眼周辺領域だけでなく、拡大眼周辺領域の周囲の、テンプレートに含まれる他の部位が写っている可能性がある領域も含むように設定されてもよい。
また、広角カメラ3と赤外カメラ5とは、表示画面2aの垂直方向に沿って離れて設置されているので、広角カメラ3の視野と赤外カメラ5の視野との間には、垂直方向の視差がある。そして表示部2からユーザの顔までの距離に応じて、その視差は変動する。そこで眼精密検出部26は、精密眼領域の垂直方向の探索範囲を拡大眼周辺領域の上端と下端の間に限定せず、水平方向の探索範囲のみ、拡大眼周辺領域の左端と右端の間に限定してもよい。
眼精密検出部26は、狭角画像上の拡大眼周辺領域及びその周囲の探索範囲内でテンプレートと最も一致する領域のうち、そのテンプレート中の何れかの眼に相当する部分を、精密眼領域とする。そして眼精密検出部26は、精密眼領域の位置及び範囲を表す精密眼領域情報をプルキンエ像検出部24へ渡す。そしてプルキンエ像検出部24は、精密眼領域内で、ユーザの瞳孔及び照明光源4のプルキンエ像を検出する。
図10は、第2の実施形態による視線検出装置が実行する視線検出処理のうち、眼精密検出部26に関する部分の動作フローチャートを示す。図10に示される各ステップの処理は、例えば、図7に示された視線検出処理のステップS105の処理とステップS106の処理の間に実行される。
眼精密検出部26は、拡大眼周辺領域情報を座標変換部23から受け取ると、拡大眼周辺領域全体が狭角画像に含まれるか否か判定する(ステップS201)。なお眼精密検出部26は、例えば、狭角画像の座標系での拡大眼周辺領域の全てのコーナーの座標が狭角画像に含まれていれば、拡大眼周辺領域全体が狭角画像に含まれると判定する。一方、眼精密検出部26は、拡大眼周辺領域の何れかのコーナーの位置座標が狭角画像から外れていれば、拡大眼周辺領域の一部が狭角画像に含まれないと判定する。
拡大眼周辺領域全体が狭角画像に含まれる場合(ステップS201−Yes)、眼精密検出部26は、両眼に相当するテンプレートを記憶部8から読み込む。そして眼精密検出部26は、読み込んだテンプレートと拡大眼周辺領域とのテンプレートマッチングにより、精密眼領域を検出する(ステップS202)。一方、拡大眼周辺領域の一部が狭角画像から外れる場合(ステップS201−No)、眼精密検出部26は、狭角画像に含まれる方の眼と顔の他の部位に相当するテンプレートを記憶部8から読み込む。なお、拡大眼周辺領域の左側が狭角画像から外れる場合、ユーザの右眼は狭角画像に写っていない可能性がある。そこで眼精密検出部26は、ユーザの左眼と顔の他の部位に相当するテンプレートを利用する。逆に、拡大眼周辺領域の右側が狭角画像から外れる場合、眼精密検出部26は、ユーザの右眼と顔の他の部位に相当するテンプレートを利用する。そして眼精密検出部26は、読み込んだテンプレートと拡大眼周辺領域及びその周囲とのテンプレートマッチングにより精密眼領域を検出する(ステップS203)。
ステップS202またはS203の後、眼精密検出部26は、精密眼領域を表す情報をプルキンエ像検出部24へ渡す。そして制御部9は、図7に示されたステップS106以降の処理を実行する。
以上に説明してきたように、第2の実施形態による視線検出装置は、広角画像から検出された眼周辺領域に対応する狭角画像上の拡大眼周辺領域及びその周囲で再度ユーザの眼が写っている領域を検出する。そのため、この視線検出装置は、顔の他の部位を誤って眼と検出する可能性をより低減できるので、プルキンエ像及び瞳孔の検出精度もより向上できる。その結果として、この視線検出装置は、ユーザの視線方向及び注視位置の検出精度もより向上できる。
また、第2の実施形態の他の変形例によれば、視線検出部25は、広角画像から検出された眼周辺領域と、狭角画像から検出された精密眼領域とから、表示部2からユーザの顔までの距離を推定してもよい。
一般に、画像上の各画素の座標は、その画像を生成したカメラからその画素に写っている物体の方向に対応している。また、広角カメラ3と赤外カメラ5間の距離、広角カメラ3の光軸方向及び赤外カメラ5の光軸方向は予め分かっている。そこで視線検出部25は、例えば、広角画像上の眼周辺領域内の何れかの眼に相当する位置から、広角カメラ3からユーザのその眼への方向ベクトルを求める。同様に、視線検出部25は、狭角画像上の精密眼領域内のその眼に相当する位置から、赤外カメラ5からその眼への方向ベクトルを求める。そして視線検出部25は、三角測量の原理に基づいて、広角カメラ3と赤外カメラ5間の距離と、それぞれのカメラからユーザの眼への方向ベクトルとから、その方向ベクトル同士が交差する位置を求める。視線検出部25は、表示部2の表示画面2aの中心からその交差位置までの距離を、表示部2からユーザの顔までの距離と推定する。
この変形例では、視線検出部25は、表示部2からユーザの顔までの推定距離を、表示画面2a上のユーザの注視位置をより正確に求めるために利用できる。例えば、表示部2からユーザの顔までの距離ごとに、視線方向と注視位置の関係を表す注視位置テーブルが記憶部8に予め記憶されていてもよい。そして視線検出部25は、表示部2からユーザの顔までの推定距離に相当する注視位置テーブルを記憶部8から読み込んで、注視位置を特定するために利用する。
また、表示部2からユーザの顔までの想定距離(以下、基準距離と呼ぶ)についての注視位置テーブルのみが記憶部8に記憶されている場合、視線検出部25は、基準距離に対する、表示部2からユーザの顔までの推定距離の比を求める。そして視線検出部25は、その比を、注視位置テーブルを参照して得られた視線方向に対応する注視位置の座標と基準注視位置の座標との差に乗じた距離だけ、基準注視位置からその注視位置へ向かう方向に沿って離れた位置に、注視位置を補正してもよい。
これにより、視線検出部25は、表示部2からユーザの顔までの距離によらず、正確にユーザの注視位置を検出できる。
次に、第3の実施形態による視線検出装置について説明する。第3の実施形態による視線検出装置は、広角画像から求められた顔領域に相当する狭角画像上の領域及びその周囲で再度顔領域を検出し、狭角画像上で検出された顔領域の範囲内で、精密眼領域を検出する。
第3の実施形態による視線検出装置は、第1及び第2の実施形態による視線検出装置と比較して、制御部の処理が異なる。そこで、制御部について説明する。視線検出装置のその他の部分に関しては、第1の実施形態における関連部分の説明を参照されたい。
図11は、第3の実施形態による視線検出装置が有する制御部の視線検出処理に関する機能ブロック図である。制御部9は、顔検出部21と、座標変換部23と、顔精密検出部27と、眼精密検出部26と、プルキンエ像検出部24と、視線検出部25とを有する。
制御部9が有するこれらの各部は、制御部9が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。また制御部9が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として、制御部9が有するプロセッサとは別個にコンピュータ1に実装されてもよい。
図11において、制御部9の各構成要素には、図8に示された第2の実施形態による視線検出装置の制御部の対応する構成要素に付した参照番号と同じ参照番号を付した。また、第3の実施形態による視線検出装置の制御部9は、第2の実施形態による視線検出装置の制御部と比較して、眼周辺領域検出部22の代わりに顔精密検出部27を有する点で異なる。そこで、以下では、顔精密検出部27及びその関連部分について説明する。
顔検出部21は、顔領域情報を座標変換部23へ渡す。座標変換部23は、広角画像上の顔領域の各コーナーの狭角画像上の位置を、上記の(1)式または座標変換テーブルを参照して求めることにより、広角画像上の顔領域に相当する、狭角画像上の領域(以下、便宜上拡大顔領域と呼ぶ)を特定する。そして位置検出部23は、拡大顔領域の位置及び範囲を表す情報である拡大顔領域情報を顔精密検出部27へ渡す。なお、この拡大顔領域は、第1の領域の他の一例である。
顔精密検出部27は、狭角画像上の拡大顔領域及びその周囲で、ユーザの顔が写っている領域(以下、便宜上、精密顔領域と呼ぶ)を検出する。
本実施形態では、撮影時において、ユーザの顔は照明光源4からの赤外光で照明されており、赤外光に対する肌の反射率は比較的高い(例えば、肌の反射率は近赤外の波長域で数10%)ので、狭角画像上で顔の肌の部分が写っている画素の輝度は高い。一方、狭角画像上で髪の毛またはユーザの背後の領域は赤外光に対する反射率が低いかまたは照明光源4から遠いため、髪の毛またはユーザの背後の領域が写っている画素の輝度は、相対的に低くなる。
そこで、顔精密検出部27は、拡大顔領域内の各画素の値を所定の閾値と比較する。所定の閾値は、例えば、狭角画像上の輝度成分の最大値に0.5を乗じた値に設定される。そして顔精密検出部27は、各画素の輝度成分の値が所定の閾値以上の画素を、顔が写っている可能性がある顔領域候補画素として抽出する。
顔領域候補画素が検出されると、顔精密検出部27は、その顔領域候補画素に対して、顔検出部21と同様の処理を実行することにより、精密顔領域を検出できる。
顔精密検出部27は、精密顔領域を表す情報を眼精密検出部26へ渡す。
眼精密検出部26は、第2の実施形態による眼精密検出部と異なり、狭角画像の精密顔領域内でユーザの眼が写っている精密眼領域を検出する。そしてプルキンエ像検出部24は、その精密眼領域内で瞳孔及びプルキンエ像を検出する。
なお、精密顔領域が狭角画像の左端と接している場合、ユーザの右眼が狭角画像に写っていない可能性がある。この場合、眼精密検出部26は、ユーザの左眼と顔の他の部位に相当するテンプレートを記憶部8から読み込んで、精密眼領域を検出するために利用してもよい。逆に、精密顔領域が狭角画像の右端と接している場合、ユーザの左眼が狭角画像に写っていない可能性がある。そこでこの場合、眼精密検出部26は、ユーザの右眼と顔の他の部位に相当するテンプレートを記憶部8から読み込んで、精密眼領域を検出するために利用してもよい。
なお、上記のように、広角カメラ3と赤外カメラ5とは、表示画面の垂直方向に沿って離れて設置されているので、広角カメラ3の視野と赤外カメラ5の視野との間には、垂直方向の視差がある。そこで第3の実施形態の変形例によれば、顔精密検出部27は、精密顔領域の垂直方向の探索範囲を拡大顔領域の上端と下端の間に限定せず、水平方向の探索範囲のみ、拡大顔領域の左端と右端の間に限定してもよい。
また、第3の実施形態による視線検出処理では、図7に示された第1の実施形態による視線検出処理におけるステップS104の処理が省略される。その代わりに、第3の実施形態による視線検出処理では、制御部9は、ステップS105にて顔領域に対応する拡大顔領域を特定する。そして制御部9は、ステップS105の後、かつステップS106の前において、拡大顔領域に基づいて設定される探索範囲内で精密顔領域及び精密眼領域を検出する。そしてステップS106、S107では、制御部9は、それぞれ、精密眼領域内で瞳孔重心及びプルキンエ像を検出する。
以上に説明してきたように、第3の実施形態による視線検出装置は、広角画像から検出された顔領域に対応する狭角画像上の拡大顔領域及びその周囲で再度ユーザの顔が写っている領域を検出する。そのため、この視線検出装置は、狭角画像上で顔が写っている領域を誤検出する可能性をより低減できるので、顔が写っている領域に含まれるプルキンエ像及び瞳孔の検出精度もより向上できる。その結果として、この視線検出装置は、ユーザの視線方向及び注視位置の検出精度もより向上できる。
また第3の実施形態の変形例によれば、顔精密検出部27が省略され、眼精密検出部26は、拡大顔領域内で直接精密眼領域を検出してもよい。この変形例でも、眼精密検出部26は、拡大顔領域全体が狭角画像に含まれるか否かに応じて、精密眼領域の検出に利用するテンプレートを変更できるので、狭角画像から眼が写っている領域を直接検出するよりも、高い精度で眼が写っている領域を検出できる。
また、上記の各実施形態及びその変形例において、制御部9は、広角画像及び狭角画像のそれぞれについて、所定間隔で画素を間引くことにより縮小画像を生成し、その縮小画像に対して、上記の各部の処理を実行させてもよい。これにより、視線検出処理に用いられるデータの量が削減されるので、制御部9は、視線検出処理の処理時間を短縮できる。
さらに、上記の各実施形態またはその変形例による視線検出装置は、ユーザの視線方向を利用する装置、例えば、ドライバの視線方向の変化に応じてドライバに注意喚起するか否かを決定する運転支援装置に実装されてもよい。この場合、視線検出部は、ユーザの視線方向のみを検出し、ユーザの注視位置を検出しなくてもよい。
上記の実施形態またはその変形例による視線検出装置の制御部の機能を実現するコンピュータプログラムは、磁気記録媒体、光記録媒体といったコンピュータ読み取り可能な記録媒体に記録された形で提供されてもよい。なお、この記録媒体には、搬送波は含まれない。
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
ユーザの眼を照明する光源と、
第1の画角を有し、前記ユーザの顔を撮影した第1の画像を生成する第1の撮像部と、
前記第1の画角よりも狭い第2の画角を有し、前記ユーザの顔の少なくとも一部を撮影した第2の画像を生成する第2の撮像部と、
前記第1の画像から前記ユーザの顔が写っている顔領域を検出する顔検出部と、
前記顔領域または前記顔領域内で前記ユーザの眼が写っている眼周辺領域に対応する前記第2の画像上の第1の領域を特定する座標変換部と、
前記第1の領域に基づいて特定される、前記第2の画像上で前記ユーザの眼が写っている眼領域内で、前記光源の角膜反射像と前記ユーザの瞳孔重心とを検出するプルキンエ像検出部と、
前記瞳孔重心と角膜反射像との位置関係に応じて前記ユーザの視線方向または注視位置を検出する視線検出部と、
を有する視線検出装置。
(付記2)
前記第1の画像上の前記顔領域内で前記眼周辺領域を検出する眼周辺領域検出部をさらに有する、付記1に記載の視線検出装置。
(付記3)
前記第1の領域は、前記第2の画像上の前記眼周辺領域に対応する領域であり、
前記第1の領域にしたがって設定される前記第2の画像上の探索範囲内で前記眼領域を検出する眼精密検出部をさらに有する、付記2に記載の視線検出装置。
(付記4)
前記眼精密検出部は、前記第1の領域全体が前記第2の画像に含まれる場合、前記ユーザの両方の眼に相当する情報を利用して前記眼領域を検出し、一方、前記第1の領域の一部が前記第2の画像に含まれない場合、前記ユーザの何れか一方の眼及び前記ユーザの顔の眼以外の部位に相当する情報を利用して前記眼領域を検出する、付記3に記載の視線検出装置。
(付記5)
前記眼精密検出部は、前記第1の領域全体が前記第2の画像に含まれる場合、前記第1の領域を前記探索範囲とし、一方、前記第1の領域の一部が前記第2の画像に含まれない場合、前記第1の領域及び前記第1の領域周囲の前記部位が含まれ得る領域を前記探索範囲とする、付記4に記載の視線検出装置。
(付記6)
前記第1の撮像部と前記第2の撮像部とは、垂直方向に沿って離して配置され、
前記眼精密検出部は、前記第1の領域の左端と右端との間に前記探索範囲を設定する、付記3に記載の視線検出装置。
(付記7)
前記第1の領域は、前記第2の画像上での前記顔領域に対応する領域であり、
前記第1の領域にしたがって設定される前記第2の画像上の第2の探索範囲内で前記眼領域を検出する眼精密検出部をさらに有する、付記1に記載の視線検出装置。
(付記8)
前記第1の領域にしたがって設定される前記第2の画像上の前記第2の探索範囲内で前記ユーザの顔が写っている第2の顔領域を検出する顔精密検出部をさらに有し、
前記眼精密検出部は、前記第2の顔領域内で前記眼領域を検出する、付記7に記載の視線検出装置。
(付記9)
前記第1の撮像部と前記第2の撮像部とは、垂直方向に沿って離して配置され、
前記顔精密検出部は、前記第1の領域の左端と右端との間に前記第2の探索範囲を設定する、付記8に記載の視線検出装置。
(付記10)
前記第1の撮像部及び前記第2の撮像部は、表示装置の表示画面の周囲に配置され、
前記視線検出部は、前記瞳孔重心と角膜反射像との位置関係に応じて前記表示画面上の前記ユーザの注視位置を検出する、付記1に記載の視線検出装置。
(付記11)
前記第1の撮像部は、前記表示画面の上方に配置され、かつ、前記第2の撮像部は、前記表示画面の下方に配置される、付記10に記載の視線検出装置。
(付記12)
前記第1の撮像部及び前記第2の撮像部は、表示装置の表示画面の周囲に配置され、
前記視線検出部は、前記第1の画像上の前記第1の領域内の前記ユーザの眼の位置と、前記第2の画像上の前記眼領域内の前記ユーザの眼の位置と、前記第1の撮像部と前記第2の撮像部との間の距離とに基づいて前記表示装置から前記ユーザの顔までの距離を推定し、当該推定された距離及び前記瞳孔重心と前記角膜反射像との位置関係に応じて前記表示画面上の前記ユーザの注視位置を検出する、付記1に記載の視線検出装置。
(付記13)
第1の画角を有する第1の撮像部により生成された第1の画像からユーザの顔が写っている顔領域を検出し、
前記顔領域または前記顔領域内で前記ユーザの眼が写っている眼周辺領域に対応する、前記第1の画角よりも狭い第2の画角を有する第2の撮像部により生成された第2の画像上の第1の領域を特定し、
前記第1の領域に基づいて特定される、前記第2の画像上で前記ユーザの眼が写っている眼領域内で、前記ユーザの眼を照明する光源の角膜反射像と前記ユーザの瞳孔重心とを検出し、
前記瞳孔重心と前記角膜反射像との位置関係に応じて前記ユーザの視線方向または注視位置を検出する、
ことを含む視線検出方法。
(付記14)
第1の画角を有する第1の撮像部により生成された第1の画像からユーザの顔が写っている顔領域を検出し、
前記顔領域または前記顔領域内で前記ユーザの眼が写っている眼周辺領域に対応する、前記第1の画角よりも狭い第2の画角を有する第2の撮像部により生成された第2の画像上の第1の領域を特定し、
前記第1の領域に基づいて特定される、前記第2の画像上で前記ユーザの眼が写っている眼領域内で、前記ユーザの眼を照明する光源の角膜反射像と前記ユーザの瞳孔重心とを検出し、
前記瞳孔重心と前記角膜反射像との位置関係に応じて前記ユーザの視線方向または注視位置を検出する、
ことをコンピュータに実行させるための視線検出用コンピュータプログラム。
1 コンピュータ
2 表示部
2a 表示画面
3 広角カメラ
4 照明光源
5 赤外カメラ
6 入力部
7 記憶媒体アクセス装置
8 記憶部
9 制御部
10 記憶媒体
21 顔検出部
22 眼周辺領域検出部
23 座標変換部
24 プルキンエ像検出部
25 視線検出部
26 眼精密検出部
27 顔精密検出部

Claims (10)

  1. ユーザの眼を照明する光源と、
    第1の画角を有し、前記ユーザの顔を撮影した第1の画像を生成する第1の撮像部と、
    前記第1の画角よりも狭い第2の画角を有し、前記ユーザの顔の少なくとも一部を撮影した第2の画像を生成する第2の撮像部と、
    前記第1の画像から前記ユーザの顔が写っている顔領域を検出する顔検出部と、
    前記顔領域または前記顔領域内で前記ユーザの眼が写っている眼周辺領域に対応する前記第2の画像上の第1の領域を特定する座標変換部と、
    前記第1の領域に基づいて特定される、前記第2の画像上で前記ユーザの眼が写っている眼領域内で、前記光源の角膜反射像と前記ユーザの瞳孔重心とを検出するプルキンエ像検出部と、
    前記瞳孔重心と角膜反射像との位置関係に応じて前記ユーザの視線方向または注視位置を検出する視線検出部と、
    を有する視線検出装置。
  2. 前記第1の画像上の前記顔領域内で前記眼周辺領域を検出する眼周辺領域検出部をさらに有する、請求項1に記載の視線検出装置。
  3. 前記第1の領域は、前記第2の画像上の前記眼周辺領域に対応する領域であり、
    前記第1の領域にしたがって設定される前記第2の画像上の探索範囲内で前記眼領域を検出する眼精密検出部をさらに有する、請求項2に記載の視線検出装置。
  4. 前記眼精密検出部は、前記第1の領域全体が前記第2の画像に含まれる場合、前記ユーザの両方の眼に相当する情報を利用して前記眼領域を検出し、一方、前記第1の領域の一部が前記第2の画像に含まれない場合、前記ユーザの何れか一方の眼及び前記ユーザの顔の眼以外の部位に相当する情報を利用して前記眼領域を検出する、請求項3に記載の視線検出装置。
  5. 前記眼精密検出部は、前記第1の領域全体が前記第2の画像に含まれる場合、前記第1の領域を前記探索範囲とし、一方、前記第1の領域の一部が前記第2の画像に含まれない場合、前記第1の領域及び前記第1の領域周囲の前記部位が含まれ得る領域を前記探索範囲とする、請求項4に記載の視線検出装置。
  6. 前記第1の撮像部と前記第2の撮像部とは、垂直方向に沿って離して配置され、
    前記眼精密検出部は、前記第1の領域の左端と右端との間に前記探索範囲を設定する、請求項3に記載の視線検出装置。
  7. 前記第1の領域は、前記第2の画像上での前記顔領域に対応する領域であり、
    前記第1の領域にしたがって設定される前記第2の画像上の第2の探索範囲内で前記眼領域を検出する眼精密検出部をさらに有する、請求項1に記載の視線検出装置。
  8. 前記第1の領域にしたがって設定される前記第2の画像上の前記第2の探索範囲内で前記ユーザの顔が写っている第2の顔領域を検出する顔精密検出部をさらに有し、
    前記眼精密検出部は、前記第2の顔領域内で前記眼領域を検出する、請求項7に記載の視線検出装置。
  9. 前記第1の撮像部と前記第2の撮像部とは、垂直方向に沿って離して配置され、
    前記顔精密検出部は、前記第1の領域の左端と右端との間に前記第2の探索範囲を設定する、請求項8に記載の視線検出装置。
  10. 第1の画角を有する第1の撮像部により生成された第1の画像からユーザの顔が写っている顔領域を検出し、
    前記顔領域または前記顔領域内で前記ユーザの眼が写っている眼周辺領域に対応する、前記第1の画角よりも狭い第2の画角を有する第2の撮像部により生成された第2の画像上の第1の領域を特定し、
    前記第1の領域に基づいて特定される、前記第2の画像上で前記ユーザの眼が写っている眼領域内で、前記ユーザの眼を照明する光源の角膜反射像と前記ユーザの瞳孔重心とを検出し、
    前記瞳孔重心と前記角膜反射像との位置関係に応じて前記ユーザの視線方向または注視位置を検出する、
    ことを含む視線検出方法。
JP2012182720A 2012-08-21 2012-08-21 視線検出装置及び視線検出方法 Expired - Fee Related JP5949319B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012182720A JP5949319B2 (ja) 2012-08-21 2012-08-21 視線検出装置及び視線検出方法
US13/909,452 US20140055342A1 (en) 2012-08-21 2013-06-04 Gaze detection apparatus and gaze detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012182720A JP5949319B2 (ja) 2012-08-21 2012-08-21 視線検出装置及び視線検出方法

Publications (2)

Publication Number Publication Date
JP2014039617A true JP2014039617A (ja) 2014-03-06
JP5949319B2 JP5949319B2 (ja) 2016-07-06

Family

ID=50147528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012182720A Expired - Fee Related JP5949319B2 (ja) 2012-08-21 2012-08-21 視線検出装置及び視線検出方法

Country Status (2)

Country Link
US (1) US20140055342A1 (ja)
JP (1) JP5949319B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3091337A1 (en) 2015-04-23 2016-11-09 Fujitsu Limited Content reproduction device, content reproduction program, and content reproduction method

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2857939B1 (en) * 2012-05-25 2018-08-29 National University Corporation Shizuoka University Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
KR102187837B1 (ko) * 2013-05-16 2020-12-07 삼성전자 주식회사 컴퓨터의 입력 장치 및 이를 이용한 입력 방법과 그 시스템
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
JP6210023B2 (ja) * 2013-11-28 2017-10-11 株式会社Jvcケンウッド 視線検出支援装置および視線検出支援方法
US9804753B2 (en) * 2014-03-20 2017-10-31 Microsoft Technology Licensing, Llc Selection using eye gaze evaluation over time
US20150310651A1 (en) * 2014-04-29 2015-10-29 Verizon Patent And Licensing Inc. Detecting a read line of text and displaying an indicator for a following line of text
KR102215077B1 (ko) * 2014-08-04 2021-02-10 삼성전자주식회사 홍채인식장치 및 홍채인식방법
CN104574321B (zh) * 2015-01-29 2018-10-23 京东方科技集团股份有限公司 图像修正方法、图像修正装置和视频系统
JP6210081B2 (ja) * 2015-03-23 2017-10-11 カシオ計算機株式会社 復号装置、復号方法、及び、プログラム
EP3112922A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing A gaze tracking device and a head mounted device embedding said gaze tracking device
JP6841232B2 (ja) * 2015-12-18 2021-03-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6266675B2 (ja) * 2016-03-18 2018-01-24 株式会社Subaru 捜索支援装置、捜索支援方法及び捜索支援プログラム
US11232316B2 (en) * 2016-06-28 2022-01-25 Intel Corporation Iris or other body part identification on a computing device
US9874934B1 (en) * 2016-07-29 2018-01-23 International Business Machines Corporation System, method, and recording medium for tracking gaze with respect to a moving plane with a camera with respect to the moving plane
CN108932453B (zh) * 2017-05-23 2021-04-09 杭州海康威视数字技术股份有限公司 一种车辆备胎检测方法及装置
US10535160B2 (en) 2017-07-24 2020-01-14 Visom Technology, Inc. Markerless augmented reality (AR) system
US10282913B2 (en) 2017-07-24 2019-05-07 Visom Technology, Inc. Markerless augmented reality (AR) system
WO2019023076A1 (en) * 2017-07-24 2019-01-31 Visom Technology, Inc. AUGMENTED REALITY SYSTEM (RA) WITHOUT MARKER
US11048921B2 (en) 2018-05-09 2021-06-29 Nviso Sa Image processing system for extracting a behavioral profile from images of an individual specific to an event
SE542887C2 (en) 2018-10-31 2020-08-11 Tobii Ab Gaze tracking using mapping of pupil center position
WO2020095784A1 (ja) * 2018-11-06 2020-05-14 日本電気株式会社 表示制御装置、表示制御方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
CN111198611A (zh) * 2018-11-19 2020-05-26 中兴通讯股份有限公司 确定视线落点的方法、终端以及计算机可读存储介质
JP7283841B2 (ja) * 2019-03-28 2023-05-30 株式会社豊田中央研究所 視線計測装置
US11046327B2 (en) 2019-04-09 2021-06-29 Fotonation Limited System for performing eye detection and/or tracking
US10948986B2 (en) * 2019-04-09 2021-03-16 Fotonation Limited System for performing eye detection and/or tracking
EP3789848A1 (en) * 2019-09-05 2021-03-10 Smart Eye AB Determination of gaze direction
CN110781799B (zh) * 2019-10-22 2022-01-28 上海商汤智能科技有限公司 车舱内图像处理方法及装置
CN111368717B (zh) * 2020-03-02 2023-07-04 广州虎牙科技有限公司 视线确定方法、装置、电子设备和计算机可读存储介质
US11573632B2 (en) 2020-06-30 2023-02-07 Snap Inc. Eyewear including shared object manipulation AR experiences

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62245183A (ja) * 1986-04-04 1987-10-26 アプライド サイエンス グル−プ インコ−ポレ−テツド テレビ・コマ−シヤルの視聴時間の分布を発生させる方法およびシステム
JPH0868630A (ja) * 1994-08-29 1996-03-12 Nissan Motor Co Ltd 車両用視線方向計測装置およびこれに用いる画像入力装置
JP2005323905A (ja) * 2004-05-17 2005-11-24 Nippon Hoso Kyokai <Nhk> 眼球運動測定装置、及び眼球運動測定プログラム
WO2009001558A1 (ja) * 2007-06-27 2008-12-31 Panasonic Corporation ヒト状態推定装置およびその方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR9906458A (pt) * 1998-05-20 2000-09-19 Sony Computer Entertainment Inc Dispositivo de processamento de imagens, método e meio de distribuição
US6606406B1 (en) * 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
WO2005046465A1 (en) * 2003-11-14 2005-05-26 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US7469060B2 (en) * 2004-11-12 2008-12-23 Honeywell International Inc. Infrared face detection and recognition system
US7643659B2 (en) * 2005-12-31 2010-01-05 Arcsoft, Inc. Facial feature detection on mobile devices
KR100820639B1 (ko) * 2006-07-25 2008-04-10 한국과학기술연구원 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법
KR20090032261A (ko) * 2007-09-27 2009-04-01 삼성전자주식회사 움직임 추정에 기초하여 움직임 보상을 수행하는 영상 처리장치 및 그 방법
US20110170061A1 (en) * 2010-01-08 2011-07-14 Gordon Gary B Gaze Point Tracking Using Polarized Light
JP5743501B2 (ja) * 2010-11-25 2015-07-01 キヤノン株式会社 物体追尾装置、物体追尾方法、及び物体追尾プログラム
US8408706B2 (en) * 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62245183A (ja) * 1986-04-04 1987-10-26 アプライド サイエンス グル−プ インコ−ポレ−テツド テレビ・コマ−シヤルの視聴時間の分布を発生させる方法およびシステム
JPH0868630A (ja) * 1994-08-29 1996-03-12 Nissan Motor Co Ltd 車両用視線方向計測装置およびこれに用いる画像入力装置
JP2005323905A (ja) * 2004-05-17 2005-11-24 Nippon Hoso Kyokai <Nhk> 眼球運動測定装置、及び眼球運動測定プログラム
WO2009001558A1 (ja) * 2007-06-27 2008-12-31 Panasonic Corporation ヒト状態推定装置およびその方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3091337A1 (en) 2015-04-23 2016-11-09 Fujitsu Limited Content reproduction device, content reproduction program, and content reproduction method

Also Published As

Publication number Publication date
JP5949319B2 (ja) 2016-07-06
US20140055342A1 (en) 2014-02-27

Similar Documents

Publication Publication Date Title
JP5949319B2 (ja) 視線検出装置及び視線検出方法
JP6056323B2 (ja) 視線検出装置、視線検出用コンピュータプログラム
US20170286771A1 (en) Gaze detection apparatus and gaze detection method
JP6930223B2 (ja) 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法
CN109471523B (zh) 使用眼球中心位置的眼睛追踪
JP5655644B2 (ja) 視線検出装置及び視線検出方法
US10310675B2 (en) User interface apparatus and control method
JP6322986B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5621456B2 (ja) 視線検出装置、視線検出方法及び視線検出用コンピュータプログラムならびに携帯端末
JP6123694B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2018205819A (ja) 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法
US10146306B2 (en) Gaze position detection apparatus and gaze position detection method
JP6870474B2 (ja) 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法
JP2016091457A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JP5626039B2 (ja) 視線検出装置及び視線検出方法
EP4095744A1 (en) Automatic iris capturing method and apparatus, computer-readable storage medium, and computer device
KR100960269B1 (ko) 눈동자 시선 추정 장치 및 추정 방법
JP2017199148A (ja) 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
CN115335754A (zh) 地理空间图像表面处理和选择
Caya et al. Development of a wearable device for tracking eye movement using pupil lumination comparison algorithm
JP6575353B2 (ja) 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP2018120299A (ja) 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法
JP2015046111A (ja) 視点検出装置および視点検出方法
JP5299632B2 (ja) 個人認証装置、プログラム及び記録媒体
JP6398755B2 (ja) 入力装置、入力方法及び入力処理用コンピュータプログラムならびに入力システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160523

R150 Certificate of patent or registration of utility model

Ref document number: 5949319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees