JP7255436B2 - 眼球構造推定装置 - Google Patents

眼球構造推定装置 Download PDF

Info

Publication number
JP7255436B2
JP7255436B2 JP2019174079A JP2019174079A JP7255436B2 JP 7255436 B2 JP7255436 B2 JP 7255436B2 JP 2019174079 A JP2019174079 A JP 2019174079A JP 2019174079 A JP2019174079 A JP 2019174079A JP 7255436 B2 JP7255436 B2 JP 7255436B2
Authority
JP
Japan
Prior art keywords
center
eyeball
coordinate system
camera coordinate
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019174079A
Other languages
English (en)
Other versions
JP2021049130A (ja
Inventor
真一 小島
善之 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Central R&D Labs Inc
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Central R&D Labs Inc, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2019174079A priority Critical patent/JP7255436B2/ja
Priority to US16/817,697 priority patent/US20210085174A1/en
Publication of JP2021049130A publication Critical patent/JP2021049130A/ja
Application granted granted Critical
Publication of JP7255436B2 publication Critical patent/JP7255436B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/107Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining the shape or measuring the curvature of the cornea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、眼球構造推定装置に係り、特に、顔を撮像した画像から、眼球のパラメータを推定する眼球構造推定装置に関する。
従来より、個人キャリブレーションにおいて1点を注視する、視線計測法が知られている(非特許文献1)。
また、眼球モデルの初期パラメータから始めて、パラメータを変更しては角膜反射像と虹彩輪郭の適合度を評価し、適合度が閾値以下になるまでパラメータ変更を繰り返す視線検出用コンピュータプログラムが知られている(特許文献1)。
また、眼球モデルの初期パラメータから始めて、複数時刻の虹彩領域画像を用いて非線形最適化で構造パラメータを求める、眠気レベルの推定装置が知られている(特許文献2)。
また、座標が既知のターゲットを見たことを利用する補正値算出装置が知られている(特許文献3)。この補正値算出装置では、視線ベクトルの並進とスケールを補正する。
また、予め、構造パラメータが異なる複数眼球モデルを用意しておき、瞳の観測に合うモデルを選択する視線検出装置が知られている(特許文献4)。
大野健彦,"1点キャリブレーションによる視線計測とその応用"、社団法人情報処理学会研究報告、2006-HI-117(10)、2006年1月
特開2018-120299号公報 特開2013-202273号公報 特許第05560858号公報 特許第04829141号公報
上記非特許文献1では、2箇所のLEDを離して設置する必要があり、装置が大型化する。また、2箇所の角膜反射像の観測が必要である。
上記特許文献1では、パラメータを変更しては適合度を評価し、適合度が閾値以下になるまで繰り返す方式であるため、探索に時間がかかる。
上記特許文献2では、虹彩中心の投影位置を計算する際に角膜屈折を考慮していないため、誤差が大きい。パラメータを変更しては適合度を評価し、適合度が閾値以下になるまで繰り返す方式であるため、探索に時間がかかる。
上記特許文献3では、座標が既知の対象を確実に見たと判断するのが難しい。
上記特許文献4では、予め用意した複数モデルとの比較で構造パラメータを選択する方式であるため、探索に時間がかかる。
本発明は、上記の問題点を解決するためになされたもので、簡易な構成で、視線計測のために、眼球の構造パラメータを精度良く求めることができる眼球構造推定装置を提供することを目的とする。
上記の目的を達成するために本発明に係る眼球構造推定装置は、被観察者の顔を撮像する撮像部と、前記被観察者の目に対して光を照射する光照射部と、前記撮像部によって撮像された前記顔を表す顔画像上の目の瞳孔中心位置から、眼球の構造パラメータを用いて、前記顔画像上の角膜反射像の画像座標を推定する角膜反射像推定部と、前記顔画像上の目の角膜反射像の位置から、前記眼球の構造パラメータを用いて、前記顔画像上の瞳孔中心の画像座標を推定する瞳孔推定部と、前記眼球の構造パラメータを含む状態ベクトルを予測する事前予測部と、前記角膜反射像推定部によって推定された前記顔画像上の角膜反射像の画像座標、及び前記瞳孔推定部によって推定された前記顔画像上の瞳孔中心の画像座標を含む観測ベクトルと、前記事前予測部によって予測された前記状態ベクトルと、前記状態ベクトルを用いて前記観測ベクトルを表す観測方程式とから、前記状態ベクトルを推定する状態推定部と、を含んで構成されている。
本発明によれば、簡易な構成で、視線計測のために、眼球の構造パラメータを精度良く求めることができる。
上記本発明に係る眼球構造推定装置において、前記観測ベクトルは、前記角膜反射像推定部によって前記顔画像上の角膜反射像の画像座標を推定する際に計算される視線ベクトルを更に含むようにすることができる。
上記本発明に係る眼球構造推定装置において、前記眼球の構造パラメータは、眼球の角膜曲率半径、眼球の角膜曲率中心と瞳孔中心との距離、及び前記角膜曲率中心と眼球中心との距離を含むようにすることができる。
上記本発明に係る眼球構造推定装置において、前記撮像部と前記光照射部との位置関係、前記撮像部と前記目との位置関係、及び前記撮像部に関するパラメータが、前記撮像部の撮像方向と前記光照射部の光照射方向とが同軸であるとみなすための予め定められた制約条件を満たすようにすることができる。
上記本発明に係る眼球構造推定装置において、前記角膜反射像推定部は、前記撮像部によって撮像された前記顔を表す顔画像から、カメラ座標系における眼球中心の3次元座標を推定するカメラ座標系眼球中心座標計算部と、前記顔画像上の目の瞳孔中心位置から、カメラ座標系における見かけの瞳孔中心の3次元座標を推定する瞳孔中心計算部と、前記カメラ座標系における眼球中心の3次元座標と、前記カメラ座標系における見かけの瞳孔中心の3次元座標とに基づいて、前記カメラ座標系において、前記眼球中心の3次元位置から瞳孔中心の3次元位置へ向かう3次元の光軸ベクトルを計算する眼球位置姿勢推定部と、前記カメラ座標系における眼球中心の3次元座標と、前記光軸ベクトルと、予め定められた3次元眼球モデルとに基づいて、カメラ座標系における角膜反射像の3次元座標を求める角膜反射像計算部と、前記カメラ座標系における角膜反射像の3次元座標から、前記顔画像上の角膜反射像の画像座標を推定する画像座標計算部と、を含むようにすることができる。
また、上記本発明に係る眼球構造推定装置において、前記眼球位置姿勢推定部は、前記カメラ座標系における見かけの瞳孔中心の3次元座標と前記カメラ座標系における眼球中心の3次元座標とを結んだ線分と、前記カメラ座標系における眼球中心の3次元座標と前記撮像部の3次元座標とを結んだ線分とのなす角を算出し、前記なす角に対応して予め定められた角度補正量を取得し、前記カメラ座標系における眼球中心の3次元座標と前記カメラ座標系における見かけの瞳孔中心の3次元座標とを結んだベクトルと、前記取得した前記角度補正量と、前記算出した前記なす角と、前記カメラ座標系における眼球中心の3次元座標とに基づいて、前記カメラ座標系において、前記眼球中心の3次元位置から瞳孔中心の3次元位置へ向かう3次元の光軸ベクトルを計算するようにすることができる。
上記本発明に係る眼球構造推定装置において、前記瞳孔推定部は、前記撮像部によって撮像された前記顔を表す顔画像から、カメラ座標系における眼球中心の3次元座標を推定するカメラ座標系眼球中心座標計算部と、前記顔画像上の目の角膜反射像の位置から、カメラ座標系における角膜反射像の3次元座標を推定する角膜反射像計算部と、前記カメラ座標系における眼球中心の3次元座標と、前記カメラ座標系における角膜反射像の3次元座標とに基づいて、前記カメラ座標系において、前記眼球中心の3次元位置から角膜曲率中心の3次元位置へ向かう3次元の光軸ベクトルを計算する眼球位置姿勢推定部と、前記カメラ座標系における眼球中心の3次元座標と、前記光軸ベクトルと、予め定められた3次元眼球モデルとに基づいて、カメラ座標系における見かけの瞳孔中心の3次元座標を求める瞳孔中心計算部と、前記カメラ座標系における見かけの瞳孔中心の3次元座標から、前記顔画像上の瞳孔中心の画像座標を推定する画像座標計算部と、を含むようにすることができる。
また、上記本発明に係る眼球構造推定装置において、前記瞳孔中心計算部は、前記光軸ベクトルと、前記カメラ座標系における眼球中心の3次元座標とに基づいて、前記カメラ座標系における眼球中心の3次元座標と前記カメラ座標系の角膜曲率中心の3次元座標とを結んだ線分と、前記カメラ座標系における眼球中心の3次元座標と前記撮像部の3次元座標とを結んだ線分とのなす角を算出し、前記算出された前記なす角に対応して予め定められた角度補正量を取得し、前記カメラ座標系における眼球中心の3次元座標と、前記光軸ベクトルと、前記角度補正量とに基づいて、前記カメラ座標系における眼球中心の3次元座標と前記カメラ座標系における見かけの瞳孔中心の3次元座標とを結んだベクトルを算出し、前記算出されたベクトルと、前記カメラ座標系における眼球中心の3次元座標と、予め定められた3次元眼球モデルとに基づいて、カメラ座標系における見かけの瞳孔中心の3次元座標を求めるようにすることができる。
以上説明したように、本発明の眼球構造推定装置によれば、簡易な構成で、視線計測のために、眼球の構造パラメータを精度良く求めることができる、という効果が得られる。
三次元眼球モデルと構造パラメータを示す図である。 本発明の実施の形態に係る視線計測装置の構成を示すブロック図である。 照射部と画像撮像部の配置を示す図である。 照射部と画像撮像部と目の位置関係を示す図である。 本発明の実施の形態に係る視線計測装置の角膜反射像推定部の構成を示すブロック図である。 各種座標系を説明するための図である。 三次元眼球モデルと画像撮像部との位置関係を示す図である。 本発明の実施の形態に係る視線計測装置の瞳孔推定部の構成を示すブロック図である。 本発明の実施の形態に係る視線計測装置の構造パラメータ推定部の構成を示すブロック図である。 本発明の実施の形態に係る視線計測装置における視線計測処理ルーチンの内容を示すフローチャートである。 本発明の実施の形態に係る視線計測装置における角膜反射像推定処理ルーチンの内容を示すフローチャートである。 本発明の実施の形態に係る視線計測装置における瞳孔推定処理ルーチンの内容を示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、撮像された顔画像から、視線ベクトルを推定する視線計測装置に本発明を適用した場合を例に説明する。
<本発明の実施の形態の概要>
従来技術では、座標が既知の三次元対象を被観察者に見てもらうことにより視線ベクトルのキャリブレーションを行い、個人差に起因する誤差を吸収しており、三次元眼球モデルの構造パラメータの推定を行っていない。しかし、このキャリブレーションの手続きに手間がかかる。
そこで、本発明の実施の形態では、明示的なキャリブレーションの手続きを行わず、時系列の視線計測プロセスの中で三次元眼球モデルの構造パラメータを推定する。
ここで、眼球中心座標eを推定する技術がある(特開2019-000136号公報)。この技術では、顔モデル座標系における眼球中心座標eが不動点になり、時間変化しないことを利用している。
また、e=f(観測変数)の形で立式できるため、時間方向の最小二乗法により式を解いている。
本実施の形態の推定対象は、眼球の構造パラメータであり、座標系によらず時間変化しない。ただし、状態変数=f(観測変数)の形に変形できないため、最小二乗法は適用できない。
その代わり、観測変数=f(状態変数)の形の立式が可能であることが分かった。よって、f()が状態変数で偏微分可能なことを示し、カルマンフィルタによる固定パラメータ推定問題として解くことにより、構造パラメータを推定する。
図1に示すように、三次元眼球モデルは、2つの球からなり、本実施の形態で推定する構造パラメータは、角膜曲率半径r、角膜曲率中心と瞳孔中心との距離s、及び角膜曲率中心と眼球中心との距離uである。
<視線計測装置の構成>
図2に示すように、本発明の実施の形態に係る視線計測装置10は、対象とする被験者の顔を含む画像を撮像するCCDカメラ等からなる画像撮像部12と、被験者の目に対して光を照射する照射部13と、画像処理を行うコンピュータ14と、CRT等で構成された出力部16とを備えている。
画像撮像部12は、1つのカメラであり、照射部13は、例えば、1つの近赤外LEDである。本実施の形態では、画像撮像部12の撮像方向と照射部13の照射方向とが同軸ではないが、同軸とみなされるように配置されている(図3)。具体的には、以下の式(1)に示す制約条件を満たす配置となっている(図4)。なお、式(1)を満たした上で、2つの近赤外LEDをカメラの左右両側に配置してもよい。
Figure 0007255436000001

(1)
ただし、Lは、画像撮像部12から角膜曲率中心へ向かう直線と角膜との交点と、画像撮像部12との間の距離であり、rは、角膜曲率半径であり、fは、画像撮像部12のピクセル単位の焦点距離である。
コンピュータ14は、CPU、後述する視線計測処理ルーチンのプログラムを記憶したROM、データ等を記憶するRAM、及びこれらを接続するバスを含んで構成されている。このコンピュータ14をハードウェアとソフトウェアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図2に示すように、コンピュータ14は、画像撮像部12から出力される濃淡画像である顔画像を入力する画像入力部20と、画像入力部20の出力である顔画像の時系列から、角膜反射像の画像座標の時系列を推定する角膜反射像推定部22と、画像入力部20の出力である顔画像の時系列から、瞳孔中心の画像座標の時系列を推定する瞳孔推定部24と、角膜反射像の画像座標の時系列と、瞳孔中心の画像座標の時系列とから、眼球の構造パラメータを推定する構造パラメータ推定部28とを備えている。
画像入力部20は、例えば、A/Dコンバータや1画面の画像データを記憶する画像メモリ等で構成される。
角膜反射像推定部22は、図5に示すように、カメラ座標系眼球中心座標計算部30と、見かけの瞳孔中心計算部32と、眼球モデル記憶部34と、眼球位置姿勢推定部36と、カメラ座標系角膜反射像計算部40と、角膜反射像画像座標計算部42とを備えている。
カメラ座標系眼球中心座標計算部30は、以下のように、顔画像から、図6に示すカメラ座標系における眼球中心の3次元座標を推定する。
まず、予め、図6に示す顔モデル座標系における眼球中心(点E)の3次元座標
Figure 0007255436000002

を求めておく(図7参照)。
例えば、顔画像の角膜反射像から計算した角膜曲率中心と瞳孔中心を使って視線を計算し、計算した視線を用いて、眼球モデル座標系における眼球中心の3次元座標を推定する。
そして、カメラ座標系における顔モデル座標系の位置姿勢(回転並進ベクトル)を求める。
例えば、現在の顔画像に顔モデルをフィッティングさせることで、カメラ座標系に対する顔モデル座標系の現在の回転行列Rと並進ベクトルtを求める。
そして、求めた回転並進ベクトルにより、顔モデル座標系における眼球中心の3次元座標をカメラ座標系における眼球中心の3次元座標に変換する。
具体的には、カメラ座標系における現在の眼球中心の3次元座標eを、以下の式に従って計算する。
Figure 0007255436000003

(2)
見かけの瞳孔中心計算部32は、以下に説明するように、顔画像上の目の瞳孔中心位置から、カメラ座標系における見かけの瞳孔中心の3次元座標を推定する。
まず、顔画像から、瞳孔中心を検出し、図6に示す画像座標系における瞳孔中心座標を求める。
具体的には、従来既知の技術を用いて、瞳孔中心の検出を行い、画像座標系における瞳孔中心座標
Figure 0007255436000004

を求める。
そして、瞳孔中心の画像座標からカメラ座標系における3次元座標を推定する。
具体的には、カメラ座標系における瞳孔中心のZ座標を何等かの測距手段で求め、dとする。画像中心の座標を(x,y)とする。カメラ座標系における瞳孔中心の3次元座標
Figure 0007255436000005

は、ピクセル単位で表される焦点距離をfとすると以下になる。
Figure 0007255436000006

(3)
眼球モデル記憶部34には、2つの球からなる眼球モデルおよびそのパラメータが記憶されている。具体的には、眼球モデル記憶部34には、角膜曲率半径rの初期値又は推定値、眼球中心Eと角膜曲率中心Aとの距離uの初期値又は推定値、角膜曲率中心Aと真の瞳孔中心Bとの距離sの初期値又は推定値、及び大気の屈折率nと角膜の屈折率nの比(n/n)が記憶されている。なお、角膜曲率中心Aと真の瞳孔中心Bとの距離s、及び大気の屈折率nと角膜の屈折率nの比(n/n)は、構造パラメータ推定部28でカメラ座標系における視線ベクトルを計算する際に用いられるパラメータである。
眼球位置姿勢推定部36は、以下に説明するように、カメラ座標系における眼球中心の3次元座標と、カメラ座標系における見かけの瞳孔中心の3次元座標とに基づいて、カメラ座標系において、眼球中心の3次元位置から瞳孔中心の3次元位置へ向かう3次元の光軸ベクトルを計算する。
まず、画像撮像部12の撮像方向と照射部13の照射方向とが同軸とみなされるように配置されていることから、図7に示す角CEDを用いて、角度補正量を推定する。
具体的には、眼球中心Eから見かけの瞳孔中心までのベクトルを
Figure 0007255436000007
とすると、以下の式で表される。
Figure 0007255436000008

(4)
カメラ座標系における見かけの瞳孔中心の3次元座標と前記カメラ座標系における眼球中心の3次元座標とを結んだ線分と、カメラ座標系における眼球中心の3次元座標と前記撮像部の3次元座標とを結んだ線分とのなす角CEDについて
Figure 0007255436000009

とすると、角CEDの角度ωを、以下の式に従って計算する。
Figure 0007255436000010

(5)
そして、角CEDの角度と、角膜反射法で求める視線ベクトルgcrと眼球モデルフィッティング法で求める視線ベクトルgebとの角度差ρとの関係を予め求めておき、当該関係を用いて、角CEDの角度に対応する角度差ρを、補正量ρとして求める。
そして、カメラ座標系における眼球中心の3次元座標eと、眼球中心Eから見かけの瞳孔中心までのベクトルgebと、角度補正量ρとに基づいて、カメラ座標系において、眼球中心の3次元座標から瞳孔中心の3次元座標へ向かう3次元の光軸ベクトルgを、以下の式で計算する。
Figure 0007255436000011

(6)
このように、補正量と眼球中心の3次元座標から光軸ベクトルが定まり、眼球中心の3次元座標と合わせれば、眼球モデルの位置姿勢が推定できる。
カメラ座標系角膜反射像計算部40は、以下に説明するように、カメラ座標系における眼球中心の3次元座標と、光軸ベクトルと、予め定められた3次元眼球モデルとに基づいて、カメラ座標系における角膜反射像の3次元座標を求める。
まず、カメラ座標系における眼球中心の3次元座標eと、光軸ベクトルgと、眼球モデル記憶部34に記憶されている眼球中心Eと角膜曲率中心Aとの距離uとを用いて、以下の式に従って、カメラ座標系における角膜曲率中心Aの3次元座標aを推定する。
Figure 0007255436000012

(7)
そして、ベクトルCA上で、角膜曲率中心Aからの距離がrとなる点を求める。
具体的には、角膜反射像Pの3次元ベクトルを
Figure 0007255436000013

とすると、点Pは直線CA上で点Aから長さrだけC側の点になるので、pは以下の式(8)で求められる。
Figure 0007255436000014

(8)
角膜反射像画像座標計算部42は、以下の説明するように、カメラ座標系における角膜反射像の3次元座標から、顔画像上の角膜反射像の画像座標を推定する。
まず、カメラパラメータを用いて、カメラ座標系における角膜反射像の3次元座標を、2次元投影する。
具体的には、ピクセル単位で表される焦点距離をf、画像中心の座標を(x,y)とすると、角膜反射像の画像座標(P,P)は以下になる。
Figure 0007255436000015

(9)
Figure 0007255436000016

(10)
以上の各部の処理により、瞳孔中心の観測値から角膜反射像の画像座標を推定することができる。
瞳孔推定部24は、図8に示すように、カメラ座標系眼球中心座標計算部50と、カメラ座標系角膜反射像計算部52と、眼球モデル記憶部54と、眼球位置姿勢推定部56と、見かけの瞳孔中心計算部60と、瞳孔中心画像座標計算部62とを備えている。
カメラ座標系眼球中心座標計算部50は、カメラ座標系眼球中心座標計算部30と同様に、顔画像から、カメラ座標系における眼球中心の3次元座標を推定する。
カメラ座標系角膜反射像計算部52は、顔画像上の目の角膜反射像の位置から、カメラ座標系における角膜反射像の3次元座標を推定する。
まず、従来既知の技術を用いて、顔画像から角膜反射像を検出し、画像座標における角膜反射像の座標
Figure 0007255436000017

を求める。
そして、角膜反射像の画像座標からカメラ座標系における角膜反射像の3次元座標を推定する。
具体的には、カメラ座標系における角膜反射像座標のZ座標を何等かの測距手段で求め、pとする。画像中心の座標を(x,y)とする。カメラ座標系における角膜反射像の3次元座標
Figure 0007255436000018

はピクセル単位で表される焦点距離をfとすると以下になる。
Figure 0007255436000019

(11)
眼球モデル記憶部54には、眼球モデル記憶部34と同様に、角膜曲率半径r、眼球中心Eと角膜曲率中心Aとの距離u、角膜曲率中心Aと真の瞳孔中心Bとの距離s、及び大気の屈折率nと角膜の屈折率nの比(n/n)が記憶されている。なお、角膜曲率中心Aと真の瞳孔中心Bとの距離s、及び大気の屈折率nと角膜の屈折率nの比(n/n)は、構造パラメータ推定部28でカメラ座標系における視線ベクトルを計算する際に用いられるパラメータである。
眼球位置姿勢推定部56は、以下に説明するように、カメラ座標系における眼球中心の3次元座標と、カメラ座標系における角膜反射像の3次元座標とに基づいて、カメラ座標系において、眼球中心の3次元位置から角膜曲率中心の3次元位置へ向かう3次元の光軸ベクトルを計算する。
まず、画像撮像部12の撮像方向と照射部13の照射方向とが同軸とみなされるように配置されていること、カメラ座標系における角膜反射像の3次元座標p、及び角膜曲率半径rを用いて、カメラ座標系における角膜曲率中心Aの3次元座標を推定する。
具体的には、角膜曲率中心Aの3次元ベクトルをaとすると、aは直線CPを長さrだけP側に伸ばしたものなので、以下の式で表される。
Figure 0007255436000020

(12)
そして、カメラ座標系における角膜曲率中心Aの3次元座標と、カメラ座標系における眼球中心の3次元座標とから光軸ベクトルを求める。
具体的には、光軸ベクトルgは、カメラ座標系における眼球中心Eからカメラ座標系における角膜曲率中心Aに向かうベクトルなので、以下の式に従って計算される。
Figure 0007255436000021

(13)
以上のように、光軸ベクトルが定まり、眼球中心座標の推定値と合わせれば、眼球モデルの位置姿勢が推定できる。
見かけの瞳孔中心計算部60は、以下に説明するように、カメラ座標系における眼球中心の3次元座標と、光軸ベクトルと、予め定められた3次元眼球モデルとに基づいて、カメラ座標系における見かけの瞳孔中心の3次元座標を求める。
まず、光軸ベクトルgと、カメラ座標系における眼球中心の3次元座標eとに基づいて、カメラ座標系における眼球中心の3次元座標Eとカメラ座標系の角膜曲率中心の3次元座標Aとを結んだ線分EAと、カメラ座標系における眼球中心の3次元座標Eと画像撮像部12の3次元座標Cとを結んだ線分ECとのなす角CEAを算出する。
具体的には、角CEDの角度をωとし、角DEAの角度をρとし、角CEAの角度を
Figure 0007255436000022

とすると、以下の式で表される。
Figure 0007255436000023

(14)
従って、内積計算により、
Figure 0007255436000024

は以下の式で求められる。
Figure 0007255436000025

(15)
そして、算出された角CEAの角度に対応して予め定められた角度補正量を取得する。
具体的には、角CEAの角度と、角膜反射法で求める視線ベクトルgcrと眼球モデルフィッティング法で求める視線ベクトルgebとの角度差ρとの関係を予め求めておき、当該関係を用いて、角CEAの角度に対応する角度差ρを、補正量ρとして求める。
そして、カメラ座標系における眼球中心の3次元座標eと、光軸ベクトルgと、角度補正量ρと、に基づいて、カメラ座標系における眼球中心の3次元座標Eとカメラ座標系における角膜曲率中心の3次元座標Aとを結んだベクトルgebを以下の式で計算する。
Figure 0007255436000026

(16)
そして、カメラ座標系における眼球中心の3次元座標Eとカメラ座標系における角膜曲率中心の3次元座標Aとを結んだベクトルgeb上で、角膜曲率中心Aからの距離がrとなる点を求める。
具体的には、EとDの距離をxとおく。三角形EDAにおいて、AE=u、AD=r、角DEAの角度=ρなので、余弦定理により以下の式(17)が成り立つ。xの二次方程式である式(17)をxについて解き、大きい方の解をEとDの距離xとする。
Figure 0007255436000027

(17)
また、瞳孔中心Dの3次元ベクトルを
Figure 0007255436000028

とすると、Dはベクトルgeb上でEから距離xにある点なので、dは以下の式(18)で求められる。
Figure 0007255436000029

(18)
瞳孔中心画像座標計算部62は、カメラ座標系における見かけの瞳孔中心の3次元座標から、顔画像上の瞳孔中心の画像座標を推定する。
具体的には、カメラパラメータを用いて、カメラ座標系における見かけの瞳孔中心の3次元座標を、2次元投影する。
例えば、fをピクセル単位で表される焦点距離、画像中心座標を(x,y)とすると、瞳孔中心の画像座標(D,D)は以下になる。
Figure 0007255436000030

(19)
Figure 0007255436000031

(20)
以上説明した各部の処理により、角膜反射像の観測値から瞳孔中心の画像座標を推定することができる。
構造パラメータ推定部28は、角膜反射像推定部22によって推定された角膜反射像の画像座標と、瞳孔推定部24によって推定された瞳孔中心の画像座標とに基づいて、三次元眼球モデルの構造パラメータを推定し、眼球モデル記憶部34,54に記憶されている三次元眼球モデルの構造パラメータを更新すると共に、推定された三次元眼球モデルの構造パラメータを用いて視線ベクトルを求めて、出力部16により出力する。
構造パラメータ推定部28は、図9に示すように、事前予測部70と、状態推定部72とを含んで構成されている。
具体的には、事前予測部70と、状態推定部72とにより、カメラ座標系角膜反射像計算部52で計算された角膜反射像の画像座標観測値と、角膜反射像推定部22によって推定された角膜反射像の画像座標推定値と、見かけの瞳孔中心計算部32で計算された見かけの瞳孔中心の画像座標観測値と、瞳孔推定部24によって推定された見かけの瞳孔中心の画像座標推定値と、眼球位置姿勢推定部36によって計算された光軸ベクトルgと、以下の式(21)の光軸ベクトルgを求める数式とに基づいて、カルマンフィルタを用いて、三次元眼球モデルの構造パラメータを推定する。
Figure 0007255436000032

(21)
ただし、
Figure 0007255436000033
ここで、カルマンフィルタにより推定する原理について説明する。
時間変化しない量である、角膜曲率半径r、眼球中心と角膜曲率中心との距離u、及び角膜曲率中心と瞳孔中心との距離sを状態変数とし、
Figure 0007255436000034

を観測変数としたときに、以下の方程式が構成でき、カルマンフィルタを用いて解くことができる。
Figure 0007255436000035

(22)
以下に、状態方程式と観測方程式について詳細に説明する。
まず、状態方程式の導出について説明する。角膜曲率半径r、眼球中心と角膜曲率中心との距離u、及び角膜曲率中心と瞳孔中心との距離sの各々の状態方程式は、以下で表される。
Figure 0007255436000036
ただし、
Figure 0007255436000037

はシステム雑音である。
状態ベクトルを
Figure 0007255436000038

とすると状態方程式は以下になる。
Figure 0007255436000039
次に、観測方程式の導出について説明する。
上記式(19)に式(18)から得られるd,dを代入すると以下の式が得られる。
Figure 0007255436000040

(23)
同様に以下の式が得られる。
Figure 0007255436000041

(24)
式(23)と(24)のxは、式(17)をxで解いた大きい方の解なので、以下の式が得られる。
Figure 0007255436000042

(25)
,e,eは、式(2)で求められる。
Figure 0007255436000043

は、式(16)に、式(13)と式(12)を代入することで得られる。
以上により、式(23)と式(24)の右辺をP,Pを含まないように立式でき、式(25)よりパラメータはuとrのみを含むため、
Figure 0007255436000044

(26)
Figure 0007255436000045

(27)
上記式(9)に、式(8)から得られるp,pを代入すると、以下の式が得られる。
Figure 0007255436000046


(28)
式(27)に、式(7)から得られるa,aを代入すると、以下の式が得られる。
Figure 0007255436000047

(29)
同様に以下の式が得られる。
Figure 0007255436000048

(30)
ここで、e,e,eは式(2)で求められる。g=(g,g,g)は、式(6)に式(4)と式(5)を代入することで得られる。
以上により、式(29)と式(30)の右辺をD,Dを含まないように立式でき、パラメータはuのみを含むため、以下の式が得られる。
Figure 0007255436000049

(31)
Figure 0007255436000050

(32)
ここで、光軸ベクトルgは2通りの方法で求めることができる。
ひとつは、式(6)に式(4)と式(5)を代入することで得られるもので第1の方法とする。もう一つは、式(21)から求めるもので第2の方法とする。
第1の方法の式にはパラメータは含まれていないが、第2の方法の式にはパラメータr,sが含まれている。
従って、第1の方法の式で得られる光軸ベクトルgを観測値とみなすことで以下の式が得られる。
Figure 0007255436000051

Figure 0007255436000052

Figure 0007255436000053
観測ベクトルを
Figure 0007255436000054


とすると、式(26)、(27)、(31)、(32)、(33)、(34)、(35)は以下のようにまとめられる。
Figure 0007255436000055
以上より、カルマンフィルタは以下のようになる。まず、状態方程式は以下の式で示される。
Figure 0007255436000056

(36)
ただし、
Figure 0007255436000057

は、システム雑音ベクトルである。
観測方程式は、以下の式で示される。
Figure 0007255436000058

(37)
ただし、
Figure 0007255436000059

は、観測雑音ベクトルである。
予測ステップでは、以下の式に従って、次時刻の状態ベクトルの予測が行われる。
Figure 0007255436000060

(38)
ただし、
Figure 0007255436000061

は、誤差の共分散行列である。
また、更新ステップでは、以下の式に従って、状態ベクトルが更新される。
Figure 0007255436000062

(39)
ただし、
Figure 0007255436000063
以上説明した原理に従って、事前予測部70は、上記式(38)に従って、三次元眼球モデルの構造パラメータを含む状態ベクトルを予測する。
状態推定部72は、角膜反射像推定部22によって推定された顔画像上の角膜反射像の画像座標と、瞳孔推定部24によって推定された顔画像上の瞳孔中心の画像座標とを含む観測ベクトルと、事前予測部70によって予測された前記状態ベクトルと、状態ベクトルを用いて観測ベクトルを表す観測方程式とから、上記式(39)に従って、状態ベクトルを推定し、状態ベクトルに含まれる角膜曲率半径r、角膜曲率中心と瞳孔中心との距離s、及び角膜曲率中心と眼球中心との距離uを、眼球モデル記憶部34、54に格納する。
また、状態推定部72は、式(21)に従って光軸ベクトルgを求め、出力部16により出力する。
<視線計測装置の動作>
次に、視線計測装置10の動作について説明する。まず、照射部13により近赤外の光を被験者の目に照射しているときに、画像撮像部12で被験者の顔画像を連続的に撮像する。
そして、コンピュータ14において、図10に示す視線計測処理ルーチンを実行する。
まず、ステップS100において、画像撮像部12で撮像された顔画像を取得する。
そして、ステップS102において、顔画像から、角膜反射像の画像座標を推定する。
ステップS104では、顔画像から、瞳孔中心の画像座標を推定する。
ステップS106では、三次元眼球モデルの構造パラメータの初期値、又は前回のステップS108で推定された状態ベクトルを用いて、式(38)に従って、現時刻の三次元眼球モデルの構造パラメータを含む状態ベクトルを予測する。
ステップS108では、上記ステップS102で推定された角膜反射像の画像座標と、上記ステップS104で推定された瞳孔中心の画像座標とを含む観測ベクトルと、状態ベクトルを用いて観測ベクトルを表す観測方程式とから、式(39)に従って、状態ベクトルを推定すると共に、状態ベクトルに含まれる三次元眼球モデルの構造パラメータを用いて、式(21)に従って、光軸ベクトルgを求めて、出力部16により出力して、上記ステップS100へ戻る。
上記ステップS102は、図11に示す角膜反射像推定処理ルーチンにより実現される。
まず、ステップS110において、現在の顔画像に顔モデルをフィッティングさせることで、カメラ座標系に対する顔モデル座標系の現在の回転行列Rと並進ベクトルtを求める。
そして、ステップS112において、求めた回転並進ベクトルにより、顔モデル座標系における眼球中心の3次元座標をカメラ座標系における眼球中心の3次元座標に変換する。
ステップS114では、顔画像から、瞳孔中心を検出し、画像座標系における瞳孔中心座標を求める。
ステップS116では、瞳孔中心の画像座標からカメラ座標系における3次元座標を推定する。
ステップS118では、画像撮像部12の撮像方向と照射部13の照射方向とが同軸とみなされるように配置されていること、及びカメラ座標系における見かけの瞳孔中心の3次元座標と前記カメラ座標系における眼球中心の3次元座標とを結んだ線分と、前記カメラ座標系における眼球中心の3次元座標と前記撮像部の3次元座標とを結んだ線分とのなす角CEDの角度から、角度補正量を推定する。
ステップS120では、角CEDの角度ωと、カメラ座標系における眼球中心の3次元座標eと、角度補正量とに基づいて、カメラ座標系において、眼球中心の3次元位置から瞳孔中心の3次元位置へ向かう3次元の光軸ベクトルgを計算する。
ステップS122では、カメラ座標系における眼球中心の3次元座標eと、光軸ベクトルgと、眼球モデル記憶部34に記憶されている眼球中心Eと角膜曲率中心Aとの距離uとを用いて、カメラ座標系における角膜曲率中心Aの3次元座標aを推定する。
そして、ステップS124では、ベクトルCA上で、角膜曲率中心Aからの距離がrとなる点を求め、角膜反射像Pの3次元ベクトルを推定する。
ステップS126では、カメラ座標系における角膜反射像の3次元座標から、顔画像上の角膜反射像の画像座標を推定する。
上記ステップS104は、図12に示す瞳孔中心推定処理ルーチンにより実現される。
まず、ステップS130では、現在の顔画像に顔モデルをフィッティングさせることで、カメラ座標系に対する顔モデル座標系の現在の回転行列Rと並進ベクトルtを求める。
そして、ステップS132において、求めた回転並進ベクトルにより、顔モデル座標系における眼球中心の3次元座標をカメラ座標系における眼球中心の3次元座標に変換する。
ステップS134では、顔画像から角膜反射像を検出し、画像座標における角膜反射像の座標を求める。
そして、ステップS136では、角膜反射像の画像座標からカメラ座標系における角膜反射像の3次元座標を推定する。
ステップS138では、画像撮像部12の撮像方向と照射部13の照射方向とが同軸とみなされるように配置されていること、カメラ座標系における角膜反射像の3次元座標p、及び角膜曲率半径rを用いて、カメラ座標系における角膜曲率中心Aの3次元座標を推定する。
そして、ステップS140において、カメラ座標系における角膜曲率中心Aの3次元座標と、カメラ座標系における眼球中心の3次元座標とから光軸ベクトルを求める。
ステップS142では、光軸ベクトルgと、カメラ座標系における眼球中心の3次元座標eとに基づいて、カメラ座標系における眼球中心の3次元座標Eとカメラ座標系の角膜曲率中心の3次元座標Aとを結んだ線分EAと、カメラ座標系における眼球中心の3次元座標Eと画像撮像部12の3次元座標Cとを結んだ線分ECとのなす角CEAを算出し、算出された角CEAの角度に対応して予め定められた角度補正量を取得する。
ステップS144では、カメラ座標系における眼球中心の3次元座標eと、光軸ベクトルgと、角度補正量ρと、に基づいて、カメラ座標系における眼球中心の3次元座標Eとカメラ座標系における角膜曲率中心の3次元座標Aとを結んだベクトルgebを計算する。
そして、ステップS146において、カメラ座標系における眼球中心の3次元座標Eとカメラ座標系における角膜曲率中心の3次元座標Aとを結んだベクトルgeb上で、角膜曲率中心Aからの距離がrとなる点を求め、カメラ座標系における見かけの瞳孔中心の3次元座標とする。
ステップS148では、カメラ座標系における見かけの瞳孔中心の3次元座標から、顔画像上の瞳孔中心の画像座標を推定する。
以上説明したように、本発明の実施の形態に係る視線計測装置によれば、眼球の構造パラメータを含む状態ベクトルを予測し、推定された顔画像上の角膜反射像の画像座標、及び推定された顔画像上の瞳孔中心の画像座標を含む観測ベクトルと、予測された状態ベクトルと、状態ベクトルを用いて観測ベクトルを表す観測方程式とから、状態ベクトルを推定することにより、簡易な構成で、視線計測のために、眼球の構造パラメータを精度良く求めることができる。
また、本発明の実施の形態に係る視線計測装置の構成により、角膜反射像と見かけの瞳孔中心に対する推定式(観測方程式)と観測値の対応関係が得られる。構造パラメータは観測方程式中で時間変化しない固定パラメータになるので、例えば非線形カルマンフィルタを適用することで、観測値と推定値の誤差が最小となるように構造パラメータを推定することが可能になる。
また、視線計測技術の角膜反射法において、そこで用いられる三次元眼球モデルの個人差を含む構造パラメータを、明示的なキャリブレーション手続きを行うことなく推定できるようになり、煩雑なキャリブレーション手続きなしで視線ベクトルの推定精度を向上させる。推定処理に繰り返し演算を用いないので高速に処理できる。推定値が固定値であることを利用できるので、誤った観測値による誤推定の影響を受けにくい。
10 視線計測装置
12 画像撮像部
13 照射部
14 コンピュータ
16 出力部
20 画像入力部
22 角膜反射像推定部
24 瞳孔推定部
28 構造パラメータ推定部
30 カメラ座標系眼球中心座標計算部
32 見かけの瞳孔中心計算部
34、54 眼球モデル記憶部
36、56 眼球位置姿勢推定部
40 カメラ座標系角膜反射像計算部
42 角膜反射像画像座標計算部
50 カメラ座標系眼球中心座標計算部
52 カメラ座標系角膜反射像計算部
60 見かけの瞳孔中心計算部
62 瞳孔中心画像座標計算部
70 事前予測部
72 状態推定部

Claims (8)

  1. 被観察者の顔を撮像する撮像部と、
    前記被観察者の目に対して光を照射する光照射部と、
    前記撮像部によって撮像された前記顔を表す顔画像上の目の瞳孔中心位置から、眼球の構造パラメータを用いて、前記顔画像上の角膜反射像の画像座標を推定する角膜反射像推定部と、
    前記顔画像上の目の角膜反射像の位置から、前記眼球の構造パラメータを用いて、前記顔画像上の瞳孔中心の画像座標を推定する瞳孔推定部と、
    前記眼球の構造パラメータを含む状態ベクトルを予測する事前予測部と、
    前記角膜反射像推定部によって推定された前記顔画像上の角膜反射像の画像座標、及び前記瞳孔推定部によって推定された前記顔画像上の瞳孔中心の画像座標を含む観測ベクトルと、前記事前予測部によって予測された前記状態ベクトルと、前記状態ベクトルを用いて前記観測ベクトルを表す観測方程式とから、前記状態ベクトルを推定する状態推定部と、
    を含む眼球構造推定装置。
  2. 前記観測ベクトルは、前記角膜反射像推定部によって前記顔画像上の角膜反射像の画像座標を推定する際に計算される視線ベクトルを更に含む請求項1記載の眼球構造推定装置。
  3. 前記眼球の構造パラメータは、眼球の角膜曲率半径、眼球の角膜曲率中心と瞳孔中心との距離、及び前記角膜曲率中心と眼球中心との距離を含む請求項1又は2記載の眼球構造推定装置。
  4. 前記撮像部と前記光照射部との位置関係、前記撮像部と前記目との位置関係、及び前記撮像部に関するパラメータが、前記撮像部の撮像方向と前記光照射部の光照射方向とが同軸であるとみなすための予め定められた制約条件を満たす
    請求項1~請求項3の何れか1項記載の眼球構造推定装置。
  5. 前記角膜反射像推定部は、
    前記撮像部によって撮像された前記顔を表す顔画像から、カメラ座標系における眼球中心の3次元座標を推定するカメラ座標系眼球中心座標計算部と、
    前記顔画像上の目の瞳孔中心位置から、カメラ座標系における見かけの瞳孔中心の3次元座標を推定する瞳孔中心計算部と、
    前記カメラ座標系における眼球中心の3次元座標と、前記カメラ座標系における見かけの瞳孔中心の3次元座標とに基づいて、前記カメラ座標系において、前記眼球中心の3次元位置から瞳孔中心の3次元位置へ向かう3次元の光軸ベクトルを計算する眼球位置姿勢推定部と、
    前記カメラ座標系における眼球中心の3次元座標と、前記光軸ベクトルと、予め定められた3次元眼球モデルとに基づいて、カメラ座標系における角膜反射像の3次元座標を求める角膜反射像計算部と、
    前記カメラ座標系における角膜反射像の3次元座標から、前記顔画像上の角膜反射像の画像座標を推定する画像座標計算部と、
    を含む請求項1~請求項4の何れか1項記載の眼球構造推定装置。
  6. 前記眼球位置姿勢推定部は、
    前記カメラ座標系における見かけの瞳孔中心の3次元座標と前記カメラ座標系における眼球中心の3次元座標とを結んだ線分と、前記カメラ座標系における眼球中心の3次元座標と前記撮像部の3次元座標とを結んだ線分とのなす角を算出し、
    前記なす角に対応して予め定められた角度補正量を取得し、
    前記カメラ座標系における眼球中心の3次元座標と前記カメラ座標系における見かけの瞳孔中心の3次元座標とを結んだベクトルと、前記取得した前記角度補正量と、前記算出した前記なす角と、前記カメラ座標系における眼球中心の3次元座標とに基づいて、前記カメラ座標系において、前記眼球中心の3次元位置から瞳孔中心の3次元位置へ向かう3次元の光軸ベクトルを計算する請求項5記載の眼球構造推定装置。
  7. 前記瞳孔推定部は、
    前記撮像部によって撮像された前記顔を表す顔画像から、カメラ座標系における眼球中心の3次元座標を推定するカメラ座標系眼球中心座標計算部と、
    前記顔画像上の目の角膜反射像の位置から、カメラ座標系における角膜反射像の3次元座標を推定する角膜反射像計算部と、
    前記カメラ座標系における眼球中心の3次元座標と、前記カメラ座標系における角膜反射像の3次元座標とに基づいて、前記カメラ座標系において、前記眼球中心の3次元位置から角膜曲率中心の3次元位置へ向かう3次元の光軸ベクトルを計算する眼球位置姿勢推定部と、
    前記カメラ座標系における眼球中心の3次元座標と、前記光軸ベクトルと、予め定められた3次元眼球モデルとに基づいて、カメラ座標系における見かけの瞳孔中心の3次元座標を求める瞳孔中心計算部と、
    前記カメラ座標系における見かけの瞳孔中心の3次元座標から、前記顔画像上の瞳孔中心の画像座標を推定する画像座標計算部と、
    を含む請求項1~請求項6の何れか1項記載の眼球構造推定装置。
  8. 前記瞳孔中心計算部は、
    前記光軸ベクトルと、前記カメラ座標系における眼球中心の3次元座標とに基づいて、前記カメラ座標系における眼球中心の3次元座標と前記カメラ座標系の角膜曲率中心の3次元座標とを結んだ線分と、前記カメラ座標系における眼球中心の3次元座標と前記撮像部の3次元座標とを結んだ線分とのなす角を算出し、
    前記算出された前記なす角に対応して予め定められた角度補正量を取得し、
    前記カメラ座標系における眼球中心の3次元座標と、前記光軸ベクトルと、前記角度補正量とに基づいて、前記カメラ座標系における眼球中心の3次元座標と前記カメラ座標系における見かけの瞳孔中心の3次元座標とを結んだベクトルを算出し、
    前記算出されたベクトルと、前記カメラ座標系における眼球中心の3次元座標と、予め定められた3次元眼球モデルとに基づいて、カメラ座標系における見かけの瞳孔中心の3次元座標を求める請求項7記載の眼球構造推定装置。
JP2019174079A 2019-09-25 2019-09-25 眼球構造推定装置 Active JP7255436B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019174079A JP7255436B2 (ja) 2019-09-25 2019-09-25 眼球構造推定装置
US16/817,697 US20210085174A1 (en) 2019-09-25 2020-03-13 Eyeball structure estimation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019174079A JP7255436B2 (ja) 2019-09-25 2019-09-25 眼球構造推定装置

Publications (2)

Publication Number Publication Date
JP2021049130A JP2021049130A (ja) 2021-04-01
JP7255436B2 true JP7255436B2 (ja) 2023-04-11

Family

ID=74880288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019174079A Active JP7255436B2 (ja) 2019-09-25 2019-09-25 眼球構造推定装置

Country Status (2)

Country Link
US (1) US20210085174A1 (ja)
JP (1) JP7255436B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115546876B (zh) * 2022-11-07 2023-12-19 广州图语信息科技有限公司 一种瞳孔追踪方法及装置
CN115840502B (zh) * 2022-11-23 2023-07-21 深圳市华弘智谷科技有限公司 三维视线追踪方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016106668A (ja) 2014-12-02 2016-06-20 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019000135A (ja) 2017-06-09 2019-01-10 株式会社豊田中央研究所 視線計測装置
WO2019116675A1 (ja) 2017-12-15 2019-06-20 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016106668A (ja) 2014-12-02 2016-06-20 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019000135A (ja) 2017-06-09 2019-01-10 株式会社豊田中央研究所 視線計測装置
WO2019116675A1 (ja) 2017-12-15 2019-06-20 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US20210085174A1 (en) 2021-03-25
JP2021049130A (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
CN109008944B (zh) 视线计测装置、rom及视线计测方法
JP6265348B2 (ja) 視線計測装置、視線計測方法および視線計測プログラム
EP2416113B1 (en) Position and orientation measurement apparatus and position and orientation measurement method
JP6014931B2 (ja) 視線計測方法
CN107357429B (zh) 用于确定视线的方法、设备和计算机可读存储介质
US10725539B2 (en) Wearable eye tracking system with slippage detection and correction
JP6840697B2 (ja) 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム
JP2016173313A (ja) 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム
JP7255436B2 (ja) 眼球構造推定装置
JP6479272B1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
US11181978B2 (en) System and method for gaze estimation
WO2014027229A1 (en) Method and apparatus for converting 2d images to 3d images
JP2021531601A (ja) ニューラルネットワーク訓練、視線検出方法及び装置並びに電子機器
CN114360043B (zh) 模型参数标定方法、视线追踪方法、装置、介质及设备
JP5515018B2 (ja) 環境認識装置
JP7283841B2 (ja) 視線計測装置
JP6785723B2 (ja) 視線計測装置
JP2018101212A (ja) 車載器および顔正面度算出方法
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP6906943B2 (ja) 車載器
CN112419399A (zh) 一种图像测距方法、装置、设备和存储介质
CN115862124A (zh) 视线估计方法、装置、可读存储介质及电子设备
JP2022011821A (ja) 情報処理装置、情報処理方法、移動ロボット
JP2018205205A (ja) ステレオマッチング装置とステレオマッチング方法及びステレオマッチングプログラム
JP6426215B2 (ja) 内視鏡装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230313

R150 Certificate of patent or registration of utility model

Ref document number: 7255436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150