JPWO2016098406A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JPWO2016098406A1
JPWO2016098406A1 JP2016564705A JP2016564705A JPWO2016098406A1 JP WO2016098406 A1 JPWO2016098406 A1 JP WO2016098406A1 JP 2016564705 A JP2016564705 A JP 2016564705A JP 2016564705 A JP2016564705 A JP 2016564705A JP WO2016098406 A1 JPWO2016098406 A1 JP WO2016098406A1
Authority
JP
Japan
Prior art keywords
optical axis
calibration
marker
user
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016564705A
Other languages
English (en)
Other versions
JP6601417B2 (ja
Inventor
野田 卓郎
卓郎 野田
山本 一幸
一幸 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016098406A1 publication Critical patent/JPWO2016098406A1/ja
Application granted granted Critical
Publication of JP6601417B2 publication Critical patent/JP6601417B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

【課題】ユーザがストレスを感じることなく、視線検出の精度を向上させるためのキャリブレーションを実行させることが可能な情報処理装置を提供する。【解決手段】アイウェア端末のキャリブレーション時に、アイウェア端末の表示部に表示される注視点マーカの表示位置を変化させるマーカ制御部と、アイウェア端末を装着するユーザの眼に光源から光が照射され、キャリブレーション点に注視点マーカが表示されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法により、ユーザの視線方向を表す光軸ベクトルを演算する演算処理部と、複数のキャリブレーション点について演算された光軸ベクトルのばらつきを評価する評価部と、を備える、情報処理装置が提供される。【選択図】図4

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
多様なコンテンツが表示される表示面に対するユーザの視線を検出し、検出された視線を各種の動作に利用する技術が提案されている。例えば、特許文献1には、ファインダーを覗き込むユーザの眼球に赤外帯域の光(赤外光)を照射し、その眼球からの反射光を検出器によって捉えることによりスルー画が表示される表示面に対するユーザの視線を検出するとともに、検出された視線を自動焦点調節(AF:Auto Focus)に利用する撮像装置が開示されている。
特開平5−333259号公報
近年、ヘッドマウントディスプレイやメガネ型端末等のウェアラブル端末の開発が急速に進んでいる。このようなユーザが装着してディスプレイを見るようなウェアラブル端末においてもユーザの視線を検出する技術は重要であり、検出された視線は、例えば、端末の操作情報として利用されたり、自動焦点調節の情報として用いられたりする。特に、ウェアラブル端末においては、ユーザがストレスを感じることなく、視線検出の精度を向上させるためのキャリブレーションが行われることが望ましい。
そこで、本開示では、ユーザがストレスを感じることなく、視線検出の精度を向上させるためのキャリブレーションを実行させることが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。
本開示によれば、アイウェア端末のキャリブレーション時に、アイウェア端末の表示部に表示される注視点マーカの表示位置を変化させるマーカ制御部と、アイウェア端末を装着するユーザの眼に光源から光が照射され、キャリブレーション点に注視点マーカが表示されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法により、ユーザの視線方向を表す光軸ベクトルを演算する演算処理部と、複数のキャリブレーション点について演算された光軸ベクトルのばらつきを評価する評価部と、を備える、情報処理装置が提供される。
また、本開示によれば、情報処理装置により、アイウェア端末のキャリブレーション時に、アイウェア端末の表示部に表示される注視点マーカの表示位置を変化させること、アイウェア端末を装着するユーザの眼に光源から光が照射され、キャリブレーション点に注視点マーカが表示されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法により、ユーザの視線方向を表す光軸ベクトルを演算すること、複数のキャリブレーション点について演算された光軸ベクトルのばらつきを評価すること、とを含む、情報処理方法が提供される。
さらに、本開示によれば、コンピュータを、アイウェア端末のキャリブレーション時に、アイウェア端末の表示部に表示される注視点マーカの表示位置を変化させるマーカ制御部と、アイウェア端末を装着するユーザの眼に光源から光が照射され、キャリブレーション点に注視点マーカが表示されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法により、ユーザの視線方向を表す光軸ベクトルを演算する演算処理部と、複数のキャリブレーション点について演算された光軸ベクトルのばらつきを評価する評価部と、を備える、情報処理装置として機能させるプログラムが提供される。
以上説明したように本開示によれば、ユーザがストレスを感じることなく、視線検出の精度を向上させるためのキャリブレーションを実行させることができる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
眼球の構造を示す説明図である。 本開示の一実施形態に係るアイウェア端末の、ユーザの眼と対向する側の構成を示す説明図である。 同実施形態に係るアイウェア端末が装着されたときの、ユーザの眼球とアイウェア端末との位置関係を示す概略側面図である。 同実施形態に係るアイウェア端末及び情報処理装置の機能構成を示す機能ブロック図である。 本実施形態に係る情報処理装置によるアイウェア端末のキャリブレーション処理を示すフローチャートである。 移動して表示される注視点マーカの一表示例を示す説明図である。 瞳孔角膜反射法を用いた光軸ベクトルの算出処理について説明するための説明図である。 マーカベクトルと光軸ベクトルとの関係を示す説明図である。 視線データを取得するキャリブレーション点の一例を示す説明図である。 視線データを取得するキャリブレーション点の他の例を示す説明図である。 光軸のばらつきの評価結果の一例を示すグラフである。 マーカベクトル及び光軸ベクトルの座標を示す説明図である。 キャリブレーション点の位置を変更を説明するための説明図である。 光源から光が照射されたときに眼に現れる輝点の例を示す説明図である。 同実施形態に係る情報処理装置のハードウェア構成を示すハードウェア構成図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概要
2.アイウェア端末のハードウェア構成
3.機能構成
4.キャリブレーション処理
(1)注視点マーカ表示(S100)
(2)視線データ取得(S110〜S140)
(3)評価(S150〜S180)
5.検出精度向上への対応
5.1.輝点のペアリング
5.2.注視点マーカ表示位置の動的変更
6.ハードウェア構成
<1.概要>
まず、図1を参照して、本開示の一実施形態に係る情報処理装置の概要について説明する。なお、図1は、眼球の構造を示す説明図である。
本実施形態に係る情報処理装置は、ディスプレイに対するユーザの視線を検出する際に、視線検出精度を向上させるために実行されるキャリブレーションを行う装置である。本実施形態では、瞳孔角膜反射法を用いてユーザの視線を検出する。瞳孔角膜反射法は、ユーザの眼球に対して光源から光を照射し、その光の角膜表面での反射光と瞳孔の位置とを検出して視線方向を推定する手法である。
ここで、ユーザの視線は、図1に示すように、眼球10の水晶体12の中央後面にある節点12aと中心窩16aとを結ぶ視軸A上にある。一方、上述の瞳孔角膜反射法で推定される視線方向は、瞳孔17の中心を通る角膜14の法線上の光軸Aにある。視軸Aと光軸Aとにはずれがあり、個人差にもよるが、一般には4〜8°程度傾向いている。このずれが大きくなると視線検出精度が低下するため、キャリブレーションを行い、ずれを補正する。
キャリブレーションは、以下の手順で行われる。
(手順1)視野内のある点(以下、「注視点」ともいう。)を見たときの光軸を推定
(手順2)角膜曲率中心から注視点への注視点ベクトルと推定された光軸のベクトルとの差分を測定
(手順3)(手順2)で測定した差分に基づき、任意の点を見たときの光軸より、そのときの視軸を推定
なお、眼球10は筋肉の引っ張りにより回転するため、見る方向によってロール回転が加わる。このため、キャリブレーションのパラメータは、眼球10の向きによって異なる。そこで、通常、視野内の複数(例えば、5点〜9点)の注視点においてパラメータは取得される。
このようなキャリブレーションにおいては、瞳孔表面での反射光の検出や光軸の推定に誤差がある。この誤差のばらつきを抑えることで、視線検出の精度を高めることが可能になる。そこで、本実施形態に係る情報処理装置では、誤差のばらつきを抑えるようにキャリブレーションを行う。この際、ユーザがストレスを感じることなく、キャリブレーションが実行されるように各種処理が行われる。以下、本実施形態に係る情報処理装置の構成とその機能について、詳細に説明する。
<2.アイウェア端末のハードウェア構成>
本実施形態に係る情報処理装置の説明に先立ち、図2及び図3に基づいて、本実施形態に係る情報処理装置によるキャリブレーションが行われるアイウェア端末100のハードウェア構成を説明する。なお、図2は、アイウェア端末100の、ユーザの眼と対向する側の構成を示す説明図である。図3は、アイウェア端末100が装着されたときの、ユーザの眼球10とアイウェア端末100との位置関係を示す概略側面図である。
アイウェア端末100は、ユーザが頭部に装着し、眼と表示部とを対向させた状態で使用される装置である。アイウェア端末100は、例えば、ヘッドマウントディスプレイやメガネ型端末等である。本実施形態に係るアイウェア端末100の、ユーザの眼と対向する側の面には、図2に示すように、右眼及び左眼に対応する位置に、それぞれ表示部102R、102Lが設けられている。本実施形態に係る表示部102R、102Lは、略長方形に形成されている。なお、筐体101には、表示部102R、102Lの間に、ユーザの鼻が位置する凹部101aが形成されていてもよい。
表示部102Rの周囲には、4つの光源103Ra、103Rb、103Rc、103Rdが、表示部102Rの4つの辺の略中央にそれぞれ設けられている。同様に、表示部102Lの周囲には、4つの光源103La、103Lb、103Lc、103Ldが、表示部102Lの4つの辺の略中央にそれぞれ設けられている。これらの光源103Ra〜103Rd、103La〜103Ldは、赤外光を発する光源からなる。各光源103Ra〜103Rd、103La〜103Ldは、これらが設けられている表示部102R、102Lに対向しているユーザの眼球10に対して、光を照射する。
また、表示部102R、102Lの周囲には、それぞれ、眼球10を撮影する撮像部104R、104Lが設けられている。各撮像部104R、104Lは、例えば、図2に示すように、各表示部102R、102Lの下部(各表示部102R、102Lの下部に設けられた光源103Rc、103Lcよりも下部側)に設けられる。撮像部104R、104Lは、図3に示すように、少なくとも撮影する眼球10の瞳孔17が撮影範囲に含まれるように配置される。例えば、撮像部104R、104Lは、所定の仰角θを有するように配置される。仰角θは、例えば約30°としてもよい。
なお、アイウェア端末100は、ユーザに装着されたとき、表示部102R、102Lがユーザの眼球10から所定の距離だけ離れるように構成される。これにより、アイウェア端末100を装着したユーザは、不快なく、表示部102R、102Lの表示領域を視野内に収めることができる。このとき、ユーザが眼鏡Gを装着している場合にも、その上から重ねてアイウェア端末100を装着可能なように、表示部102R、102Lとユーザの眼球10との距離を決定してもよい。撮像部104R、104Lは、この状態で、ユーザの眼球10の瞳孔17が撮影範囲に含まれるように配置される。
<3.機能構成>
次に、図4に基づいて、上述したアイウェア端末100と、当該アイウェア端末100のキャリブレーションを行う情報処理装置200との機能構成を説明する。なお、図4は、アイウェア端末100及び情報処理装置200の機能構成を示す機能ブロック図である。
[3.1.アイウェア端末]
アイウェア端末100は、図4に示すように、光源110と、撮像部120と、表示部130と、制御部140と、送受信部150とを備える。
光源110は、アイウェア端末100を装着したユーザの眼球10に対して光を照射する。光源110は、例えば赤外光を出射する光源であって、図2の光源103Ra〜103Rd、103La〜103Ldに相当する。光源110は、制御部140の指示に基づき、光を出射する。
撮像部120は、アイウェア端末100を装着したユーザの眼球10を撮影する。撮像部120は、図2の撮像部104R、104Lに対応する。撮像部120は、制御部140の指示に基づき撮影を行い、撮影した撮像画像を制御部140に出力する。
表示部130は、情報を表示する出力部である。表示部130は、図2の表示部102R、102Lに相当する。表示部130は、例えば液晶ディスプレイや有機ELディスプレイ、あるいは、投影装置により情報が表示されるレンズであってもよい。表示部130には、制御部140の指示により、情報が表示される。
制御部140は、アイウェア端末100の機能全般を制御する。制御部140は、例えば光源110の点灯制御を行ったり、撮像部120の撮影制御を行ったり、表示部130に情報を表示させたりする。また、制御部140は、送受信部150を介して、情報処理装置200との情報の送受信制御を行う。
送受信部150は、外部機器と情報の送受信を行うインタフェースである。本実施形態では、アイウェア端末100は、情報処理装置200と情報の送受信を行うことで、キャリブレーションが行われる。この際、アイウェア端末100からは、撮像部120により撮影された撮像画像が送受信部150を介して情報処理装置200へ送信される。また、情報処理装置200から送信される、キャリブレーション時の光源110の点灯制御情報や、撮像部120に撮影を行わせる撮影制御情報、表示部130に表示させる表示情報等は、送受信部150を介して受信される。
[3.2.情報処理装置]
次に、情報処理装置200は、図4に示すように、送受信部210と、マーカ制御部220と、演算処理部230と、記憶部240と、評価部250とを備える。
送受信部210は、外部機器と情報の送受信を行うインタフェースである。本実施形態において、送受信部210は、アイウェア端末100と、キャリブレーションを実行させるための情報の送受信を行う。この際、送受信部210は、キャリブレーション時の光源110の点灯制御情報や、撮像部120に撮影を行わせる撮影制御情報、表示部130に表示させる表示情報等を、アイウェア端末100へ送信する。また、送受信部210は、アイウェア端末100から、撮像部120により撮影された撮像画像等を受信する。
マーカ制御部220は、キャリブレーション時にアイウェア端末100の表示部130に表示される注視点マーカの表示制御を行う。注視点マーカは、ユーザの光軸と視軸とのずれを測定するために表示領域に表示されるオブジェクトである。表示された注視点マーカにユーザの視線を向けさせることで、ユーザの瞳孔中心から注視点マーカへのベクトル(以下、「マーカベクトル」ともいう。)を得ることができ、また、そのときのユーザの光軸も推定される。
マーカ制御部220は、表示領域内の複数の位置においてユーザの視線データが取得されるように、注視点マーカを所定の位置(以下、「キャリブレーション点」ともいう。)に順次表示させる。マーカ制御部220は、注視点マーカが表示されているキャリブレーション点において所定数の視線データが取得されると、当該注視点マーカを次のキャリブレーション点に移動させるという処理を繰り返し、すべてのキャリブレーション点においてユーザの視線データを取得させる。
このとき、マーカ制御部220は、注視点マーカを表示させた状態で、各キャリブレーション点間で注視点マーカを移動させる。これにより、ユーザは注視点マーカを追うように視線を移動させるので、断続的に注視点マーカを表示させる場合と比較して、キャリブレーション点に表示された注視点マーカを探す時間も不要となり、注視点マーカに向けられる視線の動きも安定させることができる。
また、マーカ制御部220は、キャリブレーション点間を移動する注視点マーカの移動速度を制御してもよい。注視点マーカを一定の速度で移動させると、注視点マーカが移動先のキャリブレーション点に表示されたときの視線が定まりにくいという傾向がある。そこで、マーカ制御部220は、キャリブレーション点間を移動する注視点マーカの移動速度を、移動先のキャリブレーション点に近づくほど遅くするように制御してもよい。これにより、注視点マーカは、移動開始直後は早く移動するが、移動先のキャリブレーション点に近づくにつれて動きが遅くなる。ユーザの視線は注視点マーカの移動速度に伴って動くので、注視点マーカが移動先のキャリブレーション点に近づくとユーザの視線の動きも緩やかになり、注視点マーカがキャリブレーション点に表示されたときに視線を定めやすくすることができる。
演算処理部230は、各キャリブレーション点に注視点マーカを表示させたときの、ユーザの光軸及びマーカベクトルをそれぞれ演算する。演算処理部230は、アイウェア端末100から、ユーザの眼球に対して光源から光が照射された状態で、注視点マーカを注視するユーザの眼を撮影した撮影画像を取得し、ユーザの光軸及びマーカベクトルを演算する。演算された光軸及びマーカベクトルは、キャリブレーション点毎に記憶部240に記憶される。
記憶部240は、アイウェア端末100のキャリブレーション時に必要な各種情報を記憶する。記憶部240は、例えば、注視点マーカを表示させるキャリブレーション点の位置や注視点マーカをどのように移動させるかを規定した移動情報、各キャリブレーション点において取得する視線データの数、キャリブレーションの終了判定に用いる閾値等の設定情報が記憶される。また、記憶部240は、演算処理部230により演算された視線データが記憶される。
評価部250は、アイウェア端末100のキャリブレーションの終了判定を行う。評価部250は、各キャリブレーション点において推定されたユーザの光軸のばらつきが許容範囲内であるか否かを判定することで、正しくキャリブレーションできたか否かを判定する。この判定処理の詳細については後述する。評価部250の判定結果より、ユーザの光軸のばらつきが所定範囲内に収まっていないと判定された場合には、キャリブレーションの条件を変更して、再度キャリブレーションが実行される。
以上、アイウェア端末100及び情報処理装置200の機能構成について説明した。なお、図4では、キャリブレーション処理を行う情報処理装置200はアイウェア端末100とは別体として示したが、本開示はかかる例に限定されない。例えば、図3に示した情報処理装置200の機能の一部または全部をアイウェア端末100に搭載させてもよい。
<4.キャリブレーション処理>
次に、図5〜図14に基づいて、本実施形態に係る情報処理装置200によるアイウェア端末100のキャリブレーション処理について説明する。なお、図5は、本実施形態に係る情報処理装置200によるアイウェア端末100のキャリブレーション処理を示すフローチャートである。図6は、移動して表示される注視点マーカの一表示例を示す説明図である。図7は、瞳孔角膜反射法を用いた光軸ベクトルの算出処理について説明するための説明図である。図8は、マーカベクトルと光軸ベクトルとの関係を示す説明図である。図9は、視線データを取得するキャリブレーション点の一例を示す説明図である。図10は、視線データを取得するキャリブレーション点の他の例を示す説明図である。図11は、光軸のばらつきの評価結果の一例を示すグラフである。図12は、マーカベクトル及び光軸ベクトルの座標を示す説明図である。図13は、キャリブレーション点の位置を変更を説明するための説明図である。図14は、光源から光が照射されたときに眼に現れる輝点の例を示す説明図である。
(1)注視点マーカ表示(S100)
本実施形態に係る情報処理装置200によるアイウェア端末100のキャリブレーション処理は、表示部130に注視点マーカを表示し、ユーザの視線を注視点マーカに向けさせることから開始する(S100)。注視点マーカの表示制御は、情報処理装置200のマーカ制御部220の指示を受けて、制御部140により行われる。キャリブレーションでは、表示部130の表示領域内の複数位置においてユーザの視線データを取得する。視線データを取得する位置であるキャリブレーション点に注視点マーカを表示させることで、ユーザに意図的に視線を注視点マーカに向けさせ、視線データを取得することが可能となる。
注視点マーカは、表示部130の表示領域300内に予め設定された複数のキャリブレーション点に順に表示される。注視点マーカMは、例えば図6に示すように、まず、表示領域300中央のキャリブレーション点CP1に表示される。注視点マーカMがキャリブレーション点CP1に表示されると、ユーザは視線を注視点マーカMに向ける。注視点マーカMを表示させた状態とすることでユーザの視線をキャリブレーション点CP1に固定することができ、この状態で視線データが取得される。
キャリブレーション点CP1での視線データが取得されると、注視点マーカMは、表示されたまま次の視線データの取得位置である表示領域300左上のキャリブレーション点CP2に移動される。そして、キャリブレーション点CP2での視線データが取得される。その後、表示領域300右上のキャリブレーション点CP3、表示領域300左下のキャリブレーション点CP4、表示領域300右下のキャリブレーション点CP5にて、視線データの取得と移動とが繰り返し行われる。
ステップS100では、最初のキャリブレーション点に注視点マーカMを表示させ、キャリブレーション処理を開始させる。
(2)視線データ取得(S110〜S140)
ステップS100にて最初のキャリブレーション点に注視点マーカMが表示されると、そのキャリブレーション点におけるユーザの視線データが取得される(S110)。視線データは、推定されたユーザの視線方向を表す光軸ベクトルと、ユーザの瞳孔中心から注視点マーカへのマーカベクトルとを含む。
(光軸ベクトルの演算)
光軸ベクトルは、例えば瞳孔角膜反射法を用いて推定される。ここで、図7に基づいて、瞳孔角膜反射法を用いた光軸の推定処理について説明する。瞳孔角膜反射法では、表示部の表示面23を観察するユーザの眼球10に対して光源21から光を照射し、撮像部22により光が照射された眼球10を撮影する。そして、撮像部22により撮影された撮影画像30に基づき、光軸が推定される。ここでは説明を簡単にするため、1つの光源21により眼球10を照射した場合を説明する。
図7に示すように、ユーザは、表示面23に表示されている注視点マーカMを注視しているとする。このとき、光源21により眼球10に対して光を照射し、撮像部22により眼球10を撮影する。取得された眼球10の撮影画像30には、図7に示すように、ユーザの眼球10の角膜14、虹彩13及び瞳孔17が撮影されている。また、撮影画像30では、光源21から眼球10に照射された照射光の輝点であるプルキニエ像(Purkinje Image)Pが撮影されている。
撮影画像30が取得されると、光軸の算出処理が行われる。光軸の算出処理は、演算処理部230により行われる。このため、まず、撮影画像30から瞳孔中心S及びプルキニエ像Pが検出される。これらの検出処理は、公知の画像認識技術により行うことができる。
例えば、瞳孔17の像の検出処理においては、撮影画像30に対する各種の画像処理(例えば歪みや黒レベル、ホワイトバランス等の調整処理)、撮影画像30内の輝度分布を取得する処理等が行われる。また、取得された輝度分布に基づいて瞳孔17の像の輪郭(エッジ)を検出する処理や、検出された瞳孔17の像の輪郭を円又は楕円等の図形で近似する処理等が行われてもよい。検出された瞳孔17の像より、瞳孔中心Sを求めることができる。
また、プルキニエ像Pの検出処理においては、撮影画像30に対する各種の画像処理、撮影画像30内の輝度分布を取得する処理、当該輝度分布に基づいて周囲の画素との輝度値の差が比較的大きい画素を検出する処理等の一連の処理が行われてもよい。また、検出されたプルキニエ像Pから、プルキニエ像Pの中心を検出してもよい。
次いで、瞳孔中心S及び角膜14の曲率中心点Cの3次元座標が算出される。角膜14の曲率中心点Cは、角膜14を球の一部とみなした場合の当該球の中心である。瞳孔中心Sの3次元座標は、撮影画像30から検出された瞳孔17の像に基づいて算出される。具体的には、撮像部22と眼球10との位置関係、角膜14表面における光の屈折、角膜14の曲率中心点Cと瞳孔中心Sとの距離等に基づき、撮影画像30における瞳孔17の像の輪郭上の各点の3次元座標が算出される。これらの座標の中心点が、瞳孔中心Sの3次元座標とされる。
また、角膜14の曲率中心点Cは、撮影画像30から検出されたプルキニエ像P及びその中心に基づいて算出される。具体的には、光源21と撮像部22と眼球10との位置関係、角膜14の曲率半径等に基づき、撮像部22とプルキニエ像Pの中心とを結ぶ直線上において、角膜14の表面から眼球10の内部に向かって角膜14の曲率半径だけ進んだ位置が、角膜14の曲率中心点Cの3次元座標として算出される。
このように算出された角膜14の曲率中心点Cと瞳孔中心Sとを結ぶ直線が、推定された光軸となる。すなわち、光軸と表示面23とが交差する位置の座標が、推定されたユーザの視線位置となる。なお、角膜14の曲率中心点Cから瞳孔中心Sに向かうベクトルを光軸ベクトルvoとする。
(マーカベクトルの演算)
一方、ユーザの瞳孔中心Sから注視点マーカMへのマーカベクトルは、上述のように撮影画像30から特定された瞳孔中心Sから、現在注視点マーカMが表示されている表示面23上の位置に向かうベクトルとして算出することができる。
このように、ステップS110では、光軸ベクトル及びマーカベクトルが視線データとして演算処理部230により演算され、取得される。取得した視線データは、記憶部240に記憶される。
(検出結果のばらつき抑制)
ここで、演算処理部230は、演算した光軸ベクトルvoがキャリブレーションの検出結果として使用可能な情報であるか否かを判定してもよい。
具体的には、例えば、光軸ベクトルvoのぶれが所定の範囲内にあるか否かを判定し、演算した光軸ベクトルvoがこれまで取得された光軸ベクトルvoから大きく外れたものでないことを確認してもよい。演算処理部230により演算された光軸ベクトルvoは、記憶部240に履歴として記憶されている。これを用いて、演算処理部230は、例えば、今回演算分を含めた過去N回に取得した光軸ベクトルの平均vo_aveと今回の光軸ベクトルvoとのなす角が所定値以内にあることを確認する。そして、光軸ベクトルの平均vo_aveと今回の光軸ベクトルvoとのなす角が所定の閾値を超えたとき、今回演算された光軸ベクトルvoはぶれが大きいとして、キャリブレーションの検出結果として用いないようにする。これにより、光軸ベクトルの精度を高めることができる。
光軸ベクトルの平均vo_aveは、例えば過去3回の光軸ベクトルvoを用いて算出してもよい。また、光軸ベクトルの平均vo_aveと今回の光軸ベクトルvoとのなす角を判定するための閾値は、例えば3°程度としてもよい。この閾値は、検出のぶれを加味して決定される。かかる判定により、例えば図8に示すように、推定されたユーザの視線位置m1、m2、m3があったとき、視線位置m3のように他のものから外れているものを検出結果から除外することができる。また、ユーザが注視点マーカMを見ていないときに撮影された撮影画像から光軸ベクトルvoが演算された場合にも、演算された光軸ベクトルvoは、光軸ベクトルの平均vo_aveから大きく外れるものとなる。このようなものも、当該判定により検出結果から除外することができる。
また、演算処理部230は、例えば、演算したマーカベクトルvmと光軸ベクトルvoとのなす角ωが所定値以下であるか否かを判定してもよい。かかる判定により、推定された光軸ベクトルvoが、実際の視線方向から大きくずれていないかを確認することができる。ここで用いる閾値の値は、光軸と視軸とのずれや光軸の検出誤差等を考慮して決定される。
例えば、推定されたユーザの視線方向(すなわち、光軸)と、実際にユーザが見ている方向(すなわち、視軸)とは必ずしも一致しない。これは、眼球の形状や大きさ、眼球における網膜や視神経の配置等に起因する。個人差もあるが、光軸と視軸とは通常4〜8°ずれている。また、光軸の検出誤差は数°、例えば±3°ほど存在すると考えられる。これらの誤差にその他の蓄積誤差±1°を加味すると、0〜12°程度の誤差の発生が想定される。この場合、演算したマーカベクトルと光軸ベクトルとのなす角ωが0〜12°の範囲内にあれば、演算した光軸ベクトルvoの精度は許容できるものとして、キャリブレーションの検出結果として用いるようにしてもよい。
このような判定処理を行うことで、検出結果のばらつきを抑制することができ、光軸ベクトルの精度を高めることができる。
(誤検出判定)
さらに、上述した検出結果のばらつきを抑制するための判定をクリアした場合であっても、瞳孔や輝点が誤った場所を検出し続けることもある。誤った検出結果を用いると、正しくキャリブレーション処理を行うことができない。そこで、演算処理部230は、このような誤った検出結果をキャリブレーションの検出結果として用いないようにする誤検出判定処理を行ってもよい。例えば、演算された左右の瞳孔の大きさが極端に異なる場合には、瞳孔として誤った場所を認識している可能性が高い。このような場合に取得された視線データは検出結果として用いないようにする。具体的には、例えば左右の瞳孔のサイズ比が所定の値(例えば1.2)を超えた場合には、左右の瞳孔の大きさが極端に異なるとして、取得された視線データは検出結果として用いないようにしてもよい。
以上の処理が行われると、演算処理部230は、現在注視点マーカMが表示されているキャリブレーション点における視線データが取得されたか否かを判定する(S120)。例えば、過去のデータから光軸ベクトルvoにぶれがあると判定した場合や、マーカベクトルvmと光軸ベクトルvoとのなす角ωが許容範囲内にない場合等、正しい結果が得られなかった場合には、再度眼球10を撮影し、視線データを取得する。
一方、現在注視点マーカMが表示されているキャリブレーション点における視線データが取得された場合には、演算処理部230は、すべてのキャリブレーション点について視線データが取得されたか否かを判定する(S130)。視線データを取得するキャリブレーション点は、記憶部240に予め記憶されている。演算処理部230は、視線データが取得されていないキャリブレーション点がある場合には、マーカ制御部220に対して、注視点マーカMを次のキャリブレーション点へ移動させるよう指示する(S140)。マーカ制御部220は、予め設定されている次のキャリブレーション点へ注視点マーカMを移動させる指示を、送受信部210を介してアイウェア端末100へ出力する。
(注視点マーカの移動処理)
注視点マーカMは、ユーザの視線を向けさせるために表示させるものである。ここで、ユーザの視線データを短時間で正しく取得できるように、注視点マーカMの表示制御が行われる。
まず、注視点マーカMは、表示された状態で、各キャリブレーション点間を移動する。これにより、ユーザは注視点マーカを追うように視線を移動させるので、断続的に注視点マーカMを表示させる場合と比較して、キャリブレーション点に表示された注視点マーカMを探す時間も不要となり、注視点マーカに向けられる視線の動きも安定させることができる。
そして、キャリブレーション点間を移動する注視点マーカMの移動速度を変化させる。注視点マーカMを一定の速度で移動させると、注視点マーカMが移動先のキャリブレーション点に表示されたときの視線が定まりにくいという傾向がある。そこで、マーカ制御部220は、キャリブレーション点間を移動する注視点マーカMの移動速度を、移動先のキャリブレーション点に近づくほど遅くするように制御する。これにより、注視点マーカMは、移動開始直後は早く移動するが、移動先のキャリブレーション点に近づくにつれて動きが遅くなる。ユーザの視線は注視点マーカの移動速度に伴って動くので、注視点マーカMが移動先のキャリブレーション点に近づくとユーザの視線の動きも緩やかになり、注視点マーカMがキャリブレーション点に表示されたときに視線を定めやすくすることができる。
また、表示領域300において視線データを取得するキャリブレーション点は、通常、ユーザが正面を向いたときに見る位置である表示領域300の中央と、視軸と光軸とのずれが大きくなり易い表示領域300の周縁部近辺に設定される。キャリブレーション点は、通常、視野内に複数点(例えば、5〜9点)設定される。これらの位置でキャリブレーションを行うことで、表示領域300全体として見え方が均一となるように補正処理を行うことができる。具体的には、例えば図9に示すように、矩形の表示領域300の中央(キャリブレーション点CP1)と、四隅(キャリブレーション点CP2〜CP5)とにおいて、キャリブレーションを行ってもよい。あるいは、図10に示すように、矩形の表示領域300の中央(キャリブレーション点CP1)と、各辺の中心近辺(キャリブレーション点CP2〜CP5)とにおいて、キャリブレーションを行ってもよい。
ここで、注視点マーカMを各キャリブレーション点に移動させるとき、なるべく移動距離が大きくなるように注視点マーカMの移動順序を決定してもよい。ユーザは、注視点マーカMの動きに伴い視線を移動させるが、注視点マーカMの移動距離が小さいと、次のキャリブレーション点に表示された注視点マーカMに視線を合わせにくく、視軸と光軸とのずれが大きくなる。また、注視点マーカMを表示領域300の水平方向に移動させた場合にも視軸と光軸とのずれが大きくなりやすいので、上下や斜め等、上下方向への移動も含むように注視点マーカMを移動させてもよい。
例えば、図9に示した表示領域300の中央及び四隅に設定された5つのキャリブレーション点CP1〜CP5において視線データを取得するときには、中央のキャリブレーション点CP1を表示した後、四隅のキャリブレーション点CP2〜CP5をジクザグに移動させてもよい。また、図10に示した表示領域300の中央及び各辺の中心近辺に設定された5つのキャリブレーション点CP1〜CP5において視線データを取得するときには、例えば、まず、各辺の中心近辺のキャリブレーション点CP1〜CP4をひし形の軌跡を描くように順に表示させる。その後、中央のキャリブレーション点CP1を表示させるようにしてもよい。
図5の説明に戻り、ステップS140にて注視点マーカMが次のキャリブレーション点へ移動されると、移動先のキャリブレーション点での視線データの取得が行われる(S110)。その後、すべてのキャリブレーション点において視線データの取得が完了するまで、ステップS110〜S140の処理が繰り返し実行される。
(3)評価(S150〜S180)
すべてのキャリブレーション点において視線データが取得されると、評価部250により、キャリブレーションの完了判定が行われる。本実施形態では、キャリブレーションの完了判定は、推定された光軸ベクトルvoの全体としてのばらつきが許容範囲内か否かを判定することにより行われる。
ステップS110にて演算された各キャリブレーション点における光軸ベクトルvoは、正しくキャリブレーションが行われると、表示領域300でのキャリブレーション点の表示位置に対応した値となる。ここで、図9に示したキャリブレーション点CP1〜CP5でキャリブレーションを行った時の光軸ベクトルvoの検出結果の一例を図11に示す。図11は、光軸ベクトルvoの上下方向の角度θと、光軸ベクトルvoの水平方向の角度ωとの関係を表している。なお、本実施形態において、光軸ベクトルvoは、図12に示す座標軸に基づき規定している。図12の座標軸において、x軸は表示領域300の水平方向、y軸は表示領域300の上下方向、z軸は表示領域300の奥行き方向を表している。角度θは光軸ベクトルvoとzx平面とのなす角であり、角度ωは光軸ベクトルvoとxy平面とのなす角となる。
図11上側には、キャリブレーションが正しく行われたときの光軸ベクトルvoの分布を示し、図11下側には、キャリブレーションが正しく行われなかったときの光軸ベクトルvoの分布を示している。図11上側より、キャリブレーションが正しく行われたときには、表示領域300の中央及び四隅に設定された各キャリブレーション点の位置に対応して、光軸ベクトルvoはきれいに分かれて分布する。
一方、図11下側に示すように、キャリブレーションが正しく行われなかったときには、表示領域300の右上、左上、及び中央のキャリブレーション点に対応する光軸ベクトルvoの上下方向の角度θが略同一になる等、きれいに分布しない。このような分布は、特に、ハードコンタクトレンズの装着者や、薄目、細目のユーザで発生しやすい。
そこで、本実施形態では、評価部250により、全体としての光軸ベクトルvoのばらつきを評価するための評価値として、マーカベクトルvmと光軸ベクトルvoとの相関係数を算出し(S150)、相関係数の値からキャリブレーションの完了判定を行う。マーカベクトルvmと光軸ベクトルvoとの相関係数rxyは、例えば下記式(1)により求めることができる。

Figure 2016098406
なお、iは各キャリブレーション点に付された番号であり、1〜nの値を取る。キャリブレーション点が5つ設定されている場合には、nは5となる。また、x、yは光軸ベクトルvoのx座標およびy座標であり、x ̄、y ̄はマーカベクトルvmのx座標およびy座標である。なお、x ̄、y ̄は、x、yの上に ̄が添えられているものとする。
上記式(1)では、すべてのキャリブレーション点におけるマーカベクトルvmと光軸ベクトルvoとの、上下方向の角度θと水平方向の角度ωとの差を評価している。1または複数のキャリブレーション点においてマーカベクトルvmと光軸ベクトルvoとが一致せず、これらの角度のずれが大きくなると、式(1)により算出される相関係数rxyは小さくなる。評価部250は、このようなマーカベクトルvmと光軸ベクトルvoとの相関関係を表す相関係数rxyを用いて、キャリブレーションの完了判定を行う(S160)。
キャリブレーションの完了判定は、ステップS150にて算出されたマーカベクトルvmと光軸ベクトルvoとの相関係数rxyが所定の閾値rthを下回ったか否かにより行ってもよい。閾値rthは、例えば0.90としてもよい。ステップS160にて、マーカベクトルvmと光軸ベクトルvoとの相関係数rxyが閾値rth以上であった場合、評価部250は、全体としての光軸ベクトルvoのばらつきは許容範囲内であるとして、キャリブレーション処理を完了する(S170)。
一方、マーカベクトルvmと光軸ベクトルvoとの相関係数rxyが閾値rthを下回った場合には、キャリブレーションの設定情報を変更してキャリブレーションの仕方を変更し(S180)、再度キャリブレーションを実施する。キャリブレーションの設定情報とは、例えば注視点マーカMの表示位置等である。例えば、注視点マーカMの表示位置を表示領域の中央に寄せる等、キャリブレーション点の設定を変更し、再度キャリブレーションを実行してもよい。
例えば、図13に示すように、表示領域300に対して、表示領域300を所定の割合αだけ縮小した領域に基づき、キャリブレーション点が設定されるとする。このとき、キャリブレーション点の位置のデフォルト値を、例えば、表示領域300の中央と、表示領域の90%の大きさの領域の四隅としたとする。キャリブレーション点をデフォルトの位置に設定してキャリブレーションを実行したときに、マーカベクトルvmと光軸ベクトルvoとの相関係数rxyが閾値rthを下回った場合には、キャリブレーション点の位置を表示領域の中央に寄せる。例えば、四隅のキャリブレーション点の位置を、表示領域の80%の大きさの領域の四隅に設定する。このようにキャリブレーション点の位置を表示領域の中央に寄せることで、ユーザが注視点マーカを見やすくなり、正しい視線データを取得しやすくすることができる。
以上、本実施形態に係る情報処理装置200によるアイウェア端末100のキャリブレーション処理について説明した。本実施形態によれば、複数のキャリブレーション点において視線データを取得する際に、ユーザの視線を向けさせるために表示される注視点マーカMを、表示したまま、各キャリブレーション点を移動させる。このとき、注視点マーカMの移動速度を、次のキャリブレーション点の位置に近づくにつれて遅くすることで、ユーザの視線を注視点マーカMに精度よく追従させることができる。
また、本実施形態に係るキャリブレーション処理では、各キャリブレーション点における光軸ベクトルvoを取得する際に、過去に取得された光軸ベクトルに基づき光軸のぶれの有無を判定したり、マーカベクトルvmと光軸ベクトルvoとのずれを判定したりする。これにより、ユーザが注視点マーカMを見ていないときに取得された視線データを、キャリブレーションの検出結果として利用しないようにすることができ、視線検出処理の精度を低下させないようにすることができる。
さらに、本実施形態に係るキャリブレーション処理では、各キャリブレーション点において取得された光軸ベクトルvoから、全体としての光軸ベクトルvoのばらつきを評価するための評価値として、マーカベクトルvmと光軸ベクトルvoとの相関係数を算出する。この関係数が所定の閾値以上であるか否かを判定することで、視野内全体として視線検出処理を精度よく行うことができるか否かを評価することができる。これにより、ユーザが表示領域のどの位置を見ても、検出される光軸ベクトルvoの精度を安定して維持することができる。
このような処理により、ユーザは注視点マーカMに視線を向けるだけでキャリブレーション処理を完了させることができる。注視点マーカMは、ユーザが視線を向けやすいように表示、移動される。また、光軸ベクトルvoが取得されない場合にも、自動的に光軸ベクトルvoが取得できるようにキャリブレーション点が調整されるため、ユーザは、ストレスを感じることなく、キャリブレーション処理を完了させることができる。
<5.検出精度向上への対応>
キャリブレーション処理においては、ユーザがハードコンタクトレンズを装着している場合や、ユーザの眼が細い場合等において、検出された光軸ベクトルvoにばらつきが生じやすい傾向がある。ユーザがハードコンタクトレンズを装着していると、瞳孔が歪んだり、光源から照射された光による眼球上の輝点が光源の数以上に検出されたり、コンタクトレンズが角膜上で動いたりするためである。また、ユーザの眼が細い場合には、撮影画像から特定される瞳孔が欠けていたり、光源の数と同数だけ検出されるはずの輝点が光源の数だけ検出されなかったりする。そこで、ユーザの光軸ベクトルvoを正しく検出するために、さらに以下のような処理を行ってもよい。
[5.1.輝点のペアリング]
ユーザの光軸ベクトルvoを正しく検出するために、例えば、撮影画像から特定された輝点についてペアリング処理を行ってもよい。本実施形態に係るアイウェア端末100には、図2に示したように、表示部102R、102Lの周囲には、それぞれ4つの光源103Ra〜103Rd、103La〜103Ldが設けられている。これらの光源103Ra〜103Rd、103La〜103Ldから左右の眼球10に光がそれぞれ照射されると、各眼には図14に示すように4つの輝点Pa、Pb、Pc、Pdがそれぞれ現れる。
図2に示すように光源103Ra〜103Rd、103La〜103Ldが配置されていると、これらの光源から出射された光により、眼球10には、その配置に対応して輝点Pa、Pb、Pc、Pdが検出される。しかし、上述したように、ユーザがハードコンタクトレンズを装着している場合や、ユーザの眼が細い場合には、4つの輝点Pa、Pb、Pc、Pd以上の輝点が検出されたり、4つの輝点が検出されなかったりする。
そこで、上下方向に対向する輝点Pa、Pcと、水平方向に対向する輝点Pb、Pdとを、それぞれペアとする。そして、ペアとした輝点に対応する光源の位置関係に基づき、1つの輝点を検出したときに、もう1つの輝点の位置を推定することが可能となる。例えば、輝点Paが検出されれば、輝点Pcが検出できなくとも、輝点Paの下方の所定の位置に輝点Pcがあることを推定することができる。また、光源の数よりも輝点が多く検出された場合にも、輝点に対応する光源の位置関係に基づき、多数検出された輝点からペアとなる輝点を特定することが可能である。
このように、光源の配置により輝点のペアを設定することで、撮影画像から正しく輝点が検出できない場合にも、おおよその輝点の位置を推定することが可能となり、光軸ベクトルvoの検出精度を向上させることができる。
[5.2.注視点マーカ表示位置の動的変更]
また、ユーザの光軸ベクトルvoを正しく検出するために、注視点マーカMを動的に移動させるようにしてもよい。表示領域300においてユーザが視線を向けることが難しい位置に注視点マーカMが表示されたとき、検出された光軸ベクトルvoはマーカベクトルvmからのずれが大きくなることが想定される。このような場合、同一のキャリブレーション点に注視点マーカMを表示させ続けても、光軸ベクトルvoとマーカベクトルvmとのずれは小さくなることはない。
そこで、例えば所定時間内にそのキャリブレーション点における光軸ベクトルvoを取得できなかった場合には、注視点マーカMの表示位置を表示領域300の中央に寄せて、再度光軸ベクトルvoを取得する処理を実行させる。注視点マーカMを移動させる時間は、例えばキャリブレーション点に注視点マーカMが表示されてから数秒(例えば3秒)経過後、等としてもよい。
注視点マーカMの移動は、例えば表示領域300の中心に向かって、表示領域300の中心から現在のキャリブレーション点までの距離に対して所定の割合だけ近づけてもよい。あるいは、水平方向において、表示領域300の中央に向かって、表示領域300の水平方向中央から現在のキャリブレーション点までの水平方向距離に対して所定の割合だけ近づけてもよい。注視点マーカMを近づける所定の割合は、例えば10%程度としてもよい。これにより、ユーザが正面を向いた状態から視線を移動させる距離は小さくなり、ユーザは視線を注視点マーカMに向けやすくなるので、光軸ベクトルvoとマーカベクトルvmとのずれが小さくなることが期待できる。
注視点マーカMの移動は、例えば光軸ベクトルvoが取得されるまで行うようにしてもよい。例えば、所定時間光軸ベクトルvoの取得を行い、時間内に取得されなかった場合には、所定の割合だけさらに注視点マーカMを移動させ、再度光軸ベクトルvoの取得を行う、という処理を繰り返す。そして、光軸ベクトルvoが取得されたときには、例えば、それ以降のキャリブレーション点での光軸ベクトルvoの取得時には、今回光軸ベクトルvoが取得されたときの割合だけキャリブレーション点の位置を移動させた位置に注視点マーカMを表示させるようにしてもよい。もちろん、それ以降のキャリブレーション点での光軸ベクトルvoの取得時には、デフォルトのキャリブレーション点の位置に注視点マーカMを表示させるようにしてもよい。
このように、光軸ベクトルvoの取得が成功しない場合には、光軸ベクトルvoが正しく取得される位置まで注視点マーカMを動的に移動させることで、正しい光軸ベクトルvoを取得できるようにすることができる。
<6.ハードウェア構成>
最後に、本実施形態に係る情報処理装置200のハードウェア構成例について説明する。図15は、本実施形態に係る情報処理装置200のハードウェア構成を示すハードウェア構成図である。
本実施形態に係る情報処理装置200は、上述したように、コンピュータ等の処理装置により実現することができる。情報処理装置200は、図15に示すように、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904aとを備える。また、情報処理装置200は、ブリッジ904と、外部バス904bと、インタフェース905と、入力装置906と、出力装置907と、ストレージ装置908と、ドライブ909と、接続ポート911と、通信装置913とを備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置200内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904aにより相互に接続されている。
ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置906は、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。出力装置907は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置や、スピーカなどの音声出力装置を含む。
ストレージ装置908は、情報処理装置200の記憶部の一例であり、データ格納用の装置である。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置200に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録されている情報を読み出して、RAM903に出力する。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。また、通信装置913は、例えば、通信網5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置913は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、マーカベクトルvmと光軸ベクトルvoとの相関係数rxyが閾値rthを下回った場合には、キャリブレーションの仕方を変更して再度キャリブレーションを実施したが、本技術はかかる例に限定されない。例えば、キャリブレーションの仕方を変更する前に、閾値rthを下げて、再度キャリブレーションの完了判定を行ってもよい。変更後の閾値rthとしては、例えば、前回の閾値rthより一定値下げた値としてもよく、相関係数rxyと前回の閾値rthとの間の値に下げるようにしてもよい。また、キャリブレーションを終了し、過去最も閾値rthが高かったときのキャリブレーション情報を用いて再度キャリブレーションを行うようにしてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
アイウェア端末のキャリブレーション時に、前記アイウェア端末の表示部に表示される注視点マーカの表示位置を変化させるマーカ制御部と、
前記アイウェア端末を装着するユーザの眼に光源から光が照射され、キャリブレーション点に前記注視点マーカが表示されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法により、ユーザの視線方向を表す光軸ベクトルを演算する演算処理部と、
複数の前記キャリブレーション点について演算された光軸ベクトルのばらつきを評価する評価部と、
を備える、情報処理装置。
(2)
前記マーカ制御部は、前記注視点マーカを表示した状態で、予め設定された前記キャリブレーション点に順に移動させる、前記(1)に記載の情報処理装置。
(3)
前記マーカ制御部は、移動先の前記キャリブレーション点に近づくほど移動速度が遅くなるように前記注視点マーカを移動させる、前記(2)に記載の情報処理装置。
(4)
前記演算処理部は、
演算した現在の光軸ベクトルと、光軸ベクトルの履歴に基づき算出された光軸ベクトルの平均とのなす角が、所定の角度より大きいか否かを判定し、
前記なす角が所定の角度より大きい場合、演算した現在の前記光軸ベクトルを採用しない、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記演算処理部は、
演算した現在の光軸ベクトルと、ユーザの瞳孔中心から前記注視点マーカが表示されているキャリブレーション点へのマーカベクトルとのなす角が所定の角度以下であるか否かに基づいて、演算した現在の光軸ベクトルのばらつきを判定し、
前記なす角が所定の角度より大きい場合、演算した現在の前記光軸ベクトルを採用しない、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記演算処理部は、ユーザの左右の瞳孔の大きさの比が所定の値以上であるとき、演算した前記光軸ベクトルを採用しない、前記(5)に記載の情報処理装置。
(7)
前記マーカ制御部は、前記演算処理部により演算した前記光軸ベクトルが採用されないとき、前記注視点マーカの表示位置を表示領域の中央側へ移動させる、前記(4)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記評価部は、ユーザの瞳孔中心から前記注視点マーカが表示されているキャリブレーション点へのマーカベクトルと、演算された光軸ベクトルとの相関関係に基づいて、すべての前記キャリブレーション点において演算された光軸ベクトルのばらつきを判定する、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記評価部により前記光軸ベクトルと前記マーカベクトルとの相関関係を表す相関係数が所定の閾値を下回ったとき、
前記マーカ制御部は、前記キャリブレーション点を表示領域の中央に寄せた位置に設定し、再度キャリブレーションを実行する、前記(8)に記載の情報処理装置。
(10)
前記演算処理部は、対となる複数の光源から照射された光による輝点を検出する、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)
情報処理装置により、
アイウェア端末のキャリブレーション時に、前記アイウェア端末の表示部に表示される注視点マーカの表示位置を変化させること、
前記アイウェア端末を装着するユーザの眼に光源から光が照射され、キャリブレーション点に前記注視点マーカが表示されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法により、ユーザの視線方向を表す光軸ベクトルを演算すること、
複数の前記キャリブレーション点について演算された光軸ベクトルのばらつきを評価すること、
とを含む、情報処理方法。
(12)
コンピュータを、
アイウェア端末のキャリブレーション時に、前記アイウェア端末の表示部に表示される注視点マーカの表示位置を変化させるマーカ制御部と、
前記アイウェア端末を装着するユーザの眼に光源から光が照射され、キャリブレーション点に前記注視点マーカが表示されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法により、ユーザの視線方向を表す光軸ベクトルを演算する演算処理部と、
複数の前記キャリブレーション点について演算された光軸ベクトルのばらつきを評価する評価部と、
を備える、情報処理装置として機能させるプログラム。
10 眼球
14 角膜
17 瞳孔
100 アイウェア端末
110 光源
120 撮像部
130 表示部
140 制御部
150 送受信部
200 情報処理装置
210 送受信部
220 マーカ制御部
230 演算処理部
240 記憶部
250 評価部
300 表示領域

Claims (12)

  1. アイウェア端末のキャリブレーション時に、前記アイウェア端末の表示部に表示される注視点マーカの表示位置を変化させるマーカ制御部と、
    前記アイウェア端末を装着するユーザの眼に光源から光が照射され、キャリブレーション点に前記注視点マーカが表示されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法により、ユーザの視線方向を表す光軸ベクトルを演算する演算処理部と、
    複数の前記キャリブレーション点について演算された光軸ベクトルのばらつきを評価する評価部と、
    を備える、情報処理装置。
  2. 前記マーカ制御部は、前記注視点マーカを表示した状態で、予め設定された前記キャリブレーション点に順に移動させる、請求項1に記載の情報処理装置。
  3. 前記マーカ制御部は、移動先の前記キャリブレーション点に近づくほど移動速度が遅くなるように前記注視点マーカを移動させる、請求項2に記載の情報処理装置。
  4. 前記演算処理部は、
    演算した現在の光軸ベクトルと、光軸ベクトルの履歴に基づき算出された光軸ベクトルの平均とのなす角が、所定の角度より大きいか否かを判定し、
    前記なす角が所定の角度より大きい場合、演算した現在の前記光軸ベクトルを採用しない、請求項1に記載の情報処理装置。
  5. 前記演算処理部は、
    演算した現在の光軸ベクトルと、ユーザの瞳孔中心から前記注視点マーカが表示されているキャリブレーション点へのマーカベクトルとのなす角が所定の角度以下であるか否かに基づいて、演算した現在の光軸ベクトルのばらつきを判定し、
    前記なす角が所定の角度より大きい場合、演算した現在の前記光軸ベクトルを採用しない、請求項1に記載の情報処理装置。
  6. 前記演算処理部は、ユーザの左右の瞳孔の大きさの比が所定の値以上であるとき、演算した前記光軸ベクトルを採用しない、請求項5に記載の情報処理装置。
  7. 前記マーカ制御部は、前記演算処理部により演算した前記光軸ベクトルが採用されないとき、前記注視点マーカの表示位置を表示領域の中央側へ移動させる、請求項4に記載の情報処理装置。
  8. 前記評価部は、ユーザの瞳孔中心から前記注視点マーカが表示されているキャリブレーション点へのマーカベクトルと、演算された光軸ベクトルとの相関関係に基づいて、すべての前記キャリブレーション点において演算された光軸ベクトルのばらつきを判定する、請求項1に記載の情報処理装置。
  9. 前記評価部により前記光軸ベクトルと前記マーカベクトルとの相関関係を表す相関係数が所定の閾値を下回ったとき、
    前記マーカ制御部は、前記キャリブレーション点を表示領域の中央に寄せた位置に設定し、再度キャリブレーションを実行する、請求項8に記載の情報処理装置。
  10. 前記演算処理部は、対となる複数の光源から照射された光による輝点を検出する、請求項1に記載の情報処理装置。
  11. 情報処理装置により、
    アイウェア端末のキャリブレーション時に、前記アイウェア端末の表示部に表示される注視点マーカの表示位置を変化させること、
    前記アイウェア端末を装着するユーザの眼に光源から光が照射され、キャリブレーション点に前記注視点マーカが表示されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法により、ユーザの視線方向を表す光軸ベクトルを演算すること、
    複数の前記キャリブレーション点について演算された光軸ベクトルのばらつきを評価すること、
    とを含む、情報処理方法。
  12. コンピュータを、
    アイウェア端末のキャリブレーション時に、前記アイウェア端末の表示部に表示される注視点マーカの表示位置を変化させるマーカ制御部と、
    前記アイウェア端末を装着するユーザの眼に光源から光が照射され、キャリブレーション点に前記注視点マーカが表示されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法により、ユーザの視線方向を表す光軸ベクトルを演算する演算処理部と、
    複数の前記キャリブレーション点について演算された光軸ベクトルのばらつきを評価する評価部と、
    を備える、情報処理装置として機能させるプログラム。
JP2016564705A 2014-12-17 2015-09-11 情報処理装置、情報処理方法及びプログラム Active JP6601417B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014254720 2014-12-17
JP2014254720 2014-12-17
PCT/JP2015/075894 WO2016098406A1 (ja) 2014-12-17 2015-09-11 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2016098406A1 true JPWO2016098406A1 (ja) 2017-09-28
JP6601417B2 JP6601417B2 (ja) 2019-11-06

Family

ID=56126308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016564705A Active JP6601417B2 (ja) 2014-12-17 2015-09-11 情報処理装置、情報処理方法及びプログラム

Country Status (6)

Country Link
US (2) US10452137B2 (ja)
EP (1) EP3236338B1 (ja)
JP (1) JP6601417B2 (ja)
KR (1) KR102469507B1 (ja)
CN (2) CN107003752B (ja)
WO (1) WO2016098406A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015204283A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erfassung der Blickrichtung einer Person
US10466780B1 (en) * 2015-10-26 2019-11-05 Pillantas Systems and methods for eye tracking calibration, eye vergence gestures for interface control, and visual aids therefor
KR102567431B1 (ko) 2016-01-19 2023-08-14 매직 립, 인코포레이티드 눈 이미지 수집, 선택 및 결합
JP6963820B2 (ja) * 2016-08-12 2021-11-10 国立大学法人静岡大学 視線検出装置
CN106339087B (zh) * 2016-08-29 2019-01-29 上海青研科技有限公司 一种基于多维坐标的眼球追踪方法及其装置
EP3631567B1 (en) 2017-05-31 2022-09-21 Magic Leap, Inc. Eye tracking calibration techniques
JP6403836B1 (ja) * 2017-06-08 2018-10-10 株式会社ナックイメージテクノロジー 視機能検査装置、視機能訓練装置及び方法
KR101857466B1 (ko) * 2017-06-16 2018-05-15 주식회사 비주얼캠프 헤드 마운트 디스플레이 및 그 캘리브레이션 방법
JP2019021049A (ja) * 2017-07-18 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6971686B2 (ja) * 2017-08-02 2021-11-24 株式会社Jvcケンウッド 視線検出装置及び視線検出方法
WO2019154509A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2019154511A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11194403B2 (en) * 2018-02-19 2021-12-07 Murakami Corporation Reference position setting method and virtual image display device
CN109144267A (zh) * 2018-09-03 2019-01-04 中国农业大学 人机交互方法及装置
US11537202B2 (en) 2019-01-16 2022-12-27 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
WO2020236827A1 (en) * 2019-05-20 2020-11-26 Magic Leap, Inc. Systems and techniques for estimating eye pose
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
CN110347257A (zh) * 2019-07-08 2019-10-18 北京七鑫易维信息技术有限公司 眼球追踪设备的校准方法、装置、设备和存储介质
JP7342978B2 (ja) * 2020-02-10 2023-09-12 日本電気株式会社 視線推定システム、視線推定方法、及びコンピュータプログラム
JP7444358B2 (ja) 2020-02-18 2024-03-06 学校法人明治大学 眼球運動測定装置、キャリブレーションシステム、眼球運動測定方法及び眼球運動測定プログラム
CN114296548B (zh) * 2021-12-14 2023-03-24 杭州朱道实业有限公司 一种展览用智能移动识别信息系统
CN114511655B (zh) * 2022-02-16 2022-11-04 深圳市恒必达电子科技有限公司 一种带气味复现的vr/ar体感装置和气味形成系统

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05333259A (ja) * 1992-06-02 1993-12-17 Canon Inc 視線検出手段を有した光学装置
FR2715479B1 (fr) * 1994-01-25 1996-03-15 Sextant Avionique Dispositif de contrôle de réglage de position et d'orientation d'un casque par rapport à la tête d'un porteur du casque.
US6578962B1 (en) * 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
JP2002345756A (ja) 2001-05-25 2002-12-03 Canon Inc 視線検出装置及び光学機器
WO2004034178A2 (en) * 2002-10-11 2004-04-22 Laboratories For Information Technology Statistical data analysis tool
JP2004129927A (ja) * 2002-10-11 2004-04-30 Canon Inc 視線検出装置
CA2545202C (en) * 2003-11-14 2014-01-14 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
WO2005063114A1 (ja) * 2003-12-25 2005-07-14 National University Corporation Shizuoka University 視線検出方法および装置ならびに三次元視点計測装置
JP2005245791A (ja) * 2004-03-04 2005-09-15 Olympus Corp 視線方向検出装置
US7686451B2 (en) * 2005-04-04 2010-03-30 Lc Technologies, Inc. Explicit raytracing for gimbal-based gazepoint trackers
JP5167545B2 (ja) * 2006-03-31 2013-03-21 国立大学法人静岡大学 視点検出装置
JP5163982B2 (ja) * 2008-06-16 2013-03-13 国立大学法人神戸大学 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ
CN102149325B (zh) * 2008-09-26 2013-01-02 松下电器产业株式会社 视线方向判定装置及视线方向判定方法
DK2389095T3 (da) * 2009-01-26 2014-11-17 Tobii Technology Ab Detektering af blikpunkt hjulpet af optiske referencesignaler
US20110214082A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
JP5728866B2 (ja) * 2010-09-24 2015-06-03 ソニー株式会社 情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラム
JP5466610B2 (ja) 2010-09-27 2014-04-09 パナソニック株式会社 視線推定装置
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
CA2750287C (en) * 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9213163B2 (en) * 2011-08-30 2015-12-15 Microsoft Technology Licensing, Llc Aligning inter-pupillary distance in a near-eye display system
US9025252B2 (en) * 2011-08-30 2015-05-05 Microsoft Technology Licensing, Llc Adjustment of a mixed reality display for inter-pupillary distance alignment
US8870654B2 (en) * 2011-11-23 2014-10-28 Sony Computer Entertainment America Llc Gaming controller
JP5873362B2 (ja) * 2012-03-13 2016-03-01 日本放送協会 視線誤差補正装置、そのプログラム及びその方法
JP2014064634A (ja) 2012-09-25 2014-04-17 Kyocera Corp 画像処理装置および視線特定装置ならびに瞳画像検出プログラムおよび方法
JP5935640B2 (ja) * 2012-10-01 2016-06-15 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
JP6157165B2 (ja) 2013-03-22 2017-07-05 キヤノン株式会社 視線検出装置及び撮像装置
GB201305726D0 (en) * 2013-03-28 2013-05-15 Eye Tracking Analysts Ltd A method for calibration free eye tracking
EP2790126B1 (en) * 2013-04-08 2016-06-01 Cogisen SRL Method for gaze tracking
CN103353790B (zh) * 2013-06-26 2016-09-14 林大伟 光线寻迹方法与装置
US9727135B2 (en) * 2014-04-30 2017-08-08 Microsoft Technology Licensing, Llc Gaze calibration

Also Published As

Publication number Publication date
CN111493809A (zh) 2020-08-07
WO2016098406A1 (ja) 2016-06-23
US11635806B2 (en) 2023-04-25
EP3236338A4 (en) 2018-12-12
EP3236338A1 (en) 2017-10-25
JP6601417B2 (ja) 2019-11-06
EP3236338B1 (en) 2019-12-18
US20190346920A1 (en) 2019-11-14
CN107003752B (zh) 2020-04-10
KR20170095194A (ko) 2017-08-22
KR102469507B1 (ko) 2022-11-22
CN111493809B (zh) 2023-06-27
US20170329400A1 (en) 2017-11-16
US10452137B2 (en) 2019-10-22
CN107003752A (zh) 2017-08-01

Similar Documents

Publication Publication Date Title
JP6601417B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10893801B2 (en) Eye tracking system and method to detect the dominant eye
CN112805659A (zh) 通过用户分类为多深度平面显示系统选择深度平面
JPWO2017014137A1 (ja) 眼球観察装置、アイウェア端末、視線検出方法及びプログラム
WO2012137801A1 (ja) 入力装置及び入力方法並びにコンピュータプログラム
US11822718B2 (en) Display systems and methods for determining vertical alignment between left and right displays and a user's eyes
US11789262B2 (en) Systems and methods for operating a head-mounted display system based on user identity
JP7081599B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN114391117A (zh) 眼睛跟踪延迟增强
JP2019215688A (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
US20210096368A1 (en) Head-mounted display apparatus and method employing dynamic eye calibration
JP6507252B2 (ja) 機器操作装置、機器操作方法、及び電子機器システム
US20190104231A1 (en) Image display system, image display method, and image display program
JPWO2018220963A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2018120299A (ja) 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法
EP4120052A1 (en) Head-mountable display systems and methods
JP2020162747A (ja) 情報処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180813

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180813

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190923

R151 Written notification of patent or utility model registration

Ref document number: 6601417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151