WO2017163516A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- WO2017163516A1 WO2017163516A1 PCT/JP2016/088300 JP2016088300W WO2017163516A1 WO 2017163516 A1 WO2017163516 A1 WO 2017163516A1 JP 2016088300 W JP2016088300 W JP 2016088300W WO 2017163516 A1 WO2017163516 A1 WO 2017163516A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information processing
- processing apparatus
- cornea
- image
- polarization image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Abstract
Description
・視線の検出精度が、プルキニエ像の観測の安定性に依存する。
・IR LEDなどの光源の光は太陽光の影響を受けやすいので、例えば屋外などでは、視線の検出精度が低下する恐れがある。
・IR LEDなどの光源の光が利用されることによって、視線の推定角度に制限がつく恐れがある。
・IR LEDなどの光源を設ける必要があるため、装置のデザインに制約が生じうる。
1.本実施形態に係る情報処理方法
2.本実施形態に係る情報処理装置
3.本実施形態に係るプログラム
まず、本実施形態に係る情報処理方法について説明する。以下では、本実施形態に係る情報処理方法に係る処理を、本実施形態に係る情報処理装置が行う場合を例に挙げる。
上述したように、角膜反射法を用いて視線の検出を行う場合には、IR LEDなどの光源の光を利用することに起因して、様々な弊害が生じうる。
本実施形態に係る情報処理装置は、“偏光画像から得られる法線に基づいて、検出対象の視線を検出する検出処理”を行う。
本実施形態に係る情報処理装置は、例えば、角膜上の複数の法線に基づいて、角膜の中心位置を推定する。
本実施形態に係る情報処理装置は、例えば、角膜上の複数の法線に基づいて、角膜の中心位置を推定する。
G2とする。また、角膜上の点G1上の法線ベクトルをN1、角膜上の点G2上の法線ベクトルをN2、撮像デバイスの中心位置Oから角膜上の点G1に向かうベクトルをI1、撮像デバイスの中心位置Oから角膜上の点G2に向かうベクトルをI2、撮像デバイスの中心位置Oと角膜上の点G1との間の距離をd1、撮像デバイスの中心位置Oと角膜上の点G2との間の距離をd2とする。以下では、撮像デバイスの中心位置Oと角膜上の点G1との間の距離d1を「距離d1」と示し、撮像デバイスの中心位置Oと角膜上の点G2との間の距離d2を「距離d2」と示す場合がある。
なお、角膜上の複数の法線に基づく推定の例は、上記第1の例に係る処理と、上記第2の例に係る処理とに限られない。
第1の偏光画像および第2の偏光画像に基づいて視差を求める処理の一例を説明する。図9は、本実施形態に係る情報処理方法に係る処理の一例を説明するための流れ図であり、第1の偏光画像および第2の偏光画像に基づき視差を求める処理の一例を示している。
・・・(数式4)
本実施形態に係る情報処理装置は、求められた視差を利用して、角膜の中心位置を推定する。
G2とする。また、角膜上の点G1上の法線ベクトルをN1、角膜上の点G2上の法線ベクトルをN2、一の撮像デバイスの中心位置Oから角膜上の点G1に向かうベクトルをI1、一の撮像デバイスの中心位置Oから角膜上の点G2に向かうベクトルをI2、一の撮像デバイスの中心位置Oと角膜上の点G1との間の距離をd1、一の撮像デバイスの中心位置Oと角膜上の点G2との間の距離をd2とする。以下では、一の撮像デバイスの中心位置Oと角膜上の点G1との間の距離d1を「距離d1」と示し、一の撮像デバイスの中心位置Oと角膜上の点G2との間の距離d2を「距離d2」と示す場合がある。
本実施形態に係る情報処理装置は、例えばRANSACを利用して最適化問題を解くことによって、角膜の中心位置を推定する。
・キャリブレーション位置を検出対象に見てもらい、その時に求められた光軸ベクトルと、眼球に対応する基準位置とキャリブレーション位置とを結んだベクトルとの差分を、オフセットとして求める。
本実施形態に係る情報処理方法に係る検出処理が行われることによって、例えば下記の効果を奏することができる。なお、本実施形態に係る情報処理方法に係る検出処理が行われることにより奏される効果が、下記に示す例に限られないことは、言うまでもない。
・偏光イメージングを利用することによって、LEDなどの光源を用いずに、撮像デバイスによる撮像のみで、検出対象の視線を検出することができる。
・LEDなどの光源が用いられないので、角膜反射法を用いて視線の検出を行う場合のような、プルキニエ像のアウトライヤによる視線精度の低下などが発生しない。
・偏光画像に基づき複数の法線ベクトルが得られるので、角膜の中心位置の推定精度の向上を図ることができる。
なお、本実施形態に係る情報処理方法に係る処理は、“偏光画像から得られる法線に基づいて、検出対象の視線を検出する検出処理”に限られない。
本実施形態に係る情報処理装置は、例えば、偏光画像から得られる法線に基づいて、検出対象の眼における角膜の中心位置を検出する。本実施形態に係る情報処理装置は、例えば、図5のステップS100~S112の処理を行うことによって、角膜の中心位置を検出する。
本実施形態に係る情報処理装置は、例えば、偏光画像から得られる法線と、オブジェクトの形状を示す情報とに基づいて、形状を示す情報が示すオブジェクトの姿勢と、当該オブジェクトの姿勢の変化との一方または双方を検出する。
本実施形態に係る情報処理装置は、例えば、偏光画像から得られる法線に基づいて、撮像デバイスにより撮像されたオブジェクト(被写体)のうち、撮像デバイスに対して所定の方向を向いているオブジェクトを検出する。
本実施形態に係る情報処理装置は、例えば、偏光画像から得られる法線と、オブジェクトの法線の組み合わせを示す情報とに基づいて、法線の組み合わせを示す情報が示すオブジェクトを、偏光画像から検出する。
次に、上述した本実施形態に係る情報処理方法に係る処理を行うことが可能な本実施形態に係る情報処理装置の構成の一例について説明する。
図17は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示す説明図である。情報処理装置100は、例えば、MPU150と、ROM152と、RAM154と、記録媒体156と、入出力インタフェース158と、操作入力デバイス160と、表示デバイス162と、通信インタフェース164と、撮像デバイス166とを備える。また、情報処理装置100は、例えば、データの伝送路としてのバス168で各構成要素間を接続する。
・医療の現場においては、医師などの医療従事者(検出対象の一例)の視線を検出することによって、医療機器の操作入力が行われてもよい。これにより、医師などの医療従事者は手を使わずに医療機器を操作することができるため、例えば手術の効率や成功率を向上させることができる。また、視線検出により操作可能なデバイスを利用することによって、身体的障害を有する患者(検出対象の一例)などは生活行為の困難を軽減することができる。
・自動車などの移動体の運転時においては、運転者(検出対象の一例)の視線を検出することによって、例えば、表示デバイスの表示画面に表示されたナビゲーションの操作や、運転者の注視している建物などのオブジェクトに関連する情報の提供が、可能となる。建物などのオブジェクトに関連する情報は、例えば、表示デバイスの表示画面に表示されてもよいし、音声によって運転者に伝達されてもよい。これにより、運転車は手を使わずにデバイスを操作することができるため、わき見などの可能性を軽減し、運転の安全性を向上させることができる。また、例えば、運転者の注視先が記録媒体にに記録され、記録された運転者の注視先と予め定めたユーザモデルの注視データとが比較されることによって、運転者の運転レベルを判定することが可能である。また、例えば、記録された運転者の注視先と予め定めたユーザモデルの注視データとが比較されることによって、運転者の注意力が判定され、運転者に音声などで注意が促されてもよい。
・スポーツの現場においては、スポーツを行っている者(検出対象の一例)の視線を検出することによって、適切なフォームの提案などが行われてもよい。
・広告マーケティングにおいては、マーケティング対象者(検出対象の一例)の視線を検出することによって、例えば、マーケティング対象者に推薦すべき商品が提案されてもよい。
・農業においては、農業に従事する者(検出対象の一例)のを検出することによって、例えば、農業に従事する者が注視している作物の状態に関する補足情報などが、表示デバイスの表示画面などへの表示により提供されてもよい。
・畜産業においては、例えば動物の健康管理などのために、動物(検出対象の一例)の視線検出結果が利用されてもよい。例えば、検出された視線と視線のモデルデータとの比較により、動物の出産時期や体調不良などの推定を行うことが、可能である。また、厩舎内の動物の視線検出結果から、厩舎内の衛生状態が推定されてもよい。
コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(例えば、“検出処理”、または、“検出処理、および他の検出処理”など、本実施形態に係る情報処理方法に係る処理を実行することが可能なプログラム)が、コンピュータにおいてプロセッサなどにより実行されることによって、視線の検出対象の視線を検出することができる。
(1)
視線の検出対象の眼が撮像された偏光画像に基づいて、前記検出対象の視線を検出する処理部を備える、情報処理装置。
(2)
前記処理部は、前記偏光画像に基づいて前記眼における角膜の中心位置を推定して、前記検出対象の視線を検出する、(1)に記載の情報処理装置。
(3)
前記処理部は、前記偏光画像に基づき検出された前記眼における瞳孔の位置と、前記偏光画像とに基づいて、前記角膜の中心位置を推定する、(2)に記載の情報処理装置。
(4)
前記処理部は、前記偏光画像から得られる法線に基づいて、前記検出対象の視線を検出する、(1)~(4)のいずれか1つに記載の情報処理装置。
(5)
前記処理部は、前記偏光画像から得られる法線に基づいて前記眼における角膜の中心位置を推定して、前記検出対象の視線を検出する、(4)に記載の情報処理装置。
(6)
前記処理部は、前記偏光画像に基づき推定される前記角膜に対応する法線に基づいて、前記角膜の中心位置を推定する、(5)に記載の情報処理装置。
(7)
前記処理部は、前記偏光画像に基づき検出された前記眼における瞳孔の位置と、前記偏光画像から得られる法線とに基づいて、前記角膜に対応する法線を推定する、(6)に記載の情報処理装置。
(8)
前記処理部は、
推定された前記角膜の中心位置と前記角膜の半径とに基づいて、前記眼における瞳孔の中心位置を推定し、
推定された前記角膜の中心位置と、推定された前記瞳孔の中心位置とに基づいて、前記検出対象の視線に対応する光軸ベクトルを求め、前記検出対象の視線を検出する、(5)~(7)のいずれか1つに記載の情報処理装置。
(9)
前記処理部は、検出された前記眼における瞳孔の位置に基づいて、前記偏光画像から得られる複数の法線から、前記角膜に対応する法線を特定する、(7)に記載の情報処理装置。
(10)
前記処理部は、検出された前記眼における瞳孔の位置および前記角膜の形状に基づいて、前記角膜に対応する法線を推定する、(9)に記載の情報処理装置。
(11)
前記処理部は、キャリブレーション情報に基づき前記光軸ベクトルを補正し、前記検出対象の視線を検出する、(8)に記載の情報処理装置。
(12)
前記処理部は、ステレオ画像を構成する第1の前記偏光画像および第2の前記偏光画像それぞれから得られる法線に基づいて、前記検出対象の視線を検出する、(1)に記載の情報処理装置。
(13)
前記処理部は、第1の前記偏光画像および第2の前記偏光画像それぞれから得られる法線に基づいて前記眼における角膜の中心位置を推定して、前記検出対象の視線を検出する、(12)に記載の情報処理装置。
(14)
前記処理部は、第1の前記偏光画像および第2の前記偏光画像それぞれから得られる法線および視差に基づいて角膜半径を推定し、推定された前記角膜半径に基づいて前記眼における角膜の中心位置を推定する、(13)に記載の情報処理装置。
(15)
前記処理部は、前記検出対象に対する所定位置に固定された撮像デバイスから前記偏光画像を取得する、(1)~(14)のいずれか1つに記載の情報処理装置。
(16)
前記処理部は、表示デバイスに対する所定位置に固定された撮像デバイスから前記偏光画像を取得する、(1)~(14)のいずれか1つに記載の情報処理装置。
(17)
表示デバイスと、
前記表示デバイスに対して固定され、前記偏光画像を取得する撮像デバイスと、
をさらに備える、(1)~(16)のいずれか1つに記載の情報処理装置。
(18)
前記表示デバイスと前記撮像デバイスとは、前記検出対象に装着可能なウェアラブル装置を構成する、(17)に記載の情報処理装置。
(19)
視線の検出対象の眼が撮像された偏光画像に基づいて、前記検出対象の視線を検出するステップを有する、情報処理装置により実行される情報処理方法。
(20)
視線の検出対象の眼が撮像された偏光画像に基づいて、前記検出対象の視線を検出する機能を、コンピュータに実現させるためのプログラム。
102 撮像部
104 制御部
110 処理部
Claims (20)
- 視線の検出対象の眼が撮像された偏光画像に基づいて、前記検出対象の視線を検出する処理部を備える、情報処理装置。
- 前記処理部は、前記偏光画像に基づいて前記眼における角膜の中心位置を推定して、前記検出対象の視線を検出する、請求項1に記載の情報処理装置。
- 前記処理部は、前記偏光画像に基づき検出された前記眼における瞳孔の位置と、前記偏光画像とに基づいて、前記角膜の中心位置を推定する、請求項2に記載の情報処理装置。
- 前記処理部は、前記偏光画像から得られる法線に基づいて、前記検出対象の視線を検出する、請求項1に記載の情報処理装置。
- 前記処理部は、前記偏光画像から得られる法線に基づいて前記眼における角膜の中心位置を推定して、前記検出対象の視線を検出する、請求項4に記載の情報処理装置。
- 前記処理部は、前記偏光画像に基づき推定される前記角膜に対応する法線に基づいて、前記角膜の中心位置を推定する、請求項5に記載の情報処理装置。
- 前記処理部は、前記偏光画像に基づき検出された前記眼における瞳孔の位置と、前記偏光画像から得られる法線とに基づいて、前記角膜に対応する法線を推定する、請求項6に記載の情報処理装置。
- 前記処理部は、
推定された前記角膜の中心位置と前記角膜の半径とに基づいて、前記眼における瞳孔の中心位置を推定し、
推定された前記角膜の中心位置と、推定された前記瞳孔の中心位置とに基づいて、前記検出対象の視線に対応する光軸ベクトルを求め、前記検出対象の視線を検出する、請求項5に記載の情報処理装置。 - 前記処理部は、検出された前記眼における瞳孔の位置に基づいて、前記偏光画像から得られる複数の法線から、前記角膜に対応する法線を特定する、請求項7に記載の情報処理装置。
- 前記処理部は、検出された前記眼における瞳孔の位置および前記角膜の形状に基づいて、前記角膜に対応する法線を推定する、請求項9に記載の情報処理装置。
- 前記処理部は、キャリブレーション情報に基づき前記光軸ベクトルを補正し、前記検出対象の視線を検出する、請求項8に記載の情報処理装置。
- 前記処理部は、ステレオ画像を構成する第1の前記偏光画像および第2の前記偏光画像それぞれから得られる法線に基づいて、前記検出対象の視線を検出する、請求項1に記載の情報処理装置。
- 前記処理部は、第1の前記偏光画像および第2の前記偏光画像それぞれから得られる法線に基づいて前記眼における角膜の中心位置を推定して、前記検出対象の視線を検出する、請求項12に記載の情報処理装置。
- 前記処理部は、第1の前記偏光画像および第2の前記偏光画像それぞれから得られる法線および視差に基づいて角膜半径を推定し、推定された前記角膜半径に基づいて前記眼における角膜の中心位置を推定する、請求項13に記載の情報処理装置。
- 前記処理部は、前記検出対象に対する所定位置に固定された撮像デバイスから前記偏光画像を取得する、請求項1に記載の情報処理装置。
- 前記処理部は、表示デバイスに対する所定位置に固定された撮像デバイスから前記偏光画像を取得する、請求項1に記載の情報処理装置。
- 表示デバイスと、
前記表示デバイスに対して固定され、前記偏光画像を取得する撮像デバイスと、
をさらに備える、請求項1に記載の情報処理装置。 - 前記表示デバイスと前記撮像デバイスとは、前記検出対象に装着可能なウェアラブル装置を構成する、請求項17に記載の情報処理装置。
- 視線の検出対象の眼が撮像された偏光画像に基づいて、前記検出対象の視線を検出するステップを有する、情報処理装置により実行される情報処理方法。
- 視線の検出対象の眼が撮像された偏光画像に基づいて、前記検出対象の視線を検出する機能を、コンピュータに実現させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020187023877A KR20180121888A (ko) | 2016-03-23 | 2016-12-22 | 정보 처리 장치, 정보 처리 방법 및 프로그램 |
EP16895539.1A EP3434174A4 (en) | 2016-03-23 | 2016-12-22 | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM THEREOF |
US16/085,216 US10817053B2 (en) | 2016-03-23 | 2016-12-22 | Information processing apparatus and information processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016059122A JP2017169803A (ja) | 2016-03-23 | 2016-03-23 | 情報処理装置、情報処理方法、およびプログラム |
JP2016-059122 | 2016-03-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017163516A1 true WO2017163516A1 (ja) | 2017-09-28 |
Family
ID=59899893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/088300 WO2017163516A1 (ja) | 2016-03-23 | 2016-12-22 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10817053B2 (ja) |
EP (1) | EP3434174A4 (ja) |
JP (1) | JP2017169803A (ja) |
KR (1) | KR20180121888A (ja) |
WO (1) | WO2017163516A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019152929A (ja) * | 2018-02-28 | 2019-09-12 | パナソニックIpマネジメント株式会社 | 認証装置及び認証方法 |
US11776251B2 (en) * | 2018-09-14 | 2023-10-03 | Sony Interactive Entertainment Inc. | Information processing apparatus and object detection method |
US11326763B1 (en) | 2019-02-06 | 2022-05-10 | Apple Inc. | Light-emitting diodes with optical filters |
US11861941B1 (en) * | 2019-02-06 | 2024-01-02 | Apple Inc. | Eye camera systems with polarized light |
KR20220105194A (ko) * | 2021-01-18 | 2022-07-27 | 삼성디스플레이 주식회사 | 표시 장치 및 표시 장치 제어 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005287782A (ja) * | 2004-03-31 | 2005-10-20 | Topcon Corp | 光学系の位置合わせ装置及び方法、並びにこれを用いた三次元観察状態測定装置及び方法 |
JP2011224213A (ja) * | 2010-04-21 | 2011-11-10 | Olympus Corp | 頭部装着型瞳孔検出装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090275929A1 (en) * | 2008-04-30 | 2009-11-05 | Amo Development, Llc | System and method for controlling measurement in an eye during ophthalmic procedure |
US20110170061A1 (en) * | 2010-01-08 | 2011-07-14 | Gordon Gary B | Gaze Point Tracking Using Polarized Light |
US9330302B2 (en) * | 2014-02-26 | 2016-05-03 | Microsoft Technology Licensing, Llc | Polarized gaze tracking |
US9622654B2 (en) * | 2014-12-10 | 2017-04-18 | Telefonaktiebolaget Lm Ericsson (Publ) | Device for and method of corneal imaging |
US9904051B2 (en) * | 2015-10-23 | 2018-02-27 | Thalmic Labs Inc. | Systems, devices, and methods for laser eye tracking |
-
2016
- 2016-03-23 JP JP2016059122A patent/JP2017169803A/ja active Pending
- 2016-12-22 WO PCT/JP2016/088300 patent/WO2017163516A1/ja active Application Filing
- 2016-12-22 EP EP16895539.1A patent/EP3434174A4/en active Pending
- 2016-12-22 US US16/085,216 patent/US10817053B2/en active Active
- 2016-12-22 KR KR1020187023877A patent/KR20180121888A/ko active Search and Examination
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005287782A (ja) * | 2004-03-31 | 2005-10-20 | Topcon Corp | 光学系の位置合わせ装置及び方法、並びにこれを用いた三次元観察状態測定装置及び方法 |
JP2011224213A (ja) * | 2010-04-21 | 2011-11-10 | Olympus Corp | 頭部装着型瞳孔検出装置 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3434174A4 * |
Also Published As
Publication number | Publication date |
---|---|
KR20180121888A (ko) | 2018-11-09 |
US10817053B2 (en) | 2020-10-27 |
EP3434174A1 (en) | 2019-01-30 |
EP3434174A4 (en) | 2019-03-27 |
US20190079581A1 (en) | 2019-03-14 |
JP2017169803A (ja) | 2017-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017163516A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7136875B2 (ja) | 眼の特徴を用いる眼ポーズ識別 | |
EP3228238B1 (en) | Information processing device, information processing method, and program | |
US9750420B1 (en) | Facial feature selection for heart rate detection | |
US9785233B2 (en) | Systems and methods of eye tracking calibration | |
US20180267323A1 (en) | Information processing apparatus, information processing method, and program | |
JP6025690B2 (ja) | 情報処理装置および情報処理方法 | |
US20160225164A1 (en) | Automatic generation of virtual materials from real-world materials | |
JP6371849B2 (ja) | 画像位置合わせ装置、画像位置合わせ方法、および、画像位置合わせプログラム | |
CN109472189B (zh) | 瞳孔半径补偿 | |
US20150029322A1 (en) | Method and computations for calculating an optical axis vector of an imaged eye | |
CN107357429B (zh) | 用于确定视线的方法、设备和计算机可读存储介质 | |
Draelos et al. | Intel realsense= real low cost gaze | |
JP2016019194A (ja) | 画像処理装置、画像処理方法、および画像投影装置 | |
JP2019000136A (ja) | 視線計測装置及びプログラム | |
CN113227878A (zh) | 用于视线估计的方法和系统 | |
JP6191943B2 (ja) | 視線方向推定装置、視線方向推定装置および視線方向推定プログラム | |
JP2016173313A (ja) | 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム | |
US20190191994A1 (en) | Information processing apparatus, information processing method, and recording medium | |
WO2017130514A1 (ja) | 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
US20180028861A1 (en) | Information processing device and information processing method | |
US10866635B2 (en) | Systems and methods for capturing training data for a gaze estimation model | |
CN106663412B (zh) | 信息处理设备、信息处理方法及程序 | |
CN110998673A (zh) | 信息处理装置、信息处理方法和计算机程序 | |
Qiu et al. | Low-cost gaze and pulse analysis using realsense |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 20187023877 Country of ref document: KR Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2016895539 Country of ref document: EP |
|
ENP | Entry into the national phase |
Ref document number: 2016895539 Country of ref document: EP Effective date: 20181023 |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16895539 Country of ref document: EP Kind code of ref document: A1 |