JP2021082329A - 視標追跡システム - Google Patents
視標追跡システム Download PDFInfo
- Publication number
- JP2021082329A JP2021082329A JP2021021698A JP2021021698A JP2021082329A JP 2021082329 A JP2021082329 A JP 2021082329A JP 2021021698 A JP2021021698 A JP 2021021698A JP 2021021698 A JP2021021698 A JP 2021021698A JP 2021082329 A JP2021082329 A JP 2021082329A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- coordinate system
- respect
- optotype
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Abstract
Description
本特許出願は、2015年3月23日出願の米国特許仮出願第62/136,643号の優先権を主張し、その仮出願に関する。その米国仮特許出願は参照によりその全体が本明細書に援用される。
視線(line of sight)/注視線(line of gaze)/注視線(gazing line)/注視線(gaze line):ユーザの目およびユーザが見ている点を通って延びる想像線。
本明細書の以下の説明は、説明を単純にし一例に集中するために、主としてモニタである物体について行われるが、その説明はどの物体にも当てはまることが理解されよう。説明は、手術室の例も用いて行われるが、本発明は、物体に関して視標追跡を利用するどの環境にも応用可能である。
Claims (31)
- 物体上のユーザの注視点を評価するシステムであって、前記システムは、
少なくとも1つの視標追跡カメラおよび少なくとも1つの位置決めカメラであって、互いに関して固定された位置に配置されるように構成される、前記少なくとも1つの視標追跡カメラおよび前記少なくとも1つの位置決めカメラと、
前記ユーザの目のうちの少なくとも一方から角膜反射を生成するように構成される、少なくとも1つの光源と、
少なくとも1つのコンピュータと、
少なくとも1つの物体であって、前記少なくとも1つの物体の幾何学データは、前記少なくとも1つのコンピュータにとってアクセス可能な格納デバイスに格納される、前記少なくとも1つの物体と、
を備え、
前記少なくとも1つのコンピュータの任意の組合せは、
(a)前記少なくとも1つの視標追跡カメラから受信される少なくとも1つの画像に基づいて、座標系に関する前記ユーザの注視線を判定し、
(b)前記少なくとも1つの位置決めカメラから受信される画像に基づいて、前記座標系に関する前記少なくとも1つの物体の位置を判定し、
(c)前記注視線、前記少なくとも1つの物体の位置、および前記少なくとも1つの物体の幾何学データに基づいて、注視点を判定する、
ように構成される、システム。 - 前記少なくとも1つの物体は少なくとも2つの物体を含み、前記少なくとも2つの物体は、互いに関して固定された位置に配置されるように構成される、請求項1に記載のシステム。
- 前記少なくとも1つの物体はモニタであり、前記モニタは、少なくとも1つのマーカを表示するように構成される、請求項1に記載のシステム。
- 前記少なくとも1つの位置決めカメラは少なくとも2つの位置決めカメラを含み、前記少なくとも2つの位置決めカメラは、立体視法を用いて前記少なくとも1つの物体の位置を判定可能にするように構成される、請求項1に記載のシステム。
- 物体上のユーザの注視点を評価するシステムであって、前記システムは、
少なくとも1つの視標追跡カメラに関して固定される第1の座標系と関連する、少なくとも1つの視標追跡カメラと、
前記ユーザの目のうちの少なくとも一方から角膜反射を生成するように構成される、少なくとも1つの光源と、
少なくとも1つのコンピュータと、
少なくとも1つの物体であって、前記少なくとも1つの物体の幾何学データは、前記少なくとも1つのコンピュータにとってアクセス可能な格納デバイスに格納される、前記少なくとも1つの物体と、
前記少なくとも1つの物体に関して固定された位置に配置されるように構成される、少なくとも1つの位置決めカメラであって、
前記少なくとも1つの位置決めカメラに関して固定される第2の座標系と関連するように構成される、前記少なくとも1つの位置決めカメラと、
を備え、
前記少なくとも1つのコンピュータの任意の組合せは、
(a)前記少なくとも1つの視標追跡カメラから受信される少なくとも1つの画像に基づいて、前記第1の座標系に関する前記ユーザの注視線を判定し、
(b)前記少なくとも1つの位置決めカメラから受信される少なくとも1つの画像に基づいて、前記第2の座標系に関する前記少なくとも1つの視標追跡カメラの位置を判定し、そうすることで、一方の座標系の位置を他方の座標系において判定し、
(c)任意の座標系の前記注視線、任意の座標系の前記少なくとも1つの物体の位置、および前記少なくとも1つの物体の幾何学データに基づいて、注視点を判定する、
ように構成される、システム。 - 前記少なくとも1つの物体は少なくとも2つの物体を含み、前記少なくとも2つの物体は、互いに関して固定された位置に配置されるように構成される、請求項5に記載のシステム。
- 前記少なくとも1つの位置決めカメラは少なくとも2つの位置決めカメラを含み、前記少なくとも2つの位置決めカメラは、立体視法を用いて前記少なくとも1つの物体の位置を判定可能にするように構成される、請求項5に記載のシステム。
- 物体上のユーザの注視点を評価するシステムであって、前記システムは、
少なくとも1つの視標追跡カメラに関して固定される第1の座標系と関連する、前記少なくとも1つの視標追跡カメラ、前記ユーザの目のうちの少なくとも一方から角膜反射を生成するように構成される光源、および少なくとも1つのコンピュータを備える、視標追跡機と、
少なくとも1つの位置決めカメラに関して固定される第2の座標系と関連する、前記少なくとも1つの位置決めカメラと、
少なくとも1つの物体であって、前記少なくとも1つの物体の幾何学データは、前記少なくとも1つのコンピュータにとってアクセス可能な格納デバイスに格納される、少なくとも1つの物体と、
を備え、
前記少なくとも1つのコンピュータの任意の組合せは、
(a)前記少なくとも1つの視標追跡カメラから受信される画像に基づいて、前記第1の座標系に関する前記ユーザの注視線を判定し、
(b)前記少なくとも1つの位置決めカメラから受信される画像に基づいて、前記第2の座標系に関する前記少なくとも1つの視標追跡カメラの位置を判定し、そうすることで、一方の座標系の位置を他方の座標系において判定し、
(c)前記少なくとも1つの位置決めカメラからの前記画像および前記少なくとも1つの物体の前記格納される前記幾何学データに基づいて、前記第2の座標系に関する前記少なくとも1つの物体の位置を判定し、
(d)任意の座標系における前記注視線および任意の座標系における前記少なくとも1つの物体の位置に基づいて、注視点を判定する、
ように構成される、システム。 - 第1の位置決めカメラは、前記少なくとも1つの視標追跡カメラの位置を判定するように構成され、前記第1の位置決めカメラは、前記第1の位置決めカメラに関して固定される第2の座標系と関連し、第2の位置決めカメラは、前記少なくとも1つの物体の位置を判定するように構成され、前記第2の位置決めカメラは、前記第2の位置決めカメラに関して固定される第3の座標系と関連し、前記少なくとも1つの物体との、前記少なくとも1つの視標追跡機によって判定される注視線の交点は、前記第2の座標系と前記第3の座標系との間の変換に基づいて判定される、請求項8に記載のシステム。
- 前記少なくとも1つの物体は少なくとも2つの物体を含み、前記少なくとも2つの物体は、互いに関して固定された位置に配置されるように構成される、請求項8に記載のシステム。
- 前記少なくとも1つの物体はモニタであり、前記モニタは、少なくとも1つのマーカを表示するように構成される、請求項8に記載のシステム。
- 前記少なくとも1つの位置決めカメラは少なくとも2つの位置決めカメラを含み、前記少なくとも2つの位置決めカメラは、立体視法を用いて前記少なくとも1つの物体の位置を判定可能にするように構成される、請求項8に記載のシステム。
- ディスプレイ上のユーザの注視点を追跡するように構成される視標追跡機を較正して使用する方法であって、前記ディスプレイは、前記追跡のための前記視標追跡機に関して、較正位置とは異なる少なくとも1つの位置に位置決めされるように構成され、前記方法は、
前記ディスプレイを前記視標追跡機の近くに配置し、そうすることで、前記視標追跡機の注視範囲によってカバーされる領域全体をカバーするステップと、
前記ディスプレイと前記視標追跡機との互いに関する位置を判定するステップと、
前記ディスプレイ上に複数のターゲットを表示するステップであって、前記複数のターゲットはそれぞれ、前記視標追跡機と前記ディスプレイとの相対的位置に基づいて、第1の座標系におけるこのターゲットのための注視線の較正パラメータを生成し、前記複数のターゲットは、前記視標追跡機の前記注視範囲によってカバーされる前記領域をカバーする、ステップと、
前記較正データを格納するステップと、
前記ディスプレイおよび前記視標追跡機のうちの少なくとも一方を、互いに関する前記較正位置とは異なる利用位置に位置決めするステップと、
少なくとも1つの位置決めカメラを利用し、そうすることで、前記ディスプレイと前記視標追跡機との互いに関する位置を判定するステップと、
前記較正データに基づいて、前記第1の座標系における注視線を判定するステップと、
前記位置決めカメラからの少なくとも1つの画像に基づいて判定されるように、前記ディスプレイと前記視標追跡機との相対的位置に基づいて、任意の座標系における前記ディスプレイとの前記注視線の交点を判定し、そうすることで、前記ディスプレイ上に前記注視点を生成するステップと、
を含む、方法。 - 前記ディスプレイと前記視標追跡機との互いに関する位置を判定するステップは、位置決めカメラを用いて行われる、請求項13に記載の方法。
- ディスプレイと共に使用するための視標追跡機を較正する方法であって、前記視標追跡機および前記ディスプレイは、前記ディスプレイ上の注視点を追跡するために、少なくとも2つの異なる位置に互いに関して位置決めされるように構成され、前記方法は、
前記ディスプレイを第1の位置に配置し、そうすることで、前記視標追跡機の注視範囲によって利用可能な角度の少なくとも一部分をカバーするステップと、
前記ディスプレイと前記視標追跡機との互いに関する位置を判定するステップと、
前記ディスプレイ上に複数のターゲットを表示するステップであって、前記複数のターゲットはそれぞれ、前記視標追跡機と前記ディスプレイとの相対的位置に基づいて、第1の座標系におけるこのターゲットのための注視線の較正パラメータを生成し、前記複数のターゲットは、前記ディスプレイの前記領域の少なくとも一部分をカバーする、ステップと、
前記ディスプレイの別の位置のために上記のステップを少なくとも1回繰り返し、そうすることで、前記視標追跡機の注視範囲によって利用可能な追加の注視線を較正するステップと、
前記較正データを格納するステップと、
を含む、方法。 - 前記ディスプレイと前記視標追跡機との互いに関する位置を判定するステップは、位置決めカメラを用いて行われる、請求項15に記載の方法。
- 視標追跡機を較正する方法であって、前記方法は、
較正ターゲットに対するユーザの注意を引くステップと、
少なくとも1つの位置決めカメラおよび少なくとも1つのコンピュータを利用し、そうすることで、前記較正ターゲットと前記視標追跡機の座標系との互いに関する位置を判定するステップと、
第1の座標系における前記較正ターゲットに対する注視線の較正パラメータを判定するステップと、
上記のステップを繰り返し、そうすることで、注視範囲および較正ターゲットの分布の所望の部分を生成するステップと、
前記較正データを格納するステップと、
を含む、方法。 - 前記較正ターゲットは少なくとも1つのLEDを含む、請求項17に記載の方法。
- 前記ユーザの注意を引くステップは、所望のターゲットの前記少なくとも1つのLEDのうちの少なくとも1つをONにするステップと、他のターゲットの他のLEDをOFFにするステップとを含む、請求項18に記載の方法。
- ターゲットは、その少なくとも1つのLEDによって定められるON/OFFシーケンスパターン、色、および形状のいずれかによって区別される、請求項18に記載の方法。
- ターゲットの前記形状は、前記ターゲットを構成する前記少なくとも1つのLEDの配置によって判定され、前記配置は、空間分布、ON/OFFシーケンス、および色のいずれかを含む、請求項20に記載の方法。
- 前記較正ターゲットはアイテムを含む、請求項17に記載の方法。
- 前記ユーザの注意を引くステップは、所望のターゲットのアイテムを照明するステップを含む、請求項22に記載の方法。
- ターゲットは、照明光のON/OFFシーケンスパターン、色、および形状のいずれかによって区別される、請求項22に記載の方法。
- 前記ターゲットは、少なくとも1つのプロジェクタを用いて基板上に投影される、請求項17に記載の方法。
- 前記ユーザの注意を引くステップは、所望のターゲットを投影するステップを含む、請求項22に記載の方法。
- ターゲットは、前記プロジェクタのON/OFFシーケンスパターン、画像の色、および画像の形状のうちのいずれかによって区別される、請求項26に記載の方法。
- 前記較正の後に、前記視標追跡機の位置は、少なくとも1つのターゲットが前記較正中にターゲットを有しない前記注視範囲にある位置に収まるように変更され、前記方法はさらに、前記少なくとも1つのターゲットを用いて前記較正プロセスを繰り返すステップを含む、請求項17に記載の方法。
- 前記少なくとも1つの位置決めカメラは、前記ターゲットのうちの少なくとも一部分を取り込むように構成される、請求項17に記載の方法。
- コンピュータは、前記少なくとも1つの位置決めカメラから受信される少なくとも1つの画像、ならびに、前記少なくとも1つの位置決めカメラによって取り込まれるターゲットのうちの少なくとも一部分、および、前記少なくとも1つの位置決めカメラによって取り込まれない前記少なくとも1つのターゲットを含む、ターゲットのうちの少なくとも一部分の空間的配置のデータに基づいて、前記位置決めカメラによって取り込まれない少なくとも1つのターゲットと前記視標追跡機の座標系との互いに関する位置を判定するように構成される、請求項17に記載の方法。
- 視標追跡カメラと、
角膜反射を生成するように構成される少なくとも2つの光源と、
を備える、角膜反射を用いて使用する視標追跡機であって、
前記少なくとも2つの光源の少なくとも第1の光源および第2の光源は、位置が分かれるように構成され、それぞれが少なくとも1つの同じ注視線のための角膜反射を生成するように構成され、
前記第1の光源はONにされるように構成され、前記第2の光源はOFFにされるように構成され、
前記第1の光源の前記角膜反射が前記視標追跡機によって検出不能である場合は、前記第1の光源はOFFにされるように構成され、前記第2の光源はONにされるように構成される、
視標追跡機。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562136643P | 2015-03-23 | 2015-03-23 | |
US62/136,643 | 2015-03-23 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017549299A Division JP6839656B2 (ja) | 2015-03-23 | 2016-03-23 | 視標追跡システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021082329A true JP2021082329A (ja) | 2021-05-27 |
Family
ID=56978066
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017549299A Active JP6839656B2 (ja) | 2015-03-23 | 2016-03-23 | 視標追跡システム |
JP2021021698A Pending JP2021082329A (ja) | 2015-03-23 | 2021-02-15 | 視標追跡システム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017549299A Active JP6839656B2 (ja) | 2015-03-23 | 2016-03-23 | 視標追跡システム |
Country Status (5)
Country | Link |
---|---|
US (4) | US10761601B2 (ja) |
EP (1) | EP3274920A4 (ja) |
JP (2) | JP6839656B2 (ja) |
CN (1) | CN107533634A (ja) |
WO (1) | WO2016151581A1 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10445606B2 (en) * | 2015-10-08 | 2019-10-15 | Microsoft Technology Licensing, Llc | Iris recognition |
CN108765480B (zh) * | 2017-04-10 | 2022-03-15 | 钰立微电子股份有限公司 | 深度处理设备 |
US10304209B2 (en) | 2017-04-19 | 2019-05-28 | The Nielsen Company (Us), Llc | Methods and systems to increase accuracy of eye tracking |
DE102017114450B4 (de) * | 2017-06-29 | 2020-10-08 | Grammer Aktiengesellschaft | Vorrichtung und Verfahren zum Abbilden von Bereichen |
CN107633206B (zh) * | 2017-08-17 | 2018-09-11 | 平安科技(深圳)有限公司 | 眼球动作捕捉方法、装置及存储介质 |
CN111201502A (zh) * | 2017-10-10 | 2020-05-26 | 聂小春 | 用于校准眼睛跟踪系统的系统和方法 |
CN108196676B (zh) * | 2018-01-02 | 2021-04-13 | 联想(北京)有限公司 | 跟踪识别方法及系统 |
CN110363555B (zh) * | 2018-04-10 | 2024-04-09 | 释空(上海)品牌策划有限公司 | 基于视线跟踪视觉算法的推荐方法和装置 |
KR102503976B1 (ko) * | 2018-07-02 | 2023-02-28 | 한국전자통신연구원 | 증강현실 영상 보정 장치 및 방법 |
US10884492B2 (en) | 2018-07-20 | 2021-01-05 | Avegant Corp. | Relative position based eye-tracking system |
TWI704501B (zh) * | 2018-08-09 | 2020-09-11 | 宏碁股份有限公司 | 可由頭部操控的電子裝置與其操作方法 |
EP3667462B1 (en) * | 2018-12-11 | 2022-07-13 | Tobii AB | Screen position estimation |
US11024038B2 (en) * | 2019-01-31 | 2021-06-01 | Comcast Cable Communications, Llc | Display device motion exclusion from home surveillance motion detection |
CN110058693B (zh) * | 2019-04-23 | 2022-07-15 | 北京七鑫易维科技有限公司 | 数据采集方法、装置、电子设备及存储介质 |
US10969863B2 (en) * | 2019-05-08 | 2021-04-06 | International Business Machines Corporation | Configurable sensor array for a multi-target environment |
US11850730B2 (en) * | 2019-07-17 | 2023-12-26 | Asensus Surgical Us, Inc. | Double eye tracker configuration for a robot-assisted surgical system |
WO2021134160A1 (en) * | 2019-12-30 | 2021-07-08 | Fresenius Medical Care Deutschland Gmbh | Method for driving a display, tracking monitor and storage medium |
CN111311494B (zh) * | 2020-02-13 | 2023-04-18 | Oppo广东移动通信有限公司 | 眼球跟踪定位精度确定方法及相关产品 |
WO2023008023A1 (ja) * | 2021-07-29 | 2023-02-02 | 株式会社Jvcケンウッド | 視線検出装置、視線検出方法及び視線検出プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09251539A (ja) * | 1996-03-18 | 1997-09-22 | Nissan Motor Co Ltd | 視線計測装置 |
US6373961B1 (en) * | 1996-03-26 | 2002-04-16 | Eye Control Technologies, Inc. | Eye controllable screen pointer |
US20110310238A1 (en) * | 2010-06-17 | 2011-12-22 | Electronics And Telecommunications Research Institute | Apparatus and method for inputting coordinates using eye tracking |
JP2014504762A (ja) * | 2011-01-19 | 2014-02-24 | マチック ラブズ | 視線方向を求めるための方法とその装置 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4720189A (en) * | 1986-01-07 | 1988-01-19 | Northern Telecom Limited | Eye-position sensor |
US5231674A (en) | 1989-06-09 | 1993-07-27 | Lc Technologies, Inc. | Eye tracking method and apparatus |
US6018340A (en) * | 1997-01-27 | 2000-01-25 | Microsoft Corporation | Robust display management in a multiple monitor environment |
GB0119859D0 (en) * | 2001-08-15 | 2001-10-10 | Qinetiq Ltd | Eye tracking system |
US8793620B2 (en) * | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
US8803816B2 (en) * | 2008-09-08 | 2014-08-12 | Qualcomm Incorporated | Multi-fold mobile device with configurable interface |
JP5456791B2 (ja) | 2009-01-26 | 2014-04-02 | トビー・テクノロジー・アーベー | 空間領域の映像に対する人の注視点を決定するためのシステム及びその方法 |
FR2945333B1 (fr) * | 2009-05-05 | 2015-08-07 | Air Liquide | Soupape a soufflet adaptee pour usage en cryogenie |
US8320623B2 (en) * | 2009-06-17 | 2012-11-27 | Lc Technologies, Inc. | Systems and methods for 3-D target location |
CN101699510A (zh) * | 2009-09-02 | 2010-04-28 | 北京科技大学 | 视线追踪系统中的基于粒子滤波的瞳孔跟踪方法 |
WO2011117776A1 (en) * | 2010-03-22 | 2011-09-29 | Koninklijke Philips Electronics N.V. | System and method for tracking the point of gaze of an observer |
JP5325181B2 (ja) * | 2010-08-26 | 2013-10-23 | 株式会社日立製作所 | コンテンツ表示制御方法、コンテンツ表示制御装置およびコンテンツ表示システム |
US9484046B2 (en) * | 2010-11-04 | 2016-11-01 | Digimarc Corporation | Smartphone-based methods and systems |
US8885877B2 (en) * | 2011-05-20 | 2014-11-11 | Eyefluence, Inc. | Systems and methods for identifying gaze tracking scene reference locations |
CN102325262B (zh) * | 2011-09-26 | 2015-10-21 | 比比威株式会社 | 立体摄像装置控制系统 |
US9345957B2 (en) * | 2011-09-30 | 2016-05-24 | Microsoft Technology Licensing, Llc | Enhancing a sport using an augmented reality display |
CN102547123B (zh) * | 2012-01-05 | 2014-02-26 | 天津师范大学 | 基于人脸识别技术的自适应视线跟踪系统及其跟踪方法 |
US9317113B1 (en) * | 2012-05-31 | 2016-04-19 | Amazon Technologies, Inc. | Gaze assisted object recognition |
CN104244807B (zh) | 2012-07-31 | 2016-10-19 | 国立研究开发法人科学技术振兴机构 | 注视点检测装置以及注视点检测方法 |
EP2709060B1 (en) * | 2012-09-17 | 2020-02-26 | Apple Inc. | Method and an apparatus for determining a gaze point on a three-dimensional object |
US9612656B2 (en) * | 2012-11-27 | 2017-04-04 | Facebook, Inc. | Systems and methods of eye tracking control on mobile device |
EP2976764A4 (en) | 2013-03-23 | 2016-11-30 | Controlrad Systems Inc | OPERATING ROOM AREA |
US9480397B2 (en) * | 2013-09-24 | 2016-11-01 | Sony Interactive Entertainment Inc. | Gaze tracking variations using visible lights or dots |
CN103761519B (zh) * | 2013-12-20 | 2017-05-17 | 哈尔滨工业大学深圳研究生院 | 一种基于自适应校准的非接触式视线追踪方法 |
US9244539B2 (en) * | 2014-01-07 | 2016-01-26 | Microsoft Technology Licensing, Llc | Target positioning with gaze tracking |
CN106662917B (zh) * | 2014-04-11 | 2020-06-12 | 脸谱科技有限责任公司 | 眼睛跟踪校准系统和方法 |
US9678567B2 (en) * | 2014-07-16 | 2017-06-13 | Avaya Inc. | Indication of eye tracking information during real-time communications |
WO2016075532A1 (en) * | 2014-11-14 | 2016-05-19 | The Eye Tribe Aps | Dynamic eye tracking calibration |
US10213105B2 (en) * | 2014-12-11 | 2019-02-26 | AdHawk Microsystems | Eye-tracking system and method therefor |
-
2016
- 2016-03-23 CN CN201680023197.8A patent/CN107533634A/zh active Pending
- 2016-03-23 WO PCT/IL2016/050308 patent/WO2016151581A1/en active Application Filing
- 2016-03-23 JP JP2017549299A patent/JP6839656B2/ja active Active
- 2016-03-23 EP EP16767873.9A patent/EP3274920A4/en not_active Withdrawn
- 2016-03-23 US US15/559,050 patent/US10761601B2/en active Active
-
2019
- 2019-01-24 US US16/255,908 patent/US10948984B2/en active Active
-
2021
- 2021-01-26 US US17/158,176 patent/US11269412B2/en active Active
- 2021-02-15 JP JP2021021698A patent/JP2021082329A/ja active Pending
-
2022
- 2022-01-31 US US17/588,428 patent/US20220155862A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09251539A (ja) * | 1996-03-18 | 1997-09-22 | Nissan Motor Co Ltd | 視線計測装置 |
US6373961B1 (en) * | 1996-03-26 | 2002-04-16 | Eye Control Technologies, Inc. | Eye controllable screen pointer |
US20110310238A1 (en) * | 2010-06-17 | 2011-12-22 | Electronics And Telecommunications Research Institute | Apparatus and method for inputting coordinates using eye tracking |
JP2014504762A (ja) * | 2011-01-19 | 2014-02-24 | マチック ラブズ | 視線方向を求めるための方法とその装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190171286A1 (en) | 2019-06-06 |
JP2018512665A (ja) | 2018-05-17 |
US10761601B2 (en) | 2020-09-01 |
WO2016151581A1 (en) | 2016-09-29 |
US10948984B2 (en) | 2021-03-16 |
US11269412B2 (en) | 2022-03-08 |
EP3274920A4 (en) | 2018-11-07 |
US20220155862A1 (en) | 2022-05-19 |
CN107533634A (zh) | 2018-01-02 |
US20180074581A1 (en) | 2018-03-15 |
US20210149486A1 (en) | 2021-05-20 |
EP3274920A1 (en) | 2018-01-31 |
JP6839656B2 (ja) | 2021-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6839656B2 (ja) | 視標追跡システム | |
JP6690041B2 (ja) | 三次元物体上の注視点決定方法及び装置 | |
US11763531B2 (en) | Surgeon head-mounted display apparatuses | |
US10448003B2 (en) | System and method for triangulation-based depth and surface visualization | |
US20200363867A1 (en) | Blink-based calibration of an optical see-through head-mounted display | |
Cutolo et al. | Software framework for customized augmented reality headsets in medicine | |
JP2020516090A (ja) | ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング | |
JP2003233031A (ja) | 立体観察装置 | |
JP2006258798A (ja) | 改良された形状特徴化のためのデバイスおよび方法 | |
JP2022513013A (ja) | 複合現実のための仮想オブジェクトの体系的配置 | |
WO2019213432A1 (en) | Systems and methods for measuring a distance using a stereoscopic endoscope | |
Gard et al. | Image-based measurement by instrument tip tracking for tympanoplasty using digital surgical microscopy | |
JP6430813B2 (ja) | 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置 | |
WO2022133049A1 (en) | Systems and methods for registering a 3d representation of a patient with a medical device for patient alignment | |
EP4322114A1 (en) | Projective bisector mirror | |
US20240115325A1 (en) | Camera tracking system for computer assisted surgery navigation | |
JP2012173587A (ja) | 観察位置追従装置及び観察位置追従方法 | |
Nysjö | Rendering Software for Multiple Projectors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210315 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221011 |