JP2022542490A - スマートグラスの視線トラッキングシステムおよびその方法 - Google Patents
スマートグラスの視線トラッキングシステムおよびその方法 Download PDFInfo
- Publication number
- JP2022542490A JP2022542490A JP2022521366A JP2022521366A JP2022542490A JP 2022542490 A JP2022542490 A JP 2022542490A JP 2022521366 A JP2022521366 A JP 2022521366A JP 2022521366 A JP2022521366 A JP 2022521366A JP 2022542490 A JP2022542490 A JP 2022542490A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- user
- input
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000004984 smart glass Substances 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims description 27
- 210000001747 pupil Anatomy 0.000 claims abstract description 39
- 238000007667 floating Methods 0.000 claims description 23
- 210000001508 eye Anatomy 0.000 claims description 22
- 210000003205 muscle Anatomy 0.000 claims description 18
- 230000004397 blinking Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 241000287181 Sturnus vulgaris Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000193 eyeblink Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 238000002432 robotic surgery Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 230000008733 trauma Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
Claims (19)
- スマートグラスに内蔵された少なくとも1つのセンサーによって使用者の瞳孔をセンシングする瞳孔センシング部と、
複数のターゲットオブジェクトがフローティングされるスマートレンズを含むディスプレイ部と、
少なくとも1つの感知センサーを介して視線をトラッキングし、前記複数のターゲットオブジェクトに対する前記使用者の視線状態情報を取得する視線トラッキング部、および
前記視線状態情報に基づいて前記複数のターゲットオブジェクトのうちから前記使用者の視線が一定時間以上留まる特定のオブジェクトを入力オブジェクトとして選択した後、入力を行う入力部を含み、
前記入力オブジェクトは、前記使用者の視線状態情報に基づいて大きさ、色および移動方向のうちの少なくとも1つが変化する視線トラッキングシステム。 - 前記視線状態情報は、前記使用者の瞳孔の動きおよび前記使用者の目の開け閉じを含み、前記使用者の視線状態情報に基づいて前記入力オブジェクトが決定される請求項1に記載の視線トラッキングシステム。
- 前記ターゲットオブジェクトは、子音、母音、単語およびイメージのうちのいずれか1つを含む請求項1に記載の視線トラッキングシステム。
- 前記スマートレンズは、中心点を基準に4象限(four-quadrant)に分けられ、前記4象限の各領域には前記ターゲットオブジェクトが少なくとも1つずつフローティングされる請求項1に記載の視線トラッキングシステム。
- 前記4象限の各領域にフローティングされる前記ターゲットオブジェクトは、1サイクル(cycle)に複数が一度にフローティングされるか、または複数のサイクルにわたって順次的にフローティングされる請求項4に記載のスマートグラスの視線トラッキングシステム。
- 前記ターゲットオブジェクトは、前記スマートレンズの中心点を基準として互いに異なる方向にフローティングされ、前記方向は対角線方向、時計方向、反時計方向および渦巻き方向のうちの少なくとも1つを含む請求項1に記載の視線トラッキングシステム。
- 前記ターゲットオブジェクトは、前記スマートレンズの一側から他側に並んでフローティングされる請求項1に記載の視線トラッキングシステム。
- 前記ターゲットオブジェクトは、自動推薦単語を含み、前記自動推薦単語は、前記スマートレンズに1つずつフローティングされるか、またはリスト形態でポップアップされて表示される請求項1に記載の視線トラッキングシステム。
- 前記自動推薦単語は、前記使用者の関心度に基づいて差別的な速度でフローティングされ、
前記関心度は前記使用者によって予め設定された関心項目、前記使用者の業務分野および前記ターゲットオブジェクトに対する前記使用者の入力頻度のうちのいずれか1つによって決定される請求項8に記載の視線トラッキングシステム。 - 前記視線トラッキング部からトラッキングされた視線トラッキングデータに基づいて前記使用者の視線範囲を設定する視線範囲設定部をさらに含み、
前記視線範囲設定部は、前記4象限のうちの前記使用者の視線に頻繁にさらされる少なくとも2つの領域を含む請求項5に記載の視線トラッキングシステム。 - 前記ディスプレイ部は、前記視線範囲領域を除いた領域よりも前記視線範囲領域に前記ターゲットオブジェクトをより多くフローティングする請求項10に記載の視線トラッキングシステム。
- 前記ディスプレイ部は、前記視線範囲領域内で少なくとも2つの同じターゲットオブジェクトを前記スマートレンズの互いに異なる領域に同時にフローティングする請求項10に記載の視線トラッキングシステム。
- 瞳孔センシング部によって使用者の瞳孔をセンシングする段階と、
視線トラッキング部によってディスプレイ部にフローティングされる複数のターゲットオブジェクトに対する使用者の視線をトラッキングする段階と、
前記複数のターゲットオブジェクトに対する前記使用者の視線状態情報を取得する段階、および
入力部によって前記複数のターゲットオブジェクトのうちの前記使用者の視線が一定時間以上留まる特定のオブジェクトが前記使用者によって入力オブジェクトに決定されたものと把握して入力として処理する段階が含み、
前記入力オブジェクトは、前記使用者の視線状態情報に基づいて大きさ、色および移動方向のうちの少なくとも1つが変化する視線トラッキング方法。 - 前記入力オブジェクトは、前記ディスプレイ部の中心点を基準として対角線方向、時計方向、反時計方向および渦巻き方向のうちの少なくとも一方向にフローティングされる請求項13に記載の視線トラッキング方法。
- 前記ターゲットオブジェクトに対して前記使用者の視線が少なくとも2秒留まる場合に前記入力オブジェクトとして選択し、選択された入力オブジェクトに対して前記使用者の目が少なくとも2回瞬くか、特定の単一筋肉または筋肉群の特異的な動きがある場合に選択された入力オブジェクトに対応する情報が入力される請求項13に記載の視線トラッキング方法。
- 前記使用者の視線が前記ターゲットオブジェクトに少なくとも2秒留まる場合は、前記ターゲットオブジェクトの周辺に視線が留まって前記ターゲットオブジェクトの動き経路に基づいて2秒以上追跡する場合、または前記ターゲットオブジェクトの周辺に視線が留まって前記ターゲットオブジェクトに対する追跡偏差角が35以上である場合を含む請求項15に記載の視線トラッキング方法。
- 前記ターゲットオブジェクトの周辺は前記ターゲットオブジェクトの流動偏差角が3β以下である請求項16に記載の視線トラッキング方法。
- 前記選択された入力オブジェクトに対して入力を決定する場合は、
前記ターゲットオブジェクトの動き経路に基づいて1秒以上前記ターゲットオブジェクトを追跡し、前記ターゲットオブジェクトの動き予想経路上で偏差角45以上になる経路まで視線を予め動かす場合を含む請求項13に記載の視線トラッキング方法。 - 瞳孔センシング部によって使用者の瞳孔をセンシングし、
視線トラッキング部によってディスプレイ部にフローティングされる複数のターゲットオブジェクトに対する使用者の視線をトラッキングし、
前記複数のターゲットオブジェクトに対する前記使用者の視線状態情報を取得し、
入力部によって前記複数のターゲットオブジェクトのうちの前記使用者の視線が一定時間以上留まる特定のオブジェクトが前記使用者によって入力オブジェクトに決定されたものと把握して入力として処理し、前記入力オブジェクトは、前記使用者の視線状態情報に基づいて大きさ、色および移動方向のうちの少なくとも1つを変化させる命令語を保存するコンピュータ判読可能な記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2019-0125447 | 2019-10-10 | ||
KR1020190125447A KR102128894B1 (ko) | 2019-10-10 | 2019-10-10 | 스마트 안경의 시선 트래킹 시스템 및 그 방법 |
PCT/KR2020/013858 WO2021071335A1 (ko) | 2019-10-10 | 2020-10-12 | 스마트 안경의 시선 트래킹 시스템 및 그 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022542490A true JP2022542490A (ja) | 2022-10-03 |
JP7209128B2 JP7209128B2 (ja) | 2023-01-19 |
Family
ID=71601734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022521366A Active JP7209128B2 (ja) | 2019-10-10 | 2020-10-12 | スマートグラスの視線トラッキングシステムおよびその方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11808940B2 (ja) |
EP (1) | EP4043999A4 (ja) |
JP (1) | JP7209128B2 (ja) |
KR (1) | KR102128894B1 (ja) |
CN (1) | CN114600031A (ja) |
WO (1) | WO2021071335A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102128894B1 (ko) | 2019-10-10 | 2020-07-01 | 주식회사 메디씽큐 | 스마트 안경의 시선 트래킹 시스템 및 그 방법 |
KR102541538B1 (ko) * | 2020-12-29 | 2023-06-12 | 서울대학교산학협력단 | 감염병 예찰을 위한 스마트 디바이스 |
KR102462144B1 (ko) | 2021-01-21 | 2022-11-04 | 주식회사 증강지능 | 튜터링을 위해 혼합현실 컨텐츠를 제공하는 인공지능 챗봇 시스템 |
WO2024075947A1 (ko) * | 2022-10-04 | 2024-04-11 | 삼성전자 주식회사 | 객체 검색을 위한 이미지 쿼리를 생성하는 전자 장치 및 전자 장치의 동작 방법 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1173274A (ja) * | 1997-08-27 | 1999-03-16 | Canon Inc | 視線入力意思伝達装置、方法および記憶媒体 |
JP2017058971A (ja) * | 2015-09-16 | 2017-03-23 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
JP2017526078A (ja) * | 2014-05-09 | 2017-09-07 | グーグル インコーポレイテッド | 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法 |
US20180074583A1 (en) * | 2015-06-17 | 2018-03-15 | Visualcamp Co., Ltd. | Input device using gaze tracking |
JP2018530798A (ja) * | 2015-08-15 | 2018-10-18 | アイフルエンス, インコーポレイテッドEyefluence, Inc. | 実在オブジェクトおよび仮想オブジェクトと対話するための生体力学に基づく視覚信号用のシステムおよび方法 |
JP2019057057A (ja) * | 2017-09-20 | 2019-04-11 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6943754B2 (en) * | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
CN102193641B (zh) * | 2010-03-09 | 2014-06-18 | 阿里巴巴集团控股有限公司 | 字符输入过程中的待选字符显示方法及装置 |
CA2835120C (en) * | 2011-05-06 | 2019-05-28 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
US20120327116A1 (en) * | 2011-06-23 | 2012-12-27 | Microsoft Corporation | Total field of view classification for head-mounted display |
JP2013196158A (ja) * | 2012-03-16 | 2013-09-30 | Sony Corp | 制御装置、電子機器、制御方法、及びプログラム |
US9041741B2 (en) * | 2013-03-14 | 2015-05-26 | Qualcomm Incorporated | User interface for a head mounted display |
US10152495B2 (en) * | 2013-08-19 | 2018-12-11 | Qualcomm Incorporated | Visual search in real world using optical see-through head mounted display with augmented reality and user interaction tracking |
WO2015127325A1 (en) * | 2014-02-21 | 2015-08-27 | Drnc Holdings, Inc. | Methods for facilitating entry of user input into computing devices |
KR101671837B1 (ko) | 2014-05-20 | 2016-11-16 | 주식회사 비주얼캠프 | 시선 추적형 입력 장치 |
US9706910B1 (en) * | 2014-05-29 | 2017-07-18 | Vivid Vision, Inc. | Interactive system for vision assessment and correction |
CN107850939A (zh) * | 2015-03-10 | 2018-03-27 | 艾弗里协助通信有限公司 | 用于通过眼睛反馈实现通信的系统和方法 |
KR102462365B1 (ko) | 2016-02-29 | 2022-11-04 | 삼성전자주식회사 | 사용자 데모그래픽 정보 및 콘텍스트 정보에 기초한 텍스트 입력 예측 방법 및 장치 |
KR101671839B1 (ko) * | 2016-09-01 | 2016-11-16 | 주식회사 비주얼캠프 | 시선 추적형 입력 장치 |
KR101993057B1 (ko) * | 2017-12-05 | 2019-06-25 | 순천향대학교 산학협력단 | 안구 움직임 인식을 이용한 안전한 비밀번호 입력 장치 및 방법 |
KR102128894B1 (ko) * | 2019-10-10 | 2020-07-01 | 주식회사 메디씽큐 | 스마트 안경의 시선 트래킹 시스템 및 그 방법 |
-
2019
- 2019-10-10 KR KR1020190125447A patent/KR102128894B1/ko active IP Right Grant
-
2020
- 2020-10-12 US US17/767,733 patent/US11808940B2/en active Active
- 2020-10-12 EP EP20875416.8A patent/EP4043999A4/en active Pending
- 2020-10-12 JP JP2022521366A patent/JP7209128B2/ja active Active
- 2020-10-12 CN CN202080070347.7A patent/CN114600031A/zh active Pending
- 2020-10-12 WO PCT/KR2020/013858 patent/WO2021071335A1/ko unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1173274A (ja) * | 1997-08-27 | 1999-03-16 | Canon Inc | 視線入力意思伝達装置、方法および記憶媒体 |
JP2017526078A (ja) * | 2014-05-09 | 2017-09-07 | グーグル インコーポレイテッド | 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法 |
US20180074583A1 (en) * | 2015-06-17 | 2018-03-15 | Visualcamp Co., Ltd. | Input device using gaze tracking |
JP2018530798A (ja) * | 2015-08-15 | 2018-10-18 | アイフルエンス, インコーポレイテッドEyefluence, Inc. | 実在オブジェクトおよび仮想オブジェクトと対話するための生体力学に基づく視覚信号用のシステムおよび方法 |
JP2017058971A (ja) * | 2015-09-16 | 2017-03-23 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
JP2019057057A (ja) * | 2017-09-20 | 2019-04-11 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN114600031A (zh) | 2022-06-07 |
EP4043999A4 (en) | 2023-11-08 |
WO2021071335A1 (ko) | 2021-04-15 |
EP4043999A1 (en) | 2022-08-17 |
JP7209128B2 (ja) | 2023-01-19 |
KR102128894B1 (ko) | 2020-07-01 |
US20220413285A1 (en) | 2022-12-29 |
US11808940B2 (en) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7209128B2 (ja) | スマートグラスの視線トラッキングシステムおよびその方法 | |
US20240138918A1 (en) | Systems and methods for augmented reality guidance | |
US10082940B2 (en) | Text functions in augmented reality | |
KR102196975B1 (ko) | 실제 객체 및 가상 객체와 상호작용하기 위한 생체기계적 기반의 안구 신호를 위한 시스템 및 방법 | |
Vatavu | Visual impairments and mobile touchscreen interaction: state-of-the-art, causes of visual impairment, and design guidelines | |
US20210303107A1 (en) | Devices, methods, and graphical user interfaces for gaze-based navigation | |
Zhao et al. | Designing and evaluating a customizable head-mounted vision enhancement system for people with low vision | |
CN114546102B (zh) | 眼动追踪滑行输入方法、系统、智能终端及眼动追踪装置 | |
US20230336865A1 (en) | Device, methods, and graphical user interfaces for capturing and displaying media | |
US20240094882A1 (en) | Gestures for selection refinement in a three-dimensional environment | |
CN117008731A (zh) | 用于导航用户界面的方法 | |
Lander et al. | hEYEbrid: A hybrid approach for mobile calibration-free gaze estimation | |
US11640200B2 (en) | Gaze-contingent screen magnification control | |
US20240028177A1 (en) | Devices, methods, and graphical user interfaces for interacting with media and three-dimensional environments | |
Jota et al. | Palpebrae superioris: Exploring the design space of eyelid gestures | |
US20230100689A1 (en) | Methods for interacting with an electronic device | |
US20240103678A1 (en) | Devices, methods, and graphical user interfaces for interacting with extended reality experiences | |
Eidam et al. | Towards regaining mobility through virtual presence for patients with locked-in syndrome | |
Zhang | Eye tracking and gaze interface design for pervasive displays | |
US20240104861A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments | |
US20240152244A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments | |
Imabuchi et al. | Visible-spectrum remote eye tracker for gaze communication | |
US20240104873A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments | |
US20240152245A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments | |
US20240104843A1 (en) | Methods for depth conflict mitigation in a three-dimensional environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220609 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220609 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7209128 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |