JP7209128B2 - スマートグラスの視線トラッキングシステムおよびその方法 - Google Patents

スマートグラスの視線トラッキングシステムおよびその方法 Download PDF

Info

Publication number
JP7209128B2
JP7209128B2 JP2022521366A JP2022521366A JP7209128B2 JP 7209128 B2 JP7209128 B2 JP 7209128B2 JP 2022521366 A JP2022521366 A JP 2022521366A JP 2022521366 A JP2022521366 A JP 2022521366A JP 7209128 B2 JP7209128 B2 JP 7209128B2
Authority
JP
Japan
Prior art keywords
user
line
sight
input
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022521366A
Other languages
English (en)
Other versions
JP2022542490A (ja
Inventor
ソンイル イン
スンチュン イム
Original Assignee
メディシンキュー カンパニー,リミティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by メディシンキュー カンパニー,リミティド filed Critical メディシンキュー カンパニー,リミティド
Publication of JP2022542490A publication Critical patent/JP2022542490A/ja
Application granted granted Critical
Publication of JP7209128B2 publication Critical patent/JP7209128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、視線トラッキングシステムに関し、より詳細にはスマートグラスを用いて、改善されたターゲット検出精度と作業便宜性が増大した視線トラッキングシステムに関する。
最近、仮想現実(Virtual Reality、「VR」)、拡張現実(Augmented Reality、「AR」)、または複合現実(Mixed Reality、「MR」)の応用分野として医療およびヘルスケアが脚光を浴びている。高齢化時代の到来と競争深化による心理疾患など医療サービスの需要増加に対応するための医療専門家の育成および心理治療の代案として、スマートグラスを活用したVR、ARおよびMR技術が浮上している。特に、従来にはトラウマ治療に制限的に活用していたことから抜け出して、VRは手術、治療、リハビリなど医療の全領域に適用範囲が拡大している。VRを利用すれば、仮想患者や臓器を具現して修練教育が可能であり、医療スタッフが手術前に適切な計画を立てて事前にテストすることができる。
ただし、このようなVR、AR、MR技術は、一般的に入力が非常に不便である。一部の音声認識を使用することもできるが、視覚的な情報を活用して入力する既存のコンピュータや携帯電話などの入力に比べて、VR、AR、MR技術の入力手段は非常に制限的である。医療スタッフがロボット手術、遠隔手術などの治療の際、患者の状態参照のためにカルテや患者のX線写真ファイルなどの必要な情報を検索したり、簡単な文字入力事項などを入力して処理したり、機器を制御しなければならない場合がしばしば発生するが、既存のVR、AR、MRで提供する使用者インターフェースだけではかなり不便な場合が多い。
したがって、医療用機器でVR、AR、MR機器を用いる際に医療スタッフが不便なく簡単な方法で文字入力または機器制御を行うことができる使用者インターフェースが切実に要求されていた。
一方、発明の背景となる技術は、本発明に対する理解をより容易にするために作成された。発明の背景となる技術に記載された事項が先行技術として存在すると認めるものと理解されてはならない。
本発明が解決しようとする課題は、使用者の視線に応じて入力されるオブジェクトの大きさ、形態および移動方向を変化させることによって、使用者の作業の便宜性を増大させることができるスマートグラスの視線トラッキングシステムを提供することである。
また、本発明が解決しようとする課題は、スマートレンズ内に使用者の視線範囲を設定することによって、使用者の入力の精度および凝視の精度を向上させることができるスマートグラスの視線トラッキングシステムを提供することである。
また、本発明が解決しようとする課題は、入力されたオブジェクトに基づいて自動推薦単語を提供することによって、使用者の作業速度を効果的に短縮させることができるスマートグラスの視線トラッキングシステムを提供することである。
本発明の課題は、以上で言及した課題に制限されず、言及されていない他の課題は以下の記載から当業者に明確に理解されるであろう。
前述したような課題を解決するために、本発明の実施形態に係るスマートグラスの視線トラッキングシステムは、スマートグラスに内蔵された少なくとも1つのセンサーによって使用者の瞳孔をセンシングする瞳孔センシング部、複数のターゲットオブジェクトがフローティングされるスマートレンズを含むディスプレイ部、少なくとも1つの感知センサーを介して視線をトラッキングし、複数のターゲットオブジェクトに対する使用者の視線状態情報を取得する視線トラッキング部、および視線状態情報に基づいて複数のターゲットオブジェクトのうちから使用者の視線が一定時間以上留まる特定のオブジェクトを入力オブジェクトとして選択した後、入力を行う入力部を含み、入力オブジェクトは、使用者の視線状態情報に基づいて大きさ、色および移動方向のうちの少なくとも1つが変化することができる。
また、視線状態情報は、使用者の瞳孔の動きおよび使用者の目の開け閉じを含み、使用者の視線状態情報に基づいて入力オブジェクトが決定されることができる。
また、ターゲットオブジェクトは、子音、母音、単語およびイメージのうちのいずれか1つを含むことができる。
また、スマートレンズは、中心点を基準に4象限(four-quadrant)に分けられ、4象限の各領域にはターゲットオブジェクトが少なくとも1つずつフローティングされ得る。
また、4象限の各領域にフローティングされるターゲットオブジェクトは、1サイクル(cycle)に複数が一度にフローティングされるか、または複数のサイクルにわたって順次的にフローティングされ得る。
また、ターゲットオブジェクトは、スマートレンズの中心点を基準として互いに異なる方向にフローティングされ、方向は対角線方向、時計方向、反時計方向および渦巻き方向のうちの少なくとも1つを含むことができる。
また、ターゲットオブジェクトは、スマートレンズの一側から他側に並んでフローティングされ得る。
また、ターゲットオブジェクトは、自動推薦単語を含み、自動推薦単語は、スマートレンズに1つずつフローティングされるか、またはリスト形態でポップアップされて表示されることができる。
また、自動推薦単語は、使用者の関心度に基づいて差別的な速度でフローティングされ、関心度は使用者によって予め設定された関心項目、使用者の業務分野およびターゲットオブジェクトに対する使用者の入力頻度のうちのいずれか1つによって決定されることができる。
また、視線トラッキング部からトラッキングされた視線トラッキングデータに基づいて使用者の視線範囲を設定する視線範囲設定部をさらに含み、視線範囲設定部は、4象限のうちの使用者の視線に頻繁にさらされる少なくとも2つの領域を含むことができる。
また、ディスプレイ部は、視線範囲領域を除いた領域よりも視線範囲領域にターゲットオブジェクトをより多くフローティングすることができる。
一方、本発明の実施形態に係る視線トラッキング方法は、瞳孔センシング部によって使用者の瞳孔をセンシングする段階、視線トラッキング部によってディスプレイ部にフローティングされる複数のターゲットオブジェクトに対する使用者の視線をトラッキングする段階、複数のターゲットオブジェクトに対する使用者の視線状態情報を取得する段階、および入力部によって複数のターゲットオブジェクトのうちの使用者の視線が一定時間以上留まる特定のオブジェクトを入力オブジェクトとして選択した後入力を行う段階を含み、入力オブジェクトは使用者の視線状態情報に基づいて大きさ、色および移動方向のうちの少なくとも1つが変化することができる。
また、入力オブジェクトは、ディスプレイ部の中心点を基準として対角線方向、時計方向、反時計方向および渦巻き方向のうちの少なくとも一方向にフローティングされ得る。
また、ターゲットオブジェクトに対して使用者の視線が少なくとも2秒留まる場合入力オブジェクトとして選択し、選択された入力オブジェクトに対して使用者の目が少なくとも2回瞬くか、特定の単一筋肉または筋肉群の特異的な動きがある場合に選択された入力オブジェクトに対応する情報が入力されることができる。
また、使用者の視線が少なくとも2秒留まる場合は、ターゲットオブジェクトの周辺に視線が留まってオブジェクトの動き経路に基づいて2秒以上追跡する場合、またはターゲットオブジェクトの周辺に視線が留まって追跡偏差角が35を超える場合を含むことができる。
また、ターゲットオブジェクトの周辺は流動偏差角(FGR)が3以下であり得る。
また、入力オブジェクトは、ターゲットオブジェクトの周辺に視線が留まり、ターゲットオブジェクトの動き経路に基づいて1秒以上追跡して、オブジェクトの動き予想経路上で偏差角45°以上になる経路まで視線を予め動かす場合を含むことができる。
一方、本発明の実施形態に係るコンピュータ判読可能な記録媒体は、瞳孔センシング部によって使用者の瞳孔をセンシングし、視線トラッキング部によってディスプレイ部にフローティングされる複数のターゲットオブジェクトに対する使用者の視線をトラッキングし、複数のターゲットオブジェクトに対する使用者の視線状態情報を取得し、入力部によって複数のターゲットオブジェクトのうちの使用者の視線が一定時間以上留まる特定のオブジェクトが使用者によって入力オブジェクトに決定されたものと把握して入力として処理し、入力オブジェクトは、使用者の視線状態情報に基づいて大きさ、色および移動方向のうちの少なくとも1つを変化させる命令語を保存することができる。
一方、本発明に係る効果は、以上で例示した内容によって制限されず、さらに様々な効果が本明細書内に含まれている。
本発明は、使用者の視線に応じて入力されるオブジェクトの大きさ、形態および移動方向を変化させることによって、VR、ARおよびMRにおける使用者の入力作業の便宜性を顕著に増大させることができる。
また、本発明は、スマートレンズ内に使用者の視線範囲を設定することによって、使用者の入力の精度および凝視の精度を向上させることができる。
また、本発明は、入力されたオブジェクトに基づいて自動推薦単語を提供することによって、使用者の作業速度を効果的に短縮させることができる。
本発明に係る効果は、以上で例示した内容によって制限されず、さらに様々な効果が本明細書内に含まれている。
本発明の一実施形態に係る視線トラッキングシステムの概略図である。 本発明の一実施形態に係るスマートグラスのディスプレイ方式を説明するための図である。 本発明の一実施形態に係るスマートグラスの構成図である。 本発明の一実施形態に係る視線トラッキングによるターゲットオブジェクトの入力方法を説明するためのフローチャートである。 本発明の一実施形態に係る瞳孔センシング過程を説明するための例示図である。 本発明の一実施形態に係る視線を用いたターゲットオブジェクトの入力過程を説明するための例示図である。 本発明の一実施形態に係る視線を用いたターゲットオブジェクトの入力過程を説明するための例示図である。 本発明の一実施形態に係る視線を用いたターゲットオブジェクトの入力過程を説明するための例示図である。 本発明の他の実施形態に係る視線を用いた自動完成オブジェクトの入力過程を説明するための例示図である。 本発明の他の実施形態に係る自動完成リストを示す例示図である。 本発明の実施形態に係る視線センサーを説明するための例示図である。 本発明の実施形態に係る入力オブジェクトを判断し、入力として決定する過程を説明するための例示図である。
本発明の利点、そしてそれを達成する方法は、添付した図面と共に詳細に後述されている実施形態を参照すれば明確になる。しかし、本発明は、以下で開示される実施形態に限定されるものではなく、互いに異なる様々な形態で具現されることができ、単に本実施形態は、本発明の開示が完全になるようにして、本発明が属する技術分野における通常の知識を有する者に発明の範疇を完全に知らせるために提供されるものであり、本発明は、請求項の範疇によって定義されるだけである。
本発明の実施形態を説明するための図面に開示された形状、大きさ、比率、角度、個数などは例示的なものであるため、本発明が図面に示した事項によって限定されるものではない。また、本発明を説明するにおいて、関連する公知技術に対する具体的な説明が本発明の要旨を不必要に曖昧にすると判断された場合、その詳細な説明は省略する。本明細書で言及した「含む」、「有する」、「からなる」などが使用されている場合、「~のみ」が使用されていない限り、他の部分が追加されることができる。構成要素を単数で表現した場合、別に明示的な記載事項がない限り、複数を含む場合を含む。
なお、構成要素を解釈する際に、別に明示的な記載がなくても誤差範囲を含むものとして解釈する。
本発明の様々な実施形態のそれぞれ特徴が部分的に又は全体的に互いに結合又は組み合わせが可能であり、当業者が十分に理解できるように、技術的に様々な連動および駆動が可能であり、各実施形態が互いに独立的に実施可能であり得、連関関係でともに実施可能でもあり得る。
以下では、図1a~図2を参照して本発明の一実施形態に係るスマートグラスの構成を説明することにする。
図1aおよび図1bは、本発明の一実施形態に係る視線トラッキングシステムの概略図である。図2は、本発明の一実施形態に係るスマートグラスの構成図である。
図1aを参照すると、視線トラッキングシステムは、スマートグラス100および視線トラッキングサーバー200を含むことができる。スマートグラス100および視線トラッキングサーバー200は、無線通信、例えばブルートゥース(登録商標)、WiFiなどの近距離無線通信で連結されることができる。ただし、図1aの実施形態においては、スマートグラス100と視線トラッキングサーバー200が分離した形態で示しているが、スマートグラス100と視線トラッキングサーバー200は、1つのハウジング内に搭載されることもできる。1つのハウジング内に搭載された場合には、スマートグラス100と視線トラッキングサーバー200は、有線で連結されることができる。スマートグラス100は、内蔵された少なくとも1つのセンサーを用いて視線をセンシングおよびトラッキングし、またディスプレイ部103の画面上にフローティング(Floating)されるターゲットオブジェクト(target object)を選択して該当ターゲットオブジェクトと関連した情報を入力できる装置である。
図1aに示すように、スマートグラス100は、スマートレンズ111、112、グラス支持台113、瞳孔センシング部101および視線トラッキング部102で構成することができる。
本発明におけるスマートグラス100は、例えば、図1bに示すように、ディスプレイパネル(第1レンズおよび第2レンズ)のマイクロディスプレイ部10でプロジェクションされる画面が前記第1および第2レンズを介して反射して目に見える方式で使用者が見ることができる。ただし、本明細書では前述した構造のディスプレイを中心に説明しているが、これに制限されるものではない。HMDディスプレイを活用しながら、シースルー(See-through)モードによって外部画面をスマートグラス100のカメラを用いて撮影した後、VRの画面を介して情報画面と組み合わせて見せる形態も可能である。または、カメラが患者の患部または手術部位を撮影しながらスマートグラス100と連動されて撮影された画面上にターゲットオブジェクトを表示することもできる。
また、スマートグラス100は、図1bに示すように、スマートグラス100の一領域(例えば、中央部上端)に配置されたマイクロディスプレイ(10、Microdisplay)およびプリズム(prism)を用いて像14をディスプレイすることもできる。具体的には、マイクロディスプレイ10が正面に配置されたレンズ11を介して像を照射すると、照射された像はレンズ11を介してスマートグラス100のディスプレイパネル12の一領域に到達した後、ディスプレイパネル12の一面に付着したスプリッタ(13、splitter)によって像が全反射(total reflection)されることができる。すなわち、両側レンズの中央に配置されたマイクロディスプレイ10は、左側レンズと右側レンズに像を照射した後、スプリッタの全反射特性を用いて左眼および右眼の前面部に立体形状の仮想のイメージ(または像14)をディスプレイすることができる。
ディスプレイ部103は、複数のターゲットオブジェクトを表示する構成であって、スマートグラス100の正面部で使用者の右眼および左眼に対応する位置に配置された第1レンズ111および第2レンズ112を含むことができる。本明細書において、第1レンズ111および第2レンズ112は、説明の便宜上「スマートレンズ」と通称する。なお、スマートレンズ111、112は、VRの画面およびグーグルグラスでのマイクロディスプレイおよびプリズムを用いて目に光を照射するディスプレイをすべて包括する概念と解釈されなければならない。
ここで、ターゲットオブジェクトは、使用者が視線を介して入力しようとする情報であって、文字またはイメージの形態を有する複数のオブジェクトを含むことができる。例えば、ターゲットオブジェクトはそれぞれの文字、単語形式、アイコン形式または、イメージ自体であり得る。
このとき、ターゲットオブジェクトは、使用者の視線状態情報に応じて、大きさ、色、形態および移動方向のうちの少なくとも1つが変化してディスプレイ部103にフローティングされることを特徴とする。視線に伴うターゲットオブジェクトの様々な変化は後で説明することにする。
また、ターゲットオブジェクトは、実施形態によって一レンズでは子音がフローティングされ、他レンズでは母音がフローティングされることができる。
また、本発明における視線状態情報は、使用者の瞳孔211の動きおよび使用者の目の開け閉じを意味することができる。
図1aを参照すると、瞳孔センシング部101は、使用者の瞳孔211をセンシングする構成として、スマートグラス100の正面部、すなわち第1レンズ111が固定される眼鏡フレームの縁部に沿って複数が配置されることができる。このとき、瞳孔センシング部101は、少なくとも1つ以上のセンサーユニット114で構成されることを特徴とする。センサーユニット114は、左眼センサーユニット114aおよび右眼センサーユニット114bを含むことができる。図9を参照すると、センサーユニット114は、例えば瞳孔に視力損傷のない赤外線を照射した後、瞳孔を介して眼球の眼底から反射された距離(d1+d2)を特定することができる。この場合、反射距離は、眼底から瞳孔までの距離(d1)および眼球表面からセンサーユニット114までの距離(d2)に細分することができる。この場合、複数のセンサーを介して求めたそれぞれの距離(d1およびd2)を用いて瞳孔の位置および視線方向を特定することができる。図9に示すような細かい視線センシンによって、スマートグラスは、詳細な瞳孔の位置および視線を取得することができる。
視線トラッキング部102は、スマートレンズの画面上にフローティングされる複数のターゲットオブジェクトに対する使用者の視線状態情報をセンシングする構成で、リアルタイムでスマートグラス100を着用した使用者の視線をトラッキング(tracking)することができる。図1aおよび図1bに示すように、視線トラッキング部102は、第2レンズ112が固定される眼鏡フレームの縁部に沿って並んで配置することができる。このとき、視線トラッキング部102は、少なくとも1つ以上のセンサーユニット114bを含むことを特徴とする。
瞳孔センシング部101および視線トラッキング部102の位置はこれに制限されず、スマートグラス100のグラス支持台113または眼鏡フレームの少なくとも一領域に内蔵されるように配置することができる。例えば、スマートグラス100の側面部に配置されるか、スマートグラス100のディスプレイ部103に直接配置されることができる。瞳孔センシング部101および視線トラッキング部102の具体的な動作については後述することにする。
入力部104は、視線状態情報に基づいてターゲットオブジェクトに対する入力を行う構成である。具体的には、視線トラッキング部102を用いてリアルタイムで使用者の視線状態情報を取得することによって、入力部104は、複数のターゲットオブジェクトのうちの使用者の視線が一定時間以上留まる特定のオブジェクトを入力オブジェクトとして選択し、追加的な目または目の周りの単一筋肉または筋肉群のジェスチャーがある場合(例えば、目を一定時間以上閉じるか、基準時間の間一定回数以上瞬きをするとき)に該当オブジェクトに対して入力を行う。
推薦単語提供部105は、少なくとも2つ以上のターゲットオブジェクトが入力されると、該当文字で始まる自動推薦単語をフローティング形態やポップアップリスト形態で提供する構成である。これと関連した詳細な内容については後述することにする。
制御部106は、瞳孔センシング部101、ディスプレイ部103、視線トラッキング部102、入力部104および推薦単語提供部105に対する全般的な動作を制御する機能を行うことができる。
以下では、図3~図6を参照して、本発明の一実施形態に係るターゲットオブジェクトに対する視線入力方法を詳細に説明することにする。
図3は、本発明の一実施形態に係る視線トラッキングによるターゲットオブジェクトの入力方法を説明するためのフローチャートである。図4は、本発明の一実施形態に係る瞳孔センシング過程を説明するための例示図である。図5a~図5bは、本発明の一実施形態に係る視線を用いたターゲットオブジェクトの入力過程を説明するための例示図である。図6は、本発明の一実施形態に係る視線を用いたターゲットオブジェクトの入力過程を説明するための例示図である。
まず、瞳孔センシング部101によって使用者の瞳孔をセンシングする(S100)。
図4を参照すると、使用者は、スマートグラス100を着用した状態でスマートグラス100の第1レンズ111と第2レンズ112を介して表示された目盛りの中心点を探索する動作を行う。視線トラッキング部102が視線をトラッキングするに先立ち、基本的な目の動きを測定することができるように瞳孔センサー部によって瞳孔のフォーカシングをセンシングする過程が必要である。
具体的には、瞳孔センシング部101は、使用者のスマートレンズ111、112の中心点(C2)に対する使用者瞳孔のフォーカシング(focusing)の有無をセンシングした後、使用者の瞳孔が中心点(C2)にフォーカシングされると、次の段階を進行する準備をする。しかし、使用者の瞳孔が中心点(C2)ではなく他の地点(C1)を見ている場合には、スマートグラス100に内蔵されたスピーカーを用いた音声出力、またはスマートレンズ111、112を用いた文句出力によって使用者が中心点(C2)を探索することができるように案内メッセージをさらに提供することができる。
次に、視線トラッキング部102によってリアルタイムで使用者の視線をトラッキングする(S200)。続いて、視線トラッキング部102のリアルタイムトラッキングによってディスプレイ部103にフローティングされる複数のターゲットオブジェクトに対する使用者の視線状態情報を取得する(S300)。続いて、取得した視線状態情報に基づいてターゲットオブジェクトに対する入力を行う(S400)。
まず、本発明における複数のターゲットオブジェクト500は、限られた時間内に使用者に多くのオブジェクトを提供することができるように、第1レンズ111および第2レンズ112の両側にフローティングされることを基本とする。しかし、複数のターゲットオブジェクト500がフローティングされる方式はこれに制限されるものではない。例えば、第1レンズ111または第2レンズ112の一側方向から他側方向に移動しながらフローティングされることもできる。
また、複数のターゲットオブジェクト500は、1サイクル(1cycle)に複数の両側レンズ111、112を介してフローティング(Floating)されることができる。これにより、使用者は使用者のニーズを入力するのにかかる時間を短縮することができる。または、複数のターゲットオブジェクト500は、複数サイクル(n cycle)にわたって順次的にフローティングされることもできる。これにより、使用者はより正確に使用者のニーズを入力することができる。
図5a(a)を参照すると、使用者の左眼および右眼にそれぞれ対応するように配置された第1レンズ111および第2レンズ112を介して見た映像は、特定位置を基準に4象限(four-quadrant)に分けられることができる。例えば、第1レンズ111および第2レンズ112を介して見た画面は、左側上端に位置した第1領域A1、右側上端に位置した第2領域A2、左側下端に位置した第3領域A3、右側下端に位置した第4領域A4を含む。
図5a(a)を参照すると、それぞれの領域A1、A2、A3、A4にフローティングされた複数のターゲットオブジェクト500は、中心点から時計方向に遠ざかりながら渦巻き形状に回転することができる。しかし、ターゲットオブジェクト500がフローティングされる方式はこれに制限されず、様々な方式で変形することができる。例えば、使用者の視線状態情報またはターゲットオブジェクト500の重要度に応じて図5b(c)のように、反時計方向に回転することもでき、中心点から対角線方向に散るようにフローティングされることができる。または多角度に散りながらフローティングされることができる。
図5a(a)を参照すると、使用者が第2領域A2にフローティングされたアルファベット「E」を一定時間以上凝視した後、入力部104は該当アルファベット「E」を入力オブジェクト501として選択することができる。このとき、使用者が単に視線を動かしながら入力とは無関係のターゲットオブジェクトをみつめることとは区別するために、一定時間は少なくとも2秒であることを意味することが好ましい。すなわち、使用者の視線が少なくとも2秒留まるターゲットオブジェクト500を入力オブジェクト501と判断する。これに関する具体的な説明は図10を共に参照して以下に説明することにする。
ただし、使用者の視線がターゲットオブジェクトに少なくとも2秒留まる場合(入力オブジェクト501として判断する段階)は、ターゲットオブジェクトの周辺に視線が留まり、ターゲットオブジェクトの動き経路に基づいて2秒以上追跡する場合をさらに含むことができる。ここで、ターゲットオブジェクトの周辺とは、流動偏差角(FGR)が3°以下である地点を意味する。このとき、流動偏差角(FGR)は、流動的なターゲットオブジェクトの中心を使用者が見たときと仮定して連結した仮想の線とターゲットオブジェクトの周辺を実際に使用者が見たときの仮想の線との間の角度と定義する。
すなわち、ターゲットオブジェクトを基準に様々な角度方向に位置するが、流動偏差角(FGR)が3°以下の地点に視線が留まっている状態でターゲットオブジェクトの動き経路に沿って視線が2秒以上動いた場合、視線が少なくとも2秒以上留まることを特徴とする。
また、使用者の視線がターゲットオブジェクトに少なくとも2秒留まる場合は、ターゲットオブジェクトの周辺に視線が留まり、前記ターゲットオブジェクトに対する追跡偏差角(TGR)が35以上の場合を含むことができる。ここで、追跡偏差角(TGR)とは、使用者の目を基準に視線が留まり始める追跡開始点から追跡が行われる現在位置(視線が留まる位置)までの角度と定義することができる。
また、入力オブジェクト501に対し入力を決定する場合には、前記ターゲットオブジェクトの動き経路に基づいて1秒以上前記ターゲットオブジェクトを追跡し、前記ターゲットオブジェクトの動き予想経路上で偏差角45°以上となる経路まで視線を予め動かす場合をさらに含むことができる。
使用者がスマートレンズ111、112にフローティングされる複数のターゲットオブジェクト500のうちの入力しようとするアルファベットを一定時間以上凝視する場合、図5a(b)に示すように、入力オブジェクト501の大きさが他のターゲットオブジェクトに比べて顕著に大きなサイズを有するように増加することができる。このような動作によって、使用者はターゲットオブジェクト500が入力オブジェクト501として選択されたことを知ることになる。すなわち、入力オブジェクト501は、使用者(または視線トラッキングシステムを用いるユーザ)によって決定されることを特徴とする。
このとき、使用者が無意識の状態でターゲットオブジェクトを一定時間以上凝視する場合が含まれ得るので、サイズが増加した入力オブジェクト501に対する入力を行うためには、追加的なジェスチャーが要求され得る。
例えば、前記入力オブジェクト501に対して、少なくとも2回の目の瞬きまたは目を一定時間以上閉じる動きが要求され得る。ただし、ここで少なくとも2回の目の瞬きは、基準時間内に2回以上目の瞬きを意味する。または、入力オブジェクト501に対して特定の単一筋肉または筋肉群(group)の特異的な動きが要求され得る。ここで、特定の単一筋肉または筋肉群は、眼球の近くの筋肉を意味し、眼筋、眼外筋、外眼筋、上直筋、下直筋、内側直筋、外側直筋などであり得る。
これによって、使用者がアルファベット「E」を入力した後には、図5b(c)に示すように、第1領域A1の上端に配置された入力窓502にアルファベット「E」が入力されることができる。このとき、使用者が入力を誤った場合には、入力窓502内に配置された削除ボタン503を用いて文字を削除することもできる。
次に、図5b(c)、(d)を参照すると、使用者が一定時間以上見た入力オブジェクト501は、サイズが増加すると同時に色が変化することができる。このとき、入力オブジェクト501の色は、文字色のみが変わることもあり得、文字の陰影のように、文字周辺の色が変わることもあり得る。また、入力窓502には、入力オブジェクトのアルファベット「X」が入力されることができる。これによって、使用者は自分が凝視したターゲットオブジェクト500をより容易に識別することができる効果がある。
図6を参照すると、視線範囲設定部は、視線トラッキング部102からトラッキングした視線トラッキングデータに基づいて使用者の視線範囲(SR)を決定することができる。例えば、図5a~図5bに示すように、使用者は第1レンズ111の右側領域、すなわち、第2領域A2、第4領域A4と第2レンズ112の左側領域、すなわち、第1領域A1、第3領域A3を主に凝視することが分かる。これによって、使用者の視線範囲は、使用者の視線の中央部と決定されることができる。
本発明は、使用者の視線範囲を設定することによって、使用者に慣れている視線範囲にターゲットオブジェクトを頻繁に露出させることによって、使用者がより容易に選択することができるように作業の便宜性を増大させることができる。
また、視線範囲領域では、ターゲットオブジェクトが頻繁にフローティングされるか、重複してフローティングされることができる。ターゲットオブジェクトを重複してフローティングすることは、複数のターゲットオブジェクトをフローティングさせる1サイクル(cycle)内で少なくとも2以上の同じ文字がフローティングされることを意味する。
視線範囲領域でターゲットオブジェクトを重複的にフローティングすることによって、使用者の凝視精度を増加させることができる効果がある。すなわち、視線範囲領域内でも使用者が凝視しやすい特定の位置が存在する可能性があるので、重複する少なくとも2以上の文字を重複的にフローティングするときに入力の精度を増加させることができる。
図7は、本発明のまた他の実施形態に係る視線を用いた自動完成オブジェクトの入力過程を説明するための例示図である。
図7に示すように、第1レンズ111の入力窓に「EXP」まで入力された場合、スマートレンズ111、112には推薦単語提供部105によって「EXP」で始まる自動推薦単語がフローティングされ得る。ここで、自動推薦単語は、少なくとも2つ以上の文字が与えられた場合、提供される自動完成型単語と定義することができ、スマートグラス100を着用した使用者が初期に設定した基本情報に基づいて提供される使用者カスタマイズ型の推薦単語と定義することもできる。
具体的には、第1レンズ111にはR、U、P、S、Tなどのような複数のターゲットオブジェクトがフローティングされ、第2レンズ112には「EXPLORE」、「EXPLORING」、「EXPLAIN」、「EXPECT」のような自動推薦単語がフローティングされ得る。図7では、自動推薦単語が第2レンズ112にフローティングされるものとして示しているが、第1レンズ111またはスマートレンズ111、112の両方にフローティングされ得る。
図7を参照すると、「EXPLORE」が入力オブジェクト701として入力されることが分かる。このとき、入力窓A11には、1つの単語のみが入力されるように示したが、複数の選択事項が入力されることができる。一方、自動推薦単語をフローティングする段階で入力オブジェクトが決定される場合、決定された入力オブジェクトは次の段階でフローティングされるターゲットオブジェクトから除外されることができる。
また、フローティングされる自動推薦単語は、使用者の関心度に応じて互いに異なる速度でフローティングされ得る。例えば、使用者の関心度が高い単語はゆっくりフローティングされ、関心度が低い単語は早くフローティングされ得る。ここで、関心度は、使用者が初期に設定した基本情報(例えば、使用者の関心項目、使用者の業務分野など)に基づいて設定されることができ、使用者の入力頻度に基づいて設定されることもできる。
したがって、本発明は、使用者に自動推薦単語を提供することによって、ターゲットオブジェクトを1つずつ入力する過程を省略することができるため、業務速度を効果的に短縮させることができる効果がある。
図8は、本発明の他の実施形態に係る自動完成リストを示す例示図である。
図8を参照すると、第1レンズ111の入力窓に「EXP」まで入力された場合、スマートレンズ111、112には推薦単語提供部105によって「EXP」で始まる自動推薦単語がリスト形態でポップアップ(pop-up)されることができる。
図8に示すように、入力部104は、使用者の視線に応じてポップアップされた自動完成リスト800のうちで「EXPLORE」を入力オブジェクト801として入力することができる。
このとき、自動完成リストがポップアップ(pop-up)されるレンズは、使用者によって容易に変更可能である。また、自動完成リストに推薦される自動推薦単語が多い場合、スマートレンズ111、112の両方にポップアップされることもできる。
したがって、本発明は使用者に自動推薦単語をリスト形態で提供することによって、使用者の不要な視線移動を防止することができる。これによって、使用者の効率的な業務遂行が可能であるという利点がある。
以上、添付図面を参照して本明細書の実施形態をさらに詳細に説明したが、本発明は、必ずしもこれらの実施形態に限定されるものではなく、本発明の技術思想を逸脱することなく多様に変形実施できる。したがって、本発明に開示された実施形態は、本発明の技術思想を限定するためのものではなく、説明するためのものであり、このような実施形態によって本発明の技術思想の範囲を限定するものではない。よって、以上で記述した実施形態は、あらゆる面で例示的なもので、限定的なものではないと理解しなければならない。本発明の保護範囲は請求の範囲によって解釈されるべきであり、それと同等の範囲内にあるすべての技術思想は本明細書の権利範囲に含まれると解釈されるべきである。

Claims (12)

  1. スマートグラスに内蔵された少なくとも1つのセンサーによって使用者の瞳孔をセンシングする瞳孔センシング部と、
    スマートレンズを含むディスプレイ部であって、複数のターゲットオブジェクトが、前記スマートレンズの中心点を基準として互いに異なる方向に動かされ、前記方向は、対角線方向、時計方向、反時計方向および渦巻き方向のうちの少なくとも1つを含む、ディスプレイ部と、
    少なくとも1つの感知センサーを介して視線をトラッキングし、前記複数のターゲットオブジェクトに対する前記使用者の視線状態情報を取得する視線トラッキング部、および
    前記視線状態情報に基づいて前記複数のターゲットオブジェクトのうちから前記使用者の視線が一定時間以上留まる特定のオブジェクトを入力オブジェクトとして選択した後、入力を行う入力部を含み、
    前記視線トラッキング部からトラッキングされた視線トラッキングデータに基づいて前記使用者の視線範囲を設定する視線範囲設定部であって、前記視線範囲は、前記中心点を基準に分けられた前記スマートレンズの4象限(four-quadrant)のうちの前記使用者の視線に頻繁にさらされる少なくとも2つの領域を含む前記使用者の視線の中央部と決定される、視線範囲設定部をさらに含み、
    前記入力オブジェクトは、前記使用者の視線状態情報に基づいて大きさ、色および移動方向のうちの少なくとも1つを変化させ、
    前記ディスプレイ部は、前記視線範囲を除いた領域よりも前記視線範囲に前記ターゲットオブジェクトをより多く動かす視線トラッキングシステム。
  2. 前記視線状態情報は、前記使用者の瞳孔の動きおよび前記使用者の目の開け閉じを含み、前記使用者の視線状態情報に基づいて前記入力オブジェクトが決定される請求項1に記載の視線トラッキングシステム。
  3. 記4象限の各領域には前記ターゲットオブジェクトが少なくとも1つずつ動かされる請求項1に記載の視線トラッキングシステム。
  4. 前記4象限の各領域に動かされる前記ターゲットオブジェクトは、1サイクル(cycle)に複数が一度に動かされるか、または複数のサイクルにわたって順次的に動かされる請求項3に記載の視線トラッキングシステム
  5. 前記ターゲットオブジェクトは、前記スマートレンズの一側から他側に並んで動かされる請求項1に記載の視線トラッキングシステム。
  6. 前記ターゲットオブジェクトは、自動推薦単語を含み、前記自動推薦単語は、前記スマートレンズに1つずつ動かされるか、またはリスト形態でポップアップされて表示される請求項1に記載の視線トラッキングシステム。
  7. 前記自動推薦単語は、前記使用者の関心度に基づいて差別的な速度で動かされ
    前記関心度は前記使用者によって予め設定された関心項目、前記使用者の業務分野および前記ターゲットオブジェクトに対する前記使用者の入力頻度のうちのいずれか1つによって決定される請求項6に記載の視線トラッキングシステム。
  8. 前記ディスプレイ部は、前記視線範囲内で少なくとも2つの同じターゲットオブジェクトを前記スマートレンズの互いに異なる領域に同時に動かす請求項に記載の視線トラッキングシステム。
  9. 瞳孔センシング部によって使用者の瞳孔をセンシングする段階と、
    視線トラッキング部によってディスプレイ部に動かされる複数のターゲットオブジェクトに対する使用者の視線をトラッキングする段階であって、前記ディスプレイ部は、スマートレンズを含み、前記複数のターゲットオブジェクトが、前記スマートレンズの中心点を基準として互いに異なる方向に動かされ、前記方向は、対角線方向、時計方向、反時計方向および渦巻き方向のうちの少なくとも1つを含む、段階と、
    前記複数のターゲットオブジェクトに対する前記使用者の視線状態情報を取得する段階、
    前記視線トラッキング部からトラッキングされた視線トラッキングデータに基づいて前記使用者の視線範囲を設定する段階であって、前記視線範囲は、前記中心点を基準に分けられた前記スマートレンズの4象限(four-quadrant)のうちの前記使用者の視線に頻繁にさらされる少なくとも2つの領域を含む前記使用者の視線の中央部と決定される、段階、および
    入力部によって前記複数のターゲットオブジェクトのうちの前記使用者の視線が一定時間以上留まる特定のオブジェクトが前記使用者によって入力オブジェクトに決定されたものと把握して入力として処理する段階を含み、
    前記ディスプレイ部は、前記視線範囲を除いた領域よりも前記視線範囲に前記ターゲットオブジェクトをより多く動かし
    前記入力オブジェクトは、前記使用者の視線状態情報に基づいて大きさ、色および移動方向のうちの少なくとも1つが変化する視線トラッキング方法。
  10. 前記ターゲットオブジェクトに対して前記使用者の視線が少なくとも2秒留まる場合に前記入力オブジェクトとして選択し、選択された入力オブジェクトに対して前記使用者の目が少なくとも2回瞬くか、特定の単一筋肉または筋肉群の特異的な動きがある場合に選択された入力オブジェクトに対応する情報が入力される請求項に記載の視線トラッキング方法。
  11. 前記ターゲットオブジェクトの周辺は前記ターゲットオブジェクトの流動偏差角が3°以下である請求項に記載の視線トラッキング方法。
  12. 瞳孔センシング部によって使用者の瞳孔をセンシングし、
    視線トラッキング部によってディスプレイ部に動かされる複数のターゲットオブジェクトに対する使用者の視線をトラッキングし、前記ディスプレイ部は、スマートレンズを含み、前記複数のターゲットオブジェクトが、前記スマートレンズの中心点を基準として互いに異なる方向に動かされ、前記方向は、対角線方向、時計方向、反時計方向および渦巻き方向のうちの少なくとも1つを含み、
    前記複数のターゲットオブジェクトに対する前記使用者の視線状態情報を取得し、
    入力部によって前記複数のターゲットオブジェクトのうちの前記使用者の視線が一定時間以上留まる特定のオブジェクトが前記使用者によって入力オブジェクトに決定されたものと把握して入力として処理し、前記入力オブジェクトは、前記使用者の視線状態情報に基づいて大きさ、色および移動方向のうちの少なくとも1つを変化させ、
    トラッキングされた視線トラッキングデータに基づいて前記使用者の視線範囲を設定し、前記視線範囲は、前記中心点を基準に分けられた前記スマートレンズの4象限(four-quadrant)のうちの前記使用者の視線に頻繁にさらされる少なくとも2つの領域を含む前記使用者の視線の中央部と決定され、前記視線範囲を除いた領域よりも前記視線範囲に前記ターゲットオブジェクトをより多く動かす命令語を保存するコンピュータ判読可能な記録媒体。
JP2022521366A 2019-10-10 2020-10-12 スマートグラスの視線トラッキングシステムおよびその方法 Active JP7209128B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2019-0125447 2019-10-10
KR1020190125447A KR102128894B1 (ko) 2019-10-10 2019-10-10 스마트 안경의 시선 트래킹 시스템 및 그 방법
PCT/KR2020/013858 WO2021071335A1 (ko) 2019-10-10 2020-10-12 스마트 안경의 시선 트래킹 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
JP2022542490A JP2022542490A (ja) 2022-10-03
JP7209128B2 true JP7209128B2 (ja) 2023-01-19

Family

ID=71601734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022521366A Active JP7209128B2 (ja) 2019-10-10 2020-10-12 スマートグラスの視線トラッキングシステムおよびその方法

Country Status (6)

Country Link
US (1) US11808940B2 (ja)
EP (1) EP4043999A4 (ja)
JP (1) JP7209128B2 (ja)
KR (1) KR102128894B1 (ja)
CN (1) CN114600031A (ja)
WO (1) WO2021071335A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102128894B1 (ko) 2019-10-10 2020-07-01 주식회사 메디씽큐 스마트 안경의 시선 트래킹 시스템 및 그 방법
KR102541538B1 (ko) * 2020-12-29 2023-06-12 서울대학교산학협력단 감염병 예찰을 위한 스마트 디바이스
KR102462144B1 (ko) 2021-01-21 2022-11-04 주식회사 증강지능 튜터링을 위해 혼합현실 컨텐츠를 제공하는 인공지능 챗봇 시스템
WO2024075947A1 (ko) * 2022-10-04 2024-04-11 삼성전자 주식회사 객체 검색을 위한 이미지 쿼리를 생성하는 전자 장치 및 전자 장치의 동작 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058971A (ja) 2015-09-16 2017-03-23 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP2017526078A (ja) 2014-05-09 2017-09-07 グーグル インコーポレイテッド 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法
US20180074583A1 (en) 2015-06-17 2018-03-15 Visualcamp Co., Ltd. Input device using gaze tracking
JP2018530798A (ja) 2015-08-15 2018-10-18 アイフルエンス, インコーポレイテッドEyefluence, Inc. 実在オブジェクトおよび仮想オブジェクトと対話するための生体力学に基づく視覚信号用のシステムおよび方法
JP2019057057A (ja) 2017-09-20 2019-04-11 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173274A (ja) * 1997-08-27 1999-03-16 Canon Inc 視線入力意思伝達装置、方法および記憶媒体
US6943754B2 (en) * 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
CN102193641B (zh) * 2010-03-09 2014-06-18 阿里巴巴集团控股有限公司 字符输入过程中的待选字符显示方法及装置
CA2835120C (en) * 2011-05-06 2019-05-28 Magic Leap, Inc. Massive simultaneous remote digital presence world
US20120327116A1 (en) * 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
JP2013196158A (ja) * 2012-03-16 2013-09-30 Sony Corp 制御装置、電子機器、制御方法、及びプログラム
US9041741B2 (en) * 2013-03-14 2015-05-26 Qualcomm Incorporated User interface for a head mounted display
US10152495B2 (en) * 2013-08-19 2018-12-11 Qualcomm Incorporated Visual search in real world using optical see-through head mounted display with augmented reality and user interaction tracking
WO2015127325A1 (en) * 2014-02-21 2015-08-27 Drnc Holdings, Inc. Methods for facilitating entry of user input into computing devices
KR101671837B1 (ko) 2014-05-20 2016-11-16 주식회사 비주얼캠프 시선 추적형 입력 장치
US9706910B1 (en) * 2014-05-29 2017-07-18 Vivid Vision, Inc. Interactive system for vision assessment and correction
CN107850939A (zh) * 2015-03-10 2018-03-27 艾弗里协助通信有限公司 用于通过眼睛反馈实现通信的系统和方法
KR102462365B1 (ko) 2016-02-29 2022-11-04 삼성전자주식회사 사용자 데모그래픽 정보 및 콘텍스트 정보에 기초한 텍스트 입력 예측 방법 및 장치
KR101671839B1 (ko) * 2016-09-01 2016-11-16 주식회사 비주얼캠프 시선 추적형 입력 장치
KR101993057B1 (ko) * 2017-12-05 2019-06-25 순천향대학교 산학협력단 안구 움직임 인식을 이용한 안전한 비밀번호 입력 장치 및 방법
KR102128894B1 (ko) * 2019-10-10 2020-07-01 주식회사 메디씽큐 스마트 안경의 시선 트래킹 시스템 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017526078A (ja) 2014-05-09 2017-09-07 グーグル インコーポレイテッド 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法
US20180074583A1 (en) 2015-06-17 2018-03-15 Visualcamp Co., Ltd. Input device using gaze tracking
JP2018530798A (ja) 2015-08-15 2018-10-18 アイフルエンス, インコーポレイテッドEyefluence, Inc. 実在オブジェクトおよび仮想オブジェクトと対話するための生体力学に基づく視覚信号用のシステムおよび方法
JP2017058971A (ja) 2015-09-16 2017-03-23 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP2019057057A (ja) 2017-09-20 2019-04-11 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム

Also Published As

Publication number Publication date
CN114600031A (zh) 2022-06-07
EP4043999A4 (en) 2023-11-08
WO2021071335A1 (ko) 2021-04-15
EP4043999A1 (en) 2022-08-17
JP2022542490A (ja) 2022-10-03
KR102128894B1 (ko) 2020-07-01
US20220413285A1 (en) 2022-12-29
US11808940B2 (en) 2023-11-07

Similar Documents

Publication Publication Date Title
JP7209128B2 (ja) スマートグラスの視線トラッキングシステムおよびその方法
US20240138918A1 (en) Systems and methods for augmented reality guidance
US10082940B2 (en) Text functions in augmented reality
CN105765490B (zh) 用于用户界面控制的系统和技术
US6351273B1 (en) System and methods for controlling automatic scrolling of information on a display or screen
US6603491B2 (en) System and methods for controlling automatic scrolling of information on a display or screen
JP3673834B2 (ja) 眼球運動を用いた視線入力コミュニケーション方法
KR20180083252A (ko) 실제 객체 및 가상 객체와 상호작용하기 위한 생체기계적 기반의 안구 신호를 위한 시스템 및 방법
Vatavu Visual impairments and mobile touchscreen interaction: state-of-the-art, causes of visual impairment, and design guidelines
Zhao et al. Designing and evaluating a customizable head-mounted vision enhancement system for people with low vision
CN114546102B (zh) 眼动追踪滑行输入方法、系统、智能终端及眼动追踪装置
Lander et al. hEYEbrid: A hybrid approach for mobile calibration-free gaze estimation
US20230336865A1 (en) Device, methods, and graphical user interfaces for capturing and displaying media
US20240094882A1 (en) Gestures for selection refinement in a three-dimensional environment
US11640200B2 (en) Gaze-contingent screen magnification control
US20240028177A1 (en) Devices, methods, and graphical user interfaces for interacting with media and three-dimensional environments
Jota et al. Palpebrae superioris: Exploring the design space of eyelid gestures
US20230100689A1 (en) Methods for interacting with an electronic device
JP6817350B2 (ja) ウェアラブル装置、制御方法及び制御プログラム
KR20130123116A (ko) 시스루 디스플레이를 이용한 동작인식 장치 및 그 방법
KR20080007777A (ko) 눈 응시 추적 장치를 이용한 정보 제공 방법 및 장치
Zhang Eye tracking and gaze interface design for pervasive displays
US20240103678A1 (en) Devices, methods, and graphical user interfaces for interacting with extended reality experiences
Imabuchi et al. Visible-spectrum remote eye tracker for gaze communication
US20240104861A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220609

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220609

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230106

R150 Certificate of patent or registration of utility model

Ref document number: 7209128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150