JP2023525248A - コマンドを入力するためのアイトラッキングシステム - Google Patents

コマンドを入力するためのアイトラッキングシステム Download PDF

Info

Publication number
JP2023525248A
JP2023525248A JP2022567120A JP2022567120A JP2023525248A JP 2023525248 A JP2023525248 A JP 2023525248A JP 2022567120 A JP2022567120 A JP 2022567120A JP 2022567120 A JP2022567120 A JP 2022567120A JP 2023525248 A JP2023525248 A JP 2023525248A
Authority
JP
Japan
Prior art keywords
display
eyes
user
graphical
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022567120A
Other languages
English (en)
Inventor
アイル マルティン
Original Assignee
アルコン インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルコン インコーポレイティド filed Critical アルコン インコーポレイティド
Publication of JP2023525248A publication Critical patent/JP2023525248A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Software Systems (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Robotics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Radiation-Therapy Devices (AREA)
  • Eye Examination Apparatus (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Position Input By Displaying (AREA)

Abstract

Figure 2023525248000001
特定の実施形態では、コマンドを入力するためのアイトラッキングシステムは、コンピュータ、3次元メガネ及びディスプレイを含む。コンピュータは、グラフィカル要素を有する3次元グラフィカルユーザインターフェースを生成し、各グラフィカル要素は、コマンドに対応する。3次元メガネは、3次元グラフィカルユーザインターフェースをユーザの両眼の方に向ける。ディスプレイは、グラフィカル要素をユーザに対して表示する。ディスプレイは、両眼を照明するように構成される発光ダイオードと、3次元グラフィカルユーザインターフェースに対する両眼の動きをトラッキングして、トラッキングされた両眼を生じさせるように構成されるカメラとを含む。コンピュータは、3次元グラフィカルユーザインターフェースに対するトラッキングされた両眼の動きを、選択されるグラフィカル要素との対話として解釈し、且つ選択されるグラフィカル要素に対応するコマンドを起動する。

Description

本開示は、概して、医療システムを制御することに関し、より詳細には、コマンドを入力するための両眼用システムに関する。
医療デバイスは、操作者からのコマンドに応答して多様なアクションを実行し得る。例えば、操作者は、コマンドパネルからコマンドを選択して、顕微鏡の倍率、焦点及び輝度を変更し得る。しかしながら、医療デバイスのためのコマンドを入力することには、特別な懸念がある。コマンドパネルに接触することにより、パネルが汚染される場合がある。さらに、コマンドを入力するためにパネルの一部を探索することにより、ユーザから時間及び注意が奪われる。したがって、既知のコマンドパネルは、特定の状況に対して適当でないことがある。
特定の実施形態では、コマンドを入力するためのアイトラッキングシステムは、コンピュータ、3次元(3D)メガネ及びディスプレイを含む。コンピュータは、グラフィカル要素を有する3Dグラフィカルユーザインターフェース(GUI)を生成し、各グラフィカル要素は、コマンドに対応する。3Dメガネは、3D GUIをユーザの両眼の方に向ける。ディスプレイは、グラフィカル要素をユーザに対して表示する。ディスプレイは、両眼を照明することによって両眼の上に光反射を生成するように構成される発光ダイオード(LED)と、3D GUIに対する両眼の動きをトラッキングして、トラッキングされた両眼を生じさせるように構成されるカメラとを含む。コンピュータは、3D GUIに対するトラッキングされた両眼の動きを、選択されるグラフィカル要素との対話として解釈し、且つ選択されるグラフィカル要素に対応するコマンドを起動する。
特定の実施形態では、アイトラッキングシステムを使用してコマンドを入力するための方法は、コンピュータにより、1つ又は複数のグラフィカル要素を含む3次元(3D)グラフィカルユーザインターフェース(GUI)を生成することを含む。各グラフィカル要素は、コマンドに対応する。ディスプレイは、3D GUIを表示し、及び3Dメガネは、1つ又は複数のグラフィカル要素を含む3D GUIをユーザの両眼の方に向ける。ディスプレイに関連付けられた2つ以上の発光ダイオード(LED)は、ユーザの両眼を照明する。ディスプレイに関連付けられた少なくとも1つのカメラは、3D GUIに対する両眼の動きをトラッキングして、トラッキングされた両眼を生じさせる。トラッキングされた両眼は、2つ以上のLEDによって照明され得る。コンピュータは、3D GUIに対するトラッキングされた両眼の動きを、選択されるグラフィカル要素との対話として解釈し、及びコンピュータは、選択されるグラフィカル要素に対応するコマンドを起動する。
本開示の実施形態について、添付図面を参照して例としてより詳細に説明する。
図1は、ユーザが眼の動きでコマンドを入力することを可能にするアイトラッキングシステムの実施形態を示す。 図2は、3Dメガネを含むアイトラッキングシステムの実施形態を示す。 図3は、図1のシステムと共に使用され得る、眼の動きでコマンドを入力する方法の実施例を示す。
ここで、説明及び図面を参照すると、開示される装置、システム及び方法の例示的な実施形態が詳細に示されている。当業者に明らかであるように、開示される実施形態は、例示であり、全ての可能な実施形態を網羅するものではない。
図1は、ユーザが眼の動きでコマンドを入力することを可能にするアイトラッキングシステム100の実施形態を示す。図1に示される実施形態では、アイトラッキングシステム100は、コンピュータ126、ディスプレイ106及びデバイス122に通信可能に連結されたフットペダル124を含む。コンピュータ126は、1つ又は複数のプロセッサ128、インターフェース130並びに3Dグラフィカルユーザインターフェース(GUI)134、アイトラッキング136及びデバイス制御138のためのコンピュータプログラムなどのロジックを記憶する1つ又は複数のメモリ132を含む。ディスプレイ106は、発光ダイオード(LED)102-1及び102-2(本明細書ではまとめて「LED102」と称する)並びにカメラ104を含む。加えて、ディスプレイ106は、3D GUI134の1つ又は複数のグラフィカル要素140を表示し得る。図2に示される実施形態では、グラフィカル要素140は、焦点要素112、輝度要素114、ズーム要素116、処置要素118及び操縦要素120を含む。グラフィカル要素140は、前要素108及び次要素110を追加的に含み得る。他の実施形態では、3D GUI134は、ユーザが眼の動きでコマンドを入力することを可能にするための、追加の、より少ない又は任意の適当な組み合わせのグラフィカル要素140を含み得る。
動作の実施例では、アイトラッキングシステム100は、ユーザが例えば手術用カメラなどの任意の適当なデバイス122にコマンドを入力することを可能にする。コンピュータ126は、1つ又は複数のグラフィカル要素140を含む3D GUI134を生成する。各グラフィカル要素140は、コマンドに対応する。少なくとも1つの3Dメガネが、例えば、眼科的処置を行う外科医などのユーザの両眼の方に3D GUI134を向け得るように、ディスプレイ106は、1つ又は複数のグラフィカル要素140を含む3D GUI134を表示する。2つ以上のLED102は、ディスプレイ106に通信可能に連結されて、ユーザの両眼を照明し得る。少なくとも1つのカメラ104は、ディスプレイ106に通信可能に連結されて、3D GUI134に対する両眼の動きをトラッキングし、トラッキングされた両眼を生じさせ得る。トラッキングされた両眼は、2つ以上のLED102によって照明され得る。コンピュータ126は、3D GUI134に対するトラッキングされた両眼の動きを、選択されるグラフィカル要素140との対話として解釈し得、且つ選択されるグラフィカル要素140に対応するコマンドを起動し得る。
一実施形態では、デバイス122は、患者の生体構造の高品質画像を可能にする解像度、画像深度、明瞭度及びコントラストを有する手術用カメラであり得る。例えば、ハイダイナミックレンジ(HDR)手術用カメラは、外科的処置、例えば眼科的処置中にアクションを実行するために眼の3D画像をキャプチャするように使用され得る。デバイス122は、ディスプレイ106と(例えば、有線接続、無線接続などを介して)通信可能に連結され得、ディスプレイ106は、外科医、スタッフ、学生及び/又は他の第三者に、眼の生体構造への深径覚を与える3D画像の立体表現を表示し得る。デバイス122は、広い視野を維持しながら、眼の生体構造の拡大率を増大させるためにも使用され得る。3D画像の立体表現は、3Dメガネを用いてディスプレイ106上で見られ得る。ディスプレイ106上に表示される3D画像の立体表現を用いると、ユーザは、顕微鏡の対眼レンズの上にかがむこと及び首に負担を掛けることなく、快適な位置にある間に患者の眼に対して外科的処置を実行し得る。
特定の実施形態では、コンピュータ126は、3D GUI134を生成し、3D GUI134は、ディスプレイ106を介してユーザの両眼の方に向けられる。3D GUI134は、1つ又は複数のグラフィカル要素140を含み、グラフィカル要素140は、任意の適当なサイズ又は形状を有し得る。各グラフィカル要素140は、典型的には、アクションを実行するため、例えばユーザによって定義される選択若しくは設定を受け入れるため、コンピュータ126にプログラムされたユーザ選択動作を実行するため、ユーザによって要求された情報を表示するため又は他の適当なアクションのための、デバイス122に対するコマンドに対応する。図1に示される実施形態では、グラフィカル要素140は、前要素108、次要素110、焦点要素112、輝度要素114、ズーム要素116、処置要素118及び操縦要素120を含む。前要素108は、前に戻るコマンド、例えば前のメニュー、メニューのリスト上の前のオプション及び/又は外科的処置の前のステップに移動するコマンドに対応する。次要素110は、先に進むコマンド、例えば次のメニュー、メニューのリスト上の次のオプション及び/又は外科的処置の次のステップに移動するコマンドに対応する。焦点要素112は、デバイス122によってキャプチャされる外科的処置の1つ又は複数の3D画像の焦点を制御するコマンドに対応する。輝度要素114は、外科的処置の1つ又は複数の3D画像の輝度レベル、例えばデバイス122のレンズを通して受光される光の量を制御するコマンドに対応する。ズーム要素116は、外科的処置の1つ又は複数の3D画像の画角を制御するコマンドに対応する。処置要素118は、外科的処置に関連付けられた処置パラダイムを含むステップのシーケンスをディスプレイ106上に表示するコマンドに対応する。操縦要素120は、外科的処置中、例えばx軸、y軸及び/又はz軸に沿ったデバイス122の動きを制御するコマンドに対応する。ユーザは、ディスプレイ106上に表示されるコマンドに対応するグラフィカル要素140とユーザの視線を対話させることにより、コマンドを入力し得る。
一実施形態では、コンピュータ126は、例えば、グラフィカル要素140の選択を示す、グラフィカル要素140に対する眼の動き(例えば、視線を動かすか若しくは向けること又は眼を瞬きすること)として対話を解釈し得る。一実施形態では、所定の秒数により、選択されるグラフィカル要素140の選択が示されるように、ユーザは、少なくとも所定の秒数、例えば少なくとも3、5又は10秒間、ユーザの視線をグラフィカル要素140に向け得る。別の実施形態では、ユーザは、選択されるグラフィカル要素140の選択を示すために、ユーザの視線をグラフィカル要素140に向け、所定の回数、例えば1、2又は3回瞬きし得る。他の実施形態では、対話は、ユーザの身体の別の部分の動きによって確認され得る。例えば、ユーザは、ユーザの視線をグラフィカル要素140の方に向けてグラフィカル要素140を選択し得、その後、ユーザの足でフットペダル124を作動させるか、又はユーザの手で物理ボタンを押すことにより、グラフィカル要素140の選択を確認し得る。図1に示される実施形態では、フットペダル124は、デバイス122を介してディスプレイ106に通信可能に連結され得る。別の実施形態では、フットペダル124は、ディスプレイ106に直接通信可能に連結され得る。特定の実施形態では、3D GUI134は、ユーザの視線がグラフィカル要素140と対話したかどうか、又はグラフィカル要素140を選択したかどうかを示し得る。例えば、3D GUI134は、ユーザの視線が選択した、ディスプレイ106上に表示されたグラフィカル要素140を強調し得る(例えば、より明るくするか又は色を変更するなど)。ユーザは、例えば、瞬きをし、手若しくは足を動かし、且つ/又はフットペダル124を作動させることにより、選択を確認し得る。
一実施形態では、コンピュータ126のアイトラッキングプログラム136は、3D GUI134に対するトラッキングされた両眼の動きを、選択されるグラフィカル要素140との対話として解釈し、デバイス制御プログラム138は、選択されるグラフィカル要素140に対応するコマンドを起動する。アイトラッキングプログラム136は、カメラ104によって生成された画像データから眼の視線方向を判定するための既知のアルゴリズムを含む。プロセッサ128は、視線方向を判定するためのアルゴリズムに基づいて計算を実行する。追加的に、アイトラッキングプログラム136は、例えば、瞬きなどの他の眼の動きを検出し得る。視線方向及び3D GUI134の位置を考慮すると、プロセッサ128は、グラフィカル要素140の選択を示す方式において、視線が3D GUI134のグラフィカル要素140と対話したかどうかを判定し得る。グラフィカル要素140が選択される場合、デバイス制御プログラム138は、選択される要素に対応するコマンドを起動する。
一実施形態では、ディスプレイ106は、デバイス122によってキャプチャされた外科的処置の1つ又は複数の3D画像の立体表現を表示し得る。ディスプレイ106は、ユーザに対して表示される外科的処置の1つ又は複数の3D画像の上に3D GUI134が重畳され得るように、3D GUI134を追加的に表示し得る。一実施形態では、ディスプレイ106は、デバイス122から情報(例えば、手術パラメータ)を受信し得、1つ又は複数の3D画像の立体表現と共に情報を表示し得る。別の実施形態では、ディスプレイ106は、動作(例えば、映像記録を開始及び停止すること)を実行するために、デバイス122から信号を受信することもできる。一実施形態では、ディスプレイ106は、外科的処置の1つ又は複数の3D画像の立体表現を表示するために用いられる3Dモニタであり得るか又はそれを含み得る。図1に示される実施形態では、ディスプレイ106は、LED102及びカメラ104を含み得る。
一実施形態では、LED102は、外科的処置中、トラッキングされた両眼を照明し得る。具体的には、LED102は、トラッキングされた両眼を照明して、画像データを生成するためにカメラ104によって検出され得る光の反射を生成し得る。LED102は、任意の適当な光、例えば可視光及び/又は赤外線(IR)光で照明し得る。一実施形態では、LED102は、電磁放射線スペクトルのIR範囲、例えば700ナノメートル(nm)~1ミリメートル(mm)の範囲の光を放射するソリッドステート発光(SSL)デバイスであり得るか又はそれを含み得る。赤外線カメラと共に使用されるとき、IR LED102は、肉眼では見えないまま、トラッキングされた両眼を照明し得る。このようにして、IR LED102は、例えば、外科的処置中にユーザのトラッキングされた両眼に放射される明るい光など、視覚的な注意散漫を引き起こすことなく、トラッキングされた両眼を照明し得る。図1に示される実施形態では、LED102がディスプレイ106の上に配置されているが、LED102は、トラッキングされた両眼の動きをトラッキングするための任意の適当な位置に配置され得る。追加的に、任意の適当な数のLED102は、トラッキングされた両眼の動きをトラッキングするために用いられ得る。他の実施形態では、任意の適当な発光体、例えばハロゲンランプ、赤外線ランプ、フィルタ付き白熱ランプなどが使用され得る。
一実施形態では、カメラ104は、外科的処置中、ディスプレイ106上に表示される3D GUI134のグラフィカル要素140に対するトラッキングされた両眼の動きをトラッキングし得る。具体的には、カメラ104は、例えば、角膜(前面)、瞳孔中心、輪部、レンズ(後面)及び/又はトラッキングされた両眼の任意の他の適当な部分から、LED102によって照明されるトラッキングされた両眼からの光反射を検出し得る。カメラ104は、トラッキングされた両眼を描写する画像データを生成し得、その画像データをコンピュータ126に送信し得る。特に、カメラ104は、トラッキングされた両眼からの光反射を描写する画像データを生成し得、その画像データを(例えば、有線接続、無線接続などを介して)コンピュータ126のアイトラッキングプログラム136に伝送し得る。画像データを受信することに応答して、アイトラッキングプログラム136は、画像データを用いて、3D GUI134に対するトラッキングされた両眼の動きを、選択されるグラフィカル要素140との対話として解釈し得る。同様に、コンピュータ126のデバイス制御プログラム138は、カメラ104によって生成された画像データを用いて、選択されるグラフィカル要素140に対応するコマンドを起動し得る。図1に示される実施形態では、カメラ104がディスプレイ106の上に配置されているが、カメラ104は、トラッキングされた両眼の動きをトラッキングするための任意の適当な位置に配置され得る。追加的に、任意の適当な数のカメラ104は、トラッキングされた両眼の動きをトラッキングするために用いられ得る。他の実施形態では、例えば、サーモグラフィックカメラ、短波長赤外線カメラ、中波長赤外線カメラ、長波長赤外線カメラなどの任意の適当なカメラが使用され得る。
図2は、3Dメガネ200を含むアイトラッキングシステム100の実施形態を示す。図2に示される実施形態では、3Dメガネ200は、例えば、眼科的処置を行う外科医など、ユーザの両眼の方に3D GUI134を向け得る。LED102は、光ビーム、例えば光ビーム202-1及び202-2(本明細書ではまとめて「光ビーム202」と称する)を放射することにより、ユーザの両眼を照明し得る。これは、図2に示されており、図2では、LED102-1が光ビーム202-1を放射し、LED102-2が光ビーム202-2を放射する。LED102によって放射される各光ビーム202は、3Dメガネ200のレンズを通して進行して、光反射204-1及び204-2(本明細書ではまとめて「光反射204」と称する)を両眼から発生させ得る。両眼からの光反射204は、カメラ104によってトラッキングされて、トラッキングされた両眼を生じさせ得る。例えば、光ビーム202は、カメラ104が3D GUI134に対するトラッキングされた両眼の動きをトラッキングするために使用され得る、トラッキングされた両眼の角膜からの光反射204を引き起こし得る。カメラ104が、光反射204に基づいて、トラッキングされた両眼の動きをトラッキングし得るように、ユーザのトラッキングされた両眼は、外科的処置全体を通してLED102から放射される光ビーム202によって連続的に照明され得る。3D GUI134に対するトラッキングされた両眼の動きは、コンピュータ126(図示せず)により、選択されるグラフィカル要素140との対話として解釈され得、コンピュータ126は、選択されるグラフィカル要素140に対応するコマンドを起動し得る。例えば、カメラ104は、光反射204をトラッキングして、トラッキングされた両眼を描写する画像データを生成し得る。コンピュータ126は、画像データを解釈して、トラッキングされた両眼が焦点要素112との対話(例えば、視線)を開始したことを判定し得る。トラッキングされた両眼の動きを焦点要素112との対話として解釈し、且つ/又は所定の数の瞬きを受信すると、コンピュータ126は、焦点コマンド命令デバイス122を起動して、デバイス122によってキャプチャされる外科的処置の1つ又は複数の3D画像の焦点を制御し得る。一実施形態では、1つ又は複数のセンサが、3D GUI134に対するトラッキングされた両眼の動きをトラッキングし得るように、3Dメガネ200は、3Dメガネ200内に配置される1つ又は複数のセンサ(図示せず)を含み得る。例えば、LED102は、トラッキングされた両眼を照明し得、1つ又は複数のセンサは、トラッキングされた両眼が、選択されるグラフィカル要素140との対話を開始したかどうかを判定し得る。
いくつかの実施形態では、ディスプレイ106に対するユーザの頭の位置は、外科的処置前にアイトラッキングシステム100を較正するために判定され得る。一実施形態では、カメラ104が、トラッキングされた両眼を描写する画像データを正確に生成し得るように、ユーザがカメラ104を較正し得る。例えば、ユーザが、典型的には、外科的処置中に使用される着座位置にある間、ディスプレイ106は、ディスプレイ106上に表示される特定のグラフィカル要素140を見るようにユーザに指示するプロンプトを表示し得る。コンピュータ126は、着座位置におけるユーザのトラッキングされた両眼の軌道を、ディスプレイ106上に表示される特定のグラフィカル要素の位置と関連付けて、アイトラッキングシステム100を較正し得る。別の実施形態では、アイトラッキングシステム100は、ユーザから画像データを受信することなく較正プロセスを起動し得る。例えば、アイトラッキングシステム100は、システム起動時、周囲の環境に関連してカメラ104を較正するために用いられる組み込み自己テスト(BIST)を採用し得る。
図3は、図1及び図2のシステム100と共に使用され得る、眼の動きでコマンドを入力する方法の実施例を示す。方法は、ステップ310で開始し、ステップ310において、コンピュータ126は、1つ又は複数のグラフィカル要素140を含む3次元(3D)グラフィカルユーザインターフェース(GUI)134を生成する。各グラフィカル要素140は、コマンドに対応する。ステップ320において、ディスプレイ106は、グラフィカル要素140を含む3D GUI134を表示する。3Dメガネ200は、ステップ330において、3D GUI134をユーザの両眼の方に向ける。ステップ340において、2つ以上の発光ダイオード(LED)102は、両眼を照明する。2つ以上のLED102は、ディスプレイ106に関連付けられ得る。例えば、LED102は、図2に示されるように、ディスプレイ106に通信可能に連結され得る。ステップ350において、カメラ104は、3D GUIに対する両眼の動きをトラッキングして、トラッキングされた両眼を生じさせ得る。トラッキングされた両眼は、2つ以上のLED102によって照明され得る。コンピュータ126は、ステップ360において、3D GUIに対するトラッキングされた両眼の動きを、選択されるグラフィカル要素140との対話として解釈する。ステップ370において、コンピュータ126は、選択されるグラフィカル要素に対応するコマンドを起動する。
本明細書で開示されたシステム及び装置のコンポーネント(例えば、コンピュータ)は、インターフェース、ロジック及び/又はメモリを含み得、そのいずれもハードウェア及び/又はソフトウェアを含み得る。インターフェースは、コンポーネントへの入力を受信し、コンポーネントから出力を提供し、且つ/又は入力及び/若しくは出力を処理し得る。ロジックは、コンポーネントの動作を実行し、例えば命令を実行して入力から出力を生成し得る。ロジックは、1つ若しくは複数のコンピュータ又は1つ若しくは複数のマイクロプロセッサ(例えば、コンピュータ内に存在するチップ)などのプロセッサであり得る。ロジックは、コンピュータプログラム又はソフトウェアなど、コンピュータによって実行され得る、メモリ内の符号化されたコンピュータ実行可能命令であり得る。メモリは、情報を記憶し得、1つ又は複数の有形の、非一時的な、コンピュータ可読の、コンピュータ実行可能記憶媒体を含み得る。メモリの例は、コンピュータメモリ(例えば、ランダムアクセスメモリ(RAM)又は読み出し専用メモリ(ROM))、大容量記憶媒体(例えば、ハードディスク)、リムーバブル記憶媒体(例えば、コンパクトディスク(CD)又はデジタルビデオディスク(DVD))及びネットワークストレージ(例えば、サーバ又はデータベース)を含む。
本開示は、特定の実施形態に関して説明されているが、実施形態の修正形態(代用形態、追加形態、改変形態又は省略形態など)は、当業者に明らかである。したがって、本発明の範囲から逸脱することなく、実施形態に対する修正形態がなされ得る。例えば、本明細書で開示されたシステム及び装置に対する修正形態がなされ得る。システム及び装置のコンポーネントは、統合又は分離され得、システム及び装置の動作は、より多い、より少ない又は他のコンポーネントによって実行され得る。別の例として、本明細書で開示された方法に対する修正形態がなされ得る。方法は、より多い、より少ない又は他のステップを含み得、ステップは、任意の適当な順序で実行され得る。

Claims (20)

  1. コマンドを入力するためのアイトラッキングシステムであって、
    1つ又は複数のグラフィカル要素を含む3次元(3D)グラフィカルユーザインターフェース(GUI)を生成するように構成されるコンピュータであって、各グラフィカル要素は、コマンドに対応する、コンピュータ、
    前記1つ又は複数のグラフィカル要素を含む前記3D GUIをユーザの両眼の方に向けるように構成される少なくとも1つの3Dメガネ、
    前記1つ又は複数のグラフィカル要素を前記ユーザに対して表示するように構成されるディスプレイであって、
    前記両眼を照明するように構成される2つ以上の発光ダイオード(LED)、及び
    前記3D GUIに対する前記両眼の動きをトラッキングして、トラッキングされた両眼を生じさせるように構成される少なくとも1つのカメラであって、前記トラッキングされた両眼は、前記2つ以上のLEDによって照明される、少なくとも1つのカメラ
    を含むディスプレイ
    を含み、前記コンピュータは、
    前記3D GUIに対する前記トラッキングされた両眼の動きを、選択されるグラフィカル要素との対話として解釈することと、
    前記選択されるグラフィカル要素に対応する前記コマンドを起動することと
    を行うようにさらに構成される、アイトラッキングシステム。
  2. 外科的処置の1つ又は複数の3D画像をキャプチャするように構成されるデバイスであって、前記ディスプレイに通信可能に連結され、前記ディスプレイは、前記外科的処置の前記1つ又は複数の3D画像及び前記1つ又は複数のグラフィカル要素を前記ユーザに対して表示するように構成される、デバイスをさらに含む、請求項1に記載のアイトラッキングシステム。
  3. 前記1つ又は複数のグラフィカル要素は、前記ユーザに対して前記ディスプレイ上に表示された前記外科的処置の前記1つ又は複数の3D画像の上に重畳される、請求項2に記載のアイトラッキングシステム。
  4. 前記1つ又は複数のグラフィカル要素は、
    前記外科的処置の前記1つ又は複数の3D画像の焦点を制御するコマンドに対応する焦点要素、
    前記外科的処置の前記1つ又は複数の3D画像の輝度レベルを制御するコマンドに対応する輝度要素、
    前記外科的処置の前記1つ又は複数の3D画像の画角を制御するコマンドに対応するズーム要素、
    前記外科的処置に関連付けられた処置パラダイムを含むステップのシーケンスを前記ディスプレイ上に表示するコマンドに対応する処置要素、
    前記デバイスの動きを制御するコマンドに対応する操縦要素
    の少なくとも1つを含む、請求項2に記載のアイトラッキングシステム。
  5. 前記1つ又は複数のグラフィカル要素は、
    前に戻るコマンドに対応する前要素、及び
    先に進むコマンドに対応する次要素
    の少なくとも1つを含む、請求項1に記載のアイトラッキングシステム。
  6. 前記2つ以上のLEDは、赤外線(IR)LEDから構成される、請求項1に記載のアイトラッキングシステム。
  7. 前記選択されるグラフィカル要素との前記対話は、前記ユーザの前記トラッキングされた両眼によって発生する所定の数の瞬きを含み、前記所定の数の瞬きは、前記選択されるグラフィカル要素の選択を示す、請求項1に記載のアイトラッキングシステム。
  8. 前記選択されるグラフィカル要素との前記対話は、前記ユーザの前記トラッキングされた両眼が、前記選択されるグラフィカル要素と対話する所定の秒数を含み、前記所定の秒数は、前記選択されるグラフィカル要素の選択を示す、請求項1に記載のアイトラッキングシステム。
  9. 前記選択されるグラフィカル要素との前記対話は、前記選択されるグラフィカル要素の、フットペダルを介したユーザ確認を含み、前記フットペダルは、前記ディスプレイに通信可能に連結される、請求項1に記載のアイトラッキングシステム。
  10. 前記少なくとも1つの3Dメガネ内に配置される1つ又は複数のセンサであって、前記3D GUIに対する前記トラッキングされた両眼の前記動きをトラッキングするように構成される1つ又は複数のセンサをさらに含む、請求項1に記載のアイトラッキングシステム。
  11. アイトラッキングシステムを使用してコマンドを入力するための方法であって、
    コンピュータにより、1つ又は複数のグラフィカル要素を含む3次元(3D)グラフィカルユーザインターフェース(GUI)を生成することであって、各グラフィカル要素は、コマンドに対応する、生成することと、
    ディスプレイにより、前記1つ又は複数のグラフィカル要素を含む前記3D GUIを表示することと、
    少なくとも1つの3Dメガネにより、前記1つ又は複数のグラフィカル要素を含む前記3D GUIをユーザの両眼の方に向けることと、
    前記ディスプレイに関連付けられた2つ以上の発光ダイオード(LED)により、前記ユーザの前記両眼を照明することと、
    前記ディスプレイに関連付けられた少なくとも1つのカメラにより、前記3D GUIに対する前記両眼の動きをトラッキングして、トラッキングされた両眼を生じさせることであって、前記トラッキングされた両眼は、前記2つ以上のLEDによって照明される、生じさせることと、
    前記3D GUIに対する前記トラッキングされた両眼の動きを、選択されるグラフィカル要素との対話として解釈することと、
    前記選択されるグラフィカル要素に対応する前記コマンドを起動することと
    を含む方法。
  12. デバイスにより、外科的処置の1つ又は複数の3D画像をキャプチャすることであって、前記デバイスは、前記ディスプレイに通信可能に連結され、前記ディスプレイは、前記外科的処置の前記1つ又は複数の3D画像及び前記1つ又は複数のグラフィカル要素を前記ユーザに対して表示するように構成される、キャプチャすることをさらに含む、請求項11に記載の方法。
  13. 前記1つ又は複数のグラフィカル要素は、前記ユーザに対して前記ディスプレイ上に表示された前記外科的処置の前記1つ又は複数の3D画像の上に重畳される、請求項12に記載の方法。
  14. 前記1つ又は複数のグラフィカル要素は、
    前記外科的処置の前記1つ又は複数の3D画像の焦点を制御するコマンドに対応する焦点要素、
    前記外科的処置の前記1つ又は複数の3D画像の輝度レベルを制御するコマンドに対応する輝度要素、
    前記外科的処置の前記1つ又は複数の3D画像の画角を制御するコマンドに対応するズーム要素、
    前記外科的処置に関連付けられた処置パラダイムを含むステップのシーケンスを前記ディスプレイ上に表示するコマンドに対応する処置要素、
    前記デバイスの動きを制御するコマンドに対応する操縦要素
    の少なくとも1つを含む、請求項12に記載の方法。
  15. 前記1つ又は複数のグラフィカル要素は、
    前に戻るコマンドに対応する前要素、及び
    先に進むコマンドに対応する次要素
    の少なくとも1つを含む、請求項11に記載の方法。
  16. 前記2つ以上のLEDは、赤外線(IR)LEDから構成される、請求項11に記載の方法。
  17. 前記選択されるグラフィカル要素との前記対話は、前記ユーザの前記トラッキングされた両眼によって発生する所定の数の瞬きを含み、前記所定の数の瞬きは、前記選択されるグラフィカル要素の選択を示す、請求項11に記載の方法。
  18. 前記選択されるグラフィカル要素との前記対話は、前記ユーザの前記トラッキングされた両眼が、前記選択されるグラフィカル要素と対話する所定の秒数を含み、前記所定の秒数は、前記選択されるグラフィカル要素の選択を示す、請求項11に記載の方法。
  19. 前記選択されるグラフィカル要素との前記対話は、前記選択されるグラフィカル要素の、フットペダルを介したユーザ確認を含み、前記フットペダルは、前記ディスプレイに通信可能に連結される、請求項11に記載の方法。
  20. 前記少なくとも1つの3Dメガネ内に配置される1つ又は複数のセンサであって、前記3D GUIに対する前記トラッキングされた両眼の前記動きをトラッキングするように構成される1つ又は複数のセンサをさらに含む、請求項11に記載の方法。
JP2022567120A 2020-05-07 2021-05-08 コマンドを入力するためのアイトラッキングシステム Pending JP2023525248A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202063021231P 2020-05-07 2020-05-07
PCT/IB2021/053921 WO2021224889A1 (en) 2020-05-07 2021-05-08 Eye-tracking system for entering commands

Publications (1)

Publication Number Publication Date
JP2023525248A true JP2023525248A (ja) 2023-06-15

Family

ID=75919354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022567120A Pending JP2023525248A (ja) 2020-05-07 2021-05-08 コマンドを入力するためのアイトラッキングシステム

Country Status (7)

Country Link
US (1) US20210349534A1 (ja)
EP (1) EP4147116A1 (ja)
JP (1) JP2023525248A (ja)
CN (1) CN115605828A (ja)
AU (1) AU2021267423A1 (ja)
CA (1) CA3172938A1 (ja)
WO (1) WO2021224889A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220374067A1 (en) * 2021-05-19 2022-11-24 International Business Machines Corporation Augmented reality based power management
US20230050526A1 (en) * 2021-08-10 2023-02-16 International Business Machines Corporation Internet of things configuration using eye-based controls

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009153789A1 (en) * 2008-06-18 2009-12-23 Surgix Ltd. A method and system for stitching multiple images into a panoramic image
US9244539B2 (en) * 2014-01-07 2016-01-26 Microsoft Technology Licensing, Llc Target positioning with gaze tracking
EP3445048A1 (en) * 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
US11190411B1 (en) * 2019-09-24 2021-11-30 Amazon Technologies, Inc. Three-dimensional graphical representation of a service provider network

Also Published As

Publication number Publication date
CN115605828A (zh) 2023-01-13
AU2021267423A1 (en) 2022-10-20
US20210349534A1 (en) 2021-11-11
WO2021224889A1 (en) 2021-11-11
CA3172938A1 (en) 2021-11-11
EP4147116A1 (en) 2023-03-15

Similar Documents

Publication Publication Date Title
US11832901B2 (en) Surgical suite integration and optimization
US10895742B2 (en) Microsurgery system for displaying in real time magnified digital image sequences of an operated area
CN104094197B (zh) 利用投影仪的注视追踪
US20210325649A1 (en) System and method to automatically adjust illumination during a microsurgical procedure
KR101742049B1 (ko) 적외선 마이봄샘 촬영장치 및 마이봄샘 촬영방법
CN107076973A (zh) 手术显微镜中的眩光减少
JP2023525248A (ja) コマンドを入力するためのアイトラッキングシステム
US20220338733A1 (en) External alignment indication/guidance system for retinal camera
US11698535B2 (en) Systems and methods for superimposing virtual image on real-time image
CN108524097B (zh) 一种激光治疗成像装置
JP6499883B2 (ja) レーザ治療装置
JP6556466B2 (ja) レーザ治療装置
JP2021529365A (ja) コマンドを入力するための双眼システム
JP6895277B2 (ja) 眼科用観察装置及びその作動方法
JP2019048161A (ja) レーザ治療装置
JP7042029B2 (ja) 眼科用観察装置及びその作動方法
JP7099855B2 (ja) 視標呈示装置
JP6895278B2 (ja) 眼科用観察装置及びその作動方法
JP6484466B2 (ja) レーザ治療装置
JP2021069714A (ja) 眼底撮像装置および眼疾検査装置
JP2019081091A (ja) レーザ治療装置