JP2022116156A - 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法 - Google Patents

立体ビューワのための視線追跡を統合する医療装置、システム、及び方法 Download PDF

Info

Publication number
JP2022116156A
JP2022116156A JP2022084912A JP2022084912A JP2022116156A JP 2022116156 A JP2022116156 A JP 2022116156A JP 2022084912 A JP2022084912 A JP 2022084912A JP 2022084912 A JP2022084912 A JP 2022084912A JP 2022116156 A JP2022116156 A JP 2022116156A
Authority
JP
Japan
Prior art keywords
eye
light
user
surgeon
right eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022084912A
Other languages
English (en)
Inventor
マイケル ジャーク,アンソニー
Michael Jarc Anthony
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intuitive Surgical Operations Inc
Original Assignee
Intuitive Surgical Operations Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intuitive Surgical Operations Inc filed Critical Intuitive Surgical Operations Inc
Publication of JP2022116156A publication Critical patent/JP2022116156A/ja
Priority to JP2024021732A priority Critical patent/JP2024061720A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
    • G02B30/35Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers using reflective optical elements in the optical path between the images and the observer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/742Joysticks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/744Mouse
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • G02B21/20Binocular arrangements
    • G02B21/22Stereoscopic arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/34Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Endoscopes (AREA)
  • Eye Examination Apparatus (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Microscoopes, Condenser (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】手術野の画像をユーザに表示する画像ディスプレイを有する目追跡システムを提供する。【解決手段】システム200は、第2の波長範囲の光を放射するように、且つ、ユーザの右目の第1の注視点に関するデータを測定する右目追跡装置、第2の波長範囲の光を放射するように、且つ、ユーザの左目の第2の注視点に関するデータを測定する左目追跡装置、画像ディスプレイとユーザの右目及び左目との間に配置される光学アセンブリであって、右目追跡装置及び左目追跡装置がユーザに見えることなしに、第1及び第2の波長が、左目と画像ディスプレイとの間の左光学経路の一部を共有し、且つ、右目と画像ディスプレイとの間の右光学経路の一部を共有するように、第1、第2の波長範囲の光を導く光学アセンブリ及びユーザの注視点が向けられている表示画像における視点を決定するために第1の注視点及び第2の注視点に関するデータを処理するプロセッサを有する。【選択図】図3A

Description

外科手術は、遠隔操作医療システムを使用して低侵襲な方法で実行されることができる。低侵襲手術の利点は良く知られており、従来の、開放切開手術と比べるとき、より少ない患者の外傷、より少ない失血、より早い回復時間を含む。加えて、カリフォルニア州SunnyvaleのIntuitive Surgical, Inc.,により商業化されているDA VINCI(登録商標)手術システムのような、遠隔操作医療システムの使用が知られている。このような遠隔操作医療システムは、手動低侵襲手術と比べるとき、外科医が、直感的な制御及び増加した精度で手術することを可能にするかもしれない。
遠隔操作医療システムは、1又は複数のロボットアームに結合される1又は複数の器具を含むかもしれない。システムが、低侵襲手術を行うために使用される場合、器具は、小さい切開部又は、例えば、口、尿道、又は肛門等、自然の開口のような、患者の1又は複数の小さい開口部を通って手術領域にアクセスするかもしれない。幾つかの場合には、開口(複数可)を通って器具を直接挿入するのではなく、カニューレ又は他のガイド要素が、それぞれの開口に挿入されることができ、器具は、手術領域にアクセスするためにカニューレを通って挿入されることができる。内視鏡のようなイメージングツールが手術領域を見るために使用されることができ、イメージングツールによって取り込まれた画像は、手術中に外科医が見るために画像ディスプレイに表示されることができる。
低侵襲医療処置中に様々な用途のために視線追跡を効果的且つ正確に用いることができる遠隔操作医療システムを提供することが望ましい。本明細書に開示されるシステム及び方法は、従来技術の欠陥の1又は複数を克服する。
例示的な態様において、本開示は、画像ディスプレイ、右目追跡装置、左目追跡装置、及び少なくとも1つのプロセッサを有する視標追跡(eye tracking)システムを対象にする。画像ディスプレイは、手術野の画像をユーザに表示するように構成される。1つの態様では、右目追跡装置は、ユーザの右目の第1の注視点(gaze point)に関するデータを測定するように構成される。1つの態様では、右目追跡装置は、右立体イメージング(right stereo imaging)装置を含む。1つの態様では、左目追跡装置は、ユーザの左目の第2の注視点に関するデータを測定するように構成される。1つの態様では、左目追跡装置は、左立体イメージング(left stereo imaging)装置を含む。1つの態様では、少なくとも1つのプロセッサは、ユーザの注視点が向けられている表示される画像における視点(viewing location)を決定するために第1の注視点及び第2の注視点に関するデータを処理するように構成される。
他の例示的な態様では、本開示は、画像ディスプレイ、右目追跡装置、左目追跡装置、光学アセンブリ、及び少なくとも1つのプロセッサを有する視標追跡システムを対象にする。画像ディスプレイは、手術野の画像をユーザに表示するように構成され、且つ第1の波長範囲の光を放射するように構成される。1つの態様では、右目追跡装置は、第2の波長範囲の光を放射するように且つユーザの右目の第1の注視点に関するデータを測定するように、構成される。1つの態様では、左目追跡装置は、第2の波長範囲の光を放射するように且つユーザの左目の第2の注視点に関するデータを測定するように、構成される。1つの態様では、光学アセンブリは、画像ディスプレイとユーザの右目及び左目との間に配置される。1つの態様では、光学アセンブリは、第1及び第2の波長が、右目追跡装置及び左目追跡装置がユーザに見えることなしに、左目と画像ディスプレイとの間の左光学経路の少なくとも一部を共有し且つ右目と画像ディスプレイとの間の右光学経路の少なくとも一部を共有するように、第1及び第2の波長範囲の光を導くように構成される。1つの態様では、少なくとも1つのプロセッサは、ユーザの注視点が向けられている表示される画像における視点を決定するために第1の注視点及び第2の注視点に関するデータを処理するように構成される。
他の例示的な態様では、本開示は、医療処置を実行するための遠隔操作医療システムを対象にする。1つの態様では、遠隔操作医療システムは、視標追跡システム及び制御ユニットを有する。1つの態様では、視標追跡システムは、画像ディスプレイ、少なくとも1つの右目追跡装置、少なくとも1つの左目追跡装置、及び少なくとも1つのプロセッサを有する。画像ディスプレイは、手術野の画像をユーザに表示するように構成される。1つの態様では、少なくとも1つの右目追跡装置は、ユーザの右目の第1の注視点に関するデータを測定するように構成され、少なくとも1つの左目追跡装置は、ユーザの左目の第2の注視点に関するデータを測定するように構成される。1つの態様では、少なくとも1つのプロセッサは、ユーザの注視点が向けられている表示される画像における視点を決定するために第1の注視点及び第2の注視点に関するデータを処理するように構成される。1つの態様では、制御ユニットは、決定された視点に基づいて遠隔操作医療システムの少なくとも1つの機能を制御するように構成される。
他の例示的な態様では、本開示は、画像ディスプレイ、少なくとも1つの右目追跡装置、少なくとも1つの左目追跡装置、右目発光装置、左目発光装置、光学アセンブリ、及び少なくとも1つのプロセッサを有する視標追跡システムを対象にする。画像ディスプレイは、手術野の立体画像をユーザに表示するように構成される。1つの態様では、少なくとも1つの右目追跡装置は、ユーザの右目の第1の注視点に関するデータを測定するように構成され、少なくとも1つの左目追跡装置は、ユーザの左目の第2の注視点に関するデータを測定するように構成される。1つの態様では、右目発光装置は、ユーザの右目に第1の波長範囲の光を放射するように構成され、左目発光装置は、ユーザの左目に第1の波長範囲の光を放射するように構成される。1つの態様では、光学アセンブリは、画像ディスプレイとユーザの目との間に位置する。1つの態様では、光学アセンブリは、ユーザの目、目追跡装置、及び発光装置との間の光学連通(optical communication)を提供するように配置される右目ミラーセット及び左目ミラーセットを有する。1つの態様では、少なくとも1つのプロセッサは、ユーザの注視点が向けられている表示される画像における視点を決定するために第1の注視点及び第2の注視点に関するデータを処理するように構成される。
これらの及び他の実施形態は、以下の図に関して、以下にさらに詳細に記載される。
本開示の態様は、添付の図面と併せて読むとき、以下の詳細な説明から最も良く理解される。この業界での標準的な慣例に従って、様々な特徴は一定の縮尺で描かれていないことを強調しておく。実際、様々な特徴の寸法は、議論を明確にするために適宜拡大又は縮小される場合がある。また、本開示は、様々な例において参照数字及び/又は文字を繰り返して使用する場合がある。この繰返しは、簡略化と明瞭化を目的として行われており、論じられる様々な実施形態及び/又は構成の間の関係をそれ自体で規定するものではない。
本開示の1つの実施形態による、例示の遠隔操作医療システムを示す。 本開示の1つの実施形態による、遠隔操作医療システムの例示の構成要素を示し、特に、本開示の1つの実施形態による例示の遠隔操作アセンブリの正面図を示す。 本開示の1つの実施形態による、遠隔操作医療システムの例示の構成要素を示し、本開示の1つの実施形態による例示のオペレータ入力システムの正面図を示す。 本開示の1つの実施形態による、遠隔操作医療システムの例示の構成要素を示し、本開示の1つの実施形態による例示のビジョンカート構成要素の正面図を示す。 本開示の1つの実施形態による例示の画像ディスプレイ及び手術野に対するユーザの3D座標フレームのブロック図を示す。 本開示の1つの実施形態による、遠隔操作システム及び/又は手術器具に作用するように視標追跡ユニットを使用する例示の方法を示すフローチャートである。 本開示による図1A、1B、及び1Cの遠隔操作医療システムによって使用される立体ビューワの視標追跡システムの様々な実施形態を概略的に示す。 本開示による図1A、1B、及び1Cの遠隔操作医療システムによって使用される立体ビューワの視標追跡システムの様々な実施形態を概略的に示す。 本開示による図1A、1B、及び1Cの遠隔操作医療システムによって使用される立体ビューワの視標追跡システムの様々な実施形態を概略的に示す。 本開示による図1A、1B、及び1Cの遠隔操作医療システムによって使用される立体ビューワの視標追跡システムの様々な実施形態を概略的に示す。 本開示の1つの実施形態による図3A-3Dの視標追跡システムを使用する外科医の3D注視点を決定するための方法を示す。 本開示の1つの実施形態による、所定のターゲットTが較正処理中にディスプレイ上に示されるときの外科医の角膜反射及び瞳孔を追跡する視標追跡ユニットの例を示す概略図である。 本開示の1つの実施形態による、外科医の角膜反射及び瞳孔の位置に対応する2D座標フレームの例を示す概略図である。
本開示の原理の理解を促進する目的のために、図面で例示される実施形態をここで参照し、特定の言語を、これを説明するために使用する。それにもかかわらず、本開示の範囲の限定は意図されないことが理解されるであろう。本発明の態様の以下の詳細な説明では、開示された実施形態の完全な理解を提供するために、多数の特定の詳細について説明する。しかし、本開示の実施形態は、これら特定の詳細がなくても実施できることは当業者には明らかであろう。他の例では、周知の方法、手順、構成要素、及び回路は、本発明の実施形態の態様を不必要に曖昧にしないように詳細に説明していない。
説明される装置、器具、方法、及び本開示の原理の任意のさらなる適用に対する任意の代替及びさらなる修正は、本開示が関連する分野の当業者が通常想起し得るように完全に企図される。具体的には、1つの実施形態について説明される特徴、構成要素、及び/又はステップは、本開示の他の実施形態について説明される特徴、構成要素、及び/又はステップと組み合わせることができることが完全に企図される。加えて、本明細書で提供される寸法は特定の例に関するものであり、異なるサイズ、寸法、及び/又は比が、本開示の概念を実現するために用いられてよいことが企図される。説明の不要な重複を避けるために、1つの例示的な実施形態にしたがって記載された1又は複数の構成要素又は動作は、他の例示的な実施形態に必要に応じて使用することができる又は他の例示的な実施形態から必要に応じて省略され得る。簡潔さのために、これらの組合せの多数の繰り返しは、別々に記載されない。単純にするために、いくつかの場合、同じ参照番号が、同じ又は同様の部分を言及するために図面全体を通して使用される。
以下の実施形態は、様々な器具及び器具の部分を、三次元空間におけるそれらの状態の観点から、説明する。本明細書で使用されるとき、用語「位置」は、三次元空間(例えば、デカルトX,Y,Z座標に沿った並進3自由度)における対象物又は対象物の一部の場所を指す。本明細書で使用されるとき、用語「向き」は、対象物又は対象物の一部の回転配置(回転の3自由度-例えば、ロール、ピッチ、及びヨー)を指す。本明細書で使用されるとき、用語「姿勢」は、並進自由度の少なくとも1つの自由度における対象物又は対象物の一部の位置、及び回転自由度の少なくとも1つの自由度における対象物又は対象物の一部の向き(合計6つの自由度まで)を指す。本明細書で使用されるとき、用語「形状」は、細長い対象物に沿って測定された姿勢、位置、又は向きのセットを指す。
用語「近位」及び「遠位」は、本明細書では、臨床医から手術部位に延びる器具の端部を操作する臨床医に関連して使用されることが理解されるであろう。用語「近位」は、臨床医により近い器具の部分を指し、用語「遠位」は、臨床医から離れ且つ手術部位により近い器具の部分を指す。簡潔さ及び明瞭さのために、「水平」、「垂直」、「より上」、及び「より下」のような空間に関する用語は、本明細書では図面に関して使用され得る。しかし、手術器具は、多くの方向及び位置で使用され、これらの用語は、限定すること及び絶対的であることを意図されていない。
本開示は、概して、限定ではなく、診断、手術、及び/又は治療処置を含む、様々な医療処置で使用される遠隔操作医療システム及び/又は器具の使用中のユーザの目の特性を観察し且つ測定する(例えば、視線追跡)ための視標追跡システムに関する。特に、幾つかの実施形態では、本明細書に開示される視標追跡システムは、手術コンソールのユーザの視線の正確な位置(例えば、2D又は3D位置)を追跡する能力に依存する。幾つかの実施形態では、視標追跡システムは、システム器具を直接操作することによって及び/又はシステム全体の変化を生じさせるようにシステムの特性に影響を及ぼすことによって、遠隔操作システムを制御するために使用され得る。特に、本開示の幾つかの実施形態は、低侵襲処置中にオペレータが遠隔操作医療システムを使用する間に外科医コンソールのオペレータの視線を正確に追跡することによるシステム及び器具制御に関する。
遠隔操作手術システムでは、外科医の目注視点が、ステレオカメラのような1又は複数の目追跡装置によって、手術中に追跡され得る。しかし、視線追跡は、非限定的な例として、ユーザの頭の位置の変化及びそれぞれの目のための別々の画像ディスプレイを含む、様々な要因に起因して不正確であるかもしれない。例えば、外科医の目の瞳孔の位置及び角膜反射が、外科医の目及び目の向きの組合せによって決定されることができる。多くの場合、外科医の頭の動き、コンソールへの外科医の頭の圧力、及び/又は手術中の目追跡装置による画像妨害(image occlusion)は、従来の技法を使用する正確且つ効果的な視線追跡を危うくし得る。従来、視線追跡技法は、視標追跡プロセスの間に使用されることになる遠隔操作手術システムの外に配置された外部装置を必要とする。例えば、外部装置は、手術中に外科医によって装着される眼鏡に取り付けられ得る。通常、外部視標追跡装置と外科医の目との間には距離及び相対運動がある。したがって、この種の外部視標追跡装置は、外科医に不便及び不快な間隔を作り得るだけでなく、外科医の操作の正確さにも影響を及ぼし得る。代替的には、従来の視線追跡装置は、接眼レンズの近くに配置され得る。この構成は、外科医が接眼レンズをのぞき込むとき、外科医の視覚(vision)に対する干渉と作るかもしれない。例えば、視線追跡装置の端部は、外科医の視覚の中に現われるかもしれず、これは、外科医の気を散らし得る又は手術野の彼又は彼女の視界を損ない得る。幾つかの実施形態では、本明細書に記載される視線追跡装置は、目追跡装置が、外科医に見えないままで表示される画像と同じ光学経路の少なくとも一部を供給することを可能にするように構成される。
本明細書に開示される実施形態は、非限定の例として、ユーザの頭の動き、頭の圧力、カメラ若しくは追跡装置による画像妨害、及び/又はそれぞれの目に対する独立した画像ディスプレイのような、一般的なエラー誘導要因を補償することによって視標追跡装置の精度を向上させる。本明細書に記載される実施形態は、それぞれ目のための1又は複数の目追跡装置から得られた位置データ及び一定の瞳孔間距離の仮定(及び/又は他の視標追跡特性)に基づいて3D視線位置をより正確に予測するためにモデルを使用することによってこれらのエラー誘導要因を考慮する。特に、ユーザのそれぞれの目は、それ自身の、独立した目追跡装置によって測定される。当業者は、本明細書に開示される視標追跡システムが、より正確な視線によって支援される(gaze-assisted)システム及び/又は器具制御から利益を得る同様の(例えば、非遠隔操作の)用途で用いられ得ることを理解するであろう。本明細書に開示される視標追跡システム及び方法を用いることによって、ユーザは、遠隔操作医療システムとのより直感的且つより効率的な相互作用を経験し得る。
様々な実施形態によれば、低侵襲医療処置は、器具配送(instrument delivery)及び操作を誘導するために遠隔操作システムを使用して実行され得る。図面の図1Aを参照すると、例えば、診断、治療、又は外科処置を含む医療処置で用いる遠隔操作医療システムが、参照数字10によって概して示されている。記載されるように、本開示の遠隔操作医療システムは、外科医の遠隔操作の制御下にある。代替実施形態では、遠隔操作医療システムは、処置又は下位処置(sub-procedure)を実行するようにプログラムされたコンピュータの部分的な制御下にあってよい。さらに他の代替実施形態では、処置又は下位処置を実行するようにプログラムされたコンピュータの完全な制御下の、完全に自動化された医療システムが、処置又は下位処置を実行するために使用されてよい。図1に示されるように、遠隔操作医療システム10は、概して、患者Pが位置する手術台Oの近くに又は手術台Oに取り付けられた遠隔操作アセンブリ12を含む。遠隔操作アセンブリ12は、患者側マニピュレータ(PSM)と称され得る。医療器具システム14が、遠隔操作アセンブリ12に動作可能に結合される。オペレータ入力システム16は、外科医又は他の種類の臨床医Sが手術部位の画像又は手術部位の表示を見ること及び医療器具システム14の動作を制御することを可能にする。オペレータ入力システム16は、マスタコンソールまたは外科医用コンソールと称され得る。この開示に記載されたシステム及び技術を実装するために使用されることができる遠隔操作手術システムの1つの例は、カリフォルニア州SunnyvaleのIntuitive Surgical, Incによって製造されているda Vinci(登録商標)手術システムである。
遠隔操作アセンブリ12は、医療器具システム14を支持し、且つ1又は複数の非サーボ制御リンク(例えば、所定の位置に手動で位置決めされ且つロックされる1又は複数のリンク、一般的にセットアップ構造と呼ばれる)及び遠隔操作マニピュレータ(例えば、図2参照)の運動学的構造を含み得る。遠隔操作アセンブリ12は、医療器具システム14の入力部を駆動する複数のモータを含む。これらのモータは、制御システム22からの指令に応じて動く。モータは、医療器具システム14に結合されるとき、自然の又は外科的に作られた解剖学的構造の開口部(anatomical orifice)の中に医療器具を前進させ得る駆動システムを含む。他のモータ駆動システムは、医療器具の遠位端部を多自由度で動かすことができ、この多自由度は、3自由度の直線運動(例えば、X,Y,Zデカルト座標軸に沿った直線運動)及び3自由度の回転運動(例えば、X,Y,Zデカルト座標軸回りの回転)を含み得る。さらに、モータは、器具の関節動作可能なエンドエフェクタを作動させるために使用されることができる。
遠隔操作医療システム10はまた、内視鏡のような、画像キャプチャ装置を含む、画像キャプチャシステム18、並びに関連付けられる画像処理ハードウェア及びソフトウェアを含む。遠隔操作医療システム10はまた、遠隔操作アセンブリ12のセンサ、モータ、アクチュエータ、及び他のコンポーネント、オペレータ入力システム16並びに画像キャプチャシステム18に動作可能に連結される制御システム12を含む。
オペレータ入力システム16は、外科医用コンソールに位置することができ、この外科医用コンソールは、通常、手術台Oと同じ部屋に位置する。しかし、外科医Sは、患者Pとは異なる部屋又は完全に異なる建物に位置し得ることが理解されるべきである。オペレータ入力システム16は、一般的に、医療器具システム14を制御するための1又は複数の制御装置を含む。より具体的には、外科医の入力指令に応じて、制御システム22は、医療器具システム14のサーボ機構運動を生じさせる。制御装置(複数可)は、ハンドグリップ、ジョイスティック、トラックボール、データグローブ、トリガーガン、手動操作制御装置、フット操作制御装置、音声認識装置、タッチスクリーン、身体動き又は存在センサ等のような、任意の数の様々な入力装置の1又は複数を含んでもよい。幾つかの実施形態では、制御装置(複数可)は、テレプレゼンス、手術部位にいるかのように外科医が器具を直接的に制御する強い感覚を有するよう制御装置(複数可)が器具と一体化されるような知覚を外科医に提供するために、遠隔操作アセンブリの医療器具と同じ自由度を備える。他の実施形態では、制御装置(複数可)は、関連する医療器具より多い又は少ない自由度を有し得るとともに、依然としてテレプレゼンスを外科医に提供し得る。幾つかの実施形態では、制御装置(複数可)は、6自由度で動く手動入力装置であり、この手動入力装置は、(例えば、把持ジョーを閉じる、電位を電極に印加する、薬物療法を送達する等のための)器具を作動させるための作動可能ハンドルも含み得る。
システムオペレータは、オペレータ入力システム16に動作可能に結合された又は組み込まれたディスプレイシステム20上で見るために提示される、画像キャプチャシステム18によって取り込まれた、画像を見る。ディスプレイシステム20は、画像キャプチャシステム18のサブシステムによって生成される、手術部位及び医療器具システム(複数可)14の画像又は表現を表示する。ディスプレイシステム20及びオペレータ入力システム16は、オペレータが、テレプレゼンスの知覚を伴って医療器具システム14及びオペレータ入力システム16を制御できるように、向きを合わせされ得る。ディスプレイシステム20は、オペレータのそれぞれの目に別々の画像を提示するための別個の右及び左ディスプレイのような複数のディスプレイを含むことができ、その結果、オペレータが立体画像を見ることを可能にする。
代替的に又は追加的に、ディスプレイシステム20は、コンピュータ断層撮影(CT)、磁気共鳴画像診断(MRI)、X線透視法、サーモグラフィ、超音波、光コヒーレンストモグラフィー(OCT)、サーマルイメージング、インピーダンスイメージング、レーザーイメージング、ナノチューブX線イメージング等のようなイメージング技術を使用して手術前又は手術中に記録された及び/又は画像化された手術部位の画像を提示し得る。提示された手術前又は手術中画像は、2次元、3次元、又は4次元(例えば、時間ベース又は速度ベースの情報を含む)画像及び画像を再構成するための関連する画像データセットを含み得る。
制御システム22は、遠隔操作システム12、医療器具システム14、オペレータ入力システム16、画像キャプチャシステム18、及びディスプレイシステム20の間で制御を行うための、少なくとも1つのメモリ及び少なくとも1つのプロセッサ(図示せず)、典型的には複数のプロセッサを含む。制御システム22はまた、本明細書に開示される態様に従う記載された方法の幾つか又は全てを実装するプログラムされた指令(例えば、指令を格納するコンピュータ可読媒体)も含む。制御システム22は、図1の概略図に単一のブロックとして示されているが、このシステムは、処理のある部分が、オプションで、遠隔操作アセンブリ12で又はこれに隣接して実行され、処理の他の部分が、オペレータ入力システム16等で実行される、2以上のデータ処理回路を含んでよい。多種多様な集中型又は分散型データ処理アーキテクチャのいずれかが用いられてよい。同様に、プログラムされた指令は、多数の別々のプログラム又はサブルーチンとして実装されてよい、又はそれらは、本明細書に記載される遠隔操作システムの多数の他の態様に組み込まれてよい。1つの実施形態では、制御システム22は、ブルートゥース(登録商標)、IrDA、ホームRF、IEEE802.11、DECT、及び無線テレメトリのような無線通信プロトコルをサポートする。
幾つかの実施形態では、制御システム22は、医療器具システム14から力フィードバック及び/又はトルクフィードバックを受ける1又は複数のサーボコントローラを含み得る。フィードバックに応じて、サーボコントローラは、オペレータ入力システム16に信号を送信する。サーボコントローラ(複数可)はまた、患者の身体の開口部を介してこの身体内の内部手術部位内に延びる医療器具システム(複数可)14を移動させるように遠隔操作アセンブリ12に命令する信号を送信し得る。任意の適切な従来の又は専用のサーボコントローラが使用され得る。サーボコントローラは、遠隔操作アセンブリ12から分離され得る、又は遠隔操作アセンブリ12と一体にされ得る。幾つかの実施形態では、サーボコントローラ及び遠隔操作アセンブリは、患者の身体に隣接して位置決めされる遠隔操作アームカートの一部として設けられる。
この実施形態では、遠隔操作医療システム10はまた、オペレータ入力システム16に動作可能に結合され得る又はオペレータ入力システム16の中に組み込まれ得る視標追跡ユニット24を含む。視標追跡ユニット24は、オペレータがディスプレイ20を見ている及び/又はオペレータ入力システム16のオペレータ制御部を操作している間に、オペレータの目に関連する情報を検知し、測定し、記録し、伝達するための制御システム22に動作可能に結合される。
遠隔操作医療システム10は、照明システム、操向(steering)制御システム、洗浄システム、及び/又は吸引システムのような動作及びサポートシステム(図示せず)をさらに含み得る。代替実施形態では、遠隔操作システムは、1より多い遠隔操作アセンブリ及び/又は1より多いオペレータ入力システムを含み得る。マニピュレータアセンブリの正確な数は、他の要因の中でもとりわけ、外科処置及び手術室内の空間的制約に依存する。オペレータ入力システムは、併置されてもよく、又はそれらは別々の位置に配置されてもよい。複数のオペレータ入力システムは、1より多いオペレータが1又は複数のマニピュレータアセンブリを種々の組合せで制御することを可能にする。
図1Bは、1つの実施形態による遠隔操作アセンブリ100(例えば、図1Aに示される遠隔操作アセンブリ12)の正面図である。アセンブリ100は、床の上に置かれるベース102、ベース102に取り付けられる支持タワー104、及び手術器具(画像キャプチャシステム18の部分を含む)を支持する幾つかのアーム106を含む。図1Bに示されるように、アーム106a、106b、106cは、組織を操作するために使用される手術器具を支持し且つ動かす器具アームであり、アーム108は、内視鏡を支持し且つ動かすカメラアームである。図1Bはさらに、器具アーム106a、106b、106cそれぞれに取り付けられた交換可能な手術器具110a、110b、110cを示し、またカメラアーム108に取り付けられた内視鏡112を示している。内視鏡は、手術部位の立体画像を取り込み且つ別個の立体画像をディスプレイシステム20に提供するための立体内視鏡であり得る。知識のある人は、器具及びカメラを支持するアームがまた天井若しくは壁、又はある例では、手術室の設備の他の部分(例えば、手術台)に(固定して又は移動可能に)取り付けられるベースプラットホームによって支持され得ることを認めるであろう。同様に、彼らは、2以上の別個のベースが使用され得る(例えば、1つのベースが各アームを支持する)ことを認めるであろう。
図1Bにさらに示されるように、器具110a、110b、110c、及び内視鏡112は、それぞれ、器具インタフェース150a、150b、150c、及び150dを並びにそれぞれ、器具シャフト152a、152b、152c、及び152dを含む。幾つかの実施形態では、遠隔操作アセンブリ100は、器具110a、110b、110c、及び内視鏡112をカニューレに対して固定するカニューレ用支持部を含み得る。幾つかの実施形態では、器具アーム106a、106b、106c、及び108のそれぞれの部分は、患者に対して器具110a、110b、110c、及び内視鏡112を位置決めするために手術室の人員によって調整可能であり得る。アーム106a、106b、106c、及び108の他の部分は、(図1Cに示されるような)オペレータ入力システム120のオペレータによって作動され且つ制御され得る。手術器具110a、110b、110c、及び内視鏡112はまた、オペレータ入力システム120のオペレータによって制御され得る。
図1Cは、オペレータ入力システム120(例えば、図1Aに示されたオペレータ入力システム16)の正面図である。オペレータ入力システム120は、左及び右複数自由度(DOF)制御インタフェース122a及び122bを備えるコンソール121を含み、この制御インタフェースは、手術器具110a、110b、110c、及び内視鏡112を制御するために使用される運動学的チェーン(kinematic chains)である。外科医は、典型的には親指及び人差し指で、制御インタフェース122のそれぞれの挟持体アセンブリ(pincher assembly)124a、124bを把持し、挟持体アセンブリを様々な位置及び向きに動かすことができる。ツール制御モードが選択されるとき、制御インタフェース122のそれぞれは、対応する手術器具及び器具アーム106を制御するように構成される。例えば、左制御インタフェース122aが、器具アーム106a及び手術器具110aを制御するように結合され得るとともに、右制御インタフェース122bが、器具アーム106b及び手術器具110bを制御するように結合され得る。第3の器具アーム106cが外科処置の間に使用され且つ左側に位置している場合、左制御インタフェース122aは、アーム106a及び手術器具110aを制御することからアーム106c及び手術器具110cを制御することに切り替えられることができる。同様に、第3の器具アーム106cが外科処置の間に使用され且つ右側に位置している場合、右制御インタフェース122bは、アーム106b及び手術器具110bを制御することからアーム106c及び手術器具110cを制御することに切り替えられることができる。幾つかの例では、制御インタフェース122a、122bと、アーム106a/手術器具110aの組合せと、アーム106b/手術器具110bの組合せとの間の制御の割り当ては、交換されてもよい。これは、例えば、内視鏡が180度回転される場合、内視鏡視野で動く器具が、外科医が動かしている制御インタフェースと同じ側にあるように見えるように、行われ得る。挟持体アセンブリは、典型的には、手術器具110の遠位端部のジョー式(jawed)手術エンドエフェクタ(例えば、鋏、把持開創器等)を操作するために使用される。
追加の制御装置は、フットペダル128を備える。フットペダル128のそれぞれは、器具110の選択された1つの特定の機能を作動させることができる。例えば、フットペダル128は、ドリル又は焼灼ツールを作動させることができる又は洗浄、吸引、若しくは他の機能を動作させ得る。複数の器具が、ペダル128の複数のものを押すことによって作動されることができる。器具110の特定の機能は、他の制御装置によって作動されてもよい。
外科医用コンソール120はまた、立体画像ビューワシステム126(例えば、図1Aに示されるディスプレイシステム20)を含む。立体画像ビューワシステム126は、外科医が外科医の左目及び右目それぞれを使用して立体画像ビューワシステム126の中の左及び右立体画像を見ることができるように、左接眼レンズ125a及び右接眼レンズ125bを含む。内視鏡112によって取り込まれる左側及び右側画像は、対応する左及び右画像ディスプレイに出力され、外科医は、ディスプレイシステム(例えば、図1Aに示されたディスプレイシステム20)上で三次元画像を認識する。有利な構成では、制御インタフェース122は、ディスプレイに示される手術ツールの画像がディスプレイの下の外科医の手の近くに位置するように見えるように、立体画像ビューワシステム126の下に配置される。この特徴は、外科医が、あたかも手を直接見ているかのように、様々な手術器具を三次元ディスプレイの中で直感的に制御することを可能にする。したがって、関連付けられる器具アーム及び器具のサーボ制御は、内視鏡画像基準座標系(endoscopic image reference frame)に基づく。
内視鏡画像基準座標系はまた、制御インタフェース122がカメラ制御モードに切り替えられる場合に使用される。幾つかの場合には、カメラ制御モードが選択される場合、外科医は、内視鏡112の遠位端部を、制御インタフェース122の一方又は両方と一緒に動かすことによって動かし得る。外科医はその後、あたかも画像を彼又は彼女の手に持つかのように、制御インタフェース122を動かすことによって表示された立体画像を直感的に動かし(例えば、パンする、チルトする、ズームする)得る。
図1Cにさらに示されるように、ヘッドレスト130が、立体画像ビューワシステム126の上に配置されている。外科医が、立体画像ビューワシステム126を通して見ているとき、外科医の額はヘッドレスト130に対して位置決めされる。本開示の幾つかの実施形態では、内視鏡112又は他の手術器具の操作は、制御インタフェース122の利用の代わりにヘッドレスト130の操作を通じて達成されることができる。幾つかの実施形態では、ヘッドレスト130は、圧力センサ、ロッカープレート(rocker plate)、光学的に監視されるスリッププレート、又は外科医の頭の運動を検出することができる他のセンサを含むことができる。内視鏡カメラを制御するためにヘッドレストを操作するための検知方法を使用することのさらなる詳細は、例えば、"ENDOSCOPE CONTROL SYSTEM”と題する米国出願第61/865,996号に見出すことができ、これは本明細書に参照により援用される。
図1Dは、手術システムのビジョンカート構成要素140の正面図である。例えば、1つの実施形態では、ビジョンカート構成要素140は、図1Aに示された医療システム10の一部である。ビジョンカート140は、手術システムの中央電子データ処理ユニット142(例えば、図1Aに示される制御システム22の全て又は一部)及びビジョン装置144(例えば、図1Aに示される画像キャプチャシステム18の一部)を収容することができる。中央電子データ処理ユニット142は、手術システムを動作させるために使用されるデータ処理の多くを含む。しかし、様々な実装では、中央電子データ処理は、外科医コンソール120及び遠隔操作アセンブリ100に分散され得る。ビジョン装置144は、内視鏡112の左及び右画像取込機能のためのカメラ制御ユニットを含み得る。ビジョン装置144はまた、手術部位を撮像するために照明を提供する照明装置(例えば、キセノンランプ)を含み得る。図1Dに示されるように、ビジョンカート140は、オプションのタッチスクリーンモニタ146(例えば、24インチモニタ)を含み、これは、アセンブリ100上又は患者側カート上のような、その他の所に取り付けられてもよい。ビジョンカート140はさらに、電気手術ユニット、注入器(insufflators)、吸引洗浄器具(suction irrigation instruments)、又はサードパーティーの焼灼装置のようなオプションの補助手術装置のためのスペース148を含む。遠隔操作アセンブリ100及び外科医用コンソール120は、3つの構成要素が一緒に、外科医に直感的なテレプレゼンスを提供する単一の遠隔操作低侵襲手術システムとして機能を果たすように、例えば、光ファイバ通信リンクを介してビジョンカート140に結合される。
幾つかの実施形態では、遠隔操作手術システムのアセンブリ100の幾つか又は全てが、仮想の(シミュレートされた)環境の中で実装されることができ、外科医用コンソール120で外科医によって見られる画像の幾つか又は全ては、器具及び/又は解剖学的構造の人工的な画像であることができることに留意されたい。幾つかの実施形態では、このような人工的な画像は、ビジョンカート構成要素140によって提供されることができる及び/又は外科医用コンソール120で(例えば、シミュレーションモジュールによって)直接的に生成されることができる。
図1A-1Dを参照して記載された遠隔操作手術システムでの典型的な低侵襲手術の間、少なくとも2つの切開部が、患者の体に(通常、関連付けられるカニューレを配置するためにトロカールを使用して)作られる。1つの切開部は、内視鏡カメラ器具のためであり、他のものは、手術器具のためである。幾つかの手術処置では、幾つかの器具及び/又はカメラポートが、手術部位のアクセス及びイメージングを提供するために使用される。切開部は、従来の観血手術のために使用される大きい切開部と比較して比較的小さいが、最小の数の切開部が、患者の外傷をさらに減らすために及び改良された整容性(cosmesis)のために望まれている。他の実施形態では、遠隔操作医療システム10は、患者の解剖学的構造への単一の切開部アクセスを伴って又は、鼻、口、肛門、膣等のような自然開口を通るアクセスを伴って使用され得る。
典型的な遠隔操作手術の間、外科医は、手術システム、イメージング装置、及び/又はシステムに関連付けられる他の手術器具を制御するために様々な制御装置を物理的に操作することがしばしば必要である。例えば、外科医は、装置を誘導し且つ装置に影響を及ぼすために制御部を物理的に操作することによってイメージング装置の視野を調整する必要があるかもしれない。外科医は、ジョイスティック又はマウスを手動で制御するために彼若しくは彼女の手を、或いは、手術システムにログインするために、内視鏡の視野内のターゲット手術部位を探すために、クランプのような手術器具の運動を操作するために、及び/又はシステム設定若しくはディスプレイ設定を調整するために、外科医コンソールのフットペダルを軽くたたく(tap)するために彼若しくは彼女の足を、使用し得る。従来の方法は、外科医が手術動作から一方の手を自由にすることを、又はフットペダルを軽く叩くために一方の足を使用することを必要とし、これらの両方は、手術動作を不必要に遅延又は中断させるかもしれない。例えば、手又は足の動作は、外科医の視線及び注意をターゲットの手術部位から外科医用コンソールに向け直すかもしれず、これは、操作を遅延又は中断させ得る。必要な手動調整を実行した後、外科医は、彼又は彼女の注意及び注視点をターゲットの手術部位に再び集中する追加の時間を使う必要があるかもしれない。
本明細書に開示される実施形態は、1又は複数のユーザ(例えば、外科医及び/又は訓練者)が手術システムとインタフェースで接続する方法を向上させるために視線検出を利用する。ユーザの視線(例えば、ディスプレイシステム又は他の手術システム構成要素に対するユーザの視線の位置)を手術システムに向けられる指令に変換することによって、本明細書に開示される実施形態は、従来の制御方法によって提供されるより、遠隔医療システム10に対してより速い且つより効率的な制御を可能にし得る。視標追跡、又は視線追跡は、注視点(point-of-gaze)(POG)(すなわち、典型的には3D空間内で、ユーザが見ている所)、又は頭に対する目の運動のいずれかを測定するプロセスである。言い換えると、POGは、人の視線が向けられている空間内のポイントであり、それぞれの目の網膜(すなわち、網膜中心窩(fovea)の最高の明瞭な領域(highest acuity region)の中心に画像化される空間内のポイントとしても規定されている。
図2Aは、画像ディスプレイ151(例えば、図1Aに示された画像ディスプレイシステム20)及び手術野155に対するユーザU(例えば、外科医又は試験監督)のブロック図を示す。ユーザ(及び彼又は彼女の目)は、第1の3D座標フレーム160に存在し、画像ディスプレイ151は、第2の3D座標フレーム165を含み、手術野は、第3の3D座標フレーム170に存在する。それぞれの座標フレーム160、165、179は、他のものと異なる寸法及び特性を含む。ユーザが、第2のフレーム165における画像ディスプレイ151に対して第1のフレーム160における彼又は彼女の視線を動かすとき、本明細書に開示される実施形態は、ディスプレイの第2のフレーム165及び/又は手術野の第3のフレーム170において遠隔医療システム10及び/又は手術器具に対応して影響を及ぼすように、目の運動を制御信号に変換することができる。
1つの態様では、視線追跡及び他の目の特性の観察は、全体として、遠隔操作医療システム10と通信するために及び/又は遠隔操作医療システム10の挙動に影響を及ぼすために使用されることができる。例えば、図1Aに示される視標追跡ユニット24によって観察される目の特性及び動態(dynamics)は、(例えば、網膜スキャンと同様の方法の)外科医の認識及びログインのために使用され得る。幾つかの例では、ユーザの視線は、空間(例えば、第3の座標フレーム170)における手術器具の3D位置をより良く較正するために及び遠隔ロボットアーム運動学的チェーンの可能性のある不正確さを考慮するために使用されることができる。幾つかの実施形態では、ユーザインタフェース(例えば、メニュー)が、画像ディスプレイ上に示された手術野の画像の上に重ねられ得る。幾つかの例では、第1の座標フレーム160におけるユーザの視線は、第2の座標フレーム165における画像ディスプレイ151上の視点を決定するために使用され得るとともに、決定された視点に対応するユーザインタフェースのユーザ選択可能なオプションの中のユーザの選択を特定することができる。幾つかの例では、ユーザの視線の3D位置は、ユーザが、2つの目の間の観察される動態に基づいて立体を見ているか否かを測るために使用され得る。
他の態様では、リアルタイム視線追跡が、非限定例として、イメージング装置及び/又はエネルギ供給装置のような、遠隔操作医療システム10に結合される別個の手術器具を、作動させる、作動停止させる、及びその他の方法で制御するために使用されることができる。例えば、システム10は、制御システム(例えば、プロセッサ)が、視点が、手術器具の位置と所定時間一致することが決定される場合に手術器具を作動させるように構成され得る。
図2Bは、遠隔操作医療システム100及び/又は任意の関連付けられる医療器具を制御するように且つ遠隔操作医療システム100及び/又は任意の関連付けられる医療器具に影響を及ぼすように、視標追跡ユニットを使用する例示の方法を記載するフローチャート180を示す。本明細書に記載される方法プロセスのいずれかは、少なくとも部分的に、1又は複数のプロセッサによって実行され得る、非一時的、有形、機械可読媒体に格納される実行可能なコードの形態で、実装され得る。プロセス182において、ユーザUは、図2Aに示される第1の座標フレーム160において、第2の座標フレーム165にある画像ディスプレイ151の特定の3D位置を凝視する。プロセス184において、視標追跡ユニット(例えば、図1Aに示される視標追跡ユニット24)の左及び右目追跡装置は、ユーザUの目の特性(例えば、視線を反映する特性)を観察し且つ測定する。幾つかの実施形態では、目追跡装置は、画像ディスプレイ151の第2の座標フレーム165に対するユーザのそれぞれの目の視線を測定する。プロセス186において、制御システム(例えば、図1Aに示される制御システム22)は、ユーザの目が向けられている(第2の座標フレーム165内の)画像ディスプレイ151上の3D位置を決定するために目追跡装置からの測定された視線データを使用する。幾つかの実施形態では、制御システムは、目から出る反射から目追跡装置によって受光される光の入射角を追跡することによって見られる位置を決定し得る。幾つかの実施形態では、プロセッサ206は、ユーザが画像ディスプレイ151の既知の場所に表示されるターゲットの印(target indicia)を見るときのベースライン入射角を決定するために較正プロセス(例えば、図4Aに記載される較正プロセス302)を最初に実行し得るとともに、検出された角度と画像ディスプレイ151上の見られる場所との間の機能的関係(functional relationship)を生成し得る。制御システムは次に、ユーザが画像ディスプレイ151上の他の場所をみるときの入射角を追跡することができ、対応する見られる場所を決定する(較正された角度及び場所から外挿する)ために生成された機能的関係を使用することができる。
プロセス188において、制御システムは、画像ディスプレイ151上の表示された印(例えば、メニューオプション)の1つが、その印の選択のための規定された条件を満たす方法でユーザによって見られているかどうかを決定する。そうである場合、プロセス190において、ユーザの印の選択は、制御システムに、表示された印に対応する機能を起動させる。例えば、幾つかの実施形態では、ユーザの視線は、遠隔操作医療システム100へのログオン、又は画像ディスプレイ151の照明、又は様々な他のシステム設定と関連付けられる印の選択を示し得る。
そうでない場合、プロセス192において、制御システムは、第2の座標フレーム165における見られる3D位置を、第3の座標フレーム170における手術野155の対応する3D位置に位置合わせする(co-register)。プロセス194において、制御システムは、ユーザが、イメージング装置又は他の手術器具を操作するための規定された条件を満たす方法で手術野を見ているかどうかを決定する。そうである場合、プロセス196において、手術野の特定の領域又は手術野の中の特定の手術器具へのユーザの視線は、制御システムに、ユーザの視線の特性に対応する様式で関連する器具に影響を及ぼさせる。例えば、幾つかの実施形態では、上述のように、ユーザが手術野155の特定の領域を凝視する場合、イメージング装置は、ユーザに視線に「追従し」得るとともに、(例えば、その視野の中心をユーザの注視点に配置するように)その視野を再度中心に移し得る。他の実施形態では、ユーザが所定の時間特定の手術器具を凝視する場合、手術器具が起動され得る。そうでない場合、プロセス198において、目追跡装置は、起こり得る指令のためにユーザの視線を評価し続ける。
目の運動及び視線方向を測定するための多くの方法がある。本明細書に記載される1つの方法は、赤外(IR)光エミッタが、IR光をユーザの目に向けて放射する。IR光は、ユーザの網膜から反射して(瞳孔を通って)IRユニット(例えば、IRカメラ又は他のイメージング装置)に戻り、反射IR光の量は、エミッタに対する比との視線の方向に基づく。幾つかの実施形態では、3D空間におけるユーザの注視点は、いったん反射IR光がある期間の間に特定の閾値に達すると決定され得る。視線の小さいそれは、まばたきと解釈されることができ、典型的には無視される。他の目追跡方法は、そこから目の位置が抽出されるビデオ画像を使用する、サーチコイルを使用する、又は電気眼球運動図に基づく。
図3Aは、ユーザの注視点(例えば、「ユーザが見ているところ」)又は頭に対する目の運動を決定するために、目の位置及び目の運動のような、ユーザの目の特性を測定するための視標追跡システム200を概略的に示す。視標追跡システム200は、画像ディスプレイ208、少なくとも1つの光エミッタ210、視標追跡ユニット212、及び光学アセンブリ213を有する。1又は複数の視標追跡システム200は、外科医用コンソール120に組み込まれることができる。光学アセンブリ213は、目202と光エミッタ210、視標追跡検出器212、及び画像ディスプレイ208との間の光伝送経路の中に位置する。光学アセンブリ213は、視標追跡光(例えば、IR光)を光エミッタ210から目202に、可視光を画像ディスプレイ208から目202に、及び反射視標追跡光(例えば、IR光)を目202から視標追跡検出器212に向ける。この実施形態では、放射視標追跡光、反射視標追跡光、及び可視光は、目202と光学アセンブリ213との間の光学経路を共有する。図3B、3C、及び3Dにより詳細に記載されるように、目追跡ユニットは、2以上のカメラ若しくは他のイメージング装置を用いる又は単一の立体キャプチャイメージング装置を用いる立体イメージング装置であり得る。各視標追跡システム200は、外科医の左目又は右目のいずれかを独立して追跡するために使用されることができる。例えば、光学アセンブリ213が、外科医の左目(例えば、図3Bに示される目202a)に光を向けるために使用される場合、視標追跡システム200は、左の視線を示す特性を検出するように構成される。光学アセンブリ213が、外科医の右目(例えば、図3Bに示される目202b)に光を向けるために使用される場合、視標追跡システム200は、右の視線を示す特性を検出するように構成される。図3Bにより詳細に記載されるように、視標追跡システム200は、視標追跡検出器212によって追跡される目202の目特性データ(例えば、瞳孔位置データ又は角膜反射データ)を処理するための1又は複数のプロセッサと結合されることができる。
図3Aに示されるように、画像ディスプレイ208から放射される可視光211aは、外科医の目202に向かって光学アセンブリ213によって向けられる。光エミッタ210によって放射される視標追跡光(例えば、IR光)211bは、外科医の目に向かって光学アセンブリ213によって向けられるとともに、外科医の目202によって反射されて光学アセンブリ213に向かって戻る。光学アセンブリ213は、視標追跡ユニット212に向かって外科医の目202からの反射視標追跡光を向ける。
幾つかの実施形態では、光学アセンブリ213は、可視光及び視標追跡光の両方を反射するように配置される1又は複数のミラーを含む。代替実施形態では、光学アセンブリ213は、ある光ビームを反射する一方他のものを透過させるビームスプリッタ又は他の光学フィルタリング要素を含み得る。例えば、図3Cに記載されるように、光学アセンブリは、IR光のような特定の波長範囲の光を選択的に通過させる一方、可視光のような、特定の波長範囲の外側の光を反射するように構成される、ダイクロイック要素(dichroic element)(例えば、フィルタ又はミラー)を含むことができる。光学アセンブリ213はまた、非限定例として、ダイクロイックミラー(例えば、部分的に反射し且つ部分的に透過する部分反射ミラー)、ダイクロイック光学コーティングを有するリフレクタ、ダイクロイックミラー式プリズム、複屈折材料、及び/又は偏光ビームスプリッタのような、ミラー及び/又は他の光学装置の任意の他の適切な数又は配置を含み得る。光学アセンブリ213は、光学アセンブリ213のミラー及び/又はフィルタが、視標追跡ユニット212からの光が少なくとも部分的に、画像ディスプレイ208からの可視光と同じ光学経路を共有するにもかかわらず、外科医の視界から視標追跡ユニット212を効果的に「隠し」得るので、視標追跡システム200内の構成要素がより多くの種類の可能な配置を有することを可能にする。
図3Bは、本開示の1つの実施形態による視標追跡システム220を示す図である。視標追跡システム220は、図1A、1B、及び1Cの遠隔操作医療システム10によって使用され得る。例えば、視標追跡システム220は、本開示の幾つかの実施形態による外科医用コンソール120における立体ビューワ126の中に部分的に又は完全に含まれることができる。視標追跡システム220は、左及び右接眼レンズ125a及び125b、左及び右目ミラーセット204a及び204bを有する光学アセンブリ235、左及び右目画像ディスプレイ208a及び208b、左及び右目光エミッタ210a及び210b、並びに左及び右視標追跡ユニット212a及び212bを含む。描かれた実施形態では、視標追跡システム220は、左目プロセッサ214a、右目プロセッサ214b、及びインテグレータ(integrator)216を含む。
システム220の左及び右接眼レンズ125a、125bは、外科医用コンソール120(図1C参照)の構成要素であり得る。左及び右接眼レンズ125a、125bはレンズを含み、外科医は、右及び左画像ディスプレイ208a、208bを、左及び右接眼レンズ125a、125bを通じて、外科医の左及び右目それぞれで見ることができる。レンズは、検出器(例えば、目202a、202b等)に向かう光源(例えば、光エミッタ210a、201b及び/又は画像ディスプレイ208a、208b)からの(例えば、放射された又は反射された)光の焦点を合わせ得る。レンズは、ターゲットからの光を集めるとともに実像を作るように光ビームの焦点を合わせる、対物レンズを含み得る。幾つかの実施形態では、左及び右接眼レンズ125a、125bの間の距離は、異なるユーザの異なる瞳孔間距離に適応するように調整可能である。幾つかの実施形態では、左及び右接眼レンズ125a、125bは、外科医の左及び右目視力それぞれの必要に基づいて独立して調整され得る。幾つかの実施形態では、左及び右接眼レンズ125a、125bは、光エミッタ並びに/又は左及び右目画像ディスプレイ208a、208bからの光の反射を最小にし且つ透過を最大にするように構成される、適切な光学コーティングを含み得る。
左目及び右目光エミッタ210a、210bは、外科医の左目及び右目それぞれを照射するように光211bを放射し、反射光は、左目及び右目それぞれの注視点を追跡するために、左及び右視標追跡ユニット212a、212bそれぞれによって取り込まれることができる。幾つかの実施形態では、左及び右目光エミッタ210a及び210bは、赤外線発光ダイオード(IR LEDs)のような、赤外(IR)光エミッタであり得る。幾つかの実施形態では、各目のために1より多い光エミッタが有り得る(例えば、各目のために2つの光エミッタ)。各目のための複数の光エミッタは、各光エミッタから放射される光が、1つの目の中で別々の反射として現れるように、所定距離だけ離間され得る。幾つかの実施形態では、1又は複数の左目光エミッタ210aは、左視標追跡ユニット212aと一体化され得るとともに、1又は複数の右目光エミッタ210bは、右視標追跡ユニット212bと一体化され得る。様々な実施形態が、各目のために任意の数の追跡ユニットを含み得る。幾つかの実施形態は、左目及び右目のために等しくない数の追跡ユニットを含み得る。
左視標追跡ユニット212aは、外科医の左目の注視点を追跡するために使用されることができ、右視標追跡ユニット212bは、外科医の右目の注視点を追跡するために使用されることができる。図3Bに示されるように、視標追跡ユニット212a、212bのそれぞれは、立体視標追跡のための2つの視標追跡カメラを含む3次元イメージングシステムである。各視標追跡ユニットは、外科医のそれぞれの目に関する瞳孔位置及び角膜反射を追跡するために使用され得る。例えば、描かれた実施形態では、2つの左視標追跡カメラ212a1、212a2が、外科医の左目の瞳孔の位置及び角膜反射を追跡するために使用される。同様に、描かれた実施形態では、2つの右視標追跡カメラ212b1、212b2が、外科医の右目の瞳孔の位置及び角膜反射を追跡するために使用される。各目のための複数の視標追跡ユニットは、それぞれの瞳孔の位置及び角膜反射の立体画像が1より多い視標追跡ユニットによって独立して追跡され得るとともに、各瞳孔の位置及び角膜反射の3D位置が、各目のための独立した視標追跡からの収集されたデータに基づいて計算され得るように、所定距離だけ互いに離間されるように配置される。代替実施形態では、視標追跡ユニットのそれぞれは、例えば、ステレオカメラを含む単一のイメージング装置を含み得る、又は2以上のイメージング装置を含み得る。
幾つかの実施形態では、視標追跡ユニット212a及び212bは、電荷結合素子(C
CD)カメラである。幾つかの実施形態では、視標追跡ユニット212a及び212bは、IR光に敏感であるIRカメラであり、IR光エミッタから放射された赤外光を取り込むことができる。幾つかの実施形態では、視標追跡ユニット212a及び212bは、目(例えば、瞳孔)のより高い倍率を有する画像を提供するために、高ズームレンズを含み得る。
幾つかの実施形態では、視標追跡ユニット212a、212b及び光エミッタ210a、210bは、左目及び右目画像ディスプレイ208a、208bそれぞれのベースに配置される。幾つかの実施形態では、視標追跡ユニット212a、212bは、図1Cに示される立体画像ビューワ126に配置され得る。光エミッタ210a及び210bは、視標追跡ユニット212a及び212bそれぞれと一体にされ得る。典型的には、ユーザは、左目及び右目画像ディスプレイ125a、125bそれぞれに真っ直ぐに向くように彼又は彼女の左目及び右目を配置する。したがって、この配置により、各視標追跡ユニット212a、212bは、追跡されることになる目に真っ直ぐに向くように配置される。特に、左及び右視標追跡ユニット212a、212bは、左目及び右目それぞれに真っ直ぐに向くように配置される。本明細書に開示される構成は、この構成が、眼鏡のような、外部追跡装置の必要を排除するので、視標追跡プロセスの使い勝手及び精度を向上させ得る。加えて、上述のように、従来の視線追跡装置は、接眼レンズの近くに配置され、したがって、外科医が接眼レンズをのぞき込むとき、干渉を作るかもしれない。例えば、視線追跡装置の縁が、外科医の視覚の中に現れ、潜在的に、外科医の気を散らすかもしれない又は手術野の彼の視界を部分的に遮るかもしれない。したがって、現在の構成は、外科医の視覚の中の不必要な干渉画像を排除することによって視標追跡技術を使用するときに外科医の経験を向上させ得る。
描かれた実施形態では、図2Aを参照すると、プロセッサ214a、214bは、左及び右視標追跡ユニット212a、212bにそれぞれ結合されるとともに、画像ディスプレイ151(例えば、ディスプレイ208a、208b)の第2の座標フレームに対する外科医の注視点の3D位置を計算するように且つその3D位置を、(図2Aに示された)手術野155の第3の座標系170の対応する3D位置に変換するように構成される。例えば、左及び右視標追跡ユニット212a、212bによって取り込まれた注視点は、修正されることができ、外科医の左及び右目の注視点間の相違(disparity)が決定されることができる。外科医の注視点の3D位置は、次に、左及び右目視標追跡ユニット212a、212b間の距離、左及び右目視標追跡ユニット212a、212bのそれぞれの焦点距離に関連するパラメータ、及び決定された相違を使用して計算されることができる。
手術野の3D立体画像が、視標追跡システム220を介して外科医によって知覚され得る。幾つかの実施形態では、遠隔操作アセンブリ100に配置される内視鏡112は、手術中に手術野155の画像を取り込むように操作されることができ(図2A参照)、これらの画像は、左及び右画像ディスプレイ208a、208bに示されることができる。幾つかの実施形態では、画像ディスプレイ208a、208bは、図2Aに示された画像ディスプレイ151と同じである。幾つかの実施形態では、内視鏡112は、ステレオカメラを有する。内視鏡112によって取り込まれる画像は、その後、左及び右立体画像をそれぞれ生成するために、プロセッサ214a、214bによって処理され得る。生成された左及び右立体画像は、左及び右画像ディスプレイ208a、208bそれぞれに示され得る。特に、左目画像ディスプレイ208aは、内視鏡112に通信可能に結合され、手術中に手術部位の左目立体画像を表示するように構成される。同様に、右目画像ディスプレイ208bは、内視鏡カメラ112に結合されるとともに手術部位の右目立体画像を表示するように構成される。左目及び右目立体画像は、ステレオカメラ112によって取り込まれ、左及び右目画像それぞれのために処理される。左目及び右目画像ディスプレイ208a、208bは、2D又は3Dディスプレイスクリーンであり得る。幾つかの実施形態では、左目及び右目画像ディスプレイ208a、208bは、液晶ディスプレイ(LCD)スクリーンである。幾つかの実施形態では、画像ディスプレイ208a、208bは、複数のディスプレイスクリーン又は装置(例えば、外部スクリーン又はモバイルデバイス)に同時に提示され得る。
上述のように、視標追跡システム220は、左目プロセッサ214a、右目プロセッサ214b、及びインテグレータ216を含む。プロセッサ214a、214b及びインテグレータ216は、ユーザの注視点が向けられている画像ディスプレイ208a、208b上の視点を決定するために視標追跡ユニット212a、212bから受信された注視点データを処理するように、及び決定された視点に基づいて遠隔操作医療システム10の少なくとも1つの機能を制御するように、構成される。特に、プロセッサ214a、214bは、左及び右視標追跡ユニット212a、212bによって受信された瞳孔位置及び角膜反射ポイントデータを処理し得る。幾つかの実施形態では、各視標追跡ユニットによって受信される瞳孔位置及び角膜反射ポイントデータは、瞳孔の位置及び角膜反射の3D位置を決定するために、プロセッサ214a、214bによって処理され得る。インテグレータ216は、手術中の外科医の3D視線ポイント又は位置を形成するように、各目から受信される瞳孔位置及び角膜反射データを統合するために使用され得る。
幾つかの実施形態では、左目及び右目プロセッサ(並びに/又はインテグレータ)の機能は、単一のプロセッサによって実行され得る。幾つかの実施形態では、インテグレータ216は、ユーザの視線位置を決定し且つ処理するために両方のプロセッサ214a、214bによって受信される情報を統合する。幾つかの実施形態では、プロセッサ214a、214b及び/又はインテグレータ216は、遠隔操作医療システム10内のどこかに(例えば、中央電子データ処理ユニット142の一部としてのビジョンカートの中に、遠隔操作アセンブリ100に、及び/又は外科医用コンソール120の中に)配置され得る。幾つかの実施形態では、プロセッサ214a、214b及び/又はインテグレータ216はまた、注視点測定、位置合わせ、及び較正データを格納するためにメモリに結合されることができる。幾つかの実施形態では、プロセッサ214a、214b及び/又はインテグレータ216は、外科医の注視点の2D位置を計算するために使用され得る。以下により詳細に記載されるように、幾つかの実施形態では、外科医の頭の運動は、瞳孔の位置及び角膜反射の3D位置を決定するときに補償され得る。
幾つかの実施形態では、外科医の注視点の計算された2D又は3D位置は、外科医の注視点の変化を示す点(dots)、フラグ(flags)、又はベクター(vectors)のような、様々な適切な表現のいずれかで表示されることができる。外科医の注視点は、左及び右画像ディスプレイ208a、208b上に手術野155の画像と組み合わせて表示されることができる。幾つかの実施形態では、視標追跡システム220は、シミュレーションモジュール、例えば、da Vinci(登録商標)Skills Simulator(商標)と統合された外科医用コンソール120で使用されてもよく、そこでは仮想画像が、左及び右画像ディスプレイ208a及び208bに示されることができる。
光学アセンブリ235は、光エミッタ210からのIR光を目202に、画像ディスプレイ208からの可視光を目292に、及び目202からの反射IR光(光エミッタ210から放射された)を視標追跡ユニット212に向けるように、目202、光エミッタ210、視標追跡ユニット212、及び画像ディスプレイ208に対して配置される。特に、光学アセンブリ235の左及び右目ミラーセット204a、204bのそれぞれは、左及び右光エミッタ210a、210bからのIR光をそれぞれ、外科医の左及び右目それぞれに反射するように、並びに左及び右目からのIR光を左及び右視標追跡ユニット212a、212bそれぞれに反射するように、配置された複数のミラーを有する。
左目ミラーセット204aは、外科医の左目、左視標追跡ユニット212a、及び左目光エミッタ210aとの間の光学連通を提供するように配置されるミラーのセットを含む。例えば、ミラー204aは、図3Bに示されるように、左目画像ディスプレイ208aに示された立体画像の左目部分が、外科医によって見られるように、可視光211aを介して、外科医の左目に向けられることができる。左目ミラーセット204aはまた、左目光エミッタ210aから放射されたIR光211bが、外科医の左目に向けられることを可能にし得る。外科医の左目からの反射IR光211bは、左目ミラーセット204aによって左視標追跡ユニット212aに向けられ、それによって、左視標追跡ユニット212aが、外科医の左目の注視点の3D位置を決定するために反射IR光を追跡することを可能にし得る。
同様に、右目ミラーセット204bは、外科医の右目、右視標追跡ユニット212b、及び右目光エミッタ210bとの間の光学連通を提供するように配置されるミラーのセットを含む。例えば、ミラー204bは、図3Bに示されるように、右目画像ディスプレイ208bに示された立体画像の右目部分が、外科医によって見られるように、可視光211aと共に、外科医の右目に向けられることができる。右目ミラーセット204bはまた、右目光エミッタ210bから放射されたIR光211bが、外科医の右目に向けられることを可能にし得る。外科医の右目からの反射IR光211bは、右目ミラーセット204bによって右視標追跡ユニット212bに向けられ、それによって、右視標追跡ユニット212bが、外科医の左目の注視点の3D位置を決定するために反射IR光を追跡することを可能にし得る。図3Bでは、放射及び反射IR光122bの経路は、ディスプレイ208aと目202aとの間及びディスプレイ208bと目202bとの間で可視光211aと光学経路を共有している。
上述のように、幾つかの実施形態では、左及び右視標追跡ユニット212a、212bはまた、(例えば、図2Aに示された第1の座標フレーム160における)外科医の頭の3D運動を追跡するために使用され得る。幾つかの実施形態では、追跡ユニット212a、212bは、外科医の頭(例えば、顔を含む)の固定基準点を監視することによって外科医の頭の3D運動を追跡する。基準点は、外科医の注視点と連続的に同期する運動を有さないので、基準点は、外科医の頭の位置及び向きを推定するために使用され得る。基準点は、外科医の頭の様々な解剖学的な目印又は特徴部のいずれかを含み得る。例えば、基準点は、まぶたの湾曲、目の端、虹彩、及び/又は眉毛のような頭の特徴部を含み得る。幾つかの例では、基準点として使用され得る頭の特徴部は、セグメント化され且つ追跡され得る。例えば、1つの実施形態では、目の端が、目の2つのスプラインの交点によって検出され且つ位置特定され得る。2つの立体ユニット(例えば、左及び右視標追跡ユニット212a、212b)が使用されるとき、頭の特徴部は3D空間内で追跡され得る。外科医の左目と右目との間の瞳孔間距離は、一定であると推定され、その計算において定数因子としてプロセッサによって使用される。外科医が、彼又は彼女の注視点を移動させることなしに彼又は彼女の頭又は顔を動かすとき、外科医の瞳孔は、視標追跡ユニット212a、212bに対して静止したままである。したがって、頭の基準点が動く一方外科医の瞳孔は視標追跡ユニット212a、212bに対して静止したままである。その結果、左及び右目の瞳孔と顔/頭の基準点との間に相対運動がある。この相対運動は、適切な補償値を計算するために左及び右視標追跡ユニット212a及び212bによって追跡され且つ監視され得る。これらの補償値は、外科医の目のそれぞれの注視点の3D位置を決定するのに追跡された3D頭運動を補償するために使用され得る。
図3Cは、ビームスプリッタとして動作する光学アセンブリ255を含む視標追跡システム250を示す図である。視標追跡システム250は、図3Aの視標追跡システム200の例示の実施形態である。視標追跡システム250は、本開示の様々な実施形態による外科医用コンソール120の立体ビューワシステム126の中に部分的に又は完全に含まれることができる。視標追跡システム250は、左視標追跡ユニット212a(視標追跡カメラ212a1、212a2を持つ)、右視標追跡ユニット212b(視標追跡カメラ212b1、212b2を持つ)、左目光エミッタ210a、右目光エミッタ210b、左目画像ディスプレイ208a、右目画像ディスプレイ208b、左目プロセッサ214a、右目プロセッサ214b、及びインテグレータ216を含む。しかし、図3Cに示された視標追跡システム250では、これらの構成要素は、視標追跡システム220と異なる構成に配置される。図3Bに示された視標追跡システム220では、視標追跡ユニット212a、212b及び光エミッタ210a、210bは、(ユーザに対して)画像ディスプレイ208a、208bの下に置かれている。光学アセンブリ235は、画像ディスプレイ208a、208bと接眼レンズ125a、125bとの間に位置している。対照的に、図3Cに示される視標追跡システム250では、視標追跡ユニット212a、212bは、左目及び右目画像ディスプレイ208a、208bと光学アセンブリ255との間の領域又は空間において画像ディスプレイ208a、208bの前に置かれている。光学アセンブリ255は、左目ミラーセット204a及び右目ミラーセット204bを有する。左目ミラーセット204aは、第1の光学要素256及び第2の光学要素257を有する。右目ミラーセット204bは、第3の光学要素258及び第4の光学要素259を有する。光学要素256、257、258、及び259は、限定することなしに、ミラー、フィルタ、及びプリズムを含む、様々な光透過及び/又は光反射光学装置のいずれかであることができる。2つのプロセッサ214a、214bが図3Cに示されているが、当業者は、任意の数のプロセッサが、任意の適切なトポロジ―で配置され得ることを理解するであろう。
幾つかの実施形態では、光学アセンブリ255は、非限定の例として、ダイクロイックミラー又はダイクロイックフィルタのような、ビームスプリッタを含む少なくとも1つのミラーセットを含む。ビームスプリッタは、異なる波長範囲の中で光の透過及び反射両方ができる任意の装置を含み得る。例えば、図3Cに示されるように、左目ミラーセット204aの第2の光学要素257は、左目立体画像ディスプレイ208aから放射される可視光のような、可視光211aを反射する一方、IR光211bが通過することを可能にする、左ビームスプリッタ257を含む。したがって、左目光エミッタ210aから放射されたIR光211bは、左目を照射するために左ビームスプリッタ257を通過でき、外科医の左目202aからの反射IR光211bも、左視標追跡ユニット212aによって取り込まれるように、左ビームスプリッタ257を通過できる。同時に、左目画像ディスプレイ208aから放射される可視光211aは、外科医の左目202aによって見られるように、ミラーセット204aの光学要素256及び257によって導かれることができる。幾つかの実施形態では、左ビームスプリッタ257は、ダイクロイックミラーを有する。
同様に、右目ミラーセット204bの第3の光学要素258は、右目立体画像ディスプレイ208bから放射される可視光のような、可視光211aを反射する一方、IR光211bが通過することを可能にする、右ビームスプリッタを含む。したがって、右目光エミッタ210bから放射されるIR光211bは、右目を照射するために右ビームスプリッタ258を通過でき、外科医の右目202bからの反射IR光211bも、右視標追跡ユニット212bによって取り込まれるように、右ビームスプリッタ258を通過できる。同時に、右目画像ディスプレイ208bから放射される可視光211aは、外科医の右目202bによって見られるように、ミラーセット204b(及びビームスプリッタ258)によって導かれることができる。幾つかの実施形態では、右ビームスプリッタ258は、ダイクロイックミラーを有する。
光学アセンブリ255におけるビームスプリッタ257、258の組み込みは、視標追跡ユニット212a、212bが、(例えば、画像ディスプレイ208a、208bにおいて)外科医に可視になることなしに、画像ディスプレイ208a、208bから生じる表示される画像のための光学経路の少なくとも一部を共有する構成を可能にする。言い換えると、反射IR光211bは、可視光211aの光学経路の一部、すなわち、目とそれぞれのビームスプリッタとの間(例えば、目202aとビームスプリッタ257との間及び目202bとビームスプリッタ258との間)の光学経路の一部、を共有する。図3Cに示されるように、左及び右視標追跡ユニット212a、212bは、ビームスプリッタ257、258の後ろ且つ外科医の目を真っ直ぐ向いて配置されている。この構成は、視標追跡ユニット212a、212bが、可視光経路を遮ることなしに且つ画像ディスプレイ208a、208bに影響を及ぼす如何なる光学反射経路も有することなしに(例えば、画像ディスプレイ208a、208bが外科医の目からの如何なる反射IR光も受けることなしに)、外科医の目202a、202bそれぞれから情報を取り込むことを可能にする。対照的に、図3Bに示されるように、外科医の目202a、202bからの反射IR光(破線矢印によって示される)は、視標追跡ユニット212a、212bによって受光されるように、画像ディスプレイ208a、208bに向かって戻って反射される。
幾つかの例では、視標追跡システム250の光学アセンブリ255におけるビームスプリッタ(例えば、ビームスプリッタ257、258)の組み込みは、視標追跡ユニット212a、212bからの光211bが、視標追跡ユニット212a、212bを外科医に可視にすることなしに、表示される画像からの可視光211aの光学経路の少なくとも一部を共有することを可能にする。幾つかの例では、この構成は、外科医の画像ディスプレイ208a、208bにおける視標追跡ユニットからの干渉画像を排除し得るので、外科医は、干渉画像によって気を散らされることが少なくなり得るとともに現在の処置により集中し得る。加えて、図3Cに示される構成はまた、視標追跡システム250の設計及び製造のためのより多くの柔軟性及びコンパクト性を提供し得る。システム250の構成は、最小化された空間及び設計制約に適応しながら、(視標追跡ユニットを可視にすることなしに)ディスプレイのよりクリアな視界を作り得る。
図3Dは、本開示の1つの実施形態によるビームスプリッタとして動作する光学アセンブリ260を含む例示の視標追跡システム280を示す図である。視標追跡システム280は、図3Aの視標追跡システム200の他の例示の実施形態である。視標追跡システム280は、本開示の幾つかの実施形態による外科医用コンソール120の立体ビューワシステム126の中に部分的に又は完全に含まれ得る。視標追跡システム280は、左視標追跡ユニット212a(視標追跡カメラ212a1、212a2を持つ)、右視標追跡ユニット212b(視標追跡カメラ212b1、212b2を持つ)、左目光エミッタ210a、右目光エミッタ210b、左目画像ディスプレイ208a、右目画像ディスプレイ208b、左目プロセッサ214a、右目プロセッサ214b、及びインテグレータ216を含む。図3Dに示される視標追跡システム280では、これらの構成要素は、視標追跡システム250とは異なる構成に配置される。特に、図3Cに示される視標追跡システム250では、視標追跡ユニット212a、212b及び光エミッタ210a、210bは、画像ディスプレイ208a、208bと光学アセンブリ255との間に配置されている。対照的に、図3Dに示される視標追跡システム280では、視標追跡ユニット212a、212b及び光エミッタ210a、210bは、光学アセンブリ260に隣接して(例えば、横に)配置されている(又は目に対して約90度回転されている)。図3Dの描かれた実施形態では、光学アセンブリ260と画像ディスプレイ208a、208bとの間の空間は使われておらず、それによって、画像ディスプレイ208a、208bと光学アセンブリ260との間の遮られない光学経路を提供する。
図3Cに示された光学アセンブリ255と同様に、視標追跡システム280の光学アセンブリ260は、ビームスプリッタとして機能する2つの光学要素を含む。図3Dに示される光学アセンブリ260では、第1及び第4の光学要素256及び259は、ビームスプリッタとして機能する。特に、左目ミラーセット204aの第1の光学要素256は左ビームスプリッタを含み、右目ミラーセット204bの第4の光学要素259は右ビームスプリッタを含む。図3Dに示されるように、左目ミラーセット204aの左ビームスプリッタ256は、左目立体画像ディスプレイ208aから放射された可視光のような、可視光211aを反射する一方、IR光211bを透過させる。したがって、左目光エミッタ210aから放射されるIR光211bは、左目を照射するために左ビームスプリッタ256を通過でき、外科医の左目202aからの反射IR光211bも、左視標追跡ユニット212aによって取り込まれるように、左ビームスプリッタ256を通過できる。同時に、左目画像ディスプレイ208aから放射される可視光は、外科医の左目202aによって見られるように、ミラーセット204a(ビームスプリッタ256を含む)によって導かれることができる。幾つかの実施形態では、左ビームスプリッタ256は、ダイクロイックミラーを有する。
同様に、右目ミラーセット204bの右ビームスプリッタ259は、右目立体画像ディスプレイ208bから放射される可視光のような、可視光211aを反射する一方、IR光211bを透過させる。したがって、右目光エミッタ210bから放射されるIR光211bは、右目を照射するために右ビームスプリッタ259を通過でき、外科医の右目202bからの反射IR光211bも、右視標追跡ユニット212bによって取り込まれるように、右ビームスプリッタ259を通過できる。同時に、右目画像ディスプレイ208bから放射される可視光211aは、外科医の右目202bによって見られるように、ミラーセット204b(及びビームスプリッタ259)によって導かれることができる。幾つかの実施形態では、右ビームスプリッタ259は、ダイクロイックミラーを有する。
光学アセンブリ260におけるビームスプリッタ257、259の組み込みは、視標追跡ユニット212a、212bからの光211bが、視標追跡ユニット212a、212bを外科医に可視にすることなしに、画像ディスプレイ208a、208bから生じる表示される画像のための光学経路の少なくとも一部を共有する構成を可能にする。特に、図3Dに示されるように、左及び右視標追跡ユニット212a、212bは、ビームスプリッタ257、258の後ろ且つ外科医の目に対してある角度(例えば、90度)で配置されている。この構成は、視標追跡ユニット212a、212bが、ディスプレイからの可視光の経路を遮ることなしに且つ画像ディスプレイ208a、208bに影響を及ぼす如何なる光学反射経路も有することなしに(例えば、画像ディスプレイ208a、208bが外科医の目からの如何なる反射IR光も受けることなしに)、外科医の左及び右目それぞれから情報を取り込むことを可能にする。
幾つかの例では、視標追跡システム280の光学アセンブリ260におけるビームスプリッタ(例えば、ビームスプリッタ256、259)の組み込みは、視標追跡ユニット212a、212bからの光211bが、視標追跡ユニット212a、212bを外科医に可視にすることなしに、表示される画像からの可視光211aの光学経路の少なくとも一部を共有することを可能にする。幾つかの例では、この構成は、外科医の画像ディスプレイ208a、208bにおける視標追跡ユニットからの干渉画像を排除し得るので、外科医は、干渉画像によって気を散らされることが少なくなり得るとともに現在の処置により集中し得る。加えて、図3Dに示される構成はまた、視標追跡システム280の設計及び製造のためのより多くの柔軟性及びコンパクト性を提供し得る。システム280の構成は、最小化された空間及び設計制約に適応しながら、(視標追跡ユニットを可視にすることなしに)ディスプレイのよりクリアな視界を作り得る。
光エミッタ210(例えば、左目及び右目光エミッタ210a及び210b)の位置はフレキシブル(flexible)であることが理解されるべきである。視標追跡ユニット212(例えば、左及び右視標追跡ユニット212a及び212b)の位置もフレキシブルである。当業者は、光エミッタ210及び/又は視標追跡ユニット212が、外科医の視界への干渉を最小化するために及び視標追跡プロセスの精度及び効率を向上させるために、外科医及び画像ディスプレイ(例えば、外科医用コンソール120の)に対して任意の適切な位置に配置されることができることを理解するであろう。
図4Aは、本開示の実施形態による図3A-3Dに示された視標追跡システムを使用する外科医の3D注視点を決定するための方法300を示す。方法300は、2つのプロセス:較正プロセス302及び測定プロセス304を含む。幾つかの実施形態では、較正プロセス302は、3D較正プロセスであり、そこでは、3D空間における外科医の注視点が、既知の3D位置パラメータを持つ3D空間における所定のターゲットと比較される。
3D空間に示されるターゲットTの画像は、左及び右立体画像に分離され得るとともに、左及び右画像ディスプレイ208a、208b上にそれぞれ表示され得る。左目及び右目光エミッタ210a、210bは、左及び右視標追跡ユニット212a、212bそれぞれによって追跡されることができる光を放射し得る。左目及び右目ミラーセット204a及び204bは、左目及び右目画像ディスプレイ208a及び208b上に表示されるターゲットの左目及び右目立体画像が、外科医の左及び右目202a、202bそれぞれに反射されることができ且つ向けられることができるように、配置され得る。幾つかの実施形態では、図3A-3Dに示されるように、左目及び右目ミラーセット204a及び204bは、左目及び右目の光学的伝達の間に「クロストーク(crosstalk)」又は共有光学経路が無いように、配置される。光エミッタ210a、210bから放射される、IR光211bのような光はまた、外科医の左目及び右目202a、202bを照射するために右目及び左目ミラーセット204a、204bを通って導かれることができる。較正プロセスの間、ターゲットの3D位置は、測定されたデータが、補償値及び/又は次のプロセスにおける注視点決定モデルを決定するためのターゲット対象の所定の位置データと比較され得るように、例えば、3D空間における既知の3D位置パラメータを伴って、予め決定される。
図4Bは、所定のターゲットT(3D座標aT、bT、cTを有する)が較正プロセス中に左目画像ディスプレイ208aに示されるとき、外科医の左目202aの角膜反射及び瞳孔位置を追跡する左視標追跡ユニット212aの例を示す。較正プロセス302は、3D空間にターゲットTを示すことによってプロセス312で始まり得る。図4Bに示されるように、ターゲットTは、左目画像ディスプレイ208a上で(aT、bT、cT)の座標値を持つ所定の3D座標フレーム350に位置することができる。左目画像ディスプレイ208aに示されるターゲットTは、立体ユニット112によって取り込まれ且つプロセッサ214aによって処理される左目立体画像であり得る。他の実施形態では、ターゲットTは、仮想的に作られた画像であり得る。左目ミラーセット204a(図示せず)は、図3A-3Dに関連して上で論じたように、左目視標追跡ユニット212a及び外科医の左目202aに対して任意の適切な位置に位置することができる。簡潔さのために外科医の左目の1つの角膜反射しか図4Bに示されていないが、各目202のための1より多い光エミッタ210からの1より多い角膜反射があり得ることが理解されるべきである。
幾つかの例では、ターゲットTは、3D空間に示された手術ツールアイコンであり得る。ターゲットTはまた、移動するターゲット、又は動的にサイズが変わり得るターゲットであり得る。代替的には、ターゲットはまた、手術野の中の実際の手術ツールであってよく、この位置は、任意の適切なツール追跡技術を使用して追跡され且つ特定されることができる。例えば、較正プロセスは、2005年5月16日に出願された、"Methods and system for performing 3D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery"と題する米国特許出願公開第2006/0258938号に開示された特徴を組み込んでよく、これは本出願に参照により援用される。較正プロセス302の間、ターゲットTの3D位置は、例えば、3D空間の既知の3D位置パラメータを使って、測定されたデータが、次のステップの様々なモデルを決定するためにターゲットTの既知の位置パラメータと比較され得るように、予め決定される。
描かれた実施形態では、較正プロセス302は、左及び右視標追跡ユニット212a及び212bそれぞれによって取り込まれる左及び右目の瞳孔の2D位置及び2D角膜反射データを受信することによってプロセス314に進む。幾つかの実施形態では、2D瞳孔位置及び2D角膜反射データは、座標値、変位、及び/又は角度を含み得る。幾つかの実施形態では、左目及び右目ミラーセット204a、204bは、外科医の左目及び右目202a、202bが、追跡されるように、左及び右視標追跡ユニット212a、212bそれぞれに向けられることができるように、図3A-3Dに示されるように配置される。追跡された2Dデータは次に、外科医の左目及び右目202a、202bの3D瞳孔位置及び角膜反射データを得るために、左目及び右目プロセッサ214a、214b並びに/又はインテグレータ216によって受信され且つ処理され得る。
図4Cは、外科医の角膜に対応する2D座標フレーム360、及び外科医の瞳孔に対応する2D座標フレーム370を示す。図4Cに示されるように、左目光エミッタ210aが外科医の目202aに向かって光を放射するとき、光(例えばIR光)は、外科医の左目202aの角膜の表面から反射し、反射画像は、所定の2D座標フレーム360に位置する角膜反射中心365(座標(uR、vR)を有する)を持つ明るい領域になる。幾つかの例では、角膜反射データは、それぞれの目毎の1より多い角膜反射に関する追跡情報を含む。所定の2D座標フレーム370における瞳孔375の中心(座標(xP、yP)を有する)もまた、左視標追跡ユニット212aによって追跡されることができる。
較正プロセス302は、左及び右目それぞれの瞳孔位置及び角膜反射データをより正確に決定するために、頭の位置を追跡することによって、プロセス316に進む。言い換えると、頭の運動データは、瞳孔位置及び角膜反射データの頭の運動によって誘発された不正確さを補償するために使用され得る。例えば、頭の回転は、頭の運動データにおける変化によって近似されることができる。幾つかの実施形態では、図3Aに関連して上述されたように、外科医の頭の特徴部(例えば、目の端)が、頭の運動を決定するために追跡され得る。幾つかの実施形態では、外科医は、適切な補償値及び/又は補償モデルを決定するために、画像ディスプレイ208a、208bのターゲットTに焦点を合わせながら1又は複数の頭の運動を実行するように要求され得る。例えば、外科医は、画像ディスプレイ208a、208b上のターゲットTに焦点を合わせながら接眼レンズ125a、125bの近くに彼又は彼女の頭を動かすように要求され得る。外科医はまた、より多くの較正情報を集めるために、一連の運動(例えば、上下、左右、回転、及び/又は接眼レンズからさらに離れる)で彼又は彼女の頭を動かすように要求され得る。
左及び右視標追跡ユニット212a及び212bは、顔及び/又は頭の運動に関連する較正値を決定するために、外科医の瞳孔と顔/頭特徴部との間の相対運動を捕え得る。幾つかの実施形態では、外科医の頭の運動はまた、ヘッドレスト130上に取り付けられる1又は複数のセンサによって追跡され得る。計算された2D又は3D注視点位置は、さらに、外科医の追跡された頭の運動に基づいて調整又は補償され得る。センサによって収集されたデータは、補償値を決定するためにプロセス316で取得されたデータと結合され得る。ヘッドレストを操作するために検知方法を使用するさらなる詳細は、例えば、"ENDOSCOPE CONTROL SYSTEM"と題する、米国特許第61/865,996号に見られ得る。
幾つかの実施形態では、補償値及び/又は補償モデルは、将来の測定又は計算のために、プロセッサ214a、214b及び/又はインテグレータ216に結合されるメモリに保存され得る。幾つかの実施形態では、特定のユーザの補償値及び/又は補償モデルは、同じユーザが、ユーザがシステムに再びログインするとき、較正プロセスを繰り返す必要がないように、ユーザプロファイルデータの一部としてメモリに保存され得る。
補償プロセス302は、外科医の左及び右目202a、202bそれぞれの3D瞳孔位置及び3D角膜反射データをそれぞれ決定することによってプロセス318に進む。幾つかの実施形態では、視標追跡ユニット212aは、ステレオカメラを含み、2D瞳孔位置及び2D角膜反射データを含む立体画像は、取り込まれることができ且つ、複数の立体画像間の差を計算するために、プロセッサ214aによって処理されることができる。例えば、図4Bに示されるように、1又は複数の左視標追跡ユニット212aが、外科医の左目202aの立体画像を取り込むことができるステレオカメラを含むとき、各個別の左視標追跡ユニット212aからの2D瞳孔位置375(xP、yP)及び2D角膜反射データ(uR,vR)が、複数の立体画像間の相違を計算するために処理され得る。幾つかの実施形態では、決定された位置データは、外科医の左目202aの2D瞳孔位置及び2D角膜反射データを含み得る。
各目の決定された2Dデータは次に、外科医の3D視線位置を推定するために組み合わせられ得る。幾つかの実施形態では、決定された位置データは、瞳孔の3D位置及び3D角膜反射データを含み得る。深さ変換マップに対する相違は、この方法を使用する較正プロセスの間に取得され得る。外科医の瞳孔の深さ(座標点zP)及び角膜反射の深さ(座標点wR)を含む3Dデータは次に、相違を使用して推定され得る。例えば、外科医の左目202aの3D視線データは、左視標追跡ユニット212a間の距離、左視標追跡ユニット212aのそれぞれの焦点距離、及び計算された相違を使用して計算され得る。深さ変換マップに対する相違は、この方法を使用する較正プロセスの間に取得され得る。幾つかの実施形態では、外科医の頭の運動はまた、左及び右目追跡装置204a、204bによって捕えられ得る。
幾つかの実施形態では、外科医の瞳孔は、異なる深さを持つターゲットTを見るとき、両眼離反運動(vergence)(例えば、図4Bに示される角度γによって示されるような)を示し得る。外科医の瞳孔及び角膜反射の深さは、外科医の瞳孔のそれぞれの両眼離反運動(例えば、角度γ)を監視することによって及び測定された瞳孔間距離と3D座標フレーム350のターゲットTの深さとの間の変換チャートを形成することによって推定され得る。幾つかの実施形態では、外科医の瞳孔の深さ(例えば、zP)及び角膜反射の深さ(例えばwR)は、図4Bに示されるように、三角測量法を使用して計算され得る。例えば、複数の左視標追跡ユニット212aの間の距離は、距離dC(例えば、図4Bにおける点AとBとの間の距離)になるように設定され、三角測量法角度α及びβは、外科医の目が3D座標フレーム350の異なる位置でターゲットTを見ているときに追跡され得る。1つの例では、ターゲットTが異なる深さに位置するとき、角度α及びβが、視標追跡ユニット212aと瞳孔との間の距離dP(例えば、点Cと瞳孔との間の距離)が計算されることができるように、それに応じて変わり得る。距離値dPはさらに、3D瞳孔位置(例えば、座標xP,yP、zP))を計算するために使用されることができる。外科医の左目の3D瞳孔位置(例えば、座標xP,yP、zP))及び角膜反射データ(例えば、座標(uR、vR、wR))は、外科医の左目の決定と実質的に同様の方法で決定され得る。
較正プロセス302のプロセス322において、決定された3D瞳孔位置及び3D角膜反射データは、注視点決定モデルを決定するために所定のターゲットTの所定の3D位置パラメータと比較される。言い換えると、注視点決定モデルは、3D瞳孔位置及び3D角膜反射データと所定のターゲットTの3D位置との間の関係を決定することによって形成されることができる。幾つかの例では、外科医の左目202aの決定された3D瞳孔位置375’(座標(xP、yP、zP))及び3D角膜反射データT(座標aT、bT、cT))は、以下の関係又は関数fを得るために、プロセス312で選ばれたターゲットTの左立体画像の3D位置データT(座標(aT、bT、cT))と比較される:
(aT、bT、cT)=f(xP、yP、zP、uR、vR、wR)
幾つかの実施形態では、複数の較正ターゲットが、較正プロセスの間に使用され、関数のfのパラメータは、較正プロセスの間に複数のターゲット点から集められた瞳孔の位置及び角膜反射データを使用して決定され得る。幾つかの例では、最小二乗法最適化、又は最尤推定のような方法論が、関数fのパラメータを決定するために使用され得る。幾つかの実施形態では、各目に関する視線方向ベクトルが、各目の3D瞳孔の位置及び3D角膜反射データを使用して形成されることができ、各視線方向ベクトルの交点が外科医の注視点になるように決定され得る。決定された注視点は次に、関数fを決定するためにターゲットTの3D位置データと比較され得る。幾つかの実施形態では、較正プロセスの間、ターゲットTの関数fを使用して計算される3D位置と実際の所定の位置との間の誤差は、最小二乗法最適化、又は最尤推定のような、最適化法を使用して最小化され得る。幾つかの例では、注視点決定モデルはまた、外科医の目の2D位置データ、ターゲットの2D位置データ、及び外科医の瞳孔の両眼離反運動(例えば、角度γ)を使用して形成され得る。幾つかの実施形態では、注視点決定モデルはまた、瞳孔の3D位置及び3D角膜反射データから3D空間における座標系のターゲットTの3D位置への変換を示す行列を含み得る。
同様に、外科医の右目202bの3D瞳孔位置及び3D角膜反射データは、プロセス312で選ばれたターゲットTの右立体画像の3D位置データと比較され得る。
幾つかの実施形態では、較正プロセス302は、精度が所定のシステム要求を満たすまで注視点決定モデルの精度が向上され得るように、複数回繰り返され得る。幾つかの実施形態では、第1の注視点決定モデル(例えば、関数f)が形成された後、1又は複数の実際のターゲットが第1の注視点決定モデルの精度を推定するために使用され得る。例えば、実際のターゲット(複数可)を使用するマッピング最適化を再実行することによって、第1の注視点決定モデルは第2の注視点決定モデルを形成するように更新され得る。第1と第2のモデルとの間の精度は、より正確な注視点決定モデルが形成され得るように、比較され且つ評価される。
較正プロセス302が完了した後、方法300は、測定プロセス304に進む。測定プロセス304は、内視鏡又はステレオカメラ112が手術部位の画像を取り込んでいるときの手術又は訓練プロセス中に実行され得る。幾つかの実施形態では、較正プロセス302及び測定プロセス304はまた、シミュレーションモジュールを使用する、例えば、(外科医用コンソール120と一体化され得る)Vinci(登録商標)Skills Simulator(商標)を使用する、シミュレートされた練習で行われ得る。
測定プロセス304は、外科医が左目及び右目画像ディスプレイ208a、208bに表示される画像(例えば、手術部位又は仮想画像)を見ているとき、外科医の左及び右目202a、202bそれぞれの2D瞳孔位置及び2D角膜反射データを受信することによってプロセス324で開始する。プロセス324のための構成及び方法は、実質的に、前述の方法300のプロセス314と同様であり得る。幾つかの実施形態では、手術部位の画像は、内視鏡又はステレオカメラ112によって取り込まれ得るとともに、左目及び右目画像ディスプレイ208a、208bそれぞれに表示される左目及び右目立体画像に分離されるように処理され得る。外科医の左及び右目の2D瞳孔位置及び2D角膜反射データは、左及び右視標追跡ユニット212a、212bそれぞれによって取り込まれ、プロセッサ214a、214b及び/又はインテグレータ216によって3D瞳孔位置データを得るために処理される。
測定プロセス304は、プロセス316で決定された補償値及び/又は補償モデルを使用して外科医の左及び右目202a、202bのそれぞれに関する瞳孔位置及び角膜反射データを推定することによって、プロセス326に進む。幾つかの実施形態では、ステップ316で取り込まれた頭/顔運動はまた、瞳孔の位置及び角膜反射データ又は外科医の3D注視点を補償するために使用され得る。上述のように、頭運動データは、左及び右視標追跡ユニット212a、212bを使用して頭の特徴部を追跡することによって較正プロセス302の間に追跡され得るとともに、補償値及び/又は補償モデルが、頭の運動によって誘発される瞳孔位置及び/又は角膜反射データに対する変化を計算するために使用され得る。計算された変化の値は、(例えば、外科医の頭の運動を補償するために)プロセス324で決定された外科医の左及び右目に関する瞳孔位置及び角膜反射データを調整するために使用され得る。特に、頭の運動と目の端の追跡された運動との間の関数が、較正プロセス302の間に形成されることができる。測定プロセス304の間に、頭/目の特徴部の運動が追跡され得るとともに、外科医の頭の運動が、較正プロセス302からの形成された関数を使用して推定され得る。3D瞳孔位置及び3D角膜反射データは次に、ステップ322で得られた注視点決定モデルを使用することによって、プロセッサ214によって外科医の3D注視点位置に変換され得る。
測定プロセス304は、外科医の左及び右目202a、202bのそれぞれの3D瞳孔位置及び3D角膜反射データを決定することによってプロセス328に進む。3D瞳孔位置及び3D角膜反射データを決定するためのプロセスは、前述の方法300のプロセス318と実質的に同様であり得る。幾つかの実施形態では、左視標追跡ユニット212aのそれぞれから受信された2D瞳孔位置及び2D角膜反射データは、左目プロセッサ214aによって処理され得る。左目202aの瞳孔の位置及び角膜反射は次に、角膜反射の角膜反射中心365と、瞳孔375の中心との間の相対位置を使用して計算されることができる(図4Cに示される)。外科医の右目の3D瞳孔位置及び3D角膜反射データは、外科医の左目の決定と実質的に同様の方法で決定され得る。例えば、右視標追跡ユニット212bのそれぞれから受信される2D瞳孔位置及び2D角膜反射データは、右目プロセッサ214bによって処理され得る。右目202bの瞳孔の位置及び角膜反射は次に、右の角膜反射の角膜反射中心と、右の瞳孔の中心との間の相対位置を使用して計算されることができる。
測定プロセス304は、較正プロセス302のプロセス322で得られた注視点決定モデルを使用して外科医の3D注視点を決定することによって、プロセス330に進む。幾つかの実施形態では、プロセス328で決定された外科医の両目の3D瞳孔位置及び3D角膜反射データは、外科医の注視点の3D位置を決定するために注視点決定モデルを使用して処理され得る。幾つかの実施形態では、各目に関する視線方向ベクトルは、プロセス328で各目の決定された3D瞳孔位置及び3D角膜反射データを使用して形成されることができる。各視線方向ベクトルの交点が次に、外科医の注視点を決定するために使用され得る。
測定プロセス304の後、幾つかの実施形態では、決定された3D注視点位置は、図3A-3Dに示される画像ディスプレイ208の上に示され得る。3D注視点位置は、限定ではなく、点、線、ベクター、矢印、及び半透明の円のような、様々な適切な表現のいずれかで表され得る。上述のように遠隔操作医療システム10によって測定された注視点は、リアルタイム医療処置及び仮想訓練処置を含む、様々な用途で使用され得る。
例示の実施形態が説明されるとともに示されているが、広範囲の修正、変更及び置換が、前述の記載において考えられ、幾つかの例では、実施形態の幾つかの特徴が、他の特徴の対応する使用なしに用いられ得る。当業者は、多くの変形形態、代替形態、及び変更形態を認識するであろう。したがって、本発明の範囲は、以下の請求項のみによって限定されるべきであり、請求項は広く且つ本明細書に開示される実施形態の範囲と一致する方法で解釈されることが適切である。
次の付記を記す。
(付記1) 手術野の画像をユーザに表示するように構成される画像ディスプレイであって、第1の波長範囲の光を放射するように構成される、画像ディスプレイ、
第2の波長範囲の光を放射するように且つ前記ユーザの右目の第1の注視点に関するデータを測定するように構成される、右目追跡装置、
前記第2の波長範囲の光を放射するように且つ前記ユーザの左目の第2の注視点に関するデータを測定するように構成される、左目追跡装置、
前記画像ディスプレイと前記ユーザの前記右目及び前記左目との間に配置される光学アセンブリであって、前記右目追跡装置及び前記左目追跡装置が前記ユーザに見えることなしに、前記第1及び前記第2の波長範囲の光が、前記左目と前記画像ディスプレイとの間の左光学経路の少なくとも一部を共有し且つ前記右目と前記画像ディスプレイとの間の右光学経路の少なくとも一部を共有するように、前記第1及び前記第2の波長範囲の光を導くように構成される、光学アセンブリ、及び
前記ユーザの前記注視点が向けられている表示される画像における視点を決定するために前記第1の注視点及び前記第2の注視点に関する前記データを処理するように構成される、少なくとも1つのプロセッサ、を有する、
視標追跡システム。
(付記2) 前記光学アセンブリは、前記第1の波長範囲の前記光を反射するように且つ前記第2の波長範囲の前記光の通過を可能にするように構成されるビームスプリッタを含む、
付記1に記載の視標追跡システム。
(付記3) 前記ビームスプリッタはダイクロックミラーを含む、
付記2に記載の視標追跡システム。
(付記4) 前記光学アセンブリはさらに、前記ビームスプリッタから反射された光を受けるように構成されるミラーを含む、
付記2に記載の視標追跡システム。
(付記5) 前記右目追跡装置は右立体イメージング装置を含み、前記左目追跡装置は左立体イメージング装置を含む、
付記1に記載の視標追跡システム。
(付記6) 前記右及び前記左立体イメージング装置は、それぞれ、複数の視標追跡カメラを含む、
付記1に記載の視標追跡システム。
(付記7) 前記少なくとも1つのプロセッサは、一定の瞳孔間距離に対応する一定の要因に基づいて視点を決定するために前記第1の注視点及び前記第2の注視点に関する前記データを処理するように構成される、
付記1に記載の視標追跡システム。
(付記8) 前記右目追跡装置は、前記右目の2D角膜反射データを検出するように構成され、前記左目追跡装置は、前記左目の2D角膜反射データを検出するように構成される、
付記1に記載の視標追跡システム。
(付記9) 前記右目追跡装置は、前記右目の2D瞳孔位置データを検出するように構成され、前記左目追跡装置は、前記左目の2D瞳孔位置データを検出するように構成される、
付記1に記載の視標追跡システム。
(付記10) 前記右目追跡装置及び前記左目追跡装置は、前記ユーザの頭の特徴部に対応する固定基準点に関する位置データを追跡するように構成される、
付記1に記載の視標追跡システム。
(付記11) 前記少なくとも1つのプロセッサは、前記固定基準点に関する前記位置データに基づいて前記視点を決定するために、前記第1の注視点及び前記第2の注視点に関する前記データを処理し且つ前記ユーザの頭の運動を補償するように構成される、
付記10に記載の視標追跡システム。
(付記12) 前記光学アセンブリは、前記画像ディスプレイからの前記第2の波長範囲の前記光を反射するように且つ前記光エミッタからの前記第1の波長範囲の前記光を透過するように構成される、
付記1に記載の視標追跡システム。

Claims (14)

  1. 手術野の画像をユーザに表示するように構成される画像ディスプレイ、
    前記ユーザの右目の第1の注視点に関するデータを測定するように構成される右目追跡装置であって、右立体イメージング装置を含む、右目追跡装置、
    前記ユーザの左目の第2の注視点に関するデータを測定するように構成される左目追跡装置であって、左立体イメージング装置を含む、左目追跡装置、及び
    前記ユーザの前記注視点が向けられている表示される画像における視点を決定するために前記第1の注視点及び前記第2の注視点に関する前記データを処理するように構成される、少なくとも1つのプロセッサ、を有する、
    目追跡システム。
  2. 前記右立体イメージング装置は、前記右目からの光を受けるように構成された少なくとも2つのカメラを含み、前記左立体イメージング装置は、前記左目からの光を受けるように構成された少なくとも2つのカメラを含む、
    請求項1に記載の目追跡システム。
  3. 前記少なくとも1つのプロセッサは、一定の瞳孔間距離に対応する一定の要因に基づいて前記視点を決定するために前記第1の注視点及び前記第2の注視点に関する前記データを処理するように構成される、
    請求項1に記載の目追跡システム。
  4. 前記右目追跡装置は、前記右目の2D角膜反射データを検出するように構成され、前記左目追跡装置は、前記左目の2D角膜反射データを検出するように構成される、
    請求項1に記載の目追跡システム。
  5. 前記右目追跡装置は、前記右目の2D瞳孔位置データを検出するように構成され、前記左目追跡装置は、前記左目の2D瞳孔位置データを検出するように構成される、
    請求項1に記載の目追跡システム。
  6. 前記右目追跡装置及び前記左目追跡装置は、前記ユーザの頭の特徴部に対応する固定基準点に関する位置データを追跡するように構成される、
    請求項1に記載の目追跡システム。
  7. 前記少なくとも1つのプロセッサは、前記固定基準点に関する前記位置データに基づいて前記視点を決定するために、前記第1の注視点及び前記第2の注視点に関する前記データを処理し且つ前記ユーザの頭の運動を補償するように構成される、
    請求項6に記載の目追跡システム。
  8. 右目光エミッタ及び左目光エミッタをさらに含み、前記右目光エミッタは、第1の波長範囲の光を前記ユーザの前記右目に放射するように構成され、前記左目光エミッタは、前記第1の波長範囲の光を前記ユーザの前記左目に放射するように構成される、
    請求項1に記載の目追跡システム。
  9. 前記画像ディスプレイと前記ユーザの目との間に配置される光学アセンブリをさらに含み、前記光学アセンブリは、前記ユーザの目、前記の目追跡装置、及び前記の光エミッタとの間の光学連通を提供するように配置された右目ミラーセット及び左目ミラーセットを有する、
    請求項8に記載の目追跡システム。
  10. 前記右目ミラーセットは、前記画像ディスプレイからの第2の波長範囲の光を前記ユーザの前記右目に向け、前記右目光エミッタからの前記第1の波長範囲の光を前記ユーザの前記右目に向け、前記ユーザの前記右目からの前記第1の波長範囲の反射光を前記右目追跡装置に向けるように構成され、前記左目ミラーセットは、前記画像ディスプレイからの第2の波長範囲の光を前記ユーザの前記左目に向け、前記左目光エミッタからの前記第1の波長範囲の光を前記ユーザの前記左目に向け、前記ユーザの前記左目からの前記第1の波長範囲の反射光を前記左目追跡装置に向けるように構成される、
    請求項9に記載の目追跡システム。
  11. 前記光学アセンブリは、前記画像ディスプレイからの前記第2の波長範囲の前記光を反射するように且つ前記光エミッタからの前記第1の波長範囲の前記光を透過するように構成される、
    請求項9に記載の目追跡システム。
  12. 前記右目ミラーセットは、前記画像ディスプレイからの第2の波長範囲の反射光を前記ユーザの前記右目に反射させ、前記右目光エミッタからの前記第1の波長範囲の前記光を前記ユーザの前記右目に透過させ、前記ユーザの前記右目からの前記第1の波長範囲の反射光を前記右目追跡装置に透過させるように構成された右ビームスプリッタを含み、前記左目ミラーセットは、前記画像ディスプレイからの第2の波長範囲の反射光を前記ユーザの前記左目に反射させ、前記左目光エミッタからの前記第1の波長範囲の前記光を前記ユーザの前記左目に透過させ、前記ユーザの前記左目からの前記第1の波長範囲の反射光を前記左目追跡装置に透過させるように構成された左ビームスプリッタを含む、
    請求項11に記載の目追跡システム。
  13. 前記右目光エミッタ及び前記右目追跡装置は、前記右ビームスプリッタと前記画像ディスプレイとの間に配置され、前記左目光エミッタ及び前記左目追跡装置は、前記左ビームスプリッタと前記画像ディスプレイとの間に配置される、
    請求項12に記載の目追跡システム。
  14. 前記左目光エミッタ及び前記左目追跡装置は、前記左ビームスプリッタの横且つ前記画像ディスプレイと前記左目との間の平面に配置され、前記右目光エミッタ及び前記右目追跡装置は、前記右ビームスプリッタの横且つ前記画像ディスプレイと前記右目との間の平面に配置される、
    請求項12に記載の目追跡システム。
JP2022084912A 2014-03-19 2022-05-25 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法 Pending JP2022116156A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024021732A JP2024061720A (ja) 2014-03-19 2024-02-16 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461955334P 2014-03-19 2014-03-19
US61/955,334 2014-03-19
JP2020023311A JP7080915B2 (ja) 2014-03-19 2020-02-14 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020023311A Division JP7080915B2 (ja) 2014-03-19 2020-02-14 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024021732A Division JP2024061720A (ja) 2014-03-19 2024-02-16 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法

Publications (1)

Publication Number Publication Date
JP2022116156A true JP2022116156A (ja) 2022-08-09

Family

ID=54145284

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2016558123A Active JP6689203B2 (ja) 2014-03-19 2015-03-18 立体ビューワのための視線追跡を統合する医療システム
JP2020023311A Active JP7080915B2 (ja) 2014-03-19 2020-02-14 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法
JP2022084912A Pending JP2022116156A (ja) 2014-03-19 2022-05-25 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法
JP2024021732A Pending JP2024061720A (ja) 2014-03-19 2024-02-16 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016558123A Active JP6689203B2 (ja) 2014-03-19 2015-03-18 立体ビューワのための視線追跡を統合する医療システム
JP2020023311A Active JP7080915B2 (ja) 2014-03-19 2020-02-14 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024021732A Pending JP2024061720A (ja) 2014-03-19 2024-02-16 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法

Country Status (6)

Country Link
US (4) US10432922B2 (ja)
EP (1) EP3119343A4 (ja)
JP (4) JP6689203B2 (ja)
KR (3) KR102709112B1 (ja)
CN (2) CN106659541B (ja)
WO (1) WO2015143073A1 (ja)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8556807B2 (en) * 2006-12-21 2013-10-15 Intuitive Surgical Operations, Inc. Hermetically sealed distal sensor endoscope
US8814779B2 (en) 2006-12-21 2014-08-26 Intuitive Surgical Operations, Inc. Stereoscopic endoscope
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
CN105813582B (zh) 2013-12-11 2019-05-28 柯惠Lp公司 用于机器人手术系统的腕组件及钳夹组件
US10432922B2 (en) 2014-03-19 2019-10-01 Intuitive Surgical Operations, Inc. Medical devices, systems, and methods using eye gaze tracking for stereo viewer
CN106456148B (zh) 2014-03-19 2020-06-12 直观外科手术操作公司 使用眼球凝视跟踪的医疗装置、系统和方法
US10179407B2 (en) * 2014-11-16 2019-01-15 Robologics Ltd. Dynamic multi-sensor and multi-robot interface system
KR102333267B1 (ko) * 2014-12-10 2021-12-01 삼성전자주식회사 눈 위치 예측 장치 및 방법
CN107249498B (zh) 2015-02-19 2024-04-23 柯惠Lp公司 机器人手术系统的输入装置的重定位方法
AU2016229897B2 (en) 2015-03-10 2020-07-16 Covidien Lp Measuring health of a connector member of a robotic surgical system
CA2984138A1 (en) * 2015-05-28 2016-12-01 Thalmic Labs Inc. Systems, devices, and methods that integrate eye tracking and scanning laser projection in wearable heads-up displays
CN107820412B (zh) 2015-06-23 2021-01-15 柯惠Lp公司 机器人手术组合件
WO2017053363A1 (en) 2015-09-25 2017-03-30 Covidien Lp Robotic surgical assemblies and instrument drive connectors thereof
WO2017087439A1 (en) 2015-11-19 2017-05-26 Covidien Lp Optical force sensor for robotic surgical system
JP6494863B2 (ja) * 2015-11-25 2019-04-03 グーグル エルエルシー プリズムによる視線追跡
JP6673684B2 (ja) * 2015-12-11 2020-03-25 株式会社メディカロイド 遠隔操作装置及び遠隔手術システム
KR102463172B1 (ko) * 2016-01-08 2022-11-04 삼성전자주식회사 동공 거리 결정 방법 및 장치
US11576562B2 (en) 2016-04-07 2023-02-14 Titan Medical Inc. Camera positioning method and apparatus for capturing images during a medical procedure
CN113180835A (zh) 2016-06-03 2021-07-30 柯惠Lp公司 用于机器人手术系统的控制臂
US11612446B2 (en) 2016-06-03 2023-03-28 Covidien Lp Systems, methods, and computer-readable program products for controlling a robotically delivered manipulator
CN107536598A (zh) * 2016-06-29 2018-01-05 沈阳新松机器人自动化股份有限公司 双目视觉瞳孔定位方法及相关设备
KR102548199B1 (ko) 2016-08-03 2023-06-28 삼성전자주식회사 전자 장치 및 전자 장치의 시선 추적 방법
WO2018121878A1 (en) * 2016-12-30 2018-07-05 Tobii Ab Eye/gaze tracking system and method
WO2018152141A1 (en) 2017-02-15 2018-08-23 Covidien Lp System and apparatus for crush prevention for medical robot applications
EP3629979A4 (en) 2017-05-24 2021-02-17 Covidien LP PRESENCE DETECTION FOR ELECTROSURGICAL TOOLS IN A ROBOTIC SYSTEM
EP3629980A4 (en) 2017-05-25 2021-03-10 Covidien LP ROBOTIC SURGICAL SYSTEM WITH AUTOMATED GUIDANCE
CN111093552A (zh) * 2017-08-16 2020-05-01 柯惠有限合伙公司 优化立体视觉内容的感知
EP3678572A4 (en) 2017-09-05 2021-09-29 Covidien LP COLLISION HANDLING ALGORITHMS FOR SURGICAL ROBOTIC SYSTEMS
CN111093466A (zh) * 2017-09-10 2020-05-01 凯罗斯股份有限公司 内视镜系统
DE102017217193B4 (de) 2017-09-27 2019-07-25 Audi Ag Anzeigevorrichtung, insbesondere für ein Fahrzeug, sowie Fahrzeug mit einer solchen Anzeigevorrichtung
CN107705164A (zh) * 2017-11-14 2018-02-16 宜宾维特瑞安科技有限公司 一种基于眼球追踪技术的市场调查装置、系统及方法
US11690677B2 (en) * 2017-12-31 2023-07-04 Asensus Surgical Us, Inc. Use of eye tracking for tool identification and assignment in a robotic surgical system
CN111556735A (zh) 2018-01-04 2020-08-18 柯惠Lp公司 将手术配件安装至机器人手术系统并且提供穿过其的通路的系统和组件
US12029510B2 (en) 2018-01-10 2024-07-09 Covidien Lp Determining positions and conditions of tools of a robotic surgical system utilizing computer vision
US12102403B2 (en) 2018-02-02 2024-10-01 Coviden Lp Robotic surgical systems with user engagement monitoring
KR20200130257A (ko) 2018-02-09 2020-11-18 젠텍스 코포레이션 이미지 기반 제어를 구비한 적응형 조명 어레이
US10517158B2 (en) * 2018-02-09 2019-12-24 Gentex Corporation Systems and methods for detection and illumination of regions of interest
EP3530173A1 (en) * 2018-02-23 2019-08-28 Leica Instruments (Singapore) Pte. Ltd. Medical observation apparatus with a movable beam deflector and method for operating the same
WO2019204013A1 (en) 2018-04-20 2019-10-24 Covidien Lp Systems and methods for surgical robotic cart placement
WO2019213432A1 (en) * 2018-05-03 2019-11-07 Intuitive Surgical Operations, Inc. Systems and methods for measuring a distance using a stereoscopic endoscope
US10983604B2 (en) 2018-05-16 2021-04-20 Alcon Inc. Foot controlled cursor
US10895757B2 (en) 2018-07-03 2021-01-19 Verb Surgical Inc. Systems and methods for three-dimensional visualization during robotic surgery
CN112105312A (zh) 2018-07-03 2020-12-18 柯惠Lp公司 用于在手术程序期间检测图像退化的系统、方法和计算机可读介质
US10888380B2 (en) * 2018-07-12 2021-01-12 Alcon Inc. Systems and methods for intraocular lens selection
CN110865467B (zh) * 2018-08-17 2022-03-08 安徽省东超科技有限公司 一种基于激光诱导的可交互体三维显示装置及其控制方法
US10866635B2 (en) * 2018-09-13 2020-12-15 Toyota Research Institute, Inc. Systems and methods for capturing training data for a gaze estimation model
EP3852667A4 (en) 2018-09-17 2022-06-15 Covidien LP SURGICAL ROBOTIC SYSTEMS
JP7367757B2 (ja) * 2018-10-12 2023-10-24 ソニーグループ株式会社 手術支援システム、データ処理装置および方法
US10990168B2 (en) * 2018-12-10 2021-04-27 Samsung Electronics Co., Ltd. Compensating for a movement of a sensor attached to a body of a user
EP3671305A1 (en) * 2018-12-18 2020-06-24 Eberhard Karls Universität Tübingen Exoscope system and use of such an exoscope system
CN109498162B (zh) * 2018-12-20 2023-11-03 深圳市精锋医疗科技股份有限公司 提升沉浸感的主操作台及手术机器人
CN109498164B (zh) * 2018-12-20 2023-11-03 深圳市精锋医疗科技股份有限公司 具有目镜的主操作台及手术机器人
CN111381367A (zh) * 2018-12-27 2020-07-07 宏星技术股份有限公司 眼球追踪器与显示装置
CN109634431B (zh) * 2019-01-22 2024-04-26 像航(上海)科技有限公司 无介质浮空投影视觉追踪互动系统
US11576733B2 (en) 2019-02-06 2023-02-14 Covidien Lp Robotic surgical assemblies including electrosurgical instruments having articulatable wrist assemblies
US11204640B2 (en) * 2019-05-17 2021-12-21 Verb Surgical Inc. Methods for determining if teleoperation should be disengaged based on the user's gaze
CN110215185B (zh) * 2019-06-05 2022-01-11 北京清华长庚医院 眼球突出度测量设备
CA3139881A1 (en) 2019-06-20 2020-12-24 Gentex Corporation Illumination system and method for object tracking
JP7300014B2 (ja) 2019-06-20 2023-06-28 ジェンテックス コーポレイション 自動モジュール式照明及び配備のためのシステム及び方法
US11106279B2 (en) * 2019-06-21 2021-08-31 Verb Surgical Inc. Eye tracking calibration for a surgical robotic system
EP3989793A4 (en) 2019-06-28 2023-07-19 Auris Health, Inc. CONSOLE OVERLAY ITS METHODS OF USE
EP3764367A1 (en) * 2019-07-11 2021-01-13 Milestone S.r.l. System and method for medical gross examination
US11850730B2 (en) 2019-07-17 2023-12-26 Asensus Surgical Us, Inc. Double eye tracker configuration for a robot-assisted surgical system
CN110441901A (zh) * 2019-08-14 2019-11-12 东北大学 一种可实时追踪注视位置的光学显微镜系统及方法
WO2021074824A1 (en) 2019-10-15 2021-04-22 Gentex Corporation Flat panel light module with dynamic beam
JP7414611B2 (ja) * 2020-03-26 2024-01-16 株式会社メディカロイド ロボット手術支援装置、処理方法、及びプログラム
USD963851S1 (en) 2020-07-10 2022-09-13 Covidien Lp Port apparatus
KR102465800B1 (ko) * 2020-09-23 2022-11-11 (주)엘비전테크 근안 영상 표시 장치에 적용되는 시스루 광학 시스템 및 시스루 광학 시스템에서의 시선 추적 방법
CN112315423B (zh) * 2020-11-06 2023-08-22 上海青研科技有限公司 眼球运动测量设备
CN116322559A (zh) * 2020-11-25 2023-06-23 直观外科手术操作公司 可操控的查看器模式激活和停用
CN112926523B (zh) 2021-03-30 2022-07-26 青岛小鸟看看科技有限公司 基于虚拟现实的眼球追踪方法、系统
US11948226B2 (en) 2021-05-28 2024-04-02 Covidien Lp Systems and methods for clinical workspace simulation
CN117396979A (zh) * 2021-06-03 2024-01-12 索尼集团公司 信息处理装置、信息处理系统、信息处理方法和程序
WO2023021481A1 (en) 2021-08-20 2023-02-23 Gentex Corporation Lighting assembly and illumination system having a lighting assembly
CN118401193A (zh) * 2021-10-21 2024-07-26 直观外科手术操作公司 用于显示单元的可调整头枕

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11501403A (ja) * 1994-10-26 1999-02-02 ライカ ミクロスコピー ズュステーメ アーゲー 顕微鏡、特に手術用顕微鏡
US20090248036A1 (en) * 2008-03-28 2009-10-01 Intuitive Surgical, Inc. Controlling a robotic surgical tool with a display monitor
US20130114850A1 (en) * 2011-11-07 2013-05-09 Eye-Com Corporation Systems and methods for high-resolution gaze tracking

Family Cites Families (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1043292A (en) 1910-01-17 1912-11-05 Charles W Bowron Voting-machine.
US1027878A (en) 1912-03-22 1912-05-28 Marian Milewski Hasp-lock.
JPS61172552A (ja) 1985-01-28 1986-08-04 株式会社トプコン 視線方向検出装置
US5204942A (en) 1989-01-10 1993-04-20 Kabushiki Kaisha Kobe Seiko Sho Robot control system for controlling a set of industrial robots for cooperative operation
US5631973A (en) 1994-05-05 1997-05-20 Sri International Method for telemanipulation with telepresence
US5360971A (en) 1992-03-31 1994-11-01 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
US5762458A (en) 1996-02-20 1998-06-09 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
US5517021A (en) 1993-01-19 1996-05-14 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
EP0699053B1 (en) 1993-05-14 1999-03-17 Sri International Surgical apparatus
JP3482228B2 (ja) 1993-11-02 2003-12-22 オリンパス株式会社 視線検出によるマニピュレータ制御システム
US5876325A (en) 1993-11-02 1999-03-02 Olympus Optical Co., Ltd. Surgical manipulation system
JP3540362B2 (ja) 1994-06-14 2004-07-07 オリンパス株式会社 手術用マニピュレータの制御システム及びその制御方法
US5553609A (en) 1995-02-09 1996-09-10 Visiting Nurse Service, Inc. Intelligent remote visual monitoring system for home health care service
JP3539645B2 (ja) 1995-02-16 2004-07-07 株式会社日立製作所 遠隔手術支援装置
US5882206A (en) 1995-03-29 1999-03-16 Gillio; Robert G. Virtual surgery system
US6496099B2 (en) 1996-06-24 2002-12-17 Computer Motion, Inc. General purpose distributed operating room control system
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6351273B1 (en) 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US6852107B2 (en) 2002-01-16 2005-02-08 Computer Motion, Inc. Minimally invasive surgical training using robotics and tele-collaboration
US6659939B2 (en) 1998-11-20 2003-12-09 Intuitive Surgical, Inc. Cooperative minimally invasive telesurgical system
US6398726B1 (en) 1998-11-20 2002-06-04 Intuitive Surgical, Inc. Stabilizer for robotic beating-heart surgery
US6459926B1 (en) 1998-11-20 2002-10-01 Intuitive Surgical, Inc. Repositioning and reorientation of master/slave relationship in minimally invasive telesurgery
US8527094B2 (en) 1998-11-20 2013-09-03 Intuitive Surgical Operations, Inc. Multi-user medical robotic system for collaboration or training in minimally invasive surgical procedures
US6951535B2 (en) 2002-01-16 2005-10-04 Intuitive Surgical, Inc. Tele-medicine system that transmits an entire state of a subsystem
US6799065B1 (en) 1998-12-08 2004-09-28 Intuitive Surgical, Inc. Image shifting apparatus and method for a telerobotic system
US6090051A (en) 1999-03-03 2000-07-18 Marshall; Sandra P. Method and apparatus for eye tracking and monitoring pupil dilation to evaluate cognitive activity
JP3381666B2 (ja) 1999-06-03 2003-03-04 日本電気株式会社 眼疲労警告装置
US6346887B1 (en) 1999-09-14 2002-02-12 The United States Of America As Represented By The Secretary Of The Navy Eye activity monitor
US6603491B2 (en) 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
JP3504222B2 (ja) 2000-09-04 2004-03-08 ファナック株式会社 ロボット制御装置
US6578962B1 (en) 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
US6728599B2 (en) 2001-09-07 2004-04-27 Computer Motion, Inc. Modularity system for computer assisted surgery
WO2003074307A1 (en) * 2002-03-07 2003-09-12 Yechezkal Evan Spero Enhanced vision for driving
AU2003224997A1 (en) 2002-04-16 2003-11-03 Michael Conditt Computer-based training methods for surgical procedures
CA2397431A1 (en) 2002-08-09 2004-02-09 Andrew Lohbihler Method and apparatus for a wireless position sensing interface device employing spread spectrum technology of one or more radio transmitting devices
GB0222265D0 (en) * 2002-09-25 2002-10-30 Imp College Innovations Ltd Control of robotic manipulation
US9153074B2 (en) 2011-07-18 2015-10-06 Dylan T X Zhou Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US8292433B2 (en) 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
JP2004309930A (ja) * 2003-04-09 2004-11-04 Olympus Corp 立体観察システム
US7899512B2 (en) 2004-03-22 2011-03-01 Vanderbilt University System and method for surgical instrument disablement via image-guided position feedback
US20110077548A1 (en) 2004-04-01 2011-03-31 Torch William C Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US7245202B2 (en) 2004-09-10 2007-07-17 Immersion Corporation Systems and methods for networked haptic devices
US7331929B2 (en) 2004-10-01 2008-02-19 General Electric Company Method and apparatus for surgical operating room information display gaze detection and user prioritization for control
US7501995B2 (en) 2004-11-24 2009-03-10 General Electric Company System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation
WO2006087689A2 (en) 2005-02-18 2006-08-24 Koninklijke Philips Electronics N. V. Automatic control of a medical device
US20060210111A1 (en) * 2005-03-16 2006-09-21 Dixon Cleveland Systems and methods for eye-operated three-dimensional object location
US20110020779A1 (en) 2005-04-25 2011-01-27 University Of Washington Skill evaluation using spherical motion mechanism
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US8398541B2 (en) 2006-06-06 2013-03-19 Intuitive Surgical Operations, Inc. Interactive user interfaces for robotic minimally invasive surgical systems
US9718190B2 (en) * 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
WO2008107832A1 (en) 2007-03-07 2008-09-12 Koninklijke Philips Electronics N.V. Stress estimation
GB0709405D0 (en) 2007-05-16 2007-06-27 Univ Edinburgh Testing vision
JP4943972B2 (ja) 2007-08-27 2012-05-30 昭和電工株式会社 記憶媒体、及び記憶装置
US8169468B2 (en) 2008-04-26 2012-05-01 Intuitive Surgical Operations, Inc. Augmented stereoscopic visualization for a surgical robot
US8820931B2 (en) * 2008-07-18 2014-09-02 Doheny Eye Institute Optical coherence tomography-based ophthalmic testing methods, devices and systems
WO2010018907A1 (ko) 2008-08-14 2010-02-18 (주)미래컴퍼니 서버 클라이언트 방식의 수술용 로봇 시스템
WO2010051037A1 (en) 2008-11-03 2010-05-06 Bruce Reiner Visually directed human-computer interaction for medical applications
JP2010152443A (ja) * 2008-12-24 2010-07-08 Brother Ind Ltd ヘッドマウントディスプレイ
US20100167248A1 (en) 2008-12-31 2010-07-01 Haptica Ltd. Tracking and training system for medical procedures
DE102009010263B4 (de) 2009-02-24 2011-01-20 Reiner Kunz Verfahren zur Navigation eines endoskopischen Instruments bei der technischen Endoskopie und zugehörige Vorrichtung
EP2309307B1 (en) 2009-10-08 2020-12-09 Tobii Technology AB Eye tracking using a GPU
US9039419B2 (en) 2009-11-06 2015-05-26 International Business Machines Corporation Method and system for controlling skill acquisition interfaces
US8935003B2 (en) 2010-09-21 2015-01-13 Intuitive Surgical Operations Method and system for hand presence detection in a minimally invasive surgical system
US8521331B2 (en) 2009-11-13 2013-08-27 Intuitive Surgical Operations, Inc. Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20110228051A1 (en) 2010-03-17 2011-09-22 Goksel Dedeoglu Stereoscopic Viewing Comfort Through Gaze Estimation
IT1401669B1 (it) 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
DE102010038800B4 (de) 2010-08-02 2024-03-07 Kuka Deutschland Gmbh Medizinischer Arbeitsplatz
JP2012128523A (ja) 2010-12-13 2012-07-05 Canon Inc 情報処理装置およびその動作方法
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
JP2014506695A (ja) 2011-01-30 2014-03-17 ミレイ,ラム スリカンス 技術評価
US9285874B2 (en) * 2011-02-09 2016-03-15 Apple Inc. Gaze detection in a 3D mapping environment
CN103281959A (zh) 2011-05-20 2013-09-04 松下电器产业株式会社 视觉疲劳度测定装置、视觉疲劳度测定方法、视觉疲劳度测定系统及三维眼镜
US9380978B2 (en) 2011-06-29 2016-07-05 Bruce Reiner Method and apparatus for real-time measurement and analysis of occupational stress and fatigue and performance outcome predictions
US20130083003A1 (en) 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
US9345957B2 (en) 2011-09-30 2016-05-24 Microsoft Technology Licensing, Llc Enhancing a sport using an augmented reality display
WO2013066790A1 (en) 2011-11-02 2013-05-10 Intuitive Surgical Operations, Inc. Method and system for stereo gaze tracking
WO2013103937A1 (en) 2012-01-06 2013-07-11 Dickey-John Fault-tolerant sensing and monitoring communications bus system for agricultural applications
IL219907A (en) * 2012-05-21 2017-08-31 Lumus Ltd Integrated head display system with eye tracking
US20150103096A1 (en) 2012-05-30 2015-04-16 Pioneer Corporation Display device, head mount display, calibration method, calibration program and recording medium
US9077973B2 (en) * 2012-06-29 2015-07-07 Dri Systems Llc Wide field-of-view stereo vision platform with dynamic control of immersive or heads-up display operation
US20140024889A1 (en) 2012-07-17 2014-01-23 Wilkes University Gaze Contingent Control System for a Robotic Laparoscope Holder
IL221863A (en) * 2012-09-10 2014-01-30 Elbit Systems Ltd Digital video photography system when analyzing and displaying
KR102218244B1 (ko) 2012-12-10 2021-02-22 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 영상 포착 장치 및 조작 가능 장치 가동 아암들의 제어된 이동 중의 충돌 회피
US20140160004A1 (en) 2012-12-11 2014-06-12 Biosense Webster (Israel), Ltd. Use of physician eye tracking during a procedure
US9101297B2 (en) 2012-12-11 2015-08-11 Elwha Llc Time-based unobtrusive active eye interrogation
DE102012025102A1 (de) 2012-12-20 2014-06-26 avateramedical GmBH Endoskop mit einem Mehrkamerasystem für die minimal-invasive Chirurgie
KR20140112207A (ko) 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
KR20140139840A (ko) 2013-05-28 2014-12-08 삼성전자주식회사 디스플레이 장치 및 그 제어방법
US10474793B2 (en) 2013-06-13 2019-11-12 Northeastern University Systems, apparatus and methods for delivery and augmentation of behavior modification therapy and teaching
US9625723B2 (en) * 2013-06-25 2017-04-18 Microsoft Technology Licensing, Llc Eye-tracking system using a freeform prism
WO2015023513A1 (en) 2013-08-14 2015-02-19 Intuitive Surgical Operations, Inc. Endoscope control system
CN106456148B (zh) 2014-03-19 2020-06-12 直观外科手术操作公司 使用眼球凝视跟踪的医疗装置、系统和方法
US10432922B2 (en) 2014-03-19 2019-10-01 Intuitive Surgical Operations, Inc. Medical devices, systems, and methods using eye gaze tracking for stereo viewer
US10722114B1 (en) 2017-06-28 2020-07-28 Bertec Corporation System and method for vision testing and/or training

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11501403A (ja) * 1994-10-26 1999-02-02 ライカ ミクロスコピー ズュステーメ アーゲー 顕微鏡、特に手術用顕微鏡
US20090248036A1 (en) * 2008-03-28 2009-10-01 Intuitive Surgical, Inc. Controlling a robotic surgical tool with a display monitor
US20130114850A1 (en) * 2011-11-07 2013-05-09 Eye-Com Corporation Systems and methods for high-resolution gaze tracking

Also Published As

Publication number Publication date
CN106659541A (zh) 2017-05-10
EP3119343A4 (en) 2017-12-20
KR102512876B1 (ko) 2023-03-24
EP3119343A1 (en) 2017-01-25
JP2020103907A (ja) 2020-07-09
KR102365889B1 (ko) 2022-02-23
CN106659541B (zh) 2019-08-16
US11438572B2 (en) 2022-09-06
JP6689203B2 (ja) 2020-04-28
JP2017516508A (ja) 2017-06-22
KR20230042149A (ko) 2023-03-27
WO2015143073A1 (en) 2015-09-24
US20200045301A1 (en) 2020-02-06
CN110200702A (zh) 2019-09-06
US20210235068A1 (en) 2021-07-29
KR102709112B1 (ko) 2024-09-25
WO2015143073A4 (en) 2015-12-10
CN110200702B (zh) 2022-05-03
CN110200702B9 (zh) 2022-05-31
US10432922B2 (en) 2019-10-01
US20220417492A1 (en) 2022-12-29
JP2024061720A (ja) 2024-05-08
JP7080915B2 (ja) 2022-06-06
US20170180720A1 (en) 2017-06-22
US11792386B2 (en) 2023-10-17
KR20220028139A (ko) 2022-03-08
KR20170136413A (ko) 2017-12-11
US10965933B2 (en) 2021-03-30

Similar Documents

Publication Publication Date Title
US11792386B2 (en) Medical devices, systems, and methods using eye gaze tracking for stereo viewer
JP6891244B2 (ja) 視線追跡を使用する医療装置、システム、及び方法
JP2024149625A (ja) 画像誘導手術のための照明補正近赤外線(nir)イメージング
JP2022510018A (ja) 眼科手術用医療装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240216

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240229

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240510