JP7367041B2 - UI for head-mounted display systems - Google Patents

UI for head-mounted display systems Download PDF

Info

Publication number
JP7367041B2
JP7367041B2 JP2021547986A JP2021547986A JP7367041B2 JP 7367041 B2 JP7367041 B2 JP 7367041B2 JP 2021547986 A JP2021547986 A JP 2021547986A JP 2021547986 A JP2021547986 A JP 2021547986A JP 7367041 B2 JP7367041 B2 JP 7367041B2
Authority
JP
Japan
Prior art keywords
head
surgeon
mounted display
image
menu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021547986A
Other languages
Japanese (ja)
Other versions
JP2022509460A (en
Inventor
セゲフ,エラン
ズーマー,シャハフ
ソロモン,イアーラ
シュナイダー,ロン
ベン‐イシャイ,ラニ
Original Assignee
べイエオニクス サージカル リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by べイエオニクス サージカル リミテッド filed Critical べイエオニクス サージカル リミテッド
Priority claimed from PCT/IL2019/051155 external-priority patent/WO2020084625A1/en
Publication of JP2022509460A publication Critical patent/JP2022509460A/en
Application granted granted Critical
Publication of JP7367041B2 publication Critical patent/JP7367041B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

開示される技術は、一般に、頭部装着型ディスプレイに関し、特に、頭部装着型ディスプレイに関する複数のシステムモードを制御するための方法およびシステムに関する。 TECHNICAL FIELD The disclosed technology relates generally to head-mounted displays and, more particularly, to methods and systems for controlling multiple system modes for head-mounted displays.

頭部装着型ディスプレイは、装着者の視野に画像を投影する装着型電子ディスプレイである。仮想現実アプリケーションにおいて、投影画像は一般に、装着者の視野を遮断する。拡張現実アプリケーションにおいて、投影画像は一般に、装着者の視野の一部に重ね合わせられ、装着者が現実および仮想特徴を同時に見ることを可能にする。 A head-mounted display is a wearable electronic display that projects an image into the wearer's field of vision. In virtual reality applications, the projected image typically blocks the wearer's field of view. In augmented reality applications, the projected image is typically superimposed on a portion of the wearer's field of view, allowing the wearer to see real and virtual features simultaneously.

“Image Display Apparatus of Head Mounted Type”と題された、タバタ氏の米国特許第5,781,165号は、ユーザ制御型の頭部装着型ディスプレイを開示する。頭部装着型ディスプレイを装着している間、LCDスクリーンに仮想画像がステレオで投影され、装着者は、3次元仮想画像を見ることが可能である。装着者は、電子コントローラのボタンを押すことによって仮想画像の表示を制御する。たとえば装着者が自身の頭部を動かす場合など、頭部装着型ディスプレイが回転および位置運動を検出すると、仮想画像の表示は、仮想画像平面上に静止した状態で出現するように調整される。 U.S. Pat. No. 5,781,165 to Tabata, entitled "Image Display Apparatus of Head Mounted Type," discloses a user-controlled head mounted display. While wearing the head-mounted display, a virtual image is projected on the LCD screen in stereo, allowing the wearer to view a three-dimensional virtual image. The wearer controls the display of the virtual image by pressing buttons on the electronic controller. When the head-mounted display detects rotational and positional movement, for example when the wearer moves his or her head, the display of the virtual image is adjusted to appear stationary on the virtual image plane.

“Head-Mounted Image Display Device and Data Processing Apparatus Including the same”と題された、ヤスカワ氏の米国特許第5,977,935号は、拡張現実を表示するための頭部装着型デバイスを開示する。装着者の視野は、区画に分割される。装着者は、自身の視野の1つの区画において、現実世界を見る。装着者の視野の他の区画において、1または複数の仮想スクリーンが投影される。自身の頭部を動かすことによって自身の視線を動かすことにより、装着者は、ディスプレイを制御するためにマウスを動かすのと同様に、どの仮想スクリーンが表示されるかを制御する。フットペダルは、マウスのクリックと同様に、入力デバイスとしての機能を果たす。 Yasukawa's U.S. Pat. No. 5,977,935, entitled "Head-Mounted Image Display Device and Data Processing Apparatus Including the same," discloses a head-mounted device for displaying augmented reality. I will. The wearer's field of vision is divided into sections. The wearer sees the real world in one section of his or her field of vision. One or more virtual screens are projected in other sections of the wearer's field of vision. By moving their gaze by moving their head, the wearer controls which virtual screen is displayed, similar to moving a mouse to control a display. A foot pedal acts as an input device, similar to a mouse click.

“Head-Mounted Image Display Device and Data Processing Apparatus Including the same”と題された、ヤスカワ氏の米国特許第6,320,559号は、仮想コンテンツを表示するための頭部装着型デバイスを開示する。装着者は、自身の視線を動かすことによって、ディスプレイのコンテンツを切り換える。装着者は更に、音声入力によってディスプレイの属性を制御する。装着者は、自身の視線を動かすことによって、表示された画像をスクロールし得る。 Yasukawa's U.S. Pat. No. 6,320,559, entitled "Head-Mounted Image Display Device and Data Processing Apparatus Including the same," discloses a head-mounted device for displaying virtual content. I will. The wearer switches the content on the display by moving his/her line of sight. The wearer also controls display attributes through voice input. The wearer may scroll through the displayed images by moving his/her line of sight.

”Computer User Interface with Head Motion Input“と題された、Reicheln氏の米国特許第6,396,497号は、360度ビュー空間を有する装着型ディスプレイシステムを開示する。ビュー空間内の各点は、特定のヨーおよびピッチ位置によって識別される。自身の頭部を動かすことによって、装着者は、360度ビュー空間内の(25°×20°)ウェッジのみを占めるビューウインドウ内の表示を変更する。ビューウインドウ内に表示されたスクロールバーは、装着者がビュー空間内での現在位置の追跡を維持するために役立つ。 US Pat. No. 6,396,497 to Reicheln, entitled "Computer User Interface with Head Motion Input," discloses a wearable display system with a 360 degree viewing space. Each point in view space is identified by a particular yaw and pitch position. By moving their head, the wearer changes the display in the viewing window, which occupies only a (25° x 20°) wedge in the 360° viewing space. A scroll bar displayed within the view window helps the wearer keep track of their current position within the view space.

“Selectively Controllable Heads-Up Display System”と題された、Lemelson氏の米国特許第6,847,336号は、装着者がディスプレイを制御することを可能にする複数のユーザインタフェースを有する、外科医用装着型ディスプレイを開示する。このシステムは、ディスプレイスクリーン上でカーソルを動かすためのアイトラッキング、および「マウスクリック」選択を実施するためのフットペダルまたは音声コマンドのいずれかを取り入れる。 Lemelson's U.S. Pat. No. 6,847,336, entitled "Selectively Controllable Heads-Up Display System," describes a surgeon's wear that has multiple user interfaces that allow the wearer to control the display. Disclose type display. This system incorporates eye tracking to move a cursor on the display screen, and either a foot pedal or voice command to perform "mouse click" selections.

“Remote Control of a Medical Device Using Speech Recognition and Foot Contorols”と題された、Miller氏の米国特許第7,127,401号は、外科医が使用するための音声制御型医療撮像デバイスを開示する。音声によって医療撮像デバイスを制御することによって、医療処置を行うために外科医の両手が空く。 Miller's U.S. Pat. No. 7,127,401, entitled "Remote Control of a Medical Device Using Speech Recognition and Foot Controls," provides a voice-controlled medical imaging device for use by surgeons. Disclose. Controlling medical imaging devices by voice frees up the surgeon's hands to perform medical procedures.

“Opacity Filter for Display Device”と題された、Bar-Zeev氏の米国特許第8,941,559号は、装着型拡張現実ディスプレイを開示する。ディスプレイの各画素は、最大不透明から透明までのレベルを個々に調整可能であり、それに応じて現実世界シーンからの光が遮断または透過されることを可能にする。コントローラは、現実世界シーンに重ね合わせられた仮想画像を表示するために指定された画素の不透明度を制御する。 US Pat. No. 8,941,559 to Bar-Zeev, entitled "Opacity Filter for Display Device," discloses a wearable augmented reality display. Each pixel of the display is individually adjustable in level from maximum opacity to transparency, allowing light from the real-world scene to be blocked or transmitted accordingly. The controller controls the opacity of designated pixels for displaying the virtual image superimposed on the real world scene.

“Using Head Gesture and Eye Position to Wake a Head Mounted Device”と題された、Raffle氏の米国特許第9,285,872号は、装着型ディスプレイユニットに関する動作モードを切り換えるためにジェスチャ認識およびアイトラッキングを取り入れることを開示する。 Raffle's U.S. Pat. No. 9,285,872, entitled “Using Head Gesture and Eye Position to Wake a Head Mounted Device,” uses gesture recognition and eye tracking to switch modes of operation for a wearable display unit. Disclose what you will incorporate.

“Opacity Filter for Display Device” と題された、Bar-Zeev氏の米国特許第9,286,730号は、装着型拡張現実ディスプレイを開示する。ディスプレイの各画素は、最大不透明から透明までのレベルを個々に調整可能であり、それに応じて現実世界シーンからの光が遮断または透過されることを可能にする。現実世界シーンに重ね合わせられた仮想画像の位置は、アイトラッキングによって制御される。 US Pat. No. 9,286,730 to Bar-Zeev, entitled "Opacity Filter for Display Device," discloses a wearable augmented reality display. Each pixel of the display is individually adjustable in level from maximum opacity to transparency, allowing light from the real-world scene to be blocked or transmitted accordingly. The position of the virtual image superimposed on the real-world scene is controlled by eye tracking.

“Control Systems and Methods for Head-Mounted Information System”と題された、Abdollahi氏の米国特許第9,292,084号は、ジェスチャ制御および事前構成されたジェスチャプロファイルを用いて装着型デバイスのディスプレイを制御することを開示する。ジェスチャは、ハンドまたはヘッドジェスチャであってよい。ジェスチャ制御特徴をオンおよびオフに切り替えるためにボタンが提供される。 Abdullahi's U.S. Pat. No. 9,292,084, entitled "Control Systems and Methods for Head-Mounted Information System," uses gesture control and preconfigured gesture profiles to control the display of a wearable device. Disclose what you will do. Gestures may be hand or head gestures. Buttons are provided to turn gesture control features on and off.

“Text Selection Using HMD Head-Tracker and Voice-Command”と題された、Henelly氏の米国特許第9,383,816号は、頭部装着型ディスプレイに関するハンドフリーテキスト選択を開示する。頭部装着型ディスプレイの装着者は、ヘッドおよびハンドジェスチャの組み合わせによって、表示されたテキストを選択する。 US Pat. No. 9,383,816 to Hennelly, entitled "Text Selection Using HMD Head-Tracker and Voice-Command," discloses hands-free text selection for head-mounted displays. A wearer of a head-mounted display selects displayed text by a combination of head and hand gestures.

“Head-Mounted Display, Program for Controlling Head-Mounted Display, and Method of Controlling Head-Mounted Display”と題された、クリヤ氏の米国特許第9,523,854号は、頭部装着型ディスプレイ(HMD)の有用性を向上させる技術を開示する。HMDに表示するための画像は、HMDの方向が装着者の視線の外側にあることの検出に基づいて選択される。 The project titled “Head-Mounted Display, Program for Controlling Head-Mounted Display, and Method of Controlling Head-Mounted Display” Liya's U.S. Patent No. 9,523,854 is a head-mounted display (HMD). Discloses a technology that improves the usefulness of. An image to be displayed on the HMD is selected based on detection that the direction of the HMD is outside the wearer's line of sight.

“Menu Navigation in a Head-Mounted Display”と題された、Moravetz氏の米国特許第9,588,343号は、HMDのフォーカルポイントに対するHMDの位置および向き(P&O)を追跡することによって仮想メニューをナビゲートする方法を開示する。 Moravetz's U.S. Pat. No. 9,588,343, entitled “Menu Navigation in a Head-Mounted Display,” navigates virtual menus by tracking the position and orientation (P&O) of an HMD relative to its focal point. Disclose how to navigate.

“Control Systems and Methods for Head-Mounted Information System”と題された、Abdollahi氏の米国特許第9,696,797号は、ジェスチャ制御によって仮想メニューをナビゲートするための方法を開示する。 US Pat. No. 9,696,797 to Abdullahi, entitled "Control Systems and Methods for Head-Mounted Information System," discloses a method for navigating virtual menus by gesture control.

“High Resolution Perception of Content in a Wide Field of View of a Head-Mounted Display”と題された、Fateh氏の米国特許第9,804,669号は、装着者のフォーカルポイントに基づいて仮想画像の解像度を制御するための方法を開示する。次に装着者のフォーカルポイント内にあることが予測される表示エリアと共に、現在ユーザのフォーカルポイント内にある表示エリアの解像度が増加される。これら2つのフォーカスエリアの間にある表示エリアの解像度は低減される。 Fateh's U.S. Patent No. 9,804,669, entitled "High Resolution Perception of Content in a Wide Field of View of a Head-Mounted Display," Virtual image resolution based on Discloses a method for controlling. The resolution of the display area that is currently within the user's focal point is then increased, along with the display area that is predicted to be within the wearer's focal point. The resolution of the display area between these two focus areas is reduced.

“Image Rendering Responsive to User Actions in Head Mounted Display”と題された、Stafford氏の米国特許第9,897,805号は、次に起こる装着者の視線の動きを予測するためにアイトラッキングを取り入れる頭部装着型ディスプレイを開示する。レンダリング画像の品質は、予測された動きに基づいて調整される。 Stafford's U.S. Patent No. 9,897,805, entitled "Image Rendering Responsive to User Actions in Head Mounted Display," uses eye tracking to predict upcoming movements of the wearer's gaze. A unit-mounted display is disclosed. The quality of the rendered image is adjusted based on the predicted motion.

“Head-Mounted Display Device Having Interactive Function and Method Thereof”と題された、Chuang氏の米国特許公開第US20120027373 A1号は、ディスプレイデバイスの検出された動きに基づいて表示画像を調整する頭部装着型ディスプレイを開示する。 Chuang's US Patent Publication No. US20120027373 A1, entitled “Head-Mounted Display Device Having Interactive Function and Method Thereof,” proposes a method based on detected movement of a display device. Head-mounted display that adjusts the displayed image Disclose.

“Head-Tracking Based Technique for Moving On-Screen Objects on Head Mounted Display(HMD)”と題された、Parkinson氏の米国特許公開第US20150220142 A1号は、ヘッドトラッキングコントローラを用いてHMDデバイスのディスプレイ上でカーソルを制御する方法を開示する。 Parkinson's United States Patent Publication No. US2015022 entitled “Head-Tracking Based Technique for Moving On-Screen Objects on Head Mounted Display (HMD)” 0142 A1 uses a head tracking controller to move a cursor on the display of an HMD device. Disclose a method for controlling.

“Hands Free Image Viewing on Head Mounted Display”と題された、Vargas氏の米国特許公開第US20150346813 A1号は、HMDデバイスのディスプレイを制御するためのヘッドジェスチャベースのユーザインタフェースを開示する。ヘッドジェスチャを介して制御可能な表示特徴は、表示画像のズームインおよびアウト、表示画像のパンニング、一連の表示画像に沿ったスクロール、および様々な動作モード間での切換えを含む。 US Patent Publication No. US20150346813 A1 to Vargas, entitled “Hands Free Image Viewing on Head Mounted Display,” discloses a head gesture-based user interface for controlling the display of an HMD device. Display features controllable via head gestures include zooming in and out of the displayed image, panning the displayed image, scrolling through a series of displayed images, and switching between various modes of operation.

“Optical Head Mounted Display, Television Portal Module and Methods for Controlling Graphical User Interface”と題された、Andersson氏の米国特許公開第US20170031538 A1号は、装着者のアイトラッキングおよび頭部運動によってグラフィカルユーザインタフェース(GUI)を制御するためのモードに入ることを開示する。 Andersso entitled “Optical Head Mounted Display, Television Portal Module and Methods for Controlling Graphical User Interface” US Patent Publication No. US20170031538 A1 of Mr. Discloses entering the mode for controlling.

“Method and Device of Controlling Virtual Mouse and Head-Mounted Displaying Device”と題された、Zhang氏の米国特許公開第US20170242495 A1号は、頭部装着型ディスプレイのための仮想マウスを制御するために頭部運動検出を取り入れることを開示する。 Zhang's US Patent Publication No. US20170242495 A1, entitled "Method and Device of Controlling Virtual Mouse and Head-Mounted Displaying Device," Head movement to control virtual mouse for type display Disclose incorporating detection.

“Portable Surgical Methods, System, and Apparatus”と題された、Nazareth氏の米国特許公開第US20170273549 A1号は、外科処置の生画像を取得するためのカメラ、取得した画像の生フィードを表示するための無線ヘッドセット、システムの音声作動型制御、および外科処置に関するデータを格納するためのコンピュータを含む外科用機器を収容するためのキットを開示する。 Nazareth's U.S. Patent Publication No. US20170273549 A1, entitled “Portable Surgical Methods, System, and Apparatus,” describes a camera for acquiring live images of a surgical procedure, and a camera for displaying a live feed of the acquired images. A kit is disclosed for housing surgical equipment including a wireless headset, voice-activated controls for the system, and a computer for storing data related to the surgical procedure.

“Control Systems and Methods for Head-Mounted Information System”と題された、Abdollahi氏の米国特許公開第US20180113507 A1号は、頭部装着型ディスプレイ(HMD)デバイスに関するジェスチャ制御モードを開示する。ジェスチャ制御モードは、ジェスチャ制御イネーブル信号の検出時に有効化され、ユーザがジェスチャを介してメニューをナビゲートすることを可能にする。 United States Patent Publication No. US20180113507 A1 to Abdullahi, entitled “Control Systems and Methods for Head-Mounted Information System,” discloses gesture control modes for head-mounted display (HMD) devices. I will. Gesture control mode is enabled upon detection of a gesture control enable signal and allows the user to navigate menus via gestures.

開示される技術の目的は、頭部装着型ディスプレイシステムのためのユーザインタフェースに関する新たな方法およびシステムを提供することである。 An objective of the disclosed technology is to provide new methods and systems for user interfaces for head-mounted display systems.

開示される技術によると、外科医によって装着されるように構成された頭部装着型ディスプレイと、外科医によるヘッドジェスチャ入力を追跡するように構成されたトラッカと、外科医による足部運動入力を検出するように構成されたフットスイッチと、頭部装着型ディスプレイ、トラッカ、およびフットスイッチに結合されたコンピュータと、頭部装着型ディスプレイ、トラッカ、およびフットスイッチを少なくとも備えるユーザインタフェースであって、コンピュータに、フットスイッチから受信した足部運動入力と関連してトラッカから受信したヘッドジェスチャ入力を提供し、頭部装着型ディスプレイにおいて外科処置に関する画像を表示するように構成されたユーザインタフェースとが提供され、コンピュータは、頭部装着型ディスプレイシステムが第1のシステムモードである時、頭部装着型ディスプレイシステムにおいて第1のアクションを行い、頭部装着型ディスプレイシステムが第2のシステムモードである時、頭部装着型ディスプレイシステムにおいて第2のアクションを行うために、足部運動入力と関連して受信されたヘッドジェスチャ入力を適用するように構成される。 According to the disclosed technology, a head-mounted display configured to be worn by a surgeon, a tracker configured to track head gesture input by the surgeon, and a tracker configured to detect foot motion input by the surgeon. a computer coupled to a head-mounted display, a tracker, and a footswitch; a user interface configured to provide head gesture input received from the tracker in conjunction with foot motion input received from the switch and display images related to the surgical procedure on a head mounted display; , when the head-mounted display system is in the first system mode, perform the first action in the head-mounted display system, and when the head-mounted display system is in the second system mode, perform the first action on the head-mounted display system; The head gesture input is configured to apply the received head gesture input in conjunction with the foot motion input to perform a second action at the type display system.

いくつかの実施形態において、トラッカは、頭部装着型ディスプレイと少なくとも部分的に統合され、頭部装着型ディスプレイを追跡するように構成される。 In some embodiments, the tracker is at least partially integrated with and configured to track the head mounted display.

いくつかの実施形態において、トラッカは、頭部装着型ディスプレイの外部のカメラである。 In some embodiments, the tracker is a camera external to the head mounted display.

いくつかの実施形態において、システムは、頭部装着型ディスプレイに結合されたシャッタを更に備え、シャッタが開いている場合、頭部装着型ディスプレイは少なくとも部分的に透明であり、シャッタが閉じている場合、頭部装着型ディスプレイは実質的に不透明である。 In some embodiments, the system further comprises a shutter coupled to the head mounted display, wherein when the shutter is open the head mounted display is at least partially transparent and when the shutter is closed. In this case, the head-mounted display is substantially opaque.

いくつかの実施形態において、第1のアクションおよび第2のアクションの1つは、シャッタを制御する。 In some embodiments, one of the first action and the second action controls a shutter.

いくつかの実施形態において、ユーザインタフェースは、音声コマンドを検出するように構成されたマイクロフォンを更に備え、入力は、音声コマンドを更に備える。 In some embodiments, the user interface further comprises a microphone configured to detect voice commands, and the input further comprises voice commands.

いくつかの実施形態において、ユーザインタフェースは、外科医による眼部運動を検出するように構成されたアイトラッカを更に備え、入力は、眼部運動を更に備える。 In some embodiments, the user interface further comprises an eye tracker configured to detect eye movements by the surgeon, and the input further comprises eye movements.

いくつかの実施形態において、システムは、画像を取得するように構成されたカメラシステムと、カメラシステムと共に動作するように構成された照明システムと、カメラヘッド位置決め器およびロボットアームから成るグループから選択された位置決め機構とを更に備える。 In some embodiments, the system is selected from the group consisting of a camera system configured to capture images, an illumination system configured to operate with the camera system, a camera head positioner, and a robotic arm. and a positioning mechanism.

いくつかの実施形態において、第1のアクションおよび第2のアクションは、HMDを介して表示される画像の特性を制御すること、カメラシステムを制御すること、照明システムを制御すること、および位置決め機構を制御することから成るグループから選択される。 In some embodiments, the first action and the second action include controlling characteristics of an image displayed via the HMD, controlling a camera system, controlling a lighting system, and controlling a positioning mechanism. selected from the group consisting of:

いくつかの実施形態において、HMDを介して表示される画像の特性を制御することは、画像のコンテンツを選択すること、ズームインおよびズームアウトすること、少なくとも2つの仮想スクリーン間でスクロールすること、ピクチャインピクチャ(PIP)を表示すること、生画像の上にオーバレイを表示すること、画像をセンタリングすること、メニューを表示すること、メニューをナビゲートすること、および画像の関心領域を制御することから成るグループから選択されたアクションを備える。 In some embodiments, controlling the characteristics of the image displayed via the HMD includes selecting the content of the image, zooming in and out, scrolling between at least two virtual screens, From displaying pictures in picture (PIP), displaying overlays on top of raw images, centering images, displaying menus, navigating menus, and controlling regions of interest in images. Actions selected from a group consisting of:

いくつかの実施形態において、カメラシステムを制御することは、光学および電気カメラ特性を制御すること、およびカメラシステムの位置および向きを制御することから成るグループから選択されたアクションを行うことを備える。 In some embodiments, controlling the camera system comprises performing an action selected from the group consisting of controlling optical and electrical camera characteristics, and controlling position and orientation of the camera system.

いくつかの実施形態において、照明システムを制御することは、複数の照明器の少なくとも1つを選択すること、強度設定を選択すること、フィルタを選択すること、および照明をオンまたはオフにすることから成るグループから選択されたアクションを行うことを備える。 In some embodiments, controlling the lighting system includes selecting at least one of a plurality of illuminators, selecting an intensity setting, selecting a filter, and turning the lighting on or off. comprising performing an action selected from a group consisting of:

いくつかの実施形態において、術野の画像は、頭部装着型ディスプレイシステムが第1のシステムモードである時、頭部装着型ディスプレイを介してディスプレイ固定状態で表示され、術野のビデオは、頭部装着型ディスプレイシステムが第2のシステムモードである時、頭部装着型ディスプレイを介して、複数の仮想スクリーンの1つに、世界固定状態で表示される。 In some embodiments, an image of the surgical field is displayed in a display-fixed state via the head-mounted display when the head-mounted display system is in the first system mode, and a video of the surgical field is When the head-mounted display system is in the second system mode, a world-fixed state is displayed on one of the plurality of virtual screens via the head-mounted display.

いくつかの実施形態において、コンピュータは更に、第1のシステムモードから第2のシステムモードへ切り換えるためにヘッドジェスチャ入力を適用するように構成される。 In some embodiments, the computer is further configured to apply a head gesture input to switch from the first system mode to the second system mode.

いくつかの実施形態において、頭部装着型ディスプレイの装着者の頭部位置および向きの範囲の第1の領域は、第1のシステムモードに対応し、頭部装着型ディスプレイの装着者の頭部位置および向きの範囲の第2の領域は、第2のシステムモードに対応し、第1のシステムモードから第2のシステムモードへ切り換えるために適用されるヘッドジェスチャ入力は、頭部装着型ディスプレイの装着者の頭部位置および向きを第1の領域から第2の領域の方向へ変更することである。 In some embodiments, the first region of the range of head positions and orientations of the wearer of the head-mounted display corresponds to a first system mode, and the first region of the range of head positions and orientations of the wearer of the head-mounted display The second region of the position and orientation range corresponds to a second system mode, and the head gesture input applied to switch from the first system mode to the second system mode is a head-mounted display head-mounted display. The purpose is to change the position and orientation of the wearer's head from the first area to the second area.

いくつかの実施形態において、コンピュータは更に、頭部装着型ディスプレイにおいて画像上にオーバレイされたメニューを表示するように構成され、メニューは、第1のシステムモードに関して第1のメニュー項目を表示し、第2のシステムモードに関して第2のメニュー項目を表示する。 In some embodiments, the computer is further configured to display a menu overlaid on the image on the head-mounted display, the menu displaying a first menu item for a first system mode; A second menu item is displayed for a second system mode.

開示される技術の他の態様によると、頭部装着型ディスプレイシステムとインタラクトするための方法が提供され、方法は、外科医に対し、頭部装着型ディスプレイにおいて外科処置に関する画像を表示することと、フットスイッチからの外科医による足部運動入力と関連してヘッドトラッカからの外科医によるヘッドジェスチャ入力を受信することと、頭部装着型ディスプレイシステムが第1のシステムモードである時、頭部装着型ディスプレイシステムにおいて第1のアクションを行い、頭部装着型ディスプレイシステムが第2のシステムモードである時、頭部装着型ディスプレイシステムにおいて第2のアクションを行うために、足部運動入力と関連して受信された前記ヘッドジェスチャ入力を適用することとを備える。 According to other aspects of the disclosed technology, a method for interacting with a head-mounted display system is provided, the method comprising: displaying to a surgeon images related to a surgical procedure on the head-mounted display; receiving head gesture input by the surgeon from the head tracker in conjunction with foot motion input by the surgeon from the footswitch; and when the head mounted display system is in a first system mode, the head mounted display; received in conjunction with a foot motion input to perform a first action at the system and perform a second action at the head mounted display system when the head mounted display system is in a second system mode; applying the head gesture input.

いくつかの実施形態において、第1のアクションおよび第2のアクションのいずれかは、頭部装着型ディスプレイに結合されたシャッタを制御することを備え、シャッタが開いている場合、頭部装着型ディスプレイは透明であり、シャッタが閉じている場合、頭部装着型ディスプレイは不透明である。 In some embodiments, one of the first action and the second action comprises controlling a shutter coupled to the head-mounted display, and when the shutter is open, the head-mounted display is transparent, and when the shutter is closed, the head-mounted display is opaque.

いくつかの実施形態において、方法は、外科医による音声コマンドを検出することと、頭部装着型ディスプレイシステムを制御するために音声コマンドを適用することとを更に備える。 In some embodiments, the method further comprises detecting voice commands by the surgeon and applying the voice commands to control the head mounted display system.

いくつかの実施形態において、方法は、外科医による眼部運動を検出することと、頭部装着型ディスプレイシステムを制御するために眼部運動を適用することとを更に備える。 In some embodiments, the method further comprises detecting eye movements by the surgeon and applying the eye movements to control the head mounted display system.

いくつかの実施形態において、方法は、頭部装着型ディスプレイシステムと共に構成された照明システムで術野を照明することと、頭部装着型ディスプレイシステムと共に構成されたカメラシステムを用いて、照明された術野の画像を取得することとを更に備える。 In some embodiments, the method includes: illuminating a surgical field with an illumination system configured with a head-mounted display system; and using a camera system configured with the head-mounted display system. The method further comprises acquiring an image of the surgical field.

いくつかの実施形態において、方法は、カメラヘッド位置決め器およびロボットアームから成るグループから選択された位置決め機構を介して、画像を取得するためにカメラシステムの位置を制御することを更に備える。 In some embodiments, the method further comprises controlling the position of the camera system to acquire images via a positioning mechanism selected from the group consisting of a camera head positioner and a robotic arm.

いくつかの実施形態において、第1のアクションおよび第2のアクションは、頭部装着型ディスプレイを介して表示される画像の特性を制御すること、カメラシステムを制御すること、照明システムを制御すること、および位置決め機構を制御することから成るグループから選択される。 In some embodiments, the first action and the second action are controlling characteristics of an image displayed via a head mounted display, controlling a camera system, controlling a lighting system. , and controlling the positioning mechanism.

いくつかの実施形態において、頭部装着型ディスプレイを介して表示される画像の特性を制御することは、画像のコンテンツを選択すること、ズームインおよびズームアウトすること、少なくとも2つの仮想スクリーン間でスクロールすること、ピクチャインピクチャ(PIP)を表示すること、および生画像の上にオーバレイを表示することから成るグループから選択されたアクションを備える。 In some embodiments, controlling the characteristics of the image displayed via the head-mounted display includes selecting the content of the image, zooming in and out, scrolling between at least two virtual screens. and displaying an overlay over the raw image.

いくつかの実施形態において、カメラシステムを制御することは、画像を取得するためのカメラを選択すること、およびカメラシステムの位置および向きを制御することから成るグループから選択されたアクションを行うことを備える。 In some embodiments, controlling the camera system includes performing an action selected from the group consisting of selecting a camera to acquire an image, and controlling the position and orientation of the camera system. Be prepared.

いくつかの実施形態において、照明システムを制御することは、複数の照明器の少なくとも1つを選択すること、強度設定を選択すること、フィルタを選択すること、および照明をオンまたはオフにすることから成るグループから選択されたアクションを行うことを備える。 In some embodiments, controlling the lighting system includes selecting at least one of a plurality of illuminators, selecting an intensity setting, selecting a filter, and turning the lighting on or off. comprising performing an action selected from a group consisting of:

いくつかの実施形態において、画像は、頭部装着型ディスプレイシステムが第1のシステムモードである時、頭部装着型ディスプレイを介してディスプレイ固定状態で表示され、画像は、頭部装着型ディスプレイシステムが第2のシステムモードである時、頭部装着型ディスプレイを介して、複数の仮想スクリーンの1つに、世界固定状態で表示される。 In some embodiments, the image is displayed in a display-fixed state via the head-mounted display when the head-mounted display system is in the first system mode, and the image is displayed in a display-fixed state via the head-mounted display system. When in the second system mode, it is displayed in a world-locked state on one of a plurality of virtual screens via a head-mounted display.

いくつかの実施形態において、方法は、第1のシステムモードから第2のシステムモードへ切り換えるために、足部運動入力と関連して受信されたヘッドジェスチャ入力を適用することを更に備える。 In some embodiments, the method further comprises applying the received head gesture input in conjunction with the foot motion input to switch from the first system mode to the second system mode.

いくつかの実施形態において、頭部装着型ディスプレイの装着者の頭部位置および向きの範囲の第1の領域は、第1のシステムモードに対応し、頭部装着型ディスプレイの装着者の頭部位置および向きの範囲の第2の領域は、第2のシステムモードに対応し、第1のシステムモードから第2のシステムモードへ切り換えるために適用されるヘッドジェスチャ入力は、頭部装着型ディスプレイの装着者の頭部位置および向きを第1の領域から第2の領域の方向へ変更する。 In some embodiments, the first region of the range of head positions and orientations of the wearer of the head-mounted display corresponds to a first system mode, and the first region of the range of head positions and orientations of the wearer of the head-mounted display The second region of the position and orientation range corresponds to a second system mode, and the head gesture input applied to switch from the first system mode to the second system mode is a head-mounted display head-mounted display. The wearer's head position and orientation are changed from the first region toward the second region.

いくつかの実施形態において、方法は、頭部装着型ディスプレイにおいて画像上にオーバレイされたメニューを表示することを更に備え、メニューは、第1のシステムモードに関して第1のメニュー項目を表示し、第2のシステムモードに関して第2のメニュー項目を表示し、ヘッドジェスチャ入力および足部運動入力は、第2のメニュー項目を選択およびアクティブ化することによって、第1のシステムモードから第2のシステムモードへ切り換えるために適用される。 In some embodiments, the method further comprises displaying a menu overlaid on the image on the head-mounted display, the menu displaying a first menu item for a first system mode; displaying a second menu item for the second system mode; head gesture input and foot motion input are transferred from the first system mode to the second system mode by selecting and activating the second menu item; Applied to switch.

開示される技術は、図面と関連して取り上げられる以下の詳細な説明から、より詳しく理解および認識される。 The disclosed technology will be better understood and appreciated from the following detailed description taken in conjunction with the drawings.

開示される技術の実施形態に従って構成され動作可能な、カメラヘッドに結合された頭部装着型ディスプレイ(HMD)に関する複数の動作モードを制御するためのシステムの概略図である。1 is a schematic diagram of a system for controlling multiple modes of operation for a head-mounted display (HMD) coupled to a camera head, constructed and operable in accordance with embodiments of the disclosed technology; FIG. 開示される技術の他の実施形態に従って構成され動作可能な、コンピュータの概略ブロック図である。FIG. 2 is a schematic block diagram of a computer constructed and operable in accordance with other embodiments of the disclosed technology. 開示される技術の更なる実施形態に従って構成され動作可能な、図1AのHMDの概略ブロック図である。1B is a schematic block diagram of the HMD of FIG. 1A constructed and operable in accordance with further embodiments of the disclosed technology; FIG. 開示される技術の他の実施形態に従って構成され動作可能な、図1Aのカメラヘッドの概略ブロック図である。1B is a schematic block diagram of the camera head of FIG. 1A constructed and operable in accordance with other embodiments of the disclosed technology; FIG. 開示される技術の更なる実施形態に従って構成され動作可能な、図1Aのカメラシステムの概略ブロック図である。1B is a schematic block diagram of the camera system of FIG. 1A constructed and operable in accordance with further embodiments of the disclosed technology; FIG. 開示される技術の他の実施形態に従って構成され動作可能な、図1Aの照明システムの概略ブロック図である。1B is a schematic block diagram of the illumination system of FIG. 1A constructed and operable in accordance with other embodiments of the disclosed technology; FIG. 開示される技術の更なる実施形態に従って構成され動作可能な、図1Aのフットスイッチの概略ブロック図である。1A is a schematic block diagram of the footswitch of FIG. 1A constructed and operative in accordance with further embodiments of the disclosed technology; FIG. 開示される技術の他の実施形態に従って構成され動作可能な、システム100のためのユーザインタフェースの概念図である。2 is a conceptual diagram of a user interface for system 100 configured and operable in accordance with other embodiments of the disclosed technology. FIG. 開示される技術の更なる実施形態に従って構成され動作可能な、図2Aのユーザインタフェースを介した図1Aのシステムに関する情報および制御のフローの概念図である。2A is a conceptual diagram of the flow of information and control for the system of FIG. 1A through the user interface of FIG. 2A, configured and operable in accordance with further embodiments of the disclosed technology; FIG. 開示される技術の他の実施形態に従って構成され動作可能な、それぞれが様々なシステムモードにマッピングされたHMDの複数のP&O領域に関する典型的なレイアウトを示す。FIG. 7 illustrates an exemplary layout for multiple P&O areas of an HMD, each mapped to various system modes, configured and operable in accordance with other embodiments of the disclosed technology. 開示される技術の実施形態に従って構成され動作可能な、どのヘッドジェスチャが、図3Aに関して説明されたゾーンと関連するシステムモードを呼び出すかを示すヒントがオーバレイされた生画像のディスプレイを示す。3A illustrates a display of a raw image overlaid with hints indicating which head gestures invoke system modes associated with the zones described with respect to FIG. 3A, configured and operable in accordance with embodiments of the disclosed technology; FIG. 全体として、開示される技術の更なる実施形態に従って構成され動作可能な、HMDを介して表示されたビデオ上にオーバレイされた、様々なシステムモードへ切り換えるためのメニューを示す。3 illustrates a menu for switching to various system modes overlaid on a video displayed via an HMD, generally configured and operable in accordance with further embodiments of the disclosed technology; 開示される技術の他の実施形態に従って構成され動作可能な、システム設定を示す1または複数のステータスバーを表示するための実装を示す。FIG. 7 illustrates an implementation for displaying one or more status bars indicative of system settings, constructed and operable in accordance with other embodiments of the disclosed technology. 開示される技術の他の実施形態に従って構成され動作可能な、ディスプレイモジュールがディスプレイ固定状態である時、外科医によって知覚されるような投影画像を示す。FIG. 7 illustrates a projected image as perceived by a surgeon when a display module is in a display-fixed state, constructed and operable in accordance with other embodiments of the disclosed technology; FIG. 全体として、開示される技術の更なる実施形態に従って構成され動作可能な、それぞれHMDを介して仮想スクリーンに世界固定状態で表示される2つのビューを示し、各ビューは、外科医の頭部の様々な位置および向きに対応する。Overall, two views are shown, each displayed in a world-fixed state on a virtual screen via an HMD, configured and operable in accordance with further embodiments of the disclosed technology, each view representing a variety of views of the surgeon's head. corresponds to different positions and orientations. 開示される技術の他の実施形態に従って構成され動作可能な、外科医に見えるような仮想スクリーン状態の典型的な実装を示す。FIG. 7 illustrates an exemplary implementation of a surgeon-visible virtual screen state constructed and operable in accordance with other embodiments of the disclosed technology; FIG. 開示される技術の更なる実施形態に従って構成され動作可能な、ユーザがシステムとインタラクトし、様々なシステムモードへ切り換えることを可能にする、生画像フィード上にオーバレイされたメニューを示す。12 illustrates a menu overlaid on a live image feed that allows a user to interact with the system and switch to various system modes, configured and operable in accordance with further embodiments of the disclosed technology. 開示される技術の他の実施形態に従って構成され動作可能な、図6Aのメニューからシステムモードメニュー項目を選択した後、生画像フィード上にオーバレイされたシステムモードメニューを示す。6A illustrates a system mode menu overlaid on a raw image feed after selecting a system mode menu item from the menu of FIG. 6A, constructed and operable in accordance with other embodiments of the disclosed technology; FIG. 開示される技術の更なる実施形態に従って構成され動作可能な、生画像フィード上にオーバレイされたPIP内に表示された術前画像を示す。10 illustrates a pre-operative image displayed in a PIP overlaid on a raw image feed, constructed and operable in accordance with further embodiments of the disclosed technology. 開示される技術の他の実施形態に従って構成され動作可能な、PIPと共に生画像フィード上にオーバレイされた図6Aのメニューを示す。6B illustrates the menu of FIG. 6A overlaid on a raw image feed with a PIP, configured and operable in accordance with other embodiments of the disclosed technology; FIG. 全体として、開示される技術の他の実施形態に従って構成され動作可能な、PIP内に表示された対応するコンテンツを有する一連の生画像を示す。3 illustrates a series of raw images with corresponding content displayed within a PIP, configured and operable in accordance with other embodiments of the disclosed technology as a whole; 全体として、開示される技術の更なる実施形態に従って構成され動作可能な、PIP内に表示された対応するコンテンツを有する一連の生画像を示す。3 illustrates a series of raw images with corresponding content displayed within a PIP, configured and operable in accordance with further embodiments of the disclosed technology; 開示される技術の更なる実施形態に従って構成され動作可能な、2つのPIP内に表示された対応するコンテンツを有する図6L~6Pの生画像を示す。6L-6P with corresponding content displayed in two PIPs configured and operable in accordance with further embodiments of the disclosed technology; FIG. 全体として、開示される技術の実施形態に従って構成され動作可能な、生画像のディスプレイ上に記号を描画するための実装を示す。1 illustrates an implementation for drawing symbols on a display of live images, generally constructed and operable in accordance with embodiments of the disclosed technology. 開示される技術の実施形態に従って構成され動作可能な、生画像上にオーバレイされた状態で表示されたメニューを示す。2 illustrates a menu displayed overlaid on a raw image, constructed and operable in accordance with embodiments of the disclosed technology. 全体として、開示される技術の更なる実施形態に従って構成され動作可能な、フォーカスのために選択された視野エリアを指定することを可能にするユーザインタフェーススクリーンの典型的な実装を示す。3 illustrates an exemplary implementation of a user interface screen that enables designation of a selected viewing area for focus, generally configured and operable in accordance with further embodiments of the disclosed technology. 開示される技術の実施形態に従って構成され動作可能な、生画像上にオーバレイされた図7Aのメニューの他のビューを示す。7B illustrates another view of the menu of FIG. 7A overlaid on a raw image, constructed and operable in accordance with embodiments of the disclosed technology; FIG. 全体として、開示される技術の他の実施形態に従って構成され動作可能な、選択された視野エリアにフォーカスするためのメニュー駆動型ユーザインタフェースの他の典型的な実装を示す。3 illustrates another exemplary implementation of a menu-driven user interface for focusing on a selected viewing area, constructed and operable in accordance with other embodiments of the disclosed technology; 全体として、開示される技術に従って構成され動作可能な、実際の作動距離と、カメラの設計作動距離との不一致によって生じる、3D画像の歪みを補正するための技術を示す。Generally, a technique for correcting 3D image distortion caused by a mismatch between an actual working distance and a camera's design working distance, constructed and operable in accordance with the disclosed techniques, is illustrated. 全体として、開示される技術の実施形態に従って構成され動作可能な、様々な作動距離における図8Aの光学システムを示す。8A generally illustrates the optical system of FIG. 8A at various working distances configured and operable in accordance with embodiments of the disclosed technology; FIG. 開示される技術の実施形態に従って構成され動作可能な、2つの異なる焦点面にフォーカスするように構成された図8Aの光学システムを示す。8A illustrates the optical system of FIG. 8A configured and operable in accordance with embodiments of the disclosed technology to focus on two different focal planes; FIG. 全体として、開示される技術の実施形態に従って構成され動作可能な、図8A~8Bに従って説明されたシフト技術の適用後、HMDを介して表示された画像を示す。8A-8B illustrate images displayed via an HMD after application of the shifting technique described according to FIGS. 8A-8B, generally constructed and operative in accordance with embodiments of the disclosed technology; FIG. 開示される技術の他の実施形態に従って構成され動作可能な、ヘッドアップディスプレイシステムを制御するための方法の概略図である。FIG. 3 is a schematic diagram of a method for controlling a head-up display system constructed and operable in accordance with other embodiments of the disclosed technology.

開示される技術は、外科アプリケーションにおける使用のための頭部装着型ディスプレイ(HMD)のためのマルチモーダルユーザインタフェース(UI)を提供することによって、従来技術の欠点を克服する。そのような外科アプリケーションの例は、外科用顕微鏡の拡大下で行われる顕微鏡手術処置である。顕微鏡手術法は、一般に、眼科手術および脳外科手術において用いられる。一般に、顕微鏡手術処置において、外科医の両手は外科用ツールに占められるため、外科医は、外科用顕微鏡とインタフェースし、システムパラメータを制御するために、幅広い範囲のハンドフリー方法を必要とする。システムの堅牢性が高く、システムが提供する特徴の範囲が広いほど、これらの特徴を制御するためのインタフェースは複雑である。そのようなハンドフリー方法を用いるインタフェースを提供する上で追加された課題は、たとえばフットスイッチなどの他の入力手段へ複雑性を転嫁する。実際、外科医は多くの場合、様々なシステムパラメータを制御するために複雑なフットスイッチを用いる必要があり、術野を注視しながら、ボタンおよびペダルを手探りで探すために靴を脱いで自身のつま先を用いなければならない。 The disclosed technology overcomes the shortcomings of the prior art by providing a multimodal user interface (UI) for a head mounted display (HMD) for use in surgical applications. An example of such a surgical application is microsurgical procedures performed under the magnification of a surgical microscope. Microsurgical techniques are commonly used in ophthalmic and neurosurgery. Generally, in microsurgical procedures, a surgeon's hands are occupied by surgical tools, and the surgeon requires a wide range of hands-free methods to interface with the surgical microscope and control system parameters. The more robust a system is and the wider the range of features it provides, the more complex the interface for controlling these features. An added challenge in providing an interface using such hands-free methods is transferring complexity to other input means, such as footswitches. In fact, surgeons are often required to use complex footswitches to control various system parameters, taking off their shoes and using their own toes to fumble for buttons and pedals while keeping a close eye on the surgical field. must be used.

開示される技術のUIは、外科医が、各々が様々なアクションセットをサポートする様々なシステムモードを介して幅広い機能を提供しながらも比較的単純なフットスイッチを用いることを可能にする。1つの実装において、フットスイッチは3つのペダルしか有さず、外科医が、靴を履いたまま、かつ踵を床から持ち上げることなく、適切なペダルを容易に探し当てることを可能にする。所与のハンドフリージェスチャは、システムモードに依存して、複数の異なるアクションを引き起こし得る。この技術は、外科医に、比較的少数のハンドフリージェスチャを用いて幅広い機能を提供する。ハンドフリージェスチャは、直観的であるように設計され、外科医が、システムと自然にインタフェースし、様々な特徴を制御することを可能にし、外科医が、注意力の大半ならびに自身の両手を外科処置に捧げることを可能にする。外科医は、たとえば動き感知、足部または音声制御、アイトラッキングなどの1または複数のハンドフリー入力によってシステムモードを切り換えてよい。いくつかの実施形態において、外科医は、フットスイッチで有効化されたヘッドジェスチャによってシステムモードを切り換える。 The UI of the disclosed technology allows the surgeon to use a relatively simple footswitch while providing a wide range of functionality through various system modes, each supporting a different set of actions. In one implementation, the footswitch has only three pedals, allowing the surgeon to easily locate the appropriate pedal while wearing the shoe and without lifting the heel off the floor. A given hands-free gesture may cause multiple different actions depending on the system mode. This technique provides the surgeon with a wide range of functionality using a relatively small number of hand-free gestures. Hand-free gestures are designed to be intuitive and allow surgeons to naturally interface with the system and control various features, allowing surgeons to use most of their attention as well as their own hands for surgical procedures. enable you to dedicate. The surgeon may switch system modes through one or more hands-free inputs, such as motion sensing, foot or voice control, eye tracking, and the like. In some embodiments, the surgeon switches system modes by footswitch-enabled head gestures.

本明細書で説明されるシステムは、たとえば術野の画像を取得するためのカメラシステムおよび照明システム、ならびにこれらの画像を見るためのHMDなどの複数の構成要素を含む。様々なシステムモードにより、外科医は、システムの様々な態様を制御することができる。いくつかのシステムモードは、外科医が、ジェスチャを用いて、たとえば術野の上に位置するカメラヘッドユニットに関する倍率設定(すなわちズームインおよびズームアウト)、フォーカスおよび照明設定などのシステムパラメータを制御することを可能にする。他のシステムモードは、外科医が、たとえば見るためのコンテンツを選択すること、および表示された画像および術前データを操作することなどによって、HMDを介してディスプレイを制御するためにジェスチャを用いることを可能にする。 The systems described herein include multiple components, such as, for example, a camera system and illumination system for acquiring images of the surgical field, and an HMD for viewing these images. Various system modes allow the surgeon to control various aspects of the system. Some system modes allow the surgeon to use gestures to control system parameters such as magnification settings (i.e. zoom in and zoom out), focus and illumination settings for a camera head unit located above the surgical field. enable. Other system modes allow surgeons to use gestures to control the display via the HMD, for example by selecting content to view and manipulating displayed images and preoperative data. enable.

ここで説明される方法は、顕微鏡手術以外の外科処置にも適用されてよく、すなわち、たとえば追跡および拡張現実能力に基づくバイザーガイド式手術(ここでは「VGS」)など、術野の拡大画像がない場合でも行われ得る。これらの処置において、HMDは、外科医による患者のビューを拡張し、外科医が、患者の身体が部分的に透明であるかのように解剖学的特徴および外科用ツールを見ることを可能にする。これらの処置は、任意選択的に、術野の拡大画像を全く用いず、したがってカメラヘッドユニットを用いずに行われ得る。 The methods described here may also be applied to surgical procedures other than microsurgery, i.e., where magnified images of the surgical field are available, such as visor-guided surgery (herein "VGS") based on tracking and augmented reality capabilities. It can be done even if there is no. In these procedures, HMDs extend the surgeon's view of the patient, allowing the surgeon to see anatomical features and surgical tools as if the patient's body were partially transparent. These procedures may optionally be performed without any magnified images of the surgical field and therefore without the use of a camera head unit.

ここで、開示される技術の実施形態に従って構成され動作可能な、全体として100と示された、HMDのための複数の動作モードを制御するためのシステムの概略図である図1Aが参照される。システム100は、HMD102、フットスイッチ104、機械アーム106、タッチ式スクリーン108、コンピュータ118(不図示)を収容し、タッチ式スクリーン108を支持するカート116、カメラヘッド110、およびカメラヘッド位置決め器111を含む。カメラヘッド110は、カメラシステム112および照明システム114を収容する。カメラシステム112は、少なくとも2つの高解像度カメラ(不図示)を含む。機械アーム106は、コンピュータ118をカメラヘッド位置決め器111およびカメラヘッド110に接続する。コンピュータ118は、カート116および機械アーム106内に統合された1または複数のワイヤおよび/またはケーブル(不図示)を介して、カメラヘッド位置決め器111、カメラヘッド110、カメラシステム112、および照明システム114に電気的に結合される。 Reference is now made to FIG. 1A, which is a schematic diagram of a system for controlling multiple modes of operation for an HMD, designated generally at 100, constructed and operable in accordance with embodiments of the disclosed technology. . System 100 includes an HMD 102, a footswitch 104, a mechanical arm 106, a touch screen 108, a cart 116 that houses and supports a computer 118 (not shown), a camera head 110, and a camera head positioner 111. include. Camera head 110 houses a camera system 112 and an illumination system 114. Camera system 112 includes at least two high resolution cameras (not shown). Mechanical arm 106 connects computer 118 to camera head positioner 111 and camera head 110. Computer 118 communicates with camera head positioner 111 , camera head 110 , camera system 112 , and lighting system 114 via one or more wires and/or cables (not shown) integrated within cart 116 and mechanical arm 106 . electrically coupled to.

コンピュータ118は、カメラヘッド位置決め器111を介して、カメラヘッド110の位置および向きを制御する。カメラヘッド位置決め器111は、x、y、z座標におけるカメラヘッド100の位置を制御するための複数のモータを含む。カメラヘッド位置決め器111は更に、カメラヘッド100の傾きを制御するためのモータを含む。コンピュータ118は更に、照明システム114およびカメラシステム112に関する動作パラメータを制御し、その詳細は後述される。 Computer 118 controls the position and orientation of camera head 110 via camera head positioner 111 . Camera head positioner 111 includes multiple motors to control the position of camera head 100 in x, y, z coordinates. Camera head positioner 111 further includes a motor for controlling the tilt of camera head 100. Computer 118 also controls operating parameters for lighting system 114 and camera system 112, details of which are discussed below.

HMD102、フットスイッチ104、およびコンピュータ118には、1または複数のトランシーバ(不図示)が提供される。トランシーバは、たとえば電気または光ファイバケーブル(不図示)、Wifi、Bluetooth、Zigbee、短距離、中距離、長距離、およびマイクロ波RF、無線光学手段(たとえばレーザ、ライダ、赤外線)、音響手段、超音波手段などの、任意の適切な有線および/または無線通信手段およびプロトコルに対応する。コンピュータ118は、トランシーバを介してHMD102およびフットスイッチ104に結合される。コンピュータ118は、トランシーバを介してHMD102へ画像をストリーミングし、外科医120がHMD102で画像を見ることを可能にする。画像は、カメラシステム112によって取得され、手術の生ビデオを見るためにGPUによってリアルタイムで処理され得る。あるいは、画像は手術前に取得され、メモリ内に格納され、GPUによってリアルタイムでレンダリングされ得る。いくつかの実装において、画像は、たとえばクラウドベースのサーバなどの遠隔サーバからストリーミングまたはダウンロードされ得る。たとえば、VGS処置において、CTまたはMRI画像からの分割によって生成された身体部位のモデルがメモリ内に格納され、外科医120の観点から、GPUによってリアルタイムでHMD102にレンダリングされ得る。他の実施形態において、HMD102へ送信される画像は、たとえば内視鏡などの外部デバイスから取得される。コンピュータ118は、現在のシステムモード、ならびにユーザインタフェースを介して外科医から受信した1または複数の入力に基づいて、どの画像を外科医120へストリーミングするかを決定する。 HMD 102, footswitch 104, and computer 118 are provided with one or more transceivers (not shown). Transceivers can include, for example, electrical or fiber optic cables (not shown), Wifi, Bluetooth, Zigbee, short range, medium range, long range, and microwave RF, wireless optical means (e.g. laser, lidar, infrared), acoustic means, ultra Any suitable wired and/or wireless communication means and protocols are supported, such as sonic means. Computer 118 is coupled to HMD 102 and footswitch 104 via a transceiver. Computer 118 streams the images to HMD 102 via transceiver, allowing surgeon 120 to view the images on HMD 102. Images may be acquired by the camera system 112 and processed in real time by the GPU to view live video of the surgery. Alternatively, images may be acquired pre-operatively, stored in memory, and rendered in real time by the GPU. In some implementations, images may be streamed or downloaded from a remote server, such as a cloud-based server. For example, in a VGS procedure, a model of a body part generated by segmentation from a CT or MRI image may be stored in memory and rendered in real time by a GPU to the HMD 102 from the perspective of the surgeon 120. In other embodiments, the images sent to HMD 102 are obtained from an external device, such as an endoscope. Computer 118 determines which images to stream to surgeon 120 based on the current system mode and one or more inputs received from the surgeon via the user interface.

1つの実施形態において、1人の外科医120が、患者122に外科的処置を行いながら術野124の拡大ビデオを見るためにHMD102を装着している。カメラシステム112は、患者122に行われる外科的処置に対応する、術野124の画像のストリームを取得する。コンピュータ118は、画像のストリームを受信および処理し、処理された画像を、トランシーバを介してHMD102へ送信する。外科医120は、HMD102を介して画像を見、システムモードによってシステム100の1または複数の設定を制御する。各システムモードは、システムパラメータの様々なセットを制御してよい。外科医120は、たとえばフットスイッチ104を押下しながらのヘッドジェスチャなどのハンドレスジェスチャを行うこと、アイトラッカ136によって追跡される眼球運動を行うこと、または、たとえば音声制御などの音響駆動手段を用いることによって、選択されたシステムパラメータのセットを制御するためにシステムモードを切り換えてよい。これらのユーザインタフェース法および他のユーザインタフェース法の詳細は、本明細書において後述される。 In one embodiment, a single surgeon 120 is wearing the HMD 102 to view a magnified video of the surgical field 124 while performing a surgical procedure on a patient 122. Camera system 112 acquires a stream of images of surgical field 124 corresponding to a surgical procedure being performed on patient 122. Computer 118 receives and processes the stream of images and transmits the processed images to HMD 102 via a transceiver. Surgeon 120 views images via HMD 102 and controls one or more settings of system 100 through system modes. Each system mode may control a different set of system parameters. The surgeon 120 may, for example, perform a handsless gesture, such as a head gesture while pressing the foot switch 104, make an eye movement that is tracked by an eye tracker 136, or use acoustically driven means such as, for example, voice control. , may switch system modes to control a selected set of system parameters. Details of these and other user interface methods are discussed later in this specification.

あるいは、外科医120は、たとえばフットスイッチ104を押下しながらヘッドジェスチャを行うことなどのハンドレスな方法を用いて、1または複数のシステムパラメータを直接制御してよい。同じジェスチャが、システムモードに依存して、システム100の様々な特徴を制御してよい。たとえば、ヘッドジェスチャを行いながらフットスイッチ104のペダルを押下することは、システム100が1つのシステムモードである時、1つの動作を引き起こし得るが、システム100が他のシステムモードである時、フットスイッチ104の同じペダルを押下し、同じヘッドジェスチャを行うことが、異なる動作を引き起こし得る。複数のシステムモードを設けることによって、比較的少数のペダルおよびヘッドジェスチャが、幅広い特徴を制御し得る。 Alternatively, the surgeon 120 may directly control one or more system parameters using a handsless method, such as by depressing the footswitch 104 while making a head gesture. The same gesture may control various features of system 100 depending on the system mode. For example, depressing the footswitch 104 pedal while performing a head gesture may cause one action when the system 100 is in one system mode, but when the system 100 is in another system mode, the footswitch Pressing the same pedal 104 and performing the same head gesture may cause different actions. By providing multiple system modes, a relatively small number of pedals and head gestures may control a wide range of features.

たとえば、1つのシステムモードにおいて、外科医120は、自身の頭を上向きに動かしながらフットスイッチ104の第1のペダルを押下することによってズームインしてよい。その結果、外科医120は、自身の視野のより大きな部分にわたり拡大された、小さなサイズの術野124を見る。異なるシステムモードにおいて、同じ上向きのヘッドジェスチャを行いながらフットスイッチ104の同じペダルを押下することにより、外科医120は、HMD102を介して表示された複数の術前画像において上方向にスクロールすることができる。各システムモードに関するジェスチャは、外科医120がシステム100と自然にインタフェースすることを可能にするために直観的であることが意図される。したがって、システム100は、広範囲の制御可能な特徴を提供するが、本明細書に開示されるユーザインタフェースによってこれらの特徴を制御することは、冗長な訓練期間を必要とするものではない。むしろ、外科医120は、自身が制御することを望む特徴に直観的であるジェスチャを行う。たとえば、複数の仮想スクリーンにわたり表示された複数の画像を見る場合、外科医120は、自身の頭を左へ向けることによって、左方向へスクロールし、左に表示されたスクリーンを見ることができる。ヘッドジェスチャを介した制御は、優れた精度および解像度を提供し得る。たとえば、一部の外科医が気付くように、ヘッドジェスチャはより正確な1ショット制御を可能にし、オーバーシュートまたはアンダーシュートをなくすので、ヘッドジェスチャを介してフォーカスを制御することは、フットスイッチを用いる場合と比較して簡単であると判明する。いくつかの実施形態において、ヘッドジェスチャの軌道は、何が行われるかを決定し、ヘッドジェスチャの速度は、動作を行う速度を決定する。たとえば、外科医は、自身の頭を迅速に動かすことによって迅速にズームインし、自身の頭を緩慢に動かすことによって緩慢にズームインし得る。 For example, in one system mode, the surgeon 120 may zoom in by pressing the first pedal of the footswitch 104 while moving his head upward. As a result, the surgeon 120 sees a smaller sized surgical field 124 magnified over a larger portion of his field of vision. By pressing the same pedal of the footswitch 104 while performing the same upward head gesture in different system modes, the surgeon 120 can scroll upward in the multiple preoperative images displayed via the HMD 102. . The gestures for each system mode are intended to be intuitive to allow surgeon 120 to naturally interface with system 100. Thus, although system 100 provides a wide range of controllable features, controlling these features with the user interface disclosed herein does not require a lengthy training period. Rather, the surgeon 120 makes gestures that are intuitive to the features he wishes to control. For example, when viewing multiple images displayed across multiple virtual screens, the surgeon 120 may scroll to the left and view the screen displayed to the left by turning his head to the left. Control via head gestures may provide superior precision and resolution. For example, as some surgeons find, controlling focus via head gestures is less effective than using a footswitch because head gestures allow for more precise one-shot control and eliminate overshoot or undershoot. It turns out to be easy compared to In some embodiments, the trajectory of the head gesture determines what is done and the velocity of the head gesture determines the speed at which the action is performed. For example, a surgeon may zoom in quickly by moving his head quickly and zoom in slowly by moving his head slowly.

いくつかの実施形態において、フットスイッチ104は、標準的なキーボードにおいて<Shift>、<Cntl>、<Caps Lock>ボタンを押すことによってキーボードに関する個別の機能セットを有効化する方法と同様に、ボタン押下を介して他の機能セットを有効化するために装備される。いくつかの実施形態において、第2の機能セットは、外科医120による単一の動作で、フットスイッチ104の全てのボタンおよび特徴に関して同時に有効化される。たとえば、フットスイッチ104のボタンの1つ(たとえばメニューに対応するボタン)を一度短く押下した後、そのボタンを解放することは、フットスイッチ104の全てのボタンに関する第2の機能セットを有効化する。第2の機能セットが有効化されたというインジケーションが、HMD102を介して外科医120に表示される。あるいは、第2の機能セットは、音声コマンドによって、または他の手段によって有効化され得る。 In some embodiments, the footswitch 104 is a button, similar to how pressing the <Shift>, <Cntl>, and <Caps Lock> buttons on a standard keyboard activates individual feature sets on a keyboard. Equipped to activate other feature sets via press-down. In some embodiments, the second set of features is enabled for all buttons and features of footswitch 104 simultaneously in a single action by surgeon 120. For example, briefly pressing one of the buttons on footswitch 104 (e.g., a button corresponding to a menu) and then releasing that button activates a second set of functions for all buttons on footswitch 104. . An indication that the second feature set has been enabled is displayed to the surgeon 120 via the HMD 102. Alternatively, the second set of features may be activated by voice command or by other means.

他の実施形態において、第2の機能セットは、フットスイッチ104の各ボタンに関して個別に有効化される。したがって、フットスイッチ104のボタンの1つを一度短く押下し、すぐに解放した後、同じボタンを長押しすることは、そのボタンのみに関して第2のヘッドジェスチャセットを有効化し得る。たとえば、「シフト」を伴わないヘッドジェスチャによってXYモータ制御を有効化するボタンは、「シフト」されると、ROIの上下よび左右のパンニングを有効化し得る。いくつかの実施形態において、フットスイッチ104の1または複数のボタンは、様々な機能セットを有効化するために全押しおよび半押しを区別するように装備される。たとえば、フットスイッチ104のボタンの1つは、システム100に関する照明を制御してよく、そのボタンの全押しが、たとえば同軸照明といった照明の1つの態様を制御し、そのボタンの半押しが、たとえば投光照明といった照明の他の態様を制御する(たとえば、全押しは、同軸照明を制御するヘッドジェスチャを有効化し、半押しは、投光照明を制御するヘッドジェスチャを有効化する)。 In other embodiments, the second set of features is enabled individually for each button on footswitch 104. Accordingly, pressing one of the buttons of footswitch 104 once briefly and immediately releasing it followed by a long press of the same button may activate the second set of head gestures for that button only. For example, a button that enables XY motor control with a head gesture without "shifting" may enable up/down and left/right panning of the ROI when "shifted." In some embodiments, one or more buttons of footswitch 104 are equipped to differentiate between full and half presses to enable various feature sets. For example, one of the buttons on the footswitch 104 may control lighting for the system 100, with a full press of the button controlling one aspect of the lighting, e.g. coaxial lighting, and a half press of the button controlling one aspect of the lighting, e.g. Control other aspects of lighting, such as floodlights (e.g., a full press activates a head gesture that controls coaxial lighting; a half press activates a head gesture that controls floodlights).

他の実施形態において、システム100は、いくつかのHMDを同時にサポートする。ユーザの1人、たとえば外科医120は、全てのシステム設定を制御することが可能な「代表」外科医に指定される。いくつかの実施形態において、HMD102と同様のHMDを装着している他のユーザは、自身のそれぞれのHMDを介して表示された画像の設定のみを制御するが、自身が装着しているHMDの外部のパラメータを制御することはなく、たとえば彼らは、カメラシステム112のフォーカスおよび照明システム114による照明を制御することはない。他の実施形態において、HMD102と同様のHMDを装着している他のユーザは、システム100に関する1または複数の設定を制御し得る。 In other embodiments, system 100 supports several HMDs simultaneously. One of the users, e.g., surgeon 120, is designated the "principal" surgeon who can control all system settings. In some embodiments, other users wearing HMDs similar to HMD 102 control only the settings of images displayed through their respective HMDs, but not the HMDs they are wearing. They do not control external parameters, for example they do not control the focus of camera system 112 and the illumination by illumination system 114. In other embodiments, other users wearing HMDs similar to HMD 102 may control one or more settings for system 100.

以下に示すシステム100の説明は、2つの観点から記載される。システム100の構成要素に関する典型的なハードウェアレイアウトの説明は、図1B~1Gに関して後述される。図2A~2Bは、システム100のユーザインタフェースに関する典型的な論理レイアウトを説明する。留意すべき点として、これらの図は、システム100に関して可能な複数の実装のうちの1つの典型的な実装のみを例示することが意図される。これらの図は、本発明を任意の特定の実装に限定することは意図されない。 The description of system 100 that follows is described from two perspectives. A description of a typical hardware layout for the components of system 100 is provided below with respect to FIGS. 1B-1G. 2A-2B illustrate exemplary logical layouts for the user interface of system 100. Note that these figures are intended to illustrate only one exemplary implementation of possible implementations for system 100. These figures are not intended to limit the invention to any particular implementation.

ここで、開示される技術の他の実施形態に従って構成され動作可能な、図1Aのコンピュータ118の概略ブロック図である図1Bが参照される。留意すべき点として、この図は単なる典型的な実装であり、適用可能な場合、ソフトウェアモジュールがハードウェアモジュールの代わりに用いられてよく、逆も然りである。コンピュータ118は、少なくとも1つのプロセッサ118A、少なくとも1つのトランシーバ118B、電源118C、少なくとも1つのメモリ118D、少なくとも1つのアナログデジタルA/D変換器118E、少なくとも1つのデジタルアナログD/A変換器118F、および、機械アームコントローラ118G、カメラシステムコントローラ118H、照明システムコントローラ118I、ヘッドトラッカコントローラ118J、画像プロセッサ118K、アイトラッカコントローラ118L、音響解析装置118M、および少なくとも1つのバス118Nの1または複数を含む。プロセッサ118A、トランシーバ118B、電源118C、メモリ118D、A/D変換器118E、D/A変換器118F、機械アームコントローラ118G、カメラシステムコントローラ118H、照明システムコントローラ118I、ヘッドトラッカコントローラ118J、画像プロセッサ118K、アイトラッカコントローラ118L、および音響解析装置118Mは、少なくとも1つのバス118Nを介して結合される。 Reference is now made to FIG. 1B, which is a schematic block diagram of computer 118 of FIG. 1A, constructed and operable in accordance with other embodiments of the disclosed technology. It should be noted that this diagram is only a typical implementation, and where applicable, software modules may be used in place of hardware modules and vice versa. Computer 118 includes at least one processor 118A, at least one transceiver 118B, a power supply 118C, at least one memory 118D, at least one analog-to-digital A/D converter 118E, at least one digital-to-analog D/A converter 118F, and , a mechanical arm controller 118G, a camera system controller 118H, a lighting system controller 118I, a head tracker controller 118J, an image processor 118K, an eye tracker controller 118L, an acoustic analyzer 118M, and at least one bus 118N. Processor 118A, transceiver 118B, power supply 118C, memory 118D, A/D converter 118E, D/A converter 118F, mechanical arm controller 118G, camera system controller 118H, lighting system controller 118I, head tracker controller 118J, image processor 118K, Eye tracker controller 118L and acoustic analysis device 118M are coupled via at least one bus 118N.

コンピュータ118は、単一のユニットとして示されるが、これは概念的な目的に過ぎない。コンピュータ118は、システム100のための単一の制御ユニットとして動作する複数の分散ユニットとして実装され得る。たとえば、少なくとも1つのプロセッサ118A、トランシーバ118B、電源118C、およびメモリ118Dの各々は、システム100の構成要素に(たとえばカメラヘッド110、HMD102、フットスイッチ104、遠隔サーバなどに)分散され協調して動作する複数のプロセッサ、メモリ、電源、およびトランシーバを含んでよい。 Although computer 118 is shown as a single unit, this is for conceptual purposes only. Computer 118 may be implemented as multiple distributed units that act as a single control unit for system 100. For example, at least one processor 118A, transceiver 118B, power supply 118C, and memory 118D each operate in a distributed and coordinated manner across components of system 100 (e.g., camera head 110, HMD 102, footswitch 104, remote server, etc.). may include multiple processors, memory, power supplies, and transceivers.

機械アームコントローラ118Gは、カメラヘッド110のx、y、z軸または傾きを調整するために、カメラヘッド位置決め器111内に含まれたモータを制御する。カメラシステムコントローラ118Hは、たとえば画像を取得するためのカメラまたは複数のカメラを選択すること、F値、フォーカスなどを調整することなど、カメラシステム112内に含まれたカメラの動作を制御する。照明システムコントローラ118Iは、たとえば照明器、強度、1または複数のフィルタなどの選択など、照明システム114の動作を制御する。ヘッドトラッカコントローラ118Jは、外科医120の頭部を追跡するためにシステム100に提供された1または複数のヘッドトラッカ部品の動作を制御する。画像プロセッサ118Kは、たとえばズームイン、ズームアウト、デジタルフィルタリング、先鋭化、平滑化、色補正、いくつかの画像ソースの融合、ピクチャインピクチャフォームで1つの画像ソースを他の画像ソースに埋め込むことなどの適用によって、カメラシステム112、メモリ118D、またはGPUのいずれかから受信した画像を処理する。アイトラッカコントローラ118Lは、HMD102によって構成されたアイトラッカを制御する。音響解析装置118Mは、たとえば音声コマンドを認識するために音声認識アルゴリズムを適用することなどによって、システム100に提供されたマイクロフォンから受信した音に音認識を適用する。 Mechanical arm controller 118G controls a motor included within camera head positioner 111 to adjust the x, y, z axes or tilt of camera head 110. Camera system controller 118H controls the operation of the cameras included within camera system 112, such as selecting the camera or cameras for image acquisition, adjusting F-number, focus, etc. Lighting system controller 118I controls operation of lighting system 114, such as selection of illuminators, intensities, one or more filters, and the like. Head tracker controller 118J controls the operation of one or more head tracker components provided in system 100 for tracking the head of surgeon 120. The image processor 118K performs functions such as zooming in, zooming out, digital filtering, sharpening, smoothing, color correction, fusing several image sources, embedding one image source into another in a picture-in-picture form, etc. Depending on the application, images received from either camera system 112, memory 118D, or GPU are processed. The eye tracker controller 118L controls the eye tracker configured by the HMD 102. Acoustic analysis device 118M applies sound recognition to sounds received from microphones provided to system 100, such as by applying a speech recognition algorithm to recognize voice commands.

ここで、開示される技術の更なる実施形態に従って構成され動作可能な、図1AのHMD102の概略ブロック図である図1Cが参照される。HMD102の構成要素は、図1Aに示すように、外科医120によって装着された調整可能な枠内に組み込まれ得る。HMD102は、ドライバ102A、トランシーバ102B、メモリ(たとえばバッファ)102C、およびディスプレイモジュール130を含む。いくつかの実施形態において、HMD102は更に、液晶(LC)シャッタ132、トラッキング部品134、アイトラッキング部品136、マイクロフォン138、スピーカ139、振動モータ141、および少なくとも1つのバス102Dを含む。ドライバ102A、トランシーバ102B、メモリ102C、ディスプレイモジュール130、シャッタ132、トラッキング部品134、アイトラッキング部品136、マイクロフォン138、スピーカ139、および振動モータ141は、少なくとも1つのバス102Dを介して結合される。 Reference is now made to FIG. 1C, which is a schematic block diagram of the HMD 102 of FIG. 1A, constructed and operative in accordance with further embodiments of the disclosed technology. The components of HMD 102 may be incorporated into an adjustable frame worn by surgeon 120, as shown in FIG. 1A. HMD 102 includes driver 102A, transceiver 102B, memory (eg, buffer) 102C, and display module 130. In some embodiments, HMD 102 further includes a liquid crystal (LC) shutter 132, a tracking component 134, an eye tracking component 136, a microphone 138, a speaker 139, a vibration motor 141, and at least one bus 102D. Driver 102A, transceiver 102B, memory 102C, display module 130, shutter 132, tracking component 134, eye tracking component 136, microphone 138, speaker 139, and vibration motor 141 are coupled via at least one bus 102D.

ディスプレイモジュール130は、外科医120の各目のための画像を投影するために2つのディスプレイモジュール130Aおよび130Bを含む双眼式ディスプレイであってよい。いくつかの実施形態において、HMD102は、単眼式である。シャッタ132は、ディスプレイモジュール130に機械的に結合され、開閉するように動作可能である。シャッタ132が閉じている時、ディスプレイモジュール130は不透明であり、HMD102を介して表示された画像を増強する。シャッタ132が完全または部分的に開いている時、ディスプレイモジュール130は、シャッタ132が開いている領域において透明であり、外科医120が、現実世界ビューの上にオーバレイされた画像を見ることを可能にする。部分的または完全に開いているシャッタ132は、拡張現実、または現実世界ビュー構成に適し得る。あるいは、開いているシャッタ132は、外科医120が、必要に応じて、たとえば他の外科医または看護士など、手術室内の他の外科医と対話および意思疎通することを可能にする。トラッキング部品134は、HMD102に関する位置および/または向きデータを取得し、それぞれのトランシーバ102Bおよび118Bを介してヘッドトラッカコントローラ118Jへ位置および/または向きデータを送信する。マイクロフォン138は、外科医120によって発された音声コマンドまたは他の音を記録し、それぞれのトランシーバ102Bおよび118Bを介して音響解析装置118Mへ音を送信する。アイトラッキング部品136は、外科医120の眼球運動データを取得し、それぞれのトランシーバ102Bおよび118Bを介してアイトラッカコントローラ118Lへ眼球運動データを送信する。 Display module 130 may be a binocular display that includes two display modules 130A and 130B to project images for each eye of surgeon 120. In some embodiments, HMD 102 is monocular. Shutter 132 is mechanically coupled to display module 130 and is operable to open and close. When shutter 132 is closed, display module 130 is opaque and enhances the image displayed via HMD 102. When shutter 132 is fully or partially open, display module 130 is transparent in the area where shutter 132 is open, allowing surgeon 120 to see an image overlaid on top of the real world view. do. A partially or fully open shutter 132 may be suitable for augmented reality or real world view configurations. Alternatively, open shutter 132 allows surgeon 120 to interact and communicate with other surgeons in the operating room, such as other surgeons or nurses, as desired. Tracking component 134 obtains position and/or orientation data regarding HMD 102 and transmits the position and/or orientation data to head tracker controller 118J via respective transceivers 102B and 118B. Microphone 138 records voice commands or other sounds made by surgeon 120 and transmits the sounds to acoustic analysis device 118M via respective transceivers 102B and 118B. Eye tracking component 136 acquires eye movement data for surgeon 120 and transmits the eye movement data to eye tracker controller 118L via respective transceivers 102B and 118B.

ディスプレイモジュール130は、図1Aに示すように、外科医120の視線上に位置するようにHMD102に配置される。シャッタ132は、ディスプレイモジュール130によって構成され、開いた状態、閉じた状態、および部分的に閉じた状態の間で切り換えられ得る。HMD102はシャッタ132が開いている場合常に透明であり、シャッタ132が閉じている場合常に不透明である。シャッタ132が完全に開いている時、外科医120は、透明であるディスプレイモジュール130の光学系を通して現実世界を見る。シャッタ132は、たとえばディスプレイモジュール130にオーバレイされたピクチャインピクチャ(PIP)内に表示された特徴の後ろにある背景を隠すために部分的に閉じられてよく、特徴と、ディスプレイモジュール130のその他の部分を通して見える現実世界ビューとのコントラストを増強する。これは、拡張現実型アプリケーションにおけるVGS処置中にPIP内に1または複数の特徴を表示する際に役立つ。ディスプレイモジュール130は、当技術分野において知られているような任意の適切な技術を用いて実装され得る。ディスプレイモジュール130は、たとえば導波光学系、プリズム光学系、バイザへの投影などの画像投影光学系と共に、たとえば小型OLEDモニタなどの画像ソースを含んでよい。あるいは、ディスプレイモジュールは、モニタなしで直接外科医120の網膜へ画像を走査してよい。HMD102は、コンピュータ118からの画像ソースを受信する。 The display module 130 is placed on the HMD 102 so as to be located in the line of sight of the surgeon 120, as shown in FIG. 1A. Shutter 132 is configured by display module 130 and can be switched between open, closed, and partially closed states. HMD 102 is always transparent when shutter 132 is open, and always opaque when shutter 132 is closed. When shutter 132 is fully open, surgeon 120 views the real world through the optics of display module 130, which is transparent. Shutter 132 may be partially closed to hide the background behind a feature displayed in a picture-in-picture (PIP) overlaid on display module 130, for example, and may be partially closed to hide the background behind a feature displayed in a picture-in-picture (PIP) overlaid on display module 130; Enhances the contrast with the real world view seen through the part. This is useful in displaying one or more features within the PIP during a VGS procedure in augmented reality applications. Display module 130 may be implemented using any suitable technology as known in the art. The display module 130 may include an image source, eg, a small OLED monitor, as well as image projection optics, eg, waveguide optics, prismatic optics, projection onto a visor, and the like. Alternatively, the display module may scan images directly to the surgeon's 120 retina without a monitor. HMD 102 receives an image source from computer 118.

トラッキング部品134は、外科医120の頭部運動を追跡するための構成部分を含む。トラッキング部品134は、加速度計134Aおよびジャイロスコープ134Bを基としたMEM、1または複数の発光体134C、光学センサ134D、電磁センサ134Eなどを含んでよい。いくつかの実施形態において、トラッキング部品134は更に、コンパス(不図示)を含む。発光体134Cは、たとえば発光ダイオード(LED)などの1または複数の能動発光素子、または1または複数の光反射体であってよい。トラッキング部品134は、HMD102に関する更新された向きおよび/または位置座標を決定するために、HMD102の並進および回転運動データを生成する。 Tracking component 134 includes components for tracking head movement of surgeon 120. Tracking components 134 may include MEMs based on accelerometers 134A and gyroscopes 134B, one or more light emitters 134C, optical sensors 134D, electromagnetic sensors 134E, and the like. In some embodiments, tracking component 134 further includes a compass (not shown). Light emitter 134C may be one or more active light emitting devices, such as light emitting diodes (LEDs), or one or more light reflectors. Tracking component 134 generates translational and rotational motion data for HMD 102 to determine updated orientation and/or position coordinates for HMD 102.

いくつかの実施形態において、頭部追跡は、たとえばカメラ(不図示)を用いることによって、HMD102の外部で実行される。任意選択的に、トラッキング部品134は、HMD102の内部の部品と共に、HMD102の外部の部品を含む。いくつかの実施形態において、HMD102は、HMD102を装着している外科医の片目または両目の視線を追跡するためのアイトラッカ部品136を備える。いくつかの実施形態において、マイクロフォン138は、外科医120の音声コマンドを記録するためにHMD102に統合される。あるいは、マイクロフォン138は、HMD102の外部にあり、たとえばカメラヘッド110に統合され得る。留意すべき点として、本明細書で説明される実施形態は、単なる典型例として意図され、本明細書に開示される機能を実現するために任意の適当な組み合わせおよび構成の構成要素が用いられ得る。コンピュータ118は、トラッカコントローラ118Iを介してトラッキング部品134を制御する。コンピュータ118は、トランシーバ118Bおよび102Bを介してHMD102と通信し、更に詳しく後述される、選択されたシステムモードおよび外科医120によって定義された追加の設定およびパラメータに従って、HMDディスプレイモジュール130における画像フィードの表示を制御する。 In some embodiments, head tracking is performed external to the HMD 102, for example by using a camera (not shown). Optionally, tracking components 134 include components internal to HMD 102 as well as components external to HMD 102. In some embodiments, the HMD 102 includes an eye tracker component 136 for tracking the gaze of one or both eyes of the surgeon wearing the HMD 102. In some embodiments, microphone 138 is integrated into HMD 102 to record voice commands of surgeon 120. Alternatively, microphone 138 may be external to HMD 102 and integrated into camera head 110, for example. It should be noted that the embodiments described herein are intended as exemplary only, and any suitable combination and arrangement of components may be used to achieve the functionality disclosed herein. obtain. Computer 118 controls tracking component 134 via tracker controller 118I. Computer 118 communicates with HMD 102 via transceivers 118B and 102B to display the image feed on HMD display module 130 according to the selected system mode and additional settings and parameters defined by surgeon 120, described in more detail below. control.

開示される技術の他の実施形態に従って構成され動作可能な、カメラヘッド110(図1A)に関する概略ブロック図を示す図1Dが参照される。カメラヘッド110は、カメラシステム112、照明システム114、および任意選択的にマイクロフォン138を収容する。いくつかの実施形態において、カメラヘッド110は更に、横向きおよび/または下向き光学追跡部品、センサおよび/または発光体、および場合によっては他の追跡部品を含むトラッキングサブシステム(不図示)を収容する。カメラヘッド110は、アーム106およびカメラヘッド位置決め器111を介してカート116に機械的に結合される。カメラヘッド110、カメラシステム112、照明システム114、およびマイクロフォン138は、アーム106内部に統合された1または複数のケーブルおよび/またはワイヤによってコンピュータ118(図1B)に電気的に結合される。コンピュータ118は、カメラヘッド位置決め器111内に統合されたモータを制御することによって、術野124に対するカメラヘッド110のxyz位置および傾きを制御する。 Reference is made to FIG. 1D, which shows a schematic block diagram of camera head 110 (FIG. 1A), constructed and operable in accordance with other embodiments of the disclosed technology. Camera head 110 houses a camera system 112, a lighting system 114, and optionally a microphone 138. In some embodiments, camera head 110 further houses a tracking subsystem (not shown) that includes sideways and/or downwards optical tracking components, sensors and/or light emitters, and possibly other tracking components. Camera head 110 is mechanically coupled to cart 116 via arm 106 and camera head positioner 111. Camera head 110, camera system 112, lighting system 114, and microphone 138 are electrically coupled to computer 118 (FIG. 1B) by one or more cables and/or wires integrated within arm 106. Computer 118 controls the xyz position and tilt of camera head 110 relative to surgical field 124 by controlling motors integrated within camera head positioner 111 .

いくつかの実施形態において、たとえばロボットアーム、たとえば神経外科アプリケーションのために一般的に使用される6-DOF(自由度)ロボットアームなどの他の位置決め機構が、術野124の画像を取得するためにカメラシステム112の位置を制御するためのカメラヘッド位置決め器111および機械アーム106の代わりに用いられ得る。カメラの位置および向きの変更が微細である眼科手術アプリケーションとは異なり、神経外科アプリケーションにおいて、カメラの位置および向きの変更は比較的大きい。そのようなアプリケーションの場合、外科医120は、自身の頭部にカメラの制御を固定する機能をアクティブ化し、自身がヘッドジェスチャを用いてロボットアームを介してカメラヘッド110のカメラの位置および向きを制御することを可能にしてよい。外科医120は、たとえばフットスイッチ104などのユーザインタフェースを介して、または音声コマンドを発することなどによって、この特徴を有効化する。後に詳しく説明されるHMD102の頭部追跡機能は、HMD102の回転および並進運動を感知し、それらを、カメラヘッド110を制御するロボットアームのための対応する回転および並進運動に変換する。任意選択的に、ユーザインタフェースは、外科医120が、カメラヘッド110のカメラに関する現在の位置および向きを記憶、または「ブックマーク」することを可能にし、それによって、この位置および向きは、たとえばHMD102を介して表示されたメニューからこの特徴を選択することによって、後に復元され得る。 In some embodiments, other positioning mechanisms, such as, for example, a robotic arm, such as a 6-DOF (degrees of freedom) robotic arm commonly used for neurosurgical applications, are used to obtain images of the surgical field 124. can be used in place of camera head positioner 111 and mechanical arm 106 to control the position of camera system 112. Unlike ophthalmic surgery applications where changes in camera position and orientation are minute, in neurosurgical applications the changes in camera position and orientation are relatively large. For such applications, the surgeon 120 activates the ability to fix the camera control to his or her head and uses head gestures to control the camera position and orientation of the camera head 110 via the robotic arm. It may be possible to do so. Surgeon 120 enables this feature, such as through a user interface such as footswitch 104, or by issuing a voice command. The head tracking functionality of HMD 102, described in detail below, senses rotational and translational movements of HMD 102 and converts them into corresponding rotational and translational movements for a robotic arm that controls camera head 110. Optionally, the user interface allows the surgeon 120 to memorize or "bookmark" the current position and orientation of the camera head 110 with respect to the camera, whereby this position and orientation can be updated via the HMD 102, for example. It can be restored later by selecting this feature from the menu displayed.

コンピュータ118は、システムモードおよびユーザインタフェースを介して外科医120から受信した入力に従って、カメラシステム112および照明システム114の動作を制御する。コンピュータ118は更に、マイクロフォン138によって検出された音声コマンドに従ってシステム100を制御する。 Computer 118 controls the operation of camera system 112 and illumination system 114 according to system modes and inputs received from surgeon 120 via the user interface. Computer 118 further controls system 100 according to voice commands detected by microphone 138.

コンピュータ118は、HMD102に関する表示特徴を、デジタルまたは光学的/機械的に制御してよい。たとえば、コンピュータ118は、カメラシステム112によって捕捉された全体ビデオから画素の領域を低減することによってズームイン/ズームアウト動作をデジタルに実施し、低減された領域をHMD102へストリーミングしてよい。あるいは、コンピュータ118は、高解像度カメラ140Aおよび140Bの光学系を調整することによって、ズームイン/ズームアウト機能を光学的に実装してよい。同様に、コンピュータ118は、カメラシステム112によって取得された全体ビデオから取り出された画素の領域をシフトすることによってスクロール機能をデジタルに実装し、それらの画素をHMD102へストリーミングしてよい。あるいは、コンピュータ118は、カメラヘッド位置決め器111を介してXY軸に沿って横方向にカメラヘッド110の位置を調整し、HMD102に表示される術野の一部をシフトすることによって、光学的/機械的にスクロールを実施してよい。 Computer 118 may digitally or optically/mechanically control display features for HMD 102. For example, computer 118 may digitally perform zoom-in/zoom-out operations by reducing the area of pixels from the overall video captured by camera system 112 and stream the reduced area to HMD 102. Alternatively, computer 118 may implement the zoom in/zoom out functionality optically by adjusting the optics of high resolution cameras 140A and 140B. Similarly, computer 118 may digitally implement a scrolling function by shifting regions of pixels taken from the overall video captured by camera system 112 and stream those pixels to HMD 102. Alternatively, the computer 118 adjusts the position of the camera head 110 in the lateral direction along the Scrolling may be performed mechanically.

ここで、開示される技術の更なる実施形態に従って構成され動作可能な、図1Aおよび図1Dのカメラシステム112の概略ブロック図である図1Eが参照される。カメラシステム112は、カメラヘッド110に収容され、機械アーム106(図1A)内に統合された1または複数のワイヤおよびケーブルを介してコンピュータ118に結合される。コンピュータ118は更に、カメラシステム112内の構成要素の各々を、たとえば画像フィードを受信するためにそれらを選択することなどによって制御する。 Reference is now made to FIG. 1E, which is a schematic block diagram of the camera system 112 of FIGS. 1A and ID, constructed and operative in accordance with further embodiments of the disclosed technology. Camera system 112 is housed in camera head 110 and coupled to computer 118 via one or more wires and cables integrated within mechanical arm 106 (FIG. 1A). Computer 118 further controls each of the components within camera system 112, such as by selecting them to receive image feeds.

1つの実施形態において、カメラシステム112は、少なくとも2つの高解像度カメラ140Aおよび140Bを備える。カメラ140Aおよび140Bには、術野124の高解像度拡大ステレオ画像を補捉するための高解像度光学系が提供される。いくつかの実施形態において、カメラヘッド110は更に、iOCTスキャナ142、IRカメラ148、またはマルチスペクトル撮像のための他のカメラのいずれかを含む。カメラシステム112は、カメラ140Aおよび140Bによって取得された画像をコンピュータ118へストリーミングするように構成され、コンピュータ118は、画像を処理し、任意選択的にそれらをHMD102へ送信する。カメラ140Aおよび140Bからの画像は、HMDディスプレイモジュール130Aおよび130Bを介して外科医120の目にストリーミングされる。外科医の脳は、ストリーミングされたビデオから3D画像を生成する。コンピュータ118は、選択されたシステムモード、および外科医120によって定義された任意の追加の設定およびパラメータに従って、HMDを介して画像フィードの表示を制御する。コンピュータ118は、システム100の態様を制御するために用いられ、外科医120には表示されない画像を取得する追加のカメラを制御する。たとえば、コンピュータ118は、手術室内の動きを検出するためのIRカメラなどを制御する。画像プロセッサ118Lは、たとえば色補正、先鋭化、フィルタリング、ズーミングなどを行うために、外科医120によって定義された設定に従ってカメラシステム112によって取得された画像を処理する。コンピュータ118は、後述するユーザインタフェースを介して外科医120によって指示された1または複数の設定に従って画像フィードに関する照明、フォーカス、FOV、および倍率を調整し、処理された画像フィードをHMD102へストリーミングしてよい。 In one embodiment, camera system 112 includes at least two high resolution cameras 140A and 140B. Cameras 140A and 140B are provided with high resolution optics for capturing high resolution magnified stereo images of surgical field 124. In some embodiments, camera head 110 further includes either an iOCT scanner 142, an IR camera 148, or other camera for multispectral imaging. Camera system 112 is configured to stream images captured by cameras 140A and 140B to computer 118, which processes the images and optionally sends them to HMD 102. Images from cameras 140A and 140B are streamed to surgeon 120's eyes via HMD display modules 130A and 130B. The surgeon's brain generates 3D images from the streamed video. Computer 118 controls the display of image feeds via the HMD according to the selected system mode and any additional settings and parameters defined by surgeon 120. Computer 118 is used to control aspects of system 100 and controls additional cameras that capture images that are not displayed to surgeon 120. For example, computer 118 controls an IR camera for detecting movement within the operating room. Image processor 118L processes images acquired by camera system 112 according to settings defined by surgeon 120, for example, to perform color correction, sharpening, filtering, zooming, etc. Computer 118 may adjust the illumination, focus, FOV, and magnification for the image feed according to one or more settings instructed by surgeon 120 via a user interface described below, and stream the processed image feed to HMD 102. .

システム100は、外科医120が、外科処置の開始時、カメラシステム112によって取得されたビデオに関する倍率レベルを選択し、必要に応じて、外科処置の間中、倍率を動的に調整することを可能にする。システム100は、機械的、光学的、電気的、またはデジタルの手段を用いて、関心領域(ROI)、ズーム、およびフォーカス構成を動的に更新することを可能にする。カメラ140A、140Bに関するXY位置決めおよびズーム光学系への機械的および光学的更新は、カメラシステムコントローラ118H(図1B)を介して実施される。デジタルズーム機能およびXY位置決めは、HMD102を介して表示されるROIのサイズおよびXY位置を変更することによって実施される。 System 100 allows surgeon 120 to select a magnification level for the video acquired by camera system 112 at the beginning of a surgical procedure and dynamically adjust the magnification as needed throughout the surgical procedure. Make it. System 100 allows for dynamically updating region of interest (ROI), zoom, and focus configurations using mechanical, optical, electrical, or digital means. Mechanical and optical updates to the XY positioning and zoom optics for cameras 140A, 140B are performed via camera system controller 118H (FIG. 1B). Digital zoom functionality and XY positioning are implemented by changing the size and XY position of the ROI displayed via HMD 102.

いくつかの実施形態において、外科医120は、ヘッドジェスチャを用いてROIおよびズーム設定を動的に更新する。いくつかの実施形態において、外科医120は、カメラシステム112を自動センタリングするようにシステム100を有効化する。この場合、システム100は自動的に、XY位置を動的に更新する。動的更新のいくつかの例は、自動センタリング、自動ズーミング、自動フォーカシング、および自動照明を含む。 In some embodiments, the surgeon 120 uses head gestures to dynamically update the ROI and zoom settings. In some embodiments, the surgeon 120 enables the system 100 to automatically center the camera system 112. In this case, system 100 automatically updates the XY position dynamically. Some examples of dynamic updates include auto-centering, auto-zooming, auto-focusing, and auto-illumination.

システム100は、生画像フィードを動的に更新するための自動センタリング機能を提供する。1つの種類の自動センタリングは、ファイバ照明が用いられ網膜の一部のみが照明され得る網膜処置の間、照明領域を追う。他の種類の自動センタリングは、たとえば白内障処置など(たとえば外科医が患者の目を動かす場合)の前眼部処置の間、患者の目の中心を追う。また他の種類の自動センタリングは、ツールチップを追う。留意すべき点として、本明細書に挙げられる例は、単なる典型的な実装として意図され、本発明を限定するものではない。自動センタリングは、任意の患者の解剖学的構造、任意の医療デバイスに、または一般に画像内に出現する任意の要素または情報に実施され得る。 System 100 provides automatic centering functionality to dynamically update the raw image feed. One type of automatic centering follows the illuminated area during retinal procedures when fiber illumination is used and only a portion of the retina may be illuminated. Other types of automatic centering follow the center of the patient's eye during anterior segment procedures, such as cataract procedures (eg, when the surgeon moves the patient's eye). Other types of automatic centering follow tooltips. It should be noted that the examples given herein are intended only as typical implementations and are not intended to limit the invention. Automatic centering may be performed on any patient anatomy, any medical device, or generally on any element or information appearing within the image.

一般に、網膜処置は、患者122の目の中心の真上でカメラヘッド110から吊り下げられた追加のレンズ(不図示)を用いて行われる。したがって、これらの処置中、患者の目が動かない限り、カメラヘッド110は動かされてはならず、カメラヘッド100の移動は、この追加のレンズを動かすことになる。この制約は、XYモータ制御を介したカメラシステム112の位置の調整が、網膜処置中に照明領域を追跡するための適切な技術ではないことを意味する。その結果、カメラシステム112の物理的位置を固定したままにするために、自動センタリング機能の一部として、これらの処置に関して表示されたROIに対する調整がデジタルに行われる。カメラ140Aおよび140Bの解像度は、一般に、HMD102の表示モニタの解像度よりも高い。したがって、ROIのデジタル調整は、カメラシステム112によって取得された全体画素フレームのサブセットを選択することによって実施される。外科医120が、全体画像におけるズームとして小さなROIを見る時、ROIは、全体画素フレームから動的に選択され得る。センタリングおよび特に自動センタリング機能は、必要および状況に依存して、XYモータを制御すること、および/またはROIを調整することのいずれかを用いて行われ得る。たとえば、処置の種類に依存して、1つの技術が他の技術よりも好適であり得る。 Typically, retinal procedures are performed using an additional lens (not shown) suspended from the camera head 110 directly above the center of the patient's 122 eye. Therefore, during these procedures, camera head 110 must not be moved unless the patient's eyes are moving, and movement of camera head 100 will move this additional lens. This limitation means that adjusting the position of camera system 112 via XY motor control is not a suitable technique for tracking the illuminated area during retinal procedures. As a result, adjustments to the displayed ROI for these procedures are made digitally as part of the auto-centering function to keep the physical position of the camera system 112 fixed. The resolution of cameras 140A and 140B is generally higher than the resolution of the display monitor of HMD 102. Therefore, digital adjustment of the ROI is performed by selecting a subset of the entire pixel frame acquired by camera system 112. When the surgeon 120 views a small ROI as a zoom in the overall image, the ROI may be dynamically selected from the entire pixel frame. Centering and especially automatic centering functions can be performed either by controlling the XY motors and/or by adjusting the ROI, depending on the needs and circumstances. For example, depending on the type of treatment, one technique may be more suitable than another.

他の実施形態において、照明領域、患者の目の中心、ツールチップなどに対する自動センタリングは、離散時間間隔で実施される。たとえば、瞳孔と画像のエッジとの間の距離が既定の閾値より小さい場合、瞳孔が画像の中心に出現するようにROIを変更することまたはXYモータを制御することのいずれかによって、センタリングが実施される。他の例として、網膜上の照明スポットが既定のマージンを超える場合、照明スポットが画像の中心となるようにROIを自動的に更新することによって、後眼部処置中にセンタリングが実施される。これは、フレームごとに画像がセンタリングされるような連続的な自動センタリングとは対照的である。連続的な自動センタリングは、患者の目が動いているが外科医には静止して見えている場合、リスクをもたらし得る。 In other embodiments, automatic centering to the illumination region, center of the patient's eyes, tool tips, etc. is performed at discrete time intervals. For example, if the distance between the pupil and the edge of the image is smaller than a predefined threshold, centering is performed either by changing the ROI or by controlling the XY motors so that the pupil appears in the center of the image. be done. As another example, centering is performed during a posterior segment procedure by automatically updating the ROI so that the illumination spot is centered in the image if the illumination spot on the retina exceeds a predefined margin. This is in contrast to continuous automatic centering, where the image is centered frame by frame. Continuous automatic centering can pose a risk if the patient's eyes are moving but appear stationary to the surgeon.

更なる実施形態において、離散空間方式とは対照的に、センタリング自体が連続空間方式で行われる。たとえば、画像における突然の変化を生じないように、画像は、センタリングされるまで段階的かつ連続的に更新される(たとえば、XYモータおよび/またはROIが段階的かつ連続的に影響を受ける)。 In a further embodiment, the centering itself is performed in a continuous spatial manner, as opposed to a discrete spatial manner. For example, the image is updated in a stepwise and continuous manner until centered (eg, the XY motors and/or the ROI are affected in a stepwise and continuous manner) to avoid sudden changes in the image.

他の実施形態において、センタリングの前に、システム100は、未決の変更をユーザに警告する。警告は、HMDに表示された警報、音、HMDにおける振動などを介したものであってよい。警告は、画像における変化および/またはカメラヘッドユニットのXY位置における変化を予期するように外科医に通告する。任意選択的に、ユーザは、UI160を介して未決のセンタリングを取り消してよい。たとえば、システムが画像をセンタリングしようとしているという警告が与えられる時、ユーザは、センタリングをキャンセルするための時間窓(たとえば3秒間)を有する。更なる実施形態において、センタリングがキャンセルされると、システム100は、後続の自動センタリングを無効化する。これは、所定の期間(たとえば5分間)、システムモードが(たとえば前のモードから後のモードへ切り換えることによって)変更されるまで、または外科手術の期間中であってよい。他の実施形態において、自動センタリングの発生がキャンセルされると、システムは、たとえば画像処理アルゴリズムまたは深層学習アルゴリズムによって検出され得るような目立った変化が画像内に生じるまで、自動センタリングを無効化する。 In other embodiments, prior to centering, system 100 alerts the user of pending changes. The warning may be via an alarm displayed on the HMD, a sound, a vibration in the HMD, or the like. The alert notifies the surgeon to expect changes in the image and/or changes in the XY position of the camera head unit. Optionally, the user may cancel pending centering via UI 160. For example, when a warning is given that the system is about to center the image, the user has a time window (eg, 3 seconds) to cancel the centering. In a further embodiment, when centering is canceled, system 100 disables subsequent automatic centering. This may be for a predetermined period of time (eg, 5 minutes), until the system mode is changed (eg, by switching from a previous mode to a later mode), or for the duration of a surgical procedure. In other embodiments, once the occurrence of automatic centering is canceled, the system disables automatic centering until a noticeable change occurs in the image, such as can be detected by an image processing algorithm or deep learning algorithm.

システム100は、生画像フィードを動的に更新するための自動ズーミング機能を提供する。自動ズーミング機能は、カメラヘッド110内のズーム光学系を制御することによって機械的に実装されてよく、あるいは、画像プロセッサ118Kを介して生画像フィードにデジタルに実装され得る。この構成は、外科医固有の嗜好に基づいてズーム設定を自動的に変更することを可能にする。1つの種類の自動ズーミングは、各システムモード(たとえば前のモード)において用いられた最後のズーム倍率を記憶し、システムがオンにされ、モードが切り換えられた時、自動的にズームを設定する。他の種類の自動ズーミングは、処置における様々な段階を識別し、各段階に関する外科医の嗜好を記憶する。また他の種類の自動ズーミングは、網膜から様々な距離で外科医によって保持されることによりそのサイズを変化させるファイバ照明によって生じる光のスポットのサイズに従って、ズームを動的に変更する。ズーム倍率は、スポットのサイズに対応する。外科医がファイバチップを遠くへ動かし、スポットが大きくなると、表示される画像はズームアウトされる。外科医がファイバチップを近くへ動かし、スポットが小さくなると、表示される画像はズームインされる。 System 100 provides automatic zooming functionality to dynamically update the live image feed. The automatic zoom function may be implemented mechanically by controlling zoom optics within camera head 110, or digitally on the live image feed via image processor 118K. This configuration allows zoom settings to be automatically changed based on surgeon-specific preferences. One type of automatic zooming remembers the last zoom factor used in each system mode (eg, the previous mode) and automatically sets the zoom when the system is turned on and the mode is switched. Another type of automatic zooming identifies various stages in a procedure and remembers the surgeon's preferences for each stage. Yet another type of automatic zooming dynamically changes the zoom according to the size of the light spot produced by the fiber illumination, which changes its size by being held by the surgeon at various distances from the retina. The zoom magnification corresponds to the spot size. As the surgeon moves the fiber tip farther and the spot becomes larger, the displayed image zooms out. As the surgeon moves the fiber tip closer and the spot becomes smaller, the displayed image zooms in.

同様に、システム100は、手動フォーカシングおよび自動フォーカシングを可能にする。自動フォーカシングの場合、外科医120は、フォーカスが合った状態に維持されるべき術野内の点を指定してよい。あるいは、外科医120は、システムに、外科医が保持および操作しているツールの先端に自動的にフォーカスさせ得る。あるいは、外科医は、システムに、網膜処置における照明領域の中心に自動的にフォーカスさせ得る。システムは、指定された位置、または器具、またはスポットライトにフォーカスした状態を維持する。いくつかの実施形態において、システム100は、指定された点へのワンタイムフォーカスを提供する。外科医120は、必要に応じてその点にフォーカスするように、ヘッド/フットジェスチャおよび/または外科用ツールの組み合わせを用いて生画像上の点を指定してよい。 Similarly, system 100 allows for manual and automatic focusing. For automatic focusing, the surgeon 120 may specify a point within the surgical field that should be kept in focus. Alternatively, the surgeon 120 may have the system automatically focus on the tip of the tool that the surgeon is holding and manipulating. Alternatively, the surgeon may have the system automatically focus on the center of the illuminated area in the retinal procedure. The system maintains focus on the specified location, fixture, or spotlight. In some embodiments, system 100 provides one-time focus on a specified point. Surgeon 120 may specify a point on the raw image using a combination of head/foot gestures and/or surgical tools to focus on that point as desired.

ここで、開示される技術の他の実施形態に従って構成され動作可能な、照明システム114(図1A)の概略ブロック図である図1Fが参照される。照明システム114は、カメラヘッド110内に収容され、機械アーム106内に統合された1または複数のワイヤおよびケーブルを介してコンピュータ118に結合される。照明システム114は、白色投光照明150、IR投光照明152、同軸光154A、および同軸光154Bの1または複数を含む。同軸光154Aおよび154Bは、それぞれカメラ140Aおよび140Bと共に動作する。一般に、照明システム114は、術野124を照明するための少なくとも1つの可視光発光体を含む。発光体は、1または複数のフィルタ(不図示)と組み合わせられ得る。たとえば、照明は、発光された光自体が白色ではないように、光毒性の配慮により青色光を遮断するフィルタを有する白色発光LEDに基づいてよい。照明システム114は、非可視照明、たとえば赤外(IR)光または紫外(UV)光で照明してよい。いくつかの実施形態において、システム100は、術野124内の動きを検出するための低解像度/広視野カメラと組み合わせられたIR照明を含む。同軸照明は、前眼部眼科処置において用いられる、患者の網膜からの光の反射によって生じる赤目現象を発生させる。コンピュータ118は、たとえば光源、強度などを選択することによって、照明コントローラ118Hで照明システム114を制御する。 Reference is now made to FIG. 1F, which is a schematic block diagram of a lighting system 114 (FIG. 1A) constructed and operable in accordance with other embodiments of the disclosed technology. Illumination system 114 is housed within camera head 110 and coupled to computer 118 via one or more wires and cables integrated within mechanical arm 106. Illumination system 114 includes one or more of a white floodlight 150, an IR floodlight 152, a coaxial light 154A, and a coaxial light 154B. Coaxial lights 154A and 154B operate with cameras 140A and 140B, respectively. Generally, illumination system 114 includes at least one visible light emitter for illuminating surgical field 124. The light emitter may be combined with one or more filters (not shown). For example, the lighting may be based on white-emitting LEDs with a filter that blocks blue light due to phototoxicity considerations so that the emitted light is not itself white. Illumination system 114 may illuminate with non-visible illumination, such as infrared (IR) light or ultraviolet (UV) light. In some embodiments, system 100 includes IR illumination combined with a low resolution/wide field of view camera to detect motion within surgical field 124. Coaxial illumination is used in anterior segment ophthalmological procedures to create the red-eye effect caused by the reflection of light from a patient's retina. Computer 118 controls lighting system 114 with lighting controller 118H, such as by selecting light sources, intensities, and the like.

いくつかの実施形態において、システム100は、自動照明を可能にする。画像プロセッサ118Kは、照明不足または照明過剰領域に関して生画像フィードを解析し、照明システム114による位置または強度を操作するようにコンピュータ118に通知する。任意選択的に、照明は、たとえば外科用器具など、外科医によって選択された要素において最適化され得る。いくつかの実施形態において、システム100は、外科医120がある1つの段階を完了して新たな段階を開始していることを識別し、新たな段階のために照明を自動的に最適化する。たとえば、外部フェイコシステムがデータをストリーミングする場合、システム100は、モードが現在フェイコモードに設定されていることを知る。そのような場合、投光照明は自動的にオフに切り換えられ、赤目照明がオンに切り換えられる。 In some embodiments, system 100 allows automatic lighting. Image processor 118K analyzes the raw image feed for under- or over-illuminated areas and notifies computer 118 to manipulate position or intensity by illumination system 114. Optionally, the illumination may be optimized on elements selected by the surgeon, such as, for example, surgical instruments. In some embodiments, the system 100 identifies that the surgeon 120 has completed one stage and is beginning a new stage, and automatically optimizes the lighting for the new stage. For example, if an external phaco system streams data, system 100 will know that the mode is currently set to phaco mode. In such a case, the floodlights are automatically switched off and the red-eye lighting is switched on.

開示される技術の更なる実施形態に従って構成され動作可能な、フットスイッチ104(図1A)に関する概略ブロック図を示す図1Gが参照される。フットスイッチは、3つのセンサ104A、104B、および104C、トランシーバ104D、および振動モータ104Eと共に示される。フットスイッチは、外科医120の足に隣接して地面に位置する。外科医120は、フットスイッチ104によって検出される足部運動を行うことによって、システム100の動作特徴を制御する。センサ104B、104C、104Dは、足部運動を感知するように構成され、それぞれのトランシーバ104Aおよび118Aを介してコンピュータ118(図1B)へ通知を送信する。センサ104B、104C、104Dは、ペダル、ボタン、タッチパッド、ジョイスティック、圧力ベース、画像ベースなどのいずれかであってよい。留意すべき点として、この実装は単なる典型例であることが意図され、フットスイッチ104は、より多いまたは少ない数のセンサ、または各々が様々なオプションを有する複数のボタンを有してよい。いくつかの実施形態において、フットスイッチ104は、フットジェスチャを追跡するための慣性センサと共に構成された装着型デバイスである。任意選択的に、装着型フットスイッチは、追加または代替として、1または複数のフットジェスチャを検出するための光センサおよび発光体(不図示)と共に構成される。たとえば、装着型フットスイッチと共に構成された発光体は、たとえば床などの表面にパターンを投影する。1または複数の光センサは、フットジェスチャを推測するために、投影されたパターンの変化を検出する。光センサは、装着型フットスイッチと共に構成され得るが、これは必須ではない。振動モータ104Eは、フットスイッチ104を介して、システム100に関する設定およびシステムパラメータに関するフィードバックを外科医120へ提供する。ここで、開示される技術の他の実施形態に従って構成され動作可能な、システム100(図1A)のための典型的なユーザインタフェース(UI)160に関する概略ブロック図を示す図2Aが参照される。UI160は、外科医120とのインタフェースとなる、図1B~1Gに関して上述されたシステム100の構成要素の論理的見方である。UI160に含まれる構成要素は単なる例示であることが意図され、様々な実装に従って構成要素が追加され、またはUI160から取り除かれ得ることを理解すべきである。図2Aは、それらの機能に従って論理的にグループ分けされた様々なシステムユニットにおける構成要素を示す。UI160は、外科医120からの入力を受信するシステム100の構成要素を含むUI入力160A、および受信した入力に応答して出力としての機能を果たすシステム100の構成要素を含むUI出力160Bという2つのモジュールを含む。コンピュータ118は、UI入力160Aを介してユーザ入力を受信し、入力を処理して、UI出力160Bを介して1または複数のシステム応答を発する。 Reference is made to FIG. 1G, which shows a schematic block diagram of footswitch 104 (FIG. 1A), constructed and operable in accordance with further embodiments of the disclosed technology. A footswitch is shown with three sensors 104A, 104B, and 104C, a transceiver 104D, and a vibration motor 104E. The foot switch is located on the ground adjacent to the surgeon's 120 foot. Surgeon 120 controls the operational characteristics of system 100 by making foot movements detected by footswitch 104. Sensors 104B, 104C, 104D are configured to sense foot movement and send notifications to computer 118 (FIG. 1B) via respective transceivers 104A and 118A. Sensors 104B, 104C, 104D may be pedals, buttons, touch pads, joysticks, pressure-based, image-based, etc. Note that this implementation is intended to be merely exemplary, and footswitch 104 may have more or fewer sensors, or multiple buttons, each with various options. In some embodiments, footswitch 104 is a wearable device configured with an inertial sensor to track foot gestures. Optionally, the wearable footswitch is additionally or alternatively configured with a light sensor and a light emitter (not shown) for detecting one or more foot gestures. For example, a light emitter configured with a wearable footswitch projects a pattern onto a surface, such as a floor. One or more optical sensors detect changes in the projected pattern to infer foot gestures. The optical sensor may be configured with a wearable footswitch, but this is not required. Vibration motor 104E provides feedback to surgeon 120 regarding settings and system parameters for system 100 via footswitch 104. Reference is now made to FIG. 2A, which illustrates a schematic block diagram of an exemplary user interface (UI) 160 for system 100 (FIG. 1A), constructed and operable in accordance with other embodiments of the disclosed technology. UI 160 is a logical view of the components of system 100 described above with respect to FIGS. 1B-1G that interface with surgeon 120. It should be understood that the components included in UI 160 are intended to be merely exemplary, and components may be added to or removed from UI 160 according to various implementations. FIG. 2A shows components in various system units logically grouped according to their functionality. UI 160 includes two modules: UI Input 160A, which includes components of system 100 that receive input from surgeon 120, and UI Output 160B, which includes components of system 100 that serve as outputs in response to received inputs. including. Computer 118 receives user input via UI input 160A, processes the input, and issues one or more system responses via UI output 160B.

UI入力160Aは、ヘッドジェスチャトラッカ162を含む。ヘッドジェスチャトラッカ162は、HMD102に統合されHMD102の内部にある追跡部品134(図1C)、および任意選択的に、HMD102の外部にあるヘッドジェスチャトラッカ部品164を含む。たとえば、ヘッドジェスチャトラッカ部品164は、外科医120の画像を取得する、手術室内に配置されたカメラであってよい。UI入力160Aは更に、フットベースの入力を受信するためのフットスイッチ104(図1A)、アイトラッキングシステム166、音響システム168、および他の外科医からの入力を受信するためのタッチスクリーン108(図1A)を含む。アイトラッキングシステム166は、アイトラッカコントローラ118L(図1B)に結合されたアイトラッキング部品136(図1C)を含み、これらは共に、外科医の視線の方向を感知および追跡するように構成される。音響システム168は、音声認識装置118M(図1B)に結合されたマイクロフォン138(図1C)を含み、これらは共に、外科医によって発された音響信号および音声コマンドを受信し、検出し、処理するために構成される。いくつかの実施形態において、マイクロフォン138は、HMD102の外部にある。 UI input 160A includes head gesture tracker 162. Head gesture tracker 162 includes a tracking component 134 (FIG. 1C) that is integrated with and internal to HMD 102, and optionally a head gesture tracker component 164 that is external to HMD 102. For example, head gesture tracker component 164 may be a camera located within the operating room that captures images of surgeon 120. UI input 160A further includes a footswitch 104 (FIG. 1A) for receiving foot-based input, an eye tracking system 166, an audio system 168, and a touch screen 108 (FIG. 1A) for receiving input from other surgeons. )including. Eye tracking system 166 includes eye tracking component 136 (FIG. 1C) coupled to eye tracker controller 118L (FIG. 1B), both of which are configured to sense and track the direction of the surgeon's gaze. Acoustic system 168 includes a microphone 138 (FIG. 1C) coupled to a voice recognition device 118M (FIG. 1B), which together receive, detect, and process acoustic signals and voice commands issued by the surgeon. It is composed of In some embodiments, microphone 138 is external to HMD 102.

UI出力160Bは、ディスプレイモジュール130(図1C)、シャッタ132、タッチスクリーン108(図1A)、カメラヘッド110(図1D)、カメラヘッド位置決め器111、カメラシステム112(図1E)、および照明システム114(図1F)を介して表示されたコンテンツを含む。受信した入力に基づいて、コンピュータ118は、シャッタ132の状態、ディスプレイモジュール130のコンテンツの表示、およびタッチスクリーン108のコンテンツの表示を制御し、ならびにカメラヘッド110、カメラヘッド位置決め器111、カメラシステム112、および照明システム114に関する設定を制御する。いくつかの実施形態において、UI出力160Bは、たとえばフェイコビトレクトミーマシンなどのシステム100の外部の1または複数のシステムに接続され、外科医120に、UI160を介したシステム100の外部のシステムの直接制御権を与える。いくつかの実施形態において、システム100は更に、利用可能なビデオストリームのいずれかまたは全てを表示し、ならびに複数のHMDを同時にサポートするための2Dまたは3D外部モニタ(不図示)への接続をサポートする。 UI output 160B includes display module 130 (FIG. 1C), shutter 132, touch screen 108 (FIG. 1A), camera head 110 (FIG. 1D), camera head positioner 111, camera system 112 (FIG. 1E), and lighting system 114. (FIG. 1F). Based on the received inputs, computer 118 controls the state of shutter 132, the display of content on display module 130, and the display of content on touch screen 108, as well as camera head 110, camera head positioner 111, camera system 112. , and control settings for the lighting system 114. In some embodiments, the UI output 160B is connected to one or more systems external to the system 100, such as a phacovitrectomy machine, and provides the surgeon 120 with direct access to the system external to the system 100 via the UI 160. Give control. In some embodiments, system 100 further supports connection to a 2D or 3D external monitor (not shown) for displaying any or all of the available video streams as well as supporting multiple HMDs simultaneously. do.

いくつかの実施形態において、UI出力160Bは更に、たとえば発信音または外科医120に通知するための音声メッセージなどの音出力を発するための、たとえばスピーカ139(図1C)などのスピーカを含む。いくつかの実施形態において、UI出力160Bは更に、たとえば振動モータ141(図1C)または振動モータ104E(図1G)などの1または複数の振動モータ161を含む。たとえば、振動モータは、DC振動モータを用いる偏心回転マス振動モータ(ERM)、または外科医120にシステムパラメータを表示するためのリニア共振アクチュエータ(LRA)であってよい。振動モータは、HMD102、フットスイッチ104、またはシステム100の他の任意の構成要素のいずれかに統合され得る。たとえば、振動は、xモータがその運動限界に到達したこと、またはシステム100が、網膜に極端に近い位置にあるツールを自動的に識別したことを示してよい。いくつかの実施形態において、システム100は、外科医120の姿勢が人間工学的に適切であることを確実にするために、外科医120の頭部を監視し、外科医120が自身の頭部を、首の痛みや損傷を招き得る人間工学的に不適切な姿勢に置くと、警報を発する。警報は、たとえばHMDによって表示されるメッセージ、振動、またはたとえば発信音などの音響警報の発出を介して発され得る。 In some embodiments, UI output 160B further includes a speaker, such as speaker 139 (FIG. 1C), for emitting sound output, such as, for example, a tone or an audio message to notify surgeon 120. In some embodiments, UI output 160B further includes one or more vibration motors 161, such as vibration motor 141 (FIG. 1C) or vibration motor 104E (FIG. 1G). For example, the vibration motor may be an eccentric rotating mass vibration motor (ERM) using a DC vibration motor, or a linear resonant actuator (LRA) to display system parameters to the surgeon 120. The vibration motor may be integrated into either the HMD 102, the footswitch 104, or any other component of the system 100. For example, vibrations may indicate that the x-motor has reached its limit of motion, or that the system 100 has automatically identified a tool that is located extremely close to the retina. In some embodiments, the system 100 monitors the surgeon's 120 head to ensure that the surgeon's 120 posture is ergonomically appropriate, and the system 100 monitors the surgeon's 120 head so that the surgeon's 120 Alerts you if placed in an ergonomically inappropriate position that could result in pain or injury. The alarm may be emitted, for example, via a message displayed by the HMD, a vibration, or the issuance of an audible alarm, for example a tone.

外科医120は、HMD102を装着しながらユーザインタフェース160を介してシステム100とインタラクトし、患者122に外科処置を行う。このように、ハンドフリージェスチャを用いて、外科医120は、たとえばコンピュータ118の画像処理パラメータ(たとえばズーム、色補正)などのシステム100の動作パラメータ、HMD102を介して表示されるコンテンツ(たとえば、カメラシステム112によって取得された画像、メモリから取得された術前データ、オーバレイされた仮想特徴、仮想スクリーンおよびメニューの開閉)、シャッタ132の状態(たとえば、開いている、部分的に開いている、閉じている)、照明システム114に関する制御設定(たとえば、発光体、フィルタ、強度、波長、角度)、カメラシステム112に関する制御設定(たとえばカメラ、ズーム、フォーカス、シャッタ)、カメラヘッド110に関する制御設定(たとえば、xyzモータおよび傾きを調整することによる向きおよび整合性)、上記のいずれかを制御するためのメニュー項目の選択、システムモードの制御などを制御してよい。 Surgeon 120 interacts with system 100 via user interface 160 while wearing HMD 102 to perform a surgical procedure on patient 122 . Thus, using hands-free gestures, the surgeon 120 can control the operating parameters of the system 100, such as the image processing parameters of the computer 118 (e.g., zoom, color correction), the content displayed via the HMD 102 (e.g., the camera system 112, preoperative data retrieved from memory, overlaid virtual features, virtual screens and menu openings), the state of the shutter 132 (e.g., open, partially open, closed). control settings for the illumination system 114 (e.g., light emitters, filters, intensity, wavelength, angle); control settings for the camera system 112 (e.g., camera, zoom, focus, shutter); control settings for the camera head 110 (e.g., orientation and alignment by adjusting xyz motors and tilt), selection of menu items to control any of the above, control of system modes, etc.

いくつかの実施形態において、UI160は、後の使用のために、スナップショットおよびビデオを格納すること、およびオーディオを記録することを可能にする。オーディオ記録は、ノート、手術概要、名前付けおよびタグ付けフィルタとして使用するためにテキストに変換され得る。その後、深層学習アルゴリズムによってキーワードタグが適用され得る。いくつかの実施形態において、システム100は、術前データに関するプレースホルダ、生画像からのスナップショット、記録されたノート/概要の音声テキストを有する所定のテンプレートに基づいて、手術レポートの自動生成を支援する。自動レポート生成は、たとえば患者122の氏名、外科医120の氏名、日付、外科処置の時間および期間などのデータの追加の識別を支援する。適当である場合、処置に関連するデータを取得するために機械学習および画像処理が適用され得る。たとえば、使用された外科用器具の種類、および外科処置の画像フィードが、レポートにデータを追加するために得られ得る。UI160は、選択されたスナップショットおよび術前画像を外科医がレポートにアップロードすることを可能にする「レポートへ送信」メニュー項目を提供する。いくつかの実施形態において、UI160は、既定のテンプレートに従って構成され得る、自動生成された請求概要を提示する。請求概要は、行われた外科処置のリストなどを含んでよい。 In some embodiments, UI 160 allows storing snapshots and video and recording audio for later use. Audio recordings can be converted to text for use as notes, surgical summaries, naming and tagging filters. Keyword tags may then be applied by deep learning algorithms. In some embodiments, the system 100 supports automatic generation of a surgical report based on a predetermined template with placeholders for preoperative data, snapshots from raw images, and audio text of recorded notes/summaries. do. Automatic report generation supports additional identification of data such as, for example, patient 122 name, surgeon 120 name, date, time and duration of the surgical procedure. Where appropriate, machine learning and image processing may be applied to obtain treatment-related data. For example, the type of surgical instrument used and an image feed of the surgical procedure may be obtained to populate the report. UI 160 provides a "Send to Report" menu item that allows the surgeon to upload selected snapshots and pre-operative images to a report. In some embodiments, UI 160 presents an automatically generated claim summary that may be configured according to a predefined template. The claim summary may include a list of surgical procedures performed, etc.

ビデオおよびオーディオが個別に記録される場合、オーディオ記録は、オーディオを対応するビデオファイルと同期させることを可能にするタイムスタンプと共に保存される。同様に、オーディオノートがテキストに変換される場合、これらは、ノートが対応するビデオフィード上のサブタイトルとして表示されることを可能にする同期タイムスタンプと共に保存される。 If video and audio are recorded separately, the audio recording is saved with a timestamp that allows the audio to be synchronized with the corresponding video file. Similarly, when audio notes are converted to text, these are saved with synchronized timestamps that allow the notes to be displayed as subtitles on the corresponding video feed.

いくつかの実施形態において、UI入力160Aは、たとえばフットスイッチ104を介して検出される足部運動と同時にヘッドジェスチャトラッカ162を介して検出されるヘッドジェスチャなど、外科医120によって行われる複数の同時ハンドフリージェスチャとしての入力を検出するように構成される。これらの実施形態において、フットスイッチ104からの有効化入力は、ヘッドジェスチャを有効化することによって、外科医120による不慮の頭部運動がシステム100の動作に影響を及ぼすことを防ぐ機能を果たす。UI入力160Aからの入力を受信すると、コンピュータ118は、システムモードに依存する、対応するアクションを引き起こす。 In some embodiments, the UI input 160A may be used to respond to multiple simultaneous hand movements performed by the surgeon 120, such as head gestures detected via the head gesture tracker 162 simultaneously with foot movements detected via the footswitch 104. The device is configured to detect input as a free gesture. In these embodiments, the enable input from footswitch 104 serves to prevent inadvertent head movements by surgeon 120 from affecting the operation of system 100 by enabling head gestures. Upon receiving input from UI input 160A, computer 118 causes a corresponding action depending on the system mode.

いくつかの実施形態において、外科医120は、システム100を一時的に、フットスイッチ104からの有効化入力なしで様々なヘッドジェスチャによってデフォルトアクションがアクティブ化される有効化フリー状態に設定してよい。たとえば外科医120は、デフォルトアクションが、ヘッドアップおよびヘッドダウンジェスチャに関してフォーカス制御、左右のヘッドジェスチャに関してズームインおよびアウトであるように設定し、または、システムモードを切り換えるために有効化フリーヘッドジェスチャを可能にしてよい。 In some embodiments, the surgeon 120 may temporarily set the system 100 to an activation-free state in which default actions are activated by various head gestures without activation input from the footswitch 104. For example, the surgeon 120 may set the default actions to be focus control for head up and head down gestures, zoom in and out for left and right head gestures, or enable free head gestures to switch system modes. It's fine.

ここで、システム100の態様を制御するためにUI入力160Aを介して外科医が利用可能であるいくつかの典型的なユーザ入力の説明を以下に示す。このリストは、限定的であることは意図されない。 A description of some exemplary user inputs available to the surgeon via UI input 160A to control aspects of system 100 now follows. This list is not intended to be limiting.

・ヘッドジェスチャ
ヘッドジェスチャの使用に基づく外科用HMDのための一般的なユーザインタフェース法。ヘッドジェスチャは、UI入力160A(図2A)のヘッドトラッカ162によって検出される。外科医120は、いくつかのヘッドジェスチャが有効化フリーであるようにシステムパラメータを設定し、自身がヘッドジェスチャのみを用いてシステム100を制御することを可能にしてよい。たとえば、医療処置の特定の段階に関して、外科医120は、有効化フリーモードで作業することを好み、フットスイッチ104を介した有効化なしでヘッドジェスチャのみを用いて自身がシステム100を操作することを可能にし得る。外科医120は、この効果のために音声コマンドを発してフットスイッチ104を介した有効化をオフに切り換え、ヘッドジェスチャを用いるだけで、たとえばズームまたはフォーカスなどの特徴を制御してよい。外科医120は、たとえば
〇カメラヘッド110によるズーム、フォーカス、照明強度、
〇たとえばディスプレイモジュール130に表示された術前画像などのデータ項目内でのスクロール、
〇ヘッドジェスチャを直接介した、または間接的にヘッドジェスチャを用いてメニュー制御を介した照明のオンオフ、画像強調オプション、有効化非有効化
などの連続的および離散的なシステム特性を制御するためにヘッドジェスチャを用いる。
- Head Gestures A common user interface method for surgical HMDs based on the use of head gestures. Head gestures are detected by head tracker 162 of UI input 160A (FIG. 2A). Surgeon 120 may set system parameters such that some head gestures are free to enable, allowing him to control system 100 using only head gestures. For example, for certain stages of a medical procedure, the surgeon 120 may prefer to work in an activation-free mode, allowing himself to operate the system 100 using only head gestures without activation via the footswitch 104. It can be possible. Surgeon 120 may issue voice commands to turn off activation via footswitch 104 for this effect, and simply use head gestures to control features such as zoom or focus, for example. The surgeon 120 may, for example: zoom, focus, and illumination intensity using the camera head 110;
For example, scrolling within a data item such as a preoperative image displayed on the display module 130,
o To control continuous and discrete system characteristics such as lighting on/off, image enhancement options, enabling/disabling directly via head gestures or indirectly via menu controls using head gestures Use head gestures.

・フットスイッチ104によって有効化されたヘッドジェスチャ。
フットスイッチ104(図1G)は、たとえばペダル104A、104B、104Cなどの1または複数のペダルと共に提供される。ペダル104A、104B、104Cの各々は、様々なシステムパラメータセットを制御するためのヘッドジェスチャのグループを有効化してよい。各グループは、上下運動、左右運動、視線、小さな頷き、前後運動など、用いられる全てのジェスチャで構成される。ヘッドジェスチャを伴うフットスイッチ104の使用は、外科医120が、ヘッドジェスチャのみで利用可能な数よりも多くのシステム特徴を制御することを可能にする。また、追加のユーザ入力を介してヘッドジェスチャを有効化することは、たとえば頭部の自然な動きによる異なるシステムモードへの不慮の切換えなどの不本意な変更をなくすことにより、システム安全性を向上させる。
- Head gestures activated by footswitch 104.
Footswitch 104 (FIG. 1G) is provided with one or more pedals, such as pedals 104A, 104B, 104C, for example. Each of the pedals 104A, 104B, 104C may enable a group of head gestures for controlling various sets of system parameters. Each group consists of all the gestures used, such as up-and-down movements, side-to-side movements, gaze, small nods, and back-and-forth movements. The use of footswitch 104 with head gestures allows surgeon 120 to control more system features than are available with head gestures alone. Enabling head gestures via additional user input also improves system safety by eliminating inadvertent changes, e.g. accidental switching to a different system mode due to natural head movements. let

たとえば、3つのペダルを有するフットスイッチは、ノーマルシステムモードにおいて以下の5つのヘッドジェスチャのグループを有効化してよい。
○左ペダルの押下(104A)
○上下のヘッドジェスチャ:拡大画像のフォーカス。
○微かな上下の頷き:自動フォーカシングの有効および無効状態の切替え。たとえば、指定された点におけるワンタイム自動フォーカシングを有効化すると、画像上のオーバレイとして十字が出現してよく、ユーザは、自動フォーカスする術野内の点を指定するために自身の頭部を回転させて十字を動かしてよい。ペダルの解放により、指定された点が選択される。外科医120は、メニューまたはタッチスクリーンを介して、自身の頭部の頷きによってどの種類の自動フォーカシング(たとえば、指定された点へのワンタイム自動フォーカス、指定された点への連続的な自動フォーカシング、ツールチップへの自動フォーカシング、光スポットの中心への自動フォーカシング)がアクティブ化されるかを選択してよい。
○左右のヘッドジェスチャ:拡大画像のズーム。
○微かな左右の振り:自動ズーミングの有効および無効状態の切替え。
○左+中央ペダルの押下(104Aおよび104B)
○上下および左右のヘッドジェスチャ:ROIが表示された時の拡大画像におけるyおよびx方向へのスクロール。
○微かな上下の頷き:ROIの変更に基づく自動センタリングの有効および無効状態の切替え。
○中央ペダルの押下(104B)
○上下および左右のヘッドジェスチャ:メニューナビゲーション。
○長い凝視:サブメニューを開く、または前景に出現するメニューを選択する。
○中央ペダル104Bの解放:選択されたメニュー項目をアクティブ化する。
○右+中央ペダルの押下(104Cおよび104B)
○上下および左右のヘッドジェスチャ:yおよびxモータを動かす。
○微かな上下の頷き:XYの変更に基づく自動センタリングの有効および無効状態の切替え。
○右ペダルの押下(104C)
○上下のヘッドジェスチャ:投光照明強度。
○微かな上下の頷き:投光照明のオンおよびオフ状態の切替え。
○左右のヘッドジェスチャ:赤目(同軸)照明強度。
○微かな左右の振り:同軸照明のオンおよびオフ状態の切替え。
For example, a footswitch with three pedals may enable the following groups of five head gestures in normal system mode.
○Press left pedal (104A)
○Up and down head gestures: Focus on the enlarged image.
○ Subtle up-and-down nod: Toggle between enabling and disabling automatic focusing. For example, when enabling one-time autofocusing at a specified point, a crosshair may appear as an overlay on the image, and the user must rotate their head to specify a point within the surgical field to autofocus. You can move the cross. Releasing the pedal selects the specified point. Surgeon 120 can determine which type of automatic focusing (e.g., one-time automatic focusing on a designated point, continuous automatic focusing on a designated point, continuous automatic focusing on a designated point, You may choose whether automatic focusing on the tool tip or automatic focusing on the center of the light spot is activated.
○Left and right head gestures: Zoom the enlarged image.
○Slight left/right swing: Switch between enabling and disabling automatic zooming.
○Press left + center pedal (104A and 104B)
○ Up/down and left/right head gestures: Scrolling in the y and x directions in the enlarged image when the ROI is displayed.
○ Subtle up-and-down nod: Switching between enabling and disabling automatic centering based on ROI changes.
○Press down the center pedal (104B)
○ Up/down and left/right head gestures: menu navigation.
○Long gaze: Open a submenu or select a menu that appears in the foreground.
o Release of center pedal 104B: Activates the selected menu item.
○Press right + center pedal (104C and 104B)
○ Up/down and left/right head gestures: move the y and x motors.
○Slight up/down nod: Switching between enabling and disabling automatic centering based on XY changes.
○Press the right pedal (104C)
○Up and down head gesture: floodlight intensity.
○ Subtle up and down nod: Toggle floodlight on and off status.
○Left and right head gestures: red eye (coaxial) illumination intensity.
○Slight left/right swing: Switch coaxial lighting on and off state.

・音響入力。
システム100は、1または複数のマイクロフォン138を介して検出された音響信号に応答するように構成される。外科医120は、特徴を有効化または無効化するため、または異なるシステムモードへ切り換え、表示画像を修正または増強するため、などのために1または複数の音声コマンドおよび/または音を発してよい。音響入力は、マイクロフォン138によって検出され、コンピュータ118によって処理される。たとえば、外科医120は、1つの特徴を有効化/無効化するために1度の舌打ちの音を用い、第2の特徴を有効化/無効化するために第2の音を用いてよい。システム100の特徴を有効化するための音は、ユーザ固有であってよく、外科医120によってカスタマイズされ得る。外科医120は、システム100に、好みの音のセットを認識するように教示してよい。外科医120の口の付近(たとえばHMD102の一部)に物理的に配置されたマイクロフォン(不図示)は、患者122の可聴範囲外である非常に静かな音を拾い上げ得る。これは、たとえば多くの目の外科処置など、麻酔なしで行われる処置において有利であり得る。これらの状況において、患者122は、システム100を制御するために外科医120によって発される音声コマンドを聞かないことが好適であり得る。
・Acoustic input.
System 100 is configured to respond to acoustic signals detected via one or more microphones 138. Surgeon 120 may issue one or more voice commands and/or sounds to enable or disable features, switch to a different system mode, modify or enhance displayed images, etc. Acoustic input is detected by microphone 138 and processed by computer 118. For example, the surgeon 120 may use one click sound to enable/disable one feature and a second sound to enable/disable a second feature. The sounds for activating features of system 100 may be user-specific and customized by surgeon 120. Surgeon 120 may teach system 100 to recognize a preferred set of sounds. A microphone (not shown) physically placed near the surgeon's 120 mouth (eg, part of the HMD 102) may pick up very quiet sounds that are outside the patient's 122 hearing range. This can be advantageous in procedures performed without anesthesia, such as many eye surgical procedures. In these situations, it may be preferable for the patient 122 not to hear voice commands issued by the surgeon 120 to control the system 100.

・ハンドジェスチャ。
いくつかの実施形態において、システム100は、ハンドヘルドコントローラ(不図示)によって、または外科医120によって行われたハンドジェスチャを感知し、これらを処理のためにコンピュータ118へ送信する外部トラッカ(不図示)によって取得された1または複数のハンドジェスチャ入力を提供する。たとえば、ハンドヘルドコントローラは、電子マウス、遠隔制御装置、ジョイスティックと同様に設計されてよく、あるいは、たとえばブレスレットまたは指輪などの装着型デバイスであってよい。あるいは、ハンドジェスチャは、HMDまたはその他どこかに統合されたカメラおよび/または他のセンサによって光学的に取得され得る。ハンドジェスチャは、本明細書に開示されるUI技術のいずれかと関連して用いられ得る。たとえば、ハンドジェスチャは、手術室内の位置に、または患者の目に「ロック」されたメニューまたは仮想3Dボタンと関連して用いられ得る。いくつかの実施形態において、システム100は、ユーザの指を追跡することによってハンドジェスチャを検出する。他の実施形態において、システム100は、外科医120によって保持された外科用ツールを追跡することによってハンドジェスチャを検出し、外科医120が、外科用ツールでメニュー項目または仮想3Dボタンを「タッチ」および「押下」することを可能にする。
・Hand gesture.
In some embodiments, system 100 is operated by a handheld controller (not shown) or by an external tracker (not shown) that senses hand gestures made by surgeon 120 and sends them to computer 118 for processing. Provide one or more captured hand gesture inputs. For example, a handheld controller may be designed similarly to an electronic mouse, a remote control, a joystick, or it may be a wearable device, such as a bracelet or a ring. Alternatively, hand gestures may be captured optically by cameras and/or other sensors integrated into the HMD or elsewhere. Hand gestures may be used in conjunction with any of the UI techniques disclosed herein. For example, hand gestures may be used in conjunction with menus or virtual 3D buttons that are "locked" to positions within the operating room or to the patient's eyes. In some embodiments, system 100 detects hand gestures by tracking the user's fingers. In other embodiments, the system 100 detects hand gestures by tracking a surgical tool held by the surgeon 120 such that the surgeon 120 "touches" and "touches" a menu item or virtual 3D button with the surgical tool. "Press".

・カメラヘッド110を介した物理制御。
カメラヘッド110には、1または複数の手動操作型ボタン、ハンドル、およびスイッチ、および制御パネルが提供され得る。これらは、外科医120または付き添いの看護士によって制御され得る。
- Physical control via camera head 110.
Camera head 110 may be provided with one or more manually operated buttons, handles, and switches, and a control panel. These may be controlled by the surgeon 120 or an attending nurse.

・仮想表示されたメニューまたはボタンと組み合わせたユーザアイトラッキング。
外科医120は、アイトラッカ136(図1C)を介して仮想表示されたメニューオプションをナビゲートしてよい。たとえば、外科医は、既定の期間、仮想メニュー項目を凝視し、またはパターンに従ってまばたきし、または他のそのような「アイジェスチャ」を行ってよい。このUIは、本明細書で説明される他のUIのいずれかと関連して用いられ得る。ディスプレイ固定仮想メニューに加えて、メニューは、世界固定または解剖学的構造固定であってよい。たとえば、3D仮想ボタンは、たとえば治療エリアの周囲など、患者122の目に「ロック」された状態で表示され得る。外科医120は、仮想ボタンを凝視することによって表示されたボタンを「押下」してよく、アイトラッキング部品136は、凝視を検出する。
- User eye tracking combined with virtually displayed menus or buttons.
Surgeon 120 may navigate the virtually displayed menu options via eye tracker 136 (FIG. 1C). For example, the surgeon may stare at a virtual menu item for a predetermined period of time, or blink according to a pattern, or perform other such "eye gestures." This UI may be used in conjunction with any of the other UIs described herein. In addition to display-fixed virtual menus, menus may be world-fixed or anatomy-fixed. For example, 3D virtual buttons may be displayed "locked" to the patient's 122 eye, such as around the treatment area. The surgeon 120 may "press" the displayed button by gazing at the virtual button, and the eye tracking component 136 detects the gaze.

・タッチスクリーン。
システム100に関する制御および動作パラメータは、タッチスクリーン108を介して設定、監視、および修正され得る。タッチスクリーン108は、手術室看護士または外科医120によって使用するために無菌ナイロンによってカバーされ得る。HMD102を装着している外科医120によって動作設定を制御することに加えて、タッチスクリーン108は、HMD102を装着している外科医120によって制御することができないモード、設定、および嗜好を制御することを可能にする。タッチスクリーン108は、システム100に利用可能なビデオフィードのいずれかを、生形式で、またはHMD102の装着者に見えるフォーマットで、たとえばオーバレイ、PIPなどを用いて表示してよい。
·touch screen.
Control and operating parameters for system 100 may be set, monitored, and modified via touchscreen 108. Touch screen 108 may be covered by sterile nylon for use by an operating room nurse or surgeon 120. In addition to controlling operational settings by the surgeon 120 wearing the HMD 102, the touch screen 108 allows for controlling modes, settings, and preferences that cannot be controlled by the surgeon 120 wearing the HMD 102. Make it. Touchscreen 108 may display any of the video feeds available to system 100, either in raw form or in a format visible to the wearer of HMD 102, eg, using overlays, PIP, etc.

システムモードは、外科医120によって行われたユーザ入力をシステム100がどのように解釈し、それに対して反応するかを決定して、ユーザインタフェース構成を修正する。たとえば、術前モードにおいて、外科医120は、自身の頭部を回しながら同時にフットスイッチ104のペダルを押下することによって、HMD102を介して表示された複数の画像をスクロールする。ノーマルモードにおいて、外科医120は、自身の頭部を左へ(ズームイン)または右へ(ズームアウト)動かしながら同時にフットスイッチ104のペダルを押下することによって、HMD102を介して表示された画像をズームインまたはズームアウトする。いくつかの実施形態において、フットスイッチ104の適当なペダルが押下されている間、コンピュータ118のみがアクションの実行を有効化する。 System modes determine how system 100 interprets and reacts to user input made by surgeon 120 to modify the user interface configuration. For example, in preoperative mode, the surgeon 120 scrolls through multiple images displayed via the HMD 102 by simultaneously pressing the pedal of the footswitch 104 while turning his or her head. In normal mode, the surgeon 120 zooms in or out the image displayed via the HMD 102 by simultaneously pressing the pedal of the footswitch 104 while moving his or her head to the left (zoom in) or right (zoom out). Zoom out. In some embodiments, computer 118 only enables execution of the action while the appropriate pedal of footswitch 104 is pressed.

以下は、システム100によって提供されるいくつかの典型的なシステムモードおよびそれらが制御する特性である。システムモードは、たとえばHMD102に関する表示設定、またはカメラシステム112に関する動作設定など、システム100のためにどのパラメータが操作されるかを定義する。外科医120は、UI160Aによって検出される、ヘッドジェスチャ、眼球運動、音声コマンド、および足部運動を含むUI入力の組み合わせによってモードを選択および開始する。コンピュータ118は、UI入力を処理し、UI160Bの1または複数のシステム出力部品を介してシステム応答を引き起こす。システムモードは、たとえばHMD102に表示されるコンテンツ、スクリーン状態、シャッタ132の状態、UI機能、およびカメラヘッド110に関する動作設定などの1または複数などの応答を決定する。以下の典型的なモードリストは、網羅的であることは意図されておらず、各システムモードによって制御可能な特性の全てを含むものでもない。 Below are some typical system modes provided by system 100 and the characteristics they control. The system mode defines which parameters are manipulated for the system 100, such as display settings for the HMD 102 or operational settings for the camera system 112. Surgeon 120 selects and initiates the mode through a combination of UI inputs, including head gestures, eye movements, voice commands, and foot movements, detected by UI 160A. Computer 118 processes the UI input and causes a system response via one or more system output components of UI 160B. The system mode determines responses such as one or more of the content displayed on the HMD 102, the screen state, the state of the shutter 132, UI functionality, and operational settings for the camera head 110. The exemplary mode list below is not intended to be exhaustive and does not include all of the characteristics controllable by each system mode.

・ノーマルモード(デフォルトモード)。このシステムモードにおいて、デフォルト値が一般に有効であるが、外科医120によってカスタマイズされ得る。カメラシステム112によって取得された画像フィードが、HMD102を介して表示される。外科医120は、たとえばカメラシステム112に関するズーム、フォーカス、XY位置、および照明システム114に関する照明設定などの表示属性を制御するために主にUI160を用いる。 ・Normal mode (default mode). In this system mode, default values are generally valid, but may be customized by the surgeon 120. An image feed captured by camera system 112 is displayed via HMD 102. Surgeon 120 primarily uses UI 160 to control display attributes such as, for example, zoom, focus, XY position for camera system 112, and lighting settings for illumination system 114.

・透明モード。このシステムモードにおいて、ディスプレイモジュール130はオフにされ、LCシャッタ132が開いており、外科医120は、現実世界ビューを見ることができる。 ・Transparent mode. In this system mode, display module 130 is turned off, LC shutter 132 is open, and surgeon 120 can see the real world view.

・後眼部非接触レンズモード。このシステムモードは、外科医120が、反転または後眼部モードで術野124を見ることを可能にする。このモードに関する設定は以下の通りである。
○眼部反転 反転。
○投光照明 オフ。これは、ユーザが設定可能であってよい。
○赤目照明 オフ。
○配色 ファイバ照明(色補正は素材固有である)。
○画像強調 後眼部固有値。
○モータ状態 制限された速度および範囲。これらのパラメータは、ヘッドジェスチャの進度または速度を制御することによって外科医により制限され得る。
- Posterior segment non-contact lens mode. This system mode allows the surgeon 120 to view the surgical field 124 in an inverted or posterior segment mode. The settings for this mode are as follows.
○Eye reversal Reversal.
○Floodlights off. This may be user configurable.
○Red-eye lighting off.
○Color scheme Fiber illumination (color correction is material specific).
○Image enhancement Posterior segment eigenvalue.
○Motor status Limited speed and range. These parameters can be limited by the surgeon by controlling the progression or speed of the head gesture.

・外部モード。これらのシステムモードは、たとえば内視鏡など、システム100に接続され得る追加の外部デバイス(不図示)に対応する。外部システムモードの1つは、以下の設定を有する。
○赤目照明 オン。赤目および投光照明に関する強度は事前定義される。
○オーバレイ 外部システムから追加のデータがオーバレイされる。
○UI160の機能がカスタマイズされ得る。たとえば、フットスイッチ104に関する定義は、このモードにおいて、他のモードとは異なってよい。これは、外科医120が、フットスイッチ104を用いて外部マシンを制御することを可能にするためである。それに応じて、オプションを表示するメニューも、異なる機能を反映するように修正される。
・External mode. These system modes correspond to additional external devices (not shown) that may be connected to system 100, such as, for example, an endoscope. One of the external system modes has the following settings.
○Red-eye lighting on. Intensities for red-eye and floodlights are predefined.
○Overlay Additional data is overlaid from an external system.
o Functions of the UI 160 can be customized. For example, the definition for footswitch 104 may be different in this mode than in other modes. This is to allow the surgeon 120 to control an external machine using the footswitch 104. The menu that displays the options will be modified accordingly to reflect the different functionality.

・術前データモード(「術前」モード)。このモードにおいて、ユーザは、たとえば自身が準備した術前画像またはノートおよび/または患者データなどの事前計画データを見る。データを見た後、ユーザは、外科処置を継続するために以前のモードへ戻る。またユーザは、図6C~6Jにおいて詳しく後述するように、画像ライブラリからPIP内で見ることができる画像セットを選択し、以前のモードに戻った後、選択された画像内でスクロールしてもよい。このモードに関する設定は以下の通りである。
○表示コンテンツ。術野124で取得された生拡大画像の代わりに、HMDは、ユーザが所望する任意のデータにアクセスし、データを閲覧およびスクロールすることを可能にするGUIを表示する。
○UI機能。このモードは、術前データを閲覧およびスクロールすることを可能にする。たとえば、ノーマルモードにおけるジェスチャは、拡大画像のズームまたはフォーカスを制御し得る。術前データモードにおいて、拡大画像は表示されておらず、同じジェスチャは、表示された術前データのスクロールなどを可能にする。
○照明。照明システム114による照明は、術前データモードにおいて最小値に設定され、あるいはオフにされ、暗くされ、たとえばIR投光照明152を有するIR照明など照明システムに含まれる他の発光体に切り換えられ得る。IR照明は、外科医120が術前データを見ている間、同席している看護士の動きを検出することを可能にし、自動的にオンにされ得る。照明は、外科医120がノーマルシステムモードに再び切り換えると、以前の非IR設定に戻され得る。
- Preoperative data mode (“preoperative” mode). In this mode, the user views pre-planning data, such as preoperative images or notes and/or patient data that he has prepared. After viewing the data, the user returns to the previous mode to continue the surgical procedure. The user may also select a set of images visible within the PIP from the image library and scroll within the selected images after returning to the previous mode, as described in more detail below in FIGS. 6C-6J. . The settings for this mode are as follows.
○Display content. In place of the live magnified image acquired at the surgical field 124, the HMD displays a GUI that allows the user to access, view and scroll through any data desired.
○UI function. This mode allows viewing and scrolling through preoperative data. For example, gestures in normal mode may control zoom or focus of an enlarged image. In pre-operative data mode, no enlarged image is displayed and the same gesture allows scrolling etc. of the displayed pre-operative data.
○Lighting. Illumination by the illumination system 114 may be set to a minimum value in the preoperative data mode or turned off, dimmed, and switched to other light emitters included in the illumination system, such as IR lighting with IR floodlights 152. . The IR lighting allows the surgeon 120 to detect the movements of the attending nurse while viewing the pre-operative data and may be turned on automatically. The illumination may be returned to the previous non-IR setting when the surgeon 120 switches back to normal system mode.

・PIP(ピクチャインピクチャ)システムモード。ピクチャインピクチャ(PIP)の表示は、術前画像、生ビデオフィード、過去に取得されたビデオのスナップショット、GIF、およびたとえばバイタルサインおよび他のデータなどのデータを、HMD102を介して表示された現在の背景画像上にオーバレイされたウィンドウ内に表示することを可能にする。外科医120は、いくつかの異なるPIP、それらの位置、および各PIP内にどのコンテンツを表示するかを事前定義してよい。たとえば、PIPは、後眼部非接触レンズモードにおける作業時、術前OCT画像を表示し、または、内視鏡モードであり、背景画像が内視鏡カメラからの生ビデオフィードである時、生拡大画像を表示してよい。外科医120は、各既定のPIPをオンおよびオフにしてよい。外科医120は、UI160を介してPIPの位置およびサイズおよびオン/オフ状態を制御してよい。HMD102の視野におけるPIPの位置は、メイン画像内の自動的に検出された関心領域の位置に従って動的に変更されてよく、UI160を介して外科医120によって設定され得る。またPIPの位置は、現実世界にロックされ(「世界固定PIP」)、または、たとえばVGS処置において患者の解剖学的構造に固定されてもよい。PIPモードである時(すなわち、PIPの「選択」後)、スナップショットのアクティブ化は、PIP画像のみを保存し得る。これは、たとえばiOCT画像を保存するために役立ち得る。 - PIP (Picture in Picture) system mode. Picture-in-picture (PIP) displays display data such as preoperative images, live video feeds, previously captured video snapshots, GIFs, and other data displayed via the HMD 102. Enables display in a window overlaid on the current background image. Surgeon 120 may predefine several different PIPs, their locations, and what content to display within each PIP. For example, PIP displays preoperative OCT images when working in posterior segment non-contact lens mode, or when in endoscopic mode and the background image is the live video feed from the endoscopic camera. Enlarged images may be displayed. Surgeon 120 may turn each default PIP on and off. Surgeon 120 may control the position and size and on/off status of the PIP via UI 160. The position of the PIP in the field of view of the HMD 102 may be dynamically changed according to the position of the automatically detected region of interest within the main image, and may be set by the surgeon 120 via the UI 160. The position of the PIP may also be locked to the real world (a "world-locked PIP") or fixed to the patient's anatomy, for example in a VGS procedure. When in PIP mode (ie, after "selecting" a PIP), activating a snapshot may only save the PIP image. This may be useful for storing iOCT images, for example.

たとえばPIP内に現在表示されている術前画像に対応する生拡大画像上の位置を示すオーバレイ記号を有効または無効にするために、PIPが表示されている時、オーバレイされたメニューに、PIP固有の機能が追加され得る。いくつかの実施形態において、拡張現実(VGS)処置を行う間、HMD102のドライバ102Aは、PIPが表示されているディスプレイモジュール130のエリア内でシャッタ132を閉じる。これにより、外科医120は、部分的に透明なスクリーンを通して現実世界を見、同時に、PIPの後ろの周囲光を遮断しながら1または複数のPIP内に表示された術前、術中、または他のデータを見ることが可能である。PIPが患者の解剖学的構造にロックされている時、コンピュータ118は、外科医120が自身の頭部を動かしている間、PIPの後ろで背景が常に遮断されるようにシャッタが閉じられる領域を動的に制御してよい。 When a PIP is being displayed, an overlayed menu will include a PIP-specific functions may be added. In some embodiments, while performing an augmented reality (VGS) procedure, the driver 102A of the HMD 102 closes the shutter 132 within the area of the display module 130 where the PIP is displayed. This allows the surgeon 120 to view the real world through a partially transparent screen while viewing preoperative, intraoperative, or other data displayed within one or more PIPs while blocking ambient light behind the PIP. It is possible to see. When the PIP is locked to the patient's anatomy, the computer 118 determines the area where the shutter is closed so that the background is always occluded behind the PIP while the surgeon 120 moves his head. May be controlled dynamically.

いくつかの実装において、PIPシステムモードへの切換えは、HMDを介して少なくとも1つのPIPが表示されている時のみ可能である。PIPシステムモードへの切換えは、たとえばメニューを呼び出すフットスイッチボタンを押下すること、およびメニュー項目であるかのようにPIPを選択することによって行われ得る。これにより、UI機能は、PIP内に表示されたコンテンツに従って既定のUI機能に変更される。たとえば、PIPが術前データを表示する場合、UIは、(たとえば、外科医120がPIP内に表示された術前画像のセットをスクロールすることを可能にする)術前データモードから引き継がれ、PIPが生拡大画像を表示する場合、UIは、(たとえば、外科医120が倍率を制御することを可能にする)ノーマルモードまたは後眼部非接触レンズモード、または一般に(ここに記載されない他のいくつかのそのようなモードが存在し得るので)生画像フィードを見るために最後に選択されたモードから引き継がれる。PIPモードにおいて引き継がれたUIに特別UI機能が追加されてよく、他は、PIPモード用に微調整され得る。たとえば、PIPに術前画像が表示される場合、外科医120は、ヘッドジェスチャを用いて仮想ポインタを制御し、表示された術前画像および生拡大画像における対応する点を指定してよい(これは、生画像に術前データを手動で位置合わせするために行われ得る)。 In some implementations, switching to PIP system mode is only possible when at least one PIP is displayed via the HMD. Switching to PIP system mode may be performed, for example, by pressing a footswitch button that brings up a menu and selecting PIP as if it were a menu item. This changes the UI functionality to the default UI functionality according to the content displayed within the PIP. For example, if the PIP displays preoperative data, the UI is carried over from the preoperative data mode (e.g., allowing the surgeon 120 to scroll through the set of preoperative images displayed within the PIP) and the PIP When displaying live magnified images, the UI can be configured to display normal mode (e.g., allowing the surgeon 120 to control magnification) or posterior segment non-contact lens mode, or generally (some other not described here). (as such modes may exist) will be inherited from the last mode selected for viewing the raw image feed. Special UI features may be added to the UI carried over in PIP mode, and others may be tweaked for PIP mode. For example, when a pre-operative image is displayed in the PIP, the surgeon 120 may use head gestures to control a virtual pointer to specify corresponding points in the displayed pre-operative image and the live magnified image (this , which may be performed to manually align the preoperative data to the raw image).

・iOCT(術中OCT)モード。このシステムモードは、iOCTスキャナ142にOCTデータを取得させる。このモードに関する設定は、以下を含んでよい。
○iOCT オン。
○PIP オン、iOCTスキャナ142を介して取得された画像がPIP内に表示される。
○UIオプション この特徴は、外科医120が、ヘッドジェスチャを用いて、またはメニューをナビゲートすることなどによって、たとえば走査位置および角度などのiOCTスキャナ142に関する動作パラメータを制御することを可能にするUIオプションを提供する。たとえば、ユーザは、B走査およびボリュメトリック走査というiOCT走査様式を切り替えるためにメニューを用いてよい。
○B走査インジケータオーバレイ この特徴は、生iOCT B走査の位置を示す記号を生拡大画像上にオーバレイする。
・iOCT (intraoperative OCT) mode. This system mode allows the iOCT scanner 142 to acquire OCT data. Settings for this mode may include the following:
○iOCT on.
o PIP On, images acquired via the iOCT scanner 142 are displayed in the PIP.
o UI Options This feature allows the surgeon 120 to control operating parameters for the iOCT scanner 142, such as scan position and angle, using head gestures or by navigating menus, etc. I will provide a. For example, a user may use a menu to switch between iOCT scanning modalities: B-scan and volumetric scan.
o B-scan indicator overlay This feature overlays a symbol indicating the location of the live iOCT B-scan on the live magnified image.

・他の処置固有および段階固有モード:一般に、様々な処置固有および段階固有モードは、処置固有および段階固有データおよびオーバレイを表示するために事前定義され得る。
○データオーバレイ、たとえばフェイコビトレクトミーマシンからのデータが有効化される。
○位置合わせされたオーバレイが有効化される。このビューは、外科処置中に外科医120を支援するために術野の現実世界拡大ビュー上にオーバレイされた画像位置合わせ記号および/または画像および/または3Dモデルを表示する。
○UI UI機能は、ユーザが、オーバレイの位置、深さ、および向きを制御するため、あるいはシステムに接続された他のデバイスを制御することを可能にするために変化してよい。たとえば、ディスプレイにオーバレイする直線の角度は、ヘッドジェスチャおよび/またはフットスイッチ104を用いて操作され得る。
○PIP(ピクチャインピクチャ)。PIPは、PIPを介して関連術前または術中ビデオおよび/またはデータを示すために有効化され得る。
Other treatment-specific and stage-specific modes: Generally, various treatment-specific and stage-specific modes may be predefined for displaying treatment- and stage-specific data and overlays.
o Data overlay, for example data from a phacovitrectomy machine is enabled.
o Aligned overlays are enabled. This view displays image registration symbols and/or images and/or 3D models overlaid on a real-world enlarged view of the surgical field to assist the surgeon 120 during the surgical procedure.
o UI UI functionality may be varied to allow the user to control the position, depth, and orientation of the overlay or to control other devices connected to the system. For example, the angle of the line overlaying the display may be manipulated using head gestures and/or footswitch 104.
○PIP (Picture in Picture). The PIP may be enabled to show relevant pre-operative or intra-operative video and/or data via the PIP.

・外部ビデオフィードモード:
○いくつかのモードにおいて、HMD102は、外科医102が、待合室で待機している患者を監視し、または異なる手術室内の異なる外科処置の進捗を監視することを可能にするために、たとえば手術室外に配置された1または複数のカメラによって提供され得るような外部ビデオフィードを表示する。これらのビデオは、PIP内またはHMD102のサイドスクリーンに表示され得る。それらは、1度に1つのビデオで、または複数のスクリーンでビデオの寄せ集めとして表示され得る。このモードは、外科医が、複数のスクリーンにおいて全ての利用可能なビデオフィードを見ることを可能にする。外科医は、待合室、他の手術室からのビデオフィードを見てよく、あるいは、たとえば予測不可能な状況において生じ得るような稀な処置をどのように行うかを説明する教材ビデオのデータベースを検索してよい。外科医は、たとえばPIP内でなど、選択されたビデオをいつどのように見るか、およびいつどのように以前のモードに戻るかを事前に決定してよい。
・External video feed mode:
o In some modes, the HMD 102 is mounted outside the operating room, for example, to allow the surgeon 102 to monitor patients waiting in a waiting room or to monitor the progress of different surgical procedures within different operating rooms. Displaying an external video feed such as may be provided by one or more cameras located. These videos may be displayed within the PIP or on the side screen of the HMD 102. They can be displayed one video at a time or as a collection of videos on multiple screens. This mode allows the surgeon to view all available video feeds on multiple screens. Surgeons often watch video feeds from the waiting room, other operating rooms, or search databases of instructional videos that explain how to perform rare procedures, such as those that can occur in unpredictable circumstances. It's fine. The surgeon may predetermine when and how to view selected videos, such as within a PIP, and when and how to return to a previous mode.

・教示モード:
いくつかの実施形態において、システム100は、外科医120と連携する、たとえば年長外科医などの補助外科医(不図示)によって同時にガイドされ得る。補助外科医は、コンピュータ118およびカメラヘッド110に結合され、HMD102と同様に動作する第2のHMDを装着する。第2のHMDもまた術野124のビューを表示し、補助外科医は、HMD102のモジュール130におけるディスプレイと同期されたディスプレイ上のカーソルを制御してよく、外科医120が、補助外科医によって制御されたカーソルを見ることを可能にする。このように、補助外科医は、外科処置中に外科医120をガイドすることができる。同様に、補助外科医は、術前または他のデータなどを外科医120に示す1または複数のPIPを呼び出してよい。
・Teaching mode:
In some embodiments, system 100 may be guided simultaneously by an assistant surgeon (not shown), such as a senior surgeon, working with surgeon 120. The assistant surgeon wears a second HMD that is coupled to computer 118 and camera head 110 and operates similarly to HMD 102. The second HMD also displays a view of the surgical field 124, and the assistant surgeon may control a cursor on a display that is synchronized with the display in module 130 of HMD 102, and the surgeon 120 may control a cursor on a display that is synchronized with the display in module 130 of HMD 102. allows you to see. In this way, the assistant surgeon can guide the surgeon 120 during the surgical procedure. Similarly, the assistant surgeon may invoke one or more PIPs that indicate preoperative or other data, etc. to the surgeon 120.

このモードにおいて、年長外科医は、たとえば外科医120が研修医である場合などに、外科処置を行っている外科医120を指導し得る。いくつかの実施形態において、アイトラッキング部品136(図1C)は、外科医120の凝視を追跡し、外科医120が注視しているHMD102の表示エリアを決定する。システム100は、外科医120が注視しているエリアを示す記号を、第2のHMDを介して補助外科医に表示する。このように、補助外科医は、外科医120の焦点を監視することができる。 In this mode, a senior surgeon may supervise surgeon 120 performing a surgical procedure, such as when surgeon 120 is a resident. In some embodiments, eye tracking component 136 (FIG. 1C) tracks the gaze of surgeon 120 and determines the display area of HMD 102 that surgeon 120 is fixating. The system 100 displays a symbol indicating the area that the surgeon 120 is gazing at to the assistant surgeon via the second HMD. In this way, the assistant surgeon can monitor the focus of the surgeon 120.

いくつかの実施形態において、年長外科医は、処置を行いながら外科医120をガイドするための特徴および記号をオーバレイしてよい。外科医120は、生画像上にオーバレイされたエンド効果を見、このモードにおいて監督外科医が見ているメニューおよび描画オプションを見ることはない。教示モードにおける特徴は、以下を含む。
○図6K~6Oにおいて更に詳しく後述するように、描画オプションを選択し、表示する仮想ツール/マーカ/ポインタ、マーキングの色、マーキングの消去などを選択するための「ペイント」のようなメニューを年長外科医に示すこと。
○年長外科医が、ヘッドジェスチャを用いて、または専用ワンドによってポインタを制御し、または描画することを可能にすること。
○リアルタイム画像に描画する場合、線画(線、記号など)は、患者の解剖学的構造にロックされてよく、すなわち、オーバレイ記号は、(たとえば、外科医が患者の目を動かすと)患者の解剖学的構造にロックされて見えるようにその位置を自動的/動的に変化させる。線画は、3Dであってよい。
○年長外科医は、HMDを身に着けていない場合、指示および描画するためにタッチスクリーンを用いてよい。年長外科医は、たとえば自身のオフィスまたは自宅内で通常のスクリーンおよびマウスを用いて、場合によってはリアルタイム画像上で指示および描画するためにタブレットまたはスマートフォンを用いて、執刀外科医を遠隔でガイドし得る。
○何者かが「描画」モードでシステム100システム100に接続し、生画像フィードに描画することを有効化されたことを執刀外科医に示す記号が、表示画像の角部に表示され得る。
○執刀外科医に消去オプションが提供される。ディスプレイに特徴が描画されると、現在のメニューにメニュー項目が追加され(すなわち、執刀外科医がメニューを呼び出すと、彼にメニューが表示され)、執刀外科医が1または複数の描画特徴を消去することを可能にする。メニューは、単一の「全てを消去する」メニュー項目を選択することによって、全ての描画特徴を消去することを可能にし得る。あるいは、メニューは、外科医120が、どの描画特徴を消去するか、およびその数を選択することを可能にするサブメニューを提示する。
○特徴の描画を容易にするために、生画像フィードをフリーズするフリーズオプションが提供され得る。
○3D記号/マーカ:
・3D記号は、解剖学的構造に対して所与の深さで出現するように両目に表示される記号である。3Dマーカは、3D画像固定記号(たとえば3D直線)を生成する。
・ユーザは、ユーザによって完全に制御される3Dポインタまたはマーカを選択してよく、すなわち、ユーザは、そのXY位置および深さの両方を制御する(ユーザは、たとえば深さ制御ペダルによって有効化されたヘッドジェスチャを用いて、深さを手動で制御してよい)。
・あるいはユーザは、現在フォーカスされている解剖学的構造の深さに自動的にロックする3Dポインタまたはマーカを選択してよく、ユーザが記号を動かすと、ユーザは、記号が解剖学的構造の表面を辿る(たとえば上下に動く)感覚を得る。
・後者が用いられる場合、ユーザによってフォーカスが変更されると、高さは自動的に計算され更新される。たとえば、第1のフォーカスポイントが、角膜のような透明表面上であり、第2のフォーカスポイントが、前嚢上の点のような第1のフォーカスポイントの後側(下側)である場合、(HMDユーザの両目に表示される)2つの画像における記号位置は、新たな深さを反映するように異なる方法で変化する。
○ワンド:
・ワンドは、マウスのような、または遠隔制御装置のようなコントローラであり、任意選択的に様々な種類のボタンを有し、ハンドヘルドであり、無線または有線であり、任意選択的に無菌カバー内にあり、任意選択的に統合された慣性トラッキングを有する。これは、上述したような指示/描画のため、および仮想ツールを制御するための両方に用いられ得る。
・監督年長外科医は、どのように外科処置を行うかを研修医に示すために自然な方法で仮想ツールを動かすためのハンドヘルドコントローラを用いてよい。仮想ツールは、ユーザがHMDを介して生画像上のオーバレイとして見る3Dツールとしてディスプレイ内に出現する。これは、このモードにおいてメニュー/GUIを介してユーザが選択するために利用可能なツールの3Dモデルに基づく。
In some embodiments, the senior surgeon may overlay features and symbols to guide the surgeon 120 while performing the procedure. The surgeon 120 sees the end effects overlaid on the raw image and does not see the menus and drawing options that the supervising surgeon sees in this mode. Features in teach mode include:
o As described in more detail below in Figures 6K-6O, a "Paint"-like menu for selecting drawing options, virtual tools/markers/pointers to display, marking color, erasing markings, etc. Show to the Chief Surgeon.
o Enabling senior surgeons to control the pointer or draw using head gestures or with a dedicated wand.
o When drawing on real-time images, line drawings (lines, symbols, etc.) may be locked to the patient's anatomy, i.e., overlay symbols (e.g., as the surgeon moves the patient's eyes) move the patient's anatomy. Automatically/dynamically change its position so that it appears locked to a scientific structure. The line drawing may be 3D.
o Senior surgeons may use the touch screen for instructions and drawings if they are not wearing an HMD. The senior surgeon may guide the operating surgeon remotely, for example in his or her office or home, using a regular screen and mouse, and possibly using a tablet or smartphone to direct and draw on real-time images. .
o A symbol may be displayed in the corner of the displayed image to indicate to the operating surgeon that someone has connected to the system 100 system 100 in "draw" mode and is enabled to draw on the live image feed.
○ The operating surgeon will be provided with the option to delete. When features are drawn on the display, a menu item is added to the current menu (i.e., when the operating surgeon invokes the menu, the menu is displayed to him), and the operating surgeon clears one or more of the drawn features. enable. The menu may allow all drawing features to be cleared by selecting a single "clear all" menu item. Alternatively, the menu presents a submenu that allows the surgeon 120 to select which drawing features to erase and how many.
o A freeze option may be provided to freeze the raw image feed to facilitate drawing of features.
○3D symbol/marker:
- 3D symbols are symbols that are displayed to both eyes to appear at a given depth relative to the anatomy. A 3D marker generates a 3D image fixed symbol (eg, a 3D straight line).
- The user may select a 3D pointer or marker that is fully controlled by the user, i.e. the user controls both its XY position and depth (the user can, for example, depth may be controlled manually using head gestures).
- Alternatively, the user may select a 3D pointer or marker that automatically locks to the depth of the currently focused anatomical structure, so that as the user moves the symbol, the user can Get the sensation of following a surface (e.g. moving up and down).
- If the latter is used, the height is automatically calculated and updated when focus is changed by the user. For example, if the first focus point is on a transparent surface, such as the cornea, and the second focus point is behind (below) the first focus point, such as a point on the anterior capsule; The symbol positions in the two images (displayed to the HMD user's eyes) change in different ways to reflect the new depth.
○ Wand:
- The wand is a controller, such as a mouse or a remote control device, optionally having buttons of various types, handheld, wireless or wired, optionally within a sterile cover. with optionally integrated inertial tracking. This can be used both for pointing/drawing as described above and for controlling virtual tools.
- The supervising senior surgeon may use a handheld controller to move the virtual tools in a natural way to show the trainee how to perform a surgical procedure. The virtual tool appears in the display as a 3D tool that the user views as an overlay on the live image via the HMD. This is based on a 3D model of the tools available for selection by the user via the menu/GUI in this mode.

外科医120は、UI入力160Aを介して検出される1または複数のハンドフリージェスチャを用いて、システム100に関するシステムモードを選択し切り換える。いくつかの実施形態において、外科医120は、ヘッドトラッカ162によって検出されるヘッドジェスチャを行いながら、同時にフットスイッチ104によって検出される足部運動を行うことによって、システムモードを切り換える。他の実施形態において、外科医120は、マイクロフォン138によって検出される音声コマンドによってシステムを切り換える。コンピュータ119は、システムモードに従って、後続のユーザ入力をどのように解釈するかを決定する。 Surgeon 120 selects and switches system modes for system 100 using one or more hands-free gestures detected via UI input 160A. In some embodiments, the surgeon 120 switches system modes by making head gestures detected by the head tracker 162 while simultaneously making foot movements detected by the footswitch 104. In other embodiments, the surgeon 120 switches the system through voice commands detected by the microphone 138. Computer 119 determines how to interpret subsequent user input according to the system mode.

たとえば、1つのシステムモードにおいて、外科医120によってフットスイッチ104のペダル104Aを押下しながら行われる頭部の上向き回転は、照明システム114による照明の強度を増加させる。異なるシステムモードにおいて、フットスイッチ104のペダル104Aを押下しながら行われる同じヘッドジェスチャは、HMD102を介して表示された画像をスクロールする。外科医120によってフットスイッチ104のペダル104Bを押下しながら行われる横方向のヘッドジェスチャは、これら2つのシステムモードを切り換えてよい。同じジェスチャに対する複数のシステム応答を可能にすることによって、システムモードは、システム100に関するより広範囲の機能を提供し、外科医120が、自身の手を用いることなくシステム100の特徴を制御し、外科処置を行うために両手を空けておくことを可能にする。 For example, in one system mode, upward rotation of the head performed by surgeon 120 while depressing pedal 104A of footswitch 104 increases the intensity of illumination by illumination system 114. In different system modes, the same head gesture performed while pressing pedal 104A of footswitch 104 scrolls the image displayed via HMD 102. A lateral head gesture performed by the surgeon 120 while depressing the pedal 104B of the footswitch 104 may switch between these two system modes. By allowing multiple system responses to the same gesture, system mode provides a broader range of functionality for system 100, allowing surgeon 120 to control features of system 100 without using his or her hands and improve surgical procedures. It allows you to keep both hands free for doing things.

ここで、開示される技術の更なる実施形態に従って構成され動作可能な、図2Aのユーザインタフェースに関する典型的な制御フロー図を示す図2Bが参照される。コンピュータ118(図1B)は、たとえばフットスイッチ104(図1G)のペダルの足での押下のインジケーションを同時に伴うヘッドトラッカ162からのヘッドジェスチャなど、UI入力160Aを介したユーザ入力を受信し、システムモードに依存してシステム応答を決定する、すなわち、応答はモード固有である。1つのシステムモードにおいて、ユーザ入力は、システム100において第1のアクションをもたらし、異なるシステムモードにおいて、同じユーザ入力が、システム100において異なるアクションをもたらし得る。図2Bのフロー図は、複数のシステムモードと関連してユーザインタフェース160を介して制御され得る機能の柔軟性および範囲を示すことが意図される。この図は、単なる典型例であることが意図され、本明細書に開示される任意の特定の実装または例に本発明を限定することは意図されない。 Reference is now made to FIG. 2B, which illustrates an exemplary control flow diagram for the user interface of FIG. 2A, constructed and operative in accordance with further embodiments of the disclosed technology. Computer 118 (FIG. 1B) receives user input via UI input 160A, such as, for example, a head gesture from head tracker 162 with a simultaneous indication of a foot press of a pedal on footswitch 104 (FIG. 1G); Determines the system response depending on the system mode, ie, the response is mode-specific. In one system mode, user input may result in a first action in system 100, and in a different system mode, the same user input may result in different actions in system 100. The flow diagram of FIG. 2B is intended to illustrate the flexibility and range of functionality that may be controlled via user interface 160 in conjunction with multiple system modes. This diagram is intended to be exemplary only and is not intended to limit the invention to any particular implementation or example disclosed herein.

コンピュータ118は、UI入力160Aを介してヘッドトラッカ162およびフットスイッチ104からのユーザ入力を受信する。ケース1。ユーザ入力は、外科医120がフットスイッチ104のペダル104Aを押下しながらヘッドアップジェスチャを行ったというインジケーションである。現在のシステムモードがノーマルであるため、コンピュータ118は、アクション240として示された、HMD102に表示された画像におけるズームアウトを実施する。ケース2。ユーザ入力は、前述と同じ、たとえば外科医120がフットスイッチ104のペダル104Aを押下しながらヘッドアップジェスチャを行ったというインジケーションである。ただし、現在のシステムモードが術前OCT(「術前」モード)に設定されているため、コンピュータ118は、アクション242として示された、術前OCT画像間でのスクロールを実施する。ケース3。ユーザ入力は、外科医120がフットスイッチ104のペダル104Bを押下しながらヘッドアップジェスチャを行ったというインジケーションである。現在のシステムモードがノーマルであるため、コンピュータ118は、アクション244として示すように、システムモードをノーマルからバイタルへ切り換える。モード切換えは、図3Aに関して更に詳しく後述される。 Computer 118 receives user input from head tracker 162 and footswitch 104 via UI input 160A. Case 1. The user input is an indication that the surgeon 120 has performed a heads-up gesture while depressing the pedal 104A of the footswitch 104. Since the current system mode is normal, computer 118 performs a zoom out on the image displayed on HMD 102, shown as action 240. Case 2. The user input is the same as described above, eg, an indication that the surgeon 120 performed a heads-up gesture while depressing the pedal 104A of the footswitch 104. However, because the current system mode is set to preoperative OCT ("preoperative" mode), computer 118 performs scrolling between preoperative OCT images, shown as action 242. Case 3. The user input is an indication that the surgeon 120 has performed a heads-up gesture while depressing the pedal 104B of the footswitch 104. Since the current system mode is normal, computer 118 switches the system mode from normal to vital, as shown as action 244. Mode switching is discussed in more detail below with respect to FIG. 3A.

本明細書において説明される複数のユーザインタフェースから得られた複数のユーザ入力に応答することによって、システム100は、外科医120が外科処置を行うために自身の両手を空けたままで幅広い範囲の動作特徴を制御することを可能にする。入力は、1つのシステムモードにおいて1つのシステム応答を、異なるシステムモードにおいて異なるシステム応答を引き起こしてよく、たとえばヘッドジェスチャ、足での押下など、比較的小さな入力セットによって広範囲の機能を提供する。フットスイッチ104は、システム100の応答を、外科医120による故意のジェスチャに対してのみ制御するために動作する。外科医120によるうっかりしたジェスチャは、フットスイッチ104が同時に押下されない場合、システム100による応答をもたらさない。 By responding to multiple user inputs obtained from multiple user interfaces as described herein, system 100 provides a wide range of operational features that allow surgeon 120 to keep his or her hands free to perform surgical procedures. allows you to control. Inputs may cause one system response in one system mode and different system responses in different system modes, providing a wide range of functionality with a relatively small set of inputs, eg, head gestures, foot presses, etc. Footswitch 104 operates to control the response of system 100 only to intentional gestures by surgeon 120. An inadvertent gesture by the surgeon 120 will not result in a response by the system 100 unless the footswitch 104 is pressed simultaneously.

1つの実施形態によると、外科医120は、HMD102の位置および向きを制御することによって、システムモードを選択してよい。HMD102に関して可能な位置および向きの範囲は、複数のゾーンに分割され、各ゾーンは、異なるシステムモードに対応する。HMD102の位置および向きをゾーンと一致させるように自身の頭部を動かすことによって、外科医120は、そのゾーンに対応するシステムモードを選択し得る。システム100は、新たなモードへの不慮の切換えを防ぐために、外科医120が自身の頭部を操りながらフットスイッチを押下することを必要とし得る。 According to one embodiment, surgeon 120 may select the system mode by controlling the position and orientation of HMD 102. The range of possible positions and orientations for HMD 102 is divided into zones, each zone corresponding to a different system mode. By moving his head to align the position and orientation of HMD 102 with a zone, surgeon 120 may select the system mode that corresponds to that zone. System 100 may require surgeon 120 to press a footswitch while manipulating his or her head to prevent accidental switching to a new mode.

ここで、開示される技術の他の実施形態に従って構成され動作可能な、複数のゾーンに分割されたHMD102(図1A)に関する様々な位置および向きのための典型的なレイアウト300を示す図3Aが参照される。レイアウト300は、それぞれがHMD102に関する複数の向き領域である複数のゾーンを示し、各領域は異なるシステムモードに対応する。システム100は、外科医120が、自身の頭部を回転させることによりHMD102を回転させることによって、1つのシステムモードから他のシステムモードへ切り換えることを可能にする。外科医120は、それぞれが自身の頭部運動の範囲である複数の角度および位置ゾーンを定めることによってHMD102の機能をカスタマイズし、各ゾーンのそれぞれについてどのシステムモードが実施されるかを決定してよい。 3A depicting an exemplary layout 300 for various positions and orientations for a multi-zoned HMD 102 (FIG. 1A) configured and operable in accordance with other embodiments of the disclosed technology. Referenced. Layout 300 shows multiple zones, each zone being multiple orientation areas for HMD 102, each area corresponding to a different system mode. System 100 allows surgeon 120 to switch from one system mode to another by rotating HMD 102 by rotating his or her head. The surgeon 120 may customize the functionality of the HMD 102 by defining multiple angular and positional zones, each of which is a range of his or her head motion, and determine which system mode will be implemented for each of each zone. .

レイアウト300は、それぞれ図1AのHMD102に関するゾーン302、304、306、308、および310を示す。破線312、314、316、および318は、ゾーン302、304、306、308、および310の間の角度閾値を示すことにより、それぞれのゾーンを定める。直線312は、バイタルゾーン308とノーマルゾーン302との間の閾値を定め、直線314は、ノーマルゾーン302と術野ゾーン306との間の閾値を定め、直線314は、ノーマルゾーン302と術前ゾーン306との間の閾値を定め、直線318は、ノーマルゾーン302と看護士ゾーン304との間の閾値を定める。新たなゾーンと一致するようにHMD102の向きを変更することによって閾値312、314、316、および318の1つを横断しながらフットスイッチ104のペダルを押下することにより、システムモードは、新たなゾーンに対応するように切り換わる。 Layout 300 shows zones 302, 304, 306, 308, and 310, respectively, for HMD 102 of FIG. 1A. Dashed lines 312, 314, 316, and 318 define the respective zones by indicating angular thresholds between zones 302, 304, 306, 308, and 310. Straight line 312 defines the threshold between vital zone 308 and normal zone 302, straight line 314 defines the threshold between normal zone 302 and surgical field zone 306, and straight line 314 defines the threshold between normal zone 302 and preoperative zone. 306 , and straight line 318 defines a threshold between normal zone 302 and nurse zone 304 . By depressing the footswitch 104 pedal while crossing one of the thresholds 312, 314, 316, and 318, the system mode changes the orientation of the HMD 102 to match the new zone. Switched to correspond to .

「ノーマル」と付記されたゾーン302は、ノーマルシステムモードを有するHMD102の前方水平の向きと関連する。外科医120が、HMD102をゾーン302と一致させるように自身の頭部を動かしながらフットスイッチ104を押下すると、ノーマルシステムモードが開始される。シャッタ132は閉じており、カメラヘッド110によって取得された画像の生ビデオフィードがHMD102を介してレンダリングされる。 Zone 302 labeled "Normal" is associated with a forward horizontal orientation of HMD 102 having a normal system mode. When the surgeon 120 presses the foot switch 104 while moving his head to align the HMD 102 with the zone 302, the normal system mode is initiated. Shutter 132 is closed and a live video feed of images captured by camera head 110 is rendered via HMD 102.

「看護士」と付記されたゾーン304は、看護士システムモードを有するHMD102の右方向水平の向きと関連する。外科医120が、HMD102をゾーン304と一致させるように自身の頭部を動かしながらフットスイッチ104を押下すると、看護士システムモードが開始される。シャッタ132が開き、ビデオフィードはオフにされ、外科医120は、HMD102を装着しながら看護士を直接見て意思疎通することが可能である。 The zone 304 labeled "Nurse" is associated with the right horizontal orientation of the HMD 102 having the nurse system mode. When the surgeon 120 presses the foot switch 104 while moving his head to align the HMD 102 with the zone 304, the nurse system mode is initiated. The shutter 132 opens and the video feed is turned off, allowing the surgeon 120 to directly see and communicate with the nurse while wearing the HMD 102.

「術前」と付記されたゾーン306は、術前データシステムモードを有する外科医120の頭部の左方向水平の向きと関連する。外科医120が、HMD102をゾーン306と一致させるように自身の頭部を動かしながらフットスイッチ104を押下すると、術前データシステムモードが開始される。シャッタ132は閉じた状態に維持され、HMD102を介して術前データが表示される。いくつかの実施形態において、術前システムモードへの切換え時、UI機能が変化し得る。たとえば、メニュー項目が異なってよく、外科医が術前データを閲覧およびスクロールすることを可能にするために、ヘッドジェスチャは、システム100において他のシステムモードとは異なるアクションを行わせ得る。 Zone 306 labeled "Preoperative" is associated with a left horizontal orientation of the surgeon's 120 head having a preoperative data system mode. When the surgeon 120 presses the footswitch 104 while moving his head to align the HMD 102 with the zone 306, the preoperative data system mode is initiated. The shutter 132 is maintained in a closed state, and preoperative data is displayed via the HMD 102. In some embodiments, UI functionality may change when switching to preoperative system mode. For example, menu items may be different and head gestures may cause different actions to occur in system 100 than in other system modes to allow the surgeon to view and scroll through pre-operative data.

「バイタル」と付記されたゾーン308は、バイタルサインシステムモードを有するHMD102の前方上向きの向きと関連する。外科医120が、HMD102をゾーン308と一致させるように自身の頭部を動かしながらフットスイッチ104を押下すると、バイタルシステムモードが開始され、患者122の1または複数のバイタルサインを示すデータがHMD102を介して表示される。 Zone 308 labeled "Vitals" is associated with a forward and upward orientation of HMD 102 having a vital signs system mode. When the surgeon 120 presses the footswitch 104 while moving his or her head to align the HMD 102 with the zone 308, the vital system mode is initiated and data indicative of one or more vital signs of the patient 122 is transmitted via the HMD 102. will be displayed.

「術野」と付記されたゾーン310は、術野システムモードを有するHMD102の前方下向きの向きと関連する。外科医120が、HMD102をゾーン310と一致させるように自身の頭部を動かしながらフットスイッチ104を押下すると、シャッタ132が開き、表示はオフにされ、外科医120が術野124の現実世界ビューを見ることが可能である。 The zone 310 labeled "operative field" is associated with the forward and downward orientation of the HMD 102 having the surgical field system mode. When the surgeon 120 presses the footswitch 104 while moving his head to align the HMD 102 with the zone 310, the shutter 132 opens, the display is turned off, and the surgeon 120 sees a real world view of the surgical field 124. Is possible.

いくつかの実施形態において、システムモードは、フットスイッチ104(たとえば、HMDのP&Oに基づいてモード切換えを引き起こすための既定のフットスイッチ104内のボタン)を押下している間のみ、HMD102の現在のP&Oに従って決定される。外科医120は、フットスイッチ104を押下しながら角度閾値312、314、316、および318の1または複数を横断するように自身の頭部を動かすことによって、システム100のシステムモードを切り換える。外科医120の頭部の向きが既定の角度を超え、HMD102が新たなゾーンと一致すると、システムモードは、新たなゾーンに対応するシステムモードに切り換わる。たとえば、術前モードに留まるために、外科医120は、フットスイッチ104を押下しながら自身の視線が(左方向への)角度閾値316を超えた状態であるように維持する。フットスイッチ104を最初に押した時、現在のHMDのP&Oが現在のモードの閾値を超えていれば、システムモードは瞬時に切り換わる。この実施形態において、外科医がフットスイッチ104を解放すると、システムモードは再び元のモードへ切り換わる。このモード動作方式は、たとえば、ユーザが術前データまたは看護士を素早く一瞥することを好む場合、有用である。いくつかの実施形態において、外科医がフットスイッチ104を解放すると、システムモードは現在のモードに留まり、ユーザが、システムモードに影響を及ぼすことなく再び頭部を自由に動かすことを可能にする。このモード動作方式は、たとえば、ユーザが長期間にわたり術前データを快適に検討することを好む場合、有用である。 In some embodiments, the system mode changes the HMD 102's current Determined according to P&O. Surgeon 120 switches the system mode of system 100 by moving his head across one or more of angle thresholds 312, 314, 316, and 318 while holding down footswitch 104. When the surgeon's 120 head orientation exceeds the predetermined angle and the HMD 102 aligns with the new zone, the system mode switches to the system mode corresponding to the new zone. For example, to remain in pre-operative mode, the surgeon 120 holds down the footswitch 104 while maintaining his line of sight (to the left) above the angle threshold 316. When the foot switch 104 is first pressed, if the current HMD P&O exceeds the threshold of the current mode, the system mode is switched instantly. In this embodiment, when the surgeon releases footswitch 104, the system mode switches back to the original mode. This mode of operation is useful, for example, if the user likes to quickly glance at pre-operative data or nurses. In some embodiments, when the surgeon releases footswitch 104, the system mode remains in the current mode, allowing the user to move the head freely again without affecting the system mode. This mode of operation is useful, for example, if the user prefers to comfortably review preoperative data over an extended period of time.

角度閾値312、314、316、および318は更に、ヒステリシス有効化制御を可能にし得る。たとえば、ノーマルゾーン302から看護士ゾーン304への閾値を横断する時、より大きな閾値が有効であり、再び看護士ゾーン304からノーマルゾーン302へ横断する時、より小さな角度閾値が有効であってよい。これは、頭部の向きが角度閾値に近い場合、不所望のモード切換えを回避するために有用である。ヒステリシス状態(有効/無効)およびヒステリシスサイズは、外科医120によって構成され得る。システム100は、単一の閾値から2つのヒステリシス生成閾値を自動的に生成してよい。 Angle thresholds 312, 314, 316, and 318 may further enable hysteresis-enabled control. For example, when crossing the threshold from normal zone 302 to nurse zone 304, a larger threshold may be in effect, and when crossing again from nurse zone 304 to normal zone 302, a smaller angular threshold may be in effect. . This is useful to avoid unwanted mode switching when the head orientation is close to the angle threshold. The hysteresis state (enabled/disabled) and hysteresis size may be configured by the surgeon 120. System 100 may automatically generate two hysteresis-generating thresholds from a single threshold.

他の実施形態において、ゾーン302、304、306、308、および310は、正確な閾値で定められるわけではない。むしろ、ゾーン302、304、306、308、および310と関連するモードのアクティブ化は、外科医120による相対的なヘッドジェスチャに基づく。たとえば、自身の頭部をいずれかの方向へ10度より大きく向けながらフットスイッチ104のペダル104Cを押下することにより、現在のシステムモードから他のシステムモードへ切り換えるために必要な相対的回転方向に対応するようにシステムモードが切り換わる。 In other embodiments, zones 302, 304, 306, 308, and 310 are not defined by precise thresholds. Rather, activation of modes associated with zones 302, 304, 306, 308, and 310 is based on relative head gestures by surgeon 120. For example, by depressing pedal 104C of foot switch 104 while turning one's head more than 10 degrees in either direction, one can rotate in the direction of relative rotation required to switch from the current system mode to another system mode. The system mode switches accordingly.

更なる実施形態において、フットスイッチ104からの入力は、モードを切り換えるために必要ではない。角度閾値312、314、316、および318は、システムモードを変更するトリガとして用いられる。領域の各々に対応するシステムモードは、HMD102の現在のP&Oに従って決定される。たとえば、術前モードに留まるために、外科医120は、自身の視線が(左方向への)角度閾値416を超えた状態であるように維持する必要がある。 In further embodiments, input from footswitch 104 is not required to switch modes. Angle thresholds 312, 314, 316, and 318 are used as triggers to change system modes. The system mode corresponding to each of the areas is determined according to the current P&O of the HMD 102. For example, to remain in preoperative mode, the surgeon 120 must maintain his line of sight (to the left) above the angle threshold 416.

また他の実施形態において、頭部を少し回すことによって角度閾値に「触れる」ことは、それぞれのゾーンに対応するシステムモードを切り替える。外科医120がフットスイッチ104を押下しながら角度閾値316に「触れる」と、システムは、ノーマルモードから、術前領域306に対応する術前モードへ切り換わる。このモードの間、外科医120は、自身の首を長期間歪めることなく、快適に前方へ視線を向けて術前データを見る。フットスイッチ104を押下しながら2度目に閾値316に触れることにより、システムモードは、ノーマル領域302に対応する「ノーマル」へ再び切り換わり、外科医がHMD102を介して術野124の生拡大画像を見ることを可能にする。フットスイッチ104は、フットスイッチ104の特定のペダルを押下しながら同時にヘッドジェスチャによって閾値に触れることのみが新たなシステムモードへの切換えをもたらすように、システムモード間での切換えを有効化するために用いられる。これは、不慮のモード切換えを回避するためである。 In yet other embodiments, "touching" the angle threshold by slightly turning the head switches the system mode corresponding to the respective zone. When the surgeon 120 "touches" the angle threshold 316 while depressing the footswitch 104, the system switches from the normal mode to the preoperative mode corresponding to the preoperative region 306. During this mode, the surgeon 120 comfortably looks forward and views preoperative data without distorting his or her neck for long periods of time. By touching the threshold value 316 a second time while pressing the foot switch 104, the system mode switches again to "Normal" corresponding to the normal region 302, and the surgeon views the live enlarged image of the surgical field 124 via the HMD 102. make it possible. The footswitch 104 is configured to enable switching between system modes such that only pressing a particular pedal of the footswitch 104 and simultaneously touching the threshold by a head gesture results in switching to a new system mode. used. This is to avoid accidental mode switching.

ここで、開示される技術の実施形態に従って構成され動作可能な、図3Aに関して説明されたゾーンと関連する、様々なシステムモードを呼び出すためにどのヘッドジェスチャが必要であるかをユーザに示すヒントがオーバレイされた生画像320の表示を示す図3Bが参照される。HMD102の視野上に表示された画像320は、ゾーン302と関連するノーマルモードに対応する。いくつかの実施形態において、外科医120は、システム100に関して、どのヘッドジェスチャがどのシステムモードを呼び出すかを外科医に示唆する特徴324、326、328、および330を表示することを選択する。特徴324、326、328、および330は、画像320の表示を不明瞭にしないように、視野の周囲に透明または半透明に表示される。符号「看護士」を有する特徴324は、外科医に、頭部を特徴324の方向に右へ向けることによって、図3Aのゾーン304に対応する看護士モードが呼び出されることを示唆する。符号「術前」を有する特徴326は、外科医に、頭部を特徴326の方向に左へ向けることによって、図3Aのゾーン306に対応する術前モードが呼び出されることを示唆する。符号「バイタル」を有する特徴328は、外科医に、頭部を特徴328の方向に上へ向けることによって、図3Aのゾーン308に対応するバイタルモードが呼び出されることを示唆する。符号「術野」を有する特徴330は、外科医に、頭部を特徴330の方向に下へ向けることによって、図3Aのゾーン310に対応する術野モードが呼び出されることを示唆する。この特徴は、外科医120がシステムに未だ不慣れである場合に有用であり、必要に応じてオンまたはオフに切り換えられ得る。同様に、外科医120は、状況と必要に応じて、フットスイッチ104を用いることなくヘッドジェスチャのみによるモード切換えを自由に有効化することを選択してよく、またはフットスイッチ104を介した有効化へ復帰してよい。 Here, hints are provided indicating to the user which head gestures are required to invoke various system modes associated with the zones described with respect to FIG. 3A, configured and operable in accordance with embodiments of the disclosed technology. Reference is made to FIG. 3B, which shows a display of an overlaid raw image 320. The image 320 displayed on the field of view of the HMD 102 corresponds to the normal mode associated with the zone 302. In some embodiments, the surgeon 120 elects to display features 324, 326, 328, and 330 regarding the system 100 that indicate to the surgeon which head gestures invoke which system modes. Features 324, 326, 328, and 330 are displayed transparently or translucently around the periphery of the field of view so as not to obscure the display of image 320. Feature 324 with the symbol "Nurse" suggests to the surgeon that by turning his head to the right in the direction of feature 324, the nurse mode corresponding to zone 304 of FIG. 3A is invoked. Feature 326 with the symbol "pre-operative" suggests to the surgeon that by turning the head to the left in the direction of feature 326, the pre-operative mode corresponding to zone 306 of FIG. 3A is invoked. Feature 328 with the symbol "Vital" suggests to the surgeon that by turning the head upwards towards feature 328, the vitals mode corresponding to zone 308 of FIG. 3A is invoked. The feature 330 with the symbol "field" indicates to the surgeon that by pointing the head down in the direction of the feature 330, the field mode corresponding to zone 310 of FIG. 3A is invoked. This feature is useful if the surgeon 120 is still new to the system and can be turned on or off as needed. Similarly, the surgeon 120 may freely choose to enable mode switching via head gestures only, without the footswitch 104, or via the footswitch 104, depending on the situation and need. You may return.

1つの実施形態において、特徴324、326、328、および330は、外科医120が、ヘッドジェスチャに基づくモード切換えを有効化するためにフットスイッチ104を押下した時のみ表示される。任意選択的に、特徴324、326、328、および330の表示は、デフォルト設定であってよい。留意すべき点として、特定の特徴324、326、328、および330の表示は、単なる典型例である。一般に、特徴は、現在のモードに対応する方式で表示される。したがって、異なるシステムモードは、異なる特徴を表示させる。たとえば、システム100が術前モードである場合、ノーマルモードへ戻るためには頭部を右に向けることを外科医120に指示する1つの特徴のみが、視野内の画像に重ねて表示される。そのような場合、現在「看護士」を示している特徴324はノーマルを示し、特徴326、328、および330は表示されない。 In one embodiment, features 324, 326, 328, and 330 are displayed only when surgeon 120 presses footswitch 104 to enable head gesture-based mode switching. Optionally, the display of features 324, 326, 328, and 330 may be default settings. It should be noted that the display of specific features 324, 326, 328, and 330 is merely exemplary. Generally, features are displayed in a manner that corresponds to the current mode. Therefore, different system modes cause different features to be displayed. For example, when system 100 is in pre-operative mode, only one feature is displayed superimposed on the image in the field of view, instructing surgeon 120 to turn the head to the right to return to normal mode. In such a case, feature 324, which currently indicates "nurse," would indicate normal and features 326, 328, and 330 would not be displayed.

外科医120は、スクラッチ、または既存のモードを複写し、タッチスクリーン108を用いてそれを修正することによって、システムモードを定義し構成してよい。少なくとも2つのシステムモードが定義されると、外科医120は、HMD102を装着し、モード切換えが次に引き起こされることを所望する概ねの方向を凝視し、閾値によって定められたゾーンの各々と関連するモードを選択することによって、システムモードを向き領域と関連付けてよい。手術室内の位置によってモードが追加的に定義されると、外科医120は、システムモード切換えを引き起こす所望の位置へ物理的に移動してよい。これは、様々なシステム設定および構成をサポートする特別メニューおよびジェスチャを有する専用システムモードにおいて行われる。これは任意選択的に、初期セットアップまたは構成段階として各新規ユーザによって行われる。ユーザは、HMDメニューを介して単独で、またはタッチスクリーン上でGUIを操作する第2の人物の助けを借りて、モード指定を呼び出し操作してよい。 The surgeon 120 may define and configure system modes by scratching or copying an existing mode and modifying it using the touch screen 108. Once at least two system modes have been defined, the surgeon 120 wears the HMD 102 and gazes in the general direction in which he or she wishes a mode switch to occur next, and selects the mode associated with each of the zones defined by the thresholds. A system mode may be associated with an orientation region by selecting . Once the mode is additionally defined by location within the operating room, the surgeon 120 may physically move to the desired location to cause the system mode switch. This is done in a dedicated system mode with special menus and gestures that support various system settings and configurations. This is optionally done by each new user as an initial setup or configuration step. The user may invoke and manipulate the mode designation alone via the HMD menu or with the aid of a second person operating the GUI on the touch screen.

デフォルト表示状態は、フルスクリーン状態である。この状態において、HMD102は、外科医120に対し固定された状態で出現するフルスクリーンディスプレイ固定画像を表示する。HMD102を介して表示されたコンテンツは、HMD102にしっかり吊り下げられたスクリーンとして出現する。外科医120が自身の頭部を動かすと、スクリーンは彼と共に動き、彼に対し固定された状態で出現する。フルスクリーン状態に加えて、システム100は、仮想スクリーン状態を提供する。外科医120は、フルスクリーン状態から仮想スクリーン状態を呼び出してよい。仮想スクリーン状態は、たとえばフットスイッチ104のペダル104Bの押下、ヘッドジェスチャまたは音声コマンドの使用など、上述したユーザインタフェース方法の任意の組み合わせを用いて呼び出され得る。仮想スクリーン状態は、スクリーン状態のみを変化させ、現在のモードの他の全てのシステム特性(たとえば生画像フィードの表示)を変えずに維持する。 The default display state is a full screen state. In this state, HMD 102 displays a full screen display fixed image that appears fixed to surgeon 120. Content displayed via the HMD 102 appears as a screen firmly suspended from the HMD 102. As the surgeon 120 moves his head, the screen moves with him and appears fixed relative to him. In addition to full screen states, system 100 provides virtual screen states. Surgeon 120 may invoke the virtual screen state from the full screen state. The virtual screen state may be invoked using any combination of the user interface methods described above, such as by pressing pedal 104B of footswitch 104, using head gestures or voice commands. Virtual screen state changes only the screen state, leaving all other system characteristics of the current mode unchanged (eg, displaying the live image feed).

開示される技術の更なる実施形態によると、システムモード間の切換えは、仮想スクリーン状態によって実現される。仮想スクリーン状態において、コンテンツは、手術室に固定された状態で出現する世界固定の1または複数の仮想スクリーン内に表示される。外科医120が自身の頭部を動かすと、仮想スクリーンは、彼の視野の内外へ動き、そこに表示されたコンテンツを外科医120がスクロールすることを可能にする。外科医120と、仮想スクリーンの仮想位置との間の距離に依存して、外科医120は、一度に複数の仮想スクリーンを見得る。これは、図5Cに関して更に詳しく後述される。 According to further embodiments of the disclosed technology, switching between system modes is achieved by virtual screen states. In the virtual screen state, content is displayed in one or more world-fixed virtual screens that appear fixed in the operating room. As the surgeon 120 moves his head, the virtual screen moves in and out of his field of view, allowing the surgeon 120 to scroll through the content displayed thereon. Depending on the distance between the surgeon 120 and the virtual location of the virtual screen, the surgeon 120 may view multiple virtual screens at one time. This is discussed in more detail below with respect to FIG. 5C.

仮想スクリーン状態を用いてシステムモードを切り換えるために、各システムモードは、そのシステムモードが選択された場合に外科医120がフルスクリーン状態で見ることになるコンテンツを表示しサムネイルの一種として機能する仮想スクリーンによって示され得る。これにより、外科医120は、モードを切り換えることなく、様々なシステムモードにおいて利用可能なコンテンツを同時にプレビューすることができる。仮想スクリーン上に表示されるコンテンツの詳細および解像度は、スクリーンサイズ、技術的問題、および帯域幅への制限によって、対応するフルスクリーン状態で表示されるものとは異なり得る。たとえば、フルスクリーン状態で出現するオーバレイ記号は、仮想スクリーン状態で表示されたサムネイル画像には出現しない場合がある。ただし、仮想スクリーンおよびフルスクリーン状態の両方で画像は実質的に同様である。外科医120は、たとえば既定の期間仮想スクリーンを凝視すること、またはフットスイッチ104の押下を伴うヘッドジェスチャなど、任意の適当なUI入力を用いて、仮想スクリーン状態でシステムモードを切り換えてよい。たとえば表示がオフにされたシステムモードのように、システムモードの全てが必ずしも仮想スクリーンによって表現されるわけではない。 To switch between system modes using virtual screen states, each system mode has a virtual screen that displays the content that the surgeon 120 would see in full screen if that system mode is selected, and that acts as a type of thumbnail. It can be shown by This allows the surgeon 120 to simultaneously preview content available in various system modes without switching modes. The details and resolution of the content displayed on the virtual screen may differ from that displayed in the corresponding full screen state due to screen size, technical issues, and limitations on bandwidth. For example, an overlay symbol that appears in a full screen state may not appear in a thumbnail image displayed in a virtual screen state. However, the images are substantially similar in both virtual screen and full screen conditions. The surgeon 120 may switch system modes in the virtual screen state using any suitable UI input, such as, for example, staring at the virtual screen for a predetermined period of time or a head gesture with a press of the footswitch 104. Not all system modes are necessarily represented by a virtual screen, such as a system mode with the display turned off.

システムモードが選択されると、スクリーン状態は、選択されたモードにおいてフルスクリーン状態に自動的に切り換わる。外科医120は、モードの切換え後、システム100が仮想スクリーン状態に留まるように構成してよい。この場合、スクリーン状態以外の全てのシステム特性が変化する。1つの実施形態において、仮想スクリーン状態は、それ自体が、外科医120がいくつかの仮想スクリーンを同時に見ることを可能にするシステムモードである。この場合、ユーザインタフェース特性を含む他の全てのシステム特性は、このシステムモードのために独自に定義される。 When the system mode is selected, the screen state automatically switches to full screen state in the selected mode. Surgeon 120 may configure system 100 to remain in the virtual screen state after switching modes. In this case, all system characteristics except the screen state change. In one embodiment, the virtual screen state is itself a system mode that allows the surgeon 120 to view several virtual screens simultaneously. In this case, all other system properties, including user interface properties, are uniquely defined for this system mode.

いくつかの実施形態において、システムモードは、タッチスクリーン108を介して切り換えられ得る。いくつかのアプリケーションにおいて、たとえば看護士などの第三者が異なるシステムモードに切り換えることを可能にすることが望ましい。この場合、看護士は、コンピュータ118に結合されたタッチスクリーンを提供される。タッチスクリーン108は、出席している無菌外科医のいずれかによる手術室内での使用のために無菌ナイロンでコーティングされ得る。 In some embodiments, system modes may be switched via touch screen 108. In some applications, it is desirable to allow a third party, such as a nurse, to switch to different system modes. In this case, the nurse is provided with a touch screen coupled to the computer 118. The touch screen 108 may be coated with sterile nylon for use within the operating room by any of the attending sterile surgeons.

いくつかの実施形態において、システムモードは、音声コマンドまたはたとえば舌打ちなどの他の音響コマンドを介して切り換えられ得る。マイクロフォン138は、外科医120によって発された1または複数の音響コマンドを記録する。コンピュータ118は、たとえばシステムモードの切換えなどの様々なシステム機能を決定するために、音響コマンドを解析する。誤ったアクティブ化を回避するために、システム100は、たとえばシステム100の識別名の発声などによって、識別音と共に開始する音響コマンドのみに応答するように構成され得る。たとえば、外科医120は、システム100の識別名を読み上げ、システム100にノーマルモードへ切り換えるように指令することによって、ノーマルモードへ切り換えてよい。 In some embodiments, system modes may be switched via voice commands or other acoustic commands, such as a tongue click. Microphone 138 records one or more acoustic commands issued by surgeon 120. Computer 118 analyzes the acoustic commands to determine various system functions, such as switching system modes. To avoid false activation, system 100 may be configured to respond only to acoustic commands that begin with an identifying tone, such as by speaking the system's 100 identifying name. For example, surgeon 120 may switch to normal mode by reading the identification name of system 100 and commanding system 100 to switch to normal mode.

開示される技術の他の実施形態によると、HMD102を介してメニューが表示される。メニューは、たとえばペダル104Bなどのフットスイッチ104のペダルを押下することによって、またはたとえば音声制御または専用ヘッドジェスチャなどの他のUI手段によって呼び出され得る。メニューの呼出しは、HMD102を介して現在表示されたコンテンツにメニューをオーバレイさせ、ヘッドジェスチャを介してオーバレイメニュー内の項目をナビゲートおよび選択することを可能にする。メニューは、HMD102を介して表示された現在の画像への半透明ディスプレイ固定オーバレイとして、または個別の仮想スクリーン内などに表示され得る。 According to other embodiments of the disclosed technology, a menu is displayed via the HMD 102. The menu may be invoked by pressing a pedal of footswitch 104, such as pedal 104B, or by other UI means, such as voice control or dedicated head gestures. Menu invocation causes a menu to overlay the currently displayed content via HMD 102 and allows items within the overlay menu to be navigated and selected via head gestures. The menu may be displayed, such as as a translucent display fixed overlay onto the current image displayed via the HMD 102, or within a separate virtual screen.

たとえば、HMD102の異なる位置および向きが異なる機能に対応する図3Aに示す概念に従って、1つの位置および向きは、メニュー表示に対応してよい。HMD102を装着している外科医が既定の方向、たとえば下方向を見ると、メニューが表示される。いくつかの実施形態において、メニューは最初、少ない表示エリアしか占めないように小型または折畳み方式で表示され得る。他の実施形態において、メニューは、たとえばHMD102の前方向と直交するように、HMD102の前方向から離れる方向に(折畳みまたは通常状態で)表示される。メニューは、外科医が所定の期間、既定の方向を見続けた後、完全に開き得る。いくつかの実施形態において、メニューは、外科医が、他の機能を有効化するように構成されたヘッドジェスチャの一部として自身の頭部を向け、または方向付けた場合、呼び出されない。外科医120は、ヘッドジェスチャを介して、HMD固定オーバレイとして表示されたメニューをナビゲートし制御する。いくつかの実施形態において、フットスイッチ104の押下は、メニューを呼び出し、ユーザが、ヘッドジェスチャを用いて様々なメニュー項目をナビゲートし目立たせることを可能にし、フットスイッチの解放は、メニュー項目をアクティブ化させる。たとえば、メニュー項目を選択するために、外科医120は、フットスイッチ104における利用可能なペダルを押下し、メニュー項目を選択するために自身の頭部を操る。フットスイッチ104の解放は、選択されたメニュー項目に対応するアクションをアクティブ化する。 For example, one position and orientation may correspond to a menu display, according to the concept shown in FIG. 3A, where different positions and orientations of the HMD 102 correspond to different functions. When the surgeon wearing the HMD 102 looks in a predetermined direction, for example, downward, a menu is displayed. In some embodiments, the menu may initially be displayed in a compact or collapsed format so that it occupies less display area. In other embodiments, the menu is displayed in a direction away from the front of the HMD 102 (in a folded or normal state), for example, perpendicular to the front direction of the HMD 102. The menu may fully open after the surgeon continues to look in a predetermined direction for a predetermined period of time. In some embodiments, the menu is not invoked if the surgeon turns or orients his or her head as part of a head gesture configured to activate other functions. The surgeon 120 navigates and controls menus displayed as HMD fixed overlays via head gestures. In some embodiments, pressing the footswitch 104 brings up a menu and allows the user to navigate and highlight various menu items using head gestures, and releasing the footswitch brings up the menu items. Activate. For example, to select a menu item, surgeon 120 depresses an available pedal on footswitch 104 and manipulates his head to select the menu item. Release of footswitch 104 activates the action corresponding to the selected menu item.

メニューは、限定されないがたとえばシステム100に関して利用可能な様々なシステムモードなどの任意の数のパラメータを羅列してよい。各システムモードは、記号、またはたとえばシステムモードのテキスト表現などのテキスト、たとえば「ノーマル」、「看護士」、「術前」などを含むメニュー項目によって表現される。システムモードに追加される他のメニューオプションがメニューに含まれ得る。追加のメニューオプションは、そのシステムモードにおいて制御可能な特性に関する、モード固有であってよい。たとえば、ノーマルモードにおいて、メニューは、投光照明をオンおよびオフに切り換え、赤目照明をオンおよびオフに切り換えることを可能にする項目を含んでよい。術前モードにおいて、これらのオプションは出現せず、代わりに、術前メニューは、利用可能な術前データセットを含むフォルダの開放を有効化し、どのデータセットを表示するかを選択するためのサブメニューを表示してよい。術前メニューは更に、術前データを表示するための様々な属性を制御するための項目を含んでよい。メニューオプションは、モード固有、処置固有、および段階固有であってよく、すなわち、システムモードおよび処置中の段階に依存してメニュー外観は変化してよい。システムモード間の切換えに加えて、メニューは、状態間の切替えを可能にする。 The menu may list any number of parameters, such as, but not limited to, various system modes available for system 100. Each system mode is represented by a symbol or a menu item that includes text such as a textual representation of the system mode, eg, "Normal," "Nurse," "Pre-op," etc. Other menu options that are added to the system mode may be included in the menu. Additional menu options may be mode-specific regarding controllable characteristics in that system mode. For example, in normal mode, the menu may include items that allow turning floodlights on and off and red-eye lighting on and off. In preoperative mode, these options do not appear; instead, the preoperative menu enables the opening of folders containing available preoperative datasets, and a subsection for selecting which datasets to display. You can display the menu. The preoperative menu may further include items for controlling various attributes for displaying preoperative data. Menu options may be mode-specific, procedure-specific, and stage-specific, ie, the menu appearance may change depending on the system mode and stage during the procedure. In addition to switching between system modes, menus allow switching between states.

いくつかの実施形態において、メニューは、HMD102によって提供される表示エリアの中心に表示された生画像を遮断しないように、HMD102のディスプレイの余白に表示される。外科医120が、余白に表示されたメニューの各メニュー項目をナビゲートすると、外科医120に、彼がメニュー上のどこにいるか、およびそのメニュー項目を選択する効果が何であるかを示すために、メニュー項目の機能は一時的に有効化され得る。たとえば、外科医120が、緑色染料を噴射された膜を見ることを可能にするために緑色を強調するメニュー項目の上でナビゲートすると、その機能は一時的に有効化され、外科医120が生画像を注視し続けることを可能にしながら、外科医120に、彼が現在どのメニュー項目をナビゲートしているか、およびそのメニュー項目を選択する効果が何であるかを示してよい。ただし、いくつかのメニュー項目は、HMD102を介して表示された生画像を凝視しながら瞬時に明らかではない機能と関連し得る。外科医120が、自身によるメニューのナビゲーションを追跡しながら生画像を注視し続けることを可能にするために、新たなメニュー項目が強調された時、たとえば音または振動などの非視覚インジケータが引き起こされ得る。これは、外科医120が、自身によるメニューのナビゲーションに直接目を向けることなくそれを追跡することを可能にするので、外科医120は、生画像を注視し続けることができる。 In some embodiments, the menu is displayed in the margin of the HMD 102 display so as not to block the live image displayed in the center of the display area provided by the HMD 102. As the surgeon 120 navigates through each menu item in the menu displayed in the margin, the menu item is displayed to indicate to the surgeon 120 where he is on the menu and what the effect of selecting that menu item is. The functionality may be enabled temporarily. For example, if the surgeon 120 navigates over a menu item that emphasizes the color green to allow viewing of membranes that have been jetted with green dye, that feature will be temporarily enabled and the surgeon 120 will be able to view the raw The surgeon 120 may be shown which menu item he is currently navigating to and what the effect of selecting that menu item is, while allowing him to maintain his gaze on the menu item. However, some menu items may be associated with functionality that is not immediately apparent while staring at the live image displayed via the HMD 102. A non-visual indicator, such as a sound or vibration, may be triggered when a new menu item is highlighted to allow the surgeon 120 to keep his gaze on the live image while tracking his navigation of the menu. . This allows the surgeon 120 to track his or her navigation of the menu without looking directly at it, so the surgeon 120 can remain focused on the live image.

いくつかの実施形態において、ディスプレイの右側余白におけるメニューは、アプリケーション専用である。そのようなアプリケーションの例は、術前OCTアプリケーション、教示アプリケーション、事前計画アプリケーション、フェイコビトレクトミー設定およびメトリクスアプリケーション、術中OCTアプリケーションなどを含む。たとえば、フットスイッチメニューボタンを押下すると、ディスプレイの左側余白におけるメニューはメインメニューであり、ディスプレイの右側余白におけるメニューはアプリケーション専用であり、対応するメニュー項目をアクティブ化することによってアプリケーションをオンにすることを可能にする。メニューの2つのブランチ(すなわち、ディスプレイの左側および右側余白におけるメニュー)間の切換えは、頭部を左右に向けることによって行われる。 In some embodiments, the menu in the right margin of the display is application-specific. Examples of such applications include preoperative OCT applications, teaching applications, preplanning applications, phacovitrectomy settings and metrics applications, intraoperative OCT applications, and the like. For example, when you press a footswitch menu button, the menu in the left margin of the display is the main menu, the menu in the right margin of the display is dedicated to the application, and you can turn on the application by activating the corresponding menu item. enable. Switching between the two branches of the menu (ie the menus on the left and right margins of the display) is done by turning the head from side to side.

他の実施形態において、アプリケーションがオンにされ、次にフットスイッチメニューボタンが押下されると、右側余白に出現するメニューは、アクティブ化されたアプリケーションのための専用メニューである。たとえば、術前OCTアプリケーションがアクティブ化されると、B走査を有するPIPがディスプレイ内に出現し、B走査の位置を示す直線が生画像上にオーバレイされる。フットスイッチメニューボタンが押下されると、右側余白に出現するメニューは、ディスプレイの右側余白における一般アプリケーションメニューではなく術前OCTアプリケーションのための専用メニューである。外科医120は、たとえば生画像上のB走査位置を示す直線のオーバレイをオンおよびオフにするため、異なるOCT走査セットがPIP内に表示するために選択され得る他のスクリーンへ切り換えるため、術前OCTアプリケーションをオフにするため、などのために、専用メニューからメニュー項目をナビゲートし選択してよい。術前OCTアプリケーションが閉じられ、次にフットスイッチメニューボタンが押下されると、ディスプレイの右側余白に一般アプリケーションメニューが出現する。留意すべき点として、これらの例は、UI160を介して制御され得るシステム100の特徴の範囲を例示するために与えられたものにすぎない。 In other embodiments, when an application is turned on and the footswitch menu button is then pressed, the menu that appears in the right margin is a dedicated menu for the activated application. For example, when a preoperative OCT application is activated, a PIP with a B-scan appears in the display and a straight line indicating the location of the B-scan is overlaid on the raw image. When the footswitch menu button is pressed, the menu that appears in the right margin is a dedicated menu for preoperative OCT applications rather than the general application menu in the right margin of the display. The surgeon 120 can view the preoperative OCT, for example, to turn on and off a linear overlay indicating the B-scan position on the raw image, to switch to other screens where different OCT scan sets can be selected for display within the PIP, etc. Menu items may be navigated and selected from dedicated menus to turn off applications, etc. When the preoperative OCT application is closed and the footswitch menu button is next pressed, a general application menu will appear in the right margin of the display. Note that these examples are provided merely to illustrate the range of features of system 100 that may be controlled via UI 160.

更なる実施形態において、メニューを呼び出し操作するために用いられたのと同じフットスイッチボタンは、フットスイッチボタンを押下しながら同時に頭部を回すことによって、スクリーンの切換えも有効化してよい。たとえば、フットスイッチメニューボタンを押下しながら、頭部をわずかに右へ向けると、ディスプレイの右側余白に出現するメニューブランチ内の第1のメニュー項目が強調される。頭部を更に右へ向けることは、スクリーンの切換えを引き起こし得る。 In a further embodiment, the same footswitch button used to invoke and operate the menu may also enable screen switching by simultaneously pressing the footswitch button and rotating the head. For example, turning the head slightly to the right while holding down the footswitch menu button will highlight the first menu item in the menu branch that appears in the right margin of the display. Turning the head further to the right may cause the screen to switch.

以下の例は、処置固有および段階固有のメニューオプションに関して与えられる。白内障処置の間、外部機械(不図示)がシステム100に接続され得る。外部機械は、ディスプレイモジュール130にレンダリングされた生拡大ビデオ上のオーバレイとして表示するためのデータを導入する。外部機械が接続されたことをシステム100が識別すると、ディスプレイモジュール130は、「外部データオーバレイ」および「破裂ガイダンス」の「有効」および「無効」状態を切り替えるためのメニューオプションを表示する。取り込まれたデータに基づいて、たとえば超音波水晶体乳化吸引段階などの処置段階が完了したことをシステム100が識別すると、ディスプレイモジュール130は、「破裂ガイダンス」ではなく「IOL整合性ガイダンス」の「有効」および「無効」を切り替えるためのメニューオプションを表示する。 The following examples are given for treatment-specific and stage-specific menu options. During cataract treatment, an external machine (not shown) may be connected to system 100. The external machine introduces data for display as an overlay on the rendered live enlarged video on display module 130. When the system 100 identifies that an external machine is connected, the display module 130 displays menu options for toggling between "enabled" and "disabled" states of "external data overlay" and "rupture guidance." When the system 100 identifies that a treatment step, such as a phacoemulsification step, is complete based on the captured data, the display module 130 displays an "enabled" flag for "IOL integrity guidance" instead of "rupture guidance." ” and “Disabled.”

メニューは、新たなシステムモードを選択し切り換えること、および以前のシステムモードへ戻ることを含む、システム100の特徴および態様を制御するために用いられ得る。P&Oゾーンのみに従ってシステムモードにアクセスすることは、利用可能なシステムモードの数を、視野内のゾーンの数に制限し得るので、メニューは、利用可能なシステムモードの数を増加することを可能にし得る。したがって、1つのシステムモードは、他のシステムモードを選択するためのメニュー項目を提示するメニューモードであると同時に、追加のシステム特徴およびパラメータを制御するための項目であってよい。メニューモードである間、システムモードに関するメニューは、UI機能モード固有で、HMD102を介して表示されてよく、すなわち外科医120による特定のジェスチャおよび動きは、メニューモードである間、1つの機能をもたらし、異なるシステムモードにおいて異なる機能をもたらす。メニューモードは、たとえばフットスイッチ104におけるペダル104Cの押下、マイクロフォン138によって記録される音声コマンドの発出、ヘッドジェスチャの実行、眼部運動などの1または複数を行うことなど、任意の適当なUIインタフェースを用いて呼び出され得る。 The menus may be used to control features and aspects of system 100, including selecting and switching to new system modes and returning to previous system modes. Accessing system modes according to P&O zones only may limit the number of available system modes to the number of zones in view, so the menu allows to increase the number of available system modes. obtain. Thus, one system mode may be a menu mode presenting menu items for selecting other system modes, as well as items for controlling additional system features and parameters. While in menu mode, a menu for system mode may be UI function mode specific and displayed via HMD 102, i.e. certain gestures and movements by surgeon 120 result in one function while in menu mode; Provides different functionality in different system modes. Menu mode may be configured to perform any suitable UI interface, such as by performing one or more of the following: pressing pedal 104C on footswitch 104, issuing a voice command recorded by microphone 138, performing a head gesture, making eye movements, etc. can be called using

ここで、全体として、開示される技術の更なる実施形態に従って構成され動作可能な、拡大画像414の表示にオーバレイされた典型的なシステムモードメニューを示す図4A~4Cが参照される。後述する正確な実装の詳細は、典型例として意図され、本発明を限定するものではない。システムモードメニュー400は、外科医120が、生画像ストリーム414を見ながらシステムモードを切り換えることを可能にする。システムモードメニュー400は、図3Aのゾーンのレイアウトと同様に出現するが、これは必要条件ではない。外科医120は、フルスクリーン状態で構成されたHMD102(図1A)を介して術野124の生拡大画像ストリーム414を見る。外科医120は、たとえばフットスイッチ104のペダル104Bを押下することなどの既定のフットジェスチャを行う。それに応答して、コンピュータ118は、拡大画像ストリーム414上にオーバレイされたシステムモードメニュー400を表示する。システムモードメニュー400のメニュー項目は、たとえば表示画像を不明瞭にしないために、拡大画像ストリーム414上に透明にオーバレイされる。 Reference is now made generally to FIGS. 4A-4C, which illustrate exemplary system mode menus overlaid on a display of an enlarged image 414, constructed and operable in accordance with further embodiments of the disclosed technology. The precise implementation details described below are intended as exemplary and not as limitations of the invention. System mode menu 400 allows surgeon 120 to switch system modes while viewing live image stream 414. The system mode menu 400 appears similar to the zone layout of FIG. 3A, although this is not a requirement. Surgeon 120 views live magnified image stream 414 of surgical field 124 via HMD 102 (FIG. 1A) configured in full screen mode. Surgeon 120 performs a predetermined foot gesture, such as, for example, depressing pedal 104B of footswitch 104. In response, computer 118 displays system mode menu 400 overlaid on enlarged image stream 414. The menu items of system mode menu 400 are transparently overlaid on enlarged image stream 414, for example, to avoid obscuring the displayed image.

示された典型的な実装において、システムモードメニュー400は、メニュー項目402(ノーマル)、404(バイタル)、406(看護士)、408(術野)、410(術前)、および412(キャンセル)を含む。現在のシステムモードはノーマルであるため、要素402が強調される(図4A)。いくつかの実施形態において、メニュー項目は、それらの機能に従って空間的に配置される。たとえば、看護士が術野124に対して右側にいる手術室において、メニュー項目406(看護士モード)は、HMD102の視野の右側に表示され、メニュー項目402(ノーマルモード)は、視野の中心に表示される。システムモードメニュー400をナビゲートするために、外科医120は、フットスイッチ104のペダル104Bを押下しながら自身の頭部を回す。 In the exemplary implementation shown, the system mode menu 400 includes menu items 402 (Normal), 404 (Vitals), 406 (Nurse), 408 (Surgical Field), 410 (Preoperative), and 412 (Cancel). including. Since the current system mode is normal, element 402 is highlighted (FIG. 4A). In some embodiments, menu items are spatially arranged according to their function. For example, in an operating room where a nurse is on the right side of the surgical field 124, menu item 406 (nurse mode) is displayed on the right side of the field of view of HMD 102, and menu item 402 (normal mode) is displayed on the center of the field of view. Is displayed. To navigate system mode menu 400, surgeon 120 rotates his or her head while depressing pedal 104B of footswitch 104.

図4Bを参照すると、外科医120は、自身の頭部を左へ向け、メニュー項目402と410とを分離する角度閾値と交差させる。強調は、メニュー項目402からメニュー項目410(術前モード)へ切り換わる。1つの実施形態において、強調のみが術前モードメニュー項目410に切り換わっている。システムモードは、未だ切り換わっていない。外科医120がペダル104Bを解放するためにフットスイッチ104から足を持ち上げると、システムモードは、選択されたメニュー項目410に対応するモード、たとえば術前モード(図4B)に切り換わる。他の実施形態において、強調されたメニュー項目が切り換えられると、システムモードが切り換わったかのように背景画像も変化し、ユーザが、そのメニュー項目と関連する画像のプレビューを見ることを可能にする。 Referring to FIG. 4B, surgeon 120 turns his head to the left to intersect the angle threshold separating menu items 402 and 410. The emphasis switches from menu item 402 to menu item 410 (pre-operative mode). In one embodiment, only the emphasis is switched to preoperative mode menu item 410. The system mode has not been switched yet. When the surgeon 120 lifts his foot off the footswitch 104 to release the pedal 104B, the system mode switches to the mode corresponding to the selected menu item 410, such as preoperative mode (FIG. 4B). In other embodiments, when a highlighted menu item is toggled, the background image also changes, as if the system mode were toggled, allowing the user to see a preview of the image associated with that menu item.

図4Cを参照すると、外科医120は、ペダル104Bを押下したままで自身の頭部を右下角部へ向ける。彼の頭部の角度が、キャンセル選択に対応するメニュー項目412に関して設定された角度閾値と交差すると、強調は、メニュー項目412(キャンセル)に切り換わる。外科医120は、システムモードを変更することなくメニュー400を隠すために、フットスイッチのペダル104Bを解放することによってメニュー項目412を選択し、ペダル104Bの押下によってメニュー400をもたらすアクションをキャンセルする。このように、外科医120は、システムモードメニュー400をキャンセルし、システム100は、現在のシステムモードのままである。 Referring to FIG. 4C, the surgeon 120 holds down the pedal 104B and turns his head toward the lower right corner. When the angle of his head intersects the angle threshold set for menu item 412 corresponding to the cancel selection, the emphasis switches to menu item 412 (Cancel). Surgeon 120 selects menu item 412 by releasing footswitch pedal 104B to hide menu 400 without changing system modes, and cancels the action that brought about menu 400 by pressing pedal 104B. Thus, surgeon 120 cancels system mode menu 400 and system 100 remains in the current system mode.

この実施形態において、スクリーン状態は、ディスプレイ固定である。外科医が自身の頭部を動かすと、その頭部運動とは無関係に、画像414は彼の視野内で固定されたままである。しかし、固定された画像414上にオーバレイされたメニュー400の選択されたメニュー項目に関する強調は、彼の頭部運動と共にシフトする。 In this embodiment, the screen state is display fixed. As the surgeon moves his head, image 414 remains fixed within his field of view, regardless of his head movement. However, the emphasis on the selected menu item of menu 400 overlaid on fixed image 414 shifts with his head movement.

選択されたメニュー項目は、たとえばそのメニュー項目を様々なフォント、背景色で表示すること、そのメニュー項目を指すカーソルを表示すること、またはそのメニュー項目を他の選択されていないメニュー項目と区別するための他の任意の適当な技術によって、様々な方法で強調され得る。強調は、フットスイッチ104が押下されながらHMD102が第2のメニュー項目へ向かって回転すると、1つのメニュー項目から隣のメニュー項目へ移動する。これは図4Bに示される。外科医が自身の頭部を左へ向けると、術前モードに対応するメニュー項目410が選択され、強調して示され、ノーマルに対応するメニュー項目410は選択を外され、通常通りに表示される。外科医120は、自身のヘッドジェスチャへのシステム100の応答をパーソナライズしてよい。たとえば、頭部運動は、小さな頭部の傾きが、対応して大きな角度シフトに転じるように、またはその逆であるようにスケーリングされ得る。あるいは、HMD102の向きは、メニュー項目を選択する、メニュー400上に表示されたカーソル(不図示)を制御する。HMD102の向きを操作することがカーソルを操作し、たとえば、上下および左右の頭部運動は、それに応じてカーソルを上下および左右に動かす。フットスイッチ104の解放は、現在選択されているメニュー項目に対応するシステムモードをアクティブ化し、それによってシステムモードを切り換える。 A selected menu item can be marked, for example, by displaying the menu item in a different font, background color, displaying a cursor pointing to the menu item, or distinguishing the menu item from other unselected menu items. may be enhanced in a variety of ways by any other suitable technique. The emphasis moves from one menu item to the next as HMD 102 rotates toward the second menu item while footswitch 104 is pressed. This is shown in Figure 4B. When the surgeon turns his or her head to the left, the menu item 410 corresponding to preoperative mode is selected and highlighted, and the menu item 410 corresponding to normal is deselected and displayed normally. . Surgeon 120 may personalize system 100's response to his or her head gestures. For example, head motion may be scaled such that a small head tilt translates into a correspondingly large angular shift, or vice versa. Alternatively, the orientation of HMD 102 controls a cursor (not shown) displayed on menu 400 that selects menu items. Manipulating the orientation of the HMD 102 manipulates the cursor; for example, head movements up and down and left and right move the cursor up and down and left and right accordingly. Releasing footswitch 104 activates the system mode corresponding to the currently selected menu item, thereby toggling the system mode.

他の実施形態において、アイトラッキングは、メニュー400を制御するために実施され得る。眼部運動は、上記の頭部運動の役割を果たす。メニュー項目を凝視することは、メニュー項目を強調してよく、既定の期間より長く連続的に凝視することは、メニュー項目をアクティブ化してよい。 In other embodiments, eye tracking may be implemented to control menu 400. Eye movements play the role of the head movements described above. Staring at a menu item may highlight the menu item, and staring continuously for longer than a predetermined period of time may activate the menu item.

システムモード以外の機能を選択するために、追加のメニューがHMD102を介して表示され得る。いくつかのメニュー項目は、選択されると1または複数のサブメニューを表示するために拡大され得る。選択方法は、フットスイッチ104のペダルの1つを押下または解放すること、既定の期間より長くメニュー項目が強調された状態を維持すること、マイクロフォン138によって検出される音声コマンドを用いること、または他の適当なUI方法によって実施され得る。サブメニューに拡大されると、サブメニューが元のメニューと入れ替わってよく、または元のメニューと共に表示され得る。メニューは、たとえばバック/リターンおよびイグジット/キャンセルなどの標準的なメニュー操作項目も含んでよい。 Additional menus may be displayed via HMD 102 to select functions other than system mode. Some menu items may be expanded to display one or more submenus when selected. The selection method may include pressing or releasing one of the pedals of footswitch 104, keeping a menu item highlighted for longer than a predetermined period of time, using a voice command detected by microphone 138, or other methods. This can be implemented by any suitable UI method. When expanded into a submenu, the submenu may replace or be displayed with the original menu. The menu may also include standard menu operations, such as back/return and exit/cancel.

いくつかのメニュー項目は、UI160を介してオンおよびオフに切り替えられ得る。切替え項目は、2つの状態を切り換えるメニューオプションであり、現在表示されているメニューオプションは、現在アクティブではない状態を表す。たとえば、シャッタ132が閉じている場合、シャッタを制御するためのメニューオプションは「シャッタを開く」と現れ、逆も然りである。メニューにおける切替え項目の例を以下に記載する。
○メニューを介して制御可能な基本HMDシステム動作
・ディスプレイ(オン/オフ)。これは、ディスプレイをシャットオンまたはオフにする。ディスプレイがオフにされると、画像は表示されないが、ユーザがディスプレイをオンに戻すことを可能にするためにメニューを呼び出す(すなわち表示する)ことはできる。ディスプレイ状態を制御することは、HMDが透明であるVGS処置において有用である(すなわち、HMDがシャッタを備える場合、この段階でシャッタは開く)。これらの処置において、ユーザは、画像が術野を見ることを邪魔しないように、HMDによるガイダンスを必要としない処置段階においてディスプレイをオフにすることを所望し得る。
・フルスクリーン/仮想スクリーン。フルスクリーン状態において、1つのスクリーンのみがFOVを満たすが、仮想スクリーン状態において、複数の仮想スクリーンが表示される。スクリーン状態は、図5A~5Cに関して更に後述される。
・シャッタ(開/閉)。これは、シャッタ132の状態を制御する。シャッタ132は、たとえばスクリーンの大部分が透明である時に現実世界ビューにオーバレイされた特徴を表示する場合など、部分的に開閉されてもよい。
・赤目照明(オン/オフ)。
・記録(オン/オフ)。これは、外科医120が、後の段階で呼び戻され得る外科処置の一部を記録することを可能にするシステム100の特徴を制御する。
○アドバンスドHMD動作(有効/無効)、以下の1または複数。
・自動フォーカス、
・自動センタリング、
・自動ズーミング。
○HMDディスプレイパラメータ(オン/オフ)。
・表示される各既定のPIPに関するPIPオン/オフ切替え、
・HMD102を介して外部で取得されたデータを表示するための外部データオーバレイ。
・様々な処置固有および段階固有のオーバレイ記号、画像、およびモデル。
・指定ポインタ/カーソル。
○iOCT(オン/オフ)。これは、OCT画像を制御する。
Some menu items may be turned on and off via the UI 160. A toggle item is a menu option that toggles between two states, with the currently displayed menu option representing the currently inactive state. For example, if shutter 132 is closed, the menu option for controlling the shutter appears as "Open Shutter" and vice versa. Examples of switching items in the menu are described below.
○ Basic HMD system operations controllable via menu -Display (on/off). This shuts the display on or off. When the display is turned off, no images are displayed, but a menu can be invoked (ie, displayed) to allow the user to turn the display back on. Controlling the display state is useful in VGS treatments where the HMD is transparent (ie, if the HMD is equipped with a shutter, the shutter is open at this stage). In these procedures, the user may desire to turn off the display during treatment steps that do not require HMD guidance so that the images do not interfere with viewing the surgical field.
-Full screen/virtual screen. In the full screen state, only one screen fills the FOV, but in the virtual screen state, multiple virtual screens are displayed. Screen states are discussed further below with respect to FIGS. 5A-5C.
-Shutter (open/close). This controls the state of shutter 132. The shutter 132 may be partially opened or closed, such as to display features overlaid on the real world view when a large portion of the screen is transparent.
- Red eye lighting (on/off).
- Recording (on/off). This controls a feature of system 100 that allows surgeon 120 to record portions of the surgical procedure that can be recalled at a later stage.
○Advanced HMD operation (enable/disable), one or more of the following.
・Automatic focus,
・Automatic centering,
・Automatic zooming.
○HMD display parameters (on/off).
・PIP on/off switching for each default PIP displayed,
- External data overlay for displaying data acquired externally via the HMD 102.
- Various procedure-specific and stage-specific overlay symbols, images, and models.
-Specified pointer/cursor.
○iOCT (on/off). This controls the OCT images.

いくつかの実施形態において、モード固有メニューに加えて、UI160は、システム100の様々な機能を制御するため専用の固有メニューを表示する。たとえば、UI160は、ズーム、フォーカス、照明、および他の機能の各々を制御するために異なる専用メニューを表示する。各専用メニューは、外科医120が、特定の機能のみに関係するオプションにアクセスすることを可能にする。たとえば、フォーカス機能専用のメニューは、外科医120が、様々な自動フォーカス設定を選択することを可能にする。 In some embodiments, in addition to mode-specific menus, UI 160 displays dedicated specific menus for controlling various functions of system 100. For example, UI 160 displays different dedicated menus to control each of zoom, focus, lighting, and other functions. Each dedicated menu allows the surgeon 120 to access options related only to a particular function. For example, a menu dedicated to the focus function allows the surgeon 120 to select various autofocus settings.

いくつかの実施形態において、外科医120は、メインメニューを介して固有機能専用のメニューにアクセスする。他の実施形態において、外科医120は、たとえばメニューをアクティブ化するためにフットスイッチ104のボタンを2回押下することによって、固有機能専用のメニューに直接アクセスする。たとえば、外科医120は、照明を制御するためのヘッドジェスチャを有効化するフットスイッチ104のボタンにおいて2回の短い押下の後に長い押下を行うことによって、照明機能専用メニューを開いてよい。外科医120は、ヘッドジェスチャまたはアイトラッキングを用いて、本明細書で説明されるような専用メニューをナビゲートし、フットスイッチ104のボタンを解放することによって、強調されたメニューオプションをアクティブ化してよい。 In some embodiments, the surgeon 120 accesses menus dedicated to specific functions via the main menu. In other embodiments, the surgeon 120 directly accesses a menu dedicated to specific functions, such as by pressing a button on the footswitch 104 twice to activate the menu. For example, the surgeon 120 may open a lighting function-specific menu by performing two short presses followed by a long press on a button on the footswitch 104 that activates a head gesture to control the lighting. The surgeon 120 may use head gestures or eye tracking to navigate a dedicated menu as described herein and activate the highlighted menu option by releasing a button on the footswitch 104. .

いくつかの実施形態において、外科医120は、フットスイッチ104の関連ボタンを部分的にしか押下しないこと(たとえば半分までの押下)によって、またはフットスイッチ104を押下しながら音声コマンドを発することによって、またはフットスイッチ104を押下しながら、たとえば頷きなどのヘッドジェスチャを行うことによって、専用メニューを開く。たとえば、「イエス」のヘッドジェスチャは、有効化された機能(たとえばフォーカス、ズーム、照明など)を制御してよく、「ノー」のヘッドジェスチャは、専用メニューを開いてよい。 In some embodiments, the surgeon 120 may cause the footswitch 104 by only partially depressing the associated button (e.g., halfway down) or by issuing a voice command while depressing the footswitch 104; or A dedicated menu is opened by performing a head gesture such as a nod while pressing the foot switch 104. For example, a "yes" head gesture may control an enabled function (eg, focus, zoom, lighting, etc.), and a "no" head gesture may open a dedicated menu.

たとえば、外科医120が、フォーカス機能を有効化するためにフットスイッチボタンを押下しながら自身の頭部を左右へ向けた場合、たとえば自動フォーカス特徴などのフォーカス機能を制御するための専用メニューがディスプレイ上に出現する。この専用メニューを介して、外科医120は、自動フォーカスが、指定した点、外科用ツールなどに作用するか、および自動フォーカシングがワンタイムであるか連続的であるかを選択してよい。 For example, if the surgeon 120 turns his or her head from side to side while pressing the footswitch button to activate a focus feature, a dedicated menu for controlling the focus feature, such as an autofocus feature, may appear on the display. Appears in Via this dedicated menu, the surgeon 120 may select whether autofocus acts on a specified point, surgical tool, etc., and whether autofocusing is one-time or continuous.

いくつかの実施形態において、フットスイッチ104を介してアクションを有効化する際、外科医は、連続的な(すなわち滑らかな)アクションを制御するために(自身の頭部を上下に動かすことによって)「イエス」の動きを行うが、左右に向く動きを行うことは、有効化されたアクションと関連する2つの個別アクションをアクティブ化し、または切り替える。あるいは、左へ向くヘッドジェスチャは、個別アクションを切り替えてよく、右へ向くヘッドジェスチャは、専用メニューを開いてよい(または逆も然りである)。 In some embodiments, upon activating the action via the footswitch 104, the surgeon (by moving his or her head up and down) " Performing a "Yes" motion but facing left or right activates or toggles two separate actions that are associated with the activated action. Alternatively, a head gesture to the left may toggle an individual action, and a head gesture to the right may open a dedicated menu (or vice versa).

たとえば、「照明」を有効化する際、上下のヘッドジェスチャは、照明強度を変更し、「左へ向く」ヘッドジェスチャは、2つの個別レベル間で照明を切り替える。たとえば、一方のレベルは「高」であり、他方は「低」であってよい。任意選択的に、これらのレベルは事前に決定され、ユーザによって構成され得る。任意選択的に、外科医が手術中に照明レベルを調整した後、システム100は、照明レベルを記憶し、次に照明アクションが(高から低へ、またはその逆に)切り替えられた時、同じ照明レベルを復元する。この例を続けると、「右」ジェスチャは、照明を「オン」および「オフ」状態の間で切り替える。 For example, when activating "lighting", the up and down head gestures change the lighting intensity, and the "turn left" head gesture switches the lighting between two discrete levels. For example, one level may be "high" and the other "low." Optionally, these levels can be predetermined and configured by the user. Optionally, after the surgeon adjusts the illumination level during the surgery, the system 100 remembers the illumination level and the next time the illumination action is switched (from high to low or vice versa), the same illumination Restore levels. Continuing with this example, the "right" gesture switches the lighting between "on" and "off" states.

他の例として、「フォーカス」を有効化する際、左ヘッドジェスチャは、自動フォーカス機能の「オン」または「オフ」を切り替えてよく、右ジェスチャは、フォーカス機能を制御するための専用メニューを開いてよい。ここで、開示される技術の実施形態に従って構成され動作可能な、システム設定を示す1または複数のステータスバーを表示するための実装を示す図4D~4Gが参照される。図4D~4Gの図は、単なる典型例であることが意図され、他のシステムインジケータが追加されてよく、または図4Dに示すインジケータと入れ替わってよい。図4Dを参照すると、ステータスバー420は、システム100の様々な設定に関する現在の構成を示す複数の様々な記号を含む。ステータスバー420は、たとえばUI160を介した外科医120による入力に応答して、HMD102を介して表示される。ステータスバー420は、クロック422、ROIインジケータ424、フットスイッチインジケータ426、照明インジケータ428および430、システムモードインジケータ432、および色補正インジケータ434を含む。クロック422は、現在の時刻を表示する。ROIインジケータ424は、ROI全体に対する表示ROIを示す。図4Dにおいて、ROIインジケータ424は、たとえば外科医120が生画像の拡大部分を見るためにズームイン特徴を使用する場合に生じ得る、ROI全体を示す大きな長方形内に位置する、表示ROIを示す小さな長方形を表示していた。現在の倍率を示す数字が表示される。フットスイッチインジケータ426は、フットスイッチ104の利用可能な機能を示す。示された例において、利用可能な機能は、4つのアイコンによって示される。時計回りに移動すると、左上角部のアイコンはXYモータのスクロールを示し、右上角部のアイコンは照明を示し、右下角部のアイコンはフォーカスを示し、左下角部のアイコンはズームを示す。いくつかの実施形態において、フットスイッチ104の現在アクティブな機能を示すアイコンが強調される。照明インジケータ428は、赤目照明が「オン」に設定され、レベルが62であることを示す。照明インジケータ430は、投光照明が「オン」に設定され、レベルが65であることを示す。システムモードインジケータ432は、現在のシステムモードを表示し、この例において、それは後眼部モードである。色補正インジケータ434は、画像に適用された色補正の種類を表示し、この例では、色補正はされていない。ステータスバー420は、たとえばディスプレイの上部または外科医120によって設定された他の任意の位置など、HMD102を介して任意の適当な位置に、両目に表示される場合、任意の深さで表示されてよく、深さは設定され得る。いくつかの実施形態において、ステータスバー420は、パラメータが変更された時のみ表示される。ステータスバー420は、たとえばフィールドの深さ、デジタル利得などの追加のシステム特徴、およびたとえば氏名、年齢、性別、外科医または複数の外科医の氏名を含む患者データ、日付、場所、病院名または医院名などの他の適当なパラメータを含んでよい。 As another example, when enabling "Focus", the left head gesture may toggle the autofocus feature "on" or "off", and the right gesture opens a dedicated menu for controlling the focus feature. It's fine. Reference is now made to FIGS. 4D-4G, which illustrate implementations for displaying one or more status bars indicative of system settings, constructed and operable in accordance with embodiments of the disclosed technology. The illustrations of FIGS. 4D-4G are intended to be exemplary only; other system indicators may be added or replaced with the indicators shown in FIG. 4D. Referring to FIG. 4D, status bar 420 includes a plurality of various symbols indicating the current configuration of various settings of system 100. Status bar 420 is displayed via HMD 102 in response to input by surgeon 120 via UI 160, for example. Status bar 420 includes a clock 422, an ROI indicator 424, a footswitch indicator 426, lighting indicators 428 and 430, a system mode indicator 432, and a color correction indicator 434. Clock 422 displays the current time. ROI indicator 424 shows the displayed ROI for the entire ROI. In FIG. 4D, ROI indicator 424 shows a smaller rectangle representing the displayed ROI located within a larger rectangle representing the entire ROI, which may occur, for example, when surgeon 120 uses a zoom-in feature to view a magnified portion of the raw image. It was displayed. A number indicating the current magnification will be displayed. Footswitch indicator 426 indicates the available functions of footswitch 104. In the example shown, the available functionality is indicated by four icons. Moving clockwise, the icon in the upper left corner indicates XY motor scrolling, the icon in the upper right corner indicates illumination, the icon in the lower right corner indicates focus, and the icon in the lower left corner indicates zoom. In some embodiments, an icon indicating the currently active function of footswitch 104 is highlighted. Lighting indicator 428 indicates that red-eye lighting is set to "on" and the level is 62. Lighting indicator 430 indicates that the floodlight is set to "on" and the level is 65. System mode indicator 432 displays the current system mode, which in this example is posterior segment mode. Color correction indicator 434 displays the type of color correction applied to the image, and in this example, no color correction has been made. Status bar 420 may be displayed at any suitable location via HMD 102, such as at the top of the display or any other location set by surgeon 120, and at any depth when displayed to both eyes. , the depth can be set. In some embodiments, status bar 420 is displayed only when parameters are changed. The status bar 420 displays additional system characteristics such as depth of field, digital gain, and patient data including, for example, name, age, gender, name of the surgeon or surgeons, date, location, hospital name or clinic name, etc. may include other suitable parameters.

ここで、現在のシステム構成を外科医120に示すステータスバー420がオーバレイされた、外科処置を受けている患者の目の生画像を示す図4Eが参照される。 Reference is now made to FIG. 4E, which shows a live image of a patient's eye undergoing a surgical procedure overlaid with a status bar 420 indicating the current system configuration to the surgeon 120.

ここで、ステータスバー420に加えて、第2のステータスバー442がオーバレイされた図4Eの生画像を示す図4Fが参照される。この典型的な実装において、ステータスバー442は、照明設定に対する最新の変更を示す弓形である。ステータスバー442は、照明になされた変更に応答して、システム100の現在の設定について外科医120に最新情報を与えるために表示される。 Reference is now made to FIG. 4F, which shows the raw image of FIG. 4E with a second status bar 442 overlaid in addition to the status bar 420. In this exemplary implementation, status bar 442 is an arc that indicates the latest changes to the lighting settings. Status bar 442 is displayed to update surgeon 120 about the current settings of system 100 in response to changes made to the lighting.

ここで、外科処置を受けている患者の目の他の生画像444を示す図4Gが参照される。ステータスバー446およびステータスバー448が生画像444上に表示される。ステータスバー446は、図4Eのステータスバー420とは異なって構成される。ステータスバー448は、たとえばフェイコビトレクトミーマシンなどの外部デバイスがシステム100に接続されると出現し、外部デバイスに対応するシステム設定を表示する。いくつかの実施形態において、ユーザは、ステータスバー420を継続的に表示するように、またはユーザ入力やモード変更に応答してステータスバー420を隠すようにシステム100を構成してよい。いくつかの実施形態において、デフォルト設定は、ステータスバー420を継続的に表示することである。いくつかの実施形態において、システム100は、ステータスバー420に加えて複数の様々なステータスバー(不図示)を提供する。各ステータスバーは、異なって構成されてよく、1または複数のステータスバーが、連続的に表示されるように構成され、1または複数のステータスバーが、パラメータ変更のいずれかに応答して、ユーザ入力に応答して、外部デバイスの検出に応答してなどで表示される。 Reference is now made to FIG. 4G, which shows another raw image 444 of a patient's eye undergoing a surgical procedure. A status bar 446 and a status bar 448 are displayed on the raw image 444. Status bar 446 is configured differently than status bar 420 of FIG. 4E. Status bar 448 appears when an external device, such as a phacovitrectomy machine, is connected to system 100 and displays system settings corresponding to the external device. In some embodiments, a user may configure system 100 to continuously display status bar 420 or to hide status bar 420 in response to user input or mode changes. In some embodiments, the default setting is to display status bar 420 continuously. In some embodiments, system 100 provides multiple different status bars (not shown) in addition to status bar 420. Each status bar may be configured differently, the one or more status bars configured to be displayed sequentially, and the one or more status bars configured to be displayed by the user in response to any of the parameter changes. Appears in response to input, in response to external device detection, etc.

いくつかの実施形態において、システム100は、フェイコプローブが水晶体嚢の中心にない時、リマインダまたは警報を発してよい。いくつかの実施形態において、システム100は、選択された外科技術に依存して、たとえばチョッパがフェイコプローブの下に位置していない場合、リマインダまたは警報を発してよい。システム100は、たとえば画像処理を介して検出され得るように、後嚢がフェイコの方へ吸い込まれた場合、外科用器具の吸引を自動的に停止し得る。システム100は、外科処置の画像の処理、iOCTデータの解析、目の術前または術中モデルの解析などのいずれかを用いて患者120とツールとの間の距離を計算するために、外科医120によって使用される外科用ツールを追跡してよい。 In some embodiments, system 100 may issue a reminder or alarm when the phaco probe is not centered in the lens capsule. In some embodiments, system 100 may issue a reminder or alert, depending on the surgical technique selected, for example, if the chopper is not positioned below the phaco probe. System 100 may automatically stop suctioning the surgical instrument if the posterior capsule is suctioned toward the phaco, as may be detected via image processing, for example. The system 100 is configured by the surgeon 120 to calculate the distance between the patient 120 and the tool using either processing of surgical procedure images, analysis of iOCT data, analysis of preoperative or intraoperative models of the eye, etc. Surgical tools used may be tracked.

いくつかの実施形態において、システム100は、たとえば生画像に画像処理技術を適用すること、術中OCTデータ(iOCT)に画像処理技術を適用することなどによって、1または複数の外科用ツールを追跡してよい。システム100は、光学追跡または電磁追跡などに基づく専用ツール追跡サブシステムを有してよい。任意選択的に、ツール追跡サブシステムは、目の術前または術中モデルにも基づく。 In some embodiments, system 100 tracks one or more surgical tools, such as by applying image processing techniques to raw images, applying image processing techniques to intraoperative OCT data (iOCT), etc. It's fine. System 100 may include a dedicated tool tracking subsystem based on optical or electromagnetic tracking, or the like. Optionally, the tool tracking subsystem is also based on a preoperative or intraoperative model of the eye.

ツール追跡機能は、様々な特徴のために用いられ得る。たとえば、ツール追跡は、ユーザが、外科処置中に電子ペンとして用いられる外科用ツールを使用することを可能にする。これは、監督外科医が執刀医をガイドするために生画像にマーキングを施し得る教示モードにおいて役立ち得る。UI160は、外科医120が、たとえば音声コマンド、フットスイッチ104などを介して、描画特徴をオンまたはオフに切り換えることを可能にする。あるいは、物理的ツールがシステム100とペアにされ、仮想ボタンを押下するため、またはHMD102を介して表示されたメニュー項目を選択するため、たとえば後眼部処置において網膜周囲に、または前眼部処置において目の周囲に表示され、または手術室内のどこかに表示されたメニューから項目を選択するために用いられ得る。 Tool tracking functionality may be used for a variety of features. For example, tool tracking allows a user to use a surgical tool used as an electronic pen during a surgical procedure. This may be useful in a teaching mode where the supervising surgeon may place markings on the raw image to guide the surgeon. UI 160 allows surgeon 120 to turn drawing features on or off, eg, via voice commands, footswitch 104, etc. Alternatively, a physical tool may be paired with the system 100 to press a virtual button or select a menu item displayed via the HMD 102, such as around the retina in a posterior segment procedure, or around the retina in an anterior segment procedure. may be used to select items from a menu displayed around the eye or elsewhere in the operating room.

ツール追跡機能は、ツールの先端と、患者、たとえば眼科手術の場合は網膜との間の距離を検出し、示すために用いられ得る。ツール追跡機能は、たとえば水晶体吸引を自動的に停止することなどの自動安全対策を開始するために用いられ得る。ツール追跡機能は、処置中、外科医120をガイドするために用いられ得る。これらの例は、単なる典型例として意図され、この機能を与えられた特定の例に限定するものではない。 Tool tracking functionality may be used to detect and indicate the distance between the tip of the tool and the patient, such as the retina in the case of eye surgery. The tool tracking feature may be used to initiate automatic safety measures, such as automatically stopping phacoaspiration. Tool tracking functionality may be used to guide the surgeon 120 during the procedure. These examples are intended as exemplary only and do not limit this functionality to the particular examples given.

ここで、ユーザインタフェース160を介して制御可能なシステム特性の説明を以下に示す。留意すべき点として、いくつかのシステム特性は、モードを切り換える時にユーザによって間接的に制御される。たとえば、異なるモードへの切換えは、カメラヘッド110の位置決め、またはカメラのアクティブ化、または照明器を変更し得る。ユーザは、これらの設定を直接調整することができず、システムモードおよびシステム100に内在する他の設定を切り換えることによって間接的にしか調整することができない場合がある。このリストは限定を意図しない。各システムモードは、以下のシステム特性の2つ以上によって特徴付けられる。
‐ディスプレイ状態(オン/オフ)、
‐スクリーン状態(ディスプレイ/世界固定)、
‐シャッタ状態(開/閉)、
‐表示コンテンツの選択(生画像/術前/他)、
‐照明状態、
‐色補正スキーム、
‐画像増強スキーム、
‐眼部反転状態、
‐モータ速度状態、
‐モータ境界状態、
‐ピクチャインピクチャ(PIP)の表示(オン/オフ)
‐ユーザインタフェース設定、
‐ディスプレイオーバレイ、および
‐iOCT設定。
A description of system characteristics that can be controlled via user interface 160 is now provided below. Note that some system characteristics are indirectly controlled by the user when switching modes. For example, switching to a different mode may change the positioning of the camera head 110, or the activation of the camera, or the illuminator. A user may not be able to adjust these settings directly, but only indirectly by switching system modes and other settings inherent in system 100. This list is not intended to be limiting. Each system mode is characterized by two or more of the following system characteristics:
-Display status (on/off),
-Screen status (display/world fixed),
-Shutter status (open/closed),
- Selection of display content (raw image/preoperative/other),
- lighting conditions;
-color correction scheme,
-Image enhancement scheme,
- eye inversion,
- motor speed status,
- motor boundary conditions,
- Picture-in-picture (PIP) display (on/off)
- User interface settings,
-Display overlay, and -iOCT settings.

HMD102に関するディスプレイ状態は、「オン」または「オフ」に設定されてよく、モジュール130に関するデフォルトディスプレイ状態は、「オン」である。ディスプレイがオフにされると、コンピュータ118は、ディスプレイモジュール130Aおよび130Bに関する画像ソースを停止する。あるいは、コンピュータ118は、HMD102へ黒画像をストリーミングする。 The display state for HMD 102 may be set to "on" or "off," and the default display state for module 130 is "on." When the display is turned off, computer 118 stops the image source for display modules 130A and 130B. Alternatively, computer 118 streams a black image to HMD 102.

HMD102に関するスクリーン状態は、画像およびコンテンツがどのように外科医120に表示されるかを定義する。HMD102に関して、フルスクリーンディスプレイ固定状態および仮想スクリーン世界固定状態という2つのスクリーン状態が存在する。フルスクリーンディスプレイ固定状態において、画像は、HMD102にしっかり吊り下げられたスクリーンに表示されているように出現し、表示画像は、固定されたままで外科医120と共に移動する。これがデフォルト状態である。世界固定状態において、1または複数の仮想スクリーンは、手術室に固定されているかのように表示される。外科医120が自身の頭部を動かすと、表示コンテンツは、表示コンテンツの一部がHMD102のFOVを出入りするように変化する。 Screen states for HMD 102 define how images and content are displayed to surgeon 120. There are two screen states for the HMD 102: a full screen display fixed state and a virtual screen world fixed state. In the full screen display fixed state, the image appears to be displayed on a screen that is rigidly suspended from the HMD 102, and the displayed image remains fixed and moves with the surgeon 120. This is the default state. In the world fixation state, one or more virtual screens are displayed as if they were fixed in the operating room. As the surgeon 120 moves his head, the displayed content changes such that portions of the displayed content move in and out of the FOV of the HMD 102.

ここで、開示される技術の他の実施形態に従って構成され動作可能な、ディスプレイモジュール130がディスプレイ固定状態である時、外科医120によって知覚されるような投影画像を示す図5Aが参照される。図5Aは、フルスクリーンディスプレイ固定状態で表示された画像500および502を示す。HMD102の視野は、カメラシステム112を介して取得された生拡大画像で満たされ、外科医120の頭部に固定されているかのように表示される。要素512および514は、外科医120の頭部の向きを示す。要素512および514の破線矢印は、正面を向いた向きを示す。画像500に関する要素512の実線矢印は、外科医120の向きが正面を向いた向きから5°右であることを示す。画像502に関する要素514の実線矢印は、外科医120の向きが正面を向いた向きから25°右であることを示す。向きを変えるために自身の頭部を動かすことにより、スクリーンが自身の頭部に固定されているかのように、視野内に出現する画像が変わるのではなく、ヘッドジェスチャを行うと同時に自身と共に動く。 Reference is now made to FIG. 5A, which illustrates a projected image as perceived by surgeon 120 when display module 130 is in a display-locked state, constructed and operable in accordance with another embodiment of the disclosed technology. FIG. 5A shows images 500 and 502 displayed in a fixed full-screen display. The field of view of HMD 102 is filled with live magnified images acquired via camera system 112 and displayed as if fixed to the surgeon's 120 head. Elements 512 and 514 indicate the orientation of the surgeon's 120 head. The dashed arrows on elements 512 and 514 indicate the front facing orientation. The solid arrow in element 512 with respect to image 500 indicates that the orientation of surgeon 120 is 5° to the right of the front facing orientation. The solid arrow in element 514 with respect to image 502 indicates that the orientation of surgeon 120 is 25° to the right from the front facing orientation. By moving your head to change orientation, the image that appears in your field of vision does not change as if the screen were fixed to your head, but instead moves with you as you make the head gesture. .

ここで、全体として、開示される技術の更なる実施形態に従って構成され動作可能な、各々が外科医120の頭部の異なる位置および向きに対応する、それぞれHMD102を介して仮想スクリーン世界固定状態で表示された2つのビュー504および506を示す図5B~5Cが参照される。図5B~5Cに示すビューにおいて、2つの隣接した仮想スクリーン508および510は、外科医120から同じ距離から、同じ(仮想)サイズを有して表示される。他の実施形態において、様々な(仮想)サイズ、位置および距離を有する複数の仮想スクリーンが用いられ得る。外科医120は、世界固定仮想スクリーン508および510の両方を介して表示された画像を同時に見る。仮想スクリーン508は、術野の生ビデオを表示し、仮想スクリーンは、術前データを表示する。 wherein the virtual screen world is displayed via the HMD 102, each corresponding to a different position and orientation of the head of the surgeon 120, generally configured and operable in accordance with further embodiments of the disclosed technology. Reference is made to FIGS. 5B-5C, which show two views 504 and 506. In the views shown in FIGS. 5B-5C, two adjacent virtual screens 508 and 510 are displayed from the same distance from the surgeon 120 and having the same (virtual) size. In other embodiments, multiple virtual screens with varying (virtual) sizes, positions, and distances may be used. Surgeon 120 simultaneously views images displayed through both world-fixed virtual screens 508 and 510. Virtual screen 508 displays live video of the surgical field, and virtual screen displays preoperative data.

ビュー504および506の各々は、仮想スクリーン508を介して表示された生画像フィード、および仮想スクリーン510を介して表示された対応する術前データを含む。仮想スクリーン504および506は、手術室(OR)内の固定位置に設置されたモニタであるかのように出現する。図5Aに示すように、図5B~5Cの要素512および514はそれぞれ、外科医120の頭部の向きを示す。要素512および514の破線矢印は、正面を向いた向きを示す。ビュー504(図5B)に関する要素512の実線矢印は、外科医120の向きが正面を向いた向きから5°右であることを示す。ビュー506(図5C)に関する要素514の実線矢印は、外科医120の向きが正面を向いた向きから25°右であることを示す。 Each of views 504 and 506 includes a raw image feed displayed via virtual screen 508 and corresponding preoperative data displayed via virtual screen 510. Virtual screens 504 and 506 appear as if they were monitors placed at fixed locations within the operating room (OR). As shown in FIG. 5A, elements 512 and 514 of FIGS. 5B-5C each indicate the orientation of the surgeon's 120 head. The dashed arrows on elements 512 and 514 indicate the front facing orientation. The solid arrow in element 512 with respect to view 504 (FIG. 5B) indicates that the orientation of surgeon 120 is 5 degrees to the right from the front facing orientation. The solid arrow in element 514 with respect to view 506 (FIG. 5C) indicates that the orientation of surgeon 120 is 25° to the right from the front facing orientation.

示されるように、図5Cのビュー506は、外科医120の右方向への頭部運動に対応する、図5Bのビュー594に対して左にシフトされたかのように出現する。ビュー506(図5B)内の仮想スクリーン508は、ビュー504(図5C)内の仮想スクリーン508よりも小部分の生ビデオを示し、ビュー506(図5C)内の仮想スクリーン510は、ビュー504(図5B)内の仮想スクリーン510よりも大部分の術前データを示す。自身の頭部を左右に動かすことによって、外科医120は、仮想スクリーン508および510に同時に表示されたデータをスクロールし、必要に応じて、各々においてより大部分または小部分を見ることが可能である。精密な世界固定スクリーンの実装は、全体位置および向き追跡を実施するためのトラッキング部品134を備える6自由度(DOF)ヘッドジェスチャトラッカを用いて実現され得る。いくつかの実施形態において、仮想スクリーンモードは、たとえばスクリーンの絶対位置が必要ではない場合、頭部の向きのみをサポートする3-DOFトラッカを用いて実装され得る。 As shown, view 506 of FIG. 5C appears as if shifted to the left relative to view 594 of FIG. 5B, which corresponds to rightward head movement of surgeon 120. Virtual screen 508 in view 506 (FIG. 5B) shows a smaller portion of the raw video than virtual screen 508 in view 504 (FIG. 5C), and virtual screen 510 in view 506 (FIG. 5C) shows a smaller portion of the raw video than virtual screen 508 in view 504 (FIG. 5C). 5B shows more pre-operative data than the virtual screen 510 in FIG. 5B). By moving his head from side to side, surgeon 120 can scroll through the data displayed simultaneously on virtual screens 508 and 510 and see a larger or smaller portion of each, as desired. . A precision world-fixed screen implementation may be realized using a six degrees of freedom (DOF) head gesture tracker with tracking component 134 to perform global position and orientation tracking. In some embodiments, virtual screen mode may be implemented with a 3-DOF tracker that only supports head orientation, eg, if absolute screen position is not required.

ここで、開示される技術の他の実施形態に従って構成され動作可能な、仮想スクリーン状態の典型的な実装を示す図5Dが参照される。図1Aの外科医120は、HMD102を装着し、患者122に手術をしながら、図5B~5Cの2つの仮想スクリーン508および510を観察する。仮想スクリーン508は、カメラ140Aおよび140B(図1E)によって取得された生画像フィードを表示し、仮想スクリーン510は、手術室内に配置された他のモニタに表示されているかのように出現する術前データを投影する。HMD102を介して表示されるコンテンツは、システムモードによって決定され得る。表示されるコンテンツに関するオプションは、カメラシステム112を介して取得された生画像ストリーム(デフォルト)、術前データ(たとえば患者に関する医療画像および/またはデータ)、術中データ(すなわち、たとえばフェイコビトレクトミーシステムなどの他のデバイスからのデータ)、内視鏡カメラ(不図示)から提供された生画像ストリームを含んでよい。いくつかの実施形態において、オプションは更に、外科医120が、並行した手術の進捗を追うことを可能にする、隣接する手術室内の同様のシステムから取得された生画像ストリームを見ること、待機室内に設置されたWi-Fiカメラから提供された生画像ストリーム、手術中に参照するための画像およびビデオのクラウドベースのライブラリの閲覧などを提供する。カメラ140Aおよび140Bによって取得され、HMD102を介して投影されるビデオは、3Dである。外科医120の各目は、対応するカメラからのビデオフィードを見る。HMD102を介した他のビデオおよび画像表示は、2Dまたは3Dのいずれかであってよい。たとえば、クラウドベースのライブラリからのビデオは3Dであってよく、術前画像は2Dであってよい。 Reference is now made to FIG. 5D, which illustrates an exemplary implementation of a virtual screen state, constructed and operable in accordance with other embodiments of the disclosed technology. Surgeon 120 of FIG. 1A wears HMD 102 and observes two virtual screens 508 and 510 of FIGS. 5B-5C while performing surgery on patient 122. A virtual screen 508 displays the raw image feed acquired by cameras 140A and 140B (FIG. 1E), and a virtual screen 510 displays the preoperative image feed that appears as if it were being displayed on other monitors located within the operating room. Project data. Content displayed via HMD 102 may be determined by the system mode. Options for displayed content include: raw image streams acquired via camera system 112 (default), preoperative data (e.g., medical images and/or data about the patient), intraoperative data (i.e., e.g., phacovitrectomy system data from other devices such as), raw image streams provided from an endoscopic camera (not shown). In some embodiments, the option further includes viewing live image streams obtained from a similar system in an adjacent operating room, allowing the surgeon 120 to follow the progress of a parallel surgery, or in the waiting room. It offers live image streams provided from installed Wi-Fi cameras, viewing a cloud-based library of images and videos for intra-surgical reference, and more. The video captured by cameras 140A and 140B and projected through HMD 102 is in 3D. Each eye of the surgeon 120 sees a video feed from a corresponding camera. Other video and image displays via HMD 102 may be either 2D or 3D. For example, videos from a cloud-based library may be 3D and pre-operative images may be 2D.

HMD102(図1C)のシャッタ132のシャッタ状態は、開かれ、または閉じられてよく、顕微鏡手術におけるデフォルト状態は、閉じた状態である。シャッタ132が閉じている時、ディスプレイモジュール130は不透明であり、外科医120が、表示画像のコントラストを低下させる表示画像の後側の周囲光を見ることなく、HMD102を介して表示された画像を見ることを可能にする。シャッタ132が開いている時、ディスプレイモジュール130は透明であり、外科医120が現実世界ビューを見ることを可能にする。シャッタ132が部分的に開いている時、ディスプレイモジュールは、たとえば拡張現実型アプリケーションにおいてVGS処置中にPIP内に1または複数の特徴を表示する時、ピクチャインピクチャ(PIP)の後側の背景を隠してPIP内の画像のコントラストを増強するために、シャッタ132が開いている部分が透明であり、シャッタ132が閉じている部分が不透明である。 The shutter state of the shutter 132 of the HMD 102 (FIG. 1C) may be open or closed, and the default state in microsurgery is the closed state. When shutter 132 is closed, display module 130 is opaque, allowing surgeon 120 to view the displayed image via HMD 102 without seeing ambient light behind the displayed image, which reduces the contrast of the displayed image. make it possible. When shutter 132 is open, display module 130 is transparent, allowing surgeon 120 to see the real world view. When the shutter 132 is partially open, the display module displays the background behind the picture-in-picture (PIP), such as when displaying one or more features within the PIP during a VGS procedure in an augmented reality application. The portions where the shutter 132 is open are transparent and the portions where the shutter 132 is closed are opaque to hide and enhance the contrast of the image within the PIP.

照明システム114に関する個別の照明状態は、投光照明をオン、オフ、またはローに選択すること、同軸照明をオン、オフ、またはローに選択すること、自動照明状態を選択することを含む。照明システム114は更に、連続照明状態を含む。自動照明が有効化されると、システム100は、画像ヒストグラム解析、他の画像処理解析、HMD102の位置および向き、外科処置の進捗、および追加のパラメータの関数として照明を自動的に調整する。自動照明に関する設定は、有効および無効(デフォルト)を含む。 Individual lighting states for the lighting system 114 include selecting floodlights on, off, or low, selecting coaxial lighting on, off, or low, and selecting automatic lighting states. Lighting system 114 further includes continuous lighting conditions. Once automatic illumination is enabled, system 100 automatically adjusts the illumination as a function of image histogram analysis, other image processing analyses, HMD 102 position and orientation, surgical procedure progress, and additional parameters. Settings regarding automatic lighting include enable and disable (default).

自動センタリング状態が有効化されると、システム100は、システムモードに依存する既定の設定に従って拡大画像を自動的にセンタリングする。たとえば、前眼部モードにおいて、センタリングはXYモータを用いて行われてよく、後眼部モードにおいて、センタリングは、全体撮像フレームから得た表示ROIを変更することによってデジタルに、または患者の眼球が動いた時にXYモータを用いることによって行われ得る。センタリングは、センタリング特性を規定する既定の設定に従って画像解析に基づく。自動センタリングに関する設定は、
○有効、
○無効(デフォルト)
を含む。
When the auto-centering state is enabled, the system 100 automatically centers the magnified image according to a default setting that depends on the system mode. For example, in anterior segment mode, centering may be performed using an This can be done by using XY motors when moving. Centering is based on image analysis according to predefined settings that define centering characteristics. Settings related to automatic centering are
○Valid,
○Disabled (default)
including.

オートフォーカシングが有効化されると、システム100は、ユーザ嗜好に従って拡大画像に自動的にフォーカスする。ユーザは、(カメラヘッドまたは患者が移動した場合)システムが次にロックし、フォーカスした状態に維持する術野内の点を指定してよい。あるいは、ユーザは、ツールの先端に自動的にフォーカスするように選択してよい。後眼部処置において、ユーザは、照明された領域の中心に自動的にフォーカスするように選択してよい。自動フォーカシングに関する設定は、
○ロック、
○ツールチップ、
○中心、
○無効(デフォルト)
を含んでよい。
When autofocusing is enabled, the system 100 automatically focuses the magnified image according to user preferences. The user may specify the point within the surgical field that the system will next lock onto and maintain in focus (if the camera head or patient moves). Alternatively, the user may choose to automatically focus on the tip of the tool. In a posterior segment procedure, the user may choose to automatically focus on the center of the illuminated area. Settings related to automatic focusing are
○Lock,
○Tooltip,
○center,
○Disabled (default)
may include.

様々な色補正スキームが、システムモードを介して有効化され得る。たとえば、オプションは、
○投光照明のための補正(デフォルト)、
○様々なファイバ照明源のための補正、
○様々な染料を用いる時の増強のための補正、および
○ユーザ構成可能な配色
を含む。
Various color correction schemes may be enabled via system mode. For example, the options are
○ Correction for floodlights (default),
○ Correction for various fiber illumination sources,
Includes o corrections for enhancement when using various dyes, and o user-configurable color schemes.

眼部反転状態は、システムモードを介して間接的に制御される。ノーマル状態(デフォルト)において、左カメラ140Bからのビデオストリームは、外科医120の左目にストリーミングされ、右カメラ140Aからのビデオストリームは、右目にストリーミングされる。反転状態は一般に、非接触レンズを用いる後眼部眼科処置のために用いられる。反転状態において、左カメラ140Bからのビデオストリームは、外科医120の右目にストリーミングされ、右カメラ140Aからのビデオストリームは、左目にストリーミングされる。画像もまた180度回転される。 The eye inversion state is controlled indirectly through the system mode. In the normal state (default), the video stream from left camera 140B is streamed to the left eye of surgeon 120, and the video stream from right camera 140A is streamed to the right eye. The inverted state is commonly used for posterior segment ophthalmological procedures using non-contact lenses. In the inverted state, the video stream from left camera 140B is streamed to the right eye of surgeon 120, and the video stream from right camera 140A is streamed to the left eye. The image is also rotated 180 degrees.

モータ速度状態は、カメラシステム112に関するカメラフォーカス、カメラヘッド110に関するX、Y、およびZ位置などを制御する、システム100の様々なモータに関するパラメータを定義する。この状態に関するオプションは、高速/低速を含む。 Motor speed states define parameters for various motors of system 100 that control camera focus for camera system 112, X, Y, and Z position for camera head 110, and so on. Options for this state include fast/slow.

モータ境界状態は、カメラヘッド位置決め器111内に統合されたモータの各々に関する自由度を制限する。オプションは、フルモーションおよびリミテッドモーションを含む。 Motor boundary conditions limit the degrees of freedom for each of the motors integrated within camera head positioner 111. Options include full motion and limited motion.

ピクチャインピクチャ(PIP)の表示は、外科医120によって制御される。各PIPに関するオプションは、オフ(デフォルト)、オン、その他を含む。外科医120は、PIPの数およびPIP位置に関するいくつかの既定のオプションを定義し、各システムモードにおいてどのオプションが有効であるか、および各システムモードにおいて各PIP内にどのコンテンツが表示されるかを決定してよい。 Picture-in-picture (PIP) display is controlled by surgeon 120. Options for each PIP include off (default), on, and other. Surgeon 120 defines some default options for the number of PIPs and PIP positions, and determines which options are valid in each system mode and what content is displayed within each PIP in each system mode. You may decide.

どのアクションがどのユーザ入力に対応するかを定義するユーザインタフェース設定は、外科医120によって、または他のオペレータによってカスタマイズされ得る。いくつかの実施形態において、ユーザインタフェースに関する様々な設定は、タッチスクリーン108を介して制御される。ユーザインタフェース設定のためのオプションは、以下を含む。
○フットスイッチ104に関する設定。これらの設定は、フットスイッチ104の各ボタンまたはペダル104A、104B、および104Cに、どのコマンドが属するかを定義する。
○ヘッドジェスチャ定義。これらの設定は、外科医120による各ヘッドジェスチャにどのコマンドが属するかを定義する。
○メニュー定義。これらの設定は、外科医120によってメニューが呼び出された時にどのオプションが出現するかを定義する。
○音声コマンド設定。これらの設定は、音声コマンド機能状態(オン/オフ)を切り換え、外科医120が、必要に応じて、システム100の音声制御特徴をオンまたはオフに切り換えることを可能にする。音声コマンド設定は、外科医120によって好まれるコマンドをコンピュータに習熟させるために、たとえば機械学習などの既知の技術を用いてパーソナライズされ得る。
User interface settings that define which actions correspond to which user inputs may be customized by the surgeon 120 or by other operators. In some embodiments, various settings regarding the user interface are controlled via touch screen 108. Options for user interface settings include:
○Settings related to foot switch 104. These settings define which commands belong to each button or pedal 104A, 104B, and 104C of footswitch 104.
○Head gesture definition. These settings define which commands belong to each head gesture by the surgeon 120.
○Menu definition. These settings define which options appear when the menu is invoked by the surgeon 120.
○Voice command settings. These settings toggle the voice command functionality state (on/off) and allow the surgeon 120 to turn the voice control feature of the system 100 on or off as desired. The voice command settings may be personalized using known techniques, such as machine learning, to familiarize the computer with commands preferred by the surgeon 120.

理解すべき点として、このリストは単なる典型例であり、網羅的であることは意図されない。 It should be understood that this list is merely representative and is not intended to be exhaustive.

コンピュータ118は、外科処置中に外科医120をガイドするための様々なオーバレイ記号の表示を制御する。ディスプレイオーバレイ設定は、HMD102を介して表示された画像にどの記号がオーバレイされるかを定義し、外科医120によってカスタマイズされ得る。 Computer 118 controls the display of various overlay symbols to guide surgeon 120 during the surgical procedure. Display overlay settings define which symbols are overlaid on images displayed via HMD 102 and may be customized by surgeon 120.

追加の設定は、たとえばカメラヘッド110に追加のカメラまたはセンサ(不図示)を付属させることなど、他のシステム特性を制御してよい。たとえば、iOCT設定を介して、外科医は、iOCT画像取得を制御する。設定は、オフ(デフォルト)、オン、iOCTスキャナ動作、たとえば前眼部対後眼部モードなどのモード固有設定などを含む。 Additional settings may control other system characteristics, such as attaching additional cameras or sensors (not shown) to camera head 110. For example, via iOCT settings, the surgeon controls iOCT image acquisition. Settings include off (default), on, iOCT scanner operation, mode specific settings such as anterior versus posterior segment mode, and the like.

システム100は、外科医120が、HMD102を介して表示された生画像フィード上にオーバレイする解剖学ベースのデータを見ることを可能にする。外科医120は、生ビデオフィードへのデータのオーバレイを、邪魔にならないようにカスタマイズすることができる。設定は、たとえばオーバレイされたデータをオンおよびオフに切り替えること、オーバレイの一部のみを示すこと、およびオーバレイ境界線を手動で動かすことなどのカスタマイズを可能にする。 System 100 allows surgeon 120 to view anatomy-based data overlaying the raw image feed displayed via HMD 102. Surgeon 120 can customize the overlay of data onto the live video feed in a non-obtrusive manner. Settings allow customization, such as turning overlaid data on and off, showing only a portion of the overlay, and manually moving overlay borders.

解剖学ベースのデータは、生拡大画像に合わせて表示され、ここで「位置合わせ」は、解剖学ベースのデータと、カメラ140Aおよび140Bによって取得された生拡大立体画像との空間的関係を保存することとして理解される。本明細書における「位置合わせ」という用語の使用は、画像位置合わせに関して従来の文脈で理解されるものよりも広い意味を捉えることが意図される。画像の位置合わせは、1つの画像の少なくとも一部の、他の画像の少なくとも一部に対する変換または整合に関する。本明細書で行われる位置合わせは更に、たとえば類似の特徴を識別することなどの任意の適当な技術を用いて、2つの画像上の対応する位置を正確に特定することを含み、必ずしも2つの画像の少なくとも一部を一致させることを伴うものではない。 The anatomy-based data is displayed in alignment with the raw magnified images, where "registration" preserves the spatial relationship between the anatomy-based data and the raw magnified stereoscopic images acquired by cameras 140A and 140B. It is understood as doing. The use of the term "registration" herein is intended to capture a broader meaning than is understood in the traditional context with respect to image registration. Image registration involves the transformation or alignment of at least a portion of one image to at least a portion of another image. Registration as performed herein further includes pinpointing corresponding locations on the two images using any suitable technique, such as identifying similar features, but not necessarily the It does not involve matching at least a portion of the images.

位置合わせは、事前較正、およびカメラ140Aおよび140Bによってリアルタイムで取得された画像内で検出された特徴に対する解剖学ベースのデータ内の特徴のマッチングに基づき得る。2つのカメラ140Aおよび140Bは、事前較正されるので、カメラ140Aおよび140Bによって撮像された各特徴の方向および深さ(すなわち位置)を計算することができ、また逆も然りであり、特徴または記号は、カメラ140Aおよび140Bに対する所望の位置に出現するように生画像の各々にオーバレイされ得る。本明細書で定義される位置合わせは、解剖学的構造のモデルがトラッカ座標系に位置合わせされるバイザーガイド手術(VGS)またはナビゲーション処置と混同されてはならない。いくつかの実施形態において、解剖学的データと生画像との対応性は、位置関連データを用いて確立される。解剖学的データと表示画像との対応性は、たとえば術前データとリアルタイムデータとをマッピングする位置データを用いて、追跡以外の技術を用いて保存され得る。 Registration may be based on pre-calibration and matching features in the anatomy-based data to features detected in images acquired in real time by cameras 140A and 140B. The two cameras 140A and 140B are pre-calibrated so that the direction and depth (i.e. position) of each feature imaged by cameras 140A and 140B can be calculated, and vice versa, The symbol may be overlaid on each of the raw images to appear at the desired location relative to cameras 140A and 140B. Registration as defined herein is not to be confused with visor-guided surgery (VGS) or navigation procedures in which a model of an anatomical structure is registered to a tracker coordinate system. In some embodiments, correspondence between anatomical data and raw images is established using position-related data. Correspondence between anatomical data and displayed images may be preserved using techniques other than tracking, for example using position data mapping pre-operative data to real-time data.

解剖学ベースの特徴は、OCT画像(術前および術中の両方)、たとえば網膜厚さマップなどの網膜の2Dマップ、ボリュメトリックOCT走査から導出された網膜上膜の3Dモデル、角膜トポグラファによって生成された角膜の3Dモデル、目に対するトーリック眼内レンズ(IOL)の所望の向き、外科医によって患者の網膜の2D画像にマークされた事前計画情報、監督外科医によって作成された術中マーキングなどを含んでよい。 Anatomy-based features are generated by OCT images (both preoperatively and intraoperatively), 2D maps of the retina such as retinal thickness maps, 3D models of the epiretinal membrane derived from volumetric OCT scans, and corneal topographers. the desired orientation of a toric intraocular lens (IOL) relative to the eye, pre-planning information marked on a 2D image of the patient's retina by the surgeon, intraoperative markings made by the supervising surgeon, etc.

いくつかの実施形態において、手術の1つの段階において1つの倍率で撮影された網膜のスナップショットは、より高い倍率で行われる手術の後の段階のためのミニマップとして用いられる。網膜手術中、外科医は一般に、網膜の付近で保持された時に網膜の小部分のみを照明するファイバ照明を用いる。ミニマップは、より高い倍率で作業する時に、より良い空間識を可能にする。ミニマップはPIP内に表示され、ミニマップ上にオーバレイされた円形(または他の)記号は、スナップショット上の照明エリアの位置を示す。リアルタイム位置合わせアルゴリズムは、目またはカメラヘッドが動かされた場合でも、スナップショットへの生ビデオフィードの位置合わせを維持することを可能にする。この技術は、内視鏡ビデオがフルスクリーンで提示されながら、ビデオのフットプリントを表す記号が、PIP内に表示されたミニマップ上にオーバレイされる内視鏡処置にも役立つ。内視鏡ビデオのスナップショットへの位置合わせは、特徴マッチングまたは内視鏡の追跡のいずれかに基づいてよい。 In some embodiments, a snapshot of the retina taken at one magnification during one stage of surgery is used as a mini-map for a later stage of surgery performed at a higher magnification. During retinal surgery, surgeons commonly use fiber illumination, which illuminates only a small portion of the retina when held near the retina. Minimap allows for better spatial awareness when working at higher magnification. A minimap is displayed within the PIP, and a circle (or other) symbol overlaid on the minimap indicates the location of the illuminated area on the snapshot. Real-time alignment algorithms allow the live video feed to remain aligned to the snapshot even if the eye or camera head is moved. This technique is also useful for endoscopic procedures where the endoscopic video is presented full screen while symbols representing the footprint of the video are overlaid on the mini-map displayed within the PIP. Registration of the endoscopic video to the snapshot may be based on either feature matching or tracking of the endoscope.

いくつかの実施形態において、PIP内に表示された画像のデータ位置を示すために、生ビデオ上に記号がオーバレイされる。システム100は、外科医120が、たとえばPIP透明度を制御することによってこの特徴をカスタマイズし、HMD102のFOVにおけるPIPの位置をカスタマイズすることを可能にする。たとえば、1つのそのような記号は、生拡大画像ストリーム上にオーバレイされ、PIP内に表示された術前画像に対応する患者の解剖学的構造の生画像内の位置を示す直線であってよい。この直線は、生画像に対する、PIP内に表示された術前OCT B走査の位置および角度を表す。 In some embodiments, symbols are overlaid on the raw video to indicate data locations of images displayed within the PIP. System 100 allows surgeon 120 to customize this feature, such as by controlling PIP transparency, and customize the position of the PIP in the FOV of HMD 102. For example, one such symbol may be a straight line that is overlaid on the raw magnified image stream and indicates the position in the raw image of the patient's anatomy that corresponds to the preoperative image displayed within the PIP. . This straight line represents the position and angle of the preoperative OCT B-scan displayed in the PIP relative to the raw image.

いくつかの実施形態において、生ビデオ内に出現する特徴の位置を示すために、PIP内に表示された画像上に記号がオーバレイされる。1つの例は、上述したように、ミニマップとして用いられるスナップショット上にオーバレイされた記号である。他の例として、生拡大画像内に出現するトーリックIOLの角度を表す直線が、PIP内に表示された目の術前画像上にオーバレイされ得る。直線の角度は、目の回転および目内部のIOLの瞬間的角度の両方に関してリアルタイムで補正される。 In some embodiments, symbols are overlaid on the image displayed within the PIP to indicate the location of features appearing within the live video. One example is a symbol overlaid on a snapshot used as a minimap, as described above. As another example, a straight line representing the angle of the toric IOL appearing in the live magnified image may be overlaid on the pre-operative image of the eye displayed in the PIP. The angle of the straight line is corrected in real time with respect to both the rotation of the eye and the instantaneous angle of the IOL inside the eye.

ユーザインタフェース160は、生画像フィードの表示の上にオーバレイされたPIPまたは複数のPIP内に表示された複数の画像を見ることを提供する。たとえば、そのような画像は、術前データ、OCT画像、ノート、および、たとえばiOCTからのB走査画像、内視鏡を介して取得されたビデオなどの術中の生データに関連し得る。メニューを通して、外科医120は、たとえば視野の左上角部など、自身の選択する位置におけるPIP位置を制御する。この特徴は、外科医120が、自身の視野の中央エリアを占める生画像フィードと共に術前または生データを見ることを可能にする。PIPのサイズおよび位置は、その中に表示されるコンテンツと共に、UI160を介して外科医120によって設定される。 User interface 160 provides for viewing images displayed within a PIP or PIPs overlaid on top of a display of the live image feed. For example, such images may relate to preoperative data, OCT images, notes, and intraoperative raw data such as B-scan images from iOCT, videos acquired via an endoscope, and the like. Through the menu, the surgeon 120 controls the PIP position at a location of his choice, such as the upper left corner of the field of view. This feature allows the surgeon 120 to view preoperative or raw data with the raw image feed occupying the central area of his or her field of view. The size and position of the PIP, along with the content displayed therein, is set by the surgeon 120 via the UI 160.

後述する図は、外科医120が、表示されたメニューのメニュー項目を操作することによって術前システムモードを出入りし、生画像に位置合わせされた記号と共にPIP内で術前データを閲覧することを可能にする、視野上にオーバレイされたメニューとして実装されたユーザインタフェースに関する典型的な実装を示すことが意図される。いくつかのメニュー項目は、選択された時に行われるアクションを表し、他のメニュー項目は、追加のアクションセットをもたらす追加のメニューを表す。外科医120は、上述したように、フットスイッチ104およびヘッドジェスチャによってユーザインタフェースをナビゲートする。 The figures described below allow the surgeon 120 to enter and exit preoperative system mode by manipulating menu items in the displayed menu and view preoperative data within the PIP with symbols aligned to the raw image. It is intended to show an exemplary implementation for a user interface implemented as a menu overlaid on the field of view. Some menu items represent actions that are taken when selected, while other menu items represent additional menus that result in additional sets of actions. Surgeon 120 navigates the user interface with footswitch 104 and head gestures, as described above.

ここで、開示される技術の更なる実施形態に従って構成され動作可能な、ユーザがシステムとインタラクトし、様々なシステムモードへ切り換えることを可能にする、生画像フィード614上にオーバレイされたメニュー630を示す図6Aが参照される。メニュー630は、外科医120によって構成可能なシステム設定として、次のメニュー、オーバレイ618、自動フォーカス620、色補正622、自動センタリング624、PIP626、システムモード628、およびキャンセル612を表示する。 Here, a menu 630 overlaid on the raw image feed 614, configured and operable in accordance with further embodiments of the disclosed technology, allows a user to interact with the system and switch to various system modes. Reference is made to FIG. 6A. Menu 630 displays the following menus as system settings configurable by surgeon 120: overlay 618, autofocus 620, color correction 622, autocentering 624, PIP 626, system mode 628, and cancel 612.

メニュー項目618に表示された「オフ」によって示されるように、オーバレイ設定は現在オフにされており、外科医120に、項目618を選択することによってオーバレイがオンに切り換えられ得ることを示す。メニュー項目620に表示された「オフ」によって示されるように、自動フォーカス設定は現在オフにされており、外科医120に、項目620を選択することによってオーバレイをオンに切り換えるように提示する。同様に、色補正メニュー項目622に表示された「赤色」によって示されるように、色補正は現在、赤色に設定されており、外科医120に、このメニュー項目を選択することによって異なる色補正へ切り換えるというオプションを提示する。メニュー項目624に表示された「オフ」によって示されるように、自動センタリング設定は現在「オフ」に設定されており、外科医120に、このメニュー項目を選択することによってこの設定をオンに切り換えるというオプションを提示する。メニュー項目626に表示された「オフ」によって示されるように、PIP設定は現在「オフ」に設定されており、外科医120に、このメニュー項目を選択することによってこの設定をオンに切り換えるというオプションを提示する。キャンセル612およびシステムモード628はそれぞれ、外科医120がメニューから退出し、異なるシステムモードへ切り換えるために提供される。システムモードメニュー項目628は、現在強調されており、外科医120が現在このメニュー項目を選択し得ることを示す。 The overlay setting is currently turned off, as indicated by "Off" displayed in menu item 618, indicating to surgeon 120 that the overlay can be turned on by selecting item 618. The automatic focus setting is currently turned off, as indicated by the "Off" displayed in menu item 620, presenting the surgeon 120 with switching the overlay on by selecting item 620. Similarly, the color correction is currently set to red, as indicated by the "red" displayed in color correction menu item 622, and the color correction is currently set to red, prompting the surgeon 120 to switch to a different color correction by selecting this menu item. presents the option. The automatic centering setting is currently set to "off," as indicated by "off" displayed in menu item 624, and the surgeon 120 is given the option of toggling this setting on by selecting this menu item. present. The PIP setting is currently set to "Off," as indicated by "Off" displayed in menu item 626, and provides surgeon 120 with the option to toggle this setting on by selecting this menu item. present. Cancel 612 and system mode 628 are provided for the surgeon 120 to exit the menu and switch to a different system mode, respectively. System mode menu item 628 is currently highlighted, indicating that surgeon 120 may currently select this menu item.

1つの実施形態において、「色補正」メニュー項目が強調され、様々な色補正オプションを含むサブメニューが開かれ、その1つは、色補正特徴をオフに切り換えることを可能にする。いくつかの実施形態において、色補正サブメニューのメニュー項目が強調されると、外科医がフットスイッチ104を解放することによって選択される前に、強調されたメニュー項目に対応する色補正スキームの効果が生画像上で実施され表示される。これは、外科医120が、様々な色補正スキームの1つを選択する前にその効果を見ることを可能にする。この特徴は、たとえば画像の鮮明化などの追加の画像処理機能のために有効化され得る。 In one embodiment, the "Color Correction" menu item is highlighted and a submenu containing various color correction options is opened, one of which allows the color correction feature to be toggled off. In some embodiments, when a menu item in the color correction submenu is highlighted, the effect of the color correction scheme corresponding to the highlighted menu item is displayed before the surgeon selects it by releasing footswitch 104. Performed and displayed on the raw image. This allows the surgeon 120 to see the effects of one of the various color correction schemes before selecting one. This feature may be enabled for additional image processing functions, such as image sharpening, for example.

いくつかの実施形態において、開かれたメニューは、中央ではなく画像の周囲に表示され、メニューが画像の一部を覆い遮断することなく、外科医120が様々な画像処理および色補正の効果を評価することを可能にする。メニュー項目は、周囲に縦に表示され得る。ただし、メニューのナビゲートは、外科医120が生画像から視線をシフトすることを必要としない。様々なメニュー項目をスクロールおよび強調するために、外科医120は、生画像の中心エリアを注視したまま、自身の頭部を上下に動かす。 In some embodiments, the opened menu is displayed around the image rather than in the center, allowing the surgeon 120 to evaluate the effects of various image processing and color corrections without the menu covering or occluding portions of the image. make it possible to Menu items may be displayed vertically around the perimeter. However, navigating the menu does not require the surgeon 120 to shift his or her gaze away from the live image. To scroll and highlight various menu items, the surgeon 120 moves his head up and down while keeping his gaze on the central area of the live image.

外科医120は、フットスイッチ104を押下しながらメニュー項目間で自身の視線を方向付けるために自身の頭部を動かしながら、様々なメニュー項目間でナビゲートする。たとえば、システムモードメニュー項目628を選択するために、外科医は、フットスイッチ104を押下しながら、既定の期間、メニュー項目628が強調された状態を維持(たとえば「長期凝視」)する。これは、以下で図6Bに示すシステムモードメニューをもたらし、現在提示されているアドバンスドメニューを視野の周囲における項目616内へ折り畳み、外科医120が適宜、フットスイッチ104を押下しながら自身の視線を方向付けることによってこのメニューへ戻ることを可能にする。したがって、1つの実装において、様々なメニュー間でナビゲートし、サブメニューを開くために、外科医120は、フットスイッチ104を押下しながら既定の期間、折り畳まれたメニューを表す様々なメニュー項目を強調する。フットスイッチ104の解放は、様々なメニュー間でナビゲートするために必要ではない。ただし、選択されたメニュー項目と関連するシステム設定をアクティブ化または非アクティブ化するためのメニュー項目を選択するために、外科医120は、そのメニュー項目に視線を向けながらフットスイッチ104を解放する。したがって、フットスイッチ104の有効化は、行われ得る可能なアクションを表すメニュー項目間でナビゲートするためではなく、システム100においてアクションを行うために必要である。 Surgeon 120 navigates between various menu items by pressing foot switch 104 and moving his head to direct his gaze between menu items. For example, to select system mode menu item 628, the surgeon holds down footswitch 104 while maintaining menu item 628 highlighted (eg, "long gaze") for a predetermined period of time. This results in the system mode menu shown below in FIG. 6B, collapsing the currently presented advanced menu into an item 616 around the field of view, allowing the surgeon 120 to direct his/her line of sight while pressing the footswitch 104 as appropriate. Allows you to return to this menu by attaching it. Thus, in one implementation, to navigate between various menus and open submenus, the surgeon 120 presses and holds the footswitch 104 for a predetermined period of time to highlight various menu items representing the collapsed menu. do. Releasing footswitch 104 is not necessary to navigate between the various menus. However, to select a menu item to activate or deactivate a system setting associated with the selected menu item, the surgeon 120 releases the footswitch 104 while looking at the menu item. Therefore, activation of footswitch 104 is necessary to perform an action in system 100, rather than to navigate between menu items representing possible actions that may be taken.

図6Bを参照すると、開示される技術の他の実施形態に従って構成され動作可能な、図6Aのメニュー630のシステムモードメニュー項目628が選択された後、生画像フィード上にオーバレイされたシステムモードメニュー600が示される。フットスイッチ104を押下しながらある期間メニュー項目628を凝視することによって図6Aのメニュー項目628を選択すると、図4A~4Dのシステムモードメニュー400に対応するシステムモードメニュー600が、図6Aのメニュー630の代わりに表示される。図6Aに示す、以前表示された「アドバンスド」メニュー630は、図6Bに示すように、たとえば左上角部などの視野の周囲に表示されたメニュー項目616に折り畳まれる。システムモードメニュー600は、生画像614上にオーバレイされた、非接触レンズメニュー項目602、バイタルメニュー項目604、看護士メニュー項目606、術野項目606、術前メニュー項目610、およびキャンセルメニュー項目612を表示する。術前メニュー項目610が強調され、このメニュー項目が現在、外科医120によって選択され得ることを示す。 Referring to FIG. 6B, a system mode menu overlaid on a raw image feed after system mode menu item 628 of menu 630 of FIG. 6A is selected, configured and operable in accordance with other embodiments of the disclosed technology. 600 is shown. Selecting menu item 628 of FIG. 6A by depressing footswitch 104 and gazing at menu item 628 for a period of time causes system mode menu 600 corresponding to system mode menu 400 of FIGS. 4A-4D to change to menu 630 of FIG. 6A. will be displayed instead of. The previously displayed "Advanced" menu 630, shown in FIG. 6A, collapses into menu items 616 displayed around the perimeter of the field of view, such as in the upper left corner, as shown in FIG. 6B. System mode menu 600 includes contactless lens menu item 602, vitals menu item 604, nurse menu item 606, surgical field item 606, preoperative menu item 610, and cancel menu item 612, which are overlaid on raw image 614. indicate. Preoperative menu item 610 is highlighted, indicating that this menu item can now be selected by surgeon 120.

図6Cを参照すると、術前画像は、開示される技術の更なる実施形態に従って構成され動作可能な、生画像フィード上にオーバレイされたPIP内に表示される。フットスイッチ104を解放することによって図6Bのメニュー項目610(「術前」)を選択すると、システムモードは、術前モードに切り換わる。このモードにおいて、ユーザは、術前OCT画像のフォルダがPIP内に表示されるように選択する。いくつかの実施形態において、このモードは、外科医120が、たとえばサイズおよび位置などのユーザ定義設定に従ってPIPを調整および定義することを可能にする。PIP内でどの術前画像を見るかを選択した後、外科医120は、フットスイッチ104および上述したメニューナビゲーション技術を用いて、非接触レンズモードに戻る。非接触レンズモードに戻ると、図6Cに示すように、術前画像632は、生画像614の表示の上部左手角部においてPIP内に表示される。術前OCT画像は、生画像614内に表示されたのと同じ組織のものである。留意すべき点として、PIPの位置およびサイズは、単なる典型例であり、外科医120によってユーザ定義され得る。 Referring to FIG. 6C, the preoperative image is displayed in a PIP overlaid on the raw image feed, configured and operable in accordance with further embodiments of the disclosed technology. Selecting menu item 610 (“Preoperative”) of FIG. 6B by releasing footswitch 104 switches the system mode to preoperative mode. In this mode, the user selects a folder of preoperative OCT images to be displayed within the PIP. In some embodiments, this mode allows the surgeon 120 to adjust and define the PIP according to user-defined settings, such as size and position. After selecting which preoperative images to view within the PIP, the surgeon 120 returns to non-contact lens mode using the footswitch 104 and the menu navigation techniques described above. Returning to the non-contact lens mode, the pre-operative image 632 is displayed within the PIP at the top left hand corner of the display of the live image 614, as shown in FIG. 6C. The preoperative OCT image is of the same tissue displayed in raw image 614. Note that the location and size of the PIP are merely exemplary and may be user-defined by the surgeon 120.

図6Dを参照すると、開示される技術の他の実施形態に従って構成され動作可能な、PIPと共に生画像フィード上にオーバレイされた、図6Aのメニュー630が示される。外科医120は、たとえばフットスイッチ104を押下することによって、メニュー630を再出現させる。メニュー630は、上部左手角部に表示されたPIP632と共に生画像614上にオーバレイされて表示される。オーバレイメニュー項目618が強調され、外科医120が、フットスイッチ104を押下しながらヘッドジェスチャを行うことによってこのメニューを選択したことを示す。メニュー項目618に表示された「オフ」によって示されるように、現在、オーバレイ設定の状態はオフであり、外科医120に、メニュー項目618を選択することによってこの設定をオンに切り換えるように求めている。 Referring to FIG. 6D, menu 630 of FIG. 6A is shown overlaid on a raw image feed with a PIP, configured and operable in accordance with other embodiments of the disclosed technology. Surgeon 120 causes menu 630 to reappear, for example, by depressing footswitch 104. Menu 630 is displayed overlaid on raw image 614 with PIP 632 displayed in the top left hand corner. Overlay menu item 618 is highlighted, indicating that surgeon 120 has selected this menu by depressing footswitch 104 and making a head gesture. The state of the overlay setting is currently off, as indicated by "Off" displayed in menu item 618, and prompts surgeon 120 to toggle this setting on by selecting menu item 618. .

ここで、全体として、開示される技術の他の実施形態に従って構成され動作可能な、PIP632内に表示された対応するコンテンツを有する一連の生画像614を示す図6E~6Jが参照される。図6E~6Jは、生画像614に重ね合わせられたオーバレイ634を示す。オーバレイ634は、PIP632内に表示された術前OCT画像に対応する生画像614上の位置を示す直線である。生画像614は3D画像である、すなわち、外科医120の各目は、3D画像614を共に形成するわずかに異なる画像を見ているため、直線634は、外科医120の両目に投影された2つの画像の各々に個別にオーバレイされる。その結果、外科医120は、網膜を示す3D画像614の表面において正しい奥行き感覚でオーバレイされた直線634を見る。 Reference is now made to FIGS. 6E-6J, which illustrate a series of raw images 614 with corresponding content displayed within a PIP 632, generally constructed and operable in accordance with other embodiments of the disclosed technology. 6E-6J show an overlay 634 superimposed on the raw image 614. Overlay 634 is a straight line that indicates the position on raw image 614 that corresponds to the preoperative OCT image displayed within PIP 632 . The raw image 614 is a 3D image, i.e. each eye of the surgeon 120 sees a slightly different image that together form the 3D image 614, so the straight line 634 represents the two images projected to each eye of the surgeon 120. are individually overlaid on each of them. As a result, the surgeon 120 sees an overlaid straight line 634 with the correct depth perception on the surface of the 3D image 614 showing the retina.

いくつかの実施形態において、コンピュータ118は、複数の術前画像をライブラリに格納する。各画像がPIP632内に表示されると、画像に対応する生画像614上の位置は、たとえば直線634などのオーバレイによって示される。各オーバレイ634によって示された組織上の位置は、PIP632内に同時に表示された術前OCT画像に対応する。ユーザは、フットスイッチ104のペダルを押下しながら同時にヘッドジェスチャ(たとえば、スクロールダウンのためのヘッドダウン回転、およびスクロールアップのためのヘッドアップ回転)を行うことによって術前画像のセット内でスクロールする。PIP632内に表示された術前OCT画像が変化すると、リアルタイム画像上の対応する位置が計算され、オーバレイ直線634によって表示される。示された画像において、リアルタイム画像上の位置は、対応して下方向へシフトする。リアルタイム画像上の対応する位置に関する計算は、PIP632内に表示された術前OCT画像が外科医120によって変更されていない場合でも、画像614が生であり、オーバレイが動的更新を要求すると、フレームごとに行われ得る。この計算は、網膜の術前画像および全ての術前OCT画像に対応する画像上の位置を備える、術前OCT撮像器によって生成されたデータに基づく。この網膜の術前画像を用いると、リアルタイム画像614上の対応する位置が計算され得る。この特徴は、外科医120が、ハンドレスジェスチャを用いて、生画像フィード614上の対応するオーバレイと共にPIP632内の術前データにおいてスクロールすることを可能にする。留意され得る点として、PIP632内のOCT画像の表示は、単なる例示であることが意図され、本発明を限定するものではない。PIP632は、直線634によって示された生画像614上の位置に対応する他の関連コンテンツを表示してよい。 In some embodiments, computer 118 stores a plurality of pre-operative images in a library. As each image is displayed within PIP 632, the position on raw image 614 that corresponds to the image is indicated by an overlay, such as a straight line 634. The tissue location indicated by each overlay 634 corresponds to a preoperative OCT image simultaneously displayed within PIP 632. The user scrolls within the set of preoperative images by depressing the pedal of footswitch 104 and simultaneously performing head gestures (e.g., head down rotation to scroll down, and head up rotation to scroll up). . As the preoperative OCT image displayed in PIP 632 changes, the corresponding position on the real-time image is calculated and displayed by overlay straight line 634. In the image shown, the position on the real-time image is correspondingly shifted downward. Calculations for corresponding locations on real-time images are performed frame-by-frame when image 614 is raw and the overlay requests dynamic updates, even if the preoperative OCT image displayed within PIP 632 has not been modified by surgeon 120. can be carried out. This calculation is based on data generated by the preoperative OCT imager, comprising a preoperative image of the retina and image positions corresponding to all preoperative OCT images. Using this pre-operative image of the retina, the corresponding location on the real-time image 614 can be calculated. This feature allows the surgeon 120 to use handless gestures to scroll in the pre-operative data within the PIP 632 with a corresponding overlay on the live image feed 614. It may be noted that the display of OCT images within PIP 632 is intended to be illustrative only and not limiting of the invention. PIP 632 may display other related content corresponding to the location on raw image 614 indicated by straight line 634.

いくつかの実施形態において、外科医120は、PIP内の術前データを見ながら、生画像をフリーズしてよい。これは、PIPが生画像フィードと共に術前データを表示している間、生画像上に特徴または記号を描画するために役立ち得る。描画中に画像をフリーズすることは、生ビデオが、たとえば無意識のサカディック眼球運動、呼吸などに起因する動きを表示する場合に役立つ。描画された記号は、生画像フィードのフリーズ解除後、たとえば切開部の切開などの後続するアクションを外科医120にガイドするために用いられ得る。 In some embodiments, the surgeon 120 may freeze the raw images while viewing the preoperative data within the PIP. This may be useful for drawing features or symbols on the raw image while the PIP displays the pre-operative data along with the raw image feed. Freezing the image during drawing is useful when the raw video displays movements due to involuntary saccadic eye movements, breathing, etc., for example. The drawn symbols may be used to guide the surgeon 120 in subsequent actions, such as cutting an incision, after unfreezing the live image feed.

いくつかの実施形態において、外科医120は、UI160を介して、HMD102を介して表示された画像内の点を指定してよい。たとえば、フットスイッチ104によって有効化されたヘッドジェスチャは、画像上の点を指定するためにカーソルを動かしてよい。あるいは、外科医120の眼部運動を追跡することによって画像上で点が指定され得る。指定は、たとえば以下のような様々な目的を果たしてよい。
・手動位置合わせのための点を指定すること。PIPおよび生ビデオの両方における対応する点が、PIP内の画像を手動で位置合わせするために指定され得る。
・位置合わせされた画像内の点を位置特定するための点を指定すること。画像(またはモデル)が位置合わせされた後、外科医120は、生ビデオ内の点を指定することができ、位置合わせされた画像内の対応する点が強調され、逆も然りである。
・PIPを呼び出すための点を指定すること。小さなPIPは、外科医120によって指定された点の付近で呼び出されてよく、PIPのコンテンツは、指定された点と関連してよく、外科医120が、術野124内の点にフォーカスし、その点の付近で関連データを見ることを可能にする。
・iOCTスキャナ142の関心領域(ROI)を制御するための点を指定すること。1または複数の2D B走査または3DボリュメトリックiOCT画像が生ビデオと共に表示され、外科医は、カメラヘッド112によって取得されたビデオにおいて、たとえば十字などの記号を指定することによって、iOCTスキャナ142の正確なROIを制御する。
・自動フォーカスのための点を指定すること。自動フォーカスは、指定された点の周囲のROIに基づいてアクティブ化され得る。
In some embodiments, the surgeon 120, via the UI 160, may specify a point within the image displayed via the HMD 102. For example, a head gesture activated by footswitch 104 may move a cursor to specify a point on the image. Alternatively, points may be designated on the image by tracking the eye movements of the surgeon 120. The designation may serve a variety of purposes, such as:
- Specify points for manual alignment. Corresponding points in both the PIP and the live video may be specified to manually align images within the PIP.
- Specifying a point for locating a point in the aligned image. After the images (or models) are registered, the surgeon 120 can specify points in the live video and the corresponding points in the registered images will be highlighted, and vice versa.
- Specify the point for calling PIP. The small PIP may be invoked in the vicinity of a point specified by the surgeon 120, and the content of the PIP may be associated with the specified point, such that the surgeon 120 focuses on a point within the surgical field 124 and Enables you to view related data near.
- Specifying points to control the region of interest (ROI) of the iOCT scanner 142; One or more 2D B-scan or 3D volumetric iOCT images are displayed along with the raw video, and the surgeon can determine the exact location of the iOCT scanner 142 by designating a symbol, such as a cross, in the video acquired by the camera head 112. Control ROI.
- Specify a point for automatic focus. Autofocus may be activated based on the ROI around the specified point.

いくつかの実施形態において、外科医120は、ヘッドジェスチャを介して生画像フィード上にオーバレイされた記号を制御し、オーバレイされた記号の位置に対応する術前画像が、PIP内に表示される。記号の位置が変化すると、PIP内に表示された対応する画像は変化する。いくつかの実施形態において、生画像フィード上の選択された位置に対応する術前画像が存在しない場合、コンピュータ118は、選択された位置に最も近い術前画像を選択し、その距離を外科医120に示す。 In some embodiments, the surgeon 120 controls the symbol overlaid on the live image feed via head gestures, and the preoperative image corresponding to the location of the overlaid symbol is displayed within the PIP. As the position of the symbol changes, the corresponding image displayed within the PIP changes. In some embodiments, if there is no preoperative image corresponding to the selected location on the raw image feed, computer 118 selects the preoperative image closest to the selected location and calculates that distance to surgeon 120. Shown below.

ここで、全体として、開示される技術の他の実施形態に従って構成され動作可能な、PIP644内に表示された対応するコンテンツを有する一連の生画像642を示す図6K~6Pが参照される。図6K~6Pの実施形態は、図6E~6Jに関して上述したものと実質的に同様であるが、顕著に異なる点として、図6K~6Pの直線634の代わりにPIP644の境界線646が用いられ、PIP644内に示されたコンテンツと、生画像642内に表示された組織との対応性を示す。図6K~6Pの例において、PIP644は、生画像642内に示された組織のOCT断面図を表示するが、これは、単なる例示であることが意図され、本発明を限定するものではない。妥当性を有し得る場合、他のコンテンツがPIP644内に表示され得る。PIP644内に示されたOCT画像は、術前または術中段階に取得され、後の使用のためにメモリ118D(図1B)に格納されたものである。処置中、HMD102は、生画像642として生組織の表面を表示する。生画像642は、患者122の組織のリアルタイムビデオ表示であってよく、あるいは、図6R~6Vに関して後述するように、たとえば更なる使用のために外科医が特徴を描画することを可能にするための、リアルタイムビデオのフリーズされた部分であってよい。 Reference is now made to FIGS. 6K-6P, which illustrate a series of raw images 642 with corresponding content displayed within a PIP 644, generally configured and operable in accordance with other embodiments of the disclosed technology. The embodiment of FIGS. 6K-6P is substantially similar to that described above with respect to FIGS. 6E-6J, with the notable difference that a boundary line 646 of the PIP 644 is used in place of the straight line 634 of FIGS. 6K-6P. , indicating the correspondence between the content shown in PIP 644 and the organization displayed in raw image 642. In the example of FIGS. 6K-6P, PIP 644 displays an OCT cross-section of the tissue shown in raw image 642, but this is intended to be illustrative only and not limiting. Other content may be displayed within the PIP 644 if appropriate. The OCT images shown in PIP 644 were acquired during the preoperative or intraoperative phase and stored in memory 118D (FIG. 1B) for later use. During the treatment, the HMD 102 displays the surface of the living tissue as a raw image 642. The raw image 642 may be a real-time video representation of the tissue of the patient 122 or, as described below with respect to FIGS. 6R-6V, for example, to allow the surgeon to draw features for further use. , may be a frozen portion of real-time video.

生画像642に重ね合わせられると、HMD102は、PIP644内に、境界線646によって示された位置における生組織の過去に取得されたOCT断面図を表示する。図6K~6Pは、生画像642の左上の位置(図6K)から始まり生画像642において下および右方向へ移動する(図6L~6P)複数の様々な位置において生画像642上にオーバレイされたPIP644を示す。生画像642上のPIP644の各位置に関して、その位置でPIP644内に表示されたOCT画像は、境界線646によって示された組織の断面に対応する。このように、生画像642の上でPIP644の位置を操作することによって、外科医120は、組織の様々な断面スライスを見てよい。 When superimposed on the raw image 642, the HMD 102 displays in the PIP 644 a previously acquired OCT cross-sectional view of the raw tissue at the position indicated by the boundary line 646. 6K-6P are overlaid onto the raw image 642 at a number of different positions starting from the top left position of the raw image 642 (FIG. 6K) and moving down and to the right in the raw image 642 (FIGS. 6L-6P). PIP644 is shown. For each location of PIP 644 on raw image 642, the OCT image displayed within PIP 644 at that location corresponds to a cross-section of tissue indicated by border line 646. Thus, by manipulating the position of PIP 644 on raw image 642, surgeon 120 may view various cross-sectional slices of tissue.

ここで、開示される技術の更なる実施形態に従って構成され動作可能な、2つのPIP644および648内に表示された対応するコンテンツを有する図6L~6Pの生画像642を示す図6Qが参照される。図6Qの実施形態は、図6L~6Pに関して上述したものと実質的に同様であるが、注目すべき点として、2つのPIP644および648が生画像642上に重ね合わせられ、各PIPは、それぞれ境界線646および650によって示された組織に対応するコンテンツを示す。PIP644は、境界線646によって示された位置における生組織のOCT断面スライスを示し、PIP648は、境界線650によって示された位置における組織のOCT断面スライスを示す。上述したように、外科医は、様々な位置における組織の断面スライスを表示するために、生画像642の上でPIP644および648の位置を操作してよい。 Reference is now made to FIG. 6Q, which illustrates the raw image 642 of FIGS. 6L-6P with corresponding content displayed within two PIPs 644 and 648, configured and operable in accordance with further embodiments of the disclosed technology. . The embodiment of FIG. 6Q is substantially similar to that described above with respect to FIGS. 6L-6P, except that two PIPs 644 and 648 are superimposed on raw image 642, and each PIP Content corresponding to the organization indicated by boundaries 646 and 650 is shown. PIP 644 shows an OCT cross-sectional slice of living tissue at the location indicated by border line 646, and PIP 648 shows an OCT cross-sectional slice of tissue at the location indicated by border line 650. As discussed above, the surgeon may manipulate the position of PIPs 644 and 648 on raw image 642 to display cross-sectional slices of tissue at various locations.

ここで、全体として、開示される技術の更なる実施形態に従って構成され動作可能な、描画機能の実装を示す図6R~6Vが参照される。図6R~6Vは、HMD102を介して表示された描画機能を用いて記号を描画した結果を示す。1つの実施形態において、描画は、たとえばHMD102などの、患者122の生画像を表示するHMDを装着している間に実施される。描画機能は、HMDを介して表示された1または複数のメニューを介してアクティブ化され、HMDの装着者が、本明細書で説明された技術を用いて描画ツール(不図示)を選択することを可能にする。描画ツールは、生画像の上に表示され、HMDの装着者が、ヘッドジェスチャ、フットスイッチ104、ワンドの操作、眼部運動の追跡などの1または複数を用いて描画ツールを操作することによって、生画像上にオーバレイされた記号を描画することを可能にする。あるいは、描画は、システム100に提供されたユーザインタフェース(不図示)、マウスまたはワンドなどを介して実施され得る。 Reference is now made to FIGS. 6R-6V, which generally illustrate implementations of drawing functionality, constructed and operative in accordance with further embodiments of the disclosed technology. 6R to 6V show the results of drawing symbols using the drawing function displayed via the HMD 102. In one embodiment, the drawing is performed while wearing an HMD, such as HMD 102, that displays live images of patient 122. The drawing function is activated via one or more menus displayed via the HMD, and the HMD wearer selects a drawing tool (not shown) using techniques described herein. enable. The drawing tool is displayed on top of the raw image, and the HMD wearer manipulates the drawing tool using one or more of head gestures, foot switch 104, wand operation, eye movement tracking, etc. Allows to draw symbols overlaid on the raw image. Alternatively, drawing may be performed via a user interface (not shown) provided in system 100, such as a mouse or wand.

1つの動作モードにおいて、外科医120は、たとえば医療処置中のガイドとして後に使用するために、術前計画段階の間に特徴を描画する。この場合、外科医120は、任意の術前データと共に、HMD102を介して生画像の上に表示された描画メニューおよびツールを見る。外科医120は、生画像上に1または複数の予備記号を描画する。1つの実施形態において、生画像フィードは、精度を高めるために描画中フリーズされる。描画された記号は、描画が完了すると、生画像フィードがフリーズ解除され術前データが表示されなくなった後、生画像と共に表示されたままであり、外科医120は、医療処置を行いながら生画像フィード上にオーバレイされた描画記号を見ることが可能である。 In one mode of operation, the surgeon 120 draws features during a preoperative planning stage, for example, for later use as a guide during a medical procedure. In this case, the surgeon 120 views the drawing menu and tools displayed over the raw image via the HMD 102, along with any preoperative data. Surgeon 120 draws one or more preliminary symbols on the raw image. In one embodiment, the raw image feed is frozen during rendering to increase accuracy. Once drawn, the drawn symbol remains visible with the raw image after the raw image feed is unfrozen and no longer displays preoperative data, allowing the surgeon 120 to view the raw image feed while performing a medical procedure. It is possible to see drawing symbols overlaid on the

たとえば教示モードなどの他の動作モードにおいて、監督外科医(不図示)が、後続して処置を行う外科医120をガイドするために、記号を描画する。教示モードにおいて、監督外科医は、外科医120と共に手術室内に居てよく、その場で記号を描画する。あるいは、監督外科医は、他の場所に所在してよく、遠隔で記号を描画する。監督外科医は、他のHMDを介して、スマートフォン、タブレット、または他のタッチスクリーンを介して、あるいは標準モニタを有するマウスまたはワンドを介してなどのいずれかで、記号を描画してよい。 In other modes of operation, such as a teach mode, a supervising surgeon (not shown) draws symbols to guide the surgeon 120 who subsequently performs the procedure. In the teach mode, the supervising surgeon may be in the operating room with the surgeon 120 and draw symbols on the fly. Alternatively, the supervising surgeon may be located elsewhere and draw the symbols remotely. The supervising surgeon may draw symbols either through another HMD, through a smartphone, tablet, or other touch screen, or through a mouse or wand with a standard monitor, etc.

図6Rを参照すると、記号を仮想描画する前の、患者122の目の生画像660が示される。図6S~6Tを参照すると、ペイントメニュー(不図示)から仮想描画ツールを選択した後、外科医は、たとえば切開する位置を示すために、生画像660上に記号662を仮想描画する。記号662は、図6Sにおいて部分的に描画された状態で、図6Tにおいて完全に描画された状態で示される。上述したように、記号662は、教示モードの間に第2のHMDを装着している年長外科医によって、またはHMD102を装着している外科医120によって描画され得る。記号662は、たとえば本明細書で参照されたような任意の適当なUI技術を用いて描画される。たとえば、記号662を描画するために、外科医120は、記号662の形状に対応する軌跡を辿るヘッドジェスチャを用いて仮想描画ツールを動かしながらフットスイッチ104を押下し、記号662の描画が完了すると(不図示)、フットスイッチ104を解放する。あるいは、外科医は、タッチスクリーンを介して表示された生画像上に描画するためにマウスまたは自身の指を用いてよい。生画像上に描画する外科医は、任意選択的に、手術室内に居ない場合があり、遠隔位置から描画のための様々なUI方法(自身のオフィス内で3D生画像を表示するHMDおよびフットスイッチを用いること、2D生画像を表示するタブレット上に描画することなど)のいずれかを用いてよい。図6Uを参照すると、外科医120は、患者122の目を切開するためのガイドとして、生画像660上に描画されオーバレイされた記号662を用いる。外科医120は、生画像660上の記号662によって示された位置に対応する、患者122の目における物理的位置に、外科用器具664を置く。図6Vを参照すると、外科医120は、患者122の目を切開するために、記号662に対応する経路に沿って外科用器具664を動かす。このように、外科医120、あるいは年長外科医は、切開を行う前に生画像660上に仮想経路を描画し、その後の切開が正しく行われることを確実にする。 Referring to FIG. 6R, a raw image 660 of patient's 122 eye is shown prior to virtual rendering of the symbol. 6S-6T, after selecting a virtual drawing tool from a paint menu (not shown), the surgeon virtually draws a symbol 662 on the raw image 660, for example to indicate where to make an incision. Symbol 662 is shown partially drawn in FIG. 6S and fully drawn in FIG. 6T. As mentioned above, the symbol 662 may be drawn by the senior surgeon wearing the second HMD during the teach mode or by the surgeon 120 wearing the HMD 102. Symbol 662 may be rendered using any suitable UI technology, such as those referenced herein. For example, to draw symbol 662, surgeon 120 depresses footswitch 104 while moving the virtual drawing tool using a head gesture that follows a trajectory corresponding to the shape of symbol 662, and once drawing symbol 662 is completed ( (not shown) and releases the foot switch 104. Alternatively, the surgeon may use a mouse or his or her finger to draw on the live image displayed via the touch screen. The surgeon drawing on the live image may optionally not be present in the operating room and may use various UI methods for drawing from a remote location (such as an HMD and footswitch to display the 3D live image within his or her office). (e.g., using a 2D raw image, drawing on a tablet displaying the 2D raw image, etc.). Referring to FIG. 6U, surgeon 120 uses symbols 662 drawn and overlaid on raw image 660 as a guide for making an incision in patient's 122 eye. Surgeon 120 places surgical instrument 664 at a physical location in patient's 122 eye that corresponds to the location indicated by symbol 662 on raw image 660. Referring to FIG. 6V, surgeon 120 moves surgical instrument 664 along a path corresponding to symbol 662 to make an incision in patient's 122 eye. In this manner, surgeon 120, or a senior surgeon, may draw a virtual path on raw image 660 before making an incision to ensure that subsequent incisions are made correctly.

外科医120が特定の特徴を強調するための1または複数の記号またはマーキングを描画した後、外科医120は、ガイダンスのためのマーキングを用いて処置を進めるために、生画像を見ながらどのマーキングを表示するかを選択してよい。外科医120は、必要性および妥当性に従って、処置中、任意の数の事前描画したマーキングをスクロールしてよい。マーキングが使用されなくなると、これらが生画像の表示を不明瞭にすることを防ぐために、システム100は、所定の期間後にマーキングを消し去るように構成され得る。1つの実施形態において、デフォルト設定に従って(たとえば10秒後)、記号は自動的に消え去る。他の実施形態において、専用の事前計画アプリケーションメニューは、外科医120が、マーキングの各々を無効化する(すなわちオフにする)ことを可能にする。 After the surgeon 120 draws one or more symbols or markings to highlight particular features, the surgeon 120 displays which markings while viewing the live image in order to proceed with the procedure using the markings for guidance. You may choose to do so. Surgeon 120 may scroll through any number of pre-drawn markings during the procedure according to need and validity. The system 100 may be configured to erase markings after a predetermined period of time to prevent them from obscuring the display of the live image once the markings are no longer in use. In one embodiment, the symbol automatically disappears according to default settings (eg, after 10 seconds). In other embodiments, a dedicated pre-planning application menu allows the surgeon 120 to disable (ie, turn off) each of the markings.

ここで、全体として、開示される技術の更なる実施形態に従って構成され動作可能な、選択された視野エリアにフォーカスするためのメニュー駆動型ユーザインタフェースの典型的な実装を示す図7A~7Eが参照される。後述する図において、ユーザインタフェースは、生画像ストリーム上にオーバレイされる一連のメニューとして実装される。外科医120は、上述したように、ヘッドジェスチャと組み合わせてフットスイッチ104を用いて、メニューをナビゲートする。 Reference is now made generally to FIGS. 7A-7E, which illustrate exemplary implementations of menu-driven user interfaces for focusing on selected viewing areas, constructed and operable in accordance with further embodiments of the disclosed technology. be done. In the figures described below, the user interface is implemented as a series of menus overlaid on the raw image stream. Surgeon 120 uses footswitch 104 in combination with head gestures to navigate the menus, as described above.

図7Aを参照すると、メニュー730は、開示される技術の実施形態に従って構成され動作可能な、選択された視野エリアにフォーカスするための、生画像フィード714上にオーバレイされたメニュー730が表示される。メニュー730は、上述した図6Aに示されるメニュー630に対応する。メニュー630と同様、メニュー730は、オーバレイ718、自動フォーカス720、色補正722、自動センタリング724、PIP726、システムモード728、およびキャンセル712のメニュー項目を含む。自動フォーカス特徴に関するメニュー項目720が強調され、外科医120によってこの項目が現在選択され得ることを示す。メニュー項目720に表示された「オフ」設定によって示されるように、現在、自動フォーカス特徴はオフであり、外科医720が、メニュー項目720を「押下」してアクティブ化することにより自動フォーカス特徴をオンに切り換えることを求めている。いくつかの実施形態において、外科医120は、フットスイッチ104を解放することなくフットスイッチ104を押下しながら、たとえば0.5秒間などの既定の期間、メニュー項目720(図7A)を凝視することによって既定の期間メニュー項目720を強調することにより、自動フォーカスをオンにする。他の実施形態において、外科医は、メニュー項目720を強調しフットスイッチ104を解放した後、自動フォーカスをオンにする。 Referring to FIG. 7A, a menu 730 is displayed overlaid on the raw image feed 714 for focusing on a selected viewing area configured and operable in accordance with embodiments of the disclosed technology. . Menu 730 corresponds to menu 630 shown in FIG. 6A described above. Similar to menu 630, menu 730 includes the following menu items: overlay 718, autofocus 720, color correction 722, autocentering 724, PIP 726, system mode 728, and cancel 712. Menu item 720 for the autofocus feature is highlighted, indicating that this item may currently be selected by surgeon 120. The autofocus feature is currently off, as indicated by the "off" setting displayed in menu item 720, and the surgeon 720 turns on the autofocus feature by "pressing" and activating menu item 720. I'm asking you to switch to . In some embodiments, the surgeon 120 may press the footswitch 104 without releasing the footswitch 104 while staring at the menu item 720 (FIG. 7A) for a predetermined period of time, such as 0.5 seconds. Autofocus is turned on by highlighting menu item 720 for a predetermined period. In other embodiments, the surgeon turns on autofocus after highlighting menu item 720 and releasing footswitch 104.

図7B~7Dを参照すると、開示される技術の更なる実施形態に従って構成され動作可能な、フォーカスのために選択された視野エリアを指定することを可能にするユーザインタフェーススクリーンの典型的な実装が示される。この特徴をオンにするために自動フォーカス720をアクティブ化すると、UIスクリーン740が画像714の表示にオーバレイされ、図7Aに示すメニュー730と入れ替わる。UIスクリーン740は、プロンプト742と、この実装において括弧のセットとして示される指定記号744とを含む。いくつかの実施形態において、外科医120は、フットスイッチ104を解放することによって、自動フォーカスをオンにする。プロンプト742は、外科医120に、自動フォーカスを実行する生画像714内のエリアを手動で指定することを要求する。外科医120は、画像714の表示の上で指定記号744を操作することによって、エリアを指定する。指定記号744の位置は、たとえばフットスイッチ104と組み合わせてヘッドジェスチャを行うことなど、上述した技術のいずれかを用いて操作され得る。任意選択的に、外科医120は、たとえば0.5秒間などの既定の期間、所望のエリアを凝視することによって、フォーカスするエリアを指定する。アイトラッカ部品136(図1C)は、指定および選択されたエリアを検出するために、外科医120の視線を追跡する。いくつかの実施形態において、システム100は、外科医120の眼部運動の追跡に基づいて、指定されたエリアへの自動的な自動フォーカスを継続的に行う。留意すべき点として、ユーザの嗜好および状況に従って、他の記号が指定記号として用いられてよい。たとえば、特定の点を正確に指定するために、指定記号は、矢印、カーソル記号などであってよい。 7B-7D, an exemplary implementation of a user interface screen that enables designation of a selected viewing area for focus is constructed and operable in accordance with further embodiments of the disclosed technology. shown. Activating autofocus 720 to turn on this feature causes UI screen 740 to overlay the display of image 714 and replace menu 730 shown in FIG. 7A. UI screen 740 includes a prompt 742 and designation symbols 744, shown in this implementation as a set of brackets. In some embodiments, the surgeon 120 turns on autofocus by releasing the footswitch 104. Prompt 742 requests surgeon 120 to manually specify an area within raw image 714 to perform autofocus. The surgeon 120 specifies the area by operating the designation symbol 744 on the display of the image 714. The position of designation symbol 744 may be manipulated using any of the techniques described above, such as by performing a head gesture in combination with foot switch 104, for example. Optionally, the surgeon 120 designates the area of focus by staring at the desired area for a predetermined period of time, such as 0.5 seconds. Eye tracker component 136 (FIG. 1C) tracks the line of sight of surgeon 120 to detect designated and selected areas. In some embodiments, system 100 continuously provides automatic autofocus to designated areas based on tracking of surgeon's 120 eye movements. It should be noted that other symbols may be used as designation symbols according to user preferences and circumstances. For example, the designation symbol may be an arrow, a cursor symbol, etc. to precisely designate a particular point.

図7Cを参照すると、外科医120は、十分にフォーカスが合っていない画像714の左側にある領域746へ指定記号744を動かす。領域746は、破線円形によって示される。外科医120は、たとえばフットスイッチ104を押下しながら自身の頭部を左方向へ回転することなど、任意の適当なUI技術を用いて指定記号744を動かす。外科医120は、フォーカスを改善する領域746を指定する。フットスイッチ104を解放することなく既定の期間メニュー項目720を強調することによって自動フォーカスがアクティブ化された場合、外科医は、領域746を凝視しフットスイッチ104を解放することによって、指定記号744を領域746に配置することにより、自動フォーカスのための領域746を指定する。フットスイッチ104を解放することによって自動フォーカスがアクティブ化されると、外科医120は、たとえば0.5秒間などの既定の期間、指定記号744を領域746に配置することによって、自動フォーカスのための領域746を指定する。システム100は、指定記号744が領域746に位置する間のわずかな動きを許容し得る。 Referring to FIG. 7C, the surgeon 120 moves the designation symbol 744 to an area 746 to the left of the image 714 that is not fully in focus. Region 746 is indicated by a dashed circle. The surgeon 120 moves the designation symbol 744 using any suitable UI technique, such as, for example, by pressing the foot switch 104 and rotating his or her head to the left. Surgeon 120 designates areas 746 to improve focus. If autofocus is activated by highlighting menu item 720 for a predetermined period of time without releasing footswitch 104, the surgeon places designation symbol 744 in the region by gazing at region 746 and releasing footswitch 104. 746, the area 746 for automatic focus is designated. When autofocus is activated by releasing the footswitch 104, the surgeon 120 sets the area for autofocus by placing a designation symbol 744 in the area 746 for a predetermined period of time, such as 0.5 seconds. Specify 746. System 100 may tolerate slight movement while designation symbol 744 is located in region 746.

図7Dを参照すると、コンピュータ118は、指定記号744によって指定された領域746にデジタルにフォーカスする。フォーカス前の図7Cの領域746とフォーカス後の図7Dの領域746とを比較すると、デジタルフォーカスの結果が示され得る。 Referring to FIG. 7D, computer 118 digitally focuses on area 746 designated by designation symbol 744. Comparing the region 746 of FIG. 7C before focus and the region 746 of FIG. 7D after focus may show the result of digital focus.

自動フォーカスは、様々なモードに実装され得る。1つのモードにおいて、自動フォーカスがアクティブ化され、フォーカスポイント(すなわち領域746)が選択されると、自動フォーカスは選択された領域に固定し、自動フォーカス特徴が非アクティブ化されるまでフォーカス状態を維持する。これは、患者の解剖学的構造の様々な部位を捕捉するためにカメラヘッドの位置および向きが変化するアプリケーションにおいて役立ち得る。選択された領域が生画像フィード内にある限り、この領域はフォーカスが合ったままである。 Autofocus can be implemented in various modes. In one mode, when autofocus is activated and a focus point (i.e., area 746) is selected, autofocus locks on the selected area and remains in focus until the autofocus feature is deactivated. do. This may be useful in applications where the position and orientation of the camera head changes to capture different parts of the patient's anatomy. As long as the selected region is within the raw image feed, this region will remain in focus.

他のモードにおいて、「自動フォーカス」は、ワンタイムアクションである。メニュー項目720を選択することによって自動フォーカス特徴がアクティブ化される度、指定記号744が表示され、外科医120は、フォーカスする領域を指定するように促される。システム100は、指定された領域にロックするのではなく、ワンタイムアクションとして指定された領域にフォーカスする。この実装において、メニュー項目720は、「オフ」または「オン」を明記することなく「自動フォーカス」と書いてある。 In other modes, "autofocus" is a one-time action. Each time the autofocus feature is activated by selecting menu item 720, a designation symbol 744 is displayed to prompt the surgeon 120 to designate the area to focus on. Rather than locking onto a specified area, the system 100 focuses on the specified area as a one-time action. In this implementation, menu item 720 says "Auto Focus" without specifying "off" or "on."

ここで、開示される技術の実施形態に従って構成され動作可能な、生画像フィード上にオーバレイされた、図7Aのメニューの他の図である図7Eが参照される。メニュー730は、本明細書で説明される技術を用いて呼び出された後に再度表示されたものである。ただし、この時、自動フォーカス特徴を示すメニュー項目720が「オン」を表示し、現在自動フォーカスがオンであることを示す。自動フォーカスをオフに切り換えるために、外科医120は、上述した技術を用いてメニュー項目720を選択する。 Reference is now made to FIG. 7E, which is another view of the menu of FIG. 7A overlaid on a raw image feed, constructed and operable in accordance with embodiments of the disclosed technology. Menu 730 was invoked and redisplayed using the techniques described herein. However, at this time, the menu item 720 indicating the autofocus feature displays "on", indicating that autofocus is currently on. To turn off autofocus, surgeon 120 selects menu item 720 using the techniques described above.

ここで、全体として、開示される技術の他の実施形態に従って構成され動作可能な、視野の選択されたエリアにフォーカスするためのメニュー駆動型ユーザインタフェースの他の典型的な実装を示す図7F~7Iが参照される。図7F~7Iは、上述した図7A~7Dと実質的に同様である。図7Fを参照すると、生画像752上にオーバレイされたメニュー750が示される。メニュー750は、図6Aのメニュー630に対応し、オーバレイ754、自動フォーカス756、色補正758、自動センタリング760、PIP762、システムモード764、およびキャンセル768のメニュー項目を含む。外科医120は、上述したように、UI160を介して自動フォーカスをオンにする。図7Gを参照すると、UIスクリーン768が生画像752上にオーバレイされている。UIスクリーン768は、プロンプト770および記号772(たとえば丸括弧のペア)を表示する。プロンプト770は、外科医120に、記号772を操作することによって生画像752上のフォーカスポイントを指定するように要求する。図7Hを参照すると、外科医120は、フォーカスの合っていない特徴774(たとえば白色背景上のボケた黒丸)を指定するために記号772を動かす。図7Iを参照すると、生画像752の特徴774は、図7Hよりも鮮明なフォーカスで表示されている。外科医120は、以前よりも良い解像度で特徴774を見ながら外科処置を継続することができる。 7F-7F illustrating other exemplary implementations of menu-driven user interfaces for focusing on selected areas of the field of view, generally configured and operable in accordance with other embodiments of the disclosed technology; Reference is made to 7I. 7F-7I are substantially similar to FIGS. 7A-7D described above. Referring to FIG. 7F, a menu 750 is shown overlaid on a raw image 752. Menu 750 corresponds to menu 630 of FIG. 6A and includes the following menu items: overlay 754, autofocus 756, color correction 758, autocentering 760, PIP 762, system mode 764, and cancel 768. Surgeon 120 turns on autofocus via UI 160, as described above. Referring to FIG. 7G, a UI screen 768 is overlaid on the raw image 752. UI screen 768 displays a prompt 770 and a symbol 772 (eg, a pair of parentheses). Prompt 770 requests surgeon 120 to specify a focus point on raw image 752 by manipulating symbol 772. Referring to FIG. 7H, the surgeon 120 moves symbol 772 to designate an out-of-focus feature 774 (eg, a blurred black circle on a white background). Referring to FIG. 7I, features 774 in raw image 752 are displayed in sharper focus than in FIG. 7H. Surgeon 120 can continue the surgical procedure while viewing features 774 with better resolution than before.

システム100は更に、外科医120が、1または複数のオーバレイを含むようにHMD102を介してデータの表示をカスタマイズすることを可能にする事前計画段階を提供する。外科処置を行う前に、外科医120は、術前画像に1または複数の記号およびノートを追加してよい。外科処置中、追加された記号およびノートは、カメラシステム112によって取得された生ビデオに位置合わせされたオーバレイ内に表示される。たとえば、光凝固のための最適な位置を示すマークが表示され、オーバレイされ、生画像フィードに位置合わせされる。他の例として、外科医120は、たとえば付着している網膜に関して青色、剥離した網膜に関して赤色などの色マップを作成するために術前画像のエリアに着色する。色マップはその後、外科処置中に生ビデオ上にオーバレイされる。 System 100 further provides a pre-planning phase that allows surgeon 120 to customize the display of data via HMD 102 to include one or more overlays. Before performing a surgical procedure, surgeon 120 may add one or more symbols and notes to the preoperative image. During the surgical procedure, added symbols and notes are displayed in an overlay aligned with the live video captured by camera system 112. For example, marks indicating the optimal location for photocoagulation are displayed, overlaid, and aligned to the raw image feed. As another example, the surgeon 120 colors areas of the preoperative image to create a color map, such as blue for attached retina and red for detached retina. The color map is then overlaid on the live video during the surgical procedure.

システム100は更に、外科医120が、外科処置の間中、カメラヘッド110によって取得された任意の生画像のスナップショットの取得を制御することを可能にする。スナップショットは、コンピュータ118に格納される。格納されたスナップショットは、メモリから再呼出しされ、進捗を監視またはガイダンスを支援するために、外科処置の後の段階において個別スクリーンまたはディスプレイモジュール130上のPIPにおいて外科医に見られ得る。スナップショットは、2Dまたは3Dフォーマットで格納され得る。スナップショットは、PIP内でディスプレイモジュール130上に繰り返しレンダリングされるショートビデオクリップ、または「GIF」フォーマットとしても格納され得る。このGIFフォーマットは、膜を見るために有利である。PIPモードにおいて(すなわち、PIPを「選択」した後)、スナップショットのアクティブ化は、PIP画像のみを保存し得る。これは、PIP内に表示されたiOCT画像または内視鏡画像を保存するために役立ち得る。 System 100 further allows surgeon 120 to control the capture of any live image snapshots captured by camera head 110 throughout the surgical procedure. The snapshot is stored on computer 118. The stored snapshots may be recalled from memory and viewed by the surgeon on a separate screen or PIP on display module 130 at a later stage of the surgical procedure to monitor progress or assist in guidance. Snapshots may be stored in 2D or 3D format. Snapshots may also be stored in short video clips, or “GIF” format, that are repeatedly rendered on display module 130 within the PIP. This GIF format is advantageous for viewing membranes. In PIP mode (ie, after "selecting" a PIP), activating a snapshot may save only the PIP image. This may be useful for storing iOCT or endoscopic images displayed within the PIP.

たとえば、スナップショットは、膜を増強するために染料が塗布された後、撮影され得る。染料が吸収され、消失した後でも、外科医120はなお、生ビデオフィードと共に表示されたPIP内の染色エリアを見ることができる。スナップショットは生ビデオに位置合わせされるので、外科医120は、上述したようにPIP内の点を指定してよく、生ビデオ内の対応する点が自動的に強調、着色、または記号によってマークされる。 For example, a snapshot may be taken after dye is applied to enhance the membrane. Even after the dye is absorbed and disappears, the surgeon 120 can still see the stained area within the PIP displayed with the live video feed. Since the snapshot is aligned to the live video, the surgeon 120 may specify a point in the PIP as described above, and the corresponding point in the live video will be automatically highlighted, colored, or marked with a symbol. Ru.

開示される技術は更に、外科医120がGIFを作成することを可能にする。外科医120は、たとえばヘッドジェスチャと関連してペダル104を用いることなどによって、カメラヘッド110によって取得された画像の記録を開始し、同様のUI入力セットを用いて記録を停止する。たとえば、システム100は、選択されると、システム100にGIFに関する画像を記録させるGIFメニュー項目(不図示)を表示する。GIFメニュー項目を選択するために、外科医120は、フットスイッチ104を押下しながら、たとえば2秒間などの既定の期間、GIFメニュー項目を凝視する。GIFに関する画像の記録を終了するために、外科医120は、フットスイッチ104を解放する。外科医120は、たとえば患者122のアイデンティティを有するタイムスタンプなどの識別細目を記載するメニュー項目へのヘッドジェスチャによって、あるいは音声制御を介して、名前を割り当てる。いくつかの実施形態において、システム100は、既知の技術を用いて、スナップショットまたはGIFに自動的に名前を割り当てる。GIFは、メモリ118D(図1B)に格納され、後に再呼出しされ、適宜、個別スクリーンに、またはメニュー項目を選択することによってPIP内に表示され得る。 The disclosed technology further allows the surgeon 120 to create GIFs. Surgeon 120 initiates recording of images acquired by camera head 110, such as by using pedal 104 in conjunction with a head gesture, and stops recording using a similar set of UI inputs. For example, system 100 displays a GIF menu item (not shown) that, when selected, causes system 100 to record an image for a GIF. To select a GIF menu item, the surgeon 120 holds down the footswitch 104 and stares at the GIF menu item for a predetermined period of time, such as two seconds. To finish recording images for the GIF, surgeon 120 releases footswitch 104. The surgeon 120 assigns the name by head gesture or via voice control to a menu item that describes identifying details, such as a timestamp with the identity of the patient 122, for example. In some embodiments, system 100 automatically assigns names to snapshots or GIFs using known techniques. The GIF may be stored in memory 118D (FIG. 1B) and later recalled and displayed on a separate screen or within the PIP as appropriate by selecting a menu item.

システム100がアクティブ化されると、外科医120は、カメラヘッド110が正しく配置された時のみ患者の目の周囲で重なる同軸/赤目照明光線を利用して、設計位置に近付くようにカメラヘッド110を手動で配置してよい。外科医120は、その後、カメラヘッド110の位置を正しい作動距離に自動的に微調整するようにシステムに命令してよい。コンピュータ118は、高解像度カメラ140Aおよび140Bを術野124の関心エリアより上の適当な高さまで自動的に持ち上げ、すなわち、機械アームコントローラ118Gは、z軸モータを操作し、コントローラ118Hは、画像内で患者の目が中心となるようにXYモータを操作し、カメラ140Aおよび140Bのレンズを公称シャッタ、フォーカス、およびズーム値に設定し、照明システムコントローラ118Iは、照明システム114を前眼部設定に制御する。 When the system 100 is activated, the surgeon 120 moves the camera head 110 closer to the design position, utilizing coaxial/red-eye illumination beams that overlap around the patient's eyes only when the camera head 110 is correctly positioned. May be placed manually. The surgeon 120 may then instruct the system to automatically fine-tune the position of the camera head 110 to the correct working distance. Computer 118 automatically raises high-resolution cameras 140A and 140B to an appropriate height above the area of interest in surgical field 124; mechanical arm controller 118G operates the z-axis motor; operates the XY motors to center the patient's eyes and sets the lenses of cameras 140A and 140B to nominal shutter, focus, and zoom values, and the illumination system controller 118I directs the illumination system 114 to the anterior segment setting. Control.

システム100は、後の使用のためにシステム設定を保存するように構成され得る。外科処置が完了した後、外科医120は、タッチスクリーン108を介してシステム設定を編集し、今後の使用のためにその設定に名前を付けてよい。設定は、「デフォルト設定」に優先してよく、または後に、HMD102上のメニューを介して表示されるメニュー項目として出現してよい。タッチスクリーン108は、外科医120が、HMD102を介して後に表示される任意の保存設定を選択することを可能にする。 System 100 may be configured to save system settings for later use. After the surgical procedure is completed, surgeon 120 may edit system settings via touch screen 108 and name the settings for future use. The settings may override the "default settings" or may later appear as a menu item displayed via a menu on the HMD 102. Touch screen 108 allows surgeon 120 to select any saved settings that are later displayed via HMD 102.

いくつかの実施形態において、システム100は、HMD102を身に着ける時、外科医120を識別する。たとえば外科医120または看護士などのユーザは、既存の外科医リストから外科医120を選択し、リスト内の各外科医は、上述したように、事前構成された設定のセットと関連する。システム100は、たとえば音声認識などの任意の適当な技術を用いて、または、たとえば外科医120の目の取得画像と過去に取得された画像とを比較するためにHMD120と統合されたアイトラッカカメラを用いるなど、生体データを用いて、外科医120を自動的に識別する。外科医120が正しく識別されると、システム100は、外科医120と関連する事前構成された設定で構成される。 In some embodiments, system 100 identifies surgeon 120 when wearing HMD 102. A user, such as a surgeon 120 or a nurse, selects a surgeon 120 from an existing list of surgeons, each surgeon in the list being associated with a set of preconfigured settings, as described above. The system 100 may be configured using any suitable technique, such as voice recognition, or an eye tracker camera integrated with the HMD 120, for example, to compare acquired images of the surgeon's 120 eyes with previously acquired images. The biometric data is used to automatically identify the surgeon 120, such as using a biometric data. Once the surgeon 120 is correctly identified, the system 100 is configured with preconfigured settings associated with the surgeon 120.

同様に、いくつかの実施形態において、システム100は、患者122が、予定された外科処置に対応することを検証するために、患者122の目のリアルタイム画像と、(おそらく)患者122に関して取得された術前画像とを自動的に比較する。これは、たとえば、誤りをなくし、外科医が使用している術前データが患者122に属すること、および適切な目に対して適切な外科処置が行われていることを確認するためである。システム100は、使用されている術前データと、患者122に関して取得された生画像ストリームとの任意の不一致を、外科医120に警告する。 Similarly, in some embodiments, the system 100 includes real-time images of the eyes of the patient 122 and (perhaps automatically compares the preoperative images. This is, for example, to eliminate errors and to ensure that the preoperative data the surgeon is using belongs to the patient 122 and that the appropriate surgical procedure is being performed on the appropriate eye. System 100 alerts surgeon 120 of any discrepancies between the preoperative data being used and the raw image stream acquired for patient 122.

いくつかの実施形態において、システム100は、外科処置の開始時、間中、または終了時のいずれかに、外科医120にチェックリストを表示する。外科医120は、実行されたアクションである項目をチェックリストから手動でチェックしてよく、またはシステム100は、これらのアクションの実行を検出し、自動的にリストから項目をチェックしてよい。チェックリストは、各外科医のためにカスタマイズされてよく、上述したように、外科医120を識別すると表示され得る。チェックリストは、サイドスクリーンに、またはリアルタイム画像内のPIPとして表示されてよく、外科医は、それをオンにするかオフにするかを選択してよい。いくつかの実施形態において、コンピュータ118(図1B)は、外科医120がFOV全体を見ることを可能にするためにHMD102を正しく配置する上で外科医120を支援するために、HMD102を介してセンタリング記号を表示する。たとえば、センタリング記号は、フレーム、またはFOVの境界を示す他の適当な記号であってよい。記号は、外科医120が最初にHMD102を身に着けた時、HMDが静止状態の後に動かされた際にHMDトラッカによって検出された時、または(任意のUI方法を介した)ユーザコマンドごとに、HMD102が動き、または位置ずれした場合、自動的に表示され得る。HMD102が、ディスプレイの瞳孔間距離(IPD)を変更する能力を備える場合、この特徴は、IPDが正確に設定されたかの検証を支援し、必要に応じて調整してもよい。 In some embodiments, system 100 displays a checklist to surgeon 120 either at the beginning, during, or at the end of a surgical procedure. Surgeon 120 may manually check items from the checklist that are actions performed, or system 100 may detect the performance of these actions and automatically check items from the list. The checklist may be customized for each surgeon and may be displayed upon identifying the surgeon 120, as described above. The checklist may be displayed on the side screen or as a PIP in the real-time image, and the surgeon may choose to turn it on or off. In some embodiments, the computer 118 (FIG. 1B) sends a centering symbol via the HMD 102 to assist the surgeon 120 in correctly positioning the HMD 102 to allow the surgeon 120 to see the entire FOV. Display. For example, the centering symbol may be a frame or other suitable symbol denoting the boundaries of the FOV. The symbol is displayed when the surgeon 120 first dons the HMD 102, when the HMD is moved after being stationary, as detected by the HMD tracker, or upon user command (via any UI method). If the HMD 102 moves or is misaligned, it may be automatically displayed. If the HMD 102 includes the ability to change the interpupillary distance (IPD) of the display, this feature may assist in verifying that the IPD was set correctly and may be adjusted as necessary.

いくつかの実施形態において、システム100は、3Dデジタル顕微鏡における重なり合わない画像に関する影響を検出し補正する。この問題は、カメラが設計作動距離にない物体を捕捉し、外科医がレンズフォーカスモータを用いてフォーカスを設定する場合に生じる。これが発生すると、2つのカメラ140Aおよび140B(図1E)によって生成された画像は完全には重なり合わない。これらの画像が、ディスプレイ130Aおよび130B(図1C)を介して外科医120の両目にストリーミングされた場合、眼精疲労をもたらし得る。画像の重なり合う部分は、それらが空間内の同じ方向から到来するかのようには表示されない。外科医120は、自身の脳が2つの画像を単一の3D画像に合併するように、目を細めなければならない。 In some embodiments, system 100 detects and corrects for effects related to non-overlapping images in a 3D digital microscope. This problem arises when the camera captures an object that is not at the designed working distance and the surgeon uses the lens focus motor to set the focus. When this occurs, the images produced by the two cameras 140A and 140B (FIG. 1E) will not completely overlap. If these images were streamed to both eyes of surgeon 120 via displays 130A and 130B (FIG. 1C), they could result in eye strain. Overlapping parts of the images are not displayed as if they came from the same direction in space. The surgeon 120 must squint so that his brain merges the two images into a single 3D image.

この状況はたとえば2つの2D画像の重複部分の境界を計算するための画像処理を用いることによって、または、フォーカスモータの状態から実際の作動距離を導出するために較正データを用いることによって、自動的に検出され得る。各カメラレンズのフォーカスモータ状態は、対応する事前較正された作動距離を有する。実際の作動距離と設計作動距離とを比較することによって、この不一致が計算され、考慮され得る。 This situation can be solved automatically, for example by using image processing to calculate the boundaries of the overlap between two 2D images, or by using calibration data to derive the actual working distance from the state of the focus motor. can be detected. Each camera lens focus motor state has a corresponding pre-calibrated working distance. By comparing the actual working distance and the design working distance, this discrepancy can be calculated and taken into account.

1つの解決策は、2つの画像をシフトし、黒色バーを有する画像の損失部分を埋めることである。このようにすると、外科医120の両目は、画像の重なり合う部分を同じ方向から生じるものとして見、重なり合わないFOVの両端部は、各々が片方の目のみに見える(ただし、表示画像が黒色エリアを備える場合、ディスプレイユニットは、ディスプレイの対応するエリアにおいて一切発光しない)。 One solution is to shift the two images and fill in the missing part of the image with black bars. In this way, both eyes of the surgeon 120 see the overlapping portions of the images as coming from the same direction, and the ends of the non-overlapping FOV are visible to only one eye of each (unless the displayed image does not include black areas. (in which case the display unit does not emit any light in the corresponding area of the display).

ここで、全体として、開示される技術に従って構成され動作可能な、カメラの実際の作動距離と設計作動距離との不一致によって生じる重なり合わない画像に関する補正効果のための技術を示す図8A~8Bが参照される。図8Aは、実際の作動距離802と設計作動距離804との不一致を示す、光学セットアップ800を示す。不一致の結果、それぞれ直線28および11で表された、カメラ140Aおよび140B(図1E)によって取得された画像は、位置がずれ、完全に重なり合わないので、画像は、異なる方向から生じているかのように見える。 8A-8B, generally constructed and operable in accordance with the disclosed techniques, illustrate techniques for correction effects with respect to non-overlapping images caused by a mismatch between the actual working distance and the design working distance of a camera. Referenced. FIG. 8A shows an optical setup 800 showing a discrepancy between the actual working distance 802 and the designed working distance 804. As a result of the mismatch, the images acquired by cameras 140A and 140B (FIG. 1E), represented by straight lines 28 and 11, respectively, are misaligned and do not completely overlap, so that the images appear to be coming from different directions. looks like.

図8Bを参照すると、カメラ140Aおよび140Bによって取得された画像のシフト、および補正の結果が示される。グリッド810は、外科医120の左目に表示される、カメラ140Aによって取得された画像の数値描写を示し、グリッド812は、外科医120の右目に表示される、カメラ140Bによって取得された画像の数値描写を示す。カメラ140Aおよび140Bに関する実際の作動距離と設計距離との不一致によって、グリッド810の右端2列は、グリッド812には含まれず、グリッド812の左端2列は、グリッド810には含まれない。図8Aに戻ると、28と示された、カメラ140Bによって取得された画像に対応する直線と重なり合わない、カメラ140Aによって取得された画像に対応する直線のエンドポイントは、グリッド812に含まれないグリッド810の右上角部に対応する。11と示された、カメラ140Aによって取得された画像に対応する直線と重なり合わない、カメラ140Bによって取得された画像に対応する直線のエンドポイントは、グリッド810に含まれないグリッド812の左上角部に対応する。 Referring to FIG. 8B, the results of the shift and correction of images captured by cameras 140A and 140B are shown. Grid 810 shows a numerical depiction of the image captured by camera 140A as displayed in the left eye of surgeon 120, and grid 812 shows a numerical depiction of the image captured by camera 140B as displayed in the right eye of surgeon 120. show. Due to the discrepancy between the actual working distance and the design distance for cameras 140A and 140B, the two rightmost columns of grid 810 are not included in grid 812 and the two leftmost columns of grid 812 are not included in grid 810. Returning to FIG. 8A, endpoints of the straight line corresponding to the image acquired by camera 140A, labeled 28, that do not overlap with the straight line corresponding to the image acquired by camera 140B are not included in grid 812. Corresponds to the upper right corner of grid 810. The end point of the straight line corresponding to the image acquired by camera 140B that does not overlap with the straight line corresponding to the image acquired by camera 140A, indicated as 11, is the upper left corner of grid 812 that is not included in grid 810. corresponds to

この不一致を補正するために、グリッド810は、グリッド814として示すように1列右へシフトされ、グリッド812は、グリッド816として示すように1列左へシフトされる。グリッド814の左端列814Aは、画像のこの部分が外科医120に表示されないために黒く塗りつぶされ、グリッド816の右端列816Aは、画像のこの部分が外科医120に表示されないために黒く塗りつぶされる。グリッド818は、外科医120の両目に見える、両方のグリッド810および812の重なり合う特徴を中央(白色背景)に示す。灰色背景で示された左端列818Aは、外科医120の右目のみに見え、灰色背景で示された右端列818Bは、外科医120の左目のみに見える。 To correct for this mismatch, grid 810 is shifted one column to the right, shown as grid 814, and grid 812 is shifted one column to the left, shown as grid 816. The leftmost column 814A of grid 814 is filled with black because this portion of the image is not displayed to surgeon 120, and the rightmost column 816A of grid 816 is filled with black because this portion of the image is not displayed to surgeon 120. Grid 818 shows in the center (white background) the overlapping features of both grids 810 and 812 that are visible to both eyes of surgeon 120. The leftmost column 818A, shown with a gray background, is visible only to the surgeon's 120 right eye, and the rightmost column 818B, shown with a gray background, is visible only to the surgeon's 120 left eye.

上述したシフト技術は、カメラ140Aおよび140Bのフォーカスが調整される間、継続的に行われ得る。あるいは、シフト技術は、フォーカス調整の完了時、たとえばフットスイッチ104の有効化ペダルが解放された時のみ行われ得る。この場合、シフト技術は、外科医120が表示画像における急激な変化を経験しないように、短期間、たとえば数秒間にわたり徐々に行われる。外科医120は、UI160を介して、シフト技術をオンまたはオフに切り換え、その期間を設定してよい。図8Bの例において、結合画像は、独立した画像の各々と同じ倍率を有することに留意する。ただし、これは必須ではなく、グリッド818によって表された結合画像が撮像FOV全体を備えるように、倍率はある程度低減され得る。たとえば、結合画像の数値表現は、各取得画像の全列を含んでおり、左端の列は、(左上端のグリッドエントリとして番号11を有する)グリッド812の左端の列に対応し右端の列は、(上端グリッドエントリとして番号28を有する)グリッド810の右端の列に対応する。実際上、このオプションが適用された場合、ユーザがフォーカスを変更すると、ズームもわずかに変化する。 The shifting techniques described above may be performed continuously while the focus of cameras 140A and 140B is adjusted. Alternatively, the shifting technique may be performed only upon completion of the focus adjustment, for example when the enabling pedal of footswitch 104 is released. In this case, the shifting technique is performed gradually over a short period of time, such as a few seconds, so that the surgeon 120 does not experience sudden changes in the displayed image. The surgeon 120 may turn the shifting technique on or off and set its duration via the UI 160. Note that in the example of FIG. 8B, the combined image has the same magnification as each of the independent images. However, this is not required and the magnification may be reduced to some extent so that the combined image represented by grid 818 comprises the entire imaging FOV. For example, the numerical representation of the combined image includes all columns of each acquired image, where the leftmost column corresponds to the leftmost column of grid 812 (with number 11 as the top leftmost grid entry) and the rightmost column , corresponds to the rightmost column of grid 810 (having number 28 as the top grid entry). In effect, when this option is applied, when the user changes focus, the zoom will also change slightly.

いくつかのシナリオにおいて、重なり合わない画像が生じ得る。シフト技術を用いる補正を必要とする1つのそのようなシナリオは、外科医120がカメラヘッド110を概ね設計作動距離に配置する手順の開始時に起こる。外科医120は、照明システム114の2つの投光照明によって発生する2つの光のスポットが重なり合うまで、手術部位の上のカメラヘッド110内に収容されたカメラ140Aおよび140Bの高さを手動で調整し得る。これらの光は、設計作動距離において重なり合うように設計され得る。カメラヘッド110が完全に設計作動距離に位置しない場合、カメラ140Aおよび140Bによって生成されディスプレイ130Aおよび130Bを介して外科医120の両目に投影された画像は、図8Bにおいて上述したように、完全に重なり合わない。 In some scenarios, non-overlapping images may occur. One such scenario that requires correction using a shifting technique occurs at the beginning of a procedure when the surgeon 120 positions the camera head 110 approximately at the design working distance. Surgeon 120 manually adjusts the height of cameras 140A and 140B housed within camera head 110 above the surgical site until the two spots of light produced by the two floodlights of illumination system 114 overlap. obtain. These lights may be designed to overlap at the design working distance. If camera head 110 is not located at the full design working distance, the images generated by cameras 140A and 140B and projected to both eyes of surgeon 120 via displays 130A and 130B will be completely overlapping, as described above in FIG. 8B. Do not fit.

ここで、全体として、開示される技術の実施形態に従って構成され動作可能な、様々な作動距離における図8Aの光学システム800を示す図8C~8Eが参照される。図8C~8Eの頂部線820は、左カメラ140A(図1E)によって捕捉されディスプレイ130A(図1C)によって表示された画像を示し、図8C~8Eの底部線822は、右カメラ140B(図1E)によって捕捉されディスプレイ130B(図1C)によって表示された画像を示す。図8C~8Eの破線824は、物体平面を示す。カメラ140Aおよび140Bの位置決めにおける誤差は、例示のために誇張されている。図8Cは、設計作動距離に位置するカメラを有する光学システム800を示す。したがって、実際の作動距離と設計作動距離との間に不一致はない。この構成によって取得された画像は、重複線820および822によって示すように完全に重なり合うためにシフトを必要としない。 Reference is now made to FIGS. 8C-8E, which illustrate the optical system 800 of FIG. 8A at various working distances, generally configured and operable in accordance with embodiments of the disclosed technology. The top line 820 of FIGS. 8C-8E shows the image captured by the left camera 140A (FIG. 1E) and displayed by the display 130A (FIG. 1C), and the bottom line 822 of FIGS. ) and displayed by display 130B (FIG. 1C). Dashed line 824 in FIGS. 8C-8E indicates the object plane. Errors in the positioning of cameras 140A and 140B are exaggerated for illustrative purposes. FIG. 8C shows an optical system 800 with a camera located at a design working distance. Therefore, there is no discrepancy between the actual working distance and the design working distance. The images obtained with this configuration do not require any shifting to fully overlap as shown by overlap lines 820 and 822.

図8Dを参照すると、設計作動距離より下に位置し、実際の作動距離と設計作動距離との間の不一致をもたらすカメラ140Aおよび140B(図1E)を有する光学システム800が示される。この不一致の結果として、カメラ140Aおよび140Bの各々によって取得され、それぞれディスプレイ130Aおよび130Bを介して表示された画像は、完全に重なり合わない。左カメラ140Aによって取得されディスプレイ130Aによって表示された画像を示す直線820は、右カメラ140Bによって取得されディスプレイ130Bを介して表示された画像を示す直線822と完全に重なり合わない。その結果、2つの画像内の重なり合う部分は、異なる方向から生じているように出現し、ユーザの左目および右目は、脳内で結合された3D画像を生成しようとして細められる。これは、たとえば上述したシフト技術を用いることなどによって画像が補正されない限り、眼精疲労をもたらし得る。 Referring to FIG. 8D, an optical system 800 is shown having cameras 140A and 140B (FIG. 1E) located below the design working distance, resulting in a discrepancy between the actual working distance and the design working distance. As a result of this mismatch, the images captured by each of cameras 140A and 140B and displayed via displays 130A and 130B, respectively, do not completely overlap. Straight line 820 representing the image captured by left camera 140A and displayed by display 130A does not completely overlap straight line 822 representing the image captured by right camera 140B and displayed via display 130B. As a result, overlapping parts in the two images appear to come from different directions, and the user's left and right eyes are squinted in an attempt to generate a combined 3D image in the brain. This can lead to eye strain unless the image is corrected, such as by using the shifting techniques described above.

図8Eを参照すると、設計作動距離より上に位置し、実際の作動距離と設計作動距離との間の不一致をもたらすカメラ140Aおよび140Bを有する光学システム800が示される。この不一致の結果として、カメラ140Aおよび140Bの各々によって取得された画像は完全に重なり合わない。左カメラ140Aによって取得されディスプレイ130Aによって表示された画像を示す直線820は、右カメラ140Bによって取得されディスプレイ130Bによって表示された画像を示す直線822と重なり合わない。上述したように、シフト技術を適用しない場合、脳内で結合された3D画像を生成しようとして左目および右目が細められ、眼精疲労をもたらす。 Referring to FIG. 8E, an optical system 800 is shown having cameras 140A and 140B located above the design working distance, resulting in a discrepancy between the actual working distance and the design working distance. As a result of this mismatch, the images captured by each of cameras 140A and 140B do not completely overlap. Straight line 820 representing the image captured by left camera 140A and displayed by display 130A does not overlap straight line 822 representing the image captured by right camera 140B and displayed by display 130B. As mentioned above, if the shifting technique is not applied, the left and right eyes will squint in an attempt to generate a combined 3D image in the brain, resulting in eye strain.

いくつかの実施形態において、たとえばシステム100がカメラヘッド110の高さを制御するためのz軸モータを含む場合、UI160は、カメラヘッド110の高さを設計作動距離に自動的に調整するために、初期化オプション、すなわち「初期」または「ホーム」メニュー項目を提示する。システム100が、カメラヘッド110の高さを制御するためのZモータを有して構成されていない実施形態において、コンピュータは、実際の作動距離と設計作動距離との間の不一致を決定するために画像処理技術を適用し、不一致が許容閾値よりも大きい場合、外科医120に、距離を手動で調整するように通知する。たとえば、UI160は、上下いずれかに、どの程度、すなわち何センチメートルまたは何インチ、高さを調整するかを外科医120にガイドするメッセージを表示する。ただし、外科医120は、たとえば撮像FOVを増加させるために、設計作動距離とは異なる距離で作業し続けることを選択してよい(下側は、FOVの全てではなく画像が重なり合う部分のみで3Dで見えている)。 In some embodiments, for example, if system 100 includes a z-axis motor to control the height of camera head 110, UI 160 may be configured to automatically adjust the height of camera head 110 to the design working distance. , presents an initialization option, i.e. an "Initial" or "Home" menu item. In embodiments where system 100 is not configured with a Z motor to control the height of camera head 110, the computer may Image processing techniques are applied and if the discrepancy is greater than an acceptable threshold, the surgeon 120 is notified to manually adjust the distance. For example, UI 160 displays a message guiding surgeon 120 how much, ie, how many centimeters or inches, to adjust the height either up or down. However, the surgeon 120 may choose to continue working at a different distance than the design working distance, for example to increase the imaging FOV (lower side is 3D with only the portion of the image overlap rather than all of the FOV). visible).

シフト技術を用いる補正を必要とする他のシナリオは、カメラ140Aおよび140Bが設計作動距離に適切に位置する時、外科医120が、焦点面を変更するためにカメラ140Aおよび140Bに統合されたレンズフォーカスモータを用いる場合である。たとえば、外科医120が前眼部および後眼部モード間で切り換え、または同じモード内で異なる平面にフォーカスする時、カメラ140Aおよび140Bによって取得された画像間の不一致は、眼精疲労をもたらすほどに大きくなり得る。そのような場合、カメラ140Aおよび140Bによって取得された画像を一致させ、外科医120が経験する眼精疲労を軽減するために、上述したシフト技術が適用され得る。 Another scenario that requires correction using a shifting technique is when the surgeon 120 uses a lens focus integrated into the cameras 140A and 140B to change the focal plane when the cameras 140A and 140B are properly positioned at the design working distance. This is the case when a motor is used. For example, when surgeon 120 switches between anterior and posterior segment modes, or focuses on different planes within the same mode, the discrepancy between the images acquired by cameras 140A and 140B can be significant enough to result in eye strain. It can be big. In such cases, the shifting techniques described above may be applied to match the images acquired by cameras 140A and 140B and reduce eye strain experienced by surgeon 120.

ここで、開示される技術の実施形態に従って構成され動作可能な、2つの異なる焦点面830および832にフォーカスするように構成された図8Aの光学システム800を示す図8Fが参照される。設計作動距離は、破線834によって示される。焦点面830は、設計作動距離834の上に位置し、焦点面832は、設計作動距離834の下に位置する。頂部線836は、左カメラ140Aによって捕捉されディスプレイ130Aを介して表示された画像を表し、底部線838は、右カメラ140Bによって捕捉されディスプレイ130Bを介して表示された画像を表す。頂部線836は、底部線838に対して左へシフトした状態で示され、本明細書で説明されるシフト技術を用いて補正され得る、2つの取得画像間の不一致を示す。焦点面832と同様に、頂部線840は、左カメラ140Aによって捕捉されディスプレイ130Aを介して表示された画像を表し、底部線842は、右カメラ140Bによって捕捉されディスプレイ130Bを介して表示された画像を表す。頂部線840は、底部線842に対して右へシフトした状態で示され、カメラ140Aおよび140Bが焦点面832に調整された時の2つの取得画像間の不一致を示す。この不一致もまた、本明細書で説明されるシフト技術を用いて補正され得る。 Reference is now made to FIG. 8F, which depicts the optical system 800 of FIG. 8A configured to focus on two different focal planes 830 and 832, constructed and operable in accordance with embodiments of the disclosed technology. The design working distance is indicated by dashed line 834. Focal plane 830 is located above design working distance 834 and focal plane 832 is located below design working distance 834. Top line 836 represents the image captured by left camera 140A and displayed via display 130A, and bottom line 838 represents the image captured by right camera 140B and displayed via display 130B. The top line 836 is shown shifted to the left relative to the bottom line 838, indicating a mismatch between the two acquired images that can be corrected using the shifting techniques described herein. Similar to focal plane 832, top line 840 represents the image captured by left camera 140A and displayed via display 130A, and bottom line 842 represents the image captured by right camera 140B and displayed via display 130B. represents. The top line 840 is shown shifted to the right relative to the bottom line 842 to indicate the mismatch between the two acquired images when cameras 140A and 140B are aligned to the focal plane 832. This mismatch may also be corrected using the shifting techniques described herein.

上述した実施形態において、シフトは、外科医の両目が前方に視線を向けている時に快適な立体視を可能にするために行われた。いくつかの実施形態において、システム100は、2つの表示画像間の不一致を意図的に生成するように構成され得る。シフトの量は、システム100の各ユーザに固有に合わせられ得る。表示画像は、水平、垂直、またはその両方にシフトされ得る。シフトは、外科医の両目の各々に固有であってよい。このシフト特徴は、斜位(すなわち両目のずれ)を経験する外科医の眼精疲労を軽減するために有用であり得る。シフトの量および方向は、頭部の向きに依存する斜位状態の場合、(トラッカによって示されるような)頭部の向きの関数として変化するように構成され得る。 In the embodiments described above, the shift was made to allow comfortable stereoscopic viewing when the surgeon's eyes are looking forward. In some embodiments, system 100 may be configured to intentionally create a mismatch between two displayed images. The amount of shift may be uniquely tailored to each user of system 100. The displayed image may be shifted horizontally, vertically, or both. The shift may be unique to each of the surgeon's eyes. This shifting feature may be useful for reducing eye strain for surgeons who experience tropia (ie, misalignment of both eyes). The amount and direction of the shift may be configured to vary as a function of head orientation (as indicated by the tracker) for head orientation dependent oblique conditions.

いくつかの実施形態において、ユーザ固有シフトは、1回の較正プロセス中に構成されてよく、システム100の後の使用に関して自動的に実施されるようにユーザごとに保存され得る。任意選択的に、外科医は、外科処置中にシフト特性を調整してよい。任意選択的に、頭部の向きに基づくシフトは、段階的に、かつ所定の期間、HMD102の装着者の頭部の向きが変化しなかった後にのみ行われる。これは、何人かのユーザを妨害し得る、他の機能を有効化するためのヘッドジェスチャの実行に応答する表示画像のシフトを防ぐためである。場合によっては、表示画像は、視線方向(たとえば垂直視線方向)において起こり得る斜位依存を補正するために不均一にシフトされ得る。たとえば、斜位が垂直視線方向に依存する場合、シフトは、画像の上部から下部へ連続的に(必ずしも線形的にではなく)変化し得る。任意選択的に、HMD102がHMD光学系のフォーカスの変更を有効化する場合、シフトの量および方向は、フォーカスに依存してよい。ただし、フォーカス依存のシフトは、斜位を示さないユーザに関しても実施され得る。上述したシフトは、後述するように、補正を必要とし得る両眼競合効果を生じることもある。ここで、本明細書で説明されるシフト技術の適用後、HMD102を介して表示される画像を示す図8G~8Iが参照される。シフトの効果は、明確性のために誇張されている。図8Gは、カメラ140Aによって取得された2D生画像850を示す。2D生画像850は、生画像850の左端に表示された黒色境界線852によって示すように、本明細書で説明されるシフト技術に従って右へシフトされている。図8Hは、カメラ140Bによって取得された2D生画像854を示す。2D生画像854は、生画像854の右端に表示された黒色境界線856によって示すように、本明細書で説明されるシフト技術に従って左へシフトされている。 In some embodiments, user-specific shifts may be configured during a one-time calibration process and saved for each user to be automatically implemented for subsequent use of system 100. Optionally, the surgeon may adjust the shift characteristics during the surgical procedure. Optionally, the head orientation-based shift is performed in stages and only after a predetermined period of time when the head orientation of the wearer of the HMD 102 has not changed. This is to prevent shifts in the displayed image in response to performing head gestures to activate other functions, which may disturb some users. In some cases, the displayed image may be non-uniformly shifted to compensate for possible oblique dependence in the viewing direction (eg, vertical viewing direction). For example, if tropia depends on the vertical viewing direction, the shift may vary continuously (not necessarily linearly) from the top of the image to the bottom. Optionally, if the HMD 102 enables a change in focus of the HMD optics, the amount and direction of the shift may depend on the focus. However, focus-dependent shifts may also be implemented for users who do not exhibit dysphoria. The shifts described above may also result in binocular competition effects that may require correction, as discussed below. Reference is now made to FIGS. 8G-8I, which illustrate images displayed via the HMD 102 after application of the shifting techniques described herein. Shift effects are exaggerated for clarity. FIG. 8G shows a 2D raw image 850 captured by camera 140A. The 2D raw image 850 has been shifted to the right according to the shifting techniques described herein, as indicated by the black border 852 displayed at the left edge of the raw image 850. FIG. 8H shows a 2D raw image 854 captured by camera 140B. The 2D raw image 854 has been shifted to the left according to the shifting techniques described herein, as indicated by the black border 856 displayed at the right edge of the raw image 854.

シフト技術によって実行されたシフト量が著しい場合、両眼競合効果が生じ得る。図8Iを参照すると、3D生画像858の表現が示される。画像858は、図8Gの2D生画像850と図8Hの生画像854との組み合わせである。範囲864は、画像850および854の両方から作成され、それぞれディスプレイ130Aおよび130Bの両方によって表示された画像858の部分を示す。画像858の範囲866は、画像854のみから作成され、ディスプレイ130Bのみによって表示された画像858の部分を示し、画像858の範囲868は、画像850のみから作成され、ディスプレイ130Aのみによって表示された画像858の部分を示す。脳は、それぞれ画像850および854の黒色境界線852および856を補正して、外科医120に、破線860および862によって描かれたエリアの輝度における著しいコントラストを見させ、画像858の輝度は半分に急降下する。画像858の中間エリア(範囲864)はディスプレイ130Aおよび130Bの両方によって表示されるが、画像858の左端(範囲866)はディスプレイ130Bのみによって表示され、画像858の右端(範囲868)はディスプレイ130Aのみによって表示される。1つの解決策は、「欠けた端部」、すなわちそれぞれ852および856の付近のエリアにおいて、画像850および854の両方の輝度を徐々に低減し、直線866および868によって描かれたエリアの輝度における著しいコントラストをなくすことである。線形勾配は脳によって検出可能であり得るため、輝度の低減は、非線形勾配を辿り得る。 If the amount of shift performed by the shift technique is significant, binocular competition effects can occur. Referring to FIG. 8I, a representation of a 3D raw image 858 is shown. Image 858 is a combination of 2D raw image 850 of FIG. 8G and raw image 854 of FIG. 8H. Range 864 shows the portion of image 858 created from both images 850 and 854 and displayed by both displays 130A and 130B, respectively. Range 866 of image 858 shows the portion of image 858 that was created from image 854 only and displayed only by display 130B, and range 868 of image 858 shows the portion of image 858 that was created from image 854 only and displayed only by display 130A. 858 part is shown. The brain corrects for black borders 852 and 856 in images 850 and 854, respectively, causing surgeon 120 to see a significant contrast in the brightness of the areas delineated by dashed lines 860 and 862, and the brightness of image 858 plummets by half. do. The middle area of image 858 (range 864) is displayed by both displays 130A and 130B, whereas the left edge of image 858 (range 866) is displayed only by display 130B, and the right edge of image 858 (range 868) is displayed only by display 130A. displayed by. One solution is to gradually reduce the brightness of both images 850 and 854 in the areas near the "missing edges", i.e. 852 and 856, respectively, and reduce the brightness of both images 850 and 854 in the areas delineated by straight lines 866 and 868. The goal is to eliminate significant contrast. Since a linear gradient may be detectable by the brain, the reduction in brightness may follow a non-linear gradient.

ここで、開示される技術の他の実施形態に従って構成され動作可能な、ヘッドアップディスプレイシステムを制御するための方法の概略図である図9が参照される。 Reference is now made to FIG. 9, which is a schematic illustration of a method for controlling a head-up display system, constructed and operative in accordance with other embodiments of the disclosed technology.

手順900において、外科処置の術野が照明され、照明された外科処置の少なくとも1つの画像が取得される。図1Aを参照すると、頭部装着型ディスプレイシステム100の照明システム114は、術野124を照明する。カメラシステム112は、照明された術野124の少なくとも1つの画像を取得する。 In procedure 900, a surgical field is illuminated and at least one image of the illuminated surgical procedure is acquired. Referring to FIG. 1A, the illumination system 114 of the head-mounted display system 100 illuminates the surgical field 124. Camera system 112 captures at least one image of illuminated surgical field 124.

手順902において、頭部装着型ディスプレイを介して、外科処置に関する少なくとも1つの画像が外科医に表示される。画像は、カメラシステム112を介して取得されリアルタイムで表示された少なくとも1つの画像、事前に取得された術前画像、またはたとえばメニュー、オーバレイなどのUI160に関する画像のいずれかであってよい。図1Aを参照すると、頭部装着型ディスプレイ102を介して少なくとも1つの画像が表示される。 At step 902, at least one image related to a surgical procedure is displayed to a surgeon via a head-mounted display. The image may be either at least one image acquired via camera system 112 and displayed in real time, a pre-operative image acquired in advance, or an image related to UI 160, such as a menu, overlay, etc. Referring to FIG. 1A, at least one image is displayed via head-mounted display 102.

手順904において、ヘッドジェスチャ入力は、足部運動入力と関連して受信される。図2Aを参照すると、ヘッドトラッカ162は、外科医120(図1A)によるヘッドジェスチャ入力を受信し、フットスイッチ104は、外科医120からの足部運動入力を受信する。コンピュータ118は、足部運動入力と関連してヘッドジェスチャ入力を受信する。 At step 904, head gesture input is received in conjunction with foot motion input. Referring to FIG. 2A, head tracker 162 receives head gesture input by surgeon 120 (FIG. 1A) and foot switch 104 receives foot motion input from surgeon 120. Computer 118 receives head gesture input in conjunction with foot movement input.

手順906において、頭部装着型ディスプレイシステムが第1のシステムモードである時、頭部装着型ディスプレイシステムにおいて第1のアクションを行い、頭部装着型ディスプレイシステムが第2のシステムモードである時、頭部装着型ディスプレイシステムにおいて第2のアクションを行うために、足部運動入力と関連して受信されたヘッドジェスチャ入力が適用される。図2Bを参照すると、コンピュータ118は、システムモードがノーマルである時、ズームアウトアクション240を行い、システムモードが術前に設定されている時、スクロールアクション242を行うために、足部運動入力と関連して受信されたヘッドジェスチャ入力を適用する。 In step 906, performing a first action at the head mounted display system when the head mounted display system is in a first system mode, and when the head mounted display system is in a second system mode; The head gesture input received in conjunction with the foot motion input is applied to perform a second action at the head mounted display system. Referring to FIG. 2B, the computer 118 uses foot motion inputs to perform a zoom out action 240 when the system mode is normal and to perform a scroll action 242 when the system mode is set to preoperative. Applying the associated received head gesture input.

いくつかの実施形態において、第1および第2のアクションは、頭部装着型ディスプレイのディスプレイモジュールに結合されたシャッタを制御することのいずれかを備え、シャッタが開いている場合、ディスプレイモジュールは少なくとも部分的に透明であり、シャッタが閉じている場合、ディスプレイモジュールは実質的に不透明である。図1Cを参照すると、シャッタ132は、頭部装着型ディスプレイ102のディスプレイモジュール130と共に構成される。 In some embodiments, the first and second actions comprise either controlling a shutter coupled to a display module of the head-mounted display, and when the shutter is open, the display module at least When partially transparent and the shutter is closed, the display module is substantially opaque. Referring to FIG. 1C, shutter 132 is configured with display module 130 of head-mounted display 102.

他の実施形態において、第1および第2のアクションは、頭部装着型ディスプレイを介して表示された画像を制御すること、カメラシステムを制御すること、照明システムを制御すること、カメラヘッド位置決め器を制御することのいずれかを備える。図2Aを参照すると、コンピュータ118(図1B)は、UI出力160Bの構成要素を制御するためにUI入力160Aを介して受信された入力を適用し、すなわち、コンピュータ118は、カメラシステム112、照明システム114、HMD102を介してディスプレイモジュール130に表示された画像、およびカメラヘッド位置決め器111またはロボットアームの1つを制御する。 In other embodiments, the first and second actions include controlling an image displayed via a head mounted display, controlling a camera system, controlling a lighting system, controlling a camera head positioner. It comprises either of the following: Referring to FIG. 2A, computer 118 (FIG. 1B) applies inputs received via UI input 160A to control components of UI output 160B; The system 114 controls the images displayed on the display module 130 via the HMD 102 and one of the camera head positioner 111 or the robotic arm.

いくつかの実施形態において、頭部装着型ディスプレイを介して表示された画像を制御することは、生フィードビデオ、VGSビデオ、および術前iOCTビデオから成るグループから画像を選択すること、ズームインおよびズームアウトすること、少なくとも2つの仮想スクリーン間でスクロールすること、ピクチャインピクチャ(PIP)を表示すること、生画像の上にオーバレイを表示すること、画像をセンタリングすること、メニューを表示すること、メニューをナビゲートすること、および画像の関心領域を制御することのいずれかを備える。頭部装着型ディスプレイを介して表示された画像の特性は、たとえばデジタルまたは光学的になど、任意の適当な技術に従って制御され得る。 In some embodiments, controlling the images displayed via the head-mounted display includes selecting images from the group consisting of live feed video, VGS video, and preoperative iOCT video, zooming in, and zooming in and out. scrolling between at least two virtual screens; displaying a picture-in-picture (PIP); displaying an overlay on top of the raw image; centering the image; displaying a menu; and controlling a region of interest in an image. The characteristics of images displayed via a head-mounted display may be controlled according to any suitable technique, such as digitally or optically, for example.

いくつかの実施形態において、カメラシステムを制御することは、カメラシステムの1または複数の光または電気特性を制御することを備える。たとえば、画像を取得するためのカメラが選択されてよく、カメラシステムの位置および向きが制御され得る。図1Eを参照すると、コンピュータ118(図1B)は、高解像度カメラ140Aおよび140B、IRカメラ148、およびiOCTスキャナ142のいずれかを選択する。図1Aを参照すると、コンピュータ118は、カメラヘッド位置決め器111を介してカメラシステム112の位置および向きを制御する。 In some embodiments, controlling the camera system comprises controlling one or more optical or electrical characteristics of the camera system. For example, a camera may be selected to capture images, and the position and orientation of the camera system may be controlled. Referring to FIG. 1E, computer 118 (FIG. 1B) selects one of high resolution cameras 140A and 140B, IR camera 148, and iOCT scanner 142. Referring to FIG. 1A, computer 118 controls the position and orientation of camera system 112 via camera head positioner 111.

いくつかの実施形態において、照明システムを制御することは、複数の照明器の少なくとも1つを選択すること、強度設定を選択すること、フィルタを選択すること、および上記照明システムの位置および向きを制御することのいずれかを備える。図1Fを参照すると、コンピュータ118(図1B)は、白色投光照明150、IR投光照明152、および同軸光154Aおよび154Bのいずれかを選択する。図1Aを参照すると、コンピュータ118は、カメラヘッド位置決め器111を介して照明システム114の位置および向きを制御する。 In some embodiments, controlling the lighting system includes selecting at least one of a plurality of illuminators, selecting an intensity setting, selecting a filter, and controlling the position and orientation of the lighting system. Comprising any of the following: Referring to FIG. 1F, computer 118 (FIG. 1B) selects between white floodlight 150, IR floodlight 152, and coaxial lights 154A and 154B. Referring to FIG. 1A, computer 118 controls the position and orientation of illumination system 114 via camera head positioner 111.

手順908において、外科医による音声コマンドが検出される。音声コマンドは、頭部装着型ディスプレイシステムを制御するために適用される。図1Dを参照すると、コンピュータ118(図1B)は、マイクロフォン138を介して外科医120(図1A)による音声コマンドを受信する。コンピュータ118は、頭部装着型ディスプレイシステム100を制御するために、音声コマンドを適用する。 At step 908, a voice command by the surgeon is detected. Voice commands are applied to control the head-mounted display system. Referring to FIG. 1D, computer 118 (FIG. 1B) receives voice commands by surgeon 120 (FIG. 1A) via microphone 138. Computer 118 applies voice commands to control head mounted display system 100.

手順910において、外科医による眼部運動が検出され、眼部運動は、頭部装着型ディスプレイシステムを制御するために適用される。図1Cを参照すると、アイトラッキング部品136は、外科医120の眼部運動を追跡し、トランシーバ102Bおよび118Bを介してコンピュータ118(図1B)へ眼部運動を提供する。 At step 910, eye movements by the surgeon are detected and the eye movements are applied to control a head-mounted display system. Referring to FIG. 1C, eye tracking component 136 tracks eye movements of surgeon 120 and provides the eye movements to computer 118 (FIG. 1B) via transceivers 102B and 118B.

手順912において、第1のシステムモードから第2のシステムモードへ切り換えるためにヘッドジェスチャ入力が適用される。図2A~2Bを参照すると、コンピュータ118は、バイタルシステムモード244へ切り換えるために、UI入力160Aを介して受信したヘッドジェスチャ入力を適用する。いくつかの実施形態において、コンピュータ118は、モードを切り換えるために、足部運動入力と関連して受信されたヘッドジェスチャ入力を適用する。 At step 912, a head gesture input is applied to switch from a first system mode to a second system mode. Referring to FIGS. 2A-2B, computer 118 applies head gesture input received via UI input 160A to switch to vital system mode 244. In some embodiments, computer 118 applies head gesture input received in conjunction with foot motion input to switch modes.

いくつかの実施形態において、画像は、頭部装着型ディスプレイシステムが第1のシステムモードである時、頭部装着型ディスプレイを介してディスプレイ固定状態で表示される。画像は、頭部装着型ディスプレイシステムが第2のシステムモードである時、頭部装着型ディスプレイを介して複数の仮想スクリーンの1つに世界固定状態で表示され、第2のアクションは、複数の仮想スクリーンをスクロールする。図5Aを参照すると、ディスプレイ固定状態が示される。外科医120に表示されたビデオは、彼が前方(500)から30度左(502)へ視線を動かした時、変化しない。図5Bを参照すると、世界固定状態が示される。外科医120に表示されたビデオは、彼が右に5度(504)から右に25度(506)へ視線を動かした時、変化する。視野を埋めるコンテンツは、仮想スクリーンが手術室内の固定された物体であるかのようにシフトする。 In some embodiments, the image is displayed in a display-fixed state via the head-mounted display when the head-mounted display system is in a first system mode. The image is displayed in a world-fixed state via the head-mounted display on one of the plurality of virtual screens when the head-mounted display system is in a second system mode, and the second action Scroll the virtual screen. Referring to FIG. 5A, a display fixation state is shown. The video displayed to surgeon 120 does not change when he moves his gaze from forward (500) to 30 degrees to the left (502). Referring to FIG. 5B, a world fixation state is shown. The video displayed to surgeon 120 changes as he moves his gaze from 5 degrees to the right (504) to 25 degrees to the right (506). The content filling the field of view shifts as if the virtual screen were a fixed object in the operating room.

いくつかの実施形態において、頭部装着型ディスプレイの視野の第1の領域は、第1のシステムモードに対応し、頭部装着型ディスプレイの視野の第2の領域は、第2のシステムモードに対応する。第1のシステムモードから第2のシステムモードへ切り換えるために適用されるヘッドジェスチャ入力は、外科医の視線を第2の領域に一致させる。図3Aを参照すると、視野の中心にある領域302は、ノーマルシステムモードに対応し、領域302の左側にある領域306は、術前システムモードに対応する。外科医120は、自身の視線を領域302から領域306へ動かすことによって、システムモードを切り換えてよい。 In some embodiments, a first region of the head-mounted display's field of view corresponds to a first system mode, and a second region of the head-mounted display's field of view corresponds to a second system mode. handle. Head gesture input applied to switch from the first system mode to the second system mode aligns the surgeon's line of sight with the second region. Referring to FIG. 3A, region 302 at the center of the field of view corresponds to normal system mode, and region 306 to the left of region 302 corresponds to preoperative system mode. Surgeon 120 may switch system modes by moving his line of sight from region 302 to region 306.

いくつかの実施形態において、メニューは、頭部装着型ディスプレイに表示された画像上にオーバレイされた状態で表示される。メニューは、頭部装着型ディスプレイの視野の第1の領域において第1のシステムモードに関する第1のメニュー項目を表示し、頭部装着型ディスプレイの視野の第2の領域においてオーバレイされた第2のシステムモードに関する第2のメニュー項目を表示する。第1のシステムモードから第2のシステムモードへ切り換えるために適用されるヘッドジェスチャ入力は、外科医の視線を上記第2のメニュー項目に一致させる。図4A~4Cを参照すると、メニュー400は、外科処置のビデオ上にオーバレイされた状態で示される。メニュー400は、複数のメニュー項目402、404、406、408、410、および412を含む。外科医120は、メニュー項目間で自身の視線を動かすことによって、たとえば図4Aにおいて強調されたメニュー項目402から図4Bにおいて強調されたメニュー項目410へ、システムモードを切り換えてよい。 In some embodiments, a menu is displayed overlaid on an image displayed on a head-mounted display. The menu displays a first menu item relating to a first system mode in a first area of the field of view of the head mounted display and a second menu item overlaid in a second area of the field of view of the head mounted display. Displaying a second menu item regarding system mode. A head gesture input applied to switch from the first system mode to the second system mode aligns the surgeon's line of sight with the second menu item. Referring to FIGS. 4A-4C, a menu 400 is shown overlaid on a video of a surgical procedure. Menu 400 includes multiple menu items 402, 404, 406, 408, 410, and 412. Surgeon 120 may switch the system mode, for example, from highlighted menu item 402 in FIG. 4A to highlighted menu item 410 in FIG. 4B, by moving his or her gaze between menu items.

当業者には、開示される技術が、上記で具体的に示され説明されたものに限定されないことが理解される。正しくは、開示される技術の範囲は、以下に示す特許請求の範囲によってのみ定められる。 Those skilled in the art will understand that the disclosed technology is not limited to what has been specifically shown and described above. Rather, the scope of the disclosed technology is defined solely by the claims set forth below.

Claims (16)

異なるシステムモードにおいて同じユーザ入力への異なるシステム応答を可能にする、外科用途における使用のための頭部装着型ディスプレイシステム(100)であって、前記頭部装着型ディスプレイシステム(100)は、
外科医によって装着されるように構成された頭部装着型ディスプレイ(102)と、
前記外科医によるヘッドジェスチャ入力を追跡するように構成されたトラッカ(162)と、
前記外科医による足部運動入力を検出するように構成されたフットスイッチ(104)と、
前記頭部装着型ディスプレイ(102)、前記トラッカ(162)、および前記フットスイッチ(104)に結合されたコンピュータ(118)であって、前記コンピュータは、
前記頭部装着型ディスプレイ(102)を介して外科処置に関する画像を表示することと
記トラッカ(162)からのヘッドジェスチャ入力を受信することと、
前記ヘッドジェスチャ入力と関連して、前記フットスイッチ(104)からの足部運動入力を受信することと、
前記頭部装着型ディスプレイシステム(100)が第1のシステムモードにある時に、前記頭部装着型ディスプレイシステム(100)において第1のアクションを行い、前記頭部装着型ディスプレイシステム(100)が第2のシステムモードにある時に、前記頭部装着型ディスプレイシステム(100)において、前記第1のアクションとは異なる第2のアクションを行うために、前記足部運動入力と関連して受信されたヘッドジェスチャ入力を適用することであって、前記第1のシステムモードおよび前記第2のシステムモードの両方において、前記ヘッドジェスチャ入力は前記頭部装着型ディスプレイシステム(100)を制御し、前記ヘッドジェスチャ入力および前記足部運動入力は、前記第1のシステムモードおよび前記第2のシステムモードにおいて同じであることと、
を行うように構成される、コンピュータと、
を備える、頭部装着型ディスプレイシステム。
A head-mounted display system (100) for use in surgical applications that allows different system responses to the same user input in different system modes , the head-mounted display system (100) comprising:
a head mounted display (102) configured to be worn by a surgeon;
a tracker (162) configured to track head gesture input by the surgeon;
a footswitch (104) configured to detect foot motion input by the surgeon;
a computer (118) coupled to the head-mounted display (102), the tracker (162), and the footswitch (104), the computer comprising:
displaying images related to a surgical procedure via the head-mounted display (102) ;
receiving head gesture input from the tracker (162);
receiving foot motion input from the footswitch (104) in conjunction with the head gesture input;
performing a first action in the head mounted display system (100) when the head mounted display system (100) is in a first system mode; 2, the head mounted display system (100) receives a head motion input in conjunction with the foot motion input to perform a second action different from the first action; applying a gesture input, wherein in both the first system mode and the second system mode, the head gesture input controls the head-mounted display system (100); and the foot motion input is the same in the first system mode and the second system mode ;
a computer configured to:
A head-mounted display system equipped with
前記トラッカ(162)は、前記頭部装着型ディスプレイ(102)を追跡することによって前記ヘッドジェスチャ入力を追跡するように構成される、請求項1に記載の頭部装着型ディスプレイシステム。 The head mounted display system of claim 1, wherein the tracker (162) is configured to track the head gesture input by tracking the head mounted display (102). 前記頭部装着型ディスプレイシステム(100)は、前記頭部装着型ディスプレイ(102)に結合されたシャッタ(132)を更に備え、前記シャッタ(132)が開いている場合、前記頭部装着型ディスプレイ(102)は少なくとも部分的に透明であり、前記シャッタ(132)が閉じている場合、前記頭部装着型ディスプレイ(102)は不透明である、請求項1に記載の頭部装着型ディスプレイシステム。 The head-mounted display system (100) further comprises a shutter (132) coupled to the head-mounted display (102), and when the shutter (132) is open, the head-mounted display The head-mounted display system of claim 1, wherein (102) is at least partially transparent, and when the shutter (132) is closed, the head-mounted display (102) is opaque. 前記第1のアクションおよび前記第2のアクションの1つは、前記シャッタ(132)を制御する、請求項3に記載の頭部装着型ディスプレイシステム。 The head mounted display system of claim 3, wherein one of the first action and the second action controls the shutter (132). 前記画像を取得するように構成されたカメラシステム(112)と、前記カメラシステム(112)と共に動作するように構成された照明システム(114)と、カメラヘッド位置決め器(111)およびロボットアームから成るグループから選択された位置決め機構とを更に備える、請求項1に記載の頭部装着型ディスプレイシステム。 a camera system (112) configured to capture said images; an illumination system (114) configured to operate with said camera system (112); a camera head positioner (111); and a robotic arm. The head-mounted display system of claim 1, further comprising a positioning mechanism selected from the group. 前記第1のアクションおよび前記第2のアクションのうちの少なくとも1つは、
前記頭部装着型ディスプレイ(102)を介して表示される前記画像の特性を制御すること、
前記カメラシステム(112)を制御すること、
前記照明システム(114)を制御すること、および
前記位置決め機構を制御すること
から成るグループから選択される、請求項5に記載の頭部装着型ディスプレイシステム。
At least one of the first action and the second action,
controlling characteristics of the image displayed via the head-mounted display (102);
controlling the camera system (112);
6. The head-mounted display system of claim 5, selected from the group consisting of: controlling the lighting system (114); and controlling the positioning mechanism.
前記頭部装着型ディスプレイ(100)を介して表示される前記画像の前記特性を制御することは、前記画像のコンテンツを選択すること、ズームインおよびズームアウトすること、少なくとも2つの仮想スクリーン間でスクロールすること、ピクチャインピクチャ(PIP)を表示すること、生画像の上にオーバレイを表示すること、前記画像をセンタリングすること、メニューを表示すること、メニューをナビゲートすること、および前記画像の関心領域を制御することから成るグループから選択されたアクションを備える、請求項6に記載の頭部装着型ディスプレイシステム。 Controlling the characteristics of the image displayed via the head-mounted display (100) includes selecting content of the image, zooming in and out, scrolling between at least two virtual screens. displaying a picture-in-picture (PIP); displaying an overlay over a raw image; centering the image; displaying a menu; navigating a menu; 7. The head-mounted display system of claim 6, comprising an action selected from the group consisting of controlling a region. 前記コンピュータ(118)は更に、前記頭部装着型ディスプレイ(102)において前記画像上にオーバレイされたメニューを表示するように構成され、前記コンピュータ(118)は、前記第1のシステムモードにおいて第1のメニューを表示し、前記第2のシステムモードにおいて第2のメニューを表示する、請求項1に記載の頭部装着型ディスプレイシステム。 The computer (118) is further configured to display a menu overlaid on the image on the head-mounted display (102), and the computer (118) is configured to display a menu in the first system mode. The head-mounted display system according to claim 1, wherein the head-mounted display system displays a second menu in the second system mode. 異なるシステムモードにおいて同じユーザ入力への異なるシステム応答を可能にする、外科システムにおける使用のための頭部装着型ディスプレイシステム(100)とインタラクトするための方法であって、前記方法は、
頭部装着型ディスプレイ(102)を装着している外科医に対し、前記頭部装着型ディスプレイ(102)を介して外科処置に関する画像を表示することと、
フットスイッチ(104)からの前記外科医による足部運動入力と関連して、ヘッドトラッカ(162)からの前記外科医によるヘッドジェスチャ入力を受信することと
前記頭部装着型ディスプレイシステム(100)が第1のシステムモードにある時に、前記頭部装着型ディスプレイシステム(100)において第1のアクションを行い、前記頭部装着型ディスプレイシステムが第2のシステムモードにある時に、前記頭部装着型ディスプレイシステム(100)において第2のアクションを行うために、前記足部運動入力と関連して受信されたヘッドジェスチャ入力を適用することであって、前記第1のアクションは前記第2のアクションと異なり、前記第1のシステムモードおよび前記第2のシステムモードの両方において、前記ヘッドジェスチャ入力は前記頭部装着型ディスプレイシステム(100)を制御し、前記ヘッドジェスチャ入力および前記足部運動入力は、前記第1のシステムモードおよび前記第2のシステムモードにおいて同じであることと、
を備える、方法。
A method for interacting with a head-mounted display system (100) for use in a surgical system that allows for different system responses to the same user input in different system modes , the method comprising:
displaying images related to the surgical procedure via the head-mounted display (102) to a surgeon wearing the head-mounted display (102);
receiving head gesture input by the surgeon from a head tracker (162) in conjunction with foot motion input by the surgeon from a foot switch (104) ;
performing a first action in the head mounted display system (100) when the head mounted display system (100) is in a first system mode; applying head gesture input received in conjunction with the foot motion input to perform a second action at the head-mounted display system (100) when in the head-mounted display system (100); The first action is different from the second action, and in both the first system mode and the second system mode, the head gesture input controls the head-mounted display system (100) and controls the head-mounted display system (100). the gesture input and the foot movement input are the same in the first system mode and the second system mode ;
A method of providing.
前記第1のアクションおよび前記第2のアクションのいずれかは、前記頭部装着型ディスプレイ(102)に結合されたシャッタ(132)を制御することを備え、前記シャッタ(132)が開いている場合、前記頭部装着型ディスプレイ(102)は透明であり、前記シャッタ(132)が閉じている場合、前記頭部装着型ディスプレイ(102)は不透明である、請求項9に記載の方法。 One of the first action and the second action comprises controlling a shutter (132) coupled to the head-mounted display (102), when the shutter (132) is open. 10. The method of claim 9, wherein the head mounted display (102) is transparent and when the shutter (132) is closed the head mounted display (102) is opaque. 前記頭部装着型ディスプレイシステム(100)と共に構成された照明システム(114)で術野(124)を照明することと、前記頭部装着型ディスプレイシステム(100)と共に構成されたカメラシステム(112)を用いて照明された術野(124)の画像を取得することとを更に備える、請求項9に記載の方法。 illuminating a surgical field (124) with a lighting system (114) configured with the head-mounted display system (100); and a camera system (112) configured with the head-mounted display system (100). 10. The method of claim 9, further comprising: obtaining an image of the surgical field (124) illuminated using a operative field (124). カメラヘッド位置決め器(111)およびロボットアームから成るグループから選択された位置決め機構を介して、前記画像を取得するために前記カメラシステム(112)の位置を制御することを更に備える、請求項11に記載の方法。 12. The method of claim 11, further comprising controlling the position of the camera system (112) to acquire the images via a positioning mechanism selected from the group consisting of a camera head positioner (111) and a robotic arm. Method described. 前記第1のアクションおよび前記第2のアクションのうちの少なくとも1つは、
前記頭部装着型ディスプレイ(102)を介して表示される前記画像の特性を制御すること、
前記カメラシステム(112)を制御すること、
前記照明システム(114)を制御すること、および
前記位置決め機構を制御すること
から成るグループから選択される、請求項12に記載の方法。
At least one of the first action and the second action,
controlling characteristics of the image displayed via the head-mounted display (102);
controlling the camera system (112);
13. The method of claim 12, selected from the group consisting of: controlling the illumination system (114); and controlling the positioning mechanism.
前記頭部装着型ディスプレイ(102)を介して表示される前記画像の前記特性を制御することは、前記画像のコンテンツを選択すること、ズームインおよびズームアウトすること、少なくとも2つの仮想スクリーン間でスクロールすること、ピクチャインピクチャ(PIP)を表示すること、および生画像の上にオーバレイを表示することから成るグループから選択されたアクションを備える、請求項13に記載の方法。 Controlling the characteristics of the image displayed via the head-mounted display (102) includes selecting content of the image, zooming in and out, scrolling between at least two virtual screens. 14. The method of claim 13, comprising an action selected from the group consisting of: displaying a picture-in-picture (PIP); and displaying an overlay over the raw image. 前記カメラシステム(112)を制御することは、前記画像を取得するためのカメラ(140A、140B)を選択すること、および前記カメラシステム(112)の位置および向きを制御することから成るグループから選択されたアクションを行うことを備える、請求項13に記載の方法。 Controlling said camera system (112) is selected from the group consisting of: selecting a camera (140A, 140B) for acquiring said image; and controlling a position and orientation of said camera system (112). 14. The method of claim 13, comprising performing an action that has been performed. 前記方法は、前記頭部装着型ディスプレイにおいて前記画像上にオーバレイされたメニューを表示することを更に備え、前記表示することは、前記第1のシステムモードにおいて第1のメニューを表示することと、前記第2のシステムモードにおいて第2のメニューを表示することとを備える、請求項9に記載の方法。 The method further comprises displaying a menu overlaid on the image on the head-mounted display, the displaying comprising: displaying a first menu in the first system mode; and displaying a second menu in the second system mode.
JP2021547986A 2018-10-25 2019-10-27 UI for head-mounted display systems Active JP7367041B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862750276P 2018-10-25 2018-10-25
US62/750,276 2018-10-25
US201962857834P 2019-06-06 2019-06-06
US62/857,834 2019-06-06
PCT/IL2019/051155 WO2020084625A1 (en) 2018-10-25 2019-10-27 Ui for head mounted display system

Publications (2)

Publication Number Publication Date
JP2022509460A JP2022509460A (en) 2022-01-20
JP7367041B2 true JP7367041B2 (en) 2023-10-23

Family

ID=80120454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021547986A Active JP7367041B2 (en) 2018-10-25 2019-10-27 UI for head-mounted display systems

Country Status (1)

Country Link
JP (1) JP7367041B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050206583A1 (en) 1996-10-02 2005-09-22 Lemelson Jerome H Selectively controllable heads-up display system
JP2015192697A (en) 2014-03-31 2015-11-05 ソニー株式会社 Control device and control method, and photographing control system
WO2018067611A1 (en) 2016-10-03 2018-04-12 Verb Surgical Inc. Immersive three-dimensional display for robotic surgery

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH095666A (en) * 1995-06-15 1997-01-10 Olympus Optical Co Ltd Head-mounted video display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050206583A1 (en) 1996-10-02 2005-09-22 Lemelson Jerome H Selectively controllable heads-up display system
JP2015192697A (en) 2014-03-31 2015-11-05 ソニー株式会社 Control device and control method, and photographing control system
WO2018067611A1 (en) 2016-10-03 2018-04-12 Verb Surgical Inc. Immersive three-dimensional display for robotic surgery

Also Published As

Publication number Publication date
JP2022509460A (en) 2022-01-20

Similar Documents

Publication Publication Date Title
US20210382559A1 (en) Ui for head mounted display system
US10895742B2 (en) Microsurgery system for displaying in real time magnified digital image sequences of an operated area
US11832901B2 (en) Surgical suite integration and optimization
US20230255446A1 (en) Surgical visualization systems and displays
EP4353177A2 (en) A graphical user interface for use in a surgical navigation system with a robot arm
US6847336B1 (en) Selectively controllable heads-up display system
EP4245250A2 (en) Surgical navigation system for providing an augmented reality image during operation
JP6774367B2 (en) Head-mounted display control device, its operation method and operation program, and image display system
JP7179895B2 (en) Scan image control during vitreoretinal surgery
CN104869922A (en) Wearable user interface for use with ocular surgical console
US11094283B2 (en) Head-wearable presentation apparatus, method for operating the same, and medical-optical observation system
JP2023539962A (en) System and method for superimposing virtual images on real-time images
JP2018107603A (en) Sensor information acquisition device, sensor information acquisition method, sensor information acquisition program and medical instrument
US20170045728A1 (en) Systems and methods for an optical system with an adjustable projected focal plane
CA3117533A1 (en) Ui for head mounted display system
US20230404699A1 (en) System for a Microscope System and Corresponding Method and Computer Program
US20220331038A1 (en) User interface for controlling a surgical system
JP7367041B2 (en) UI for head-mounted display systems
JP2018143587A (en) Ophthalmic observation apparatus and method of using the same
WO2021116846A1 (en) Control system for an endoscopic device and method of controlling an endoscopy system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20210621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220622

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R150 Certificate of patent or registration of utility model

Ref document number: 7367041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150