JP2022509460A - UI for head-mounted display system - Google Patents

UI for head-mounted display system Download PDF

Info

Publication number
JP2022509460A
JP2022509460A JP2021547986A JP2021547986A JP2022509460A JP 2022509460 A JP2022509460 A JP 2022509460A JP 2021547986 A JP2021547986 A JP 2021547986A JP 2021547986 A JP2021547986 A JP 2021547986A JP 2022509460 A JP2022509460 A JP 2022509460A
Authority
JP
Japan
Prior art keywords
head
surgeon
image
mounted display
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021547986A
Other languages
Japanese (ja)
Other versions
JP7367041B2 (en
Inventor
セゲフ,エラン
ズーマー,シャハフ
ソロモン,イアーラ
シュナイダー,ロン
ベン‐イシャイ,ラニ
Original Assignee
べイエオニクス サージカル リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by べイエオニクス サージカル リミテッド filed Critical べイエオニクス サージカル リミテッド
Priority claimed from PCT/IL2019/051155 external-priority patent/WO2020084625A1/en
Publication of JP2022509460A publication Critical patent/JP2022509460A/en
Application granted granted Critical
Publication of JP7367041B2 publication Critical patent/JP7367041B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

Figure 2022509460000001

外科医によって装着されるように構成されたHMDと、外科医によるヘッドジェスチャを追跡するように構成されたトラッカと、外科医による足部運動入力を検出するように構成されたフットスイッチと、HMD、トラッカ、フットスイッチに結合されたコンピュータと、HMD、トラッカ、フットスイッチを備えるユーザインタフェースとを備え、コンピュータに、足部運動入力と関連するヘッドジェスチャを提供し、外科処置に関する画像をHMDに表示するように構成されたHMDシステムであって、コンピュータは、HMDシステムが第1のシステムモードである時、HMDシステムにおいて第1のアクションを行い、HMDシステムが第2のシステムモードである時、HMDシステムにおいて第2のアクションを行うために、足部運動入力と関連して受信されたヘッドジェスチャを適用するように構成される、HMDシステムのためのUI。
【選択図】図1A

Figure 2022509460000001

HMDs configured to be worn by the surgeon, trackers configured to track the surgeon's head gestures, footswitches configured to detect foot movement inputs by the surgeon, and HMDs, trackers, It has a computer coupled to the footswitch and a user interface with an HMD, tracker, and footswitch to provide the computer with head gestures associated with foot movement inputs and display images of the surgical procedure on the HMD. In the configured HMD system, the computer performs the first action in the HMD system when the HMD system is in the first system mode, and the computer is in the HMD system when the HMD system is in the second system mode. A UI for an HMD system configured to apply a received head gesture in connection with a foot movement input to perform the action of 2.
[Selection diagram] FIG. 1A

Description

開示される技術は、一般に、頭部装着型ディスプレイに関し、特に、頭部装着型ディスプレイに関する複数のシステムモードを制御するための方法およびシステムに関する。 The disclosed techniques generally relate to head-mounted displays, in particular to methods and systems for controlling multiple system modes for head-mounted displays.

頭部装着型ディスプレイは、装着者の視野に画像を投影する装着型電子ディスプレイである。仮想現実アプリケーションにおいて、投影画像は一般に、装着者の視野を遮断する。拡張現実アプリケーションにおいて、投影画像は一般に、装着者の視野の一部に重ね合わせられ、装着者が現実および仮想特徴を同時に見ることを可能にする。 The head-mounted display is a wearable electronic display that projects an image into the wearer's field of view. In virtual reality applications, projected images generally block the wearer's field of view. In augmented reality applications, projected images are generally superimposed on a portion of the wearer's field of view, allowing the wearer to see real and virtual features at the same time.

“Image Display Apparatus of Head Mounted Type”と題された、タバタ氏の米国特許第5,781,165号は、ユーザ制御型の頭部装着型ディスプレイを開示する。頭部装着型ディスプレイを装着している間、LCDスクリーンに仮想画像がステレオで投影され、装着者は、3次元仮想画像を見ることが可能である。装着者は、電子コントローラのボタンを押すことによって仮想画像の表示を制御する。たとえば装着者が自身の頭部を動かす場合など、頭部装着型ディスプレイが回転および位置運動を検出すると、仮想画像の表示は、仮想画像平面上に静止した状態で出現するように調整される。 Mr. Tabata's US Pat. No. 5,781,165, entitled "Image Display Apratatus of Head Mounted Type," discloses a user-controlled head-mounted display. While the head-mounted display is worn, the virtual image is projected in stereo on the LCD screen, and the wearer can see the three-dimensional virtual image. The wearer controls the display of the virtual image by pressing a button on the electronic controller. When the head-mounted display detects rotation and positional movement, for example when the wearer moves his or her head, the display of the virtual image is adjusted to appear stationary on the virtual image plane.

“Head-Mounted Image Display Device and Data Processing Apparatus Including the same”と題された、ヤスカワ氏の米国特許第5,977,935号は、拡張現実を表示するための頭部装着型デバイスを開示する。装着者の視野は、区画に分割される。装着者は、自身の視野の1つの区画において、現実世界を見る。装着者の視野の他の区画において、1または複数の仮想スクリーンが投影される。自身の頭部を動かすことによって自身の視線を動かすことにより、装着者は、ディスプレイを制御するためにマウスを動かすのと同様に、どの仮想スクリーンが表示されるかを制御する。フットペダルは、マウスのクリックと同様に、入力デバイスとしての機能を果たす。 Mr. Yaskawa's US Pat. No. 5,977,935, entitled "Head-Mounted Image Display Device and Data Processing Apratatus Including the same," discloses a head-mounted device for displaying augmented reality. The wearer's field of view is divided into compartments. The wearer sees the real world in one section of his field of view. One or more virtual screens are projected in other sections of the wearer's field of view. By moving his gaze by moving his head, the wearer controls which virtual screen is displayed, much like moving a mouse to control a display. The foot pedal acts as an input device, much like a mouse click.

“Head-Mounted Image Display Device and Data Processing Apparatus Including the same”と題された、ヤスカワ氏の米国特許第6,320,559号は、仮想コンテンツを表示するための頭部装着型デバイスを開示する。装着者は、自身の視線を動かすことによって、ディスプレイのコンテンツを切り換える。装着者は更に、音声入力によってディスプレイの属性を制御する。装着者は、自身の視線を動かすことによって、表示された画像をスクロールし得る。 Mr. Yaskawa's US Pat. No. 6,320,559, entitled "Head-Mounted Image Display Device and Data Processing Applatus Including the same," discloses a head-mounted device for displaying virtual content. The wearer switches the content of the display by moving his / her line of sight. The wearer also controls the attributes of the display by voice input. The wearer can scroll the displayed image by moving his or her line of sight.

”Computer User Interface with Head Motion Input“と題された、Reicheln氏の米国特許第6,396,497号は、360度ビュー空間を有する装着型ディスプレイシステムを開示する。ビュー空間内の各点は、特定のヨーおよびピッチ位置によって識別される。自身の頭部を動かすことによって、装着者は、360度ビュー空間内の(25°×20°)ウェッジのみを占めるビューウインドウ内の表示を変更する。ビューウインドウ内に表示されたスクロールバーは、装着者がビュー空間内での現在位置の追跡を維持するために役立つ。 Reichern's US Pat. No. 6,396,497, entitled "Computer User Interface with Head Motion Input," discloses a wearable display system with a 360-degree view space. Each point in view space is identified by a particular yaw and pitch position. By moving his head, the wearer changes the display in the view window, which occupies only the (25 ° x 20 °) wedge in the 360 degree view space. Scrollbars displayed in the view window help the wearer keep track of their current position in view space.

“Selectively Controllable Heads-Up Display System”と題された、Lemelson氏の米国特許第6,847,336号は、装着者がディスプレイを制御することを可能にする複数のユーザインタフェースを有する、外科医用装着型ディスプレイを開示する。このシステムは、ディスプレイスクリーン上でカーソルを動かすためのアイトラッキング、および「マウスクリック」選択を実施するためのフットペダルまたは音声コマンドのいずれかを取り入れる。 Lemelson's US Pat. No. 6,847,336, entitled "Selectively Controlled Heads-Up Display System," is a surgeon's wear with multiple user interfaces that allow the wearer to control the display. Disclose the type display. The system incorporates either eye tracking to move the cursor over the display screen and either a foot pedal or voice command to perform a "mouse click" selection.

“Remote Control of a Medical Device Using Speech Recognition and Foot Contorols”と題された、Miller氏の米国特許第7,127,401号は、外科医が使用するための音声制御型医療撮像デバイスを開示する。音声によって医療撮像デバイスを制御することによって、医療処置を行うために外科医の両手が空く。 Miller's US Pat. No. 7,127,401, entitled "Remote Control of a Medical Device Using Speech Recognition and Foot Controls," discloses a voice-controlled medical imaging device for use by surgeons. Controlling the medical imaging device by voice frees the surgeon's hands to perform the medical procedure.

“Opacity Filter for Display Device”と題された、Bar-Zeev氏の米国特許第8,941,559号は、装着型拡張現実ディスプレイを開示する。ディスプレイの各画素は、最大不透明から透明までのレベルを個々に調整可能であり、それに応じて現実世界シーンからの光が遮断または透過されることを可能にする。コントローラは、現実世界シーンに重ね合わせられた仮想画像を表示するために指定された画素の不透明度を制御する。 Bar-Zev's US Pat. No. 8,941,559, entitled "Opacity Filter for Display Device," discloses a wearable augmented reality display. Each pixel of the display can be individually adjusted for levels from maximum opacity to transparency, allowing light from the real world scene to be blocked or transmitted accordingly. The controller controls the opacity of the pixels specified to display the virtual image superimposed on the real world scene.

“Using Head Gesture and Eye Position to Wake a Head Mounted Device”と題された、Raffle氏の米国特許第9,285,872号は、装着型ディスプレイユニットに関する動作モードを切り換えるためにジェスチャ認識およびアイトラッキングを取り入れることを開示する。 Raffle's U.S. Pat. No. 9,285,872, entitled "Using Head Gesture and Eye Position to Work a Head Mounted Device," provides gesture recognition and eye tracking to switch operating modes for wearable display units. Disclose to incorporate.

“Opacity Filter for Display Device” と題された、Bar-Zeev氏の米国特許第9,286,730号は、装着型拡張現実ディスプレイを開示する。ディスプレイの各画素は、最大不透明から透明までのレベルを個々に調整可能であり、それに応じて現実世界シーンからの光が遮断または透過されることを可能にする。現実世界シーンに重ね合わせられた仮想画像の位置は、アイトラッキングによって制御される。 Bar-Zev's US Pat. No. 9,286,730, entitled "Opacity Filter for Display Device," discloses a wearable augmented reality display. Each pixel of the display can be individually adjusted for levels from maximum opacity to transparency, allowing light from the real world scene to be blocked or transmitted accordingly. The position of the virtual image superimposed on the real world scene is controlled by eye tracking.

“Control Systems and Methods for Head-Mounted Information System”と題された、Abdollahi氏の米国特許第9,292,084号は、ジェスチャ制御および事前構成されたジェスチャプロファイルを用いて装着型デバイスのディスプレイを制御することを開示する。ジェスチャは、ハンドまたはヘッドジェスチャであってよい。ジェスチャ制御特徴をオンおよびオフに切り替えるためにボタンが提供される。 Abdollahi's US Pat. No. 9,292,084, entitled "Control Systems and Methods for Head-Mount Information System," uses gesture control and preconfigured gesture profiles to control the display of wearable devices. Disclose what to do. The gesture may be a hand or head gesture. Buttons are provided to turn gesture control features on and off.

“Text Selection Using HMD Head-Tracker and Voice-Command”と題された、Henelly氏の米国特許第9,383,816号は、頭部装着型ディスプレイに関するハンドフリーテキスト選択を開示する。頭部装着型ディスプレイの装着者は、ヘッドおよびハンドジェスチャの組み合わせによって、表示されたテキストを選択する。 Henelly's US Pat. No. 9,383,816, entitled "Text Selection Using HMD Head-Tracker and Voice-Command," discloses a hand-free text selection for head-mounted displays. The wearer of the head-mounted display selects the displayed text by the combination of the head and the hand gesture.

“Head-Mounted Display, Program for Controlling Head-Mounted Display, and Method of Controlling Head-Mounted Display”と題された、クリヤ氏の米国特許第9,523,854号は、頭部装着型ディスプレイ(HMD)の有用性を向上させる技術を開示する。HMDに表示するための画像は、HMDの方向が装着者の視線の外側にあることの検出に基づいて選択される。 "Head-Mounted Display, Project for Controlling Head-Mounted Display, and Method of Control Head-Mounted Display", Mr. Kriya's U.S. Patent No. 9, 523, 528 Disclose the technology to improve the usefulness of. The image to be displayed on the HMD is selected based on the detection that the direction of the HMD is outside the wearer's line of sight.

“Menu Navigation in a Head-Mounted Display”と題された、Moravetz氏の米国特許第9,588,343号は、HMDのフォーカルポイントに対するHMDの位置および向き(P&O)を追跡することによって仮想メニューをナビゲートする方法を開示する。 Mr. Moravetz's US Pat. No. 9,588,343, entitled "Meu Navigation in a Head-Mounted Display," provides a virtual menu by tracking the position and orientation (P & O) of the HMD with respect to the focal point of the HMD. Disclose how to navigate.

“Control Systems and Methods for Head-Mounted Information System”と題された、Abdollahi氏の米国特許第9,696,797号は、ジェスチャ制御によって仮想メニューをナビゲートするための方法を開示する。 Abdollahi's US Pat. No. 9,696,797, entitled "Control Systems and Methods for Head-Mounted Information System," discloses a method for navigating virtual menus through gesture control.

“High Resolution Perception of Content in a Wide Field of View of a Head-Mounted Display”と題された、Fateh氏の米国特許第9,804,669号は、装着者のフォーカルポイントに基づいて仮想画像の解像度を制御するための方法を開示する。次に装着者のフォーカルポイント内にあることが予測される表示エリアと共に、現在ユーザのフォーカルポイント内にある表示エリアの解像度が増加される。これら2つのフォーカスエリアの間にある表示エリアの解像度は低減される。 Fateh's U.S. Patent No. 9,804,669, entitled "High Resolution of Concept in a Wide field of View of a Head-Mounted Display," is a virtual image based on the wearer's focal point. Disclose a method for controlling. The resolution of the display area currently within the user's focal point is then increased along with the display area that is expected to be within the wearer's focal point. The resolution of the display area between these two focus areas is reduced.

“Image Rendering Responsive to User Actions in Head Mounted Display”と題された、Stafford氏の米国特許第9,897,805号は、次に起こる装着者の視線の動きを予測するためにアイトラッキングを取り入れる頭部装着型ディスプレイを開示する。レンダリング画像の品質は、予測された動きに基づいて調整される。 Staffold's US Pat. No. 9,897,805, entitled "Image Rendering Responsive to User Actions in Head Mounted Display," incorporates eye tracking to predict the next wearer's gaze movement. Disclose a part-mounted display. The quality of the rendered image is adjusted based on the predicted movement.

“Head-Mounted Display Device Having Interactive Function and Method Thereof”と題された、Chuang氏の米国特許公開第US20120027373 A1号は、ディスプレイデバイスの検出された動きに基づいて表示画像を調整する頭部装着型ディスプレイを開示する。 Chung's U.S. Patent Publication No. US20120027373 A1, entitled "Head-Mounted Display Device Having Interactive Function and Method Thereof," is a head-mounted display based on the detected movement of a display device. To disclose.

“Head-Tracking Based Technique for Moving On-Screen Objects on Head Mounted Display(HMD)”と題された、Parkinson氏の米国特許公開第US20150220142 A1号は、ヘッドトラッキングコントローラを用いてHMDデバイスのディスプレイ上でカーソルを制御する方法を開示する。 Parkinson's U.S. Patent Publication No. US20150220142 A1 using a cursor on a head-tracking device, entitled "Head-Tracking Based Technology for Moving On-Screen Objects on Head Mounted Display (HMD)" Disclose how to control.

“Hands Free Image Viewing on Head Mounted Display”と題された、Vargas氏の米国特許公開第US20150346813 A1号は、HMDデバイスのディスプレイを制御するためのヘッドジェスチャベースのユーザインタフェースを開示する。ヘッドジェスチャを介して制御可能な表示特徴は、表示画像のズームインおよびアウト、表示画像のパンニング、一連の表示画像に沿ったスクロール、および様々な動作モード間での切換えを含む。 Mr. Vargas, US Patent Publication No. US20150346813 A1, entitled "Hands Free Image Viewing on Head Mounted Display," discloses a head gesture-based user interface for controlling the display of HMD devices. Display features that can be controlled via head gestures include zooming in and out of the display image, panning the display image, scrolling along a series of display images, and switching between different modes of operation.

“Optical Head Mounted Display, Television Portal Module and Methods for Controlling Graphical User Interface”と題された、Andersson氏の米国特許公開第US20170031538 A1号は、装着者のアイトラッキングおよび頭部運動によってグラフィカルユーザインタフェース(GUI)を制御するためのモードに入ることを開示する。 "Optical Head Mounted Display, Television Portable Module and Methods for Controlling Graphical User Interface" Discloses entering a mode for controlling.

“Method and Device of Controlling Virtual Mouse and Head-Mounted Displaying Device”と題された、Zhang氏の米国特許公開第US20170242495 A1号は、頭部装着型ディスプレイのための仮想マウスを制御するために頭部運動検出を取り入れることを開示する。 Zhang's U.S. Patent Publication No. US201702424995 A1 is a virtual mouse for head-mounted display, entitled "Method and Device of Controlling Visual Mouse and Head-Mounted Displaying Device". Disclose that the detection is incorporated.

“Portable Surgical Methods, System, and Apparatus”と題された、Nazareth氏の米国特許公開第US20170273549 A1号は、外科処置の生画像を取得するためのカメラ、取得した画像の生フィードを表示するための無線ヘッドセット、システムの音声作動型制御、および外科処置に関するデータを格納するためのコンピュータを含む外科用機器を収容するためのキットを開示する。 Nazareth's US Patent Publication No. US20170273549 A1, entitled "Portable Surgical Methods, System, and Apparatus," is a camera for acquiring raw images of surgical procedures, for displaying a raw feed of the acquired images. Disclosed is a kit for accommodating surgical equipment, including a wireless headset, voice-operated control of the system, and a computer for storing data about the surgical procedure.

“Control Systems and Methods for Head-Mounted Information System”と題された、Abdollahi氏の米国特許公開第US20180113507 A1号は、頭部装着型ディスプレイ(HMD)デバイスに関するジェスチャ制御モードを開示する。ジェスチャ制御モードは、ジェスチャ制御イネーブル信号の検出時に有効化され、ユーザがジェスチャを介してメニューをナビゲートすることを可能にする。 Abdollahi's US Patent Publication No. US201801113507 A1, entitled "Control Systems for Head-Mounted Information System," discloses a gesture control mode for a head-mounted display (HMD) device. Gesture control mode is enabled when the gesture control enable signal is detected and allows the user to navigate the menu through the gesture.

開示される技術の目的は、頭部装着型ディスプレイシステムのためのユーザインタフェースに関する新たな方法およびシステムを提供することである。 The object of the disclosed technology is to provide new methods and systems for user interfaces for head-mounted display systems.

開示される技術によると、外科医によって装着されるように構成された頭部装着型ディスプレイと、外科医によるヘッドジェスチャ入力を追跡するように構成されたトラッカと、外科医による足部運動入力を検出するように構成されたフットスイッチと、頭部装着型ディスプレイ、トラッカ、およびフットスイッチに結合されたコンピュータと、頭部装着型ディスプレイ、トラッカ、およびフットスイッチを少なくとも備えるユーザインタフェースであって、コンピュータに、フットスイッチから受信した足部運動入力と関連してトラッカから受信したヘッドジェスチャ入力を提供し、頭部装着型ディスプレイにおいて外科処置に関する画像を表示するように構成されたユーザインタフェースとが提供され、コンピュータは、頭部装着型ディスプレイシステムが第1のシステムモードである時、頭部装着型ディスプレイシステムにおいて第1のアクションを行い、頭部装着型ディスプレイシステムが第2のシステムモードである時、頭部装着型ディスプレイシステムにおいて第2のアクションを行うために、足部運動入力と関連して受信されたヘッドジェスチャ入力を適用するように構成される。 According to the disclosed technology, a head-mounted display configured to be worn by the surgeon, a tracker configured to track the surgeon's head gesture input, and a surgeon's foot movement input to be detected. A user interface that includes at least a foot switch configured in, a computer coupled to a head-mounted display, a tracker, and a foot switch, and a head-mounted display, a tracker, and a foot switch. A computer provides a head gesture input received from the tracker in connection with the foot movement input received from the switch, and a user interface configured to display images related to the surgical procedure on a head-mounted display. When the head-mounted display system is in the first system mode, the first action is taken in the head-mounted display system, and when the head-mounted display system is in the second system mode, the head-mounted display system is mounted on the head. The type display system is configured to apply the received head gesture input in connection with the foot movement input to perform a second action.

いくつかの実施形態において、トラッカは、頭部装着型ディスプレイと少なくとも部分的に統合され、頭部装着型ディスプレイを追跡するように構成される。 In some embodiments, the tracker is at least partially integrated with the head-mounted display and is configured to track the head-mounted display.

いくつかの実施形態において、トラッカは、頭部装着型ディスプレイの外部のカメラである。 In some embodiments, the tracker is an external camera for a head-mounted display.

いくつかの実施形態において、システムは、頭部装着型ディスプレイに結合されたシャッタを更に備え、シャッタが開いている場合、頭部装着型ディスプレイは少なくとも部分的に透明であり、シャッタが閉じている場合、頭部装着型ディスプレイは実質的に不透明である。 In some embodiments, the system further comprises a shutter coupled to the head-mounted display, where the head-mounted display is at least partially transparent and the shutter is closed when the shutter is open. In the case, the head-mounted display is substantially opaque.

いくつかの実施形態において、第1のアクションおよび第2のアクションの1つは、シャッタを制御する。 In some embodiments, one of the first and second actions controls the shutter.

いくつかの実施形態において、ユーザインタフェースは、音声コマンドを検出するように構成されたマイクロフォンを更に備え、入力は、音声コマンドを更に備える。 In some embodiments, the user interface further comprises a microphone configured to detect voice commands, and the input further comprises voice commands.

いくつかの実施形態において、ユーザインタフェースは、外科医による眼部運動を検出するように構成されたアイトラッカを更に備え、入力は、眼部運動を更に備える。 In some embodiments, the user interface further comprises an eye tracker configured to detect eye movements by the surgeon, and the input further comprises eye movements.

いくつかの実施形態において、システムは、画像を取得するように構成されたカメラシステムと、カメラシステムと共に動作するように構成された照明システムと、カメラヘッド位置決め器およびロボットアームから成るグループから選択された位置決め機構とを更に備える。 In some embodiments, the system is selected from a group consisting of a camera system configured to capture images, a lighting system configured to work with the camera system, and a camera head positioner and robot arm. It is further equipped with a positioning mechanism.

いくつかの実施形態において、第1のアクションおよび第2のアクションは、HMDを介して表示される画像の特性を制御すること、カメラシステムを制御すること、照明システムを制御すること、および位置決め機構を制御することから成るグループから選択される。 In some embodiments, the first action and the second action control the characteristics of the image displayed via the HMD, control the camera system, control the lighting system, and the positioning mechanism. Is selected from a group consisting of controlling.

いくつかの実施形態において、HMDを介して表示される画像の特性を制御することは、画像のコンテンツを選択すること、ズームインおよびズームアウトすること、少なくとも2つの仮想スクリーン間でスクロールすること、ピクチャインピクチャ(PIP)を表示すること、生画像の上にオーバレイを表示すること、画像をセンタリングすること、メニューを表示すること、メニューをナビゲートすること、および画像の関心領域を制御することから成るグループから選択されたアクションを備える。 In some embodiments, controlling the characteristics of an image displayed via the HMD is to select the content of the image, zoom in and out, scroll between at least two virtual screens, and picture. From displaying in-pictures (PIPs), displaying overlays on top of raw images, centering images, displaying menus, navigating menus, and controlling areas of interest in images. It has an action selected from the group consisting of.

いくつかの実施形態において、カメラシステムを制御することは、光学および電気カメラ特性を制御すること、およびカメラシステムの位置および向きを制御することから成るグループから選択されたアクションを行うことを備える。 In some embodiments, controlling a camera system comprises performing an action selected from a group consisting of controlling optical and electric camera characteristics and controlling the position and orientation of the camera system.

いくつかの実施形態において、照明システムを制御することは、複数の照明器の少なくとも1つを選択すること、強度設定を選択すること、フィルタを選択すること、および照明をオンまたはオフにすることから成るグループから選択されたアクションを行うことを備える。 In some embodiments, controlling a lighting system is to select at least one of a plurality of illuminators, select an intensity setting, select a filter, and turn lighting on or off. Be prepared to perform an action selected from a group of.

いくつかの実施形態において、術野の画像は、頭部装着型ディスプレイシステムが第1のシステムモードである時、頭部装着型ディスプレイを介してディスプレイ固定状態で表示され、術野のビデオは、頭部装着型ディスプレイシステムが第2のシステムモードである時、頭部装着型ディスプレイを介して、複数の仮想スクリーンの1つに、世界固定状態で表示される。 In some embodiments, the image of the surgical field is displayed in a fixed state via the head-mounted display when the head-mounted display system is in the first system mode, and the video of the surgical field is displayed. When the head-mounted display system is in the second system mode, it is displayed in a world-fixed state on one of a plurality of virtual screens via the head-mounted display.

いくつかの実施形態において、コンピュータは更に、第1のシステムモードから第2のシステムモードへ切り換えるためにヘッドジェスチャ入力を適用するように構成される。 In some embodiments, the computer is further configured to apply a head gesture input to switch from the first system mode to the second system mode.

いくつかの実施形態において、頭部装着型ディスプレイの装着者の頭部位置および向きの範囲の第1の領域は、第1のシステムモードに対応し、頭部装着型ディスプレイの装着者の頭部位置および向きの範囲の第2の領域は、第2のシステムモードに対応し、第1のシステムモードから第2のシステムモードへ切り換えるために適用されるヘッドジェスチャ入力は、頭部装着型ディスプレイの装着者の頭部位置および向きを第1の領域から第2の領域の方向へ変更することである。 In some embodiments, the first region of the head position and orientation range of the wearer of the head-mounted display corresponds to the first system mode and the head of the wearer of the head-mounted display. The second area of the position and orientation range corresponds to the second system mode, and the head gesture input applied to switch from the first system mode to the second system mode is the head-mounted display. The position and orientation of the wearer's head is changed from the first region to the second region.

いくつかの実施形態において、コンピュータは更に、頭部装着型ディスプレイにおいて画像上にオーバレイされたメニューを表示するように構成され、メニューは、第1のシステムモードに関して第1のメニュー項目を表示し、第2のシステムモードに関して第2のメニュー項目を表示する。 In some embodiments, the computer is further configured to display an overlaid menu on the image on a head-mounted display, the menu displaying the first menu item with respect to the first system mode. Display a second menu item for the second system mode.

開示される技術の他の態様によると、頭部装着型ディスプレイシステムとインタラクトするための方法が提供され、方法は、外科医に対し、頭部装着型ディスプレイにおいて外科処置に関する画像を表示することと、フットスイッチからの外科医による足部運動入力と関連してヘッドトラッカからの外科医によるヘッドジェスチャ入力を受信することと、頭部装着型ディスプレイシステムが第1のシステムモードである時、頭部装着型ディスプレイシステムにおいて第1のアクションを行い、頭部装着型ディスプレイシステムが第2のシステムモードである時、頭部装着型ディスプレイシステムにおいて第2のアクションを行うために、足部運動入力と関連して受信された前記ヘッドジェスチャ入力を適用することとを備える。 According to another aspect of the disclosed technique, a method for interacting with a head-mounted display system is provided in which the surgeon is presented with an image of the surgical procedure on the head-mounted display. Receiving the surgeon's head gesture input from the head tracker in connection with the surgeon's foot movement input from the footswitch and the head-mounted display when the head-mounted display system is in the first system mode. Received in connection with foot movement input to perform a first action in the system and to perform a second action in the head-mounted display system when the head-mounted display system is in the second system mode. It is provided with applying the said head gesture input.

いくつかの実施形態において、第1のアクションおよび第2のアクションのいずれかは、頭部装着型ディスプレイに結合されたシャッタを制御することを備え、シャッタが開いている場合、頭部装着型ディスプレイは透明であり、シャッタが閉じている場合、頭部装着型ディスプレイは不透明である。 In some embodiments, either the first action and the second action comprises controlling a shutter coupled to a head-mounted display, if the shutter is open, the head-mounted display. Is transparent and the head-mounted display is opaque when the shutter is closed.

いくつかの実施形態において、方法は、外科医による音声コマンドを検出することと、頭部装着型ディスプレイシステムを制御するために音声コマンドを適用することとを更に備える。 In some embodiments, the method further comprises detecting a voice command by the surgeon and applying the voice command to control a head-worn display system.

いくつかの実施形態において、方法は、外科医による眼部運動を検出することと、頭部装着型ディスプレイシステムを制御するために眼部運動を適用することとを更に備える。 In some embodiments, the method further comprises detecting eye movements by the surgeon and applying eye movements to control a head-worn display system.

いくつかの実施形態において、方法は、頭部装着型ディスプレイシステムと共に構成された照明システムで術野を照明することと、頭部装着型ディスプレイシステムと共に構成されたカメラシステムを用いて、照明された術野の画像を取得することとを更に備える。 In some embodiments, the method was illuminated using a lighting system configured with a head-mounted display system to illuminate the surgical field and a camera system configured with a head-mounted display system. Further prepare for acquiring an image of the surgical field.

いくつかの実施形態において、方法は、カメラヘッド位置決め器およびロボットアームから成るグループから選択された位置決め機構を介して、画像を取得するためにカメラシステムの位置を制御することを更に備える。 In some embodiments, the method further comprises controlling the position of the camera system to acquire an image via a positioning mechanism selected from the group consisting of a camera head positioner and a robot arm.

いくつかの実施形態において、第1のアクションおよび第2のアクションは、頭部装着型ディスプレイを介して表示される画像の特性を制御すること、カメラシステムを制御すること、照明システムを制御すること、および位置決め機構を制御することから成るグループから選択される。 In some embodiments, the first action and the second action control the characteristics of the image displayed via the head-worn display, control the camera system, control the lighting system. , And a group consisting of controlling the positioning mechanism.

いくつかの実施形態において、頭部装着型ディスプレイを介して表示される画像の特性を制御することは、画像のコンテンツを選択すること、ズームインおよびズームアウトすること、少なくとも2つの仮想スクリーン間でスクロールすること、ピクチャインピクチャ(PIP)を表示すること、および生画像の上にオーバレイを表示することから成るグループから選択されたアクションを備える。 In some embodiments, controlling the characteristics of an image displayed through a head-mounted display is to select the content of the image, zoom in and out, and scroll between at least two virtual screens. It comprises an action selected from a group consisting of doing, displaying a picture-in-picture (PIP), and displaying an overlay on top of the raw image.

いくつかの実施形態において、カメラシステムを制御することは、画像を取得するためのカメラを選択すること、およびカメラシステムの位置および向きを制御することから成るグループから選択されたアクションを行うことを備える。 In some embodiments, controlling a camera system performs an action selected from a group consisting of selecting a camera for acquiring an image and controlling the position and orientation of the camera system. Be prepared.

いくつかの実施形態において、照明システムを制御することは、複数の照明器の少なくとも1つを選択すること、強度設定を選択すること、フィルタを選択すること、および照明をオンまたはオフにすることから成るグループから選択されたアクションを行うことを備える。 In some embodiments, controlling a lighting system is to select at least one of a plurality of illuminators, select an intensity setting, select a filter, and turn lighting on or off. Be prepared to perform an action selected from a group of.

いくつかの実施形態において、画像は、頭部装着型ディスプレイシステムが第1のシステムモードである時、頭部装着型ディスプレイを介してディスプレイ固定状態で表示され、画像は、頭部装着型ディスプレイシステムが第2のシステムモードである時、頭部装着型ディスプレイを介して、複数の仮想スクリーンの1つに、世界固定状態で表示される。 In some embodiments, the image is displayed in a fixed state via the head-mounted display when the head-mounted display system is in the first system mode, and the image is displayed in a head-mounted display system. Is displayed in a world-fixed state on one of a plurality of virtual screens via a head-mounted display when is in the second system mode.

いくつかの実施形態において、方法は、第1のシステムモードから第2のシステムモードへ切り換えるために、足部運動入力と関連して受信されたヘッドジェスチャ入力を適用することを更に備える。 In some embodiments, the method further comprises applying a head gesture input received in connection with a foot movement input to switch from a first system mode to a second system mode.

いくつかの実施形態において、頭部装着型ディスプレイの装着者の頭部位置および向きの範囲の第1の領域は、第1のシステムモードに対応し、頭部装着型ディスプレイの装着者の頭部位置および向きの範囲の第2の領域は、第2のシステムモードに対応し、第1のシステムモードから第2のシステムモードへ切り換えるために適用されるヘッドジェスチャ入力は、頭部装着型ディスプレイの装着者の頭部位置および向きを第1の領域から第2の領域の方向へ変更する。 In some embodiments, the first region of the head position and orientation range of the wearer of the head-mounted display corresponds to the first system mode and the head of the wearer of the head-mounted display. The second area of the position and orientation range corresponds to the second system mode, and the head gesture input applied to switch from the first system mode to the second system mode is the head-mounted display. The position and orientation of the wearer's head is changed from the first region to the second region.

いくつかの実施形態において、方法は、頭部装着型ディスプレイにおいて画像上にオーバレイされたメニューを表示することを更に備え、メニューは、第1のシステムモードに関して第1のメニュー項目を表示し、第2のシステムモードに関して第2のメニュー項目を表示し、ヘッドジェスチャ入力および足部運動入力は、第2のメニュー項目を選択およびアクティブ化することによって、第1のシステムモードから第2のシステムモードへ切り換えるために適用される。 In some embodiments, the method further comprises displaying an overlaid menu on an image on a head-mounted display, wherein the menu displays a first menu item with respect to a first system mode, the first. Display a second menu item for the second system mode, and head gesture input and foot movement input from the first system mode to the second system mode by selecting and activating the second menu item. Applies to switch.

開示される技術は、図面と関連して取り上げられる以下の詳細な説明から、より詳しく理解および認識される。 The disclosed technology is understood and recognized in more detail from the following detailed description taken up in connection with the drawings.

開示される技術の実施形態に従って構成され動作可能な、カメラヘッドに結合された頭部装着型ディスプレイ(HMD)に関する複数の動作モードを制御するためのシステムの概略図である。FIG. 3 is a schematic diagram of a system for controlling multiple modes of operation for a head-mounted display (HMD) coupled to a camera head, configured and operable according to embodiments of the disclosed technique. 開示される技術の他の実施形態に従って構成され動作可能な、コンピュータの概略ブロック図である。FIG. 3 is a schematic block diagram of a computer configured and operational according to other embodiments of the disclosed technology. 開示される技術の更なる実施形態に従って構成され動作可能な、図1AのHMDの概略ブロック図である。FIG. 3 is a schematic block diagram of the HMD of FIG. 1A, configured and operable according to a further embodiment of the disclosed technique. 開示される技術の他の実施形態に従って構成され動作可能な、図1Aのカメラヘッドの概略ブロック図である。FIG. 3 is a schematic block diagram of the camera head of FIG. 1A, configured and operable according to other embodiments of the disclosed technology. 開示される技術の更なる実施形態に従って構成され動作可能な、図1Aのカメラシステムの概略ブロック図である。FIG. 3 is a schematic block diagram of the camera system of FIG. 1A, configured and operable according to a further embodiment of the disclosed technology. 開示される技術の他の実施形態に従って構成され動作可能な、図1Aの照明システムの概略ブロック図である。FIG. 3 is a schematic block diagram of the lighting system of FIG. 1A, configured and operable according to other embodiments of the disclosed technology. 開示される技術の更なる実施形態に従って構成され動作可能な、図1Aのフットスイッチの概略ブロック図である。FIG. 3 is a schematic block diagram of the footswitch of FIG. 1A, configured and operable according to a further embodiment of the disclosed technique. 開示される技術の他の実施形態に従って構成され動作可能な、システム100のためのユーザインタフェースの概念図である。FIG. 3 is a conceptual diagram of a user interface for system 100 that is configured and operational according to other embodiments of the disclosed technology. 開示される技術の更なる実施形態に従って構成され動作可能な、図2Aのユーザインタフェースを介した図1Aのシステムに関する情報および制御のフローの概念図である。It is a conceptual diagram of the flow of information and control about the system of FIG. 1A via the user interface of FIG. 2A, which is configured and operational according to a further embodiment of the disclosed technology. 開示される技術の他の実施形態に従って構成され動作可能な、それぞれが様々なシステムモードにマッピングされたHMDの複数のP&O領域に関する典型的なレイアウトを示す。Shown is a typical layout for multiple P & O regions of the HMD, each mapped to different system modes, configured and operational according to other embodiments of the disclosed technique. 開示される技術の実施形態に従って構成され動作可能な、どのヘッドジェスチャが、図3Aに関して説明されたゾーンと関連するシステムモードを呼び出すかを示すヒントがオーバレイされた生画像のディスプレイを示す。Shown is an overlaid raw image display with hints indicating which head gestures configured and operational according to embodiments of the disclosed technique call the zone and associated system modes described with respect to FIG. 3A. 全体として、開示される技術の更なる実施形態に従って構成され動作可能な、HMDを介して表示されたビデオ上にオーバレイされた、様々なシステムモードへ切り換えるためのメニューを示す。Overall, it presents a menu for switching to various system modes overlaid on the video displayed via the HMD, configured and operational according to further embodiments of the disclosed technology. 開示される技術の他の実施形態に従って構成され動作可能な、システム設定を示す1または複数のステータスバーを表示するための実装を示す。Shown is an implementation for displaying one or more status bars indicating system settings that are configured and operational according to other embodiments of the disclosed technology. 開示される技術の他の実施形態に従って構成され動作可能な、ディスプレイモジュールがディスプレイ固定状態である時、外科医によって知覚されるような投影画像を示す。Shows a projected image as perceived by the surgeon when the display module is in a fixed display state, configured and operable according to other embodiments of the disclosed technique. 全体として、開示される技術の更なる実施形態に従って構成され動作可能な、それぞれHMDを介して仮想スクリーンに世界固定状態で表示される2つのビューを示し、各ビューは、外科医の頭部の様々な位置および向きに対応する。Overall, it presents two views, each configured and operational according to a further embodiment of the disclosed technique, each displayed in a world-fixed state on a virtual screen via an HMD, each view being a variety of surgeon's heads. Corresponds to various positions and orientations. 開示される技術の他の実施形態に従って構成され動作可能な、外科医に見えるような仮想スクリーン状態の典型的な実装を示す。Demonstrates a typical implementation of a surgeon-visible virtual screen state that is configured and operational according to other embodiments of the disclosed technology. 開示される技術の更なる実施形態に従って構成され動作可能な、ユーザがシステムとインタラクトし、様々なシステムモードへ切り換えることを可能にする、生画像フィード上にオーバレイされたメニューを示す。Shown is an overlaid menu on a raw image feed that is configured and operational according to a further embodiment of the disclosed technology, allowing the user to interact with the system and switch to various system modes. 開示される技術の他の実施形態に従って構成され動作可能な、図6Aのメニューからシステムモードメニュー項目を選択した後、生画像フィード上にオーバレイされたシステムモードメニューを示す。An overlayed system mode menu is shown on the raw image feed after selecting a system mode menu item from the menu of FIG. 6A, which is configured and operational according to other embodiments of the disclosed technique. 開示される技術の更なる実施形態に従って構成され動作可能な、生画像フィード上にオーバレイされたPIP内に表示された術前画像を示す。Shown is a preoperative image displayed within an overlaid PIP on a raw image feed that is configured and operational according to a further embodiment of the disclosed technique. 開示される技術の他の実施形態に従って構成され動作可能な、PIPと共に生画像フィード上にオーバレイされた図6Aのメニューを示す。Shown is a menu of FIG. 6A overlaid on a raw image feed with PIP, configured and operational according to other embodiments of the disclosed technique. 全体として、開示される技術の他の実施形態に従って構成され動作可能な、PIP内に表示された対応するコンテンツを有する一連の生画像を示す。Overall, it shows a series of raw images with the corresponding content displayed within PIP, configured and operational according to other embodiments of the disclosed technology. 全体として、開示される技術の更なる実施形態に従って構成され動作可能な、PIP内に表示された対応するコンテンツを有する一連の生画像を示す。Overall, it shows a series of raw images with the corresponding content displayed within PIP, configured and operational according to a further embodiment of the disclosed technique. 開示される技術の更なる実施形態に従って構成され動作可能な、2つのPIP内に表示された対応するコンテンツを有する図6L~6Pの生画像を示す。FIG. 6 shows raw images of FIGS. 6L-6P with corresponding content displayed within two PIPs that are configured and operational according to a further embodiment of the disclosed technique. 全体として、開示される技術の実施形態に従って構成され動作可能な、生画像のディスプレイ上に記号を描画するための実装を示す。Overall, an implementation for drawing symbols on a raw image display that is configured and operational according to embodiments of the disclosed technique is shown. 開示される技術の実施形態に従って構成され動作可能な、生画像上にオーバレイされた状態で表示されたメニューを示す。Shown is an overlayed menu displayed on a raw image that is configured and operational according to an embodiment of the disclosed technique. 全体として、開示される技術の更なる実施形態に従って構成され動作可能な、フォーカスのために選択された視野エリアを指定することを可能にするユーザインタフェーススクリーンの典型的な実装を示す。Overall, we show a typical implementation of a user interface screen that allows you to specify a field of view area selected for focus that is configured and operational according to a further embodiment of the disclosed technology. 開示される技術の実施形態に従って構成され動作可能な、生画像上にオーバレイされた図7Aのメニューの他のビューを示す。Shown is another view of the menu of FIG. 7A overlaid on a raw image that is configured and operational according to embodiments of the disclosed technique. 全体として、開示される技術の他の実施形態に従って構成され動作可能な、選択された視野エリアにフォーカスするためのメニュー駆動型ユーザインタフェースの他の典型的な実装を示す。Overall, we show another typical implementation of a menu-driven user interface for focusing on a selected field of view area that is configured and operational according to other embodiments of the disclosed technology. 全体として、開示される技術に従って構成され動作可能な、実際の作動距離と、カメラの設計作動距離との不一致によって生じる、3D画像の歪みを補正するための技術を示す。As a whole, techniques for correcting 3D image distortion caused by a discrepancy between the actual working distance and the design working distance of the camera, which is configured and operable according to the disclosed techniques, are shown. 全体として、開示される技術の実施形態に従って構成され動作可能な、様々な作動距離における図8Aの光学システムを示す。Overall, it shows the optical system of FIG. 8A at various working distances that is configured and operable according to embodiments of the disclosed technique. 開示される技術の実施形態に従って構成され動作可能な、2つの異なる焦点面にフォーカスするように構成された図8Aの光学システムを示す。8A shows an optical system of FIG. 8A configured to focus on two different focal planes configured and operable according to embodiments of the disclosed technique. 全体として、開示される技術の実施形態に従って構成され動作可能な、図8A~8Bに従って説明されたシフト技術の適用後、HMDを介して表示された画像を示す。Overall, an image displayed via the HMD is shown after application of the shift technique described according to FIGS. 8A-8B, which is configured and operational according to embodiments of the disclosed technique. 開示される技術の他の実施形態に従って構成され動作可能な、ヘッドアップディスプレイシステムを制御するための方法の概略図である。FIG. 3 is a schematic representation of a method for controlling a heads-up display system that is configured and operational according to other embodiments of the disclosed technology.

開示される技術は、外科アプリケーションにおける使用のための頭部装着型ディスプレイ(HMD)のためのマルチモーダルユーザインタフェース(UI)を提供することによって、従来技術の欠点を克服する。そのような外科アプリケーションの例は、外科用顕微鏡の拡大下で行われる顕微鏡手術処置である。顕微鏡手術法は、一般に、眼科手術および脳外科手術において用いられる。一般に、顕微鏡手術処置において、外科医の両手は外科用ツールに占められるため、外科医は、外科用顕微鏡とインタフェースし、システムパラメータを制御するために、幅広い範囲のハンドフリー方法を必要とする。システムの堅牢性が高く、システムが提供する特徴の範囲が広いほど、これらの特徴を制御するためのインタフェースは複雑である。そのようなハンドフリー方法を用いるインタフェースを提供する上で追加された課題は、たとえばフットスイッチなどの他の入力手段へ複雑性を転嫁する。実際、外科医は多くの場合、様々なシステムパラメータを制御するために複雑なフットスイッチを用いる必要があり、術野を注視しながら、ボタンおよびペダルを手探りで探すために靴を脱いで自身のつま先を用いなければならない。 The disclosed technique overcomes the shortcomings of prior art by providing a multimodal user interface (UI) for a head-mounted display (HMD) for use in surgical applications. An example of such a surgical application is a microsurgical procedure performed under the magnification of a surgical microscope. Microscopic surgery is commonly used in ophthalmic surgery and brain surgery. In general, in microsurgery procedures, the surgeon's hands are occupied by surgical tools, so the surgeon needs a wide range of hand-free methods to interface with the surgical microscope and control system parameters. The more robust the system and the wider the range of features the system offers, the more complex the interface for controlling these features. An additional challenge in providing an interface using such a hands-free method shifts complexity to other input means, such as footswitches. In fact, surgeons often need to use complex footswitches to control various system parameters, taking off their shoes and their toes to fumble for buttons and pedals while gazing at the surgical field. Must be used.

開示される技術のUIは、外科医が、各々が様々なアクションセットをサポートする様々なシステムモードを介して幅広い機能を提供しながらも比較的単純なフットスイッチを用いることを可能にする。1つの実装において、フットスイッチは3つのペダルしか有さず、外科医が、靴を履いたまま、かつ踵を床から持ち上げることなく、適切なペダルを容易に探し当てることを可能にする。所与のハンドフリージェスチャは、システムモードに依存して、複数の異なるアクションを引き起こし得る。この技術は、外科医に、比較的少数のハンドフリージェスチャを用いて幅広い機能を提供する。ハンドフリージェスチャは、直観的であるように設計され、外科医が、システムと自然にインタフェースし、様々な特徴を制御することを可能にし、外科医が、注意力の大半ならびに自身の両手を外科処置に捧げることを可能にする。外科医は、たとえば動き感知、足部または音声制御、アイトラッキングなどの1または複数のハンドフリー入力によってシステムモードを切り換えてよい。いくつかの実施形態において、外科医は、フットスイッチで有効化されたヘッドジェスチャによってシステムモードを切り換える。 The UI of the disclosed technology allows surgeons to use relatively simple footswitches while providing a wide range of functions via different system modes, each supporting different action sets. In one implementation, the footswitch has only three pedals, allowing the surgeon to easily find the appropriate pedal while wearing shoes and without lifting the heel off the floor. A given hands-free gesture can trigger a number of different actions, depending on the system mode. This technique provides surgeons with a wide range of functions with a relatively small number of hands-free gestures. Hands-free gestures are designed to be intuitive, allowing the surgeon to naturally interface with the system and control various features, allowing the surgeon to perform most of his attention as well as his hands in the surgical procedure. Makes it possible to offer. The surgeon may switch the system mode with one or more hands-free inputs such as motion sensing, foot or voice control, eye tracking, and the like. In some embodiments, the surgeon switches the system mode with a footswitch-enabled head gesture.

本明細書で説明されるシステムは、たとえば術野の画像を取得するためのカメラシステムおよび照明システム、ならびにこれらの画像を見るためのHMDなどの複数の構成要素を含む。様々なシステムモードにより、外科医は、システムの様々な態様を制御することができる。いくつかのシステムモードは、外科医が、ジェスチャを用いて、たとえば術野の上に位置するカメラヘッドユニットに関する倍率設定(すなわちズームインおよびズームアウト)、フォーカスおよび照明設定などのシステムパラメータを制御することを可能にする。他のシステムモードは、外科医が、たとえば見るためのコンテンツを選択すること、および表示された画像および術前データを操作することなどによって、HMDを介してディスプレイを制御するためにジェスチャを用いることを可能にする。 The system described herein includes a plurality of components such as a camera system and a lighting system for acquiring images of the surgical field, and an HMD for viewing these images. The different system modes allow the surgeon to control different aspects of the system. Some system modes allow the surgeon to use gestures to control system parameters such as magnification settings (ie zoom in and zoom out), focus and lighting settings for the camera head unit located above the surgical field. enable. Other system modes allow the surgeon to use gestures to control the display via the HMD, for example by selecting content for viewing and manipulating displayed images and preoperative data. enable.

ここで説明される方法は、顕微鏡手術以外の外科処置にも適用されてよく、すなわち、たとえば追跡および拡張現実能力に基づくバイザーガイド式手術(ここでは「VGS」)など、術野の拡大画像がない場合でも行われ得る。これらの処置において、HMDは、外科医による患者のビューを拡張し、外科医が、患者の身体が部分的に透明であるかのように解剖学的特徴および外科用ツールを見ることを可能にする。これらの処置は、任意選択的に、術野の拡大画像を全く用いず、したがってカメラヘッドユニットを用いずに行われ得る。 The methods described herein may also be applied to surgical procedures other than microsurgery, i.e., magnified images of the surgical field, such as visor-guided surgery based on follow-up and augmented reality capabilities (here "VGS"). It can be done even if it is not. In these procedures, the HMD expands the surgeon's view of the patient, allowing the surgeon to see the anatomical features and surgical tools as if the patient's body were partially transparent. These procedures can optionally be performed without any magnified image of the surgical field and thus without the camera head unit.

ここで、開示される技術の実施形態に従って構成され動作可能な、全体として100と示された、HMDのための複数の動作モードを制御するためのシステムの概略図である図1Aが参照される。システム100は、HMD102、フットスイッチ104、機械アーム106、タッチ式スクリーン108、コンピュータ118(不図示)を収容し、タッチ式スクリーン108を支持するカート116、カメラヘッド110、およびカメラヘッド位置決め器111を含む。カメラヘッド110は、カメラシステム112および照明システム114を収容する。カメラシステム112は、少なくとも2つの高解像度カメラ(不図示)を含む。機械アーム106は、コンピュータ118をカメラヘッド位置決め器111およびカメラヘッド110に接続する。コンピュータ118は、カート116および機械アーム106内に統合された1または複数のワイヤおよび/またはケーブル(不図示)を介して、カメラヘッド位置決め器111、カメラヘッド110、カメラシステム112、および照明システム114に電気的に結合される。 Reference is made here to FIG. 1A, which is a schematic diagram of a system for controlling a plurality of operating modes for an HMD, which is configured and operational according to embodiments of the disclosed technique and is shown as 100 as a whole. .. The system 100 includes a cart 116, a camera head 110, and a camera head positioner 111 that accommodate the HMD 102, foot switch 104, mechanical arm 106, touch screen 108, computer 118 (not shown) and support the touch screen 108. include. The camera head 110 houses the camera system 112 and the lighting system 114. The camera system 112 includes at least two high resolution cameras (not shown). The mechanical arm 106 connects the computer 118 to the camera head positioner 111 and the camera head 110. The computer 118 includes a camera head positioner 111, a camera head 110, a camera system 112, and a lighting system 114 via one or more wires and / or cables (not shown) integrated within the cart 116 and the machine arm 106. Is electrically coupled to.

コンピュータ118は、カメラヘッド位置決め器111を介して、カメラヘッド110の位置および向きを制御する。カメラヘッド位置決め器111は、x、y、z座標におけるカメラヘッド100の位置を制御するための複数のモータを含む。カメラヘッド位置決め器111は更に、カメラヘッド100の傾きを制御するためのモータを含む。コンピュータ118は更に、照明システム114およびカメラシステム112に関する動作パラメータを制御し、その詳細は後述される。 The computer 118 controls the position and orientation of the camera head 110 via the camera head positioner 111. The camera head positioner 111 includes a plurality of motors for controlling the position of the camera head 100 in the x, y, and z coordinates. The camera head positioner 111 further includes a motor for controlling the tilt of the camera head 100. The computer 118 also controls operating parameters for the lighting system 114 and the camera system 112, the details of which will be described later.

HMD102、フットスイッチ104、およびコンピュータ118には、1または複数のトランシーバ(不図示)が提供される。トランシーバは、たとえば電気または光ファイバケーブル(不図示)、Wifi、Bluetooth、Zigbee、短距離、中距離、長距離、およびマイクロ波RF、無線光学手段(たとえばレーザ、ライダ、赤外線)、音響手段、超音波手段などの、任意の適切な有線および/または無線通信手段およびプロトコルに対応する。コンピュータ118は、トランシーバを介してHMD102およびフットスイッチ104に結合される。コンピュータ118は、トランシーバを介してHMD102へ画像をストリーミングし、外科医120がHMD102で画像を見ることを可能にする。画像は、カメラシステム112によって取得され、手術の生ビデオを見るためにGPUによってリアルタイムで処理され得る。あるいは、画像は手術前に取得され、メモリ内に格納され、GPUによってリアルタイムでレンダリングされ得る。いくつかの実装において、画像は、たとえばクラウドベースのサーバなどの遠隔サーバからストリーミングまたはダウンロードされ得る。たとえば、VGS処置において、CTまたはMRI画像からの分割によって生成された身体部位のモデルがメモリ内に格納され、外科医120の観点から、GPUによってリアルタイムでHMD102にレンダリングされ得る。他の実施形態において、HMD102へ送信される画像は、たとえば内視鏡などの外部デバイスから取得される。コンピュータ118は、現在のシステムモード、ならびにユーザインタフェースを介して外科医から受信した1または複数の入力に基づいて、どの画像を外科医120へストリーミングするかを決定する。 The HMD 102, footswitch 104, and computer 118 are provided with one or more transceivers (not shown). Transceivers include, for example, electrical or fiber optic cables (not shown), Wifi, Bluetooth, Zigbee, short-range, medium-range, long-range, and microwave RF, wireless optical means (eg laser, lidar, infrared), acoustic means, ultra. Corresponds to any suitable wired and / or wireless communication means and protocols, such as sonic means. The computer 118 is coupled to the HMD 102 and the foot switch 104 via a transceiver. The computer 118 streams the image to the HMD 102 via a transceiver, allowing the surgeon 120 to view the image on the HMD 102. The images are acquired by the camera system 112 and can be processed in real time by the GPU to watch live video of the surgery. Alternatively, the image can be captured prior to surgery, stored in memory and rendered in real time by the GPU. In some implementations, images can be streamed or downloaded from remote servers, such as cloud-based servers. For example, in a VGS procedure, a model of the body part generated by division from a CT or MRI image can be stored in memory and rendered in real time by the GPU to the HMD 102 from the perspective of the surgeon 120. In another embodiment, the image transmitted to the HMD 102 is obtained from an external device, such as an endoscope. The computer 118 determines which image to stream to the surgeon 120 based on the current system mode as well as one or more inputs received from the surgeon via the user interface.

1つの実施形態において、1人の外科医120が、患者122に外科的処置を行いながら術野124の拡大ビデオを見るためにHMD102を装着している。カメラシステム112は、患者122に行われる外科的処置に対応する、術野124の画像のストリームを取得する。コンピュータ118は、画像のストリームを受信および処理し、処理された画像を、トランシーバを介してHMD102へ送信する。外科医120は、HMD102を介して画像を見、システムモードによってシステム100の1または複数の設定を制御する。各システムモードは、システムパラメータの様々なセットを制御してよい。外科医120は、たとえばフットスイッチ104を押下しながらのヘッドジェスチャなどのハンドレスジェスチャを行うこと、アイトラッカ136によって追跡される眼球運動を行うこと、または、たとえば音声制御などの音響駆動手段を用いることによって、選択されたシステムパラメータのセットを制御するためにシステムモードを切り換えてよい。これらのユーザインタフェース法および他のユーザインタフェース法の詳細は、本明細書において後述される。 In one embodiment, one surgeon 120 wears the HMD 102 to watch a magnified video of the surgical field 124 while performing a surgical procedure on the patient 122. The camera system 112 acquires a stream of images of the surgical field 124 corresponding to the surgical procedure performed on the patient 122. Computer 118 receives and processes a stream of images and sends the processed images to the HMD 102 via a transceiver. The surgeon 120 sees the image through the HMD 102 and controls one or more settings of the system 100 depending on the system mode. Each system mode may control different sets of system parameters. The surgeon 120 performs handless gestures such as head gestures while pressing the foot switch 104, eye movements tracked by the eye tracker 136, or by using acoustically driven means such as voice control. , The system mode may be switched to control the set of selected system parameters. Details of these user interface methods and other user interface methods will be described later herein.

あるいは、外科医120は、たとえばフットスイッチ104を押下しながらヘッドジェスチャを行うことなどのハンドレスな方法を用いて、1または複数のシステムパラメータを直接制御してよい。同じジェスチャが、システムモードに依存して、システム100の様々な特徴を制御してよい。たとえば、ヘッドジェスチャを行いながらフットスイッチ104のペダルを押下することは、システム100が1つのシステムモードである時、1つの動作を引き起こし得るが、システム100が他のシステムモードである時、フットスイッチ104の同じペダルを押下し、同じヘッドジェスチャを行うことが、異なる動作を引き起こし得る。複数のシステムモードを設けることによって、比較的少数のペダルおよびヘッドジェスチャが、幅広い特徴を制御し得る。 Alternatively, the surgeon 120 may directly control one or more system parameters using a handless method, such as performing a head gesture while pressing the footswitch 104. The same gesture may control various features of the system 100 depending on the system mode. For example, pressing the pedal of the footswitch 104 while performing a head gesture can cause one action when the system 100 is in one system mode, but the footswitch when the system 100 is in another system mode. Pressing the same pedal on 104 and performing the same head gesture can cause different movements. By providing multiple system modes, a relatively small number of pedals and head gestures can control a wide range of features.

たとえば、1つのシステムモードにおいて、外科医120は、自身の頭を上向きに動かしながらフットスイッチ104の第1のペダルを押下することによってズームインしてよい。その結果、外科医120は、自身の視野のより大きな部分にわたり拡大された、小さなサイズの術野124を見る。異なるシステムモードにおいて、同じ上向きのヘッドジェスチャを行いながらフットスイッチ104の同じペダルを押下することにより、外科医120は、HMD102を介して表示された複数の術前画像において上方向にスクロールすることができる。各システムモードに関するジェスチャは、外科医120がシステム100と自然にインタフェースすることを可能にするために直観的であることが意図される。したがって、システム100は、広範囲の制御可能な特徴を提供するが、本明細書に開示されるユーザインタフェースによってこれらの特徴を制御することは、冗長な訓練期間を必要とするものではない。むしろ、外科医120は、自身が制御することを望む特徴に直観的であるジェスチャを行う。たとえば、複数の仮想スクリーンにわたり表示された複数の画像を見る場合、外科医120は、自身の頭を左へ向けることによって、左方向へスクロールし、左に表示されたスクリーンを見ることができる。ヘッドジェスチャを介した制御は、優れた精度および解像度を提供し得る。たとえば、一部の外科医が気付くように、ヘッドジェスチャはより正確な1ショット制御を可能にし、オーバーシュートまたはアンダーシュートをなくすので、ヘッドジェスチャを介してフォーカスを制御することは、フットスイッチを用いる場合と比較して簡単であると判明する。いくつかの実施形態において、ヘッドジェスチャの軌道は、何が行われるかを決定し、ヘッドジェスチャの速度は、動作を行う速度を決定する。たとえば、外科医は、自身の頭を迅速に動かすことによって迅速にズームインし、自身の頭を緩慢に動かすことによって緩慢にズームインし得る。 For example, in one system mode, the surgeon 120 may zoom in by pressing the first pedal of the footswitch 104 while moving his head upwards. As a result, the surgeon 120 sees a small size surgical field 124 that is magnified over a larger portion of his field of view. By pressing the same pedal on the footswitch 104 while performing the same upward head gesture in different system modes, the surgeon 120 can scroll upward in multiple preoperative images displayed via the HMD 102. .. Gestures for each system mode are intended to be intuitive to allow the surgeon 120 to naturally interface with the system 100. Thus, the system 100 provides a wide range of controllable features, but controlling these features by the user interface disclosed herein does not require a redundant training period. Rather, the surgeon 120 makes gestures that are intuitive to the features he desires to control. For example, when viewing a plurality of images displayed across a plurality of virtual screens, the surgeon 120 can scroll to the left and see the screen displayed to the left by turning his head to the left. Control through head gestures can provide excellent accuracy and resolution. For example, as some surgeons will notice, head gestures allow for more accurate one-shot control and eliminate overshoots or undershoots, so controlling focus through head gestures is possible with a footswitch. Turns out to be easier compared to. In some embodiments, the trajectory of the head gesture determines what is done, and the speed of the head gesture determines the speed at which the movement is performed. For example, a surgeon may zoom in quickly by moving his head quickly and zoom in slowly by moving his head slowly.

いくつかの実施形態において、フットスイッチ104は、標準的なキーボードにおいて<Shift>、<Cntl>、<Caps Lock>ボタンを押すことによってキーボードに関する個別の機能セットを有効化する方法と同様に、ボタン押下を介して他の機能セットを有効化するために装備される。いくつかの実施形態において、第2の機能セットは、外科医120による単一の動作で、フットスイッチ104の全てのボタンおよび特徴に関して同時に有効化される。たとえば、フットスイッチ104のボタンの1つ(たとえばメニューに対応するボタン)を一度短く押下した後、そのボタンを解放することは、フットスイッチ104の全てのボタンに関する第2の機能セットを有効化する。第2の機能セットが有効化されたというインジケーションが、HMD102を介して外科医120に表示される。あるいは、第2の機能セットは、音声コマンドによって、または他の手段によって有効化され得る。 In some embodiments, the footswitch 104 is a button as well as a method of activating a separate feature set for the keyboard by pressing the <Shift>, <Cntl>, <Caps Lock> buttons on a standard keyboard. Equipped to activate other feature sets via press. In some embodiments, the second feature set is activated simultaneously for all buttons and features of the footswitch 104 in a single action by the surgeon 120. For example, pressing one of the buttons on the footswitch 104 (eg, the button corresponding to the menu) once briefly and then releasing that button activates a second feature set for all the buttons on the footswitch 104. .. The indication that the second feature set has been activated is displayed to the surgeon 120 via the HMD 102. Alternatively, the second feature set may be activated by voice command or by other means.

他の実施形態において、第2の機能セットは、フットスイッチ104の各ボタンに関して個別に有効化される。したがって、フットスイッチ104のボタンの1つを一度短く押下し、すぐに解放した後、同じボタンを長押しすることは、そのボタンのみに関して第2のヘッドジェスチャセットを有効化し得る。たとえば、「シフト」を伴わないヘッドジェスチャによってXYモータ制御を有効化するボタンは、「シフト」されると、ROIの上下よび左右のパンニングを有効化し得る。いくつかの実施形態において、フットスイッチ104の1または複数のボタンは、様々な機能セットを有効化するために全押しおよび半押しを区別するように装備される。たとえば、フットスイッチ104のボタンの1つは、システム100に関する照明を制御してよく、そのボタンの全押しが、たとえば同軸照明といった照明の1つの態様を制御し、そのボタンの半押しが、たとえば投光照明といった照明の他の態様を制御する(たとえば、全押しは、同軸照明を制御するヘッドジェスチャを有効化し、半押しは、投光照明を制御するヘッドジェスチャを有効化する)。 In another embodiment, the second feature set is individually activated for each button on the footswitch 104. Therefore, pressing one of the buttons of the footswitch 104 briefly once, releasing it immediately, and then pressing and holding the same button may activate the second head gesture set for that button only. For example, a button that enables XY motor control by a head gesture without a "shift" can enable up / down and left / right panning of the ROI when "shifted". In some embodiments, one or more buttons on the footswitch 104 are equipped to distinguish between full press and half press to enable various feature sets. For example, one of the buttons on the footswitch 104 may control the lighting with respect to the system 100, a full press of the button may control one aspect of lighting, eg coaxial lighting, and a half press of the button, for example. Control other aspects of lighting, such as floodlights (for example, a full press activates a head gesture that controls coaxial lighting, and a half press activates a head gesture that controls floodlights).

他の実施形態において、システム100は、いくつかのHMDを同時にサポートする。ユーザの1人、たとえば外科医120は、全てのシステム設定を制御することが可能な「代表」外科医に指定される。いくつかの実施形態において、HMD102と同様のHMDを装着している他のユーザは、自身のそれぞれのHMDを介して表示された画像の設定のみを制御するが、自身が装着しているHMDの外部のパラメータを制御することはなく、たとえば彼らは、カメラシステム112のフォーカスおよび照明システム114による照明を制御することはない。他の実施形態において、HMD102と同様のHMDを装着している他のユーザは、システム100に関する1または複数の設定を制御し得る。 In another embodiment, the system 100 supports several HMDs simultaneously. One of the users, eg the surgeon 120, is designated as the "representative" surgeon who can control all system settings. In some embodiments, other users wearing an HMD similar to the HMD 102 control only the settings of the image displayed via their respective HMDs, but of the HMD they are wearing. They do not control external parameters, for example they do not control the focus of the camera system 112 and the lighting by the lighting system 114. In another embodiment, another user wearing an HMD similar to the HMD 102 may control one or more settings with respect to the system 100.

以下に示すシステム100の説明は、2つの観点から記載される。システム100の構成要素に関する典型的なハードウェアレイアウトの説明は、図1B~1Gに関して後述される。図2A~2Bは、システム100のユーザインタフェースに関する典型的な論理レイアウトを説明する。留意すべき点として、これらの図は、システム100に関して可能な複数の実装のうちの1つの典型的な実装のみを例示することが意図される。これらの図は、本発明を任意の特定の実装に限定することは意図されない。 The description of the system 100 shown below is described from two perspectives. A description of a typical hardware layout for the components of the system 100 will be described below with respect to FIGS. 1B-1G. 2A-2B illustrate a typical logical layout for the user interface of the system 100. It should be noted that these figures are intended to illustrate only a typical implementation of one of a plurality of possible implementations for the system 100. These figures are not intended to limit the invention to any particular implementation.

ここで、開示される技術の他の実施形態に従って構成され動作可能な、図1Aのコンピュータ118の概略ブロック図である図1Bが参照される。留意すべき点として、この図は単なる典型的な実装であり、適用可能な場合、ソフトウェアモジュールがハードウェアモジュールの代わりに用いられてよく、逆も然りである。コンピュータ118は、少なくとも1つのプロセッサ118A、少なくとも1つのトランシーバ118B、電源118C、少なくとも1つのメモリ118D、少なくとも1つのアナログデジタルA/D変換器118E、少なくとも1つのデジタルアナログD/A変換器118F、および、機械アームコントローラ118G、カメラシステムコントローラ118H、照明システムコントローラ118I、ヘッドトラッカコントローラ118J、画像プロセッサ118K、アイトラッカコントローラ118L、音響解析装置118M、および少なくとも1つのバス118Nの1または複数を含む。プロセッサ118A、トランシーバ118B、電源118C、メモリ118D、A/D変換器118E、D/A変換器118F、機械アームコントローラ118G、カメラシステムコントローラ118H、照明システムコントローラ118I、ヘッドトラッカコントローラ118J、画像プロセッサ118K、アイトラッカコントローラ118L、および音響解析装置118Mは、少なくとも1つのバス118Nを介して結合される。 Here, reference is made to FIG. 1B, which is a schematic block diagram of computer 118 of FIG. 1A, which is configured and operational according to other embodiments of the disclosed technology. It should be noted that this figure is just a typical implementation, where software modules may be used in place of hardware modules and vice versa. The computer 118 includes at least one processor 118A, at least one transceiver 118B, power supply 118C, at least one memory 118D, at least one analog digital A / D converter 118E, at least one digital analog D / A converter 118F, and , Mechanical arm controller 118G, camera system controller 118H, lighting system controller 118I, head tracker controller 118J, image processor 118K, eye tracker controller 118L, acoustic analyzer 118M, and one or more of at least one bus 118N. Processor 118A, Transceiver 118B, Power supply 118C, Memory 118D, A / D converter 118E, D / A converter 118F, Mechanical arm controller 118G, Camera system controller 118H, Lighting system controller 118I, Head tracker controller 118J, Image processor 118K, The eye tracker controller 118L and the acoustic analyzer 118M are coupled via at least one bus 118N.

コンピュータ118は、単一のユニットとして示されるが、これは概念的な目的に過ぎない。コンピュータ118は、システム100のための単一の制御ユニットとして動作する複数の分散ユニットとして実装され得る。たとえば、少なくとも1つのプロセッサ118A、トランシーバ118B、電源118C、およびメモリ118Dの各々は、システム100の構成要素に(たとえばカメラヘッド110、HMD102、フットスイッチ104、遠隔サーバなどに)分散され協調して動作する複数のプロセッサ、メモリ、電源、およびトランシーバを含んでよい。 Computer 118 is shown as a single unit, but this is for conceptual purposes only. Computer 118 may be implemented as a plurality of distributed units operating as a single control unit for system 100. For example, each of at least one processor 118A, transceiver 118B, power supply 118C, and memory 118D is distributed and cooperates with the components of the system 100 (eg, camera head 110, HMD 102, foot switch 104, remote server, etc.). May include multiple processors, memory, power supplies, and transceivers.

機械アームコントローラ118Gは、カメラヘッド110のx、y、z軸または傾きを調整するために、カメラヘッド位置決め器111内に含まれたモータを制御する。カメラシステムコントローラ118Hは、たとえば画像を取得するためのカメラまたは複数のカメラを選択すること、F値、フォーカスなどを調整することなど、カメラシステム112内に含まれたカメラの動作を制御する。照明システムコントローラ118Iは、たとえば照明器、強度、1または複数のフィルタなどの選択など、照明システム114の動作を制御する。ヘッドトラッカコントローラ118Jは、外科医120の頭部を追跡するためにシステム100に提供された1または複数のヘッドトラッカ部品の動作を制御する。画像プロセッサ118Kは、たとえばズームイン、ズームアウト、デジタルフィルタリング、先鋭化、平滑化、色補正、いくつかの画像ソースの融合、ピクチャインピクチャフォームで1つの画像ソースを他の画像ソースに埋め込むことなどの適用によって、カメラシステム112、メモリ118D、またはGPUのいずれかから受信した画像を処理する。アイトラッカコントローラ118Lは、HMD102によって構成されたアイトラッカを制御する。音響解析装置118Mは、たとえば音声コマンドを認識するために音声認識アルゴリズムを適用することなどによって、システム100に提供されたマイクロフォンから受信した音に音認識を適用する。 The mechanical arm controller 118G controls a motor contained within the camera head positioner 111 to adjust the x, y, z axis or tilt of the camera head 110. The camera system controller 118H controls the operation of the cameras included in the camera system 112, such as selecting a camera or a plurality of cameras for acquiring an image, adjusting an F value, a focus, and the like. The lighting system controller 118I controls the operation of the lighting system 114, such as selection of illuminator, intensity, one or more filters, and the like. The head tracker controller 118J controls the operation of one or more head tracker components provided to the system 100 to track the head of the surgeon 120. The image processor 118K can use, for example, zoom in, zoom out, digital filtering, sharpening, smoothing, color correction, fusing several image sources, embedding one image source in another image source with a picture-in-picture form, etc. Depending on the application, the image received from either the camera system 112, the memory 118D, or the GPU is processed. The eye tracker controller 118L controls the eye tracker configured by the HMD 102. The acoustic analyzer 118M applies sound recognition to the sound received from the microphone provided to the system 100, for example by applying a voice recognition algorithm to recognize voice commands.

ここで、開示される技術の更なる実施形態に従って構成され動作可能な、図1AのHMD102の概略ブロック図である図1Cが参照される。HMD102の構成要素は、図1Aに示すように、外科医120によって装着された調整可能な枠内に組み込まれ得る。HMD102は、ドライバ102A、トランシーバ102B、メモリ(たとえばバッファ)102C、およびディスプレイモジュール130を含む。いくつかの実施形態において、HMD102は更に、液晶(LC)シャッタ132、トラッキング部品134、アイトラッキング部品136、マイクロフォン138、スピーカ139、振動モータ141、および少なくとも1つのバス102Dを含む。ドライバ102A、トランシーバ102B、メモリ102C、ディスプレイモジュール130、シャッタ132、トラッキング部品134、アイトラッキング部品136、マイクロフォン138、スピーカ139、および振動モータ141は、少なくとも1つのバス102Dを介して結合される。 Here, reference is made to FIG. 1C, which is a schematic block diagram of HMD 102 of FIG. 1A, which is configured and operational according to a further embodiment of the disclosed technique. The components of the HMD 102 may be incorporated within an adjustable frame fitted by the surgeon 120, as shown in FIG. 1A. The HMD 102 includes a driver 102A, a transceiver 102B, a memory (eg, a buffer) 102C, and a display module 130. In some embodiments, the HMD 102 further includes a liquid crystal (LC) shutter 132, a tracking component 134, an eye tracking component 136, a microphone 138, a speaker 139, a vibration motor 141, and at least one bus 102D. The driver 102A, transceiver 102B, memory 102C, display module 130, shutter 132, tracking component 134, eye tracking component 136, microphone 138, speaker 139, and vibration motor 141 are coupled via at least one bus 102D.

ディスプレイモジュール130は、外科医120の各目のための画像を投影するために2つのディスプレイモジュール130Aおよび130Bを含む双眼式ディスプレイであってよい。いくつかの実施形態において、HMD102は、単眼式である。シャッタ132は、ディスプレイモジュール130に機械的に結合され、開閉するように動作可能である。シャッタ132が閉じている時、ディスプレイモジュール130は不透明であり、HMD102を介して表示された画像を増強する。シャッタ132が完全または部分的に開いている時、ディスプレイモジュール130は、シャッタ132が開いている領域において透明であり、外科医120が、現実世界ビューの上にオーバレイされた画像を見ることを可能にする。部分的または完全に開いているシャッタ132は、拡張現実、または現実世界ビュー構成に適し得る。あるいは、開いているシャッタ132は、外科医120が、必要に応じて、たとえば他の外科医または看護士など、手術室内の他の外科医と対話および意思疎通することを可能にする。トラッキング部品134は、HMD102に関する位置および/または向きデータを取得し、それぞれのトランシーバ102Bおよび118Bを介してヘッドトラッカコントローラ118Jへ位置および/または向きデータを送信する。マイクロフォン138は、外科医120によって発された音声コマンドまたは他の音を記録し、それぞれのトランシーバ102Bおよび118Bを介して音響解析装置118Mへ音を送信する。アイトラッキング部品136は、外科医120の眼球運動データを取得し、それぞれのトランシーバ102Bおよび118Bを介してアイトラッカコントローラ118Lへ眼球運動データを送信する。 The display module 130 may be a binocular display comprising two display modules 130A and 130B for projecting an image for each eye of the surgeon 120. In some embodiments, the HMD 102 is monocular. The shutter 132 is mechanically coupled to the display module 130 and can operate to open and close. When the shutter 132 is closed, the display module 130 is opaque and enhances the image displayed via the HMD 102. When the shutter 132 is fully or partially open, the display module 130 is transparent in the area where the shutter 132 is open, allowing the surgeon 120 to see the overlaid image on top of the real world view. do. The partially or fully open shutter 132 may be suitable for augmented reality or real world view configurations. Alternatively, the open shutter 132 allows the surgeon 120 to interact and communicate with other surgeons in the operating room, for example, other surgeons or nurses, as needed. The tracking component 134 acquires position and / or orientation data with respect to the HMD 102 and transmits the location and / or orientation data to the head tracker controller 118J via the transceivers 102B and 118B, respectively. The microphone 138 records a voice command or other sound issued by the surgeon 120 and transmits the sound to the acoustic analyzer 118M via the transceivers 102B and 118B, respectively. The eye tracking component 136 acquires eye movement data of the surgeon 120 and transmits the eye movement data to the eye tracker controller 118L via the respective transceivers 102B and 118B.

ディスプレイモジュール130は、図1Aに示すように、外科医120の視線上に位置するようにHMD102に配置される。シャッタ132は、ディスプレイモジュール130によって構成され、開いた状態、閉じた状態、および部分的に閉じた状態の間で切り換えられ得る。HMD102はシャッタ132が開いている場合常に透明であり、シャッタ132が閉じている場合常に不透明である。シャッタ132が完全に開いている時、外科医120は、透明であるディスプレイモジュール130の光学系を通して現実世界を見る。シャッタ132は、たとえばディスプレイモジュール130にオーバレイされたピクチャインピクチャ(PIP)内に表示された特徴の後ろにある背景を隠すために部分的に閉じられてよく、特徴と、ディスプレイモジュール130のその他の部分を通して見える現実世界ビューとのコントラストを増強する。これは、拡張現実型アプリケーションにおけるVGS処置中にPIP内に1または複数の特徴を表示する際に役立つ。ディスプレイモジュール130は、当技術分野において知られているような任意の適切な技術を用いて実装され得る。ディスプレイモジュール130は、たとえば導波光学系、プリズム光学系、バイザへの投影などの画像投影光学系と共に、たとえば小型OLEDモニタなどの画像ソースを含んでよい。あるいは、ディスプレイモジュールは、モニタなしで直接外科医120の網膜へ画像を走査してよい。HMD102は、コンピュータ118からの画像ソースを受信する。 The display module 130 is arranged in the HMD 102 so as to be located in the line of sight of the surgeon 120, as shown in FIG. 1A. The shutter 132 is configured by the display module 130 and can be switched between an open state, a closed state, and a partially closed state. The HMD 102 is always transparent when the shutter 132 is open and opaque when the shutter 132 is closed. When the shutter 132 is fully open, the surgeon 120 sees the real world through the optical system of the transparent display module 130. The shutter 132 may be partially closed to hide the background behind the features displayed in the picture-in-picture (PIP) overlaid on the display module 130, for example, the features and other features of the display module 130. Increases the contrast with the real-world view seen through the part. This is useful for displaying one or more features in PIP during VGS treatment in augmented reality applications. The display module 130 may be implemented using any suitable technique as known in the art. The display module 130 may include, for example, an image projection optical system such as a waveguide optical system, a prism optical system, and projection onto a visor, as well as an image source such as a small OLED monitor. Alternatively, the display module may scan the image directly into the retina of the surgeon 120 without a monitor. The HMD 102 receives an image source from the computer 118.

トラッキング部品134は、外科医120の頭部運動を追跡するための構成部分を含む。トラッキング部品134は、加速度計134Aおよびジャイロスコープ134Bを基としたMEM、1または複数の発光体134C、光学センサ134D、電磁センサ134Eなどを含んでよい。いくつかの実施形態において、トラッキング部品134は更に、コンパス(不図示)を含む。発光体134Cは、たとえば発光ダイオード(LED)などの1または複数の能動発光素子、または1または複数の光反射体であってよい。トラッキング部品134は、HMD102に関する更新された向きおよび/または位置座標を決定するために、HMD102の並進および回転運動データを生成する。 The tracking component 134 includes components for tracking the head movements of the surgeon 120. The tracking component 134 may include an MEM based on an accelerometer 134A and a gyroscope 134B, one or more light emitters 134C, an optical sensor 134D, an electromagnetic sensor 134E, and the like. In some embodiments, the tracking component 134 further includes a compass (not shown). The light emitter 134C may be one or more active light emitting elements such as light emitting diodes (LEDs), or one or more light reflectors. Tracking component 134 generates translational and rotational motion data for the HMD 102 to determine updated orientation and / or position coordinates for the HMD 102.

いくつかの実施形態において、頭部追跡は、たとえばカメラ(不図示)を用いることによって、HMD102の外部で実行される。任意選択的に、トラッキング部品134は、HMD102の内部の部品と共に、HMD102の外部の部品を含む。いくつかの実施形態において、HMD102は、HMD102を装着している外科医の片目または両目の視線を追跡するためのアイトラッカ部品136を備える。いくつかの実施形態において、マイクロフォン138は、外科医120の音声コマンドを記録するためにHMD102に統合される。あるいは、マイクロフォン138は、HMD102の外部にあり、たとえばカメラヘッド110に統合され得る。留意すべき点として、本明細書で説明される実施形態は、単なる典型例として意図され、本明細書に開示される機能を実現するために任意の適当な組み合わせおよび構成の構成要素が用いられ得る。コンピュータ118は、トラッカコントローラ118Iを介してトラッキング部品134を制御する。コンピュータ118は、トランシーバ118Bおよび102Bを介してHMD102と通信し、更に詳しく後述される、選択されたシステムモードおよび外科医120によって定義された追加の設定およびパラメータに従って、HMDディスプレイモジュール130における画像フィードの表示を制御する。 In some embodiments, head tracking is performed outside the HMD 102, for example by using a camera (not shown). Optionally, the tracking component 134 includes components outside the HMD 102 as well as components inside the HMD 102. In some embodiments, the HMD 102 comprises an eye tracker component 136 for tracking the line of sight of one or both eyes of the surgeon wearing the HMD 102. In some embodiments, the microphone 138 is integrated into the HMD 102 to record the voice commands of the surgeon 120. Alternatively, the microphone 138 may be external to the HMD 102 and integrated into, for example, a camera head 110. It should be noted that the embodiments described herein are intended as merely exemplary and any suitable combination and configuration components are used to achieve the functions disclosed herein. obtain. The computer 118 controls the tracking component 134 via the tracker controller 118I. The computer 118 communicates with the HMD 102 via the transceivers 118B and 102B and displays the image feed on the HMD display module 130 according to the selected system mode and additional settings and parameters defined by the surgeon 120, which will be described in more detail below. To control.

開示される技術の他の実施形態に従って構成され動作可能な、カメラヘッド110(図1A)に関する概略ブロック図を示す図1Dが参照される。カメラヘッド110は、カメラシステム112、照明システム114、および任意選択的にマイクロフォン138を収容する。いくつかの実施形態において、カメラヘッド110は更に、横向きおよび/または下向き光学追跡部品、センサおよび/または発光体、および場合によっては他の追跡部品を含むトラッキングサブシステム(不図示)を収容する。カメラヘッド110は、アーム106およびカメラヘッド位置決め器111を介してカート116に機械的に結合される。カメラヘッド110、カメラシステム112、照明システム114、およびマイクロフォン138は、アーム106内部に統合された1または複数のケーブルおよび/またはワイヤによってコンピュータ118(図1B)に電気的に結合される。コンピュータ118は、カメラヘッド位置決め器111内に統合されたモータを制御することによって、術野124に対するカメラヘッド110のxyz位置および傾きを制御する。 Reference is made to FIG. 1D showing a schematic block diagram of the camera head 110 (FIG. 1A) configured and operable according to other embodiments of the disclosed technique. The camera head 110 houses the camera system 112, the lighting system 114, and optionally the microphone 138. In some embodiments, the camera head 110 further houses a tracking subsystem (not shown) that includes sideways and / or downward optical tracking components, sensors and / or illuminants, and optionally other tracking components. The camera head 110 is mechanically coupled to the cart 116 via the arm 106 and the camera head positioner 111. The camera head 110, camera system 112, lighting system 114, and microphone 138 are electrically coupled to computer 118 (FIG. 1B) by one or more cables and / or wires integrated within the arm 106. The computer 118 controls the xyz position and tilt of the camera head 110 with respect to the surgical field 124 by controlling a motor integrated in the camera head positioner 111.

いくつかの実施形態において、たとえばロボットアーム、たとえば神経外科アプリケーションのために一般的に使用される6-DOF(自由度)ロボットアームなどの他の位置決め機構が、術野124の画像を取得するためにカメラシステム112の位置を制御するためのカメラヘッド位置決め器111および機械アーム106の代わりに用いられ得る。カメラの位置および向きの変更が微細である眼科手術アプリケーションとは異なり、神経外科アプリケーションにおいて、カメラの位置および向きの変更は比較的大きい。そのようなアプリケーションの場合、外科医120は、自身の頭部にカメラの制御を固定する機能をアクティブ化し、自身がヘッドジェスチャを用いてロボットアームを介してカメラヘッド110のカメラの位置および向きを制御することを可能にしてよい。外科医120は、たとえばフットスイッチ104などのユーザインタフェースを介して、または音声コマンドを発することなどによって、この特徴を有効化する。後に詳しく説明されるHMD102の頭部追跡機能は、HMD102の回転および並進運動を感知し、それらを、カメラヘッド110を制御するロボットアームのための対応する回転および並進運動に変換する。任意選択的に、ユーザインタフェースは、外科医120が、カメラヘッド110のカメラに関する現在の位置および向きを記憶、または「ブックマーク」することを可能にし、それによって、この位置および向きは、たとえばHMD102を介して表示されたメニューからこの特徴を選択することによって、後に復元され得る。 In some embodiments, for example a robotic arm, eg, another positioning mechanism such as a 6-DOF (degree of freedom) robotic arm commonly used for neurosurgical applications, to obtain an image of the surgical field 124. Can be used in place of the camera head positioner 111 and the mechanical arm 106 to control the position of the camera system 112. Unlike ophthalmic surgery applications, where camera position and orientation changes are subtle, camera position and orientation changes are relatively large in neurosurgery applications. For such applications, the surgeon 120 activates the ability to secure control of the camera to his head and he uses a head gesture to control the position and orientation of the camera on the camera head 110 via the robot arm. It may be possible to do. The surgeon 120 activates this feature, for example, through a user interface such as the footswitch 104, or by issuing voice commands. The head tracking function of the HMD 102, which will be described in detail later, senses the rotational and translational movements of the HMD 102 and converts them into the corresponding rotational and translational movements for the robot arm controlling the camera head 110. Optionally, the user interface allows the surgeon 120 to memorize or "bookmark" the current position and orientation of the camera head 110 with respect to the camera, whereby this position and orientation is, for example, via the HMD 102. It can be restored later by selecting this feature from the menu displayed.

コンピュータ118は、システムモードおよびユーザインタフェースを介して外科医120から受信した入力に従って、カメラシステム112および照明システム114の動作を制御する。コンピュータ118は更に、マイクロフォン138によって検出された音声コマンドに従ってシステム100を制御する。 The computer 118 controls the operation of the camera system 112 and the lighting system 114 according to the input received from the surgeon 120 via the system mode and user interface. Computer 118 also controls system 100 according to voice commands detected by microphone 138.

コンピュータ118は、HMD102に関する表示特徴を、デジタルまたは光学的/機械的に制御してよい。たとえば、コンピュータ118は、カメラシステム112によって捕捉された全体ビデオから画素の領域を低減することによってズームイン/ズームアウト動作をデジタルに実施し、低減された領域をHMD102へストリーミングしてよい。あるいは、コンピュータ118は、高解像度カメラ140Aおよび140Bの光学系を調整することによって、ズームイン/ズームアウト機能を光学的に実装してよい。同様に、コンピュータ118は、カメラシステム112によって取得された全体ビデオから取り出された画素の領域をシフトすることによってスクロール機能をデジタルに実装し、それらの画素をHMD102へストリーミングしてよい。あるいは、コンピュータ118は、カメラヘッド位置決め器111を介してXY軸に沿って横方向にカメラヘッド110の位置を調整し、HMD102に表示される術野の一部をシフトすることによって、光学的/機械的にスクロールを実施してよい。 The computer 118 may digitally or optically / mechanically control the display features relating to the HMD 102. For example, the computer 118 may digitally perform a zoom-in / zoom-out operation by reducing the pixel area from the entire video captured by the camera system 112 and stream the reduced area to the HMD 102. Alternatively, the computer 118 may optically implement the zoom in / zoom out function by adjusting the optical system of the high resolution cameras 140A and 140B. Similarly, the computer 118 may digitally implement the scrolling function by shifting the area of pixels extracted from the entire video acquired by the camera system 112 and stream those pixels to the HMD 102. Alternatively, the computer 118 may optically / adjust the position of the camera head 110 laterally along the XY axes via the camera head positioner 111 to shift a portion of the surgical field displayed on the HMD 102. Scrolling may be performed mechanically.

ここで、開示される技術の更なる実施形態に従って構成され動作可能な、図1Aおよび図1Dのカメラシステム112の概略ブロック図である図1Eが参照される。カメラシステム112は、カメラヘッド110に収容され、機械アーム106(図1A)内に統合された1または複数のワイヤおよびケーブルを介してコンピュータ118に結合される。コンピュータ118は更に、カメラシステム112内の構成要素の各々を、たとえば画像フィードを受信するためにそれらを選択することなどによって制御する。 Here, reference is made to FIG. 1E, which is a schematic block diagram of the camera system 112 of FIGS. 1A and 1D, which is configured and operational according to a further embodiment of the disclosed technique. The camera system 112 is housed in the camera head 110 and coupled to the computer 118 via one or more wires and cables integrated within the mechanical arm 106 (FIG. 1A). The computer 118 also controls each of the components within the camera system 112, for example by selecting them to receive an image feed.

1つの実施形態において、カメラシステム112は、少なくとも2つの高解像度カメラ140Aおよび140Bを備える。カメラ140Aおよび140Bには、術野124の高解像度拡大ステレオ画像を補捉するための高解像度光学系が提供される。いくつかの実施形態において、カメラヘッド110は更に、iOCTスキャナ142、IRカメラ148、またはマルチスペクトル撮像のための他のカメラのいずれかを含む。カメラシステム112は、カメラ140Aおよび140Bによって取得された画像をコンピュータ118へストリーミングするように構成され、コンピュータ118は、画像を処理し、任意選択的にそれらをHMD102へ送信する。カメラ140Aおよび140Bからの画像は、HMDディスプレイモジュール130Aおよび130Bを介して外科医120の目にストリーミングされる。外科医の脳は、ストリーミングされたビデオから3D画像を生成する。コンピュータ118は、選択されたシステムモード、および外科医120によって定義された任意の追加の設定およびパラメータに従って、HMDを介して画像フィードの表示を制御する。コンピュータ118は、システム100の態様を制御するために用いられ、外科医120には表示されない画像を取得する追加のカメラを制御する。たとえば、コンピュータ118は、手術室内の動きを検出するためのIRカメラなどを制御する。画像プロセッサ118Lは、たとえば色補正、先鋭化、フィルタリング、ズーミングなどを行うために、外科医120によって定義された設定に従ってカメラシステム112によって取得された画像を処理する。コンピュータ118は、後述するユーザインタフェースを介して外科医120によって指示された1または複数の設定に従って画像フィードに関する照明、フォーカス、FOV、および倍率を調整し、処理された画像フィードをHMD102へストリーミングしてよい。 In one embodiment, the camera system 112 comprises at least two high resolution cameras 140A and 140B. The cameras 140A and 140B are provided with a high resolution optical system for capturing a high resolution magnified stereo image of the surgical field 124. In some embodiments, the camera head 110 further comprises either an iOCT scanner 142, an IR camera 148, or another camera for multispectral imaging. The camera system 112 is configured to stream the images acquired by the cameras 140A and 140B to the computer 118, which processes the images and optionally sends them to the HMD 102. Images from cameras 140A and 140B are streamed to the eyes of surgeon 120 via the HMD display modules 130A and 130B. The surgeon's brain produces a 3D image from the streamed video. The computer 118 controls the display of the image feed via the HMD according to the selected system mode and any additional settings and parameters defined by the surgeon 120. The computer 118 is used to control aspects of the system 100 and controls an additional camera that captures images that are not visible to the surgeon 120. For example, the computer 118 controls an IR camera or the like for detecting movement in the operating room. The image processor 118L processes the image acquired by the camera system 112 according to the settings defined by the surgeon 120, for example to perform color correction, sharpening, filtering, zooming, and the like. The computer 118 may adjust the illumination, focus, FOV, and magnification for the image feed according to one or more settings instructed by the surgeon 120 via the user interface described below, and stream the processed image feed to the HMD 102. ..

システム100は、外科医120が、外科処置の開始時、カメラシステム112によって取得されたビデオに関する倍率レベルを選択し、必要に応じて、外科処置の間中、倍率を動的に調整することを可能にする。システム100は、機械的、光学的、電気的、またはデジタルの手段を用いて、関心領域(ROI)、ズーム、およびフォーカス構成を動的に更新することを可能にする。カメラ140A、140Bに関するXY位置決めおよびズーム光学系への機械的および光学的更新は、カメラシステムコントローラ118H(図1B)を介して実施される。デジタルズーム機能およびXY位置決めは、HMD102を介して表示されるROIのサイズおよびXY位置を変更することによって実施される。 The system 100 allows the surgeon 120 to select a magnification level for the video acquired by the camera system 112 at the beginning of the surgical procedure and dynamically adjust the magnification throughout the surgical procedure as needed. To. System 100 allows the region of interest (ROI), zoom, and focus configuration to be dynamically updated using mechanical, optical, electrical, or digital means. Mechanical and optical updates to the XY positioning and zoom optics for the cameras 140A, 140B are performed via the camera system controller 118H (FIG. 1B). The digital zoom function and XY positioning are performed by changing the size and XY position of the ROI displayed via the HMD 102.

いくつかの実施形態において、外科医120は、ヘッドジェスチャを用いてROIおよびズーム設定を動的に更新する。いくつかの実施形態において、外科医120は、カメラシステム112を自動センタリングするようにシステム100を有効化する。この場合、システム100は自動的に、XY位置を動的に更新する。動的更新のいくつかの例は、自動センタリング、自動ズーミング、自動フォーカシング、および自動照明を含む。 In some embodiments, the surgeon 120 uses a head gesture to dynamically update the ROI and zoom settings. In some embodiments, the surgeon 120 activates the system 100 to automatically center the camera system 112. In this case, the system 100 automatically updates the XY position dynamically. Some examples of dynamic updates include automatic centering, automatic zooming, automatic focusing, and automatic lighting.

システム100は、生画像フィードを動的に更新するための自動センタリング機能を提供する。1つの種類の自動センタリングは、ファイバ照明が用いられ網膜の一部のみが照明され得る網膜処置の間、照明領域を追う。他の種類の自動センタリングは、たとえば白内障処置など(たとえば外科医が患者の目を動かす場合)の前眼部処置の間、患者の目の中心を追う。また他の種類の自動センタリングは、ツールチップを追う。留意すべき点として、本明細書に挙げられる例は、単なる典型的な実装として意図され、本発明を限定するものではない。自動センタリングは、任意の患者の解剖学的構造、任意の医療デバイスに、または一般に画像内に出現する任意の要素または情報に実施され得る。 The system 100 provides an automatic centering function for dynamically updating the raw image feed. One type of automatic centering follows the illuminated area during a retinal procedure in which fiber illumination is used and only part of the retina can be illuminated. Other types of automatic centering follow the center of the patient's eye during anterior ocular procedures, such as cataract procedures (eg, when the surgeon moves the patient's eyes). Other types of automatic centering follow tooltips. It should be noted that the examples given herein are intended as merely typical implementations and are not intended to limit the invention. Automatic centering can be performed on any patient's anatomy, any medical device, or any element or information that generally appears in the image.

一般に、網膜処置は、患者122の目の中心の真上でカメラヘッド110から吊り下げられた追加のレンズ(不図示)を用いて行われる。したがって、これらの処置中、患者の目が動かない限り、カメラヘッド110は動かされてはならず、カメラヘッド100の移動は、この追加のレンズを動かすことになる。この制約は、XYモータ制御を介したカメラシステム112の位置の調整が、網膜処置中に照明領域を追跡するための適切な技術ではないことを意味する。その結果、カメラシステム112の物理的位置を固定したままにするために、自動センタリング機能の一部として、これらの処置に関して表示されたROIに対する調整がデジタルに行われる。カメラ140Aおよび140Bの解像度は、一般に、HMD102の表示モニタの解像度よりも高い。したがって、ROIのデジタル調整は、カメラシステム112によって取得された全体画素フレームのサブセットを選択することによって実施される。外科医120が、全体画像におけるズームとして小さなROIを見る時、ROIは、全体画素フレームから動的に選択され得る。センタリングおよび特に自動センタリング機能は、必要および状況に依存して、XYモータを制御すること、および/またはROIを調整することのいずれかを用いて行われ得る。たとえば、処置の種類に依存して、1つの技術が他の技術よりも好適であり得る。 Generally, the retinal procedure is performed with an additional lens (not shown) suspended from the camera head 110 just above the center of the eye of patient 122. Therefore, during these procedures, the camera head 110 must not be moved unless the patient's eyes move, and the movement of the camera head 100 will move this additional lens. This constraint means that adjusting the position of the camera system 112 via XY motor control is not a suitable technique for tracking the illuminated area during retinal procedures. As a result, adjustments to the ROI displayed for these actions are digitally made as part of the automatic centering function to keep the physical position of the camera system 112 fixed. The resolutions of the cameras 140A and 140B are generally higher than the resolution of the display monitor of the HMD 102. Therefore, the digital adjustment of the ROI is performed by selecting a subset of the entire pixel frame acquired by the camera system 112. When the surgeon 120 sees a small ROI as a zoom in the whole image, the ROI can be dynamically selected from the whole pixel frame. Centering and especially automatic centering functions can be performed using either controlling the XY motor and / or adjusting the ROI, depending on needs and circumstances. For example, depending on the type of treatment, one technique may be more suitable than the other.

他の実施形態において、照明領域、患者の目の中心、ツールチップなどに対する自動センタリングは、離散時間間隔で実施される。たとえば、瞳孔と画像のエッジとの間の距離が既定の閾値より小さい場合、瞳孔が画像の中心に出現するようにROIを変更することまたはXYモータを制御することのいずれかによって、センタリングが実施される。他の例として、網膜上の照明スポットが既定のマージンを超える場合、照明スポットが画像の中心となるようにROIを自動的に更新することによって、後眼部処置中にセンタリングが実施される。これは、フレームごとに画像がセンタリングされるような連続的な自動センタリングとは対照的である。連続的な自動センタリングは、患者の目が動いているが外科医には静止して見えている場合、リスクをもたらし得る。 In other embodiments, automatic centering on the illuminated area, the center of the patient's eye, tooltips, etc. is performed at discrete time intervals. For example, if the distance between the pupil and the edge of the image is less than the default threshold, centering is performed either by changing the ROI so that the pupil appears in the center of the image or by controlling the XY motor. Will be done. As another example, if the illuminated spot on the retina exceeds a predetermined margin, centering is performed during the posterior ocular procedure by automatically updating the ROI so that the illuminated spot is centered on the image. This is in contrast to continuous automatic centering, where the image is centered frame by frame. Continuous automatic centering can pose a risk if the patient's eyes are moving but appear stationary to the surgeon.

更なる実施形態において、離散空間方式とは対照的に、センタリング自体が連続空間方式で行われる。たとえば、画像における突然の変化を生じないように、画像は、センタリングされるまで段階的かつ連続的に更新される(たとえば、XYモータおよび/またはROIが段階的かつ連続的に影響を受ける)。 In a further embodiment, the centering itself is performed in a continuous space system, as opposed to a discrete space system. For example, the image is updated stepwise and continuously until centered (eg, the XY motor and / or ROI are affected stepwise and continuously) so as not to cause sudden changes in the image.

他の実施形態において、センタリングの前に、システム100は、未決の変更をユーザに警告する。警告は、HMDに表示された警報、音、HMDにおける振動などを介したものであってよい。警告は、画像における変化および/またはカメラヘッドユニットのXY位置における変化を予期するように外科医に通告する。任意選択的に、ユーザは、UI160を介して未決のセンタリングを取り消してよい。たとえば、システムが画像をセンタリングしようとしているという警告が与えられる時、ユーザは、センタリングをキャンセルするための時間窓(たとえば3秒間)を有する。更なる実施形態において、センタリングがキャンセルされると、システム100は、後続の自動センタリングを無効化する。これは、所定の期間(たとえば5分間)、システムモードが(たとえば前のモードから後のモードへ切り換えることによって)変更されるまで、または外科手術の期間中であってよい。他の実施形態において、自動センタリングの発生がキャンセルされると、システムは、たとえば画像処理アルゴリズムまたは深層学習アルゴリズムによって検出され得るような目立った変化が画像内に生じるまで、自動センタリングを無効化する。 In another embodiment, prior to centering, system 100 warns the user of pending changes. The warning may be via an alarm displayed on the HMD, a sound, vibration in the HMD, or the like. The warning notifies the surgeon to anticipate changes in the image and / or changes in the XY position of the camera head unit. Optionally, the user may undo pending centering via UI160. For example, when given a warning that the system is trying to center an image, the user has a time window (eg, 3 seconds) to cancel the centering. In a further embodiment, when the centering is canceled, the system 100 disables subsequent automatic centering. This may be for a predetermined period of time (eg, 5 minutes), until the system mode is changed (eg, by switching from the previous mode to the later mode), or during surgery. In another embodiment, when the occurrence of automatic centering is canceled, the system disables automatic centering until there is a noticeable change in the image that can be detected, for example, by an image processing algorithm or a deep learning algorithm.

システム100は、生画像フィードを動的に更新するための自動ズーミング機能を提供する。自動ズーミング機能は、カメラヘッド110内のズーム光学系を制御することによって機械的に実装されてよく、あるいは、画像プロセッサ118Kを介して生画像フィードにデジタルに実装され得る。この構成は、外科医固有の嗜好に基づいてズーム設定を自動的に変更することを可能にする。1つの種類の自動ズーミングは、各システムモード(たとえば前のモード)において用いられた最後のズーム倍率を記憶し、システムがオンにされ、モードが切り換えられた時、自動的にズームを設定する。他の種類の自動ズーミングは、処置における様々な段階を識別し、各段階に関する外科医の嗜好を記憶する。また他の種類の自動ズーミングは、網膜から様々な距離で外科医によって保持されることによりそのサイズを変化させるファイバ照明によって生じる光のスポットのサイズに従って、ズームを動的に変更する。ズーム倍率は、スポットのサイズに対応する。外科医がファイバチップを遠くへ動かし、スポットが大きくなると、表示される画像はズームアウトされる。外科医がファイバチップを近くへ動かし、スポットが小さくなると、表示される画像はズームインされる。 The system 100 provides an automatic zooming function for dynamically updating the raw image feed. The automatic zooming function may be mechanically implemented by controlling the zoom optical system in the camera head 110, or may be digitally implemented in the raw image feed via the image processor 118K. This configuration allows the zoom settings to be automatically changed based on the surgeon's specific preferences. One type of automatic zooming remembers the last zoom factor used in each system mode (eg, the previous mode) and automatically sets the zoom when the system is turned on and the mode is switched. Other types of automated zooming identify different stages of the procedure and remember the surgeon's preferences for each stage. Other types of automatic zooming dynamically change the zoom according to the size of the spot of light produced by the fiber illumination, which changes its size by being held by the surgeon at various distances from the retina. The zoom factor corresponds to the size of the spot. As the surgeon moves the fiber chip farther and the spot grows larger, the displayed image is zoomed out. As the surgeon moves the fiber chip closer and the spot becomes smaller, the displayed image is zoomed in.

同様に、システム100は、手動フォーカシングおよび自動フォーカシングを可能にする。自動フォーカシングの場合、外科医120は、フォーカスが合った状態に維持されるべき術野内の点を指定してよい。あるいは、外科医120は、システムに、外科医が保持および操作しているツールの先端に自動的にフォーカスさせ得る。あるいは、外科医は、システムに、網膜処置における照明領域の中心に自動的にフォーカスさせ得る。システムは、指定された位置、または器具、またはスポットライトにフォーカスした状態を維持する。いくつかの実施形態において、システム100は、指定された点へのワンタイムフォーカスを提供する。外科医120は、必要に応じてその点にフォーカスするように、ヘッド/フットジェスチャおよび/または外科用ツールの組み合わせを用いて生画像上の点を指定してよい。 Similarly, the system 100 enables manual and automatic focusing. For automatic focusing, the surgeon 120 may specify a point in the surgical field that should be kept in focus. Alternatively, the surgeon 120 may have the system automatically focus on the tip of the tool held and operated by the surgeon. Alternatively, the surgeon may have the system automatically focus on the center of the illuminated area in the retinal procedure. The system remains focused on the specified position, fixture, or spotlight. In some embodiments, the system 100 provides one-time focus on a designated point. The surgeon 120 may specify a point on the raw image using a combination of head / foot gestures and / or surgical tools to focus on that point as needed.

ここで、開示される技術の他の実施形態に従って構成され動作可能な、照明システム114(図1A)の概略ブロック図である図1Fが参照される。照明システム114は、カメラヘッド110内に収容され、機械アーム106内に統合された1または複数のワイヤおよびケーブルを介してコンピュータ118に結合される。照明システム114は、白色投光照明150、IR投光照明152、同軸光154A、および同軸光154Bの1または複数を含む。同軸光154Aおよび154Bは、それぞれカメラ140Aおよび140Bと共に動作する。一般に、照明システム114は、術野124を照明するための少なくとも1つの可視光発光体を含む。発光体は、1または複数のフィルタ(不図示)と組み合わせられ得る。たとえば、照明は、発光された光自体が白色ではないように、光毒性の配慮により青色光を遮断するフィルタを有する白色発光LEDに基づいてよい。照明システム114は、非可視照明、たとえば赤外(IR)光または紫外(UV)光で照明してよい。いくつかの実施形態において、システム100は、術野124内の動きを検出するための低解像度/広視野カメラと組み合わせられたIR照明を含む。同軸照明は、前眼部眼科処置において用いられる、患者の網膜からの光の反射によって生じる赤目現象を発生させる。コンピュータ118は、たとえば光源、強度などを選択することによって、照明コントローラ118Hで照明システム114を制御する。 Here, reference is made to FIG. 1F, which is a schematic block diagram of a lighting system 114 (FIG. 1A) configured and operable according to other embodiments of the disclosed technology. The lighting system 114 is housed within the camera head 110 and coupled to the computer 118 via one or more wires and cables integrated within the mechanical arm 106. The lighting system 114 includes one or more of white floodlight 150, IR floodlight 152, coaxial light 154A, and coaxial light 154B. Coaxial light 154A and 154B operate with cameras 140A and 140B, respectively. Generally, the lighting system 114 includes at least one visible light emitter for illuminating the surgical field 124. The illuminant can be combined with one or more filters (not shown). For example, the illumination may be based on a white light emitting LED having a filter that blocks blue light in consideration of phototoxicity so that the emitted light itself is not white. The illumination system 114 may be illuminated with invisible illumination, such as infrared (IR) light or ultraviolet (UV) light. In some embodiments, the system 100 includes IR illumination combined with a low resolution / wide field camera to detect movement within the surgical field 124. Coaxial illumination causes the red-eye phenomenon caused by the reflection of light from the patient's retina, which is used in anterior ophthalmic procedures. The computer 118 controls the lighting system 114 with the lighting controller 118H by selecting, for example, a light source, an intensity, and the like.

いくつかの実施形態において、システム100は、自動照明を可能にする。画像プロセッサ118Kは、照明不足または照明過剰領域に関して生画像フィードを解析し、照明システム114による位置または強度を操作するようにコンピュータ118に通知する。任意選択的に、照明は、たとえば外科用器具など、外科医によって選択された要素において最適化され得る。いくつかの実施形態において、システム100は、外科医120がある1つの段階を完了して新たな段階を開始していることを識別し、新たな段階のために照明を自動的に最適化する。たとえば、外部フェイコシステムがデータをストリーミングする場合、システム100は、モードが現在フェイコモードに設定されていることを知る。そのような場合、投光照明は自動的にオフに切り換えられ、赤目照明がオンに切り換えられる。 In some embodiments, the system 100 enables automatic lighting. The image processor 118K analyzes the raw image feed with respect to the under-illuminated or over-illuminated area and informs the computer 118 to manipulate the position or intensity by the illumination system 114. Optionally, the lighting can be optimized for elements selected by the surgeon, such as surgical instruments. In some embodiments, the system 100 identifies that the surgeon 120 has completed one step and is initiating a new step, and automatically optimizes the lighting for the new step. For example, if an external faco system is streaming data, system 100 knows that the mode is currently set to faco mode. In such cases, the floodlight is automatically turned off and the red-eye lighting is turned on.

開示される技術の更なる実施形態に従って構成され動作可能な、フットスイッチ104(図1A)に関する概略ブロック図を示す図1Gが参照される。フットスイッチは、3つのセンサ104A、104B、および104C、トランシーバ104D、および振動モータ104Eと共に示される。フットスイッチは、外科医120の足に隣接して地面に位置する。外科医120は、フットスイッチ104によって検出される足部運動を行うことによって、システム100の動作特徴を制御する。センサ104B、104C、104Dは、足部運動を感知するように構成され、それぞれのトランシーバ104Aおよび118Aを介してコンピュータ118(図1B)へ通知を送信する。センサ104B、104C、104Dは、ペダル、ボタン、タッチパッド、ジョイスティック、圧力ベース、画像ベースなどのいずれかであってよい。留意すべき点として、この実装は単なる典型例であることが意図され、フットスイッチ104は、より多いまたは少ない数のセンサ、または各々が様々なオプションを有する複数のボタンを有してよい。いくつかの実施形態において、フットスイッチ104は、フットジェスチャを追跡するための慣性センサと共に構成された装着型デバイスである。任意選択的に、装着型フットスイッチは、追加または代替として、1または複数のフットジェスチャを検出するための光センサおよび発光体(不図示)と共に構成される。たとえば、装着型フットスイッチと共に構成された発光体は、たとえば床などの表面にパターンを投影する。1または複数の光センサは、フットジェスチャを推測するために、投影されたパターンの変化を検出する。光センサは、装着型フットスイッチと共に構成され得るが、これは必須ではない。振動モータ104Eは、フットスイッチ104を介して、システム100に関する設定およびシステムパラメータに関するフィードバックを外科医120へ提供する。ここで、開示される技術の他の実施形態に従って構成され動作可能な、システム100(図1A)のための典型的なユーザインタフェース(UI)160に関する概略ブロック図を示す図2Aが参照される。UI160は、外科医120とのインタフェースとなる、図1B~1Gに関して上述されたシステム100の構成要素の論理的見方である。UI160に含まれる構成要素は単なる例示であることが意図され、様々な実装に従って構成要素が追加され、またはUI160から取り除かれ得ることを理解すべきである。図2Aは、それらの機能に従って論理的にグループ分けされた様々なシステムユニットにおける構成要素を示す。UI160は、外科医120からの入力を受信するシステム100の構成要素を含むUI入力160A、および受信した入力に応答して出力としての機能を果たすシステム100の構成要素を含むUI出力160Bという2つのモジュールを含む。コンピュータ118は、UI入力160Aを介してユーザ入力を受信し、入力を処理して、UI出力160Bを介して1または複数のシステム応答を発する。 Reference is made to FIG. 1G showing a schematic block diagram of the foot switch 104 (FIG. 1A) configured and operable according to a further embodiment of the disclosed technique. The footswitch is shown with three sensors 104A, 104B, and 104C, a transceiver 104D, and a vibration motor 104E. The foot switch is located on the ground adjacent to the surgeon 120's foot. The surgeon 120 controls the motion features of the system 100 by performing foot movements detected by the footswitch 104. Sensors 104B, 104C, 104D are configured to sense foot movement and transmit notifications to computer 118 (FIG. 1B) via transceivers 104A and 118A, respectively. The sensors 104B, 104C, 104D may be any of pedals, buttons, touchpads, joysticks, pressure bases, image bases and the like. It should be noted that this implementation is intended to be merely exemplary and the footswitch 104 may have more or fewer sensors, or multiple buttons, each with different options. In some embodiments, the footswitch 104 is a wearable device configured with an inertial sensor for tracking foot gestures. Optionally, the wearable footswitch is additionally or as an alternative configured with an optical sensor and a light emitter (not shown) for detecting one or more foot gestures. For example, a illuminant configured with a wearable footswitch projects a pattern onto a surface, such as the floor. One or more optical sensors detect changes in the projected pattern to infer foot gestures. The optical sensor can be configured with a wearable footswitch, but this is not required. The vibration motor 104E provides the surgeon 120 with feedback on the settings and system parameters for the system 100 via the foot switch 104. Reference is made here to FIG. 2A, which shows a schematic block diagram for a typical user interface (UI) 160 for system 100 (FIG. 1A), which is configured and operational according to other embodiments of the disclosed technology. The UI 160 is a logical view of the components of the system 100 described above with respect to FIGS. 1B-1G that interface with the surgeon 120. It should be understood that the components included in the UI 160 are intended to be merely exemplary and that components can be added or removed from the UI 160 according to various implementations. FIG. 2A shows the components in various system units logically grouped according to their function. The UI 160 consists of two modules: a UI input 160A that includes components of the system 100 that receive input from the surgeon 120, and a UI output 160B that includes components of the system 100 that serve as outputs in response to the received input. including. Computer 118 receives user input via UI input 160A, processes the input, and issues one or more system responses via UI output 160B.

UI入力160Aは、ヘッドジェスチャトラッカ162を含む。ヘッドジェスチャトラッカ162は、HMD102に統合されHMD102の内部にある追跡部品134(図1C)、および任意選択的に、HMD102の外部にあるヘッドジェスチャトラッカ部品164を含む。たとえば、ヘッドジェスチャトラッカ部品164は、外科医120の画像を取得する、手術室内に配置されたカメラであってよい。UI入力160Aは更に、フットベースの入力を受信するためのフットスイッチ104(図1A)、アイトラッキングシステム166、音響システム168、および他の外科医からの入力を受信するためのタッチスクリーン108(図1A)を含む。アイトラッキングシステム166は、アイトラッカコントローラ118L(図1B)に結合されたアイトラッキング部品136(図1C)を含み、これらは共に、外科医の視線の方向を感知および追跡するように構成される。音響システム168は、音声認識装置118M(図1B)に結合されたマイクロフォン138(図1C)を含み、これらは共に、外科医によって発された音響信号および音声コマンドを受信し、検出し、処理するために構成される。いくつかの実施形態において、マイクロフォン138は、HMD102の外部にある。 The UI input 160A includes a head gesture tracker 162. The head gesture tracker 162 includes a tracking component 134 (FIG. 1C) integrated into the HMD 102 and inside the HMD 102, and optionally a head gesture tracker component 164 outside the HMD 102. For example, the head gesture tracker component 164 may be a camera placed in the operating room that acquires an image of the surgeon 120. The UI input 160A further includes a foot switch 104 for receiving foot-based inputs (FIG. 1A), an eye tracking system 166, an acoustic system 168, and a touch screen 108 for receiving inputs from other surgeons (FIG. 1A). )including. The eye tracking system 166 includes an eye tracking component 136 (FIG. 1C) coupled to an eye tracker controller 118L (FIG. 1B), both configured to sense and track the direction of the surgeon's line of sight. The acoustic system 168 includes a microphone 138 (FIG. 1C) coupled to a speech recognition device 118M (FIG. 1B), both for receiving, detecting, and processing acoustic signals and voice commands issued by the surgeon. It is composed of. In some embodiments, the microphone 138 is external to the HMD 102.

UI出力160Bは、ディスプレイモジュール130(図1C)、シャッタ132、タッチスクリーン108(図1A)、カメラヘッド110(図1D)、カメラヘッド位置決め器111、カメラシステム112(図1E)、および照明システム114(図1F)を介して表示されたコンテンツを含む。受信した入力に基づいて、コンピュータ118は、シャッタ132の状態、ディスプレイモジュール130のコンテンツの表示、およびタッチスクリーン108のコンテンツの表示を制御し、ならびにカメラヘッド110、カメラヘッド位置決め器111、カメラシステム112、および照明システム114に関する設定を制御する。いくつかの実施形態において、UI出力160Bは、たとえばフェイコビトレクトミーマシンなどのシステム100の外部の1または複数のシステムに接続され、外科医120に、UI160を介したシステム100の外部のシステムの直接制御権を与える。いくつかの実施形態において、システム100は更に、利用可能なビデオストリームのいずれかまたは全てを表示し、ならびに複数のHMDを同時にサポートするための2Dまたは3D外部モニタ(不図示)への接続をサポートする。 The UI output 160B includes a display module 130 (FIG. 1C), a shutter 132, a touch screen 108 (FIG. 1A), a camera head 110 (FIG. 1D), a camera head positioner 111, a camera system 112 (FIG. 1E), and a lighting system 114. Includes content displayed via (FIG. 1F). Based on the input received, the computer 118 controls the state of the shutter 132, the display of the content of the display module 130, and the display of the content of the touch screen 108, as well as the camera head 110, the camera head positioner 111, and the camera system 112. , And the settings for the lighting system 114. In some embodiments, the UI output 160B is connected to one or more systems external to the system 100, such as a facobitrectomy machine, to the surgeon 120 directly to the external system of the system 100 via the UI 160. Give control. In some embodiments, the system 100 further displays any or all of the available video streams and also supports connection to a 2D or 3D external monitor (not shown) to support multiple HMDs simultaneously. do.

いくつかの実施形態において、UI出力160Bは更に、たとえば発信音または外科医120に通知するための音声メッセージなどの音出力を発するための、たとえばスピーカ139(図1C)などのスピーカを含む。いくつかの実施形態において、UI出力160Bは更に、たとえば振動モータ141(図1C)または振動モータ104E(図1G)などの1または複数の振動モータ161を含む。たとえば、振動モータは、DC振動モータを用いる偏心回転マス振動モータ(ERM)、または外科医120にシステムパラメータを表示するためのリニア共振アクチュエータ(LRA)であってよい。振動モータは、HMD102、フットスイッチ104、またはシステム100の他の任意の構成要素のいずれかに統合され得る。たとえば、振動は、xモータがその運動限界に到達したこと、またはシステム100が、網膜に極端に近い位置にあるツールを自動的に識別したことを示してよい。いくつかの実施形態において、システム100は、外科医120の姿勢が人間工学的に適切であることを確実にするために、外科医120の頭部を監視し、外科医120が自身の頭部を、首の痛みや損傷を招き得る人間工学的に不適切な姿勢に置くと、警報を発する。警報は、たとえばHMDによって表示されるメッセージ、振動、またはたとえば発信音などの音響警報の発出を介して発され得る。 In some embodiments, the UI output 160B further includes a speaker, such as a speaker 139 (FIG. 1C), for emitting a sound output, such as a dial tone or a voice message to notify the surgeon 120. In some embodiments, the UI output 160B further includes one or more vibration motors 161 such as, for example, vibration motor 141 (FIG. 1C) or vibration motor 104E (FIG. 1G). For example, the vibration motor may be an eccentric rotary mass vibration motor (ERM) using a DC vibration motor, or a linear resonant actuator (LRA) for displaying system parameters to the surgeon 120. The vibration motor may be integrated into any of the HMD 102, the foot switch 104, or any other component of the system 100. For example, vibration may indicate that the xmotor has reached its motion limit, or that System 100 has automatically identified a tool that is extremely close to the retina. In some embodiments, the system 100 monitors the surgeon 120's head to ensure that the surgeon 120's posture is ergonomically appropriate, with the surgeon 120 necking his head. If placed in an ergonomically inappropriate position that can cause pain or injury, it will alert you. The alarm can be issued, for example, through the issuance of an acoustic alarm such as a message, vibration, or a dial tone displayed by the HMD.

外科医120は、HMD102を装着しながらユーザインタフェース160を介してシステム100とインタラクトし、患者122に外科処置を行う。このように、ハンドフリージェスチャを用いて、外科医120は、たとえばコンピュータ118の画像処理パラメータ(たとえばズーム、色補正)などのシステム100の動作パラメータ、HMD102を介して表示されるコンテンツ(たとえば、カメラシステム112によって取得された画像、メモリから取得された術前データ、オーバレイされた仮想特徴、仮想スクリーンおよびメニューの開閉)、シャッタ132の状態(たとえば、開いている、部分的に開いている、閉じている)、照明システム114に関する制御設定(たとえば、発光体、フィルタ、強度、波長、角度)、カメラシステム112に関する制御設定(たとえばカメラ、ズーム、フォーカス、シャッタ)、カメラヘッド110に関する制御設定(たとえば、xyzモータおよび傾きを調整することによる向きおよび整合性)、上記のいずれかを制御するためのメニュー項目の選択、システムモードの制御などを制御してよい。 The surgeon 120 interacts with the system 100 via the user interface 160 while wearing the HMD 102 to perform a surgical procedure on the patient 122. Thus, using the hand-free gesture, the surgeon 120 can see the operating parameters of the system 100, such as the image processing parameters of the computer 118 (eg, zoom, color correction), the content displayed via the HMD 102 (eg, the camera system). Images acquired by 112, preoperative data acquired from memory, overlaid virtual features, opening and closing of virtual screens and menus, state of shutter 132 (eg open, partially open, closed). Control settings for the lighting system 114 (eg, light emitter, filter, intensity, wavelength, angle), control settings for the camera system 112 (eg, camera, zoom, focus, shutter), control settings for the camera head 110 (eg, for example). Orientation and consistency by adjusting the xyz motor and tilt), selection of menu items to control any of the above, control of system mode, etc. may be controlled.

いくつかの実施形態において、UI160は、後の使用のために、スナップショットおよびビデオを格納すること、およびオーディオを記録することを可能にする。オーディオ記録は、ノート、手術概要、名前付けおよびタグ付けフィルタとして使用するためにテキストに変換され得る。その後、深層学習アルゴリズムによってキーワードタグが適用され得る。いくつかの実施形態において、システム100は、術前データに関するプレースホルダ、生画像からのスナップショット、記録されたノート/概要の音声テキストを有する所定のテンプレートに基づいて、手術レポートの自動生成を支援する。自動レポート生成は、たとえば患者122の氏名、外科医120の氏名、日付、外科処置の時間および期間などのデータの追加の識別を支援する。適当である場合、処置に関連するデータを取得するために機械学習および画像処理が適用され得る。たとえば、使用された外科用器具の種類、および外科処置の画像フィードが、レポートにデータを追加するために得られ得る。UI160は、選択されたスナップショットおよび術前画像を外科医がレポートにアップロードすることを可能にする「レポートへ送信」メニュー項目を提供する。いくつかの実施形態において、UI160は、既定のテンプレートに従って構成され得る、自動生成された請求概要を提示する。請求概要は、行われた外科処置のリストなどを含んでよい。 In some embodiments, the UI 160 makes it possible to store snapshots and videos, and record audio for later use. Audio recordings can be converted to text for use as notes, surgical summaries, naming and tagging filters. The keyword tag can then be applied by a deep learning algorithm. In some embodiments, the system 100 assists in the automatic generation of surgical reports based on a predetermined template with placeholders for preoperative data, snapshots from raw images, recorded notes / summary audio text. do. Automatic report generation assists in the identification of additional data such as, for example, the name of patient 122, the name of surgeon 120, date, time and duration of surgical procedure. Where appropriate, machine learning and image processing may be applied to obtain treatment-related data. For example, the type of surgical instrument used and an image feed of the surgical procedure may be obtained to add data to the report. The UI 160 provides a "Send to Report" menu item that allows the surgeon to upload selected snapshots and preoperative images to the report. In some embodiments, the UI 160 presents an automatically generated billing summary that can be configured according to a default template. The claim summary may include a list of surgical procedures performed, and the like.

ビデオおよびオーディオが個別に記録される場合、オーディオ記録は、オーディオを対応するビデオファイルと同期させることを可能にするタイムスタンプと共に保存される。同様に、オーディオノートがテキストに変換される場合、これらは、ノートが対応するビデオフィード上のサブタイトルとして表示されることを可能にする同期タイムスタンプと共に保存される。 If the video and audio are recorded separately, the audio recording is saved with a time stamp that allows the audio to be synchronized with the corresponding video file. Similarly, when audio notes are converted to text, they are saved with a sync timestamp that allows the note to appear as a subtitle on the corresponding video feed.

いくつかの実施形態において、UI入力160Aは、たとえばフットスイッチ104を介して検出される足部運動と同時にヘッドジェスチャトラッカ162を介して検出されるヘッドジェスチャなど、外科医120によって行われる複数の同時ハンドフリージェスチャとしての入力を検出するように構成される。これらの実施形態において、フットスイッチ104からの有効化入力は、ヘッドジェスチャを有効化することによって、外科医120による不慮の頭部運動がシステム100の動作に影響を及ぼすことを防ぐ機能を果たす。UI入力160Aからの入力を受信すると、コンピュータ118は、システムモードに依存する、対応するアクションを引き起こす。 In some embodiments, the UI input 160A is a plurality of simultaneous hands performed by the surgeon 120, for example, a foot movement detected via the footswitch 104 and a head gesture detected via the head gesture tracker 162. It is configured to detect input as a free gesture. In these embodiments, the enable input from the footswitch 104 serves by activating the head gesture to prevent accidental head movements by the surgeon 120 from affecting the operation of the system 100. Upon receiving the input from the UI input 160A, the computer 118 triggers the corresponding action, depending on the system mode.

いくつかの実施形態において、外科医120は、システム100を一時的に、フットスイッチ104からの有効化入力なしで様々なヘッドジェスチャによってデフォルトアクションがアクティブ化される有効化フリー状態に設定してよい。たとえば外科医120は、デフォルトアクションが、ヘッドアップおよびヘッドダウンジェスチャに関してフォーカス制御、左右のヘッドジェスチャに関してズームインおよびアウトであるように設定し、または、システムモードを切り換えるために有効化フリーヘッドジェスチャを可能にしてよい。 In some embodiments, the surgeon 120 may temporarily set the system 100 to an activation-free state in which the default action is activated by various head gestures without an activation input from the footswitch 104. For example, Surgeon 120 sets the default actions to be focus control for head-up and head-down gestures, zoom-in and out for left and right head gestures, or enables free head gestures to switch between system modes. You can do it.

ここで、システム100の態様を制御するためにUI入力160Aを介して外科医が利用可能であるいくつかの典型的なユーザ入力の説明を以下に示す。このリストは、限定的であることは意図されない。 Here is a description of some typical user inputs available to the surgeon via the UI input 160A to control aspects of the system 100. This list is not intended to be limited.

・ヘッドジェスチャ
ヘッドジェスチャの使用に基づく外科用HMDのための一般的なユーザインタフェース法。ヘッドジェスチャは、UI入力160A(図2A)のヘッドトラッカ162によって検出される。外科医120は、いくつかのヘッドジェスチャが有効化フリーであるようにシステムパラメータを設定し、自身がヘッドジェスチャのみを用いてシステム100を制御することを可能にしてよい。たとえば、医療処置の特定の段階に関して、外科医120は、有効化フリーモードで作業することを好み、フットスイッチ104を介した有効化なしでヘッドジェスチャのみを用いて自身がシステム100を操作することを可能にし得る。外科医120は、この効果のために音声コマンドを発してフットスイッチ104を介した有効化をオフに切り換え、ヘッドジェスチャを用いるだけで、たとえばズームまたはフォーカスなどの特徴を制御してよい。外科医120は、たとえば
〇カメラヘッド110によるズーム、フォーカス、照明強度、
〇たとえばディスプレイモジュール130に表示された術前画像などのデータ項目内でのスクロール、
〇ヘッドジェスチャを直接介した、または間接的にヘッドジェスチャを用いてメニュー制御を介した照明のオンオフ、画像強調オプション、有効化非有効化
などの連続的および離散的なシステム特性を制御するためにヘッドジェスチャを用いる。
Head Gesture A common user interface method for surgical HMDs based on the use of head gestures. The head gesture is detected by the head tracker 162 of the UI input 160A (FIG. 2A). The surgeon 120 may set the system parameters so that some head gestures are enable-free and allow him to control the system 100 using only the head gestures. For example, for a particular stage of medical procedure, the surgeon 120 prefers to work in activation free mode and prefers to operate the system 100 himself using only the head gesture without activation via the footswitch 104. It can be possible. The surgeon 120 may issue voice commands for this effect to turn off activation via the footswitch 104 and use head gestures to control features such as zoom or focus, for example. The surgeon 120, for example, has the ability to zoom, focus, and illuminate with the camera head 110.
〇 For example, scrolling within data items such as preoperative images displayed on the display module 130,
〇 To control continuous and discrete system characteristics such as lighting on / off, image enhancement options, enable / disable, etc. via menu control, either directly or indirectly through head gestures. Use head gestures.

・フットスイッチ104によって有効化されたヘッドジェスチャ。
フットスイッチ104(図1G)は、たとえばペダル104A、104B、104Cなどの1または複数のペダルと共に提供される。ペダル104A、104B、104Cの各々は、様々なシステムパラメータセットを制御するためのヘッドジェスチャのグループを有効化してよい。各グループは、上下運動、左右運動、視線、小さな頷き、前後運動など、用いられる全てのジェスチャで構成される。ヘッドジェスチャを伴うフットスイッチ104の使用は、外科医120が、ヘッドジェスチャのみで利用可能な数よりも多くのシステム特徴を制御することを可能にする。また、追加のユーザ入力を介してヘッドジェスチャを有効化することは、たとえば頭部の自然な動きによる異なるシステムモードへの不慮の切換えなどの不本意な変更をなくすことにより、システム安全性を向上させる。
-Head gestures enabled by the footswitch 104.
The foot switch 104 (FIG. 1G) is provided with one or more pedals such as, for example, pedals 104A, 104B, 104C. Each of the pedals 104A, 104B, 104C may enable a group of head gestures to control various system parameter sets. Each group consists of all the gestures used, such as up-and-down movement, left-right movement, gaze, small nod, and back-and-forth movement. The use of the footswitch 104 with head gestures allows the surgeon 120 to control more system features than are available with head gestures alone. Also, enabling head gestures via additional user input improves system safety by eliminating inadvertent changes, such as accidental switching to different system modes due to the natural movement of the head. Let me.

たとえば、3つのペダルを有するフットスイッチは、ノーマルシステムモードにおいて以下の5つのヘッドジェスチャのグループを有効化してよい。
○左ペダルの押下(104A)
○上下のヘッドジェスチャ:拡大画像のフォーカス。
○微かな上下の頷き:自動フォーカシングの有効および無効状態の切替え。たとえば、指定された点におけるワンタイム自動フォーカシングを有効化すると、画像上のオーバレイとして十字が出現してよく、ユーザは、自動フォーカスする術野内の点を指定するために自身の頭部を回転させて十字を動かしてよい。ペダルの解放により、指定された点が選択される。外科医120は、メニューまたはタッチスクリーンを介して、自身の頭部の頷きによってどの種類の自動フォーカシング(たとえば、指定された点へのワンタイム自動フォーカス、指定された点への連続的な自動フォーカシング、ツールチップへの自動フォーカシング、光スポットの中心への自動フォーカシング)がアクティブ化されるかを選択してよい。
○左右のヘッドジェスチャ:拡大画像のズーム。
○微かな左右の振り:自動ズーミングの有効および無効状態の切替え。
○左+中央ペダルの押下(104Aおよび104B)
○上下および左右のヘッドジェスチャ:ROIが表示された時の拡大画像におけるyおよびx方向へのスクロール。
○微かな上下の頷き:ROIの変更に基づく自動センタリングの有効および無効状態の切替え。
○中央ペダルの押下(104B)
○上下および左右のヘッドジェスチャ:メニューナビゲーション。
○長い凝視:サブメニューを開く、または前景に出現するメニューを選択する。
○中央ペダル104Bの解放:選択されたメニュー項目をアクティブ化する。
○右+中央ペダルの押下(104Cおよび104B)
○上下および左右のヘッドジェスチャ:yおよびxモータを動かす。
○微かな上下の頷き:XYの変更に基づく自動センタリングの有効および無効状態の切替え。
○右ペダルの押下(104C)
○上下のヘッドジェスチャ:投光照明強度。
○微かな上下の頷き:投光照明のオンおよびオフ状態の切替え。
○左右のヘッドジェスチャ:赤目(同軸)照明強度。
○微かな左右の振り:同軸照明のオンおよびオフ状態の切替え。
For example, a footswitch with three pedals may enable the following five groups of head gestures in normal system mode.
○ Pressing the left pedal (104A)
○ Upper and lower head gestures: Focus of enlarged image.
○ Slight up and down nods: Switching between enabled and disabled states of automatic focusing. For example, if you enable one-time autofocusing at a given point, a cross may appear as an overlay on the image, and the user rotates his head to specify a point in the surgical field to autofocus. You may move the cross. Release of the pedal selects the specified point. The surgeon 120 uses a menu or touch screen to nod his head to determine what kind of autofocus (eg, one-time autofocus to a specified point, continuous autofocusing to a specified point, You may choose whether autofocusing to the tooltip, autofocusing to the center of the light spot) is activated.
○ Left and right head gestures: Zoom of enlarged image.
○ Slight left / right swing: Switching between enabled and disabled states of automatic zooming.
○ Pressing the left + center pedal (104A and 104B)
○ Up / down and left / right head gestures: Scrolling in the y and x directions in the enlarged image when the ROI is displayed.
○ Slight up and down nods: Switching between enabled and disabled states of automatic centering based on ROI changes.
○ Pressing the center pedal (104B)
○ Up / down and left / right head gestures: Menu navigation.
○ Long gaze: Open a submenu or select a menu that appears in the foreground.
○ Release of center pedal 104B: Activates the selected menu item.
○ Pressing the right + center pedal (104C and 104B)
○ Up / down and left / right head gestures: Move y and x motors.
○ Slight up and down nods: Switching between enabled and disabled states of automatic centering based on XY changes.
○ Pressing the right pedal (104C)
○ Upper and lower head gestures: Floodlight intensity.
○ Slight up and down nods: Switching the floodlight on and off.
○ Left and right head gestures: Red-eye (coaxial) lighting intensity.
○ Slight left / right swing: Switching the coaxial lighting on and off.

・音響入力。
システム100は、1または複数のマイクロフォン138を介して検出された音響信号に応答するように構成される。外科医120は、特徴を有効化または無効化するため、または異なるシステムモードへ切り換え、表示画像を修正または増強するため、などのために1または複数の音声コマンドおよび/または音を発してよい。音響入力は、マイクロフォン138によって検出され、コンピュータ118によって処理される。たとえば、外科医120は、1つの特徴を有効化/無効化するために1度の舌打ちの音を用い、第2の特徴を有効化/無効化するために第2の音を用いてよい。システム100の特徴を有効化するための音は、ユーザ固有であってよく、外科医120によってカスタマイズされ得る。外科医120は、システム100に、好みの音のセットを認識するように教示してよい。外科医120の口の付近(たとえばHMD102の一部)に物理的に配置されたマイクロフォン(不図示)は、患者122の可聴範囲外である非常に静かな音を拾い上げ得る。これは、たとえば多くの目の外科処置など、麻酔なしで行われる処置において有利であり得る。これらの状況において、患者122は、システム100を制御するために外科医120によって発される音声コマンドを聞かないことが好適であり得る。
-Sound input.
The system 100 is configured to respond to acoustic signals detected via one or more microphones 138. The surgeon 120 may issue one or more voice commands and / or sounds to enable or disable features, or to switch to a different system mode, modify or enhance the displayed image, and so on. The acoustic input is detected by the microphone 138 and processed by the computer 118. For example, the surgeon 120 may use a single tongue tap to enable / disable one feature and a second sound to enable / disable a second feature. The sound for activating the features of the system 100 may be user specific and may be customized by the surgeon 120. The surgeon 120 may teach the system 100 to recognize a set of sounds of his choice. A microphone (not shown) physically placed near the mouth of the surgeon 120 (eg, part of the HMD 102) can pick up a very quiet sound that is out of the audible range of the patient 122. This can be advantageous in procedures performed without anesthesia, for example in many eye surgery procedures. In these situations, it may be preferable for the patient 122 not to hear the voice commands issued by the surgeon 120 to control the system 100.

・ハンドジェスチャ。
いくつかの実施形態において、システム100は、ハンドヘルドコントローラ(不図示)によって、または外科医120によって行われたハンドジェスチャを感知し、これらを処理のためにコンピュータ118へ送信する外部トラッカ(不図示)によって取得された1または複数のハンドジェスチャ入力を提供する。たとえば、ハンドヘルドコントローラは、電子マウス、遠隔制御装置、ジョイスティックと同様に設計されてよく、あるいは、たとえばブレスレットまたは指輪などの装着型デバイスであってよい。あるいは、ハンドジェスチャは、HMDまたはその他どこかに統合されたカメラおよび/または他のセンサによって光学的に取得され得る。ハンドジェスチャは、本明細書に開示されるUI技術のいずれかと関連して用いられ得る。たとえば、ハンドジェスチャは、手術室内の位置に、または患者の目に「ロック」されたメニューまたは仮想3Dボタンと関連して用いられ得る。いくつかの実施形態において、システム100は、ユーザの指を追跡することによってハンドジェスチャを検出する。他の実施形態において、システム100は、外科医120によって保持された外科用ツールを追跡することによってハンドジェスチャを検出し、外科医120が、外科用ツールでメニュー項目または仮想3Dボタンを「タッチ」および「押下」することを可能にする。
・ Hand gesture.
In some embodiments, the system 100 is by a handheld controller (not shown) or by an external tracker (not shown) that senses hand gestures performed by the surgeon 120 and sends them to computer 118 for processing. Provides one or more acquired hand gesture inputs. For example, the handheld controller may be designed similar to an electronic mouse, remote controller, joystick, or may be a wearable device such as a bracelet or ring. Alternatively, the hand gesture can be obtained optically by an HMD or other integrated camera and / or other sensor. Hand gestures can be used in connection with any of the UI techniques disclosed herein. For example, hand gestures can be used in operating room locations or in connection with menus or virtual 3D buttons that are "locked" to the patient's eye. In some embodiments, the system 100 detects hand gestures by tracking the user's finger. In another embodiment, the system 100 detects a hand gesture by tracking a surgical tool held by the surgeon 120, who "touches" and "touches" a menu item or virtual 3D button with the surgical tool. It is possible to "press".

・カメラヘッド110を介した物理制御。
カメラヘッド110には、1または複数の手動操作型ボタン、ハンドル、およびスイッチ、および制御パネルが提供され得る。これらは、外科医120または付き添いの看護士によって制御され得る。
-Physical control via the camera head 110.
The camera head 110 may be provided with one or more manually operated buttons, handles, and switches, and a control panel. These may be controlled by the surgeon 120 or an attendant nurse.

・仮想表示されたメニューまたはボタンと組み合わせたユーザアイトラッキング。
外科医120は、アイトラッカ136(図1C)を介して仮想表示されたメニューオプションをナビゲートしてよい。たとえば、外科医は、既定の期間、仮想メニュー項目を凝視し、またはパターンに従ってまばたきし、または他のそのような「アイジェスチャ」を行ってよい。このUIは、本明細書で説明される他のUIのいずれかと関連して用いられ得る。ディスプレイ固定仮想メニューに加えて、メニューは、世界固定または解剖学的構造固定であってよい。たとえば、3D仮想ボタンは、たとえば治療エリアの周囲など、患者122の目に「ロック」された状態で表示され得る。外科医120は、仮想ボタンを凝視することによって表示されたボタンを「押下」してよく、アイトラッキング部品136は、凝視を検出する。
-User eye tracking in combination with virtually displayed menus or buttons.
The surgeon 120 may navigate the virtually displayed menu options via the eye tracker 136 (FIG. 1C). For example, the surgeon may stare at a virtual menu item for a predetermined period of time, or blink according to a pattern, or perform other such "eye gestures." This UI may be used in connection with any of the other UIs described herein. In addition to the display-fixed virtual menu, the menu may be world-fixed or anatomical-fixed. For example, a 3D virtual button may appear "locked" in the eyes of patient 122, for example around a treatment area. The surgeon 120 may "press" the button displayed by staring at the virtual button, and the eye tracking component 136 detects the stare.

・タッチスクリーン。
システム100に関する制御および動作パラメータは、タッチスクリーン108を介して設定、監視、および修正され得る。タッチスクリーン108は、手術室看護士または外科医120によって使用するために無菌ナイロンによってカバーされ得る。HMD102を装着している外科医120によって動作設定を制御することに加えて、タッチスクリーン108は、HMD102を装着している外科医120によって制御することができないモード、設定、および嗜好を制御することを可能にする。タッチスクリーン108は、システム100に利用可能なビデオフィードのいずれかを、生形式で、またはHMD102の装着者に見えるフォーマットで、たとえばオーバレイ、PIPなどを用いて表示してよい。
·touch screen.
Control and operating parameters for the system 100 can be set, monitored, and modified via the touch screen 108. The touch screen 108 may be covered with sterile nylon for use by an operating room nurse or surgeon 120. In addition to controlling motion settings by the surgeon 120 wearing the HMD 102, the touch screen 108 can control modes, settings, and preferences that cannot be controlled by the surgeon 120 wearing the HMD 102. To. The touch screen 108 may display any of the video feeds available to the system 100 in raw format or in a format visible to the wearer of the HMD 102, using, for example, overlays, PIPs, and the like.

システムモードは、外科医120によって行われたユーザ入力をシステム100がどのように解釈し、それに対して反応するかを決定して、ユーザインタフェース構成を修正する。たとえば、術前モードにおいて、外科医120は、自身の頭部を回しながら同時にフットスイッチ104のペダルを押下することによって、HMD102を介して表示された複数の画像をスクロールする。ノーマルモードにおいて、外科医120は、自身の頭部を左へ(ズームイン)または右へ(ズームアウト)動かしながら同時にフットスイッチ104のペダルを押下することによって、HMD102を介して表示された画像をズームインまたはズームアウトする。いくつかの実施形態において、フットスイッチ104の適当なペダルが押下されている間、コンピュータ118のみがアクションの実行を有効化する。 The system mode modifies the user interface configuration by determining how the system 100 interprets and reacts to the user input made by the surgeon 120. For example, in preoperative mode, the surgeon 120 scrolls through a plurality of images displayed via the HMD 102 by simultaneously pressing the pedal of the foot switch 104 while turning his head. In normal mode, the surgeon 120 zooms in or zooms in on the image displayed via the HMD 102 by simultaneously pressing the pedal of the foot switch 104 while moving his head to the left (zoom in) or to the right (zoom out). Zoom out. In some embodiments, only the computer 118 enables the execution of the action while the appropriate pedal of the footswitch 104 is pressed.

以下は、システム100によって提供されるいくつかの典型的なシステムモードおよびそれらが制御する特性である。システムモードは、たとえばHMD102に関する表示設定、またはカメラシステム112に関する動作設定など、システム100のためにどのパラメータが操作されるかを定義する。外科医120は、UI160Aによって検出される、ヘッドジェスチャ、眼球運動、音声コマンド、および足部運動を含むUI入力の組み合わせによってモードを選択および開始する。コンピュータ118は、UI入力を処理し、UI160Bの1または複数のシステム出力部品を介してシステム応答を引き起こす。システムモードは、たとえばHMD102に表示されるコンテンツ、スクリーン状態、シャッタ132の状態、UI機能、およびカメラヘッド110に関する動作設定などの1または複数などの応答を決定する。以下の典型的なモードリストは、網羅的であることは意図されておらず、各システムモードによって制御可能な特性の全てを含むものでもない。 The following are some typical system modes provided by system 100 and the characteristics they control. The system mode defines which parameters are manipulated for the system 100, for example display settings for the HMD 102 or operation settings for the camera system 112. The surgeon 120 selects and initiates a mode by a combination of UI inputs detected by the UI 160A, including head gestures, eye movements, voice commands, and foot movements. The computer 118 processes the UI input and provokes a system response via one or more system output components of the UI 160B. The system mode determines the response, such as one or more of the content displayed on the HMD 102, the screen state, the state of the shutter 132, the UI function, and the operation settings for the camera head 110. The following typical mode list is not intended to be exhaustive and does not include all of the characteristics controllable by each system mode.

・ノーマルモード(デフォルトモード)。このシステムモードにおいて、デフォルト値が一般に有効であるが、外科医120によってカスタマイズされ得る。カメラシステム112によって取得された画像フィードが、HMD102を介して表示される。外科医120は、たとえばカメラシステム112に関するズーム、フォーカス、XY位置、および照明システム114に関する照明設定などの表示属性を制御するために主にUI160を用いる。 -Normal mode (default mode). In this system mode, the default values are generally valid, but can be customized by the surgeon 120. The image feed acquired by the camera system 112 is displayed via the HMD 102. The surgeon 120 primarily uses the UI 160 to control display attributes such as zoom, focus, XY position for the camera system 112, and lighting settings for the lighting system 114.

・透明モード。このシステムモードにおいて、ディスプレイモジュール130はオフにされ、LCシャッタ132が開いており、外科医120は、現実世界ビューを見ることができる。 -Transparent mode. In this system mode, the display module 130 is turned off, the LC shutter 132 is open, and the surgeon 120 can see the real world view.

・後眼部非接触レンズモード。このシステムモードは、外科医120が、反転または後眼部モードで術野124を見ることを可能にする。このモードに関する設定は以下の通りである。
○眼部反転 反転。
○投光照明 オフ。これは、ユーザが設定可能であってよい。
○赤目照明 オフ。
○配色 ファイバ照明(色補正は素材固有である)。
○画像強調 後眼部固有値。
○モータ状態 制限された速度および範囲。これらのパラメータは、ヘッドジェスチャの進度または速度を制御することによって外科医により制限され得る。
-Rear eye non-contact lens mode. This system mode allows the surgeon 120 to see the surgical field 124 in inverted or posterior ocular mode. The settings related to this mode are as follows.
○ Eye inversion Inversion.
○ Floodlight off. This may be user configurable.
○ Red-eye lighting is off.
○ Color scheme Fiber lighting (color correction is material-specific).
○ Image enhancement Eigenvalue of the posterior eye.
○ Motor state Limited speed and range. These parameters can be limited by the surgeon by controlling the progress or speed of the head gesture.

・外部モード。これらのシステムモードは、たとえば内視鏡など、システム100に接続され得る追加の外部デバイス(不図示)に対応する。外部システムモードの1つは、以下の設定を有する。
○赤目照明 オン。赤目および投光照明に関する強度は事前定義される。
○オーバレイ 外部システムから追加のデータがオーバレイされる。
○UI160の機能がカスタマイズされ得る。たとえば、フットスイッチ104に関する定義は、このモードにおいて、他のモードとは異なってよい。これは、外科医120が、フットスイッチ104を用いて外部マシンを制御することを可能にするためである。それに応じて、オプションを表示するメニューも、異なる機能を反映するように修正される。
-External mode. These system modes correspond to additional external devices (not shown) that may be connected to the system 100, such as an endoscope. One of the external system modes has the following settings.
○ Red-eye lighting on. Intensities for red-eye and floodlight are predefined.
○ Overlay Additional data is overlaid from the external system.
○ The functions of UI160 can be customized. For example, the definition for the footswitch 104 may be different in this mode than in other modes. This is to allow the surgeon 120 to control the external machine with the foot switch 104. Accordingly, the menus that display options will be modified to reflect different features.

・術前データモード(「術前」モード)。このモードにおいて、ユーザは、たとえば自身が準備した術前画像またはノートおよび/または患者データなどの事前計画データを見る。データを見た後、ユーザは、外科処置を継続するために以前のモードへ戻る。またユーザは、図6C~6Jにおいて詳しく後述するように、画像ライブラリからPIP内で見ることができる画像セットを選択し、以前のモードに戻った後、選択された画像内でスクロールしてもよい。このモードに関する設定は以下の通りである。
○表示コンテンツ。術野124で取得された生拡大画像の代わりに、HMDは、ユーザが所望する任意のデータにアクセスし、データを閲覧およびスクロールすることを可能にするGUIを表示する。
○UI機能。このモードは、術前データを閲覧およびスクロールすることを可能にする。たとえば、ノーマルモードにおけるジェスチャは、拡大画像のズームまたはフォーカスを制御し得る。術前データモードにおいて、拡大画像は表示されておらず、同じジェスチャは、表示された術前データのスクロールなどを可能にする。
○照明。照明システム114による照明は、術前データモードにおいて最小値に設定され、あるいはオフにされ、暗くされ、たとえばIR投光照明152を有するIR照明など照明システムに含まれる他の発光体に切り換えられ得る。IR照明は、外科医120が術前データを見ている間、同席している看護士の動きを検出することを可能にし、自動的にオンにされ得る。照明は、外科医120がノーマルシステムモードに再び切り換えると、以前の非IR設定に戻され得る。
-Preoperative data mode ("preoperative" mode). In this mode, the user sees pre-planned data such as preoperative images or notes and / or patient data prepared by the user. After viewing the data, the user returns to the previous mode to continue the surgical procedure. The user may also select an image set that can be viewed in PIP from the image library, return to the previous mode, and then scroll within the selected image, as will be described in detail in FIGS. 6C-6J. .. The settings related to this mode are as follows.
○ Display content. Instead of the raw magnified image acquired in the surgical field 124, the HMD displays a GUI that allows the user to access any data desired and view and scroll the data.
○ UI function. This mode allows you to view and scroll preoperative data. For example, a gesture in normal mode can control the zoom or focus of a magnified image. In the preoperative data mode, the magnified image is not displayed, and the same gesture allows scrolling of the displayed preoperative data, etc.
○ Lighting. Illumination by the illumination system 114 can be set to a minimum in the preoperative data mode, or turned off and dimmed, and switched to other emitters included in the illumination system, such as IR illumination with IR floodlight 152. .. IR lighting allows the surgeon 120 to detect the movement of the nurse present while viewing the preoperative data and can be turned on automatically. Lighting can be restored to the previous non-IR settings when the surgeon 120 switches back to normal system mode.

・PIP(ピクチャインピクチャ)システムモード。ピクチャインピクチャ(PIP)の表示は、術前画像、生ビデオフィード、過去に取得されたビデオのスナップショット、GIF、およびたとえばバイタルサインおよび他のデータなどのデータを、HMD102を介して表示された現在の背景画像上にオーバレイされたウィンドウ内に表示することを可能にする。外科医120は、いくつかの異なるPIP、それらの位置、および各PIP内にどのコンテンツを表示するかを事前定義してよい。たとえば、PIPは、後眼部非接触レンズモードにおける作業時、術前OCT画像を表示し、または、内視鏡モードであり、背景画像が内視鏡カメラからの生ビデオフィードである時、生拡大画像を表示してよい。外科医120は、各既定のPIPをオンおよびオフにしてよい。外科医120は、UI160を介してPIPの位置およびサイズおよびオン/オフ状態を制御してよい。HMD102の視野におけるPIPの位置は、メイン画像内の自動的に検出された関心領域の位置に従って動的に変更されてよく、UI160を介して外科医120によって設定され得る。またPIPの位置は、現実世界にロックされ(「世界固定PIP」)、または、たとえばVGS処置において患者の解剖学的構造に固定されてもよい。PIPモードである時(すなわち、PIPの「選択」後)、スナップショットのアクティブ化は、PIP画像のみを保存し得る。これは、たとえばiOCT画像を保存するために役立ち得る。 -PIP (picture in picture) system mode. The picture-in-picture (PIP) display displayed data such as preoperative images, raw video feeds, previously captured video snapshots, GIFs, and, for example, vital signs and other data via the HMD 102. Allows you to display in an overlaid window on top of the current background image. Surgeon 120 may predefine several different PIPs, their location, and what content to display within each PIP. For example, the PIP displays a preoperative OCT image when working in the posterior non-contact lens mode, or when in the endoscopic mode and the background image is a live video feed from the endoscopic camera. An enlarged image may be displayed. Surgeon 120 may turn each default PIP on and off. The surgeon 120 may control the position and size of the PIP and the on / off state via the UI 160. The position of the PIP in the field of view of the HMD 102 may be dynamically changed according to the position of the automatically detected region of interest in the main image and may be set by the surgeon 120 via the UI 160. The location of the PIP may also be locked to the real world (“world fixed PIP”) or fixed to the patient's anatomy, for example in a VGS procedure. When in PIP mode (ie, after "selection" of PIP), snapshot activation may only store PIP images. This can be useful, for example, for storing iOCT images.

たとえばPIP内に現在表示されている術前画像に対応する生拡大画像上の位置を示すオーバレイ記号を有効または無効にするために、PIPが表示されている時、オーバレイされたメニューに、PIP固有の機能が追加され得る。いくつかの実施形態において、拡張現実(VGS)処置を行う間、HMD102のドライバ102Aは、PIPが表示されているディスプレイモジュール130のエリア内でシャッタ132を閉じる。これにより、外科医120は、部分的に透明なスクリーンを通して現実世界を見、同時に、PIPの後ろの周囲光を遮断しながら1または複数のPIP内に表示された術前、術中、または他のデータを見ることが可能である。PIPが患者の解剖学的構造にロックされている時、コンピュータ118は、外科医120が自身の頭部を動かしている間、PIPの後ろで背景が常に遮断されるようにシャッタが閉じられる領域を動的に制御してよい。 For example, in order to enable or disable the overlay symbol indicating the position on the raw magnified image corresponding to the preoperative image currently displayed in PIP, when PIP is displayed, the overlaid menu will be PIP-specific. Features can be added. In some embodiments, the driver 102A of the HMD 102 closes the shutter 132 within the area of the display module 130 where the PIP is displayed while performing the augmented reality (VGS) procedure. This allows the surgeon 120 to see the real world through a partially transparent screen, while simultaneously blocking the ambient light behind the PIP and displaying preoperative, intraoperative, or other data within one or more PIPs. It is possible to see. When the PIP is locked to the patient's anatomy, the computer 118 covers the area behind the PIP where the shutter is closed so that the background is always blocked while the surgeon 120 is moving his head. It may be controlled dynamically.

いくつかの実装において、PIPシステムモードへの切換えは、HMDを介して少なくとも1つのPIPが表示されている時のみ可能である。PIPシステムモードへの切換えは、たとえばメニューを呼び出すフットスイッチボタンを押下すること、およびメニュー項目であるかのようにPIPを選択することによって行われ得る。これにより、UI機能は、PIP内に表示されたコンテンツに従って既定のUI機能に変更される。たとえば、PIPが術前データを表示する場合、UIは、(たとえば、外科医120がPIP内に表示された術前画像のセットをスクロールすることを可能にする)術前データモードから引き継がれ、PIPが生拡大画像を表示する場合、UIは、(たとえば、外科医120が倍率を制御することを可能にする)ノーマルモードまたは後眼部非接触レンズモード、または一般に(ここに記載されない他のいくつかのそのようなモードが存在し得るので)生画像フィードを見るために最後に選択されたモードから引き継がれる。PIPモードにおいて引き継がれたUIに特別UI機能が追加されてよく、他は、PIPモード用に微調整され得る。たとえば、PIPに術前画像が表示される場合、外科医120は、ヘッドジェスチャを用いて仮想ポインタを制御し、表示された術前画像および生拡大画像における対応する点を指定してよい(これは、生画像に術前データを手動で位置合わせするために行われ得る)。 In some implementations, switching to PIP system mode is possible only when at least one PIP is displayed via the HMD. Switching to PIP system mode can be done, for example, by pressing a footswitch button that calls up a menu, and by selecting PIP as if it were a menu item. As a result, the UI function is changed to the default UI function according to the content displayed in the PIP. For example, if the PIP displays preoperative data, the UI is taken over from the preoperative data mode (for example, allowing the surgeon 120 to scroll through the set of preoperative images displayed within the PIP) and the PIP. When displaying a live magnified image, the UI may be in normal mode (eg, allowing the surgeon 120 to control the magnification) or posterior non-contact lens mode, or in general (some other not listed here). (Because such a mode can exist) it is inherited from the last selected mode to view the raw image feed. Special UI features may be added to the UI inherited in PIP mode, others may be fine-tuned for PIP mode. For example, if the PIP displays a preoperative image, the surgeon 120 may use a head gesture to control the virtual pointer to specify a corresponding point in the displayed preoperative and raw magnified image (which is). , Can be done to manually align preoperative data to raw images).

・iOCT(術中OCT)モード。このシステムモードは、iOCTスキャナ142にOCTデータを取得させる。このモードに関する設定は、以下を含んでよい。
○iOCT オン。
○PIP オン、iOCTスキャナ142を介して取得された画像がPIP内に表示される。
○UIオプション この特徴は、外科医120が、ヘッドジェスチャを用いて、またはメニューをナビゲートすることなどによって、たとえば走査位置および角度などのiOCTスキャナ142に関する動作パラメータを制御することを可能にするUIオプションを提供する。たとえば、ユーザは、B走査およびボリュメトリック走査というiOCT走査様式を切り替えるためにメニューを用いてよい。
○B走査インジケータオーバレイ この特徴は、生iOCT B走査の位置を示す記号を生拡大画像上にオーバレイする。
-IOCT (intraoperative OCT) mode. This system mode causes the iOCT scanner 142 to acquire OCT data. Settings for this mode may include:
○ iOCT is on.
○ PIP on, the image acquired via the iOCT scanner 142 is displayed in the PIP.
○ UI option This feature allows the surgeon 120 to control operating parameters for the iOCT scanner 142, such as scan position and angle, using head gestures or by navigating menus. I will provide a. For example, the user may use a menu to switch between the iOCT scan modes of B scan and volumetric scan.
○ B scan indicator overlay This feature overlays a symbol indicating the position of the raw iOCT B scan on the raw magnified image.

・他の処置固有および段階固有モード:一般に、様々な処置固有および段階固有モードは、処置固有および段階固有データおよびオーバレイを表示するために事前定義され得る。
○データオーバレイ、たとえばフェイコビトレクトミーマシンからのデータが有効化される。
○位置合わせされたオーバレイが有効化される。このビューは、外科処置中に外科医120を支援するために術野の現実世界拡大ビュー上にオーバレイされた画像位置合わせ記号および/または画像および/または3Dモデルを表示する。
○UI UI機能は、ユーザが、オーバレイの位置、深さ、および向きを制御するため、あるいはシステムに接続された他のデバイスを制御することを可能にするために変化してよい。たとえば、ディスプレイにオーバレイする直線の角度は、ヘッドジェスチャおよび/またはフットスイッチ104を用いて操作され得る。
○PIP(ピクチャインピクチャ)。PIPは、PIPを介して関連術前または術中ビデオおよび/またはデータを示すために有効化され得る。
• Other treatment-specific and stage-specific modes: In general, various treatment-specific and stage-specific modes may be predefined for displaying treatment-specific and stage-specific data and overlays.
○ Data overlays, such as data from Facobitrectomy machines, are enabled.
○ Aligned overlays are enabled. This view displays an overlayed image alignment symbol and / or image and / or 3D model on a real-world magnified view of the surgical field to assist the surgeon 120 during the surgical procedure.
○ UI UI features may vary to allow the user to control the position, depth, and orientation of the overlay, or to allow other devices connected to the system to be controlled. For example, the angle of the straight line that overlays the display can be manipulated using head gestures and / or footswitch 104.
○ PIP (picture in picture). PIP can be enabled to show relevant preoperative or intraoperative video and / or data via PIP.

・外部ビデオフィードモード:
○いくつかのモードにおいて、HMD102は、外科医102が、待合室で待機している患者を監視し、または異なる手術室内の異なる外科処置の進捗を監視することを可能にするために、たとえば手術室外に配置された1または複数のカメラによって提供され得るような外部ビデオフィードを表示する。これらのビデオは、PIP内またはHMD102のサイドスクリーンに表示され得る。それらは、1度に1つのビデオで、または複数のスクリーンでビデオの寄せ集めとして表示され得る。このモードは、外科医が、複数のスクリーンにおいて全ての利用可能なビデオフィードを見ることを可能にする。外科医は、待合室、他の手術室からのビデオフィードを見てよく、あるいは、たとえば予測不可能な状況において生じ得るような稀な処置をどのように行うかを説明する教材ビデオのデータベースを検索してよい。外科医は、たとえばPIP内でなど、選択されたビデオをいつどのように見るか、およびいつどのように以前のモードに戻るかを事前に決定してよい。
-External video feed mode:
○ In some modes, the HMD 102 may be used, for example, outside the operating room to allow the surgeon 102 to monitor patients waiting in the waiting room or to monitor the progress of different surgical procedures in different operating rooms. Display an external video feed as may be provided by one or more cameras deployed. These videos may be displayed in the PIP or on the side screen of the HMD 102. They can be viewed as a jumble of videos, one video at a time, or on multiple screens. This mode allows the surgeon to see all available video feeds on multiple screens. Surgeons may look at video feeds from the waiting room, other operating rooms, or search a database of teaching material videos that explain how to perform rare procedures that can occur, for example, in unpredictable situations. It's okay. The surgeon may predetermine when and how to watch the selected video, for example in PIP, and when and how to return to the previous mode.

・教示モード:
いくつかの実施形態において、システム100は、外科医120と連携する、たとえば年長外科医などの補助外科医(不図示)によって同時にガイドされ得る。補助外科医は、コンピュータ118およびカメラヘッド110に結合され、HMD102と同様に動作する第2のHMDを装着する。第2のHMDもまた術野124のビューを表示し、補助外科医は、HMD102のモジュール130におけるディスプレイと同期されたディスプレイ上のカーソルを制御してよく、外科医120が、補助外科医によって制御されたカーソルを見ることを可能にする。このように、補助外科医は、外科処置中に外科医120をガイドすることができる。同様に、補助外科医は、術前または他のデータなどを外科医120に示す1または複数のPIPを呼び出してよい。
・ Teaching mode:
In some embodiments, the system 100 may be simultaneously guided by an assistant surgeon (not shown), such as an older surgeon, working with the surgeon 120. The assistant surgeon wears a second HMD that is coupled to the computer 118 and camera head 110 and operates similarly to the HMD 102. The second HMD also displays a view of the surgical field 124, the assistant surgeon may control a cursor on the display synchronized with the display in module 130 of the HMD 102, and the surgeon 120 may control the cursor controlled by the assistant surgeon. Allows you to see. In this way, the assistant surgeon can guide the surgeon 120 during the surgical procedure. Similarly, the assistant surgeon may call one or more PIPs that indicate preoperative or other data to the surgeon 120.

このモードにおいて、年長外科医は、たとえば外科医120が研修医である場合などに、外科処置を行っている外科医120を指導し得る。いくつかの実施形態において、アイトラッキング部品136(図1C)は、外科医120の凝視を追跡し、外科医120が注視しているHMD102の表示エリアを決定する。システム100は、外科医120が注視しているエリアを示す記号を、第2のHMDを介して補助外科医に表示する。このように、補助外科医は、外科医120の焦点を監視することができる。 In this mode, the senior surgeon may instruct the surgeon 120 performing the surgical procedure, for example if the surgeon 120 is a trainee. In some embodiments, the eye tracking component 136 (FIG. 1C) tracks the gaze of the surgeon 120 and determines the display area of the HMD 102 that the surgeon 120 is gazing at. The system 100 displays a symbol indicating the area that the surgeon 120 is gazing at to the assistant surgeon via the second HMD. In this way, the assistant surgeon can monitor the focus of the surgeon 120.

いくつかの実施形態において、年長外科医は、処置を行いながら外科医120をガイドするための特徴および記号をオーバレイしてよい。外科医120は、生画像上にオーバレイされたエンド効果を見、このモードにおいて監督外科医が見ているメニューおよび描画オプションを見ることはない。教示モードにおける特徴は、以下を含む。
○図6K~6Oにおいて更に詳しく後述するように、描画オプションを選択し、表示する仮想ツール/マーカ/ポインタ、マーキングの色、マーキングの消去などを選択するための「ペイント」のようなメニューを年長外科医に示すこと。
○年長外科医が、ヘッドジェスチャを用いて、または専用ワンドによってポインタを制御し、または描画することを可能にすること。
○リアルタイム画像に描画する場合、線画(線、記号など)は、患者の解剖学的構造にロックされてよく、すなわち、オーバレイ記号は、(たとえば、外科医が患者の目を動かすと)患者の解剖学的構造にロックされて見えるようにその位置を自動的/動的に変化させる。線画は、3Dであってよい。
○年長外科医は、HMDを身に着けていない場合、指示および描画するためにタッチスクリーンを用いてよい。年長外科医は、たとえば自身のオフィスまたは自宅内で通常のスクリーンおよびマウスを用いて、場合によってはリアルタイム画像上で指示および描画するためにタブレットまたはスマートフォンを用いて、執刀外科医を遠隔でガイドし得る。
○何者かが「描画」モードでシステム100システム100に接続し、生画像フィードに描画することを有効化されたことを執刀外科医に示す記号が、表示画像の角部に表示され得る。
○執刀外科医に消去オプションが提供される。ディスプレイに特徴が描画されると、現在のメニューにメニュー項目が追加され(すなわち、執刀外科医がメニューを呼び出すと、彼にメニューが表示され)、執刀外科医が1または複数の描画特徴を消去することを可能にする。メニューは、単一の「全てを消去する」メニュー項目を選択することによって、全ての描画特徴を消去することを可能にし得る。あるいは、メニューは、外科医120が、どの描画特徴を消去するか、およびその数を選択することを可能にするサブメニューを提示する。
○特徴の描画を容易にするために、生画像フィードをフリーズするフリーズオプションが提供され得る。
○3D記号/マーカ:
・3D記号は、解剖学的構造に対して所与の深さで出現するように両目に表示される記号である。3Dマーカは、3D画像固定記号(たとえば3D直線)を生成する。
・ユーザは、ユーザによって完全に制御される3Dポインタまたはマーカを選択してよく、すなわち、ユーザは、そのXY位置および深さの両方を制御する(ユーザは、たとえば深さ制御ペダルによって有効化されたヘッドジェスチャを用いて、深さを手動で制御してよい)。
・あるいはユーザは、現在フォーカスされている解剖学的構造の深さに自動的にロックする3Dポインタまたはマーカを選択してよく、ユーザが記号を動かすと、ユーザは、記号が解剖学的構造の表面を辿る(たとえば上下に動く)感覚を得る。
・後者が用いられる場合、ユーザによってフォーカスが変更されると、高さは自動的に計算され更新される。たとえば、第1のフォーカスポイントが、角膜のような透明表面上であり、第2のフォーカスポイントが、前嚢上の点のような第1のフォーカスポイントの後側(下側)である場合、(HMDユーザの両目に表示される)2つの画像における記号位置は、新たな深さを反映するように異なる方法で変化する。
○ワンド:
・ワンドは、マウスのような、または遠隔制御装置のようなコントローラであり、任意選択的に様々な種類のボタンを有し、ハンドヘルドであり、無線または有線であり、任意選択的に無菌カバー内にあり、任意選択的に統合された慣性トラッキングを有する。これは、上述したような指示/描画のため、および仮想ツールを制御するための両方に用いられ得る。
・監督年長外科医は、どのように外科処置を行うかを研修医に示すために自然な方法で仮想ツールを動かすためのハンドヘルドコントローラを用いてよい。仮想ツールは、ユーザがHMDを介して生画像上のオーバレイとして見る3Dツールとしてディスプレイ内に出現する。これは、このモードにおいてメニュー/GUIを介してユーザが選択するために利用可能なツールの3Dモデルに基づく。
In some embodiments, the senior surgeon may overlay features and symbols to guide the surgeon 120 while performing the procedure. Surgeon 120 sees the overlaid end effect on the raw image and does not see the menus and drawing options that the supervisor sees in this mode. Features in the teaching mode include:
○ As will be described in more detail in Figures 6K to 6O, a menu such as "Paint" for selecting drawing options and selecting virtual tools / markers / pointers to display, marking colors, marking erasure, etc. will be displayed. Show to the chief surgeon.
○ Allowing older surgeons to control or draw pointers using head gestures or with dedicated wands.
○ When drawing on a real-time image, the line drawing (lines, symbols, etc.) may be locked to the patient's anatomy, ie the overlay symbol is the patient's anatomy (eg, when the surgeon moves the patient's eyes). Automatically / dynamically change its position so that it appears locked to the anatomy. The line drawing may be 3D.
○ Senior surgeons may use a touch screen to direct and draw if they are not wearing an HMD. Senior surgeons may remotely guide the surgeon, for example, using a regular screen and mouse in their office or home, and possibly using a tablet or smartphone to direct and draw on real-time images. ..
O A symbol indicating to the surgeon that someone has connected to System 100 System 100 in "drawing" mode and enabled drawing to the raw image feed may be displayed at the corners of the displayed image.
○ The surgeon will be provided with an erasure option. When a feature is drawn on the display, a menu item is added to the current menu (ie, when the surgeon calls the menu, he sees the menu) and the surgeon erases one or more drawing features. Enables. The menu may allow you to erase all drawing features by selecting a single "Erase All" menu item. Alternatively, the menu presents a submenu that allows the surgeon 120 to select which drawing features to erase and the number thereof.
○ A freeze option may be provided to freeze the raw image feed to facilitate the drawing of features.
○ 3D symbol / marker:
A 3D symbol is a symbol that appears in both eyes to appear at a given depth to the anatomy. The 3D marker produces a 3D image fixation symbol (eg, a 3D straight line).
The user may select a 3D pointer or marker that is fully controlled by the user, i.e. the user controls both its XY position and depth (user is enabled, for example, by a depth control pedal). You may manually control the depth using a head gesture).
Alternatively, the user may select a 3D pointer or marker that automatically locks to the depth of the currently focused anatomy, and when the user moves the symbol, the user can see that the symbol is of the anatomy. Get the feeling of following the surface (eg moving up and down).
-When the latter is used, the height is automatically calculated and updated when the focus is changed by the user. For example, if the first focus point is on a transparent surface such as the cornea and the second focus point is posterior (lower) to the first focus point such as a point on the anterior capsule. The symbolic positions in the two images (displayed in both eyes of the HMD user) change in different ways to reflect the new depth.
○ Wand:
The wand is a mouse-like or remote control-like controller, optionally with various types of buttons, handheld, wireless or wired, and optionally within a sterile cover. Has optional integrated inertial tracking. It can be used both for instruction / drawing as described above and for controlling virtual tools.
• The supervising senior surgeon may use a handheld controller to move the virtual tool in a natural way to show the trainee how to perform the surgical procedure. The virtual tool appears in the display as a 3D tool that the user sees as an overlay on the raw image via the HMD. It is based on a 3D model of the tools available for the user to select via the menu / GUI in this mode.

外科医120は、UI入力160Aを介して検出される1または複数のハンドフリージェスチャを用いて、システム100に関するシステムモードを選択し切り換える。いくつかの実施形態において、外科医120は、ヘッドトラッカ162によって検出されるヘッドジェスチャを行いながら、同時にフットスイッチ104によって検出される足部運動を行うことによって、システムモードを切り換える。他の実施形態において、外科医120は、マイクロフォン138によって検出される音声コマンドによってシステムを切り換える。コンピュータ119は、システムモードに従って、後続のユーザ入力をどのように解釈するかを決定する。 The surgeon 120 selects and switches the system mode for the system 100 using one or more hands-free gestures detected via the UI input 160A. In some embodiments, the surgeon 120 switches the system mode by performing the head gesture detected by the head tracker 162 while simultaneously performing the foot movement detected by the foot switch 104. In another embodiment, the surgeon 120 switches the system with voice commands detected by the microphone 138. Computer 119 determines how to interpret subsequent user input according to the system mode.

たとえば、1つのシステムモードにおいて、外科医120によってフットスイッチ104のペダル104Aを押下しながら行われる頭部の上向き回転は、照明システム114による照明の強度を増加させる。異なるシステムモードにおいて、フットスイッチ104のペダル104Aを押下しながら行われる同じヘッドジェスチャは、HMD102を介して表示された画像をスクロールする。外科医120によってフットスイッチ104のペダル104Bを押下しながら行われる横方向のヘッドジェスチャは、これら2つのシステムモードを切り換えてよい。同じジェスチャに対する複数のシステム応答を可能にすることによって、システムモードは、システム100に関するより広範囲の機能を提供し、外科医120が、自身の手を用いることなくシステム100の特徴を制御し、外科処置を行うために両手を空けておくことを可能にする。 For example, in one system mode, the upward rotation of the head performed by the surgeon 120 while pressing the pedal 104A of the foot switch 104 increases the intensity of illumination by the illumination system 114. In different system modes, the same head gesture performed while pressing pedal 104A of footswitch 104 scrolls the image displayed via HMD 102. The lateral head gesture performed by the surgeon 120 while pressing the pedal 104B of the foot switch 104 may switch between these two system modes. By allowing multiple system responses to the same gesture, the system mode provides a wider range of functions for the system 100, allowing the surgeon 120 to control the features of the system 100 without the use of his own hands and perform surgical procedures. Allows you to keep both hands free to do.

ここで、開示される技術の更なる実施形態に従って構成され動作可能な、図2Aのユーザインタフェースに関する典型的な制御フロー図を示す図2Bが参照される。コンピュータ118(図1B)は、たとえばフットスイッチ104(図1G)のペダルの足での押下のインジケーションを同時に伴うヘッドトラッカ162からのヘッドジェスチャなど、UI入力160Aを介したユーザ入力を受信し、システムモードに依存してシステム応答を決定する、すなわち、応答はモード固有である。1つのシステムモードにおいて、ユーザ入力は、システム100において第1のアクションをもたらし、異なるシステムモードにおいて、同じユーザ入力が、システム100において異なるアクションをもたらし得る。図2Bのフロー図は、複数のシステムモードと関連してユーザインタフェース160を介して制御され得る機能の柔軟性および範囲を示すことが意図される。この図は、単なる典型例であることが意図され、本明細書に開示される任意の特定の実装または例に本発明を限定することは意図されない。 Here, reference is made to FIG. 2B, which shows a typical control flow diagram for the user interface of FIG. 2A, which is configured and operational according to a further embodiment of the disclosed technique. The computer 118 (FIG. 1B) receives user input via the UI input 160A, such as a head gesture from the head tracker 162 that is simultaneously indicated to be pressed by the foot of the pedal of the foot switch 104 (FIG. 1G). The system response is determined depending on the system mode, that is, the response is mode-specific. In one system mode, user input may result in a first action in system 100, and in different system modes, the same user input may result in different actions in system 100. The flow diagram of FIG. 2B is intended to show the flexibility and scope of functionality that can be controlled via the user interface 160 in relation to multiple system modes. This figure is intended to be merely exemplary and is not intended to limit the invention to any particular implementation or example disclosed herein.

コンピュータ118は、UI入力160Aを介してヘッドトラッカ162およびフットスイッチ104からのユーザ入力を受信する。ケース1。ユーザ入力は、外科医120がフットスイッチ104のペダル104Aを押下しながらヘッドアップジェスチャを行ったというインジケーションである。現在のシステムモードがノーマルであるため、コンピュータ118は、アクション240として示された、HMD102に表示された画像におけるズームアウトを実施する。ケース2。ユーザ入力は、前述と同じ、たとえば外科医120がフットスイッチ104のペダル104Aを押下しながらヘッドアップジェスチャを行ったというインジケーションである。ただし、現在のシステムモードが術前OCT(「術前」モード)に設定されているため、コンピュータ118は、アクション242として示された、術前OCT画像間でのスクロールを実施する。ケース3。ユーザ入力は、外科医120がフットスイッチ104のペダル104Bを押下しながらヘッドアップジェスチャを行ったというインジケーションである。現在のシステムモードがノーマルであるため、コンピュータ118は、アクション244として示すように、システムモードをノーマルからバイタルへ切り換える。モード切換えは、図3Aに関して更に詳しく後述される。 The computer 118 receives user input from the head tracker 162 and the foot switch 104 via the UI input 160A. Case 1. The user input is an indication that the surgeon 120 performs a head-up gesture while pressing the pedal 104A of the foot switch 104. Since the current system mode is normal, the computer 118 performs a zoom out on the image displayed on the HMD 102, which is shown as action 240. Case 2. The user input is the same as described above, for example, an indication that the surgeon 120 performs a head-up gesture while pressing the pedal 104A of the foot switch 104. However, because the current system mode is set to preoperative OCT (“preoperative” mode), the computer 118 performs scrolling between preoperative OCT images, shown as action 242. Case 3. The user input is an indication that the surgeon 120 performs a head-up gesture while pressing the pedal 104B of the foot switch 104. Since the current system mode is normal, the computer 118 switches the system mode from normal to vital, as shown as action 244. Mode switching will be described in more detail with respect to FIG. 3A.

本明細書において説明される複数のユーザインタフェースから得られた複数のユーザ入力に応答することによって、システム100は、外科医120が外科処置を行うために自身の両手を空けたままで幅広い範囲の動作特徴を制御することを可能にする。入力は、1つのシステムモードにおいて1つのシステム応答を、異なるシステムモードにおいて異なるシステム応答を引き起こしてよく、たとえばヘッドジェスチャ、足での押下など、比較的小さな入力セットによって広範囲の機能を提供する。フットスイッチ104は、システム100の応答を、外科医120による故意のジェスチャに対してのみ制御するために動作する。外科医120によるうっかりしたジェスチャは、フットスイッチ104が同時に押下されない場合、システム100による応答をもたらさない。 By responding to a plurality of user inputs obtained from the plurality of user interfaces described herein, the system 100 has a wide range of operating features with the surgeon 120 leaving his hands free to perform the surgical procedure. Allows you to control. Inputs may provoke one system response in one system mode and different system responses in different system modes, providing a wide range of functions with a relatively small set of inputs, such as head gestures, foot presses, and so on. The foot switch 104 operates to control the response of the system 100 only to intentional gestures by the surgeon 120. An inadvertent gesture by the surgeon 120 does not result in a response by the system 100 if the footswitch 104 is not pressed at the same time.

1つの実施形態によると、外科医120は、HMD102の位置および向きを制御することによって、システムモードを選択してよい。HMD102に関して可能な位置および向きの範囲は、複数のゾーンに分割され、各ゾーンは、異なるシステムモードに対応する。HMD102の位置および向きをゾーンと一致させるように自身の頭部を動かすことによって、外科医120は、そのゾーンに対応するシステムモードを選択し得る。システム100は、新たなモードへの不慮の切換えを防ぐために、外科医120が自身の頭部を操りながらフットスイッチを押下することを必要とし得る。 According to one embodiment, the surgeon 120 may select the system mode by controlling the position and orientation of the HMD 102. The range of possible positions and orientations with respect to the HMD 102 is divided into multiple zones, each zone corresponding to a different system mode. By moving its head to match the position and orientation of the HMD 102 with the zone, the surgeon 120 may select the system mode corresponding to that zone. The system 100 may require the surgeon 120 to press the footswitch while manipulating his head to prevent accidental switching to the new mode.

ここで、開示される技術の他の実施形態に従って構成され動作可能な、複数のゾーンに分割されたHMD102(図1A)に関する様々な位置および向きのための典型的なレイアウト300を示す図3Aが参照される。レイアウト300は、それぞれがHMD102に関する複数の向き領域である複数のゾーンを示し、各領域は異なるシステムモードに対応する。システム100は、外科医120が、自身の頭部を回転させることによりHMD102を回転させることによって、1つのシステムモードから他のシステムモードへ切り換えることを可能にする。外科医120は、それぞれが自身の頭部運動の範囲である複数の角度および位置ゾーンを定めることによってHMD102の機能をカスタマイズし、各ゾーンのそれぞれについてどのシステムモードが実施されるかを決定してよい。 Here, FIG. 3A shows a typical layout 300 for various positions and orientations with respect to a plurality of zoned HMD 102 (FIG. 1A) configured and operational according to other embodiments of the disclosed technique. Referenced. The layout 300 shows a plurality of zones, each of which is a plurality of orientation regions with respect to the HMD 102, and each region corresponds to a different system mode. The system 100 allows the surgeon 120 to switch from one system mode to another by rotating the HMD 102 by rotating his head. The surgeon 120 may customize the functionality of the HMD 102 by defining multiple angle and position zones, each of which is within the range of his or her head movement, and determine which system mode is performed for each of the zones. ..

レイアウト300は、それぞれ図1AのHMD102に関するゾーン302、304、306、308、および310を示す。破線312、314、316、および318は、ゾーン302、304、306、308、および310の間の角度閾値を示すことにより、それぞれのゾーンを定める。直線312は、バイタルゾーン308とノーマルゾーン302との間の閾値を定め、直線314は、ノーマルゾーン302と術野ゾーン306との間の閾値を定め、直線314は、ノーマルゾーン302と術前ゾーン306との間の閾値を定め、直線318は、ノーマルゾーン302と看護士ゾーン304との間の閾値を定める。新たなゾーンと一致するようにHMD102の向きを変更することによって閾値312、314、316、および318の1つを横断しながらフットスイッチ104のペダルを押下することにより、システムモードは、新たなゾーンに対応するように切り換わる。 Layout 300 shows zones 302, 304, 306, 308, and 310 for the HMD 102 of FIG. 1A, respectively. Dashed lines 312, 314, 316, and 318 define their respective zones by indicating angular thresholds between zones 302, 304, 306, 308, and 310. The straight line 312 sets the threshold between the vital zone 308 and the normal zone 302, the straight line 314 sets the threshold between the normal zone 302 and the surgical field zone 306, and the straight line 314 sets the normal zone 302 and the preoperative zone. A threshold between the normal zone 302 and the nurse zone 304 is set by the straight line 318. By pressing the pedal of the footswitch 104 while traversing one of the thresholds 312, 314, 316, and 318 by reorienting the HMD 102 to match the new zone, the system mode is set to the new zone. Switch to correspond to.

「ノーマル」と付記されたゾーン302は、ノーマルシステムモードを有するHMD102の前方水平の向きと関連する。外科医120が、HMD102をゾーン302と一致させるように自身の頭部を動かしながらフットスイッチ104を押下すると、ノーマルシステムモードが開始される。シャッタ132は閉じており、カメラヘッド110によって取得された画像の生ビデオフィードがHMD102を介してレンダリングされる。 The zone 302 labeled "normal" is associated with the forward horizontal orientation of the HMD 102 having the normal system mode. When the surgeon 120 presses the foot switch 104 while moving his head to align the HMD 102 with the zone 302, the normal system mode is initiated. The shutter 132 is closed and the raw video feed of the image acquired by the camera head 110 is rendered via the HMD 102.

「看護士」と付記されたゾーン304は、看護士システムモードを有するHMD102の右方向水平の向きと関連する。外科医120が、HMD102をゾーン304と一致させるように自身の頭部を動かしながらフットスイッチ104を押下すると、看護士システムモードが開始される。シャッタ132が開き、ビデオフィードはオフにされ、外科医120は、HMD102を装着しながら看護士を直接見て意思疎通することが可能である。 Zone 304 labeled "nurse" is associated with a rightward horizontal orientation of the HMD 102 having the nurse system mode. When the surgeon 120 presses the foot switch 104 while moving his head to align the HMD 102 with the zone 304, the nurse system mode is initiated. The shutter 132 is opened, the video feed is turned off, and the surgeon 120 is able to see and communicate directly with the nurse while wearing the HMD 102.

「術前」と付記されたゾーン306は、術前データシステムモードを有する外科医120の頭部の左方向水平の向きと関連する。外科医120が、HMD102をゾーン306と一致させるように自身の頭部を動かしながらフットスイッチ104を押下すると、術前データシステムモードが開始される。シャッタ132は閉じた状態に維持され、HMD102を介して術前データが表示される。いくつかの実施形態において、術前システムモードへの切換え時、UI機能が変化し得る。たとえば、メニュー項目が異なってよく、外科医が術前データを閲覧およびスクロールすることを可能にするために、ヘッドジェスチャは、システム100において他のシステムモードとは異なるアクションを行わせ得る。 The zone 306 labeled "preoperative" is associated with the left horizontal orientation of the head of the surgeon 120 having the preoperative data system mode. When the surgeon 120 presses the foot switch 104 while moving his head to align the HMD 102 with the zone 306, the preoperative data system mode is initiated. The shutter 132 is kept closed and preoperative data is displayed via the HMD 102. In some embodiments, UI functionality may change when switching to preoperative system mode. For example, menu items may be different and the head gesture may cause the system 100 to perform different actions than other system modes to allow the surgeon to view and scroll the preoperative data.

「バイタル」と付記されたゾーン308は、バイタルサインシステムモードを有するHMD102の前方上向きの向きと関連する。外科医120が、HMD102をゾーン308と一致させるように自身の頭部を動かしながらフットスイッチ104を押下すると、バイタルシステムモードが開始され、患者122の1または複数のバイタルサインを示すデータがHMD102を介して表示される。 Zone 308, labeled "vital", is associated with a forward-upward orientation of the HMD 102 having the vital signs system mode. When the surgeon 120 presses the foot switch 104 while moving his head to align the HMD 102 with the zone 308, the vital system mode is initiated and data indicating one or more vital signs of the patient 122 is via the HMD 102. Is displayed.

「術野」と付記されたゾーン310は、術野システムモードを有するHMD102の前方下向きの向きと関連する。外科医120が、HMD102をゾーン310と一致させるように自身の頭部を動かしながらフットスイッチ104を押下すると、シャッタ132が開き、表示はオフにされ、外科医120が術野124の現実世界ビューを見ることが可能である。 The zone 310 labeled "surgical field" is associated with the anterior-downward orientation of the HMD 102 having the surgical field system mode. When the surgeon 120 presses the footswitch 104 while moving his head to align the HMD 102 with the zone 310, the shutter 132 opens, the display is turned off, and the surgeon 120 sees a real-world view of the surgical field 124. It is possible.

いくつかの実施形態において、システムモードは、フットスイッチ104(たとえば、HMDのP&Oに基づいてモード切換えを引き起こすための既定のフットスイッチ104内のボタン)を押下している間のみ、HMD102の現在のP&Oに従って決定される。外科医120は、フットスイッチ104を押下しながら角度閾値312、314、316、および318の1または複数を横断するように自身の頭部を動かすことによって、システム100のシステムモードを切り換える。外科医120の頭部の向きが既定の角度を超え、HMD102が新たなゾーンと一致すると、システムモードは、新たなゾーンに対応するシステムモードに切り換わる。たとえば、術前モードに留まるために、外科医120は、フットスイッチ104を押下しながら自身の視線が(左方向への)角度閾値316を超えた状態であるように維持する。フットスイッチ104を最初に押した時、現在のHMDのP&Oが現在のモードの閾値を超えていれば、システムモードは瞬時に切り換わる。この実施形態において、外科医がフットスイッチ104を解放すると、システムモードは再び元のモードへ切り換わる。このモード動作方式は、たとえば、ユーザが術前データまたは看護士を素早く一瞥することを好む場合、有用である。いくつかの実施形態において、外科医がフットスイッチ104を解放すると、システムモードは現在のモードに留まり、ユーザが、システムモードに影響を及ぼすことなく再び頭部を自由に動かすことを可能にする。このモード動作方式は、たとえば、ユーザが長期間にわたり術前データを快適に検討することを好む場合、有用である。 In some embodiments, the system mode is the current HMD 102 only while pressing the foot switch 104 (eg, a button in the default foot switch 104 to trigger a mode switch based on the HMD's P & O). Determined according to P & O. The surgeon 120 switches the system mode of the system 100 by moving his head across one or more of the angle thresholds 312, 314, 316, and 318 while pressing the foot switch 104. When the surgeon 120's head orientation exceeds a predetermined angle and the HMD 102 coincides with the new zone, the system mode switches to the system mode corresponding to the new zone. For example, to stay in preoperative mode, the surgeon 120 keeps his gaze above the angle threshold 316 (to the left) while pressing the footswitch 104. When the foot switch 104 is pressed for the first time, if the P & O of the current HMD exceeds the threshold value of the current mode, the system mode is switched instantly. In this embodiment, when the surgeon releases the footswitch 104, the system mode switches back to the original mode. This mode of operation is useful, for example, if the user prefers a quick glance at preoperative data or nurses. In some embodiments, when the surgeon releases the footswitch 104, the system mode remains in the current mode, allowing the user to move his head freely again without affecting the system mode. This mode of operation is useful, for example, if the user prefers to comfortably review preoperative data over a long period of time.

角度閾値312、314、316、および318は更に、ヒステリシス有効化制御を可能にし得る。たとえば、ノーマルゾーン302から看護士ゾーン304への閾値を横断する時、より大きな閾値が有効であり、再び看護士ゾーン304からノーマルゾーン302へ横断する時、より小さな角度閾値が有効であってよい。これは、頭部の向きが角度閾値に近い場合、不所望のモード切換えを回避するために有用である。ヒステリシス状態(有効/無効)およびヒステリシスサイズは、外科医120によって構成され得る。システム100は、単一の閾値から2つのヒステリシス生成閾値を自動的に生成してよい。 Angle thresholds 312, 314, 316, and 318 may further enable hysteresis enable control. For example, a larger threshold may be valid when crossing the threshold from the normal zone 302 to the nurse zone 304, and a smaller angle threshold may be valid when crossing the nurse zone 304 to the normal zone 302 again. .. This is useful for avoiding undesired mode switching when the head orientation is close to the angle threshold. The hysteresis state (enabled / disabled) and the hysteresis size may be configured by the surgeon 120. The system 100 may automatically generate two hysteresis generation thresholds from a single threshold.

他の実施形態において、ゾーン302、304、306、308、および310は、正確な閾値で定められるわけではない。むしろ、ゾーン302、304、306、308、および310と関連するモードのアクティブ化は、外科医120による相対的なヘッドジェスチャに基づく。たとえば、自身の頭部をいずれかの方向へ10度より大きく向けながらフットスイッチ104のペダル104Cを押下することにより、現在のシステムモードから他のシステムモードへ切り換えるために必要な相対的回転方向に対応するようにシステムモードが切り換わる。 In other embodiments, zones 302, 304, 306, 308, and 310 are not defined with accurate thresholds. Rather, the activation of modes associated with zones 302, 304, 306, 308, and 310 is based on relative head gestures by surgeon 120. For example, by pressing pedal 104C of the footswitch 104 while pointing its head in any direction more than 10 degrees, the relative rotation direction required to switch from the current system mode to another system mode. The system mode is switched to correspond.

更なる実施形態において、フットスイッチ104からの入力は、モードを切り換えるために必要ではない。角度閾値312、314、316、および318は、システムモードを変更するトリガとして用いられる。領域の各々に対応するシステムモードは、HMD102の現在のP&Oに従って決定される。たとえば、術前モードに留まるために、外科医120は、自身の視線が(左方向への)角度閾値416を超えた状態であるように維持する必要がある。 In a further embodiment, the input from the footswitch 104 is not required to switch modes. The angle thresholds 312, 314, 316, and 318 are used as triggers to change the system mode. The system mode corresponding to each of the regions is determined according to the current P & O of the HMD 102. For example, in order to remain in preoperative mode, the surgeon 120 needs to keep his gaze above the angle threshold 416 (to the left).

また他の実施形態において、頭部を少し回すことによって角度閾値に「触れる」ことは、それぞれのゾーンに対応するシステムモードを切り替える。外科医120がフットスイッチ104を押下しながら角度閾値316に「触れる」と、システムは、ノーマルモードから、術前領域306に対応する術前モードへ切り換わる。このモードの間、外科医120は、自身の首を長期間歪めることなく、快適に前方へ視線を向けて術前データを見る。フットスイッチ104を押下しながら2度目に閾値316に触れることにより、システムモードは、ノーマル領域302に対応する「ノーマル」へ再び切り換わり、外科医がHMD102を介して術野124の生拡大画像を見ることを可能にする。フットスイッチ104は、フットスイッチ104の特定のペダルを押下しながら同時にヘッドジェスチャによって閾値に触れることのみが新たなシステムモードへの切換えをもたらすように、システムモード間での切換えを有効化するために用いられる。これは、不慮のモード切換えを回避するためである。 In another embodiment, "touching" the angle threshold by turning the head slightly switches the system mode corresponding to each zone. When the surgeon 120 "touches" the angle threshold 316 while pressing the foot switch 104, the system switches from the normal mode to the preoperative mode corresponding to the preoperative region 306. During this mode, the surgeon 120 comfortably looks forward to view the preoperative data without distorting his neck for extended periods of time. By touching the threshold 316 a second time while pressing the foot switch 104, the system mode switches again to "normal" corresponding to the normal region 302, and the surgeon sees a live magnified image of the surgical field 124 via the HMD 102. Make it possible. The footswitch 104 is used to enable switching between system modes such that pressing a particular pedal of the footswitch 104 while simultaneously touching the threshold with a head gesture results in switching to a new system mode. Used. This is to avoid accidental mode switching.

ここで、開示される技術の実施形態に従って構成され動作可能な、図3Aに関して説明されたゾーンと関連する、様々なシステムモードを呼び出すためにどのヘッドジェスチャが必要であるかをユーザに示すヒントがオーバレイされた生画像320の表示を示す図3Bが参照される。HMD102の視野上に表示された画像320は、ゾーン302と関連するノーマルモードに対応する。いくつかの実施形態において、外科医120は、システム100に関して、どのヘッドジェスチャがどのシステムモードを呼び出すかを外科医に示唆する特徴324、326、328、および330を表示することを選択する。特徴324、326、328、および330は、画像320の表示を不明瞭にしないように、視野の周囲に透明または半透明に表示される。符号「看護士」を有する特徴324は、外科医に、頭部を特徴324の方向に右へ向けることによって、図3Aのゾーン304に対応する看護士モードが呼び出されることを示唆する。符号「術前」を有する特徴326は、外科医に、頭部を特徴326の方向に左へ向けることによって、図3Aのゾーン306に対応する術前モードが呼び出されることを示唆する。符号「バイタル」を有する特徴328は、外科医に、頭部を特徴328の方向に上へ向けることによって、図3Aのゾーン308に対応するバイタルモードが呼び出されることを示唆する。符号「術野」を有する特徴330は、外科医に、頭部を特徴330の方向に下へ向けることによって、図3Aのゾーン310に対応する術野モードが呼び出されることを示唆する。この特徴は、外科医120がシステムに未だ不慣れである場合に有用であり、必要に応じてオンまたはオフに切り換えられ得る。同様に、外科医120は、状況と必要に応じて、フットスイッチ104を用いることなくヘッドジェスチャのみによるモード切換えを自由に有効化することを選択してよく、またはフットスイッチ104を介した有効化へ復帰してよい。 Here is a hint to the user which head gesture is needed to invoke the various system modes associated with the zones described with respect to FIG. 3A, configured and operational according to embodiments of the disclosed technique. See FIG. 3B, which shows the display of the overlaid raw image 320. The image 320 displayed on the field of view of the HMD 102 corresponds to the normal mode associated with the zone 302. In some embodiments, the surgeon 120 chooses to display features 324, 326, 328, and 330 with respect to the system 100, suggesting to the surgeon which head gesture calls which system mode. Features 324, 326, 328, and 330 are displayed transparently or translucently around the field of view so as not to obscure the display of the image 320. Feature 324 with the symbol "nurse" suggests to the surgeon that the nurse mode corresponding to zone 304 in FIG. 3A is invoked by turning the head to the right in the direction of feature 324. Feature 326 with the symbol "preoperative" suggests to the surgeon that the preoperative mode corresponding to zone 306 in FIG. 3A is invoked by turning the head to the left in the direction of feature 326. Feature 328 with the symbol "vital" suggests to the surgeon that by pointing the head upwards in the direction of feature 328, the vital mode corresponding to zone 308 in FIG. 3A is invoked. Feature 330 with the symbol "field" suggests to the surgeon that the surgical field mode corresponding to zone 310 in FIG. 3A is invoked by pointing the head downwards in the direction of feature 330. This feature is useful if the surgeon 120 is still unfamiliar with the system and can be switched on or off as needed. Similarly, the surgeon 120 may choose to freely enable mode switching only by head gesture without using the foot switch 104, or to enable via the foot switch 104, depending on the circumstances and needs. You may return.

1つの実施形態において、特徴324、326、328、および330は、外科医120が、ヘッドジェスチャに基づくモード切換えを有効化するためにフットスイッチ104を押下した時のみ表示される。任意選択的に、特徴324、326、328、および330の表示は、デフォルト設定であってよい。留意すべき点として、特定の特徴324、326、328、および330の表示は、単なる典型例である。一般に、特徴は、現在のモードに対応する方式で表示される。したがって、異なるシステムモードは、異なる特徴を表示させる。たとえば、システム100が術前モードである場合、ノーマルモードへ戻るためには頭部を右に向けることを外科医120に指示する1つの特徴のみが、視野内の画像に重ねて表示される。そのような場合、現在「看護士」を示している特徴324はノーマルを示し、特徴326、328、および330は表示されない。 In one embodiment, features 324, 326, 328, and 330 are displayed only when the surgeon 120 presses the footswitch 104 to enable mode switching based on head gestures. Optionally, the display of features 324, 326, 328, and 330 may be the default setting. It should be noted that the display of specific features 324, 326, 328, and 330 is merely exemplary. In general, features are displayed in a manner that corresponds to the current mode. Therefore, different system modes display different features. For example, if the system 100 is in preoperative mode, only one feature instructing the surgeon 120 to turn his head to the right to return to normal mode is overlaid on the image in the field of view. In such cases, the feature 324 currently indicating "nurse" indicates normal and the features 326, 328, and 330 are not displayed.

外科医120は、スクラッチ、または既存のモードを複写し、タッチスクリーン108を用いてそれを修正することによって、システムモードを定義し構成してよい。少なくとも2つのシステムモードが定義されると、外科医120は、HMD102を装着し、モード切換えが次に引き起こされることを所望する概ねの方向を凝視し、閾値によって定められたゾーンの各々と関連するモードを選択することによって、システムモードを向き領域と関連付けてよい。手術室内の位置によってモードが追加的に定義されると、外科医120は、システムモード切換えを引き起こす所望の位置へ物理的に移動してよい。これは、様々なシステム設定および構成をサポートする特別メニューおよびジェスチャを有する専用システムモードにおいて行われる。これは任意選択的に、初期セットアップまたは構成段階として各新規ユーザによって行われる。ユーザは、HMDメニューを介して単独で、またはタッチスクリーン上でGUIを操作する第2の人物の助けを借りて、モード指定を呼び出し操作してよい。 Surgeon 120 may define and configure a system mode by copying a scratch, or an existing mode, and modifying it with a touch screen 108. Once at least two system modes have been defined, the surgeon 120 wears the HMD 102, stares at the approximate direction in which the mode switch is desired to be triggered next, and the mode associated with each of the zones defined by the threshold. The system mode may be associated with the orientation area by selecting. If the mode is additionally defined by the position in the operating room, the surgeon 120 may physically move to the desired position that causes the system mode switch. This is done in a dedicated system mode with special menus and gestures that support various system settings and configurations. This is optionally done by each new user as an initial setup or configuration step. The user may call and operate the mode designation alone via the HMD menu or with the help of a second person manipulating the GUI on the touch screen.

デフォルト表示状態は、フルスクリーン状態である。この状態において、HMD102は、外科医120に対し固定された状態で出現するフルスクリーンディスプレイ固定画像を表示する。HMD102を介して表示されたコンテンツは、HMD102にしっかり吊り下げられたスクリーンとして出現する。外科医120が自身の頭部を動かすと、スクリーンは彼と共に動き、彼に対し固定された状態で出現する。フルスクリーン状態に加えて、システム100は、仮想スクリーン状態を提供する。外科医120は、フルスクリーン状態から仮想スクリーン状態を呼び出してよい。仮想スクリーン状態は、たとえばフットスイッチ104のペダル104Bの押下、ヘッドジェスチャまたは音声コマンドの使用など、上述したユーザインタフェース方法の任意の組み合わせを用いて呼び出され得る。仮想スクリーン状態は、スクリーン状態のみを変化させ、現在のモードの他の全てのシステム特性(たとえば生画像フィードの表示)を変えずに維持する。 The default display state is the full screen state. In this state, the HMD 102 displays a fixed image on the full screen display that appears fixed to the surgeon 120. The content displayed via the HMD 102 appears as a screen firmly suspended from the HMD 102. When the surgeon 120 moves his head, the screen moves with him and appears fixed to him. In addition to the full screen state, the system 100 provides a virtual screen state. Surgeon 120 may recall the virtual screen state from the full screen state. The virtual screen state can be invoked using any combination of the user interface methods described above, such as pressing pedal 104B of footswitch 104, using head gestures or voice commands. The virtual screen state changes only the screen state and keeps all other system characteristics of the current mode (eg, displaying the raw image feed) unchanged.

開示される技術の更なる実施形態によると、システムモード間の切換えは、仮想スクリーン状態によって実現される。仮想スクリーン状態において、コンテンツは、手術室に固定された状態で出現する世界固定の1または複数の仮想スクリーン内に表示される。外科医120が自身の頭部を動かすと、仮想スクリーンは、彼の視野の内外へ動き、そこに表示されたコンテンツを外科医120がスクロールすることを可能にする。外科医120と、仮想スクリーンの仮想位置との間の距離に依存して、外科医120は、一度に複数の仮想スクリーンを見得る。これは、図5Cに関して更に詳しく後述される。 According to a further embodiment of the disclosed technology, switching between system modes is achieved by a virtual screen state. In the virtual screen state, the content is displayed within one or more world-fixed virtual screens that appear fixed in the operating room. As the surgeon 120 moves his head, the virtual screen moves in and out of his field of view, allowing the surgeon 120 to scroll through the content displayed there. Depending on the distance between the surgeon 120 and the virtual position of the virtual screen, the surgeon 120 may see multiple virtual screens at once. This will be described in more detail with respect to FIG. 5C.

仮想スクリーン状態を用いてシステムモードを切り換えるために、各システムモードは、そのシステムモードが選択された場合に外科医120がフルスクリーン状態で見ることになるコンテンツを表示しサムネイルの一種として機能する仮想スクリーンによって示され得る。これにより、外科医120は、モードを切り換えることなく、様々なシステムモードにおいて利用可能なコンテンツを同時にプレビューすることができる。仮想スクリーン上に表示されるコンテンツの詳細および解像度は、スクリーンサイズ、技術的問題、および帯域幅への制限によって、対応するフルスクリーン状態で表示されるものとは異なり得る。たとえば、フルスクリーン状態で出現するオーバレイ記号は、仮想スクリーン状態で表示されたサムネイル画像には出現しない場合がある。ただし、仮想スクリーンおよびフルスクリーン状態の両方で画像は実質的に同様である。外科医120は、たとえば既定の期間仮想スクリーンを凝視すること、またはフットスイッチ104の押下を伴うヘッドジェスチャなど、任意の適当なUI入力を用いて、仮想スクリーン状態でシステムモードを切り換えてよい。たとえば表示がオフにされたシステムモードのように、システムモードの全てが必ずしも仮想スクリーンによって表現されるわけではない。 To switch between system modes using a virtual screen state, each system mode displays the content that the surgeon 120 will see in full screen when that system mode is selected, and acts as a type of thumbnail. Can be indicated by. This allows the surgeon 120 to simultaneously preview the content available in the various system modes without switching modes. The details and resolution of the content displayed on the virtual screen may differ from what is displayed in the corresponding full screen state due to screen size, technical issues, and bandwidth limitations. For example, an overlay symbol that appears in the full screen state may not appear in the thumbnail image displayed in the virtual screen state. However, the images are substantially similar in both virtual and full screen states. The surgeon 120 may switch the system mode in the virtual screen state using any suitable UI input, such as staring at the virtual screen for a predetermined period of time, or head gesture with pressing the foot switch 104. Not all system modes are represented by a virtual screen, for example system modes with the display turned off.

システムモードが選択されると、スクリーン状態は、選択されたモードにおいてフルスクリーン状態に自動的に切り換わる。外科医120は、モードの切換え後、システム100が仮想スクリーン状態に留まるように構成してよい。この場合、スクリーン状態以外の全てのシステム特性が変化する。1つの実施形態において、仮想スクリーン状態は、それ自体が、外科医120がいくつかの仮想スクリーンを同時に見ることを可能にするシステムモードである。この場合、ユーザインタフェース特性を含む他の全てのシステム特性は、このシステムモードのために独自に定義される。 When the system mode is selected, the screen state automatically switches to the full screen state in the selected mode. The surgeon 120 may configure the system 100 to remain in the virtual screen state after switching modes. In this case, all system characteristics except the screen state change. In one embodiment, the virtual screen state is itself a system mode that allows the surgeon 120 to view several virtual screens at the same time. In this case, all other system characteristics, including user interface characteristics, are uniquely defined for this system mode.

いくつかの実施形態において、システムモードは、タッチスクリーン108を介して切り換えられ得る。いくつかのアプリケーションにおいて、たとえば看護士などの第三者が異なるシステムモードに切り換えることを可能にすることが望ましい。この場合、看護士は、コンピュータ118に結合されたタッチスクリーンを提供される。タッチスクリーン108は、出席している無菌外科医のいずれかによる手術室内での使用のために無菌ナイロンでコーティングされ得る。 In some embodiments, the system mode may be switched via the touch screen 108. In some applications it is desirable to allow a third party, such as a nurse, to switch to a different system mode. In this case, the nurse is provided with a touch screen coupled to the computer 118. The touch screen 108 may be coated with sterile nylon for use in the operating room by any of the attending sterile surgeons.

いくつかの実施形態において、システムモードは、音声コマンドまたはたとえば舌打ちなどの他の音響コマンドを介して切り換えられ得る。マイクロフォン138は、外科医120によって発された1または複数の音響コマンドを記録する。コンピュータ118は、たとえばシステムモードの切換えなどの様々なシステム機能を決定するために、音響コマンドを解析する。誤ったアクティブ化を回避するために、システム100は、たとえばシステム100の識別名の発声などによって、識別音と共に開始する音響コマンドのみに応答するように構成され得る。たとえば、外科医120は、システム100の識別名を読み上げ、システム100にノーマルモードへ切り換えるように指令することによって、ノーマルモードへ切り換えてよい。 In some embodiments, the system mode may be switched via voice commands or other acoustic commands such as tongue tapping. The microphone 138 records one or more acoustic commands issued by the surgeon 120. Computer 118 analyzes acoustic commands to determine various system functions, such as switching system modes. To avoid erroneous activation, the system 100 may be configured to respond only to acoustic commands that begin with the identification sound, for example by uttering the identification name of the system 100. For example, the surgeon 120 may switch to normal mode by reading the distinguished name of the system 100 and instructing the system 100 to switch to normal mode.

開示される技術の他の実施形態によると、HMD102を介してメニューが表示される。メニューは、たとえばペダル104Bなどのフットスイッチ104のペダルを押下することによって、またはたとえば音声制御または専用ヘッドジェスチャなどの他のUI手段によって呼び出され得る。メニューの呼出しは、HMD102を介して現在表示されたコンテンツにメニューをオーバレイさせ、ヘッドジェスチャを介してオーバレイメニュー内の項目をナビゲートおよび選択することを可能にする。メニューは、HMD102を介して表示された現在の画像への半透明ディスプレイ固定オーバレイとして、または個別の仮想スクリーン内などに表示され得る。 According to other embodiments of the disclosed technique, the menu is displayed via the HMD 102. The menu may be invoked by pressing the pedal of the footswitch 104, for example pedal 104B, or by other UI means such as voice control or dedicated head gesture. Invoking the menu allows the currently displayed content to overlay the menu via the HMD 102 and to navigate and select items in the overlay menu via the head gesture. The menu may be displayed as a semi-transparent display fixed overlay to the current image displayed via the HMD 102, or within a separate virtual screen.

たとえば、HMD102の異なる位置および向きが異なる機能に対応する図3Aに示す概念に従って、1つの位置および向きは、メニュー表示に対応してよい。HMD102を装着している外科医が既定の方向、たとえば下方向を見ると、メニューが表示される。いくつかの実施形態において、メニューは最初、少ない表示エリアしか占めないように小型または折畳み方式で表示され得る。他の実施形態において、メニューは、たとえばHMD102の前方向と直交するように、HMD102の前方向から離れる方向に(折畳みまたは通常状態で)表示される。メニューは、外科医が所定の期間、既定の方向を見続けた後、完全に開き得る。いくつかの実施形態において、メニューは、外科医が、他の機能を有効化するように構成されたヘッドジェスチャの一部として自身の頭部を向け、または方向付けた場合、呼び出されない。外科医120は、ヘッドジェスチャを介して、HMD固定オーバレイとして表示されたメニューをナビゲートし制御する。いくつかの実施形態において、フットスイッチ104の押下は、メニューを呼び出し、ユーザが、ヘッドジェスチャを用いて様々なメニュー項目をナビゲートし目立たせることを可能にし、フットスイッチの解放は、メニュー項目をアクティブ化させる。たとえば、メニュー項目を選択するために、外科医120は、フットスイッチ104における利用可能なペダルを押下し、メニュー項目を選択するために自身の頭部を操る。フットスイッチ104の解放は、選択されたメニュー項目に対応するアクションをアクティブ化する。 For example, one position and orientation may correspond to a menu display according to the concept shown in FIG. 3A corresponding to different positions and orientations of the HMD 102. When the surgeon wearing the HMD 102 looks in a predetermined direction, for example downward, a menu is displayed. In some embodiments, the menu may initially be displayed in a small or collapsible manner so as to occupy less display area. In another embodiment, the menu is displayed away from the front of the HMD 102 (in the folded or normal state), eg, orthogonal to the front of the HMD 102. The menu can be fully opened after the surgeon has been looking in a predetermined direction for a given period of time. In some embodiments, the menu is not recalled if the surgeon points or orients his or her head as part of a head gesture configured to enable other functions. The surgeon 120 navigates and controls the menu displayed as the HMD fixed overlay through the head gesture. In some embodiments, pressing the footswitch 104 brings up a menu, allowing the user to navigate and make various menu items stand out using head gestures, and releasing the footswitch makes the menu item stand out. Activate. For example, to select a menu item, the surgeon 120 presses on an available pedal on the footswitch 104 and manipulates his head to select a menu item. Release of the footswitch 104 activates the action corresponding to the selected menu item.

メニューは、限定されないがたとえばシステム100に関して利用可能な様々なシステムモードなどの任意の数のパラメータを羅列してよい。各システムモードは、記号、またはたとえばシステムモードのテキスト表現などのテキスト、たとえば「ノーマル」、「看護士」、「術前」などを含むメニュー項目によって表現される。システムモードに追加される他のメニューオプションがメニューに含まれ得る。追加のメニューオプションは、そのシステムモードにおいて制御可能な特性に関する、モード固有であってよい。たとえば、ノーマルモードにおいて、メニューは、投光照明をオンおよびオフに切り換え、赤目照明をオンおよびオフに切り換えることを可能にする項目を含んでよい。術前モードにおいて、これらのオプションは出現せず、代わりに、術前メニューは、利用可能な術前データセットを含むフォルダの開放を有効化し、どのデータセットを表示するかを選択するためのサブメニューを表示してよい。術前メニューは更に、術前データを表示するための様々な属性を制御するための項目を含んでよい。メニューオプションは、モード固有、処置固有、および段階固有であってよく、すなわち、システムモードおよび処置中の段階に依存してメニュー外観は変化してよい。システムモード間の切換えに加えて、メニューは、状態間の切替えを可能にする。 The menu may list any number of parameters, such as, but not limited to, various system modes available for system 100. Each system mode is represented by a symbol or text, such as a textual representation of the system mode, such as a menu item that includes "normal," "nurse," "preoperative," and so on. Other menu options added to system mode may be included in the menu. Additional menu options may be mode-specific with respect to the controllable characteristics of that system mode. For example, in normal mode, the menu may include items that allow the floodlight to be turned on and off and the red-eye light to be turned on and off. In preoperative mode, these options do not appear, instead the preoperative menu is a sub to enable opening of folders containing available preoperative datasets and select which dataset to display. You may display the menu. The preoperative menu may further include items for controlling various attributes for displaying preoperative data. Menu options may be mode-specific, treatment-specific, and stage-specific, i.e., the menu appearance may vary depending on the system mode and stage during treatment. In addition to switching between system modes, menus allow switching between states.

いくつかの実施形態において、メニューは、HMD102によって提供される表示エリアの中心に表示された生画像を遮断しないように、HMD102のディスプレイの余白に表示される。外科医120が、余白に表示されたメニューの各メニュー項目をナビゲートすると、外科医120に、彼がメニュー上のどこにいるか、およびそのメニュー項目を選択する効果が何であるかを示すために、メニュー項目の機能は一時的に有効化され得る。たとえば、外科医120が、緑色染料を噴射された膜を見ることを可能にするために緑色を強調するメニュー項目の上でナビゲートすると、その機能は一時的に有効化され、外科医120が生画像を注視し続けることを可能にしながら、外科医120に、彼が現在どのメニュー項目をナビゲートしているか、およびそのメニュー項目を選択する効果が何であるかを示してよい。ただし、いくつかのメニュー項目は、HMD102を介して表示された生画像を凝視しながら瞬時に明らかではない機能と関連し得る。外科医120が、自身によるメニューのナビゲーションを追跡しながら生画像を注視し続けることを可能にするために、新たなメニュー項目が強調された時、たとえば音または振動などの非視覚インジケータが引き起こされ得る。これは、外科医120が、自身によるメニューのナビゲーションに直接目を向けることなくそれを追跡することを可能にするので、外科医120は、生画像を注視し続けることができる。 In some embodiments, the menu is displayed in the margin of the display of the HMD 102 so as not to block the raw image displayed in the center of the display area provided by the HMD 102. When the surgeon 120 navigates through each menu item in the menu displayed in the margin, the menu item is shown to the surgeon 120 where he is on the menu and what the effect of selecting that menu item is. Features can be temporarily enabled. For example, when the surgeon 120 navigates over a menu item that emphasizes green to allow him to see the film sprayed with the green dye, the feature is temporarily enabled and the surgeon 120 takes a raw image. The surgeon 120 may be shown which menu item he is currently navigating and what the effect of selecting that menu item is, while allowing him to keep an eye on. However, some menu items may be associated with features that are not instantly apparent while staring at the raw image displayed via the HMD 102. Non-visual indicators such as sound or vibration can be triggered when new menu items are highlighted to allow the surgeon 120 to keep an eye on the raw image while tracking his menu navigation. .. This allows the surgeon 120 to keep track of the menu navigation by himself without having to look directly at it, so that the surgeon 120 can continue to gaze at the raw image.

いくつかの実施形態において、ディスプレイの右側余白におけるメニューは、アプリケーション専用である。そのようなアプリケーションの例は、術前OCTアプリケーション、教示アプリケーション、事前計画アプリケーション、フェイコビトレクトミー設定およびメトリクスアプリケーション、術中OCTアプリケーションなどを含む。たとえば、フットスイッチメニューボタンを押下すると、ディスプレイの左側余白におけるメニューはメインメニューであり、ディスプレイの右側余白におけるメニューはアプリケーション専用であり、対応するメニュー項目をアクティブ化することによってアプリケーションをオンにすることを可能にする。メニューの2つのブランチ(すなわち、ディスプレイの左側および右側余白におけるメニュー)間の切換えは、頭部を左右に向けることによって行われる。 In some embodiments, the menu in the right margin of the display is application-specific. Examples of such applications include preoperative OCT applications, teaching applications, preplanning applications, facobitrectomy settings and metrics applications, intraoperative OCT applications, and the like. For example, when you press the footswitch menu button, the menu in the left margin of the display is the main menu, the menu in the right margin of the display is application-only, and you turn on the application by activating the corresponding menu item. Enables. Switching between two branches of a menu (ie, the menu in the left and right margins of the display) is done by turning the head left or right.

他の実施形態において、アプリケーションがオンにされ、次にフットスイッチメニューボタンが押下されると、右側余白に出現するメニューは、アクティブ化されたアプリケーションのための専用メニューである。たとえば、術前OCTアプリケーションがアクティブ化されると、B走査を有するPIPがディスプレイ内に出現し、B走査の位置を示す直線が生画像上にオーバレイされる。フットスイッチメニューボタンが押下されると、右側余白に出現するメニューは、ディスプレイの右側余白における一般アプリケーションメニューではなく術前OCTアプリケーションのための専用メニューである。外科医120は、たとえば生画像上のB走査位置を示す直線のオーバレイをオンおよびオフにするため、異なるOCT走査セットがPIP内に表示するために選択され得る他のスクリーンへ切り換えるため、術前OCTアプリケーションをオフにするため、などのために、専用メニューからメニュー項目をナビゲートし選択してよい。術前OCTアプリケーションが閉じられ、次にフットスイッチメニューボタンが押下されると、ディスプレイの右側余白に一般アプリケーションメニューが出現する。留意すべき点として、これらの例は、UI160を介して制御され得るシステム100の特徴の範囲を例示するために与えられたものにすぎない。 In another embodiment, when the application is turned on and then the footswitch menu button is pressed, the menu that appears in the right margin is a dedicated menu for the activated application. For example, when the preoperative OCT application is activated, a PIP with a B scan appears in the display and a straight line indicating the position of the B scan is overlaid on the raw image. When the footswitch menu button is pressed, the menu that appears in the right margin is not a general application menu in the right margin of the display, but a dedicated menu for preoperative OCT applications. Surgeon 120 preoperative OCT to switch to another screen where different OCT scan sets may be selected for display within the PIP, for example to turn on and off the overlay of the straight line indicating the B scan position on the raw image. You may navigate and select menu items from the dedicated menu, such as to turn off the application. When the preoperative OCT application is closed and then the footswitch menu button is pressed, the general application menu appears in the right margin of the display. It should be noted that these examples are provided only to illustrate the range of features of the system 100 that can be controlled via the UI 160.

更なる実施形態において、メニューを呼び出し操作するために用いられたのと同じフットスイッチボタンは、フットスイッチボタンを押下しながら同時に頭部を回すことによって、スクリーンの切換えも有効化してよい。たとえば、フットスイッチメニューボタンを押下しながら、頭部をわずかに右へ向けると、ディスプレイの右側余白に出現するメニューブランチ内の第1のメニュー項目が強調される。頭部を更に右へ向けることは、スクリーンの切換えを引き起こし得る。 In a further embodiment, the same footswitch button used to call and operate the menu may also enable screen switching by simultaneously turning the head while pressing the footswitch button. For example, pressing the footswitch menu button and turning the head slightly to the right highlights the first menu item in the menu branch that appears in the right margin of the display. Turning the head further to the right can cause screen switching.

以下の例は、処置固有および段階固有のメニューオプションに関して与えられる。白内障処置の間、外部機械(不図示)がシステム100に接続され得る。外部機械は、ディスプレイモジュール130にレンダリングされた生拡大ビデオ上のオーバレイとして表示するためのデータを導入する。外部機械が接続されたことをシステム100が識別すると、ディスプレイモジュール130は、「外部データオーバレイ」および「破裂ガイダンス」の「有効」および「無効」状態を切り替えるためのメニューオプションを表示する。取り込まれたデータに基づいて、たとえば超音波水晶体乳化吸引段階などの処置段階が完了したことをシステム100が識別すると、ディスプレイモジュール130は、「破裂ガイダンス」ではなく「IOL整合性ガイダンス」の「有効」および「無効」を切り替えるためのメニューオプションを表示する。 The following examples are given for treatment-specific and stage-specific menu options. During cataract treatment, an external machine (not shown) may be connected to system 100. The external machine introduces data to be displayed as an overlay on the rendered raw magnified video in the display module 130. When the system 100 identifies that an external machine has been connected, the display module 130 displays a menu option for switching between the "enabled" and "disabled" states of the "external data overlay" and "burst guidance". When the system 100 identifies that a treatment step, such as an ultrasonic lens emulsification suction step, has been completed based on the captured data, the display module 130 is "effective" in the "IOL integrity guidance" rather than the "rupture guidance". Shows menu options for switching between "and".

メニューは、新たなシステムモードを選択し切り換えること、および以前のシステムモードへ戻ることを含む、システム100の特徴および態様を制御するために用いられ得る。P&Oゾーンのみに従ってシステムモードにアクセスすることは、利用可能なシステムモードの数を、視野内のゾーンの数に制限し得るので、メニューは、利用可能なシステムモードの数を増加することを可能にし得る。したがって、1つのシステムモードは、他のシステムモードを選択するためのメニュー項目を提示するメニューモードであると同時に、追加のシステム特徴およびパラメータを制御するための項目であってよい。メニューモードである間、システムモードに関するメニューは、UI機能モード固有で、HMD102を介して表示されてよく、すなわち外科医120による特定のジェスチャおよび動きは、メニューモードである間、1つの機能をもたらし、異なるシステムモードにおいて異なる機能をもたらす。メニューモードは、たとえばフットスイッチ104におけるペダル104Cの押下、マイクロフォン138によって記録される音声コマンドの発出、ヘッドジェスチャの実行、眼部運動などの1または複数を行うことなど、任意の適当なUIインタフェースを用いて呼び出され得る。 Menus can be used to control features and aspects of the system 100, including selecting and switching between new system modes and returning to the previous system mode. Accessing system modes according to P & O zones only can limit the number of available system modes to the number of zones in the field of view, so the menu allows to increase the number of available system modes. obtain. Thus, one system mode may be a menu mode that presents menu items for selecting another system mode, as well as items for controlling additional system features and parameters. While in menu mode, menus relating to system mode are specific to UI function mode and may be displayed via the HMD 102, i.e. certain gestures and movements by surgeon 120 provide one function while in menu mode. Brings different features in different system modes. The menu mode can be any suitable UI interface, such as pressing pedal 104C on footswitch 104, issuing voice commands recorded by microphone 138, performing head gestures, performing one or more eye movements, etc. Can be called using.

ここで、全体として、開示される技術の更なる実施形態に従って構成され動作可能な、拡大画像414の表示にオーバレイされた典型的なシステムモードメニューを示す図4A~4Cが参照される。後述する正確な実装の詳細は、典型例として意図され、本発明を限定するものではない。システムモードメニュー400は、外科医120が、生画像ストリーム414を見ながらシステムモードを切り換えることを可能にする。システムモードメニュー400は、図3Aのゾーンのレイアウトと同様に出現するが、これは必要条件ではない。外科医120は、フルスクリーン状態で構成されたHMD102(図1A)を介して術野124の生拡大画像ストリーム414を見る。外科医120は、たとえばフットスイッチ104のペダル104Bを押下することなどの既定のフットジェスチャを行う。それに応答して、コンピュータ118は、拡大画像ストリーム414上にオーバレイされたシステムモードメニュー400を表示する。システムモードメニュー400のメニュー項目は、たとえば表示画像を不明瞭にしないために、拡大画像ストリーム414上に透明にオーバレイされる。 Here, as a whole, is referred to FIGS. 4A-4C showing a typical system mode menu overlaid on the display of the magnified image 414, which is configured and operational according to a further embodiment of the disclosed technique. The exact implementation details described below are intended as typical examples and are not intended to limit the invention. The system mode menu 400 allows the surgeon 120 to switch between system modes while viewing the raw image stream 414. The system mode menu 400 appears similar to the zone layout of FIG. 3A, but this is not a requirement. The surgeon 120 sees the live magnified image stream 414 of the surgical field 124 via the HMD 102 (FIG. 1A) configured in the full screen state. The surgeon 120 performs a default foot gesture, such as pressing the pedal 104B of the foot switch 104. In response, the computer 118 displays an overlaid system mode menu 400 on the magnified image stream 414. Menu items in the system mode menu 400 are transparently overlaid on the magnified image stream 414, for example to avoid obscuring the displayed image.

示された典型的な実装において、システムモードメニュー400は、メニュー項目402(ノーマル)、404(バイタル)、406(看護士)、408(術野)、410(術前)、および412(キャンセル)を含む。現在のシステムモードはノーマルであるため、要素402が強調される(図4A)。いくつかの実施形態において、メニュー項目は、それらの機能に従って空間的に配置される。たとえば、看護士が術野124に対して右側にいる手術室において、メニュー項目406(看護士モード)は、HMD102の視野の右側に表示され、メニュー項目402(ノーマルモード)は、視野の中心に表示される。システムモードメニュー400をナビゲートするために、外科医120は、フットスイッチ104のペダル104Bを押下しながら自身の頭部を回す。 In the typical implementation shown, the system mode menu 400 has menu items 402 (normal), 404 (vital), 406 (nurse), 408 (surgical field), 410 (preoperative), and 412 (cancelled). including. Since the current system mode is normal, element 402 is emphasized (FIG. 4A). In some embodiments, menu items are spatially arranged according to their function. For example, in an operating room where the nurse is on the right side of the surgical field 124, the menu item 406 (nurse mode) is displayed on the right side of the field of view of the HMD 102 and the menu item 402 (normal mode) is in the center of the field of view. Is displayed. To navigate the system mode menu 400, the surgeon 120 turns his head while pressing the pedal 104B of the foot switch 104.

図4Bを参照すると、外科医120は、自身の頭部を左へ向け、メニュー項目402と410とを分離する角度閾値と交差させる。強調は、メニュー項目402からメニュー項目410(術前モード)へ切り換わる。1つの実施形態において、強調のみが術前モードメニュー項目410に切り換わっている。システムモードは、未だ切り換わっていない。外科医120がペダル104Bを解放するためにフットスイッチ104から足を持ち上げると、システムモードは、選択されたメニュー項目410に対応するモード、たとえば術前モード(図4B)に切り換わる。他の実施形態において、強調されたメニュー項目が切り換えられると、システムモードが切り換わったかのように背景画像も変化し、ユーザが、そのメニュー項目と関連する画像のプレビューを見ることを可能にする。 Referring to FIG. 4B, the surgeon 120 turns his head to the left and intersects the angle threshold that separates the menu items 402 and 410. Emphasis switches from menu item 402 to menu item 410 (preoperative mode). In one embodiment, only emphasis is switched to preoperative mode menu item 410. The system mode has not been switched yet. When the surgeon 120 lifts his foot from the footswitch 104 to release the pedal 104B, the system mode switches to a mode corresponding to the selected menu item 410, eg, preoperative mode (FIG. 4B). In another embodiment, when the highlighted menu item is toggled, the background image also changes as if the system mode was switched, allowing the user to see a preview of the image associated with that menu item.

図4Cを参照すると、外科医120は、ペダル104Bを押下したままで自身の頭部を右下角部へ向ける。彼の頭部の角度が、キャンセル選択に対応するメニュー項目412に関して設定された角度閾値と交差すると、強調は、メニュー項目412(キャンセル)に切り換わる。外科医120は、システムモードを変更することなくメニュー400を隠すために、フットスイッチのペダル104Bを解放することによってメニュー項目412を選択し、ペダル104Bの押下によってメニュー400をもたらすアクションをキャンセルする。このように、外科医120は、システムモードメニュー400をキャンセルし、システム100は、現在のシステムモードのままである。 Referring to FIG. 4C, the surgeon 120 turns his head toward the lower right corner while holding down the pedal 104B. When the angle of his head intersects the angle threshold set for the menu item 412 corresponding to the cancel selection, the emphasis switches to the menu item 412 (cancel). The surgeon 120 selects menu item 412 by releasing pedal 104B of the footswitch and cancels the action resulting in menu 400 by pressing pedal 104B in order to hide menu 400 without changing the system mode. Thus, the surgeon 120 cancels the system mode menu 400 and the system 100 remains in the current system mode.

この実施形態において、スクリーン状態は、ディスプレイ固定である。外科医が自身の頭部を動かすと、その頭部運動とは無関係に、画像414は彼の視野内で固定されたままである。しかし、固定された画像414上にオーバレイされたメニュー400の選択されたメニュー項目に関する強調は、彼の頭部運動と共にシフトする。 In this embodiment, the screen state is fixed to the display. When the surgeon moves his head, image 414 remains fixed within his field of view, regardless of his head movement. However, the emphasis on the selected menu item of the menu 400 overlaid on the fixed image 414 shifts with his head movement.

選択されたメニュー項目は、たとえばそのメニュー項目を様々なフォント、背景色で表示すること、そのメニュー項目を指すカーソルを表示すること、またはそのメニュー項目を他の選択されていないメニュー項目と区別するための他の任意の適当な技術によって、様々な方法で強調され得る。強調は、フットスイッチ104が押下されながらHMD102が第2のメニュー項目へ向かって回転すると、1つのメニュー項目から隣のメニュー項目へ移動する。これは図4Bに示される。外科医が自身の頭部を左へ向けると、術前モードに対応するメニュー項目410が選択され、強調して示され、ノーマルに対応するメニュー項目410は選択を外され、通常通りに表示される。外科医120は、自身のヘッドジェスチャへのシステム100の応答をパーソナライズしてよい。たとえば、頭部運動は、小さな頭部の傾きが、対応して大きな角度シフトに転じるように、またはその逆であるようにスケーリングされ得る。あるいは、HMD102の向きは、メニュー項目を選択する、メニュー400上に表示されたカーソル(不図示)を制御する。HMD102の向きを操作することがカーソルを操作し、たとえば、上下および左右の頭部運動は、それに応じてカーソルを上下および左右に動かす。フットスイッチ104の解放は、現在選択されているメニュー項目に対応するシステムモードをアクティブ化し、それによってシステムモードを切り換える。 The selected menu item, for example, displays the menu item in various fonts, background colors, displays a cursor pointing to the menu item, or distinguishes the menu item from other unselected menu items. It can be emphasized in various ways by any other suitable technique for. The emphasis is that when the HMD 102 rotates toward the second menu item while the foot switch 104 is pressed, it moves from one menu item to the next menu item. This is shown in FIG. 4B. When the surgeon turns his head to the left, the menu item 410 corresponding to the preoperative mode is selected and highlighted, and the menu item 410 corresponding to the normal is deselected and displayed normally. .. The surgeon 120 may personalize the system 100's response to his head gesture. For example, head movement can be scaled so that a small head tilt turns to a correspondingly large angular shift, or vice versa. Alternatively, the orientation of the HMD 102 controls a cursor (not shown) displayed on the menu 400 that selects a menu item. Manipulating the orientation of the HMD 102 manipulates the cursor, for example, up / down and left / right head movements move the cursor up / down and left / right accordingly. Release of the footswitch 104 activates the system mode corresponding to the currently selected menu item, thereby switching the system mode.

他の実施形態において、アイトラッキングは、メニュー400を制御するために実施され得る。眼部運動は、上記の頭部運動の役割を果たす。メニュー項目を凝視することは、メニュー項目を強調してよく、既定の期間より長く連続的に凝視することは、メニュー項目をアクティブ化してよい。 In other embodiments, eye tracking may be performed to control menu 400. The eye movement plays the role of the above-mentioned head movement. Gaze at a menu item may emphasize the menu item, and staring continuously for longer than a predetermined period may activate the menu item.

システムモード以外の機能を選択するために、追加のメニューがHMD102を介して表示され得る。いくつかのメニュー項目は、選択されると1または複数のサブメニューを表示するために拡大され得る。選択方法は、フットスイッチ104のペダルの1つを押下または解放すること、既定の期間より長くメニュー項目が強調された状態を維持すること、マイクロフォン138によって検出される音声コマンドを用いること、または他の適当なUI方法によって実施され得る。サブメニューに拡大されると、サブメニューが元のメニューと入れ替わってよく、または元のメニューと共に表示され得る。メニューは、たとえばバック/リターンおよびイグジット/キャンセルなどの標準的なメニュー操作項目も含んでよい。 Additional menus may be displayed via the HMD 102 to select functions other than system mode. Some menu items may be expanded to display one or more submenus when selected. The selection method is to press or release one of the pedals of the footswitch 104, keep the menu item highlighted for longer than the default period, use voice commands detected by the microphone 138, or otherwise. It can be carried out by the appropriate UI method of. When expanded to a submenu, the submenu may replace the original menu or be displayed with the original menu. Menus may also include standard menu operation items such as back / return and exit / cancel.

いくつかのメニュー項目は、UI160を介してオンおよびオフに切り替えられ得る。切替え項目は、2つの状態を切り換えるメニューオプションであり、現在表示されているメニューオプションは、現在アクティブではない状態を表す。たとえば、シャッタ132が閉じている場合、シャッタを制御するためのメニューオプションは「シャッタを開く」と現れ、逆も然りである。メニューにおける切替え項目の例を以下に記載する。
○メニューを介して制御可能な基本HMDシステム動作
・ディスプレイ(オン/オフ)。これは、ディスプレイをシャットオンまたはオフにする。ディスプレイがオフにされると、画像は表示されないが、ユーザがディスプレイをオンに戻すことを可能にするためにメニューを呼び出す(すなわち表示する)ことはできる。ディスプレイ状態を制御することは、HMDが透明であるVGS処置において有用である(すなわち、HMDがシャッタを備える場合、この段階でシャッタは開く)。これらの処置において、ユーザは、画像が術野を見ることを邪魔しないように、HMDによるガイダンスを必要としない処置段階においてディスプレイをオフにすることを所望し得る。
・フルスクリーン/仮想スクリーン。フルスクリーン状態において、1つのスクリーンのみがFOVを満たすが、仮想スクリーン状態において、複数の仮想スクリーンが表示される。スクリーン状態は、図5A~5Cに関して更に後述される。
・シャッタ(開/閉)。これは、シャッタ132の状態を制御する。シャッタ132は、たとえばスクリーンの大部分が透明である時に現実世界ビューにオーバレイされた特徴を表示する場合など、部分的に開閉されてもよい。
・赤目照明(オン/オフ)。
・記録(オン/オフ)。これは、外科医120が、後の段階で呼び戻され得る外科処置の一部を記録することを可能にするシステム100の特徴を制御する。
○アドバンスドHMD動作(有効/無効)、以下の1または複数。
・自動フォーカス、
・自動センタリング、
・自動ズーミング。
○HMDディスプレイパラメータ(オン/オフ)。
・表示される各既定のPIPに関するPIPオン/オフ切替え、
・HMD102を介して外部で取得されたデータを表示するための外部データオーバレイ。
・様々な処置固有および段階固有のオーバレイ記号、画像、およびモデル。
・指定ポインタ/カーソル。
○iOCT(オン/オフ)。これは、OCT画像を制御する。
Some menu items can be turned on and off via UI160. The switch item is a menu option that switches between the two states, and the currently displayed menu option represents the currently inactive state. For example, if the shutter 132 is closed, the menu option for controlling the shutter will appear as "Open Shutter" and vice versa. Examples of switching items in the menu are described below.
○ Basic HMD system operation that can be controlled via the menu ・ Display (on / off). This shuts on or off the display. When the display is turned off, the image is not displayed, but the menu can be invoked (ie, displayed) to allow the user to turn the display back on. Controlling the display state is useful in VGS procedures where the HMD is transparent (ie, if the HMD comprises a shutter, the shutter opens at this stage). In these procedures, the user may wish to turn off the display during the procedure phase, which does not require guidance by the HMD, so that the image does not interfere with viewing the surgical field.
-Full screen / virtual screen. In the full screen state, only one screen fills the FOV, but in the virtual screen state, multiple virtual screens are displayed. The screen state will be further described later with respect to FIGS. 5A-5C.
-Shutter (open / closed). This controls the state of the shutter 132. The shutter 132 may be partially opened and closed, for example to display overlay features in a real world view when most of the screen is transparent.
-Red-eye lighting (on / off).
-Recording (on / off). This controls the features of the system 100 that allow the surgeon 120 to record some of the surgical procedures that may be recalled at a later stage.
○ Advanced HMD operation (valid / invalid), one or more of the following.
・ Autofocus,
・ Automatic centering,
-Automatic zooming.
○ HMD display parameters (on / off).
-PIP on / off switching for each default PIP displayed,
An external data overlay for displaying data acquired externally via the HMD 102.
-Various treatment-specific and stage-specific overlay symbols, images, and models.
-Specified pointer / cursor.
○ iOCT (on / off). This controls the OCT image.

いくつかの実施形態において、モード固有メニューに加えて、UI160は、システム100の様々な機能を制御するため専用の固有メニューを表示する。たとえば、UI160は、ズーム、フォーカス、照明、および他の機能の各々を制御するために異なる専用メニューを表示する。各専用メニューは、外科医120が、特定の機能のみに関係するオプションにアクセスすることを可能にする。たとえば、フォーカス機能専用のメニューは、外科医120が、様々な自動フォーカス設定を選択することを可能にする。 In some embodiments, in addition to the mode-specific menu, the UI 160 displays a dedicated menu for controlling various functions of the system 100. For example, the UI 160 displays different dedicated menus to control each of zoom, focus, lighting, and other functions. Each dedicated menu allows the surgeon 120 to access options related only to specific functions. For example, a menu dedicated to the focus function allows the surgeon 120 to select various autofocus settings.

いくつかの実施形態において、外科医120は、メインメニューを介して固有機能専用のメニューにアクセスする。他の実施形態において、外科医120は、たとえばメニューをアクティブ化するためにフットスイッチ104のボタンを2回押下することによって、固有機能専用のメニューに直接アクセスする。たとえば、外科医120は、照明を制御するためのヘッドジェスチャを有効化するフットスイッチ104のボタンにおいて2回の短い押下の後に長い押下を行うことによって、照明機能専用メニューを開いてよい。外科医120は、ヘッドジェスチャまたはアイトラッキングを用いて、本明細書で説明されるような専用メニューをナビゲートし、フットスイッチ104のボタンを解放することによって、強調されたメニューオプションをアクティブ化してよい。 In some embodiments, the surgeon 120 accesses a menu dedicated to the unique function via the main menu. In another embodiment, the surgeon 120 directly accesses the menu dedicated to the unique function, for example by pressing the button of the foot switch 104 twice to activate the menu. For example, the surgeon 120 may open a menu dedicated to lighting functions by performing two short presses followed by a long press on the button of the footswitch 104 that activates a head gesture to control lighting. Surgeon 120 may use head gestures or eye tracking to navigate dedicated menus as described herein and activate highlighted menu options by releasing the button on footswitch 104. ..

いくつかの実施形態において、外科医120は、フットスイッチ104の関連ボタンを部分的にしか押下しないこと(たとえば半分までの押下)によって、またはフットスイッチ104を押下しながら音声コマンドを発することによって、またはフットスイッチ104を押下しながら、たとえば頷きなどのヘッドジェスチャを行うことによって、専用メニューを開く。たとえば、「イエス」のヘッドジェスチャは、有効化された機能(たとえばフォーカス、ズーム、照明など)を制御してよく、「ノー」のヘッドジェスチャは、専用メニューを開いてよい。 In some embodiments, the surgeon 120 issues a voice command by pressing the relevant button on the footswitch 104 only partially (eg, half-pressing), or by pressing the footswitch 104 while issuing a voice command. The dedicated menu is opened by performing a head gesture such as nodding while pressing the foot switch 104. For example, a "yes" head gesture may control enabled features (eg focus, zoom, lighting, etc.), and a "no" head gesture may open a dedicated menu.

たとえば、外科医120が、フォーカス機能を有効化するためにフットスイッチボタンを押下しながら自身の頭部を左右へ向けた場合、たとえば自動フォーカス特徴などのフォーカス機能を制御するための専用メニューがディスプレイ上に出現する。この専用メニューを介して、外科医120は、自動フォーカスが、指定した点、外科用ツールなどに作用するか、および自動フォーカシングがワンタイムであるか連続的であるかを選択してよい。 For example, if the surgeon 120 turns his head to the left or right while pressing the footswitch button to enable the focus function, a dedicated menu for controlling the focus function, such as the autofocus feature, will be displayed on the display. Appears in. Through this dedicated menu, the surgeon 120 may choose whether autofocus acts on a specified point, surgical tool, etc., and whether autofocusing is one-time or continuous.

いくつかの実施形態において、フットスイッチ104を介してアクションを有効化する際、外科医は、連続的な(すなわち滑らかな)アクションを制御するために(自身の頭部を上下に動かすことによって)「イエス」の動きを行うが、左右に向く動きを行うことは、有効化されたアクションと関連する2つの個別アクションをアクティブ化し、または切り替える。あるいは、左へ向くヘッドジェスチャは、個別アクションを切り替えてよく、右へ向くヘッドジェスチャは、専用メニューを開いてよい(または逆も然りである)。 In some embodiments, when enabling an action via the footswitch 104, the surgeon "by moving his head up and down" to control a continuous (ie, smooth) action. Making a "yes" move, but making a left-right move, activates or switches between two individual actions associated with the activated action. Alternatively, a left-pointing head gesture may switch between individual actions, and a right-pointing head gesture may open a dedicated menu (or vice versa).

たとえば、「照明」を有効化する際、上下のヘッドジェスチャは、照明強度を変更し、「左へ向く」ヘッドジェスチャは、2つの個別レベル間で照明を切り替える。たとえば、一方のレベルは「高」であり、他方は「低」であってよい。任意選択的に、これらのレベルは事前に決定され、ユーザによって構成され得る。任意選択的に、外科医が手術中に照明レベルを調整した後、システム100は、照明レベルを記憶し、次に照明アクションが(高から低へ、またはその逆に)切り替えられた時、同じ照明レベルを復元する。この例を続けると、「右」ジェスチャは、照明を「オン」および「オフ」状態の間で切り替える。 For example, when enabling "lighting", the upper and lower head gestures change the lighting intensity, and the "leftward" head gesture switches the lighting between two individual levels. For example, one level may be "high" and the other may be "low". Optionally, these levels are pre-determined and may be configured by the user. Optionally, after the surgeon adjusts the light level during surgery, the system 100 remembers the light level and then the same light when the light action is switched (high to low and vice versa). Restore the level. Continuing this example, the "right" gesture switches the lighting between the "on" and "off" states.

他の例として、「フォーカス」を有効化する際、左ヘッドジェスチャは、自動フォーカス機能の「オン」または「オフ」を切り替えてよく、右ジェスチャは、フォーカス機能を制御するための専用メニューを開いてよい。ここで、開示される技術の実施形態に従って構成され動作可能な、システム設定を示す1または複数のステータスバーを表示するための実装を示す図4D~4Gが参照される。図4D~4Gの図は、単なる典型例であることが意図され、他のシステムインジケータが追加されてよく、または図4Dに示すインジケータと入れ替わってよい。図4Dを参照すると、ステータスバー420は、システム100の様々な設定に関する現在の構成を示す複数の様々な記号を含む。ステータスバー420は、たとえばUI160を介した外科医120による入力に応答して、HMD102を介して表示される。ステータスバー420は、クロック422、ROIインジケータ424、フットスイッチインジケータ426、照明インジケータ428および430、システムモードインジケータ432、および色補正インジケータ434を含む。クロック422は、現在の時刻を表示する。ROIインジケータ424は、ROI全体に対する表示ROIを示す。図4Dにおいて、ROIインジケータ424は、たとえば外科医120が生画像の拡大部分を見るためにズームイン特徴を使用する場合に生じ得る、ROI全体を示す大きな長方形内に位置する、表示ROIを示す小さな長方形を表示していた。現在の倍率を示す数字が表示される。フットスイッチインジケータ426は、フットスイッチ104の利用可能な機能を示す。示された例において、利用可能な機能は、4つのアイコンによって示される。時計回りに移動すると、左上角部のアイコンはXYモータのスクロールを示し、右上角部のアイコンは照明を示し、右下角部のアイコンはフォーカスを示し、左下角部のアイコンはズームを示す。いくつかの実施形態において、フットスイッチ104の現在アクティブな機能を示すアイコンが強調される。照明インジケータ428は、赤目照明が「オン」に設定され、レベルが62であることを示す。照明インジケータ430は、投光照明が「オン」に設定され、レベルが65であることを示す。システムモードインジケータ432は、現在のシステムモードを表示し、この例において、それは後眼部モードである。色補正インジケータ434は、画像に適用された色補正の種類を表示し、この例では、色補正はされていない。ステータスバー420は、たとえばディスプレイの上部または外科医120によって設定された他の任意の位置など、HMD102を介して任意の適当な位置に、両目に表示される場合、任意の深さで表示されてよく、深さは設定され得る。いくつかの実施形態において、ステータスバー420は、パラメータが変更された時のみ表示される。ステータスバー420は、たとえばフィールドの深さ、デジタル利得などの追加のシステム特徴、およびたとえば氏名、年齢、性別、外科医または複数の外科医の氏名を含む患者データ、日付、場所、病院名または医院名などの他の適当なパラメータを含んでよい。 As another example, when enabling Focus, the left head gesture may toggle the autofocus feature on or off, and the right gesture opens a dedicated menu to control the focus feature. You can do it. See here are FIGS. 4D-4G showing implementations for displaying one or more status bars indicating system settings that are configured and operational according to embodiments of the disclosed technology. The figures in FIGS. 4D-4G are intended to be merely exemplary, and other system indicators may be added or replaced with the indicators shown in FIG. 4D. Referring to FIG. 4D, the status bar 420 contains a plurality of different symbols indicating the current configuration for different settings of the system 100. The status bar 420 is displayed via the HMD 102, for example, in response to input by the surgeon 120 via the UI 160. The status bar 420 includes a clock 422, a ROI indicator 424, a footswitch indicator 426, lighting indicators 428 and 430, a system mode indicator 432, and a color correction indicator 434. The clock 422 displays the current time. The ROI indicator 424 indicates a display ROI for the entire ROI. In FIG. 4D, the ROI indicator 424 has a small rectangle indicating the display ROI, which is located within a large rectangle indicating the entire ROI, which can occur, for example, if the surgeon 120 uses the zoom-in feature to see a magnified portion of the raw image. It was displayed. A number indicating the current magnification is displayed. The footswitch indicator 426 indicates the available functionality of the footswitch 104. In the example shown, the available features are indicated by four icons. When moving clockwise, the icon in the upper left corner indicates scrolling of the XY motor, the icon in the upper right corner indicates lighting, the icon in the lower right corner indicates focus, and the icon in the lower left corner indicates zoom. In some embodiments, the icon indicating the currently active function of the footswitch 104 is highlighted. Illumination indicator 428 indicates that red-eye illumination is set to "on" and the level is 62. The illumination indicator 430 indicates that the floodlight is set to "on" and the level is 65. The system mode indicator 432 indicates the current system mode, in this example it is the posterior eye mode. The color correction indicator 434 indicates the type of color correction applied to the image, and in this example, no color correction is performed. The status bar 420 may be displayed at any depth, if visible to both eyes, at any suitable position via the HMD 102, for example at the top of the display or any other position set by the surgeon 120. , Depth can be set. In some embodiments, the status bar 420 is displayed only when the parameters are changed. The status bar 420 includes additional system features such as field depth, digital gain, and patient data including name, age, gender, name of surgeon or multiple surgeons, date, location, hospital name or clinic name, etc. Other suitable parameters may be included.

ここで、現在のシステム構成を外科医120に示すステータスバー420がオーバレイされた、外科処置を受けている患者の目の生画像を示す図4Eが参照される。 See FIG. 4E, which shows a raw image of the eyes of a patient undergoing surgery, with the status bar 420 overlaying the current system configuration to surgeon 120.

ここで、ステータスバー420に加えて、第2のステータスバー442がオーバレイされた図4Eの生画像を示す図4Fが参照される。この典型的な実装において、ステータスバー442は、照明設定に対する最新の変更を示す弓形である。ステータスバー442は、照明になされた変更に応答して、システム100の現在の設定について外科医120に最新情報を与えるために表示される。 Here, in addition to the status bar 420, FIG. 4F showing the raw image of FIG. 4E overlaid with the second status bar 442 is referenced. In this typical implementation, the status bar 442 is a bow indicating the latest changes to the lighting settings. The status bar 442 is displayed to keep the surgeon 120 up to date on the current settings of the system 100 in response to changes made to the lights.

ここで、外科処置を受けている患者の目の他の生画像444を示す図4Gが参照される。ステータスバー446およびステータスバー448が生画像444上に表示される。ステータスバー446は、図4Eのステータスバー420とは異なって構成される。ステータスバー448は、たとえばフェイコビトレクトミーマシンなどの外部デバイスがシステム100に接続されると出現し、外部デバイスに対応するシステム設定を表示する。いくつかの実施形態において、ユーザは、ステータスバー420を継続的に表示するように、またはユーザ入力やモード変更に応答してステータスバー420を隠すようにシステム100を構成してよい。いくつかの実施形態において、デフォルト設定は、ステータスバー420を継続的に表示することである。いくつかの実施形態において、システム100は、ステータスバー420に加えて複数の様々なステータスバー(不図示)を提供する。各ステータスバーは、異なって構成されてよく、1または複数のステータスバーが、連続的に表示されるように構成され、1または複数のステータスバーが、パラメータ変更のいずれかに応答して、ユーザ入力に応答して、外部デバイスの検出に応答してなどで表示される。 Here, reference is made to FIG. 4G showing another raw image 444 of the eye of a patient undergoing surgery. A status bar 446 and a status bar 448 are displayed on the raw image 444. The status bar 446 is configured differently from the status bar 420 of FIG. 4E. The status bar 448 appears when an external device, such as a Facobitrectomy machine, is connected to the system 100 and displays the system settings corresponding to the external device. In some embodiments, the user may configure the system 100 to continuously display the status bar 420 or to hide the status bar 420 in response to user input or mode changes. In some embodiments, the default setting is to display the status bar 420 continuously. In some embodiments, the system 100 provides a plurality of different status bars (not shown) in addition to the status bar 420. Each status bar may be configured differently, with one or more status bars configured to display continuously, with one or more status bars responding to any of the parameter changes to the user. Displayed in response to input, in response to detection of an external device, and so on.

いくつかの実施形態において、システム100は、フェイコプローブが水晶体嚢の中心にない時、リマインダまたは警報を発してよい。いくつかの実施形態において、システム100は、選択された外科技術に依存して、たとえばチョッパがフェイコプローブの下に位置していない場合、リマインダまたは警報を発してよい。システム100は、たとえば画像処理を介して検出され得るように、後嚢がフェイコの方へ吸い込まれた場合、外科用器具の吸引を自動的に停止し得る。システム100は、外科処置の画像の処理、iOCTデータの解析、目の術前または術中モデルの解析などのいずれかを用いて患者120とツールとの間の距離を計算するために、外科医120によって使用される外科用ツールを追跡してよい。 In some embodiments, the system 100 may issue a reminder or alarm when the facoprobe is not in the center of the capsular bag. In some embodiments, the system 100 may issue a reminder or alarm, depending on the surgical technique selected, for example if the chopper is not located under the facoprobe. The system 100 may automatically stop aspiration of the surgical instrument if the posterior capsule is aspirated towards the faco, as can be detected, for example via image processing. The system 100 is used by the surgeon 120 to calculate the distance between the patient 120 and the tool using any of the processing of images of the surgical procedure, the analysis of iOCT data, the analysis of preoperative or intraoperative models of the eye, and the like. The surgical tools used may be tracked.

いくつかの実施形態において、システム100は、たとえば生画像に画像処理技術を適用すること、術中OCTデータ(iOCT)に画像処理技術を適用することなどによって、1または複数の外科用ツールを追跡してよい。システム100は、光学追跡または電磁追跡などに基づく専用ツール追跡サブシステムを有してよい。任意選択的に、ツール追跡サブシステムは、目の術前または術中モデルにも基づく。 In some embodiments, the system 100 tracks one or more surgical tools, for example by applying image processing techniques to raw images, applying image processing techniques to intraoperative OCT data (iOCT), and the like. It's okay. The system 100 may have a dedicated tool tracking subsystem based on optical tracking, electromagnetic tracking, etc. Optionally, the tool tracking subsystem is also based on preoperative or intraoperative models of the eye.

ツール追跡機能は、様々な特徴のために用いられ得る。たとえば、ツール追跡は、ユーザが、外科処置中に電子ペンとして用いられる外科用ツールを使用することを可能にする。これは、監督外科医が執刀医をガイドするために生画像にマーキングを施し得る教示モードにおいて役立ち得る。UI160は、外科医120が、たとえば音声コマンド、フットスイッチ104などを介して、描画特徴をオンまたはオフに切り換えることを可能にする。あるいは、物理的ツールがシステム100とペアにされ、仮想ボタンを押下するため、またはHMD102を介して表示されたメニュー項目を選択するため、たとえば後眼部処置において網膜周囲に、または前眼部処置において目の周囲に表示され、または手術室内のどこかに表示されたメニューから項目を選択するために用いられ得る。 The tool tracking function can be used for various features. For example, tool tracking allows the user to use a surgical tool that is used as an electronic pen during a surgical procedure. This can be useful in a teaching mode where the supervising surgeon can mark the raw image to guide the surgeon. The UI 160 allows the surgeon 120 to switch drawing features on or off, for example via voice commands, footswitch 104, and the like. Alternatively, a physical tool is paired with the system 100 to press a virtual button or to select a menu item displayed via the HMD 102, eg, around the retina in posterior ocular surgery, or anterior ocular treatment. Can be used to select an item from a menu displayed around the eye or displayed anywhere in the operating room.

ツール追跡機能は、ツールの先端と、患者、たとえば眼科手術の場合は網膜との間の距離を検出し、示すために用いられ得る。ツール追跡機能は、たとえば水晶体吸引を自動的に停止することなどの自動安全対策を開始するために用いられ得る。ツール追跡機能は、処置中、外科医120をガイドするために用いられ得る。これらの例は、単なる典型例として意図され、この機能を与えられた特定の例に限定するものではない。 The tool tracking feature can be used to detect and indicate the distance between the tip of the tool and the patient, eg, the retina in the case of eye surgery. The tool tracking function can be used to initiate automatic safety measures, such as automatically stopping lens aspiration. The tool tracking function can be used to guide the surgeon 120 during the procedure. These examples are intended as merely exemplary and are not limited to a particular example given this function.

ここで、ユーザインタフェース160を介して制御可能なシステム特性の説明を以下に示す。留意すべき点として、いくつかのシステム特性は、モードを切り換える時にユーザによって間接的に制御される。たとえば、異なるモードへの切換えは、カメラヘッド110の位置決め、またはカメラのアクティブ化、または照明器を変更し得る。ユーザは、これらの設定を直接調整することができず、システムモードおよびシステム100に内在する他の設定を切り換えることによって間接的にしか調整することができない場合がある。このリストは限定を意図しない。各システムモードは、以下のシステム特性の2つ以上によって特徴付けられる。
‐ディスプレイ状態(オン/オフ)、
‐スクリーン状態(ディスプレイ/世界固定)、
‐シャッタ状態(開/閉)、
‐表示コンテンツの選択(生画像/術前/他)、
‐照明状態、
‐色補正スキーム、
‐画像増強スキーム、
‐眼部反転状態、
‐モータ速度状態、
‐モータ境界状態、
‐ピクチャインピクチャ(PIP)の表示(オン/オフ)
‐ユーザインタフェース設定、
‐ディスプレイオーバレイ、および
‐iOCT設定。
Here, a description of the system characteristics that can be controlled via the user interface 160 is shown below. It should be noted that some system characteristics are indirectly controlled by the user when switching modes. For example, switching to a different mode may position the camera head 110, activate the camera, or change the illuminator. The user may not be able to adjust these settings directly, but only indirectly by switching between the system mode and other settings inherent in the system 100. This list is not intended to be limited. Each system mode is characterized by two or more of the following system characteristics:
-Display status (on / off),
-Screen status (display / world fixed),
-Shutter state (open / closed),
-Selection of display content (raw image / preoperative / other),
-Lighting conditions,
-Color correction scheme,
-Image enhancement scheme,
-Eye inversion,
-Motor speed state,
-Motor boundary state,
-Display (on / off) picture-in-picture (PIP)
-User interface settings,
-Display overlay, and-iOCT settings.

HMD102に関するディスプレイ状態は、「オン」または「オフ」に設定されてよく、モジュール130に関するデフォルトディスプレイ状態は、「オン」である。ディスプレイがオフにされると、コンピュータ118は、ディスプレイモジュール130Aおよび130Bに関する画像ソースを停止する。あるいは、コンピュータ118は、HMD102へ黒画像をストリーミングする。 The display state for the HMD 102 may be set to "on" or "off" and the default display state for the module 130 is "on". When the display is turned off, the computer 118 shuts down the image source for the display modules 130A and 130B. Alternatively, the computer 118 streams the black image to the HMD 102.

HMD102に関するスクリーン状態は、画像およびコンテンツがどのように外科医120に表示されるかを定義する。HMD102に関して、フルスクリーンディスプレイ固定状態および仮想スクリーン世界固定状態という2つのスクリーン状態が存在する。フルスクリーンディスプレイ固定状態において、画像は、HMD102にしっかり吊り下げられたスクリーンに表示されているように出現し、表示画像は、固定されたままで外科医120と共に移動する。これがデフォルト状態である。世界固定状態において、1または複数の仮想スクリーンは、手術室に固定されているかのように表示される。外科医120が自身の頭部を動かすと、表示コンテンツは、表示コンテンツの一部がHMD102のFOVを出入りするように変化する。 The screen condition with respect to the HMD 102 defines how the image and content are displayed to the surgeon 120. With respect to the HMD 102, there are two screen states, a full screen display fixed state and a virtual screen world fixed state. In the full-screen display fixed state, the image appears as displayed on a screen firmly suspended from the HMD 102, and the displayed image moves with the surgeon 120 while remaining fixed. This is the default state. In the world fixed state, one or more virtual screens are displayed as if they were fixed in the operating room. When the surgeon 120 moves his head, the display content changes such that a portion of the display content moves in and out of the FOV of the HMD 102.

ここで、開示される技術の他の実施形態に従って構成され動作可能な、ディスプレイモジュール130がディスプレイ固定状態である時、外科医120によって知覚されるような投影画像を示す図5Aが参照される。図5Aは、フルスクリーンディスプレイ固定状態で表示された画像500および502を示す。HMD102の視野は、カメラシステム112を介して取得された生拡大画像で満たされ、外科医120の頭部に固定されているかのように表示される。要素512および514は、外科医120の頭部の向きを示す。要素512および514の破線矢印は、正面を向いた向きを示す。画像500に関する要素512の実線矢印は、外科医120の向きが正面を向いた向きから5°右であることを示す。画像502に関する要素514の実線矢印は、外科医120の向きが正面を向いた向きから25°右であることを示す。向きを変えるために自身の頭部を動かすことにより、スクリーンが自身の頭部に固定されているかのように、視野内に出現する画像が変わるのではなく、ヘッドジェスチャを行うと同時に自身と共に動く。 Here, reference is made to FIG. 5A showing a projected image as perceived by the surgeon 120 when the display module 130 is in a fixed display state, configured and operable according to other embodiments of the disclosed technique. FIG. 5A shows images 500 and 502 displayed in a fixed state on a full screen display. The field of view of the HMD 102 is filled with a live magnified image acquired via the camera system 112 and is displayed as if it were fixed to the head of the surgeon 120. Elements 512 and 514 indicate the orientation of the surgeon 120's head. Dashed arrows on elements 512 and 514 indicate frontal orientation. The solid arrow of element 512 with respect to image 500 indicates that the surgeon 120 is oriented 5 ° to the right of the front facing orientation. The solid arrow of element 514 with respect to image 502 indicates that the surgeon 120 is oriented 25 ° to the right of the frontal orientation. By moving one's head to turn, the image that appears in the field of view does not change as if the screen is fixed to one's head, but moves with oneself at the same time as performing a head gesture. ..

ここで、全体として、開示される技術の更なる実施形態に従って構成され動作可能な、各々が外科医120の頭部の異なる位置および向きに対応する、それぞれHMD102を介して仮想スクリーン世界固定状態で表示された2つのビュー504および506を示す図5B~5Cが参照される。図5B~5Cに示すビューにおいて、2つの隣接した仮想スクリーン508および510は、外科医120から同じ距離から、同じ(仮想)サイズを有して表示される。他の実施形態において、様々な(仮想)サイズ、位置および距離を有する複数の仮想スクリーンが用いられ得る。外科医120は、世界固定仮想スクリーン508および510の両方を介して表示された画像を同時に見る。仮想スクリーン508は、術野の生ビデオを表示し、仮想スクリーンは、術前データを表示する。 Here, as a whole, displayed in a virtual screen world fixed state via the HMD 102, each configured and operable according to a further embodiment of the disclosed technique, each corresponding to a different position and orientation of the surgeon 120's head. See FIGS. 5B-5C showing the two views 504 and 506 made. In the views shown in FIGS. 5B-5C, the two adjacent virtual screens 508 and 510 are displayed with the same (virtual) size from the same distance from the surgeon 120. In other embodiments, multiple virtual screens with different (virtual) sizes, positions and distances may be used. Surgeon 120 simultaneously views images displayed through both world fixed virtual screens 508 and 510. The virtual screen 508 displays a live video of the surgical field, and the virtual screen displays preoperative data.

ビュー504および506の各々は、仮想スクリーン508を介して表示された生画像フィード、および仮想スクリーン510を介して表示された対応する術前データを含む。仮想スクリーン504および506は、手術室(OR)内の固定位置に設置されたモニタであるかのように出現する。図5Aに示すように、図5B~5Cの要素512および514はそれぞれ、外科医120の頭部の向きを示す。要素512および514の破線矢印は、正面を向いた向きを示す。ビュー504(図5B)に関する要素512の実線矢印は、外科医120の向きが正面を向いた向きから5°右であることを示す。ビュー506(図5C)に関する要素514の実線矢印は、外科医120の向きが正面を向いた向きから25°右であることを示す。 Each of views 504 and 506 contains a raw image feed displayed via virtual screen 508 and corresponding preoperative data displayed via virtual screen 510. The virtual screens 504 and 506 appear as if they were monitors installed in a fixed position within the operating room (OR). As shown in FIG. 5A, the elements 512 and 514 of FIGS. 5B-5C indicate the orientation of the head of the surgeon 120, respectively. Dashed arrows on elements 512 and 514 indicate frontal orientation. The solid arrow of element 512 with respect to view 504 (FIG. 5B) indicates that the surgeon 120 is oriented 5 ° to the right of the frontal orientation. The solid arrow of element 514 for view 506 (FIG. 5C) indicates that the surgeon 120 is oriented 25 ° to the right of the frontal orientation.

示されるように、図5Cのビュー506は、外科医120の右方向への頭部運動に対応する、図5Bのビュー594に対して左にシフトされたかのように出現する。ビュー506(図5B)内の仮想スクリーン508は、ビュー504(図5C)内の仮想スクリーン508よりも小部分の生ビデオを示し、ビュー506(図5C)内の仮想スクリーン510は、ビュー504(図5B)内の仮想スクリーン510よりも大部分の術前データを示す。自身の頭部を左右に動かすことによって、外科医120は、仮想スクリーン508および510に同時に表示されたデータをスクロールし、必要に応じて、各々においてより大部分または小部分を見ることが可能である。精密な世界固定スクリーンの実装は、全体位置および向き追跡を実施するためのトラッキング部品134を備える6自由度(DOF)ヘッドジェスチャトラッカを用いて実現され得る。いくつかの実施形態において、仮想スクリーンモードは、たとえばスクリーンの絶対位置が必要ではない場合、頭部の向きのみをサポートする3-DOFトラッカを用いて実装され得る。 As shown, view 506 of FIG. 5C appears as if shifted to the left with respect to view 594 of FIG. 5B, which corresponds to the surgeon 120's rightward head movement. The virtual screen 508 in view 506 (FIG. 5B) shows a smaller portion of the live video than the virtual screen 508 in view 504 (FIG. 5C), and the virtual screen 510 in view 506 (FIG. 5C) is view 504 (FIG. 5C). Shows most of the preoperative data than the virtual screen 510 in FIG. 5B). By moving his head from side to side, the surgeon 120 can scroll through the data displayed simultaneously on the virtual screens 508 and 510 to see more or less of each as needed. .. Implementation of a precise world fixed screen can be achieved using a 6 degrees of freedom (DOF) head gesture tracker with tracking components 134 for performing global position and orientation tracking. In some embodiments, the virtual screen mode may be implemented with a 3-DOF tracker that only supports head orientation, for example if the absolute position of the screen is not required.

ここで、開示される技術の他の実施形態に従って構成され動作可能な、仮想スクリーン状態の典型的な実装を示す図5Dが参照される。図1Aの外科医120は、HMD102を装着し、患者122に手術をしながら、図5B~5Cの2つの仮想スクリーン508および510を観察する。仮想スクリーン508は、カメラ140Aおよび140B(図1E)によって取得された生画像フィードを表示し、仮想スクリーン510は、手術室内に配置された他のモニタに表示されているかのように出現する術前データを投影する。HMD102を介して表示されるコンテンツは、システムモードによって決定され得る。表示されるコンテンツに関するオプションは、カメラシステム112を介して取得された生画像ストリーム(デフォルト)、術前データ(たとえば患者に関する医療画像および/またはデータ)、術中データ(すなわち、たとえばフェイコビトレクトミーシステムなどの他のデバイスからのデータ)、内視鏡カメラ(不図示)から提供された生画像ストリームを含んでよい。いくつかの実施形態において、オプションは更に、外科医120が、並行した手術の進捗を追うことを可能にする、隣接する手術室内の同様のシステムから取得された生画像ストリームを見ること、待機室内に設置されたWi-Fiカメラから提供された生画像ストリーム、手術中に参照するための画像およびビデオのクラウドベースのライブラリの閲覧などを提供する。カメラ140Aおよび140Bによって取得され、HMD102を介して投影されるビデオは、3Dである。外科医120の各目は、対応するカメラからのビデオフィードを見る。HMD102を介した他のビデオおよび画像表示は、2Dまたは3Dのいずれかであってよい。たとえば、クラウドベースのライブラリからのビデオは3Dであってよく、術前画像は2Dであってよい。 Here, reference is made to FIG. 5D showing a typical implementation of a virtual screen state configured and operational according to other embodiments of the disclosed technology. Surgeon 120 of FIG. 1A wears the HMD 102 and observes the two virtual screens 508 and 510 of FIGS. 5B-5C while operating on patient 122. The virtual screen 508 displays the raw image feed acquired by the cameras 140A and 140B (FIG. 1E), and the virtual screen 510 appears preoperatively as if it were displayed on another monitor located in the operating room. Project the data. The content displayed via the HMD 102 may be determined by the system mode. Options for displayed content include raw image streams (default) acquired via the camera system 112, preoperative data (eg medical images and / or data about the patient), intraoperative data (ie, eg, Facobitrectomy system). Data from other devices such as), raw image streams provided by an endoscopic camera (not shown) may be included. In some embodiments, the option further allows the surgeon 120 to view the raw image stream taken from a similar system in the adjacent operating room, allowing the surgeon 120 to track the progress of parallel surgery, in the waiting room. It provides a live image stream provided by an installed Wi-Fi camera, browsing a cloud-based library of images and videos for reference during surgery, and more. The video acquired by the cameras 140A and 140B and projected via the HMD 102 is 3D. Each eye of the surgeon 120 sees a video feed from the corresponding camera. Other video and image displays via the HMD 102 may be either 2D or 3D. For example, video from a cloud-based library may be 3D and preoperative images may be 2D.

HMD102(図1C)のシャッタ132のシャッタ状態は、開かれ、または閉じられてよく、顕微鏡手術におけるデフォルト状態は、閉じた状態である。シャッタ132が閉じている時、ディスプレイモジュール130は不透明であり、外科医120が、表示画像のコントラストを低下させる表示画像の後側の周囲光を見ることなく、HMD102を介して表示された画像を見ることを可能にする。シャッタ132が開いている時、ディスプレイモジュール130は透明であり、外科医120が現実世界ビューを見ることを可能にする。シャッタ132が部分的に開いている時、ディスプレイモジュールは、たとえば拡張現実型アプリケーションにおいてVGS処置中にPIP内に1または複数の特徴を表示する時、ピクチャインピクチャ(PIP)の後側の背景を隠してPIP内の画像のコントラストを増強するために、シャッタ132が開いている部分が透明であり、シャッタ132が閉じている部分が不透明である。 The shutter state of the shutter 132 of the HMD 102 (FIG. 1C) may be open or closed, and the default state in microsurgery is the closed state. When the shutter 132 is closed, the display module 130 is opaque and the surgeon 120 sees the image displayed through the HMD 102 without seeing the ambient light behind the display image which reduces the contrast of the display image. Make it possible. When the shutter 132 is open, the display module 130 is transparent, allowing the surgeon 120 to see the real world view. When the shutter 132 is partially open, the display module displays the background behind the picture-in-picture (PIP) when displaying one or more features within the PIP, for example in an augmented reality application during a VGS procedure. The portion where the shutter 132 is open is transparent and the portion where the shutter 132 is closed is opaque in order to conceal and enhance the contrast of the image in the PIP.

照明システム114に関する個別の照明状態は、投光照明をオン、オフ、またはローに選択すること、同軸照明をオン、オフ、またはローに選択すること、自動照明状態を選択することを含む。照明システム114は更に、連続照明状態を含む。自動照明が有効化されると、システム100は、画像ヒストグラム解析、他の画像処理解析、HMD102の位置および向き、外科処置の進捗、および追加のパラメータの関数として照明を自動的に調整する。自動照明に関する設定は、有効および無効(デフォルト)を含む。 Individual lighting states for the lighting system 114 include selecting floodlights on, off, or low, selecting coaxial lighting on, off, or low, and selecting automatic lighting conditions. The lighting system 114 further includes a continuous lighting condition. When automatic lighting is enabled, the system 100 automatically adjusts the lighting as a function of image histogram analysis, other image processing analysis, HMD102 position and orientation, surgical procedure progress, and additional parameters. Settings for automatic lighting include enable and disable (default).

自動センタリング状態が有効化されると、システム100は、システムモードに依存する既定の設定に従って拡大画像を自動的にセンタリングする。たとえば、前眼部モードにおいて、センタリングはXYモータを用いて行われてよく、後眼部モードにおいて、センタリングは、全体撮像フレームから得た表示ROIを変更することによってデジタルに、または患者の眼球が動いた時にXYモータを用いることによって行われ得る。センタリングは、センタリング特性を規定する既定の設定に従って画像解析に基づく。自動センタリングに関する設定は、
○有効、
○無効(デフォルト)
を含む。
When the automatic centering state is enabled, the system 100 will automatically center the magnified image according to the default settings that depend on the system mode. For example, in anterior eye mode, centering may be performed using an XY motor, and in posterior eye mode, centering may be performed digitally by changing the display ROI obtained from the entire imaging frame, or by the patient's eyeball. This can be done by using an XY motor when in motion. Centering is based on image analysis according to the default settings that define the centering characteristics. Settings related to automatic centering are
○ Valid,
○ Disabled (default)
including.

オートフォーカシングが有効化されると、システム100は、ユーザ嗜好に従って拡大画像に自動的にフォーカスする。ユーザは、(カメラヘッドまたは患者が移動した場合)システムが次にロックし、フォーカスした状態に維持する術野内の点を指定してよい。あるいは、ユーザは、ツールの先端に自動的にフォーカスするように選択してよい。後眼部処置において、ユーザは、照明された領域の中心に自動的にフォーカスするように選択してよい。自動フォーカシングに関する設定は、
○ロック、
○ツールチップ、
○中心、
○無効(デフォルト)
を含んでよい。
When auto-focusing is enabled, the system 100 will automatically focus on the magnified image according to user preference. The user may specify a point in the surgical field that the system then locks and remains in focus (if the camera head or patient moves). Alternatively, the user may choose to automatically focus on the tip of the tool. In the posterior eye procedure, the user may choose to automatically focus on the center of the illuminated area. Settings related to automatic focusing are available.
○ Lock,
○ Tooltip,
○ Center,
○ Disabled (default)
May include.

様々な色補正スキームが、システムモードを介して有効化され得る。たとえば、オプションは、
○投光照明のための補正(デフォルト)、
○様々なファイバ照明源のための補正、
○様々な染料を用いる時の増強のための補正、および
○ユーザ構成可能な配色
を含む。
Various color correction schemes can be enabled via system mode. For example, the option is
○ Correction for floodlight (default),
○ Correction for various fiber lighting sources,
○ Includes corrections for enhancement when using various dyes, and ○ user-configurable color schemes.

眼部反転状態は、システムモードを介して間接的に制御される。ノーマル状態(デフォルト)において、左カメラ140Bからのビデオストリームは、外科医120の左目にストリーミングされ、右カメラ140Aからのビデオストリームは、右目にストリーミングされる。反転状態は一般に、非接触レンズを用いる後眼部眼科処置のために用いられる。反転状態において、左カメラ140Bからのビデオストリームは、外科医120の右目にストリーミングされ、右カメラ140Aからのビデオストリームは、左目にストリーミングされる。画像もまた180度回転される。 The eye inversion state is indirectly controlled via the system mode. In the normal state (default), the video stream from the left camera 140B is streamed to the left eye of the surgeon 120, and the video stream from the right camera 140A is streamed to the right eye. The inverted state is commonly used for posterior ophthalmic procedures with non-contact lenses. In the inverted state, the video stream from the left camera 140B is streamed to the surgeon 120's right eye and the video stream from the right camera 140A is streamed to the left eye. The image is also rotated 180 degrees.

モータ速度状態は、カメラシステム112に関するカメラフォーカス、カメラヘッド110に関するX、Y、およびZ位置などを制御する、システム100の様々なモータに関するパラメータを定義する。この状態に関するオプションは、高速/低速を含む。 The motor speed state defines parameters for various motors of the system 100 that control camera focus for the camera system 112, X, Y, and Z positions for the camera head 110 and the like. Options for this state include high speed / low speed.

モータ境界状態は、カメラヘッド位置決め器111内に統合されたモータの各々に関する自由度を制限する。オプションは、フルモーションおよびリミテッドモーションを含む。 The motor boundary state limits the degree of freedom for each of the motors integrated within the camera head positioner 111. Options include full motion and limited motion.

ピクチャインピクチャ(PIP)の表示は、外科医120によって制御される。各PIPに関するオプションは、オフ(デフォルト)、オン、その他を含む。外科医120は、PIPの数およびPIP位置に関するいくつかの既定のオプションを定義し、各システムモードにおいてどのオプションが有効であるか、および各システムモードにおいて各PIP内にどのコンテンツが表示されるかを決定してよい。 The display of the picture-in-picture (PIP) is controlled by the surgeon 120. Options for each PIP include off (default), on, and more. Surgeon 120 defines some default options for the number of PIPs and PIP location, which options are valid in each system mode, and what content is displayed in each PIP in each system mode. You may decide.

どのアクションがどのユーザ入力に対応するかを定義するユーザインタフェース設定は、外科医120によって、または他のオペレータによってカスタマイズされ得る。いくつかの実施形態において、ユーザインタフェースに関する様々な設定は、タッチスクリーン108を介して制御される。ユーザインタフェース設定のためのオプションは、以下を含む。
○フットスイッチ104に関する設定。これらの設定は、フットスイッチ104の各ボタンまたはペダル104A、104B、および104Cに、どのコマンドが属するかを定義する。
○ヘッドジェスチャ定義。これらの設定は、外科医120による各ヘッドジェスチャにどのコマンドが属するかを定義する。
○メニュー定義。これらの設定は、外科医120によってメニューが呼び出された時にどのオプションが出現するかを定義する。
○音声コマンド設定。これらの設定は、音声コマンド機能状態(オン/オフ)を切り換え、外科医120が、必要に応じて、システム100の音声制御特徴をオンまたはオフに切り換えることを可能にする。音声コマンド設定は、外科医120によって好まれるコマンドをコンピュータに習熟させるために、たとえば機械学習などの既知の技術を用いてパーソナライズされ得る。
User interface settings that define which actions correspond to which user inputs can be customized by the surgeon 120 or by other operators. In some embodiments, various settings for the user interface are controlled via the touch screen 108. Options for user interface settings include:
○ Settings related to the foot switch 104. These settings define which command belongs to each button or pedal 104A, 104B, and 104C of the footswitch 104.
○ Head gesture definition. These settings define which command belongs to each head gesture by the surgeon 120.
○ Menu definition. These settings define which options appear when the menu is called by the surgeon 120.
○ Voice command settings. These settings toggle the voice command function state (on / off) and allow the surgeon 120 to switch the voice control feature of the system 100 on or off as needed. Voice command settings can be personalized using known techniques such as machine learning to familiarize the computer with the commands preferred by the surgeon 120.

理解すべき点として、このリストは単なる典型例であり、網羅的であることは意図されない。 It should be understood that this list is just a classic and is not intended to be exhaustive.

コンピュータ118は、外科処置中に外科医120をガイドするための様々なオーバレイ記号の表示を制御する。ディスプレイオーバレイ設定は、HMD102を介して表示された画像にどの記号がオーバレイされるかを定義し、外科医120によってカスタマイズされ得る。 The computer 118 controls the display of various overlay symbols to guide the surgeon 120 during the surgical procedure. The display overlay settings define which symbols are overlaid on the image displayed via the HMD 102 and can be customized by the surgeon 120.

追加の設定は、たとえばカメラヘッド110に追加のカメラまたはセンサ(不図示)を付属させることなど、他のシステム特性を制御してよい。たとえば、iOCT設定を介して、外科医は、iOCT画像取得を制御する。設定は、オフ(デフォルト)、オン、iOCTスキャナ動作、たとえば前眼部対後眼部モードなどのモード固有設定などを含む。 Additional settings may control other system characteristics, such as attaching an additional camera or sensor (not shown) to the camera head 110. For example, through the iOCT setting, the surgeon controls the iOCT image acquisition. Settings include off (default), on, iOCT scanner operation, such as mode-specific settings such as anterior-eye vs. posterior-eye mode.

システム100は、外科医120が、HMD102を介して表示された生画像フィード上にオーバレイする解剖学ベースのデータを見ることを可能にする。外科医120は、生ビデオフィードへのデータのオーバレイを、邪魔にならないようにカスタマイズすることができる。設定は、たとえばオーバレイされたデータをオンおよびオフに切り替えること、オーバレイの一部のみを示すこと、およびオーバレイ境界線を手動で動かすことなどのカスタマイズを可能にする。 The system 100 allows the surgeon 120 to see the anatomy-based data overlaid on the raw image feed displayed via the HMD 102. Surgeon 120 can customize the overlay of data to the live video feed out of the way. The settings allow customization, such as turning overlay data on and off, showing only part of the overlay, and manually moving the overlay border.

解剖学ベースのデータは、生拡大画像に合わせて表示され、ここで「位置合わせ」は、解剖学ベースのデータと、カメラ140Aおよび140Bによって取得された生拡大立体画像との空間的関係を保存することとして理解される。本明細書における「位置合わせ」という用語の使用は、画像位置合わせに関して従来の文脈で理解されるものよりも広い意味を捉えることが意図される。画像の位置合わせは、1つの画像の少なくとも一部の、他の画像の少なくとも一部に対する変換または整合に関する。本明細書で行われる位置合わせは更に、たとえば類似の特徴を識別することなどの任意の適当な技術を用いて、2つの画像上の対応する位置を正確に特定することを含み、必ずしも2つの画像の少なくとも一部を一致させることを伴うものではない。 The anatomy-based data is displayed along with the raw magnified image, where "alignment" preserves the spatial relationship between the anatomical-based data and the raw magnified stereoscopic images acquired by the cameras 140A and 140B. It is understood as to do. The use of the term "alignment" herein is intended to capture a broader meaning than is understood in the traditional context with respect to image alignment. Image alignment relates to conversion or alignment of at least a portion of one image with respect to at least a portion of another image. The alignment performed herein further comprises accurately identifying the corresponding positions on the two images using any suitable technique, such as identifying similar features, and not necessarily two. It does not involve matching at least part of the image.

位置合わせは、事前較正、およびカメラ140Aおよび140Bによってリアルタイムで取得された画像内で検出された特徴に対する解剖学ベースのデータ内の特徴のマッチングに基づき得る。2つのカメラ140Aおよび140Bは、事前較正されるので、カメラ140Aおよび140Bによって撮像された各特徴の方向および深さ(すなわち位置)を計算することができ、また逆も然りであり、特徴または記号は、カメラ140Aおよび140Bに対する所望の位置に出現するように生画像の各々にオーバレイされ得る。本明細書で定義される位置合わせは、解剖学的構造のモデルがトラッカ座標系に位置合わせされるバイザーガイド手術(VGS)またはナビゲーション処置と混同されてはならない。いくつかの実施形態において、解剖学的データと生画像との対応性は、位置関連データを用いて確立される。解剖学的データと表示画像との対応性は、たとえば術前データとリアルタイムデータとをマッピングする位置データを用いて、追跡以外の技術を用いて保存され得る。 Alignment may be based on pre-calibration and matching of features in anatomy-based data to features detected in images acquired in real time by cameras 140A and 140B. The two cameras 140A and 140B are precalibrated so that the orientation and depth (ie position) of each feature imaged by the cameras 140A and 140B can be calculated and vice versa, the feature or The symbol can be overlaid on each of the raw images to appear in the desired position relative to the cameras 140A and 140B. Alignment as defined herein should not be confused with visor-guided surgery (VGS) or navigation procedures in which a model of anatomical structure is aligned to the tracker coordinate system. In some embodiments, the correspondence between anatomical data and raw images is established using position-related data. Correspondence between anatomical data and displayed images can be stored using techniques other than tracking, for example with position data that maps preoperative and real-time data.

解剖学ベースの特徴は、OCT画像(術前および術中の両方)、たとえば網膜厚さマップなどの網膜の2Dマップ、ボリュメトリックOCT走査から導出された網膜上膜の3Dモデル、角膜トポグラファによって生成された角膜の3Dモデル、目に対するトーリック眼内レンズ(IOL)の所望の向き、外科医によって患者の網膜の2D画像にマークされた事前計画情報、監督外科医によって作成された術中マーキングなどを含んでよい。 Anatomy-based features are generated by OCT images (both preoperative and intraoperative), 2D maps of the retina, such as reticulated thickness maps, 3D models of the epiretinal membrane derived from volumetric OCT scans, and corneal topographers. It may include a 3D model of the cornea, the desired orientation of the toric intraocular lens (IOL) with respect to the eye, pre-planning information marked on the 2D image of the patient's retina by the surgeon, intraoperative markings made by the supervising surgeon, and the like.

いくつかの実施形態において、手術の1つの段階において1つの倍率で撮影された網膜のスナップショットは、より高い倍率で行われる手術の後の段階のためのミニマップとして用いられる。網膜手術中、外科医は一般に、網膜の付近で保持された時に網膜の小部分のみを照明するファイバ照明を用いる。ミニマップは、より高い倍率で作業する時に、より良い空間識を可能にする。ミニマップはPIP内に表示され、ミニマップ上にオーバレイされた円形(または他の)記号は、スナップショット上の照明エリアの位置を示す。リアルタイム位置合わせアルゴリズムは、目またはカメラヘッドが動かされた場合でも、スナップショットへの生ビデオフィードの位置合わせを維持することを可能にする。この技術は、内視鏡ビデオがフルスクリーンで提示されながら、ビデオのフットプリントを表す記号が、PIP内に表示されたミニマップ上にオーバレイされる内視鏡処置にも役立つ。内視鏡ビデオのスナップショットへの位置合わせは、特徴マッチングまたは内視鏡の追跡のいずれかに基づいてよい。 In some embodiments, snapshots of the retina taken at one magnification in one stage of surgery are used as a minimap for the post-stage of surgery performed at higher magnification. During retinal surgery, surgeons generally use fiber illumination that illuminates only a small portion of the retina when held near the retina. Minimaps allow for better spatial cognition when working at higher magnifications. The minimap is displayed within the PIP, and the overlaid circular (or other) symbol on the minimap indicates the location of the illuminated area on the snapshot. The real-time alignment algorithm makes it possible to maintain the alignment of the raw video feed to the snapshot even if the eye or camera head is moved. This technique is also useful for endoscopic procedures in which the endoscopic video is presented in full screen, while the symbols representing the video footprint are overlaid on the minimap displayed within the PIP. Alignment of endoscopic video to snapshots may be based on either feature matching or endoscopic tracking.

いくつかの実施形態において、PIP内に表示された画像のデータ位置を示すために、生ビデオ上に記号がオーバレイされる。システム100は、外科医120が、たとえばPIP透明度を制御することによってこの特徴をカスタマイズし、HMD102のFOVにおけるPIPの位置をカスタマイズすることを可能にする。たとえば、1つのそのような記号は、生拡大画像ストリーム上にオーバレイされ、PIP内に表示された術前画像に対応する患者の解剖学的構造の生画像内の位置を示す直線であってよい。この直線は、生画像に対する、PIP内に表示された術前OCT B走査の位置および角度を表す。 In some embodiments, symbols are overlaid on the live video to indicate the data position of the image displayed in the PIP. The system 100 allows the surgeon 120 to customize this feature, for example by controlling the PIP transparency, and to customize the position of the PIP in the FOV of the HMD 102. For example, one such symbol may be a straight line in the raw image of the patient's anatomy that is overlaid on the raw magnified image stream and corresponds to the preoperative image displayed in the PIP. .. This straight line represents the position and angle of the preoperative OCT B scan displayed in the PIP with respect to the raw image.

いくつかの実施形態において、生ビデオ内に出現する特徴の位置を示すために、PIP内に表示された画像上に記号がオーバレイされる。1つの例は、上述したように、ミニマップとして用いられるスナップショット上にオーバレイされた記号である。他の例として、生拡大画像内に出現するトーリックIOLの角度を表す直線が、PIP内に表示された目の術前画像上にオーバレイされ得る。直線の角度は、目の回転および目内部のIOLの瞬間的角度の両方に関してリアルタイムで補正される。 In some embodiments, symbols are overlaid on the image displayed in the PIP to indicate the location of the features that appear in the live video. One example is the overlaid symbol on the snapshot used as a minimap, as described above. As another example, a straight line representing the angle of the toric IOL appearing in the raw magnified image can be overlaid on the preoperative image of the eye displayed in the PIP. The angle of the straight line is corrected in real time with respect to both the rotation of the eye and the momentary angle of the IOL inside the eye.

ユーザインタフェース160は、生画像フィードの表示の上にオーバレイされたPIPまたは複数のPIP内に表示された複数の画像を見ることを提供する。たとえば、そのような画像は、術前データ、OCT画像、ノート、および、たとえばiOCTからのB走査画像、内視鏡を介して取得されたビデオなどの術中の生データに関連し得る。メニューを通して、外科医120は、たとえば視野の左上角部など、自身の選択する位置におけるPIP位置を制御する。この特徴は、外科医120が、自身の視野の中央エリアを占める生画像フィードと共に術前または生データを見ることを可能にする。PIPのサイズおよび位置は、その中に表示されるコンテンツと共に、UI160を介して外科医120によって設定される。 The user interface 160 provides to view a plurality of images displayed within the overlayed PIP or the plurality of PIPs on top of the display of the raw image feed. For example, such images may relate to preoperative data, OCT images, notes, and intraoperative raw data such as B-scanned images from iOCT, video acquired via an endoscope. Through the menu, the surgeon 120 controls the PIP position at a position of his choice, for example, the upper left corner of the field of view. This feature allows the surgeon 120 to view preoperative or raw data with a raw image feed that occupies a central area of his field of view. The size and location of the PIP, along with the content displayed therein, is set by the surgeon 120 via the UI 160.

後述する図は、外科医120が、表示されたメニューのメニュー項目を操作することによって術前システムモードを出入りし、生画像に位置合わせされた記号と共にPIP内で術前データを閲覧することを可能にする、視野上にオーバレイされたメニューとして実装されたユーザインタフェースに関する典型的な実装を示すことが意図される。いくつかのメニュー項目は、選択された時に行われるアクションを表し、他のメニュー項目は、追加のアクションセットをもたらす追加のメニューを表す。外科医120は、上述したように、フットスイッチ104およびヘッドジェスチャによってユーザインタフェースをナビゲートする。 The figure below allows the surgeon 120 to enter and exit the preoperative system mode by manipulating menu items in the displayed menu and view preoperative data within the PIP with symbols aligned to the raw image. It is intended to show a typical implementation of a user interface implemented as an overlaid menu in the field of view. Some menu items represent the actions that take place when selected, while others represent additional menus that result in an additional set of actions. The surgeon 120 navigates the user interface with the footswitch 104 and the head gesture as described above.

ここで、開示される技術の更なる実施形態に従って構成され動作可能な、ユーザがシステムとインタラクトし、様々なシステムモードへ切り換えることを可能にする、生画像フィード614上にオーバレイされたメニュー630を示す図6Aが参照される。メニュー630は、外科医120によって構成可能なシステム設定として、次のメニュー、オーバレイ618、自動フォーカス620、色補正622、自動センタリング624、PIP626、システムモード628、およびキャンセル612を表示する。 Here, a menu 630 overlaid on the raw image feed 614, configured and operational according to a further embodiment of the disclosed technology, which allows the user to interact with the system and switch to various system modes. FIG. 6A, which is shown, is referenced. Menu 630 displays the following menus, overlay 618, autofocus 620, color correction 622, autocentering 624, PIP626, system mode 628, and cancel 612 as system settings configurable by the surgeon 120.

メニュー項目618に表示された「オフ」によって示されるように、オーバレイ設定は現在オフにされており、外科医120に、項目618を選択することによってオーバレイがオンに切り換えられ得ることを示す。メニュー項目620に表示された「オフ」によって示されるように、自動フォーカス設定は現在オフにされており、外科医120に、項目620を選択することによってオーバレイをオンに切り換えるように提示する。同様に、色補正メニュー項目622に表示された「赤色」によって示されるように、色補正は現在、赤色に設定されており、外科医120に、このメニュー項目を選択することによって異なる色補正へ切り換えるというオプションを提示する。メニュー項目624に表示された「オフ」によって示されるように、自動センタリング設定は現在「オフ」に設定されており、外科医120に、このメニュー項目を選択することによってこの設定をオンに切り換えるというオプションを提示する。メニュー項目626に表示された「オフ」によって示されるように、PIP設定は現在「オフ」に設定されており、外科医120に、このメニュー項目を選択することによってこの設定をオンに切り換えるというオプションを提示する。キャンセル612およびシステムモード628はそれぞれ、外科医120がメニューから退出し、異なるシステムモードへ切り換えるために提供される。システムモードメニュー項目628は、現在強調されており、外科医120が現在このメニュー項目を選択し得ることを示す。 The overlay setting is currently turned off, as indicated by the "off" displayed in menu item 618, indicating to the surgeon 120 that the overlay can be turned on by selecting item 618. The autofocus setting is currently turned off, as indicated by the "off" displayed in menu item 620, and presents the surgeon 120 to switch the overlay on by selecting item 620. Similarly, the color correction is currently set to red, as indicated by the "red" displayed in the color correction menu item 622, and the surgeon 120 switches to a different color correction by selecting this menu item. The option is presented. The auto-centering setting is currently set to "off", as indicated by "off" displayed in menu item 624, and the surgeon 120 has the option to turn this setting on by selecting this menu item. To present. The PIP setting is currently set to "off", as indicated by "off" displayed in menu item 626, and the surgeon 120 has the option to turn this setting on by selecting this menu item. Present. Cancel 612 and system mode 628 are each provided for surgeon 120 to exit the menu and switch to a different system mode. The system mode menu item 628 is currently highlighted, indicating that the surgeon 120 can now select this menu item.

1つの実施形態において、「色補正」メニュー項目が強調され、様々な色補正オプションを含むサブメニューが開かれ、その1つは、色補正特徴をオフに切り換えることを可能にする。いくつかの実施形態において、色補正サブメニューのメニュー項目が強調されると、外科医がフットスイッチ104を解放することによって選択される前に、強調されたメニュー項目に対応する色補正スキームの効果が生画像上で実施され表示される。これは、外科医120が、様々な色補正スキームの1つを選択する前にその効果を見ることを可能にする。この特徴は、たとえば画像の鮮明化などの追加の画像処理機能のために有効化され得る。 In one embodiment, the "Color Correction" menu item is highlighted and a submenu containing various color correction options is opened, one of which allows the color correction feature to be switched off. In some embodiments, when a menu item in a color correction submenu is highlighted, the effect of the color correction scheme corresponding to the highlighted menu item is before the surgeon is selected by releasing the footswitch 104. It is implemented and displayed on the raw image. This allows the surgeon 120 to see its effect before choosing one of the various color correction schemes. This feature can be enabled for additional image processing features such as image sharpening.

いくつかの実施形態において、開かれたメニューは、中央ではなく画像の周囲に表示され、メニューが画像の一部を覆い遮断することなく、外科医120が様々な画像処理および色補正の効果を評価することを可能にする。メニュー項目は、周囲に縦に表示され得る。ただし、メニューのナビゲートは、外科医120が生画像から視線をシフトすることを必要としない。様々なメニュー項目をスクロールおよび強調するために、外科医120は、生画像の中心エリアを注視したまま、自身の頭部を上下に動かす。 In some embodiments, the opened menu is displayed around the image rather than in the center, and the surgeon 120 evaluates the effects of various image processing and color corrections without the menu covering and blocking a portion of the image. Allows you to. Menu items can be displayed vertically around them. However, navigating the menu does not require the surgeon 120 to shift his gaze from the raw image. To scroll and highlight various menu items, the surgeon 120 moves his head up and down while keeping an eye on the central area of the raw image.

外科医120は、フットスイッチ104を押下しながらメニュー項目間で自身の視線を方向付けるために自身の頭部を動かしながら、様々なメニュー項目間でナビゲートする。たとえば、システムモードメニュー項目628を選択するために、外科医は、フットスイッチ104を押下しながら、既定の期間、メニュー項目628が強調された状態を維持(たとえば「長期凝視」)する。これは、以下で図6Bに示すシステムモードメニューをもたらし、現在提示されているアドバンスドメニューを視野の周囲における項目616内へ折り畳み、外科医120が適宜、フットスイッチ104を押下しながら自身の視線を方向付けることによってこのメニューへ戻ることを可能にする。したがって、1つの実装において、様々なメニュー間でナビゲートし、サブメニューを開くために、外科医120は、フットスイッチ104を押下しながら既定の期間、折り畳まれたメニューを表す様々なメニュー項目を強調する。フットスイッチ104の解放は、様々なメニュー間でナビゲートするために必要ではない。ただし、選択されたメニュー項目と関連するシステム設定をアクティブ化または非アクティブ化するためのメニュー項目を選択するために、外科医120は、そのメニュー項目に視線を向けながらフットスイッチ104を解放する。したがって、フットスイッチ104の有効化は、行われ得る可能なアクションを表すメニュー項目間でナビゲートするためではなく、システム100においてアクションを行うために必要である。 The surgeon 120 navigates between various menu items while pressing the foot switch 104 and moving his head to direct his gaze between the menu items. For example, to select the system mode menu item 628, the surgeon keeps the menu item 628 highlighted (eg, "long-term gaze") for a predetermined period of time while pressing the footswitch 104. This results in the system mode menu shown in FIG. 6B below, which folds the currently presented advanced menu into item 616 around the field of view, and the surgeon 120, as appropriate, directs his gaze while pressing the footswitch 104. By attaching it, it is possible to return to this menu. Therefore, in one implementation, in order to navigate between different menus and open submenus, the surgeon 120 highlights the various menu items that represent the collapsed menu for a given period of time while pressing the footswitch 104. do. Release of the footswitch 104 is not necessary to navigate between the various menus. However, in order to select a menu item for activating or deactivating system settings associated with the selected menu item, the surgeon 120 releases the foot switch 104 while looking at the menu item. Therefore, enabling the footswitch 104 is necessary to perform actions in the system 100, not to navigate between menu items that represent possible actions that can be performed.

図6Bを参照すると、開示される技術の他の実施形態に従って構成され動作可能な、図6Aのメニュー630のシステムモードメニュー項目628が選択された後、生画像フィード上にオーバレイされたシステムモードメニュー600が示される。フットスイッチ104を押下しながらある期間メニュー項目628を凝視することによって図6Aのメニュー項目628を選択すると、図4A~4Dのシステムモードメニュー400に対応するシステムモードメニュー600が、図6Aのメニュー630の代わりに表示される。図6Aに示す、以前表示された「アドバンスド」メニュー630は、図6Bに示すように、たとえば左上角部などの視野の周囲に表示されたメニュー項目616に折り畳まれる。システムモードメニュー600は、生画像614上にオーバレイされた、非接触レンズメニュー項目602、バイタルメニュー項目604、看護士メニュー項目606、術野項目606、術前メニュー項目610、およびキャンセルメニュー項目612を表示する。術前メニュー項目610が強調され、このメニュー項目が現在、外科医120によって選択され得ることを示す。 Referring to FIG. 6B, a system mode menu overlaid on the raw image feed after the system mode menu item 628 of menu 630 of FIG. 6A, which is configured and operational according to other embodiments of the disclosed technique, is selected. 600 is shown. When the menu item 628 of FIG. 6A is selected by staring at the menu item 628 for a certain period while pressing the foot switch 104, the system mode menu 600 corresponding to the system mode menu 400 of FIGS. 4A to 4D becomes the menu item 630 of FIG. 6A. Is displayed instead of. The previously displayed "advanced" menu 630 shown in FIG. 6A is collapsed into a menu item 616 displayed around the field of view, for example, in the upper left corner, as shown in FIG. 6B. The system mode menu 600 includes a non-contact lens menu item 602, a vital menu item 604, a nurse menu item 606, a surgical field item 606, a preoperative menu item 610, and a cancel menu item 612, which are overlaid on the raw image 614. indicate. Preoperative menu item 610 is highlighted to indicate that this menu item can now be selected by surgeon 120.

図6Cを参照すると、術前画像は、開示される技術の更なる実施形態に従って構成され動作可能な、生画像フィード上にオーバレイされたPIP内に表示される。フットスイッチ104を解放することによって図6Bのメニュー項目610(「術前」)を選択すると、システムモードは、術前モードに切り換わる。このモードにおいて、ユーザは、術前OCT画像のフォルダがPIP内に表示されるように選択する。いくつかの実施形態において、このモードは、外科医120が、たとえばサイズおよび位置などのユーザ定義設定に従ってPIPを調整および定義することを可能にする。PIP内でどの術前画像を見るかを選択した後、外科医120は、フットスイッチ104および上述したメニューナビゲーション技術を用いて、非接触レンズモードに戻る。非接触レンズモードに戻ると、図6Cに示すように、術前画像632は、生画像614の表示の上部左手角部においてPIP内に表示される。術前OCT画像は、生画像614内に表示されたのと同じ組織のものである。留意すべき点として、PIPの位置およびサイズは、単なる典型例であり、外科医120によってユーザ定義され得る。 Referring to FIG. 6C, the preoperative image is displayed in an overlaid PIP on a raw image feed that is configured and operational according to a further embodiment of the disclosed technique. Selecting menu item 610 (“preoperative”) in FIG. 6B by releasing the footswitch 104 switches the system mode to preoperative mode. In this mode, the user chooses to display the folder of preoperative OCT images in the PIP. In some embodiments, this mode allows the surgeon 120 to adjust and define the PIP according to user-defined settings such as size and position. After selecting which preoperative image to view within the PIP, the surgeon 120 returns to non-contact lens mode using the footswitch 104 and the menu navigation technique described above. Returning to the non-contact lens mode, the preoperative image 632 is displayed in the PIP at the upper left hand corner of the display of the raw image 614, as shown in FIG. 6C. The preoperative OCT image is of the same tissue as displayed in the raw image 614. It should be noted that the location and size of the PIP is merely exemplary and may be user-defined by the surgeon 120.

図6Dを参照すると、開示される技術の他の実施形態に従って構成され動作可能な、PIPと共に生画像フィード上にオーバレイされた、図6Aのメニュー630が示される。外科医120は、たとえばフットスイッチ104を押下することによって、メニュー630を再出現させる。メニュー630は、上部左手角部に表示されたPIP632と共に生画像614上にオーバレイされて表示される。オーバレイメニュー項目618が強調され、外科医120が、フットスイッチ104を押下しながらヘッドジェスチャを行うことによってこのメニューを選択したことを示す。メニュー項目618に表示された「オフ」によって示されるように、現在、オーバレイ設定の状態はオフであり、外科医120に、メニュー項目618を選択することによってこの設定をオンに切り換えるように求めている。 Referring to FIG. 6D, a menu 630 of FIG. 6A, superimposed on a raw image feed with PIP, configured and operational according to other embodiments of the disclosed technique is shown. The surgeon 120 reappears the menu 630, for example by pressing the foot switch 104. The menu 630 is displayed overlaid on the raw image 614 together with the PIP 632 displayed in the upper left hand corner. The overlay menu item 618 is highlighted to indicate that the surgeon 120 has selected this menu by performing a head gesture while pressing the footswitch 104. The overlay setting state is currently off, as indicated by the "off" displayed in menu item 618, and requires the surgeon 120 to switch this setting on by selecting menu item 618. ..

ここで、全体として、開示される技術の他の実施形態に従って構成され動作可能な、PIP632内に表示された対応するコンテンツを有する一連の生画像614を示す図6E~6Jが参照される。図6E~6Jは、生画像614に重ね合わせられたオーバレイ634を示す。オーバレイ634は、PIP632内に表示された術前OCT画像に対応する生画像614上の位置を示す直線である。生画像614は3D画像である、すなわち、外科医120の各目は、3D画像614を共に形成するわずかに異なる画像を見ているため、直線634は、外科医120の両目に投影された2つの画像の各々に個別にオーバレイされる。その結果、外科医120は、網膜を示す3D画像614の表面において正しい奥行き感覚でオーバレイされた直線634を見る。 Here, as a whole, is referred to FIGS. 6E-6J showing a series of raw images 614 with corresponding content displayed within PIP632, configured and operational according to other embodiments of the disclosed technology. 6E-6J show an overlay 634 superimposed on the raw image 614. The overlay 634 is a straight line indicating a position on the raw image 614 corresponding to the preoperative OCT image displayed in the PIP 632. The raw image 614 is a 3D image, i.e., because each eye of the surgeon 120 sees a slightly different image forming the 3D image 614 together, the straight line 634 is the two images projected on both eyes of the surgeon 120. It is individually overlaid for each of. As a result, the surgeon 120 sees a straight line 634 overlaid with the correct sense of depth on the surface of the 3D image 614 showing the retina.

いくつかの実施形態において、コンピュータ118は、複数の術前画像をライブラリに格納する。各画像がPIP632内に表示されると、画像に対応する生画像614上の位置は、たとえば直線634などのオーバレイによって示される。各オーバレイ634によって示された組織上の位置は、PIP632内に同時に表示された術前OCT画像に対応する。ユーザは、フットスイッチ104のペダルを押下しながら同時にヘッドジェスチャ(たとえば、スクロールダウンのためのヘッドダウン回転、およびスクロールアップのためのヘッドアップ回転)を行うことによって術前画像のセット内でスクロールする。PIP632内に表示された術前OCT画像が変化すると、リアルタイム画像上の対応する位置が計算され、オーバレイ直線634によって表示される。示された画像において、リアルタイム画像上の位置は、対応して下方向へシフトする。リアルタイム画像上の対応する位置に関する計算は、PIP632内に表示された術前OCT画像が外科医120によって変更されていない場合でも、画像614が生であり、オーバレイが動的更新を要求すると、フレームごとに行われ得る。この計算は、網膜の術前画像および全ての術前OCT画像に対応する画像上の位置を備える、術前OCT撮像器によって生成されたデータに基づく。この網膜の術前画像を用いると、リアルタイム画像614上の対応する位置が計算され得る。この特徴は、外科医120が、ハンドレスジェスチャを用いて、生画像フィード614上の対応するオーバレイと共にPIP632内の術前データにおいてスクロールすることを可能にする。留意され得る点として、PIP632内のOCT画像の表示は、単なる例示であることが意図され、本発明を限定するものではない。PIP632は、直線634によって示された生画像614上の位置に対応する他の関連コンテンツを表示してよい。 In some embodiments, the computer 118 stores a plurality of preoperative images in a library. When each image is displayed within PIP632, the position on the raw image 614 corresponding to the image is indicated by an overlay, such as a straight line 634. The tissue location indicated by each overlay 634 corresponds to a preoperative OCT image simultaneously displayed within PIP632. The user scrolls within the set of preoperative images by simultaneously performing head gestures (eg, head-down rotation for scroll-down and head-up rotation for scroll-up) while pressing the pedal of the footswitch 104. .. When the preoperative OCT image displayed in PIP632 changes, the corresponding position on the real-time image is calculated and displayed by the overlay straight line 634. In the image shown, the position on the real-time image shifts correspondingly downward. The calculation for the corresponding position on the real-time image is per frame when the image 614 is raw and the overlay requests a dynamic update, even if the preoperative OCT image displayed in PIP632 has not been modified by the surgeon 120. Can be done in. This calculation is based on data generated by a preoperative OCT imager with image positions corresponding to the preoperative image of the retina and all preoperative OCT images. Using this preoperative image of the retina, the corresponding position on the real-time image 614 can be calculated. This feature allows the surgeon 120 to use a handless gesture to scroll through the preoperative data within the PIP 632 with the corresponding overlay on the raw image feed 614. It should be noted that the display of the OCT image in the PIP 632 is intended to be merely exemplary and is not intended to limit the invention. The PIP 632 may display other related content corresponding to the position on the raw image 614 indicated by the straight line 634.

いくつかの実施形態において、外科医120は、PIP内の術前データを見ながら、生画像をフリーズしてよい。これは、PIPが生画像フィードと共に術前データを表示している間、生画像上に特徴または記号を描画するために役立ち得る。描画中に画像をフリーズすることは、生ビデオが、たとえば無意識のサカディック眼球運動、呼吸などに起因する動きを表示する場合に役立つ。描画された記号は、生画像フィードのフリーズ解除後、たとえば切開部の切開などの後続するアクションを外科医120にガイドするために用いられ得る。 In some embodiments, the surgeon 120 may freeze the raw image while looking at the preoperative data in the PIP. This can be useful for drawing features or symbols on the raw image while the PIP is displaying the preoperative data along with the raw image feed. Freezing an image during drawing is useful if the live video shows movements resulting from, for example, unconscious Sakadick eye movements, breathing, and so on. The drawn symbols can be used to guide the surgeon 120 to subsequent actions, such as an incision in the incision, after unfreezing the raw image feed.

いくつかの実施形態において、外科医120は、UI160を介して、HMD102を介して表示された画像内の点を指定してよい。たとえば、フットスイッチ104によって有効化されたヘッドジェスチャは、画像上の点を指定するためにカーソルを動かしてよい。あるいは、外科医120の眼部運動を追跡することによって画像上で点が指定され得る。指定は、たとえば以下のような様々な目的を果たしてよい。
・手動位置合わせのための点を指定すること。PIPおよび生ビデオの両方における対応する点が、PIP内の画像を手動で位置合わせするために指定され得る。
・位置合わせされた画像内の点を位置特定するための点を指定すること。画像(またはモデル)が位置合わせされた後、外科医120は、生ビデオ内の点を指定することができ、位置合わせされた画像内の対応する点が強調され、逆も然りである。
・PIPを呼び出すための点を指定すること。小さなPIPは、外科医120によって指定された点の付近で呼び出されてよく、PIPのコンテンツは、指定された点と関連してよく、外科医120が、術野124内の点にフォーカスし、その点の付近で関連データを見ることを可能にする。
・iOCTスキャナ142の関心領域(ROI)を制御するための点を指定すること。1または複数の2D B走査または3DボリュメトリックiOCT画像が生ビデオと共に表示され、外科医は、カメラヘッド112によって取得されたビデオにおいて、たとえば十字などの記号を指定することによって、iOCTスキャナ142の正確なROIを制御する。
・自動フォーカスのための点を指定すること。自動フォーカスは、指定された点の周囲のROIに基づいてアクティブ化され得る。
In some embodiments, the surgeon 120 may specify a point in the image displayed via the HMD 102 via the UI 160. For example, the head gesture enabled by the footswitch 104 may move the cursor to specify a point on the image. Alternatively, points may be designated on the image by tracking the eye movements of the surgeon 120. The designation may serve various purposes, for example:
-Specify a point for manual alignment. Corresponding points in both PIP and live video can be specified for manually aligning the images in PIP.
-Specify a point to locate a point in the aligned image. After the image (or model) has been aligned, the surgeon 120 can specify a point in the live video, highlighting the corresponding point in the aligned image and vice versa.
-Specify a point to call PIP. The small PIP may be called near a point designated by the surgeon 120, and the content of the PIP may be associated with the designated point, where the surgeon 120 focuses on a point within the surgical field 124 and that point. Allows you to see related data in the vicinity of.
-Specify a point to control the region of interest (ROI) of the iOCT scanner 142. One or more 2D scans or 3D volumetric iOCT images are displayed with the live video, and the surgeon can specify a symbol, such as a cross, in the video acquired by the camera head 112 to ensure that the iOCT scanner 142 is accurate. Control the ROI.
-Specify a point for autofocus. Autofocus can be activated based on the ROI around the specified point.

いくつかの実施形態において、外科医120は、ヘッドジェスチャを介して生画像フィード上にオーバレイされた記号を制御し、オーバレイされた記号の位置に対応する術前画像が、PIP内に表示される。記号の位置が変化すると、PIP内に表示された対応する画像は変化する。いくつかの実施形態において、生画像フィード上の選択された位置に対応する術前画像が存在しない場合、コンピュータ118は、選択された位置に最も近い術前画像を選択し、その距離を外科医120に示す。 In some embodiments, the surgeon 120 controls the overlaid symbol on the raw image feed via a head gesture, and the preoperative image corresponding to the position of the overlaid symbol is displayed in the PIP. As the position of the symbol changes, the corresponding image displayed in the PIP changes. In some embodiments, if there is no preoperative image corresponding to the selected position on the raw image feed, the computer 118 selects the preoperative image closest to the selected position and sets the distance to the surgeon 120. Shown in.

ここで、全体として、開示される技術の他の実施形態に従って構成され動作可能な、PIP644内に表示された対応するコンテンツを有する一連の生画像642を示す図6K~6Pが参照される。図6K~6Pの実施形態は、図6E~6Jに関して上述したものと実質的に同様であるが、顕著に異なる点として、図6K~6Pの直線634の代わりにPIP644の境界線646が用いられ、PIP644内に示されたコンテンツと、生画像642内に表示された組織との対応性を示す。図6K~6Pの例において、PIP644は、生画像642内に示された組織のOCT断面図を表示するが、これは、単なる例示であることが意図され、本発明を限定するものではない。妥当性を有し得る場合、他のコンテンツがPIP644内に表示され得る。PIP644内に示されたOCT画像は、術前または術中段階に取得され、後の使用のためにメモリ118D(図1B)に格納されたものである。処置中、HMD102は、生画像642として生組織の表面を表示する。生画像642は、患者122の組織のリアルタイムビデオ表示であってよく、あるいは、図6R~6Vに関して後述するように、たとえば更なる使用のために外科医が特徴を描画することを可能にするための、リアルタイムビデオのフリーズされた部分であってよい。 Here, as a whole, is referred to FIGS. 6K-6P showing a series of raw images 642 with corresponding content displayed within PIP644, configured and operational according to other embodiments of the disclosed technology. The embodiments of FIGS. 6K-6P are substantially similar to those described above with respect to FIGS. 6E-6J, except that the boundary line 646 of PIP644 is used instead of the straight line 634 of FIGS. 6K-6P. , The correspondence between the content shown in PIP644 and the tissue displayed in the raw image 642 is shown. In the examples of FIGS. 6K-6P, PIP644 displays an OCT cross-sectional view of the tissue shown in the raw image 642, which is intended to be merely exemplary and is not limiting the invention. Other content may be displayed within PIP644 if it may be valid. The OCT images shown in PIP644 were acquired preoperatively or intraoperatively and stored in memory 118D (FIG. 1B) for later use. During the procedure, the HMD 102 displays the surface of the raw tissue as a raw image 642. The raw image 642 may be a real-time video display of the tissue of patient 122, or as described below with respect to FIGS. 6R-6V, to allow the surgeon to draw features, for example for further use. , May be a frozen part of a real-time video.

生画像642に重ね合わせられると、HMD102は、PIP644内に、境界線646によって示された位置における生組織の過去に取得されたOCT断面図を表示する。図6K~6Pは、生画像642の左上の位置(図6K)から始まり生画像642において下および右方向へ移動する(図6L~6P)複数の様々な位置において生画像642上にオーバレイされたPIP644を示す。生画像642上のPIP644の各位置に関して、その位置でPIP644内に表示されたOCT画像は、境界線646によって示された組織の断面に対応する。このように、生画像642の上でPIP644の位置を操作することによって、外科医120は、組織の様々な断面スライスを見てよい。 When superposed on the raw image 642, the HMD 102 displays, within the PIP 644, a previously acquired OCT cross section of the raw tissue at the position indicated by the boundary line 646. FIGS. 6K-6P are overlaid on the raw image 642 at a plurality of various positions starting from the upper left position of the raw image 642 (FIG. 6K) and moving downward and to the right in the raw image 642 (FIGS. 6L-6P). PIP644 is shown. For each position of PIP644 on the raw image 642, the OCT image displayed within PIP644 at that position corresponds to the cross section of the tissue indicated by the boundary line 646. Thus, by manipulating the position of the PIP 644 on the raw image 642, the surgeon 120 may see various cross-sectional slices of the tissue.

ここで、開示される技術の更なる実施形態に従って構成され動作可能な、2つのPIP644および648内に表示された対応するコンテンツを有する図6L~6Pの生画像642を示す図6Qが参照される。図6Qの実施形態は、図6L~6Pに関して上述したものと実質的に同様であるが、注目すべき点として、2つのPIP644および648が生画像642上に重ね合わせられ、各PIPは、それぞれ境界線646および650によって示された組織に対応するコンテンツを示す。PIP644は、境界線646によって示された位置における生組織のOCT断面スライスを示し、PIP648は、境界線650によって示された位置における組織のOCT断面スライスを示す。上述したように、外科医は、様々な位置における組織の断面スライスを表示するために、生画像642の上でPIP644および648の位置を操作してよい。 Reference is now made to FIG. 6Q showing the raw image 642 of FIGS. 6L-6P having the corresponding content displayed within two PIP 644s and 648 that are configured and operational according to a further embodiment of the disclosed technique. .. The embodiment of FIG. 6Q is substantially similar to that described above with respect to FIGS. 6L-6P, but it should be noted that two PIPs 644 and 648 are superposed on the raw image 642 and each PIP is respectively. The content corresponding to the organization indicated by the boundaries 646 and 650 is shown. PIP644 shows an OCT cross-section slice of raw tissue at the position indicated by the boundary line 646, and PIP648 indicates an OCT cross-section slice of the tissue at the position indicated by the boundary line 650. As mentioned above, the surgeon may manipulate the positions of PIP 644 and 648 on the raw image 642 to display cross-sectional slices of tissue at various locations.

ここで、全体として、開示される技術の更なる実施形態に従って構成され動作可能な、描画機能の実装を示す図6R~6Vが参照される。図6R~6Vは、HMD102を介して表示された描画機能を用いて記号を描画した結果を示す。1つの実施形態において、描画は、たとえばHMD102などの、患者122の生画像を表示するHMDを装着している間に実施される。描画機能は、HMDを介して表示された1または複数のメニューを介してアクティブ化され、HMDの装着者が、本明細書で説明された技術を用いて描画ツール(不図示)を選択することを可能にする。描画ツールは、生画像の上に表示され、HMDの装着者が、ヘッドジェスチャ、フットスイッチ104、ワンドの操作、眼部運動の追跡などの1または複数を用いて描画ツールを操作することによって、生画像上にオーバレイされた記号を描画することを可能にする。あるいは、描画は、システム100に提供されたユーザインタフェース(不図示)、マウスまたはワンドなどを介して実施され得る。 Here, as a whole, reference is made to FIGS. 6R-6V showing implementation of a drawing function that is configured and operational according to a further embodiment of the disclosed technique. 6R-6V show the result of drawing the symbol using the drawing function displayed via the HMD 102. In one embodiment, the drawing is performed while wearing an HMD that displays a raw image of the patient 122, such as the HMD 102. The drawing function is activated via one or more menus displayed via the HMD, allowing the wearer of the HMD to select a drawing tool (not shown) using the techniques described herein. Enables. The drawing tool is displayed on top of the raw image, and the HMD wearer can operate the drawing tool using one or more of the head gesture, foot switch 104, wand operation, eye movement tracking, and so on. Allows you to draw overlaid symbols on the raw image. Alternatively, drawing may be performed via a user interface (not shown), mouse or wand, etc. provided to the system 100.

1つの動作モードにおいて、外科医120は、たとえば医療処置中のガイドとして後に使用するために、術前計画段階の間に特徴を描画する。この場合、外科医120は、任意の術前データと共に、HMD102を介して生画像の上に表示された描画メニューおよびツールを見る。外科医120は、生画像上に1または複数の予備記号を描画する。1つの実施形態において、生画像フィードは、精度を高めるために描画中フリーズされる。描画された記号は、描画が完了すると、生画像フィードがフリーズ解除され術前データが表示されなくなった後、生画像と共に表示されたままであり、外科医120は、医療処置を行いながら生画像フィード上にオーバレイされた描画記号を見ることが可能である。 In one mode of motion, the surgeon 120 draws features during the preoperative planning phase, for example for later use as a guide during a medical procedure. In this case, the surgeon 120 sees the drawing menu and tools displayed on the raw image via the HMD 102, along with any preoperative data. The surgeon 120 draws one or more preliminary symbols on the raw image. In one embodiment, the raw image feed is frozen during drawing to improve accuracy. The drawn symbol remains displayed with the raw image after the raw image feed is unfrozen and the preoperative data is no longer displayed when drawing is complete, and the surgeon 120 is on the raw image feed while performing medical procedures. It is possible to see the drawing symbols overlaid on.

たとえば教示モードなどの他の動作モードにおいて、監督外科医(不図示)が、後続して処置を行う外科医120をガイドするために、記号を描画する。教示モードにおいて、監督外科医は、外科医120と共に手術室内に居てよく、その場で記号を描画する。あるいは、監督外科医は、他の場所に所在してよく、遠隔で記号を描画する。監督外科医は、他のHMDを介して、スマートフォン、タブレット、または他のタッチスクリーンを介して、あるいは標準モニタを有するマウスまたはワンドを介してなどのいずれかで、記号を描画してよい。 In other modes of operation, such as the teaching mode, the supervising surgeon (not shown) draws a symbol to guide the surgeon 120 to perform subsequent procedures. In the teaching mode, the supervising surgeon may be in the operating room with the surgeon 120 and draw the symbol on the spot. Alternatively, the supervising surgeon may be located elsewhere and draws the symbol remotely. The supervising surgeon may draw the symbol either via another HMD, via a smartphone, tablet, or other touch screen, or via a mouse or wand with a standard monitor.

図6Rを参照すると、記号を仮想描画する前の、患者122の目の生画像660が示される。図6S~6Tを参照すると、ペイントメニュー(不図示)から仮想描画ツールを選択した後、外科医は、たとえば切開する位置を示すために、生画像660上に記号662を仮想描画する。記号662は、図6Sにおいて部分的に描画された状態で、図6Tにおいて完全に描画された状態で示される。上述したように、記号662は、教示モードの間に第2のHMDを装着している年長外科医によって、またはHMD102を装着している外科医120によって描画され得る。記号662は、たとえば本明細書で参照されたような任意の適当なUI技術を用いて描画される。たとえば、記号662を描画するために、外科医120は、記号662の形状に対応する軌跡を辿るヘッドジェスチャを用いて仮想描画ツールを動かしながらフットスイッチ104を押下し、記号662の描画が完了すると(不図示)、フットスイッチ104を解放する。あるいは、外科医は、タッチスクリーンを介して表示された生画像上に描画するためにマウスまたは自身の指を用いてよい。生画像上に描画する外科医は、任意選択的に、手術室内に居ない場合があり、遠隔位置から描画のための様々なUI方法(自身のオフィス内で3D生画像を表示するHMDおよびフットスイッチを用いること、2D生画像を表示するタブレット上に描画することなど)のいずれかを用いてよい。図6Uを参照すると、外科医120は、患者122の目を切開するためのガイドとして、生画像660上に描画されオーバレイされた記号662を用いる。外科医120は、生画像660上の記号662によって示された位置に対応する、患者122の目における物理的位置に、外科用器具664を置く。図6Vを参照すると、外科医120は、患者122の目を切開するために、記号662に対応する経路に沿って外科用器具664を動かす。このように、外科医120、あるいは年長外科医は、切開を行う前に生画像660上に仮想経路を描画し、その後の切開が正しく行われることを確実にする。 Referring to FIG. 6R, a raw image 660 of the eyes of patient 122 is shown before the symbol is virtually drawn. Referring to FIGS. 6S-6T, after selecting the virtual drawing tool from the paint menu (not shown), the surgeon virtually draws the symbol 662 on the raw image 660, for example to indicate the position of the incision. Symbol 662 is shown in the partially drawn state in FIG. 6S and in the fully drawn state in FIG. 6T. As mentioned above, the symbol 662 may be drawn by the senior surgeon wearing the second HMD during the teaching mode, or by the surgeon 120 wearing the HMD 102. Symbol 662 is drawn using any suitable UI technique, eg, as referenced herein. For example, in order to draw the symbol 662, the surgeon 120 presses the footswitch 104 while moving the virtual drawing tool with a head gesture that follows the trajectory corresponding to the shape of the symbol 662, and when the drawing of the symbol 662 is completed ( (Not shown), the foot switch 104 is released. Alternatively, the surgeon may use the mouse or his or her finger to draw on the raw image displayed via the touch screen. The surgeon who draws on the raw image may optionally not be in the operating room and has various UI methods for drawing from a remote location (HMD and footswitch to display the 3D raw image in his office). , Or drawing on a tablet displaying a 2D raw image, etc.). Referring to FIG. 6U, the surgeon 120 uses the symbol 662 drawn and overlaid on the raw image 660 as a guide for incising the eye of patient 122. The surgeon 120 places the surgical instrument 664 in a physical position in the eye of the patient 122 that corresponds to the position indicated by the symbol 662 on the raw image 660. Referring to FIG. 6V, the surgeon 120 moves the surgical instrument 664 along the path corresponding to the symbol 662 to make an incision in the eye of patient 122. Thus, the surgeon 120, or senior surgeon, draws a virtual path on the raw image 660 before making the incision to ensure that the subsequent incision is done correctly.

外科医120が特定の特徴を強調するための1または複数の記号またはマーキングを描画した後、外科医120は、ガイダンスのためのマーキングを用いて処置を進めるために、生画像を見ながらどのマーキングを表示するかを選択してよい。外科医120は、必要性および妥当性に従って、処置中、任意の数の事前描画したマーキングをスクロールしてよい。マーキングが使用されなくなると、これらが生画像の表示を不明瞭にすることを防ぐために、システム100は、所定の期間後にマーキングを消し去るように構成され得る。1つの実施形態において、デフォルト設定に従って(たとえば10秒後)、記号は自動的に消え去る。他の実施形態において、専用の事前計画アプリケーションメニューは、外科医120が、マーキングの各々を無効化する(すなわちオフにする)ことを可能にする。 After the surgeon 120 draws one or more symbols or markings to highlight a particular feature, the surgeon 120 displays which markings while looking at the raw image to proceed with the procedure with the markings for guidance. You may choose whether to do it. Surgeon 120 may scroll through any number of pre-painted markings during the procedure, depending on need and validity. When the markings are no longer used, the system 100 may be configured to erase the markings after a predetermined period of time to prevent them from obscuring the display of the raw image. In one embodiment, according to the default setting (eg after 10 seconds), the symbol disappears automatically. In other embodiments, a dedicated pre-planning application menu allows the surgeon 120 to disable (ie, turn off) each of the markings.

ここで、全体として、開示される技術の更なる実施形態に従って構成され動作可能な、選択された視野エリアにフォーカスするためのメニュー駆動型ユーザインタフェースの典型的な実装を示す図7A~7Eが参照される。後述する図において、ユーザインタフェースは、生画像ストリーム上にオーバレイされる一連のメニューとして実装される。外科医120は、上述したように、ヘッドジェスチャと組み合わせてフットスイッチ104を用いて、メニューをナビゲートする。 See here, as a whole, FIGS. 7A-7E showing a typical implementation of a menu-driven user interface for focusing on a selected field of view area, configured and operable according to a further embodiment of the disclosed technique. Will be done. In the figures described below, the user interface is implemented as a series of menus that are overlaid on the raw image stream. The surgeon 120 navigates the menu using the footswitch 104 in combination with the head gesture, as described above.

図7Aを参照すると、メニュー730は、開示される技術の実施形態に従って構成され動作可能な、選択された視野エリアにフォーカスするための、生画像フィード714上にオーバレイされたメニュー730が表示される。メニュー730は、上述した図6Aに示されるメニュー630に対応する。メニュー630と同様、メニュー730は、オーバレイ718、自動フォーカス720、色補正722、自動センタリング724、PIP726、システムモード728、およびキャンセル712のメニュー項目を含む。自動フォーカス特徴に関するメニュー項目720が強調され、外科医120によってこの項目が現在選択され得ることを示す。メニュー項目720に表示された「オフ」設定によって示されるように、現在、自動フォーカス特徴はオフであり、外科医720が、メニュー項目720を「押下」してアクティブ化することにより自動フォーカス特徴をオンに切り換えることを求めている。いくつかの実施形態において、外科医120は、フットスイッチ104を解放することなくフットスイッチ104を押下しながら、たとえば0.5秒間などの既定の期間、メニュー項目720(図7A)を凝視することによって既定の期間メニュー項目720を強調することにより、自動フォーカスをオンにする。他の実施形態において、外科医は、メニュー項目720を強調しフットスイッチ104を解放した後、自動フォーカスをオンにする。 Referring to FIG. 7A, the menu 730 displays an overlaid menu 730 on the raw image feed 714 to focus on a selected field of view area that is configured and operational according to embodiments of the disclosed technique. .. The menu 730 corresponds to the menu 630 shown in FIG. 6A described above. Like menu 630, menu 730 includes menu items for overlay 718, autofocus 720, color correction 722, autocentering 724, PIP726, system mode 728, and cancel 712. Menu item 720 for autofocus features is highlighted to indicate that this item may currently be selected by the surgeon 120. The autofocus feature is currently off, as indicated by the "off" setting displayed in menu item 720, and the surgeon 720 turns on the autofocus feature by "pressing" and activating menu item 720. I want to switch to. In some embodiments, the surgeon 120 is by pressing the foot switch 104 without releasing the foot switch 104 while staring at menu item 720 (FIG. 7A) for a predetermined period of time, for example 0.5 seconds. Turn on autofocus by highlighting the default time period menu item 720. In another embodiment, the surgeon highlights menu item 720 and releases the footswitch 104 before turning on autofocus.

図7B~7Dを参照すると、開示される技術の更なる実施形態に従って構成され動作可能な、フォーカスのために選択された視野エリアを指定することを可能にするユーザインタフェーススクリーンの典型的な実装が示される。この特徴をオンにするために自動フォーカス720をアクティブ化すると、UIスクリーン740が画像714の表示にオーバレイされ、図7Aに示すメニュー730と入れ替わる。UIスクリーン740は、プロンプト742と、この実装において括弧のセットとして示される指定記号744とを含む。いくつかの実施形態において、外科医120は、フットスイッチ104を解放することによって、自動フォーカスをオンにする。プロンプト742は、外科医120に、自動フォーカスを実行する生画像714内のエリアを手動で指定することを要求する。外科医120は、画像714の表示の上で指定記号744を操作することによって、エリアを指定する。指定記号744の位置は、たとえばフットスイッチ104と組み合わせてヘッドジェスチャを行うことなど、上述した技術のいずれかを用いて操作され得る。任意選択的に、外科医120は、たとえば0.5秒間などの既定の期間、所望のエリアを凝視することによって、フォーカスするエリアを指定する。アイトラッカ部品136(図1C)は、指定および選択されたエリアを検出するために、外科医120の視線を追跡する。いくつかの実施形態において、システム100は、外科医120の眼部運動の追跡に基づいて、指定されたエリアへの自動的な自動フォーカスを継続的に行う。留意すべき点として、ユーザの嗜好および状況に従って、他の記号が指定記号として用いられてよい。たとえば、特定の点を正確に指定するために、指定記号は、矢印、カーソル記号などであってよい。 Referring to FIGS. 7B-7D, a typical implementation of a user interface screen that allows to specify a field of view area selected for focus, configured and operational according to a further embodiment of the disclosed technique. Shown. When autofocus 720 is activated to turn on this feature, the UI screen 740 is overlaid with the display of image 714, replacing the menu 730 shown in FIG. 7A. The UI screen 740 includes a prompt 742 and a designation symbol 744, which is shown as a set of parentheses in this implementation. In some embodiments, the surgeon 120 turns on autofocus by releasing the footswitch 104. Prompt 742 requires the surgeon 120 to manually specify an area within the raw image 714 to perform autofocus. The surgeon 120 designates an area by manipulating the designation symbol 744 on the display of the image 714. The position of designation symbol 744 can be manipulated using any of the techniques described above, such as performing head gestures in combination with the foot switch 104. Optionally, the surgeon 120 specifies an area of focus by staring at the desired area for a predetermined period of time, for example 0.5 seconds. The eye tracker component 136 (FIG. 1C) tracks the line of sight of the surgeon 120 to detect designated and selected areas. In some embodiments, the system 100 continuously performs automatic autofocus to the designated area based on the tracking of eye movements of the surgeon 120. It should be noted that other symbols may be used as designated symbols depending on the user's preference and circumstances. For example, the designation symbol may be an arrow, a cursor symbol, or the like in order to specify a particular point accurately.

図7Cを参照すると、外科医120は、十分にフォーカスが合っていない画像714の左側にある領域746へ指定記号744を動かす。領域746は、破線円形によって示される。外科医120は、たとえばフットスイッチ104を押下しながら自身の頭部を左方向へ回転することなど、任意の適当なUI技術を用いて指定記号744を動かす。外科医120は、フォーカスを改善する領域746を指定する。フットスイッチ104を解放することなく既定の期間メニュー項目720を強調することによって自動フォーカスがアクティブ化された場合、外科医は、領域746を凝視しフットスイッチ104を解放することによって、指定記号744を領域746に配置することにより、自動フォーカスのための領域746を指定する。フットスイッチ104を解放することによって自動フォーカスがアクティブ化されると、外科医120は、たとえば0.5秒間などの既定の期間、指定記号744を領域746に配置することによって、自動フォーカスのための領域746を指定する。システム100は、指定記号744が領域746に位置する間のわずかな動きを許容し得る。 Referring to FIG. 7C, the surgeon 120 moves the designation symbol 744 to the area 746 on the left side of the image 714 which is not fully in focus. Region 746 is indicated by a dashed circular line. The surgeon 120 moves the designation symbol 744 using any suitable UI technique, such as rotating his head to the left while pressing the foot switch 104. Surgeon 120 designates an area 746 that improves focus. If autofocus is activated by highlighting menu item 720 for a given period without releasing footswitch 104, the surgeon gazes at area 746 and releases footswitch 104 to area designation symbol 744. By arranging it in 746, the area 746 for automatic focus is designated. When autofocus is activated by releasing the footswitch 104, the surgeon 120 places the designation symbol 744 in the area 746 for a predetermined period of time, for example 0.5 seconds, to create an area for autofocus. Specify 746. System 100 may tolerate slight movements while designation symbol 744 is located in region 746.

図7Dを参照すると、コンピュータ118は、指定記号744によって指定された領域746にデジタルにフォーカスする。フォーカス前の図7Cの領域746とフォーカス後の図7Dの領域746とを比較すると、デジタルフォーカスの結果が示され得る。 Referring to FIG. 7D, the computer 118 digitally focuses on the area 746 designated by the designation symbol 744. Comparing the area 746 of FIG. 7C before focus with the area 746 of FIG. 7D after focus may show the result of digital focus.

自動フォーカスは、様々なモードに実装され得る。1つのモードにおいて、自動フォーカスがアクティブ化され、フォーカスポイント(すなわち領域746)が選択されると、自動フォーカスは選択された領域に固定し、自動フォーカス特徴が非アクティブ化されるまでフォーカス状態を維持する。これは、患者の解剖学的構造の様々な部位を捕捉するためにカメラヘッドの位置および向きが変化するアプリケーションにおいて役立ち得る。選択された領域が生画像フィード内にある限り、この領域はフォーカスが合ったままである。 Autofocus can be implemented in various modes. In one mode, when autofocus is activated and a focus point (ie, region 746) is selected, autofocus stays in focus until the autofocus feature is deactivated. do. This can be useful in applications where the position and orientation of the camera head changes to capture different parts of the patient's anatomy. As long as the selected area is in the raw image feed, this area will remain in focus.

他のモードにおいて、「自動フォーカス」は、ワンタイムアクションである。メニュー項目720を選択することによって自動フォーカス特徴がアクティブ化される度、指定記号744が表示され、外科医120は、フォーカスする領域を指定するように促される。システム100は、指定された領域にロックするのではなく、ワンタイムアクションとして指定された領域にフォーカスする。この実装において、メニュー項目720は、「オフ」または「オン」を明記することなく「自動フォーカス」と書いてある。 In other modes, "autofocus" is a one-time action. Each time the autofocus feature is activated by selecting menu item 720, the designation symbol 744 is displayed and the surgeon 120 is prompted to specify the area of focus. The system 100 does not lock to the designated area, but focuses on the designated area as a one-time action. In this implementation, menu item 720 is written as "autofocus" without specifying "off" or "on".

ここで、開示される技術の実施形態に従って構成され動作可能な、生画像フィード上にオーバレイされた、図7Aのメニューの他の図である図7Eが参照される。メニュー730は、本明細書で説明される技術を用いて呼び出された後に再度表示されたものである。ただし、この時、自動フォーカス特徴を示すメニュー項目720が「オン」を表示し、現在自動フォーカスがオンであることを示す。自動フォーカスをオフに切り換えるために、外科医120は、上述した技術を用いてメニュー項目720を選択する。 Here, reference is made to FIG. 7E, another diagram of the menu of FIG. 7A, which is configured and operational according to an embodiment of the disclosed technique and is overlaid on a raw image feed. Menu 730 is displayed again after being called using the techniques described herein. However, at this time, the menu item 720 indicating the autofocus feature displays "on", indicating that the autofocus is currently on. To switch the autofocus off, the surgeon 120 selects menu item 720 using the techniques described above.

ここで、全体として、開示される技術の他の実施形態に従って構成され動作可能な、視野の選択されたエリアにフォーカスするためのメニュー駆動型ユーザインタフェースの他の典型的な実装を示す図7F~7Iが参照される。図7F~7Iは、上述した図7A~7Dと実質的に同様である。図7Fを参照すると、生画像752上にオーバレイされたメニュー750が示される。メニュー750は、図6Aのメニュー630に対応し、オーバレイ754、自動フォーカス756、色補正758、自動センタリング760、PIP762、システムモード764、およびキャンセル768のメニュー項目を含む。外科医120は、上述したように、UI160を介して自動フォーカスをオンにする。図7Gを参照すると、UIスクリーン768が生画像752上にオーバレイされている。UIスクリーン768は、プロンプト770および記号772(たとえば丸括弧のペア)を表示する。プロンプト770は、外科医120に、記号772を操作することによって生画像752上のフォーカスポイントを指定するように要求する。図7Hを参照すると、外科医120は、フォーカスの合っていない特徴774(たとえば白色背景上のボケた黒丸)を指定するために記号772を動かす。図7Iを参照すると、生画像752の特徴774は、図7Hよりも鮮明なフォーカスで表示されている。外科医120は、以前よりも良い解像度で特徴774を見ながら外科処置を継続することができる。 Here, as a whole, FIG. 7F-FIG. 7F showing another typical implementation of a menu-driven user interface for focusing on a selected area of the field of view, configured and operable according to other embodiments of the disclosed technology. 7I is referenced. 7F-7I are substantially similar to FIGS. 7A-7D described above. Referring to FIG. 7F, an overlaid menu 750 is shown on the raw image 752. Menu 750 corresponds to menu 630 of FIG. 6A and includes menu items for overlay 754, autofocus 756, color correction 758, autocentering 760, PIP762, system mode 764, and cancel 768. The surgeon 120 turns on autofocus via the UI 160, as described above. Referring to FIG. 7G, the UI screen 768 is overlaid on the raw image 752. The UI screen 768 displays prompt 770 and the symbol 772 (eg, a pair of parentheses). Prompt 770 requests the surgeon 120 to specify a focus point on the raw image 752 by manipulating the symbol 772. Referring to FIG. 7H, the surgeon 120 moves the symbol 772 to specify an out-of-focus feature 774 (eg, a blurred black circle on a white background). Referring to FIG. 7I, feature 774 of the raw image 752 is displayed with a sharper focus than in FIG. 7H. Surgeon 120 can continue the surgical procedure while viewing feature 774 with better resolution than before.

システム100は更に、外科医120が、1または複数のオーバレイを含むようにHMD102を介してデータの表示をカスタマイズすることを可能にする事前計画段階を提供する。外科処置を行う前に、外科医120は、術前画像に1または複数の記号およびノートを追加してよい。外科処置中、追加された記号およびノートは、カメラシステム112によって取得された生ビデオに位置合わせされたオーバレイ内に表示される。たとえば、光凝固のための最適な位置を示すマークが表示され、オーバレイされ、生画像フィードに位置合わせされる。他の例として、外科医120は、たとえば付着している網膜に関して青色、剥離した網膜に関して赤色などの色マップを作成するために術前画像のエリアに着色する。色マップはその後、外科処置中に生ビデオ上にオーバレイされる。 The system 100 further provides a pre-planning step that allows the surgeon 120 to customize the display of data via the HMD 102 to include one or more overlays. Prior to performing the surgical procedure, the surgeon 120 may add one or more symbols and notes to the preoperative image. During the surgical procedure, the added symbols and notes are displayed in an overlay aligned with the live video captured by the camera system 112. For example, a mark indicating the optimal position for photocoagulation is displayed, overlaid, and aligned with the raw image feed. As another example, the surgeon 120 colors the area of the preoperative image to create a color map, such as blue for the attached retina and red for the detached retina. The color map is then overlaid on the live video during the surgical procedure.

システム100は更に、外科医120が、外科処置の間中、カメラヘッド110によって取得された任意の生画像のスナップショットの取得を制御することを可能にする。スナップショットは、コンピュータ118に格納される。格納されたスナップショットは、メモリから再呼出しされ、進捗を監視またはガイダンスを支援するために、外科処置の後の段階において個別スクリーンまたはディスプレイモジュール130上のPIPにおいて外科医に見られ得る。スナップショットは、2Dまたは3Dフォーマットで格納され得る。スナップショットは、PIP内でディスプレイモジュール130上に繰り返しレンダリングされるショートビデオクリップ、または「GIF」フォーマットとしても格納され得る。このGIFフォーマットは、膜を見るために有利である。PIPモードにおいて(すなわち、PIPを「選択」した後)、スナップショットのアクティブ化は、PIP画像のみを保存し得る。これは、PIP内に表示されたiOCT画像または内視鏡画像を保存するために役立ち得る。 The system 100 further allows the surgeon 120 to control the acquisition of snapshots of any raw image taken by the camera head 110 throughout the surgical procedure. The snapshot is stored on computer 118. The stored snapshots are recalled from memory and may be seen by the surgeon on a separate screen or PIP on the display module 130 at a later stage of the surgical procedure to monitor progress or assist guidance. Snapshots can be stored in 2D or 3D format. The snapshot may also be stored as a short video clip that is repeatedly rendered on the display module 130 within PIP, or as a "GIF" format. This GIF format is advantageous for viewing the membrane. In PIP mode (ie, after "selecting" PIP), snapshot activation may only store PIP images. This can be useful for storing iOCT images or endoscopic images displayed within PIP.

たとえば、スナップショットは、膜を増強するために染料が塗布された後、撮影され得る。染料が吸収され、消失した後でも、外科医120はなお、生ビデオフィードと共に表示されたPIP内の染色エリアを見ることができる。スナップショットは生ビデオに位置合わせされるので、外科医120は、上述したようにPIP内の点を指定してよく、生ビデオ内の対応する点が自動的に強調、着色、または記号によってマークされる。 For example, snapshots can be taken after the dye has been applied to enhance the film. Even after the dye has been absorbed and disappeared, the surgeon 120 can still see the stained area within the PIP displayed with the live video feed. Since the snapshot is aligned to the live video, the surgeon 120 may specify a point in the PIP as described above, and the corresponding point in the live video is automatically highlighted, colored, or marked with a symbol. To.

開示される技術は更に、外科医120がGIFを作成することを可能にする。外科医120は、たとえばヘッドジェスチャと関連してペダル104を用いることなどによって、カメラヘッド110によって取得された画像の記録を開始し、同様のUI入力セットを用いて記録を停止する。たとえば、システム100は、選択されると、システム100にGIFに関する画像を記録させるGIFメニュー項目(不図示)を表示する。GIFメニュー項目を選択するために、外科医120は、フットスイッチ104を押下しながら、たとえば2秒間などの既定の期間、GIFメニュー項目を凝視する。GIFに関する画像の記録を終了するために、外科医120は、フットスイッチ104を解放する。外科医120は、たとえば患者122のアイデンティティを有するタイムスタンプなどの識別細目を記載するメニュー項目へのヘッドジェスチャによって、あるいは音声制御を介して、名前を割り当てる。いくつかの実施形態において、システム100は、既知の技術を用いて、スナップショットまたはGIFに自動的に名前を割り当てる。GIFは、メモリ118D(図1B)に格納され、後に再呼出しされ、適宜、個別スクリーンに、またはメニュー項目を選択することによってPIP内に表示され得る。 The disclosed technique further allows the surgeon 120 to create a GIF. The surgeon 120 starts recording the image acquired by the camera head 110, for example by using the pedal 104 in connection with the head gesture, and stops recording using a similar UI input set. For example, the system 100, when selected, displays a GIF menu item (not shown) that causes the system 100 to record an image about the GIF. To select a GIF menu item, the surgeon 120 gazes at the GIF menu item for a predetermined period of time, for example, 2 seconds, while pressing the footswitch 104. To finish recording the image for the GIF, the surgeon 120 releases the foot switch 104. Surgeon 120 assigns a name, for example, by head gesture to a menu item that describes an identification detail, such as a time stamp with the identity of patient 122, or via voice control. In some embodiments, the system 100 automatically assigns a name to the snapshot or GIF using known techniques. The GIF is stored in memory 118D (FIG. 1B) and can be recalled later and displayed in the PIP as appropriate on a separate screen or by selecting a menu item.

システム100がアクティブ化されると、外科医120は、カメラヘッド110が正しく配置された時のみ患者の目の周囲で重なる同軸/赤目照明光線を利用して、設計位置に近付くようにカメラヘッド110を手動で配置してよい。外科医120は、その後、カメラヘッド110の位置を正しい作動距離に自動的に微調整するようにシステムに命令してよい。コンピュータ118は、高解像度カメラ140Aおよび140Bを術野124の関心エリアより上の適当な高さまで自動的に持ち上げ、すなわち、機械アームコントローラ118Gは、z軸モータを操作し、コントローラ118Hは、画像内で患者の目が中心となるようにXYモータを操作し、カメラ140Aおよび140Bのレンズを公称シャッタ、フォーカス、およびズーム値に設定し、照明システムコントローラ118Iは、照明システム114を前眼部設定に制御する。 When the system 100 is activated, the surgeon 120 uses coaxial / red-eye illumination rays that overlap around the patient's eye only when the camera head 110 is properly positioned to bring the camera head 110 closer to the design position. It may be placed manually. The surgeon 120 may then instruct the system to automatically fine-tune the position of the camera head 110 to the correct working distance. The computer 118 automatically lifts the high resolution cameras 140A and 140B to a suitable height above the area of interest in the surgical field 124, ie the mechanical arm controller 118G operates the z-axis motor and the controller 118H is in the image. Operate the XY motor so that the patient's eye is centered, set the lenses of the cameras 140A and 140B to the nominal shutter, focus, and zoom values, and the lighting system controller 118I sets the lighting system 114 to the anterior eye setting. Control.

システム100は、後の使用のためにシステム設定を保存するように構成され得る。外科処置が完了した後、外科医120は、タッチスクリーン108を介してシステム設定を編集し、今後の使用のためにその設定に名前を付けてよい。設定は、「デフォルト設定」に優先してよく、または後に、HMD102上のメニューを介して表示されるメニュー項目として出現してよい。タッチスクリーン108は、外科医120が、HMD102を介して後に表示される任意の保存設定を選択することを可能にする。 The system 100 may be configured to store system settings for later use. After the surgical procedure is complete, the surgeon 120 may edit the system settings via the touch screen 108 and name the settings for future use. The setting may take precedence over the "default setting" or may appear later as a menu item displayed via a menu on the HMD 102. The touch screen 108 allows the surgeon 120 to select any storage settings that will be displayed later via the HMD 102.

いくつかの実施形態において、システム100は、HMD102を身に着ける時、外科医120を識別する。たとえば外科医120または看護士などのユーザは、既存の外科医リストから外科医120を選択し、リスト内の各外科医は、上述したように、事前構成された設定のセットと関連する。システム100は、たとえば音声認識などの任意の適当な技術を用いて、または、たとえば外科医120の目の取得画像と過去に取得された画像とを比較するためにHMD120と統合されたアイトラッカカメラを用いるなど、生体データを用いて、外科医120を自動的に識別する。外科医120が正しく識別されると、システム100は、外科医120と関連する事前構成された設定で構成される。 In some embodiments, the system 100 identifies the surgeon 120 when wearing the HMD 102. A user, such as a surgeon 120 or a nurse, selects a surgeon 120 from an existing list of surgeons, and each surgeon in the list is associated with a preconfigured set of settings, as described above. The system 100 uses any suitable technique, such as voice recognition, or an eye tracker camera integrated with the HMD 120, eg, to compare the acquired images of the surgeon 120's eyes with previously acquired images. The surgeon 120 is automatically identified using biometric data, such as by use. If the surgeon 120 is correctly identified, the system 100 is configured with preconfigured settings associated with the surgeon 120.

同様に、いくつかの実施形態において、システム100は、患者122が、予定された外科処置に対応することを検証するために、患者122の目のリアルタイム画像と、(おそらく)患者122に関して取得された術前画像とを自動的に比較する。これは、たとえば、誤りをなくし、外科医が使用している術前データが患者122に属すること、および適切な目に対して適切な外科処置が行われていることを確認するためである。システム100は、使用されている術前データと、患者122に関して取得された生画像ストリームとの任意の不一致を、外科医120に警告する。 Similarly, in some embodiments, the system 100 is acquired with respect to a real-time image of the patient 122's eyes and (possibly) patient 122 to verify that patient 122 corresponds to the scheduled surgical procedure. Automatically compare with the preoperative image. This is, for example, to eliminate errors and ensure that the preoperative data used by the surgeon belongs to patient 122 and that the appropriate surgical procedure is performed for the appropriate eye. System 100 warns surgeon 120 of any discrepancies between the preoperative data used and the raw image stream acquired for patient 122.

いくつかの実施形態において、システム100は、外科処置の開始時、間中、または終了時のいずれかに、外科医120にチェックリストを表示する。外科医120は、実行されたアクションである項目をチェックリストから手動でチェックしてよく、またはシステム100は、これらのアクションの実行を検出し、自動的にリストから項目をチェックしてよい。チェックリストは、各外科医のためにカスタマイズされてよく、上述したように、外科医120を識別すると表示され得る。チェックリストは、サイドスクリーンに、またはリアルタイム画像内のPIPとして表示されてよく、外科医は、それをオンにするかオフにするかを選択してよい。いくつかの実施形態において、コンピュータ118(図1B)は、外科医120がFOV全体を見ることを可能にするためにHMD102を正しく配置する上で外科医120を支援するために、HMD102を介してセンタリング記号を表示する。たとえば、センタリング記号は、フレーム、またはFOVの境界を示す他の適当な記号であってよい。記号は、外科医120が最初にHMD102を身に着けた時、HMDが静止状態の後に動かされた際にHMDトラッカによって検出された時、または(任意のUI方法を介した)ユーザコマンドごとに、HMD102が動き、または位置ずれした場合、自動的に表示され得る。HMD102が、ディスプレイの瞳孔間距離(IPD)を変更する能力を備える場合、この特徴は、IPDが正確に設定されたかの検証を支援し、必要に応じて調整してもよい。 In some embodiments, the system 100 displays a checklist to the surgeon 120 either at the beginning, during, or at the end of the surgical procedure. The surgeon 120 may manually check the items that are the actions performed from the checklist, or the system 100 may detect the execution of these actions and automatically check the items from the list. The checklist may be customized for each surgeon and may be displayed when identifying the surgeon 120, as described above. The checklist may be displayed on the side screen or as a PIP in a real-time image, and the surgeon may choose to turn it on or off. In some embodiments, the computer 118 (FIG. 1B) has a centering symbol via the HMD 102 to assist the surgeon 120 in properly placing the HMD 102 to allow the surgeon 120 to see the entire FOV. Is displayed. For example, the centering symbol may be a frame, or any other suitable symbol indicating the boundaries of the FOV. The symbol is when the surgeon 120 first wears the HMD 102, when it is detected by the HMD tracker when the HMD is moved after a resting state, or per user command (via any UI method). If the HMD 102 moves or is misaligned, it may be displayed automatically. If the HMD 102 has the ability to change the interpupillary distance (IPD) of the display, this feature may assist in verifying that the IPD has been set correctly and may be adjusted as needed.

いくつかの実施形態において、システム100は、3Dデジタル顕微鏡における重なり合わない画像に関する影響を検出し補正する。この問題は、カメラが設計作動距離にない物体を捕捉し、外科医がレンズフォーカスモータを用いてフォーカスを設定する場合に生じる。これが発生すると、2つのカメラ140Aおよび140B(図1E)によって生成された画像は完全には重なり合わない。これらの画像が、ディスプレイ130Aおよび130B(図1C)を介して外科医120の両目にストリーミングされた場合、眼精疲労をもたらし得る。画像の重なり合う部分は、それらが空間内の同じ方向から到来するかのようには表示されない。外科医120は、自身の脳が2つの画像を単一の3D画像に合併するように、目を細めなければならない。 In some embodiments, the system 100 detects and corrects effects on non-overlapping images in a 3D digital microscope. This problem arises when the camera captures an object that is not within the designed working distance and the surgeon uses a lens focus motor to set the focus. When this happens, the images produced by the two cameras 140A and 140B (FIG. 1E) do not completely overlap. When these images are streamed to both eyes of the surgeon 120 via the displays 130A and 130B (FIG. 1C), they can result in eye strain. Overlapping parts of the image do not appear as if they came from the same direction in space. The surgeon 120 must squint so that his brain merges the two images into a single 3D image.

この状況はたとえば2つの2D画像の重複部分の境界を計算するための画像処理を用いることによって、または、フォーカスモータの状態から実際の作動距離を導出するために較正データを用いることによって、自動的に検出され得る。各カメラレンズのフォーカスモータ状態は、対応する事前較正された作動距離を有する。実際の作動距離と設計作動距離とを比較することによって、この不一致が計算され、考慮され得る。 This situation is automatic, for example, by using image processing to calculate the boundaries of the overlap of two 2D images, or by using calibration data to derive the actual working distance from the state of the focus motor. Can be detected in. The focus motor state of each camera lens has a corresponding pre-calibrated working distance. This discrepancy can be calculated and taken into account by comparing the actual working distance with the designed working distance.

1つの解決策は、2つの画像をシフトし、黒色バーを有する画像の損失部分を埋めることである。このようにすると、外科医120の両目は、画像の重なり合う部分を同じ方向から生じるものとして見、重なり合わないFOVの両端部は、各々が片方の目のみに見える(ただし、表示画像が黒色エリアを備える場合、ディスプレイユニットは、ディスプレイの対応するエリアにおいて一切発光しない)。 One solution is to shift the two images to fill in the lost portion of the image with the black bar. In this way, the surgeon 120's eyes see the overlapping parts of the images as originating from the same direction, and the non-overlapping FOV ends are each visible to only one eye (although the displayed image has a black area). If provided, the display unit does not emit any light in the corresponding area of the display).

ここで、全体として、開示される技術に従って構成され動作可能な、カメラの実際の作動距離と設計作動距離との不一致によって生じる重なり合わない画像に関する補正効果のための技術を示す図8A~8Bが参照される。図8Aは、実際の作動距離802と設計作動距離804との不一致を示す、光学セットアップ800を示す。不一致の結果、それぞれ直線28および11で表された、カメラ140Aおよび140B(図1E)によって取得された画像は、位置がずれ、完全に重なり合わないので、画像は、異なる方向から生じているかのように見える。 Here, FIGS. 8A-8B show techniques for the correction effect on non-overlapping images caused by the discrepancy between the actual working distance of the camera and the design working distance, which can be configured and operated according to the disclosed techniques as a whole. Referenced. FIG. 8A shows an optical setup 800 showing a discrepancy between the actual working distance 802 and the design working distance 804. As a result of the discrepancy, the images acquired by the cameras 140A and 140B (FIG. 1E), represented by straight lines 28 and 11, respectively, are misaligned and do not completely overlap, so the images are coming from different directions. looks like.

図8Bを参照すると、カメラ140Aおよび140Bによって取得された画像のシフト、および補正の結果が示される。グリッド810は、外科医120の左目に表示される、カメラ140Aによって取得された画像の数値描写を示し、グリッド812は、外科医120の右目に表示される、カメラ140Bによって取得された画像の数値描写を示す。カメラ140Aおよび140Bに関する実際の作動距離と設計距離との不一致によって、グリッド810の右端2列は、グリッド812には含まれず、グリッド812の左端2列は、グリッド810には含まれない。図8Aに戻ると、28と示された、カメラ140Bによって取得された画像に対応する直線と重なり合わない、カメラ140Aによって取得された画像に対応する直線のエンドポイントは、グリッド812に含まれないグリッド810の右上角部に対応する。11と示された、カメラ140Aによって取得された画像に対応する直線と重なり合わない、カメラ140Bによって取得された画像に対応する直線のエンドポイントは、グリッド810に含まれないグリッド812の左上角部に対応する。 Referring to FIG. 8B, the results of shift and correction of the images acquired by the cameras 140A and 140B are shown. The grid 810 shows the numerical depiction of the image acquired by the camera 140A displayed in the left eye of the surgeon 120, and the grid 812 shows the numerical depiction of the image acquired by the camera 140B displayed in the right eye of the surgeon 120. show. Due to the discrepancy between the actual working distance and the design distance for the cameras 140A and 140B, the two rightmost rows of the grid 810 are not included in the grid 812 and the two leftmost rows of the grid 812 are not included in the grid 810. Returning to FIG. 8A, the endpoint of the straight line corresponding to the image captured by the camera 140A, which does not overlap with the straight line corresponding to the image captured by the camera 140B, shown 28, is not included in the grid 812. Corresponds to the upper right corner of the grid 810. The endpoint of the straight line corresponding to the image captured by the camera 140B, which does not overlap with the straight line corresponding to the image captured by the camera 140A, indicated as 11, is the upper left corner of the grid 812 that is not included in the grid 810. Corresponds to.

この不一致を補正するために、グリッド810は、グリッド814として示すように1列右へシフトされ、グリッド812は、グリッド816として示すように1列左へシフトされる。グリッド814の左端列814Aは、画像のこの部分が外科医120に表示されないために黒く塗りつぶされ、グリッド816の右端列816Aは、画像のこの部分が外科医120に表示されないために黒く塗りつぶされる。グリッド818は、外科医120の両目に見える、両方のグリッド810および812の重なり合う特徴を中央(白色背景)に示す。灰色背景で示された左端列818Aは、外科医120の右目のみに見え、灰色背景で示された右端列818Bは、外科医120の左目のみに見える。 To correct for this discrepancy, the grid 810 is shifted one column to the right as shown as the grid 814, and the grid 812 is shifted one column to the left as shown as the grid 816. The leftmost column 814A of the grid 814 is blacked out because this part of the image is not visible to the surgeon 120, and the rightmost column 816A of the grid 816 is blacked out because this part of the image is not visible to the surgeon 120. The grid 818 shows the overlapping features of both grids 810 and 812 visible to the surgeon 120 in the center (white background). The leftmost column 818A shown on a gray background is visible only to the right eye of the surgeon 120, and the rightmost column 818B shown on a gray background is visible only to the left eye of the surgeon 120.

上述したシフト技術は、カメラ140Aおよび140Bのフォーカスが調整される間、継続的に行われ得る。あるいは、シフト技術は、フォーカス調整の完了時、たとえばフットスイッチ104の有効化ペダルが解放された時のみ行われ得る。この場合、シフト技術は、外科医120が表示画像における急激な変化を経験しないように、短期間、たとえば数秒間にわたり徐々に行われる。外科医120は、UI160を介して、シフト技術をオンまたはオフに切り換え、その期間を設定してよい。図8Bの例において、結合画像は、独立した画像の各々と同じ倍率を有することに留意する。ただし、これは必須ではなく、グリッド818によって表された結合画像が撮像FOV全体を備えるように、倍率はある程度低減され得る。たとえば、結合画像の数値表現は、各取得画像の全列を含んでおり、左端の列は、(左上端のグリッドエントリとして番号11を有する)グリッド812の左端の列に対応し右端の列は、(上端グリッドエントリとして番号28を有する)グリッド810の右端の列に対応する。実際上、このオプションが適用された場合、ユーザがフォーカスを変更すると、ズームもわずかに変化する。 The shift technique described above may be performed continuously while the cameras 140A and 140B are in focus. Alternatively, the shift technique may only be performed when the focus adjustment is complete, eg, when the activation pedal of the footswitch 104 is released. In this case, the shift technique is performed gradually over a short period of time, eg, a few seconds, so that the surgeon 120 does not experience abrupt changes in the displayed image. The surgeon 120 may switch the shift technique on or off and set the duration via the UI 160. Note that in the example of FIG. 8B, the combined image has the same magnification as each of the independent images. However, this is not essential and the magnification may be reduced to some extent so that the combined image represented by the grid 818 comprises the entire imaging FOV. For example, the numerical representation of the combined image contains the entire column of each acquired image, the leftmost column corresponds to the leftmost column of grid 812 (which has number 11 as the upper left grid entry) and the rightmost column corresponds to. , Corresponds to the rightmost column of grid 810 (having number 28 as the top grid entry). In practice, when this option is applied, the zoom will change slightly as the user changes focus.

いくつかのシナリオにおいて、重なり合わない画像が生じ得る。シフト技術を用いる補正を必要とする1つのそのようなシナリオは、外科医120がカメラヘッド110を概ね設計作動距離に配置する手順の開始時に起こる。外科医120は、照明システム114の2つの投光照明によって発生する2つの光のスポットが重なり合うまで、手術部位の上のカメラヘッド110内に収容されたカメラ140Aおよび140Bの高さを手動で調整し得る。これらの光は、設計作動距離において重なり合うように設計され得る。カメラヘッド110が完全に設計作動距離に位置しない場合、カメラ140Aおよび140Bによって生成されディスプレイ130Aおよび130Bを介して外科医120の両目に投影された画像は、図8Bにおいて上述したように、完全に重なり合わない。 In some scenarios, non-overlapping images can occur. One such scenario that requires correction using shift techniques occurs at the beginning of the procedure in which the surgeon 120 places the camera head 110 approximately at the design working distance. The surgeon 120 manually adjusts the heights of the cameras 140A and 140B housed in the camera head 110 above the surgical site until the two spots of light generated by the two floodlights of the lighting system 114 overlap. obtain. These lights can be designed to overlap at the design working distance. If the camera head 110 is not perfectly located at the design working distance, the images produced by the cameras 140A and 140B and projected into the surgeon 120's eyes through the displays 130A and 130B are fully overlapped, as described above in FIG. 8B. Do not fit.

ここで、全体として、開示される技術の実施形態に従って構成され動作可能な、様々な作動距離における図8Aの光学システム800を示す図8C~8Eが参照される。図8C~8Eの頂部線820は、左カメラ140A(図1E)によって捕捉されディスプレイ130A(図1C)によって表示された画像を示し、図8C~8Eの底部線822は、右カメラ140B(図1E)によって捕捉されディスプレイ130B(図1C)によって表示された画像を示す。図8C~8Eの破線824は、物体平面を示す。カメラ140Aおよび140Bの位置決めにおける誤差は、例示のために誇張されている。図8Cは、設計作動距離に位置するカメラを有する光学システム800を示す。したがって、実際の作動距離と設計作動距離との間に不一致はない。この構成によって取得された画像は、重複線820および822によって示すように完全に重なり合うためにシフトを必要としない。 Here, as a whole, reference is made to FIGS. 8C-8E showing the optical system 800 of FIG. 8A at various working distances, configured and operable according to embodiments of the disclosed technique. The top line 820 of FIGS. 8C-8E shows an image captured by the left camera 140A (FIG. 1E) and displayed by the display 130A (FIG. 1C), and the bottom line 822 of FIGS. 8C-8E is the right camera 140B (FIG. 1E). ) Is captured and displayed by the display 130B (FIG. 1C). Dashed lines 824 in FIGS. 8C-8E indicate an object plane. Errors in the positioning of cameras 140A and 140B are exaggerated for illustration purposes. FIG. 8C shows an optical system 800 with a camera located at the design working distance. Therefore, there is no discrepancy between the actual working distance and the designed working distance. The images obtained by this configuration do not require a shift to completely overlap as indicated by the overlapping lines 820 and 822.

図8Dを参照すると、設計作動距離より下に位置し、実際の作動距離と設計作動距離との間の不一致をもたらすカメラ140Aおよび140B(図1E)を有する光学システム800が示される。この不一致の結果として、カメラ140Aおよび140Bの各々によって取得され、それぞれディスプレイ130Aおよび130Bを介して表示された画像は、完全に重なり合わない。左カメラ140Aによって取得されディスプレイ130Aによって表示された画像を示す直線820は、右カメラ140Bによって取得されディスプレイ130Bを介して表示された画像を示す直線822と完全に重なり合わない。その結果、2つの画像内の重なり合う部分は、異なる方向から生じているように出現し、ユーザの左目および右目は、脳内で結合された3D画像を生成しようとして細められる。これは、たとえば上述したシフト技術を用いることなどによって画像が補正されない限り、眼精疲労をもたらし得る。 Referring to FIG. 8D, an optical system 800 is shown that is located below the design working distance and has cameras 140A and 140B (FIG. 1E) that result in a discrepancy between the actual working distance and the design working distance. As a result of this discrepancy, the images acquired by each of the cameras 140A and 140B and displayed through the displays 130A and 130B, respectively, do not completely overlap. The straight line 820 that shows the image acquired by the left camera 140A and displayed by the display 130A does not completely overlap with the straight line 822 that shows the image taken by the right camera 140B and displayed through the display 130B. As a result, the overlapping parts of the two images appear to originate from different directions, and the user's left and right eyes are narrowed in an attempt to generate a combined 3D image in the brain. This can result in eye strain unless the image is corrected, for example by using the shift technique described above.

図8Eを参照すると、設計作動距離より上に位置し、実際の作動距離と設計作動距離との間の不一致をもたらすカメラ140Aおよび140Bを有する光学システム800が示される。この不一致の結果として、カメラ140Aおよび140Bの各々によって取得された画像は完全に重なり合わない。左カメラ140Aによって取得されディスプレイ130Aによって表示された画像を示す直線820は、右カメラ140Bによって取得されディスプレイ130Bによって表示された画像を示す直線822と重なり合わない。上述したように、シフト技術を適用しない場合、脳内で結合された3D画像を生成しようとして左目および右目が細められ、眼精疲労をもたらす。 Referring to FIG. 8E, an optical system 800 with cameras 140A and 140B located above the design working distance and resulting in a discrepancy between the actual working distance and the design working distance is shown. As a result of this discrepancy, the images acquired by each of the cameras 140A and 140B do not completely overlap. The straight line 820 showing the image acquired by the left camera 140A and displayed by the display 130A does not overlap with the straight line 822 showing the image taken by the right camera 140B and displayed by the display 130B. As mentioned above, when the shift technique is not applied, the left and right eyes are narrowed in an attempt to generate a combined 3D image in the brain, resulting in eye strain.

いくつかの実施形態において、たとえばシステム100がカメラヘッド110の高さを制御するためのz軸モータを含む場合、UI160は、カメラヘッド110の高さを設計作動距離に自動的に調整するために、初期化オプション、すなわち「初期」または「ホーム」メニュー項目を提示する。システム100が、カメラヘッド110の高さを制御するためのZモータを有して構成されていない実施形態において、コンピュータは、実際の作動距離と設計作動距離との間の不一致を決定するために画像処理技術を適用し、不一致が許容閾値よりも大きい場合、外科医120に、距離を手動で調整するように通知する。たとえば、UI160は、上下いずれかに、どの程度、すなわち何センチメートルまたは何インチ、高さを調整するかを外科医120にガイドするメッセージを表示する。ただし、外科医120は、たとえば撮像FOVを増加させるために、設計作動距離とは異なる距離で作業し続けることを選択してよい(下側は、FOVの全てではなく画像が重なり合う部分のみで3Dで見えている)。 In some embodiments, for example, if the system 100 includes a z-axis motor for controlling the height of the camera head 110, the UI 160 is for automatically adjusting the height of the camera head 110 to the design working distance. , Presents initialization options, ie "Initial" or "Home" menu items. In embodiments where the system 100 is not configured with a Z motor to control the height of the camera head 110, the computer determines a discrepancy between the actual working distance and the designed working distance. Image processing techniques are applied and if the discrepancy is greater than the permissible threshold, the surgeon 120 is informed to manually adjust the distance. For example, the UI 160 displays a message, either up or down, that guides the surgeon 120 how much, ie, how many centimeters or inches, how many heights to adjust. However, the surgeon 120 may choose to continue working at a distance different from the design working distance, for example to increase the imaging FOV (the lower side is 3D, not all of the FOV, but only where the images overlap). I can see it).

シフト技術を用いる補正を必要とする他のシナリオは、カメラ140Aおよび140Bが設計作動距離に適切に位置する時、外科医120が、焦点面を変更するためにカメラ140Aおよび140Bに統合されたレンズフォーカスモータを用いる場合である。たとえば、外科医120が前眼部および後眼部モード間で切り換え、または同じモード内で異なる平面にフォーカスする時、カメラ140Aおよび140Bによって取得された画像間の不一致は、眼精疲労をもたらすほどに大きくなり得る。そのような場合、カメラ140Aおよび140Bによって取得された画像を一致させ、外科医120が経験する眼精疲労を軽減するために、上述したシフト技術が適用され得る。 Another scenario that requires correction using shift technology is the lens focus integrated into the cameras 140A and 140B by the surgeon 120 to change the focal plane when the cameras 140A and 140B are properly positioned at the design working distance. This is the case when a motor is used. For example, when the surgeon 120 switches between anterior and posterior eye modes, or focuses on different planes within the same mode, the discrepancy between the images acquired by the cameras 140A and 140B is enough to cause eye strain. Can grow. In such cases, the shift techniques described above may be applied to match the images acquired by the cameras 140A and 140B and reduce the eye strain experienced by the surgeon 120.

ここで、開示される技術の実施形態に従って構成され動作可能な、2つの異なる焦点面830および832にフォーカスするように構成された図8Aの光学システム800を示す図8Fが参照される。設計作動距離は、破線834によって示される。焦点面830は、設計作動距離834の上に位置し、焦点面832は、設計作動距離834の下に位置する。頂部線836は、左カメラ140Aによって捕捉されディスプレイ130Aを介して表示された画像を表し、底部線838は、右カメラ140Bによって捕捉されディスプレイ130Bを介して表示された画像を表す。頂部線836は、底部線838に対して左へシフトした状態で示され、本明細書で説明されるシフト技術を用いて補正され得る、2つの取得画像間の不一致を示す。焦点面832と同様に、頂部線840は、左カメラ140Aによって捕捉されディスプレイ130Aを介して表示された画像を表し、底部線842は、右カメラ140Bによって捕捉されディスプレイ130Bを介して表示された画像を表す。頂部線840は、底部線842に対して右へシフトした状態で示され、カメラ140Aおよび140Bが焦点面832に調整された時の2つの取得画像間の不一致を示す。この不一致もまた、本明細書で説明されるシフト技術を用いて補正され得る。 Here, reference is made to FIG. 8F showing an optical system 800 of FIG. 8A configured to focus on two different focal planes 830 and 832 that are configured and operable according to embodiments of the disclosed technique. The design working distance is indicated by the dashed line 834. The focal plane 830 is located above the design working distance 834 and the focal plane 832 is located below the design working distance 834. The top line 836 represents an image captured by the left camera 140A and displayed through the display 130A, and the bottom line 838 represents an image captured by the right camera 140B and displayed through the display 130B. Top line 836 is shown shifted to the left with respect to bottom line 838 and indicates a discrepancy between the two acquired images that can be corrected using the shift technique described herein. Similar to the focal plane 832, the top line 840 represents an image captured by the left camera 140A and displayed through the display 130A, and the bottom line 842 is an image captured by the right camera 140B and displayed through the display 130B. Represents. The top line 840 is shown shifted to the right with respect to the bottom line 842, indicating a discrepancy between the two acquired images when the cameras 140A and 140B are adjusted to the focal plane 832. This discrepancy can also be corrected using the shift technique described herein.

上述した実施形態において、シフトは、外科医の両目が前方に視線を向けている時に快適な立体視を可能にするために行われた。いくつかの実施形態において、システム100は、2つの表示画像間の不一致を意図的に生成するように構成され得る。シフトの量は、システム100の各ユーザに固有に合わせられ得る。表示画像は、水平、垂直、またはその両方にシフトされ得る。シフトは、外科医の両目の各々に固有であってよい。このシフト特徴は、斜位(すなわち両目のずれ)を経験する外科医の眼精疲労を軽減するために有用であり得る。シフトの量および方向は、頭部の向きに依存する斜位状態の場合、(トラッカによって示されるような)頭部の向きの関数として変化するように構成され得る。 In the embodiments described above, the shift was performed to allow comfortable stereoscopic viewing when the surgeon's eyes are looking forward. In some embodiments, the system 100 may be configured to intentionally generate a discrepancy between the two display images. The amount of shift can be uniquely tailored to each user of system 100. The displayed image can be shifted horizontally, vertically, or both. The shift may be unique to each of the surgeon's eyes. This shift feature can be useful for reducing eye strain in surgeons experiencing obliqueness (ie, misalignment of both eyes). The amount and direction of the shift can be configured to vary as a function of head orientation (as indicated by the tracker) in the case of an oblique state that depends on head orientation.

いくつかの実施形態において、ユーザ固有シフトは、1回の較正プロセス中に構成されてよく、システム100の後の使用に関して自動的に実施されるようにユーザごとに保存され得る。任意選択的に、外科医は、外科処置中にシフト特性を調整してよい。任意選択的に、頭部の向きに基づくシフトは、段階的に、かつ所定の期間、HMD102の装着者の頭部の向きが変化しなかった後にのみ行われる。これは、何人かのユーザを妨害し得る、他の機能を有効化するためのヘッドジェスチャの実行に応答する表示画像のシフトを防ぐためである。場合によっては、表示画像は、視線方向(たとえば垂直視線方向)において起こり得る斜位依存を補正するために不均一にシフトされ得る。たとえば、斜位が垂直視線方向に依存する場合、シフトは、画像の上部から下部へ連続的に(必ずしも線形的にではなく)変化し得る。任意選択的に、HMD102がHMD光学系のフォーカスの変更を有効化する場合、シフトの量および方向は、フォーカスに依存してよい。ただし、フォーカス依存のシフトは、斜位を示さないユーザに関しても実施され得る。上述したシフトは、後述するように、補正を必要とし得る両眼競合効果を生じることもある。ここで、本明細書で説明されるシフト技術の適用後、HMD102を介して表示される画像を示す図8G~8Iが参照される。シフトの効果は、明確性のために誇張されている。図8Gは、カメラ140Aによって取得された2D生画像850を示す。2D生画像850は、生画像850の左端に表示された黒色境界線852によって示すように、本明細書で説明されるシフト技術に従って右へシフトされている。図8Hは、カメラ140Bによって取得された2D生画像854を示す。2D生画像854は、生画像854の右端に表示された黒色境界線856によって示すように、本明細書で説明されるシフト技術に従って左へシフトされている。 In some embodiments, the user-specific shift may be configured during a single calibration process and may be stored per user to be automatically performed for later use of the system 100. Optionally, the surgeon may adjust the shift characteristics during the surgical procedure. Optionally, the head orientation-based shift is performed stepwise and only after the head orientation of the HMD 102 wearer has not changed for a predetermined period of time. This is to prevent the display image from shifting in response to performing a head gesture to enable other features that could interfere with some users. In some cases, the displayed image may be non-uniformly shifted to compensate for possible tilt dependence in the line-of-sight direction (eg, vertical line-of-sight direction). For example, if the tilt depends on the direction of the vertical line of sight, the shift can change continuously (not necessarily linearly) from the top to the bottom of the image. Optionally, if the HMD 102 enables the change of focus in the HMD optics, the amount and direction of shift may depend on the focus. However, focus-dependent shifts can also be performed for users who do not exhibit tilt. The shifts described above may also result in binocular competitive effects that may require correction, as described below. Here, FIGS. 8G-8I showing images displayed via the HMD 102 after application of the shift technique described herein are referenced. The effect of the shift is exaggerated for clarity. FIG. 8G shows a 2D raw image 850 acquired by the camera 140A. The 2D raw image 850 is shifted to the right according to the shift technique described herein, as indicated by the black border 852 displayed at the left edge of the raw image 850. FIG. 8H shows a 2D raw image 854 acquired by the camera 140B. The 2D raw image 854 is shifted to the left according to the shift technique described herein, as indicated by the black border 856 displayed at the right edge of the raw image 854.

シフト技術によって実行されたシフト量が著しい場合、両眼競合効果が生じ得る。図8Iを参照すると、3D生画像858の表現が示される。画像858は、図8Gの2D生画像850と図8Hの生画像854との組み合わせである。範囲864は、画像850および854の両方から作成され、それぞれディスプレイ130Aおよび130Bの両方によって表示された画像858の部分を示す。画像858の範囲866は、画像854のみから作成され、ディスプレイ130Bのみによって表示された画像858の部分を示し、画像858の範囲868は、画像850のみから作成され、ディスプレイ130Aのみによって表示された画像858の部分を示す。脳は、それぞれ画像850および854の黒色境界線852および856を補正して、外科医120に、破線860および862によって描かれたエリアの輝度における著しいコントラストを見させ、画像858の輝度は半分に急降下する。画像858の中間エリア(範囲864)はディスプレイ130Aおよび130Bの両方によって表示されるが、画像858の左端(範囲866)はディスプレイ130Bのみによって表示され、画像858の右端(範囲868)はディスプレイ130Aのみによって表示される。1つの解決策は、「欠けた端部」、すなわちそれぞれ852および856の付近のエリアにおいて、画像850および854の両方の輝度を徐々に低減し、直線866および868によって描かれたエリアの輝度における著しいコントラストをなくすことである。線形勾配は脳によって検出可能であり得るため、輝度の低減は、非線形勾配を辿り得る。 A binocular competitive effect can occur if the amount of shift performed by the shift technique is significant. Referring to FIG. 8I, a representation of the 3D raw image 858 is shown. Image 858 is a combination of the 2D raw image 850 of FIG. 8G and the raw image 854 of FIG. 8H. Range 864 shows a portion of image 858 created from both images 850 and 854 and displayed by both displays 130A and 130B, respectively. The range 866 of the image 858 shows the portion of the image 858 created only from the image 854 and displayed only by the display 130B, and the range 868 of the image 858 is an image created only from the image 850 and displayed only by the display 130A. The part of 858 is shown. The brain corrects the black borders 852 and 856 of images 850 and 854, respectively, to allow the surgeon 120 to see a significant contrast in the brightness of the area depicted by the dashed lines 860 and 862, and the brightness of image 858 plummets in half. do. The middle area (range 864) of image 858 is displayed by both displays 130A and 130B, while the left edge of image 858 (range 866) is displayed only by display 130B and the right edge of image 858 (range 868) is display 130A only. Displayed by. One solution is to gradually reduce the brightness of both images 850 and 854 in the "missing edge", i.e., in the area near 852 and 856, respectively, in the brightness of the area drawn by the straight lines 866 and 868. It is to eliminate the remarkable contrast. Since the linear gradient can be detectable by the brain, the reduction in brightness can follow a non-linear gradient.

ここで、開示される技術の他の実施形態に従って構成され動作可能な、ヘッドアップディスプレイシステムを制御するための方法の概略図である図9が参照される。 Reference is made here to FIG. 9, which is a schematic representation of a method for controlling a heads-up display system that is configured and operational according to other embodiments of the disclosed technology.

手順900において、外科処置の術野が照明され、照明された外科処置の少なくとも1つの画像が取得される。図1Aを参照すると、頭部装着型ディスプレイシステム100の照明システム114は、術野124を照明する。カメラシステム112は、照明された術野124の少なくとも1つの画像を取得する。 In step 900, the surgical field is illuminated and at least one image of the illuminated surgical procedure is acquired. Referring to FIG. 1A, the lighting system 114 of the head-mounted display system 100 illuminates the surgical field 124. The camera system 112 acquires at least one image of the illuminated surgical field 124.

手順902において、頭部装着型ディスプレイを介して、外科処置に関する少なくとも1つの画像が外科医に表示される。画像は、カメラシステム112を介して取得されリアルタイムで表示された少なくとも1つの画像、事前に取得された術前画像、またはたとえばメニュー、オーバレイなどのUI160に関する画像のいずれかであってよい。図1Aを参照すると、頭部装着型ディスプレイ102を介して少なくとも1つの画像が表示される。 In step 902, at least one image of the surgical procedure is displayed to the surgeon via the head-mounted display. The image may be at least one image acquired via the camera system 112 and displayed in real time, a preoperative image acquired in advance, or an image relating to the UI 160, such as a menu, overlay, or the like. Referring to FIG. 1A, at least one image is displayed via the head-mounted display 102.

手順904において、ヘッドジェスチャ入力は、足部運動入力と関連して受信される。図2Aを参照すると、ヘッドトラッカ162は、外科医120(図1A)によるヘッドジェスチャ入力を受信し、フットスイッチ104は、外科医120からの足部運動入力を受信する。コンピュータ118は、足部運動入力と関連してヘッドジェスチャ入力を受信する。 In step 904, the head gesture input is received in association with the foot movement input. Referring to FIG. 2A, the head tracker 162 receives the head gesture input by the surgeon 120 (FIG. 1A) and the foot switch 104 receives the foot movement input from the surgeon 120. The computer 118 receives the head gesture input in association with the foot movement input.

手順906において、頭部装着型ディスプレイシステムが第1のシステムモードである時、頭部装着型ディスプレイシステムにおいて第1のアクションを行い、頭部装着型ディスプレイシステムが第2のシステムモードである時、頭部装着型ディスプレイシステムにおいて第2のアクションを行うために、足部運動入力と関連して受信されたヘッドジェスチャ入力が適用される。図2Bを参照すると、コンピュータ118は、システムモードがノーマルである時、ズームアウトアクション240を行い、システムモードが術前に設定されている時、スクロールアクション242を行うために、足部運動入力と関連して受信されたヘッドジェスチャ入力を適用する。 In step 906, when the head-mounted display system is in the first system mode, the first action is taken in the head-mounted display system, and the head-mounted display system is in the second system mode. In order to perform the second action in the head-mounted display system, the head gesture input received in connection with the foot movement input is applied. Referring to FIG. 2B, the computer 118 performs the zoom-out action 240 when the system mode is normal, and the foot movement input to perform the scroll action 242 when the system mode is set preoperatively. Apply the associated received head gesture input.

いくつかの実施形態において、第1および第2のアクションは、頭部装着型ディスプレイのディスプレイモジュールに結合されたシャッタを制御することのいずれかを備え、シャッタが開いている場合、ディスプレイモジュールは少なくとも部分的に透明であり、シャッタが閉じている場合、ディスプレイモジュールは実質的に不透明である。図1Cを参照すると、シャッタ132は、頭部装着型ディスプレイ102のディスプレイモジュール130と共に構成される。 In some embodiments, the first and second actions include controlling the shutter coupled to the display module of the head-mounted display, and if the shutter is open, the display module is at least When partially transparent and the shutter is closed, the display module is substantially opaque. Referring to FIG. 1C, the shutter 132 is configured with the display module 130 of the head-mounted display 102.

他の実施形態において、第1および第2のアクションは、頭部装着型ディスプレイを介して表示された画像を制御すること、カメラシステムを制御すること、照明システムを制御すること、カメラヘッド位置決め器を制御することのいずれかを備える。図2Aを参照すると、コンピュータ118(図1B)は、UI出力160Bの構成要素を制御するためにUI入力160Aを介して受信された入力を適用し、すなわち、コンピュータ118は、カメラシステム112、照明システム114、HMD102を介してディスプレイモジュール130に表示された画像、およびカメラヘッド位置決め器111またはロボットアームの1つを制御する。 In another embodiment, the first and second actions are controlling an image displayed via a head-mounted display, controlling a camera system, controlling a lighting system, a camera head positioner. Equipped with any of the controls. Referring to FIG. 2A, the computer 118 (FIG. 1B) applies the input received via the UI input 160A to control the components of the UI output 160B, i.e. the computer 118 is the camera system 112, illumination. It controls the image displayed on the display module 130 via the system 114, the HMD 102, and one of the camera head positioners 111 or the robot arm.

いくつかの実施形態において、頭部装着型ディスプレイを介して表示された画像を制御することは、生フィードビデオ、VGSビデオ、および術前iOCTビデオから成るグループから画像を選択すること、ズームインおよびズームアウトすること、少なくとも2つの仮想スクリーン間でスクロールすること、ピクチャインピクチャ(PIP)を表示すること、生画像の上にオーバレイを表示すること、画像をセンタリングすること、メニューを表示すること、メニューをナビゲートすること、および画像の関心領域を制御することのいずれかを備える。頭部装着型ディスプレイを介して表示された画像の特性は、たとえばデジタルまたは光学的になど、任意の適当な技術に従って制御され得る。 In some embodiments, controlling an image displayed through a head-mounted display involves selecting an image from a group consisting of live feed video, VGS video, and preoperative iOCT video, zooming in and zooming. Out, scrolling between at least two virtual screens, displaying picture-in-pictures (PIPs), displaying overlays on top of raw images, centering images, displaying menus, menus It comprises either navigating and controlling the area of interest of the image. The characteristics of the image displayed via the head-mounted display can be controlled according to any suitable technique, for example digitally or optically.

いくつかの実施形態において、カメラシステムを制御することは、カメラシステムの1または複数の光または電気特性を制御することを備える。たとえば、画像を取得するためのカメラが選択されてよく、カメラシステムの位置および向きが制御され得る。図1Eを参照すると、コンピュータ118(図1B)は、高解像度カメラ140Aおよび140B、IRカメラ148、およびiOCTスキャナ142のいずれかを選択する。図1Aを参照すると、コンピュータ118は、カメラヘッド位置決め器111を介してカメラシステム112の位置および向きを制御する。 In some embodiments, controlling a camera system comprises controlling one or more optical or electrical properties of the camera system. For example, a camera for acquiring images may be selected and the position and orientation of the camera system may be controlled. Referring to FIG. 1E, the computer 118 (FIG. 1B) selects one of the high resolution cameras 140A and 140B, the IR cameras 148, and the iOCT scanner 142. Referring to FIG. 1A, the computer 118 controls the position and orientation of the camera system 112 via the camera head positioner 111.

いくつかの実施形態において、照明システムを制御することは、複数の照明器の少なくとも1つを選択すること、強度設定を選択すること、フィルタを選択すること、および上記照明システムの位置および向きを制御することのいずれかを備える。図1Fを参照すると、コンピュータ118(図1B)は、白色投光照明150、IR投光照明152、および同軸光154Aおよび154Bのいずれかを選択する。図1Aを参照すると、コンピュータ118は、カメラヘッド位置決め器111を介して照明システム114の位置および向きを制御する。 In some embodiments, controlling a luminaire is to select at least one of a plurality of illuminators, to select an intensity setting, to select a filter, and to position and orient the illuminating system. Equipped with any of the controls. Referring to FIG. 1F, the computer 118 (FIG. 1B) selects one of the white floodlight 150, the IR floodlight 152, and the coaxial lights 154A and 154B. Referring to FIG. 1A, the computer 118 controls the position and orientation of the lighting system 114 via the camera head positioner 111.

手順908において、外科医による音声コマンドが検出される。音声コマンドは、頭部装着型ディスプレイシステムを制御するために適用される。図1Dを参照すると、コンピュータ118(図1B)は、マイクロフォン138を介して外科医120(図1A)による音声コマンドを受信する。コンピュータ118は、頭部装着型ディスプレイシステム100を制御するために、音声コマンドを適用する。 In step 908, a voice command by the surgeon is detected. Voice commands are applied to control a head-mounted display system. Referring to FIG. 1D, the computer 118 (FIG. 1B) receives a voice command from the surgeon 120 (FIG. 1A) via the microphone 138. The computer 118 applies voice commands to control the head-worn display system 100.

手順910において、外科医による眼部運動が検出され、眼部運動は、頭部装着型ディスプレイシステムを制御するために適用される。図1Cを参照すると、アイトラッキング部品136は、外科医120の眼部運動を追跡し、トランシーバ102Bおよび118Bを介してコンピュータ118(図1B)へ眼部運動を提供する。 In step 910, eye movements by the surgeon are detected and the eye movements are applied to control the head-worn display system. Referring to FIG. 1C, eye tracking component 136 tracks eye movements of surgeon 120 and provides eye movements to computer 118 (FIG. 1B) via transceivers 102B and 118B.

手順912において、第1のシステムモードから第2のシステムモードへ切り換えるためにヘッドジェスチャ入力が適用される。図2A~2Bを参照すると、コンピュータ118は、バイタルシステムモード244へ切り換えるために、UI入力160Aを介して受信したヘッドジェスチャ入力を適用する。いくつかの実施形態において、コンピュータ118は、モードを切り換えるために、足部運動入力と関連して受信されたヘッドジェスチャ入力を適用する。 In step 912, a head gesture input is applied to switch from the first system mode to the second system mode. Referring to FIGS. 2A-2B, the computer 118 applies the head gesture input received via the UI input 160A in order to switch to the vital system mode 244. In some embodiments, the computer 118 applies a head gesture input received in association with the foot movement input to switch modes.

いくつかの実施形態において、画像は、頭部装着型ディスプレイシステムが第1のシステムモードである時、頭部装着型ディスプレイを介してディスプレイ固定状態で表示される。画像は、頭部装着型ディスプレイシステムが第2のシステムモードである時、頭部装着型ディスプレイを介して複数の仮想スクリーンの1つに世界固定状態で表示され、第2のアクションは、複数の仮想スクリーンをスクロールする。図5Aを参照すると、ディスプレイ固定状態が示される。外科医120に表示されたビデオは、彼が前方(500)から30度左(502)へ視線を動かした時、変化しない。図5Bを参照すると、世界固定状態が示される。外科医120に表示されたビデオは、彼が右に5度(504)から右に25度(506)へ視線を動かした時、変化する。視野を埋めるコンテンツは、仮想スクリーンが手術室内の固定された物体であるかのようにシフトする。 In some embodiments, the image is displayed in a fixed display state via the head-mounted display when the head-mounted display system is in the first system mode. The image is displayed in a world-fixed state on one of multiple virtual screens via the head-mounted display when the head-mounted display system is in the second system mode, and the second action is multiple. Scroll the virtual screen. Referring to FIG. 5A, a fixed display state is shown. The video displayed to Surgeon 120 does not change when he moves his gaze from anterior (500) to 30 degrees to the left (502). With reference to FIG. 5B, the world fixed state is shown. The video displayed to Surgeon 120 changes as he moves his gaze from 5 degrees (504) to the right to 25 degrees (506) to the right. The content that fills the field of view shifts as if the virtual screen were a fixed object in the operating room.

いくつかの実施形態において、頭部装着型ディスプレイの視野の第1の領域は、第1のシステムモードに対応し、頭部装着型ディスプレイの視野の第2の領域は、第2のシステムモードに対応する。第1のシステムモードから第2のシステムモードへ切り換えるために適用されるヘッドジェスチャ入力は、外科医の視線を第2の領域に一致させる。図3Aを参照すると、視野の中心にある領域302は、ノーマルシステムモードに対応し、領域302の左側にある領域306は、術前システムモードに対応する。外科医120は、自身の視線を領域302から領域306へ動かすことによって、システムモードを切り換えてよい。 In some embodiments, the first area of the field of view of the head-mounted display corresponds to the first system mode and the second area of the field of view of the head-mounted display corresponds to the second system mode. handle. The head gesture input applied to switch from the first system mode to the second system mode aligns the surgeon's line of sight with the second area. Referring to FIG. 3A, the region 302 in the center of the field of view corresponds to the normal system mode and the region 306 to the left of the region 302 corresponds to the preoperative system mode. The surgeon 120 may switch system modes by moving his line of sight from region 302 to region 306.

いくつかの実施形態において、メニューは、頭部装着型ディスプレイに表示された画像上にオーバレイされた状態で表示される。メニューは、頭部装着型ディスプレイの視野の第1の領域において第1のシステムモードに関する第1のメニュー項目を表示し、頭部装着型ディスプレイの視野の第2の領域においてオーバレイされた第2のシステムモードに関する第2のメニュー項目を表示する。第1のシステムモードから第2のシステムモードへ切り換えるために適用されるヘッドジェスチャ入力は、外科医の視線を上記第2のメニュー項目に一致させる。図4A~4Cを参照すると、メニュー400は、外科処置のビデオ上にオーバレイされた状態で示される。メニュー400は、複数のメニュー項目402、404、406、408、410、および412を含む。外科医120は、メニュー項目間で自身の視線を動かすことによって、たとえば図4Aにおいて強調されたメニュー項目402から図4Bにおいて強調されたメニュー項目410へ、システムモードを切り換えてよい。 In some embodiments, the menu is displayed as an overlay on the image displayed on the head-mounted display. The menu displays the first menu item for the first system mode in the first area of the field of view of the head-mounted display and the second overlaid in the second area of the field of view of the head-mounted display. Display a second menu item for the system mode. The head gesture input applied to switch from the first system mode to the second system mode aligns the surgeon's line of sight with the second menu item above. With reference to FIGS. 4A-4C, the menu 400 is shown overlaid on the surgical procedure video. Menu 400 includes a plurality of menu items 402, 404, 406, 408, 410, and 412. The surgeon 120 may switch the system mode from, for example, menu item 402 highlighted in FIG. 4A to menu item 410 highlighted in FIG. 4B by moving his gaze between menu items.

当業者には、開示される技術が、上記で具体的に示され説明されたものに限定されないことが理解される。正しくは、開示される技術の範囲は、以下に示す特許請求の範囲によってのみ定められる。 Those skilled in the art will appreciate that the techniques disclosed are not limited to those specifically indicated and described above. Correctly, the scope of the disclosed technology is defined only by the claims set forth below.

Claims (30)

外科医によって装着されるように構成された頭部装着型ディスプレイと、
前記外科医によるヘッドジェスチャ入力を追跡するように構成されたトラッカと、
前記外科医による足部運動入力を検出するように構成されたフットスイッチと、
前記頭部装着型ディスプレイ、前記トラッカ、および前記フットスイッチに結合されたコンピュータと、
前記頭部装着型ディスプレイ、前記トラッカ、および前記フットスイッチを少なくとも備えるユーザインタフェースであって、
前記コンピュータに、前記フットスイッチから受信した足部運動入力と関連して前記トラッカから受信したヘッドジェスチャ入力を提供し、
前記頭部装着型ディスプレイにおいて外科処置に関する画像を表示するように構成されたユーザインタフェースと
を備える頭部装着型ディスプレイシステムであって、
前記コンピュータは、
前記頭部装着型ディスプレイシステムが第1のシステムモードである時、前記頭部装着型ディスプレイシステムにおいて第1のアクションを行い、前記頭部装着型ディスプレイシステムが第2のシステムモードである時、前記頭部装着型ディスプレイシステムにおいて第2のアクションを行うために、前記足部運動入力と関連して受信された前記ヘッドジェスチャ入力を適用するように構成される、前記頭部装着型ディスプレイシステムのためのユーザインタフェース。
A head-mounted display configured to be worn by the surgeon,
With a tracker configured to track head gesture input by the surgeon,
A foot switch configured to detect the foot movement input by the surgeon,
With the head-mounted display, the tracker, and the computer coupled to the footswitch,
A user interface comprising the head-mounted display, the tracker, and the footswitch.
The computer is provided with the head gesture input received from the tracker in connection with the foot motion input received from the foot switch.
A head-mounted display system comprising a user interface configured to display images relating to a surgical procedure in the head-mounted display.
The computer
When the head-mounted display system is in the first system mode, the first action is performed in the head-mounted display system, and when the head-mounted display system is in the second system mode, the above-mentioned For the head-mounted display system configured to apply the head gesture input received in connection with the foot movement input to perform a second action in the head-mounted display system. User interface.
前記トラッカは、前記頭部装着型ディスプレイと少なくとも部分的に統合され、前記頭部装着型ディスプレイを追跡するように構成される、請求項1に記載のシステム。 The system of claim 1, wherein the tracker is at least partially integrated with the head-mounted display and is configured to track the head-mounted display. 前記トラッカは、前記頭部装着型ディスプレイの外部のカメラである、請求項1に記載のシステム。 The system according to claim 1, wherein the tracker is an external camera of the head-mounted display. 前記頭部装着型ディスプレイに結合されたシャッタを更に備え、前記シャッタが開いている場合、前記頭部装着型ディスプレイは少なくとも部分的に透明であり、前記シャッタが閉じている場合、前記頭部装着型ディスプレイは実質的に不透明である、請求項1に記載のシステム。 The head-mounted display further comprises a shutter coupled to the head-mounted display, the head-mounted display is at least partially transparent when the shutter is open, and the head-mounted display when the shutter is closed. The system of claim 1, wherein the type display is substantially opaque. 前記第1のアクションおよび前記第2のアクションの1つは、前記シャッタを制御する、請求項4に記載のシステム。 The system of claim 4, wherein the first action and one of the second actions control the shutter. 前記ユーザインタフェースは、音声コマンドを検出するように構成されたマイクロフォンを更に備え、前記入力は、前記音声コマンドを更に備える、請求項1に記載のシステム。 The system of claim 1, wherein the user interface further comprises a microphone configured to detect a voice command, and the input further comprises said voice command. 前記外科医による眼部運動を検出するように構成されたアイトラッカを更に備え、前記入力は、前記眼部運動を更に備える、請求項1に記載のシステム。 The system of claim 1, further comprising an eye tracker configured to detect eye movements by the surgeon, wherein the input further comprises said eye movements. 前記画像を取得するように構成されたカメラシステムと、前記カメラシステムと共に動作するように構成された照明システムと、カメラヘッド位置決め器およびロボットアームから成るグループから選択された位置決め機構とを更に備える、請求項1に記載のシステム。 It further comprises a camera system configured to acquire the image, a lighting system configured to operate with the camera system, and a positioning mechanism selected from the group consisting of a camera head positioner and a robot arm. The system according to claim 1. 前記第1のアクションおよび前記第2のアクションは、
前記頭部装着型ディスプレイを介して表示される前記画像の特性を制御すること、
前記カメラシステムを制御すること、
前記照明システムを制御すること、および
前記位置決め機構を制御すること
から成るグループから選択される、請求項8に記載のシステム。
The first action and the second action are
Controlling the characteristics of the image displayed via the head-mounted display,
Controlling the camera system,
8. The system of claim 8, selected from the group consisting of controlling the lighting system and controlling the positioning mechanism.
前記頭部装着型ディスプレイを介して表示される前記画像の前記特性を制御することは、前記画像のコンテンツを選択すること、ズームインおよびズームアウトすること、少なくとも2つの仮想スクリーン間でスクロールすること、ピクチャインピクチャ(PIP)を表示すること、生画像の上にオーバレイを表示すること、前記画像をセンタリングすること、メニューを表示すること、メニューをナビゲートすること、および前記画像の関心領域を制御することから成るグループから選択されたアクションを備える、請求項9に記載のシステム。 Controlling the properties of the image displayed through the head-mounted display is to select the content of the image, zoom in and out, scroll between at least two virtual screens, and so on. Displaying a picture-in-picture (PIP), displaying an overlay on top of a raw image, centering the image, displaying a menu, navigating the menu, and controlling the area of interest in the image. 9. The system of claim 9, comprising an action selected from a group consisting of. 前記カメラシステムを制御することは、前記カメラシステムの1または複数の光学電気特性を制御することを備える、請求項9に記載のシステム。 9. The system of claim 9, wherein controlling the camera system comprises controlling one or more optical and electrical properties of the camera system. 前記照明システムを制御することは、複数の照明器の少なくとも1つを選択すること、強度設定を選択すること、フィルタを選択すること、および前記照明をオンまたはオフにすることから成るグループから選択されたアクションを行うことを備える、請求項9に記載のシステム。 Controlling the lighting system is selected from a group consisting of selecting at least one of a plurality of illuminators, selecting an intensity setting, selecting a filter, and turning the illumination on or off. 9. The system of claim 9, comprising performing the performed action. 前記画像は、前記頭部装着型ディスプレイシステムが前記第1のシステムモードである時、前記頭部装着型ディスプレイを介してディスプレイ固定状態で表示され、前記ビデオは、前記頭部装着型ディスプレイシステムが前記第2のシステムモードである時、前記頭部装着型ディスプレイを介して、複数の仮想スクリーンの1つに、世界固定状態で表示される、請求項1に記載のシステム。 The image is displayed in a fixed display state via the head-mounted display when the head-mounted display system is in the first system mode, and the video is displayed by the head-mounted display system. The system according to claim 1, wherein in the second system mode, the system is displayed in a world fixed state on one of a plurality of virtual screens via the head-mounted display. 前記コンピュータは更に、前記第1のシステムモードから前記第2のシステムモードへ切り換えるために前記ヘッドジェスチャ入力を適用するように構成される、請求項1に記載のシステム。 The system of claim 1, wherein the computer is further configured to apply the head gesture input to switch from the first system mode to the second system mode. 前記頭部装着型ディスプレイの装着者の頭部位置および向きの範囲の第1の領域は、前記第1のシステムモードに対応し、前記頭部装着型ディスプレイの前記装着者の頭部位置および向きの範囲の第2の領域は、前記第2のシステムモードに対応し、前記第1のシステムモードから前記第2のシステムモードへ切り換えるために適用される前記ヘッドジェスチャ入力は、前記頭部装着型ディスプレイの前記装着者の頭部位置および向きを前記第1の領域から前記第2の領域の方向へ変更する、請求項14に記載のシステム。 The first region of the head position and orientation range of the wearer of the head-mounted display corresponds to the first system mode, and the head position and orientation of the wearer of the head-mounted display. The second area of the range corresponds to the second system mode, and the head gesture input applied to switch from the first system mode to the second system mode is the head-mounted type. 14. The system of claim 14, wherein the wearer's head position and orientation of the display is changed from the first region to the second region. 前記コンピュータは更に、前記頭部装着型ディスプレイにおいて前記画像上にオーバレイされたメニューを表示するように構成され、前記メニューは、前記第1のシステムモードに関して第1のメニュー項目を表示し、前記第2のシステムモードに関して第2のメニュー項目を表示し、前記ヘッドジェスチャ入力および前記足部運動入力は、前記第2のメニュー項目を選択およびアクティブ化することによって、前記第1のシステムモードから前記第2のシステムモードへ切り換えるために適用される、請求項1に記載のシステム。 The computer is further configured to display an overlaid menu on the image on the head-mounted display, wherein the menu displays a first menu item with respect to the first system mode, said first. The second menu item is displayed with respect to the second system mode, and the head gesture input and the foot movement input are the second from the first system mode by selecting and activating the second menu item. The system according to claim 1, which is applied to switch to the system mode of 2. 頭部装着型ディスプレイシステムとインタラクトするための方法であって、
外科医に対し、頭部装着型ディスプレイにおいて外科処置に関する画像を表示することと、
フットスイッチからの前記外科医による足部運動入力と関連してヘッドトラッカからの前記外科医によるヘッドジェスチャ入力を受信することと、
前記頭部装着型ディスプレイシステムが第1のシステムモードである時、前記頭部装着型ディスプレイシステムにおいて第1のアクションを行い、前記頭部装着型ディスプレイシステムが第2のシステムモードである時、前記頭部装着型ディスプレイシステムにおいて第2のアクションを行うために、前記足部運動入力と関連して受信された前記ヘッドジェスチャ入力を適用することと
を備える方法。
A way to interact with a head-mounted display system,
Showing the surgeon an image of the surgical procedure on a head-mounted display,
Receiving the surgeon's head gesture input from the head tracker in connection with the foot movement input by the surgeon from the footswitch.
When the head-mounted display system is in the first system mode, the first action is performed in the head-mounted display system, and when the head-mounted display system is in the second system mode, the above-mentioned A method comprising applying the head gesture input received in connection with the foot movement input to perform a second action in a head-mounted display system.
前記第1のアクションおよび前記第2のアクションのいずれかは、前記頭部装着型ディスプレイに結合されたシャッタを制御することを備え、前記シャッタが開いている場合、前記頭部装着型ディスプレイは透明であり、前記シャッタが閉じている場合、前記頭部装着型ディスプレイは不透明である、請求項17に記載の方法。 One of the first action and the second action comprises controlling a shutter coupled to the head-mounted display, and when the shutter is open, the head-mounted display is transparent. 17. The method of claim 17, wherein the head-mounted display is opaque when the shutter is closed. 前記外科医による音声コマンドを検出することと、前記頭部装着型ディスプレイシステムを制御するために前記音声コマンドを適用することとを更に備える、請求項17に記載の方法。 17. The method of claim 17, further comprising detecting a voice command by the surgeon and applying the voice command to control the head-worn display system. 前記外科医による眼部運動を検出することと、前記頭部装着型ディスプレイシステムを制御するために前記眼部運動を適用することとを更に備える、請求項17に記載の方法。 17. The method of claim 17, further comprising detecting eye movements by the surgeon and applying the eye movements to control the head-worn display system. 前記頭部装着型ディスプレイシステムと共に構成された照明システムで術野を照明することと、前記頭部装着型ディスプレイシステムと共に構成されたカメラシステムを用いて、前記照明された術野の前記画像を取得することとを更に備える、請求項17に記載の方法。 The surgical field is illuminated by a lighting system configured with the head-mounted display system, and the image of the illuminated surgical field is acquired using the camera system configured with the head-mounted display system. 17. The method of claim 17, further comprising doing so. カメラヘッド位置決め器およびロボットアームから成るグループから選択された位置決め機構を介して、前記画像を取得するために前記カメラシステムの位置を制御することを更に備える、請求項21に記載の方法。 21. The method of claim 21, further comprising controlling the position of the camera system to obtain the image via a positioning mechanism selected from the group consisting of a camera head positioner and a robot arm. 前記第1のアクションおよび前記第2のアクションは、
前記頭部装着型ディスプレイを介して表示される前記画像の特性を制御すること、
前記カメラシステムを制御すること、
前記照明システムを制御すること、および
前記位置決め機構を制御すること
から成るグループから選択される、請求項22に記載の方法。
The first action and the second action are
Controlling the characteristics of the image displayed via the head-mounted display,
Controlling the camera system,
22. The method of claim 22, selected from the group comprising controlling the lighting system and controlling the positioning mechanism.
前記頭部装着型ディスプレイを介して表示される前記画像の前記特性を制御することは、前記画像のコンテンツを選択すること、ズームインおよびズームアウトすること、少なくとも2つの仮想スクリーン間でスクロールすること、ピクチャインピクチャ(PIP)を表示すること、および生画像の上にオーバレイを表示することから成るグループから選択されたアクションを備える、請求項23に記載の方法。 Controlling the properties of the image displayed through the head-mounted display is to select the content of the image, zoom in and out, scroll between at least two virtual screens, and so on. 23. The method of claim 23, comprising an action selected from a group consisting of displaying a picture-in-picture (PIP) and displaying an overlay over a raw image. 前記カメラシステムを制御することは、前記画像を取得するためのカメラを選択すること、および前記カメラシステムの位置および向きを制御することから成るグループから選択されたアクションを行うことを備える、請求項23に記載の方法。 Claiming that controlling the camera system comprises selecting a camera for acquiring the image and performing an action selected from a group consisting of controlling the position and orientation of the camera system. 23. 前記照明システムを制御することは、複数の照明器の少なくとも1つを選択すること、強度設定を選択すること、フィルタを選択すること、および前記照明システムをオンまたはオフにすることから成るグループから選択されたアクションを行うことを備える、請求項23に記載の方法。 Controlling the luminaire consists of a group consisting of selecting at least one of a plurality of illuminators, selecting an intensity setting, selecting a filter, and turning the illuminating system on or off. 23. The method of claim 23, comprising performing the selected action. 前記画像は、前記頭部装着型ディスプレイシステムが前記第1のシステムモードである時、前記頭部装着型ディスプレイを介してディスプレイ固定状態で表示され、前記画像は、前記頭部装着型ディスプレイシステムが前記第2のシステムモードである時、前記頭部装着型ディスプレイを介して、複数の仮想スクリーンの1つに、世界固定状態で表示される、請求項17に記載の方法。 The image is displayed in a fixed state via the head-mounted display when the head-mounted display system is in the first system mode, and the image is displayed by the head-mounted display system. 17. The method of claim 17, wherein when in the second system mode, the head-mounted display is displayed on one of a plurality of virtual screens in a world-fixed state. 前記第1のシステムモードから前記第2のシステムモードへ切り換えるために、前記足部運動入力と関連して受信された前記ヘッドジェスチャ入力を適用することを更に備える、請求項17に記載の方法。 17. The method of claim 17, further comprising applying the head gesture input received in connection with the foot movement input in order to switch from the first system mode to the second system mode. 前記頭部装着型ディスプレイの装着者の頭部位置および向きの範囲の第1の領域は、前記第1のシステムモードに対応し、前記頭部装着型ディスプレイの前記装着者の前記頭部位置および向きの範囲の第2の領域は、前記第2のシステムモードに対応し、前記第1のシステムモードから前記第2のシステムモードへ切り換えるために適用される前記ヘッドジェスチャ入力は、前記頭部装着型ディスプレイの前記装着者の前記頭部位置および向きを前記第1の領域から前記第2の領域の方向へ変更する、請求項28に記載の方法。 The first region of the head position and orientation range of the wearer of the head-mounted display corresponds to the first system mode, the head position of the wearer of the head-mounted display and the head position. The second area of the orientation range corresponds to the second system mode, and the head gesture input applied to switch from the first system mode to the second system mode is head-mounted. 28. The method of claim 28, wherein the wearer's head position and orientation of the type display is changed from the first region to the direction of the second region. 前記頭部装着型ディスプレイにおいて前記画像上にオーバレイされたメニューを表示することを更に備え、前記メニューは、前記第1のシステムモードに関して第1のメニュー項目を表示し、前記第2のシステムモードに関して第2のメニュー項目を表示し、前記ヘッドジェスチャ入力および前記足部運動入力は、前記第2のメニュー項目を選択およびアクティブ化することによって、前記第1のシステムモードから前記第2のシステムモードへ切り換えるために適用される、請求項28に記載の方法。 The head-mounted display further comprises displaying an overlaid menu on the image, wherein the menu displays a first menu item with respect to the first system mode and with respect to the second system mode. The second menu item is displayed, and the head gesture input and the foot movement input are changed from the first system mode to the second system mode by selecting and activating the second menu item. 28. The method of claim 28, which is applied to switch.
JP2021547986A 2018-10-25 2019-10-27 UI for head-mounted display systems Active JP7367041B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862750276P 2018-10-25 2018-10-25
US62/750,276 2018-10-25
US201962857834P 2019-06-06 2019-06-06
US62/857,834 2019-06-06
PCT/IL2019/051155 WO2020084625A1 (en) 2018-10-25 2019-10-27 Ui for head mounted display system

Publications (2)

Publication Number Publication Date
JP2022509460A true JP2022509460A (en) 2022-01-20
JP7367041B2 JP7367041B2 (en) 2023-10-23

Family

ID=80120454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021547986A Active JP7367041B2 (en) 2018-10-25 2019-10-27 UI for head-mounted display systems

Country Status (1)

Country Link
JP (1) JP7367041B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH095666A (en) * 1995-06-15 1997-01-10 Olympus Optical Co Ltd Head-mounted video display device
US20050206583A1 (en) * 1996-10-02 2005-09-22 Lemelson Jerome H Selectively controllable heads-up display system
JP2015192697A (en) * 2014-03-31 2015-11-05 ソニー株式会社 Control device and control method, and photographing control system
WO2018067611A1 (en) * 2016-10-03 2018-04-12 Verb Surgical Inc. Immersive three-dimensional display for robotic surgery

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH095666A (en) * 1995-06-15 1997-01-10 Olympus Optical Co Ltd Head-mounted video display device
US20050206583A1 (en) * 1996-10-02 2005-09-22 Lemelson Jerome H Selectively controllable heads-up display system
JP2015192697A (en) * 2014-03-31 2015-11-05 ソニー株式会社 Control device and control method, and photographing control system
WO2018067611A1 (en) * 2016-10-03 2018-04-12 Verb Surgical Inc. Immersive three-dimensional display for robotic surgery

Also Published As

Publication number Publication date
JP7367041B2 (en) 2023-10-23

Similar Documents

Publication Publication Date Title
US20210382559A1 (en) Ui for head mounted display system
US10895742B2 (en) Microsurgery system for displaying in real time magnified digital image sequences of an operated area
US11832901B2 (en) Surgical suite integration and optimization
EP3834768B1 (en) Augmented reality headset with varied opacity for navigated robotic surgery
US20230255446A1 (en) Surgical visualization systems and displays
EP3443924B1 (en) A graphical user interface for use in a surgical navigation system with a robot arm
CN110786819B (en) Surgical imaging system
EP4245250A2 (en) Surgical navigation system for providing an augmented reality image during operation
US6847336B1 (en) Selectively controllable heads-up display system
JP6774367B2 (en) Head-mounted display control device, its operation method and operation program, and image display system
US11094283B2 (en) Head-wearable presentation apparatus, method for operating the same, and medical-optical observation system
JP2018107603A (en) Sensor information acquisition device, sensor information acquisition method, sensor information acquisition program and medical instrument
CA3117533A1 (en) Ui for head mounted display system
US20230404699A1 (en) System for a Microscope System and Corresponding Method and Computer Program
US20220331038A1 (en) User interface for controlling a surgical system
JP7367041B2 (en) UI for head-mounted display systems
JP2018143586A (en) Ophthalmic observation apparatus and method of using the same
WO2021116846A1 (en) Control system for an endoscopic device and method of controlling an endoscopy system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20210621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220622

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R150 Certificate of patent or registration of utility model

Ref document number: 7367041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150