JP2024514642A - 非モニタリング器具の代替としてユーザの一部を追跡するためのシステム及び方法 - Google Patents

非モニタリング器具の代替としてユーザの一部を追跡するためのシステム及び方法 Download PDF

Info

Publication number
JP2024514642A
JP2024514642A JP2023563054A JP2023563054A JP2024514642A JP 2024514642 A JP2024514642 A JP 2024514642A JP 2023563054 A JP2023563054 A JP 2023563054A JP 2023563054 A JP2023563054 A JP 2023563054A JP 2024514642 A JP2024514642 A JP 2024514642A
Authority
JP
Japan
Prior art keywords
surgical
personnel
hub
data
active
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023563054A
Other languages
English (en)
Inventor
シェルトン・ザ・フォース・フレデリック・イー
アダムス・シェーン・アール
カウパースウェイト・マシュー・ディー
キンボール・コリー・ジー
リヴァード・モニカ・エル・ゼット
ロッソーニ・レオナルド・エヌ
コイチェフ・リスト
ボーク・フェリックス・ジェイ
ワイズ・オースティン・イー
ソウ・クリストファー・キュー
シュヴァイツァー・メリッサ
ワージントン・サラ・エイ
ジェンキンス・スコット・エイ
エッカート・チャド・イー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cilag GmbH International
Original Assignee
Cilag GmbH International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/688,655 external-priority patent/US20220336078A1/en
Application filed by Cilag GmbH International filed Critical Cilag GmbH International
Publication of JP2024514642A publication Critical patent/JP2024514642A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/50Secure pairing of devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Surgical Instruments (AREA)
  • Processing Or Creating Images (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

手術室(OR)人員の追跡システムは、アクティブなOR関係者のうちの1人以上の移動、位置、向き、及びコンテキストを外挿して、進行中の特定の外科的処置、OR関係者によって使用されている外科用器具、及び/又はOR人員の予想される移動を判定するように構成されている。本システムは、拡張現実(AR)コンテンツとして、外科用器具の予想位置、推奨、ガイダンス、警告、及び手術場所情報を含む仮想要素をレンダリングするように更に構成され得る。ARコンテンツは、手術部位のライブフィードとリアルタイムで統合され、術中外科的処置においてOR人員を支援する。

Description

(関連出願の相互参照)
本出願は、米国特許法第119条(e)の下で、2021年4月14日に出願された「HEADS UP DISPLAY」と題する米国仮特許出願第63/174,674号、及び2021年11月30日に出願された「INTRAOPERATIVE DISPLAY FOR SURGICAL SYSTEMS」と題する米国仮特許出願第63/284,326号に対する利益を主張するものであり、これらの各々の開示は、その全体が参照により本明細書に組み込まれる。
本開示は、外科的処置中に拡張現実インタラクティブ体験を提供するための装置、システム、及び方法に関する。外科的処置中に、実世界に存在するオブジェクトが、時には視覚、聴覚、触覚、体性感覚、及び嗅覚を含む複数の感覚モダリティにわたって、コンピュータ生成された知覚情報をオーバーレイすることによって強化される、実世界環境の拡張現実インタラクティブ体験を提供することが望ましいであろう。本開示の文脈では、術野並びに術野に現れる外科用器具及び他のオブジェクトの画像は、コンピュータ生成された視覚、聴覚、触覚、体性感覚、嗅覚、又は他の感覚情報を、術野並びに術野に現れる器具又は他のオブジェクトの実世界画像上にオーバーレイすることによって強化される。画像は、リアルタイムでストリーミングされてもよいし、静止画像であってもよい。
実世界の外科用器具は、エネルギー、ステープラ、又はエネルギーとステープラとの組み合わせを含む、種々の外科用デバイスを含む。エネルギーベースの医療デバイスは、限定ではないが、とりわけ、無線周波数(RF)ベースの単極及び双極電気外科用器具、超音波外科用器具、RF電気外科用器具と超音波器具との組み合わせ、RF電気外科用ステープラと機械的ステープラとの組み合わせを含む。外科用ステープラデバイスは、肥満、胸部、結腸直腸、産婦人科、泌尿器科、及び一般外科を含む、種々の外科的処置において組織を切断及びステープル留めするために使用される外科用器具である。
様々な例において、本開示は、カメラシステムと、第1の外科職員に対応する一意の識別子であって、手術室関係者によって着用される物品の外面上に位置する視覚インジケータを含み、一意の識別子がカメラシステムに可視である、一意の識別子と、第1の外科職員に対応するアクティブセンサであって、アクティブ追跡データを捕捉する、アクティブセンサと、カメラシステム及びアクティブセンサに通信可能に連結された外科用ハブであって、メモリ及び制御回路を備える、外科用ハブと、を備え、制御回路は、外部ソースからコンテキストデータを受信することであって、コンテキストデータが、外科的処置において使用される外科用器具のための手の位置を含む、ことと、第1の外科職員に関連付けられたカメラシステムからパッシブ追跡データを受信することと、第1の外科職員に関連付けられたアクティブセンサからアクティブ追跡データを受信することと、外科職員が、外科用ハブによって追跡されていない第1の外科用器具を使用していると判定することと、パッシブ追跡データ及びアクティブ追跡データを、外科的処置において使用される外科用器具のための手の位置と比較することと、パッシブ追跡データ及びコンテキストデータに対応する特定の外科用器具を判定することと、拡張現実デバイス上に仮想要素を表示することであって、仮想要素が、特定の外科用器具の仮想表現を含む、ことと、を行うように構成されている、外科用システムを提供する。
様々な例において、本開示は、手術室職員の移動を追跡するための方法であって、外科用ハブによって、外部ソースからコンテキストデータを受信することであって、コンテキストデータが、外科的処置において使用される外科用器具のための手の位置を含む、ことと、外科用ハブによって、第1の外科職員に関連付けられた第1の一意の識別子と、第2の外科職員に関連付けられた第2の一意の識別子とを識別することと、外科用ハブによって、第1の外科職員及び第2の外科職員に関連付けられたカメラシステムからパッシブ追跡データを受信することであって、パッシブ追跡データが基準マーカによって判定される、ことと、外科用ハブによって、第1の外科職員及び第2の外科職員に関連付けられたアクティブセンサからアクティブ追跡データを受信することと、外科用ハブによって、第1の外科職員又は第2の外科職員が外科用ハブによって追跡されていない第1の外科用器具を使用していると判定することと、外科用ハブによって、パッシブ追跡データ及びアクティブ追跡データを、外科的処置において使用される外科用器具のための手の位置と比較することと、外科用ハブによって、パッシブ追跡データ及びコンテキストデータに対応する特定の外科用器具を判定することと、外科用ハブによって、拡張現実デバイス上に表示されるべき仮想要素を送信することと、を含む、方法を提供する。
構成及び操作方法の両方に関して本明細書で説明する様々な態様は、それらの更なる目的及び利点と共に、以下の説明を以下の添付図面と併せて参照することで最良に理解され得る。
本開示の一態様による、コンピュータ実装インタラクティブ外科用システムのブロック図である。 本開示の一態様による、手術室内で外科的処置を実行するために使用される外科用システムの図である。 本開示の一態様による、可視化システム、ロボットシステム、及びインテリジェント器具とペアリングされた外科用ハブである。 本開示の一態様による、医療施設の1つ以上の手術現場、又は外科手術のための専門設備を備えた医療施設内の任意の部屋に位置しているモジュール式デバイスをクラウドに接続するように構成されたモジュール式通信ハブを含む外科用データネットワークを示す図である。 本開示の一態様による、コンピュータ実装インタラクティブ外科用システムを示す図である。 本開示の一態様による、モジュール式制御タワーに連結された複数のモジュールを含む外科用ハブを示す図である。 本開示の一態様による、撮像モジュールと外科用ハブディスプレイとの間の通信経路内に配置された中間信号結合器を含む拡張現実(AR)システムを示す図である。 本開示の一態様による、撮像モジュールと外科用ハブディスプレイとの間の通信経路内に配置された中間信号結合器を含む拡張現実(AR)システムを示す図である。 本開示の一態様による、外科用ハブにデータを通信するために外科医によって装着される拡張現実(AR)デバイスを示す図である。 本開示の一態様による、拡張現実ディスプレイを使用して外科用器具情報を拡張するためのシステムを示す図である。 本開示の一態様による、状況認識外科的処置のタイムラインを示す図である。 本開示の一態様による、パッシブ追跡カメラシステムを備えた例示的なOR設定の図である。 本開示の一態様による、外科職員の手首角度に基づいて外科用器具の位置を判定するように構成された外科用ハブを示す図である。 本開示の一態様による、手術室内で外科職員を一意に識別及び区別するように構成された1つ以上のカメラを備えるパッシブ追跡システムを示す図である。 本開示の一態様による、パッシブ追跡システムにおける初期化シーケンスを示す図である。 本開示の一態様による、左と右の付属物を区別するために、又は移動を検出する際にパッシブ追跡カメラを支援するために使用され得る指向性パターンを示す図である。 本開示の一態様による、熱撮像又は赤外(IR)カメラによって検出された、外科用手袋の背側上の識別コードを示す図である。 本開示の一態様による、外科用手袋の背側及び掌側の両方の識別コードを示す図である。 本開示の一態様による、外科職員の各指に割り当てられた識別QRコードを示す図である。 本開示の一態様による、単一の職員の指及び手首の移動をモニタリング及び追跡するように構成された手首装着カメラを示す図である。 本開示の一態様による、指の各々の上の基準マーカと、複数の埋め込まれた歪みゲージと、制御回路に連結されたジャイロスコープとを備えるアクティブな外科用手袋を示す図である。 本開示の一態様による、単一の歪みゲージセンサが指の先端に関連することを示す図である。 本開示の一態様による、ラテックス、ニトリル、又は外科用手袋に使用される他の滅菌材料などの滅菌材料に印刷されたフレキシブル回路を示す図である。 本開示の一態様による、歪みゲージを制御回路に接続するために使用され得るフレキシブル回路を示す図である。 本開示の一態様による、滅菌材料上に直接印刷された、制御回路に接続されたアクティブ基準マーカを示す図である。 本開示の一態様による、移動からエネルギーを収穫し、制御回路、歪みゲージ、ジャイロスコープ、加速度計、及び/又はアクティブ基準マーカに電力供給するために使用することができる圧電セラミック電力セルを示す図である。 本開示の一態様による、制御回路ハウジング及びジャイロスコープを備える着脱可能なハウジングを有するアクティブセンサ手袋を示す図である。 本開示の一態様による、ハウジング内で、可撓性ワイヤを用いて制御回路に通信可能に連結された複数の埋め込み歪みゲージセンサを備える着脱可能なアクティブセンサハーネスを示す図である。 本開示の一態様による、手から取り外されたアクティブセンサハーネスを示す図である。 本開示の一態様による、第1の外科医と第2の外科医との間の外科用器具の手渡しのグラフィック表現を示す図である。 本開示の一態様による、人の手の筋骨格図である。 本開示の一態様による、右腕の前側及び後側を示す図である。 本開示の一態様による、外科用ハブに通信可能に連結された一対の手首装着センサを示す図である。 本開示の一態様による、前腕の筋肉に直接取り付けられた複数のMMGセンサを示す図である。 本開示の一態様による、皮膚に直接接着する可撓性接着媒体に連結された可撓性無線センサを示す図である。 本開示の一態様による、手の中の4本の指及び親指の移動に対応する5つのEMGチャネルのグラフィカルプロットを示す図である。 本開示の一態様による、手の移動及び位置に対応するMMG信号のグラフィカルプロットである。 本開示の一態様による、Vrmsで測定された最大筋収縮の振幅値と、最大随意収縮の割合(%MCV)とを相関させるモデルを示す図である。 本開示の一態様による、MMG信号及び/又はEMG信号を測定する複数のアクティブセンサを備えるアクティブセンサスリーブを示す図である。 本開示の一態様による、経時的な筋肉疲労を評価するEMG信号を分析する3つの線形回帰モデルを示す図である。 本開示の一態様による、手術室職員の移動を追跡するための方法の論理図である。
複数の図面を通して、対応する参照符号は対応する部分を示す。本明細書に記載された例示は、様々な開示された実施形態を一形態で示しており、そのような例示は、その範囲を限定するものとして決して解釈されるべきではない。
本出願の出願人は、各開示の全体が参照により本明細書に組み込まれる、同時に出願された以下の米国特許出願を所有する。
・「METHOD FOR INTRAOPERATIVE DISPLAY FOR SURGICAL SYSTEMS」と題する米国特許出願;代理人整理番号END9352USNP1/210120-1M、
・「Utilization of surgical data values and situational awareness to control the overlay in surgical field view」と題する米国特許出願;代理人整理番号END9352USNP2/210120-2、
・「SELECTIVE AND ADJUSTABLE MIXED REALITY OVERLAY IN SURGICAL FIELD VIEW」と題する米国特許出願;代理人整理番号END9352USNP3/210120-3、
・「RISK BASED PRIORITIZATION OF DISPLAY ASPECTS IN SURGICAL FIELD VIEW」と題する米国特許出願;代理人整理番号END9352USNP4/210120-4、
・「SYSTEMS AND METHODS FOR CONTROLLING SURGICAL DATA OVERLAY」と題する米国特許出願;代理人整理番号END9352USNP5/210120-5、
・「SYSTEMS AND METHODS FOR CHANGING DISPLAY OVERLAY OF SURGICAL FIELD VIEW BASED ON TRIGGERING EVENTS」と題する米国特許出願;代理人整理番号END9352USNP6/210120-6、
・「CUSTOMIZATION OF OVERLAID DATA AND CONFIGURATION」と題する米国特許出願;代理人整理番号END9352USNP7/210120-7、
・「INDICATION OF THE COUPLE PAIR OF REMOTE CONTROLS WITH REMOTE DEVICES FUNCTIONS」と題する米国特許出願;代理人整理番号END9352USNP8/210120-8、
・「COOPERATIVE OVERLAYS OF INTERACTING INSTRUMENTS WHICH RESULT IN BOTH OVERLAYS BEING EFFECTED」と題する米国特許出願;代理人整理番号END9352USNP9/210120-9、
・「ANTICIPATION OF INTERACTIVE UTILIZATION OF COMMON DATA OVERLAYS BY DIFFERENT USERS」と題する米国特許出願;代理人整理番号END9352USNP10/210120-10、
・「MIXING DIRECTLY VISUALIZED WITH RENDERED ELEMENTS TO DISPLAY BLENDED ELEMENTS AND ACTIONS HAPPENING ON-SCREEN AND OFF-SCREEN」と題する米国特許出願;代理人整理番号END9352USNP11/210120-11、
・「UTILIZING CONTEXTUAL PARAMETERS OF ONE OR MORE SURGICAL DEVICES TO PREDICT A FREQUENCY INTERVAL FOR DISPLAYING SURGICAL INFORMATION」と題する米国特許出願;代理人整理番号END9352USNP13/210120-13、
・「COOPERATION AMONG MULTIPLE DISPLAY SYSTEMS TO PROVIDE A HEALTHCARE USER CUSTOMIZED INFORMATION」と題する米国特許出願;代理人整理番号END9352USNP14/210120-14、
・「INTRAOPERATIVE DISPLAY FOR SURGICAL SYSTEMS」と題する米国特許出願;代理人整理番号END9352USNP15/210120-15、
・「ADAPTATION AND ADJUSTABILITY OR OVERLAID INSTRUMENT INFORMATION FOR SURGICAL SYSTEMS」と題する米国特許出願;代理人整理番号END9352USNP16/210120-16、及び、
・「MIXED REALITY FEEDBACK SYSTEMS THAT COOPERATE TO INCREASE EFFICIENT PERCEPTION OF COMPLEX DATA FEEDS」と題する米国特許出願;代理人整理番号END9352USNP17/210120-17。
本出願の出願人は、各開示の全体が参照により本明細書に組み込まれる、以下の米国特許出願を所有する。
・「METHOD OF COMPRESSING TISSUE WITHIN A STAPLING DEVICE AND SIMULTANEOUSLY DISPLAYING THE LOCATION OF THE TISSUE WITHIN THE JAWS」と題する米国特許出願第16/209,423号(現在は、米国特許出願公開第2019/0200981-A1号)、
・「METHOD FOR CONTROLLING SMART ENERGY DEVICES」と題する米国特許出願第16/209,453号(現在は、米国特許出願公開第2019/0201046-A1号)。
外科用装置及び発生器の様々な態様を詳細に説明する前に、例解的な実施例は、適用又は用途において、添付の図面及び説明において例解される部品の構造及び配置の詳細に限定されないことに留意されたい。例示の実施例は、他の態様、変形形態、及び修正形態で実装されるか、又はそれらに組み込まれてもよく、様々な方法で実施又は実行されてもよい。更に、特に明記しない限り、本明細書で用いられる用語及び表現は、読者の便宜のために例示の実施例を説明する目的で選択されたものであり、それらを限定するためのものではない。更に、以下に記述される態様、態様の表現、及び/又は実施例のうち1つ以上を、以下に記述される他の態様、態様の表現、及び/又は実施例のうち任意の1つ以上と組み合わせることができるものと理解されたい。
様々な態様は、様々なエネルギー及び外科用ステープラベースの医療デバイスのための外科用システムのための画面上表示を対象とする。エネルギーベースの医療デバイスは、限定ではないが、とりわけ、無線周波数(RF)ベースの単極及び双極電気外科用器具、超音波外科用器具、RF電気外科用器具と超音波器具との組み合わせ、RF電気外科用ステープラと機械的ステープラとの組み合わせを含む。外科用ステープラデバイスは、電気外科用デバイス及び/又は超音波デバイスと組み合わされた外科用ステープラを含む。超音波外科用デバイスの態様は、例えば、外科的処置中に組織を横切開及び/又は凝固するように構成され得る。電気外科用デバイスの態様は、例えば、外科的処置中に、組織を横切開、凝固、封止、溶接及び/又は乾燥させるように構成され得る。外科用ステープラデバイスの態様は、外科的処置中に組織を横切開してステープル留めするように構成することができ、いくつかの態様では、外科用ステープラデバイスは、外科的処置中に組織にRFエネルギーを送達するように構成することができる。電気外科用デバイスは、治療用及び/又は非治療用RFエネルギーを組織に送達するように構成されている。外科用ステープラ、電気外科用デバイス、及び超音波デバイスの要素は、単一の外科用器具において組み合わせて使用され得る。
様々な態様では、本開示は、外科的処置中にORチームにリアルタイム情報の画面上表示を提供する。本開示の様々な態様によれば、様々な視覚情報フィードバックを画面上でORチームに表示するために、多くの新しい固有の画面上表示が提供される。本開示によれば、視覚情報は、音を伴う又は伴わない様々な視覚媒体のうちの1つ以上を含むことができる。一般に、視覚情報は、静止写真、動画写真、ビデオ又はオーディオ記録、グラフィックアート、視覚補助、モデル、表示、視覚表現サービス、及びサポートプロセスを含む。視覚情報は、例えば、とりわけ、一次ORスクリーン、エネルギー又は外科用ステープラデバイス自体、タブレット、拡張現実眼鏡等の任意の数の表示オプション上で通信することができる。
様々な態様では、本開示は、ORチームをあまりに多くの視覚情報で圧倒することなく、視覚情報をリアルタイムでORチームに通信するための潜在的オプションの多くのリストを提供する。例えば、種々の態様では、本開示は、外科医、又はORチームの他のメンバーが、豊富な視覚情報を管理するために、画面オプションを取り囲むアイコン等の画面上表示を選択的に起動することを可能にする、視覚情報の画面上表示を提供する。要因のうちの1つ又は組み合わせが、アクティブ表示を決定するために使用することができ、これらは、とりわけ、使用中のエネルギーベース(例えば、電気外科、超音波)又は機械ベース(例えば、ステープラ)外科用デバイス、所与の表示と関連付けられる推定リスク、外科医の経験レベル、及び外科医の選択を含んでもよい。他の態様では、視覚情報は、視覚情報を管理するために手術視野にオーバーレイ又は重畳された豊富なデータを含んでもよい。以下に説明する様々な態様では、データを適切にオーバーレイするためにビデオ解析及び追跡を必要とする重畳画像を含む。このように通信された視覚情報データは、静的アイコンとは対照的に、ORチームに対してより簡潔で理解しやすい方法で追加の有用な視覚情報を提供することができる。
様々な態様では、本開示は、外科的処置中に視覚情報を管理するために、スクリーンを取り囲むアイコン等の画面上表示を選択的に起動するための技術を提供する。他の態様では、本開示は、要因のうちの1つ又は組み合わせを使用してアクティブ表示を決定するための技術を提供する。様々な態様では、本開示による技術は、とりわけ、アクティブ表示として使用中のエネルギーベース又は機械ベースの外科用デバイスを選択すること、所与の表示に関連付けられたリスクを推定すること、選択を行う外科医又はORチームの経験レベルを利用することを含み得る。
他の態様では、本開示による技術は、視覚情報を管理するために、豊富なデータを手術視野上にオーバーレイ又は重畳することを含んでもよい。本開示によって説明されるいくつかの表示配置は、術野のライブストリーム上に外科用データの種々の視覚表現をオーバーレイすることを伴う。本明細書で使用される場合、オーバーレイという用語は、半透明オーバーレイ、部分的オーバーレイ、及び/又は移動オーバーレイを含む。グラフィカルオーバーレイは、透明グラフィック、半透明グラフィック、又は不透明グラフィック、或いは透明、半透明、及び不透明の要素又は効果の組み合わせの形態であってもよい。更に、オーバーレイは、例えば、エンドエフェクタ及び/又は重要な外科用構造等の、術野におけるオブジェクト上に、又は少なくとも部分的にその上に、又はその近くに配置され得る。特定の表示配置は、表示優先度値の変化に基づいて、色、サイズ、形状、表示時間、表示場所、表示頻度、強調表示、又はそれらの組み合わせの変化を含む、オーバーレイの1つ以上の表示要素の変化を含み得る。グラフィカルオーバーレイは、アクティブ表示モニタの上にレンダリングされ、重要な情報を迅速かつ効率的にORチームに伝達する。
他の態様では、本開示による技術は、視覚情報データを適切にオーバーレイするためにビデオ解析及び追跡することを必要とする画像を重畳することを含み得る。他の態様では、本開示による技術は、単純な静的アイコンとは対照的に、豊富な視覚情報を通信して、より簡潔で理解しやすい方法で追加の視覚情報をORチームに提供することを含むことができる。他の態様では、視覚オーバーレイは、聴覚及び/又は体性感覚オーバーレイ、例えば、熱的、化学的、及び機械的デバイス、並びにそれらの組み合わせと組み合わせて使用することができる。
以下の説明は、概して、外科的処置中に拡張現実(AR)インタラクティブ体験を提供する装置、システム、及び方法に関する。この文脈では、術野並びに術野に現れる外科用器具及び他のオブジェクトの画像は、コンピュータ生成された視覚、聴覚、触覚、体性感覚、嗅覚、又は他の感覚情報を、術野、術野に現れる器具及び/又は他のオブジェクトの実世界画像上にオーバーレイすることによって強化される。画像は、リアルタイムでストリーミングされてもよいし、静止画像であってもよい。拡張現実は、実環境上にオーバーレイされる仮想又は「拡張」仮想オブジェクト、データ、又は視覚効果をレンダリング及び表示するための技術である。実環境は、術野を含んでもよい。実環境上にオーバーレイされた仮想オブジェクトは、実環境の1つ以上の態様に対して固定された位置、又は設定された位置で表され得る。非限定的な例では、実世界オブジェクトが実環境の視野から出る場合、実世界オブジェクトに固定された仮想オブジェクトも拡張現実の視野から出る。
本開示によって説明されるいくつかの表示配置は、術野のライブストリーム上に外科用データの種々の視覚表現をオーバーレイすることを伴う。本明細書で使用される場合、オーバーレイという用語は、半透明オーバーレイ、部分的オーバーレイ、及び/又は移動オーバーレイを含む。更に、オーバーレイは、例えば、エンドエフェクタ及び/又は重要な外科用構造等の、術野におけるオブジェクト上に、又は少なくとも部分的にその上に、又はその近くに配置され得る。特定の表示配置は、表示優先度値の変化に基づいて、色、サイズ、形状、表示時間、表示場所、表示頻度、強調表示、又はそれらの組み合わせの変化を含む、オーバーレイの1つ以上の表示要素の変化を含み得る。
本明細書で説明されるように、ARは、技術を介して送達されるデジタル視覚要素、音、又は他の感覚刺激の使用を通して達成される、現実の物理世界の拡張バージョンである。仮想現実(VR)は、現実であるように見えるシーン及びオブジェクトを有するコンピュータ生成環境であり、ユーザがそれらの周囲に没入しているように感じさせる。この環境は、仮想現実ヘッドセット又はヘルメットとして知られるデバイスを通して知覚される。複合現実(MR)及びARは両方とも没入型技術と考えられているが、それらは同じではない。MRは、現実及び仮想要素が環境内で相互作用することを可能にする複合現実の拡張である。ARは、多くの場合、カメラを使用することによってライブビューにデジタル要素を追加するが、MR体験は、実世界及びデジタルオブジェクトが相互作用するAR及びVRの両方の要素を組み合わせる。
AR環境では、1つ以上のコンピュータ生成仮想オブジェクトが、1つ以上の現実(すなわち、いわゆる「実世界」)要素と共に表示されてもよい。例えば、周囲環境のリアルタイム画像又はビデオは、1つ以上のオーバーレイ仮想オブジェクトと共にコンピュータスクリーンディスプレイ上に示されてもよい。そのような仮想オブジェクトは、環境に関する補足的な情報を提供することができ、又は一般に、ユーザの知覚及び環境との関与を向上させることができる。逆に、周囲環境のリアルタイム画像又はビデオは、加えて又は代替的に、ディスプレイ上に示される仮想オブジェクトとのユーザの関与を向上させることができる。
本開示の文脈における装置、システム、及び方法は、外科的処置中に1つ以上の撮像デバイスから受信された画像を向上させる。撮像デバイスは、非侵襲性及び低侵襲性外科的処置中に使用される種々のスコープ、ARデバイス、及び/又は切開外科的処置中に画像を提供するカメラを含んでもよい。画像は、リアルタイムでストリーミングされてもよいし、静止画像であってもよい。装置、システム、及び方法は、仮想オブジェクト又はデータ及び/又は現実オブジェクトの表現を現実外科用環境上にオーバーレイすることによって、実世界外科用環境の画像を向上させることによって、拡張現実インタラクティブ体験を提供する。拡張現実体験は、ユーザが実世界外科用環境上にオーバーレイされた仮想オブジェクトを視認することを可能にする、ディスプレイ及び/又はARデバイス上で視認されてもよい。ディスプレイは、手術室内に配置されてもよいし、手術室から離れてもよい。ARデバイスは、外科医又は他の手術室人員の頭部に装着され、典型的には、ユーザの各目に対して1つを含む、2つの立体ディスプレイレンズ又はスクリーンを含む。自然光は、ARデバイスのユーザに仮想オブジェクトを可視にするために光を投影しながら、実環境の態様が可視であるように、2つの透明又は半透明ディスプレイレンズを通過することができる。
2つ以上のディスプレイ及びARデバイスは、例えば、定義された役割を有するシステム内の1つ以上の追加のディスプレイ又はARデバイスを制御する第1のディスプレイ又はARデバイスと協調して使用されてもよい。例えば、ディスプレイ又はARデバイスを起動するとき、ユーザは、役割(例えば、外科的処置中の外科医、外科助手、看護師等)を選択してもよく、ディスプレイ又はARデバイスは、その役割に関連する情報を表示してもよい。例えば、外科助手は、外科医が外科的処置の次のステップのために行う必要がある器具の仮想表現を表示させてもよい。現在のステップに対する外科医の焦点は、手術助手とは異なる表示された情報を見る場合がある。
多くの既知の画面上表示及びアラートが存在するが、本開示は、外科的処置中に多くの新規かつ固有の拡張現実インタラクティブ体験を提供する。そのような拡張現実インタラクティブ体験は、手術室の内側又は外側の手術チームへの視覚、聴覚、触覚、体性感覚、嗅覚、又は他の感覚フィードバック情報を含む。実世界外科用環境上にオーバーレイされる仮想フィードバック情報は、例えば、限定ではないが、とりわけ、手術外科医、外科医の助手、スクラブ着衣者、麻酔医、及び外回り看護師を含む、OR内の人員を含む、手術室(OR)チームに提供されてもよい。仮想フィードバック情報は、一次ORスクリーンディスプレイ、ARデバイス、エネルギー又は外科用ステープラ器具、タブレット、拡張現実眼鏡、デバイス等の任意の数の表示オプション上で通信することができる。
図1は、1つ以上の外科用システム2及びクラウドベースのシステム4を含むコンピュータ実装インタラクティブ外科用システム1を示す。クラウドベースシステム4は、リモートストレージ5に連結されたリモートサーバ13を含み得る。各外科用システム2は、クラウド4と通信する少なくとも1つの外科用ハブ6を備える。例えば、外科用システム2は、可視化システム8と、ロボットシステム10と、手持ち式インテリジェント外科用器具12とを備えてもよく、それぞれが、互いに、及び/又はハブ6と通信するように構成されている。いくつかの態様では、外科用システム2は、M個のハブ6と、N個の可視化システム8と、O個のロボットシステム10と、P個の手持ち式インテリジェント外科用器具12とを備えてもよく、M、N、O及びPは1以上の整数である。コンピュータ実装インタラクティブ外科用システム1は、本明細書で説明されるように、外科的処置中に拡張現実インタラクティブ体験を提供するように構成されてもよい。
図2は、外科手術室16内の手術台14上に横たわっている患者に対して外科的処置を実行するための外科用システム2の例を示す。ロボットシステム10は、外科的処置において外科用システム2の一部として使用される。ロボットシステム10は、外科医のコンソール18と、患者側カート20(外科用ロボット)と、外科用ロボットハブ22とを含む。患者側カート20は、外科医が外科医のコンソール18又は外科医によって装着された拡張現実(AR)デバイス66を通して手術部位を視認しながら、患者の身体の低侵襲切開を通じて、少なくとも1つの着脱可能に連結された外科用ツール17を操作することができる。低侵襲処置中の手術部位の画像(例えば、リアルタイムでストリーミングされる静止画像又はライブ画像)は、医療用撮像デバイス24によって取得することができる。患者側カート20は、撮像デバイス24を操作して、撮像デバイス24を配向することができる。切開外科的処置の画像は、医療用撮像デバイス96によって取得することができる。ロボットハブ22は、外科医のコンソール18、又は外科医若しくは外科手術室16内の他の人によって装着されたARデバイス66上にその後表示するために手術部位の画像を処理する。
撮像デバイス24、96又はARデバイス66の光学構成要素は、1つ以上の照明源、及び/又は1つ以上のレンズを含み得る。1つ以上の照明源は、術野の一部分を照明するように方向付けられ得る。1つ以上の画像センサは、術野内の組織及び器具から反射又は屈折された光を受信し得る。
様々な態様では、撮像デバイス24は、低侵襲外科的処置において使用するように構成されている。本開示と共に使用するために適切な撮像デバイスの例としては、関節鏡、血管鏡、気管支鏡、胆道鏡、結腸鏡、膀胱鏡、十二指腸鏡、腸鏡、食道胃十二指腸鏡(胃カメラ)、内視鏡、喉頭鏡、鼻咽喉-腎盂鏡、S状結腸鏡、胸腔鏡、及び尿管鏡が挙げられるが、これらに限定されない。様々な態様では、撮像デバイス96は、切開(侵襲)外科的処置において使用するように構成されている。
様々な態様では、可視化システム8は、滅菌野に対して戦略的に配置される1つ以上の撮像センサと、1つ以上の画像処理装置と、1つ以上のストレージアレイと、1つ以上のディスプレイとを備える。一態様では、可視化システム8は、HL7、PACS及びEMR用のインターフェースを備える。一態様では、撮像デバイス24は、トポグラフィと下にある構造とを区別するためにマルチスペクトルモニタリングを採用し得る。マルチスペクトル画像は、電磁スペクトルにおいて特定の波長範囲内の画像データを捕捉する。波長は、フィルタによって、又は可視光範囲を超える周波数、例えば、IR、及び紫外からの光を含む特定の波長に対する感度を有する器具によって分離される。スペクトル撮像は、人間の目には見えない情報を抽出することができる。マルチスペクトルモニタリングは、処置された組織に対して試験を実行するための外科用タスクが完了した後に術野を再配置することができる。
図2は、手術台14のオペレータに見えるように滅菌野に配置される一次ディスプレイ19を示す。可視化タワー11は、滅菌野の外側に配置され、互いに反対側を向いている第1の非滅菌ディスプレイ7及び第2の非滅菌ディスプレイ9を含む。ハブ6によって誘導される可視化システム8は、ディスプレイ7、9、19を利用して、滅菌野の内側及び外側のオペレータへの情報フローを調整するように構成されている。例えば、ハブ6は、可視化システム8に、一次ディスプレイ19又はARデバイス66上に手術部位のライブ映像を維持しながら、撮像デバイス24、96によって記録される手術部位のAR画像を非滅菌ディスプレイ7、9又はARデバイス66を通じて表示させることができる。非滅菌ディスプレイ7、9は、例えば、非滅菌オペレータが、外科的処置に関連する診断ステップを実行することを可能にすることできる。
図3は、可視化システム8、ロボットシステム10及び手持ち式インテリジェント外科用器具12と通信するハブ6を示す。ハブ6は、ハブディスプレイ35、撮像モジュール38、発電機モジュール40、通信モジュール30、プロセッサモジュール32、ストレージアレイ34、及び手術室マッピングモジュール33を含む。ハブ6は、排煙モジュール26及び/又は吸引/灌注モジュール28を更に含む。様々な態様では、撮像モジュール38は、ARデバイス66を含み、プロセッサモジュール32は統合ビデオプロセッサ及び拡張現実モデラ(例えば、図10に示すようなもの)を含む。モジュール式光源は、様々な撮像デバイスと共に使用するように適合され得る。様々な例では、複数の撮像デバイスを術野の異なる位置に配置して、複数のビューを提供することができる(例えば、非侵襲的、低侵襲的、侵襲的、又は切開外科的処置)。撮像モジュール38は、最適なビューを提供するために撮像デバイス間を切り替えるように構成することができる。種々の態様では、撮像モジュール38は、異なる撮像デバイスからの画像を統合し、本明細書に説明されるような外科的処置の間、拡張現実インタラクティブ体験を提供するように構成することができる。
図4は、医療施設の1つ以上の手術現場/部屋に位置するモジュール式デバイスをクラウドベースのシステムに接続するように構成されたモジュール式通信ハブ53を含む外科用データネットワーク51を示す。クラウド54は、ストレージデバイス55に連結されたリモートサーバ63(図5)を含むことができる。モジュール式通信ハブ53は、ネットワークルータ61と通信するネットワークハブ57及び/又はネットワークスイッチ59を含む。モジュール式通信ハブ53は、データを処理するためにローカルコンピュータシステム60に連結される。手術現場のモジュール式デバイス1a~1nは、モジュール式通信ハブ53に連結され得る。ネットワークハブ57及び/又はネットワークスイッチ59は、ネットワークルータ61に連結されて、デバイス1a~1nをクラウド54又はローカルコンピュータシステム60に接続することができる。デバイス1a~1nに関連付けられたデータは、リモートデータ処理及び操作のためにルータを介してクラウドベースのコンピュータに転送されてもよい。手術現場デバイス1a~1nは、有線チャネル又は無線チャネルを介してモジュール式通信ハブ53に接続され得る。外科用データネットワーク51環境は、本明細書で説明されるように、外科的処置中に拡張現実インタラクティブ体験を提供するために、特に、術野の拡張画像を1つ以上のリモートディスプレイ58に提供するために採用されてもよい。
図5は、コンピュータ実装インタラクティブ外科用システム50を示す。コンピュータ実装インタラクティブ外科用システム50は、多くの点で、コンピュータ実装インタラクティブ外科用システム1と類似している。コンピュータ実装インタラクティブ外科用システム50は、多くの点で外科用システム2と類似する1つ以上の外科用システム52を含む。各外科用システム52は、リモートサーバ63を含み得るクラウド54と通信する少なくとも1つの外科用ハブ56を備える。一態様では、コンピュータ実装インタラクティブ外科用システム50は、例えば、インテリジェント外科用器具、ロボット及び手術現場内に位置する他のコンピュータ化デバイス等の複数の手術現場デバイスに接続されたモジュール式制御タワー23を備える。図6に示すように、モジュール式制御タワー23は、コンピュータシステム60に連結されたモジュール式通信ハブ53を含む。
図5に戻ると、モジュール式制御タワー23は、内視鏡98に連結された撮像モジュール38、エネルギーデバイス99に連結された発電機モジュール27、排煙器モジュール76、吸引/灌注モジュール78、通信モジュール13、プロセッサモジュール15、ストレージアレイ16、任意選択的にディスプレイ39に連結されたスマートデバイス/器具21及びセンサモジュール29に連結されている。手術現場デバイスは、モジュール式制御タワー23を介して、サーバ63、データストレージ55及びディスプレイ58等のクラウドコンピューティングリソースに連結されている。ロボットハブ72もまた、モジュール式制御タワー23、及びサーバ63、データストレージ55、並びにディスプレイ58に接続されてもよい。とりわけ、デバイス/器具21、可視化システム58が、本明細書に記載されるように、有線又は無線通信規格又はプロトコルを介して、モジュール式制御タワー23に連結されてもよい。モジュール式制御タワー23は、撮像モジュール38、デバイス/器具ディスプレイ39及び/又は他の可視化システム58から受信した、現実外科世界上のオーバーレイされた仮想オブジェクトを含む、受信された拡張画像を表示するためにハブディスプレイ65(例えば、モニタ、スクリーン)に連結されてもよい。ハブディスプレイ65はまた、画像及びオーバーレイ画像と共にモジュール式制御タワー23に接続されたデバイスから受信したデータを表示し得る。
図6は、モジュール式制御タワー23に連結された複数のモジュールを含む外科用ハブ56を示す。モジュール式制御タワー23は、例えばネットワーク接続デバイス等のモジュール式通信ハブ53と、例えば拡張外科用情報のローカルでの処理、可視化及び撮像を行うためのコンピュータシステム60とを含む。モジュール式通信ハブ53は、モジュール式通信ハブ53に接続されてもよいモジュール(例えば、デバイス)の数を拡張するために階層化構成で接続されて、モジュールに関連付けられたデータをコンピュータシステム60、クラウドコンピューティングリソース、又はその両方に転送してもよい。モジュール式通信ハブ53内のネットワークハブ/スイッチ57/59の各々は、3つの下流ポート及び1つの上流ポートを含み得る。上流のネットワークハブ/スイッチ57、59は、クラウドコンピューティングリソース及びローカルディスプレイ67への通信接続を提供するためにプロセッサ31に接続されている。クラウド54への通信は、有線通信チャネル又は無線通信チャネルのいずれかを介して行うことができる。
コンピュータシステム60は、プロセッサ31と、ネットワークインターフェース37とを含む。プロセッサ31は、システムバスを介して、通信モジュール41、ストレージ45、メモリ46、不揮発性メモリ47、及び入力/出力インターフェース48に連結される。システムバスは、様々な利用可能なバスアーキテクチャを使用した、メモリバス若しくはメモリコントローラ、周辺バス若しくは外部バス、及び/又はローカルバスを含む、いくつかのタイプのバス構造のいずれかであってもよい。
プロセッサ31は、拡張現実モデラ(例えば、図10に示されるような)を含み、Texas Instrumentsによる商標名ARM Cortexで知られているもの等のシングルコア又はマルチコアプロセッサとして実装されてもよい。一態様では、プロセッサは、例えば、Texas Instrumentsから入手可能なLM4F230H5QR ARM Cortex-M4Fプロセッサコアであってもよい。このプロセッサコアは、最大40MHzの256KBのシングルサイクルフラッシュメモリ若しくは他の不揮発性メモリのオンチップメモリ、性能を40MHz超に改善するためのプリフェッチバッファ、32KBのシングルサイクルシリアルランダムアクセスメモリ(SRAM)、StellarisWare(登録商標)ソフトウェアを搭載した内部読み出し専用メモリ(ROM)、2KBの電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)及び/又は、1つ以上のパルス幅変調(PWM)モジュール、1つ以上の直交エンコーダ入力(QEI)アナログ、12個のアナログ入力チャネルを備える1つ以上の12ビットアナログ-デジタル変換器(ADC)を含む。なお、その詳細は、製品データシートで入手可能である。
システムメモリとしては、揮発性メモリ及び不揮発性メモリが挙げられる。起動中などにコンピュータシステム内の要素間で情報を転送するための基本ルーチンを含む基本入出力システム(BIOS)は、不揮発性メモリに記憶される。例えば、不揮発性メモリとしては、ROM、プログラマブルROM(PROM)、電気的プログラマブルROM(EPROM)、EEPROM又はフラッシュメモリが挙げられ得る。揮発性メモリとしては、外部キャッシュメモリとして機能するランダムアクセスメモリ(RAM)が挙げられる。更に、RAMは、SRAM、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレートSDRAM(DDR SDRAM)、エンハンスドSDRAM(ESDRAM)、シンクリンクDRAM(SLDRAM)及びダイレクトランバスRAM(DRRAM)などの多くの形態で利用可能である。
コンピュータシステム60はまた、着脱可能/着脱不可能な揮発性/不揮発性のコンピュータストレージ媒体、例えばディスクストレージ等を含む。ディスク記憶装置としては、磁気ディスクドライブ、フロッピーディスクドライブ、テープドライブ、Jazドライブ、Zipドライブ、LS-60ドライブ、フラッシュメモリカード又はメモリスティックのような装置が挙げられるが、これらに限定されない。加えて、ディスク記憶装置は、上記の記憶媒体を、独立して、又は他の記憶媒体との組み合わせで含むことができる。他の記憶媒体としては、コンパクトディスクROM装置(CD-ROM)、コンパクトディスク記録可能ドライブ(CD-Rドライブ)、コンパクトディスク書き換え可能ドライブ(CD-RWドライブ)若しくはデジタル多用途ディスクROMドライブ(DVD-ROM)などの光ディスクドライブが挙げられるがこれらに限定されない。ディスク記憶装置のシステムバスへの接続を容易にするために、着脱可能な又は着脱不可能なインターフェースが用いられてもよい。
様々な態様では、図6のコンピュータシステム60、図4~図6の撮像モジュール38、及び/又は可視化システム58、及び/又はプロセッサモジュール15は、画像プロセッサ、画像処理エンジン、画像処理装置(GPU)、メディアプロセッサ、又はデジタル画像の処理に使用される任意の専用デジタル信号プロセッサ(DSP)を含んでもよい。画像プロセッサは、単一命令複数データ(SIMD)、又は複数命令複数データ(MIMD)技術を用いた並列コンピューティングを用いて速度及び効率を高めることができる。デジタル画像処理エンジンは、様々なタスクを実施することができる。画像プロセッサは、マルチコアプロセッサアーキテクチャを備えるチップ上のシステムであってもよい。
図7は、撮像モジュール38と外科用ハブディスプレイ67との間の通信経路内に配置された中間信号結合器64を含む拡張現実システム263を示す。信号結合器64は、撮像モジュール38及び/又はARデバイス66から受信された音声及び/又は画像データを組み合わせる。外科用ハブ56は、結合器64から組み合わされたデータを受信し、ディスプレイ67に提供されたデータをオーバーレイし、オーバーレイされたデータが表示される。撮像デバイス68はデジタルビデオカメラであってもよく、オーディオデバイス69はマイクロフォンであってもよい。信号結合器64は、外科用ハブ56がディスプレイ67上にデータをオーバーレイすることを可能にするコンソールへのディスプレイ67の通信経路内に配置されたARデバイス66に連結するための無線ヘッドアップディスプレイアダプタを含み得る。
図8は、撮像モジュールと外科用ハブディスプレイとの間の通信経路内に配置された中間信号結合器を含む拡張現実(AR)システムを示す。図8は、外科用ハブ56にデータを通信するために外科医73によって装着されるARデバイス66を示す。ARデバイス66の周辺情報は、アクティブ映像を含まない。むしろ、周辺情報は、デバイス設定、又はリフレッシュレートの同じ要求を有さない信号のみを含む。相互作用は、術前コンピュータ断層撮影(CT)又は外科用ハブ56内でリンクされた他のデータとのリンクに基づいて、外科医73の情報を拡張させ得る。ARデバイス66は、構造を識別することができ、例えば、器具が神経、血管、又は癒着に触れているかどうかを尋ねることができる。ARデバイス66は、術前スキャンデータ、光学ビュー、処置全体を通して取得される組織調査特性、及び/又は回答を提供するために使用される外科用ハブ56における処理を含み得る。外科医73は、報告又はフォローアップにおける後の使用のためにハブストレージ45内に患者データと共に保存されるように、ARデバイス66にメモを書き取ることができる。
外科医73によって装着されるARデバイス66は、オーバーレイの必要性を回避するために、聴覚及び視覚情報を用いて外科用ハブ56にリンクし、視野の周辺の周りに表示される情報のカスタマイズを可能にする。ARデバイス66は、デバイス(例えば、器具)からの信号を提供し、デバイス設定又は象限若しくは位置を識別するためにビデオとリンクされた位置情報に関するクエリに回答する。ARデバイス66は、ARデバイス66からの音声制御及び音声フィードバックを有する。ARデバイス66は、手術現場内の他のシステムと相互作用することができ、外科医73がどこを視認しても利用可能なフィードバック及び相互作用を有することができる。例えば、ARデバイス66は、外科医から音声又はジェスチャ開始コマンド及びクエリを受信してもよく、ARデバイス66は、音声、視覚、又は触覚タッチを含む1つ以上のモダリティの形態でフィードバックを提供してもよい。
図9は、ARデバイス66を装着している外科医73、患者74を示し、手術室75内にカメラ96を含んでもよい。外科医73によって装着されるARデバイス66は、拡張現実ディスプレイ89を通して、又はハブ接続ディスプレイ67を通して、術野のリアルタイム画像上にオーバーレイされる仮想オブジェクトを外科医73に提示するために使用されてもよい。リアルタイム画像は、外科用器具77の一部を含んでもよい。仮想オブジェクトは、手術室75内の他者(例えば、外科助手又は看護師)には可視でない場合があるが、彼らもまた、ARデバイス66を装着し得る。別の人がARデバイス66を用いて手術室75を視認している場合であっても、その人は、仮想オブジェクトを見ることができない場合があるか、又は外科医73と共有される拡張現実において仮想オブジェクトを見ることができる場合があるか、又は(例えば、外科医73に固有のカスタマイゼーションに従って)仮想オブジェクトの修正バージョンを見ることができる場合があるか、又は異なる仮想オブジェクトを見る場合がある。
仮想オブジェクト及び/又はデータは、外科用器具77の一部上に、又は撮像モジュール38、低侵襲外科的処置中の撮像デバイス68、及び/又は切開外科的処置中のカメラ96によって捕捉された手術視野内に現れるように構成され得る。図示の例では、撮像モジュール38は、低侵襲外科的処置中に外科領域のライブ映像を提供する腹腔鏡カメラである。ARシステムは、ARシステムの1人又は複数の視認者(例えば、外科医73)の視点に関係なく、実オブジェクトに固定される仮想オブジェクトを提示してもよい。例えば、仮想オブジェクトは、手術室75内のARシステムの視認者に可視であってもよく、手術室75外のARシステムの視認者に可視でなくてもよい。仮想オブジェクトは、視認者が手術室75に入ったときに、手術室75外の視認者に表示されてもよい。拡張画像は、外科用ハブディスプレイ67又は拡張現実ディスプレイ89に表示されてもよい。
ARデバイス66は、単一スクリーン又は2つのスクリーン(例えば、ユーザの目毎に1つ)等の1つ以上のスクリーン又はレンズを含んでもよい。スクリーンは、仮想オブジェクトを表示している間に実環境の態様が可視であるように、光がスクリーンを通過することを可能にし得る。仮想オブジェクトは、光を投影することによって外科医73に可視になり得る。仮想オブジェクトは、ある程度の透明度を有するように見えてもよく、又は不透明であってもよい(すなわち、実環境の態様を遮断する)。
ARシステムは、1人以上の視認者に可視であってもよく、ビュー間で共通のいくつかの態様を保持しながら、1人以上の視認者に利用可能なビュー間の差異を含んでもよい。例えば、ヘッドアップディスプレイは、2つのビューの間で変化し得るが、仮想オブジェクト及び/又はデータは、両方のビュー内の実オブジェクト又は領域に固定され得る。オブジェクトの色、照明、又は他の変更等の態様は、少なくとも1つの仮想オブジェクトの固定位置を変更することなくビュー間で行われ得る。
ユーザは、ARシステム内に提示される仮想オブジェクト及び/又はデータを、不透明として、又はあるレベルの透明度を含むものとして見ることができる。一例では、ユーザは、仮想オブジェクトを第1の位置から第2の位置に移動させること等によって、仮想オブジェクトと相互作用することができる。例えば、ユーザは、自身の手でオブジェクトを動かしてもよい。これは、(例えば、ARデバイスカメラ79又は別個の96等のARデバイス66上に搭載されてもよく、静的であってもよく、又は移動するように制御されてもよい、1つ以上のカメラを使用して)手がオブジェクトと一致又は隣接する位置に移動したことを判定し、それに応じてオブジェクトを移動させることによって、ARシステムにおいて仮想的に行われてもよい。仮想態様は、実世界オブジェクトの仮想表現を含んでもよく、又は照明効果等の視覚効果を含んでもよい。ARシステムは、仮想オブジェクトを重力又は摩擦に曝す等、仮想オブジェクトの挙動を支配するための規則を含んでもよく、又は実世界の物理的制約(例えば、浮遊オブジェクト、永久運動等)を否定する他の事前定義された規則を含んでもよい。ARデバイス66は、ARデバイス66上にカメラ79を含み得る(ARデバイス66とは別個のカメラ96と混同されるべきではない)。ARデバイスカメラ79又はカメラ96は、赤外線カメラ、赤外線フィルタ、可視光フィルタ、複数のカメラ、深度カメラ等を含み得る。ARデバイス66は、ユーザが視認することができる実環境の表現の上に仮想アイテムを投影し得る。
ARデバイス66は、例えば、外科医73によって患者74に対して行われる外科的処置中に手術室75内で使用され得る。ARデバイス66は、外科医の視覚を拡張するために、外科的処置中の仮想オブジェクト等の仮想オブジェクトを投影又は表示してもよい。外科医73は、ARデバイス66、ARデバイス66のためのリモートコントローラを使用して仮想オブジェクトを視認してもよく、又は、例えば、ARデバイス66のカメラ79によって認識される仮想オブジェクト又はジェスチャと「相互作用」するために手を使用して、仮想オブジェクトと相互作用してもよい。仮想オブジェクトは、外科用器具77等の外科用ツールを拡張することができる。例えば、仮想オブジェクトは、(ARデバイス66を通して仮想オブジェクトを視認する外科医73に対して)外科用器具77と連結されるように、又は外科用器具77から固定距離のままであるように見えてもよい。別の例では、仮想オブジェクトは、外科用器具77を案内するために使用されてもよく、患者74に固定されているように見えてもよい。特定の例では、仮想オブジェクトは、術野における他の仮想又は実世界のオブジェクトの動きに反応し得る。例えば、仮想オブジェクトは、外科医が仮想オブジェクトに近接して外科用器具を操作しているときに変更され得る。
拡張現実ディスプレイシステム撮像デバイス38は、外科的処置の間、外科領域の実画像を捕捉する。拡張現実ディスプレイ89、67は、外科領域の実画像上への外科用器具77の動作態様のオーバーレイを提示する。外科用器具77は、ARデバイス66上の通信回路233を介して外科用器具77からARデバイス66に動作態様及び機能データを通信するための通信回路231を含む。外科用器具77及びARデバイス66は、矢印B、Cによって示されるように、回路231、233の間のRF無線通信において示されているが、他の通信技術(例えば、有線、超音波、赤外線等)が採用されてもよい。オーバーレイは、アクティブに可視化されている外科用器具77の動作態様に関連する。オーバーレイは、外科領域における組織相互作用の態様を外科用器具77からの機能データと組み合わせる。ARデバイス66のプロセッサ部分は、外科用器具77から動作態様及び機能データを受信し、外科用器具77の動作に関連するオーバーレイを決定し、外科領域内の組織の態様を外科用器具77からの機能データと組み合わせるように構成される。拡張画像は、デバイス性能考慮事項に関するアラート、不適合な使用のアラート、不完全な捕捉に関するアラートを示す。不適合な使用には、範囲外の組織状態及びエンドエフェクタのジョー内で不正確にバランスされた組織が含まれる。追加の拡張画像は、組織張力のインジケーション及び異物検出のインジケーションを含む付随事象のインジケーションを提供する。他の拡張画像は、デバイス状況オーバーレイ及び器具インジケーションを示す。
図10は、本開示の少なくとも一態様による、ARディスプレイ89を使用して情報と共に術野の画像を拡張するためのシステム83を示す。システム83は、例えば、プロセッサ85を使用することによって、以下で説明される技術を実行するために使用され得る。システム83は、データベース93と通信することができるARデバイス66の一態様を含む。ARデバイス66は、プロセッサ85、メモリ87、ARディスプレイ89、及びカメラ79を含む。ARデバイス66は、センサ90、スピーカ91、及び/又は触覚コントローラ92を含んでもよい。データベース93は、画像ストレージ94又は術前計画ストレージ95を含んでもよい。
ARデバイス66のプロセッサ85は、拡張現実モデラ86を含む。拡張現実モデラ86は、拡張現実環境を作成するために、プロセッサ85によって使用され得る。例えば、拡張現実モデラ86は、カメラ79又はセンサ90等から、術野内の器具の画像を受信し、手術視野の表示画像内に収まるように拡張現実環境を作成してもよい。別の例では、物理的オブジェクト及び/又はデータは、手術視野及び/又は外科用器具画像上にオーバーレイされてもよく、拡張現実モデラ86は、物理的オブジェクト及びデータを使用して、仮想オブジェクト及び/又はデータの拡張現実ディスプレイを拡張現実環境内に提示してもよい。例えば、拡張現実モデラ86は、患者の手術部位で器具を使用又は検出し、外科用器具上の仮想オブジェクト及び/又はデータ、及び/又はカメラ79によって捕捉された手術視野内の手術部位の画像を提示してもよい。ARディスプレイ89は、実環境にオーバーレイされたAR環境を表示してもよい。ディスプレイ89は、AR環境内の固定位置等にあるARデバイス66を使用して、仮想オブジェクト及び/又はデータを示すことができる。
ARデバイス66は、赤外線センサ等のセンサ90を含むことができる。カメラ79又はセンサ90は、外科医又は他のユーザによるジェスチャ等の動きを検出するために使用されてもよく、動きは、プロセッサ85によって、ユーザによる仮想ターゲットとの試みられた又は意図された相互作用として解釈されてもよい。プロセッサ85は、カメラ79を使用して受信された情報を処理すること等によって、実環境内のオブジェクトを識別することができる。他の態様では、センサ90は、拡張環境を作成するために様々なデータフィードと組み合わされ得る対応する信号を生成するための触覚センサ、可聴センサ、化学センサ、又は熱センサであり得る。センサ90は、バイノーラルオーディオセンサ(空間音)、慣性測定(加速度計、ジャイロスコープ、磁力計)センサ、環境センサ、深度カメラセンサ、手及び視線追跡センサ、並びに音声コマンド認識機能を含み得る。
ARディスプレイ89は、例えば、外科的処置中に、術野がARディスプレイ89を通して視認されることを可能にしながら、術野内等に、患者の解剖学的態様によって隠される物理的特徴に対応する仮想特徴を提示してもよい。仮想特徴は、物理的特徴の第1の物理的位置又は配向に対応する仮想位置又は配向を有し得る。一例では、仮想特徴の仮想位置又は配向は、物理的特徴の第1の物理的位置又は配向からのオフセットを含み得る。オフセットは、拡張現実ディスプレイからの所定の距離、拡張現実ディスプレイから解剖学的態様までの相対距離等を含んでもよい。
一例では、ARデバイス66は、個々のARデバイスであり得る。一態様では、ARデバイス66は、ワシントン州レドモンドのMicrosoftによって製造されたHoloLens 2 ARデバイスであってもよい。このARデバイス66は、レンズ及びバイノーラルオーディオ特徴(空間音)を伴うバイザと、慣性測定(加速度計、ジャイロスコープ、磁力計)と、環境センサと、深度カメラと、ビデオカメラと、手及び視線追跡と、音声コマンド認識機能とを含む。それは、鏡を使用して導波路を着用者の目の前に向けることによって、高解像度で改善された視野を提供する。画像は、ミラーの角度を変えることによって拡大することができる。それはまた、ユーザを認識し、特定のユーザのためにレンズ幅を調整するための視線追跡を提供する。
別の例では、ARデバイス66は、Snapchat Spectacles 3 ARデバイスであり得る。このARデバイスは、ペア画像を捕捉し、3D深度マッピングを再作成し、仮想効果を追加し、3Dビデオを再生する能力を提供する。ARデバイスは、60fpsで3D写真及びビデオを捕捉するための2つのHDカメラを含み、一方、4つの内蔵マイクロフォンは、没入型高忠実度オーディオを記録する。両方のカメラからの画像を組み合わせて、ユーザの周りの実世界の幾何学的マップを構築し、奥行き知覚の新しい感覚を提供する。写真及びビデオは、外部ディスプレイデバイスに無線で同期され得る。
更に別の例では、ARデバイス66は、GoogleによるGlass 2 ARデバイスであり得る。このARデバイスは、情報を補足するためにレンズ(視野外)上にオーバーレイされた慣性測定(加速度計、ジャイロスコープ、磁力計)情報を提供する。
別の例では、ARデバイス66は、AmazonによるEcho Frames ARデバイスであり得る。このARデバイスは、カメラ/ディスプレイを有しない。マイクロフォン及びスピーカはAlexaにリンクされる。このARデバイスは、ヘッドアップディスプレイよりも機能が少ない。
更に別の例では、ARデバイス66は、North(Google)によるFocals ARデバイスであり得る。このARデバイスは、通知プッシャ/スマートウォッチアナログ、慣性測定、情報(天気、カレンダ、メッセージ)のスクリーンオーバーレイ、音声制御(Alexa)統合を提供する。このARデバイスは、基本的なヘッドアップディスプレイ機能を提供する。
別の例では、ARデバイス66は、Nreal ARデバイスであり得る。このARデバイスは、空間音、2つの環境カメラ、写真カメラ、IMU(加速度計、ジャイロスコープ)、周辺光センサ、近接センサ機能を含む。nebulaは、アプリケーション情報をレンズ上に投影する。
様々な他の例では、ARデバイス66は、以下の市販のARデバイス、すなわち、Magic Leap 1、Epson Moverio、Vuzix Blade AR、ZenFone AR、Microsoft AR眼鏡プロトタイプ、EyeTapのうちのいずれか1つであってもよく、これにより、環境の光と同一直線上の光を直接網膜に作成する。ビームスプリッタは、例えば、情報を処理しオーバーレイするために、コンピュータに目に見える同じ光を利用可能にする。AR可視化システムは、HUD、コンタクトレンズ、眼鏡、仮想現実(VR)ヘッドセット、仮想網膜ディスプレイ、手術室内ディスプレイ、及び/又はスマートコンタクトレンズ(バイオニックレンズ)を含む。
ARデバイス66のためのマルチユーザインターフェースは、目の前のスクリーン上ではなく網膜上に直接描画されるラスタディスプレイ等の仮想網膜ディスプレイ、スマートテレビ、スマートフォン、及び/又はSony空間ディスプレイシステム等の空間ディスプレイを含む。
他のAR技術は、例えば、AR捕捉デバイス及びソフトウェアアプリケーション、AR作成デバイス及びソフトウェアアプリケーション、並びにARクラウドデバイス及びソフトウェアアプリケーションを含んでもよい。AR捕捉デバイス及びソフトウェアアプリケーションは、例えば、Apple Polycam app、Ubiquity 6(Display.land appを使用するMirrorworld)を含み、ユーザは、(3dモデルを作成するために)実世界の3D画像をスキャンし、取得することができる。AR作成デバイス及びソフトウェアアプリケーションは、例えば、Adobe Aero、Vuforia、ARToolKit、Google ARCore、Apple ARKit、MAXST、Aurasma、Zappar、Blipparを含む。ARクラウドデバイス及びソフトウェアアプリケーションは、例えば、Facebook、Google(world geometry、objection recognition、predictive data)、Amazon AR Cloud(commerce)、Microsoft Azure、Samsung Project Whare、Niantic、Magic Leapを含む。
状況認識は、データベース及び/又は器具から受信したデータから外科的処置に関連する情報を判定又は推測するための、外科用システムのいくつかの態様の能力である。情報は、実行されている処置のタイプ、手術されている組織のタイプ、又は処置の対象である体腔を含むことができる。外科的処置に関するコンテキスト情報によると、外科用システムは、例えば、外科用システムが、それに接続されるモジュール式デバイス(例えば、ロボットアーム及び/又はロボット外科用ツール)を制御し、外科的処置の過程で外科医にコンテキスト化された情報又は提案を提供する様式で改善し得る。
図11は、状況認識外科的処置のタイムラインを示す。図11は、例示的な外科的処置のタイムライン5200と、外科的処置の各ステップでデータソース5126から受信されたデータから外科用ハブ5104が導出することができるコンテキスト情報とを示す。タイムライン5200は、手術現場のセットアップで始まり、患者を術後回復室に移送することで終了する肺区域切除処置の過程中に、看護師、外科医及び他の医療従事者がとるであろう一般的なステップを示す。状況認識外科用ハブ5104は、外科的処置の過程全体にわたって、医療関係者が外科用ハブ5104とペアリングされたモジュール式デバイス5102を使用するたびに生成されるデータを含むデータを、データソース5126から受信する。外科用ハブ5104は、ペアリングされたモジュール式デバイス5102及び他のデータソース5126からこのデータを受信して、任意の所与の時間に処置のどのステップが行われているかなどの新しいデータが受信されると、進行中の処置に関する推定(すなわち、コンテキスト情報)を継続的に導出することができる。外科用ハブ5104の状況認識システムは、例えば、報告を生成するために処置に関するデータを記録すること、医療従事者によってとられているステップを検証すること、特定の処置ステップに関連し得るデータ又はプロンプトを(例えば、表示画面を介して)提供すること、コンテキストに基づいてモジュール式デバイス5102を調整する(例えば、モニタを起動する、医療用撮像デバイスのFOVを調整する、又は超音波外科用器具若しくはRF電気外科用器具のエネルギーレベルを変更する)こと、及び上述される任意の他のこうした動作を行うことが可能である。
第1の5202では、病院職員は、病院のEMRデータベースから、患者のEMRを取り出す。EMRにおいて選択された患者データに基づいて、外科用ハブ5104は、実施される処置が胸部手術であることを判定する。
第2の5204では、職員は、処置のために入来する医療用品をスキャンする。外科用ハブ5104は、スキャンされた物資を様々なタイプの処置において利用される物資のリストと相互参照し、物資の混合物が、胸部処置に対応することを確認する。更に、外科用ハブ5104はまた、処置が楔形切除術ではないと判定することができる(入来する用品が、胸部楔形切除術に必要な特定の用品を含まないか、又は別の点で胸部楔形切除術に対応していないかのいずれかであるため)。
第3の5206では、医療従事者は、外科用ハブ5104に通信可能に接続されたスキャナ5128を介して患者バンドをスキャンする。次いで、外科用ハブ5104は、スキャンされたデータに基づいて患者の身元を確認することができる。
第4の5208では、医療職員が補助装置をオンにする。利用されている補助機器は、外科的処置の種類、及び外科医が使用する技術に従って変動し得るが、この例示的なケースでは、排煙器、送気器及び医療用撮像デバイスが挙げられる。起動されると、モジュール式デバイス5102である補助装置は、その初期化プロセスの一部として、モジュール式デバイス5102の特定の近傍内に位置する外科用ハブ5104と自動的にペアリングすることができる。次いで、外科用ハブ5104は、この術前又は初期化段階中にそれとペアリングされるモジュール式デバイス5102の種類を検出することによって、外科的処置に関するコンテキスト情報を導出することができる。この特定の実施例では、外科用ハブ5104は、ペアリングされたモジュール式デバイス5102のこの特定の組み合わせに基づいて、外科的処置がVATS手術であると判定する。患者のEMRからのデータの組み合わせ、処置に用いられる医療用品のリスト、及びハブに接続するモジュール式デバイス5102の種類に基づいて、外科用ハブ5104は、外科チームが実施する特定の処置を概ね推定することができる。外科用ハブ5104が、何の特定の処置が行われているかを知ると、次いで外科用ハブ5104は、メモリから、又はクラウドからその処置のステップを読み出し、次いで接続されたデータソース5126(例えば、モジュール式デバイス5102及び患者モニタリングデバイス5124)からその後受信したデータを相互参照して、外科的処置のどのステップを外科チームが実行しているかを推定することができる。
第5の5210では、職員は、EKG電極及び他の患者モニタリングデバイス5124を患者に取り付ける。EKG電極及び他の患者モニタリングデバイス5124は、外科用ハブ5104とペアリングすることができる。外科用ハブ5104が患者モニタリングデバイス5124からデータの受信を開始すると、外科用ハブ5104は患者が手術現場にいることを確認する。
第6の5212では、医療関係者は患者において麻酔を誘発する。外科用ハブ5104は、例えば、EKGデータ、血圧データ、人工呼吸器データ又はこれらの組み合わせを含む、モジュール式デバイス5102、及び/又は患者モニタリングデバイス5124からのデータに基づいて、患者が麻酔下にあることを推測することができる。第6ステップ5212が完了すると、肺区域切除手術の術前部分が完了し、手術部が開始する。
第7の5214では、手術されている患者の肺が虚脱される(換気が対側肺に切り替えられる間に)。外科用ハブ5104は、患者の肺が虚脱されたことを人工呼吸器データから推測することができる。外科用ハブ5104は、患者の肺が虚脱したのを検出したことを、処置の予期されるステップ(事前にアクセス又は読み出すことができる)と比較することができるため、処置の手術部分が開始したことを推定して、それによって肺を虚脱させることがこの特定の処置における第1の手術ステップであると判定することができる。
第85216では、医療用撮像デバイス5108(例えば、スコープ)が挿入され、医療用撮像デバイスからのビデオ映像が開始される。外科用ハブ5104は、医療用撮像デバイスへの接続を通じて医療用撮像デバイスデータ(すなわち、静止画像データ又はリアルタイムのライブストリーミングビデオ)を受信する。医療用撮像デバイスデータを受信すると、外科用ハブ5104は、外科的処置の腹腔鏡部分が開始したことを判定することができる。更に、外科用ハブ5104は、行われている特定の処置が、肺葉切除術とは対照的に区域切除術であると判定することができる(処置の第2のステップ5204で受信したデータに基づいて、楔形切除術は外科用ハブ5104によって既に考慮に入れられていないことに留意されたい)。医療用撮像デバイス124(図2)からのデータを利用して、様々な方法で、例えば、患者の解剖学的構造の可視化に対して向けられている医療用撮像デバイスの角度を判定することによって、利用されている(すなわち、起動されており、外科用ハブ5104とペアリングされている)数又は医療用撮像デバイスを監視することによって、及び利用されている可視化装置の種類を監視することによって、行われている処置の種類に関するコンテキスト情報を判定することができる。
例えば、VATS肺葉切除術を実行するための1つの技術は、カメラを患者の胸腔の前下方角部の横隔膜上方に配置するが、他方、VATS区域切除術を実行するための1つの技術は、カメラを、区域裂に対して前方の肋間位置に配置する。状況認識システムは、例えば、パターン認識技術又は機械学習技術を使用して、患者の解剖学的構造の可視化に従って、医療用撮像デバイスの位置を認識するように訓練することができる。別の例として、VATS肺葉切除術を実行するための1つの技術は、単一の医療用撮像デバイスを利用するが、VATS区域切除術を実行するための別の技術は複数のカメラを利用する。更に別の例として、VATS区域切除術を実行するための1つの技術は、区域裂を可視化するために赤外線光源(可視化システムの一部として外科用ハブへと通信可能に連結できる)を利用するが、これはVATS肺葉切除術では利用されない。医療用撮像デバイス5108からのこのデータのいずれか又は全てを追跡することによって、外科用ハブ5104は、行われている特定の種類の外科的処置、及び/又は特定の種類の外科的処置に使用されている技術を判定することができる。
第9の5218では、外科チームは、処置の切開ステップを開始する。外科用ハブ5104は、エネルギー器具が発射されていることを示すRF又は超音波発生器からのデータを受信するため、外科医が患者の肺を切開して分離するプロセスにあると推定することができる。外科用ハブ5104は、受信したデータを外科的処置の読み出しされたステップと相互参照して、プロセスのこの時点(すなわち、上述された処置のステップが完了した後)で発射されているエネルギー器具が切開ステップに対応していると判定することができる。
第10のステップ5220では、外科チームは、処置の結紮ステップに進む。外科用ハブ5104は、器具が発射されていることを示すデータを外科用ステープル留め及び切断器具から受信するため、外科医が動脈及び静脈を結紮していると推定することができる。前ステップと同様に、外科用ハブ5104は、外科用ステープル留め及び切断器具からのデータの受信を、読み出しされたプロセス内のステップと相互参照することによって、この推定を導出することができる。
第11のステップ5222では、処置の区域切除術の部分が行われる。外科用ハブ5104は、ステープルカートリッジからのデータを含む、外科用器具からのデータに基づいて、外科医が実質組織を横切開していると推定する。カートリッジデータは、例えば、器具によって発射されているステープルのサイズ又はタイプに対応し得る。カートリッジデータは、異なるタイプの組織に利用される異なるタイプのステープルに対して、ステープル留め及び/又は横切開されている組織のタイプを示し得る。発射されているステープルのタイプは実質組織又は他の同様の組織タイプに利用され、外科用ハブ5104は、区域切除処置が行われていると推定することができる。
続いて第12のステップ5224で、結節切開ステップが行われる。外科用ハブ5104は、RF又は超音波器具が発射されていることを示す、発生器から受信したデータに基づいて、外科チームが結節を切開し、漏れ試験を行っていると推定することができる。この特定の処置の場合、実質組織が横切開された後に利用されるRF又は超音波器具は結節切開ステップに対応しており、これにより外科用ハブ5104がこの推定を行うことができる。異なる器具が特定のタスクに対してより良好に適合するので、外科医が、処置中の特定のステップに応じて、手術用ステープリング/切断器具と手術用エネルギー(すなわち、RF又は超音波)器具とを、定期的に交互に切り替えることに留意されたい。したがって、ステープル留め器具/切断器具及び手術用エネルギー器具が使用される特定のシーケンスは、外科医が処置のどのステップを実行しているかを示すことができる。第12のステップ5224が完了すると、切開部が閉鎖され、処置の術後部分が開始する。
第13のステップ5226では、患者の麻酔を解く。外科用ハブ5104は、例えば、ベンチレータデータに基づいて(すなわち、患者の呼吸速度が増加し始める)、患者が麻酔から覚醒しつつあると推定することができる。
最後に、第14の5228では、医療従事者が患者から様々な患者モニタリングデバイス5124を除去する。したがって、外科用ハブ5104は、ハブがEKG、BP、及び患者モニタリングデバイス5124からの他のデータを喪失したとき、患者が回復室に移送されていると推定することができる。外科用ハブ5104と通信可能に連結された各種データソース5126から受信したデータに従って、外科用ハブ5104は、所与の外科的処置の各ステップが発生しているときを判定又は推定することができる。
図11に示されるタイムライン5200の第1のステップ5202に示されるように、EMRデータベース(複数の場合もある)からの患者データを利用して、行われる外科的処置のタイプを推定することに加えて、患者データはまた、状況認識外科用ハブ5104によって利用されて、ペアリングされたモジュール式デバイス5102の制御調整を生成することができる。
拡張現実(AR)、複合現実、及び画像オーバーレイ技術の前述の説明を考慮して、本開示は、ARヘッドセット、外部ディスプレイ、又は1つ以上のデバイスの組み合わせ上に拡張現実コンテンツをレンダリング及び表示するように構成され得る。加えて、外部ディスプレイは、ARコンテンツ及び術野の拡張されていないライブフィードを表示する分割画面ビューを提供するように構成され得る。
本開示は、アクティブなOR関係者のうちの1人以上の移動、位置、向き、及びコンテキストを外挿して、進行中の特定の外科的処置、OR関係者によって使用されている外科用器具、及び/又はOR人員の予想される移動を判定するように構成されている手術室(OR)人員の追跡システムを記載する。システムは、拡張現実(AR)コンテンツとして、外科用器具の予想位置、推奨、ガイダンス、警告、及び手術場所情報を含む仮想要素をレンダリングするように更に構成され得る。ARコンテンツは、手術部位のライブフィードとリアルタイムで統合され、術中外科的処置においてOR人員を支援する。
図12は、本開示の少なくとも1つの態様による、パッシブ追跡カメラシステムを備えた例示的なOR16000設定を示す図である。様々な実装態様では、外科用ハブ16001は、通信プロトコル(例えば、Bluetooth)を介して、1つ以上のカメラ16002、外科用器具16010、ディスプレイ16006、オーバーヘッドライト16008、及びOR16000内の他の外科用デバイスに通信可能に接続することができる。カメラ16002は、外科的処置の過程でOR16000内の外科職員16003及び/又は外科用器具16010(又は他の外科用デバイス)の画像及び/又はビデオを捕捉するために配向することができる。捕捉された画像(複数可)は、静止画像又は動画像(すなわち、ビデオ)を含むことができる。外科職員16003及び/又は外科用器具16002の画像は、様々な角度及び倍率で、様々なフィルタを利用するなどして、捕捉することができる。一実装態様では、カメラ16002は、外科的処置を行う各外科職員16003を集合的に可視化できるように、OR16000内に配置される。したがって、外科用ハブ16001は、外科的処置中に外科職員16003及び/又は外科用器具16010を視覚的に分析するために、捕捉された画像及び/又はビデオデータをカメラ16002から受信できる。画像及び/又はビデオデータは、様々な機械視覚、画像処理、物体認識、及び光学追跡技術を利用して処理されて、外科職員16003及び/又は外科用器具16010の特徴、特性、動作、及び移動を追跡することができる。
外科用ハブ16001(図12)は、図13に示されるように、外科職員16003の手首角度に基づいて、外科用器具16010の位置を判定するように構成することができる。この特定の実装態様では、個人の手首16016の角度は、外科医によって保持されている外科用器具16010の長手方向軸16014と、個人の手の長手方向軸16012(すなわち、近位から遠位の軸)との間の角度αとして定義される。他の実装態様では、手首角度は、例えば、個人の手と前腕との間の角度として定義することができる。外科用ハブ16001は、手首角度αを使用して、外科職員16003の他の手の移動16004と共に、外科職員16003の移動を追跡し得る。
図14は、外科医A、外科医B、看護師A、看護師B、麻酔、麻酔医、技術者などの外科職員を一意に識別し区別するように構成された1つ以上のカメラ16002を備えるパッシブ追跡システム16005を示す。パッシブ追跡システム16005は、パターン、色、インク、コード(例えば、バーコード若しくはQRコード)、又は複数の識別子の組み合わせを含む、外科用手袋16018上のいくつかの異なる視覚的識別子を使用して、異なる外科職員間を区別し得る。一態様では、手術室内の各外科職員は、外科職員の識別情報に一意に対応する異なる色又はパターン16020a~16020nを手袋16018上に有する。外科用手袋16018の色は、カメラ16002によってのみ検出可能であり、ディスプレイ16006上に色で示される。
図15は、パッシブ追跡システム16005における初期化シーケンスを示す。一態様では、外科職員の手袋は、識別子又はコード16022a、16022bを含み得る。コード16022a、16022bは、カメラ16002によって走査又は識別され、外科用ハブ16001(図12)に送信されて、識別手袋色又はパターン16020a~16020n(図14に示される)、職員識別情報、及び左手及び右手を関連付け得る。外科用ハブ16001は、コード16022a、16022bに関連付けられた識別情報を記録し、その情報を外科的処置、手術室、患者、又は他の外科的分析に関連付け得る。各外科職員は、手術室に入る際に、又は手術の前に、自身の手袋16018を初期化することを要求され得る。手袋16018は、ディスプレイ16006上に示され、識別される。
手袋16018上の識別特性は、可視光スペクトルにおいて可視又は不可視である滅菌表面を提供する手袋16018上に直接印刷されてもよい。種々の態様では、識別パターンは、不可視インク、光学基準マーカ、手袋上に直接印刷された感光性タグ、又は再帰反射材料を備えてもよい。一態様では、特定の色、パターン、又はコードが気を散らすことが見出される場合があり、したがって、識別パターンが可視光スペクトルにおいて不可視であることが好ましい場合がある。
図16は、左右の付属物を区別するために、又はパッシブ追跡カメラ16002が移動を検出するのを助けるために使用され得る指向性パターン16040を示す。異なる指向性パターン16040が、異なる職員に関連付けられてもよく、パッシブ追跡カメラ16002が移動を検出するのを助けるために、手袋、リストバンド、及び/又は前腕バンド上に印刷されてもよい。
図17は、熱撮像又は赤外線(IR)カメラ16002によって検出される、外科用手袋16018の背側上の識別コード16022を示す。コード16022は、特定のパターンで外科職員からの熱の伝達を可能にする熱伝導性材料を用いて外科用手袋16018の裏側に印刷され得る。加えて、色又はパターンは、外科職員が一致する手袋の対を有することを確実にするために、外科職員に可視であり得る。別の態様では、各手袋16018は一意であり、初期化シーケンスによって職員に関連付けられる。初期化シーケンスは、手袋が対で保持されることを必要とせず、従来のラテックス手袋のような使い捨て手袋の箱から引き出されてもよい。
別の態様では、図18は、外科用手袋16018の背側及び掌側の両方の識別コード16022a、16022bを示す。手袋16018の両側に識別コードを印刷することによって、職員は、初期化シーケンスにおいて自分の手袋16018をより迅速に初期化することができ、パッシブ追跡カメラ16002(図14~図15)のうちの1つが識別コード16022a、16022bを見ることができる可能性を高める。
いくつかの追跡分析は、職員の各指による正確な移動を含む手の移動のより粒度の細かい識別を必要とし得る。一例では、外科用ハブ16001(図12)は、外科職員の追跡された指の移動に基づいて、第1の外科医から第2の外科医への外科用器具の手渡しを追跡し得る。図19は、外科職員手袋16018の各指16024a~jに割り当てられた識別QRコード16022a、16022bを示す。
外科的処置中、複数の外科職員が手術部位に近接して群がり、パッシブ追跡カメラ16002(図14~図15)のうちの1つ以上の視野を妨げる場合がある。この問題を軽減するために、外科用ハブ16001(図12)は、ネットワーク構成内の1つ以上のカメラ16002を使用して、手術室全体にわたって識別子を追跡し得る。図20は、単一の職員の指及び手首の移動をモニタリング及び追跡するように構成された手首装着カメラ16026a、16026b、16016nを示す。手首装着カメラ16026a~nは、有線又は無線通信媒体を介して外科用ハブに通信可能に連結され、連続的に又は周期的なデータダンプでデータを送信することができる。手首装着カメラ16026a~nは、外科職員の手首に沿って複数のカメラ16026a~nを収容する滅菌調整可能ストラップ16028を備える。手首装着カメラ16026a~nは、手の関節に対応する複数のノード16030に基づいて手及び指の移動をマッピングし得る。手首装着カメラ16026a~nは、ノード16030の移動を追跡する際にカメラ16002を支援するために、従来の外科用手袋と共に使用されてもよく、又はIR印刷グリッドと共に使用されてもよい。しかしながら、手首装着カメラ16026a~nであっても、特定の粒度測定値を見ること又は識別することができない場合がある。識別子又はノード16030は、生体物質によって覆われているので、カメラ16002には見えにくいか又は見えない。いくつかの状況では、パッシブカメラ16002は、識別子がIR可視インクで印刷されているときに、識別子を依然として見ることができる。
しかしながら、パッシブ追跡カメラ16002(図14~図15)単独では、力又は指の歪みなどの特定のパラメータを測定するために必要とされる詳細かつ粒度の細かい手の移動16004(図13)を補足するのに十分な解像度を有していない場合がある。加えて、カメラ16002は、視覚的に遮られ、外科用器具16010(図12)、処置、又は対象となる他の移動を識別するために必要な特定の移動16004を認識することが抑制され得る。本開示では、様々なアクティブ追跡システムが、パッシブ追跡カメラには知覚できない可能性がある異なるレベルの精度及び信頼性を測定及び検出するのに適している。一態様では、ジャイロスコープ又は加速度計(図21~図22)は、手が枢動及び回転するときに手の角度を検出することができる外科職員の手袋の裏側(背側)に配置され得る。外科用手袋は、外科職員の指の移動を追跡し、パッシブ追跡データを補足するために、手袋の指に歪みゲージ(図21~22)を更に備え得る。ジャイロスコープ及び歪みゲージなどのアクティブセンサは、追加のデータ点を提供し、外科用ハブが同じ手術空間内の複数のユーザ相互作用をより高い精度で管理することを可能にする。加えて、これらのアクティブセンサによって収集されたデータは、外科職員の外科用デバイスとの相互作用をより良好に定量化するために使用されることができる。外科用ハブ16001(図12)は、アクティブ信号、パッシブ信号、又はアクティブ信号とパッシブ信号の両方の組み合わせを受信するように構成され得る。
様々な態様では、複数のユーザが単一のデバイスの異なる態様を操作しているとき、パッシブ追跡システムに追加の分解能(向き及び指の位置決め)を提供するために、アクティブセンサが使用され得る。例えば、複雑な内視鏡手順の間、1人の外科医がスコープの安定化及び可視化を管理している一方で、別の外科医が作業チャネルを通してツールを操作する。複数組の手がスコープのハンドルと接触することは一般的であり、パッシブシステムは、1組の手によって実行される動作を対応するユーザと関連付けることができない場合がある。指の歪みゲージ又は手袋のジャイロスコープなどのアクティブシステムの追加により、外科用ハブは、どの外科医の手がツールを供給又は保持しているか、及びどの外科医の手がスコープを安定させているかを識別することができ、これは、異なる指形状並びに手の向きが各タスクを実行するために必要とされるためである。同じ視空間に複数のユーザ又はデバイスがいる間に、どのユーザが特定のタスクを実行しているか、又はあるデバイスを操作しているかを予測する精度を改善するために、指の形状及び手の向きを深さで特徴付けることができる。
図21は、指16124の各々の上の基準マーカと、複数の埋め込まれた歪みゲージセンサ16132と、制御回路16140に連結されたジャイロスコープ16136とを備えるアクティブ外科用手袋16118を示す。基準マーカ16124は、指の移動を追跡するパッシブ追跡カメラによって使用される。制御回路16140は、歪みゲージセンサ16132の各々から、可撓性ワイヤ16134を介して歪みゲージ測定値、並びにジャイロスコープデータを受信する。ジャイロスコープは、制御回路16140に連結された回路又はハウジングに埋め込まれ得る。制御回路16140は、無線通信プロトコル又は物理的I/O通信ポートを通じて、アクティブセンサデータを外科用ハブ16001(図12)に転送し得る。制御回路16140は、Bluetoothなどの無線通信プロトコルを介してリアルタイムでデータを送信するように構成され得る。様々な態様では、制御回路16140は、電力を管理するために送信レートを動的に調整し得る。
制御回路16140は、QRコード(登録商標)、RFIDセンサ、又は他の無線通信などのアクティブな識別子16122を有し、これにより、職員は、自分の識別情報をアクティブ追跡データに関連付け得る。加えて、外科用ハブは、初期化シーケンス中に基準マーカ16124をユーザに関連付ける。
様々な態様では、外科用ハブは、パッシブ追跡データを使用して、周囲環境に対して手袋上のアクティブセンサを較正し、それにより、手袋内のセンサは、視覚的妨害にかかわらず空間内の手の位置を認識する。例えば、各手術の開始時に、較正シーケンス(図14~図15)を実行して、手袋内のセンサを、重要な領域(患者ベッド、メイヨ-スタンドなど)に加えて室内の他のユーザを含む周囲環境と同期させることができる。各外科職員は、ユーザ及びシステム内のセンサに一意に対応する手袋内の一意の識別子(例えば、QRコード(登録商標)、NFC、アクティブRFID、パッシブRFID等)をスキャンし得る。較正シーケンス中、全てのユーザは、パッシブ追跡システム(例えば、図14~図15のカメラ16002)の視野内に自分の手を様々な向きで保持し、手袋上の一意の識別マーカは、視覚システムが各ユーザの手袋の相対位置を識別することを可能にする。処置全体を通して、手がデバイス、血液によって遮断される、又は視野を出入りすると、加速度計及びジャイロスコープなどのアクティブセンサを使用して、各ユーザの手の位置及び配向を追跡するために使用することができる。
図22は、単一の歪みゲージセンサ16132が指の先端に関連していることを示す。種々の態様では、アクティブセンサ外科用手袋は、指毎に少なくとも1つの歪みゲージセンサ16132を備え、手の各関節に歪みゲージセンサ16132を含んでもよい。歪みゲージセンサ16132のサイズに起因して、それらは、外科医によって知覚可能なサイズをほとんど又は全く伴わずに、可撓性滅菌材料内に埋め込まれてもよい。外科用手袋は、従来のラテックス、ニトリル、又は外科用手袋に使用される他の無菌材料によって提供される自然な触覚フィードバックを妨げないことが理解されるであろう。
図23及び図24は、歪みゲージセンサ16132を制御回路に接続するために使用され得るフレキシブル回路16135を示す。図23は、ラテックス、ニトリル、又は外科用手袋に使用される他の滅菌材料などの滅菌可撓性材料16138に印刷されたフレキシブル回路を示す。使用後、手袋は、所定回数の使用サイクルで滅菌されてもよいし、使い捨てであってもよい。再利用可能な手袋は、滅菌プロセスが手袋の材料を破壊せず、又は印刷されたアクティブセンサ回路を損傷しない限り、熱又はアルコールなどの消毒液を使用して滅菌され得る。
図25は、制御回路16140に接続され、滅菌可撓性材料16138上に直接印刷されたアクティブ基準マーカ16144を示す。これにより、指及び手の移動を追跡し位置を特定するために、歪みゲージセンサ16132及び基準マーカを外科用手袋上に戦略的に配置することが可能になる。
図26は、移動からエネルギーを獲得し、制御回路、歪みゲージ、ジャイロスコープ、加速度計、及び/又はアクティブ基準マーカに電力を供給するために使用することができる圧電セラミック電力セル16146を示す。アクティブセンサ手袋は、低周波移動(指又は手首の移動)を電源(例えば、バッテリ又はコンデンサ)に蓄積されるエネルギーに変換する複数の圧電セラミック電力セル16146を備えてもよい。電力セル16146は、移動の振動を機械的エネルギーとして捕捉する可撓性セラミック層を含む。伸張された電力セル16146aは、手袋の滅菌可撓性材料16138が伸張するときに伸張し、可撓性セラミック層16148は解放され、手の移動と共に振動する。伸張された電力セル16146aは、励起状態にあり、滅菌可撓性材料16138が収縮すると、伸張されていない静的な電力セル16146bに戻る。変化は、可撓性セラミック層16148の振動をもたらし、エネルギーストレージデバイス内で捕捉され得る小振幅電圧応答を生成する。
図27は、制御回路16140及びジャイロスコープ16136を備える着脱可能なハウジング16150を有するアクティブセンサ手袋16118を示す。ハウジング16150は、制御回路、ジャイロスコープ、加速度計、及び充電式バッテリ又はスーパーキャパシタなどの電源などの電気構成要素を保護するための防水エンクロージャである。ハウジング16150は、接続点16142でアクティブセンサ手袋16118に物理的に接続する。接続点16142は、電力及びデータが、ハウジングと手袋16118上のアクティブセンサとの間を通過することを可能にする。外科的処置の後、着脱可能なハウジングは接続点16142から切り離され、それにより、手袋16118を滅菌することができ、ハウジング16150を外部電源に接続して内部電源を充電することができる。
別の態様では、アクティブセンサは、基準センサ16024を有するパッシブ手袋16018から着脱可能である。図28は、ハウジング16250内で可撓性ワイヤ16234によって制御回路16240に通信可能に連結された複数の埋め込み歪みゲージセンサ16232を備える着脱可能なアクティブセンサハーネス16252を示す。図29は、手から取り外されたアクティブセンサハーネス16252を示す。外科的処置の後、外科職員は、アクティブセンサハーネス16252を除去して、その後の使用のために滅菌することができ、手袋16018を廃棄し得る。図28~図29に示すように、パッシブ手袋16018は、着脱可能な指/手袋ストラップ16254を含む。
様々な態様では、歪みゲージセンサ16132、16232は、第1の外科医と第2の外科医との間の外科用器具の手渡しを追跡するための追加のデータを提供する。手渡しを追跡することは、医療施設が手渡し後にデバイスをモニタリングし、正しいユーザがデバイスを制御していることを保証するのに役立つ。図30は、第1の外科医と第2の外科医との間の外科用器具の手渡し16300のグラフィック表現を示す。外科医Aは、外科用器具を外科医Bに手渡し始め、外科医Bは、16302において、デバイスに手を伸ばし、デバイスを掴む。アクティブ追跡システム及びパッシブ追跡システムの両方は、外科用器具が外科医Aから外科医Bに渡されたと判定する。
別の例では、外科医Aは、外科用器具を外科医Bに手渡し始める。しかしながら、外科医Bは、器具を掴もうとし始めたが、手渡しを行う前に、外科医Aは器具を引き戻した。外科医Aは、焼灼される必要があるいくらかの出血を見たので、器具を再度把持した。パッシブ追跡システムは、手渡しを開始するために外科医Bの近くに移動したときに外科医Aの手及び外科用器具を追跡し、外科医Bがデバイスに接触したことを認識し、手渡しが完了したことを示唆した。パッシブ追跡システムを単独で使用すると、外科医Bが手渡しを「開始」しなかったが、デバイスは外科医Aの手と共に後退しているため、器具の追跡を失うことになり得る。アクティブ追跡システムは、開いた手又は把持された手に関連するので、指位置を検出することができ、追加の確認レベルは、デバイスが移送ゾーンの外側にあるときにのみ「把持している」ユーザに割り当てられ得ることを確実にすることができる。
EMG信号及びMMG信号を用いたアクティブ追跡
本開示は更に、職員の手、手首、及び前腕の筋肉及び腱によって生成される筋音図(MMG)及び/又は筋電図(EMG)信号をモニタリングすることによる、1人以上の外科職員のアクティブ追跡について説明する。EMGセンサは、神経筋活動に応答して収縮中に筋肉によって生成される電流を測定する。MMGセンサは、筋肉の表面上で観察される機械的エネルギーの変化を測定する。MMGセンサは、代替的に又は追加的にEMGセンサと共に使用され得る。MMG信号は、EMG信号より高い信号対雑音比を有することができ、より粒度の高い筋肉活動測定を可能にすることができる。EMG及びMMGセンサは、パッシブ追跡システムの代わりに、又はそれと併せて、筋肉移動を測定するために、手、手首、及び前腕上に配置されてもよい。外科用ハブは更に、パッシブデータとアクティブデータとを同期させることができる。
図31は、人間の手の筋骨格図を示す。手の後側又は背側16402は、伸筋腱16406を示し、手の前側又は掌側16404は、屈筋腱16408を示す。伸筋腱16406及び屈筋腱16408は、手の各指の移動及び力を制御する相補的な腱である。各指は、それぞれの指から手首を通って前腕の筋肉まで延びる個々の伸筋腱16406及び屈筋腱16408によって作動される。脳は、前腕の筋肉に神経信号を送り、手の移動を生成する。
図32は、右腕の前側16410及び後側16412を示す。脳は前腕の筋肉に電気信号を送り、各手のそれぞれの指の移動及び力を制御する。したがって、特定の指の移動及び力は、伸筋腱及び屈筋腱によって生成される信号を測定することによって判定することができる。
図33は、外科用ハブ16001(図12)に通信可能に連結された一対の手首装着センサ16502を示す。センサ16502は、伸筋腱及び屈筋腱が屈筋支帯及び伸筋支帯を通過する際に、伸筋腱及び屈筋腱によって生成されるEMG信号及び/又はMMG信号をモニタリングするように構成される。
別の態様では、アクティブセンサは、前腕の制御筋肉に直接取り付けられてもよい。図34は、前腕の筋肉に直接装着された複数のMMGセンサ16502を示す。センサは、指の対応する屈筋腱及び伸筋腱に従って配置される。
別の態様では、アクティブセンサは、皮膚に直接接着する無線センサ16602であってもよい。図35は、皮膚16606に直接接着する可撓性接着媒体16604に連結された可撓性無線センサ16602を示す。無線センサ16602は、EMG又はMMG信号を測定するために筋肉の上に配置され得るか、又はパッシブ追跡システムによって使用されて職員の特定の移動をモニタリングし得る。無線センサ16602は、外科用ハブに通信可能に連結されて、アクティブ追跡データを無線で送信し得る。複数の無線センサ16602は、接着シート上にあってもよく、センサの全ては、特定の職員の識別情報に登録される。
図36は、手の中の4本の指及び親指の移動に対応する5つのEMGチャネルのグラフィカルプロット16620を示す。外科用ハブは、EMG信号を受信し、運動が分析され得るように結果をプロットし得る。各チャネルは、1つのセンサ及び1つの指に対応するが、他の指からの移動を捕捉してもよい。外科用ハブは、データをプロットして、特定の指16610~16618への移動及び大きさを分離及び分類する。外科用ハブは、運動がある期間及び運動がない期間を示し得る。
図37は、手の移動及び位置に対応するMMG信号のグラフィカルプロット16640を示す。MMG信号分解能は筋肉への近接度に依存するので、MMGセンサを正確に配置することが重要である。グラフィカルプロット16640は、協調移動を作動させるための異なる筋肉に対応する8つのチャネルを含む。
図38は、Vrmsで測定された最大筋収縮の振幅値と、最大随意収縮のパーセンテージ(%MCV)とを相関させるモデル16660を示す。一態様では、線形回帰モデルを使用して、MMG信号を特定の指又は指の組み合わせによって加えられる力に相関させ得る。
図39は、MMG及び/又はEMG信号を測定する複数のアクティブセンサ16802を備えるアクティブセンサスリーブ16800を示す。センサスリーブ16800は、外科職員の前腕の周りにぴったりと嵌合するように構成された弾性嵌合材料16804を含む。アクティブセンサ16802は、前腕における異なる筋肉移動に対応し、指及び手の全体的な移動、運動、及び力を示す。センサは、拡張してスリーブの材料16804と対照をなす弾性変形可能なコンジットワイヤと接続され得る。センサスリーブ16800は、異なる前腕サイズに適合し、適切なセンサ位置決めを確実にするために、異なるサイズ範囲で構成され得る。スリーブは、制御回路16808及び電源16806を備える。制御回路は、外科的処置中にアクティブデータを記憶し、最後に外科用ハブにデータを送信するか、又は外科用ハブにリアルタイムでデータを送信するように構成され得る。スリーブは、リアルタイム位置及び外科職員を示す複数のアクティブビーコン16810を更に備える。加えて、センサは、熱電対16812、圧力変換器16814、及びインピーダンス電極16816を含み得る。
図40は、経時的な筋肉疲労を評価するEMG信号を分析する3つの線形回帰モデルを示す。プロット16902、16904、16906は、異なる外科医に対応する。線形フィット勾配は、経時的な筋肉疲労の速度に相関する。アクティブ信号を使用して、個々の外科医の技術又は外科的処置を評価し得る。この例では、プロット16904は、外科医Bに対してより小さい勾配を示し、外科医Bが、外科医A及び外科医Cと同時間隔においてより少ない筋肉疲労を経験したことを示す。加えて、EMG信号は、同様に、外科的処置の期間にわたる筋肉応力をプロットするために使用され得る。
図41は、本開示の一態様による、手術室職員の移動を追跡するための方法17210の論理図である。ここで図12、図14、及び図15も参照すると、方法17210によれば、外科用ハブ16001は、外部ソースからコンテキストデータを受信する(17212)。コンテキストデータは、外科的処置において使用される外科用器具のための手の位置を含む。外科用ハブ16001は、第1の外科職員16003に関連付けられた第1の一意の識別子と、第2の外科職員16003に関連付けられた第2の一意の識別子とを識別する(17214)。外科用ハブ16001は、第1の外科職員16003及び第2の外科職員16003に関連付けられたカメラシステム16002からパッシブ追跡データを受信する(17216)。パッシブ追跡データは、基準マーカによって判定される。外科用ハブ16001は、第1の外科職員16003及び第2の外科職員16003に関連付けられたアクティブセンサからアクティブ追跡データを受信する(17218)。外科用ハブ16001は、第1の外科職員16003又は第2の外科職員16003が、外科用ハブ16001によって追跡されていない第1の外科用器具16010を使用していると判定する(17220)。外科用ハブ16001は、パッシブ追跡データ及びアクティブ追跡データを、外科的処置において使用される外科用器具16010の手の位置と比較する(17222)。外科用ハブ16001は、パッシブ追跡データ及びコンテキストデータに対応する特定の外科用器具16010を判定する(17224)。外科用ハブ16001は、拡張現実デバイス66(図1~図10)上に表示される仮想要素を送信する(17226)。
したがって、本開示は、近接している、同じツールで作業している、同じ空間領域内で重複している、及び/又はパッシブ追跡カメラの直接の視線から遮られている複数の外科職員を区別する方法、システム、及びデバイスを提供する。
本明細書に記載される主題の様々な追加的態様は、以下の番号付けされた実施例において説明される。
実施例1:外科用システムであって、カメラシステムと、第1の外科職員に対応する一意の識別子であって、手術室関係者によって着用される物品の外面上に位置する視覚インジケータを含み、一意の識別子がカメラシステムに可視である、一意の識別子と、第1の外科職員に対応するアクティブセンサであって、アクティブ追跡データを捕捉する、アクティブセンサと、カメラシステム及びアクティブセンサに通信可能に連結された外科用ハブであって、メモリ及び制御回路を備える、外科用ハブと、を備え、制御回路は、外部ソースからコンテキストデータを受信することであって、コンテキストデータが、外科的処置において使用される外科用器具のための手の位置を含む、ことと、第1の外科職員に関連付けられたカメラシステムからパッシブ追跡データを受信することと、第1の外科職員に関連付けられたアクティブセンサからアクティブ追跡データを受信することと、外科職員が、外科用ハブによって追跡されていない第1の外科用器具を使用していると判定することと、パッシブ追跡データ及びアクティブ追跡データを、外科的処置において使用される外科用器具のための手の位置と比較することと、パッシブ追跡データ及びコンテキストデータに対応する特定の外科用器具を判定することと、拡張現実デバイス上に仮想要素を表示することであって、仮想要素が、特定の外科用器具の仮想表現を含む、ことと、を行うように構成されている、外科用システム。
実施例2:物品は、外科用手袋を含む、実施例1に記載の外科用システム。
実施例3:アクティブセンサは、外科用手袋に埋め込まれ、アクティブセンサは、外科用手袋内に位置する第1の外科職員の各指の構造要素に対する場所、力、若しくは近接度、又はそれらの組み合わせを測定するように構成されている、実施例2に記載の外科用システム。
実施例4:アクティブセンサは、弾性変形可能な導体を用いて制御回路に通信可能に連結されている、実施例3に記載の外科用システム。
実施例5:弾性変形可能な導体は、外科用手袋に印刷されている、実施例4に記載の外科用システム。
実施例6:第1の物品は、第1の外科職員の前腕に着用される追跡スリーブを含み、アクティブセンサは、追跡スリーブ内に埋め込まれ、アクティブセンサは、第1の人物の移動に対応するアクティブ移動信号を測定するように構成されている、実施例1~5のいずれか1つの外科用システム。
実施例7:アクティブ移動信号は、筋音図(MMG)信号及び筋電図(EMG)信号を含む、実施例6に記載の外科用システム。
実施例8:第2の物品は、パッシブ追跡外科用手袋を含み、パッシブ追跡データは、パッシブ追跡手袋の移動に基づいて捕捉され、追跡スリーブから捕捉されたアクティブ追跡データに基づいて関連付けられている、実施例6に記載の外科用システム。
実施例9:一意識別子は、第1の外科職員の各指の一意の識別子を含む、実施例1~8のいずれか1つに記載の外科用システム。
実施例10:一意の識別子は、第1の外科職員の左手についての第1の一意の識別子及び第1の外科職員の右手についての第2の一意の識別子を含む、実施例1~9のいずれか1つに記載の外科用システム。
実施例11:制御回路は、一意の識別子を第1の外科職員の識別情報に登録する開始シーケンスに対応する、第1の外科職員によって開始されたユーザ入力を判定するように更に構成されている、実施例1~10のいずれか1つの外科用システム。
実施例12:手術室職員の移動を追跡するための方法であって、外科用ハブによって、外部ソースからコンテキストデータを受信することであって、コンテキストデータが、外科的処置において使用される外科用器具のための手の位置を含む、ことと、外科用ハブによって、第1の外科職員に関連付けられた第1の一意の識別子と、第2の外科職員に関連付けられた第2の一意の識別子とを識別することと、外科用ハブによって、第1の外科職員及び第2の外科職員に関連付けられたカメラシステムからパッシブ追跡データを受信することであって、パッシブ追跡データが基準マーカによって判定される、ことと、外科用ハブによって、第1の外科職員及び第2の外科職員に関連付けられたアクティブセンサからアクティブ追跡データを受信することと、外科用ハブによって、第1の外科職員又は第2の外科職員が外科用ハブによって追跡されていない第1の外科用器具を使用していると判定することと、外科用ハブによって、パッシブ追跡データ及びアクティブ追跡データを、外科的処置において使用される外科用器具のための手の位置と比較することと、外科用ハブによって、パッシブ追跡データ及びコンテキストデータに対応する特定の外科用器具を判定することと、外科用ハブによって、拡張現実デバイス上に表示されるべき仮想要素を送信することと、を含む、方法。
実施例13:アクティブセンサは、第1の外科職員及び第2の外科職員の各指に対応する少なくとも1つの歪みゲージを含む、実施例12に記載の方法。
実施例14:外科用ハブによって、第1の外科職員が第1の外科用器具を保持していると判定することと、外科用ハブによって、第1の外科職員及び第2の外科職員の把持位置の変化に基づいて、第1の外科用器具の手渡しが開始されたと判定することと、外科用ハブによって、第2の外科職員が第1の外科用器具を把持し始めていると判定することと、外科用ハブによって、外科用器具が第1の外科職員から第2の外科職員への手渡しを完了したと判定することと、を更に含む、実施例13に記載の方法。
実施例15:より一意の識別子は、少なくとも一意の色、パターン、テクスチャ、若しくはクイックレスポンス(QR)コード、又はそれらの組み合わせを含み、一意の識別子は、一意の識別子を第1の外科職員の識別情報に登録する開始シーケンスの一部としてスキャンされる、実施例12~14のいずれか1つに記載の方法。
実施例16:基準マーカは、可視スペクトルの外側にある光源で追跡される、実施例12~15のいずれか1つに記載の方法。
実施例17:基準マーカは、外科用手袋に埋め込まれている、実施例16に記載の方法。
実施例18:光源は、手首装着カメラの一部である、実施例16に記載の方法。
実施例19:アクティブセンサは、外科用手袋に埋め込まれ、アクティブセンサは、外科用手袋上の制御回路に通信可能に連結されている、実施例12~18のいずれか1つに記載の方法。
実施例20:20.制御回路は、着脱可能なハウジングに包囲されている、実施例19に記載の方法。
実施例21:アクティブセンサ及び制御回路は、圧電セラミック電力セルから電力を受け取る、実施例19に記載の方法。
いくつかの形態が示され説明されてきたが、添付の特許請求の範囲をそのような詳細に制限又は限定することは、本出願人が意図するところではない。多くの修正、変形、変更、置換、組み合わせ及びこれらの形態の等価物を実装することができ、本開示の範囲から逸脱することなく当業者により想到されるであろう。更に、記述する形態に関連した各要素の構造は、その要素によって実施される機能を提供するための手段として代替的に説明することができる。また、材料が特定の構成要素に関して開示されているが、他の材料が使用されてもよい。したがって、上記の説明文及び添付の特許請求の範囲は、全てのそのような修正、組み合わせ、及び変形を、開示される形態の範囲に含まれるものとして網羅することを意図としたものである点を理解されたい。添付の特許請求の範囲は、全てのそのような修正、変形、変更、置換、修正、及び等価物を網羅することを意図する。
上記の詳細な説明は、ブロック図、フロー図及び/又は実施例を用いて、装置及び/又はプロセスの様々な形態について記載してきた。そのようなブロック図、フロー図及び/又は実施例が1つ以上の機能及び/又は動作を含む限り、当業者に理解されたいこととして、そのようなブロック図、フロー図及び/又は実施例に含まれる各機能及び/又は動作は、多様なハードウェア、ソフトウェア、ファームウェア又はこれらの事実上の任意の組み合わせによって、個々にかつ/又は集合的に実装することができる。当業者には、本明細書で開示される形態のうちのいくつかの態様の全部又は一部が、1台以上のコンピュータ上で稼働する1つ以上のコンピュータプログラムとして(例えば、1台以上のコンピュータシステム上で稼働する1つ以上のプログラムとして)、1つ以上のプロセッサ上で稼働する1つ以上のプログラムとして(例えば、1つ以上のマイクロプロセッサ上で稼働する1つ以上のプログラムとして)、ファームウェアとして、又はこれらの実質的に任意の組み合わせとして集積回路上で等価に実装することができ、回路を設計すること、並びに/又はソフトウェア及び/若しくはファームウェアのコードを記述することは、本開示を鑑みれば当業者の技能の範囲内に含まれることが理解されよう。加えて、当業者には理解されることとして、本明細書に記載した主題の機構は、多様な形態で1つ以上のプログラム製品として配布されることが可能であり、本明細書に記載した主題の具体的な形態は、配布を実際に実行するために使用される信号搬送媒体の特定のタイプにかかわらず適用される。
様々な開示された態様を実施するように論理をプログラムするために使用される命令は、ダイナミックランダムアクセスメモリ(DRAM)、キャッシュ、フラッシュメモリ又は他のストレージなどのシステム内メモリに記憶され得る。更に、命令は、ネットワークを介して、又は他のコンピュータ可読媒体によって配布され得る。したがって、機械可読媒体としては、機械(例えば、コンピュータ)によって読み出し可能な形態で情報を記憶又は送信するための任意の機構が挙げられ得るが、フロッピーディスケット、光ディスク、コンパクトディスク、読み出し専用メモリ(CD-ROM)、並びに磁気光学ディスク、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、消去可能プログラマブル読み出し専用メモリ(EPROM)、電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)、磁気若しくは光カード、フラッシュメモリ又は、電気的、光学的、音響的、若しくは他の形態の伝播信号(例えば、搬送波、赤外線信号、デジタル信号など)を介してインターネットを介した情報の送信に使用される有形機械可読ストレージに限定されない。したがって、非一時的コンピュータ可読媒体としては、機械(例えば、コンピュータ)によって読み出し可能な形態で電子命令又は情報を記憶又は送信するのに好適な任意のタイプの有形機械可読媒体が挙げられる。
本明細書の任意の態様で使用されるとき、「制御回路」という用語は、例えば、ハードワイヤード回路、プログラマブル回路(例えば、1つ以上の個々の命令処理コアを含むコンピュータプロセッサ、処理ユニット、プロセッサ、マイクロコントローラ、マイクロコントローラユニット、コントローラ、デジタル信号プロセッサ(DSP)、プログラマブル論理装置(PLD)、プログラマブル論理アレイ(PLA)、又はフィールドプログラマブルゲートアレイ(FPGA))、状態機械回路、プログラマブル回路によって実行される命令を記憶するファームウェア、及びこれらの任意の組み合わせを指すことができる。制御回路は、集合的に又は個別に、例えば、集積回路(IC)、特定用途向け集積回路(ASIC)、システムオンチップ(SoC)、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、サーバ、スマートフォンなどの、より大きなシステムの一部を形成する回路として具現化され得る。したがって、本明細書で使用されるとき、「制御回路」は、少なくとも1つの個別の電気回路を有する電気回路、少なくとも1つの集積回路を有する電気回路、少なくとも1つの特定用途向け集積回路を有する電気回路、コンピュータプログラムによって構成された汎用コンピューティング装置(例えば、本明細書で説明したプロセス及び/若しくは装置を少なくとも部分的に実行するコンピュータプログラムによって構成された汎用コンピュータ、又は本明細書で説明したプロセス及び/若しくは装置を少なくとも部分的に実行するコンピュータプログラムによって構成されたマイクロプロセッサ)を形成する電気回路、メモリ装置(例えば、ランダムアクセスメモリの形態)を形成する電気回路及び/又は通信装置(例えばモデム、通信スイッチ、又は光-電気設備)を形成する電気回路を含むが、これらに限定されない。当業者は、本明細書で述べた主題が、アナログ形式若しくはデジタル形式、又はこれらのいくつかの組み合わせで実装されてもよいことを認識するであろう。
本明細書の任意の態様で使用されるとき、「論理」という用語は、前述の動作のいずれかを実施するように構成されたアプリケーション、ソフトウェア、ファームウェア、及び/又は回路を指し得る。ソフトウェアは、非一時的コンピュータ可読記憶媒体上に記録されたソフトウェアパッケージ、コード、命令、命令セット、及び/又はデータとして具現化されてもよい。ファームウェアは、メモリ装置内のコード、命令、若しくは命令セット、及び/又はハードコードされた(例えば、不揮発性の)データとして具現化されてもよい。
本明細書の任意の態様で使用されるとき、「構成要素」、「システム」、「モジュール」等という用語は、制御回路、コンピュータ関連エンティティ、ハードウェア、ハードウェアとソフトウェアとの組み合わせ、ソフトウェア、又は実行中のソフトウェアのいずれかを指すことができる。
本明細書の任意の態様で使用されるとき、「アルゴリズム」とは、所望の結果につながるステップの自己無撞着シーケンスを指し、「ステップ」とは、必ずしも必要ではないが、記憶、転送、組み合わせ、比較、及び別様に操作されることが可能な電気信号又は磁気信号の形態をとることができる物理量及び/又は論理状態の操作を指す。これらの信号を、ビット、値、要素、記号、文字、用語、番号などとして言及することが一般的な扱い方である。これらの及び類似の用語は、適切な物理量と関連付けられてもよく、また単に、これらの量及び/又は状態に適用される便利な標識である。
ネットワークとしては、パケット交換ネットワークが挙げられ得る。通信デバイスは、選択されたパケット交換ネットワーク通信プロトコルを使用して、互いに通信することができる。1つの例示的な通信プロトコルとしては、伝送制御プロトコル/インターネットプロトコル(TCP/IP)を使用して通信を可能にすることができるイーサネット通信プロトコルを挙げることができる。イーサネットプロトコルは、Institute of Electrical and Electronics Engineers(IEEE)によって発行された2008年12月発行の表題「IEEE802.3 Standard」、及び/又は本規格の後のバージョンのイーサネット規格に準拠するか、又は互換性があり得る。代替的に又は追加的に、通信デバイスは、X.25通信プロトコルを使用して互いに通信することができる。X.25通信プロトコルは、International Telecommunication Union-Telecommunication Standardization Sector(ITU-T)によって公布された規格に準拠するか、又は互換性があり得る。代替的に又は追加的に、通信デバイスは、フレームリレー通信プロトコルを使用して互いに通信することができる。フレームリレー通信プロトコルは、Consultative Committee for International Telegraph and Telephone(CCITT)及び/又はthe American National Standards Institute(ANSI)によって公布された規格に準拠するか、又は互換性があり得る。代替的に又は追加的に、送受信機は、非同期転送モード(ATM)通信プロトコルを使用して互いに通信することが可能であり得る。ATM通信プロトコルは、ATM Forumによって「ATM-MPLS Network Interworking 2.0」という題で2001年8月に公開されたATM規格及び/又は本規格の後のバージョンに準拠するか、又は互換性があり得る。当然のことながら、異なる及び/又は後に開発されたコネクション型ネットワーク通信プロトコルは、本明細書で等しく企図される。
別段の明確な定めがない限り、前述の開示から明らかなように、前述の開示全体を通じて、「処理すること(processing)」、「計算すること(computing)」、「算出すること(calculating)」、「判定すること(determining)」、「表示すること(displaying)」などの用語を使用する考察は、コンピュータシステムのレジスタ及びメモリ内で物理(電子的)量として表現されるデータを、コンピュータシステムのメモリ若しくはレジスタ又は他のそのような情報記憶、伝送、若しくは表示装置内で物理量として同様に表現される他のデータへと操作し変換する、コンピュータシステム又は類似の電子計算装置のアクション及び処理を指していることが理解されよう。
1つ以上の構成要素が、本明細書中で、「ように構成されている(configured to)」、「ように構成可能である(configurable to)」、「動作可能である/ように動作する(operable/operative to)」、「適合される/適合可能である(adapted/adaptable)」、「ことが可能である(able to)」、「準拠可能である/準拠する(conformable/conformed to)」などと言及され得る。当業者は、「ように構成されている」は、一般に、文脈上他の意味に解釈すべき場合を除き、アクティブ状態の構成要素及び/又は非アクティブ状態の構成要素及び/又はスタンバイ状態の構成要素を包含し得ることを理解するであろう。
「近位」及び「遠位」という用語は、本明細書では、外科用器具のハンドル部分を操作する臨床医を基準として使用される。「近位」という用語は、臨床医に最も近い部分を指し、「遠位」という用語は、臨床医から離れた位置にある部分を指す。便宜上及び明確性のために、「垂直」、「水平」、「上」、及び「下」などの空間的用語が、本明細書において図面に対して使用され得ることが更に理解されよう。しかしながら、外科用器具は、多くの向き及び位置で使用されるものであり、これらの用語は限定的及び/又は絶対的であることを意図したものではない。
当業者は、一般に、本明細書で使用され、かつ特に添付の特許請求の範囲(例えば、添付の特許請求の範囲の本文)で使用される用語は、概して「オープンな」用語として意図されるものである(例えば、「含む(including)」という用語は、「~を含むが、それらに限定されない(including but not limited to)」と解釈されるべきであり、「有する(having)」という用語は「~を少なくとも有する(having at least)」と解釈されるべきであり、「含む(includes)」という用語は「~を含むが、それらに限定されない(includes but is not limited to)」と解釈されるべきであるなど)ことを理解するであろう。更に、導入された請求項記載(introduced claim recitation)において特定の数が意図される場合、かかる意図は当該請求項中に明確に記載され、またかかる記載がない場合は、かかる意図は存在しないことが、当業者には理解されるであろう。例えば、理解を助けるものとして、後続の添付の特許請求の範囲は、「少なくとも1つの(at least one)」及び「1つ以上の(one or more)」という導入句を、請求項記載を導入するために含むことがある。しかしながら、かかる句の使用は、「a」又は「an」という不定冠詞によって請求項記載を導入した場合に、たとえ同一の請求項内に「1つ以上の」又は「少なくとも1つの」といった導入句及び「a」又は「an」という不定冠詞が含まれる場合であっても、かかる導入された請求項記載を含むいかなる特定の請求項も、かかる記載事項を1つのみ含む請求項に限定されると示唆されるものと解釈されるべきではない(例えば、「a」及び/又は「an」は通常、「少なくとも1つの」又は「1つ以上の」を意味するものと解釈されるべきである)。定冠詞を使用して請求項記載を導入する場合にも、同様のことが当てはまる。
加えて、導入された請求項記載において特定の数が明示されている場合であっても、かかる記載は、典型的には、少なくとも記載された数を意味するものと解釈されるべきであることが、当業者には認識されるであろう(例えば、他に修飾語のない、単なる「2つの記載事項」という記載がある場合、一般的に、少なくとも2つの記載事項、又は2つ以上の記載事項を意味する)。更に、「A、B及びCなどのうちの少なくとも1つ」に類する表記が使用される場合、一般に、かかる構文は、当業者がその表記を理解するであろう意味で意図されている(例えば、「A、B及びCのうちの少なくとも1つを有するシステム」は、限定するものではないが、Aのみ、Bのみ、Cのみ、AとBの両方、AとCの両方、BとCの両方及び/又はAとBとCの全てなどを有するシステムを含む)。「A、B又はCなどのうちの少なくとも1つ」に類する表記が用いられる場合、一般に、かかる構文は、当業者がその表記を理解するであろう意味で意図されている(例えば、「A、B、又はCのうちの少なくとも1つを有するシステム」は、限定するものではないが、Aのみ、Bのみ、Cのみ、AとBの両方、AとCの両方、BとCの両方及び/又はAとBとCの全てなどを有するシステムを含む)。更に、典型的には、2つ以上の選択的な用語を表すあらゆる選言的な語及び/又は句は、文脈上他の意味に解釈すべき場合を除いて、明細書内であろうと、請求の範囲内であろうと、或いは図面内であろうと、それら用語のうちの1つ、それらの用語のうちのいずれか、又はそれらの用語の両方を含む可能性を意図すると理解されるべきであることが、当業者には理解されよう。例えば、「A又はB」という句は、典型的には、「A」又は「B」又は「A及びB」の可能性を含むものと理解されよう。
添付の特許請求の範囲に関して、当業者は、本明細書における引用した動作は一般に、任意の順序で実施され得ることを理解するであろう。また、様々な動作のフロー図がシーケンス(複数可)で示されているが、様々な動作は、示されたもの以外の順序で実施されてもよく、又は同時に実施されてもよいことが理解されるべきである。かかる代替の順序付けの例は、文脈上他の意味に解釈すべき場合を除いて、重複、交互配置、割り込み、再順序付け、増加的、予備的、追加的、同時、逆又は他の異なる順序付けを含んでもよい。更に、「~に応答する(responsive to)」、「~に関連する(related to)」といった用語、又は他の過去時制の形容詞は、一般に、文脈上他の意味に解釈すべき場合を除き、かかる変化形を除外することが意図されるものではない。
「一態様」、「態様」、「例示」、「一例示」などへの任意の参照は、その態様に関連して記載される特定の特徴部、構造又は特性が少なくとも1つの態様に含まれると意味することは特記に値する。したがって、本明細書の全体を通じて様々な場所に見られる語句「一態様では」、「態様では」、「例示では」及び「一例示では」は、必ずしも全てが同じ態様を指すものではない。更に、特定の特徴、構造、又は特性は、1つ以上の態様において任意の好適な様態で組み合わせることができる。
本明細書で参照され、かつ/又は任意の出願データシートに列挙される任意の特許出願、特許、非特許刊行物、又は他の開示資料は、組み込まれる資料が本明細書と矛盾しない範囲で、参照により本明細書に組み込まれる。それ自体、また必要な範囲で、本明細書に明瞭に記載される開示は、参照により本明細書に組み込まれるあらゆる矛盾する記載に優先するものとする。参照により本明細書に組み込まれると言及されているが、現行の定義、見解、又は本明細書に記載される他の開示内容と矛盾するあらゆる内容、又はそれらの部分は、組み込まれた内容と現行の開示内容との間に矛盾が生じない範囲においてのみ、組み込まれるものとする。
要約すると、本明細書に記載した構想を用いる結果として得られる多くの利益が記載されてきた。1つ以上の形態の上述の記載は、例示及び説明を目的として提示されているものである。包括的であることも、開示された厳密な形態に限定することも意図されていない。上記の教示を鑑みて、修正又は変形が可能である。1つ以上の形態は、原理及び実際の応用について例示し、それによって、様々な形態を様々な修正例と共に、想到される特定の用途に適するものとして当業者が利用することを可能にするようにするために、選択及び記載されたものである。本明細書と共に提示される特許請求の範囲が全体的な範囲を定義することが意図される。
〔実施の態様〕
(1) 外科用システムであって、
カメラシステムと、
第1の外科職員に対応する一意の識別子であって、手術室関係者によって着用される物品の外面上に位置する視覚インジケータを含み、前記一意の識別子が前記カメラシステムに可視である、一意の識別子と、
前記第1の外科職員に対応するアクティブセンサであって、アクティブ追跡データを捕捉する、アクティブセンサと、
前記カメラシステム及び前記アクティブセンサに通信可能に連結された外科用ハブであって、メモリと制御回路とを備える、外科用ハブと、を備え、前記制御回路は、
外部ソースからコンテキストデータを受信することであって、前記コンテキストデータが、外科的処置において使用される外科用器具のための手の位置を含む、ことと、
前記第1の外科職員に関連付けられた前記カメラシステムからパッシブ追跡データを受信することと、
前記第1の外科職員に関連付けられた前記アクティブセンサからアクティブ追跡データを受信することと、
前記外科職員が前記外科用ハブによって追跡されていない第1の外科用器具を使用していると判定することと、
前記パッシブ追跡データ及び前記アクティブ追跡データを、外科的処置において使用される外科用器具のための前記手の位置と比較することと、
前記パッシブ追跡データ及び前記コンテキストデータに対応する特定の外科用器具を判定することと、
拡張現実デバイス上に仮想要素を表示することであって、前記仮想要素が、前記特定の外科用器具の仮想表現を含む、ことと、を行うように構成されている、外科用システム。
(2) 前記物品は、外科用手袋を含む、実施態様1に記載の外科用システム。
(3) 前記アクティブセンサは、前記外科用手袋に埋め込まれ、前記アクティブセンサは、前記外科用手袋内に位置する前記第1の外科職員の各指の構造要素に対する場所、力、若しくは近接度、又はそれらの組み合わせを測定するように構成されている、実施態様2に記載の外科用システム。
(4) 前記アクティブセンサは、弾性変形可能な導体を用いて前記制御回路に通信可能に連結されている、実施態様3に記載の外科用システム。
(5) 前記弾性変形可能な導体は、前記外科用手袋に印刷されている、実施態様4に記載の外科用システム。
(6) 第1の物品は、前記第1の外科職員の前腕に着用される追跡スリーブを含み、前記アクティブセンサは、前記追跡スリーブに埋め込まれ、前記アクティブセンサは、第1の人の移動に対応するアクティブ移動信号を測定するように構成されている、実施態様1に記載の外科用システム。
(7) 前記アクティブ移動信号は、筋音図(MMG)信号及び筋電図(EMG)信号を含む、実施態様6に記載の外科用システム。
(8) 第2の物品は、パッシブ追跡外科用手袋を含み、パッシブ追跡データは、前記パッシブ追跡手袋の移動に基づいて捕捉され、前記追跡スリーブから捕捉された前記アクティブ追跡データに基づいて関連付けられている、実施態様6に記載の外科用システム。
(9) 前記一意の識別子は、前記第1の外科職員の各指に対する一意の識別子を含む、実施態様1に記載の外科用システム。
(10) 前記一意の識別子は、前記第1の外科職員の左手についての第1の一意の識別子と前記第1の外科職員の右手についての第2の一意の識別子とを含む、実施態様1に記載の外科用システム。
(11) 前記制御回路は、
前記一意の識別子を前記第1の外科職員の識別情報に登録する開始シーケンスに対応する、前記第1の外科職員によって開始されたユーザ入力を判定するように更に構成されている、実施態様1に記載の外科用システム。
(12) 手術室職員の移動を追跡するための方法であって、
外科用ハブによって、外部ソースからコンテキストデータを受信することであって、前記コンテキストデータが、外科的処置において使用される外科用器具のための手の位置を含む、ことと、
前記外科用ハブによって、第1の外科職員に関連付けられた第1の一意の識別子と、第2の外科職員に関連付けられた第2の一意の識別子とを識別することと、
前記外科用ハブによって、前記第1の外科職員及び前記第2の外科職員に関連付けられたカメラシステムからパッシブ追跡データを受信することであって、前記パッシブ追跡データが基準マーカによって判定される、ことと、
前記外科用ハブによって、前記第1の外科職員及び前記第2の外科職員に関連付けられたアクティブセンサからアクティブ追跡データを受信することと、
前記外科用ハブによって、前記第1の外科職員又は前記第2の外科職員が前記外科用ハブによって追跡されていない第1の外科用器具を使用していると判定することと、
前記外科用ハブによって、前記パッシブ追跡データ及び前記アクティブ追跡データを、外科的処置において使用される外科用器具のための前記手の位置と比較することと、
前記外科用ハブによって、前記パッシブ追跡データ及び前記コンテキストデータに対応する特定の外科用器具を判定することと、
前記外科用ハブによって、拡張現実デバイス上に表示される仮想要素を送信することと、を含む、方法。
(13) 前記アクティブセンサは、前記第1の外科職員及び第2の外科職員の各指に対応する少なくとも1つの歪みゲージを含む、実施態様12に記載の方法。
(14) 前記外科用ハブによって、前記第1の外科職員が前記第1の外科用器具を保持していると判定することと、
前記外科用ハブによって、前記第1の外科職員及び前記第2の外科職員の把持位置の変化に基づいて、前記第1の外科用器具の手渡しが開始されたと判定することと、
前記外科用ハブによって、前記第2の外科職員が前記第1の外科用器具を把持し始めていると判定することと、
前記外科用ハブによって、前記外科用器具が前記第1の外科職員から前記第2の外科職員への前記手渡しを完了したと判定することと、を更に含む、実施態様13に記載の方法。
(15) より一意の識別子は、少なくとも一意の色、パターン、テクスチャ、若しくはクイックレスポンス(QR)コード、又はそれらの組み合わせを含み、前記一意の識別子は、前記一意の識別子を前記第1の外科職員の識別情報に登録する開始シーケンスの一部としてスキャンされる、実施態様12に記載の方法。
(16) 前記基準マーカは、可視スペクトルの外側にある光源で追跡される、実施態様12に記載の方法。
(17) 前記基準マーカは、外科用手袋に埋め込まれている、実施態様16に記載の方法。
(18) 前記光源は、手首装着カメラの一部である、実施態様16に記載の方法。
(19) 前記アクティブセンサは、外科用手袋に埋め込まれ、前記アクティブセンサは、前記外科用手袋上の制御回路に通信可能に連結されている、実施態様12に記載の方法。
(20) 前記制御回路は、着脱可能なハウジングに包囲されている、実施態様19に記載の方法。
(21) 前記アクティブセンサ及び前記制御回路は、圧電セラミック電力セルから電力を受け取る、実施態様19に記載の方法。

Claims (21)

  1. 外科用システムであって、
    カメラシステムと、
    第1の外科職員に対応する一意の識別子であって、手術室関係者によって着用される物品の外面上に位置する視覚インジケータを含み、前記一意の識別子が前記カメラシステムに可視である、一意の識別子と、
    前記第1の外科職員に対応するアクティブセンサであって、アクティブ追跡データを捕捉する、アクティブセンサと、
    前記カメラシステム及び前記アクティブセンサに通信可能に連結された外科用ハブであって、メモリと制御回路とを備える、外科用ハブと、を備え、前記制御回路は、
    外部ソースからコンテキストデータを受信することであって、前記コンテキストデータが、外科的処置において使用される外科用器具のための手の位置を含む、ことと、
    前記第1の外科職員に関連付けられた前記カメラシステムからパッシブ追跡データを受信することと、
    前記第1の外科職員に関連付けられた前記アクティブセンサからアクティブ追跡データを受信することと、
    前記外科職員が前記外科用ハブによって追跡されていない第1の外科用器具を使用していると判定することと、
    前記パッシブ追跡データ及び前記アクティブ追跡データを、外科的処置において使用される外科用器具のための前記手の位置と比較することと、
    前記パッシブ追跡データ及び前記コンテキストデータに対応する特定の外科用器具を判定することと、
    拡張現実デバイス上に仮想要素を表示することであって、前記仮想要素が、前記特定の外科用器具の仮想表現を含む、ことと、を行うように構成されている、外科用システム。
  2. 前記物品は、外科用手袋を含む、請求項1に記載の外科用システム。
  3. 前記アクティブセンサは、前記外科用手袋に埋め込まれ、前記アクティブセンサは、前記外科用手袋内に位置する前記第1の外科職員の各指の構造要素に対する場所、力、若しくは近接度、又はそれらの組み合わせを測定するように構成されている、請求項2に記載の外科用システム。
  4. 前記アクティブセンサは、弾性変形可能な導体を用いて前記制御回路に通信可能に連結されている、請求項3に記載の外科用システム。
  5. 前記弾性変形可能な導体は、前記外科用手袋に印刷されている、請求項4に記載の外科用システム。
  6. 第1の物品は、前記第1の外科職員の前腕に着用される追跡スリーブを含み、前記アクティブセンサは、前記追跡スリーブに埋め込まれ、前記アクティブセンサは、第1の人の移動に対応するアクティブ移動信号を測定するように構成されている、請求項1に記載の外科用システム。
  7. 前記アクティブ移動信号は、筋音図(MMG)信号及び筋電図(EMG)信号を含む、請求項6に記載の外科用システム。
  8. 第2の物品は、パッシブ追跡外科用手袋を含み、パッシブ追跡データは、前記パッシブ追跡手袋の移動に基づいて捕捉され、前記追跡スリーブから捕捉された前記アクティブ追跡データに基づいて関連付けられている、請求項6に記載の外科用システム。
  9. 前記一意の識別子は、前記第1の外科職員の各指に対する一意の識別子を含む、請求項1に記載の外科用システム。
  10. 前記一意の識別子は、前記第1の外科職員の左手についての第1の一意の識別子と前記第1の外科職員の右手についての第2の一意の識別子とを含む、請求項1に記載の外科用システム。
  11. 前記制御回路は、
    前記一意の識別子を前記第1の外科職員の識別情報に登録する開始シーケンスに対応する、前記第1の外科職員によって開始されたユーザ入力を判定するように更に構成されている、請求項1に記載の外科用システム。
  12. 手術室職員の移動を追跡するための方法であって、
    外科用ハブによって、外部ソースからコンテキストデータを受信することであって、前記コンテキストデータが、外科的処置において使用される外科用器具のための手の位置を含む、ことと、
    前記外科用ハブによって、第1の外科職員に関連付けられた第1の一意の識別子と、第2の外科職員に関連付けられた第2の一意の識別子とを識別することと、
    前記外科用ハブによって、前記第1の外科職員及び前記第2の外科職員に関連付けられたカメラシステムからパッシブ追跡データを受信することであって、前記パッシブ追跡データが基準マーカによって判定される、ことと、
    前記外科用ハブによって、前記第1の外科職員及び前記第2の外科職員に関連付けられたアクティブセンサからアクティブ追跡データを受信することと、
    前記外科用ハブによって、前記第1の外科職員又は前記第2の外科職員が前記外科用ハブによって追跡されていない第1の外科用器具を使用していると判定することと、
    前記外科用ハブによって、前記パッシブ追跡データ及び前記アクティブ追跡データを、外科的処置において使用される外科用器具のための前記手の位置と比較することと、
    前記外科用ハブによって、前記パッシブ追跡データ及び前記コンテキストデータに対応する特定の外科用器具を判定することと、
    前記外科用ハブによって、拡張現実デバイス上に表示される仮想要素を送信することと、を含む、方法。
  13. 前記アクティブセンサは、前記第1の外科職員及び第2の外科職員の各指に対応する少なくとも1つの歪みゲージを含む、請求項12に記載の方法。
  14. 前記外科用ハブによって、前記第1の外科職員が前記第1の外科用器具を保持していると判定することと、
    前記外科用ハブによって、前記第1の外科職員及び前記第2の外科職員の把持位置の変化に基づいて、前記第1の外科用器具の手渡しが開始されたと判定することと、
    前記外科用ハブによって、前記第2の外科職員が前記第1の外科用器具を把持し始めていると判定することと、
    前記外科用ハブによって、前記外科用器具が前記第1の外科職員から前記第2の外科職員への前記手渡しを完了したと判定することと、を更に含む、請求項13に記載の方法。
  15. より一意の識別子は、少なくとも一意の色、パターン、テクスチャ、若しくはクイックレスポンス(QR)コード、又はそれらの組み合わせを含み、前記一意の識別子は、前記一意の識別子を前記第1の外科職員の識別情報に登録する開始シーケンスの一部としてスキャンされる、請求項12に記載の方法。
  16. 前記基準マーカは、可視スペクトルの外側にある光源で追跡される、請求項12に記載の方法。
  17. 前記基準マーカは、外科用手袋に埋め込まれている、請求項16に記載の方法。
  18. 前記光源は、手首装着カメラの一部である、請求項16に記載の方法。
  19. 前記アクティブセンサは、外科用手袋に埋め込まれ、前記アクティブセンサは、前記外科用手袋上の制御回路に通信可能に連結されている、請求項12に記載の方法。
  20. 前記制御回路は、着脱可能なハウジングに包囲されている、請求項19に記載の方法。
  21. 前記アクティブセンサ及び前記制御回路は、圧電セラミック電力セルから電力を受け取る、請求項19に記載の方法。
JP2023563054A 2021-04-14 2022-04-11 非モニタリング器具の代替としてユーザの一部を追跡するためのシステム及び方法 Pending JP2024514642A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202163174674P 2021-04-14 2021-04-14
US63/174,674 2021-04-14
US202163284326P 2021-11-30 2021-11-30
US63/284,326 2021-11-30
US17/688,655 US20220336078A1 (en) 2021-04-14 2022-03-07 System and method for tracking a portion of the user as a proxy for non-monitored instrument
US17/688,655 2022-03-07
PCT/IB2022/053363 WO2022219491A1 (en) 2021-04-14 2022-04-11 System and method for tracking a portion of the user as a proxy for non-monitored instrument

Publications (1)

Publication Number Publication Date
JP2024514642A true JP2024514642A (ja) 2024-04-02

Family

ID=81386604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023563054A Pending JP2024514642A (ja) 2021-04-14 2022-04-11 非モニタリング器具の代替としてユーザの一部を追跡するためのシステム及び方法

Country Status (4)

Country Link
EP (1) EP4143844A1 (ja)
JP (1) JP2024514642A (ja)
BR (1) BR112023021239A2 (ja)
WO (1) WO2022219491A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4390957A1 (en) * 2022-12-22 2024-06-26 Stryker Corporation Systems and methods for automatically configuring surgical tools and surgical input devices

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108430339A (zh) * 2015-10-29 2018-08-21 夏普应用流体力学有限责任公司 用于手术室中数据捕获的系统和方法
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11589888B2 (en) 2017-12-28 2023-02-28 Cilag Gmbh International Method for controlling smart energy devices
WO2020180917A1 (en) * 2019-03-04 2020-09-10 Smith & Nephew, Inc. Co-registration for augmented reality and surgical navigation

Also Published As

Publication number Publication date
WO2022219491A1 (en) 2022-10-20
EP4143844A1 (en) 2023-03-08
BR112023021239A2 (pt) 2024-01-30

Similar Documents

Publication Publication Date Title
US20220336078A1 (en) System and method for tracking a portion of the user as a proxy for non-monitored instrument
JP2024012702A (ja) 外科的障壁を通した外科用システムの制御
JP4296278B2 (ja) 医療用コクピットシステム
US20230017738A1 (en) Method, apparatus and system for controlling an image capture device during surgery
JP2024514642A (ja) 非モニタリング器具の代替としてユーザの一部を追跡するためのシステム及び方法
JP2024513992A (ja) 組織貫通外科用デバイスのチャネルの外に展開可能なカメラアレイを備えるシステム
JP2024514884A (ja) 外科用システムのためのオーバーレイ器具情報の適合及び調整可能性
CN117480568A (zh) 手术室系统的自适应控制
CN117480569A (zh) 作为非监测器械的代理来跟踪用户的一部分的系统和方法
JP2023507063A (ja) 手術中に画像取込装置を制御するための方法、装置、およびシステム
JP2024513991A (ja) トリガイベントに基づいて術野のディスプレイオーバーレイを変更するためのシステム及び方法
CN117479896A (zh) 包括可在组织穿透外科装置的通道外展开的相机阵列的系统
JP2024514640A (ja) 画面上及び画面外で発生する混合された要素及びアクションを表示するレンダリングされた要素で直接視覚化される混合
JP2024514885A (ja) 複合データフィードの効率的な認知を高めるように協働する複合現実フィードバックシステム
CN117461093A (zh) 基于触发事件来改变外科视野的显示叠加项的系统和方法
JP2024514638A (ja) 外科用システムのための術中ディスプレイ
JP2024517603A (ja) 手術視野における選択的かつ調節可能な複合現実オーバーレイ
CN117546253A (zh) 协作以增加复杂数据馈送的有效感知的混合现实反馈系统
WO2022219504A1 (en) Cooperative overlays of interacting instruments which result in both overlays being effected
CN118160044A (zh) 叠加数据和配置的定制
CN117480562A (zh) 外科视野中选择性和可调节的混合现实叠加
CN117480563A (zh) 用于外科系统的术中显示器
WO2022219488A1 (en) Systems and methods for controlling surgical data overlay