JP2021511903A - 手術室の遠隔監視 - Google Patents

手術室の遠隔監視 Download PDF

Info

Publication number
JP2021511903A
JP2021511903A JP2020541969A JP2020541969A JP2021511903A JP 2021511903 A JP2021511903 A JP 2021511903A JP 2020541969 A JP2020541969 A JP 2020541969A JP 2020541969 A JP2020541969 A JP 2020541969A JP 2021511903 A JP2021511903 A JP 2021511903A
Authority
JP
Japan
Prior art keywords
computing system
data
monitoring
objects
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020541969A
Other languages
English (en)
Other versions
JP7367990B2 (ja
Inventor
ファンソン・リチャード・タイラール
ラディオ・アンドレ・ノヴォミール
マッケイブ・サマンサ
Original Assignee
インテリジョイント サージカル インク.
インテリジョイント サージカル インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテリジョイント サージカル インク., インテリジョイント サージカル インク. filed Critical インテリジョイント サージカル インク.
Publication of JP2021511903A publication Critical patent/JP2021511903A/ja
Application granted granted Critical
Publication of JP7367990B2 publication Critical patent/JP7367990B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Urology & Nephrology (AREA)
  • Human Computer Interaction (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Manipulator (AREA)

Abstract

ORコンピューティングシステムはモニタリングコンピューティングシステムを介して、介入の有無にかかわらず、自己監視及び監視を含む。OR内の患者処置はセンサを用いて1又は複数の物体の位置が追跡される。姿勢情報を含む手術中データはGUI内の物体位置を含む手術中データの表示のためにモニタリングコンピューティングシステムに通信される。姿勢情報は、物体の姿勢を計算するセンサデータでも予め計算された姿勢データでも良い。手術中データは作業フローをUIスクリーンに表示する処置の作業フロー状態である可能性がある。ORの仮想ビューはOR装置の姿勢情報及び幾何学的データから表示されても良い。衝突警報を含むOR装置の作業ボリュームを表示できる。OR装置は位置特定及び/又はロボットを含んでも良い。自己監視は処置の進捗状況を評価し、(例えば監視するため)リクエストをトリガできる。【選択図】図1

Description

本発明は、コンピューティングシステムを使用して遠隔で手術室を監視することに関し、より詳細には、ORコンピューティングシステムによって実行されるコンピュータ支援処置を監視すること及び/又は介入することを含む、外科的ナビゲーション及び他の手術室(OR)コンピューティングシステムを監視することに関する。
外科的ナビゲーション及び他のORコンピューティングシステムは、特定のタイプの処置を補助するために手術室で広く行われている。そのようなシステムの中には、処置中に使用される物体の姿勢を追跡する位置特定を実行するものもあれば、ロボットを使用するもの等、処置中に物体の姿勢を操作するものもある。ORコンピューティングシステム及び関連するコンピュータ支援処置は、高精度の公差を有する。これらの公差は、それぞれの処置の所望の肯定的な結果をもたらすことができる。外科医は、ORコンピューティングシステムを信用しなければならないだけでなく、ORコンピューティングシステムからの正確な知見および結果を得なければならない。ORコンピューティングシステムの問題に起因する処置の終了は、耐えられない場合がある。ORコンピューティングシステムに関する問題に起因して処置を延長することは、望ましくない場合がある。更に、感染の危険性、費用および/またはプライバシーの問題に対処するために、OR内の多数の担当者を最小限にすることが示されても良い。
ORコンピューティングシステムによる監視は、モニタリングコンピューティングシステムを介して、介入の有無にかかわらず、自己監視および監視を含むものと記述される。OR内の患者の処置については、センサを用いて1又は複数の物体の位置が追跡される。姿勢情報を含む手術中データはGUI内の物体の位置を含む手術中データを表示するために、モニタリングコンピューティングシステムに(例えばリアルタイムで)通信される。姿勢情報は物体の姿勢を計算するためのセンサデータであっても良いし、予め計算された姿勢データであっても良い。手術中データは、作業フローをUIスクリーンに表示するための処置の作業フロー状態である可能性がある。ORの仮想ビューは、OR装置の姿勢情報および幾何学的データから表示されても良い。衝突警報を含むOR装置の作業ボリュームを表示できる。OR装置は、ローカライザ(localizer)及び/又はロボットを含んでも良い。自己監視は処置の進行を評価し、(例えば監視するために)リクエストをトリガできる。
1の態様では、少なくとも1の処理ユニットと、メモリ又は他のストレージから構成されるデータ記憶装置と、ORコンピューティングシステムを通信ネットワークに結合するために少なくとも1の処理ユニットに結合された通信システムとを備えるORコンピューティングシステムが提供され、データ記憶装置および通信システムは少なくとも1の処理ユニットに結合される。データ記憶装置は少なくとも1の処理ユニットによって実行されると、患者に対するコンピュータ支援処置を実行するようにORコンピューティングシステムを構成し、手術室内のコンピュータ支援処置中に1又は複数の物体のそれぞれの位置を追跡し、手術室内の1又は複数の物体のそれぞれの位置を表すセンサデータが1又は複数の物体に関連付けられたセンサから受信され、コンピュータ支援処置中に(例えばリアルタイムで)、姿勢情報を含む処置中に生成された手術中データを、手術室を監視するためのモニタリングコンピューティングシステムに通信するように、ORコンピューティングシステムを構成し、モニタリングコンピューティングシステムは1又は複数の物体のそれぞれの位置を含む手術中データをORコンピューティングシステムから受信し、表示するように構成される命令を記憶する。姿勢情報は、物体の姿勢を計算するためのセンサデータと、センサデータを使用してOR演算装置によって計算された物体の姿勢を表す姿勢データとのうちの一方または両方を含む。
1の態様では、ORコンピューティングシステムを含む遠隔に配置された手術室を監視するモニタリングコンピューティングシステムが提供される。ORコンピューティングシステムは、1又は複数の物体のそれぞれの位置を表すセンサデータが1又は複数の物体に結合されたセンサから受信されるコンピュータ支援処置中に、1又は複数の物体のそれぞれの位置を追跡して、患者に対するコンピュータ支援処置を実行するように構成される。モニタリングコンピューティングシステムは、少なくとも1の処理ユニットと、メモリまたは他の記憶装置を含むデータ記憶装置と、表示装置と、ネットワークを介してORコンピューティングシステムと通信する通信システムとを含む。データ記憶装置、表示装置、および通信システムのそれぞれは、少なくとも1の処理ユニットに結合される。前記データ記憶装置は前記少なくとも1の処理ユニットによって実行されるとき、前記モニタリングコンピューティングシステムを、前記1又は複数の物体を表す幾何学的データを取得するように構成し、前記姿勢情報を含むコンピュータ支援処置の手術中データに対して、前記ORコンピューティングシステムから(例えばリアルタイムでの処置中に)受信し、前記姿勢情報と前記幾何学的データを使用して前記1又は複数の物体のそれぞれの位置を含む少なくとも一部の手術中データを、前記表示装置を介して表示することによって、GUIに存在させる命令を記憶する。姿勢情報は、物体の姿勢を計算するためのセンサデータと、センサデータを使用してORコンピューティングシステムによって計算された物体の姿勢を表す姿勢データとの一方または両方を含む。
1の態様では、少なくとも1の処理ユニットと、メモリ又は他のストレージから構成されるデータ記憶装置と、ネットワークを介してORコンピューティングシステムと通信する通信システムとを備えるORコンピューティングシステムが提供される。データ記憶装置、表示装置、および通信システムのそれぞれは、少なくとも1の処理ユニットに結合される。データ記憶装置は少なくとも1の処理ユニットによって実行されると、コンピュータ支援処置を実行し、手術室内のコンピュータ支援処置中に1又は複数の物体のそれぞれの位置を追跡し、手術室内の参照空間内の1又は複数の物体のそれぞれの位置を表す姿勢データを生成し、コンピュータ支援処置の進行を監視するためのログデータを記憶し、ログデータを使用してコンピュータ支援処置の進行を監視し、監視に応じて進捗状況の尺度を決定し、進捗状況の尺度を特定するメッセージ(及びログデータの少なくとも一部を含む)を、ORコンピューティングシステムを監視するために遠隔に配置されたモニタリングコンピューティングシステムに通信するようにORコンピューティングシステムを構成する命令を記憶する。
1の態様では、患者に対するORコンピューティングシステムによるコンピュータ支援処置を実行し、手術室内のコンピュータ支援処置中に1又は複数の物体のそれぞれの位置を追跡し、手術室内の1又は複数の物体のそれぞれの位置を表すセンサデータが1又は複数の物体に関連するセンサからORコンピューティングシステムによって受信され、コンピュータ支援処置中に(例えばリアルタイムで)、姿勢情報を含む処置中に生成された手術中データを手術室を監視するモニタリングコンピューティングシステムに通信し、モニタリングコンピューティングシステムは1又は複数の物体のそれぞれの位置を含むGUIで手術中データを受信し提示するように構成される。姿勢情報は、物体の姿勢を計算するためのセンサデータと、センサデータを使用してOR演算装置によって計算された物体の姿勢を表す姿勢データとのうちの一方または両方を含む。
1の態様では、患者に対してコンピュータ支援処置を実行し、1又は複数の物体のそれぞれの位置を表すセンサデータが1又は複数の物体に結び付けられたセンサから受信されるコンピュータ支援処置中に1又は複数の物体のそれぞれの位置を追跡するように構成されたORコンピューティングシステムを含む、遠隔に配置された手術室を監視する方法が提供される。該方法は1又は複数の物体を表す幾何学的データを取得し、(例えばリアルタイムでの処置中に)コンピュータ支援処置に対して、姿勢情報を含む手術中データを受信し、表示装置を介して、姿勢情報および幾何学的データを使用して、1又は複数の物体のそれぞれの位置を含む手術中データの少なくとも一部を表示することで、GUIに表示する。姿勢情報は、物体の姿勢を計算するためのセンサデータと、センサデータを使用してORコンピューティングシステムによって計算された物体の姿勢を表す姿勢データとの一方または両方を含む。
1の態様では、ORコンピューティングシステムによるコンピュータ支援処置を実行することと、手術室内のコンピュータ支援処置中に1又は複数の物体のそれぞれの位置を追跡することと、手術室内の参照空間内の1又は複数の物体のそれぞれの位置を表す姿勢データを生成することと、コンピュータ支援処置の進捗状況を監視するためのログデータをORコンピューティングシステムによって記憶することと、ログデータを使用してコンピュータ支援処置の進捗状況をORコンピューティングシステム監視することと、ORコンピューティングシステム、監視に応じて進捗状況の尺度を決定することと、進捗状況の尺度に応じて、進捗状況の尺度を特定するメッセージ(及びログデータの少なくとも一部を含む)をORコンピューティングシステムによって遠隔に配置されたモニタリングコンピューティングシステムに通信して、ORコンピューティングシステムを監視することとを含む方法が提供される。
それぞれの態様では、1又は複数の物体のそれぞれの位置を表すセンサデータが1又は複数の物体に結び付けられたセンサから受信されるコンピュータ支援処置中に、1又は複数の物体のそれぞれの位置を追跡することを含む、患者に対するコンピュータ支援処置を実行するように構成されたORコンピューティングシステムを含む、遠隔に配置された手術室を監視するモニタリングコンピューティングシステム及び手法が提供される。システムはORコンピューティングシステムから、ORコンピューティングシステムの監視を開始するために、コンピュータ支援処置の進捗状況の尺度を特定し、オプションとして、ORコンピューティングシステムによって記憶されたコンピュータ支援処置の少なくとも一部のログデータを含むメッセージを受信するように構成されることで、方法は動作する。
本書を通じて、専門用語や定義の一部が役立つだろう。トラッキングの技術は、主に位置および向きに関する。「座標系」、「座標フレーム」、「参照フレーム」等の用語は位置および向きを記述できる標準的な基礎(basis)を指し、「姿勢」(位置および向きの状態推定値)、位置、相対位置、空間位置決め等の用語はすべて、ある座標フレームに対する剛体の位置および/または向きを記述することを指す。
A〜Cは、それぞれの実施例による、OR中のORコンピューティングシステム及びORの外部のモニタリングコンピューティングシステムを含む監視されたORコンピューティングシステムを示す。 ORの仮想ビューとORコンピューティングシステムのUIスクリーンを示すモニタリングコンピュータシステムの代表的なスクリーンショットである。 A及びBは、ORコンピューティングシステム(A)及びモニタリングコンピューティングシステム(B)の1又は複数のデータ記憶コンポーネントを例示し、それぞれ、例示に従って記憶された命令および/またはデータを示し、そのようなシステムは図1A〜図1Cに示されるようなものである。 A〜Cは、それぞれの例に従って示されるORコンピューティングシステムの例示的な動作を示す。 A,Bは、それぞれの例に従って示されるモニタリングコンピューティングシステムの例示的な動作を示す。 それぞれの例に従って示されるORコンピューティングシステムの例示的な動作を示す。 それぞれの例に従って示されるモニタリングコンピューティングシステムの例示的な動作を示す。
図1A〜1Cは、それぞれの実施例による、OR中のORコンピューティングシステム及びORの外部のモニタリングコンピューティングシステムを含む、監視されたORコンピューティングシステムを示す。図1Aは、外科医102または他の人物がOR100Aに参加しているOR100Aを示す。多くのタイプの処置について、追加の外科医または他の医師(例えば麻酔科医)、看護師等を含む多くの人が参加している(図示せず)可能性があり、OR装置のいくつかのみが図示されていることが理解されるのであろう。外科医102は、ワイヤレスマイクロフォン104を装着している。患者106はORテーブル108上にいる。ORテーブル108(又は台車(図示せず))は、表示装置111及びデータ記憶装置115(例えばメモリ又は他のストレージ装置)に結合された処理ユニットを備えるOR演算装置110Aのための好適な支持体を用いて構成されても良い。ワイヤレスマイクロフォン104は、OR演算装置110Aに通信可能に結合できる。OR演算装置110Aは他の入力/出力またはI/O装置、例えばとりわけ、表示装置111、キーボード113、及びポインティングデバイス(例えばマウス)を有することができる。
図1Aでは、OR演算装置110Aがコンピュータ支援処置中に物体を追跡するための位置特定システム(localization system)に結合されるか、または位置特定システムのコンポーネントである。位置特定システムは光学的に基礎を置くことができ、図示のような手術道具、患者の一部(例えば骨)、または他の物体のような物体114の所望される姿勢を追跡するためのORカメラ112A(一種のセンサ)を備えることができる。物体114は、物体114の姿勢を示すために使用される光学トラッカ116(センサのタイプ)を有する。ORカメラ112Aは、ブーム118、ORテーブル108のコンポーネント、又は車輪を有する独立型ユニット等に取り付けられても良い。これは、OR100Aの天井または他の面(図示せず)に取り付けることができる。
光学トラッカ116は処置のために(例えば別の物体(図示せず)に結合するために)選択的に取り外し可能であっても良い。光学トラッカ116は受動的かつ反射光(passive and reflect light)を、又は、能動的かつ直接光(active and originate light)を、ORカメラ112Aによる検知および/または計測のために発生させても良い。ORカメラ112Aは、ステレオカメラ機構または他の構成であっても良く、OR演算装置110Aに可視光スペクトル内の高解像度ビデオ信号(例えばビデオデータ)を提供して、OR100Aの少なくとも一部を可視化できる。ORカメラ112Aは物体追跡信号(例えばセンサデータ)、例えば赤外(IR)スペクトル又は他のスペクトルにおける追跡光学トラッカ116を提供できる。
ORカメラ112Aは重力を測定するように構成された重力センサ119(例えば加速度計/慣性センサ)を有し、それが取り付けられた物体の重力の向きを示すことができる。このような重力センサ119又は光学トラッカ116は患者106を含むOR100A内の任意の物体に取り付けられて、姿勢情報を決定するために患者に基準を提供できる(しかし、実際には、ORテーブル108に取り付ければ、患者の位置を示すのに充分であり得る)。ORカメラ112Aは、光学トラッカ116がORカメラ112Aの視野内にあるときにのみ光学トラッカ116を追跡でき、この視野は、典型的には患者106に対して治療部位に向けられることが理解されるのであろう。図示しないが、ビデオデータを提供する1又は複数のビデオカメラは、OR演算装置110Aに結合されても良く、例えば、ORカメラ112Aは、ビデオデータを提供せず、センサデータを提供することに限定しても良い。
OR演算装置110Aは通信システム(例えばOR演算装置110Aのコンポーネント)を介して結合され、ネットワークを介して他のコンピューティングデバイスと通信する。OR100Aには、インターネット等の公衆通信ネットワーク122を介して通信するためのワイヤレスアクセスポイント120が示されている。OR演算装置110Aは、ORの外部のコンピューティングデバイスを含む他のコンピューティングデバイスへの有線による通信のために構成され得る。そのような他のコンピューティングデバイスは、患者情報、レポート、および臨床画像(例えば磁気共鳴画像化(MRI)、X線、または他の様式からの画像)等の患者の術前(術前)データを記憶するサーバ又は他のシステム(例えば、画像保管通信システム(PACs))であっても良い。これらのサーバ又はシステムのいくつかは、OR100Aから地理的に離れて、又は同じ病院(図示せず)等のより近くに配置できる。
このような他のサーバ又はシステムは、コンポーネントのためのコンピュータ支援処置および/またはソフトウエア(命令)の間に追跡されるべき物体の幾何学的定義のような構成関連データを記憶できる。ロボット運動学は、多自由度構造物の移動に幾何学を適用する。剛体やジョイント等の構造物(ロボットマニピュレータ等)のコンポーネントはモデル化され、該モデルは幾何学的情報の例である。ロボット運動学を用いて、コンポーネントと、コンポーネント内の各リンクの位置、速度および加速度との間の関係を決定し、移動を計画および制御し、アクチュエータの力等を計算できる。それぞれのコンポーネントが処置(または他の制約)において採用できるそれぞれの位置の範囲を含むロボット及び位置特定システムのコンポーネントの幾何学的定義を使用して、それぞれのロボット作業ボリューム又は位置特定作業ボリュームを定義できる。例えば定義された形状およびサイズ(体積)を有する特定のロボットアームは、第1の平面内でX°、第2の平面内でY°回転することで、アームのための作業ボリュームを定義できる。ロボットコンポーネントのすべての作業領域は、ロボット全体の作業領域を定義できる。幾何学的定義はそれぞれの作業ボリュームについて構成され、例えばORコンピューティングシステム及び/又はモニタリングコンピューティングシステムに、利用可能な手術前データとして記憶されても良い。作業ボリュームの幾何学的定義は、必要に応じて作業ボリュームを(例えばリアルタイムで)計算できる構造(例えばアームのリンク)のボリューム及びその運動制約範囲、または事前に計算された作業ボリュームを含むことができる。
OR内の適用可能なロボットまたは位置特定コンポーネント、例えば静止フレームまたはその基部の姿勢を利用可能にでき、この姿勢から作業容積を表すことができる。作業ボリュームは、点の集合体(cloud)、代表的なエッジライン、又はORの仮想ビューにおける他のUI機能を使用して、UIで表示できる。作業ボリュームは静的な装置を含む任意のORな装置のために定義され、記憶されることができ、ここで、静的な装置とは、そのような装置が構成の全体的なボリュームを変化させることができる可動部分を有しないことを意味する。
OR装置の2以上のインスタンスの作業ボリュームに対する測定は、作業ボリュームがOR内にどれだけ近いか、及び衝突の危険が生じ得るかどうか(例えば測定値が近接度閾値未満の近接度を示す場合)を決定するために行われ得る。OR装置は、ロボット又は位置特定、ならびにORテーブル、台車、トレー、タンク、固定具または他の機器等を含んでも良い。ORの仮想ビューにおいて2以上のコンポーネントの作業ボリュームを表すことは、コンポーネントのうちの1つによって採用された現ポーズが他方から離れていても、作業ボリュームが重なり合うことを示すことによって、衝突の危険性を示すことができる。作業ボリュームは、コンポーネントの現在位置が与えられると、ポーズが移動され得る場所を示す。
ワイヤレスアクセスポイント120は、OR100Aの外部に配置され得る。他の通信コンポーネント(例えばルータ、ファイアウォール等)が使用されても良く、図1Aのネットワークコンポーネントが単純化されていることが理解されよう。OR演算装置110Aは、患者のために手術前データや、追跡されるべき物体の幾何定義等が記憶されるサーバ124(又は複数)と通信しても良い。サーバ124はORデータ(例えばストリーミングビデオ等)を共有し、更に説明するように、OR100Aをモニタリングコンピューティング装置126に監視し、OR演算装置110Aを介して処置を支援または介入するためのモニタリングコンピューティング装置のデータを共有するサービスを提供できる。サーバ124(又は別のサーバ)及びモニタリングコンピューティング装置126は、モニタリングコンピューティングシステムを定義できる。
実際には、サーバ124及びモニタリングコンピューティング装置126が典型的にはOR100Aに対して遠隔に配置される。サーバ124及びモニタリングコンピューティング装置126は同様に、互いに遠隔的に相対的に配置されても良い。単一の代表的な演算装置(即ちサーバ124)が手術前データ及び幾何学的データを記憶し、他のものに提供し、ORのデータ及びモニタリングコンピューティング装置のデータを共有するサービスを提供する構成と共に示されているが、同一または異なる場所に配置された複数のサーバが使用されても良い。
モニタリングコンピューティング装置126は、表示装置128及びデータ記憶装置130に結合された処理ユニットを備える。上述したように、モニタリングコンピューティング装置126は更に説明するように、OR演算装置110Aを介して、OR100Aを監視し、コンピュータ支援処置を観察し、支援し、又は介入するように構成できる。
図1BのOR100Bの構成は、OR演算装置110Bが同様に位置特定システムに結合されているか、又は位置特定システムのコンポーネントであるという点で、OR100Aと同様である。図1Bでは、ORカメラ112Bが位置特定装置のために患者106に取り付けられている。ORカメラ112Bは、画像(および/または映像)をキャプチャできる。ORカメラ112Bの視野内の光学追跡装置116は、OR演算装置110Bによって追跡可能である。図1Bの構成では、更に説明するように、サーバ124がオペレーションルーム100Bを仮想化するためにORデータをモニタリングコンピューティング装置126に共有するサービスを提供し、ORコンピューティングデバイス110Bを介して処置を支援または介入するために、モニタリングコンピューティング装置のデータを共有できる。更に説明されるように、モニタリングコンピューティング装置126は、OR演算装置110Bを介して、OR100Bを監視し、コンピュータ支援処置を観察し、支援し、または介入するように構成されても良い。
図1CにおけるOR100Cの構成は、OR100Aに対してのOR100Bよりも、OR100Aと比較してより多くの差異を有する。OR100Cはロボット処置のための構成が示されており、ロボットコンソール132及びロボット134が示されており、患者106に対してコンピュータ支援処置を実行する。ロボット134はそれぞれの電動制御可能アーム(例えば138)によって空間内に配置可能な複数のそれぞれの手術ツール/エフェクタ(例えば136)を有する。処置現場のスコープ又はカメラ140は、処置の映像を提供するために電動制御可能アームの1つに取り付けられても良い。ロボットコンソール132は、ケーブル142及び144を介してロボット134及びOR演算装置110Cに結合される。OR演算装置110Cは、ロボット処置構成に共通する塔(tower)のような構成で示される。ORカメラ112CはOR演算装置110Cに結合されて、OR110Cのより広い映像を提供し、及び/又は、カメラ112Cが重力の向きを示すセンサを有し得るORに、機器、任意のロボット外科手術システムのコンポーネント、人員等を含む、OR内の物体の位置を追跡し得る。
ロボットコンソール132は、手術ツール/エフェクタ(例えば136)及びカメラ140を位置決めし、操作するために、ユーザ(例えば102)によって操作され得る。図示されていないが、ロボットコンソール132のジョイスティック、指制御装置、または他の手および/または足で操作される入力装置等は入力を受け取り、それぞれのモータ(図示せず)を動作させ、ツール/エフェクタ136を動作させるための信号を生成する。制御可能アーム138の各々につき1又は複数のモータが存在しても良い。例えばアーム上の、又はそれぞれのモータに関連するセンサ(例えば各モータにつき1つ)は、アーム又はモータの位置に対するデータを提供して、それぞれのツール/エフェクタの姿勢を決定しても良い。いくつかの実施形態では、センサがアームの部分の角度(例えば重力に対する)に関するデータを提供でき、このデータはアームの少なくとも遠位端(動作端)、特にツールの位置を決定するために、それぞれのアームに取り付けられた任意のツールの部分、ジョイント等に関する幾何学的データと共に数学的に使用できる。
図1A〜1Cの構成のいずれかにおけるセンサデータは、それぞれの物体(例えばツール等)の幾何学的定義データとともに、姿勢データを計算するために使用され得る。また、姿勢データは例えば患者に対する工具の先端具、別の患者の骨に対する患者の骨(例えば大腿骨対骨盤)等の2つの物体の関連する位置等、処置のための有益な測定値を計算するために使用されても良い。その場合、姿勢情報は、姿勢データを計算できるセンサデータ、又はセンサデータを使用して計算される姿勢データのいずれかである。姿勢情報は、物体の位置を提示するために使用するようなモニタリングコンピューティング装置に送信されても良い。いくつかの例では、手術室の仮想ビューが本明細書に記載されるように提示されても良い。
図1Cの構成では、サーバ124が、モニタリングコンピューティング装置126に手術室100Cを仮想化するためのORデータを共有し、更に説明するように、ORコンピューティングデバイス110Cを介して処置を支援または介入するために、サーバ124がモニタリングコンピューティング装置のデータを共有するサービスを提供できる。モニタリングコンピューティング装置126は、更に説明されるように、ORコンピューティングシステムを介して(例えばORコンピューティングデバイス110Cを介して)、OR100Cを監視し、コンピュータ支援処置を観察し、支援し、または介入するように構成されても良い。
OR演算装置110A〜110Cのそれぞれは、同様のコンポーネント構成を有することができる。それぞれは、使用される位置特定システム又はロボットシステムを考慮して、異なるプログラミングを有する可能性がある。OR演算装置(例えば110A〜110C)およびそれがOR(100A〜100C)内で結合される任意の位置特定またはロボットシステムは、外科的ナビゲーションのために構成されたそれぞれのORコンピューティングシステムの例である。それぞれのORコンピューティングシステムは、患者に対するコンピュータ支援処置を実行するための1又は複数の計算ユニットを含む。それぞれは、手術室での処置中に1又は複数の物体のそれぞれの位置を追跡する。1又は複数の物体のそれぞれの位置を表すセンサデータは、1又は複数の物体に関連付けられたセンサから受信される。典型的には、関連付けはそれぞれのセンサの1つを物体に結び付けることで提供される。いくつかの追加のセンサ及び/又はデータを使用できる。
コンピュータ支援処置の間、それぞれのORコンピューティングシステムは姿勢情報(例えばリアルタイム)をモニタリングコンピューティングシステムに通信し、最終的には、手術室を監視するために遠隔に配置されたモニタリングコンピューティング装置126に通信するように構成されても良い。モニタリングコンピューティング装置126は姿勢情報を受信し、1又は複数の物体のそれぞれの位置をグラフィカルユーザインタフェース(GUI)に表示するように構成されても良い。姿勢情報は、物体の姿勢を計算するために使用できるセンサデータとできる。姿勢情報は、センサデータを用いてOR演算装置によって計算された物体の姿勢を表す姿勢データであっても良い。
位置特定システム及び外科的ナビゲーション技法は、それぞれFansonらのUS9138319 B2:「手術中に人工関節をアライメントする方法及びシステム」(2015年9月22日)、HladioらのUS9247998 B2:「術中下肢位測定のためのシステム及び方法」(2016年2月2日)、FansonらのUS9713506 B2:「画像位置合わせ及び外科的位置特定のためのシステム、方法および装置」(2017年7月25日)、McCabeらのUS20170119475 A1:「骨盤傾斜に対する人工関節置換術のパラメータを調整し、下肢長及びオフセットを算出するシステム、方法及び装置」(2017年5月4日)で開示されている。
コンピュータ支援処置における患者の解剖学に関する外科的ナビゲーションを提供するためには、ORコンピューティングシステムに関する患者の解剖学の空間座標(例示として、人工股関節全置換術(THA)における骨盤のみ)が必要である。このステップは本明細書では「位置合わせ」と呼ばれる。更に、患者の解剖学的構造の1又は複数の医用画像(これは任意である)に対して画像誘導手術ナビゲーションが提供される場合、患者の解剖学的構造の空間座標は、1又は複数の医用画像上に現れる解剖学的構造の空間座標と相関する。このステップが本明細書では「画像位置合わせ」と呼ばれる。解剖学的位置合わせは、関心のある解剖学的構造とORコンピューティングシステムとの間のデジタル位置または座標写像を生成することに関する。同様に、画像位置合わせは、関心のある解剖学的構造と、解剖学的構造の術前スキャン中に取り込まれた1又は複数の医用画像との間のデジタル位置または座標マッピングを生成する。この位置合わせマッピング又は解剖学的構造とORコンピューティングシステムとの間の位置合わせ座標フレームを得るには、多くの方式がある。また、解剖学的構造と、1又は複数の医用画像との間の位置合わせマッピング又は画像位置合わせ座標フレームを取得するための複数の方式がある。これらの位置合わせ方式は、手術作業フローの持続時間を増加させないように迅速であり、十分に正確であることが望ましい。ORコンピューティングシステムは、位置合わせ座標フレーム又は画像位置合わせ座標フレームを利用して、手術中に、この装置を使用して外科医に臨床的に関連する測定値を提供できる。
例として、図1Bはセンサ(ORカメラ112B)が患者106の解剖学的構造(例えば骨盤)に取り付けられ、OR演算装置110Bと通信する、THAで使用されるORコンピューティングシステムを示す。光学トラッカ116の姿勢(位置および向き)は、ORカメラ112Bによって検出され、表示装置111のGUI上に表示される。光学トラッカ116は器具(例えば物体114)又は患者106の解剖学的構造の別の部分(例えば大腿骨)に取り付けられても良い。THAの外科的測定は、脚の長さ、オフセット、前傾、傾斜等のうちの1又は複数を含むことができる。
医用画像データは、3D点群によって表される解剖学的構造の3D表面モデルを作成することによって、または画像セグメンテーション等の技法を使用することによって、手術前スキャンからの1又は複数の生の(raw)医用画像、または1又は複数のデジタル処理された医用画像を含む。医用イメージデータは、表示装置111のGUIに表示されても良い。画像位置合わせ座標フレームの構築は、外科的測定値が医用画像データに関して表示されることを可能にする。
医用画像はオリジナルフォーマット(例えばDICOM(Digital Imaging and Communications in Medicine)ファイル)が使用されても良く、又は、画像セグメンテーション、及び画像誘導手術ナビゲーションに使用され得る医用画像データを生成するために、医用画像を処理する他の既知の方式を使用して前処理されても良い。医用画像はまた、患者を立位にして、仰臥位にして、またはことによると画像診断装置の向きにして得られたものであっても良い。任意の平面に対する画像の向きが提供される場合、本ORコンピューティングシステムのワークステーションは他の入力と共に、画像位置合わせ座標フレームの構築における画像位置合わせ中に、この向きを利用できる。
医用画像は医用画像データを生成し、識別可能な解剖学的軸の方向と、画像に示される患者の解剖学的構造の識別可能な解剖学的点の位置とを定義する画像特性を有するように、処理される。例えば解剖学的構造の同定可能な解剖学的軸は、解剖学的構造の上下方向に沿って伸びる軸であっても良く、又は解剖学的構造の同定可能な解剖学的軸に沿って存在する2点を同定することによって計算しても良く、同定可能な解剖学的点は患者の骨盤上の上前腸骨棘(ASIS)、股関節の回旋中心等であっても良い。これらの画像特性は、医用画像上に現れる解剖学的構造上にマーカを配置することによって医用画像の取り込み中に撮像装置によって定義されても良く、又は医用画像データを作成するために医用画像を後処理する間に、コンピューティングユニット又は他の手段へのユーザ入力によって識別されても良い。手術中に、患者の解剖学的構造の対応する軸および対応する解剖学的点は、画像位置合わせ座標フレームを構築するために、手術中のコンピューティングユニットによって測定され、決定されても良い。
任意の平面の向きはまた、位置合わせ座標フレーム及び画像位置合わせ座標フレームを構築するために使用され、それは、以下にも記載される機械的位置合わせデバイスを使用して、参照要素(後述)に対して測定され得る。THAにおいて特に有用な骨盤位置合わせは例示的な例として選択されるが、この説明は一般的な解剖学的構造および種々の他の手術に適用可能であると解釈されることが意図される。多くの場合、光学センサ(例えばORカメラ112B)は、患者106の解剖学的構造の骨またはORテーブル108のような固定面に取り付けられる。カメラ112Bによって最大6自由度で検出可能な光学トラッカ116は、患者の解剖学的構造の別の骨、ツール、プロテーゼ等の追跡される物体上に配置される。しかしながら、一般に、カメラ112Bおよび光学トラッカ116の位置は機能性を損なうことなく、逆にできる(例えばターゲットを骨または安定した表面上に固定し、センサを追跡される物体に取り付ける)。
さらに、本明細書で説明される技法、コンポーネント、及び方法は、異なる追跡の様式を使用して実装され得ることを、当業者は理解するのであろう。例えば伝統的な立体定位カメラ(例えばWaterloo(登録商標)、ONにあるNORthern Digital Inc.のPolaris(登録商標))、電磁追跡システム(例えばNORthern Digital Inc.のAurORa(登録商標))、超音波位置特定(例えば米国特許第8,000,926号を参照)、機械式定位装置、無線周波数(RF)位置特定等の使用が考えられる。
カメラ112Bが患者の解剖学的構造に取り付けられる際、参照要素はカメラ112B自体であっても良い。ORコンピューティングシステムによって計算される全ての測定値は、好ましくはカメラ112Bに関してであっても良い。カメラ112BがORテーブル、OR110B内のスタンド、又は患者上に存在しない任意の他の固定された位置に取り付けられると、参照要素が解剖学的構造に取り付けられ、システムが参照要素に対する位置合わせ座標系および他の測定値を計算することを可能になる。オプションで、かつ必要不可欠ではないが、センサが患者の解剖学的構造に取り付けられるとき、別個の参照要素も取り付けられ得る。それは最大6自由度でカメラ112Bによって検出可能である光学トラッカと同一であっても良く、又はカメラ112Bによって追跡されることを可能にする、反射する要素の異なる空間構成を含み得る。参照要素は、カメラ112Bが患者の解剖学的構造から離れた位置に配置されることを可能にするORコンピューティングシステムの代替的な使用法を提供する(例えば図1Aにおいて、参照要素は患者に取り付けられ、カメラ112Bの視野内にある)。出願人の特許および出願には、とりわけUS9713506B2、US9247998及びUS9138319B2には、様々な位置合わせ方式が開示されている。
図1A〜図1Cにおける、監視されるORコンピューティングシステムには、概念的に2つの「側面」、即ち監視されるORコンピューティングシステムを有するOR側(例えばOR演算装置および位置特定システム又はロボット外科手術システムを備える)と、遠隔に配置されるモニタリングコンピューティングシステムを有する監視側(例えばモニタリングコンピュータ装置および(任意選択で)サーバを備える)とがある。図3A及び図3Bはそれぞれの側面のための、それぞれのデータ記憶コンポーネント300A及び300Bを示し、そのようなシステムが図1A〜図1Cに示されるORコンピューティングシステム及びモニタリングコンピューティングシステムの実例に従ってそれぞれ記憶された命令および/またはデータを示す。データ記憶コンポーネント300A及び300Bのそれぞれは、それぞれのシステムの1又は複数の物理的な装置(例えばメモリ又は他のストレージ装置、およびデータベースを含むことができる)において物理的に実施できる。
図2は、モニタリングコンピュータシステム(例えば表示装置128)の代表的なスクリーンショット200であり、それぞれ、a)OR(例えばOR100B)の仮想ビュー、及びb)ORコンピューティングシステムのUIスクリーンを含むインターフェース要素202及び204を示す。モニタリングコンピュータシステムは特に、ORコンピューティングシステムから受信したデータを使用して、このようなインターフェース要素202及び204の一方または両方を表示するように構成されても良いことが理解されよう。図示されていないのは、例えばORからのビデオストリームを構成するインターフェース要素である。本実施例におけるORの仮想ビューは、ORにおけるORコンピューティングシステム及び他のOR装置のコンポーネントの少なくとも一部の3Dレンダリングである。これらのコンポーネントは例えば追跡されるか、そうでなければ、位置特定システムを使用して決定されたそれぞれの姿勢を有することができる。コンポーネントは姿勢情報が提供され得るようにトラッカ(例えば光トラッカ)を有する可能性がある。重力の向きは、位置特定システムの光学センサ(例えばORカメラ)に関連付けられたセンサから決定される。このデータは、例えば重力の方向に応じてコンポーネントの相対位置を表示するために使用でき、その結果、コンポーネントの仮想ビューはユーザが本当に(例えば床に対して)部屋内いるように見える。
スクリーンショット200は更に、種々のコントロール206、208、210及び212を示す。制御206はインターフェース要素202に対するパン/チルト/ズーム制御であり、ORの仮想化が様々な視点および概念的焦点距離(例えばデジタルズーム)から表示されることを可能にする。制御208は、ORコンピューティングシステムとモニタリングコンピューティングシステムとの間でビデオデータを交換できるビデオ制御である。ビデオ制御の他の選択肢には、ORからビデオデータ(音声を含むことがある)を受信するための一方向のビデオストリーミングの設定を開始、終了、または変更するための制御が含まれることがある。そのような制御はカメラの視野(例えばパン/チルト)および焦点距離(例えば光学ズーム又はデジタルズーム)を制御する(例えば再配置する)能力を含むことができる。制御210は例えばワイヤレスマイクロフォン104からのようなORからのオーディオを係合させるためのオーディオ制御である。制御210はオーディオをオン又はオフにし、音量または他の設定を設定することができる。
制御212は、モニタリングコンピューティングシステムを介してORコンピューティング装置に対する介入を開始する、介入制御である。介入を開始する1つの方法は、介入する許可を求めるため、ORコンピューティングシステムにメッセージを送信することを含む。コントロール214は、インターフェース要素202に対して作業ボリューム表示機能をオン又はオフにするためのコントロールである。制御214がOR上にあるとき、インターフェース要素202内の仮想ビューは、OR装置の1又は複数のコンポーネントの作業ボリュームを示す。制御214は、作業ボリュームがどのように表示されるか、特定のコンポーネントがそれぞれの作業ボリュームを表示させることができるかどうか、及び衝突がどのように決定され、表現されるか(又はされないか)を選択するためのオプションを提供できる。モニタリングコンピューティングシステムは例えばこれらのインターフェース要素、制御装置、および記載された関連する特徴を提示するために、ソフトウェアモジュールを用いて構成できる。
図3Aは、コンピュータ支援処置モジュール302Aと、監視モジュール304Aと、手術前データ306Aと、動作内データ308Aと、コンピュータ・オペレーティング・システム及び通信モジュール310Aとを記憶するデータ記憶コンポーネント300Aを示す。他のモジュールは記憶されるものであり、データ記憶コンポーネント300Aが簡略化される。
コンピュータ支援処置モジュール302Aは、例えば物体を追跡するための支援処置を実行するための命令を記憶する。コンピュータ支援処置モジュール302Aは、ロボットコンソールのユーザからの入力に応じて、ロボットを使用して物体を位置決めする命令を含むことができる。いくつかの例では、処置がコンピュータ支援処置モジュール302Aによって提供される作業フローを使用して実行される。そのような作業の流れ(従って、コンピュータ支援処置モジュール302A)は表示装置(例えば111又は他の装置(例えばロボットコンソール132の一部でも良い))を介して提示するためのGUI画面を含んでも良い。提示される情報は、処置中に生成された手術前データ及び/又はデータを含むことができる。生成されたデータは、姿勢情報、他のセンサ情報、または姿勢情報または他のセンサ情報から行われた測定値等を含むことができる。
監視モジュール304Aは、生成された又は別の方式でコンピュータ支援処置に関連付けられたデータをモニタリングコンピューティングシステム(例えば124および126)に通信し、モニタリングコンピューティングシステムから受信された遠隔データを受信し、処理するための命令を提供する。監視モジュール304Aは、更に説明されるように、モニタリングコンピューティングシステムへのメッセージをトリガするために自己監視を実行するための命令を含むことができる。
手術前データ306Aは、1又は複数の様式による患者情報および患者画像を含む術前患者データを含むことができる。手術前データ306Aは他の手術ナビゲーションコンポーネント又は他のOR装置のために、OR内で追跡および/または位置決めされている物体のための幾何学的定義を含むことができる。幾何学的データは、姿勢情報を決定するために、測定を行うために、又は他の計算を行うために(例えば2つの物体および/またはコンポーネントが空間内で衝突/重複し得る場合)、及び/又は、ライブビデオ上または術前画像上の患者の解剖学的構造の拡張ビュー内等に物体をレンダリングするために、使用され得る。いくつかの例では、幾何学的データが3Dビューをレンダリングするため等の3Dデータモデルでも良い。いくつかの例では、ORビューがパン/チルト/ズーム等によって操作されても良い。手術前データ306Aは、ORコンピューティングシステムのために、別のコンピューティング装置(例えばサーバ124のようなサーバ又は別のサーバ)から取り出すことができる。いくつかの例では、監視モジュール304Aが術前患者データをモニタリングシステムに通信できる。
手術中データ308Aは、そのような処置のコンピュータ支援処置および/または自己監視を実行する間に生成されるデータを含む。これは、ORコンピューティングシステムを基準としたローカルデータである。そのようなデータは、ORコンピューティングシステムの特定、実行されているコンピュータ支援処置、解剖学的位置合わせデータ、患者位置基準データ(即ち位置合わせに対する)、姿勢情報(例えばセンサデータまたはセンサデータから決定された姿勢データ)、重力データの向き、任意の手術中データ308A及び/又は手術前データ306Aを使用して決定された計測データ等を含むことができる。いくつかの例では、作業フロー状態(例えばコンピュータ支援処置モジュール302Aの画面を通じた進捗状況)は、モニタリングコンピューティング装置126が作業フロー状態を(例えば作業フローに関連付けられたGUI内の少なくとも現在の画面に)表示できるように、モニタリングコンピューティングシステムに提供するために記憶されても良い。モニタリングコンピューティングシステムはユーザインターフェース(UI)画面を生成するように設定されている(例えばORコンピューティングシステムと同様に定義を保存する)作業フロー状態を使用して、例えば表示する現在の画面を特定する。そして、手術中データ308Aと、必要に応じてORコンピューティングシステムによって送信される任意の手術前データとを使用して、モニタリングコンピューティングシステムは、ORコンピューティングシステムで表示されるのと同じ情報をUI画面に存在させることができる。通信される手術中データは、表示されるべき実際の情報でも良いし、そのような情報を計算できるデータでも良い。
手術中データ308Aはまた、処置中に処理するためにモニタリングコンピューティングシステムから受信したデータ(即ち遠隔データ)、例えばモニタリングコンピューティング装置126のユーザからのような音声または映像データ、又はモニタリング装置126からの介入データを監視して、ORコンピューティングシステムのコンポーネントを指令または制御することを含んでも良い。介入データは、キーボード、ポインティングデバイス、スクリーンでの対話(screen interaction)、手および/または足からの制御入力等のインターフェース入力データ、又は遠隔動作を可能にするためにORコンピューティングシステムに通信される、モニタリングコンピューティング装置126上の入力デバイスから取り込まれた他のインターフェース入力データを含むことができる。他の例では、介入データが例えばコンピュータ支援処置モジュール302Aを使用してコンピュータ支援処置を実行するモニタリングコンピュータ装置によって受信された、そのような入力データから生成された出力データでも良く、出力データはそれによって出力するために、ORコンピューティングシステムに通信される。
コンピュータ・オペレーティング・システム及び通信モジュール310Aは、他のモジュールを実行するための環境を提供するための命令、ならびにデータを通信するための下位レバー・モジュール等を含む。明るい線の区別が示されているが、いくつかのモジュールの特徴または機能は他のモジュールによって実行されても良く、または他のモジュールによって共有されても良い。
図3Bは、コンピュータ支援処置モジュール302Bと、監視モジュール304Bと、手術前データ306Bと、動作内データ308Bと、コンピュータ・オペレーティング・システム及び通信モジュール310Bとを記憶する、データ記憶コンポーネント300Bを示す。他のモジュールを記憶でき、データ記憶コンポーネント300Bが簡略化される。
監視側ではいくつかの実施例ではモニタリングコンピューティングシステムが受動な監視(passive monitor)あっても良く、モニタリングコンピューティング装置126を介して表示するためのデータを、ORコンピューティングシステムから受信しても良いが、このようなシステムはORコンピューティングシステムを遠隔から命令または制御するために介入する能力を持たない場合がある。そのような例示的なコンピュータ支援処置モジュール302Bでは、支援された処置を実行することに関連して、その命令を制限できる。これらのモジュールは手術中データ308Aを受信し、それを手術中データ308Bとして記憶する動作を有することができる。手術中データ308Bは例えばGUI内の物体の姿勢を提示するため及び/又はいくつかの測定を実行するために使用するような姿勢情報を含むことができる。姿勢情報が姿勢データ自体ではなく生のセンサデータである場合、これらのコンピュータ支援処置モジュール302Bは例えばそれぞれの物体(例えば手術前データ306B)の幾何学的データ、及び任意の解剖学的位置合わせデータ、(308Bとして受信され、記憶された手術中データ308Aからの)重力の向き等を使用して、姿勢データを計算するように構成されても良い。姿勢データは、物体のビューを提示し、特定の測定を実行するのに有用であり得る。監視モジュール304Bは、物体の姿勢を含むORの配置または構成を示すORの仮想化(仮想ビュー)等の表示装置を提示するように構成しても良い。状態情報を含む作業フローデータは、モニタリングシステムがORコンピューティングシステム上に見られるようにGUIスクリーンを表示することを可能にするために、受信されても良い。このようにして、モニタリングコンピューティングシステムはORのビューを表示し、GUI等のミラーを受信する必要なしに、ORコンピューティングシステムGUIのビューを構成することで、通信帯域幅を低減できる。ただし、このような例のモニタリングコンピューティングシステムは、介入するように構成されていない。仮想ビューは、作業ボリュームの表現を含むように、補充されるか、そうでなければ、表示されても良い。OR装置のそれぞれのインスタンスの姿勢情報が利用可能である場合、それぞれの作業ボリュームを表す幾何学的データを(例えば手術前データから)取得し、姿勢情報に応じて、ORを表す空間にレンダリングできる。ORを表す空間は、レンダリングされるOR装置のそれぞれのインスタンスに対して、共有の参照フレームを有する。参照フレームは、ORコンピューティングシステムから受け取った重力(即ち手術中データ)の向きを表示装置上に向けることができる。作業ボリューム間の衝突は、測定を行うこと、参照フレーム内の作業ボリューム間の距離を決定すること等によって示すことができる。衝突には、作業ボリュームが重なり合う場合だけでなく、作業ボリューム間の空間が閾値未満である場合も含まれる。一部の機器は、他の機器よりも多くの「自由空間」を必要とすることがある。表示装置上では、異なる作業ボリュームが異なる色(例えば異なる色の点群)を使用して表されても良い。2つの異なる色の点群が表示装置上で重なり合うとき、第3の色が表示される。
他の例では、監視側のモニタリングコンピューティングシステムにおいて、モニタリングコンピューティング装置126がコンピュータ支援処置の少なくともいくつかの態様(例えばコンピュータ動作)を実行することを可能にするために、302Aと同様に、介入でき、これによって、より多くの命令が必要とされる。介入できるシステムは、監視専用のシステムと同じ監視能力を有することができ、手術中データ308Aを受信し、手術中データ308Bと同じものを記憶し、センサデータから姿勢データを計算し、測定値を計算し、例えばORの配置またはセットアップを示すORの仮想化を含む表示を提示するように構成できる。対照的に、監視モジュール304Bは、モニタリングコンピューティング装置126において入力を受信(例えば取り込み)し、入力または別の形態(例えば命令メッセージの形態等)であり得る介入データを、ORコンピューティングシステムに送信し得る。
実施例のいずれにおいても、監視モジュール304Bは、オーディオおよび/またはビデオデータを取り込み、監視データと同じデータをORコンピューティングシステムに送信し、及び/又はオーディオ及び/又はビデオデータをORコンピューティングシステムから受信することで、音声および/または音声および/またはビデオ通信リンクを確立でき、好ましくは、それぞれのシステムのユーザ間等の双方向通信リンクを確立できる。
いずれの例においても、監視モジュール304Bは、図2に関連して前述したように、監視アプリケーション及び/又は制御を含む機能のUI画面を表示するための命令を有することができ、従って、介入制御が存在できるが、機能が利用可能でないことを示すメッセージを呼び出すことができる(介入能力が提供されない例では介入を開始するためではない)。
監視モジュール304Bには、以下で更に説明するように、自己監視に応じてトリガされたORコンピューティングシステムからのメッセージを受信する命令を含むことができる。
手術前データ306Bは、1又は複数の様式による患者情報および患者画像を含むことができる術前患者データを含むことができる。手術前データ306Bは他の手術ナビゲーションコンポーネントまたは他のOR装置のために、OR内で追跡または位置決めされている物体のための幾何学的定義を含むことができる。このデータは姿勢情報を決定し、測定又は他の計算(例えば2つの物体及び/又はコンポーネントが衝突する場合)を行い、及び/又は例えばORの仮想ビューにおいて、又は、生の映像又は手術前の画像における患者の解剖学的構造の拡張ビューにおいて、物体をGUIにレンダリングするために使用されても良い。一部の例では、データは3Dビューのレンダリング等の3Dデータモデルである場合がある。説明したように、いくつかの例では、パン/チルト/ズーム等によってORビューを操作できる。手術前データ306Bは別のコンピューティング装置(例えばサーバ124又は別のサーバのようなサーバ)から検索されても良い。いくつかの例では、術前患者データがORコンピューティングシステムから受信されても良い。
手術中データ308Bは、監視側によって処置中に生成されたデータを含む。これは、モニタリングコンピューティングシステムを基準としたローカルデータである。それはまた、処置中にORコンピューティングシステムから受信されたデータ(即ち遠隔データ)、例えば姿勢情報、解剖学的位置合わせデータおよび患者基準データ、重力の向き等、ORコンピューティングシステムのユーザ102又はORからの音声または映像データを含んでも良い。
コンピュータ・オペレーティング・システム及び通信モジュール310Bは、他のモジュールを実行するための環境を提供するための命令、ならびにデータを通信するための下位レバー(lever)・モジュール等を含む。明るい線の区別が示されているが、いくつかのモジュールの特徴または機能は他のモジュールによって実行されても良く、または他のモジュールによって共有されても良い。
図4Aは、位置特定システム及び/又はロボット外科手術システムに通信可能に結合されたOR演算装置を備え得る、ORコンピューティングシステムの動作のフローチャートである。これらのコンポーネントのうちの少なくともいくつかは、単独で、または一緒に、メモリ又は他のストレージ装置および通信システムを備えるデータ記憶装置に結合された少なくとも1の処理ユニットを備える。通信システムは、ORコンピューティングシステムを通信ネットワークに結合するように構成される。データ記憶装置は少なくとも1の処理ユニットによって実行されるとき、ORコンピューティングシステムの動作(例えば400)を構成する命令を記憶する。動作400は402において、患者に対してコンピュータ支援処置を実行することと、手術室内の処置中に1又は複数の物体のそれぞれの位置を追跡することとを含み、手術室内の1又は複数の物体のそれぞれの位置を表すセンサデータが、1又は複数の物体に関連付けられたセンサから受信される。404において、動作はコンピュータ支援処置中に(例えばリアルタイムで)、手術室を監視するために遠隔に位置するモニタリングコンピューティングシステムに姿勢情報を含む、処置中に生成された手術中データを通信することを含み、モニタリングコンピューティングシステムは(姿勢情報を含む)手術中データを受信し、1又は複数の物体のそれぞれの位置を含む手術中データを提示するように構成される。
姿勢情報は、物体の姿勢を計算するためのセンサデータと、センサデータを使用してOR演算装置によって計算された物体の姿勢を表す姿勢データとのうちの一方または両方を含むことができる。
406において、動作はモニタリングコンピューティングシステムによって生成された監視データを受信し、利用することを含む。監視データは例えばORコンピューティングシステムを制御するために、音声データ、映像データおよび介入データから選択できる。
物体の姿勢を患者の姿勢に関連付けるために、姿勢情報は、患者の患者基準の姿勢情報を含むことができる。患者基準は、患者に結び付けられたカメラでも良く、又は、患者に関連付けられた光学トラッカでも良い。患者参照の姿勢情報は、一度決定され、患者が処置中に動かない場合は一度に送信されることがある。
コンピュータ支援処置の実行中、典型的にはその始めに向かって、命令は解剖学的位置合わせデータ、ある種の手術中データを定義するために患者をORコンピューティングシステムに登録し、解剖学的位置合わせデータをモニタリングコンピューティングシステムに通信して、モニタリングコンピューティングシステムが患者の位置及び/又は患者の位置に対する1又は複数の物体のそれぞれの位置を表示することを可能にするように、ORコンピューティングシステムを構成する。
本コンピュータ支援処置は、1又は複数の物体を追跡するためにコンピュータ支援定位を実行することと、ロボットを使用して1又は複数の物体のうちの少なくとも1つの位置決めを制御することとのうちの1つを含むことができる。コンピュータ支援定位が実行される場合、センサは、そのうちの少なくとも1つが1又は複数の物体に取り付けられている光学的位置特定システムのコンポーネントとできる。コンピュータ支援処置がロボットを使用して、1又は複数の物体のうちの少なくとも1つの位置決めを制御することを含む場合、センサは、ロボットに結合される。
手術中データは、ロボットマニピュレータの姿勢情報と、ロボットエンドエフェクタの測定された力と、ロボットエンドエフェクタの測定速度または毎分回転数(RPM)と、光学センサからの姿勢情報と、医療撮像装置(Cアーム等)の姿勢情報と、タイムスタンプデータとのいずれかを含み得る。
いくつかの例では、センサの1つは位置決めカメラを含み、センサデータは位置決めカメラの生のビデオフィードを含む。1又は複数の物体のうちの少なくとも1つは、処置ツール及び患者の一部分(骨)から選択される。
図示されていないが、ORコンピューティングシステムは監視中の表示に使用するため、患者のための手術前データをモニタリングコンピューティングシステムに通信できる。
ORコンピューティングシステムは、処置中にORビデオ及び/又は音声データを取り込むためのビデオカメラ及びマイクロフォンのうちの少なくとも1つを備えることができ、ORコンピューティングシステムは、ORビデオ及び/又は音声データをモニタリングコンピューティングシステムに通信できる。
処置を実行する場合、ORコンピューティングシステムは、UIスクリーンを含む作業フローを使用して、コンピュータ支援処置を実行するように構成しても良い。いくつかの例ではORコンピューティングシステムがa)作業フローにおける進捗状況を表す作業フロー状態を維持し、作業フロー状態をモニタリングコンピューティングシステムに通信するように構成されても良く、また、いくつかの例では、b)OR演算装置の表示装置をミラーリングし、その画像を送信して、モニタリングコンピューティングシステムにUIスクリーンを共有する(例えば作業フローの進捗状況に従う)。この状態または実際のUIスクリーンの共有により、モニタリングコンピューティング装置は、ORコンピューティングシステム又は他のOR装置のコンポーネントの位置(そのような情報を受信した場合の姿勢を含む)を示す手術室の仮想ビューに関連して、作業フローのUIスクリーンを表示できる。前述のように、画像を送信することによる画面のミラーリングは、帯域幅の目的では優先されない場合がある。
いくつかの例では、ORコンピューティングシステムがリクエストに応じてのみ、介入を許可できる(例えば監視のみの状態から、監視を伴う介入状態への切り替え)。図4Bに示すように、動作410は、監視状態への切り替えを提供する。412において、オペレーションは介入のリクエストを受信し、それに応答する。414において、動作は介入を有効にする。いくつかの事例では、これは単にモニタリングコンピューティングシステムから、追加のメッセージタイプ(例えば介入情報)を受け取る許可を必要とするかもしれない。モニタリングコンピューティングシステムへの画面のミラーリングを起動して、ORコンピューティングシステムに表示されている内容を正確に確認し、モニタリングコンピューティングシステムへのUIスクリーンのミラーリングを開始する場合がある。416において、介入データが受信され、利用される。介入データは、あたかもORコンピューティングシステムの入力装置から直接的に受信されるかのように使用される、前述のようなインターフェース入力でも良い。
介入には、処置の作業フロー(UIスクリーン)のナビゲート、データの入力、他のアプリケーション及び/又はオペレーティングシステムのものを含む、特徴または機能の起動等が含まれる。例えばコンピュータ支援処置アプリケーション又はオペレーティングシステムのポリシー(規則)に従って、管理者または他の適格なユーザのみがアクセス可能な保護された機能を起動するための認証(例えばユーザ名およびパスワード)を提供することを含むことがある。
いくつかの例では、モニタリングコンピューティングシステムにビデオデータを提供するORカメラ(例えば112C)又は他のカメラ(図示せず)が、その視野を再配置するためにパン、チルト、及び/又はズームするように制御可能でも良い。そのようなカメラの位置はUIスクリーン又はAPI等のインターフェースを介する等して、OR演算装置(例えば110C)によって制御されても良い。モニタリングコンピューティングシステムは、UIへの入力であろうとAPIへの入力であろうと、介入データを送信して、カメラの位置を再配置するように構成されても良い。
図4Cに示すように、ORコンピューティングシステムは自己監視動作420を実行し、モニタリングシステムによる監視をリクエストしても良い。422で、ORコンピューティングシステムは進捗状況の自己監視を行う。自己監視には、データのロギングや、さらに説明するようなデータの評価が含まれる場合がある。324において、動作は、進捗状況の評価を決定する。そして、426において、評価に応じて、動作は例えばORコンピューティングシステムの監視を開始するために、モニタリングコンピューティングシステムにメッセージを通信する。一例によれば、自己監視動作は、本明細書において以下に記載される図6に詳述される。
図5Aは、ORコンピューティングシステムを含む遠隔に位置する手術室を監視するモニタリングコンピューティングシステムの動作500のフローチャートである。ORコンピューティングシステムは、1又は複数の物体のそれぞれの位置を表すセンサデータが1又は複数の物体に結び付けられたセンサから受信されるコンピュータ支援処置中に、1又は複数の物体のそれぞれの位置を追跡して、患者に対するコンピュータ支援処置を実行するように構成される。モニタリングコンピューティングシステムは、メモリ又は他のストレージ装置を含むデータ記憶装置に結合され、更に表示装置およびネットワークを介してORコンピューティングシステムと通信するための通信システムに結合された少なくとも1の処理ユニットを含む。データ記憶装置は少なくとも1の処理ユニットによって実行されるとき、動作500を実行するようにモニタリングコンピューティングシステムを構成する命令を記憶する。
動作500は、502において、1又は複数の物体を表す幾何学的データを取得することを含む。動作は、504において、ORコンピューティングシステムから(リアルタイムで)姿勢情報を含む手術中データを受信することを含む。506において、操作は、表示装置上に表示すること等によって、姿勢情報および幾何学的データを使用して、1又は複数の物体のそれぞれの位置をGUI内に表示することを含む。姿勢情報は、物体の姿勢を計算するためのセンサデータと、センサデータを使用してOR演算装置によって計算された物体の姿勢を表す姿勢データとの一方または両方を含むことができる。
姿勢情報は患者の患者参照(姿勢情報)を含むことができ、モニタリングコンピューティングシステムは、ORコンピューティングシステム内の患者の患者登録から決定された解剖学的登録データ(手術中データの種類)を受信し、解剖学的登録データ及び患者参照を使用して、患者の位置および患者の位置に対する1又は複数の物体のそれぞれの位置のうちの少なくとも1つをGUI内に表示するように構成できる。
センサデータは、光学的位置特定システムのカメラセンサからのカメラ測定値と、カメラ測定値を使用して計算された姿勢データとのうちの一方または両方を含むことができる。いくつかの例では、センサのうちの少なくとも1つは、1又は複数の物体のうちの少なくとも1つの位置決めを制御するロボットのモータのモータエンコーダ測定値を測定する。このような場合、センサデータは、モータエンコーダ測定値、およびモータエンコーダ測定値を使用して計算された姿勢データのうちの1つまたは両方を含むことができる。
1又は複数の物体は処置ツールおよび患者の一部分(例えば骨)から選択されても良い。いくつかの例では、モニタリングコンピューティングシステムがGUIを決定するために、患者のための手術前データを受信するように構成される。
いくつかの実施形態では、モニタリングコンピューティングシステムが監視ビデオ及び/又は音声データを取り込むための少なくとも1つのビデオカメラ及びマイクロフォンを備えても良く、モニタリングコンピューティングシステムは監視ビデオ及び/又は音声データをORコンピューティングシステムに通信するように構成されても良い。
コンピュータ支援処置は、UIスクリーンの作業フローを使用して実行できる。いくつかの例では、作業フロー状態がORコンピューティングシステムによって監視されても良く、そのような状態は(例えば手術中データのように)送信されても良い。例えばORコンピューティングシステムのUIスクリーンを、モニタリングコンピューティングシステムにミラーリング(画像の送信)できる。他の例では、監視専用状態の間や、介入状態の間等、受信したデータのミラーリング(モニタリングコンピューティングシステム上で生成された作業フロー状態の画面を補充または置き換える可能性がある)等、作業フロー状態が送受信される場合がある。従って、モニタリングコンピューティングシステムは、状態のデータのみか、ミラーリングのデータのみか、又は両方のタイプを受信し、作業フローのUIスクリーンを表示するように構成できる。
図5Bに示されるように、モニタリングコンピューティングシステムは、その動作のうちの少なくとも1つを制御するために、ORコンピューティングシステムに対する介入をリクエストする動作510で構成されても良い。512の動作で、介入のリクエストをORコンピューティングシステムに通信、応答を受信する。514の動作において、介入を有効にする。例えば表示装置の別個のウィンドウ(例えば表示装置128)では、ORコンピューティングシステムのスクリーンがミラーリングされても良い(例えばORコンピューティングシステムから受信した画像)。516で、インターフェース入力がモニタリングコンピューティングシステムで受信され、ORコンピューティングシステムに通信される。インターフェース入力はORコンピューティングシステムの少なくとも1つの動作をモニタリングコンピューティングシステムが効果的に制御できるように、モニタリングコンピューティングシステム上の作業フロー状態(ORコンピューティングシステムから受信)を使用してミラーリング又は生成されたORコンピューティングシステムのスクリーンに関連しても良い。モニタリングコンピューティングシステムによって少なくとも部分的に制御され得る代表的な動作は、例えば、あるUIスクリーンから次のUIスクリーンへの作業フロー内の移行である。ORコンピューティングシステムはモニタリングコンピューティングシステムから介入データを受信する間、ORコンピューティングシステムに結合された任意の入力装置から入力データを受信する(例えば受信を継続する)こともできる(例えばOR内)。これらの入力装置は、キーボード、ポインティングデバイス、位置特定システム又はロボットシステムのセンサ、マイクロフォン、カメラ等を含むことができる。モニタリングコンピューティングシステム上にミラーリングされたスクリーンは、他のアプリケーションで生成されたスクリーン又はオペレーティングシステムからのスクリーン等のORコンピューティングシステムのソフトウエアを含むことができることが注意される。
幾何学的データは、ユーザインターフェースにおいて3D物体をレンダリングするための3Dデータモデル(例えばCAD等)を含むことができ、モニタリングコンピューティングシステムは、位置情報およびそれぞれのデータモデルを使用して、手術室における少なくとも1又は複数の物体の3Dビューをレンダリングできる。
いくつかの例では、手術室をより詳細に仮想化できる。ORコンピューティングシステムは、位置特定システム又はロボット外科システムのコンポーネントを備えるか、又はそれらに結合され、ORは他のOR装置を規定するコンポーネントを含む。手術中データはそのようなコンポーネントのためのそれぞれのコンポーネント位置情報を含み、モニタリングコンピューティングシステムは、ORコンピューティングシステム及び/又は他のOR装置のそれぞれのコンポーネントのうちの少なくとも1つを表す幾何学的データを取得して、それぞれのコンポーネント位置情報に応じてORの仮想ビュー内にそれぞれのコンポーネントのうちの少なくとも1つの描画を表示するように構成される。
ORコンポーネントを示す仮想ビューは、仮想ビューをパン、チルト、又はズームイン/アウトするためのUIコントロールを有効にする。表示装置128において、ORコンピューティングシステムの仮想ビュー及びUIスクリーン(作業フロー状態から生成されたものでも、ミラーリングされたデータから生成されたものでも良い)及び任意のビデオデータは異なるウィンドウ又は他のUI構造(例えばオーバレイ、ポップアップ等)で表示されても良い。このようにして、モニタリングコンピューティングシステムのユーザは、OR内のユーザに見えるものをより良く視覚化できる。映像ビューはORの一部のみを示すことができ、3D仮想ビューは、その中のOR、物体(及び患者)のより良い理解を可能にできることが、理解されるのであろう。
モニタリングコンピューティングシステムは、幾何学的データ及び姿勢情報を使用して、1又は複数の物体の位置情報を決定できる。位置状態情報は、位置、速度、加速度、圧力/力、近接度、および他の尺度を含むことができる。
図6は、例えば図4A〜4Cに関連して説明したような、ORコンピューティングシステムの動作600のフローチャートである。動作600は、自己監視機能を詳述する。602において、ORコンピューティングシステムは例えば手術室内のコンピュータ支援処置中に1又は複数の物体のそれぞれの位置を追跡し、手術室内の参照空間内の1又は複数の物体のそれぞれの位置を表す姿勢データを生成するコンピュータ支援処置を実行する。604において、コンピュータ支援処置の進捗状況を表すログデータが記憶される。ここで、ログデータとは、処置中に生成された任意の手術中データ、タイムスタンプデータ、又はそれらのいずれかから生成されたデータを表す総称である。
606において、動作は、コンピュータ支援処置の進捗状況を監視する。608において、動作は進捗状況の監視に応じて進捗状況の尺度を決定し、610において、進捗状況の尺度に応じて、動作は、進捗状況の尺度(及びオプションで、ログデータの少なくとも一部を含む)を特定するメッセージを、モニタリングコンピューティングシステムに通信する。必要に応じて、ORコンピューティングシステムを特定する。
ORコンピューティングシステムはカメラを備えることができ、カメラから画像を受信し、画像をログデータとして記憶するように構成できる。記憶される画像データの量は、定義されたサイズの(循環型の)バッファに書き込み、それが満たされた場合は上書きすること等によって、制限されても良い。
ORコンピューティングシステムは、UIスクリーンを含む作業フローを使用してコンピュータ支援処置を実行するように構成されても良く、記憶されたログデータは作業フロー状態データでも良い。任意のログデータをタイムスタンプに関連付けて、ロギングの発生時刻および/または時刻をマークできる。
進捗状況の尺度は、ある状態から次の状態への作業フローの状態を進めることの失敗、または作業フローのある状態の繰り返すことである可能性がある。障害は例えば閾値時間を超える時間を要すること、または閾値時間内にある状態を2回以上繰り返すことに関連付けられても良い。進捗状況の尺度は、作業フローの状態を1つの状態から次の状態に進行させるための閾値時間の満了に応じたものにできる。進捗状況の尺度は、(例えば無効な姿勢データ又は破損した姿勢データに起因して)失敗した位置特定値の数の閾値を超えることに基づいても良い。
ログデータは、例えば処置の進行の失敗、またはデータの具体的なインスタンス又は共同インスタンス(co−instances)の記録を探すルールベースの方式によって、ルールを使用して監視(分析)されても良い。例えばこのコンピュータ支援処置は、特定の較正を実行することを含むことができる。較正動作は、状態または較正データ結果(測定値または測定値を使用する計算)等の結果を記録できる。ルールはログデータを分析し、それに応じて進捗状況の尺度を決定し、較正に応じて進行の失敗を決定できる。従って、ORコンピューティングシステムはログデータを分析し、ルール分析に応じて進捗状況の尺度を決定するためのルールを記憶できる。
ルールは、進捗状況の尺度のための重大度指標を決定し、重大度指標に応じてメッセージを通信できる。重大度指標は、メッセージがどのように送信されるか、または誰に送信されるかを指示できる。一例では、進捗状況の尺度が、職員のフォローアップ訓練が指示されていることを示すことができる。一例では、進捗状況の尺度がサービスが必要であることを示すことができる。重大度指標はサービスの必要性の緊急性を示し、より低いレベルのメッセージを電子メールで配信し、より高いレベルのメッセージをSMS/テキストで配信する必要があることを指示する場合がある。一例では、重症度指標が介入が必要であることを示すことができる。進捗状況の尺度に対する異なる重大度指示は、異なる受信者への異なるメッセージを生成できる。これらのメッセージは電子メール、ショートメッセージサービス(SMS)、テキスト、インスタントメッセージ(IM)等を介して、訓練またはサービス担当者に、あるいはアプリケーションプログラミングインターフェース(API)または他の通信インターフェースを介して、監視および/または監視および介入をリクエストするモニタリングコンピューティングシステムに、様々な方式で通信できる。
一実施形態では、メッセージがモニタリングコンピューティングシステムに通信されても良い。メッセージは、インターフェース(例えば表示装置128上のUI)を介してモニタリングコンピューティングシステムによって受信され表示されても良い。メッセージに応じて、モニタリングコンピューティングシステムのユーザは、ORコンピューティングシステムの監視を開始できる(これは監視を開始したメッセージを送信することを含むか、又は開始することをリクエストできる)。監視を開始するには、ORコンピューティングシステムから追加のログデータ(例えば最近記録された動画、またはORコンピューティングシステムによって生成された他の手術中データ(位置合わせデータ、姿勢情報等))の受信が必要である場合がある。この追加のログデータを取得するために、ORコンピューティングシステムにメッセージが送信される場合がある(例:
送信の呼び出し)。モニタリングコンピューティングシステムは、受信した手術中データを表示できる。例えばモニタリングコンピューティングシステムは、任意のUIスクリーンを示しても良く、手術中データ又はそれに由来するデータをUIスクリーンに含めても良い。いくつかの例では、受信されるデータが作業フロー状態(例えば処置THA、プローブ校正段、スクリーン2)およびセンサデータ(例えばプローブ(工具)の位置が示されるか、または決定され得るデータ)であり得る。本モニタリングコンピューティングシステムは、UIスクリーン定義等に従って、そのUIスクリーンに工具の位置またはそのいずれかのレンダリングを付け加えることを含み、又はモニタリングコンピューティングシステムにアクセス可能なその定義から、対応するUIスクリーンを表示できる。オーディオ及び/又はビデオチャネルが、2つのシステム間で開始されても良い。介入が指示され、介入データが上述のように生成されても良い。
ORコンピューティングシステムは、コンピュータ支援処置中にメッセージを通信し、コンピュータ支援処置中に遠隔に配置されるモニタリングコンピューティングシステムから監視データを受信し、ORコンピューティングシステムを介してモニタリングコンピューティングシステムから監視データを利用するように構成できる。モニタリングコンピューティングシステムからの監視データは、少なくとも部分的にORコンピューティングシステムを制御するためにオーディオ及び/又は表示装置および/または介入データを介して提示するためのオーディオ及び/又はビデオデータでも良い。
ORコンピューティングシステムは、マイクロフォン及び/又はビデオカメラに結合され、OR音声および/またはビデオデータを手術室からモニタリングコンピューティングシステムに通信できる。
ORコンピューティングシステムはOR演算装置によって生成されたログデータ又は手術中データの少なくとも1つから、モニタリングコンピューティングシステムに追加データを送信するように(例えばメッセージが送信された後に)構成されても良い。生成されたログデータは、カメラ画像データ、カメラ画像データから決定された姿勢データを含む手術中データ、姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、術前患者データ、および処置中に生成されたデータのいずれかに対するタイムスタンプデータ、のうちのいずれかを含む。
図7は、例えばORコンピューティングシステムからのメッセージに応じたモニタリングコンピューティングシステムの動作700を示す。モニタリングコンピューティングシステムは、前述のように設定できる。702において、ORコンピューティングシステムからメッセージが受信され、そのメッセージは、コンピュータ支援処置を実行する際のORコンピューティングシステムの(示されている)進捗状況の尺度に応じて生成される。
例えばメッセージの形態に応じて、ORコンピューティングシステムの監視は異なる方式(例えば704)で呼び出されても良い。メッセージは、電子メールでも良く、ブラウザベースのアプリケーション又は他を起動するためのブラウザベースのインタフェース・リンクを含んでいても良い。該メッセージは、モニタリングコンピューティングシステムが患者のための監視及び/又は手術前データを開始できる、ORコンピューティングシステムを識別するログデータ及び/又はデータを含むことができる。(704でも)監視(Monitering)は、追加のログデータ及び/又は手術中データ及び/又は手術前データをリクエストできる。(706で)監視は、そのようなログデータ及び/又は手術中データ及び/又は手術前データを受信し、表示することを含むことができる。いくつかの事例では、少なくとも一部のORコンピューティングシステムが配置されているORの仮想ビューが表示されても良い。いくつかの事例では、(708において)受信された作業フロー状態データから生成され得るように、ORコンピューティングシステムのUIスクリーンが表示される。710での動作は、ORコンピューティングシステムによる動作のために、例えば介入データ及び/又は音声又は映像データのような監視データを生成し、通信する。
ここでの教示は、処置中にデータを交換するリアルタイムの監視について論じているが、例えば処置を再生するために、後の検索および「プレイバック」のために手術中データを記憶(ログ)できることが想定される。記憶された手術中データは、タイムスタンプを有する、又は順序付けられた再生を容易にするように順序付けられた、生のセンサデータ及び/又は位置合わせデータ、作業フロー状態データ等を含んでも良い。
監視の呼び出しは、ORコンピューティングシステムの自己監視動作を用いて説明されているが、他の呼び出しトリガを用いることもできる。一実施形態では、ORコンピューティングシステムがコンピュータ支援処置が開始される度に、自動的にモニタリングコンピューティングシステムにメッセージを送信できる。ORコンピューティングシステムや実行するコンピュータ支援処置等を識別する場合がある。メッセージは、監視を呼び出す要求である可能性がある。メッセージは、処置が開始したという通知でも良い。通知はORコンピューティングシステムによる活動処置の一覧または他の表現(例えばマップ)のように(例えばGUIの中で)提示できる。GUIは、監視を起動するための処置/ORコンピューティングシステムの選択を可能にしても良い。いくつかの事例では、ORコンピューティングシステムがヘルプボタン又は他の制御を用いて、監視を要求/起動するためのメッセージの送信を起動するように構成できる。
本明細書では様々な例を説明するが、特に断らない限り、または論理的に可能でない限り、任意の例の特徴および機能を別の例の特徴および機能と組み合わせ、かつ/または使用できる。例示として、遠隔に位置するモニタリングコンピューティングシステムと通信して、それに手術中データを提供するように構成されたORコンピューティングシステムは、自己監視を実行するように構成されても良い。

Claims (110)

  1. 患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む遠隔に配置された手術室を監視し、前記コンピュータ支援処置中の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡するモニタリングコンピューティングシステムであって、
    少なくとも1の処理ユニットと、
    メモリ又は他のストレージから構成されるデータ記憶装置と、
    表示装置と、
    ネットワークを介して前記ORコンピューティングシステムと通信する通信システムとを備え、
    前記データ記憶装置、前記表示装置、および前記通信システムのそれぞれは、前記少なくとも1の処理ユニットに結合されるものであり、
    前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令が記憶され、
    前記モニタリングコンピューティングシステムは、
    前記1又は複数の物体を表す幾何学的データを取得し、
    前記コンピュータ支援処置に対する前記ORコンピューティングシステムから姿勢情報を含む手術中データを処置中に受信し、
    前記姿勢情報および前記幾何学的データを使用した前記1又は複数の物体のそれぞれの位置を含む前記手術中データの少なくとも一部を、前記表示装置を介して表示することでGUI内に存在させるように構成され、
    前記姿勢情報は、物体の姿勢を計算するためのセンサデータと、前記センサデータを使用して前記ORコンピューティングシステムで計算された前記物体の前記姿勢を表す姿勢データとの一方または両方を含むことにより構成される、モニタリングコンピューティングシステム。
  2. 前記姿勢情報は、前記患者に関連付けられた参照のための姿勢情報を含み、
    前記命令は、
    前記ORコンピューティングシステム内の前記患者の位置合わせから決定された解剖学的位置合わせデータを受信し、
    前記解剖学的位置合わせデータ及び患者基準を使用して、GUI内に少なくとも1つの患者の位置を表示し、
    前記1又は複数の物体のそれぞれの位置と前記患者の前記位置とを関連させるように前記モニタリングコンピューティングシステムを構成する請求項1記載のモニタリングコンピューティングシステム。
  3. 前記コンピュータ支援処置は、前記1又は複数の物体を追跡するためにコンピュータ支援の位置特定を実行することと、ロボットを使用して前記1又は複数の物体のうちの少なくとも1つの位置特定を制御することとのうちの1つを含む、請求項1及び2のいずれかに記載のモニタリングコンピューティングシステム。
  4. 前記センサデータは、光学的位置特定システムのカメラセンサからのカメラ測定値と、前記カメラ測定値を使用して計算された姿勢データとのうちの一方または両方を含む、請求項1及び2のいずれかに記載のモニタリングコンピューティングシステム。
  5. 前記センサのうちの少なくとも1つが、前記1又は複数の物体のうちの少なくとも1つの位置決めを制御するロボットのモータのモータエンコーダ測定値を含むセンサデータを生成し、前記姿勢情報が、前記モータエンコーダ測定値と、前記モータエンコーダ測定値を使用して計算された姿勢データとのうちの1つまたは両方を含む、請求項1及び2のいずれかに記載のモニタリングコンピューティングシステム。
  6. 前記1又は複数の物体は、処置ツール及び前記患者の一部分、好ましくは前記患者の骨から選択される、請求項1から5のいずれかに記載のモニタリングコンピューティングシステム。
  7. 前記命令は、前記GUIに表示するための前記患者の手術前データを受信するように前記モニタリングコンピューティングシステムを構成する、請求項1から6のいずれかに記載のモニタリングコンピューティングシステム。
  8. 監視ビデオ及び/又は音声データを取り込むためのビデオカメラ及びマイクロフォンのうちの少なくとも1つを含み、
    前記命令が、前記監視ビデオ及び/又は音声データを前記ORコンピューティングシステムに通信するように構成される請求項1から7のいずれかに記載のモニタリングコンピューティングシステム。
  9. 前記命令は、
    a)前記コンピュータ支援処置するためのUIスクリーンで構成される作業フローの進捗状況を表す作業フロー状態と、
    b)前記モニタリングコンピューティングシステムからの前記作業フローの進捗状況に応じて、前記UIスクリーンを共有している前記ORコンピューティングシステムの前記表示装置のミラーと、
    の1つを受信し、
    前記作業フローの前記UIスクリーンを表示するように構成される、請求項1から8のいずれかに記載のモニタリングコンピューティングシステム。
  10. 前記命令は、前記モニタリングコンピューティングシステムに、前記ORコンピューティングシステムの少なくとも1つの動作を制御する介入データを定義するための入力を受信し、前記介入データを前記ORコンピューティングシステムに通信するように構成される、請求項1から9のいずれかに記載のモニタリングコンピューティングシステム。
  11. 前記幾何学的データは、ユーザインターフェースで3D物体をレンダリングするための3Dデータモデルを含み、
    前記命令は、前記位置情報を使用するように前記モニタリングコンピューティングシステムを構成し、前記それぞれのデータモデルは、前記GUI内の少なくとも前記1又は複数の物体の3Dビューをレンダリングするように構成される、請求項1から10のいずれかに記載のモニタリングコンピューティングシステム。
  12. 前記命令は、前記幾何学的データと前記姿勢情報とを用いて前記1又は複数の物体の位置状態情報を決定するように前記モニタリングコンピューティングシステムを構成する、請求項1から11のいずれかに記載のモニタリングコンピューティングシステム。
  13. 前記ORコンピューティングシステムが位置特定システムとロボット外科システムとのうちの1つのコンポーネントを備えるか、又はそれらに結合され、
    前記命令が、前記コンポーネントのうちの少なくとも1つを表す幾何学的データにアクセスして、前記コンポーネントのうちの少なくとも1つのレンダリングを前記ORの仮想ビューに表示するように前記モニタリングコンピューティングシステムを構成する、請求項1から12のいずれかに記載のモニタリングコンピューティングシステム。
  14. 前記命令は、前記仮想ビューをパンするためのパン制御と、前記仮想ビューをチルトするためのチルト制御と、前記仮想ビューをズームイン及び/又はズームアウトするためのズーム制御と、前記仮想ビュー内のOR装置の少なくとも1つのコンポーネントのための作業ボリュームを表示するための作業ボリューム制御と、から選択される制御を提供するように前記モニタリングコンピューティングシステムを構成する、請求項13記載のモニタリングコンピューティングシステム。
  15. 前記命令は、前記モニタリングコンピューティングシステムによる監視を開始するために、前記ORコンピューティングシステムからのメッセージを受信するように前記モニタリングコンピューティングシステムを構成する、請求項1から14のいずれかに記載のモニタリングコンピューティングシステム。
  16. 患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む遠隔に配置された手術室を監視し、前記コンピュータ支援処置中の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡する方法であって、
    1又は複数の物体を表す幾何学的データの取得し、
    前記コンピュータ支援処置に対する前記ORコンピューティングシステムから姿勢情報を含む手術中データを処置中に受信し、
    前記姿勢情報および前記幾何学的データを使用した前記1又は複数の物体のそれぞれの位置を含む前記手術中データの少なくとも一部を、前記表示装置を介して表示することでGUI内に存在させ、
    前記姿勢情報は、物体の姿勢を計算するためのセンサデータと、前記センサデータを使用して前記ORコンピューティングシステムで計算された前記物体の前記姿勢を表す姿勢データとの一方または両方を含むことにより構成される、方法。
  17. 前記姿勢情報は、前記患者に関連付けられた参照のための姿勢情報を含み、
    前記命令は、
    前記ORコンピューティングシステム内の前記患者の位置合わせから決定された解剖学的位置合わせデータを受信し、
    前記解剖学的位置合わせデータ及び患者基準を使用して、GUI内に少なくとも1つの患者の位置を表示し、
    前記1又は複数の物体のそれぞれの位置と前記患者の前記位置とを関連させるように前記モニタリングコンピューティングシステムを構成する請求項16記載の方法。
  18. 前記コンピュータ支援処置は、前記1又は複数の物体を追跡するためにコンピュータ支援の位置特定を実行することと、ロボットを使用して前記1又は複数の物体のうちの少なくとも1つの位置特定を制御することとのうちの1つを含む、請求項16及び17のいずれかに記載の方法。
  19. 前記センサデータは、光学的位置特定システムのカメラセンサからのカメラ測定値と、前記カメラ測定値を使用して計算された姿勢データとのうちの一方または両方を含む、請求項16及び17のいずれかに記載の方法。
  20. 前記センサのうちの少なくとも1つが、前記1又は複数の物体のうちの少なくとも1つの位置決めを制御するロボットのモータのモータエンコーダ測定値を含むセンサデータを生成し、前記姿勢情報が、前記モータエンコーダ測定値と、前記モータエンコーダ測定値を使用して計算された姿勢データとのうちの1つまたは両方を含む、請求項16及び17のいずれかに記載の方法。
  21. 前記1又は複数の物体は、処置ツール及び前記患者の一部分、好ましくは前記患者の骨から選択される、請求項16から20のいずれかに記載の方法。
  22. 前記GUIに表示するために前記患者の手術前データを受信する、請求項16から21のいずれかに記載の方法。
  23. ビデオカメラ及びマイクロフォンのうちの少なくとも1つから、監視ビデオ及び/又は音声データを取り込み、前記監視ビデオ及び/又は音声データを前記ORコンピューティングシステムに通信する、請求項16から22のいずれかに記載の方法。
  24. a)前記コンピュータ支援処置するためのUIスクリーンで構成される作業フローの進捗状況を表す作業フロー状態と、b)前記モニタリングコンピューティングシステムからの前記作業フローの進捗状況に応じて、前記UIスクリーンを共有している前記ORコンピューティングシステムの前記表示装置のミラーと、の1つを受信し、前記作業フローの前記UIスクリーンを表示する、請求項16から23のいずれかに記載の方法。
  25. 前記ORコンピューティングシステムの少なくとも1つの動作を制御する介入データを定義するための入力を受信し、前記介入データを前記ORコンピューティングシステムに通信する、請求項16から24のいずれかに記載の方法。
  26. 前記幾何学的データは、ユーザインターフェースで3D物体をレンダリングするための3Dデータモデルを含み、
    前記GUI内の少なくとも前記1又は複数の物体の3Dビューを前記位置情報および前記それぞれのデータモデルを使用してレンダリングするように構成される、請求項16から25のいずれかに記載の方法。
  27. 前記幾何学的データと前記姿勢情報とを用いて前記1又は複数の物体の位置状態情報を決定する、請求項16から26のいずれかに記載の方法。
  28. 前記ORコンピューティングシステムが位置特定システムとロボット外科システムとのうちの1つのコンポーネントを備えるか、又はそれらに結合され、
    前記方法が、前記コンポーネントのうちの少なくとも1つを表す幾何学的データにアクセスして、前記コンポーネントのうちの少なくとも1つのレンダリングを前記ORの仮想ビューに表示するように構成される、請求項16から27のいずれかに記載の方法。
  29. 前記仮想ビューをパンするためのパン制御と、前記仮想ビューをチルトするためのチルト制御と、前記仮想ビューをズームイン及び/又はズームアウトするためのズーム制御と、前記仮想ビュー内のOR装置の少なくとも1つのコンポーネントのための作業ボリュームを表示するための作業ボリューム制御と、から選択される制御を提供する、請求項28記載の方法。
  30. 監視を開始するために、前記ORコンピューティングシステムからのメッセージを受信する、請求項16から29のいずれかに記載の方法。
  31. ORコンピューティングシステムであって、
    少なくとも1の処理ユニットと、
    メモリ又は他のストレージから構成されるデータ記憶装置と、
    前記ORコンピューティングシステムを通信ネットワークに結合するために、前記少なくとも1つの処理装置に結合される通信システムとを備え、
    前記データ記憶装置および前記通信システムは、少なくとも1の処理ユニットに結合されるものであり、
    前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令が記憶され、
    前記ORコンピューティングシステムは、
    患者に対してコンピュータ支援処置を行い、手術室での前記コンピュータ支援処置中の手術室内の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡し、
    前記コンピュータ支援処置中において、姿勢情報を含む前記処置中に生成された手術中データを手術室を監視するためのモニタリングコンピューティングシステムに通信し、前記モニタリングコンピューティングシステムは、前記1又は複数の物体のそれぞれの位置を含む前記手術中データを受信し、GUIに表示するように構成され、
    前記姿勢情報は、物体の姿勢を算出するためのセンサデータと、前記センサデータを用いてOR演算装置によって算出された前記物体の前記姿勢を表す姿勢データとの一方または両方を含む、ORコンピューティングシステム。
  32. 前記姿勢情報は、前記患者に関連付けられた参照のための姿勢情報を含み、
    前記命令は、解剖学的位置合わせデータを定義するために前記患者を前記ORコンピューティングシステムに登録し、前記モニタリングコンピューティングシステムが前記患者の位置と、前記患者の前記位置に対する前記1又は複数の物体のそれぞれの位置とのうちの少なくとも1つを前記GUI内に表示するのを可能にするために、前記解剖学的位置合わせデータを前記モニタリングコンピューティングシステムと通信するように前記ORコンピューティングシステムを構成する、請求項31記載のORコンピューティングシステム。
  33. 前記コンピュータ支援処置が、前記1又は複数の物体を追跡するためのコンピュータ支援定位処置と、ロボットを使用して前記1又は複数の物体のうちの少なくとも1つの位置決めを制御することを含むロボット処置とのうちの1つを含む、請求項31及び22のいずれかに記載のORコンピューティングシステム。
  34. 前記コンピュータ支援定位処置の間、前記1又は複数の物体に取り付けられる少なくとも1つの前記センサは、光学的位置特定システムのコンポーネントである、請求項33記載のORコンピューティングシステム。
  35. 前記ロボット処置の間、前記センサは前記ロボットに結合される、請求項33記載のORコンピューティングシステム。
  36. 前記手術中データが、
    ロボットマニピュレータの姿勢情報と、
    ロボットエンドエフェクタの測定された力と、
    ロボットエンドエフェクタの測定速度または毎分回転数(RPM)と、
    光学センサからの姿勢情報と、
    医療撮像装置の姿勢情報と、
    タイムスタンプデータと、のいずれかを含む、請求項31から35のいずれかに記載のORコンピューティングシステム。
  37. 前記センサのうちの1つは位置決めカメラを含み、前記センサデータは前記位置決めカメラのビデオフィードを含む、請求項31から36のいずれかに記載のORコンピューティングシステム。
  38. 前記1又は複数の物体の少なくとも1つが、処置ツール及び前記患者の一部分、好ましくは前記患者の骨から選択される、請求項31から37のいずれかに記載のORコンピューティングシステム。
  39. 前記命令は、前記GUIの表示に使用するために前記モニタリングコンピューティングシステムに前記患者のための手術前データを通信するように前記ORコンピューティングシステムを構成する、請求項31から38のいずれかに記載のORコンピューティングシステム。
  40. ORビデオ及び/又は音声データを取り込むためのビデオカメラ及びマイクロフォンのうちの少なくとも1つを備え、
    前記命令は、前記ORビデオ及び/又は音声データを前記モニタリングコンピューティングシステムに通信するように前記ORコンピューティングシステムを構成する、請求項31から39のいずれかに記載のORコンピューティングシステム。
  41. 前記命令は、前記モニタリングコンピューティングシステムによって生成された監視データを受信して利用するように前記ORコンピューティングシステムを構成する、請求項31から40のいずれかに記載のORコンピューティングシステム。
  42. 前記監視データは、前記ORコンピューティングシステムを制御するために介入データ、及びオーディオデータ及び/又はビデオデータから選択される、請求項41記載のORコンピューティングシステム。
  43. 前記命令は、
    前記コンピュータ支援処置を実行するためのUIスクリーンを含む作業フローの使用すること、及び、
    a)作業フローの進捗状況を表す作業フロー状態を維持し、作業フロー状態をモニタリングコンピューティングシステムに通信すること、
    b)モニタリングコンピューティングシステムへの作業フローの進捗状況に応じてUIスクリーンを共有するために、前記ORコンピューティングシステムの表示装置をミラーリングすること、
    との1つによって、前記モニタリングコンピューティングシステムが作業フローのUIスクリーンを表示できるようにすることを前記ORコンピューティングシステムに構成する、請求項31から42のいずれかに記載のORコンピューティングシステム。
  44. 前記命令は、前記コンピュータ支援処置の進捗状況を自己監視し、前記進捗状況に応じて、前記ORコンピューティングシステムの遠隔監視を起動するメッセージを前記モニタリングコンピューティングシステムに通信するように前記ORコンピューティングシステムを構成する、請求項31から43のいずれかに記載のORコンピューティングシステム。
  45. 前記ORコンピューティングシステムは、前記ORコンピューティングシステム及び/又は他のOR装置のコンポーネントにおけるコンポーネント姿勢情報を決定し、前記ORのレイアウトを示す仮想ビューの表示を可能にするために、前記コンポーネント姿勢情報を前記モニタリングコンピューティングシステムに通信する、請求項31から44のいずれかに記載のORコンピューティングシステム。
  46. 方法であって、
    患者に対してORコンピューティングシステムによるコンピュータ支援処置を実行し、前記手術室内の前記1又は複数の物体に取り付けられたセンサからORコンピューティングシステムによって受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、1又は複数の物体のそれぞれの位置を追跡し、
    前記コンピュータ支援処置中において、姿勢情報を含む前記処置中に生成された手術中データを前記手術室を監視するモニタリングコンピューティングシステムに通信し、前記モニタリングコンピューティングシステムは、前記1又は複数の物体のそれぞれの位置を含む前記手術中データを受信し、GUIに表示するように構成され、
    前記姿勢情報は、物体の姿勢を算出するためのセンサデータと、前記センサデータを用いてOR演算装置によって算出された前記物体の前記姿勢を表す姿勢データとの一方または両方を含む、方法。
  47. 前記患者に関連付けられた参照に対する姿勢情報を決定し、解剖学的位置合わせデータを定義するために前記患者を前記ORコンピューティングシステムに登録し、前記モニタリングコンピューティングシステムが前記患者の位置と、前記患者の前記位置に対する前記1又は複数の物体のそれぞれの位置とのうちの少なくとも1つを前記GUI内に表示するのを可能にするために、前記解剖学的位置合わせデータを前記モニタリングコンピューティングシステムと通信する、請求項46記載の方法。
  48. 前記コンピュータ支援処置は、前記1又は複数の物体を追跡するためのコンピュータ支援定位処置と、ロボットを使用して前記1又は複数の物体のうちの少なくとも1つの位置決めを制御することを含むロボット処置とのうちの1つを含む、請求項46及び47のいずれかに記載の方法。
  49. 前記コンピュータ支援定位処置の間、前記1又は複数の物体に取り付けられる少なくとも1つの前記センサは、光学的位置特定システムのコンポーネントである、請求項48記載の方法。
  50. 前記ロボット処置の間、前記センサは前記ロボットに結合される、請求項48記載の方法。
  51. 前記手術中データが、
    ロボットマニピュレータの姿勢情報と、
    ロボットエンドエフェクタの測定された力と、
    ロボットエンドエフェクタの測定速度または毎分回転数(RPM)と、
    光学センサからの姿勢情報と、
    医療撮像装置の姿勢情報と、
    タイムスタンプデータと、のいずれかを含む、請求項46から50のいずれかに記載の方法。
  52. 前記センサの1つが位置決めカメラを含み、前記センサデータは前記位置決めカメラのビデオフィードを含む、請求項46から51のいずれかに記載の方法。
  53. 前記1又は複数の物体の少なくとも1つが、処置ツール及び前記患者の一部分、好ましくは前記患者の骨から選択される、請求項46から52のいずれかに記載の方法。
  54. 前記GUIの表示に使用するために前記モニタリングコンピューティングシステムに前記患者のための手術前データを通信する、請求項46から53のいずれかに記載の方法。
  55. ビデオカメラ及びマイクロフォンのうちの少なくとも1つからORビデオ及び/又は音声データを取り込み、前記ORビデオ及び/又は音声データをモニタリングコンピューティングシステムに通信する、請求項46から54のいずれかに記載の方法。
  56. 前記命令は、前記モニタリングコンピューティングシステムによって生成された監視データを受信し利用するように前記ORコンピューティングシステムを構成する、請求項46から55のいずれかに記載の方法。
  57. 前記監視データは、前記ORコンピューティングシステムを制御するための介入データ、及び、オーディオデータ及び/又はビデオデータとから選択される、請求項56記載の方法。
  58. 前記コンピュータ支援処置を実行するためのUIスクリーンを含む作業フローの使用し、及び、
    a)作業フローの進捗状況を表す作業フロー状態を維持し、作業フロー状態をモニタリングコンピューティングシステムに通信することと、b)モニタリングコンピューティングシステムへの作業フローの進捗状況に応じてUIスクリーンを共有するために、前記ORコンピューティングシステムの表示装置をミラーリングすることとの1つによって、前記モニタリングコンピューティングシステムが作業フローのUIスクリーンを表示できるようにする、請求項46から57のいずれかに記載の方法。
  59. 前記コンピュータ支援処置の進捗状況を自己監視し、前記進捗状況に応答して、前記ORコンピューティングシステムの遠隔監視を起動するメッセージを前記モニタリングコンピューティングシステムに通信することを含む、請求項46から58のいずれかに記載の方法。
  60. 前記ORコンピューティングシステム及び/又は他のOR装置のコンポーネントのためのコンポーネント姿勢情報を決定し、前記ORのレイアウトを示す仮想ビューの表示を可能にするために、前記コンポーネント姿勢情報を前記モニタリングコンピューティングシステムに通信する、請求項46から59のいずれかに記載の方法。
  61. ORコンピューティングシステムであって、
    少なくとも1の処理ユニットと、
    メモリ又は他のストレージから構成されるデータ記憶装置と、
    ネットワークを介して前記ORコンピューティングシステムと、
    前記データ記憶装置、前記表示装置、および前記通信システムのそれぞれは、前記少なくとも1の処理ユニットに結合されるものであり、
    前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令が記憶され、
    前記ORコンピューティングシステムは、
    コンピュータ支援処置を実行し、手術室内の前記コンピュータ支援処置中に1又は複数の物体のそれぞれの位置を追跡し、前記手術室内の参照空間内の前記1又は複数の物体のそれぞれの位置を表す姿勢データを生成し、
    前記コンピュータ支援処置の進捗状況を監視するログデータを記憶し、
    前記ログデータを使用して前記コンピュータ支援処置の前記進捗状況を監視し、
    前記監視に応じた進捗状況の尺度を決定し、
    前記進捗状況の尺度に応じて前記進捗状況の尺度を特定するメッセージを通信し、オプションで、前記ORコンピューティングシステムを監視するために、少なくとも一部の前記ログデータが遠隔に配置されたモニタリングコンピューティングシステムに含んでいる、ORコンピューティングシステム。
  62. カメラを備え、
    前記命令は、前記カメラから画像を受信し、前記画像をログデータとして記憶するように前記ORコンピューティングシステムを構成する、請求項61記載のORコンピューティングシステム。
  63. 前記命令は、UIスクリーンを含む作業フローを使用して、前記コンピュータ支援処置を実行するように前記ORコンピューティングシステムを構成する、請求項61及び62のいずれかに記載のORコンピューティングシステム。
  64. 前記命令は、前記ORコンピューティングシステムを、前記作業フローの状態をログデータとして記憶し、前記作業フローの状態を前記モニタリングコンピューティングシステムに通信するように構成する、請求項63記載のORコンピューティングシステム。
  65. 前記進捗状況の尺度は、前記作業フローの状態を1つの状態から次の状態に進めるのを失敗すること、又は、前記作業フローの1つの状態を繰り返すことである、請求項63及び64のいずれかに記載のORコンピューティングシステム。
  66. 前記進捗状況の尺度は、閾値時間の満了に応答して、前記作業フローの状態を1つの状態から次の状態に進めることである、請求項63及び64のいずれかに記載のORコンピューティングシステム。
  67. 前記命令は、前記ログデータを分析し、前記進捗状況の尺度を生成するためのルールを含む、請求項61から66のいずれかに記載のORコンピューティングシステム。
  68. 前記ルールは重大度を決定し、前記重大度に応じて前記メッセージを通信する、請求項67記載のORコンピューティングシステム。
  69. 前記命令は、
    前記コンピュータ支援処置中に前記メッセージを通信し、
    前記コンピュータ支援処置中に前記モニタリングコンピューティングシステムからの前記監視データを受信し、
    前記監視データを、前記ORコンピューティングシステムを介して前記モニタリングコンピューティングシステムから利用するように前記ORコンピューティングシステムを構成する、請求項61から68のいずれかに記載のORコンピューティングシステム。
  70. 前記モニタリングコンピューティングシステムからの前記監視データは、前記ORコンピューティングシステムを少なくとも部分的に制御するための介入データと、オーディオ及び/又は表示装置を介して提示するためのオーディオ及び/又はビデオデータとのうちの一方または両方である、請求項69記載のORコンピューティングシステム。
  71. マイクロフォン及び/又はビデオカメラが結合され、前記命令は、前記手術室から前記モニタリングコンピューティングシステムにORオーディオ及び/又はビデオデータを通信するように前記ORコンピューティングシステムを構成する、請求項61から70のいずれかに記載のORコンピューティングシステム。
  72. 前記ORコンピューティングシステムによって生成された前記ログデータ又は前記手術中データの少なくとも1つから、前記モニタリングコンピューティングシステムに追加データを送信することを含む、請求項61から71のいずれかに記載のORコンピューティングシステム。
  73. 前記追加データは、カメラ画像データ、前記カメラ画像データから決定された姿勢データ、前記姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、前記1又は複数の物体のうちの1つの定義を表すデータ、術前患者データ、及び、前記手術中データのうちのいずれかのタイムスタンプデータ、のうちのいずれかを含む、請求項72記載のORコンピューティングシステム。
  74. 方法であって、
    ORコンピューティングシステムによるコンピュータ支援処置の実行し、手術室内の前記コンピュータ支援処置中に1又は複数の物体のそれぞれの位置を追跡し、前記手術室内の参照空間内の前記1又は複数の物体のそれぞれの位置を表す姿勢データを生成し、
    前記ORコンピューティングシステムは、前記コンピュータ支援処置の進捗状況を監視するためのログデータを記憶し、
    前記ORコンピューティングシステムは、前記ログデータを使用して前記コンピュータ支援処置の進捗状況を監視し、
    前記ORコンピューティングシステムは、前記監視に応じた進捗状況の尺度を決定し、
    前記ORコンピューティングシステムは、前記進捗状況の尺度に応じて前記進捗状況の尺度を特定するメッセージを通信し、オプションで、前記ORコンピューティングシステムを監視するために、少なくとも一部の前記ログデータが遠隔に配置されたモニタリングコンピューティングシステムに含んでいる、方法。
  75. 前記ORコンピューティングシステムに結合されたカメラから画像を受信し、ログデータとして画像を記憶する、請求項74記載の方法。
  76. UIスクリーンを含む作業フローを使用して前記コンピュータ支援処置を実行する、請求項74及び75のいずれかに記載の方法。
  77. 前記作業フローの状態をログデータとして記憶し、前記作業フローの状態を前記モニタリングコンピューティングシステムに通信する、請求項76記載の方法。
  78. 前記進捗状況の尺度は、前記作業フローの状態を1つの状態から次の状態に進めるのを失敗すること、又は、前記作業フローの1つの状態を繰り返すことである、請求項76及び77のいずれかに記載の方法。
  79. 前記進捗状況の尺度は、閾値時間の満了に応答して、前記作業フローの状態を1つの状態から次の状態に進めることである、請求項76及び77のいずれかに記載の方法。
  80. 監視することは、ルールを使用してログデータを分析し、前記進捗状況の尺度を生成することを含む、請求項74から79のいずれかに記載の方法。
  81. 前記ルールは重大度を決定し、前記重大度に応じて前記メッセージを通信する、請求項80記載の方法。
  82. 前記コンピュータ支援処置中に前記メッセージを通信し、
    前記コンピュータ支援処置中に前記モニタリングコンピューティングシステムからの監視データの受信し、
    前記監視データを、前記ORコンピューティングシステムを介して前記モニタリングコンピューティングシステムから利用する、請求項74から81のいずれかに記載の方法。
  83. 前記モニタリングコンピューティングシステムからの前記監視データは、前記ORコンピューティングシステムを少なくとも部分的に制御するための介入データと、オーディオ及び/又は表示装置を介して提示するためのオーディオ及び/又はビデオデータとのうちの一方または両方である、請求項82記載の方法。
  84. マイクロフォン及び/又はビデオカメラを使用して手術室から取り込まれたORオーディオ及び/又はビデオデータを前記モニタリングコンピューティングシステムに通信する、請求項74から83のいずれかに記載の方法。
  85. 前記ORコンピューティングシステムによって生成された前記ログデータ又は手術中データの少なくとも1つから、前記モニタリングコンピューティングシステムに追加データを送信することを含む、請求項74から84のいずれかに記載の方法。
  86. 前記追加データは、カメラ画像データ、前記カメラ画像データから決定された姿勢データ、前記姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、前記1又は複数の物体のうちの1つの定義を表すデータ、術前患者データ、及び、前記手術中データのうちのいずれかのタイムスタンプデータ、のうちのいずれかを含む、請求項85記載の方法。
  87. 患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む遠隔に配置された手術室を監視し、前記コンピュータ支援処置中の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡するモニタリングコンピューティングシステムであって、
    少なくとも1の処理ユニットと、
    メモリ又は他のストレージから構成されるデータ記憶装置と、
    表示装置と、
    ネットワークを介して前記ORコンピューティングシステムと通信する通信システムとを備え、
    前記データ記憶装置、前記表示装置、および前記通信システムのそれぞれは、前記少なくとも1の処理ユニットに結合されるものであり、
    前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令が記憶され、
    前記モニタリングコンピューティングシステムは、前記ORコンピューティングシステムから前記コンピュータ支援処置の進捗状況の尺度を特定するためのメッセージを受信し、オプションで、前記ORコンピューティングシステムの監視を開始するために、前記ORコンピューティングシステムに記憶される、前記コンピュータ支援処置のための少なくとも一部のログデータを含んでいる、モニタリングコンピューティングシステム。
  88. 前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令であって、
    前記1又は複数の物体を表す幾何学的データを取得し、
    前記ORコンピューティングシステムから姿勢情報を含む手術中データを前記コンピュータ支援処置中に受信し、
    前記姿勢情報および前記幾何学的データを使用した前記1又は複数の物体のそれぞれの位置を含む前記手術中データの少なくとも一部を、前記表示装置を介して表示することでGUI内に存在させるように、更に前記モニタリングコンピューティングシステムを構成する命令が記憶される、請求項87記載のモニタリングコンピューティングシステム。
  89. 前記ログデータは、前記ORコンピューティングシステムに結合されたカメラからの画像を含む、請求項87及び88のいずれかに記載のモニタリングコンピューティングシステム。
  90. 前記ORコンピューティングシステムは、前記コンピュータ支援処置をUIスクリーンを含む作業フローを使用して実行し、前記モニタリングコンピューティングシステムは、前記ORコンピューティングシステムから前記作業フローの状態を受信する、請求項87及び89のいずれかに記載のモニタリングコンピューティングシステム。
  91. 前記進捗状況の尺度は、前記作業フローの状態を1つの状態から次の状態に進めるのを失敗すること、又は、前記作業フローの1つの状態を繰り返すことである、請求項90記載のモニタリングコンピューティングシステム。
  92. 前記進捗状況の尺度は、閾値時間の満了に応じて、前記作業フローの状態を1つの状態から次の状態に進めることである、請求項90記載のモニタリングコンピューティングシステム。
  93. 前記進捗状況の前記監視は、重症度の尺度に関連付けられ、前記メッセージは前記重症度に応じて通信される、請求項87から92のいずれかに記載のモニタリングコンピューティングシステム。
  94. 前記命令は、
    前記コンピュータ支援処置中に前記メッセージを受信し、
    監視データを定義し、前記コンピュータ支援処置中に前記監視データを前記ORコンピューティングシステムに通信するように、前記モニタリングコンピューティングシステムを構成する、請求項87から93のいずれかに記載のモニタリングコンピューティングシステム。
  95. 前記監視データは、前記ORコンピューティングシステムを少なくとも部分的に制御するための介入データと、オーディオ及び/又は表示装置を介して提示するためのオーディオ及び/又はビデオデータとのうちの一方または両方である、請求項94記載のモニタリングコンピューティングシステム。
  96. マイクロフォン及び/又はビデオカメラに結合され、前記命令は、前記モニタリングコンピューティングシステムから前記手術室にオーディオ及び/又はビデオデータを通信するように前記モニタリングコンピューティングシステムを構成する、請求項87から95のいずれかに記載のモニタリングコンピューティングシステム。
  97. 前記命令は、前記モニタリングコンピューティングシステムが前記ORコンピューティングシステムによって生成された前記ログデータ又は手術中データの少なくとも1つから、追加データを受信することを含む、請求項87から96のいずれかに記載のモニタリングコンピューティングシステム。
  98. 前記追加データは、カメラ画像データ、前記カメラ画像データから決定された姿勢データ、前記姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、前記1又は複数の物体のうちの1つの定義を表すデータ、術前患者データ、及び、前記手術中データのいずれかのタイムスタンプデータ、のうちのいずれかを含む、請求項97記載のモニタリングコンピューティングシステム。
  99. モニタリングコンピューティングシステムの1の処理ユニットによって、患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む遠隔に配置された手術室を監視し、前記コンピュータ支援処置中の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡する方法であって、
    前記ORコンピューティングシステムから前記コンピュータ支援処置の進捗状況の尺度を特定するためのメッセージを受信し、オプションで、前記ORコンピューティングシステムの監視を開始するために、前記ORコンピューティングシステムに記憶される、前記コンピュータ支援処置のための少なくとも一部のログデータを含んでいる、方法。
  100. 1又は複数の物体を表す幾何学的データの取得し、
    前記コンピュータ支援処置に対する前記ORコンピューティングシステムから姿勢情報を含む手術中データを処置中に受信し、
    前記姿勢情報および前記幾何学的データを使用した前記1又は複数の物体のそれぞれの位置を含む前記手術中データの少なくとも一部を、表示装置を介して表示することでGUI内に存在させる、請求項99記載の方法。
  101. 前記ログデータは、前記ORコンピューティングシステムに結合されたカメラからの画像を含む、請求項99及び100のいずれかに記載の方法。
  102. 前記ORコンピューティングシステムは、UIスクリーンを含む作業フローを使用して、前記コンピュータ支援処置を実行し、
    前記方法は、前記コンピュータ支援処置から作業フローの状態を受信することを含む、請求項99及び101のいずれかに記載の方法。
  103. 前記進捗状況の尺度は、前記作業フローの状態を1つの状態から次の状態に進めるのを失敗すること、又は、前記作業フローの1つの状態を繰り返すことである、請求項102記載の方法。
  104. 前記進捗状況の尺度は、閾値時間の満了に応答して、前記作業フローの状態を1つの状態から次の状態に進めることである、請求項102記載の方法。
  105. 前記進捗状況の前記監視は、重症度の尺度に関連付けられ、前記メッセージは前記重症度に応じて通信される、請求項99から104のいずれかに記載の方法。
  106. 前記コンピュータ支援処置中の前記メッセージを受信し、
    前記コンピュータ支援処置中の監視データを定義し、前記監視データを前記ORコンピューティングシステムと通信する、請求項99から105のいずれかに記載の方法。
  107. 前記監視データは、前記ORコンピューティングシステムを少なくとも部分的に制御するための介入データと、オーディオ及び/又は表示装置を介して提示するためのオーディオ及び/又はビデオデータとのうちの一方または両方である、請求項106記載の方法。
  108. マイクロフォン及び/又はビデオカメラからオーディオ及び/又はビデオデータを受信し、前記ORコンピューティングシステムを介して前記オーディオ及び/又はビデオデータを前記手術室に通信することを含む、請求項99から107のいずれかに記載の方法。
  109. 前記ORコンピューティングシステムによって生成された前記ログデータ又は手術中データの少なくとも1つからの追加データを、前記ORコンピューティングシステムから受信することを含む、請求項99から108のいずれかに記載の方法。
  110. 前記追加データは、カメラ画像データ、前記カメラ画像データから決定された姿勢データ、前記姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、前記1又は複数の物体のうちの1つの定義を表すデータ、術前患者データ、及び、前記手術中データのいずれかに対するタイムスタンプデータ、のうちのいずれかを含む、請求項109記載の方法。
JP2020541969A 2018-02-02 2019-02-01 手術室の遠隔監視 Active JP7367990B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862625511P 2018-02-02 2018-02-02
US62/625,511 2018-02-02
PCT/CA2019/050128 WO2019148286A1 (en) 2018-02-02 2019-02-01 Operating room remote monitoring

Publications (2)

Publication Number Publication Date
JP2021511903A true JP2021511903A (ja) 2021-05-13
JP7367990B2 JP7367990B2 (ja) 2023-10-24

Family

ID=67477844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020541969A Active JP7367990B2 (ja) 2018-02-02 2019-02-01 手術室の遠隔監視

Country Status (4)

Country Link
US (1) US20200352657A1 (ja)
JP (1) JP7367990B2 (ja)
AU (1) AU2019214340A1 (ja)
WO (1) WO2019148286A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112022007849A2 (pt) * 2019-10-29 2022-07-05 Verb Surgical Inc Sistemas de realidade virtual para simulação de fluxo de trabalho cirúrgico com modelo de paciente e sala de operação personalizável
US11382696B2 (en) 2019-10-29 2022-07-12 Verb Surgical Inc. Virtual reality system for simulating surgical workflows with patient models
US11389246B2 (en) 2019-10-29 2022-07-19 Verb Surgical Inc. Virtual reality system with customizable operation room
US11690674B2 (en) 2020-04-03 2023-07-04 Verb Surgical Inc. Mobile virtual reality system for surgical robotic systems
CN111658154B (zh) * 2020-05-11 2021-10-26 首都医科大学附属北京天坛医院 一种自动远程造影手术机器人系统
CN114601564B (zh) * 2020-10-08 2023-08-22 深圳市精锋医疗科技股份有限公司 手术机器人及其图形化控制装置、图形化显示方法
EP4331664A1 (en) * 2022-08-31 2024-03-06 Vision RT Limited A system for monitoring position of a patient
CN116206773B (zh) * 2023-04-23 2023-07-25 四川省医学科学院·四川省人民医院 一种针对护理任务的监控管理方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008119472A (ja) * 2006-11-14 2008-05-29 General Electric Co <Ge> 埋植物距離測定のシステム及び方法
US20100228264A1 (en) * 2009-03-09 2010-09-09 David Robinson Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems
JP2012504017A (ja) * 2008-09-30 2012-02-16 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 先端部の配置および配向を制御するカメラ機器のコンピュータ生成された補助的ビューを提供する医療用ロボットシステム
JP2017515523A (ja) * 2014-03-17 2017-06-15 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 遠隔操作医療システムにおける器具のオフスクリーン表示のためのシステム及び方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6259757B2 (ja) * 2011-06-27 2018-01-10 ボード オブ リージェンツ オブ ザ ユニバーシティ オブ ネブラスカ コンピュータ支援手術の搭載器具追跡システム
US9498231B2 (en) * 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
KR20180113512A (ko) * 2016-02-26 2018-10-16 씽크 써지컬, 인크. 로봇의 사용자 위치설정을 안내하는 방법 및 시스템
CN110114019B (zh) * 2016-12-08 2022-04-12 安托踏实公司 用于根据至少一个目标平面切割解剖结构的外科系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008119472A (ja) * 2006-11-14 2008-05-29 General Electric Co <Ge> 埋植物距離測定のシステム及び方法
JP2012504017A (ja) * 2008-09-30 2012-02-16 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 先端部の配置および配向を制御するカメラ機器のコンピュータ生成された補助的ビューを提供する医療用ロボットシステム
US20100228264A1 (en) * 2009-03-09 2010-09-09 David Robinson Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems
JP2017515523A (ja) * 2014-03-17 2017-06-15 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 遠隔操作医療システムにおける器具のオフスクリーン表示のためのシステム及び方法

Also Published As

Publication number Publication date
WO2019148286A1 (en) 2019-08-08
JP7367990B2 (ja) 2023-10-24
AU2019214340A1 (en) 2020-09-24
US20200352657A1 (en) 2020-11-12

Similar Documents

Publication Publication Date Title
JP7367990B2 (ja) 手術室の遠隔監視
US11779409B2 (en) Surgical system with workflow monitoring
US10610307B2 (en) Workflow assistant for image guided procedures
US11925423B2 (en) Guidance for positioning a patient and surgical robot
WO2017076886A1 (en) Determining a configuration of a medical robotic arm
US20210378757A1 (en) Augmented Reality with Medical Imaging
EP3267918A2 (en) Method for using a physical object to manipulate a corresponding virtual object in a virtual environment, and associated apparatus and computer program product
JP2004538538A (ja) 強化現実可視化付きの、手術中にイメージガイドされる神経外科手術法及び手術用装置
US20130218137A1 (en) Integrated surgery system
JP2023530652A (ja) コンピュータ支援インターベンション用の空間認識ディスプレイ
CN115315729A (zh) 用于促进远程呈现或交互的方法和系统
JP7448551B2 (ja) コンピュータ支援手術システムのためのカメラ制御システム及び方法
CN111973273A (zh) 基于ar技术的手术导航系统、方法、设备和介质
EP3200719B1 (en) Determining a configuration of a medical robotic arm
US11551810B2 (en) Method for acquiring and for altering a configuration of a number of objects in a procedure room and corresponding device
CN114520048A (zh) 远程通信装置、手术和治疗系统和远程通信方法
Finke et al. Motorization of a surgical microscope for intra‐operative navigation and intuitive control
JP2022519307A (ja) ロボット手術システム用のハンドアイ協働システム
US11992273B2 (en) System and method of displaying images from imaging devices
CN115135270A (zh) 用于提供具有臂设置引导的体育场型视图的机器人外科系统和方法
WO2024107455A1 (en) Techniques for displaying extended reality content based on operator related parameters
KR20230113599A (ko) 의료 환경을 계획하기 위한 시스템들 및 방법들
WO2023014732A1 (en) Techniques for adjusting a field of view of an imaging device based on head motion of an operator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231004

R150 Certificate of patent or registration of utility model

Ref document number: 7367990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150