JP2021511903A - 手術室の遠隔監視 - Google Patents
手術室の遠隔監視 Download PDFInfo
- Publication number
- JP2021511903A JP2021511903A JP2020541969A JP2020541969A JP2021511903A JP 2021511903 A JP2021511903 A JP 2021511903A JP 2020541969 A JP2020541969 A JP 2020541969A JP 2020541969 A JP2020541969 A JP 2020541969A JP 2021511903 A JP2021511903 A JP 2021511903A
- Authority
- JP
- Japan
- Prior art keywords
- computing system
- data
- monitoring
- objects
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 305
- 238000000034 method Methods 0.000 claims abstract description 213
- 230000009471 action Effects 0.000 claims abstract description 34
- 238000005259 measurement Methods 0.000 claims description 39
- 238000013500 data storage Methods 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 34
- 238000004891 communication Methods 0.000 claims description 33
- 230000003287 optical effect Effects 0.000 claims description 27
- 210000000988 bone and bone Anatomy 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 12
- 239000012636 effector Substances 0.000 claims description 10
- 238000009877 rendering Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000013499 data model Methods 0.000 claims description 8
- 230000004807 localization Effects 0.000 claims description 8
- 238000002059 diagnostic imaging Methods 0.000 claims description 4
- 238000002432 robotic surgery Methods 0.000 claims description 4
- 238000004091 panning Methods 0.000 claims description 3
- 230000008878 coupling Effects 0.000 claims 1
- 238000010168 coupling process Methods 0.000 claims 1
- 238000005859 coupling reaction Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract 1
- 210000003484 anatomy Anatomy 0.000 description 28
- 230000005484 gravity Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000011541 total hip replacement Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 4
- 210000004197 pelvis Anatomy 0.000 description 4
- 238000001356 surgical procedure Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 210000001503 joint Anatomy 0.000 description 2
- 210000003141 lower extremity Anatomy 0.000 description 2
- 230000001144 postural effect Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 206010042602 Supraventricular extrasystoles Diseases 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000005441 aurora Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/35—Surgical robots for telesurgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2059—Mechanical position encoders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/05—Surgical care
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Robotics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Urology & Nephrology (AREA)
- Human Computer Interaction (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Manipulator (AREA)
Abstract
Description
送信の呼び出し)。モニタリングコンピューティングシステムは、受信した手術中データを表示できる。例えばモニタリングコンピューティングシステムは、任意のUIスクリーンを示しても良く、手術中データ又はそれに由来するデータをUIスクリーンに含めても良い。いくつかの例では、受信されるデータが作業フロー状態(例えば処置THA、プローブ校正段、スクリーン2)およびセンサデータ(例えばプローブ(工具)の位置が示されるか、または決定され得るデータ)であり得る。本モニタリングコンピューティングシステムは、UIスクリーン定義等に従って、そのUIスクリーンに工具の位置またはそのいずれかのレンダリングを付け加えることを含み、又はモニタリングコンピューティングシステムにアクセス可能なその定義から、対応するUIスクリーンを表示できる。オーディオ及び/又はビデオチャネルが、2つのシステム間で開始されても良い。介入が指示され、介入データが上述のように生成されても良い。
Claims (110)
- 患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む遠隔に配置された手術室を監視し、前記コンピュータ支援処置中の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡するモニタリングコンピューティングシステムであって、
少なくとも1の処理ユニットと、
メモリ又は他のストレージから構成されるデータ記憶装置と、
表示装置と、
ネットワークを介して前記ORコンピューティングシステムと通信する通信システムとを備え、
前記データ記憶装置、前記表示装置、および前記通信システムのそれぞれは、前記少なくとも1の処理ユニットに結合されるものであり、
前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令が記憶され、
前記モニタリングコンピューティングシステムは、
前記1又は複数の物体を表す幾何学的データを取得し、
前記コンピュータ支援処置に対する前記ORコンピューティングシステムから姿勢情報を含む手術中データを処置中に受信し、
前記姿勢情報および前記幾何学的データを使用した前記1又は複数の物体のそれぞれの位置を含む前記手術中データの少なくとも一部を、前記表示装置を介して表示することでGUI内に存在させるように構成され、
前記姿勢情報は、物体の姿勢を計算するためのセンサデータと、前記センサデータを使用して前記ORコンピューティングシステムで計算された前記物体の前記姿勢を表す姿勢データとの一方または両方を含むことにより構成される、モニタリングコンピューティングシステム。 - 前記姿勢情報は、前記患者に関連付けられた参照のための姿勢情報を含み、
前記命令は、
前記ORコンピューティングシステム内の前記患者の位置合わせから決定された解剖学的位置合わせデータを受信し、
前記解剖学的位置合わせデータ及び患者基準を使用して、GUI内に少なくとも1つの患者の位置を表示し、
前記1又は複数の物体のそれぞれの位置と前記患者の前記位置とを関連させるように前記モニタリングコンピューティングシステムを構成する請求項1記載のモニタリングコンピューティングシステム。 - 前記コンピュータ支援処置は、前記1又は複数の物体を追跡するためにコンピュータ支援の位置特定を実行することと、ロボットを使用して前記1又は複数の物体のうちの少なくとも1つの位置特定を制御することとのうちの1つを含む、請求項1及び2のいずれかに記載のモニタリングコンピューティングシステム。
- 前記センサデータは、光学的位置特定システムのカメラセンサからのカメラ測定値と、前記カメラ測定値を使用して計算された姿勢データとのうちの一方または両方を含む、請求項1及び2のいずれかに記載のモニタリングコンピューティングシステム。
- 前記センサのうちの少なくとも1つが、前記1又は複数の物体のうちの少なくとも1つの位置決めを制御するロボットのモータのモータエンコーダ測定値を含むセンサデータを生成し、前記姿勢情報が、前記モータエンコーダ測定値と、前記モータエンコーダ測定値を使用して計算された姿勢データとのうちの1つまたは両方を含む、請求項1及び2のいずれかに記載のモニタリングコンピューティングシステム。
- 前記1又は複数の物体は、処置ツール及び前記患者の一部分、好ましくは前記患者の骨から選択される、請求項1から5のいずれかに記載のモニタリングコンピューティングシステム。
- 前記命令は、前記GUIに表示するための前記患者の手術前データを受信するように前記モニタリングコンピューティングシステムを構成する、請求項1から6のいずれかに記載のモニタリングコンピューティングシステム。
- 監視ビデオ及び/又は音声データを取り込むためのビデオカメラ及びマイクロフォンのうちの少なくとも1つを含み、
前記命令が、前記監視ビデオ及び/又は音声データを前記ORコンピューティングシステムに通信するように構成される請求項1から7のいずれかに記載のモニタリングコンピューティングシステム。 - 前記命令は、
a)前記コンピュータ支援処置するためのUIスクリーンで構成される作業フローの進捗状況を表す作業フロー状態と、
b)前記モニタリングコンピューティングシステムからの前記作業フローの進捗状況に応じて、前記UIスクリーンを共有している前記ORコンピューティングシステムの前記表示装置のミラーと、
の1つを受信し、
前記作業フローの前記UIスクリーンを表示するように構成される、請求項1から8のいずれかに記載のモニタリングコンピューティングシステム。 - 前記命令は、前記モニタリングコンピューティングシステムに、前記ORコンピューティングシステムの少なくとも1つの動作を制御する介入データを定義するための入力を受信し、前記介入データを前記ORコンピューティングシステムに通信するように構成される、請求項1から9のいずれかに記載のモニタリングコンピューティングシステム。
- 前記幾何学的データは、ユーザインターフェースで3D物体をレンダリングするための3Dデータモデルを含み、
前記命令は、前記位置情報を使用するように前記モニタリングコンピューティングシステムを構成し、前記それぞれのデータモデルは、前記GUI内の少なくとも前記1又は複数の物体の3Dビューをレンダリングするように構成される、請求項1から10のいずれかに記載のモニタリングコンピューティングシステム。 - 前記命令は、前記幾何学的データと前記姿勢情報とを用いて前記1又は複数の物体の位置状態情報を決定するように前記モニタリングコンピューティングシステムを構成する、請求項1から11のいずれかに記載のモニタリングコンピューティングシステム。
- 前記ORコンピューティングシステムが位置特定システムとロボット外科システムとのうちの1つのコンポーネントを備えるか、又はそれらに結合され、
前記命令が、前記コンポーネントのうちの少なくとも1つを表す幾何学的データにアクセスして、前記コンポーネントのうちの少なくとも1つのレンダリングを前記ORの仮想ビューに表示するように前記モニタリングコンピューティングシステムを構成する、請求項1から12のいずれかに記載のモニタリングコンピューティングシステム。 - 前記命令は、前記仮想ビューをパンするためのパン制御と、前記仮想ビューをチルトするためのチルト制御と、前記仮想ビューをズームイン及び/又はズームアウトするためのズーム制御と、前記仮想ビュー内のOR装置の少なくとも1つのコンポーネントのための作業ボリュームを表示するための作業ボリューム制御と、から選択される制御を提供するように前記モニタリングコンピューティングシステムを構成する、請求項13記載のモニタリングコンピューティングシステム。
- 前記命令は、前記モニタリングコンピューティングシステムによる監視を開始するために、前記ORコンピューティングシステムからのメッセージを受信するように前記モニタリングコンピューティングシステムを構成する、請求項1から14のいずれかに記載のモニタリングコンピューティングシステム。
- 患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む遠隔に配置された手術室を監視し、前記コンピュータ支援処置中の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡する方法であって、
1又は複数の物体を表す幾何学的データの取得し、
前記コンピュータ支援処置に対する前記ORコンピューティングシステムから姿勢情報を含む手術中データを処置中に受信し、
前記姿勢情報および前記幾何学的データを使用した前記1又は複数の物体のそれぞれの位置を含む前記手術中データの少なくとも一部を、前記表示装置を介して表示することでGUI内に存在させ、
前記姿勢情報は、物体の姿勢を計算するためのセンサデータと、前記センサデータを使用して前記ORコンピューティングシステムで計算された前記物体の前記姿勢を表す姿勢データとの一方または両方を含むことにより構成される、方法。 - 前記姿勢情報は、前記患者に関連付けられた参照のための姿勢情報を含み、
前記命令は、
前記ORコンピューティングシステム内の前記患者の位置合わせから決定された解剖学的位置合わせデータを受信し、
前記解剖学的位置合わせデータ及び患者基準を使用して、GUI内に少なくとも1つの患者の位置を表示し、
前記1又は複数の物体のそれぞれの位置と前記患者の前記位置とを関連させるように前記モニタリングコンピューティングシステムを構成する請求項16記載の方法。 - 前記コンピュータ支援処置は、前記1又は複数の物体を追跡するためにコンピュータ支援の位置特定を実行することと、ロボットを使用して前記1又は複数の物体のうちの少なくとも1つの位置特定を制御することとのうちの1つを含む、請求項16及び17のいずれかに記載の方法。
- 前記センサデータは、光学的位置特定システムのカメラセンサからのカメラ測定値と、前記カメラ測定値を使用して計算された姿勢データとのうちの一方または両方を含む、請求項16及び17のいずれかに記載の方法。
- 前記センサのうちの少なくとも1つが、前記1又は複数の物体のうちの少なくとも1つの位置決めを制御するロボットのモータのモータエンコーダ測定値を含むセンサデータを生成し、前記姿勢情報が、前記モータエンコーダ測定値と、前記モータエンコーダ測定値を使用して計算された姿勢データとのうちの1つまたは両方を含む、請求項16及び17のいずれかに記載の方法。
- 前記1又は複数の物体は、処置ツール及び前記患者の一部分、好ましくは前記患者の骨から選択される、請求項16から20のいずれかに記載の方法。
- 前記GUIに表示するために前記患者の手術前データを受信する、請求項16から21のいずれかに記載の方法。
- ビデオカメラ及びマイクロフォンのうちの少なくとも1つから、監視ビデオ及び/又は音声データを取り込み、前記監視ビデオ及び/又は音声データを前記ORコンピューティングシステムに通信する、請求項16から22のいずれかに記載の方法。
- a)前記コンピュータ支援処置するためのUIスクリーンで構成される作業フローの進捗状況を表す作業フロー状態と、b)前記モニタリングコンピューティングシステムからの前記作業フローの進捗状況に応じて、前記UIスクリーンを共有している前記ORコンピューティングシステムの前記表示装置のミラーと、の1つを受信し、前記作業フローの前記UIスクリーンを表示する、請求項16から23のいずれかに記載の方法。
- 前記ORコンピューティングシステムの少なくとも1つの動作を制御する介入データを定義するための入力を受信し、前記介入データを前記ORコンピューティングシステムに通信する、請求項16から24のいずれかに記載の方法。
- 前記幾何学的データは、ユーザインターフェースで3D物体をレンダリングするための3Dデータモデルを含み、
前記GUI内の少なくとも前記1又は複数の物体の3Dビューを前記位置情報および前記それぞれのデータモデルを使用してレンダリングするように構成される、請求項16から25のいずれかに記載の方法。 - 前記幾何学的データと前記姿勢情報とを用いて前記1又は複数の物体の位置状態情報を決定する、請求項16から26のいずれかに記載の方法。
- 前記ORコンピューティングシステムが位置特定システムとロボット外科システムとのうちの1つのコンポーネントを備えるか、又はそれらに結合され、
前記方法が、前記コンポーネントのうちの少なくとも1つを表す幾何学的データにアクセスして、前記コンポーネントのうちの少なくとも1つのレンダリングを前記ORの仮想ビューに表示するように構成される、請求項16から27のいずれかに記載の方法。 - 前記仮想ビューをパンするためのパン制御と、前記仮想ビューをチルトするためのチルト制御と、前記仮想ビューをズームイン及び/又はズームアウトするためのズーム制御と、前記仮想ビュー内のOR装置の少なくとも1つのコンポーネントのための作業ボリュームを表示するための作業ボリューム制御と、から選択される制御を提供する、請求項28記載の方法。
- 監視を開始するために、前記ORコンピューティングシステムからのメッセージを受信する、請求項16から29のいずれかに記載の方法。
- ORコンピューティングシステムであって、
少なくとも1の処理ユニットと、
メモリ又は他のストレージから構成されるデータ記憶装置と、
前記ORコンピューティングシステムを通信ネットワークに結合するために、前記少なくとも1つの処理装置に結合される通信システムとを備え、
前記データ記憶装置および前記通信システムは、少なくとも1の処理ユニットに結合されるものであり、
前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令が記憶され、
前記ORコンピューティングシステムは、
患者に対してコンピュータ支援処置を行い、手術室での前記コンピュータ支援処置中の手術室内の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡し、
前記コンピュータ支援処置中において、姿勢情報を含む前記処置中に生成された手術中データを手術室を監視するためのモニタリングコンピューティングシステムに通信し、前記モニタリングコンピューティングシステムは、前記1又は複数の物体のそれぞれの位置を含む前記手術中データを受信し、GUIに表示するように構成され、
前記姿勢情報は、物体の姿勢を算出するためのセンサデータと、前記センサデータを用いてOR演算装置によって算出された前記物体の前記姿勢を表す姿勢データとの一方または両方を含む、ORコンピューティングシステム。 - 前記姿勢情報は、前記患者に関連付けられた参照のための姿勢情報を含み、
前記命令は、解剖学的位置合わせデータを定義するために前記患者を前記ORコンピューティングシステムに登録し、前記モニタリングコンピューティングシステムが前記患者の位置と、前記患者の前記位置に対する前記1又は複数の物体のそれぞれの位置とのうちの少なくとも1つを前記GUI内に表示するのを可能にするために、前記解剖学的位置合わせデータを前記モニタリングコンピューティングシステムと通信するように前記ORコンピューティングシステムを構成する、請求項31記載のORコンピューティングシステム。 - 前記コンピュータ支援処置が、前記1又は複数の物体を追跡するためのコンピュータ支援定位処置と、ロボットを使用して前記1又は複数の物体のうちの少なくとも1つの位置決めを制御することを含むロボット処置とのうちの1つを含む、請求項31及び22のいずれかに記載のORコンピューティングシステム。
- 前記コンピュータ支援定位処置の間、前記1又は複数の物体に取り付けられる少なくとも1つの前記センサは、光学的位置特定システムのコンポーネントである、請求項33記載のORコンピューティングシステム。
- 前記ロボット処置の間、前記センサは前記ロボットに結合される、請求項33記載のORコンピューティングシステム。
- 前記手術中データが、
ロボットマニピュレータの姿勢情報と、
ロボットエンドエフェクタの測定された力と、
ロボットエンドエフェクタの測定速度または毎分回転数(RPM)と、
光学センサからの姿勢情報と、
医療撮像装置の姿勢情報と、
タイムスタンプデータと、のいずれかを含む、請求項31から35のいずれかに記載のORコンピューティングシステム。 - 前記センサのうちの1つは位置決めカメラを含み、前記センサデータは前記位置決めカメラのビデオフィードを含む、請求項31から36のいずれかに記載のORコンピューティングシステム。
- 前記1又は複数の物体の少なくとも1つが、処置ツール及び前記患者の一部分、好ましくは前記患者の骨から選択される、請求項31から37のいずれかに記載のORコンピューティングシステム。
- 前記命令は、前記GUIの表示に使用するために前記モニタリングコンピューティングシステムに前記患者のための手術前データを通信するように前記ORコンピューティングシステムを構成する、請求項31から38のいずれかに記載のORコンピューティングシステム。
- ORビデオ及び/又は音声データを取り込むためのビデオカメラ及びマイクロフォンのうちの少なくとも1つを備え、
前記命令は、前記ORビデオ及び/又は音声データを前記モニタリングコンピューティングシステムに通信するように前記ORコンピューティングシステムを構成する、請求項31から39のいずれかに記載のORコンピューティングシステム。 - 前記命令は、前記モニタリングコンピューティングシステムによって生成された監視データを受信して利用するように前記ORコンピューティングシステムを構成する、請求項31から40のいずれかに記載のORコンピューティングシステム。
- 前記監視データは、前記ORコンピューティングシステムを制御するために介入データ、及びオーディオデータ及び/又はビデオデータから選択される、請求項41記載のORコンピューティングシステム。
- 前記命令は、
前記コンピュータ支援処置を実行するためのUIスクリーンを含む作業フローの使用すること、及び、
a)作業フローの進捗状況を表す作業フロー状態を維持し、作業フロー状態をモニタリングコンピューティングシステムに通信すること、
b)モニタリングコンピューティングシステムへの作業フローの進捗状況に応じてUIスクリーンを共有するために、前記ORコンピューティングシステムの表示装置をミラーリングすること、
との1つによって、前記モニタリングコンピューティングシステムが作業フローのUIスクリーンを表示できるようにすることを前記ORコンピューティングシステムに構成する、請求項31から42のいずれかに記載のORコンピューティングシステム。 - 前記命令は、前記コンピュータ支援処置の進捗状況を自己監視し、前記進捗状況に応じて、前記ORコンピューティングシステムの遠隔監視を起動するメッセージを前記モニタリングコンピューティングシステムに通信するように前記ORコンピューティングシステムを構成する、請求項31から43のいずれかに記載のORコンピューティングシステム。
- 前記ORコンピューティングシステムは、前記ORコンピューティングシステム及び/又は他のOR装置のコンポーネントにおけるコンポーネント姿勢情報を決定し、前記ORのレイアウトを示す仮想ビューの表示を可能にするために、前記コンポーネント姿勢情報を前記モニタリングコンピューティングシステムに通信する、請求項31から44のいずれかに記載のORコンピューティングシステム。
- 方法であって、
患者に対してORコンピューティングシステムによるコンピュータ支援処置を実行し、前記手術室内の前記1又は複数の物体に取り付けられたセンサからORコンピューティングシステムによって受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、1又は複数の物体のそれぞれの位置を追跡し、
前記コンピュータ支援処置中において、姿勢情報を含む前記処置中に生成された手術中データを前記手術室を監視するモニタリングコンピューティングシステムに通信し、前記モニタリングコンピューティングシステムは、前記1又は複数の物体のそれぞれの位置を含む前記手術中データを受信し、GUIに表示するように構成され、
前記姿勢情報は、物体の姿勢を算出するためのセンサデータと、前記センサデータを用いてOR演算装置によって算出された前記物体の前記姿勢を表す姿勢データとの一方または両方を含む、方法。 - 前記患者に関連付けられた参照に対する姿勢情報を決定し、解剖学的位置合わせデータを定義するために前記患者を前記ORコンピューティングシステムに登録し、前記モニタリングコンピューティングシステムが前記患者の位置と、前記患者の前記位置に対する前記1又は複数の物体のそれぞれの位置とのうちの少なくとも1つを前記GUI内に表示するのを可能にするために、前記解剖学的位置合わせデータを前記モニタリングコンピューティングシステムと通信する、請求項46記載の方法。
- 前記コンピュータ支援処置は、前記1又は複数の物体を追跡するためのコンピュータ支援定位処置と、ロボットを使用して前記1又は複数の物体のうちの少なくとも1つの位置決めを制御することを含むロボット処置とのうちの1つを含む、請求項46及び47のいずれかに記載の方法。
- 前記コンピュータ支援定位処置の間、前記1又は複数の物体に取り付けられる少なくとも1つの前記センサは、光学的位置特定システムのコンポーネントである、請求項48記載の方法。
- 前記ロボット処置の間、前記センサは前記ロボットに結合される、請求項48記載の方法。
- 前記手術中データが、
ロボットマニピュレータの姿勢情報と、
ロボットエンドエフェクタの測定された力と、
ロボットエンドエフェクタの測定速度または毎分回転数(RPM)と、
光学センサからの姿勢情報と、
医療撮像装置の姿勢情報と、
タイムスタンプデータと、のいずれかを含む、請求項46から50のいずれかに記載の方法。 - 前記センサの1つが位置決めカメラを含み、前記センサデータは前記位置決めカメラのビデオフィードを含む、請求項46から51のいずれかに記載の方法。
- 前記1又は複数の物体の少なくとも1つが、処置ツール及び前記患者の一部分、好ましくは前記患者の骨から選択される、請求項46から52のいずれかに記載の方法。
- 前記GUIの表示に使用するために前記モニタリングコンピューティングシステムに前記患者のための手術前データを通信する、請求項46から53のいずれかに記載の方法。
- ビデオカメラ及びマイクロフォンのうちの少なくとも1つからORビデオ及び/又は音声データを取り込み、前記ORビデオ及び/又は音声データをモニタリングコンピューティングシステムに通信する、請求項46から54のいずれかに記載の方法。
- 前記命令は、前記モニタリングコンピューティングシステムによって生成された監視データを受信し利用するように前記ORコンピューティングシステムを構成する、請求項46から55のいずれかに記載の方法。
- 前記監視データは、前記ORコンピューティングシステムを制御するための介入データ、及び、オーディオデータ及び/又はビデオデータとから選択される、請求項56記載の方法。
- 前記コンピュータ支援処置を実行するためのUIスクリーンを含む作業フローの使用し、及び、
a)作業フローの進捗状況を表す作業フロー状態を維持し、作業フロー状態をモニタリングコンピューティングシステムに通信することと、b)モニタリングコンピューティングシステムへの作業フローの進捗状況に応じてUIスクリーンを共有するために、前記ORコンピューティングシステムの表示装置をミラーリングすることとの1つによって、前記モニタリングコンピューティングシステムが作業フローのUIスクリーンを表示できるようにする、請求項46から57のいずれかに記載の方法。 - 前記コンピュータ支援処置の進捗状況を自己監視し、前記進捗状況に応答して、前記ORコンピューティングシステムの遠隔監視を起動するメッセージを前記モニタリングコンピューティングシステムに通信することを含む、請求項46から58のいずれかに記載の方法。
- 前記ORコンピューティングシステム及び/又は他のOR装置のコンポーネントのためのコンポーネント姿勢情報を決定し、前記ORのレイアウトを示す仮想ビューの表示を可能にするために、前記コンポーネント姿勢情報を前記モニタリングコンピューティングシステムに通信する、請求項46から59のいずれかに記載の方法。
- ORコンピューティングシステムであって、
少なくとも1の処理ユニットと、
メモリ又は他のストレージから構成されるデータ記憶装置と、
ネットワークを介して前記ORコンピューティングシステムと、
前記データ記憶装置、前記表示装置、および前記通信システムのそれぞれは、前記少なくとも1の処理ユニットに結合されるものであり、
前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令が記憶され、
前記ORコンピューティングシステムは、
コンピュータ支援処置を実行し、手術室内の前記コンピュータ支援処置中に1又は複数の物体のそれぞれの位置を追跡し、前記手術室内の参照空間内の前記1又は複数の物体のそれぞれの位置を表す姿勢データを生成し、
前記コンピュータ支援処置の進捗状況を監視するログデータを記憶し、
前記ログデータを使用して前記コンピュータ支援処置の前記進捗状況を監視し、
前記監視に応じた進捗状況の尺度を決定し、
前記進捗状況の尺度に応じて前記進捗状況の尺度を特定するメッセージを通信し、オプションで、前記ORコンピューティングシステムを監視するために、少なくとも一部の前記ログデータが遠隔に配置されたモニタリングコンピューティングシステムに含んでいる、ORコンピューティングシステム。 - カメラを備え、
前記命令は、前記カメラから画像を受信し、前記画像をログデータとして記憶するように前記ORコンピューティングシステムを構成する、請求項61記載のORコンピューティングシステム。 - 前記命令は、UIスクリーンを含む作業フローを使用して、前記コンピュータ支援処置を実行するように前記ORコンピューティングシステムを構成する、請求項61及び62のいずれかに記載のORコンピューティングシステム。
- 前記命令は、前記ORコンピューティングシステムを、前記作業フローの状態をログデータとして記憶し、前記作業フローの状態を前記モニタリングコンピューティングシステムに通信するように構成する、請求項63記載のORコンピューティングシステム。
- 前記進捗状況の尺度は、前記作業フローの状態を1つの状態から次の状態に進めるのを失敗すること、又は、前記作業フローの1つの状態を繰り返すことである、請求項63及び64のいずれかに記載のORコンピューティングシステム。
- 前記進捗状況の尺度は、閾値時間の満了に応答して、前記作業フローの状態を1つの状態から次の状態に進めることである、請求項63及び64のいずれかに記載のORコンピューティングシステム。
- 前記命令は、前記ログデータを分析し、前記進捗状況の尺度を生成するためのルールを含む、請求項61から66のいずれかに記載のORコンピューティングシステム。
- 前記ルールは重大度を決定し、前記重大度に応じて前記メッセージを通信する、請求項67記載のORコンピューティングシステム。
- 前記命令は、
前記コンピュータ支援処置中に前記メッセージを通信し、
前記コンピュータ支援処置中に前記モニタリングコンピューティングシステムからの前記監視データを受信し、
前記監視データを、前記ORコンピューティングシステムを介して前記モニタリングコンピューティングシステムから利用するように前記ORコンピューティングシステムを構成する、請求項61から68のいずれかに記載のORコンピューティングシステム。 - 前記モニタリングコンピューティングシステムからの前記監視データは、前記ORコンピューティングシステムを少なくとも部分的に制御するための介入データと、オーディオ及び/又は表示装置を介して提示するためのオーディオ及び/又はビデオデータとのうちの一方または両方である、請求項69記載のORコンピューティングシステム。
- マイクロフォン及び/又はビデオカメラが結合され、前記命令は、前記手術室から前記モニタリングコンピューティングシステムにORオーディオ及び/又はビデオデータを通信するように前記ORコンピューティングシステムを構成する、請求項61から70のいずれかに記載のORコンピューティングシステム。
- 前記ORコンピューティングシステムによって生成された前記ログデータ又は前記手術中データの少なくとも1つから、前記モニタリングコンピューティングシステムに追加データを送信することを含む、請求項61から71のいずれかに記載のORコンピューティングシステム。
- 前記追加データは、カメラ画像データ、前記カメラ画像データから決定された姿勢データ、前記姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、前記1又は複数の物体のうちの1つの定義を表すデータ、術前患者データ、及び、前記手術中データのうちのいずれかのタイムスタンプデータ、のうちのいずれかを含む、請求項72記載のORコンピューティングシステム。
- 方法であって、
ORコンピューティングシステムによるコンピュータ支援処置の実行し、手術室内の前記コンピュータ支援処置中に1又は複数の物体のそれぞれの位置を追跡し、前記手術室内の参照空間内の前記1又は複数の物体のそれぞれの位置を表す姿勢データを生成し、
前記ORコンピューティングシステムは、前記コンピュータ支援処置の進捗状況を監視するためのログデータを記憶し、
前記ORコンピューティングシステムは、前記ログデータを使用して前記コンピュータ支援処置の進捗状況を監視し、
前記ORコンピューティングシステムは、前記監視に応じた進捗状況の尺度を決定し、
前記ORコンピューティングシステムは、前記進捗状況の尺度に応じて前記進捗状況の尺度を特定するメッセージを通信し、オプションで、前記ORコンピューティングシステムを監視するために、少なくとも一部の前記ログデータが遠隔に配置されたモニタリングコンピューティングシステムに含んでいる、方法。 - 前記ORコンピューティングシステムに結合されたカメラから画像を受信し、ログデータとして画像を記憶する、請求項74記載の方法。
- UIスクリーンを含む作業フローを使用して前記コンピュータ支援処置を実行する、請求項74及び75のいずれかに記載の方法。
- 前記作業フローの状態をログデータとして記憶し、前記作業フローの状態を前記モニタリングコンピューティングシステムに通信する、請求項76記載の方法。
- 前記進捗状況の尺度は、前記作業フローの状態を1つの状態から次の状態に進めるのを失敗すること、又は、前記作業フローの1つの状態を繰り返すことである、請求項76及び77のいずれかに記載の方法。
- 前記進捗状況の尺度は、閾値時間の満了に応答して、前記作業フローの状態を1つの状態から次の状態に進めることである、請求項76及び77のいずれかに記載の方法。
- 監視することは、ルールを使用してログデータを分析し、前記進捗状況の尺度を生成することを含む、請求項74から79のいずれかに記載の方法。
- 前記ルールは重大度を決定し、前記重大度に応じて前記メッセージを通信する、請求項80記載の方法。
- 前記コンピュータ支援処置中に前記メッセージを通信し、
前記コンピュータ支援処置中に前記モニタリングコンピューティングシステムからの監視データの受信し、
前記監視データを、前記ORコンピューティングシステムを介して前記モニタリングコンピューティングシステムから利用する、請求項74から81のいずれかに記載の方法。 - 前記モニタリングコンピューティングシステムからの前記監視データは、前記ORコンピューティングシステムを少なくとも部分的に制御するための介入データと、オーディオ及び/又は表示装置を介して提示するためのオーディオ及び/又はビデオデータとのうちの一方または両方である、請求項82記載の方法。
- マイクロフォン及び/又はビデオカメラを使用して手術室から取り込まれたORオーディオ及び/又はビデオデータを前記モニタリングコンピューティングシステムに通信する、請求項74から83のいずれかに記載の方法。
- 前記ORコンピューティングシステムによって生成された前記ログデータ又は手術中データの少なくとも1つから、前記モニタリングコンピューティングシステムに追加データを送信することを含む、請求項74から84のいずれかに記載の方法。
- 前記追加データは、カメラ画像データ、前記カメラ画像データから決定された姿勢データ、前記姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、前記1又は複数の物体のうちの1つの定義を表すデータ、術前患者データ、及び、前記手術中データのうちのいずれかのタイムスタンプデータ、のうちのいずれかを含む、請求項85記載の方法。
- 患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む遠隔に配置された手術室を監視し、前記コンピュータ支援処置中の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡するモニタリングコンピューティングシステムであって、
少なくとも1の処理ユニットと、
メモリ又は他のストレージから構成されるデータ記憶装置と、
表示装置と、
ネットワークを介して前記ORコンピューティングシステムと通信する通信システムとを備え、
前記データ記憶装置、前記表示装置、および前記通信システムのそれぞれは、前記少なくとも1の処理ユニットに結合されるものであり、
前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令が記憶され、
前記モニタリングコンピューティングシステムは、前記ORコンピューティングシステムから前記コンピュータ支援処置の進捗状況の尺度を特定するためのメッセージを受信し、オプションで、前記ORコンピューティングシステムの監視を開始するために、前記ORコンピューティングシステムに記憶される、前記コンピュータ支援処置のための少なくとも一部のログデータを含んでいる、モニタリングコンピューティングシステム。 - 前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令であって、
前記1又は複数の物体を表す幾何学的データを取得し、
前記ORコンピューティングシステムから姿勢情報を含む手術中データを前記コンピュータ支援処置中に受信し、
前記姿勢情報および前記幾何学的データを使用した前記1又は複数の物体のそれぞれの位置を含む前記手術中データの少なくとも一部を、前記表示装置を介して表示することでGUI内に存在させるように、更に前記モニタリングコンピューティングシステムを構成する命令が記憶される、請求項87記載のモニタリングコンピューティングシステム。 - 前記ログデータは、前記ORコンピューティングシステムに結合されたカメラからの画像を含む、請求項87及び88のいずれかに記載のモニタリングコンピューティングシステム。
- 前記ORコンピューティングシステムは、前記コンピュータ支援処置をUIスクリーンを含む作業フローを使用して実行し、前記モニタリングコンピューティングシステムは、前記ORコンピューティングシステムから前記作業フローの状態を受信する、請求項87及び89のいずれかに記載のモニタリングコンピューティングシステム。
- 前記進捗状況の尺度は、前記作業フローの状態を1つの状態から次の状態に進めるのを失敗すること、又は、前記作業フローの1つの状態を繰り返すことである、請求項90記載のモニタリングコンピューティングシステム。
- 前記進捗状況の尺度は、閾値時間の満了に応じて、前記作業フローの状態を1つの状態から次の状態に進めることである、請求項90記載のモニタリングコンピューティングシステム。
- 前記進捗状況の前記監視は、重症度の尺度に関連付けられ、前記メッセージは前記重症度に応じて通信される、請求項87から92のいずれかに記載のモニタリングコンピューティングシステム。
- 前記命令は、
前記コンピュータ支援処置中に前記メッセージを受信し、
監視データを定義し、前記コンピュータ支援処置中に前記監視データを前記ORコンピューティングシステムに通信するように、前記モニタリングコンピューティングシステムを構成する、請求項87から93のいずれかに記載のモニタリングコンピューティングシステム。 - 前記監視データは、前記ORコンピューティングシステムを少なくとも部分的に制御するための介入データと、オーディオ及び/又は表示装置を介して提示するためのオーディオ及び/又はビデオデータとのうちの一方または両方である、請求項94記載のモニタリングコンピューティングシステム。
- マイクロフォン及び/又はビデオカメラに結合され、前記命令は、前記モニタリングコンピューティングシステムから前記手術室にオーディオ及び/又はビデオデータを通信するように前記モニタリングコンピューティングシステムを構成する、請求項87から95のいずれかに記載のモニタリングコンピューティングシステム。
- 前記命令は、前記モニタリングコンピューティングシステムが前記ORコンピューティングシステムによって生成された前記ログデータ又は手術中データの少なくとも1つから、追加データを受信することを含む、請求項87から96のいずれかに記載のモニタリングコンピューティングシステム。
- 前記追加データは、カメラ画像データ、前記カメラ画像データから決定された姿勢データ、前記姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、前記1又は複数の物体のうちの1つの定義を表すデータ、術前患者データ、及び、前記手術中データのいずれかのタイムスタンプデータ、のうちのいずれかを含む、請求項97記載のモニタリングコンピューティングシステム。
- モニタリングコンピューティングシステムの1の処理ユニットによって、患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む遠隔に配置された手術室を監視し、前記コンピュータ支援処置中の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡する方法であって、
前記ORコンピューティングシステムから前記コンピュータ支援処置の進捗状況の尺度を特定するためのメッセージを受信し、オプションで、前記ORコンピューティングシステムの監視を開始するために、前記ORコンピューティングシステムに記憶される、前記コンピュータ支援処置のための少なくとも一部のログデータを含んでいる、方法。 - 1又は複数の物体を表す幾何学的データの取得し、
前記コンピュータ支援処置に対する前記ORコンピューティングシステムから姿勢情報を含む手術中データを処置中に受信し、
前記姿勢情報および前記幾何学的データを使用した前記1又は複数の物体のそれぞれの位置を含む前記手術中データの少なくとも一部を、表示装置を介して表示することでGUI内に存在させる、請求項99記載の方法。 - 前記ログデータは、前記ORコンピューティングシステムに結合されたカメラからの画像を含む、請求項99及び100のいずれかに記載の方法。
- 前記ORコンピューティングシステムは、UIスクリーンを含む作業フローを使用して、前記コンピュータ支援処置を実行し、
前記方法は、前記コンピュータ支援処置から作業フローの状態を受信することを含む、請求項99及び101のいずれかに記載の方法。 - 前記進捗状況の尺度は、前記作業フローの状態を1つの状態から次の状態に進めるのを失敗すること、又は、前記作業フローの1つの状態を繰り返すことである、請求項102記載の方法。
- 前記進捗状況の尺度は、閾値時間の満了に応答して、前記作業フローの状態を1つの状態から次の状態に進めることである、請求項102記載の方法。
- 前記進捗状況の前記監視は、重症度の尺度に関連付けられ、前記メッセージは前記重症度に応じて通信される、請求項99から104のいずれかに記載の方法。
- 前記コンピュータ支援処置中の前記メッセージを受信し、
前記コンピュータ支援処置中の監視データを定義し、前記監視データを前記ORコンピューティングシステムと通信する、請求項99から105のいずれかに記載の方法。 - 前記監視データは、前記ORコンピューティングシステムを少なくとも部分的に制御するための介入データと、オーディオ及び/又は表示装置を介して提示するためのオーディオ及び/又はビデオデータとのうちの一方または両方である、請求項106記載の方法。
- マイクロフォン及び/又はビデオカメラからオーディオ及び/又はビデオデータを受信し、前記ORコンピューティングシステムを介して前記オーディオ及び/又はビデオデータを前記手術室に通信することを含む、請求項99から107のいずれかに記載の方法。
- 前記ORコンピューティングシステムによって生成された前記ログデータ又は手術中データの少なくとも1つからの追加データを、前記ORコンピューティングシステムから受信することを含む、請求項99から108のいずれかに記載の方法。
- 前記追加データは、カメラ画像データ、前記カメラ画像データから決定された姿勢データ、前記姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、前記1又は複数の物体のうちの1つの定義を表すデータ、術前患者データ、及び、前記手術中データのいずれかに対するタイムスタンプデータ、のうちのいずれかを含む、請求項109記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862625511P | 2018-02-02 | 2018-02-02 | |
US62/625,511 | 2018-02-02 | ||
PCT/CA2019/050128 WO2019148286A1 (en) | 2018-02-02 | 2019-02-01 | Operating room remote monitoring |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021511903A true JP2021511903A (ja) | 2021-05-13 |
JP7367990B2 JP7367990B2 (ja) | 2023-10-24 |
Family
ID=67477844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020541969A Active JP7367990B2 (ja) | 2018-02-02 | 2019-02-01 | 手術室の遠隔監視 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200352657A1 (ja) |
JP (1) | JP7367990B2 (ja) |
AU (1) | AU2019214340A1 (ja) |
WO (1) | WO2019148286A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR112022007849A2 (pt) * | 2019-10-29 | 2022-07-05 | Verb Surgical Inc | Sistemas de realidade virtual para simulação de fluxo de trabalho cirúrgico com modelo de paciente e sala de operação personalizável |
US11382696B2 (en) | 2019-10-29 | 2022-07-12 | Verb Surgical Inc. | Virtual reality system for simulating surgical workflows with patient models |
US11389246B2 (en) | 2019-10-29 | 2022-07-19 | Verb Surgical Inc. | Virtual reality system with customizable operation room |
US11690674B2 (en) | 2020-04-03 | 2023-07-04 | Verb Surgical Inc. | Mobile virtual reality system for surgical robotic systems |
CN111658154B (zh) * | 2020-05-11 | 2021-10-26 | 首都医科大学附属北京天坛医院 | 一种自动远程造影手术机器人系统 |
CN114601564B (zh) * | 2020-10-08 | 2023-08-22 | 深圳市精锋医疗科技股份有限公司 | 手术机器人及其图形化控制装置、图形化显示方法 |
EP4331664A1 (en) * | 2022-08-31 | 2024-03-06 | Vision RT Limited | A system for monitoring position of a patient |
CN116206773B (zh) * | 2023-04-23 | 2023-07-25 | 四川省医学科学院·四川省人民医院 | 一种针对护理任务的监控管理方法和系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008119472A (ja) * | 2006-11-14 | 2008-05-29 | General Electric Co <Ge> | 埋植物距離測定のシステム及び方法 |
US20100228264A1 (en) * | 2009-03-09 | 2010-09-09 | David Robinson | Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems |
JP2012504017A (ja) * | 2008-09-30 | 2012-02-16 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 先端部の配置および配向を制御するカメラ機器のコンピュータ生成された補助的ビューを提供する医療用ロボットシステム |
JP2017515523A (ja) * | 2014-03-17 | 2017-06-15 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 遠隔操作医療システムにおける器具のオフスクリーン表示のためのシステム及び方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6259757B2 (ja) * | 2011-06-27 | 2018-01-10 | ボード オブ リージェンツ オブ ザ ユニバーシティ オブ ネブラスカ | コンピュータ支援手術の搭載器具追跡システム |
US9498231B2 (en) * | 2011-06-27 | 2016-11-22 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
KR20180113512A (ko) * | 2016-02-26 | 2018-10-16 | 씽크 써지컬, 인크. | 로봇의 사용자 위치설정을 안내하는 방법 및 시스템 |
CN110114019B (zh) * | 2016-12-08 | 2022-04-12 | 安托踏实公司 | 用于根据至少一个目标平面切割解剖结构的外科系统 |
-
2019
- 2019-02-01 JP JP2020541969A patent/JP7367990B2/ja active Active
- 2019-02-01 US US16/965,971 patent/US20200352657A1/en active Pending
- 2019-02-01 AU AU2019214340A patent/AU2019214340A1/en active Pending
- 2019-02-01 WO PCT/CA2019/050128 patent/WO2019148286A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008119472A (ja) * | 2006-11-14 | 2008-05-29 | General Electric Co <Ge> | 埋植物距離測定のシステム及び方法 |
JP2012504017A (ja) * | 2008-09-30 | 2012-02-16 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 先端部の配置および配向を制御するカメラ機器のコンピュータ生成された補助的ビューを提供する医療用ロボットシステム |
US20100228264A1 (en) * | 2009-03-09 | 2010-09-09 | David Robinson | Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems |
JP2017515523A (ja) * | 2014-03-17 | 2017-06-15 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 遠隔操作医療システムにおける器具のオフスクリーン表示のためのシステム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2019148286A1 (en) | 2019-08-08 |
JP7367990B2 (ja) | 2023-10-24 |
AU2019214340A1 (en) | 2020-09-24 |
US20200352657A1 (en) | 2020-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7367990B2 (ja) | 手術室の遠隔監視 | |
US11779409B2 (en) | Surgical system with workflow monitoring | |
US10610307B2 (en) | Workflow assistant for image guided procedures | |
US11925423B2 (en) | Guidance for positioning a patient and surgical robot | |
WO2017076886A1 (en) | Determining a configuration of a medical robotic arm | |
US20210378757A1 (en) | Augmented Reality with Medical Imaging | |
EP3267918A2 (en) | Method for using a physical object to manipulate a corresponding virtual object in a virtual environment, and associated apparatus and computer program product | |
JP2004538538A (ja) | 強化現実可視化付きの、手術中にイメージガイドされる神経外科手術法及び手術用装置 | |
US20130218137A1 (en) | Integrated surgery system | |
JP2023530652A (ja) | コンピュータ支援インターベンション用の空間認識ディスプレイ | |
CN115315729A (zh) | 用于促进远程呈现或交互的方法和系统 | |
JP7448551B2 (ja) | コンピュータ支援手術システムのためのカメラ制御システム及び方法 | |
CN111973273A (zh) | 基于ar技术的手术导航系统、方法、设备和介质 | |
EP3200719B1 (en) | Determining a configuration of a medical robotic arm | |
US11551810B2 (en) | Method for acquiring and for altering a configuration of a number of objects in a procedure room and corresponding device | |
CN114520048A (zh) | 远程通信装置、手术和治疗系统和远程通信方法 | |
Finke et al. | Motorization of a surgical microscope for intra‐operative navigation and intuitive control | |
JP2022519307A (ja) | ロボット手術システム用のハンドアイ協働システム | |
US11992273B2 (en) | System and method of displaying images from imaging devices | |
CN115135270A (zh) | 用于提供具有臂设置引导的体育场型视图的机器人外科系统和方法 | |
WO2024107455A1 (en) | Techniques for displaying extended reality content based on operator related parameters | |
KR20230113599A (ko) | 의료 환경을 계획하기 위한 시스템들 및 방법들 | |
WO2023014732A1 (en) | Techniques for adjusting a field of view of an imaging device based on head motion of an operator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231004 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7367990 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |