JP2022519558A - コンピュータ支援手術システムのためのカメラ制御システム及び方法 - Google Patents

コンピュータ支援手術システムのためのカメラ制御システム及び方法 Download PDF

Info

Publication number
JP2022519558A
JP2022519558A JP2021544668A JP2021544668A JP2022519558A JP 2022519558 A JP2022519558 A JP 2022519558A JP 2021544668 A JP2021544668 A JP 2021544668A JP 2021544668 A JP2021544668 A JP 2021544668A JP 2022519558 A JP2022519558 A JP 2022519558A
Authority
JP
Japan
Prior art keywords
surgical
event
camera
computer
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021544668A
Other languages
English (en)
Other versions
JP7448551B2 (ja
Inventor
パヤヴラ,ゴヴィンダ
エム. ジャーク,アンソニー
Original Assignee
インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテュイティブ サージカル オペレーションズ, インコーポレイテッド filed Critical インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Publication of JP2022519558A publication Critical patent/JP2022519558A/ja
Priority to JP2024029460A priority Critical patent/JP2024051132A/ja
Application granted granted Critical
Publication of JP7448551B2 publication Critical patent/JP7448551B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras

Abstract

カメラ制御システムは、手術セッションに関する手術セッションデータにアクセスすることができ、手術セッションは、コンピュータ支援手術システムによる1つ又は複数の動作の実行を含む。カメラ制御システムは、手術セッションデータに基づいて、手術セッションに関連するイベントを識別することができ、手術セッションデータに基づいて、イベントに関連する位置を決定することができる。イベント位置の決定に応答して、カメラ制御システムは、イベントに関連する位置の特定のビューを取り込むべくカメラのビューの自動調整を指示することができる。

Description

関連出願
本願は、2019年1月31日に出願された、“CAMERA CONTROL SYSTEMS AND METHODS FOR A COMPUTER-ASSISTED SURGICAL
SYSTEM”という表題の米国仮特許出願第62/799,729号に対する優先権を主張するものであり、この文献の内容はその全体が参照とにより本明細書に組み込まれる。
本願は、コンピュータ支援手術システムのためのカメラ制御システム及び方法に関する。
コンピュータ支援手術システムを使用する低侵襲性外科的処置等のコンピュータ支援外科的処置中に、カメラは、例えば、患者の外部のコンピュータ支援手術システムのシーンの画像を取り込むことができる。コンピュータ支援手術システムは、取り込んだ画像を医療関係者(例えば、外科医及び/又は手術チームの他のメンバー)に表示して、コンピュータ支援手術システムの視覚化を提供することができる。視覚化された画像は、医療関係者が外科的処置を行うのを支援する。しかしながら、ユーザは、典型的に、目的のビューを取り込むべくカメラを手動で位置付け及び移動する必要があり、これには時間がかかり、外科的処置の流れが中断される。その結果、外科的処置中にカメラを十分に活用できない場合がある。
例示的なシステムは、命令を格納するメモリと、メモリに通信可能に結合されるプロセッサとを含み得、プロセッサは、命令を実行して、手術セッションに関する手術セッションデータにアクセスすることであって、手術セッションは、コンピュータ支援手術システムによる1つ又は複数の動作の実行を含む、アクセスすること;手術セッションデータに基づいて、手術セッションに関連するイベントを識別すること;手術セッションデータに基づいて、イベントに関連する位置を決定すること;及び、イベント位置の決定に応答して、イベントに関連する位置の特定のビューを取り込むべくカメラのビューの自動調整を指示すること;を行うように構成される。
例示的な方法は、カメラ制御システムが、手術セッションに関する手術セッションデータにアクセスするステップであって、手術セッションは、コンピュータ支援手術システムによる1つ又は複数の動作の実行を含む、アクセスするステップと;カメラ制御システムが、手術セッションデータに基づいて、手術セッションに関連するイベントを識別するステップと;カメラ制御システムが、手術セッションデータに基づいて、イベントに関連する位置を決定するステップと;カメラ制御システムが、イベント位置の決定に応答して、イベントに関連する位置の特定のビューを取り込むべくカメラのビューの自動調整を指示するステップと;を含み得る。
例示的なシステムは、命令を格納するメモリと、メモリに通信可能に結合されるプロセッサとを含み、プロセッサは、命令を実行して、手術セッション中に、コンピュータ支援手術システムと通信可能にペアにされたユーザ装置から、手術セッションのワークフロー・セグメンテーションを示すユーザ入力を受信すること;ユーザ入力に少なくとも部分的に基づいて、手術セッションに関連するイベントを識別すること;手術セッションに関する手術セッションデータに基づいて、識別したイベントに関連する位置を決定すること;及び、イベント位置の決定に応答して、イベントに関連する位置の特定のビューを取り込むべくカメラのビューの自動調整を指示すること;を行うように構成される。
添付の図面は、様々な実施形態を示しており、本明細書の一部である。図示の実施形態は単なる例であり、本開示の範囲を限定するものではない。図面全体を通して、同一又は類似の参照符号は、同一又は類似の要素を示す。
本明細書に記載の原理による例示的なコンピュータ支援手術システムを示す図である。 本明細書に記載の原理による別の例示的なコンピュータ支援手術システムを示す図である。 本明細書に記載の原理による例示的なカメラ制御システムを示す図である。 本明細書に記載の原理による、図3に示されるカメラ制御システムの例示的な実施態様を示す図である。 本明細書に記載の原理による、図3に示されるカメラ制御システムの別の例示的な実施態様を示す図である。 本明細書に記載の原理による、手術セッションデータ及び/又は追加のデータに基づいてイベントを識別できる例示的な方法を示す図である。 本明細書に記載の原理による、手術セッションデータ及び/又は追加のデータに基づいてイベントを識別できる例示的な方法を示す図である。 本明細書に記載の原理による、手術セッションデータ及び/又は追加のデータに基づいてイベントを識別できる例示的な方法を示す図である。 本明細書に記載の原理による例示的なイベント位置の表を示す図である。 本明細書に記載の原理による例示的なイベント位置の表を示す図である。 本明細書に記載の原理による例示的なカメラ制御方法を示す図である。 本明細書に記載の原理による例示的なコンピューティングシステムを示す図である。
コンピュータ支援手術システムのためのカメラ制御システム及び方法が、本明細書に記載される。以下でより詳細に説明するように、例示的なカメラ制御システムは、手術セッションに関する手術セッションデータにアクセスすることができ、手術セッションは、コンピュータ支援手術システムによる1つ又は複数の動作の実行を含む。カメラ制御システムは、手術セッションデータに基づいて、手術セッションに関連するイベントを識別することができ、且つ手術セッションデータに基づいて、イベントに関連する位置を決定することができる。イベントの位置の決定に応答して、カメラ制御システムは、イベントに関連する位置の特定のビューを取り込むべくカメラのビューの自動調整を指示することができる。いくつかの例では、カメラによって取り込まれた画像は、コンピュータ支援手術システムに関連する表示装置によって表示され得る。
例示すると、コンピュータ支援手術システムを備えた手術施設で行われる低侵襲性外科的処置中に、カメラ制御システムは、手術器具が取り付けられる第1のマニピュレータアームが第2のマニピュレータアームと衝突しており、こうして、第1のマニピュレータアームに結合した手術器具のチップ(tip)の動きを妨げることを検出することができる。結果として、カメラ制御システムは、衝突イベント位置が第1のマニピュレータアームの位置であると決定し、第1のマニピュレータアームの特定のビューを取り込むべく、手術施設内に位置付けされたカメラの自動調整を指示することができる。カメラからのビデオは、外科医が使用するユーザ制御システムに関連する表示装置によって表示することができる。こうして、外科医は、手術器具のチップが動かない理由を迅速に理解し、ユーザ制御システムでの自分の位置を(全く)離れることなく、是正措置を迅速に特定することができる。
本明細書に記載のカメラ制御システム及び方法によって、様々な利点が提供され得る。例えば、本明細書に記載のシステム及び方法は、手術セッションの検出したコンテキスト(context:状況)に基づいて、画像を取り込むべく、手術施設内に位置付けされたカメラの調整を自動的に指示することができる。カメラの自動調整は、カメラを手動で調整することによって引き起こされる中断を排除することにより、手術セッションの効率を高めることができる。さらに、本明細書に記載のシステム及び方法は、外科的処置中にリアルタイムで関連するコンテキスト情報を手術チームのメンバーに提供することができ、これは、手術チームのメンバー間のより効果的且つ効率的な協力及び調整をもたらし、手術チームのメンバーが問題を迅速且つ効率的にトラブルシューティングするのを可能にし得る。さらに、システム及び方法は、手術セッション中に発生し得るイベントを予測し、そのようなイベントに関連する前後関係の(contextual)視覚的コンテンツの提示を指示し、こうして、手術チームのメンバーが、そのようなイベントが発生する前にそのようなイベントの準備及び/又は解決するのを可能にする。
多数の技術的コンピューティングの利点もまた、本明細書に記載のシステム及び方法によって実現され得る。例えば、本明細書に記載のシステム及び方法は、システム及び方法が様々なコンピューティングプラットフォームによってタイムリーな(例えば、リアルタイムの)情報を様々なユーザに提供するのを可能にする方法で、異なるコンピューティングシステムからデータにアクセスし、データを変換、及び処理するように構成され得る。この目的のために、本明細書に記載のシステム及び方法は、1つ又は複数の特別な目的のコンピューティング装置をシームレスに統合して、(例えば、運動学データ、画像データ、センサデータ、及び/又は手術器具データを1つ又は複数の機械学習モデルに適用することにより)様々なタイプのデータを処理し、手術セッション中に発生する又は発生する可能性のあるイベントを識別する、及び/又はイベントに関連するコンテキスト情報を特定することができる。さらに、本明細書に記載のシステム及び方法は、現在の手術セッションに先行する手術セッション中に生成された履歴的な手術セッションデータを利用して、他の以前の手術セッションを参照して手術セッションのコンテキストを決定することができる。このようにして、本明細書に記載のシステム及び方法は、人間だけでは実行できない動作を実行することができる。さらに、本明細書に記載のシステム及び方法は、コンピュータ支援手術システムの効率、精度、及び有効性を高めることによって、コンピュータ支援手術システムの動作を改善することができる。
ここで、図を参照して、様々な実施形態についてより詳細に説明する。本明細書に記載のシステム及び方法は、上述した1つ又は複数の利点、及び/又は本明細書で明らかにされる様々な追加及び/又は代替の利点を提供することができる。
いくつかの実施態様では、カメラ制御システムは、コンピュータ支援手術システムの一部として、又はそれと組み合わせて動作することができる。そういうものとして、ここで、例示的なコンピュータ支援手術システムについて説明する。説明する例示的なコンピュータ支援手術システムは例示的なものであり、限定するものではない。カメラ制御システムは、本明細書に記載のコンピュータ支援手術システムの一部として、又はそれと組み合わせて、及び/又は他の適切なコンピュータ支援手術システムと組み合わせて動作することができる。
図1は、例示的なコンピュータ支援手術システム100(手術システム100)を示している。示されるように、手術システム100は、互いに通信可能に結合される操作システム102、ユーザ制御システム104、補助システム106、及び補助カメラシステム108を含み得る。いくつかの例では、本明細書に記載のカメラ制御システムは、これらの構成要素のうちの1つ又は複数によって実装され得る。
手術システム100は、手術台(手術テーブル)112上に位置付けされた患者110に対してコンピュータ支援外科的処置を行うために手術チームによって利用され得る。示されるように、手術チームは、外科医114-1、看護師114-2、助手114-3、及び麻酔科医114-4を含み得、これらは全て、まとめて「手術チームのメンバー114」と呼ばれ得る。特定の実施態様に役立ち得るように、追加又は代替の手術チームのメンバーが手術セッション中に存在してもよい。手術システム100及び手術チームのメンバー114は、手術施設116に位置する。本明細書で使用する場合に、「手術施設」は、手術システム100及び手術チームのメンバー114がコンピュータ支援外科的処置を行うときにそれらが位置する任意の領域を含み得る。例えば、手術施設は、手術室、訓練施設、部屋内の特定の領域等を含み得る。いくつかの例では、外科医114-1は、外科的処置中に操作システム102、補助システム106、及び/又は他の手術チームのメンバー114が位置する部屋又は位置とは別の部屋又は位置に位置付けされ得る。これらの例では、手術施設は、いずれか又は両方の位置を含み得る。
図1は、手術施設116で進行中の低侵襲性外科的処置を示しているが、手術システム100は、同様に、観血(open)外科的処置又は他のタイプの外科的処置を行うために使用することができ、これらの処置は、同様に、手術システム100の精度及び利便性から利益を得ることができる。図1に示されるように、手術システム100が使用され得る手術セッションは、外科的処置の手術段階を含むだけではなく、外科的処置の術前、術後、及び/又は他の適切な段階も含み得ることを理解されたい。外科的処置は、患者に対して手動及び/又は器具による技法を使用して、患者の体調を調査、診断、又は治療するための任意の処置を含み得る。さらに、外科的処置は、較正手順、訓練手順、及び実験又は研究手順等、生きている患者に対して行われない任意の手順を含み得る。
図1に示されるように、操作システム102は、複数の手術器具(図示せず)が結合され得る複数のマニピュレータアーム118(例えば、マニピュレータアーム118-1~118-4)を含み得る。各手術器具は、コンピュータ支援外科的処置に使用され得る(例えば、患者110内に少なくとも部分的に挿入され、患者110に対してコンピュータ支援外科的処置を行うように操作されることによる)任意の適切な手術ツール(例えば、組織相互作用機能を有するツール)、医療ツール、監視ツール(例えば、内視鏡)、感知器具(例えば、力感知手術器具)、診断器具等によって実装され得る。操作システム102は、本明細書では4つのマニピュレータアーム118を含むものとして描写及び説明しているが、操作システム102は、特定の実施態様に役立ち得る単一のマニピュレータアーム118のみ又は他の任意の数のマニピュレータアームを含み得ることが認識されよう。
マニピュレータアーム118に結合した手術器具はそれぞれ、患者に関連する手術領域に位置付けされ得る。「外科的領域」は、特定の例では、患者内に完全に配置され得、外科的処置を行う予定である、行っている、又は行われた患者内又はその近くの領域を含み得る。例えば、患者の内部の組織に対して行われる低侵襲性外科的処置の場合に、手術領域は、組織、組織の下にある解剖学的構造、並びに例えば、外科的処置を行うために使用されている手術器具が位置する組織の周りの空間を含み得る。他の例では、手術領域は、患者に対して外科的処置を行う予定であるか、行われているか、又は行われた患者の外部に又はその近くに少なくとも部分的に配置され得る。例えば、手術システム100は、手術領域の一部(例えば、手術されている組織)が患者の内部にある一方で、手術領域の別の部分(例えば、1つ又は複数の手術器具が配置され得る組織の周りの空間)が患者の外部にあるように、観血外科的処置を行うために使用され得る。手術器具の少なくとも一部(例えば、手術器具の先端部分)が手術領域内に位置している場合に、手術器具は、手術領域に又は手術領域内に位置付け又は位置していると呼ばれ得る。
ユーザ制御システム104は、マニピュレータアーム118及びマニピュレータアーム118に結合した手術器具の外科医114-1による制御を容易にするように構成され得る。例えば、外科医114-1は、ユーザ制御システム104と相互作用して、マニピュレータアーム118及び手術器具を遠隔移動又は操作することができる。この目的のために、ユーザ制御システム104は、撮像装置(例えば、内視鏡)によって取り込まれた、患者110に関連する手術領域の画像(例えば、高解像度立体画像)を外科医114-1に提供することができる。特定の例では、ユーザ制御システム104は、患者110に関連付けられ、立体撮像システムによって生成された手術領域の立体画像を外科医114-1が見ることができる2つのディスプレイを有する立体視ビューアを含み得る。外科医114-1は、画像を利用して、マニピュレータアーム118に結合した1つ又は複数の手術器具を用いて1つ又は複数の処置を行うことができる。
手術器具の制御を容易にするために、ユーザ制御システム104は、一組のマスターコントロール(図示せず)を含み得る。これらのマスターコントロールは、外科医114-1によって操作されて、(例えば、ロボット及び/又は遠隔操作技術を利用することによって)手術器具の動きを制御することができる。マスターコントロールは、外科医114-1による多種多様な手、手首、及び指の動きを検出するように構成することができる。このようにして、外科医114-1は、1つ又は複数の手術器具を使用して外科的処置を直感的に行うことができる。
ユーザ制御システム104は、外科医114-1による手術システム100の他の構成要素の制御を容易にするようにさらに構成され得る。例えば、外科医114-1は、ユーザ制御システム104と相互作用して、手術システム100の構成又は動作モードを変更し、手術システム100の表示モードを変更し、マニピュレータアーム118に取り付けられた手術器具を制御するために使用される追加の制御信号を生成し、ある手術器具から別の手術器具への制御の切替えを容易にし、又は他の任意の適切な動作を実行することができる。この目的のために、ユーザ制御システム104は、外科医114-1からの入力を受け取るように構成された1つ又は複数の入力装置(例えば、フットペダル、ボタン、スイッチ等)も含み得る。
補助システム106は、手術システム100の一次処理操作を実行するように構成された1つ又は複数のコンピューティング装置を含み得る。補助システム106に含まれる1つ又は複数のコンピューティング装置は、手術システム100の様々な他の構成要素(例えば、操作システム102、マニピュレータアーム118に取り付けられた手術器具、及び/又はユーザ制御システム104)によって実行される動作を制御及び/又は調整することができる。例えば、ユーザ制御システム104に含まれるコンピューティング装置は、補助システム106に含まれる1つ又は複数のコンピューティング装置によって命令を操作システム102に送信することができる。別の例として、補助システム106は、操作システム102から、マニピュレータアーム118のうちの1つに取り付けられた撮像装置によって取り込まれた画像を表す画像データを受信し、処理することができる。
いくつかの例では、補助システム106は、ユーザ制御システム104で外科医114-1に提供される画像にアクセスできない可能性がある手術チームのメンバー114に視覚的コンテンツを提示するように構成され得る。この目的のために、補助システム106は、特定の実施態様に役立ち得る手術領域の画像(例えば、2D画像)、患者110及び/又は外科的処置に関連する情報、及び/又は任意の他の視覚的コンテンツ等を1つ又は複数のユーザインターフェイスに表示するように構成された表示モニタ120を含み得る。例えば、表示モニタ120は、画像と同時に表示される追加のコンテンツ(例えば、グラフィックコンテンツ、コンテキスト情報等)とともに、手術領域の画像を表示することができる。いくつかの実施形態では、表示モニタ120は、手術チームのメンバー114が(例えば、タッチジェスチャによって)相互作用して、手術システム100にユーザ入力を提供することができるタッチスクリーンディスプレイによって実装される。
補助カメラシステム108は、手術システム100の1つ又は複数の表示装置上で、外科的処置の検出したコンテキストに基づいて視覚的コンテンツを取り込み及び提供するように構成され得る。図1に示されるように、補助カメラシステム108は、カメラ操作システム124に結合した補助カメラ122(カメラ122)を含み得る。カメラ122は、任意の適切なカメラによって実装され得る。いくつかの例では、カメラ122は、立体画像を提供するように構成された複数の撮像装置によって実装され得る。補助カメラシステム108が、本明細書で1つのカメラ122を含むものとして描写及び説明しているが、補助カメラシステム108は、特定の実施態様に役立ち得るように、複数のカメラ122を含み得ることが認識されよう。例えば、ユーザ制御システム104及び外科医114-1が、手術システム100の他の構成要素から離れて位置している場合に、ユーザ制御システム104及び外科医114-1の画像を取り込み及び提供するために、追加のカメラを位置付けしてもよい。
カメラ122によって取り込まれた画像(例えば、1つ又は複数の静止画像又はビデオ画像)は、手術システム100に関連する任意の適切な表示装置に送信及び/又は表示され得る。例えば、カメラ122によって取り込まれた画像は、表示モニタ120、ユーザ制御システム104の立体視ビューア、手術セッション中に手術システム100と通信可能にペアにされたモバイル装置(例えば、助手114-3によって使用されるモバイル装置)、及び/又は遠隔コンピューティング装置に関連付けられる表示装置に送信され、及び/又はそれらによって表示され得る。手術システム100が手術システム100を使用する外科医を訓練するため等にデュアルユーザ制御システム104を含むいくつかの例では、カメラ122によって取り込まれた画像は、第2のユーザ制御システム104に関連する表示装置によって別のユーザ(例えば、手術セッションを監視し、及び/又は外科医を訓練する遠隔監督者)が見るために表示される。追加的又は代替的に、カメラ122によって取り込まれた画像を表す画像データは、遠隔コンピューティング装置によってストリーミング及び/又は記録され得、それにより、後で(例えば、手術セッション後に)画像の再生を可能にする。
カメラ操作システム124は、手術施設116内の特定のビュー126を取り込むべく、カメラ122の位置及び/又は向きを自動的に調整するように構成され得る。本明細書で使用する場合に、手術施設116内のカメラ122の「位置」は、三次元(3D)空間内のカメラ122の特定の位置を指し、カメラ122の「向き」は、3D空間内の任意の方向であり得るカメラ122の撮像方向(例えば、ビュー126)を指し得る。
カメラ操作システム124は、カメラ122の位置及び/又は向きを調整するように構成された任意の適切な機構によって実装され得る。例えば、図1に示されるように、カメラ操作システム124は、カメラピボット130によってカメラ122が結合されるカメラマニピュレータアーム128を含み得る。カメラマニピュレータアーム128は、カメラマニピュレータアーム128の動きによってカメラ122の位置及び/又は向きを調整するように構成され得る。カメラピボット130は、カメラ122の向きを調整するように構成され得る。例えば、カメラピボット130は、(カメラ122の撮像方向から見て)左から右にパン等することによって、水平面内でカメラ122を回転させることができる。追加的又は代替的に、カメラピボット130は、カメラ122の撮像方向を上下に(すなわち、水平面に対してある角度で)調整等することによって、垂直面内でカメラ122を上下に傾けることができる。カメラ操作システム124は、特定の実施態様に役立ち得るように、追加の又は代替の構成要素を含み得る。例えば、カメラ操作システム124は、様々なギア、モータ、アーム、ピボット、ジョイント、ベアリング、及びカメラ122の位置及び/又は向きの調整を容易にし得る他の任意の電気的及び/又は機械的構成要素を含み得る。
補助カメラシステム108のカメラ操作システム124は、任意の適切な方法でカメラ122の位置及び/又は向きを調整するように構成され得る。いくつかの例では、カメラ操作システム124の位置及び/又は向きは、ユーザがカメラ122を所望の位置に押すか移動するか、又はカメラ操作システム124の1つ又は複数の電子制御を操作等することによって、手動で調整することができる。追加的又は代替的に、カメラ122の位置及び/又は向きは、以下でより詳細に説明するように、手術セッションのコンテキスト(状況)に基づいて(例えば、手術セッションに関連するイベントに基づいて)自動的に(例えば、ユーザ入力なしで)調整され得る。
図1に示されるように、補助カメラシステム108(例えば、カメラ操作システム124)は、操作システム102に結合される。代替例では、補助カメラシステム108は、ユーザ制御システム104、補助システム106、又はカート132(例えば、器具カート132-2)等の特定の実施態様に適した、手術システム100の他の任意の構成要素に結合され得る。追加の例では、補助カメラシステム108は、操作システム102、ユーザ制御システム104、及び補助システム106から分離され得る。例えば、カメラ操作システム124は、手術室の壁に取り付けられ得る。あるいはまた、補助カメラシステム108は、図2に示されるように、手術施設116内のスタンドアロンシステムであり得る。
図2は、補助カメラシステム108が可動式カメラカート202を含むことを除いて、図1と同じである。カメラ操作システム124はカメラカート202で支持され、それにより手術チームのメンバー114がカメラカート202を動かすことによって手術施設116内の所望の位置にカメラ122を容易に位置付けするのを可能にする。さらに、手術チームのメンバー114は、外科的処置中に必要に応じてカメラカート202を動かすことができる。
再び図1を参照すると、手術システム100は、手術システム100の特定の構成要素及び/又は外科的処置中に使用される供給品を保持するための1つ又は複数の可動式カート132を含み得る。例えば、補助システム106に含まれる1つ又は複数のコンピューティング装置は、補助カート132-1内に収容され得る。さらに、マニピュレータアーム118に結合されていない手術器具は、手術器具をマニピュレータアーム118に結合するとき、及び/又は外科的処置中に手術器具を交換するときに、(例えば、助手114-3によって)容易にアクセスできるように器具カート132-2に収納することができる。供給カート132-3は、例えば、麻酔科医114-4によって、外科的処置中に患者110に投与され得る薬物及び/又は他の薬剤(例えば、蛍光造影剤)を保管するために使用され得る。
手術システム100の様々な構成要素は、生の(すなわち、補正していない)運動学情報を生成するために使用される1つ又は複数の変位トランスデューサ、向きセンサ、及び/又は位置センサ(以下、「手術システムセンサ」)を含み得る。例えば、ユーザ制御システム104、補助システム106、補助カメラシステム108、手術台112、マニピュレータアーム118、マニピュレータアーム118に取り付けられた手術器具、及びカート132は、1つ又は複数の手術システムセンサを含み得る。手術システム100(例えば、補助システム106)は、運動学情報を使用して、手術システム100の様々な構成要素を追跡(例えば、位置を決定)及び/又は制御するように構成され得る。
手術システム100の構成要素は、任意の適切な方法で互いに通信可能に結合され得る。例えば、図1に示されるように、操作システム102、ユーザ制御システム104、補助システム106、補助カメラシステム108、及びカート118は、特定の実施態様に役立ち得る任意の有線又は無線通信リンクを表し得る制御線134を介して通信可能に結合され得る。この目的のために、操作システム102、ユーザ制御システム104、補助システム106、補助カメラシステム108、及びカート132はそれぞれ、1つ又は複数のローカルエリアネットワークインターフェイス、Wi-Fiネットワークインターフェイス、セルラーインターフェイス等の1つ又は複数の有線又は無線通信インターフェイスを含み得る。
前述したように、カメラ122の位置及び/又は向きは、手術施設116内の特定のビュー(例えば、ビュー126)を取り込むべく、手術セッションのコンテキスト(状況)に基づいて自動的に調整され得る。図3は、コンピュータ支援手術システムに関連するイベントに関連する前後関係の視覚的コンテンツを提供するために、コンピュータ支援手術セッションに関連するカメラシステム(例えば、補助カメラシステム108、マニピュレータアーム118に結合した内視鏡、コンピュータ支援手術システムに関連する複数のカメラ等)の特定の動作を自動的に制御するように構成された例示的なカメラ制御システム300を示す。示されるように、カメラ制御システム300は、限定されないが、互いに選択的且つ通信可能に結合した記憶装置(storage facility)302及び処理装置(processing
facility)304を含み得る。装置302及び304はそれぞれ、ハードウェア及び/又はソフトウェアコンポーネント(例えば、プロセッサ、メモリ、通信インターフェイス、プロセッサによって実行するためにメモリに格納された命令等)を含むか、又はそれらによって実装され得る。いくつかの例では、装置302及び304は、特定の実施態様に役立ち得るように、複数の装置及び/又は複数の位置に分散され得る。
記憶装置302は、本明細書に記載の動作のいずれかを実行するために処理装置304によって使用される実行可能データを維持(例えば、格納)することができる。例えば、記憶装置302は、本明細書に記載の動作のいずれかを実行するために処理装置304によって実行され得る命令306を記憶し得る。命令306は、任意の適切なアプリケーション、ソフトウェア、コード、及び/又は他の実行可能なデータインスタンスによって実装され得る。
記憶装置302は、処理装置304によって受信、生成、管理、使用、及び/又は送信された任意のデータを維持することもできる。例えば、以下でより詳細に説明するように、記憶装置302は、手術セッションデータ、ユーザプロファイルデータ、ユーザ入力データ等を維持することができる。
処理装置304は、手術セッションに関連するイベントに関連する位置の特定のビューを取り込むべく、カメラのビューを自動的に調整することに関連する様々な処理操作を実行する(例えば、その処理操作を実行するために記憶装置302に格納された命令306を実行する)ように構成され得る。例えば、処理装置304は、手術セッションに関する手術セッションデータにアクセスすることができる。手術セッションは、コンピュータ支援手術システム(例えば、手術システム100)による1つ又は複数の動作の実行を含み得る。処理装置304は、手術セッションデータに基づいて、発生したイベント又は発生する可能性のあるイベント等の手術セッションに関連するイベントを識別し得る。手術セッションデータに基づいて、処理装置304は、イベントに関連する位置を決定することができ、イベント位置の決定に応答して、イベントに関連付けられた位置の特定のビューを取り込むべく、カメラ(例えば、カメラ122)のビューの自動調整を指示することができる。処理装置304によって実行され得るこれら及び他の操作は、本明細書においてより詳細に説明する。
いくつかの例では、カメラ制御システム300は、コンピュータ支援手術システム自体によって完全に実装される。例えば、カメラ制御システム300は、手術システム100に含まれる1つ又は複数のコンピューティング装置によって(例えば、操作システム102、ユーザ制御システム104、補助システム106、及び/又は補助カメラシステム108に含まれる1つ又は複数のコンピューティング装置において)実装され得る。
図4は、カメラ制御システム300の別の例示的な実施態様400を示している。実施態様400では、遠隔コンピューティングシステム402は、ネットワーク404を介して手術システム100に通信可能に結合され得る。遠隔コンピューティングシステム402は、本明細書に記載される動作のいずれかを実行するように構成される1つ又は複数のコンピューティング装置(例えば、サーバ)を含み得る。いくつかの例では、カメラ制御システム300は、遠隔コンピューティングシステム402によって完全に実装され得る。あるいはまた、カメラ制御システム300は、遠隔コンピューティングシステム402と手術システム100との両方によって実装され得る。
ネットワーク404は、ローカルエリアネットワーク、ワイヤレスネットワーク(例えば、Wi-Fi)、ワイドエリアネットワーク、インターネット、セルラーデータネットワーク、及び/又は任意の他の適切なネットワークであってもよい。データは、特定の実施態様に役立ち得るように、任意の通信技術、装置、メディア、及びプロトコルを使用して、ネットワーク404に接続された構成要素同士の間を流れることができる。
図5は、カメラ制御システム300の別の例示的な実施態様500を示している。図5は、ユーザ装置502が、手術システム100と通信可能にペアにされ、ネットワーク404に接続され得ることを除いて、図4と同様である。示されるように、ユーザ装置502は、ネットワーク404を介して遠隔コンピューティングシステム402及び/又は手術システム100と通信し得る。追加的又は代替的に、ユーザ装置502は、直接接続504(例えば、直接有線接続及び/又はブルートゥース(登録商標)接続、近距離通信接続等の直接無線接続)を介して手術システム100と通信することができる。いくつかの例では、カメラ制御システム300は、遠隔コンピューティングシステム402、手術システム100、及び/又はユーザ装置502によって実装され得る。
ユーザ装置502は、ユーザ入力を送受信し、及び/又は視覚的コンテンツを提示するように構成された任意の適切なコンピューティング装置であり得る。例えば、ユーザ装置502は、モバイル装置(例えば、携帯電話、ハンドヘルド装置、タブレットコンピューティング装置、ラップトップコンピュータ、パーソナルコンピュータ等)、ウェアラブル装置(例えば、スマートウォッチ装置、アクティビティ追跡機、ヘッドマウント表示装置、仮想又は拡張現実装置等)、及び/又は表示装置(例えば、テレビ、プロジェクタ、モニタ、タッチスクリーン表示装置等であり得るが、これらに限定されない。
示されるように、ユーザ506(例えば、手術チームのメンバー114)は、ユーザ装置502を使用するか、又はそれ以外の場合にアクセスすることができる。いくつかの例では、ユーザ506は、ユーザ装置502を使用する及び/又はこれと相互作用するために、ユーザ装置502に又はユーザ装置502によって実行されるアプリケーションにログインしなければならない場合がある。いくつかの例では、ユーザ装置502によって実行されるアプリケーションは、手術セッションのワークフロー・セグメンテーションに関するユーザ入力を提供し、カメラ(例えば、カメラ122)によって取り込まれた画像を表示するために、ユーザ506によって使用され得る。例えば、ユーザ506は、特定の実施態様に適するように、ユーザ506又は別の手術チームのメンバーによって完了されるタスク(例えば、手術チームのメンバー又はコンピュータ支援手術システムによって実行される1つ又は複数の動作)、外科的処置の段階、患者の状態、手術システムの構成要素の故障、手術チームの人員の変更、及び任意の他の情報に関する入力を提供し得る。以下でより詳細に説明するように、そのようなユーザ入力は、カメラ制御システム300によって利用されて、手術セッション中に発生する、又は発生する可能性がある手術セッションイベントをより正確に識別することができる。
図5は、手術システム100と通信可能にペアにされ、ネットワーク404に接続された1つのユーザ装置502のみを示しているが、任意の数のユーザ装置502が、手術システム100とペアにされ、及び/又はネットワーク404に接続され得る。例えば、各手術チームのメンバー114は、手術セッション中に、手術セッションのワークフローに関する入力を提供するため、及びカメラ(例えば、カメラ122)によって取り込んだ画像を表示するためにユーザ装置502を利用し得る。
ここで、カメラ制御システム300によって(例えば、カメラ制御システム300の処理装置304によって)実行され得る様々な動作、及びこれらの動作の例を説明する。本明細書で説明する動作及び例は、カメラ制御システム300によって実行され得る多くの異なるタイプの動作の単なる例示であることが認識されよう。
カメラ制御システム300は、手術セッションイベントに関連する位置の特定のビューを取り込むべくカメラのビュー(例えば、カメラ122のビュー126)の自動調整を指示することができる。この目的のために、カメラ制御システム300は、手術セッションに関する手術セッションデータにアクセスし、手術セッションデータに基づいて、手術セッションに関連するイベントを識別することができる。ここで、これらの動作の様々な例を示す。
いくつかの例では、カメラ制御システム300によってアクセスされる手術セッションデータは、手術セッション中に生成され得、手術セッション中にコンピュータ支援手術システム(例えば、手術システム100)によって実行される1つ又は複数の動作に基づくことができる。コンピュータ支援手術システムによって実行される動作は、特定の実施態様に役立ち得る任意の機械的、電気的、ハードウェア、及び/又はソフトウェアベースの動作を含み得る。手術セッションデータは、特定の実施態様に役立ち得るコンピュータ支援手術システムによって(例えば、手術システム100内の1つ又は複数の構成要素によって)、手術セッション中にコンピュータ支援手術システムに結合した1つ又は複数の構成要素(例えば、マニピュレータアーム118に結合した1つ又は複数の手術器具)によって、手術セッション中にコンピュータ支援手術システムと通信可能にペアにされたユーザ装置(例えば、ユーザ装置502)によって、及び/又はコンピュータ支援手術システムに関連する他の任意の装置によって生成され得る。カメラ制御システム300が遠隔コンピューティングシステム402によって完全に実施されるシナリオでは、手術セッションデータは、追加的又は代替的に、遠隔コンピューティングシステム402によって生成され得、一方、例えば、遠隔コンピューティングシステム402は、手術システム100によって実行される動作を追跡する。
手術セッション中に生成された手術セッションデータは、様々なタイプのデータを含み得る。例えば、手術セッション中に生成される手術セッションデータは、特定の実施態様に役立ち得る運動学的データ、画像データ、センサデータ、手術器具データ、及び/又は他の任意のタイプのデータを含み得る。
運動学的データは、コンピュータ支援手術システム内の構成要素及び/又はコンピュータ支援手術システムに結合した構成要素の位置、姿勢、及び/又は向きを表すことができる。例えば、運動学的データは、マニピュレータアーム118及び/又はマニピュレータアーム118に結合した手術器具の位置、姿勢、及び/又は向きを表すことができる。別の例として、運動学的データは、操作システム102、ユーザ制御システム104、補助カメラシステム108、手術台112、及び/又はカート132の位置を表すことができる。
画像データは、コンピュータ支援手術システムに結合した撮像装置によって取り込まれた1つ又は複数の画像を表すことができる。例えば、画像データは、マニピュレータアーム118に結合した撮像装置(例えば、立体内視鏡)によって取り込まれた1つ又は複数の画像を表すことができる。1つ又は複数の画像は、撮像装置によって取り込まれた1つ又は複数の静止画像及び/又はビデオを構成し得る。いくつかの例では、カメラ制御システム300は、撮像装置によって出力された画像を(例えば、ネットワークを介して)受信することによって画像データにアクセスすることができる。追加の又は代替の例では、画像データは、カメラ122等の、患者の外部にある撮像装置によって生成された画像データを含み得る。
センサデータは、コンピュータ支援手術システムに含まれるか、又はそのシステムに関連する手術システムセンサによって生成された任意のデータを含み得る。センサデータは、特定の実施態様に役立ち得る、検出した任意のパラメータを表すことができる。例えば、センサデータは、手術台112が動いているかどうか、又は外科医114-1がユーザ制御システム104と能動的に相互作用しているかどうかを示し得る。
手術器具データは、手術器具によって生成された任意のデータを含むことができ、手術器具の識別(ID)、手術器具の動作状態(例えば、開、閉、充電、アイドル等)、手術器具の故障コード等を表すことができる。
いくつかの例では、カメラ制御システム300は、追加的又は代替的に、例えば、現在の手術セッションに先行する1つ又は複数の他の手術セッション中に、コンピュータ支援手術システムによって生成された手術セッションデータにアクセスすることができる。例えば、カメラ制御システム300は、コンピュータ支援手術システムを使用して第1の患者に対して第1の外科的処置を行う第1の手術セッション中に、手術セッションデータを生成することができる。カメラ制御システム300はまた、コンピュータ支援手術システムを使用してその患者又は別の患者に対して第2の外科的処置を行う第2の手術セッション中に、追加の手術セッションデータを生成し得る。第2の手術セッション中に、カメラ制御システム300は、手術セッションデータと追加の手術セッションデータとの両方にアクセスすることができる。現在の手術セッションの前に生成された手術セッションデータは、本明細書では「履歴的な手術セッションデータ」と呼ばれ得る。以下に説明するように、履歴的な手術セッションデータによって、カメラ制御システム300が、第2の手術セッション中に発生し得るイベントをより効果的に識別及び/又は予測するのを可能にし得る。
カメラ制御システム300は、特定の手術セッション中に使用されているコンピュータ支援手術システム以外の1つ又は複数のコンピュータ支援手術システムによって実行される動作に基づいて、手術セッションデータに追加的又は代替的にアクセスすることができる。例えば、カメラ制御システム300は、特定の医療センター、病院のネットワーク、及び/又は他の任意のグループ内にある複数の別個のコンピュータ支援手術セッション中に生成された手術セッションデータにアクセスすることができる。このタイプの手術セッションデータは、本明細書では「グローバルな手術セッションデータ」と呼ばれ、以下に説明するように、カメラ制御システム300が、グループに含まれる特定のコンピュータ支援手術システムを使用して外科的処置を行う特定の手術セッション中に発生し得るイベントをより効果的に識別及び/又は予測するのを可能にし得る。
いくつかの例では、カメラ制御システム300は、ユーザが、コンピュータ支援手術セッション、及び/又はカメラ制御システム300が手術セッションデータにアクセスし得るコンピュータ支援手術システムの特定のグループを規定するのを可能にするように構成されたユーザインターフェイスを提供することができる。
カメラ制御システム300は、手術セッションに関する手術セッションデータ、履歴的な手術セッションデータ、及び/又はグローバルな手術セッションデータに基づいて、コンピュータ支援手術セッションに関連するイベント(手術セッションイベント)を識別することができる。手術セッションイベントは、手術セッション中にコンピュータ支援手術システムに関して発生する、又は発生し得る任意の別個の動作又は行動を含み得る。手術セッションイベントは、外科的処置の術前段階、手術段階、及び/又は術後段階中に発生し得る。
例えば、手術セッションイベントは、様々な術前段階の作業に関連する任意の動作又は行動を含み得る。例示的な術前段階の作業には、患者の受入れ(例えば、患者の医療施設への入院、患者の関連文書の受取り等)、手術室の準備、手術器具の滅菌、コンピュータ支援手術システム及び装備のテスト、コンピュータ支援手術システムのドレープ掛け(すなわち、マニピュレータアーム118等のコンピュータ支援手術システムの1つ又は複数の構成要素を滅菌又は保護カバーで覆う)、外科的処置のための患者の準備(例えば、患者のバイタルサインのチェック、点滴液の供給、患者への麻酔の投与、患者の手術室への搬送)、及び患者に対するコンピュータ支援手術システムの標的化(例えば、患者のベッドサイドでの操作システム102の位置付け及び1つ又は複数のマニピュレータアーム118の位置付け又は構成)を行うことが含まれ得るが、これらに限定されない。
手術セッションイベントは、追加的又は代替的に、様々な手術段階の作業に関連する任意の動作又は行動を含み得る。例示的な手術段階の作業には、(例えば、患者の外部の組織を切開することによる)患者に関連する手術領域を開けること、手術器具を患者に挿入すること、(例えば、組織の切断、組織の修復、組織の縫合、組織の焼灼等によって)患者の組織に対して外科手術を行うこと、及び患者に関連する手術領域を閉じること(例えば、患者からの手術器具の取り外し、切開点の縫合閉鎖、任意の創傷の手当)が含まれ得るが、これらに限定されない。
手術セッションイベントは、追加的又は代替的に、様々な術後段階の作業に関連する任意の動作又は行動を含み得る。例示的な術後段階の作業には、コンピュータ支援手術システムを患者から取り除くこと(例えば、操作システム102を患者のベッドサイドから取り除くこと)、患者のケア及び回復作業(例えば、患者を手術室から移動させること、患者が外科的処置から回復する間の患者の監視等)、手術室の清掃、コンピュータ支援手術システム及び/又は手術器具の清掃、手術チームのメンバーによる報告文書の受取り、及び患者の退院作業を含み得るが、これらに限定されない。
カメラ制御システム300は、任意の適切な方法で、手術セッションデータに基づいて手術セッションイベントを識別することができる。図6は、カメラ制御システム300が手術セッションデータに基づいて手術セッションイベントを識別し得る例示的な方法を示している。示されるように、カメラ制御システム300は、イベント検出ヒューリスティック(heuristic)604への入力として手術セッションデータ602を適用することができる。イベント検出ヒューリスティック604は、手術セッションデータ602を解析し、様々なインスタンスのイベントデータ606(例えば、イベントデータ606-1~イベントデータ606-N)を出力することができる。イベントデータ606の各インスタンスは、イベント検出ヒューリスティック604によって識別される特定の手術セッションイベントを表すことができる。
イベント検出ヒューリスティック604は、カメラ制御システム300によって実施又は実行され得、且つ手術セッションデータ602に基づいてイベントを識別するように構成され得る任意の適切なヒューリスティック、プロセス、及び/又は動作を含み得る。例示すると、ヒューリスティック604は、特定の手術セッションイベントの発生を示す、手術セッションデータ内のインジケータ及び/又はパターンを検出することができる。
例えば、手術セッションの特定の部分の間に生成された運動学的データは、手術器具の縫合パターンでの動きを示し得る。さらに、手術器具のデータは、手術セッションの同じ部分の間に使用される手術器具が針ドライバーであることを示し得る。この運動学的データ及び手術器具データに基づいて、カメラ制御システム300は、縫合イベントが発生しているか、又は発生したと判定することができる。
別の例として、内視鏡によって生成された画像を表す画像データは、特定の手術器具が所定の期間に亘って内視鏡の視野から外れたままであることを示し得る。そのような画像データは、アイドル状態イベント(例えば、手術器具がアイドル状態にあること)を示し得る。
いくつかの例では、手術セッションデータ602は、上記のように、履歴的な手術セッションデータを含み得る。これらの例では、イベント検出ヒューリスティック604によって出力されたイベントデータインスタンス606のうちの1つは、カメラ制御システム300が履歴的な手術セッションデータに基づいて発生すると予測する手術セッションイベントを表すことができる。例えば、履歴的な手術セッションデータは、コンピュータ支援手術システムを用いて同じタイプの外科的処置を行う複数の手術セッション中に生成された手術セッションデータを含み得る。この履歴的な手術セッションデータに基づいて、イベント検出ヒューリスティック604は、特定の第1のイベントの発生に続いて特定の第2のイベントが発生することを予測し得る。
いくつかの例では、手術セッションデータ602は、上記のように、グローバルな手術セッションデータを含み得る。これらの例では、イベント検出ヒューリスティック604によって出力された外科的イベントデータインスタンス606のうちの1つは、グローバルな手術セッションデータに基づいて発生すると決定された手術セッションイベントを表すことができる。例えば、グローバルな手術セッションデータによって、特定の手術ツールの特定の運動学的データの値が、手術ツールが患者の組織から所定の距離内に位置していることを示し得ることが示され得る。手術セッション中に使用されている手術ツールの実際の運動学的データがこの値以下である場合に、イベント検出ヒューリスティック604は、手術ツールが実際に患者の組織から所定の距離内に位置することを示す手術セッションイベントを検出し得る。
イベント検出ヒューリスティック604は、特定の実施態様に役立ち得るように、追加の又は代替のタイプの入力を受け取ることができる。例えば、図7は、図6と同様であるが、図7は、イベント検出ヒューリスティック604が、ユーザプロファイルデータ702(例えば、手術セッションに関与する1人又は複数の手術チームのメンバーのユーザプロファイルを表すデータ)を追加の入力として受け入れることができることを示す。この構成では、イベント検出ヒューリスティック604は、手術セッションデータ602とユーザプロファイルデータ702との両方に基づいて手術セッションイベントを検出することができる。
例示すると、ユーザプロファイルデータ702は、手術セッションに関与する外科医(例えば、外科医114-1)のユーザプロファイルを表すデータを含み得る。外科医のユーザプロファイルは、手術セッションデータと組み合わされて、外科医が外科医に固有の特定の順序で様々な操作を行うことを示し得る。従って、イベント検出ヒューリスティック604は、特定の手術セッションイベントが特定の順序に従って発生していることを検出することができる。
図8は、追加又は代替のタイプの入力を受け取る別の例を示している。図8は、図6と同様であるが、図8は、イベント検出ヒューリスティック604が、ユーザ入力データ802を追加の入力として受け入れることができることを示している。ユーザ入力データ802は、コンピュータ支援手術システムに含まれるコンピューティング装置を介して(例えば、ユーザ制御システム104又は補助システム106を介して)、又はコンピュータ支援手術システムと通信可能にペアにされた(例えば、ユーザ装置502)を介して、ユーザによって入力された情報を表すことができる。この構成では、イベント検出ヒューリスティック604は、手術セッションデータ602とユーザ入力データ802との両方に基づいて手術セッションイベントを検出することができる。ユーザ入力データ802は、例えば、手術チームのメンバーに関連するユーザ装置によって実行されるアプリケーションによって入力される情報を含み得る。
例示すると、ユーザ506(例えば、麻酔科医114-4)は、ユーザ装置502によって現在実行されているアプリケーションを介して、患者110が完全に鎮静されていることを示す情報を入力することができる。この情報は、手術セッションデータと組み合わされて、手術セッションの術前段階が終了したことを示し得る。従って、イベント検出ヒューリスティック604は、患者110の切開部位を開ける等、特定の手術セッションイベントが発生する可能性が高いことを検出することができる。こうして、カメラ制御システム300は、器具カート132-2等、次のイベントに関連する位置の特定のビューを取り込むべく、カメラ122の自動調整を指示することができる。
いくつかの例では、イベント検出ヒューリスティック604は、機械学習モデルを実装することができる。機械学習モデルは、履歴的な手術セッションデータ、グローバルな手術セッションデータ、ユーザプロファイルデータ、ユーザ入力データ、又はそれらの任意の組合せ又はサブ組合せを使用して、手術システム動作の1つ又は複数の固有のパターンを識別し、手術セッションイベントを手術システム動作の検出したパターンと関連付けることができる。カメラ制御システム300がより多くのデータを収集するにつれて、イベント検出ヒューリスティック604によって出力されたイベントデータ606は、必要に応じて更新又は修正され得る。
カメラ制御システム300が手術セッションイベントを識別するときに、カメラ制御システム300は、手術施設内の、識別した手術セッションイベントに関連する位置(イベント位置)を決定することができる。次に、カメラ制御システム300は、コンピュータ支援手術システムに関連するカメラシステム(例えば、補助カメラシステム108)による自動調整を指示して、カメラのビュー(例えば、カメラ122のビュー126)を自動的に調整し、イベント位置の特定のビューを取り込むことができる。
カメラ制御システム300は、任意の適切な方法でイベント位置を決定することができる。いくつかの例では、カメラ制御システム300は、識別した手術セッションイベントに関連する構成要素(イベント構成要素)の位置を決定することによって、イベント位置を決定することができる。この目的のために、特定の実施態様では、カメラ制御システム300は、イベント位置の表にアクセスして、識別した手術セッションイベントに関連する構成要素を識別(特定)することができる。例示すると、図9は、カメラ制御システム300によって維持又は他にアクセスされ得る例示的なイベント位置の表900を示している。列902に示されるように、表900は、手術セッション中に発生し得る様々な手術セッションイベント(例えば、マニピュレータアーム衝突イベント、器具交換イベント、ベッドの動きイベント、マニピュレータアームのエラーイベント、マスターコントローラ衝突イベント、及びマニピュレータアームの信号なしイベント)を表す複数のエントリを含み得る。列904に示されるように、表900は、各手術セッションイベントに関連する構成要素(例えば、特定のマニピュレータアーム、手術台、ユーザ制御システム、及び補助カート)もリスト化し得る。
イベント構成要素が識別されると、カメラ制御システム300は、任意の適切な方法でイベント構成要素の位置(構成要素の位置)を決定することができる。いくつかの例では、カメラ制御システム300は、手術セッション中に生成された手術セッションデータに基づいて構成要素の位置を決定することができる。例えば、カメラ制御システム300は、イベント構成要素の手術セッション中に生成された運動学的データに基づいて、構成要素の位置を決定するように構成され得る。追加的又は代替的に、イベント位置の表は、イベント位置の表にリストされた各構成要素の現在の位置を表す構成要素の位置データをリスト化することができる。構成要素の位置データは、手術セッションの開始時に入力され、手術セッション中に生成された手術セッションデータ(例えば、運動学的データ)に基づいて、手術セッション全体を通して更新され得る。
運動学的データにアクセスすることに加えて、又はその代わりに、カメラ制御システム300は、構成要素の追跡に基づいて構成要素の位置を決定することができる。いくつかの例では、カメラ制御システム300は、マーカベースのコンピュータビジョン追跡を利用することができる。この目的のために、固有のマーカ(例えば、バーコード、色、パターン、形状等)が、コンピュータ支援手術システムの様々な構成要素(例えば、マニピュレータアーム118、手術器具、カート132等)に統合されるか、又は他に取り付けられ得、及びイベント位置の表は、各構成要素に関連する一意のマーカを表すマーカデータをリスト化することができる。カメラ制御システム300は、イベント位置の表にアクセスして、イベント構成要素に関連する特定のマーカデータインスタンスを識別することができる。次に、識別したマーカデータインスタンスに基づいて、カメラ制御システム300は、カメラシステムによって取り込んだ画像において、イベント構成要素に関連するマーカを検出することによって、構成要素の位置を決定することができる。
追加又は代替の例では、カメラ制御システム300は、信号ベースの追跡を利用して、構成要素の位置を決定することができる。この目的のために、エミッタ(emitter)は、コンピュータ支援手術システムの様々な構成要素(例えば、マニピュレータアーム118、手術器具、カート132等)に統合されるか、又は他に取り付けられ得、及びカメラシステムは、構成要素から発せられる信号を検出するように構成されたセンサを含み得る。エミッタは、赤外線(IR)信号等の任意の適切な信号を放出するように構成され得る。各エミッタは、例えば、固有の波長、固有の点滅パターン、固有の周波数等に基づいて固有の信号を放出するように構成され得る。イベント位置の表は、各構成要素に関連する固有の信号を表す信号データをリスト化し得る。カメラ制御システム300は、イベント位置の表にアクセスして、イベント構成要素に関連する特定の信号データインスタンスを識別することができる。次に、カメラ制御システム300は、イベント構成要素にその特定の信号を発するように指示することができる。あるいはまた、構成要素は、関連する信号を定期的に放出することができる。次に、カメラ制御システム300は、イベント構成要素に関連する識別した信号データインスタンスと一致する構成要素の位置を放出した信号のソース(供給源)として識別し得る。
カメラ制御システム300がイベント位置を決定すると、カメラ制御システム300は、イベント位置の特定のビューを取り込むべく、カメラのビューの自動調整を指示することができる。いくつかの例では、カメラ制御システム300は、カメラが結合されるカメラ操作システムに、カメラの位置及び/又は向きを調整して、イベント位置の特定のビューを取り込ませることができる。カメラシステムがスタンドアロンコンピューティング装置によって実装される代替の例では、カメラ制御システム300は、イベント位置を表すデータと、カメラの位置及び/又は向きを調整するコマンドをカメラシステムに送信して、イベント位置の特定のビューを取り込むことができる。
カメラ制御システムがマーカベースの追跡又は信号ベースの追跡に基づいてイベント位置を決定するいくつかの例では、カメラ制御システム300は、カメラを、イベント位置に関連するマーカ又は放出された信号に向ける調整を指示することができる。
追加又は代替の例では、カメラの位置及び/又は向きの調整の量及び向きは、カメラとイベント位置との間の空間的関係に基づいて決定され得る。カメラシステムが手術システムの構成要素に直接物理的に結合される(例えば、取り付けられる)いくつかの例では、カメラとイベント位置との間の空間的関係は、手術セッションデータ(例えば、運動学的データ、センサデータ等)に基づいて決定され得る。従って、カメラの視野の調整は、手術セッションデータに基づくことができる。例えば、カメラ制御システム300は、カメラシステムに関連する運動学的データ及びセンサデータに基づいて、イベント位置に対するカメラの位置及び向きを決定することができる。カメラの決定した位置及び向きに基づいて、カメラ制御システム300は、イベント位置の特定のビューを取り込むべくカメラの自動調整を指示することができる。
カメラシステムが手術システムの構成要素に物理的に結合されない他の例では、カメラとイベント位置との間の空間的関係は、手術セッションデータのみから容易に利用可能又は決定できない場合がある。そのような例では、イベント位置の特定のビューを取り込むべくカメラのビューの自動調整を容易にするために、カメラシステムのカメラによって取り込まれた画像及びコンピュータ支援手術システムによって追跡される3D位置データを共通の3D空間に位置合わせすることができる。追加的又は代替的に、カメラシステム(例えば、カメラ122及び/又はカメラ操作システム124)を共通の3D空間に位置合わせすることができる。上記のように、コンピュータ支援手術システムは、手術システムセンサから生成された運動学的情報を使用して、3D空間内の手術システムの様々な構成要素を追跡する(例えば、位置を決定する)ことができる。カメラによって取り込まれた画像をコンピュータ支援手術システムによって使用されるのと同じ3D空間に位置合わせすることは、カメラ制御システム300が、カメラシステムを含むコンピュータ支援手術システムに関連する運動学的情報を使用して、カメラとイベント位置との間の空間的関係を決定することを可能にし得る。そのような空間的関係情報をカメラ制御システム300によって利用して、イベント位置のビューを取り込むためのカメラの位置及び/又は向きの調整の方向及び量を決定することができる。追跡ベースの技術を使用して構成要素の位置(こうしてイベント位置)を決定する場合でも、位置合せにより、手術セッションデータに基づいてカメラの位置及び/又は向きを推定できるようになり、それによって構成要素の位置の追跡器ベースの決定が高速化される。
カメラ制御システム300は、位置合せプロセスを1回(例えば、較正、セットアップ手順、又は他の初期位置合せの一部として)実行するように、及び/又は初期位置合せ後に定期的又は継続的に実行して、初期位置合せ(例えば、物理的位置の変化を説明するため(どの位置に様々な運動学的エラーがある可能性があるか))を微調整し(refine)、及び/又は手術システム構成要素の位置調整を説明する(account
for:解る)ことができる。位置合せは、視覚ベースの位置合せ、モデルベースの位置合せ、及びマーカベースの位置合せを含むがこれらに限定されない、任意の適切な位置合せ技術によって実行することができる。
例示すると、カメラによって取り込まれた画像は、位置合せプロセスのために使用され得る。例えば、カメラ制御システム300は、カメラによって取り込まれた画像に基づいて、及び訓練したニューラルネットワークを使用して、コンピュータ支援手術システムに含まれる構成要素の位置を決定することができる。特定の例では、これは、訓練したニューラルネットワークを使用して画像に描かれた関心のある対象物を識別し、関心のある対象物を任意の適切な方法(例えば、対象物認識)で手術システムの構成要素に関連付け、そして、オブジェクトの位置(例えば、画像ベースの位置)を決定するカメラ制御システム300を含み得る。
次に、カメラ制御システム300は、手術システム構成要素のモデルを対象物の決定した位置(例えば、画像内の対象物の位置)にフィッティングさせるために最適化を実行することができる。床に位置付けされたカート132等の構成要素の場合に、カメラ制御システム300は、構成要素が配置された床の平面上での回転及び並進である解のみを検索するように最適化を制約するように構成され得る。この制約付き最適化は、6つの自由度全てで実行される従来の最適化よりも高速及び/又は正確な結果を提供することができる。
位置合せプロセスをカメラ制御システム300によって使用して、コンピュータ支援手術システムの構成要素に物理的に結合されていないカメラを接続する運動学的チェーンにおける欠落したリンクを決定することができる。カメラ制御システム300は、欠落しているリンクを、カメラと手術システムの構成要素との間の推定された空間的関係を規定する変換として表すことができる。変換は、データポイントをカメラの基準フレームからコンピュータ支援手術システムの基準フレームに変換するために(例えば、座標点をカメラの座標系からコンピュータ支援手術システムの座標系に変換するために)適用され得る回転及び並進、及びその逆を規定し得る。
カメラ制御システム300は、欠落したリンクを使用して、カメラ及び手術システムを接続する運動学的チェーンを完成させ、それによって完全な運動学的チェーンが既知となり、カメラ制御システム300にアクセス可能になり得る。次に、カメラ制御システム300は、カメラシステムの運動学を使用して、カメラの位置を追跡し、イベント位置のビューを取り込むべくカメラの適切な位置及び/又は向きの調整を決定することができる。
前述したように、カメラによって取り込まれた画像は、コンピュータ支援手術システムに関連する表示装置及び/又は遠隔コンピューティング装置に関連する表示装置に送信され、表示され得る。このようにして、手術チームのメンバー、遠隔監督者、遠隔技術者等は、手術セッションイベントに関連する前後関係の視覚的コンテンツを閲覧し、前後関係の視覚的コンテンツを使用して、例えば、手術セッション中に1つ又は複数のタスクを実行することができる(例えば、外科的処置を行うため、手術チームのメンバーを監視又は訓練するため、技術的問題をトラブルシューティングするため等)。ここで、この処理の例を説明する。
例えば、カメラ制御システム300が、マニピュレータアーム118-1がマニピュレータアーム118-2と衝突している(表900において「MA1_Collide_MA2」とラベル付けされる)ことを検出した場合に、カメラ制御システム300は、検出したイベント位置がマニピュレータアーム118-1の位置である(表900で「MA1」とラベル付けされる)と決定することができる。この決定に基づいて、カメラ制御システム300は、手術セッションデータ(例えば、運動学的データ)を利用して、手術施設内で、マニピュレータアーム118-1の位置を決定することができる。次に、カメラ制御システム300は、カメラ操作システム124に、マニピュレータアーム118-1のビューを取り込むべくカメラ122の位置及び/又は向きを調整するように指示することができる。次に、カメラ122によって取り込まれた画像は、手術チームのメンバー114(例えば、外科医114-1)に関連する表示装置に表示され得、こうして、手術チームのメンバー114は、マニピュレータアーム118-1が動かない理由を迅速に識別(特定)できる。
別の例として、カメラ制御システム300が、第4のマニピュレータアーム118-4に結合した手術器具から信号が検出されない(表900において「MA4_NoSignal」とラベル付けされる)と決定する場合に、カメラ制御システム300は、検出したイベントが、手術器具を接続する必要がある第4のマニピュレータアーム118-4上の位置にある(表900で「MA4」とラベル付けされる)と決定することができる。この決定に基づいて、カメラ制御システム300は、手術セッションデータ(例えば、運動学的データ)を利用して、手術施設内で、第4のマニピュレータアーム118-4の位置を決定することができる。次に、カメラ制御システム300は、カメラ操作システム124に、第4のマニピュレータアーム118-4のビューを取り込むべくカメラ122の位置及び/又は向きを調整するように指示することができる。次に、カメラ122によって取り込まれた画像は、手術チームのメンバー114に関連する表示装置(例えば、助手114-3によって使用されるユーザ装置)に表示され得、こうして、手術チームのメンバー114は、手術器具が第4のマニピュレータアーム118-4に適切に接続されているかどうかを迅速に判断することができる。
いくつかの例では、複数の手術システム構成要素が特定のイベントに関連付けられ得る。例えば、図10は、カメラ制御システム300によって維持されるか、又は他にアクセスされ得る例示的なイベント位置の表1000を示している。列1002に示されるように、表1000は、手術セッション中に発生し得る様々なイベントを表す複数のエントリを含み得る。列1004に示されるように、表1000は、各イベントに関連する主要な構成要素をリスト化し得る。列1006に示されるように、表1000は、各イベントに関連する二次構成要素をリスト化し得る。カメラ制御システム300は、イベント位置を、検出したイベントに関連する一次構成要素の位置として決定することができる。次に、カメラ制御システム300は、位置切替えイベントに応答して、イベント位置を二次構成要素の位置に切り替えることができる。
いくつかの例では、位置切替えイベントは、一次構成要素の特定のビューが最初に表示されてからの所定の期間(例えば、20秒)の経過を含み得る。いくつかの例では、ユーザは、所定の期間の継続期間を指定することができる。
あるいはまた、位置切替えイベントは、カメラ制御システム300による、二次位置に切り替えるようにカメラ制御システム300に指示するユーザ入力の受信であり得る。ユーザ入力は、コンピュータ支援手術システムに関連する任意の適切なコンピューティング装置(例えば、ユーザ装置502、遠隔コンピューティングシステム402、又はユーザ制御システム104、補助システム106、又はカメラシステム108に含まれるコンピューティング装置)を介して受信され得る。
例示すると、カメラ制御システム300が、マニピュレータアーム118-3に結合した手術器具が外科医114-1によって操作されたときに動かない(表1000で「MA3_NoMovement」とラベル付けされる)ことを検出した場合に、カメラ制御システム300は、検出したイベントの主要な位置が、マニピュレータアーム118-3の位置である(表1000で「MA3」とラベル付けされる)と決定することができる。この判定に基づいて、カメラ制御システム300は、手術セッションデータ(例えば、運動学的データ)を利用して、手術施設内で、マニピュレータアーム118-3の位置を決定することができる。次に、カメラ制御システム300は、補助カメラシステム108に、マニピュレータアーム118-3の特定のビューを取り込むべくカメラ122のビューを調整するように指示することができる。カメラ122によって取り込まれた画像が、ユーザ制御システムに関連するディスプレイに(例えば、タッチスクリーン又はユーザ装置502に)表示されるときに、外科医は、手術器具がマニピュレータアーム118-3に適切に結合されていないかどうか、又はマニピュレータアーム118-3が別のマニピュレータアームと衝突しているかどうかを迅速に判断することができる。次に、外科医は、ユーザ制御システム104又はユーザ装置502を介して(例えば、ユーザ制御システム104のタッチパッド又はフットペダルを介して)入力を提供して、二次位置を見ることができる。このユーザ入力に応答して、カメラ制御システム300は、補助カメラシステム108に、補助カート132-1の特定のビューを取り込むべくカメラ122のビューを調整するように指示することができる。これにより、外科医は、手術器具のケーブルが補助カート132-1に適切に接続されているかどうかを判断することができる。
いくつかの例では、ユーザは、イベント位置のビューを取り込むべくカメラのビューが調整された後に、カメラのビューを手動で調整することができる場合がある。手動調整には、位置調整及び/又は向き調整、並びに光学調整(ズーム及びフォーカス調整等)が含まれ得る。
いくつかの例では、カメラ制御システム300は、コンピュータ支援手術セッションに関連する表示装置による表示のために、カメラによって取り込まれた画像に加えてコンテキスト情報を提供するように構成され得る。例えば、カメラ制御システム300は、識別した手術セッションイベント及び/又は識別したイベント位置に関連するコンテキストコンテンツを識別し得る。コンテキストコンテンツは、例えば、表900又は表1000に格納され得る。コンテキストコンテンツは、例えば、カメラによって取り込まれた画像とともに表示されるメッセージを含み得る。
例示すると、カメラ制御システム300は、手術セッションデータ、ユーザプロファイルデータ、及び/又はユーザ入力データに基づいて、外科的処置がステープル留め段階に進んだと判定することができる。結果として、カメラ制御システム300は、マニピュレータアームの特定のビューを取り込むべくカメラの自動調整を指示し、表示装置に、マニピュレータアームの画像とともに、「この手術器具をステープラー器具と交換してください」等のメッセージを表示するように指示することができる。
追加的又は代替的に、カメラ制御システム300は、照明装置(例えば、タスクライト、レーザーライト等)に、イベント位置を照明するように指示等することによって、表示装置以外の方法でコンテキスト情報を提供するように構成され得る。例えば、カメラ制御システム300は、コンピュータ支援手術セッションにおいてレーザー装置に、手術器具を結合すべきマニピュレータアームを照明する調整を指示することができる。照明装置の調整は、本明細書に記載のカメラの調整と同様の方法で達成することができる。
図11は、例示的なカメラ制御方法1100を示している。図11は一実施形態による例示的な動作を示すが、他の実施形態は、図11に示されるステップのいずれかを省略、追加、並べ替え、結合、及び/又は修正してもよい。図11に示される1つ又は複数の動作は、カメラ制御システム300、そこに含まれる任意の構成要素、及び/又はその任意の実施多様によって実行され得る。
ステップ1102において、カメラ制御システムは、手術セッションに関する手術セッションデータにアクセスする。手術セッションは、コンピュータ支援手術システムによる1つ又は複数の動作の実行を含む。ステップ1102は、本明細書に記載されている方法のいずれかで実行することができる。
ステップ1104において、カメラ制御システムは、手術セッションデータに基づいて、手術セッションに関連するイベントを識別する。ステップ1104は、本明細書に記載されている方法のいずれかで実行することができる。
ステップ1106において、カメラ制御システムは、手術セッションデータに基づいて、イベントに関連する位置を決定する。ステップ1106は、本明細書に記載されている方法のいずれかで実行することができる。
ステップ1108において、カメラ制御システムは、イベント位置の決定に応答して、イベントに関連する位置の特定のビューを取り込むべくカメラのビューの自動調整を指示する。ステップ1108は、本明細書に記載されている方法のいずれかで実行することができる。
いくつかの例では、コンピュータ可読命令を格納する非一時的なコンピュータ可読媒体が、本明細書に記載の原理により提供され得る。命令は、コンピューティング装置のプロセッサによって実行されると、プロセッサ及び/又はコンピューティング装置に、本明細書に記載の1つ又は複数の操作(手術)を含む1つ又は複数の動作を実行するように指示することができる。そのような命令は、様々な既知のコンピュータ可読媒体のいずれかを使用して保存及び/又は送信することができる。
本明細書で言及される非一時的なコンピュータ可読媒体は、コンピューティング装置によって(例えば、コンピューティング装置のプロセッサによって)読み取られ及び/又は実行され得るデータ(例えば、命令)を提供する際に関与する任意の非一時的な記憶媒体を含み得る。例えば、非一時的なコンピュータ可読媒体は、不揮発性記憶媒体及び/又は揮発性記憶媒体の任意の組合せを含み得るが、これらに限定されない。例示的な不揮発性記憶媒体には、読取り専用メモリ、フラッシュメモリ、ソリッドステートドライブ、磁気記憶装置(例えば、ハードディスク、フロッピーディスク、磁気テープ等)、強誘電体ランダムアクセスメモリ(RAM)、及び光ディスク(例えば、コンパクトディスク、デジタルビデオディスク、Blu-ray(登録商標)ディスク等)が含まれるが、これらに限定されない。例示的な揮発性記憶媒体には、RAM(例えば、ダイナミックRAM)が含まれるが、これらに限定されない。
図12は、本明細書に記載の1つ又は複数のプロセスを実行するように特別に構成され得る例示的なコンピューティング装置1200を示している。図12に示されるように、コンピューティング装置1200は、通信インフラストラクチャ1210を介して互いに通信可能に接続された通信インターフェイス1202、プロセッサ1204、記憶装置1206、及び入力/出力(I/O)モジュール1208を含み得る。例示的なコンピューティング装置1200が図12に示されているが、図12に示される構成要素は、限定することを意図したものではない。追加又は代替の構成要素を他の実施形態で使用してもよい。ここで、図12に示されるコンピューティング装置1200の構成要素は、さらに詳細に説明するように構成される。
通信インターフェイス1202は、1つ又は複数のコンピューティング装置と通信するように構成され得る。通信インターフェイス1202の例には、有線ネットワークインターフェイス(ネットワークインターフェイスカード等)、ワイヤレスネットワークインターフェイス(ワイヤレスネットワークインターフェイスカード等)、モデム、オーディオ/ビデオ接続、及び他の任意の適切なインターフェイスが含まれるが、これらに限定されない。
プロセッサ1204は、一般に、データを処理し、及び/又は本明細書に記載の1つ又は複数の命令、プロセス、及び/又は動作の実行を解釈、実行、及び/又は指示することができる任意のタイプ又は形式の処理ユニットを表す。プロセッサ1204は、記憶装置1206に格納されたコンピュータ実行可能命令1212(例えば、アプリケーション、ソフトウェア、コード、及び/又は他の実行可能データインスタンス)を実行することによって動作を行うことができる。
記憶装置1206は、1つ又は複数のデータ記憶媒体、装置、又は構成を含み得、データ記憶媒体及び/又は装置の任意のタイプ、形式、及び組合せを使用し得る。例えば、記憶装置1206は、本明細書に記載の不揮発性媒体及び/又は揮発性媒体の任意の組合せを含み得るが、これらに限定されない。本明細書に記載のデータを含む電子データは、記憶装置1206に一時的及び/又は恒久的に格納され得る。例えば、本明細書に記載の動作のいずれかを実行するようにプロセッサ1204に指示するように構成されたコンピュータ実行可能命令1212を表すデータは、記憶装置1206内に格納され得る。いくつかの例では、データは、記憶装置1206内に存在する1つ又は複数のデータベースに配置され得る。
I/Oモジュール1208は、ユーザ入力を受信し、ユーザ出力を提供するように構成された1つ又は複数のI/Oモジュールを含み得る。1つ又は複数のI/Oモジュールを使用して、単一の仮想エクスペリエンスの入力を受け取ることができる。I/Oモジュール1208は、入力及び出力機能をサポートする任意のハードウェア、ファームウェア、ソフトウェア、又はそれらの組合せを含み得る。例えば、I/Oモジュール1208は、キーボード又はキーパッド、タッチスクリーン構成要素(例えば、タッチスクリーンディスプレイ)、受信機(例えば、RF又は赤外線受信機)、動きセンサ、及び/又は1つ又は複数の入力ボタンを含むがこれらに限定されない、ユーザ入力を取り込むためにハードウェア及び/又はソフトウェアを含み得る。
I/Oモジュール1208は、グラフィックエンジン、ディスプレイ(例えば、表示画面)、1つ又は複数の出力ドライバー(例えば、ディスプレイドライバー)、1つ又は複数のオーディオスピーカー、及び1つ又は複数のオーディオドライバーを含むがこれらに限定されない、ユーザに出力を提示するための1つ又は複数の装置を含み得る。特定の実施形態では、I/Oモジュール1208は、ユーザに提示するためにグラフィックデータをディスプレイに提供するように構成される。グラフィカルデータは、特定の実施態様に役立ち得る1つ又は複数のグラフィカルユーザインターフェイス及び/又は他の任意のグラフィカルコンテンツを表すことができる。
いくつかの例では、本明細書に記載のシステム、コンピューティング装置、及び/又は他の構成要素のいずれかは、コンピューティング装置1200によって実装され得る。例えば、処理装置304はプロセッサ1204によって実装され得、記憶装置302は記憶装置1206によって実装され得る。
前述の説明において、様々な例示的な実施形態について、添付の図面を参照して説明してきた。しかしながら、以下の特許請求の範囲に記載される本発明の範囲から逸脱することなく、その例示的な実施形態に対して様々な修正及び変更を行うことができ、追加の実施形態を実施し得ることは明らかであろう。例えば、本明細書に記載の一実施形態の特定の特徴は、本明細書に記載の別の実施形態の特徴と組み合わせるか、又はその特徴と取り替えることができる。従って、説明及び図面は、限定的な意味ではなく例示的な意味で見なすべきである。

Claims (20)

  1. システムであって、当該システムは、
    命令を格納するメモリと、
    該メモリに通信可能に結合されるプロセッサと、を含み、
    該プロセッサは、前記命令を実行して、
    手術セッションに関する手術セッションデータにアクセスすることであって、前記手術セッションはコンピュータ支援手術システムによる1つ又は複数の動作の実行を含む、アクセスすること、
    前記手術セッションデータに基づいて、前記手術セッションに関連するイベントを識別すること、
    前記手術セッションデータに基づいて、前記イベントに関連する位置を決定すること、及び
    前記イベントの前記位置の前記決定に応答して、前記イベントに関連する前記位置の特定のビューを取り込むべくカメラのビューの自動調整を指示すること、を行うように構成される、
    システム。
  2. 前記イベントに関連する前記位置の前記決定は、
    前記イベントの前記識別に応答して、前記コンピュータ支援手術システムの前記イベントに関連する構成要素を識別すること、及び
    前記イベントに関連する前記構成要素の位置を決定すること、を含む、請求項1に記載のシステム。
  3. 前記イベントに関連する前記構成要素の前記位置の前記決定は、前記イベントに関連する前記構成要素の位置を表す運動学的データに基づく、請求項2に記載のシステム。
  4. 前記イベントに関連する前記構成要素の前記位置の前記決定は、前記イベントに関連する前記構成要素に設けられるマーカ及び前記イベントに関連する前記構成要素から発せられる信号のうちの少なくとも1つに基づく、請求項2に記載のシステム。
  5. 前記カメラの前記ビューの前記自動調整の前記指示は、前記イベントに関連する前記位置の前記特定のビューを取り込むべく、前記カメラの向き及び前記カメラの位置のうちの少なくとも1つの調整を指示することを含む、請求項1に記載のシステム。
  6. 前記プロセッサは、前記命令を実行して、前記カメラの画像及び前記コンピュータ支援手術システムによって追跡される3次元(3D)位置データを共通の3D空間に位置合わせするようにさらに構成される、請求項1に記載のシステム。
  7. 前記カメラは、前記コンピュータ支援手術システムの構成要素に結合される、請求項1に記載のシステム。
  8. 前記手術セッションデータは、前記手術セッション中に前記コンピュータ支援手術システムによって実行される前記1つ又は複数の動作を表すデータを含む、請求項1に記載のシステム。
  9. 前記手術セッションデータは、前記コンピュータ支援手術システムの構成要素の位置、姿勢、及び向きのうちの少なくとも1つを表す運動学的データを含む、請求項1に記載のシステム。
  10. 前記手術セッションデータは、前記コンピュータ支援手術システムのマニピュレータアームに結合した前記カメラ及び撮像装置のうちの少なくとも1つによって取り込まれた1つ又は複数の画像を表す画像データを含む、請求項1に記載のシステム。
  11. 前記手術セッションデータは、前記手術セッション中に前記コンピュータ支援手術システムと通信可能にペアにされたユーザ装置を介して前記手術セッション中に受信したユーザ入力に基づいて生成されたデータを含む、請求項1に記載のシステム。
  12. 前記ユーザ入力は、前記手術セッション中に前記コンピュータ支援手術システム又は手術チームのメンバーによって実行されるタスクを指定する、請求項11に記載のシステム。
  13. 前記プロセッサは、前記命令を実行して、
    前記手術セッションに先行する1つ又は複数の追加の手術セッション中に生成された履歴的な手術セッションデータ、及び
    前記コンピュータ支援手術システム以外の1つ又は複数のコンピュータ支援手術システムによって実行された動作に基づいて生成されたグローバルな手術セッションデータの少なくとも1つにアクセスすること、
    前記履歴的な手術セッションデータ及び前記グローバルな手術セッションデータの少なくとも1つを、少なくとも1つの物理的コンピューティング装置によって実行される機械学習モデルに適用すること、を行うようにさらに構成され、
    前記機械学習モデルは、前記履歴的な手術セッションデータ及び前記グローバルな手術セッションデータのうちの前記少なくとも1つを使用して、手術システム動作のパターンを複数のイベントと関連付ける、請求項1に記載のシステム。
  14. 方法であって、当該方法は、
    カメラ制御システムが、手術セッションに関する手術セッションデータにアクセスするステップであって、前記手術セッションはコンピュータ支援手術システムによる1つ又は複数の動作の実行を含む、アクセスするステップと、
    前記カメラ制御システムが、前記手術セッションデータに基づいて、前記手術セッションに関連するイベントを識別するステップと、
    前記カメラ制御システムが、前記手術セッションデータに基づいて、前記イベントに関連する位置を決定するステップと、
    前記カメラ制御システムが、前記イベントの前記位置の前記決定に応答して、前記イベントに関連する前記位置の特定のビューを取り込むべくカメラのビューの自動調整を指示するステップと、を含む、
    方法。
  15. 前記イベントに関連する前記位置を前記決定するステップは、
    前記イベントの前記識別に応答して、前記コンピュータ支援手術システムの前記イベントに関連する構成要素を識別するステップと、
    前記イベントに関連する前記構成要素の位置を決定するステップと、を含む、請求項14に記載の方法。
  16. 前記イベントに関連する前記構成要素の前記位置を前記決定するステップは、前記イベントに関連する前記構成要素の位置を表す運動学的データに基づく、請求項15に記載の方法。
  17. 前記イベントに関連する前記構成要素の前記位置を前記決定するステップは、前記イベントに関連する前記構成要素に設けられるマーカ及び前記イベントに関連する前記構成要素から発せられる信号のうちの少なくとも1つに基づく、請求項15に記載の方法。
  18. 前記カメラの前記ビューの前記自動調整を前記指示するステップは、前記イベントに関連する前記位置の前記特定のビューを取り込むべく、前記カメラの向き及び前記カメラの位置の少なくとも1つの調整を指示するステップを含む、請求項14に記載の方法。
  19. 前記カメラ制御システムが、前記カメラの画像及び前記コンピュータ支援手術システムによって追跡される3次元(3D)位置データを共通の3D空間に位置合わせするステップをさらに含む、請求項14に記載の方法。
  20. システムであって、当該システムは、
    命令を格納するメモリと、
    該メモリに通信可能に結合されるプロセッサと、を含み、
    該プロセッサは、前記命令を実行して、
    手術セッション中に、コンピュータ支援手術システムと通信可能にペアにされたユーザ装置から、前記手術セッションのワークフロー・セグメンテーションを示すユーザ入力を受信すること、
    前記ユーザ入力に少なくとも部分的に基づいて、前記手術セッションに関連するイベントを識別すること、
    前記手術セッションに関する手術セッションデータに基づいて、前記識別したイベントに関連する位置を決定すること、及び
    前記イベントの前記位置の前記決定に応答して、前記イベントに関連する前記位置の特定のビューを取り込むべくカメラのビューの自動調整を指示すること、行うように構成される、
    システム。
JP2021544668A 2019-01-31 2020-01-28 コンピュータ支援手術システムのためのカメラ制御システム及び方法 Active JP7448551B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024029460A JP2024051132A (ja) 2019-01-31 2024-02-29 コンピュータ支援手術システムのためのカメラ制御システム及び方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962799729P 2019-01-31 2019-01-31
US62/799,729 2019-01-31
PCT/US2020/015396 WO2020159978A1 (en) 2019-01-31 2020-01-28 Camera control systems and methods for a computer-assisted surgical system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024029460A Division JP2024051132A (ja) 2019-01-31 2024-02-29 コンピュータ支援手術システムのためのカメラ制御システム及び方法

Publications (2)

Publication Number Publication Date
JP2022519558A true JP2022519558A (ja) 2022-03-24
JP7448551B2 JP7448551B2 (ja) 2024-03-12

Family

ID=69780294

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021544668A Active JP7448551B2 (ja) 2019-01-31 2020-01-28 コンピュータ支援手術システムのためのカメラ制御システム及び方法
JP2024029460A Pending JP2024051132A (ja) 2019-01-31 2024-02-29 コンピュータ支援手術システムのためのカメラ制御システム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024029460A Pending JP2024051132A (ja) 2019-01-31 2024-02-29 コンピュータ支援手術システムのためのカメラ制御システム及び方法

Country Status (5)

Country Link
US (1) US20220096163A1 (ja)
EP (1) EP3918609A1 (ja)
JP (2) JP7448551B2 (ja)
CN (1) CN113366583A (ja)
WO (1) WO2020159978A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230026893A1 (en) * 2021-07-22 2023-01-26 Cilag Gmbh International Intercommunication and cooperative operation of surgical devices
KR102627401B1 (ko) * 2021-08-19 2024-01-23 한국로봇융합연구원 영상정보기반 복강경 로봇 인공지능 수술 가이드 시스템
DE102022118330A1 (de) 2022-07-21 2024-02-01 Karl Storz Se & Co. Kg System mit einem medizinischen Operationsinstrument, einer Datenerfassungsvorrichtung und einer Datenverarbeitungseinrichtung

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2272040A1 (fr) * 1999-05-13 2000-11-13 Ecole Polytechnique Systeme de camera d'observation robotisee pour utilisation en salle d'operation
US7557710B2 (en) * 2006-03-17 2009-07-07 Med Wave, Llc System for tracking surgical items in an operating room environment
EP2636034A4 (en) * 2010-11-04 2015-07-22 Univ Johns Hopkins SYSTEM AND METHOD FOR ASSESSING OR ENHANCING CAPACITIES IN NON-INVASIVE SURGERY
CA2825238A1 (en) * 2011-01-28 2012-08-02 Pierre DE BOUCHERVILLE Monitoring system for controlling the pan/tilt of a camera used in a surgery room
JP2012223363A (ja) 2011-04-20 2012-11-15 Tokyo Institute Of Technology 手術用撮像システム及び手術用ロボット
WO2016149794A1 (en) * 2015-03-26 2016-09-29 Surgical Safety Technologies Inc. Operating room black-box device, system, method and computer readable medium
CN107438413B (zh) 2016-03-30 2019-12-06 索尼公司 控制装置、控制方法、以及用于手术的显微镜装置
US10695134B2 (en) * 2016-08-25 2020-06-30 Verily Life Sciences Llc Motion execution of a robotic system
US9788907B1 (en) * 2017-02-28 2017-10-17 Kinosis Ltd. Automated provision of real-time custom procedural surgical guidance
US10806532B2 (en) * 2017-05-24 2020-10-20 KindHeart, Inc. Surgical simulation system using force sensing and optical tracking and robotic surgery system

Also Published As

Publication number Publication date
US20220096163A1 (en) 2022-03-31
JP2024051132A (ja) 2024-04-10
CN113366583A (zh) 2021-09-07
WO2020159978A1 (en) 2020-08-06
EP3918609A1 (en) 2021-12-08
JP7448551B2 (ja) 2024-03-12

Similar Documents

Publication Publication Date Title
US11737841B2 (en) Configuring surgical system with surgical procedures atlas
JP7440262B2 (ja) 患者健康記録ベース器具制御を備える遠隔操作手術システム
US10798339B2 (en) Telepresence management
JP4296278B2 (ja) 医療用コクピットシステム
JP2024014885A (ja) 走査ベースの位置付けを伴う遠隔操作手術システム
KR20180068336A (ko) 훈련 또는 보조 기능들을 갖는 수술 시스템
US20210205027A1 (en) Context-awareness systems and methods for a computer-assisted surgical system
JP2024051132A (ja) コンピュータ支援手術システムのためのカメラ制御システム及び方法
CN109996509B (zh) 带有基于外科医生技能水平的器械控制的远程操作手术系统
US11969218B2 (en) Augmented reality surgery set-up for robotic surgical procedures
US20220000558A1 (en) Augmented reality surgery set-up for robotic surgical procedures
WO2023114348A1 (en) Methods and systems for coordinating content presentation for computer-assisted systems
JP2023551531A (ja) 医療処置の生成及び評価のためのシステム及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240229

R150 Certificate of patent or registration of utility model

Ref document number: 7448551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150