JP2020520004A - 手術室デバイス、方法、及びシステム - Google Patents

手術室デバイス、方法、及びシステム Download PDF

Info

Publication number
JP2020520004A
JP2020520004A JP2019561216A JP2019561216A JP2020520004A JP 2020520004 A JP2020520004 A JP 2020520004A JP 2019561216 A JP2019561216 A JP 2019561216A JP 2019561216 A JP2019561216 A JP 2019561216A JP 2020520004 A JP2020520004 A JP 2020520004A
Authority
JP
Japan
Prior art keywords
processing unit
treatment
patient
view
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019561216A
Other languages
English (en)
Other versions
JP2020520004A5 (ja
JP7257331B2 (ja
Inventor
ニラジ ラウニヤール
ニラジ ラウニヤール
ティモシー ハラー
ティモシー ハラー
ピーター ジェイ ペレイラ
ピーター ジェイ ペレイラ
エリック ウォン
エリック ウォン
ウィリアム スタンホープ
ウィリアム スタンホープ
ブライアン マクリーン
ブライアン マクリーン
ブランドン クラフト
ブランドン クラフト
スチュアート ペリー
スチュアート ペリー
ウィリアム ガストロック
ウィリアム ガストロック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boston Scientific Scimed Inc
Original Assignee
Boston Scientific Scimed Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boston Scientific Scimed Inc filed Critical Boston Scientific Scimed Inc
Publication of JP2020520004A publication Critical patent/JP2020520004A/ja
Publication of JP2020520004A5 publication Critical patent/JP2020520004A5/ja
Application granted granted Critical
Publication of JP7257331B2 publication Critical patent/JP7257331B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00199Electrical control of surgical instruments with a console, e.g. a control panel with a display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00221Electrical control of surgical instruments with wireless transmission of data, e.g. by infrared radiation or radiowaves

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Urology & Nephrology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Physics & Mathematics (AREA)
  • Laser Surgery Devices (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Surgical Instruments (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

手術室デバイス、方法、及びシステムを開示する。一方法は、患者に関連付けられたデータを処理ユニットで受信する段階と、処理ユニットを用いて患者に対する処置を決定する段階と、処理ユニットを用いて(i)処理ユニットと通信しており、かつ(ii)処置を実行するように作動可能である1又は2以上の処置デバイスに関連付けられた制御設定値を識別する段階と、処理ユニットを用いて制御設定値とデータの少なくとも1つのビューとを含む表示を発生させる段階とを含む。関連のデバイス及びシステムも開示する。【選択図】図1

Description

本発明の開示の態様は、一般的に手術室デバイス、方法、及びシステムに関する。一部の態様は、泌尿器科手順に適している。
典型的な泌尿器科手順では、病状を診断し、処置(例えば、腎臓結石管理、BPH処置、前立腺切除、腫瘍切除、子宮筋腫管理のような)を実施するために多くの処置デバイスが使用される場合がある。各処置デバイス(例えば、流体ソース又はレーザソース)は、特定の入力(例えば、流量又は電力レベル)に頼る場合がある。これらの入力は、典型的には、手術室の外に位置付けられたソースモジュール(例えば、流体ソース又はレーザソース)に取り付けられたキーパッドのようなデバイス固有の制御器を用いて提供される。
ある一定の処置を実行するのに、外科医は、これらの処置デバイスの各々を個々に及び/又は組合せで構成して作動させることを要求される場合がある。例えば、単一泌尿器科手順は、独自のディスプレイ及び制御器を各々が有する複数のスコープと、独自のディスプレイ及び制御器を各々が有する複数の処置デバイスと、独自のディスプレイ及び制御器を各々が有する複数の患者モニタデバイスとを使用する場合があり、その全ては、典型的な手順の様々なステージ中に連係させなければならない。手順の非効率性は、各ステージでのこれらのデバイス間の通信の欠如に帰する可能性があり、手術時間及びコストを増大させる。例えば、外科医は、多くのデバイスの熟知を必要とする各デバイスを別々に作動させること、及び/又はコミュニケーション負荷を増大させる助手を利用してデバイスのうちの1又は2以上を作動させることのいずれかが要求される場合がある。手順後の管理効率も、例えば、各デバイスの使用を別々に記録することをスタッフに要求することによって低減する可能性があり、労力及びコストを更に増大させる。
本明細書に説明する手術室デバイス、方法、及びシステムの態様は、これらの問題及び/又は当業技術の他の欠陥に対処することができる。
1つの開示する態様は方法である。例えば、本方法は、患者に関連付けられたデータを処理ユニットで受信する段階と、処理ユニットを用いて患者に対する処置を決定する段階と、処理ユニットを用いて、(i)処理ユニットと通信しており、かつ(ii)処置を実行するように作動可能である1又は2以上の処置デバイスに関連付けられた制御設定値を識別する段階と、処理ユニットを用いて、制御設定値とデータの少なくとも1つのビューとを含む表示を発生させる段階とを含むことができる。ここで例示的方法の多くの態様を説明する。
一部の態様により、データは、患者の一部分の3次元モデルを含むことができ、受信する段階は、データソースから3次元モデルを処理ユニットで受信する段階と、処理ユニットを用いて3次元モデルから少なくとも1つのビューを選択する段階とを含むことができる。データは、患者の画像を含む場合があり、受信する段階は、データソースから画像を処理ユニットで受信する段階、及び/又は処理ユニットを用いて画像から患者の3次元モデルを発生させる段階を含むことができる。決定する段階は、処理ユニットを用いて患者に対する可能な処置を識別する段階と、処理ユニットを用いて、1又は2以上の処置デバイスが可能な処置を実行するように作動可能であるか否かを決定する段階と、処理ユニットを用いて1又は2以上の処置デバイスによって実行可能な可能な処置のリストを含むように表示を発生させる段階とを更に含むことができる。
一部の態様では、識別する段階は、処理ユニットを用いて1又は2以上の処置デバイスから制御設定値を取得する段階を含むことができる。例えば、識別する段階は、1又は2以上の処置デバイスからデバイス識別子を処理ユニットで受信する段階と、デバイス識別子をデータソースに処理ユニットを用いて送出する段階と、データソースから制御設定値を処理ユニットで受信する段階とを含むことができる。1又は2以上の処置デバイスは、処理ユニットと通信している第1の処置デバイスと、処理ユニットと通信している第2の処置デバイスとを含むことができる。従って、識別する段階は、第1の処置デバイスに対する第1の制御設定値と第2の処置デバイスに対する第2の制御設定値とを処理ユニットで受信する段階と、処理ユニットを用いて、処置を実行するために第1の処置デバイスと第2の処置デバイスとを連係方式で作動させるための1又は2以上のコンピュータアプリケーションを識別する段階とを更に含むことができる。例えば、1又は2以上のコンピュータアプリケーションを識別する段階は、第1及び第2の制御設定値をデータソースに処理ユニットを用いて送出する段階と、第1及び第2のデバイスを同時に作動させるように構成された1又は2以上のアプリケーションをデータソースから受信する段階とを含むことができる。
少なくとも1つのビューは、第2のビューとは異なる第1のビューを含むことができ、発生させる段階は、1又は2以上の処置デバイスの遠位端を患者に位置決めする段階と、処理ユニットを用いて第1及び第2のビュー内でこの遠位端を位置付ける段階とを含むことができる。例えば、この処置の遠位端は、ロケータビーコンを含むことができ、処理ユニットは、第1及び第2のビュー内でロケータビーコンを識別するように構成された追跡モジュールを含むことができる。データは、患者の内部面の画像を含むことができ、第1のビューは、これらの内部面を含むことができ、本方法は、処理ユニットを用いて、患者の第1のビューに描かれた内部面の上にグリッドを重ねる段階と、グリッドによって定められた少なくとも1つの区域を処理ユニットを用いてタグ付けする段階と、患者の第2のビュー内でこの少なくとも1つの区域を処理ユニットを用いて位置付ける段階とを含むことができる。
一部の態様により、本方法は、処理ユニットを用いて、処理ユニットと通信している入力デバイスから入力を受信する段階と、この入力及び制御設定値に従って処置デバイスを処理ユニットを用いて作動させる段階とを含むことができ、この入力は、聴覚信号、触覚信号、及び視覚信号のうちの少なくとも1つを含むユーザ発生信号である。本方法は、患者内の物体を処理ユニットを用いて識別する段階と、少なくとも1つのビュー内でこの物体を処理ユニットを用いて位置付ける段階とを更に含むことができる。発生させる段階は、処理ユニットを用いて、少なくとも1つのセンサを用いて物体の特性を決定する段階と、この特性に基づいて入力又は制御設定値を処理ユニットを用いて修正する段階とを更に含むことができる。これに加えて、本方法は、制御設定値及び入力を含む1又は2以上の報告を処理ユニットを用いて発生させる段階と、1又は2以上の報告を処理ユニットを用いて出力する段階とを更に含むことができる。
別の開示する態様は方法である。例えば、本方法は、処置デバイスに対する制御設定値を含む表示と、患者に関連付けられたデータの少なくとも1つのビューとを処理ユニットを用いて発生させる段階と、(i)処置部位、(ii)処置部位への経路、及び(iii)経路上の処置デバイスの場所の描写を少なくとも1つのビューの上に処理ユニットを用いて重ねる段階と、表示に応答して処置デバイスを経路に沿って移動し、かつ処置デバイスの場所が処置部位に到達するまでこれらの移動に応答して表示を処理ユニットを用いて継続的に更新する段階と、制御設定値に応答して入力を入力デバイスから処理ユニットを用いて取得する段階と、この入力と制御設定値とに従って処置部位に処置エネルギを印加するように処置デバイスを処理ユニットを用いて作動させる段階とを含むことができる。ここで例示的方法の多くの態様を説明する。
一部の態様により、入力は、聴覚信号、触覚信号、及び視覚信号のうちの少なくとも1つを含むユーザ発生信号を含むことができ、本方法は、ユーザ発生信号を制御信号に処理ユニットを用いて変換する段階と、この制御信号を処置デバイスに処理ユニットを用いて出力する段階とを更に含むことができる。本方法は、処理ユニットを用いて、1又は2以上のセンサを用いて物体の特性又は処置エネルギを決定する段階と、処理ユニットを用いて、決定された特性に基づいて制御信号を修正する段階とを更に含むことができる。例えば、本方法は、処理ユニットを用いて、1又は2以上のセンサとの併用に向けて構成されたコンピュータアプリケーションを取得する段階と、処理ユニットを用いてコンピュータアプリケーション及び1又は2以上のセンサの特性を決定する段階とを含むことができる。物体は、1又は2以上の結石を含む場合があり、特性は、1又は2以上の結石に関連付けられた結石負荷、結石サイズ、又は結石のタイプの尺度を含むことができ、コンピュータアプリケーションは、この尺度に基づいて制御信号を修正するように構成することができる。特性は、1又は2以上の結石の組成を含むことができ、コンピュータアプリケーションは、この組成に基づいて制御信号を修正するように構成することができる。一部の態様では、処置エネルギはレーザエネルギを含むことができ、特性は、レーザエネルギの尺度を含むことができ、コンピュータアプリケーションは、レーザエネルギの尺度に基づいて制御信号を修正するように構成することができる。
別に開示する態様はシステムである。例えば、システムは、1又は2以上の処置デバイスと通信している処理ユニットと、患者に関連付けられたデータの少なくとも1つのビュー及び1又は2以上の処置デバイスに対する制御設定値を含むように処理ユニットを用いて発生されたディスプレイと、制御設定値に応答して入力を受信し、かつ1又は2以上の処置デバイスを起動するようにディスプレイと共に作動可能な入力デバイスとを含むことができる。ここで例示的システムの多くの態様を説明する。
一部の態様により、処理ユニットは、データソースからデータを取得し、かつ処置デバイス又はデータソースから制御設定値を取得するように構成することができる。データは、患者の一部分の3次元モデルを含むことができ、処理ユニットは、この3次元モデルに基づいて少なくとも1つのビューを発生させるように構成することができる。例えば、データは患者の画像を含むことができ、処理ユニットは、画像から3次元モデルを発生させるように構成されたコンピュータアプリケーションをデータソースから取得し、及び/又はこのアプリケーションによって3次元モデルを発生させるように構成することができる。
処理ユニットは、1又は2以上の処置デバイスに関連付けられた機能を識別し、識別された機能に基づいてコンピュータアプリケーションをデータソースから取得し、かつこのコンピュータアプリケーションによって制御設定値を発生させるように構成することができる。1又は2以上の処置デバイスは、第1の処置デバイスと第2の処置デバイスを含むことができ、制御設定値は、処置を実行するために第1の処置デバイスと第2の処置デバイスを連係方式で作動させるための少なくとも1つのオプションを含むことができる。例えば、第1の処置デバイスは、レーザソースとすることができ、第2の処置デバイスは、流体ソースとすることができ、少なくとも1つのオプションは、レーザソースと流体ソースとを予め決められたシーケンスに従って作動させるように構成することができる。
別に開示する態様は、入力デバイスである。例えば、処置デバイスは、ハンドルを含むことができ、入力デバイスは、ハンドル上に装着されて少なくとも1つのビューを用いて作動可能なディスプレイアクチュエータを含むことができる。処置デバイスは、スコープとすることができ、ハンドルは、ディスプレイアクチュエータと、スコープのステアリング可能部分を作動させるように構成された1又は2以上のスコープアクチュエータとを含むことができる。入力デバイスは、聴覚信号、触覚信号、及び視覚信号のうちの少なくとも1つを含むユーザ発生信号を受信するように構成することができる。例えば、入力デバイスは、触覚信号を受信するように構成された1又は2以上のボタンを有するディスプレイアクチュエータのようなユーザ発生信号を受信するように構成された1又は2以上のセンサ、又はディスプレイアクチュエータ又はユーザの移動を追跡することによって視覚信号を受信するように構成された移動センサを含むことができる。一態様では、上述したシステムのうちの1つは、表示を面の上に出力するように構成されたプロジェクタを更に含み、入力デバイスは、この面に対するユーザの少なくとも一方の眼球の移動を追跡することによって視覚信号を受信するように構成された眼球移動センサを含むことができる。例えば、面及び/又は眼球移動センサは、表示とセンサとを少なくとも一方の目の視野内に位置決めするために頭部装着式である場合がある。
上述の概要と以下の詳細説明の両方は例示的で説明的なものに過ぎず、下記で主張する本発明を限定するものでもないことは理解される。
添付図面は、本明細書に組み込まれてその一部を構成する。これらの図面は、本明細書の書面説明と共に本発明の開示を解説するのに寄与する本発明の開示の態様を示すものである。各図面は、以下のように本発明の開示による1又は2以上の例示的態様を描いている。
例示的システムの態様を描く図である。 例示的方法の態様を描く図である。 例示的方法の態様を描く図である。 例示的方法の態様を描く図である。 例示的表示の態様を描く図である。 例示的表示の追加の態様を描く図である。 例示的表示の追加の態様を描く図である。 例示的表示の追加の態様を描く図である。 例示的処理ユニットの態様を描く図である。 例示的処置デバイスの態様を描く図である。 例示的入力デバイスの態様を描く図である。 別の例示的制御デバイスの態様を描く図である。
手術室デバイス、方法、及びシステムに関して本発明の開示の態様をここで説明する。一部の態様は、身体内の体腔(例えば、腎臓の腎杯)からの望ましくない物体(例えば、結石)の除去に向けて処置デバイス(例えば、スコープ)を体内の経路又は通路を通して前進させることができる泌尿器科手順に関して説明する。泌尿器科手順のような特定のタイプの手順、スコープのような処置デバイス、結石のような望ましくない物質、又は尿管のような身体区域への言及は便宜的に提供するものであり、本発明の開示を限定するように意図していない。従って、本明細書に説明するデバイス、方法、及びシステムは、医療又は他のあらゆる類似目的で利用することができる。
本発明の開示では、「近位」及び「遠位」という用語、並びにそのそれぞれの頭文字「P」及び「D」は、「平行」及び「横断方向」等と共に相対的態様を説明するのに利用することができる。近位は、体外に近い(又はユーザに近い)位置を意味し、それに対して遠位は、体内に近い(又はユーザから遠い)位置を意味する。要素番号に頭文字「P」又は「D」を添付することにより、近位又は遠位の場所又は方向を示している。本明細書に使用する「細長」という用語は、幅よりも少なくとも2倍長い長さを有する物体のような幅に対して長さが実質的に長いあらゆる物体を意味する。しかし、主張しない限り、これらの用語は、便宜的に提供するものであり、本発明の開示を特定の場所、方向、又は向きに限定するように意図していない。
本明細書に使用する場合に、「含む」、「含んでいる」のような用語又は類似の変形は、非限定的包含を網羅するように意図しており、従って、列記する要素を含むあらゆる態様は、これらの要素又は段階を含むだけではなく、明示的に列記しないか又はこれらの実施形態に内在する要素又は段階を含むことができる。別途説明しない限り、「例示的」という用語は、「理想的」ではなく「例」の意味に使用する。それとは逆に、「構成される」及び「構成されている」という用語は、限定的包含を網羅するように意図しており、列記する要素から構成される態様は、これらの要素のみを含む。本明細書に使用する場合に、「約」、「実質的に」、「近似的に」のような用語又は類似の変形は、説明する値の±5%以内の値範囲を示すことができる。
ハードウエア及びソフトウエアの態様を開示する。従って、一部の態様は、完全にハードウエア、完全にソフトウエア、又はハードウエアとソフトウエアの組合せとすることができる。一部の態様は、コンピュータ使用可能データストレージ媒体又はデータソース上に格納されたコンピュータプログラム製品のようなコンピュータアプリケーションとして説明することができる。そのようなアプリケーションは、データソースと通信している1又は2以上のプロセッサによって実行することができる。ハードディスク、CD−ROM、光学ストレージデバイス、又は他の電子、磁気、光、電磁、赤外線、又は半導体のシステム、装置、デバイス、又は類似の伝播媒体を含むあらゆるデータソースを利用することができる。
説明するアプリケーションを実行するために、本明細書に説明する組合せを含むデータの処理及び格納のためのローカル又はリモートのリソースのあらゆる組合せを使用することができる。処理パワーの有利な進歩をもたらすために、これらのリソースの相対的な場所を最適化することができる。例えば、1又は2以上のプロセッサを滅菌野の背後のような手術室にローカルなものとすることができ、データソースを何マイルも距離を置いて位置付けられたサーバファームのような手術室からリモートなものとすることができる。従って、説明する一部の態様は、泌尿器科手順中などで大量のデータをデータソースから実時間で取得する時に特に有利である。しかし、主張しない限り、これらの用語は、便宜的に提供するものであり、本発明の開示を特定の場所及び/又は相対性に限定するように意図していない。
一部の態様は、図2A〜図2Cに示す例示的方法段階のような概念図及び/又は流れ図を用いて説明することができる。そのような図は連続描写を含む場合があるが、図2A〜図2Cのものを含む多くの段階を並列に実施する、同時に実施する、又は完全に除外することができる。これらの段階の順序は、再編成することができる。本方法は、最後の段階が実施された時に終了することができるが、本明細書に説明する中間段階、及び/又は技術の手順又は使用の有効性に内因的に関連付けられたいずれかの構成段階を含む追加段階を有する場合もある。説明する方法及び/又は方法段階のうちの一部は、1又は2以上のプロセッサ(例えば、マイクロプロセッサ、マイクロコントローラなど)によって実行可能なコンピュータアプリケーションとして実現することができ、一方、他の方法及び/又は方法段階は、人間のオペレータ又はユーザ(例えば、外科医)によって実行可能な手術法として実現することができる。他の方法及び/又は段階は、これらの組合せとして実現することができる。
ここで本発明の開示の多くの態様を基本システム100に関して説明する。例示的基本システム100を図1に示している。基本システム100は、下記で説明する例示的方法200、300、及び400を含む多くの手術室方法を実施するために使用することができる。図示のように、基本システム100の複数の態様は、ディスプレイ10と、1又は2以上のコンピュータアプリケーションを用いてディスプレイ10を発生させるように構成された処理ユニット50と、ディスプレイ10を作動させるように構成された入力デバイス80とを含むことができる。図1には、手2、マスク3、及び眼鏡4を有するユーザ1(例えば、外科医)も示している。ここで基本システム100の多くの態様を説明し、更に方法200、300、及び400、追加態様システム100、及び入力デバイス80の追加態様の詳細説明を続ける。
ディスプレイ10は、患者に関連付けられたデータの少なくとも1つのビュー、及び1又は2以上の処置デバイスに関連付けられた1又は2以上の制御設定値の少なくとも1つのビューを含むことができる。図1では、例えば、ディスプレイ10は、患者の第1の又はナビゲーションビュー20と、患者の第2の又はマップビュー30と、処置デバイスに対する制御設定値の第3の又は制御ビュー40とを含む。少なくとも1つのビューは、患者に関連付けられたあらゆるデータに基づくとすることができる。例示的データタイプは、(i)1又は2以上の撮像デバイス69によって発生された患者の静止フレーム又はビデオのような画像データと、(ii)1又は2以上のセンサ61によって決定された患者の体内の物体の特性のような知覚データと、(iii)患者の少なくとも一部分に関連付けられたあらゆる画像及び/又はセンサデータに基づく3次元モデルのような幾何学データとを含むことができる。いずれのタイプのデータも、処理ユニット50が実時間で受信する(例えば、ライブビデオフィードにアクセスする)、及び/又はシステム100に対してローカル又はリモートないずれかのデータソースから事前に受信する(例えば、リモートサーバからダウンロードする)ことができる。
ナビゲーションビュー20及びマップビュー30は、同じか又は異なるタイプのデータから発生させることができる。例えば、図4Aに示すように、ナビゲーションビュー20は、患者の蛍光透視画像から発生させることができ、一方、マップビュー30は、患者の3次元モデルの第1のビューから発生させることができる。ディスプレイ10の更に別の例を図4Bに示しており、この場合、ナビゲーションビュー20は、患者を通って延びる経路の実時間ビデオフィードから発生させることができ、マップビュー30は、患者の3次元モデルの第2のビューから発生させることができ、図4Cでは、ナビゲーションビュー20は、この経路に位置付けられた1又は2以上のセンサ61からの出力によって発生させることができ、マップビュー30は、患者の3次元モデルの第3のビューから発生される。データタイプは、少なくとも1つのビューを発生させるためにグループ分け及び/又は層状にすることができる。ディスプレイ10は、様々なビュー、タイプ、グループ分け、及び/又は層の間で切り換えを行うように更に構成することができる。例えば、図4A〜図4Cに示すように、各ナビゲーションビュー20及びマップビュー30は、そのそれぞれのトグルスイッチ23及び33を用いて様々なデータタイプの間で切換可能にすることができる。
制御ビュー40は、処理ユニット50により、いずれかのデバイスに関連付けられたデータを用いて発生させることができる。図4Aに示すように、制御ビュー40は、起動スイッチ42、性能インジケータ44、及びステータスインジケータ46を含めることによって処置デバイス62との併用に向けて構成することができる。例えば、図4Aの制御ビュー40では、1又は2以上の処置デバイス62は、流体ソース(例えば、流体ポンプ又は生理食塩水バッグの上に取り付けられた加圧バッグ)を含むことができ、スイッチ42は、流体ソースを起動することができ、インジケータ44は、1又は2以上のセンサ61を用いて流体の圧力及び温度を継続的にモニタし、ステータスインジケータ46は、流体ソースに関する作動モード(例えば、閉塞)を確認することができる。制御ビュー40は、図1に示す及び/又は本明細書に説明するあらゆるデバイスを制御するように同じく構成することができる。例えば、ビュー40は、いずれかの処置デバイス62を制御する、いずれかのデバイス62を別のデバイスと共に制御する、及び/又は流体、薬剤、真空圧のソースのようなデバイス62に対するあらゆるソース要素68を制御するように構成することができる。本明細書に説明するあらゆるデバイスは、一部の泌尿器科手順での処置デバイスと見なすことができる。
各処置デバイス62は独自の制御設定値を有することができ、制御ビュー40は、これらの制御設定値のうちの1又は2以上の設定の間で切り換えを行うためのトグルスイッチ43を含むことができる。例えば、図4Bでは、1つの処置デバイス62は、レーザソースとすることができ、このレーザソースを用いてレーザエネルギを発生させるように制御ビュー40を切り換えることができ、従って、この場合、スイッチ42は、レーザエネルギを発生させることができ、インジケータ44は、レーザソースの電力レベルをモニタすることができ、ステータスインジケータ46は、レーザソースに対する作動モード(例えば、手動)を確認することができる。制御ビュー40の兼用の例を図4Cに示しており、この場合、制御ビュー40は、流体ソースに関して、第1の起動スイッチ42Aによる第1の制御設定値40Aと、第1の性能インジケータ44Aと、第1のステータスインジケータ46Aとを含み、レーザソースに関して、第2の起動スイッチ42Bによる第2の制御設定値40Bと、第2の性能インジケータ44Bと、第2のステータスインジケータ46Bとを含む。これらの態様により、ビュー40の他の多用途構成を用いてあらゆる個数のデバイスを制御することができる。
処理ユニット50は、複数のデバイスと通信し、これらのデバイスのうちの1又は2以上からデータを受信し、データからディスプレイ10を発生させ、ディスプレイ10及び/又は入力デバイス80を用いてこれらのデバイスのうちの1又は2以上を制御することができる。図1に示すように、複数のデバイスの非限定的なリストは、1又は2以上の表示デバイス60(例えば、タッチ画面ディスプレイ)、1又は2以上のセンサ61(例えば、超音波変換器、圧力センサ、又は温度センサ)、1又は2以上の処置デバイス62(例えば、流体ソース又はレーザソース)、1又は2以上の患者モニタ63(例えば、バイタルサインモニタ)、1又は2以上の手術室モニタ64(例えば、手術室カメラ)、1又は2以上のデータソース67(例えば、電子医療記録又は術前画像を格納し、これらにアクセスするためのリモートサーバ)、1又は2以上のソース要素68(例えば、薬剤ソース)、及び/又は1又は2以上の撮像デバイス69(例えば、フルオロスコープ)を含むことができる。このリスト及び/又は図1に示すものには、あらゆる均等なデバイスを同じく含めることができる。
処理ユニット50に対する例示的回路アーキテクチャを図1に示している。方法200、300、及び/又は400に関して下記で説明するいくつかの任意的な要素を含むこのアーキテクチャの追加の態様を図5に示している。図1に示すように、処理ユニット50は、メモリ52と、コンピュータアプリケーションを実行するように構成された1又は2以上のプロセッサ53と、複数のデバイスと通信するように構成された送受信機55とを含むことができる。メモリ52及び/又はプロセッサ53の一部分は、処理ユニット50からリモートなものとすることができるが、依然として送受信機55を通して処理ユニット50と定常的に通信しているとすることができる。例えば、表示デバイス60上に3次元のビューを表示するためのコードのようなコンピュータアプリケーションの1つの部分は、メモリ52上にローカルに格納し、プロセッサ53がローカルに実行することができ、一方、画像及び/又はセンサデータから3次元モデルを発生させるためのコードのようなこれらのコンピュータプログラムの別の部分は、リモートアプリケーションサーバを用いてデータソース67がリモートに格納し、かつ実行することができる。送受信機55は、処理ユニット50といずれかのデバイスの間の通信を有線及び/又は無線のあらゆる公知の技術を用いて確立して維持するように構成することができる。
処理ユニット50は、手術室内の滅菌野の背後での使用に向けて構成された基本システム100に対するローカルな通信及び制御のハブとして機能することができる。ユニット50は独立型デバイスとすることができる。例えば、図1に示すように、メモリ52、1又は2以上のプロセッサ53、及び送受信機55の各々は、電源54によって給電され、外部ハウジング59内に密封することができる。電源54は、バッテリ、電源コード、及び/又はローカル発電リソースを含むことができる。ハウジング59は、密封シェル、及び/又は1又は2以上の密封可能ポートを含むことができ、処理ユニット50を滅菌野内の使用前に滅菌する(例えば、拭浄する)ことを可能にする。これに代えて、ハウジング59は、送受信機55の性能を害することなく滅菌シェル(例えば、使い捨てのケース又はカバー)内に密封可能にすることができる。ハウジング59は、支持構造(例えば、手術台)に係合可能なクランプ、又はユーザ1に係合可能であってユニット50を着用可能にするクリップのような取り付け部分を含むことができる。
処理ユニット50は、別のデバイスの一部とすることができる。例えば、処理ユニット50は、センサ61と一体形成されてセンサデータのより直接的な受信を可能にするか又は撮像デバイス69と一体形成されて画像データのより直接的な受信(例えば、蛍光透視画像の実時間供給)を可能にすることができる。例えば、泌尿器科手順では、ユニット50をバイタルモニタデバイスと一体形成して患者のバイタルに関するセンサデータ(例えば、EKG信号)の直接受信を可能にするか又はフルオロスコープと一体形成して患者の蛍光透視画像を含む画像データの直接受信を可能にすることができる。処理ユニット50は、別のデバイスに対する周辺付属品とすることができる。例えば、メモリ52及びプロセッサ53は、USBスティックに収容することができ、送受信機55は、WiFiプロトコル及び/又はUSBプロトコルを用いて1又は2以上のデバイスとの通信を確立するように構成することができる。処理ユニット50は、本明細書に説明するあらゆるデバイス内に同じく組み込むことができる。
本明細書に説明する処理ユニット50の多くの機能は、1又は2以上のコンピュータアプリケーションによって実施することができる。これらのアプリケーションのいくつかの部分は、メモリ52上に格納することができる。データソース67は、コンピュータアプリケーションの全て又は一部を提供及び/又は実行することによって処理ユニット50及び/又はメモリ52の機能を高めるために使用することができる。一部の態様では、データソース67は、処理ユニット50によるコンピュータアプリケーションの選択を拡張し、そのようなアプリケーションの既存の開発を支援するように構成されたアプリケーションストアとして機能することができる。処理ユニット50と通信している各デバイスの様々な機能は、この選択を案内することができる。例えば、データソース67は、メモリ52上にローカルに格納され、処理ユニット50と通信しているあらゆるデバイスの機能を識別するように構成されたコンピュータアプリケーションを提供及び/又は更新し、センサ61、処置デバイス62、及び/又は撮像デバイス69のあらゆる組合せを含むユニット50と通信している1又は2以上のデバイスの複合機能を利用するように構成された特殊アプリケーションを提供し、本明細書に説明する診断及びフィードバック制御法を含むプロセッサ53のローカル機能を別途超えることになる解析アプリケーションを実行し、手術室の環境制御、在庫の追跡及び管理、手術室モニタのためのアプリケーションのような第三者コンピュータアプリケーションによって提供されるあらゆる機能にアクセスするために使用することができる。
1又は2以上の処置デバイス62は、Boston Scientificによって商標名LithoVue(登録商標)の下で販売されているあらゆる尿管スコープのような非侵襲的手順での使用に向けて構成されたスコープ70を含む(又はそれを用いて送出する)ことができる。例えば、図6Aに示すように、スコープ70は、近位端72Pと遠位端72Dの間を延びるスコープ本体72と、端部72Dから遠位に延びるスコープシース74とを含むことができる。作動チャネル77が、スコープ本体72上のポート73からスコープ本体72及びスコープシース74を通って延びてシース74の遠位端74Dから延びて出ることができ、作動チャネル77を通じた処置部位32への1又は2以上の処置デバイス62の送出を可能にする(例えば、図3)。1又は2以上のソース要素68からの流体を作動チャネル77を通して部位32に送出することができる。同じく図6Aに示すように、スコープ70は、ステアリング可能部分75のようなシース74の一部分を作動させるように構成された1又は2以上のスコープアクチュエータ71と、スコープ本体72(チャネル77の内側又は外側)に対して別のデバイス(例えば、細長ツール又はレーザファイバ)を移動するように構成された送出機構76とを更に含むことができる。あらゆるセンサ61、処置デバイス62、及び/又は撮像デバイス69は、シース74の遠位端74D上に設置することができる。例えば、図6Aの遠位端74Dは、撮像要素78とロケータビーコン79とを含む。スコープ70に関する例示的な使用に対しては後に説明する。
図1には、例示的入力デバイス80は、処理ユニット50を通してディスプレイ10を作動させるように構成されたものとして示している。図示のように、入力デバイス80は、送受信機82とディスプレイアクチュエータ84とを含むことができる。送受信機82は、送受信機55と同様に、入力デバイス80と処理ユニット50の間の通信を有線又は無線のあらゆる公知の技術を用いて確立して維持するように構成することができる。ディスプレイアクチュエータ84は、ユーザ発生信号に応答してディスプレイ10を作動させるのに利用することができる。例えば、図1に示すように、ディスプレイアクチュエータ84は、リモート制御器又はコンピュータマウスのようなユーザ発生触覚信号に応答してディスプレイ10を作動させるように構成された複数のボタンを含むことができる。この例では、ディスプレイアクチュエータ84は、1又は2以上のスコープアクチュエータ71に隣接するように配置され、スコープアクチュエータ71及びディスプレイアクチュエータ84の片手使用を可能にする。
送受信機82及び/又はディスプレイアクチュエータ84は、スコープ本体72上に装着することができる。例えば、図1では、送受信機82及びアクチュエータ84は、スコープ本体72の近位端72Pに着脱可能に装着された入力モジュール88に取り付けられている。この構成では、入力モジュール88は、複数のスコープ70と共に入れ替える及び/又は交換可能に使用することができ、ユーザ1に入力デバイス80を交換、アップグレード、及び/又はカスタム化する機会を与える。
本明細書に説明するように、基本システム100は、本明細書に説明するあらゆるデバイスの機能を個々に及び/又は組合せで利用することによって手術室での利益をもたらすように固有に構成することができる。例えば、処理ユニット50を利用してこれらのデバイスを作動させるための様々なコンピュータアプリケーション(例えば、データソース67からの)を取得する及び/又はそれにアクセスすることにより、各デバイスの機能を利用及び/又は拡張するように、及び/又はこれらの機能の新しい組合せを発生させるようにシステム100を更に構成することができる。更に別の例として、アプリケーションストア(例えば、データソース67)を提供することにより、システム100は、医療の進歩を追求する医師及び技術の進歩を追求するソフトウエア開発者を含む優れた開発集団によってこれらのコンピュータアプリケーションの開発及びサポートを促進する。システム100の様々な利益は、泌尿器科手順のような手順の術前ステージ、術中ステージ、及び術後ステージの間にもたらすことができる。次に、方法200、300、及び400に関して多くの例示的な利益を説明する。
最初に、基本システム100に関する例示的な使用を術前の方法とすることができる方法200に関して説明する。図2Aに示すように、方法200は、(210)患者に関連付けられたデータを処理ユニット50で受信する段階と、(220)患者に対する処置を処理ユニット50によって決定する段階と、(230)(i)処理ユニット50と通信しており、かつ(ii)処置を実行するように作動可能である1又は2以上の処置デバイス62に関連付けられた制御設定値を処理ユニット50によって識別する段階と、(240)制御設定値と少なくとも1つのデータビューとを含むようにディスプレイ10を処理ユニット50によって発生させる段階とを含むことができる。
方法200は、1又は2以上のデータソースからデータを受信するための中間段階を含むことができる。上述のように、ディスプレイ10は、(i)画像データ、(ii)センサデータ、及び(iii)幾何学データというデータタイプのうちの1又は2以上を含む患者に関連付けられたあらゆるデータに基づくとすることができ、処理ユニット50は、ローカル又はリモートのあらゆるデータソースから実時間で又は事前にデータを受信するように構成することができる。従って、受信する段階210は、処理ユニット50とデータソースの間に通信を確立するのに必要とされるあらゆる中間段階を含むいずれかのデータソースからデータを受信する段階を含むことができる。例えば、段階210は、データソース67との通信を確立する段階と、そこからデータを取得する段階とを含むことができる。
受信する段階210は、データ収集段階を含むことができる。例えば、受信する段階210は、手順に先だって1又は2以上の撮像ソース69によって画像データ(例えば、X線画像)を発生させる段階、撮像ソース69及び/又はデータソース67上に画像データを格納する段階、及び/又はソース69及び/又は67から画像データを取得する段階を含むことができる。画像データを実時間で受信すべきである場合に、受信する段階210は、撮像デバイス69(例えば、スコープ70の撮像要素78)との通信を確立する段階と、そこから画像データを受信する(例えば、実時間ビデオフィードとして)段階とを含むことができる。センサデータは、1又は2以上のセンサ61から同じく取得することができ、従って、受信する段階210は、1又は2以上のセンサ61との通信を確立する段階と、これらのセンサ61からセンサデータを受信する段階とを含む。例えば、センサ61は、センサデータを出力するように各々が構成された超音波変換器、圧力センサ、光センサ、照射センサ、又は類似のセンサのうちの1又は2以上を含むことができ、受信する段階210は、データを受信する段階を含む。
受信する段階210で幾何学データを受信するか又は発生させることができる。例えば、患者又はその一部分の3次元モデルを含む幾何学データを手順に先だって発生させてデータソース67上に格納することができ、従って、受信する段階210は、データソース67から3次元モデルを受信する段階と、3次元モデルから少なくとも1つのビューを選択する段階とを含む。処理ユニット50は、上述した画像又はセンサデータのような患者に関連付けられたデータから3次元モデルを発生させるように構成されたグラフィックモジュール57(例えば、図5)を含むことができる。従って、受信する段階210は、患者に関連付けられた画像又はセンサデータを受信する段階と、これらのデータに基づいてグラフィックモジュール57によって3次元モデルを発生させる段階とを含むことができる。例えば、画像データは、各々が様々な位置及び/又は角度で撮影された患者の複数のX線画像を含むことができ、受信する段階210は、腎臓(例えば、図3)の場所のような患者の1又は2以上の基準点に対して複数のX線画像を貼り合わせることによって3次元モデルを発生させる段階を含むことができる。更に別の例として、センサデータは、患者を通って延びる経路(例えば、図3の経路22)の局所表現を出力するように構成された超音波変換器からの出力を含むことができ、段階210は、局所表現を組み合わせることによって3次元モデルを発生させる段階を含むことができる。
段階210は、1又は2以上のコンピュータアプリケーションを用いて3次元モデルを発生させる段階を含むことができる。例えば、受信する段階210は、画像及び/又はセンサデータを用いて患者の3次元モデルを発生させるように構成されたコンピュータアプリケーションを識別するためにこれらのデータを解析する段階と、識別されたアプリケーションをデータソース67から取得する段階と、このアプリケーションを用いてこれらのデータから3次元モデルを発生させる段階とを含むことができる。例えば、グラフィックモジュール57は、メモリ52に対してローカル又はリモートに格納された画像及び/又はセンサデータを用いてこのコンピュータアプリケーションを実行するように構成することができる。
方法200は、3次元モデルを強化するのに利用することができる。例えば、受信する段階210は、処理ユニット50と通信している1又は2以上のセンサ61及び/又は撮像ソース69の機能を識別する段階と、識別された機能を用いて3次元モデルに対する層を発生させるように構成された1又は2以上のコンピュータアプリケーションを識別する段階と、これらの層をモデル内に組み込む段階とを含むことができる。例えば、泌尿器科手順では、段階210は、センサ61及びデバイス69の機能を識別する段階と、識別された機能を用いて処置部位32にある各結石の場所及び特性をマッピングするように構成された結石識別アプリケーションを識別する段階と、この結石識別アプリケーションを用いてマッピングされた場所及び特性を含む層を発生させる段階と、この層をマップビュー30内に組み込む段階とを含むことができる。更に別の例を下記で説明する。
決定する段階220は、中間計画段階を含むことができる。例えば、図3に示すように、段階220は、選択部分30A及び計画部分30Bを含むようにマップビュー30を拡張する段階を含むことができる。選択部分30Aは、患者の3次元モデルに基づくものであり、かつ処置部位32を識別するように作動可能とすることができ、計画部分30Bは、計画部分30Aに基づくものであり、かつ処置部位32の特性及びそれに対する可能な処置を識別するように作動可能とすることができる。例えば、図3では、4つの例示的な処置部位32A、34B、34C、及び34Dが選択部分30A内で識別されており、計画部分30Bは、各処置部位32A〜32Dに対する可能なレーザエネルギ処置のリスト34A、34B、34C、及び34Dを含む。従って、段階220は、処置部位32を識別する段階と、部位32において1又は2以上の物体(例えば、腎臓結石)の場所を決定する段階と、場所が決定された各物体の組成を決定する段階と、組成に基づいて可能な処置のリストを発生させる段階とを更に含むことができる。
決定する段階220の態様は、表示デバイス60を用いた作動部分30Aに対する第1の触覚信号、及び/又は入力デバイス80を用いた作動部分30Bに対する第2の触覚信号のようなユーザ発生信号に応答するとすることができる。決定する段階220のいずれかの部分を実施するのにコンピュータアプリケーションを使用することができる。例えば、各処置部位32A〜32Dにおいて画像及び/又はセンサデータに基づいて結石を自動的に識別してその場所を決定するために上述した結石識別プログラムを使用することができる。段階220でのいずれかの点で、追加情報35(例えば、手順註記)を各処置部位32A〜32D及び/又は可能な処置34A〜34Dのリストに自動及び/又は手動で関連付けることができる。
段階220は、中間構成段階を含むことができる。例えば、本明細書に説明する他の方法段階の場合と同様に、決定する段階220は、処理ユニット50と通信している1又は2以上のセンサ61の機能を識別する段階、識別された機能を利用するように構成された1又は2以上のコンピュータアプリケーションを識別する段階、及び/又は1又は2以上のコンピュータアプリケーションを取得する段階を含むことができる。例えば、泌尿器科手順では、段階220は、処置部位32において熱及び放射線を検出するように構成されたあらゆるセンサ61の機能を識別する段階と、検出された熱及び放射線に応答してレーザエネルギの放出を制御するように構成されたレーザ処置アプリケーションを識別する段階と、このレーザ処置アプリケーションをデータソース67から取得する段階とを含むことができる。本明細書に説明するあらゆるデバイスに対して、同様に構成された段階を実施することができる。追加の構成段階は、計画ビュー34A〜34Dを更新する段階、上述のコンピュータアプリケーションに対する追加の入力を取得する段階、及び/又は表示デバイス60及び/又は入力デバイス80を用いて可能な処置を選択するか又はこの選択を可能にする段階を含むことができる。
識別する段階230は、1又は2以上の処置デバイス62に対する制御設定値を受信するための中間段階を含むことができる。制御設定値は、各デバイス62から直接受信することができる。例えば、段階230は、処理ユニット50との通信を確立するために実施されるハンドシェイク処理中に各処置デバイス62から制御設定値を直接受信する段階を含むことができる。一部の態様では、制御設定値は、1又は2以上のデータソース67から取得することができる。例えば、段階230は、各処置デバイス62からデバイス識別子を取得する(例えば、ハンドシェイク処理中に)段階と、このデバイス識別子をデータソース67に送出する段階と、そこから制御設定値を受信する段階とを含むことができる。デバイス識別子は、追加の設定値の開発を促進するために使用することもできる。例えば、識別子は、新しい制御設定値を開発するために第三者開発者を利用することができるデバイス仕様に関連付けることができ、処理ユニット50は、これらの開発資料をソース67を通じた即時使用に向けて利用可能にするように構成することができる。
制御設定値を決定するためにコンピュータアプリケーションを使用することができる。例えば、識別する段階230は、処理ユニット50と通信している1又は2以上の処置デバイス62の機能を識別する段階、識別された機能に基づいて手順固有の制御設定値セットを発生させるように構成された1又は2以上のコンピュータアプリケーションを識別する段階、及び/又は1又は2以上のコンピュータアプリケーションを取得する段階を含むことができる。例えば、泌尿器科手順では、識別する段階230は、処置部位32に流体を送出するように構成された流体ソースの機能を識別する段階、この流体ソースを制御するための制御設定値を発生させるように構成された泌尿器科固有の流体管理アプリケーションを識別する段階、及び/又はこの流体管理アプリケーションをデータソース67から取得する段階を含むことができる。このようにして新しい機能及び/又は複合機能をもたらすことができる。例えば、段階230は、特定の処置を実行するために第1の処置デバイス62を第2の処置デバイス62と共に作動させるための制御設定値をこれらのコンピュータアプリケーションを利用して発生させることができる。上述の泌尿器科の例に合わせて、段階230は、処置部位32にレーザエネルギを放出するように構成されたレーザソースの機能を識別する段階と、処置を実行するためにこのレーザソースをこの流体ソースと共に制御するための制御設定値を発生させるように構成された処置アプリケーションを識別する段階と、この処置アプリケーションをデータソース67から取得する段階とを更に含むことができる。
発生させる段階240は、ディスプレイ10を発生させるための中間段階を含むことができる。一部の態様では、段階240は、ディスプレイ10の少なくとも1つのビュー内で処置デバイス62の場所24(例えば、図4A)を識別する段階と、この少なくとも1つのビュー内で識別された場所24の移動を追跡する段階とを含むことができる。場所24を識別するのにスコープ70のロケータビーコン79を使用することができる。例えば、図5に示すように、処理ユニット50は、ロケータビーコン79を識別して追跡するように構成された追跡モジュール58を含むことができ、従って、段階240は、モジュール58とビーコン79の間に通信を確立する段階と、それを用いて場所24を識別する段階とを含む。段階240においてロケータビーコン79を用いて又は用いずに場所24を確立するために、1又は2以上のセンサ61及び/又は1又は2以上の撮像デバイス69を利用することができる。例えば、スコープ70のシース74の一部分は、フルオロスコープを用いて追跡することができる放射線不透過性材料を含むことができる。表示デバイス60での使用に向けてディスプレイ10を構成するための追加の段階を実施することができる。
次に、システム100に関する他の使用を手術中の方法とすることができる図2Bの方法300に関して説明する。図示のように、方法300は、(310)処置デバイス62に対する制御設定値(例えば、制御ビュー40)を含むディスプレイ10と患者に関連付けられたデータの少なくとも1つのビュー(例えば、ナビゲーションビュー20又はマップビュー30)とを処理ユニット50によって発生させる段階と、(320)(i)処置部位32、(ii)処置部位32への経路22、及び(iii)経路22上の処置デバイス62の場所24の描写を少なくとも1つのビューの上に処理ユニット50によって重ねる段階と、(330)ディスプレイ10に応答して処置デバイス62を経路22に沿って移動し、場所24が処置部位32に到達するまでこれらの移動に応答してディスプレイ10を処理ユニット50によって継続的に更新する段階と、(340)制御設定値に応答して入力を処理ユニット50によって取得する段階と、(350)入力と制御設定値とに従ってデバイス62を処理ユニット50によって作動させる段階とを含むことができる。
発生させる段階310は、方法200の発生させる段階240に関して上述したいずれかの段階を含むディスプレイ10を構成するための中間段階を含むことができる。例えば、発生させる段階310は、場所24を識別する段階、追跡モジュール58とロケータビーコン79の間に通信を確立する段階、及び/又は1又は2以上の表示デバイス60での使用に向けてディスプレイ10を構成する段階を含むことができる。
重ねる段階320は、ディスプレイ10を拡張するのに利用することができる。例えば、図4Aのナビゲーションビュー20は、患者の蛍光透視画像から発生された背景層を含むことができる。この例では、重ねる段階320は、処置部位32、経路22、及び場所24のグラフィック描写を含む前景層を発生させる段階と、この前景層を背景層の上に重ねる段階とを含むことができる。別の例は、3次元モデルのビューから発生された背景層と、経路22及び処置部位32A〜32Dのグラフィック描写を含む前景層とを含む図4Bのマップビュー30によって提供している。経路22及び処置部位32A〜32Dの場所は、段階320で決定することができる。例えば、経路22及び処置部位32の場所は、上述した方法200の段階220を用いて決定することができ、及び/又はこの目的で処理ユニット50がコンピュータアプリケーションを取得することができる。上述のように、場所24を確立して追跡するために、ロケータビーコン79、センサ61、及び/又は撮像デバイス69を使用することができる。
重ねる段階320は、ディスプレイ10の一部分を選択又は「タグ付け」するための中間段階を含むことができる。背景層がスコープ70の撮像要素78によって出力されたビデオフィードから発生され、前景層が経路22の内部面のワイヤフレーム描写を含む一例を図4Bに提供している。この例では、段階320は、複数の面区域26を定めるために経路22の内部面の上にワイヤフレームグリッド25を重ねる段階と、面区域26の1又は2以上を選択する段階と、ナビゲーションビュー20及び/又はマップビュー30内で選択区域を識別する段階とを含むことができる。段階320では、1又は2以上の面区域26を自動的にタグ付けするために1又は2以上のセンサ61を使用することができる。例えば、段階320は、各面区域26を走査する段階と、予め決められた走査基準を満たす各面区域26をタグ付けする段階とを更に含むことができる。例えば、泌尿器科手順では、重ねる段階230は、結石と結石を取り囲む組織との間で区別するために各面26をセンサ61によって走査する段階と、予め決められた最大値よりも大きい結石密度を有する各区域26をタグ付けする段階とを含むことができる。上記と同様に、処理ユニット50は、センサ61、撮像デバイス69、又は類似のデバイスによって各面区域26を走査する段階のような段階320の態様を実行するように作動可能な1又は2以上のコンピュータアプリケーションを取得するように更に構成することができる。
移動する段階330は、ディスプレイ10を用いて処置デバイス62の移動を案内するための中間段階を含むことができる。例えば、図4Bに示すように、段階330は、処置部位32A〜32Dのうちの1つに向う経路22を定める段階と、場所24の移動を追跡することによって経路22に沿って処置デバイス62を移動する段階とを含むことができる。処置デバイス62を移動し、同時に移動に応答してディスプレイ10を更新するために、処理ユニット50とビーコン79、1又は2以上のセンサ61、又は他の追跡手段との間の連続通信を必要とする場合がある。従って、段階330は、そのような通信を確立するための中間段階を更に含むことができる。
移動する段階330は、スコープ70及び/又は送出機構76を作動させるための中間段階を更に含むことができる。例えば、図6Aに示すように、スコープ70は、シース74のステアリング部分75を操作するように構成されたスコープアクチュエータ71と、スコープ70に対してレーザファイバのような処置デバイスを移動するように構成された送出機構76とを含む。アクチュエータ71及び/又は送出機構76は電気アクチュエータを含むことができ、従って、方法段階330は、ディスプレイ10及び/又は入力デバイス80から移動信号を受信する段階と、この移動信号に従ってこれらの電気アクチュエータを作動させることによってデバイス62を経路22に沿って部位32に向けて移動する段階とを含む。上記と同様に、運動信号を発生させるのに1又は2以上のコンピュータアプリケーションを使用することができ、従って、段階330は、アクチュエータ71及び/又は送出機構76に関する移動機能を識別し、これらの機能を用いて処置デバイス62を移動するように構成された1又は2以上のコンピュータアプリケーションを識別するためのいずれかの中間段階を更に含む。例えば、泌尿器科手順では、1つのコンピュータアプリケーションは、経路22に関連付けられた幾何学データを運動信号に変換し、この運動信号に基づいてアクチュエータ71及び/又は機構76を作動させることによってデバイス62を経路22を通して自動的に移動するように構成することができる。
取得する段階340は、処置デバイス62(又は本明細書に説明する他のデバイス)を作動させるのに必要な全ての入力を取得するのに利用することができる。例えば、取得する段階340は、聴覚信号、触覚信号、及び視覚信号のうちの少なくとも1つを含む入力をユーザ1から受信する段階と、この入力を制御信号に変換する段階と、この制御信号を出力する段階とを含むことができる。各信号は、ユーザ発生信号、及び/又は処置のタイプ、電力レベル、回数、又は類似の量に固有の信号とすることができる。一部の態様では、ディスプレイ10及び/又は入力デバイス80は、入力を受信するように構成することができる。例えば、制御ビュー40は、表示デバイス60に出力することができ、ディスプレイアクチュエータ84の構成は、類似の触覚信号を受信するためにディスプレイ10又は入力デバイス80のいずれかを利用することができるように制御ビュー40の構成に対応することができる。1又は2以上のセンサ61は、入力を受信するように構成することができる。例えば、センサ61は、ディスプレイアクチュエータ84及び/又はユーザ1の一部分の移動を追跡することによって視覚信号を受信するように構成された移動センサを含むことができる。
取得する段階340は、制御信号を修正するための中間段階を含むことができる。例えば、取得する段階340は、処置部位32にある物体を識別する段階と、識別された物体の特性を1又は2以上のセンサ61を用いて決定する段階と、決定された特性に基づいて制御信号を修正する段階とを含むことができる。段階340の範囲であらゆる特性を決定して利用することができ、これらの決定を行う上であらゆる個数のコンピュータアプリケーションを使用することができる。一例を図4Cに描写しており、この例は、撮像要素78によって部位32Aにある結石の接写ビューを含むように発生された背景層と、センサ61によって結石負荷尺度35(例えば、部位32Aにある各結石の外形として示す)、結石サイズ36の測定値(例えば、各結石の中心に対する測定値として示す)、及び/又は結石タイプの表示(例えば、各結石の場所にあるか又はそれに隣接するインジケータとして示す)を含むように発生された前景層とを含む。この例では、センサ61は、体内又は体外に位置付けられた超音波変換器を含むことができ、結石負荷尺度35、結石サイズ36、及び/又は結石タイプは、処理ユニット50により、変換器との併用に向けて構成された結石識別アプリケーションを用いて発生させることができる。従って、段階340は、結石負荷尺度35、サイズ36、及び/又はタイプに基づいて制御信号を修正する段階を含むことができる。他のアプリケーションを用いて他の特性に基づいて信号を修正することができる。
作動させる段階350は、処置エネルギを印加するのに利用することができる。方法300でのこの時点で、制御設定値の全ては決定されたとすることができ、従って、段階350は、制御ビュー40の起動スイッチ42及び/又は入力デバイス80のディスプレイアクチュエータ84を用いて処置デバイス62を起動する段階と、処置エネルギを処置部位32にある物体に向けて放出する段階とを含む。上記と同様に、作動させる段階350は、中間修正段階を含むことができる。例えば、図4Bの制御ビュー40を用いて、両方共に処置エネルギの特定の態様を調整するように構成された調節ボタン45A及び45Bの操作によって段階350で処置エネルギを手動で調節することができる。例えば、泌尿器科手順では、処置デバイス62は、レーザエネルギを送出するように構成することができ、調節ボタン45Aを用いてレーザエネルギに関する電力レベルを制御することができ、調節ボタン46Aを用いてレーザエネルギの周波数、パルス速度、又は他の特性を制御することができる。
方法300は、センサ61によって発生されたフィードバック信号に応答して処置デバイス62の出力を修正するフィードバック制御ループのような1又は2以上の処置デバイス62に対する制御ループを確立するのに利用することができる。例えば、作動させる段階350は、1又は2以上のセンサ61を用いてターゲット物体の特性を決定する段階と、決定された特性に基づいて処置エネルギを修正する段階とを含むことができる。例えば、泌尿器科手順では、処置デバイス62は、処置部位32に位置する結石に向けてレーザエネルギを放出するように構成することができ、作動させる段階350は、結石及び/又は部位32からのレーザエネルギの反射部分を受信する段階と、1又は2以上のセンサ61を用いて反射部分を解析する段階と、センサ61からの出力に応答してレーザエネルギを修正する段階とを含むことができる。この例では、フィードバック制御ループは、結石が破壊されたことをセンサ61からの出力が示した場合/時にレーザエネルギの放出を停止又は漸減することによって望ましくない組織損傷を防止することができる。本明細書に説明するあらゆるデバイスに対して類似の制御ループを確立することができる。上述の泌尿器科の例を続けると、ソース要素68は、流体又は薬剤ソースを含むことができ、段階350は、センサ61のうちの1つを用いて内圧又は照射レベルのような部位32の特性を解析する段階と、センサ61からの出力に応答して流体又は薬剤の流量を修正する段階とを含むことができる。フィードバック制御ループを確立するのに1又は2以上のコンピュータアプリケーションを使用することができ、従って、作動させる段階350は、アプリケーションを識別、取得、及び利用するためのあらゆる中間段階を含むことができる。
ここでシステム100に関する更に他の例示的な使用を手術後の方法とすることができる方法400に関して説明する。例えば、図2Cに示すように、方法400は、(410)実行された処置に関するデータを記録する段階と、(420)記録されたデータに基づいて1又は2以上の報告を発生させる段階と、(430)1又は2以上の報告をデータソース67に出力する段階とを含むことができる。
記録する段階410は、例えば、方法200及び300の実施中に発生したあらゆるデータを記録するための中間段階を含むことができる。記録されたデータは、あらゆる形式を取ることができる。例えば、記録する段階410は、手順中のディスプレイ10のビデオストリームを発生させ、それによってディスプレイ10に対する各選択、入力、又は出力を記録する段階を含むことができる。ディスプレイ10は、患者に関連付けられたデータの少なくとも1つのビュー(例えば、ナビゲーションビュー20及び/又はマップビュー30)と、関連の制御設定値のビュー(例えば、制御ビュー40)とを含むので、このビデオストリームを用いてユーザ1及び/又はシステム100によるいずれかの回数の決定を記録保存することができる。記録データは、1又は2以上の患者モニタ63(例えば、バイタルサインモニタ)、及び/又は1又は2以上の手術室モニタ64(例えば、観察カメラ)によって発生されたあらゆるデータを含むことができる。例えば、段階410では、1つの手術室モニタ64は、手術室内の各デバイスの使用及び/又は重量を追跡することによって手順中に使用される材料の量を記録するように構成することができる。
報告する段階420は、記録データを用いて様々な記録保存機能を実施するのに利用することができる。例えば、報告する段階420は、記録データを解析する段階と、そこから1又は2以上の報告を発生させる段階とを含むことができる。一態様では、1又は2以上の報告を利用して、例えば、手術室の利益をもたらすためにそのいずれかを利用することができる処置、処置時間、結果、及び類似の実施機能尺度を自動的に要約することによって手術室の効率を改善することができる。これらの報告は、在庫管理目的に使用することができる。例えば、報告する段階420は、手順中に使用された材料の量に基づいて報告を発生させる段階と、これらの材料の自動補充に向けてこの報告を第三者に送出する段階とを含むことができる。材料の量は、ユーザ入力から又は上述のように1又は2以上の手術室モニタ64を用いて決定することができる。
送信する段階430は、記録データ及び/又は1又は2以上の報告を将来の使用に向けて記録保存するのに利用することができる。例えば、段階430は、記録データ及び/又は1又は2以上の報告をメモリ52及び/又はデータソース67に社会保障番号のような患者の電子医療記録に関する参照番号のような患者識別子と共に送る段階を含むことができる。記録データ及び/又は1又は2以上の報告の一部分は、様々な統計報告での使用に向けて患者識別子を伴わずにデータソース67に出力することができる。
ここでシステム100の追加の態様を両方共に処理ユニット50を通してディスプレイ10を作動させるように構成された図6Bの入力デバイス180及び図7の入力デバイス280に関して説明する。図6Bに示すように、入力デバイス180は、送受信機182と、第1のディスプレイアクチュエータ184と、第2のディスプレイアクチュエータ188とを含むことができる。送受信機182は、入力デバイス180と処理ユニット50の間の通信を有線又は無線のあらゆる公知の技術を用いて確立して維持するように構成することができる。第1及び第2のディスプレイアクチュエータ184及び188は、ユーザ1からの入力に応答してディスプレイ10を作動させるように構成される。図6Bに示すように、第1のアクチュエータ184は、ディスプレイアクチュエータ84と同様に、スコープ本体72上に装着された複数のボタンを含むことができ、ディスプレイ10の全般的な制御を可能にし、それに対して第2のディスプレイアクチュエータ188は、タッチ感知画面を含むことができ、ディスプレイ10の特殊制御を可能にする。例えば、図6Bでは、処置エネルギ(例えば、レーザエネルギ)を起動するための様々な手段は、制御ビュー40を用いて描くことができ、一方、処置エネルギを修正するための様々な手段は、第2のアクチュエータ188を用いて描くことができる。別の例では、制御ビュー40を様々な処置デバイス62に対する制御設定値の間で切換可能にすることができ、それに対して第2のアクチュエータ188は、1つのデバイスに対する制御設定値特定のままに留まる。
入力デバイス280の態様は、滅菌野でのディスプレイ10のハンズフリー作動に向けて構成することができる。例えば、図7に示すように、入力デバイス280は、聴覚センサ284、動作センサ286、及び/又は視覚センサ288のうちの1又は2以上のようなセンサ61の一部分を含むことができる。図7では、1つの聴覚センサ284は、マスク3上に装着されたマイクロフォンであり、スイッチ42に対応する起動指令のような音声指令を受信するように構成される。図示のように、動作センサ286は、手2の指に関連付けられてナビゲーションビュー20をズームインするのに利用されるつまみ運動のような指の移動を追跡することによって視覚信号を受信するように構成された運動センサを含む。動作センサ286は、手2を視覚的に観察することによって手の合図を受信するように構成されたあらゆるタイプのカメラ又は運動センサを含むことができる。一態様では、センサ286は、マスク3、眼鏡4、又はユーザ1の別の部分の上に装着されて手2に視準されたカメラを含む。例えば、手2は、運動追跡パターンを有するグローブを含むことができ、センサ286は、パターンを認識し、それによって手2の相対移動を追跡することによって運動信号を出力するように構成することができる。
視覚センサ288は、あらゆるタイプの表示デバイス60と共とそのいずれも作動可能とすることができるあらゆるタイプのカメラ又は運動センサを含むことができる。例えば、図7に示すように、表示デバイス60は、眼鏡4上に装着されてディスプレイ10をユーザ1の少なくとも一方の目の視野内に出力するように構成されたプロジェクタを含むことができる。プロジェクタは、図7の場合のようにディスプレイ10を眼鏡4の内部面4S上に出力するか又は少なくとも一方の目の中に直接に出力すること、例えば、網膜内に直接に出力することができる。視覚センサ288は、眼球の移動を追跡することによって視覚信号を発生させるように構成された眼球移動センサを含むことができる。例えば、眼球をディスプレイ10の一部分の上に予め決められた期間にわたって集中させることによって視覚選択信号を決定することができる。図7の眼鏡4の描写は例示的であり、ディスプレイ10が見える状態に留まることを保証するのにあらゆるタイプのヘッドマウントを使用することができる。スコープ70に係合可能なあらゆる装着構造と同じく天井マウント又は壁マウントを使用することができる。
本明細書に説明する手術室デバイス、方法、及びシステムの態様を用いて多くの利益をもたらすことができる。例えば、システム100の態様は、望ましい成果を全く犠牲にすることなく手術室の効率を高め、手術室助手及び運用管理者に課せられる負担を軽減し、患者の安全性を改善するように構成することができる。本発明の開示により、一部の利益は、システム100を手術室に対してローカル又はリモートな複数のデバイスと通信するように構成されたハブとして利用し、ディスプレイ10を滅菌野の背後のような手術室内の位置からこれらのデバイスの少なくとも一部を制御するための1つの手段として発生させることによって実現することができる。他の利益は、患者に関連付けられたデータを発生させるためにいずれも使用することができるセンサ61、処置デバイス62、及び/又は撮像デバイス69のようなシステム100と通信している各デバイスの固有の機能に対処し、これらのデータを用いて患者の3次元モデルを生成又は修正し、データの一部分を解析し、及び/又は類似の機能を実施するようにシステム100の機能を拡張することによって実現することができ、これらの段階のうちのいずれも、1又は2以上のコンピュータアプリケーションの使用によって更に拡張することができる。
本明細書で本発明の開示の原理を特定の用途に関する例示的態様に関して説明したが、本発明の開示はこれらの態様に限定されない。当業技術と本明細書に提供する教示へのアクセスとを有する当業者は、全てが本明細書に説明する態様の範囲に収まる追加の修正、用途、態様、及び均等物の置換を認識するであろう。従って、本発明の開示は、以上の説明によって制限されるように考えないものとする。
1 ユーザ
10 ディスプレイ
40 制御ビュー
72 スコープ本体
100 基本システム

Claims (15)

  1. 患者に関連付けられたデータを処理ユニットで受信する段階と、
    前記患者に対する処置を前記処理ユニットを用いて決定する段階と、
    前記処理ユニットを用いて、(i)該処理ユニットと通信しており、かつ(ii)前記処置を実行するように作動可能である1又は2以上の処置デバイスに関連付けられた制御設定値を識別する段階と、
    前記制御設定値と前記データの少なくとも1つのビューとを含むディスプレイを前記処理ユニットを用いて発生させる段階と、
    を含むことを特徴とする方法。
  2. 前記データは、前記患者の一部分の3次元モデルを含み、
    請求項1に記載の前記受信する段階は、
    データソースから前記3次元モデルを前記処理ユニットで受信する段階と、
    前記3次元モデルから前記少なくとも1つのビューを前記処理ユニットを用いて選択する段階と、
    を含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記データは、前記患者の画像を含み、
    請求項1に記載の前記受信する段階は、
    データソースから前記画像を前記処理ユニットで受信する段階と、
    前記画像から前記患者の3次元モデルを前記処理ユニットを用いて発生させる段階と、
    を含む、
    ことを特徴とする請求項1から請求項2のいずれか1項に記載の方法。
  4. 請求項1に記載の前記決定する段階は、
    前記患者に対する可能な処置を前記処理ユニットを用いて識別する段階と、
    前記1又は2以上の処置デバイスが前記可能な処置のいずれかを実行するように作動可能であるか否かを前記処理ユニットを用いて決定する段階と、
    前記処理ユニットを用いて、前記1又は2以上の処置デバイスによって実行可能な前記可能な処置のリストを含むように前記ディスプレイを発生させる段階と、
    を更に含む、
    ことを特徴とする請求項1から請求項3のいずれか1項に記載の方法。
  5. 請求項1に記載の前記識別する段階は、前記処理ユニットを用いて前記1又は2以上の処置デバイスから前記制御設定値を取得する段階を更に含むことを特徴とする請求項1から請求項4のいずれか1項に記載の方法。
  6. 請求項1に記載の前記識別する段階は、
    前記1又は2以上の処置デバイスからデバイス識別子を前記処理ユニットで受信する段階と、
    前記デバイス識別子をデータソースに前記処理ユニットを用いて送出する段階と、
    前記データソースから前記制御設定値を前記処理ユニットで受信する段階と、
    を更に含む、
    ことを特徴とする請求項1から請求項5のいずれか1項に記載の方法。
  7. 前記1又は2以上の処置デバイスは、前記処理ユニットと通信する第1の処置デバイスと該処理ユニットと通信する第2の処置デバイスとを含み、
    請求項1に記載の前記識別する段階は、
    前記第1の処置デバイスに対する第1の制御設定値と前記第2の処置デバイスに対する第2の制御設定値とを前記処理ユニットで受信する段階と、
    処置を実行するために連係方式で前記第1及び第2の処置デバイスを作動させるための1又は2以上のコンピュータアプリケーションを前記処理ユニットを用いて識別する段階と、
    を更に含む、
    ことを特徴とする請求項1から請求項6のいずれか1項に記載の方法。
  8. 前記1又は2以上のコンピュータアプリケーションを識別する前記段階は、
    前記第1及び第2の制御設定値をデータソースに前記処理ユニットを用いて送出する段階と、
    前記1又は2以上のアプリケーションを前記データソースから受信する段階と、
    を含む、
    ことを特徴とする請求項7に記載の方法。
  9. 前記ディスプレイの前記少なくとも1つのビューは、第2のビューとは異なる第1のビューを含み、
    請求項1に記載の前記発生させる段階は、
    前記1又は2以上の処置デバイスの遠位端を前記患者内に位置決めする段階と、
    前記処理ユニットを用いて前記第1及び第2のビュー内で前記遠位端を位置付ける段階と、
    を含む、
    ことを特徴とする請求項1から請求項8のいずれか1項に記載の方法
  10. 前記データは、前記患者の内部面の画像を含み、前記第1のビューは、該内部面を含み、
    方法が、
    前記処理ユニットを用いて、前記第1のビューに描かれた前記内部面の上にグリッドを重ねる段階と、
    前記処理ユニットを用いて、前記グリッドによって定められた1又は2以上の区域をタグ付けする段階と、
    前記処理ユニットを用いて前記第2のビュー内で1又は2以上の区域を位置付ける段階と、
    を含む、
    ことを特徴とする請求項9に記載の方法。
  11. 前記処理ユニットを用いて該処理ユニットと通信する入力デバイスから入力を受信する段階と、
    前記処理ユニットを用いて前記入力及び前記制御設定値に従って前記1又は2以上の処置デバイスを作動させる段階と、
    を更に含み、
    前記入力は、聴覚信号、触覚信号、及び視覚信号のうちの少なくとも1つを含むユーザ発生信号である、
    ことを特徴とする請求項1から請求項10のいずれか1項に記載の方法。
  12. 前記処理ユニットを用いて前記患者内の物体を識別する段階と、
    前記処理ユニットを用いて前記少なくとも1つのビュー内で前記物体を位置付ける段階と、
    を更に含むことを特徴とする請求項11に記載の方法。
  13. 請求項1に記載の前記発生させる段階は、少なくとも1つのセンサを用いて前記物体の特性を前記処理ユニットによって決定する段階を含むことを特徴とする請求項12に記載の方法。
  14. 前記処理ユニットを用いて、前記特性に基づいて前記入力又は前記制御設定値を修正する段階を更に含むことを特徴とする請求項13に記載の方法。
  15. 前記制御設定値及び前記入力を含む1又は2以上の報告を前記処理ユニットを用いて発生させる段階と、
    前記1又は2以上の報告を前記処理ユニットを用いて出力する段階と、
    を更に含むことを特徴とする請求項1から請求項14のいずれか1項に記載の方法。
JP2019561216A 2017-05-09 2018-05-08 手術室デバイス、方法、及びシステム Active JP7257331B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762503774P 2017-05-09 2017-05-09
US62/503,774 2017-05-09
PCT/US2018/031655 WO2018208823A1 (en) 2017-05-09 2018-05-08 Operating room devices, methods, and systems

Publications (3)

Publication Number Publication Date
JP2020520004A true JP2020520004A (ja) 2020-07-02
JP2020520004A5 JP2020520004A5 (ja) 2021-05-27
JP7257331B2 JP7257331B2 (ja) 2023-04-13

Family

ID=62223334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019561216A Active JP7257331B2 (ja) 2017-05-09 2018-05-08 手術室デバイス、方法、及びシステム

Country Status (6)

Country Link
US (3) US10881482B2 (ja)
EP (1) EP3622528A1 (ja)
JP (1) JP7257331B2 (ja)
CN (1) CN110603599A (ja)
AU (2) AU2018266132A1 (ja)
WO (1) WO2018208823A1 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11510741B2 (en) 2017-10-30 2022-11-29 Cilag Gmbh International Method for producing a surgical instrument comprising a smart electrical system
US11759224B2 (en) 2017-10-30 2023-09-19 Cilag Gmbh International Surgical instrument systems comprising handle arrangements
US11564756B2 (en) 2017-10-30 2023-01-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11389164B2 (en) 2017-12-28 2022-07-19 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US12035890B2 (en) 2017-12-28 2024-07-16 Cilag Gmbh International Method of sensing particulate from smoke evacuated from a patient, adjusting the pump speed based on the sensed information, and communicating the functional parameters of the system to the hub
US11166772B2 (en) 2017-12-28 2021-11-09 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11132462B2 (en) 2017-12-28 2021-09-28 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11257589B2 (en) 2017-12-28 2022-02-22 Cilag Gmbh International Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes
US11844579B2 (en) 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11179175B2 (en) 2017-12-28 2021-11-23 Cilag Gmbh International Controlling an ultrasonic surgical instrument according to tissue location
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11376002B2 (en) 2017-12-28 2022-07-05 Cilag Gmbh International Surgical instrument cartridge sensor assemblies
US11464559B2 (en) 2017-12-28 2022-10-11 Cilag Gmbh International Estimating state of ultrasonic end effector and control system therefor
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11771487B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Mechanisms for controlling different electromechanical systems of an electrosurgical instrument
US20190201139A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Communication arrangements for robot-assisted surgical platforms
US12062442B2 (en) 2017-12-28 2024-08-13 Cilag Gmbh International Method for operating surgical instrument systems
US11076921B2 (en) 2017-12-28 2021-08-03 Cilag Gmbh International Adaptive control program updates for surgical hubs
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11109866B2 (en) 2017-12-28 2021-09-07 Cilag Gmbh International Method for circular stapler control algorithm adjustment based on situational awareness
US11659023B2 (en) * 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
US20190206569A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Method of cloud based data analytics for use with the hub
US11998193B2 (en) 2017-12-28 2024-06-04 Cilag Gmbh International Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11672605B2 (en) 2017-12-28 2023-06-13 Cilag Gmbh International Sterile field interactive control displays
US11389188B2 (en) 2018-03-08 2022-07-19 Cilag Gmbh International Start temperature of blade
US11701162B2 (en) 2018-03-08 2023-07-18 Cilag Gmbh International Smart blade application for reusable and disposable devices
US11259806B2 (en) 2018-03-28 2022-03-01 Cilag Gmbh International Surgical stapling devices with features for blocking advancement of a camming assembly of an incompatible cartridge installed therein
US11090047B2 (en) 2018-03-28 2021-08-17 Cilag Gmbh International Surgical instrument comprising an adaptive control system
US11291445B2 (en) 2019-02-19 2022-04-05 Cilag Gmbh International Surgical staple cartridges with integral authentication keys
US12002571B2 (en) 2019-12-30 2024-06-04 Cilag Gmbh International Dynamic surgical visualization systems
US11284963B2 (en) * 2019-12-30 2022-03-29 Cilag Gmbh International Method of using imaging devices in surgery
US11816262B1 (en) * 2023-03-14 2023-11-14 Illuscio, Inc. Systems and methods for modifying a user interface based on eye focus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007516809A (ja) * 2003-12-30 2007-06-28 ライポソニックス, インコーポレイテッド 超音波トランスデューサ構成要素
US20100286520A1 (en) * 2009-05-11 2010-11-11 General Electric Company Ultrasound system and method to determine mechanical properties of a target region
JP2015526111A (ja) * 2012-05-22 2015-09-10 コビディエン エルピー 治療計画システム

Family Cites Families (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5383874A (en) * 1991-11-08 1995-01-24 Ep Technologies, Inc. Systems for identifying catheters and monitoring their use
US6017354A (en) * 1996-08-15 2000-01-25 Stryker Corporation Integrated system for powered surgical tools
US6490474B1 (en) * 1997-08-01 2002-12-03 Cardiac Pathways Corporation System and method for electrode localization using ultrasound
US6106460A (en) * 1998-03-26 2000-08-22 Scimed Life Systems, Inc. Interface for controlling the display of images of diagnostic or therapeutic instruments in interior body regions and related data
US7263397B2 (en) * 1998-06-30 2007-08-28 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and apparatus for catheter navigation and location and mapping in the heart
US6603494B1 (en) * 1998-11-25 2003-08-05 Ge Medical Systems Global Technology Company, Llc Multiple modality interface for imaging systems including remote services over a network
US6540685B1 (en) * 2000-11-09 2003-04-01 Koninklijke Philips Electronics N.V. Ultrasound diagnostic device
US7285117B2 (en) * 2002-03-15 2007-10-23 Boston Scientific Scimed, Inc. Medical device control systems
CA2633137C (en) * 2002-08-13 2012-10-23 The Governors Of The University Of Calgary Microsurgical robot system
WO2005107601A2 (en) * 2004-05-06 2005-11-17 Focus Surgery, Inc. Method and apparatus for the selective treatment of tissue
US7633502B2 (en) * 2004-05-19 2009-12-15 Boston Scientific Scimed, Inc. System and method for graphically representing anatomical orifices and vessels
US20120046547A1 (en) * 2004-10-06 2012-02-23 Guided Therapy Systems, Llc System and method for cosmetic treatment
US20060079842A1 (en) * 2004-10-13 2006-04-13 Liebel-Flarsheim Company Powerhead control in a power injection system
US7720520B2 (en) * 2004-12-01 2010-05-18 Boston Scientific Scimed, Inc. Method and system for registering an image with a navigation reference catheter
JP5188389B2 (ja) * 2005-05-05 2013-04-24 ボストン サイエンティフィック リミテッド 肺静脈口を画像として再構築する予成形した位置確認カテーテル及びシステム
US8073528B2 (en) * 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
WO2007005976A1 (en) * 2005-07-01 2007-01-11 Hansen Medical, Inc. Robotic catheter system
US8657814B2 (en) * 2005-08-22 2014-02-25 Medtronic Ablation Frontiers Llc User interface for tissue ablation system
US7885707B2 (en) * 2005-09-15 2011-02-08 St. Jude Medical, Atrial Fibrillation Division, Inc. Method of scaling navigation signals to account for impedance drift in tissue
US20070066911A1 (en) 2005-09-21 2007-03-22 Klaus Klingenbeck-Regn Integrated electrophysiology lab
US20070167702A1 (en) * 2005-12-30 2007-07-19 Intuitive Surgical Inc. Medical robotic system providing three-dimensional telestration
US9629567B2 (en) * 2006-01-12 2017-04-25 Biosense Webster, Inc. Mapping of complex fractionated atrial electrogram
ES2350678T3 (es) * 2006-02-27 2011-01-26 Alcon, Inc. Programa informático y sistema para un interfaz gráfica basada en una intervención.
US20070253021A1 (en) * 2006-04-28 2007-11-01 Medtronic Minimed, Inc. Identification of devices in a medical device network and wireless data communication techniques utilizing device identifiers
US7515954B2 (en) * 2006-06-13 2009-04-07 Rhythmia Medical, Inc. Non-contact cardiac mapping, including moving catheter and multi-beat integration
US7567233B2 (en) * 2006-09-06 2009-07-28 Stereotaxis, Inc. Global input device for multiple computer-controlled medical systems
US8660635B2 (en) * 2006-09-29 2014-02-25 Medtronic, Inc. Method and apparatus for optimizing a computer assisted surgical procedure
US8029447B2 (en) * 2006-10-10 2011-10-04 Volcano Corporation Multipurpose host system for invasive cardiovascular diagnostic measurement acquisition including an enhanced dynamically configured graphical display
US20080194918A1 (en) * 2007-02-09 2008-08-14 Kulik Robert S Vital signs monitor with patient entertainment console
US20090153548A1 (en) * 2007-11-12 2009-06-18 Stein Inge Rabben Method and system for slice alignment in diagnostic imaging systems
US8351666B2 (en) * 2007-11-15 2013-01-08 General Electric Company Portable imaging system having a seamless form factor
US10449330B2 (en) * 2007-11-26 2019-10-22 C. R. Bard, Inc. Magnetic element-equipped needle assemblies
ES2557084T3 (es) * 2007-11-26 2016-01-21 C. R. Bard, Inc. Sistema integrado para la colocación intravascular de un catéter
US8849382B2 (en) * 2007-11-26 2014-09-30 C. R. Bard, Inc. Apparatus and display methods relating to intravascular placement of a catheter
US9649048B2 (en) * 2007-11-26 2017-05-16 C. R. Bard, Inc. Systems and methods for breaching a sterile field for intravascular placement of a catheter
US10751509B2 (en) * 2007-11-26 2020-08-25 C. R. Bard, Inc. Iconic representations for guidance of an indwelling medical device
US8103327B2 (en) * 2007-12-28 2012-01-24 Rhythmia Medical, Inc. Cardiac mapping catheter
US9204927B2 (en) * 2009-05-13 2015-12-08 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for presenting information representative of lesion formation in tissue during an ablation procedure
US8352015B2 (en) * 2008-05-27 2013-01-08 Kyma Medical Technologies, Ltd. Location tracking of a metallic object in a living body using a radar detector and guiding an ultrasound probe to direct ultrasound waves at the location
US8418073B2 (en) * 2009-03-09 2013-04-09 Intuitive Surgical Operations, Inc. User interfaces for electrosurgical tools in robotic surgical systems
US8423182B2 (en) * 2009-03-09 2013-04-16 Intuitive Surgical Operations, Inc. Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems
US8326419B2 (en) * 2009-04-07 2012-12-04 Pacesetter, Inc. Therapy optimization via multi-dimensional mapping
US20100286518A1 (en) * 2009-05-11 2010-11-11 General Electric Company Ultrasound system and method to deliver therapy based on user defined treatment spaces
US20100286519A1 (en) * 2009-05-11 2010-11-11 General Electric Company Ultrasound system and method to automatically identify and treat adipose tissue
US9330497B2 (en) * 2011-08-12 2016-05-03 St. Jude Medical, Atrial Fibrillation Division, Inc. User interface devices for electrophysiology lab diagnostic and therapeutic equipment
US9439736B2 (en) * 2009-07-22 2016-09-13 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for controlling a remote medical device guidance system in three-dimensions using gestures
US8979871B2 (en) * 2009-08-13 2015-03-17 Monteris Medical Corporation Image-guided therapy of a tissue
EP2517622A3 (en) * 2009-09-29 2013-04-24 C. R. Bard, Inc. Stylets for use with apparatus for intravascular placement of a catheter
EP2913000B1 (en) * 2010-05-28 2020-02-12 C.R. Bard, Inc. Apparatus for use with needle insertion guidance system
CN103221976A (zh) * 2010-08-04 2013-07-24 P治疗有限公司 远程治疗的控制系统和方法
WO2012064769A2 (en) * 2010-11-08 2012-05-18 Vasonova, Inc. Endovascular navigation system
WO2012092016A1 (en) * 2010-12-30 2012-07-05 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for diagnosing arrhythmias and directing catheter therapies
US8948837B2 (en) * 2011-01-13 2015-02-03 Rhythmia Medical, Inc. Electroanatomical mapping
CN103313757B (zh) * 2011-01-18 2016-12-14 皇家飞利浦电子股份有限公司 用于确定高强度聚焦超声可到达靶区域的治疗设备以及方法
WO2012154219A2 (en) * 2011-05-09 2012-11-15 Cyberheart, Inc. Renovascular treatment device, system and method for radiosurgicauy alleviating hypertension
US9510786B2 (en) * 2011-06-22 2016-12-06 Biosense Webster (Israel) Ltd. Optical pressure measurement
US9155823B2 (en) * 2011-08-22 2015-10-13 Fresenius Medical Care Holdings, Inc. Determining dialysis treatment effectiveness
US9733119B2 (en) * 2011-11-02 2017-08-15 Seno Medical Instruments, Inc. Optoacoustic component utilization tracking
US9101333B2 (en) * 2011-11-14 2015-08-11 Biosense Webster (Israel) Ltd. Integrative atrial fibrillation ablation
BR112014012955A2 (pt) * 2011-12-03 2017-06-13 Koninklijke Philips Nv sistema de planejamento, sistema tendo portas de visualização acopladas operatoriamente, método para o planejamento de um procedimento, e, método para o acoplamento operacional de portas de visualização
US9820802B1 (en) * 2015-05-11 2017-11-21 American Medical Technologies, Llc Methods and system of temperature based alarms and/or automatic interrupt (shut-off) in fluoroscopy (medical images) based mapping system for cryoballoon ablations or radiofrequency (RF) ablations for atrial fibrillation
US9545192B2 (en) * 2012-05-04 2017-01-17 Given Imaging Ltd. System and method for automatic navigation of a capsule based on image stream captured in-vivo
US9439622B2 (en) * 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US8834172B2 (en) * 2012-06-12 2014-09-16 Biosense Webster (Israel) Ltd. Physical heart simulator
EP2866643B1 (en) * 2012-06-28 2017-09-20 Koninklijke Philips N.V. Evaluation of patency using photo-plethysmography on endoscope images
US20140031808A1 (en) * 2012-07-24 2014-01-30 Boston Scientific Scimed, Inc. Medical device tracking and energy feedback
CN104619259A (zh) * 2012-09-05 2015-05-13 波士顿科学医学有限公司 通过超声回波描记术的组织的表征
CN104661609A (zh) * 2012-09-20 2015-05-27 波士顿科学医学有限公司 近距离超声回波描记术标测
NZ741896A (en) 2012-10-01 2019-11-29 Resmed Inc System and method for medical device identifier
US9078565B2 (en) * 2012-10-04 2015-07-14 General Electric Company Dual display CT scanner user interface
WO2014062219A1 (en) 2012-10-16 2014-04-24 Ams Research Corporation Laser ablation with electromagnetic energy feedback
US10702209B2 (en) * 2012-10-24 2020-07-07 Amo Development, Llc Graphical user interface for laser eye surgery system
WO2014099914A1 (en) * 2012-12-21 2014-06-26 Paul Hoseit System and method for flush-triggered imaging
US10368836B2 (en) * 2012-12-26 2019-08-06 Volcano Corporation Gesture-based interface for a multi-modality medical imaging system
US9779483B2 (en) * 2012-12-26 2017-10-03 Volcano Corporation Measurement and enhancement in a multi-modality medical imaging system
EP2967391A4 (en) * 2013-03-12 2016-11-02 Donna Collins SYSTEMS AND METHODS FOR DIAGNOSING CORONARY MICROVASCULAR DISEASE
WO2015004670A1 (en) * 2013-07-10 2015-01-15 Real View Imaging Ltd. Three dimensional user interface
US9818231B2 (en) * 2013-08-13 2017-11-14 Boston Scientific Scimed, Inc. Computer visualization of anatomical items
WO2015023665A1 (en) * 2013-08-15 2015-02-19 Intuitive Surgical Operations, Inc. Graphical user interface for catheter positioning and insertion
US10478075B2 (en) * 2013-10-25 2019-11-19 Qualcomm Incorporated System and method for obtaining bodily function measurements using a mobile device
US10978184B2 (en) * 2013-11-04 2021-04-13 Terarecon, Inc. Evolving contextual clinical data engine for medical information
US9713456B2 (en) * 2013-12-30 2017-07-25 Acist Medical Systems, Inc. Position sensing in intravascular imaging
US9420996B2 (en) * 2014-01-30 2016-08-23 General Electric Company Methods and systems for display of shear-wave elastography and strain elastography images
KR20160120738A (ko) * 2014-02-18 2016-10-18 트리아 뷰티, 인코포레이티드 인터넷 접속 피부과 장치 및 시스템
CN105960201B (zh) * 2014-02-25 2020-03-17 圣犹达医疗用品心脏病学部门有限公司 用于使用多电极导管的心脏基底的局部电生理表征的系统和方法
US9259165B2 (en) * 2014-02-26 2016-02-16 Biosense Webster (Israel) Ltd. Determination of reference annotation time from multi-channel electro-cardiogram signals
WO2015134953A1 (en) * 2014-03-06 2015-09-11 Virtual Reality Medical Applications, Inc. Virtual reality medical application system
US20170119353A1 (en) * 2014-03-27 2017-05-04 B-K Medical Aps Ultrasound imaging system touchscreen user interface
US10980439B2 (en) * 2014-08-06 2021-04-20 Biosense Webster (Israel) Ltd Wavefront analysis based on ablation parameters
US9662033B2 (en) * 2014-12-31 2017-05-30 Biosense Webster (Israel) Ltd. System and method for visualizing electrophysiology data
JP6633082B2 (ja) * 2015-01-07 2020-01-22 セント・ジュード・メディカル,カーディオロジー・ディヴィジョン,インコーポレイテッド アニメーションを使用して心臓タイミング情報を可視化するためのシステム、方法、および装置
US10973584B2 (en) * 2015-01-19 2021-04-13 Bard Access Systems, Inc. Device and method for vascular access
WO2016160849A1 (en) * 2015-03-30 2016-10-06 Zoll Medical Corporation Medical device management
US10226219B2 (en) * 2015-05-11 2019-03-12 Elwha Llc Interactive surgical drape, system, and related methods
WO2017011576A2 (en) * 2015-07-13 2017-01-19 Mako Surgical Corp. Lower extremities leg length calculation method
CN108024698B (zh) * 2015-08-14 2020-09-15 直观外科手术操作公司 用于图像引导外科手术的配准系统和方法
WO2017049163A1 (en) * 2015-09-18 2017-03-23 Auris Surgical Robotics, Inc. Navigation of tubular networks
US10271757B2 (en) * 2015-09-26 2019-04-30 Boston Scientific Scimed Inc. Multiple rhythm template monitoring
US9955986B2 (en) * 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US10549128B2 (en) * 2015-11-04 2020-02-04 Vytronus, Inc. Systems and methods for imaging and ablating tissue
JP2018535739A (ja) * 2015-11-16 2018-12-06 アパマ・メディカル・インコーポレーテッド エネルギー送達デバイス
US10143526B2 (en) * 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US9940747B2 (en) * 2015-12-02 2018-04-10 Biosense Webster (Israel) Ltd. Mapping 3D to 2D images
US10368825B2 (en) * 2016-01-20 2019-08-06 General Electric Company Methods and systems for computed tomography
CN108024838B (zh) * 2016-02-12 2021-10-01 直观外科手术操作公司 用于在图像引导手术中使用配准荧光透视图像的系统和方法
EP3455756A2 (en) * 2016-05-12 2019-03-20 Affera, Inc. Anatomical model controlling
JP6963567B2 (ja) * 2016-05-19 2021-11-10 アシスト・メディカル・システムズ,インコーポレイテッド 血管内プロセスにおける位置検知
US10357315B2 (en) * 2016-05-27 2019-07-23 Mako Surgical Corp. Preoperative planning and associated intraoperative registration for a surgical system
US9918792B1 (en) * 2016-05-31 2018-03-20 American Medical Technologies, Llc Methods and system for atrial fibrillation ablation using a fluoroscopy and/or medical images based cardiac mapping system with optional esophageal temperature monitoring
US11612384B2 (en) * 2016-06-30 2023-03-28 Intuitive Surgical Operations, Inc. Graphical user interface for displaying guidance information in a plurality of modes during an image-guided procedure
EP3534817A4 (en) * 2016-11-04 2020-07-29 Intuitive Surgical Operations Inc. RECONFIGURABLE DISPLAY IN COMPUTER-BASED REMOTE-CONTROLLED SURGERY
JP2019534110A (ja) * 2016-11-16 2019-11-28 テラテク・コーポレーシヨン 携帯型超音波システム
EP3551114A4 (en) * 2016-12-08 2020-07-22 Intuitive Surgical Operations Inc. SYSTEMS AND METHODS FOR NAVIGATION IN IMAGE-GUIDED MEDICAL PROCESSES
US11129574B2 (en) * 2016-12-12 2021-09-28 Biosense Webster (Israel) Ltd. Real time electroanatomical coloring of the heart
US10244926B2 (en) * 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
EP3565498A4 (en) * 2017-01-09 2020-09-30 Intuitive Surgical Operations Inc. SYSTEMS AND METHODS FOR RECORDING ELONGATED DEVICES ON THREE-DIMENSIONAL IMAGES IN IMAGE-GUIDED INTERVENTIONS
US10576263B2 (en) * 2017-04-03 2020-03-03 Biosense Webster (Israel) Ltd. Tissue conduction velocity
EP3612091B1 (en) * 2017-04-18 2024-08-07 Boston Scientific Scimed Inc. Electroanatomical mapping tools facilitated by activation waveforms
CN110621252B (zh) * 2017-04-18 2024-03-15 直观外科手术操作公司 用于监测图像引导程序的图形用户界面
US10709349B2 (en) * 2017-04-18 2020-07-14 Boston Scientific Scimed Inc. Annotation waveform
WO2019010294A1 (en) * 2017-07-06 2019-01-10 Boston Scientific Scimed, Inc. ENDOSCOPE DEVICE
US10555778B2 (en) * 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11911045B2 (en) * 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11564756B2 (en) * 2017-10-30 2023-01-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
AU2018380139B2 (en) * 2017-12-06 2024-01-25 Auris Health, Inc. Systems and methods to correct for uncommanded instrument roll
US11389236B2 (en) * 2018-01-15 2022-07-19 Cardiofocus, Inc. Ablation system with automated ablation energy element
WO2019182917A1 (en) * 2018-03-17 2019-09-26 Canon U.S.A., Inc. Method for virtual device positioning on skin surface in 3d medical image data
EP3810019A4 (en) * 2018-06-21 2022-03-23 PROCEPT BioRobotics Corporation ARTIFICIAL INTELLIGENCE FOR ROBOTIC SURGERY
US20230372673A1 (en) * 2022-05-20 2023-11-23 Boston Scientific Scimed, Inc. Visual interface for motorized endoscope control

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007516809A (ja) * 2003-12-30 2007-06-28 ライポソニックス, インコーポレイテッド 超音波トランスデューサ構成要素
US20100286520A1 (en) * 2009-05-11 2010-11-11 General Electric Company Ultrasound system and method to determine mechanical properties of a target region
JP2015526111A (ja) * 2012-05-22 2015-09-10 コビディエン エルピー 治療計画システム

Also Published As

Publication number Publication date
US20210085425A1 (en) 2021-03-25
US20240257962A1 (en) 2024-08-01
WO2018208823A1 (en) 2018-11-15
US20180325619A1 (en) 2018-11-15
EP3622528A1 (en) 2020-03-18
US10881482B2 (en) 2021-01-05
CN110603599A (zh) 2019-12-20
AU2024200643A1 (en) 2024-02-22
US11984219B2 (en) 2024-05-14
JP7257331B2 (ja) 2023-04-13
AU2018266132A1 (en) 2019-10-10

Similar Documents

Publication Publication Date Title
JP7257331B2 (ja) 手術室デバイス、方法、及びシステム
US11844574B2 (en) Patient-specific preoperative planning simulation techniques
JP7221862B2 (ja) 医療器具の位置計画及び器具誘導のための解剖学的モデル
CN107405156B (zh) 用于演示对解剖体的计划自主操纵的系统和方法
JP2022512420A (ja) センサベースのナビゲーションと内視鏡検査との組み合わせを用いた外科用システム
JP2023544360A (ja) 複数の外科用ディスプレイ上へのインタラクティブ情報オーバーレイ
JP7414770B2 (ja) 医療用アーム装置、医療用アーム装置の作動方法、及び情報処理装置
JP2023544593A (ja) 協働的外科用ディスプレイ
JP7160033B2 (ja) 入力制御装置、入力制御方法、および手術システム
JP2023544594A (ja) 容量及びユーザ操作に基づく階層化されたシステムの表示制御
CN111417352A (zh) 用于设定图像引导式外科手术的轨迹和目标位置的方法和系统
JP2021522940A (ja) 仮想フットペダル
CN111278383A (zh) 用于在远程操作系统的显示器中呈现增强现实感的系统和方法
TW201946592A (zh) 腳控制之游標
CN110099649A (zh) 具有用于工具致动的虚拟控制面板的机器人外科系统
US20210378750A1 (en) Spatially-Aware Displays For Computer-Assisted Interventions
JP2022521171A (ja) コンピュータ支援手術システムの手術セッション中の撮像デバイス視点の最適化を容易にするシステム及び方法
JP2023507063A (ja) 手術中に画像取込装置を制御するための方法、装置、およびシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210414

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220926

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230403

R150 Certificate of patent or registration of utility model

Ref document number: 7257331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150