JP2022546421A - 位置センサの重みベースの位置合わせのためのシステム及び方法 - Google Patents

位置センサの重みベースの位置合わせのためのシステム及び方法 Download PDF

Info

Publication number
JP2022546421A
JP2022546421A JP2022513193A JP2022513193A JP2022546421A JP 2022546421 A JP2022546421 A JP 2022546421A JP 2022513193 A JP2022513193 A JP 2022513193A JP 2022513193 A JP2022513193 A JP 2022513193A JP 2022546421 A JP2022546421 A JP 2022546421A
Authority
JP
Japan
Prior art keywords
instrument
location points
coordinate system
model
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022513193A
Other languages
English (en)
Other versions
JPWO2021038469A5 (ja
Inventor
ラフィー-タリ・ヘディー
イ・メンロン
ウマラネニ・リトビック
スリニバサン・スバシニ
マリニン・ユーリー
Original Assignee
オーリス ヘルス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オーリス ヘルス インコーポレイテッド filed Critical オーリス ヘルス インコーポレイテッド
Publication of JP2022546421A publication Critical patent/JP2022546421A/ja
Publication of JPWO2021038469A5 publication Critical patent/JPWO2021038469A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00477Coupling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/303Surgical robots specifically adapted for manipulations within body lumens, e.g. within lumen of gut, spine, or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/306Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3612Image-producing devices, e.g. surgical cameras with images taken automatically
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3614Image-producing devices, e.g. surgical cameras using optical fibre
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy

Abstract

位置センサの重みベースの位置合わせのためのシステム及び方法が提供される。一態様では、システムは、器具と、器具を管腔網の第1の分岐に沿って駆動するための第1のコマンドセットを提供するように構成されたプロセッサと、を含み、第1の分岐は、モデル内のターゲットへの経路外にある。プロセッサはまた、器具を第1の分岐に沿って駆動する間に、1つ又は2つ以上の位置合わせパラメータのセットを追跡し、位置合わせパラメータのセットが位置合わせ基準を満たすことを判定するように構成されている。プロセッサは、器具を第1の分岐及び第2の分岐に沿って駆動する間に位置センサのセットから受信した位置データに基づいて、位置センサ座標系とモデル座標系との間の位置合わせを判定するように更に構成されている。

Description

(関連出願の相互参照)
本出願は、参照によりその全体が本明細書に組み込まれる、2019年8月30日に出願の米国仮出願第62/894,639号の利益を主張するものである。
(発明の分野)
本明細書に開示されるシステム及び方法は、位置センサの位置合わせのためのシステム及び方法に関し、より具体的には、位置センサ座標系の別の座標系への位置合わせの重み付けに関する。
内視鏡検査(例えば気管支鏡検査)などの医療処置は、診断及び/又は治療目的で、患者の管腔網(例えば、気道)内への医療用具の挿入を伴うことがある。外科用ロボットシステムが、医療処置中の医療用具の挿入及び/又は操作を制御するために使用されることがある。外科用ロボットシステムは、医療処置前及び医療処置中に医療用具の位置決めを制御するために使用され得るマニピュレータアセンブリを含む少なくとも1つのロボットアームを備え得る。外科用ロボットシステムは、位置センサ座標系に対する医療用具の遠位端のポジションを示す位置データを生成するように構成された位置センサを更に備え得る。
外科用ロボットシステムは、患者の管腔網のモデルを更に利用することができ、このモデルは、モデル座標系に対して定義され得る。位置センサ座標系は、モデル座標系に位置合わせされなくてもよく、したがって、システムは、位置センサ座標系とモデル座標系との間の位置合わせを達成するプロセスを実行し、それにより位置センサから受信した位置データを使用して、モデルに対する医療用具の遠位端のポジションを判定することができる。
本開示のシステム、方法及び装置はそれぞれ、いくつかの革新的な態様を有し、そのうちの1つとして本明細書に開示される望ましい属性を単独で司るものではない。
一態様では、1つ又は2つ以上の位置センサのセットを備える器具であって、位置センサのセットが、位置センサ座標系内の位置センサのセットのポジションを示す位置データを生成するように構成されている、器具と、器具の遠位端の移動を制御するように構成された器具マニピュレータのセットと、プロセッサのセットと、プロセッサのセットと通信し、患者の管腔網のモデルを記憶した少なくとも1つのコンピュータ可読メモリと、を備え、モデルが、モデル座標系内のターゲット及びターゲットへの経路を含む、システムが提供される。メモリは、プロセッサのセットに、器具を管腔網の第1の分岐に沿って駆動するように、第1のコマンドセットを器具マニピュレータのセットに提供することであって、第1の分岐が、ターゲットへの経路の外側にある、提供することと、器具を第1の分岐に沿って駆動する間に、1つ又は2つ以上の位置合わせパラメータのセットを追跡することと、位置合わせパラメータのセットが位置合わせ基準を満たすことを判定することと、器具を経路に戻し、器具を第2の分岐に沿って駆動するように、第2のコマンドセットを器具マニピュレータのセットに提供することであって、第2の分岐が、ターゲットへの経路の一部である、提供することと、位置センサ座標系とモデル座標系との間の位置合わせを、器具を第1の分岐及び第2の分岐に沿って駆動する間に、位置センサのセットから受信した位置データに基づいて判定することと、を行わせるための、コンピュータ実行可能命令を更に記憶していてもよい。
別の態様では、非一時的コンピュータ可読記憶媒体であって、実行されると、少なくとも1つのコンピューティングデバイスに、器具を管腔網の第1の分岐に沿って駆動するように、第1のコマンドセットを器具マニピュレータのセットに提供することであって、器具が、1つ又は2つ以上の位置センサのセットを含み、位置センサのセットが、位置センサ座標系内の位置センサのセットのポジションを示す位置データを生成するように構成されており、器具マニピュレータのセットが、器具の遠位端の移動を制御するように構成されており、メモリが、患者の管腔網のモデルを記憶しており、モデルが、モデル座標系内のターゲット及びターゲットへの経路を含み、第1の分岐は、ターゲットへの経路の外側にある、提供することと、器具を第1の分岐に沿って駆動する間に、1つ又は2つ以上の位置合わせパラメータのセットを追跡することと、位置合わせパラメータのセットが位置合わせ基準を満たすことを判定することと、器具を経路に戻し、器具を第2の分岐に沿って駆動するように、第2のコマンドセットを器具マニピュレータのセットに提供することであって、第2の分岐は、ターゲットへの経路の一部である、提供することと、器具を第1の分岐及び第2の分岐に沿って駆動する間に、位置センサのセットから、受信した位置データに基づいて、位置センサ座標系とモデル座標系との間の位置合わせを判定することと、を行わせるための、命令を記憶している、非一時的コンピュータ可読記憶媒体が提供される。
更に別の態様では、1つ又は2つ以上の位置センサのセットを位置合わせする方法であって、器具を管腔網の第1の分岐に沿って駆動するように、第1のコマンドセットを器具マニピュレータのセットに提供することであって、器具が、位置センサのセットを含み、位置センサのセットが、位置センサ座標系内の位置センサのセットのポジションを示す位置データを生成するように構成されており、器具マニピュレータのセットが、器具の遠位端の移動を制御するように構成されており、メモリが、患者の管腔網のモデルを記憶しており、モデルが、モデル座標系内のターゲット及びターゲットへの経路を含み、第1の分岐がターゲットへの経路の外側にある、提供することと、器具を第1の分岐に沿って駆動する間に、1つ又は2つ以上の位置合わせパラメータのセットを追跡することと、位置合わせパラメータのセットが、位置合わせ基準を満たすことを判定することと、器具を経路に戻し、器具を第2の分岐に沿って駆動するように、第2のコマンドセットを器具マニピュレータのセットに提供することであって、第2の分岐が、ターゲットへの経路の一部である、提供することと、器具を第1の分岐及び第2の分岐に沿って駆動する間に、位置センサのセットから受信した位置データに基づいて、位置センサ座標系とモデル座標系との間の位置合わせを判定することと、を含む、方法が提供される。
なおも更なる別の態様では、1つ又は2つ以上のプロセッサのセットと、プロセッサのセットと通信し、患者の管腔網のモデルを記憶している少なくとも1つのコンピュータ可読メモリと、を備えるシステムが提供され、このモデルが、モデル座標系内のターゲットと、ターゲットへの経路とを含み、メモリが、プロセッサのセットに、ディスプレイデバイスを介して管腔網を表示する命令を提供することと、モデル座標系内のターゲットの位置の指標を受信することと、管腔網内の第1の分岐及び第2の分岐を識別することであって、第1の分岐は、ターゲットへの経路の外側にあり、第2の分岐は、ターゲットへの経路の一部である、識別することと、器具の遠位端を第1の分岐に沿って駆動し、第1の分岐から経路に戻し、第2の分岐に沿って駆動するための命令のセットを生成することであって、命令に従って器具を駆動する間に1つ又は2つ以上の位置センサのセットから受信した位置データが、位置データの位置座標系とモデル座標系との間の位置合わせを容易にする、生成することと、器具を第1の分岐に沿って駆動する間に追跡される1つ又は2つ以上の位置合わせパラメータの位置合わせ基準を判定することと、を行わせる、コンピュータ実行可能命令を更に記憶している。
更に別の態様では、非一時的コンピュータ可読記憶媒体であって、実行されると、少なくとも1つのコンピューティングデバイスに、ディスプレイデバイスを介して管腔網を表示する命令を提供することであって、管腔網が、非一時的コンピュータ可読記憶媒体に記憶され、モデルが、モデル座標系内のターゲット及びターゲットへの経路を含む、提供することと、モデル座標系内のターゲットの位置の指標を受信することと、管腔網内の第1の分岐及び第2の分岐を識別することであって、第1の分岐が、ターゲットへの経路の外側にあり、第2の分岐が、ターゲットへの経路の一部である、識別することと、器具の遠位端を第1の分岐に沿って駆動し、第1の分岐から経路に戻し、第2の分岐に沿って駆動するための命令のセットを生成させることであって、命令に従って器具を駆動する間に1つ又は2つ以上の位置センサのセットから受信した位置データが、位置データの位置座標系とモデル座標系との間の位置合わせを容易にする、生成することと、器具を第1の分岐に沿って駆動する間に追跡される1つ又は2つ以上の位置合わせパラメータの位置合わせ基準を判定することと、を行わせるための、命令を更に記憶している、非一時的コンピュータ可読記憶媒体が提供される。
別の態様では、術前計画の方法であって、ディスプレイデバイスを介して管腔網を表示するための命令を提供することであって、管腔網は、非一時的コンピュータ可読記憶媒体に記憶されており、モデルが、モデル座標系内のターゲット及びターゲットへの経路を含む、提供することと、モデル座標系内のターゲットの位置の指標を受信することと、管腔網内の第1の分岐及び第2の分岐を識別することであって、第1の分岐が、ターゲットへの経路の外側にあり、第2の分岐が、ターゲットへの経路の一部である、識別することと、器具の遠位端を第1の分岐に沿って駆動し、第1の分岐から経路に戻し、第2の分岐に沿って駆動するための命令のセットを生成することであて、命令に従って器具を駆動する間に1つ又は2つ以上の位置センサのセットから受信した位置データが、位置データの位置座標系とモデル座標系との間の位置合わせを容易にする、生成することと、器具を第1の分岐に沿って駆動する間に追跡される1つ又は2つ以上の位置合わせパラメータの位置合わせ基準を判定することと、を含む、術前計画の方法が提供される。
開示される態様は、以下、添付の図面と併せて説明され、開示された態様を例示するが、限定するものではなく、同様の称号は同様の要素を示す。
診断及び/又は治療用気管支鏡検査処置のために配置されたカートベースのロボットシステムの実施形態である。 図1のロボットシステムの更なる態様である。 尿管鏡検査のために配置された図1のロボットシステムの実施形態である。 血管処置のために配置された図1のロボットシステムの実施形態である。 気管支鏡検査処置のために配置されたテーブルベースのロボットシステムの実施形態である。 図5のロボットシステムの代替的な図である。 ロボットアームを格納するように構成された例示的なシステムである。 尿管鏡検査処置のために構成されたテーブルベースのロボットシステムの実施形態である。 腹腔鏡処置のために構成されたテーブルベースのロボットシステムの実施形態である。 ピッチ又は傾斜調整を備えた図5~図9のテーブルベースのロボットシステムの実施形態である。 図5~10のテーブルベースのロボットシステムのテーブルとカラムとの間のインターフェースの詳細な図示を提供する。 例示的な器具ドライバである。 ペアの器具ドライバを備えた例示的な医療用器具である。 駆動ユニットの軸が器具の細長いシャフトの軸に平行である、器具ドライバ及び器具の代替的な設計を示す。 例示的な実施形態による、図13及び14の器具の位置などの、図1~図10のロボットシステムの1つ又は2つ以上の要素の位置を推定する位置特定システムを示すブロック図である。 開示されたナビゲーションシステム及び技法の1つ又は2つ以上の態様を実施する例示的な動作環境を示す図である。 図16Aの手術環境においてナビゲートされることができる例示的な管腔網である。 図16Bの管腔網を通る器具の移動を誘導するためのロボットシステムの例示的ロボットアームを示す図である。 例えば例示的な手術環境においてコマンドコンソールとして使用することができる例示的なコマンドコンソールを示す。 本明細書に記載されるような撮像及びEM検知能力を有する例示的な器具、例えば、図16A~図16Cの器具の遠位端を示す図である。 本開示の態様に従って、位置センサの位置合わせを実行することができる、例示的な管腔網を示す図である。 本開示の態様による、位置センサ座標系を対側に位置合わせするための、外科用ロボットシステム又はその構成要素によって動作可能な例示的方法を示すフローチャートである。 本開示の態様による、対側位置合わせを円滑にするために十分な位置データが受信されたかどうかを判定するための、外科用ロボットシステム又はその構成要素によって動作可能な例示的方法を示すフローチャートである。 本開示の態様による、管腔網のモデルに関する位置データを示す図である。 本開示の態様による、対側位置合わせプロセスを事前形成しない位置データの位置合わせの実施例を示す図である。 本開示の態様による、術前計画のための、外科用ロボットシステム又はその構成要素によって動作可能な例示的方法を示すフローチャートである。 センサ座標系とモデル座標系との間の位置合わせを判定するための例示的な方法を示すフローチャートである。 センサ位置点及びモデル位置点がモデル座標系内のモデル上に重ね合わされる実施例を示す。 距離に比例する重みを判定するための一実施例を示す。 距離に基づいてバイナリ重みを判定するための別の実施例を示す。 距離に基づいてバイナリ重みを判定するための更に別の実施例を示す。
1.概論
本開示の態様は、腹腔鏡などの低侵襲性、及び内視鏡などの非侵襲性の両方の処置を含む、様々な医療処置を行うことができるロボットで使用可能な医療用システムに統合され得る。内視鏡処置のうち、システムは、気管支鏡検査、尿管鏡検査、胃鏡検査などを行うことができる。
幅広い処置を行うことに加えて、システムは、医師を支援するための強調された撮像及び誘導などの追加の利益を提供することができる。追加的に、システムは、厄介な腕の動作及び姿勢を必要とせずに、人間工学的位置から処置を行う能力を医師に提供することができる。また更に、システムは、システムの器具のうちの1つ又は2つ以上が単一のユーザによって制御され得るように、改善された使いやすさで処置を行う能力を医師に提供することができる。
以下、説明を目的として、図面と併せて、様々な実施形態が説明される。開示される概念の多くの他の実装態様が可能であり、開示される実装態様で様々な利点が達成され得ることを理解されたい。見出しが、参照のために本明細書に含まれ、様々なセクションの位置を特定する支援となる。これらの見出しは、それに関して説明される概念の範囲を限定することを意図するものではない。そのような概念は、本明細書全体にわたって適用可能性を有し得る。
A.ロボットシステム-カート
ロボットで使用可能な医療用システムは、特定の処置に応じて様々な方法で構成され得る。図1は、診断及び/又は治療用気管支鏡検査処置のために配置された、カートベースのロボット制御可能なシステム10の実施形態を示す。気管支鏡検査の間、システム10は、気管支鏡検査のための処置専用気管支鏡であり得る操縦可能な内視鏡13などの医療用器具を、診断及び/又は治療用具を送達するための自然開口部アクセスポイント(すなわち、本実施例ではテーブル上に位置決めされている患者の口)に送達するための1つ又は2つ以上のロボットアーム12を有するカート11を含むことができる。示されるように、カート11は、アクセスポイントへのアクセスを提供するために、患者の上部胴体に近接して位置決めすることができる。同様に、ロボットアーム12は、アクセスポイントに対して気管支鏡を位置決めするために作動させることができる。図1の配置はまた、胃腸管(GI)処置を胃鏡(GI処置のための特殊な内視鏡)を用いて実行するときにも利用され得る。図2は、カートの例示的な実施形態をより詳細に描画する。
図1を引き続き参照すると、一旦カート11が適切に位置付けられると、ロボットアーム12は、操縦可能な内視鏡13をロボットで、手動で、又はそれらの組み合わせで患者内に挿入することができる。示されるように、操縦可能な内視鏡13は、内側リーダ部分及び外側シース部分などの少なくとも2つの入れ子式部品を含んでもよく、各部分は、器具ドライバの組28から別個の器具ドライバに連結され、各器具ドライバは、個々のロボットアームの遠位端部に連結されている。リーダ部分をシース部分と同軸上に位置合わせするのを容易にする、器具ドライバ28のこの直線配置は、1つ又は2つ以上のロボットアーム12を異なる角度及び/又は位置に操作することによって空間内に再位置決めされ得る「仮想レール」29を作成する。本明細書に記載される仮想レールは、破線を使用して図に示されており、したがって破線は、システムの物理的構造を示さない。仮想レール29に沿った器具ドライバ28の並進は、外側シース部分に対して内側リーダ部分を入れ子にするか、又は内視鏡13を患者から前進若しくは後退させる。仮想レール29の角度は、臨床用途又は医師の好みに基づいて調整、並進、及び枢動させられてもよい。例えば、気管支鏡検査では、示されるような仮想レール29の角度及び位置は、内視鏡13を患者の口内に曲げ入れることによる摩擦を最小限に抑えながら内視鏡13への医師のアクセスを提供する妥協を表す。
内視鏡13は、標的の目的地又は手術部位に到達するまで、ロボットシステムからの正確なコマンドを使用して挿入後に患者の気管及び肺の下方に向けられてもよい。患者の肺網を通したナビゲーションを高め、及び/又は所望の標的に到達するために、内視鏡13を操縦して、内側リーダ部分を外側シース部分から入れ子状に延在させ、高められた関節運動及びより大きな曲げ半径を得てもよい。別個の器具ドライバ28の使用により、リーダ部分及びシース部分が互いに独立して駆動することも可能になる。
例えば、内視鏡13は、例えば、患者の肺内の病変又は小結節などの標的に生検針を送達するように方向付けられてもよい。針は、内視鏡の長さにわたる作業チャネルの下方に展開されて、病理医によって分析される組織サンプルを得てもよい。病理の結果に応じて、追加の生検のために追加のツールが内視鏡の作業チャネルの下方に展開されてもよい。小結節を悪性と識別した後、内視鏡13は、潜在的な癌組織を切除するために器具を内視鏡的に送達してもよい。場合によっては、診断及び治療的処置は、別個の処置で送達される必要があってもよい。これらの状況において、内視鏡13はまた、標的小結節の場所を「マーク」するために基準を送達するのに使用されてもよい。他の例では、診断及び治療的処置は、同じ処置中に送達されてもよい。
システム10はまた、カート11に支持ケーブルを介して接続されて、カート11への制御、電子機器、流体工学、光学系、センサ、及び/又は電力のためのサポートを提供し得る移動可能なタワー30を含んでもよい。タワー30内にこのような機能を置くことにより、動作を行う医師及びそのスタッフがより容易に調整及び/又は再位置決めすることができるより小さいフォームファクタのカート11が可能となる。追加的に、カート/テーブルと支持タワー30との間の機能の分割は、手術室の乱雑さを低減し、臨床ワークフローの改善を促進する。カート11は患者に近接して配置されてもよいが、タワー30は、処置中に邪魔にならないように離れた場所に格納されてもよい。
上述のロボットシステムのサポートにおいて、タワー30は、例えば、永続的な磁気記憶ドライブ、ソリッドステートドライブなどの非一時的コンピュータ可読記憶媒体内にコンピュータプログラム命令を記憶するコンピュータベースの制御システムの構成要素を含んでもよい。これらの命令の実行は、実行がタワー30内で行われるのか又はカート11で行われるのかにかかわらず、システム全体又はそのサブシステムを制御してもよい。例えば、コンピュータシステムのプロセッサによって実行されるとき、命令は、ロボットシステムの構成要素に、関連するキャリッジ及びアームマウントを作動させ、ロボットアームを作動させ、医療用器具を制御させてもよい。例えば、制御信号を受信したことに応答して、ロボットアームの関節内のモータは、アームをある特定の姿勢に位置決めしてもよい。
タワー30は、内視鏡13を通して展開され得るシステムに制御された灌注及び吸引能力を提供するために、ポンプ、流量計、弁制御、及び/又は流体アクセスも含んでもよい。これらの構成要素は、タワー30のコンピュータシステムも使用して制御されてもよい。いくつかの実施形態では、灌注及び吸引能力は、別個のケーブルを通して内視鏡13に直接送達されてもよい。
タワー30は、フィルタリングされ、保護された電力をカート11に提供するように設計された電圧及びサージ保護具を含んでもよく、それによって、カート11内に電力変圧器及び他の補助電力構成要素を配置することが回避され、カート11はより小さく、より移動可能になる。
タワー30は、ロボットシステム10全体に配備されたセンサのための支持機器も含んでもよい。例えば、タワー30は、ロボットシステム10を通して光センサ又はカメラから受信したデータを検出、受信、及び処理するためのオプトエレクトロニクス機器を含んでもよい。制御システムと組み合わせて、そのようなオプトエレクトロニクス機器は、タワー30内を含むシステム全体に配置された任意の数のコンソール内に表示するためのリアルタイム画像を生成するように使用されてもよい。同様に、タワー30はまた、展開された電磁(EM)センサから信号を受信し、受信した信号を処理するための電子サブシステムも含んでもよい。タワー30はまた、医療用器具内又は医療用器具上のEMセンサによる検出のためにEM場発生器を収容し、位置決めするためにも使用されてもよい。
タワー30はまた、システムの残りの部分で利用可能な他のコンソール、例えば、カートの上部上に装着されたコンソールに追加して、コンソール31を含んでもよい。コンソール31は、オペレータである医師のためのユーザインターフェース及びタッチスクリーンなどの表示画面を含んでもよい。システム10内のコンソールは、一般に、ロボット制御、並びに内視鏡13のナビゲーション情報及び位置特定情報などの処置の術前及びリアルタイム情報の両方を提供するように設計される。コンソール31が医師に利用可能な唯一のコンソールではない場合、コンソール31は、看護師などの第2のオペレータによって使用されて、患者の健康又は生命及びシステムの動作を監視し、並びにナビゲーション及び位置特定情報などの処置固有のデータを提供することができる。
タワー30は、1つ又は2つ以上のケーブル又は接続部(図示せず)を介してカート11及び内視鏡13に連結されてもよい。いくつかの実施形態では、タワー30からのサポート機能は、単一ケーブルを通してカート11に提供されることにより、手術室を簡略化し、整理整頓することができる。他の実施形態では、特定の機能は、別個の配線及び接続部で連結されてもよい。例えば、単一の電力ケーブルを通してカートに電力が供給されてもよい一方、制御、光学、流体工学、及び/又はナビゲーションのためのサポートは、別個のケーブルを通して提供されてもよい。
図2は、図1に示されるカートベースのロボット制御可能なシステムからのカートの実施形態の詳細な図を提供する。カート11は、概して、細長い支持構造14(「カラム」と呼ばれることが多い)、カート基部15、及びカラム14の頂部にあるコンソール16を含む。カラム14は、1つ又は2つ以上のロボットアーム12(図2には3つ示されている)の展開を支持するためのキャリッジ17(代替的に「アーム支持体」)などの1つ又は2つ以上のキャリッジを含んでもよい。キャリッジ17は、患者に対してより良好に位置決めするために垂直軸に沿って回転してロボットアーム12の基部を調整する、個別に構成可能なアームマウントを含んでもよい。キャリッジ17はまた、キャリッジ17がカラム14に沿って垂直方向に並進することを可能にするキャリッジインターフェース19を含む。
キャリッジインターフェース19は、キャリッジ17の垂直方向の並進を案内するためにカラム14の両側に位置決めされているスロット20などのスロットを通してカラム14に接続されている。スロット20は、カート基部15に対して様々な垂直方向の高さでキャリッジを位置付け及び保持するための垂直方向の並進インターフェースを含む。キャリッジ17の垂直方向の並進により、カート11は、様々なテーブルの高さ、患者のサイズ、及び医師の好みを満たすようにロボットアーム12のリーチを調整することが可能となる。同様に、キャリッジ17上の個別に構成可能なアームマウントにより、ロボットアーム12のロボットアーム基部21を様々な構成で角度付けすることが可能となる。
いくつかの実施形態では、キャリッジ17が垂直方向に並進するときにカラム14の内部チャンバ及び垂直方向の並進インターフェース内に汚れ及び流体が侵入するのを防止するために、スロット20には、スロット表面と同一平面及び平行であるスロットカバーが追加されてもよい。スロットカバーは、スロット20の垂直方向の頂部及び底部付近に位置決めされているばねスプールの対を通じて展開されてもよい。カバーは、キャリッジ17が上下に垂直方向に並進するにつれてコイル状から伸縮するように展開されるまで、スプール内でコイル巻きにされている。スプールのばね荷重は、キャリッジ17がスプールに向かって並進するときにカバーをスプール内に後退させるための力を提供する一方で、キャリッジ17がスプールから離れるように並進するときに密封も維持する。カバーは、キャリッジ17が並進するときにカバーが適切に伸縮するのを確実にするために、例えば、キャリッジインターフェース19内のブラケットを使用してキャリッジ17に接続されてもよい。
カラム14は、例えば、コンソール16からの入力などのユーザ入力に応答して生成された制御信号に応答してキャリッジ17を機械的に並進させるために垂直方向に位置合わせされた主ねじを使用するように設計された、ギア及びモータなどの機構を内部に含んでもよい。
ロボットアーム12は、一般に、一連の関節24によって接続されている一連のリンク23によって分離されたロボットアーム基部21及びエンドエフェクタ22を含んでもよく、各関節は独立したアクチュエータを含み、各アクチュエータは、独立して制御可能なモータを含む。それぞれ独立して制御可能な関節は、ロボットアームが利用可能な独立した自由度を表す。アーム12の各々は、7つの関節を有し、したがって、7つの自由度を提供する。多数の関節は、多数の自由度をもたらし、「冗長」自由度を可能にする。冗長自由度は、ロボットアーム12が、異なる連結位置及び関節角度を使用して空間内の特定の位置、向き、及び軌道で、それらのそれぞれのエンドエフェクタ22を位置付けすることを可能にする。これにより、システムが空間内の所望のポイントから医療用器具を位置決めし、方向付けることが可能になると同時に、医師がアーム関節を患者から離れる臨床的に有利な位置へと移動させて、アームの衝突を回避しながらよりよいアクセスを生み出すことを可能にする。
カート基部15は、床の上のカラム14、キャリッジ17、及びアーム12の重量の釣り合いをとる。したがって、カート基部15は、電子機器、モータ、電源、並びにカートの移動及び/又は固定化のいずれかを可能にする構成要素などの、より重い部品を収容する。例えば、カート基部15は、処置前にカートが部屋中をあちこちに容易に移動することを可能にする、転動可能なホイール形状のキャスタ25を含む。適切な位置に到達した後、キャスタ25は、処置中にカート11を所定の場所に保持するためのホイールロックを使用して静止させられてもよい。
カラム14の垂直方向の端部に位置付けされたコンソール16は、ユーザ入力を受信するためのユーザインターフェース及び表示画面(又は、例えば、タッチスクリーン26などの二重目的デバイス)の両方を可能にして、術前データ及び術中データの両方を医師であるユーザに提供する。タッチスクリーン26上の潜在的な術前データは、術前計画、術前コンピュータ断層撮影(CT)スキャンから導出されたナビゲーション及びマッピングデータ、及び/又は術前の患者への問診からのメモを含んでもよい。ディスプレイ上の術中データは、ツールから提供される光学情報、センサからのセンサ及び座標情報、及び呼吸、心拍数、及び/又はパルスなどの不可欠な患者統計を含んでもよい。コンソール16は、医師が、キャリッジ17の反対側のカラム14側からコンソールにアクセスすることを可能にするように位置付けされ、傾斜がつけられてもよい。この位置から、医師は、コンソール16をカート11の背後から操作しながらコンソール16、ロボットアーム12及び患者を見ることができる。図示のように、コンソール16はまた、カート11の操作及び安定化を支援するハンドル27を含む。
図3は、尿管鏡検査のために配されたロボット制御可能なシステム10の実施形態を示す。尿管鏡検査処置では、カート11は、患者の尿道及び尿管を横断するように設計された処置専用内視鏡である尿管鏡32を患者の下腹部領域に送達するように位置決めされてもよい。尿管鏡検査では、尿管鏡32が患者の尿道と直接位置合わせされ、領域内の敏感な解剖学的構造に対する摩擦及び力を低減することが望ましいことがある。示されるように、カート11は、ロボットアーム12が尿管鏡32を、患者の尿道に直線状に直接アクセスするために位置決めすることを可能にするように、テーブルの脚部に位置合わせされてもよい。テーブルの脚部から、ロボットアーム12は、尿道を通して患者の下腹部に直接、仮想レール33に沿って尿管鏡32を挿入してもよい。
気管支鏡検査におけるのと同様の制御技法を使用して尿道に挿入した後、尿管鏡32は、診断及び/又は治療用途のために、膀胱、尿管、及び/又は腎臓にナビゲートされてもよい。例えば、尿管鏡32は、尿管及び腎臓に指向され、尿管鏡32の作業チャネルの下方に展開されたレーザ又は超音波砕石デバイスを使用して、形成された腎臓結石を破壊することができる。砕石術が完了した後、結果として得られた結石片は、尿管鏡32の下方に配備されたバスケットを使用して除去されてもよい。
図4は、血管処置のために同様に配されたロボット制御可能なシステムの実施形態を示す。血管処置において、システム10は、カート11が、操縦可能なカテーテルなどの医療器具34を、患者の脚内の大腿動脈内のアクセスポイントに送達することができるように構成することができる。大腿動脈は、ナビゲーションのためのより大きな直径と、患者の心臓への比較的迂回性及び蛇行性でない経路との両方を呈し、これによりナビゲーションが単純化する。尿管鏡検査処置のように、カート11は、患者の脚及び下腹部に向かって位置決めされて、ロボットアーム12が患者の大腿/腰領域内の大腿動脈アクセスポイントへの直接的な線形アクセスで仮想レール35を提供することを可能にしてもよい。動脈内への挿入後、器具ドライバ28を並進させることによって医療用器具34が方向付けられ、挿入されてもよい。代替的には、カートは、例えば、肩及び手首付近の頸動脈及び腕動脈などの代替的な血管アクセスポイントに到達するために、患者の上腹部の周囲に位置決めされてもよい。
B.ロボットシステム-テーブル
ロボットで使用可能な医療用システムの実施形態は、患者テーブルも組み込んでもよい。テーブルの組み込みは、カートをなくすことによって手術室内の資本設備の量を低減し、患者へのより大きなアクセスを可能にする。図5は、気管支鏡検査処置のために配されたこのようなロボット制御可能なシステムの一実施形態を示す。システム36は、床の上にプラットフォーム38(「テーブル」又は「ベッド」として図示)を支持するための支持構造体又はカラム37を含む。カートベースのシステムと同様に、システム36のロボットアーム39のエンドエフェクタは、器具ドライバ42の線形整列から形成された仮想レール41を通して、又はそれに沿って、図5の気管支鏡40などの細長い医療用器具を操作するように設計された器具ドライバ42を含む。実際には、X線透視撮像を提供するためのCアームは、放射器及び検出器をテーブル38の周囲に置くことによって、患者の上部腹部領域の上方に位置付けされてもよい。
図6は、考察目的で患者及び医療器具なしのシステム36の代替図を提供する。示されるように、カラム37は、1つ又は2つ以上のロボットアーム39の基部となり得る、システム36内でリング形状として図示される1つ又は2つ以上のキャリッジ43を含んでもよい。キャリッジ43は、カラム37の長さにわたる垂直方向のカラムインターフェース44に沿って並進して、ロボットアーム39が患者に到達するように位置決めされ得る異なるバンテージポイントを提供してもよい。キャリッジ43は、カラム37内に位置決めされている機械的モータを使用してカラム37の周りを回転して、ロボットアーム39が、例えば、患者の両側などのテーブル38の多数の側部へのアクセスを有することを可能にしてもよい。複数のキャリッジを有する実施形態では、キャリッジはカラム上に個別に位置付けされてもよく、他のキャリッジとは独立して並進及び/又は回転してもよい。キャリッジ43はカラム37を取り囲む必要はなく、又は更には円形である必要はないが、図示されるようなリング形状は、構造的バランスを維持しながらカラム37の周りでキャリッジ43が回転するのを容易にする。キャリッジ43の回転及び並進により、システムは、内視鏡及び腹腔鏡などの医療器具を患者の異なるアクセスポイントに位置合わせさせることができる。
アーム39は、ロボットアーム39に追加の構成可能性を提供するために個別に回転及び/又は入れ子式に延び得る一連の関節を備えるアームマウント45のセットを介してキャリッジに装着されてもよい。加えて、アームマウント45は、キャリッジ43が適切に回転されるとき、アームマウント45がテーブル38の片側(図6に示すように)、テーブル38の両側(図9に示すように)、又はテーブル38の隣接する側部(図示せず)のいずれかに配置され得るように、キャリッジ43に配置され得る。
カラム37は、テーブル38の支持及びキャリッジの垂直方向の並進のための経路を構造的に提供する。内部に、カラム37は、キャリッジの垂直方向の並進を案内するための主ねじ、及び主ねじに基づく当該キャリッジの並進を機械化するためのモータが備えられていてもよい。カラム37は、キャリッジ43及びその上に装着されたロボットアーム39に電力及び制御信号も伝達してもよい。
テーブル基部46は、図2に示すカート11のカート基部15と同様の機能を果たし、テーブル/ベッド38、カラム37、キャリッジ43、及びロボットアーム39の釣り合いをとるためにより重い構成要素を収容する。テーブル基部46はまた、処置中に安定性を提供するために剛性キャスタを組み込んでもよい。テーブル基部46の底部から展開されるキャスタは、基部46の両側で反対方向に延在し、システム36を移動させる必要があるときに引き込んでもよい。
引き続き図6によれば、システム36はまた、テーブルとタワーとの間のシステム36の機能を分割して、テーブルのフォームファクタ及びバルクを低減するタワー(図示せず)を含んでもよい。先に開示された実施形態と同様に、タワーは、処理、計算、及び制御能力、電力、流体工学、並びに/又は光学及びセンサ処理などの様々な支持機能をテーブルに提供してもよい。タワーはまた、医師のアクセスを改善し、手術室を整理整頓するために、患者から離れて位置決めされるように移動可能であってもよい。更に、タワー内に構成要素を位置付けすることにより、ロボットアームの潜在的な収納のために、テーブル基部内により多くの格納空間を可能にする。タワーはまた、キーボード及び/又はペンダントなどのユーザ入力のためのユーザインターフェース、並びにリアルタイム撮像、ナビゲーション、及び追跡情報などの術前及び術中情報のための表示画面(又はタッチスクリーン)の両方を提供するコンソールを含んでもよい。
いくつかの実施形態では、テーブル基部は、使用されていないときにロボットアームを収容して格納してもよい。図7は、テーブルベースのシステムの一実施形態におけるロボットアームを収容するシステム47を示す。システム47では、キャリッジ48は、ロボットアーム50、アームマウント51、及びキャリッジ48を基部49内に格納するために、基部49内へと垂直方向に並進させられてもよい。基部カバー52は、並進及び後退して、キャリッジ48、アームマウント51、及びアーム50をカラム53の周りに配置させるように開き、使用されていないときにそれらを収容して保護するように閉じられてもよい。基部カバー52は、閉じたときに汚れ及び流体の侵入を防止するために、その開口部の縁部に沿って膜54で封止されてもよい。
図8は、尿管鏡検査処置のために構成されたロボット制御可能なテーブルベースのシステムの一実施形態を示す。尿管鏡検査では、テーブル38は、患者をカラム37及びテーブル基部46からオフアングルに位置決めするためのスイベル部分55を含んでもよい。スイベル部分55は、スイベル部分55の底部をカラム37から離すように位置決めするために、枢動点(例えば、患者の頭部の下方に配置)を中心に回転又は枢動してもよい。例えば、スイベル部分55の旋回により、Cアーム(図示せず)が、テーブル38の下のカラム(図示せず)と空間を奪い合うことなく、患者の下部腹部の上方に位置決めされることを可能にする。カラム37の周りにキャリッジ35(図示せず)を回転させることにより、ロボットアーム39は、尿道に到達するように、仮想レール57に沿って、患者の鼠径部領域に尿管鏡56を直接挿入してもよい。尿管鏡検査では、処置中に患者の脚の位置を支持し、患者の鼠径部領域への明確なアクセスを可能にするために、テーブル38のスイベル部分55にあぶみ58が固定されてもよい。
腹腔鏡処置では、患者の腹壁内の小さな切開部(複数可)を通して、低侵襲性器具(1つ又は2つ以上の切開部のサイズに適応するように形状が細長い)を患者の解剖学的構造に挿入してもよい。患者の腹腔の膨張後、腹腔鏡と呼ばれることが多い器具は、把持、切断、アブレーション、縫合などの外科的タスクを実行するように指向されてもよい。図9は、腹腔鏡処置のために構成されたロボット制御可能なテーブルベースのシステムの実施形態を示す。図9に示されるように、システム36のキャリッジ43は回転し、垂直方向に調整されて、腹腔鏡59が患者の両側の最小切開部を通過して患者の腹腔に到達するようにアームマウント45を使用し配置され得るように、ロボットアーム39の対をテーブル38の両側に位置付けてもよい。
腹腔鏡処置に対応するために、ロボットで使用可能なテーブルシステムはまた、プラットフォームを所望の角度に傾斜させてもよい。図10は、ピッチ又は傾斜調整を有するロボット制御可能な医療システムの実施形態を示す。図10に示すように、システム36は、テーブル38の傾斜に適応して、テーブルの一方側の部分を他方側の部分よりも床から長い距離に位置付けることができる。加えて、アームマウント45は、アーム39がテーブル38と同じ平面関係を維持するように、傾斜に一致するように回転させてもよい。急角度に適応するために、カラム37は、テーブル38が床に接触するか又は基部46と衝突するのを防ぐためにカラム37が垂直方向に延びるのを可能にする入れ子部分60も含んでもよい。
図11は、テーブル38とカラム37との間のインターフェースの詳細な図示を提供する。ピッチ回転機構61は、カラム37に対するテーブル38のピッチ角を多数の自由度で変更するように構成されてもよい。ピッチ回転機構61は、カラム-テーブルインターフェースでの直交軸1、2の位置決めによって可能にされてもよく、各軸は、電気ピッチ角コマンドに応答して別個のモータ3、4によって作動させられる。一方のねじ5に沿った回転は、一方の軸1における傾斜調整を可能にし、他方のねじ6に沿った回転は、他方の軸2に沿った傾斜調整を可能にする。
例えば、ピッチ調節は、テーブルをトレンデレンブルグ体位に位置付けしようとするときに、すなわち下腹部手術のために患者の下腹部よりも床からより高い位置に患者の下腹部を位置付けしようとするときに、特に有用である。トレンデレンブルグ体位は、患者の内臓を重力によって自分の上腹部に向かってスライドさせ、低侵襲性ツールが入って腹腔鏡前立腺切除術などの下腹部外科処置を実施行するために、腹腔を空にする。
C.器具ドライバ及びインターフェース
システムのロボットアームのエンドエフェクタは、(i)医療器具を作動させるための電気機械的手段を組み込む器具ドライバ(代替的には、「器具駆動機構」又は「器具デバイスマニピュレータ」と呼ばれる)と、(ii)モータなどの任意の電気機械的構成要素を欠いていてもよい除去可能な又は取り外し可能な医療器具と、を含む。この二分法は、医療処置に使用される医療用器具を滅菌する必要性、それらの複雑な機械的アセンブリ及び繊細な電子機器により、高価な資本設備を十分に滅菌することができないことを根拠とする場合がある。したがって、医療用器具は、医師又は医師のスタッフによる個々の滅菌又は廃棄のために、器具ドライバ(したがってそのシステム)から取り外され、除去され、及び交換されるように設計することができる。対照的に、器具ドライバは交換又は滅菌される必要がなく、保護のために掛け布をすることができる。
図12は、例示的な器具ドライバを示す。ロボットアームの遠位端部に配置される器具ドライバ62は、駆動シャフト64を介して医療器具に制御トルクを提供するために平行軸を伴って配された1つ又は2つ以上の駆動ユニット63を含む。各駆動ユニット63は、器具と相互作用するための個々の駆動シャフト64と、モータシャフトの回転を所望のトルクに変換するためのギアヘッド65と、駆動トルクを生成するためのモータ66と、モータシャフトの速度を測定し、制御回路にフィードバックを提供するエンコーダ67と、制御信号を受信し、駆動ユニットを作動させるための制御回路68と、を含む。各駆動ユニット63は独立して制御及び電動化され、器具ドライバ62は、多数(図12に示すように4つ)の独立した駆動出力を医療器具に提供してもよい。動作中、制御回路68は、制御信号を受信し、モータ66にモータ信号を送信し、エンコーダ67によって測定された結果として得られたモータ速度を所望の速度と比較し、モータ信号を変調して所望のトルクを生成する。
無菌環境を必要とする処置のために、ロボットシステムは、器具ドライバと医療用器具との間に位置する、滅菌ドレープに接続された滅菌アダプタなどの駆動インターフェースを組み込んでもよい。滅菌アダプタの主な目的は、器具ドライバの駆動シャフトから器具の駆動入力部に角度運動を伝達する一方で、駆動シャフトと駆動入力部との間の物理的分離、したがって無菌性を維持することである。したがって、例示的な無菌アダプタは、器具ドライバの駆動シャフトと嵌合されることが意図された一連の回転入力部及び出力部と、器具に対する駆動入力部とで構成することができる。滅菌アダプタに接続される滅菌ドレープは、透明又は半透明プラスチックなどの薄い可撓性材料で構成され、器具ドライバ、ロボットアーム、及び(カートベースのシステムにおける)カート又は(テーブルベースのシステムにおける)テーブルなどの資本設備を覆うように設計される。ドレープの使用により、滅菌を必要としない領域(すなわち、非滅菌野)に依然として位置決めされている間に、資本設備を患者に近接して配置することが可能となる。滅菌ドレープの反対側では、医療用器具は、滅菌を必要とする領域(すなわち、滅菌野)において患者とインターフェースしてもよい。
D.医療用器具
図13は、ペアの器具ドライバを備えた例示的な医療用器具を示す。ロボットシステムと共に使用するために設計された他の器具と同様に、医療用器具70は、細長いシャフト71(又は細長い本体)及び器具基部72を含む。医師による手動相互作用が意図されているその設計により「器具ハンドル」とも呼ばれる器具基部72は、一般に、ロボットアーム76の遠位端部において器具ドライバ75上の駆動インターフェースを通って延びる駆動出力部74と嵌合するように設計された、回転可能な駆動入力部73、例えば、レセプタクル、プーリ、又はスプールを含んでもよい。物理的に接続、ラッチ、及び/又は連結されるときに、器具基部72の嵌合された駆動入力部73は、器具ドライバ75における駆動出力部74と回転軸線を共有して、駆動出力部74から駆動入力部73へのトルクの伝達を可能にすることができる。いくつかの実施形態では、駆動出力部74は、駆動入力部73上のレセプタクルと嵌合するように設計されたスプラインを含んでもよい。
細長いシャフト71は、例えば、内視鏡におけるような解剖学的開口部若しくは管腔、又は腹腔鏡検査におけるような低侵襲性切開部のいずれかを通して送達されるように設計される。細長いシャフト66は、可撓性であってもよく(例えば、内視鏡と同様の特性を有する)、剛性であってもよく(例えば、腹腔鏡と同様の特性を有する)よく、又は可撓性部分及び剛性部分の両方のカスタマイズされた組み合わせを含んでもよい。腹腔鏡検査のために設計される場合、剛性の細長いシャフトの遠位端は、回転軸を有するクレビスから形成される接合された手首と、例えば、駆動入力部が器具ドライバ75の駆動出力部74から受け取ったトルクに応答して回転する際に、腱からの力に基づいて作動され得る把持具又ははさみである手術用ツールとを含むエンドエフェクタに接続され得る。内視鏡検査のために設計される場合、可撓性の細長いシャフトの遠位端部は、器具ドライバ75の駆動出力部74から受信したトルクに基づいて関節運動及び屈曲され得る操縦可能又は制御可能な屈曲部を含んでもよい。
器具ドライバ75からのトルクは、シャフト71内の腱を使用して細長いシャフト71の下方に伝達される。プルワイヤなどのこれらの個々の腱は、器具ハンドル72内の個々の駆動入力部73に個別に固定されてもよい。ハンドル72から、腱は、細長いシャフト71内の1つ又は2つ以上のプルルーメン(pull lumen)の下方に指向され、細長いシャフト71の遠位部分に固設される。腹腔鏡検査では、これらの腱は、手首、把持具、又ははさみなどの、遠位に装着されたエンドエフェクタに結合されてもよい。このような構成の下で、駆動入力部73に及ぼされるトルクは、腱に張力を伝達し、それによってエンドエフェクタを何らかの方法で作動させる。腹腔鏡検査では、腱は、関節を軸周りに回転させることができ、それによってエンドエフェクタをいずれかの方向に移動させる。代替的に、腱は、細長いシャフト71の遠位端部で把持具の1つ又は2つ以上のジョーに接続されてもよく、腱からの張力によって把持具が閉鎖される。
内視鏡検査では、腱は、接着剤、制御リング、又は他の機械的固定を介して、細長いシャフト71に沿って(例えば、遠位端部に)位置決めされている屈曲部又は関節運動部に連結されてもよい。屈曲部の遠位端部に固定的に取り付けられる場合、駆動入力部73に及ぼされるトルクは、腱の下流に伝達され、より軟質の屈曲部(関節運動可能部又は領域と呼ばれることがある)を屈曲又は関節運動させる。非屈曲部分に沿って、個々の腱を内視鏡シャフトの壁に沿って(又は内側に)向く個々のプルルーメンをねじ状又は渦巻状にして、プルワイヤにおける張力からもたらされる半径方向の力の釣り合いをとることが有利であり得る。これらの間のねじ及び/又は間隔の角度は、特定の目的のために変更又は設計されてもよく、より狭いねじは負荷力下でより小さいシャフト圧縮を呈する一方で、より少ない量のねじは負荷力下でより大きなシャフト圧縮をもたらすが、屈曲制限も示す。スペクトルのもう一方の端部では、プル管腔は、細長いシャフト71の長手方向軸に平行に指向されてもよく、所望の屈曲又は関節運動可能部における制御された関節運動を可能にする。
内視鏡検査では、細長いシャフト71は、ロボット処置を支援するいくつかの構成要素を収容する。シャフトは、シャフト71の遠位端における手術領域への手術ツール、灌注、及び/又は吸引を展開するための作業チャネルを含んでもよい。シャフト71は、光学カメラを含んでもよい遠位先端部の光学アセンブリとの間で信号の授受を行うために、ワイヤ及び/又は光ファイバも収容してもよい。シャフト71は、発光ダイオードなどの近位に位置する光源からシャフトの遠位端部に光を搬送するための光ファイバも収容してもよい。
器具70の遠位端部では、遠位先端部は、診断及び/又は治療、灌注、及び吸引のためにツールを手術部位に送達するための作業チャネルの開口部を含んでもよい。遠位先端部はまた、内部解剖学的空間の画像をキャプチャするために、ファイバスコープ又はデジタルカメラなどのカメラのためのポートを含んでもよい。関連して、遠位先端部はまた、カメラを使用する場合に解剖学的空間を照明するための光源用のポートを含んでもよい。
図13の実施例では、駆動シャフト軸、したがって駆動入力軸は、細長いシャフトの軸に直交する。しかしながら、この配置は、細長いシャフト71のロール能力を複雑にする。駆動入力部73を静止させながら、細長いシャフト71をその軸に沿ってロールさせることにより、駆動入力部73から延出し、細長いシャフト71内のプルルーメンに入る際に、腱の望ましくない絡まりをもたらす。そのような腱の得られたもつれは、内視鏡処置中の可撓性の細長いシャフトの移動を予測することを意図した任意の制御アルゴリズムを破壊することがある。
図14は、駆動ユニットの軸が器具の細長いシャフトの軸に平行である、器具ドライバ及び器具の代替的な設計を示す。示されるように、円形の器具ドライバ80は、ロボットアーム82の端部において平行に位置合わせされた駆動出力部81を備える4つの駆動ユニットを含む。駆動ユニット及びそれらのそれぞれの駆動出力部81は、アセンブリ83内の駆動ユニットのうちの1つによって駆動される器具ドライバ80の回転アセンブリ83内に収容される。回転駆動ユニットによって提供されるトルクに応答して、回転アセンブリ83は、回転アセンブリ83を器具ドライバの非回転部分84に接続する円形ベアリングに沿って回転する。電力及び制御信号は、電気接点を通して器具ドライバ80の非回転部分84から回転アセンブリ83に伝達されてもよく、ブラシ付きスリップリング接続(図示せず)による回転を通して維持されてもよい。他の実施形態では、回転アセンブリ83は、非回転可能部分84に一体化され、したがって他の駆動ユニットと平行ではない別個の駆動ユニットに応答してもよい。回転機構83は、器具ドライバ80が、器具ドライバ軸85周りの単一ユニットとして、駆動ユニット及びそれらのそれぞれの駆動出力部81を回転させることを可能にする。
先に開示した実施形態と同様に、器具86は、細長いシャフト88と、器具ドライバ80内の駆動出力部81を受けるように構成された複数の駆動入力部89(レセプタクル、プーリ、及びスプールなど)を含む器具基部87(考察目的で透明な外部スキンで示される)とを含んでもよい。先の開示した実施形態とは異なり、器具シャフト88は、器具基部87の中心から延び、軸は、図13の設計にあるように直交するのではなく、駆動入力部89の軸に実質的に平行である。
器具ドライバ80の回転アセンブリ83に連結されると、器具基部87及び器具シャフト88を含む医療用器具86は、器具ドライバ軸85を中心にして回転アセンブリ83と一緒に回転する。器具シャフト88は器具基部87の中心に位置決めされているため、器具シャフト88は、取り付けられたときに器具ドライバ軸85と同軸である。したがって、回転アセンブリ83の回転により、器具シャフト88は、それ自体の長手方向軸を中心に回転する。更に、器具基部87が器具シャフト88と共に回転すると、器具基部87内の駆動入力部89に接続された任意の腱は、回転中に絡まらない。したがって、駆動出力部81、駆動入力部89、及び器具シャフト88の軸の平行性は、制御腱を絡めることなくシャフト回転を可能にする。
E.ナビゲーション及び制御。
従来の内視鏡検査は、オペレータである医師に腔内誘導を提供するために、蛍光透視法(例えば、Cアームを通して送達され得るような)、及び他の形態の放射線ベースの撮像モダリティの使用を伴うことがある。対照的に、本開示によって企図されるロボットシステムは、放射線への医師の暴露を低減し、手術室内の機器の量を低減するために、非放射線ベースのナビゲーション及び位置特定手段を提供することができる。本明細書で使用するとき、用語「位置特定」は、基準座標系内のオブジェクトの位置を判定及び/又は監視することを指すことがある。術前マッピング、コンピュータビジョン、リアルタイムEM追跡、及びロボットコマンドデータなどの技術は、放射線を含まない動作環境を達成するために個別に又は組み合わせて使用されてもよい。放射線ベースの撮像モダリティが依然として使用されるその他の場合、術前マッピング、コンピュータビジョン、リアルタイムEM追跡、及びロボットコマンドデータは、放射線ベースの撮像モダリティによってのみ取得される情報を改善するために、個別に又は組み合わせて使用されてもよい。
図15は、例示的な実施形態にかかる、器具の位置など、ロボットシステムの1つ又は2つ以上の要素の位置を推定する位置特定システム90を示すブロック図である。位置特定システム90は、1つ又は2つ以上の命令を実行するように構成されている1つ又は2つ以上のコンピュータデバイスの組であってもよい。コンピュータデバイスは、上で考察された1つ又は2つ以上の構成要素内のプロセッサ(又は複数のプロセッサ)及びコンピュータ可読メモリによって具現化されてもよい。例として、限定するものではないが、コンピュータデバイスは、図1に示されるタワー30内にあってもよく、図1~図4に示されるカートであってもよく、図5~図10に示されるベッドであってもよく、その他であってもよい。
図15に示すように、位置特定システム90は、入力データ91~94を処理して医療器具の遠位先端部の位置データ96を生成する位置特定モジュール95を含んでもよい。場所データ96は、基準系に対する器具の遠位端部の場所及び/又は向きを表すデータ又は論理であってもよい。基準系は、患者の解剖学的構造、又はEM場発生器(EM場発生器についての以下の考察を参照)などの既知の物体に対する基準系とすることができる。位置データ96はまた、本明細書では、患者の解剖学的構造のモデル(例えば、骨格モデル)に対する医療器具の遠位先端部の現在の状態を説明する「状態データ」とも称され得る。状態データは、所与のサンプル期間にわたる医療器具の遠位先端部のポジション及び配向などの情報を含み得る。例えば、患者の解剖学的構造が、管腔網の中間点に基づいて骨格モデルを使用してモデル化される場合、その位置は、セグメントIDの形態及びセグメントに沿った深さを取り得る。
ここで、様々な入力データ91~94についてより詳細に説明する。術前マッピングは、低用量CTスキャンの収集を利用して達成することができる。術前CTスキャンは、例えば、患者の内部解剖学的構造の切欠き図の「スライス」として可視化される3次元(three-dimensional、3D)画像に再構成される。全体として分析される場合、患者の肺網などの患者の解剖学的構造の解剖学的空腔、空間、及び構造のための画像ベースのモデルが生成され得る。中心線幾何学形状などの技法を判定し、CT画像から概算して、術前モデルデータ91と呼ばれる患者の解剖学的構造の3Dボリュームを生成することができる。中心線形状の使用は、米国特許出願第14/523,760号で考察されており、その内容はその全体が本明細書に組み込まれる。ネットワーク位相モデルもまた、CT画像から導出されてもよく、気管支鏡検査に特に適している。
いくつかの実施形態では、器具はカメラを装備して、視覚データ92を提供してもよい。位置特定モジュール95は、視覚データを処理して、1つ又は2つ以上の視覚ベースの位置追跡を可能にしてもよい。例えば、術前モデルデータは、医療器具(例えば、内視鏡、又は内視鏡の作業チャネルを通って前進する器具)のコンピュータビジョンベースの追跡を可能にするために、視覚データ92と共に使用されてもよい。例えば、術前モデルデータ91を使用して、ロボットシステムは、内視鏡の予想される移動経路に基づいて、モデルから、予測される内視鏡画像のライブラリを生成することができ、各画像はモデル内の場所にリンクされる。手術中に、このライブラリは、カメラ(例えば、内視鏡の遠位端部でのカメラ)で捕捉されたリアルタイム画像を画像ライブラリ内のものと比較して、位置特定を支援するために、ロボットシステムによって参照することができる。
他のコンピュータビジョンベースの追跡技術は、追跡機能を使用して、カメラ、したがって内視鏡の動作を決定する。位置特定モジュール95のいくつかの特徴は、解剖学的管腔に対応する術前モデルデータ91内の円形幾何学形状を特定し、どの解剖学的管腔が選択されたかと、カメラの相対的な回転及び/又は並進運動とを判定するためにそれらの幾何学的形状の変化を追跡してもよい。位相マップの使用は、視覚ベースのアルゴリズム又は技術を更に向上させることがある。
光学フロー、別のコンピュータビジョンベースの技術は、カメラの移動を推測するために、視覚データ92内のビデオシーケンス内の画像ピクセルの変位及び並進を分析してもよい。光学フロー技術の例としては、動作検出、オブジェクトセグメンテーション計算、輝度、動作補償符号化、立体視差測定などを挙げることができる。複数の反復にわたり多数のフレームを比較することにより、カメラ(及びしたがって内視鏡)の移動及び位置を判定することができる。
位置特定モジュール95は、リアルタイムEM追跡を使用して、術前モデルによって表される患者の解剖学的構造に登録され得るグローバル座標系内に、内視鏡のリアルタイムの場所を生成することができる。EM追跡では、医療器具(例えば、内視鏡器具)内に1つ又は2つ以上の位置及び配向で埋め込まれた1つ又は2つ以上のセンサコイルを構成するEMセンサ(又はトラッカ)は、既知の場所に位置付けられた1つ又は2つ以上の静的EM場発生器によって生成されるEM場の変動を測定する。EMセンサによって検出された位置情報は、EMデータ93として記憶される。EM場発生器(又は送信機)は、埋め込まれたセンサが検出し得る低強度磁場を生成するために、患者に近接して配置することができる。磁場はEMセンサのセンサコイル内に小さな電流を誘導し、EMセンサとEM場発生器との間の距離及び角度を判定するためにこの電流が分析され得る。これらの距離及び配向は、患者の解剖学的構造の術前モデル内の位置と座標系内の単一の位置を整合させる幾何学的変換を決定するために、患者の解剖学的構造(例えば、術前モデル)に術中「位置合わせ」することができる。一旦登録されると、医療用器具の1つ又は2つ以上の位置(例えば、内視鏡の遠位先端部)に埋め込まれたEMトラッカは、患者の解剖学的構造を通る医療用器具の進行のリアルタイム表示を提供することができる。
ロボットコマンド及び運動学データ94はまた、ロボットシステムのための位置特定データ96を提供するために、位置特定モジュール95によって使用されてもよい。関節運動コマンドから生じるデバイスピッチ及びヨーは、術前較正中に判定することができる。術中、これらの較正測定値は、既知の挿入深度情報と組み合わせて使用されて、器具の位置を推定することができる。代替的には、これらの計算は、EM、視覚、及び/又は位相モデリングと組み合わせて分析して、ネットワーク内の医療用器具の位置を推定し得る。
図15が示すように、いくつかの他の入力データが、位置特定モジュール95によって使用することができる。例えば、図15には示されていないが、形状感知ファイバを利用する器具は、位置特定モジュール95が器具の位置及び形状を判定するために使用することができる形状データを提供することができる。
位置特定モジュール95は、入力データ91~94を組み合わせて使用することができる。場合によっては、このような組み合わせは、位置特定モジュール95が入力データ91~94の各々から判定された場所に信頼重み(confidence weight)を割り当てる確率的アプローチを使用し得る。したがって、EMデータが信頼でき得ない場合(EM干渉が存在する場合など)、EMデータ93によって判定された場所の信頼性を低下させることになり、位置特定モジュール95は、視覚データ92並びに/又はロボットコマンド及び運動学データ94により重く依存してもよい。
上で考察されるように、本明細書で考察されるロボットシステムは、上述の技術のうちの1つ又は2つ以上の組み合わせを組み込むように設計することができる。タワー、ベッド、及び/又はカートをベースとするロボットシステムのコンピュータベースの制御システムは、例えば、永続的な磁気記憶ドライブ、ソリッドステートドライブなどの非一時的コンピュータ可読記憶媒体内に、コンピュータプログラム命令を記憶してもよく、コンピュータプログラム命令は、実行されると、システムに、センサデータ及びユーザコマンドを受信及び分析させ、システム全体の制御信号を生成させ、グローバル座標系内の器具の位置、解剖学的マップなどのナビゲーション及び位置特定データを表示させる。
2.位置センサの位置合わせの概要
本開示の実施形態は、1つ又は2つ以上の位置センサによって使用される座標系を、解剖学的モデルによって使用される座標系などの別の座標系と位置合わせするためのシステム及び技法に関する。位置合わせは、位置センサデータに適用されて、位置センサデータを解剖学的モデルの座標系にマッピングすることができる変換を指し得る。したがって、位置合わせは、位置センサデータに基づいて解剖学的モデルに対する1つ又は2つ以上の位置センサの位置を判定するために、システムによって使用され得る。位置センサを使用して、医療処置中に器具の遠位端を解剖学的位置に位置特定することができる。位置センサは、器具の遠位端に若しくはその近くに位置決めされてもよく、又は器具の遠位端から離れて位置決めされてもよい。器具の遠位端に又はその近くに位置決めされ得る位置センサの例としては、EMセンサ、ビジョンベースの位置センサ(例えば、カメラ)、形状感知繊維等が挙げられる。器具の遠位端から離れて位置決めされ得る位置センサの例としては、X線透視撮像デバイス、1つ又は2つ以上の器具マニピュレータを介して器具のポジションを制御するために使用されるロボットデータ等が挙げられる。
位置センサは、位置センサ座標系に対する器具の遠位端のポジションを示す位置データを生成するように構成されてもよい。位置センサが器具の遠位端と並置されるとき、位置データは、位置センサ自体の位置を表すことができ、これを使用して器具の遠位端の位置を判定することができる。ある特定の実施形態では、位置センサ座標系は、位置センサを実現するために使用される特定の技術に基づいて画定され得る、軸及び起点のセットを含んでもよい。
例えば、器具内又は器具上に位置するEMセンサは、EM場発生器によって生成されたEM場を測定するように構成され得る。EM場の特性、したがってEMセンサによって測定されるEM値は、EM場発生器の位置及び配向に関して定義され得る。したがって、EM場発生器の位置決めは、EMセンサによって測定された値に影響を及ぼすことができ、EM座標系の位置及び配向を定義することもできる。
上述のように、患者の管腔網は、例えば、低用量CTスキャンを使用して術前にマッピングされて、管腔網のモデルを生成することができる。モデルは、器具の遠位端の位置を特定するために使用されるものとは異なる技法を介して生成され得るため、モデル座標系は、位置センサ座標系と整合されなくてもよい。したがって、位置センサ座標系を使用して、モデルに対する器具の位置を追跡するために、本開示のある特定の態様は、位置センサ座標系をモデル座標系に「位置合わせすること」に関する。この位置合わせは、例えば、位置データを位置センサ座標系からモデル座標系にマッピングするために位置データに適用することができる、並進及び/又は回転を含んでもよい。
管腔網のモデルは、患者の管腔網のマッピングを提供するため、モデル座標系は、患者に対して「固定」又は定義される。すなわち、モデル座標系に関する基準系は、処置中の患者の位置及び/又は配向に基づく。位置センサ座標系をモデル座標系に位置合わせする1つの課題は、位置センサ座標系に関する基準系が、患者に対して「固定」又は既定されていない場合があることである。例えば、位置センサがEMセンサとして具現化されるとき、EM座標系の基準系は、EM場発生器であってもよい。しかしながら、ある特定の実施態様では、EM場発生器は、EM場発生器がロボット外科用システム(例えば、ロボットアーム、Cアーム等)の他の要素の経路から外れて位置決めされ得るように、ある特定の領域内に自由に位置決めされてもよい。EM場発生器のポジション、したがってEM座標系の基準系は予め定義されていないため、EM座標系をモデル座標系に位置合わせするためのプロセスを実行するように構成され得る。
EM座標系をモデル座標系に位置合わせするための1つの技法は、術前モデル内の複数の位置を特定する術前工程と、器具をこれらの位置の各々に駆動するためにユーザに命令を提供する術中工程と、を含み得る。システムは、他の形態のナビゲーション(例えば、カメラフィードバック)に依存して、器具を位置の各々に駆動するようにユーザに指示することができ、システムは、器具が識別された位置の各々に位置するときを確認する、ユーザからの入力を受信するように更に構成されてもよい。ユーザから受信した確認、EMデータ、及びモデル内の特定された位置を使用して、システムは、EMデータを識別された位置にマッピングする位置合わせを判定することができる。次いで、この位置合わせを使用して、器具の遠位端の位置を表すEMデータを、処置の残りの部分についてモデルにマッピングすることができる。
しかしながら、上記の位置合わせプロセスは、ユーザにとって複雑で時間がかかる場合がある。例えば、十分にロバストな位置合わせを提供するために、システムは、空間的に多様である比較的多数の位置(例えば、6つ以上の位置)を識別するために必要とされ得る(例えば、識別された位置は、互いに少なくとも一定の距離だけ離れている必要があり得る)。したがって、本開示のある特定の態様は、簡略化されたプロセスを介して位置センサ座標系とモデル座標系との間の位置合わせを提供し得るシステム及び技法に関する。
A.EMナビゲーション案内気管支鏡。
以下、EMナビゲーション誘導気管支鏡処置で使用するためのEMセンサの位置合わせの実施形態に関して、位置センサの位置合わせについて説明する。しかしながら、本開示の態様はまた、対応する位置センサ座標系内の位置データを生成することができる他の位置センサ、並びに他の医療種類の医療処置にも適用され得る。
気管支鏡は、医師が患者の気管及び気道を検査することを可能にする光源及び小型カメラを含むことができる。患者の気道内の気管支鏡の正確な位置が知られていない場合、患者の外傷が起こり得る。気管支鏡の位置を確認するために、画像ベースの気管支鏡誘導システムは、気管支鏡カメラからのデータを使用して、患者の気道の分岐において局所位置合わせ(例えば、管腔網内の特定の位置での位置合わせ)を実行することができ、したがって有利に、患者の呼吸運動による位置誤差の影響を受けにくい可能性がある。しかしながら、画像ベースの誘導法は気管支鏡ビデオに依存するため、患者の咳又は粘液閉塞等によって引き起こされる気管支鏡ビデオのアーチファクトによって影響を受ける可能性がある。
EMナビゲーション誘導気管支鏡検査は、EM技術を実施して、肺の気管支経路を通して内視鏡用具又はカテーテルを位置特定及び誘導するためにEM技術を実施する気管支鏡処置の種類である。EMナビゲーション誘導気管支鏡システムは、低強度の可変EM場を放出し、患者の管腔網の周囲の追跡ボリュームのポジションを確立するEM場発生器を使用することができる。EM場は、電界付近における荷電物体の挙動に影響を及ぼす、荷電物体によって生成される物理場である。生成された電界内に位置決めされたときに器具に取り付けられたEMセンサを使用して、EM場内の器具の位置及び配向を追跡することができる。小さな電流は、様々なEM場によってEMセンサ内に誘導される。これらの電気信号の特性は、センサとEM場発生器との間の距離及び角度に依存する。したがって、EMナビゲーション誘導気管支鏡システムは、EM場発生器と、その遠位先端に又はその近くに1つ又は2つ以上のEMセンサを有する操縦可能な器具と、誘導コンピューティングシステムと、を含むことができる。EM場発生器は、ナビゲートされる患者の管腔網、例えば、気道、胃腸管、又は循環経路の周囲にEM場を生成する。操縦可能なチャネルは、気管支鏡の作業チャネルを通して挿入され、EMセンサを介してEM場内で追跡される。
EMナビゲーション誘導気管支鏡検査処置の開始前に、例えば、術前CT胸部スキャンから、患者の特定の気道構造に対して仮想3D気管支モデルを得ることができる。モデル及びEMナビゲーション誘導気管支鏡システムを使用して、医師は、生検病変に対する肺内の所望の位置にナビゲートし、リンパ節をステージ分類し、放射線療法を誘導するか又は近接照射療法カテーテルを誘導するためのマーカーを挿入することができる。例えば、EM座標系とモデル座標系との間のマッピングを生成するために、処置の開始時に位置合わせを実行することができる。したがって、気管支鏡検査中に器具が追跡されると、モデル座標系内の器具のポジションは、EMセンサからのポジションデータに基づいて名目上既知になる。
図16Aは、開示されたナビゲーションシステム及び技法の1つ又は2つ以上の態様を実施する例示的な動作環境100を示す。動作環境100は、患者101、患者101を支持するプラットフォーム102、器具115の動きを誘導する外科用又は医療用ロボットシステム110、ロボットシステム110の動作を制御するためのコマンドセンター105、EMコントローラ135、EM場発生器120、及びEMセンサ125、130を含む。図16Aはまた、図16Bにより詳細に示される、患者101内の管腔網140の領域の輪郭も示す。
システム110は、患者101の管腔網140を通して器具115の移動を位置決め及び案内するための1つ又は2つ以上のロボットアームを含むことができる。コマンドセンター105は、位置データを受信するために及び/又はユーザからの制御信号を提供するために、ロボットシステム110に通信可能に結合することができる。本明細書で使用するとき、「通信可能に結合する」は、無線ワイドエリアネットワーク(wireless wide area network、WWAN)(例えば、1つ又は2つ以上のセルラーネットワーク)、無線ローカルエリアネットワーク(wireless local area network、WLAN)(例えば、IEEE802.11(Wi-Fi)などの1つ又は2つ以上の規格用に構成される)、Bluetooth、データ転送ケーブル、及び/又は同類のものが挙げられるが、これらに限定されない、任意の有線及び/又は無線データ転送媒体を指す。ロボットシステム110は、図1~図15に関連して上述されるシステムのうちのいずれかであり得る。システム110の実施形態は、図16Cに関してより詳細に論じられ、コマンドセンター105は、図17に関してより詳細に論じられる。
器具115は、患者の解剖学的構造内に挿入されて解剖学的構造(例えば、体組織)の画像をキャプチャし、ターゲット組織部位に他の医療器具を挿入するための作業チャネルを提供する、管状で可撓性の外科用器具であり得る。上述したように、器具115は、処置特有の内視鏡、例えば、気管支鏡、胃鏡、若しくは尿管鏡であり得るか、又は腹腔鏡若しくは血管操縦可能なカテーテルであり得る。器具115は、その遠位端に1つ又は2つ以上の撮像デバイス(例えば、カメラ又は他のタイプの光学センサ)を含むことができる。撮像デバイスは、光ファイバ、ファイバアレイ、感光性基板、及び/又はレンズ(複数可)などの、1つ又は2つ以上の光学構成要素を含み得る。光学構成要素は、器具115の先端部と共に移動するため、器具115の先端部が移動すると、撮像デバイスによってキャプチャされる画像の視野に、対応する変化がもたらされる。器具115の遠位端には、管腔網140の周りに生成されたEM場内の遠位端のポジションを追跡するための1つ又は2つ以上のEMセンサ125が設けられ得る。器具115の遠位端は、以下の図18を参照して更に説明される。
EMコントローラ135は、EM場発生器120を制御して、様々なEM場を生成することができる。EM場は、実施形態によって、時間的に変動し得、及び/又は空間的に変動し得る。いくつかの実施形態では、EM場発生器120は、EM場発生ボードであり得る。開示される患者ナビゲーションシステムのいくつかの実施形態は、患者と患者を支持するプラットフォーム102との間に位置決めされたEM場発生器ボードを使用することができ、EM場発生器ボードは、それより下に位置する導電性又は磁気性材料によって引き起こされる何らかの追跡歪みを最小限に抑える薄いバリアを組み込むことができる。他の実施形態では、EM場発生器ボードは、例えばロボットシステム110に示されるものに類似する、ロボットアーム上に装着することができ、これは、患者の周りの柔軟なセットアップオプションを提供することができる。
図16Bは、図16Aの手術環境100内でナビゲートすることができる例示的な管腔網140を示す。管腔網140は、患者101の気道150の分岐構造と、主竜骨156(典型的には、気管支検鏡法ナビゲーション中に遭遇する第1の分岐)につながる気管154と、診断及び/又は処置ために本明細書で説明するようアクセスすることができる小結節(又は病変)155と、を含む。例示されるように、小結節155は、気道150の末端部に位置する。器具115は、第1の直径を有するシース141を備えることができ、したがって、シース141の遠位端は、小結節155の周りのより小さい直径の気道を通して位置付けることができない。したがって、スコープ145は、器具115の作業チャネルから、小結節155までの残りの距離全体にわたって延在する。スコープ145は、器具、例えば、生検針、細胞ブラシ、及び/又は組織サンプリング鉗子を小結節155のターゲット組織部位まで通すことができる管腔を有することができる。そのような実施態様では、シース141の遠位端及びスコープ145の遠位端のどちらにも、気道150内のそれらのそれぞれの位置を追跡するためのEMセンサが設けられ得る。
いくつかの実施形態では、本明細書に記載される3D管腔網モデルの2D表示、又は3Dモデルの断面は、図16Bに類似し得る。推定位置情報は、そのような表現の上へ重ね合わせることができる。
図16Cは、図16Bの管腔網140を通る器具の移動を誘導するためのロボットシステム110の例示的ロボットアーム175を示す。ロボットアーム175は、いくつかの実施形態で上述したロボットアーム12、39を含むことができ、様々な実施形態では、患者プラットフォーム38のカート基部15、カラム37又はシーリングベースのマウントを含むことができる基部180に結合される。上述のように、ロボットアーム175は、ロボットアーム175を複数の自由度で提供する連結部165に結合された複数のアームセグメント170を含む。
ロボットアーム175は、例えば、機構交換インターフェース(mechanism changer interface、MCI)160を使用して、器具マニピュレータ190、例えば、上述の器具マニピュレータ62に結合されてもよい。器具マニピュレータ190は、除去され、異なるタイプの器具マニピュレータ、例えば、内視鏡を操作するように構成された第1のタイプの器具マニピュレータ、又は腹腔鏡を操作するように構成された第2のタイプの器具マニピュレータと交換することができる。MCI 160は、空気圧、電力、電気信号、及び光信号をロボットアーム175から器具ドライバ190に伝達するためのコネクタを含む。MCI160は、止めねじ又は基部プレートコネクタであり得る。器具マニピュレータ190は、直接駆動、高調波駆動、ギア駆動、ベルト及びプーリ、磁気ドライブ等を含む技法を使用して、器具、例えば器具115を操作する。MCI 160は、器具マニピュレータ190のタイプに基づいて交換可能であり、ある特定のタイプの外科処置のためにカスタマイズされ得る。ロボット175アームは、関節レベルトルク感知器及び遠位端における手首部を含むことができる。
ロボットシステム110のロボットアーム175は、器具115の先端を偏向させるために、上述のように腱を使用して器具115を操作することができる。器具115は、細長い運動部材によって印加される力に応答して、非直線的挙動を呈し得る。非直線的挙動は、器具115の剛性及び圧縮性、並びに異なる細長い運動部材どうしの間の緩み又は剛性の変動性に基づくものであり得る。
基部180は、ロボットアーム175が患者に対して外科処置を実施又は支援するためのアクセスを有するように位置決めされ得るが、一方で医師などのユーザは、コマンドコンソールから快適に、ロボットシステム110を制御し得る。ベース180は、図16Aに示されるコマンドコンソール105に通信可能に結合することができる。
基部180は、電源182、空気圧源186、制御系及びセンサ電子機器184(中央処理ユニット、データバス、制御回路、及びメモリなどの構成要素を含む)、並びに関連するアクチュエータ(ロボットアーム175を動かすためのモータなど)を含み得る。電子機器184は、本明細書に記載されるナビゲーション制御技法を実施することができる。基部180内の電子機器184はまた、コマンドコンソールから伝達される制御信号を処理及び送信してもよい。いくつかの実施形態では、基部180は、ロボットシステム110を搬送するためのホイール188と、ホイール188用のホイールロック/ブレーキ(図示せず)と、を含む。ロボットシステム110の可動性は、外科手術室における空間制約に順応する助けとなり、かつ外科用装置の適切な位置決め及び移動を容易にする助けとなる。更に、この可動性により、ロボットアーム175が、患者、医師、麻酔科医、又はいかなる他の装置とも干渉しないように、ロボットアーム175を構成することが可能となる。手術中、ユーザは、制御デバイス、例えばコマンドコンソールを使用して、ロボットアーム175を制御し得る。
図17は、例えば例示的な手術環境100においてコマンドコンソール105として使用することができる、例示的なコマンドコンソール200を示す。コマンドコンソール200は、コンソール基部201と、1つ又は2つ以上のディスプレイ202(例えば、モニタ)と、1つ又は2つ以上の制御モジュール(例えば、キーボード203及びジョイスティック204)と、を含み得る。いくつかの実施形態では、コマンドモジュール200の機能のうちの1つ又は2つ以上は、ロボットシステム110の基部180、又は外科用ロボットシステム110に通信可能に結合された別のシステムに統合され得る。ユーザ205、例えば、医師は、コマンドコンソール200を使用して、人間工学的位置からロボットシステム110を遠隔制御する。
コンソールベース201は、例えば、図16A~図16Cに示される器具115からのカメラ撮像データ及び追跡センサデータなどの信号の解釈及び処理に関与する、中央処理ユニット、メモリユニット、データバス、及び関連データ通信ポートを含んでもよい。いくつかの実施形態では、コンソール基部201及び基部180はどちらも、負荷平衡化のための信号処理を実行する。コンソール基部201はまた、ユーザ205によって制御モジュール203及び204を通じて提供されるコマンド及び命令を処理してもよい。図17に示されるキーボード203及びジョイスティック204に加えて、制御モジュールは、他のデバイス、例えば、コンピュータマウス、トラックパッド、トラックボール、制御パッド、ハンドヘルドリモートコントローラなどのコントローラ、並びにハンドジェスチャ及び指ジェスチャをキャプチャするセンサ(例えば、モーションセンサ又はカメラ)を含み得る。コントローラは、器具の動作(例えば、関節運動、駆動、灌水、など)をマッピングする、又はそれにリンクされた、一組のユーザ入力(例えば、ボタン、ジョイスティック、方向パッドなど)を含むことができる。
ディスプレイ202としては、電子モニタ(例えば、液晶ディスプレイ、LEDディスプレイ、タッチセンシティブディスプレイ)、仮想現実視覚デバイス(例えばゴーグル若しくは眼鏡)、及び/又は他のディスプレイデバイスが挙げられ得る。いくつかの実施形態では、ディスプレイモジュール202は、例えば、タッチスクリーンを有するタブレット装置として、制御モジュールに統合される。いくつかの実施形態では、ディスプレイ202のうちの一方は、患者の管腔網及び仮想ナビゲーション情報(例えば、EMセンサのポジションに基づくモデル内の内視鏡の端部の仮想表現)の3Dモデルを表示することができ、一方で、ディスプレイ202のうちの他方は、器具115の端部におけるカメラ又は別の感知デバイスから受信した画像情報を表示することができる。いくつかの実装形態では、ユーザ205は、統合されたディスプレイ202及び制御モジュールを使用して、データを見ることと、システム110へのコマンド入力の両方を行うことができる。ディスプレイ202は、立体デバイス、例えば、バイザ又はゴーグルを使用して、3D画像の2Dレンダリング及び/又は3D画像を表示することができる。3D画像は、患者の解剖学的構造を示すコンピュータ3Dモデルである「エンドビュー」(すなわち、内視鏡ビュー)を提供する。「エンドビュー」は、患者の内部の仮想環境、及び患者の内部における器具115の予想される位置を提供する。ユーザ205は、「エンドビュー」モデルを、カメラによってキャプチャされた実際の画像と比較して、器具115が患者の体内の正しい(又は概ね正しい)位置にあるように、頭の中において方向付けし確認する助けとする。「エンドビュー」は、器具115の遠位端の周りの解剖学的構造、例えば、患者の気道、循環血管、又は腸若しくは結腸の形状に関する情報を提供する。ディスプレイモジュール202は、器具115の遠位端の周りの解剖学的構造の3Dモデル及びCTスキャンを同時に表示することができる。更に、ディスプレイモジュール202は、器具115の既に判定したナビゲーション経路を、3Dモデル及びCTスキャン画像に重ね合わせることができる。
いくつかの実施形態では、外科処置の状態を示すのを支援するために、器具115のモデルが3Dモデルと共に表示される。例えば、CTスキャンにより、生検が必要であり得る解剖学的構造にある病変が識別される。動作中、ディスプレイモジュール202は、器具115の現在の位置に対応する、器具115によってキャプチャされた基準画像を示すことができる。ディスプレイモジュール202は、ユーザ設定及び特定の外科処置に応じて、器具115のモデルの異なるビューを自動的に表示することができる。例えば、ディスプレイモジュール202は、器具115が患者の手術領域に接近する際のナビゲーション工程中には、器具115の頭上からのX線透視図を示す。
図18は、本明細書に記載されるような撮像及びEM検知能力を有する例示的な器具、例えば、図16A~図16Cの器具の115の遠位端300を示す。図18では、器具の遠位端300は、撮像デバイス315、照明源310、及びEMセンサコイル305の端部を含む。遠位端300は、内視鏡の作業チャネル320への開口部を更に含み、この開口部を通して、生検針、細胞学的ブラシ、及び鉗子などの外科用器具が内視鏡シャフトに沿って挿入され得、内視鏡先端付近の領域へのアクセスを可能にする。
遠位端300上に位置するEMコイル305は、EM追跡システムと共に使用されて、解剖学的システム内に配置されている間に内視鏡の遠位端300のポジション及び配向を検出することができる。いくつかの実施形態では、コイル305は、異なる軸に沿ってEM場に感度を提供するように角度付けされてもよく、開示されたナビゲーションシステムに、完全な6つの自由度(3つの位置自由度及び3つの角度自由度)を測定する能力を与える。他の実施形態では、単一のコイルのみが遠位端300上又は内部に配置されてもよく、その軸は器具の内視鏡シャフトに沿って配向されてもよい。そのようなシステムの回転対称性に起因して、その軸を中心にロールすることは非感受性であり、そのような実施態様においては5つの自由度だけが検出され得る。
B.位置センサ位置合わせのための技法
上述のように、位置センサを使用して、医療処置中に器具が駆動される患者の解剖学的構造のモデルに対して器具の一部分(例えば、器具の遠位端)の位置を追跡することができる。モデルは、術前測定値に基づいて生成されてもよく、位置センサは、独立座標系に基づいて機能し得ることを理解されたい。位置センサを使用して器具の位置を正確に判定するために、位置センサ座標系は、モデル座標系に位置合わせされ、これは、位置センサからの測定に適用されて、モデル座標系内の対応するポジションに到達することができる変換を提供する。図17は、例えば、例示的な動作環境100内のコマンドコンソール105として使用することができる例示的なコマンドコンソール200を示す。コマンドコンソール200は、コンソールベース201、1つ又は2つ以上のディスプレイ202(例えば、モニタ)、及び1つ又は2つ以上の制御モジュール(例えば、キーボード203及びジョイスティック204)を含み得る。いくつかの実施形態では、コマンドモジュール200の機能のうちの1つ又は2つ以上は、ロボットシステム110の基部180、又は外科用ロボットシステム110に通信可能に結合された別のシステムに統合され得る。ユーザ205、例えば、医師は、コマンドコンソール200を使用して、人間工学的位置からロボットシステム110を遠隔制御する。
ある特定の実施態様では、位置センサ座標系は、器具が患者の解剖学的構造内で駆動されている間に取られた位置センサデータに基づいて、モデル座標系に位置合わせすることができる。位置センサ座標系を解剖学的構造のモデルの座標系に位置合わせするために必要とされるデータの量及び種類は、所与の解剖学的構造の形状に依存し得る。例えば、位置センサ座標系をモデル座標系に位置合わせするための1つの技法は、位置センサから受信したデータの履歴を維持することと、位置データ履歴によって形成された形状を、解剖学的構造のモデルに基づいて器具が移動することができる候補経路に一致させることとを伴う。この技法は、ある特定の量の非対称性を有する解剖学的構造のための位置センサ座標系とモデル座標系との間の位置合わせを見つけることにおいて、より成功し得る。
図19は、本開示の態様に従って、位置センサの位置合わせを実行することができる、例示的な管腔網を示す。図19の実施形態では、図示された管腔網400は、患者の気道に対応しており、第1代気道405(例えば、気管)を含み、この気道は主竜骨410において2つの第2代気道415及び420(例えば、一次気管支)に分岐する。また、システムが医療処置中に器具を駆動することができるターゲット425(例えば、管腔網400内の病変又は小結節)も示されている。ターゲット経路430は、器具がターゲット425に到達するように駆動され得る計画された経路を提供する。実施形態に応じて、システムは、管腔網400の術前にスキャンされたモデル及びターゲット425の位置に基づいて、ターゲット経路425を自動的に生成してもよい。他の実施形態では、ターゲット経路425は、術前計画中にユーザによって選択されてもよい。システムは、ディスプレイ上のモデルに対するターゲット経路430の例示を表示して、器具を駆動しターゲット425に到達させる方向の指標をユーザに提供することができる。ある特定の実施形態では、ターゲット経路430は、管腔網の同じ部分を1回より多く横断しない(すなわち、ターゲット経路425を横断することは、管腔網のセグメントの下方に前進させ、器具を同じセグメントに沿って後退させることを伴わない)、ターゲット425への直接経路のみを含んでもよい。
理解されるように、第2代分岐415及び420によって画定される気道は対称でなくてもよいが、代わりに、異なる長さを有し、第1代気道405と異なる角度を形成してもよい。本開示によるある特定の位置合わせ技法では、いわゆる対側位置合わせは、分岐415と420との間のこの非対称性を活用して器具の位置合わせを改善する。実施形態は、器具を対側経路435に沿って駆動することによって非対称性を活用することができ、これは、器具を、ターゲット経路430上の気道と対側である第2代気道415に駆動して、第1代気道405に引き戻し、次いで経路430上の第2代気道に駆動することを含み得る。以下に論じられるように、実施形態は、対側分岐415を自動的に検出し、対側分岐415に沿って器具によって横断される距離が十分であるときに自動的に判定することなどの、対側位置合わせを容易にする特徴を追加的に含んでもよい。
対側経路435の使用をより良く説明するために、位置合わせプロセス中に位置センサからのデータ出力によって画定される経路又はトレース(対側経路435を含む)を、管腔網400のモデルによって画定される様々な形状と比較することができる。管腔網400によって形成された非対称形状により、位置合わせプロセス中に位置センサデータによって画定される経路は、管腔網400のモデルの単一部分、すなわち、第1代気道405及び第2代気道415及び420の各々によって画定される形状に固有に対応し得る。したがって、位置センサ座標系とモデル座標系との間の位置合わせは、位置合わせプロセス中に位置センサデータ(例えば、対側経路435)によって画定される経路又はトレースと、第1代気道405及び第2代気道415及び420の各々によって画定される形状との間の変換に基づいて画定されてもよい。
図19は、管腔網の実施形態として患者の気道の例を提供するが、本開示の態様はまた、他の管腔網をナビゲートするために使用される位置センサ、特に、少なくとも部分的に非対称である管腔網の位置合わせにも適用され得る。例えば、本開示の態様は、胃腸管網、尿路、血管網等に適用され得る。したがって、本開示の態様は、器具を管腔網内の非対称経路の少なくとも一部分に沿って駆動している間に受信された位置データに基づいた位置センサの位置合わせに関する。
図20Aは、本開示の態様による、位置センサ座標系を対側に位置合わせするための、外科用ロボットシステム又はその構成要素によって動作可能な例示的方法を示すフローチャートである。図20Aに示される方法500の工程は、外科用ロボットシステムのプロセッサによって実行され得ることを理解されたい。便宜上、方法500は、システムのプロセッサによって実行されるものとして記載される。方法500の様々な工程の説明に関連する場合、以下の方法500の一実施形態を説明するために、図19に示される管腔網400を参照する。
プロセッサは、1つ又は2つ以上の位置センサのセットを有する器具を含むシステムの一部として含まれてもよい。位置センサのセットは、位置センサ座標系内の位置センサのセットのポジションを示す位置データを生成するように構成されてもよい。位置センサは、器具の遠位端に又はその近くに位置してもよく(例えば、図18を参照)、したがって位置データは、器具の遠位端の位置を示すことができる。システムは、器具の遠位端の移動を制御するように構成された器具マニピュレータのセットと、プロセッサと通信し、患者の管腔網のモデルを記憶した少なくとも1つのコンピュータ可読メモリと、を更に含んでもよい。モデルは、モデル座標系内のターゲット及びターゲットへの経路を含んでもよい。メモリは、プロセッサのセットに方法500を実行させるために、コンピュータ実行可能命令を更に記憶していてもよい。
方法500は、ブロック501において開始する。ブロック505において、プロセッサは、器具を管腔網の第1の分岐(例えば、対側分岐415)に沿って駆動するように、第1のコマンドセットを器具マニピュレータのセットに提供する。いくつかの実施形態では、第1のコマンドセットは、1つ又は2つ以上のユーザ入力デバイスのセットから受信したユーザ入力に基づいて生成されてもよい。したがって、プロセッサは、位置合わせプロセスに関連付けられた移動のセットに従うための(例えば、器具を対側位置合わせ経路435の第1の部分に沿って駆動するための)命令を含む、ユーザ命令をユーザに提供することができる。次いで、システムは、ユーザ命令に対応するユーザ入力を受信し、第1の分岐に沿った器具の移動のために第1のコマンドセットを生成することができる。図19に示されるように、第1の分岐415は、ターゲット経路430の外側でターゲット430に位置する。したがって、第1のコマンドセットは、器具マニピュレータに、器具を対側位置合わせ経路435の第1の部分に沿って対側分岐415の下方に駆動させることができる。
ブロック510において、プロセッサは、器具を第1の分岐に沿って駆動する間に、1つ又は2つ以上の位置合わせパラメータのセットを追跡する。位置合わせパラメータは、システムによって追跡され、位置センサ座標系とモデル座標系との間の位置合わせを実行するために、システムによって十分なデータが収集されたかどうかを判定するために使用され得る任意のデータであってもよい。ブロック515において、プロセッサは、位置合わせパラメータのセットが位置合わせ基準を満たすことを判定する。位置合わせ基準を満たす位置合わせパラメータは、対側分岐415に沿って十分な距離を移動する器具を示してもよく、位置合わせプロセスは、器具がターゲット経路430に後退して戻る状態で継続することができる。位置合わせパラメータを追跡し、位置合わせパラメータが位置合わせ基準を満たすかどうかを判定するためのより詳細な実施形態が、図20Bに関連して以下に提供される。
ブロック520において、プロセッサは、器具をターゲット経路430に戻し、器具を第2の分岐(例えば、側方分岐420)に沿って駆動するように、第2のコマンドセットを器具マニピュレータのセットに提供する。図19に示すように、分岐420は、ターゲット425へのターゲット経路430に沿って位置する。プロセッサは、器具を、側方分岐420を下り続ける対側位置合わせ経路435の残りの部分に沿って駆動してもよい。
ブロック525において、プロセッサは、器具を第1の分岐及び第2の分岐に沿って(例えば、対側位置合わせ経路435に沿って)駆動する間に、位置センサのセットから受信した位置データに基づいて、位置センサ座標系とモデル座標系との間の位置合わせを判定する。器具を側方分岐420に後退させるコマンドを提供する前に、ブロック515において位置合わせパラメータが位置合わせ基準を満たすことを確認することによって、プロセッサは、位置合わせを判定するために十分な位置データが収集されることを確実にすることができる。方法500は、ブロック530において終了する。
ある特定の実施形態では、位置センサ座標系とモデル座標系との間の位置合わせは、工程505で参照される第1のコマンドセット及び工程520からの第2のコマンドセットに更に基づいてもよい。すなわち、第1及び第2のコマンドセットは、器具の移動を制御するために器具マニピュレータに提供されるロボットデータであってもよい。第1及び第2のコマンドセットは、器具の移動を制御するために使用されるため、プロセッサは、第1及び第2のコマンドセットに基づいて移動されたときに器具の位置を判定することができる。したがって、プロセッサは、器具を駆動するために使用されるロボットデータに基づいて、モデルに対する器具の遠位端の位置を判定することができる。例として、器具の遠位端が竜骨(図19に示される竜骨410を参照)に、又はその近くに位置し、第1の分岐(例えば、対側分岐415)の下方に駆動するように位置決めされる場合、挿入コマンドを器具に提供した後、プロセッサは、器具の遠位端が挿入コマンドに指示された量だけ第1の分岐内に挿入されたことを判定することができる。
プロセッサは、1つ又は2つ以上のユーザ入力デバイスのセットから受信したユーザ入力に基づいて、器具マニピュレータに提供される第1及び第2のコマンドセットを生成するように更に構成されてもよい。したがって、器具の駆動は、システムによって受信されたユーザ入力に基づいて手動で実行されてもよい。
上述のように、位置合わせは、位置センサ座標系からモデル座標系にデータをマッピングすることができる変換を含んでもよい。変換は、位置センサデータに適用され得る並進及び/又は回転を含み得る。位置センサ座標系からモデル座標系にデータを正確にマッピングする位置合わせを判定するのを支援するために、プロセッサは、位置センサ座標系とモデル座標系との間のアンカーとして使用することができる2つの座標系の各々における既知の位置を特定することができる。図19を参照すると、竜骨410は、管腔網のモデルから自動的に識別することができ、ユーザは、器具を竜骨410に容易にナビゲートし、竜骨410の位置を示すフィードバックをプロセッサに提供することができる。
ある特定の実施形態では、システムはまた、位置センサ座標系及びモデル座標系の各々において、既知の位置にあるアンカー点を判定するための誘導命令を生成してもよい。誘導命令は、ユーザに対し、器具の遠位端を駆動して、竜骨410に接触させ、次いで竜骨410に触れた後に器具を後退させる命令を含んでもよい。ユーザ入力に基づいて、プロセッサは、器具を竜骨410に駆動し、竜骨410に到達した後に器具を後退させるコマンドを提供してもよい。したがって、後退の直前に器具の位置を識別することによって、プロセッサは、位置センサ座標系内の識別された位置が、竜骨410の位置に対応することを判定することができる。次いで、2つの座標系の各々における竜骨410の位置は、位置センサ座標系をモデル座標系にマッピングする変換を判定するために、1つのデータとして使用することができる。
別の例示的な実施形態では、器具を後退させることによって、ユーザが竜骨410の位置を指示することを必要とするのではなく、プロセッサは、器具の遠位端に含まれるカメラを使用して、モデルに対する器具の位置を判定することができる。ユーザは、カメラによってキャプチャされた画像を使用し、ディスプレイに提供して、管腔網を通ってナビゲートすることができる。一実施形態では、カメラによって取得された画像は、リアルタイムでユーザに表示されてもよい。プロセッサは、カメラから受信した画像の分析に基づいて、器具の遠位端のポジションを判定するように構成されてもよい。管腔網の内部の特徴を判定することができる任意の画像処理技法を使用して、モデルに対する器具の遠位端のポジションを判定することができる。プロセッサは更に、器具の遠位端の遠位端が、器具の遠位端の判定されたポジションに基づいて、第1の位置(例えば、竜骨410)からの閾値距離内にあることを判定してもよい。
図20Bは、本開示の態様による、対側位置合わせを円滑にするために十分な位置データが受信されたかどうかを判定するための、外科用ロボットシステム又はその構成要素によって動作可能な例示的方法を示すフローチャートである。図20Bに示される方法550の工程は、外科用ロボットシステムのプロセッサによって実行され得ることを理解されたい。便宜上、方法550は、システムのプロセッサによって実行されるものとして記載される。方法550の工程は、図20Aのブロック510及び515の実施態様として実行されてもよい。
方法550は、ブロック551において開始する。ブロック555において、プロセッサは、生の位置データ及び状態データを受信する。本明細書で使用するとき、「生の位置データ」は、位置センサ座標系内の位置を示す位置データを指し得る。したがって、「生の位置データ」は、モデル座標フレームではなく器具座標フレーム内の位置を表す位置データであってもよい。位置合わせプロセスを実行し、位置センサ座標系とモデル座標系との間の位置合わせを判定する前に、プロセッサは、位置センサデータをモデル座標系にマッピングすることができない。したがって、位置合わせプロセスの完了前に受信した位置データは、登録されていないか、又は生の位置データであることが理解されるであろう。
状態データは、モデル内の器具の位置を示すプロセッサによって生成されたデータを指し得る。例えば、図15に示される位置特定システム90は、方法500及び550で使用することができる位置データ96(状態データとも称される)を生成するために使用されてもよい。状態データは、所与のセグメント内の器具の現在の深さ、又は解剖学的モデル内の挿入深さなどの深さ情報を含んでもよい。状態データはまた、モデル座標フレーム内の器具の遠位端の配向を含んでもよい。ある特定の実施形態では、プロセッサは、図20Aに示される位置合わせプロセス500を通して生の位置データ及び状態データを受信してもよい。
ブロック560において、プロセッサは、方法500により実行される位置合わせプロセスなどの位置合わせプロセス中に収集された位置データ及び状態データを記憶してもよい。位置合わせプロセスは、管腔網の形状に関連し得る、器具の移動の、演出されたセットを含んでもよい。移動のセットはまた、モデル内のターゲット425への画定されたターゲット経路430に基づいてもよい。位置合わせプロセスは、器具を管腔網の第1の分岐に沿って駆動するように、第1のコマンドセットを器具マニピュレータのセットに提供することを含んでもよく、第1の分岐は対側分岐415上にあり、したがって、ターゲット425へのターゲット経路430の外側にある。位置合わせプロセスはまた、器具をターゲット部位425へのターゲット経路430に戻し、経路に沿って継続させるコマンドを提供することを伴ってもよい。演出された移動のセットは、器具の遠位端を、対側位置合わせ経路435によって画定される経路に沿って駆動するために必要とされるコマンドのセットを含んでもよい。プロセッサは、第1の分岐に沿って器具を駆動する間に、深さ情報などの1つ又は2つ以上の位置合わせパラメータのセットを追跡してもよい。
ブロック565において、プロセッサは、追跡されている位置合わせパラメータに基づいて、位置合わせプロセスの対側相の一部として、十分な位置センサデータが収集されたかどうかを判定してもよい。一実施形態では、プロセッサは、深さ情報(例えば、器具の挿入深さ)などの位置合わせパラメータを使用して、器具が対側経路435の対側分岐415に沿って十分な距離を駆動されたかどうかを判定することができる。ある特定の実施形態では、1つの位置合わせ基準が満たされた後、プロセッサは、器具をターゲット経路430に戻すため、及び器具をターゲット部位に向かって第2の分岐に沿って駆動するように、第2のコマンドセットを器具マニピュレータのセットに提供してもよい。器具がターゲット部位に沿って継続するとき、プロセッサは、位置合わせプロセスのために器具位置データ及び状態データを追跡し続けることができる。
器具が対側分岐415に沿って十分な距離だけ駆動されたかどうかを判定することによって、システムは、ユーザから要求される入力の量を低減することができ、それによってユーザエラーの機会を低減することができる。例えば、ある特定の位置合わせプロセスは、ユーザが複数の定義された位置に駆動することを必要とし、器具が定義された位置に駆動されたことを示す入力をシステムに提供することを必要とし得る。このタイプの必要なユーザ入力を排除することにより、本開示の態様は、位置合わせプロセスの容易性を改善し、ユーザエラーの潜在的なソースを低減することができる。
ブロック570において、プロセッサは、位置合わせプロセス中に追跡された位置データ及び状態データ(例えば、対側経路435及びターゲット経路430に沿って追跡された位置データ及び状態データ)を使用して、位置座標系をモデル座標系に位置合わせしてもよい。上述したように、これは、位置センサを使用して追跡したときに器具によって取られた経路の形状を、モデルの骨格構造によって画定される管腔網の形状に一致させることを含んでもよい。ある特定の実施形態では、追跡された経路から最も低い差を有するモデルの形状が選択され、それを使用して位置センサ座標系とモデル座標系との間の位置合わせを判定する。追跡された経路が対側分岐415を含むため、実施形態は、追跡された経路がモデル内の他の候補経路に一致する可能性を低減し得ることを理解されたい。方法550は、ブロック575において終了する。
位置合わせを判定する際に、プロセッサは、位置センサデータ及びロボットデータの履歴によって画定される形状に一致するように更に構成されてもよい。したがって、ある特定の実施態様では、プロセッサは、器具を対側位置合わせ経路に沿って駆動しながら、位置座標系に対する器具の遠位端の位置を表す位置データ点のセットを生成するように構成されてもよい。プロセッサは、器具を対側位置合わせ経路に沿って駆動しながら、モデル座標系に対する器具の遠位端の位置を表すモデル点のセットを更に生成してもよい。プロセッサは、ロボットデータの履歴及びモデルに基づいてモデル点を生成してもよい。2つの点のセットは、位置座標系とモデル座標系との間の位置合わせを判定するためにプロセッサによって使用されてもよく、位置座標系内の位置データ点のセットをモデル座標系内の第2のモデル点のセットにマッピングする位置合わせを判定することに基づく。
図21は、本開示の態様による、管腔網のモデルに関する位置データを示す図である。図21の実施例では、図600は、管腔網の術前スキャンのモデル602を含み、これはまた、モデル602によって画定される気道の各々に沿った中点又は中心点によって画定される骨格605を含んでもよい。具体的には、骨格605は、各々が管腔網内の対応する管腔の中点に位置する一連のセグメントを含む。また、解剖学的構造に対する対側位置合わせプロセス中の器具の遠位端の実際の位置又は真の位置を表すグラウンドトゥルースデータ610も示されている。図21に示されるグラウンドトゥルースデータ610は、対側位置合わせプロセスの精度を強調するために処置中に通常使用されない試験用具によって生成されていてもよい。図示した例では、ターゲット625は、図の左側に位置してもよい。したがって、位置合わせ処置の間、器具は、第1代気道630から対側第2代気道635内へと駆動されてもよい。その後、器具を第1代気道630内に後退させ、ターゲット625への経路に沿って位置する側方第2代気道640内に前進させてもよい。
システムはまた、モデル605の骨格に沿った器具の位置を表す状態データ615を追跡してもよい。上述のように、プロセッサは、器具の遠位端の位置を示すデータの1つ又は2つ以上の異なるデータ源から受信したデータに基づいて(例えば、図15の位置特定モジュール95を介して)状態データを判定することができる。位置合わせプロセス中に十分なデータが受信されると、位置合わせされた位置データ620を生成するために位置合わせ変換を生の位置データに適用することができる。図21に示すように、位置合わせされた位置データ620は、グラウンドトゥルースデータ610を厳密に追跡してもよい。位置データが位置合わせされた後、プロセッサは、状態データ615を判定する際に、位置合わせされた位置データ620を入力として使用してもよい。
図22は、本開示の態様による、対側位置合わせプロセスを事前形成しない位置データの位置合わせの実施例を示す図である。この実施例では、対側位置合わせプロセスが実行されない(例えば、器具は対側分岐の下方に駆動されない)場合、生の位置データ705は、モデル内の2つの異なる候補経路710及び715と実質的に一致してもよい。すなわち、2つの候補経路710及び715の各々は、生の位置データ705の回転及び/又は並進が経路710及び715の両方と実質的に一致し得るような同様の形状を有してもよい。しかしながら、2つの経路710及び715が分岐しているため、位置合わせのために誤った経路715を選択することにより、位置データに、2つの経路710と715との間の分岐を通過して駆動されたときに器具の位置の不正確な指標を提供させることができる。対照的に、本開示の態様による対側位置合わせプロセスを実行することによって、誤った候補位置合わせ経路715に基づく位置合わせが、器具によって取られた対側経路に沿った形状に一致しないため、誤った候補位置合わせ経路715は、候補位置合わせのセットから除去され得る(例えば、図21を参照)。
上述したように、対側位置合わせ処置は、第1の分岐及び第2の分岐が非対称であるとき(例えば、第2代セグメント)、より正確かつよりロバストな位置合わせを提供することができる。したがって、ある特定の実施形態では、プロセッサは、対側位置合わせ処置のために、管腔網の非対称な分岐を選択してもよい。管腔網内の位置のこの選択はまた、位置データとモデルとの間の一致に対する可能な解決策の数を低減し、よりロバストな位置合わせ処置をもたらすことができる。気管支鏡検査の例では、経路に沿ってターゲットへと進む前に器具を対側分岐に駆動することは、位置センサのモデル座標系への位置合わせを容易にするのに十分な生の位置データを提供することができる。したがって、ある特定の実施形態では、第1の分岐は、ターゲットに対する管腔網の対側に位置する。
C.位置センサ位置合わせ計画
本開示の態様はまた、位置センサ位置合わせ処置に関連する命令及び/又は基準を判定することを伴い得る術前計画にも関する。図23は、本開示の態様による、術前計画のための、外科用ロボットシステム又はその構成要素によって動作可能な例示的方法を示すフローチャートである。術前計画のための処置800は、本開示の態様による術前計画のために、外科用ロボットシステム又はその構成要素によって動作可能であり得る。例えば、術前計画のための方法800の態様は、図17に例示されるコマンドコンソール200などのコマンドコンソールによって実行され得るか、又はコマンドコンソールの一部として含まれ得る、外科用ロボットシステムのプロセッサ(若しくはプロセッサのセット)によって実行され得る。便宜上、術前計画のための方法は、システムのプロセッサによって実行されるものとして記載される。ある特定の実施形態では、システムはまた、プロセッサのセットと通信し、患者の管腔網のモデルを記憶した、少なくとも1つのコンピュータ可読メモリを含んでもよい。モデルは、モデル座標系内のターゲット及びターゲットへの経路を含む。メモリはまた、プロセッサのセットに方法800を実行させるコンピュータ実行可能命令を記憶してもよい。
方法800は、ブロック801において開始する。ブロック905において、プロセッサは、ディスプレイデバイスを介して管腔網を表示する命令を提供する。具体的には、プロセッサは、ディスプレイデバイスを介して管腔網を表示する命令を提供してもよい。これは、例えば、プロセッサが、メモリから管腔網のモデルを取得し、ユーザによって閲覧されるモデルを表示することを伴い得る。モデルの表示は、例えば、管腔網の術前スキャンに基づいて生成された管腔網の3Dモデルを表示することを含み得る。他の実施形態では、モデルの表示は、管腔網の術前スキャン(図19、21、及び22に示される)に基づいて生成された骨格及び/又はより詳細にセグメント化された画像を表示することを伴い得る。
ブロック810において、プロセッサは、モデル座標系内のターゲットの位置の指標を受信する。例えば、プロセッサは、ユーザ入力デバイスを介して、医療処置の少なくとも一部分が実行されるモデルのターゲット部分の指標をユーザから受信してもよい。ターゲットは、例えば、病変を生検し、リンパ節をステージ分類し、放射線療法を誘導するか又は近接照射療法カテーテルを誘導するためにマーカーを挿入するための肺内の所望の位置であり得る。他の実施形態では、システムは、術前スキャンにおいて腫瘍を示す特徴を検出することに基づいて、ターゲット位置425を自動的に検出するか、又は別の方法で判定することができる。
ブロック815において、プロセッサは、管腔網内の第1の分岐(例えば、図19の対側分岐415などの、管腔網の対側に位置する分岐)と、管腔網内の第2の分岐(図19の側方分岐420などの、管腔網の側方に位置する分岐)を識別する。識別された第1及び第2の分岐は、ターゲットの位置に関して管腔網の対側及び側方にそれぞれ位置するため、第1の分岐は、ターゲットへの経路の外側に位置してもよく、第2の分岐は、ターゲットへの経路に沿って位置してもよい。
ある特定の実施形態では、モデル及び選択されたターゲットに基づいて、プロセッサは、位置センサの位置合わせを支援するために器具によって横断され得るモデルのある特定のセグメントを自動的に識別してもよい。これは、管腔網の対側に位置する分岐として第1の分岐を識別し、管腔網の側方に位置する分岐として第2の分岐を識別するプロセッサを含み得る。ある特定の実施形態では、第1及び第2の分岐は、図19に示される分岐415及び420などの、管腔網の第2代分岐であってもよい。プロセッサは、第1及び第2の分岐によって形成された形状が、管腔網内で十分に固有であることを判定するように更に構成されてもよく、器具が第2代分岐によって画定される対側位置合わせ経路に沿って駆動されるとき、モデル内の他の形状は、対側位置合わせプロセス中に器具によって取られた経路と一致することはない。この判定は、第1及び第2の分岐の形状をモデル内の他の可能な形状と比較して、形状に任意の可能な矛盾が存在するかどうかを判定することによって実行されてもよい。
上述したように、ある特定の位置合わせプロセスは、ユーザが器具を管腔網内の複数の画定された位置に駆動し、器具が画定された位置に位置するときにシステムに指標を提供することを必要とし得る。この技法はまた、ユーザが術前計画段階中に画定された位置を識別することを必要とし得る。しかしながら、プロセッサは、位置合わせプロセスに使用することができる対側経路を自動的に識別することができるため、術前計画段階中にユーザに必要な工程を低減することができる。
ブロック820において、プロセッサは、器具の遠位端を第1の分岐に沿って駆動し、第1の分岐から経路に戻り、第2の分岐に沿って駆動するための誘導命令のセットを生成する。したがって、命令のセットは、図19の対側位置合わせ経路435などの対側位置合わせ経路を画定し得る。誘導命令は、医療処置中にユーザに提供されるメモリに記憶されてもよい。医療処置中、命令に従って器具を駆動する間に、1つ又は2つ以上の位置センサのセットから受信した位置データは、位置データの位置座標系とモデル座標系との間の位置合わせを容易にし得る。位置合わせは、位置座標系とモデル座標系との間の並進及び回転のうちの少なくとも1つを含んでもよい。ブロック825において、プロセッサは、器具を第1の分岐に沿って駆動する間に追跡される1つ又は2つ以上の位置合わせパラメータに対する位置合わせ基準を判定する。方法800は、ブロック830において終了する。
位置合わせ基準は、位置センサ座標系の、モデル座標系への位置合わせに必要な位置データの量に関連し得る。例えば、基準は、器具を第1の分岐から経路に戻すことができる前に、対側分岐に沿った器具の必要な移動距離を指定してもよい。位置合わせ基準はまた、患者の解剖学的構造の特定の形状に依存し得る。例えば、いくつかの患者の気道は、他の患者よりも第1の分岐と第2の分岐との間に形成された形状と角度との間に、より大きな不一致を有し得る。第1の分岐と第2の分岐との間の差がより顕著である場合、位置合わせのために十分なデータを受信するために、器具が第1の分岐のはるか下方を移動する必要はない場合がある。他の実施形態では、位置合わせ基準は、実行される特定の処置のための患者の大部分に対する位置合わせ用の十分な位置データを提供するために判定された閾値に基づいて設定されてもよい。
位置合わせパラメータは、対側分岐への器具の挿入深さを含んでもよい。この実施形態では、位置合わせパラメータのセットは、第1の分岐への挿入深さが閾値挿入深さよりも大きいことに応じて、位置合わせ基準を満たす。例えば、位置合わせ基準は、経路上の第1代分岐に戻る前に、器具を対側分岐の少なくとも50%に沿って駆動する命令を含んでもよい。特定の値は、医療処置に関与する特定の解剖学的構造に応じて、及び/又は一般集団における解剖学的構造の形状の変化の分析に基づいて異なっていてもよい。
特定の医療処置に応じて、プロセッサはまた、第1の分岐及び第2の分岐が非対称であるかどうかを判定してもよい。プロセッサは、第1及び第2の分岐が非対称であることを判定したことに応じて、第1及び第2の分岐を識別することができる。上述したように、位置合わせプロセスは、非対称経路及び/又は非対称形状の管腔網に対してより正確であり得る。したがって、プロセッサは、位置合わせプロセスが実行される場所に対して非対称な形状を有する、管腔網内の分岐点を選択してもよい。気道の場合などのある特定の実施形態では、位置合わせプロセスが実行され得る1つの分岐は、気管から主気管支内への分岐である。したがって、プロセッサは、第1の分岐が、ターゲットに対する管腔網の対側に位置することを判定することに更に応答して、第1の分岐を識別することができる。
ある特定の実施形態では、命令のセットは、器具を管腔網内の第1の位置に駆動する命令を含む。第1の位置は、位置センサ座標系及びモデル座標系の各々の内部に既知の位置を提供することができる、医療処置中にユーザによって識別可能な位置であってもよい。例えば、気管支鏡検査処置中、第1の位置は、患者の竜骨に対応してもよい。竜骨は、主気管支間の分岐におけるその位置に基づいてモデル内で識別されてもよく、ユーザは、位置データの位置合わせの前に、竜骨に駆動することができる場合がある。この実施形態では、第1及び第2の分岐は、患者の主気管支に対応してもよい。器具の遠位端が第1の位置から閾値距離内にある間は、位置センサ座標系とモデル座標系との間の位置合わせは、位置センサのセットから受信した位置データに更に基づいてもよい。位置座標系とモデル座標系との間の既知の基準点として第1の位置を使用することによって、位置合わせのための並べ替えの数を制限することができる。加えて、ユーザ命令は、竜骨に触れた後に器具を後退させる命令を含んでもよい。この後退は、位置合わせ処置中に第1の位置として使用することができる、竜骨のポジションの指標として解釈され得る。
D.位置センサの重みベース位置合わせの概要
図15に関連して上述したように、医療器具の遠位端を位置特定するための特定の技術は、異なるセンサ/ソースからの入力を組み合わせて、医療器具の遠位端の位置を判定することを含み得る。これらの入力は、器具の遠位端の位置センサ(例えば、EMセンサ)、遠位端の画像センサ(例えば、カメラ)、及び/又はロボット挿入データ(例えば、ロボットコマンド及び運動学データ)を含むことができる。一例では、3つのアルゴリズムモジュール(例えば、EMベース、ロボットベース、及び画像ベース)は、器具の遠位端の位置の各々の推定状態データを、3つのアルゴリズムモジュールからの情報を組み合わせてナビゲーションフレームワークの出力を生成するセンサ融合モジュール(例えば、図15の位置特定モジュール95)に出力することができる。いくつかの実施態様では、位置特定アルゴリズムは、医療器具の遠位端の現在位置に確率を提供することができる(例えば、患者の管腔網のモデルを参照して、対応するセグメント内のセグメントID及び深度/挿入によって定義され得る)。モデルの一実施例は、管腔網の中心線に基づいて生成され得る骨格である。モデル位置点は、医療器具の遠位端の位置の表現が対応する管腔の中心線/骨格に沿っているように、骨格に沿って定義され得る。加えて、分岐予測アルゴリズムのいくつかの実施態様は、医療器具が現在の管腔のどの子管腔に向かって駆動しているかに関する確率(例えば、医療器具が対応する管腔に入る可能性がある各子管腔の確率)として確率を提供することができる。
いくつかの実施態様では、位置センサ位置合わせアルゴリズムを使用して、センサ座標系(例えば、EMセンサ空間)とモデル座標系(例えば、CT/骨格空間)との間の変換を計算する。位置センサ位置特定アルゴリズムモジュール及び位置センサ分岐予測アルゴリズムモジュールの各々は、モデル座標系における医療器具の遠位端の位置合わせされた姿勢を判定することができ、この姿勢は、アルゴリズム出力値(例えば、医療器具の遠位端の現在位置、及び医療器具が子管腔の各々に入ると思われる確率)を判定するための各位置センサアルゴリズムモジュールによって使用され得る。
図24は、本開示の態様による、センサ座標系とモデル座標系との間の位置合わせを判定するために、外科用ロボットシステム又はその構成要素(複数可)によって動作可能な例示的方法900を示すフローチャートである。図24に示される方法900の工程は、外科用ロボットシステムのプロセッサによって実行され得ることを理解されたい。便宜上、方法900は、システムのプロセッサによって実行されるものとして記載される。
プロセッサは、1つ又は2つ以上の位置センサのセットを有する器具を含むシステムの一部として含まれてもよい。位置センサのセットは、位置センサ座標系内の位置センサのセットのポジションを示す位置データを生成するように構成されてもよい。位置センサは、器具の遠位端に又はその近くに位置してもよく(例えば、図18を参照)、したがって位置データは、器具の遠位端の位置を示すことができる。システムは、器具の遠位端の移動を制御するように構成された器具マニピュレータのセットと、プロセッサと通信し、患者の管腔網のモデルを記憶した少なくとも1つのコンピュータ可読メモリと、を更に含んでもよい。モデルは、モデル座標系内のターゲット及びターゲットへの経路を含んでもよい。メモリは、プロセッサのセットに方法900を実行させるために、コンピュータ実行可能命令を更に記憶していてもよい。
方法900は、ブロック901で開始してもよい。ブロック902で、プロセッサは、位置センサのセットから位置データを受信し、器具の遠位端の現在の状態を示す状態データを受信する。特定の実施態様では、状態データは、様々なアルゴリズムモジュール(例えば、EMベース、ロボットベース、及び画像ベース)からの情報の組み合わせに基づくセンサ融合モジュール(例えば、図15の位置特定モジュール95)によって生成することができる。[0178]いくつかの実施態様では、方法900は、位置センサのセンサ座標系と(例えば、位置センサがEMセンサを含むときの場発生器の位置に基づく)、モデル座標系との間の同次変換を表す剛体変換(例えば、位置合わせ)を計算するために使用することができる位置合わせアルゴリズムを含んでもよい。次いで、変換を使用して、医療器具の遠位端の任意の姿勢を位置センサ座標系からモデル座標系に変換することができる。
ブロック904において、プロセッサは、対側位置合わせを実行し、骨格位置履歴(モデル位置履歴とも呼ばれる)及び位置センサ位置履歴を保持する。例えば、プロセッサは、図20A及び20Bに関連して記載される方法500及び550とによる対側位置合わせを実行することができる。更に、プロセッサは、状態データを記憶することによって骨格位置データを保持し、位置データを記憶することによって位置センサ位置履歴を保持することができる。いくつかの実施態様では、骨格位置履歴及び位置センサ位置履歴は、経時的な器具の遠位端の位置を表す点群としてフォーマットされてもよい。
位置センサ履歴点群及び対応するモデル履歴点群は、位置合わせ変換を判定するための入力として使用することができる。実施態様に応じて、位置合わせを判定するための様々な技術を使用することができる。例えば、位置合わせは、特異値分解(SVD)技術、反復閉鎖点(ICP)技術、又は2つの座標系間の位置合わせを判定することができる任意の他の技術を用いて判定することができる。
ブロック906で、プロセッサは、登録前条件が満たされたかどうかを判定する。いくつかの実施態様では、登録前条件が満たされたかどうかを判定することは、位置合わせのための骨格位置履歴及び位置センサ位置履歴の各々に十分なデータが収集されたかどうかを判定することを含んでもよい。いくつかの実施態様では、プロセッサは、以下の条件のうちの1つ以上が満たされたことに応答して十分なデータが収集されたと判定することができる。それらの条件は、器具が、例えば第2世代セグメント(又は第3世代セグメントなど)に配置されていること、器具が第2世代セグメントへ少なくとも閾値距離(又は閾値速度で)前進していること、及び/又は骨格位置及び位置センサ位置履歴のサイズ(例えば、データ点の数)が閾値サイズ(例えば、骨格位置履歴のデータのサイズ/量が第1の閾値を満たす/超える、位置センサ位置履歴のデータのサイズ/量が第2の閾値を満たす/超える、及び/又は、骨格位置履歴及び位置センサ位置履歴のサイズ/量が第3の閾値を満たす/超える)より大きいことである。
ブロック908で、プロセッサは、骨格位置履歴及び位置センサ位置履歴に基づいて初期位置合わせを判定する。位置合わせの判定は、例えば、図20Aのブロック525及び/又は図20Bのブロック570に関連して上述したように実行されてもよい。判定された位置合わせを使用して、システムは、位置合わせを位置センサデータに適用することによって、医療器具の遠位端の位置合わせされた姿勢を判定することができる。[0183]ブロック910で、プロセッサは、位置センサ履歴点群からの追加点を位置合わせに含めることが、閾値誤差よりも大きい誤差をもたらすかどうかを判定する。ブロック910における判定は、器具が管腔網を通って前進する際に、位置センサ履歴点群内の各点に対して実行することができる。誤差が閾値誤差よりも大きいことに応答して、方法900は、ブロック912で位置合わせを固定又は維持し、ブロック916で手順を継続することを含む。
しかしながら、誤差が閾値誤差以下であることに応答して、方法900は、位置センサ履歴点群からの追加の点に基づいて、ブロック914で位置合わせを更新する(又は位置合わせを再判定すること)を含む。いくつかの実施態様では、プロセッサは、ブロック910で閾値誤差以下の誤差をもたらす位置センサ履歴点群からの点を使用して、位置合わせを更新することができる。
例えば、いくつかのユーザ駆動行動又は傾向、例えば、医療器具の管腔壁への接近(例えば、医療器具を壁に向かって歪める、壁に接触させる、医療器具を管腔路の中心線から離れる又は外れるように駆動させる、及び/又は別様に医療器具を管腔路の中心線から変位した経路に沿って駆動させる)、又は医療器具の屈曲は、位置合わせされた位置センサ点とモデル上の対応する点との間のあるレベルのミスマッチを引き起こす可能性がある。図25は、本開示の態様による、センサ位置点及びモデル位置点がモデル座標系内のモデル上に重ね合わされる実施例を示す。具体的には、図25の画像では、センサ位置点1002及びモデル位置点1004は、モデル(例えば、骨格)1006に関して例示される。図示されたセンサ位置点1002は、ブロック908で判定された初期位置合わせに基づいてモデル座標系に変換され、これは、いくつかの実施例では、ブロック902における対側位置合わせの後に完了させることができる。
位置合わせの精度、及び気道壁への接近などの最適以下の駆動行動に対する堅牢性を向上させるために、本開示の特定の態様は、対側ステップが完了し、初期位置合わせが計算された後の重みベースの位置合わせの使用に関する。したがって、ブロック912で判定された誤差が閾値誤差よりも大きい場合、方法900は、ブロック914において、プロセッサが初期位置合わせを更新することを含む。いくつかの実施態様では、初期位置合わせを更新することは、以下で更に詳細に説明する重みベースの位置合わせ技術を使用することを含む。以下で論じられるように、重みベースの位置合わせは、位置合わせ中に使用される位置センサ点及びモデル点の異なる重みを判定し割り当てることを含むことができる。ブロック916で、プロセッサは、方法900によって判定された位置合わせを使用して、手順を継続する。方法900は、ブロック918で開始してもよい。
E.位置合わせで使用する重みを判定するための例示的な技術
特定の実施態様では、初期位置合わせは、対応するセンサ位置点及びモデル位置点に異なる重みを判定及び割り当てて、重みを使用して位置合わせを再判定することによって(例えば、方法900のブロック914で)修正することができる。
特定の実施態様では、重みは、i)初期位置合わせが判定された後にモデル座標系に変換された位置センサ点1002、及びii)モデル位置点1004に基づいて計算することができる。図25は、変換された位置センサ点1002とモデル位置点1004との間の距離を示す。
1つ又は2つ以上の実施態様では、重みの各々は、0~1の値に設定することができる。重みを判定するためにプロセッサによって使用され得る多くの様々な技術が存在する。一実施態様では、プロセッサは、位置センサ点1002とモデル位置点1004との間の距離に比例して重みを判定又は割り当てることができる。例えば、n番目の重みは、以下の式を使用して判定することができる。
Figure 2022546421000002
ただし、aは、いくつかの実施態様では定数である。他の実施態様では、aは、対応する管腔(例えば、n番目の点が位置する気管又は気道)の半径である。図26は、距離に比例する重みを判定するための一実施例を示す。具体的には、図26は、変換されたセンサ位置点とモデル位置点(骨格点と呼ばれることもある)との間の距離の第1のグラフ1102と、対応する重みの第2のグラフ1104とを含む。
別の実施態様では、重みは、2値(例えば、0又は1)であってもよい。例えば、プロセッサは、距離と距離閾値(例えば、5mm)との比較に基づいて重みを判定することができ、センサ位置点とモデル位置点との間の距離が0.5又は別の距離閾値以上である場合には、重み付け計数0が所与の点(例えば、センサ位置点)に割り当てられ、センサ位置点とモデル位置点との間の距離が閾値未満である場合には、重み付け係数1が所与の点に割り当てられる。距離閾値は、センサ位置点と対応するモデル位置点との間の差異の許容レベルに対応し、どのレベルの差異が許容可能と考えられるかに関して、臨床要件及び/又はユーザ選好に基づいて設定することができる。図27は、距離に基づいてバイナリ重みを判定するための別の実施例を示す。具体的には、図27は、変換されたセンサ位置点とモデル位置点との間の距離の第1のグラフ1202、及び対応する重みの第2のグラフ1204を含む。
図28は、本開示の態様による、距離に基づいてバイナリ重みを判定するための更に別の実施例を示す。例えば、プロセッサは、距離に基づいて各管腔内の点を選別することによって重みを割り当てることができる。最小距離を有するある割合の各管腔内の点には、重み1を割り当てることができ、残りの点には、重み0を割り当てることができる。この実施態様は、図28で、重み1を有する第1のセットの点1302と、重み0を有する第2のセットの点1304とで示されている。
いくつかの実施態様では、プロセッサは、初期位置合わせが判定された後、対側位置合わせ点について距離に基づいて1回重みを計算することができる。これらの重みは後続のサイクルの位置合わせにおける同じ点に適用することができる一方(図24)、プロセッサは、更なる世代(例えば、第2世代以上)の位置合わせに関して累積された残りの点に重み1を割り当てることができる。
他の実施態様では、プロセッサは、対側点について1回だけ重みを判定するのではなく、医療器具の遠位端が更なる世代に前進し、位置合わせが更新されるときに、反復的又は定期的に重みを判定及び更新することができる。プロセッサは、更なる世代に蓄積される位置合わせ点の重みも判定することができる。プロセッサは、以前の点について判定されたメモリ内の重み/距離の履歴を維持することができ、処置中に後で計算された位置合わせの結果としてどの程度重みが変化し得るかどうかに関する制約を設定することができる。
いくつかの実施態様では、プロセッサは、医療器具が管腔網内に前進させられる際に、管腔の直径に比例する重みを適応的に増加させることができる。初期世代の点(所与の管腔の直径が大きい)では、重みはより小さくなり得、更なる世代の点では、小径の管腔で中心線経路から分岐する範囲が小さくなる見込みであるため、重みはより大きくなり得る。
特定の実施態様では、プロセッサは、重みを判定するために、初期位置合わせと、モデルの中心線まで変換されたセンサ位置の距離とを使用するのではなく、視覚アルゴリズムを使用して、機器のカメラによってキャプチャされた画像から見える気道の輪郭を追跡することで中心線駆動のメトリックを評価することによって、重みを判定することができる。プロセッサはまた、中心線からの位置センサ点の距離に基づいて重みを判定するために、医療器具の中心線駆動を識別するための別の入力としてロボット関節データを使用することができる。例えば、ユーザが医療器具の遠位端を中心線に近づくように駆動している対応点に、より大きな重みを割り当てることができ、医療器具の遠位端が中心線に面していない点(管腔壁に接近している)に、より小さな重みを割り当てることができる。
本開示の態様は、手順全体を通してセンサ位置をモデル点に連続的に位置合わせすることに関連する位置合わせアルゴリズムの堅牢性を改善することができる。例えば、位置合わせを判定する際に使用される位置センサ点を重み付けすることにより、プロセッサは、位置合わせを判定又は実行するときに骨格から遠く離れた点の影響又は作用を低減しながら、骨格モデルの近くに位置する点により大きな重み付けすることで、位置合わせの精度を改善することができる。
本開示の態様はまた、形状感知ベース及び/又は他のセンサベースの解決策を含む、2セットの3D点群(例えば、EM点及び骨格モデル点)を位置合わせするための他の技術にも適用可能であり得る。
3.実装システム及び用語
本明細書に開示される実施態様は、位置センサをモデル座標系に位置合わせするためのシステム、方法、及び装置を提供する。
本明細書で使用するとき、用語「連結する」、「連結している」、「連結された」、又は連結という単語の他の変形は、間接的接続又は直接的接続のいずれかを示し得ることに留意されたい。例えば、第1の構成要素が第2の構成要素に「連結される」場合、第1の構成要素は、別の構成要素を介して第2の構成要素に間接的に接続される、又は第2の構成要素に直接的に接続される、のいずれかであってもよい。
本明細書に記載する機能は、プロセッサ可読媒体又はコンピュータ可読媒体上の1つ又は2つ以上の命令として記憶されてもよい。用語「コンピュータ可読媒体」は、コンピュータ又はプロセッサによってアクセスすることができる任意の利用可能な媒体を指す。一例として、限定するものではないが、このような媒体は、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、電気的消去可能プログラム可能読み出し専用メモリ(EEPROM)、フラッシュメモリ、コンパクトディスク読み出し専用メモリ(CD-ROM)、又は他の光ディスク記憶装置、磁気ディスク記憶装置、若しくは他の磁気記憶デバイス、又は命令若しくはデータ構造の形態で所望のプログラムコードを記憶するために使用することができ、コンピュータによってアクセスされ得る任意の他の媒体を含んでもよい。コンピュータ可読媒体は、有形であり、非一時的であってもよいことに留意されたい。本明細書で使用するとき、用語「コード」は、コンピューティング装置又はプロセッサによって実行可能であるソフトウェア、命令、コード、又はデータを指してもよい。
本明細書に開示される方法は、記載される方法を達成するための1つ又は2つ以上のステップ又は行為を含む。方法ステップ及び/又は行為は、特許請求の範囲から逸脱することなく互いに交換されてもよい。換言すれば、記載されている方法の適切な動作のために特定の順序のステップ又は行為が必要とされない限り、特許請求の範囲から逸脱することなく、特定のステップ及び/又は行為の順序及び/又は使用を修正してもよい。
本明細書で使用するとき、用語「複数」は、2つ以上を示す。例えば、複数の構成要素は、2つ以上の構成要素を示す。用語「判定する」は、多種多様な行為を包含し、したがって、「判定する」は、計算する、演算する、処理する、算出する、調査する、ルックアップする(例えば、テーブル、データベース又は別のデータ構造を見ること)、確認することなどを含むことができる。また、「判定する」は、受け取る(例えば、情報を受信すること)、アクセスする(例えば、メモリ内のデータにアクセスすること)などを含むことができる。また、「判定する」は、解決する、選択する、選出する、確立するなどを含むことができる。
語句「基づく」は、別途明示的に指定されない限り、「のみに基づく」ことを意味しない。換言すれば、語句「基づく」は、「のみに基づく」及び「少なくとも基づく」の両方を記載する。
開示される実装形態の前述の説明は、任意の当業者が本発明を製造すること、又は使用することを可能にするために提供される。これらの実装形態に対する様々な修正は、当業者には容易に明らかになり、かつ、本明細書で規定される一般的な原理は、本発明の範囲から逸脱することなく、他の実装形態に適用され得る。例えば、当業者であれば、締結、装着、連結、又は係合ツール構成要素の均等の方法、特定の作動運動を生み出すための均等の機構、及び電気エネルギーを送達するための均等の機構など、多くの対応する代替的かつ均等の構造的詳細を採用することができると理解されるであろう。したがって、本発明は、本明細書に示される実装形態に限定されることを意図するものではなく、本明細書に開示される原則及び新規な特徴と一致する最も広い範囲が与えられるものである。
〔実施の態様〕
(1) システムであって、
1つ又は2つ以上の位置センサのセットを備える器具であって、前記位置センサが、センサ座標系における前記器具の遠位端の位置を示す位置データを生成するように構成されている、器具と、
1つ又は2つ以上のプロセッサのセットと、
前記1つ又は2つ以上のプロセッサのセットと通信し、かつモデル座標系に関して患者の管腔網のモデルを記憶している少なくとも1つのコンピュータ可読メモリと、
を備え、前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記1つ又は2つ以上のプロセッサに、
前記位置センサによって生成された前記位置データに基づいて、前記センサ座標系内のセンサ位置点のセットを生成させ、
前記モデル座標系内のモデル位置点のセットを判定させ、
前記センサ位置点のセット及び前記モデル位置点のセットに基づいて、前記センサ座標系と前記モデル座標系との間の初期位置合わせを判定させ、
前記センサ位置点のセットに対応する重み値のセットを判定させ、
前記センサ位置点のセット、前記モデル位置点のセット、及び前記重み値のセットに基づいて、前記センサ座標系と前記モデル座標系との間の更新された位置合わせを判定させる、
システム。
(2) 前記モデルが、前記管腔網の管腔に沿った中点によって画定される骨格を含み、
前記コンピュータ実行可能命令が更に、前記1つ又は2つ以上のプロセッサに、
前記初期位置合わせを使用して、前記センサ位置点を前記センサ座標系から前記モデル座標系に変換させ、
前記モデル座標系内の変換された前記センサ位置点の各々と前記骨格との間の距離を判定させ、
前記重み値の前記判定が、変換された前記センサ位置点と前記骨格との間の距離に更に基づく、実施態様1に記載のシステム。
(3) 前記重み値のセットが、バイナリである、実施態様2に記載のシステム。
(4) 前記コンピュータ実行可能命令が更に、前記1つ又は2つ以上のプロセッサに、
変換された前記センサ位置点の各々と前記骨格との間の各距離を、距離閾値と比較させ、
前記比較に基づいて、変換された前記センサ位置点の各々に、前記バイナリ重み値のうちの1つを割り当てさせる、実施態様3に記載のシステム。
(5) 前記モデルが、前記管腔網の前記管腔の直径値を更に含み、
前記重み値の前記判定が、前記管腔の前記直径値に更に基づく、実施態様1に記載のシステム。
(6) 前記器具が、前記管腔網の内部の画像をキャプチャするように構成されたカメラを更に備え、
前記コンピュータ実行可能命令が更に、前記1つ又は2つ以上のプロセッサに、前記センサ位置点の各々に関して、キャプチャされた前記画像に基づいて、前記器具の前記遠位端と前記器具の前記遠位端が位置する管腔の中心線との間の距離を判定させ、
前記センサ位置点の前記重み値の前記判定が、前記器具の前記遠位端と前記管腔の対応する中心線との間の距離に更に基づく、実施態様1に記載のシステム。
(7) 前記モデルが、前記管腔網の管腔に沿った中点によって画定される骨格を含み、
前記コンピュータ実行可能命令が更に、前記1つ又は2つ以上のプロセッサに、
前記センサ位置点の各々から所与の管腔の前記骨格までの距離に基づいて、前記センサ位置点を選別させ、
選別された前記センサ位置点に基づいて、前記重みを前記センサ位置点に割り当てさせる、実施態様1に記載のシステム。
(8) 前記センサ位置点の前記選別が、
最小距離を有する定義された割合の前記センサ位置点を第1の群に選別し、残りのセンサ位置点を第2の群に選別することを含む、実施態様7に記載のシステム。
(9) 前記重み値のセットがバイナリであり、前記コンピュータ実行可能命令が更に、前記1つ又は2つ以上のプロセッサに、
前記第1の群内の前記センサ位置点の各々に、重み値1を割り当てさせ、
前記第2の群内の前記センサ位置点の各々に、重み値0を割り当てさせる、実施態様1に記載のシステム。
(10) 前記重み値のセットが、バイナリであり、
前記センサ位置点のセットのサブセットが、第2の生成管腔に位置する前記器具の前記遠位端に対応し、
前記センサ位置点のセットの前記サブセットに、重み値1が割り当てられる、実施態様1に記載のシステム。
(11) 前記コンピュータ実行可能命令が更に、前記1つ又は2つ以上のプロセッサに、
前記センサ位置点のうちの第1のセンサ位置点に関して、前記初期位置合わせに関連付けられた誤差を判定させ、
前記誤差が閾値誤差よりも大きいことに応答して、前記初期位置合わせを固定させる、実施態様1に記載のシステム。
(12) 前記更新された位置合わせの前記判定が、前記誤差が前記閾値誤差以下であることに応答して、前記第1のセンサ位置点に更に基づく、実施態様11に記載のシステム。
(13) センサ座標系とモデル座標系との間の位置合わせを判定する方法であって、
器具の位置センサによって生成された位置データに基づいて、前記センサ座標系内のセンサ位置点のセットを生成することであって、前記位置データが、前記センサ座標系における前記器具の遠位端の位置を示す、生成することと、
前記モデル座標系内のモデル位置点のセットを判定することと、
前記センサ位置点のセット及び前記モデル位置点のセットに基づいて、前記センサ座標系と前記モデル座標系との間の初期位置合わせを判定することと、
前記センサ位置点のセットに対応する重み値のセットを判定することと、
前記センサ位置点のセット、前記モデル位置点のセット、及び前記重み値のセットに基づいて、前記センサ座標系と前記モデル座標系との間の更新された位置合わせを判定することと、
を含む、方法。
(14) 前記モデルが、前記管腔網の管腔に沿った中点によって画定される骨格を含み、
前記方法が、
前記初期位置合わせを使用して、前記センサ位置点を前記センサ座標系から前記モデル座標系に変換することと、
前記モデル座標系内の変換された前記センサ位置点の各々と前記骨格との間の距離を判定することと、
を更に含み、
前記重み値の前記判定が、変換された前記センサ位置点と前記骨格との間の距離に更に基づく、実施態様13に記載の方法。
(15) 前記重み値のセットが、バイナリである、実施態様14に記載の方法。
(16) 変換された前記センサ位置点の各々と前記骨格との間の各距離を、距離閾値と比較することと、
前記比較に基づいて、変換された前記センサ位置点の各々に前記バイナリ重み値のうちの1つを割り当てることと、
を更に含む、実施態様15に記載の方法。
(17) 前記モデルが、前記管腔網の前記管腔の直径値を更に含み、
前記重み値の前記判定が、前記管腔の前記直径値に更に基づく、実施態様13に記載の方法。
(18) 前記器具が、前記管腔網の内部の画像をキャプチャするように構成されたカメラを更に備え、
前記方法が、前記センサ位置点の各々に関して、キャプチャされた前記画像に基づいて、前記器具の前記遠位端と前記器具の前記遠位端が位置する管腔の中心線との間の距離を判定することを更に含み、
前記センサ位置点の前記重み値の前記判定が、前記器具の前記遠位端と前記管腔の対応する中心線との間の距離に更に基づく、実施態様13に記載の方法。
(19) 前記モデルが、前記管腔網の管腔に沿った中点によって画定される骨格を含み、
前記方法が、
前記センサ位置点の各々から所与の管腔の前記骨格までの距離に基づいて、前記センサ位置点を選別することと、
選別された前記センサ位置点に基づいて、前記重みを前記センサ位置点に割り当てることと、を更に含む、実施態様13に記載の方法。
(20) 前記センサ位置点の前記選別が、
最小距離を有する定義された割合の前記センサ位置点を第1の群に選別し、残りのセンサ位置点を第2の群に選別することを含む、実施態様19に記載の方法。
(21) 前記重み値のセットが、バイナリであり、
前記方法が、
前記第1の群の前記センサ位置点に重み1を割り当てることと、
前記第2の群の前記センサ位置点に重み0を割り当てることと、
を更に含む、実施態様20に記載の方法。
(22) 前記重み値のセットが、バイナリであり、
前記センサ位置点のセットのサブセットが、第2の生成管腔に位置する前記器具の前記遠位端に対応し、
前記モデル位置点のセットの前記サブセットに、値1が割り当てられる、実施態様13に記載の方法。
(23) 前記方法が、
前記センサ位置点のうちの第1のセンサ位置点に関して、前記初期位置合わせに関連付けられた誤差を判定することと、
前記誤差が閾値誤差よりも大きいことに応答して、前記初期位置合わせを固定することと、
を更に含む、実施態様13に記載の方法。
(24) 前記更新された位置合わせの前記判定が、更に、前記誤差が前記閾値誤差以下であることに応答して、前記第1のセンサ位置点である、実施態様23に記載の方法。
(25) 非一時的コンピュータ可読記憶媒体であって、前記非一時的コンピュータ可読記憶媒体に記憶された命令を有し、前記命令が実行されたときに、少なくとも1つのコンピューティングデバイスに、
器具の位置センサによって生成された位置データに基づいて、前記センサ座標系内のセンサ位置点のセットを生成することであって、前記位置データが、前記センサ座標系における前記器具の遠位端の位置を示す、ことと、
前記モデル座標系内のモデル位置点のセットを判定することと、
前記センサ位置点のセット及び前記モデル位置点のセットに基づいて、前記センサ座標系と前記モデル座標系との間の初期位置合わせを判定することと、
前記センサ位置点のセットに対応する重み値のセットを判定することと、
前記センサ位置点のセット、前記モデル位置点のセット、及び前記重み値のセットに基づいて、前記センサ座標系と前記モデル座標系との間の更新された位置合わせを判定することと、
を行わせる、
非一時的コンピュータ可読記憶媒体。
(26) 前記モデルが、前記管腔網の管腔に沿った中点によって画定される骨格を含み、
前記非一時的コンピュータ可読記憶媒体が、前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令が実行されるときに、前記少なくとも1つのコンピューティングデバイスに、
前記初期位置合わせを使用して、前記センサ位置点を前記センサ座標系から前記モデル座標系に変換させ、
前記モデル座標系内の変換された前記センサ位置点の各々と前記骨格との間の距離を判定させ、
前記重み値の前記判定が、変換された前記センサ位置点と前記骨格との間の距離に更に基づく、実施態様25に記載の非一時的コンピュータ可読記憶媒体。
(27) 前記重み値のセットが、バイナリである、実施態様26に記載の非一時的コンピュータ可読記憶媒体。
(28) 前記非一時的コンピュータ可読記憶媒体が、前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令が実行されるときに、前記少なくとも1つのコンピューティングデバイスに、
変換された前記センサ位置点の各々と前記骨格との間の各距離を、距離閾値と比較させ、
前記比較に基づいて、変換された前記センサ位置点の各々に、前記バイナリ重み値のうちの1つを割り当てさせる、実施態様27に記載の非一時的コンピュータ可読記憶媒体。
(29) 前記モデルが、前記管腔網の前記管腔の直径値を更に含み、
前記重み値の前記判定が、前記管腔の前記直径値に更に基づく、実施態様25に記載の非一時的コンピュータ可読記憶媒体。
(30) 前記器具が、前記管腔網の内部の画像をキャプチャするように構成されたカメラを更に備え、
前記非一時的コンピュータ可読記憶媒体が、前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令が実行されるときに、前記少なくとも1つのコンピューティングデバイスに、前記センサ位置点の各々に関して、キャプチャされた前記画像に基づいて、前記器具の前記遠位端と前記器具の前記遠位端が位置する管腔の中心線との間の距離を判定させ、
前記センサ位置点の前記重み値の前記判定が、前記器具の前記遠位端と前記管腔の対応する中心線との間の距離に更に基づく、実施態様25に記載の非一時的コンピュータ可読記憶媒体。

Claims (30)

  1. システムであって、
    1つ又は2つ以上の位置センサのセットを備える器具であって、前記位置センサが、センサ座標系における前記器具の遠位端の位置を示す位置データを生成するように構成されている、器具と、
    1つ又は2つ以上のプロセッサのセットと、
    前記1つ又は2つ以上のプロセッサのセットと通信し、かつモデル座標系に関して患者の管腔網のモデルを記憶している少なくとも1つのコンピュータ可読メモリと、
    を備え、前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記1つ又は2つ以上のプロセッサに、
    前記位置センサによって生成された前記位置データに基づいて、前記センサ座標系内のセンサ位置点のセットを生成させ、
    前記モデル座標系内のモデル位置点のセットを判定させ、
    前記センサ位置点のセット及び前記モデル位置点のセットに基づいて、前記センサ座標系と前記モデル座標系との間の初期位置合わせを判定させ、
    前記センサ位置点のセットに対応する重み値のセットを判定させ、
    前記センサ位置点のセット、前記モデル位置点のセット、及び前記重み値のセットに基づいて、前記センサ座標系と前記モデル座標系との間の更新された位置合わせを判定させる、
    システム。
  2. 前記モデルが、前記管腔網の管腔に沿った中点によって画定される骨格を含み、
    前記コンピュータ実行可能命令が更に、前記1つ又は2つ以上のプロセッサに、
    前記初期位置合わせを使用して、前記センサ位置点を前記センサ座標系から前記モデル座標系に変換させ、
    前記モデル座標系内の変換された前記センサ位置点の各々と前記骨格との間の距離を判定させ、
    前記重み値の前記判定が、変換された前記センサ位置点と前記骨格との間の距離に更に基づく、請求項1に記載のシステム。
  3. 前記重み値のセットが、バイナリである、請求項2に記載のシステム。
  4. 前記コンピュータ実行可能命令が更に、前記1つ又は2つ以上のプロセッサに、
    変換された前記センサ位置点の各々と前記骨格との間の各距離を、距離閾値と比較させ、
    前記比較に基づいて、変換された前記センサ位置点の各々に、前記バイナリ重み値のうちの1つを割り当てさせる、請求項3に記載のシステム。
  5. 前記モデルが、前記管腔網の前記管腔の直径値を更に含み、
    前記重み値の前記判定が、前記管腔の前記直径値に更に基づく、請求項1に記載のシステム。
  6. 前記器具が、前記管腔網の内部の画像をキャプチャするように構成されたカメラを更に備え、
    前記コンピュータ実行可能命令が更に、前記1つ又は2つ以上のプロセッサに、前記センサ位置点の各々に関して、キャプチャされた前記画像に基づいて、前記器具の前記遠位端と前記器具の前記遠位端が位置する管腔の中心線との間の距離を判定させ、
    前記センサ位置点の前記重み値の前記判定が、前記器具の前記遠位端と前記管腔の対応する中心線との間の距離に更に基づく、請求項1に記載のシステム。
  7. 前記モデルが、前記管腔網の管腔に沿った中点によって画定される骨格を含み、
    前記コンピュータ実行可能命令が更に、前記1つ又は2つ以上のプロセッサに、
    前記センサ位置点の各々から所与の管腔の前記骨格までの距離に基づいて、前記センサ位置点を選別させ、
    選別された前記センサ位置点に基づいて、前記重みを前記センサ位置点に割り当てさせる、請求項1に記載のシステム。
  8. 前記センサ位置点の前記選別が、
    最小距離を有する定義された割合の前記センサ位置点を第1の群に選別し、残りのセンサ位置点を第2の群に選別することを含む、請求項7に記載のシステム。
  9. 前記重み値のセットがバイナリであり、前記コンピュータ実行可能命令が更に、前記1つ又は2つ以上のプロセッサに、
    前記第1の群内の前記センサ位置点の各々に、重み値1を割り当てさせ、
    前記第2の群内の前記センサ位置点の各々に、重み値0を割り当てさせる、請求項1に記載のシステム。
  10. 前記重み値のセットが、バイナリであり、
    前記センサ位置点のセットのサブセットが、第2の生成管腔に位置する前記器具の前記遠位端に対応し、
    前記センサ位置点のセットの前記サブセットに、重み値1が割り当てられる、請求項1に記載のシステム。
  11. 前記コンピュータ実行可能命令が更に、前記1つ又は2つ以上のプロセッサに、
    前記センサ位置点のうちの第1のセンサ位置点に関して、前記初期位置合わせに関連付けられた誤差を判定させ、
    前記誤差が閾値誤差よりも大きいことに応答して、前記初期位置合わせを固定させる、請求項1に記載のシステム。
  12. 前記更新された位置合わせの前記判定が、前記誤差が前記閾値誤差以下であることに応答して、前記第1のセンサ位置点に更に基づく、請求項11に記載のシステム。
  13. センサ座標系とモデル座標系との間の位置合わせを判定する方法であって、
    器具の位置センサによって生成された位置データに基づいて、前記センサ座標系内のセンサ位置点のセットを生成することであって、前記位置データが、前記センサ座標系における前記器具の遠位端の位置を示す、生成することと、
    前記モデル座標系内のモデル位置点のセットを判定することと、
    前記センサ位置点のセット及び前記モデル位置点のセットに基づいて、前記センサ座標系と前記モデル座標系との間の初期位置合わせを判定することと、
    前記センサ位置点のセットに対応する重み値のセットを判定することと、
    前記センサ位置点のセット、前記モデル位置点のセット、及び前記重み値のセットに基づいて、前記センサ座標系と前記モデル座標系との間の更新された位置合わせを判定することと、
    を含む、方法。
  14. 前記モデルが、前記管腔網の管腔に沿った中点によって画定される骨格を含み、
    前記方法が、
    前記初期位置合わせを使用して、前記センサ位置点を前記センサ座標系から前記モデル座標系に変換することと、
    前記モデル座標系内の変換された前記センサ位置点の各々と前記骨格との間の距離を判定することと、
    を更に含み、
    前記重み値の前記判定が、変換された前記センサ位置点と前記骨格との間の距離に更に基づく、請求項13に記載の方法。
  15. 前記重み値のセットが、バイナリである、請求項14に記載の方法。
  16. 変換された前記センサ位置点の各々と前記骨格との間の各距離を、距離閾値と比較することと、
    前記比較に基づいて、変換された前記センサ位置点の各々に前記バイナリ重み値のうちの1つを割り当てることと、
    を更に含む、請求項15に記載の方法。
  17. 前記モデルが、前記管腔網の前記管腔の直径値を更に含み、
    前記重み値の前記判定が、前記管腔の前記直径値に更に基づく、請求項13に記載の方法。
  18. 前記器具が、前記管腔網の内部の画像をキャプチャするように構成されたカメラを更に備え、
    前記方法が、前記センサ位置点の各々に関して、キャプチャされた前記画像に基づいて、前記器具の前記遠位端と前記器具の前記遠位端が位置する管腔の中心線との間の距離を判定することを更に含み、
    前記センサ位置点の前記重み値の前記判定が、前記器具の前記遠位端と前記管腔の対応する中心線との間の距離に更に基づく、請求項13に記載の方法。
  19. 前記モデルが、前記管腔網の管腔に沿った中点によって画定される骨格を含み、
    前記方法が、
    前記センサ位置点の各々から所与の管腔の前記骨格までの距離に基づいて、前記センサ位置点を選別することと、
    選別された前記センサ位置点に基づいて、前記重みを前記センサ位置点に割り当てることと、を更に含む、請求項13に記載の方法。
  20. 前記センサ位置点の前記選別が、
    最小距離を有する定義された割合の前記センサ位置点を第1の群に選別し、残りのセンサ位置点を第2の群に選別することを含む、請求項19に記載の方法。
  21. 前記重み値のセットが、バイナリであり、
    前記方法が、
    前記第1の群の前記センサ位置点に重み1を割り当てることと、
    前記第2の群の前記センサ位置点に重み0を割り当てることと、
    を更に含む、請求項20に記載の方法。
  22. 前記重み値のセットが、バイナリであり、
    前記センサ位置点のセットのサブセットが、第2の生成管腔に位置する前記器具の前記遠位端に対応し、
    前記モデル位置点のセットの前記サブセットに、値1が割り当てられる、請求項13に記載の方法。
  23. 前記方法が、
    前記センサ位置点のうちの第1のセンサ位置点に関して、前記初期位置合わせに関連付けられた誤差を判定することと、
    前記誤差が閾値誤差よりも大きいことに応答して、前記初期位置合わせを固定することと、
    を更に含む、請求項13に記載の方法。
  24. 前記更新された位置合わせの前記判定が、更に、前記誤差が前記閾値誤差以下であることに応答して、前記第1のセンサ位置点である、請求項23に記載の方法。
  25. 非一時的コンピュータ可読記憶媒体であって、前記非一時的コンピュータ可読記憶媒体に記憶された命令を有し、前記命令が実行されたときに、少なくとも1つのコンピューティングデバイスに、
    器具の位置センサによって生成された位置データに基づいて、前記センサ座標系内のセンサ位置点のセットを生成することであって、前記位置データが、前記センサ座標系における前記器具の遠位端の位置を示す、ことと、
    前記モデル座標系内のモデル位置点のセットを判定することと、
    前記センサ位置点のセット及び前記モデル位置点のセットに基づいて、前記センサ座標系と前記モデル座標系との間の初期位置合わせを判定することと、
    前記センサ位置点のセットに対応する重み値のセットを判定することと、
    前記センサ位置点のセット、前記モデル位置点のセット、及び前記重み値のセットに基づいて、前記センサ座標系と前記モデル座標系との間の更新された位置合わせを判定することと、
    を行わせる、
    非一時的コンピュータ可読記憶媒体。
  26. 前記モデルが、前記管腔網の管腔に沿った中点によって画定される骨格を含み、
    前記非一時的コンピュータ可読記憶媒体が、前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令が実行されるときに、前記少なくとも1つのコンピューティングデバイスに、
    前記初期位置合わせを使用して、前記センサ位置点を前記センサ座標系から前記モデル座標系に変換させ、
    前記モデル座標系内の変換された前記センサ位置点の各々と前記骨格との間の距離を判定させ、
    前記重み値の前記判定が、変換された前記センサ位置点と前記骨格との間の距離に更に基づく、請求項25に記載の非一時的コンピュータ可読記憶媒体。
  27. 前記重み値のセットが、バイナリである、請求項26に記載の非一時的コンピュータ可読記憶媒体。
  28. 前記非一時的コンピュータ可読記憶媒体が、前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令が実行されるときに、前記少なくとも1つのコンピューティングデバイスに、
    変換された前記センサ位置点の各々と前記骨格との間の各距離を、距離閾値と比較させ、
    前記比較に基づいて、変換された前記センサ位置点の各々に、前記バイナリ重み値のうちの1つを割り当てさせる、請求項27に記載の非一時的コンピュータ可読記憶媒体。
  29. 前記モデルが、前記管腔網の前記管腔の直径値を更に含み、
    前記重み値の前記判定が、前記管腔の前記直径値に更に基づく、請求項25に記載の非一時的コンピュータ可読記憶媒体。
  30. 前記器具が、前記管腔網の内部の画像をキャプチャするように構成されたカメラを更に備え、
    前記非一時的コンピュータ可読記憶媒体が、前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令が実行されるときに、前記少なくとも1つのコンピューティングデバイスに、前記センサ位置点の各々に関して、キャプチャされた前記画像に基づいて、前記器具の前記遠位端と前記器具の前記遠位端が位置する管腔の中心線との間の距離を判定させ、
    前記センサ位置点の前記重み値の前記判定が、前記器具の前記遠位端と前記管腔の対応する中心線との間の距離に更に基づく、請求項25に記載の非一時的コンピュータ可読記憶媒体。
JP2022513193A 2019-08-30 2020-08-26 位置センサの重みベースの位置合わせのためのシステム及び方法 Pending JP2022546421A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962894639P 2019-08-30 2019-08-30
US62/894,639 2019-08-30
PCT/IB2020/057986 WO2021038469A1 (en) 2019-08-30 2020-08-26 Systems and methods for weight-based registration of location sensors

Publications (2)

Publication Number Publication Date
JP2022546421A true JP2022546421A (ja) 2022-11-04
JPWO2021038469A5 JPWO2021038469A5 (ja) 2023-08-31

Family

ID=74679264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022513193A Pending JP2022546421A (ja) 2019-08-30 2020-08-26 位置センサの重みベースの位置合わせのためのシステム及び方法

Country Status (6)

Country Link
US (2) US11207141B2 (ja)
EP (1) EP4021331A4 (ja)
JP (1) JP2022546421A (ja)
KR (1) KR20220058569A (ja)
CN (1) CN114340542B (ja)
WO (1) WO2021038469A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3644886A4 (en) 2017-06-28 2021-03-24 Auris Health, Inc. ELECTROMAGNETIC DISTORTION DETECTION
WO2019005699A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. ELECTROMAGNETIC FIELD GENERATOR ALIGNMENT
WO2021044297A1 (en) 2019-09-03 2021-03-11 Auris Health, Inc. Electromagnetic distortion detection and compensation
EP3975120B1 (en) * 2020-09-24 2023-01-11 Stryker European Operations Limited Technique for guiding acquisition of one or more registration points on a patient's body
CN113334391B (zh) * 2021-08-06 2021-11-09 成都博恩思医学机器人有限公司 一种机械臂的摆位控制方法、系统、机器人及存储介质

Family Cites Families (408)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4745908A (en) 1987-05-08 1988-05-24 Circon Corporation Inspection instrument fexible shaft having deflection compensation means
JP2750201B2 (ja) 1990-04-13 1998-05-13 オリンパス光学工業株式会社 内視鏡の挿入状態検出装置
US5550953A (en) 1994-04-20 1996-08-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration On-line method and apparatus for coordinated mobility and manipulation of mobile robots
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5526812A (en) 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US6059718A (en) 1993-10-18 2000-05-09 Olympus Optical Co., Ltd. Endoscope form detecting apparatus in which coil is fixedly mounted by insulating member so that form is not deformed within endoscope
DE29521895U1 (de) 1994-10-07 1998-09-10 Univ St Louis Chirurgisches Navigationssystem umfassend Referenz- und Lokalisationsrahmen
US6690963B2 (en) 1995-01-24 2004-02-10 Biosense, Inc. System for determining the location and orientation of an invasive medical instrument
US6246898B1 (en) 1995-03-28 2001-06-12 Sonometrics Corporation Method for carrying out a medical procedure using a three-dimensional tracking and imaging system
DE69622764T2 (de) 1995-09-20 2003-04-24 Texas Heart Inst Houston yNZEIGE VON THERMISCHEN UNSTETIGKEITEN AN GEFÄSSWÄNDEN
US5647663A (en) * 1996-01-05 1997-07-15 Wisconsin Alumni Research Foundation Radiation treatment planning method and apparatus
AU709081B2 (en) 1996-02-15 1999-08-19 Biosense, Inc. Medical procedures and apparatus using intrabody probes
EP0883375B1 (en) 1996-02-15 2005-05-11 Biosense Webster, Inc. Precise position determination of endoscopes
US6063095A (en) 1996-02-20 2000-05-16 Computer Motion, Inc. Method and apparatus for performing minimally invasive surgical procedures
US6047080A (en) 1996-06-19 2000-04-04 Arch Development Corporation Method and apparatus for three-dimensional reconstruction of coronary vessels from angiographic images
US5831614A (en) 1996-07-01 1998-11-03 Sun Microsystems, Inc. X-Y viewport scroll using location of display with respect to a point
EP0918491B1 (en) 1997-01-24 2003-06-04 Koninklijke Philips Electronics N.V. Image display system
US6246784B1 (en) 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6810281B2 (en) 2000-12-21 2004-10-26 Endovia Medical, Inc. Medical mapping system
FR2779339B1 (fr) 1998-06-09 2000-10-13 Integrated Surgical Systems Sa Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application
US6425865B1 (en) 1998-06-12 2002-07-30 The University Of British Columbia Robotically assisted medical ultrasound
WO2000028882A2 (en) 1998-11-18 2000-05-25 Microdexterity Systems, Inc. Medical manipulator for use with an imaging device
US6493608B1 (en) 1999-04-07 2002-12-10 Intuitive Surgical, Inc. Aspects of a control system of a minimally invasive surgical apparatus
US6501981B1 (en) 1999-03-16 2002-12-31 Accuray, Inc. Apparatus and method for compensating for respiratory and patient motions during treatment
US6594552B1 (en) 1999-04-07 2003-07-15 Intuitive Surgical, Inc. Grip strength with tactile feedback for robotic surgery
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
US7386339B2 (en) 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
FI114282B (fi) 1999-11-05 2004-09-30 Polar Electro Oy Menetelmä, järjestely ja sykemittari sydämen lyönnin tunnistamiseksi
US6755797B1 (en) 1999-11-29 2004-06-29 Bowles Fluidics Corporation Method and apparatus for producing oscillation of a bladder
US7747312B2 (en) 2000-01-04 2010-06-29 George Mason Intellectual Properties, Inc. System and method for automatic shape registration and instrument tracking
DE10011790B4 (de) 2000-03-13 2005-07-14 Siemens Ag Medizinisches Instrument zum Einführen in ein Untersuchungsobjekt, sowie medizinisches Untersuchungs- oder Behandlungsgerät
US7181289B2 (en) 2000-03-20 2007-02-20 Pflueger D Russell Epidural nerve root access catheter and treatment methods
DE10025285A1 (de) 2000-05-22 2001-12-06 Siemens Ag Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe
DE10033723C1 (de) 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
US6865498B2 (en) 2001-11-30 2005-03-08 Thermwood Corporation System for calibrating the axes on a computer numeric controlled machining system and method thereof
US6812842B2 (en) 2001-12-20 2004-11-02 Calypso Medical Technologies, Inc. System for excitation of a leadless miniature marker
AU2003218010A1 (en) 2002-03-06 2003-09-22 Z-Kat, Inc. System and method for using a haptic device in combination with a computer-assisted surgery system
DE10210646A1 (de) 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
US20050256398A1 (en) 2004-05-12 2005-11-17 Hastings Roger N Systems and methods for interventional medicine
WO2003086498A2 (en) 2002-04-17 2003-10-23 Super Dimension Ltd. Endoscope structures and techniques for navigating to a target in branched structure
US7998062B2 (en) 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
WO2003091839A2 (en) 2002-04-25 2003-11-06 The John Hopkins University Robot for computed tomography interventions
AU2003240552A1 (en) 2002-06-04 2003-12-19 Koninklijke Philips Electronics N.V. Rotational angiography based hybrid 3-d reconstruction of coronary arterial structure
EP1534141B1 (en) 2002-06-17 2013-08-07 Mazor Robotics Ltd. Robot for use with orthopaedic inserts
US20040047044A1 (en) 2002-06-25 2004-03-11 Dalton Michael Nicholas Apparatus and method for combining three-dimensional spaces
KR100449765B1 (ko) 2002-10-12 2004-09-22 삼성에스디아이 주식회사 리튬전지용 리튬메탈 애노드
US6899672B2 (en) 2002-11-08 2005-05-31 Scimed Life Systems, Inc. Endoscopic imaging system including removable deflection device
EP1570431B1 (en) 2002-11-13 2015-07-01 Koninklijke Philips N.V. Medical viewing system and method for detecting boundary structures
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US20040186349A1 (en) 2002-12-24 2004-09-23 Usgi Medical Corp. Apparatus and methods for achieving endoluminal access
FR2852226B1 (fr) 2003-03-10 2005-07-15 Univ Grenoble 1 Instrument medical localise a ecran orientable
US7203277B2 (en) 2003-04-25 2007-04-10 Brainlab Ag Visualization device and method for combined patient and object image data
US7822461B2 (en) 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
EP2316328B1 (en) 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
WO2005058137A2 (en) 2003-12-12 2005-06-30 University Of Washington Catheterscope 3d guidance and interface system
US8021301B2 (en) 2003-12-26 2011-09-20 Fujifilm Corporation Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program
JP2005192632A (ja) 2003-12-26 2005-07-21 Olympus Corp 被検体内移動状態検出システム
US20050193451A1 (en) 2003-12-30 2005-09-01 Liposonix, Inc. Articulating arm for medical procedures
CA2555473A1 (en) 2004-02-17 2005-09-01 Traxtal Technologies Inc. Method and apparatus for registration, verification, and referencing of internal organs
EP2384715B1 (en) 2004-03-05 2015-07-08 Hansen Medical, Inc. Robotic catheter system
US20060100610A1 (en) 2004-03-05 2006-05-11 Wallace Daniel T Methods using a robotic catheter system
US7811294B2 (en) 2004-03-08 2010-10-12 Mediguide Ltd. Automatic guidewire maneuvering system and method
US7922650B2 (en) 2004-03-23 2011-04-12 Boston Scientific Scimed, Inc. Medical visualization system with endoscope and mounted catheter
EP1731093B1 (en) 2004-03-29 2013-01-09 Olympus Corporation System for detecting position in examinee
US7720521B2 (en) 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
US7462175B2 (en) 2004-04-21 2008-12-09 Acclarent, Inc. Devices, systems and methods for treating disorders of the ear, nose and throat
US20070208252A1 (en) 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
US8155403B2 (en) 2004-05-05 2012-04-10 University Of Iowa Research Foundation Methods and devices for airway tree labeling and/or matching
US7632265B2 (en) 2004-05-28 2009-12-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Radio frequency ablation servo catheter and method
US20060209019A1 (en) 2004-06-01 2006-09-21 Energid Technologies Corporation Magnetic haptic feedback systems and methods for virtual reality environments
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060025668A1 (en) 2004-08-02 2006-02-02 Peterson Thomas H Operating table with embedded tracking technology
US7536216B2 (en) 2004-10-18 2009-05-19 Siemens Medical Solutions Usa, Inc. Method and system for virtual endoscopy with guidance for biopsy
US9049954B2 (en) 2004-11-03 2015-06-09 Cambridge International, Inc. Hanger bar assembly for architectural mesh and the like
CA2587857C (en) 2004-11-23 2017-10-10 Pneumrx, Inc. Steerable device for accessing a target site and methods
EP1838378B1 (en) 2005-01-18 2017-03-22 Philips Electronics LTD Apparatus for guiding an instrument to a target in the lung
US8335357B2 (en) 2005-03-04 2012-12-18 Kabushiki Kaisha Toshiba Image processing apparatus
US20060258935A1 (en) 2005-05-12 2006-11-16 John Pile-Spellman System for autonomous robotic navigation
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US7756563B2 (en) 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
US7889905B2 (en) 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
JP4813190B2 (ja) 2005-05-26 2011-11-09 オリンパスメディカルシステムズ株式会社 カプセル型医療装置
GB2428110A (en) 2005-07-06 2007-01-17 Armstrong Healthcare Ltd A robot and method of registering a robot.
US20070123748A1 (en) 2005-07-14 2007-05-31 Dwight Meglan Robot for minimally invasive interventions
US8583220B2 (en) 2005-08-02 2013-11-12 Biosense Webster, Inc. Standardization of catheter-based treatment for atrial fibrillation
EP2158940A3 (en) 2005-08-11 2010-06-02 Navotek Medical Ltd. Medical treatment system and method using radioactivity based position sensor
US8657814B2 (en) 2005-08-22 2014-02-25 Medtronic Ablation Frontiers Llc User interface for tissue ablation system
EP1924197B1 (en) 2005-08-24 2017-10-11 Philips Electronics LTD System for navigated flexible endoscopy
US20070073136A1 (en) 2005-09-15 2007-03-29 Robert Metzger Bone milling with image guided surgery
EP3788944B1 (en) 2005-11-22 2024-02-28 Intuitive Surgical Operations, Inc. System for determining the shape of a bendable instrument
US8303505B2 (en) 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US8190238B2 (en) 2005-12-09 2012-05-29 Hansen Medical, Inc. Robotic catheter system and methods
DE102005059271B4 (de) 2005-12-12 2019-02-21 Siemens Healthcare Gmbh Kathetervorrichtung
US8672922B2 (en) 2005-12-20 2014-03-18 Intuitive Surgical Operations, Inc. Wireless communication in a robotic surgical system
US9266239B2 (en) 2005-12-27 2016-02-23 Intuitive Surgical Operations, Inc. Constraint based control in a minimally invasive surgical apparatus
US9962066B2 (en) 2005-12-30 2018-05-08 Intuitive Surgical Operations, Inc. Methods and apparatus to shape flexible entry guides for minimally invasive surgery
US7930065B2 (en) 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
US8191359B2 (en) 2006-04-13 2012-06-05 The Regents Of The University Of California Motion estimation using hidden markov model processing in MRI and other applications
JP4822142B2 (ja) 2006-05-02 2011-11-24 国立大学法人名古屋大学 内視鏡挿入支援システム及び内視鏡挿入支援方法
DE102006021373A1 (de) 2006-05-08 2007-11-15 Siemens Ag Röntgendiagnostikeinrichtung
CN101522134B (zh) 2006-06-05 2012-06-27 泰克尼恩研究和发展基金有限公司 挠性针的受控导向
US7505810B2 (en) 2006-06-13 2009-03-17 Rhythmia Medical, Inc. Non-contact cardiac mapping, including preprocessing
CN104688281B (zh) 2006-06-13 2017-04-19 直观外科手术操作公司 微创手术系统
US8040127B2 (en) 2006-08-15 2011-10-18 General Electric Company Multi-sensor distortion mapping method and system
US8150498B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for identification of anatomical landmarks
US7824328B2 (en) 2006-09-18 2010-11-02 Stryker Corporation Method and apparatus for tracking a surgical instrument during surgery
CN100546540C (zh) 2006-09-19 2009-10-07 上海宏桐实业有限公司 心内膜三维导航系统
US7940977B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies
WO2008125910A2 (en) 2006-11-10 2008-10-23 Superdimension, Ltd. Adaptive navigation technique for navigating a catheter through a body channel or cavity
US7936922B2 (en) 2006-11-22 2011-05-03 Adobe Systems Incorporated Method and apparatus for segmenting images
BRPI0718950A2 (pt) 2006-12-01 2013-12-17 Thomson Licensing Estimativa de uma localização de um objeto em uma imagem
US20080183068A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Visualization of Surgical Navigational and Neural Monitoring Information
US20080183188A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Surgical Navigational and Neuromonitoring System
US20080183064A1 (en) 2007-01-30 2008-07-31 General Electric Company Multi-sensor distortion detection method and system
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US8672836B2 (en) 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US8146874B2 (en) 2007-02-02 2012-04-03 Hansen Medical, Inc. Mounting support assembly for suspending a medical instrument driver above an operating table
JP4914735B2 (ja) 2007-02-14 2012-04-11 オリンパスメディカルシステムズ株式会社 処置具の位置制御を行う内視鏡システム
US20080243142A1 (en) 2007-02-20 2008-10-02 Gildenberg Philip L Videotactic and audiotactic assisted surgical methods and procedures
US8781193B2 (en) 2007-03-08 2014-07-15 Sync-Rx, Ltd. Automatic quantitative vessel analysis
US10433929B2 (en) * 2007-03-09 2019-10-08 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for local deformable registration of a catheter navigation system to image data or a model
US8821376B2 (en) 2007-03-12 2014-09-02 David Tolkowsky Devices and methods for performing medical procedures in tree-like luminal structures
EP2142095A1 (en) 2007-05-02 2010-01-13 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
US20080300478A1 (en) 2007-05-30 2008-12-04 General Electric Company System and method for displaying real-time state of imaged anatomy during a surgical procedure
US20090030307A1 (en) 2007-06-04 2009-01-29 Assaf Govari Intracorporeal location system with movement compensation
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US20080319491A1 (en) 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
US20130165945A9 (en) 2007-08-14 2013-06-27 Hansen Medical, Inc. Methods and devices for controlling a shapeable instrument
EP2628460B1 (en) 2007-08-14 2021-08-11 Koninklijke Philips N.V. Robotic instrument systems utilizing optical fiber sensors
US20090076476A1 (en) 2007-08-15 2009-03-19 Hansen Medical, Inc. Systems and methods employing force sensing for mapping intra-body tissue
WO2009097461A1 (en) 2008-01-29 2009-08-06 Neoguide Systems Inc. Apparatus and methods for automatically controlling an endoscope
WO2009101504A2 (en) 2008-02-12 2009-08-20 Superdimension, Ltd. Controlled perspective guidance method
KR100927096B1 (ko) 2008-02-27 2009-11-13 아주대학교산학협력단 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
US20090228020A1 (en) 2008-03-06 2009-09-10 Hansen Medical, Inc. In-situ graft fenestration
US8219179B2 (en) 2008-03-06 2012-07-10 Vida Diagnostics, Inc. Systems and methods for navigation within a branched structure of a body
US8808164B2 (en) 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
US9002076B2 (en) 2008-04-15 2015-04-07 Medtronic, Inc. Method and apparatus for optimal trajectory planning
US8532734B2 (en) 2008-04-18 2013-09-10 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8218846B2 (en) 2008-05-15 2012-07-10 Superdimension, Ltd. Automatic pathway and waypoint generation and navigation method
JP5372407B2 (ja) 2008-05-23 2013-12-18 オリンパスメディカルシステムズ株式会社 医療機器
US20100030061A1 (en) 2008-07-31 2010-02-04 Canfield Monte R Navigation system for cardiac therapies using gating
US8290571B2 (en) 2008-08-01 2012-10-16 Koninklijke Philips Electronics N.V. Auxiliary cavity localization
US9248000B2 (en) 2008-08-15 2016-02-02 Stryker European Holdings I, Llc System for and method of visualizing an interior of body
US8781630B2 (en) 2008-10-14 2014-07-15 University Of Florida Research Foundation, Inc. Imaging platform to provide integrated navigation capabilities for surgical guidance
KR101713676B1 (ko) 2008-10-20 2017-03-08 더 존스 홉킨스 유니버시티 환경 성질 측정 및 그래픽 디스플레이
ES2530891T3 (es) 2008-10-31 2015-03-06 Chevron Phillips Chemical Co Sistema catalizador de oligomerización y procedimiento para oligomerizar olefinas
US20100121139A1 (en) 2008-11-12 2010-05-13 Ouyang Xiaolong Minimally Invasive Imaging Systems
US8317746B2 (en) 2008-11-20 2012-11-27 Hansen Medical, Inc. Automated alignment
WO2010068783A1 (en) 2008-12-12 2010-06-17 Corindus Inc. Remote catheter procedure system
US8335590B2 (en) 2008-12-23 2012-12-18 Intuitive Surgical Operations, Inc. System and method for adjusting an image capturing device attribute using an unused degree-of-freedom of a master control device
EP2301411B1 (en) 2009-01-15 2012-12-12 Olympus Medical Systems Corp. Endoscope system
KR100961661B1 (ko) 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US8337397B2 (en) 2009-03-26 2012-12-25 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient
US9002427B2 (en) 2009-03-30 2015-04-07 Lifewave Biomedical, Inc. Apparatus and method for continuous noninvasive measurement of respiratory function and events
WO2010125481A1 (en) 2009-04-29 2010-11-04 Koninklijke Philips Electronics, N.V. Real-time depth estimation from monocular endoscope images
JP2012525898A (ja) 2009-05-08 2012-10-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 電磁式追跡及び術前のロードマップ走査のないリアルタイムでのスコープの追跡及び分枝のラベリング
US8675736B2 (en) 2009-05-14 2014-03-18 Qualcomm Incorporated Motion vector processing
CN102292991B (zh) 2009-05-15 2014-10-08 夏普株式会社 图像处理装置和图像处理方法
US20100292565A1 (en) 2009-05-18 2010-11-18 Andreas Meyer Medical imaging medical device navigation from at least two 2d projections from different angles
JP5836267B2 (ja) 2009-05-18 2015-12-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 電磁追跡内視鏡システムのためのマーカーなし追跡の位置合わせおよび較正のための方法およびシステム
ES2388029B1 (es) 2009-05-22 2013-08-13 Universitat Politècnica De Catalunya Sistema robótico para cirugia laparoscópica.
GB0915200D0 (en) 2009-09-01 2009-10-07 Ucl Business Plc Method for re-localising sites in images
US20110092808A1 (en) 2009-10-20 2011-04-21 Magnetecs, Inc. Method for acquiring high density mapping data with a catheter guidance system
EP2496128A1 (en) 2009-11-04 2012-09-12 Koninklijke Philips Electronics N.V. Collision avoidance and detection using distance sensors
CN102341057B (zh) 2009-11-10 2014-03-05 奥林巴斯医疗株式会社 多关节机械手装置以及具有该装置的内窥镜系统
WO2011094518A2 (en) 2010-01-28 2011-08-04 The Penn State Research Foundation Image-based global registration system and method applicable to bronchoscopy guidance
WO2011102012A1 (ja) 2010-02-22 2011-08-25 オリンパスメディカルシステムズ株式会社 医療機器
DE102010012621A1 (de) 2010-03-24 2011-09-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur automatischen Adaption eines Referenzbildes
US8425455B2 (en) 2010-03-30 2013-04-23 Angiodynamics, Inc. Bronchial catheter and method of use
IT1401669B1 (it) 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
US8581905B2 (en) 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
WO2011134083A1 (en) * 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
US8845631B2 (en) 2010-04-28 2014-09-30 Medtronic Ablation Frontiers Llc Systems and methods of performing medical procedures
US20120101369A1 (en) 2010-06-13 2012-04-26 Angiometrix Corporation Methods and systems for determining vascular bodily lumen information and guiding medical devices
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US8460236B2 (en) 2010-06-24 2013-06-11 Hansen Medical, Inc. Fiber optic instrument sensing system
US10264947B2 (en) 2010-08-20 2019-04-23 Veran Medical Technologies, Inc. Apparatus and method for airway registration and navigation
US8827948B2 (en) 2010-09-17 2014-09-09 Hansen Medical, Inc. Steerable catheters
JP5669529B2 (ja) 2010-11-17 2015-02-12 オリンパス株式会社 撮像装置、プログラム及びフォーカス制御方法
WO2012075631A1 (en) 2010-12-08 2012-06-14 Industrial Technology Research Institute Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same
US8812079B2 (en) 2010-12-22 2014-08-19 Biosense Webster (Israel), Ltd. Compensation for magnetic disturbance due to fluoroscope
US9414770B2 (en) 2010-12-29 2016-08-16 Biosense Webster (Israel) Ltd. Respiratory effect reduction in catheter position sensing
US20120191079A1 (en) 2011-01-20 2012-07-26 Hansen Medical, Inc. System and method for endoluminal and translumenal therapy
US10391277B2 (en) 2011-02-18 2019-08-27 Voxel Rad, Ltd. Systems and methods for 3D stereoscopic angiovision, angionavigation and angiotherapeutics
KR101964579B1 (ko) 2011-02-18 2019-04-03 디퍼이 신테스 프로덕츠, 인코포레이티드 일체형 내비게이션 및 안내 시스템을 갖는 도구와 관련 장치 및 방법
US10786432B2 (en) 2011-04-12 2020-09-29 Sartorius Stedim Biotech Gmbh Use of a device and a method for preparing mixtures of pharmaceutical substances
US10362963B2 (en) 2011-04-14 2019-07-30 St. Jude Medical, Atrial Fibrillation Division, Inc. Correction of shift and drift in impedance-based medical device navigation using magnetic field information
US10918307B2 (en) 2011-09-13 2021-02-16 St. Jude Medical, Atrial Fibrillation Division, Inc. Catheter navigation using impedance and magnetic field measurements
US9572481B2 (en) 2011-05-13 2017-02-21 Intuitive Surgical Operations, Inc. Medical system with multiple operating modes for steering a medical instrument through linked body passages
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
JP6061926B2 (ja) 2011-06-27 2017-01-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 身体管腔のライブ3d画像を提供するためのシステム、その作動方法及びコンピュータプログラム
US9173683B2 (en) 2011-08-31 2015-11-03 DePuy Synthes Products, Inc. Revisable orthopedic anchor and methods of use
CN102973317A (zh) 2011-09-05 2013-03-20 周宁新 微创手术机器人机械臂布置结构
WO2013036837A1 (en) 2011-09-08 2013-03-14 Apn Health, Llc R-wave detection method
US9918681B2 (en) 2011-09-16 2018-03-20 Auris Surgical Robotics, Inc. System and method for virtually tracking a surgical tool on a movable display
US9504604B2 (en) 2011-12-16 2016-11-29 Auris Surgical Robotics, Inc. Lithotripsy eye treatment
US20130246431A1 (en) 2011-12-27 2013-09-19 Mcafee, Inc. System and method for providing data protection workflows in a network environment
EP3488803B1 (en) 2012-02-03 2023-09-27 Intuitive Surgical Operations, Inc. Steerable flexible needle with embedded shape sensing
US20150051482A1 (en) 2012-02-09 2015-02-19 Koninklijke Philips N.V Shaft tracker for real-time navigation tracking
US9138165B2 (en) 2012-02-22 2015-09-22 Veran Medical Technologies, Inc. Systems, methods and devices for forming respiratory-gated point cloud for four dimensional soft tissue navigation
US10383765B2 (en) 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US20140142591A1 (en) 2012-04-24 2014-05-22 Auris Surgical Robotics, Inc. Method, apparatus and a system for robotic assisted surgery
US10039473B2 (en) 2012-05-14 2018-08-07 Intuitive Surgical Operations, Inc. Systems and methods for navigation based on ordered sensor records
EP2863827B1 (en) 2012-06-21 2022-11-16 Globus Medical, Inc. Surgical robot platform
BR112014031981A2 (pt) 2012-06-28 2017-06-27 Koninklijke Philips Nv método para a visualização de um lúmen ramificado; e sistema para o monitoramento de um vaso sanguíneo
DE102012220116A1 (de) 2012-06-29 2014-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobil handhabbare Vorrichtung, insbesondere zur Bearbeitung oder Beobachtung eines Körpers, und Verfahren zur Handhabung, insbesondere Kalibrierung, einer Vorrichtung
JP6255401B2 (ja) 2012-08-15 2017-12-27 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 機械本体の動きを操作するためのファントム自由度
US9183354B2 (en) 2012-08-15 2015-11-10 Musc Foundation For Research Development Systems and methods for image guided surgery
WO2014032046A1 (en) 2012-08-24 2014-02-27 University Of Houston Robotic device and systems for image-guided and robot-assisted surgery
US9330454B2 (en) 2012-09-12 2016-05-03 Bruce Reiner Method and apparatus for image-centric standardized tool for quality assurance analysis in medical imaging
EP2906133B1 (en) 2012-10-12 2022-03-23 Intuitive Surgical Operations, Inc. Determining position of medical device in branched anatomical structure
US20140107390A1 (en) 2012-10-12 2014-04-17 Elekta Ab (Publ) Implementation and experimental results of real-time 4d tumor tracking using multi-leaf collimator (mlc), and/or mlc-carriage (mlc-bank), and/or treatment table (couch)
US9121455B2 (en) 2012-11-07 2015-09-01 Dana Automotive Systems Group, Llc Clutch management system
WO2014081725A2 (en) 2012-11-20 2014-05-30 University Of Washington Through Its Center For Commercialization Electromagnetic sensor integration with ultrathin scanning fiber endoscope
LU92104B1 (en) 2012-11-28 2014-05-30 Iee Sarl Method and system for determining a ventilatory threshold
JP6045417B2 (ja) 2012-12-20 2016-12-14 オリンパス株式会社 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
US11172809B2 (en) 2013-02-15 2021-11-16 Intuitive Surgical Operations, Inc. Vision probe with access port
JP6251756B2 (ja) 2013-02-26 2017-12-20 アーメット・シナン・カバクチュAhmet Sinan KABAKCI ロボットマニュピレータシステム
US9459087B2 (en) 2013-03-05 2016-10-04 Ezono Ag Magnetic position detection system
CN104797186B (zh) 2013-03-06 2016-10-12 奥林巴斯株式会社 内窥镜系统
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US9867635B2 (en) 2013-03-08 2018-01-16 Auris Surgical Robotics, Inc. Method, apparatus and system for a water jet
US10080576B2 (en) 2013-03-08 2018-09-25 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US20140296655A1 (en) 2013-03-11 2014-10-02 ROPAMedics LLC Real-time tracking of cerebral hemodynamic response (rtchr) of a subject based on hemodynamic parameters
JP5718537B2 (ja) 2013-03-12 2015-05-13 オリンパスメディカルシステムズ株式会社 内視鏡システム
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US20170303941A1 (en) 2013-03-14 2017-10-26 The General Hospital Corporation System and method for guided removal from an in vivo subject
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US9301723B2 (en) 2013-03-15 2016-04-05 Covidien Lp Microwave energy-delivery device and system
US20170238807A9 (en) 2013-03-15 2017-08-24 LX Medical, Inc. Tissue imaging and image guidance in luminal anatomic structures and body cavities
US10271810B2 (en) 2013-04-02 2019-04-30 St. Jude Medical International Holding S.à r. l. Enhanced compensation of motion in a moving organ using processed reference sensor data
WO2014169103A2 (en) 2013-04-12 2014-10-16 Ninepoint Medical, Inc. Multiple aperture, multiple modal optical systems and methods
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
US20140364739A1 (en) 2013-06-06 2014-12-11 General Electric Company Systems and methods for analyzing a vascular structure
WO2014201165A1 (en) 2013-06-11 2014-12-18 Auris Surgical Robotics, Inc. System for robotic assisted cataract surgery
JP6037964B2 (ja) 2013-07-26 2016-12-07 オリンパス株式会社 マニピュレータシステム
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
US11800991B2 (en) 2013-08-15 2023-10-31 Intuitive Surgical Operations, Inc. Graphical user interface for catheter positioning and insertion
US10448861B2 (en) * 2013-09-06 2019-10-22 Covidien Lp System and method for light based lung visualization
US10098565B2 (en) 2013-09-06 2018-10-16 Covidien Lp System and method for lung visualization using ultrasound
US20160213432A1 (en) 2013-10-02 2016-07-28 Koninklijke Philips N.V. Hub design and methods for optical shape sensing registration
EP3060157B1 (en) 2013-10-24 2019-12-11 Auris Health, Inc. System for robotic-assisted endolumenal surgery
US9980785B2 (en) 2013-10-24 2018-05-29 Auris Health, Inc. Instrument device manipulator with surgical tool de-articulation
US9314191B2 (en) 2013-11-19 2016-04-19 Pacesetter, Inc. Method and system to measure cardiac motion using a cardiovascular navigation system
EP3079625B1 (en) 2013-12-09 2023-09-13 Intuitive Surgical Operations, Inc. Systems and non-surgical methods for device-aware flexible tool registration
CN103705307B (zh) 2013-12-10 2017-02-22 中国科学院深圳先进技术研究院 手术导航系统及医疗机器人
CN103735313B (zh) 2013-12-11 2016-08-17 中国科学院深圳先进技术研究院 一种手术机器人及其状态监测方法
EP3084747B1 (en) 2013-12-20 2022-12-14 Intuitive Surgical Operations, Inc. Simulator system for medical procedure training
EP3085324B1 (en) 2013-12-20 2019-02-20 Olympus Corporation Guide member for flexible manipulator, and flexible manipulator
JP2017503593A (ja) 2014-01-24 2017-02-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 光学形状検出装置の視点を伴う仮想画像
EP3979210A1 (en) * 2014-02-04 2022-04-06 Intuitive Surgical Operations, Inc. Systems and methods for non-rigid deformation of tissue for virtual navigation of interventional tools
CN106455908B (zh) 2014-02-05 2019-01-01 新加坡国立大学 用于跟踪和显示内窥镜形状和远端取向的系统和方法
US20150223902A1 (en) 2014-02-07 2015-08-13 Hansen Medical, Inc. Navigation with 3d localization using 2d images
US10039605B2 (en) 2014-02-11 2018-08-07 Globus Medical, Inc. Sterile handle for controlling a robotic surgical system from a sterile field
JP6270537B2 (ja) 2014-02-27 2018-01-31 オリンパス株式会社 医療用システム
KR20150103938A (ko) 2014-03-04 2015-09-14 현대자동차주식회사 리튬황 배터리 분리막
US10952751B2 (en) 2014-03-17 2021-03-23 Marksman Targeting, Inc. Surgical targeting systems and methods
CN104931059B (zh) 2014-03-21 2018-09-11 比亚迪股份有限公司 车载救援导航系统和方法
US10912523B2 (en) 2014-03-24 2021-02-09 Intuitive Surgical Operations, Inc. Systems and methods for anatomic motion compensation
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
US20150305650A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue
CN104055520B (zh) 2014-06-11 2016-02-24 清华大学 人体器官运动监测方法和手术导航系统
US20170007337A1 (en) 2014-07-01 2017-01-12 Auris Surgical Robotics, Inc. Driver-mounted torque sensing mechanism
US10159533B2 (en) 2014-07-01 2018-12-25 Auris Health, Inc. Surgical system with configurable rail-mounted mechanical arms
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US20160270865A1 (en) 2014-07-01 2016-09-22 Auris Surgical Robotics, Inc. Reusable catheter with disposable balloon attachment and tapered tip
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US9788910B2 (en) 2014-07-01 2017-10-17 Auris Surgical Robotics, Inc. Instrument-mounted tension sensing mechanism for robotically-driven medical instruments
US20160000414A1 (en) 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
CN106659374B (zh) 2014-07-02 2021-04-02 柯惠有限合伙公司 在3d导航时提供距离和取向反馈的系统和方法
US9737371B2 (en) 2014-09-30 2017-08-22 Auris Surgical Robotics, Inc. Configurable robotic surgical system with virtual rail and flexible endoscope
WO2016061418A1 (en) 2014-10-15 2016-04-21 Vincent Suzara Magnetic field structures, field generators, navigation and imaging for untethered robotic device enabled medical procedure
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
DE102014222293A1 (de) 2014-10-31 2016-05-19 Siemens Aktiengesellschaft Verfahren zur automatischen Überwachung des Eindringverhaltens eines von einem Roboterarm gehaltenen Trokars und Überwachungssystem
EP3217977A1 (en) 2014-11-11 2017-09-20 Vanderbilt University Methods for limiting acute kidney injury
EP3217911B1 (en) 2014-11-13 2023-01-04 Intuitive Surgical Operations, Inc. Systems for filtering localization data
US9931168B2 (en) 2015-01-12 2018-04-03 Biomet Manufacuturing. LLC Plan implementation
EP3258839B1 (en) 2015-02-20 2019-09-04 Teleflex Medical Devices S.à.r.l. Medical device position location systems, devices and methods
JP6348078B2 (ja) 2015-03-06 2018-06-27 富士フイルム株式会社 分岐構造判定装置、分岐構造判定装置の作動方法および分岐構造判定プログラム
JP6371729B2 (ja) 2015-03-25 2018-08-08 富士フイルム株式会社 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
WO2016164824A1 (en) 2015-04-09 2016-10-13 Auris Surgical Robotics, Inc. Surgical system with configurable rail-mounted mechanical arms
CN104758066B (zh) 2015-05-06 2017-05-10 中国科学院深圳先进技术研究院 用于手术导航的设备及手术机器人
US9636184B2 (en) 2015-05-15 2017-05-02 Auris Surgical Robotics, Inc. Swivel bed for a surgical robotics system
WO2016199273A1 (ja) 2015-06-11 2016-12-15 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
WO2016205653A1 (en) 2015-06-19 2016-12-22 SolidEnergy Systems Multi-layer polymer coated li anode for high density li metal battery
JP6750194B2 (ja) 2015-06-19 2020-09-02 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、及び、医療用観察システム
GB2540757B (en) 2015-07-22 2021-03-31 Cmr Surgical Ltd Torque sensors
CN111887786A (zh) 2015-08-14 2020-11-06 直观外科手术操作公司 用于图像引导外科手术的配准系统和方法
WO2017030916A1 (en) 2015-08-14 2017-02-23 Schlumberger Technology Corporation Inline viscosity determination technique
CN108024699B (zh) * 2015-08-14 2020-11-03 直观外科手术操作公司 用于图像引导外科手术的配准系统和方法
JP6987040B2 (ja) 2015-08-28 2021-12-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 運動関係を決定する方法及び装置
WO2017040700A2 (en) 2015-08-31 2017-03-09 Masimo Corporation Wireless patient monitoring systems and methods
AU2016321332B2 (en) 2015-09-09 2020-10-08 Auris Health, Inc. Instrument device manipulator for a surgical robotics system
WO2017048194A1 (en) 2015-09-17 2017-03-23 Endomaster Pte Ltd Improved flexible robotic endoscopy system
EP3349649B1 (en) 2015-09-18 2022-03-09 Auris Health, Inc. Navigation of tubular networks
EP3361933B1 (en) 2015-10-13 2023-03-01 Lightlab Imaging, Inc. Intravascular imaging system and methods to determine cut plane view angle of side branch
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US10639108B2 (en) 2015-10-30 2020-05-05 Auris Health, Inc. Process for percutaneous operations
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
CN105559850B (zh) 2015-12-17 2017-08-25 天津工业大学 一种用于机器人辅助外科具有力传感功能的手术钻器械
US10932861B2 (en) 2016-01-14 2021-03-02 Auris Health, Inc. Electromagnetic tracking surgical system and method of controlling the same
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US10470719B2 (en) 2016-02-01 2019-11-12 Verily Life Sciences Llc Machine learnt model to detect REM sleep periods using a spectral analysis of heart rate and motion
KR20180109855A (ko) 2016-02-26 2018-10-08 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 가상 경계를 이용하는 충돌 회피 시스템 및 방법
JP6637195B2 (ja) 2016-03-24 2020-01-29 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 治療評価装置
JP7232051B2 (ja) 2016-03-31 2023-03-02 コーニンクレッカ フィリップス エヌ ヴェ カテーテル配置のための画像誘導ロボット
US11324554B2 (en) 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
WO2017190210A1 (en) * 2016-05-02 2017-11-09 Synaptive Medical (Barbados) Inc. Methods for improving patient registration
US10470839B2 (en) 2016-06-02 2019-11-12 Covidien Lp Assessment of suture or staple line integrity and localization of potential tissue defects along the suture or staple line
US10806516B2 (en) 2016-06-20 2020-10-20 General Electric Company Virtual 4D stent implantation path assessment
US11612384B2 (en) 2016-06-30 2023-03-28 Intuitive Surgical Operations, Inc. Graphical user interface for displaying guidance information in a plurality of modes during an image-guided procedure
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
JP6853346B2 (ja) 2016-08-31 2021-03-31 オーリス ヘルス インコーポレイテッド 長さを維持する外科用器具
US10238455B2 (en) 2016-08-31 2019-03-26 Covidien Lp Pathway planning for use with a navigation planning and procedure system
US20180055576A1 (en) 2016-09-01 2018-03-01 Covidien Lp Respiration motion stabilization for lung magnetic navigation system
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US10136959B2 (en) 2016-12-28 2018-11-27 Auris Health, Inc. Endolumenal object sizing
US10543048B2 (en) 2016-12-28 2020-01-28 Auris Health, Inc. Flexible instrument insertion using an adaptive insertion force threshold
US11842030B2 (en) 2017-01-31 2023-12-12 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
US11071594B2 (en) * 2017-03-16 2021-07-27 KB Medical SA Robotic navigation of robotic surgical systems
AU2018244318B2 (en) 2017-03-28 2023-11-16 Auris Health, Inc. Shaft actuating handle
US10475235B2 (en) 2017-03-29 2019-11-12 Fujifilm Corporation Three-dimensional image processing apparatus, three-dimensional image processing method, and three-dimensional image processing program
CN108990412B (zh) 2017-03-31 2022-03-22 奥瑞斯健康公司 补偿生理噪声的用于腔网络导航的机器人系统
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
JP7314052B2 (ja) 2017-04-07 2023-07-25 オーリス ヘルス インコーポレイテッド 患者イントロデューサのアライメント
US10643330B2 (en) 2017-04-21 2020-05-05 Biosense Webster (Israel) Ltd. Registration of an anatomical image with a position-tracking coordinate system based on proximity to bone tissue
US20180308247A1 (en) 2017-04-25 2018-10-25 Best Medical International, Inc. Tissue imaging system and method for tissue imaging
US11529129B2 (en) 2017-05-12 2022-12-20 Auris Health, Inc. Biopsy apparatus and system
EP3624668A4 (en) 2017-05-17 2021-05-26 Auris Health, Inc. EXCHANGEABLE WORK CHANNEL
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
WO2019005699A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. ELECTROMAGNETIC FIELD GENERATOR ALIGNMENT
EP3644886A4 (en) 2017-06-28 2021-03-24 Auris Health, Inc. ELECTROMAGNETIC DISTORTION DETECTION
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
WO2019005872A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. INSTRUMENT INSERTION COMPENSATION
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
US10593052B2 (en) 2017-08-23 2020-03-17 Synaptive Medical (Barbados) Inc. Methods and systems for updating an existing landmark registration
US10464209B2 (en) 2017-10-05 2019-11-05 Auris Health, Inc. Robotic system with indication of boundary for robotic arm
US10016900B1 (en) 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
EP3684282B1 (en) 2017-12-06 2024-02-21 Auris Health, Inc. Systems to correct for uncommanded instrument roll
JP7314136B2 (ja) 2017-12-08 2023-07-25 オーリス ヘルス インコーポレイテッド 医療器具のナビゲーションおよびターゲット用のシステムおよび方法
KR102473254B1 (ko) 2017-12-08 2022-12-06 아우리스 헬스, 인코포레이티드 지향된 유체 공학
EP3723655A4 (en) 2017-12-11 2021-09-08 Auris Health, Inc. SYSTEMS AND METHODS FOR INSTRUMENT-BASED INSERTION ARCHITECTURES
US11510736B2 (en) 2017-12-14 2022-11-29 Auris Health, Inc. System and method for estimating instrument location
EP3684283A4 (en) 2017-12-18 2021-07-14 Auris Health, Inc. METHODS AND SYSTEMS FOR MONITORING AND NAVIGATION OF INSTRUMENTS IN LUMINAL NETWORKS
CN111885980B (zh) 2018-01-17 2023-03-28 奥瑞斯健康公司 具有可调式臂支撑件的外科平台
MX2020008464A (es) 2018-02-13 2020-12-07 Auris Health Inc Sistema y metodo para accionar instrumento medico.
MX2020009075A (es) 2018-03-01 2021-03-25 Auris Health Inc Métodos y sistemas de mapeo y navegación.
JP2019154816A (ja) 2018-03-13 2019-09-19 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置、医療用観察装置、及び医療用観察装置の作動方法
US10827913B2 (en) 2018-03-28 2020-11-10 Auris Health, Inc. Systems and methods for displaying estimated location of instrument
EP3773131A4 (en) 2018-03-28 2021-12-15 Auris Health, Inc. LOCATION SENSOR RECORDING SYSTEMS AND METHODS
KR20200139199A (ko) 2018-03-28 2020-12-11 아우리스 헬스, 인코포레이티드 가변 굽힘 강성 프로파일을 갖는 의료 기구
MX2020010220A (es) 2018-03-29 2021-01-15 Auris Health Inc Sistemas médicos activados robóticamente con efectores de extremo multifunción que tienen desviaciones rotacionales.
EP3801190A4 (en) 2018-05-30 2022-03-02 Auris Health, Inc. SYSTEMS AND METHODS FOR SENSOR-BASED BRANCH LOCATION PREDICTION
CN110831481B (zh) 2018-05-31 2022-08-30 奥瑞斯健康公司 管状网络的基于路径的导航
JP7214757B2 (ja) 2018-05-31 2023-01-30 オーリス ヘルス インコーポレイテッド 生理学的ノイズを検出する管腔網のナビゲーションのためのロボットシステム及び方法
WO2019232236A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Image-based airway analysis and mapping
US10744981B2 (en) 2018-06-06 2020-08-18 Sensata Technologies, Inc. Electromechanical braking connector
EP3813714A4 (en) 2018-06-07 2022-02-09 Auris Health, Inc. HIGH FORCE INSTRUMENT ROBOTIC MEDICAL SYSTEMS
WO2020005348A1 (en) 2018-06-27 2020-01-02 Auris Health, Inc. Alignment and attachment systems for medical instruments
US10667875B2 (en) 2018-06-27 2020-06-02 Auris Health, Inc. Systems and techniques for providing multiple perspectives during medical procedures
KR20210024484A (ko) 2018-06-28 2021-03-05 아우리스 헬스, 인코포레이티드 풀리 공유를 통합한 의료 시스템
CN112804946A (zh) 2018-08-07 2021-05-14 奥瑞斯健康公司 将基于应变的形状感测与导管控制相结合
CN112566584A (zh) 2018-08-15 2021-03-26 奥瑞斯健康公司 用于组织烧灼的医疗器械
CN112566567A (zh) 2018-08-17 2021-03-26 奥瑞斯健康公司 双极医疗器械
KR20210052475A (ko) 2018-08-24 2021-05-10 아우리스 헬스, 인코포레이티드 수동 및 로봇 제어가능 의료 기구
US11197728B2 (en) 2018-09-17 2021-12-14 Auris Health, Inc. Systems and methods for concomitant medical procedures
US11864849B2 (en) 2018-09-26 2024-01-09 Auris Health, Inc. Systems and instruments for suction and irrigation
WO2020068853A2 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Articulating medical instruments
KR20210073542A (ko) 2018-09-28 2021-06-18 아우리스 헬스, 인코포레이티드 의료 기구를 도킹시키기 위한 시스템 및 방법
CN112752534A (zh) 2018-09-28 2021-05-04 奥瑞斯健康公司 用于手动和机器人驱动医疗器械的装置、系统和方法
US20200100855A1 (en) 2018-09-28 2020-04-02 Auris Health, Inc. Robotic systems and methods for concomitant endoscopic and percutaneous medical procedures
WO2020076447A1 (en) 2018-10-08 2020-04-16 Auris Health, Inc. Systems and instruments for tissue sealing
US11950863B2 (en) 2018-12-20 2024-04-09 Auris Health, Inc Shielding for wristed instruments
KR20210111259A (ko) 2018-12-28 2021-09-10 아우리스 헬스, 인코포레이티드 로봇 의료 시스템 및 방법을 위한 경피 시스
CN113453642A (zh) 2019-02-22 2021-09-28 奥瑞斯健康公司 具有用于可调式臂支撑件的机动臂的外科平台
US10945904B2 (en) 2019-03-08 2021-03-16 Auris Health, Inc. Tilt mechanisms for medical systems and applications
EP3908224A4 (en) 2019-03-22 2022-10-19 Auris Health, Inc. SYSTEMS AND METHODS FOR INLET ALIGNMENTS ON MEDICAL DEVICES
CN113613566A (zh) 2019-03-25 2021-11-05 奥瑞斯健康公司 用于医疗缝合的系统和方法
US11617627B2 (en) 2019-03-29 2023-04-04 Auris Health, Inc. Systems and methods for optical strain sensing in medical instruments
JP2022527834A (ja) 2019-04-08 2022-06-06 オーリス ヘルス インコーポレイテッド 付随する処置のためのシステム、方法、及びワークフロー
US20200405423A1 (en) 2019-06-25 2020-12-31 Auris Health, Inc. Medical instruments including wrists with hybrid redirect surfaces
CN114007521A (zh) 2019-06-26 2022-02-01 奥瑞斯健康公司 用于机器人臂对准和对接的系统和方法
WO2020263629A1 (en) 2019-06-27 2020-12-30 Auris Health, Inc. Systems and methods for a medical clip applier
CN114051403A (zh) 2019-06-28 2022-02-15 奥瑞斯健康公司 用于机器人系统的患者导引器
US11109928B2 (en) 2019-06-28 2021-09-07 Auris Health, Inc. Medical instruments including wrists with hybrid redirect surfaces
CN114025700A (zh) 2019-06-28 2022-02-08 奥瑞斯健康公司 控制台叠加以及其使用方法

Also Published As

Publication number Publication date
CN114340542A (zh) 2022-04-12
US20220117677A1 (en) 2022-04-21
WO2021038469A1 (en) 2021-03-04
EP4021331A4 (en) 2023-08-30
US20210059764A1 (en) 2021-03-04
KR20220058569A (ko) 2022-05-09
EP4021331A1 (en) 2022-07-06
CN114340542B (zh) 2023-07-21
US11207141B2 (en) 2021-12-28

Similar Documents

Publication Publication Date Title
JP7214747B2 (ja) 位置センサの位置合わせのためのシステム及び方法
JP7250824B2 (ja) 位置センサベースの分岐予測のためのシステム及び方法
US11759266B2 (en) Robotic systems for determining a roll of a medical device in luminal networks
JP7225259B2 (ja) 器具の推定位置を示すためのシステム及び方法
CN114340542B (zh) 用于位置传感器的基于权重的配准的系统和方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230823

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230823