JP2019512354A - カテーテル配置のための画像誘導ロボット - Google Patents

カテーテル配置のための画像誘導ロボット Download PDF

Info

Publication number
JP2019512354A
JP2019512354A JP2018551379A JP2018551379A JP2019512354A JP 2019512354 A JP2019512354 A JP 2019512354A JP 2018551379 A JP2018551379 A JP 2018551379A JP 2018551379 A JP2018551379 A JP 2018551379A JP 2019512354 A JP2019512354 A JP 2019512354A
Authority
JP
Japan
Prior art keywords
steerable
control system
steerable device
image
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018551379A
Other languages
English (en)
Other versions
JP7232051B2 (ja
JP2019512354A5 (ja
Inventor
アレクサンドラ ポポヴィッチ
アレクサンドラ ポポヴィッチ
デイビッド ポール ヌーナン
デイビッド ポール ヌーナン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2019512354A publication Critical patent/JP2019512354A/ja
Publication of JP2019512354A5 publication Critical patent/JP2019512354A5/ja
Application granted granted Critical
Publication of JP7232051B2 publication Critical patent/JP7232051B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/304Surgical robots including a freely orientable platform, e.g. so called 'Stewart platforms'
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M25/00Catheters; Hollow probes
    • A61M25/01Introducing, guiding, advancing, emplacing or holding catheters
    • A61M25/0105Steering means as part of the catheter or advancing means; Markers for positioning
    • A61M25/0116Steering means as part of the catheter or advancing means; Markers for positioning self-propelled, e.g. autonomous robots

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Manipulator (AREA)

Abstract

ロボットが操縦可能デバイス402を含み、操縦可能デバイスは、当該操縦可能デバイスをステアリングする1つ以上のロボット制御されるジョイントを有する。デバイス制御システム430が、ターゲットに向かう操縦可能デバイスのナビゲーションと一致する方向に操縦可能デバイスをステアリングするために、制御コマンドが1つ以上のロボット制御されるジョイントに出されるように、画像制御システム406からの画像フィードバック又はボリューム内の計画のうちの一方に従って、操縦可能デバイスの位置決めを調整する。

Description

本開示は、医療機器に関し、より具体的には、医学的応用において被制御ジョイントを使用してデバイスをロボットでステアリングするシステム及び方法に関する。
バルーンサイヌプラスティ(balloon sinuplasty)は、副鼻腔感染症の症状から患者を解放するために、詰まった副鼻腔内にバルーンカテーテルが挿入される処置である。この処置中に、ガイドカテーテルが鼻を通り副鼻腔へと挿入される。ガイドカテーテルは、適切な副鼻腔に侵入し易くするために先端が曲がっている。ガイドワイヤがカテーテル内に入れられ、ガイドカテーテルは、ガイドワイヤが正しい位置となると、引き戻される。バルーンカテーテルが、ガイドワイヤの上に置かれ、バルーンが膨らまされて空気通路が開かれる。この処置は、フレキシブル内視鏡及びX線の誘導下で行われる。X線は、通常、ガイドワイヤが適切な副鼻腔開口内に入れられたことを確認するために使用される。
副鼻腔の解剖学的構造は非常に複雑で、鼻から副鼻腔空洞に達するまで複数の急な湾曲部を含む。更に、治療を成功させるためには、バルーンを展開するのに適切な場所を見つけることが必要である。ナビゲーションは、次に説明する問題の幾つかによって更に妨害される。例えばガイドカテーテルの制御が複雑である。外科医は、曲がった先端の適切な角度を選択する必要があるが、これは、患者のコンピュータ断層撮影(CT)スキャンから決定される。そして、ガイドカテーテルは、湾曲部を副鼻腔の侵入点に配置させるように旋回及び回転される。処置は、ガイドカテーテル内に挿入される光ファイバ内視鏡並びに/又は生体構造及びデバイスの2次元画像を撮るCアームX線システムを含む画像誘導下で行われる。2D画像は複雑な3D生体構造を捉えることができないため、X線誘導は、困難な場合がある。内視鏡誘導は、副鼻腔開口を、それがカテーテルの前にある場合にのみ示すことができる。
本原理によれば、ロボットが操縦可能デバイスを含み、当該操縦可能デバイスは、当該操縦可能デバイスをステアリングする1つ以上のロボット制御されるジョイントを有する。デバイス制御システムが、ターゲットに向かう操縦可能デバイスのナビゲーションと一致する方向に操縦可能デバイスをステアリングするために、制御コマンドが1つ以上のロボット制御されるジョイントに出されるように、画像制御システムからの画像フィードバック又はボリューム内の計画のうちの一方に従って、操縦可能デバイスの位置決めを調整する。
誘導システムが、調整可能な先端部を有する操縦可能デバイスを含み、先端部は、ロボット制御可能なジョイントに結合される。画像制御システムが、ボリューム内の操縦可能デバイスの位置を評価するために、術中画像を術前画像と組み合わせる。デバイス制御システムが、画像制御システムから位置情報を受信し、運動学的モデルを使用して、ボリューム内の操縦可能デバイスの位置決めを評価する。デバイス制御システムは、ターゲットに向かう操縦可能デバイスのナビゲーションと一致する方向に操縦可能デバイスをステアリングするために、制御コマンドをロボット制御されるジョイントに出す。
誘導方法が、ステアリングされる調整可能なロボット制御されるジョイントを有する操縦可能デバイスを、ボリューム内に挿入するステップと、ボリューム内の操縦可能デバイスの位置又は画像フィードバックを提供するステップと、フィードバックを受信し、ボリューム内の操縦可能デバイスの位置決めを評価し、操縦可能デバイスをステアリングするよう制御コマンドをロボット制御されるジョイントに出すデバイス制御システムを使用して、計画に従ってターゲットに向かって操縦可能デバイスを自動的にナビゲートするステップとを含む。
本開示のこれら及び他の目的、特徴並びに利点は、添付図面と併せて読まれるべきであるその例示的な実施形態の以下の詳細な説明から明らかとなるであろう。
本開示は、次の図面を参照して、好適な実施形態の説明を以下に詳述する。
図1は、一実施形態に従って、医療デバイスの操縦可能先端部を形成するようにロボット制御されるジョイントを有する操縦可能デバイスを使用する誘導システムを示すブロック/フロー図である。 図2は、例示的な実施形態に従って、(例えばロボット制御される)操縦可能デバイスを誘導する方法を示すフロー図である。 図3は、一実施形態に従って、3つの回転自由度及び並進を有する例示的なジョイントを示す図である。 図4Aは、一実施形態に従って、分岐構造に近づく操縦可能デバイスを示す図である。 図4Bは、一実施形態に従って、所望の進路を選択するように調整された後の図4Aの操縦可能デバイスを示す図である。 図5は、別の実施形態に従って、操縦可能デバイス及びデバイス制御システムを使用するロボットを示すブロック/フロー図である。
本原理に従って、副鼻腔、他の複雑な空洞又は内腔の網状組織内にガイドワイヤを配置するために画像誘導システム使用して誘導される被作動ロボット制御ジョイントを含む操縦可能デバイス用のシステム及び方法が提供される。操縦可能デバイスは、1つ以上のジョイントを含み、ロボットと呼ばれる。ジョイントは、操縦可能デバイスを正しい通路へと誘導するために、当該デバイスの形状を変更する。ガイドワイヤは、操縦可能デバイスのルーメン内に入れられる。画像制御システムが、術前画像及び術中画像の統合を行い、当該画像から、操縦可能先端を誘導しなければならない生体構造内の場所と、操縦角とを決定する。
当然ながら、本発明は、医療機器に関して説明されるが、本発明の教示内容は、はるかに広義であり、身体の任意の部分における使用のための任意の操縦可能機器に適用可能である。幾つかの実施形態では、本原理は、複雑な生体系又は機械系の追跡又は解析に使用される。特に、本原理は、生体系の内部追跡及び手術処置、並びに、肺、脳、心臓、胃腸管、排泄器、血管といった身体のあらゆる領域における処置に適用可能である。図面に示される要素は、ハードウェア及びソフトウェアの様々な組み合わせで実現されてよく、単一の要素又は複数の要素にまとめられる機能を提供する。
図面に示される様々な要素の機能は、専用ハードウェアだけでなく、適切なソフトウェアに関連してソフトウェアを実行可能であるハードウェアを使用することによって提供可能である。当該機能は、プロセッサによって提供される場合、単一の専用プロセッサによって、単一の共有プロセッサによって、又は、複数の個別のプロセッサによって提供可能であり、個別のプロセッサのうちの幾つかは共有されてよい。更に、「プロセッサ」又は「コントローラ」との用語の明示的な使用は、ソフトウェアを実行可能なハードウェアを排他的に指すと解釈されるべきではなく、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを記憶する読み出し専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、不揮発性記憶装置等を暗に含むが、これらに限定されない。
更に、本発明の原理、態様及び実施形態だけでなく、これらの具体例を列挙する本明細書におけるすべての記述は、これらの構造上の等価物及び機能上の等価物の両方を包含することを意図している。更に、このような等価物は、現在知られている等価物だけでなく、将来開発される等価物(即ち、構造に関係なく、同じ機能を行うように開発される任意の要素)の両方も含むことを意図している。したがって、例えば当業者であれば、本明細書において提示されるブロック図は、本発明の原理を具現化する例示的なシステムコンポーネント及び/又は回路の概念図を表すことは理解できるであろう。同様に、当然ながら、任意のフローチャート、フロー図等は、コンピュータ可読記憶媒体において実質的に表現される様々な処理を表し、したがって、コンピュータ又はプロセッサによって、当該コンピュータ又はプロセッサが明示的に示されているか否かに関わらず、実行される。
更に、本発明の実施形態は、コンピュータ若しくは任意の命令実行システムによる又は当該コンピュータ若しくはシステムに関連して使用されるプログラムコードを提供するコンピュータ使用可能又はコンピュータ可読記憶媒体からアクセス可能であるコンピュータプログラムプロダクトの形を取ることができる。本説明のために、コンピュータ使用可能又はコンピュータ可読記憶媒体は、命令実行システム、装置若しくはデバイスによる又は当該システム、装置若しくはデバイスに関連して使用されるプログラムを、含む、記憶する、通信する、伝搬する又は運搬する任意の装置であってよい。媒体は、電子、磁気、光学、電磁、赤外若しくは半導体システム(若しくは装置若しくはデバイス)又は伝搬媒体であってよい。コンピュータ可読媒体の例には、半導体若しくは固体メモリ、磁気テープ、取り外し可能なコンピュータディスケット、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、剛性磁気ディスク及び光学ディスクが含まれる。光学ディスクの現在の例には、コンパクトディスク−読み出し専用メモリ(CD−ROM)、コンパクトディスク−読み出し/書き込み(CD−R/W)、ブルーレイ(登録商標)及びDVDが含まれる。
明細書における本原理の「一実施形態(one embodiment又はan embodiment)」だけでなくその他の変形例への参照は、実施形態に関連して説明される特定の特徴、構造、特性等が、本原理の少なくとも1つの実施形態に含まれることを意味する。したがって、明細書全体を通して様々な場所における「一実施形態において」との表現だけでなく任意の他の変形例の出現は、必ずしもすべて同じ実施形態を指しているわけではない。
当然ながら、次の「/」、「及び/又は」及び「少なくとも1つの」、例えば「A/B」、「A及び/又はB」及び「A及びBの少なくとも1つ」のうちの何れか1つの使用は、第1のオプションだけの選択(A)、第2のオプションだけの選択(B)、又は、両方のオプションの選択(A及びB)を包含することを意図している。更なる例として、「A、B及び/又はC」及び「A、B及びCの少なくとも1つ」の場合、このような表現は、第1のオプションだけの選択(A)、第2のオプションだけの選択(B)、第3のオプションだけの選択(C)、第1及び第2のオプションだけの選択(A及びB)、第1及び第3のオプションだけの選択(A及びC)、第2及び第3のオプションだけの選択(B及びC)、又は、すべてのオプションの選択(A、B及びC)を包含することを意図している。これは、当技術分野及び関連の技術分野における当業者には容易に理解されるように、列挙されるアイテムの数だけ拡大適用される。
更に、当然ながら、要素、領域又は材料といった要素が、別の要素の「上(on又はover)」にあると言及される場合、当該要素は、当該他の要素の上に直接あっても、介在要素が存在していてもよい。対照的に、要素が、別の要素の「上に直接ある」と言及される場合、介在要素は存在しない。当然ながら、要素が、他の要素に「接続」又は「結合」されると言及される場合、当該要素は、当該他の要素に直接的に接続又は結合されていても、介在要素が存在していてもよい。対照的に、要素が、別の要素に「直接的に接続される」又は「直接的に結合される」場合、介在要素は存在しない。
次に、図面を参照する。図面中、同じ参照符号が同じ又は同様の要素を示す。最初に、図1を参照する。一実施形態にしたがって、被験者内の組織におけるロボット誘導のためのシステム100が例示的に示される。システム100は、ワークステーション又はコンソール112を含み、そこから、処置が監視及び/又は管理される。ワークステーション112は、好適には、1つ以上のプロセッサ114と、プログラム及びアプリケーションを記憶するメモリ116とを含む。メモリ116は、1つ以上の入力部から提供されるユーザ入力及び/又はフィードバックにしたがって作動される1つ以上のロボットジョイント108及び他の可能なロボット制御される特徴の動作及びプログラミングを制御するデバイス制御システム130を記憶する。システム100は、操縦可能デバイス102と、例えば副鼻腔空洞等である管又は空洞の複雑な又は分岐する網状組織内にガイドワイヤを配置することを可能にする画像誘導又は制御システム106とを含む。被作動デバイス102は、1つ以上のジョイント108を含む。ジョイント108は、操縦可能デバイス102の先端をステアリングする。画像制御システム又は画像誘導システム106は、術前画像142及び術中画像144の統合を行い、当該画像142、144から、デバイス102(例えばカテーテル又はカテーテル状デバイス)の操縦可能先端124をステアリングする必要のある生体構造内の場所と、操縦角とを決定する。
一実施形態では、操縦可能デバイス102は、(例えば医用位置決めアームを使用して)近位端における空間に固定される。各ジョイント108の座標フレームが、近位端における座標系(固定座標系)で定義される。各ジョイント108用の各モータ(図示せず)の位置が、モータエンコーダから分かっているので、各ジョイント108の位置及び3つの方位角も、固定座標系で分かっている。
このビューを固定座標フレームにおけるデバイス102の3D位置と位置合わせするために、固定座標系におけるジョイントの位置と、X線画像(又は他の画像)におけるジョイントの位置とが対応させられる。撮像システム111によって撮られた画像において、閾値化セグメンテーション及び形状フィッティングといった当技術分野において知られている画像処理方法を使用して、各剛体セグメントが検出される。或いは、X線不透過マーカを各ジョイント108に取り付けてもよい。
一実施形態では、ジョイント108の検出後、ジョイント108は、ノードの親及び子が、任意の所与のジョイントの直接の隣同士である単純なツリー構造で順序付けられてよい。デバイス102の連結アーキテクチャを前提とすると、2つの可能なツリー(近位から遠位と遠位から近位)がある。この場合、2つのツリーに従って2つの対応が規定される。ツリーにおけるノード数が、デバイス102のジョイント108の数と同じである場合、2つの位置合わせを計算する必要がある。可視ノード数(m)が、ノード総数(n)よりも少ない場合、可能な位置合わせの数は、2×(n choose m)である。
位置合わせ処理は、2DX線空間においてm個の点を、3Dロボット空間(固定座標系)においてm個の点を想定する。位置合わせ処理は更に、焦点距離又はX線システムが既知であると想定する。したがって、デバイス102の座標フレームにおけるシステム111のX線検出器の姿勢は、反復最近接点、RANSAC(ランダムサンプルコンセンサス)ベースの反復方法等といった当技術分野において知られている任意の方法を使用して検出される。
m<nである場合、正しくない対応について報告される残余誤差は、正しい対応からの残余誤差よりも大幅に大きく、これは、残余誤差を基準として使用することにより棄却することができる。例えば最適残余誤差を有するソリューションが、デバイス102に対するX線システム111の位置として、ユーザに示されることが可能である。反転されたジョイントの順番の場合、ユーザは、両方のソリューションのレンダリングを観察することによって、又は、簡単な質問(例えば「画像検出器は患者の上か又は下か?」)に答えることによって、正しいソリューションを選択することができる。術中画像144、術前画像142及び操縦可能デバイス102を位置合わせするために、他の位置合わせ方法が使用されてもよい。
システム100は、通路又は解剖学的管腔(例えば副鼻腔通路)内で操縦可能先端124を有する操縦可能デバイス102を使用する。デバイス102は更に、デバイス102を体内の主軸に沿って並進移動させる挿入段128を含む。操縦可能先端124の一実施形態では、デバイス102は、1つのジョイントを使用して一平面内の操縦を実現することができる。操縦可能先端124の別の実施形態では、デバイス102は、2つのジョイントを使用してヨー及びピッチ運動を実現することができる。別の実施形態では、2つ以上の並列モータを使用して、操縦角が実現される。更に別の実施形態では、デバイス102内に2つ以上の腱が埋め込まれ、腱の遠位端においてアクチュエータ/モータに結合される腱駆動システムが操縦を提供する。更に別の実施形態では、追加の回転自由度によって、デバイス102を、デバイスの主軸(長手軸)を軸として回転させることができる。これらの作動及び/又は回転スキームのうちの1つ以上を、必要に応じて、任意の1つ以上の他の作動及び/又は回転スキームと組み合わせてもよい。
デバイス制御システム130は、メモリ116に記憶され、ジョイント108の角度をデバイスのアクチュエータコマンドに変換するか、又は、アクチュエータコマンドを生成して、画像フィードバックに従ってジョイントの角度を変更する。デバイス制御システム130は、デバイスの運動学的モデル132と、当技術分野において知られている制御スキームとを含む。運動学的モデル132は、通路内でデバイス102を誘導するために必要な構成を計算する。速度、位置及び他の空間的検討事項(例えば内部ボリューム構造に起因する角度)といったパラメータがモデル132によって考慮される。例えばデバイス制御システム130は、医療デバイス102が分岐構造、分岐点等に近づいている最中の医療デバイス102の位置及び速度に基づいて、ジョイント108の回転量を制御する。次の構成が決定されると、デバイス制御システム130によって、操縦可能デバイス124を調整することによりデバイス102をステアリングするアクチュエータコマンドが生成される。本原理に従うデバイス102のナビゲーションは、速度を速めて進めることができ、結果として、操作時間が短縮される。
ワークステーション112は、被験者(患者)又はボリューム134の内部画像144及び142を見るためのディスプレイ118を含み、また、オーバーレイ又は他のレンダリングを有する画像142、144を含む。ディスプレイ118は更に、ユーザが、ワークステーション112並びにそのコンポーネント及び機能又はシステム100内の任意の他の要素とやり取りできるようにする。これは、キーボード、マウス、ジョイスティック、触覚デバイス又はワークステーション112からのユーザフィードバック及びワークステーション112とのやり取りを可能にする任意の他の周辺機器又は制御部を含むユーザインターフェース120によって更に容易にされる。一実施形態では、術前画像142を得るための撮像システム110(例えばMRI、CT等)があってよい。他の実施形態では、撮像システム110は、別箇に設置され、画像は、他の動作によって遠隔から収集されてもよい。術中撮像システム111は、術中画像を得るための光ファイバスコープ、カメラシステム、X線撮像システム、モバイルX線撮像システム等を含む。
デバイス制御システム130は、運動学的モデル132を使用して、ジョイント108の角度を、進路を選択し、デバイス102をステアリングするためのデバイス102用のアクチュエータコマンドに変換する。1つの方法では、画像142、144は、開放進路と組織とを区別する。デバイス制御システム130は、術前画像142及び術中画像144の両方を使用して、ターゲット位置へとつながる開放進路を選択する。一実施形態では、術中撮像システム111は、生体構造及びデバイス102を撮像するモバイルX線システム、デバイスルーメン内に挿入される若しくはデバイスと一体化される光ファイバ内視鏡、又は、他の撮像構成及び技術を含む。
画像制御システム106は、術前3D画像142(CT、MRI等)と術中画像144(X線、内視鏡等)とを統合し、これらを、ロボットデバイス102の単一の座標系において位置合わせする。画像制御システム106は更に、ユーザが、病変副鼻腔又は他のターゲットまでの進路を計画するか、又は、ターゲットを特定することを可能にする。一実施形態では、生体構造内の位置に基づいて、進路が計画され、先端操縦のための位置及び角度が特定される。計画段階中に、操縦制御用のコマンドの命令セットが生成される。動作中に、これらのコマンドは、デバイス制御システム130に通信される。コマンドは、操縦可能先端を制御するコマンドを使用して進路を選択するために、正しい時間におけるコマンドの発行を可能とするために、生体構造内の位置又は他の手がかりに関連付けられる。
操縦は、メモリ116に記憶される計画150に従ってもよい。計画150は、(例えば術前画像142を使用して)仮想空間において選択される。操縦制御は、デバイス102が前進するにつれて、進路決定及び角度調整を行うように、デバイス制御システム130を使用してリアルタイムで行われる。
図2を参照するに、例示的な実施形態に従って、ロボットを操縦する方法が提供される。この方法は、図1のシステム100を使用して実行される。ステップ202において、術前3D画像が撮られ、病変副鼻腔又は他のターゲットが特定される。ステップ204において、その中のルーメンにガイドワイヤが入れられた操縦可能デバイス(例えばロボット)が、生体構造(例えば鼻)の中に挿入される。これは手動で行われてよい。
ステップ206において、ボリューム内の操縦可能デバイスについて、位置又は画像フィードバックが収集される。例えば操縦可能デバイスのX線画像が取得され、位置合わせ(例えば術前画像の術中画像及び操縦可能デバイスに対する位置合わせ)が行われる。操縦可能デバイスとX線システムとの位置合わせは、当技術分野において知られている方法を使用して行うことができる。別の実施形態では、ステップ206において、内視鏡画像が取得され、位置合わせが行われる。デバイスと内視鏡画像との位置合わせは、当技術分野において知られている方法を使用して行うことができる。別の実施形態では、(例えば光ファイバ位置決め、電磁位置決め、画像位置決め等を使用して)操縦可能デバイスの位置が決定される。操縦可能デバイスの位置は、(画像ありで又はなしで)ボリューム内で操縦可能デバイスをナビゲートするために使用される。
ステップ208において、ユーザ/外科医が、画像(例えばCT)のうちの1つにおける病変副鼻腔又はターゲットの位置を特定する。進路計画を行って、インタラクティブ進路が決定される。進路計画には、画像制御システムを使用して、鼻(又は他の開口部)から副鼻腔(又は他のターゲット)までのすべての可能な進路を計算することが含まれる。ステップ210において、ユーザ/外科医は、デバイスの先端を前進させるようにデバイス102の並進段を操縦及び使用することによって、ボリューム(例えば鼻腔)内の計画進路をたどる。並進段は、手動(手持ち、摺動段等)であっても、(モータトリガ又は速度制御を有する)モータが付けられてもよい。操縦可能デバイスは、自動的にナビゲートされ、操縦は、計画に従って、又は、位置若しくは画像フィードバックを使用してリアルタイムで、制御システムによって制御される。一実施形態では、画像制御システムは、デバイス制御システムからデバイス位置を受信し、進路の座標系における先端位置を計算する。デバイス制御システムは、各計算サイクルで、操縦可能先端を作動させる必要があるかどうかを計算する。先端位置を作動させない場合、デバイスは、前の進路方向に沿って前進を続ける。デバイス制御システムが、方向変更が必要であることを決定すると、所与の位置の角度及び方向が変更されて操縦可能先端がステアリングされる。デバイス制御システムは、所望の又は計画された進路に従うように、先端を自動的にステアリングする。
ステップ212において、処置に応じて、ターゲット領域で治療又は他の活動が行われる。一実施形態では、ターゲットに到達すると、操縦可能デバイスは引き戻され、操縦可能デバイス内に入れられたガイドワイヤを使用してバルーンが誘導される。バルーンが配置されると、バルーンは広げられて、副鼻腔又は他の解剖学的特徴が広げられる。ステップ214において、処置が終了すると、デバイスは引き戻される。デバイスの引き戻しも、デバイスの操縦可能性を使用する。鼻の処置に関して説明されているが、当然ながら、本原理は、任意の処置に適用可能であり、制約のある空間内での任意のナビゲーションに特に有用である。
図3を参照するに、一例に従って、ロボット特徴300が例示的に示される。特徴300は、デバイス102内に含まれ、デバイス102の先端の並進運動及び回転運動を提供する。特徴300は、ガイドワイヤ(又はカテーテル)又は他の細長い器具を入れるための内部ルーメン308を含むシャフト310を含む。特徴300は、操縦可能デバイス102の遠位端部をステアリングするために使用される。他の実施形態では、特徴300はシース等によって覆われる。1つの特に有用な実施形態では、特徴300は、カテーテルの一部であり、内部ルーメン内にガイドワイヤが入れられる。ガイドワイヤ及び操縦可能デバイスが所定の位置に置かれると、操縦可能デバイス(及び特徴300)は引き戻される。次に、ガイドワイヤを使用してバルーンカテーテルがターゲット位置まで誘導され、そこで、バルーンを使用して、治療のために空洞が広げられる。
特徴300は、内部ルーメン308を通過するカテーテル又は他のデバイスを取り囲むリング状又は他の形状のエンドエフェクタ312を含む。エンドエフェクタ312は、内部ルーメン308を通過するカテーテル又は他の器具を導くために使用される。
エンドエフェクタ312は、ジョイント302によって並進可能ロッド306(腱)に結合される。並進可能ロッド306は、シャフト310内へと前進又は引き込んで、矢印「C」の方向における並進運動を提供する。例えば3つのロッド306すべてが同時に前進する(又は引き込む)と、並進が実現される。ロッド306が異なる速度又は異なる量で前進する又は引き込むと、相対運動によって矢印「A」及び/又は「B」の方向におけるエンドエフェクタ312の回転が提供される。更に、エンドエフェクタ312全体がシャフト310の長手軸の周りを(例えば矢印「D」の方向に)回転するように、回転プラットホーム304が使用される。特徴300は、局所的な位置において、複数の自由度を提供する。このようにすると、デバイス102が正確に且つうまく制御されてステアリングされる。
図3は、例示的なジョイントを示すが、当然ながら、より複雑な又はより単純なジョイントが使用されてもよい。これらの他のジョイントのタイプには、単純なヒンジジョイント、回転ジョイント、並進機構等が含まれる。
図4Aを参照するに、第1の構成にある操縦可能デバイス102の例示的な例が示される。第1の構成は、鼻腔320内に挿入された後の操縦可能デバイス102を示す。デバイス102が分岐点又は進路分割部324に近づくにつれて、デバイス制御システムは、所望の又は計画された進路に従うために、先端124をステアリングするためにステアリング動作が必要であることを自動的に検知するか、又は、デバイス制御システムは、計画に従って、特定の進路へとナビゲートする必要があることを検知する。デバイス制御機構は、信号制御を使用して、特徴300を調整して先端124の角度を制御することによってデバイス102を適切にナビゲートする。
図4Bを参照するに、第2の構成にある操縦可能デバイス102が示される。第2の構成は、鼻腔320内の特定方向への挿入を制御するために、デバイス制御システムが、特徴300を使用して先端124を回転させるコマンドを出した後の操縦可能デバイス102を示す。デバイス102が分岐点又は進路分割部324に近づくにつれて、デバイス制御システムは、計画された進路に従うように先端124を自動的にステアリングするか、又は、進路は、本目的若しくはターゲットに到達するためのよりよい進路であることを検知する。
図5を参照するに、本原理によるロボット400が示される。ロボット400は、操縦可能デバイス402(デバイス102も参照)をステアリングする1つ以上のロボット制御されるジョイント408を有する操縦可能デバイス402を含む。デバイス402は、ガイドワイヤ等といった他の器具を格納するルーメン404を含む。各ジョイント408は、それに関連付けられる1つ以上のモータ410を含んでもよい。モータ410は、ジョイント408を制御する制御コマンドに従って生成される信号を受信する。
デバイス制御システム430(システム103も参照)は、画像制御システム406(システム106も参照)からフィードバックを受信して、ボリューム内の操縦可能デバイス402の位置決めを評価する。これにより、制御コマンドが、1つ以上のロボット制御されるジョイント408に出され、操縦可能デバイス402が、ターゲットに向かう医療デバイスのナビゲーションと一致する方向に、又は、計画に従ってステアリングされる。
画像制御システム406は、術前画像及び術中画像を位置合わせして、単一の座標系における操縦可能デバイスの位置を特定する。術中画像には、カメラ画像(内視鏡)、X線画像又は他の撮像モダリティの画像が含まれる。
デバイス制御システム430は、1つ以上のロボット制御されるジョイント408の並進及び/又は回転を制御して、医療デバイスを進路に向けて付勢する。デバイス制御システム430は更に、操縦可能デバイス402が分岐構造に近づく際中の操縦可能デバイス402の位置、方向及び速度に基づいて、並進及び/又は回転の量を制御する。デバイス制御システム430は、1つ以上のロボット制御されるジョイント408を制御するために、操縦可能デバイス402の動態を評価するための運動学的モデル432を含む。運動学的モデル432は、操縦可能デバイス402が取るべき次の方向転換又は構成を予測するために使用される。
1つ以上のロボット制御されるジョイント408は、1つ以上の回転自由度を含む。操縦可能デバイス402は更に、操縦可能デバイス402の前進及び/又は引き戻しを支援する並進段414を含む。1つ以上のロボット制御されるジョイント408は、操縦可能先端、エンドエフェクタ411、又は、ロボット400の遠位に取り付けられる他の構造体を含む。エンドエフェクタ411は、ロッドの位置が、ロッドを支えるシャフト(図3)の長手軸に対するエンドエフェクタ411の回転を提供するように複数の並進可能ロッドを含む。
一実施形態では、操縦可能先端411は、(1つ以上のモータ410に対して)2つのモータ410’を、また、(1つ以上のジョイント408に対して)ユニバーサルジョイント408’を使用してヨー及びピッチ運動を実現することができる。2つ以上の並列モータ410’を使用して、操縦角が実現される。別の実施形態では、2つ以上の腱がデバイス102に埋め込まれ、腱の遠位端においてアクチュエータ/モータに結合される腱駆動システム300がステアリングを提供することができる。更に別の実施形態では、追加の回転自由度によって、デバイス402を、デバイス402の主軸(長手軸)を軸として回転させることができる。これらの作動及び/又は回転スキームのうちの1つ以上を、必要に応じて、任意の1つ以上の他の作動及び/又は回転スキームと組み合わせてもよい。
添付の請求項を解釈する際に、次の通りに理解されるべきである。
a)「含む」との用語は、所与の請求項に列挙される要素又は行為以外の要素又は行為の存在を排除しない。
b)要素に先行する「a」又は「an」との用語は、当該要素が複数存在することを排除しない。
c)請求項における任意の参照符号は、その範囲を限定しない。
d)幾つかの「手段」は、同じアイテム、ハードウェア若しくはソフトウェアによって実現される構造体又は機能によって表される。
e)特に明記されない限り、行為の特定の順番を必要とすることを意図していない。
(例示的であって限定を意図していない)画像誘導されるロボット誘導カテーテル配置の好適な実施形態が説明されたが、上記教示内容に鑑みて、当業者によって修正及び変更がなされうることに留意されたい。したがって、開示された開示内容の特定の実施形態に変更を行ってもよく、これらの変更は、添付の請求項によって概説される本明細書に開示される実施形態の範囲内であることは理解されるべきである。したがって、特許法によって義務付けられているように、詳細及び特殊性を説明することによって、特許証によって請求され、保護を望むものは、添付の請求項に記載される。

Claims (22)

  1. 操縦可能デバイスをステアリングする1つ以上のロボット制御されるジョイントを有する前記操縦可能デバイスと、
    ターゲットに向かう前記操縦可能デバイスのナビゲーションと一致する方向に前記操縦可能デバイスをステアリングするために、制御コマンドが前記1つ以上のロボット制御されるジョイントに出されるように、画像制御システムからの画像フィードバック又は計画のうちの一方に従って、前記操縦可能デバイスの位置決めを調整するデバイス制御システムと、
    を含む、ロボット。
  2. 前記1つ以上のロボット制御されるジョイントは、少なくとも2つの回転自由度を含む、請求項1に記載のロボット。
  3. 前記画像制御システムは、単一の座標系における前記操縦可能デバイスの位置を特定するために、術前画像と術中画像とを位置合わせする、請求項1に記載のロボット。
  4. 前記術中画像は、カメラ画像又はX線画像のうちの一方を含む、請求項3に記載のロボット。
  5. 前記デバイス制御システムは、前記操縦可能デバイスを進路に向けてステアリングするために、前記1つ以上のロボット制御されるジョイントの回転を制御する、請求項1に記載のロボット。
  6. 前記デバイス制御システムは、前記操縦可能デバイスが分岐構造に近づく際中の前記操縦可能デバイスの位置、方向及び速度に基づいて、前記1つ以上のロボット制御されるジョイントの回転量を制御する、請求項1に記載のロボット。
  7. 前記1つ以上のロボット制御されるジョイントは、複数の並進可能ロッドを含むエンドエフェクタを含み、前記複数の並進可能ロッドの位置が、前記複数の並進可能ロッドを支えるシャフトの長手軸に対する前記エンドエフェクタの回転を提供する、請求項1に記載のロボット。
  8. 前記デバイス制御システムは、前記1つ以上のロボット制御されるジョイントを制御するために、動態を評価するための運動学的モデルを含む、請求項1に記載のロボット。
  9. ロボット制御可能なジョイントに結合される調整可能な先端部を有する操縦可能デバイスと、
    ボリューム内の前記操縦可能デバイスの位置を評価するために、術中画像を術前画像と組み合わせる画像制御システムと、
    前記画像制御システムから位置情報を受信し、運動学的モデルを使用して前記操縦可能デバイスの位置決めを評価するデバイス制御システムであって、ターゲットに向かう前記操縦可能デバイスのナビゲーションと一致する方向に前記操縦可能デバイスをステアリングするために、制御コマンドを前記ロボット制御されるジョイントに出す、前記デバイス制御システムと、
    を含む、誘導システム。
  10. 前記ロボット制御されるジョイントは、少なくとも2つの回転自由度を含む、請求項9に記載の誘導システム。
  11. 前記画像制御システムは、単一の座標系における前記操縦可能デバイスの位置を特定するために、術前画像と術中画像とを位置合わせする、請求項9に記載の誘導システム。
  12. 前記デバイス制御システムは、前記操縦可能デバイスを進路に向けてステアリングするために、前記ロボット制御されるジョイントの回転を制御する、請求項9に記載の誘導システム。
  13. 前記デバイス制御システムは、医療デバイスが分岐構造に近づく際中の前記医療デバイスの位置、方向及び速度に基づいて、回転量を制御する、請求項9に記載の誘導システム。
  14. 前記術中画像は、カメラ画像又はX線画像のうちの一方を含む、請求項9に記載の誘導システム。
  15. 前記ロボット制御されるジョイントは、複数の並進可能ロッドを含むエンドエフェクタを含み、前記複数の並進可能ロッドの位置が、前記複数の並進可能ロッドを支えるシャフトの長手軸に対する前記エンドエフェクタの回転を提供する、請求項9に記載の誘導システム。
  16. ステアリングされる調整可能なロボット制御されるジョイントを有する操縦可能デバイスを、ボリューム内に挿入するステップと、
    前記ボリューム内の前記操縦可能デバイスの位置又は画像フィードバックを提供するステップと、
    前記フィードバックを受信し、前記ボリューム内の前記操縦可能デバイスの位置決めを評価し、前記操縦可能デバイスをステアリングするよう制御コマンドを前記ロボット制御されるジョイントに出すデバイス制御システムを使用して、計画に従ってターゲットに向かって前記操縦可能デバイスを自動的にナビゲートするステップと、
    を含む、誘導方法。
  17. 前記ロボット制御されるジョイントは、少なくとも2つの回転自由度を含む、請求項16に記載の誘導方法。
  18. 単一の座標系における前記操縦可能デバイスの位置を特定するために、術前画像と術中画像とを位置合わせするステップを更に含む、請求項16に記載の誘導方法。
  19. 前記デバイス制御システムは、前記操縦可能デバイスが分岐構造に近づく際中の前記操縦可能デバイスの位置、方向及び速度に基づいて、前記操縦可能デバイスの回転量を制御する、請求項16に記載の誘導方法。
  20. 前記ロボット制御されるジョイントは、複数の並進可能ロッドを含むエンドエフェクタを含み、前記複数の並進可能ロッドの位置が、前記複数の並進可能ロッドを支えるシャフトの長手軸に対するエンドエフェクタの回転を提供する、請求項16に記載の誘導方法。
  21. 前記デバイス制御システムは、前記ロボット制御されるジョイントを制御するために、動態を評価するための運動学的モデルを含む、請求項16に記載の誘導方法。
  22. 前記挿入するステップは、操作者によって手動で行われ、前記自動的にナビゲートするステップは、計画に従って、前記デバイス制御システムによって制御されるステアリングするステップを含む、請求項16に記載の誘導方法。
JP2018551379A 2016-03-31 2017-03-28 カテーテル配置のための画像誘導ロボット Active JP7232051B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662315785P 2016-03-31 2016-03-31
US62/315,785 2016-03-31
PCT/EP2017/057316 WO2017167754A1 (en) 2016-03-31 2017-03-28 Image guided robot for catheter placement

Publications (3)

Publication Number Publication Date
JP2019512354A true JP2019512354A (ja) 2019-05-16
JP2019512354A5 JP2019512354A5 (ja) 2020-05-07
JP7232051B2 JP7232051B2 (ja) 2023-03-02

Family

ID=58455031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018551379A Active JP7232051B2 (ja) 2016-03-31 2017-03-28 カテーテル配置のための画像誘導ロボット

Country Status (5)

Country Link
US (1) US20190105112A1 (ja)
EP (1) EP3435904A1 (ja)
JP (1) JP7232051B2 (ja)
CN (1) CN108882967A (ja)
WO (1) WO2017167754A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
KR102661990B1 (ko) 2015-09-18 2024-05-02 아우리스 헬스, 인크. 관형 조직망의 탐색
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
CN108990412B (zh) 2017-03-31 2022-03-22 奥瑞斯健康公司 补偿生理噪声的用于腔网络导航的机器人系统
JP7316749B2 (ja) 2017-06-16 2023-07-28 昭和産業株式会社 米飯の製造方法、炊飯用乳化物及び米飯
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
JP7330902B2 (ja) 2017-06-28 2023-08-22 オーリス ヘルス インコーポレイテッド 電磁歪み検出
CN110809452B (zh) 2017-06-28 2023-05-23 奥瑞斯健康公司 电磁场发生器对准
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11058493B2 (en) * 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
WO2019118767A1 (en) 2017-12-14 2019-06-20 Auris Health, Inc. System and method for estimating instrument location
KR20200101334A (ko) 2017-12-18 2020-08-27 아우리스 헬스, 인코포레이티드 관강내 조직망 내 기구 추적 및 항행을 위한 방법 및 시스템
CN110891469B (zh) 2018-03-28 2023-01-13 奥瑞斯健康公司 用于定位传感器的配准的系统和方法
KR102500422B1 (ko) 2018-03-28 2023-02-20 아우리스 헬스, 인코포레이티드 기구의 추정된 위치를 디스플레이하기 위한 시스템 및 방법
EP3801190A4 (en) 2018-05-30 2022-03-02 Auris Health, Inc. SYSTEMS AND METHODS FOR SENSOR-BASED BRANCH LOCATION PREDICTION
JP7214757B2 (ja) 2018-05-31 2023-01-30 オーリス ヘルス インコーポレイテッド 生理学的ノイズを検出する管腔網のナビゲーションのためのロボットシステム及び方法
KR102455671B1 (ko) 2018-05-31 2022-10-20 아우리스 헬스, 인코포레이티드 이미지-기반 기도 분석 및 매핑
WO2019231891A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Path-based navigation of tubular networks
EP4021329A4 (en) 2019-08-30 2023-05-03 Auris Health, Inc. SYSTEM AND METHOD FOR INSTRUMENT IMAGE RELIABILITY
EP4021331A4 (en) 2019-08-30 2023-08-30 Auris Health, Inc. SYSTEMS AND METHODS FOR WEIGHT-BASED REGISTRATION OF POSITION SENSORS
JP7494290B2 (ja) 2019-09-03 2024-06-03 オーリス ヘルス インコーポレイテッド 電磁歪み検出及び補償
US11298195B2 (en) 2019-12-31 2022-04-12 Auris Health, Inc. Anatomical feature identification and targeting
KR20220123076A (ko) 2019-12-31 2022-09-05 아우리스 헬스, 인코포레이티드 경피 접근을 위한 정렬 기법
US11602372B2 (en) 2019-12-31 2023-03-14 Auris Health, Inc. Alignment interfaces for percutaneous access

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005507679A (ja) * 2001-06-29 2005-03-24 イントゥイティブ・サージカル・インコーポレーテッド プラットフォーム関節手首
US20140343416A1 (en) * 2013-05-16 2014-11-20 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
WO2015142953A1 (en) * 2014-03-17 2015-09-24 Intuitive Surgical Operations, Inc. System and method for recentering imaging devices and input controls

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8295577B2 (en) * 2005-03-31 2012-10-23 Michael Zarkh Method and apparatus for guiding a device in a totally occluded or partly occluded tubular organ
US8398541B2 (en) * 2006-06-06 2013-03-19 Intuitive Surgical Operations, Inc. Interactive user interfaces for robotic minimally invasive surgical systems
US20070167702A1 (en) * 2005-12-30 2007-07-19 Intuitive Surgical Inc. Medical robotic system providing three-dimensional telestration
CA2654343C (en) * 2006-06-05 2015-02-10 Technion Research & Development Foundation Ltd. Controlled steering of a flexible needle
US9301807B2 (en) * 2007-06-13 2016-04-05 Intuitive Surgical Operations, Inc. Surgical system counterbalance
US8161838B2 (en) * 2008-12-22 2012-04-24 Intuitive Surgical Operations, Inc. Method and apparatus for reducing at least one friction force opposing an axial force exerted through an actuator element
CN102341046B (zh) * 2009-03-24 2015-12-16 伊顿株式会社 利用增强现实技术的手术机器人系统及其控制方法
US20120265051A1 (en) * 2009-11-09 2012-10-18 Worcester Polytechnic Institute Apparatus and methods for mri-compatible haptic interface
US20120226145A1 (en) * 2011-03-03 2012-09-06 National University Of Singapore Transcutaneous robot-assisted ablation-device insertion navigation system
US9572481B2 (en) * 2011-05-13 2017-02-21 Intuitive Surgical Operations, Inc. Medical system with multiple operating modes for steering a medical instrument through linked body passages
GB201115586D0 (en) * 2011-09-09 2011-10-26 Univ Bristol A system for anatomical reduction of bone fractures
CN109954196B (zh) * 2013-08-15 2021-11-09 直观外科手术操作公司 用于导管定位和插入的图形用户界面
CN105473098B (zh) * 2013-08-15 2019-03-26 直观外科手术操作公司 用于医疗程序确认的系统和方法
WO2015061674A1 (en) * 2013-10-25 2015-04-30 Intuitive Surgical Operations, Inc. Flexible instrument with grooved steerable tube
US11007026B2 (en) * 2013-10-25 2021-05-18 Intuitive Surgical Operations, Inc. Flexible instrument with embedded actuation conduits
US10912523B2 (en) * 2014-03-24 2021-02-09 Intuitive Surgical Operations, Inc. Systems and methods for anatomic motion compensation
DE102014009893B4 (de) * 2014-07-04 2016-04-28 gomtec GmbH Endeffektor für ein Instrument
JP6560338B2 (ja) * 2014-08-15 2019-08-14 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 可変入口ガイド構成を有する外科用システム
US11273290B2 (en) * 2014-09-10 2022-03-15 Intuitive Surgical Operations, Inc. Flexible instrument with nested conduits
WO2016069998A1 (en) * 2014-10-30 2016-05-06 Intuitive Surgical Operations, Inc. System and method for articulated arm stabilization
WO2016069989A1 (en) * 2014-10-30 2016-05-06 Intuitive Surgical Operations, Inc. System and method for an articulated arm based tool guide
WO2016114981A1 (en) * 2015-01-12 2016-07-21 Intuitive Surgical Operations, Inc. Devices, systems, and methods for anchoring actuation wires to a steerable instrument
WO2016126914A1 (en) * 2015-02-05 2016-08-11 Intuitive Surgical Operations, Inc. System and method for anatomical markers
US11285314B2 (en) * 2016-08-19 2022-03-29 Cochlear Limited Advanced electrode array insertion

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005507679A (ja) * 2001-06-29 2005-03-24 イントゥイティブ・サージカル・インコーポレーテッド プラットフォーム関節手首
US20140343416A1 (en) * 2013-05-16 2014-11-20 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
WO2015142953A1 (en) * 2014-03-17 2015-09-24 Intuitive Surgical Operations, Inc. System and method for recentering imaging devices and input controls

Also Published As

Publication number Publication date
CN108882967A (zh) 2018-11-23
WO2017167754A1 (en) 2017-10-05
EP3435904A1 (en) 2019-02-06
US20190105112A1 (en) 2019-04-11
JP7232051B2 (ja) 2023-03-02

Similar Documents

Publication Publication Date Title
JP7232051B2 (ja) カテーテル配置のための画像誘導ロボット
US11576730B2 (en) Systems and methods for registration of location sensors
JP7314136B2 (ja) 医療器具のナビゲーションおよびターゲット用のシステムおよび方法
US20230030708A1 (en) Object capture with a basket
US11534249B2 (en) Process for percutaneous operations
US20230181204A1 (en) Basket apparatus
US11857277B2 (en) Robotically controlled clot manipulation and removal
CN112804959A (zh) 用于伴随内窥镜和经皮医学规程的机器人系统和方法
JP2020503134A (ja) 形状検知デバイスを使用した医療ナビゲーションシステム及びその動作方法
KR20220058569A (ko) 위치 센서의 가중치-기반 정합을 위한 시스템 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211214

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211214

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211221

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220105

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220210

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220218

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220517

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220926

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221223

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230120

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230217

R150 Certificate of patent or registration of utility model

Ref document number: 7232051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150