JP2022141792A - 管腔ネットワーク内の医療装置の姿勢を特定するロボットシステム - Google Patents

管腔ネットワーク内の医療装置の姿勢を特定するロボットシステム Download PDF

Info

Publication number
JP2022141792A
JP2022141792A JP2022113040A JP2022113040A JP2022141792A JP 2022141792 A JP2022141792 A JP 2022141792A JP 2022113040 A JP2022113040 A JP 2022113040A JP 2022113040 A JP2022113040 A JP 2022113040A JP 2022141792 A JP2022141792 A JP 2022141792A
Authority
JP
Japan
Prior art keywords
virtual
depth
depth map
instrument
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022113040A
Other languages
English (en)
Other versions
JP2022141792A5 (ja
Inventor
リッティク ウマラネーニ,
Ummalaneni Ritwik
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Auris Health Inc
Original Assignee
Auris Health Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Auris Health Inc filed Critical Auris Health Inc
Publication of JP2022141792A publication Critical patent/JP2022141792A/ja
Publication of JP2022141792A5 publication Critical patent/JP2022141792A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00154Holding or positioning arrangements using guiding arrangements for insertion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0487Motor-assisted positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00477Coupling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/306Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3614Image-producing devices, e.g. surgical cameras using optical fibre
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/10Safety means specially adapted therefor
    • A61B6/102Protection against mechanical damage, e.g. anti-collision devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/488Diagnostic techniques involving pre-scan acquisition

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Otolaryngology (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)

Abstract

【課題】患者の解剖学的な管腔ネットワークを表す仮想管腔ネットワークの3次元モデルを生成することができ、仮想カメラが配置された位置における仮想管腔ネットワーク内のさまざまな位置を特定することができるナビゲーション支援医療装置のシステムおよび技術を提供する。【解決手段】いくつかの側面は、解剖学的な管腔ネットワークの取得画像に基づいて生成されたデプス情報の特徴と当該管腔ネットワークの仮想表現の仮想画像に基づいて生成されたデプス情報の特徴とを関連付けて、管腔ネットワーク内の医療装置の姿勢の側面を自動的に特定することに関する。【選択図】図1

Description

関連出願の相互参照
本願は、2017年6月23日出願の発明の名称が「管腔ネットワークのナビゲーション用の自動起動ロボットシステム」である米国仮特許出願15/631,691号の利益を主張し、その開示全体を参照により援用する。
本件開示のシステムおよび方法は医療手技に関し、より具体的には、ナビゲーション支援医療装置に関する。
内視鏡検査(気管支鏡検査など)の医療手技には、診断目的および/または治療目的で、患者の管腔(気管支など)の内部にアクセスしたり可視化したりすることが含まれる。手技においては、例えば内視鏡などの軟性の管状の道具が、患者の体腔内に挿入され、器具が内視鏡を通って診断および/または治療のために特定された組織部位に導かれる。
気管支鏡検査は、術者が患者の気管支や細気管支などの肺気道の内部状態を調べることができる医療手技である。気管支鏡検査の手技においては、気管支鏡と呼ばれる細径の軟性の管状の器具が、患者の口に挿入され、患者の咽喉を下って肺気道に入り、後の診断および治療のために特定された組織部位に導かれる。気管支鏡は、組織部位への経路を提供する内部ルーメン(「ワーキングチャネル」)を備えることができ、カテーテルや種々の医療器具を、ワーキングチャネルを経由して組織部位に挿入することができる。
内視鏡検査ナビゲーションシステムは、適応調整的な確率論(adaptively-adjusted probabilities)によってモデル化された種々の検知手法(内視鏡画像データ、電磁(EM)位置データ、ロボット位置データなど)を融合して用いることができる。確率論的なナビゲーション手法やその他のナビゲーション手法は、内視鏡の先端の追跡を開始するため、例えば、どの気管支であるかやその気管支のどの程度深い位置であるかやその気管支でどの程度回転しているかなどの推定など、内視鏡の先端が「どこにあるか」の初期の推定を基に行われる。いくつかの内視鏡検査技術には、患者の組織の3次元モデルが含まれたり、電磁場および位置センサを用いたナビゲーションによるガイドが行われたりする。手技の初めにおいては、3次元モデルの仮想空間と、3次元モデルによって表される患者の組織の物理空間と、電磁場との間の正確な整列(位置合わせ)については未知な部分がある。そのため、位置合わせの生成前や既存の位置合わせの精度に疑義がある場合などに、患者の組織内における内視鏡の位置を、3次元モデル内における対応する位置に精度よくマッピングできない可能性がある。
典型的には、ナビゲーションシステムでは、術者は、この初期の推定を生成するための一連の初期化ステップを行う必要がある。これには、例えば、気管支樹内の標識構造に対して多数の指定された位置や向きに気管支鏡を配置するよう(例えば、主竜骨、右竜骨、左竜骨にそれぞれ触れるなど)術者に指示することが含まれる。別の選択肢として、例えば、気管中央部から始まり各肺葉に入って、各気道内では気管支鏡の先端の中央位置を維持しつつ、初期的な気道の調査を行うよう術者に求めることがある。
このような初期化ステップにより、内視鏡の位置の初期の推定を行うことができるが、この手法には、手技の開始時にさらなる時間的な要件が加わるなどのいくつかの潜在的な欠点が伴う可能性がある。別の潜在的な欠点は、この初期化が完了して追跡が実行された後に、不都合な現象(患者の咳や動的気道虚脱など)が生じた場合に内視鏡の実際の位置が予測不能となる可能性があることである。このことにより、新たな「初期」位置の特定が必要になり、その結果、ナビゲーションシステムが術者に気管に戻って上記の初期化ステップを再度実行するよう要求する可能性がある。このようなやり直しによって、時間的な要件が追加され、内視鏡が細い末梢気道を通って目標の部位に向かってナビゲートされている場合などは特に重荷になりうる。
とりわけ上記の問題は、本件開示の管腔ネットワークナビゲーションのシステムおよび技術によって解決される。本件開示の技術により、患者の解剖学的な管腔ネットワークを表す仮想管腔ネットワークの3次元モデルを生成することができ、仮想カメラが配置された位置における仮想管腔ネットワーク内のさまざまな位置を特定することができる。本件開示の技術により、仮想管腔ネットワークの内部表面と特定の位置に配置された仮想カメラとの間の距離を表す仮想デプスマップを生成することができる。この仮想デプスマップから、例えば気道分岐を表す仮想デプスマップの場合はピーク間距離など、種々の特徴を抽出することができ、抽出された特徴は仮想カメラの位置と関連付けて記憶することができる。医療手技時に、内視鏡の遠位端に画像取得装置が設けることができ、本件開示のナビゲーション技術により、撮像装置から受信した画像データに基づくデプスマップを生成することができる。本件開示の技術により、生成されたデプスマップから種々の特徴を推定し、仮想デプスマップから抽出して記憶された特徴を用いて、抽出された複数の特徴の関連性を計算し、さらに関連付けられた仮想カメラの位置器具の遠位端の初期位置として用いることができる。有利には、この技術によって、確率論的なナビゲーションシステム(あるいは他のナビゲーションシステム)において、上記の手動による初期化ステップを行う必要なく内視鏡位置の初期推定を行うことができる。また、手技全体において本件開示の技術を用いて、位置合わせの精度を高めたり、いくつかの実施形態によれば、不都合な現象が発生しても、目標の解剖学的特徴まで管腔ネットワークを戻るようナビゲーションを行うことなく、追加の「初期推定」を行ったりすることができる。
したがって、一側面は、患者の解剖学的な管腔ネットワークのナビゲーションを支援する方法であって、前記方法は1つのセットの1つまたは複数の計算装置によって実行され、前記方法は前記解剖学的な管腔ネットワーク内に位置する器具の遠位端にある撮像装置によって取得された画像データを受信することと、前記解剖学的な管腔ネットワークを表す仮想管腔ネットワーク内の仮想位置に位置する仮想撮像装置の視点からシミュレーションされた仮想画像から導出される仮想特徴にアクセスすることと、前記画像データから導出される特徴と前記仮想画像から導出される前記仮想特徴との間の類似度を計算することと、前記仮想特徴に関連付けられた前記仮想位置に基づいて、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の姿勢を特定することと、を含む方法に関する。
いくつかの実施形態では、前記方法は、前記画像データに基づいてデプスマップを生成することであって、前記仮想特徴は、前記仮想画像に関連付けられている仮想デプスマップから導出され、前記類似度を計算することは、前記デプスマップの1つまたは複数の特徴と前記仮想デプスマップの1つまたは複数の特徴とを関連付けることに少なくとも部分的に基づく、こと、をさらに含む。
いくつかの実施形態では、前記方法は、前記画像データの複数の画素の各画素に対して、前記撮像装置と前記画素に対応する前記解剖学的な管腔ネットワーク内の組織表面との間の推定距離を表すデプス値を計算することによって、前記デプスマップを生成することと、前記デプスマップ内の第1のデプス基準に対応する前記複数の画素のうちの第1の画素と、前記デプスマップ内の第2のデプス基準に対応する前記複数の画素のうちの第2の画素とを識別することと、前記第1の画素と前記第2の画素との間の距離を表す第1の値を計算することであって、前記仮想デプスマップは、複数の仮想画素の仮想画素ごとに、前記仮想撮像装置と前記仮想画素によって表される前記仮想管腔ネットワークの部分との間の仮想距離を表す仮想デプス値を有し、前記仮想画像から導出される前記仮想特徴にアクセスすることは、前記仮想デプスマップ内の第1のデプス基準と第2のデプス基準との間の距離を表す第2の値にアクセスすることを含む、ことと、前記第1の値を前記第2の値と比較することに基づいて前記類似度を計算することと、をさらに含む。
いくつかの実施形態では、前記方法は、それぞれが前記仮想管腔ネットワーク内の複数の仮想位置の異なる位置を表す複数の仮想デプスマップにおける、第1のデプス基準と第2のデプス基準との間の距離を表す複数の値にアクセスすることと、前記複数の値のうちの他の値よりも前記第1の値により密接に対応する前記第2の値に基づいて前記類似度を計算することと、をさらに含む。いくつかの実施形態では、前記方法は、前記解剖学的な管腔ネットワークは気道を有し、前記画像データは前記気道の分岐を表し、前記方法はさらに前記第1のデプス基準と前記第2のデプス基準の一方を、前記デプスマップと前記仮想デプスマップのそれぞれにおける右気管支として識別することと、前記デプスマップにおける前記右気管支の第1の位置と前記仮想デプスマップにおける前記右気管支の第2の位置との間の角距に基づいて、前記器具の回転を特定することであって、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の前記姿勢が前記特定された回転を含む、ことと、をさらに含む。
いくつかの実施形態では、前記方法は、前記デプスマップと前記仮想デプスマップのそれぞれにおいて、3つ以上のデプス基準を識別することと、前記デプスマップと前記仮想デプスマップのそれぞれにおいて、前記デプス基準を接続するポリゴンの形状および位置を特定することと、前記デプスマップの前記ポリゴンの形状および位置を前記仮想デプスマップの前記ポリゴンの形状および位置と比較することに基づいて前記類似度を計算することと、をさらに含む。いくつかの実施形態では、前記デプスマップを生成することは、写真傾斜測定に基づく。
いくつかの実施形態では、前記方法は、前記位置を含む複数の入力に基づいて、前記解剖学的な管腔ネットワーク内の前記器具の確率論的な状態を計算することと、前記確率論的な状態に少なくとも部分的に基づいて、前記解剖学的な管腔ネットワークを通る前記器具のナビゲーションをガイドすることと、さらに含む。いくつかの実施形態では、前記方法は、前記確率論的な状態を計算して前記確率論的な状態に基づいて前記解剖学的な管腔ネットワークの前記ナビゲーションをガイドするナビゲーションシステムを初期化することであって、前記ナビゲーションシステムの前記初期化は、前記位置に基づいて確率計算器の事前確率を設定することを含む、ことをさらに含む。いくつかの実施形態では、前記方法は、前記器具の前記遠位端の更新された姿勢を表す追加データを受信することと、前記追加データに基づいて、前記確率計算器の尤度関数を設定することと、前記事前確率および前記尤度関数に基づいて、前記確率計算器を使用して前記確率論的な状態を特定することと、をさらに含む。
いくつかの実施形態では、前記方法は、前記確率論的な状態を計算するナビゲーションシステムに前記複数の入力を提供することであって、第1の入力は、前記器具の前記遠位端の前記姿勢を含み、少なくとも1つの追加の入力は、前記器具の動きを作動させるロボットシステムからのロボット位置データと前記器具の前記遠位端にある位置センサから受信したデータとの一方または両方を含む、ことと、前記第1の入力と前記少なくとも1つの追加の入力に基づいて、前記器具の前記確率論的な状態を計算することと、をさらに含む。
いくつかの実施形態では、前記方法は、前記計算された類似度に基づいて特定される前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の前記姿勢に少なくとも部分的に基づいて、前記仮想管腔ネットワークの座標系と前記解剖学的な管腔ネットワークの周囲に発生された電磁場の座標系との間の位置合わせを特定することをさらに含む。いくつかの実施形態では、前記位置を特定することは、前記器具の前記遠位端が前記解剖学的な管腔ネットワーク内のセグメント内を進行する距離を特定することを含む。
別の側面は、患者の解剖学的な管腔ネットワークのナビゲーションを支援するシステムであって、前記システムは器具の遠位端にある撮像装置と、実行可能な命令が記憶された少なくとも1つのコンピュータ可読メモリと、前記少なくとも1つのコンピュータ可読メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行して前記システムに少なくとも前記解剖学的な管腔ネットワーク内に位置する前記器具の前記遠位端にある前記撮像装置によって取得された画像データを受信することと、前記解剖学的な管腔ネットワークを表す仮想管腔ネットワーク内の仮想位置に位置する仮想撮像装置の視点からシミュレーションされた仮想画像から導出される仮想特徴にアクセスすることと、前記画像データから導出される特徴と前記仮想画像から導出される前記仮想特徴との間の類似度を計算することと、前記仮想特徴に関連付けられた前記仮想位置に基づいて、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の姿勢を特定することと、を実行させる1つまたは複数のプロセッサと、を有することを特徴とするシステムに関する。
いくつかの実施形態では、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも前記画像データに基づいてデプスマップを生成することであって、前記仮想画像は仮想デプスマップを表す、ことと、前記デプスマップの1つまたは複数の特徴と前記仮想デプスマップの1つまたは複数の特徴とを関連付けることに少なくとも部分的に基づいて、前記類似度を特定することと、を実行させる。いくつかの実施形態では、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも前記画像データの複数の画素の各画素に対して、前記撮像装置と前記画素に対応する前記解剖学的な管腔ネットワーク内の組織表面との間の推定距離を表すデプス値を計算することによって、前記デプスマップを生成することと、前記デプスマップ内の第1のデプス基準に対応する前記複数の画素のうちの第1の画素と、前記デプスマップ内の第2のデプス基準に対応する前記複数の画素のうちの第2の画素とを識別することと、前記第1の画素と前記第2の画素との間の距離を表す第1の値を計算することであって、前記仮想デプスマップは、複数の仮想画素の仮想画素ごとに、前記仮想撮像装置と前記仮想画素によって表される前記仮想管腔ネットワークの部分との間の仮想距離を表す仮想デプス値を有し、前記仮想画像から導出される前記特徴は、前記仮想デプスマップ内の第1のデプス基準と第2のデプス基準との間の距離を表す第2の値を含む、ことと、前記第1の値を前記第2の値と比較することに基づいて前記類似度を特定することと、を実行させる。
いくつかの実施形態では、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくともそれぞれが前記仮想管腔ネットワーク内の複数の仮想位置の異なる位置を表す複数の仮想デプスマップにおける、第1のデプス基準と第2のデプス基準との間の距離を表す複数の値にアクセスすることと、前記複数の値のうちの他の値よりも前記第1の値により密接に対応する前記第2の値に基づいて前記類似度を計算して、前記第2の値を前記複数の値のうち前記第1の値に最も一致するものとして識別することと、を実行させる。いくつかの実施形態では、前記解剖学的な管腔ネットワークは気道を有し、前記画像データは前記気道の分岐を表し、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも前記第1のデプス基準と前記第2のデプス基準の一方を、前記デプスマップと前記仮想デプスマップのそれぞれにおける右気管支として識別することと、前記デプスマップにおける前記右気管支の第1の位置と前記仮想デプスマップにおける前記右気管支の第2の位置との間の角距に基づいて、前記器具の回転を特定することであって、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の前記姿勢が前記特定された回転を含む、ことと、を実行させる。
いくつかの実施形態では、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも前記デプスマップと前記仮想デプスマップのそれぞれにおいて、3つ以上のデプス基準を識別することと、前記デプスマップと前記仮想デプスマップのそれぞれにおいて、前記デプス基準を接続するポリゴンの形状および位置を特定することと、前記デプスマップの前記ポリゴンの形状および位置を前記仮想デプスマップの前記ポリゴンの形状および位置と比較することに基づいて前記類似度を計算することと、を実行させる。いくつかの実施形態では、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも写真傾斜技術に基づいて前記デプスマップを生成させる。
いくつかの実施形態では、前記1つまたは複数のプロセッサはナビゲーションシステムと通信し、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも前記位置を含む複数の入力に少なくとも部分的に基づいて、前記ナビゲーションシステムを使用して前記解剖学的な管腔ネットワーク内の前記器具の確率論的な状態を計算することと、前記ナビゲーションシステムによって計算された前記確率論的な状態に少なくとも部分的に基づいて、前記解剖学的な管腔ネットワークを通る前記器具のナビゲーションをガイドすることと、を実行させる。システムのいくつかの実施形態は、前記ナビゲーション時に前記器具の動きをガイドするロボットシステムをさらに有する。いくつかの実施形態では、前記複数の入力は、前記ロボットシステムから受信したロボット位置データを含み、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも、前記位置と前記ロボット位置データとに少なくとも部分的に基づいて、前記ナビゲーションシステムを使用して前記器具の前記確率論的な状態を計算すること、を実行させる。システムのいくつかの実施形態は、器具の前記遠位端に位置センサをさらに有し、前記複数の入力は、前記位置センサから受信したデータを含み、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも、前記位置と前記位置センサから受信したデータとに少なくとも部分的に基づいて、前記ナビゲーションシステムを使用して前記器具の前記確率論的な状態を計算すること、を実行させる。いくつかの実施形態では、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも、前記位置に少なくとも部分的に基づいて、前記仮想管腔ネットワークの座標系と前記解剖学的な管腔ネットワークの周囲に発生された電磁場の座標系との間の位置合わせを特定すること、を実行させる。
別の側面は、命令が記憶された非一時的なコンピュータ可読記憶媒体であって、前記命令が実行されると、少なくとも1つの計算装置に患者の解剖学的な管腔ネットワークの内部表面の仮想3次元モデルにアクセスすることと、前記仮想3次元モデル内の複数の仮想位置を識別することと、前記仮想3次元モデル内の前記複数の仮想位置の各仮想位置に対して前記仮想位置に位置する仮想撮像装置と、前記仮想位置に位置するときの前記仮想撮像装置の視野内にある前記内部表面の位置と、の間の仮想距離を表す仮想デプスマップを生成することと、前記仮想デプスマップから少なくとも1つの仮想特徴を導出することと、前記複数の仮想位置を前記対応する仮想デプスマップから導出された前記少なくとも1つの仮想特徴に関連付けるデータベースを生成することと、を実行させることを特徴とする非一時的なコンピュータ可読記憶媒体に関する。
いくつかの実施形態では、前記命令が実行されると、少なくとも1つの計算装置に少なくとも、医療手技時に前記解剖学的な管腔ネットワークを通って器具のナビゲーションをガイドするナビゲーションシステムに前記データベースを提供すること、を実行させる。いくつかの実施形態では、前記命令が実行されると、少なくとも1つの計算装置に少なくとも前記器具の遠位端に位置する撮像装置を表すデータにアクセスすることと、前記撮像装置の画像取得パラメータを識別することと、前記撮像装置の前記画像取得パラメータに対応するように前記仮想撮像装置の仮想画像取得パラメータを設定することと、を実行させる。
いくつかの実施形態では、前記命令が実行されると、少なくとも1つの計算装置に少なくとも、前記仮想画像取得パラメータに基づいて前記仮想デプスマップを生成すること、を実行させる。いくつかの実施形態では、前記画像取得パラメータは、視野、レンズ歪み、焦点距離、輝度シェーディングのうち1つまたは複数を含む。
いくつかの実施形態では、前記命令が実行されると、少なくとも1つの計算装置に少なくとも前記複数の仮想位置の各仮想位置に対して前記仮想デプスマップにおいて、第1のデプス基準および第2のデプス基準を識別することと、前記第1のデプス基準と前記第2のデプス基準との間の距離を表す値を計算することと、を実行させ、前記複数の仮想位置と前記対応する値とを関連付けることによって、前記データベースを作成することと、を実行させる。
いくつかの実施形態では、前記命令が実行されると、少なくとも1つの計算装置に少なくとも前記複数の仮想位置の各仮想位置に対して前記仮想デプスマップにおいて、3つ以上のデプス基準を識別することと、前記3つ以上のデプス基準を接続するポリゴンの形状および位置を特定することと、前記複数の仮想位置と前記対応するポリゴンの形状および位置とを関連付けることによって、前記データベースを作成すること、を実行させる。いくつかの実施形態では、前記命令が実行されると、少なくとも1つの計算装置に少なくとも前記患者の前記解剖学的な管腔ネットワークを表す一連の2次元画像から3次元ボリュームデータを生成することと、前記3次元ボリュームデータから前記解剖学的な管腔ネットワークの内部表面の前記仮想3次元モデルを形成することと、を実行させる。いくつかの実施形態では、前記命令が実行されると、少なくとも1つの計算装置に少なくとも、コンピュータ断層撮影システムを制御して前記一連の2次元画像を取得すること、を実行させる。いくつかの実施形態では、前記命令が実行されると、少なくとも1つの計算装置に少なくとも、前記3次元ボリュームデータにボリュームセグメンテーションを適用することによって前記仮想3次元モデルを形成すること、を実行させる。
別の側面は、患者の解剖学的な管腔ネットワークのナビゲーションを支援する方法であって、前記方法は1つのセットの1つまたは複数の計算装置によって実行され、前記方法は前記解剖学的な管腔ネットワークの内部を表す立体画像セットを受信することと、前記立体画像セットに基づいて、デプスマップを生成することと、仮想管腔ネットワーク内の位置に位置する仮想撮像装置の視点からシミュレーションされた仮想画像から導出される仮想特徴にアクセスすることと、前記デプスマップから導出される特徴と前記仮想画像から導出される前記仮想特徴との間の類似度を計算することと、前記仮想特徴に関連付けられた前記仮想位置に基づいて、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の姿勢を特定することと、を含む方法に関する。
いくつかの実施形態では、前記立体画像セットを生成することは、器具の遠位端の撮像装置を、前記解剖学的な管腔ネットワーク内の第1の位置に位置決めすることと、前記第1の位置に位置する前記撮像装置によって、前記解剖学的な管腔ネットワークの内部の第1の画像を取得することと、前記撮像装置をロボット制御して、前記撮像装置を既知の距離だけ移動させて前記解剖学的な管腔ネットワーク内の第2の位置に移動させることと、前記第2の位置に位置する前記撮像装置によって、前記解剖学的な管腔ネットワークの内部の第2の画像を取得することと、を含む。いくつかの実施形態では、前記撮像装置をロボット制御して前記既知の距離だけ移動させることは、前記撮像装置を収縮させることと前記撮像装置を角度回転させることの一方または両方を含む。
本件開示の態様について、添付の図面および表と共に以下に説明するが、例示であって開示の態様を限定するものではなく、同様の構成要素には同様の名称を付す。
気管支鏡検査手技の診断および/または治療用に構成されたカートベースの ロボットシステムの一実施形態を示す図である。 図1のロボットシステムの別の態様を示す図である。 尿管鏡検査用に構成された図1のロボットシステムの一実施形態を示す図で ある。 血管手技用に構成された図1のロボットシステムの一実施形態を示す図であ る。 気管支鏡検査手技用に構成されたテーブルベースのロボットシステムの一実 施形態を示す図である。 図5のロボットシステムの代替の図である。 ロボットアームを収容するように構成されたシステムの一例を示す図である 。 尿管鏡検査用に構成されたテーブルベースのロボットシステムの一実施形態 を示す図である。 腹腔鏡検査用に構成されたテーブルベースのロボットシステムの一実施形態 を示す図である。 ピッチ調整または傾き調整された図5~9のテーブルベースのロボットシ ステムの一実施形態を示す図である。 図5~10のテーブルベースのロボットシステムのテーブルとカラムとの 間の接続機構の詳細図である。 例示的な器具駆動部を示す図である。 組になった器具駆動部を有する例示的な医療器具を示す図である。 駆動ユニットの軸が器具の細長いシャフトの軸と平行である、器具駆動部 および器具の代替の設計を示す図である。 実施形態の一例における、図13や14の器具の位置など、図1~10の ロボットシステム1つまたは複数の要素の位置を推定する位置決めシステムを示すブ ロック図である。 開示のナビゲーションシステムおよび技術の1つまたは複数の態様を実 装する操作環境の一例を示す図である。 図16Aの環境においてナビゲートされる管腔ネットワークの一例を示 す図である。 図16Bの管腔ネットワーク内における器具の動きをガイドするロボッ トアームの一例を示す図である。 一実施形態における、医療ロボットシステムの一例のコマンドコンソール の一例を示す図である。 本件開示の画像生成機能および電磁感知機能を有する内視鏡の一例を示す 図である。 本件開示のナビゲーションシステムの概略ブロック図である。 抽出された仮想特徴のデータセットを生成するプロセス例のフローチャー トである。 図20の抽出された仮想特徴のデータセットを用いて、デプス情報の特徴 間の取得された内視鏡画像と計算された類似度とに基づいてデプス情報を生成する手 術時のプロセス例のフローチャートである。
(1.はじめに)
本件開示の態様は、腹腔鏡検査などの低侵襲の手技や内視鏡検査などの非侵襲の手技を含む種々の医療手技を実行可能なロボット対応医療システムに組み込むことができる。内視鏡検査の手技においては、本システムは、気管支鏡検査、尿管鏡検査、消化器病検査などを実行することができる。
本システムは、さまざまな手技を実行できることに加えて、術者を支援する強化された画像取得やガイドなど、追加の利点を提供することができる。また、本システムは、扱いにくいアームの動きや位置などに対応する必要なく、人工工学による位置から手技を行うことが可能な機能を術者に提供することができる。さらに、本システムは、システムの1つまたは複数の器具を1人のユーザで制御可能な使いやすさが向上した手技を行うことが可能な機能を術者に提供することができる。
以下に、例示目的の図面とともに種々の実施形態について説明する。開示の技術的思想のその他多数の実装が可能であり、さまざまな利点が開示の実装と共に得られる。また、ここには、参照用および多数の節の位置がわかるように見出しが含まれている。これらの見出しは、見出しが示す技術思想の範囲を制限するものではない。それぞれの技術思想は本明細書全体にわたって適用されてよい。
(A.ロボットシステム-カート)
ロボット対応医療システムは、特定手技に応じてさまざまに構成することができる。図1は、気管支鏡検査の診断手技および/または治療樹技用に配置されたカートベースのロボット対応システム10の一実施形態を示す。気管支検査時に、システム10は、気管支鏡検査用の手技に特化した気管支鏡を自然開口部のアクセスポイント(この例ではテーブルに配置された患者の口など)に操作可能な内視鏡13などの医療器具を搬送して診断用の道具および/または治療用の道具を搬送するための、1つまたは複数のロボットアーム12を有するカート11を備える。図に示すように、カート11は、当該アクセスポイントにアクセスするために、患者の上半身に近い位置に配置されている。同様に、ロボットアーム12は、当該アクセスポイントに対して気管支鏡を配置するように作動可能である。図1に示す配置は、胃腸に関する(GI;gastro-intestinal)手技用の特別な内視鏡である胃鏡を用いた胃腸に関する手技を行うときにも使用できる。図2は、カートの一例である実施形態をより詳細に示す。
引き続き図1を参照すると、カート11が適切に位置決めされると、ロボットアーム12は操縦可能な内視鏡13を患者に、ロボットにより、手動により、またはそれらの組み合わせにより挿入することができる。図示のように、操縦可能な内視鏡13は内側リーダ部分および外部シース部分などの少なくとも2つの入れ子式部分を備えることができ、各部分は器具ドライバ28のセットから別個の器具ドライバに結合され、各器具ドライバは個々のロボットアームの遠位端に結合される。リーダ部分をシース部分と同軸に整列させることを容易にする、器具ドライバ28のこの線形配置は、1つ以上のロボットアーム12を異なる角度および/または位置に操作することによって、空間内で再配置され得る「仮想レール」29を作成する。本明細書で説明する仮想レールは破線を使用して図示され、したがって、破線はシステムのいかなる物理的構造も示さない。仮想レール29に沿った器具ドライバ28の移動は外部シース部分に対して内側リーダ部分を入れ子式にし、または内視鏡13を患者から前進または後退させる。仮想レール29の角度は、臨床用途または医師の好みに基づいて、調整、移動、および旋回されてもよい。例えば、気管支鏡検査では、図示のような仮想レール29の角度および位置が内視鏡13を患者の口内に曲げることに起因する摩擦を最小限に抑えながら、内視鏡13への医師のアクセスを提供することの折衷案を表す。
内視鏡13は、挿入後、ロボットシステムからの正確なコマンドを使用して、対象の目的地または手術部位に到達するまで、患者の気管および肺に向けられ得る。患者の肺ネットワークを通るナビゲーションを強化し、かつ/または所望の標的に到達するために、内視鏡13を操作して、外部シース部分から内側リーダ部分を入れ子式に延ばして、関節動作を強化し、曲げ半径を大きくすることができる。別個の器具ドライバ28の使用はまた、リーダ部分およびシース部分が、互いに独立して駆動されることを可能にする。
例えば、内視鏡13は例えば、患者の肺内の病変または小結節などの標的に生検針を送達するように指示されてもよい。針は病理学者によって分析されるべき組織サンプルを得るために、内視鏡の長さにわたるワーキングチャネルに沿って展開され得る。病理学的結果に応じて、追加のツールが追加の生検のために、内視鏡のワーキングチャネルの下方に配置されてもよい。悪性である結節を同定した後、内視鏡13は、潜在的に癌性の組織を切除するためのツールを内視鏡的に送達し得る。いくつかの例において、診断および治療処置は、別々の手続で送達される必要があり得る。これらの状況では、内視鏡13はまた、基準を送達して、対象小結節の位置を「マーキング」するために使用され得る。他の例において、診断および治療処置は、同じ手順の間に送達され得る。
システム10はまた、可動タワー30を含むことができ、このタワー30は、支持ケーブルを介してカート11に接続されて、カート11に対する制御、電子機器、流体工学、光学系、センサ、および/または電力のためのサポートを提供することができる。このような機能をタワー30内に配置することにより、より小さなフォームファクタのカート11が可能になり、これは、手術医師およびそのスタッフによって、より容易に調整および/または再配置され得る。さらに、カート/テーブルと支持タワー30との間の機能の分割は手術室の混乱を低減し、臨床作業の流れを改善することを容易にする。カート11を患者の近くに配置することができるが、タワー30は手技中に邪魔にならないように離れた場所に収容することができる。
上述のロボットシステムのサポートにおいて、タワー30はコンピュータプログラム命令を、例えば、永続的磁気記憶ドライブ、ソリッドステートドライブなどの非一時的コンピュータ可読記憶媒体内に記憶するコンピュータベースの制御システムの構成要素を含むことができる。これらの命令の実行は、実行がタワー30またはカート11内で行われるかどうかにかかわらず、システム全体またはそのサブシステムを制御することができる。例えば、コンピュータシステムのプロセッサによって実行される場合、命令はロボットシステムの構成要素に、関連するキャリッジおよびアームマウントを作動させ、ロボットアームを作動させ、医療器具を制御させることができる。例えば、制御信号の受信に応答して、ロボットアームの関節内のモータは、アームを特定の姿勢に位置決めすることができる。
タワー30はまた、内視鏡13を通して展開され得るシステムに制御された潅注および吸引能力を提供するために、ポンプ、流量計、弁制御、および/または流体アクセスを含み得る。これらの構成要素は、タワー30のコンピュータシステムを使用して制御することもできる。いくつかの実施形態では、洗浄および吸引能力が別個のケーブルを介して内視鏡13に直接送達されてもよい。
タワー30はカート11にフィルタされ保護された電力を供給するように設計された電圧およびサージプロテクタを含むことができ、それによって、カート11内に電力変圧器および他の補助電力部品を配置することが回避され、その結果、より小さく、より可動性の高いカート11が得られる。
タワー30はまた、ロボットシステム10全体に展開されるセンサのための支持装置を含むことができる。例えば、タワー30はロボットシステム10全体にわたって光学センサまたはカメラから受信したデータを検出し、受信し、処理するための光電子機器を含むことができる。制御システムと組み合わせて、このような光電子機器を使用して、タワー30を含むシステム全体に配置された任意の数のコンソールに表示するためのリアルタイム画像を生成することができる。同様に、タワー30は配置された電磁(EM;Electromagnetic)センサから受信された信号を受信し、処理するための電子サブシステムも含むことができる。タワー30はまた、医療機器内または医療機器上の電磁センサによる検出のために電磁場発生器を収容し、位置決めするために使用されてもよい。
タワー30は、システムの残りの部分で利用可能な他のコンソール、例えばカートの上部に取り付けられたコンソールに加えて、コンソール31を含むこともできる。コンソール31は、ユーザインタフェースと、医師のオペレータのためのタッチスクリーンなどの表示画面とを含むことができる。システム10内のコンソールは一般に、ロボット制御と、内視鏡13のナビゲーションおよび位置決め情報などの手術前およびリアルタイム情報との両方を提供するように設計される。コンソール31が医師が利用できる唯一のコンソールではない場合、看護師のような第二のオペレータによって、患者の健康状態や活動状態とシステムの動作を監視し、ナビゲーションおよび位置決め情報などの手続固有のデータを提供するために使用することができる。
タワー30は、1つまたは複数のケーブルまたは接続部(図示せず)を介してカート11および内視鏡13に連結することができる。いくつかの実施形態では、タワー30からのサポート機能が単一のケーブルを介してカート11に提供されてもよく、手術室を単純化し、混乱を解消する。他の実施形態では、特定の機能が別個のケーブル配線および接続で結合されてもよい。例えば、単一の電力ケーブルを介してカートに電力を供給することができるが、制御、光学、流体、および/またはナビゲーションのための支持体は別個のケーブルを介して提供することができる。
図2は、図1に示されたカートベースのロボット使用可能システムからのカートの実施形態の詳細図を提供する。カート11は全体として、細長い支持構造14(しばしば「カラム」と呼ばれる)、カート基部15、およびカラム14の上端部にコンソール16を含み、カラム14は、1つまたは複数のロボットアーム12(図2には3つが示されている)の展開を支持するためのキャリッジ17(あるいは「アーム支持体」)などの1つまたは複数のキャリッジを含むことができる。キャリッジ17は、患者に対してより良好に位置決めするためにロボットアーム12の基部を調整するために垂直軸に沿って回転する個別に構成可能なアームマウントを含むことができる。キャリッジ17はまた、キャリッジ17がカラム14に沿って垂直に移動することを可能にするキャリッジインタフェース19を含む。
キャリッジインタフェース19は、キャリッジ17の垂直方向の移動を案内するためにカラム14の両側に配置されたスロット20のようなスロットを介してカラム14に接続されている。スロット20はキャリッジをカート基部15に対して種々の垂直高さに位置決めし、保持するための垂直移動インタフェースを含む。キャリッジ17の垂直移動は、カート11が様々なテーブル高さ、患者サイズ、および医師の好みに合うようにロボットアーム12の到達範囲を調整することを可能にする。同様に、キャリッジ17上の個々に構成可能なアームマウントは、ロボットアーム12のロボットアームベース21が様々な構成で角度付けされることを可能にする。
いくつかの実施形態では、スロット20がキャリッジ17が垂直に移動するときに、カラム14の内部チャンバおよび垂直移動インタフェース内への汚れおよび流体の進入を防止するために、スロット表面と面一であり、かつ平行であるスロットカバーで補足されてもよい。スロットカバーは、スロット20の縦上端部および底部の近くに配置されたバネスプールの対を通して展開されてもよい。カバーはキャリッジ17が垂直に上下に平行移動するときに、展開されてそれらのコイル状態から伸縮するまで、スプール内でコイル状に巻かれる。スプールのばね荷重はキャリッジ17がスプールに向かって移動するときにカバーをスプール内に引っ込める力を提供し、一方、キャリッジ17がスプールから離れるように移動するときにも緊密な捺印を維持する。カバーは例えば、キャリッジ17が移動するときにカバーの適切な伸縮を確実にするために、キャリッジインタフェース19内の括弧を使用して、キャリッジ17に接続されてもよい。
カラム14はユーザ入力、例えばコンソール16からの入力に応答して生成される制御信号に応答して機械的な方法でキャリッジ17を移動させるために、垂直に整列された親ねじを使用するように設計された、歯車およびモータなどの機構を内部に備えることができる。
ロボットアーム12は一般に、一連のジョイント24によって接続された一連のリンク機構23によって分離されたロボットアーム基部21およびエンドエフェクタ22を備えることができ、各ジョイントは独立したアクチュエータを備え、各アクチュエータは独立して制御可能なモータを備える。各独立して制御可能なジョイントは、ロボットアームに利用可能な独立した自由度を表す。アーム12の各々は7つのジョイントを有し、したがって、7つの自由度を提供する。多数の関節は多数の自由度をもたらし、「冗長である」自由度を可能にする。冗長な自由度は、ロボットアーム12が異なる連結位置および関節角を使用して、空間内の特定の位置、向き、および軌道にそれぞれのエンドエフェクタ22を位置決めすることを可能にする。これにより、システムは医師が腕の関節を患者から離れた臨床的に有利な位置に移動させて、腕の衝突を回避して、より広いアクセス範囲を実現しながら、空間内の所望の位置から医療器具を位置決めしたり方向付けたりすることが可能になる。
カート基部15は、床上のカラム14、キャリッジ17、およびアーム12の重量を釣り合わせる。したがって、カート基部15は、電子機器、モータ、電源などのより重い構成要素、ならびにカートの移動および/または固定のいずれかを可能にする構成要素を収容する。例えば、カート基部15は、手技の前にカートが部屋の周りを容易に移動することを可能にする、回転可能なホイール形状のキャスタ25を含む。適切な位置に到達した後、キャスタ25は、手続中にカート11を所定の位置に保持するためにホイールロックを使用して固定されてもよい。
コンソール16はカラム14の垂直端部に配置されているので、ユーザ入力を受け取るためのユーザインタフェースと、医師ユーザに手術前および手術中の両方のデータを提供するための表示画面(または、例えば、タッチスクリーン26などの二重目的装置)との両方を可能にする。タッチスクリーン26上の潜在的な術前データは、術前計画、術前コンピュータ断層撮影(CT)スキャンから導出されたナビゲーションおよびマッピングデータ、および/または術前患者インタビューからの注を含むことができる。ディスプレイ上の手術中データは、器具から提供される光学情報、センサおよびセンサからの座標情報、ならびに呼吸、心拍数、および/または脈拍などの患者の活動統計を含むことができる。コンソール16は医師がキャリッジ17の反対側のカラム14の側からコンソールにアクセスすることができるように、配置され、傾斜されてもよい。この位置から、医師はカート11の背後からコンソール16を操作しながら、コンソール16、ロボットアーム12、および患者を見ることができる。図示のように、コンソール16はまた、カート11の操縦および安定化を補助するためのハンドル27を含む。
図3は、尿管鏡検査のために配置されたロボット使用可能システム10の実施形態を示す。尿管鏡処置では、カート11が患者の尿道および尿管を横切るように設計された処置特有の内視鏡である尿管鏡32を患者の下腹部領域に送達するように配置されてもよい。尿管鏡検査では、尿管鏡32を患者の尿道と直接整列させて、領域内の繊細な解剖学的構造に対する摩擦および力を低減することが望ましい場合がある。図に示されるように、カート11はロボットアーム12が患者の尿道への直接的な線形アクセスのために尿管鏡32を位置決めすることを可能にするために、テーブルの足に整列され得る。テーブルの足から、ロボットアーム12は、尿管鏡32を仮想レール33に沿って尿道を通して患者の下腹部に直接挿入することができる。
尿道への挿入後、気管支鏡検査におけるのと同様の制御手法を使用して、尿管鏡32は診断および/または治療用途のために、膀胱、尿管、および/または腎臓内にナビゲートされ得る。例えば、尿管鏡32は、尿管鏡32のワーキングチャネルの下に配置されたレーザまたは超音波砕石装置を用いて、尿管および腎臓に向けられて、腎結石の蓄積を破壊することができる。砕石術が完了した後、得られた結石断片は、尿管鏡32の下方に配置されたバスケットを用いて除去され得る。
図4は、血管処置のために同様に配置されたロボット使用可能システムの実施形態を示す。血管処置では、システム10がカート11が操縦可能なカテーテルなどの医療機器34を患者の脚の大腿動脈内のアクセスポイントに送ることができるように構成することができる。大腿動脈はナビゲーションのためのより大きな直径と、患者の心臓への比較的遠回りで曲がりくねった経路との両方の特徴があり、このためナビゲーションを単純化できる。尿管鏡処置におけるように、カート11は、ロボットアーム12が患者の大腿/股関節領域における大腿動脈アクセスポイントへの直接的な線形アクセスを有する仮想レール35を提供することを可能にするように、患者の脚および下腹部に向かって配置され得る。動脈内への挿入後、医療機器34は、器具ドライバ28を移動させることによって方向付けられ、挿入されてもよい。あるいは、カートが例えば、肩および手首の近くの頸動脈および上腕動脈などの代替の血管アクセスポイントに到達するために、患者の上腹部の周りに配置されてもよい。
(B.ロボットシステム-テーブル)
ロボット対応医療システムの実施形態はまた、患者のテーブルを組み込んでもよい。テーブルを組み込むことにより、カートを取り外すことによって手術室内の資本設備の量が減少し、患者へのアクセスがより大きくなる。図5は、気管支鏡検査手順のために配置されたそのようなロボット使用可能システムの実施形態を示す。システム36は、床の上にプラットフォーム38(「テーブル」または「ベッド」として示される)を支持するための支持構造または支柱37を含む。カートベースのシステムと同様に、システム36のロボットアーム39のエンドエフェクタは、図5の気管支鏡40などの細長い医療器具を、器具ドライバ42の直線的な位置合わせから形成された仮想レール41を通して、またはそれに沿って操作するように設計された器具ドライバ42を備える。実際には、X線透視画像を提供するためのCアームがテーブル38の周りにエミッタおよび検出器を配置することによって、患者の上腹部領域の上に配置され得る。
図6は、説明のため患者および医療器具を除いたシステム36の代替図を示す。図示されているように、カラム37はシステム36内にリング形状として示されている1つ以上のキャリッジ43を含むことができ、このキャリッジを基に1つ以上のロボットアーム39を構成することができる。キャリッジ43はロボットアーム39が患者に到達するように配置され得る異なる視点を提供するために、カラム37の長さに沿って延びる垂直カラムインタフェース44に沿って移動してもよい。キャリッジ43は、カラム37内に配置された機械的モータを使用してカラム37の周りを回転して、ロボットアーム39がテーブル38の複数の側、例えば患者の両側にアクセスできるようにすることができる。複数のキャリッジを有する実施形態では、キャリッジがカラム上に個別に配置されてもよく、他のキャリッジとは独立して移動および/または回転してもよい。キャリッジ43はカラム37を取り囲む必要はなく、または円形である必要もないが、図示されるようなリング形状は構造的バランスを維持しながら、カラム37の周りのキャリッジ43の回転を容易にする。キャリッジ43の回転および移動により、システムは、内視鏡および腹腔鏡のような医療器具を患者の異なるアクセスポイントに整列させることができる。
アーム39は、ロボットアーム39に追加の構成要素を提供するために個別に回転および/または入れ子式に延在することができる一連のジョイントを備える一組のアームマウント45を介してキャリッジに取り付けることができる。さらに、アームマウント45は、キャリッジ43が適切に回転されたときに、アームマウント45がテーブル38の同じ側(図6に示す)、テーブル38の反対側(図9に示す)、またはテーブル38の隣接する側(図示せず)のいずれかに配置されるように、キャリッジ43上に配置されてもよい。
カラム37は構造的に、テーブル38を支持し、キャリッジを垂直方向に移動させるための経路を提供する。内部においては、カラム37がキャリッジの垂直移動を案内するためのリードスクリューと、リードスクリューに基づいて前記キャリッジの移動を機械化するためのモータとを備えることができる。カラム37はまた、キャリッジ43およびその上に取り付けられたロボットアーム39に電力および制御信号を伝達することができる。
テーブル基部46は図2に示すカート11のカート基部15と同様の機能を果たし、テーブル/ベッド38、カラム37、キャリッジ43、およびロボットアーム39をバランスさせるためのより重い構成要素を収容する。テーブル基部46はまた、手続中の安定性を提供するために、硬性キャスタを組み込んでもよい。キャスタはテーブル基部46の下端から展開されて、基部46の両側で反対方向に延在し、システム36を移動させる必要があるときに後退することができる。
引き続き図6を参照すると、システム36は、テーブルとタワーとの間でシステム36の機能を分割してテーブルのフォームファクタおよびバルクを低減するタワー(図示せず)を含むこともできる。上記の実施形態と同様に、タワーは、処理、計算、および制御能力、電力、流体工学、ならびに/または光学およびセンサ処理などの様々なサポート機能をテーブルに提供することができる。タワーはまた、医師のアクセスを改善し、手術室を煩雑にしないようにするために、患者から離れて配置されるように移動可能であってもよい。さらに、タワー内に部品を配置することにより、ロボットアームの潜在的な収納のためのテーブル基部内のより大きい収納スペースが実現する。タワーはまた、キーボードおよび/またはペンダントなどのユーザ入力のためのユーザインタフェースと、リアルタイム画像、ナビゲーション、および追跡情報などの術前および術中情報のための表示画面(またはタッチスクリーン)との両方を提供するコンソールを含むことができる。
いくつかの実施形態では、テーブル基部が使用されていないときにロボットアームを収納し、格納することができる。図7は、テーブルベースのシステムの一実施形態においてロボットアームを収容するシステム47を示す。システム47では、キャリッジ48がロボットアーム50、アームマウント51、およびキャリッジ48をベース49内に収容するために、ベース49内に垂直に移動させることができる。基地カバー52は、キャリッジ48、アームマウント51、およびアーム50を列53の近辺に展開するために移動されて開閉され、使用されていないときにそれらを保護するために閉じられてもよい。ベースカバー52は、その開口部の縁部に沿って膜54で封止されて、閉鎖時の汚れおよび流体の進入を防止することができる。
図8は、尿管鏡検査手順のために構成されたロボット使用可能なテーブルベースのシステムの実施形態を示す。尿管鏡検査では、テーブル38が患者をカラム37およびテーブル基部46から外れた角度に位置決めするための旋回部分55を含むことができる。旋回部分55は旋回部分55の下端を支柱37から離して位置決めするために、旋回点(例えば、患者の頭部の下に位置する)の周りで回転または旋回してもよい。例えば、旋回部分55の旋回は、Cアーム(図示せず)がテーブル38の下のカラム(図示せず)と空間を競合することなく、患者の下腹部の上に配置されることを可能にする。キャリッジ35(図示せず)を支柱37の周りに回転させることによって、ロボットアーム39は、尿管鏡56を仮想レール57に沿って患者の鼠径部に直接挿入して尿道に到達させることができる。尿管鏡検査では、処置中に患者の脚の位置を支持し、患者の鼠径部への明確なアクセスを可能にするために、スターラップ58をテーブル38の旋回部分55に固定することもできる。
腹腔鏡処置では、患者の腹壁の小さな切開を通して、最小侵襲性器具(1つ以上の切開のサイズに適応するように細長い形状)が患者の解剖学的構造に挿入され得る。患者の腹腔を膨張させた後、しばしば腹腔鏡と呼ばれる器具は把持、切断、切除、縫合などの手術タスクを実行するように指示されてもよく、図9は腹腔鏡処置のために構成されたロボット使用可能なテーブルベースのシステムの実施形態を示す。図9に示されるように、システム36のキャリッジ43はテーブル38の両側にロボットアーム39の対を位置決めするように回転され、垂直に調整され、その結果、腹腔鏡59は患者の腹腔に到達するために患者の両側の最小切開部を通過するようにアームマウント45を使用して位置決めされ得る。
腹腔鏡処置に適応するために、ロボット使用可能テーブルシステムは、プラットフォームを所望の角度に傾斜させることもできる。図10は、ピッチまたはチルト調整を有するロボット使用可能医療システムの実施形態を示す。図10に示すように、システム36は、テーブル38の傾斜に適応して、テーブルの一部分を床から他の部分よりも大きな距離に位置決めすることができる。さらに、アームマウント45はアーム39がテーブル38と同じ平面関係を維持するように、傾きに合わせて回転することができる。より急勾配の角度に適応するために、カラム37は、カラム37の垂直延長部がテーブル38が床に触れたりベース46と衝突したりしないようにする入れ子式部分60を含むこともできる。
図11は、テーブル38とカラム37との間のインタフェースの詳細を示す。ピッチ回転機構61は、カラム37に対するテーブル38のピッチ角を複数の自由度で変更するように構成されてもよい。ピッチ回転機構61はカラム・テーブル・インタフェースにおける直交軸1、2の位置決めによって可能にすることができ、各軸は、電気的なピッチ角コマンドに応答して別個のモータ2、4によって作動される。一方のねじ5に沿った回転は一方の軸1における傾斜調整を可能にし、他方のねじ6に沿った回転は、他方の軸2に沿った傾斜調整を可能にする。
例えば、ピッチ調整は下腹部手術のために、テーブルをトレンデレンブルグ位置に位置決めしようとするとき、すなわち、患者の下腹部を患者の下腹部よりも床から高い位置に位置決めしようとするとき、特に有用である。トレンデレンブルグ位置は患者の内部器官を重力によって患者の上腹部に向かってスライドさせ、腹腔鏡前立腺切除術などの下腹部手術手技を開始して実行するための最小侵襲性ツール(minimally invasive tool)のために腹腔の空間を空ける。
(C.器具ドライバとインタフェース)
システムのロボットアームのエンドエフェクタは、(1)医療器具を作動させるための電気機械的手段を組み込む器具ドライバ(あるいは「器具駆動機構」または「器具装置マニピュレータ」と呼ばれる)と、(2)モータなどの任意の電気機械的構成要素を削除できる取り外し可能または取り外し可能な医療器具とを備える。この二分法は、医療処置に使用される医療器具を滅菌する必要性、およびそれらの複雑な機械的アセンブリおよび繊細な電子機器のために高価な資本設備を適切に滅菌することができないことが起因となりうる。したがって、医療器具は医師または医師のスタッフによる個々の滅菌または廃棄のために、器具ドライバ(したがってシステム)から取り外し、取り外し、および交換されるように設計されてもよい。対照的に、器具ドライバは、交換または滅菌される必要はなく、保護のためにドレープで覆われてもよい。
図12は、例示的な器具ドライバを示す。ロボットアームの遠位端に配置された器具ドライバ62は駆動シャフト64を介して医療器具に制御されたトルクを提供するために、平行軸に配置された1つ以上の駆動ユニット63を備える。各駆動ユニット63は器具と相互作用するための個々の駆動シャフト64と、モータシャフトの回転を所望のトルクに変換するためのギアヘッド65と、駆動トルクを生成するためのモータ66と、モータシャフトの速度を測定し、制御回路にフィードバックを提供するためのエンコーダ67と、制御信号を受信し、駆動ユニットを作動させるための制御回路68とを備える。各駆動ユニット63は独立して制御され、電動化されており、器具ドライバ62は、医療器具に複数(図12に示すように4つ)の独立した駆動出力を提供することができる。動作中、制御回路68は制御信号を受信し、モータ信号をモータ66に送信し、エンコーダ67によって測定された結果のモータ速度を所望の速度と比較し、モータ信号を変調して所望のトルクを生成する。
無菌環境を必要とする手技では、ロボットシステムが器具ドライバと医療機器との間に位置する、無菌ドレープに接続された無菌アダプタなどの駆動インタフェースを組み込むことができる。無菌アダプタの主な目的は駆動シャフトと駆動入力との間の物理的分離、したがって無菌性を維持しながら、器具ドライバの駆動シャフトから器具の駆動入力に角運動を伝達することである。したがって、例示的な無菌アダプタは、器具ドライバの駆動シャフトおよび器具上の駆動入力と嵌合されることが意図される一連の回転入力および出力を備えてもよい。滅菌アダプタに接続された滅菌ドレープは透明または半透明プラスチックなどの薄い軟性材料からなり、器具ドライバ、ロボットアーム、およびカート(カートベースのシステム内)またはテーブル(テーブルベースのシステム内)などの資本設備を覆うように設計される。ドレープの使用は滅菌を必要としない領域(すなわち、非滅菌領域)に依然として配置されている間に、患者の近くに資本設備を配置することを可能にする。滅菌ドレープの反対側では、医療器具が滅菌を必要とする領域(すなわち、滅菌野)において患者と接触することができる。
(D.医療器具)
図13は、組になった器具ドライバを有する例示的な医療器具を示す。ロボットシステムと共に使用するように設計された他の器具と同様に、医療器具70は、細長いシャフト71(または細長い本体)および器具基部72を備える。医師による手動操作向けの設計として「器具ハンドル」とも呼ばれる器具基部72は、全体として、ロボットアーム76の遠位端で器具ドライバ75上の駆動インタフェースを通って延びる駆動出力74と嵌合するように設計された、回転可能な駆動入力73、例えば、レセプタクル、プーリ、またはスプールを備えてもよい。物理的に接続され、ラッチされ、および/または連結されると、器具基部72の嵌合された駆動入力73は器具ドライバ75内の駆動出力74と回転軸を共有し、駆動出力74から駆動入力73へのトルクの伝達が可能になる。いくつかの実施形態では、駆動出力74が駆動入力73上のレセプタクルと嵌合するように設計されたスプラインを備えてもよい。
細長いシャフト71は例えば、内視鏡検査におけるように、解剖学的な開口またはルーメン、または、例えば、腹腔鏡検査におけるように、最小侵襲性切開のいずれかを介して送られるように設計される。細長いシャフト66は軟性(例えば、内視鏡と同様の特性を有する)または硬性(例えば、腹腔鏡と同様の特性を有する)のいずれかであり得るか、または軟性部分および硬性部分の両方のカスタマイズされた組み合わせを含み得る。腹腔鏡検査用に設計される場合、硬性の細長いシャフトの遠位端は回転軸を有するUリンクと、器具ドライバ75の駆動出力74から受け取ったトルクに応答して駆動入力が回転するときにテンドンからの力に基づいて作動され得る、例えば、1つまたは複数の把持器などの手術用道具とから形成される接合手首を備えるエンドエフェクタに接続されてもよい。内視鏡検査用に設計される場合、可撓性の細長いシャフトの遠位端は、器具ドライバ75の駆動出力74から受け取られるトルクに基づいて関節動作および屈曲され得る、操縦可能または制御可能な屈曲部を含み得る。
器具ドライバ75からのトルクは、シャフト71内のテンドンを使用して細長いシャフト71に伝達される。プルワイヤなどのこれらの個々のテンドンは、器具ハンドル72内の個々の駆動入力73に個々に固定することができる。ハンドル72から、テンドンは、細長いシャフト71内の1つ以上のプルルーメンに向けられ、細長いシャフト71の遠位部分に固定される。腹腔鏡検査では、これらのテンドンが手首、把持器、またはさみなどの遠位に取り付けられたエンドエフェクタに連結されてもよい。このような構成の下では、駆動入力73に及ぼされるトルクがテンドンに表面張力を伝達し、それによってエンドエフェクタを何らかの方法で作動させる。腹腔鏡検査では、テンドンは関節を軸の周りに回転させ、それによってエンドエフェクタを一指示または別の指示に移動させることができる。あるいはテンドンは細長いシャフト71の遠位端において、把持器の1つ以上の顎に接続され得、ここで、テンドンからの張力によって把持器が閉じる。
内視鏡検査では、テンドンは接着剤、制御リング、または他の機械的固定を介して、細長いシャフト71に沿って(例えば、遠位端で)配置された屈曲または関節動作部に連結されてもよい。屈曲部の遠位端に固定して取り付けられると、駆動入力73に及ぼされるトルクがテンドンに伝達され、より柔軟性のある屈曲部(関節部または関節動作領域と呼ばれることもある)を屈曲または関節動作させる。非屈曲部に沿って、個々のテンドンを内視鏡シャフトの壁に沿って(または内側に)向ける個々のプルルーメンを螺旋状または螺旋状にして、プルワイヤの表面張力から生じる半径方向の力を釣り合わせることが効果的であり得る。スパイラルの角度および/またはそれらの間の間隔は特定の目的のために変更または設計されてもよく、スパイラルを緊密にすると荷重力下でのシャフト圧縮が小さくなり、一方、スパイラルを少なくすると荷重力下でのシャフト圧縮が大きくなるが限界曲げとなる。スペクトルの他端では、プルルーメンが細長いシャフト71の長手方向軸に平行に向けられて、所望の屈曲または関節動作可能な部分における制御された関節動作が可能となる。
内視鏡検査では、細長いシャフト71がロボットシステム手続を補助するために、いくつかの構成要素を収容する。シャフトは、シャフト71の遠位端における手術領域に外科用ツール、潅注、および/または吸引を展開するためのワーキングチャネルを備えてもよい。シャフト71はまた、ワイヤおよび/または光ファイバを収容して、光学カメラを含み得る遠位先端の光学アセンブリへ/から信号を伝達し得る。シャフト71はまた、光ファイバを収容して、発光ダイオードなどの近位に位置する光源からシャフトの遠位端に光を運ぶことができる。
器具70の遠位端において、遠位先端はまた、診断および/または治療、潅注、および吸引のためのツールを手術部位に送達するためのワーキングチャネルの開口部を備え得る。遠位先端はまた、内部解剖学的空間の画像を取得するために、ファイバースコープまたはデジタルカメラなどのカメラのためのポートを含んでもよい。関連して、遠位先端はまた、カメラを使用するときに解剖学的空間を照明するための光源のためのポートを含み得る。
図13の例では駆動シャフト軸、したがって駆動入力軸は細長いシャフトの軸に直交する。しかしながら、この配置では、細長いシャフト71のロール機能が複雑になる。駆動入力73を静止状態に保ちながら、細長いシャフト71をその軸に沿って回転させると、テンドンが駆動入力73から延出して細長いシャフト71内のプルルーメンに入るときに、テンドンの望ましくない絡み合いが生じる。そのようなテンドンによって生じる絡み合いは、内視鏡手技時に可撓性の細長いシャフトの移動を予測することを目的とする任意の制御アルゴリズムの障害となり得る。
図14は器具ドライバおよび器具の代替設計を示し、駆動ユニットの軸が器具の細長いシャフトの軸に平行である。図示のように、円形の器具ドライバ80は、ロボットアーム82の端部に平行に整列された駆動出力81を有する4つの駆動ユニットを備える。駆動ユニットおよびそれぞれの駆動出力81は、アセンブリ83内の駆動ユニットのうちの1つによって駆動される器具ドライバ80の回転アセンブリ83内に収容される。回転駆動ユニットによって提供されるトルクに応じて、回転アセンブリ83は、回転アセンブリ83を器具ドライバの非回転部分84に接続する円形ベアリングに沿って回転する。電気接点を介して器具ドライバ80の非回転部分84から回転アセンブリ83に電力および制御信号を伝達することができ、この信号は、ブラシ付きスリップリング接続(図示せず)による回転によって維持することができる。他の実施形態では、回転アセンブリ83が非回転部分84に一体化され、したがって他の駆動ユニットと平行ではない別個の駆動ユニットに応答することができる。回転機構83は、器具ドライバ80が器具ドライバ軸85の周りに単一のユニットとして、駆動ユニットおよびそれぞれの駆動出力81を回転させることができる。
上記に開示した実施形態と同様に、器具86は、細長いシャフト部分88と、器具ドライバ80内の駆動出力81を受けるように構成された複数の駆動入力89(レセプタクル、プーリ、およびスプールなど)を備える器具基部87(説明のために透明な外皮と共に示されている)とを備えることができる。先に開示された実施形態とは異なり、器具シャフト88は、図13の設計におけるように直交するのではなく、駆動入力89の軸に実質的に平行な軸を有する器具基部87の中心から延伸する。
器具ドライバ80の回転アセンブリ83に連結されると、器具基部87および器具シャフト88を備える医療器具86は、器具ドライバ軸85の周りで回転アセンブリ83と組み合わせて回転する。器具シャフト88は器具基部87の中心に配置されているので、器具シャフト88は取り付けられたとき、器具ドライバ軸85と同軸である。したがって、回転アセンブリ83の回転は、器具シャフト88をそれ自体の前後軸の周りに回転させる。さらに、器具基部87が器具シャフト88と共に回転するとき、器具基部87の駆動入力89に接続されたテンドンは、回転中に絡み合わない。したがって、駆動出力81、駆動入力89、および器具シャフト88の軸の平行性は、任意の制御テンドンの絡み合いを発生させることなく、シャフトを回転させることができる。
(E.ナビゲーションと制御)
従来の内視鏡検査には、X線透視法(例えば、Cアームを介して送達され得るよう)および他の形態の放射線ベースの画像化モダリティの使用が含まれ、操作者の医師に管腔内ガイダンスが提供される。一方、本件開示によって実現されるロボットシステムは、放射線に対する医師の曝露を低減し、手術室内の機器の量を低減するために、非放射線ベースのナビゲーションおよび位置決め手段を提供する。本明細書で使用されるように、用語「位置決め」は、基準座標系における物体の位置を特定および/または監視することを指すことができる。術前マッピング、コンピュータビジョン、リアルタイム電磁追跡、およびロボットコマンドデータなどの技術は放射線を用いない運用環境を達成するために、個別に、または組み合わせて使用されてもよい。放射線ベースの画像モダリティが依然として使用される他の場合には、術前マッピング、コンピュータビジョン、リアルタイム電磁追跡、およびロボットコマンドデータは放射線ベースの画像モダリティによってのみ得られる情報を改善するために、個別に、または組み合わせて使用されてもよい。
図15は、例示的な実施形態による、器具の位置など、ロボットシステムの1つまたは複数の要素の位置を推定する位置決めシステム90を示すブロック図である。位置決めシステム90は、1つまたは複数の命令を実行するように構成された1つまたは複数の計算装置のセットとすることができる。計算装置は、上述の1つまたは複数の構成要素内のプロセッサ(または複数のプロセッサ)およびコンピュータ可読メモリによって具現化され得る。限定ではなく例示として、計算装置は、図1に示すタワー30内や、図1~4に示すカート内や、図5~10に示すベッド内などに配置されてよい。
図15に示すように、位置決めシステム90は、入力データ91~94を処理して医療器具の遠位先端の位置データ96を生成する位置決めモジュール95を含むことができる。位置データ96は、基準系に対する器具の遠位端の位置および/または向きを表すデータまたはロジックであってもよい。基準系は、患者の解剖学的構造、または電磁場発生器(電磁場発生器については以下の説明を参照)などの既知の物体に対する基準系とすることができる。
ここで、さまざまな入力データ91~94についてより詳細に説明する。術前マッピングは、低線量CTスキャンの収集を使用することによって達成することができる。術前CTスキャンは2次元画像を生成し、各画像は、患者の内部解剖学的構造の破断図の「スライス」を表す。集合体で分析される場合、患者の肺ネットワークなどの患者の解剖学的構造の解剖学的空洞、空間、および構造のための画像ベースのモデルが生成され得る。中心線ジオメトリのような手法は、CT画像から決定され、近似されて、術前モデルデータ91と呼ばれる患者の解剖学的構造の3次元ボリュームを展開することができる。中心線ジオメトリの使用については、米国特許第14/523,760号に記載されており、その内容の全体を本願に援用する。また、ネットワークトポロジーモデルは、CT画像から導出されてもよく、気管支鏡検査に特に適している。
いくつかの実施形態では、器具が視覚データ92を提供するためにカメラを装備することができる。位置決めモジュール95は1つまたは複数の視覚ベースの位置追跡を可能にするために、視覚データを処理することができる。例えば、手術前モデルデータは医療器具(例えば、内視鏡または内視鏡のワーキングチャネルを通る器具の前進)のコンピュータビジョンベースの追跡を可能にするために、ビジョンデータ92と共に使用されてもよい。例えば、手術前モデルデータ91を使用して、ロボットシステムは内視鏡の予想される移動経路に基づいてモデルから予想される内視鏡画像のライブラリを生成することができ、各画像はモデル内の位置にリンクされる。手術中に、このライブラリはカメラ(例えば、内視鏡の遠位端にあるカメラ)で取得されたリアルタイム画像を画像ライブラリ内の画像と比較して位置決めを補助するために、ロボットシステムによって参照されてもよい。
他のコンピュータビジョンベースの追跡技術は、カメラ、したがって内視鏡の動きを決定するために特徴追跡を使用する。位置決めモジュール95のいくつかの特徴は解剖学的な管腔に対応する手術前モデルデータ91内の円形の幾何学的形状を識別し、それらの幾何学的形状の変化を追跡して、どの解剖学的な管腔が選択されたかや、カメラの相対的な回転および/または移動運動を決定することができる。トポロジーマップの使用によって、視覚ベースのアルゴリズムまたは方法をさらに強化することができる。
別のコンピュータビジョンベースの技術であるオプティカルフローはカメラの動きを推測するために、ビジョンデータ92のビデオシーケンス内の画像画素の変位および移動を分析することができる。複数の反復にわたる複数のフレームの比較によって、カメラ(したがって、内視鏡)の移動および位置を決定することができる。
位置決めモジュール95は、リアルタイム電磁追跡を使用して、手術前モデルによって表される患者の解剖学的構造に位置合わせすることができるグローバル座標系における内視鏡のリアルタイム位置を生成し得る。電磁追跡では医療器具(例えば、内視鏡ツール)の1つ以上の位置および向きに埋め込まれた1つ以上のセンサコイルを備える電磁センサトラッカ)は既知の位置に配置された1つ以上の静的電磁場発生器によって生成された電磁場の変動を測定する。電磁センサによって検出された位置情報は、電磁データ記憶される。電磁場発生器(または送信機)は埋め込まれたセンサが検出し得る低強度磁場を生成するために、患者の近くに配置され得る。磁界は電磁センサコイルに小さな電流をガイドし、この電流は、電磁センサと電磁界発生器との間の距離および角度を決定するために分析され得る。これらの距離および向きは、座標系内の単一の位置を患者の解剖学的構造の手術前モデル内の位置と整列させる幾何学的変換を決定するために、患者の解剖学的構造(例えば、手術前モデル)に対して手術中に「位置合わせ」されてもよい。一旦位置合わせされると、医療器具の1つ以上の位置(例えば、内視鏡の遠位先端)に埋め込まれた電磁追跡装置は、患者の解剖学的構造を通る医療器具の進歩のリアルタイムの指示を提供し得る。
ロボットコマンドおよび運動学データ94はまた、ロボットシステムのための位置決めデータ96を提供するために、位置決めモジュール95によって使用されてもよい。関節動作コマンドから生じる装置ピッチおよびヨーは、手術前較正中に決定され得る。手術中に、これらの較正測定値は器具の位置を推定するために、既知の挿入デプス情報と組み合わせて使用されてもよい。あるいは、これらの計算がネットワーク内の医療器具の位置を推定するために、電磁、視覚、および/またはトポロジーモデリングと組み合わせて分析されてもよい。
図15に示すように、多数の他の入力データを位置決めモジュール95によって使用することができる。例えば、図15には示されていないが、形状感知ファイバを用いる器具は、位置決めモジュール95が器具の位置および形状を決定するために使用する形状データを提供することができる。
位置決めモジュール95は、入力データ91~94を組み合わせて使用することができる。場合によっては、このような組み合わせは位置決めモジュール95が入力データ91~94の各々から決定された位置に信頼性重みを割り当てる確率的アプローチを使用することができる。したがって、電磁データが信頼できない場合(電磁干渉がある場合のように)、電磁データ決定される位置の信頼性は低下する可能性があり、位置決めモジュール95は、視覚データ92および/またはロボットコマンドおよび運動学データ94により依存する可能性がある。
上記の通り、本明細書で説明するロボットシステムは、上記の技術のうちの1つまたは複数の組合せを組み込むように設計することができる。タワー、ベッドおよび/またはカートに基づくロボットシステムのコンピュータベースの制御システムはコンピュータプログラム命令を、例えば、永続的磁気記憶ドライブ、ソリッドステートドライブなどの非一時的コンピュータ可読記憶媒体内に記憶することができ、これは、実行時に、システムにセンサデータおよびユーザコマンドを受信および分析させ、システム全体の制御信号を生成させ、グローバル座標系内の器具の位置、解剖学的マップなどのナビゲーションおよび位置決めデータを表示させる。
(2.自動初期化ナビゲーションシステムについて)
本件開示の実施形態は管腔ネットワーク、例えば、肺気道または内部開放空間を有する他の解剖学的構造を通じた医療器具のナビゲーションを容易にするシステムおよび方法に関し、内視鏡画像からのデプス情報を生成および使用して初期内視鏡位置を決定すること、管腔ネットワーク内の医療器具の位置および向きの推定の精度を高めるために複数のナビゲーション関連データソースを分析すること、ならびに有害事象後にナビゲーションシステムを再初期化するために追加のデプス情報を生成および使用することによる。
気管支鏡は、施術者が患者の気管や気道を調べることができるように光源と小型カメラを含むことができる。患者の気道内における気管支鏡の正確な位置が不明であると、患者に対する外傷が発生する可能性がある。気管支鏡の位置を特定するために、画像ベースの気管支鏡ガイドシステムでは、気管支鏡のカメラからのデータを用いて患者の気道の分岐における位置合わせ(例えば、管腔ネットワーク内の特定位置における位置合わせ)を行うことができ、患者の呼吸運動に起因した位置誤差の影響を受けにくく有利である。しかしながら、画像ベースのガイド方法は、気管支鏡の映像に頼るため、患者の咳や粘液による阻害などによって、気管支鏡の映像が映像内のアーチファクトの影響を受ける可能性がある。
電磁ナビゲーションガイド気管支鏡検査(EMN気管支鏡検査)は肺の気管支経路を通して内視鏡器具またはカテーテルを位置決めし、ガイドするために電磁技術を実装する一種の気管支鏡手技である。EMN気管支検査システムは、低強度の可変の電磁場を発生して患者の管腔ネットワーク周辺の追跡対象の部位の位置を確立する電磁場発生器を用いることができる。電磁場は、荷電した物体によって生成される物理的な場であり、電磁場の近傍にある荷電した物体に影響を及ぼす。発生した場内に位置する物体に取り付けられた電磁センサを用いて、電磁場内のこれらの物体の位置および向きを追跡することができる。変化する電磁場によって電磁センサ内に小さい電流が誘起される。これらの電気信号の特性は、センサと電磁場発生器との間の距離や角度に依存する。したがって、EMN気管支鏡検査システムは、電磁場発生器、遠位端またはその近傍に電磁センサを有する操作可能な医療器具、ガイドコンピュータシステムを有することができる。電磁場発生器は例えば、気道、胃腸管、または循環経路など、ナビゲートされる患者の管腔ネットワークの周りに電磁場を生成する。操作可能なチャネルは、気管支鏡のワーキングチャネルに挿入され、電磁場内において電磁センサを介して追跡される。
EMN気管支鏡検査手技の開始前に、例えば術前CT胸部スキャンから、患者の特定の気道構造について仮想の3次元気管支マップを取得することができる。このマップとEMN気管支鏡検査システムを使用して、術者は肺内の所望の位置までナビゲーションを行い、病変組織の生検、リンパ節のステージ特定、放射線治療におけるカテーテルのガイドや小線源治療におけるカテーテルのガイドのためのマーカ挿入などを行うことができる。例えば、手技開始時に位置合わせを行って、電磁場の座標系とモデル座標系との間のマッピングを生成することができる。これにより、気管支鏡検査時に操作可能なチャネルが追跡されるため、モデル座標系における操作可能なチャネルの位置を、電磁センサからの位置データを基に名目的に知ることが可能である。
ここで、座標系とは、特定の検知態様における基準系である。例えば、電磁データの場合、電磁座標系は、電磁場源(電磁場発生器)によって定義される基準系である。CT画像やセグメンテーションされた3次元モデルの場合は、この基準系は、スキャナによって定義される系に基づく。本発明のナビゲーションシステムは例えば、モデル内の器具の位置を表示するために、3次元モデル(すなわちCTフレーム)に対してこれらの異なるデータソース(それら自体の基準フレーム内にある)を表す(位置合わせする)ナビゲーションの問題を解消する。
したがって、以下に詳細を説明するように、本件開示の管腔ネットワークのナビゲーションシステムおよび方法は、画像ベースのナビゲーションシステム、ロボットシステム、および電磁ナビゲーションシステムからの入力を組み合わせ、他の患者のセンサからの入力も組み合わせ、ナビゲーションに関する問題を軽減してより効率的な内視鏡手技を実現することができる。例えば、ナビゲーション融合システムが、器具のカメラから受信した画像情報、器具先端の電磁センサからの位置情報、器具の動きをガイドするロボットシステムからのロボットの位置情報を分析することができる。ナビゲーション融合フレームワークは、分析を基に、これらの1つまたは複数の種類のナビゲーションデータに基づく器具の位置推定および/またはナビゲーションの決定を行うことができる。ナビゲーション融合フレームワークの一部の実装では、さらに管腔ネットワークの3次元モデルに対する器具位置を特定することができる。いくつかの実施形態では、ナビゲーション融合システムを介して追跡を初期化するために使用される初期器具位置が本明細書で説明するように、デプス情報に基づいて生成され得る。
開示のシステムおよび手法は、管腔ネットワークのナビゲーションのためのその他の種類の内視鏡手技を含む、気管支鏡検査のガイドシステムおよびその他の適用に利点をもたらすことができる。解剖学的構造において、「管腔」は気道、血管、腎臓、心臓、腸、または医療手技が行われている任意の他の適切な器官のような器官の内部開放空間または空洞を指すことができ、本明細書で使用される場合、「管腔ネットワーク」は目標の組織部位、例えば、肺の気道、循環系、腎臓、および消化器系に通じる少なくとも1つの管腔を有する解剖学的構造を指す。したがって、本開示は気管支鏡検査に関連するナビゲーションシステムの例を提供するが、開示された位置推定態様は患者の管腔ネットワークのナビゲーションのための他の医療システムに適用可能であることが理解される。したがって、開示されるシステムおよび技術は、気管支鏡、尿管鏡、消化器内視鏡、および他の適切な医療器具とともに使用することができる。
(3.ナビゲーションシステム例の概要)
図16Aは、開示されたナビゲーションシステムおよび技術の1つまたは複数の態様を実装する例示的な運用環境100を示す。運用環境100は、患者101と、患者101を支持するプラットフォーム102と、内視鏡115の動きをガイドする医療ロボットシステム110と、医療ロボットシステム110の動作を制御するためのコマンドセンタ105と、電磁コントローラ135と、電磁場発生器120と、電磁センサ含む。図16Aはまた、図16Bにより詳細に示される、患者101内の管腔ネットワーク140の領域の輪郭を示す。
医療ロボットシステム110は患者101の管腔ネットワーク140を通して内視鏡115の移動を位置決めし、ガイドするための1つまたは複数のロボットアームを含むことができる。コマンドセンタ105は位置データを受信し、および/またはユーザから制御信号を提供するために、医療ロボットシステム110に通信可能に接続され得る。ここでは、「通信可能に接続」とは、無線WAN(Wide Area Network;例えば、1つまたは複数のセルラーネットワーク)、無線LAN(Local Area Network;例えば、IEEE 802.11(Wi-Fi(登録商標))など、1つまたは複数の標準用に構成されたもの)、Bluetooth(登録商標)、データ転送ケーブルなど、を含むがこれらに限定されない、任意の有線および/または無線データ送信媒体を意味する。医療用ロボットシステム110は、図1-15を参照しながら説明したいずれかのシステムとすることができる。医療ロボットシステム110の実施形態は、図16Cを参照しながら詳細に説明し、コマンドセンタ105は、図17を参照しながら詳細に説明する。
内視鏡115は、患者の生体に挿入されて生体(体の組織など)の画像を取得したり目標の組織部位に対して他の医用器具を挿入するためのワーキングチャネルを提供したりする、管状の軟性の手術器具である。上述したように、内視鏡115は例えば、気管支鏡、胃鏡、または尿管鏡のような手技特有の内視鏡とすることができ、あるいは、腹腔鏡または血管操縦可能なカテーテルとすることができる。内視鏡115は、1つまたは複数の画像生成装置(例えば、カメラやその他の種類の光学センサ)をその遠位端に有する。画像生成装置は、光ファイバ、ファイバアレイ、感光基板、および/またはレンズなどの1つまたは複数の光学部品を有してもよい。光学部品は、内視鏡115の遠位端と共に移動し、内視鏡115の遠位端が移動すると、画像生成装置によって取得される画像の視野も対応して変化する。内視鏡115の遠位端には、管腔ネットワーク140を取り囲むように発生する電磁場内において遠位端の位置を追跡するための1つまたは複数の電磁センサ125を設けることができる。内視鏡115の遠位端については、以下に図18を参照しながらさらに説明する。
電磁コントローラ135は、電磁場発生器120を制御して可変の電磁場を発生させることができる。電磁場は、環境に応じて時間的に変化および/または空間的に変化することができる。一部の実施形態では、電磁場発生器120は、電磁場発生基板とすることができる。開示された患者ナビゲーションシステムのいくつかの実施形態は患者と患者を支持するプラットフォーム102との間に配置された電磁場発生器ボードを使用することができ、電磁場発生器ボードは、その下に配置された導電性または磁性材料によって引き起こされる任意の追跡歪みを最小限に抑える薄い障壁を組み込むことができる。他の実施形態では、電磁場発生器ボードが例えば、患者の周囲に柔軟な設定オプションを提供する医療ロボットシステム110に示されるものと同様のロボットアーム上に取り付けることができる。
コマンドセンタ105、医療ロボットシステム110、および/または電磁コントローラ135に組み込まれた電磁空間測定システムは電磁センサコイル、例えば、電磁センサ125、130が埋め込まれているか、または提供されている電磁場内の物体の位置を決定することができる。電磁センサが、ここで説明する制御された可変の電磁場内に配置されると、センサのコイル内に電圧が誘起される。この誘電電圧は、電磁空間測定システムによって、電磁センサ、さらには電磁センサを有する物体の位置および向きを計算するのに使用することができる。磁場の強さは弱く人体の組織を安全に通過できるため、光学空間測定システムにおける照準線の制約なく、物体の位置測定が可能である。
電磁場内のその位置を追跡するために、内視鏡115の遠位端に連結することができる。電磁場は電磁場発生器に対して静止しており、管腔ネットワークの3次元モデルの座標系は、電磁場の座標系にマッピングすることができる。例えば、呼吸によって引き起こされる変位を含む患者の動きの補償を可能にすることによって、電磁センサ位置を追跡するのを助けるために、多数の追加の電磁センサ130を患者の身体の表面(例えば、管腔ネットワーク140の領域内)に設けることができる。多数の異なる電磁センサ130を身体の表面に間隔を開けて配置することができる。
図16Bは、図16Aの運用環境100においてナビゲートすることができる例示的な管腔ネットワーク140を示す。管腔ネットワーク140は、患者の気道150の分岐構造、主気管156(気管支鏡ナビゲーション中に遭遇する第1の分岐)に通じる気管154、および診断および/または治療のために本明細書に記載するようにアクセス可能な結節(または病変)155を含む。図示のように、小結節155は、気道150の周辺部に位置する。内視鏡115は第1の直径を有し、したがって、その遠位端は、小結節155の周りのより小さい直径の気道を通って位置決めされることができない。したがって、操縦可能なカテーテル155は、内視鏡115のワーキングチャネルから小結節155までの残りの距離だけ延びる。操縦可能なカテーテル145は器具、例えば、生検針、細胞診ブラシ、および/または組織サンプリング鉗子が小結節155の目標の組織部位に通され得る管腔を有する。そのような実施形態では、内視鏡115の遠位端および操縦可能なカテーテル145の遠位端の両方に、気道150内でのそれらの位置を追跡するための電磁センサを設けることができる。他の実施形態では、内視鏡115の全体的な直径が操縦可能なカテーテル155なしで周辺部に到達するのに十分に小さくてもよく、または操縦不可能なカテーテルを通して医療器具を展開するために周辺部に近づくのに十分に小さくてもよい(例えば、2.5~3cm以内)。内視鏡115を通して展開された医療器具は電磁センサを有してもよく、当該医療器具が内視鏡115の遠位先端を越えて展開されたときに、当該医療器具に以下に説明する位置推定技術を適用することができる。
いくつかの実施形態では本明細書に記載する3次元管腔ネットワークモデルの2次元ディスプレイ、または3次元モデルの断面は図16Bの例に類似している。推定された位置情報は、そのような表現に重ね合わせることができる。
図16Cは、図16Bの管腔ネットワーク140を通して器具の動きをガイドするための医療ロボットシステム110の例示的なロボットアーム175を示す。ロボットアーム175はいくつかの実施形態では上記のロボットアーム12、39とすることができ、種々の実施形態では、カート基部15や患者プラットフォーム38のカラム37などの基部180に連結することや、天井ベースの連結とすることができる。上記のように、ロボットアーム175はジョイント165で連結された複数のアームセグメント170を含み、これは、ロボットアーム175に複数の自由度を提供する。
ロボットアーム175は、メカニズムチェンジャインタフェース(MCI;Mechanism Changer Interface)160を使用して、器具ドライバ190、例えば上述の器具ドライバ62に連結されてもよい。器具ドライバ190は取り外され、異なる種類の器具ドライバ、例えば、内視鏡を操作するように構成された第1のタイプの器具ドライバ、または腹腔鏡を操作するように構成された第2のタイプの器具ドライバと交換することができる。MCI 160は、空気圧、電力、電気信号、および光信号をロボットアーム175から器具ドライバ190に伝達するためのコネクタを含む。MCI 160は、セットスクリューまたはベースプレート接続部であってもよい。器具ドライバ190は直接駆動、ハーモニック駆動、歯車駆動、ベルトおよびプーリ、磁気駆動などを含む技術を用いて、手術器具、例えば、内視鏡115を操作する。MCI 160は器具ドライバ190の種類に基づいて交換可能であり、特定の種類の手術手技のためにカスタマイズされ得る。ロボットシステム175のアームは、関節レベルのトルク感知と、遠位端における手首とを含むことができる。
医療ロボットシステム110のロボットアーム175は、上述のようにテンドンを使用して内視鏡115を操作して、内視鏡115の先端を偏向させることができる。内視鏡115は、細長い移動部材によって加えられる力に応答して非線形挙動を示す。非線形挙動は、内視鏡115の剛性および圧縮性、ならびに異なる細長い移動部材間のたるみまたは剛性の変動性に基づく。
基部180は、ロボットアーム175が患者に対する手術手技を実行または補助するためにアクセスし、医師などのユーザがコマンドコンソールを利用して医療ロボットシステム110を制御できるように配置される。ベース180は、図16Aに示すコマンドコンソール105に通信可能に接続することができる。
基部180は、動力源182、空気圧186、および中央処理装置、データバス、制御回路、およびロボットアーム175を移動させるためのモータなどのメモリおよび関連アクチュエータなどの構成要素を含む制御およびセンサ電子機器184を含むことができる。電子機器184は、本明細書で説明するナビゲーション制御方法を実施することができる。基部180内の電子機器184はコマンドコンソールから通信される制御信号を処理し、送信することもできる。いくつかの実施形態では、基部180が医療ロボットシステム110を搬送するための車輪188と、車輪188のための車輪ロック/ブレーキ(図示せず)とを含む。医療用ロボットシステム110の可動性は、手術室内の空間制約に適応するのに役立ち、また、手術器具の適切な位置決めおよび移動を容易にするのに役立つ。さらに、その可動性は、ロボットアーム175が患者、医師、麻酔科医、または任意の他の機器を妨害しないように、ロボットアーム175が構成されることを可能にする。手技中、ユーザは、制御装置、例えばコマンドコンソールを使用してロボットアーム175を制御することができる。
図17は、例示的な運用環境100において、例えばコマンドコンソール105として使用することができる例示的なコマンドコンソール200を示す。コマンドコンソール200は、コンソール基部201と、ディスプレイモジュール202、例えばモニタと、制御モジュール、例えばキーボード203およびジョイスティック204とを含む。いくつかの実施形態では、コマンドコンソール200の機能のうちの1つまたは複数が医療ロボットシステム110の基部180、または医療ロボットシステム110に通信可能に接続された別のシステムに統合されてもよい。ユーザ205、例えば医師は、コマンドコンソール200を使用して人間工学的位置から医療ロボットシステム110を遠隔制御する。
コンソール基部201は中央処理ユニット、メモリユニット、データバス、および、例えば図16A-16Cに示される内視鏡115からのカメラ画像および追跡センサデータなどの信号を解釈し、処理する役割を担う関連するデータ通信ポートを含むことができる。いくつかの実施形態では、コンソール基部201および基部180の両方が負荷バランシングのための信号処理を実行する。コンソール基部201は、制御モジュール203および204を介してユーザ205によって提供されるコマンドおよび命令を処理することもできる。図17に示されるキーボード203およびジョイスティック204に加えて、制御モジュールは他のデバイス、例えば、コンピュータマウス、トラックパッド、トラックボール、制御パッド、ハンドヘルドリモートコントローラなどのコントローラ、およびハンドジェスチャおよび指ジェスチャを取得するセンサ(例えば、モーションセンサまたはカメラ)を含んでもよい。コントローラは器具の動作(例えば、関節動作、駆動、水洗浄等)にマッピングされた一組のユーザ入力(例えば、ボタン、ジョイスティック、方向パッドなど)を含むことができる。
ユーザ205は、速度モードまたは位置制御モードでコマンドコンソール200を使用して、内視鏡115などの手術器具を制御することができる。速度モードでは、ユーザ205が制御モジュールを使用する直接的な手動制御に基づいて、内視鏡115の遠位端のピッチおよびヨー運動を直接的に制御する。例えば、ジョイスティック204上の移動は、内視鏡115の遠位端におけるヨーおよびピッチ移動にマッピングされ得る。ジョイスティック204は、ユーザ205に触覚フィードバックを提供することができる。例えば、ジョイスティック204は、内視鏡115が特定の方向にさらに移動または回転できないことを示すように振動することができる。コマンドコンソール200はまた、視覚フィードバック(例えば、ポップアップメッセージ)および/または音声フィードバック(例えば、ビープ音)を提供して、内視鏡115が最大移動または回転に達したことを示すことができる。
位置制御モードでは、コマンドコンソール200が患者管腔ネットワークの3次元マップと、本明細書で説明するナビゲーションセンサからの入力とを使用して、手術機器、例えば、内視鏡115を制御する。コマンドコンソール200は、医療用ロボットシステム110のロボットアーム175に制御信号を提供して、内視鏡115を標的位置に操作する。3次元マップに依存するため、位置制御モードは、患者の解剖学的構造の正確なマッピングを必要とし得る。
いくつかの実施形態では、ユーザ205がコマンドコンソール200を使用せずに、医療用ロボットシステム110のロボットアーム175を手動で操作することができる。手術室でのセットアップ中に、ユーザ205は患者に閲覧させるために、ロボットアーム175、内視鏡115(または内視鏡)、および他の手術器具を移動することもできる。医療ロボットシステム110は、ユーザ205からの力フィードバックおよび慣性制御を基に、ロボットアーム175および装置の適切な構成を決定することもできる。
ディスプレイ202は電子モニタ(例えば、LCDディスプレイ、LEDディスプレイ、タッチセンシティブディスプレイ)、バーチャルリアリティビューイングデバイス(例えば、ゴーグルまたは眼鏡)、および/または他のディスプレイデバイスを含み得る。いくつかの実施形態では、ディスプレイモジュール202が例えば、タッチスクリーンを有するタブレットデバイスとして、制御モジュールと一体化される。いくつかの実施形態ではディスプレイ202のうちの一方が患者の管腔ネットワークの3次元モデルおよび仮想ナビゲーション情報(例えば、電磁センサ位置に基づくモデル内の内視鏡の端部の仮想表現)を表示することができ、ディスプレイ202のうちの他方はカメラまたは別の感知デバイスから受信した画像情報を内視鏡115の端部に表示することができる。いくつかの実施形態では、ユーザ205が統合ディスプレイ202および制御モジュールを使用して、データを見ることと、医療ロボットシステム110にコマンドを入力することとの両方を行うことができる。ディスプレイ202は立体装置、例えば、バイザまたはゴーグルを使用して、3次元画像および/または3次元画像の2次元レンダリングを表示することができる。3次元画像は患者の解剖学的構造を示すコンピュータ3次元モデルである「内視鏡ビュー」を提供する。「内視鏡ビュー」は患者の内部の仮想環境および患者内部の内視鏡115の予想される位置を提供する。ユーザ205が「内視鏡ビュー」モデルをカメラによって取得された実際の画像と比較して、内視鏡115が患者内の正しい、またはほぼ正しい位置にあることを意識し、確認することに役立つ。「内視鏡ビュー」は、内視鏡115の遠位端の周りの、気道、循環血管、または患者の腸もしくは結腸の形状などの解剖学的構造に関する情報を提供する。表示モジュール202は、内視鏡115の遠位端の周りの解剖学的構造の3次元モデルおよびCTスキャンを同時に表示することができる。さらに、表示モジュール202は3次元モデルおよびCTスキャン上に、内視鏡115の既に決定されたナビゲーション経路をオーバーレイ表示することができる。
いくつかの実施形態では、手術の状態の表示を補助するために、内視鏡115のモデルが3次元モデルと共に表示される。例えば、CTスキャンは、生検が必要となり得る解剖学的構造内の病変を識別する。動作中、ディスプレイモジュール202は、内視鏡115の現在位置に対応する内視鏡115によって取り込まれた基準画像を示すことができる。ディスプレイモジュール202は、ユーザ設定および特定の手術手技に応じて、内視鏡115のモデルの異なるビューを自動的に表示することができる。例えば、ディスプレイモジュール202は、内視鏡115が患者の手術領域に接近する際のナビゲーションステップ中の内視鏡115の蛍光画像の俯瞰図を示す。
図18は、例えば図16A-16Cの内視鏡115など、本明細書に記載される画像および電磁感知能力を有する例示的な内視鏡の遠位端300を示す。図18において、内視鏡の遠位端300は、撮像装置315と、照明光源310と、電磁センサコイル305の端部とを含む。遠位端300は、生検針、細胞診ブラシ、および鉗子などの手術機器が内視鏡シャフトに沿って挿入され、内視鏡先端付近の領域へのアクセスを可能にする内視鏡のワーキングチャネル320への開口部をさらに含む。
照明光源310は、解剖学的空間の一部を照明するための光を提供する。照明光源は、それぞれ、選択された波長または波長範囲で光を放出するように構成された1つまたは複数の発光デバイスとすることができる。波長はいくつかの例を挙げると、任意の適切な波長、例えば、可視スペクトル光、赤外線、X線(例えば、蛍光透視法のための)であり得る。いくつかの実施形態では、照明光源310が遠位端300に配置された発光ダイオード(LED)を含むことができる。いくつかの実施形態では、照明光源310が遠隔光源、例えば、X線発生器から遠位端300を通して光を伝送するために、内視鏡全長にわたって延在する1つ以上の光ファイバを含むことができる。遠位端300が複数の照明光源310を含む場合、これらはそれぞれ、互いに同じまたは異なる波長の光を放射するように構成することができる。
撮像装置315は受光した光を表すエネルギーを電気信号に変換するように構成された任意の感光性基板または構造、例えば、電荷結合素子(CCD)または相補型金属酸化膜半導体(CMOS)イメージセンサを含むことができる。撮像装置315のいくつかの例は、内視鏡の遠位端300から内視鏡の基端付近の接眼レンズおよび/または画像センサに画像を表す光を伝送するように構成された、1つまたは複数の光ファイバ、たとえば光ファイババンドルを含むことができる。撮像装置315は様々な光学設計に必要とされるように、1つまたは複数のレンズおよび/または波長通過フィルタまたはカットオフフィルタをさらに含むことができる。照明光源310から放出された光は、撮像装置315が患者の管腔ネットワークの内部の画像を取得することを可能にする。次に、これらの画像は本明細書に記載される処理のために、コマンドコンソール200などのコンピュータシステムに、個々のフレームまたは一連の連続するフレーム(例えば、ビデオ)として送信される。
遠位端300上に配置された電磁コイル305は解剖学的システム内に配置されているときに内視鏡の遠位端300の位置および向きを検出するために、電磁追跡システムと共に使用されてもよい。いくつかの実施形態では、コイル305が異なる軸に沿った電磁場に対する感度を提供するように角度を付けられてもよく、開示されたナビゲーションシステムに、3つの位置および3つの角度という完全な6自由度を測定する機能を与える。他の実施形態では単一のコイルのみが、その軸が内視鏡の内視鏡シャフトに沿って配向された状態で、遠位端300上または遠位端300内に配置されてもよい。このようなシステムの回転対称性のため、このシステムはその軸の周りの回転を感知しないため、このような実施形態では、5自由度しか検出することができない。
図19は、本明細書で説明する例示的なナビゲーション融合システム400の概略ブロック図を示す。以下により詳細に説明するように、システム400を使用して、多数の異なる情報源からのデータは患者の管腔ネットワーク内の手術機器(例えば、内視鏡)のリアルタイム移動情報および位置/向き情報の推定を提供し、ナビゲーション決定を行うために、手術手技の間に組み合わされ、繰り返し分析される。
ナビゲーション融合システム400は、デプス特徴データリポジトリ405、内視鏡電磁センサデータリポジトリ415、位置合わせデータリポジトリ475、モデルデータリポジトリ425、内視鏡撮像データリポジトリ480、ナビゲーション経路データリポジトリ445、およびロボット位置データリポジトリ470を含むいくつかのデータリポジトリを含む。以下の説明を明確にするために、図19には別々に示されているが、データリポジトリの一部または全部を、単一のメモリまたはメモリのセットに一緒に格納することができることを理解されたい。システム400はまた、位置合わせ計算器465、デプスベース位置推定器410、位置計算器430、画像分析器435、状態推定器440、およびナビゲーションコントローラ460を含むいくつかの処理モジュールを含む。各モジュールは、記憶に格納された1組のコンピュータ可読命令と、以下で説明する特徴を一緒に実行するために命令によって構成された1つまたは複数のプロセッサとを表すことができる。ナビゲーション融合システム400は例えば、上述の制御およびセンサ電子機器184および/またはコンソール基部201内の、1つまたは複数のデータ記憶デバイスおよび1つまたは複数のハードウェアプロセッサとして実装することができる。ナビゲーション融合システム400は、いくつかの実装形態では位置決めシステム90の一実施形態とすることができる。
また、図19は、ナビゲーション融合システム400と通信するモデリングシステム420を示す。以下でより詳細に説明するように、モデリングシステム420を使用して、患者の解剖学的な管腔ネットワークの多数の画像を表すデータを分析して、解剖学的な管腔ネットワークの仮想表現の3次元モデルを構築することができ、この仮想の解剖学的な管腔ネットワークを使用して、デプス特徴データリポジトリ405を構築することができる。別々に示されているが、いくつかの実施形態ではモデリングシステム420およびナビゲーション融合システム400を単一のシステムに組み合わせることができる。モデリングシステム420は、モデル生成器440および特徴抽出器450を含むいくつかの処理モジュールを含む。モデルデータリポジトリ425およびデプス特徴データリポジトリ405はナビゲーション融合システム400内に示されているが、これらのデータリポジトリはいくつかの実施形態ではモデリングシステム420内に代替的にまたは追加的に配置することができる。
モデル生成器440は、例えばCTイメージングシステムまたは磁気共鳴イメージングシステムのような医療用イメージングシステム(図示せず)からデータを受信するように構成されたモジュールである。受信されたデータは、患者の解剖学的な管腔ネットワークを表す一連の2次元画像を含むことができる。モデル生成器440は一連の2次元画像から3次元データボリュームを生成することができ、3次元データボリュームから解剖学的な管腔ネットワークの内面の仮想3次元モデルを形成することができる。例えば、モデル生成器は、セグメント化を適用して、解剖学的な管腔ネットワークの組織に対応するデータの部分を識別することができる。したがって、結果として得られるモデルは、解剖学的な管腔ネットワークの組織の内面を表すことができる。
モデルデータリポジトリ425は、患者の管腔ネットワークのモデル、例えばモデル生成器440によって生成されたモデルを表すデータを記憶するデータ記憶装置である。そのようなモデルは、いくつかの例では患者の気道のトポグラフィおよび/または直径を含む、管腔ネットワークの構造および接続性に関する3次元情報を提供することができる。患者の肺のいくつかのCTスキャンは、患者の気道がモデルにおいてそれらの完全な直径まで拡張するように、息止めした状態で実行される。
内視鏡撮像データリポジトリ480は、内視鏡の先端のカメラ、例えば撮像装置315から受信した画像データを記憶するデータ記憶装置である。種々の実施形態では、画像データがビデオシーケンス内の別個の画像または一連の画像フレームとすることができる。
特徴抽出器450はモデル生成器440からモデルを受け取り、モデル内のいくつかの異なる位置に対応するデプス特徴のデータベースを構築するように構成されたモジュールである。例えば、特徴抽出器450はモデル内のいくつかの異なる位置を識別し、各位置に仮想撮像装置を計算的に位置決めし、各位置に仮想画像を生成し、次いで、仮想画像から指定された特徴を導出することができる。本明細書で説明する「仮想撮像装置」は、物理的な撮像装置ではなく、画像取得装置の計算シミュレーションである。シミュレーションは視野、レンズ歪み、焦点距離、および輝度シェーディングを含む仮想撮像装置パラメータに基づいて仮想画像を生成することができ、仮想撮像装置パラメータは、実際の撮像装置のパラメータに基づくことができる。
生成された各仮想画像は、仮想撮像装置の仮想視野内の仮想管腔ネットワークの位置と組織との間の距離を表す仮想デプスマップに対応することができる。特徴抽出器450は、仮想撮像装置パラメータを、患者の管腔ネットワークを含む医療処置で使用するために識別された実際の撮像装置のパラメータに一致させることができる。データベースを構築するための例示的なプロセスについて、図20を参照しながら以下に詳細に説明する。
また、特徴抽出器450は、内視鏡撮像データリポジトリ480からデータを受信し、内視鏡撮像装置と画像の画素によって表される撮像組織との間の距離を表すデプスマップを生成し、生成されたデプスマップから特徴を導出することができる。いくつかの実施形態では、特徴抽出器450が単一の画像に基づいてデプスマップを生成するために、測光法(例えば、シェーディングによる形状)処理を使用することができる。いくつかの実施形態では、特徴抽出器450がデプスマップを生成するために、撮像された領域を描写する立体画像セットを使用することができる。
デプス特徴データリポジトリ405は、特徴抽出器450によって生成されたデプスマップおよび/または仮想デプスマップから導出された特徴のデータベースを記憶するデータ記憶装置である。特徴は、管腔ネットワークの性質および/またはナビゲーション手技中の特徴の使用に基づいて変化し得る。特徴は例えば、デプスマップ内の局所最大値の位置(例えば、気道の枝の下に視認可能な最遠の仮想組織を表す)、局所最大値を取り囲む曲線ピークに沿った位置、2つの局所最大値を分離する距離(例えば、画素数)を表す値、および/または、いくつかの局所最大値を結ぶ線またはポリゴンのサイズ、形状、および向きを含む。曲線ピークは、曲線ピークの一方の側の画素のデプス値が増加し、曲線ピークの他方の側のデプス値が減少するデプスマップ内の領域を表す。曲線ピークは画素に関連するデプスが、画素の両側の画素に関連するデプスよりも大きい、極大値を含むことができる。デプス特徴データレポジトリ405は仮想管腔ネットワーク内の特徴および関連する位置を、例えば、識別された位置ごとに、以下の形式-{位置n,特徴量}-で組として記憶することができる。例えば、上記位置が気道内の位置に関連し、特徴が2つの識別された局所最大値間の距離に関連する場合、タプルは{位置n(気道セグメント,気道セグメント内のデプス),特徴値(距離)}として生成することができる。このように、データベース内の抽出された特徴はナビゲートされた解剖学的な管腔ネットワークの画像からリアルタイムで抽出された特徴と比較して迅速にプログラム的に評価することができ、識別された最も良くまたは最も近接する特徴に対応する位置を迅速に確認することができる。
デプスベース位置推定器410は、解剖学的な管腔ネットワークの画像からリアルタイムで抽出された特徴(複数可)を、仮想画像から抽出された事前に計算された特徴(複数可)と比較するように構成されたモジュールである。デプスベース位置推定器410は、仮想特徴と実際の画像から抽出された特徴との一致についてデプス特徴データリポジトリ405をスキャンすることができ、一致に対応する位置を解剖学的な管腔ネットワーク内の器具(例えば、内視鏡)の位置として使用することができる。マッチングは、厳密なマッチング、デプス特徴データリポジトリ405内の利用可能な特徴間の最良のマッチング、抽出された特徴からの閾値差内のマッチングとすることができる。デプスに基づく位置推定器410は例えば、器具の位置の確率的評価における初期位置(「事前確率」)として使用するために、または器具の正確な位置が不明となる有害事象(例えば咳)の発生後の事前確率として使用するために、状態推定器440に位置を出力することができる。デプスベース位置推定器410はモデルと患者の周りに配置された電磁場との間の初期位置合わせおよび/または更新された位置合わせを生成する際に使用するために、位置合わせ計算器465に位置を出力することができる。
内視鏡電磁センサデータリポジトリ415は、内視鏡の遠位端にある電磁センサから導出されたデータを記憶するデータ記憶装置である。上述のように、そのようなセンサは電磁センサコイル305を含むことができ、結果として得られるデータを使用して、電磁場内のセンサの位置および向きを識別することができる。電磁呼吸センサからのデータと同様に、内視鏡電磁センサデータは{x、y、z,tn}の形式の組として記憶することができ、ここで、x、y、zは、期間tnにおける電磁場内のセンサの座標を表す。いくつかの実施形態は、電磁センサタプル内の器具のロール、ピッチ、およびヨーをさらに含むことができる。内視鏡電磁センサデータリポジトリ415は、多数の異なる時間に対応する各内視鏡ベースのセンサのための多数のそのようなタプルを記憶することができる。
位置合わせ計算器465は3次元モデルの座標系(例えば、モデルを生成するために使用されるCTスキャナの座標系)と電磁場(例えば、電磁場発生器120の)の座標系との間の位置合わせまたはマッピングを識別することができるモジュールである。患者の解剖学的構造を通してセンサを追跡するために、ナビゲーション融合システム400は位置合わせ計算器465が異なる座標系の間で単一の物体を位置合わせする幾何学的変換を見つける「位置合わせ」として知られるプロセスを必要とすることがあり、例えば、患者上の特定の解剖学的部位は3次元モデル座標および電磁センサ座標においても表現されることがある。初期位置合わせを計算するために、位置合わせ計算機465の一実装形態は、参照によりその開示が本明細書に組み込まれる、2016年9月17日に出願された「管腔ネットワークのナビゲーション」という名称の米国特許出願第15/268,238号に記載される位置合わせを実行することができる。1つの可能な位置合わせ方法の例として、位置合わせ計算器465は内視鏡が患者の気道に挿入されるとき、例えば、内視鏡が様々な分岐に到達するときに、内視鏡撮像データリポジトリ480および電磁センサデータリポジトリ415から、多数の異なる点のデータを受信することができる。画像データは内視鏡の遠位端がいつ分岐部に到達したかを、例えば、自動化された特徴分析を介して識別するために使用することができる。位置合わせ計算器465は、内視鏡電磁センサデータリポジトリ415からデータを受信し、内視鏡が分岐部に位置するときに、内視鏡の遠位端における電磁センサ位置を識別することができる。いくつかの例では、分岐だけでなく、患者の気道内の他の点を採用することができ、そのような点を気道の「スケルトン」モデル内の対応する点にマッピングすることができる。位置合わせ計算器465は電磁場とモデルとの間の幾何学的変換を識別するために、電磁位置のうちの少なくとも3つをモデル内の点にリンクするデータを使用することができる。別の実施形態は例えば、患者の気道の第1の分岐から、および左肺および右肺の2つ以上の分岐から少なくとも3つを採取することによって、手動位置合わせを含むことができ、対応する点を使用して位置合わせを計算することができる。幾何学的変換を実行するためのこのデータ(位置合わせデータとも呼ばれる)は、位置合わせデータとして位置合わせデータリポジトリ475に格納することができる。
初期位置合わせが決定された後、位置合わせ計算器465は変換精度を向上させるとともに、ナビゲーションシステムの変化、例えば、患者の移動による変化を補償するために、受信データに基づいて位置合わせ変換の推定値を更新することができる。いくつかの態様では、位置合わせ計算器465が規定の間隔で、および/または管腔ネットワーク内の内視鏡(またはその部品)の位置に基づいて、位置合わせ変換の推定値を連続的に更新することができる。
位置合わせデータリポジトリ475は、ここで説明したように、電磁分野の座標系からモデルの座標系への幾何学的変換を実行するために使用可能な位置合わせデータを記憶するデータ記憶装置である。また、上記の通り、位置合わせデータは位置合わせ計算機465によって生成されてもよく、いくつかの実施形態では連続的にまたは周期的に更新されてもよい。
位置計算器430は、モデルデータリポジトリ425、位置合わせデータリポジトリ475、および内視鏡位置推定器420からデータを受信して、電磁センサ座標を3次元モデル座標に変換するモジュールである。内視鏡位置推定器420は上述したように、電磁場発生器の位置に対する電磁センサ初期位置を計算する。この位置はまた、3次元モデル内の位置に対応する。電磁センサの初期位置を電磁座標系からモデル座標系に変換するために、位置計算器430は位置合わせデータリポジトリ475に格納された電磁座標系とモデル座標系(例えば、位置合わせデータ)との間のマッピングにアクセスすることができる。内視鏡位置を3次元モデル座標系に変換するために、位置計算器430は、入力として、モデルデータリポジトリ425から3次元モデルのトポグラフィを表すデータと、位置合わせデータリポジトリ475からの3次元モデルの電磁場と座標系との間の位置合わせを表すデータと、内視鏡位置推定器420からの電磁場内の内視鏡の位置とを受信する。また、いくつかの実施形態は、状態推定器440から事前に推定された状態データを受信することができる。受信されたデータに基づいて、位置計算器430は例えば、電磁センサ位置データの3次元モデル内の位置へのオンザフライ変換を実行することができる。これは、3次元モデルのトポグラフィ内の内視鏡の遠位端の位置の予備的な推定値を表し、以下で詳細に説明するように、内視鏡位置の最終的な推定値を生成するための状態推定器440への1つの入力として提供することができる。
画像アナライザ435は内視鏡撮像データリポジトリ480およびモデルデータリポジトリ425からデータを受信し、このデータを比較して内視鏡位置決めを決定することができるモジュールである。例えば、画像アナライザ435はモデルスキャンから気道樹のボリュームレンダリングまたは表面レンダリングされた管腔内画像にアクセスすることができ、レンダリングされた画像を撮像装置315からのリアルタイム画像またはビデオフレームと比較することができる。例えば、画像を位置合わせすることができ(例えば、パウエルの最適化、単純化またはグレーデント法の使用、正規化された交差相関または相互情報をコストとして有する最急降下法アルゴリズム)、2つの情報源から得られた位置合わせ画像を比較するために、平方差誤差の加重正規化された和および正規化された相互情報を使用することができる。スキャンからの2次元画像と内視鏡から受信した2次元画像との間の類似度は、内視鏡がスキャンからの画像の位置の近くに配置されていることを示す。そのような画像ベースのナビゲーションは患者の気道の分岐部で局所的な位置合わせを実行することができ、したがって、電磁追跡システムよりも、患者の呼吸運動によるノイズの影響を受けにくくすることができる。しかしながら、画像分析器435は内視鏡映像に依存するので、分析は、患者の咳または粘膜閉塞によって引き起こされる画像中のアーチファクトによって影響を受ける可能性がある。
画像アナライザ435は、いくつかの実施形態では画像アナライザ435が分岐開口部、病変、または粒子など、画像データの視野内に存在する物体を検出することができる物体認識技術を実装することができる。物体認識を使用して、画像アナライザはどの物体が識別されたかに関する情報、ならびに確率として表される物体の位置、向き、および/またはサイズを示す物体データを出力することができる。一例として、物体認識を使用して、管腔ネットワーク内の分岐点を示すことができる物体を検出し、次いで、それらの位置、サイズ、および/または向きを決定することができる。一実施形態では管腔ネットワーク内の所与の画像において、各分岐は典型的には暗い略楕円形の領域として表示され、これらの領域は、最大安定極値領域(MSER)などの領域検出アルゴリズムを使用して、オブジェクトとして、プロセッサによって自動的に検出される。画像分析器435は気道を識別するために、他の技術と組み合わされた光反射強度を使用することができる。さらに、画像アナライザ435は管腔ネットワーク内の1組の可能な分岐の中からどの分岐が入力されたかを検出するために、1組の連続する画像フレームにわたって検出された物体を追跡することができる。
ロボット位置データリポジトリ470は医療ロボットシステム110から受信されたロボット位置データ、例えば、医療器具または医療器具の一部(例えば、器具先端または遠位端)の管腔ネットワーク内での医療ロボットシステム110による物理的移動に関連するデータを記憶するデータ記憶デバイスである。例示的なロボット位置データは例えば、管腔ネットワーク内の特定の解剖学的部位に到達し、かつ/または管腔ネットワーク内のその向きを(例えば、内視鏡器具のリーダおよびシースの一方または両方に対して、特定のピッチ、ロール、ヨー、挿入、および後退)変更するように器具先端に命令するコマンドデータ、医療器具の一部(例えば、器具先端またはシース)の挿入移動を表す挿入データ、器具ドライバデータ、ならびに、例えば、管腔ネットワーク内の内視鏡の実際の移動を駆動する内視鏡の1つまたは複数のプルワイヤ、テンドン、またはシャフトの移動など、医療器具の細長い部材の機械的移動を表す機械的データを含むことができる。
ナビゲーション経路データリポジトリ445は、管腔ネットワークを通って目標組織部位までのあらかじめ計画されたナビゲーション経路を表すデータを記憶するデータ記憶デバイスである。患者の身体の管腔ネットワーク内の特定の位置へのナビゲーションは管腔ネットワークの3次元モデルを生成し、管腔ネットワーク内のナビゲーション経路を決定するのに必要な情報を生成するために、手術前に特定のステップをとることを必要とする場合がある。上記のように、特定の患者の気道のトポグラフィおよび構造の3次元モデルを生成することができる。標的は例えば、生検のための病変、または手術によって修復するための器官組織の一部を選択することができる。一実施形態では、ユーザがマウスでクリックすること、またはタッチスクリーンに触れることなどによって、3次元モデルを示すことができるコンピュータディスプレイとインタフェースすることによって、ターゲットの位置を選択することができる。いくつかの実施形態では、ナビゲーション経路がモデルおよび識別された病変部位の分析によってプログラム的に識別されて、病変までの最短のナビゲーション経路を導出することができる。いくつかの実施形態では経路が医師によって識別されてもよく、または自動的に識別された経路は医師によって修正されてもよい。ナビゲーション経路は、識別されたターゲットに到達するように移動する管腔ネットワーク内の一連の分岐を識別することができる。
状態推定器440は入力を受信し、入力の分析を実行して医療器具の状態を決定するモジュールである。例えば、状態推定器440は、デプスベース位置推定器410、位置計算器430、画像分析器435、ナビゲーション経路データリポジトリ445、およびロボット位置データリポジトリ470からのデータを入力として受信することができる。状態推定器440は、提供された入力が与えられると、確率分析を実施して、管腔ネットワーク内の医療器具の状態および対応する確率を決定することができる。推定状態は(1)管腔ネットワークのモデルの座標系に対する器具のX、Y、Z位置、(2)器具がモデルの特定の領域、例えば、特定の気道枝に位置するかどうか、(3)器具のピッチ、ロール、ヨー、挿入、および/または後退、ならびに(4)目標までの距離のうちの1つまたは複数を示す。状態推定器440は、時間の関数として器具(または器具の遠位先端)の推定された状態を提供することができる。
いくつかの実施形態では、状態推定器440が状態および対応する確率を決定するためにベイズフレームワークを実装することができる。ベイズ統計解析は事前確率と呼ばれる確信度(belief)から始まり、観察されたデータでその確信度を更新する。事前確率はベイズモデルパラメータが何であるかの推定値を表し、パラメータ化された分布として表すことができる。観察されたデータは、パラメータの実際の値についての証拠を得るために収集される。ベイズ解析の結果は事後確率と呼ばれ、事象を信頼度(confidence)で表現する確率分布を表す。さらなるデータが取得される場合、事後確率は事前確率として扱われ、新たなデータで更新され得る。この方法は条件付き確率、例えば、イベントBが発生した場合にイベントAがどのくらい起こりやすいかを示すベイズ規則を使用する。
開示されるナビゲーション融合システム400に関して、状態推定器440は以前に推定された状態データを事前確率として使用することができ、呼吸数および/または段階識別器410、内視鏡位置推定器420、位置計算器430、画像分析器435、ナビゲーション経路データリポジトリ445、および/またはロボット位置データリポジトリ470からの入力を観測データとして使用することができる。手技の開始時に、上記の視覚ベースの初期化手法を使用して、気管内の初期デプスおよびロールを推定することができ、デプスベースの位置推定器410からのこの推定出力を事前確率に使用することができる。状態推定器440は複数の可能な状態のそれぞれの確率および信頼値を表す事後分布を生成するために、事前データおよび観測データのベイズ統計解析を実行することができる。
本明細書で使用される「確率分布」の「確率」は、医療器具の可能な位置および/または向きの推定がもっともらしいことを意味する。例えば、医療器具が管腔ネットワーク内のいくつかの異なる可能な分岐のうちの1つにある相対的な可能性を示す複数のアルゴリズムモジュールの1つによって、異なる確率を計算することができる。一実施形態では、確率分布の種類(例えば、離散分布または連続分布)は推定された状態の特徴(例えば、推定された状態の種類、例えば、連続的な位置情報と離散的な分岐選択)に一致するように選択される。一例として、医療器具が三分岐のためにどのセグメントにあるかを識別するための推定状態は離散確率分布によって表されてもよく、アルゴリズムモジュールのうちの1つによって決定されるように、3つの分岐のそれぞれの内側の位置にある可能性を表す20%、30%、および50%という3つの離散値を含んでもよい。別の例として、推定された状態は40±5°の医療器具のロール角を含んでもよく、分岐内の器具先端のセグメントデプスは4±1mmであってもよく、各々は連続確率分布の一種であるガウス分布によって表される。
一方、本明細書で使用される「信頼値(confidence value)」は、1つまたは複数の要因に基づく図19に示す複数のモジュールの1つによって提供される状態の推定における信頼性の尺度を反映する。電磁ベースのモジュールでは、電磁場の歪み、電磁位置合わせの不正確さ、患者の位置ずれや動き、および患者の呼吸などの要因が状態の推定の信頼性に影響を及ぼす可能性がある。特に、電磁ベースのモジュールによって提供される状態の推定における信頼値は患者の特定の呼吸サイクル、患者または電磁場発生器の動き、および器具先端が位置する解剖学的構造内の位置に依存する。画像アナライザ435の場合、状態の推定における信頼値に影響を及ぼす可能性がある要素の例には、画像が取得される解剖学的構造内の位置の照明条件、画像を取得する光学センサに向き合うまたは光学センサの前にある流体、組織、または他の障害物の存在、患者の呼吸、管腔ネットワーク内の一般的な流体などの患者自体の管腔ネットワーク(例えば、肺)の状態、および管腔ネットワークの閉塞、ならびに、例えば、ナビゲーションまたは画像取得で使用される特定の動作方法が含まれる。
例えば、1つの要因は特定のアルゴリズムが患者の肺の異なるデプスにおいて異なる精度レベルを有する場合があり、例えば、気道開口に比較的近いところでは、特定のアルゴリズムが医療器具の位置および向きの推定において高い信頼性を有し、肺の下端へとさらに進むほど、信頼値は低下し得る場合がある。一般に、信頼値は結果が決定されるプロセスに関連する1つまたは複数の系統的要素に基づくが、確率は基礎となるデータに基づく単一のアルゴリズムを用いて複数の可能性から正しい結果を決定しようと試みるときに生じる相対的な尺度である。
一例として、離散確率分布によって表される推定状態の結果を計算するための数式(例えば、関与する推定状態の3つの値を有する三分岐についての分岐/セグメント識別)は、以下のようにすることができる。

Figure 2022141792000002
上の数式の例ではSi(i=1,2,3)が3次元モデルにおいて3つの可能なセグメントが識別または存在するケースにおける推定された状態の可能な値の例を表し、CEM、CImage、CRobotはそれぞれ電磁ベースのアルゴリズム、画像ベースのアルゴリズム、ロボットベースのアルゴリズムに対応する信頼値を表し、Pi,EM、Ci,Image、Ci,Robot、はセグメントiの確率を表す。このような融合アルゴリズムの確率的性質により、呼吸を経時的に追跡することができ、さらには、待ち時間および外れ値外乱を克服するように予測することもできる。
いくつかの実施形態ではロボット位置データ470、位置計算器435、および画像分析器435からのデータの信頼値は呼吸数および/または段階識別器410からの呼吸段階に基づいて適応的に決定することができる。例えば、ロボット位置データおよび画像データは、呼吸運動による電磁センサデータとは異なる影響を受ける可能性がある。いくつかの実施形態では、内視鏡撮像データリポジトリ430から取得された視覚データを使用して、管腔ネットワークの外部のセンサを介して検出可能でない特定の種類の呼吸運動、例えば、視覚処理によって検出することができる頭側-尾側(後-前)運動における気道の運動を検出することができる。
ナビゲーションコントローラ460は状態推定器440およびナビゲーション経路データリポジトリ445からデータを受信し、このデータを使用して医療ロボットシステム110のさらなる動作をガイドするモジュールである。例えば、ナビゲーションコントローラ460は所定のナビゲーション経路に沿って推定状態をプロットすることができ、器具がナビゲーション経路に沿って前進するための次の移動(例えば、プルワイヤまたは他の作動機構の伸長/後退距離、回転、作動)を決定することができる。ナビゲーションコントローラ460は、いくつかの実施形態では決定された次の動きに従って器具を自動的に制御することができる。いくつかの実施形態では、ナビゲーションコントローラ460がワークステーション200などによってユーザに表示するために、特定の器具の動作命令および/または器具ドライバの動作命令を出力することができる。ナビゲーションコントローラ460はユーザガイドナビゲーションを容易にするために、いくつかの実施形態では、推定された位置における3次元モデルのスライスと、内視鏡画像データリポジトリ480から受信されたリアルタイム画像との並列ビューを表示させることができる。
(4.ナビゲーション技術例の概要)
本件開示の1つまたは複数の態様によれば、図20は、抽出された仮想特徴データセットを生成するための例示的なプロセス500のフローチャートを示す。いくつかの実施形態においては、プロセス500が事前運用的に、すなわち、生成されたモデルと、プロセス500によって抽出された特徴を使用する医療手技の開始前に、実施することができる。プロセス500は、図19のモデリングシステム420、図16Cの制御およびセンサ電子機器184、および/または図17のコンソール基部201、またはその構成要素において実施することができる。図20のフローチャート内のグラフィック描写は上記のブロックを例示するために提供され、限定するものではなく、描写されたモデル515、デプスマップ532、534、および関連する特徴の視覚的表現はプロセス500の過程の間に生成され、表示されてもされなくてもよいことが理解される。
ブロック510において、モデル生成器440は患者の解剖学的な管腔ネットワークを表す画像データにアクセスし、3次元モデル515を生成することができる。例えば、CTスキャンまたはMRIスキャンは、解剖学的な管腔ネットワークの2次元断面を描写する多数の画像を生成することができる。モデル生成器440は解剖学的な管腔ネットワークの組織を分離またはセグメント化するためにこれらの2次元画像をセグメント化することができ、様々な画像内の分離された組織位置に基づいて、および画像内に描写された断面の空間的関係に基づいて、データの3次元点群を構築することができる。モデル生成部440は、この3次元点群に基づいてモデルを生成することができる。3次元モデルは、解剖学的な管腔ネットワークの内面を仮想管腔ネットワークとしてモデル化することができる。例えば、モデル515は、いくつかの実施形態ではCTスキャンから生成された患者の気道のセグメント化されたマップとすることができる。モデルは、患者の実際の管腔ネットワーク(または管腔ネットワークの一部)の任意の2次元または3次元表現とすることができる。
ブロック520において、特徴抽出器450は、モデル515内の多数の仮想位置525を識別することができる。一例として、特徴抽出器450はナビゲーションシステム400のパラメータに応じて、患者の気道を表すモデルの気管セグメント内のいくつかの位置、例えば、120の位置、またはより多いまたはより少ない位置を識別することができる。他の例では、特徴抽出器450が気道モデルの他のセグメント内の1地点、例えば、気道モデルを通る計画されたナビゲーション経路に沿った1地点、計画されたナビゲーション経路に沿った1地点、および計画されたナビゲーション経路への所定の近接内の分岐、または気道セグメントの一部もしくは全体にわたっての1地点を識別することができる。
ブロック530において、特徴抽出器450は、識別された位置に対応する多数の仮想デプスマップ532、534を生成することができる。例えば、特徴抽出器450は識別された位置を使用して、仮想の解剖学的な管腔ネットワーク内の仮想撮像装置の位置を設定することができ、識別された位置ごとに仮想デプスマップ532、534を生成することができる。図示された例示的な仮想デプスマップ532および仮想デプスマップ534は、気道内の主竜骨156の仮想表現に関する同じデプス情報の異なる表現を示す。仮想デプスマップ532の2次元表現における各仮想画素はそのデプス値に対応する色で描かれ、一方、仮想デプスマップ534の3次元表現は各仮想画素がそのデプス値に対応するZ軸に沿った高さで示されるデュアルピーク形状を描く。図示された仮想デプスマップはブロック530の概念を示すために提供されるが、プロセス500のいくつかの実施形態ではプロセス500が以下に説明する特徴を導出するためにそのようなデプスマップを表すデータのみを必要とし得るため、上記の視覚的な表現は生成されない。
いくつかの実施形態では、ブロック530において、特徴抽出器450は管腔ネットワークがナビゲートされる医療手技中に使用するために識別された撮像装置、例えば、内視鏡の遠位端の撮像装置315のパラメータにアクセスすることができる。特徴抽出部450は、仮想撮像装置のパラメータに合わせて仮想撮像装置の仮想パラメータを設定することができる。そのようなパラメータは視野、レンズ歪み、焦点距離、および輝度シェーディングを含むことができ、較正データまたは撮像装置を試験することによって得られるデータに基づくことができる。明度シェーディングは口径食としても知られており、エッジ付近の画像の暗化を引き起こす光学システムによって透過される位置依存の光量変化である。ケラレはレンズ視野(FOV)の周辺付近の光学系によって透過される光量の減少をもたらし、エッジでの画像の漸進的な暗化を生じる。ケラレは、カメラのレンズロールオフ歪み関数を較正することによって、画像取得後に補正することができる。仮想パラメータを実際のパラメータにマッチングさせることによって、結果として得られる仮想デプスマップ532、534は、撮像装置によって取り込まれた画像に基づいて生成された実際のデプスマップにより密接に対応する。
ブロック540において、特徴抽出器450は1つ以上のデプス基準を識別するために、仮想デプスマップの値を分析する。デプス基準は例えば、デプスマップ内の局所最大値の位置(例えば、仮想気道モデルの枝の下に見える最も遠い仮想組織を表す画素)、または局所最大値を取り囲む曲線ピークに沿った局所最大値から閾値距離内の任意の位置とすることができる。上記のデプス基準位置は、仮想デプスマップ内の仮想画素位置であり得る。
ブロック540は、仮想左気管支および仮想右気管支内の仮想カメラによって可視化される最も遠い仮想組織に対応する、局所最大値としての説明的なデプス基準522、544の視覚的説明を提供する。原則として、人間の肺の典型的な形状のために、主気管支の近くに配置されたカメラまたは仮想カメラは、左気管支よりも右気管支内に遠くまで見ることができる。したがって、デプス基準544はデプス基準542よりも大きな値を有するので、右気管支内の最も遠くに描かれた仮想組織に対応し、デプス基準542は、左気管支内の最も遠くに描かれた仮想組織に対応する。そのような情報は、本明細書で説明するように、回転の識別に役立つ。
ブロック550において、特徴抽出器450は、識別されたデプス基準から事前に識別された仮想特徴を導出する。例えば、図示のように、特徴抽出器450は、デプス基準542、544を分離する距離555の値を識別することができる。距離値は、2次元デプスマップ532に対応する(x,y)空間内の画素数、または3次元デプスマップ544に対応する(x,y,z)ベクトルとして表すことができる。特徴抽出器450は追加的または代替的に、特徴として右気管支および左気管支の識別および位置決めを導出することができる。例えば、他の実施形態では、3つ以上の気道の分岐を見る1地点におけるデプスマップを含み、特徴は3つ以上の局所最大値を接続するポリゴンのサイズ、形状、および向きを含むことができる。
ブロック560において、特徴抽出器450は、仮想位置および関連する抽出された仮想特徴のデータベースを生成することができる。このデータベースは例えば、確率論的な状態推定を自動的に初期化し、位置合わせを計算し、他のナビゲーション関連計算を実行するために、リアルタイム器具位置決定を計算する際に使用するために、ナビゲーションシステム400に提供することができる。
図21は、取得された内視鏡画像と、デプス情報の特徴と図20の抽出された仮想特徴データセットとの間の計算された対応とに基づいてデプス情報を生成するための例示的な手技時プロセス600のフローチャートを示す。プロセス600は、図19のモデリングシステム420および/またはナビゲーション融合システム400、図16Cの制御およびセンサエレクトロニクス184、および/または図17のコンソール基部201、またはその構成要素によって実施することができる。
ブロック610において、特徴抽出器450は、患者の解剖学的な管腔ネットワーク内に配置された器具の遠位端において撮像装置によって取得された撮像データを受信する。例えば、撮像装置は、上述した撮像装置315とすることができる。画像化データの例示的な視覚的な表現は、患者の気道の主気道を描写する画像615によって示される。画像615は、図20の仮想デプスマップ532によって表される仮想の主胸骨に対応する解剖学的な主胸骨を示す。画像615は特定の視覚的表現を使用して特定の特徴を描写し、画像615は、プロセス600を例示するために提供され、限定するものではない。画像615はプロセス600での使用に適した管腔内画像データを表し、他の適切な画像データは他の解剖学的構造を表すことができ、および/または異なる視覚的な表現を使用して画像として描写することができる。さらに、プロセス600のいくつかの実施形態は画像データ(例えば、画像615)の対応する可視表現を生成することなく、画像データ(例えば、撮像装置の画像センサから受信した画素値)に対して動作することができる。
ブロック620において、特徴抽出器450は、画像615によって表される撮像データに対応するデプスマップ620を生成する。特徴抽出器450は、撮像データの各画素について、撮像装置と、画素に対応する、表現された解剖学的な管腔ネットワーク内の組織表面との間の推定距離を表すデプス値を計算することができる。具体的には、デプス値が撮像装置の光学系の入射瞳と画素によって示される撮像組織との間の物理的距離の推定値を表すことができる。いくつかの実施形態では、特徴抽出器450が単一の画像615に基づいてデプスマップを生成するために、測光法(例えば、シェーディングによる形状)処理を使用することができる。測光法を使用することによって、特徴抽出器450は流体(例えば、粘液)で覆われ得る組織の部分間の反射率差に起因する外れ値に対してロバストである。いくつかの実施形態では、特徴抽出器450がデプスマップを生成するために、撮像された領域を描写する立体画像のセットを使用することができる。例えば、ロボット制御内視鏡は第1の位置で第1の画像を取得し、第2の位置まで既知の距離だけロボットにより後退させ、拡張させ、かつ/または回転させることができ、第2の位置で第2の画像を取得することができる。特徴抽出器450は、ロボット制御内視鏡の既知の移動と、第1の画像と第2の画像との間の視差とを使用して、デプスマップを生成することができる。
ブロック630において、特徴抽出器450は、デプスマップ内の1つ以上のデプス基準を識別する。仮想デプスマップに関して上述したように、実画像データに基づいて生成されたデプスマップ内のデプス基準は、例えば、デプスマップ内の局所最大値の位置(例えば、患者の気道の枝に沿って見える最遠の解剖学的な組織を表す画素)、または局所最大値を取り囲む曲線ピークに沿った局所最大値から閾値距離内の任意の位置とすることができる。ここで説明するデプス基準位置は、画像615内の画素位置とすることができる。ブロック630で識別のために選択されたデプス基準は、ブロック540で識別されたデプス基準に対応することが好ましい。
例えば、特徴抽出器450はデプスマップ内の第1のデプス基準に対応する複数の画素のうちの第1の画素と、デプスマップ内の第2のデプス基準に対応する複数の画素のうちの第2の画素とを識別することができ、いくつかの実施形態では、各デプス基準が識別された画素の周りのデプス値の領域内の極大に対応することができる。ブロック630は、撮像装置315によって可視である左気管支および右気管支内の最遠の組織に対応する、局所最大値としての説明的なデプス基準632および634の視覚的表示を提供する。具体的にはデプス基準634がデプス基準632よりも大きな値を有するので、右気管支内の最も遠い画像化された組織を表す画素に対応し、デプス基準632は左気管支内の最も遠い画像化された組織を表す画素に対応する。他の気道分岐部は、異なる分岐部間で同様の既知のデプス関係を有することができる。
ブロック640において、特徴抽出器450は、識別されたデプス基準からあらかじめ識別された特徴を導出する。例えば、図示のように、特徴抽出器450はデプス基準632および634に対応する画素間の距離645の値(例えば、分離量)を計算することができる。距離値は、2次元デプスマップに対応する(x,y)空間内の画素数、または3次元デプスマップ625に対応する(x,y,z)ベクトルとして、好ましくはプロセス500のブロック550で識別された特徴と同じ形式で表すことができる。特徴抽出器450は追加的または代替的に、特徴として右気管支および左気管支の識別および位置決めを導出することができる。他の実施形態では例えば、3つ以上の気道の分岐を表示する位置におけるデプスマップを含み、特徴は3つ以上の局所最大値を接続するポリゴンのサイズ、形状、および向きを含むことができる。
ブロック650において、デプスベース位置推定器410は、撮像データから導出された特徴とデプス特徴データリポジトリ405内のいくつかの特徴との間の類似度を計算する。例えば、撮像データから導出された特徴は、ブロック640の説明の通り、デプスマップ625の識別されたデプス基準に基づいて計算された距離645の値とすることができる。デプスベース位置推定器410は、距離645の値を気管内のいくつかの位置に関連する距離値と比較して、距離645の値に対応する距離値のうちの1つを識別することができる。これらの距離値は先に図20に関して説明したように、事前に計算され、データリポジトリ405に記憶されることができ、または患者の解剖学的構造がナビゲートされているときにリアルタイムで計算されることができる。リアルタイムで計算された値は、類似度計算中にワーキングメモリに格納されてもよく、またはデータリポジトリ405に追加されてもよく、その後、値に対応する位置が追加の類似度計算に用いられる場合にアクセスされてもよい。
マッチングを決定するために、デプスベース位置推定器410は距離555の値(プロセス500のブロック550に関して上述した)を、距離645の値との正確な一致として、デプス特徴データリポジトリ405内の選択肢間の距離645の値との最良の一致(例えば、最も近い値)として、または距離645の値の所定の閾値内の第1の一致として識別することができる。ナビゲーションシステム400は計算速度と位置出力の精度との間のトレードオフに基づいて、正確なマッチング、最良のマッチング、または第1の閾値内のマッチングを検索するように、または現在のナビゲーション条件に基づいてこれらの選択肢のうちの1つを動的に検索するように事前構成することができる。
ブロック660において、デプスベース位置推定器410は、ブロック650の類似度計算において識別された仮想特徴に関連付けられた仮想位置に基づいて、解剖学的な管腔ネットワーク内の器具の遠位端の推定姿勢を決定する。姿勢は器具の位置(例えば、気道または他の管腔ネットワーク部分のセグメント内の挿入デプス)、器具のロール、ピッチ、および/またはヨー、または他の自由度を含むことができる。上述のように、デプス特徴データリポジトリ405は、位置と、当該位置で生成された仮想画像から抽出された特徴とを含むタプルまたは関連する値のデータベースを格納することができる。したがって、ブロック660において、デプスベース位置推定器410はブロック650において識別された特徴に関連して記憶された位置情報にアクセスし、この位置を器具の位置として出力することができる。いくつかの実施形態では、ブロック660が画像615内の右気管支および左気管支の位置と、仮想デプスマップ532内の仮想右気管支および仮想左気管支の仮想位置との間の角度変換を識別することを含むことができる。角度変換は、気道内の器具のロールを決定するために使用することができる。
ブロック670において、デプスベース位置推定器410は、ナビゲーションシステム400で使用するために識別された姿勢を出力する。上述したように、ポーズは初期化を可能にするために、ユーザが内視鏡をいくつかの指定された位置に再配置することを必要とする初期化プロセスとは対照的に、状態推定器440に出力され、初期化中に自動的に決定されるベイズ事前確率として使用され得る。いくつかの実施形態では、姿勢がモデル座標系と電磁座標系との間の位置合わせを計算する際に使用するために、位置合わせ計算器465に出力することができる。有利には、プロセス500および600により、医師は、患者の気道を通って目標の組織部位までの所定のナビゲーション経路から逸脱することを必要とせずに、このような計算を行うことができる。
(5.代替案)
本明細書に記載の主題のいくつかの代替案を以下に提供する。
1.患者の解剖学的な管腔ネットワークのナビゲーションを支援する方法であって、前記方法は1つのセットの1つまたは複数の計算装置によって実行され、前記方法は
前記解剖学的な管腔ネットワーク内に位置する器具の遠位端にある撮像装置によって取得された画像データを受信することと、
前記解剖学的な管腔ネットワークを表す仮想管腔ネットワーク内の仮想位置に位置する仮想撮像装置の視点からシミュレーションされた仮想画像から導出される仮想特徴にアクセスすることと、
前記画像データから導出される特徴と前記仮想画像から導出される前記仮想特徴との間の類似度を計算することと、
前記仮想特徴に関連付けられた前記仮想位置に基づいて、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の姿勢を特定することと、
を含む方法。
2.前記画像データに基づいてデプスマップを生成することであって、前記仮想特徴は、前記仮想画像に関連付けられている仮想デプスマップから導出され、前記類似度を計算することは、前記デプスマップの1つまたは複数の特徴と前記仮想デプスマップの1つまたは複数の特徴とを関連付けることに少なくとも部分的に基づく、
こと、をさらに含むことを特徴とする代替案1に記載の方法。
3.前記画像データの複数の画素の各画素に対して、前記撮像装置と前記画素に対応する前記解剖学的な管腔ネットワーク内の組織表面との間の推定距離を表すデプス値を計算することによって、前記デプスマップを生成することと、
前記デプスマップ内の第1のデプス基準に対応する前記複数の画素のうちの第1の画素と、前記デプスマップ内の第2のデプス基準に対応する前記複数の画素のうちの第2の画素とを識別することと、
前記第1の画素と前記第2の画素との間の距離を表す第1の値を計算することであって、前記仮想デプスマップは、複数の仮想画素の仮想画素ごとに、前記仮想撮像装置と前記仮想画素によって表される前記仮想管腔ネットワークの部分との間の仮想距離を表す仮想デプス値を有し、前記仮想画像から導出される前記仮想特徴にアクセスすることは、前記仮想デプスマップ内の第1のデプス基準と第2のデプス基準との間の距離を表す第2の値にアクセスすることを含む、ことと、
前記第1の値を前記第2の値と比較することに基づいて前記類似度を計算することと、をさらに含むことを特徴とする代替案2に記載の方法。
4.それぞれが前記仮想管腔ネットワーク内の複数の仮想位置の異なる位置を表す複数の仮想デプスマップにおける、第1のデプス基準と第2のデプス基準との間の距離を表す複数の値にアクセスすることと、
前記複数の値のうちの他の値よりも前記第1の値により密接に対応する前記第2の値に基づいて前記類似度を計算することと、
をさらに含むことを特徴とする代替案3に記載の方法。
5.前記解剖学的な管腔ネットワークは気道を有し、前記画像データは前記気道の分岐を表し、前記方法はさらに
前記第1のデプス基準と前記第2のデプス基準の一方を、前記デプスマップと前記仮想デプスマップのそれぞれにおける右気管支として識別することと、
前記デプスマップにおける前記右気管支の第1の位置と前記仮想デプスマップにおける前記右気管支の第2の位置との間の角距に基づいて、前記器具の回転を特定することであって、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の前記姿勢が前記特定された回転を含む、ことと、
をさらに含むことを特徴とする代替案3または4に記載の方法。
6.前記デプスマップと前記仮想デプスマップのそれぞれにおいて、3つ以上のデプス基準を識別することと、
前記デプスマップと前記仮想デプスマップのそれぞれにおいて、前記デプス基準を接続するポリゴンの形状および位置を特定することと、
前記デプスマップの前記ポリゴンの形状および位置を前記仮想デプスマップの前記ポリゴンの形状および位置と比較することに基づいて前記類似度を計算することと、
をさらに含むことを特徴とする代替案2から5のいずれかに記載の方法。
7.前記デプスマップを生成することは、写真傾斜測定に基づく、ことを特徴とする代替案2から6のいずれかに記載の方法。
8.前記位置を含む複数の入力に基づいて、前記解剖学的な管腔ネットワーク内の前記器具の確率論的な状態を計算することと、
前記確率論的な状態に少なくとも部分的に基づいて、前記解剖学的な管腔ネットワークを通る前記器具のナビゲーションをガイドすることと、
さらに含むことを特徴とする代替案1から7のいずれかに記載の方法。
9.前記確率論的な状態を計算して前記確率論的な状態に基づいて前記解剖学的な管腔ネットワークの前記ナビゲーションをガイドするナビゲーションシステムを初期化することであって、前記ナビゲーションシステムの前記初期化は、前記位置に基づいて確率計算器の事前確率を設定することを含む、ことをさらに含むことを特徴とする代替案8に記載の方法。
10.前記器具の前記遠位端の更新された姿勢を表す追加データを受信することと、
前記追加データに基づいて、前記確率計算器の尤度関数を設定することと、
前記事前確率および前記尤度関数に基づいて、前記確率計算器を使用して前記確率論的な状態を特定することと、
をさらに含むことを特徴とする代替案9に記載の方法。
11.前記確率論的な状態を計算するナビゲーションシステムに前記複数の入力を提供することであって、第1の入力は、前記器具の前記遠位端の前記姿勢を含み、少なくとも1つの追加の入力は、前記器具の動きを作動させるロボットシステムからのロボット位置データと前記器具の前記遠位端にある位置センサから受信したデータの一方または両方を含む、ことと、
前記第1の入力と前記少なくとも1つの追加の入力とに基づいて、前記器具の前記確率論的な状態を計算することと、
をさらに含むことを特徴とする代替案8から10のいずれかに記載の方法。
12.前記計算された類似度に基づいて特定される前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の前記姿勢に少なくとも部分的に基づいて、前記仮想管腔ネットワークの座標系と前記解剖学的な管腔ネットワークの周囲に発生された電磁場の座標系との間の位置合わせを特定することをさらに含むことを特徴とする代替案1から11のいずれかに記載の方法。
13.前記位置を特定することは、前記器具の前記遠位端が前記解剖学的な管腔ネットワーク内のセグメント内を進行する距離を特定することを含むことを特徴とする代替案1から12のいずれかに記載の方法。
14.患者の解剖学的な管腔ネットワークのナビゲーションを支援するシステムであって、前記システムは
器具の遠位端にある撮像装置と、
実行可能な命令が記憶された少なくとも1つのコンピュータ可読メモリと、
前記少なくとも1つのコンピュータ可読メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行して前記システムに少なくとも
前記解剖学的な管腔ネットワーク内に位置する前記器具の前記遠位端にある前記撮像装置によって取得された画像データを受信することと、
前記解剖学的な管腔ネットワークを表す仮想管腔ネットワーク内の仮想位置に位置する仮想撮像装置の視点からシミュレーションされた仮想画像から導出される仮想特徴にアクセスすることと、
前記画像データから導出される特徴と前記仮想画像から導出される前記仮想特徴との間の類似度を計算することと、
前記仮想特徴に関連付けられた前記仮想位置に基づいて、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の姿勢を特定することと、
を実行させる1つまたは複数のプロセッサと、
を有することを特徴とするシステム。
15.前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも
前記画像データに基づいてデプスマップを生成することであって、前記仮想画像は仮想デプスマップを表す、ことと、
前記デプスマップの1つまたは複数の特徴と前記仮想デプスマップの1つまたは複数の特徴とを関連付けることに少なくとも部分的に基づいて、前記類似度を特定することと、
を実行させることを特徴とする代替案14に記載のシステム。
16.前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも
前記画像データの複数の画素の各画素に対して、前記撮像装置と前記画素に対応する前記解剖学的な管腔ネットワーク内の組織表面との間の推定距離を表すデプス値を計算することによって、前記デプスマップを生成することと、
前記デプスマップ内の第1のデプス基準に対応する前記複数の画素のうちの第1の画素と、前記デプスマップ内の第2のデプス基準に対応する前記複数の画素のうちの第2の画素とを識別することと、
前記第1の画素と前記第2の画素との間の距離を表す第1の値を計算することであって、前記仮想デプスマップは、複数の仮想画素の仮想画素ごとに、前記仮想撮像装置と前記仮想画素によって表される前記仮想管腔ネットワークの部分との間の仮想距離を表す仮想デプス値を有し、前記仮想画像から導出される前記特徴は、前記仮想デプスマップ内の第1のデプス基準と第2のデプス基準との間の距離を表す第2の値を含む、ことと、
前記第1の値を前記第2の値と比較することに基づいて前記類似度を特定することと、
を実行させることを特徴とする代替案15に記載のシステム。
17.前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも
それぞれが前記仮想管腔ネットワーク内の複数の仮想位置の異なる位置を表す複数の仮想デプスマップにおける、第1のデプス基準と第2のデプス基準との間の距離を表す複数の値にアクセスすることと、
前記複数の値のうちの他の値よりも前記第1の値により密接に対応する前記第2の値に基づいて前記類似度を計算して、前記第2の値を前記複数の値のうち前記第1の値に最も一致するものとして識別することと、
を実行させることを特徴とする代替案16に記載のシステム。
18.前記解剖学的な管腔ネットワークは気道を有し、前記画像データは前記気道の分岐を表し、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも
前記第1のデプス基準と前記第2のデプス基準の一方を、前記デプスマップと前記仮想デプスマップのそれぞれにおける右気管支として識別することと、
前記デプスマップにおける前記右気管支の第1の位置と前記仮想デプスマップにおける前記右気管支の第2の位置との間の角距に基づいて、前記器具の回転を特定することであって、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の前記姿勢が前記特定された回転を含む、ことと、
を実行させることを特徴とする代替案16または17に記載のシステム。
19.前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも
前記デプスマップと前記仮想デプスマップのそれぞれにおいて、3つ以上のデプス基準を識別することと、
前記デプスマップと前記仮想デプスマップのそれぞれにおいて、前記デプス基準を接続するポリゴンの形状および位置を特定することと、
前記デプスマップの前記ポリゴンの形状および位置を前記仮想デプスマップの前記ポリゴンの形状および位置と比較することに基づいて前記類似度を計算することと、
を実行させることを特徴とする代替案15から18のいずれかに記載のシステム。
20.前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも写真傾斜技術に基づいて前記デプスマップを生成することを実行させることを特徴とする代替案15から19に記載のシステム。
21.前記1つまたは複数のプロセッサはナビゲーションシステムと通信し、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも
前記位置を含む複数の入力に少なくとも部分的に基づいて、前記ナビゲーションシステムを使用して前記解剖学的な管腔ネットワーク内の前記器具の確率論的な状態を計算することと、
前記ナビゲーションシステムによって計算された前記確率論的な状態に少なくとも部分的に基づいて、前記解剖学的な管腔ネットワークを通る前記器具のナビゲーションをガイドすることと、
を実行させることを特徴とする代替案14から20のいずれかに記載のシステム。
22.前記ナビゲーション時に前記器具の動きをガイドするロボットシステムをさらに有することを特徴とする代替案21に記載のシステム。
23.前記複数の入力は、前記ロボットシステムから受信したロボット位置データを含み、
前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも、前記位置と前記ロボット位置データとに少なくとも部分的に基づいて、前記ナビゲーションシステムを使用して前記器具の前記確率論的な状態を計算すること、を実行させる
ことを特徴とする代替案22に記載のシステム。
24.器具の前記遠位端に位置センサをさらに有し、
前記複数の入力は、前記位置センサから受信したデータを含み、
前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも、前記位置と前記位置センサから受信したデータとに少なくとも部分的に基づいて、前記ナビゲーションシステムを使用して前記器具の前記確率論的な状態を計算すること、を実行させる
ことを特徴とする代替案21から23のいずれかに記載のシステム。
25.前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも、前記位置に少なくとも部分的に基づいて、前記仮想管腔ネットワークの座標系と前記解剖学的な管腔ネットワークの周囲に発生された電磁場の座標系との間の位置合わせを特定すること、を実行させることを特徴とする代替案14から24のいずれかに記載のシステム。
26.命令が記憶された非一時的なコンピュータ可読記憶媒体であって、前記命令が実行されると、少なくとも1つの計算装置に
患者の解剖学的な管腔ネットワークの内部表面の仮想3次元モデルにアクセスすることと、
前記仮想3次元モデル内の複数の仮想位置を識別することと、
前記仮想3次元モデル内の前記複数の仮想位置の各仮想位置に対して
前記仮想位置に位置する仮想撮像装置と、前記仮想位置に位置するときの前記仮想撮像装置の視野内にある前記内部表面の位置と、の間の仮想距離を表す仮想デプスマップを生成することと、
前記仮想デプスマップから少なくとも1つの仮想特徴を導出することと、
前記複数の仮想位置を前記対応する仮想デプスマップから導出された前記少なくとも1つの仮想特徴に関連付けるデータベースを生成することと、
を実行させることを特徴とする非一時的なコンピュータ可読記憶媒体。
27.前記命令が実行されると、少なくとも1つの計算装置に少なくとも、医療手技時に前記解剖学的な管腔ネットワークを通って器具のナビゲーションをガイドするナビゲーションシステムに前記データベースを提供すること、を実行させることを特徴とする代替案26に記載の非一時的なコンピュータ可読記憶媒体。
28.前記命令が実行されると、少なくとも1つの計算装置に少なくとも
前記器具の遠位端に位置する撮像装置を表すデータにアクセスすることと、
前記撮像装置の画像取得パラメータを識別することと、
前記撮像装置の前記画像取得パラメータに対応するように前記仮想撮像装置の仮想画像取得パラメータを設定することと、
を実行させることを特徴とする代替案27に記載の非一時的なコンピュータ可読記憶媒体。
29.前記命令が実行されると、少なくとも1つの計算装置に少なくとも、前記仮想画像取得パラメータに基づいて前記仮想デプスマップを生成すること、を実行させることを特徴とする代替案28に記載の非一時的なコンピュータ可読記憶媒体。
30.前記画像取得パラメータは、視野、レンズ歪み、焦点距離、輝度シェーディングのうち1つまたは複数を含むことを特徴とする代替案28または29に記載の非一時的なコンピュータ可読記憶媒体。
31.前記命令が実行されると、少なくとも1つの計算装置に少なくとも
前記複数の仮想位置の各仮想位置に対して
前記仮想デプスマップにおいて、第1のデプス基準および第2のデプス基準を識別することと、
前記第1のデプス基準と前記第2のデプス基準との間の距離を表す値を計算することと、
を実行させ、
前記複数の仮想位置と前記対応する値とを関連付けることによって、前記データベースを作成することと、
を実行させることを特徴とする代替案26から30のいずれかに記載の非一時的なコンピュータ可読記憶媒体。
32.前記命令が実行されると、少なくとも1つの計算装置に少なくとも
前記複数の仮想位置の各仮想位置に対して
前記仮想デプスマップにおいて、3つ以上のデプス基準を識別することと、
前記3つ以上のデプス基準を接続するポリゴンの形状および位置を特定することと、
前記複数の仮想位置と前記対応するポリゴンの形状および位置とを関連付けることによって、前記データベースを作成すること、
を実行させることを特徴とする代替案26から31のいずれかに記載の非一時的なコンピュータ可読記憶媒体。
33.前記命令が実行されると、少なくとも1つの計算装置に少なくとも
前記患者の前記解剖学的な管腔ネットワークを表す一連の2次元画像から3次元ボリュームデータを生成することと、
前記3次元ボリュームデータから前記解剖学的な管腔ネットワークの内部表面の前記仮想3次元モデルを形成することと、
を実行させることを特徴とする代替案26から32のいずれかに記載の非一時的なコンピュータ可読記憶媒体。
34.前記命令が実行されると、少なくとも1つの計算装置に少なくとも、コンピュータ断層撮影システムを制御して前記一連の2次元画像を取得すること、を実行させることを特徴とする代替案33に記載の非一時的なコンピュータ可読記憶媒体。
35.前記命令が実行されると、少なくとも1つの計算装置に少なくとも、前記3次元ボリュームデータにボリュームセグメンテーションを適用することによって前記仮想3次元モデルを形成すること、を実行させることを特徴とする代替案33または34に記載の非一時的なコンピュータ可読記憶媒体。
36.患者の解剖学的な管腔ネットワークのナビゲーションを支援する方法であって、前記方法は1つのセットの1つまたは複数の計算装置によって実行され、前記方法は
前記解剖学的な管腔ネットワークの内部を表す立体画像セットを受信することと、
前記立体画像セットに基づいて、デプスマップを生成することと、
仮想管腔ネットワーク内の位置に位置する仮想撮像装置の視点からシミュレーションされた仮想画像から導出される仮想特徴にアクセスすることと、
前記デプスマップから導出される特徴と前記仮想画像から導出される前記仮想特徴との間の類似度を計算することと、
前記仮想特徴に関連付けられた前記仮想位置に基づいて、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の姿勢を特定することと、
を含む方法。
37.前記立体画像セットを生成することは、
器具の遠位端の撮像装置を、前記解剖学的な管腔ネットワーク内の第1の位置に位置決めすることと、
前記第1の位置に位置する前記撮像装置によって、前記解剖学的な管腔ネットワークの内部の第1の画像を取得することと、
前記撮像装置をロボット制御して、前記撮像装置を既知の距離だけ移動させて前記解剖学的な管腔ネットワーク内の第2の位置に移動させることと、
前記第2の位置に位置する前記撮像装置によって、前記解剖学的な管腔ネットワークの内部の第2の画像を取得することと、
を含むことを特徴とする代替案36に記載の方法。
38.前記撮像装置をロボット制御して前記既知の距離だけ移動させることは、前記撮像装置を収縮させることと前記撮像装置を角度回転させることの一方または両方を含むことと特徴とする代替案37に記載の方法。
(6.システムの実装および用語)
本明細書に開示される実施形態は、管腔ネットワークの改善されたナビゲーションのためのシステム、方法、および装置を提供する。
本明細書で使用される用語「結合する」、「結合する」、「結合される」、または単語対の他の変更は間接接続または直接接続のいずれかを示すことができ、例えば、第1の構成要素が第2の構成要素に「結合される」場合、第1の構成要素は、別の構成要素を介して第2の構成要素に間接的に接続されるか、または第2の構成要素に直接接続されることができることに留意されたい。
本明細書で説明する特徴類似度計算、位置推定、およびロボット動作作動機能は、プロセッサ可読媒体またはコンピュータ可読媒体上に1つまたは複数の命令として格納することができる。用語「コンピュータ可読媒体」は、コンピュータまたはプロセッサによってアクセスされ得る任意の利用可能な媒体を指す。限定ではなく例として、そのような媒体は、RAM(ランダムアクセスメモリ)、ROM(リードオンリメモリ)、EEPROM(電気的消去可能プログラマブルリードオンリメモリ)、フラッシュメモリ、CD-ROM(コンパクトディスクリードオンリ)または他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気ストレージデバイス、あるいは命令またはデータ構造の様式で所望のプログラムコードを格納するために使用され得、コンピュータによってアクセスされ得る任意の他の媒体を備えることができる。コンピュータ可読媒体は、有形かつ非一時的であり得ることに留意されたい。本明細書で使用されるように、用語「コード」は、計算装置またはプロセッサによって実行可能なソフトウェア、命令、コード、またはデータを指すことができる。
本明細書で開示される方法は、説明される方法を達成するための1つまたは複数のステップまたはアクションを備える。方法のステップおよび/またはアクションは、代替形態の範囲から逸脱することなく、互いに交換することができる。言い換えれば、ステップまたはアクションの特定の命令が説明されている方法の適切な動作のために必要とされない限り、特定のステップおよび/またはアクションの命令および/または使用は、代替の範囲から逸脱することなく修正され得る。
本明細書で使用される場合、用語「複数」は2つ以上を意味する。例えば、複数の構成要素は2つ以上の構成要素を示す。用語「特定すること」が多種多様なアクションを包含し、したがって、「特定すること」は計算すること、計算すること、処理すること、導出すること、調査すること、参照すること(例えば、表、データベース、または別のデータ構造を参照すること)、確認することなどを含むことができ、「特定すること」は受信すること(例えば、情報を受信すること)、アクセスすること(例えば、メモリ内のデータにアクセスすること)などを含むことができる。また、「特定すること」は、解決すること、選択すること、選ぶこと、確立することなどを含むことができる。
「に基づく」という語句は特に断らない限り、「のみに基づく」という意味ではない。言い換えれば、「に基づく」という語句は、「のみに基づく」および「少なくともに基づく」の両方を表す。
開示された実施形態の上記の説明は、当業者が本開示を実現または使用することを可能にするために提供される。これらの実装に対する様々な修正は当業者には容易に明らかであり、本明細書で定義される一般的な原理は、本開示の範囲から逸脱することなく、他の実装に適用することができる。例えば、当業者は、工具構成要素を固定、取り付け、連結、または係合する等価な方法、特定の作動運動を生成するための等価な機構、および電気エネルギーを送達するための等価な機構などの、いくつかの対応する代替的および等価な構造的詳細を採用することができることが理解されるのであろう。したがって、本開示は、本明細書に示される実装に限定されることを意図するものではなく、本明細書に開示される原理および新規な特徴と一致する最も広い範囲を与えられるべきである。

Claims (15)

  1. 患者の解剖学的な管腔ネットワークを通る器具のナビゲーションを支援するシステムであって、前記システムは、
    前記器具の遠位端にある撮像装置と、
    実行可能な命令が記憶された少なくとも1つのコンピュータ可読メモリと、
    前記少なくとも1つのコンピュータ可読メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行して前記システムに少なくとも
    前記解剖学的な管腔ネットワーク内に位置する前記器具の前記遠位端にある前記撮像装置によって取得された画像データを受信することと、
    仮想画像毎に関連付けられている仮想デプスマップのそれぞれから導出される、複数の仮想特徴にアクセスすることであって、前記仮想画像は前記解剖学的な管腔ネットワークを表す仮想管腔ネットワーク内の仮想位置毎に配置された仮想撮像装置の視点からシミュレーションされており、前記仮想デプスマップは前記仮想画像内の仮想画素ごとの前記仮想撮像装置と前記仮想管腔ネットワークの部分との間の仮想距離である仮想デプス値を示すマップであり、前記仮想特徴は、前記仮想デプスマップ内の2つのデプス基準間の距離である、アクセスすることと、
    前記画像データに基づいて、前記画像データ内の画素ごとの前記撮像装置と前記管腔ネットワーク内の組織表面との間の推定距離であるデプス値を示すマップである、デプスマップを生成することと、
    前記デプスマップから特徴を導出することであって、前記特徴は前記デプスマップ内の2つのデプス基準間の距離である、導出することと、
    前記特徴に対応する前記仮想特徴を識別することと、
    前記特徴に対応する前記仮想特徴に基づき前記仮想特徴と関連付けられた前記仮想位置に基づいて、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の姿勢を特定することと、
    を実行させる1つまたは複数のプロセッサと、
    を有することを特徴とするシステム。
  2. 前記特徴は、
    第1のデプス基準に対応する、前記デプスマップ内の複数の画素のうちの第1の局所最大値に対応する第1の画素と、
    第2のデプス基準に対応する、前記デプスマップ内の複数の画素のうちの第2の局所最大値に対応する第2の画素との間の距離であり、
    前記仮想特徴は、
    前記仮想デプスマップ内の前記第1のデプス基準に対応する、複数の画素のうちの第1の局所最大値に対応する第1の画素と、
    前記仮想デプスマップ内の前記第2のデプス基準に対応する、複数の画素のうちの第2の局所最大値に対応する第2の画素との間の距離である、請求項1に記載のシステム。
  3. 前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも、
    前記特徴と、前記複数の仮想特徴と、を比較することに基づき、前記デプスマップから導出される前記特徴に対応する、前記仮想デプスマップから導出される前記仮想特徴を識別することと、
    を実行させることを特徴とする請求項2に記載のシステム。
  4. 前記解剖学的な管腔ネットワークは気道を有し、前記画像データは前記気道の分岐を表し、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも
    前記第1のデプス基準と前記第2のデプス基準の一方を、前記デプスマップと前記仮想デプスマップのそれぞれにおける右気管支として識別することと、
    前記デプスマップにおける前記右気管支の位置と前記仮想デプスマップにおける前記右気管支の仮想位置との間の角度変換に基づいて、前記器具の回転を特定することであって、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の前記姿勢が特定された前記回転を含む、ことと、
    を実行させることを特徴とする請求項2に記載のシステム。
  5. 前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも
    前記デプスマップと前記仮想デプスマップのそれぞれにおいて、3つ以上のデプス基準を識別することと、
    前記デプスマップと前記仮想デプスマップのそれぞれにおいて、前記3つ以上のデプス基準を接続するポリゴンの形状および位置を特定することと、
    前記デプスマップの前記ポリゴンの形状および位置を前記仮想デプスマップの前記ポリゴンの形状および位置と比較することに基づいて類似度を計算することと、
    を実行させることを特徴とする請求項1に記載のシステム。
  6. 前記1つまたは複数のプロセッサはナビゲーションシステムと通信し、前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも
    前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の前記姿勢を含む複数の入力に少なくとも部分的に基づいて、前記ナビゲーションシステムを使用して前記解剖学的な管腔ネットワーク内の前記器具の確率論的な状態を計算することと、
    前記ナビゲーションシステムによって計算された前記確率論的な状態に少なくとも部分的に基づいて、前記解剖学的な管腔ネットワークを通る前記器具のナビゲーションをガイドすることと、
    を実行させることを特徴とする請求項1に記載のシステム。
  7. 前記ナビゲーション時に前記器具の動きをガイドするロボットシステムをさらに有し、
    前記複数の入力は、前記ロボットシステムから受信したロボット位置データを含み、
    前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の前記姿勢と前記ロボット位置データとに少なくとも部分的に基づいて、前記ナビゲーションシステムを使用して前記器具の前記確率論的な状態を計算すること、を実行させる
    ことを特徴とする請求項6に記載のシステム。
  8. 器具の前記遠位端に位置センサをさらに有し、
    前記複数の入力は、前記位置センサから受信したデータを含み、
    前記1つまたは複数のプロセッサは前記命令を実行して前記システムに少なくとも、前記解剖学的な管腔ネットワーク内の前記器具の前記遠位端の前記姿勢と前記位置センサから受信した前記データとに少なくとも部分的に基づいて、前記ナビゲーションシステムを使用して前記器具の前記確率論的な状態を計算すること、を実行させる
    ことを特徴とする請求項6に記載のシステム。
  9. 命令が記憶された非一時的なコンピュータ可読記憶媒体であって、前記命令が実行されると、少なくとも1つの計算装置に少なくとも
    患者の解剖学的な管腔ネットワークの内部表面の仮想3次元モデルにアクセスすることと、
    前記仮想3次元モデル内の複数の仮想位置を識別することと、
    前記仮想3次元モデル内の前記複数の仮想位置の各仮想位置に対して
    前記仮想位置に位置する仮想撮像装置と、前記仮想位置に位置するときの前記仮想撮像装置の視野内にある前記内部表面の部分と、の間の仮想距離を表す仮想デプスマップを生成することと、
    前記仮想デプスマップから少なくとも1つの仮想特徴を導出することであって、前記仮想特徴は、前記仮想デプスマップ内の2つのデプス基準間の距離を識別する、ことと、
    前記複数の仮想位置を対応する前記仮想デプスマップから導出された前記少なくとも1つの仮想特徴に関連付けるデータベースを生成することと、
    を実行させることを特徴とする非一時的なコンピュータ可読記憶媒体。
  10. 前記命令が実行されると、前記少なくとも1つの計算装置に少なくとも、医療手技時に前記解剖学的な管腔ネットワークを通る器具のナビゲーションをガイドするナビゲーションシステムに前記データベースを提供すること、を実行させることを特徴とする請求項9に記載の非一時的なコンピュータ可読記憶媒体。
  11. 前記命令が実行されると、前記少なくとも1つの計算装置に少なくとも
    前記器具の遠位端に位置する撮像装置を表すデータにアクセスすることと、
    前記撮像装置の画像取得パラメータを識別することと、
    前記撮像装置の前記画像取得パラメータに対応するように前記仮想撮像装置の仮想画像取得パラメータを設定することと、
    を実行させることを特徴とする請求項10に記載の非一時的なコンピュータ可読記憶媒体。
  12. 前記命令が実行されると、前記少なくとも1つの計算装置に少なくとも、前記仮想画像取得パラメータに基づいて前記仮想デプスマップを生成すること、を実行させることを特徴とする請求項11に記載の非一時的なコンピュータ可読記憶媒体。
  13. 前記画像取得パラメータは、視野、レンズ歪み、焦点距離、輝度シェーディングのうち1つまたは複数を含むことを特徴とする請求項11に記載の非一時的なコンピュータ可読記憶媒体。
  14. 前記命令が実行されると、前記少なくとも1つの計算装置に少なくとも
    前記複数の仮想位置の各仮想位置に対して
    前記仮想デプスマップにおいて、第1のデプス基準および第2のデプス基準を識別することと、
    前記第1のデプス基準と前記第2のデプス基準との間の距離を表す値として前記仮想特徴を計算することと、
    前記複数の仮想位置と対応する前記値とを関連付けることによって、前記データベースを作成することと、
    を実行させることを特徴とする請求項9に記載の非一時的なコンピュータ可読記憶媒体。
  15. 前記命令が実行されると、前記少なくとも1つの計算装置に少なくとも
    前記複数の仮想位置の各仮想位置に対して
    前記仮想デプスマップにおいて、3つ以上のデプス基準を識別することと、
    前記3つ以上のデプス基準を接続するポリゴンの形状および位置を特定することと、
    を実行させ、
    前記複数の仮想位置と対応する前記ポリゴンの前記形状および前記位置とを関連付けることによって、前記データベースを作成すること、
    を実行させることを特徴とする請求項9に記載の非一時的なコンピュータ可読記憶媒体。
JP2022113040A 2017-06-23 2022-07-14 管腔ネットワーク内の医療装置の姿勢を特定するロボットシステム Pending JP2022141792A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US15/631,691 US10022192B1 (en) 2017-06-23 2017-06-23 Automatically-initialized robotic systems for navigation of luminal networks
US15/631,691 2017-06-23
PCT/US2018/036329 WO2018236587A1 (en) 2017-06-23 2018-06-06 ROBOTIC SYSTEMS FOR DETERMINING THE INSTALLATION OF A MEDICAL DEVICE IN LUMINUM NETWORKS
JP2019571226A JP2020524579A (ja) 2017-06-23 2018-06-06 管腔ネットワーク内の医療装置の姿勢を特定するロボットシステム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019571226A Division JP2020524579A (ja) 2017-06-23 2018-06-06 管腔ネットワーク内の医療装置の姿勢を特定するロボットシステム

Publications (2)

Publication Number Publication Date
JP2022141792A true JP2022141792A (ja) 2022-09-29
JP2022141792A5 JP2022141792A5 (ja) 2023-08-08

Family

ID=62837432

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019571226A Pending JP2020524579A (ja) 2017-06-23 2018-06-06 管腔ネットワーク内の医療装置の姿勢を特定するロボットシステム
JP2022113040A Pending JP2022141792A (ja) 2017-06-23 2022-07-14 管腔ネットワーク内の医療装置の姿勢を特定するロボットシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019571226A Pending JP2020524579A (ja) 2017-06-23 2018-06-06 管腔ネットワーク内の医療装置の姿勢を特定するロボットシステム

Country Status (7)

Country Link
US (5) US10022192B1 (ja)
EP (1) EP3641687A4 (ja)
JP (2) JP2020524579A (ja)
KR (1) KR102582808B1 (ja)
CN (2) CN116725669A (ja)
AU (1) AU2018289116B2 (ja)
WO (1) WO2018236587A1 (ja)

Families Citing this family (221)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8414505B1 (en) 2001-02-15 2013-04-09 Hansen Medical, Inc. Catheter driver system
JP4755638B2 (ja) 2004-03-05 2011-08-24 ハンセン メディカル,インク. ロボットガイドカテーテルシステム
WO2007005976A1 (en) 2005-07-01 2007-01-11 Hansen Medical, Inc. Robotic catheter system
US8814921B2 (en) 2008-03-06 2014-08-26 Aquabeam Llc Tissue ablation and cautery with optical energy carried in fluid stream
US9232959B2 (en) 2007-01-02 2016-01-12 Aquabeam, Llc Multi fluid tissue resection methods and devices
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US9254123B2 (en) 2009-04-29 2016-02-09 Hansen Medical, Inc. Flexible and steerable elongate instruments with shape control and support elements
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US9314306B2 (en) 2010-09-17 2016-04-19 Hansen Medical, Inc. Systems and methods for manipulating an elongate member
US20120191086A1 (en) 2011-01-20 2012-07-26 Hansen Medical, Inc. System and method for endoluminal and translumenal therapy
US9138166B2 (en) 2011-07-29 2015-09-22 Hansen Medical, Inc. Apparatus and methods for fiber integration and registration
US20130303944A1 (en) 2012-05-14 2013-11-14 Intuitive Surgical Operations, Inc. Off-axis electromagnetic sensor
US9452276B2 (en) 2011-10-14 2016-09-27 Intuitive Surgical Operations, Inc. Catheter with removable vision probe
JP6080872B2 (ja) 2012-02-29 2017-02-15 プロセプト バイオロボティクス コーポレイション 自動化された画像誘導組織切除および治療
US10383765B2 (en) 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US20130317519A1 (en) 2012-05-25 2013-11-28 Hansen Medical, Inc. Low friction instrument driver interface for robotic systems
US20140148673A1 (en) 2012-11-28 2014-05-29 Hansen Medical, Inc. Method of anchoring pullwire directly articulatable region in catheter
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
US9668814B2 (en) 2013-03-07 2017-06-06 Hansen Medical, Inc. Infinitely rotatable tool with finite rotating drive shafts
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US9566414B2 (en) 2013-03-13 2017-02-14 Hansen Medical, Inc. Integrated catheter and guide wire controller
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9326822B2 (en) 2013-03-14 2016-05-03 Hansen Medical, Inc. Active drives for robotic catheter manipulators
US9173713B2 (en) 2013-03-14 2015-11-03 Hansen Medical, Inc. Torque-based catheter articulation
US9498601B2 (en) 2013-03-14 2016-11-22 Hansen Medical, Inc. Catheter tension sensing
US11213363B2 (en) 2013-03-14 2022-01-04 Auris Health, Inc. Catheter tension sensing
US20140277334A1 (en) 2013-03-14 2014-09-18 Hansen Medical, Inc. Active drives for robotic catheter manipulators
US20140276936A1 (en) 2013-03-15 2014-09-18 Hansen Medical, Inc. Active drive mechanism for simultaneous rotation and translation
US10376672B2 (en) 2013-03-15 2019-08-13 Auris Health, Inc. Catheter insertion system and method of fabrication
US9408669B2 (en) 2013-03-15 2016-08-09 Hansen Medical, Inc. Active drive mechanism with finite range of motion
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US9283046B2 (en) 2013-03-15 2016-03-15 Hansen Medical, Inc. User interface for active drive apparatus with finite range of motion
US9452018B2 (en) 2013-03-15 2016-09-27 Hansen Medical, Inc. Rotational support for an elongate member
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US20140276647A1 (en) 2013-03-15 2014-09-18 Hansen Medical, Inc. Vascular remote catheter manipulator
US10849702B2 (en) 2013-03-15 2020-12-01 Auris Health, Inc. User input devices for controlling manipulation of guidewires and catheters
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
WO2014201165A1 (en) 2013-06-11 2014-12-18 Auris Surgical Robotics, Inc. System for robotic assisted cataract surgery
US10512511B2 (en) 2013-07-24 2019-12-24 Centre For Surgical Invention And Innovation Multi-function mounting interface for an image-guided robotic system and quick release interventional toolset
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
US9763741B2 (en) 2013-10-24 2017-09-19 Auris Surgical Robotics, Inc. System for robotic-assisted endolumenal surgery and related methods
EP2923669B1 (en) 2014-03-24 2017-06-28 Hansen Medical, Inc. Systems and devices for catheter driving instinctiveness
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
US10569052B2 (en) 2014-05-15 2020-02-25 Auris Health, Inc. Anti-buckling mechanisms for catheters
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
EP3200718A4 (en) 2014-09-30 2018-04-25 Auris Surgical Robotics, Inc Configurable robotic surgical system with virtual rail and flexible endoscope
US10499999B2 (en) 2014-10-09 2019-12-10 Auris Health, Inc. Systems and methods for aligning an elongate member with an access site
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
WO2016123697A1 (en) * 2015-02-02 2016-08-11 The University Of Western Ontario Navigation by bending forces
US11819636B2 (en) 2015-03-30 2023-11-21 Auris Health, Inc. Endoscope pull wire electrical circuit
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
WO2016164824A1 (en) 2015-04-09 2016-10-13 Auris Surgical Robotics, Inc. Surgical system with configurable rail-mounted mechanical arms
US9636184B2 (en) 2015-05-15 2017-05-02 Auris Surgical Robotics, Inc. Swivel bed for a surgical robotics system
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
JP6938507B2 (ja) 2015-09-09 2021-09-22 オーリス ヘルス インコーポレイテッド 手術支援ロボットシステム用の器械装置マニピュレータ
US9727963B2 (en) 2015-09-18 2017-08-08 Auris Surgical Robotics, Inc. Navigation of tubular networks
US10639108B2 (en) 2015-10-30 2020-05-05 Auris Health, Inc. Process for percutaneous operations
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US10667868B2 (en) 2015-12-31 2020-06-02 Stryker Corporation System and methods for performing surgery on a patient at a target site defined by a virtual object
US10932861B2 (en) 2016-01-14 2021-03-02 Auris Health, Inc. Electromagnetic tracking surgical system and method of controlling the same
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US11324554B2 (en) 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
US10454347B2 (en) 2016-04-29 2019-10-22 Auris Health, Inc. Compact height torque sensing articulation axis assembly
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
US10463439B2 (en) 2016-08-26 2019-11-05 Auris Health, Inc. Steerable catheter with shaft load distributions
US11241559B2 (en) 2016-08-29 2022-02-08 Auris Health, Inc. Active drive for guidewire manipulation
KR20230096148A (ko) 2016-08-31 2023-06-29 아우리스 헬스, 인코포레이티드 길이 보존 수술용 기구
US11389360B2 (en) * 2016-09-16 2022-07-19 Verb Surgical Inc. Linkage mechanisms for mounting robotic arms to a surgical table
US11185455B2 (en) * 2016-09-16 2021-11-30 Verb Surgical Inc. Table adapters for mounting robotic arms to a surgical table
US10748319B1 (en) 2016-09-19 2020-08-18 Radlink, Inc. Composite radiographic image that corrects effects of parallax distortion
WO2018053486A1 (en) * 2016-09-19 2018-03-22 Radlink, Inc. Composite radiographic image that corrects effects of parallax distortion
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US10543048B2 (en) 2016-12-28 2020-01-28 Auris Health, Inc. Flexible instrument insertion using an adaptive insertion force threshold
US10136959B2 (en) 2016-12-28 2018-11-27 Auris Health, Inc. Endolumenal object sizing
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
JP7159192B2 (ja) 2017-03-28 2022-10-24 オーリス ヘルス インコーポレイテッド シャフト作動ハンドル
JP7282685B2 (ja) 2017-03-31 2023-05-29 オーリス ヘルス インコーポレイテッド 生理学的ノイズを補償する管腔ネットワークのナビゲーション用ロボットシステム
KR102550962B1 (ko) 2017-04-07 2023-07-06 아우리스 헬스, 인코포레이티드 환자 삽입기(Introducer) 정렬
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
US11529129B2 (en) 2017-05-12 2022-12-20 Auris Health, Inc. Biopsy apparatus and system
KR102576296B1 (ko) 2017-05-17 2023-09-08 아우리스 헬스, 인코포레이티드 교환 가능한 작업 채널
US10022192B1 (en) * 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
KR102341451B1 (ko) 2017-06-28 2021-12-23 아우리스 헬스, 인코포레이티드 기기의 삽입 보상을 위한 로봇 시스템, 방법 및 비일시적 컴퓨터 가독 저장 매체
CN110809452B (zh) 2017-06-28 2023-05-23 奥瑞斯健康公司 电磁场发生器对准
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
JP7330902B2 (ja) 2017-06-28 2023-08-22 オーリス ヘルス インコーポレイテッド 電磁歪み検出
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
US10464209B2 (en) 2017-10-05 2019-11-05 Auris Health, Inc. Robotic system with indication of boundary for robotic arm
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
US10016900B1 (en) 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
US10893843B2 (en) 2017-10-10 2021-01-19 Covidien Lp System and method for identifying and marking a target in a fluoroscopic three-dimensional reconstruction
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US10987179B2 (en) 2017-12-06 2021-04-27 Auris Health, Inc. Systems and methods to correct for uncommanded instrument roll
US10835153B2 (en) 2017-12-08 2020-11-17 Auris Health, Inc. System and method for medical instrument navigation and targeting
KR102473254B1 (ko) 2017-12-08 2022-12-06 아우리스 헬스, 인코포레이티드 지향된 유체 공학
KR20230152180A (ko) 2017-12-10 2023-11-02 매직 립, 인코포레이티드 광학 도파관들 상의 반사―방지 코팅들
JP7080986B2 (ja) 2017-12-11 2022-06-06 オーリス ヘルス インコーポレイテッド 器具ベースの挿入アーキテクチャのためのシステム及び方法
EP3684562A4 (en) 2017-12-14 2021-06-30 Auris Health, Inc. SYSTEM AND METHOD OF ESTIMATING THE LOCATION OF AN INSTRUMENT
EP3684283A4 (en) 2017-12-18 2021-07-14 Auris Health, Inc. METHODS AND SYSTEMS FOR MONITORING AND NAVIGATION OF INSTRUMENTS IN LUMINAL NETWORKS
USD901018S1 (en) 2018-01-17 2020-11-03 Auris Health, Inc. Controller
USD932628S1 (en) 2018-01-17 2021-10-05 Auris Health, Inc. Instrument cart
BR112020014449B1 (pt) 2018-01-17 2023-12-12 Auris Health, Inc Sistema de plataforma cirúrgica com suportes de braço ajustáveis
USD924410S1 (en) 2018-01-17 2021-07-06 Auris Health, Inc. Instrument tower
USD901694S1 (en) 2018-01-17 2020-11-10 Auris Health, Inc. Instrument handle
US10888386B2 (en) 2018-01-17 2021-01-12 Auris Health, Inc. Surgical robotics systems with improved robotic arms
USD873878S1 (en) 2018-01-17 2020-01-28 Auris Health, Inc. Robotic arm
US10893842B2 (en) 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
JP7301884B2 (ja) 2018-02-13 2023-07-03 オーリス ヘルス インコーポレイテッド 医療用器具を駆動するためのシステム及び方法
EP3766039A4 (en) 2018-03-15 2021-04-07 Magic Leap, Inc. IMAGE CORRECTION BY DEFORMING COMPONENTS OF A VIEWING DEVICE
EP3773131A4 (en) 2018-03-28 2021-12-15 Auris Health, Inc. LOCATION SENSOR RECORDING SYSTEMS AND METHODS
US10827913B2 (en) 2018-03-28 2020-11-10 Auris Health, Inc. Systems and methods for displaying estimated location of instrument
JP7305668B2 (ja) 2018-03-28 2023-07-10 オーリス ヘルス インコーポレイテッド 可変曲げ剛性プロファイルを有する医療用器具
CN112218595A (zh) 2018-05-18 2021-01-12 奥瑞斯健康公司 用于机器人使能的远程操作的系统的控制器
US10905499B2 (en) 2018-05-30 2021-02-02 Auris Health, Inc. Systems and methods for location sensor-based branch prediction
WO2019232236A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Image-based airway analysis and mapping
EP3801189A4 (en) 2018-05-31 2022-02-23 Auris Health, Inc. PATH-BASED NAVIGATION OF TUBULAR NETWORKS
MX2020012897A (es) 2018-05-31 2021-05-27 Auris Health Inc Sistemas roboticos y metodos para navegacion de la red luminal que detectan ruido fisiologico.
MX2020013241A (es) 2018-06-07 2021-02-22 Auris Health Inc Sistemas medicos roboticos con instrumentos de gran fuerza.
WO2020005348A1 (en) 2018-06-27 2020-01-02 Auris Health, Inc. Alignment and attachment systems for medical instruments
US10667875B2 (en) 2018-06-27 2020-06-02 Auris Health, Inc. Systems and techniques for providing multiple perspectives during medical procedures
JP7391886B2 (ja) 2018-06-28 2023-12-05 オーリス ヘルス インコーポレイテッド 滑車共有を組み込んだ医療システム
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
WO2020016886A1 (en) * 2018-07-17 2020-01-23 Bnaiahu Levin Systems and methods of navigation for robotic colonoscopy
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
CN112789544B (zh) 2018-08-03 2023-06-30 奇跃公司 图腾在用户交互系统中的融合姿势的基于未融合姿势的漂移校正
CN112804946A (zh) 2018-08-07 2021-05-14 奥瑞斯健康公司 将基于应变的形状感测与导管控制相结合
EP3806772A4 (en) 2018-08-15 2022-03-30 Auris Health, Inc. MEDICAL INSTRUMENTS FOR TISSUE CAUTERIZATION
WO2020036686A1 (en) 2018-08-17 2020-02-20 Auris Health, Inc. Bipolar medical instrument
US10881280B2 (en) 2018-08-24 2021-01-05 Auris Health, Inc. Manually and robotically controllable medical instruments
EP3813715A4 (en) 2018-09-17 2022-04-13 Auris Health, Inc. SYSTEMS AND METHODS FOR CONCOMITANT MEDICAL INTERVENTIONS
US11179212B2 (en) 2018-09-26 2021-11-23 Auris Health, Inc. Articulating medical instruments
CN112770689A (zh) 2018-09-26 2021-05-07 奥瑞斯健康公司 用于抽吸和冲洗的系统和器械
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
AU2019347767A1 (en) 2018-09-28 2021-04-08 Auris Health, Inc. Systems and methods for docking medical instruments
WO2020069080A1 (en) 2018-09-28 2020-04-02 Auris Health, Inc. Devices, systems, and methods for manually and robotically driving medical instruments
US11576738B2 (en) 2018-10-08 2023-02-14 Auris Health, Inc. Systems and instruments for tissue sealing
JP7286948B2 (ja) * 2018-11-07 2023-06-06 ソニーグループ株式会社 医療用観察システム、信号処理装置及び医療用観察方法
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
EP3870075A4 (en) 2018-12-20 2022-08-03 Auris Health, Inc. SHIELDING FOR WRIST INSTRUMENTS
WO2020131186A1 (en) 2018-12-20 2020-06-25 Auris Health, Inc. Systems and methods for robotic arm alignment and docking
EP3870023A4 (en) 2018-12-28 2022-07-27 Auris Health, Inc. MEDICAL INSTRUMENT WITH AN ARTICULABLE SEGMENT
EP3866707A4 (en) 2018-12-28 2022-07-20 Auris Health, Inc. PERCUTANEOUS SHEATH FOR ROBOTIC MEDICAL SYSTEMS AND PROCEDURES
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
WO2020154100A1 (en) 2019-01-25 2020-07-30 Auris Health, Inc. Vessel sealer with heating and cooling capabilities
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
CN109760055A (zh) * 2019-01-30 2019-05-17 盈科视控(北京)科技有限公司 一种用于机器人的图形通讯的方法和系统
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
EP3890644A4 (en) 2019-02-08 2022-11-16 Auris Health, Inc. MANIPULATION AND CLOT REMOVAL WITH ROBOTIC CONTROL
WO2020172394A1 (en) 2019-02-22 2020-08-27 Auris Health, Inc. Surgical platform with motorized arms for adjustable arm supports
WO2020185516A1 (en) * 2019-03-08 2020-09-17 Auris Health, Inc. Tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and
WO2020197671A1 (en) 2019-03-22 2020-10-01 Auris Health, Inc. Systems and methods for aligning inputs on medical instruments
US11534248B2 (en) 2019-03-25 2022-12-27 Auris Health, Inc. Systems and methods for medical stapling
US11617627B2 (en) 2019-03-29 2023-04-04 Auris Health, Inc. Systems and methods for optical strain sensing in medical instruments
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
EP3952779A4 (en) 2019-04-08 2023-01-18 Auris Health, Inc. SYSTEMS, PROCESSES AND WORKFLOW FOR CONCURRENT PROCEEDINGS
AU2019441035A1 (en) * 2019-04-15 2021-10-14 Covidien Lp System and method for robotic cart arm assembly identification
KR102249644B1 (ko) * 2019-04-30 2021-05-10 울산대학교 산학협력단 가이드와이어의 회전 제어 장치 및 방법
US11369386B2 (en) 2019-06-27 2022-06-28 Auris Health, Inc. Systems and methods for a medical clip applier
WO2020264418A1 (en) 2019-06-28 2020-12-30 Auris Health, Inc. Console overlay and methods of using same
EP3989863A4 (en) 2019-06-28 2023-10-11 Auris Health, Inc. MEDICAL INSTRUMENTS WITH WRISTS WITH HYBRID DIVERSION SURFACES
US11717147B2 (en) 2019-08-15 2023-08-08 Auris Health, Inc. Medical device having multiple bending sections
USD975275S1 (en) 2019-08-15 2023-01-10 Auris Health, Inc. Handle for a medical instrument
USD978348S1 (en) 2019-08-15 2023-02-14 Auris Health, Inc. Drive device for a medical instrument
US11896330B2 (en) 2019-08-15 2024-02-13 Auris Health, Inc. Robotic medical system having multiple medical instruments
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
KR20220058918A (ko) 2019-08-30 2022-05-10 아우리스 헬스, 인코포레이티드 기구 이미지 신뢰성 시스템 및 방법
CN114340542B (zh) 2019-08-30 2023-07-21 奥瑞斯健康公司 用于位置传感器的基于权重的配准的系统和方法
WO2021044297A1 (en) 2019-09-03 2021-03-11 Auris Health, Inc. Electromagnetic distortion detection and compensation
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11234780B2 (en) 2019-09-10 2022-02-01 Auris Health, Inc. Systems and methods for kinematic optimization with shared robotic degrees-of-freedom
US20220383584A1 (en) * 2019-09-18 2022-12-01 Inveox Gmbh System and methods for generating a 3d model of a pathology sample
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
CN114502094A (zh) 2019-09-26 2022-05-13 奥瑞斯健康公司 用于碰撞检测和避免的系统和方法
WO2021064536A1 (en) 2019-09-30 2021-04-08 Auris Health, Inc. Medical instrument with capstan
US11737835B2 (en) 2019-10-29 2023-08-29 Auris Health, Inc. Braid-reinforced insulation sheath
US11439419B2 (en) 2019-12-31 2022-09-13 Auris Health, Inc. Advanced basket drive mode
WO2021137072A1 (en) 2019-12-31 2021-07-08 Auris Health, Inc. Anatomical feature identification and targeting
JP2023508525A (ja) 2019-12-31 2023-03-02 オーリス ヘルス インコーポレイテッド 経皮的アクセスのための位置合わせ技術
US11950872B2 (en) 2019-12-31 2024-04-09 Auris Health, Inc. Dynamic pulley system
US11602372B2 (en) 2019-12-31 2023-03-14 Auris Health, Inc. Alignment interfaces for percutaneous access
US11847730B2 (en) 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
CN115379815A (zh) * 2020-04-10 2022-11-22 川崎重工业株式会社 机器人系统及其运转方法
CN111571611B (zh) * 2020-05-26 2021-09-21 广州纳丽生物科技有限公司 一种基于面部及皮肤特征的面部作业机器人轨迹规划方法
US11087557B1 (en) * 2020-06-03 2021-08-10 Tovy Kamine Methods and systems for remote augmented reality communication for guided surgery
US11701492B2 (en) 2020-06-04 2023-07-18 Covidien Lp Active distal tip drive
CN111759464B (zh) * 2020-06-22 2022-10-21 广东省精格医疗技术有限公司 基于双向反馈的血管机器人的控制系统及方法
US11839969B2 (en) 2020-06-29 2023-12-12 Auris Health, Inc. Systems and methods for detecting contact between a link and an external object
WO2022003493A1 (en) 2020-06-30 2022-01-06 Auris Health, Inc. Robotic medical system with collision proximity indicators
US11357586B2 (en) 2020-06-30 2022-06-14 Auris Health, Inc. Systems and methods for saturated robotic movement
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
DE102020212086A1 (de) * 2020-09-25 2022-03-31 Siemens Healthcare Gmbh Ermitteln der Qualität einer Positionierung eines in einen Patientenkörper eingeführten Objekts
CN112815932B (zh) * 2021-01-07 2023-03-21 中铁二院工程集团有限责任公司 基座检核方法及基座与控制点对中的检核方法
WO2022251814A2 (en) * 2021-05-24 2022-12-01 Stryker Corporation Systems and methods for generating three-dimensional measurements using endoscopic video data
CN113591977B (zh) * 2021-07-29 2024-06-18 武汉联影智融医疗科技有限公司 点对匹配方法、装置、电子设备和存储介质
US20230404670A1 (en) * 2022-05-27 2023-12-21 Covidien Lp Creating a navigation pathway to a target in the lung and method of navigating to the target
WO2023235224A1 (en) * 2022-05-31 2023-12-07 Noah Medical Corporation Systems and methods for robotic endoscope with integrated tool-in-lesion-tomosynthesis
WO2024100617A1 (en) * 2022-11-10 2024-05-16 Johnson & Johnson Enterprise Innovation Inc. Electronically guided precision medical targeting using near infrared fluorescence imaging

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2004089484A (ja) * 2002-08-30 2004-03-25 Olympus Corp 内視鏡装置
US20120082351A1 (en) * 2005-05-23 2012-04-05 The Penn State Research Foundation Fast 3d-2d image registration method with application to continuously guided endoscopy

Family Cites Families (409)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4745908A (en) 1987-05-08 1988-05-24 Circon Corporation Inspection instrument fexible shaft having deflection compensation means
JP2750201B2 (ja) 1990-04-13 1998-05-13 オリンパス光学工業株式会社 内視鏡の挿入状態検出装置
US5550953A (en) 1994-04-20 1996-08-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration On-line method and apparatus for coordinated mobility and manipulation of mobile robots
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5526812A (en) 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US6059718A (en) 1993-10-18 2000-05-09 Olympus Optical Co., Ltd. Endoscope form detecting apparatus in which coil is fixedly mounted by insulating member so that form is not deformed within endoscope
DE29521895U1 (de) 1994-10-07 1998-09-10 St. Louis University, St. Louis, Mo. Chirurgisches Navigationssystem umfassend Referenz- und Lokalisationsrahmen
US6690963B2 (en) 1995-01-24 2004-02-10 Biosense, Inc. System for determining the location and orientation of an invasive medical instrument
US6246898B1 (en) 1995-03-28 2001-06-12 Sonometrics Corporation Method for carrying out a medical procedure using a three-dimensional tracking and imaging system
ATE221338T1 (de) 1995-09-20 2002-08-15 Texas Heart Inst Ynzeige von thermischen unstetigkeiten an gefässwänden
ES2212079T3 (es) 1996-02-15 2004-07-16 Biosense, Inc. Sonda marcadora de posicion.
EP0883375B1 (en) 1996-02-15 2005-05-11 Biosense Webster, Inc. Precise position determination of endoscopes
US6063095A (en) 1996-02-20 2000-05-16 Computer Motion, Inc. Method and apparatus for performing minimally invasive surgical procedures
US6047080A (en) 1996-06-19 2000-04-04 Arch Development Corporation Method and apparatus for three-dimensional reconstruction of coronary vessels from angiographic images
US5831614A (en) 1996-07-01 1998-11-03 Sun Microsystems, Inc. X-Y viewport scroll using location of display with respect to a point
JP2000509626A (ja) 1997-01-24 2000-08-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像表示システム
US6246784B1 (en) * 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6810281B2 (en) 2000-12-21 2004-10-26 Endovia Medical, Inc. Medical mapping system
FR2779339B1 (fr) 1998-06-09 2000-10-13 Integrated Surgical Systems Sa Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application
US6425865B1 (en) 1998-06-12 2002-07-30 The University Of British Columbia Robotically assisted medical ultrasound
WO2000028882A2 (en) 1998-11-18 2000-05-25 Microdexterity Systems, Inc. Medical manipulator for use with an imaging device
US6493608B1 (en) 1999-04-07 2002-12-10 Intuitive Surgical, Inc. Aspects of a control system of a minimally invasive surgical apparatus
US6501981B1 (en) 1999-03-16 2002-12-31 Accuray, Inc. Apparatus and method for compensating for respiratory and patient motions during treatment
US6594552B1 (en) 1999-04-07 2003-07-15 Intuitive Surgical, Inc. Grip strength with tactile feedback for robotic surgery
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
US7386339B2 (en) 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
FI114282B (fi) 1999-11-05 2004-09-30 Polar Electro Oy Menetelmä, järjestely ja sykemittari sydämen lyönnin tunnistamiseksi
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US6755797B1 (en) 1999-11-29 2004-06-29 Bowles Fluidics Corporation Method and apparatus for producing oscillation of a bladder
US7747312B2 (en) 2000-01-04 2010-06-29 George Mason Intellectual Properties, Inc. System and method for automatic shape registration and instrument tracking
DE10011790B4 (de) 2000-03-13 2005-07-14 Siemens Ag Medizinisches Instrument zum Einführen in ein Untersuchungsobjekt, sowie medizinisches Untersuchungs- oder Behandlungsgerät
US7181289B2 (en) 2000-03-20 2007-02-20 Pflueger D Russell Epidural nerve root access catheter and treatment methods
DE10025285A1 (de) 2000-05-22 2001-12-06 Siemens Ag Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe
DE10033723C1 (de) 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
US6865498B2 (en) 2001-11-30 2005-03-08 Thermwood Corporation System for calibrating the axes on a computer numeric controlled machining system and method thereof
US6812842B2 (en) 2001-12-20 2004-11-02 Calypso Medical Technologies, Inc. System for excitation of a leadless miniature marker
AU2003218010A1 (en) 2002-03-06 2003-09-22 Z-Kat, Inc. System and method for using a haptic device in combination with a computer-assisted surgery system
DE10210646A1 (de) 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
JP2003265409A (ja) 2002-03-15 2003-09-24 Olympus Optical Co Ltd 内視鏡装置
US20050256398A1 (en) 2004-05-12 2005-11-17 Hastings Roger N Systems and methods for interventional medicine
US7998062B2 (en) 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
WO2003086498A2 (en) 2002-04-17 2003-10-23 Super Dimension Ltd. Endoscope structures and techniques for navigating to a target in branched structure
WO2003091839A2 (en) 2002-04-25 2003-11-06 The John Hopkins University Robot for computed tomography interventions
AU2003240552A1 (en) 2002-06-04 2003-12-19 Koninklijke Philips Electronics N.V. Rotational angiography based hybrid 3-d reconstruction of coronary arterial structure
EP1534141B1 (en) 2002-06-17 2013-08-07 Mazor Robotics Ltd. Robot for use with orthopaedic inserts
AU2003246906A1 (en) 2002-06-25 2004-01-06 Michael Nicholas Dalton Apparatus and method for superimposing images over an object
KR100449765B1 (ko) 2002-10-12 2004-09-22 삼성에스디아이 주식회사 리튬전지용 리튬메탈 애노드
US6899672B2 (en) 2002-11-08 2005-05-31 Scimed Life Systems, Inc. Endoscopic imaging system including removable deflection device
WO2004044847A1 (en) 2002-11-13 2004-05-27 Koninklijke Philips Electronics N.V. Medical viewing system and method for detecting boundary structures
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US20040186349A1 (en) 2002-12-24 2004-09-23 Usgi Medical Corp. Apparatus and methods for achieving endoluminal access
FR2852226B1 (fr) 2003-03-10 2005-07-15 Univ Grenoble 1 Instrument medical localise a ecran orientable
US7203277B2 (en) 2003-04-25 2007-04-10 Brainlab Ag Visualization device and method for combined patient and object image data
US7822461B2 (en) 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
EP2316328B1 (en) 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
DE10357184A1 (de) * 2003-12-08 2005-07-07 Siemens Ag Verfahren zur fusionierten Bilddarstellung
WO2005058137A2 (en) 2003-12-12 2005-06-30 University Of Washington Catheterscope 3d guidance and interface system
JP2005192632A (ja) 2003-12-26 2005-07-21 Olympus Corp 被検体内移動状態検出システム
US8021301B2 (en) 2003-12-26 2011-09-20 Fujifilm Corporation Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program
US20050193451A1 (en) 2003-12-30 2005-09-01 Liposonix, Inc. Articulating arm for medical procedures
EP1715788B1 (en) 2004-02-17 2011-09-07 Philips Electronics LTD Method and apparatus for registration, verification, and referencing of internal organs
US7850642B2 (en) 2004-03-05 2010-12-14 Hansen Medical, Inc. Methods using a robotic catheter system
JP4755638B2 (ja) 2004-03-05 2011-08-24 ハンセン メディカル,インク. ロボットガイドカテーテルシステム
US7811294B2 (en) 2004-03-08 2010-10-12 Mediguide Ltd. Automatic guidewire maneuvering system and method
ES2409160T3 (es) 2004-03-23 2013-06-25 Boston Scientific Limited Sistema de visualización in vivo
EP1731093B1 (en) 2004-03-29 2013-01-09 Olympus Corporation System for detecting position in examinee
US7462175B2 (en) 2004-04-21 2008-12-09 Acclarent, Inc. Devices, systems and methods for treating disorders of the ear, nose and throat
US7720521B2 (en) * 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
US20070208252A1 (en) * 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
US8155403B2 (en) 2004-05-05 2012-04-10 University Of Iowa Research Foundation Methods and devices for airway tree labeling and/or matching
US7632265B2 (en) 2004-05-28 2009-12-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Radio frequency ablation servo catheter and method
US20060209019A1 (en) 2004-06-01 2006-09-21 Energid Technologies Corporation Magnetic haptic feedback systems and methods for virtual reality environments
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060025668A1 (en) 2004-08-02 2006-02-02 Peterson Thomas H Operating table with embedded tracking technology
US8239002B2 (en) 2004-08-12 2012-08-07 Novatek Medical Ltd. Guiding a tool for medical treatment by detecting a source of radioactivity
US7536216B2 (en) 2004-10-18 2009-05-19 Siemens Medical Solutions Usa, Inc. Method and system for virtual endoscopy with guidance for biopsy
CA2587857C (en) 2004-11-23 2017-10-10 Pneumrx, Inc. Steerable device for accessing a target site and methods
US8611983B2 (en) 2005-01-18 2013-12-17 Philips Electronics Ltd Method and apparatus for guiding an instrument to a target in the lung
US8335357B2 (en) 2005-03-04 2012-12-18 Kabushiki Kaisha Toshiba Image processing apparatus
US20060258935A1 (en) 2005-05-12 2006-11-16 John Pile-Spellman System for autonomous robotic navigation
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US7756563B2 (en) * 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
JP4813190B2 (ja) 2005-05-26 2011-11-09 オリンパスメディカルシステムズ株式会社 カプセル型医療装置
GB2428110A (en) 2005-07-06 2007-01-17 Armstrong Healthcare Ltd A robot and method of registering a robot.
WO2007011654A1 (en) 2005-07-14 2007-01-25 Enhanced Medical System Llc Robot for minimally invasive interventions
US8583220B2 (en) 2005-08-02 2013-11-12 Biosense Webster, Inc. Standardization of catheter-based treatment for atrial fibrillation
US8657814B2 (en) 2005-08-22 2014-02-25 Medtronic Ablation Frontiers Llc User interface for tissue ablation system
EP1924197B1 (en) 2005-08-24 2017-10-11 Philips Electronics LTD System for navigated flexible endoscopy
EP1931237A2 (en) 2005-09-14 2008-06-18 Neoguide Systems, Inc. Methods and apparatus for performing transluminal and other procedures
US20070073136A1 (en) 2005-09-15 2007-03-29 Robert Metzger Bone milling with image guided surgery
EP1956962B1 (en) 2005-11-22 2020-09-16 Intuitive Surgical Operations, Inc. System for determining the shape of a bendable instrument
US8303505B2 (en) 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US8190238B2 (en) 2005-12-09 2012-05-29 Hansen Medical, Inc. Robotic catheter system and methods
DE102005059271B4 (de) 2005-12-12 2019-02-21 Siemens Healthcare Gmbh Kathetervorrichtung
US8672922B2 (en) 2005-12-20 2014-03-18 Intuitive Surgical Operations, Inc. Wireless communication in a robotic surgical system
US9266239B2 (en) 2005-12-27 2016-02-23 Intuitive Surgical Operations, Inc. Constraint based control in a minimally invasive surgical apparatus
US9962066B2 (en) 2005-12-30 2018-05-08 Intuitive Surgical Operations, Inc. Methods and apparatus to shape flexible entry guides for minimally invasive surgery
US7930065B2 (en) 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
US9782229B2 (en) 2007-02-16 2017-10-10 Globus Medical, Inc. Surgical robot platform
US9186046B2 (en) 2007-08-14 2015-11-17 Koninklijke Philips Electronics N.V. Robotic instrument systems and methods utilizing optical fiber sensor
US8191359B2 (en) 2006-04-13 2012-06-05 The Regents Of The University Of California Motion estimation using hidden markov model processing in MRI and other applications
WO2007129616A1 (ja) 2006-05-02 2007-11-15 National University Corporation Nagoya University 内視鏡挿入支援システム及び内視鏡挿入支援方法
DE102006021373A1 (de) 2006-05-08 2007-11-15 Siemens Ag Röntgendiagnostikeinrichtung
WO2007141784A2 (en) 2006-06-05 2007-12-13 Technion Research & Development Foundation Ltd. Controlled steering of a flexible needle
US7505810B2 (en) 2006-06-13 2009-03-17 Rhythmia Medical, Inc. Non-contact cardiac mapping, including preprocessing
US7942868B2 (en) 2006-06-13 2011-05-17 Intuitive Surgical Operations, Inc. Surgical instrument with parallel motion mechanism
US8040127B2 (en) 2006-08-15 2011-10-18 General Electric Company Multi-sensor distortion mapping method and system
US8150498B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for identification of anatomical landmarks
US7824328B2 (en) 2006-09-18 2010-11-02 Stryker Corporation Method and apparatus for tracking a surgical instrument during surgery
CN100546540C (zh) 2006-09-19 2009-10-07 上海宏桐实业有限公司 心内膜三维导航系统
US8041413B2 (en) 2006-10-02 2011-10-18 Hansen Medical, Inc. Systems and methods for three-dimensional ultrasound mapping
US7940977B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies
AU2007350982A1 (en) 2006-11-10 2008-10-23 Dorian Averbuch Adaptive navigation technique for navigating a catheter through a body channel or cavity
US7936922B2 (en) 2006-11-22 2011-05-03 Adobe Systems Incorporated Method and apparatus for segmenting images
WO2008070012A2 (en) 2006-12-01 2008-06-12 Thomson Licensing Estimating a location of an object in an image
US9220439B2 (en) 2006-12-29 2015-12-29 St. Jude Medical, Atrial Fibrillation Division, Inc. Navigational reference dislodgement detection method and system
US20080183188A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Surgical Navigational and Neuromonitoring System
US20080183068A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Visualization of Surgical Navigational and Neural Monitoring Information
US20080183064A1 (en) 2007-01-30 2008-07-31 General Electric Company Multi-sensor distortion detection method and system
US8672836B2 (en) 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US20080218770A1 (en) 2007-02-02 2008-09-11 Hansen Medical, Inc. Robotic surgical instrument and methods using bragg fiber sensors
JP4914735B2 (ja) 2007-02-14 2012-04-11 オリンパスメディカルシステムズ株式会社 処置具の位置制御を行う内視鏡システム
WO2008103383A1 (en) * 2007-02-20 2008-08-28 Gildenberg Philip L Videotactic and audiotactic assisted surgical methods and procedures
EP2358269B1 (en) 2007-03-08 2019-04-10 Sync-RX, Ltd. Image processing and tool actuation for medical procedures
US10433929B2 (en) 2007-03-09 2019-10-08 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for local deformable registration of a catheter navigation system to image data or a model
WO2008111070A2 (en) 2007-03-12 2008-09-18 David Tolkowsky Devices and methods for performing medical procedures in tree-like luminal structures
WO2008135985A1 (en) 2007-05-02 2008-11-13 Earlysense Ltd Monitoring, predicting and treating clinical episodes
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
US20080300478A1 (en) 2007-05-30 2008-12-04 General Electric Company System and method for displaying real-time state of imaged anatomy during a surgical procedure
US20090030307A1 (en) 2007-06-04 2009-01-29 Assaf Govari Intracorporeal location system with movement compensation
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US20080319491A1 (en) 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
US20130165945A9 (en) 2007-08-14 2013-06-27 Hansen Medical, Inc. Methods and devices for controlling a shapeable instrument
US20090076476A1 (en) 2007-08-15 2009-03-19 Hansen Medical, Inc. Systems and methods employing force sensing for mapping intra-body tissue
WO2009097461A1 (en) 2008-01-29 2009-08-06 Neoguide Systems Inc. Apparatus and methods for automatically controlling an endoscope
WO2009101504A2 (en) 2008-02-12 2009-08-20 Superdimension, Ltd. Controlled perspective guidance method
KR100927096B1 (ko) 2008-02-27 2009-11-13 아주대학교산학협력단 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
US20090228020A1 (en) 2008-03-06 2009-09-10 Hansen Medical, Inc. In-situ graft fenestration
US8219179B2 (en) 2008-03-06 2012-07-10 Vida Diagnostics, Inc. Systems and methods for navigation within a branched structure of a body
US8808164B2 (en) 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
US9002076B2 (en) 2008-04-15 2015-04-07 Medtronic, Inc. Method and apparatus for optimal trajectory planning
US8532734B2 (en) 2008-04-18 2013-09-10 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8218846B2 (en) 2008-05-15 2012-07-10 Superdimension, Ltd. Automatic pathway and waypoint generation and navigation method
JP5372407B2 (ja) 2008-05-23 2013-12-18 オリンパスメディカルシステムズ株式会社 医療機器
US20100030061A1 (en) 2008-07-31 2010-02-04 Canfield Monte R Navigation system for cardiac therapies using gating
US8290571B2 (en) 2008-08-01 2012-10-16 Koninklijke Philips Electronics N.V. Auxiliary cavity localization
EP2153794B1 (en) 2008-08-15 2016-11-09 Stryker European Holdings I, LLC System for and method of visualizing an interior of a body
US8781630B2 (en) 2008-10-14 2014-07-15 University Of Florida Research Foundation, Inc. Imaging platform to provide integrated navigation capabilities for surgical guidance
WO2010048160A2 (en) 2008-10-20 2010-04-29 The Johns Hopkins University Environment property estimation and graphical display
BRPI0921636B1 (pt) 2008-10-31 2021-09-21 Chevron Phillips Chemical Company Lp Composições de precursores de metal e diluentes olefínicos
US20100121139A1 (en) 2008-11-12 2010-05-13 Ouyang Xiaolong Minimally Invasive Imaging Systems
US8317746B2 (en) 2008-11-20 2012-11-27 Hansen Medical, Inc. Automated alignment
WO2010068783A1 (en) 2008-12-12 2010-06-17 Corindus Inc. Remote catheter procedure system
US8335590B2 (en) 2008-12-23 2012-12-18 Intuitive Surgical Operations, Inc. System and method for adjusting an image capturing device attribute using an unused degree-of-freedom of a master control device
CN102123651B (zh) 2009-01-15 2014-02-26 奥林巴斯医疗株式会社 内窥镜系统
KR100961661B1 (ko) 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US8337397B2 (en) 2009-03-26 2012-12-25 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient
US9002427B2 (en) 2009-03-30 2015-04-07 Lifewave Biomedical, Inc. Apparatus and method for continuous noninvasive measurement of respiratory function and events
RU2529380C2 (ru) * 2009-04-29 2014-09-27 Конинклейке Филипс Электроникс Н.В. Оценка глубины в реальном времени по монокулярным изображениям эндоскопа
EP2427867A1 (en) 2009-05-08 2012-03-14 Koninklijke Philips Electronics N.V. Real-time scope tracking and branch labeling without electro-magnetic tracking and pre-operative scan roadmaps
US8675736B2 (en) 2009-05-14 2014-03-18 Qualcomm Incorporated Motion vector processing
CN102292991B (zh) 2009-05-15 2014-10-08 夏普株式会社 图像处理装置和图像处理方法
WO2010133982A2 (en) 2009-05-18 2010-11-25 Koninklijke Philips Electronics, N.V. Marker-free tracking registration and calibration for em-tracked endoscopic system
US20100292565A1 (en) 2009-05-18 2010-11-18 Andreas Meyer Medical imaging medical device navigation from at least two 2d projections from different angles
ES2388029B1 (es) 2009-05-22 2013-08-13 Universitat Politècnica De Catalunya Sistema robótico para cirugia laparoscópica.
GB0915200D0 (en) 2009-09-01 2009-10-07 Ucl Business Plc Method for re-localising sites in images
US20110092808A1 (en) 2009-10-20 2011-04-21 Magnetecs, Inc. Method for acquiring high density mapping data with a catheter guidance system
CN102595998A (zh) * 2009-11-04 2012-07-18 皇家飞利浦电子股份有限公司 利用距离传感器的碰撞避免和检测
EP2382939B1 (en) 2009-11-10 2013-09-04 Olympus Medical Systems Corp. Multi-joint manipulator device and endoscope system having the same
WO2011094518A2 (en) 2010-01-28 2011-08-04 The Penn State Research Foundation Image-based global registration system and method applicable to bronchoscopy guidance
EP2377457B1 (en) * 2010-02-22 2016-07-27 Olympus Corporation Medical apparatus
DE102010012621A1 (de) 2010-03-24 2011-09-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur automatischen Adaption eines Referenzbildes
US8425455B2 (en) 2010-03-30 2013-04-23 Angiodynamics, Inc. Bronchial catheter and method of use
IT1401669B1 (it) 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
US8581905B2 (en) 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
US8845631B2 (en) 2010-04-28 2014-09-30 Medtronic Ablation Frontiers Llc Systems and methods of performing medical procedures
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US20120101369A1 (en) 2010-06-13 2012-04-26 Angiometrix Corporation Methods and systems for determining vascular bodily lumen information and guiding medical devices
US8460236B2 (en) 2010-06-24 2013-06-11 Hansen Medical, Inc. Fiber optic instrument sensing system
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US20130303887A1 (en) 2010-08-20 2013-11-14 Veran Medical Technologies, Inc. Apparatus and method for four dimensional soft tissue navigation
US9314306B2 (en) 2010-09-17 2016-04-19 Hansen Medical, Inc. Systems and methods for manipulating an elongate member
JP5669529B2 (ja) 2010-11-17 2015-02-12 オリンパス株式会社 撮像装置、プログラム及びフォーカス制御方法
US9066086B2 (en) * 2010-12-08 2015-06-23 Industrial Technology Research Institute Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same
US8812079B2 (en) 2010-12-22 2014-08-19 Biosense Webster (Israel), Ltd. Compensation for magnetic disturbance due to fluoroscope
US9414770B2 (en) 2010-12-29 2016-08-16 Biosense Webster (Israel) Ltd. Respiratory effect reduction in catheter position sensing
US20120191086A1 (en) 2011-01-20 2012-07-26 Hansen Medical, Inc. System and method for endoluminal and translumenal therapy
EP2676101B1 (en) 2011-02-18 2021-04-14 DePuy Synthes Products, LLC Tool with integrated navigation and guidance system
US10391277B2 (en) 2011-02-18 2019-08-27 Voxel Rad, Ltd. Systems and methods for 3D stereoscopic angiovision, angionavigation and angiotherapeutics
US10362963B2 (en) 2011-04-14 2019-07-30 St. Jude Medical, Atrial Fibrillation Division, Inc. Correction of shift and drift in impedance-based medical device navigation using magnetic field information
US10918307B2 (en) 2011-09-13 2021-02-16 St. Jude Medical, Atrial Fibrillation Division, Inc. Catheter navigation using impedance and magnetic field measurements
US8900131B2 (en) * 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
US9572481B2 (en) 2011-05-13 2017-02-21 Intuitive Surgical Operations, Inc. Medical system with multiple operating modes for steering a medical instrument through linked body passages
CN103648394B (zh) 2011-06-27 2016-11-16 皇家飞利浦有限公司 使用外科工具曲线与x-射线图像的配准的实时3d血管造影
US9173683B2 (en) 2011-08-31 2015-11-03 DePuy Synthes Products, Inc. Revisable orthopedic anchor and methods of use
CN102973317A (zh) 2011-09-05 2013-03-20 周宁新 微创手术机器人机械臂布置结构
WO2013036837A1 (en) 2011-09-08 2013-03-14 Apn Health, Llc R-wave detection method
WO2013040498A1 (en) 2011-09-16 2013-03-21 Translucent Medical, Inc. System and method for virtually tracking a surgical tool on a movable display
US9504604B2 (en) 2011-12-16 2016-11-29 Auris Surgical Robotics, Inc. Lithotripsy eye treatment
US20130246431A1 (en) 2011-12-27 2013-09-19 Mcafee, Inc. System and method for providing data protection workflows in a network environment
DE102012100848B4 (de) 2012-02-01 2019-05-29 Hans Pfriem System und Verfahren zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
EP3488803B1 (en) 2012-02-03 2023-09-27 Intuitive Surgical Operations, Inc. Steerable flexible needle with embedded shape sensing
CN104114121B (zh) 2012-02-09 2017-03-22 皇家飞利浦有限公司 用于实时导航跟踪的杆跟踪器
US10249036B2 (en) 2012-02-22 2019-04-02 Veran Medical Technologies, Inc. Surgical catheter having side exiting medical instrument and related systems and methods for four dimensional soft tissue navigation
US20140142591A1 (en) 2012-04-24 2014-05-22 Auris Surgical Robotics, Inc. Method, apparatus and a system for robotic assisted surgery
US10383765B2 (en) 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US10039473B2 (en) 2012-05-14 2018-08-07 Intuitive Surgical Operations, Inc. Systems and methods for navigation based on ordered sensor records
RU2686954C2 (ru) 2012-06-28 2019-05-06 Конинклейке Филипс Н.В. Навигация с помощью оптоволоконного датчика для визуализации и мониторинга сосудов
DE102012220116A1 (de) * 2012-06-29 2014-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobil handhabbare Vorrichtung, insbesondere zur Bearbeitung oder Beobachtung eines Körpers, und Verfahren zur Handhabung, insbesondere Kalibrierung, einer Vorrichtung
US9183354B2 (en) 2012-08-15 2015-11-10 Musc Foundation For Research Development Systems and methods for image guided surgery
CN104718054B (zh) 2012-08-15 2017-03-01 直观外科手术操作公司 操纵机械体的活动的假想自由度(dof)
US9539058B2 (en) 2012-08-24 2017-01-10 University Of Houston System Robotic device and systems for image-guided and robot-assisted surgery
US9330454B2 (en) 2012-09-12 2016-05-03 Bruce Reiner Method and apparatus for image-centric standardized tool for quality assurance analysis in medical imaging
WO2014058838A1 (en) 2012-10-12 2014-04-17 Intuitive Surgical Operations, Inc. Determining position of medical device in branched anatomical structure
US20140107390A1 (en) 2012-10-12 2014-04-17 Elekta Ab (Publ) Implementation and experimental results of real-time 4d tumor tracking using multi-leaf collimator (mlc), and/or mlc-carriage (mlc-bank), and/or treatment table (couch)
US9121455B2 (en) 2012-11-07 2015-09-01 Dana Automotive Systems Group, Llc Clutch management system
WO2014081725A2 (en) 2012-11-20 2014-05-30 University Of Washington Through Its Center For Commercialization Electromagnetic sensor integration with ultrathin scanning fiber endoscope
LU92104B1 (en) 2012-11-28 2014-05-30 Iee Sarl Method and system for determining a ventilatory threshold
JP6045417B2 (ja) * 2012-12-20 2016-12-14 オリンパス株式会社 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
US11172809B2 (en) 2013-02-15 2021-11-16 Intuitive Surgical Operations, Inc. Vision probe with access port
KR20150124446A (ko) 2013-02-26 2015-11-05 아메트 시난 카박시 로봇 매니퓰레이터 시스템
US9459087B2 (en) 2013-03-05 2016-10-04 Ezono Ag Magnetic position detection system
CN104797186B (zh) * 2013-03-06 2016-10-12 奥林巴斯株式会社 内窥镜系统
US9867635B2 (en) 2013-03-08 2018-01-16 Auris Surgical Robotics, Inc. Method, apparatus and system for a water jet
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US10080576B2 (en) 2013-03-08 2018-09-25 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US20140296655A1 (en) 2013-03-11 2014-10-02 ROPAMedics LLC Real-time tracking of cerebral hemodynamic response (rtchr) of a subject based on hemodynamic parameters
JP5718537B2 (ja) 2013-03-12 2015-05-13 オリンパスメディカルシステムズ株式会社 内視鏡システム
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US20170303941A1 (en) 2013-03-14 2017-10-26 The General Hospital Corporation System and method for guided removal from an in vivo subject
US20170238807A9 (en) 2013-03-15 2017-08-24 LX Medical, Inc. Tissue imaging and image guidance in luminal anatomic structures and body cavities
US9459770B2 (en) * 2013-03-15 2016-10-04 Covidien Lp Pathway planning system and method
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US9301723B2 (en) 2013-03-15 2016-04-05 Covidien Lp Microwave energy-delivery device and system
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US10271810B2 (en) 2013-04-02 2019-04-30 St. Jude Medical International Holding S.à r. l. Enhanced compensation of motion in a moving organ using processed reference sensor data
EP2983579A2 (en) * 2013-04-12 2016-02-17 NinePoint Medical, Inc. Multiple aperture, multiple modal optical systems and methods
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
US20140364739A1 (en) 2013-06-06 2014-12-11 General Electric Company Systems and methods for analyzing a vascular structure
WO2014201165A1 (en) 2013-06-11 2014-12-18 Auris Surgical Robotics, Inc. System for robotic assisted cataract surgery
JP6037964B2 (ja) 2013-07-26 2016-12-07 オリンパス株式会社 マニピュレータシステム
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
CN109954196B (zh) 2013-08-15 2021-11-09 直观外科手术操作公司 用于导管定位和插入的图形用户界面
US10098565B2 (en) 2013-09-06 2018-10-16 Covidien Lp System and method for lung visualization using ultrasound
EP3052021A2 (en) 2013-10-02 2016-08-10 Koninklijke Philips N.V. Hub design and methods for optical shape sensing registration
US9763741B2 (en) 2013-10-24 2017-09-19 Auris Surgical Robotics, Inc. System for robotic-assisted endolumenal surgery and related methods
US9980785B2 (en) 2013-10-24 2018-05-29 Auris Health, Inc. Instrument device manipulator with surgical tool de-articulation
US9314191B2 (en) 2013-11-19 2016-04-19 Pacesetter, Inc. Method and system to measure cardiac motion using a cardiovascular navigation system
WO2015089013A1 (en) 2013-12-09 2015-06-18 Intuitive Surgical Operations, Inc. Systems and methods for device-aware flexible tool registration
CN103705307B (zh) 2013-12-10 2017-02-22 中国科学院深圳先进技术研究院 手术导航系统及医疗机器人
CN103735313B (zh) 2013-12-11 2016-08-17 中国科学院深圳先进技术研究院 一种手术机器人及其状态监测方法
EP4184483A1 (en) 2013-12-20 2023-05-24 Intuitive Surgical Operations, Inc. Simulator system for medical procedure training
WO2015093602A1 (ja) 2013-12-20 2015-06-25 オリンパス株式会社 軟性マニピュレータ用ガイド部材および軟性マニピュレータ
EP3096692B1 (en) 2014-01-24 2023-06-14 Koninklijke Philips N.V. Virtual image with optical shape sensing device perspective
US10314656B2 (en) 2014-02-04 2019-06-11 Intuitive Surgical Operations, Inc. Systems and methods for non-rigid deformation of tissue for virtual navigation of interventional tools
EP3102087A4 (en) 2014-02-05 2017-10-25 National University of Singapore Systems and methods for tracking and displaying endoscope shape and distal end orientation
US20150223902A1 (en) 2014-02-07 2015-08-13 Hansen Medical, Inc. Navigation with 3d localization using 2d images
WO2015121311A1 (en) 2014-02-11 2015-08-20 KB Medical SA Sterile handle for controlling a robotic surgical system from a sterile field
JP6270537B2 (ja) 2014-02-27 2018-01-31 オリンパス株式会社 医療用システム
KR20150103938A (ko) 2014-03-04 2015-09-14 현대자동차주식회사 리튬황 배터리 분리막
US10952751B2 (en) 2014-03-17 2021-03-23 Marksman Targeting, Inc. Surgical targeting systems and methods
CN104931059B (zh) 2014-03-21 2018-09-11 比亚迪股份有限公司 车载救援导航系统和方法
EP2923669B1 (en) * 2014-03-24 2017-06-28 Hansen Medical, Inc. Systems and devices for catheter driving instinctiveness
US10912523B2 (en) 2014-03-24 2021-02-09 Intuitive Surgical Operations, Inc. Systems and methods for anatomic motion compensation
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
US20150305650A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue
CN104055520B (zh) 2014-06-11 2016-02-24 清华大学 人体器官运动监测方法和手术导航系统
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US20170007337A1 (en) 2014-07-01 2017-01-12 Auris Surgical Robotics, Inc. Driver-mounted torque sensing mechanism
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
US20160270865A1 (en) 2014-07-01 2016-09-22 Auris Surgical Robotics, Inc. Reusable catheter with disposable balloon attachment and tapered tip
US9788910B2 (en) 2014-07-01 2017-10-17 Auris Surgical Robotics, Inc. Instrument-mounted tension sensing mechanism for robotically-driven medical instruments
US10159533B2 (en) 2014-07-01 2018-12-25 Auris Health, Inc. Surgical system with configurable rail-mounted mechanical arms
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
US20160000414A1 (en) 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
JP6604977B2 (ja) 2014-07-02 2019-11-13 コヴィディエン リミテッド パートナーシップ 3dのナビゲーションの間に距離および向きのフィードバックを提供するシステム
JP6463038B2 (ja) * 2014-08-27 2019-01-30 富士フイルム株式会社 画像位置合せ装置、方法およびプログラム
EP3200718A4 (en) 2014-09-30 2018-04-25 Auris Surgical Robotics, Inc Configurable robotic surgical system with virtual rail and flexible endoscope
CA2964459A1 (en) 2014-10-15 2016-04-21 Vincent Suzara Magnetic field structures, field generators, navigation and imaging for untethered robotic device enabled medical procedure
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
DE102014222293A1 (de) 2014-10-31 2016-05-19 Siemens Aktiengesellschaft Verfahren zur automatischen Überwachung des Eindringverhaltens eines von einem Roboterarm gehaltenen Trokars und Überwachungssystem
KR20170088883A (ko) 2014-11-11 2017-08-02 벤더르빌트 유니버시티 급성 신장 손상을 제한하기 위한 방법
WO2016077419A1 (en) 2014-11-13 2016-05-19 Intuitive Surgical Operations, Inc. Systems and methods for filtering localization data
JP6342794B2 (ja) 2014-12-25 2018-06-13 新光電気工業株式会社 配線基板及び配線基板の製造方法
US9931168B2 (en) 2015-01-12 2018-04-03 Biomet Manufacuturing. LLC Plan implementation
EP3636149B1 (en) 2015-02-20 2023-06-07 Teleflex Life Sciences Limited Medical device position location systems, devices and methods
JP6348078B2 (ja) 2015-03-06 2018-06-27 富士フイルム株式会社 分岐構造判定装置、分岐構造判定装置の作動方法および分岐構造判定プログラム
JP6371729B2 (ja) 2015-03-25 2018-08-08 富士フイルム株式会社 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
WO2016164824A1 (en) 2015-04-09 2016-10-13 Auris Surgical Robotics, Inc. Surgical system with configurable rail-mounted mechanical arms
CN104758066B (zh) 2015-05-06 2017-05-10 中国科学院深圳先进技术研究院 用于手术导航的设备及手术机器人
US9636184B2 (en) 2015-05-15 2017-05-02 Auris Surgical Robotics, Inc. Swivel bed for a surgical robotics system
CN107613839B (zh) 2015-06-11 2019-10-01 奥林巴斯株式会社 内窥镜装置和内窥镜装置的工作方法
US10347904B2 (en) 2015-06-19 2019-07-09 Solidenergy Systems, Llc Multi-layer polymer coated Li anode for high density Li metal battery
JP6750194B2 (ja) 2015-06-19 2020-09-02 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、及び、医療用観察システム
GB2540757B (en) 2015-07-22 2021-03-31 Cmr Surgical Ltd Torque sensors
DE102015112411A1 (de) * 2015-07-29 2017-02-02 Universal Consulting GmbH System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
WO2017030916A1 (en) 2015-08-14 2017-02-23 Schlumberger Technology Corporation Inline viscosity determination technique
CN108024698B (zh) 2015-08-14 2020-09-15 直观外科手术操作公司 用于图像引导外科手术的配准系统和方法
JP6987040B2 (ja) 2015-08-28 2021-12-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 運動関係を決定する方法及び装置
KR102612874B1 (ko) 2015-08-31 2023-12-12 마시모 코오퍼레이션 무선 환자 모니터링 시스템들 및 방법들
JP6938507B2 (ja) 2015-09-09 2021-09-22 オーリス ヘルス インコーポレイテッド 手術支援ロボットシステム用の器械装置マニピュレータ
SG10202101464RA (en) 2015-09-17 2021-04-29 Endomaster Pte Ltd Improved flexible robotic endoscopy system
US9727963B2 (en) 2015-09-18 2017-08-08 Auris Surgical Robotics, Inc. Navigation of tubular networks
JP6843130B2 (ja) 2015-10-13 2021-03-17 ライトラボ・イメージング・インコーポレーテッド 側枝カットプレーンビュー角度を決定する脈管内撮像システム及び方法
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US10639108B2 (en) 2015-10-30 2020-05-05 Auris Health, Inc. Process for percutaneous operations
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
CN105559850B (zh) 2015-12-17 2017-08-25 天津工业大学 一种用于机器人辅助外科具有力传感功能的手术钻器械
US10932861B2 (en) 2016-01-14 2021-03-02 Auris Health, Inc. Electromagnetic tracking surgical system and method of controlling the same
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US10470719B2 (en) 2016-02-01 2019-11-12 Verily Life Sciences Llc Machine learnt model to detect REM sleep periods using a spectral analysis of heart rate and motion
KR20180109855A (ko) 2016-02-26 2018-10-08 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 가상 경계를 이용하는 충돌 회피 시스템 및 방법
WO2017162820A1 (en) 2016-03-24 2017-09-28 Koninklijke Philips N.V. Treatment assessment device
EP3435904A1 (en) 2016-03-31 2019-02-06 Koninklijke Philips N.V. Image guided robot for catheter placement
US11324554B2 (en) 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
US10470839B2 (en) 2016-06-02 2019-11-12 Covidien Lp Assessment of suture or staple line integrity and localization of potential tissue defects along the suture or staple line
US10806516B2 (en) 2016-06-20 2020-10-20 General Electric Company Virtual 4D stent implantation path assessment
CN109414180B (zh) 2016-06-30 2022-01-07 直观外科手术操作公司 在图像引导程序期间以多种模式显示指导信息的图形用户界面
CN106137103A (zh) * 2016-07-18 2016-11-23 王存金 内窥镜及内窥镜系统
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
KR20230096148A (ko) 2016-08-31 2023-06-29 아우리스 헬스, 인코포레이티드 길이 보존 수술용 기구
US10238455B2 (en) 2016-08-31 2019-03-26 Covidien Lp Pathway planning for use with a navigation planning and procedure system
US20180055576A1 (en) 2016-09-01 2018-03-01 Covidien Lp Respiration motion stabilization for lung magnetic navigation system
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10278778B2 (en) * 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
US10543048B2 (en) 2016-12-28 2020-01-28 Auris Health, Inc. Flexible instrument insertion using an adaptive insertion force threshold
US10136959B2 (en) 2016-12-28 2018-11-27 Auris Health, Inc. Endolumenal object sizing
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US11842030B2 (en) 2017-01-31 2023-12-12 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
US11071594B2 (en) 2017-03-16 2021-07-27 KB Medical SA Robotic navigation of robotic surgical systems
JP7159192B2 (ja) 2017-03-28 2022-10-24 オーリス ヘルス インコーポレイテッド シャフト作動ハンドル
US10475235B2 (en) 2017-03-29 2019-11-12 Fujifilm Corporation Three-dimensional image processing apparatus, three-dimensional image processing method, and three-dimensional image processing program
JP7282685B2 (ja) 2017-03-31 2023-05-29 オーリス ヘルス インコーポレイテッド 生理学的ノイズを補償する管腔ネットワークのナビゲーション用ロボットシステム
KR102550962B1 (ko) 2017-04-07 2023-07-06 아우리스 헬스, 인코포레이티드 환자 삽입기(Introducer) 정렬
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
US10643330B2 (en) 2017-04-21 2020-05-05 Biosense Webster (Israel) Ltd. Registration of an anatomical image with a position-tracking coordinate system based on proximity to bone tissue
US20180308247A1 (en) 2017-04-25 2018-10-25 Best Medical International, Inc. Tissue imaging system and method for tissue imaging
US11529129B2 (en) 2017-05-12 2022-12-20 Auris Health, Inc. Biopsy apparatus and system
KR102576296B1 (ko) 2017-05-17 2023-09-08 아우리스 헬스, 인코포레이티드 교환 가능한 작업 채널
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
JP7330902B2 (ja) 2017-06-28 2023-08-22 オーリス ヘルス インコーポレイテッド 電磁歪み検出
CN110809452B (zh) 2017-06-28 2023-05-23 奥瑞斯健康公司 电磁场发生器对准
KR102341451B1 (ko) 2017-06-28 2021-12-23 아우리스 헬스, 인코포레이티드 기기의 삽입 보상을 위한 로봇 시스템, 방법 및 비일시적 컴퓨터 가독 저장 매체
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
US10593052B2 (en) 2017-08-23 2020-03-17 Synaptive Medical (Barbados) Inc. Methods and systems for updating an existing landmark registration
US10464209B2 (en) 2017-10-05 2019-11-05 Auris Health, Inc. Robotic system with indication of boundary for robotic arm
US10016900B1 (en) 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
US10987179B2 (en) 2017-12-06 2021-04-27 Auris Health, Inc. Systems and methods to correct for uncommanded instrument roll
US10835153B2 (en) 2017-12-08 2020-11-17 Auris Health, Inc. System and method for medical instrument navigation and targeting
KR102473254B1 (ko) 2017-12-08 2022-12-06 아우리스 헬스, 인코포레이티드 지향된 유체 공학
JP7080986B2 (ja) 2017-12-11 2022-06-06 オーリス ヘルス インコーポレイテッド 器具ベースの挿入アーキテクチャのためのシステム及び方法
EP3684562A4 (en) 2017-12-14 2021-06-30 Auris Health, Inc. SYSTEM AND METHOD OF ESTIMATING THE LOCATION OF AN INSTRUMENT
EP3684283A4 (en) 2017-12-18 2021-07-14 Auris Health, Inc. METHODS AND SYSTEMS FOR MONITORING AND NAVIGATION OF INSTRUMENTS IN LUMINAL NETWORKS
BR112020014449B1 (pt) 2018-01-17 2023-12-12 Auris Health, Inc Sistema de plataforma cirúrgica com suportes de braço ajustáveis
JP7301884B2 (ja) 2018-02-13 2023-07-03 オーリス ヘルス インコーポレイテッド 医療用器具を駆動するためのシステム及び方法
JP2021514761A (ja) 2018-03-01 2021-06-17 オーリス ヘルス インコーポレイテッド マッピング及びナビゲーションのための方法及びシステム
JP2019154816A (ja) 2018-03-13 2019-09-19 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置、医療用観察装置、及び医療用観察装置の作動方法
JP7305668B2 (ja) 2018-03-28 2023-07-10 オーリス ヘルス インコーポレイテッド 可変曲げ剛性プロファイルを有する医療用器具
EP3773131A4 (en) 2018-03-28 2021-12-15 Auris Health, Inc. LOCATION SENSOR RECORDING SYSTEMS AND METHODS
US10827913B2 (en) 2018-03-28 2020-11-10 Auris Health, Inc. Systems and methods for displaying estimated location of instrument
MX2020010220A (es) 2018-03-29 2021-01-15 Auris Health Inc Sistemas médicos activados robóticamente con efectores de extremo multifunción que tienen desviaciones rotacionales.
US10905499B2 (en) 2018-05-30 2021-02-02 Auris Health, Inc. Systems and methods for location sensor-based branch prediction
EP3801189A4 (en) 2018-05-31 2022-02-23 Auris Health, Inc. PATH-BASED NAVIGATION OF TUBULAR NETWORKS
MX2020012897A (es) 2018-05-31 2021-05-27 Auris Health Inc Sistemas roboticos y metodos para navegacion de la red luminal que detectan ruido fisiologico.
WO2019232236A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Image-based airway analysis and mapping
US10744981B2 (en) 2018-06-06 2020-08-18 Sensata Technologies, Inc. Electromechanical braking connector
MX2020013241A (es) 2018-06-07 2021-02-22 Auris Health Inc Sistemas medicos roboticos con instrumentos de gran fuerza.
US10667875B2 (en) 2018-06-27 2020-06-02 Auris Health, Inc. Systems and techniques for providing multiple perspectives during medical procedures
WO2020005348A1 (en) 2018-06-27 2020-01-02 Auris Health, Inc. Alignment and attachment systems for medical instruments
JP7391886B2 (ja) 2018-06-28 2023-12-05 オーリス ヘルス インコーポレイテッド 滑車共有を組み込んだ医療システム
CN112804946A (zh) 2018-08-07 2021-05-14 奥瑞斯健康公司 将基于应变的形状感测与导管控制相结合
EP3806772A4 (en) 2018-08-15 2022-03-30 Auris Health, Inc. MEDICAL INSTRUMENTS FOR TISSUE CAUTERIZATION
WO2020036686A1 (en) 2018-08-17 2020-02-20 Auris Health, Inc. Bipolar medical instrument
US10881280B2 (en) 2018-08-24 2021-01-05 Auris Health, Inc. Manually and robotically controllable medical instruments
EP3813715A4 (en) 2018-09-17 2022-04-13 Auris Health, Inc. SYSTEMS AND METHODS FOR CONCOMITANT MEDICAL INTERVENTIONS
US11179212B2 (en) 2018-09-26 2021-11-23 Auris Health, Inc. Articulating medical instruments
CN112770689A (zh) 2018-09-26 2021-05-07 奥瑞斯健康公司 用于抽吸和冲洗的系统和器械
JP2022502179A (ja) 2018-09-28 2022-01-11 オーリス ヘルス インコーポレイテッド 内視鏡支援経皮的医療処置のためのシステム及び方法
WO2020069080A1 (en) 2018-09-28 2020-04-02 Auris Health, Inc. Devices, systems, and methods for manually and robotically driving medical instruments
AU2019347767A1 (en) 2018-09-28 2021-04-08 Auris Health, Inc. Systems and methods for docking medical instruments
US11576738B2 (en) 2018-10-08 2023-02-14 Auris Health, Inc. Systems and instruments for tissue sealing
EP3870075A4 (en) 2018-12-20 2022-08-03 Auris Health, Inc. SHIELDING FOR WRIST INSTRUMENTS
EP3866707A4 (en) 2018-12-28 2022-07-20 Auris Health, Inc. PERCUTANEOUS SHEATH FOR ROBOTIC MEDICAL SYSTEMS AND PROCEDURES
WO2020172394A1 (en) 2019-02-22 2020-08-27 Auris Health, Inc. Surgical platform with motorized arms for adjustable arm supports
WO2020185516A1 (en) 2019-03-08 2020-09-17 Auris Health, Inc. Tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and
US20200297444A1 (en) 2019-03-21 2020-09-24 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for localization based on machine learning
WO2020197671A1 (en) 2019-03-22 2020-10-01 Auris Health, Inc. Systems and methods for aligning inputs on medical instruments
US11534248B2 (en) 2019-03-25 2022-12-27 Auris Health, Inc. Systems and methods for medical stapling
US11617627B2 (en) 2019-03-29 2023-04-04 Auris Health, Inc. Systems and methods for optical strain sensing in medical instruments
EP3952779A4 (en) 2019-04-08 2023-01-18 Auris Health, Inc. SYSTEMS, PROCESSES AND WORKFLOW FOR CONCURRENT PROCEEDINGS
EP4278322A1 (en) * 2021-01-15 2023-11-22 Boston Scientific Scimed Inc. Methods and apparatuses for generating anatomical models using diagnostic images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2004089484A (ja) * 2002-08-30 2004-03-25 Olympus Corp 内視鏡装置
US20120082351A1 (en) * 2005-05-23 2012-04-05 The Penn State Research Foundation Fast 3d-2d image registration method with application to continuously guided endoscopy

Also Published As

Publication number Publication date
CN110831537B (zh) 2023-06-06
US10159532B1 (en) 2018-12-25
KR102582808B1 (ko) 2023-10-04
US11278357B2 (en) 2022-03-22
EP3641687A1 (en) 2020-04-29
US10022192B1 (en) 2018-07-17
CN110831537A (zh) 2020-02-21
EP3641687A4 (en) 2021-02-24
US20210113280A1 (en) 2021-04-22
US20180368920A1 (en) 2018-12-27
AU2018289116A1 (en) 2020-01-16
US20190216548A1 (en) 2019-07-18
KR20200023639A (ko) 2020-03-05
CN116725669A (zh) 2023-09-12
US11759266B2 (en) 2023-09-19
WO2018236587A1 (en) 2018-12-27
AU2018289116B2 (en) 2022-12-08
JP2020524579A (ja) 2020-08-20
US20240033009A1 (en) 2024-02-01

Similar Documents

Publication Publication Date Title
US11759266B2 (en) Robotic systems for determining a roll of a medical device in luminal networks
CN110831535B (zh) 配置用于导航路径跟踪的机器人系统
JP7350726B2 (ja) 画像ベースの分岐検出およびナビゲーション用マッピング
CN110891469B (zh) 用于定位传感器的配准的系统和方法
CN114601559B (zh) 用于基于定位传感器的分支预测的系统和介质
CN110831538B (zh) 基于图像的气道分析和映射
EP3684282B1 (en) Systems to correct for uncommanded instrument roll
JP7322026B2 (ja) 器具の位置推定のシステムおよび方法
JP7314136B2 (ja) 医療器具のナビゲーションおよびターゲット用のシステムおよび方法
CN114340542B (zh) 用于位置传感器的基于权重的配准的系统和方法
EP4312856A1 (en) Vision-based 6dof camera pose estimation in bronchoscopy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230731

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20230731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231114