JP2021525123A - 画像ベースの気道分析及びマッピング - Google Patents

画像ベースの気道分析及びマッピング Download PDF

Info

Publication number
JP2021525123A
JP2021525123A JP2020565316A JP2020565316A JP2021525123A JP 2021525123 A JP2021525123 A JP 2021525123A JP 2020565316 A JP2020565316 A JP 2020565316A JP 2020565316 A JP2020565316 A JP 2020565316A JP 2021525123 A JP2021525123 A JP 2021525123A
Authority
JP
Japan
Prior art keywords
airways
image
airway
determining
mapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020565316A
Other languages
English (en)
Other versions
JPWO2019232236A5 (ja
JP7146949B2 (ja
Inventor
イ・メンロン
ウマラネニ・リトビック
Original Assignee
オーリス ヘルス インコーポレイテッド
オーリス ヘルス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オーリス ヘルス インコーポレイテッド, オーリス ヘルス インコーポレイテッド filed Critical オーリス ヘルス インコーポレイテッド
Publication of JP2021525123A publication Critical patent/JP2021525123A/ja
Publication of JPWO2019232236A5 publication Critical patent/JPWO2019232236A5/ja
Application granted granted Critical
Publication of JP7146949B2 publication Critical patent/JP7146949B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00097Sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/0016Holding or positioning arrangements using motor drive units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • A61B1/2676Bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • A61B1/2736Gastroscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/02Adjustable operating tables; Controls therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/307Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the urinary organs, e.g. urethroscopes, cystoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/742Joysticks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/306Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3614Image-producing devices, e.g. surgical cameras using optical fibre
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B46/00Surgical drapes
    • A61B46/10Surgical drapes specially adapted for instruments, e.g. microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Pulmonology (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Otolaryngology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Endoscopes (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

管腔ネットワーク内の器具のナビゲーションが、画像ベースの気道分析及びマッピングを含んでもよい。画像ベースの気道分析は、管腔ネットワーク内で捕捉された画像内の1つ以上の気道を検出することと、その中で画像が捕捉された現在の気道が、検出された「子」気道にどのように分枝しているのかを示す分枝情報を判定することと、を含んでもよい。画像ベースの気道マッピングは、1つ以上の検出された気道を、術前モデル内の管腔ネットワークの対応する予想される気道にマッピングすることを含んでもよい。

Description

(関連出願の相互参照)
本願は、2018年5月31日に出願された米国仮出願第62/678,881号の利益を主張するものであり、当該仮出願は参照によりその全体が本明細書に組み込まれる。
(発明の分野)
本開示は、概略的には医療器具のナビゲーションのためのシステム及び方法に関し、より具体的には、ロボット制御式の医療器具をナビゲートするための画像ベースの気道分析及びマッピングに関する。
内視鏡検査(例えば、気管支鏡検査)などの医療処置では、診断及び/又は治療目的で患者の管腔(例えば、気道)の内部にアクセスし可視化を行う場合がある。処置中に、内視鏡などの可撓性の管状ツール又は器具を患者の体内に挿入することができる。いくつかの場合には、第2の器具を、内視鏡を通して診断及び/又は治療のために特定された組織部位に到達させることができる。
気管支鏡検査は、医師が気管支及び細気管支などの患者の肺内の気道の内部状態を検査することを可能とする医療処置である。この医療処置では、気管支鏡として知られる細い可撓性の管状ツール又は器具を患者の口に挿入し、患者の喉から肺気道内へと、その後の診断及び/又は治療を行うために特定された組織部位に向かって通すことができる。気管支鏡は、組織部位への経路を提供する内部ルーメン(「作業チャネル」)を有することができ、作業チャネルを通してカテーテル及び様々な医療ツールを組織部位に挿入することができる。
いくつかの医療処置では、外科用ロボットシステムを、外科用ツールの挿入及び/又は操作を制御するために使用することができる。外科用ロボットシステムは、処置中の外科用ツールの位置決めを制御するために使用されるマニピュレータアセンブリを有する少なくとも1つのロボットアーム又はその他の器具位置決めデバイスを含むことができる。
ロボット制御可能な医療システムを使用して、腹腔鏡処置などの低侵襲的処置、及び内視鏡処置などの非侵襲的処置の両方を含む、様々な医療処置を行うことができる。ロボット制御可能な医療システムを、内視鏡処置の中でも、気管支鏡検査、尿管鏡検査、胃腸検査などの実施に使用することができる。これらのような処置の間、医師及び/又はコンピュータシステムは、患者の管腔ネットワークを通して医療器具をナビゲートすることができる。管腔ネットワークには、複数の分枝管腔(気管支網又は腎臓網など)、又は単一の管腔(消化管など)が含まれ得る。ロボット制御可能な医療システムは、管腔ネットワークを通して医療器具を誘導する(又は医療器具の誘導を支援する)ためのナビゲーションシステムを含むことができる。
本開示の実施形態は、画像ベースの気道分析及びマッピングのためのシステム及び技術に関する。画像ベースの気道分析及びマッピングは、管腔ネットワークを通したナビゲーションを支援することができる。画像ベースの気道分析は、器具上の撮像デバイスで捕捉された画像内で、管腔ネットワークの1つ以上の枝に関連付けられた1つ以上の気道を特定することと、その中で画像が捕捉された現在の気道が、検出された「子」気道にどのように分枝しているのかを示す分枝情報を判定することと、を含み得る。画像ベースの気道マッピングは、特定された気道を、管腔ネットワークの対応する枝にマッピングすることを含み得る。これらのシステム及び技術を使用して、管腔ネットワーク内の器具の位置を判定又は推定することができる。本開示のシステム、方法及びデバイスはそれぞれ、いくつかの革新的な態様を有し、そのうちの1つも、本明細書に開示される望ましい属性にのみ関与するものではない。
一態様では、管腔ネットワークを通して器具をナビゲートする方法が提供され、この方法は、器具上に配置された撮像デバイスを用いて管腔ネットワーク内の複数の画像を捕捉することであって、複数の画像は、少なくとも、第1の時間に捕捉された第1の画像と、第1の時間よりも後の第2の時間に捕捉された第2の画像と、を含む、ことと、第1の画像内の第1の気道を特定することと、第2の画像内の2つ以上の気道を特定することと、第1の画像内の第1の気道及び第2の画像内の2つ以上の気道に基づいて、重複条件が満たされていると判定することと、第2の時間中の器具の位置に対応する気道の予想数を示す術前モデルデータにアクセスすることと、術前モデルデータと、重複条件が満たされているという判定とに基づいて、第2の画像内の2つ以上の気道と術前モデルデータ内の気道との間のマッピングを決定することと、を含む。
別の一態様では、命令が記憶されている非一時的コンピュータ可読記憶媒体が提供され、命令は、実行されると、デバイスのプロセッサに、少なくとも、器具上に配置された撮像デバイスを用いて管腔ネットワーク内の複数の画像を捕捉することであって、複数の画像は、少なくとも、第1の時間に捕捉された第1の画像と、第1の時間よりも後の第2の時間に捕捉された第2の画像と、を含む、ことと、第1の画像内の第1の気道を特定することと、第2の画像内の2つ以上の気道を特定することと、第1の画像内の第1の気道及び第2の画像内の2つ以上の気道に基づいて、重複条件が満たされていると判定することと、第2の時間中の器具の位置に対応する気道の予想数を示す術前モデルデータにアクセスすることと、術前モデルデータと、重複条件が満たされているという判定とに基づいて、第2の画像内の2つ以上の気道と術前モデルデータ内の気道との間のマッピングを決定することと、を行わせる。
更に別の一態様では、管腔ネットワーク内の1つ以上の気道をマッピングするためのロボット外科用システムが提供され、このシステムは、管腔ネットワークに挿入されるように構成された細長い本体と、細長い本体の遠位部分上に配置された撮像デバイスと、を有する器具と、器具に取り付けられた器具位置決めデバイスであって、管腔ネットワークを通して器具を移動させるように構成されている、器具位置決めデバイスと、実行可能命令を記憶している少なくとも1つのコンピュータ可読メモリと、少なくとも1つのコンピュータ可読メモリと通信している1つ以上のプロセッサと、を備え、プロセッサは、命令を実行して、システムに、少なくとも、器具上に配置された撮像デバイスを用いて管腔ネットワーク内の複数の画像を捕捉することであって、複数の画像は、少なくとも、第1の時間に捕捉された第1の画像と、第1の時間よりも後の第2の時間に捕捉された第2の画像と、を含む、ことと、第1の画像内の第1の気道を特定することと、第2の画像内の2つ以上の気道を特定することと、第1の画像内の第1の気道及び第2の画像内の2つ以上の気道に基づいて、重複条件が満たされていると判定することと、第2の時間中の器具の位置に対応する気道の予想数を示す術前モデルデータにアクセスすることと、術前モデルデータと、重複条件が満たされているという判定とに基づいて、第2の画像内の2つ以上の気道と術前モデルデータ内の気道との間のマッピングを決定することと、を行わせるように構成されている。
開示される態様は、以下、添付の図面と併せて説明され、開示された態様を例示するが、限定するものではなく、同様の指定は同様の要素を示す。
診断及び/又は治療用気管支鏡検査処置(複数可)のために配置されたカートベースのロボットシステムの実施形態を示す。 図1のロボットシステムの更なる態様を描写する。 尿管鏡検査のために配置された図1のロボットシステムの実施形態を示す。 血管処置のために配置された図1のロボットシステムの実施形態を示す。 気管支鏡検査処置のために配置されたテーブルベースのロボットシステムの実施形態を示す。 図5のロボットシステムの代替的な図である。 ロボットアーム(複数可)を収容するように構成された例示的なシステムを示す。 尿管鏡検査処置のために構成されたテーブルベースのロボットシステムの実施形態を示す。 腹腔鏡処置のために構成されたテーブルベースのロボットシステムの実施形態を示す。 ピッチ又は傾斜調整を備えた図5〜図9のテーブルベースのロボットシステムの実施形態を示す。 図5〜図10のテーブルベースのロボットシステムのテーブルとカラムとの間のインターフェースの詳細な図である。 例示的な器具ドライバを示す。 ペアの器具ドライバを備えた例示的な医療器具を示す。 駆動ユニットの軸が器具の細長いシャフトの軸に対して平行である、器具ドライバ及び器具の代替的な設計を示す。 図1〜図10のロボットシステムの1つ以上の要素の位置(例えば図13〜図14の器具の位置など)を推定する、例示的な実施形態に係る位置特定システムを示すブロック図である。 管腔ネットワークをナビゲートする器具の一例を示す。 ロボット制御式の外科用システムのための例示的なコマンドコンソールを示す。 医療器具の一実施形態の遠位端を示す。 画像ベースの気道分析及びマッピングのための例示的な方法を説明するフローチャートを示す。 管腔ネットワークの枝の内部の例示的な画像を示す。 管腔ネットワークの簡略図である。 2つの異なる気道検出結果の例を示す。 例示的な実施形態による気道分析及びマッピングシステムを示す。 例示的な実施形態による画像ベースの気道分析がその中で実行される時間的コンテキストを示す。 例示的な実施形態による画像ベースの気道分析の空間的性質を示す。 2つの連続する画像で検出された気道によって示される更なる例示的な関係を示す。 画像ベースの気道分析及びマッピングのための例示的な方法を説明するフローチャートを示す。
I.概要
本開示の態様は、腹腔鏡などの低侵襲性、及び内視鏡などの非侵襲性の両方の処置を含む、様々な医療処置を行うことができるロボット制御可能な医療システムに統合され得る。内視鏡処置のうち、システムは、気管支鏡検査、尿管鏡検査、胃鏡検査などを行うことができる。
幅広い処置を実行することに加えて、システムは、医師を支援するための強調された撮像及び誘導などの追加の利益を提供することができる。加えて、システムは、厄介なアーム運動及び位置を必要とせずに、人間工学的位置から処置を行う能力を医師に提供することができる。また更に、システムは、システムの器具のうちの1つ又は2つ以上が単一のユーザによって制御され得るように、改善された使いやすさで処置を行う能力を医師に提供することができる。
以下、説明を目的として、図面と併せて、様々な実施形態が説明される。開示された概念の多くの他の実施態様が可能であり、開示された実施態様で様々な利点が達成され得ることを理解されたい。見出しが、参照のために本明細書に含まれ、様々なセクションの位置を特定する支援となる。これらの見出しは、それに関して説明される概念の範囲を限定することを意図するものではない。そのような概念は、本明細書全体にわたって適用可能性を有し得る。
A.ロボットシステム−カート
ロボット制御可能な医療システムは、特定の処置に応じて様々な方法で構成され得る。図1は、診断及び/又は治療用気管支鏡検査処置のために配置されたカートベースのロボット制御可能なシステム10の実施形態を示す。気管支鏡検査の間、システム10は、気管支鏡検査のための処置特有の気管支鏡であり得る操縦可能な内視鏡13などの医療器具を、診断及び/又は治療用具を送達するための自然オリフィスアクセスポイント(すなわち、本実施例ではテーブル上に位置付けられた患者の口)に送達するための1つ又は2つ以上のロボットアーム12を有するカート11を含み得る。図示のように、カート11は、アクセスポイントへのアクセスを提供するために、患者の上部胴体に近接して位置付けられ得る。同様に、ロボットアーム12は、アクセスポイントに対して気管支鏡を位置付けるために作動され得る。図1の配置はまた、胃腸管(gastro-intestinal、GI)処置を、GI処置のための特殊な内視鏡である胃鏡を用いて実行するときに利用され得る。図2は、カートの例示的な実施形態をより詳細に描画する。
図1を引き続き参照すると、一旦カート11が適切に位置付けられると、ロボットアーム12は、操縦可能な内視鏡13をロボットで、手動で、又はそれらの組み合わせで患者内に挿入することができる。図示のように、操縦可能な内視鏡13は、内側リーダー部分及び外側シース部分などの少なくとも2つの入れ子式部品を含んでもよく、各部分は、器具ドライバのセット28から別個の器具ドライバに結合され、各器具ドライバは、個々のロボットアームの遠位端に結合されている。リーダー部分をシース部分と同軸上に整列させるのを容易にする器具ドライバ28のこの直線配置は、1つ又は2つ以上のロボットアーム12を異なる角度及び/又は位置に操作することによって空間内に再配置され得る「仮想レール」29を作成する。本明細書に記載される仮想レールは、破線を使用して図に示されており、したがって破線は、システムの物理的構造を示さない。仮想レール29に沿った器具ドライバ28の並進は、外側シース部分に対して内側リーダー部分を入れ子にするか、又は内視鏡13を患者から前進又は後退させる。仮想レール29の角度は、臨床用途又は医師の好みに基づいて調整、並進、及び枢動されてもよい。例えば、気管支鏡検査では、示されるような仮想レール29の角度及び位置は、内視鏡13を患者の口内に曲げ入れることによる摩擦を最小限に抑えながら内視鏡13への医師のアクセスを提供する妥協を表す。
内視鏡13は、対象の目的地又は手術部位に到達するまで、ロボットシステムからの正確なコマンドを使用して挿入後に患者の気管及び肺の下方に指向されてもよい。患者の肺網を通したナビゲーションを高め、及び/又は所望の標的に到達するために、内視鏡13を操縦して、内側リーダー部分を外側シース部分から入れ子状に延在させて、高められた関節運動及びより大きな曲げ半径を得てもよい。別個の器具ドライバ28の使用により、リーダー部分及びシース部分が互いに独立して駆動されることも可能にする。
例えば、内視鏡13は、例えば、患者の肺内の病変又は小結節などの標的に生検針を送達するように指向されてもよい。針は、内視鏡の長さにわたる作業チャネルの下方に展開されて、病理医によって分析される組織試料を得てもよい。病理の結果に応じて、追加の生検のために追加のツールが内視鏡の作業チャネルの下方に展開されてもよい。小結節を悪性と特定した後、内視鏡13は、潜在的な癌組織を切除するために器具を内視鏡的に送達してもよい。場合によっては、診断及び治療的処置は、別個の処置で送達されてもよい。これらの状況において、内視鏡13はまた、標的小結節の位置を「マーク」するために基準を送達するために使用されてもよい。他の例では、診断及び治療的処置は、同じ処置中に送達されてもよい。
システム10はまた、カート11に支持ケーブルを介して接続されて、カート11への制御、電子機器、流体工学、光学系、センサ、及び/又は電力のためのサポートを提供し得る移動可能なタワー30を含んでもよい。タワー30内にこのような機能を置くことにより、動作を行う医師及びそのスタッフがより容易に調整及び/又は再配置することができるより小さいフォームファクタのカート11が可能となる。追加的に、カート/テーブルと支持タワー30との間の機能の分割は、手術室の乱雑さを低減し、臨床ワークフローの改善を促進する。カート11は患者に近接して配置されてもよいが、タワー30は、処置中に邪魔にならないように遠隔位置に収容されてもよい。
上述のロボットシステムのサポートにおいて、タワー30は、例えば、永続的な磁気記憶ドライブ、ソリッドステートドライブなどの非一時的コンピュータ可読記憶媒体内にコンピュータプログラム命令を記憶するコンピュータベースの制御システムの構成要素(複数可)を含んでもよい。これらの命令の実行は、実行がタワー30内で行われるのか又はカート11で行われるのかに関わらず、そのシステム又はサブシステム(複数可)全体を制御してもよい。例えば、コンピュータシステムのプロセッサによって実行されるときに、命令は、ロボットシステムの構成要素に、関連するキャリッジ及びアームマウントを作動させ、ロボットアームを作動させ、医療器具を制御させてもよい。例えば、制御信号を受信したことに応答して、ロボットアームの関節内のモータは、アームをある特定の姿勢に配置してもよい。
タワー30はまた、内視鏡13を通して展開され得るシステムに制御された灌注及び吸引能力を提供するために、ポンプ、流量計、弁制御、及び/又は流体アクセスを含んでもよい。これらの構成要素はまた、タワー30のコンピュータシステムを使用して制御されてもよい。いくつかの実施形態では、灌注及び吸引能力は、別個のケーブル(複数可)を通して内視鏡13に直接送達されてもよい。
タワー30は、フィルタリングされ、保護された電力をカート11に提供するように設計された電圧及びサージ保護具を含んでもよく、それによって、カート11内に電力変圧器及び他の補助電力構成要素を配置することが回避され、カート11はより小さく、より移動可能になる。
タワー30はまた、ロボットシステム10全体に配置されたセンサのための支持機器を含んでもよい。例えば、タワー30は、ロボットシステム10を通して光センサ又はカメラから受信したデータを検出、受信、及び処理するためのオプトエレクトロニクス機器を含んでもよい。制御システムと組み合わせて、このようなオプトエレクトロニクス機器は、タワー30内を含むシステム全体に展開された任意の数のコンソール内に表示するためのリアルタイム画像を生成するために使用されてもよい。同様に、タワー30はまた、展開された電磁(EM)センサから受信した信号を受信及び処理するための電子サブシステムを含んでもよい。タワー30はまた、医療器具内又は医療器具上のEMセンサによる検出のためにEM場発生器を収容し、配置するために使用されてもよい。
タワー30はまた、システムの残りの部分で利用可能な他のコンソール、例えば、カートの上部に装着されたコンソールに追加して、コンソール31を含んでもよい。コンソール31は、医師操作者のためのユーザインターフェース及びタッチスクリーンなどの表示画面を含んでもよい。システム10内のコンソールは、一般に、ロボット制御、並びに内視鏡13のナビゲーション情報及び位置特定情報などの処置の術前及びリアルタイム情報の両方を提供するように設計される。コンソール31が医師に利用可能な唯一のコンソールではない場合、コンソール31は、看護師などの第2の操作者によって使用されて、患者の健康又は生命及びシステム10の動作を監視し、並びにナビゲーション及び位置特定情報などの処置固有のデータを提供してもよい。その他の実施形態では、コンソール30は、タワー30とは別個の本体内に収容される。
タワー30は、1つ又は2つ以上のケーブル又は接続(図示せず)を介してカート11及び内視鏡13に結合されてもよい。いくつかの実施形態では、タワー30からの支持機能は、単一ケーブルを通してカート11に提供されることにより、手術室を簡略化し、整理整頓することができる。他の実施形態では、特定の機能は、別個のケーブリング及び接続で結合されてもよい。例えば、単一の電力ケーブルを通してカート11に電力が供給されてもよい一方、制御、光学、流体工学、及び/又はナビゲーションのためのサポートは、別個のケーブルを通して提供されてもよい。
図2は、図1に示されるカートベースのロボット制御可能なシステムからのカート11の実施形態の詳細な図を提供する。カート11は、概して、細長い支持構造14(「カラム」と呼ばれることが多い)、カート基部15、及びカラム14の頂部にあるコンソール16を含む。カラム14は、1つ又は2つ以上のロボットアーム12(図2には3つ示されている)の展開を支持するためのキャリッジ17(代替的に「アーム支持体」)などの1つ又は2つ以上のキャリッジを含んでもよい。キャリッジ17は、患者に対してより良好に配置するために垂直軸に沿って回転してロボットアーム12の基部を調整する、個別に構成可能なアームマウントを含んでもよい。キャリッジ17はまた、キャリッジ17がカラム14に沿って垂直方向に並進することを可能にするキャリッジインターフェース19を含む。
キャリッジインターフェース19は、キャリッジ17の垂直方向の並進を案内するためにカラム14の両側に配置されたスロット20などのスロットを通してカラム14に接続されている。スロット20は、カート基部15に対して様々な垂直方向の高さでキャリッジ17を配置及び保持するための垂直方向の並進インターフェースを含む。キャリッジ17の垂直方向の並進により、カート11は、様々なテーブルの高さ、患者のサイズ、及び医師の好みを満たすようにロボットアーム12のリーチを調整することが可能となる。同様に、キャリッジ17上の個別に構成可能なアームマウントにより、ロボットアーム12のロボットアーム基部21を様々な構成で角度付けすることが可能となる。
いくつかの実施形態では、キャリッジ17が垂直方向に並進する際にカラム14の内部チャンバ及び垂直方向の並進インターフェース内に汚れ及び流体が侵入するのを防止するために、スロット20には、スロット表面と同一平面及び平行であるスロットカバーが追加されてもよい。スロットカバーは、スロット20の垂直方向の頂部及び底部付近に配置されたばねスプールの対を通じて展開されてもよい。カバーは、スプール内でコイル巻きにされており、キャリッジ17が垂直方向に上下に並進して初めて展開して、それらのコイル状態から延伸及び後退する。スプールのばね荷重は、キャリッジ17がスプールに向かって並進するときにカバーをスプール内に後退させるための力を提供する一方で、キャリッジ17がスプールから離れるように並進するときに密封も維持する。カバーは、キャリッジ17が並進する際にカバーが適切に延伸及び後退するのを確実にするために、例えば、キャリッジインターフェース19内のブラケットを使用してキャリッジ17に接続されてもよい。
カラム14は、例えば、コンソール16からの入力などのユーザ入力に応答して生成された制御信号に応答してキャリッジ17を機械的に並進させるために垂直方向に整列した主ねじを使用するように設計された、歯車及びモータなどの機構を内部に含んでもよい。
ロボットアーム12は、一般に、一連の関節24によって接続されている一連の連結部23によって分離されたロボットアーム基部21及びエンドエフェクタ22を含んでもよく、各関節は独立したアクチュエータを含み、各アクチュエータは、独立して制御可能なモータを含む。それぞれ独立して制御可能な関節は、ロボットアーム12が利用可能な独立した自由度を表す。ロボットアーム12の各々は、7つの関節を有してもよく、したがって、7つの自由度を提供することが可能である。多数の関節は、多数の自由度をもたらし、「冗長」自由度を可能にする。冗長自由度を有することにより、ロボットアーム12は、異なる連結位置及び関節角度を使用して空間内の特定の位置、向き、及び軌道で、それらのそれぞれのエンドエフェクタ22を配置することが可能となる。これにより、システムが空間内の所望のポイントから医療器具を配置及び指向させることが可能になると同時に、医師がアーム関節を患者から離れる臨床的に有利な位置へと移動させて、アームの衝突を回避しながらよりよいアクセスを生み出すことを可能にする。
カート基部15は、床の上のカラム14、キャリッジ17、及びロボットアーム12の重量の釣り合いをとる。したがって、カート基部15は、電子機器、モータ、電源、並びにカート11の移動及び/又は固定化のいずれかを可能にする構成要素などの、より重い部品を収容する。例えば、カート基部15は、処置前にカート11が部屋中をあちこちに容易に移動することを可能にする、転動可能なホイール形状のキャスター25を含む。適切な位置に到達した後、キャスター25は、処置中にカート11を定位置に保持するためのホイールロックを使用して静止させられてもよい。
カラム14の垂直方向の端部に配置されたコンソール16は、ユーザ入力を受信するためのユーザインターフェース及び表示画面(又は、例えば、タッチスクリーン26などの二重目的デバイス)の両方を可能にして、術前データ及び術中データの両方を医師であるユーザに提供する。タッチスクリーン26上の潜在的な術前データは、術前計画、術前コンピュータ断層撮影(computerized tomography、CT)スキャンから導出されたナビゲーション及びマッピングデータ、及び/又は術前の患者への問診からのメモを含んでもよい。ディスプレイ上の術中データは、ツールから提供される光学情報、センサからのセンサ及び座標情報、及び呼吸、心拍数、及び/又はパルスなどの不可欠な患者統計を含んでもよい。コンソール16は、医師が、キャリッジ17の反対側のカラム14側からコンソール16にアクセスすることを可能にするように配置され、傾斜が付けられてもよい。この位置から、医師は、コンソール16をカート11の背後から操作しながら、コンソール16、ロボットアーム12、及び患者を見ることができる。図示のように、コンソール16はまた、カート11の操作及び安定化を支援するハンドル27を含む。
図3は、尿管鏡検査のために配置されたロボット制御可能なシステム10の一実施形態を示す。尿管鏡検査処置では、カート11は、患者の尿道及び尿管を横断するように設計された処置専用内視鏡である尿管鏡32を患者の下腹部領域に送達するように配置されてもよい。尿管鏡検査では、尿管鏡32が患者の尿道と直接整列して、領域内の敏感な解剖学的構造に対する摩擦及び力を低減することが望ましいことがある。図示のように、カート11は、ロボットアーム12が尿管鏡32を、患者の尿道に直接直線状にアクセスするように配置できるように、テーブルの脚部に整列されてもよい。テーブルの脚部から、ロボットアーム12は、尿道を通して患者の下腹部に直接、仮想レール33に沿って尿管鏡32を挿入してもよい。
気管支鏡検査におけるのと同様の制御技法を使用して尿道に挿入した後、尿管鏡32は、診断及び/又は治療用途のために、膀胱、尿管、及び/又は腎臓にナビゲートされてもよい。例えば、尿管鏡32は、尿管及び腎臓に指向され、尿管鏡32の作業チャネルの下方に展開されたレーザー又は超音波砕石デバイスを使用して、形成された腎臓結石を破壊することができる。砕石術が完了した後、得られた結石片は、尿管鏡32の下方に展開されたバスケットを使用して除去されてもよい。
図4は、血管処置のために同様に配置されたロボット制御可能なシステム10の一実施形態を示す。血管処置において、システム10は、カート11が、操縦可能なカテーテルなどの医療器具34を、患者の脚内の大腿動脈内のアクセスポイントに送達することができるように構成され得る。大腿動脈は、ナビゲーションのためのより大きな直径と、患者の心臓への比較的迂回性及び蛇行性でない経路との両方を呈し、これによりナビゲーションが単純化する。尿管鏡検査処置のように、カート11は、患者の脚及び下腹部に向かって配置されて、ロボットアーム12が患者の大腿/腰領域内の大腿動脈アクセスポイントへの直接的な線形アクセスで仮想レール35を提供することを可能にしてもよい。動脈内への挿入後、器具ドライバ28を並進させることによって医療器具34が指向され、挿入されてもよい。代替的には、カート11は、例えば、肩及び手首付近の頚動脈及び腕動脈などの代替的な血管アクセスポイントに到達するために、患者の上腹部の周囲に配置されてもよい。
B.ロボットシステム−テーブル
ロボット制御可能な医療システムの実施形態はまた、患者テーブルを組み込んでもよい。テーブルの組み込みは、カートを除去することによって手術室内の資本設備の量を低減し、患者へのより大きなアクセスを可能にする。図5は、気管支鏡検査処置のために配置されたこうしたロボット制御可能なシステムの一実施形態を示す。システム36は、床の上にプラットフォーム38(「テーブル」又は「ベッド」として図示)を支持するための支持構造体又はカラム37を含む。カートベースのシステムと同様に、システム36のロボットアーム39のエンドエフェクタは、器具ドライバ42の線形整列から形成された仮想レール41を通して、又はそれに沿って、図5の気管支鏡40などの細長い医療器具を操縦するように設計された器具ドライバ42を含む。実際には、蛍光透視撮像を提供するためのCアームは、放射器及び検出器をテーブル38の周囲に置くことによって、患者の上部腹部領域の上方に配置されてもよい。
図6は、説明を目的として、患者及び医療器具なしのシステム36の代替的な図を提供する。図示のように、カラム37は、1つ又は2つ以上のロボットアーム39のベースとなり得る、システム36内でリング形状として図示される1つ又は2つ以上のキャリッジ43を含んでもよい。キャリッジ43は、カラム37の長さにわたる垂直方向のカラムインターフェース44に沿って並進して、ロボットアーム39が患者に到達するように配置され得る異なるバンテージポイントを提供してもよい。キャリッジ(複数可)43は、カラム37内に配置された機械的モータを使用してカラム37の周りを回転して、ロボットアーム39が、例えば、患者の両側などのテーブル38の複数の側面へのアクセスを有することを可能にしてもよい。複数のキャリッジを有する実施形態では、キャリッジはカラム上に個別に配置されてもよく、他のキャリッジとは独立して並進及び/又は回転してもよい。キャリッジ43はカラム37を取り囲む必要はなく、又は更には円形である必要はないが、図示されるようなリング形状は、構造的バランスを維持しながらカラム37の周りでのキャリッジ43の回転を容易にする。キャリッジ43の回転及び並進により、システム36は、内視鏡及び腹腔鏡などの医療器具を患者の異なるアクセスポイントに整列させることができる。その他の実施形態(図示せず)では、システム36は、並行して延在するバー又はレールの形態の調節可能なアーム支持体を有する患者テーブル又はベッドを含むことができる。1つ又は2つ以上のロボットアーム39を、(例えば、肘関節を有する肩部を介して)垂直方向に調整することができる調節可能なアーム支持体に取り付けることができる。垂直方向の調節を提供することによって、ロボットアーム39は、有利なことに、患者テーブル又はベッドの下にコンパクトに収容されることができ、その後、処置中に引き上げられることができる。
ロボットアーム39は、ロボットアーム39に追加の構成可能性を提供するために個別に回転及び/又は入れ子式に延在し得る一連の関節を含むアームマウント45のセットを介してキャリッジ43に装着されてもよい。加えて、アームマウント45は、キャリッジ43が適切に回転されると、アームマウント45がテーブル38の同じ側(図6に示すように)、テーブル38の両側(図9に示すように)、又はテーブル38の隣接する側部(図示せず)のいずれかに位置付けられ得るように、キャリッジ43上に位置付けられ得る。
カラム37は、テーブル38の支持及びキャリッジ43の垂直方向の並進のための経路を構造的に提供する。内部に、カラム37は、キャリッジ43の垂直方向の並進を案内するための主ねじ、及び主ねじに基づくキャリッジ43の並進を機械化するためのモータを備えていてもよい。カラム37はまた、キャリッジ43及びその上に装着されたロボットアーム39に電力及び制御信号を伝達してもよい。
テーブル基部46は、図2に示すカート11のカート基部15と同様の機能を果たし、テーブル/ベッド38、カラム37、キャリッジ43、及びロボットアーム39の釣り合いをとるためにより重い構成要素を収容する。テーブル基部46はまた、処置中に安定性を提供するために剛性キャスターを組み込んでもよい。テーブル基部46の底部から展開され、キャスターは、基部46の両側で反対方向に延在し、システム36を移動させる必要があるときに後退してもよい。
引き続き図6を参照すると、システム36はまた、テーブルとタワーとの間でシステム36の機能を分割して、テーブルのフォームファクタ及びバルクを低減するタワー(図示せず)を含んでもよい。先に開示された実施形態と同様に、タワーは、処理、計算、及び制御能力、電力、流体工学、並びに/又は光学及びセンサ処理などの様々な支持機能をテーブルに提供してもよい。タワーはまた、医師のアクセスを改善し、手術室を整理整頓するために、患者から離れて配置されるように移動可能であってもよい。加えて、タワー内に構成要素を配置することにより、ロボットアーム39の潜在的な収容のために、テーブル基部46内により多くの保管空間を可能にする。タワーはまた、キーボード及び/又はペンダントなどのユーザ入力のためのユーザインターフェース、並びにリアルタイム撮像、ナビゲーション、及び追跡情報などの術前及び術中情報のための表示画面(又はタッチスクリーン)の両方を提供するマスターコントローラ又はコンソールを含んでもよい。いくつかの実施形態では、タワーはまた、送気のために使用されるガスタンク用のホルダを含んでもよい。
いくつかの実施形態では、テーブル基部は、使用されていないときにロボットアームを収容して格納してもよい。図7は、テーブルベースのシステムの一実施形態におけるロボットアームを収容するシステム47を示す。システム47では、キャリッジ48は、ロボットアーム50、アームマウント51、及びキャリッジ48を基部49内に収容するために、基部49内へと垂直方向に並進されてもよい。基部カバー52は、並進及び後退して、キャリッジ48、アームマウント51、及びロボットアーム50をカラム53の周りに展開させるように開き、使用されていないときにそれらを収容して保護するように閉じられてもよい。基部カバー52は、閉じたときに汚れ及び流体の侵入を防止するために、その開口部の縁部に沿って膜54で封止されてもよい。
図8は、尿管鏡検査処置のために構成されたロボット制御可能なテーブルベースのシステムの一実施形態を示す。尿管鏡検査では、テーブル38は、患者をカラム37及びテーブル基部46からオフアングルに配置するためのスイベル部分55を含んでもよい。スイベル部分55は、スイベル部分55の底部をカラム37から離すように配置するために、旋回点(例えば、患者の頭部の下に位置)を中心に回転又は旋回してもよい。例えば、スイベル部分55の旋回により、Cアーム(図示せず)が、テーブル38の下のカラム(図示せず)と空間を奪い合うことなく、患者の下部腹部の上方に配置されることを可能にする。カラム37の周りにキャリッジ35(図示せず)を回転させることにより、ロボットアーム39は、尿道に到達するように、仮想レール57に沿って、患者の鼠径部領域に直接尿管鏡56を挿入してもよい。尿管鏡検査では、処置中に患者の脚の位置を支持し、患者の鼠径部領域への明確なアクセスを可能にするために、テーブル38のスイベル部分55にあぶみ58が固定されてもよい。
腹腔鏡検査処置では、患者の腹壁内の小さな切開部(複数可)を通して、低侵襲性器具を患者の解剖学的構造に挿入してもよい。いくつかの実施形態では、低侵襲性器具は、患者内の解剖学的構造にアクセスするために使用されるシャフトなどの細長い剛性部材を含む。患者の腹腔の膨張後、器具は、把持、切断、アブレーション、縫合などの外科的又は医療的タスクを実施するように方向付けられてもよい。いくつかの実施形態では、器具は、腹腔鏡などのスコープを備えることができる。図9は、腹腔鏡検査処置のために構成されたロボット制御可能なテーブルベースのシステムの一実施形態を示す。図示のように、システム36のキャリッジ43は回転し、垂直方向に調整されて、器具59が患者の両側の最小切開部を通過して患者の腹腔に到達するようにアームマウント45を使用して配置され得るように、ロボットアーム39の対をテーブル38の両側に配置してもよい。
腹腔鏡検査処置に対応するために、ロボット制御可能なテーブルシステムはまた、プラットフォームを所望の角度に傾斜させてもよい。図10は、ピッチ又は傾斜調整を有するロボット制御可能な医療システムの実施形態を示す。図10に示すように、システム36は、テーブル38の傾斜に適応して、テーブルの一方の部分を他方の部分より床から離れた距離に配置することができる。加えて、アームマウント45は、ロボットアーム39がテーブル38と同じ平面関係を維持するように、傾斜に一致するように回転してもよい。急角度に適応するために、カラム37はまた、テーブル38が床に接触するか又はテーブル基部46と衝突するのを防ぐためにカラム37が垂直方向に延びるのを可能にする入れ子部分60を含んでもよい。
図11は、テーブル38とカラム37との間のインターフェースの詳細な図示を提供する。ピッチ回転機構61は、カラム37に対するテーブル38のピッチ角を複数の自由度で変更するように構成されてもよい。ピッチ回転機構61は、カラム−テーブルインターフェースでの直交軸1、2の配置によって可能にされてもよく、各軸は、電気ピッチ角コマンドに応答して別個のモータ3、4によって作動される。一方のねじ5に沿った回転は、一方の軸1における傾斜調整を可能にし、他方のねじ6に沿った回転は、他方の軸2に沿った傾斜調整を可能にする。いくつかの実施形態では、カラム37に対するテーブル38のピッチ角を複数の自由度で変更するために、玉継ぎ手が用いられてもよい。
例えば、ピッチ調整は、テーブルをトレンデレンブルグ体位に配置しようとするときに、すなわち下腹部手術のために患者の上腹部よりも床からより高い位置に患者の下腹部を位置させようとするときに、特に有用である。トレンデレンブルグ体位は、重力によって患者の内臓を患者の上腹部に向かってスライドさせ、低侵襲性ツールが入って腹腔鏡前立腺切除術などの下腹部の外科又は医療処置を実施するために、腹腔を空にする。
C.器具ドライバ及びインターフェース
システムのロボットアームのエンドエフェクタは、(i)医療器具を作動させるための電気機械的手段を組み込む器具ドライバ(代替的には、「器具駆動機構」又は「器具デバイスマニピュレータ」と呼ばれる)と、(ii)モータなどの任意の電気機械的構成要素を欠いていてもよい除去可能な又は取り外し可能な医療器具と、を含み得る。この二分法は、医療処置に使用される医療器具を滅菌する必要性、それらの複雑な機械的アセンブリ及び敏感な電子機器により、高価な資本設備を十分に滅菌することができないことに牽引され得る。したがって、医療器具は、医師又は医師のスタッフによる個々の滅菌又は廃棄のために、器具ドライバ(したがってそのシステム)から取り外し、除去、及び交換されるように設計され得る。対照的に、器具ドライバは交換又は滅菌される必要がなく、保護のために掛け布がされ得る。
図12は、例示的な器具ドライバを示す。ロボットアームの遠位端に配置される器具ドライバ62は、駆動シャフト64を介して医療器具に制御トルクを提供するために平行軸を伴って配置された1つ又は2つ以上の駆動ユニット63を含む。各駆動ユニット63は、器具と相互作用するための個々の駆動シャフト64と、モータシャフトの回転を所望のトルクに変換するためのギヤヘッド65と、駆動トルクを生成するためのモータ66と、モータシャフトの速度を測定し、制御回路にフィードバックを提供するエンコーダ67と、制御信号を受信し、駆動ユニットを作動させるための制御回路68と、を含む。各駆動ユニット63は独立して制御及び電動化されてもよく、器具ドライバ62は、複数(例えば図13及び図14に示すように4つなど)の独立した駆動出力を医療器具に提供することができる。動作中、制御回路68は、制御信号を受信し、モータ66にモータ信号を送信し、エンコーダ67によって測定された得られたモータ速度を所望の速度と比較し、モータ信号を変調して所望のトルクを生成する。
無菌環境を必要とする処置のために、ロボットシステムは、器具ドライバと医療器具との間に位置する、無菌ドレープに接続された無菌アダプタなどの駆動インターフェースを組み込んでもよい。無菌アダプタの主な目的は、器具ドライバの駆動シャフトから器具の駆動入力に角度運動を伝達する一方で、駆動シャフトと駆動入力との間の物理的分離、したがって無菌性を維持することである。したがって、例示的な無菌アダプタは、器具ドライバの駆動シャフトと嵌合されることが意図された一連の回転入力部及び出力部と、器具に対する駆動入力部とを含み得る。無菌アダプタに接続されて、無菌ドレープは、透明又は半透明プラスチックなどの薄い可撓性材料で構成され、器具ドライバ、ロボットアーム、及び(カートベースのシステムにおける)カート又は(テーブルベースのシステムにおける)テーブルなどの資本設備を覆うように設計される。ドレープの使用により、滅菌を必要としない領域(すなわち、非滅菌野)に依然として位置している間に、資本設備を患者に近接して配置することが可能となる。滅菌ドレープの反対側では、医療器具は、滅菌(すなわち、滅菌野)を必要とする領域において患者とインターフェースしてもよい。
D.医療器具
図13は、ペアの器具ドライバを備えた例示的な医療器具を示す。ロボットシステムと共に使用するために設計された他の器具と同様に、医療器具70は、細長いシャフト71(又は細長い本体)及び器具基部72を含む。医師による手動相互作用が意図されているその設計により「器具ハンドル」とも呼ばれる器具基部72は、概して、ロボットアーム76の遠位端において器具ドライバ75上の駆動インターフェースを通って延在する駆動出力部74と嵌合するように設計された、回転可能な駆動入力部73、例えば、レセプタクル、プーリ、又はスプールを含んでもよい。物理的に接続、ラッチ、及び/又は結合されるときに、器具基部72の嵌合された駆動入力部73は、器具ドライバ75における駆動出力部74と回転軸線を共有して、駆動出力部74から駆動入力部73へのトルクの伝達を可能とすることができる。いくつかの実施形態では、駆動出力部74は、駆動入力部73上のレセプタクルと嵌合するように設計されたスプラインを含んでもよい。
細長いシャフト71は、例えば、内視鏡におけるような解剖学的開口部若しくは管腔、又は腹腔鏡検査におけるような低侵襲性切開部のいずれかを通して送達されるように設計されている。細長いシャフト71は、可撓性(例えば、内視鏡と同様の特性を有する)若しくは剛性(例えば、腹腔鏡と同様の特性を有する)のいずれかであってもよく、又は可撓性部分及び剛性部分の両方のカスタマイズされた組み合わせを含んでもよい。腹腔鏡検査のために設計される場合、剛性の細長いシャフトの遠位端は、少なくとも1つの自由度を有するクレビスから形成された接合された手首から延在するエンドエフェクタ、及び駆動入力部が器具ドライバ75の駆動出力部74から受け取ったトルクに応答して回転する際に、腱からの力に基づいて作動され得る、例えば、把持具又ははさみなどの手術ツール又は医療器具に接続され得る。内視鏡検査のために設計される場合、可撓性の細長いシャフトの遠位端は、器具ドライバ75の駆動出力部74から受信したトルクに基づいて関節運動及び屈曲され得る操縦可能又は制御可能な屈曲部を含んでもよい。
器具ドライバ75からのトルクは、細長いシャフト71に沿った腱を使用して細長いシャフト71の下流に伝達される。プルワイヤなどのこれらの個々の腱は、器具ハンドル72内の個々の駆動入力部73に個別に固定されてもよい。ハンドル72から、腱は、細長いシャフト71に沿って1つ又は2つ以上のプルルーメン(pull lumen)を下方に誘導され、細長いシャフト71の遠位部分、又は細長いシャフト71の遠位部分の手首内に固定される。腹腔鏡、内視鏡、又はハイブリッド処置などの外科処置中、これらの腱は、手首、把持具、又ははさみなどの遠位に取り付けられたエンドエフェクタに連結されてもよい。このような構成の下で、駆動入力部73に及ぼされるトルクは、腱に張力を伝達し、それによってエンドエフェクタを何らかの方法で作動させる。腹腔鏡検査では、腱は、関節を軸周りに回転させることができ、それによってエンドエフェクタをいずれかの方向に移動させる。あるいは、腱は、細長いシャフト71の遠位端で把持具の1つ又は2つ以上のジョーに接続されてもよく、腱からの張力によって把持具が閉鎖される。
内視鏡検査では、腱は、接着剤、制御リング、又は他の機械的固定を介して、細長いシャフト71に沿って(例えば、遠位端に)配置された屈曲部又は関節運動部に結合されてもよい。屈曲部の遠位端に固定的に取り付けられる場合、駆動入力部73に及ぼされるトルクは、腱の下流に伝達され、より軟質の屈曲部(関節運動可能部又は領域と呼ばれることがある)を屈曲又は関節運動させる。非屈曲部分に沿って、個々の腱を内視鏡シャフトの壁に沿って(又は内側に)指向する個々のプルルーメンをねじ状又は渦巻状にして、プルワイヤにおける張力からもたらされる半径方向の力の釣り合いをとることが有利であり得る。これらの間のねじ及び/又は間隔の角度は、特定の目的のために変更又は設計されてもよく、より狭いねじは負荷力下でより小さいシャフト圧縮を呈する一方で、より少ない量のねじは負荷力下でより大きなシャフト圧縮をもたらすが、屈曲をより制限する。スペクトルのもう一方の端部では、プルルーメンは、細長いシャフト71の長手方向軸に平行に指向されて、所望の屈曲部又は関節運動可能部における制御された関節運動を可能にしてもよい。
内視鏡検査では、細長いシャフト71は、ロボット処置を支援するいくつかの構成要素を収容する。シャフト71は、シャフト71の遠位端における手術領域に対して手術ツール(又は医療器具)を展開する、灌注する、及び/又は吸引するための作業チャネルを含んでもよい。シャフト71はまた、光学カメラを含んでもよい遠位先端部の光学アセンブリとの間で信号の授受を行うために、ワイヤ及び/又は光ファイバを収容してもよい。シャフト71はまた、発光ダイオードなどの近位に位置する光源からシャフト71の遠位端に光を搬送するための光ファイバを収容してもよい。
器具70の遠位端では、遠位先端部はまた、診断及び/又は治療、灌注、及び吸引のためにツールを手術部位に送達するための作業チャネルの開口を含んでもよい。遠位先端部はまた、内部解剖学的空間の画像を捕捉するために、繊維スコープ又はデジタルカメラなどのカメラのためのポートを含んでもよい。関連して、遠位先端部はまた、カメラを使用するときに解剖学的空間を照明するための光源用のポートを含んでもよい。
図13の例では、駆動シャフト軸、したがって駆動入力軸は、細長いシャフト71の軸に直交する。しかしながら、この配置は、細長いシャフト71のロール能力を複雑にする。駆動入力部73を静止させながら、細長いシャフト71をその軸に沿ってロールさせることにより、腱が駆動入力部73から延出し、細長いシャフト71内のプルルーメンに入る際に、腱の望ましくない絡まりをもたらす。結果として生じるそのような腱の絡まりは、内視鏡検査処置中に可撓性の細長いシャフト71の移動を予測することが意図される任意の制御アルゴリズムを妨害することがある。
図14は、駆動ユニットの軸が器具の細長いシャフトの軸に対して平行である、器具ドライバ及び器具の代替的な設計を示す。図示のように、円形の器具ドライバ80は、ロボットアーム82の端部において平行に整列された駆動出力部81を備えた4つの駆動ユニットを含む。駆動ユニット及びそれらのそれぞれの駆動出力部81は、アセンブリ83内の駆動ユニットのうちの1つによって駆動される器具ドライバ80の回転アセンブリ83内に収容される。回転駆動ユニットによって提供されるトルクに応答して、回転アセンブリ83は、回転アセンブリ83を器具ドライバ80の非回転部分84に接続する円形ベアリングに沿って回転する。電力及び制御信号は、ブラシ付きスリップリング接続(図示せず)による回転を通して維持され得る電気接点を介して、器具ドライバ80の非回転部分84から回転アセンブリ83に伝達されてもよい。他の実施形態では、回転アセンブリ83は、非回転可能部分84に一体化され、したがって他の駆動ユニットと平行ではない別個の駆動ユニットに応答してもよい。回転機構83は、器具ドライバ80が、器具ドライバ軸85周りの単一ユニットとして、駆動ユニット及びそれらのそれぞれの駆動出力部81を回転させることを可能にする。
先に開示した実施形態と同様に、器具86は、細長いシャフト部分88と、器具ドライバ80内の駆動出力部81を受容するように構成された複数の駆動入力部89(レセプタクル、プーリ、及びスプールなど)を含む器具基部87(説明目的のために透明な外部スキンで示される)とを含んでもよい。先の開示された実施形態とは異なり、器具シャフト88は、器具基部87の中心から延在し、軸は、図13の設計にあるように直交するのではなく、駆動入力部89の軸に実質的に平行である。
器具ドライバ80の回転アセンブリ83に結合されると、器具基部87及び器具シャフト88を含む医療器具86は、器具ドライバ軸85を中心にして回転アセンブリ83と一緒に回転する。器具シャフト88は器具基部87の中心に配置されているため、器具シャフト88は、取り付けられたときに器具ドライバ軸85と同軸である。したがって、回転アセンブリ83の回転により、器具シャフト88は、それ自体の長手方向軸を中心に回転する。更に、器具基部87が器具シャフト88と共に回転すると、器具基部87内の駆動入力部89に接続された任意の腱は、回転中に絡まらない。したがって、駆動出力部81、駆動入力部89、及び器具シャフト88の軸の平行性は、任意の制御腱を絡めることなくシャフト回転を可能にする。
E.ナビゲーション及び制御
従来の内視鏡検査は、操作者である医師に腔内誘導を提供するために、蛍光透視法(例えば、Cアームを通して送達され得るような)、及び他の形態の放射線ベースの撮像モダリティの使用を伴うことがある。対照的に、本開示によって企図されるロボットシステムは、放射線への医師の曝露を低減し、手術室内の機器の量を低減するために、非放射線ベースのナビゲーション及び位置特定手段を提供することができる。本明細書で使用するとき、用語「位置特定」は、基準座標系内のオブジェクトの位置を判定及び/又は監視することを指すことがある。術前マッピング、コンピュータビジョン、リアルタイムEM追跡、及びロボットコマンドデータなどの技術は、放射線を含まない動作環境を達成するために個別に又は組み合わせて使用されてもよい。放射線ベースの撮像モダリティが依然として使用されるその他の場合、術前マッピング、コンピュータビジョン、リアルタイムEM追跡、及びロボットコマンドデータは、放射線ベースの撮像モダリティによってのみ取得される情報を改善するために、個別に又は組み合わせて使用されてもよい。
図15は、例示的な実施形態による、器具の位置など、ロボットシステムの1つ又は2つ以上の要素の位置を推定する位置特定システム90を示すブロック図である。位置特定システム90は、1つ又は2つ以上の命令を実行するように構成されている1つ又は2つ以上のコンピュータデバイスのセットであってもよい。コンピュータデバイスは、上述の1つ又は2つ以上の構成要素内のプロセッサ(又は複数のプロセッサ)及びコンピュータ可読メモリによって具現化されてもよい。例として、限定するものではないが、コンピュータデバイスは、図1に示されるタワー30、図1〜図4に示されるカート11、図5〜図10に示されるベッドなどの形態であってよい。
図15に示すように、位置特定システム90は、入力データ91〜94を処理して医療器具の遠位先端部の位置データ96を生成する位置特定モジュール95を含んでもよい。位置データ96は、基準系に対する器具の遠位端の位置及び/又は向きを表すデータ又は論理であってもよい。基準系は、患者の解剖学的構造、又はEM場発生器(EM場発生器についての以下の説明を参照)などの既知の物体に対する基準系とすることができる。
ここで、様々な入力データ91〜94についてより詳細に説明する。術前マッピングは、低用量コンピュータ断層撮影(CT)スキャンの収集を利用して達成され得る。術前CTスキャンは、例えば、患者の内部解剖学的構造の断面図の「スライス」として可視化される3次元画像へと再構成される。全体として分析される場合、患者の肺網などの患者の解剖学的構造の解剖学的空腔、空間、及び構造のための画像ベースのモデルが生成され得る。中心線幾何学形状(center-line geometry)などの技法を判定し、CT画像から概算して、モデルデータ91と称される(術前CTスキャンのみを用いて生成した場合は「術前モデルデータ」とも称される)患者の解剖学的構造の3次元体積を生成することができる。いくつかの実施形態では、術前モデルデータ91は、例えば、蛍光透視法、磁気共鳴撮像法(magnetic resonance imaging、MRI)、超音波撮像、及び/又はX線からのデータを含んでもよい。中心線幾何学形状の使用は、米国特許出願第14/523,760号で述べられており、その内容物は、その全体が本明細書に組み込まれる。ネットワーク位相モデルもまた、CT画像から導出されてもよく、気管支鏡検査に特に適している。
いくつかの実施形態では、器具はカメラを装備して、視覚データ(又は画像データ)92を提供してもよい。位置特定モジュール95は、視覚データ92を処理して、1つ又は2つ以上の視覚ベースの(又は画像ベースの)位置追跡モジュール又は機能を有効にしてもよい。例えば、術前モデルデータ91は、医療器具(例えば、内視鏡又は内視鏡の作業チャネルを通って前進する器具)のコンピュータビジョンベースの追跡を可能にするために、視覚データ92と共に使用されてもよい。例えば、術前モデルデータ91を使用して、ロボットシステムは、内視鏡の予想される移動経路に基づいてモデルから予測される内視鏡画像のライブラリを生成することができ、各画像はモデル内の位置にリンクされる。手術中に、このライブラリは、カメラ(例えば、内視鏡の遠位端でのカメラ)で捕捉されたリアルタイム画像を画像ライブラリ内のものと比較して、位置特定を支援するために、ロボットシステムによって参照され得る。
他のコンピュータビジョンベースの追跡技法は、カメラの動き、したがって内視鏡を判定するための特徴追跡を使用する。位置特定モジュール95のいくつかの特徴は、解剖学的管腔に対応する術前モデルデータ91内の円形幾何学形状を特定し、それらの幾何学的形状の変化を追跡して、どの解剖学的管腔が選択されたか、並びにカメラの相対的な回転及び/又は並進運動を判定することができる。位相マップの使用は、視覚ベースのアルゴリズム又は技法を更に向上させることがある。
光学フロー、別のコンピュータビジョンベースの技法は、カメラの動きを推測するために、視覚データ92内のビデオシーケンス内の画像ピクセルの変位及び並進を分析してもよい。光学フロー技術の例としては、動き検出、オブジェクトセグメンテーション計算、輝度、動き補償符号化、立体視差測定などを挙げることができる。複数の反復にわたり複数のフレームを比較することにより、カメラ(及びしたがって内視鏡)の移動及び位置を決定することができる。
位置特定モジュール95は、リアルタイムEM追跡を使用して、術前モデルによって表される患者の解剖学的構造に位置合わせされ得るグローバル座標系内で内視鏡のリアルタイム位置を生成し得る。EM追跡では、医療器具(例えば、内視鏡器具)内の1つ又は2つ以上の位置及び向きに埋め込まれた1つ又は2つ以上のセンサコイルを含むEMセンサ(又はトラッカー)は、既知の位置に配置された1つ又は2つ以上の静的EM場発生器によって生成されるEM場の変動を測定する。EMセンサによって検出された位置情報は、EMデータ93として記憶される。EM場発生器(又は送信機)は、埋め込まれたセンサが検出し得る低強度磁場を生成するために、患者に近接して配置され得る。磁場はEMセンサのセンサコイル内に小さな電流を誘導し、EMセンサとEM場発生器との間の距離及び角度を判定するためにこの電流が分析され得る。これらの距離及び向きは、患者の解剖学的構造の術前モデル内の位置と座標系内の単一の位置を位置合わせする幾何学的変換を判定するために、患者の解剖学的構造(例えば、術前モデル)に術中「登録」され得る。一旦登録されると、医療器具の1つ又は2つ以上の位置(例えば、内視鏡の遠位先端部)に埋め込まれたEMトラッカーは、患者の解剖学的構造を通じた医療器具の進行のリアルタイム表示を提供し得る。
ロボットコマンド及び運動学データ94はまた、ロボットシステムのための位置特定データ96を提供するために、位置特定モジュール95によって使用されてもよい。関節運動コマンドから生じるデバイスピッチ及びヨーは、術前較正中に判定され得る。術中、これらの較正測定値は、既知の挿入深度情報と組み合わせて使用されて、器具の位置を推定し得る。あるいは、これらの計算は、ネットワーク内の医療器具の位置を推定するために、EM、視覚、及び/又は位相モデリングと組み合わせて分析され得る。
図15が示すように、いくつかの他の入力データが位置特定モジュール95によって使用され得る。例えば、図15には示されていないが、形状検知繊維を利用する器具は、位置特定モジュール95が器具の位置及び形状を判定するために使用することができる形状データを提供することができる。
位置特定モジュール95は、入力データ91〜94を組み合わせて(複数可)使用し得る。場合によっては、このような組み合わせは、位置特定モジュール95が入力データ91〜94の各々から判定された位置に信頼重みを割り当てる確率的アプローチを使用し得る。したがって、EMデータが信頼できるとは言えないことがある場合(EM干渉が存在する場合など)、EMデータ93によって判定された位置の信頼性を低下させることができ、位置特定モジュール95は、視覚データ92並びに/又はロボットコマンド及び運動学データ94により重く依存してもよい。
上述のように、本明細書で論じられるロボットシステムは、上記の技術のうちの1つ又は2つ以上の組み合わせを組み込むように設計され得る。タワー、ベッド、及び/又はカートに基づいて、ロボットシステムのコンピュータベースの制御システムは、例えば、永続的な磁気記憶ドライブ、ソリッドステートドライブなどの非一時的コンピュータ可読記憶媒体内に、コンピュータプログラム命令を記憶してもよく、コンピュータプログラム命令は、実行されると、システムに、センサデータ及びユーザコマンドを受信及び分析させ、システム全体の制御信号を生成させ、グローバル座標系内の器具の位置、解剖学的マップなどのナビゲーション及び位置特定データを表示させる。
II.管腔ネットワークのナビゲーション
上述の様々なロボットシステムを使用して、内視鏡処置及び腹腔鏡検査処置などの様々な医療処置を行うことができる。いくつかの処置では、ロボット制御式の医療器具などの医療器具が患者の体内に挿入される。患者の体内で、器具を患者の管腔ネットワーク内に配置することができる。本明細書で使用するとき、用語「管腔ネットワーク」は、(例えば肺などにおける複数の分枝管腔又は血管などの)複数の管腔又は枝あるいは(例えば消化管内などの)単一の管腔又は枝のいずれを含むのかに関わらず、体内の任意の空洞構造を指す。処置中、器具は、管腔ネットワークを通って1つ以上の対象領域に移動(例えば、ナビゲート、誘導、駆動など)されてもよい。システムを通る器具の移動は、ロボットシステムを制御する医師に器具に関する位置情報を提供することができる上述のナビゲーション又は位置特定システム90によって支援されてもよい。
図16は、患者の例示的な管腔ネットワーク130を示す。図示の実施形態では、管腔ネットワーク130は、患者の肺の気道150の気管支網(すなわち、管腔、枝)である。図示の管腔ネットワーク130は、患者の肺内の気道の気管支網であるが、本開示は、図示の例のみに限定されない。本明細書に記載のロボットシステム及び方法は、気管支網、腎臓網、心血管網(例えば、動脈及び静脈)、消化管、尿路などの任意の種類の管腔ネットワークをナビゲートするために使用され得る。
図示のように、管腔ネットワーク130は、分枝構造に配置された複数の気道150を備える。一般に、管腔ネットワーク130は、三次元構造を含む。説明を容易にするために、図16は、管腔ネットワーク130を二次元構造として表す。これは、本開示を二次元管腔ネットワークに限定するものと解釈されるべきではない。
図16は、管腔ネットワーク130内に配置された医療器具の一例も示す。医療器具は、診断及び/又は治療のために、管腔ネットワーク130を通って対象領域(例えば、小結節155)に向かってナビゲートされる。図示の例では、小結節155は気道150の周辺に位置しているが、対象領域は、患者及び処置に応じて、管腔ネットワーク130内のどの場所にも位置し得る。
図示の例では、医療器具は内視鏡115を備えている。内視鏡115は、シース120及びリーダー145を含むことができる。いくつかの実施形態では、シース120及びリーダー145は、入れ子式に配置されてもよい。例えば、リーダー145は、シース120の作業チャネルの内側に摺動可能に配置されてもよい。シース120は第1の直径を有し得、その遠位端は、小結節155周辺のより小さな直径の気道150を通して配置できない場合がある。したがって、リーダー145は、シース120の作業チャネルから、小結節155までの残りの距離だけ延伸するように構成されてもよい。リーダー145は、器具、例えば生検針、細胞ブラシ、及び/又は組織サンプリング鉗子を小結節155の標的組織部位まで通すことができる管腔を有することができる。そのような実施態様では、シース120の遠位端及びリーダー145の遠位端のどちらにも、気道150内のそれらのそれぞれの位置を追跡するためのEM器具センサ(例えば図18のEM器具センサ305など)が設けられ得る。シース120及びリーダー145のこの入れ子式構成は、内視鏡115をより薄く設計することを可能にし、シース120を介して構造を支持しながら内視鏡115の曲げ半径を改善することができる。
他の実施形態では、内視鏡115の全体の直径は、入れ子式構成でなくても周辺部に到達できる程度に十分に小さいか、又は、(例えば、約2.5〜3cm以内など)周辺に接近して、操縦不可能なカテーテルを通して医療器具を展開できる程度に十分に小さくてもよい。内視鏡115を通して展開される医療器具に、EM器具センサ(例えば、図18のEM器具センサ305)を設けてもよく、また、以下に説明する画像ベースの気道分析及びマッピング技術を、このような医療器具に適用してもよい。
図示のように、小結節155に到達するためには、器具(例えば、内視鏡115)は、管腔ネットワークの気道150を通ってナビゲート又は誘導されなければならない。操作者(医師など)は、ロボットシステムを制御して、器具を小結節155にナビゲートすることができる。操作者は、ロボットシステムを制御するための入力を提供することができる。
図17は、本明細書に記載のロボットシステムのいくつかの実施態様と共に使用することができる例示的なコマンドコンソール200を示す。操作者は、例えば、ロボットシステムを制御するための入力を提供して、コマンドコンソール200を介して小結節155などの対象領域に器具をナビゲート又は案内することができる。コマンドコンソール200は、多種多様な配置又は構成で具現化することができる。図示の例では、コマンドコンソール200は、コンソール基部201、ディスプレイ202(例えばモニタ)及び1つ以上の制御モジュール(例えば、キーボード203及びジョイスティック204)を含む。ユーザ205(例えば、医師又は他の操作者)は、コマンドコンソール200を使用して、人間工学的位置から医療用ロボットシステム(例えば、図1〜図15を参照して説明したシステム)を遠隔制御することができる。
ディスプレイ202としては、電子モニタ(例えば、液晶ディスプレイ、LEDディスプレイ、タッチセンシティブディスプレイ)、仮想現実視覚デバイス(例えばゴーグル若しくは眼鏡)、及び/又は他のディスプレイデバイスが挙げられ得る。いくつかの実施形態では、ディスプレイ202のうちの1つ以上は、例えば、位置特定システム90(図15)によって決定された、器具に関する位置情報を表示する。いくつかの実施形態では、ディスプレイ202のうちの1つ以上は、患者の管腔ネットワーク130の術前モデルを表示する。位置情報は、術前モデルに重ね合わせることができる。ディスプレイ202はまた、管腔ネットワーク130内の器具上に配置されたカメラ又は別の感知デバイスから受信した画像情報を表示することもできる。いくつかの実施形態では、器具のモデル又は表現が術前モデルと共に表示されて、外科処置又は医療処置の状態を示す助けとなる。
いくつかの実施形態では、コンソール基部201は、中央処理ユニット(例えば、CPU又はプロセッサ)と、メモリユニット(例えば、コンピュータ可読メモリ)と、データバスと、例えば、患者の管腔ネットワーク内に配置された医療器具から、カメラ画像及び追跡センサデータなどの信号を解釈及び処理する役割を担う関連データ通信ポートと、を含む。
コンソール基部201はまた、ユーザ205によって制御モジュール203、204を通じて提供されるコマンド及び命令を処理してもよい。図17に示されるキーボード203及びジョイスティック204に加えて、制御モジュールは、コンピュータマウス、トラックパッド、トラックボール、制御パッド、ハンドヘルドリモートコントローラなどのコントローラ、並びにハンドジェスチャ及び指ジェスチャを捕捉するセンサ(例えば、モーションセンサ又はカメラ)などの他のデバイスを含み得る。コントローラは、器具の動作(例えば、関節運動、駆動、灌水など)にマッピングされた一組のユーザ入力(例えば、ボタン、ジョイスティック、方向パッドなど)を含むことができる。コマンドコンソール200の制御モジュール203、204を使用して、ユーザ205は、管腔ネットワーク130を通して器具をナビゲートすることができる。
図18は、例示的な医療器具300の遠位端の詳細図である。医療器具300は、図16の内視鏡115又は操縦可能なカテーテル145を表してもよい。医療器具300は、図1の内視鏡13、図3の尿管鏡32、図9の腹腔鏡59などの、本開示全体を通して説明される任意の医療器具を表してもよい。図18では、器具300の遠位端は、撮像デバイス315、照明源310及び、EM計器センサを形成するEMセンサコイル305の端部を含む。遠位端は、器具300の作業チャネル320への開口部を更に含み、この開口部を通して、生検針、細胞学的ブラシ、鉗子などの外科用器具が器具シャフトに沿って挿入され、器具先端付近の領域へのアクセスを可能にしてもよい。
器具300の遠位端上に配置されたEMコイル305をEM追跡システムと共に使用して、管腔ネットワーク内に配置されている間の器具300の遠位端の位置及び配向を検出してもよい。いくつかの実施形態では、コイル305は、異なる軸に沿ったEM場に対する感度を提供するように角度を付けられ、開示されたナビゲーションシステムに、6つの自由度(degrees of freedom、DoF)、すなわち3つの位置DoF及び3つの角度DoFの全てを測定する能力を与えることができる。他の実施形態では、単一のコイル305のみが遠位端の上又は中に配置され、その軸が器具のシャフトに沿って配向されてもよい。そのようなシステムの回転対称性のために、軸を中心とした回転は感知できない場合があり、そのような実施態様においては、5つの自由度だけが検出されてもよい。代替的に又は追加的に、他の種類の位置センサを使用してもよい。
照明源310は、解剖学的空間の一部を照明するための光を提供する。照明源310は、それぞれ、選択された波長又は波長範囲の光を放射するように構成された1つ以上の発光デバイスであり得る。波長は、2〜3例を挙げると、例えば、可視スペクトル光、赤外光、(例えば蛍光透視法用の)X線などの任意の好適な波長であってもよい。いくつかの実施形態では、照明源310は、器具300の遠位端に配置された発光ダイオード(LED)を含むことができる。いくつかの実施形態では、照明源310は、内視鏡の長さを通って延在し、例えばX線発生器などの遠隔光源からの光を遠位端を通して透過させることができる、1つ以上の光ファイバを含む。遠位端が複数の照明源310を含む場合、これらはそれぞれ、互いに同じ又は異なる波長の光を放射するように構成することができる。
撮像デバイス315は、受信した光を表すエネルギーを電気信号、例えば、電荷結合素子(charge-coupled device、CCD)又は相補型金属酸化膜半導体(complementary metal-oxide semiconductor、CMOS)画像センサに変換するように構成された任意の感光性基板又は構造を含んでもよい。撮像デバイス315のいくつかの例は、内視鏡の遠位端300から内視鏡の近位端付近の接眼レンズ及び/又は画像センサに画像を表す光を送信するように構成された、例えば、光ファイバ束などの1つ以上の光ファイバを含むことができる。撮像デバイス315は、様々な光学設計の必要に応じて、1つ以上のレンズ及び/又は波長通過フィルタ若しくは波長遮断フィルタを更に含むことができる。照明源310から放射された光は、撮像デバイス315が患者の管腔ネットワークの内部の画像を捕捉することを可能にする。これらの画像は次いで、個々のフレーム又は一連の連続するフレーム(例えば、ビデオ)として、コマンドコンソール200などのコンピュータシステムに送信されてもよい。上述のように、また以下でより詳細に説明するように、撮像デバイス315によって捕捉された画像(例えば、図15の視覚データ92)は、ナビゲーション又は位置特定システム95によって、管腔ネットワーク内での器具の位置(例えば、器具300の遠位先端の位置)を判定又は推定するために利用されてもよい。
III.画像ベースの気道分析及びマッピング
本開示の実施形態は、画像ベースの気道分析及びマッピングのためのシステム及び技術に関する。本明細書で使用するとき、画像ベースの気道分析は、画像内で、管腔ネットワークの1つ以上の枝に関連付けられた1つ以上の気道を特定することと、その中で画像が捕捉された現在の気道が、検出された「子」気道にどのように分枝しているのかを示す分枝情報を判定することと、を指し得る。例えば、画像ベースの気道分析システムは、管腔ネットワーク内の器具上に配置された撮像デバイスを使用して、管腔ネットワークの内部の画像を捕捉することができ、画像ベースの気道分析システムは、画像を分析して、画像に示される1つ以上の気道を特定することができる。本明細書で使用するとき、画像ベースの気道マッピングは、画像内で特定された気道を、例えば術前モデルデータによって示される管腔ネットワークの対応する気道又は枝にマッピングすることを指し得る。例えば、画像ベースの気道マッピングシステムは、所与の管腔ネットワークのどの気道又は枝が、捕捉された画像内で特定された気道又は枝に対応するのかを識別するように構成され得る。これらのシステム及び技術を使用して、管腔ネットワーク内の器具の位置を判定又は推定することができる。いくつかの実施態様では、これらのシステム及び技術は、(例えば、図15を参照して上述したように)様々な他のナビゲーション及び位置特定モダリティと共に使用されてもよい。
A.画像ベースの気道分析及びマッピングの概要
管腔ネットワーク内部をナビゲートする能力は、本明細書に記載のロボット制御式の外科用システムの特徴であり得る。本明細書で使用するとき、ナビゲーションは、管腔ネットワーク内の器具の位置を特定又は判定することを指し得る。判定された位置は、器具を管腔ネットワーク内の1つ以上の特定の対象領域に誘導するのを補助するために使用されてもよい。いくつかの実施形態では、ロボット制御式の外科用システムは、器具の術中ナビゲーションを提供するために、1つ以上の独立した感知モダリティを利用する。図15に示すように、独立した感知モダリティは、位置データ(例えば、EMデータ93)、視覚データ92、及び/又はロボットコマンド及び運動学データ94を提供することができる。これらの独立した感知モダリティは、独立した推定位置を提供するように構成された推定モジュールを含んでもよい。独立した推定結果を、次いで、例えば位置特定モジュール95を使用して、システムによって使用できる、又はユーザに表示できる1つのナビゲーション出力へと組み合わせてもよい。画像ベースの気道分析及びマッピングは、視覚データ92に基づいて、独立した推定位置を提供することができる独立した感知モダリティを提供することができる。特に、いくつかの場合には、画像ベースの気道分析及びマッピングは、感知モダリティと、器具の撮像デバイスが管腔ネットワークのどの管腔又は枝に位置しているのかを、撮像デバイスによって捕捉された1つ以上の画像に基づいて推定する状態/位置推定モジュールとの組み合わせを提供する。いくつかの実施形態では、画像ベースの気道分析及びマッピングによって提供される推定結果を、単独で、又は他の推定位置と共に使用して、システムによって使用できる、又はユーザに表示できる最終的な推定位置を求めてもよい。いくつかの実施形態では、本明細書に記載の画像ベースの気道分析及びマッピングシステム及び方法は、複数の感知モダリティを使用して計算された過去の推定位置に基づいてその推定を行うことができる。
図19は、画像ベースの気道分析及びマッピングのための例示的な方法400を示す。方法400は、本明細書に記載の様々なロボット制御式の外科用システムにおいて実施され得る。方法400は、2つの工程又はブロック、すなわち、画像内の気道を検出すること(ブロック402)及び、検出された気道を、(例えば、術前モデルデータによって示される)管腔ネットワークの対応する気道にマッピングすること(ブロック404)を含んでもよい。
ブロック402で、方法400は、画像内の1つ以上の気道を検出する。上述のように、医療処置中に、器具が管腔ネットワーク内に配置されてもよい(図16を参照)。図18に示すように、器具は、その上に配置された撮像デバイス315(カメラなど)を含んでもよい。撮像デバイス315は、管腔ネットワークの内部の画像を捕捉してもよい。例えば、特定の瞬間に、撮像デバイス315は、器具がその中に現在位置している管腔ネットワークの特定の気道の内部の画像を捕捉してもよい。ブロック402で、方法400は、画像を分析して、画像内の1つ以上の気道を検出してもよい。例えば、画像内で検出された気道は、気道検出条件(例えば、閾値よりも大きいピクセル強度を有するなど)を満たすピクセルのセットであってもよい。検出された気道は、その中で画像が撮像デバイス315によって捕捉されている現在の気道及び/又は、現在の気道の1つ以上の子気道(例えば、管腔ネットワークの後続の枝)であってもよい。ブロック402は、画像を処理して、画像に示されている気道の数及び位置を判定する画像分析を含んでもよい。いくつかの実施態様では、画像が1つ以上の気道を含むと判定される場合、気道の様々な特徴も判定されてもよい。これらのような特徴が、検出された気道の形状又は輪郭を計算すること、及び/又は、検出された気道の重心を計算することを含んでもよい。
方法400は、ブロック404で、1つ以上の検出された気道を管腔ネットワークの特定の気道にマッピングする。方法400は、ブロック404で、管腔ネットワークのどの気道が管腔ネットワークの他の後続の気道に分枝しているのかを判定する。例えば、システムは、所定の術前モデルデータ(例えば、CTデータ)に基づいて、所与の画像内に捕捉されることが予想される気道を、(例えば撮像デバイス315の現在の位置に基づいて)認識することができる。方法400は、ブロック402で画像内の1つ以上の気道を検出すると、術前モデルデータに基づいて、検出された気道を予想される気道にマッピングすることができる。
方法400は、カメラ画像で検出された気道を、管腔ネットワーク内の対応する予想される気道にマッピングすることによって、器具の推定位置を提供することができる。例えば、システム又は器具は、方法400を使用して、器具がどの気道を「見ている」のかを特定し、この情報を使用して、管腔ネットワーク内で器具が現在位置している気道、及び器具が入ろうとしている気道を推定することができる。
B.画像ベースの気道分析
画像ベースの気道分析は、管腔ネットワーク内に配置された器具の撮像デバイス315によって捕捉された画像を分析して、画像内の1つ以上の気道を検出することを含んでもよい。図20は、管腔ネットワークの枝の内部の例示的な画像500を示す。図示の例では、画像500は肺の気道の内部画像であるが、画像500は、任意の種類の管腔ネットワークを表すことができる。2つの後続の気道502が画像500に示されている。気道502は、画像が捕捉された現在の気道に接続されている。
画像ベースの気道分析は、コンピュータシステムが気道502を計算的に認識することができる方法を含むことができる。いくつかの場合には、画像500は、(1)管腔ネットワークの壁(例えば、組織)を表すピクセル及び、(2)気道(例えば、気道開口部)を表すピクセルの2つのクラスのピクセルを含む。いくつかの実施形態によれば、画像ベースの気道分析は、これらの2つのクラスのピクセルを体系的に検出して、画像内の気道を特定及び検出することができる。例えば、気道502は、ピクセルをピクセル強度に基づいてこれらの2つのクラスに分類することによって検出され得る。ピクセル強度に基づく画像分析及び検出方法は、米国特許出願第15/783,903号でより詳細に述べられており、その内容はその全体が本明細書に組み込まれる。
C.画像ベースの気道マッピング
本明細書に記載の画像ベースの気道マッピング技術を、検出された枝又は気道に管腔ネットワークのどの枝が関連付けられているのかを判定するために使用することができる。すなわち、画像ベースの気道マッピングは、画像が捕捉された現在の枝に管腔ネットワークのどの後続の枝が接続されているのかを判定することができる。検出された気道を管腔ネットワークの枝にマッピングすることによって、管腔ネットワーク内の器具の位置を判定することができる。更に、器具がどの枝に移動するのかの推定又は予測も得ることができる。
いくつかの実施形態では、検出された気道の特徴を管腔ネットワークの枝の特徴と比較することによって、検出された気道を管腔ネットワークの枝にマッピングすることができる。検出された気道の特徴は、上述のような画像分析によって求めることができる。管腔ネットワークの枝の特徴は、例えば管腔ネットワークの術前モデルなどの、管腔ネットワークのモデルから求めることができる。更に、いくつかの実施形態では、管腔ネットワークの枝への検出された気道のマッピングは、管腔ネットワーク内の器具の現在の推定位置に基づいてもよい。現在の推定位置を、図15を参照して上述したような様々な感知モダリティに基づいて求めてもよい。現在の推定位置に基づいて、検出された気道を管腔ネットワークの枝にマッピングすることにより、マッピングプロセスの効率、速度、及び/又は精度を向上させることができる。例えば、現在の推定位置が与えられると、検出された気道の特徴を、予想される後続の枝の特徴と比較することができる。これにより、マッピングを実行するために必要とされる計算負荷を最小化し、マッピング速度を向上させることができる。
図21は、管腔ネットワーク1000の簡略化された表現を示す。管腔ネットワーク1000は、複数の枝(例えば、管腔、セグメント、気道など)1002、1004、1006、1008、1010、1012、1014、1016を含む。管腔ネットワーク1000はまた、様々な枝を互いに接続する分枝部1020、1022及び三叉部1024を含む。図21の例では、枝1004、1006は同じ世代であり、枝1008、1010、1012、1014、1016は同じ世代である。いくつかの実施形態では、管腔ネットワーク1000は、肺の気管支網の一部を表してもよく、枝は気道を表してもよい。本開示の多くの例示的な実施形態は、気管支網内の気道を参照して説明されているが、実施形態はそのようなものとして限定されず、他の種類の管腔ネットワーク内の他の種類の枝にも当てはめられる。
管腔ネットワーク1000は、モデルによって表されてもよい。いくつかの実施形態では、モデルは術前に決定される。例えば、術前モデルデータ91(すなわち、術前モデルに関する情報)が記憶され、ナビゲーション及び位置特定システム90に利用可能にされてもよい(図15)。他の実施形態では、モデルの少なくとも一部分が術中に決定される。以下に例として説明するように、画像ベースの気道マッピングは、検出された枝を、術前モデルデータ91に基づいて生成された管腔ネットワーク1000の枝にマッピングするように構成することができる。
D.画像ベースの気道検出に関する潜在的な課題
気管支鏡カメラで捕捉された画像に、異なる世代の気道が含まれている場合がある。そのような場合、本明細書に記載の画像ベースの気道検出方法によって検出される気道の数は不正確となり得る。例えば、図22は、図21の管腔ネットワーク1000の枝1002で捕捉された画像2200(a)(左)及び画像2200(b)(右)を示す。図22の例では、画像2200(a)、2200(b)に気道射影が追加されて、現在のカメラ位置から見えると予想される枝の数及び位置を示している。
画像2200(a)で撮像ベースの気道検出方法を実行した結果、画像2200(a)に示すように、4つの気道が検出された。システムは、このような結果から、現在の気道がこれら4つの検出された枝に分枝していると判定する可能性がある。しかしながら、図21の階層構造が示すように、そのような判定は不正確である。術前モデルデータ(例えば、図21に示す管腔ネットワーク1000の階層構造)は、画像2200(a)が捕捉された枝1002が、画像2200(a)で検出された4つの枝ではなく2つの枝(すなわち、枝1004及び枝1006)に分枝していると予想されることを、(正確に、かつ術前モデルデータと一致する方法で)示す。画像2200(a)は4つの気道を明示しているが、これらの気道のうちで画像2200(a)の右下隅に描かれている3つは、現在の枝1002の直後の枝1006(すなわち、現在の枝1002の「子」)から分枝している、現在の分枝1002の「孫」(すなわち、枝1012、1014、1016)である。
したがって、いくつかの実施形態では、本開示の気道分析及びマッピングシステム及び方法は、所与の画像に存在する気道の数(すなわち、総数及び/又は位置)を示す術前モデルデータを利用することによって、画像2200(b)に示すように、正しい気道数を検出することができる。
E.気道分析
図23Aは、例示的な気道分析及びマッピングシステム2300Aを示す。図示のように、気道分析及びマッピングシステム2300Aは、気道追跡モジュール2300A−1、気道関連付けモジュール2300A−2及び、気道マージモジュール2300A−3を含む。気道分析及びマッピングシステム2300Aは、(i)画像データストア2310からの画像データ(例えば、撮像デバイスを使用して捕捉された画像)、(ii)術前モデルデータストア2320からのモデルデータ(例えば、蛍光透視データ、MRIデータ、超音波撮像データ、X線データなどの術前モデルデータ)、(iii)センサデータストア2330からのセンサデータ(例えば、EMデータ、視覚データ、ロボットデータ、形状感知ファイバデータなど)を入力として受信し、気道データ(例えば、特定又はマージされた気道の位置、サイズ及び中心並びに、特定又はマージされた気道と術前モデルデータとの間のマッピングなど)を気道データストア2340に出力する。気道追跡モジュール2300A−1は、画像データの各画像で気道を特定する。気道関連付けモジュール2300A−2は、現在の画像の気道を過去の画像の気道と関連付ける。気道マージモジュール2300A−3は、例えば、センサデータ及び術前モデルデータを使用して、2つ以上の気道がマージされるべきか否かを、それらの関係に基づいて判定する。様々な実施形態による気道の特定、関連付け及びマージのプロセスは、図23B、図24及び図25を参照して、以下でより詳細に説明される。
図23Bは、例示的な実施形態による画像ベースの気道分析がその中で実行される時間的コンテキストを示す。簡略化のために、1つ以上の工程がシステム(例えば、気道分析及びマッピングシステム2300A)によって実行されるものとして説明されている。
図示のように、一連の画像(すなわち、画像t、t、...)が、患者の管腔ネットワークをナビゲートする医療器具上の撮像デバイスによって捕捉され、異なる時間(例えば、t及びt)で捕捉された画像に対して、気道追跡、気道関連付け及び気道マージが行われる。大まかに言えば、気道追跡、気道関連付け及び気道マージを実行するこのプロセスは、撮像デバイスによって捕捉された画像のストリームを分析して、現在検出されている気道の位置を過去の画像で検出された気道の推定位置と比較し、次いで、現在の画像で検出された気道と過去の画像で検出された気道との間の関係を判定して、これらの気道をマージすべきか否かを判定する。画像のストリーム、又はそこから導出された気道位置情報などのデータは、分析を実行するためにシステムによって記憶されてもよい。時間的な気道追跡、気道関連付け及び気道マージについて、以下により詳細に記載する。
図24は、例示的実施形態による画像ベースの気道分析の空間的性質を示す。図示のように、過去の画像及び現在の画像における気道は、様々な異なる種類の空間的関係(例えば、一対一、一対多、多対一、ゼロ対一及び一対ゼロなど)を示し得る。これらの例を、気道関連付けに関連して以下により詳細に記載する。
E.1.時間的な気道トラッキング
大まかに言えば、画像ベースの時間的追跡は、過去の画像内の気道の状態(例えば、位置及びサイズ)に対する現在の画像内の気道の状態を推定することを含む。図23Bに示すように、気道追跡プロセスは、tにおける現在の画像と、過去の画像から導出された気道情報、すなわちtにおける過去の画像とを、入力として受信する。これらの入力に基づいて、システムは、現在の画像に対する過去の気道の予想位置を計算し、現在の画像で検出された気道の現在位置を求めることができる。
気道の現在位置及び過去の気道の予想位置を特定するこのプロセスを図25に示す。例えば、第1の列では、時間tにおける気道A及びBの位置が、実線のボックスに示されるように特定される。時間tにおいて、時間的な気道追跡は、A及びBの検出された位置を入力として受信し、任意選択的に、非限定的な一例としては光学フロー技術を使用して、例えばスコープの移動に基づき、これらの気道の更新された位置を推定することができる。光学フロー技術の例としては、動き検出、オブジェクト分割計算、輝度、動き補償符号化、立体視差測定などを挙げることができる。時間tにおける過去の気道の推定位置は、点線のボックスに示されている。時間的気道追跡はまた、現在の画像を分析して、時時間tにおける現在の画像で検出可能な気道の位置を検出する。時時間tにおける画像で検出された気道の現在位置は、実線のボックスに示されている。図25は、気道関連付けに関連して以下により詳細に説明されている。
したがって、気道追跡プロセスは、現在の時間について、現在の画像に対する過去の気道の推定位置及び、現在の時間の画像データ内で現在検出されている気道の位置を求める。
E.2.時間的分析及び空間的分析に基づく気道関連付け
一般に、本システムによって実行される気道関連付けは、過去の画像で検出された気道と現在の画像で検出された気道との間に関係を作成することができる。気道関連付けは、過去の気道の位置及び気道追跡によって決定され得る検出された気道の位置に基づいて、これらの関係を作成する。関係は、過去の気道が2つの別個の気道として検出される場合を表す可能性がある。気道が2つの異なる気道として描かれる可能性があるこのような状況には、別の気道を通して見える気道(例えば、子孫気道)を検出する場合や、気道が最初は単一の気道として見えるが、その後、この単一の気道が実際には互いに近接して位置する複数の気道であることが明らかとなる遷移を検出する場合が、非限定的に含まれる。更に、場合によっては、元々は過去の画像の一部ではなかった気道が見える場合があり、この新しい気道と過去の気道との関連付けを回避する措置を気道関連付けが講じてもよい。
図24は、過去の画像及び現在の画像における気道によって示され得る関係の種類の例を示す。図24に示すように、例示的な関係は、2400(a)に示す一対一(A→A)対応及び一対多(B→C、D)対応、2400(b)に示す一対一(E→E)対応及び多対一(F、G→H)対応、2400(c)に示すゼロ対一(無→J)対応及び一対一(I→I)対応、2400(d)に示す一対ゼロ(L→無)対応及び一対一(K→K)対応を含んでもよい。実線の長方形は、検出された気道を現在の画像(例えば、画像t)内に包含する境界ボックスであり、破線の長方形は、検出された気道を過去の画像(例えば、画像t)内に包含する境界ボックスである。いくつかの実施形態では、長方形及び/又は境界ボックスが使用されるが、そのような実施形態は、そのようなものとして限定されず、任意の多角形又は他の形状を使用する実施形態も含まれ得る。関連付けは、気道に一意の識別子が付与される一連のレコードとしてシステムによって記憶されてもよく、互いに関連付けられている気道の一意の識別子をリンクするデータを含んでもよい。
システムは、図24に示す長方形(又は、より広義には気道の位置及び形状)間の重複を比較することによって、過去の画像で検出された気道と現在の画像で検出された気道との間の対応付けを行うことができる。いくつかの実施形態では、所与の気道が別の気道に対応するか否かを判定するために、以下のオーバーラップ率値のうちの1つ以上(又はこれらの任意の組み合わせ)を使用してもよい:
Figure 2021525123
式中、∩及び∪はそれぞれ、2つの長方形bとbとの間の積集合演算子及び和集合演算子を表す。長方形又は他の境界形状の面積(例えば、ピクセル単位)(長方形内のピクセルを数えることによって計算され得る)は、Λ(・)として表される。min(p,q)及びmax(p,q)は、それぞれ、p及びqより小さい値及びより大きい値を返す。
いくつかの実施形態では、2つの長方形(例えば、一方は過去の画像で検出された1つ以上の気道に対応し、他方は現在の画像で検出された1つ以上の気道に対応する)間の関連付けは、以下の条件が満たされている場合に成立する:
Figure 2021525123
式中、τは予め定義された閾値であり、O(b,b)は、3つのオーバーラップ率値(O、O、及びO)のうちの1つであり得る。3つのオーバーラップ率値は例であり、これらのオーバーラップ率値の代わりに、又はこれらのオーバーラップ率値に加えて、他のオーバーラップ率値を使用してもよい。図24の例では長方形が使用されているが、いくつかの実施形態では、任意の幾何学的形状(例えば、多角形又は他の形状)を使用して、気道間の重複を計算することができる。そのような実施形態では、現在の画像で検出された1つ以上の気道に対応する1つ以上の幾何学的形状の1つのセットと、過去の画像で検出された1つ以上の気道に対応する1つ以上の幾何学的形状の別のセットとの間の重複を計算することができる。いくつかの実施形態では、重複を計算するために使用される幾何学的形状は、検出された気道を完全に包含している。他の例では、幾何学的形状は、検出された気道を完全に包含せず、これらの気道と部分的に重複する。どの気道がマージされるのかが既知である前述の例では、システムは、図24に示す幾何学的重複分析の一部又は全てを省略することができる。
上記を、深さレベル1の関連付け(例えば、2つ以上の気道間の1つの関連付け)を作成するものとして説明してきたが、他の実施形態では、深さレベルが1を超える鎖を作成可能であることを理解されたい。例えば、気道Xが気道Y及びZに関連付けられている場合、後続の画像が、オーバーラップ閾値を満たす気道Y’及びY’’をY内に検出する場合がある。そのような場合、システムは、例えばX→Y→Y’,Y’’を含む関連付けの鎖などの、YとY’、Y’’との間の関連付けを作成することができる。
E.3.オーバーラップ閾値を調整する
図25は、オーバーラップ率閾値の誤った設定のために誤った関連付けが作成される可能性がある3つの例を示す。例えば、画像2500(a)に示す関係は、2つの一対一対応(例えば、A→A及びB→B)であるべきである。しかしながら、画像2500(a)の第4列に示す重複により、現在の画像の気道Bが過去の画像の気道Aに関連付けられる(又は気道A、Bが過去の画像の気道A、Bに関連付けられる)可能性がある。そのような場合、画像2500(a)の第4列に示す重複が重複条件を満たさないように、オーバーラップ閾値を調整することができる。同様に、画像2500(b)及び2500(c)は、誤った関連付けが作成される可能性がある他の例と、そのような関連付けを防ぐためにオーバーラップ閾値をどのように調整することができるか(例えば、第4列に示す重複がオーバーラップ閾値を満たさないように調整するなど)を示す。
いくつかの実施形態では、オーバーラップ率閾値は、システムの設計者によって構成された設計時パラメータであり得る。しかしながら、他の実施形態では、システムが外科データを追跡及び記録して、様々なオーバーラップ閾値の失敗率を追跡してもよい。このようなシステムは、そのような外科データを利用して、様々なオーバーラップ閾値の使用についてシステムを訓練し、失敗率を下げることの可能な更新されたオーバーラップ閾値でシステムを更新することができる。更に、複数のシステムが外科データを共有して、そのような訓練及びオーバーラップ閾値の選択のために利用可能な外科データを増やしてもよい。
E.4.時間的分析及び空間的分析に基づく気道マージ
気道マージでは、システムは、作成された気道間の関連付け及び術前モデルデータからのデータに基づいて、2つ以上の現在の気道をマージすることができる。現在の画像内の2つ以上の気道をマージするか否かを決定するために、システムは、器具の現在の位置を判定し、次いで、術前モデルからの位置で予想される気道の数を求めてもよい。システムは、器具の位置を判定するために任意の数のアプローチを利用できることを理解されたい。例として、限定するものではないが、このようなアプローチは、EMセンサ、視覚センサ、ロボットデータセンサ、形状感知ファイバセンサなどのセンサタイプのうちの1つ以上を含み得る上記のセンサ融合システムを含んでもよい。
術前モデルデータは、所与の位置について予想される気道の検索を可能にする形式で記憶されてもよい。このようなデータは、処置の前に生成されてもよく、その場合、予想される気道は、術前モデルに対する器具の位置によって索引付けされる。本明細書で使用するとき、位置は、向きを有するか又は有さない位置、セグメント内の挿入深さを有するか又は有さないセグメント、又は任意の他の位置表現であり得る。
現在の画像内の気道のセットがマージされることをシステムが決定すると、システムは、マージされた気道の新たな気道中心を計算することができる。新たな気道中心を、次に上述の画像ベースの気道マッピング方法で使用することができる。
単一の親気道を有する2つの気道をマージする例では、2つの気道の気道中心は、それぞれ、{x,y}及び{x,y}として表すことができる。一アプローチでは、マージされた気道の気道中心は、(例えば、現在の画像内の気道を表す幾何学的形状などの)現在の画像内で検出された気道のそれぞれの中心位置の中心として計算され得る。例えば、そのような値を以下のように計算してもよい:
Figure 2021525123
別の例では、マージされた気道の気道中心は、(例えば、現在の画像内の気道を表す幾何学的形状などの)現在の画像内で検出された気道のそれぞれの中心位置の加重中心として計算され得る。例えば、そのような値を以下のように計算してもよい:
Figure 2021525123
式中、Λ及びΛは、それぞれ、マージされる2つの気道の面積(例えば、ピクセル単位)である。
更に別の例では、マージされた気道の気道中心は、(例えば、現在の画像内の気道を表す幾何学的形状などの)現在の画像内で検出された気道を包含する境界多角形の中心として計算され得る。例えば、2つの気道のうちの第1の気道を包含する長方形の左上隅及び右下隅の座標が
Figure 2021525123
として表され、2つの気道のうちの第2の気道を包含する長方形の左上隅角及び右下隅の座標が
Figure 2021525123
として表される場合、包含長方形の隅
Figure 2021525123
を以下のように導出することができる:
Figure 2021525123
これらの値を使用して、マージされた気道の気道中心は、以下のように求められる包含長方形の中心として計算することができる:
Figure 2021525123
例えば、マージされた中心の計算結果は、現在の画像で検出された気道の他のどの中心位置とも異なってもよい。図22の画像2200(b)に示すように、マージされた気道のマージされた中心のグラフィック表現を、このマージされた気道へとマージされた複数の気道の複数の中心の代わりに、システムのディスプレイ上に出力してもよい。いくつかの場合には、マージされた中心を、マージされた気道の中心と共にディスプレイ上に出力してもよい。マージされた気道の気道中心を計算する例示的な技術が上述されているが、マージされた気道を表す気道中心を計算する他の技術を使用してもよい。
F.例示的な画像ベースの気道分析及びマッピング方法及びシステム
図26は、上述の画像ベースの気道分析及びマッピングを実施するための例示的な方法2600を示す。方法2600を、本開示全体を通して説明される様々なロボット制御式のシステムで実施してもよい。方法2600を、管腔ネットワークに挿入されるように構成された細長い本体を有する器具を含むロボットシステムを用いて実施してもよい。撮像デバイスを、細長い本体上(例えば、細長い本体の遠位端上)に配置してもよい。器具を、管腔ネットワークを通して器具を移動させるように構成された器具位置決めデバイス(例えば、ロボットアーム)に取り付けてもよい。方法2600を使用するシステムが、プロセッサに方法2600を実行させる命令で構成されたプロセッサを含んでもよい。方法2600は単なる例として挙げたものであり、図26に示す工程とは異なる工程を使用して画像ベースの気道分析及びマッピングを実施してもよい。簡潔にするために、図26に示す工程は、システム(例えば、本明細書に記載のシステムのうちの1つ、又は本明細書に記載の技術のうちの1つ以上を実行するように構成されたシステム)によって実行されるものとして説明されている。
ブロック2602で、管腔ネットワーク内の1つ以上の気道をマッピングするためのシステムは、器具上に配置された撮像デバイスを用いて、管腔ネットワーク内の複数の画像を捕捉する。複数の画像は、少なくとも2つの画像を含んでもよく、これらの画像のうちの1つ(例えば、現在の画像又は第2の画像)が、他の画像(例えば、過去の画像又は第1の画像)よりも後の時間で捕捉される。第1の画像が捕捉される時間を第1の時間と称してもよく、第2の画像が捕捉される時間を第2の時間と称してもよい。
ブロック2604で、システムは、第1の画像内の1つ以上の気道を特定する。いくつかの実施形態では、システムは、第1の画像内の単一の気道を特定する。他の実施形態では、システムは、第1の画像内の複数の気道を特定する。システムは、本明細書に記載の気道特定又は検出技術(例えば、ピクセル強度分析)又は他の技術のいずれを利用してもよい。例えば、特定された気道は、そのピクセルが気道検出方法によって指定されたピクセル強度閾値を満たす、1つ以上の多角形又は他の幾何学的形状を含んでもよい。いくつかの実施形態では、重心などの点位置が求められ、検出された気道と関連付けられる。
ブロック2606で、システムは、第2の画像内の2つ以上の気道を特定する。いくつかの実施形態では、システムは、第2の画像内の単一の気道を特定する。他の実施形態では、システムは、第2の画像内の複数の気道を特定する。システムは、ブロック2604で利用されるのと同様の方法で、第2の画像内の1つ以上の気道を特定することができる。
ブロック2608で、システムは、第1の画像内の第1の気道及び第2の画像内の2つ以上の気道に基づいて、重複条件が満たされていると判定する。重複条件が満たされていると判定することは、例えば、第1の画像内の第1の気道を表す1つ以上の幾何学的形状の第1のセットと、第2の画像内の2つ以上の気道を表す1つ以上の幾何学的形状の第2のセットとの間の空間的重複度を求めることと、空間的重複度が所定のオーバーラップ閾値、パラメータ又はしるしを満たしているか、あるいはこれを超えていると判定することと、を含んでもよい。ブロック2602〜2606が、気道追跡及び気道関連付けに関して説明した1つ以上の特徴を含んでもよいことを理解されたい。すなわち、システムは、現在の画像内の気道の位置及びサイズ、並びに過去の画像で過去に検出された気道の予想位置及びサイズを追跡してもよい。重複条件が満たされている場合、システムは、過去の画像内の気道と、現在の画像内の1つ以上の画像との間の関連付けを作成することができる。上で説明したように、他の関連付けは、一対一対応であるか、又は多対一対応であってもよい。
ブロック2610で、システムは、第2の時間における器具の位置に対応する気道の予想数を示す術前モデルデータにアクセスする。例えば、図26には示されていないが、システムは、管腔ネットワーク内に配置された器具の推定位置状態にアクセスすることができる。推定位置状態は、(例えば、図21の管腔ネットワーク1000の階層構造内で)器具が現在どの枝に配置されているのかの特定を含むことができる。推定位置状態及び術前モデルデータ(例えば、CT画像)に基づいて、システムは、第2の時間における(すなわち、第2の画像が捕捉された時間での)器具の位置に対応する気道の予想数を求めることができる。推定位置状態を、例えば、図15のナビゲーション及び位置特定システム90によって求めてもよい。推定位置状態を、例えば、術前モデルデータ91、視覚データ92、EMデータ93(又は他の位置感知データ)、並びに/又はロボットコマンド及び運動学データ94などの様々な及び/又は複数の位置感知モダリティ及び情報に基づいて求めてもよい。
ブロック2612で、システムは、術前モデルデータと、重複条件が満たされているという判定とに基づいて、第2の画像内の2つ以上の気道と術前モデルデータ内の気道との間のマッピングを決定する。このブロックで、システムは、気道マージ(セクションE.4.を参照)を使用して、第2の画像内の気道と術前モデルデータ内の気道との間のマッピングを決定することができる。すなわち、いくつかの実施形態によれば、システムは、ブロック2602〜2606(気道追跡及び気道関連付け)から導出されたデータ及び、術前モデルデータによって求められ得る、管腔ネットワーク内の現在の位置についての気道の予想数を使用して、第2の画像内で検出された気道をマージするか否かを決定することができる。次いで、システムは、マージされた又はマージされていない気道を、術前モデル内の気道にマッピングしてもよい。術前モデルデータへの気道のマッピング方法は、その全体が参照により本明細書に組み込まれ、付録Aとして本明細書に添付される2017年10月13日出願の米国特許出願第15/783,903号に更に記載されている。
先に説明したように、ブロック2612の一部として、システムは、第2の画像内の2つ以上の気道と術前モデルデータ内の気道との間のマッピングを、術前モデルに基づき、第2の時間における器具の位置に対応する気道の予想数を示す術前モデルデータにアクセスすることによって決定することができる。気道の予想数を求めるための術前モデルデータへのアクセスについて、以下により詳細に説明する。図26には示されていないが、術前モデルデータは、システムが所与の位置についての気道の予想数を検索することを可能にするデータ構造を有し得る。更に、システムは、管腔ネットワーク内に配置された器具の推定位置状態にアクセスすることができる。推定位置状態は、(例えば、図21の管腔ネットワーク1000の階層構造内で)器具が現在どの枝に配置されているのかの特定を含むことができる。推定位置状態及び術前モデルデータ(例えば、一実施形態ではCT画像から導出されたデータ)に基づいて、システムは、第2の時間における(すなわち、第2の画像が捕捉された時間での)器具の位置に対応する気道の予想数を、上述のデータ構造にアクセスすることによって求めることができる。推定位置状態を、例えば、図15のナビゲーション及び位置特定システム90によって求めてもよい。推定位置状態を、例えば、術前モデルデータ91、視覚データ92、EMデータ93(又は他の位置感知データ)、並びに/又はロボットコマンド及び運動学データ94などの様々な及び/又は複数の位置感知モダリティ及び情報に基づいて求めてもよい。
更なる例として、術前モデルデータは、システムが管腔ネットワーク1000の枝1004、1006を検出することが予想されることを示してもよい。システムがブロック2606で2つの気道を検出した場合、システムは、マージが不要であるという判定を、第2の画像で検出された2つ以上の気道の数と、術前モデルデータによって示される気道の予想数とが等しいことに基づいて行ってもよい。そのような場合、システムは、2つの検出された気道を、それぞれ(例えば、画像及び/又は2つの気道の向きに基づいて)図21に示す枝1004、1006にマッピングすることができる。図26の例では、システムは、第2の画像で特定された2つ以上の気道の数が、術前モデルデータによって示される気道の予想数に等しいという判定に基づいて、ブロック2612で、第2の画像で特定された2つ以上の気道のそれぞれが、術前モデルデータ内の気道のうちの異なる1つにマッピングされるように、マッピングを決定することができる。
別の例では、図22に示すように、術前モデルデータは、システムが管腔ネットワーク1000の枝1004、1006を検出すると予想されるが、システムがブロック2606で4つの気道(例えば、枝1004、1012、1014、1016)を検出した可能性があることを示す場合がある。そのような場合、システムは、(例えば、枝1012、1014、1016に対応する検出された気道を単一の気道にマージすることによって)4つの気道を2つの気道にマージし、マージされた気道を枝1006に、またマージされていない気道を枝1004にマッピングすることができる。図26の例では、システムは、第2の画像で特定された2つ以上の気道の数が、術前モデルデータによって示される気道の予想数とは異なるという判定に基づいて、ブロック2612で、第2の画像で特定された2つ以上の気道のうちの少なくとも2つが、術前モデルデータ内の気道のうちの1つの気道にマッピングされるように、マッピングを決定することができる。いくつかの実施形態では、マッピングは、データベース内の2つ以上の気道間の関連付けを記憶することを含む。例えば、システムは、画像で特定された所与の気道が、術前モデルデータによって示される2つ以上の気道に分枝するという指示を記憶してもよい。
上述のように、システムは、第2の画像内の2つ以上の気道と術前モデルデータ内の気道との間のマッピングに基づいて、管腔ネットワークのどのセグメントに器具が現在位置しているのかを確認することができる。いくつかの実施形態では、システムは、第2の画像内の2つ以上の気道と術前モデルデータ内の気道との間のマッピングに基づいて、他のデータに基づく推定位置状態の信頼値を調整することができる。例えば、この他のデータは、EMデータ、ロボットデータ、光学形状センサデータ及び慣性測定ユニット(IMU)データ、本明細書に記載される任意の他の入力データ(例えば、図15の入力データ91〜94)、又はこれらの任意の組み合わせを含んでもよい。追加的に又は代替的に、システムは、第2の画像内の2つ以上の気道と術前モデルデータ内の気道との間のマッピングに基づいて、管腔ネットワークのどのセグメントに器具が入るのかを予測することができる。
ブロック2608の一実施形態では、現在の画像内の気道の組み合わせと過去の画像内の気道の組み合わせとの重複が閾値量を超えている(又は閾値量に等しい)と判定すると、システムは、現在の画像内のマージ後の気道数が過去の画像内の気道の組み合わせの気道数と一致するように、現在の画像内の気道の組み合わせを1つ以上の気道にマージしてもよい。例えば、システムは、オーバーラップ率値(例えば、上記の式(1)〜(3)におけるオーバーラップ率値のいずれか)を閾値オーバーラップ値と比較して、2つの気道の組み合わせ間に関連付けが存在するか否かを判定することができる。
システムはまた、上述のように、マージされた気道のマージされた中心を計算してもよい。例えば、システムは、(例えば、現在の画像内の気道の組み合わせを表す幾何学的形状のセットなどの)現在の画像内の気道の組み合わせのマージされた中心位置を計算してもよく、マージされた中心位置は、(例えば、現在の画像内の気道の組み合わせを表す幾何学的形状のセットなどの)現在の画像内で検出された気道のそれぞれの中心位置のうちのいずれとも異なる。
気道の組み合わせの複数の対が重複条件を満たしている(例えば、60%の重複を有するA→B、及び25%の重複を有するA→C)とシステムが判定した場合、システムは、より重複の大きい気道の組み合わせの対が関連付けられている(例えば、A→B)と判定してもよい。いくつかの実施形態では、重複条件が満たされているか否かの判定は、(例えば、オーバーラップ率が閾値オーバーラップ率以上であるなどの)程度の判定ではなく、(例えば、現在の画像内の気道の組み合わせを包含する長方形の3つ以上のセグメントの中点が、親画像内の気道の組み合わせを包含する長方形内にあるか否かなどの)二値判定である。
いくつかの実施形態では、重複条件が満たされているか否かの判定は、(例えば、過去の画像内の気道の組み合わせを表す幾何学的形状のセットなどの)過去の画像内の気道の組み合わせを包含する境界多角形(例えば、長方形又は他の形状)を決定することと、(例えば、現在の画像内の気道の組み合わせを表す幾何学的形状のセットなどの)現在の画像内の気道の組み合わせを包含する境界多角形を決定することと、これら2つの境界多角形間の重複に基づいて空間的重複度を計算することと、を含んでもよい。
本明細書に記載の画像ベースの気道分析及びマッピング技術は、視覚分岐予測(Vision Branch Prediction、VBP)アプローチ又は他の画像ベースの分岐予測アプローチを補う。VBPは、所与の画像において、(例えば、図22の画像2200(a)に示すように)異なる世代からの気道が見えるために、正しい気道マッピングを実行できない場合がある。本明細書に記載の画像ベースの気道分析及びマッピング技術は、管腔ネットワーク内の気道の階層構造を判定又は確認し、同じ世代に対応する気道中心を計算することができる。このことは、図22の画像2200(b)に示すように、正しい気道マッピングを確立することを助ける。
G.再帰的距離探索
いくつかの実施形態では、現在の画像内の2つ以上の気道がマージされることが決定されると、システムは、再帰的距離探索を使用してこれらの気道をマージすることができる。その際に、システムは、気道は他の世代よりも同じ世代の気道により近いと想定してもよい。例えば、この想定は、第3世代の気道(例えば、図22の右下隅に示す枝1012、1014、1016)が全て、第2世代の気道(例えば、図22の左上隅に示す枝1004)の気道よりも相互に近接している図21及び図22の例に当てはまる。
再帰的距離検索では、現在の画像で検出されたn個の気道中心のセットを表すセット
Figure 2021525123
が含まれ得る。各気道中心をPi={x,y}として表すことができる。次いで、システムは、以下の値を計算してもよい:
Figure 2021525123
式中、||・||は、L2ノルム演算子を表す。上記の式は、セットP内の気道中心のうちで相互の距離が最も近い一対の中心を見つけるものであり、システムは、これら2つの気道が同じ世代に属すると想定することができる。次いで、システムは、例えば式(5)〜(11)に基づいて、(例えば、マージされた気道の気道中心を取得するなど)2つの気道をマージする。次いで、システムはp及びpをPから削除し、pをPに追加し、1つの気道(又は所望の数の気道)のみがPに残るまで、このプロセス(計算、マージ、削除、追加など)を繰り返す。
IV.実施システム及び用語
本明細書に開示の実施態様は、ロボット制御式の医療器具のナビゲーションのための画像ベースの気道分析及びマッピングのためのシステム、方法及びデバイスを提供する。本明細書に記載の様々な実施態様は、管腔ネットワークの改善されたナビゲーションを提供する。
本明細書で使用するとき、用語「結合する」、「結合している」、「結合された」、又は単語結合の他の変形は、間接的接続又は直接的接続のいずれかを示し得ることに留意されたい。例えば、第1の構成要素が第2の構成要素に「結合される」場合、第1の構成要素は、別の構成要素を介して第2の構成要素に間接的に接続されるか、又は第2の構成要素に直接的に接続されてもよい。
本明細書に記載の位置推定機能及びロボット動作作動機能は、プロセッサ可読媒体又はコンピュータ可読媒体上の1つ又は2つ以上の命令として記憶されてもよい。用語「コンピュータ可読媒体」は、コンピュータ又はプロセッサによってアクセスすることができる任意の利用可能な媒体を指す。一例として、限定するものではないが、このような媒体は、ランダムアクセスメモリ(random access memory、RAM)、読み出し専用メモリ(read-only memory、ROM)、電気的消去可能プログラム可能読み出し専用メモリ(electrically erasable programmable read-only memory、EEPROM)、フラッシュメモリ、コンパクトディスク読み出し専用メモリ(compact disc read-only memory、CD−ROM)、又は他の光ディスク記憶装置、磁気ディスク記憶装置、若しくは他の磁気記憶デバイス、又は命令若しくはデータ構造の形態で所望のプログラムコードを記憶するために使用することができ、コンピュータによってアクセスすることができる任意の他の媒体を含んでもよい。コンピュータ可読媒体は、有形であり、非一時的であってもよいことに留意されたい。本明細書で使用するとき、用語「コード」は、コンピューティングデバイス又はプロセッサによって実行可能であるソフトウェア、命令、コード、又はデータを指してもよい。
本明細書に開示される方法は、記載される方法を達成するための1つ又は2つ以上の工程又は行為を含む。方法工程及び/又は行為は、特許請求の範囲から逸脱することなく互いに交換されてもよい。換言すれば、記載されている方法の適切な動作のために特定の順序の工程又は行為が必要とされない限り、特許請求の範囲から逸脱することなく、特定の工程及び/又は行為の順序及び/又は使用を修正してもよい。
本明細書で使用するとき、用語「複数」は、2つ又は3つ以上を示す。例えば、複数の構成要素は、2つ又は3つ以上の構成要素を示す。用語「判定する」は、多種多様な行為を包含し、したがって、「判定する」は、計算する、演算する、処理する、導出する、調査する、ルックアップする(例えば、テーブル、データベース又は別のデータ構造を見る)、確認するなどを含むことができる。また、「判定する」は、受け取る(例えば、情報を受信すること)、アクセスする(例えば、メモリ内のデータにアクセスすること)などを含むことができる。また、「判定する」は、解決する、選択する、選出する、確立するなどを含むことができる。
語句「基づく」は、別途明示的に指定されない限り、「のみに基づく」ことを意味しない。換言すれば、語句「基づく」は、「のみに基づく」及び「少なくとも基づく」の両方を記載する。
開示される実施態様の前述の説明は、任意の当業者が本発明を製造すること、又は使用することを可能にするために提供される。これらの実施態様に対する種々の修正は、当業者には容易に明らかになり、かつ、本明細書で規定される一般的な原理は、本発明の範囲から逸脱することなく、他の実施態様に適用され得る。例えば、当業者であれば、締結、装着、結合、又は係合ツール構成要素の均等の方法、特定の作動運動を生み出すための均等の機構、及び電気エネルギーを送達するための均等の機構など、多くの対応する代替的かつ均等の構造的詳細を使用することができると理解されるであろう。したがって、本発明は、本明細書に示される実施態様に限定されることを意図するものではなく、本明細書に開示される原則及び新規な特徴と一致する最も広い範囲が与えられるものである。
〔実施の態様〕
(1) 管腔ネットワークを通して器具をナビゲートする方法であって、
前記器具上に配置された撮像デバイスを用いて前記管腔ネットワーク内の複数の画像を捕捉することであって、前記複数の画像は、少なくとも、第1の時間に捕捉された第1の画像と、前記第1の時間よりも後の第2の時間に捕捉された第2の画像と、を含む、ことと、
前記第1の画像内の第1の気道を特定することと、
前記第2の画像内の2つ以上の気道を特定することと、
前記第1の画像内の前記第1の気道及び前記第2の画像内の前記2つ以上の気道に基づいて、重複条件が満たされていると判定することと、
前記第2の時間中の前記器具の位置に対応する気道の予想数を示す術前モデルデータにアクセスすることと、
前記術前モデルデータと、前記重複条件が満たされているという前記判定とに基づいて、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間のマッピングを決定することと、
を含む、方法。
(2) 前記マッピングを決定することは、
前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することと、
前記重複条件が満たされているという前記判定に基づいて、前記2つ以上の気道が前記第1の気道から分枝していると判定することと、
を含む、実施態様1に記載の方法。
(3) 前記重複条件が満たされていると判定することは、前記第1の画像内の前記第1の気道を表す1つ以上の幾何学的形状の第1のセットと、前記第2の画像内の前記2つ以上の気道を表す1つ以上の幾何学的形状の第2のセットとの間の空間的重複度に更に基づく、実施態様1に記載の方法。
(4) 前記第1の画像内の前記第1の気道を表す幾何学的形状の前記第1のセットを包含する第1の境界多角形を決定することと、
前記第2の画像内の前記2つ以上の気道を表す幾何学的形状の前記第2のセットを包含する第2の境界多角形を決定することと、
を更に含み、
前記空間的重複度を求めることは、前記第1の境界多角形と前記第2の境界多角形との間の重複に基づく、
実施態様3に記載の方法。
(5) 前記重複条件が満たされていると判定することは、1つ以上の幾何学的形状の前記第1のセットと1つ以上の幾何学的形状の前記第2のセットとの間の前記空間的重複度が閾値重複量よりも大きいという判定に更に基づく、実施態様3に記載の方法。
(6) 前記マッピングを決定することは、前記第2の画像で特定された前記2つ以上の気道を表す幾何学的形状の前記第2のセットのマージされた中心位置を計算することを含み、
前記マージされた中心位置は、前記第2のセットの前記幾何学的形状のそれぞれの中心位置のいずれとも異なる、
実施態様3に記載の方法。
(7) 前記マージされた中心位置は、(i)前記第2のセットの前記幾何学的形状の前記それぞれの中心位置の中心、(ii)前記第2のセットの前記幾何学的形状の前記それぞれの中心位置の加重中心、又は(iii)前記第2のセットの前記幾何学的形状を包含する境界多角形の中心のうちの1つである、実施態様6に記載の方法。
(8) 前記第2の画像上の前記マージされた気道の前記中心位置にグラフィック表現を表示させることを更に含む、実施態様6に記載の方法。
(9) 前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、前記管腔ネットワークのどのセグメントに前記器具が入るのかを予測することを更に含む、実施態様1に記載の方法。
(10) 前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、前記管腔ネットワークのどのセグメントに前記器具が現在位置しているのかを確認することを更に含む、実施態様1に記載の方法。
(11) 前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、電磁(EM)データ、ロボットデータ、光学形状センサデータ及び慣性測定ユニット(IMU)データからなる群から選択されるデータに基づく推定位置状態の信頼値を調整することを更に含む、実施態様1に記載の方法。
(12) 前記第1のセットの前記1つ以上の幾何学的形状は、前記第1の画像内の前記第1の気道と少なくとも部分的に重複する1つ以上の多角形を含み、前記第2のセットの前記1つ以上の幾何学的形状は、前記第2の画像内の前記2つ以上の気道と少なくとも部分的に重複する1つ以上の多角形を含む、実施態様1に記載の方法。
(13) 前記マッピングを決定することは、
前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数に等しいと判定することと、
前記第2の画像で特定された前記2つ以上の気道の前記数が、前記術前モデルデータによって示される前記気道の予想数に等しいと判定することに応答して、前記第2の画像で特定された前記2つ以上の気道のそれぞれが、前記術前モデルデータ内の前記気道のうちの異なる1つにマッピングされるように、前記マッピングを決定することと、
を含む、実施態様1に記載の方法。
(14) 前記マッピングを決定することは、
前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することと、
前記第2の画像で特定された前記2つ以上の気道の前記数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することに応答して、前記第2の画像で特定された前記2つ以上の気道のうちの少なくとも2つが、前記術前モデルデータ内の1つの気道にマッピングされるように、前記マッピングを決定することと、
を含む、実施態様1に記載の方法。
(15) 命令が記憶されている非一時的コンピュータ可読記憶媒体であって、前記命令は、実行されると、デバイスのプロセッサに、少なくとも、
器具上に配置された撮像デバイスを用いて管腔ネットワーク内の複数の画像を捕捉することであって、前記複数の画像は、少なくとも、第1の時間に捕捉された第1の画像と、前記第1の時間よりも後の第2の時間に捕捉された第2の画像と、を含む、ことと、
前記第1の画像内の第1の気道を特定することと、
前記第2の画像内の2つ以上の気道を特定することと、
前記第1の画像内の前記第1の気道及び前記第2の画像内の前記2つ以上の気道に基づいて、重複条件が満たされていると判定することと、
前記第2の時間中の前記器具の位置に対応する気道の予想数を示す術前モデルデータにアクセスすることと、
前記術前モデルデータと、前記重複条件が満たされているという前記判定とに基づいて、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間のマッピングを決定することと、
を行わせる、非一時的コンピュータ可読記憶媒体。
(16) 前記マッピングを決定することは、
前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することと、
前記重複条件が満たされているという前記判定に基づいて、前記2つ以上の気道が前記第1の気道から分枝していると判定することと、
を含む、実施態様15に記載の非一時的コンピュータ可読記憶媒体。
(17) 前記重複条件が満たされていると判定することは、前記第1の画像内の前記第1の気道を表す1つ以上の幾何学的形状の第1のセットと、前記第2の画像内の前記2つ以上の気道を表す1つ以上の幾何学的形状の第2のセットとの間の空間的重複度に更に基づく、実施態様15に記載の非一時的コンピュータ可読記憶媒体。
(18) 前記命令は、実行されると、前記プロセッサに、
前記第1の画像内の前記第1の気道を表す幾何学的形状の前記第1のセットを包含する第1の境界多角形を決定することと、
前記第2の画像内の前記2つ以上の気道を表す幾何学的形状の前記第2のセットを包含する第2の境界多角形を決定することと、
を更に行わせ、
前記空間的重複度を求めることは、前記第1の境界多角形と前記第2の境界多角形との間の重複に基づく、
実施態様17に記載の非一時的コンピュータ可読記憶媒体。
(19) 前記重複条件が満たされていると判定することは、1つ以上の幾何学的形状の前記第1のセットと1つ以上の幾何学的形状の前記第2のセットとの間の前記空間的重複度が閾値重複量よりも大きいという判定に更に基づく、実施態様17に記載の非一時的コンピュータ可読記憶媒体。
(20) 前記マッピングを決定することは、前記第2の画像で特定された前記2つ以上の気道を表す幾何学的形状の前記第2のセットのマージされた中心位置を計算することを含み、
前記マージされた中心位置は、前記第2のセットの前記幾何学的形状のそれぞれの中心位置のいずれとも異なる、
実施態様17に記載の非一時的コンピュータ可読記憶媒体。
(21) 前記マージされた中心位置は、(i)前記第2のセットの前記幾何学的形状の前記それぞれの中心位置の中心、(ii)前記第2のセットの前記幾何学的形状の前記それぞれの中心位置の加重中心、又は(iii)前記第2のセットの前記幾何学的形状を包含する境界多角形の中心のうちの1つである、実施態様20に記載の非一時的コンピュータ可読記憶媒体。
(22) 前記命令は、実行されると、前記プロセッサに更に、前記第2の画像上の前記マージされた気道の前記中心位置にグラフィック表現を表示させることを行わせる、実施態様20に記載の非一時的コンピュータ可読記憶媒体。
(23) 前記命令は、実行されると、前記プロセッサに更に、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、前記管腔ネットワークのどのセグメントに前記器具が入るのかを予測させる、実施態様15に記載の非一時的コンピュータ可読記憶媒体。
(24) 前記命令は、実行されると、前記プロセッサに更に、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、前記管腔ネットワークのどのセグメントに前記器具が現在位置しているのかを確認させる、実施態様15に記載の非一時的コンピュータ可読記憶媒体。
(25) 前記命令は、実行されると、前記プロセッサに更に、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、電磁(EM)データ、ロボットデータ、光学形状センサデータ及び慣性測定ユニット(IMU)データからなる群から選択されるデータに基づく推定位置状態の信頼値を調整させる、実施態様15に記載の非一時的コンピュータ可読記憶媒体。
(26) 前記第1のセットの前記1つ以上の幾何学的形状は、前記第1の画像内の前記第1の気道と少なくとも部分的に重複する1つ以上の多角形を含み、前記第2のセットの前記1つ以上の幾何学的形状は、前記第2の画像内の前記2つ以上の気道と少なくとも部分的に重複する1つ以上の多角形を含む、実施態様15に記載の非一時的コンピュータ可読記憶媒体。
(27) 前記マッピングを決定することは、
前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数に等しいと判定することと、
前記第2の画像で特定された前記2つ以上の気道の前記数が、前記術前モデルデータによって示される前記気道の予想数に等しいと判定することに応答して、前記第2の画像で特定された前記2つ以上の気道のそれぞれが、前記術前モデルデータ内の前記気道のうちの異なる1つにマッピングされるように、前記マッピングを決定することと、
を含む、実施態様15に記載の非一時的コンピュータ可読記憶媒体。
(28) 前記マッピングを決定することは、
前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することと、
前記第2の画像で特定された前記2つ以上の気道の前記数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することに応答して、前記第2の画像で特定された前記2つ以上の気道のうちの少なくとも2つが、前記術前モデルデータ内の1つの気道にマッピングされるように、前記マッピングを決定することと、
を含む、実施態様15に記載の非一時的コンピュータ可読記憶媒体。
(29) 管腔ネットワーク内の1つ以上の気道をマッピングするためのロボット外科用システムであって、
器具であって、
前記管腔ネットワークに挿入されるように構成された細長い本体と、
前記細長い本体の遠位部分上に配置された撮像デバイスと、
を有する器具と、
前記器具に取り付けられた器具位置決めデバイスであって、前記管腔ネットワークを通して前記器具を移動させるように構成されている、器具位置決めデバイスと、
実行可能命令を記憶している少なくとも1つのコンピュータ可読メモリと、
前記少なくとも1つのコンピュータ可読メモリと通信している1つ以上のプロセッサであって、前記命令を実行して、前記システムに、少なくとも、
前記器具上に配置された撮像デバイスを用いて前記管腔ネットワーク内の複数の画像を捕捉することであって、前記複数の画像は、少なくとも、第1の時間に捕捉された第1の画像と、前記第1の時間よりも後の第2の時間に捕捉された第2の画像と、を含む、ことと、
前記第1の画像内の第1の気道を特定することと、
前記第2の画像内の2つ以上の気道を特定することと、
前記第1の画像内の前記第1の気道及び前記第2の画像内の前記2つ以上の気道に基づいて、重複条件が満たされていると判定することと、
前記第2の時間中の前記器具の位置に対応する気道の予想数を示す術前モデルデータにアクセスすることと、
前記術前モデルデータと、前記重複条件が満たされているという前記判定とに基づいて、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間のマッピングを決定することと、
を行わせるように構成されている、1つ以上のプロセッサと、
を備える、ロボット外科用システム。
(30) 前記マッピングを決定することは、
前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することと、
前記重複条件が満たされているという前記判定に基づいて、前記2つ以上の気道が前記第1の気道から分枝していると判定することと、
を含む、実施態様29に記載のロボット外科用システム。
(31) 前記重複条件が満たされていると判定することは、前記第1の画像内の前記第1の気道を表す1つ以上の幾何学的形状の第1のセットと、前記第2の画像内の前記2つ以上の気道を表す1つ以上の幾何学的形状の第2のセットとの間の空間的重複度に更に基づく、実施態様29に記載のロボット外科用システム。
(32) 前記1つ以上のプロセッサは、
前記第1の画像内の前記第1の気道を表す幾何学的形状の前記第1のセットを包含する第1の境界多角形を決定し、
前記第2の画像内の前記2つ以上の気道を表す幾何学的形状の前記第2のセットを包含する第2の境界多角形を決定する、
ように更に構成されており、
前記空間的重複度を求めることは、前記第1の境界多角形と前記第2の境界多角形との間の重複に基づく、
実施態様31に記載のロボット外科用システム。
(33) 前記重複条件が満たされていると判定することは、1つ以上の幾何学的形状の前記第1のセットと1つ以上の幾何学的形状の前記第2のセットとの間の前記空間的重複度が閾値重複量よりも大きいという判定に更に基づく、実施態様31に記載のロボット外科用システム。
(34) 前記マッピングを決定することは、前記第2の画像で特定された前記2つ以上の気道を表す幾何学的形状の前記第2のセットのマージされた中心位置を計算することを含み、
前記マージされた中心位置は、前記第2のセットの前記幾何学的形状のそれぞれの中心位置のいずれとも異なる、
実施態様31に記載のロボット外科用システム。
(35) 前記マージされた中心位置は、(i)前記第2のセットの前記幾何学的形状の前記それぞれの中心位置の中心、(ii)前記第2のセットの前記幾何学的形状の前記それぞれの中心位置の加重中心、又は(iii)前記第2のセットの前記幾何学的形状を包含する境界多角形の中心のうちの1つである、実施態様34に記載のロボット外科用システム。
(36) 前記1つ以上のプロセッサは、前記第2の画像上の前記マージされた気道の前記中心位置にグラフィック表現を表示させるように更に構成されている、実施態様34に記載のロボット外科用システム。
(37) 前記1つ以上のプロセッサは、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、前記管腔ネットワークのどのセグメントに前記器具が入るのかを予測するように更に構成されている、実施態様29に記載のロボット外科用システム。
(38) 前記1つ以上のプロセッサは、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、前記管腔ネットワークのどのセグメントに前記器具が現在位置しているのかを確認するように更に構成されている、実施態様29に記載のロボット外科用システム。
(39) 前記1つ以上のプロセッサは、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、電磁(EM)データ、ロボットデータ、光学形状センサデータ及び慣性測定ユニット(IMU)データからなる群から選択されるデータに基づく推定位置状態の信頼値を調整するように更に構成されている、実施態様29に記載のロボット外科用システム。
(40) 前記第1のセットの前記1つ以上の幾何学的形状は、前記第1の画像内の前記第1の気道と少なくとも部分的に重複する1つ以上の多角形を含み、前記第2のセットの前記1つ以上の幾何学的形状は、前記第2の画像内の前記2つ以上の気道と少なくとも部分的に重複する1つ以上の多角形を含む、実施態様29に記載のロボット外科用システム。
(41) 前記マッピングを決定することは、
前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数に等しいと判定することと、
前記第2の画像で特定された前記2つ以上の気道の前記数が、前記術前モデルデータによって示される前記気道の予想数に等しいと判定することに応答して、前記第2の画像で特定された前記2つ以上の気道のそれぞれが、前記術前モデルデータ内の前記気道のうちの異なる1つにマッピングされるように、前記マッピングを決定することと、
を含む、実施態様29に記載のロボット外科用システム。
(42) 前記マッピングを決定することは、
前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することと、
前記第2の画像で特定された前記2つ以上の気道の前記数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することに応答して、前記第2の画像で特定された前記2つ以上の気道のうちの少なくとも2つが、前記術前モデルデータ内の1つの気道にマッピングされるように、前記マッピングを決定することと、
を含む、実施態様29に記載のロボット外科用システム。

Claims (42)

  1. 管腔ネットワークを通して器具をナビゲートする方法であって、
    前記器具上に配置された撮像デバイスを用いて前記管腔ネットワーク内の複数の画像を捕捉することであって、前記複数の画像は、少なくとも、第1の時間に捕捉された第1の画像と、前記第1の時間よりも後の第2の時間に捕捉された第2の画像と、を含む、ことと、
    前記第1の画像内の第1の気道を特定することと、
    前記第2の画像内の2つ以上の気道を特定することと、
    前記第1の画像内の前記第1の気道及び前記第2の画像内の前記2つ以上の気道に基づいて、重複条件が満たされていると判定することと、
    前記第2の時間中の前記器具の位置に対応する気道の予想数を示す術前モデルデータにアクセスすることと、
    前記術前モデルデータと、前記重複条件が満たされているという前記判定とに基づいて、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間のマッピングを決定することと、
    を含む、方法。
  2. 前記マッピングを決定することは、
    前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することと、
    前記重複条件が満たされているという前記判定に基づいて、前記2つ以上の気道が前記第1の気道から分枝していると判定することと、
    を含む、請求項1に記載の方法。
  3. 前記重複条件が満たされていると判定することは、前記第1の画像内の前記第1の気道を表す1つ以上の幾何学的形状の第1のセットと、前記第2の画像内の前記2つ以上の気道を表す1つ以上の幾何学的形状の第2のセットとの間の空間的重複度に更に基づく、請求項1に記載の方法。
  4. 前記第1の画像内の前記第1の気道を表す幾何学的形状の前記第1のセットを包含する第1の境界多角形を決定することと、
    前記第2の画像内の前記2つ以上の気道を表す幾何学的形状の前記第2のセットを包含する第2の境界多角形を決定することと、
    を更に含み、
    前記空間的重複度を求めることは、前記第1の境界多角形と前記第2の境界多角形との間の重複に基づく、
    請求項3に記載の方法。
  5. 前記重複条件が満たされていると判定することは、1つ以上の幾何学的形状の前記第1のセットと1つ以上の幾何学的形状の前記第2のセットとの間の前記空間的重複度が閾値重複量よりも大きいという判定に更に基づく、請求項3に記載の方法。
  6. 前記マッピングを決定することは、前記第2の画像で特定された前記2つ以上の気道を表す幾何学的形状の前記第2のセットのマージされた中心位置を計算することを含み、
    前記マージされた中心位置は、前記第2のセットの前記幾何学的形状のそれぞれの中心位置のいずれとも異なる、
    請求項3に記載の方法。
  7. 前記マージされた中心位置は、(i)前記第2のセットの前記幾何学的形状の前記それぞれの中心位置の中心、(ii)前記第2のセットの前記幾何学的形状の前記それぞれの中心位置の加重中心、又は(iii)前記第2のセットの前記幾何学的形状を包含する境界多角形の中心のうちの1つである、請求項6に記載の方法。
  8. 前記第2の画像上の前記マージされた気道の前記中心位置にグラフィック表現を表示させることを更に含む、請求項6に記載の方法。
  9. 前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、前記管腔ネットワークのどのセグメントに前記器具が入るのかを予測することを更に含む、請求項1に記載の方法。
  10. 前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、前記管腔ネットワークのどのセグメントに前記器具が現在位置しているのかを確認することを更に含む、請求項1に記載の方法。
  11. 前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、電磁(EM)データ、ロボットデータ、光学形状センサデータ及び慣性測定ユニット(IMU)データからなる群から選択されるデータに基づく推定位置状態の信頼値を調整することを更に含む、請求項1に記載の方法。
  12. 前記第1のセットの前記1つ以上の幾何学的形状は、前記第1の画像内の前記第1の気道と少なくとも部分的に重複する1つ以上の多角形を含み、前記第2のセットの前記1つ以上の幾何学的形状は、前記第2の画像内の前記2つ以上の気道と少なくとも部分的に重複する1つ以上の多角形を含む、請求項1に記載の方法。
  13. 前記マッピングを決定することは、
    前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数に等しいと判定することと、
    前記第2の画像で特定された前記2つ以上の気道の前記数が、前記術前モデルデータによって示される前記気道の予想数に等しいと判定することに応答して、前記第2の画像で特定された前記2つ以上の気道のそれぞれが、前記術前モデルデータ内の前記気道のうちの異なる1つにマッピングされるように、前記マッピングを決定することと、
    を含む、請求項1に記載の方法。
  14. 前記マッピングを決定することは、
    前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することと、
    前記第2の画像で特定された前記2つ以上の気道の前記数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することに応答して、前記第2の画像で特定された前記2つ以上の気道のうちの少なくとも2つが、前記術前モデルデータ内の1つの気道にマッピングされるように、前記マッピングを決定することと、
    を含む、請求項1に記載の方法。
  15. 命令が記憶されている非一時的コンピュータ可読記憶媒体であって、前記命令は、実行されると、デバイスのプロセッサに、少なくとも、
    器具上に配置された撮像デバイスを用いて管腔ネットワーク内の複数の画像を捕捉することであって、前記複数の画像は、少なくとも、第1の時間に捕捉された第1の画像と、前記第1の時間よりも後の第2の時間に捕捉された第2の画像と、を含む、ことと、
    前記第1の画像内の第1の気道を特定することと、
    前記第2の画像内の2つ以上の気道を特定することと、
    前記第1の画像内の前記第1の気道及び前記第2の画像内の前記2つ以上の気道に基づいて、重複条件が満たされていると判定することと、
    前記第2の時間中の前記器具の位置に対応する気道の予想数を示す術前モデルデータにアクセスすることと、
    前記術前モデルデータと、前記重複条件が満たされているという前記判定とに基づいて、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間のマッピングを決定することと、
    を行わせる、非一時的コンピュータ可読記憶媒体。
  16. 前記マッピングを決定することは、
    前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することと、
    前記重複条件が満たされているという前記判定に基づいて、前記2つ以上の気道が前記第1の気道から分枝していると判定することと、
    を含む、請求項15に記載の非一時的コンピュータ可読記憶媒体。
  17. 前記重複条件が満たされていると判定することは、前記第1の画像内の前記第1の気道を表す1つ以上の幾何学的形状の第1のセットと、前記第2の画像内の前記2つ以上の気道を表す1つ以上の幾何学的形状の第2のセットとの間の空間的重複度に更に基づく、請求項15に記載の非一時的コンピュータ可読記憶媒体。
  18. 前記命令は、実行されると、前記プロセッサに、
    前記第1の画像内の前記第1の気道を表す幾何学的形状の前記第1のセットを包含する第1の境界多角形を決定することと、
    前記第2の画像内の前記2つ以上の気道を表す幾何学的形状の前記第2のセットを包含する第2の境界多角形を決定することと、
    を更に行わせ、
    前記空間的重複度を求めることは、前記第1の境界多角形と前記第2の境界多角形との間の重複に基づく、
    請求項17に記載の非一時的コンピュータ可読記憶媒体。
  19. 前記重複条件が満たされていると判定することは、1つ以上の幾何学的形状の前記第1のセットと1つ以上の幾何学的形状の前記第2のセットとの間の前記空間的重複度が閾値重複量よりも大きいという判定に更に基づく、請求項17に記載の非一時的コンピュータ可読記憶媒体。
  20. 前記マッピングを決定することは、前記第2の画像で特定された前記2つ以上の気道を表す幾何学的形状の前記第2のセットのマージされた中心位置を計算することを含み、
    前記マージされた中心位置は、前記第2のセットの前記幾何学的形状のそれぞれの中心位置のいずれとも異なる、
    請求項17に記載の非一時的コンピュータ可読記憶媒体。
  21. 前記マージされた中心位置は、(i)前記第2のセットの前記幾何学的形状の前記それぞれの中心位置の中心、(ii)前記第2のセットの前記幾何学的形状の前記それぞれの中心位置の加重中心、又は(iii)前記第2のセットの前記幾何学的形状を包含する境界多角形の中心のうちの1つである、請求項20に記載の非一時的コンピュータ可読記憶媒体。
  22. 前記命令は、実行されると、前記プロセッサに更に、前記第2の画像上の前記マージされた気道の前記中心位置にグラフィック表現を表示させることを行わせる、請求項20に記載の非一時的コンピュータ可読記憶媒体。
  23. 前記命令は、実行されると、前記プロセッサに更に、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、前記管腔ネットワークのどのセグメントに前記器具が入るのかを予測させる、請求項15に記載の非一時的コンピュータ可読記憶媒体。
  24. 前記命令は、実行されると、前記プロセッサに更に、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、前記管腔ネットワークのどのセグメントに前記器具が現在位置しているのかを確認させる、請求項15に記載の非一時的コンピュータ可読記憶媒体。
  25. 前記命令は、実行されると、前記プロセッサに更に、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、電磁(EM)データ、ロボットデータ、光学形状センサデータ及び慣性測定ユニット(IMU)データからなる群から選択されるデータに基づく推定位置状態の信頼値を調整させる、請求項15に記載の非一時的コンピュータ可読記憶媒体。
  26. 前記第1のセットの前記1つ以上の幾何学的形状は、前記第1の画像内の前記第1の気道と少なくとも部分的に重複する1つ以上の多角形を含み、前記第2のセットの前記1つ以上の幾何学的形状は、前記第2の画像内の前記2つ以上の気道と少なくとも部分的に重複する1つ以上の多角形を含む、請求項15に記載の非一時的コンピュータ可読記憶媒体。
  27. 前記マッピングを決定することは、
    前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数に等しいと判定することと、
    前記第2の画像で特定された前記2つ以上の気道の前記数が、前記術前モデルデータによって示される前記気道の予想数に等しいと判定することに応答して、前記第2の画像で特定された前記2つ以上の気道のそれぞれが、前記術前モデルデータ内の前記気道のうちの異なる1つにマッピングされるように、前記マッピングを決定することと、
    を含む、請求項15に記載の非一時的コンピュータ可読記憶媒体。
  28. 前記マッピングを決定することは、
    前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することと、
    前記第2の画像で特定された前記2つ以上の気道の前記数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することに応答して、前記第2の画像で特定された前記2つ以上の気道のうちの少なくとも2つが、前記術前モデルデータ内の1つの気道にマッピングされるように、前記マッピングを決定することと、
    を含む、請求項15に記載の非一時的コンピュータ可読記憶媒体。
  29. 管腔ネットワーク内の1つ以上の気道をマッピングするためのロボット外科用システムであって、
    器具であって、
    前記管腔ネットワークに挿入されるように構成された細長い本体と、
    前記細長い本体の遠位部分上に配置された撮像デバイスと、
    を有する器具と、
    前記器具に取り付けられた器具位置決めデバイスであって、前記管腔ネットワークを通して前記器具を移動させるように構成されている、器具位置決めデバイスと、
    実行可能命令を記憶している少なくとも1つのコンピュータ可読メモリと、
    前記少なくとも1つのコンピュータ可読メモリと通信している1つ以上のプロセッサであって、前記命令を実行して、前記システムに、少なくとも、
    前記器具上に配置された撮像デバイスを用いて前記管腔ネットワーク内の複数の画像を捕捉することであって、前記複数の画像は、少なくとも、第1の時間に捕捉された第1の画像と、前記第1の時間よりも後の第2の時間に捕捉された第2の画像と、を含む、ことと、
    前記第1の画像内の第1の気道を特定することと、
    前記第2の画像内の2つ以上の気道を特定することと、
    前記第1の画像内の前記第1の気道及び前記第2の画像内の前記2つ以上の気道に基づいて、重複条件が満たされていると判定することと、
    前記第2の時間中の前記器具の位置に対応する気道の予想数を示す術前モデルデータにアクセスすることと、
    前記術前モデルデータと、前記重複条件が満たされているという前記判定とに基づいて、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間のマッピングを決定することと、
    を行わせるように構成されている、1つ以上のプロセッサと、
    を備える、ロボット外科用システム。
  30. 前記マッピングを決定することは、
    前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することと、
    前記重複条件が満たされているという前記判定に基づいて、前記2つ以上の気道が前記第1の気道から分枝していると判定することと、
    を含む、請求項29に記載のロボット外科用システム。
  31. 前記重複条件が満たされていると判定することは、前記第1の画像内の前記第1の気道を表す1つ以上の幾何学的形状の第1のセットと、前記第2の画像内の前記2つ以上の気道を表す1つ以上の幾何学的形状の第2のセットとの間の空間的重複度に更に基づく、請求項29に記載のロボット外科用システム。
  32. 前記1つ以上のプロセッサは、
    前記第1の画像内の前記第1の気道を表す幾何学的形状の前記第1のセットを包含する第1の境界多角形を決定し、
    前記第2の画像内の前記2つ以上の気道を表す幾何学的形状の前記第2のセットを包含する第2の境界多角形を決定する、
    ように更に構成されており、
    前記空間的重複度を求めることは、前記第1の境界多角形と前記第2の境界多角形との間の重複に基づく、
    請求項31に記載のロボット外科用システム。
  33. 前記重複条件が満たされていると判定することは、1つ以上の幾何学的形状の前記第1のセットと1つ以上の幾何学的形状の前記第2のセットとの間の前記空間的重複度が閾値重複量よりも大きいという判定に更に基づく、請求項31に記載のロボット外科用システム。
  34. 前記マッピングを決定することは、前記第2の画像で特定された前記2つ以上の気道を表す幾何学的形状の前記第2のセットのマージされた中心位置を計算することを含み、
    前記マージされた中心位置は、前記第2のセットの前記幾何学的形状のそれぞれの中心位置のいずれとも異なる、
    請求項31に記載のロボット外科用システム。
  35. 前記マージされた中心位置は、(i)前記第2のセットの前記幾何学的形状の前記それぞれの中心位置の中心、(ii)前記第2のセットの前記幾何学的形状の前記それぞれの中心位置の加重中心、又は(iii)前記第2のセットの前記幾何学的形状を包含する境界多角形の中心のうちの1つである、請求項34に記載のロボット外科用システム。
  36. 前記1つ以上のプロセッサは、前記第2の画像上の前記マージされた気道の前記中心位置にグラフィック表現を表示させるように更に構成されている、請求項34に記載のロボット外科用システム。
  37. 前記1つ以上のプロセッサは、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、前記管腔ネットワークのどのセグメントに前記器具が入るのかを予測するように更に構成されている、請求項29に記載のロボット外科用システム。
  38. 前記1つ以上のプロセッサは、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、前記管腔ネットワークのどのセグメントに前記器具が現在位置しているのかを確認するように更に構成されている、請求項29に記載のロボット外科用システム。
  39. 前記1つ以上のプロセッサは、前記第2の画像内の前記2つ以上の気道と前記術前モデルデータ内の前記気道との間の前記マッピングに基づいて、電磁(EM)データ、ロボットデータ、光学形状センサデータ及び慣性測定ユニット(IMU)データからなる群から選択されるデータに基づく推定位置状態の信頼値を調整するように更に構成されている、請求項29に記載のロボット外科用システム。
  40. 前記第1のセットの前記1つ以上の幾何学的形状は、前記第1の画像内の前記第1の気道と少なくとも部分的に重複する1つ以上の多角形を含み、前記第2のセットの前記1つ以上の幾何学的形状は、前記第2の画像内の前記2つ以上の気道と少なくとも部分的に重複する1つ以上の多角形を含む、請求項29に記載のロボット外科用システム。
  41. 前記マッピングを決定することは、
    前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数に等しいと判定することと、
    前記第2の画像で特定された前記2つ以上の気道の前記数が、前記術前モデルデータによって示される前記気道の予想数に等しいと判定することに応答して、前記第2の画像で特定された前記2つ以上の気道のそれぞれが、前記術前モデルデータ内の前記気道のうちの異なる1つにマッピングされるように、前記マッピングを決定することと、
    を含む、請求項29に記載のロボット外科用システム。
  42. 前記マッピングを決定することは、
    前記第2の画像で特定された前記2つ以上の気道の数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することと、
    前記第2の画像で特定された前記2つ以上の気道の前記数が、前記術前モデルデータによって示される前記気道の予想数とは異なると判定することに応答して、前記第2の画像で特定された前記2つ以上の気道のうちの少なくとも2つが、前記術前モデルデータ内の1つの気道にマッピングされるように、前記マッピングを決定することと、
    を含む、請求項29に記載のロボット外科用システム。
JP2020565316A 2018-05-31 2019-05-30 画像ベースの気道分析及びマッピング Active JP7146949B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862678881P 2018-05-31 2018-05-31
US62/678,881 2018-05-31
PCT/US2019/034694 WO2019232236A1 (en) 2018-05-31 2019-05-30 Image-based airway analysis and mapping

Publications (3)

Publication Number Publication Date
JP2021525123A true JP2021525123A (ja) 2021-09-24
JPWO2019232236A5 JPWO2019232236A5 (ja) 2022-08-16
JP7146949B2 JP7146949B2 (ja) 2022-10-04

Family

ID=68697129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020565316A Active JP7146949B2 (ja) 2018-05-31 2019-05-30 画像ベースの気道分析及びマッピング

Country Status (7)

Country Link
US (2) US10898275B2 (ja)
EP (1) EP3801348B1 (ja)
JP (1) JP7146949B2 (ja)
KR (1) KR102455671B1 (ja)
CN (1) CN110831538B (ja)
MX (1) MX2020012904A (ja)
WO (1) WO2019232236A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114391950A (zh) * 2021-12-15 2022-04-26 深圳市爱博医疗机器人有限公司 一种具有防撞功能的介入手术机器人

Families Citing this family (184)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8414505B1 (en) 2001-02-15 2013-04-09 Hansen Medical, Inc. Catheter driver system
JP4755638B2 (ja) 2004-03-05 2011-08-24 ハンセン メディカル,インク. ロボットガイドカテーテルシステム
US9232959B2 (en) 2007-01-02 2016-01-12 Aquabeam, Llc Multi fluid tissue resection methods and devices
EP2259742B1 (en) 2008-03-06 2020-01-01 AquaBeam LLC Tissue ablation and cautery with optical energy carried in fluid stream
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US9254123B2 (en) 2009-04-29 2016-02-09 Hansen Medical, Inc. Flexible and steerable elongate instruments with shape control and support elements
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US20120071752A1 (en) 2010-09-17 2012-03-22 Sewell Christopher M User interface and method for operating a robotic medical system
US20130030363A1 (en) 2011-07-29 2013-01-31 Hansen Medical, Inc. Systems and methods utilizing shape sensing fibers
EP3351196A1 (en) 2012-02-29 2018-07-25 Procept Biorobotics Corporation Automated image-guided tissue resection and treatment
US20130317519A1 (en) 2012-05-25 2013-11-28 Hansen Medical, Inc. Low friction instrument driver interface for robotic systems
US20140148673A1 (en) 2012-11-28 2014-05-29 Hansen Medical, Inc. Method of anchoring pullwire directly articulatable region in catheter
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9173713B2 (en) 2013-03-14 2015-11-03 Hansen Medical, Inc. Torque-based catheter articulation
US20140277334A1 (en) 2013-03-14 2014-09-18 Hansen Medical, Inc. Active drives for robotic catheter manipulators
US11213363B2 (en) 2013-03-14 2022-01-04 Auris Health, Inc. Catheter tension sensing
US9326822B2 (en) 2013-03-14 2016-05-03 Hansen Medical, Inc. Active drives for robotic catheter manipulators
US9283046B2 (en) 2013-03-15 2016-03-15 Hansen Medical, Inc. User interface for active drive apparatus with finite range of motion
US9408669B2 (en) 2013-03-15 2016-08-09 Hansen Medical, Inc. Active drive mechanism with finite range of motion
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US20140276936A1 (en) 2013-03-15 2014-09-18 Hansen Medical, Inc. Active drive mechanism for simultaneous rotation and translation
US20140276647A1 (en) 2013-03-15 2014-09-18 Hansen Medical, Inc. Vascular remote catheter manipulator
US9452018B2 (en) 2013-03-15 2016-09-27 Hansen Medical, Inc. Rotational support for an elongate member
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US10376672B2 (en) 2013-03-15 2019-08-13 Auris Health, Inc. Catheter insertion system and method of fabrication
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
US10744035B2 (en) 2013-06-11 2020-08-18 Auris Health, Inc. Methods for robotic assisted cataract surgery
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
EP3243476B1 (en) 2014-03-24 2019-11-06 Auris Health, Inc. Systems and devices for catheter driving instinctiveness
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
US10569052B2 (en) 2014-05-15 2020-02-25 Auris Health, Inc. Anti-buckling mechanisms for catheters
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
WO2016054256A1 (en) 2014-09-30 2016-04-07 Auris Surgical Robotics, Inc Configurable robotic surgical system with virtual rail and flexible endoscope
US10499999B2 (en) 2014-10-09 2019-12-10 Auris Health, Inc. Systems and methods for aligning an elongate member with an access site
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US11819636B2 (en) 2015-03-30 2023-11-21 Auris Health, Inc. Endoscope pull wire electrical circuit
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
WO2016164824A1 (en) 2015-04-09 2016-10-13 Auris Surgical Robotics, Inc. Surgical system with configurable rail-mounted mechanical arms
US9636184B2 (en) 2015-05-15 2017-05-02 Auris Surgical Robotics, Inc. Swivel bed for a surgical robotics system
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
CN113229942A (zh) 2015-09-09 2021-08-10 奥瑞斯健康公司 手术器械装置操纵器
JP6824967B2 (ja) 2015-09-18 2021-02-03 オーリス ヘルス インコーポレイテッド 管状網のナビゲーション
US10639108B2 (en) 2015-10-30 2020-05-05 Auris Health, Inc. Process for percutaneous operations
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US10932861B2 (en) 2016-01-14 2021-03-02 Auris Health, Inc. Electromagnetic tracking surgical system and method of controlling the same
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US11324554B2 (en) 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
US10454347B2 (en) 2016-04-29 2019-10-22 Auris Health, Inc. Compact height torque sensing articulation axis assembly
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
US10463439B2 (en) 2016-08-26 2019-11-05 Auris Health, Inc. Steerable catheter with shaft load distributions
US11241559B2 (en) 2016-08-29 2022-02-08 Auris Health, Inc. Active drive for guidewire manipulation
WO2018044306A1 (en) 2016-08-31 2018-03-08 Auris Surgical Robotics, Inc. Length conservative surgical instrument
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10136959B2 (en) 2016-12-28 2018-11-27 Auris Health, Inc. Endolumenal object sizing
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
AU2018244318B2 (en) 2017-03-28 2023-11-16 Auris Health, Inc. Shaft actuating handle
CN108990412B (zh) 2017-03-31 2022-03-22 奥瑞斯健康公司 补偿生理噪声的用于腔网络导航的机器人系统
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
KR20230106716A (ko) 2017-04-07 2023-07-13 아우리스 헬스, 인코포레이티드 환자 삽입기(Introducer) 정렬
EP3621520A4 (en) 2017-05-12 2021-02-17 Auris Health, Inc. BIOPSY APPARATUS AND SYSTEM
EP3624668A4 (en) 2017-05-17 2021-05-26 Auris Health, Inc. EXCHANGEABLE WORK CHANNEL
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
EP3644886A4 (en) 2017-06-28 2021-03-24 Auris Health, Inc. ELECTROMAGNETIC DISTORTION DETECTION
WO2019005699A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. ELECTROMAGNETIC FIELD GENERATOR ALIGNMENT
WO2019005872A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. INSTRUMENT INSERTION COMPENSATION
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
US10464209B2 (en) 2017-10-05 2019-11-05 Auris Health, Inc. Robotic system with indication of boundary for robotic arm
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
EP3694412A4 (en) 2017-10-10 2021-08-18 Covidien LP SYSTEM AND METHOD FOR IDENTIFYING AND MARKING A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION
US10016900B1 (en) 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
EP3684282B1 (en) 2017-12-06 2024-02-21 Auris Health, Inc. Systems to correct for uncommanded instrument roll
CN110831534B (zh) 2017-12-08 2023-04-28 奥瑞斯健康公司 用于医疗仪器导航和瞄准的系统和方法
CN111432856B (zh) 2017-12-08 2023-01-03 奥瑞斯健康公司 定向射流技术
KR102462568B1 (ko) 2017-12-11 2022-11-04 아우리스 헬스, 인코포레이티드 기구 기반 삽입 아키텍처를 위한 시스템 및 방법
JP7322026B2 (ja) 2017-12-14 2023-08-07 オーリス ヘルス インコーポレイテッド 器具の位置推定のシステムおよび方法
WO2019125964A1 (en) 2017-12-18 2019-06-27 Auris Health, Inc. Methods and systems for instrument tracking and navigation within luminal networks
USD901018S1 (en) 2018-01-17 2020-11-03 Auris Health, Inc. Controller
USD932628S1 (en) 2018-01-17 2021-10-05 Auris Health, Inc. Instrument cart
USD873878S1 (en) 2018-01-17 2020-01-28 Auris Health, Inc. Robotic arm
JP6999824B2 (ja) 2018-01-17 2022-01-19 オーリス ヘルス インコーポレイテッド 調節可能なアーム支持体を有する外科用プラットフォーム
WO2019143458A1 (en) 2018-01-17 2019-07-25 Auris Health, Inc. Surgical robotics systems with improved robotic arms
USD901694S1 (en) 2018-01-17 2020-11-10 Auris Health, Inc. Instrument handle
USD924410S1 (en) 2018-01-17 2021-07-06 Auris Health, Inc. Instrument tower
US10893842B2 (en) 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
EP3752085A4 (en) 2018-02-13 2021-11-24 Auris Health, Inc. SYSTEM AND METHOD FOR TRAINING A MEDICAL INSTRUMENT
WO2019191144A1 (en) 2018-03-28 2019-10-03 Auris Health, Inc. Systems and methods for registration of location sensors
US11109920B2 (en) 2018-03-28 2021-09-07 Auris Health, Inc. Medical instruments with variable bending stiffness profiles
WO2019191143A1 (en) 2018-03-28 2019-10-03 Auris Health, Inc. Systems and methods for displaying estimated location of instrument
KR20210010871A (ko) 2018-05-18 2021-01-28 아우리스 헬스, 인코포레이티드 로봇식 원격작동 시스템을 위한 제어기
CN110831486B (zh) 2018-05-30 2022-04-05 奥瑞斯健康公司 用于基于定位传感器的分支预测的系统和方法
EP3801348B1 (en) 2018-05-31 2024-05-01 Auris Health, Inc. Image-based airway analysis and mapping
WO2019231891A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Path-based navigation of tubular networks
CN112236083A (zh) 2018-05-31 2021-01-15 奥瑞斯健康公司 用于导航检测生理噪声的管腔网络的机器人系统和方法
US10751140B2 (en) 2018-06-07 2020-08-25 Auris Health, Inc. Robotic medical systems with high force instruments
CN112384121A (zh) 2018-06-27 2021-02-19 奥瑞斯健康公司 用于医疗器械的对准系统和附接系统
WO2020005854A1 (en) 2018-06-28 2020-01-02 Auris Health, Inc. Medical systems incorporating pulley sharing
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
US10898276B2 (en) 2018-08-07 2021-01-26 Auris Health, Inc. Combining strain-based shape sensing with catheter control
US10828118B2 (en) 2018-08-15 2020-11-10 Auris Health, Inc. Medical instruments for tissue cauterization
EP3806758A4 (en) 2018-08-17 2022-04-06 Auris Health, Inc. BIPOLAR MEDICAL DEVICE
AU2019326548B2 (en) 2018-08-24 2023-11-23 Auris Health, Inc. Manually and robotically controllable medical instruments
WO2020060750A1 (en) 2018-09-17 2020-03-26 Auris Health, Inc. Systems and methods for concomitant medical procedures
CN112770689A (zh) 2018-09-26 2021-05-07 奥瑞斯健康公司 用于抽吸和冲洗的系统和器械
US11179212B2 (en) 2018-09-26 2021-11-23 Auris Health, Inc. Articulating medical instruments
EP3856001A4 (en) 2018-09-28 2022-06-22 Auris Health, Inc. DEVICES, SYSTEMS AND METHODS FOR MANUAL AND ROBOTIC DRIVE MEDICAL INSTRUMENTS
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
EP3856064A4 (en) 2018-09-28 2022-06-29 Auris Health, Inc. Systems and methods for docking medical instruments
EP3860426A4 (en) * 2018-10-02 2022-12-07 Convergascent LLC ENDOSCOPE WITH INERTIAL MEASUREMENTS AND/OR HAPTIC INPUT CONTROLS
WO2020076447A1 (en) 2018-10-08 2020-04-16 Auris Health, Inc. Systems and instruments for tissue sealing
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
EP3866718A4 (en) 2018-12-20 2022-07-20 Auris Health, Inc. ROBOT ARM ALIGNMENT AND DOCKING SYSTEMS AND METHODS
EP3870075A4 (en) 2018-12-20 2022-08-03 Auris Health, Inc. SHIELDING FOR WRIST INSTRUMENTS
AU2019414510A1 (en) 2018-12-28 2021-06-03 Auris Health, Inc. Percutaneous sheath for robotic medical systems and methods
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11589913B2 (en) 2019-01-25 2023-02-28 Auris Health, Inc. Vessel sealer with heating and cooling capabilities
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
WO2020163076A1 (en) 2019-02-08 2020-08-13 Auris Health, Inc. Robotically controlled clot manipulation and removal
US11202683B2 (en) 2019-02-22 2021-12-21 Auris Health, Inc. Surgical platform with motorized arms for adjustable arm supports
EP3965710A4 (en) 2019-03-08 2023-04-05 Auris Health, Inc. TILT MECHANISMS FOR MEDICAL SYSTEMS AND APPLICATIONS
WO2020197671A1 (en) 2019-03-22 2020-10-01 Auris Health, Inc. Systems and methods for aligning inputs on medical instruments
WO2020197625A1 (en) 2019-03-25 2020-10-01 Auris Health, Inc. Systems and methods for medical stapling
US11617627B2 (en) 2019-03-29 2023-04-04 Auris Health, Inc. Systems and methods for optical strain sensing in medical instruments
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
JP2022527834A (ja) 2019-04-08 2022-06-06 オーリス ヘルス インコーポレイテッド 付随する処置のためのシステム、方法、及びワークフロー
WO2020263629A1 (en) 2019-06-27 2020-12-30 Auris Health, Inc. Systems and methods for a medical clip applier
US11109928B2 (en) 2019-06-28 2021-09-07 Auris Health, Inc. Medical instruments including wrists with hybrid redirect surfaces
US11872007B2 (en) 2019-06-28 2024-01-16 Auris Health, Inc. Console overlay and methods of using same
JP2022544554A (ja) 2019-08-15 2022-10-19 オーリス ヘルス インコーポレイテッド 複数の屈曲部を有する医療デバイス
US11896330B2 (en) 2019-08-15 2024-02-13 Auris Health, Inc. Robotic medical system having multiple medical instruments
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
WO2021038495A1 (en) 2019-08-30 2021-03-04 Auris Health, Inc. Instrument image reliability systems and methods
KR20220058569A (ko) 2019-08-30 2022-05-09 아우리스 헬스, 인코포레이티드 위치 센서의 가중치-기반 정합을 위한 시스템 및 방법
EP4025921A4 (en) 2019-09-03 2023-09-06 Auris Health, Inc. ELECTROMAGNETIC DISTORTION DETECTION AND COMPENSATION
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
EP4028221A1 (en) 2019-09-10 2022-07-20 Auris Health, Inc. Systems and methods for kinematic optimization with shared robotic degrees-of-freedom
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
WO2021059099A1 (en) 2019-09-26 2021-04-01 Auris Health, Inc. Systems and methods for collision detection and avoidance
US11737845B2 (en) 2019-09-30 2023-08-29 Auris Inc. Medical instrument with a capstan
US11737835B2 (en) 2019-10-29 2023-08-29 Auris Health, Inc. Braid-reinforced insulation sheath
CN114901194A (zh) 2019-12-31 2022-08-12 奥瑞斯健康公司 解剖特征识别和瞄准
EP4084722A4 (en) 2019-12-31 2024-01-10 Auris Health Inc ALIGNMENT INTERFACES FOR PERCUTANE ACCESS
EP4084720A4 (en) 2019-12-31 2024-01-17 Auris Health Inc ALIGNMENT TECHNIQUES FOR PERCUTANE ACCESS
US11439419B2 (en) 2019-12-31 2022-09-13 Auris Health, Inc. Advanced basket drive mode
EP4084717A4 (en) 2019-12-31 2024-02-14 Auris Health Inc DYNAMIC PULLEY SYSTEM
US11847730B2 (en) 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
WO2022003485A1 (en) 2020-06-29 2022-01-06 Auris Health, Inc. Systems and methods for detecting contact between a link and an external object
US11357586B2 (en) 2020-06-30 2022-06-14 Auris Health, Inc. Systems and methods for saturated robotic movement
WO2022003493A1 (en) 2020-06-30 2022-01-06 Auris Health, Inc. Robotic medical system with collision proximity indicators
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
US20220047154A1 (en) * 2020-08-13 2022-02-17 Covidien Lp Endoluminal robotic systems and methods employing capsule imaging techniques
CN112237478B (zh) * 2020-09-04 2022-01-14 北京工业大学 医疗微机器人的实时导航控制方法和装置
WO2022177823A1 (en) * 2021-02-17 2022-08-25 PacificMD Biotech, LLC System and method for endoscopic imaging and analyses
US20230068745A1 (en) * 2021-09-02 2023-03-02 Covidien Lp Real-time registration using near infrared fluorescence imaging
EP4190270A1 (en) * 2021-12-03 2023-06-07 Ambu A/S Endoscope image processing device
CN114494406B (zh) * 2022-04-13 2022-07-19 武汉楚精灵医疗科技有限公司 医学图像处理方法、装置、终端及计算机可读存储介质
CN117238509B (zh) * 2023-11-15 2024-02-27 首都医科大学宣武医院 一种基于普通摄像数据的困难气道评估系统及评估方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012200403A (ja) * 2011-03-25 2012-10-22 Fujifilm Corp 内視鏡挿入支援装置およびその動作方法、並びに内視鏡挿入支援プログラム
WO2014058838A1 (en) * 2012-10-12 2014-04-17 Intuitive Surgical Operations, Inc. Determining position of medical device in branched anatomical structure
US20140364739A1 (en) * 2013-06-06 2014-12-11 General Electric Company Systems and methods for analyzing a vascular structure
US20150054929A1 (en) * 2013-03-06 2015-02-26 Olympus Medical Systems Corp. Endoscope system
JP2017055954A (ja) * 2015-09-16 2017-03-23 富士フイルム株式会社 内視鏡位置特定装置、方法およびプログラム
US20170296032A1 (en) * 2015-03-06 2017-10-19 Fujifilm Corporation Branching structure determination apparatus, method, and program

Family Cites Families (399)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4745908A (en) 1987-05-08 1988-05-24 Circon Corporation Inspection instrument fexible shaft having deflection compensation means
JP2750201B2 (ja) 1990-04-13 1998-05-13 オリンパス光学工業株式会社 内視鏡の挿入状態検出装置
US5550953A (en) 1994-04-20 1996-08-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration On-line method and apparatus for coordinated mobility and manipulation of mobile robots
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5526812A (en) 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US6059718A (en) 1993-10-18 2000-05-09 Olympus Optical Co., Ltd. Endoscope form detecting apparatus in which coil is fixedly mounted by insulating member so that form is not deformed within endoscope
DE69528998T2 (de) 1994-10-07 2003-07-03 St Louis University St Louis Chirurgische navigationsanordnung einschliesslich referenz- und ortungssystemen
US6690963B2 (en) 1995-01-24 2004-02-10 Biosense, Inc. System for determining the location and orientation of an invasive medical instrument
US6246898B1 (en) 1995-03-28 2001-06-12 Sonometrics Corporation Method for carrying out a medical procedure using a three-dimensional tracking and imaging system
CA2231425A1 (en) 1995-09-20 1997-03-27 Texas Heart Institute Detecting thermal discrepancies in vessel walls
WO1997029679A2 (en) 1996-02-15 1997-08-21 Biosense Inc. Precise position determination of endoscopes
IL125757A (en) 1996-02-15 2003-09-17 Biosense Inc Medical procedures and apparatus using intrabody probes
US6063095A (en) 1996-02-20 2000-05-16 Computer Motion, Inc. Method and apparatus for performing minimally invasive surgical procedures
US6047080A (en) 1996-06-19 2000-04-04 Arch Development Corporation Method and apparatus for three-dimensional reconstruction of coronary vessels from angiographic images
US5831614A (en) 1996-07-01 1998-11-03 Sun Microsystems, Inc. X-Y viewport scroll using location of display with respect to a point
DE69815260T2 (de) 1997-01-24 2004-05-13 Koninklijke Philips Electronics N.V. Bildanzeigevorrichtung
US6246784B1 (en) 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6810281B2 (en) 2000-12-21 2004-10-26 Endovia Medical, Inc. Medical mapping system
FR2779339B1 (fr) 1998-06-09 2000-10-13 Integrated Surgical Systems Sa Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application
US6425865B1 (en) 1998-06-12 2002-07-30 The University Of British Columbia Robotically assisted medical ultrasound
US6665554B1 (en) 1998-11-18 2003-12-16 Steve T. Charles Medical manipulator for use with an imaging device
US6493608B1 (en) 1999-04-07 2002-12-10 Intuitive Surgical, Inc. Aspects of a control system of a minimally invasive surgical apparatus
US6501981B1 (en) 1999-03-16 2002-12-31 Accuray, Inc. Apparatus and method for compensating for respiratory and patient motions during treatment
US6594552B1 (en) 1999-04-07 2003-07-15 Intuitive Surgical, Inc. Grip strength with tactile feedback for robotic surgery
US7386339B2 (en) 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
FI114282B (fi) 1999-11-05 2004-09-30 Polar Electro Oy Menetelmä, järjestely ja sykemittari sydämen lyönnin tunnistamiseksi
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US6755797B1 (en) 1999-11-29 2004-06-29 Bowles Fluidics Corporation Method and apparatus for producing oscillation of a bladder
US7747312B2 (en) 2000-01-04 2010-06-29 George Mason Intellectual Properties, Inc. System and method for automatic shape registration and instrument tracking
DE10011790B4 (de) 2000-03-13 2005-07-14 Siemens Ag Medizinisches Instrument zum Einführen in ein Untersuchungsobjekt, sowie medizinisches Untersuchungs- oder Behandlungsgerät
US7181289B2 (en) 2000-03-20 2007-02-20 Pflueger D Russell Epidural nerve root access catheter and treatment methods
DE10025285A1 (de) 2000-05-22 2001-12-06 Siemens Ag Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe
DE10033723C1 (de) 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
US6865498B2 (en) 2001-11-30 2005-03-08 Thermwood Corporation System for calibrating the axes on a computer numeric controlled machining system and method thereof
US6812842B2 (en) 2001-12-20 2004-11-02 Calypso Medical Technologies, Inc. System for excitation of a leadless miniature marker
AU2003218010A1 (en) 2002-03-06 2003-09-22 Z-Kat, Inc. System and method for using a haptic device in combination with a computer-assisted surgery system
DE10210646A1 (de) 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
US20050256398A1 (en) 2004-05-12 2005-11-17 Hastings Roger N Systems and methods for interventional medicine
US7998062B2 (en) * 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
WO2003086498A2 (en) 2002-04-17 2003-10-23 Super Dimension Ltd. Endoscope structures and techniques for navigating to a target in branched structure
WO2003091839A2 (en) 2002-04-25 2003-11-06 The John Hopkins University Robot for computed tomography interventions
JP2005528157A (ja) 2002-06-04 2005-09-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 回転血管造影法に基づく冠状動脈構造のハイブリッド3d再構成
JP4439393B2 (ja) 2002-06-17 2010-03-24 メイザー サージカル テクノロジーズ リミテッド 整形外科的インサートと併用するロボット
US20040047044A1 (en) 2002-06-25 2004-03-11 Dalton Michael Nicholas Apparatus and method for combining three-dimensional spaces
KR100449765B1 (ko) 2002-10-12 2004-09-22 삼성에스디아이 주식회사 리튬전지용 리튬메탈 애노드
US6899672B2 (en) 2002-11-08 2005-05-31 Scimed Life Systems, Inc. Endoscopic imaging system including removable deflection device
JP4804005B2 (ja) 2002-11-13 2011-10-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 境界構造を検出するための医用ビューイングシステム及び方法
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US20040186349A1 (en) 2002-12-24 2004-09-23 Usgi Medical Corp. Apparatus and methods for achieving endoluminal access
FR2852226B1 (fr) 2003-03-10 2005-07-15 Univ Grenoble 1 Instrument medical localise a ecran orientable
US7203277B2 (en) 2003-04-25 2007-04-10 Brainlab Ag Visualization device and method for combined patient and object image data
US7822461B2 (en) 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
EP2316328B1 (en) * 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
WO2005058137A2 (en) 2003-12-12 2005-06-30 University Of Washington Catheterscope 3d guidance and interface system
US8021301B2 (en) 2003-12-26 2011-09-20 Fujifilm Corporation Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program
JP2005192632A (ja) 2003-12-26 2005-07-21 Olympus Corp 被検体内移動状態検出システム
US20050193451A1 (en) 2003-12-30 2005-09-01 Liposonix, Inc. Articulating arm for medical procedures
EP1715788B1 (en) 2004-02-17 2011-09-07 Philips Electronics LTD Method and apparatus for registration, verification, and referencing of internal organs
JP4755638B2 (ja) 2004-03-05 2011-08-24 ハンセン メディカル,インク. ロボットガイドカテーテルシステム
US7974681B2 (en) 2004-03-05 2011-07-05 Hansen Medical, Inc. Robotic catheter system
US7811294B2 (en) 2004-03-08 2010-10-12 Mediguide Ltd. Automatic guidewire maneuvering system and method
EP4026486A1 (en) 2004-03-23 2022-07-13 Boston Scientific Medical Device Limited In-vivo visualization system
WO2005092188A1 (ja) 2004-03-29 2005-10-06 Olympus Corporation 被検体内位置検出システム
US7462175B2 (en) 2004-04-21 2008-12-09 Acclarent, Inc. Devices, systems and methods for treating disorders of the ear, nose and throat
US7720521B2 (en) 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
US20070208252A1 (en) 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
US8155403B2 (en) 2004-05-05 2012-04-10 University Of Iowa Research Foundation Methods and devices for airway tree labeling and/or matching
US7632265B2 (en) 2004-05-28 2009-12-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Radio frequency ablation servo catheter and method
US20060209019A1 (en) 2004-06-01 2006-09-21 Energid Technologies Corporation Magnetic haptic feedback systems and methods for virtual reality environments
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060025668A1 (en) 2004-08-02 2006-02-02 Peterson Thomas H Operating table with embedded tracking technology
WO2007017847A1 (en) 2005-08-11 2007-02-15 Navotek Medical Ltd. Medical treatment system and method using radioactivity based position sensor
US7536216B2 (en) 2004-10-18 2009-05-19 Siemens Medical Solutions Usa, Inc. Method and system for virtual endoscopy with guidance for biopsy
US9049954B2 (en) 2004-11-03 2015-06-09 Cambridge International, Inc. Hanger bar assembly for architectural mesh and the like
US9125639B2 (en) 2004-11-23 2015-09-08 Pneumrx, Inc. Steerable device for accessing a target site and methods
CA2588002A1 (en) 2005-01-18 2006-07-27 Traxtal Inc. Method and apparatus for guiding an instrument to a target in the lung
US8335357B2 (en) 2005-03-04 2012-12-18 Kabushiki Kaisha Toshiba Image processing apparatus
US20060258935A1 (en) 2005-05-12 2006-11-16 John Pile-Spellman System for autonomous robotic navigation
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US7889905B2 (en) 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US7756563B2 (en) 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
JP4813190B2 (ja) 2005-05-26 2011-11-09 オリンパスメディカルシステムズ株式会社 カプセル型医療装置
GB2428110A (en) 2005-07-06 2007-01-17 Armstrong Healthcare Ltd A robot and method of registering a robot.
WO2007011654A1 (en) 2005-07-14 2007-01-25 Enhanced Medical System Llc Robot for minimally invasive interventions
US8583220B2 (en) 2005-08-02 2013-11-12 Biosense Webster, Inc. Standardization of catheter-based treatment for atrial fibrillation
US8657814B2 (en) 2005-08-22 2014-02-25 Medtronic Ablation Frontiers Llc User interface for tissue ablation system
WO2007025081A2 (en) * 2005-08-24 2007-03-01 Traxtal Inc. System, method and devices for navigated flexible endoscopy
US20070073136A1 (en) 2005-09-15 2007-03-29 Robert Metzger Bone milling with image guided surgery
EP3788944B1 (en) 2005-11-22 2024-02-28 Intuitive Surgical Operations, Inc. System for determining the shape of a bendable instrument
US8303505B2 (en) 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US8190238B2 (en) 2005-12-09 2012-05-29 Hansen Medical, Inc. Robotic catheter system and methods
DE102005059271B4 (de) 2005-12-12 2019-02-21 Siemens Healthcare Gmbh Kathetervorrichtung
US8672922B2 (en) 2005-12-20 2014-03-18 Intuitive Surgical Operations, Inc. Wireless communication in a robotic surgical system
US9266239B2 (en) 2005-12-27 2016-02-23 Intuitive Surgical Operations, Inc. Constraint based control in a minimally invasive surgical apparatus
US9962066B2 (en) 2005-12-30 2018-05-08 Intuitive Surgical Operations, Inc. Methods and apparatus to shape flexible entry guides for minimally invasive surgery
US7930065B2 (en) 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
US8191359B2 (en) 2006-04-13 2012-06-05 The Regents Of The University Of California Motion estimation using hidden markov model processing in MRI and other applications
JP4822142B2 (ja) * 2006-05-02 2011-11-24 国立大学法人名古屋大学 内視鏡挿入支援システム及び内視鏡挿入支援方法
DE102006021373A1 (de) 2006-05-08 2007-11-15 Siemens Ag Röntgendiagnostikeinrichtung
US8348861B2 (en) 2006-06-05 2013-01-08 Technion Research & Development Foundation Ltd. Controlled steering of a flexible needle
US7505810B2 (en) 2006-06-13 2009-03-17 Rhythmia Medical, Inc. Non-contact cardiac mapping, including preprocessing
CN104688281B (zh) 2006-06-13 2017-04-19 直观外科手术操作公司 微创手术系统
US8040127B2 (en) 2006-08-15 2011-10-18 General Electric Company Multi-sensor distortion mapping method and system
US8150498B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for identification of anatomical landmarks
US7824328B2 (en) 2006-09-18 2010-11-02 Stryker Corporation Method and apparatus for tracking a surgical instrument during surgery
CN100546540C (zh) 2006-09-19 2009-10-07 上海宏桐实业有限公司 心内膜三维导航系统
US7940977B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies
EP3260042B1 (en) 2006-11-10 2020-07-15 Covidien LP Adaptive navigation technique for navigating a catheter through a body channel or cavity
US7936922B2 (en) 2006-11-22 2011-05-03 Adobe Systems Incorporated Method and apparatus for segmenting images
EP2087469A2 (en) 2006-12-01 2009-08-12 Thomson Licensing Estimating a location of an object in an image
US9220439B2 (en) 2006-12-29 2015-12-29 St. Jude Medical, Atrial Fibrillation Division, Inc. Navigational reference dislodgement detection method and system
US20080183188A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Surgical Navigational and Neuromonitoring System
US20080183068A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Visualization of Surgical Navigational and Neural Monitoring Information
US20080183064A1 (en) 2007-01-30 2008-07-31 General Electric Company Multi-sensor distortion detection method and system
US8672836B2 (en) 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
WO2008097540A2 (en) 2007-02-02 2008-08-14 Hansen Medical, Inc. Robotic surgical instrument and methods using bragg fiber sensors
JP4914735B2 (ja) 2007-02-14 2012-04-11 オリンパスメディカルシステムズ株式会社 処置具の位置制御を行う内視鏡システム
WO2008103383A1 (en) 2007-02-20 2008-08-28 Gildenberg Philip L Videotactic and audiotactic assisted surgical methods and procedures
US8781193B2 (en) 2007-03-08 2014-07-15 Sync-Rx, Ltd. Automatic quantitative vessel analysis
US10433929B2 (en) 2007-03-09 2019-10-08 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for local deformable registration of a catheter navigation system to image data or a model
US8821376B2 (en) 2007-03-12 2014-09-02 David Tolkowsky Devices and methods for performing medical procedures in tree-like luminal structures
US20080275349A1 (en) 2007-05-02 2008-11-06 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
US20080300478A1 (en) 2007-05-30 2008-12-04 General Electric Company System and method for displaying real-time state of imaged anatomy during a surgical procedure
US20090030307A1 (en) 2007-06-04 2009-01-29 Assaf Govari Intracorporeal location system with movement compensation
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US20080319491A1 (en) 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
US20130165945A9 (en) 2007-08-14 2013-06-27 Hansen Medical, Inc. Methods and devices for controlling a shapeable instrument
EP2626027B1 (en) 2007-08-14 2020-04-29 Koninklijke Philips N.V. Robotic instrument systems utilizing optical fiber sensors
US20090076476A1 (en) 2007-08-15 2009-03-19 Hansen Medical, Inc. Systems and methods employing force sensing for mapping intra-body tissue
WO2009097461A1 (en) 2008-01-29 2009-08-06 Neoguide Systems Inc. Apparatus and methods for automatically controlling an endoscope
US10388066B2 (en) 2008-02-12 2019-08-20 Covidien Lp Controlled perspective guidance method
KR100927096B1 (ko) 2008-02-27 2009-11-13 아주대학교산학협력단 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
US20090228020A1 (en) 2008-03-06 2009-09-10 Hansen Medical, Inc. In-situ graft fenestration
US8219179B2 (en) 2008-03-06 2012-07-10 Vida Diagnostics, Inc. Systems and methods for navigation within a branched structure of a body
US8808164B2 (en) 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
US9002076B2 (en) 2008-04-15 2015-04-07 Medtronic, Inc. Method and apparatus for optimal trajectory planning
US8532734B2 (en) 2008-04-18 2013-09-10 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8218846B2 (en) 2008-05-15 2012-07-10 Superdimension, Ltd. Automatic pathway and waypoint generation and navigation method
JP5372407B2 (ja) 2008-05-23 2013-12-18 オリンパスメディカルシステムズ株式会社 医療機器
US20100030061A1 (en) 2008-07-31 2010-02-04 Canfield Monte R Navigation system for cardiac therapies using gating
US8290571B2 (en) 2008-08-01 2012-10-16 Koninklijke Philips Electronics N.V. Auxiliary cavity localization
ES2608820T3 (es) 2008-08-15 2017-04-17 Stryker European Holdings I, Llc Sistema y método de visualización del interior de un cuerpo
WO2010044852A2 (en) 2008-10-14 2010-04-22 University Of Florida Research Foundation, Inc. Imaging platform to provide integrated navigation capabilities for surgical guidance
US8700123B2 (en) 2008-10-20 2014-04-15 The Johns Hopkins University Environment property estimaton and graphical display
AU2009308801B2 (en) 2008-10-31 2015-05-07 Chevron Phillips Chemical Company Lp Oligomerization catalyst system and process for oligomerizing olefins
US20100121139A1 (en) 2008-11-12 2010-05-13 Ouyang Xiaolong Minimally Invasive Imaging Systems
US8317746B2 (en) 2008-11-20 2012-11-27 Hansen Medical, Inc. Automated alignment
EP2376175B1 (en) 2008-12-12 2019-01-30 Corindus, Inc. Remote catheter procedure system
US8335590B2 (en) 2008-12-23 2012-12-18 Intuitive Surgical Operations, Inc. System and method for adjusting an image capturing device attribute using an unused degree-of-freedom of a master control device
JP4585048B2 (ja) 2009-01-15 2010-11-24 オリンパスメディカルシステムズ株式会社 内視鏡システム
KR100961661B1 (ko) 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US8337397B2 (en) 2009-03-26 2012-12-25 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient
US9002427B2 (en) 2009-03-30 2015-04-07 Lifewave Biomedical, Inc. Apparatus and method for continuous noninvasive measurement of respiratory function and events
EP2424422B1 (en) 2009-04-29 2019-08-14 Koninklijke Philips N.V. Real-time depth estimation from monocular endoscope images
CN102439631A (zh) * 2009-05-08 2012-05-02 皇家飞利浦电子股份有限公司 不具有电磁跟踪和术前扫描路线图的实时镜跟踪和分支标记
US8675736B2 (en) 2009-05-14 2014-03-18 Qualcomm Incorporated Motion vector processing
CN102292991B (zh) 2009-05-15 2014-10-08 夏普株式会社 图像处理装置和图像处理方法
US20100292565A1 (en) 2009-05-18 2010-11-18 Andreas Meyer Medical imaging medical device navigation from at least two 2d projections from different angles
EP2433262B1 (en) 2009-05-18 2016-07-27 Koninklijke Philips N.V. Marker-free tracking registration and calibration for em-tracked endoscopic system
ES2388029B1 (es) 2009-05-22 2013-08-13 Universitat Politècnica De Catalunya Sistema robótico para cirugia laparoscópica.
GB0915200D0 (en) 2009-09-01 2009-10-07 Ucl Business Plc Method for re-localising sites in images
US20110092808A1 (en) 2009-10-20 2011-04-21 Magnetecs, Inc. Method for acquiring high density mapping data with a catheter guidance system
JP2013509902A (ja) 2009-11-04 2013-03-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 距離センサを使用した衝突の回避と探知
JP4781492B2 (ja) 2009-11-10 2011-09-28 オリンパスメディカルシステムズ株式会社 多関節マニピュレータ装置及びそれを有する内視鏡システム
US20110184238A1 (en) * 2010-01-28 2011-07-28 The Penn State Research Foundation Image-based global registration system and method applicable to bronchoscopy guidance
WO2011102012A1 (ja) 2010-02-22 2011-08-25 オリンパスメディカルシステムズ株式会社 医療機器
DE102010012621A1 (de) 2010-03-24 2011-09-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur automatischen Adaption eines Referenzbildes
US8425455B2 (en) 2010-03-30 2013-04-23 Angiodynamics, Inc. Bronchial catheter and method of use
IT1401669B1 (it) 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
US8581905B2 (en) 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
US8845631B2 (en) 2010-04-28 2014-09-30 Medtronic Ablation Frontiers Llc Systems and methods of performing medical procedures
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US8494794B2 (en) 2010-06-13 2013-07-23 Angiometrix Corporation Methods and systems for determining vascular bodily lumen information and guiding medical devices
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US8460236B2 (en) 2010-06-24 2013-06-11 Hansen Medical, Inc. Fiber optic instrument sensing system
US20120071753A1 (en) 2010-08-20 2012-03-22 Mark Hunter Apparatus and method for four dimensional soft tissue navigation including endoscopic mapping
US20120071752A1 (en) 2010-09-17 2012-03-22 Sewell Christopher M User interface and method for operating a robotic medical system
JP5669529B2 (ja) 2010-11-17 2015-02-12 オリンパス株式会社 撮像装置、プログラム及びフォーカス制御方法
WO2012075631A1 (en) 2010-12-08 2012-06-14 Industrial Technology Research Institute Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same
US8812079B2 (en) 2010-12-22 2014-08-19 Biosense Webster (Israel), Ltd. Compensation for magnetic disturbance due to fluoroscope
US9414770B2 (en) 2010-12-29 2016-08-16 Biosense Webster (Israel) Ltd. Respiratory effect reduction in catheter position sensing
US20120191079A1 (en) 2011-01-20 2012-07-26 Hansen Medical, Inc. System and method for endoluminal and translumenal therapy
CA2827589C (en) 2011-02-18 2019-07-09 DePuy Synthes Products, LLC Tool with integrated navigation and guidance system and related apparatus and methods
US10391277B2 (en) 2011-02-18 2019-08-27 Voxel Rad, Ltd. Systems and methods for 3D stereoscopic angiovision, angionavigation and angiotherapeutics
US10786432B2 (en) 2011-04-12 2020-09-29 Sartorius Stedim Biotech Gmbh Use of a device and a method for preparing mixtures of pharmaceutical substances
US10918307B2 (en) 2011-09-13 2021-02-16 St. Jude Medical, Atrial Fibrillation Division, Inc. Catheter navigation using impedance and magnetic field measurements
US10362963B2 (en) 2011-04-14 2019-07-30 St. Jude Medical, Atrial Fibrillation Division, Inc. Correction of shift and drift in impedance-based medical device navigation using magnetic field information
US9572481B2 (en) 2011-05-13 2017-02-21 Intuitive Surgical Operations, Inc. Medical system with multiple operating modes for steering a medical instrument through linked body passages
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
CN103648394B (zh) 2011-06-27 2016-11-16 皇家飞利浦有限公司 使用外科工具曲线与x-射线图像的配准的实时3d血管造影
US9173683B2 (en) 2011-08-31 2015-11-03 DePuy Synthes Products, Inc. Revisable orthopedic anchor and methods of use
CN102973317A (zh) 2011-09-05 2013-03-20 周宁新 微创手术机器人机械臂布置结构
EP2753241B1 (en) 2011-09-08 2016-11-09 APN Health, LLC Automatically determining 3d catheter location and orientation using 2d fluoroscopy only
WO2013040498A1 (en) 2011-09-16 2013-03-21 Translucent Medical, Inc. System and method for virtually tracking a surgical tool on a movable display
WO2013061225A1 (en) 2011-10-26 2013-05-02 Koninklijke Philips Electronics N.V. Endoscopic registration of vessel tree images
US9504604B2 (en) 2011-12-16 2016-11-29 Auris Surgical Robotics, Inc. Lithotripsy eye treatment
JP2015506188A (ja) * 2011-12-21 2015-03-02 コーニンクレッカ フィリップス エヌ ヴェ 容積測定モダリティからの構造の未較正内視鏡のビデオへのオーバレイ及び動き補償
US8700561B2 (en) 2011-12-27 2014-04-15 Mcafee, Inc. System and method for providing data protection workflows in a network environment
US9636040B2 (en) 2012-02-03 2017-05-02 Intuitive Surgical Operations, Inc. Steerable flexible needle with embedded shape sensing
WO2013118090A2 (en) 2012-02-09 2013-08-15 Koninklijke Philips N.V. Shaft tracker for real-time navigation tracking
US10249036B2 (en) 2012-02-22 2019-04-02 Veran Medical Technologies, Inc. Surgical catheter having side exiting medical instrument and related systems and methods for four dimensional soft tissue navigation
US20140142591A1 (en) 2012-04-24 2014-05-22 Auris Surgical Robotics, Inc. Method, apparatus and a system for robotic assisted surgery
US10383765B2 (en) 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US10039473B2 (en) 2012-05-14 2018-08-07 Intuitive Surgical Operations, Inc. Systems and methods for navigation based on ordered sensor records
JP2015528713A (ja) 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド 手術ロボットプラットフォーム
RU2686954C2 (ru) 2012-06-28 2019-05-06 Конинклейке Филипс Н.В. Навигация с помощью оптоволоконного датчика для визуализации и мониторинга сосудов
DE102012220116A1 (de) 2012-06-29 2014-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobil handhabbare Vorrichtung, insbesondere zur Bearbeitung oder Beobachtung eines Körpers, und Verfahren zur Handhabung, insbesondere Kalibrierung, einer Vorrichtung
WO2014028557A1 (en) 2012-08-15 2014-02-20 Intuitive Surgical Operations, Inc. Phantom degrees of freedom for manipulating the movement of mechanical bodies
US9183354B2 (en) 2012-08-15 2015-11-10 Musc Foundation For Research Development Systems and methods for image guided surgery
KR20150058250A (ko) 2012-08-24 2015-05-28 유니버시티 오브 휴스턴 로봇 장치 및 영상 안내 및 로봇 지원 수술을 위한 시스템
US9330454B2 (en) 2012-09-12 2016-05-03 Bruce Reiner Method and apparatus for image-centric standardized tool for quality assurance analysis in medical imaging
US20140107390A1 (en) 2012-10-12 2014-04-17 Elekta Ab (Publ) Implementation and experimental results of real-time 4d tumor tracking using multi-leaf collimator (mlc), and/or mlc-carriage (mlc-bank), and/or treatment table (couch)
WO2014074481A2 (en) 2012-11-07 2014-05-15 Dana Automotive Systems Group, Llc A clutch management system
US20150313503A1 (en) 2012-11-20 2015-11-05 University Of Washington Through Its Center For Commercialization Electromagnetic sensor integration with ultrathin scanning fiber endoscope
LU92104B1 (en) 2012-11-28 2014-05-30 Iee Sarl Method and system for determining a ventilatory threshold
JP6045417B2 (ja) 2012-12-20 2016-12-14 オリンパス株式会社 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
US11172809B2 (en) 2013-02-15 2021-11-16 Intuitive Surgical Operations, Inc. Vision probe with access port
JP6251756B2 (ja) 2013-02-26 2017-12-20 アーメット・シナン・カバクチュAhmet Sinan KABAKCI ロボットマニュピレータシステム
US9459087B2 (en) 2013-03-05 2016-10-04 Ezono Ag Magnetic position detection system
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US10080576B2 (en) 2013-03-08 2018-09-25 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US9867635B2 (en) 2013-03-08 2018-01-16 Auris Surgical Robotics, Inc. Method, apparatus and system for a water jet
US20140296655A1 (en) 2013-03-11 2014-10-02 ROPAMedics LLC Real-time tracking of cerebral hemodynamic response (rtchr) of a subject based on hemodynamic parameters
EP2904958A4 (en) * 2013-03-12 2016-08-24 Olympus Corp ENDOSCOPE SYSTEM
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US20170303941A1 (en) 2013-03-14 2017-10-26 The General Hospital Corporation System and method for guided removal from an in vivo subject
US9301723B2 (en) 2013-03-15 2016-04-05 Covidien Lp Microwave energy-delivery device and system
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US20170238807A9 (en) 2013-03-15 2017-08-24 LX Medical, Inc. Tissue imaging and image guidance in luminal anatomic structures and body cavities
US10271810B2 (en) 2013-04-02 2019-04-30 St. Jude Medical International Holding S.à r. l. Enhanced compensation of motion in a moving organ using processed reference sensor data
US20140309527A1 (en) 2013-04-12 2014-10-16 Ninepoint Medical, Inc. Multiple aperture, multiple modal optical systems and methods
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
US10744035B2 (en) 2013-06-11 2020-08-18 Auris Health, Inc. Methods for robotic assisted cataract surgery
JP6037964B2 (ja) 2013-07-26 2016-12-07 オリンパス株式会社 マニピュレータシステム
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
CN109954196B (zh) 2013-08-15 2021-11-09 直观外科手术操作公司 用于导管定位和插入的图形用户界面
US10098565B2 (en) 2013-09-06 2018-10-16 Covidien Lp System and method for lung visualization using ultrasound
WO2015049612A2 (en) 2013-10-02 2015-04-09 Koninklijke Philips N.V. Hub design and methods for optical shape sensing registration
CN111166274A (zh) 2013-10-24 2020-05-19 奥瑞斯健康公司 机器人辅助腔内外科手术系统及相关方法
US9993313B2 (en) 2013-10-24 2018-06-12 Auris Health, Inc. Instrument device manipulator with roll mechanism
US9314191B2 (en) 2013-11-19 2016-04-19 Pacesetter, Inc. Method and system to measure cardiac motion using a cardiovascular navigation system
CN105979899B (zh) 2013-12-09 2019-10-01 直观外科手术操作公司 用于设备感知柔性工具配准的系统和方法
CN103705307B (zh) 2013-12-10 2017-02-22 中国科学院深圳先进技术研究院 手术导航系统及医疗机器人
CN103735313B (zh) 2013-12-11 2016-08-17 中国科学院深圳先进技术研究院 一种手术机器人及其状态监测方法
JP6261612B2 (ja) 2013-12-20 2018-01-17 オリンパス株式会社 軟性マニピュレータ用ガイド部材および軟性マニピュレータ
US10510267B2 (en) 2013-12-20 2019-12-17 Intuitive Surgical Operations, Inc. Simulator system for medical procedure training
WO2015110928A1 (en) 2014-01-24 2015-07-30 Koninklijke Philips N.V. Virtual image with optical shape sensing device perspective
JP2017511712A (ja) 2014-02-04 2017-04-27 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 介入ツールの仮想ナビゲーションのための組織の非剛体変形のためのシステム及び方法
EP3102087A4 (en) 2014-02-05 2017-10-25 National University of Singapore Systems and methods for tracking and displaying endoscope shape and distal end orientation
US20150223902A1 (en) 2014-02-07 2015-08-13 Hansen Medical, Inc. Navigation with 3d localization using 2d images
WO2015121311A1 (en) 2014-02-11 2015-08-20 KB Medical SA Sterile handle for controlling a robotic surgical system from a sterile field
JP6270537B2 (ja) 2014-02-27 2018-01-31 オリンパス株式会社 医療用システム
KR20150103938A (ko) 2014-03-04 2015-09-14 현대자동차주식회사 리튬황 배터리 분리막
US10952751B2 (en) 2014-03-17 2021-03-23 Marksman Targeting, Inc. Surgical targeting systems and methods
CN104931059B (zh) 2014-03-21 2018-09-11 比亚迪股份有限公司 车载救援导航系统和方法
US10912523B2 (en) 2014-03-24 2021-02-09 Intuitive Surgical Operations, Inc. Systems and methods for anatomic motion compensation
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
US20150305650A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue
CN104055520B (zh) 2014-06-11 2016-02-24 清华大学 人体器官运动监测方法和手术导航系统
US9788910B2 (en) 2014-07-01 2017-10-17 Auris Surgical Robotics, Inc. Instrument-mounted tension sensing mechanism for robotically-driven medical instruments
US20170007337A1 (en) 2014-07-01 2017-01-12 Auris Surgical Robotics, Inc. Driver-mounted torque sensing mechanism
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US20160270865A1 (en) 2014-07-01 2016-09-22 Auris Surgical Robotics, Inc. Reusable catheter with disposable balloon attachment and tapered tip
US10159533B2 (en) 2014-07-01 2018-12-25 Auris Health, Inc. Surgical system with configurable rail-mounted mechanical arms
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US20160000414A1 (en) 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
EP3164051B1 (en) 2014-07-02 2023-08-30 Covidien LP System and program for providing distance and orientation feedback while navigating in 3d
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
WO2016054256A1 (en) 2014-09-30 2016-04-07 Auris Surgical Robotics, Inc Configurable robotic surgical system with virtual rail and flexible endoscope
WO2016061418A1 (en) 2014-10-15 2016-04-21 Vincent Suzara Magnetic field structures, field generators, navigation and imaging for untethered robotic device enabled medical procedure
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
DE102014222293A1 (de) 2014-10-31 2016-05-19 Siemens Aktiengesellschaft Verfahren zur automatischen Überwachung des Eindringverhaltens eines von einem Roboterarm gehaltenen Trokars und Überwachungssystem
EP3217977A1 (en) 2014-11-11 2017-09-20 Vanderbilt University Methods for limiting acute kidney injury
KR102540633B1 (ko) 2014-11-13 2023-06-07 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 정위 데이터를 필터링하기 위한 시스템 및 방법
US9931168B2 (en) 2015-01-12 2018-04-03 Biomet Manufacuturing. LLC Plan implementation
EP3636149B1 (en) 2015-02-20 2023-06-07 Teleflex Life Sciences Limited Medical device position location systems, devices and methods
JP6371729B2 (ja) 2015-03-25 2018-08-08 富士フイルム株式会社 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
WO2016164824A1 (en) 2015-04-09 2016-10-13 Auris Surgical Robotics, Inc. Surgical system with configurable rail-mounted mechanical arms
CN104758066B (zh) 2015-05-06 2017-05-10 中国科学院深圳先进技术研究院 用于手术导航的设备及手术机器人
US9636184B2 (en) 2015-05-15 2017-05-02 Auris Surgical Robotics, Inc. Swivel bed for a surgical robotics system
WO2016199273A1 (ja) 2015-06-11 2016-12-15 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP6750194B2 (ja) 2015-06-19 2020-09-02 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、及び、医療用観察システム
US10347904B2 (en) 2015-06-19 2019-07-09 Solidenergy Systems, Llc Multi-layer polymer coated Li anode for high density Li metal battery
GB2540757B (en) 2015-07-22 2021-03-31 Cmr Surgical Ltd Torque sensors
EP3334324B1 (en) 2015-08-14 2021-01-06 Intuitive Surgical Operations Inc. Systems and methods of registration for image-guided surgery
WO2017030916A1 (en) 2015-08-14 2017-02-23 Schlumberger Technology Corporation Inline viscosity determination technique
US11116582B2 (en) 2015-08-28 2021-09-14 Koninklijke Philips N.V. Apparatus for determining a motion relation
CN113367671A (zh) 2015-08-31 2021-09-10 梅西莫股份有限公司 无线式病人监护系统和方法
CN113229942A (zh) 2015-09-09 2021-08-10 奥瑞斯健康公司 手术器械装置操纵器
ES2884356T3 (es) 2015-09-17 2021-12-10 Endomaster Pte Ltd Sistema de endoscopia robótico flexible mejorado
JP6824967B2 (ja) 2015-09-18 2021-02-03 オーリス ヘルス インコーポレイテッド 管状網のナビゲーション
EP3361933B1 (en) 2015-10-13 2023-03-01 Lightlab Imaging, Inc. Intravascular imaging system and methods to determine cut plane view angle of side branch
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US10639108B2 (en) 2015-10-30 2020-05-05 Auris Health, Inc. Process for percutaneous operations
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
CN105559850B (zh) 2015-12-17 2017-08-25 天津工业大学 一种用于机器人辅助外科具有力传感功能的手术钻器械
US10932861B2 (en) 2016-01-14 2021-03-02 Auris Health, Inc. Electromagnetic tracking surgical system and method of controlling the same
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US10470719B2 (en) 2016-02-01 2019-11-12 Verily Life Sciences Llc Machine learnt model to detect REM sleep periods using a spectral analysis of heart rate and motion
CN108472086B (zh) 2016-02-26 2021-07-09 直观外科手术操作公司 使用虚拟边界避免碰撞的系统和方法
US10729917B2 (en) 2016-03-24 2020-08-04 Koninklijke Philips N.V. Treatment assessment device
EP3435904A1 (en) 2016-03-31 2019-02-06 Koninklijke Philips N.V. Image guided robot for catheter placement
US11324554B2 (en) 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
US10470839B2 (en) 2016-06-02 2019-11-12 Covidien Lp Assessment of suture or staple line integrity and localization of potential tissue defects along the suture or staple line
US10806516B2 (en) 2016-06-20 2020-10-20 General Electric Company Virtual 4D stent implantation path assessment
KR102420386B1 (ko) 2016-06-30 2022-07-13 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 영상 안내식 시술 중에 복수의 모드에서 안내 정보를 디스플레이하기 위한 그래픽 사용자 인터페이스
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
US10238455B2 (en) 2016-08-31 2019-03-26 Covidien Lp Pathway planning for use with a navigation planning and procedure system
WO2018044306A1 (en) 2016-08-31 2018-03-08 Auris Surgical Robotics, Inc. Length conservative surgical instrument
US20180055576A1 (en) 2016-09-01 2018-03-01 Covidien Lp Respiration motion stabilization for lung magnetic navigation system
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
US10136959B2 (en) 2016-12-28 2018-11-27 Auris Health, Inc. Endolumenal object sizing
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US10543048B2 (en) 2016-12-28 2020-01-28 Auris Health, Inc. Flexible instrument insertion using an adaptive insertion force threshold
US11842030B2 (en) 2017-01-31 2023-12-12 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
US11071594B2 (en) 2017-03-16 2021-07-27 KB Medical SA Robotic navigation of robotic surgical systems
AU2018244318B2 (en) 2017-03-28 2023-11-16 Auris Health, Inc. Shaft actuating handle
US10475235B2 (en) * 2017-03-29 2019-11-12 Fujifilm Corporation Three-dimensional image processing apparatus, three-dimensional image processing method, and three-dimensional image processing program
CN108990412B (zh) 2017-03-31 2022-03-22 奥瑞斯健康公司 补偿生理噪声的用于腔网络导航的机器人系统
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
KR20230106716A (ko) 2017-04-07 2023-07-13 아우리스 헬스, 인코포레이티드 환자 삽입기(Introducer) 정렬
US10643330B2 (en) 2017-04-21 2020-05-05 Biosense Webster (Israel) Ltd. Registration of an anatomical image with a position-tracking coordinate system based on proximity to bone tissue
US20180308247A1 (en) 2017-04-25 2018-10-25 Best Medical International, Inc. Tissue imaging system and method for tissue imaging
EP3621520A4 (en) 2017-05-12 2021-02-17 Auris Health, Inc. BIOPSY APPARATUS AND SYSTEM
EP3624668A4 (en) 2017-05-17 2021-05-26 Auris Health, Inc. EXCHANGEABLE WORK CHANNEL
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
WO2019005699A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. ELECTROMAGNETIC FIELD GENERATOR ALIGNMENT
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
EP3644886A4 (en) 2017-06-28 2021-03-24 Auris Health, Inc. ELECTROMAGNETIC DISTORTION DETECTION
WO2019005872A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. INSTRUMENT INSERTION COMPENSATION
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
US10593052B2 (en) 2017-08-23 2020-03-17 Synaptive Medical (Barbados) Inc. Methods and systems for updating an existing landmark registration
US10464209B2 (en) 2017-10-05 2019-11-05 Auris Health, Inc. Robotic system with indication of boundary for robotic arm
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
US10016900B1 (en) 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
CN107595368B (zh) 2017-10-19 2024-04-30 以诺康医疗科技(苏州)有限公司 一种超声波手术刀头、刀杆及超声波手术刀
EP3684282B1 (en) 2017-12-06 2024-02-21 Auris Health, Inc. Systems to correct for uncommanded instrument roll
CN111432856B (zh) 2017-12-08 2023-01-03 奥瑞斯健康公司 定向射流技术
CN110831534B (zh) 2017-12-08 2023-04-28 奥瑞斯健康公司 用于医疗仪器导航和瞄准的系统和方法
KR102462568B1 (ko) 2017-12-11 2022-11-04 아우리스 헬스, 인코포레이티드 기구 기반 삽입 아키텍처를 위한 시스템 및 방법
JP7322026B2 (ja) 2017-12-14 2023-08-07 オーリス ヘルス インコーポレイテッド 器具の位置推定のシステムおよび方法
WO2019125964A1 (en) 2017-12-18 2019-06-27 Auris Health, Inc. Methods and systems for instrument tracking and navigation within luminal networks
JP6999824B2 (ja) 2018-01-17 2022-01-19 オーリス ヘルス インコーポレイテッド 調節可能なアーム支持体を有する外科用プラットフォーム
WO2019143458A1 (en) 2018-01-17 2019-07-25 Auris Health, Inc. Surgical robotics systems with improved robotic arms
EP3752085A4 (en) 2018-02-13 2021-11-24 Auris Health, Inc. SYSTEM AND METHOD FOR TRAINING A MEDICAL INSTRUMENT
US20190269468A1 (en) 2018-03-01 2019-09-05 Auris Health, Inc. Methods and systems for mapping and navigation
JP2019154816A (ja) 2018-03-13 2019-09-19 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置、医療用観察装置、及び医療用観察装置の作動方法
WO2019191143A1 (en) 2018-03-28 2019-10-03 Auris Health, Inc. Systems and methods for displaying estimated location of instrument
WO2019191144A1 (en) 2018-03-28 2019-10-03 Auris Health, Inc. Systems and methods for registration of location sensors
US11109920B2 (en) 2018-03-28 2021-09-07 Auris Health, Inc. Medical instruments with variable bending stiffness profiles
KR20200139200A (ko) 2018-03-29 2020-12-11 아우리스 헬스, 인코포레이티드 회전 오프셋을 갖는 다기능 엔드 이펙터를 가진 로봇식 의료 시스템
CN110831486B (zh) 2018-05-30 2022-04-05 奥瑞斯健康公司 用于基于定位传感器的分支预测的系统和方法
WO2019231891A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Path-based navigation of tubular networks
EP3801348B1 (en) 2018-05-31 2024-05-01 Auris Health, Inc. Image-based airway analysis and mapping
CN112236083A (zh) 2018-05-31 2021-01-15 奥瑞斯健康公司 用于导航检测生理噪声的管腔网络的机器人系统和方法
US10744981B2 (en) 2018-06-06 2020-08-18 Sensata Technologies, Inc. Electromechanical braking connector
US10751140B2 (en) 2018-06-07 2020-08-25 Auris Health, Inc. Robotic medical systems with high force instruments
WO2020005370A1 (en) 2018-06-27 2020-01-02 Auris Health, Inc. Systems and techniques for providing multiple perspectives during medical procedures
WO2020005854A1 (en) 2018-06-28 2020-01-02 Auris Health, Inc. Medical systems incorporating pulley sharing
US10898276B2 (en) 2018-08-07 2021-01-26 Auris Health, Inc. Combining strain-based shape sensing with catheter control
US10828118B2 (en) 2018-08-15 2020-11-10 Auris Health, Inc. Medical instruments for tissue cauterization
EP3806758A4 (en) 2018-08-17 2022-04-06 Auris Health, Inc. BIPOLAR MEDICAL DEVICE
AU2019326548B2 (en) 2018-08-24 2023-11-23 Auris Health, Inc. Manually and robotically controllable medical instruments
WO2020060750A1 (en) 2018-09-17 2020-03-26 Auris Health, Inc. Systems and methods for concomitant medical procedures
US11179212B2 (en) 2018-09-26 2021-11-23 Auris Health, Inc. Articulating medical instruments
CN112770689A (zh) 2018-09-26 2021-05-07 奥瑞斯健康公司 用于抽吸和冲洗的系统和器械
EP3856001A4 (en) 2018-09-28 2022-06-22 Auris Health, Inc. DEVICES, SYSTEMS AND METHODS FOR MANUAL AND ROBOTIC DRIVE MEDICAL INSTRUMENTS
EP3856064A4 (en) 2018-09-28 2022-06-29 Auris Health, Inc. Systems and methods for docking medical instruments
CN112804959A (zh) 2018-09-28 2021-05-14 奥瑞斯健康公司 用于伴随内窥镜和经皮医学规程的机器人系统和方法
WO2020076447A1 (en) 2018-10-08 2020-04-16 Auris Health, Inc. Systems and instruments for tissue sealing
EP3870075A4 (en) 2018-12-20 2022-08-03 Auris Health, Inc. SHIELDING FOR WRIST INSTRUMENTS
AU2019414510A1 (en) 2018-12-28 2021-06-03 Auris Health, Inc. Percutaneous sheath for robotic medical systems and methods
US11202683B2 (en) 2019-02-22 2021-12-21 Auris Health, Inc. Surgical platform with motorized arms for adjustable arm supports
EP3965710A4 (en) 2019-03-08 2023-04-05 Auris Health, Inc. TILT MECHANISMS FOR MEDICAL SYSTEMS AND APPLICATIONS
US20200297444A1 (en) 2019-03-21 2020-09-24 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for localization based on machine learning
WO2020197671A1 (en) 2019-03-22 2020-10-01 Auris Health, Inc. Systems and methods for aligning inputs on medical instruments
WO2020197625A1 (en) 2019-03-25 2020-10-01 Auris Health, Inc. Systems and methods for medical stapling
US11617627B2 (en) 2019-03-29 2023-04-04 Auris Health, Inc. Systems and methods for optical strain sensing in medical instruments
JP2022527834A (ja) 2019-04-08 2022-06-06 オーリス ヘルス インコーポレイテッド 付随する処置のためのシステム、方法、及びワークフロー

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012200403A (ja) * 2011-03-25 2012-10-22 Fujifilm Corp 内視鏡挿入支援装置およびその動作方法、並びに内視鏡挿入支援プログラム
WO2014058838A1 (en) * 2012-10-12 2014-04-17 Intuitive Surgical Operations, Inc. Determining position of medical device in branched anatomical structure
US20140180063A1 (en) * 2012-10-12 2014-06-26 Intuitive Surgical Operations, Inc. Determining position of medical device in branched anatomical structure
US20150054929A1 (en) * 2013-03-06 2015-02-26 Olympus Medical Systems Corp. Endoscope system
US20140364739A1 (en) * 2013-06-06 2014-12-11 General Electric Company Systems and methods for analyzing a vascular structure
US20170296032A1 (en) * 2015-03-06 2017-10-19 Fujifilm Corporation Branching structure determination apparatus, method, and program
JP2017055954A (ja) * 2015-09-16 2017-03-23 富士フイルム株式会社 内視鏡位置特定装置、方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114391950A (zh) * 2021-12-15 2022-04-26 深圳市爱博医疗机器人有限公司 一种具有防撞功能的介入手术机器人
CN114391950B (zh) * 2021-12-15 2024-02-27 深圳爱博合创医疗机器人有限公司 一种具有防撞功能的介入手术机器人

Also Published As

Publication number Publication date
CN110831538B (zh) 2023-01-24
KR102455671B1 (ko) 2022-10-20
EP3801348A4 (en) 2022-07-06
US11759090B2 (en) 2023-09-19
EP3801348A1 (en) 2021-04-14
US20190380787A1 (en) 2019-12-19
MX2020012904A (es) 2021-02-26
WO2019232236A1 (en) 2019-12-05
US10898275B2 (en) 2021-01-26
EP3801348B1 (en) 2024-05-01
CN110831538A (zh) 2020-02-21
KR20210016572A (ko) 2021-02-16
JP7146949B2 (ja) 2022-10-04
US20210169589A1 (en) 2021-06-10

Similar Documents

Publication Publication Date Title
JP7146949B2 (ja) 画像ベースの気道分析及びマッピング
US11969217B2 (en) Robotic system configured for navigation path tracing
US11957446B2 (en) System and method for medical instrument navigation and targeting
KR102489198B1 (ko) 위치 센서의 정합을 위한 시스템 및 방법
AU2018347464B2 (en) Image-based branch detection and mapping for navigation
KR102500422B1 (ko) 기구의 추정된 위치를 디스플레이하기 위한 시스템 및 방법
KR20200101334A (ko) 관강내 조직망 내 기구 추적 및 항행을 위한 방법 및 시스템
JP2021514761A (ja) マッピング及びナビゲーションのための方法及びシステム
KR20220058569A (ko) 위치 센서의 가중치-기반 정합을 위한 시스템 및 방법
CN110832544B (zh) 用于导航的基于图像的分支检测和映射

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220921

R150 Certificate of patent or registration of utility model

Ref document number: 7146949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150