JP7282685B2 - A robotic system for navigation of luminal networks with compensation for physiological noise - Google Patents

A robotic system for navigation of luminal networks with compensation for physiological noise Download PDF

Info

Publication number
JP7282685B2
JP7282685B2 JP2019553011A JP2019553011A JP7282685B2 JP 7282685 B2 JP7282685 B2 JP 7282685B2 JP 2019553011 A JP2019553011 A JP 2019553011A JP 2019553011 A JP2019553011 A JP 2019553011A JP 7282685 B2 JP7282685 B2 JP 7282685B2
Authority
JP
Japan
Prior art keywords
electromagnetic
sensors
sensor
data
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019553011A
Other languages
Japanese (ja)
Other versions
JP2020512102A (en
JP2020512102A5 (en
Inventor
ウマラネーニ,リッティク
ラフィ-タリ,ヘディエ
エフ. グレイツェル,シャウンシー
Original Assignee
オーリス ヘルス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オーリス ヘルス インコーポレイテッド filed Critical オーリス ヘルス インコーポレイテッド
Publication of JP2020512102A publication Critical patent/JP2020512102A/en
Publication of JP2020512102A5 publication Critical patent/JP2020512102A5/ja
Application granted granted Critical
Publication of JP7282685B2 publication Critical patent/JP7282685B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • A61B1/2676Bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/04Endoscopic instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6867Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive specially adapted to be attached or implanted in a specific body part
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • A61B2017/00123Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation and automatic shutdown
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • A61B2017/00699Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body correcting for movement caused by respiration, e.g. by triggering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/303Surgical robots specifically adapted for manipulations within body lumens, e.g. within lumen of gut, spine, or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3614Image-producing devices, e.g. surgical cameras using optical fibre
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7285Specific aspects of physiological measurement analysis for synchronising or triggering a physiological measurement or image acquisition with a physiological event or waveform, e.g. an ECG signal
    • A61B5/7289Retrospective gating, i.e. associating measured signals or images with a physiological event after the actual measurement or image acquisition, e.g. by simultaneously recording an additional physiological signal during the measurement or image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Physiology (AREA)
  • Otolaryngology (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Endoscopes (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Radiation-Therapy Devices (AREA)

Description

本願は、2017年3月31日出願の発明の名称が「生理学的ノイズを補償する管腔ネットワークのナビゲーション用ロボットシステム」である米国仮特許出願62/480,257号の利益を主張し、その開示全体を参照により援用する。 This application claims the benefit of U.S. Provisional Patent Application No. 62/480,257, entitled "Robotic System for Navigation of Luminal Networks Compensating for Physiological Noise," filed March 31, 2017, and The entire disclosure is incorporated by reference.

本件開示のシステムおよび方法は管腔内手技に関し、より具体的には、管腔内ナビゲーションに関する。 The systems and methods of the present disclosure relate to intraluminal procedures and, more particularly, to intraluminal navigation.

気管支鏡検査は、施術者が患者の気管支や細気管支などの肺気道の内部状態を調べることができる医療手技である。気管支鏡検査の手技においては、気管支鏡と呼ばれる柔軟性のある管状の器具が、患者の口に挿入され、患者の咽喉を下って肺気道に入り、後の診断および治療のために特定された組織部位に導かれる。気管支鏡は、組織部位への経路を提供する内部ルーメン(「ワーキングチャネル」)を備えることができ、カテーテルや種々の医療器具を、ワーキングチャネルを経由して組織部位に挿入することができる。 Bronchoscopy is a medical procedure that allows a practitioner to examine the internal condition of a patient's pulmonary airways, such as the bronchi and bronchioles. In a bronchoscopic procedure, a flexible tubular instrument called a bronchoscope is inserted into the patient's mouth, down the patient's throat and into the lung airways, where it is identified for later diagnosis and treatment. Guided to the tissue site. A bronchoscope can include an internal lumen (a "working channel") that provides a pathway to a tissue site through which catheters and various medical devices can be inserted into the tissue site.

呼吸器専門医は、判断や行動を患者の呼吸周期に依ることで手術時の外傷を回避することができる。そのような行動の一例として、例えば気管支鏡を経由して組織の試料を収集する生検器具を挿入することが挙げられる。肺気道の周辺やその隣接部分では、気道の外周が肺の呼吸相に応じて変化する。患者が呼吸周期の吸気相で吸気すると、気道の直径が拡張し、患者が周期の呼気相で呼気すると、気道の直径が収縮する。呼吸器専門医は、手技時に、患者を観察して、患者が吸気相にあるか呼気相にあるかを決定して、直径が固定されている特定の器具や内視鏡が気道に入るか否かを判断する。気道は、呼気時に外傷を引き起こすことなく器具の周りを取り囲むことができるが、呼気時に器具を収縮した気道内を通そうとすると、例えば血管を刺すなど、重大な外傷が生じる可能性がある。 Pulmonologists can avoid surgical trauma by relying on the patient's breathing cycle for decisions and actions. An example of such an action includes inserting a biopsy device to collect a sample of tissue, eg, via a bronchoscope. Around and adjacent to the lung airways, the circumference of the airways changes according to the respiratory phases of the lungs. When the patient inhales during the inspiratory phase of the respiratory cycle, the airway diameter expands, and when the patient exhales during the expiratory phase of the cycle, the airway diameter contracts. During the procedure, the pulmonologist observes the patient to determine whether the patient is in the inspiratory or expiratory phase and whether a particular fixed-diameter instrument or endoscope can enter the airway. to judge whether The airway can be wrapped around the device without causing trauma during exhalation, but attempting to pass the device through the constricted airway during exhalation can cause significant trauma, e.g., piercing a blood vessel.

上記の問題は、他の問題も含めて、本件開示の管腔ネットワークのナビゲーションシステムやナビゲーション手法による一部の実施形態において解決される。開示の管腔ネットワークのナビゲーションシステムやナビゲーション手法は、呼吸数および/または呼吸量をナビゲーションフレームワークに組み込んで、患者の安全対策を実装すること(例えば、器具制御手法、ユーザインタフェースによる警告、通知など)に関する。器具制御手法の一例として、本件開示のロボットシステムは、自動的に呼吸同期を実行し、ユーザ(施術者)が意図せず患者の気道に外傷を及ぼすことを防止することができる。ここで、「呼吸同期」とは、患者の気道内の器具の操作を患者の呼吸と同期させることを意味する。一部の例では、器具制御手法には、例えば吸気時の気道の直径がおおよそ器具の直径となる、肺周辺部の小径の気道など、呼気時の器具挿入によって外傷が発生する可能性がある患者の気道における領域(「警告域」)特定が含まれる。本ロボットシステムは、器具が特定された複数の領域の一領域内に位置すると判定されたときに、呼吸同期を実行して器具を制御することができる。ユーザインタフェースによる警告の一例として、本ロボットシステムは、気管支鏡検査の手技において特定された警告域内における吸気、呼気および/または器具の位置決めについての視覚的および/または聴覚的な指標を提供することができる。ユーザは、例えば手動で呼吸同期を行ったりロボットシステムを制御して呼吸同期を行ったりすることで、ユーザインタフェースによる警告を基に器具制御を行うことができる。 The above problems, among others, are solved in some embodiments by the luminal network navigation system and method of the present disclosure. The disclosed luminal network navigation systems and techniques incorporate respiratory rate and/or respiratory volume into the navigation framework to implement patient safety measures (e.g., instrument control techniques, user interface alerts, notifications, etc.). ). As an example of an instrument control approach, the robotic system of the present disclosure can automatically perform respiratory gating to prevent the user (practitioner) from unintentionally traumatizing the patient's airway. Here, "respiratory gating" means synchronizing the operation of an instrument within the patient's airway with the patient's breathing. In some instances, device control techniques have the potential for trauma from device insertion during expiration, e.g., small-diameter airways in the lung periphery, where the diameter of the airway during inspiration is approximately the diameter of the device. Identification of regions (“warning zones”) in the patient's airways is included. The robotic system can perform respiratory gating to control the instrument when it is determined that the instrument is located within one of the identified regions. As an example of a user interface warning, the robotic system can provide visual and/or audible indications of inspiration, expiration, and/or instrument positioning within specified warning zones during a bronchoscopy procedure. can. The user can perform instrument control based on a warning from the user interface, for example, by performing respiratory gating manually or by controlling the robot system to perform respiratory gating.

開示の気管支鏡検査のナビゲーションシステムおよび手法の一部の実施形態は、患者の起動内の器具のより精度の高い位置特定を提供するための、患者の呼吸によって生じる動きの特定および補償に関する。例えば、患者の起動内に位置する器具として電磁石のもの(電磁センサ)が提供される。ナビゲーションシステムは、電磁センサからの器具の位置情報にフィルタを適用し、呼吸によって生じる呼吸経路の周期的な動きに起因する信号ノイズを除去することができる。周期的な呼吸の動きの回数は、1つまたは複数の追加のセンサからのデータから取得することができる。一部の実装では、吸気と呼気の周期は、一例では、患者の体の上に配置された追加の電磁センサ、加速度計、および/または音響呼吸センサからのデータに基づいて決定することができる。一部の実装では、回数は他の種類のセンサまたはシステムから取得することができ、例えば患者の呼吸の制御に使用される人工呼吸器からの呼吸数情報や、患者を観察するために配置された光学センサから受信する画像の自動分析から抽出される呼吸数情報が挙げられる。 Some embodiments of the disclosed bronchoscopy navigation systems and techniques relate to identifying and compensating for movement caused by a patient's breathing to provide more accurate localization of instruments within the patient's actuations. For example, electromagnets (electromagnetic sensors) are provided as instruments located within the patient's actuations. The navigation system may apply a filter to the instrument's position information from the electromagnetic sensor to remove signal noise due to the periodic movement of the respiratory tract caused by respiration. The number of periodic respiratory movements can be obtained from data from one or more additional sensors. In some implementations, the inspiratory and expiratory cycles can be determined, in one example, based on data from additional electromagnetic sensors, accelerometers, and/or acoustic respiration sensors placed on the patient's body. . In some implementations, the rate can be obtained from other types of sensors or systems, such as breath rate information from a ventilator used to control a patient's breathing, or a breathing rate information placed to monitor the patient. respiration rate information extracted from automated analysis of images received from the optical sensor.

したがって、一態様は、患者の管腔ネットワークをナビゲートするシステムであって、電磁場を発生させる発生器と、操縦可能な器具の遠位端に設けられる1組の1つまたは複数の電磁センサと、1組の1つまたは複数の呼吸センサと、実行可能な命令が記憶されている少なくとも1つのコンピュータ読み取り可能メモリと、前記少なくとも1つのコンピュータ読み取り可能メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行することで前記システムに少なくとも前記管腔ネットワークを表現する手術前モデルにアクセスすることと、前記電磁場の座標系と前記手術前モデルの座標系との間のマッピングにアクセスすることと、前記1組の電磁センサからのデータ信号を基に、前記電磁場内の前記1組の電磁センサの少なくとも1つの位置を計算することと、前記1組の呼吸センサからのデータ信号を基に、前記患者の呼吸数を計算することと、前記位置合わせマッピング、前記呼吸数、および前記電磁場内の前記1組の電磁センサの少なくとも1つの位置を基に、前記手術前モデルに対する前記操縦可能な器具の遠位端の位置を判定することと、を実行させるプロセッサと、を有するシステムに関する。 Accordingly, one aspect is a system for navigating a patient's luminal network comprising a generator for generating an electromagnetic field and a set of one or more electromagnetic sensors provided at the distal end of a steerable instrument. , a set of one or more respiratory sensors, at least one computer readable memory having executable instructions stored thereon, and one or more processors in communication with the at least one computer readable memory. executing the instructions to access at least a pre-operative model representing the luminal network in the system; and a mapping between the coordinate system of the electromagnetic field and the coordinate system of the pre-operative model. calculating the position of at least one of the set of electromagnetic sensors within the electromagnetic field based on data signals from the set of electromagnetic sensors; and based on data signals from the set of respiratory sensors. calculating the respiration rate of the patient; and determining the steerable relative to the pre-operative model based on the registration mapping, the respiration rate, and the position of at least one of the set of electromagnetic sensors within the electromagnetic field. and determining the position of the distal end of an instrument.

いくつかの実装では、前記1組の電磁センサの各電磁センサは、前記電磁センサと前記発生器との間の距離および角度を示す信号を生成し、前記電気信号は、前記電磁場内の前記電磁センサの位置および向きの1つまたは両方の判定に使用することができる。 In some implementations, each electromagnetic sensor of the set of electromagnetic sensors produces a signal indicative of the distance and angle between the electromagnetic sensor and the generator, and the electrical signal is the electromagnetic sensor within the electromagnetic field. It can be used to determine one or both of the position and orientation of the sensor.

いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに前記1組の呼吸センサからの1つまたは複数のデータ信号を前記1つまたは複数のデータ信号の周波数領域表現に変換することと、前記1つまたは複数のデータ信号の前記周波数領域表現から呼吸数を特定することを実行させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記1組の電磁センサからの1つまたは複数のデータ信号に予測フィルタを適用することであって、前記予測フィルタは前記呼吸による呼吸運動を予測する、ことと、前記予測された呼吸運動に起因する前記1つまたは複数のデータ信号の成分を除去して、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することと、を実行させる。 In some implementations, the one or more processors execute the instructions to provide the system with one or more data signals from the set of respiratory sensors, one or more of the one or more data signals. Transforming to a frequency domain representation and determining a respiration rate from the frequency domain representation of the one or more data signals are performed. In some implementations, the one or more processors execute the instructions to cause the system to apply a prediction filter to one or more data signals from at least the set of electromagnetic sensors. wherein the prediction filter predicts respiratory motion due to the respiration; and removing components of the one or more data signals attributable to the predicted respiratory motion to render the steerable relative to the preoperative model. and determining the position of the distal end of the instrument.

いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記患者の前記呼吸の吸気相と呼気相との間の前記1組の呼吸センサの少なくとも1つの変位の大きさを計算することを実行させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記1組の呼吸センサに対する前記1組の電磁センサの少なくとも1つの位置を判定することと、(1)前記1組の呼吸センサに対する前記1組の電磁センサの前記判定された少なくとも1つの位置および(2)吸気相と呼気相との間の前記1組の呼吸センサの前記少なくとも1つの変位の大きさを基に、前記吸気相と前記呼気相との間の前記1組の
電磁センサの少なくとも1つの位置の変位を計算することと、前記吸気相と前記呼気相との間の前記1組の電磁センサの前記計算された少なくとも1つの位置の変位を基に、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することとを実行させる。いくつかの実装では、前記1組の呼吸センサは、前記体表面の第1の位置に配置されて用いられている第1の追加の電磁センサと、前記体表面の第2の位置に配置されて用いられている第2の追加の電磁センサとを有し、前記吸気相と前記呼気相との間における、前記第1の追加の電磁センサの第1の変位の大きさが、前記第2の追加の電磁センサの第2の変位の大きさよりも大きくなるように、前記第2の位置が前記第1の位置から離れている。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記第1の追加の電磁センサおよび前記第2の追加の電磁センサに対する前記1組の電磁センサの相対位置を判定することと、前記1組の電磁センサの前記判定された相対位置を基に、前記第1の変位の大きさと前記第2の変位の大きさとの間の補間を行い、前記吸気相と前記呼気相との間の前記1組の電磁センサの位置の変位の前記計算は、前記補間された大きさを基に実行されることと、を実行させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記計算された少なくとも1つの変位の大きさを基に、前記手術前モデルの少なくとも1つの位置に対する移動ベクトルを推定することと、前記推定された移動ベクトルを基に、前記電磁場の前記座標系内の前記手術前モデルを翻訳することと、前記翻訳された手術前モデルを基に、前記操縦可能な器具の前記遠位端の前記位置を判定することとを実行させる。いくつかの実装では、前記電磁場の前記座標系内の前記手術前モデルを翻訳するために、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記第1の変位の大きさを基に、前記モデルの第1の部分を第1の新しい座標に移動することと、前記第2の変位の大きさを基に、前記モデルの第2の部分を第2の新しい座標に移動することと、を実行させる。
In some implementations, the one or more processors execute the instructions to instruct the system to detect at least one of the set of respiration sensors during an inspiratory phase and an expiratory phase of the respiration of the patient. Calculating the magnitude of one displacement is performed. In some implementations, the one or more processors execute the instructions to cause the system to determine the position of at least one of the set of electromagnetic sensors relative to at least the set of respiratory sensors; (1) the determined at least one position of the set of electromagnetic sensors relative to the set of respiration sensors; and (2) the at least one displacement of the set of respiration sensors between inspiratory and expiratory phases. calculating displacement of at least one position of said set of electromagnetic sensors between said inspiratory phase and said expiratory phase based on the magnitude; and determining the position of the distal end of the steerable instrument relative to the pre-operative model based on the calculated positional displacement of at least one of a set of electromagnetic sensors. In some implementations, the set of respiration sensors includes a first additional electromagnetic sensor positioned at a first location on the body surface and a first additional electromagnetic sensor employed at a second location on the body surface. and a second additional electromagnetic sensor being used as a sensor, wherein a first magnitude of displacement of said first additional electromagnetic sensor between said inspiratory phase and said expiratory phase is determined by said second The second position is spaced from the first position such that the second displacement magnitude of the additional electromagnetic sensor is greater than the second displacement magnitude. In some implementations, the one or more processors execute the instructions to instruct the system to detect at least the set of electromagnetic sensors for the first additional electromagnetic sensor and the second additional electromagnetic sensor. and interpolating between the first displacement magnitude and the second displacement magnitude based on the determined relative positions of the set of electromagnetic sensors; said calculation of the displacement of the position of said set of electromagnetic sensors between an inspiratory phase and said expiratory phase is performed based on said interpolated magnitudes. In some implementations, the one or more processors execute the instructions to instruct the system to determine at least one position of the pre-operative model based on the calculated at least one displacement magnitude. estimating a motion vector for , translating the pre-operative model in the coordinate system of the electromagnetic field based on the estimated motion vector, and based on the translated pre-operative model, the steering and determining said position of said distal end of a possible instrument. In some implementations, to translate the pre-operative model within the coordinate system of the electromagnetic field, the one or more processors execute the instructions to instruct the system to perform at least the first displacement. moving a first portion of the model to a first new coordinate based on the magnitude; and moving a second portion of the model to a second new coordinate based on the magnitude of the second displacement. and let it run.

いくつかの実装は、前記操縦可能な器具の移動を行う器具ドライバを有するロボットシステムをさらに有する。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を基に、前記操縦可能な器具の次の移動を特定することと、前記次の移動を行うよう前記器具ドライバの作動を指示することとを実行させる。いくつかの実装は、さらにディスプレイを有し、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記手術前モデルに対する前記操縦可能な器具の前記遠位端野前記位置のグラフィック表現を生成することと、前記ディスプレイに前記生成されたグラフィカル表現を表示することとを実行させる。いくつかの実装では、前記ロボットシステムは入力装置を有し、前記入力装置は、前記入力装置のユーザ操作を基に、前記操縦可能な器具の移動を制御する。 Some implementations further include a robotic system having an instrument driver that performs movement of the steerable instrument. In some implementations, the one or more processors execute the instructions to instruct the system to perform the maneuver based at least on the position of the distal end of the steerable instrument relative to the pre-operative model. Identifying a possible next movement of the instrument and directing operation of the instrument driver to perform said next movement. Some implementations further include a display, wherein the one or more processors execute the instructions to instruct the system to at least indicate the position of the distal end of the steerable instrument relative to the pre-operative model. Generating a graphical representation and displaying the generated graphical representation on the display are performed. In some implementations, the robotic system has an input device that controls movement of the steerable instrument based on user manipulation of the input device.

いくつかの実装では、前記手術前モデルは、前記患者の前記管腔ネットワークの3次元コンピュータ断層撮影モデルを有する。 In some implementations, the pre-operative model comprises a 3D computed tomography model of the luminal network of the patient.

別の態様は、患者の管腔ネットワークのナビゲーションを判定する装置であって、実行可能な命令が記憶されている少なくとも1つのコンピュータ読み取り可能メモリと、前記少なくとも1つのコンピュータ読み取り可能メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行することで前記システムに少なくとも前記管腔ネットワークを表現するモデルにアクセスすることと、前記モデルの座標系と前記管腔ネットワークの周囲に発生された電磁場の座標系との間のマッピングにアクセスすることと、前記管腔ネットワークに挿入されて用いられている操縦可能な器具の遠位端の電磁センサからデータを受信することと、前記電磁センサからのデータを基に、前記電磁センサからのデータを基にした前記電磁場内の前記電磁センサの位置を計算することと、前記管腔ネットワークの移動を検出する少なくとも1つの追加のセンサからデータを受信することと、前記少な
くとも1つの追加のセンサからのデータを基に、前記管腔ネットワークの周期的な移動の周期を計算することと、前記マッピング、前記周期、および前記電磁場内の前記電磁センサの位置を基に、前記モデルに対する前記操縦可能な器具の前記遠位端の位置を判定することとを実行させる。
Another aspect is an apparatus for determining navigation of a luminal network of a patient, comprising at least one computer readable memory having executable instructions stored thereon and in communication with said at least one computer readable memory 1 one or more processors that execute the instructions to access to the system at least a model representing the luminal network; accessing a mapping to and from a coordinate system of an electromagnetic field; receiving data from an electromagnetic sensor at the distal end of a steerable instrument being used and inserted into the luminal network; calculating the position of the electromagnetic sensor within the electromagnetic field based on data from the electromagnetic sensor, and receiving data from at least one additional sensor that detects movement of the luminal network. calculating a period of periodic movement of the luminal network based on data from the at least one additional sensor; mapping, the period, and the electromagnetic sensor within the electromagnetic field; and determining the position of the distal end of the steerable instrument relative to the model based on the position.

いくつかの実装では、前記少なくとも1つの追加のセンサは、1つまたは複数の電磁センサを有する。 In some implementations, the at least one additional sensor comprises one or more electromagnetic sensors.

いくつかの実装では、前記少なくとも1つの追加のセンサは、加速度計を有する。 In some implementations the at least one additional sensor comprises an accelerometer.

いくつかの実装では、前記少なくとも1つの追加のセンサは、音響呼吸センサを有し、前記音響呼吸センサは、患者の呼吸時の前記周期的な移動を検出する。 In some implementations, the at least one additional sensor comprises an acoustic respiration sensor, wherein the acoustic respiration sensor detects the periodic movements during patient respiration.

いくつかの実装では、前記管腔ネットワークは、呼吸気道を有し、前記1つまたは複数のプロセッサは、前記命令を実行することで前記装置に前記管腔ネットワークを通って前記操縦可能な器具を誘導することを実行させる。 In some implementations, the luminal network comprises a respiratory airway, and the one or more processors execute the instructions to cause the device to steer the steerable instrument through the luminal network. Make it do what it induces.

いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記少なくとも1つの追加のセンサからの1つまたは複数のデータ信号を、前記1つまたは複数のデータ信号の周波数領域表現に変換することと、前記1つまたは複数のデータ信号の前記周波数領域表現から周期的な移動の前記周期を特定することを実行させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記電磁センサからの1つまたは複数のデータ信号にフィルタを適用することであって、前記フィルタは前記特定された周期で前記1つまたは複数のデータ信号の一部を弱める、ことと、前記フィルタが適用された前記電磁センサからの前記1つまたは複数のデータ信号を基に、前記モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することと、を実行させる。 In some implementations, the one or more processors execute the instructions to provide the system with one or more data signals from at least the at least one additional sensor, the one or more Transforming to a frequency domain representation of a data signal and identifying the period of periodic movement from the frequency domain representation of the one or more data signals are performed. In some implementations, the one or more processors execute the instructions to cause the system to apply a filter to one or more data signals from at least the electromagnetic sensor, wherein the filter attenuates a portion of the one or more data signals at the specified period; and based on the one or more data signals from the electromagnetic sensor to which the filter is applied, for the model and determining the position of the distal end of the steerable instrument.

いくつかの実装では、前記管腔ネットワークは、呼吸気道を有し、前記1つまたは複数のプロセッサは、前記命令を実行することで少なくとも前記患者の前記呼吸の吸気相と呼気相との間の前記少なくとも1つの追加のセンサの前記少なくとも1つの変位の大きさを計算することを実行させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで少なくとも前記少なくとも1つの追加のセンサに対する前記電磁センサの位置を判定することと、(1)前記少なくとも1つの追加のセンサに対する前記電磁センサの前記判定された位置および(2)吸気相と呼気相との間の前記少なくとも1つの追加のセンサの前記少なくとも1つの変位の大きさを基に、前記吸気相と前記呼気相との間の前記電磁センサの位置の変位を計算することと、前記吸気相と前記呼気相との間の電磁センサの前記計算された位置の変位を基に、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することと、を実行させる。いくつかの実装では、前記少なくとも1つの追加のセンサは、前記体表面の第1の位置に配置されて用いられている第1の追加の電磁センサと、前記体表面の第2の位置に配置されて用いられている第2の追加の電磁センサとを有し、前記吸気相と前記呼気相との間における、前記第1の追加の電磁センサの第1の変位の大きさが、前記第2の追加の電磁センサの第2の変位の大きさよりも大きくなるように、前記第2の位置が前記第1の位置から離れている。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記第1の追加の電磁センサおよび前記第2の追加の電磁センサに対する前記電磁センサの位置を判定することと、前記電磁センサの前記判定された位置を基に、前記第1の変位の大きさと前記第2の変位の大きさとの間の補間を行うことであって、前記吸気相と前記呼気相との間の前記電磁センサの位置の変位の前記計算は、前記補間された大きさを基に実行される、ことと、を実行させる。いくつかの実装では、前記1
つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記計算された少なくとも1つの変位の大きさを基に、前記モデルの少なくとも1つの位置に対する移動ベクトルを推定することと、前記推定された移動ベクトルを基に、前記電磁場の前記座標系内の前記モデルを翻訳することと、前記翻訳されたモデルを基に、前記操縦可能な器具の前記遠位端の前記位置を判定することとを実行させる。いくつかの実装では、前記電磁場の前記座標系内の前記手術前モデルを翻訳するために、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記第1の変位の大きさを基に、前記モデルの第1の部分を第1の新しい座標に移動することと、前記第2の変位の大きさを基に、前記モデルの第2の部分を第2の新しい座標に移動することとを実行させる。
In some implementations, the luminal network comprises a respiratory airway, and the one or more processors execute the instructions to cause at least a period between inspiratory and expiratory phases of the patient's respiration. Calculating a magnitude of said at least one displacement of said at least one additional sensor is performed. In some implementations, the one or more processors execute the instructions to determine the position of the electromagnetic sensor relative to the at least one additional sensor; (1) the at least one additional sensor; and (2) the magnitude of the at least one displacement of the at least one additional sensor between the inspiratory phase and the expiratory phase. calculating a positional displacement of the electromagnetic sensor during an exhalation phase; and based on the calculated positional displacement of the electromagnetic sensor between the inspiratory phase and the expiratory phase, relative to the preoperative model. and determining the position of the distal end of the steerable instrument. In some implementations, the at least one additional sensor comprises a first additional electromagnetic sensor used positioned at a first location on the body surface and a first additional electromagnetic sensor positioned at a second location on the body surface. and a second additional electromagnetic sensor being used as a sensor, wherein a first magnitude of displacement of said first additional electromagnetic sensor between said inspiratory phase and said expiratory phase is determined by said first The second position is spaced from the first position such that the second displacement magnitude of the two additional electromagnetic sensors is greater. In some implementations, the one or more processors execute the instructions to provide the system with the position of the electromagnetic sensor relative to at least the first additional electromagnetic sensor and the second additional electromagnetic sensor. and interpolating between the first displacement magnitude and the second displacement magnitude based on the determined position of the electromagnetic sensor, wherein the inspiratory phase and the said calculation of the displacement of said electromagnetic sensor's position between exhalation phases is performed based on said interpolated magnitude. In some implementations, the 1
The one or more processors instruct the system by executing the instructions to at least estimate a motion vector for at least one position of the model based on the calculated at least one displacement magnitude; Translating the model in the coordinate system of the electromagnetic field based on the estimated motion vector and determining the position of the distal end of the steerable instrument based on the translated model. make things happen. In some implementations, to translate the pre-operative model within the coordinate system of the electromagnetic field, the one or more processors execute the instructions to instruct the system to perform at least the first displacement. moving a first portion of the model to a first new coordinate based on the magnitude; and moving a second portion of the model to a second new coordinate based on the magnitude of the second displacement. to move to and run.

別の態様は、命令が記憶されている非一時的なコンピュータ読み取り可能記憶媒体であって、前記命令が実行されると少なくとも1つの計算装置に少なくとも患者の組織部位に挿入されて用いられている器具の電磁センサからの第1のデータと、前記組織部位の移動を検出する少なくとも1つの追加のセンサからの第2のデータを受信することと、前記第1のデータを基に、前記組織部位の周囲に位置する電磁場内の電磁センサの位置を計算することと、第2のデータを基に、前記組織部位の周期的な移動の周期を計算することと、(1)前記組織部位の周期的な運動の周期および(2)前記場内の前記電磁センサの前記位置を基に、前記組織部位に対する前記器具の位置を判定することと、を実行させる非一時的なコンピュータ読み取り可能記憶媒体に関する。 Another aspect is a non-transitory computer readable storage medium having instructions stored therein for use in at least one computing device inserted into at least a tissue site of a patient when the instructions are executed. receiving first data from an electromagnetic sensor of an instrument and second data from at least one additional sensor that detects movement of the tissue site; and based on the first data, measuring the tissue site calculating a position of an electromagnetic sensor within an electromagnetic field located around a; and calculating a period of periodic movement of the tissue site based on second data; (1) a period of the tissue site and (2) determining the position of the instrument relative to the tissue site based on the period of motion and (2) the position of the electromagnetic sensor within the field.

いくつかの実装では、前記命令が実行されると前記少なくとも1つの計算装置に前記第2のデータを周波数領域表現に変換することと、前記周波数領域表現から前記周期的な移動の前記周期を特定することと、を実行させる。いくつかの実装では、前記命令が実行されると前記少なくとも1つの計算装置に前記第1のデータにフィルタを適用することであって、前記フィルタは前記特定された周期で前記第1のデータの一部を弱める、ことと、前記フィルタが適用された第1のデータを基に、前記器具の前記位置を判定することと、を実行させる。 In some implementations, execution of the instructions causes the at least one computing device to transform the second data into a frequency domain representation and determine the period of the periodic movement from the frequency domain representation. to do and to do. In some implementations, when the instructions are executed, the at least one computing device applies a filter to the first data, the filter filtering the first data at the specified periodicity. weakening a portion; and determining the position of the instrument based on the filtered first data.

いくつかの実装では、前記組織部位は呼吸気道を有し、前記命令が実行されると前記少なくとも1つの計算装置に前記患者の前記呼吸の吸気相と呼気相との間の前記少なくとも1つの追加のセンサの少なくとも1つの変位の大きさを計算することを実行させる。いくつかの実装では、前記命令が実行されると前記少なくとも1つの計算装置に前記少なくとも1つの追加のセンサに対する前記電磁センサの位置を判定することと、(1)前記少なくとも1つの追加のセンサに対する前記電磁センサの前記判定された位置および(2)吸気相と呼気相との間の前記少なくとも1つの追加のセンサの前記少なくとも1つの変位の大きさを基に、前記吸気相と前記呼気相との間の前記電磁センサの位置の変位を計算することと、前記吸気相と前記呼気相との間の電磁センサの前記計算された位置の変位を基に、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することと、を実行させる。いくつかの実装では、前記少なくとも1つの追加のセンサは、前記患者の第1の位置に配置されて用いられている第1の追加の電磁センサと、前記患者の第2の位置に配置されて用いられている第2の追加の電磁センサとを有し、前記吸気相と前記呼気相との間における、前記第1の追加の電磁センサの第1の変位の大きさが、前記第2の追加の電磁センサの第2の変位の大きさよりも大きくなるように、前記第2の位置が前記第1の位置から離れており、前記命令が実行されると前記少なくとも1つの計算装置に前記第1の追加の電磁センサおよび前記第2の追加の電磁センサに対する前記電磁センサの位置を判定することと、前記電磁センサの前記判定された位置を基に、前記第1の変位の大きさと前記第2の変位の大きさとの間の補間を行うことであって、前記吸気相と前記呼気相との間の前記電磁センサの位置の変位の前記計算は、前記補間された大きさを基に実行される、ことと、を実行させる。 In some implementations, the tissue site comprises a respiratory airway, and execution of the instructions instructs the at least one computing device to perform the at least one addition between the inspiratory and expiratory phases of the respiration of the patient. calculating the magnitude of the displacement of at least one of the sensors. In some implementations, when the instructions are executed, the at least one computing device determines the position of the electromagnetic sensor relative to the at least one additional sensor; based on the determined position of the electromagnetic sensor and (2) the magnitude of the at least one displacement of the at least one additional sensor between the inspiratory phase and the expiratory phase; and calculating the displacement of the position of the electromagnetic sensor between the inspiratory phase and the expiratory phase, based on the calculated positional displacement of the electromagnetic sensor between and determining the position of the distal end of the instrument. In some implementations, the at least one additional sensor comprises a first additional electromagnetic sensor positioned at a first location on the patient and a first additional electromagnetic sensor positioned at a second location on the patient. and a second additional electromagnetic sensor being used, wherein a first magnitude of displacement of said first additional electromagnetic sensor between said inspiratory phase and said expiratory phase is equal to said second The second position is spaced from the first position to be greater than the second displacement magnitude of the additional electromagnetic sensor, and the at least one computing device is instructed to execute the instructions. determining the position of the electromagnetic sensor relative to one additional electromagnetic sensor and the second additional electromagnetic sensor; and based on the determined position of the electromagnetic sensor, determining the magnitude of the first displacement and the first displacement. performing an interpolation between two displacement magnitudes, wherein the calculation of the displacement of the position of the electromagnetic sensor between the inspiratory phase and the expiratory phase is performed on the basis of the interpolated magnitudes. to be done.

いくつかの実装では、前記命令が実行されると前記少なくとも1つの計算装置にデータにアクセスさせることであって、前記データは前記組織部位のトポグラフィを表現するモデルと、前記場の座標系と前記モデルの座標系との間のマッピングと、を表現し、前記器具の前記位置の判定は、前記マッピング、前記周期、および前記場内の前記電磁センサの前記位置を基に実行される。いくつかの実装では、前記組織部位は呼吸気道を有し、前記命令が実行されると前記少なくとも1つの計算装置に前記患者の前記呼吸の吸気相と呼気相との間の前記少なくとも1つの追加のセンサの少なくとも1つの変位の大きさを計算することと、前記計算された少なくとも1つの変位の大きさを基に、前記モデルの少なくとも1つの位置に対する移動ベクトルを推定することと、前記推定された移動ベクトルを基に、座標系内の前記モデルを翻訳することと、前記翻訳されたモデルを基に、前記器具の前記位置を判定することと、を実行させる。いくつかの実装では、前記電磁場の前記座標系内の前記手術前モデルを翻訳するために、前記命令が実行されると前記少なくとも1つの計算装置に前記第1の変位の大きさを基に、前記モデルの第1の部分を第1の新しい座標に移動することと、前記第2の変位の大きさを基に、前記モデルの第2の部分を第2の新しい座標に移動することと、を実行させる。 In some implementations, execution of the instructions causes the at least one computing device to access data, the data being a model representing a topography of the tissue site, a coordinate system of the field and the and a mapping to and from a coordinate system of a model, wherein the determination of the position of the instrument is performed based on the mapping, the period, and the position of the electromagnetic sensor within the field. In some implementations, the tissue site comprises a respiratory airway, and execution of the instructions instructs the at least one computing device to perform the at least one addition between the inspiratory and expiratory phases of the respiration of the patient. calculating a magnitude of at least one displacement of the sensor of; estimating a motion vector for at least one position of the model based on the calculated at least one magnitude of displacement; Translating the model in a coordinate system based on the obtained motion vector; and Determining the position of the instrument based on the translated model. In some implementations, to translate the pre-operative model within the coordinate system of the electromagnetic field, upon execution of the instructions, instruct the at least one computing device, based on the magnitude of the first displacement, to: moving a first portion of the model to a first new coordinate; moving a second portion of the model to a second new coordinate based on the magnitude of the second displacement; to run.

別の態様は、患者の組織部位に挿入されて用いられている器具の第1のセンサからの第1のデータと、前記組織部位の移動を検出する少なくとも1つの追加のセンサからの第2のデータを受信することと、前記第1のデータを基に、前記組織部位の周囲の体積内の前記第1のセンサの位置を計算することと、第2のデータを基に、前記組織部位の周期的な移動の周期を計算することと、前記周期および前記体積内の前記第1のセンサの前記位置を基に、前記組織部位に対する前記器具の位置を判定することと、を含む方法に関する。 Another aspect provides first data from a first sensor of an instrument being used inserted into a tissue site of a patient and second data from at least one additional sensor that detects movement of the tissue site. receiving data; calculating a position of the first sensor within a volume around the tissue site based on the first data; and determining a position of the tissue site based on second data. and determining the position of the instrument relative to the tissue site based on the period and the position of the first sensor within the volume.

いくつかの実装は、1つまたは複数のハードウェアプロセッサによって実行される。 Some implementations are performed by one or more hardware processors.

いくつかの実装は、前記第2のデータを周波数領域表現に変換することと、前記周波数領域表現から前記周期的な移動の前記周期を特定することと、をさらに含む。 Some implementations further include transforming the second data to a frequency domain representation and identifying the period of the periodic movement from the frequency domain representation.

いくつかの実装は、前記第1のデータにフィルタを適用することであって、前記フィルタは前記特定された周期で前記第1のデータの一部を弱める、ことと、前記フィルタが適用された第1のデータを基に、前記器具の前記位置を判定することと、
をさらに含む。
Some implementations are applying a filter to the first data, the filter weakening a portion of the first data at the specified period; determining the position of the instrument based on the first data;
further includes

いくつかの実装では、前記組織部位は呼吸気道を有し、前記方法は、前記患者の前記呼吸の吸気相と呼気相との間の前記少なくとも1つの追加のセンサの少なくとも1つの変位の大きさを計算することをさらに含む。いくつかの実装は、前記少なくとも1つの追加のセンサに対する前記第1のセンサの位置を判定することと、(1)前記少なくとも1つの追加のセンサに対する前記第1のセンサの前記判定された位置および(2)吸気相と呼気相との間の前記少なくとも1つの追加のセンサの前記少なくとも1つの変位の大きさを基に、前記吸気相と前記呼気相との間の前記第1のセンサの位置の変位を計算することと、前記吸気相と前記呼気相との間の第1のセンサの前記計算された位置の変位を基に、前記器具の前記位置を判定することと、をさらに含む。いくつかの実装では、前記少なくとも1つの追加のセンサは、前記患者の第1の位置に配置されて用いられている第1の追加のセンサと、前記患者の第2の位置に配置されて用いられている第2の追加のセンサとを有し、前記吸気相と前記呼気相との間における、前記第1の追加のセンサの第1の変位の大きさが、前記第2の追加のセンサの第2の変位の大きさよりも大きくなるように、前記第2の位置が前記第1の位置から離れており、前記方法は前記第1の追加のセンサおよび前記第2の追加のセンサに対する前記第1のセンサの位置を判定することと、前記第1のセンサの前記判定された位置を基に、前記第1の変位の大きさと前記第2の変位の大きさと
の間の補間を行うことであって、前記吸気相と前記呼気相との間の前記第1のセンサの位置の変位の前記計算は、前記補間された大きさを基に実行される、ことと、をさらに含む。いくつかの実装は、データにアクセスすることをさらに含み、前記データは前記組織部位のトポグラフィを表現するモデルと、前記場の座標系と前記モデルの座標系との間のマッピングと、を表現し、前記方法は、前記マッピング、前記周期、および前記場内の前記電磁センサの前記位置を基に、前記器具の前記位置を判定することをさらに含む。いくつかの実装では、前記組織部位は呼吸気道を有し、前記方法は前記患者の前記呼吸の吸気相と呼気相との間の前記少なくとも1つの追加のセンサの少なくとも1つの変位の大きさを計算することと、前記計算された少なくとも1つの変位の大きさを基に、前記モデルの少なくとも1つの位置に対する移動ベクトルを推定することと、前記推定された移動ベクトルを基に、座標系内の前記モデルを翻訳することと、前記翻訳されたモデルを基に、前記器具の前記位置を判定することと、をさらに含む。いくつかの実装は、前記座標系内の前記モデルを翻訳することであって、前記第1の変位の大きさを基に、前記モデルの第1の部分を第1の新しい座標に移動することと、前記第2の変位の大きさを基に、前記モデルの第2の部分を第2の新しい座標に移動することと、に基づいて前記モデルを翻訳すること、をさらに含む。
In some implementations, the tissue site comprises a respiratory airway, and the method comprises measuring a magnitude of at least one displacement of the at least one additional sensor between an inspiratory phase and an expiratory phase of the respiration of the patient. further comprising calculating Some implementations comprise determining a position of the first sensor relative to the at least one additional sensor; (1) the determined position of the first sensor relative to the at least one additional sensor; (2) the position of the first sensor during the inspiratory phase and the expiratory phase based on the magnitude of the at least one displacement of the at least one additional sensor between the inspiratory and expiratory phases; and determining the position of the device based on the calculated positional displacement of the first sensor between the inspiratory phase and the expiratory phase. In some implementations, the at least one additional sensor comprises a first additional sensor positioned and used at a first location on the patient and a first additional sensor positioned and used at a second location on the patient. wherein a first displacement magnitude of said first additional sensor between said inspiratory phase and said expiratory phase is determined by said second additional sensor wherein the second position is spaced from the first position to be greater than a second displacement magnitude of the method, wherein the method comprises: for the first additional sensor and the second additional sensor Determining a position of a first sensor and interpolating between the first displacement magnitude and the second displacement magnitude based on the determined position of the first sensor. and wherein the calculation of the displacement of the position of the first sensor between the inspiratory phase and the expiratory phase is performed based on the interpolated magnitude. Some implementations further include accessing data, the data representing a model representing the topography of the tissue site and a mapping between the field coordinate system and the model coordinate system. , the method further includes determining the position of the instrument based on the mapping, the period, and the position of the electromagnetic sensor within the field. In some implementations, the tissue site comprises a respiratory airway, and the method determines a magnitude of at least one displacement of the at least one additional sensor between an inspiratory phase and an expiratory phase of the respiration of the patient. estimating a motion vector for at least one position of the model based on the calculated at least one displacement magnitude; and based on the estimated motion vector, a coordinate system Further comprising translating the model and determining the position of the instrument based on the translated model. Some implementations are translating the model within the coordinate system, moving a first portion of the model to a first new coordinate based on the magnitude of the first displacement. and moving a second portion of the model to a second new coordinate based on the magnitude of the second displacement; and translating the model based on.

別の態様は、患者の管腔ネットワークをナビゲートするシステムであって、電磁場を発生させる発生器と、操縦可能な器具の遠位端に設けられる1組の1つまたは複数の電磁センサと、少なくとも1つの呼吸センサと、実行可能な命令が記憶されている少なくとも1つのコンピュータ読み取り可能メモリと、前記少なくとも1つのコンピュータ読み取り可能メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行することで前記システムに少なくとも前記管腔ネットワークを表現する手術前モデルにアクセスすることと、前記電磁場の座標系と前記手術前モデルの座標系との間のマッピングにアクセスすることと、前記1組の電磁センサからのデータ信号を基に、前記電磁場内の前記1組の電磁センサの1つの位置を計算することと、前記マッピングおよび前記電磁場内の前記1組の電磁センサの前記1つの位置を基に、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の位置を判定することと、前記少なくとも1つの呼吸センサからのデータを基に、前記1組の電磁センサからの前記データ信号の取得時における前記患者の呼吸相が、吸気相または呼気相のいずれに対応するかを判定することと、前記モデルおよび前記呼吸相に対する前記操縦可能な器具の前記遠位端の前記位置を基に、前記操縦可能な器具の次の移動に対して安全モードを作動させるか否かを判定することと、を実行させるプロセッサと、を有するシステムに関する。 Another aspect is a system for navigating a patient's luminal network comprising: a generator for generating an electromagnetic field; a set of one or more electromagnetic sensors provided at the distal end of a steerable instrument; at least one respiration sensor, at least one computer readable memory having executable instructions stored thereon, and one or more processors in communication with the at least one computer readable memory to execute the instructions. accessing the system with at least a pre-operative model representing the luminal network; accessing a mapping between the coordinate system of the electromagnetic field and the coordinate system of the pre-operative model; calculating the position of one of the set of electromagnetic sensors within the electromagnetic field based on the data signals from the electromagnetic sensors of the mapping and the position of the set of electromagnetic sensors within the electromagnetic field determining the position of the distal end of the steerable instrument relative to the pre-operative model; and determining the data signals from the set of electromagnetic sensors based on data from the at least one respiratory sensor. determining whether the respiratory phase of the patient at the time of acquisition corresponds to an inspiratory phase or an expiratory phase; and based on the position of the distal end of the steerable instrument relative to the model and the respiratory phase. and determining whether to activate a safe mode for subsequent movement of the steerable instrument.

いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに前記安全モードを作動させ、前記安全モードにおいて、前記システムに前記呼吸相の前記次の移動の同期の誘導を行う1つまたは複数の安全機能を実装させる。 In some implementations, the one or more processors execute the instructions to cause the system to enter the safe mode, and in the safe mode, cause the system to synchronize the next movement of the respiratory phase. implement one or more safety features that induce

いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに目標の組織部位までの前記管腔ネットワークのナビゲーション経路に関する情報にアクセスすることと、前記ナビゲーション経路および前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を基に、前記操縦可能な器具の前記遠位端が前記管腔ネットワークのあらかじめ定義された安全領域内に配置されて用いられていることを特定することと、前記操縦可能な器具が前記あらかじめ定義された安全領域内に配置されていることの判定を基に、前記安全モードを作動させることと、を実行させる。いくつかの実装では、前記ナビゲーション経路は複数の領域を含み、前記安全領域は、気道の直径と前記操縦可能な器具の前記遠位端の直径との差が所定値未満となる、前記管腔ネットワークの一部に配置されている。 In some implementations, the one or more processors execute the instructions to cause the system to access information regarding a navigational path of the luminal network to a target tissue site; Using the position of the distal end of the steerable instrument relative to the pre-operative model, the distal end of the steerable instrument is positioned within a predefined safe area of the luminal network. and activating the safe mode based on determining that the steerable instrument is located within the predefined safe area. In some implementations, the navigation path includes multiple regions, wherein the safe region is the lumen where the difference between the diameter of the airway and the diameter of the distal end of the steerable instrument is less than a predetermined value. Deployed as part of a network.

いくつかの実装では、前記安全モードにおいて、前記1つまたは複数のプロセッサは、
前記命令を実行することで前記システムに前記呼吸相を表す情報をユーザに出力させる。
In some implementations, in the secure mode, the one or more processors:
Execution of the instructions causes the system to output information indicative of the respiratory phase to a user.

いくつかの実装では、前記システムはロボットシステムをさらに有し、前記ロボットシステムはディスプレイと、入力装置であって、前記入力装置のユーザ操作に応じて前記操縦可能な器具の移動を制御する信号を生成する入力装置と、前記入力装置からの前記信号を基に、前記操縦可能な器具の移動を行う器具ドライバと、を有する。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記安全モードの作動に応じて、前記患者の前記呼吸の呼気相時に前記器具ドライバの作動を抑止させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記入力装置のユーザ操作を基に、試行された前記器具ドライバの作動を無効にすることで、前記器具ドライバの前記作動を抑止させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記ディスプレイに表示可能な、前記呼吸の吸気相と呼気相のグラフィック表現を出力させる。 In some implementations, the system further comprises a robotic system, the robotic system being a display and an input device for transmitting signals to control movement of the steerable instrument in response to user manipulation of the input device. An input device for generating and an instrument driver for effecting movement of the steerable instrument based on the signal from the input device. In some implementations, the one or more processors execute the instructions to instruct the system to activate the instrument driver during the exhalation phase of the patient's respiration in response to activation of the safe mode. deter. In some implementations, the one or more processors execute the instructions to instruct the system to override the attempted actuation of the instrument driver based on user manipulation of the input device. , inhibiting said actuation of said instrument driver. In some implementations, the one or more processors execute the instructions to cause the system to output graphical representations of the inspiratory and expiratory phases of the breath that can be displayed on the display.

いくつかの実装では、前記手術前モデルは、前記患者の前記管腔ネットワークの3次元コンピュータ断層撮影モデルを含む。 In some implementations, the pre-operative model comprises a 3D computed tomography model of the luminal network of the patient.

別の態様は、患者の管腔ネットワークのナビゲーションを誘導する装置であって、実行可能な命令が記憶されている少なくとも1つのコンピュータ読み取り可能メモリと、前記少なくとも1つのコンピュータ読み取り可能メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行することで前記装置に少なくともデータにアクセスすることであって、前記データは前記管腔ネットワーク表現するモデルと、前記モデルの座標系と前記管腔ネットワークの周囲に発生された電磁場の座標系との間のマッピングと、前記管腔ネットワークに挿入されて用いられている操縦可能な器具の遠位端の電磁センサからの信号と、前記管腔ネットワークの移動を検出する少なくとも1つの追加のセンサからの信号と、に対応する、データにアクセスすることと、前記電磁センサからの前記信号に対応する前記データを基に、前記電磁場内の前記電磁センサの位置を計算することと、前記モデルに対する前記操縦可能な器具の前記遠位端の前記位置を基に、前記操縦可能な器具の次の移動を計算することと、前記少なくとも1つの追加のセンサからの前記信号に対応する前記データを基に、前記第1のセンサからの前記信号の取得時における前記患者の呼吸相が、吸気相または呼気相のいずれに対応するかを判定することと、前記呼吸相を基に、前記操縦可能な器具の前記次の移動に対して安全モードを作動させるか否かを判定することと、を実行させる装置に関する。 Another aspect is an apparatus for guiding navigation of a luminal network of a patient, comprising at least one computer readable memory having executable instructions stored thereon and in communication with said at least one computer readable memory 1 One or more processors that access at least data to the device by executing the instructions, the data being a model representing the luminal network, a coordinate system of the model and the luminal a mapping between a coordinate system of an electromagnetic field generated around a network, a signal from an electromagnetic sensor at the distal end of a steerable instrument used and inserted into said luminal network, and said luminal network; and accessing data corresponding to the signals from at least one additional sensor detecting movement of the electromagnetic sensor within the electromagnetic field based on the data corresponding to the signal from the electromagnetic sensor calculating the position of the steerable instrument based on the position of the distal end of the steerable instrument relative to the model; calculating the next movement of the steerable instrument based on the position of the distal end of the steerable instrument relative to the model; determining whether the patient's respiratory phase at the time of acquisition of the signal from the first sensor corresponds to an inspiratory phase or an expiratory phase, based on the data corresponding to the signal from determining whether to activate a safety mode for the next movement of the steerable instrument based on the respiratory phase.

いくつかの実装では、前記少なくとも1つの追加のセンサは、1つまたは複数の電磁センサを有する。 In some implementations, the at least one additional sensor comprises one or more electromagnetic sensors.

いくつかの実装では、前記少なくとも1つの追加のセンサは、加速度計を有する。 In some implementations the at least one additional sensor comprises an accelerometer.

いくつかの実装では、前記少なくとも1つの追加のセンサは、音響呼吸センサを有し、前記音響呼吸センサは、患者の呼吸時の前記周期的な移動を検出する。 In some implementations, the at least one additional sensor comprises an acoustic respiration sensor, wherein the acoustic respiration sensor detects the periodic movements during patient respiration.

いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記安全モードを作動させ、前記安全モードにおいて、前記システムに前記呼吸相の前記次の移動の同期の誘導を行う1つまたは複数の安全機能を実装させる。 In some implementations, the one or more processors execute the instructions to cause the system to enter the safe mode and, in the safe mode, instruct the system to perform the next shift of the respiratory phase. Implement one or more safety features that induce synchronization.

いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに目標の組織部位までの前記管腔ネットワークのナビゲーション経路に関する情報にアクセスすることと、前記ナビゲーション経路および前記手術前モデルに対する
前記操縦可能な器具の前記遠位端の前記位置を基に、前記操縦可能な器具の前記遠位端が前記管腔ネットワークのあらかじめ定義された安全領域内に配置されて用いられていることを特定することと、前記操縦可能な器具が前記あらかじめ定義された安全領域内に配置されていることの判定を基に、前記安全モードを作動させることと、を実行させる。いくつかの実装では、前記ナビゲーション経路は複数の領域を含み、前記安全領域は、気道の直径と前記操縦可能な器具の前記遠位端の直径との差が所定値未満となる、前記管腔ネットワークの一部に配置されている。いくつかの実装では、前記安全モードにおいて、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに前記呼吸相を表す情報をユーザに出力させる。
In some implementations, the one or more processors execute the instructions to cause the system to access information regarding a navigational path of the luminal network to a target tissue site; Using the position of the distal end of the steerable instrument relative to the pre-operative model, the distal end of the steerable instrument is positioned within a predefined safe area of the luminal network. and activating the safe mode based on determining that the steerable instrument is located within the predefined safe area. In some implementations, the navigation path includes multiple regions, wherein the safe region is the lumen where the difference between the diameter of the airway and the diameter of the distal end of the steerable instrument is less than a predetermined value. Deployed as part of a network. In some implementations, in the safe mode, the one or more processors execute the instructions to cause the system to output information indicative of the respiratory phase to a user.

いくつかの実装は、ロボットシステムをさらに有し、前記ロボットシステムはディスプレイと、入力装置であって、前記入力装置のユーザ操作に応じて前記操縦可能な器具の移動を制御する信号を生成する入力装置と、前記入力装置からの前記信号を基に、前記操縦可能な器具の移動を行う器具ドライバとを有する。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記安全モードの作動に応じて、前記患者の前記呼吸の1つまたは複数の呼気相時に前記器具ドライバの作動を抑止させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記入力装置のユーザ操作を基に、試行された前記器具ドライバの作動を無効にすることで、前記器具ドライバの前記作動を抑止させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記ディスプレイに表示可能な、前記呼吸の吸気相と呼気相のグラフィック表現を出力させる。 Some implementations further comprise a robotic system, wherein the robotic system is a display and an input device that generates signals that control movement of the steerable instrument in response to user manipulation of the input device. and an instrument driver that effects movement of the steerable instrument based on the signal from the input device. In some implementations, the one or more processors execute the instructions to instruct the system, in response to activation of the safe mode, during one or more exhalation phases of the breathing of the patient. Inhibit the operation of the instrument driver. In some implementations, the one or more processors execute the instructions to instruct the system to override the attempted actuation of the instrument driver based on user manipulation of the input device. , inhibiting said actuation of said instrument driver. In some implementations, the one or more processors execute the instructions to cause the system to output graphical representations of the inspiratory and expiratory phases of the breath that can be displayed on the display.

別の態様は、命令が記憶されている非一時的なコンピュータ読み取り可能記憶媒体であって、前記命令が実行されると装置のプロセッサに少なくとも患者の管腔ネットワークに挿入されて用いられている器具の第1のセンサからの第1のデータと、前記管腔ネットワークの移動を検出する少なくとも1つの追加のセンサからの第2のデータを受信することと、前記第1のデータを基に、前記組織部位の周囲に位置する場内の前記第1のセンサの位置を計算することと、前記第2のデータを基に、前記第1のセンサからの前記第1のデータの取得時における前記患者の呼吸相が、吸気相または呼気相のいずれに対応するかを判定することと、前記マッピングおよび前記場内の前記第1のセンサの前記位置を基に、前記器具の位置を判定することと、前記器具の前記位置および前記呼吸相を基に、安全モードを作動させるか否かを判定することと、を実行させる非一時的なコンピュータ読み取り可能記憶媒体に関する。 Another aspect is a non-transitory computer readable storage medium having instructions stored thereon, the instrument being used inserted into at least a patient's luminal network in a processor of a device when the instructions are executed. receiving first data from a first sensor of and second data from at least one additional sensor that detects movement of said luminal network; and based on said first data, said calculating the position of the first sensor within a field located around a tissue site; and based on the second data, the patient's position at the time of acquisition of the first data from the first sensor. determining whether a respiratory phase corresponds to an inspiratory phase or an expiratory phase; determining a position of the device based on the mapping and the position of the first sensor within the field; Determining whether to activate a safety mode based on the position of the device and the respiratory phase.

いくつかの実装では、前記命令が実行されると前記プロセッサに少なくとも、前記少なくとも1つの追加のセンサから画像データを受信することと、前記画像データを基に、前記呼吸相が前記吸気相または前記呼気相のいずれに対応するかを判定することとを実行させる。 In some implementations, when the instructions are executed, at least the processor receives image data from the at least one additional sensor; and based on the image data, determines whether the respiratory phase is the inspiratory phase or the and determining which of the expiratory phases corresponds to.

いくつかの実装では、前記命令が実行されると前記プロセッサに少なくとも、前記少なくとも1つの追加のセンサから加速度計データを受信することと、前記加速度計データが示す移動方向を基に、前記呼吸相が前記吸気相または前記呼気相のいずれに対応するかを判定することとを実行させる。 In some implementations, when the instructions are executed, the processor at least receives accelerometer data from the at least one additional sensor; corresponds to said inspiratory phase or said expiratory phase.

いくつかの実装では、前記命令が実行されると前記プロセッサに、(1)前記管腔ネットワークのトポグラフィを表現するモデルに対応するデータおよび(2)前記場の座標系と前記モデルの座標系との間のマッピングとに対応するデータにアクセスすることを実行させ、前記器具の前記位置を判定することは、前記マッピングおよび前記場内の前記第1のセンサの前記位置を基に、前記モデルに対する前記器具の位置を判定することを含む。 In some implementations, when the instructions are executed, the processor is provided with (1) data corresponding to a model representing the topography of the luminal network and (2) a coordinate system of the field and a coordinate system of the model. and determining the position of the instrument relative to the model based on the mapping and the position of the first sensor within the field. Including determining the position of the instrument.

いくつかの実装では、前記命令が実行されると前記プロセッサに少なくとも、前記安全モードを作動させ、前記安全モードにおいて、前記プロセッサに前記呼吸相の次の移動の同期の誘導を行う1つまたは複数の安全機能を実装させることを実行させる。 In some implementations, one or more of, upon execution of the instructions, causing the processor to at least activate the safe mode and, in the safe mode, to induce the processor to synchronize the next movement of the respiratory phase. implementation of safety functions.

いくつかの実装では、前記命令が実行されると前記プロセッサに少なくとも目標の組織部位までの前記管腔ネットワークのナビゲーション経路に関する情報にアクセスすることと、前記ナビゲーション経路および前記器具の前記位置を基に、前記器具が前記管腔ネットワークのあらかじめ定義された安全領域内に配置されて用いられていることを特定することと、前記器具が前記あらかじめ定義された安全領域内に配置されていることの判定を基に、前記安全モードを作動させることと、を実行させる。いくつかの実装では、前記ナビゲーション経路は複数の領域を含み、前記安全領域は、気道の直径と前記操縦可能な器具の前記遠位端の直径との差が所定値未満となる、前記管腔ネットワークの一部に配置されている。 In some implementations, when the instructions are executed, the processor accesses information regarding at least a navigational path of the luminal network to a target tissue site; , identifying that the instrument is being used placed within a predefined safe area of the lumen network; and determining that the instrument is located within the predefined safe area. activating the safe mode based on . In some implementations, the navigation path includes multiple regions, wherein the safe region is the lumen where the difference between the diameter of the airway and the diameter of the distal end of the steerable instrument is less than a predetermined value. Deployed as part of a network.

いくつかの実装では、前記命令が実行されると前記プロセッサに少なくとも、前記安全モードを作動させる判定に応じて、前記呼吸相を表す情報をユーザに出力させることを実行させる。 In some implementations, execution of the instructions causes the processor to at least output information indicative of the respiratory phase to a user in response to a determination to activate the safe mode.

いくつかの実装では、前記命令が実行されると前記プロセッサに少なくとも、前記安全モードを作動させる判定に応じて、前記患者の前記呼吸の呼気相時にロボット器具ドライバの作動を抑止させることであって、前記ロボット器具ドライバは、前記管腔ネットワークを通って前記器具の移動を行う、ことを実行させる。 In some implementations, execution of the instructions causes the processor to at least inhibit activation of a robotic instrument driver during the exhalation phase of the patient's respiration in response to a determination to activate the safe mode. and the robotic instrument driver performs movement of the instrument through the luminal network.

別の態様は、患者の管腔ネットワークに挿入されて用いられている器具の第1のセンサからの第1のデータと、前記管腔ネットワークの移動を検出する少なくとも1つの追加のセンサからの第2のデータを受信することと、前記第1のデータを基に、前記組織部位の周囲に位置する場内の前記第1のセンサの位置を計算することと、前記第2のデータを基に、前記第1のセンサからの前記第1のデータの取得時における前記患者の呼吸相が、吸気相または呼気相のいずれに対応するかを判定することと、前記場内の前記第1のセンサの前記位置を基に、前記器具の位置を判定することと、前記位置を基に、前記器具の次の移動を判定することと、前記呼吸相を基に、前記次の移動に対して安全モードを作動させるか否かを判定することと、を含む方法に関する。 Another aspect provides first data from a first sensor of an instrument being used inserted into a patient's luminal network and second data from at least one additional sensor that detects movement of the luminal network. receiving data from 2; calculating, based on the first data, the position of the first sensor within a field located around the tissue site; and based on the second data, determining whether the respiratory phase of the patient at the time of acquisition of the first data from the first sensor corresponds to an inspiratory phase or an expiratory phase; determining a position of the device based on the position; determining a next movement of the device based on the position; and activating a safe mode for the next movement based on the respiratory phase. determining whether to activate.

いくつかの実装は、1つまたは複数のハードウェアプロセッサによって実行される。 Some implementations are performed by one or more hardware processors.

いくつかの実装は、前記安全モードを作動させることと、前記安全モードにおいて、前記呼吸相の前記次の移動の同期の誘導を行う1つまたは複数の安全機能を実装することと、をさらに含む。 Some implementations further include activating the safety mode and implementing one or more safety features in the safety mode to induce synchronization of the subsequent movement of the respiratory phase. .

いくつかの実装は、(1)前記管腔ネットワークのトポグラフィを表現するモデルに対応するデータおよび(2)前記場の座標系と前記モデルの座標系との間のマッピングとに対応するデータにアクセスすることをさらに含み、前記器具の前記位置を判定することは、前記マッピングおよび前記場内の前記第1のセンサの前記位置を基に、前記モデルに対する前記器具の位置を判定することを含む。 Some implementations access data corresponding to (1) a model representing the luminal network topography and (2) a mapping between the field coordinate system and the model coordinate system. and determining the position of the instrument includes determining the position of the instrument relative to the model based on the mapping and the position of the first sensor within the field.

いくつかの実装は、目標の組織部位までの前記管腔ネットワークのナビゲーション経路に関する情報にアクセスすることと、前記ナビゲーション経路および前記器具の前記位置を基に、前記器具が前記管腔ネットワークのあらかじめ定義された安全領域内に配置されて用いられていることを特定することと、前記器具が前記あらかじめ定義された安全領域
内に配置されていることの判定を基に、前記安全モードを作動させることと、をさらに含む。
Some implementations include: accessing information regarding a navigational path of the luminal network to a target tissue site; identifying that the instrument is positioned within a defined safe area and being used; and activating the safe mode based on determining that the instrument is positioned within the predefined safe area. and further including.

いくつかの実装は、前記安全モードを作動させる判定に応じて、前記呼吸相を表す情報をユーザに出力させることをさらに含む。 Some implementations further include having a user output information representative of the respiratory phase in response to a determination to activate the safe mode.

いくつかの実装は、前記安全モードを作動させる判定に応じて、前記患者の前記呼吸の呼気相時にロボット器具ドライバの作動を抑止させることであって、前記ロボット器具ドライバは、前記管腔ネットワークを通って前記器具の移動を行う、ことをさらに含む。いくつかの実装では、前記ロボット器具ドライバの作動を抑止することは、前記呼気相時またはその後の呼気相時の前記次の移動を実行するユーザ入力を無効にすることを含む。 Some implementations are responsive to a decision to activate the safe mode to inhibit activation of a robotic instrument driver during the exhalation phase of the patient's respiration, wherein the robotic instrument driver activates the luminal network. further comprising moving the instrument through. In some implementations, inhibiting actuation of the robotic instrument driver includes disabling user input to perform the next movement during the exhalation phase or a subsequent exhalation phase.

本件開示の態様について、添付の図面および表と共に以下に説明するが、例示であって開示の態様を限定するものではなく、同様の構成要素には同様の名称を付す。 Aspects of the present disclosure are described below in conjunction with the accompanying drawings and tables, which are illustrative and not limiting of aspects of the disclosure, and like components are labeled with like names.

開示のナビゲーションシステムおよび手法を実装する操作環境例を示す図である。1 illustrates an example operating environment for implementing the disclosed navigation system and techniques; FIG. 図1Aの環境においてナビゲートされる管腔ネットワーク例を示す図である。1B illustrates an example lumen network navigated in the environment of FIG. 1A; FIG. 図1Bの管腔ネットワーク内を通って器具の移動を誘導するロボットアーム例を示す図である。1B illustrates an example robotic arm guiding movement of an instrument through the luminal network of FIG. 1B. FIG. 一実施形態に係る手術ロボットシステム例のコマンドコンソール例を示す図である。FIG. 12 illustrates an example command console of an example surgical robotic system, according to one embodiment. 本件開示の画像生成機能およびEM検知機能を有する内視鏡例を示す図である。1 illustrates an example endoscope having image generation and EM sensing capabilities of the present disclosure; FIG. 本件開示のナビゲーションシステムの概略ブロック図を示す図である。1 shows a schematic block diagram of a navigation system of the present disclosure; FIG. 本件開示の器具位置推定結果から管腔ネットワークの移動に起因するノイズにフィルタを適用する処理例のフローチャートを示す図である。FIG. 10 is a flowchart of an example process for filtering noise caused by luminal network movement from instrument position estimation results of the present disclosure; 図5の調整ブロックに使用することが可能な種々の処理例のフローチャートを示す図である。FIG. 6 shows a flowchart of various example processes that may be used in the adjustment block of FIG. 5; 図5の調整ブロックに使用することが可能な種々の処理例のフローチャートを示す図である。FIG. 6 shows a flowchart of various example processes that may be used in the adjustment block of FIG. 5; 図5の調整ブロックに使用することが可能な種々の処理例のフローチャートを示す図である。FIG. 6 shows a flowchart of various example processes that may be used in the adjustment block of FIG. 5; 本件開示の管腔ネットワークのナビゲーション時における安全モードを有効にする処理例のフローチャートを示す図である。FIG. 10 is a flowchart of an example process for enabling safe mode when navigating a luminal network of the present disclosure; 本件開示の安全モードにおける管腔ネットワークのナビゲーション時にユーザに提示可能なユーザインタフェース例を示す図である。[0014] Fig. 4 illustrates an example user interface that may be presented to a user when navigating a lumenal network in the secure mode of the present disclosure; 本件開示の安全モードにおける管腔ネットワークのナビゲーション時にユーザに提示可能なユーザインタフェース例を示す図である。[0014] Fig. 4 illustrates an example user interface that may be presented to a user when navigating a lumenal network in the secure mode of the present disclosure;

開示の実施形態は、複数のナビゲーション関連のデータ源を分析して肺気道などの管腔ネットワーク内の医療器具の位置や向きの推定精度を高めること、器具の一データにフィルタを適用して管腔ネットワークの周期運動からのノイズを除去すること、および/または当該周期運動を基にナビゲーション制御を調整する呼吸同期やその他の種類の安全機能を作動させることによって、管腔ネットワークにおけるナビゲーションを支援するシステムおよび手法に関する。 Disclosed embodiments analyze multiple navigation-related data sources to refine the estimation of the position and orientation of a medical device in a luminal network, such as a lung airway, and apply a filter to one data of the device to Assist navigation in the luminal network by removing noise from periodic motion of the luminal network and/or activating respiratory gating or other types of safety features that adjust navigation control based on the cyclic motion Regarding systems and methods.

気管支鏡は、施術者が患者の気管や気道を調べることができるように光源と小型カメラを含むことができる。患者の気道内における気管支鏡の正確な位置が不明であると、患者に対する外傷が発生する可能性がある。気管支鏡の位置を特定するために、画像ベースの気管支鏡誘導システムでは、気管支鏡のカメラからのデータを用いて患者の気道の分岐における位置合わせ(例えば、管腔ネットワーク内の特定位置における位置合わせ)を行うことができ、患者の呼吸運動に起因した位置誤差の影響を受けにくく有利である。しかしながら、画像ベースの誘導方法は、気管支鏡の映像に頼るため、患者の咳や粘液による阻害などによって、気管支鏡の映像が映像内のアーチファクトの影響を受ける可能性がある。 A bronchoscope can include a light source and a miniature camera to allow the practitioner to examine the patient's trachea and airways. Not knowing the exact position of the bronchoscope within the patient's airway can result in trauma to the patient. To locate the bronchoscope, image-based bronchoscope guidance systems use data from the bronchoscope's camera to register at bifurcations of the patient's airways (e.g., at specific locations within the luminal network). ), which is advantageously less susceptible to position errors due to patient respiratory motion. However, because image-based guidance methods rely on bronchoscope images, the bronchoscope images can be affected by artifacts in the images, such as patient coughing and mucus blockages.

電磁ナビゲーション誘導の気管支鏡検査(EMN気管支鏡検査)は、電磁気(EM)技術を実装して、肺の気道内における内視鏡器具やカテーテルの位置特定や誘導を行う、気管支鏡手技の一種である。EMN気管支検査システムは、低強度の可変の電磁場を発生して患者の管腔ネットワーク周辺の追跡対象の部位の位置を確立する電磁場発生器を用いることができる。電磁場は、荷電した物体によって生成される物理的な場であり、電磁場の近傍にある荷電した物体に影響を及ぼす。発生した場内に位置する物体に取り付けられた電磁センサを用いて、電磁場内のこれらの物体の位置および向きを追跡することができる。変化する電磁場によって電磁センサ内に小さい電流が誘起される。これらの電気信号の特性は、センサと電磁場発生器との間の距離や角度に依存する。したがって、EMN気管支鏡検査システムは、電磁場発生器、先端あるいはその近傍に電磁センサを有する操作可能なチャネル、誘導コンピュータシステムを有することができる。電磁場発生器は、例えば気道、胃腸管、循環経路など、ナビゲーションを行う患者の管腔ネットワークの周囲に電磁場を発生させる。操作可能なチャネルは、気管支鏡のワーキングチャネルに挿入され、電磁場内において電磁センサを介して追跡される。 Electromagnetic navigation-guided bronchoscopy (EMN bronchoscopy) is a type of bronchoscopic procedure that implements electromagnetic (EM) technology to locate and guide endoscopic instruments and catheters within the airways of the lungs. be. An EMN bronchoscopy system may employ an electromagnetic field generator that generates a low intensity, variable electromagnetic field to establish the location of a tracked site around the patient's luminal network. An electromagnetic field is a physical field produced by charged objects that affects charged objects in the vicinity of the electromagnetic field. Electromagnetic sensors attached to objects located within the generated field can be used to track the position and orientation of these objects within the electromagnetic field. A small current is induced in the electromagnetic sensor by the changing electromagnetic field. The properties of these electrical signals depend on the distance and angle between the sensor and the electromagnetic field generator. Thus, an EMN bronchoscopy system can have an electromagnetic field generator, a steerable channel with an electromagnetic sensor at or near its tip, and a guidance computer system. An electromagnetic field generator generates an electromagnetic field around the luminal network of the patient being navigated, eg, airway, gastrointestinal tract, circulatory pathways. A steerable channel is inserted into the working channel of the bronchoscope and tracked in the electromagnetic field via an electromagnetic sensor.

EMN気管支鏡検査の手技を開始する前に、例えば術前コンピュータ断層撮影(CT)による胸部スキャンにより、患者の特定の気道構造についての仮想の3次元(3D)気管支マップを取得することができる。このマップとEMN気管支鏡検査システムを使用して、施術者は肺内の所望の位置までナビゲーションを行い、病変組織の生検、リンパ節のステージ特定、放射線療法のガイドや小線源療法のガイドのためのマーカ挿入などを行うことができる。例えば、手技開始時に位置合わせを行って、電磁場の座標系とモデル座標系との間のマッピングを生成することができる。これにより、気管支鏡検査時に操作可能なチャネルが追跡されるため、モデル座標系における操作可能なチャネルの位置を、電磁センサからの位置データを基に名目上は知ることが可能である。しかしながら、患者の呼吸によって、胸部の動きが生じ、操作可能な器具および/またはモデルの位置と電磁場の座標系との関連付けに誤りつながる可能性がある。気道の分岐部が小径になり患者の呼吸に起因する動きの影響がより大きくなる場合に、これらの誤りが周辺部の気道において大きくなる。 Prior to beginning an EMN bronchoscopy procedure, a virtual three-dimensional (3D) bronchial map of a patient's specific airway structures can be obtained, for example, by preoperative computed tomography (CT) chest scan. Using this map and the EMN bronchoscopy system, practitioners can navigate to desired locations within the lungs to biopsy diseased tissue, stage lymph nodes, guide radiotherapy or guide brachytherapy. Marker insertion etc. for can be performed. For example, registration can be performed at the start of the procedure to generate a mapping between the electromagnetic field coordinate system and the model coordinate system. This tracks the steerable channel during bronchoscopy so that the position of the steerable channel in the model coordinate system is nominally known based on the position data from the electromagnetic sensors. However, patient breathing can cause chest motion, leading to mis-association of the position of the operable instrument and/or model with the coordinate system of the electromagnetic field. These errors are magnified in the peripheral airway when the bifurcation of the airway becomes smaller and more subject to movement due to patient breathing.

ここで、座標系とは、特定の検知態様における基準系である。例えば、電磁データの場合、電磁座標系は、電磁場源(電磁場発生器)によって定義される基準系である。CT画像やセグメンテーションされた3Dモデルの場合は、この基準系は、スキャナによって定義される系に基づく。本ナビゲーションシステムは、これらの異なるデータ源(それぞれの基準系内にある)を3Dモデル(CTの系など)に表す(位置合わせする)、例えばモデル内の器具の位置を表示するために、ナビゲーションの問題を解決する。 Here, a coordinate system is a reference system in a specific sensing mode. For example, for electromagnetic data, the electromagnetic coordinate system is the frame of reference defined by the electromagnetic field source (field generator). For CT images and segmented 3D models, this frame of reference is based on the system defined by the scanner. The navigation system represents (registers) these different data sources (within their respective frames of reference) to a 3D model (such as a CT system), e.g. solve the problem.

したがって、以下に詳細を説明するように、開示の管腔ネットワークナビゲーションシステムおよび手法は、画像ベースのナビゲーションシステム、ロボットシステム、および電磁ナビゲーションシステムからの入力を組み合わせ、他の患者のセンサからの入力も組み合わせ、ナビゲーションに関する問題を軽減してより効率的な内視鏡手技を実現するこ
とができる。例えば、ナビゲーション融合フレームワークが、器具のカメラから受信した画像情報、器具先端の電磁センサからの位置情報、器具の動きを誘導するロボットシステムからのロボットの位置情報を分析することができる。ナビゲーション融合フレームワークは、分析を基に、これらの1つまたは複数の種類のナビゲーションデータに基づく器具の位置推定および/またはナビゲーションの決定を行うことができる。ナビゲーション融合フレームワークの一部の実装では、さらに管腔ネットワークの3Dモデルに対する器具位置を特定することができる。一部の実施形態では、電磁センサからの器具の位置情報にフィルタが適用されて、例えば、気道ナビゲーションにおける呼吸に起因するものや循環器系ナビゲーションにおける脈動する血流に起因するものなど、管腔ネットワークの周期的な動きに起因する信号ノイズを除去することができる。周期的な動きの周波数は、1つまたは複数の追加のセンサからのデータから取得することができる。例えば、呼吸数は、患者の体に配置された追加の電磁センサ、加速度計、および/または音響呼吸センサ、および/または患者の動きを観察する視野を有する位置に配置された光学センサからのデータを基に特定することができる。一部の実施形態は、器具位置および管腔ネットワークの周期的な動きの一方または両方に基づく、ナビゲーション安全機能を実装することができる。例えば、気管支鏡検査の実装では、安全機能には、呼吸数情報および/または呼気時の器具挿入に課される制限の表示が含まれる。
Thus, as described in more detail below, the disclosed luminal network navigation systems and techniques combine input from image-based, robotic, and electromagnetic navigation systems, as well as input from other patient sensors. Combinations can reduce navigational problems and enable more efficient endoscopic procedures. For example, a navigation fusion framework can analyze image information received from the instrument's camera, positional information from electromagnetic sensors at the tip of the instrument, and robot positional information from the robotic system that guides the movement of the instrument. Based on the analysis, the navigation fusion framework can make instrument localization and/or navigation decisions based on one or more of these types of navigation data. Some implementations of the navigational fusion framework can also identify the instrument position relative to the 3D model of the luminal network. In some embodiments, a filter is applied to the instrument position information from the electromagnetic sensors, e.g. Signal noise due to periodic motion of the network can be removed. The periodic motion frequency can be obtained from data from one or more additional sensors. For example, respiratory rate may be data from additional electromagnetic sensors, accelerometers, and/or acoustic respiratory sensors placed on the patient's body, and/or optical sensors placed at locations that have a field of view to observe patient movement. can be specified based on Some embodiments may implement navigational safety features based on one or both of instrument position and luminal network periodic motion. For example, in bronchoscopy implementations, safety features include display of respiratory rate information and/or restrictions imposed on instrument insertion during exhalation.

開示のシステムおよび手法は、管腔ネットワークのナビゲーションのためのその他の種類の内視鏡手技を含む、気管支鏡検査の誘導システムおよびその他の適用に利点をもたらすことができる。解剖学では、「ルーメン」とは、気道、血管、腸などの管状器官の内部の空間や腔を意味することがある。ここでは、「管腔ネットワーク」とは、目標の組織部位に向かって延びる少なくとも1つのルーメンを有する外貌学的な構造、例えば肺気道、循環系、消化器系を意味する。よって、本開示では、気管支鏡検査に関連するナビゲーションシステムの例を提示するが、開示の安全性やデータのフィルタリングに関する態様は、患者の動きのある管腔ネットワークのナビゲーションを行う他の医療システムにも適用できることがわかる。 The disclosed systems and techniques can provide advantages in bronchoscopy guidance systems and other applications, including other types of endoscopic procedures for navigation of luminal networks. In anatomy, "lumen" can mean the space or cavity within a tubular organ such as airways, blood vessels, or intestines. As used herein, "luminal network" means a sculptural structure having at least one lumen extending toward a target tissue site, such as pulmonary airways, circulatory system, digestive system. Thus, although the present disclosure presents examples of navigation systems related to bronchoscopy, the safety and data filtering aspects of the disclosure may be applied to other medical systems for navigating a moving luminal network of a patient. can also be applied.

以下に種々の実施形態について、例示目的の図を参照しながら説明する。開示の技術的思想のその他多数の実装が可能であり、さまざまな利点が開示の実装と共に得られる。見出しは、参照のため、種々の節を特定しやすくするために含められている。これらの見出しは、本件開示の技術的思想を見出しに関連して限定するものではない。それら技術的思想は、本明細書全体にわたって適用されてよい。 Various embodiments are described below with reference to figures for illustrative purposes. Many other implementations of the disclosed concepts are possible and various advantages can be obtained with the disclosed implementations. Headings are included for reference and to facilitate identification of the various sections. These headings are not intended to limit the technical ideas of this disclosure with respect to the headings. Those technical ideas may be applied throughout this specification.

(例示のナビゲーションシステムの概要)
図1Aは、開示のナビゲーションシステムおよび手法の1つまたは複数の態様を実装する例示の運用環境100を示す。運用環境100は、患者101、患者101を支持するプラットフォーム102、内視鏡115の移動を誘導する手術ロボットシステム110、手術ロボットシステム110の動作を制御するコマンドセンタ105、電磁コントローラ135、電磁場発生器120、電磁センサ125、130を含む。図1Aは、患者101内の管腔ネットワーク140の一領域の輪郭も示し、その詳細を図1Bに示す。
(Overview of example navigation system)
FIG. 1A illustrates an exemplary operational environment 100 for implementing one or more aspects of the disclosed navigation systems and techniques. The operating environment 100 includes a patient 101, a platform 102 that supports the patient 101, a surgical robotic system 110 that guides movement of the endoscope 115, a command center 105 that controls the operation of the surgical robotic system 110, an electromagnetic controller 135, and an electromagnetic field generator. 120, including electromagnetic sensors 125,130. FIG. 1A also outlines a region of luminal network 140 within patient 101, details of which are shown in FIG. 1B.

手術ロボットシステム110は、患者101の管腔ネットワーク140で内視鏡115の位置決めや内視鏡115の移動の誘導を行う1つまたは複数のロボットアームを有する。コマンドセンタ105は、位置データの受信および/または使用者からの制御信号を供給する手術ロボットシステム110と通信可能に接続することができる。ここで、「通信可能に接続」とは、無線WAN(Wide Area Network)(例えば、1つまたは複数のセル
ラーネットワーク)、無線LAN(Local Area Network)(例えば、IEEE 802.11(Wi-Fi(登録商標))など、1つまたは複数の標準用に構成されたもの)、Bluetooth(登録商標)、データ転送ケーブルなど、を含むがこれに限定されない
、任意の有線および/または無線データ送信媒体を意味する。手術ロボットシステム110については図1Cを参照しながら詳細に説明し、コマンドセンタ105については図2を参照しながら詳細に説明する。
Surgical robotic system 110 includes one or more robotic arms that position endoscope 115 and guide movement of endoscope 115 in luminal network 140 of patient 101 . Command center 105 may be communicatively connected to surgical robotic system 110 for receiving position data and/or providing control signals from a user. Here, "communicatively connected" means a wireless WAN (Wide Area Network) (eg, one or more cellular networks), a wireless LAN (Local Area Network) (eg, IEEE 802.11 (Wi-Fi ( Any wired and/or wireless data transmission medium including, but not limited to, those configured for one or more standards such as (registered trademark)), Bluetooth (registered trademark), data transfer cables, etc. means. Surgical robotic system 110 is described in detail with reference to FIG. 1C, and command center 105 is described in detail with reference to FIG.

内視鏡115は、患者の生体に挿入されて生体(体の組織など)の画像を取得したり目標の組織部位に対して他の医用器具を挿入するためのワーキングチャネルを提供したりする、管状の柔軟性のある手術器具である。一部の実装では、内視鏡115は気管支鏡であってよい。内視鏡115は、1つまたは複数の画像生成装置(例えば、カメラやそのの種類の光学センサ)をその遠位端に有する。画像生成装置は、光ファイバ、ファイバアレイ、感光基板、および/またはレンズなどの1つまたは複数の光学部品を有してもよい。光学部品は、内視鏡115の遠位端と共に移動し、内視鏡115の遠位端が移動すると、画像生成装置によって取得される画像の視野も対応して変化する。内視鏡115の遠位端には、管腔ネットワーク140を取り囲むように発生する電磁場内において遠位端の位置を追跡するための1つまたは複数の電磁センサ125を設けることができる。内視鏡115の遠位端については、図3を参照しながら以下にさらに説明する。
The endoscope 115 is inserted into the patient's body to acquire images of the body (such as body tissue) and to provide a working channel for inserting other medical instruments to the target tissue site. It is a tubular flexible surgical instrument. In some implementations, endoscope 115 may be a bronchoscope. Endoscope 115 has one or more image generating devices (eg, cameras or other types of optical sensors) at its distal end. An image generating device may have one or more optical components such as optical fibers, fiber arrays, photosensitive substrates, and/or lenses. The optics move with the distal end of the endoscope 115, and as the distal end of the endoscope 115 moves, the field of view of the image acquired by the image generating device correspondingly changes. The distal end of endoscope 115 may be provided with one or more electromagnetic sensors 125 for tracking the position of the distal end within the electromagnetic field generated surrounding luminal network 140 . The distal end of endoscope 115 is further described below with reference to FIG.

電磁コントローラ135は、電磁場発生器120を制御して可変の電磁場を発生させることができる。電磁場は、環境に応じて時間的に変化および/または空間的に変化することができる。一部の実施形態では、電磁場発生器120は、電磁場発生基板とすることができる。開示の患者のナビゲーションシステムの一部の実施形態では、患者と患者を支持するプラットフォーム102との間に配置される電磁場発生器基板を使用することができ、電磁場発生器基板には、その下に配置される伝導性物質または磁性物質によって生じる追跡に関するひずみを軽減する薄膜の障壁を組み込むことができる。その他の実施形態では、電磁場発生器基板は、例えば手術ロボットシステム110に示されるロボットアームと同様のロボットアームに搭載して、患者の周囲における柔軟な設定オプションを提供することができる。 Electromagnetic controller 135 can control electromagnetic field generator 120 to generate a variable electromagnetic field. Electromagnetic fields can be time-varying and/or spatially-varying depending on the environment. In some embodiments, the electromagnetic field generator 120 can be an electromagnetic field generating substrate. Some embodiments of the disclosed patient navigation system can employ an electromagnetic field generator substrate positioned between the patient and the platform 102 supporting the patient, the electromagnetic field generator substrate having an underlying Thin film barriers can be incorporated to mitigate tracking distortion caused by deposited conductive or magnetic materials. In other embodiments, the electromagnetic field generator board can be mounted, for example, on a robotic arm similar to that shown in surgical robotic system 110 to provide flexible configuration options around the patient.

コマンドセンサ105、手術ロボットシステム110、および/または電磁コントローラ135に組み込まれる電磁空間測定システムは、例えば電磁センサ125、130などの電磁センサのコイルに埋め込まれた電磁場または電磁センサのコイルによって提供される電磁場内の物体の位置を特定することができる。電磁センサが、ここで説明する制御された可変の電磁場内に配置されると、センサのコイル内に電圧が誘起される。この誘電電圧は、電磁空間測定システムによって、電磁センサ、さらには電磁センサを有する物体の位置および向きを計算するのに使用されることができる。磁場の強さは弱く人体の組織を安全に通過できるため、光学空間測定システムにおける照準線の制約なく、物体の位置測定が可能である。 The electromagnetic space measurement system incorporated into command sensor 105, surgical robotic system 110, and/or electromagnetic controller 135 is provided by an electromagnetic field or coils of electromagnetic sensors, such as electromagnetic sensors 125, 130, embedded in coils of electromagnetic sensors. It can locate objects within an electromagnetic field. When an electromagnetic sensor is placed in a controlled and variable electromagnetic field as described herein, a voltage is induced in the coil of the sensor. This induced voltage can be used by electromagnetic space measurement systems to calculate the position and orientation of electromagnetic sensors, as well as objects with electromagnetic sensors. Because the strength of the magnetic field is weak and can safely pass through human tissue, object localization is possible without the line-of-sight limitations of optical spatial measurement systems.

電磁場内のその位置を追跡するために、内視鏡115の遠位端に連結することができる。電磁場は電磁場発生器に対して静止しており、管腔ネットワークの3Dモデルの座標系は、電磁場の座標系にマッピングすることができる。しかしながら、患者の気道、したがって気道内に配置された内視鏡115の遠位端は患者の呼吸数のために電磁場発生器120に対して移動を示す可能性があり、モデルに対する内視鏡115の遠位端の位置を決定する際に潜在的な誤差をもたらす。 It can be coupled to the distal end of an endoscope 115 to track its position within the electromagnetic field. The electromagnetic field is stationary with respect to the field generator, and the coordinate system of the 3D model of the lumen network can be mapped to the coordinate system of the electromagnetic field. However, the patient's airway, and thus the distal end of the endoscope 115 placed in the airway, may exhibit movement relative to the electromagnetic field generator 120 due to the patient's respiratory rate, and the endoscope 115 relative to the model. introduces potential error in determining the position of the distal end of the .

したがって、呼吸によって引き起こされる変位を追跡するために、患者の体表面上(例えば、管腔ネットワーク140の領域内)に、いくつかの追加の電磁センサ130を設けることができる。多数の異なる電磁センサ130はこれらの位置での異なる変位を追跡するために、体表面上に間隔を置いて配置することができる。例えば、肺の周辺部は中心気道よりも呼吸に起因してより大きな運動を示すことがあり、いくつかの電磁センサ提供することは、これらの運動効果のより正確な分析を可能にする。例えば、内視鏡115の遠
位端は管腔ネットワーク140の異なる領域を通って移動し、したがって、これらの異なる領域を通って移動するときに、患者の呼吸に起因する様々な程度の変位を受けうる。開示の位置フィルタリング手法は、内視鏡115の遠位端のおおよその位置を追加の複数の電磁センサと相関させることができ、これらの特定の追加の電磁センサの識別された変位の大きさを使用して、例えば、内視鏡位置信号の呼吸運動アーチファクト成分のフィルタリング/除去を介して、気道運動による内視鏡位置信号内のノイズまたはアーチファクトを補正することができる。
Accordingly, a number of additional electromagnetic sensors 130 may be provided on the patient's body surface (eg, within the region of the luminal network 140) to track breathing-induced displacements. A number of different electromagnetic sensors 130 can be spaced on the body surface to track different displacements at these locations. For example, the periphery of the lung may exhibit greater motion due to respiration than the central airways, and providing several electromagnetic sensors allows for a more accurate analysis of these motion effects. For example, the distal end of the endoscope 115 travels through different regions of the luminal network 140 and thus experiences varying degrees of displacement due to patient respiration as it travels through these different regions. can receive The disclosed position filtering technique can correlate the approximate position of the distal end of the endoscope 115 with a plurality of additional electromagnetic sensors, and determine the magnitude of the identified displacement of these particular additional electromagnetic sensors. It can be used, for example, to correct for noise or artifacts in the endoscope position signal due to airway motion via filtering/removal of the respiratory motion artifact component of the endoscope position signal.

他の実施形態では、追加の電磁センサ130の代わりに、または追加の電磁センサ130に加えて、患者の管腔ネットワークの動きを検出するように構成された他の種類のセンサを使用することができる。例えば、1つまたは複数の慣性センサ(例えば、加速度計、ジャイロスコープなど)を患者の体表面に配置して、呼吸中の胸部表面の変位の推定に利用できる。別の例では、音響呼吸センサが気道の領域(例えば、管腔ネットワーク領域140)内の患者の体表面上に配置され、呼吸の周期の吸気相および呼気相を測定するために使用されてもよい。別の例では光学センサ(例えば、撮像デバイス)によって患者の体の一連の画像をキャプチャすることができ、これらの画像は呼吸相および/または変位を特定するために分析されることができる。いくつかの実施態様では患者101が手続中に人工呼吸器からの支援を受けて呼吸しており、人工呼吸器(および/または人工呼吸器に通信可能に連結された装置)は呼吸の周期の吸気相および呼気相を表すデータを提供することができる。 In other embodiments, other types of sensors configured to detect motion of the patient's luminal network can be used in place of or in addition to the additional electromagnetic sensors 130. can. For example, one or more inertial sensors (eg, accelerometers, gyroscopes, etc.) can be placed on the patient's body surface and used to estimate chest surface displacement during respiration. In another example, an acoustic respiration sensor may be placed on the patient's body surface within a region of the airway (eg, lumen network region 140) and used to measure the inspiratory and expiratory phases of the respiratory cycle. good. In another example, an optical sensor (eg, an imaging device) can capture a series of images of the patient's body, and these images can be analyzed to identify respiratory phase and/or displacement. In some embodiments, the patient 101 is breathing with assistance from a ventilator during the procedure, and the ventilator (and/or a device communicatively coupled to the ventilator) Data representing inspiratory and expiratory phases can be provided.

図1Bは、図1Aの運用環境100においてナビゲートすることができる例示的な管腔ネットワーク140を示す。管腔ネットワーク140は、患者の気道150の分岐構造と、診断および/または治療のために、ここで説明するようにアクセスすることができる病変155とを含む。図示のように、病変155は、気道150の周辺部に位置する。内視鏡115は第1の直径を有し、したがって、その遠位端は、病変155の周りのより小さい直径の気道を通って位置決めされることができない。したがって、操作可能なカテーテル155は、内視鏡115のワーキングチャネルから病変155までの残りの距離だけ延びる。操作可能なカテーテル145は器具、例えば、生検針、細胞診ブラシ、および/または組織サンプリング鉗子が病変155の目標組織部位に通され得る管腔を有し得る。そのような実施形態では、内視鏡115の遠位端および操作可能なカテーテル145の遠位端の両方に、気道150内でのそれらの位置を追跡するための電磁センサ設けることができる。他の実施形態では、内視鏡115の全体的な直径が操作可能なカテーテル155なしで周辺部に到達するのに十分に小さくてもよく、または操作不可能なカテーテルを通して医療器具を展開するために周辺部に近づくのに十分に小さくてもよい(例えば、2.5~3cm以内)。内視鏡115を通して展開される医療器具は電磁センサを装備することができ、以下に説明する位置フィルタリングおよび安全モードナビゲーション手法を、そのような医療器具に適用することができる。 FIG. 1B shows an exemplary lumen network 140 that can be navigated in the operational environment 100 of FIG. 1A. The luminal network 140 includes the branching structures of the patient's airway 150 and lesions 155 that can be accessed as described herein for diagnosis and/or treatment. As shown, lesion 155 is located in the periphery of airway 150 . Endoscope 115 has a first diameter so that its distal end cannot be positioned through a smaller diameter airway around lesion 155 . Thus, steerable catheter 155 extends the remaining distance from endoscope 115 working channel to lesion 155 . Steerable catheter 145 may have a lumen through which instruments such as biopsy needles, cytology brushes, and/or tissue sampling forceps may be passed to the target tissue site of lesion 155 . In such embodiments, both the distal end of endoscope 115 and the distal end of steerable catheter 145 may be provided with electromagnetic sensors for tracking their position within airway 150 . In other embodiments, the overall diameter of endoscope 115 may be small enough to reach the periphery without steerable catheter 155, or for deploying medical devices through non-steerable catheters. may be small enough (eg, within 2.5-3 cm) to be close to the perimeter. Medical instruments deployed through endoscope 115 can be equipped with electromagnetic sensors, and the positional filtering and safe mode navigation techniques described below can be applied to such medical instruments.

いくつかの実施形態では本件開示の3D管腔ネットワークモデルの2Dディスプレイ、または3Dモデルの断面は図1Bに類似し得る。ナビゲーション安全領域および/またはナビゲーション経路情報は、そのような表現上にオーバーレイすることができる。 In some embodiments, a 2D display of the 3D luminal network model of the present disclosure, or a cross-section of the 3D model may resemble FIG. 1B. Navigation safe areas and/or navigation route information can be overlaid on such representations.

図1Cは、図1Bの管腔ネットワーク140を通して器具の移動を案内するための手術ロボットシステム110の例示的なロボットアーム175を示す。手術ロボットシステム110は1つ以上のロボットアーム(例えば、ロボットアーム175)に連結されたベース180を含む。ロボットアーム175は共同165で連結された複数のアームセグメント170を含み、これは、ロボットアーム175に複数の自由度を提供する。一例として、ロボットアーム175の一実施形態は、7つのアームセグメントに対応する7つの自由度を有することができる。いくつかの実施形態では、ロボットアーム175がロボットア
ーム175の位置を維持するためにブレーキと釣り合い重りとの組み合わせを用いたセットアップジョイントを含む。釣り合い重りは、ガススプリングまたはコイルスプリングを含むことができる。ブレーキ、例えば、フェールセーフブレーキは、機械的および/または電気的な構成要素を含むことができる。さらに、ロボットアーム175は、重力支援パッシブサポートロボットアームであってもよい。
FIG. 1C shows an exemplary robotic arm 175 of surgical robotic system 110 for guiding instrument movement through lumen network 140 of FIG. 1B. Surgical robotic system 110 includes a base 180 coupled to one or more robotic arms (eg, robotic arm 175). The robotic arm 175 includes a plurality of arm segments 170 jointed at joints 165, which provide the robotic arm 175 with multiple degrees of freedom. As an example, one embodiment of robotic arm 175 may have seven degrees of freedom corresponding to seven arm segments. In some embodiments, the robotic arm 175 includes set-up joints that use a combination of brakes and counterweights to maintain the position of the robotic arm 175 . The counterweight can include gas springs or coil springs. Brakes, eg, fail-safe brakes, can include mechanical and/or electrical components. Additionally, robotic arm 175 may be a gravity-assisted passive support robotic arm.

ロボットアーム175は、メカニズムチェンジャインターフェース(MCI)160を使用して、器具装置マニピュレータ(Instrument Device Manipulator;IDM)190に
連結することができる。IDM190は取り外して、異なる種類のIDM、例えば、内視鏡を操作するように構成された第1の種類のIDM、または腹腔鏡を操作するように構成された第2の種類のIDMと置換できる。MCI160は、空気圧、電力、電気信号、および光信号をロボットアーム175からIDM190に伝達するためのコネクタを含む。MCI160は、セットスクリューまたはベースプレート接続部とすることができる。IDM190は、手術機器、例えば内視鏡115を、ダイレクト駆動、ハーモニック駆動、ギア駆動、ベルトおよびプーリ、磁気駆動などを含む技術を使用して操作する。MCI160はIDM190の種類に基づいて交換可能であり、特定の種類の手術手技のためにカスタマイズすることができる。ロボットシステム175のアームは、関節レベルのトルク感知と、遠位端におけるリストとを含むことができる。
The robotic arm 175 can be coupled to an Instrument Device Manipulator (IDM) 190 using a Mechanism Changer Interface (MCI) 160 . IDM 190 can be removed and replaced with a different type of IDM, such as a first type of IDM configured to operate an endoscope or a second type of IDM configured to operate a laparoscope. . MCI 160 includes connectors for communicating pneumatic, power, electrical and optical signals from robotic arm 175 to IDM 190 . The MCI 160 can be a setscrew or baseplate connection. IDM 190 manipulates surgical instruments, such as endoscope 115, using techniques including direct drives, harmonic drives, gear drives, belts and pulleys, magnetic drives, and the like. The MCI 160 is interchangeable based on the type of IDM 190 and can be customized for specific types of surgical procedures. The arm of robotic system 175 can include joint-level torque sensing and a wrist at the distal end.

手術ロボットシステム110のロボットアーム175は、長尺の移動部材を使用して内視鏡115を操作することができる。長尺の移動部材は、プルワイヤまたはプッシュワイヤとも呼ばれるプルワイヤ、ケーブル、ファイバ、または可撓性シャフトを含むことができる。例えば、ロボットアーム175は、内視鏡115に連結された複数のプルワイヤを作動させて、内視鏡115の先端の向きを変えることができる。プルワイヤは金属材料および非金属材料の両方、例えば、ステンレス鋼、ケブラー、タングステン、炭素繊維などを含んでもよい。内視鏡115は、長尺の移動部材によって加えられる力に応答して非直線的な動きを示すことができる。非直線的な動きは、内視鏡115の剛性および圧縮性、ならびに異なる長尺の移動部材間のたるみまたは剛性の変動性に基づくことができる。 The robotic arm 175 of the surgical robotic system 110 can manipulate the endoscope 115 using elongated moving members. Elongated moving members can include pull wires, also called pull wires or push wires, cables, fibers, or flexible shafts. For example, robotic arm 175 can actuate multiple pull wires coupled to endoscope 115 to redirect the tip of endoscope 115 . Pull wires may include both metallic and non-metallic materials, such as stainless steel, Kevlar, tungsten, carbon fiber, and the like. Endoscope 115 can exhibit non-linear motion in response to forces applied by the elongate moving member. Non-linear motion can be based on the stiffness and compressibility of the endoscope 115 and variability in slack or stiffness between different elongate moving members.

ベース180は、ロボットアーム175が患者に対する手術手技を実行または補助するためのアクセスを有する一方で、医師などのユーザがコマンドコンソールを快適に使用して手術ロボットシステム110を制御し得るように、配置され得る。いくつかの実施形態では、ベース180が患者を支持するための手術台またはベッドに連結されてもよい。ベース180は、図1Aに示すコマンドコンソール105に通信可能に連結することができる。 Base 180 is positioned so that a user, such as a physician, can comfortably use a command console to control surgical robotic system 110 while robotic arm 175 has access to perform or assist in performing surgical procedures on a patient. can be In some embodiments, base 180 may be coupled to an operating table or bed for supporting the patient. Base 180 can be communicatively coupled to command console 105 shown in FIG. 1A.

ベース180は、動力源182、空気圧186、ならびに中央処理装置、データバス、制御回路、およびメモリなどの部品を含む制御およびセンサ電子機器184、ならびにロボットアーム175を移動させるためのモータなどの関連アクチュエータを含むことができる。電子機器184は、本件開示のナビゲーション制御手法、安全モード、および/またはデータフィルタリング手法を実装することができる。ベース180内の電子機器184はコマンドコンソールから通信される制御信号を処理し、送信することもできる。いくつかの実施形態では、ベース180が手術ロボットシステム110を搬送するための車輪188と、車輪188のための車輪ロック/ブレーキ(図示せず)とを含む。手術ロボットシステム110が可動であることで、手術室内の空間制約に適応しやすくなり、手術機器の適切な位置決めおよび移動が容易になる。さらに、可動であることで、ロボットアーム175が患者、医師、麻酔科医、または任意の他の機器の邪魔にならないように、ロボットアーム175を構成することができる。動作中、ユーザは、制御装置、例えばコマンドコンソールを使用してロボットアーム175を制御することができる。 The base 180 includes a power source 182, pneumatic pressure 186, and control and sensor electronics 184 including components such as a central processing unit, data buses, control circuits, and memory, and associated actuators such as motors for moving the robotic arm 175. can include Electronics 184 may implement the navigation control techniques, safety modes, and/or data filtering techniques of the present disclosure. Electronics 184 in base 180 can also process and transmit control signals communicated from the command console. In some embodiments, base 180 includes wheels 188 for carrying surgical robotic system 110 and wheel locks/brakes (not shown) for wheels 188 . The mobility of the surgical robotic system 110 facilitates adaptation to space constraints within the operating room and facilitates proper positioning and movement of surgical instruments. Additionally, being movable allows the robotic arm 175 to be configured such that it does not interfere with the patient, physician, anesthesiologist, or any other equipment. During operation, a user can control robotic arm 175 using a control device, such as a command console.

図2は、例示的な動作環境100においてコマンドコンソール105として使用することができる例示的なコマンドコンソール200を示す。コマンドコンソール200は、コンソールベース201と、ディスプレイモジュール202、例えばモニタと、制御モジュール、例えばキーボード203およびジョイスティック204とを含む。いくつかの実施形態では、コマンドコンソール200の機能性のうちの1つ以上が手術ロボットシステム110のベース180、または手術ロボットシステム110に通信可能に連結された別のシステムに統合することができる。ユーザ205、例えば医師は、コマンドコンソール200を使用して人間工学的な位置から手術ロボットシステム110を遠隔制御する。 FIG. 2 illustrates an exemplary command console 200 that can be used as command console 105 in exemplary operating environment 100 . Command console 200 includes a console base 201 , a display module 202 such as a monitor, and control modules such as keyboard 203 and joystick 204 . In some embodiments, one or more of the functionality of command console 200 may be integrated into base 180 of surgical robotic system 110 or another system communicatively coupled to surgical robotic system 110 . A user 205, eg, a physician, uses command console 200 to remotely control surgical robotic system 110 from an ergonomic position.

コンソールベース201は中央処理装置、記憶部、データバス、および、例えば図1A~図1Cに示す内視鏡115からのカメラ画像および追跡センサデータなどの信号を解釈して処理する役割を担う関連データ通信ポートを含むことができる。いくつかの実施形態では、コンソールベース201およびベース180の両方が負荷バランシングのための信号処理を実行する。コンソールベース201は、制御モジュール203、204を介してユーザ205によって提供されるコマンドおよび命令を処理することもできる。図2に示すキーボード203およびジョイスティック204に加えて、制御モジュールは他のデバイス、例えば、コンピュータマウス、トラックパッド、トラックボール、制御パッド、ハンドヘルドリモートコントローラなどのコントローラ、およびハンドジェスチャおよび指ジェスチャをキャプチャするセンサ(例えば、モーションセンサまたはカメラ)を含むことができる。コントローラは器具の動作(例えば、関節動作、駆動、水洗浄等)にマッピングされた一組のユーザ入力(例えば、ボタン、ジョイスティック、方向パッド等)を含むことができる。 Console base 201 includes a central processing unit, storage, data bus, and associated data responsible for interpreting and processing signals such as camera images and tracking sensor data from endoscope 115 shown in FIGS. 1A-1C. Communication ports can be included. In some embodiments, both console base 201 and base 180 perform signal processing for load balancing. The console base 201 can also process commands and instructions provided by the user 205 via the control modules 203,204. In addition to the keyboard 203 and joystick 204 shown in FIG. 2, the control module captures other devices such as computer mice, trackpads, trackballs, control pads, controllers such as handheld remote controls, and hand and finger gestures. Sensors (eg, motion sensors or cameras) can be included. The controller can include a set of user inputs (eg, buttons, joysticks, directional pads, etc.) mapped to instrument movements (eg, articulation, actuation, water flushing, etc.).

ユーザ205は、速度モードまたは位置制御モードでコマンドコンソール200を使用して、内視鏡115などの手術機器を制御することができる。速度モードでは、ユーザ205が制御モジュールを使用する直接的な手動制御に基づいて、内視鏡115の遠位端のピッチ運動およびヨー運動を直接制御する。例えば、ジョイスティック204上の移動は、内視鏡115の遠位端におけるヨー移動およびピッチ移動にマッピングされることができる。ジョイスティック204は、ユーザ205に触覚的なフィードバックを提供することができる。例えば、ジョイスティック204は、内視鏡115が特定の方向にさらに並進または回転できないことを伝えるために振動することができる。また、コマンドコンソール200は、視覚的なフィードバック(例えば、ポップアップメッセージ)および/または音声的なフィードバック(例えば、ビープ音)を提供して、内視鏡115が最大並進または回転に達したことを伝えることもできる。触覚的なフィードバックおよび/または視覚的なフィードバックは、以下に詳細を説明するように、患者の呼気の間、安全モードで動作するシステムによって提供され得る。 A user 205 can control a surgical instrument such as an endoscope 115 using command console 200 in velocity mode or position control mode. In velocity mode, the user 205 directly controls the pitch and yaw motion of the distal end of the endoscope 115 under direct manual control using the control module. For example, movement on joystick 204 can be mapped to yaw and pitch movement at the distal end of endoscope 115 . Joystick 204 can provide tactile feedback to user 205 . For example, joystick 204 can vibrate to convey that endoscope 115 cannot translate or rotate further in a particular direction. Command console 200 also provides visual feedback (e.g., pop-up messages) and/or audio feedback (e.g., beeps) to indicate that endoscope 115 has reached maximum translation or rotation. can also Haptic and/or visual feedback may be provided by the system operating in a safe mode during patient exhalation, as described in more detail below.

位置制御モードでは、コマンドコンソール200が患者管腔ネットワークの3次元(3D)マップと、本件開示のナビゲーションセンサからの入力とを使用して、手術機器、例えば、内視鏡115を制御する。コマンドコンソール200は、手術ロボットシステム110のロボットアーム175に制御信号を提供して、内視鏡115を目標の位置に操作する。3Dマップに依存するため、位置制御モードは、患者の解剖学的構造の正確なマッピングが必要となる場合がある。 In position control mode, command console 200 uses a three-dimensional (3D) map of the patient lumen network and input from the navigation sensors of the present disclosure to control surgical instruments, such as endoscope 115 . Command console 200 provides control signals to robotic arm 175 of surgical robotic system 110 to maneuver endoscope 115 to a target location. Due to its reliance on 3D maps, the position control mode may require accurate mapping of the patient's anatomy.

いくつかの実施形態では、ユーザ205がコマンドコンソール200を使用せずに、手術用ロボットシステム110のロボットアーム175を手動で操作することができる。手術室でのセットアップ中に、ユーザ205は、ロボットアーム175、内視鏡115(または内視鏡)、および他の手術機器を動作させて患者にアクセスする。手術ロボットシステム110は、ユーザ205からの力のフィードバックや慣性制御を基に、ロボットアーム175および装置の適切な構成を決定する。 In some embodiments, the user 205 can manually operate the robotic arm 175 of the surgical robotic system 110 without using the command console 200 . During setup in the operating room, user 205 operates robotic arm 175, endoscope 115 (or an endoscope), and other surgical equipment to access the patient. Surgical robotic system 110 determines the appropriate configuration of robotic arm 175 and apparatus based on force feedback and inertial control from user 205 .

ディスプレイ202は電子モニタ(例えば、LCDディスプレイ、LEDディスプレイ、タッチセンシティブディスプレイ)、バーチャルリアリティビューイングデバイス(例えば、ゴーグルまたは眼鏡)、および/または他のディスプレイデバイスを含み得る。いくつかの実施形態では、ディスプレイモジュール202が例えば、タッチスクリーンを有するタブレットデバイスとして、制御モジュールと一体化される。いくつかの実施形態では、一方のディスプレイ202が患者の管腔ネットワークの3Dモデルおよび仮想ナビゲーション情報(例えば、電磁センサ位置に基づくモデル内の内視鏡の端部の仮想表現)を表示し、他方のディスプレイ202が、内視鏡115の端部のカメラまたは別の感知デバイスから受信した画像情報を表示することができる。いくつかの実施態様では、ユーザ205が統合ディスプレイ202および制御モジュールを使用して、データを確認することと、手術ロボットシステム110へのコマンドを入力することとの両方を行うことができる。ディスプレイ202は立体装置、例えば、バイザまたはゴーグルを使用して、3D画像および/または3D画像の2Dレンダリングを表示することができる。3D画像は患者の解剖学的な構造を示すコンピュータ3Dモデルである「内視鏡ビュー」(すなわち、内視鏡ビュー)を提供する。「内視鏡ビュー」は、患者の体内や患者内部の内視鏡115の予想位置の仮想環境を提供する。ユーザ205は「内視鏡ビュー」モデルをカメラによって取得された実際の画像と比較して、内視鏡115が患者内の正確な、あるいはほぼ正確な位置にあると精神的な判断や確認に役立てる。「内視鏡ビュー」は解剖学的構造、例えば、内視鏡115の遠位端の周りの気道、循環血管、または患者の腸もしくは結腸の形状に関する情報を提供する。表示モジュール202は、内視鏡115の遠位端の周りの解剖学的構造の3DモデルおよびCTスキャンを同時に表示することができる。さらに、表示モジュール202は3DモデルおよびCTスキャン上に、内視鏡115の既に決定されたナビゲーション経路を重ねて表示することができる。 Display 202 may include an electronic monitor (eg, LCD display, LED display, touch-sensitive display), virtual reality viewing device (eg, goggles or glasses), and/or other display device. In some embodiments, the display module 202 is integrated with the control module, eg, as a tablet device with a touch screen. In some embodiments, one display 202 displays a 3D model of the patient's luminal network and virtual navigation information (eg, a virtual representation of the end of the endoscope in the model based on electromagnetic sensor positions), and the other A display 202 may display image information received from a camera or another sensing device at the end of endoscope 115 . In some implementations, the integrated display 202 and control module can be used by the user 205 to both review data and enter commands to the surgical robotic system 110 . The display 202 can display 3D images and/or 2D renderings of 3D images using a stereoscopic device, eg, a visor or goggles. The 3D images provide an "endoscopic view" (ie, an endoscopic view), which is a computer 3D model of the patient's anatomy. An "endoscopic view" provides a virtual environment of the expected position of the endoscope 115 in and within a patient. The user 205 compares the "endoscope view" model to the actual image captured by the camera to mentally determine or confirm that the endoscope 115 is in the correct or nearly correct position within the patient. Useful. An “endoscopic view” provides information about the anatomy, such as the shape of the airway, circulation, or patient's bowel or colon around the distal end of the endoscope 115 . Display module 202 can simultaneously display a 3D model and a CT scan of the anatomy around the distal end of endoscope 115 . Additionally, the display module 202 can overlay the already determined navigation path of the endoscope 115 on the 3D model and CT scan.

いくつかの実施形態では、内視鏡115のモデルが手術の状態を示すのを助けるために、3Dモデルと共に表示される。例えば、CTスキャンは、生検が必要である可能性がある解剖学的な構造内の病変を特定する。動作中、ディスプレイモジュール202は、内視鏡115の現在位置に対応する内視鏡115によって取得された参照画像を表示できる。ディスプレイモジュール202は、ユーザ設定および特定の手術手技に応じて、内視鏡115のモデルの異なるビューを自動的に表示することができる。例えば、ディスプレイモジュール202は、内視鏡115が患者の手術領域に接近する際のナビゲーションステップ中の内視鏡115の蛍光透視による俯瞰図を示す。 In some embodiments, a model of endoscope 115 is displayed along with the 3D model to help illustrate surgical conditions. For example, CT scans identify lesions within the anatomy that may require biopsies. During operation, display module 202 can display a reference image acquired by endoscope 115 corresponding to the current position of endoscope 115 . Display module 202 can automatically display different views of a model of endoscope 115 depending on user settings and the particular surgical procedure. For example, the display module 202 shows a fluoroscopic overhead view of the endoscope 115 during the navigation steps as the endoscope 115 approaches the patient's surgical field.

図3は、例えば図1A~1Cの内視鏡115のような、本件開示の画像および電磁感知機能を有する例示的な内視鏡の遠位端300を示す。図3では、内視鏡の遠位端300が撮像装置315、照明源310、および電磁センサコイル305の端部を含む。遠位端300は、生検針、細胞診ブラシ、および鉗子などの手術機器が内視鏡シャフトに沿って挿入され、内視鏡先端付近の領域へのアクセスを可能にする内視鏡のワーキングチャネル320への開口部をさらに含む。 FIG. 3 shows a distal end 300 of an exemplary endoscope, such as endoscope 115 of FIGS. 1A-1C, having imaging and electromagnetic sensing capabilities of the present disclosure. In FIG. 3, the endoscope distal end 300 includes an imaging device 315 , an illumination source 310 , and the end of an electromagnetic sensor coil 305 . Distal end 300 is the working channel of the endoscope through which surgical instruments such as biopsy needles, cytology brushes, and forceps are inserted along the endoscope shaft to allow access to areas near the endoscope tip. Further includes an opening to 320 .

照明源310は、解剖学的空間の一部を照明するための光を提供する。照明源は、それぞれ、選択された波長または波長範囲で光を放出するように構成された1つまたは複数の発光デバイスとすることができる。この波長は、いくつかの例を挙げると、任意の適切な波長、例えば、可視スペクトル光、赤外線、X線(例えば、蛍光透視法)であり得る。いくつかの実施形態では、照明源310が遠位端300に配置された発光ダイオード(LED)を含むことができる。いくつかの実施形態では、照明源310が遠隔光源、例えば、X線発生器から遠位端300を通して光を伝送するために、内視鏡の全体を通って延在する1つ以上の光ファイバを含むことができる。遠位端300が複数の照明源310を含む場合、これらはそれぞれ、互いに同じまたは異なる波長の光を放射するように構成するこ
とができる。
Illumination source 310 provides light for illuminating a portion of the anatomical space. The illumination sources can each be one or more light emitting devices configured to emit light at a selected wavelength or range of wavelengths. This wavelength can be any suitable wavelength, such as visible spectrum light, infrared, X-ray (eg, fluoroscopy), to name a few. In some embodiments, illumination source 310 can include a light emitting diode (LED) located at distal end 300 . In some embodiments, the illumination source 310 is one or more optical fibers that extend throughout the endoscope to transmit light from a remote light source, e.g., an x-ray generator, through the distal end 300. can include Where distal end 300 includes multiple illumination sources 310, each of these can be configured to emit light of the same or different wavelengths as one another.

撮像デバイス315は受光した光を表すエネルギーを電気信号に変換するように構成された任意の感光性基板または構造、例えば、電荷結合素子(CCD)または相補型金属酸化膜半導体(CMOS)イメージセンサを含むことができる。撮像デバイス315のいくつかの例は、内視鏡の遠位端300から内視鏡の近位端の接眼レンズおよび/またはイメージセンサにイメージを伝送するように構成された、1つまたは複数の光ファイバ、たとえば光ファイババンドルを含むことができる。撮像デバイス315は様々な光学設計で必要なように、1つまたは複数のレンズおよび/または波長通過フィルタまたはカットオフフィルタをさらに含むことができる。照明源310から放出された光は、撮像装置315が患者の管腔ネットワークの内部の画像を取得することを可能にする。次いで、これらの画像は本件開示の処理のために、コマンドコンソール200などのコンピュータシステムに、個々のフレームまたは一連の連続するフレーム(例えば、映像)として送信され得る。 Imaging device 315 is any photosensitive substrate or structure configured to convert energy representing received light into an electrical signal, such as a charge-coupled device (CCD) or complementary metal-oxide-semiconductor (CMOS) image sensor. can contain. Some examples of imaging devices 315 include one or more sensors configured to transmit images from the distal end 300 of the endoscope to an eyepiece and/or image sensor at the proximal end of the endoscope. It may include optical fibers, such as fiber optic bundles. Imaging device 315 may further include one or more lenses and/or wavelength pass or cutoff filters as required by various optical designs. Light emitted from illumination source 310 enables imaging device 315 to acquire images of the interior of the patient's luminal network. These images can then be sent as individual frames or a series of consecutive frames (eg, video) to a computer system, such as command console 200, for processing in the present disclosure.

遠位端300上に配置された電磁コイル305は解剖システム内に配置されている間に内視鏡の遠位端300の位置および向きを検出するために、電磁追跡システムと共に使用されてもよい。いくつかの実施形態では、コイル305が異なる軸に沿った電磁場に対する感度を提供するように角度が設定されてもよく、開示されたナビゲーションシステムに、3つの位置および3つの角度という完全な6自由度を測定する機能を与えることができる。他の実施形態では、単一のコイルが、その軸が内視鏡の内視鏡シャフトに沿って配向された状態で、遠位端300上または遠位端300内に配置されてもよい。このようなシステムの回転対称性のために、このシステムはその軸の周りの回転には感度を有さず、このような実施形態では、5自由度しか検出することができない。 An electromagnetic coil 305 disposed on the distal end 300 may be used in conjunction with an electromagnetic tracking system to detect the position and orientation of the distal end 300 of the endoscope while positioned within the anatomical system. . In some embodiments, the angles may be set so that the coils 305 provide sensitivity to electromagnetic fields along different axes, giving the disclosed navigation system a full six degrees of freedom: three positions and three angles. The ability to measure degrees can be given. In other embodiments, a single coil may be disposed on or within distal end 300 with its axis oriented along the endoscope shaft of the endoscope. Due to the rotational symmetry of such a system, it is insensitive to rotation about its axis, and in such an embodiment only 5 degrees of freedom can be detected.

図4は、本件開示の例示的なナビゲーション融合システム400の概略ブロック図を示す。以下に詳細に説明するように、枠内400を使用して、多数の異なるソースからのデータは患者の管腔ネットワーク内の手術機器(例えば、内視鏡)のリアルタイム移動情報および位置/向き情報の推定を提供し、ナビゲーション決定を行うために、手術手技時に組み合わされ、繰り返し分析される。システム400は、呼吸センサデータリポジトリ405、内視鏡電磁センサデータリポジトリ415、位置合わせデータ、リポジトリ475、モデルデータリポジトリ425、内視鏡撮像データリポジトリ480、ナビゲーション経路データリポジトリ445、安全領域データリポジトリ455、およびロボット位置データリポジトリ470を含むいくつかのデータリポジトリを含む。以下の説明を明確にするために図4には別々に示されているが、データリポジトリの一部または全部を、単一のメモリまたはメモリのセットに共に格納することができる。また、システム400は、呼吸数および/または相特定器410、内視鏡位置推定器420、位置合わせ計算器465、位置計算器430、画像分析器435、状態推定器440、安全モードコントローラ450、およびナビゲーションコントローラ460を含むいくつかの処理モジュールを含む。各モジュールは、記憶に格納された1組のコンピュータ可読命令と、以下で説明する機能を共に実行するために命令によって構成された1つまたは複数のプロセッサとを表す。例えば、ナビゲーション融合システム400は、上述の制御およびセンサ電子機器184および/またはコンソールベース201において、1つまたは複数のデータ記憶デバイスおよび1つまたは複数のハードウェアプロセッサとして実装することができる。 FIG. 4 shows a schematic block diagram of an exemplary navigational fusion system 400 of the present disclosure. As described in detail below, using box 400, data from a number of different sources are combined with real-time movement and position/orientation information of surgical instruments (eg, endoscopes) within the patient's luminal network. are combined and iteratively analyzed during the surgical procedure to provide an estimate of and make navigational decisions. System 400 includes respiratory sensor data repository 405, endoscopic electromagnetic sensor data repository 415, registration data repository 475, model data repository 425, endoscopic imaging data repository 480, navigation path data repository 445, safe area data repository 455. , and several data repositories including a robot position data repository 470 . Although shown separately in FIG. 4 for clarity of the following discussion, some or all of the data repositories may be stored together in a single memory or set of memories. The system 400 also includes a respiratory rate and/or phase identifier 410, an endoscope position estimator 420, a registration calculator 465, a position calculator 430, an image analyzer 435, a state estimator 440, a safe mode controller 450, and several processing modules including navigation controller 460 . Each module represents a set of computer-readable instructions stored in memory and one or more processors configured by the instructions to together perform the functions described below. For example, navigation fusion system 400 may be implemented as one or more data storage devices and one or more hardware processors in control and sensor electronics 184 and/or console base 201 described above.

呼吸センサデータリポジトリ405は、呼吸センサから導出されたデータを記憶するデータ記憶装置である。上述のように、呼吸センサは、電磁センサ、音響呼吸センサ、管腔ネットワークの画像を取得するように配置された視野を有するイメージセンサ、および人工呼吸器の膨張/収縮情報を備えることができる。いくつかの実施形態では呼吸センサがいくつかの電磁センサ備えることができ、呼吸センサデータリポジトリ405内のデータ
は各センサについて、時間経過にける電磁場内のセンサの位置を表す時間依存位置データを含むことができる。例えば、それぞれのセンサのデータは(x、y、z、tn)の形式
の組として記憶することができ、ここで、x、y、zは、期間tnにおける領域内のセン
サの座標を表す。呼吸センサデータリポジトリ405は、多数の異なる時間に対応する各センサのための多数のそのようなタプルを記憶することができる。
Respiratory sensor data repository 405 is a data store that stores data derived from respiratory sensors. As described above, the respiratory sensors may comprise electromagnetic sensors, acoustic respiratory sensors, image sensors having a field of view positioned to acquire an image of the luminal network, and ventilator inflation/deflation information. In some embodiments, the respiratory sensor may comprise several electromagnetic sensors, and the data in respiratory sensor data repository 405 includes, for each sensor, time-dependent position data representing the sensor's position within the electromagnetic field over time. be able to. For example, each sensor's data can be stored as a set of the form (x, y, z, t n ), where x, y, z are the coordinates of the sensor in the region at time period t n . show. Respiratory sensor data repository 405 can store many such tuples for each sensor corresponding to many different times.

呼吸数および/または相特定器410は呼吸センサデータ再配置405からデータを受信し、そのようなデータを分析して呼吸数および/または呼吸相を計算するように構成されたモジュールである。呼吸数は連続する相の間、例えば、吸気と呼気の連続する周期間の時間隔を指す。相は呼吸周期が吸気相(例えば、患者が吸気している間)であるか、または呼気相(患者が呼気している間)であるかを指す。いくつかの実施形態は、種々の実施におけるセンサのうちの1つまたはすべてからのデータを使用して、フーリエ変換を使用して、呼吸センサデータから呼吸数を抽出することができる。 Respiration rate and/or phase identifier 410 is a module configured to receive data from respiration sensor data relocation 405 and analyze such data to calculate respiration rate and/or respiration phase. Respiratory rate refers to the time interval between successive phases, eg, between successive cycles of inspiration and expiration. Phase refers to whether the respiratory cycle is in the inspiratory phase (eg, while the patient is inhaling) or the expiratory phase (while the patient is exhaling). Some embodiments may use data from one or all of the sensors in various implementations to extract respiration rate from respiration sensor data using a Fourier transform.

内視鏡電磁センサデータリポジトリ415は、内視鏡の遠位端にある電磁センサから導出されたデータを記憶するデータ記憶装置である。上述のように、そのようなセンサは電磁センサコイル305を含むことができ、結果として得られるデータを使用して、電磁場内のセンサの位置および向きを特定することができる。電磁呼吸センサからのデータと同様に、内視鏡電磁センサデータは(x、y、z、tn)の形式の組として記憶することが
でき、ここで、x、y、およびzは、期間tnにおける電磁場内のセンサの座標を表す。
いくつかの実施形態は、電磁センサタプル内の器具のロール、ピッチ、およびヨーをさらに含むことができる。内視鏡電磁センサデータリポジトリ415は、多数の異なる時間に対応する各内視鏡ベースのセンサのための多数のそのようなタプルを記憶することができる。
Endoscope electromagnetic sensor data repository 415 is a data storage device that stores data derived from electromagnetic sensors at the distal end of the endoscope. As noted above, such sensors can include electromagnetic sensor coils 305, and the resulting data can be used to determine the position and orientation of the sensor within the electromagnetic field. Similar to data from electromagnetic respiratory sensors, endoscopic electromagnetic sensor data can be stored as a set of the form (x, y, z, t n ), where x, y, and z are time periods represents the coordinates of the sensor in the electromagnetic field at t n .
Some embodiments can further include instrument roll, pitch, and yaw within the electromagnetic sensor tuple. Endoscope electromagnetic sensor data repository 415 can store many such tuples for each endoscope-based sensor corresponding to many different times.

いくつかの実施形態では、内視鏡位置推定器420は内視鏡電磁センサデータリポジトリ415から、さらに呼吸数および/または相特定器410からデータを受信し、そのデータを使用して、患者の管腔ネットワークの周期的な動きに起因する内視鏡電磁センサから受信される信号中の「ノイズ」を低減するモジュールである。例えば、一実施形態では、内視鏡位置推定器420が決定された呼吸数に基づいてフィルタを生成し、フィルタを内視鏡電磁センサデータに適用することができる。別の実施態様では、内視鏡位置推定器420が呼吸中の1つまたは複数の呼吸センサの変位の大きさを識別することができ、変位値を、内視鏡電磁センサデータによって示される位置にバイアスとして適用することができる。これは、例えば、期間tnで呼吸センサ変位を識別し、それを期間tnで内視鏡位置にバイアスとして適用すること、期間tn+1で次の呼吸センサ変位を識別し、それを期
間tn+1で内視鏡位置にバイアスとして適用することなどによって動的に実行することが
できる。
In some embodiments, the endoscope position estimator 420 receives data from the endoscope electromagnetic sensor data repository 415 and from the respiratory rate and/or phase identifier 410 and uses that data to A module that reduces "noise" in the signal received from the endoscopic electromagnetic sensor due to periodic motion of the luminal network. For example, in one embodiment, endoscope position estimator 420 may generate a filter based on the determined respiration rate and apply the filter to the endoscope electromagnetic sensor data. In another embodiment, the endoscopic position estimator 420 can identify the magnitude of displacement of one or more respiratory sensors during respiration, and the displacement value can be converted to the position indicated by the endoscopic electromagnetic sensor data. can be applied as a bias to This involves, for example, identifying the respiratory sensor displacement at time period tn and applying it as a bias to the endoscope position at time period tn , identifying the next respiratory sensor displacement at time period tn +1 and applying it as It can be done dynamically, such as by applying a bias to the endoscope position at time period t n+1 .

モデルデータリポジトリ425は、患者の管腔ネットワークのモデルを表すデータを記憶するデータ記憶装置である。一例として、手術前手技を行って患者の肺のCTスキャンを行うことができ、コンピュータシステムはこれらのスキャンからのデータを使用して、患者の肺の3Dモデルを構築することができる。そのようなモデルは、いくつかの例では患者の気道のトポグラフィおよび/または直径を含む、管腔ネットワークの構造および接続に関する3D情報を提供することができる。いくつかのCTスキャンは患者の気道がそれらの全直径まで拡張されるよう、息止め時に実行される。 Model data repository 425 is a data storage device that stores data representing a model of a patient's luminal network. As an example, a preoperative procedure can be performed to perform CT scans of the patient's lungs, and the computer system can use the data from these scans to construct a 3D model of the patient's lungs. Such models can provide 3D information regarding the structure and connectivity of the luminal network, including in some examples the topography and/or diameter of the patient's airways. Several CT scans are performed during breath-hold so that the patient's airways are dilated to their full diameter.

位置合わせ計算器465は3Dモデルの座標系(例えば、モデルを生成するために使用されるCTスキャナの座標系)と電磁場(例えば、電磁場発生器120の電磁場)の座標系との間の位置合わせまたはマッピングを識別することができるモジュールである。患者の解剖学的構造を介してセンサを追跡するために、ナビゲーション融合システム400は
「位置合わせ」として知られるプロセスを必要とすることがあり、それによって、位置合わせ計算器465は、異なる座標系間で単一の物体を位置合わせする幾何学的変換を特定する。例えば、患者の特定の解剖学的部位は、3Dモデル座標および電磁センサ座標においても表現を有することができる。初期位置合わせの計算を行うために、位置合わせ計算器465の一実施形態は、その開示内容が参照により本明細書に援用される、2016年9月17日に出願された「管状ネットワークのナビゲーション(Navigation of Tubular Networks)」という名称の米国特許出願第15/268,238号に記載されているように、位置合わせを実行することができる。1つの可能な位置合わせ手法の例として、位置合わせ計算器465は内視鏡が患者の気道に挿入されるとき、例えば、内視鏡が様々な分岐に到達するときに、内視鏡撮像データリポジトリ480および電磁センサデータリポジトリ415から、いくつかの異なる点でデータを受信することができる。画像データは内視鏡の遠位端がいつ分岐に到達したかを、例えば、自動化された特徴分析を介して識別するために使用することができる。位置合わせ計算器465は内視鏡電磁センサデータリポジトリ415からデータを受信し、内視鏡が分岐部に配置されるときに、内視鏡の遠位端における電磁センサ位置を識別することができる。いくつかの例では、分岐だけでなく、患者の気道内の他の点を使用することができ、そのような点を気道の「骨格」モデル内の対応する点にマッピングすることができる。位置合わせ計算器465は電磁領域とモデルとの間の幾何学的変換を識別するために、電磁位置のうちの少なくとも3つをモデル内の点にリンクするデータを使用することができる。別の実施形態は例えば、患者の気道の第1の分岐から、および左肺および右肺の2つ以上の分岐から少なくとも3つを採取することによって、手動位置合わせを含むことができ、対応する点を使用して位置合わせの計算を行うことができる。幾何学的変換を実行するためのこのデータ(位置合わせデータとも呼ばれる)は、位置合わせデータとして位置合わせデータリポジトリ475に格納することができる。
Alignment calculator 465 performs an alignment between the coordinate system of the 3D model (eg, the coordinate system of the CT scanner used to generate the model) and the coordinate system of the electromagnetic field (eg, the electromagnetic field of electromagnetic field generator 120). Or a module that can identify a mapping. In order to track the sensors through the patient's anatomy, the navigation fusion system 400 may require a process known as "registration," whereby the registration calculator 465 uses different coordinate systems. Identify a geometric transformation that aligns a single object between. For example, certain anatomical regions of a patient can have representations in 3D model coordinates and also in electromagnetic sensor coordinates. To perform the initial alignment calculations, one embodiment of the alignment calculator 465 uses the Tubular Network Navigation Registration can be performed as described in US patent application Ser. No. 15/268,238 entitled "Navigation of Tubular Networks". As an example of one possible registration technique, the registration calculator 465 collects endoscopic imaging data as the endoscope is inserted into the patient's airway, e.g., as the endoscope reaches various bifurcations. Data can be received from repository 480 and electromagnetic sensor data repository 415 at several different points. The image data can be used to identify when the distal end of the endoscope has reached the bifurcation, eg, via automated feature analysis. Alignment calculator 465 receives data from endoscope electromagnetic sensor data repository 415 and can identify electromagnetic sensor locations at the distal end of the endoscope when the endoscope is positioned at the bifurcation. . In some examples, other points in the patient's airway can be used in addition to bifurcations, and such points can be mapped to corresponding points in a "skeletal" model of the airway. Alignment calculator 465 can use data linking at least three of the electromagnetic locations to points in the model to identify geometric transformations between the electromagnetic domain and the model. Another embodiment can include manual registration, for example, by taking at least three from the first branch of the patient's airway and from two or more branches of the left and right lungs, corresponding Alignment calculations can be performed using the points. This data (also called alignment data) for performing geometric transformations can be stored in alignment data repository 475 as alignment data.

初期位置合わせが完了した後、位置合わせ計算器465は変換精度を向上させると共に、ナビゲーションシステムの変化、例えば、患者の移動による変化を補償するために、受信データに基づいて位置合わせ変換の推定値を更新することができる。いくつかの態様では、位置合わせ計算器465が定義された間隔で、および/または管腔ネットワーク内の内視鏡(またはその部品)の位置に基づいて、位置合わせ変換の推定値を連続的に更新することができる。 After the initial registration is complete, the registration calculator 465 provides an estimate of the registration transform based on the received data to improve the transform accuracy and compensate for variations in the navigation system, such as changes due to patient movement. can be updated. In some aspects, the registration calculator 465 continuously estimates the registration transformation at defined intervals and/or based on the position of the endoscope (or parts thereof) within the luminal network. can be updated.

位置合わせデータ、リポジトリ475は、ここで説明したように、電磁場の座標系からモデルの座標系への幾何学的変換を実行するために使用可能な位置合わせデータを記憶するデータ記憶装置である。また、上記の通り、位置合わせデータは位置合わせ計算機465によって生成されてもよく、いくつかの実施形態では連続的にまたは周期的に更新されてもよい。 Alignment data repository 475 is a data store that stores alignment data that can be used to perform geometric transformations from the coordinate system of the electromagnetic field to the coordinate system of the model, as described herein. Also, as noted above, alignment data may be generated by alignment calculator 465 and may be updated continuously or periodically in some embodiments.

位置計算器430は、モデルデータリポジトリ425、位置合わせデータリポジトリ475、およびスコープ位置推定器420からデータを受信して、電磁センサ座標を3Dモデル座標に変換するモジュールである。スコープ位置推定器420は上述したように、電磁場発生器の位置に対する電磁センサ初期位置を計算する。この位置はまた、3Dモデル内の位置に対応する。電磁座標系からモデル座標系に電磁センサ初期位置を変換するために、位置計算器430は位置合わせデータリポジトリ475に格納された電磁座標系とモデル座標系(例えば、位置合わせデータ)との間のマッピングにアクセスすることができる。スコープ位置を3Dモデル座標系に変換するために、位置計算器430は、入力として、モデルデータリポジトリ425から3Dモデルのトポグラフィを表すデータと、位置合わせデータリポジトリ475からの3Dモデルの電磁場と座標系との間の位置合わせを表すデータと、スコープ位置推定器420からの電磁場内のスコープの位置とを受信する。また、いくつかの実施形態では、状態推定器440から事前に推定された状態データを
受信することができる。受信されたデータに基づいて、位置計算器430は、例えば電磁センサ位置データの3Dモデル内の位置への実行時(on-the-fly)変換を行うことができる。これは、3Dモデルのトポグラフィ内のスコープの遠位端の位置の予備推定値を表すことができ、以下に詳細を説明するように、スコープ位置の最終推定値を生成するための状態推定器440への1つの入力として提供することができる。
Position calculator 430 is a module that receives data from model data repository 425, alignment data repository 475, and scope position estimator 420 and converts electromagnetic sensor coordinates to 3D model coordinates. Scope position estimator 420 calculates the initial position of the electromagnetic sensor relative to the position of the electromagnetic field generator, as described above. This position also corresponds to a position in the 3D model. To transform the electromagnetic sensor initial position from the electromagnetic coordinate system to the model coordinate system, the position calculator 430 performs the conversion between the electromagnetic coordinate system stored in the alignment data repository 475 and the model coordinate system (eg, alignment data). You can access the mapping. To convert the scope position to the 3D model coordinate system, the position calculator 430 takes as inputs data representing the topography of the 3D model from the model data repository 425 and the electromagnetic fields and coordinate system of the 3D model from the alignment data repository 475. and the position of the scope within the electromagnetic field from scope position estimator 420 . Also, in some embodiments, pre-estimated state data may be received from state estimator 440 . Based on the received data, position calculator 430 can, for example, perform on-the-fly conversion of the electromagnetic sensor position data to positions within the 3D model. This may represent a preliminary estimate of the position of the distal tip of the scope within the topography of the 3D model, and the state estimator 440 for producing a final estimate of scope position, as described in more detail below. can be provided as one input to

内視鏡撮像データリポジトリ480は、内視鏡のカメラ、例えば撮像装置315から受信した画像データを記憶するデータ記憶装置である。種々の実施では、画像データがビデオシーケンス内の別個の画像または一連の画像フレームとすることができる。 Endoscopic imaging data repository 480 is a data storage device that stores image data received from an endoscope's camera, eg, imaging device 315 . In various implementations, the image data may be separate images or a series of image frames within a video sequence.

画像分析器435は内視鏡撮像データリポジトリ480およびモデルデータリポジトリ425からデータを受信し、このデータを比較して内視鏡の位置決めを決定することができるモジュールである。例えば、画像分析器435はモデルスキャンから気道系のボリュームレンダリングまたは表面レンダリングされた管腔内画像にアクセスして、レンダリングされた画像を撮像装置315からのリアルタイム画像または映像フレームと比較することができる。例えば、画像を位置合わせすることができ(例えば、Powellの最適化、単体法または勾配法、正規化相互相関または相互情報を費用として有する勾配降下アルゴリズムを用いる)、次いで、二乗誤差の加重正規化和および正規化相互情報を使用して、2つの情報源から得られた位置合わせ画像を比較することができる。スキャンからの2D画像と内視鏡から受け取った2D画像との間の類似性は、内視鏡がスキャンからの画像の位置の近くに配置されていることを示すことができる。そのような画像ベースのナビゲーションは患者の気道の分岐部で局所的な位置合わせを実行することができ、電磁追跡システムよりも、患者の呼吸運動によるノイズの影響を受けにくくすることができる。しかしながら、画像分析器435は内視鏡ビデオに依存するので、分析は、患者の咳または粘膜閉塞によって引き起こされる画像中のアーチファクトによって影響を受ける可能性がある。 Image analyzer 435 is a module that can receive data from endoscope imaging data repository 480 and model data repository 425 and compare this data to determine endoscope positioning. For example, the image analyzer 435 can access volume-rendered or surface-rendered intraluminal images of the airway system from the model scan and compare the rendered images to real-time images or video frames from the imaging device 315. . For example, the images can be registered (e.g., using Powell's optimization, simplex or gradient methods, normalized cross-correlation or gradient descent algorithms with mutual information as cost), then weighted normalization of the squared error Summed and normalized mutual information can be used to compare registered images obtained from two sources. A similarity between the 2D image from the scan and the 2D image received from the endoscope can indicate that the endoscope is positioned near the location of the image from the scan. Such image-based navigation can perform local registration at the bifurcation of the patient's airway and can be less susceptible to noise from patient respiratory motion than electromagnetic tracking systems. However, because the image analyzer 435 relies on endoscopic video, the analysis can be affected by artifacts in the image caused by patient coughing or mucosal obstruction.

画像分析器435は、いくつかの実施形態では画像分析器435が分岐開口部、病変、または粒子など、イメージデータの視野内に存在する物体を検出することができる物体認識手法を実装することができる。物体認識を使用して、画像分析器はどの物体が識別されたかに関する情報、ならびに確率として表される物体の位置、向き、および/またはサイズを示す物体データを出力することができる。一例として、物体認識を使用して、管腔ネットワーク内の分岐点を示すことができる物体を検出し、次いで、それらの位置、サイズ、および/または向きを決定することができる。一実施形態では管腔ネットワーク内の所与の画像において、各枝は典型的には暗いほぼ楕円形の領域として現れ、これらの領域はオブジェクトとしてMSER(Maximally Stable Extremal Region)などの領域検出アルゴリズムを使用して、プロセッサによって自動的に検出することができる。画像分析器435は気道を特定するために、他の技術と組み合わされた光反射強度を使用することができる。さらに、画像分析器435は、管腔ネットワーク内の1組の可能な分岐の中からどの分岐が入力されたかを検出するために、1組の連続する画像フレームにわたって検出された物体を追跡することができる。 The image analyzer 435 may implement object recognition techniques that, in some embodiments, allow the image analyzer 435 to detect objects present within the field of view of the image data, such as bifurcation openings, lesions, or particles. can. Using object recognition, the image analyzer can output information about which objects have been identified, as well as object data indicating the object's position, orientation, and/or size expressed as a probability. As an example, object recognition can be used to detect objects that can indicate branching points in a luminal network and then determine their location, size and/or orientation. In one embodiment, in a given image within a luminal network, each branch typically appears as a dark, roughly elliptical region, and these regions are treated as objects by region detection algorithms such as MSER (Maximally Stable Extremal Region). can be used and automatically detected by the processor. Image analyzer 435 can use light reflection intensity combined with other techniques to identify the airway. In addition, the image analyzer 435 tracks the detected object over a set of consecutive image frames to detect which of the set of possible branches in the luminal network has entered. can be done.

ロボット位置データリポジトリ470は手術ロボットシステム110から受信したロボット位置データ、例えば、管腔ネットワーク内の手術ロボットシステム110による医療機器または医療機器の一部(例えば、器具先端または遠位端)の物理的移動に関連するデータを記憶するデータ記憶デバイスである。例示的なロボット位置データには、管腔ネットワーク内の特定の解剖学的部位に到達することおよび/または管腔ネットワークにおいて向きを(例えば、内視鏡器具のリーダおよびシースの一方または両方に対して、特定のピッチ、ロール、ヨー、挿入、および後退で)変更することを器具先端に命令するコマンドデータ、医療機器の一部(例えば、器具先端またはシース)の挿入移動を表す挿入デー
タ、IDMデータ、例えば、管腔ネットワーク内の内視鏡の実際の移動を駆動する内視鏡の1つまたは複数のプルワイヤ、腱、またはシャフトの移動など、医療機器の長尺の部材の機械的移動を表す機械的データが含まれる。
Robot position data repository 470 receives robot position data from surgical robotic system 110, e.g. A data storage device that stores data related to movement. Exemplary robot position data includes reaching a particular anatomical site within the luminal network and/or orientation within the luminal network (e.g., relative to one or both of the endoscopic instrument leader and sheath). command data to command the instrument tip to change (e.g., in specific pitch, roll, yaw, insertion and retraction), insertion data representing the insertion movement of a portion of the medical device (e.g., instrument tip or sheath), IDM data, e.g., mechanical movement of elongated members of the medical device, such as movement of one or more pull wires, tendons, or shafts of the endoscope that drive the actual movement of the endoscope within the luminal network; It contains mechanical data representing

ナビゲーション経路データリポジトリ445は、管腔ネットワークを通って目標の組織部位までのあらかじめ計画されたナビゲーション経路を表すデータを記憶するデータ記憶デバイスである。患者の体の管腔ネットワーク内の特定の位置へのナビゲーションは、管状ネットワークの3Dモデルを生成し、管状ネットワーク内のナビゲーション経路を決定するのに必要な情報を生成するために、手術前に特定のステップを行うことを必要とする場合がある。上記の通り、特定の患者の気道のトポグラフィおよび構造の3Dモデルを生成することができる。ターゲット、例えば、生検する病変または手術によって修復する器官組織の一部を選択することができる。一実施形態では、ユーザがマウスでクリックすること、またはタッチ画面をタッチすることなどによって、3Dモデルを示すことができるコンピュータディスプレイに指示することによって、対象の位置を選択することができる。いくつかの実施形態では、ナビゲーション経路がモデル化および特定された病変部位の分析によってプログラム的に特定されて、病変までの最短のナビゲーション経路を導出することができる。いくつかの実施形態では経路が医師によって特定されてもよく、または自動的に特定された経路は医師によって修正されてもよい。ナビゲーション経路は、特定された目標の部位に到達するように移動する管腔ネットワーク内の一連の分岐を特定することができる。 Navigation path data repository 445 is a data storage device that stores data representing pre-planned navigation paths through the luminal network to target tissue sites. Navigation to a specific location within the luminal network of the patient's body is performed prior to surgery to generate a 3D model of the tubular network and the information necessary to determine the navigational path within the tubular network. It may be necessary to perform the steps of As described above, a 3D model of the airway topography and structure of a particular patient can be generated. A target can be selected, eg, a lesion to biopsy or a portion of organ tissue to be surgically repaired. In one embodiment, the location of interest may be selected by the user pointing to a computer display capable of showing the 3D model, such as by clicking with a mouse or touching a touch screen. In some embodiments, a navigational path can be programmatically identified by analysis of a modeled and identified lesion site to derive the shortest navigational path to the lesion. In some embodiments, the route may be identified by the physician, or the automatically identified route may be modified by the physician. The navigation path can identify a series of branches within the luminal network that travel to reach the identified target site.

状態推定器440は入力を受信し、入力の分析を実行して医療機器の状態を決定するモジュールである。例えば、状態推定器440は、呼吸数および/または相特定器410、スコープ位置推定器420、位置計算器430、画像分析器435、ナビゲーション経路データリポジトリ445、およびロボット位置データリポジトリ470からのデータを入力として受信することができる。状態推定器440は、提供された入力が与えられると、確率分析を実施して、管腔ネットワーク内の医療機器の状態および対応する確率を決定することができる。推定された状態は(1)管腔ネットワークのモデルの座標系に対する器具のx、y、z位置、(2)器具がモデルの特定の領域、例えば、特定の気道枝または事前に特定された安全領域に位置するかどうか、(3)器具のピッチ、ロール、ヨー、挿入、および/または後退、ならびに(4)目標の部位までの距離のうちの1つまたは複数を指すことができる。状態推定器440は、時間の関数として器具(または器具の遠位先端)の推定された状態を提供することができる。 State estimator 440 is a module that receives inputs and performs an analysis of the inputs to determine the state of the medical device. For example, state estimator 440 may incorporate data from respiratory rate and/or phase identifier 410, scope position estimator 420, position calculator 430, image analyzer 435, navigation path data repository 445, and robot position data repository 470. can be received as input. State estimator 440 can perform probabilistic analysis to determine states and corresponding probabilities of medical devices within the lumen network, given the inputs provided. The estimated state is (1) the x, y, z position of the instrument relative to the coordinate system of the model of the luminal network, and (2) the instrument is located in a specific region of the model, e.g. It can refer to one or more of (3) pitch, roll, yaw, insertion, and/or retraction of the instrument, and (4) distance to the target site, whether located in the area. A state estimator 440 can provide an estimated state of the instrument (or the distal tip of the instrument) as a function of time.

いくつかの実施形態では、状態推定器440が状態および対応する確率を決定するためにベイズフレームワークを実装することができる。ベイズ統計分析は事前(prior)と呼
ばれる信念(belief)から始まり、観察されたデータでその信念を更新する。事前はベイズモデルパラメータが何であるかの推定値を表し、パラメータ化された分布として表すことができる。観察されたデータは、パラメータの実際の値についての証拠を得るために収集することができる。ベイズ分析の結果は事後(posterior)と呼ばれ、事象を信頼度で
表現する確率分布を表す。さらなるデータが取得される場合、事後は事前として扱われ、新たなデータで更新することができる。このプロセスは条件付き確率、例えば、イベントBが発生した場合にイベントAである可能性がどの程度高いかを示すベイズの定理を用いる。
In some embodiments, state estimator 440 may implement a Bayesian framework to determine states and corresponding probabilities. Bayesian statistical analysis starts with a belief, called the prior, and updates that belief with observed data. A priori represents an estimate of what the Bayesian model parameters are and can be represented as a parameterized distribution. Observed data can be collected to provide evidence for the actual value of the parameter. The result of Bayesian analysis is called the posterior, which represents a probability distribution that describes an event with confidence. If more data is acquired, the ex post can be treated as ex ante and updated with the new data. This process uses conditional probabilities, eg, Bayes' theorem, which indicates how likely event A is if event B occurs.

開示のナビゲーション融合システム400に関して、状態推定器440は以前に推定された状態データを事前として使用することができ、呼吸数および/または相特定器410、スコープ位置推定器420、位置計算器430、画像分析器435、ナビゲーション経路データリポジトリ445、および/またはロボット位置データリポジトリ470からの入力を観測データとして使用することができる。手技の開始時に、視覚に基づく初期化手
法を使用して、気管内の初期深さおよびロールを推定することができ、この推定値を事前に使用することができる。状態推定器440は複数の可能な状態のそれぞれの確率および信頼値を表す事後分布を生成するために、事前データおよび観測データのベイズ統計分析を実行することができる。
With respect to the disclosed navigational fusion system 400, the state estimator 440 can use previously estimated state data as a priori, and the respiratory rate and/or phase identifier 410, scope position estimator 420, position calculator 430, Inputs from image analyzer 435, navigation path data repository 445, and/or robot position data repository 470 can be used as observation data. At the beginning of the procedure, a visual-based initialization technique can be used to estimate the initial depth and roll within the trachea, and this estimate can be used in advance. State estimator 440 may perform Bayesian statistical analysis of prior and observed data to generate posterior distributions representing probabilities and confidence values for each of multiple possible states.

本明細書で使用される「確率分布」の「確率」は、医療機器の可能な位置および/または向きの推定が正しい可能性を意味する。例えば、医療器具が管腔ネットワーク内のいくつかの異なる可能な分岐のうちの1つにある相対的な可能性を示すアルゴリズムモジュールのうちの1つによって、異なる確率を計算することができる。一実施形態では、確率分布の種類(例えば、離散分布または連続分布)は推定された状態の特徴(例えば、推定された状態の種類、例えば、連続的な位置情報と離散的な分岐選択)に一致するように選択される。一例として、医療器具が三つ叉の分岐部にあるためにどのセグメントにあるかを識別するための推定状態は離散確率分布によって表されてもよく、アルゴリズムモジュールのうちの1つによって決定されるように、3つの分岐のそれぞれに存在する可能性を表す20%、30%、および50%という3つの離散値を含んでもよい。別の例として、推定された状態は40±5度の医療機器のロール角を含んでもよく、分岐内の器具先端のセグメント深さは4±1mmであってもよく、各々は連続確率分布の一種であるガウス分布によって表される。 As used herein, the "probability" of a "probability distribution" means the likelihood that an estimate of possible positions and/or orientations of a medical device is correct. For example, different probabilities can be calculated by one of the algorithm modules that indicate the relative likelihood that the medical device is at one of several different possible branches within the luminal network. In one embodiment, the type of probability distribution (e.g., discrete or continuous distribution) depends on the features of the estimated state (e.g., the type of estimated state, e.g., continuous location information and discrete branch selection). selected to match. As an example, the estimated state for identifying which segment the medical device is in because it is at the trifurcate bifurcation may be represented by a discrete probability distribution, determined by one of the algorithm modules. As such, it may include three discrete values of 20%, 30%, and 50% representing the likelihood of being in each of the three branches. As another example, the estimated conditions may include a medical device roll angle of 40 ± 5 degrees, and the segment depth of the instrument tip within the bifurcation may be 4 ± 1 mm, each with a continuous probability distribution It is represented by a kind of Gaussian distribution.

これに対して、本明細書で使用される「信頼値」は、1つまたは複数の要因に基づく図4のモジュールのうちの1つによって提供される状態の推定における信頼性の尺度を反映する。電磁ベースのモジュールでは、電磁場の歪み、電磁位置合わせの不正確さ、患者のシフトまたは移動、および患者の呼吸などの要因が状態の推定の信頼性に影響を及ぼす可能性がある。特に、電磁ベースのモジュールによって提供される状態の推定における信頼値は患者の特定の呼吸数、患者または電磁場発生器の動き、および器具先端が位置する解剖学的構造内の位置に依存し得る。画像分析器435の場合、状態の推定における信頼値に影響を及ぼす可能性がある要素の例には、画像が取得される解剖学的構造内の1地点の照明条件、画像を取得する光学センサに対するまたはその前方の流体、組織、または他の障害物の存在、患者の呼吸、管状ネットワーク内の一般的な流体などの患者自体の管状ネットワーク(例えば、肺)の状態、および管状ネットワークの閉塞、ならびに、例えば、ナビゲーションまたは画像取得で使用される特定の動作手法が含まれる。 In contrast, "confidence value" as used herein reflects a measure of confidence in the state estimation provided by one of the modules of FIG. 4 based on one or more factors. . In electromagnetic-based modules, factors such as electromagnetic field distortion, electromagnetic alignment inaccuracy, patient shifting or movement, and patient respiration can affect the reliability of state estimation. In particular, the confidence value in the state estimates provided by the electromagnetic-based module may depend on the patient's particular respiration rate, the movement of the patient or the electromagnetic field generator, and the position within the anatomy in which the instrument tip is located. For the image analyzer 435, examples of factors that can affect the confidence value in the state estimate include lighting conditions at a point in the anatomy where the image is acquired, the optical sensor that acquires the image, the presence of fluid, tissue, or other obstructions to or in front of, the patient's respiration, the condition of the patient's own tubular network (e.g., the lungs) such as general fluids within the tubular network, and obstruction of the tubular network; Also included are specific motion techniques used, for example, in navigation or image acquisition.

例えば、1つの要因は、特定のアルゴリズムが、気道開口部に比較的近い位置など、患者の肺の深さごとに精度レベルが異なる場合があることであり、特定のアルゴリズムは、医療機器の位置および向きの推定において高い信頼性を有するが、肺の下端へと進むほど、その信頼値が低下する場合があることである。一般に、信頼値は、結果をもたらすプロセスに関連する1つまたは複数の系統的要素に基づくものであり、確率は。基礎となるデータに基づく単一のアルゴリズムを用いて複数の可能性から正しい結果を得ようと試みる場合に生じる相対的な尺度である。 For example, one factor is that certain algorithms may have different levels of accuracy for each depth of the patient's lung, such as locations relatively close to the airway opening, and certain algorithms may vary depending on the location of the medical device. and orientation estimation, but the confidence value may decrease as one progresses toward the lower end of the lung. In general, the confidence value is based on one or more systematic factors associated with the process leading to the outcome, and the probability is. It is a relative measure that arises when trying to get the correct result from multiple possibilities using a single algorithm based on the underlying data.

一例として、離散確率分布によって表される推定状態の結果を計算するための数式(例えば、関与する推定状態の3つの値を有する三分岐についての分岐/セグメント識別)は、以下のようにすることができる。 As an example, the formula for computing the outcome of an estimated state represented by a discrete probability distribution (e.g., branch/segment identification for a tri-branch with three values of participating estimated states) is as follows: can be done.

上の例示的な数式において、S(i=1、2、3)は3Dモデルにおいて3つの可能なセグメントが識別されるか、または存在するケースにおける推定されたステートの可能な例示的な価値を表し、CEM、Cimage、およびCrobotは電磁ベースのアルゴリズム、画像ベースのアルゴリズム、およびロボットベースのアルゴリズムに対応する信頼価値を表し、Pi,EM、Pi,image、およびPi,robotは、セグメントiの確率を表す。このような融合アルゴリズムの確率的性質のために、呼吸は経時的に追
跡することができ、さらには、待ち時間外乱(latency disturbance)および外れ値外乱
(outlier disturbance)を克服するように予測することもできる。
In the exemplary equations above, S i (i=1, 2, 3) are the possible exemplary values of the estimated state in the case where three possible segments are identified or exist in the 3D model. , C EM , C image , and C robot denote confidence values corresponding to electromagnetic-based, image-based, and robot-based algorithms, and P i,EM , P i,image , and P i, robot represents the probability of segment i. Due to the stochastic nature of such fusion algorithms, breathing can be tracked over time and even predicted to overcome latency and outlier disturbances. can also

いくつかの実施形態では、スコープ位置推定器420、位置合わせ計算器、および画像分析器435からのデータの信頼値は呼吸数および/または相特定器410からの呼吸相に基づいて適応的に決定することができる。例えば、ロボット位置データおよび画像データは、呼吸運動による電磁センサデータとは異なる影響を受ける可能性がある。いくつかの実施形態では、内視鏡撮像データリポジトリ430から取得された視覚データを使用して、管腔ネットワークの外部のセンサを介して検出可能でない特定の種類の呼吸運動、例えば、視覚処理によって検出することができる頭尾(前後)運動における気道の運動を検出することができる。 In some embodiments, confidence values for data from scope position estimator 420, registration calculator, and image analyzer 435 are adaptively determined based on respiratory rate and/or respiratory phase from phase identifier 410. can do. For example, robot position data and image data may be affected differently than electromagnetic sensor data by respiratory motion. In some embodiments, visual data obtained from the endoscopic imaging data repository 430 is used to detect certain types of respiratory motion that are not detectable via sensors external to the luminal network, e.g., by visual processing. Airway movement can be detected in head-to-tail (back and forth) movements that can be detected.

安全領域データリポジトリ455は、器具挿入中に特定の注意を払うべき領域および/または条件を表すデータを記憶するデータ記憶装置である。例えば、上述のように、3Dモデルは、気道直径に関する情報を含むことができる。内視鏡の直径以下、または内視鏡の直径の所定の閾値(例えば、1~2mm、約4mm、または任意の他の閾値距離)内の直径を有する管腔ネットワークの分岐は、安全領域として指定することができる。いくつかの実施形態では、そのような指定は、直径の比較をプロセッサによってプログラム的に行うことができる。別の例として、患者の呼吸の周期の特定の相は患者の呼吸の呼気相安全「領域」として、または呼気で始まり、患者の気道が収縮すると予想される吸気の途中で終わる遷移相として指定することができる。いくつかの実施形態では、閾値が器具の寸法、制御された動きの制御公差、ユーザ構成可能な好みなどを含む要因に基づいて構成することができる。いくつかの実施形態では、安全領域データリポジトリ455は、ロボットシステムの動作および/または様々な安全領域における制限に関する命令を格納することができる。 Safe area data repository 455 is a data storage device that stores data representing areas and/or conditions to which particular attention should be paid during instrument insertion. For example, as described above, the 3D model can include information regarding airway diameter. Branches of the luminal network with diameters less than or equal to the diameter of the endoscope, or within a predetermined threshold of the diameter of the endoscope (eg, 1-2 mm, about 4 mm, or any other threshold distance) are designated as safe regions. can be specified. In some embodiments, such designation may allow the diameter comparison to be programmatically performed by a processor. As another example, a particular phase of a patient's respiratory cycle is designated as the expiratory safe "zone" of the patient's breathing, or as the transition phase that begins with exhalation and ends mid-inspiration when the patient's airway is expected to constrict. can do. In some embodiments, the threshold can be configured based on factors including instrument dimensions, controlled motion control tolerances, user-configurable preferences, and the like. In some embodiments, the safe area data repository 455 may store instructions regarding the operation of the robotic system and/or limitations in various safe areas.

セーフティモードコントローラ450は種々の入力を受信し、セーフティモードを起動するかどうかを決定するモジュールである。例えば、安全モードコントローラ450は、入力として、安全領域データリポジトリ455からのデータ、呼吸数および/または相特定器410からの呼吸位相データ、および状態推定器440からの推定状態出力を受信することができる。安全モードコントローラ450は、呼吸相および推定状態を安全領域リポジトリからのデータと比較して、安全モードを起動すべきかどうかを判定することができる。 Safety mode controller 450 is a module that receives various inputs and determines whether to activate safety mode. For example, safe mode controller 450 may receive as inputs data from safe region data repository 455, respiratory rate and/or respiratory phase data from phase identifier 410, and estimated state output from state estimator 440. can. The safe mode controller 450 can compare the respiratory phase and estimated state to data from the safe area repository to determine whether safe mode should be activated.

ナビゲーションコントローラ460は安全モードコントローラ450からデータを受信し、このデータを使用して手術ロボットシステム110のさらなる動作を案内するモジュールである。例えば、安全モードが起動されると、ナビゲーションコントローラ460は、特定の表示命令および/またはIDM動作命令に関するデータを安全モードコントローラ450から受信することができる。安全モードが起動されていないとき、ナビゲーションコントローラ460は、推定された状態およびナビゲーション経路データ内で識別された次の移動に関するデータを安全モードコントローラ450から受信することができる。 Navigation controller 460 is a module that receives data from safe mode controller 450 and uses this data to guide further operation of surgical robotic system 110 . For example, when safe mode is activated, navigation controller 460 may receive data from safe mode controller 450 regarding specific display instructions and/or IDM operating instructions. When safe mode is not activated, navigation controller 460 may receive data from safe mode controller 450 regarding the estimated state and the next move identified in the navigation route data.

(ナビゲーション技術例の概要)
本件開示の1つまたは複数の態様によれば、図5は本明細書で説明されるように、器具の位置推定から管腔ネットワークの運動に起因するノイズをフィルタリングして除去するための例示的なプロセス500のフローチャートを示す。プロセス500は、図4のナビゲーション融合システム400、図1の制御およびセンサ電子機器184、および/または図2のコンソールベース201、またはその構成要素において実施することができる。
(Overview of example navigation techniques)
According to one or more aspects of the present disclosure, FIG. 5 illustrates an exemplary system for filtering out noise due to luminal network motion from an instrument position estimate, as described herein. 5 shows a flow chart of a simple process 500 . Process 500 may be implemented in navigation fusion system 400 of FIG. 4, control and sensor electronics 184 of FIG. 1, and/or console base 201 of FIG. 2, or components thereof.

ブロック505において、位置計算器430は例えばモデルデータリポジトリ425か
ら、患者の管腔ネットワークのモデルにアクセスすることができる。例えば、モデルは、いくつかの実施形態ではCTスキャンから生成された患者の気道のセグメント化されたマップとすることができる。モデルは、患者の実際の管腔ネットワーク(または管腔ネットワークの一部)の任意の2次元または3次元表現とすることができる。
At block 505 , the position calculator 430 may access a model of the patient's luminal network, eg, from the model data repository 425 . For example, the model can be a segmented map of the patient's airway generated from a CT scan in some embodiments. The model can be any two-dimensional or three-dimensional representation of the patient's actual luminal network (or part of a luminal network).

ブロック510において、内視鏡位置推定器420は器具センサからデータを受信することができ、呼吸数/相特定器410は例えば、呼吸センサデータリポジトリ405および内視鏡電磁センサデータリポジトリ410から、それぞれ、データ呼吸センサを受信することができる。上述のように、内視鏡センサデータは内視鏡の電磁センサから導出することができ、管腔ネットワークの周りに生成された電磁場内の内視鏡の遠位端の位置および/または向きを提供することができ、呼吸センサデータは、管腔ネットワークの動きを検出するように配置されたセンサによって生成することができる。 At block 510, endoscope position estimator 420 may receive data from instrument sensors, and respiratory rate/phase identifier 410 may, for example, from respiratory sensor data repository 405 and endoscope electromagnetic sensor data repository 410, respectively. , can receive data respiration sensors. As described above, the endoscope sensor data can be derived from the endoscope's electromagnetic sensors, which indicate the position and/or orientation of the distal end of the endoscope within the electromagnetic field generated around the luminal network. can be provided and the respiratory sensor data can be generated by a sensor positioned to detect motion of the luminal network.

ブロック515において、位置計算器430は、モデルに対する機器の位置を推定することができる。例えば、モデルの座標系は、位置合わせ中の(位置合わせ計算器465および位置合わせデータリポジトリ475に関する上記の説明を参照)医療手技の開始時に電磁場の座標系にマッピングされてもよい。位置計算器430は、このマッピングを(位置合わせデータを介して)電磁場内のセンサ位置の座標と共に使用して、モデル内の機器センサの位置の初期推定値を生成することができる。しかしながら、上記の通り、呼吸中の患者の気道の動きのために、電磁場の座標系へのモデルの初期位置合わせは、電磁場内の患者の気道の実際の動的な位置を正確に反映しないことがある。器具は動的に動く気道のうちの1つの中に位置するので、電磁場内の気道位置がモデル内のその同じ気道のマッピングされた位置から変化するとき、ブロック515で推定された位置は、例えば、器具の推定された位置の呼吸運動アーチファクト/成分に対して不正確であり得る。 At block 515, position calculator 430 may estimate the position of the device relative to the model. For example, the coordinate system of the model may be mapped to the coordinate system of the electromagnetic field at the beginning of the medical procedure during registration (see discussion above regarding registration calculator 465 and registration data repository 475). The position calculator 430 can use this mapping (via the alignment data) along with the coordinates of the sensor position within the electromagnetic field to generate an initial estimate of the position of the device sensor within the model. However, as noted above, due to movement of the patient's airway during breathing, the initial alignment of the model to the coordinate system of the electromagnetic field may not accurately reflect the actual dynamic position of the patient's airway within the electromagnetic field. There is Since the instrument is located in one of the dynamically moving airways, when the airway position in the electromagnetic field changes from that same airway's mapped position in the model, the position estimated in block 515 will be, for example, , may be inaccurate for respiratory motion artifacts/components of the estimated position of the instrument.

ブロック520において、呼吸数および/または相特定器410は、例えばフーリエ変換を使用して呼吸数を抽出することによって、呼吸センサからのデータから呼吸数を抽出することができる。フーリエ変換は、複数の呼吸センサを有する実施形態において、1つ以上のセンサからのデータに適用され得る。 At block 520, the respiration rate and/or phase identifier 410 may extract the respiration rate from the data from the respiration sensor, such as by using a Fourier transform to extract the respiration rate. A Fourier transform may be applied to data from one or more sensors in embodiments having multiple respiratory sensors.

ブロック525において、位置計算器430および/または内視鏡位置推定器420は管腔ネットワークの周期的な動きを補償するために、特定された呼吸数に基づいて器具およびモデル位置の一方または両方を調整するために、フィルタリングステージ535を実装することができる。フィルタリングステージ535の様々な実施形態は、図6A~6Cを参照しながら詳細を説明する。 At block 525, the position calculator 430 and/or the endoscope position estimator 420 adjusts the instrument and/or model position based on the determined respiration rate to compensate for periodic motion of the luminal network. A filtering stage 535 can be implemented to adjust. Various embodiments of filtering stage 535 are described in detail with reference to FIGS. 6A-6C.

ブロック530において、状態推定器440は、器具位置を示す指標を出力することができる。出力はナビゲーションシステム、例えば、手術ロボットシステム110、ユーザインタフェース、例えば、ディスプレイ202、またはその両方に提供され得る。いくつかの実施形態では、機器の可能性のある状態の特定に使用するために、指標を状態推定器440に出力することができる。 At block 530, state estimator 440 may output an indication of instrument position. Output may be provided to a navigation system, eg, surgical robotic system 110, a user interface, eg, display 202, or both. In some embodiments, the indicators can be output to state estimator 440 for use in identifying possible states of the device.

図6A~図6Cは、図5のフィルタリングステージ535に使用することができる様々な例示的なプロセスのフローチャートを示す。図6A~図6Cのプロセスは、図4のナビゲーション融合システム400、図1の制御およびセンサ電子機器184、および/または図2のコンソールベース201、またはその構成要素によって実行することができる。 6A-6C show flowcharts of various exemplary processes that may be used for filtering stage 535 of FIG. The processes of FIGS. 6A-6C may be performed by navigation fusion system 400 of FIG. 4, control and sensor electronics 184 of FIG. 1, and/or console base 201 of FIG. 2, or components thereof.

図6Aを参照すると、フィルタリングステージ535に使用することができる例示的な1つのプロセス600Aが示されている。ブロック605において、内視鏡位置推定器420は、特定された呼吸数に基づいてフィルタを設計することができる。上記の通り、い
くつかの実施形態では、患者の気道のモデルが、息止め時に生成される。したがって、フィルタは、モデルが生成された間の息止め状態に対応する吸気のピーク状態の間に機器電磁センサデータを選択するように設計されたバンドパスフィルタまたはバンドストップフィルタとすることができる。
Referring to FIG. 6A, one exemplary process 600A that can be used for filtering stage 535 is shown. At block 605, endoscope position estimator 420 may design a filter based on the determined respiration rate. As noted above, in some embodiments, a model of the patient's airway is generated during breath-holding. Thus, the filter can be a bandpass or bandstop filter designed to select the device electromagnetic sensor data during peak inspiration conditions corresponding to breath-hold conditions during which the model was generated.

ブロック610では、内視鏡位置推定器420がブロック605で設計されたフィルタを器具電磁センサデータに適用して、データの一部をフィルタ除去することができる。そうすることによって、プロセス600Aは、典型的に「ノイズ」と考えられ、3Dモデルとの不正確な位置合わせにつながる電磁センサ信号の部分をフィルタ除去することができる。電磁センサ位置は静的3Dモデルに対して位置合わせされるので、モデルが生成された呼吸状態とは異なる呼吸状態中に発生する信号の部分をフィルタリングすることにより、位置合わせの精度を高めることができる。 At block 610, endoscope position estimator 420 may apply the filter designed at block 605 to the instrument electromagnetic sensor data to filter out a portion of the data. By doing so, process 600A can filter out portions of the electromagnetic sensor signal that are typically considered "noise" and lead to inaccurate alignment with the 3D model. Since the electromagnetic sensor positions are registered to the static 3D model, it is possible to improve the accuracy of registration by filtering portions of the signal that occur during respiratory states that differ from those from which the model was generated. can.

図6Bを参照すると、フィルタリングステージ535に使用することができる別の例示的なプロセス600Bが示されている。ブロック615において、呼吸数および/または相特定器410は、各呼吸センサの変位の大きさを識別することができる。大きさは、各センサの「ベースライン」位置に対して測定することができる。基準線は、較正時に各センサの位置を記録することによって、モデル座標を電磁場の座標に較正するときに設定することができる。患者の胸部に配置された複数の電磁センサを有する実施形態では、胸骨に近接して取り付けられたセンサが肺の下側の境界に近接して取り付けられたセンサよりも低い変位の大きさを示す。 Referring to FIG. 6B, another exemplary process 600B that may be used for filtering stage 535 is shown. At block 615, the respiratory rate and/or phase identifier 410 may identify the magnitude of displacement for each respiratory sensor. Magnitude can be measured relative to the "baseline" position of each sensor. A reference line can be set when calibrating the model coordinates to the coordinates of the electromagnetic field by recording the position of each sensor during calibration. In embodiments having multiple electromagnetic sensors placed on the patient's chest, sensors mounted closer to the sternum exhibit lower magnitudes of displacement than sensors mounted closer to the lower border of the lungs. .

ブロック620において、内視鏡位置推定器420は、呼吸センサに対する器具センサの相対位置を識別することができる。例えば、x座標およびy座標(電磁場における長さおよび幅位置を表す)を比較して、最も近い呼吸センサおよび/または器具センサと各呼吸センサとの間の相対距離を決定することができる。 At block 620, endoscope position estimator 420 may identify the relative position of the instrument sensor to the respiratory sensor. For example, the x- and y-coordinates (representing length and width positions in the electromagnetic field) can be compared to determine the relative distance between each respiration sensor and the nearest respiration sensor and/or device sensor.

ブロック625において、プロセス内視鏡位置推定器420は、呼吸センサの変位と、器具センサおよび呼吸センサの相対位置とに基づいて、器具センサの変位を補間することができる。 At block 625, the process endoscope position estimator 420 may interpolate the displacement of the instrument sensor based on the displacement of the respiratory sensor and the relative positions of the instrument sensor and the respiratory sensor.

ブロック630において、内視鏡位置推定器420は、ブロック515において補間された変位によって計算された推定器具位置を調整することができる。したがって、調整された位置は、モデル座標系に対する気道の変位を補償することによって、モデル内の器具のより正確な位置を表すことができる。 At block 630 , endoscope position estimator 420 may adjust the estimated instrument position calculated by the interpolated displacements at block 515 . Therefore, the adjusted position can represent a more accurate position of the instrument within the model by compensating for the displacement of the airway with respect to the model coordinate system.

図6Cを参照すると、フィルタリングステージ535に使用することができる別の例示的なプロセス600Cが示されている。ブロック630において、呼吸数および/または相特定器410は、各呼吸センサの変位の大きさを識別することができる。これは、上述のプロセス600Bのブロック615と同様に実行することができる。 Referring to FIG. 6C, another exemplary process 600C that may be used for filtering stage 535 is shown. At block 630, the respiration rate and/or phase identifier 410 may identify the magnitude of displacement for each respiration sensor. This can be performed similarly to block 615 of process 600B described above.

ブロック635において、位置計算器430は、呼吸センサ位置への3Dモデルのマッピングにアクセスすることができる。例えば、各呼吸センサは、モデル内のx座標およびy座標にマッピングすることができる。 At block 635, the position calculator 430 may access the mapping of the 3D model to respiratory sensor positions. For example, each respiratory sensor can be mapped to x and y coordinates in the model.

ブロック640で、位置計算器430は、このマッピングおよび変位の大きさに基づいて、モデルを電磁場の座標系内の新しい座標に変換することができる。例えば、センサがマッピングされた各(x,y)座標において、プロセス600Cは、マッピングされたセンサの変位の大きさに基づいて(x,y,z)モデル座標のzの値を調整することができる。マッピングされたセンサ間の(x,y)座標について、zの値は、隣接するセンサか
らの大きさおよび距離に基づいて補間された大きさに基づいて調整することができる。したがって、電磁場の座標系内のモデルの位置は、患者の気道の動きを反映するように動的に調整することができる。
At block 640, the position calculator 430 may transform the model to new coordinates within the coordinate system of the electromagnetic field based on this mapping and the magnitude of the displacement. For example, for each (x,y) coordinate to which a sensor is mapped, process 600C may adjust the z value of the (x,y,z) model coordinate based on the displacement magnitude of the mapped sensor. can. For (x,y) coordinates between mapped sensors, the z value can be adjusted based on the interpolated magnitude based on magnitude and distance from neighboring sensors. Accordingly, the position of the model within the coordinate system of the electromagnetic field can be dynamically adjusted to reflect movement of the patient's airway.

ブロック645において、位置計算器430は、器具位置を平行移動されたモデルに位置合わせすることができる。例えば、位置計算器430は電磁場内の器具センサの(x,y,z)座標データにアクセスし、変換されたモデル内の対応する位置を識別することができる。 At block 645, position calculator 430 may register the instrument position to the translated model. For example, the position calculator 430 can access the (x, y, z) coordinate data of the instrument sensor within the electromagnetic field and identify the corresponding position within the transformed model.

プロセス500のいくつかの実施形態は、プロセス600A、600B、600Cのうちの1つまたは複数を使用して、フィルタリングステージ535におけるモデルに対する器具位置を計算することができる。 Some embodiments of process 500 may use one or more of processes 600A, 600B, 600C to calculate the instrument position relative to the model in filtering stage 535 .

本件開示の1つまたは複数の態様によれば、図7は、本件開示の管腔ネットワークナビゲーション中に安全モードを起動するための例示的なプロセス700のフローチャートを示す。プロセス700は、図4のナビゲーション融合システム400、図1の制御およびセンサ電子機器184、および/または図2のコンソールベース201、またはその構成要素によって実施することができる。 According to one or more aspects of the present disclosure, FIG. 7 depicts a flowchart of an example process 700 for activating safe mode during luminal network navigation of the present disclosure. Process 700 may be implemented by navigation fusion system 400 of FIG. 4, control and sensor electronics 184 of FIG. 1, and/or console base 201 of FIG. 2, or components thereof.

ブロック705において、状態推定器440は例えばモデルデータリポジトリ425から、患者の管腔ネットワークの3Dモデルにアクセスすることができる。 At block 705 , state estimator 440 may access a 3D model of the patient's luminal network, eg, from model data repository 425 .

ブロック710において、状態推定器440は機器センサおよび呼吸センサの一方または両方から、例えば、呼吸センサデータリポジトリ405および内視鏡電磁センサデータリポジトリ415からデータを受信することができ、またはモジュール410、420、および/または430からそのようなデータの分析を受信することができる。上述のように、内視鏡センサデータは管腔ネットワークの周りに生成された電磁場内の内視鏡の遠位端の位置および/または向きを提供することができ、呼吸センサデータは、管腔ネットワークの動きを検出するように配置されたセンサによって生成することができる。ブロック710の後、プロセス700は安全モードを起動するかどうかを決定するために、個別にまたは共に実行することができる2つのサブプロセスに分割することができる。これらのサブプロセスは、共に実行される場合は、並列または直列に実行することができる。 At block 710, the state estimator 440 may receive data from one or both of the instrument sensors and respiratory sensors, for example, from the respiratory sensor data repository 405 and the endoscope electromagnetic sensor data repository 415, or modules 410, 420. , and/or analysis of such data from 430 . As described above, the endoscope sensor data can provide the position and/or orientation of the distal end of the endoscope within the electromagnetic field generated around the luminal network, and the respiratory sensor data can provide the luminal It can be generated by a sensor positioned to detect network motion. After block 710, process 700 can be split into two sub-processes that can be run separately or together to determine whether to activate secure mode. These sub-processes, when executed together, can be executed in parallel or serially.

ブロック710で状態推定器440が計器センサ位置データを受信した場合、プロセス700はブロック715に進むことができる。ブロック715において、状態推定器440は、モデルに対する機器の位置を推定することができる。この推定は周期的な動きを補償するために、いくつかの実施形態において上記のプロセス600A~600Cのいずれかによって実行することができる。 If state estimator 440 receives instrument sensor position data at block 710 , process 700 may proceed to block 715 . At block 715, state estimator 440 may estimate the position of the device relative to the model. This estimation may be performed by any of the processes 600A-600C described above in some embodiments to compensate for periodic motion.

判定ブロック720において、安全モードコントローラ450は、器具の位置が3Dモデルの所定の安全領域内にあるかどうかを判定する。上述したように、安全領域は、気道および器具直径の比較に基づいてあらかじめ定義することができる。器具の位置が安全領域内に入らない場合、プロセス700は、ブロック710にループバックして、センサから新たなデータを受信する。他の実施形態では、プロセス700は、ブロック725に進んでもよい。 At decision block 720, the safe mode controller 450 determines whether the position of the instrument is within the predetermined safe area of the 3D model. As noted above, a safety zone can be predefined based on a comparison of airway and device diameters. If the instrument position does not fall within the safe area, process 700 loops back to block 710 to receive new data from the sensors. In other embodiments, process 700 may proceed to block 725 .

器具の位置が安全領域内にある場合、プロセス700はブロック735に進み、安全モードコントローラ450は器具のさらなるナビゲーション(例えば、器具の次の移動またはその後の移動)のための安全モードを起動する。 If the position of the instrument is within the safe area, process 700 proceeds to block 735 where safe mode controller 450 activates safe mode for further navigation of the instrument (eg, the next or subsequent movement of the instrument).

ブロック725に移ると、プロセス700がブロック710で呼吸センサ位置データを受信した場合、プロセス700はブロック725に進むことができる。ブロック725において、呼吸数および/または相特定器410は、呼吸相を吸気または呼気のいずれかとして識別することができる。 Moving to block 725 , if the process 700 received respiratory sensor location data at block 710 , the process 700 may proceed to block 725 . At block 725, the respiratory rate and/or phase identifier 410 may identify the respiratory phase as either inspiration or expiration.

判定ブロック730において、安全モードコントローラ450は、呼吸相が所定の安全条件に対応するかどうかを判定する。いくつかの実施形態では、すべての呼気相を安全条件として識別することができる。いくつかの実施形態では、気道の一定の分岐における呼気が安全条件に対応し得る。いくつかの実施形態では、安全モードコントローラ450が器具の次の動きが安全状態と相関する呼吸相内に入るかどうかを予測するために、呼吸数の履歴データを分析することができる。呼吸の位相(または予測された位相)が所定の安全条件に対応しない場合、プロセス700は、ブロック710にループバックして、センサから新たなデータを受信する。他の実施形態では、プロセス700は、ブロック715に進んでもよい。 At decision block 730, safe mode controller 450 determines whether the respiratory phase corresponds to a predetermined safe condition. In some embodiments, all expiratory phases can be identified as safe conditions. In some embodiments, exhalation in certain branches of the airway may correspond to safety conditions. In some embodiments, the safe mode controller 450 can analyze historical respiratory rate data to predict whether the next movement of the instrument will fall within the respiratory phase that correlates with the safe state. If the respiratory phase (or predicted phase) does not correspond to predetermined safety conditions, process 700 loops back to block 710 to receive new data from the sensors. In other embodiments, process 700 may proceed to block 715 .

呼吸相(または予測された相)が所定の安全条件に対応する場合、プロセス700はブロック735に進み、安全モードコントローラ450はさらなるナビゲーション(例えば、器具の次の移動、または器具のその後のすべての移動)のための安全モードを起動する。 If the respiratory phase (or predicted phase) corresponds to a predetermined safety condition, process 700 proceeds to block 735, where safe mode controller 450 performs further navigation (e.g., the next movement of the instrument, or all subsequent movement of the instrument). Invoke Safe Mode for Moves).

器具の位置が安全領域に入ったために、プロセス700がブロック735に進む場合、いくつかの実施形態では、気道の直径が肺周辺部に向かってさらに小さくなる傾向があり、またナビゲーション経路が気道の中心から外側の肺周辺部に向かって移動する傾向があるので、安全モードはその後のすべての挿入に対して作動されてもよい。呼吸相(例えば、呼気相)がプロセスに安全モードを起動させるためにプロセス700がブロック735に進む場合、安全モードは、予測された呼気周期の存続期間の間、または次の検出された吸気周期まで作動されてもよい。 If process 700 advances to block 735 because the instrument position has entered the safe area, then in some embodiments the airway diameter tends to decrease further toward the lung periphery and the navigation path is to narrow the airway. The safe mode may be activated for all subsequent insertions as there is a tendency to move from the center towards the outer lung periphery. If the process 700 proceeds to block 735 for a respiratory phase (eg, an expiratory phase) to cause the process to activate the safe mode, the safe mode is for the duration of the predicted expiratory cycle or for the next detected inspiratory cycle. may be operated up to

安全モードでは、プロセス700のいくつかの実施形態がナビゲーションコントローラ460を実施して、器具の動きに制限を課すことができる。例えば、安全モードでは、ナビゲーションコントローラ460によって、手術ロボットシステム110が器具ドライバを作動させることを抑止することができる。そのような実施形態では、ナビゲーションコントローラ460によって、安全モードが起動されている間、例えば、患者の呼気の間、器具の挿入を案内するために、ロボットシステムに対するユーザ入力を無効にすることができる。 In safe mode, some embodiments of process 700 may implement navigation controller 460 to impose restrictions on instrument movement. For example, in safe mode, the navigation controller 460 can prevent the surgical robotic system 110 from activating the instrument driver. In such embodiments, the navigation controller 460 can disable user input to the robotic system to guide instrument insertion while the safety mode is activated, e.g., during patient exhalation. .

いくつかの実施形態では、安全モードコントローラ450によって、計算された器具位置からナビゲーション経路を下った位置に配置された気道の直径が器具の直径よりも小さいと判定される場合がある。これにより、安全モードでは、ナビゲーションコントローラ460がさらなる挿入を抑止することができ、ユーザはさらなるナビゲーションのために、内視鏡のワーキングチャネルを介して、より細径の操作可能なチャネルを挿入するように促されることができる。 In some embodiments, the safety mode controller 450 may determine that the diameter of the airway located down the navigation path from the calculated instrument position is smaller than the diameter of the instrument. This allows the navigation controller 460 to inhibit further insertion in the safe mode, allowing the user to insert a smaller diameter steerable channel through the working channel of the endoscope for further navigation. can be prompted to

安全モードにおいて、プロセス700のいくつかの実施形態では、器具の移動に制限を課す代わりに、器具の移動時の注意喚起を示す出力をユーザに提供してもよい。そのような出力はグラフィック(例えば、ディスプレイ上)、音声、または触覚(例えば、入力装置204を介した触覚フィードバック)による警告を含む。 In the safe mode, some embodiments of process 700 may provide an output to the user indicating reminders when moving the instrument instead of imposing restrictions on movement of the instrument. Such outputs include graphical (eg, on a display), audio, or tactile (eg, tactile feedback via input device 204) alerts.

(ナビゲーションユーザインターフェース例の概要)
図8Aおよび8Bは、本件開示の安全モードでの管腔ネットワークナビゲーション中に
ユーザに提示することができる例示的なユーザインタフェース800A、800Bを示す。例えば、いくつかの実施形態では、ユーザインタフェース800A、800Bを図2のディスプレイ202上に表示することができる。
(Overview of example navigation user interface)
8A and 8B illustrate exemplary user interfaces 800A, 800B that may be presented to a user during safe mode lumen network navigation of the present disclosure. For example, in some embodiments, user interfaces 800A, 800B may be displayed on display 202 of FIG.

図8Aは、患者の呼吸の呼気相中にユーザに提示することができる例示的なユーザインタフェース800Aを示す。例示的なユーザインタフェース800は、警告805と、仮想ナビゲーションセクション810と、呼吸追跡セクション820とを含む。 FIG. 8A shows an exemplary user interface 800A that may be presented to a user during the expiratory phase of patient breathing. Exemplary user interface 800 includes alerts 805 , virtual navigation section 810 , and respiration tracking section 820 .

仮想ナビゲーションセクション810は、患者の気道812の視覚化と、気道を通るナビゲーション経路814の視覚化とを含む。上記の通り、これは、いくつかの実施形態では3Dモデルに基づくことができる。いくつかの実施形態では、仮想ナビゲーションセクション810は、代替的にまたは追加的に、内視鏡カメラから受信した画像を表示することができる。 A virtual navigation section 810 includes a visualization of the patient's airway 812 and a visualization of the navigational path 814 through the airway. As noted above, this can be based on a 3D model in some embodiments. In some embodiments, virtual navigation section 810 may alternatively or additionally display images received from an endoscopic camera.

呼吸追跡セクション820は、患者の呼吸の波形822と、呼吸周期における現在の点を示すマーカ824とを含む。波形822において、正の勾配を有する波形の部分は吸気を表し、負の勾配を有する部分は呼気を表す。いくつかの実施形態は例えば、以前の呼吸数および/または人工呼吸器の周期のデータの呼吸数分析に基づいて、将来の呼吸の予測波形をさらに表示することができる。図示されているように、呼吸周期における現在の点は、呼気相に対応する。 The respiration tracking section 820 includes a patient respiration waveform 822 and a marker 824 that indicates the current point in the respiration cycle. In waveform 822, the portion of the waveform with a positive slope represents inspiration and the portion with a negative slope represents expiration. Some embodiments may further display a predictive waveform for future breaths, for example, based on respiration rate analysis of previous respiration rate and/or ventilator cycle data. As shown, the current point in the respiratory cycle corresponds to the expiratory phase.

警告805は、呼気中にナビゲーションを一時停止するようにシステムのオペレータに警告する。いくつかの実施形態では、警告805が仮想ナビゲーションセクション810上に重ね合わされた追加の警告816を伴うことができる。他の実施形態ではディスプレイの色が変化してもよく、アラームが鳴ってもよく、入力ジョイスティックが振動してもよく、あるいはデバイスが安全モードで動作していることをユーザに警告するために、他の視覚、音声、または触覚による表示が提示されてもよい。いくつかの実施形態では、患者の気道への外傷を軽減するために、この状態では、ロボットシステム110のユーザ制御が無効にされてもよい。 Alert 805 alerts the system operator to pause navigation during exhalation. In some embodiments, warning 805 can be accompanied by an additional warning 816 superimposed on virtual navigation section 810 . In other embodiments, the display may change color, an alarm may sound, the input joystick may vibrate, or to alert the user that the device is operating in safe mode. Other visual, audio, or tactile indications may be presented. In some embodiments, user control of robotic system 110 may be disabled in this state to reduce trauma to the patient's airway.

図8Bを参照すると、上記の所定の安全領域を通るナビゲーション中にユーザに提示することができる別の例示的なユーザインタフェース800Bが示されている。ユーザインタフェース800Bは、警告805と、仮想ナビゲーション部810と、モデル表示部830とを含む。 Referring to FIG. 8B, another exemplary user interface 800B that may be presented to a user during navigation through the predetermined safe area described above is shown. User interface 800B includes warning 805, virtual navigation portion 810, and model display portion 830. FIG.

上記の通り、仮想ナビゲーションセクション810は、患者の気道812の視覚化と、気道を通るナビゲーション経路814の視覚化とを含む。 As noted above, the virtual navigation section 810 includes a visualization of the patient's airway 812 and a visualization of the navigational path 814 through the airway.

モデル表示セクション830は、現在位置マーカ832および安全領域マーカ834を有する3Dモデルのグラフィカル表現を含む。図示するように、現在位置832は安全領域834内にある。したがって、警告805は、警告領域をナビゲートしていることをシステムの操作者に警告する。この領域において呼気中にユーザがナビゲーションを一時停止するよう支援するために、さらなる警告が提示されてもよい。 Model display section 830 includes a graphical representation of the 3D model with current position marker 832 and safe area marker 834 . As shown, current position 832 is within safe area 834 . Warning 805 thus alerts the operator of the system that he is navigating a warning area. A further warning may be presented to assist the user to pause navigation during exhalation in this region.

(代替のフィルタリング技術)
上記の通り、いくつかの実施形態は(a)所与の期間にわたって生のセンサデータを受信し、(b)所与の期間にわたって呼吸速度を決定するために生のセンサデータ上で呼吸速度を決定する関数(例えば、フーリエ変換)を適用し、(c)決定された呼吸速度に起因する生のセンサデータの成分を除去するために生のセンサデータにフィルタを適用するアプローチを利用することができる。ただし、これらのアプローチでは、(a)~(c)
による不要な遅滞が生じる可能性がある。(a)~(c)による遅滞を低減するために、いくつかの実施形態では、将来の期間の呼吸数を予測するための予測手法を利用することができる。1つの予測アプローチによれば、非線形カルマンフィルタ(拡張カルマンフィルタ(EKF)、非セントカルマンフィルタ(UKF)、または非線形関数にカルマンフィルタを適用する他の適切なアプローチなど)を使用して、略リアルタイムでまたは実質的にリアルタイムで呼吸運動を予測することができる。本明細書において、「リアルタイム」とは、センサデータの取得の直後に適用される処理、例えば、処理されたデータが器具のナビゲーションのために使用されることができるように、十分に短い期間内に完了されるセンサデータに対する処理を意味する。EKFまたは複数のEKF(パッチに1つ、範囲に1つ)は、呼吸の振幅、指示、および位相をリアルタイムで識別することができる。実施形態によれば、電磁センサ、または任意の他の位置センサによって生成された生の電磁センサデータから、EKFまたはEKFによって検出された呼吸運動を除去することができる。EKFは現在の期間の呼吸運動を予測するために、生センサデータの履歴データを処理することができる。予測された呼吸運動は次に、生のセンサデータ内の呼吸成分をフィルタリングして除去するために使用される。EKFまたは複数のEKF(パッチに1つ、範囲に1つ)は、呼吸の振幅、指示、および位相をリアルタイムで特定することができる。他の例示的な実施形態は、アルファ-ベータフィルタリング、ベイズフィルタリング、粒子フィルタリングなどの他の予測技術を使用することができる。
(alternative filtering technique)
As noted above, some embodiments (a) receive raw sensor data over a given time period and (b) calculate respiration rate on the raw sensor data to determine respiration rate over the given time period. Applying a determining function (e.g., a Fourier transform) and (c) applying a filter to the raw sensor data to remove components of the raw sensor data attributable to the determined respiration rate can be utilized. can. However, in these approaches, (a)-(c)
may cause unnecessary delays due to To reduce the delays due to (a)-(c), some embodiments may utilize prediction techniques to predict respiration rate for future time periods. According to one prediction approach, a non-linear Kalman filter (such as an extended Kalman filter (EKF), a non-Saint Kalman filter (UKF), or any other suitable approach that applies a Kalman filter to a non-linear function) is used to perform near real-time or substantially can predict breathing motion in real time. As used herein, "real time" refers to processing applied immediately after acquisition of sensor data, e.g., within a sufficiently short period of time so that the processed data can be used for instrument navigation. means the processing on the sensor data completed in . An EKF or multiple EKFs (one per patch, one per range) can identify respiratory amplitude, command and phase in real time. According to embodiments, the EKF or respiratory motion detected by the EKF can be removed from the raw electromagnetic sensor data generated by the electromagnetic sensor, or any other position sensor. The EKF can process historical raw sensor data to predict respiratory motion for the current period. The predicted respiratory motion is then used to filter out respiratory components in the raw sensor data. An EKF or multiple EKFs (one per patch, one per range) can identify respiratory amplitude, command and phase in real time. Other exemplary embodiments may use other prediction techniques such as alpha-beta filtering, Bayesian filtering, particle filtering, and the like.

(ロボットによる命令の補償)
いくつかの実施形態では、器具の動きが呼吸と同様の動きを示す場合がある。これらの動きを補償するために、呼吸速度(または任意の他の生理学的に誘発された動き)を検出および補償するための実施形態において、器具を制御(例えば、挿入、後退、関節運動)するために使用される命令された動きデータを使用して、その動きを呼吸速度として検出することを回避することができる。例えば、器具の動きが(命令されたデータによって決定可能である)所与のレートである場合、上述の実施形態は、センサデータにフィルタを適用して、その動きに起因するデータを除去することができる。
(Compensation for command by robot)
In some embodiments, movement of the device may exhibit movement similar to breathing. To compensate for these movements, control (e.g., insert, retract, articulate) the instrument in embodiments to detect and compensate for respiration rate (or any other physiologically induced movement) Using the commanded motion data used for breathing can avoid detecting that motion as respiration rate. For example, if the instrument movement is at a given rate (which can be determined by the commanded data), the embodiments described above apply a filter to the sensor data to remove data due to that movement. can be done.

(代替のセンサ種類)
上記の通り、器具の位置を決定するために電磁センサ使用することに加えて、他の実施形態は、他の適切なセンサタイプを使用してもよい。そのような位置センサは、形状感知ファイバ、加速度計、視覚検出アルゴリズム、ジャイロスコープ、または動きの特性を検出することができる任意の他の適切なセンサを含むことができる。
(alternative sensor type)
In addition to using electromagnetic sensors to determine the position of the instrument, as described above, other embodiments may use other suitable sensor types. Such position sensors may include shape sensing fibers, accelerometers, visual detection algorithms, gyroscopes, or any other suitable sensor capable of detecting motion characteristics.

(他の生理学的なノイズの補償)
本件開示の実施形態の多くは患者の呼吸数から生じるノイズを検出し、補償するが、他の実施形態は心拍数または任意の他の検出可能な特性、患者の他の生理学的特性によって生じるノイズを検出し、補償することができる。このような場合、心拍数が電磁データノイズを生成する可能性があるときは、これらの実施形態において、上記の手法を用いて、心拍数を検出し、心拍数によって生成されるノイズを除去することができる。患者が周期的な震えまたは身体運動を示す場合に起こり得る、他のノイズアーチファクトも検出することができる。
(compensation for other physiological noise)
While many of the embodiments of the present disclosure detect and compensate for noise resulting from patient respiration rate, other embodiments detect noise caused by heart rate or any other detectable characteristic, other physiological characteristic of the patient. can be detected and compensated for. In such cases, when the heart rate can generate electromagnetic data noise, in these embodiments the techniques described above are used to detect the heart rate and remove the noise generated by the heart rate. be able to. Other noise artifacts can also be detected, which can occur when a patient exhibits periodic tremors or body movements.

(実装システムおよび用語)
本件開示の実施形態は、管腔ネットワークの改善されたナビゲーションのためのシステム、方法、および装置を提供する。
(implementation system and terminology)
Embodiments of the present disclosure provide systems, methods, and apparatus for improved navigation of luminal networks.

本明細書で使用される用語「連結する」、「連結する」、「連結される」、または単語「連結される」の他の変更は、間接的な連結または直接的な連結のいずれかを示すことができることに留意されたい。例えば、第1の構成要素が第2の構成要素に「連結」される
場合、第1の構成要素は、別の構成要素を介して第2の構成要素に間接的に連結されるか、または第2の構成要素に直接的に連結され得る。
As used herein, the terms "link", "link", "coupled" or other variations of the word "linked" refer to either indirect or direct linkage. Note that it is possible to show For example, if a first component is "coupled" to a second component, the first component is indirectly coupled to the second component through another component, or It can be directly connected to the second component.

本明細書で説明されるロボット動作の作動機能は、プロセッサ可読媒体またはコンピュータ可読媒体上に1つまたは複数の命令として記憶することができる。用語「コンピュータ可読媒体」は、コンピュータまたはプロセッサによってアクセス可能な任意の利用可能な媒体を意味する。限定ではなく例示として、そのような媒体は、RAM、ROM、EEPROM、フラッシュメモリ、CD-ROMまたは他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気ストレージデバイス、あるいは命令またはデータ構造の態様で所望のプログラムコードを格納するために使用することができ、コンピュータによってアクセス可能な任意の他の媒体を備えることができる。コンピュータ可読媒体は、有形かつ非一時的であってもよいことに留意されたい。本明細書で使用される「コード」という用語は、コンピューティングデバイスまたはプロセッサによって実行可能なソフトウェア、命令、コード、またはデータを意味することがある。 The robotic motion activation functions described herein can be stored as one or more instructions on a processor-readable medium or computer-readable medium. The term "computer-readable medium" means any available medium that can be accessed by a computer or processor. By way of example, and not limitation, such media may include RAM, ROM, EEPROM, flash memory, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage devices, or any other medium containing any desired instruction or data structure. It may comprise any other computer-accessible medium that may be used to store program code. Note that the computer-readable medium may be tangible and non-transitory. As used herein, the term "code" may refer to software, instructions, code, or data executable by a computing device or processor.

本件開示の方法は、記載された方法を実現するための1つまたは複数のステップまたはアクションを備える。方法のステップおよび/または動作は、特許請求の範囲から逸脱することなく、入れ替えることができる。言い換えれば、記載の方法の適切な動作のために特定の順序のステップまたはアクションが必要とされない限り、特定のステップおよび/またはアクションの順序および/または使用は、特許請求の範囲から逸脱することなく変更することができる。 The methods of the disclosure comprise one or more steps or actions for achieving the described method. The method steps and/or actions may be interchanged without departing from the scope of the claims. In other words, unless a specific order of steps or actions is required for proper operation of the described method, the order and/or use of a specific step and/or action may be used without departing from the scope of the claims. can be changed.

本明細書で使用される場合、用語「複数」は、2つ以上であることを意味する。例えば、複数の構成要素は、2つ以上の構成要素を意味する。用語「決定すること」は種々の動作を包含し、したがって、「決定すること」には、計算すること、計算すること、処理すること、導出すること、調査すること、検索すること(例えば、表、データベース、または別のデータ構造を検索すること)、確認することなどが含まれる。また、「決定すること」には、受信すること(例えば、情報を受信すること)、アクセスすること(例えば、メモリ内のデータにアクセスすること)なども含まれる。また、「決定すること」には、解決すること、選択すること、選択すること、確立することなども含まれる。 As used herein, the term "plurality" means two or more. For example, a plurality of components means two or more components. The term "determining" encompasses a variety of actions, thus "determining" includes calculating, computing, processing, deriving, examining, retrieving (e.g., searching a table, database, or another data structure), checking, etc. Also, "determining" includes receiving (eg, receiving information), accessing (eg, accessing data in memory), and the like. Also, "determining" includes resolving, choosing, selecting, establishing and the like.

「に基づく」という語句は特に明記しない限り、「のみに基づく」ことを意味しない。言い換えれば、「に基づく」という語句は、「にのみ基づいて」および「少なくともに基づいて」の両者の説明である。 The phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" is a description of both "based only on" and "based at least on."

開示の実施形態の上記説明は、当業者が本発明を製造または使用することを可能にするために提供されたものである。これらの実装に対する様々な変更は当業者に明らかであり、本明細書で定義される一般的な原理は、本発明の範囲から逸脱することなく、他の実装に適用され得る。例えば、当業者は、器具の構成要素を固定、取り付け、連結、または係合などと同等の方法、特定の作動運動を生成するための同等の機構、および電気エネルギーを送達するための同等の機構などの、いくつかの対応する代替的および同等の構成内容を採用することができることが理解されるのであろう。したがって、本発明は、本明細書に示された実施に限定されることを意図するものではなく、本明細書に開示された原理および新規な特徴と一致する最も広い範囲を与えられるべきである。 The previous description of the disclosed embodiments is provided to enable any person skilled in the art to make or use the present invention. Various modifications to these implementations will be apparent to those skilled in the art, and the generic principles defined herein may be applied to other implementations without departing from the scope of the invention. For example, those skilled in the art will be familiar with equivalent methods of securing, attaching, coupling, or engaging instrument components, equivalent mechanisms for producing a particular actuation motion, and equivalent mechanisms for delivering electrical energy. It will be understood that a number of corresponding alternative and equivalent arrangements, such as, may be employed. Accordingly, this invention is not intended to be limited to the implementations shown herein, but is to be accorded the broadest scope consistent with the principles and novel features disclosed herein. .

Claims (11)

患者の管腔ネットワークをナビゲートするように構成されたシステムであって、
電磁場を発生させるように構成された電磁場発生器と、
操縦可能な器具の遠位端に設けられる1組の1つまたは複数の電磁センサと、
前記患者に配置されるように構成された1組の1つまたは複数の呼吸センサと、
実行可能な命令が記憶されている少なくとも1つのコンピュータ読み取り可能メモリと、
前記少なくとも1つのコンピュータ読み取り可能メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行することで前記システムに少なくとも
前記管腔ネットワークを表現する手術前モデルにアクセスすることと、
前記電磁場の座標系と前記手術前モデルの座標系との間の位置合わせマッピングにアクセスすることと、
前記電磁場内の前記1組の1つまたは複数の電磁センサから電磁データ信号を受信することと、
前記1組の1つまたは複数の呼吸センサからの呼吸データ信号を基に、前記患者の呼吸数を計算することと、
前記電磁データ信号及び前記呼吸データ信号に、呼吸による呼吸運動を予測するように構成されている予測フィルタを適用することと、
予測された前記呼吸運動に起因する前記電磁データ信号の成分を除去することと、
前記成分が除去された前記電磁データ信号に基づいて、前記電磁場内の前記1組の1つまたは複数の電磁センサの少なくとも1つの位置を計算することと、
前記位置合わせマッピングを用いて、前記電磁場内の前記1組の1つまたは複数の電磁センサの前記少なくとも1つの位置を変換することにより、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の位置を判定することと、
前記1組の1つまたは複数の呼吸センサに対する前記1組の1つまたは複数の電磁センサの前記少なくとも1つの位置を判定することと、
(i)前記1組の1つまたは複数の呼吸センサに対する前記1組の1つまたは複数の電磁センサの判定された前記少なくとも1つの位置、および(ii)吸気相と呼気相との間の前記1組の1つまたは複数の呼吸センサの少なくとも1つの変位の大きさに基づいて、前記患者の前記呼吸の前記吸気相と前記呼気相との間の前記1組の1つまたは複数の電磁センサの少なくとも1つの位置変位を計算することと、
前記吸気相と前記呼気相との間の前記1組の1つまたは複数の電磁センサの計算された前記少なくとも1つの位置変位に基づいて、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することと、
を実行させるように構成されたプロセッサと、
を有する、システム。
A system configured to navigate a patient's luminal network, comprising:
an electromagnetic field generator configured to generate an electromagnetic field;
a set of one or more electromagnetic sensors provided at the distal end of the steerable instrument;
a set of one or more respiratory sensors configured to be placed on the patient;
at least one computer readable memory in which executable instructions are stored;
one or more processors in communication with the at least one computer readable memory for executing the instructions to access to the system a pre-operative model representing at least the luminal network;
accessing a registration mapping between the coordinate system of the electromagnetic field and the coordinate system of the pre-operative model;
receiving electromagnetic data signals from the set of one or more electromagnetic sensors within the electromagnetic field;
calculating a respiratory rate of the patient based on respiratory data signals from the set of one or more respiratory sensors;
applying to the electromagnetic data signal and the respiratory data signal a prediction filter configured to predict respiratory motion due to respiration;
removing components of the electromagnetic data signal attributable to the predicted respiratory motion;
calculating the position of at least one of the set of one or more electromagnetic sensors within the electromagnetic field based on the electromagnetic data signal with the component removed;
The distal end of the steerable instrument relative to the pre-operative model by translating the position of the at least one of the set of one or more electromagnetic sensors within the electromagnetic field using the registration mapping. determining the position of the
determining the at least one position of the set of one or more electromagnetic sensors relative to the set of one or more respiratory sensors;
(i) the determined at least one position of the set of one or more electromagnetic sensors relative to the set of one or more respiratory sensors; and (ii) the position between inspiratory and expiratory phases. said set of one or more electromagnetic sensors between said inspiratory and said expiratory phases of said breathing of said patient based on a magnitude of displacement of at least one of said set of one or more respiratory sensors; calculating at least one position displacement of
Based on the calculated at least one positional displacement of the set of one or more electromagnetic sensors between the inspiratory phase and the expiratory phase, the distal position of the steerable instrument relative to the pre-operative model determining the position of the edge;
a processor configured to run
a system.
前記1組の1つまたは複数の電磁センサの各電磁センサは、前記各電磁センサと前記電磁場発生器との間の距離および角度を示す電気信号を生成するように構成され、前記電気信号は、前記電磁場内の前記各電磁センサの位置および向きの1つまたは両方の判定に使用することができる、請求項1に記載のシステム。 each electromagnetic sensor of the set of one or more electromagnetic sensors configured to generate an electrical signal indicative of the distance and angle between each of the electromagnetic sensors and the electromagnetic field generator, the electrical signal comprising: 2. The system of claim 1, wherein the system can be used to determine one or both of the position and orientation of each electromagnetic sensor within the electromagnetic field. 患者の管腔ネットワークをナビゲートするように構成されたシステムであって、
電磁場を発生させるように構成された発生器と、
操縦可能な器具の遠位端に設けられる1組の1つまたは複数の電磁センサと、
1組の1つまたは複数の呼吸センサと、
実行可能な命令が記憶されている少なくとも1つのコンピュータ読み取り可能メモリと、
前記少なくとも1つのコンピュータ読み取り可能メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行することで前記システムに少なくとも
前記管腔ネットワークを表現する手術前モデルにアクセスすることと、
前記電磁場の座標系と前記手術前モデルの座標系との間の位置合わせマッピングにアクセスすることと、
前記1組の1つまたは複数の電磁センサからのデータ信号を基に、前記電磁場内の前記1組の1つまたは複数の電磁センサの少なくとも1つの位置を計算することと、
前記1組の1つまたは複数の呼吸センサからのデータ信号を基に、前記患者の呼吸数を計算することと、
前記位置合わせマッピング、前記呼吸数、および前記電磁場内の前記1組の1つまたは複数の電磁センサの少なくとも1つの位置を基に、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の位置を判定することと、
を実行させるように構成されたプロセッサと、
を有し、
前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記患者の呼吸の吸気相と呼気相との間の前記1組の1つまたは複数の呼吸センサの少なくとも1つの変位の大きさを計算することを実行させるように構成され、
前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも
前記1組の1つまたは複数の呼吸センサに対する前記1組の1つまたは複数の電磁センサの少なくとも1つの位置を判定することと、
(1)前記1組の1つまたは複数の呼吸センサに対する前記1組の1つまたは複数の電磁センサの判定された前記少なくとも1つの位置および(2)前記吸気相と前記呼気相との間の前記1組の1つまたは複数の呼吸センサの前記少なくとも1つの変位の大きさを基に、前記吸気相と前記呼気相との間の前記1組の1つまたは複数の電磁センサの少なくとも1つの位置の変位を計算することと、
前記吸気相と前記呼気相との間の前記1組の1つまたは複数の電磁センサの計算された前記少なくとも1つの位置の変位を基に、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することと
を実行させるように構成され、
前記1組の1つまたは複数の呼吸センサは、体表面の第1の位置に配置されて用いられている第1の追加の電磁センサと、前記体表面の第2の位置に配置されて用いられている第2の追加の電磁センサとを有し、前記吸気相と前記呼気相との間における、前記第1の追加の電磁センサの第1の変位の大きさが、前記第2の追加の電磁センサの第2の変位の大きさよりも大きくなるように、前記第2の位置が前記第1の位置から離れている、システム。
A system configured to navigate a patient's luminal network, comprising:
a generator configured to generate an electromagnetic field;
a set of one or more electromagnetic sensors provided at the distal end of the steerable instrument;
a set of one or more respiratory sensors;
at least one computer readable memory in which executable instructions are stored;
one or more processors in communication with the at least one computer readable memory for executing the instructions to access to the system a pre-operative model representing at least the luminal network;
accessing a registration mapping between the coordinate system of the electromagnetic field and the coordinate system of the pre-operative model;
calculating the position of at least one of the set of one or more electromagnetic sensors within the electromagnetic field based on data signals from the set of one or more electromagnetic sensors;
calculating the patient's respiration rate based on data signals from the set of one or more respiration sensors;
of the distal end of the steerable instrument relative to the pre-operative model based on the registration mapping, the respiration rate, and the position of at least one of the set of one or more electromagnetic sensors within the electromagnetic field; determining a position;
a processor configured to run
has
The one or more processors execute the instructions to instruct the system to at least displace at least one of the set of one or more respiration sensors between inspiratory and expiratory phases of respiration of the patient. configured to perform computing the magnitude of
The one or more processors execute the instructions to instruct the system to at least determine the position of at least one of the set of one or more electromagnetic sensors relative to the set of one or more respiratory sensors. and
(1) the determined at least one position of the set of one or more electromagnetic sensors relative to the set of one or more respiratory sensors; and (2) between the inspiratory phase and the expiratory phase. at least one of said set of one or more electromagnetic sensors between said inspiratory phase and said expiratory phase based on the magnitude of said at least one displacement of said set of one or more respiratory sensors; calculating a displacement of the position;
Based on the calculated displacement of the at least one position of the set of one or more electromagnetic sensors between the inspiratory phase and the expiratory phase, determining the position of the extremity; and
The set of one or more respiration sensors includes a first additional electromagnetic sensor positioned and used at a first location on the body surface and a first additional electromagnetic sensor positioned and used at a second location on the body surface. wherein a first magnitude of displacement of said first additional electromagnetic sensor between said inspiratory phase and said expiratory phase is determined by said second additional electromagnetic sensor; wherein said second position is spaced from said first position such that said second displacement magnitude of said electromagnetic sensor is greater than said first position.
前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも
前記第1の追加の電磁センサおよび前記第2の追加の電磁センサに対する前記1組の1つまたは複数の電磁センサの相対位置を判定することと、
前記1組の1つまたは複数の電磁センサの判定された前記相対位置を基に、前記第1の変位の大きさと前記第2の変位の大きさとの間補間することと、
前記吸気相と前記呼気相との間の前記1組の1つまたは複数の電磁センサの位置の変位の前記計算、補間された前記大きさ基づいて行うことと、
を実行させるように構成された、請求項3に記載のシステム。
The one or more processors execute the instructions to instruct the system to detect at least the set of one or more electromagnetic sensors for the first additional electromagnetic sensor and the second additional electromagnetic sensor. determining a relative position;
interpolating between the first displacement magnitude and the second displacement magnitude based on the determined relative positions of the set of one or more electromagnetic sensors;
performing the calculation of the displacement of the position of the set of one or more electromagnetic sensors between the inspiratory phase and the expiratory phase based on the interpolated magnitude;
4. The system of claim 3, wherein the system is configured to perform
前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも
計算された前記少なくとも1つの変位の大きさを基に、前記手術前モデルの少なくとも1つの位置に対する移動ベクトルを推定することと、
推定された前記移動ベクトルを基に、前記電磁場の前記座標系内の前記手術前モデルを翻訳することと、
翻訳された前記手術前モデルを基に、前記操縦可能な器具の前記遠位端の前記位置を判定することと
を実行させるように構成された、請求項3に記載のシステム。
The one or more processors estimate a motion vector for at least one position of the pre-operative model based on the at least one displacement magnitude calculated by the system by executing the instructions. and
translating the pre-operative model within the coordinate system of the electromagnetic field based on the estimated motion vector;
and determining the position of the distal end of the steerable instrument based on the translated pre-operative model.
前記電磁場の前記座標系内の前記手術前モデルを翻訳するために、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも
前記第1の変位の大きさを基に、前記手術前モデルの第1の部分を第1の新しい座標に移動することと、
前記第2の変位の大きさを基に、前記手術前モデルの第2の部分を第2の新しい座標に移動することと、
を実行させるように構成された、請求項5に記載のシステム。
To translate the pre-operative model within the coordinate system of the electromagnetic field, the one or more processors execute the instructions to cause the system to: moving a first portion of the pre-operative model to first new coordinates;
moving a second portion of the pre-operative model to a second new coordinate based on the magnitude of the second displacement;
6. The system of claim 5, wherein the system is configured to perform
前記操縦可能な器具の移動を行うように構成された器具ドライバを有するロボットシステムをさらに有する、請求項1に記載のシステム。 3. The system of claim 1, further comprising a robotic system having an instrument driver configured to effect movement of the steerable instrument. 前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも
前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を基に、前記操縦可能な器具の次の移動を特定することと、
前記次の移動を行うよう前記器具ドライバの作動を指示することと
を実行させるように構成された、請求項7に記載のシステム。
Execution of the instructions causes the one or more processors to instruct the system to determine at least the position of the distal end of the steerable instrument relative to the pre-operative model. identifying movement;
8. The system of claim 7, configured to: direct operation of the instrument driver to perform the next movement.
前記システムはさらにディスプレイを有し、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも
前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置のグラフィック表現を生成することと、
前記ディスプレイに生成された前記グラフィック表現を表示することと
を実行させるように構成された、請求項7に記載のシステム。
The system further has a display, and the one or more processors execute the instructions to provide the system with at least a graphical representation of the position of the distal end of the steerable instrument relative to the pre-operative model. and
8. The system of claim 7, configured to: display the generated graphical representation on the display.
前記ロボットシステムは入力装置を有し、前記入力装置は、前記入力装置のユーザ操作を基に、前記操縦可能な器具の移動を制御するように構成された、請求項7に記載のシステム。 8. The system of claim 7, wherein the robotic system comprises an input device, the input device configured to control movement of the steerable instrument based on user manipulation of the input device. 前記手術前モデルは、前記患者の前記管腔ネットワークの3次元コンピュータ断層撮影モデルを有する、請求項1に記載のシステム。 3. The system of claim 1, wherein the pre-operative model comprises a three-dimensional computed tomography model of the luminal network of the patient.
JP2019553011A 2017-03-31 2018-03-29 A robotic system for navigation of luminal networks with compensation for physiological noise Active JP7282685B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762480257P 2017-03-31 2017-03-31
US62/480,257 2017-03-31
PCT/US2018/025218 WO2018183727A1 (en) 2017-03-31 2018-03-29 Robotic systems for navigation of luminal networks that compensate for physiological noise

Publications (3)

Publication Number Publication Date
JP2020512102A JP2020512102A (en) 2020-04-23
JP2020512102A5 JP2020512102A5 (en) 2021-05-06
JP7282685B2 true JP7282685B2 (en) 2023-05-29

Family

ID=63672328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019553011A Active JP7282685B2 (en) 2017-03-31 2018-03-29 A robotic system for navigation of luminal networks with compensation for physiological noise

Country Status (7)

Country Link
US (2) US11490782B2 (en)
EP (1) EP3600031A4 (en)
JP (1) JP7282685B2 (en)
KR (1) KR102558061B1 (en)
CN (1) CN108990412B (en)
AU (1) AU2018243364B2 (en)
WO (1) WO2018183727A1 (en)

Families Citing this family (211)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8414505B1 (en) 2001-02-15 2013-04-09 Hansen Medical, Inc. Catheter driver system
WO2005087128A1 (en) 2004-03-05 2005-09-22 Hansen Medical, Inc. Robotic catheter system
JP2009500086A (en) 2005-07-01 2009-01-08 ハンセン メディカル,インク. Robotic guide catheter system
US9232959B2 (en) 2007-01-02 2016-01-12 Aquabeam, Llc Multi fluid tissue resection methods and devices
EP2259742B1 (en) 2008-03-06 2020-01-01 AquaBeam LLC Tissue ablation and cautery with optical energy carried in fluid stream
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US9254123B2 (en) 2009-04-29 2016-02-09 Hansen Medical, Inc. Flexible and steerable elongate instruments with shape control and support elements
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US8827948B2 (en) 2010-09-17 2014-09-09 Hansen Medical, Inc. Steerable catheters
US20120191086A1 (en) 2011-01-20 2012-07-26 Hansen Medical, Inc. System and method for endoluminal and translumenal therapy
US9138166B2 (en) 2011-07-29 2015-09-22 Hansen Medical, Inc. Apparatus and methods for fiber integration and registration
US20130303944A1 (en) 2012-05-14 2013-11-14 Intuitive Surgical Operations, Inc. Off-axis electromagnetic sensor
US9452276B2 (en) 2011-10-14 2016-09-27 Intuitive Surgical Operations, Inc. Catheter with removable vision probe
EP2819599B1 (en) 2012-02-29 2018-05-23 Procept Biorobotics Corporation Automated image-guided tissue resection and treatment
US10383765B2 (en) 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US20130317519A1 (en) 2012-05-25 2013-11-28 Hansen Medical, Inc. Low friction instrument driver interface for robotic systems
US20140148673A1 (en) 2012-11-28 2014-05-29 Hansen Medical, Inc. Method of anchoring pullwire directly articulatable region in catheter
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
US9668814B2 (en) 2013-03-07 2017-06-06 Hansen Medical, Inc. Infinitely rotatable tool with finite rotating drive shafts
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9566414B2 (en) 2013-03-13 2017-02-14 Hansen Medical, Inc. Integrated catheter and guide wire controller
US9326822B2 (en) 2013-03-14 2016-05-03 Hansen Medical, Inc. Active drives for robotic catheter manipulators
US9173713B2 (en) 2013-03-14 2015-11-03 Hansen Medical, Inc. Torque-based catheter articulation
US11213363B2 (en) 2013-03-14 2022-01-04 Auris Health, Inc. Catheter tension sensing
US20140277334A1 (en) 2013-03-14 2014-09-18 Hansen Medical, Inc. Active drives for robotic catheter manipulators
US10376672B2 (en) 2013-03-15 2019-08-13 Auris Health, Inc. Catheter insertion system and method of fabrication
US20140276647A1 (en) 2013-03-15 2014-09-18 Hansen Medical, Inc. Vascular remote catheter manipulator
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US9408669B2 (en) 2013-03-15 2016-08-09 Hansen Medical, Inc. Active drive mechanism with finite range of motion
US10849702B2 (en) 2013-03-15 2020-12-01 Auris Health, Inc. User input devices for controlling manipulation of guidewires and catheters
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US9283046B2 (en) 2013-03-15 2016-03-15 Hansen Medical, Inc. User interface for active drive apparatus with finite range of motion
US20140276936A1 (en) 2013-03-15 2014-09-18 Hansen Medical, Inc. Active drive mechanism for simultaneous rotation and translation
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US9452018B2 (en) 2013-03-15 2016-09-27 Hansen Medical, Inc. Rotational support for an elongate member
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
WO2014201165A1 (en) 2013-06-11 2014-12-18 Auris Surgical Robotics, Inc. System for robotic assisted cataract surgery
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
CN111166274A (en) 2013-10-24 2020-05-19 奥瑞斯健康公司 Robotically-assisted endoluminal surgical systems and related methods
EP2923669B1 (en) 2014-03-24 2017-06-28 Hansen Medical, Inc. Systems and devices for catheter driving instinctiveness
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
US10569052B2 (en) 2014-05-15 2020-02-25 Auris Health, Inc. Anti-buckling mechanisms for catheters
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
KR102292155B1 (en) 2014-09-30 2021-08-25 아우리스 헬스, 인크. Configurable Robotic Surgical System with Virtual Rail and Flexible Endoscope
US10499999B2 (en) 2014-10-09 2019-12-10 Auris Health, Inc. Systems and methods for aligning an elongate member with an access site
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US11819636B2 (en) 2015-03-30 2023-11-21 Auris Health, Inc. Endoscope pull wire electrical circuit
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
WO2016164824A1 (en) 2015-04-09 2016-10-13 Auris Surgical Robotics, Inc. Surgical system with configurable rail-mounted mechanical arms
WO2016187054A1 (en) 2015-05-15 2016-11-24 Auris Surgical Robotics, Inc. Surgical robotics system
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
JP6938507B2 (en) 2015-09-09 2021-09-22 オーリス ヘルス インコーポレイテッド Instrument device manipulator for surgical support robot system
EP3349649B1 (en) 2015-09-18 2022-03-09 Auris Health, Inc. Navigation of tubular networks
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US10231793B2 (en) 2015-10-30 2019-03-19 Auris Health, Inc. Object removal through a percutaneous suction tube
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US10932861B2 (en) 2016-01-14 2021-03-02 Auris Health, Inc. Electromagnetic tracking surgical system and method of controlling the same
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US11324554B2 (en) 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
US10454347B2 (en) 2016-04-29 2019-10-22 Auris Health, Inc. Compact height torque sensing articulation axis assembly
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
US10463439B2 (en) 2016-08-26 2019-11-05 Auris Health, Inc. Steerable catheter with shaft load distributions
US11241559B2 (en) 2016-08-29 2022-02-08 Auris Health, Inc. Active drive for guidewire manipulation
CN109069138B (en) 2016-08-31 2021-07-20 奥瑞斯健康公司 Length-conservative surgical instrument
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10136959B2 (en) 2016-12-28 2018-11-27 Auris Health, Inc. Endolumenal object sizing
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US10543048B2 (en) 2016-12-28 2020-01-28 Auris Health, Inc. Flexible instrument insertion using an adaptive insertion force threshold
CA3028792C (en) * 2017-02-15 2024-03-12 Synaptive Medical (Barbados) Inc. Sensored surgical tool and surgical intraoperative tracking and imaging system incorporating same
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
AU2018244318B2 (en) 2017-03-28 2023-11-16 Auris Health, Inc. Shaft actuating handle
WO2018183727A1 (en) 2017-03-31 2018-10-04 Auris Health, Inc. Robotic systems for navigation of luminal networks that compensate for physiological noise
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
KR20230106716A (en) 2017-04-07 2023-07-13 아우리스 헬스, 인코포레이티드 Patient introducer alignment
JP2020520691A (en) 2017-05-12 2020-07-16 オーリス ヘルス インコーポレイテッド Biopsy devices and systems
CN110769736B (en) 2017-05-17 2023-01-13 奥瑞斯健康公司 Replaceable working channel
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
EP3645100A4 (en) 2017-06-28 2021-03-17 Auris Health, Inc. Instrument insertion compensation
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
CN116725667A (en) 2017-06-28 2023-09-12 奥瑞斯健康公司 System for providing positioning information and method for positioning an instrument within an anatomical structure
KR102578978B1 (en) 2017-06-28 2023-09-19 아우리스 헬스, 인코포레이티드 Electromagnetic distortion detection
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
US10464209B2 (en) 2017-10-05 2019-11-05 Auris Health, Inc. Robotic system with indication of boundary for robotic arm
US10016900B1 (en) 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
US10893843B2 (en) 2017-10-10 2021-01-19 Covidien Lp System and method for identifying and marking a target in a fluoroscopic three-dimensional reconstruction
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
KR102645922B1 (en) 2017-12-06 2024-03-13 아우리스 헬스, 인코포레이티드 Systems and methods for correcting non-directed instrument rolls
JP7208237B2 (en) 2017-12-08 2023-01-18 オーリス ヘルス インコーポレイテッド Systems and medical devices for performing medical procedures
CN110831534B (en) 2017-12-08 2023-04-28 奥瑞斯健康公司 System and method for medical instrument navigation and targeting
EP3723655A4 (en) 2017-12-11 2021-09-08 Auris Health, Inc. Systems and methods for instrument based insertion architectures
KR20200100613A (en) 2017-12-14 2020-08-26 아우리스 헬스, 인코포레이티드 System and method for estimating instrument position
US11160615B2 (en) 2017-12-18 2021-11-02 Auris Health, Inc. Methods and systems for instrument tracking and navigation within luminal networks
WO2019143458A1 (en) 2018-01-17 2019-07-25 Auris Health, Inc. Surgical robotics systems with improved robotic arms
USD873878S1 (en) 2018-01-17 2020-01-28 Auris Health, Inc. Robotic arm
MX2020007623A (en) 2018-01-17 2020-09-14 Auris Health Inc Surgical platform with adjustable arm supports.
USD924410S1 (en) 2018-01-17 2021-07-06 Auris Health, Inc. Instrument tower
USD901018S1 (en) 2018-01-17 2020-11-03 Auris Health, Inc. Controller
USD932628S1 (en) 2018-01-17 2021-10-05 Auris Health, Inc. Instrument cart
USD901694S1 (en) 2018-01-17 2020-11-10 Auris Health, Inc. Instrument handle
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US10893842B2 (en) 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
CN116370084A (en) 2018-02-13 2023-07-04 奥瑞斯健康公司 System and method for driving a medical instrument
JP7214747B2 (en) * 2018-03-28 2023-01-30 オーリス ヘルス インコーポレイテッド System and method for position sensor alignment
US10827913B2 (en) 2018-03-28 2020-11-10 Auris Health, Inc. Systems and methods for displaying estimated location of instrument
CN117017505A (en) 2018-03-28 2023-11-10 奥瑞斯健康公司 Composite instrument and robotic system
WO2019216896A1 (en) * 2018-05-10 2019-11-14 Siemens Medical Solutions Usa, Inc. Visual indicator system for patient bed
KR20210010871A (en) 2018-05-18 2021-01-28 아우리스 헬스, 인코포레이티드 Controller for robotic remote operation system
KR102499906B1 (en) 2018-05-30 2023-02-16 아우리스 헬스, 인코포레이티드 System and Method for Position Sensor-Based Branch Prediction
KR102455671B1 (en) 2018-05-31 2022-10-20 아우리스 헬스, 인코포레이티드 Image-Based Airway Analysis and Mapping
WO2019231891A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Path-based navigation of tubular networks
KR102567087B1 (en) 2018-05-31 2023-08-17 아우리스 헬스, 인코포레이티드 Robotic systems and methods for navigation of luminal networks detecting physiological noise
CN112218596A (en) 2018-06-07 2021-01-12 奥瑞斯健康公司 Robotic medical system with high-force instruments
US10667875B2 (en) 2018-06-27 2020-06-02 Auris Health, Inc. Systems and techniques for providing multiple perspectives during medical procedures
JP7366943B2 (en) 2018-06-27 2023-10-23 オーリス ヘルス インコーポレイテッド Alignment and mounting system for medical devices
KR20210024484A (en) 2018-06-28 2021-03-05 아우리스 헬스, 인코포레이티드 Medical system with integrated pulley sharing
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
CN112804946A (en) 2018-08-07 2021-05-14 奥瑞斯健康公司 Combining strain-based shape sensing with catheter control
US10828118B2 (en) 2018-08-15 2020-11-10 Auris Health, Inc. Medical instruments for tissue cauterization
EP3806758A4 (en) 2018-08-17 2022-04-06 Auris Health, Inc. Bipolar medical instrument
AU2019326548B2 (en) 2018-08-24 2023-11-23 Auris Health, Inc. Manually and robotically controllable medical instruments
MX2021003099A (en) 2018-09-17 2021-05-13 Auris Health Inc Systems and methods for concomitant medical procedures.
WO2020068853A2 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Articulating medical instruments
WO2020068303A1 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Systems and instruments for suction and irrigation
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
EP3856001A4 (en) 2018-09-28 2022-06-22 Auris Health, Inc. Devices, systems, and methods for manually and robotically driving medical instruments
KR20210073542A (en) 2018-09-28 2021-06-18 아우리스 헬스, 인코포레이티드 Systems and methods for docking medical instruments
EP3860426A4 (en) * 2018-10-02 2022-12-07 Convergascent LLC Endoscope with inertial measurement units and/or haptic input controls
US11576738B2 (en) 2018-10-08 2023-02-14 Auris Health, Inc. Systems and instruments for tissue sealing
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
EP3866718A4 (en) 2018-12-20 2022-07-20 Auris Health, Inc. Systems and methods for robotic arm alignment and docking
EP3870075A4 (en) 2018-12-20 2022-08-03 Auris Health, Inc. Shielding for wristed instruments
WO2020140072A1 (en) 2018-12-28 2020-07-02 Auris Health, Inc. Percutaneous sheath for robotic medical systems and methods
US11986257B2 (en) 2018-12-28 2024-05-21 Auris Health, Inc. Medical instrument with articulable segment
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11589913B2 (en) 2019-01-25 2023-02-28 Auris Health, Inc. Vessel sealer with heating and cooling capabilities
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
EP3890644A4 (en) 2019-02-08 2022-11-16 Auris Health, Inc. Robotically controlled clot manipulation and removal
WO2020172394A1 (en) 2019-02-22 2020-08-27 Auris Health, Inc. Surgical platform with motorized arms for adjustable arm supports
WO2020185516A1 (en) 2019-03-08 2020-09-17 Auris Health, Inc. Tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and
CN113613580A (en) 2019-03-22 2021-11-05 奥瑞斯健康公司 System and method for aligning inputs on a medical instrument
WO2020197625A1 (en) 2019-03-25 2020-10-01 Auris Health, Inc. Systems and methods for medical stapling
US11617627B2 (en) 2019-03-29 2023-04-04 Auris Health, Inc. Systems and methods for optical strain sensing in medical instruments
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
WO2020210044A1 (en) 2019-04-08 2020-10-15 Auris Health, Inc. Systems, methods, and workflows for concomitant procedures
WO2020214970A1 (en) * 2019-04-17 2020-10-22 University Of Pittsburgh - Of The Commonwealth System Of Higher Education Endovascular orifice detection for fenestrated stent graft deployment
US20200375665A1 (en) * 2019-05-31 2020-12-03 Canon U.S.A., Inc. Medical continuum robot and methods thereof
WO2020263629A1 (en) 2019-06-27 2020-12-30 Auris Health, Inc. Systems and methods for a medical clip applier
US11872007B2 (en) 2019-06-28 2024-01-16 Auris Health, Inc. Console overlay and methods of using same
EP3989863A4 (en) 2019-06-28 2023-10-11 Auris Health, Inc. Medical instruments including wrists with hybrid redirect surfaces
US11653988B2 (en) 2019-07-29 2023-05-23 Verb Surgical Inc. Mitigating electromagnetic field distortion for a surgical robotic system
US11576561B2 (en) * 2019-08-08 2023-02-14 Ankon Medical Technologies (Shanghai) Co., Ltd. Control method, control device, storage medium, and electronic device for magnetic capsule
USD978348S1 (en) 2019-08-15 2023-02-14 Auris Health, Inc. Drive device for a medical instrument
JP2022544554A (en) 2019-08-15 2022-10-19 オーリス ヘルス インコーポレイテッド Medical device with multiple bends
US11246672B2 (en) 2019-08-15 2022-02-15 Auris Health, Inc. Axial motion drive devices, systems, and methods for a robotic medical system
USD975275S1 (en) 2019-08-15 2023-01-10 Auris Health, Inc. Handle for a medical instrument
US11896330B2 (en) 2019-08-15 2024-02-13 Auris Health, Inc. Robotic medical system having multiple medical instruments
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
CN114340542B (en) 2019-08-30 2023-07-21 奥瑞斯健康公司 Systems and methods for weight-based registration of position sensors
US11147633B2 (en) 2019-08-30 2021-10-19 Auris Health, Inc. Instrument image reliability systems and methods
WO2021044297A1 (en) 2019-09-03 2021-03-11 Auris Health, Inc. Electromagnetic distortion detection and compensation
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11931111B2 (en) * 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
CN114375182A (en) 2019-09-10 2022-04-19 奥瑞斯健康公司 System and method for kinematic optimization using shared robot degrees of freedom
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
EP4034349A1 (en) 2019-09-26 2022-08-03 Auris Health, Inc. Systems and methods for collision detection and avoidance
US11737845B2 (en) 2019-09-30 2023-08-29 Auris Inc. Medical instrument with a capstan
US11737835B2 (en) 2019-10-29 2023-08-29 Auris Health, Inc. Braid-reinforced insulation sheath
US20210169583A1 (en) * 2019-12-04 2021-06-10 Covidien Lp Method for maintaining localization of distal catheter tip to target during ventilation and/or cardiac cycles
WO2021126447A1 (en) * 2019-12-19 2021-06-24 Covidien Lp Systems and methods for mitigating collision of a robotic system
AU2020408068A1 (en) 2019-12-19 2022-07-28 Noah Medical Corporation Systems and methods for robotic bronchoscopy navigation
WO2021137104A1 (en) 2019-12-31 2021-07-08 Auris Health, Inc. Dynamic pulley system
KR20220123273A (en) 2019-12-31 2022-09-06 아우리스 헬스, 인코포레이티드 Anatomical feature identification and targeting
KR20220123269A (en) 2019-12-31 2022-09-06 아우리스 헬스, 인코포레이티드 Advanced basket drive mode
CN114901192A (en) 2019-12-31 2022-08-12 奥瑞斯健康公司 Alignment technique for percutaneous access
KR20220123087A (en) 2019-12-31 2022-09-05 아우리스 헬스, 인코포레이티드 Alignment interface for transdermal access
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
US11847730B2 (en) 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11087557B1 (en) * 2020-06-03 2021-08-10 Tovy Kamine Methods and systems for remote augmented reality communication for guided surgery
US20210393344A1 (en) * 2020-06-22 2021-12-23 Auris Health, Inc. Control scheme calibration for medical instruments
WO2022003485A1 (en) 2020-06-29 2022-01-06 Auris Health, Inc. Systems and methods for detecting contact between a link and an external object
EP4171428A1 (en) 2020-06-30 2023-05-03 Auris Health, Inc. Robotic medical system with collision proximity indicators
US11357586B2 (en) 2020-06-30 2022-06-14 Auris Health, Inc. Systems and methods for saturated robotic movement
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
JP2023538772A (en) * 2020-08-26 2023-09-11 オーリス ヘルス インコーポレイテッド Robot controllable electromagnetic field generator
CN112641514B (en) * 2020-12-17 2022-10-18 杭州堃博生物科技有限公司 Minimally invasive interventional navigation system and method
CN113116524B (en) * 2020-12-31 2023-05-05 上海市胸科医院 Detection compensation method, device, navigation processing method, device and navigation system
US11957302B2 (en) * 2021-05-24 2024-04-16 Verily Life Sciences Llc User-interface for visualization of endoscopy procedures
US20230053189A1 (en) * 2021-08-11 2023-02-16 Terumo Cardiovascular Systems Corporation Augmented-reality endoscopic vessel harvesting
CN113971659B (en) * 2021-09-14 2022-08-26 杭州微引科技有限公司 Respiratory gating system for percutaneous lung and abdominal puncture
US11967073B2 (en) * 2022-03-15 2024-04-23 Avatar Medical Method for displaying a 3D model of a patient
WO2024081745A2 (en) * 2022-10-14 2024-04-18 Canon U.S.A., Inc. Localization and targeting of small pulmonary lesions

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001000448A (en) 1999-06-21 2001-01-09 Hitachi Ltd Apparatus for surgiacl operation
US20040097806A1 (en) 2002-11-19 2004-05-20 Mark Hunter Navigation system for cardiac therapies
US20080300478A1 (en) 2007-05-30 2008-12-04 General Electric Company System and method for displaying real-time state of imaged anatomy during a surgical procedure
US20120059248A1 (en) 2010-08-20 2012-03-08 Troy Holsing Apparatus and method for airway registration and navigation
US20120172712A1 (en) 2010-12-29 2012-07-05 Bar-Tal Meir Respiratory effect reduction in catheter position sensing
US20150265368A1 (en) 2014-03-24 2015-09-24 Intuitive Surgical Operations, Inc. Systems and Methods for Anatomic Motion Compensation

Family Cites Families (395)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1063914A (en) 1911-12-16 1913-06-03 Albertus Allen Hilton Shingle-cutting machine.
US4745908A (en) 1987-05-08 1988-05-24 Circon Corporation Inspection instrument fexible shaft having deflection compensation means
JP2750201B2 (en) 1990-04-13 1998-05-13 オリンパス光学工業株式会社 Endoscope insertion state detection device
US5550953A (en) 1994-04-20 1996-08-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration On-line method and apparatus for coordinated mobility and manipulation of mobile robots
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5526812A (en) 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US6059718A (en) 1993-10-18 2000-05-09 Olympus Optical Co., Ltd. Endoscope form detecting apparatus in which coil is fixedly mounted by insulating member so that form is not deformed within endoscope
DE29521895U1 (en) 1994-10-07 1998-09-10 St. Louis University, St. Louis, Mo. Surgical navigation system comprising reference and localization frames
US6690963B2 (en) 1995-01-24 2004-02-10 Biosense, Inc. System for determining the location and orientation of an invasive medical instrument
US6246898B1 (en) 1995-03-28 2001-06-12 Sonometrics Corporation Method for carrying out a medical procedure using a three-dimensional tracking and imaging system
CA2231425A1 (en) 1995-09-20 1997-03-27 Texas Heart Institute Detecting thermal discrepancies in vessel walls
AU711668B2 (en) 1996-02-15 1999-10-21 Biosense, Inc. Precise position determination of endoscopes
IL125757A (en) 1996-02-15 2003-09-17 Biosense Inc Medical procedures and apparatus using intrabody probes
US6063095A (en) 1996-02-20 2000-05-16 Computer Motion, Inc. Method and apparatus for performing minimally invasive surgical procedures
US6047080A (en) 1996-06-19 2000-04-04 Arch Development Corporation Method and apparatus for three-dimensional reconstruction of coronary vessels from angiographic images
US5831614A (en) 1996-07-01 1998-11-03 Sun Microsystems, Inc. X-Y viewport scroll using location of display with respect to a point
EP0918491B1 (en) 1997-01-24 2003-06-04 Koninklijke Philips Electronics N.V. Image display system
US6246784B1 (en) 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6810281B2 (en) 2000-12-21 2004-10-26 Endovia Medical, Inc. Medical mapping system
FR2779339B1 (en) 1998-06-09 2000-10-13 Integrated Surgical Systems Sa MATCHING METHOD AND APPARATUS FOR ROBOTIC SURGERY, AND MATCHING DEVICE COMPRISING APPLICATION
US6425865B1 (en) 1998-06-12 2002-07-30 The University Of British Columbia Robotically assisted medical ultrasound
WO2000028882A2 (en) 1998-11-18 2000-05-25 Microdexterity Systems, Inc. Medical manipulator for use with an imaging device
US6493608B1 (en) 1999-04-07 2002-12-10 Intuitive Surgical, Inc. Aspects of a control system of a minimally invasive surgical apparatus
DE19900117A1 (en) 1999-01-05 2000-07-06 Walter Ag Virtual teach-in system
US6501981B1 (en) * 1999-03-16 2002-12-31 Accuray, Inc. Apparatus and method for compensating for respiratory and patient motions during treatment
US6594552B1 (en) 1999-04-07 2003-07-15 Intuitive Surgical, Inc. Grip strength with tactile feedback for robotic surgery
US7386339B2 (en) 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
FI114282B (en) * 1999-11-05 2004-09-30 Polar Electro Oy Method, Arrangement and Heart Rate Monitor for Heartbeat Detection
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US6755797B1 (en) 1999-11-29 2004-06-29 Bowles Fluidics Corporation Method and apparatus for producing oscillation of a bladder
US7747312B2 (en) 2000-01-04 2010-06-29 George Mason Intellectual Properties, Inc. System and method for automatic shape registration and instrument tracking
DE10011790B4 (en) 2000-03-13 2005-07-14 Siemens Ag Medical instrument for insertion into an examination subject, and medical examination or treatment device
US7181289B2 (en) 2000-03-20 2007-02-20 Pflueger D Russell Epidural nerve root access catheter and treatment methods
DE10025285A1 (en) 2000-05-22 2001-12-06 Siemens Ag Fully automatic, robot-assisted camera guidance using position sensors for laparoscopic interventions
DE10033723C1 (en) 2000-07-12 2002-02-21 Siemens Ag Surgical instrument position and orientation visualization device for surgical operation has data representing instrument position and orientation projected onto surface of patient's body
US6865498B2 (en) 2001-11-30 2005-03-08 Thermwood Corporation System for calibrating the axes on a computer numeric controlled machining system and method thereof
US6812842B2 (en) 2001-12-20 2004-11-02 Calypso Medical Technologies, Inc. System for excitation of a leadless miniature marker
WO2003077101A2 (en) 2002-03-06 2003-09-18 Z-Kat, Inc. System and method for using a haptic device in combination with a computer-assisted surgery system
DE10210646A1 (en) 2002-03-11 2003-10-09 Siemens Ag Method for displaying a medical instrument brought into an examination area of a patient
US20050256398A1 (en) 2004-05-12 2005-11-17 Hastings Roger N Systems and methods for interventional medicine
US7998062B2 (en) 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
ES2865048T3 (en) 2002-04-17 2021-10-14 Covidien Lp Endoscope frames for navigating to a target in a branched frame
AU2003247338A1 (en) 2002-04-25 2003-11-10 The John Hopkins University Robot for computed tomography interventions
WO2003101300A2 (en) 2002-06-04 2003-12-11 Koninklijke Philips Electronics N.V. Rotational angiography based hybrid 3-d reconstruction of coronary arterial structure
US8838205B2 (en) 2002-06-17 2014-09-16 Mazor Robotics Ltd. Robotic method for use with orthopedic inserts
AU2003246906A1 (en) 2002-06-25 2004-01-06 Michael Nicholas Dalton Apparatus and method for superimposing images over an object
KR100449765B1 (en) 2002-10-12 2004-09-22 삼성에스디아이 주식회사 Lithium metal anode for lithium battery
US6899672B2 (en) 2002-11-08 2005-05-31 Scimed Life Systems, Inc. Endoscopic imaging system including removable deflection device
EP1570431B1 (en) 2002-11-13 2015-07-01 Koninklijke Philips N.V. Medical viewing system and method for detecting boundary structures
US7697972B2 (en) * 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US20040186349A1 (en) 2002-12-24 2004-09-23 Usgi Medical Corp. Apparatus and methods for achieving endoluminal access
FR2852226B1 (en) 2003-03-10 2005-07-15 Univ Grenoble 1 LOCALIZED MEDICAL INSTRUMENT WITH ORIENTABLE SCREEN
US7203277B2 (en) 2003-04-25 2007-04-10 Brainlab Ag Visualization device and method for combined patient and object image data
US7822461B2 (en) 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
EP2316328B1 (en) 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
EP1691666B1 (en) 2003-12-12 2012-05-30 University of Washington Catheterscope 3d guidance and interface system
JP2005192632A (en) 2003-12-26 2005-07-21 Olympus Corp Subject interior moving state detecting system
US8021301B2 (en) 2003-12-26 2011-09-20 Fujifilm Corporation Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program
US20050193451A1 (en) 2003-12-30 2005-09-01 Liposonix, Inc. Articulating arm for medical procedures
CA2555473A1 (en) 2004-02-17 2005-09-01 Traxtal Technologies Inc. Method and apparatus for registration, verification, and referencing of internal organs
US7974681B2 (en) 2004-03-05 2011-07-05 Hansen Medical, Inc. Robotic catheter system
WO2005087128A1 (en) 2004-03-05 2005-09-22 Hansen Medical, Inc. Robotic catheter system
US7811294B2 (en) 2004-03-08 2010-10-12 Mediguide Ltd. Automatic guidewire maneuvering system and method
US7922650B2 (en) 2004-03-23 2011-04-12 Boston Scientific Scimed, Inc. Medical visualization system with endoscope and mounted catheter
EP1731093B1 (en) 2004-03-29 2013-01-09 Olympus Corporation System for detecting position in examinee
US20070208252A1 (en) 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
US7462175B2 (en) 2004-04-21 2008-12-09 Acclarent, Inc. Devices, systems and methods for treating disorders of the ear, nose and throat
US7720521B2 (en) 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
US8155403B2 (en) 2004-05-05 2012-04-10 University Of Iowa Research Foundation Methods and devices for airway tree labeling and/or matching
US7632265B2 (en) 2004-05-28 2009-12-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Radio frequency ablation servo catheter and method
US20060209019A1 (en) 2004-06-01 2006-09-21 Energid Technologies Corporation Magnetic haptic feedback systems and methods for virtual reality environments
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060025668A1 (en) 2004-08-02 2006-02-02 Peterson Thomas H Operating table with embedded tracking technology
US7536216B2 (en) 2004-10-18 2009-05-19 Siemens Medical Solutions Usa, Inc. Method and system for virtual endoscopy with guidance for biopsy
US9049954B2 (en) 2004-11-03 2015-06-09 Cambridge International, Inc. Hanger bar assembly for architectural mesh and the like
EP1816945B1 (en) 2004-11-23 2019-08-21 PneumRx, Inc. Steerable device for accessing a target site
WO2006078678A2 (en) * 2005-01-18 2006-07-27 Traxtal Inc. Method and apparatus for guiding an instrument to a target in the lung
US8335357B2 (en) 2005-03-04 2012-12-18 Kabushiki Kaisha Toshiba Image processing apparatus
US20060258935A1 (en) 2005-05-12 2006-11-16 John Pile-Spellman System for autonomous robotic navigation
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US7889905B2 (en) 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US7756563B2 (en) 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
JP4813190B2 (en) 2005-05-26 2011-11-09 オリンパスメディカルシステムズ株式会社 Capsule medical device
GB2428110A (en) 2005-07-06 2007-01-17 Armstrong Healthcare Ltd A robot and method of registering a robot.
US20070123748A1 (en) 2005-07-14 2007-05-31 Dwight Meglan Robot for minimally invasive interventions
US8583220B2 (en) 2005-08-02 2013-11-12 Biosense Webster, Inc. Standardization of catheter-based treatment for atrial fibrillation
EP2158940A3 (en) 2005-08-11 2010-06-02 Navotek Medical Ltd. Medical treatment system and method using radioactivity based position sensor
US8657814B2 (en) 2005-08-22 2014-02-25 Medtronic Ablation Frontiers Llc User interface for tissue ablation system
US9661991B2 (en) 2005-08-24 2017-05-30 Koninklijke Philips N.V. System, method and devices for navigated flexible endoscopy
US20070066881A1 (en) 2005-09-13 2007-03-22 Edwards Jerome R Apparatus and method for image guided accuracy verification
US20070073136A1 (en) 2005-09-15 2007-03-29 Robert Metzger Bone milling with image guided surgery
EP3788944B1 (en) 2005-11-22 2024-02-28 Intuitive Surgical Operations, Inc. System for determining the shape of a bendable instrument
US8303505B2 (en) 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US8190238B2 (en) 2005-12-09 2012-05-29 Hansen Medical, Inc. Robotic catheter system and methods
DE102005059271B4 (en) 2005-12-12 2019-02-21 Siemens Healthcare Gmbh catheter device
US8672922B2 (en) 2005-12-20 2014-03-18 Intuitive Surgical Operations, Inc. Wireless communication in a robotic surgical system
US9266239B2 (en) 2005-12-27 2016-02-23 Intuitive Surgical Operations, Inc. Constraint based control in a minimally invasive surgical apparatus
US9962066B2 (en) 2005-12-30 2018-05-08 Intuitive Surgical Operations, Inc. Methods and apparatus to shape flexible entry guides for minimally invasive surgery
US7930065B2 (en) 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
US8191359B2 (en) 2006-04-13 2012-06-05 The Regents Of The University Of California Motion estimation using hidden markov model processing in MRI and other applications
JP4822142B2 (en) 2006-05-02 2011-11-24 国立大学法人名古屋大学 Endoscope insertion support system and endoscope insertion support method
DE102006021373A1 (en) * 2006-05-08 2007-11-15 Siemens Ag X-ray diagnostic device
WO2007141784A2 (en) 2006-06-05 2007-12-13 Technion Research & Development Foundation Ltd. Controlled steering of a flexible needle
US20080064931A1 (en) 2006-06-13 2008-03-13 Intuitive Surgical, Inc. Minimally invasive surgical illumination
US7505810B2 (en) 2006-06-13 2009-03-17 Rhythmia Medical, Inc. Non-contact cardiac mapping, including preprocessing
US8040127B2 (en) 2006-08-15 2011-10-18 General Electric Company Multi-sensor distortion mapping method and system
US8150498B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for identification of anatomical landmarks
US7824328B2 (en) 2006-09-18 2010-11-02 Stryker Corporation Method and apparatus for tracking a surgical instrument during surgery
CN100546540C (en) 2006-09-19 2009-10-07 上海宏桐实业有限公司 Endocardium three-dimension navigation system
US7940977B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies
AU2007350982A1 (en) 2006-11-10 2008-10-23 Dorian Averbuch Adaptive navigation technique for navigating a catheter through a body channel or cavity
US7936922B2 (en) 2006-11-22 2011-05-03 Adobe Systems Incorporated Method and apparatus for segmenting images
EP2087470A2 (en) 2006-12-01 2009-08-12 Thomson Licensing Estimating a location of an object in an image
US9220439B2 (en) 2006-12-29 2015-12-29 St. Jude Medical, Atrial Fibrillation Division, Inc. Navigational reference dislodgement detection method and system
US20080183188A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Surgical Navigational and Neuromonitoring System
US20080183068A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Visualization of Surgical Navigational and Neural Monitoring Information
US20080183064A1 (en) 2007-01-30 2008-07-31 General Electric Company Multi-sensor distortion detection method and system
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US8672836B2 (en) 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US20080195081A1 (en) 2007-02-02 2008-08-14 Hansen Medical, Inc. Spinal surgery methods using a robotic instrument system
JP4914735B2 (en) 2007-02-14 2012-04-11 オリンパスメディカルシステムズ株式会社 Endoscope system for controlling the position of the treatment tool
EP2143038A4 (en) 2007-02-20 2011-01-26 Philip L Gildenberg Videotactic and audiotactic assisted surgical methods and procedures
EP2358269B1 (en) 2007-03-08 2019-04-10 Sync-RX, Ltd. Image processing and tool actuation for medical procedures
WO2008111070A2 (en) 2007-03-12 2008-09-18 David Tolkowsky Devices and methods for performing medical procedures in tree-like luminal structures
WO2008135985A1 (en) 2007-05-02 2008-11-13 Earlysense Ltd Monitoring, predicting and treating clinical episodes
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
US20090030307A1 (en) 2007-06-04 2009-01-29 Assaf Govari Intracorporeal location system with movement compensation
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US20080319491A1 (en) 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
US20130165945A9 (en) 2007-08-14 2013-06-27 Hansen Medical, Inc. Methods and devices for controlling a shapeable instrument
EP2626030A3 (en) 2007-08-14 2017-03-08 Koninklijke Philips N.V. Robotic instrument systems and methods utilizing optical fiber sensors
US20090076476A1 (en) 2007-08-15 2009-03-19 Hansen Medical, Inc. Systems and methods employing force sensing for mapping intra-body tissue
WO2009097461A1 (en) 2008-01-29 2009-08-06 Neoguide Systems Inc. Apparatus and methods for automatically controlling an endoscope
EP2247236B1 (en) 2008-02-12 2014-07-30 Covidien LP Controlled perspective guidance system
KR100927096B1 (en) 2008-02-27 2009-11-13 아주대학교산학협력단 Method for object localization using visual images with reference coordinates
US8219179B2 (en) 2008-03-06 2012-07-10 Vida Diagnostics, Inc. Systems and methods for navigation within a branched structure of a body
US20090228020A1 (en) 2008-03-06 2009-09-10 Hansen Medical, Inc. In-situ graft fenestration
US8808164B2 (en) 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
US9002076B2 (en) 2008-04-15 2015-04-07 Medtronic, Inc. Method and apparatus for optimal trajectory planning
US8532734B2 (en) 2008-04-18 2013-09-10 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8218846B2 (en) 2008-05-15 2012-07-10 Superdimension, Ltd. Automatic pathway and waypoint generation and navigation method
JP5372407B2 (en) 2008-05-23 2013-12-18 オリンパスメディカルシステムズ株式会社 Medical equipment
US20100030061A1 (en) 2008-07-31 2010-02-04 Canfield Monte R Navigation system for cardiac therapies using gating
ES2608820T3 (en) 2008-08-15 2017-04-17 Stryker European Holdings I, Llc System and method of visualization of the inside of a body
US8848974B2 (en) 2008-09-29 2014-09-30 Restoration Robotics, Inc. Object-tracking systems and methods
US8781630B2 (en) 2008-10-14 2014-07-15 University Of Florida Research Foundation, Inc. Imaging platform to provide integrated navigation capabilities for surgical guidance
CA2740217C (en) 2008-10-31 2017-03-28 Chevron Phillips Chemical Company Lp System and method for deactivating and quenching an oligomerization catalyst
US20100121139A1 (en) 2008-11-12 2010-05-13 Ouyang Xiaolong Minimally Invasive Imaging Systems
US20100125284A1 (en) 2008-11-20 2010-05-20 Hansen Medical, Inc. Registered instrument movement integration
EP2376175B1 (en) 2008-12-12 2019-01-30 Corindus, Inc. Remote catheter procedure system
US8335590B2 (en) 2008-12-23 2012-12-18 Intuitive Surgical Operations, Inc. System and method for adjusting an image capturing device attribute using an unused degree-of-freedom of a master control device
EP2301411B1 (en) 2009-01-15 2012-12-12 Olympus Medical Systems Corp. Endoscope system
KR100961661B1 (en) 2009-02-12 2010-06-09 주식회사 래보 Apparatus and method of operating a medical navigation system
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US8337397B2 (en) 2009-03-26 2012-12-25 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient
US9002427B2 (en) * 2009-03-30 2015-04-07 Lifewave Biomedical, Inc. Apparatus and method for continuous noninvasive measurement of respiratory function and events
EP2424422B1 (en) 2009-04-29 2019-08-14 Koninklijke Philips N.V. Real-time depth estimation from monocular endoscope images
EP2427867A1 (en) 2009-05-08 2012-03-14 Koninklijke Philips Electronics N.V. Real-time scope tracking and branch labeling without electro-magnetic tracking and pre-operative scan roadmaps
US8675736B2 (en) 2009-05-14 2014-03-18 Qualcomm Incorporated Motion vector processing
WO2010131500A1 (en) 2009-05-15 2010-11-18 シャープ株式会社 Image processing device and image processing method
BRPI1007726A2 (en) 2009-05-18 2017-01-31 Koninl Philips Electronics Nv Image-to-image registration method, Image-to-image registration system, Guided endoscopy camera position calibration method and Guided endoscopy camera calibration system
US20100292565A1 (en) 2009-05-18 2010-11-18 Andreas Meyer Medical imaging medical device navigation from at least two 2d projections from different angles
ES2388029B1 (en) 2009-05-22 2013-08-13 Universitat Politècnica De Catalunya ROBOTIC SYSTEM FOR LAPAROSCOPIC SURGERY.
US8718338B2 (en) 2009-07-23 2014-05-06 General Electric Company System and method to compensate for respiratory motion in acquired radiography images
GB0915200D0 (en) 2009-09-01 2009-10-07 Ucl Business Plc Method for re-localising sites in images
US20110092808A1 (en) 2009-10-20 2011-04-21 Magnetecs, Inc. Method for acquiring high density mapping data with a catheter guidance system
EP2496128A1 (en) 2009-11-04 2012-09-12 Koninklijke Philips Electronics N.V. Collision avoidance and detection using distance sensors
JP4781492B2 (en) 2009-11-10 2011-09-28 オリンパスメディカルシステムズ株式会社 Articulated manipulator device and endoscope system having the same
WO2011094518A2 (en) 2010-01-28 2011-08-04 The Penn State Research Foundation Image-based global registration system and method applicable to bronchoscopy guidance
CN102740755B (en) 2010-02-22 2015-04-22 奥林巴斯医疗株式会社 Medical device
DE102010012621A1 (en) 2010-03-24 2011-09-29 Siemens Aktiengesellschaft Method and device for automatically adapting a reference image
US8425455B2 (en) 2010-03-30 2013-04-23 Angiodynamics, Inc. Bronchial catheter and method of use
IT1401669B1 (en) 2010-04-07 2013-08-02 Sofar Spa ROBOTIC SURGERY SYSTEM WITH PERFECT CONTROL.
US8581905B2 (en) 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US8845631B2 (en) * 2010-04-28 2014-09-30 Medtronic Ablation Frontiers Llc Systems and methods of performing medical procedures
US20120101369A1 (en) 2010-06-13 2012-04-26 Angiometrix Corporation Methods and systems for determining vascular bodily lumen information and guiding medical devices
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US8460236B2 (en) 2010-06-24 2013-06-11 Hansen Medical, Inc. Fiber optic instrument sensing system
US8827948B2 (en) 2010-09-17 2014-09-09 Hansen Medical, Inc. Steerable catheters
JP5669529B2 (en) 2010-11-17 2015-02-12 オリンパス株式会社 Imaging apparatus, program, and focus control method
US9066086B2 (en) 2010-12-08 2015-06-23 Industrial Technology Research Institute Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same
US8812079B2 (en) 2010-12-22 2014-08-19 Biosense Webster (Israel), Ltd. Compensation for magnetic disturbance due to fluoroscope
US20120191086A1 (en) 2011-01-20 2012-07-26 Hansen Medical, Inc. System and method for endoluminal and translumenal therapy
US9554812B2 (en) 2011-02-18 2017-01-31 DePuy Synthes Products, Inc. Tool with integrated navigation and guidance system and related apparatus and methods
US10391277B2 (en) 2011-02-18 2019-08-27 Voxel Rad, Ltd. Systems and methods for 3D stereoscopic angiovision, angionavigation and angiotherapeutics
US10918307B2 (en) 2011-09-13 2021-02-16 St. Jude Medical, Atrial Fibrillation Division, Inc. Catheter navigation using impedance and magnetic field measurements
US10362963B2 (en) 2011-04-14 2019-07-30 St. Jude Medical, Atrial Fibrillation Division, Inc. Correction of shift and drift in impedance-based medical device navigation using magnetic field information
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
US9572481B2 (en) 2011-05-13 2017-02-21 Intuitive Surgical Operations, Inc. Medical system with multiple operating modes for steering a medical instrument through linked body passages
US9675304B2 (en) 2011-06-27 2017-06-13 Koninklijke Philips N.V. Live 3D angiogram using registration of a surgical tool curve to an X-ray image
US9173683B2 (en) 2011-08-31 2015-11-03 DePuy Synthes Products, Inc. Revisable orthopedic anchor and methods of use
CN102973317A (en) 2011-09-05 2013-03-20 周宁新 Arrangement structure for mechanical arm of minimally invasive surgery robot
CN105326498A (en) 2011-09-08 2016-02-17 Apn健康有限责任公司 R-wave detection method
WO2013040498A1 (en) 2011-09-16 2013-03-21 Translucent Medical, Inc. System and method for virtually tracking a surgical tool on a movable display
US9504604B2 (en) 2011-12-16 2016-11-29 Auris Surgical Robotics, Inc. Lithotripsy eye treatment
US20130246336A1 (en) 2011-12-27 2013-09-19 Mcafee, Inc. System and method for providing data protection workflows in a network environment
WO2013116140A1 (en) 2012-02-03 2013-08-08 Intuitive Surgical Operations, Inc. Steerable flexible needle with embedded shape sensing
CN104114121B (en) 2012-02-09 2017-03-22 皇家飞利浦有限公司 Shaft tracker for real-time navigation tracking
US10249036B2 (en) 2012-02-22 2019-04-02 Veran Medical Technologies, Inc. Surgical catheter having side exiting medical instrument and related systems and methods for four dimensional soft tissue navigation
US20140142591A1 (en) 2012-04-24 2014-05-22 Auris Surgical Robotics, Inc. Method, apparatus and a system for robotic assisted surgery
US10383765B2 (en) 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US10039473B2 (en) 2012-05-14 2018-08-07 Intuitive Surgical Operations, Inc. Systems and methods for navigation based on ordered sensor records
JP2015528713A (en) 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド Surgical robot platform
WO2014001977A2 (en) 2012-06-28 2014-01-03 Koninklijke Philips N.V. Fiber optic sensor guided navigation for vascular visualization and monitoring
DE102012220116A1 (en) 2012-06-29 2014-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobile device, in particular for processing or observation of a body, and method for handling, in particular calibration, of a device
CN104718054B (en) 2012-08-15 2017-03-01 直观外科手术操作公司 Manipulate the imaginary degree of freedom (DOF) of the activity of mechanical body
US9183354B2 (en) 2012-08-15 2015-11-10 Musc Foundation For Research Development Systems and methods for image guided surgery
EP2887903A4 (en) 2012-08-24 2016-06-08 Univ Houston System Robotic device and systems for image-guided and robot-assisted surgery
CN108042092B (en) 2012-10-12 2023-02-28 直观外科手术操作公司 Determining a position of a medical device in a branched anatomical structure
US20140107390A1 (en) * 2012-10-12 2014-04-17 Elekta Ab (Publ) Implementation and experimental results of real-time 4d tumor tracking using multi-leaf collimator (mlc), and/or mlc-carriage (mlc-bank), and/or treatment table (couch)
WO2014074481A2 (en) 2012-11-07 2014-05-15 Dana Automotive Systems Group, Llc A clutch management system
US20150313503A1 (en) 2012-11-20 2015-11-05 University Of Washington Through Its Center For Commercialization Electromagnetic sensor integration with ultrathin scanning fiber endoscope
LU92104B1 (en) * 2012-11-28 2014-05-30 Iee Sarl Method and system for determining a ventilatory threshold
JP6045417B2 (en) 2012-12-20 2016-12-14 オリンパス株式会社 Image processing apparatus, electronic apparatus, endoscope apparatus, program, and operation method of image processing apparatus
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
US11172809B2 (en) 2013-02-15 2021-11-16 Intuitive Surgical Operations, Inc. Vision probe with access port
EA033708B1 (en) 2013-02-26 2019-11-19 Ahmet Sinan Kabakci Robotic manipulator system
US9459087B2 (en) 2013-03-05 2016-10-04 Ezono Ag Magnetic position detection system
CN104797186B (en) 2013-03-06 2016-10-12 奥林巴斯株式会社 Endoscopic system
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US10080576B2 (en) 2013-03-08 2018-09-25 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US9867635B2 (en) 2013-03-08 2018-01-16 Auris Surgical Robotics, Inc. Method, apparatus and system for a water jet
US20140296655A1 (en) * 2013-03-11 2014-10-02 ROPAMedics LLC Real-time tracking of cerebral hemodynamic response (rtchr) of a subject based on hemodynamic parameters
CN104780826B (en) 2013-03-12 2016-12-28 奥林巴斯株式会社 Endoscopic system
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US20170303941A1 (en) 2013-03-14 2017-10-26 The General Hospital Corporation System and method for guided removal from an in vivo subject
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US20170238807A9 (en) 2013-03-15 2017-08-24 LX Medical, Inc. Tissue imaging and image guidance in luminal anatomic structures and body cavities
US9301723B2 (en) * 2013-03-15 2016-04-05 Covidien Lp Microwave energy-delivery device and system
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US10271810B2 (en) 2013-04-02 2019-04-30 St. Jude Medical International Holding S.à r. l. Enhanced compensation of motion in a moving organ using processed reference sensor data
WO2014169103A2 (en) 2013-04-12 2014-10-16 Ninepoint Medical, Inc. Multiple aperture, multiple modal optical systems and methods
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
US20140364739A1 (en) 2013-06-06 2014-12-11 General Electric Company Systems and methods for analyzing a vascular structure
WO2014201165A1 (en) 2013-06-11 2014-12-18 Auris Surgical Robotics, Inc. System for robotic assisted cataract surgery
JP6037964B2 (en) 2013-07-26 2016-12-07 オリンパス株式会社 Manipulator system
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
EP3033132B1 (en) 2013-08-15 2021-01-06 Intuitive Surgical Operations, Inc. Graphical user interface for catheter positioning and insertion
US10098566B2 (en) 2013-09-06 2018-10-16 Covidien Lp System and method for lung visualization using ultrasound
CN105592790A (en) 2013-10-02 2016-05-18 皇家飞利浦有限公司 Hub design and methods for optical shape sensing registration
CN111166274A (en) 2013-10-24 2020-05-19 奥瑞斯健康公司 Robotically-assisted endoluminal surgical systems and related methods
US9993313B2 (en) 2013-10-24 2018-06-12 Auris Health, Inc. Instrument device manipulator with roll mechanism
US9314191B2 (en) 2013-11-19 2016-04-19 Pacesetter, Inc. Method and system to measure cardiac motion using a cardiovascular navigation system
CN105979899B (en) 2013-12-09 2019-10-01 直观外科手术操作公司 System and method for device-aware compliant tool registration
CN103705307B (en) 2013-12-10 2017-02-22 中国科学院深圳先进技术研究院 Surgical navigation system and medical robot
CN103735313B (en) 2013-12-11 2016-08-17 中国科学院深圳先进技术研究院 A kind of operating robot and state monitoring method thereof
CN106030683B (en) 2013-12-20 2020-10-30 直观外科手术操作公司 Simulator system for medical procedure training
CN105828738B (en) 2013-12-20 2018-10-09 奥林巴斯株式会社 Flexible manipulator guide member and flexible manipulator
JP2017503593A (en) 2014-01-24 2017-02-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Virtual image with viewpoint of optical shape detection device
KR20210156301A (en) 2014-02-04 2021-12-24 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Systems and methods for non-rigid deformation of tissue for virtual navigation of interventional tools
SG10201806489TA (en) 2014-02-05 2018-08-30 Nat Univ Singapore Systems and methods for tracking and displaying endoscope shape and distal end orientation
US20150223902A1 (en) 2014-02-07 2015-08-13 Hansen Medical, Inc. Navigation with 3d localization using 2d images
EP3104803B1 (en) 2014-02-11 2021-09-15 KB Medical SA Sterile handle for controlling a robotic surgical system from a sterile field
JP6270537B2 (en) 2014-02-27 2018-01-31 オリンパス株式会社 Medical system
KR20150103938A (en) 2014-03-04 2015-09-14 현대자동차주식회사 A separation membrane for lithium sulfur batteries
US10952751B2 (en) 2014-03-17 2021-03-23 Marksman Targeting, Inc. Surgical targeting systems and methods
CN104931059B (en) 2014-03-21 2018-09-11 比亚迪股份有限公司 Vehicle-mounted rescue navigation system and method
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
US20150305650A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue
CN104055520B (en) 2014-06-11 2016-02-24 清华大学 Human organ motion monitoring method and operation guiding system
US9788910B2 (en) 2014-07-01 2017-10-17 Auris Surgical Robotics, Inc. Instrument-mounted tension sensing mechanism for robotically-driven medical instruments
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US20160270865A1 (en) 2014-07-01 2016-09-22 Auris Surgical Robotics, Inc. Reusable catheter with disposable balloon attachment and tapered tip
US10159533B2 (en) 2014-07-01 2018-12-25 Auris Health, Inc. Surgical system with configurable rail-mounted mechanical arms
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US20170007337A1 (en) 2014-07-01 2017-01-12 Auris Surgical Robotics, Inc. Driver-mounted torque sensing mechanism
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US20160000414A1 (en) 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
CN106659374B (en) 2014-07-02 2021-04-02 柯惠有限合伙公司 System and method for providing distance and orientation feedback in 3D navigation
KR102292155B1 (en) 2014-09-30 2021-08-25 아우리스 헬스, 인크. Configurable Robotic Surgical System with Virtual Rail and Flexible Endoscope
WO2016061418A1 (en) * 2014-10-15 2016-04-21 Vincent Suzara Magnetic field structures, field generators, navigation and imaging for untethered robotic device enabled medical procedure
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
DE102014222293A1 (en) 2014-10-31 2016-05-19 Siemens Aktiengesellschaft Method for automatically monitoring the penetration behavior of a trocar held by a robot arm and monitoring system
JP2017537149A (en) 2014-11-11 2017-12-14 ヴァンダービルト ユニバーシティー Methods for limiting acute kidney injury
JP7017931B2 (en) 2014-11-13 2022-02-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Systems and methods for filtering location-specific data
JP6342794B2 (en) 2014-12-25 2018-06-13 新光電気工業株式会社 Wiring board and method of manufacturing wiring board
US9931168B2 (en) 2015-01-12 2018-04-03 Biomet Manufacuturing. LLC Plan implementation
WO2016134297A1 (en) 2015-02-20 2016-08-25 Nostix, Llc Medical device position location systems, devices and methods
JP6348078B2 (en) 2015-03-06 2018-06-27 富士フイルム株式会社 Branch structure determination apparatus, operation method of branch structure determination apparatus, and branch structure determination program
JP6371729B2 (en) 2015-03-25 2018-08-08 富士フイルム株式会社 Endoscopy support apparatus, operation method of endoscopy support apparatus, and endoscope support program
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
WO2016164824A1 (en) 2015-04-09 2016-10-13 Auris Surgical Robotics, Inc. Surgical system with configurable rail-mounted mechanical arms
CN104758066B (en) 2015-05-06 2017-05-10 中国科学院深圳先进技术研究院 Equipment for surgical navigation and surgical robot
WO2016187054A1 (en) 2015-05-15 2016-11-24 Auris Surgical Robotics, Inc. Surgical robotics system
DE112015006531T5 (en) 2015-06-11 2018-02-15 Olympus Corporation Endoscope apparatus and method for operating the endoscope apparatus
US10347904B2 (en) 2015-06-19 2019-07-09 Solidenergy Systems, Llc Multi-layer polymer coated Li anode for high density Li metal battery
GB2540757B (en) 2015-07-22 2021-03-31 Cmr Surgical Ltd Torque sensors
EP3334324B1 (en) 2015-08-14 2021-01-06 Intuitive Surgical Operations Inc. Systems and methods of registration for image-guided surgery
JP6987040B2 (en) 2015-08-28 2021-12-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Methods and devices for determining motor relationships
US10736518B2 (en) * 2015-08-31 2020-08-11 Masimo Corporation Systems and methods to monitor repositioning of a patient
JP6938507B2 (en) 2015-09-09 2021-09-22 オーリス ヘルス インコーポレイテッド Instrument device manipulator for surgical support robot system
WO2017048194A1 (en) 2015-09-17 2017-03-23 Endomaster Pte Ltd Improved flexible robotic endoscopy system
EP3349649B1 (en) 2015-09-18 2022-03-09 Auris Health, Inc. Navigation of tubular networks
ES2940439T3 (en) 2015-10-13 2023-05-08 Lightlab Imaging Inc Intravascular Imaging System and Methods for Determining the Angle of View of the Side Branch Cut Plane
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US10231793B2 (en) 2015-10-30 2019-03-19 Auris Health, Inc. Object removal through a percutaneous suction tube
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
WO2017081821A1 (en) 2015-11-13 2017-05-18 オリンパス株式会社 Method for estimating state of endoscope
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
CN105559850B (en) 2015-12-17 2017-08-25 天津工业大学 It is a kind of to be used for the surgical drill apparatus that robot assisted surgery has power sensing function
US10932861B2 (en) 2016-01-14 2021-03-02 Auris Health, Inc. Electromagnetic tracking surgical system and method of controlling the same
US10973422B2 (en) 2016-01-22 2021-04-13 Fitbit, Inc. Photoplethysmography-based pulse wave analysis using a wearable device
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US10470719B2 (en) * 2016-02-01 2019-11-12 Verily Life Sciences Llc Machine learnt model to detect REM sleep periods using a spectral analysis of heart rate and motion
CN113384348A (en) 2016-02-26 2021-09-14 直观外科手术操作公司 System and method for avoiding collisions using virtual boundaries
EP3432984B1 (en) 2016-03-24 2019-07-31 Koninklijke Philips N.V. Treatment assessment device
US20190105112A1 (en) 2016-03-31 2019-04-11 Koninklijke Philips N.V. Image guided robot for catheter placement
US11324554B2 (en) 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
US10470839B2 (en) 2016-06-02 2019-11-12 Covidien Lp Assessment of suture or staple line integrity and localization of potential tissue defects along the suture or staple line
US10806516B2 (en) 2016-06-20 2020-10-20 General Electric Company Virtual 4D stent implantation path assessment
CN109414180B (en) 2016-06-30 2022-01-07 直观外科手术操作公司 Graphical user interface for displaying instructional information in multiple modes during an image guidance procedure
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
CN109069138B (en) 2016-08-31 2021-07-20 奥瑞斯健康公司 Length-conservative surgical instrument
US10238455B2 (en) 2016-08-31 2019-03-26 Covidien Lp Pathway planning for use with a navigation planning and procedure system
US20180055576A1 (en) 2016-09-01 2018-03-01 Covidien Lp Respiration motion stabilization for lung magnetic navigation system
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
CA3039649A1 (en) 2016-10-05 2018-04-12 Armstrong Flooring, Inc. Wood substrate including an abrasion resistant coating
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US10543048B2 (en) 2016-12-28 2020-01-28 Auris Health, Inc. Flexible instrument insertion using an adaptive insertion force threshold
US10136959B2 (en) 2016-12-28 2018-11-27 Auris Health, Inc. Endolumenal object sizing
US11842030B2 (en) 2017-01-31 2023-12-12 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
AU2018244318B2 (en) 2017-03-28 2023-11-16 Auris Health, Inc. Shaft actuating handle
US10475235B2 (en) 2017-03-29 2019-11-12 Fujifilm Corporation Three-dimensional image processing apparatus, three-dimensional image processing method, and three-dimensional image processing program
WO2018183727A1 (en) 2017-03-31 2018-10-04 Auris Health, Inc. Robotic systems for navigation of luminal networks that compensate for physiological noise
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
KR20230106716A (en) 2017-04-07 2023-07-13 아우리스 헬스, 인코포레이티드 Patient introducer alignment
US20180308247A1 (en) 2017-04-25 2018-10-25 Best Medical International, Inc. Tissue imaging system and method for tissue imaging
JP2020520691A (en) 2017-05-12 2020-07-16 オーリス ヘルス インコーポレイテッド Biopsy devices and systems
CN110769736B (en) 2017-05-17 2023-01-13 奥瑞斯健康公司 Replaceable working channel
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
EP3645100A4 (en) 2017-06-28 2021-03-17 Auris Health, Inc. Instrument insertion compensation
CN116725667A (en) 2017-06-28 2023-09-12 奥瑞斯健康公司 System for providing positioning information and method for positioning an instrument within an anatomical structure
KR102578978B1 (en) 2017-06-28 2023-09-19 아우리스 헬스, 인코포레이티드 Electromagnetic distortion detection
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
US10593052B2 (en) 2017-08-23 2020-03-17 Synaptive Medical (Barbados) Inc. Methods and systems for updating an existing landmark registration
US10464209B2 (en) 2017-10-05 2019-11-05 Auris Health, Inc. Robotic system with indication of boundary for robotic arm
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
US10016900B1 (en) 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
KR102645922B1 (en) 2017-12-06 2024-03-13 아우리스 헬스, 인코포레이티드 Systems and methods for correcting non-directed instrument rolls
JP7208237B2 (en) 2017-12-08 2023-01-18 オーリス ヘルス インコーポレイテッド Systems and medical devices for performing medical procedures
CN110831534B (en) 2017-12-08 2023-04-28 奥瑞斯健康公司 System and method for medical instrument navigation and targeting
EP3723655A4 (en) 2017-12-11 2021-09-08 Auris Health, Inc. Systems and methods for instrument based insertion architectures
KR20200100613A (en) 2017-12-14 2020-08-26 아우리스 헬스, 인코포레이티드 System and method for estimating instrument position
US11160615B2 (en) 2017-12-18 2021-11-02 Auris Health, Inc. Methods and systems for instrument tracking and navigation within luminal networks
WO2019143458A1 (en) 2018-01-17 2019-07-25 Auris Health, Inc. Surgical robotics systems with improved robotic arms
MX2020007623A (en) 2018-01-17 2020-09-14 Auris Health Inc Surgical platform with adjustable arm supports.
CN116370084A (en) 2018-02-13 2023-07-04 奥瑞斯健康公司 System and method for driving a medical instrument
KR20200136931A (en) 2018-03-01 2020-12-08 아우리스 헬스, 인코포레이티드 Methods and systems for mapping and navigation
JP2019154816A (en) 2018-03-13 2019-09-19 ソニー・オリンパスメディカルソリューションズ株式会社 Medical image processor, medical observation device and operation method of medical observation device
JP7214747B2 (en) 2018-03-28 2023-01-30 オーリス ヘルス インコーポレイテッド System and method for position sensor alignment
CN117017505A (en) 2018-03-28 2023-11-10 奥瑞斯健康公司 Composite instrument and robotic system
US10827913B2 (en) 2018-03-28 2020-11-10 Auris Health, Inc. Systems and methods for displaying estimated location of instrument
MX2020010220A (en) 2018-03-29 2021-01-15 Auris Health Inc Robotically-enabled medical systems with multifunction end effectors having rotational offsets.
KR102499906B1 (en) 2018-05-30 2023-02-16 아우리스 헬스, 인코포레이티드 System and Method for Position Sensor-Based Branch Prediction
KR102567087B1 (en) 2018-05-31 2023-08-17 아우리스 헬스, 인코포레이티드 Robotic systems and methods for navigation of luminal networks detecting physiological noise
WO2019231891A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Path-based navigation of tubular networks
KR102455671B1 (en) 2018-05-31 2022-10-20 아우리스 헬스, 인코포레이티드 Image-Based Airway Analysis and Mapping
US10744981B2 (en) 2018-06-06 2020-08-18 Sensata Technologies, Inc. Electromechanical braking connector
CN112218596A (en) 2018-06-07 2021-01-12 奥瑞斯健康公司 Robotic medical system with high-force instruments
US10667875B2 (en) 2018-06-27 2020-06-02 Auris Health, Inc. Systems and techniques for providing multiple perspectives during medical procedures
JP7366943B2 (en) 2018-06-27 2023-10-23 オーリス ヘルス インコーポレイテッド Alignment and mounting system for medical devices
KR20210024484A (en) 2018-06-28 2021-03-05 아우리스 헬스, 인코포레이티드 Medical system with integrated pulley sharing
CN112804946A (en) 2018-08-07 2021-05-14 奥瑞斯健康公司 Combining strain-based shape sensing with catheter control
US10828118B2 (en) 2018-08-15 2020-11-10 Auris Health, Inc. Medical instruments for tissue cauterization
EP3806758A4 (en) 2018-08-17 2022-04-06 Auris Health, Inc. Bipolar medical instrument
AU2019326548B2 (en) 2018-08-24 2023-11-23 Auris Health, Inc. Manually and robotically controllable medical instruments
MX2021003099A (en) 2018-09-17 2021-05-13 Auris Health Inc Systems and methods for concomitant medical procedures.
WO2020068303A1 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Systems and instruments for suction and irrigation
WO2020068853A2 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Articulating medical instruments
KR20210073542A (en) 2018-09-28 2021-06-18 아우리스 헬스, 인코포레이티드 Systems and methods for docking medical instruments
EP3856001A4 (en) 2018-09-28 2022-06-22 Auris Health, Inc. Devices, systems, and methods for manually and robotically driving medical instruments
AU2019347754A1 (en) 2018-09-28 2021-04-08 Auris Health, Inc. Robotic systems and methods for concomitant endoscopic and percutaneous medical procedures
US11576738B2 (en) 2018-10-08 2023-02-14 Auris Health, Inc. Systems and instruments for tissue sealing
EP3870075A4 (en) 2018-12-20 2022-08-03 Auris Health, Inc. Shielding for wristed instruments
WO2020140072A1 (en) 2018-12-28 2020-07-02 Auris Health, Inc. Percutaneous sheath for robotic medical systems and methods
WO2020172394A1 (en) 2019-02-22 2020-08-27 Auris Health, Inc. Surgical platform with motorized arms for adjustable arm supports
WO2020185516A1 (en) 2019-03-08 2020-09-17 Auris Health, Inc. Tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and
US20200297444A1 (en) 2019-03-21 2020-09-24 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for localization based on machine learning
CN113613580A (en) 2019-03-22 2021-11-05 奥瑞斯健康公司 System and method for aligning inputs on a medical instrument
WO2020197625A1 (en) 2019-03-25 2020-10-01 Auris Health, Inc. Systems and methods for medical stapling
US11617627B2 (en) 2019-03-29 2023-04-04 Auris Health, Inc. Systems and methods for optical strain sensing in medical instruments
WO2020210044A1 (en) 2019-04-08 2020-10-15 Auris Health, Inc. Systems, methods, and workflows for concomitant procedures

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001000448A (en) 1999-06-21 2001-01-09 Hitachi Ltd Apparatus for surgiacl operation
US20040097806A1 (en) 2002-11-19 2004-05-20 Mark Hunter Navigation system for cardiac therapies
US20080300478A1 (en) 2007-05-30 2008-12-04 General Electric Company System and method for displaying real-time state of imaged anatomy during a surgical procedure
US20120059248A1 (en) 2010-08-20 2012-03-08 Troy Holsing Apparatus and method for airway registration and navigation
US20120172712A1 (en) 2010-12-29 2012-07-05 Bar-Tal Meir Respiratory effect reduction in catheter position sensing
US20150265368A1 (en) 2014-03-24 2015-09-24 Intuitive Surgical Operations, Inc. Systems and Methods for Anatomic Motion Compensation

Also Published As

Publication number Publication date
EP3600031A4 (en) 2021-01-20
KR102558061B1 (en) 2023-07-25
JP2020512102A (en) 2020-04-23
WO2018183727A1 (en) 2018-10-04
CN108990412A (en) 2018-12-11
AU2018243364B2 (en) 2023-10-05
EP3600031A1 (en) 2020-02-05
AU2018243364A1 (en) 2019-10-17
US20180279852A1 (en) 2018-10-04
KR20190134968A (en) 2019-12-05
US11490782B2 (en) 2022-11-08
US20230057983A1 (en) 2023-02-23
CN108990412B (en) 2022-03-22

Similar Documents

Publication Publication Date Title
JP7282685B2 (en) A robotic system for navigation of luminal networks with compensation for physiological noise
US20230190244A1 (en) Biopsy apparatus and system
US11759266B2 (en) Robotic systems for determining a roll of a medical device in luminal networks
KR102567087B1 (en) Robotic systems and methods for navigation of luminal networks detecting physiological noise
CN114601559B (en) System and medium for positioning sensor-based branch prediction
EP4021331A1 (en) Systems and methods for weight-based registration of location sensors
EP3773131B1 (en) Systems for registration of location sensors

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210323

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210428

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210428

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230517

R150 Certificate of patent or registration of utility model

Ref document number: 7282685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150