JP7282685B2 - A robotic system for navigation of luminal networks with compensation for physiological noise - Google Patents
A robotic system for navigation of luminal networks with compensation for physiological noise Download PDFInfo
- Publication number
- JP7282685B2 JP7282685B2 JP2019553011A JP2019553011A JP7282685B2 JP 7282685 B2 JP7282685 B2 JP 7282685B2 JP 2019553011 A JP2019553011 A JP 2019553011A JP 2019553011 A JP2019553011 A JP 2019553011A JP 7282685 B2 JP7282685 B2 JP 7282685B2
- Authority
- JP
- Japan
- Prior art keywords
- electromagnetic
- sensors
- sensor
- data
- patient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00006—Operational features of endoscopes characterised by electronic signal processing of control signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/267—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
- A61B1/2676—Bronchoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
- A61B10/02—Instruments for taking cell samples or for biopsy
- A61B10/04—Endoscopic instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/32—Surgical robots operating autonomously
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/35—Surgical robots for telesurgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Detecting, measuring or recording devices for evaluating the respiratory organs
- A61B5/0816—Measuring devices for examining respiratory frequency
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6846—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
- A61B5/6867—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive specially adapted to be attached or implanted in a specific body part
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
- A61B2017/00119—Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
- A61B2017/00123—Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation and automatic shutdown
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00681—Aspects not otherwise provided for
- A61B2017/00694—Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
- A61B2017/00699—Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body correcting for movement caused by respiration, e.g. by triggering
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00743—Type of operation; Specification of treatment sites
- A61B2017/00809—Lung operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/303—Surgical robots specifically adapted for manipulations within body lumens, e.g. within lumen of gut, spine, or blood vessels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
- A61B2090/3614—Image-producing devices, e.g. surgical cameras using optical fibre
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Detecting, measuring or recording devices for evaluating the respiratory organs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
- A61B5/7207—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7285—Specific aspects of physiological measurement analysis for synchronising or triggering a physiological measurement or image acquisition with a physiological event or waveform, e.g. an ECG signal
- A61B5/7289—Retrospective gating, i.e. associating measured signals or images with a physiological event after the actual measurement or image acquisition, e.g. by simultaneously recording an additional physiological signal during the measurement or image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Robotics (AREA)
- Biophysics (AREA)
- Physics & Mathematics (AREA)
- Pulmonology (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Physiology (AREA)
- Otolaryngology (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Endoscopes (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Radiation-Therapy Devices (AREA)
Description
本願は、2017年3月31日出願の発明の名称が「生理学的ノイズを補償する管腔ネットワークのナビゲーション用ロボットシステム」である米国仮特許出願62/480,257号の利益を主張し、その開示全体を参照により援用する。 This application claims the benefit of U.S. Provisional Patent Application No. 62/480,257, entitled "Robotic System for Navigation of Luminal Networks Compensating for Physiological Noise," filed March 31, 2017, and The entire disclosure is incorporated by reference.
本件開示のシステムおよび方法は管腔内手技に関し、より具体的には、管腔内ナビゲーションに関する。 The systems and methods of the present disclosure relate to intraluminal procedures and, more particularly, to intraluminal navigation.
気管支鏡検査は、施術者が患者の気管支や細気管支などの肺気道の内部状態を調べることができる医療手技である。気管支鏡検査の手技においては、気管支鏡と呼ばれる柔軟性のある管状の器具が、患者の口に挿入され、患者の咽喉を下って肺気道に入り、後の診断および治療のために特定された組織部位に導かれる。気管支鏡は、組織部位への経路を提供する内部ルーメン(「ワーキングチャネル」)を備えることができ、カテーテルや種々の医療器具を、ワーキングチャネルを経由して組織部位に挿入することができる。 Bronchoscopy is a medical procedure that allows a practitioner to examine the internal condition of a patient's pulmonary airways, such as the bronchi and bronchioles. In a bronchoscopic procedure, a flexible tubular instrument called a bronchoscope is inserted into the patient's mouth, down the patient's throat and into the lung airways, where it is identified for later diagnosis and treatment. Guided to the tissue site. A bronchoscope can include an internal lumen (a "working channel") that provides a pathway to a tissue site through which catheters and various medical devices can be inserted into the tissue site.
呼吸器専門医は、判断や行動を患者の呼吸周期に依ることで手術時の外傷を回避することができる。そのような行動の一例として、例えば気管支鏡を経由して組織の試料を収集する生検器具を挿入することが挙げられる。肺気道の周辺やその隣接部分では、気道の外周が肺の呼吸相に応じて変化する。患者が呼吸周期の吸気相で吸気すると、気道の直径が拡張し、患者が周期の呼気相で呼気すると、気道の直径が収縮する。呼吸器専門医は、手技時に、患者を観察して、患者が吸気相にあるか呼気相にあるかを決定して、直径が固定されている特定の器具や内視鏡が気道に入るか否かを判断する。気道は、呼気時に外傷を引き起こすことなく器具の周りを取り囲むことができるが、呼気時に器具を収縮した気道内を通そうとすると、例えば血管を刺すなど、重大な外傷が生じる可能性がある。 Pulmonologists can avoid surgical trauma by relying on the patient's breathing cycle for decisions and actions. An example of such an action includes inserting a biopsy device to collect a sample of tissue, eg, via a bronchoscope. Around and adjacent to the lung airways, the circumference of the airways changes according to the respiratory phases of the lungs. When the patient inhales during the inspiratory phase of the respiratory cycle, the airway diameter expands, and when the patient exhales during the expiratory phase of the cycle, the airway diameter contracts. During the procedure, the pulmonologist observes the patient to determine whether the patient is in the inspiratory or expiratory phase and whether a particular fixed-diameter instrument or endoscope can enter the airway. to judge whether The airway can be wrapped around the device without causing trauma during exhalation, but attempting to pass the device through the constricted airway during exhalation can cause significant trauma, e.g., piercing a blood vessel.
上記の問題は、他の問題も含めて、本件開示の管腔ネットワークのナビゲーションシステムやナビゲーション手法による一部の実施形態において解決される。開示の管腔ネットワークのナビゲーションシステムやナビゲーション手法は、呼吸数および/または呼吸量をナビゲーションフレームワークに組み込んで、患者の安全対策を実装すること(例えば、器具制御手法、ユーザインタフェースによる警告、通知など)に関する。器具制御手法の一例として、本件開示のロボットシステムは、自動的に呼吸同期を実行し、ユーザ(施術者)が意図せず患者の気道に外傷を及ぼすことを防止することができる。ここで、「呼吸同期」とは、患者の気道内の器具の操作を患者の呼吸と同期させることを意味する。一部の例では、器具制御手法には、例えば吸気時の気道の直径がおおよそ器具の直径となる、肺周辺部の小径の気道など、呼気時の器具挿入によって外傷が発生する可能性がある患者の気道における領域(「警告域」)特定が含まれる。本ロボットシステムは、器具が特定された複数の領域の一領域内に位置すると判定されたときに、呼吸同期を実行して器具を制御することができる。ユーザインタフェースによる警告の一例として、本ロボットシステムは、気管支鏡検査の手技において特定された警告域内における吸気、呼気および/または器具の位置決めについての視覚的および/または聴覚的な指標を提供することができる。ユーザは、例えば手動で呼吸同期を行ったりロボットシステムを制御して呼吸同期を行ったりすることで、ユーザインタフェースによる警告を基に器具制御を行うことができる。 The above problems, among others, are solved in some embodiments by the luminal network navigation system and method of the present disclosure. The disclosed luminal network navigation systems and techniques incorporate respiratory rate and/or respiratory volume into the navigation framework to implement patient safety measures (e.g., instrument control techniques, user interface alerts, notifications, etc.). ). As an example of an instrument control approach, the robotic system of the present disclosure can automatically perform respiratory gating to prevent the user (practitioner) from unintentionally traumatizing the patient's airway. Here, "respiratory gating" means synchronizing the operation of an instrument within the patient's airway with the patient's breathing. In some instances, device control techniques have the potential for trauma from device insertion during expiration, e.g., small-diameter airways in the lung periphery, where the diameter of the airway during inspiration is approximately the diameter of the device. Identification of regions (“warning zones”) in the patient's airways is included. The robotic system can perform respiratory gating to control the instrument when it is determined that the instrument is located within one of the identified regions. As an example of a user interface warning, the robotic system can provide visual and/or audible indications of inspiration, expiration, and/or instrument positioning within specified warning zones during a bronchoscopy procedure. can. The user can perform instrument control based on a warning from the user interface, for example, by performing respiratory gating manually or by controlling the robot system to perform respiratory gating.
開示の気管支鏡検査のナビゲーションシステムおよび手法の一部の実施形態は、患者の起動内の器具のより精度の高い位置特定を提供するための、患者の呼吸によって生じる動きの特定および補償に関する。例えば、患者の起動内に位置する器具として電磁石のもの(電磁センサ)が提供される。ナビゲーションシステムは、電磁センサからの器具の位置情報にフィルタを適用し、呼吸によって生じる呼吸経路の周期的な動きに起因する信号ノイズを除去することができる。周期的な呼吸の動きの回数は、1つまたは複数の追加のセンサからのデータから取得することができる。一部の実装では、吸気と呼気の周期は、一例では、患者の体の上に配置された追加の電磁センサ、加速度計、および/または音響呼吸センサからのデータに基づいて決定することができる。一部の実装では、回数は他の種類のセンサまたはシステムから取得することができ、例えば患者の呼吸の制御に使用される人工呼吸器からの呼吸数情報や、患者を観察するために配置された光学センサから受信する画像の自動分析から抽出される呼吸数情報が挙げられる。 Some embodiments of the disclosed bronchoscopy navigation systems and techniques relate to identifying and compensating for movement caused by a patient's breathing to provide more accurate localization of instruments within the patient's actuations. For example, electromagnets (electromagnetic sensors) are provided as instruments located within the patient's actuations. The navigation system may apply a filter to the instrument's position information from the electromagnetic sensor to remove signal noise due to the periodic movement of the respiratory tract caused by respiration. The number of periodic respiratory movements can be obtained from data from one or more additional sensors. In some implementations, the inspiratory and expiratory cycles can be determined, in one example, based on data from additional electromagnetic sensors, accelerometers, and/or acoustic respiration sensors placed on the patient's body. . In some implementations, the rate can be obtained from other types of sensors or systems, such as breath rate information from a ventilator used to control a patient's breathing, or a breathing rate information placed to monitor the patient. respiration rate information extracted from automated analysis of images received from the optical sensor.
したがって、一態様は、患者の管腔ネットワークをナビゲートするシステムであって、電磁場を発生させる発生器と、操縦可能な器具の遠位端に設けられる1組の1つまたは複数の電磁センサと、1組の1つまたは複数の呼吸センサと、実行可能な命令が記憶されている少なくとも1つのコンピュータ読み取り可能メモリと、前記少なくとも1つのコンピュータ読み取り可能メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行することで前記システムに少なくとも前記管腔ネットワークを表現する手術前モデルにアクセスすることと、前記電磁場の座標系と前記手術前モデルの座標系との間のマッピングにアクセスすることと、前記1組の電磁センサからのデータ信号を基に、前記電磁場内の前記1組の電磁センサの少なくとも1つの位置を計算することと、前記1組の呼吸センサからのデータ信号を基に、前記患者の呼吸数を計算することと、前記位置合わせマッピング、前記呼吸数、および前記電磁場内の前記1組の電磁センサの少なくとも1つの位置を基に、前記手術前モデルに対する前記操縦可能な器具の遠位端の位置を判定することと、を実行させるプロセッサと、を有するシステムに関する。 Accordingly, one aspect is a system for navigating a patient's luminal network comprising a generator for generating an electromagnetic field and a set of one or more electromagnetic sensors provided at the distal end of a steerable instrument. , a set of one or more respiratory sensors, at least one computer readable memory having executable instructions stored thereon, and one or more processors in communication with the at least one computer readable memory. executing the instructions to access at least a pre-operative model representing the luminal network in the system; and a mapping between the coordinate system of the electromagnetic field and the coordinate system of the pre-operative model. calculating the position of at least one of the set of electromagnetic sensors within the electromagnetic field based on data signals from the set of electromagnetic sensors; and based on data signals from the set of respiratory sensors. calculating the respiration rate of the patient; and determining the steerable relative to the pre-operative model based on the registration mapping, the respiration rate, and the position of at least one of the set of electromagnetic sensors within the electromagnetic field. and determining the position of the distal end of an instrument.
いくつかの実装では、前記1組の電磁センサの各電磁センサは、前記電磁センサと前記発生器との間の距離および角度を示す信号を生成し、前記電気信号は、前記電磁場内の前記電磁センサの位置および向きの1つまたは両方の判定に使用することができる。 In some implementations, each electromagnetic sensor of the set of electromagnetic sensors produces a signal indicative of the distance and angle between the electromagnetic sensor and the generator, and the electrical signal is the electromagnetic sensor within the electromagnetic field. It can be used to determine one or both of the position and orientation of the sensor.
いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに前記1組の呼吸センサからの1つまたは複数のデータ信号を前記1つまたは複数のデータ信号の周波数領域表現に変換することと、前記1つまたは複数のデータ信号の前記周波数領域表現から呼吸数を特定することを実行させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記1組の電磁センサからの1つまたは複数のデータ信号に予測フィルタを適用することであって、前記予測フィルタは前記呼吸による呼吸運動を予測する、ことと、前記予測された呼吸運動に起因する前記1つまたは複数のデータ信号の成分を除去して、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することと、を実行させる。 In some implementations, the one or more processors execute the instructions to provide the system with one or more data signals from the set of respiratory sensors, one or more of the one or more data signals. Transforming to a frequency domain representation and determining a respiration rate from the frequency domain representation of the one or more data signals are performed. In some implementations, the one or more processors execute the instructions to cause the system to apply a prediction filter to one or more data signals from at least the set of electromagnetic sensors. wherein the prediction filter predicts respiratory motion due to the respiration; and removing components of the one or more data signals attributable to the predicted respiratory motion to render the steerable relative to the preoperative model. and determining the position of the distal end of the instrument.
いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記患者の前記呼吸の吸気相と呼気相との間の前記1組の呼吸センサの少なくとも1つの変位の大きさを計算することを実行させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記1組の呼吸センサに対する前記1組の電磁センサの少なくとも1つの位置を判定することと、(1)前記1組の呼吸センサに対する前記1組の電磁センサの前記判定された少なくとも1つの位置および(2)吸気相と呼気相との間の前記1組の呼吸センサの前記少なくとも1つの変位の大きさを基に、前記吸気相と前記呼気相との間の前記1組の
電磁センサの少なくとも1つの位置の変位を計算することと、前記吸気相と前記呼気相との間の前記1組の電磁センサの前記計算された少なくとも1つの位置の変位を基に、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することとを実行させる。いくつかの実装では、前記1組の呼吸センサは、前記体表面の第1の位置に配置されて用いられている第1の追加の電磁センサと、前記体表面の第2の位置に配置されて用いられている第2の追加の電磁センサとを有し、前記吸気相と前記呼気相との間における、前記第1の追加の電磁センサの第1の変位の大きさが、前記第2の追加の電磁センサの第2の変位の大きさよりも大きくなるように、前記第2の位置が前記第1の位置から離れている。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記第1の追加の電磁センサおよび前記第2の追加の電磁センサに対する前記1組の電磁センサの相対位置を判定することと、前記1組の電磁センサの前記判定された相対位置を基に、前記第1の変位の大きさと前記第2の変位の大きさとの間の補間を行い、前記吸気相と前記呼気相との間の前記1組の電磁センサの位置の変位の前記計算は、前記補間された大きさを基に実行されることと、を実行させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記計算された少なくとも1つの変位の大きさを基に、前記手術前モデルの少なくとも1つの位置に対する移動ベクトルを推定することと、前記推定された移動ベクトルを基に、前記電磁場の前記座標系内の前記手術前モデルを翻訳することと、前記翻訳された手術前モデルを基に、前記操縦可能な器具の前記遠位端の前記位置を判定することとを実行させる。いくつかの実装では、前記電磁場の前記座標系内の前記手術前モデルを翻訳するために、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記第1の変位の大きさを基に、前記モデルの第1の部分を第1の新しい座標に移動することと、前記第2の変位の大きさを基に、前記モデルの第2の部分を第2の新しい座標に移動することと、を実行させる。
In some implementations, the one or more processors execute the instructions to instruct the system to detect at least one of the set of respiration sensors during an inspiratory phase and an expiratory phase of the respiration of the patient. Calculating the magnitude of one displacement is performed. In some implementations, the one or more processors execute the instructions to cause the system to determine the position of at least one of the set of electromagnetic sensors relative to at least the set of respiratory sensors; (1) the determined at least one position of the set of electromagnetic sensors relative to the set of respiration sensors; and (2) the at least one displacement of the set of respiration sensors between inspiratory and expiratory phases. calculating displacement of at least one position of said set of electromagnetic sensors between said inspiratory phase and said expiratory phase based on the magnitude; and determining the position of the distal end of the steerable instrument relative to the pre-operative model based on the calculated positional displacement of at least one of a set of electromagnetic sensors. In some implementations, the set of respiration sensors includes a first additional electromagnetic sensor positioned at a first location on the body surface and a first additional electromagnetic sensor employed at a second location on the body surface. and a second additional electromagnetic sensor being used as a sensor, wherein a first magnitude of displacement of said first additional electromagnetic sensor between said inspiratory phase and said expiratory phase is determined by said second The second position is spaced from the first position such that the second displacement magnitude of the additional electromagnetic sensor is greater than the second displacement magnitude. In some implementations, the one or more processors execute the instructions to instruct the system to detect at least the set of electromagnetic sensors for the first additional electromagnetic sensor and the second additional electromagnetic sensor. and interpolating between the first displacement magnitude and the second displacement magnitude based on the determined relative positions of the set of electromagnetic sensors; said calculation of the displacement of the position of said set of electromagnetic sensors between an inspiratory phase and said expiratory phase is performed based on said interpolated magnitudes. In some implementations, the one or more processors execute the instructions to instruct the system to determine at least one position of the pre-operative model based on the calculated at least one displacement magnitude. estimating a motion vector for , translating the pre-operative model in the coordinate system of the electromagnetic field based on the estimated motion vector, and based on the translated pre-operative model, the steering and determining said position of said distal end of a possible instrument. In some implementations, to translate the pre-operative model within the coordinate system of the electromagnetic field, the one or more processors execute the instructions to instruct the system to perform at least the first displacement. moving a first portion of the model to a first new coordinate based on the magnitude; and moving a second portion of the model to a second new coordinate based on the magnitude of the second displacement. and let it run.
いくつかの実装は、前記操縦可能な器具の移動を行う器具ドライバを有するロボットシステムをさらに有する。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を基に、前記操縦可能な器具の次の移動を特定することと、前記次の移動を行うよう前記器具ドライバの作動を指示することとを実行させる。いくつかの実装は、さらにディスプレイを有し、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記手術前モデルに対する前記操縦可能な器具の前記遠位端野前記位置のグラフィック表現を生成することと、前記ディスプレイに前記生成されたグラフィカル表現を表示することとを実行させる。いくつかの実装では、前記ロボットシステムは入力装置を有し、前記入力装置は、前記入力装置のユーザ操作を基に、前記操縦可能な器具の移動を制御する。 Some implementations further include a robotic system having an instrument driver that performs movement of the steerable instrument. In some implementations, the one or more processors execute the instructions to instruct the system to perform the maneuver based at least on the position of the distal end of the steerable instrument relative to the pre-operative model. Identifying a possible next movement of the instrument and directing operation of the instrument driver to perform said next movement. Some implementations further include a display, wherein the one or more processors execute the instructions to instruct the system to at least indicate the position of the distal end of the steerable instrument relative to the pre-operative model. Generating a graphical representation and displaying the generated graphical representation on the display are performed. In some implementations, the robotic system has an input device that controls movement of the steerable instrument based on user manipulation of the input device.
いくつかの実装では、前記手術前モデルは、前記患者の前記管腔ネットワークの3次元コンピュータ断層撮影モデルを有する。 In some implementations, the pre-operative model comprises a 3D computed tomography model of the luminal network of the patient.
別の態様は、患者の管腔ネットワークのナビゲーションを判定する装置であって、実行可能な命令が記憶されている少なくとも1つのコンピュータ読み取り可能メモリと、前記少なくとも1つのコンピュータ読み取り可能メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行することで前記システムに少なくとも前記管腔ネットワークを表現するモデルにアクセスすることと、前記モデルの座標系と前記管腔ネットワークの周囲に発生された電磁場の座標系との間のマッピングにアクセスすることと、前記管腔ネットワークに挿入されて用いられている操縦可能な器具の遠位端の電磁センサからデータを受信することと、前記電磁センサからのデータを基に、前記電磁センサからのデータを基にした前記電磁場内の前記電磁センサの位置を計算することと、前記管腔ネットワークの移動を検出する少なくとも1つの追加のセンサからデータを受信することと、前記少な
くとも1つの追加のセンサからのデータを基に、前記管腔ネットワークの周期的な移動の周期を計算することと、前記マッピング、前記周期、および前記電磁場内の前記電磁センサの位置を基に、前記モデルに対する前記操縦可能な器具の前記遠位端の位置を判定することとを実行させる。
Another aspect is an apparatus for determining navigation of a luminal network of a patient, comprising at least one computer readable memory having executable instructions stored thereon and in communication with said at least one computer readable memory 1 one or more processors that execute the instructions to access to the system at least a model representing the luminal network; accessing a mapping to and from a coordinate system of an electromagnetic field; receiving data from an electromagnetic sensor at the distal end of a steerable instrument being used and inserted into the luminal network; calculating the position of the electromagnetic sensor within the electromagnetic field based on data from the electromagnetic sensor, and receiving data from at least one additional sensor that detects movement of the luminal network. calculating a period of periodic movement of the luminal network based on data from the at least one additional sensor; mapping, the period, and the electromagnetic sensor within the electromagnetic field; and determining the position of the distal end of the steerable instrument relative to the model based on the position.
いくつかの実装では、前記少なくとも1つの追加のセンサは、1つまたは複数の電磁センサを有する。 In some implementations, the at least one additional sensor comprises one or more electromagnetic sensors.
いくつかの実装では、前記少なくとも1つの追加のセンサは、加速度計を有する。 In some implementations the at least one additional sensor comprises an accelerometer.
いくつかの実装では、前記少なくとも1つの追加のセンサは、音響呼吸センサを有し、前記音響呼吸センサは、患者の呼吸時の前記周期的な移動を検出する。 In some implementations, the at least one additional sensor comprises an acoustic respiration sensor, wherein the acoustic respiration sensor detects the periodic movements during patient respiration.
いくつかの実装では、前記管腔ネットワークは、呼吸気道を有し、前記1つまたは複数のプロセッサは、前記命令を実行することで前記装置に前記管腔ネットワークを通って前記操縦可能な器具を誘導することを実行させる。 In some implementations, the luminal network comprises a respiratory airway, and the one or more processors execute the instructions to cause the device to steer the steerable instrument through the luminal network. Make it do what it induces.
いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記少なくとも1つの追加のセンサからの1つまたは複数のデータ信号を、前記1つまたは複数のデータ信号の周波数領域表現に変換することと、前記1つまたは複数のデータ信号の前記周波数領域表現から周期的な移動の前記周期を特定することを実行させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記電磁センサからの1つまたは複数のデータ信号にフィルタを適用することであって、前記フィルタは前記特定された周期で前記1つまたは複数のデータ信号の一部を弱める、ことと、前記フィルタが適用された前記電磁センサからの前記1つまたは複数のデータ信号を基に、前記モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することと、を実行させる。 In some implementations, the one or more processors execute the instructions to provide the system with one or more data signals from at least the at least one additional sensor, the one or more Transforming to a frequency domain representation of a data signal and identifying the period of periodic movement from the frequency domain representation of the one or more data signals are performed. In some implementations, the one or more processors execute the instructions to cause the system to apply a filter to one or more data signals from at least the electromagnetic sensor, wherein the filter attenuates a portion of the one or more data signals at the specified period; and based on the one or more data signals from the electromagnetic sensor to which the filter is applied, for the model and determining the position of the distal end of the steerable instrument.
いくつかの実装では、前記管腔ネットワークは、呼吸気道を有し、前記1つまたは複数のプロセッサは、前記命令を実行することで少なくとも前記患者の前記呼吸の吸気相と呼気相との間の前記少なくとも1つの追加のセンサの前記少なくとも1つの変位の大きさを計算することを実行させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで少なくとも前記少なくとも1つの追加のセンサに対する前記電磁センサの位置を判定することと、(1)前記少なくとも1つの追加のセンサに対する前記電磁センサの前記判定された位置および(2)吸気相と呼気相との間の前記少なくとも1つの追加のセンサの前記少なくとも1つの変位の大きさを基に、前記吸気相と前記呼気相との間の前記電磁センサの位置の変位を計算することと、前記吸気相と前記呼気相との間の電磁センサの前記計算された位置の変位を基に、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することと、を実行させる。いくつかの実装では、前記少なくとも1つの追加のセンサは、前記体表面の第1の位置に配置されて用いられている第1の追加の電磁センサと、前記体表面の第2の位置に配置されて用いられている第2の追加の電磁センサとを有し、前記吸気相と前記呼気相との間における、前記第1の追加の電磁センサの第1の変位の大きさが、前記第2の追加の電磁センサの第2の変位の大きさよりも大きくなるように、前記第2の位置が前記第1の位置から離れている。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記第1の追加の電磁センサおよび前記第2の追加の電磁センサに対する前記電磁センサの位置を判定することと、前記電磁センサの前記判定された位置を基に、前記第1の変位の大きさと前記第2の変位の大きさとの間の補間を行うことであって、前記吸気相と前記呼気相との間の前記電磁センサの位置の変位の前記計算は、前記補間された大きさを基に実行される、ことと、を実行させる。いくつかの実装では、前記1
つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記計算された少なくとも1つの変位の大きさを基に、前記モデルの少なくとも1つの位置に対する移動ベクトルを推定することと、前記推定された移動ベクトルを基に、前記電磁場の前記座標系内の前記モデルを翻訳することと、前記翻訳されたモデルを基に、前記操縦可能な器具の前記遠位端の前記位置を判定することとを実行させる。いくつかの実装では、前記電磁場の前記座標系内の前記手術前モデルを翻訳するために、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記第1の変位の大きさを基に、前記モデルの第1の部分を第1の新しい座標に移動することと、前記第2の変位の大きさを基に、前記モデルの第2の部分を第2の新しい座標に移動することとを実行させる。
In some implementations, the luminal network comprises a respiratory airway, and the one or more processors execute the instructions to cause at least a period between inspiratory and expiratory phases of the patient's respiration. Calculating a magnitude of said at least one displacement of said at least one additional sensor is performed. In some implementations, the one or more processors execute the instructions to determine the position of the electromagnetic sensor relative to the at least one additional sensor; (1) the at least one additional sensor; and (2) the magnitude of the at least one displacement of the at least one additional sensor between the inspiratory phase and the expiratory phase. calculating a positional displacement of the electromagnetic sensor during an exhalation phase; and based on the calculated positional displacement of the electromagnetic sensor between the inspiratory phase and the expiratory phase, relative to the preoperative model. and determining the position of the distal end of the steerable instrument. In some implementations, the at least one additional sensor comprises a first additional electromagnetic sensor used positioned at a first location on the body surface and a first additional electromagnetic sensor positioned at a second location on the body surface. and a second additional electromagnetic sensor being used as a sensor, wherein a first magnitude of displacement of said first additional electromagnetic sensor between said inspiratory phase and said expiratory phase is determined by said first The second position is spaced from the first position such that the second displacement magnitude of the two additional electromagnetic sensors is greater. In some implementations, the one or more processors execute the instructions to provide the system with the position of the electromagnetic sensor relative to at least the first additional electromagnetic sensor and the second additional electromagnetic sensor. and interpolating between the first displacement magnitude and the second displacement magnitude based on the determined position of the electromagnetic sensor, wherein the inspiratory phase and the said calculation of the displacement of said electromagnetic sensor's position between exhalation phases is performed based on said interpolated magnitude. In some implementations, the 1
The one or more processors instruct the system by executing the instructions to at least estimate a motion vector for at least one position of the model based on the calculated at least one displacement magnitude; Translating the model in the coordinate system of the electromagnetic field based on the estimated motion vector and determining the position of the distal end of the steerable instrument based on the translated model. make things happen. In some implementations, to translate the pre-operative model within the coordinate system of the electromagnetic field, the one or more processors execute the instructions to instruct the system to perform at least the first displacement. moving a first portion of the model to a first new coordinate based on the magnitude; and moving a second portion of the model to a second new coordinate based on the magnitude of the second displacement. to move to and run.
別の態様は、命令が記憶されている非一時的なコンピュータ読み取り可能記憶媒体であって、前記命令が実行されると少なくとも1つの計算装置に少なくとも患者の組織部位に挿入されて用いられている器具の電磁センサからの第1のデータと、前記組織部位の移動を検出する少なくとも1つの追加のセンサからの第2のデータを受信することと、前記第1のデータを基に、前記組織部位の周囲に位置する電磁場内の電磁センサの位置を計算することと、第2のデータを基に、前記組織部位の周期的な移動の周期を計算することと、(1)前記組織部位の周期的な運動の周期および(2)前記場内の前記電磁センサの前記位置を基に、前記組織部位に対する前記器具の位置を判定することと、を実行させる非一時的なコンピュータ読み取り可能記憶媒体に関する。 Another aspect is a non-transitory computer readable storage medium having instructions stored therein for use in at least one computing device inserted into at least a tissue site of a patient when the instructions are executed. receiving first data from an electromagnetic sensor of an instrument and second data from at least one additional sensor that detects movement of the tissue site; and based on the first data, measuring the tissue site calculating a position of an electromagnetic sensor within an electromagnetic field located around a; and calculating a period of periodic movement of the tissue site based on second data; (1) a period of the tissue site and (2) determining the position of the instrument relative to the tissue site based on the period of motion and (2) the position of the electromagnetic sensor within the field.
いくつかの実装では、前記命令が実行されると前記少なくとも1つの計算装置に前記第2のデータを周波数領域表現に変換することと、前記周波数領域表現から前記周期的な移動の前記周期を特定することと、を実行させる。いくつかの実装では、前記命令が実行されると前記少なくとも1つの計算装置に前記第1のデータにフィルタを適用することであって、前記フィルタは前記特定された周期で前記第1のデータの一部を弱める、ことと、前記フィルタが適用された第1のデータを基に、前記器具の前記位置を判定することと、を実行させる。 In some implementations, execution of the instructions causes the at least one computing device to transform the second data into a frequency domain representation and determine the period of the periodic movement from the frequency domain representation. to do and to do. In some implementations, when the instructions are executed, the at least one computing device applies a filter to the first data, the filter filtering the first data at the specified periodicity. weakening a portion; and determining the position of the instrument based on the filtered first data.
いくつかの実装では、前記組織部位は呼吸気道を有し、前記命令が実行されると前記少なくとも1つの計算装置に前記患者の前記呼吸の吸気相と呼気相との間の前記少なくとも1つの追加のセンサの少なくとも1つの変位の大きさを計算することを実行させる。いくつかの実装では、前記命令が実行されると前記少なくとも1つの計算装置に前記少なくとも1つの追加のセンサに対する前記電磁センサの位置を判定することと、(1)前記少なくとも1つの追加のセンサに対する前記電磁センサの前記判定された位置および(2)吸気相と呼気相との間の前記少なくとも1つの追加のセンサの前記少なくとも1つの変位の大きさを基に、前記吸気相と前記呼気相との間の前記電磁センサの位置の変位を計算することと、前記吸気相と前記呼気相との間の電磁センサの前記計算された位置の変位を基に、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することと、を実行させる。いくつかの実装では、前記少なくとも1つの追加のセンサは、前記患者の第1の位置に配置されて用いられている第1の追加の電磁センサと、前記患者の第2の位置に配置されて用いられている第2の追加の電磁センサとを有し、前記吸気相と前記呼気相との間における、前記第1の追加の電磁センサの第1の変位の大きさが、前記第2の追加の電磁センサの第2の変位の大きさよりも大きくなるように、前記第2の位置が前記第1の位置から離れており、前記命令が実行されると前記少なくとも1つの計算装置に前記第1の追加の電磁センサおよび前記第2の追加の電磁センサに対する前記電磁センサの位置を判定することと、前記電磁センサの前記判定された位置を基に、前記第1の変位の大きさと前記第2の変位の大きさとの間の補間を行うことであって、前記吸気相と前記呼気相との間の前記電磁センサの位置の変位の前記計算は、前記補間された大きさを基に実行される、ことと、を実行させる。 In some implementations, the tissue site comprises a respiratory airway, and execution of the instructions instructs the at least one computing device to perform the at least one addition between the inspiratory and expiratory phases of the respiration of the patient. calculating the magnitude of the displacement of at least one of the sensors. In some implementations, when the instructions are executed, the at least one computing device determines the position of the electromagnetic sensor relative to the at least one additional sensor; based on the determined position of the electromagnetic sensor and (2) the magnitude of the at least one displacement of the at least one additional sensor between the inspiratory phase and the expiratory phase; and calculating the displacement of the position of the electromagnetic sensor between the inspiratory phase and the expiratory phase, based on the calculated positional displacement of the electromagnetic sensor between and determining the position of the distal end of the instrument. In some implementations, the at least one additional sensor comprises a first additional electromagnetic sensor positioned at a first location on the patient and a first additional electromagnetic sensor positioned at a second location on the patient. and a second additional electromagnetic sensor being used, wherein a first magnitude of displacement of said first additional electromagnetic sensor between said inspiratory phase and said expiratory phase is equal to said second The second position is spaced from the first position to be greater than the second displacement magnitude of the additional electromagnetic sensor, and the at least one computing device is instructed to execute the instructions. determining the position of the electromagnetic sensor relative to one additional electromagnetic sensor and the second additional electromagnetic sensor; and based on the determined position of the electromagnetic sensor, determining the magnitude of the first displacement and the first displacement. performing an interpolation between two displacement magnitudes, wherein the calculation of the displacement of the position of the electromagnetic sensor between the inspiratory phase and the expiratory phase is performed on the basis of the interpolated magnitudes. to be done.
いくつかの実装では、前記命令が実行されると前記少なくとも1つの計算装置にデータにアクセスさせることであって、前記データは前記組織部位のトポグラフィを表現するモデルと、前記場の座標系と前記モデルの座標系との間のマッピングと、を表現し、前記器具の前記位置の判定は、前記マッピング、前記周期、および前記場内の前記電磁センサの前記位置を基に実行される。いくつかの実装では、前記組織部位は呼吸気道を有し、前記命令が実行されると前記少なくとも1つの計算装置に前記患者の前記呼吸の吸気相と呼気相との間の前記少なくとも1つの追加のセンサの少なくとも1つの変位の大きさを計算することと、前記計算された少なくとも1つの変位の大きさを基に、前記モデルの少なくとも1つの位置に対する移動ベクトルを推定することと、前記推定された移動ベクトルを基に、座標系内の前記モデルを翻訳することと、前記翻訳されたモデルを基に、前記器具の前記位置を判定することと、を実行させる。いくつかの実装では、前記電磁場の前記座標系内の前記手術前モデルを翻訳するために、前記命令が実行されると前記少なくとも1つの計算装置に前記第1の変位の大きさを基に、前記モデルの第1の部分を第1の新しい座標に移動することと、前記第2の変位の大きさを基に、前記モデルの第2の部分を第2の新しい座標に移動することと、を実行させる。 In some implementations, execution of the instructions causes the at least one computing device to access data, the data being a model representing a topography of the tissue site, a coordinate system of the field and the and a mapping to and from a coordinate system of a model, wherein the determination of the position of the instrument is performed based on the mapping, the period, and the position of the electromagnetic sensor within the field. In some implementations, the tissue site comprises a respiratory airway, and execution of the instructions instructs the at least one computing device to perform the at least one addition between the inspiratory and expiratory phases of the respiration of the patient. calculating a magnitude of at least one displacement of the sensor of; estimating a motion vector for at least one position of the model based on the calculated at least one magnitude of displacement; Translating the model in a coordinate system based on the obtained motion vector; and Determining the position of the instrument based on the translated model. In some implementations, to translate the pre-operative model within the coordinate system of the electromagnetic field, upon execution of the instructions, instruct the at least one computing device, based on the magnitude of the first displacement, to: moving a first portion of the model to a first new coordinate; moving a second portion of the model to a second new coordinate based on the magnitude of the second displacement; to run.
別の態様は、患者の組織部位に挿入されて用いられている器具の第1のセンサからの第1のデータと、前記組織部位の移動を検出する少なくとも1つの追加のセンサからの第2のデータを受信することと、前記第1のデータを基に、前記組織部位の周囲の体積内の前記第1のセンサの位置を計算することと、第2のデータを基に、前記組織部位の周期的な移動の周期を計算することと、前記周期および前記体積内の前記第1のセンサの前記位置を基に、前記組織部位に対する前記器具の位置を判定することと、を含む方法に関する。 Another aspect provides first data from a first sensor of an instrument being used inserted into a tissue site of a patient and second data from at least one additional sensor that detects movement of the tissue site. receiving data; calculating a position of the first sensor within a volume around the tissue site based on the first data; and determining a position of the tissue site based on second data. and determining the position of the instrument relative to the tissue site based on the period and the position of the first sensor within the volume.
いくつかの実装は、1つまたは複数のハードウェアプロセッサによって実行される。 Some implementations are performed by one or more hardware processors.
いくつかの実装は、前記第2のデータを周波数領域表現に変換することと、前記周波数領域表現から前記周期的な移動の前記周期を特定することと、をさらに含む。 Some implementations further include transforming the second data to a frequency domain representation and identifying the period of the periodic movement from the frequency domain representation.
いくつかの実装は、前記第1のデータにフィルタを適用することであって、前記フィルタは前記特定された周期で前記第1のデータの一部を弱める、ことと、前記フィルタが適用された第1のデータを基に、前記器具の前記位置を判定することと、
をさらに含む。
Some implementations are applying a filter to the first data, the filter weakening a portion of the first data at the specified period; determining the position of the instrument based on the first data;
further includes
いくつかの実装では、前記組織部位は呼吸気道を有し、前記方法は、前記患者の前記呼吸の吸気相と呼気相との間の前記少なくとも1つの追加のセンサの少なくとも1つの変位の大きさを計算することをさらに含む。いくつかの実装は、前記少なくとも1つの追加のセンサに対する前記第1のセンサの位置を判定することと、(1)前記少なくとも1つの追加のセンサに対する前記第1のセンサの前記判定された位置および(2)吸気相と呼気相との間の前記少なくとも1つの追加のセンサの前記少なくとも1つの変位の大きさを基に、前記吸気相と前記呼気相との間の前記第1のセンサの位置の変位を計算することと、前記吸気相と前記呼気相との間の第1のセンサの前記計算された位置の変位を基に、前記器具の前記位置を判定することと、をさらに含む。いくつかの実装では、前記少なくとも1つの追加のセンサは、前記患者の第1の位置に配置されて用いられている第1の追加のセンサと、前記患者の第2の位置に配置されて用いられている第2の追加のセンサとを有し、前記吸気相と前記呼気相との間における、前記第1の追加のセンサの第1の変位の大きさが、前記第2の追加のセンサの第2の変位の大きさよりも大きくなるように、前記第2の位置が前記第1の位置から離れており、前記方法は前記第1の追加のセンサおよび前記第2の追加のセンサに対する前記第1のセンサの位置を判定することと、前記第1のセンサの前記判定された位置を基に、前記第1の変位の大きさと前記第2の変位の大きさと
の間の補間を行うことであって、前記吸気相と前記呼気相との間の前記第1のセンサの位置の変位の前記計算は、前記補間された大きさを基に実行される、ことと、をさらに含む。いくつかの実装は、データにアクセスすることをさらに含み、前記データは前記組織部位のトポグラフィを表現するモデルと、前記場の座標系と前記モデルの座標系との間のマッピングと、を表現し、前記方法は、前記マッピング、前記周期、および前記場内の前記電磁センサの前記位置を基に、前記器具の前記位置を判定することをさらに含む。いくつかの実装では、前記組織部位は呼吸気道を有し、前記方法は前記患者の前記呼吸の吸気相と呼気相との間の前記少なくとも1つの追加のセンサの少なくとも1つの変位の大きさを計算することと、前記計算された少なくとも1つの変位の大きさを基に、前記モデルの少なくとも1つの位置に対する移動ベクトルを推定することと、前記推定された移動ベクトルを基に、座標系内の前記モデルを翻訳することと、前記翻訳されたモデルを基に、前記器具の前記位置を判定することと、をさらに含む。いくつかの実装は、前記座標系内の前記モデルを翻訳することであって、前記第1の変位の大きさを基に、前記モデルの第1の部分を第1の新しい座標に移動することと、前記第2の変位の大きさを基に、前記モデルの第2の部分を第2の新しい座標に移動することと、に基づいて前記モデルを翻訳すること、をさらに含む。
In some implementations, the tissue site comprises a respiratory airway, and the method comprises measuring a magnitude of at least one displacement of the at least one additional sensor between an inspiratory phase and an expiratory phase of the respiration of the patient. further comprising calculating Some implementations comprise determining a position of the first sensor relative to the at least one additional sensor; (1) the determined position of the first sensor relative to the at least one additional sensor; (2) the position of the first sensor during the inspiratory phase and the expiratory phase based on the magnitude of the at least one displacement of the at least one additional sensor between the inspiratory and expiratory phases; and determining the position of the device based on the calculated positional displacement of the first sensor between the inspiratory phase and the expiratory phase. In some implementations, the at least one additional sensor comprises a first additional sensor positioned and used at a first location on the patient and a first additional sensor positioned and used at a second location on the patient. wherein a first displacement magnitude of said first additional sensor between said inspiratory phase and said expiratory phase is determined by said second additional sensor wherein the second position is spaced from the first position to be greater than a second displacement magnitude of the method, wherein the method comprises: for the first additional sensor and the second additional sensor Determining a position of a first sensor and interpolating between the first displacement magnitude and the second displacement magnitude based on the determined position of the first sensor. and wherein the calculation of the displacement of the position of the first sensor between the inspiratory phase and the expiratory phase is performed based on the interpolated magnitude. Some implementations further include accessing data, the data representing a model representing the topography of the tissue site and a mapping between the field coordinate system and the model coordinate system. , the method further includes determining the position of the instrument based on the mapping, the period, and the position of the electromagnetic sensor within the field. In some implementations, the tissue site comprises a respiratory airway, and the method determines a magnitude of at least one displacement of the at least one additional sensor between an inspiratory phase and an expiratory phase of the respiration of the patient. estimating a motion vector for at least one position of the model based on the calculated at least one displacement magnitude; and based on the estimated motion vector, a coordinate system Further comprising translating the model and determining the position of the instrument based on the translated model. Some implementations are translating the model within the coordinate system, moving a first portion of the model to a first new coordinate based on the magnitude of the first displacement. and moving a second portion of the model to a second new coordinate based on the magnitude of the second displacement; and translating the model based on.
別の態様は、患者の管腔ネットワークをナビゲートするシステムであって、電磁場を発生させる発生器と、操縦可能な器具の遠位端に設けられる1組の1つまたは複数の電磁センサと、少なくとも1つの呼吸センサと、実行可能な命令が記憶されている少なくとも1つのコンピュータ読み取り可能メモリと、前記少なくとも1つのコンピュータ読み取り可能メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行することで前記システムに少なくとも前記管腔ネットワークを表現する手術前モデルにアクセスすることと、前記電磁場の座標系と前記手術前モデルの座標系との間のマッピングにアクセスすることと、前記1組の電磁センサからのデータ信号を基に、前記電磁場内の前記1組の電磁センサの1つの位置を計算することと、前記マッピングおよび前記電磁場内の前記1組の電磁センサの前記1つの位置を基に、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の位置を判定することと、前記少なくとも1つの呼吸センサからのデータを基に、前記1組の電磁センサからの前記データ信号の取得時における前記患者の呼吸相が、吸気相または呼気相のいずれに対応するかを判定することと、前記モデルおよび前記呼吸相に対する前記操縦可能な器具の前記遠位端の前記位置を基に、前記操縦可能な器具の次の移動に対して安全モードを作動させるか否かを判定することと、を実行させるプロセッサと、を有するシステムに関する。 Another aspect is a system for navigating a patient's luminal network comprising: a generator for generating an electromagnetic field; a set of one or more electromagnetic sensors provided at the distal end of a steerable instrument; at least one respiration sensor, at least one computer readable memory having executable instructions stored thereon, and one or more processors in communication with the at least one computer readable memory to execute the instructions. accessing the system with at least a pre-operative model representing the luminal network; accessing a mapping between the coordinate system of the electromagnetic field and the coordinate system of the pre-operative model; calculating the position of one of the set of electromagnetic sensors within the electromagnetic field based on the data signals from the electromagnetic sensors of the mapping and the position of the set of electromagnetic sensors within the electromagnetic field determining the position of the distal end of the steerable instrument relative to the pre-operative model; and determining the data signals from the set of electromagnetic sensors based on data from the at least one respiratory sensor. determining whether the respiratory phase of the patient at the time of acquisition corresponds to an inspiratory phase or an expiratory phase; and based on the position of the distal end of the steerable instrument relative to the model and the respiratory phase. and determining whether to activate a safe mode for subsequent movement of the steerable instrument.
いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに前記安全モードを作動させ、前記安全モードにおいて、前記システムに前記呼吸相の前記次の移動の同期の誘導を行う1つまたは複数の安全機能を実装させる。 In some implementations, the one or more processors execute the instructions to cause the system to enter the safe mode, and in the safe mode, cause the system to synchronize the next movement of the respiratory phase. implement one or more safety features that induce
いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに目標の組織部位までの前記管腔ネットワークのナビゲーション経路に関する情報にアクセスすることと、前記ナビゲーション経路および前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を基に、前記操縦可能な器具の前記遠位端が前記管腔ネットワークのあらかじめ定義された安全領域内に配置されて用いられていることを特定することと、前記操縦可能な器具が前記あらかじめ定義された安全領域内に配置されていることの判定を基に、前記安全モードを作動させることと、を実行させる。いくつかの実装では、前記ナビゲーション経路は複数の領域を含み、前記安全領域は、気道の直径と前記操縦可能な器具の前記遠位端の直径との差が所定値未満となる、前記管腔ネットワークの一部に配置されている。 In some implementations, the one or more processors execute the instructions to cause the system to access information regarding a navigational path of the luminal network to a target tissue site; Using the position of the distal end of the steerable instrument relative to the pre-operative model, the distal end of the steerable instrument is positioned within a predefined safe area of the luminal network. and activating the safe mode based on determining that the steerable instrument is located within the predefined safe area. In some implementations, the navigation path includes multiple regions, wherein the safe region is the lumen where the difference between the diameter of the airway and the diameter of the distal end of the steerable instrument is less than a predetermined value. Deployed as part of a network.
いくつかの実装では、前記安全モードにおいて、前記1つまたは複数のプロセッサは、
前記命令を実行することで前記システムに前記呼吸相を表す情報をユーザに出力させる。
In some implementations, in the secure mode, the one or more processors:
Execution of the instructions causes the system to output information indicative of the respiratory phase to a user.
いくつかの実装では、前記システムはロボットシステムをさらに有し、前記ロボットシステムはディスプレイと、入力装置であって、前記入力装置のユーザ操作に応じて前記操縦可能な器具の移動を制御する信号を生成する入力装置と、前記入力装置からの前記信号を基に、前記操縦可能な器具の移動を行う器具ドライバと、を有する。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記安全モードの作動に応じて、前記患者の前記呼吸の呼気相時に前記器具ドライバの作動を抑止させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記入力装置のユーザ操作を基に、試行された前記器具ドライバの作動を無効にすることで、前記器具ドライバの前記作動を抑止させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記ディスプレイに表示可能な、前記呼吸の吸気相と呼気相のグラフィック表現を出力させる。 In some implementations, the system further comprises a robotic system, the robotic system being a display and an input device for transmitting signals to control movement of the steerable instrument in response to user manipulation of the input device. An input device for generating and an instrument driver for effecting movement of the steerable instrument based on the signal from the input device. In some implementations, the one or more processors execute the instructions to instruct the system to activate the instrument driver during the exhalation phase of the patient's respiration in response to activation of the safe mode. deter. In some implementations, the one or more processors execute the instructions to instruct the system to override the attempted actuation of the instrument driver based on user manipulation of the input device. , inhibiting said actuation of said instrument driver. In some implementations, the one or more processors execute the instructions to cause the system to output graphical representations of the inspiratory and expiratory phases of the breath that can be displayed on the display.
いくつかの実装では、前記手術前モデルは、前記患者の前記管腔ネットワークの3次元コンピュータ断層撮影モデルを含む。 In some implementations, the pre-operative model comprises a 3D computed tomography model of the luminal network of the patient.
別の態様は、患者の管腔ネットワークのナビゲーションを誘導する装置であって、実行可能な命令が記憶されている少なくとも1つのコンピュータ読み取り可能メモリと、前記少なくとも1つのコンピュータ読み取り可能メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行することで前記装置に少なくともデータにアクセスすることであって、前記データは前記管腔ネットワーク表現するモデルと、前記モデルの座標系と前記管腔ネットワークの周囲に発生された電磁場の座標系との間のマッピングと、前記管腔ネットワークに挿入されて用いられている操縦可能な器具の遠位端の電磁センサからの信号と、前記管腔ネットワークの移動を検出する少なくとも1つの追加のセンサからの信号と、に対応する、データにアクセスすることと、前記電磁センサからの前記信号に対応する前記データを基に、前記電磁場内の前記電磁センサの位置を計算することと、前記モデルに対する前記操縦可能な器具の前記遠位端の前記位置を基に、前記操縦可能な器具の次の移動を計算することと、前記少なくとも1つの追加のセンサからの前記信号に対応する前記データを基に、前記第1のセンサからの前記信号の取得時における前記患者の呼吸相が、吸気相または呼気相のいずれに対応するかを判定することと、前記呼吸相を基に、前記操縦可能な器具の前記次の移動に対して安全モードを作動させるか否かを判定することと、を実行させる装置に関する。 Another aspect is an apparatus for guiding navigation of a luminal network of a patient, comprising at least one computer readable memory having executable instructions stored thereon and in communication with said at least one computer readable memory 1 One or more processors that access at least data to the device by executing the instructions, the data being a model representing the luminal network, a coordinate system of the model and the luminal a mapping between a coordinate system of an electromagnetic field generated around a network, a signal from an electromagnetic sensor at the distal end of a steerable instrument used and inserted into said luminal network, and said luminal network; and accessing data corresponding to the signals from at least one additional sensor detecting movement of the electromagnetic sensor within the electromagnetic field based on the data corresponding to the signal from the electromagnetic sensor calculating the position of the steerable instrument based on the position of the distal end of the steerable instrument relative to the model; calculating the next movement of the steerable instrument based on the position of the distal end of the steerable instrument relative to the model; determining whether the patient's respiratory phase at the time of acquisition of the signal from the first sensor corresponds to an inspiratory phase or an expiratory phase, based on the data corresponding to the signal from determining whether to activate a safety mode for the next movement of the steerable instrument based on the respiratory phase.
いくつかの実装では、前記少なくとも1つの追加のセンサは、1つまたは複数の電磁センサを有する。 In some implementations, the at least one additional sensor comprises one or more electromagnetic sensors.
いくつかの実装では、前記少なくとも1つの追加のセンサは、加速度計を有する。 In some implementations the at least one additional sensor comprises an accelerometer.
いくつかの実装では、前記少なくとも1つの追加のセンサは、音響呼吸センサを有し、前記音響呼吸センサは、患者の呼吸時の前記周期的な移動を検出する。 In some implementations, the at least one additional sensor comprises an acoustic respiration sensor, wherein the acoustic respiration sensor detects the periodic movements during patient respiration.
いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記安全モードを作動させ、前記安全モードにおいて、前記システムに前記呼吸相の前記次の移動の同期の誘導を行う1つまたは複数の安全機能を実装させる。 In some implementations, the one or more processors execute the instructions to cause the system to enter the safe mode and, in the safe mode, instruct the system to perform the next shift of the respiratory phase. Implement one or more safety features that induce synchronization.
いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに目標の組織部位までの前記管腔ネットワークのナビゲーション経路に関する情報にアクセスすることと、前記ナビゲーション経路および前記手術前モデルに対する
前記操縦可能な器具の前記遠位端の前記位置を基に、前記操縦可能な器具の前記遠位端が前記管腔ネットワークのあらかじめ定義された安全領域内に配置されて用いられていることを特定することと、前記操縦可能な器具が前記あらかじめ定義された安全領域内に配置されていることの判定を基に、前記安全モードを作動させることと、を実行させる。いくつかの実装では、前記ナビゲーション経路は複数の領域を含み、前記安全領域は、気道の直径と前記操縦可能な器具の前記遠位端の直径との差が所定値未満となる、前記管腔ネットワークの一部に配置されている。いくつかの実装では、前記安全モードにおいて、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに前記呼吸相を表す情報をユーザに出力させる。
In some implementations, the one or more processors execute the instructions to cause the system to access information regarding a navigational path of the luminal network to a target tissue site; Using the position of the distal end of the steerable instrument relative to the pre-operative model, the distal end of the steerable instrument is positioned within a predefined safe area of the luminal network. and activating the safe mode based on determining that the steerable instrument is located within the predefined safe area. In some implementations, the navigation path includes multiple regions, wherein the safe region is the lumen where the difference between the diameter of the airway and the diameter of the distal end of the steerable instrument is less than a predetermined value. Deployed as part of a network. In some implementations, in the safe mode, the one or more processors execute the instructions to cause the system to output information indicative of the respiratory phase to a user.
いくつかの実装は、ロボットシステムをさらに有し、前記ロボットシステムはディスプレイと、入力装置であって、前記入力装置のユーザ操作に応じて前記操縦可能な器具の移動を制御する信号を生成する入力装置と、前記入力装置からの前記信号を基に、前記操縦可能な器具の移動を行う器具ドライバとを有する。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記安全モードの作動に応じて、前記患者の前記呼吸の1つまたは複数の呼気相時に前記器具ドライバの作動を抑止させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記入力装置のユーザ操作を基に、試行された前記器具ドライバの作動を無効にすることで、前記器具ドライバの前記作動を抑止させる。いくつかの実装では、前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに、前記ディスプレイに表示可能な、前記呼吸の吸気相と呼気相のグラフィック表現を出力させる。 Some implementations further comprise a robotic system, wherein the robotic system is a display and an input device that generates signals that control movement of the steerable instrument in response to user manipulation of the input device. and an instrument driver that effects movement of the steerable instrument based on the signal from the input device. In some implementations, the one or more processors execute the instructions to instruct the system, in response to activation of the safe mode, during one or more exhalation phases of the breathing of the patient. Inhibit the operation of the instrument driver. In some implementations, the one or more processors execute the instructions to instruct the system to override the attempted actuation of the instrument driver based on user manipulation of the input device. , inhibiting said actuation of said instrument driver. In some implementations, the one or more processors execute the instructions to cause the system to output graphical representations of the inspiratory and expiratory phases of the breath that can be displayed on the display.
別の態様は、命令が記憶されている非一時的なコンピュータ読み取り可能記憶媒体であって、前記命令が実行されると装置のプロセッサに少なくとも患者の管腔ネットワークに挿入されて用いられている器具の第1のセンサからの第1のデータと、前記管腔ネットワークの移動を検出する少なくとも1つの追加のセンサからの第2のデータを受信することと、前記第1のデータを基に、前記組織部位の周囲に位置する場内の前記第1のセンサの位置を計算することと、前記第2のデータを基に、前記第1のセンサからの前記第1のデータの取得時における前記患者の呼吸相が、吸気相または呼気相のいずれに対応するかを判定することと、前記マッピングおよび前記場内の前記第1のセンサの前記位置を基に、前記器具の位置を判定することと、前記器具の前記位置および前記呼吸相を基に、安全モードを作動させるか否かを判定することと、を実行させる非一時的なコンピュータ読み取り可能記憶媒体に関する。 Another aspect is a non-transitory computer readable storage medium having instructions stored thereon, the instrument being used inserted into at least a patient's luminal network in a processor of a device when the instructions are executed. receiving first data from a first sensor of and second data from at least one additional sensor that detects movement of said luminal network; and based on said first data, said calculating the position of the first sensor within a field located around a tissue site; and based on the second data, the patient's position at the time of acquisition of the first data from the first sensor. determining whether a respiratory phase corresponds to an inspiratory phase or an expiratory phase; determining a position of the device based on the mapping and the position of the first sensor within the field; Determining whether to activate a safety mode based on the position of the device and the respiratory phase.
いくつかの実装では、前記命令が実行されると前記プロセッサに少なくとも、前記少なくとも1つの追加のセンサから画像データを受信することと、前記画像データを基に、前記呼吸相が前記吸気相または前記呼気相のいずれに対応するかを判定することとを実行させる。 In some implementations, when the instructions are executed, at least the processor receives image data from the at least one additional sensor; and based on the image data, determines whether the respiratory phase is the inspiratory phase or the and determining which of the expiratory phases corresponds to.
いくつかの実装では、前記命令が実行されると前記プロセッサに少なくとも、前記少なくとも1つの追加のセンサから加速度計データを受信することと、前記加速度計データが示す移動方向を基に、前記呼吸相が前記吸気相または前記呼気相のいずれに対応するかを判定することとを実行させる。 In some implementations, when the instructions are executed, the processor at least receives accelerometer data from the at least one additional sensor; corresponds to said inspiratory phase or said expiratory phase.
いくつかの実装では、前記命令が実行されると前記プロセッサに、(1)前記管腔ネットワークのトポグラフィを表現するモデルに対応するデータおよび(2)前記場の座標系と前記モデルの座標系との間のマッピングとに対応するデータにアクセスすることを実行させ、前記器具の前記位置を判定することは、前記マッピングおよび前記場内の前記第1のセンサの前記位置を基に、前記モデルに対する前記器具の位置を判定することを含む。 In some implementations, when the instructions are executed, the processor is provided with (1) data corresponding to a model representing the topography of the luminal network and (2) a coordinate system of the field and a coordinate system of the model. and determining the position of the instrument relative to the model based on the mapping and the position of the first sensor within the field. Including determining the position of the instrument.
いくつかの実装では、前記命令が実行されると前記プロセッサに少なくとも、前記安全モードを作動させ、前記安全モードにおいて、前記プロセッサに前記呼吸相の次の移動の同期の誘導を行う1つまたは複数の安全機能を実装させることを実行させる。 In some implementations, one or more of, upon execution of the instructions, causing the processor to at least activate the safe mode and, in the safe mode, to induce the processor to synchronize the next movement of the respiratory phase. implementation of safety functions.
いくつかの実装では、前記命令が実行されると前記プロセッサに少なくとも目標の組織部位までの前記管腔ネットワークのナビゲーション経路に関する情報にアクセスすることと、前記ナビゲーション経路および前記器具の前記位置を基に、前記器具が前記管腔ネットワークのあらかじめ定義された安全領域内に配置されて用いられていることを特定することと、前記器具が前記あらかじめ定義された安全領域内に配置されていることの判定を基に、前記安全モードを作動させることと、を実行させる。いくつかの実装では、前記ナビゲーション経路は複数の領域を含み、前記安全領域は、気道の直径と前記操縦可能な器具の前記遠位端の直径との差が所定値未満となる、前記管腔ネットワークの一部に配置されている。 In some implementations, when the instructions are executed, the processor accesses information regarding at least a navigational path of the luminal network to a target tissue site; , identifying that the instrument is being used placed within a predefined safe area of the lumen network; and determining that the instrument is located within the predefined safe area. activating the safe mode based on . In some implementations, the navigation path includes multiple regions, wherein the safe region is the lumen where the difference between the diameter of the airway and the diameter of the distal end of the steerable instrument is less than a predetermined value. Deployed as part of a network.
いくつかの実装では、前記命令が実行されると前記プロセッサに少なくとも、前記安全モードを作動させる判定に応じて、前記呼吸相を表す情報をユーザに出力させることを実行させる。 In some implementations, execution of the instructions causes the processor to at least output information indicative of the respiratory phase to a user in response to a determination to activate the safe mode.
いくつかの実装では、前記命令が実行されると前記プロセッサに少なくとも、前記安全モードを作動させる判定に応じて、前記患者の前記呼吸の呼気相時にロボット器具ドライバの作動を抑止させることであって、前記ロボット器具ドライバは、前記管腔ネットワークを通って前記器具の移動を行う、ことを実行させる。 In some implementations, execution of the instructions causes the processor to at least inhibit activation of a robotic instrument driver during the exhalation phase of the patient's respiration in response to a determination to activate the safe mode. and the robotic instrument driver performs movement of the instrument through the luminal network.
別の態様は、患者の管腔ネットワークに挿入されて用いられている器具の第1のセンサからの第1のデータと、前記管腔ネットワークの移動を検出する少なくとも1つの追加のセンサからの第2のデータを受信することと、前記第1のデータを基に、前記組織部位の周囲に位置する場内の前記第1のセンサの位置を計算することと、前記第2のデータを基に、前記第1のセンサからの前記第1のデータの取得時における前記患者の呼吸相が、吸気相または呼気相のいずれに対応するかを判定することと、前記場内の前記第1のセンサの前記位置を基に、前記器具の位置を判定することと、前記位置を基に、前記器具の次の移動を判定することと、前記呼吸相を基に、前記次の移動に対して安全モードを作動させるか否かを判定することと、を含む方法に関する。 Another aspect provides first data from a first sensor of an instrument being used inserted into a patient's luminal network and second data from at least one additional sensor that detects movement of the luminal network. receiving data from 2; calculating, based on the first data, the position of the first sensor within a field located around the tissue site; and based on the second data, determining whether the respiratory phase of the patient at the time of acquisition of the first data from the first sensor corresponds to an inspiratory phase or an expiratory phase; determining a position of the device based on the position; determining a next movement of the device based on the position; and activating a safe mode for the next movement based on the respiratory phase. determining whether to activate.
いくつかの実装は、1つまたは複数のハードウェアプロセッサによって実行される。 Some implementations are performed by one or more hardware processors.
いくつかの実装は、前記安全モードを作動させることと、前記安全モードにおいて、前記呼吸相の前記次の移動の同期の誘導を行う1つまたは複数の安全機能を実装することと、をさらに含む。 Some implementations further include activating the safety mode and implementing one or more safety features in the safety mode to induce synchronization of the subsequent movement of the respiratory phase. .
いくつかの実装は、(1)前記管腔ネットワークのトポグラフィを表現するモデルに対応するデータおよび(2)前記場の座標系と前記モデルの座標系との間のマッピングとに対応するデータにアクセスすることをさらに含み、前記器具の前記位置を判定することは、前記マッピングおよび前記場内の前記第1のセンサの前記位置を基に、前記モデルに対する前記器具の位置を判定することを含む。 Some implementations access data corresponding to (1) a model representing the luminal network topography and (2) a mapping between the field coordinate system and the model coordinate system. and determining the position of the instrument includes determining the position of the instrument relative to the model based on the mapping and the position of the first sensor within the field.
いくつかの実装は、目標の組織部位までの前記管腔ネットワークのナビゲーション経路に関する情報にアクセスすることと、前記ナビゲーション経路および前記器具の前記位置を基に、前記器具が前記管腔ネットワークのあらかじめ定義された安全領域内に配置されて用いられていることを特定することと、前記器具が前記あらかじめ定義された安全領域
内に配置されていることの判定を基に、前記安全モードを作動させることと、をさらに含む。
Some implementations include: accessing information regarding a navigational path of the luminal network to a target tissue site; identifying that the instrument is positioned within a defined safe area and being used; and activating the safe mode based on determining that the instrument is positioned within the predefined safe area. and further including.
いくつかの実装は、前記安全モードを作動させる判定に応じて、前記呼吸相を表す情報をユーザに出力させることをさらに含む。 Some implementations further include having a user output information representative of the respiratory phase in response to a determination to activate the safe mode.
いくつかの実装は、前記安全モードを作動させる判定に応じて、前記患者の前記呼吸の呼気相時にロボット器具ドライバの作動を抑止させることであって、前記ロボット器具ドライバは、前記管腔ネットワークを通って前記器具の移動を行う、ことをさらに含む。いくつかの実装では、前記ロボット器具ドライバの作動を抑止することは、前記呼気相時またはその後の呼気相時の前記次の移動を実行するユーザ入力を無効にすることを含む。 Some implementations are responsive to a decision to activate the safe mode to inhibit activation of a robotic instrument driver during the exhalation phase of the patient's respiration, wherein the robotic instrument driver activates the luminal network. further comprising moving the instrument through. In some implementations, inhibiting actuation of the robotic instrument driver includes disabling user input to perform the next movement during the exhalation phase or a subsequent exhalation phase.
本件開示の態様について、添付の図面および表と共に以下に説明するが、例示であって開示の態様を限定するものではなく、同様の構成要素には同様の名称を付す。 Aspects of the present disclosure are described below in conjunction with the accompanying drawings and tables, which are illustrative and not limiting of aspects of the disclosure, and like components are labeled with like names.
開示の実施形態は、複数のナビゲーション関連のデータ源を分析して肺気道などの管腔ネットワーク内の医療器具の位置や向きの推定精度を高めること、器具の一データにフィルタを適用して管腔ネットワークの周期運動からのノイズを除去すること、および/または当該周期運動を基にナビゲーション制御を調整する呼吸同期やその他の種類の安全機能を作動させることによって、管腔ネットワークにおけるナビゲーションを支援するシステムおよび手法に関する。 Disclosed embodiments analyze multiple navigation-related data sources to refine the estimation of the position and orientation of a medical device in a luminal network, such as a lung airway, and apply a filter to one data of the device to Assist navigation in the luminal network by removing noise from periodic motion of the luminal network and/or activating respiratory gating or other types of safety features that adjust navigation control based on the cyclic motion Regarding systems and methods.
気管支鏡は、施術者が患者の気管や気道を調べることができるように光源と小型カメラを含むことができる。患者の気道内における気管支鏡の正確な位置が不明であると、患者に対する外傷が発生する可能性がある。気管支鏡の位置を特定するために、画像ベースの気管支鏡誘導システムでは、気管支鏡のカメラからのデータを用いて患者の気道の分岐における位置合わせ(例えば、管腔ネットワーク内の特定位置における位置合わせ)を行うことができ、患者の呼吸運動に起因した位置誤差の影響を受けにくく有利である。しかしながら、画像ベースの誘導方法は、気管支鏡の映像に頼るため、患者の咳や粘液による阻害などによって、気管支鏡の映像が映像内のアーチファクトの影響を受ける可能性がある。 A bronchoscope can include a light source and a miniature camera to allow the practitioner to examine the patient's trachea and airways. Not knowing the exact position of the bronchoscope within the patient's airway can result in trauma to the patient. To locate the bronchoscope, image-based bronchoscope guidance systems use data from the bronchoscope's camera to register at bifurcations of the patient's airways (e.g., at specific locations within the luminal network). ), which is advantageously less susceptible to position errors due to patient respiratory motion. However, because image-based guidance methods rely on bronchoscope images, the bronchoscope images can be affected by artifacts in the images, such as patient coughing and mucus blockages.
電磁ナビゲーション誘導の気管支鏡検査(EMN気管支鏡検査)は、電磁気(EM)技術を実装して、肺の気道内における内視鏡器具やカテーテルの位置特定や誘導を行う、気管支鏡手技の一種である。EMN気管支検査システムは、低強度の可変の電磁場を発生して患者の管腔ネットワーク周辺の追跡対象の部位の位置を確立する電磁場発生器を用いることができる。電磁場は、荷電した物体によって生成される物理的な場であり、電磁場の近傍にある荷電した物体に影響を及ぼす。発生した場内に位置する物体に取り付けられた電磁センサを用いて、電磁場内のこれらの物体の位置および向きを追跡することができる。変化する電磁場によって電磁センサ内に小さい電流が誘起される。これらの電気信号の特性は、センサと電磁場発生器との間の距離や角度に依存する。したがって、EMN気管支鏡検査システムは、電磁場発生器、先端あるいはその近傍に電磁センサを有する操作可能なチャネル、誘導コンピュータシステムを有することができる。電磁場発生器は、例えば気道、胃腸管、循環経路など、ナビゲーションを行う患者の管腔ネットワークの周囲に電磁場を発生させる。操作可能なチャネルは、気管支鏡のワーキングチャネルに挿入され、電磁場内において電磁センサを介して追跡される。 Electromagnetic navigation-guided bronchoscopy (EMN bronchoscopy) is a type of bronchoscopic procedure that implements electromagnetic (EM) technology to locate and guide endoscopic instruments and catheters within the airways of the lungs. be. An EMN bronchoscopy system may employ an electromagnetic field generator that generates a low intensity, variable electromagnetic field to establish the location of a tracked site around the patient's luminal network. An electromagnetic field is a physical field produced by charged objects that affects charged objects in the vicinity of the electromagnetic field. Electromagnetic sensors attached to objects located within the generated field can be used to track the position and orientation of these objects within the electromagnetic field. A small current is induced in the electromagnetic sensor by the changing electromagnetic field. The properties of these electrical signals depend on the distance and angle between the sensor and the electromagnetic field generator. Thus, an EMN bronchoscopy system can have an electromagnetic field generator, a steerable channel with an electromagnetic sensor at or near its tip, and a guidance computer system. An electromagnetic field generator generates an electromagnetic field around the luminal network of the patient being navigated, eg, airway, gastrointestinal tract, circulatory pathways. A steerable channel is inserted into the working channel of the bronchoscope and tracked in the electromagnetic field via an electromagnetic sensor.
EMN気管支鏡検査の手技を開始する前に、例えば術前コンピュータ断層撮影(CT)による胸部スキャンにより、患者の特定の気道構造についての仮想の3次元(3D)気管支マップを取得することができる。このマップとEMN気管支鏡検査システムを使用して、施術者は肺内の所望の位置までナビゲーションを行い、病変組織の生検、リンパ節のステージ特定、放射線療法のガイドや小線源療法のガイドのためのマーカ挿入などを行うことができる。例えば、手技開始時に位置合わせを行って、電磁場の座標系とモデル座標系との間のマッピングを生成することができる。これにより、気管支鏡検査時に操作可能なチャネルが追跡されるため、モデル座標系における操作可能なチャネルの位置を、電磁センサからの位置データを基に名目上は知ることが可能である。しかしながら、患者の呼吸によって、胸部の動きが生じ、操作可能な器具および/またはモデルの位置と電磁場の座標系との関連付けに誤りつながる可能性がある。気道の分岐部が小径になり患者の呼吸に起因する動きの影響がより大きくなる場合に、これらの誤りが周辺部の気道において大きくなる。 Prior to beginning an EMN bronchoscopy procedure, a virtual three-dimensional (3D) bronchial map of a patient's specific airway structures can be obtained, for example, by preoperative computed tomography (CT) chest scan. Using this map and the EMN bronchoscopy system, practitioners can navigate to desired locations within the lungs to biopsy diseased tissue, stage lymph nodes, guide radiotherapy or guide brachytherapy. Marker insertion etc. for can be performed. For example, registration can be performed at the start of the procedure to generate a mapping between the electromagnetic field coordinate system and the model coordinate system. This tracks the steerable channel during bronchoscopy so that the position of the steerable channel in the model coordinate system is nominally known based on the position data from the electromagnetic sensors. However, patient breathing can cause chest motion, leading to mis-association of the position of the operable instrument and/or model with the coordinate system of the electromagnetic field. These errors are magnified in the peripheral airway when the bifurcation of the airway becomes smaller and more subject to movement due to patient breathing.
ここで、座標系とは、特定の検知態様における基準系である。例えば、電磁データの場合、電磁座標系は、電磁場源(電磁場発生器)によって定義される基準系である。CT画像やセグメンテーションされた3Dモデルの場合は、この基準系は、スキャナによって定義される系に基づく。本ナビゲーションシステムは、これらの異なるデータ源(それぞれの基準系内にある)を3Dモデル(CTの系など)に表す(位置合わせする)、例えばモデル内の器具の位置を表示するために、ナビゲーションの問題を解決する。 Here, a coordinate system is a reference system in a specific sensing mode. For example, for electromagnetic data, the electromagnetic coordinate system is the frame of reference defined by the electromagnetic field source (field generator). For CT images and segmented 3D models, this frame of reference is based on the system defined by the scanner. The navigation system represents (registers) these different data sources (within their respective frames of reference) to a 3D model (such as a CT system), e.g. solve the problem.
したがって、以下に詳細を説明するように、開示の管腔ネットワークナビゲーションシステムおよび手法は、画像ベースのナビゲーションシステム、ロボットシステム、および電磁ナビゲーションシステムからの入力を組み合わせ、他の患者のセンサからの入力も組み合わせ、ナビゲーションに関する問題を軽減してより効率的な内視鏡手技を実現するこ
とができる。例えば、ナビゲーション融合フレームワークが、器具のカメラから受信した画像情報、器具先端の電磁センサからの位置情報、器具の動きを誘導するロボットシステムからのロボットの位置情報を分析することができる。ナビゲーション融合フレームワークは、分析を基に、これらの1つまたは複数の種類のナビゲーションデータに基づく器具の位置推定および/またはナビゲーションの決定を行うことができる。ナビゲーション融合フレームワークの一部の実装では、さらに管腔ネットワークの3Dモデルに対する器具位置を特定することができる。一部の実施形態では、電磁センサからの器具の位置情報にフィルタが適用されて、例えば、気道ナビゲーションにおける呼吸に起因するものや循環器系ナビゲーションにおける脈動する血流に起因するものなど、管腔ネットワークの周期的な動きに起因する信号ノイズを除去することができる。周期的な動きの周波数は、1つまたは複数の追加のセンサからのデータから取得することができる。例えば、呼吸数は、患者の体に配置された追加の電磁センサ、加速度計、および/または音響呼吸センサ、および/または患者の動きを観察する視野を有する位置に配置された光学センサからのデータを基に特定することができる。一部の実施形態は、器具位置および管腔ネットワークの周期的な動きの一方または両方に基づく、ナビゲーション安全機能を実装することができる。例えば、気管支鏡検査の実装では、安全機能には、呼吸数情報および/または呼気時の器具挿入に課される制限の表示が含まれる。
Thus, as described in more detail below, the disclosed luminal network navigation systems and techniques combine input from image-based, robotic, and electromagnetic navigation systems, as well as input from other patient sensors. Combinations can reduce navigational problems and enable more efficient endoscopic procedures. For example, a navigation fusion framework can analyze image information received from the instrument's camera, positional information from electromagnetic sensors at the tip of the instrument, and robot positional information from the robotic system that guides the movement of the instrument. Based on the analysis, the navigation fusion framework can make instrument localization and/or navigation decisions based on one or more of these types of navigation data. Some implementations of the navigational fusion framework can also identify the instrument position relative to the 3D model of the luminal network. In some embodiments, a filter is applied to the instrument position information from the electromagnetic sensors, e.g. Signal noise due to periodic motion of the network can be removed. The periodic motion frequency can be obtained from data from one or more additional sensors. For example, respiratory rate may be data from additional electromagnetic sensors, accelerometers, and/or acoustic respiratory sensors placed on the patient's body, and/or optical sensors placed at locations that have a field of view to observe patient movement. can be specified based on Some embodiments may implement navigational safety features based on one or both of instrument position and luminal network periodic motion. For example, in bronchoscopy implementations, safety features include display of respiratory rate information and/or restrictions imposed on instrument insertion during exhalation.
開示のシステムおよび手法は、管腔ネットワークのナビゲーションのためのその他の種類の内視鏡手技を含む、気管支鏡検査の誘導システムおよびその他の適用に利点をもたらすことができる。解剖学では、「ルーメン」とは、気道、血管、腸などの管状器官の内部の空間や腔を意味することがある。ここでは、「管腔ネットワーク」とは、目標の組織部位に向かって延びる少なくとも1つのルーメンを有する外貌学的な構造、例えば肺気道、循環系、消化器系を意味する。よって、本開示では、気管支鏡検査に関連するナビゲーションシステムの例を提示するが、開示の安全性やデータのフィルタリングに関する態様は、患者の動きのある管腔ネットワークのナビゲーションを行う他の医療システムにも適用できることがわかる。 The disclosed systems and techniques can provide advantages in bronchoscopy guidance systems and other applications, including other types of endoscopic procedures for navigation of luminal networks. In anatomy, "lumen" can mean the space or cavity within a tubular organ such as airways, blood vessels, or intestines. As used herein, "luminal network" means a sculptural structure having at least one lumen extending toward a target tissue site, such as pulmonary airways, circulatory system, digestive system. Thus, although the present disclosure presents examples of navigation systems related to bronchoscopy, the safety and data filtering aspects of the disclosure may be applied to other medical systems for navigating a moving luminal network of a patient. can also be applied.
以下に種々の実施形態について、例示目的の図を参照しながら説明する。開示の技術的思想のその他多数の実装が可能であり、さまざまな利点が開示の実装と共に得られる。見出しは、参照のため、種々の節を特定しやすくするために含められている。これらの見出しは、本件開示の技術的思想を見出しに関連して限定するものではない。それら技術的思想は、本明細書全体にわたって適用されてよい。 Various embodiments are described below with reference to figures for illustrative purposes. Many other implementations of the disclosed concepts are possible and various advantages can be obtained with the disclosed implementations. Headings are included for reference and to facilitate identification of the various sections. These headings are not intended to limit the technical ideas of this disclosure with respect to the headings. Those technical ideas may be applied throughout this specification.
(例示のナビゲーションシステムの概要)
図1Aは、開示のナビゲーションシステムおよび手法の1つまたは複数の態様を実装する例示の運用環境100を示す。運用環境100は、患者101、患者101を支持するプラットフォーム102、内視鏡115の移動を誘導する手術ロボットシステム110、手術ロボットシステム110の動作を制御するコマンドセンタ105、電磁コントローラ135、電磁場発生器120、電磁センサ125、130を含む。図1Aは、患者101内の管腔ネットワーク140の一領域の輪郭も示し、その詳細を図1Bに示す。
(Overview of example navigation system)
FIG. 1A illustrates an exemplary
手術ロボットシステム110は、患者101の管腔ネットワーク140で内視鏡115の位置決めや内視鏡115の移動の誘導を行う1つまたは複数のロボットアームを有する。コマンドセンタ105は、位置データの受信および/または使用者からの制御信号を供給する手術ロボットシステム110と通信可能に接続することができる。ここで、「通信可能に接続」とは、無線WAN(Wide Area Network)(例えば、1つまたは複数のセル
ラーネットワーク)、無線LAN(Local Area Network)(例えば、IEEE 802.11(Wi-Fi(登録商標))など、1つまたは複数の標準用に構成されたもの)、Bluetooth(登録商標)、データ転送ケーブルなど、を含むがこれに限定されない
、任意の有線および/または無線データ送信媒体を意味する。手術ロボットシステム110については図1Cを参照しながら詳細に説明し、コマンドセンタ105については図2を参照しながら詳細に説明する。
Surgical
内視鏡115は、患者の生体に挿入されて生体(体の組織など)の画像を取得したり目標の組織部位に対して他の医用器具を挿入するためのワーキングチャネルを提供したりする、管状の柔軟性のある手術器具である。一部の実装では、内視鏡115は気管支鏡であってよい。内視鏡115は、1つまたは複数の画像生成装置(例えば、カメラやその他の種類の光学センサ)をその遠位端に有する。画像生成装置は、光ファイバ、ファイバアレイ、感光基板、および/またはレンズなどの1つまたは複数の光学部品を有してもよい。光学部品は、内視鏡115の遠位端と共に移動し、内視鏡115の遠位端が移動すると、画像生成装置によって取得される画像の視野も対応して変化する。内視鏡115の遠位端には、管腔ネットワーク140を取り囲むように発生する電磁場内において遠位端の位置を追跡するための1つまたは複数の電磁センサ125を設けることができる。内視鏡115の遠位端については、図3を参照しながら以下にさらに説明する。
The
電磁コントローラ135は、電磁場発生器120を制御して可変の電磁場を発生させることができる。電磁場は、環境に応じて時間的に変化および/または空間的に変化することができる。一部の実施形態では、電磁場発生器120は、電磁場発生基板とすることができる。開示の患者のナビゲーションシステムの一部の実施形態では、患者と患者を支持するプラットフォーム102との間に配置される電磁場発生器基板を使用することができ、電磁場発生器基板には、その下に配置される伝導性物質または磁性物質によって生じる追跡に関するひずみを軽減する薄膜の障壁を組み込むことができる。その他の実施形態では、電磁場発生器基板は、例えば手術ロボットシステム110に示されるロボットアームと同様のロボットアームに搭載して、患者の周囲における柔軟な設定オプションを提供することができる。
コマンドセンサ105、手術ロボットシステム110、および/または電磁コントローラ135に組み込まれる電磁空間測定システムは、例えば電磁センサ125、130などの電磁センサのコイルに埋め込まれた電磁場または電磁センサのコイルによって提供される電磁場内の物体の位置を特定することができる。電磁センサが、ここで説明する制御された可変の電磁場内に配置されると、センサのコイル内に電圧が誘起される。この誘電電圧は、電磁空間測定システムによって、電磁センサ、さらには電磁センサを有する物体の位置および向きを計算するのに使用されることができる。磁場の強さは弱く人体の組織を安全に通過できるため、光学空間測定システムにおける照準線の制約なく、物体の位置測定が可能である。
The electromagnetic space measurement system incorporated into
電磁場内のその位置を追跡するために、内視鏡115の遠位端に連結することができる。電磁場は電磁場発生器に対して静止しており、管腔ネットワークの3Dモデルの座標系は、電磁場の座標系にマッピングすることができる。しかしながら、患者の気道、したがって気道内に配置された内視鏡115の遠位端は患者の呼吸数のために電磁場発生器120に対して移動を示す可能性があり、モデルに対する内視鏡115の遠位端の位置を決定する際に潜在的な誤差をもたらす。
It can be coupled to the distal end of an
したがって、呼吸によって引き起こされる変位を追跡するために、患者の体表面上(例えば、管腔ネットワーク140の領域内)に、いくつかの追加の電磁センサ130を設けることができる。多数の異なる電磁センサ130はこれらの位置での異なる変位を追跡するために、体表面上に間隔を置いて配置することができる。例えば、肺の周辺部は中心気道よりも呼吸に起因してより大きな運動を示すことがあり、いくつかの電磁センサ提供することは、これらの運動効果のより正確な分析を可能にする。例えば、内視鏡115の遠
位端は管腔ネットワーク140の異なる領域を通って移動し、したがって、これらの異なる領域を通って移動するときに、患者の呼吸に起因する様々な程度の変位を受けうる。開示の位置フィルタリング手法は、内視鏡115の遠位端のおおよその位置を追加の複数の電磁センサと相関させることができ、これらの特定の追加の電磁センサの識別された変位の大きさを使用して、例えば、内視鏡位置信号の呼吸運動アーチファクト成分のフィルタリング/除去を介して、気道運動による内視鏡位置信号内のノイズまたはアーチファクトを補正することができる。
Accordingly, a number of additional
他の実施形態では、追加の電磁センサ130の代わりに、または追加の電磁センサ130に加えて、患者の管腔ネットワークの動きを検出するように構成された他の種類のセンサを使用することができる。例えば、1つまたは複数の慣性センサ(例えば、加速度計、ジャイロスコープなど)を患者の体表面に配置して、呼吸中の胸部表面の変位の推定に利用できる。別の例では、音響呼吸センサが気道の領域(例えば、管腔ネットワーク領域140)内の患者の体表面上に配置され、呼吸の周期の吸気相および呼気相を測定するために使用されてもよい。別の例では光学センサ(例えば、撮像デバイス)によって患者の体の一連の画像をキャプチャすることができ、これらの画像は呼吸相および/または変位を特定するために分析されることができる。いくつかの実施態様では患者101が手続中に人工呼吸器からの支援を受けて呼吸しており、人工呼吸器(および/または人工呼吸器に通信可能に連結された装置)は呼吸の周期の吸気相および呼気相を表すデータを提供することができる。
In other embodiments, other types of sensors configured to detect motion of the patient's luminal network can be used in place of or in addition to the additional
図1Bは、図1Aの運用環境100においてナビゲートすることができる例示的な管腔ネットワーク140を示す。管腔ネットワーク140は、患者の気道150の分岐構造と、診断および/または治療のために、ここで説明するようにアクセスすることができる病変155とを含む。図示のように、病変155は、気道150の周辺部に位置する。内視鏡115は第1の直径を有し、したがって、その遠位端は、病変155の周りのより小さい直径の気道を通って位置決めされることができない。したがって、操作可能なカテーテル155は、内視鏡115のワーキングチャネルから病変155までの残りの距離だけ延びる。操作可能なカテーテル145は器具、例えば、生検針、細胞診ブラシ、および/または組織サンプリング鉗子が病変155の目標組織部位に通され得る管腔を有し得る。そのような実施形態では、内視鏡115の遠位端および操作可能なカテーテル145の遠位端の両方に、気道150内でのそれらの位置を追跡するための電磁センサ設けることができる。他の実施形態では、内視鏡115の全体的な直径が操作可能なカテーテル155なしで周辺部に到達するのに十分に小さくてもよく、または操作不可能なカテーテルを通して医療器具を展開するために周辺部に近づくのに十分に小さくてもよい(例えば、2.5~3cm以内)。内視鏡115を通して展開される医療器具は電磁センサを装備することができ、以下に説明する位置フィルタリングおよび安全モードナビゲーション手法を、そのような医療器具に適用することができる。
FIG. 1B shows an
いくつかの実施形態では本件開示の3D管腔ネットワークモデルの2Dディスプレイ、または3Dモデルの断面は図1Bに類似し得る。ナビゲーション安全領域および/またはナビゲーション経路情報は、そのような表現上にオーバーレイすることができる。 In some embodiments, a 2D display of the 3D luminal network model of the present disclosure, or a cross-section of the 3D model may resemble FIG. 1B. Navigation safe areas and/or navigation route information can be overlaid on such representations.
図1Cは、図1Bの管腔ネットワーク140を通して器具の移動を案内するための手術ロボットシステム110の例示的なロボットアーム175を示す。手術ロボットシステム110は1つ以上のロボットアーム(例えば、ロボットアーム175)に連結されたベース180を含む。ロボットアーム175は共同165で連結された複数のアームセグメント170を含み、これは、ロボットアーム175に複数の自由度を提供する。一例として、ロボットアーム175の一実施形態は、7つのアームセグメントに対応する7つの自由度を有することができる。いくつかの実施形態では、ロボットアーム175がロボットア
ーム175の位置を維持するためにブレーキと釣り合い重りとの組み合わせを用いたセットアップジョイントを含む。釣り合い重りは、ガススプリングまたはコイルスプリングを含むことができる。ブレーキ、例えば、フェールセーフブレーキは、機械的および/または電気的な構成要素を含むことができる。さらに、ロボットアーム175は、重力支援パッシブサポートロボットアームであってもよい。
FIG. 1C shows an exemplary
ロボットアーム175は、メカニズムチェンジャインターフェース(MCI)160を使用して、器具装置マニピュレータ(Instrument Device Manipulator;IDM)190に
連結することができる。IDM190は取り外して、異なる種類のIDM、例えば、内視鏡を操作するように構成された第1の種類のIDM、または腹腔鏡を操作するように構成された第2の種類のIDMと置換できる。MCI160は、空気圧、電力、電気信号、および光信号をロボットアーム175からIDM190に伝達するためのコネクタを含む。MCI160は、セットスクリューまたはベースプレート接続部とすることができる。IDM190は、手術機器、例えば内視鏡115を、ダイレクト駆動、ハーモニック駆動、ギア駆動、ベルトおよびプーリ、磁気駆動などを含む技術を使用して操作する。MCI160はIDM190の種類に基づいて交換可能であり、特定の種類の手術手技のためにカスタマイズすることができる。ロボットシステム175のアームは、関節レベルのトルク感知と、遠位端におけるリストとを含むことができる。
The
手術ロボットシステム110のロボットアーム175は、長尺の移動部材を使用して内視鏡115を操作することができる。長尺の移動部材は、プルワイヤまたはプッシュワイヤとも呼ばれるプルワイヤ、ケーブル、ファイバ、または可撓性シャフトを含むことができる。例えば、ロボットアーム175は、内視鏡115に連結された複数のプルワイヤを作動させて、内視鏡115の先端の向きを変えることができる。プルワイヤは金属材料および非金属材料の両方、例えば、ステンレス鋼、ケブラー、タングステン、炭素繊維などを含んでもよい。内視鏡115は、長尺の移動部材によって加えられる力に応答して非直線的な動きを示すことができる。非直線的な動きは、内視鏡115の剛性および圧縮性、ならびに異なる長尺の移動部材間のたるみまたは剛性の変動性に基づくことができる。
The
ベース180は、ロボットアーム175が患者に対する手術手技を実行または補助するためのアクセスを有する一方で、医師などのユーザがコマンドコンソールを快適に使用して手術ロボットシステム110を制御し得るように、配置され得る。いくつかの実施形態では、ベース180が患者を支持するための手術台またはベッドに連結されてもよい。ベース180は、図1Aに示すコマンドコンソール105に通信可能に連結することができる。
ベース180は、動力源182、空気圧186、ならびに中央処理装置、データバス、制御回路、およびメモリなどの部品を含む制御およびセンサ電子機器184、ならびにロボットアーム175を移動させるためのモータなどの関連アクチュエータを含むことができる。電子機器184は、本件開示のナビゲーション制御手法、安全モード、および/またはデータフィルタリング手法を実装することができる。ベース180内の電子機器184はコマンドコンソールから通信される制御信号を処理し、送信することもできる。いくつかの実施形態では、ベース180が手術ロボットシステム110を搬送するための車輪188と、車輪188のための車輪ロック/ブレーキ(図示せず)とを含む。手術ロボットシステム110が可動であることで、手術室内の空間制約に適応しやすくなり、手術機器の適切な位置決めおよび移動が容易になる。さらに、可動であることで、ロボットアーム175が患者、医師、麻酔科医、または任意の他の機器の邪魔にならないように、ロボットアーム175を構成することができる。動作中、ユーザは、制御装置、例えばコマンドコンソールを使用してロボットアーム175を制御することができる。
The
図2は、例示的な動作環境100においてコマンドコンソール105として使用することができる例示的なコマンドコンソール200を示す。コマンドコンソール200は、コンソールベース201と、ディスプレイモジュール202、例えばモニタと、制御モジュール、例えばキーボード203およびジョイスティック204とを含む。いくつかの実施形態では、コマンドコンソール200の機能性のうちの1つ以上が手術ロボットシステム110のベース180、または手術ロボットシステム110に通信可能に連結された別のシステムに統合することができる。ユーザ205、例えば医師は、コマンドコンソール200を使用して人間工学的な位置から手術ロボットシステム110を遠隔制御する。
FIG. 2 illustrates an
コンソールベース201は中央処理装置、記憶部、データバス、および、例えば図1A~図1Cに示す内視鏡115からのカメラ画像および追跡センサデータなどの信号を解釈して処理する役割を担う関連データ通信ポートを含むことができる。いくつかの実施形態では、コンソールベース201およびベース180の両方が負荷バランシングのための信号処理を実行する。コンソールベース201は、制御モジュール203、204を介してユーザ205によって提供されるコマンドおよび命令を処理することもできる。図2に示すキーボード203およびジョイスティック204に加えて、制御モジュールは他のデバイス、例えば、コンピュータマウス、トラックパッド、トラックボール、制御パッド、ハンドヘルドリモートコントローラなどのコントローラ、およびハンドジェスチャおよび指ジェスチャをキャプチャするセンサ(例えば、モーションセンサまたはカメラ)を含むことができる。コントローラは器具の動作(例えば、関節動作、駆動、水洗浄等)にマッピングされた一組のユーザ入力(例えば、ボタン、ジョイスティック、方向パッド等)を含むことができる。
ユーザ205は、速度モードまたは位置制御モードでコマンドコンソール200を使用して、内視鏡115などの手術機器を制御することができる。速度モードでは、ユーザ205が制御モジュールを使用する直接的な手動制御に基づいて、内視鏡115の遠位端のピッチ運動およびヨー運動を直接制御する。例えば、ジョイスティック204上の移動は、内視鏡115の遠位端におけるヨー移動およびピッチ移動にマッピングされることができる。ジョイスティック204は、ユーザ205に触覚的なフィードバックを提供することができる。例えば、ジョイスティック204は、内視鏡115が特定の方向にさらに並進または回転できないことを伝えるために振動することができる。また、コマンドコンソール200は、視覚的なフィードバック(例えば、ポップアップメッセージ)および/または音声的なフィードバック(例えば、ビープ音)を提供して、内視鏡115が最大並進または回転に達したことを伝えることもできる。触覚的なフィードバックおよび/または視覚的なフィードバックは、以下に詳細を説明するように、患者の呼気の間、安全モードで動作するシステムによって提供され得る。
A
位置制御モードでは、コマンドコンソール200が患者管腔ネットワークの3次元(3D)マップと、本件開示のナビゲーションセンサからの入力とを使用して、手術機器、例えば、内視鏡115を制御する。コマンドコンソール200は、手術ロボットシステム110のロボットアーム175に制御信号を提供して、内視鏡115を目標の位置に操作する。3Dマップに依存するため、位置制御モードは、患者の解剖学的構造の正確なマッピングが必要となる場合がある。
In position control mode,
いくつかの実施形態では、ユーザ205がコマンドコンソール200を使用せずに、手術用ロボットシステム110のロボットアーム175を手動で操作することができる。手術室でのセットアップ中に、ユーザ205は、ロボットアーム175、内視鏡115(または内視鏡)、および他の手術機器を動作させて患者にアクセスする。手術ロボットシステム110は、ユーザ205からの力のフィードバックや慣性制御を基に、ロボットアーム175および装置の適切な構成を決定する。
In some embodiments, the
ディスプレイ202は電子モニタ(例えば、LCDディスプレイ、LEDディスプレイ、タッチセンシティブディスプレイ)、バーチャルリアリティビューイングデバイス(例えば、ゴーグルまたは眼鏡)、および/または他のディスプレイデバイスを含み得る。いくつかの実施形態では、ディスプレイモジュール202が例えば、タッチスクリーンを有するタブレットデバイスとして、制御モジュールと一体化される。いくつかの実施形態では、一方のディスプレイ202が患者の管腔ネットワークの3Dモデルおよび仮想ナビゲーション情報(例えば、電磁センサ位置に基づくモデル内の内視鏡の端部の仮想表現)を表示し、他方のディスプレイ202が、内視鏡115の端部のカメラまたは別の感知デバイスから受信した画像情報を表示することができる。いくつかの実施態様では、ユーザ205が統合ディスプレイ202および制御モジュールを使用して、データを確認することと、手術ロボットシステム110へのコマンドを入力することとの両方を行うことができる。ディスプレイ202は立体装置、例えば、バイザまたはゴーグルを使用して、3D画像および/または3D画像の2Dレンダリングを表示することができる。3D画像は患者の解剖学的な構造を示すコンピュータ3Dモデルである「内視鏡ビュー」(すなわち、内視鏡ビュー)を提供する。「内視鏡ビュー」は、患者の体内や患者内部の内視鏡115の予想位置の仮想環境を提供する。ユーザ205は「内視鏡ビュー」モデルをカメラによって取得された実際の画像と比較して、内視鏡115が患者内の正確な、あるいはほぼ正確な位置にあると精神的な判断や確認に役立てる。「内視鏡ビュー」は解剖学的構造、例えば、内視鏡115の遠位端の周りの気道、循環血管、または患者の腸もしくは結腸の形状に関する情報を提供する。表示モジュール202は、内視鏡115の遠位端の周りの解剖学的構造の3DモデルおよびCTスキャンを同時に表示することができる。さらに、表示モジュール202は3DモデルおよびCTスキャン上に、内視鏡115の既に決定されたナビゲーション経路を重ねて表示することができる。
いくつかの実施形態では、内視鏡115のモデルが手術の状態を示すのを助けるために、3Dモデルと共に表示される。例えば、CTスキャンは、生検が必要である可能性がある解剖学的な構造内の病変を特定する。動作中、ディスプレイモジュール202は、内視鏡115の現在位置に対応する内視鏡115によって取得された参照画像を表示できる。ディスプレイモジュール202は、ユーザ設定および特定の手術手技に応じて、内視鏡115のモデルの異なるビューを自動的に表示することができる。例えば、ディスプレイモジュール202は、内視鏡115が患者の手術領域に接近する際のナビゲーションステップ中の内視鏡115の蛍光透視による俯瞰図を示す。
In some embodiments, a model of
図3は、例えば図1A~1Cの内視鏡115のような、本件開示の画像および電磁感知機能を有する例示的な内視鏡の遠位端300を示す。図3では、内視鏡の遠位端300が撮像装置315、照明源310、および電磁センサコイル305の端部を含む。遠位端300は、生検針、細胞診ブラシ、および鉗子などの手術機器が内視鏡シャフトに沿って挿入され、内視鏡先端付近の領域へのアクセスを可能にする内視鏡のワーキングチャネル320への開口部をさらに含む。
FIG. 3 shows a
照明源310は、解剖学的空間の一部を照明するための光を提供する。照明源は、それぞれ、選択された波長または波長範囲で光を放出するように構成された1つまたは複数の発光デバイスとすることができる。この波長は、いくつかの例を挙げると、任意の適切な波長、例えば、可視スペクトル光、赤外線、X線(例えば、蛍光透視法)であり得る。いくつかの実施形態では、照明源310が遠位端300に配置された発光ダイオード(LED)を含むことができる。いくつかの実施形態では、照明源310が遠隔光源、例えば、X線発生器から遠位端300を通して光を伝送するために、内視鏡の全体を通って延在する1つ以上の光ファイバを含むことができる。遠位端300が複数の照明源310を含む場合、これらはそれぞれ、互いに同じまたは異なる波長の光を放射するように構成するこ
とができる。
撮像デバイス315は受光した光を表すエネルギーを電気信号に変換するように構成された任意の感光性基板または構造、例えば、電荷結合素子(CCD)または相補型金属酸化膜半導体(CMOS)イメージセンサを含むことができる。撮像デバイス315のいくつかの例は、内視鏡の遠位端300から内視鏡の近位端の接眼レンズおよび/またはイメージセンサにイメージを伝送するように構成された、1つまたは複数の光ファイバ、たとえば光ファイババンドルを含むことができる。撮像デバイス315は様々な光学設計で必要なように、1つまたは複数のレンズおよび/または波長通過フィルタまたはカットオフフィルタをさらに含むことができる。照明源310から放出された光は、撮像装置315が患者の管腔ネットワークの内部の画像を取得することを可能にする。次いで、これらの画像は本件開示の処理のために、コマンドコンソール200などのコンピュータシステムに、個々のフレームまたは一連の連続するフレーム(例えば、映像)として送信され得る。
遠位端300上に配置された電磁コイル305は解剖システム内に配置されている間に内視鏡の遠位端300の位置および向きを検出するために、電磁追跡システムと共に使用されてもよい。いくつかの実施形態では、コイル305が異なる軸に沿った電磁場に対する感度を提供するように角度が設定されてもよく、開示されたナビゲーションシステムに、3つの位置および3つの角度という完全な6自由度を測定する機能を与えることができる。他の実施形態では、単一のコイルが、その軸が内視鏡の内視鏡シャフトに沿って配向された状態で、遠位端300上または遠位端300内に配置されてもよい。このようなシステムの回転対称性のために、このシステムはその軸の周りの回転には感度を有さず、このような実施形態では、5自由度しか検出することができない。
An
図4は、本件開示の例示的なナビゲーション融合システム400の概略ブロック図を示す。以下に詳細に説明するように、枠内400を使用して、多数の異なるソースからのデータは患者の管腔ネットワーク内の手術機器(例えば、内視鏡)のリアルタイム移動情報および位置/向き情報の推定を提供し、ナビゲーション決定を行うために、手術手技時に組み合わされ、繰り返し分析される。システム400は、呼吸センサデータリポジトリ405、内視鏡電磁センサデータリポジトリ415、位置合わせデータ、リポジトリ475、モデルデータリポジトリ425、内視鏡撮像データリポジトリ480、ナビゲーション経路データリポジトリ445、安全領域データリポジトリ455、およびロボット位置データリポジトリ470を含むいくつかのデータリポジトリを含む。以下の説明を明確にするために図4には別々に示されているが、データリポジトリの一部または全部を、単一のメモリまたはメモリのセットに共に格納することができる。また、システム400は、呼吸数および/または相特定器410、内視鏡位置推定器420、位置合わせ計算器465、位置計算器430、画像分析器435、状態推定器440、安全モードコントローラ450、およびナビゲーションコントローラ460を含むいくつかの処理モジュールを含む。各モジュールは、記憶に格納された1組のコンピュータ可読命令と、以下で説明する機能を共に実行するために命令によって構成された1つまたは複数のプロセッサとを表す。例えば、ナビゲーション融合システム400は、上述の制御およびセンサ電子機器184および/またはコンソールベース201において、1つまたは複数のデータ記憶デバイスおよび1つまたは複数のハードウェアプロセッサとして実装することができる。
FIG. 4 shows a schematic block diagram of an exemplary navigational fusion system 400 of the present disclosure. As described in detail below, using box 400, data from a number of different sources are combined with real-time movement and position/orientation information of surgical instruments (eg, endoscopes) within the patient's luminal network. are combined and iteratively analyzed during the surgical procedure to provide an estimate of and make navigational decisions. System 400 includes respiratory sensor data repository 405, endoscopic electromagnetic sensor data repository 415,
呼吸センサデータリポジトリ405は、呼吸センサから導出されたデータを記憶するデータ記憶装置である。上述のように、呼吸センサは、電磁センサ、音響呼吸センサ、管腔ネットワークの画像を取得するように配置された視野を有するイメージセンサ、および人工呼吸器の膨張/収縮情報を備えることができる。いくつかの実施形態では呼吸センサがいくつかの電磁センサ備えることができ、呼吸センサデータリポジトリ405内のデータ
は各センサについて、時間経過にける電磁場内のセンサの位置を表す時間依存位置データを含むことができる。例えば、それぞれのセンサのデータは(x、y、z、tn)の形式
の組として記憶することができ、ここで、x、y、zは、期間tnにおける領域内のセン
サの座標を表す。呼吸センサデータリポジトリ405は、多数の異なる時間に対応する各センサのための多数のそのようなタプルを記憶することができる。
Respiratory sensor data repository 405 is a data store that stores data derived from respiratory sensors. As described above, the respiratory sensors may comprise electromagnetic sensors, acoustic respiratory sensors, image sensors having a field of view positioned to acquire an image of the luminal network, and ventilator inflation/deflation information. In some embodiments, the respiratory sensor may comprise several electromagnetic sensors, and the data in respiratory sensor data repository 405 includes, for each sensor, time-dependent position data representing the sensor's position within the electromagnetic field over time. be able to. For example, each sensor's data can be stored as a set of the form (x, y, z, t n ), where x, y, z are the coordinates of the sensor in the region at time period t n . show. Respiratory sensor data repository 405 can store many such tuples for each sensor corresponding to many different times.
呼吸数および/または相特定器410は呼吸センサデータ再配置405からデータを受信し、そのようなデータを分析して呼吸数および/または呼吸相を計算するように構成されたモジュールである。呼吸数は連続する相の間、例えば、吸気と呼気の連続する周期間の時間隔を指す。相は呼吸周期が吸気相(例えば、患者が吸気している間)であるか、または呼気相(患者が呼気している間)であるかを指す。いくつかの実施形態は、種々の実施におけるセンサのうちの1つまたはすべてからのデータを使用して、フーリエ変換を使用して、呼吸センサデータから呼吸数を抽出することができる。 Respiration rate and/or phase identifier 410 is a module configured to receive data from respiration sensor data relocation 405 and analyze such data to calculate respiration rate and/or respiration phase. Respiratory rate refers to the time interval between successive phases, eg, between successive cycles of inspiration and expiration. Phase refers to whether the respiratory cycle is in the inspiratory phase (eg, while the patient is inhaling) or the expiratory phase (while the patient is exhaling). Some embodiments may use data from one or all of the sensors in various implementations to extract respiration rate from respiration sensor data using a Fourier transform.
内視鏡電磁センサデータリポジトリ415は、内視鏡の遠位端にある電磁センサから導出されたデータを記憶するデータ記憶装置である。上述のように、そのようなセンサは電磁センサコイル305を含むことができ、結果として得られるデータを使用して、電磁場内のセンサの位置および向きを特定することができる。電磁呼吸センサからのデータと同様に、内視鏡電磁センサデータは(x、y、z、tn)の形式の組として記憶することが
でき、ここで、x、y、およびzは、期間tnにおける電磁場内のセンサの座標を表す。
いくつかの実施形態は、電磁センサタプル内の器具のロール、ピッチ、およびヨーをさらに含むことができる。内視鏡電磁センサデータリポジトリ415は、多数の異なる時間に対応する各内視鏡ベースのセンサのための多数のそのようなタプルを記憶することができる。
Endoscope electromagnetic sensor data repository 415 is a data storage device that stores data derived from electromagnetic sensors at the distal end of the endoscope. As noted above, such sensors can include electromagnetic sensor coils 305, and the resulting data can be used to determine the position and orientation of the sensor within the electromagnetic field. Similar to data from electromagnetic respiratory sensors, endoscopic electromagnetic sensor data can be stored as a set of the form (x, y, z, t n ), where x, y, and z are time periods represents the coordinates of the sensor in the electromagnetic field at t n .
Some embodiments can further include instrument roll, pitch, and yaw within the electromagnetic sensor tuple. Endoscope electromagnetic sensor data repository 415 can store many such tuples for each endoscope-based sensor corresponding to many different times.
いくつかの実施形態では、内視鏡位置推定器420は内視鏡電磁センサデータリポジトリ415から、さらに呼吸数および/または相特定器410からデータを受信し、そのデータを使用して、患者の管腔ネットワークの周期的な動きに起因する内視鏡電磁センサから受信される信号中の「ノイズ」を低減するモジュールである。例えば、一実施形態では、内視鏡位置推定器420が決定された呼吸数に基づいてフィルタを生成し、フィルタを内視鏡電磁センサデータに適用することができる。別の実施態様では、内視鏡位置推定器420が呼吸中の1つまたは複数の呼吸センサの変位の大きさを識別することができ、変位値を、内視鏡電磁センサデータによって示される位置にバイアスとして適用することができる。これは、例えば、期間tnで呼吸センサ変位を識別し、それを期間tnで内視鏡位置にバイアスとして適用すること、期間tn+1で次の呼吸センサ変位を識別し、それを期
間tn+1で内視鏡位置にバイアスとして適用することなどによって動的に実行することが
できる。
In some embodiments, the endoscope position estimator 420 receives data from the endoscope electromagnetic sensor data repository 415 and from the respiratory rate and/or phase identifier 410 and uses that data to A module that reduces "noise" in the signal received from the endoscopic electromagnetic sensor due to periodic motion of the luminal network. For example, in one embodiment, endoscope position estimator 420 may generate a filter based on the determined respiration rate and apply the filter to the endoscope electromagnetic sensor data. In another embodiment, the endoscopic position estimator 420 can identify the magnitude of displacement of one or more respiratory sensors during respiration, and the displacement value can be converted to the position indicated by the endoscopic electromagnetic sensor data. can be applied as a bias to This involves, for example, identifying the respiratory sensor displacement at time period tn and applying it as a bias to the endoscope position at time period tn , identifying the next respiratory sensor displacement at time period tn +1 and applying it as It can be done dynamically, such as by applying a bias to the endoscope position at time period t n+1 .
モデルデータリポジトリ425は、患者の管腔ネットワークのモデルを表すデータを記憶するデータ記憶装置である。一例として、手術前手技を行って患者の肺のCTスキャンを行うことができ、コンピュータシステムはこれらのスキャンからのデータを使用して、患者の肺の3Dモデルを構築することができる。そのようなモデルは、いくつかの例では患者の気道のトポグラフィおよび/または直径を含む、管腔ネットワークの構造および接続に関する3D情報を提供することができる。いくつかのCTスキャンは患者の気道がそれらの全直径まで拡張されるよう、息止め時に実行される。 Model data repository 425 is a data storage device that stores data representing a model of a patient's luminal network. As an example, a preoperative procedure can be performed to perform CT scans of the patient's lungs, and the computer system can use the data from these scans to construct a 3D model of the patient's lungs. Such models can provide 3D information regarding the structure and connectivity of the luminal network, including in some examples the topography and/or diameter of the patient's airways. Several CT scans are performed during breath-hold so that the patient's airways are dilated to their full diameter.
位置合わせ計算器465は3Dモデルの座標系(例えば、モデルを生成するために使用されるCTスキャナの座標系)と電磁場(例えば、電磁場発生器120の電磁場)の座標系との間の位置合わせまたはマッピングを識別することができるモジュールである。患者の解剖学的構造を介してセンサを追跡するために、ナビゲーション融合システム400は
「位置合わせ」として知られるプロセスを必要とすることがあり、それによって、位置合わせ計算器465は、異なる座標系間で単一の物体を位置合わせする幾何学的変換を特定する。例えば、患者の特定の解剖学的部位は、3Dモデル座標および電磁センサ座標においても表現を有することができる。初期位置合わせの計算を行うために、位置合わせ計算器465の一実施形態は、その開示内容が参照により本明細書に援用される、2016年9月17日に出願された「管状ネットワークのナビゲーション(Navigation of Tubular Networks)」という名称の米国特許出願第15/268,238号に記載されているように、位置合わせを実行することができる。1つの可能な位置合わせ手法の例として、位置合わせ計算器465は内視鏡が患者の気道に挿入されるとき、例えば、内視鏡が様々な分岐に到達するときに、内視鏡撮像データリポジトリ480および電磁センサデータリポジトリ415から、いくつかの異なる点でデータを受信することができる。画像データは内視鏡の遠位端がいつ分岐に到達したかを、例えば、自動化された特徴分析を介して識別するために使用することができる。位置合わせ計算器465は内視鏡電磁センサデータリポジトリ415からデータを受信し、内視鏡が分岐部に配置されるときに、内視鏡の遠位端における電磁センサ位置を識別することができる。いくつかの例では、分岐だけでなく、患者の気道内の他の点を使用することができ、そのような点を気道の「骨格」モデル内の対応する点にマッピングすることができる。位置合わせ計算器465は電磁領域とモデルとの間の幾何学的変換を識別するために、電磁位置のうちの少なくとも3つをモデル内の点にリンクするデータを使用することができる。別の実施形態は例えば、患者の気道の第1の分岐から、および左肺および右肺の2つ以上の分岐から少なくとも3つを採取することによって、手動位置合わせを含むことができ、対応する点を使用して位置合わせの計算を行うことができる。幾何学的変換を実行するためのこのデータ(位置合わせデータとも呼ばれる)は、位置合わせデータとして位置合わせデータリポジトリ475に格納することができる。
初期位置合わせが完了した後、位置合わせ計算器465は変換精度を向上させると共に、ナビゲーションシステムの変化、例えば、患者の移動による変化を補償するために、受信データに基づいて位置合わせ変換の推定値を更新することができる。いくつかの態様では、位置合わせ計算器465が定義された間隔で、および/または管腔ネットワーク内の内視鏡(またはその部品)の位置に基づいて、位置合わせ変換の推定値を連続的に更新することができる。
After the initial registration is complete, the
位置合わせデータ、リポジトリ475は、ここで説明したように、電磁場の座標系からモデルの座標系への幾何学的変換を実行するために使用可能な位置合わせデータを記憶するデータ記憶装置である。また、上記の通り、位置合わせデータは位置合わせ計算機465によって生成されてもよく、いくつかの実施形態では連続的にまたは周期的に更新されてもよい。
位置計算器430は、モデルデータリポジトリ425、位置合わせデータリポジトリ475、およびスコープ位置推定器420からデータを受信して、電磁センサ座標を3Dモデル座標に変換するモジュールである。スコープ位置推定器420は上述したように、電磁場発生器の位置に対する電磁センサ初期位置を計算する。この位置はまた、3Dモデル内の位置に対応する。電磁座標系からモデル座標系に電磁センサ初期位置を変換するために、位置計算器430は位置合わせデータリポジトリ475に格納された電磁座標系とモデル座標系(例えば、位置合わせデータ)との間のマッピングにアクセスすることができる。スコープ位置を3Dモデル座標系に変換するために、位置計算器430は、入力として、モデルデータリポジトリ425から3Dモデルのトポグラフィを表すデータと、位置合わせデータリポジトリ475からの3Dモデルの電磁場と座標系との間の位置合わせを表すデータと、スコープ位置推定器420からの電磁場内のスコープの位置とを受信する。また、いくつかの実施形態では、状態推定器440から事前に推定された状態データを
受信することができる。受信されたデータに基づいて、位置計算器430は、例えば電磁センサ位置データの3Dモデル内の位置への実行時(on-the-fly)変換を行うことができる。これは、3Dモデルのトポグラフィ内のスコープの遠位端の位置の予備推定値を表すことができ、以下に詳細を説明するように、スコープ位置の最終推定値を生成するための状態推定器440への1つの入力として提供することができる。
内視鏡撮像データリポジトリ480は、内視鏡のカメラ、例えば撮像装置315から受信した画像データを記憶するデータ記憶装置である。種々の実施では、画像データがビデオシーケンス内の別個の画像または一連の画像フレームとすることができる。
Endoscopic
画像分析器435は内視鏡撮像データリポジトリ480およびモデルデータリポジトリ425からデータを受信し、このデータを比較して内視鏡の位置決めを決定することができるモジュールである。例えば、画像分析器435はモデルスキャンから気道系のボリュームレンダリングまたは表面レンダリングされた管腔内画像にアクセスして、レンダリングされた画像を撮像装置315からのリアルタイム画像または映像フレームと比較することができる。例えば、画像を位置合わせすることができ(例えば、Powellの最適化、単体法または勾配法、正規化相互相関または相互情報を費用として有する勾配降下アルゴリズムを用いる)、次いで、二乗誤差の加重正規化和および正規化相互情報を使用して、2つの情報源から得られた位置合わせ画像を比較することができる。スキャンからの2D画像と内視鏡から受け取った2D画像との間の類似性は、内視鏡がスキャンからの画像の位置の近くに配置されていることを示すことができる。そのような画像ベースのナビゲーションは患者の気道の分岐部で局所的な位置合わせを実行することができ、電磁追跡システムよりも、患者の呼吸運動によるノイズの影響を受けにくくすることができる。しかしながら、画像分析器435は内視鏡ビデオに依存するので、分析は、患者の咳または粘膜閉塞によって引き起こされる画像中のアーチファクトによって影響を受ける可能性がある。
画像分析器435は、いくつかの実施形態では画像分析器435が分岐開口部、病変、または粒子など、イメージデータの視野内に存在する物体を検出することができる物体認識手法を実装することができる。物体認識を使用して、画像分析器はどの物体が識別されたかに関する情報、ならびに確率として表される物体の位置、向き、および/またはサイズを示す物体データを出力することができる。一例として、物体認識を使用して、管腔ネットワーク内の分岐点を示すことができる物体を検出し、次いで、それらの位置、サイズ、および/または向きを決定することができる。一実施形態では管腔ネットワーク内の所与の画像において、各枝は典型的には暗いほぼ楕円形の領域として現れ、これらの領域はオブジェクトとしてMSER(Maximally Stable Extremal Region)などの領域検出アルゴリズムを使用して、プロセッサによって自動的に検出することができる。画像分析器435は気道を特定するために、他の技術と組み合わされた光反射強度を使用することができる。さらに、画像分析器435は、管腔ネットワーク内の1組の可能な分岐の中からどの分岐が入力されたかを検出するために、1組の連続する画像フレームにわたって検出された物体を追跡することができる。
The
ロボット位置データリポジトリ470は手術ロボットシステム110から受信したロボット位置データ、例えば、管腔ネットワーク内の手術ロボットシステム110による医療機器または医療機器の一部(例えば、器具先端または遠位端)の物理的移動に関連するデータを記憶するデータ記憶デバイスである。例示的なロボット位置データには、管腔ネットワーク内の特定の解剖学的部位に到達することおよび/または管腔ネットワークにおいて向きを(例えば、内視鏡器具のリーダおよびシースの一方または両方に対して、特定のピッチ、ロール、ヨー、挿入、および後退で)変更することを器具先端に命令するコマンドデータ、医療機器の一部(例えば、器具先端またはシース)の挿入移動を表す挿入デー
タ、IDMデータ、例えば、管腔ネットワーク内の内視鏡の実際の移動を駆動する内視鏡の1つまたは複数のプルワイヤ、腱、またはシャフトの移動など、医療機器の長尺の部材の機械的移動を表す機械的データが含まれる。
Robot position data repository 470 receives robot position data from surgical
ナビゲーション経路データリポジトリ445は、管腔ネットワークを通って目標の組織部位までのあらかじめ計画されたナビゲーション経路を表すデータを記憶するデータ記憶デバイスである。患者の体の管腔ネットワーク内の特定の位置へのナビゲーションは、管状ネットワークの3Dモデルを生成し、管状ネットワーク内のナビゲーション経路を決定するのに必要な情報を生成するために、手術前に特定のステップを行うことを必要とする場合がある。上記の通り、特定の患者の気道のトポグラフィおよび構造の3Dモデルを生成することができる。ターゲット、例えば、生検する病変または手術によって修復する器官組織の一部を選択することができる。一実施形態では、ユーザがマウスでクリックすること、またはタッチ画面をタッチすることなどによって、3Dモデルを示すことができるコンピュータディスプレイに指示することによって、対象の位置を選択することができる。いくつかの実施形態では、ナビゲーション経路がモデル化および特定された病変部位の分析によってプログラム的に特定されて、病変までの最短のナビゲーション経路を導出することができる。いくつかの実施形態では経路が医師によって特定されてもよく、または自動的に特定された経路は医師によって修正されてもよい。ナビゲーション経路は、特定された目標の部位に到達するように移動する管腔ネットワーク内の一連の分岐を特定することができる。 Navigation path data repository 445 is a data storage device that stores data representing pre-planned navigation paths through the luminal network to target tissue sites. Navigation to a specific location within the luminal network of the patient's body is performed prior to surgery to generate a 3D model of the tubular network and the information necessary to determine the navigational path within the tubular network. It may be necessary to perform the steps of As described above, a 3D model of the airway topography and structure of a particular patient can be generated. A target can be selected, eg, a lesion to biopsy or a portion of organ tissue to be surgically repaired. In one embodiment, the location of interest may be selected by the user pointing to a computer display capable of showing the 3D model, such as by clicking with a mouse or touching a touch screen. In some embodiments, a navigational path can be programmatically identified by analysis of a modeled and identified lesion site to derive the shortest navigational path to the lesion. In some embodiments, the route may be identified by the physician, or the automatically identified route may be modified by the physician. The navigation path can identify a series of branches within the luminal network that travel to reach the identified target site.
状態推定器440は入力を受信し、入力の分析を実行して医療機器の状態を決定するモジュールである。例えば、状態推定器440は、呼吸数および/または相特定器410、スコープ位置推定器420、位置計算器430、画像分析器435、ナビゲーション経路データリポジトリ445、およびロボット位置データリポジトリ470からのデータを入力として受信することができる。状態推定器440は、提供された入力が与えられると、確率分析を実施して、管腔ネットワーク内の医療機器の状態および対応する確率を決定することができる。推定された状態は(1)管腔ネットワークのモデルの座標系に対する器具のx、y、z位置、(2)器具がモデルの特定の領域、例えば、特定の気道枝または事前に特定された安全領域に位置するかどうか、(3)器具のピッチ、ロール、ヨー、挿入、および/または後退、ならびに(4)目標の部位までの距離のうちの1つまたは複数を指すことができる。状態推定器440は、時間の関数として器具(または器具の遠位先端)の推定された状態を提供することができる。
いくつかの実施形態では、状態推定器440が状態および対応する確率を決定するためにベイズフレームワークを実装することができる。ベイズ統計分析は事前(prior)と呼
ばれる信念(belief)から始まり、観察されたデータでその信念を更新する。事前はベイズモデルパラメータが何であるかの推定値を表し、パラメータ化された分布として表すことができる。観察されたデータは、パラメータの実際の値についての証拠を得るために収集することができる。ベイズ分析の結果は事後(posterior)と呼ばれ、事象を信頼度で
表現する確率分布を表す。さらなるデータが取得される場合、事後は事前として扱われ、新たなデータで更新することができる。このプロセスは条件付き確率、例えば、イベントBが発生した場合にイベントAである可能性がどの程度高いかを示すベイズの定理を用いる。
In some embodiments,
開示のナビゲーション融合システム400に関して、状態推定器440は以前に推定された状態データを事前として使用することができ、呼吸数および/または相特定器410、スコープ位置推定器420、位置計算器430、画像分析器435、ナビゲーション経路データリポジトリ445、および/またはロボット位置データリポジトリ470からの入力を観測データとして使用することができる。手技の開始時に、視覚に基づく初期化手
法を使用して、気管内の初期深さおよびロールを推定することができ、この推定値を事前に使用することができる。状態推定器440は複数の可能な状態のそれぞれの確率および信頼値を表す事後分布を生成するために、事前データおよび観測データのベイズ統計分析を実行することができる。
With respect to the disclosed navigational fusion system 400, the
本明細書で使用される「確率分布」の「確率」は、医療機器の可能な位置および/または向きの推定が正しい可能性を意味する。例えば、医療器具が管腔ネットワーク内のいくつかの異なる可能な分岐のうちの1つにある相対的な可能性を示すアルゴリズムモジュールのうちの1つによって、異なる確率を計算することができる。一実施形態では、確率分布の種類(例えば、離散分布または連続分布)は推定された状態の特徴(例えば、推定された状態の種類、例えば、連続的な位置情報と離散的な分岐選択)に一致するように選択される。一例として、医療器具が三つ叉の分岐部にあるためにどのセグメントにあるかを識別するための推定状態は離散確率分布によって表されてもよく、アルゴリズムモジュールのうちの1つによって決定されるように、3つの分岐のそれぞれに存在する可能性を表す20%、30%、および50%という3つの離散値を含んでもよい。別の例として、推定された状態は40±5度の医療機器のロール角を含んでもよく、分岐内の器具先端のセグメント深さは4±1mmであってもよく、各々は連続確率分布の一種であるガウス分布によって表される。 As used herein, the "probability" of a "probability distribution" means the likelihood that an estimate of possible positions and/or orientations of a medical device is correct. For example, different probabilities can be calculated by one of the algorithm modules that indicate the relative likelihood that the medical device is at one of several different possible branches within the luminal network. In one embodiment, the type of probability distribution (e.g., discrete or continuous distribution) depends on the features of the estimated state (e.g., the type of estimated state, e.g., continuous location information and discrete branch selection). selected to match. As an example, the estimated state for identifying which segment the medical device is in because it is at the trifurcate bifurcation may be represented by a discrete probability distribution, determined by one of the algorithm modules. As such, it may include three discrete values of 20%, 30%, and 50% representing the likelihood of being in each of the three branches. As another example, the estimated conditions may include a medical device roll angle of 40 ± 5 degrees, and the segment depth of the instrument tip within the bifurcation may be 4 ± 1 mm, each with a continuous probability distribution It is represented by a kind of Gaussian distribution.
これに対して、本明細書で使用される「信頼値」は、1つまたは複数の要因に基づく図4のモジュールのうちの1つによって提供される状態の推定における信頼性の尺度を反映する。電磁ベースのモジュールでは、電磁場の歪み、電磁位置合わせの不正確さ、患者のシフトまたは移動、および患者の呼吸などの要因が状態の推定の信頼性に影響を及ぼす可能性がある。特に、電磁ベースのモジュールによって提供される状態の推定における信頼値は患者の特定の呼吸数、患者または電磁場発生器の動き、および器具先端が位置する解剖学的構造内の位置に依存し得る。画像分析器435の場合、状態の推定における信頼値に影響を及ぼす可能性がある要素の例には、画像が取得される解剖学的構造内の1地点の照明条件、画像を取得する光学センサに対するまたはその前方の流体、組織、または他の障害物の存在、患者の呼吸、管状ネットワーク内の一般的な流体などの患者自体の管状ネットワーク(例えば、肺)の状態、および管状ネットワークの閉塞、ならびに、例えば、ナビゲーションまたは画像取得で使用される特定の動作手法が含まれる。
In contrast, "confidence value" as used herein reflects a measure of confidence in the state estimation provided by one of the modules of FIG. 4 based on one or more factors. . In electromagnetic-based modules, factors such as electromagnetic field distortion, electromagnetic alignment inaccuracy, patient shifting or movement, and patient respiration can affect the reliability of state estimation. In particular, the confidence value in the state estimates provided by the electromagnetic-based module may depend on the patient's particular respiration rate, the movement of the patient or the electromagnetic field generator, and the position within the anatomy in which the instrument tip is located. For the
例えば、1つの要因は、特定のアルゴリズムが、気道開口部に比較的近い位置など、患者の肺の深さごとに精度レベルが異なる場合があることであり、特定のアルゴリズムは、医療機器の位置および向きの推定において高い信頼性を有するが、肺の下端へと進むほど、その信頼値が低下する場合があることである。一般に、信頼値は、結果をもたらすプロセスに関連する1つまたは複数の系統的要素に基づくものであり、確率は。基礎となるデータに基づく単一のアルゴリズムを用いて複数の可能性から正しい結果を得ようと試みる場合に生じる相対的な尺度である。 For example, one factor is that certain algorithms may have different levels of accuracy for each depth of the patient's lung, such as locations relatively close to the airway opening, and certain algorithms may vary depending on the location of the medical device. and orientation estimation, but the confidence value may decrease as one progresses toward the lower end of the lung. In general, the confidence value is based on one or more systematic factors associated with the process leading to the outcome, and the probability is. It is a relative measure that arises when trying to get the correct result from multiple possibilities using a single algorithm based on the underlying data.
一例として、離散確率分布によって表される推定状態の結果を計算するための数式(例えば、関与する推定状態の3つの値を有する三分岐についての分岐/セグメント識別)は、以下のようにすることができる。 As an example, the formula for computing the outcome of an estimated state represented by a discrete probability distribution (e.g., branch/segment identification for a tri-branch with three values of participating estimated states) is as follows: can be done.
上の例示的な数式において、Si(i=1、2、3)は3Dモデルにおいて3つの可能なセグメントが識別されるか、または存在するケースにおける推定されたステートの可能な例示的な価値を表し、CEM、Cimage、およびCrobotは電磁ベースのアルゴリズム、画像ベースのアルゴリズム、およびロボットベースのアルゴリズムに対応する信頼価値を表し、Pi,EM、Pi,image、およびPi,robotは、セグメントiの確率を表す。このような融合アルゴリズムの確率的性質のために、呼吸は経時的に追
跡することができ、さらには、待ち時間外乱(latency disturbance)および外れ値外乱
(outlier disturbance)を克服するように予測することもできる。
In the exemplary equations above, S i (i=1, 2, 3) are the possible exemplary values of the estimated state in the case where three possible segments are identified or exist in the 3D model. , C EM , C image , and C robot denote confidence values corresponding to electromagnetic-based, image-based, and robot-based algorithms, and P i,EM , P i,image , and P i, robot represents the probability of segment i. Due to the stochastic nature of such fusion algorithms, breathing can be tracked over time and even predicted to overcome latency and outlier disturbances. can also
いくつかの実施形態では、スコープ位置推定器420、位置合わせ計算器、および画像分析器435からのデータの信頼値は呼吸数および/または相特定器410からの呼吸相に基づいて適応的に決定することができる。例えば、ロボット位置データおよび画像データは、呼吸運動による電磁センサデータとは異なる影響を受ける可能性がある。いくつかの実施形態では、内視鏡撮像データリポジトリ430から取得された視覚データを使用して、管腔ネットワークの外部のセンサを介して検出可能でない特定の種類の呼吸運動、例えば、視覚処理によって検出することができる頭尾(前後)運動における気道の運動を検出することができる。
In some embodiments, confidence values for data from scope position estimator 420, registration calculator, and
安全領域データリポジトリ455は、器具挿入中に特定の注意を払うべき領域および/または条件を表すデータを記憶するデータ記憶装置である。例えば、上述のように、3Dモデルは、気道直径に関する情報を含むことができる。内視鏡の直径以下、または内視鏡の直径の所定の閾値(例えば、1~2mm、約4mm、または任意の他の閾値距離)内の直径を有する管腔ネットワークの分岐は、安全領域として指定することができる。いくつかの実施形態では、そのような指定は、直径の比較をプロセッサによってプログラム的に行うことができる。別の例として、患者の呼吸の周期の特定の相は患者の呼吸の呼気相安全「領域」として、または呼気で始まり、患者の気道が収縮すると予想される吸気の途中で終わる遷移相として指定することができる。いくつかの実施形態では、閾値が器具の寸法、制御された動きの制御公差、ユーザ構成可能な好みなどを含む要因に基づいて構成することができる。いくつかの実施形態では、安全領域データリポジトリ455は、ロボットシステムの動作および/または様々な安全領域における制限に関する命令を格納することができる。
Safe
セーフティモードコントローラ450は種々の入力を受信し、セーフティモードを起動するかどうかを決定するモジュールである。例えば、安全モードコントローラ450は、入力として、安全領域データリポジトリ455からのデータ、呼吸数および/または相特定器410からの呼吸位相データ、および状態推定器440からの推定状態出力を受信することができる。安全モードコントローラ450は、呼吸相および推定状態を安全領域リポジトリからのデータと比較して、安全モードを起動すべきかどうかを判定することができる。
Safety mode controller 450 is a module that receives various inputs and determines whether to activate safety mode. For example, safe mode controller 450 may receive as inputs data from safe
ナビゲーションコントローラ460は安全モードコントローラ450からデータを受信し、このデータを使用して手術ロボットシステム110のさらなる動作を案内するモジュールである。例えば、安全モードが起動されると、ナビゲーションコントローラ460は、特定の表示命令および/またはIDM動作命令に関するデータを安全モードコントローラ450から受信することができる。安全モードが起動されていないとき、ナビゲーションコントローラ460は、推定された状態およびナビゲーション経路データ内で識別された次の移動に関するデータを安全モードコントローラ450から受信することができる。
Navigation controller 460 is a module that receives data from safe mode controller 450 and uses this data to guide further operation of surgical
(ナビゲーション技術例の概要)
本件開示の1つまたは複数の態様によれば、図5は本明細書で説明されるように、器具の位置推定から管腔ネットワークの運動に起因するノイズをフィルタリングして除去するための例示的なプロセス500のフローチャートを示す。プロセス500は、図4のナビゲーション融合システム400、図1の制御およびセンサ電子機器184、および/または図2のコンソールベース201、またはその構成要素において実施することができる。
(Overview of example navigation techniques)
According to one or more aspects of the present disclosure, FIG. 5 illustrates an exemplary system for filtering out noise due to luminal network motion from an instrument position estimate, as described herein. 5 shows a flow chart of a
ブロック505において、位置計算器430は例えばモデルデータリポジトリ425か
ら、患者の管腔ネットワークのモデルにアクセスすることができる。例えば、モデルは、いくつかの実施形態ではCTスキャンから生成された患者の気道のセグメント化されたマップとすることができる。モデルは、患者の実際の管腔ネットワーク(または管腔ネットワークの一部)の任意の2次元または3次元表現とすることができる。
At
ブロック510において、内視鏡位置推定器420は器具センサからデータを受信することができ、呼吸数/相特定器410は例えば、呼吸センサデータリポジトリ405および内視鏡電磁センサデータリポジトリ410から、それぞれ、データ呼吸センサを受信することができる。上述のように、内視鏡センサデータは内視鏡の電磁センサから導出することができ、管腔ネットワークの周りに生成された電磁場内の内視鏡の遠位端の位置および/または向きを提供することができ、呼吸センサデータは、管腔ネットワークの動きを検出するように配置されたセンサによって生成することができる。 At block 510, endoscope position estimator 420 may receive data from instrument sensors, and respiratory rate/phase identifier 410 may, for example, from respiratory sensor data repository 405 and endoscope electromagnetic sensor data repository 410, respectively. , can receive data respiration sensors. As described above, the endoscope sensor data can be derived from the endoscope's electromagnetic sensors, which indicate the position and/or orientation of the distal end of the endoscope within the electromagnetic field generated around the luminal network. can be provided and the respiratory sensor data can be generated by a sensor positioned to detect motion of the luminal network.
ブロック515において、位置計算器430は、モデルに対する機器の位置を推定することができる。例えば、モデルの座標系は、位置合わせ中の(位置合わせ計算器465および位置合わせデータリポジトリ475に関する上記の説明を参照)医療手技の開始時に電磁場の座標系にマッピングされてもよい。位置計算器430は、このマッピングを(位置合わせデータを介して)電磁場内のセンサ位置の座標と共に使用して、モデル内の機器センサの位置の初期推定値を生成することができる。しかしながら、上記の通り、呼吸中の患者の気道の動きのために、電磁場の座標系へのモデルの初期位置合わせは、電磁場内の患者の気道の実際の動的な位置を正確に反映しないことがある。器具は動的に動く気道のうちの1つの中に位置するので、電磁場内の気道位置がモデル内のその同じ気道のマッピングされた位置から変化するとき、ブロック515で推定された位置は、例えば、器具の推定された位置の呼吸運動アーチファクト/成分に対して不正確であり得る。
At
ブロック520において、呼吸数および/または相特定器410は、例えばフーリエ変換を使用して呼吸数を抽出することによって、呼吸センサからのデータから呼吸数を抽出することができる。フーリエ変換は、複数の呼吸センサを有する実施形態において、1つ以上のセンサからのデータに適用され得る。
At
ブロック525において、位置計算器430および/または内視鏡位置推定器420は管腔ネットワークの周期的な動きを補償するために、特定された呼吸数に基づいて器具およびモデル位置の一方または両方を調整するために、フィルタリングステージ535を実装することができる。フィルタリングステージ535の様々な実施形態は、図6A~6Cを参照しながら詳細を説明する。
At
ブロック530において、状態推定器440は、器具位置を示す指標を出力することができる。出力はナビゲーションシステム、例えば、手術ロボットシステム110、ユーザインタフェース、例えば、ディスプレイ202、またはその両方に提供され得る。いくつかの実施形態では、機器の可能性のある状態の特定に使用するために、指標を状態推定器440に出力することができる。
At
図6A~図6Cは、図5のフィルタリングステージ535に使用することができる様々な例示的なプロセスのフローチャートを示す。図6A~図6Cのプロセスは、図4のナビゲーション融合システム400、図1の制御およびセンサ電子機器184、および/または図2のコンソールベース201、またはその構成要素によって実行することができる。
6A-6C show flowcharts of various exemplary processes that may be used for filtering
図6Aを参照すると、フィルタリングステージ535に使用することができる例示的な1つのプロセス600Aが示されている。ブロック605において、内視鏡位置推定器420は、特定された呼吸数に基づいてフィルタを設計することができる。上記の通り、い
くつかの実施形態では、患者の気道のモデルが、息止め時に生成される。したがって、フィルタは、モデルが生成された間の息止め状態に対応する吸気のピーク状態の間に機器電磁センサデータを選択するように設計されたバンドパスフィルタまたはバンドストップフィルタとすることができる。
Referring to FIG. 6A, one
ブロック610では、内視鏡位置推定器420がブロック605で設計されたフィルタを器具電磁センサデータに適用して、データの一部をフィルタ除去することができる。そうすることによって、プロセス600Aは、典型的に「ノイズ」と考えられ、3Dモデルとの不正確な位置合わせにつながる電磁センサ信号の部分をフィルタ除去することができる。電磁センサ位置は静的3Dモデルに対して位置合わせされるので、モデルが生成された呼吸状態とは異なる呼吸状態中に発生する信号の部分をフィルタリングすることにより、位置合わせの精度を高めることができる。
At
図6Bを参照すると、フィルタリングステージ535に使用することができる別の例示的なプロセス600Bが示されている。ブロック615において、呼吸数および/または相特定器410は、各呼吸センサの変位の大きさを識別することができる。大きさは、各センサの「ベースライン」位置に対して測定することができる。基準線は、較正時に各センサの位置を記録することによって、モデル座標を電磁場の座標に較正するときに設定することができる。患者の胸部に配置された複数の電磁センサを有する実施形態では、胸骨に近接して取り付けられたセンサが肺の下側の境界に近接して取り付けられたセンサよりも低い変位の大きさを示す。
Referring to FIG. 6B, another
ブロック620において、内視鏡位置推定器420は、呼吸センサに対する器具センサの相対位置を識別することができる。例えば、x座標およびy座標(電磁場における長さおよび幅位置を表す)を比較して、最も近い呼吸センサおよび/または器具センサと各呼吸センサとの間の相対距離を決定することができる。
At
ブロック625において、プロセス内視鏡位置推定器420は、呼吸センサの変位と、器具センサおよび呼吸センサの相対位置とに基づいて、器具センサの変位を補間することができる。
At
ブロック630において、内視鏡位置推定器420は、ブロック515において補間された変位によって計算された推定器具位置を調整することができる。したがって、調整された位置は、モデル座標系に対する気道の変位を補償することによって、モデル内の器具のより正確な位置を表すことができる。
At
図6Cを参照すると、フィルタリングステージ535に使用することができる別の例示的なプロセス600Cが示されている。ブロック630において、呼吸数および/または相特定器410は、各呼吸センサの変位の大きさを識別することができる。これは、上述のプロセス600Bのブロック615と同様に実行することができる。
Referring to FIG. 6C, another
ブロック635において、位置計算器430は、呼吸センサ位置への3Dモデルのマッピングにアクセスすることができる。例えば、各呼吸センサは、モデル内のx座標およびy座標にマッピングすることができる。
At
ブロック640で、位置計算器430は、このマッピングおよび変位の大きさに基づいて、モデルを電磁場の座標系内の新しい座標に変換することができる。例えば、センサがマッピングされた各(x,y)座標において、プロセス600Cは、マッピングされたセンサの変位の大きさに基づいて(x,y,z)モデル座標のzの値を調整することができる。マッピングされたセンサ間の(x,y)座標について、zの値は、隣接するセンサか
らの大きさおよび距離に基づいて補間された大きさに基づいて調整することができる。したがって、電磁場の座標系内のモデルの位置は、患者の気道の動きを反映するように動的に調整することができる。
At
ブロック645において、位置計算器430は、器具位置を平行移動されたモデルに位置合わせすることができる。例えば、位置計算器430は電磁場内の器具センサの(x,y,z)座標データにアクセスし、変換されたモデル内の対応する位置を識別することができる。
At
プロセス500のいくつかの実施形態は、プロセス600A、600B、600Cのうちの1つまたは複数を使用して、フィルタリングステージ535におけるモデルに対する器具位置を計算することができる。
Some embodiments of
本件開示の1つまたは複数の態様によれば、図7は、本件開示の管腔ネットワークナビゲーション中に安全モードを起動するための例示的なプロセス700のフローチャートを示す。プロセス700は、図4のナビゲーション融合システム400、図1の制御およびセンサ電子機器184、および/または図2のコンソールベース201、またはその構成要素によって実施することができる。
According to one or more aspects of the present disclosure, FIG. 7 depicts a flowchart of an
ブロック705において、状態推定器440は例えばモデルデータリポジトリ425から、患者の管腔ネットワークの3Dモデルにアクセスすることができる。
At
ブロック710において、状態推定器440は機器センサおよび呼吸センサの一方または両方から、例えば、呼吸センサデータリポジトリ405および内視鏡電磁センサデータリポジトリ415からデータを受信することができ、またはモジュール410、420、および/または430からそのようなデータの分析を受信することができる。上述のように、内視鏡センサデータは管腔ネットワークの周りに生成された電磁場内の内視鏡の遠位端の位置および/または向きを提供することができ、呼吸センサデータは、管腔ネットワークの動きを検出するように配置されたセンサによって生成することができる。ブロック710の後、プロセス700は安全モードを起動するかどうかを決定するために、個別にまたは共に実行することができる2つのサブプロセスに分割することができる。これらのサブプロセスは、共に実行される場合は、並列または直列に実行することができる。
At
ブロック710で状態推定器440が計器センサ位置データを受信した場合、プロセス700はブロック715に進むことができる。ブロック715において、状態推定器440は、モデルに対する機器の位置を推定することができる。この推定は周期的な動きを補償するために、いくつかの実施形態において上記のプロセス600A~600Cのいずれかによって実行することができる。
If
判定ブロック720において、安全モードコントローラ450は、器具の位置が3Dモデルの所定の安全領域内にあるかどうかを判定する。上述したように、安全領域は、気道および器具直径の比較に基づいてあらかじめ定義することができる。器具の位置が安全領域内に入らない場合、プロセス700は、ブロック710にループバックして、センサから新たなデータを受信する。他の実施形態では、プロセス700は、ブロック725に進んでもよい。
At
器具の位置が安全領域内にある場合、プロセス700はブロック735に進み、安全モードコントローラ450は器具のさらなるナビゲーション(例えば、器具の次の移動またはその後の移動)のための安全モードを起動する。
If the position of the instrument is within the safe area,
ブロック725に移ると、プロセス700がブロック710で呼吸センサ位置データを受信した場合、プロセス700はブロック725に進むことができる。ブロック725において、呼吸数および/または相特定器410は、呼吸相を吸気または呼気のいずれかとして識別することができる。
Moving to block 725 , if the
判定ブロック730において、安全モードコントローラ450は、呼吸相が所定の安全条件に対応するかどうかを判定する。いくつかの実施形態では、すべての呼気相を安全条件として識別することができる。いくつかの実施形態では、気道の一定の分岐における呼気が安全条件に対応し得る。いくつかの実施形態では、安全モードコントローラ450が器具の次の動きが安全状態と相関する呼吸相内に入るかどうかを予測するために、呼吸数の履歴データを分析することができる。呼吸の位相(または予測された位相)が所定の安全条件に対応しない場合、プロセス700は、ブロック710にループバックして、センサから新たなデータを受信する。他の実施形態では、プロセス700は、ブロック715に進んでもよい。
At
呼吸相(または予測された相)が所定の安全条件に対応する場合、プロセス700はブロック735に進み、安全モードコントローラ450はさらなるナビゲーション(例えば、器具の次の移動、または器具のその後のすべての移動)のための安全モードを起動する。
If the respiratory phase (or predicted phase) corresponds to a predetermined safety condition,
器具の位置が安全領域に入ったために、プロセス700がブロック735に進む場合、いくつかの実施形態では、気道の直径が肺周辺部に向かってさらに小さくなる傾向があり、またナビゲーション経路が気道の中心から外側の肺周辺部に向かって移動する傾向があるので、安全モードはその後のすべての挿入に対して作動されてもよい。呼吸相(例えば、呼気相)がプロセスに安全モードを起動させるためにプロセス700がブロック735に進む場合、安全モードは、予測された呼気周期の存続期間の間、または次の検出された吸気周期まで作動されてもよい。
If
安全モードでは、プロセス700のいくつかの実施形態がナビゲーションコントローラ460を実施して、器具の動きに制限を課すことができる。例えば、安全モードでは、ナビゲーションコントローラ460によって、手術ロボットシステム110が器具ドライバを作動させることを抑止することができる。そのような実施形態では、ナビゲーションコントローラ460によって、安全モードが起動されている間、例えば、患者の呼気の間、器具の挿入を案内するために、ロボットシステムに対するユーザ入力を無効にすることができる。
In safe mode, some embodiments of
いくつかの実施形態では、安全モードコントローラ450によって、計算された器具位置からナビゲーション経路を下った位置に配置された気道の直径が器具の直径よりも小さいと判定される場合がある。これにより、安全モードでは、ナビゲーションコントローラ460がさらなる挿入を抑止することができ、ユーザはさらなるナビゲーションのために、内視鏡のワーキングチャネルを介して、より細径の操作可能なチャネルを挿入するように促されることができる。 In some embodiments, the safety mode controller 450 may determine that the diameter of the airway located down the navigation path from the calculated instrument position is smaller than the diameter of the instrument. This allows the navigation controller 460 to inhibit further insertion in the safe mode, allowing the user to insert a smaller diameter steerable channel through the working channel of the endoscope for further navigation. can be prompted to
安全モードにおいて、プロセス700のいくつかの実施形態では、器具の移動に制限を課す代わりに、器具の移動時の注意喚起を示す出力をユーザに提供してもよい。そのような出力はグラフィック(例えば、ディスプレイ上)、音声、または触覚(例えば、入力装置204を介した触覚フィードバック)による警告を含む。
In the safe mode, some embodiments of
(ナビゲーションユーザインターフェース例の概要)
図8Aおよび8Bは、本件開示の安全モードでの管腔ネットワークナビゲーション中に
ユーザに提示することができる例示的なユーザインタフェース800A、800Bを示す。例えば、いくつかの実施形態では、ユーザインタフェース800A、800Bを図2のディスプレイ202上に表示することができる。
(Overview of example navigation user interface)
8A and 8B illustrate
図8Aは、患者の呼吸の呼気相中にユーザに提示することができる例示的なユーザインタフェース800Aを示す。例示的なユーザインタフェース800は、警告805と、仮想ナビゲーションセクション810と、呼吸追跡セクション820とを含む。
FIG. 8A shows an
仮想ナビゲーションセクション810は、患者の気道812の視覚化と、気道を通るナビゲーション経路814の視覚化とを含む。上記の通り、これは、いくつかの実施形態では3Dモデルに基づくことができる。いくつかの実施形態では、仮想ナビゲーションセクション810は、代替的にまたは追加的に、内視鏡カメラから受信した画像を表示することができる。
A
呼吸追跡セクション820は、患者の呼吸の波形822と、呼吸周期における現在の点を示すマーカ824とを含む。波形822において、正の勾配を有する波形の部分は吸気を表し、負の勾配を有する部分は呼気を表す。いくつかの実施形態は例えば、以前の呼吸数および/または人工呼吸器の周期のデータの呼吸数分析に基づいて、将来の呼吸の予測波形をさらに表示することができる。図示されているように、呼吸周期における現在の点は、呼気相に対応する。
The
警告805は、呼気中にナビゲーションを一時停止するようにシステムのオペレータに警告する。いくつかの実施形態では、警告805が仮想ナビゲーションセクション810上に重ね合わされた追加の警告816を伴うことができる。他の実施形態ではディスプレイの色が変化してもよく、アラームが鳴ってもよく、入力ジョイスティックが振動してもよく、あるいはデバイスが安全モードで動作していることをユーザに警告するために、他の視覚、音声、または触覚による表示が提示されてもよい。いくつかの実施形態では、患者の気道への外傷を軽減するために、この状態では、ロボットシステム110のユーザ制御が無効にされてもよい。
図8Bを参照すると、上記の所定の安全領域を通るナビゲーション中にユーザに提示することができる別の例示的なユーザインタフェース800Bが示されている。ユーザインタフェース800Bは、警告805と、仮想ナビゲーション部810と、モデル表示部830とを含む。
Referring to FIG. 8B, another
上記の通り、仮想ナビゲーションセクション810は、患者の気道812の視覚化と、気道を通るナビゲーション経路814の視覚化とを含む。
As noted above, the
モデル表示セクション830は、現在位置マーカ832および安全領域マーカ834を有する3Dモデルのグラフィカル表現を含む。図示するように、現在位置832は安全領域834内にある。したがって、警告805は、警告領域をナビゲートしていることをシステムの操作者に警告する。この領域において呼気中にユーザがナビゲーションを一時停止するよう支援するために、さらなる警告が提示されてもよい。
(代替のフィルタリング技術)
上記の通り、いくつかの実施形態は(a)所与の期間にわたって生のセンサデータを受信し、(b)所与の期間にわたって呼吸速度を決定するために生のセンサデータ上で呼吸速度を決定する関数(例えば、フーリエ変換)を適用し、(c)決定された呼吸速度に起因する生のセンサデータの成分を除去するために生のセンサデータにフィルタを適用するアプローチを利用することができる。ただし、これらのアプローチでは、(a)~(c)
による不要な遅滞が生じる可能性がある。(a)~(c)による遅滞を低減するために、いくつかの実施形態では、将来の期間の呼吸数を予測するための予測手法を利用することができる。1つの予測アプローチによれば、非線形カルマンフィルタ(拡張カルマンフィルタ(EKF)、非セントカルマンフィルタ(UKF)、または非線形関数にカルマンフィルタを適用する他の適切なアプローチなど)を使用して、略リアルタイムでまたは実質的にリアルタイムで呼吸運動を予測することができる。本明細書において、「リアルタイム」とは、センサデータの取得の直後に適用される処理、例えば、処理されたデータが器具のナビゲーションのために使用されることができるように、十分に短い期間内に完了されるセンサデータに対する処理を意味する。EKFまたは複数のEKF(パッチに1つ、範囲に1つ)は、呼吸の振幅、指示、および位相をリアルタイムで識別することができる。実施形態によれば、電磁センサ、または任意の他の位置センサによって生成された生の電磁センサデータから、EKFまたはEKFによって検出された呼吸運動を除去することができる。EKFは現在の期間の呼吸運動を予測するために、生センサデータの履歴データを処理することができる。予測された呼吸運動は次に、生のセンサデータ内の呼吸成分をフィルタリングして除去するために使用される。EKFまたは複数のEKF(パッチに1つ、範囲に1つ)は、呼吸の振幅、指示、および位相をリアルタイムで特定することができる。他の例示的な実施形態は、アルファ-ベータフィルタリング、ベイズフィルタリング、粒子フィルタリングなどの他の予測技術を使用することができる。
(alternative filtering technique)
As noted above, some embodiments (a) receive raw sensor data over a given time period and (b) calculate respiration rate on the raw sensor data to determine respiration rate over the given time period. Applying a determining function (e.g., a Fourier transform) and (c) applying a filter to the raw sensor data to remove components of the raw sensor data attributable to the determined respiration rate can be utilized. can. However, in these approaches, (a)-(c)
may cause unnecessary delays due to To reduce the delays due to (a)-(c), some embodiments may utilize prediction techniques to predict respiration rate for future time periods. According to one prediction approach, a non-linear Kalman filter (such as an extended Kalman filter (EKF), a non-Saint Kalman filter (UKF), or any other suitable approach that applies a Kalman filter to a non-linear function) is used to perform near real-time or substantially can predict breathing motion in real time. As used herein, "real time" refers to processing applied immediately after acquisition of sensor data, e.g., within a sufficiently short period of time so that the processed data can be used for instrument navigation. means the processing on the sensor data completed in . An EKF or multiple EKFs (one per patch, one per range) can identify respiratory amplitude, command and phase in real time. According to embodiments, the EKF or respiratory motion detected by the EKF can be removed from the raw electromagnetic sensor data generated by the electromagnetic sensor, or any other position sensor. The EKF can process historical raw sensor data to predict respiratory motion for the current period. The predicted respiratory motion is then used to filter out respiratory components in the raw sensor data. An EKF or multiple EKFs (one per patch, one per range) can identify respiratory amplitude, command and phase in real time. Other exemplary embodiments may use other prediction techniques such as alpha-beta filtering, Bayesian filtering, particle filtering, and the like.
(ロボットによる命令の補償)
いくつかの実施形態では、器具の動きが呼吸と同様の動きを示す場合がある。これらの動きを補償するために、呼吸速度(または任意の他の生理学的に誘発された動き)を検出および補償するための実施形態において、器具を制御(例えば、挿入、後退、関節運動)するために使用される命令された動きデータを使用して、その動きを呼吸速度として検出することを回避することができる。例えば、器具の動きが(命令されたデータによって決定可能である)所与のレートである場合、上述の実施形態は、センサデータにフィルタを適用して、その動きに起因するデータを除去することができる。
(Compensation for command by robot)
In some embodiments, movement of the device may exhibit movement similar to breathing. To compensate for these movements, control (e.g., insert, retract, articulate) the instrument in embodiments to detect and compensate for respiration rate (or any other physiologically induced movement) Using the commanded motion data used for breathing can avoid detecting that motion as respiration rate. For example, if the instrument movement is at a given rate (which can be determined by the commanded data), the embodiments described above apply a filter to the sensor data to remove data due to that movement. can be done.
(代替のセンサ種類)
上記の通り、器具の位置を決定するために電磁センサ使用することに加えて、他の実施形態は、他の適切なセンサタイプを使用してもよい。そのような位置センサは、形状感知ファイバ、加速度計、視覚検出アルゴリズム、ジャイロスコープ、または動きの特性を検出することができる任意の他の適切なセンサを含むことができる。
(alternative sensor type)
In addition to using electromagnetic sensors to determine the position of the instrument, as described above, other embodiments may use other suitable sensor types. Such position sensors may include shape sensing fibers, accelerometers, visual detection algorithms, gyroscopes, or any other suitable sensor capable of detecting motion characteristics.
(他の生理学的なノイズの補償)
本件開示の実施形態の多くは患者の呼吸数から生じるノイズを検出し、補償するが、他の実施形態は心拍数または任意の他の検出可能な特性、患者の他の生理学的特性によって生じるノイズを検出し、補償することができる。このような場合、心拍数が電磁データノイズを生成する可能性があるときは、これらの実施形態において、上記の手法を用いて、心拍数を検出し、心拍数によって生成されるノイズを除去することができる。患者が周期的な震えまたは身体運動を示す場合に起こり得る、他のノイズアーチファクトも検出することができる。
(compensation for other physiological noise)
While many of the embodiments of the present disclosure detect and compensate for noise resulting from patient respiration rate, other embodiments detect noise caused by heart rate or any other detectable characteristic, other physiological characteristic of the patient. can be detected and compensated for. In such cases, when the heart rate can generate electromagnetic data noise, in these embodiments the techniques described above are used to detect the heart rate and remove the noise generated by the heart rate. be able to. Other noise artifacts can also be detected, which can occur when a patient exhibits periodic tremors or body movements.
(実装システムおよび用語)
本件開示の実施形態は、管腔ネットワークの改善されたナビゲーションのためのシステム、方法、および装置を提供する。
(implementation system and terminology)
Embodiments of the present disclosure provide systems, methods, and apparatus for improved navigation of luminal networks.
本明細書で使用される用語「連結する」、「連結する」、「連結される」、または単語「連結される」の他の変更は、間接的な連結または直接的な連結のいずれかを示すことができることに留意されたい。例えば、第1の構成要素が第2の構成要素に「連結」される
場合、第1の構成要素は、別の構成要素を介して第2の構成要素に間接的に連結されるか、または第2の構成要素に直接的に連結され得る。
As used herein, the terms "link", "link", "coupled" or other variations of the word "linked" refer to either indirect or direct linkage. Note that it is possible to show For example, if a first component is "coupled" to a second component, the first component is indirectly coupled to the second component through another component, or It can be directly connected to the second component.
本明細書で説明されるロボット動作の作動機能は、プロセッサ可読媒体またはコンピュータ可読媒体上に1つまたは複数の命令として記憶することができる。用語「コンピュータ可読媒体」は、コンピュータまたはプロセッサによってアクセス可能な任意の利用可能な媒体を意味する。限定ではなく例示として、そのような媒体は、RAM、ROM、EEPROM、フラッシュメモリ、CD-ROMまたは他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気ストレージデバイス、あるいは命令またはデータ構造の態様で所望のプログラムコードを格納するために使用することができ、コンピュータによってアクセス可能な任意の他の媒体を備えることができる。コンピュータ可読媒体は、有形かつ非一時的であってもよいことに留意されたい。本明細書で使用される「コード」という用語は、コンピューティングデバイスまたはプロセッサによって実行可能なソフトウェア、命令、コード、またはデータを意味することがある。 The robotic motion activation functions described herein can be stored as one or more instructions on a processor-readable medium or computer-readable medium. The term "computer-readable medium" means any available medium that can be accessed by a computer or processor. By way of example, and not limitation, such media may include RAM, ROM, EEPROM, flash memory, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage devices, or any other medium containing any desired instruction or data structure. It may comprise any other computer-accessible medium that may be used to store program code. Note that the computer-readable medium may be tangible and non-transitory. As used herein, the term "code" may refer to software, instructions, code, or data executable by a computing device or processor.
本件開示の方法は、記載された方法を実現するための1つまたは複数のステップまたはアクションを備える。方法のステップおよび/または動作は、特許請求の範囲から逸脱することなく、入れ替えることができる。言い換えれば、記載の方法の適切な動作のために特定の順序のステップまたはアクションが必要とされない限り、特定のステップおよび/またはアクションの順序および/または使用は、特許請求の範囲から逸脱することなく変更することができる。 The methods of the disclosure comprise one or more steps or actions for achieving the described method. The method steps and/or actions may be interchanged without departing from the scope of the claims. In other words, unless a specific order of steps or actions is required for proper operation of the described method, the order and/or use of a specific step and/or action may be used without departing from the scope of the claims. can be changed.
本明細書で使用される場合、用語「複数」は、2つ以上であることを意味する。例えば、複数の構成要素は、2つ以上の構成要素を意味する。用語「決定すること」は種々の動作を包含し、したがって、「決定すること」には、計算すること、計算すること、処理すること、導出すること、調査すること、検索すること(例えば、表、データベース、または別のデータ構造を検索すること)、確認することなどが含まれる。また、「決定すること」には、受信すること(例えば、情報を受信すること)、アクセスすること(例えば、メモリ内のデータにアクセスすること)なども含まれる。また、「決定すること」には、解決すること、選択すること、選択すること、確立することなども含まれる。 As used herein, the term "plurality" means two or more. For example, a plurality of components means two or more components. The term "determining" encompasses a variety of actions, thus "determining" includes calculating, computing, processing, deriving, examining, retrieving (e.g., searching a table, database, or another data structure), checking, etc. Also, "determining" includes receiving (eg, receiving information), accessing (eg, accessing data in memory), and the like. Also, "determining" includes resolving, choosing, selecting, establishing and the like.
「に基づく」という語句は特に明記しない限り、「のみに基づく」ことを意味しない。言い換えれば、「に基づく」という語句は、「にのみ基づいて」および「少なくともに基づいて」の両者の説明である。 The phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" is a description of both "based only on" and "based at least on."
開示の実施形態の上記説明は、当業者が本発明を製造または使用することを可能にするために提供されたものである。これらの実装に対する様々な変更は当業者に明らかであり、本明細書で定義される一般的な原理は、本発明の範囲から逸脱することなく、他の実装に適用され得る。例えば、当業者は、器具の構成要素を固定、取り付け、連結、または係合などと同等の方法、特定の作動運動を生成するための同等の機構、および電気エネルギーを送達するための同等の機構などの、いくつかの対応する代替的および同等の構成内容を採用することができることが理解されるのであろう。したがって、本発明は、本明細書に示された実施に限定されることを意図するものではなく、本明細書に開示された原理および新規な特徴と一致する最も広い範囲を与えられるべきである。 The previous description of the disclosed embodiments is provided to enable any person skilled in the art to make or use the present invention. Various modifications to these implementations will be apparent to those skilled in the art, and the generic principles defined herein may be applied to other implementations without departing from the scope of the invention. For example, those skilled in the art will be familiar with equivalent methods of securing, attaching, coupling, or engaging instrument components, equivalent mechanisms for producing a particular actuation motion, and equivalent mechanisms for delivering electrical energy. It will be understood that a number of corresponding alternative and equivalent arrangements, such as, may be employed. Accordingly, this invention is not intended to be limited to the implementations shown herein, but is to be accorded the broadest scope consistent with the principles and novel features disclosed herein. .
Claims (11)
電磁場を発生させるように構成された電磁場発生器と、
操縦可能な器具の遠位端に設けられる1組の1つまたは複数の電磁センサと、
前記患者に配置されるように構成された1組の1つまたは複数の呼吸センサと、
実行可能な命令が記憶されている少なくとも1つのコンピュータ読み取り可能メモリと、
前記少なくとも1つのコンピュータ読み取り可能メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行することで前記システムに少なくとも
前記管腔ネットワークを表現する手術前モデルにアクセスすることと、
前記電磁場の座標系と前記手術前モデルの座標系との間の位置合わせマッピングにアクセスすることと、
前記電磁場内の前記1組の1つまたは複数の電磁センサから電磁データ信号を受信することと、
前記1組の1つまたは複数の呼吸センサからの呼吸データ信号を基に、前記患者の呼吸数を計算することと、
前記電磁データ信号及び前記呼吸データ信号に、呼吸による呼吸運動を予測するように構成されている予測フィルタを適用することと、
予測された前記呼吸運動に起因する前記電磁データ信号の成分を除去することと、
前記成分が除去された前記電磁データ信号に基づいて、前記電磁場内の前記1組の1つまたは複数の電磁センサの少なくとも1つの位置を計算することと、
前記位置合わせマッピングを用いて、前記電磁場内の前記1組の1つまたは複数の電磁センサの前記少なくとも1つの位置を変換することにより、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の位置を判定することと、
前記1組の1つまたは複数の呼吸センサに対する前記1組の1つまたは複数の電磁センサの前記少なくとも1つの位置を判定することと、
(i)前記1組の1つまたは複数の呼吸センサに対する前記1組の1つまたは複数の電磁センサの判定された前記少なくとも1つの位置、および(ii)吸気相と呼気相との間の前記1組の1つまたは複数の呼吸センサの少なくとも1つの変位の大きさに基づいて、前記患者の前記呼吸の前記吸気相と前記呼気相との間の前記1組の1つまたは複数の電磁センサの少なくとも1つの位置変位を計算することと、
前記吸気相と前記呼気相との間の前記1組の1つまたは複数の電磁センサの計算された前記少なくとも1つの位置変位に基づいて、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することと、
を実行させるように構成されたプロセッサと、
を有する、システム。 A system configured to navigate a patient's luminal network, comprising:
an electromagnetic field generator configured to generate an electromagnetic field;
a set of one or more electromagnetic sensors provided at the distal end of the steerable instrument;
a set of one or more respiratory sensors configured to be placed on the patient;
at least one computer readable memory in which executable instructions are stored;
one or more processors in communication with the at least one computer readable memory for executing the instructions to access to the system a pre-operative model representing at least the luminal network;
accessing a registration mapping between the coordinate system of the electromagnetic field and the coordinate system of the pre-operative model;
receiving electromagnetic data signals from the set of one or more electromagnetic sensors within the electromagnetic field;
calculating a respiratory rate of the patient based on respiratory data signals from the set of one or more respiratory sensors;
applying to the electromagnetic data signal and the respiratory data signal a prediction filter configured to predict respiratory motion due to respiration;
removing components of the electromagnetic data signal attributable to the predicted respiratory motion;
calculating the position of at least one of the set of one or more electromagnetic sensors within the electromagnetic field based on the electromagnetic data signal with the component removed;
The distal end of the steerable instrument relative to the pre-operative model by translating the position of the at least one of the set of one or more electromagnetic sensors within the electromagnetic field using the registration mapping. determining the position of the
determining the at least one position of the set of one or more electromagnetic sensors relative to the set of one or more respiratory sensors;
(i) the determined at least one position of the set of one or more electromagnetic sensors relative to the set of one or more respiratory sensors; and (ii) the position between inspiratory and expiratory phases. said set of one or more electromagnetic sensors between said inspiratory and said expiratory phases of said breathing of said patient based on a magnitude of displacement of at least one of said set of one or more respiratory sensors; calculating at least one position displacement of
Based on the calculated at least one positional displacement of the set of one or more electromagnetic sensors between the inspiratory phase and the expiratory phase, the distal position of the steerable instrument relative to the pre-operative model determining the position of the edge;
a processor configured to run
a system.
電磁場を発生させるように構成された発生器と、
操縦可能な器具の遠位端に設けられる1組の1つまたは複数の電磁センサと、
1組の1つまたは複数の呼吸センサと、
実行可能な命令が記憶されている少なくとも1つのコンピュータ読み取り可能メモリと、
前記少なくとも1つのコンピュータ読み取り可能メモリと通信する1つまたは複数のプロセッサであって、前記命令を実行することで前記システムに少なくとも
前記管腔ネットワークを表現する手術前モデルにアクセスすることと、
前記電磁場の座標系と前記手術前モデルの座標系との間の位置合わせマッピングにアクセスすることと、
前記1組の1つまたは複数の電磁センサからのデータ信号を基に、前記電磁場内の前記1組の1つまたは複数の電磁センサの少なくとも1つの位置を計算することと、
前記1組の1つまたは複数の呼吸センサからのデータ信号を基に、前記患者の呼吸数を計算することと、
前記位置合わせマッピング、前記呼吸数、および前記電磁場内の前記1組の1つまたは複数の電磁センサの少なくとも1つの位置を基に、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の位置を判定することと、
を実行させるように構成されたプロセッサと、
を有し、
前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも前記患者の呼吸の吸気相と呼気相との間の前記1組の1つまたは複数の呼吸センサの少なくとも1つの変位の大きさを計算することを実行させるように構成され、
前記1つまたは複数のプロセッサは、前記命令を実行することで前記システムに少なくとも
前記1組の1つまたは複数の呼吸センサに対する前記1組の1つまたは複数の電磁センサの少なくとも1つの位置を判定することと、
(1)前記1組の1つまたは複数の呼吸センサに対する前記1組の1つまたは複数の電磁センサの判定された前記少なくとも1つの位置および(2)前記吸気相と前記呼気相との間の前記1組の1つまたは複数の呼吸センサの前記少なくとも1つの変位の大きさを基に、前記吸気相と前記呼気相との間の前記1組の1つまたは複数の電磁センサの少なくとも1つの位置の変位を計算することと、
前記吸気相と前記呼気相との間の前記1組の1つまたは複数の電磁センサの計算された前記少なくとも1つの位置の変位を基に、前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を判定することと
を実行させるように構成され、
前記1組の1つまたは複数の呼吸センサは、体表面の第1の位置に配置されて用いられている第1の追加の電磁センサと、前記体表面の第2の位置に配置されて用いられている第2の追加の電磁センサとを有し、前記吸気相と前記呼気相との間における、前記第1の追加の電磁センサの第1の変位の大きさが、前記第2の追加の電磁センサの第2の変位の大きさよりも大きくなるように、前記第2の位置が前記第1の位置から離れている、システム。 A system configured to navigate a patient's luminal network, comprising:
a generator configured to generate an electromagnetic field;
a set of one or more electromagnetic sensors provided at the distal end of the steerable instrument;
a set of one or more respiratory sensors;
at least one computer readable memory in which executable instructions are stored;
one or more processors in communication with the at least one computer readable memory for executing the instructions to access to the system a pre-operative model representing at least the luminal network;
accessing a registration mapping between the coordinate system of the electromagnetic field and the coordinate system of the pre-operative model;
calculating the position of at least one of the set of one or more electromagnetic sensors within the electromagnetic field based on data signals from the set of one or more electromagnetic sensors;
calculating the patient's respiration rate based on data signals from the set of one or more respiration sensors;
of the distal end of the steerable instrument relative to the pre-operative model based on the registration mapping, the respiration rate, and the position of at least one of the set of one or more electromagnetic sensors within the electromagnetic field; determining a position;
a processor configured to run
has
The one or more processors execute the instructions to instruct the system to at least displace at least one of the set of one or more respiration sensors between inspiratory and expiratory phases of respiration of the patient. configured to perform computing the magnitude of
The one or more processors execute the instructions to instruct the system to at least determine the position of at least one of the set of one or more electromagnetic sensors relative to the set of one or more respiratory sensors. and
(1) the determined at least one position of the set of one or more electromagnetic sensors relative to the set of one or more respiratory sensors; and (2) between the inspiratory phase and the expiratory phase. at least one of said set of one or more electromagnetic sensors between said inspiratory phase and said expiratory phase based on the magnitude of said at least one displacement of said set of one or more respiratory sensors; calculating a displacement of the position;
Based on the calculated displacement of the at least one position of the set of one or more electromagnetic sensors between the inspiratory phase and the expiratory phase, determining the position of the extremity; and
The set of one or more respiration sensors includes a first additional electromagnetic sensor positioned and used at a first location on the body surface and a first additional electromagnetic sensor positioned and used at a second location on the body surface. wherein a first magnitude of displacement of said first additional electromagnetic sensor between said inspiratory phase and said expiratory phase is determined by said second additional electromagnetic sensor; wherein said second position is spaced from said first position such that said second displacement magnitude of said electromagnetic sensor is greater than said first position.
前記第1の追加の電磁センサおよび前記第2の追加の電磁センサに対する前記1組の1つまたは複数の電磁センサの相対位置を判定することと、
前記1組の1つまたは複数の電磁センサの判定された前記相対位置を基に、前記第1の変位の大きさと前記第2の変位の大きさとの間を補間することと、
前記吸気相と前記呼気相との間の前記1組の1つまたは複数の電磁センサの位置の変位の前記計算を、補間された前記大きさに基づいて行うことと、
を実行させるように構成された、請求項3に記載のシステム。 The one or more processors execute the instructions to instruct the system to detect at least the set of one or more electromagnetic sensors for the first additional electromagnetic sensor and the second additional electromagnetic sensor. determining a relative position;
interpolating between the first displacement magnitude and the second displacement magnitude based on the determined relative positions of the set of one or more electromagnetic sensors;
performing the calculation of the displacement of the position of the set of one or more electromagnetic sensors between the inspiratory phase and the expiratory phase based on the interpolated magnitude;
4. The system of claim 3, wherein the system is configured to perform
計算された前記少なくとも1つの変位の大きさを基に、前記手術前モデルの少なくとも1つの位置に対する移動ベクトルを推定することと、
推定された前記移動ベクトルを基に、前記電磁場の前記座標系内の前記手術前モデルを翻訳することと、
翻訳された前記手術前モデルを基に、前記操縦可能な器具の前記遠位端の前記位置を判定することと
を実行させるように構成された、請求項3に記載のシステム。 The one or more processors estimate a motion vector for at least one position of the pre-operative model based on the at least one displacement magnitude calculated by the system by executing the instructions. and
translating the pre-operative model within the coordinate system of the electromagnetic field based on the estimated motion vector;
and determining the position of the distal end of the steerable instrument based on the translated pre-operative model.
前記第1の変位の大きさを基に、前記手術前モデルの第1の部分を第1の新しい座標に移動することと、
前記第2の変位の大きさを基に、前記手術前モデルの第2の部分を第2の新しい座標に移動することと、
を実行させるように構成された、請求項5に記載のシステム。 To translate the pre-operative model within the coordinate system of the electromagnetic field, the one or more processors execute the instructions to cause the system to: moving a first portion of the pre-operative model to first new coordinates;
moving a second portion of the pre-operative model to a second new coordinate based on the magnitude of the second displacement;
6. The system of claim 5, wherein the system is configured to perform
前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置を基に、前記操縦可能な器具の次の移動を特定することと、
前記次の移動を行うよう前記器具ドライバの作動を指示することと
を実行させるように構成された、請求項7に記載のシステム。 Execution of the instructions causes the one or more processors to instruct the system to determine at least the position of the distal end of the steerable instrument relative to the pre-operative model. identifying movement;
8. The system of claim 7, configured to: direct operation of the instrument driver to perform the next movement.
前記手術前モデルに対する前記操縦可能な器具の前記遠位端の前記位置のグラフィック表現を生成することと、
前記ディスプレイに生成された前記グラフィック表現を表示することと
を実行させるように構成された、請求項7に記載のシステム。 The system further has a display, and the one or more processors execute the instructions to provide the system with at least a graphical representation of the position of the distal end of the steerable instrument relative to the pre-operative model. and
8. The system of claim 7, configured to: display the generated graphical representation on the display.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762480257P | 2017-03-31 | 2017-03-31 | |
US62/480,257 | 2017-03-31 | ||
PCT/US2018/025218 WO2018183727A1 (en) | 2017-03-31 | 2018-03-29 | Robotic systems for navigation of luminal networks that compensate for physiological noise |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020512102A JP2020512102A (en) | 2020-04-23 |
JP2020512102A5 JP2020512102A5 (en) | 2021-05-06 |
JP7282685B2 true JP7282685B2 (en) | 2023-05-29 |
Family
ID=63672328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019553011A Active JP7282685B2 (en) | 2017-03-31 | 2018-03-29 | A robotic system for navigation of luminal networks with compensation for physiological noise |
Country Status (7)
Country | Link |
---|---|
US (2) | US11490782B2 (en) |
EP (1) | EP3600031A4 (en) |
JP (1) | JP7282685B2 (en) |
KR (1) | KR102558061B1 (en) |
CN (1) | CN108990412B (en) |
AU (1) | AU2018243364B2 (en) |
WO (1) | WO2018183727A1 (en) |
Families Citing this family (211)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8414505B1 (en) | 2001-02-15 | 2013-04-09 | Hansen Medical, Inc. | Catheter driver system |
WO2005087128A1 (en) | 2004-03-05 | 2005-09-22 | Hansen Medical, Inc. | Robotic catheter system |
JP2009500086A (en) | 2005-07-01 | 2009-01-08 | ハンセン メディカル,インク. | Robotic guide catheter system |
US9232959B2 (en) | 2007-01-02 | 2016-01-12 | Aquabeam, Llc | Multi fluid tissue resection methods and devices |
EP2259742B1 (en) | 2008-03-06 | 2020-01-01 | AquaBeam LLC | Tissue ablation and cautery with optical energy carried in fluid stream |
US8218847B2 (en) | 2008-06-06 | 2012-07-10 | Superdimension, Ltd. | Hybrid registration method |
US9254123B2 (en) | 2009-04-29 | 2016-02-09 | Hansen Medical, Inc. | Flexible and steerable elongate instruments with shape control and support elements |
US8672837B2 (en) | 2010-06-24 | 2014-03-18 | Hansen Medical, Inc. | Methods and devices for controlling a shapeable medical device |
US8827948B2 (en) | 2010-09-17 | 2014-09-09 | Hansen Medical, Inc. | Steerable catheters |
US20120191086A1 (en) | 2011-01-20 | 2012-07-26 | Hansen Medical, Inc. | System and method for endoluminal and translumenal therapy |
US9138166B2 (en) | 2011-07-29 | 2015-09-22 | Hansen Medical, Inc. | Apparatus and methods for fiber integration and registration |
US20130303944A1 (en) | 2012-05-14 | 2013-11-14 | Intuitive Surgical Operations, Inc. | Off-axis electromagnetic sensor |
US9452276B2 (en) | 2011-10-14 | 2016-09-27 | Intuitive Surgical Operations, Inc. | Catheter with removable vision probe |
EP2819599B1 (en) | 2012-02-29 | 2018-05-23 | Procept Biorobotics Corporation | Automated image-guided tissue resection and treatment |
US10383765B2 (en) | 2012-04-24 | 2019-08-20 | Auris Health, Inc. | Apparatus and method for a global coordinate system for use in robotic surgery |
US20130317519A1 (en) | 2012-05-25 | 2013-11-28 | Hansen Medical, Inc. | Low friction instrument driver interface for robotic systems |
US20140148673A1 (en) | 2012-11-28 | 2014-05-29 | Hansen Medical, Inc. | Method of anchoring pullwire directly articulatable region in catheter |
US10231867B2 (en) | 2013-01-18 | 2019-03-19 | Auris Health, Inc. | Method, apparatus and system for a water jet |
US9668814B2 (en) | 2013-03-07 | 2017-06-06 | Hansen Medical, Inc. | Infinitely rotatable tool with finite rotating drive shafts |
US10149720B2 (en) | 2013-03-08 | 2018-12-11 | Auris Health, Inc. | Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment |
US9057600B2 (en) | 2013-03-13 | 2015-06-16 | Hansen Medical, Inc. | Reducing incremental measurement sensor error |
US9566414B2 (en) | 2013-03-13 | 2017-02-14 | Hansen Medical, Inc. | Integrated catheter and guide wire controller |
US9326822B2 (en) | 2013-03-14 | 2016-05-03 | Hansen Medical, Inc. | Active drives for robotic catheter manipulators |
US9173713B2 (en) | 2013-03-14 | 2015-11-03 | Hansen Medical, Inc. | Torque-based catheter articulation |
US11213363B2 (en) | 2013-03-14 | 2022-01-04 | Auris Health, Inc. | Catheter tension sensing |
US20140277334A1 (en) | 2013-03-14 | 2014-09-18 | Hansen Medical, Inc. | Active drives for robotic catheter manipulators |
US10376672B2 (en) | 2013-03-15 | 2019-08-13 | Auris Health, Inc. | Catheter insertion system and method of fabrication |
US20140276647A1 (en) | 2013-03-15 | 2014-09-18 | Hansen Medical, Inc. | Vascular remote catheter manipulator |
US9271663B2 (en) | 2013-03-15 | 2016-03-01 | Hansen Medical, Inc. | Flexible instrument localization from both remote and elongation sensors |
US9408669B2 (en) | 2013-03-15 | 2016-08-09 | Hansen Medical, Inc. | Active drive mechanism with finite range of motion |
US10849702B2 (en) | 2013-03-15 | 2020-12-01 | Auris Health, Inc. | User input devices for controlling manipulation of guidewires and catheters |
US9014851B2 (en) | 2013-03-15 | 2015-04-21 | Hansen Medical, Inc. | Systems and methods for tracking robotically controlled medical instruments |
US9283046B2 (en) | 2013-03-15 | 2016-03-15 | Hansen Medical, Inc. | User interface for active drive apparatus with finite range of motion |
US20140276936A1 (en) | 2013-03-15 | 2014-09-18 | Hansen Medical, Inc. | Active drive mechanism for simultaneous rotation and translation |
US9629595B2 (en) | 2013-03-15 | 2017-04-25 | Hansen Medical, Inc. | Systems and methods for localizing, tracking and/or controlling medical instruments |
US9452018B2 (en) | 2013-03-15 | 2016-09-27 | Hansen Medical, Inc. | Rotational support for an elongate member |
US11020016B2 (en) | 2013-05-30 | 2021-06-01 | Auris Health, Inc. | System and method for displaying anatomy and devices on a movable display |
WO2014201165A1 (en) | 2013-06-11 | 2014-12-18 | Auris Surgical Robotics, Inc. | System for robotic assisted cataract surgery |
US10426661B2 (en) | 2013-08-13 | 2019-10-01 | Auris Health, Inc. | Method and apparatus for laser assisted cataract surgery |
CN111166274A (en) | 2013-10-24 | 2020-05-19 | 奥瑞斯健康公司 | Robotically-assisted endoluminal surgical systems and related methods |
EP2923669B1 (en) | 2014-03-24 | 2017-06-28 | Hansen Medical, Inc. | Systems and devices for catheter driving instinctiveness |
US10046140B2 (en) | 2014-04-21 | 2018-08-14 | Hansen Medical, Inc. | Devices, systems, and methods for controlling active drive systems |
US10569052B2 (en) | 2014-05-15 | 2020-02-25 | Auris Health, Inc. | Anti-buckling mechanisms for catheters |
US9561083B2 (en) | 2014-07-01 | 2017-02-07 | Auris Surgical Robotics, Inc. | Articulating flexible endoscopic tool with roll capabilities |
US10792464B2 (en) | 2014-07-01 | 2020-10-06 | Auris Health, Inc. | Tool and method for using surgical endoscope with spiral lumens |
US9744335B2 (en) | 2014-07-01 | 2017-08-29 | Auris Surgical Robotics, Inc. | Apparatuses and methods for monitoring tendons of steerable catheters |
US9633431B2 (en) | 2014-07-02 | 2017-04-25 | Covidien Lp | Fluoroscopic pose estimation |
US9603668B2 (en) | 2014-07-02 | 2017-03-28 | Covidien Lp | Dynamic 3D lung map view for tool navigation inside the lung |
KR102292155B1 (en) | 2014-09-30 | 2021-08-25 | 아우리스 헬스, 인크. | Configurable Robotic Surgical System with Virtual Rail and Flexible Endoscope |
US10499999B2 (en) | 2014-10-09 | 2019-12-10 | Auris Health, Inc. | Systems and methods for aligning an elongate member with an access site |
US10314463B2 (en) | 2014-10-24 | 2019-06-11 | Auris Health, Inc. | Automated endoscope calibration |
US9986983B2 (en) | 2014-10-31 | 2018-06-05 | Covidien Lp | Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same |
US11819636B2 (en) | 2015-03-30 | 2023-11-21 | Auris Health, Inc. | Endoscope pull wire electrical circuit |
US20160287279A1 (en) | 2015-04-01 | 2016-10-06 | Auris Surgical Robotics, Inc. | Microsurgical tool for robotic applications |
WO2016164824A1 (en) | 2015-04-09 | 2016-10-13 | Auris Surgical Robotics, Inc. | Surgical system with configurable rail-mounted mechanical arms |
WO2016187054A1 (en) | 2015-05-15 | 2016-11-24 | Auris Surgical Robotics, Inc. | Surgical robotics system |
US10674982B2 (en) | 2015-08-06 | 2020-06-09 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10702226B2 (en) | 2015-08-06 | 2020-07-07 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10716525B2 (en) | 2015-08-06 | 2020-07-21 | Covidien Lp | System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction |
JP6938507B2 (en) | 2015-09-09 | 2021-09-22 | オーリス ヘルス インコーポレイテッド | Instrument device manipulator for surgical support robot system |
EP3349649B1 (en) | 2015-09-18 | 2022-03-09 | Auris Health, Inc. | Navigation of tubular networks |
US9949749B2 (en) | 2015-10-30 | 2018-04-24 | Auris Surgical Robotics, Inc. | Object capture with a basket |
US9955986B2 (en) | 2015-10-30 | 2018-05-01 | Auris Surgical Robotics, Inc. | Basket apparatus |
US10231793B2 (en) | 2015-10-30 | 2019-03-19 | Auris Health, Inc. | Object removal through a percutaneous suction tube |
US10143526B2 (en) | 2015-11-30 | 2018-12-04 | Auris Health, Inc. | Robot-assisted driving systems and methods |
US10932861B2 (en) | 2016-01-14 | 2021-03-02 | Auris Health, Inc. | Electromagnetic tracking surgical system and method of controlling the same |
US10932691B2 (en) | 2016-01-26 | 2021-03-02 | Auris Health, Inc. | Surgical tools having electromagnetic tracking components |
US11324554B2 (en) | 2016-04-08 | 2022-05-10 | Auris Health, Inc. | Floating electromagnetic field generator system and method of controlling the same |
US10454347B2 (en) | 2016-04-29 | 2019-10-22 | Auris Health, Inc. | Compact height torque sensing articulation axis assembly |
US11037464B2 (en) | 2016-07-21 | 2021-06-15 | Auris Health, Inc. | System with emulator movement tracking for controlling medical devices |
US10463439B2 (en) | 2016-08-26 | 2019-11-05 | Auris Health, Inc. | Steerable catheter with shaft load distributions |
US11241559B2 (en) | 2016-08-29 | 2022-02-08 | Auris Health, Inc. | Active drive for guidewire manipulation |
CN109069138B (en) | 2016-08-31 | 2021-07-20 | 奥瑞斯健康公司 | Length-conservative surgical instrument |
US9931025B1 (en) | 2016-09-30 | 2018-04-03 | Auris Surgical Robotics, Inc. | Automated calibration of endoscopes with pull wires |
US10136959B2 (en) | 2016-12-28 | 2018-11-27 | Auris Health, Inc. | Endolumenal object sizing |
US10244926B2 (en) | 2016-12-28 | 2019-04-02 | Auris Health, Inc. | Detecting endolumenal buckling of flexible instruments |
US10543048B2 (en) | 2016-12-28 | 2020-01-28 | Auris Health, Inc. | Flexible instrument insertion using an adaptive insertion force threshold |
CA3028792C (en) * | 2017-02-15 | 2024-03-12 | Synaptive Medical (Barbados) Inc. | Sensored surgical tool and surgical intraoperative tracking and imaging system incorporating same |
US11793579B2 (en) | 2017-02-22 | 2023-10-24 | Covidien Lp | Integration of multiple data sources for localization and navigation |
AU2018244318B2 (en) | 2017-03-28 | 2023-11-16 | Auris Health, Inc. | Shaft actuating handle |
WO2018183727A1 (en) | 2017-03-31 | 2018-10-04 | Auris Health, Inc. | Robotic systems for navigation of luminal networks that compensate for physiological noise |
US10285574B2 (en) | 2017-04-07 | 2019-05-14 | Auris Health, Inc. | Superelastic medical instrument |
KR20230106716A (en) | 2017-04-07 | 2023-07-13 | 아우리스 헬스, 인코포레이티드 | Patient introducer alignment |
JP2020520691A (en) | 2017-05-12 | 2020-07-16 | オーリス ヘルス インコーポレイテッド | Biopsy devices and systems |
CN110769736B (en) | 2017-05-17 | 2023-01-13 | 奥瑞斯健康公司 | Replaceable working channel |
US10022192B1 (en) | 2017-06-23 | 2018-07-17 | Auris Health, Inc. | Automatically-initialized robotic systems for navigation of luminal networks |
EP3645100A4 (en) | 2017-06-28 | 2021-03-17 | Auris Health, Inc. | Instrument insertion compensation |
US11026758B2 (en) | 2017-06-28 | 2021-06-08 | Auris Health, Inc. | Medical robotics systems implementing axis constraints during actuation of one or more motorized joints |
CN116725667A (en) | 2017-06-28 | 2023-09-12 | 奥瑞斯健康公司 | System for providing positioning information and method for positioning an instrument within an anatomical structure |
KR102578978B1 (en) | 2017-06-28 | 2023-09-19 | 아우리스 헬스, 인코포레이티드 | Electromagnetic distortion detection |
US10699448B2 (en) | 2017-06-29 | 2020-06-30 | Covidien Lp | System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data |
US10426559B2 (en) | 2017-06-30 | 2019-10-01 | Auris Health, Inc. | Systems and methods for medical instrument compression compensation |
US10464209B2 (en) | 2017-10-05 | 2019-11-05 | Auris Health, Inc. | Robotic system with indication of boundary for robotic arm |
US10016900B1 (en) | 2017-10-10 | 2018-07-10 | Auris Health, Inc. | Surgical robotic arm admittance control |
US10145747B1 (en) | 2017-10-10 | 2018-12-04 | Auris Health, Inc. | Detection of undesirable forces on a surgical robotic arm |
US10893843B2 (en) | 2017-10-10 | 2021-01-19 | Covidien Lp | System and method for identifying and marking a target in a fluoroscopic three-dimensional reconstruction |
US11058493B2 (en) | 2017-10-13 | 2021-07-13 | Auris Health, Inc. | Robotic system configured for navigation path tracing |
US10555778B2 (en) | 2017-10-13 | 2020-02-11 | Auris Health, Inc. | Image-based branch detection and mapping for navigation |
KR102645922B1 (en) | 2017-12-06 | 2024-03-13 | 아우리스 헬스, 인코포레이티드 | Systems and methods for correcting non-directed instrument rolls |
JP7208237B2 (en) | 2017-12-08 | 2023-01-18 | オーリス ヘルス インコーポレイテッド | Systems and medical devices for performing medical procedures |
CN110831534B (en) | 2017-12-08 | 2023-04-28 | 奥瑞斯健康公司 | System and method for medical instrument navigation and targeting |
EP3723655A4 (en) | 2017-12-11 | 2021-09-08 | Auris Health, Inc. | Systems and methods for instrument based insertion architectures |
KR20200100613A (en) | 2017-12-14 | 2020-08-26 | 아우리스 헬스, 인코포레이티드 | System and method for estimating instrument position |
US11160615B2 (en) | 2017-12-18 | 2021-11-02 | Auris Health, Inc. | Methods and systems for instrument tracking and navigation within luminal networks |
WO2019143458A1 (en) | 2018-01-17 | 2019-07-25 | Auris Health, Inc. | Surgical robotics systems with improved robotic arms |
USD873878S1 (en) | 2018-01-17 | 2020-01-28 | Auris Health, Inc. | Robotic arm |
MX2020007623A (en) | 2018-01-17 | 2020-09-14 | Auris Health Inc | Surgical platform with adjustable arm supports. |
USD924410S1 (en) | 2018-01-17 | 2021-07-06 | Auris Health, Inc. | Instrument tower |
USD901018S1 (en) | 2018-01-17 | 2020-11-03 | Auris Health, Inc. | Controller |
USD932628S1 (en) | 2018-01-17 | 2021-10-05 | Auris Health, Inc. | Instrument cart |
USD901694S1 (en) | 2018-01-17 | 2020-11-10 | Auris Health, Inc. | Instrument handle |
US10905498B2 (en) | 2018-02-08 | 2021-02-02 | Covidien Lp | System and method for catheter detection in fluoroscopic images and updating displayed position of catheter |
US10930064B2 (en) | 2018-02-08 | 2021-02-23 | Covidien Lp | Imaging reconstruction system and method |
US10893842B2 (en) | 2018-02-08 | 2021-01-19 | Covidien Lp | System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target |
CN116370084A (en) | 2018-02-13 | 2023-07-04 | 奥瑞斯健康公司 | System and method for driving a medical instrument |
JP7214747B2 (en) * | 2018-03-28 | 2023-01-30 | オーリス ヘルス インコーポレイテッド | System and method for position sensor alignment |
US10827913B2 (en) | 2018-03-28 | 2020-11-10 | Auris Health, Inc. | Systems and methods for displaying estimated location of instrument |
CN117017505A (en) | 2018-03-28 | 2023-11-10 | 奥瑞斯健康公司 | Composite instrument and robotic system |
WO2019216896A1 (en) * | 2018-05-10 | 2019-11-14 | Siemens Medical Solutions Usa, Inc. | Visual indicator system for patient bed |
KR20210010871A (en) | 2018-05-18 | 2021-01-28 | 아우리스 헬스, 인코포레이티드 | Controller for robotic remote operation system |
KR102499906B1 (en) | 2018-05-30 | 2023-02-16 | 아우리스 헬스, 인코포레이티드 | System and Method for Position Sensor-Based Branch Prediction |
KR102455671B1 (en) | 2018-05-31 | 2022-10-20 | 아우리스 헬스, 인코포레이티드 | Image-Based Airway Analysis and Mapping |
WO2019231891A1 (en) | 2018-05-31 | 2019-12-05 | Auris Health, Inc. | Path-based navigation of tubular networks |
KR102567087B1 (en) | 2018-05-31 | 2023-08-17 | 아우리스 헬스, 인코포레이티드 | Robotic systems and methods for navigation of luminal networks detecting physiological noise |
CN112218596A (en) | 2018-06-07 | 2021-01-12 | 奥瑞斯健康公司 | Robotic medical system with high-force instruments |
US10667875B2 (en) | 2018-06-27 | 2020-06-02 | Auris Health, Inc. | Systems and techniques for providing multiple perspectives during medical procedures |
JP7366943B2 (en) | 2018-06-27 | 2023-10-23 | オーリス ヘルス インコーポレイテッド | Alignment and mounting system for medical devices |
KR20210024484A (en) | 2018-06-28 | 2021-03-05 | 아우리스 헬스, 인코포레이티드 | Medical system with integrated pulley sharing |
US11705238B2 (en) | 2018-07-26 | 2023-07-18 | Covidien Lp | Systems and methods for providing assistance during surgery |
US11071591B2 (en) | 2018-07-26 | 2021-07-27 | Covidien Lp | Modeling a collapsed lung using CT data |
CN112804946A (en) | 2018-08-07 | 2021-05-14 | 奥瑞斯健康公司 | Combining strain-based shape sensing with catheter control |
US10828118B2 (en) | 2018-08-15 | 2020-11-10 | Auris Health, Inc. | Medical instruments for tissue cauterization |
EP3806758A4 (en) | 2018-08-17 | 2022-04-06 | Auris Health, Inc. | Bipolar medical instrument |
AU2019326548B2 (en) | 2018-08-24 | 2023-11-23 | Auris Health, Inc. | Manually and robotically controllable medical instruments |
MX2021003099A (en) | 2018-09-17 | 2021-05-13 | Auris Health Inc | Systems and methods for concomitant medical procedures. |
WO2020068853A2 (en) | 2018-09-26 | 2020-04-02 | Auris Health, Inc. | Articulating medical instruments |
WO2020068303A1 (en) | 2018-09-26 | 2020-04-02 | Auris Health, Inc. | Systems and instruments for suction and irrigation |
US11944388B2 (en) | 2018-09-28 | 2024-04-02 | Covidien Lp | Systems and methods for magnetic interference correction |
EP3856001A4 (en) | 2018-09-28 | 2022-06-22 | Auris Health, Inc. | Devices, systems, and methods for manually and robotically driving medical instruments |
KR20210073542A (en) | 2018-09-28 | 2021-06-18 | 아우리스 헬스, 인코포레이티드 | Systems and methods for docking medical instruments |
EP3860426A4 (en) * | 2018-10-02 | 2022-12-07 | Convergascent LLC | Endoscope with inertial measurement units and/or haptic input controls |
US11576738B2 (en) | 2018-10-08 | 2023-02-14 | Auris Health, Inc. | Systems and instruments for tissue sealing |
US11877806B2 (en) | 2018-12-06 | 2024-01-23 | Covidien Lp | Deformable registration of computer-generated airway models to airway trees |
US11045075B2 (en) | 2018-12-10 | 2021-06-29 | Covidien Lp | System and method for generating a three-dimensional model of a surgical site |
US11617493B2 (en) | 2018-12-13 | 2023-04-04 | Covidien Lp | Thoracic imaging, distance measuring, surgical awareness, and notification system and method |
US11801113B2 (en) | 2018-12-13 | 2023-10-31 | Covidien Lp | Thoracic imaging, distance measuring, and notification system and method |
EP3866718A4 (en) | 2018-12-20 | 2022-07-20 | Auris Health, Inc. | Systems and methods for robotic arm alignment and docking |
EP3870075A4 (en) | 2018-12-20 | 2022-08-03 | Auris Health, Inc. | Shielding for wristed instruments |
WO2020140072A1 (en) | 2018-12-28 | 2020-07-02 | Auris Health, Inc. | Percutaneous sheath for robotic medical systems and methods |
US11986257B2 (en) | 2018-12-28 | 2024-05-21 | Auris Health, Inc. | Medical instrument with articulable segment |
US11357593B2 (en) | 2019-01-10 | 2022-06-14 | Covidien Lp | Endoscopic imaging with augmented parallax |
US11589913B2 (en) | 2019-01-25 | 2023-02-28 | Auris Health, Inc. | Vessel sealer with heating and cooling capabilities |
US11625825B2 (en) | 2019-01-30 | 2023-04-11 | Covidien Lp | Method for displaying tumor location within endoscopic images |
US11925333B2 (en) | 2019-02-01 | 2024-03-12 | Covidien Lp | System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network |
US11564751B2 (en) | 2019-02-01 | 2023-01-31 | Covidien Lp | Systems and methods for visualizing navigation of medical devices relative to targets |
US11744643B2 (en) | 2019-02-04 | 2023-09-05 | Covidien Lp | Systems and methods facilitating pre-operative prediction of post-operative tissue function |
EP3890644A4 (en) | 2019-02-08 | 2022-11-16 | Auris Health, Inc. | Robotically controlled clot manipulation and removal |
WO2020172394A1 (en) | 2019-02-22 | 2020-08-27 | Auris Health, Inc. | Surgical platform with motorized arms for adjustable arm supports |
WO2020185516A1 (en) | 2019-03-08 | 2020-09-17 | Auris Health, Inc. | Tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and |
CN113613580A (en) | 2019-03-22 | 2021-11-05 | 奥瑞斯健康公司 | System and method for aligning inputs on a medical instrument |
WO2020197625A1 (en) | 2019-03-25 | 2020-10-01 | Auris Health, Inc. | Systems and methods for medical stapling |
US11617627B2 (en) | 2019-03-29 | 2023-04-04 | Auris Health, Inc. | Systems and methods for optical strain sensing in medical instruments |
US11819285B2 (en) | 2019-04-05 | 2023-11-21 | Covidien Lp | Magnetic interference detection systems and methods |
WO2020210044A1 (en) | 2019-04-08 | 2020-10-15 | Auris Health, Inc. | Systems, methods, and workflows for concomitant procedures |
WO2020214970A1 (en) * | 2019-04-17 | 2020-10-22 | University Of Pittsburgh - Of The Commonwealth System Of Higher Education | Endovascular orifice detection for fenestrated stent graft deployment |
US20200375665A1 (en) * | 2019-05-31 | 2020-12-03 | Canon U.S.A., Inc. | Medical continuum robot and methods thereof |
WO2020263629A1 (en) | 2019-06-27 | 2020-12-30 | Auris Health, Inc. | Systems and methods for a medical clip applier |
US11872007B2 (en) | 2019-06-28 | 2024-01-16 | Auris Health, Inc. | Console overlay and methods of using same |
EP3989863A4 (en) | 2019-06-28 | 2023-10-11 | Auris Health, Inc. | Medical instruments including wrists with hybrid redirect surfaces |
US11653988B2 (en) | 2019-07-29 | 2023-05-23 | Verb Surgical Inc. | Mitigating electromagnetic field distortion for a surgical robotic system |
US11576561B2 (en) * | 2019-08-08 | 2023-02-14 | Ankon Medical Technologies (Shanghai) Co., Ltd. | Control method, control device, storage medium, and electronic device for magnetic capsule |
USD978348S1 (en) | 2019-08-15 | 2023-02-14 | Auris Health, Inc. | Drive device for a medical instrument |
JP2022544554A (en) | 2019-08-15 | 2022-10-19 | オーリス ヘルス インコーポレイテッド | Medical device with multiple bends |
US11246672B2 (en) | 2019-08-15 | 2022-02-15 | Auris Health, Inc. | Axial motion drive devices, systems, and methods for a robotic medical system |
USD975275S1 (en) | 2019-08-15 | 2023-01-10 | Auris Health, Inc. | Handle for a medical instrument |
US11896330B2 (en) | 2019-08-15 | 2024-02-13 | Auris Health, Inc. | Robotic medical system having multiple medical instruments |
US11269173B2 (en) | 2019-08-19 | 2022-03-08 | Covidien Lp | Systems and methods for displaying medical video images and/or medical 3D models |
CN114340542B (en) | 2019-08-30 | 2023-07-21 | 奥瑞斯健康公司 | Systems and methods for weight-based registration of position sensors |
US11147633B2 (en) | 2019-08-30 | 2021-10-19 | Auris Health, Inc. | Instrument image reliability systems and methods |
WO2021044297A1 (en) | 2019-09-03 | 2021-03-11 | Auris Health, Inc. | Electromagnetic distortion detection and compensation |
US11864935B2 (en) | 2019-09-09 | 2024-01-09 | Covidien Lp | Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures |
US11931111B2 (en) * | 2019-09-09 | 2024-03-19 | Covidien Lp | Systems and methods for providing surgical guidance |
CN114375182A (en) | 2019-09-10 | 2022-04-19 | 奥瑞斯健康公司 | System and method for kinematic optimization using shared robot degrees of freedom |
US11627924B2 (en) | 2019-09-24 | 2023-04-18 | Covidien Lp | Systems and methods for image-guided navigation of percutaneously-inserted devices |
EP4034349A1 (en) | 2019-09-26 | 2022-08-03 | Auris Health, Inc. | Systems and methods for collision detection and avoidance |
US11737845B2 (en) | 2019-09-30 | 2023-08-29 | Auris Inc. | Medical instrument with a capstan |
US11737835B2 (en) | 2019-10-29 | 2023-08-29 | Auris Health, Inc. | Braid-reinforced insulation sheath |
US20210169583A1 (en) * | 2019-12-04 | 2021-06-10 | Covidien Lp | Method for maintaining localization of distal catheter tip to target during ventilation and/or cardiac cycles |
WO2021126447A1 (en) * | 2019-12-19 | 2021-06-24 | Covidien Lp | Systems and methods for mitigating collision of a robotic system |
AU2020408068A1 (en) | 2019-12-19 | 2022-07-28 | Noah Medical Corporation | Systems and methods for robotic bronchoscopy navigation |
WO2021137104A1 (en) | 2019-12-31 | 2021-07-08 | Auris Health, Inc. | Dynamic pulley system |
KR20220123273A (en) | 2019-12-31 | 2022-09-06 | 아우리스 헬스, 인코포레이티드 | Anatomical feature identification and targeting |
KR20220123269A (en) | 2019-12-31 | 2022-09-06 | 아우리스 헬스, 인코포레이티드 | Advanced basket drive mode |
CN114901192A (en) | 2019-12-31 | 2022-08-12 | 奥瑞斯健康公司 | Alignment technique for percutaneous access |
KR20220123087A (en) | 2019-12-31 | 2022-09-05 | 아우리스 헬스, 인코포레이티드 | Alignment interface for transdermal access |
US11380060B2 (en) | 2020-01-24 | 2022-07-05 | Covidien Lp | System and method for linking a segmentation graph to volumetric data |
US11847730B2 (en) | 2020-01-24 | 2023-12-19 | Covidien Lp | Orientation detection in fluoroscopic images |
US11087557B1 (en) * | 2020-06-03 | 2021-08-10 | Tovy Kamine | Methods and systems for remote augmented reality communication for guided surgery |
US20210393344A1 (en) * | 2020-06-22 | 2021-12-23 | Auris Health, Inc. | Control scheme calibration for medical instruments |
WO2022003485A1 (en) | 2020-06-29 | 2022-01-06 | Auris Health, Inc. | Systems and methods for detecting contact between a link and an external object |
EP4171428A1 (en) | 2020-06-30 | 2023-05-03 | Auris Health, Inc. | Robotic medical system with collision proximity indicators |
US11357586B2 (en) | 2020-06-30 | 2022-06-14 | Auris Health, Inc. | Systems and methods for saturated robotic movement |
US11950950B2 (en) | 2020-07-24 | 2024-04-09 | Covidien Lp | Zoom detection and fluoroscope movement detection for target overlay |
JP2023538772A (en) * | 2020-08-26 | 2023-09-11 | オーリス ヘルス インコーポレイテッド | Robot controllable electromagnetic field generator |
CN112641514B (en) * | 2020-12-17 | 2022-10-18 | 杭州堃博生物科技有限公司 | Minimally invasive interventional navigation system and method |
CN113116524B (en) * | 2020-12-31 | 2023-05-05 | 上海市胸科医院 | Detection compensation method, device, navigation processing method, device and navigation system |
US11957302B2 (en) * | 2021-05-24 | 2024-04-16 | Verily Life Sciences Llc | User-interface for visualization of endoscopy procedures |
US20230053189A1 (en) * | 2021-08-11 | 2023-02-16 | Terumo Cardiovascular Systems Corporation | Augmented-reality endoscopic vessel harvesting |
CN113971659B (en) * | 2021-09-14 | 2022-08-26 | 杭州微引科技有限公司 | Respiratory gating system for percutaneous lung and abdominal puncture |
US11967073B2 (en) * | 2022-03-15 | 2024-04-23 | Avatar Medical | Method for displaying a 3D model of a patient |
WO2024081745A2 (en) * | 2022-10-14 | 2024-04-18 | Canon U.S.A., Inc. | Localization and targeting of small pulmonary lesions |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001000448A (en) | 1999-06-21 | 2001-01-09 | Hitachi Ltd | Apparatus for surgiacl operation |
US20040097806A1 (en) | 2002-11-19 | 2004-05-20 | Mark Hunter | Navigation system for cardiac therapies |
US20080300478A1 (en) | 2007-05-30 | 2008-12-04 | General Electric Company | System and method for displaying real-time state of imaged anatomy during a surgical procedure |
US20120059248A1 (en) | 2010-08-20 | 2012-03-08 | Troy Holsing | Apparatus and method for airway registration and navigation |
US20120172712A1 (en) | 2010-12-29 | 2012-07-05 | Bar-Tal Meir | Respiratory effect reduction in catheter position sensing |
US20150265368A1 (en) | 2014-03-24 | 2015-09-24 | Intuitive Surgical Operations, Inc. | Systems and Methods for Anatomic Motion Compensation |
Family Cites Families (395)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1063914A (en) | 1911-12-16 | 1913-06-03 | Albertus Allen Hilton | Shingle-cutting machine. |
US4745908A (en) | 1987-05-08 | 1988-05-24 | Circon Corporation | Inspection instrument fexible shaft having deflection compensation means |
JP2750201B2 (en) | 1990-04-13 | 1998-05-13 | オリンパス光学工業株式会社 | Endoscope insertion state detection device |
US5550953A (en) | 1994-04-20 | 1996-08-27 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | On-line method and apparatus for coordinated mobility and manipulation of mobile robots |
US5603318A (en) | 1992-04-21 | 1997-02-18 | University Of Utah Research Foundation | Apparatus and method for photogrammetric surgical localization |
US5526812A (en) | 1993-06-21 | 1996-06-18 | General Electric Company | Display system for enhancing visualization of body structures during medical procedures |
US6059718A (en) | 1993-10-18 | 2000-05-09 | Olympus Optical Co., Ltd. | Endoscope form detecting apparatus in which coil is fixedly mounted by insulating member so that form is not deformed within endoscope |
DE29521895U1 (en) | 1994-10-07 | 1998-09-10 | St. Louis University, St. Louis, Mo. | Surgical navigation system comprising reference and localization frames |
US6690963B2 (en) | 1995-01-24 | 2004-02-10 | Biosense, Inc. | System for determining the location and orientation of an invasive medical instrument |
US6246898B1 (en) | 1995-03-28 | 2001-06-12 | Sonometrics Corporation | Method for carrying out a medical procedure using a three-dimensional tracking and imaging system |
CA2231425A1 (en) | 1995-09-20 | 1997-03-27 | Texas Heart Institute | Detecting thermal discrepancies in vessel walls |
AU711668B2 (en) | 1996-02-15 | 1999-10-21 | Biosense, Inc. | Precise position determination of endoscopes |
IL125757A (en) | 1996-02-15 | 2003-09-17 | Biosense Inc | Medical procedures and apparatus using intrabody probes |
US6063095A (en) | 1996-02-20 | 2000-05-16 | Computer Motion, Inc. | Method and apparatus for performing minimally invasive surgical procedures |
US6047080A (en) | 1996-06-19 | 2000-04-04 | Arch Development Corporation | Method and apparatus for three-dimensional reconstruction of coronary vessels from angiographic images |
US5831614A (en) | 1996-07-01 | 1998-11-03 | Sun Microsystems, Inc. | X-Y viewport scroll using location of display with respect to a point |
EP0918491B1 (en) | 1997-01-24 | 2003-06-04 | Koninklijke Philips Electronics N.V. | Image display system |
US6246784B1 (en) | 1997-08-19 | 2001-06-12 | The United States Of America As Represented By The Department Of Health And Human Services | Method for segmenting medical images and detecting surface anomalies in anatomical structures |
US6810281B2 (en) | 2000-12-21 | 2004-10-26 | Endovia Medical, Inc. | Medical mapping system |
FR2779339B1 (en) | 1998-06-09 | 2000-10-13 | Integrated Surgical Systems Sa | MATCHING METHOD AND APPARATUS FOR ROBOTIC SURGERY, AND MATCHING DEVICE COMPRISING APPLICATION |
US6425865B1 (en) | 1998-06-12 | 2002-07-30 | The University Of British Columbia | Robotically assisted medical ultrasound |
WO2000028882A2 (en) | 1998-11-18 | 2000-05-25 | Microdexterity Systems, Inc. | Medical manipulator for use with an imaging device |
US6493608B1 (en) | 1999-04-07 | 2002-12-10 | Intuitive Surgical, Inc. | Aspects of a control system of a minimally invasive surgical apparatus |
DE19900117A1 (en) | 1999-01-05 | 2000-07-06 | Walter Ag | Virtual teach-in system |
US6501981B1 (en) * | 1999-03-16 | 2002-12-31 | Accuray, Inc. | Apparatus and method for compensating for respiratory and patient motions during treatment |
US6594552B1 (en) | 1999-04-07 | 2003-07-15 | Intuitive Surgical, Inc. | Grip strength with tactile feedback for robotic surgery |
US7386339B2 (en) | 1999-05-18 | 2008-06-10 | Mediguide Ltd. | Medical imaging and navigation system |
US9572519B2 (en) | 1999-05-18 | 2017-02-21 | Mediguide Ltd. | Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors |
FI114282B (en) * | 1999-11-05 | 2004-09-30 | Polar Electro Oy | Method, Arrangement and Heart Rate Monitor for Heartbeat Detection |
US6466198B1 (en) | 1999-11-05 | 2002-10-15 | Innoventions, Inc. | View navigation and magnification of a hand-held device with a display |
US6755797B1 (en) | 1999-11-29 | 2004-06-29 | Bowles Fluidics Corporation | Method and apparatus for producing oscillation of a bladder |
US7747312B2 (en) | 2000-01-04 | 2010-06-29 | George Mason Intellectual Properties, Inc. | System and method for automatic shape registration and instrument tracking |
DE10011790B4 (en) | 2000-03-13 | 2005-07-14 | Siemens Ag | Medical instrument for insertion into an examination subject, and medical examination or treatment device |
US7181289B2 (en) | 2000-03-20 | 2007-02-20 | Pflueger D Russell | Epidural nerve root access catheter and treatment methods |
DE10025285A1 (en) | 2000-05-22 | 2001-12-06 | Siemens Ag | Fully automatic, robot-assisted camera guidance using position sensors for laparoscopic interventions |
DE10033723C1 (en) | 2000-07-12 | 2002-02-21 | Siemens Ag | Surgical instrument position and orientation visualization device for surgical operation has data representing instrument position and orientation projected onto surface of patient's body |
US6865498B2 (en) | 2001-11-30 | 2005-03-08 | Thermwood Corporation | System for calibrating the axes on a computer numeric controlled machining system and method thereof |
US6812842B2 (en) | 2001-12-20 | 2004-11-02 | Calypso Medical Technologies, Inc. | System for excitation of a leadless miniature marker |
WO2003077101A2 (en) | 2002-03-06 | 2003-09-18 | Z-Kat, Inc. | System and method for using a haptic device in combination with a computer-assisted surgery system |
DE10210646A1 (en) | 2002-03-11 | 2003-10-09 | Siemens Ag | Method for displaying a medical instrument brought into an examination area of a patient |
US20050256398A1 (en) | 2004-05-12 | 2005-11-17 | Hastings Roger N | Systems and methods for interventional medicine |
US7998062B2 (en) | 2004-03-29 | 2011-08-16 | Superdimension, Ltd. | Endoscope structures and techniques for navigating to a target in branched structure |
ES2865048T3 (en) | 2002-04-17 | 2021-10-14 | Covidien Lp | Endoscope frames for navigating to a target in a branched frame |
AU2003247338A1 (en) | 2002-04-25 | 2003-11-10 | The John Hopkins University | Robot for computed tomography interventions |
WO2003101300A2 (en) | 2002-06-04 | 2003-12-11 | Koninklijke Philips Electronics N.V. | Rotational angiography based hybrid 3-d reconstruction of coronary arterial structure |
US8838205B2 (en) | 2002-06-17 | 2014-09-16 | Mazor Robotics Ltd. | Robotic method for use with orthopedic inserts |
AU2003246906A1 (en) | 2002-06-25 | 2004-01-06 | Michael Nicholas Dalton | Apparatus and method for superimposing images over an object |
KR100449765B1 (en) | 2002-10-12 | 2004-09-22 | 삼성에스디아이 주식회사 | Lithium metal anode for lithium battery |
US6899672B2 (en) | 2002-11-08 | 2005-05-31 | Scimed Life Systems, Inc. | Endoscopic imaging system including removable deflection device |
EP1570431B1 (en) | 2002-11-13 | 2015-07-01 | Koninklijke Philips N.V. | Medical viewing system and method for detecting boundary structures |
US7697972B2 (en) * | 2002-11-19 | 2010-04-13 | Medtronic Navigation, Inc. | Navigation system for cardiac therapies |
US20040186349A1 (en) | 2002-12-24 | 2004-09-23 | Usgi Medical Corp. | Apparatus and methods for achieving endoluminal access |
FR2852226B1 (en) | 2003-03-10 | 2005-07-15 | Univ Grenoble 1 | LOCALIZED MEDICAL INSTRUMENT WITH ORIENTABLE SCREEN |
US7203277B2 (en) | 2003-04-25 | 2007-04-10 | Brainlab Ag | Visualization device and method for combined patient and object image data |
US7822461B2 (en) | 2003-07-11 | 2010-10-26 | Siemens Medical Solutions Usa, Inc. | System and method for endoscopic path planning |
EP2316328B1 (en) | 2003-09-15 | 2012-05-09 | Super Dimension Ltd. | Wrap-around holding device for use with bronchoscopes |
US7835778B2 (en) | 2003-10-16 | 2010-11-16 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation of a multiple piece construct for implantation |
EP1691666B1 (en) | 2003-12-12 | 2012-05-30 | University of Washington | Catheterscope 3d guidance and interface system |
JP2005192632A (en) | 2003-12-26 | 2005-07-21 | Olympus Corp | Subject interior moving state detecting system |
US8021301B2 (en) | 2003-12-26 | 2011-09-20 | Fujifilm Corporation | Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program |
US20050193451A1 (en) | 2003-12-30 | 2005-09-01 | Liposonix, Inc. | Articulating arm for medical procedures |
CA2555473A1 (en) | 2004-02-17 | 2005-09-01 | Traxtal Technologies Inc. | Method and apparatus for registration, verification, and referencing of internal organs |
US7974681B2 (en) | 2004-03-05 | 2011-07-05 | Hansen Medical, Inc. | Robotic catheter system |
WO2005087128A1 (en) | 2004-03-05 | 2005-09-22 | Hansen Medical, Inc. | Robotic catheter system |
US7811294B2 (en) | 2004-03-08 | 2010-10-12 | Mediguide Ltd. | Automatic guidewire maneuvering system and method |
US7922650B2 (en) | 2004-03-23 | 2011-04-12 | Boston Scientific Scimed, Inc. | Medical visualization system with endoscope and mounted catheter |
EP1731093B1 (en) | 2004-03-29 | 2013-01-09 | Olympus Corporation | System for detecting position in examinee |
US20070208252A1 (en) | 2004-04-21 | 2007-09-06 | Acclarent, Inc. | Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses |
US7462175B2 (en) | 2004-04-21 | 2008-12-09 | Acclarent, Inc. | Devices, systems and methods for treating disorders of the ear, nose and throat |
US7720521B2 (en) | 2004-04-21 | 2010-05-18 | Acclarent, Inc. | Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses |
US8155403B2 (en) | 2004-05-05 | 2012-04-10 | University Of Iowa Research Foundation | Methods and devices for airway tree labeling and/or matching |
US7632265B2 (en) | 2004-05-28 | 2009-12-15 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Radio frequency ablation servo catheter and method |
US20060209019A1 (en) | 2004-06-01 | 2006-09-21 | Energid Technologies Corporation | Magnetic haptic feedback systems and methods for virtual reality environments |
US7772541B2 (en) | 2004-07-16 | 2010-08-10 | Luna Innnovations Incorporated | Fiber optic position and/or shape sensing based on rayleigh scatter |
US20060025668A1 (en) | 2004-08-02 | 2006-02-02 | Peterson Thomas H | Operating table with embedded tracking technology |
US7536216B2 (en) | 2004-10-18 | 2009-05-19 | Siemens Medical Solutions Usa, Inc. | Method and system for virtual endoscopy with guidance for biopsy |
US9049954B2 (en) | 2004-11-03 | 2015-06-09 | Cambridge International, Inc. | Hanger bar assembly for architectural mesh and the like |
EP1816945B1 (en) | 2004-11-23 | 2019-08-21 | PneumRx, Inc. | Steerable device for accessing a target site |
WO2006078678A2 (en) * | 2005-01-18 | 2006-07-27 | Traxtal Inc. | Method and apparatus for guiding an instrument to a target in the lung |
US8335357B2 (en) | 2005-03-04 | 2012-12-18 | Kabushiki Kaisha Toshiba | Image processing apparatus |
US20060258935A1 (en) | 2005-05-12 | 2006-11-16 | John Pile-Spellman | System for autonomous robotic navigation |
US10555775B2 (en) | 2005-05-16 | 2020-02-11 | Intuitive Surgical Operations, Inc. | Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery |
US7889905B2 (en) | 2005-05-23 | 2011-02-15 | The Penn State Research Foundation | Fast 3D-2D image registration method with application to continuously guided endoscopy |
US7756563B2 (en) | 2005-05-23 | 2010-07-13 | The Penn State Research Foundation | Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy |
JP4813190B2 (en) | 2005-05-26 | 2011-11-09 | オリンパスメディカルシステムズ株式会社 | Capsule medical device |
GB2428110A (en) | 2005-07-06 | 2007-01-17 | Armstrong Healthcare Ltd | A robot and method of registering a robot. |
US20070123748A1 (en) | 2005-07-14 | 2007-05-31 | Dwight Meglan | Robot for minimally invasive interventions |
US8583220B2 (en) | 2005-08-02 | 2013-11-12 | Biosense Webster, Inc. | Standardization of catheter-based treatment for atrial fibrillation |
EP2158940A3 (en) | 2005-08-11 | 2010-06-02 | Navotek Medical Ltd. | Medical treatment system and method using radioactivity based position sensor |
US8657814B2 (en) | 2005-08-22 | 2014-02-25 | Medtronic Ablation Frontiers Llc | User interface for tissue ablation system |
US9661991B2 (en) | 2005-08-24 | 2017-05-30 | Koninklijke Philips N.V. | System, method and devices for navigated flexible endoscopy |
US20070066881A1 (en) | 2005-09-13 | 2007-03-22 | Edwards Jerome R | Apparatus and method for image guided accuracy verification |
US20070073136A1 (en) | 2005-09-15 | 2007-03-29 | Robert Metzger | Bone milling with image guided surgery |
EP3788944B1 (en) | 2005-11-22 | 2024-02-28 | Intuitive Surgical Operations, Inc. | System for determining the shape of a bendable instrument |
US8303505B2 (en) | 2005-12-02 | 2012-11-06 | Abbott Cardiovascular Systems Inc. | Methods and apparatuses for image guided medical procedures |
US8190238B2 (en) | 2005-12-09 | 2012-05-29 | Hansen Medical, Inc. | Robotic catheter system and methods |
DE102005059271B4 (en) | 2005-12-12 | 2019-02-21 | Siemens Healthcare Gmbh | catheter device |
US8672922B2 (en) | 2005-12-20 | 2014-03-18 | Intuitive Surgical Operations, Inc. | Wireless communication in a robotic surgical system |
US9266239B2 (en) | 2005-12-27 | 2016-02-23 | Intuitive Surgical Operations, Inc. | Constraint based control in a minimally invasive surgical apparatus |
US9962066B2 (en) | 2005-12-30 | 2018-05-08 | Intuitive Surgical Operations, Inc. | Methods and apparatus to shape flexible entry guides for minimally invasive surgery |
US7930065B2 (en) | 2005-12-30 | 2011-04-19 | Intuitive Surgical Operations, Inc. | Robotic surgery system including position sensors using fiber bragg gratings |
US8191359B2 (en) | 2006-04-13 | 2012-06-05 | The Regents Of The University Of California | Motion estimation using hidden markov model processing in MRI and other applications |
JP4822142B2 (en) | 2006-05-02 | 2011-11-24 | 国立大学法人名古屋大学 | Endoscope insertion support system and endoscope insertion support method |
DE102006021373A1 (en) * | 2006-05-08 | 2007-11-15 | Siemens Ag | X-ray diagnostic device |
WO2007141784A2 (en) | 2006-06-05 | 2007-12-13 | Technion Research & Development Foundation Ltd. | Controlled steering of a flexible needle |
US20080064931A1 (en) | 2006-06-13 | 2008-03-13 | Intuitive Surgical, Inc. | Minimally invasive surgical illumination |
US7505810B2 (en) | 2006-06-13 | 2009-03-17 | Rhythmia Medical, Inc. | Non-contact cardiac mapping, including preprocessing |
US8040127B2 (en) | 2006-08-15 | 2011-10-18 | General Electric Company | Multi-sensor distortion mapping method and system |
US8150498B2 (en) | 2006-09-08 | 2012-04-03 | Medtronic, Inc. | System for identification of anatomical landmarks |
US7824328B2 (en) | 2006-09-18 | 2010-11-02 | Stryker Corporation | Method and apparatus for tracking a surgical instrument during surgery |
CN100546540C (en) | 2006-09-19 | 2009-10-07 | 上海宏桐实业有限公司 | Endocardium three-dimension navigation system |
US7940977B2 (en) | 2006-10-25 | 2011-05-10 | Rcadia Medical Imaging Ltd. | Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies |
AU2007350982A1 (en) | 2006-11-10 | 2008-10-23 | Dorian Averbuch | Adaptive navigation technique for navigating a catheter through a body channel or cavity |
US7936922B2 (en) | 2006-11-22 | 2011-05-03 | Adobe Systems Incorporated | Method and apparatus for segmenting images |
EP2087470A2 (en) | 2006-12-01 | 2009-08-12 | Thomson Licensing | Estimating a location of an object in an image |
US9220439B2 (en) | 2006-12-29 | 2015-12-29 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Navigational reference dislodgement detection method and system |
US20080183188A1 (en) | 2007-01-25 | 2008-07-31 | Warsaw Orthopedic, Inc. | Integrated Surgical Navigational and Neuromonitoring System |
US20080183068A1 (en) | 2007-01-25 | 2008-07-31 | Warsaw Orthopedic, Inc. | Integrated Visualization of Surgical Navigational and Neural Monitoring Information |
US20080183064A1 (en) | 2007-01-30 | 2008-07-31 | General Electric Company | Multi-sensor distortion detection method and system |
US9037215B2 (en) | 2007-01-31 | 2015-05-19 | The Penn State Research Foundation | Methods and apparatus for 3D route planning through hollow organs |
US8672836B2 (en) | 2007-01-31 | 2014-03-18 | The Penn State Research Foundation | Method and apparatus for continuous guidance of endoscopy |
US20080195081A1 (en) | 2007-02-02 | 2008-08-14 | Hansen Medical, Inc. | Spinal surgery methods using a robotic instrument system |
JP4914735B2 (en) | 2007-02-14 | 2012-04-11 | オリンパスメディカルシステムズ株式会社 | Endoscope system for controlling the position of the treatment tool |
EP2143038A4 (en) | 2007-02-20 | 2011-01-26 | Philip L Gildenberg | Videotactic and audiotactic assisted surgical methods and procedures |
EP2358269B1 (en) | 2007-03-08 | 2019-04-10 | Sync-RX, Ltd. | Image processing and tool actuation for medical procedures |
WO2008111070A2 (en) | 2007-03-12 | 2008-09-18 | David Tolkowsky | Devices and methods for performing medical procedures in tree-like luminal structures |
WO2008135985A1 (en) | 2007-05-02 | 2008-11-13 | Earlysense Ltd | Monitoring, predicting and treating clinical episodes |
US8934961B2 (en) | 2007-05-18 | 2015-01-13 | Biomet Manufacturing, Llc | Trackable diagnostic scope apparatus and methods of use |
US20090030307A1 (en) | 2007-06-04 | 2009-01-29 | Assaf Govari | Intracorporeal location system with movement compensation |
US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
US20080319491A1 (en) | 2007-06-19 | 2008-12-25 | Ryan Schoenefeld | Patient-matched surgical component and methods of use |
US20130165945A9 (en) | 2007-08-14 | 2013-06-27 | Hansen Medical, Inc. | Methods and devices for controlling a shapeable instrument |
EP2626030A3 (en) | 2007-08-14 | 2017-03-08 | Koninklijke Philips N.V. | Robotic instrument systems and methods utilizing optical fiber sensors |
US20090076476A1 (en) | 2007-08-15 | 2009-03-19 | Hansen Medical, Inc. | Systems and methods employing force sensing for mapping intra-body tissue |
WO2009097461A1 (en) | 2008-01-29 | 2009-08-06 | Neoguide Systems Inc. | Apparatus and methods for automatically controlling an endoscope |
EP2247236B1 (en) | 2008-02-12 | 2014-07-30 | Covidien LP | Controlled perspective guidance system |
KR100927096B1 (en) | 2008-02-27 | 2009-11-13 | 아주대학교산학협력단 | Method for object localization using visual images with reference coordinates |
US8219179B2 (en) | 2008-03-06 | 2012-07-10 | Vida Diagnostics, Inc. | Systems and methods for navigation within a branched structure of a body |
US20090228020A1 (en) | 2008-03-06 | 2009-09-10 | Hansen Medical, Inc. | In-situ graft fenestration |
US8808164B2 (en) | 2008-03-28 | 2014-08-19 | Intuitive Surgical Operations, Inc. | Controlling a robotic surgical tool with a display monitor |
US9002076B2 (en) | 2008-04-15 | 2015-04-07 | Medtronic, Inc. | Method and apparatus for optimal trajectory planning |
US8532734B2 (en) | 2008-04-18 | 2013-09-10 | Regents Of The University Of Minnesota | Method and apparatus for mapping a structure |
US8218846B2 (en) | 2008-05-15 | 2012-07-10 | Superdimension, Ltd. | Automatic pathway and waypoint generation and navigation method |
JP5372407B2 (en) | 2008-05-23 | 2013-12-18 | オリンパスメディカルシステムズ株式会社 | Medical equipment |
US20100030061A1 (en) | 2008-07-31 | 2010-02-04 | Canfield Monte R | Navigation system for cardiac therapies using gating |
ES2608820T3 (en) | 2008-08-15 | 2017-04-17 | Stryker European Holdings I, Llc | System and method of visualization of the inside of a body |
US8848974B2 (en) | 2008-09-29 | 2014-09-30 | Restoration Robotics, Inc. | Object-tracking systems and methods |
US8781630B2 (en) | 2008-10-14 | 2014-07-15 | University Of Florida Research Foundation, Inc. | Imaging platform to provide integrated navigation capabilities for surgical guidance |
CA2740217C (en) | 2008-10-31 | 2017-03-28 | Chevron Phillips Chemical Company Lp | System and method for deactivating and quenching an oligomerization catalyst |
US20100121139A1 (en) | 2008-11-12 | 2010-05-13 | Ouyang Xiaolong | Minimally Invasive Imaging Systems |
US20100125284A1 (en) | 2008-11-20 | 2010-05-20 | Hansen Medical, Inc. | Registered instrument movement integration |
EP2376175B1 (en) | 2008-12-12 | 2019-01-30 | Corindus, Inc. | Remote catheter procedure system |
US8335590B2 (en) | 2008-12-23 | 2012-12-18 | Intuitive Surgical Operations, Inc. | System and method for adjusting an image capturing device attribute using an unused degree-of-freedom of a master control device |
EP2301411B1 (en) | 2009-01-15 | 2012-12-12 | Olympus Medical Systems Corp. | Endoscope system |
KR100961661B1 (en) | 2009-02-12 | 2010-06-09 | 주식회사 래보 | Apparatus and method of operating a medical navigation system |
US8120301B2 (en) | 2009-03-09 | 2012-02-21 | Intuitive Surgical Operations, Inc. | Ergonomic surgeon control console in robotic surgical systems |
US8337397B2 (en) | 2009-03-26 | 2012-12-25 | Intuitive Surgical Operations, Inc. | Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient |
US9002427B2 (en) * | 2009-03-30 | 2015-04-07 | Lifewave Biomedical, Inc. | Apparatus and method for continuous noninvasive measurement of respiratory function and events |
EP2424422B1 (en) | 2009-04-29 | 2019-08-14 | Koninklijke Philips N.V. | Real-time depth estimation from monocular endoscope images |
EP2427867A1 (en) | 2009-05-08 | 2012-03-14 | Koninklijke Philips Electronics N.V. | Real-time scope tracking and branch labeling without electro-magnetic tracking and pre-operative scan roadmaps |
US8675736B2 (en) | 2009-05-14 | 2014-03-18 | Qualcomm Incorporated | Motion vector processing |
WO2010131500A1 (en) | 2009-05-15 | 2010-11-18 | シャープ株式会社 | Image processing device and image processing method |
BRPI1007726A2 (en) | 2009-05-18 | 2017-01-31 | Koninl Philips Electronics Nv | Image-to-image registration method, Image-to-image registration system, Guided endoscopy camera position calibration method and Guided endoscopy camera calibration system |
US20100292565A1 (en) | 2009-05-18 | 2010-11-18 | Andreas Meyer | Medical imaging medical device navigation from at least two 2d projections from different angles |
ES2388029B1 (en) | 2009-05-22 | 2013-08-13 | Universitat Politècnica De Catalunya | ROBOTIC SYSTEM FOR LAPAROSCOPIC SURGERY. |
US8718338B2 (en) | 2009-07-23 | 2014-05-06 | General Electric Company | System and method to compensate for respiratory motion in acquired radiography images |
GB0915200D0 (en) | 2009-09-01 | 2009-10-07 | Ucl Business Plc | Method for re-localising sites in images |
US20110092808A1 (en) | 2009-10-20 | 2011-04-21 | Magnetecs, Inc. | Method for acquiring high density mapping data with a catheter guidance system |
EP2496128A1 (en) | 2009-11-04 | 2012-09-12 | Koninklijke Philips Electronics N.V. | Collision avoidance and detection using distance sensors |
JP4781492B2 (en) | 2009-11-10 | 2011-09-28 | オリンパスメディカルシステムズ株式会社 | Articulated manipulator device and endoscope system having the same |
WO2011094518A2 (en) | 2010-01-28 | 2011-08-04 | The Penn State Research Foundation | Image-based global registration system and method applicable to bronchoscopy guidance |
CN102740755B (en) | 2010-02-22 | 2015-04-22 | 奥林巴斯医疗株式会社 | Medical device |
DE102010012621A1 (en) | 2010-03-24 | 2011-09-29 | Siemens Aktiengesellschaft | Method and device for automatically adapting a reference image |
US8425455B2 (en) | 2010-03-30 | 2013-04-23 | Angiodynamics, Inc. | Bronchial catheter and method of use |
IT1401669B1 (en) | 2010-04-07 | 2013-08-02 | Sofar Spa | ROBOTIC SURGERY SYSTEM WITH PERFECT CONTROL. |
US8581905B2 (en) | 2010-04-08 | 2013-11-12 | Disney Enterprises, Inc. | Interactive three dimensional displays on handheld devices |
CA2797302C (en) | 2010-04-28 | 2019-01-15 | Ryerson University | System and methods for intraoperative guidance feedback |
US8845631B2 (en) * | 2010-04-28 | 2014-09-30 | Medtronic Ablation Frontiers Llc | Systems and methods of performing medical procedures |
US20120101369A1 (en) | 2010-06-13 | 2012-04-26 | Angiometrix Corporation | Methods and systems for determining vascular bodily lumen information and guiding medical devices |
US8672837B2 (en) | 2010-06-24 | 2014-03-18 | Hansen Medical, Inc. | Methods and devices for controlling a shapeable medical device |
US8460236B2 (en) | 2010-06-24 | 2013-06-11 | Hansen Medical, Inc. | Fiber optic instrument sensing system |
US8827948B2 (en) | 2010-09-17 | 2014-09-09 | Hansen Medical, Inc. | Steerable catheters |
JP5669529B2 (en) | 2010-11-17 | 2015-02-12 | オリンパス株式会社 | Imaging apparatus, program, and focus control method |
US9066086B2 (en) | 2010-12-08 | 2015-06-23 | Industrial Technology Research Institute | Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same |
US8812079B2 (en) | 2010-12-22 | 2014-08-19 | Biosense Webster (Israel), Ltd. | Compensation for magnetic disturbance due to fluoroscope |
US20120191086A1 (en) | 2011-01-20 | 2012-07-26 | Hansen Medical, Inc. | System and method for endoluminal and translumenal therapy |
US9554812B2 (en) | 2011-02-18 | 2017-01-31 | DePuy Synthes Products, Inc. | Tool with integrated navigation and guidance system and related apparatus and methods |
US10391277B2 (en) | 2011-02-18 | 2019-08-27 | Voxel Rad, Ltd. | Systems and methods for 3D stereoscopic angiovision, angionavigation and angiotherapeutics |
US10918307B2 (en) | 2011-09-13 | 2021-02-16 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Catheter navigation using impedance and magnetic field measurements |
US10362963B2 (en) | 2011-04-14 | 2019-07-30 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Correction of shift and drift in impedance-based medical device navigation using magnetic field information |
US8900131B2 (en) | 2011-05-13 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery |
US9572481B2 (en) | 2011-05-13 | 2017-02-21 | Intuitive Surgical Operations, Inc. | Medical system with multiple operating modes for steering a medical instrument through linked body passages |
US9675304B2 (en) | 2011-06-27 | 2017-06-13 | Koninklijke Philips N.V. | Live 3D angiogram using registration of a surgical tool curve to an X-ray image |
US9173683B2 (en) | 2011-08-31 | 2015-11-03 | DePuy Synthes Products, Inc. | Revisable orthopedic anchor and methods of use |
CN102973317A (en) | 2011-09-05 | 2013-03-20 | 周宁新 | Arrangement structure for mechanical arm of minimally invasive surgery robot |
CN105326498A (en) | 2011-09-08 | 2016-02-17 | Apn健康有限责任公司 | R-wave detection method |
WO2013040498A1 (en) | 2011-09-16 | 2013-03-21 | Translucent Medical, Inc. | System and method for virtually tracking a surgical tool on a movable display |
US9504604B2 (en) | 2011-12-16 | 2016-11-29 | Auris Surgical Robotics, Inc. | Lithotripsy eye treatment |
US20130246336A1 (en) | 2011-12-27 | 2013-09-19 | Mcafee, Inc. | System and method for providing data protection workflows in a network environment |
WO2013116140A1 (en) | 2012-02-03 | 2013-08-08 | Intuitive Surgical Operations, Inc. | Steerable flexible needle with embedded shape sensing |
CN104114121B (en) | 2012-02-09 | 2017-03-22 | 皇家飞利浦有限公司 | Shaft tracker for real-time navigation tracking |
US10249036B2 (en) | 2012-02-22 | 2019-04-02 | Veran Medical Technologies, Inc. | Surgical catheter having side exiting medical instrument and related systems and methods for four dimensional soft tissue navigation |
US20140142591A1 (en) | 2012-04-24 | 2014-05-22 | Auris Surgical Robotics, Inc. | Method, apparatus and a system for robotic assisted surgery |
US10383765B2 (en) | 2012-04-24 | 2019-08-20 | Auris Health, Inc. | Apparatus and method for a global coordinate system for use in robotic surgery |
US10039473B2 (en) | 2012-05-14 | 2018-08-07 | Intuitive Surgical Operations, Inc. | Systems and methods for navigation based on ordered sensor records |
JP2015528713A (en) | 2012-06-21 | 2015-10-01 | グローバス メディカル インコーポレイティッド | Surgical robot platform |
WO2014001977A2 (en) | 2012-06-28 | 2014-01-03 | Koninklijke Philips N.V. | Fiber optic sensor guided navigation for vascular visualization and monitoring |
DE102012220116A1 (en) | 2012-06-29 | 2014-01-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Mobile device, in particular for processing or observation of a body, and method for handling, in particular calibration, of a device |
CN104718054B (en) | 2012-08-15 | 2017-03-01 | 直观外科手术操作公司 | Manipulate the imaginary degree of freedom (DOF) of the activity of mechanical body |
US9183354B2 (en) | 2012-08-15 | 2015-11-10 | Musc Foundation For Research Development | Systems and methods for image guided surgery |
EP2887903A4 (en) | 2012-08-24 | 2016-06-08 | Univ Houston System | Robotic device and systems for image-guided and robot-assisted surgery |
CN108042092B (en) | 2012-10-12 | 2023-02-28 | 直观外科手术操作公司 | Determining a position of a medical device in a branched anatomical structure |
US20140107390A1 (en) * | 2012-10-12 | 2014-04-17 | Elekta Ab (Publ) | Implementation and experimental results of real-time 4d tumor tracking using multi-leaf collimator (mlc), and/or mlc-carriage (mlc-bank), and/or treatment table (couch) |
WO2014074481A2 (en) | 2012-11-07 | 2014-05-15 | Dana Automotive Systems Group, Llc | A clutch management system |
US20150313503A1 (en) | 2012-11-20 | 2015-11-05 | University Of Washington Through Its Center For Commercialization | Electromagnetic sensor integration with ultrathin scanning fiber endoscope |
LU92104B1 (en) * | 2012-11-28 | 2014-05-30 | Iee Sarl | Method and system for determining a ventilatory threshold |
JP6045417B2 (en) | 2012-12-20 | 2016-12-14 | オリンパス株式会社 | Image processing apparatus, electronic apparatus, endoscope apparatus, program, and operation method of image processing apparatus |
US10231867B2 (en) | 2013-01-18 | 2019-03-19 | Auris Health, Inc. | Method, apparatus and system for a water jet |
US11172809B2 (en) | 2013-02-15 | 2021-11-16 | Intuitive Surgical Operations, Inc. | Vision probe with access port |
EA033708B1 (en) | 2013-02-26 | 2019-11-19 | Ahmet Sinan Kabakci | Robotic manipulator system |
US9459087B2 (en) | 2013-03-05 | 2016-10-04 | Ezono Ag | Magnetic position detection system |
CN104797186B (en) | 2013-03-06 | 2016-10-12 | 奥林巴斯株式会社 | Endoscopic system |
US10149720B2 (en) | 2013-03-08 | 2018-12-11 | Auris Health, Inc. | Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment |
US10080576B2 (en) | 2013-03-08 | 2018-09-25 | Auris Health, Inc. | Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment |
US9867635B2 (en) | 2013-03-08 | 2018-01-16 | Auris Surgical Robotics, Inc. | Method, apparatus and system for a water jet |
US20140296655A1 (en) * | 2013-03-11 | 2014-10-02 | ROPAMedics LLC | Real-time tracking of cerebral hemodynamic response (rtchr) of a subject based on hemodynamic parameters |
CN104780826B (en) | 2013-03-12 | 2016-12-28 | 奥林巴斯株式会社 | Endoscopic system |
US9057600B2 (en) | 2013-03-13 | 2015-06-16 | Hansen Medical, Inc. | Reducing incremental measurement sensor error |
US20170303941A1 (en) | 2013-03-14 | 2017-10-26 | The General Hospital Corporation | System and method for guided removal from an in vivo subject |
US9271663B2 (en) | 2013-03-15 | 2016-03-01 | Hansen Medical, Inc. | Flexible instrument localization from both remote and elongation sensors |
US20170238807A9 (en) | 2013-03-15 | 2017-08-24 | LX Medical, Inc. | Tissue imaging and image guidance in luminal anatomic structures and body cavities |
US9301723B2 (en) * | 2013-03-15 | 2016-04-05 | Covidien Lp | Microwave energy-delivery device and system |
US9014851B2 (en) | 2013-03-15 | 2015-04-21 | Hansen Medical, Inc. | Systems and methods for tracking robotically controlled medical instruments |
US10271810B2 (en) | 2013-04-02 | 2019-04-30 | St. Jude Medical International Holding S.à r. l. | Enhanced compensation of motion in a moving organ using processed reference sensor data |
WO2014169103A2 (en) | 2013-04-12 | 2014-10-16 | Ninepoint Medical, Inc. | Multiple aperture, multiple modal optical systems and methods |
US9592095B2 (en) | 2013-05-16 | 2017-03-14 | Intuitive Surgical Operations, Inc. | Systems and methods for robotic medical system integration with external imaging |
US11020016B2 (en) | 2013-05-30 | 2021-06-01 | Auris Health, Inc. | System and method for displaying anatomy and devices on a movable display |
US20140364739A1 (en) | 2013-06-06 | 2014-12-11 | General Electric Company | Systems and methods for analyzing a vascular structure |
WO2014201165A1 (en) | 2013-06-11 | 2014-12-18 | Auris Surgical Robotics, Inc. | System for robotic assisted cataract surgery |
JP6037964B2 (en) | 2013-07-26 | 2016-12-07 | オリンパス株式会社 | Manipulator system |
US10426661B2 (en) | 2013-08-13 | 2019-10-01 | Auris Health, Inc. | Method and apparatus for laser assisted cataract surgery |
EP3033132B1 (en) | 2013-08-15 | 2021-01-06 | Intuitive Surgical Operations, Inc. | Graphical user interface for catheter positioning and insertion |
US10098566B2 (en) | 2013-09-06 | 2018-10-16 | Covidien Lp | System and method for lung visualization using ultrasound |
CN105592790A (en) | 2013-10-02 | 2016-05-18 | 皇家飞利浦有限公司 | Hub design and methods for optical shape sensing registration |
CN111166274A (en) | 2013-10-24 | 2020-05-19 | 奥瑞斯健康公司 | Robotically-assisted endoluminal surgical systems and related methods |
US9993313B2 (en) | 2013-10-24 | 2018-06-12 | Auris Health, Inc. | Instrument device manipulator with roll mechanism |
US9314191B2 (en) | 2013-11-19 | 2016-04-19 | Pacesetter, Inc. | Method and system to measure cardiac motion using a cardiovascular navigation system |
CN105979899B (en) | 2013-12-09 | 2019-10-01 | 直观外科手术操作公司 | System and method for device-aware compliant tool registration |
CN103705307B (en) | 2013-12-10 | 2017-02-22 | 中国科学院深圳先进技术研究院 | Surgical navigation system and medical robot |
CN103735313B (en) | 2013-12-11 | 2016-08-17 | 中国科学院深圳先进技术研究院 | A kind of operating robot and state monitoring method thereof |
CN106030683B (en) | 2013-12-20 | 2020-10-30 | 直观外科手术操作公司 | Simulator system for medical procedure training |
CN105828738B (en) | 2013-12-20 | 2018-10-09 | 奥林巴斯株式会社 | Flexible manipulator guide member and flexible manipulator |
JP2017503593A (en) | 2014-01-24 | 2017-02-02 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Virtual image with viewpoint of optical shape detection device |
KR20210156301A (en) | 2014-02-04 | 2021-12-24 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | Systems and methods for non-rigid deformation of tissue for virtual navigation of interventional tools |
SG10201806489TA (en) | 2014-02-05 | 2018-08-30 | Nat Univ Singapore | Systems and methods for tracking and displaying endoscope shape and distal end orientation |
US20150223902A1 (en) | 2014-02-07 | 2015-08-13 | Hansen Medical, Inc. | Navigation with 3d localization using 2d images |
EP3104803B1 (en) | 2014-02-11 | 2021-09-15 | KB Medical SA | Sterile handle for controlling a robotic surgical system from a sterile field |
JP6270537B2 (en) | 2014-02-27 | 2018-01-31 | オリンパス株式会社 | Medical system |
KR20150103938A (en) | 2014-03-04 | 2015-09-14 | 현대자동차주식회사 | A separation membrane for lithium sulfur batteries |
US10952751B2 (en) | 2014-03-17 | 2021-03-23 | Marksman Targeting, Inc. | Surgical targeting systems and methods |
CN104931059B (en) | 2014-03-21 | 2018-09-11 | 比亚迪股份有限公司 | Vehicle-mounted rescue navigation system and method |
US10046140B2 (en) | 2014-04-21 | 2018-08-14 | Hansen Medical, Inc. | Devices, systems, and methods for controlling active drive systems |
US20150305650A1 (en) | 2014-04-23 | 2015-10-29 | Mark Hunter | Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue |
CN104055520B (en) | 2014-06-11 | 2016-02-24 | 清华大学 | Human organ motion monitoring method and operation guiding system |
US9788910B2 (en) | 2014-07-01 | 2017-10-17 | Auris Surgical Robotics, Inc. | Instrument-mounted tension sensing mechanism for robotically-driven medical instruments |
US10792464B2 (en) | 2014-07-01 | 2020-10-06 | Auris Health, Inc. | Tool and method for using surgical endoscope with spiral lumens |
US9561083B2 (en) | 2014-07-01 | 2017-02-07 | Auris Surgical Robotics, Inc. | Articulating flexible endoscopic tool with roll capabilities |
US20160270865A1 (en) | 2014-07-01 | 2016-09-22 | Auris Surgical Robotics, Inc. | Reusable catheter with disposable balloon attachment and tapered tip |
US10159533B2 (en) | 2014-07-01 | 2018-12-25 | Auris Health, Inc. | Surgical system with configurable rail-mounted mechanical arms |
US9744335B2 (en) | 2014-07-01 | 2017-08-29 | Auris Surgical Robotics, Inc. | Apparatuses and methods for monitoring tendons of steerable catheters |
US20170007337A1 (en) | 2014-07-01 | 2017-01-12 | Auris Surgical Robotics, Inc. | Driver-mounted torque sensing mechanism |
US9603668B2 (en) | 2014-07-02 | 2017-03-28 | Covidien Lp | Dynamic 3D lung map view for tool navigation inside the lung |
US20160000414A1 (en) | 2014-07-02 | 2016-01-07 | Covidien Lp | Methods for marking biopsy location |
US9770216B2 (en) | 2014-07-02 | 2017-09-26 | Covidien Lp | System and method for navigating within the lung |
CN106659374B (en) | 2014-07-02 | 2021-04-02 | 柯惠有限合伙公司 | System and method for providing distance and orientation feedback in 3D navigation |
KR102292155B1 (en) | 2014-09-30 | 2021-08-25 | 아우리스 헬스, 인크. | Configurable Robotic Surgical System with Virtual Rail and Flexible Endoscope |
WO2016061418A1 (en) * | 2014-10-15 | 2016-04-21 | Vincent Suzara | Magnetic field structures, field generators, navigation and imaging for untethered robotic device enabled medical procedure |
US10314463B2 (en) | 2014-10-24 | 2019-06-11 | Auris Health, Inc. | Automated endoscope calibration |
DE102014222293A1 (en) | 2014-10-31 | 2016-05-19 | Siemens Aktiengesellschaft | Method for automatically monitoring the penetration behavior of a trocar held by a robot arm and monitoring system |
JP2017537149A (en) | 2014-11-11 | 2017-12-14 | ヴァンダービルト ユニバーシティー | Methods for limiting acute kidney injury |
JP7017931B2 (en) | 2014-11-13 | 2022-02-09 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | Systems and methods for filtering location-specific data |
JP6342794B2 (en) | 2014-12-25 | 2018-06-13 | 新光電気工業株式会社 | Wiring board and method of manufacturing wiring board |
US9931168B2 (en) | 2015-01-12 | 2018-04-03 | Biomet Manufacuturing. LLC | Plan implementation |
WO2016134297A1 (en) | 2015-02-20 | 2016-08-25 | Nostix, Llc | Medical device position location systems, devices and methods |
JP6348078B2 (en) | 2015-03-06 | 2018-06-27 | 富士フイルム株式会社 | Branch structure determination apparatus, operation method of branch structure determination apparatus, and branch structure determination program |
JP6371729B2 (en) | 2015-03-25 | 2018-08-08 | 富士フイルム株式会社 | Endoscopy support apparatus, operation method of endoscopy support apparatus, and endoscope support program |
US20160287279A1 (en) | 2015-04-01 | 2016-10-06 | Auris Surgical Robotics, Inc. | Microsurgical tool for robotic applications |
WO2016164824A1 (en) | 2015-04-09 | 2016-10-13 | Auris Surgical Robotics, Inc. | Surgical system with configurable rail-mounted mechanical arms |
CN104758066B (en) | 2015-05-06 | 2017-05-10 | 中国科学院深圳先进技术研究院 | Equipment for surgical navigation and surgical robot |
WO2016187054A1 (en) | 2015-05-15 | 2016-11-24 | Auris Surgical Robotics, Inc. | Surgical robotics system |
DE112015006531T5 (en) | 2015-06-11 | 2018-02-15 | Olympus Corporation | Endoscope apparatus and method for operating the endoscope apparatus |
US10347904B2 (en) | 2015-06-19 | 2019-07-09 | Solidenergy Systems, Llc | Multi-layer polymer coated Li anode for high density Li metal battery |
GB2540757B (en) | 2015-07-22 | 2021-03-31 | Cmr Surgical Ltd | Torque sensors |
EP3334324B1 (en) | 2015-08-14 | 2021-01-06 | Intuitive Surgical Operations Inc. | Systems and methods of registration for image-guided surgery |
JP6987040B2 (en) | 2015-08-28 | 2021-12-22 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Methods and devices for determining motor relationships |
US10736518B2 (en) * | 2015-08-31 | 2020-08-11 | Masimo Corporation | Systems and methods to monitor repositioning of a patient |
JP6938507B2 (en) | 2015-09-09 | 2021-09-22 | オーリス ヘルス インコーポレイテッド | Instrument device manipulator for surgical support robot system |
WO2017048194A1 (en) | 2015-09-17 | 2017-03-23 | Endomaster Pte Ltd | Improved flexible robotic endoscopy system |
EP3349649B1 (en) | 2015-09-18 | 2022-03-09 | Auris Health, Inc. | Navigation of tubular networks |
ES2940439T3 (en) | 2015-10-13 | 2023-05-08 | Lightlab Imaging Inc | Intravascular Imaging System and Methods for Determining the Angle of View of the Side Branch Cut Plane |
US9955986B2 (en) | 2015-10-30 | 2018-05-01 | Auris Surgical Robotics, Inc. | Basket apparatus |
US10231793B2 (en) | 2015-10-30 | 2019-03-19 | Auris Health, Inc. | Object removal through a percutaneous suction tube |
US9949749B2 (en) | 2015-10-30 | 2018-04-24 | Auris Surgical Robotics, Inc. | Object capture with a basket |
WO2017081821A1 (en) | 2015-11-13 | 2017-05-18 | オリンパス株式会社 | Method for estimating state of endoscope |
US10143526B2 (en) | 2015-11-30 | 2018-12-04 | Auris Health, Inc. | Robot-assisted driving systems and methods |
US11172895B2 (en) | 2015-12-07 | 2021-11-16 | Covidien Lp | Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated |
CN105559850B (en) | 2015-12-17 | 2017-08-25 | 天津工业大学 | It is a kind of to be used for the surgical drill apparatus that robot assisted surgery has power sensing function |
US10932861B2 (en) | 2016-01-14 | 2021-03-02 | Auris Health, Inc. | Electromagnetic tracking surgical system and method of controlling the same |
US10973422B2 (en) | 2016-01-22 | 2021-04-13 | Fitbit, Inc. | Photoplethysmography-based pulse wave analysis using a wearable device |
US10932691B2 (en) | 2016-01-26 | 2021-03-02 | Auris Health, Inc. | Surgical tools having electromagnetic tracking components |
US10470719B2 (en) * | 2016-02-01 | 2019-11-12 | Verily Life Sciences Llc | Machine learnt model to detect REM sleep periods using a spectral analysis of heart rate and motion |
CN113384348A (en) | 2016-02-26 | 2021-09-14 | 直观外科手术操作公司 | System and method for avoiding collisions using virtual boundaries |
EP3432984B1 (en) | 2016-03-24 | 2019-07-31 | Koninklijke Philips N.V. | Treatment assessment device |
US20190105112A1 (en) | 2016-03-31 | 2019-04-11 | Koninklijke Philips N.V. | Image guided robot for catheter placement |
US11324554B2 (en) | 2016-04-08 | 2022-05-10 | Auris Health, Inc. | Floating electromagnetic field generator system and method of controlling the same |
US10470839B2 (en) | 2016-06-02 | 2019-11-12 | Covidien Lp | Assessment of suture or staple line integrity and localization of potential tissue defects along the suture or staple line |
US10806516B2 (en) | 2016-06-20 | 2020-10-20 | General Electric Company | Virtual 4D stent implantation path assessment |
CN109414180B (en) | 2016-06-30 | 2022-01-07 | 直观外科手术操作公司 | Graphical user interface for displaying instructional information in multiple modes during an image guidance procedure |
US11037464B2 (en) | 2016-07-21 | 2021-06-15 | Auris Health, Inc. | System with emulator movement tracking for controlling medical devices |
CN109069138B (en) | 2016-08-31 | 2021-07-20 | 奥瑞斯健康公司 | Length-conservative surgical instrument |
US10238455B2 (en) | 2016-08-31 | 2019-03-26 | Covidien Lp | Pathway planning for use with a navigation planning and procedure system |
US20180055576A1 (en) | 2016-09-01 | 2018-03-01 | Covidien Lp | Respiration motion stabilization for lung magnetic navigation system |
US9931025B1 (en) | 2016-09-30 | 2018-04-03 | Auris Surgical Robotics, Inc. | Automated calibration of endoscopes with pull wires |
CA3039649A1 (en) | 2016-10-05 | 2018-04-12 | Armstrong Flooring, Inc. | Wood substrate including an abrasion resistant coating |
US10278778B2 (en) | 2016-10-27 | 2019-05-07 | Inneroptic Technology, Inc. | Medical device navigation using a virtual 3D space |
US10244926B2 (en) | 2016-12-28 | 2019-04-02 | Auris Health, Inc. | Detecting endolumenal buckling of flexible instruments |
US10543048B2 (en) | 2016-12-28 | 2020-01-28 | Auris Health, Inc. | Flexible instrument insertion using an adaptive insertion force threshold |
US10136959B2 (en) | 2016-12-28 | 2018-11-27 | Auris Health, Inc. | Endolumenal object sizing |
US11842030B2 (en) | 2017-01-31 | 2023-12-12 | Medtronic Navigation, Inc. | Method and apparatus for image-based navigation |
AU2018244318B2 (en) | 2017-03-28 | 2023-11-16 | Auris Health, Inc. | Shaft actuating handle |
US10475235B2 (en) | 2017-03-29 | 2019-11-12 | Fujifilm Corporation | Three-dimensional image processing apparatus, three-dimensional image processing method, and three-dimensional image processing program |
WO2018183727A1 (en) | 2017-03-31 | 2018-10-04 | Auris Health, Inc. | Robotic systems for navigation of luminal networks that compensate for physiological noise |
US10285574B2 (en) | 2017-04-07 | 2019-05-14 | Auris Health, Inc. | Superelastic medical instrument |
KR20230106716A (en) | 2017-04-07 | 2023-07-13 | 아우리스 헬스, 인코포레이티드 | Patient introducer alignment |
US20180308247A1 (en) | 2017-04-25 | 2018-10-25 | Best Medical International, Inc. | Tissue imaging system and method for tissue imaging |
JP2020520691A (en) | 2017-05-12 | 2020-07-16 | オーリス ヘルス インコーポレイテッド | Biopsy devices and systems |
CN110769736B (en) | 2017-05-17 | 2023-01-13 | 奥瑞斯健康公司 | Replaceable working channel |
US10022192B1 (en) | 2017-06-23 | 2018-07-17 | Auris Health, Inc. | Automatically-initialized robotic systems for navigation of luminal networks |
US11026758B2 (en) | 2017-06-28 | 2021-06-08 | Auris Health, Inc. | Medical robotics systems implementing axis constraints during actuation of one or more motorized joints |
EP3645100A4 (en) | 2017-06-28 | 2021-03-17 | Auris Health, Inc. | Instrument insertion compensation |
CN116725667A (en) | 2017-06-28 | 2023-09-12 | 奥瑞斯健康公司 | System for providing positioning information and method for positioning an instrument within an anatomical structure |
KR102578978B1 (en) | 2017-06-28 | 2023-09-19 | 아우리스 헬스, 인코포레이티드 | Electromagnetic distortion detection |
US10426559B2 (en) | 2017-06-30 | 2019-10-01 | Auris Health, Inc. | Systems and methods for medical instrument compression compensation |
US10593052B2 (en) | 2017-08-23 | 2020-03-17 | Synaptive Medical (Barbados) Inc. | Methods and systems for updating an existing landmark registration |
US10464209B2 (en) | 2017-10-05 | 2019-11-05 | Auris Health, Inc. | Robotic system with indication of boundary for robotic arm |
US10145747B1 (en) | 2017-10-10 | 2018-12-04 | Auris Health, Inc. | Detection of undesirable forces on a surgical robotic arm |
US10016900B1 (en) | 2017-10-10 | 2018-07-10 | Auris Health, Inc. | Surgical robotic arm admittance control |
US10555778B2 (en) | 2017-10-13 | 2020-02-11 | Auris Health, Inc. | Image-based branch detection and mapping for navigation |
US11058493B2 (en) | 2017-10-13 | 2021-07-13 | Auris Health, Inc. | Robotic system configured for navigation path tracing |
KR102645922B1 (en) | 2017-12-06 | 2024-03-13 | 아우리스 헬스, 인코포레이티드 | Systems and methods for correcting non-directed instrument rolls |
JP7208237B2 (en) | 2017-12-08 | 2023-01-18 | オーリス ヘルス インコーポレイテッド | Systems and medical devices for performing medical procedures |
CN110831534B (en) | 2017-12-08 | 2023-04-28 | 奥瑞斯健康公司 | System and method for medical instrument navigation and targeting |
EP3723655A4 (en) | 2017-12-11 | 2021-09-08 | Auris Health, Inc. | Systems and methods for instrument based insertion architectures |
KR20200100613A (en) | 2017-12-14 | 2020-08-26 | 아우리스 헬스, 인코포레이티드 | System and method for estimating instrument position |
US11160615B2 (en) | 2017-12-18 | 2021-11-02 | Auris Health, Inc. | Methods and systems for instrument tracking and navigation within luminal networks |
WO2019143458A1 (en) | 2018-01-17 | 2019-07-25 | Auris Health, Inc. | Surgical robotics systems with improved robotic arms |
MX2020007623A (en) | 2018-01-17 | 2020-09-14 | Auris Health Inc | Surgical platform with adjustable arm supports. |
CN116370084A (en) | 2018-02-13 | 2023-07-04 | 奥瑞斯健康公司 | System and method for driving a medical instrument |
KR20200136931A (en) | 2018-03-01 | 2020-12-08 | 아우리스 헬스, 인코포레이티드 | Methods and systems for mapping and navigation |
JP2019154816A (en) | 2018-03-13 | 2019-09-19 | ソニー・オリンパスメディカルソリューションズ株式会社 | Medical image processor, medical observation device and operation method of medical observation device |
JP7214747B2 (en) | 2018-03-28 | 2023-01-30 | オーリス ヘルス インコーポレイテッド | System and method for position sensor alignment |
CN117017505A (en) | 2018-03-28 | 2023-11-10 | 奥瑞斯健康公司 | Composite instrument and robotic system |
US10827913B2 (en) | 2018-03-28 | 2020-11-10 | Auris Health, Inc. | Systems and methods for displaying estimated location of instrument |
MX2020010220A (en) | 2018-03-29 | 2021-01-15 | Auris Health Inc | Robotically-enabled medical systems with multifunction end effectors having rotational offsets. |
KR102499906B1 (en) | 2018-05-30 | 2023-02-16 | 아우리스 헬스, 인코포레이티드 | System and Method for Position Sensor-Based Branch Prediction |
KR102567087B1 (en) | 2018-05-31 | 2023-08-17 | 아우리스 헬스, 인코포레이티드 | Robotic systems and methods for navigation of luminal networks detecting physiological noise |
WO2019231891A1 (en) | 2018-05-31 | 2019-12-05 | Auris Health, Inc. | Path-based navigation of tubular networks |
KR102455671B1 (en) | 2018-05-31 | 2022-10-20 | 아우리스 헬스, 인코포레이티드 | Image-Based Airway Analysis and Mapping |
US10744981B2 (en) | 2018-06-06 | 2020-08-18 | Sensata Technologies, Inc. | Electromechanical braking connector |
CN112218596A (en) | 2018-06-07 | 2021-01-12 | 奥瑞斯健康公司 | Robotic medical system with high-force instruments |
US10667875B2 (en) | 2018-06-27 | 2020-06-02 | Auris Health, Inc. | Systems and techniques for providing multiple perspectives during medical procedures |
JP7366943B2 (en) | 2018-06-27 | 2023-10-23 | オーリス ヘルス インコーポレイテッド | Alignment and mounting system for medical devices |
KR20210024484A (en) | 2018-06-28 | 2021-03-05 | 아우리스 헬스, 인코포레이티드 | Medical system with integrated pulley sharing |
CN112804946A (en) | 2018-08-07 | 2021-05-14 | 奥瑞斯健康公司 | Combining strain-based shape sensing with catheter control |
US10828118B2 (en) | 2018-08-15 | 2020-11-10 | Auris Health, Inc. | Medical instruments for tissue cauterization |
EP3806758A4 (en) | 2018-08-17 | 2022-04-06 | Auris Health, Inc. | Bipolar medical instrument |
AU2019326548B2 (en) | 2018-08-24 | 2023-11-23 | Auris Health, Inc. | Manually and robotically controllable medical instruments |
MX2021003099A (en) | 2018-09-17 | 2021-05-13 | Auris Health Inc | Systems and methods for concomitant medical procedures. |
WO2020068303A1 (en) | 2018-09-26 | 2020-04-02 | Auris Health, Inc. | Systems and instruments for suction and irrigation |
WO2020068853A2 (en) | 2018-09-26 | 2020-04-02 | Auris Health, Inc. | Articulating medical instruments |
KR20210073542A (en) | 2018-09-28 | 2021-06-18 | 아우리스 헬스, 인코포레이티드 | Systems and methods for docking medical instruments |
EP3856001A4 (en) | 2018-09-28 | 2022-06-22 | Auris Health, Inc. | Devices, systems, and methods for manually and robotically driving medical instruments |
AU2019347754A1 (en) | 2018-09-28 | 2021-04-08 | Auris Health, Inc. | Robotic systems and methods for concomitant endoscopic and percutaneous medical procedures |
US11576738B2 (en) | 2018-10-08 | 2023-02-14 | Auris Health, Inc. | Systems and instruments for tissue sealing |
EP3870075A4 (en) | 2018-12-20 | 2022-08-03 | Auris Health, Inc. | Shielding for wristed instruments |
WO2020140072A1 (en) | 2018-12-28 | 2020-07-02 | Auris Health, Inc. | Percutaneous sheath for robotic medical systems and methods |
WO2020172394A1 (en) | 2019-02-22 | 2020-08-27 | Auris Health, Inc. | Surgical platform with motorized arms for adjustable arm supports |
WO2020185516A1 (en) | 2019-03-08 | 2020-09-17 | Auris Health, Inc. | Tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and applications tilt mechanisms for medical systems and |
US20200297444A1 (en) | 2019-03-21 | 2020-09-24 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for localization based on machine learning |
CN113613580A (en) | 2019-03-22 | 2021-11-05 | 奥瑞斯健康公司 | System and method for aligning inputs on a medical instrument |
WO2020197625A1 (en) | 2019-03-25 | 2020-10-01 | Auris Health, Inc. | Systems and methods for medical stapling |
US11617627B2 (en) | 2019-03-29 | 2023-04-04 | Auris Health, Inc. | Systems and methods for optical strain sensing in medical instruments |
WO2020210044A1 (en) | 2019-04-08 | 2020-10-15 | Auris Health, Inc. | Systems, methods, and workflows for concomitant procedures |
-
2018
- 2018-03-29 WO PCT/US2018/025218 patent/WO2018183727A1/en active Application Filing
- 2018-03-29 AU AU2018243364A patent/AU2018243364B2/en active Active
- 2018-03-29 JP JP2019553011A patent/JP7282685B2/en active Active
- 2018-03-29 KR KR1020187028219A patent/KR102558061B1/en active IP Right Grant
- 2018-03-29 US US15/939,678 patent/US11490782B2/en active Active
- 2018-03-29 CN CN201880001545.0A patent/CN108990412B/en active Active
- 2018-03-29 EP EP18778077.0A patent/EP3600031A4/en active Pending
-
2022
- 2022-11-01 US US17/978,702 patent/US20230057983A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001000448A (en) | 1999-06-21 | 2001-01-09 | Hitachi Ltd | Apparatus for surgiacl operation |
US20040097806A1 (en) | 2002-11-19 | 2004-05-20 | Mark Hunter | Navigation system for cardiac therapies |
US20080300478A1 (en) | 2007-05-30 | 2008-12-04 | General Electric Company | System and method for displaying real-time state of imaged anatomy during a surgical procedure |
US20120059248A1 (en) | 2010-08-20 | 2012-03-08 | Troy Holsing | Apparatus and method for airway registration and navigation |
US20120172712A1 (en) | 2010-12-29 | 2012-07-05 | Bar-Tal Meir | Respiratory effect reduction in catheter position sensing |
US20150265368A1 (en) | 2014-03-24 | 2015-09-24 | Intuitive Surgical Operations, Inc. | Systems and Methods for Anatomic Motion Compensation |
Also Published As
Publication number | Publication date |
---|---|
EP3600031A4 (en) | 2021-01-20 |
KR102558061B1 (en) | 2023-07-25 |
JP2020512102A (en) | 2020-04-23 |
WO2018183727A1 (en) | 2018-10-04 |
CN108990412A (en) | 2018-12-11 |
AU2018243364B2 (en) | 2023-10-05 |
EP3600031A1 (en) | 2020-02-05 |
AU2018243364A1 (en) | 2019-10-17 |
US20180279852A1 (en) | 2018-10-04 |
KR20190134968A (en) | 2019-12-05 |
US11490782B2 (en) | 2022-11-08 |
US20230057983A1 (en) | 2023-02-23 |
CN108990412B (en) | 2022-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7282685B2 (en) | A robotic system for navigation of luminal networks with compensation for physiological noise | |
US20230190244A1 (en) | Biopsy apparatus and system | |
US11759266B2 (en) | Robotic systems for determining a roll of a medical device in luminal networks | |
KR102567087B1 (en) | Robotic systems and methods for navigation of luminal networks detecting physiological noise | |
CN114601559B (en) | System and medium for positioning sensor-based branch prediction | |
EP4021331A1 (en) | Systems and methods for weight-based registration of location sensors | |
EP3773131B1 (en) | Systems for registration of location sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210323 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210428 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210428 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210511 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230517 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7282685 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |