KR20200073245A - 항행(navigation)을 위한 이미지 기반 분지(branch) 감지 및 매핑 - Google Patents

항행(navigation)을 위한 이미지 기반 분지(branch) 감지 및 매핑 Download PDF

Info

Publication number
KR20200073245A
KR20200073245A KR1020207013397A KR20207013397A KR20200073245A KR 20200073245 A KR20200073245 A KR 20200073245A KR 1020207013397 A KR1020207013397 A KR 1020207013397A KR 20207013397 A KR20207013397 A KR 20207013397A KR 20200073245 A KR20200073245 A KR 20200073245A
Authority
KR
South Korea
Prior art keywords
openings
image
instrument
opening
network
Prior art date
Application number
KR1020207013397A
Other languages
English (en)
Inventor
리트위크 움말라네니.
Original Assignee
아우리스 헬스, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아우리스 헬스, 인코포레이티드 filed Critical 아우리스 헬스, 인코포레이티드
Publication of KR20200073245A publication Critical patent/KR20200073245A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • A61B1/2676Bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • A61B1/2736Gastroscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/307Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the urinary organs, e.g. urethroscopes, cystoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B46/00Surgical drapes
    • A61B46/10Surgical drapes specially adapted for instruments, e.g. microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B50/00Containers, covers, furniture or holders specially adapted for surgical or diagnostic appliances or instruments, e.g. sterile covers
    • A61B50/10Furniture specially adapted for surgical or diagnostic appliances or instruments
    • A61B50/13Trolleys, e.g. carts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/02Adjustable operating tables; Controls therefor
    • A61G13/04Adjustable operating tables; Controls therefor tiltable around transverse or longitudinal axis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/02Adjustable operating tables; Controls therefor
    • A61G13/08Adjustable operating tables; Controls therefor the table being divided into different adjustable sections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/10Parts, details or accessories
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/10Parts, details or accessories
    • A61G13/12Rests specially adapted therefor; Arrangements of patient-supporting surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • A61B2017/00039Electric or electromagnetic phenomena other than conductivity, e.g. capacity, inductivity, Hall effect
    • A61B2017/00044Sensing electrocardiography, i.e. ECG
    • A61B2017/00048Spectral analysis
    • A61B2017/00053Mapping
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00477Coupling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/303Surgical robots specifically adapted for manipulations within body lumens, e.g. within lumen of gut, spine, or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/306Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3614Image-producing devices, e.g. surgical cameras using optical fibre
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2217/00General characteristics of surgical instruments
    • A61B2217/002Auxiliary appliance
    • A61B2217/005Auxiliary appliance with suction drainage system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2217/00General characteristics of surgical instruments
    • A61B2217/002Auxiliary appliance
    • A61B2217/007Auxiliary appliance with irrigation system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2210/00Devices for specific treatment or diagnosis
    • A61G2210/50Devices for specific treatment or diagnosis for radiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30084Kidney; Renal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Pulmonology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Otolaryngology (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Urology & Nephrology (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Endoscopes (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

관강내 조직망 안에서의 기구의 항행은 이미지-기반 분지 감지 및 매핑을 포함할 수 있다. 이미지-기반 분지 감지는 이미지 안에서 관강내 조직망의 한 개 이상의 분지와 관련된 한 개 이상의 개구부를 식별하는 단계를 포함할 수 있다. 이미지-기반 분지 매핑은 상기 감지된 한 개 이상의 개구부와 이에 대응되는 관강내 조직망의 분지를 매핑하는 단계를 포함할 수 있다. 매핑은 상기 개구부의 특징을 예상되는 개구부 세트의 특징과 비교하는 단계를 포함할 수 있다. 기구에 대한 위치 상태 추정은 매핑된 개구부로부터 결정될 수 있고, 이는 관강내 조직망의 항행을 용이하게 해 줄 수 있다.

Description

항행(navigation)을 위한 이미지 기반 분지(branch) 감지 및 매핑
본 개시 내용은 일반적으로 의료 기구의 항행을 위한 시스템 및 방법에 관한 것이고, 더욱 상세하게는 로봇-제어식 의료 기구 항행을 위한 이미지-기반의 분지 감지 및 매핑에 관한 것이다.
내시경술(가령, 기관지경 술)과 같은 의료 시술은 진단 및/또는 치료의 목적을 위해 (기도와 같은) 환자의 내강의 내부를 접근하고 시각화하는 것을 수반할 수 있다. 시술 동안, 내시경과 같은 연성의 관형 도구 또는 기구는 환자 몸 안으로 삽입될 수 있다. 일부 사례의 경우 제2 기구가 진단 및/또는 치료를 위해 식별된 조직 부위까지 내시경을 통해 지나갈 수 있다.
기관지 내시경 검사는 의사가 환자의 기관지 및 모세 기관지와 같은 폐 기도 내부 상태를 검사하는 의료 시술이다. 의료 시술 중, 기관지경이라고 알려진 가느다란 연성 관형 도구가 환자의 입을 통해 환자의 목구멍을 따라 폐 기도 안으로 내려가 이후 진단 및 치료를 위해 식별된 조직 부위를 향해 삽입될 수 있다. 기관지경은 조직 부위까지 경로를 제공하는 내부 내강(“작업 채널”)과 카테터(catheter)를 포함할 수 있으며 다양한 의료 도구가 상기 작업 채널을 통해 조직 부위로 삽입될 수 있다.
특정 의료 시술에서, 수술 로봇 시스템이 수술 도구의 삽입 및/또는 조작을 제어하기 위해 사용될 수 있다. 수술 로봇 시스템은 시술 동안 수술 도구의 위치지정을 제어하기 위해 사용되는 조작기 조립체를 포함하는 적어도 한 개의 로봇 암 또는 다른 기구 위치지정 장치를 포함할 수 있다.
로봇-구동형 의료 시스템(robotically-enabled medical system)은 복강경술과 같은 최소 침습 시술 및 내시경술과 같은 비침습적 시술을 포함해 다양한 의료 시술을 수행하기 위해 사용될 수 있다. 내시경 시술들 중에, 로봇-구동형 의료 시스템은 기관지 내시경 검사, 요관 내시경 검사, 소화기 내시경 검사 등을 수행하기 위해 사용될 수 있다. 이러한 시술 동안에, 의사 및/또는 컴퓨터 시스템이 환자의 관강내 조직망 사이로 의료 기구를 항행시킬 수 있다. 관강내 조직망은 (기관지 또는 신장 조직망과 같은) 복수의 분지 내강 또는 (위장관(gastrointestinal tract)과 같은) 단일의 내강을 포함할 수 있다. 로봇-구동형 의료 시스템은 의료 기구를 관강내 조직망 사이로 안내(또는 안내를 지원)하기 위한 항행 시스템을 포함할 수 있다.
본 개시 내용의 실시예는 이미지-기반 분지 감지 및 매핑을 위한 시스템 및 기술에 관한 것이다. 이미지-기반 분지 감지 및 매핑은 관강내 조직망 항행을 지원할 수 있다. 이미지-기반 분지 감지는 기구의 촬상 장치로 캡처한 이미지 안에서 관강내 조직망의 한 개 이상의 분지와 연관된 한 개 이상의 개구부를 식별하는 것을 포함할 수 있다. 이미지-기반 분지 매핑은 감지된 한 개 이상의 개구부와 관강내 조직망의 대응되는 분지의 매핑을 포함할 수 있다. 이러한 시스템 및 기술은 관강내 조직망 안에 기구의 위치를 결정 또는 추정하기 위해 사용될 수 있다. 본 개시 내용의 시스템, 방법 및 장치는 각각 여러 개의 혁신적인 측면을 갖고 있으며, 이들 중 단일의 하나가 본 명세서에 개시된 원하는 속성들에 대해 단독으로 책임지지 않는다.
따라서 첫 번째 측면은 저장된 명령어를 포함하는 비일시적 컴퓨터 판독 가능 저장 매체에 관한 것이고, 상기 명령어가 실행되었을 때, 장치의 프로세서는 적어도: 관강내 조직망의 현재 분지 안에 위치한 기구의 위치 상태 추정을 결정하고; 위치 상태 추정 및 관강내 조직망의 수술 전 모델을 적어도 부분적으로 기초하여 예상되는 이후 분지의 세트를 결정하고; 기구 상에 위치한 촬상 장치로 현재 분지의 이미지를 캡처하고; 관강내 조직망의 이후 분지들과 현재 분지를 연결하는 복수의 개구부를 이미지 안에서 감지하고; 감지된 복수의 개구부의 한 개 이상의 특징을 예상되는 이후 분지 세트와 비교해 각각의 복수의 개구부를 예상되는 이후 분지 세트 중 하나와 매핑하고; 및 적어도 부분적으로 상기 비교에 기초하여 업데이트된 위치 상태 추정을 제공한다.
또한 첫 번째 측면은 한 개 이상의 이하 기능을 모든 조합으로 포함할 수 있다: (a) 업데이트된 위치 상태 추정은 상기 위치 상태 추정이 정확할 확률을 포함한다; (b) 상기 확률은 감지된 복수의 개구부의 한 개 이상의 특징과 예상되는 이후 분지들의 세트 사이의 비교를 부분적으로 기초해 결정된다; (c) 상기 확률은 감지된 복수의 개구부의 한 개 이상의 특징이 예상되는 이후 분지들의 세트와 일치하는 정도를 부분적으로 기초하여 결정된다; (d) 상기 업데이트된 위치 상태 추정은 기구가 이후 어느 분지 안으로 이동하게 될 지의 추정을 포함한다; (e) 명령어는 실행 시, 장치의 프로세서가 복수의 감지된 개구부 중에 어느 개구부가 이미지의 중심에 더 가까운 지를 결정하게 만든다; (f) 업데이트된 위치 상태 추정은 기구가 이미지의 중심에 더 가깝다고 결정된 개구부 안으로 이동할 확률을 포함한다; (g) 위치 상태 추정은 기구의 세로축이 중심인 기구의 롤의 추정을 포함하고, 상기 업데이트된 위치 상태 추정은 상기 롤의 추정이 정확할 확률 포함하고, 상기 확률은 수술 전 모델을 기초하여 이미지 안에 감지된 개구부의 방향과 예상되는 이후 분지 세트의 예상 방향을 비교해 결정된다; (h) 위치 상태 추정은 기구의 세로축이 중심인 기구의 롤의 추정을 포함하고, 명령어는 실행 시, 장치의 프로세서가 수술 전 모델을 기초하여 이미지 안에 감지된 개구부의 방향과 예상되는 이후 분지 세트의 예상 방향을 비교하여 정정된 롤의 추정을 결정하게 만든다; (i) 상기 명령어는 실행 시, 장치의 프로세서가 감지된 개구부의 한 개 이상의 특징을 결정하게 만든다; (j) 상기 한 개 이상의 특징은 개구부의 도심(centroid), 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터로 구성된 무리에서 선정된다; (k) 상기 명령어는 실행 시, 장치의 프로세서가 예상되는 이후 분지 세트와 관련된 정보를 수술 전 모델로부터 취득하게 만들고, 상기 정보는 적어도 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터 중 적어도 하나를 포함한다; (l) 명령어는, 실행 시 장치의 프로세서가 각각의 감지된 개구부에 대해, 감지된 개구부의 한 개 이상의 특징을 예상되는 이후 분지 세트 관련 정보와 반복적으로 일치시킴으로써 감지된 복수의 개구부의 한 개 이상의 특징과 예상되는 이후 분지 세트와 비교하고, 가장 일치률이 높은 것을 사용해 감지된 개구부를 예상되는 이후 분지 중에 하나와 매핑 시킨다; (m) 명령어는 실행시, 장치의 프로세서가 이미지에 대한 픽셀 강도 값의 히스토그램(histogram)을 생성하고; 히스토그램을 분석해 이미지 내 복수의 개구부를 식별함으로써 이미지 안에 복수의 개구부를 감지하게 만든다; 및 또는 (n) 히스토그램 분석 단계는: 히스토그램 내 적어도 두 개의 최고점을 식별하고; 적어도 두개의 최고점 사이의 중점(midpoint)을 식별하고; 중점의 첫 부분의 픽셀을 개구부로 분류하는 것을 포함한다.
두번째 측면은 환자의 관강내 조직망 항행을 위한 로봇 시스템에 관한 것이고, 상기 로봇 시스템은: 관강내 조직망 안으로 삽입되도록 구성된 세장형 본체를 가지는 기구, 및 세장형 본체의 원위 부분에 위치된 촬상 장치를 포함한다. 기구에 부착된 기구 위치지정 장치 - 상기 기구 위치지정 장치는 관강내 조직망 사이로 기구를 이동시키도록 구성됨 -; 저장된 실행가능 명령어를 포함하는 적어도 한 개의 컴퓨터 판독 가능 메모리; 및 적어도 한 개의 컴퓨터 판독 가능 메모리와 통신하는 한 개 이상의 프로세서, 상기 프로세서는 명령어를 실행하여 시스템이 적어도: 관강내 조직망의 현재 분지 안에 위치한 기구의 위치 상태 추정을 결정하고; 초기 상태 추정 및 관강내 조직망의 수술전 모델에 적어도 부분적으로 기초하여 예상되는 이후 분지 세트를 결정하고; 기구 상에 위치한 촬상 장치로 관강내 조직망의 현재 분지의 이미지를 캡처하고; 관강내 조직망의 이후 분지들과 현재 분지를 연결하는 복수의 개구부를 이미지 안에서 감지하고; 감지된 복수의 개구부의 특징들을 예상되는 이후 분지 세트와 비교해 복수의 개구부를 예상되는 이후 분지 세트 중 하나와 각각 매핑하고; 및 적어도 부분적으로 상기 비교에 기초하여 업데이트된 위치 상태 추정을 제공한다.
또한 두 번째 측면은 한 개 이상의 이하 기능을 모든 조합으로 포함할 수 있다: (a) 기구는 내시경을 포함한다; (b) 상기 기구 위치지정 장치는 로봇 암을 포함한다; (c) 관강내 조직망은 폐의 기관지 조직망, 위장관, 또는 콩팥의 신장 조직망을 포함한다; (d) 상기 업데이트된 위치 상태 추정은 위치 상태 추정이 정확할 확률을 포함한다; (e) 확률은 감지된 복수의 개구부의 특징과 예상되는 이후 분지 세트 간의 비교를 부분적으로 기초하여 결정된다; (f) 상기 확률은 감지된 복수의 개구부의 특징이 예상되는 이후 분지들의 세트와 일치하는 정도를 부분적으로 기초하여 결정된다; (g) 상기 업데이트된 위치 상태 추정은 기구가 이후 어느 분지 안으로 이동할 지의 추정을 포함한다; (h) 명령어는 실행 시, 한 개 이상의 프로세서가 복수의 감지된 개구부 중에 어느 개구부가 이미지의 중심에 더 가까운 지를 결정하게 만든다; (i) 업데이트된 위치 상태 추정은 기구가 이미지 중심에 더 가깝다고 결정된 개구부 안으로 이동할 확률을 포함한다; (j) 위치 상태 추정은 기구의 세로축이 중심인 기구의 롤의 추정을 포함하고, 상기 업데이트된 위치 상태 추정은 상기 롤의 추정이 정확할 확률 포함하고, 상기 확률은 수술 전 모델을 기초하여 이미지 안에 감지된 개구부의 방향과 예상되는 이후 분지 세트의 예상 방향을 비교해 결정된다; (k) 위치 상태 추정은 기구의 세로축이 중심인 기구의 롤의 추정을 포함하고, 명령어는 실행 시, 한 개 이상의 프로세서가 수술 전 모델을 기초하여 이미지 안에 감지된 개구부의 방향과 예상되는 이후 분지 세트의 예상 방향을 비교하여 정정된 롤의 추정을 결정하게 만든다; (l) 상기 명령어는 실행 시, 한 개 이상의 프로세서가 감지된 개구부의 한 개 이상의 특징을 결정하게 만든다; (m) 상기 한 개 이상의 특징은 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터로 구성된 무리에서 선정된다; (n) 상기 명령어는 실행 시, 한 개 이상의 프로세서가 예상되는 이후 분지 세트와 관련된 정보를 수술 전 모델로부터 취득하게 만들고, 상기 정보는 적어도 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터 중 적어도 하나를 포함한다; (o) 명령어는, 실행 시 한 개 이상의 프로세서가 각각의 감지된 개구부에 대해, 감지된 개구부의 한 개 이상의 특징을 예상되는 이후 분지 세트 관련 정보와 반복적으로 일치시킴으로써 감지된 복수의 개구부의 한 개 이상의 특징과 예상되는 이후 분지 세트와 비교하고, 가장 일치률이 높은 것을 사용해 감지된 개구부와 예상되는 이후 분지 중 하나를 매핑 시킨다; (p) 명령어는 실행 시, 한 개 이상의 프로세서가 이미지에 대한 픽셀 강도 값의 히스토그램을 생성하고; 히스토그램을 분석해 이미지 내 복수의 개구부를 식별함으로써 이미지 안에 복수의 개구부를 감지하게 만든다; 및 또는 (q) 히스토그램 분석 단계는: 히스토그램 내 적어도 두 개의 최고점을 식별하고; 적어도 두 개의 최고점 사이의 중점을 식별하고; 중점의 첫 부분의 픽셀을 개구부로 분류하는 것을 포함한다.
세 번째 측면은 관강내 조직망 항행을 위한 방법과 관련되며, 상기 방법은: 관강내 조직망의 현재 분지 안으로 기구를 삽입하는 단계; 기구에 대한 위치 상태 추정을 수신하는 단계; 초기 상태 추정 및 관강내 조직망의 수술전 모델을 적어도 부분적으로 기초하여 예상되는 이후 분지 세트를 결정하는 단계; 기구 상에 위치된 촬상 장치로 현재 분지의 이미지를 캡처하는 단계; 이후 분지들을 상기 현재 분지로 연결하는 복수의 개구부를 감지하기 위해 이미지를 분석하는 단계; 감지된 복수의 개구부의 특징을 예상되는 이후 분지의 세트와 비교해서 복수의 개구부를 각각 하나의 예상되는 이후 분지와 매핑시키는 단계; 및 상기 비교를 적어도 부분적으로 기초하여 업데이트된 위치 상태 추정을 제공하는 단계를 포함한다.
또한 세 번 째 측면은 한 개 이상의 이하 기능들을 모든 조합으로 포함할 수 있다: (a) 기구는 내시경을 포함한다; (b) 상기 기구 위치지정 장치는 로봇 암을 포함한다; (c) 관강내 조직망은 폐의 기관지 조직망, 위장관, 또는 콩팥의 신장 조직망을 포함한다; (d) 상기 업데이트된 위치 상태 추정은 위치 상태 추정이 정확할 확률을 포함한다; (e) 확률은 감지된 복수의 개구부의 특징과 예상되는 이후 분지 세트 간의 비교를 부분적으로 기초하여 결정된다; (f) 상기 확률은 감지된 복수의 개구부의 한 개 이상의 특징이 예상되는 이후 분지들의 세트와 일치하는 정도를 부분적으로 기초하여 결정된다; (g) 상기 업데이트된 위치 상태 추정은 기구가 이후 어느 분지 안으로 이동할지에 대한 추정을 포함하고; (h) 복수의 감지된 개구부 중에 어느 개구부가 이미지의 중심과 더 가까운지 결정하는 단계를 더 포함한다; (i) 업데이트된 위치 상태 추정은 기구가 이미지 중심에 더 가깝다고 결정된 개구부 안으로 이동할 확률을 포함한다; (j) 위치 상태 추정은 기구의 세로축이 중심인 기구의 롤의 추정을 포함하고, 상기 업데이트된 위치 상태 추정은 상기 롤의 추정이 정확할 확률을 포함하고, 상기 방법은 상기 확률을 결정하기 위해 수술 전 모델을 기초하여 이미지 안에 감지된 개구부의 방향과 예상되는 이후 분지 세트의 예상 방향을 비교하는 단계를 더 포함한다; (k) 위치 상태 추정은 기구의 세로축이 중심인 기구의 롤의 추정을 포함하고, 상기 방법은: 수술 전 모델을 기초하여 이미지 안에 감지된 개구부의 방향과 예상되는 이후 분지 세트의 예상 방향을 비교하여 정정된 롤의 추정을 결정하는 단계; (l) 감지된 개구부의 한 개 이상의 특징을 결정하는 단계; (m) 상기 한 개 이상의 특징은 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터로 구성된 무리에서 선정되고; (n) 예상되는 이후 분지 세트와 관련된 정보를 수술 전 모델로부터 취득하는 단계 - 상기 정보는 적어도 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터 중 적어도 하나를 포함함- 을 더 포함한다; (o) 각각의 감지된 개구부에 대해, 감지된 개구부의 한 개 이상의 특징을 예상되는 이후 분지 세트 관련 정보와 반복적으로 일치시킴으로써 감지된 복수의 개구부의 한 개 이상의 특징과 예상되는 이후 분지 세트와 비교하고, 가장 일치률이 높은 것을 사용해 감지된 개구부와 예상되는 이후 분지 중 하나를 매핑 시킨다; (p) 이미지 안에 복수의 개구부를 감지하는 단계는: 이미지에 대한 픽셀 강도 값의 히스토그램을 생성하는 단계; 히스토그램을 분석해 이미지 내 복수의 개구부를 식별하는 단계를 포함하고; 및 또는 (q) 히스토그램을 분석하는 단계는: 히스토그램 내 적어도 두 개의 최고점을 식별하는 단계; 적어도 두개의 최고점 사이의 중점을 식별하는 단계; 중점의 첫 부분의 픽셀을 개구부로 분류하는 단계를 포함한다.
네 번째 측면은 관강내 조직망의 분지의 개구부를 감지하기 위한 방법에 관한 것으로 방법은: 분지 안에 위치한 촬상 장치로 관강내 조직망의 분지 내부의 이미지를 캡처하는 단계; 이미지에 대한 픽셀 강도 값의 히스토그램을 생성하는 단계; 및 임계값 이하의 픽셀을 이미지 내부의 개구부의 표시로 식별하는 단계를 포함한다.
네 번째 측면은 또한 한 개 이상의 이하 특징을 모든 조합으로 포함할 수 있고: (a) 히스토그램을 기초하여 임계값을 결정하는 단계 (b) 임계값을 결정하는 단계는: 히스토그램 내 적어도 두 개의 최고점을 식별하는 단계; 적어도 두 개의 최고점 사이의 중점을 식별하는 단계; 임계값을 중점의 강도 값과 동일하게 설정하는 단계를 더 포함하고; (c) 이미지 내 식별된 각각의 개구부에 대해, 개구부의 도심을 결정하는 단계; (d) 이미지 내 식별된 각각의 개구부에 대해, 개구부의 측면도를 결정하는 단계; (e) 이미지 내 여러 개의 식별된 개구부와 배드 프레임 감지기 임계값(bad frame detector threshold)을 비교하는 단계; - 및 만약 여러 개의 식별된 개구부가 배드 프레임 감지기 임계값를 초과하면: 분지의 내부의 제2 이미지를 캡처하고; 및 제2 이미지를 분석해서 제2 이미지 내 개구부를 결정함 -; (f) 상기 관강내 조직망은 폐의 기관지 조직망, 위장관, 또는 콩팥의 신장 조직망을 포함한다.
본 개시 내용의 측면들은 이후에 첨부 도면과 함께 설명되며, 이는 도시를 위해 제공된 것이고 개시된 측면을 제한하려는 것이 아니며, 동일한 명칭은 동일한 요소를 나타낸다.
도 1은 진단 및/또는 치료 목적의 기관지 내시경 시술(들)을 위해 배치된 카트-기반의(cart-based) 로봇 시스템의 실시예를 도시한다.
도 2는 도 1의 로봇 시스템의 추가 측면들을 도시한다.
도 3은 요관경 시술을 위해 배치된 도1의 로봇 시스템의 실시예를 도시한다.
도 4는 혈관 시술을 위해 배치된 도1의 로봇 시스템의 실시예를 도시한다.
도 5는 기관지 내시경 시술을 위해 배치된 테이블-기반의(table-based) 로봇 시스템의 실시예를 도시한다.
도 6은 도 5의 로봇 시스템의 대안적인 뷰(view)를 제공한다.
도 7은 로봇 암(들)을 집어 넣도록 구성된 시스템의 예를 도시한다.
도 8은 요관경 시술을 위해 구성된 테이블-기반의 로봇 시스템의 실시예를 도시한다.
도 9는 복강경 시술을 위해 구성된 테이블-기반의 로봇 시스템의 실시예를 도시한다.
도 10은 도 5 내지 도 9의 테이블-기반의 로봇 시스템의 피치(pitch) 또는 기울기가 조정된 실시예를 도시한다.
도 11은 도 5 내지 도 10의 테이블-기반 로봇 시스템에서 테이블과 기둥 사이의 인터페이스의 상세한 도면을 제공한다.
도 12는 예시적인 기구 드라이버를 도시한다.
도 13은 예시적인 의료 기구와 함께 쌍을 이루는 기구 드라이버를 도시한다.
도 14는 드라이버 유닛들의 축이 기구의 세장형 샤프트의 축과 평행을 이루는 기구 드라이버 및 기구의 대안적인 설계를 도시한다.
도 15는 예시적인 실시예에 따라 가령, 도 13 및 도 14의 기구의 위치와 같이 도 1 내지 도 10의 로봇 시스템의 한 개 이상의 요소들의 위치를 추정하는 국소화 시스템(localization system)을 나타내는 블록도를 도시한다.
도 16은 관강내 조직망을 항행하는 기구의 예시를 도시한다.
도 17는 로봇-제어식 수술 시스템을 위한 예시적인 명령 콘솔을 도시한다.
도 18은 의료 기구의 실시예의 원위 단부를 도시한다.
도 19는 이미지-기반으로 분지를 감지 및 매핑하는 방법의 예를 도시하는 흐름도를 나타낸다.
도 20은 관강내 조직망의 분지 내부의 예시적인 이미지를 도시한다.
도 21은 이미지-기반으로 분지를 감지하는 예시적인 방법을 도시하는 흐름도를 나타낸다.
도 22는 예시적인 히스토그램의 픽셀 강도 값을 도시한다.
도 23A 내지 도 23B는 이미지-기반의 분지 감지를 도시하는 예시적인 이미지를 도시한다.
도 24는 이미지-기반으로 분지를 감지하는 예시적인 방법을 도시하는 흐름도를 나타낸다.
도 25는 관강내 조직망의 단순화된 뷰를 도시한다.
도 26은 이미지-기반으로 분지를 매핑하는 예시적인 방법을 도시하는 흐름도를 나타낸다.
도 27A 내지 도 27C는 이미지-기반 분지 매핑을 위한 방법의 예시적인 단계들을 도시한다.
도 28은 이미지-기반 분지 예측을 도시하는 예시적인 이미지를 도시한다.
도 29는 이미지-기반으로 분지를 감지 및 매핑하는 방법의 예를 도시하는 흐름도를 나타낸다.
1. 개요.
본 개시내용의 측면들은 복강경술과 같은 최소 침습 시술 및 내시경술과 같은 비침습적 시술을 포함해 다양한 의료 시술을 수행할 수 있는 로봇-구동형 의료 시스템(robotically-enabled medical system)에 통합될 수 있다. 내시경 시술들 중에, 본 시스템은 기관지 내시경 검사, 요관 내시경 검사, 소화기 내시경 검사 등을 수행할 수 있다.
폭넓은 시술을 수행하는 것 이외에도, 본 시스템은 향상된 촬상 및 안내(enhanced imaging and guidance)와 같은 추가적인 장점을 제공하여 의사에게 도움을 줄 수 있다. 또한, 본 시스템은 의사가 불편한 팔 동작과 자세를 취할 필요 없이 인체공학적인 자세로 시술을 수행하게 한다. 더욱이, 본 시스템은 단일 사용자에 의해 한 개 이상의 시스템 기구가 제어될 수 있도록 하여 의사가 사용 편리성이 향상된 시술을 수행할 수 있게 한다.
이하 다양한 실시예가 예시를 위해 도면과 결합되어 후술된다. 개시된 개념들의 다양한 다른 구현이 가능하며, 개시된 구현들로 다양한 장점이 달성될 수 있다는 것을 인식할 필요가 있다. 본 명세서에는 참조를 위해 또한 여러 섹션의 위치 파악에 도움을 주기 위해 항목들이 포함되어 있다. 이 항목들은 이에 대해 설명된 개념들의 범위를 한정 지으려는 의도가 아니다. 이러한 개념은 명세서 전반에 걸쳐 적용될 수 있다.
A. 로봇 시스템 - 카트(cart).
로봇-구동형 의료 시스템은 특정 시술에 따라 다양한 방식으로 구성될 수 있다. 도 1은 진단 및/또는 치료 목적의 기관지 내시경 시술을 수행하기 위해 배치된 카트 기반 로봇-구동형 시스템(10)의 일 실시예를 도시한다. 기관지 내시경 검사 시, 시스템(10)은 기관지 내시경 검사를 위한 시술-전용 기관지경(procedure-specific bronchoscope)일 수 있는 조향가능한 내시경(13)과 같은 의료 기구를, 인체의 개구부 접근 지점(즉, 본 예시에서는 테이블 위 환자의 입)으로 이동시켜 진단 및/또는 치료 도구를 전달할 수 있도록 한 개 이상의 로봇 암(arm)(12)을 갖는 카트(11)를 포함할 수 있다. 도시된 바와 같이, 접근 지점으로의 접근성을 제공하기 위해서 카트(11)는 환자의 상체에 가깝게 위치될 수 있다. 이와 유사하게, 접근 지점에 대해 기관지경을 위치시키도록 로봇 암(12)이 작동될 수 있다. 도 1과 같은 배치는 위내시경, 위장 시술(GI)을 위한 특수 내시경으로 위장(GI) 시술을 수행할 때에도 활용될 수 있다. 도 2는 카트의 실시예의 예를 더 상세하게 도시한다.
도 1을 계속 참조하여, 카트(11)를 올바르게 위치시킨 후, 로봇 암(12)은 조향가능한 내시경(13)을 로봇식(robotically)이나 수동식으로 또는 이 두 방식을 결합하여 환자에 삽입할 수 있다. 도시된 바와 같이, 조향가능한 내시경(13)은 내부 리더 부분(inner leader portion)과 외부 쉬스 부분(outer sheath portion), 적어도 2개의 텔레스코핑 부분(telescoping part)을 포함할 수 있고, 각각의 부분은 기구 드라이버의 세트(28)로부터 별개의 기구 드라이버에 결합되며, 각각의 기구 드라이버는 개개의 로봇 암의 원위 단부에 결합된다. 리더 부분을 쉬스 부분과 동축 정렬시킬 수 있는 이러한 기구 드라이버(28)의 선형 배치는 한 개 이상의 로봇 암(12)을 다른 각도 및/또는 위치로 조작해서 공간에 재위치될 수 있는 “가상 레일(29)”을 형성한다. 본 명세서에서 설명되는 가상 레일은 도면에 점선으로 도시되며, 이에 따라 점선은 시스템의 어떠한 물리적인 구조도 나타내지 않는다. 가상 레일(29)을 따른 기구 드라이버(28)의 이동은 외부 쉬스 부분에 대해 내부 리더 부분을 상대적으로 짧아지게(telescope)하거나, 내시경(13)을 전진 또는 환자로부터 후퇴시킨다. 가상 레일(29)의 각도는 임상적 적용이나 의사의 선호방식에 따라 조정, 변환, 및 회전될 수 있다. 예를 들어, 기관지 내시경 검사에서, 도시된 바와 같은 가상 레일(29)의 각도와 위치는 내시경(13)에 대한 의사의 접근성과, 환자의 입안에서 내시경(13)을 구부릴때 발생하는 마찰의 최소화의 절충을 나타낸다.
내시경(13)은 삽입한 후 목표지점 또는 수술 부위에 도달할 때까지 로봇시스템의 정확한 명령을 이용하여 환자의 기관과 폐로 진입될 수 있다. 환자의 폐 조직망(lung network)을 통한 항행(navigation)을 향상시키며 및/또는 의도한 목표지점에 도달하기 위해, 내시경(13)은 외부 쉬스 부분으로부터 내부 리더 부분을 신축적으로(telescopically) 연장되도록 조작될 수 있어, 향상된 연접(articulation) 및 더 큰 곡률 반경(굽힘 반지름, bend radius)을 얻을 수 있다. 또한 별개의 기구 드라이버(28)를 사용함으로써 리더 부분과 쉬스 부분이 서로 독립적으로 구동될 수 있다.
예를 들어, 내시경(13)은 환자의 폐 내의 병변 또는 결절과 같은 표적 부위로 생검바늘을 전달하도록 할 수 있다. 바늘은 내시경의 길이를 따라 이어지는 작업 채널 아래에 배치되어 조직 샘플을 채취할 수 있으며 병리학자에 의해 검사된다. 병리조직검사 결과에 따라, 추가 생검이 필요한 경우 내시경의 작업 채널 아래에 추가 도구를 배치시킬 수 있다. 결절이 악성인 것으로 확인되면, 내시경(13)은 내시경적으로(endoscopically) 도구를 전달하여 암 잠재성이 있는 조직을 절제한다. 어떤 경우에는, 진단과 치료적 처치가 별개의 시술로 진행되어야 할 필요가 있다. 이 상황에서, 내시경(13)은 표적 결절 부위를 “표시하는” 표식을 제공하는 데에도 사용될 수 있다. 다른 경우에는, 진단과 치료적 처치가 같은 시술 중에 수행될 수 있다.
또한, 시스템(10)은 이동식 타워(30)를 포함할 수 있고, 이는 지원 케이블을 통해 카트(11)에 연결될 수 있어, 제어, 전자공학, 유체공학, 광학, 센서를 위한 지원을 제공하고 및/또는 카트(11)에 전력을 공급할 수 있다. 타워(30)에 이러한 기능의 배치는 더 작은 형상 계수(form factor)를 갖는 카트(11)를 허용하며, 이는 수술 담당 의사와 의료진이 더 쉽게 카트를 조정하고 및/또는 재위치시킬 수 있게 한다. 그뿐만 아니라, 카트/테이블과 지원타워(30) 간의 기능의 분리는 수술실 환경이 복잡해지는 것을 줄이고 임상 워크플로우를 개선해 준다. 카트(11)는 환자에 가깝게 놓여 있을 수 있는 반면, 타워(30)는 수술에 방해가 되지 않도록 멀찍하게 놓여있을 수도 있다.
전술된 바와 같은 로봇시스템을 지원하기 위해서, 타워(30)는 예컨대 지속형 자기 저장 스토리지 드라이브(persistent magnetic storage drive), 솔리드 스테이트 드라이브(solid state drive) 등과 같은 비일시적 컴퓨터 판독 가능 저장 매체 내에, 컴퓨터 프로그램 명령어를 저장하는 컴퓨터 기반 제어 시스템의구성요소(들)를 포함할 수 있다. 이러한 명령어의 실행은, 이 실행이 타워(30)나 카트(11) 중 어디에서 실행되든지 간에, 전체 시스템 또는 서브시스템(sub-system)(들)을 제어할 수 있다. 예를 들어, 컴퓨터 시스템의 프로세서를 통해 명령어가 실행되면, 로봇 시스템의 구성요소들은 관련 캐리지와 암 마운트(arm mount)를 작동시키고 로봇 암을 작동시키며 의료 기구를 제어할 수 있다. 예를 들어, 제어 신호의 수신에 응답하여, 로봇 암 조인트(joint)의 모터가 암을 움직여 특정 자세를 취하도록 할 수 있다.
또한, 타워(30)는 내시경(13)을 통해 배치될 수 있는 시스템에 제어된 세척(irrigation) 및 흡인 기능을 제공하기 위해 펌프, 유량계, 밸브 제어부 및/또는 액체 액세스를 포함할 수 있다. 이 구성요소들은 또한 타워(30)의 컴퓨터 시스템을 이용하여 제어될 수 있다. 일부 실시예에서, 세척 및 흡인 기능은 별도 케이블(들)을 통해 내시경(13)에 직접 전달될 수도 있다.
타워(30)는 필터링되고 보호된 전력을 카트(11)로 공급하도록 설계된 전압 및 서지 보호기(voltage and surge protector)를 포함할 수 있어, 전력 변압기 및 다른 보조 전기 구성요소들을 카트(11)에 구비할 필요성을 없애주어 더 작고 더 이동가능한 카트(11)를 유도한다.
또한, 타워(30)는 로봇시스템(10) 전반에 걸쳐 배치된 센서들을 위한 지원 장비를 포함할 수 있다. 예를 들어, 타워(30)는 로봇시스템(10)에 걸쳐 광센서 또는 카메라로부터 수신되는 데이터를 감지, 수신, 처리하기 위해 광전 장치를 포함할 수 있다. 제어시스템과 결합하여, 이러한 광전 장치는 타워(30)에 포함해 시스템 전반에 걸쳐 배치된 여러 개의 콘솔에 디스플레이하기 위한 실시간 이미지를 생성하는 데 사용될 수 있다. 유사하게, 타워(30)는 배치된 전자기식(EM) 센서로부터 수신된 신호들을 수신하고 처리하는 전자 서브시스템을 포함할 수 있다. 타워(30)는 또한 의료 기구 안팎의 EM 센서 감지를 위해 EM 전자기장 발생기를 수용하고 배치하는데 사용될 수 있다.
또한, 타워(30)는 카트 위에 탑재된 콘솔과 같이 시스템 다른 부분에 있는 다른 콘솔과 더불어 콘솔(31)을 포함할 수 있다. 콘솔(31)은 의료진을 위해 사용자 인터페이스와 터치스크린과 같은 디스플레이 스크린을 포함할 수 있다. 시스템(10)의 콘솔들은 일반적으로 로봇 제어뿐 아니라 내시경(13)의 항행 및 국소 정보(navigational and localization information)와 같이 수술 전 그리고 시술의 실시간 정보를 모두 제공하도록 설계된다. 콘솔(31)이 의사가 이용할 수 있는 유일한 콘솔이 아닌 경우, 이는 간호사와 같은 다른 작동자가 환자의 건강상태 또는 바이털(vitals), 시스템 작동상태를 모니터링하고, 항행 및 국소 정보와 같은 시술-전용 데이터를 제공하는데 사용될 수 있다. 다른 실시예에서, 콘솔(31)은 타워(30)로부터 별개의 본체에 수용된다.
타워(30)는 한 개 이상의 케이블이나 커넥션(미도시)을 통해 카트(11) 및 내시경(13)에 결합될 수 있다. 일부 실시예에서는, 타워(30)로부터의 지원기능이 단일 케이블을 통해 카트(11)로 제공될 수 있으며, 이를 통해 수술실 환경이 간소화되고 정돈될 수 있다. 다른 실시예에서는, 특정 기능이 별도의 케이블이나 커넥션에 결합될 수 있다. 예를 들어, 단일 전력 케이블을 통해서 카트에 전력이 공급될 수 있는 한편, 제어, 광학, 유체공학 및/또는 항행에 대한 지원은 별도 케이블을 통해서 제공될 수 있다.
도 2는 도 1의 카트 기반의 로봇-구동형 시스템의 카트의 실시예를 상세하게 도시 한다. 카트(11)는 일반적으로 긴 지지 구조체(elongated support structure: 14) (주로 “컬럼(column)”이라 지칭), 카트 베이스(15), 컬럼(14) 윗부분의 콘솔(16)을 포함한다. 컬럼(14)은 한 개 이상의 로봇 암(12)(도 2에서는 3개가 도시됨)의 배치를 지원하는 한 개 이상의 캐리지, 예컨대 캐리지(17) (대안적으로 “암 지지부(arm support)”라 칭함)을 포함할 수 있다. 캐리지(17)는 환자에 대한 더 좋은 위치설정을 위해 로봇 암(12)의 베이스를 조정하도록 직각 축을 따라 회전하는 개별적으로 구성가능한 아암 마운트들을 포함할 수 있다. 또한, 캐리지(17)는 캐리지(17)가 컬럼(14)을 따라 수직으로 이동하게 하는 캐리지 인터페이스(19)를 포함한다.
캐리지 인터페이스(19)는 슬롯, 예컨대 슬롯(20)을 통해 컬럼(14)에 연결되어 있고, 이 슬롯은 컬럼(14)의 대향 측면에 위치되어 캐리지(17)의 수직 이동을 안내한다. 슬롯(20)은 카트 베이스(15)에 대해 다양한 수직 높이로 캐리지를 위치시키고 유지하는 수직 이동 인터페이스를 포함한다. 캐리지(17)의 수직 이동은 카트(11)가 로봇 암(12)의 도달점을 조정할 수 있게 하여 다양한 테이블 높이, 환자의 크기, 의사의 선호를 충족시킬 수 있게 한다. 이와 유사하게, 캐리지(17) 상의 개별적으로 구성가능한 암 마운트는 로봇 암(12)의 로봇 암 베이스(21)의 각도를 다양한 구성으로 변경시킬 수 있다.
일부 실시예에서, 슬롯(20)은 캐리지(17)가 수직으로 이동될 때 먼지와 액체가 컬럼(14)의 안쪽 공간과 수직 이동 계면에 들어가는 것을 방지하기 위해 슬롯 표면과 동일 평면에 있고 이와 평행한 슬롯 덮개가 추가될 수 있다. 슬롯 덮개는 슬롯(20)의 수직 상부와 하부 부근에 위치된 스풀 스프링 쌍(pairs of spring spools)을 통해 배치될 수 있다. 덮개는 스풀에 감겨있는 상태를 유지하다가 캐리지(17)가 상하로 수직 이동될 때 감겨 있는 상태(coiled state)로부터 수축 및 연장하도록 배치된다. 스풀의 스프링 부하는 캐리지(17)가 스풀 쪽으로 이동될 때 덮개를 스풀 쪽으로 수축하도록 힘을 제공하면서도, 캐리지(17)가 스풀에서 멀어지는 방향으로 이동할 때에는 기밀한 밀폐를 제공한다. 캐리지(17)가 이동할 때 덮개가 적절하게 연장 및 수축할 수 있도록, 예를 들어 캐리지 인터페이스(19)의 브래킷(bracket)을 이용해서 커버를 캐리지(17)와 연결시킬 수 있다.
컬럼(14)은 내부적으로, 예를 들어 콘솔(16)로부터 입력된 사용자 입력 대해 발생된 제어 신호들에 응답하여, 수직 정렬된 리드 스크루(lead screw)를 이용해 캐리지(17)를 기계적인 방식으로 이동시키도록 설계된 기어와 모터와 같은 메커니즘을 포함할 수 있다.
로봇 암(12)는 일반적으로 로봇 암 베이스(21) 및 앤드 이펙터(end effector)(22)를 포함할 수 있고, 이는 일련의 조인트(24)에 의해 연결되는 일련의 연결장치(23)에 의해 분리되며, 각각의 조인트는 독립적인 액추에이터를 포함하고, 각각의 액추에이터는 독립적으로 제어가능한 모터를 포함한다. 독립적으로 제어가능한 각각의 조인트는 로봇 암에 적용가능한 독립적인 자유도를 나타낸다. 각각의 암(12)은 7개의 조인트를 가지며, 따라서 7 자유도를 제공한다. 다수의 조인트는 그 개수만큼의 자유도를 유도하며, 이는 “잉여(redundant)” 자유도를 허용한다. 잉여 자유도는 로봇 암(12)이 다양한 연결장치의 위치와 조인트의 각도를 이용해서 특정 위치, 방향 및 공간의 궤도에 각각의 앤드 이펙터(22)를 위치시킬 수 있게 한다. 이를 통해 시스템은 공간 내 원하는 지점으로부터 의료 기구를 위치 및 지향시킬 수 있으면서도, 의사가 암 조인트를 환자로부터 멀리 떨어진 임상적으로 유리한 위치로 옮겨, 접근성은 높이고 암의 충돌을 피할 수 있도록 한다.
카트 베이스(15)는 지면 위의 컬럼(14), 캐리지(17), 암(12)의 무게 균형을 맞춰준다. 따라서, 카트 베이스(15)는 전자기기, 모터, 전원 장치와 같은 더 무거운 구성요소들뿐 아니라 카트의 이동 및/또는 부동을 가능케 하는 구성요소들을 수용한다. 예를 들어, 카트 베이스(15)는 시술 전 카트가 수술실 주위를 쉽게 이동하게 하는 롤링가능한 바퀴 모양의 캐스터(caster)(25)를 포함한다. 적절한 위치에 도달한 후, 수술 중에는 바퀴 잠금장치를 사용해서 캐스터(25)를 움직이지 않도록 하여 카트(11)를 한 위치에 고정시킬 수 있다.
컬럼(14)의 수직 단부에 위치된 콘솔(16)은 사용자 입력을 수신하는 사용자 인터페이스와, 수술 전 그리고 수술 중 데이터를 의사에게 보여주는 디스플레이 스크린(또는 예를 들어 터치스크린(26)과 같은 이중 목적용 기기)을 둘 다 허용한다. 터치스크린(26)상의 잠재적 수술 전 데이터는 수술 전 계획, 수술 전 컴퓨터 단층 촬영(CT) 스캔으로부터 도출되는 항행 및 맵핑 데이터 및/또는 수술 전 환자 면담을 통해 얻은 메모를 포함할 수 있다. 디스플레이 상의 수술 중 데이터로는 도구, 센서로부터 제공되는 광학 정보, 센서로 감지되는 좌표 정보뿐만 아니라, 호흡, 심박수 및/또는 맥박과 같은 환자의 바이털 수치가 포함될 수 있다. 의사가 캐리지(17) 반대편에서 컬럼(14)의 측면으로부터 콘솔에 접근할 수 있도록 콘솔(16)이 위치되고 경사질 수 있다. 이 위치에서 의사는 콘솔(16), 로봇 암(12), 환자를 볼 수 있는 동시에 카트(11) 뒤에서 콘솔(16)을 작동할 수 있다. 또한, 도시된 바와 같이, 콘솔(16)은 카트(11)의 조작과 고정을 돕는 핸들(27)을 포함한다.
도 3은 요관경검사를 위해 배치된 로봇-구동형 시스템(10)의 실시예를 도시한다. 요관경 시술시, 카트(11)는 환자의 요도와 요관에서 하복부까지 거쳐갈 수 있도록 설계된 시술전용 내시경인 요관경(32)을 주입하도록 위치될 수 있다. 요관경 검사에서, 민감한 해부 부위의 마찰과 압박이 가해지는 것을 줄이기 위해 요관경(32)을 환자의 요도와 직접적으로 정렬하는 것이 바람직하다. 도시된 바와 같이, 카트(11)는 테이블 아랫부분과 정렬될 수 있어 환자의 요도로의 직접적인 선형 접근을 위해 로봇 암(12)이 요관경(32)을 배치할 수 있다. 테이블의 아랫부분부터, 로봇 암(12)은 가상 레일(33)을 따라 요관경(32)을 요도를 통해 환자의 하복부 내로 바로 주입시킬 수 있다.
요도에 삽입한 후, 기관지경검사에서와 유사한 제어 기술을 이용해서, 진단 및/또는 치료적 적용을 위해요관경(32)이 방광, 요관 및/또는 신장 내로 항행될 수 있다. 예를 들어, 요관경(32)이 요관 및 신장 내로 진입되어 요관경(32)의 작업 채널 아래에 배치된 레이저 또는 초음파 쇄석 기기를 이용하여 신장 결석을 제거할 수 있다. 쇄석술 완료 후, 신장결석의 파편은 요관경(32) 아래에 배치된 바스켓을 사용해서 제거될 수 있다.
도 4는 혈관 시술을 위해 유사하게 배치된 로봇-구동형 시스템의 실시예를 도시한다. 혈관 시술에서, 시스템(10)은 카트(11)가 조향가능한 카테터와 같은 의료 기구(34)를 환자의 다리의 넙다리동맥의 접근 지점으로 전달할 수 있도록 구성될 수 있다. 넙다리동맥은 더 넓은 직경과, 환자 심장까지 비교적 덜 우회되고 굴곡진 경로를 제공하며, 이는 항행을 단순화한다. 요관경 시술에서와 마찬가지로, 카트(11)는 환자의 다리와 하복부 쪽으로 위치될 수 있어 로봇 암(12)이 환자의 허벅지/엉덩이 부위의 넙다리동맥의 접근 지점으로 직접적인 선형 접근을 할 수 있는 가상 레일(35)을 제공할 수 있다. 동맥 안으로 삽입한 후, 기구 드라이버(28)를 이동시켜 의료 기구(34)를 지향시키거나 및 삽입할 수 있다. 대안적으로, 카트를 환자의 상복부 주위에 위치시켜, 예를 들어 어깨와 손목 부근의 경동맥과, 상완동맥과 같은 다른 혈관의 접근 지점들에 도달하도록 할 수도 있다.
B. 로봇 시스템 - 테이블.
로봇-구동형 의료 시스템의 실시예는 환자의 테이블에 또한 통합될 수 있다. 테이블의 통합은 카트를 제거함으로써 수술실 내 주요 장비의 양을 줄여서 환자 접근성을 높여준다. 도 5는 기관지 내시경 시술을 위해 배치된 로봇-구동형 시스템의 실시예를 도시한다. 시스템(36)은 바닥 위 (“테이블” 또는 “침대”로 도시된) 플랫폼(38)을 지탱하는 지지 구조체 또는 컬럼(37)을 포함한다. 카트-기반 시스템과 같이, 시스템(36)의 로봇 암(39)의 앤드 이펙터는 기구 드라이버(42)들의 선형 정렬로부터 형성된 가상 레일(41)을 따라 또는 이를 통과해 도 5의 기관지 내시경(40)과 같은 세장형 의료 기구를 조작하도록 설계된 기구 드라이버(42)들을 포함한다. 실제로는 테이블(38) 주변으로 방사기 및 탐지기를 위치시킴으로써 형광 투시 영상을 제공하는 C-암(C-arm)을 환자의 상복부 영역 위로 위치시킬 수 있다.
도 6은 설명을 위해 환자 및 의료 기구가 없는 시스템(36)의 대안적인 도면을 제공한다. 도시된 바와 같이, 컬럼(37)은 한 개 이상의 로봇 암(39)이 기반을 둔 링-모양으로 도시된 한 개 이상의 캐리지(43)를 시스템(36)안에 포함할 수 있다. 캐리지(43)는 컬럼(37)을 따라 이어진 수직의 컬럼 인터페이스(44)를 따라 이동할 수 있어서 환자에 도달하기 좋은 여러 지점으로 로봇 암(39)을 위치시킬 수 있다. 캐리지(들)(43)은 컬럼(37) 안에 위치된 기계식 모터를 이용해 컬럼(37) 주변을 회전함으로써 로봇 암(39)이 가령, 환자의 양 측면과 같은 테이블(38)의 여러 면을 접근할 수 있도록 허용한다. 복수의 캐리지가 있는 실시예에서 캐리지는 개별적으로 컬럼에 위치될 수 있고 서로 다른 캐리지와는 독립적으로 이동 및/또는 회전할 수 있다. 캐리지(43)가 컬럼(37)을 둘러싸거나 원형일 필요는 없지만, 도시된 바와 같은 고리 모양은 캐리지(43)의 컬럼(37) 주변의 회전을 용이하게 해주며 동시에 구조적인 균형을 유지시켜 준다. 캐리지(43)의 회전 및 이동을 통해 시스템은 내시경, 복강경과 같은 의료 기구를 환자의 다른 접근 지점에 정렬시킬 수 있다. 다른 실시예에서 (미도시), 시스템(36)은 옆쪽으로 바 또는 레일 형태의 조정 가능한 암 지지부가 있는 환자 테이블 또는 침대를 포함할 수 있다. 한 개 이상의 로봇 암(39)은 (가령 팔꿈치 조인트가 있는 어깨를 통해) 조정 가능한 암 지지부에 부착될 수 있고 이는 수직으로 조정될 수 있다. 수직 조정이 가능해짐으로써, 로봇 암(39)은 환자 테이블 또는 침대 밑에 간편하게 넣어두었다가 이후 시술 동안에는 끌어 올려질 수 있는 이점이 있다.
암(39)은 개별적으로 회전 및/또는 신축적으로 연장할 수 있는 일련의 조인트로 구성된 암 마운트(45) 세트를 통해 캐리지 위에 탑재되어 로봇 암(39)에 추가적인 구성 용이성(configurability)을 제공할 수 있다. 뿐만 아니라, 암 마운트(45)는 캐리지(43)위에 위치되어, 캐리지(43)가 적당히 회전되었을 때, 암 마운트(45)가 (도 6에 도시된 바와 같이) 테이블(38)의 동일면, (도 9에 도시된 바와 같이) 테이블(38)의 반대면, 또는 테이블(38)의 인접면(미도시) 중 하나로 위치될 수 있다.
컬럼(37)은 구조적으로 테이블(38)을 지지해주며 캐리지의 수직 이동을 위한 경로를 제공한다. 내부적으로, 컬럼(37)은 캐리지의 수직 이동을 안내하기 위한 리드 스크루와 상기 캐리지를 리드 스크루 기반의 기계적인 방식으로 이동시키는 모터를 갖출 수 있다. 컬럼(37)은 또한 전력 및 제어 신호를 캐리지(43)와 그 위 장착된 로봇 암(39)으로 전송할 수 있다.
테이블 베이스(46)는 도 2에 도시된 카트(11)의 카트 베이스(15)와 유사한 기능을 제공하며, 테이블/침대(38), 컬럼(37), 캐리지(43) 및 로봇 암(39)의 균형을 맞추기 위해 더 무거운 구성요소들을 수용한다. 테이블 베이스(46) 또한 강성 캐스터와 통합되어 시술 중에 안정성을 제공할 수 있다. 캐스터는 테이블 베이스(46)의 맨 아래 배치되어 베이스(46)의 양쪽에서 반대 방향으로 연장되며 시스템(36)이 이동되어야 할 때는 수축할 수 있다.
도 6을 계속 참조하여, 시스템(36)은 또한 타워(미도시)를 포함하여 시스템(36)의 기능을 테이블과 타워로 나누어 형상 계수 및 테이블의 규모를 줄일 수 있다. 상기 개시된 실시예와 같이 타워는 프로세싱, 컴퓨팅 및 제어 능력, 전력, 유체공학 및/또는 광학 및 센서 프로세싱과 같은 다양한 지원 기능을 테이블에 제공할 수 있다. 타워는 또한 환자에게서 멀찍하게 놓여있을 수 있도록 이동 가능하여 의사의 접근성을 높이고 수술실을 간소화시킬 수 있다. 또한 구성요소를 타워에 둠으로써 테이블 베이스에 로봇 암을 보관할 수 있는 잠재적인 보관 공간을 확보할 수 있다. 타워는 또한 키보드 및/또는 펜던트와 같은 사용자 입력을 위한 사용자 인터페이스와 실시간 영상, 항행 및 추적 정보와 같은 수술 전 및 수술 중 정보를 보여주기 위한 디스플레이 스크린 (또는 터치스크린)을 모두 제공하는 마스터 제어기 또는 콘솔을 포함할 수 있다. 일부 실시예에서 타워는 주입을 위해 사용되는 가스탱크 홀더를 또한 포함할 수 있다.
일부 실시예에서, 로봇 암이 사용되지 않을 때 테이블 베이스에 넣어 보관할 수 있다. 도 7은 테이블 기반 시스템의 실시예에서 로봇 암을 넣어둔 시스템(47)을 도시한다. 시스템(47)에서, 캐리지(48)는 베이스(49)안으로 수직으로 이동되어 로봇 암(50), 암 마운트(51) 및 캐리지(48)를 베이스(49)안으로 집어 넣을 수 있다. 베이스 덮개(52)는 캐리지(48), 암 마운트(51), 및 암(50)을 컬럼(53) 주변으로 배치하기 위해 이동 및 수축되어 열릴 수 있으며 사용 중이지 않을 때는 보호를 위해 닫아서 보관할 수 있다. 베이스 덮개(52)는 닫혀 있을 때 먼지나 액체가 들어가는 것을 방지하기 위해 개구부 가장자리를 따라 막(54)으로 밀폐될 수 있다.
도 8은 요관경 검사 시술을 위해 구성된 로봇-구동형 테이블-기반 시스템의 실시예를 도시한다. 요관경검사시, 테이블(38)은 회전 부분(55)을 포함하여 환자를 컬럼(37) 및 테이블 베이스(46)로부터 오프각(off-angle)으로 위치시킬 수 있다. 회전 부분(55)은 회전 부분(55)의 아래 부분을 컬럼(37)으로부터 멀리 위치시키기 위해 (가령, 환자의 머리 아래에 위치한) 피벗 점(pivot point)을 중심으로 회전 또는 피벗할 수 있다. 예를 들어, 회전 부분(55)을 피벗시키면, 테이블(38) 밑에 컬럼(미도시)과 공간의 충돌 없이 환자의 하복부 위로 C-암(미도시)을 위치시킬 수 있다. 캐리지(35)(미도시)를 컬럼(37) 주변으로 회전시키면, 로봇 암(39)은 요도에 도달하기 위해 가상 레일(57)을 따라 요관 내시경(56)을 환자의 서혜부 안으로 직접 삽입할 수 있다. 요관 내시경 검사에서, 또한 발걸이(58)는 시술 중 환자의 다리 위치를 지탱하고 환자의 서혜부 영역에 용이한 접근을 제공하기 위해서 테이블(38)의 회전 부분(55)에 고정될 수 있다.
복강경 시술 시, 환자의 복벽의 작은 절개(들)을 통해 최소 침습 기구가 환자의 해부부위 안으로 삽입 될 수 있다. 일부 실시예에서, 최소 침습 기구는 환자 안에 해부 부위를 접근하기 위해 사용되는 샤프트와 같은 세장형 강성 부재를 포함한다. 환자의 복강(abdominal cavity)이 팽창된 후에, 주로 복강경이라 지칭되는 기구들이 잡기, 절단, 제거, 봉합 등과 같은 수술 작업을 수행하기 위해 진입될 수 있다. 도 9는 복강 내시경 시술을 위해 구성된 로봇-구동형 테이블-기반 시스템의 실시예를 도시한다. 도 9에서 도시된 바와 같이 시스템(36)의 캐리지(43)는 로봇 암(39) 한 쌍을 테이블(38)의 반대 쪽에 위치시키기 위해 회전 및 수직 조정될 수 있고 암 마운트(45)를 통해 (가령 복강경과 같은) 기구(59)를 환자의 양 측면에서 최소 절개부위를 통과해 환자의 복강에 도달하게 할 수 있다.
복강경 시술을 용이하게 하기 위해, 로봇-구동형 테이블 시스템은 또한 플랫폼을 원하는 각도로 기울일 수 있다. 도 10은 피치 또는 기울기가 조정된 로봇-구동형 의료 시스템의 실시예를 도시한다. 도 10에 도시된 바와 같이, 시스템(36)은 테이블의 한 부분이 다른 한 부분보다 바닥에서 더 멀어지도록 테이블(38)을 기울 일 수 있다. 뿐만 아니라, 암 마운트(45)는 상기 기울임과 일치하도록 회전하여 암(39)이 테이블(38)과 동일한 평면 관계를 유지하도록 할 수 있다. 더 가파른 각도를 수용하기 위해, 컬럼(37)은 또한 컬럼(37)의 수직 연장을 가능케 하는 텔레스코핑 부분(60)을 포함하여 테이블(38)이 바닥에 닿거나 베이스(46)와 충돌하는 것을 방지한다.
도 11은 테이블(38)과 컬럼(37) 사이의 인터페이스를 자세하게 도시한다. 피치 회전 메커니즘(61)은 테이블(38)의 피치 각을 컬럼(37)에 대해 상대적으로 다자유도로 변경하도록 설정될 수 있다. 피치 회전 메커니즘(61)은 직교 축(1, 2)을 컬럼-테이블 인터페이스에 위치시킴으로써 활성화될 수 있고, 각 축은 전자 피치 명령어에 반응하는 별도의 모터(3, 4)에 의해 작동된다. 한 개의 스크루(5)를 따라 회전하면 한 개의 축(1)에서의 기울기 조정이 활성화 되고, 반면 또 다른 스크루(6)를 따라 회전하면 또 다른 축(2)에서의 기울기 조정을 활성화 시킬 수 있다. 일부 실시예에서, 볼 조인트(ball joint)가 테이블(38)의 피치 각을 컬럼(37)에 대해 상대적으로 다자유도로 변경하는데 사용될 수 있다.
예를 들어, 피치 조정은 테이블을 트렌델렌버그(Trendelenburg) 자세 즉, 하복부 수술을 위해 환자의 하복부를 환자의 상복부보다 바닥에서 더 높이 위치시켜야 할 때 특히 유용하다. 트렌델렌버그 자세는 중력으로 환자의 내부 기관을 환자의 상복부 쪽으로 쏠리도록 해서 최소 침습 도구가 삽입되어 복강경의 전립선 절제술과 같은 하복부 수술적 절차를 시행할 수 있도록 복강을 비운다.
C. 기구 드라이버 및 인터페이스.
시스템의 로봇 암의 앤드 이펙터는 (i) 의료 기구를 작동 시키기 위한 전기 기계적 수단이 결합된 기구 드라이버 (대안적으로는 “기구 드라이브 메커니즘” 또는 “기구 장치 조작기” 및 (ii) 모터와 같은 전기 기계적 구성요소가 전혀 없을 수도 있는 제거 가능한 또는 분리 가능한 의료 기구를 포함한다. 이러한 이분법은 의료 시술에 사용되는 의료 기구를 멸균해야 하는 필요성, 및 복잡한 기계 조립체 및 예민한 전기 장치로 인해 고가의 주요 장비를 충분히 멸균하지 못하는 상황으로 인해 추진될 수 있다. 따라서, 의료 기구는 의사 또는 의료진이 개별적인 멸균 또는 처분을 하기 위해 기구 드라이버 (및 즉, 시스템)에서 분리, 제거 및 교체될 수 있도록 설계될 수 있다. 그에 반해, 기구 드라이버는 교체 또는 멸균 될 필요가 없으며, 보호하기 위해 드랩(drape)처리 될 수 있다.
도 12는 예시적인 기구 드라이버를 도시한다. 로봇 암의 원위 단부에 위치된 기구 드라이버(62)는 드라이브 샤프트(64)를 통해 의료 기구에 제어된 토크를 제공하기 위해 평행 축으로 배치된 한 개 이상의 드라이브 유닛(63)을 포함한다. 각 드라이브 유닛(63)은 기구와 상호 작용하는 개별적인 드라이브 샤프트(64), 모터 샤프트 회전을 원하는 토크로 전환하는 기어 헤드(65), 드라이브 토크를 발생시키는 모터(66), 모터 샤프트의 속도를 측정하고 제어 회로로 피드백을 제공하는 인코더(67) 및 제어 신호를 수신하고 드라이브 유닛을 작동시키는 제어 회로(68)를 포함한다. 각각의 드라이브 유닛(63)은 독립적으로 제어 및 동력화되기 때문에 기구 드라이버(62)는 복수의(도 12에서는 4개로 도시됨) 독립적인 드라이브 출력량을 의료 기구에 제공할 수 있다. 작동 시, 제어 회로(68)는 제어 신호를 수신하고, 모터 신호를 모터(66)로 전송하고, 인코더(67)로 측정된 모터 속도 결과와 원하는 속도를 비교한 후 원하는 토크를 발생시키기 위해 모터 신호를 조절한다.
멸균 환경이 요구되는 시술을 위해서 로봇 시스템은 기구 드라이버와 의료 기구 사이에 멸균 드랩과 연결된 멸균 어댑터와 같은 드라이브 인터페이스와 결합할 수 있다. 멸균 어댑터의 주 목적은 드라이브 샤프트와 드라이브 입력 사이의 물리적인 분리, 및 따라서 무균성을 유지하면서도 기구 드라이버의 드라이브 샤프트에서 기구의 드라이브 입력으로 각 운동(angular motion)을 전송하는 것이다. 따라서, 예시적인 멸균 어댑터는 기구 드라이버의 드라이브 샤프트와 기구의 드라이브 입력과 정합하도록 의도된 일련의 회전 입력 및 출력으로 구성될 수 있다. 투명 또는 반투명 플라스틱과 같은 얇고 유연한 소재로 구성된 멸균 드랩은 멸균 어댑터와 연결되어 기구 드라이버, 로봇 암, (카트-기반 시스템에서는) 카트 또는 (테이블 기반 시스템에서는) 테이블과 같은 주요 장비를 덮도록 설계된다. 드랩의 사용은 주요 장비가 멸균이 요구되지 않은 영역 (즉, 비 살균 현장)에 위치되어 있으면서도 환자에 가깝게 위치될 수 있도록 할 수 있다. 멸균 드랩의 반대 쪽은 멸균이 요구되는 영역 (즉, 멸균 현장)에서 의료 기구가 환자와 인터페이스 될 수 있다.
D. 의료 기구.
도 13은 예시적인 의료 기구와 함께 쌍을 이루는 기구 드라이버를 도시한다. 로봇 시스템과 함께 사용하기 위해 설계된 다른 기구와 마찬가지로, 의료 기구(70)는 세장형 샤프트(71) (또는 세장형 본체) 및 기구 베이스(72)를 포함한다. 기구 베이스(72)는 의사와 수동적인 상호 작용을 의도한 설계 때문에 “기구 핸들”로 또한 지칭되며, 회전가능한 드라이브 입력(73), 즉, 리셉터클(receptacles), 풀리(pulleys) 또는 스풀(spools)을 포함할 수 있으며 이는 로봇 암(76)의 원위 단부에 위치된 기구 드라이버(75) 상의 드라이브 인터페이스를 통해 연장되는 드라이브 출력(74)과 정합되도록 설계된다. 물리적으로 연결되거나, 래치(latched)되거나, 및/또는 결합되면, 기구 베이스(72)의 정합된 드라이브 입력(73)은 기구 드라이버(75)의 드라이브 출력(74)과 회전 축을 공유할 수 있어서, 드라이브 출력(74)으로부터 드라이브 입력(73)으로 토크를 전송할 수 있다. 일부 실시예에서, 드라이브 출력(74)은 드라이브 입력(73) 상의 리셉터클과 정합하도록 설계된 스플라인(splines)을 포함할 수 있다.
세장형 샤프트(71)는 가령, 내시경 시술의 경우 해부학적 개구나 내강 또는 가령, 복강 내시경 시술의 경우 최소 침습 절개를 통해 전달될 수 있도록 설계된다. 세장형 샤프트(71)는 (내시경과 유사한 성질을 가진) 연성 또는 (복강경과 유사한 성질을 가진) 강성이거나 연성과 강성 부분의 맞춤 조합으로 이뤄질 수 있다. 복강경을 위한 설계 시, 강성 세장형 샤프트의 원위 단부는 적어도 1자유도를 가진 클레비스(clevis)로 형성된 조인트 팔목에서 연장되는 앤드 이펙터 및 가령, 그래스퍼(grasper) 또는 가위와 같은 수술 도구 또는 의료 기구와 연결될 수 있고, 이는 기구 드라이버(75)의 드라이브 출력(74)으로부터 수신한 토크에 응답하여 드라이브 입력이 회전할 때 텐던의 힘을 기반으로 작동될 수 있다. 내시경을 위한 설계 시, 연성 세장형 샤프트의 원위 단부는 기구 드라이버(75)의 드라이브 출력(74)으로부터 수신한 토크를 기반으로 연접되며 구부러질 수 있는 조향가능한 또는 제어 가능한 구부림 부분을 포함할 수 있다.
기구 드라이버(75)의 토크는 샤프트(71)을 따라 위치한 텐던을 사용해 세장형 샤프트(71) 아래로 전송된다. 풀 와이어와 같은 이러한 개별 텐던은 기구 핸들(72) 안에 개별적인 드라이브 입력(73)과 각각 고정되어 있다. 텐던은 핸들(72)로부터 세장형 샤프트(71)를 따라 한 개 이상의 풀 내강으로 전달되며 세장형 샤프트(71)의 원위 부분 또는 세장형 샤프트의 원위 부분의 손목에 앵커(anchor)된다. 복강경, 내시경 또는 하이브리드 시술과 같은 시술 동안, 이러한 텐던은 손목, 그래스퍼 또는 가위와 같이 원위 탑재된 앤드 이팩터와 결합될 수 있다. 전술된 배치에서, 드라이브 입력(73)에 가하는 토크는 텐던에 장력을 전달하며, 따라서 앤드 이팩터가 특정 방식으로 작동하게 만든다. 일부 실시예에서, 수술 절차 동안, 텐던은 조인트가 축을 따라 회전하게 만들수 있으며 따라서 앤드 이팩터가 한 방향 또는 다른 방향으로 움직이도록 만들 수 있다. 대안적으로, 텐던은 세장형 샤프트(71)의 원위 단부에 위치한 그래스퍼의 한 개 이상의 죠(jaw)와 연결될 수 있고, 텐던의 장력은 그래스퍼를 오므리게 만든다.
내시경술에서, 텐던은 접착제, 제어 링(control ring), 또는 다른 기계적인 고정을 통해 세장형 샤프트(71)를 따라 위치된 구부림 또는 연접 부분에 결합될 수 있다. 구부림 부분의 원위 단부에 고정적으로 부착되어 있을 때, 드라이브 입력(73)에 가해진 토크는 텐던을 따라 전송되어 더 부드러운 구부림 부분 (가끔 연접가능한 부분 또는 부위라고 지칭됨) 이 구부러지거나 연접하게 만든다. 구부러지지 않는 부분의 경우, 내시경 샤프트의 벽을 따라 (또는 그 내부에) 개별적인 텐던을 전달하는 개별적인 풀 내강을 와선 또는 나선형으로 하는 것이 풀 와이어의 장력으로 인한 반지름 방향 힘의 균형을 맞추는데 이로울 수 있다. 와선의 각도 및/또는 꼬임의 간격은 특정 목적을 위해 조정 또는 조작될 수 있고, 더 타이트한 와선은 하중 부하 시 샤프트 압축이 덜한 반면, 더 적은 양의 와선은 하중 부하 시 샤프트 압축이 더 크지만 또한 구부림을 제한한다. 이와 반대로, 원하는 구부림 또는 연접 가능 부분에 제어된 연접을 허용하기 위해 풀 내강은 세장형 샤프트(71)의 세로축과 평행으로 지향될 수 있다.
내시경에서, 세장형 샤프트(71)는 로봇식 시술을 지원하기 위해 여러 개의 구성 요소를 수용한다. 샤프트는 수술 도구 (또는 의료 기구), 세척, 및/또는 흡인을 샤프트(71)의 원위 단부에 위치한 수술 부위까지 배포하기 위한 작업 채널을 포함할 수 있다. 샤프트(71)는 또한 원위 선단에 광학 카메라를 포함할 수 있는 광학 조립체 까지/부터 신호를 전송하기 위해 와이어 및/또는 광섬유를 수용할 수 있다. 샤프트(71)는 또한 근위 방향으로 위치된 광원으로부터 발광 다이오드와 같은 광을 샤프트의 원위 단부까지 전달하기 위해 광섬유를 수용할 수 있다.
기구(70)의 원위 단부에서, 원위 선단은 또한 작업채널의 개구부를 포함해 진단 및/또는 치료를 위한 도구, 세척 및 흡인을 수술 부위로 전달 할 수 있다. 원위 선단은 또한 내부 해부학적 공간의 이미지를 캡처하기 위해 파이버스코프(fiberscope) 또는 디지털 카메라와 같은 카메라를 위한 포트를 포함 할 수 있다. 이와 관련되어, 원위 선단은 또한 카메라 이용 시 해부학적 공간을 비추기 위해 광원을 위한 포트를 포함할 수 있다.
도 13의 예시에서, 드라이브 샤프트 축들, 및 따라서 드라이브 입력 축들은 세장형 샤프트의 축과 직각을 이룬다. 하지만 상기 배치는 세장형 샤프트(71)의 롤 능력을 어렵게 만든다. 드라이브 입력(73)을 고정으로 유지하면서 세장형 샤프트(71)를 자신의 축을 따라 롤하면 텐던이 드라이브 입력(73)을 넘어 연장되어 세장형 샤프트(71) 내 풀 내강으로 들어가면서 텐던의 원치않는 엉킴을 유발 한다. 텐던의 엉킴은 결과적으로 내시경 시술 동안 연성 세장형 샤프트의 움직임을 예측하기 위해 만들어진 제어 방법에 지장을 줄 수 있다.
도 14는 드라이브 유닛의 축이 기구의 세장형 샤프트의 축과 평행을 이루는 기구 드라이버 및 기구의 대안적인 설계를 도시한다. 도시된 바와 같이, 원형의 기구 드라이버(80)는 네 개의 드라이브 유닛을 포함하고 이들의 드라이브 출력(81)은 로봇 암(82)의 단부에 평행으로 정렬된다. 드라이브 유닛 및 이들 각자의 드라이브 출력(81)은 기구 드라이버(80)의 회전 조립체(83) 안에 수용되고 이는 조립체(83) 안에 드라이브 유닛 중 하나에 의해 구동된다. 회전 드라이브 유닛에 의해 제공된 토크에 대응하여 회전 조립체(83)는 기구 드라이버의 비회전 부분(84)에 회전 조립체(83)를 연결하는 원형 베어링(bearing)을 따라 회전한다. 전력 및 제어 신호는 브러쉬 방식의(brushed) 슬립링 연결(미도시)의 회전을 통해 유지될 수 있는 전기 접점을 통해서 기구 드라이버(80)의 비회전 부분(84)에서 회전 조립체(83)로 통신될 수 있다. 다른 실시예에서, 회전 조립체(83)는 비회전 부분(84)에 통합되어 있는 별도의 드라이브 유닛에 반응 할 수 있고 따라서 다른 드라이브 유닛과 평행하지 않는다. 회전 메커니즘(83)은 기구 드라이버(80)가 드라이브 유닛 및 대응되는 드라이브 출력(81)을 하나의 구성으로써 기구 드라이버 축(85)을 중심으로 회전시키도록 허용 한다.
앞서 개시된 실시예와 같이, 기구(86)는 세장형 샤프트 부분(88) 및 기구 드라이버(80) 안에 있는 드라이브 출력(81)을 수신하도록 구성된 (리셉터클, 풀리, 및 스풀과 같은) 복수의 드라이브 입력(89)을 포함하는 (설명을 목적으로 투명한 외부 스킨으로 도시된) 기구 베이스(87)로 구성될 수 있다. 이전에 개시된 실시예와는 달리 기구 샤프트(88)는 기구 베이스(87)의 중심으로부터 연장되며 축은 도 13의 설계와 같이 직각을 이루기 보다는 드라이브 입력(89)의 축과 대체적으로 평행을 이룬다.
기구 드라이버(80)의 회전 조립체(83)와 정합되면, 기구 베이스(87) 및 기구 샤프트(88)를 포함하는 의료 기구(86)는 기구 드라이버 축(85)을 중심으로 회전 조립체(83)와 함께 결합하여 회전한다. 기구 샤프트(88)는 기구 베이스(87)의 중앙에 위치되어 있기 때문에, 부착 되었을 때, 기구 샤프트(88)는 기구 드라이버 축(85)과 동축이 된다. 따라서 회전 조립체(83)가 회전하면 기구 샤프트(88)는 자신의 세로 축을 중심으로 회전한다. 더욱이, 기구 베이스(87)가 기구 샤프트(88)과 함께 회전하므로, 기구 베이스(87) 안에서 드라이브 입력(89)과 연결된 모든 텐던은 회전 중에 엉키지 않는다. 따라서, 드라이브 출력(81), 드라이브 입력(89), 및 기구 샤프트(88) 축들의 병렬성은 제어 텐던의 어떠한 엉킴 없이 샤프트 회전이 가능하도록 해준다.
E. 항행 및 제어.
전통적인 내시경은 관강내(endoluminal) 안내를 집도의사에게 제공하기 위해 (가령, C-암으로 전달될 수 있는) 형광 투시 및 다른 방사선 기반의 영상기법 방식의 사용을 수반할 수 있다. 반대로, 본 개시내용에서 구상된 로봇 시스템은 비-방사선-기반(non-radiation-based) 항행 및 국소화 방법을 제공하여 의사의 방사선 노출을 감소시키고 수술실 내 장비의 양을 줄여줄 수 있다. 본 명세서에 사용될 때, 용어 “국소화”는 기준 좌표계에서 물체의 위치를 결정 및/또는 관찰하는 것을 지칭할 수 있다. 무 방사선(radiation-free) 수술 환경을 성취하기 위해 수술 전 매핑, 컴퓨터 시각, 실시간 EM 추적 및 로봇 명령 데이터와 같은 기술들이 개별적으로 또는 조합으로 사용될 수 있다. 방사선 기반 영상기법이 여전히 사용되는 다른 경우에는, 수술 전 매핑, 컴퓨터 시각, 실시간 EM 추적 및 로봇 명령 데이터가 개별적으로 또는 조합으로 사용되어 방사선-기반 영상기법만을 통해 취득되는 정보를 향상시킬 수 있다.
도 15는 예시적인 실시예에 따라 기구의 위치와 같이 로봇 시스템의 한 개 이상의 요소의 위치를 추정하는 국소화 시스템(90)을 도시하는 블록도이다. 국소화 시스템(90)은 한 개 이상의 명령어를 실행하도록 구성된 한 개 이상의 컴퓨터 장치의 세트일 수 있다. 컴퓨터 장치는 전술된 한 개 이상의 구성요소 안에서 프로세서 (또는 프로세서들) 및 컴퓨터 판독 가능 메모리로 구현될 수 있다. 예시적인 것이며 한정적인 것이 아닌 것으로서 컴퓨터 장치는 도 1에 도시된 타워(30), 도 1 내지 4에 도시된 카트, 도 5 내지 10에 도시된 침대, 등에 있을 수 있다.
도 15에 도시된 바와 같이, 국소화 시스템(90)은 입력 데이터(91) 내지 (94)를 처리하는 국소화 모듈(95)을 포함하여 의료 기구의 원위 선단에 대한 위치 데이터(96)를 생성할 수 있다. 위치 데이터(96)는 기준계(frame of reference)에 상대적인 기구의 원위 단부의 위치 및/또는 방향을 나타내는 데이터 또는 로직(logic)일 수 있다. 기준계는 가령, 전자기장 발생기와 같은 (전자기장 발생기에 관해 후술되는 내용 참고) 환자의 해부구조 또는 정해진 물체에 상대적인 기준계일 수 있다.
다양한 입력 데이터 (91) 내지 (94)는 이제부터 매우 자세하게 설명된다. 수술 전 매핑은 저선량(low dose) CT 스캔 수집물의 사용을 통해 성취될 수 있다. 수술 전 CT 스캔은 가령, 환자의 내부 해부구조의 절취도(cutaway view)의 “절편(slices)”으로 시각화된 3차원 영상으로 재건될 수 있다. 종합해서 분석될 때, 해부구조의 체강, 공간 및 환자의 폐 조직과 같은 환자의 해부구조를 위한 이미지-기반 모델이 생성될 수 있다. 중심선 기하학(“center-line geometry”)과 같은 기법이 결정되고 및 CT 영상로부터 근사화되어(approximated) 모델 데이터(91)라고 지칭되는 (수술 전 CT 스캔만을 사용해 생성될 때는 “수술 전 모델 데이터”로 또한 지칭됨) 환자의 해부구조의 3차원 입체를 만들 수 있다. 중심선 기하학의 사용은 미국 특허 출원 제 14/523,760호에 설명되며, 상기 출원은 그 전문이 본 명세서에 병합된다. 조직망 위상학적 모델 또한 CT 영상으로부터 도출될 수 있으며 특히 기관지경 시술에 적합하다.
일부 실시예에서 기구는 시각 데이터 (또는 이미지 데이터) (92)를 제공하기 위해 카메라가 갖춰져 있을 수 있다. 국소화 모듈(95)은 시각 데이터를 처리해 한 개 이상의 시각-기반 (또는 이미지-기반) 위치 추적 모듈 또는 특징을 가능케 한다. 예를 들어, 수술 전 모델 데이터가 시각 데이터(92)와 함께 사용되어 (가령, 내시경 또는 내시경의 작업 채널을 통해 전진되는 기구와 같은) 의료 기구의 컴퓨터 시각 기반 추적을 가능케 할 수 있다. 예를 들어, 수술 전 모델 데이터(91)를 사용해, 로봇 시스템은 내시경의 예상 이동 경로를 기반으로 상기 모델로부터 예상되는 내시경 이미지의 라이브러리를 생성할 수 있고, 각 이미지는 모델 내 위치와 연결된다. 수술 중에, 해당 라이브러리는 로봇 시스템에 의해 참조되어 (내시경 원위 단부에 카메라와 같은) 카메라에서 캡처된 실시간 이미지와 이미지 라이브러리의 있는 이미지와 비교해 국소화를 지원할 수 있다.
다른 컴퓨터 시각-기반 추적 기법은 카메라, 및 따라서 내시경의 움직임을 결정하기 위해 특징점 추적(feature tracking)을 사용한다. 국소화 모듈(95)의 일부 기능은 수술 전 모델 데이터(91)에서 해부학적 내강에 대응하는 원형 기하학적 구조를 식별하고 상기 기하학적 구조의 변화를 추적해 어느 해부학적 내강이 선택되었는지 뿐만 아니라 카메라의 상대적인 회전 및/또는 병진 움직임을 결정할 수 있다. 위상 지도의 사용은 시각-기반 알고리즘 또는 기법을 더 향상 시킬 수 있다.
또 다른 시각-기반 기법인 광학 흐름은 시각 데이터(92) 내 비디오 시퀀스에서 이미지 픽셀의 변위 및 병진을 분석해서 카메라 움직임을 추론할 수 있다. 광학 흐름 기법의 예시로 움직임 감지, 물체 분할 산출, 휘도(luminance), 동작 보정 인코딩, 스테레오 시차 측정 등을 포함할 수 있다. 복수의 프레임의 다수의 반복 비교를 통해 카메라 (및 따라서 내시경)의 움직임과 위치가 결정될 수 있다.
국소화 모듈(95)은 실시간 EM 추적을 사용해 환자의 해부 구조에 정합된 수술 전 모델로 표현되는 전체 좌표계 내에서 내시경의 실시간 위치를 생성할 수 있다. EM 추적에서, (내시경 도구와 같은) 의료 기구의 한 개 이상의 위치 및 방향에 내장된 한 개 이상의 센서 코일을 포함하는 EM 센서 (또는 트랙커(tracker))는 알려진 장소에 위치된 한 개 이상의 정적 전자기장 발생기에 의해 생성된 전자기장 안에서의 변동을 측정한다. EM 센서에 의해 감지된 위치 정보는 EM 데이터(93)로 저장된다. 전자기장 발생기 (또는 송신기)는 환자와 가깝게 위치되어 상기 내장된 센서가 감지할 수 있는 저강도(low intensity) 전자기장을 생성할 수 있다. 전자기장은 EM 센서의 센서 코일 내 저전류를 유도하며 이는 EM 센서와 전자기장 발생기 사이의 거리와 각도를 결정하기 위해 분석될 수 있다. 좌표계 안에서의 한 위치를 환자의 해부구조의 수술 전 모델 안에서의 위치와 정렬하는 기하학적 변환을 결정하기 위해 상기 거리와 방향은 수술 중 환자의 해부구조 (즉, 수술 전 모델)에 “정합”될 수 있다. 정합이 되면, (가령 내시경의 원위 선단과 같이) 의료 기구의 한 개 이상의 위치에 내장된 EM 트래커가 환자의 해부구조를 통과하는 의료 기구의 진행을 실시간으로 표시할 수 있다.
로봇 명령어 및 운동학 데이터(94) 또한 국소화 모듈(95)에서 사용되어 로봇 시스템을 위한 국소화 데이터(96)를 제공할 수 있다. 연접 명령어로 인한 장치의 피치 및 요 결과는 수술 전 교정(calibration)동안 결정될 수 있다. 수술 중에, 상기 교정 측정은 알려진 삽입 깊이 정보와 함께 사용되어 기구의 위치를 추정할 수 있다. 대안적으로 상기 산출은 EM, 시각, 및/또는 위상학적 모델링과 함께 분석되어 조직망 내 의료 기구의 위치를 추정할 수 있다.
도 15에 도시된 바와 같이, 여러 다른 입력 데이터가 국소화 모듈(95)에 의해서 사용될 수 있다. 예를 들어, 도 15에 도시되지는 않았지만, 형상 감지 섬유를 활용하는 기구가 국소화 모듈(95)이 사용할 수 있도록 형상 데이터를 제공하여 기구의 위치와 형상을 결정할 수 있다.
국소화 모듈(95)은 입력 데이터 (91) 내지 (94)의 조합(들)을 사용할 수 있다. 일부 경우에, 상기 조합은 국소화 모듈(95)이 각각의 입력 데이터 (91) 내지 (94)로부터 결정된 위치에 대한 확신 가중치를 부여하는 확률론적 기법을 사용할 수 있다. 따라서, (전자기장 간섭이 있는 경우와 같이) EM 데이터를 신뢰할 수 없을 때, EM 데이터(93)에 의해 결정된 위치의 확신도는 감소할 수 있고 국소화 모듈(95)은 시각 데이터(92) 및/또는 로봇 명령 및 운동학 데이터(94)에 더 많이 의존 할 수 있다.
전술된 바와 같이, 본 명세서에 설명된 로봇 시스템은 한 개 이상의 전술된 기술의 조합을 결합하도록 설계될 수 있다. 로봇 시스템의 컴퓨터-기반 제어 시스템은 타워, 침대 및/또는 카트에 기반하며, 예컨대 지속형 자기 저장 스토리지 드라이브(persistent magnetic storage drive), 솔리드 스테이트 드라이브(solid state drive) 또는 이와 같은 비일시적 컴퓨터 판독 가능 저장 매체 내에, 컴퓨터 프로그램 명령어를 저장할 수 있고, 실행 시, 시스템은 센서 데이터와 사용자 명령어를 수신 및 분석하고, 시스템 전반적으로 명령 신호를 생성하고, 및 전체 좌표계 안에서 기구의 위치, 해부학적 지도 등과 같은 항행 및 국소화 데이터를 보여준다.
2. 관강내 조직망의 항행.
전술된 다양한 로봇 시스템은 내시경술 및 복강경술과 같은 다양한 의료 시술을 수행하기 위해 이용될 수 있다. 특정 시술 동안, 로봇-제어식 의료 기구와 같은 의료 기구는 환자의 몸 안으로 삽입된다. 환자의 몸 안에서, 기구는 환자의 관강내 조직망 안에 위치될 수 있다. 본 명세서에서 사용될 때, 용어 관강내 조직망은 (가령 폐나 혈관 안의 복수의 분지된 내강과 같은) 복수의 내강 또는 분지를 포함하거나 또는 (위장관 내부와 같은) 단일의 내강 또는 분지를 포함하는 몸 안에 공동(cavity) 구조를 지칭한다. 시술 동안, 기구는 관강내 조직망을 통과하여 한 개 이상의 관심 영역으로 (항행, 안내, 구동 등) 이동 될 수 있다. 시스템을 통한 기구의 움직임은 앞서 설명된 항행 또는 국소화 시스템(90)에 의해 지원될 수 있고, 상기 시스템은 로봇 시스템을 제어하는 의사에게 기구에 관한 위치적 정보를 제공할 수 있다.
도 16은 환자의 관강내 조직망(130)의 예시를 도시한다. 도시된 실시예에서, 관강내 조직망(130)은 환자의 폐의 기도(150)의 기관지 조직망 (즉, 내강, 분지)이다. 도시된 관강내 조직망(130)은 환자의 폐 안의 기도의 기관지 조직망이지만, 본 개시 내용은 상기 도시된 예시로만 한정되지 않는다. 본 명세서에 설명된 로봇 시스템 및 방법은 기관지 조직망, 신장 조직망, (동맥 및 정맥과 같은) 심혈관 조직망, 위장관, 요로 등 모든 종류의 관강내 조직망을 항행하는데 사용될 수 있다.
도시된 바와 같이, 관강내 조직망(130)은 분지 구조로 배열된 복수의 내강(150)을 포함한다. 일반적으로, 관강내 조직망(130)은 3차원 구조를 포함한다. 편의상, 도 16은 관강내 조직망(130)을 2차원 구조로 나타낸다. 이는 어떤 경우에도 본 발명이 2차원 관강내 조직망으로 한정된다고 이해해서는 안된다.
도 16은 또한 관강내 조직망(130) 안에 위치된 의료 기구의 예시를 도시한다. 의료 기구는 진단 및/또는 치료를 위해 관심 영역 (가령 결절(155))까지 관강내 조직망(130) 사이로 항행된다. 관심 영역(들)은 환자 및 시술에 따라 관강내 조직망(130) 내부 어디든 위치될 수 있지만 도시된 예시의 경우, 결절(155)은 기도(150)의 말초(periphery)에 위치된다.
도시된 예시에서, 의료 기구는 내시경(115)을 포함한다. 내시경(115)은 쉬스(120) 및 리더(145)를 포함한다. 일부 실시예에서, 쉬스(120) 및 리더(145)는 신축적인 방식으로(telescopic manner) 배열될 수 있다. 예를 들어, 리더(145)는 쉬스의(120)의 작업 채널 안으로 슬라이드되도록(slidably) 위치될 수 있다. 쉬스(120)는 제1 지름을 가지며, 원위 단부는 결절(155) 주변의 더 작은 지름의 기도(150) 통과해 위치 될 수 없다. 따라서, 리더(145)는 쉬스(120)의 작업 채널로부터 결절(155)까지 남은 거리만큼 연장되도록 구성될 수 있다. 리더(145)는 예를 들어, 생검 바늘, 생검 브러쉬 및/또는 조직 채취 집게와 같은 기구가 결절(155)의 표적 조직 부위까지 통과될 수 있는 내강을 가질 수 있다. 전술한 구현에서, 쉬스(120)의 원위 단부 및 리더(145)의 원위 단부에 (도 18의 EM 기구 센서(305)와 같은) 모두 EM 기구 센서가 제공되어 기도(150) 내부에서 자신들의 위치를 추적할 수 있다. 이러한 쉬스(120)와 리더(145)의 신축적 배치는 내시경(115)의 더 얇은 설계를 허용하고 내시경(115)의 굽힘 지름을 향상 시키면서 동시에 쉬스(120)를 통해 구조적 지지를 제공할 수 있다.
다른 실시예에서, 내시경(115)의 전반적인 지름은 신축적 배치 없이 상기 말초 부위까지 도달할 수 있을 만큼 작거나, 말초 부위 근처 (가령, 2.5-3 cm 이내로) 근접할 수 있을 만큼 작아서 비-조향 카테터를 통해 의료 기구를 배치할 수도 있다. 내시경(115)을 통해 배치되는 의료 기구는 (도 18의 EM 기구 센서(305)와 같은) EM 기구 센서가 갖춰져 있을 수 있고, 후술되는 이미지-기반 분지 감지 및 매핑 항행 기술이 이러한 의료 기구에 적용될 수 있다.
도시된 바와 같이, 결절(155)에 도달하기 위해, (내시경과 같은) 기구는 관강내 조직망의 내강 또는 분지(150) 사이로 항행 또는 안내 되어야 한다. (의사와 같은) 작동자는 기구를 결절(155)까지 항행하기 위해 로봇 시스템을 제어할 수 있다. 작동자는 로봇 시스템을 제어하기 위한 입력을 제공할 수 있다.
도 17은 본 명세서에서 설명되는 로봇 시스템의 일부 구현과 함께 사용될 수 있는 예시적인 명령 콘솔(200)을 도시한다. 작동자는 예를 들어, 결절(155)과 같은 관심 영역으로 기구를 항행 또는 안내하기 위해 로봇 시스템을 제어하는 입력을 명령 콘솔(200)을 통해 제공할 수 있다. 명령 콘솔(200)은 매우 다양한 배열 또는 구성으로 구현될 수 있다. 도시된 예시에서, 명령 콘솔(200)은 콘솔 베이스(201), (모니터와 같은) 디스플레이(202), 및 (키보드(203)과 조이스틱(204)와 같은) 한 개 이상의 제어 모듈을 포함한다. (작동자 또는 의사와 같은) 사용자(205)는 명령 콘솔(200)을 사용해서 인체공학적인 자세로 (도 1 내지 도 15와 관련하여 설명된 시스템과 같은)의료 로봇 시스템(110)을 원격으로 제어할 수 있다.
디스플레이(202)는 (가령, LCD 디스플레이, LED 디스플레이, 터치 감지 디스플레이와 같은) 전자 모니터, (고글, 안경과 같은) 가상 현실 관찰 장치, 및/또는 다른 디스플레이 기기를 포함할 수 있다. 일부 실시예에서, 한 개 이상의 디스플레이(202)가 예를 들어, 국소화 시스템(90)에 의해 결정된 기구에 관한 위치 정보를 보여준다 (도 15 참조). 일부 실시예에서, 한 개 이상의 디스플레이(202)는 환자의 관강내 조직망(130)의 수술전 모델을 보여준다. 위치 정보는 수술전 모델 위에 중첩되어 보여질 수 있다. 디스플레이(202)는 또한 관강내 조직망(130) 안의 기구 상에 위치한 카메라 또는 또 다른 감지 장치로부터 수신된 이미지 정보를 보여줄 수 있다. 일부 실시예에서, 수술 또는 의료 시술의 상태를 표시하는 것을 돕기 위해 기구의 모델 또는 표현이 수술전 모델과 함께 보여진다.
일부 실시예에서, 콘솔 베이스(201)는 중앙처리장치(CPU 또는 프로세서), 메모리 유닛 (컴퓨터 판독 가능 메모리), 데이터 버스, 및 환자의 관강내 조직망 내 위치한 의료 기구로부터 수신된 카메라 화상 및 추적 센서 데이터와 같은 신호의 판독과 처리를 책임지는 연관 데이터 통신 포트를 포함한다.
콘솔 베이스(201)는 또한 제어 모듈(203, 204)을 통해 사용자(205)로부터 제공된 명령과 지시를 처리할 수 있다. 제어 모듈은 도 20에 도시된 키보드(203)와 조이스틱(204) 뿐만 아니라 컴퓨터 마우스, 트랙 패드, 트랙 볼, 제어 패드, 소형 원격 제어기와 같은 제어기, 및 손짓과 손가락 움직임을 캡처하는 (동작 센서나 카메라와 같은) 센서 등 다른 기기를 포함할 수 있다. 제어기는 (연접(articulation), 구동, 물 세척 등과 같은) 기구의 작동과 매핑된 (버튼, 조이스틱, 십자 패드(directional pad) 등과 같은) 사용자 입력 세트를 포함할 수 있다. 콘솔 베이스(200)의 제어 모듈(203), (204)를 사용해서, 사용자(205)는 관강내 조직망(130)사이로 기구를 항행할 수 있다.
도 18은 예시적인 의료 기구(300)의 원위 단부의 상세도를 도시한다. 도 18의 의료 기구(300)는 도 16의 내시경(115) 또는 조향가능한 카테터(145)를 나타낼 수 있다. 의료 기구(300)는 본 명세서 전반에 걸쳐 설명되는 모든 의료 기구, 도 1의 내시경(13), 도 3의 요관경(32), 도 9의 복강경(59) 등을 나타낼 수 있다. 도 18에서, 기구(300)의 원위 단부는 촬상 기기(315), 광원(310) 및 EM 기구 센서를 형성하는 EM 센서 코일(305)의 선단을 포함한다. 원위 단부는 기구(300)의 작업 채널(320)의 개구부를 더 포함하고, 이를 통해 생검 바늘, 생검 브러쉬, 및 집게 등과 같은 수술 기구가 기구 샤프트를 따라 삽입될 수 있어서 기구 선단 주변 부위에 접근성을 제공해준다.
기구(300)의 원위 단부에 위치한 EM 코일(305)은 EM 추적 시스템과 함께 사용되어 관강내 조직망 안에 위치되어 있는 동안 기구(300)의 원위 단부의 위치 및 방향을 감지할 수 있다. 일부 실시예에서, 코일(305)은 전자기장의 감도를 제공하기 위해 다른 축을 따라 기울어질 수 있고, 이를 통해, 개시된 항행 시스템은 완전한 자유도(DoF) 6: 위치 자유도3, 각도 자유도3을 측정할 수 있다. 다른 실시예에서, 단일 코일(305)만 기구 샤프트를 따라 축이 배향된 원위 단부 상에 또는 그 안에 배치될 수 있다. 전술한 시스템의 회전대칭(rotational symmetry) 때문에 축을 따라 롤 하는 것에 둔감하므로 이러한 구현의 경우 5개의 자유도 만이 감지될 수 있다. 대안적으로 또는 추가적으로, 다른 종류의 위치 센서가 이용될 수 있다.
광원(310)은 해부학적 공간의 부분을 밝힐 수 있는 광을 제공한다. 상기 광원은 각각 선정된 파장 또는 파장 대역의 광을 방출하도록 구성된 한 개 이상의 발광 장치일 수 있다. 상기 파장은 적합한 임의의 파장일 수 있고, 몇 가지 예로 가시 광선, 적외선, (가령, 형광투시를 위한) 엑스레이를 들 수 있다. 일부 실시예에서, 광원(310)은 기구(300)의 원위 단부에 위치한 발광 다이오드(LED)를 포함할 수 있다. 일부 실시예에서, 광원(310)은 내시경의 길이를 통해 연장되어 가령, 엑스레이 발전기와 같은 원격 광원으로부터 원위 단부를 통해 광을 전송하는 한 개 이상의 광섬유 섬유를 포함할 수 있다. 원위 단부가 복수의 광원(310)을 포함하는 경우 이들은 서로 동일한 또는 다른 파장의 광을 방출하도록 각각 구성될 수 있다.
상기 촬상 장치(315)는 예를 들어, 전하 결합 소자(charge-coupled device, CCD) 또는 상보성 금속산화물 반도체(complementary metal-oxide semiconductor, CMOS) 이미지 센서와 같이 수신한 광 에너지를 전기 신호로 변환 시키도록 구성된 임의의 감광성 기질 또는 구조를 포함할 수 있다. 촬상 장치(315)의 일부 예들은 이미지를 나타내는 광을 내시경의 원위 단부(300)에서 내시경 근위 단부의 접안렌즈 및/또는 이미지 센서로 전송하도록 구성된 가령, 섬유 광학 다발과 같은 한 개 이상의 광학 섬유를 포함할 수 있다. 촬상 장치(315)는 다양한 광학 설계에 따라 요구되는 한 개 이상의 렌즈 및/또는 파장 통과(pass) 또는 차단(cutoff) 필터를 추가적으로 포함할 수 있다. 광원(310)으로부터 방출된 광을 통해 촬상 장치(315)는 환자의 관강내 조직망 내부의 이미지를 캡처할 수 있다. 이 이미지들은 그 다음 개별적인 프레임 또는 (가령, 비디오와 같은) 일련의 연속적인 프레임으로 명령 콘솔(200)과 같은 컴퓨터 시스템으로 전송될 수 있다. 전술된 바와 같이 그리고 이하 자세히 설명되는 바와 같이, (도 15의 시각 데이터(92)와 같은) 촬상 장치(315)에 의해 캡처된 이미지는 항행 또는 국소화 시스템(95)에 의해 활용되어 관강내 조직망 내 기구의 위치 (가령, 기구(300)의 원위 선단의 위치)를 결정 또는 추정할 수 있다.
3. 항행을 위한 이미지-기반 분지 감지 및 매핑.
본 개시 내용의 실시예는 이미지-기반 분지 감지 및 매핑을 위한 시스템 및 기술에 관한 것이다. 본 명세서에서 사용되는 바와 같이, 이미지-기반 분지 감지는 관강내 조직망의 한 개 이상의 분지와 관련된 한 개 이상의 개구부를 이미지 내에서 식별하는 것을 지칭할 수 있다. 예를 들어, 이미지-기반 분지 감지 시스템은 관강내 조직망 안에 위치된 기구 상에 위치하는 촬상 장치를 사용해 관강내 조직망의 내부 이미지를 캡처할 수 있고, 이미지-기반 분지 감지 시스템은 이미지를 분석해 관강내 조직망의 이후 분지와 관련된 한 개 이상의 개구부를 감지 할 수 있다. 본 명세서에서 사용되는 바와 같이, 이미지-기반 분지 매핑은 감지된 한 개 이상의 개구부를 대응되는 관강내 조직망의 분지와 매핑하는 것을 지칭할 수 있다. 예를 들어, 이미지-기반 분지 매핑 시스템은 관강내 조직망의 어느 한 개 이상의 분지가 이미지 내 감지된 한 개 이상의 개구부에 대응되는지 식별하도록 구성될 수 있다. 이러한 시스템 및 기술은 관강내 조직망 내 기구의 위치를 결정 또는 추정하기 위해 사용될 수 있다. 특정 구현에서, 이러한 시스템 및 기술은 (도 15와 관련되어 전술된 바와 같이) 다른 다양한 항행 및 국소화 양식과 함께 사용될 수 있다.
A. 항행을 위한 이미지-기반 분지 감지 및 매핑의 개요.
관강내 조직망 내부를 항행하는 능력은 본 명세서에서 설명되는 로봇-제어식 수술 시스템의 기능일 수 있다. 본 명세서에서 사용되는 바와 같이, 항행은 관강내 조직망 내 기구의 위치를 위치시키거나 결정하는 걸 지칭할 수 있다. 결정된 위치는 관강내 조직망 내 한 개 이상의 특정 관심 영역으로 기구를 안내하는 것을 지원하기 위해 사용될 수 있다. 일부 실시예에서, 로봇-제어식 수술 시스템은 한 개 이상의 독립적인 감지 양식을 활용해 기구의 수술 중 항행을 제공한다. 도 15에서 도시된 바와 같이, 독립적인 감지 양식은 (EM 데이터(93)과 같은) 위치 데이터, 시각 데이터(92), 및/또는 로봇 명령 및 운동학 데이터(94)일 수 있다. 이러한 독립적인 감지 양식은 위치의 독립적인 추정을 제공하도록 구성된 추정 모듈을 포함할 수 있다. 독립적인 추정은 그 다음 예를 들어, 국소화 모듈(95)을 사용해서 시스템에 의해 사용되거나 또는 사용자에게 디스플레이 될 수 있는 하나의 항행 출력으로 조합될 수 있다. 이미지-기반 분지 감지 및 매핑은 시각 데이터(92)를 기초하여, 위치의 독립적인 추정을 제공할 수 있는 독립적인 감지 양식을 제공할 수 있다. 특히 어떤 경우에는, 이미지-기반 분지 감지 및 매핑은 촬상 장치에 의해 캡처된 이미지 또는 이미지들을 기초하여 기구의 촬상 장치가 관강내 조직망의 어느 내강 또는 분지에 있는지를 추정하는 감지 양식 및 상태/위치 추정 모듈의 조합을 제공한다. 일부 실시예에서, 이미지-기반 분지 감지 및 매핑에 의해 제공된 상기 추정은 단독으로 또는 다른 위치 추정과 함께 사용되어 시스템에 의해 사용되거나 또는 사용자에게 디스플레이 될 수 있는 최종 위치 추정을 결정할 수 있다.
일부 실시예에서, 동일한 감지 양식을 기초하여 동시에 작동하는 복수의 상태 추정 모듈이 있을 수 있다. 하나의 예시로, 복수의 (가령 3개의) 다른 상태 추정 모듈은 시각 데이터(92)를 각각 다른 방식으로 처리해서 (모두 시각 데이터(92)를 기초하는) 복수의 (가령 3개의) 다른 위치 추정을 출력할 수 있다. 본 개시 내용은 이러한 모듈-이미지-기반 분지 감지 및 매핑 모듈-하나를 참조하고, 상기 모듈은 (가령 단일 이미지를 기초하는) 시각 데이터(92)를 기초하여 분지 개구부를 감지하고 이러한 감지된 분지 개구부를 관강내 조직망 내 특정 해부학 분지와 매핑함으로써 기구의 현재 위치를 추정한다. 더 자세하게 후술되는 바와 같이, 일부 실시예에서, 이미지-기반 분지 감지 및 매핑 모듈은 (한 개 이상의 감지 양식에 기초할 수 있는) 항행 또는 국소화 시스템(90)에 의해 결정된 현재 또는 이전 위치 추정을 사용해 감지된 개구부를 관강내 조직망 내 특정 해부학 분지와 매핑시킬 수 있다. 또 다른 방식으로 말하면, 본 개시 내용에서 설명되는 이미지-기반 분지 감지 및 매핑 시스템 및 방법은 관강내 조직망 안에 위치한 기구가 있는 위치 추정을 항행 또는 국소화 모듈(95)로 제공하도록 구성된다. 일부 실시예에서, 본 개시 내용에서 설명되는 이미지-기반 분지 감지 및 매핑 시스템 및 방법은 모든 다른 양식과 독립적일 수 있다. 일부 실시예에서, 본 개시 문서에서 설명되는 이미지-기반 분지 감지 및 매핑 시스템 및 방법은 복수의 감지 양식을 사용해 결정된 이전 위치 추정을 기초로 추정할 수 있다.
도 19는 이미지-기반 분지 감지 및 매핑을 위한 예시적인 방법(400)을 도시한다. 방법(400)은 본 개시 내용에서 설명된 다양한 로봇-제어식 수술 시스템에서 구현될 수 있다. 방법(400)은 두 단계 또는 블록을 포함할 수 있다: 분지 개구부를 이미지 안에서 감지하는 단계 (블록 402) 및 감지된 개구부와 관강내 조직망의 분지를 매핑하는 단계 (블록 4040).
블록(402)에서, 방법(400)은 이미지 안에서 분지 개구부를 감지한다. 전술된 바와 같이, 의료 시술 동안, 기구는 관강내 조직망 안에 위치 될 수 있다 (도 16 참고). 도 18에 도시된 바와 같이, 기구는 자신에게 위치한 (카메라와 같은) 촬상 장치(315)를 포함할 수 있다. 촬상 장치(315)는 관강내 조직망 내부의 이미지를 캡처할 수 있다. 예를 들어, 특정 순간에, 촬상 장치(315)는 기구가 현재 위치한 관강내 조직망의 특정 분지의 내부 이미지를 캡처할 수 있다. 블록(402)에서, 방법(400)은 이미지를 분석해 이미지 안에서 한 개 이상의 개구부를 감지할 수 있다. 한 개 이상의 개구부는 관강내 조직망의 한 개 이상의 이후 분지와 기구가 위치한 현재 분지와 연결할 수 있다. 일반적으로, 블록(402)은 이미지가 한 개 이상의 분지 개구부를 포함하는지를 결정하기 위해 이미지를 처리하는 이미지 분석을 수반할 수 있다. 특정 구현에서, 만약 이미지가 한 개 이상의 분지 개구부를 포함한다고 결정되면, 개구부의 다양한 특징들 또한 결정될 수 있다. 이러한 특징은 감지된 한 개 이상의 분지 개구부의 도심을 감지하는 것 및/또는 감지된 한 개 이상의 분지 개구부의 모양 또는 윤곽을 식별하는 것을 포함할 수 있다. (분지 개구부를 이미지 내에서 감지하는) 블록(402)은 본 명세서에서 이미지-기반 분지 감지로 지칭될 수 있고, 3.B 부분에서 더 자세히 후술된다.
블록(404)에서, 방법(400)은 한 개 이상의 감지된 분지 개구부를 관강내 조직망의 특정 분지와 매핑한다. 일반적으로 블록(404)에서, 방법(400)은 관강내 조직망의 어느 분지가 감지된 개구부와 관련되었는지 결정한다. 특정 구현에서, 블록(404)은 (예를 들어, 현재 위치 추정 및 관강내 조직망의 수술전 모델을 기초하여) 예상되는 이후 분지 세트를 결정하는 단계 및 예상되는 이후 분지의 특징과 감지된 분지 개구부를 일치시키는 단계를 포함할 수 있다. (감지된 개구부를 관강내 조직망의 분지와 매핑하는) 블록(404)은 본 개시 내용에서 이미지-기반 분지 매핑으로 지칭될 수 있고, 이하 3.C 부분에서 더 자세히 후술된다.
감지된 개구부를 관강내 조직망의 특정 분지와 매핑 시킴으로써, 방법(400)은 기구의 위치에 대한 추정을 제공할 수 있다. 예를 들어, 방법(400)을 사용해, 시스템 또는 기구는 기구가 “보고있는” 분지가 어느 것인지를 식별하고 이 정보를 이용해 관강내 조직망 안에 기구의 위치를 추정할 수 있다.
B. 이미지-기반 분지 감지.
이미지-기반 분지 감지는 관강내 조직망 안에 위치한 기구의 촬상 장치(315)에 의해 캡처된 이미지를 분석하여 이미지 안에 한 개 이상의 분지 개구부를 감지 할 수 있다. 예를 들어, 이미지-기반 분지 감지는 분지 내부의 이미지를 분석해서 관강내 조직망의 이후 분지들을 현재 분지로 연결하는 한 개 이상의 개구부가 이미지 안에 있는지 여부를 감지할 수 있다.
도 20은 관강내 조직망의 분지 내부의 예시 이미지(500)를 제공한다. 도시된 예시에서, 이미지(500)는 모든 종류의 관강내 조직망을 나타낼 수 있기는 하지만, 이미지(500)는 폐의 기도 내부의 이미지다. 두 개의 분지 개구부(502)가 이미지(500)안에 존재한다. 분지 개구부(502)는 (이후 기도와 같은) 이후 분지들을 현재 분지와 연결한다.
이미지-기반 분지 감지는 컴퓨터 시스템이 분지 개구부(502)를 계산적으로 인지할 수 있는 방법을 포함할 수 있다. 일부 경우, 이미지(500)는 두 분류의 픽셀을 포함한다: (1) (예를 들어 조직 같은) 관강내 조직망의 벽을 나타내는 픽셀, 및 (2) 개구부를 나타내는 픽셀. 특정 실시예에 따르면, 이미지-기반 분지 감지는 시스템적으로 이 두 픽셀 분류를 감지하고 이미지 내 분지 개구부를 식별 및 감지할 수 있다.
도 21은 이미지-기반 분지 감지를 위한 예시 방법(600)을 도시한다. 방법(600)은 블록(602)에서 시작하고, 관강내 조직망의 분지 내부의 이미지는 분지 안에 위치한 촬상 장치로 캡처된다. 전술된 바와 같이 이미지는 관강내 조직망 안에 위치한 기구 상의 촬상 장치(315)로부터 캡처되고 또는 수신될 수 있다.
블록(604)에서, 이미지에 대한 픽셀 강도 값의 히스토그램이 생성된다. 예를 들어, 블록(604)은 각 강도 값에서의 픽셀 수를 그리는 단계를 수반할 수 있다. 픽셀 강도의 범위는 예를 들어, 어두움에서 밝음 사이일 수 있다. 어두움/밝음 범위는 예를 들어 숫자로 표시될 수 있는데, 가령 0에서 1 사이 (0은 완전 어두움(검정)을 나타내고 1은 완전 밝음(흰색)을 나타냄) 또는 0 에서 256까지의 (0은 완전 어두움(검정)을 나타내고 256은 완전 밝음(흰색)을 나타냄) 범위 일 수 있다. 다른 척도 또한 가능하다. 본 발명은 픽셀 강도(명도)를 기초하여 히스토그램을 생성하는 예시를 참조하지만, 히스토그램은 또한 이미지의 다른 특성 (가령 색상)을 기초하여 생성될 수도 있다.
도 22는 (도 20의 이미지(500)와 같은) 한 개 이상의 분지 개구부를 포함하는 이미지의 히스토그램 예시(700)를 도시한다. 도 22에서, 픽셀 강도는 평활화(equalized)되고 0에서 256 사이의 숫자 척도로 표현될 수 있다. 히스토그램의 평활화를 통해 선형 히스토그램을 만들 수도 있다. 막대는 각각의 강도 값에서의 이미지 안에 픽셀 수를 나타낸다. 도시된 바와 같이, 히스토그램(700)은 양봉(bimodal)이다. 즉, 히스토그램(700)은 두 개의 뚜렷한 최고점 (702, 704)을 포함한다. 첫번째 최고점(702)는 (조직과 같은) 관강내 조직망의 벽을 나타내는 픽셀의 표현일 수 있고, 두번째 최고점(704)는 이미지 안에 개구부를 나타내는 픽셀의 표현일 수 있다. 많은 경우, 관강내 조직망의 분지 내부의 히스토그램은 도시된 바와 같이 두 개의 최고점을 포함하는 양봉일 것이다. 이는 (가령, 관강내 조직망 내부와 같은) 터널같은 뷰에서, 픽셀은 일반적으로 (개구부를 표시해서) 어둡거나 (분지 벽을 표시해서) 밝기 때문이다.
도 21의 방법(600)으로 돌아가서, 블록(606)에서, 임계값 미만의 픽셀은 이미지 내 개구부의 표시로 식별된다. 대안적으로 또는 추가적으로, 임계값 초과 또는 미만의 픽셀이 분지 개구부를 나타내는 것으로 식별되거나 또는 분류될 수 있다. 대안적으로 또는 추가적으로, 임계값 초과 또는 미만의 픽셀이 관강내 조직망의 조직 또는 벽을 나타내는 것으로 식별되거나 또는 분류될 수 있다. 일반적으로 말해, 블록(606)에서 임계값이 결정되어 이미지의 픽셀을 분지 개구부를 표현하는 픽셀과 분지 벽을 나타내는 픽셀로 나눈다. 픽셀이 분지 개구부와 분지 벽 중에 어느 것을 나타내는지를 정하거나 식별함으로써 이미지 안에 분지 개구부가 감지될 수 있다.
도 23A 및 도 23B는 분지 개구부(802)가 어떻게 감지될 수 있는지를 보여주는 예시 이미지 (800a), (800b)를 도시한다. 도 23A와 관련해서, 결정된 임계값의 픽셀은 하이라이트되고, 개구부(802)를 둘러싸는 측면도(805)가 생성된다. 도 23B와 관련해서, 픽셀은 임계값을 기준으로 더 높고, 낮은 부분으로 분할되어 개구부(802)를 식별한다. 예를 들어, 임계값 보다 높은 모든 픽셀은 분할되어 흰색으로 도시되고, 임계값 보다 낮은 모든 픽셀은 분할되어 검정으로 도시된다. 도 23B의 예시에서, 검정 픽셀은 개구부(802)를 나타낸다.
도 24는 임계값 초과/미만의 픽셀이 분지 개구부를 나타낸다고 식별/분류하기 위해 (도 21의) 방법(600)의 블록(606)의 일부 실시예에서 구현될 수 있는 예시적인 서브루틴(subroutine) 또는 방법(900)을 도시한다. 방법(900)은 4 개의 단계 또는 블록을 포함할 수 있다. 블록(902)에서 히스토그램의 최고점이 식별된다. 전술된 바와 같이, 보통, 내강 내부의 이미지의 히스토그램은 두 개의 식별 가능한 최고점을 포함하는 양봉일 수 있다. 예를 들어, 도 22의 히스토그램(700)에서, 제 1 최고점(702)는 강도 값 60에서 발생하고 제2 최고점(702)는 강도 값 180에서 발생한다.
블록(904)에서, 최고점 사이의 중점 값이 식별된다. 도 22의 예시를 계속 참조하여, 히스토그램(700)의 최고점(702) 사이의 중점(704)은 강도 140에서 발생한다. 시스템적으로, 중점(704)는 히스토그램(700)의 두 최고점(702) 사이를 (동일하게) 나누는 값을 찾음으로써 결정될 수 있다. 도 24로 돌아가서, 블록(906)에서, 임계값은 중점(704)과 동일하게 설정된다. 따라서, 중점(704) 또는 임계값을 초과하는 픽셀은 조직이라고 결정될 수 있고, 중점(704) 또는 임계값 미만인 픽셀은 개구부라고 결정될 수 있다. 도 23A에 도시된 바와 같이, 임계값과 동일한 픽셀은 개구부(802)의 측면도(805)를 도시하기 위해 하이라이트 될 수 있다.
마지막으로 블록(906)에서, 임계값 보다 초과/미만인 픽셀은 분지 개구부를 표시한다고 식별 또는 분류될 수 있다. 도 23B에서 도시된 바와 같이, 임계값을 사용해 임계값보다 높은 픽셀을 최대 강도로(예를 들어, 흰색) 그리고 임계값보다 낮은 픽셀을 최소 강도로 (예를 들어, 검정) 부여함으로써 이미지를 밝고 어두운 영역으로 분할할 수 있다. 이와 같이, 개구부(802)도 감지되고 시각화될 수 있다.
설명된 바와 같이, 이미지-기반 분지 감지는 분지 개구부를 감지하기 위해 이미지를 분석하도록 구성될 수 있다. 본 명세서 설명되는 이미지-기반 분지 감지 방법은 본 개시 내용 전반적으로 설명된 로봇-제어식 수술 시스템의 다양한 실시예에서 이용될 수 있다. 일부 실시예에서, 이미지-기반 분지 감지는 관강내 조직망의 분지의 개구부를 감지하는 방법의 구현을 포함한다. 방법은 관강내 조직망의 분지 내부의 이미지를 분지 내 위치된 촬상 장치로 캡처하는 단계를 포함할 수 있다. 이미지는 관강내 조직망의 분지 내부에 위치한 기구의 촬상 장치(315)를 사용해 캡처될 수 있다. 방법은 또한 이미지를 위한 픽셀 강도 값의 히스토그램을 생산하는 단계를 포함할 수 있다. 일반적으로, 히스토그램은 (관강내 조직망의 벽과 같은) 조직 및 분지 개구부를 나타내는 최고점이 있는 양봉이다. 방법은 또한 임계값 보다 낮은 픽셀은 이미지 안에서 개구부를 표시한다는 것을 식별하는 단계를 포함할 수 있다.
일부 실시예에서, 방법은 또한 히스토그램을 기초하여 임계값을 결정하는 단계를 포함한다. 임계값은 히스토그램의 두 최고점 사이의 중점일 수 있다. 예를 들어, 임계값을 결정하는 것은 히스토그램 안에 적어도 두 개의 최고점을 식별하는 단계, 적어도 두 최고점 사이의 중점을 식별하는 단계, 및 임계값을 중점의 강도 값과 동일하게 설정하는 단계를 포함할 수 있다. 다른 실시예에서, 임계값은 다른 방법으로 결정될 수 있다. 예를 들어, 임계값은 메모리에 저장된 기 설정된 값일 수 있다.
이미지-기반 분지 감지 방법은 다양한 다른 기능을 포함할 수 있다. 예를 들어, 일부 실시예에서, 이미지-기반 분지 감지 방법은 감지된 분지 개구부의 다른 특징들을 식별하는 단계를 포함할 수 있다. 예를 들어, 이미지-기반 분지 감지 방법은 또한 이미지 안에 식별된 각각의 개구부에 대해 개구부의 도심을 결정하는 단계를 포함할 수 있다. 또 다른 예시로, 이미지-기반 분지 감지 방법은 또한 이미지 안에 식별된 각각의 개구부에 대해 개구부의 측면도를 결정하는 단계를 포함할 수 있다. 측면도는 임계값에서의 픽셀을 식별함으로써 결정될 수 있다.
일부 실시예에서, 이미지-기반 분지 감지 방법은 또한 이미지 안에 식별된 여러 개구부를 배드 프레임 감지기 임계값과 비교하는 단계를 포함할 수 있다. 일부 실시예에서, 배드 프레임 감지기 임계값은 3, 4, 5, 6, 또는 그 이상에서 설정된다. 만약 이미지-기반 분지 감지 방법이 배드 프레임 감지기 값보다 크거나 같은 여러 개구부를 감지하면, 방법은 배드 프레임 또는 오류라고 결정하고 이미지를 폐기할 수 있다. 예를 들어, 일부 경우에, 이미지 안에 거품 또는 다른 특징들이 개구부로 보이 수 있고 위양성(false positives)을 발생시킬 수 있다. 만약 감지된 개구부의 개수가 배드 프레임 감지기 임계값으로 표현되는 가능성 있는 개구부의 개수를 초과하면, 방법은 (실제로는 개구부가 아닌 개구부와 같은) 위양성을 식별했다고 결정할 수 있다. 이러한 경우에, 방법은 현재 이미지를 폐기하고, 제2 이미지 안에 있는 개구부를 재 감지한다. 예를 들어, 만약 식별된 개구부의 숫자가 배드 프레임 감지기 임계값을 초과하면, 방법은 분지 내부의 제2 이미지를 캡처하는 단계 및 제2 이미지 내 개구부를 결정하기 위해 제2 이미지를 분석하는 단계를 더 포함할 수 있다.
C. 이미지-기반 분지 매핑
이미지-기반 분지 매핑은 관강내 조직망의 어느 분지가 감지된 개구부와 연관이 있는지 결정 또는 식별한다. 즉, 이미지-기반 분지 매핑은 관강내 조직망의 어느 이후 분지가 현재 분지의 감지된 분지 개구부와 연결되었는지를 결정할 수 있다. 감지된 개구부를 관강내 조직망의 분지와 매핑시킴으로써, 관강내 조직망 안의 기구의 위치가 결정될 수 있다. 또한 기구가 어느 분지 안으로 이동할지 추정 또는 예측 또한 얻을 수 있다.
포괄적으로 말해, 감지된 개구부의 특징과 관강내 조직망의 분지의 특징을 비교함으로써 감지된 개구부와 관강내 조직망의 분지가 매핑될 수 있다. 전술된 바와 같이 감지된 개구부의 특징은 이미지 분석을 통해 결정될 수 있다. 관강내 조직망의 분지의 특징은 관강내 조직망의 수술전 모델과 같은 관강내 조직망의 모델을 통해 결정될 수 있다. 또한 특정 실시예에서 감지된 개구부를 관강내 조직망의 분지와 매핑시키는 것은 관강내 조직망 내 기구의 현재 위치 추정에 기초할 수 있다. 도 15와 관련되어 전술된 바와 같이 현재 위치 추정은 다양한 감지 양식을 기초하여 결정될 수 있다. 감지된 개구부와 관강내 조직망의 분지를 현재 위치 추정을 기반으로 매핑시키는 것은 매핑 절차의 효율성, 속도, 및/또는 정확도를 향상시킬 수 있다. 예를 들어, 특정한 현재 위치 추정에 대해, 감지된 개구부의 특징이 예상되는 이후 분지의 특징과 비교될 수 있다. 이것은 매핑을 수행하기 위해 필요한 계산 부하를 최소화 시킬 수 있고 매핑 속도를 향상시킬 수도 있다.
도 25는 관강내 조직망(1000)의 간소화된 표현을 도시한다. 관강내 조직망(1000)은 (가령 내강, 분절과 같은) 복수의 분지(1002, 1004, 1006, 1008, 1010, 1012, 1014, 1016)를 포함한다. 관강내 조직망(1000)은 또한 다양한 분지를 서로 연결하는 분기(bifurcations, 1020, 1022, 1024)를 포함한다. 관강내 조직망(1000)은 폐의 기관지 조직망의 일부를 표현할 수 있고, 분지들은 기도를 표현할 수 있다. 관강내 조직망(1000)은 모델로 표현될 수 있다. 모델은 수술전에 결정될 수 있다. (수술전 모델에 대한 정보와 같은) 수술전 모델 데이터(91)가 저장되어 항행 및 국소화 시스템(90)에 의해 사용될 수 있다 (도 15 참조). 예시로 후술되다시피, 이미지-기반 분지 매핑은 감지된 개구부를 관강내 조직망(1000)의 분지와 매핑시키도록 구성될 수 있다.
도 26는 이미지-기반 분지 매핑을 위한 예시적인 방법(1100)을 도시한다. 방법(1100)은 본 명세서에서 설명된 로봇-제어식 수술 시스템의 다양한 구성 요소로 구현될 수 있다. 방법(1100)은 도 25의 관강내 조직망(1000)과 관련하여 한 예로서 설명되지만 그것으로 한정되지는 않는다.
블록(1102)에서, 방법(1100)은 관강내 조직망(1000) 내 위치된 기구에 대한 위치 상태 추정을 수신 또는 결정한다. 위치 상태 추정은 기구가 현재 어느 분지에 위치되어 있는지의 식별을 포함할 수 있다. 위치 상태 추정은 예를 들어, 도 15의 항행 및 국소화 시스템(90)에 의해 결정될 수 있다. 위치 상태 추정은 수술전 모델 데이터(91), 시각 데이터(92), EM 데이터(93) (또는 다른 위치 감지 데이터), 모양 감지 데이터, 및/또는 로봇 명령 및 운동학 데이터(94)와 같은 다양한 및/또는 복수의 위치 감지 양식 및 정보를 기초하여 결정될 수 있다.
도 25와 관련하여, 예를 들어, 위치 상태 추정은 기구가 현재 관강내 조직망(1000)의 (가령 분지(1002), 분지(1004), 분지(1006) 등과 같은) 어느 분지 안에 위치되어 있는지의 표시를 포함할 수 있다.
위치 상태 추정은 또한 추가적인 정보를 포함할 수 있다. 이러한 추가 정보는 현재 분절 내 깊이에 대한 결정 또는 추정 및/또는 (기구의 세로축 중심의 회전과 같은) 현재 기구 롤에 대한 결정 또는 추정을 포함할 수 있다. 일부 실시예에서, 시스템 또는 방법은 복수의 위치 상태 추정을 유지 또는 생성할 수 있고 각각의 위치 상태 추정에 대한 확률을 부여할 수 있다. 복수의 위치 상태 추정 중에서, 확률이 가장 높은 위치 상태 추정이 사용자에게 제공될 수 있다. 예를 들어, 시스템 또는 방법은 (예를 들어, 기구가 제 1 분지(1002) 안에 제 1 깊이 및 롤 각도에 위치한다는 표시를 포함하는) 제1 위치 상태 추정 및 (예를 들어, 기구가 제 2 분지(1004) 안에 제2 깊이 및 롤 각도에 위치한다는 표시를 포함하는) 제 2 위치 상태 추정을 생성할 수 있다. 시스템은 각각의 위치 상태 추정에 대한 확률을 결정할 수 있다. 예를 들어, 시스템은 기구가 제 1 위치 상태 추정에 있다는 확률은 60%이고, 기구가 제2 위치 상태 추정에 있을 확률은 40%라고 결정할 수 있다. 제1 위치 상태 추정의 확률이 더 높기 때문에, 시스템은 사용자에게 제 1 위치 상태 추정을 제공하거나 또는 방법(1100)의 한 개 이상의 추가 단계에서 제 1위치 상태 추정을 사용할 수 있다.
블록(1104)에서, 방법(1100)은 블록(1102)에서 결정된 위치 상태 추정을 기초하여 예상되는 이후 분지 세트를 결정할 수 있다. 예를 들어, 만약 위치 상태 추정이 기구가 분지(1002) 안에 있다고 나타내면, 예상되는 이후 분지 세트는 분지(1002)와 연결된 분지, 즉, 분지(1004) 및 분지(1006)를 포함할 수 있다. 또 다른 예시에서, 만약 위치 상태 추정이 기구가 분지(1004) 안에 있다고 나타내면, 예상되는 이후 분지 세트는 분지(1008) 및 분지(1010)을 포함할 수 있다. 또 다른 예시에서, 만약 위치 상태 추정이 기구가 분지(1006) 안에 있다고 나타내면, 예상되는 이후 분지 세트는 분지(1012), 분지(1014) 및 분지(1016)를 포함할 수 있다. 이후 분지 세트에 대한 정보는 수술 전 모델 데이터(91)에 저장된 수술 전 모델로부터 얻어질 수 있다 (도 15 참조).
이후 분지의 표시 뿐만 아니라 예상되는 이후 분지 세트의 추가 데이터가 또한 결정될 수 있다. 예를 들어, 예상되는 이후 분지의 개구부의 도심 및/또는 이후 분지 세트의 개구부의 측면도 또한 수술전 모델로부터 결정될 수 있다.
블록(1106)에서, 방법(1100)은 기구 롤을 위한 보정을 수행할 수 있다. 기구가 관강내 조직망(1000)을 항행할 때, 기구는 (세로축을 중심으로 하는 롤과 같은) 롤을 경험할 수 있다. 이러한 롤은 관강내 조직망 사이의 움직임을 용이하게 하기 위한 지시된 롤이거나 또는 의도치 않은 롤일 수도 있다. 기구의 롤에 대한 정보는 예를 들어, 로봇 명령어 및 운동학 데이터(94) 및/또는 비틀림 강성 등과 같은 기구의 물리적인 속성으로부터 결정될 수 있다. 일부 경우에, 블록(1108)에서 후술되듯이 감지된 개구부의 특징을 예상되는 이후 개구부 세트의 특징과 비교하기 위해 기구의 롤을 보정해야 할 필요가 있을 수 있다. 블록(1106), (1108), (1110)의 예시가 이후 도 27A 내지 27C와 관련되어 후술된다.
블록(1108)에서, 방법(1100)은 감지된 개구부의 특징과 블록(1104)에서 결정된 감지된 이후 분지 세트의 개구부를 비교한다. 한 예시에서, 감지된 개구부들의 도심을 연결하는 벡터는 예상되는 이후 개구부 세트의 개구부들의 도심을 연결하는 벡터와 비교된다. 다른 실시예에서, 각각의 감지된 개구부의 모양 또는 측면도는 감지된 이후 개구부 세트의 개구부의 모양 또는 측면도와 비교된다. 다른 특징들 또한 비교될 수 있다.
블록(1110)에서, 방법(1100)은 감지된 개구부와 관강내 조직망(1000)의 분지를 매핑시킨다. 매핑은 블록(1108)에서의 비교에 기초할 수 있고, 가장 가깝게 일치되는 것이 감지된 개구부와 관강내 조직망(1000)의 분지를 매핑시키기 위해 사용된다.
예를 들어, 도 27A는 두 개의 감지된 개구부가 있는 이미지(1202)를 도시한다. 각각의 감지된 개구부의 도심 (1204)이 식별되었고, 도심(1204)을 연결하는 벡터 Vi가 결정된다. 도 27B의 왼쪽 화면에는 예상되는 이후 분지 세트가 기구의 현재 위치 추정을 기초하여 결정되었다. 예상되는 이후 분지 세트는 이 예시에서 분지(2) 와 분지(119)를 포함한다. 분지(119)를 분지(2)로 연결하는 벡터 VM가 도시된다. 도 27B의 오른쪽 화면에서 도시된 바와 같이, 벡터 VM은 기구 롤을 위해 보정되어 벡터 Vv를 생성할 수 있다. 도시되지는 않았지만, 분지(2)를 분지(119)로 연결하는 제2 벡터가 또한 결정되고 및 롤을 위해 보정될 수 있다. 제2 벡터는 벡터 Vv 와 크기는 같지만 방향은 반대이다. 이 두 벡터들은 그 다음 벡터 Vi와 비교될 수 있다. 일부 경우에, 이 벡터들을 비교하는 것은 내적(dot product)을 구하는 것을 포함한다. 가장 가깝게 일치되는 것 (가령 일부 예시에서는 1에 가장 가까운 내적)은 그다음 감지된 개구부와 예상되는 이후 분지 세트를 매핑시키기 위해 사용될 수 있다. 도 27C에서 도시된 바와 같이, 두 개의 감지된 분지는 도시된 분지(2) 및 분지(119)로 매핑 되었다.
또 다른 예시에서, 이미지-기반 분지 매핑을 위한 방법은: (1) 이미지 안에 감지된 분지의 위치 (x 및 y 좌표)를 식별하는 단계; (2) 어느 분지 안에 기구가 현재 위치 되어 있는지 추정을 결정 또는 수신하는 단계; (3) 현재 분지 추정을 이용해서, 추정 분지를 위해 존재하는 모든 직접적인 자식 (즉, 현재 분지와 연결된 분지) 및 수술전 모델을 기초로 그것들의 위치 (x 및 y 좌표)의 목록을 생성하는 단계; (4) 반복적으로 이 자식들의 변환된 (가령, 롤 보정된) 좌표를 1 단계에서 결정된 위치와 일치시키는 단계 및 각 반복 (또는 한 쌍의 반복)에 대한 비용 (미터법) 을 계산하는 단계; 및 (5) 이 자식들을 감지된 분지에 배정하기 위해 가장 낮은 비용의 일치를 사용하는 단계를 포함할 수 있다.
D. 이미지-기반 분지 예측
특정 구현에서, 본 개시 내용의 시스템 및 방법은 기구의 현재 위치를 기초하여 기구가 아마도 이어서 어느 기도로 입장할 지 예측 또는 추정할 수 있다. 일부 구현에서, 본 개시 내용의 시스템 및 방법은 각각의 감지 및 매핑된 분지로 입장할 확률의 예측 또는 추정을 제공할 수 있다. 이는 특정 예시에서, 감지 및 매핑된 분지 중에 어느 것이 이미지의 중심에 가장 가깝게 있는지를 결정함으로써 성취될 수 있다.
도 28은 이미지(1300)의 중심과 감지 및 매핑된 두 개구부(2) 및 (119)의 도심 사이의 거리 d2 및 d119 를 도시하는 이미지(1300)을 제공한다. 도시된 바와 같이, 거리 d2는 거리 d119보다 적다 왜냐하면 개구부(2)의 도심이 이미지의 중심에 더 가깝기 때문이다. 따라서, 방법 또는 시스템은 기구가 분지(2)를 입장할 지에 대한 추정 또는 예측을 제공할 수 있다. 일부 경우에, 방법 또는 시스템은 분지(2)와 분지(119)를 입장할 확률을 제공할 수 있다. 확률은 거리 d2 및 d119와 비례적으로 연관될 수 있다. 짧은 거리는 더 높은 확률과 연관될 수 있다. 이는 짧은 거리는 기구가 대응되는 개구부를 향해 있거나 또는 그쪽을 가리키고 있는 것을 나타낼 수 있기 때문이다.
이러한 추정 또는 확률은 국소화 모듈(95)로 제공되고(도 15 참조) 업데이트된 위치 데이터(96)을 제공하는데 사용될 수 있다. 따라서, 일부 실시예에서, 미래 위치 상태 추정은 유리하게도 기구가 입장할 수 있는 복수의 분지에 대한 확률을 포함하는 사전에 결정된 위치 상태 추정을 적어도 부분적으로 기초할 수 있다. 시스템은 기구가 아마도 이미지의 중심에 가장 가까운 개구부로 입장할 것이라고 결정할 수 있다. 미래 위치 상태 추정은 이전 위치 상태 추정에서 결정된 확률을 기초하기 때문에 항행을 용이하게 할 수 있다. 일부 경우에, 이는 유익하게 위치를 추정하는데 필요한 계산 부화를 감소시킬 수 있다. 일부 실시예에서, 이는 위치 상태 추정을 결정하는데 필요한 시간을 줄여줄 수 있다. 일부 실시예에서 이는 위치 상태 추정의 정확도를 향상시킬 수 있다.
E. 이미지-기반 분지 감지 및 매핑 항행 방법 및 시스템의 예시
도 29는 전술된 바와 같이 이미지-기반 분지 감지 및 매핑의 구현을 위한 예시적인 방법(1400)을 도시한다. 방법(1400)은 본 개시 내용 전반에 설명된 다양한 로봇-제어식 시스템에서 구현될 수 있다. 방법(1400)은 관강내 조직망 안으로 삽입되도록 구성된 세장형 본체를 가지는 기구를 포함하는 로봇 시스템에서 구현될 수 있다. 촬상 장치는 (시장형 본체의 원위 단부와 같은) 세장형 본체 상에 위치될 수 있다. 기구는 기구를 관강내 조직망 사이로 이동시키도록 구성된 (로봇 암과 같은) 기구 위치지정 장치에 부착될 수 있다. 방법(1400)을 이용하는 시스템은 프로세서가 방법(1400)을 실행하도록 만드는 명령어를 포함하는 프로세서를 포함할 수 있다. 방법(1400)은 오로지 하나의 예시로써 제공되며, 이미지-기반 분지 감지 및 매핑은 도 29에 도시된 것과 다른 단계를 사용해서 구현될 수 있다.
블록(1401)에서, 방법(1400)은 관강내 조직망의 현재 분지 안으로 기구를 삽입한다. 블록(1402)에서, 방법(1400)은 기구의 위치 상태 추정을 수신한다. 일부 실시예에서, 블록(1402)은 관강내 조직망의 현재 분지 내 위치된 기구의 위치 상태 추정을 결정하고, 상기 위치 상태 추정은 한 개 이상의 다양한 감지 양식을 기초하여 도 15의 항행 및 국소화 시스템(90)에 의하여 결정될 수 있다.
블록(1404)에서, 방법(1400)은 초기 상태 추정 및 관강내 조직망의 수술전 모델에 적어도 부분적으로 기초하여 예상되는 이후 분지 세트를 결정한다.
블록(1406)에서, 방법(1400)은 (촬상 장치(315)와 같은) 기구 상에 위치하는 촬상 장치로 현재 분지의 이미지를 캡처한다.
블록(1408)에서, 방법(1400)은 이미지를 분석하여 관강내 조직망의 이후 분지들을 현재 분지까지 연결하는 개구부를 감지한다. 일부 실시예에서, 이미지 안의 복수의 개구부를 감지하는 단계는 이미지 분석 수행 단계를 포함한다. 일부 실시예에서, 이미지 분석은 이미지를 위한 픽셀 강도 값의 히스토그램을 생성하는 단계 및 이미지 내 복수의 개구부를 식별하기 위한 히스토그램 분석 단계를 포함한다. 일부 실시예에서, 히스토그램 분석 단계는 히스토그램의 적어도 두 개의 최고점을 식별하는 단계, 적어도 두 개의 최고점 사이의 중점을 식별하는 단계, 및 중점의 첫번째 부분의 픽셀을 개구부로 분류하는 단계를 포함한다.
일부 실시예에서, 블록(1408)에서, 방법(1400)은 또한 감지된 개구부의 한 개 이상의 특징을 결정한다. 한 개 이상의 특징은 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터로 구성된 무리에서 선정된다.
블록(1410)에서, 방법(1400)은 감지된 개구부의 특징을 예상되는 이후 분지 세트와 비교하여 복수의 개구부를 각각 예상되는 이후 분지 중 하나와 매핑시킨다. 일부 실시예에서, 방법(1400)은 수술전 모델로부터 예상되는 이후 분지 세트와 관련된 정보를 취득하는 단계를 포함한다. 정보는 적어도 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터 중 적어도 하나를 포함한다. 일부 실시예에서, 감지된 복수의 개구부의 특징과 예상되는 이후 분지 세트를 비교하는 단계는 각각의 감지된 개구부에 대해, 감지된 개구부의 한 개 이상의 특징을 예상되는 이후 분지 세트 관련 정보와 반복적으로 일치시키는 단계를 포함한다. 일부 실시예에서, 가장 일치률이 높은 것을 사용해 감지된 개구부를 예상되는 이후 분지 중 하나와 매핑 시킨다.
블록(1412)에서, 방법(1400)은 비교에 적어도 부분적으로 기초하여 업데이트된 위치 상태 추정을 제공한다. 일부 실시예에서, 비교에 적어도 부분적으로 기초하여, 블록(1412)은 업데이트된 위치 상태 추정을 제공한다. 일부 실시예에서, 업데이트된 위치 상태 추정은 위치 상태 추정이 정확할 지에 대한 확률을 포함한다. 일부 실시예에서, 확률은 감지된 복수의 개구부의 한 개 이상의 특징과 예상되는 이후 분지 세트 사이의 비교를 부분적으로 기초하여 결정된다. 일부 실시예에서, 확률은 감지된 복수의 개구부의 한 개 이상의 특징과 예상되는 이후 분지들의 세트가 일치하는 정도를 부분적으로 기초하여 결정된다. 일부 실시예에서, 업데이트된 위치 상태 추정은 기구가 이후 분지 중 어디 안으로 이동할지의 추정을 포함한다.
일부 실시예에서, 방법(1400)은 복수의 감지된 개구부 중에 어느 개구부가 이미지의 중심에 더 가까운 지를 결정하는 단계를 포함한다. 일부 실시예에서, 업데이트된 위치 상태 추정은 기구가 이미지의 중심에 더 가깝다고 결정된 개구부 안으로 이동할 확률을 포함한다.
일부 실시예에서, 기구는 내시경을 포함한다. 일부 실시예에서, 관강내 조직망은 폐의 기관지 조직망, 위장관, 또는 콩팥의 신장 조직망을 포함하지만, 다른 관강내 조직망의 항행 또한 가능하다.
4. 시스템 구현 및 용어
본 명세서에 개시된 구현은 로봇-제어식 의료 기구 항행을 위해 이미지-기반 분지 감지 및 매핑을 하는 시스템, 방법 및 장치를 제공한다. 본 명세서에서 설명되는 다양한 구현이 관강내 조직망의 향상된 항행을 제공한다.
본 명세서에서 사용될 때 용어 “결합,” “결합하는,” “결합된” 또는 단어 결합의 다른 변이는 간접적인 연결 또는 직접적인 연결 중 하나를 나타낸다. 예를 들어, 만약 제1 구성요소가 제2 구성요소에 “결합”되어 있다면, 제1 구성요소는 또 다른 구성요소를 통해 제2 구성요소에 간접적으로 연결되어 있거나 제2 구성요소에 직접적으로 연결되어 있을 수 있다.
본 명세서에서 설명된 위치 추정 및 로봇 움직임 작동 기능은 프로세서 판독 가능 또는 컴퓨터 판독 가능 매체에 하나 이상의 명령어로 저장될 수 있다. 용어 “컴퓨터 판독 가능 매체”는 컴퓨터나 프로세서에 의해 접근될 수 있는 임의의 이용 가능한 매체를 지칭한다. 예시적인 것이며 한정적인 것이 아닌 것으로서, 이러한 매체는 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM), 전기적으로 삭제 가능한 불휘발성 메모리 (EEPROM), 플래시 메모리, 컴팩트 디스크 읽기 전용 메모리 (CD-ROM)이나 다른 광 디스크 저장소, 자기 디스크 저장소 또는 다른 자기 저장 디바이스 또는 컴퓨터에 의해 접근가능한 명령이나 데이터 구조(data structure) 형태로 원하는 프로그램 코드를 저장하기 위해 사용될 수 있는 임의의 다른 매체를 포함할 수 있다. 주목해야 하는 것은 컴퓨터 판독 가능 매체는 유형이며 비일시적일 수 있다. 본 명세서에서 사용될 때, 용어 “코드”는 컴퓨터 장치나 프로세서에 의해 실행가능한 소프트웨어, 명령, 코드 또는 데이터를 지칭할 수 있다.
본 명세서에서 개시된 방법은 설명된 방법을 달성하기 위한 하나 이상의 단계 또는 동작을 포함한다. 방법 단계 및/또는 동작들은 청구항의 범위를 벗어나지 않고 서로 대체될 수 있다. 즉, 기술된 방법의 올바른 실행에 요구되는 단계 또는 동작의 특정순서가 명시되지 않는 한, 특정 단계 및/또는 동작의 순서 및/또는 사용은 청구항의 범위를 벗어나지 않고 변경될 수 있다.
본 명세서에서 사용될 때 용어 “복수”는 두 개 이상을 의미한다. 예를 들어, 복수의 구성요소는 두 개 이상의 구성요소를 나타낸다. 용어 “결정”은 광범위한 동작을 포함하며, 따라서, “결정”은 산출, 컴퓨팅, 처리, 도출, 조사, (표, 데이터베이스 또는 다른 데이터 구조의 검색과 같은) 검색, 확인 등을 포함할 수 있다. 또한 “결정”은 (정보를 수신하는 것과 같은) 수신, (메모리 안의 데이터에 접근하는 것과 같은) 접근 등을 포함할 수 있다. 또한 “결정”은 해결, 설정, 선택, 확보 등을 포함할 수 있다.
“기초하여(based on)”라는 구는 달리 언급하지 않는 한 “이에 한하여 기초하여(based only on)”를 의미하지 않는다. 즉, 구 “기초하여”는 “이에 한하여 기초하여” 및 “적어도 이에 기초하여(based at least on)”를 모두 설명한다.
개시된 구현의 이전 설명은 당해 분야에서 통상의 지식을 가진 자가 본 발명을 만들고 사용할 수 있도록 제공된다. 당해 분야에서 통상의 지식을 가진 자라면 상기 구현의 다양한 변경이 가능하다는 것을 손쉽게 이해할 것이며, 본 명세서에서 정의된 일반적인 사상은 본 발명의 범위를 벗어나지 않고 다른 구현에 적용될 수 있다. 예를 들어, 당해 분야에 통상의 지식을 가진 자는 여러 개의 상응하는 대안적 또는 동일한 구조적 세부사항, 가령 도구 구성요소를 고정, 탑재, 결합, 또는 정합하는 동일한 방식, 특정 작동 움직임을 일으키는 동일한 메커니즘, 및 전기 에너지를 전달하기 위한 동일한 메커니즘을 적용할 수 있다는 것을 이해할 것이다. 따라서 본 발명은 본 명세서에 설명된 구현에만 한정 지으려는 의도가 아니며 본 명세서에 개시된 원리 및 새로운 기술과 일관된 폭넓은 범위에 부합하기 위한 것이다.

Claims (30)

  1. 저장된 명령어를 포함하는 비일시적 컴퓨터 판독 가능 저장 매체에 있어서, 상기 명령어는 실행 시, 장치의 프로세서는 적어도:
    관강내 조직망의 현재 분지 내 위치하는 기구의 위치 상태 추정을 결정하고;
    위치 상태 추정 및 상기 관강내 조직망의 수술 전 모델을 적어도 부분적으로 기초하여 예상되는 이후 분지의 세트를 결정하고;
    상기 기구 상에 위치한 촬상 장치로 현재 분지의 이미지를 캡처하고;
    상기 관강내 조직망의 이후 분지들과 현재 분지를 연결하는 복수의 개구부를 이미지 안에서 감지하고;
    상기 감지된 복수의 개구부의 한 개 이상의 특징을 상기 예상되는 이후 분지 세트와 비교해 각각의 복수의 개구부를 예상되는 이후 분지 세트 중 하나와 매핑하고; 및
    상기 비교에 적어도 부분적으로 기초하여 업데이트된 위치 상태 추정을 제공하는
    비일시적 컴퓨터 판독 가능 저장 매체.
  2. 제 1 항에 있어서,
    상기 업데이트된 위치 상태 추정은 상기 위치 상태 추정이 정확할 확률을 포함하는
    비일시적 컴퓨터 판독 가능 저장 매체.
  3. 제 2 항에 있어서,
    상기 확률은 상기 감지된 복수의 개구부의 한 개 이상의 특징과 상기 예상되는 이후 분지들의 세트 사이의 비교를 부분적으로 기초해 결정되는
    비일시적 컴퓨터 판독 가능 저장 매체.
  4. 제 1 항에 있어서,
    상기 업데이트된 위치 상태 추정은 기구가 이후 어느 분지 안으로 이동하게 될 지의 추정을 포함하는
    비일시적 컴퓨터 판독 가능 저장 매체.
  5. 제 1 항에 있어서,
    상기 명령어는 실행 시, 상기 장치의 프로세서가 복수의 감지된 개구부 중에 어느 개구부가 이미지의 중심에 더 가까운 지를 결정하게 만들고, 상기 업데이트된 위치 상태 추정은 상기 기구가 이미지의 중심에 더 가깝다고 결정된 개구부 안으로 이동할 확률을 포함하는
    비일시적 컴퓨터 판독 가능 저장 매체.
  6. 제 1 항에 있어서,
    상기 위치 상태 추정은 기구의 세로축이 중심인 기구의 롤의 추정을 포함하고,
    상기 업데이트된 위치 상태 추정은 상기 롤의 추정이 정확할 확률 포함하고,
    상기 확률은 수술 전 모델을 기초하여 이미지 안에 감지된 개구부의 방향과 예상되는 이후 분지 세트의 예상 방향을 비교해 결정되는
    비일시적 컴퓨터 판독 가능 저장 매체.
  7. 제 1 항에 있어서,
    상기 명령어는 실행 시, 상기 장치의 프로세서가 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터로 구성된 무리에서 선정된 감지된 개구부의 한 개 이상의 특징을 결정하게 만드는
    비일시적 컴퓨터 판독 가능 저장 매체.
  8. 제 7 항에 있어서,
    상기 명령어는 실행 시, 장치의 프로세서가 예상되는 이후 분지 세트와 관련된 정보를 수술 전 모델로부터 취득하게 만들고, 상기 정보는 적어도 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터 중 적어도 하나를 포함하는
    비일시적 컴퓨터 판독 가능 저장 매체.
  9. 제 8 항에 있어서,
    상기 명령어는 실행 시, 장치의 프로세서는:
    각각의 상기 감지된 개구부에 대해, 상기 감지된 개구부의 한 개 이상의 특징을 상기 예상되는 이후 분지 세트 관련 정보와 반복적으로 일치시킴으로써 감지된 복수의 개구부의 한 개 이상의 특징과 예상되는 이후 분지 세트와 비교하고,
    가장 일치률이 높은 것을 사용해 감지된 개구부를 예상되는 이후 분지 중에 하나와 매핑 시키는
    비일시적 컴퓨터 판독 가능 저장 매체.
  10. 환자의 관강내 조직망 항행을 위한 로봇 시스템에 있어서,
    기구 - 상기 관강내 조직망 안으로 삽입되도록 구성된 세장형 본체, 및 상기 세장형 본체의 원위 단부 상에 위치된 촬상 장치를 포함함-;
    상기 기구에 부착된 기구 위치지정 장치 - 상기 기구 위치지정 장치는 관강내 조직망 사이로 상기 기구를 이동시키도록 구성됨 -;
    저장된 실행가능 명령어를 포함하는 적어도 한 개의 컴퓨터 판독 가능 메모리; 및
    적어도 한 개의 컴퓨터 판독 가능 메모리와 통신하는 한 개 이상의 프로세서를 포함하고, 상기 프로세서는 명령어를 실행하여 상기 시스템이 적어도:
    관강내 조직망의 현재 분지 안에 위치한 상기 기구의 위치 상태 추정을 결정하고;
    상기 초기 상태 추정 및 관강내 조직망의 수술 전 모델에 적어도 부분적으로 기초하여 예상되는 이후 분지 세트를 결정하고;
    상기 기구 상에 위치한 촬상 장치로 관강내 조직망의 현재 분지의 이미지를 캡처하고;
    상기 관강내 조직망의 이후 분지들과 상기 현재 분지를 연결하는 복수의 개구부를 상기 이미지 안에서 감지하고;
    상기 감지된 복수의 개구부의 특징들을 예상되는 이후 분지 세트와 비교해 각각의 복수의 개구부와 예상되는 이후 분지 세트 중 하나를 매핑하고; 및
    상기 비교에 적어도 부분적으로 기초하여 업데이트된 위치 상태 추정을 제공하는
    로봇 시스템.
  11. 제 10 항에 있어서,
    상기 기구는 내시경을 포함하는
    시스템.
  12. 제 10 항에 있어서,
    상기 기구 위치지정 장치는 로봇 암을 포함하는
    시스템.
  13. 제 10 항에 있어서,
    상기 관강내 조직망은 폐의 기관지 조직망, 위장관, 또는 콩팥의 신장 조직망을 포함하는
    시스템.
  14. 제 10 항에 있어서,
    상기 명령어는 실행 시, 한 개 이상의 프로세서가 복수의 감지된 개구부 중에 어느 개구부가 이미지의 중심에 더 가까운 지를 결정하고, 상기 업데이트된 위치 상태 추정은 기구가 이미지 중심에 더 가깝다고 결정된 개구부 안으로 이동할 확률을 포함하는
    시스템.
  15. 제 10 항에 있어서,
    상기 위치 상태 추정은 상기 기구의 세로축이 중심인 기구의 롤의 추정을 포함하고, 상기 명령어는 실행 시, 상기 한 개 이상의 프로세서가 상기 수술 전 모델을 기초하여 이미지 안에 감지된 개구부의 방향과 예상되는 이후 분지 세트의 예상 방향을 비교하여 정정된 롤의 추정을 결정하게 만드는
    시스템
  16. 제 10 항에 있어서,
    상기 명령어는 실행 시, 상기 한 개 이상의 프로세서가 상기 감지된 개구부의 한 개 이상의 특징을 결정하게 만들고, 상기 한 개 이상의 특징은 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터로 구성된 무리에서 선정되는
    시스템.
  17. 제 16 항에 있어서,
    상기 명령어는 실행 시, 상기 장치의 한 개 이상의 프로세서가 예상되는 이후 분지 세트와 관련된 정보를 수술 전 모델로부터 취득하게 만들고, 상기 정보는 적어도 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터 중 적어도 하나를 포함하는
    시스템.
  18. 제 17 항에 있어서,
    상기 명령어는 실행 시, 상기 한 개 이상의 프로세서는:
    각각의 상기 감지된 개구부에 대해, 상기 감지된 개구부의 한 개 이상의 특징을 예상되는 이후 분지 세트 관련 정보와 반복적으로 일치시킴으로써 상기 감지된 복수의 개구부의 한 개 이상의 특징과 예상되는 이후 분지 세트와 비교하고,
    가장 일치률이 높은 것을 사용해 상기 감지된 개구부를 예상되는 이후 분지 중에 하나와 매핑시키는
    시스템.
  19. 관강내 조직망을 항행하는 방법에 있어서,
    기구를 상기 관강내 조직망의 현재 분지 안으로 기구를 삽입하는 단계;
    상기 기구의 위치 상태 추정을 수신하는 단계;
    상기 초기 상태 추정 및 관강내 조직망의 수술전 모델을 적어도 부분적으로 기초하여 예상되는 이후 분지 세트를 결정하는 단계;
    상기 기구 상에 위치된 촬상 장치로 상기 현재 분지의 이미지를 캡처하는 단계;
    이후 분지들을 상기 현재 분지로 연결하는 복수의 개구부를 감지하기 위해 이미지를 분석하는 단계;
    상기 감지된 복수의 개구부의 특징을 예상되는 이후 분지의 세트와 비교해서 복수의 개구부를 각각 하나의 예상되는 이후 분지와 매핑시키는 단계; 및
    상기 비교를 적어도 부분적으로 기초하여 업데이트된 위치 상태 추정을 제공하는 단계를 포함하는
    방법.
  20. 제 19 항에 있어서,
    상기 업데이트된 위치 상태 추정은 상기 위치 상태 추정이 정확할 확률을 포함하는
    방법.
  21. 제 20 항에 있어서,
    상기 확률은 상기 감지된 복수의 개구부의 한 개 이상의 특징과 상기 예상되는 이후 분지들의 세트 사이의 비교를 부분적으로 기초해 결정되는
    방법.
  22. 제 21 항에 있어서,
    상기 확률은 상기 감지된 복수의 개구부의 한 개 이상의 특징이 예상되는 이후 분지들의 세트와 일치하는 정도를 부분적으로 기초하여 결정되는
    방법.
  23. 제 19 항에 있어서,
    복수의 감지된 개구부 중에 어느 개구부가 이미지의 중심에 더 가까운 지를 결정하는 단계를 더 포함하고, 및
    상기 업데이트된 위치 상태 추정은 기구가 이미지의 중심에 더 가깝다고 결정된 개구부 안으로 이동할 확률을 포함하는
    방법.
  24. 제 19 항에 있어서,
    상기 위치 상태 추정은 기구의 세로축이 중심으로 하는 기구의 롤의 추정을 포함하고, 상기 업데이트된 위치 상태 추정은 상기 롤의 추정이 정확할 확률 포함하고, 상기 방법은:
    상기 확률을 결정하기 위해 상기 수술 전 모델을 기초하여 이미지 안에 감지된 개구부의 방향과 예상되는 이후 분지 세트의 예상 방향을 비교하는 단계를 더 포함하는
    방법.
  25. 제 19 항에 있어서,
    상기 감지된 개구부의 한 개 이상의 특징을 결정하는 단계 - 상기 한 개 이상의 특징은 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터로 구성된 무리에서 선정됨 -; 및
    예상되는 이후 분지 세트와 관련된 정보를 상기 수술 전 모델로부터 취득하는 단계 - 상기 정보는 적어도 개구부의 도심, 개구부의 측면도, 및 두 개구부의 도심을 연결하는 벡터 중 적어도 하나를 포함함 -;
    를 더 포함하고,
    상기 감지된 복수의 개구부의 특징들을 예상되는 이후 분지 세트와 비교하는 단계는:
    각각의 상기 감지된 개구부에 대해, 상기 감지된 개구부의 한 개 이상의 특징을 예상되는 이후 분지 세트 관련 정보와 반복적으로 일치시키는 단계를 포함하고,
    상기 가장 일치율이 높은 것을 사용해 상기 감지된 개구부를 예상되는 이후 분지 중에 하나와 매핑 시키는
    방법.
  26. 관강내 조직망의 분지의 개구부를 식별하기 위한 방법에 있어서,
    상기 분지 안에 위치된 촬상 장치로 관강내 조직망의 분지 내부의 이미지를 캡처하는 단계;
    상기 이미지에 대한 픽셀 강도 값의 히스토그램을 생성하는 단계; 및
    임계값 이하의 픽셀을 이미지 안에 개구부의 표시로 식별하는 단계
    를 포함하는
    방법.
  27. 제 26 항에 있어서,
    상기 임계값을 결정하는 단계는:
    히스토그램 내 적어도 두 개의 최고점을 식별하는 단계;
    상기 적어도 두개의 최고점 사이의 중점을 식별하는 단계; 및
    상기 임계값을 상기 중점의 강도 값과 동일하게 설정하는 단계
    를 포함하는
    방법.
  28. 제 26 항에 있어서,
    상기 이미지 안에 식별된 각각의 개구부에 대해, 상기 개구부의 도심을 결정하는 단계
    를 더 포함하는
    방법.
  29. 제 26 항에 있어서,
    상기 이미지 내 여러 개의 식별된 개구부와 배드 프레임 감지기 임계값을 비교하는 단계; 및
    상기 여러 개의 식별된 개구부가 배드 프레임 감지기 임계값를 초과하면 그의 반응으로:
    상기 분지의 내부의 제2 이미지를 캡처하는 단계; 및
    상기 제2 이미지 안에 개구부를 결정하기 위해 상기 제2 이미지를 분석하는 단계
    를 더 포함하는
    방법.
  30. 제 26 항에 있어서,
    상기 관강내 조직망은 폐의 기관지 조직망, 위장관, 또는 콩팥의 신장 조직망인
    방법.
KR1020207013397A 2017-10-13 2018-09-21 항행(navigation)을 위한 이미지 기반 분지(branch) 감지 및 매핑 KR20200073245A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/783,903 2017-10-13
US15/783,903 US10555778B2 (en) 2017-10-13 2017-10-13 Image-based branch detection and mapping for navigation
PCT/US2018/052268 WO2019074650A2 (en) 2017-10-13 2018-09-21 DETECTION AND MAPPING OF IMAGE-BASED BRANCHES FOR NAVIGATION

Publications (1)

Publication Number Publication Date
KR20200073245A true KR20200073245A (ko) 2020-06-23

Family

ID=66096810

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207013397A KR20200073245A (ko) 2017-10-13 2018-09-21 항행(navigation)을 위한 이미지 기반 분지(branch) 감지 및 매핑

Country Status (7)

Country Link
US (3) US10555778B2 (ko)
EP (1) EP3676799A4 (ko)
JP (1) JP7350726B2 (ko)
KR (1) KR20200073245A (ko)
CN (1) CN110832544B (ko)
AU (1) AU2018347464B2 (ko)
WO (1) WO2019074650A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022211501A1 (ko) * 2021-03-31 2022-10-06 서울대학교병원 굴곡성기관지내시경 이미지를 이용하여 해부학적 위치를 판별하는 장치 및 방법

Families Citing this family (226)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8414505B1 (en) 2001-02-15 2013-04-09 Hansen Medical, Inc. Catheter driver system
EP2384715B1 (en) 2004-03-05 2015-07-08 Hansen Medical, Inc. Robotic catheter system
US9232959B2 (en) 2007-01-02 2016-01-12 Aquabeam, Llc Multi fluid tissue resection methods and devices
EP2259742B1 (en) 2008-03-06 2020-01-01 AquaBeam LLC Tissue ablation and cautery with optical energy carried in fluid stream
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US9254123B2 (en) 2009-04-29 2016-02-09 Hansen Medical, Inc. Flexible and steerable elongate instruments with shape control and support elements
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US9314306B2 (en) 2010-09-17 2016-04-19 Hansen Medical, Inc. Systems and methods for manipulating an elongate member
US20130030363A1 (en) 2011-07-29 2013-01-31 Hansen Medical, Inc. Systems and methods utilizing shape sensing fibers
CN108606773B (zh) 2012-02-29 2020-08-11 普罗赛普特生物机器人公司 自动化图像引导的组织切除和处理
US20130317519A1 (en) 2012-05-25 2013-11-28 Hansen Medical, Inc. Low friction instrument driver interface for robotic systems
US20140148673A1 (en) 2012-11-28 2014-05-29 Hansen Medical, Inc. Method of anchoring pullwire directly articulatable region in catheter
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
US9668814B2 (en) 2013-03-07 2017-06-06 Hansen Medical, Inc. Infinitely rotatable tool with finite rotating drive shafts
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US9566414B2 (en) 2013-03-13 2017-02-14 Hansen Medical, Inc. Integrated catheter and guide wire controller
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US11213363B2 (en) 2013-03-14 2022-01-04 Auris Health, Inc. Catheter tension sensing
US9173713B2 (en) 2013-03-14 2015-11-03 Hansen Medical, Inc. Torque-based catheter articulation
US20140277334A1 (en) 2013-03-14 2014-09-18 Hansen Medical, Inc. Active drives for robotic catheter manipulators
US9326822B2 (en) 2013-03-14 2016-05-03 Hansen Medical, Inc. Active drives for robotic catheter manipulators
US9283046B2 (en) 2013-03-15 2016-03-15 Hansen Medical, Inc. User interface for active drive apparatus with finite range of motion
US9408669B2 (en) 2013-03-15 2016-08-09 Hansen Medical, Inc. Active drive mechanism with finite range of motion
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US9452018B2 (en) 2013-03-15 2016-09-27 Hansen Medical, Inc. Rotational support for an elongate member
US10849702B2 (en) 2013-03-15 2020-12-01 Auris Health, Inc. User input devices for controlling manipulation of guidewires and catheters
US10376672B2 (en) 2013-03-15 2019-08-13 Auris Health, Inc. Catheter insertion system and method of fabrication
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US20140276936A1 (en) 2013-03-15 2014-09-18 Hansen Medical, Inc. Active drive mechanism for simultaneous rotation and translation
US20140276647A1 (en) 2013-03-15 2014-09-18 Hansen Medical, Inc. Vascular remote catheter manipulator
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
WO2014201165A1 (en) 2013-06-11 2014-12-18 Auris Surgical Robotics, Inc. System for robotic assisted cataract surgery
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
EP3243476B1 (en) 2014-03-24 2019-11-06 Auris Health, Inc. Systems and devices for catheter driving instinctiveness
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
US10569052B2 (en) 2014-05-15 2020-02-25 Auris Health, Inc. Anti-buckling mechanisms for catheters
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
WO2016054256A1 (en) 2014-09-30 2016-04-07 Auris Surgical Robotics, Inc Configurable robotic surgical system with virtual rail and flexible endoscope
US10499999B2 (en) 2014-10-09 2019-12-10 Auris Health, Inc. Systems and methods for aligning an elongate member with an access site
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US11819636B2 (en) 2015-03-30 2023-11-21 Auris Health, Inc. Endoscope pull wire electrical circuit
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
WO2016164824A1 (en) 2015-04-09 2016-10-13 Auris Surgical Robotics, Inc. Surgical system with configurable rail-mounted mechanical arms
US9622827B2 (en) 2015-05-15 2017-04-18 Auris Surgical Robotics, Inc. Surgical robotics system
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
WO2017044884A1 (en) 2015-09-09 2017-03-16 Auris Surgical Robotics, Inc. Instrument device manipulator for a surgical robotics system
EP4070723A1 (en) 2015-09-18 2022-10-12 Auris Health, Inc. Navigation of tubular networks
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US10231793B2 (en) 2015-10-30 2019-03-19 Auris Health, Inc. Object removal through a percutaneous suction tube
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US10932861B2 (en) 2016-01-14 2021-03-02 Auris Health, Inc. Electromagnetic tracking surgical system and method of controlling the same
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US11324554B2 (en) 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
US10454347B2 (en) 2016-04-29 2019-10-22 Auris Health, Inc. Compact height torque sensing articulation axis assembly
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
US10463439B2 (en) 2016-08-26 2019-11-05 Auris Health, Inc. Steerable catheter with shaft load distributions
US11241559B2 (en) 2016-08-29 2022-02-08 Auris Health, Inc. Active drive for guidewire manipulation
KR20230096148A (ko) 2016-08-31 2023-06-29 아우리스 헬스, 인코포레이티드 길이 보존 수술용 기구
EP3512450A4 (en) 2016-09-16 2020-11-04 Mobius Imaging LLC SYSTEM AND METHOD FOR ASSEMBLING A ROBOTIZED ARM IN A SURGICAL ROBOTIZED SYSTEM
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US10543048B2 (en) 2016-12-28 2020-01-28 Auris Health, Inc. Flexible instrument insertion using an adaptive insertion force threshold
US10136959B2 (en) 2016-12-28 2018-11-27 Auris Health, Inc. Endolumenal object sizing
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
JP7159192B2 (ja) 2017-03-28 2022-10-24 オーリス ヘルス インコーポレイテッド シャフト作動ハンドル
US11490782B2 (en) 2017-03-31 2022-11-08 Auris Health, Inc. Robotic systems for navigation of luminal networks that compensate for physiological noise
AU2018250049B2 (en) 2017-04-07 2023-06-29 Auris Health, Inc. Patient introducer alignment
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
AU2018266132A1 (en) * 2017-05-09 2019-10-10 Boston Scientific Scimed, Inc. Operating room devices, methods, and systems
KR20240035632A (ko) 2017-05-12 2024-03-15 아우리스 헬스, 인코포레이티드 생검 장치 및 시스템
CN110769736B (zh) 2017-05-17 2023-01-13 奥瑞斯健康公司 可更换工作通道
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
EP3644885B1 (en) 2017-06-28 2023-10-11 Auris Health, Inc. Electromagnetic field generator alignment
US10299870B2 (en) 2017-06-28 2019-05-28 Auris Health, Inc. Instrument insertion compensation
KR102578978B1 (ko) 2017-06-28 2023-09-19 아우리스 헬스, 인코포레이티드 전자파 왜곡 검출
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
US10464209B2 (en) 2017-10-05 2019-11-05 Auris Health, Inc. Robotic system with indication of boundary for robotic arm
US10016900B1 (en) 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
EP3694412A4 (en) 2017-10-10 2021-08-18 Covidien LP SYSTEM AND METHOD FOR IDENTIFYING AND MARKING A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
EP3684282B1 (en) 2017-12-06 2024-02-21 Auris Health, Inc. Systems to correct for uncommanded instrument roll
KR20200099138A (ko) 2017-12-08 2020-08-21 아우리스 헬스, 인코포레이티드 의료 기구 항행 및 표적 선정을 위한 시스템 및 방법
US10850013B2 (en) 2017-12-08 2020-12-01 Auris Health, Inc. Directed fluidics
WO2019118368A1 (en) 2017-12-11 2019-06-20 Auris Health, Inc. Systems and methods for instrument based insertion architectures
AU2018384820A1 (en) 2017-12-14 2020-05-21 Auris Health, Inc. System and method for estimating instrument location
WO2019125964A1 (en) 2017-12-18 2019-06-27 Auris Health, Inc. Methods and systems for instrument tracking and navigation within luminal networks
MX2020007623A (es) 2018-01-17 2020-09-14 Auris Health Inc Plataforma quirurgica con soportes de brazo regulable.
USD924410S1 (en) 2018-01-17 2021-07-06 Auris Health, Inc. Instrument tower
EP3740150A4 (en) 2018-01-17 2021-11-03 Auris Health, Inc. SURGICAL ROBOTIC SYSTEMS WITH IMPROVED ROBOTIC ARMS
USD901018S1 (en) 2018-01-17 2020-11-03 Auris Health, Inc. Controller
USD932628S1 (en) 2018-01-17 2021-10-05 Auris Health, Inc. Instrument cart
USD873878S1 (en) 2018-01-17 2020-01-28 Auris Health, Inc. Robotic arm
USD901694S1 (en) 2018-01-17 2020-11-10 Auris Health, Inc. Instrument handle
US10893842B2 (en) 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
JP7301884B2 (ja) 2018-02-13 2023-07-03 オーリス ヘルス インコーポレイテッド 医療用器具を駆動するためのシステム及び方法
JP7225259B2 (ja) 2018-03-28 2023-02-20 オーリス ヘルス インコーポレイテッド 器具の推定位置を示すためのシステム及び方法
KR102489198B1 (ko) 2018-03-28 2023-01-18 아우리스 헬스, 인코포레이티드 위치 센서의 정합을 위한 시스템 및 방법
KR20200139199A (ko) 2018-03-28 2020-12-11 아우리스 헬스, 인코포레이티드 가변 굽힘 강성 프로파일을 갖는 의료 기구
US11647888B2 (en) * 2018-04-20 2023-05-16 Covidien Lp Compensation for observer movement in robotic surgical systems having stereoscopic displays
US11179213B2 (en) 2018-05-18 2021-11-23 Auris Health, Inc. Controllers for robotically-enabled teleoperated systems
EP3801190A4 (en) 2018-05-30 2022-03-02 Auris Health, Inc. SYSTEMS AND METHODS FOR SENSOR-BASED BRANCH LOCATION PREDICTION
CN112236083A (zh) 2018-05-31 2021-01-15 奥瑞斯健康公司 用于导航检测生理噪声的管腔网络的机器人系统和方法
US10898286B2 (en) 2018-05-31 2021-01-26 Auris Health, Inc. Path-based navigation of tubular networks
CN110831538B (zh) 2018-05-31 2023-01-24 奥瑞斯健康公司 基于图像的气道分析和映射
JP7267309B2 (ja) 2018-06-07 2023-05-01 オーリス ヘルス インコーポレイテッド 高力器具を有するロボット医療システム
JP7366943B2 (ja) 2018-06-27 2023-10-23 オーリス ヘルス インコーポレイテッド 医療器具のための位置合わせ及び取り付けシステム
WO2020005370A1 (en) 2018-06-27 2020-01-02 Auris Health, Inc. Systems and techniques for providing multiple perspectives during medical procedures
JP7391886B2 (ja) 2018-06-28 2023-12-05 オーリス ヘルス インコーポレイテッド 滑車共有を組み込んだ医療システム
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
KR20230169481A (ko) 2018-08-07 2023-12-15 아우리스 헬스, 인코포레이티드 카테터 제어와의 변형-기반 형상 감지의 조합
US10828118B2 (en) 2018-08-15 2020-11-10 Auris Health, Inc. Medical instruments for tissue cauterization
WO2020036686A1 (en) 2018-08-17 2020-02-20 Auris Health, Inc. Bipolar medical instrument
WO2020041619A2 (en) 2018-08-24 2020-02-27 Auris Health, Inc. Manually and robotically controllable medical instruments
US11197728B2 (en) 2018-09-17 2021-12-14 Auris Health, Inc. Systems and methods for concomitant medical procedures
WO2020068303A1 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Systems and instruments for suction and irrigation
WO2020068853A2 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Articulating medical instruments
AU2019347767A1 (en) 2018-09-28 2021-04-08 Auris Health, Inc. Systems and methods for docking medical instruments
US10820947B2 (en) 2018-09-28 2020-11-03 Auris Health, Inc. Devices, systems, and methods for manually and robotically driving medical instruments
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
WO2020076447A1 (en) 2018-10-08 2020-04-16 Auris Health, Inc. Systems and instruments for tissue sealing
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
WO2020131186A1 (en) 2018-12-20 2020-06-25 Auris Health, Inc. Systems and methods for robotic arm alignment and docking
US11950863B2 (en) 2018-12-20 2024-04-09 Auris Health, Inc Shielding for wristed instruments
WO2020140072A1 (en) 2018-12-28 2020-07-02 Auris Health, Inc. Percutaneous sheath for robotic medical systems and methods
CN113286543A (zh) 2018-12-28 2021-08-20 奥瑞斯健康公司 具有可关节运动区段的医疗器械
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
EP3883492A4 (en) 2019-01-25 2022-11-30 Auris Health, Inc. VESSEL SEALING DEVICE HAVING HEATING AND COOLING CAPABILITIES
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
CN113423359A (zh) 2019-02-08 2021-09-21 奥瑞斯健康公司 机器人控制的凝块操纵和移除
CN113453642A (zh) 2019-02-22 2021-09-28 奥瑞斯健康公司 具有用于可调式臂支撑件的机动臂的外科平台
KR20210137508A (ko) 2019-03-08 2021-11-17 아우리스 헬스, 인코포레이티드 의료 시스템 및 응용을 위한 틸트 메커니즘
EP3908224A4 (en) 2019-03-22 2022-10-19 Auris Health, Inc. SYSTEMS AND METHODS FOR INLET ALIGNMENTS ON MEDICAL DEVICES
CN113613566A (zh) 2019-03-25 2021-11-05 奥瑞斯健康公司 用于医疗缝合的系统和方法
US11617627B2 (en) 2019-03-29 2023-04-04 Auris Health, Inc. Systems and methods for optical strain sensing in medical instruments
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
KR20210149805A (ko) 2019-04-08 2021-12-09 아우리스 헬스, 인코포레이티드 동시 절차를 위한 시스템, 방법, 및 작업흐름
WO2020263629A1 (en) 2019-06-27 2020-12-30 Auris Health, Inc. Systems and methods for a medical clip applier
EP3989793A4 (en) 2019-06-28 2023-07-19 Auris Health, Inc. CONSOLE OVERLAY ITS METHODS OF USE
WO2020263949A1 (en) 2019-06-28 2020-12-30 Auris Health, Inc. Medical instruments including wrists with hybrid redirect surfaces
USD975275S1 (en) 2019-08-15 2023-01-10 Auris Health, Inc. Handle for a medical instrument
CN114554930A (zh) 2019-08-15 2022-05-27 奥瑞斯健康公司 具有多个弯曲节段的医疗装置
US11896330B2 (en) 2019-08-15 2024-02-13 Auris Health, Inc. Robotic medical system having multiple medical instruments
USD978348S1 (en) 2019-08-15 2023-02-14 Auris Health, Inc. Drive device for a medical instrument
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
CN114340540B (zh) * 2019-08-30 2023-07-04 奥瑞斯健康公司 器械图像可靠性系统和方法
KR20220058569A (ko) 2019-08-30 2022-05-09 아우리스 헬스, 인코포레이티드 위치 센서의 가중치-기반 정합을 위한 시스템 및 방법
KR20220056220A (ko) 2019-09-03 2022-05-04 아우리스 헬스, 인코포레이티드 전자기 왜곡 검출 및 보상
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
EP4028221A1 (en) 2019-09-10 2022-07-20 Auris Health, Inc. Systems and methods for kinematic optimization with shared robotic degrees-of-freedom
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
CN114502094A (zh) 2019-09-26 2022-05-13 奥瑞斯健康公司 用于碰撞检测和避免的系统和方法
WO2021064536A1 (en) 2019-09-30 2021-04-08 Auris Health, Inc. Medical instrument with capstan
US11737835B2 (en) 2019-10-29 2023-08-29 Auris Health, Inc. Braid-reinforced insulation sheath
CN115334991A (zh) * 2019-12-19 2022-11-11 诺亚医疗集团公司 用于机器人支气管镜检查的系统和方法
US11298195B2 (en) 2019-12-31 2022-04-12 Auris Health, Inc. Anatomical feature identification and targeting
US11950872B2 (en) 2019-12-31 2024-04-09 Auris Health, Inc. Dynamic pulley system
EP4084722A4 (en) 2019-12-31 2024-01-10 Auris Health Inc ALIGNMENT INTERFACES FOR PERCUTANE ACCESS
WO2021137109A1 (en) 2019-12-31 2021-07-08 Auris Health, Inc. Alignment techniques for percutaneous access
CN114901200A (zh) 2019-12-31 2022-08-12 奥瑞斯健康公司 高级篮式驱动模式
US11847730B2 (en) 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
US20210378759A1 (en) * 2020-06-03 2021-12-09 Covidien Lp Surgical tool navigation using sensor fusion
US11839969B2 (en) 2020-06-29 2023-12-12 Auris Health, Inc. Systems and methods for detecting contact between a link and an external object
US11931901B2 (en) 2020-06-30 2024-03-19 Auris Health, Inc. Robotic medical system with collision proximity indicators
US11357586B2 (en) 2020-06-30 2022-06-14 Auris Health, Inc. Systems and methods for saturated robotic movement
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
DE102020210849A1 (de) 2020-08-27 2022-03-03 Siemens Healthcare Gmbh Positionsbestimmungsverfahren, Verfahren zur Ansteuerung eines Röntgengeräts und medizinisches System
US11948303B2 (en) * 2021-02-26 2024-04-02 Capsovision Inc. Method and apparatus for objective assessment of gastrointestinal conditions based on images captured in the GI tract
CN113274228A (zh) * 2021-04-30 2021-08-20 华中科技大学同济医学院附属协和医院 一种介入造影成像装置和方法
US20230109848A1 (en) 2021-09-29 2023-04-13 Cilag Gmbh International Surgical devices, systems, and methods using fiducial identification and tracking
WO2023052938A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Methods and systems for controlling cooperative surgical instruments
WO2023052937A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical system for altering the body's sensing of food
WO2023052935A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical devices, systems, and methods for control of one visualization with another
WO2023052929A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical devices, systems, and methods using multi-source imaging
WO2023052947A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical devices, systems, and methods for control of one visualization with another
WO2023052958A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical anchoring systems for endoluminal access
WO2023052931A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical sealing systems for instrument stabilization
WO2023052946A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Coordinated instrument control systems
WO2023052960A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical devices, systems, and methods using fiducial identification and tracking
WO2023052945A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical devices, systems, and methods for control of one visualization with another
EP4221602A1 (en) 2021-09-29 2023-08-09 Cilag GmbH International Methods and systems for controlling cooperative surgical instruments
WO2023052940A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical devices, systems, and methods using multi-source imaging
US20230110791A1 (en) 2021-09-29 2023-04-13 Cilag Gmbh International Instrument Control Imaging Systems for Visualization of Upcoming Surgical Procedure Steps
EP4210623A1 (en) 2021-09-29 2023-07-19 Cilag GmbH International Surgical devices, systems, and methods using multi-source imaging
WO2023052949A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical devices, systems, and methods using fiducial identification and tracking
US20230103005A1 (en) 2021-09-29 2023-03-30 Cilag Gmbh International Methods for Controlling Cooperative Surgical Instruments
EP4216845A1 (en) 2021-09-29 2023-08-02 Cilag GmbH International Surgical systems for independently insufflating two separate anatomic spaces
US20230096268A1 (en) 2021-09-29 2023-03-30 Cilag Gmbh International Methods for Controlling Cooperative Surgical Instruments
US20230100698A1 (en) 2021-09-29 2023-03-30 Cilag Gmbh International Methods for Controlling Cooperative Surgical Instruments
WO2023052953A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical systems and methods for selectively pressurizing a natural body lumen
US20230116781A1 (en) 2021-09-29 2023-04-13 Cilag GmbH Intemational Surgical devices, systems, and methods using multi-source imaging
WO2023052932A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical sealing devices for a natural body orifice
EP4225188A1 (en) 2021-09-29 2023-08-16 Cilag GmbH International Surgical devices, systems, and methods for control of one visualization with another
WO2023052962A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Methods and systems for controlling cooperative surgical instruments
WO2023052961A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical systems with port devices for instrument control
WO2023052951A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical systems with intraluminal and extraluminal cooperative instruments
WO2023052941A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Surgical system for delivering energy to tissue in an anatomic space and monitoring a tissue parameter in a different anatomic space
EP4262574A1 (en) 2021-09-29 2023-10-25 Cilag GmbH International Surgical systems with devices for both intraluminal and extraluminal access
WO2023052936A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Systems for controlling cooperative surgical instruments with variable surgical site access trajectories
US11937798B2 (en) 2021-09-29 2024-03-26 Cilag Gmbh International Surgical systems with port devices for instrument control
WO2023052955A1 (en) 2021-09-29 2023-04-06 Cilag Gmbh International Instrument control surgical imaging systems
US20230181275A1 (en) 2021-12-15 2023-06-15 Cilag Gmbh International Robotic surgical instruments having onboard generators
US20230233270A1 (en) * 2022-01-26 2023-07-27 Covidien Lp Autonomous endobronchial access with an em guided catheter

Family Cites Families (367)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4745908A (en) 1987-05-08 1988-05-24 Circon Corporation Inspection instrument fexible shaft having deflection compensation means
JP2750201B2 (ja) 1990-04-13 1998-05-13 オリンパス光学工業株式会社 内視鏡の挿入状態検出装置
US5550953A (en) 1994-04-20 1996-08-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration On-line method and apparatus for coordinated mobility and manipulation of mobile robots
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US6236875B1 (en) 1994-10-07 2001-05-22 Surgical Navigation Technologies Surgical navigation systems including reference and localization frames
US5526812A (en) 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US6059718A (en) 1993-10-18 2000-05-09 Olympus Optical Co., Ltd. Endoscope form detecting apparatus in which coil is fixedly mounted by insulating member so that form is not deformed within endoscope
US6690963B2 (en) 1995-01-24 2004-02-10 Biosense, Inc. System for determining the location and orientation of an invasive medical instrument
US6246898B1 (en) 1995-03-28 2001-06-12 Sonometrics Corporation Method for carrying out a medical procedure using a three-dimensional tracking and imaging system
CA2231425A1 (en) 1995-09-20 1997-03-27 Texas Heart Institute Detecting thermal discrepancies in vessel walls
DE69726576T2 (de) 1996-02-15 2004-10-14 Biosense, Inc., Miami Probe zur Ortsmarkierung
IL125781A (en) 1996-02-15 2003-06-24 Biosense Inc Precise position determination of endoscopes
US6063095A (en) 1996-02-20 2000-05-16 Computer Motion, Inc. Method and apparatus for performing minimally invasive surgical procedures
US6047080A (en) 1996-06-19 2000-04-04 Arch Development Corporation Method and apparatus for three-dimensional reconstruction of coronary vessels from angiographic images
US5831614A (en) 1996-07-01 1998-11-03 Sun Microsystems, Inc. X-Y viewport scroll using location of display with respect to a point
DE69815260T2 (de) 1997-01-24 2004-05-13 Koninklijke Philips Electronics N.V. Bildanzeigevorrichtung
US6246784B1 (en) 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6810281B2 (en) 2000-12-21 2004-10-26 Endovia Medical, Inc. Medical mapping system
FR2779339B1 (fr) 1998-06-09 2000-10-13 Integrated Surgical Systems Sa Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application
US6425865B1 (en) 1998-06-12 2002-07-30 The University Of British Columbia Robotically assisted medical ultrasound
WO2000028882A2 (en) 1998-11-18 2000-05-25 Microdexterity Systems, Inc. Medical manipulator for use with an imaging device
US6493608B1 (en) 1999-04-07 2002-12-10 Intuitive Surgical, Inc. Aspects of a control system of a minimally invasive surgical apparatus
US6501981B1 (en) 1999-03-16 2002-12-31 Accuray, Inc. Apparatus and method for compensating for respiratory and patient motions during treatment
US6594552B1 (en) 1999-04-07 2003-07-15 Intuitive Surgical, Inc. Grip strength with tactile feedback for robotic surgery
US7386339B2 (en) 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
FI114282B (fi) 1999-11-05 2004-09-30 Polar Electro Oy Menetelmä, järjestely ja sykemittari sydämen lyönnin tunnistamiseksi
US7747312B2 (en) 2000-01-04 2010-06-29 George Mason Intellectual Properties, Inc. System and method for automatic shape registration and instrument tracking
DE10011790B4 (de) 2000-03-13 2005-07-14 Siemens Ag Medizinisches Instrument zum Einführen in ein Untersuchungsobjekt, sowie medizinisches Untersuchungs- oder Behandlungsgerät
US7181289B2 (en) 2000-03-20 2007-02-20 Pflueger D Russell Epidural nerve root access catheter and treatment methods
DE10025285A1 (de) 2000-05-22 2001-12-06 Siemens Ag Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe
DE10033723C1 (de) 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
US6865498B2 (en) 2001-11-30 2005-03-08 Thermwood Corporation System for calibrating the axes on a computer numeric controlled machining system and method thereof
US6812842B2 (en) 2001-12-20 2004-11-02 Calypso Medical Technologies, Inc. System for excitation of a leadless miniature marker
TW200304608A (en) 2002-03-06 2003-10-01 Z Kat Inc System and method for using a haptic device in combination with a computer-assisted surgery system
DE10210646A1 (de) 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
US20050256398A1 (en) 2004-05-12 2005-11-17 Hastings Roger N Systems and methods for interventional medicine
EP2380487B1 (en) 2002-04-17 2021-03-31 Covidien LP Endoscope structures for navigating to a target in branched structure
US7998062B2 (en) 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
WO2003091839A2 (en) 2002-04-25 2003-11-06 The John Hopkins University Robot for computed tomography interventions
WO2003101300A2 (en) 2002-06-04 2003-12-11 Koninklijke Philips Electronics N.V. Rotational angiography based hybrid 3-d reconstruction of coronary arterial structure
CA2489584C (en) 2002-06-17 2011-02-15 Mazor Surgical Technologies Ltd. Robot for use with orthopaedic inserts
AU2003246906A1 (en) 2002-06-25 2004-01-06 Michael Nicholas Dalton Apparatus and method for superimposing images over an object
KR100449765B1 (ko) 2002-10-12 2004-09-22 삼성에스디아이 주식회사 리튬전지용 리튬메탈 애노드
US6835177B2 (en) * 2002-11-06 2004-12-28 Sonosite, Inc. Ultrasonic blood vessel measurement apparatus and method
US6899672B2 (en) 2002-11-08 2005-05-31 Scimed Life Systems, Inc. Endoscopic imaging system including removable deflection device
EP1570431B1 (en) 2002-11-13 2015-07-01 Koninklijke Philips N.V. Medical viewing system and method for detecting boundary structures
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US20040186349A1 (en) 2002-12-24 2004-09-23 Usgi Medical Corp. Apparatus and methods for achieving endoluminal access
FR2852226B1 (fr) 2003-03-10 2005-07-15 Univ Grenoble 1 Instrument medical localise a ecran orientable
US7203277B2 (en) 2003-04-25 2007-04-10 Brainlab Ag Visualization device and method for combined patient and object image data
US7822461B2 (en) 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
EP2316328B1 (en) 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
US7901348B2 (en) 2003-12-12 2011-03-08 University Of Washington Catheterscope 3D guidance and interface system
US8021301B2 (en) 2003-12-26 2011-09-20 Fujifilm Corporation Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program
JP2005192632A (ja) 2003-12-26 2005-07-21 Olympus Corp 被検体内移動状態検出システム
US20050193451A1 (en) 2003-12-30 2005-09-01 Liposonix, Inc. Articulating arm for medical procedures
US7850642B2 (en) 2004-03-05 2010-12-14 Hansen Medical, Inc. Methods using a robotic catheter system
EP2384715B1 (en) 2004-03-05 2015-07-08 Hansen Medical, Inc. Robotic catheter system
AU2005228956B2 (en) 2004-03-23 2011-08-18 Boston Scientific Limited In-vivo visualization system
WO2005092188A1 (ja) 2004-03-29 2005-10-06 Olympus Corporation 被検体内位置検出システム
US7462175B2 (en) 2004-04-21 2008-12-09 Acclarent, Inc. Devices, systems and methods for treating disorders of the ear, nose and throat
US7720521B2 (en) 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
US20070208252A1 (en) 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
US8155403B2 (en) 2004-05-05 2012-04-10 University Of Iowa Research Foundation Methods and devices for airway tree labeling and/or matching
US7632265B2 (en) 2004-05-28 2009-12-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Radio frequency ablation servo catheter and method
US20060209019A1 (en) 2004-06-01 2006-09-21 Energid Technologies Corporation Magnetic haptic feedback systems and methods for virtual reality environments
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060025668A1 (en) 2004-08-02 2006-02-02 Peterson Thomas H Operating table with embedded tracking technology
US7536216B2 (en) 2004-10-18 2009-05-19 Siemens Medical Solutions Usa, Inc. Method and system for virtual endoscopy with guidance for biopsy
US9049954B2 (en) 2004-11-03 2015-06-09 Cambridge International, Inc. Hanger bar assembly for architectural mesh and the like
EP1816945B1 (en) 2004-11-23 2019-08-21 PneumRx, Inc. Steerable device for accessing a target site
EP1838378B1 (en) 2005-01-18 2017-03-22 Philips Electronics LTD Apparatus for guiding an instrument to a target in the lung
US8335357B2 (en) 2005-03-04 2012-12-18 Kabushiki Kaisha Toshiba Image processing apparatus
US20060258935A1 (en) 2005-05-12 2006-11-16 John Pile-Spellman System for autonomous robotic navigation
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US7889905B2 (en) * 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US7756563B2 (en) 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
JP4813190B2 (ja) 2005-05-26 2011-11-09 オリンパスメディカルシステムズ株式会社 カプセル型医療装置
GB2428110A (en) 2005-07-06 2007-01-17 Armstrong Healthcare Ltd A robot and method of registering a robot.
JP2009501563A (ja) 2005-07-14 2009-01-22 エンハンスド・メデイカルシステム・エルエルシー 侵襲性処置を極小にするためのロボット
US8583220B2 (en) 2005-08-02 2013-11-12 Biosense Webster, Inc. Standardization of catheter-based treatment for atrial fibrillation
CN101282760A (zh) 2005-08-11 2008-10-08 纳沃特克医药有限公司 利用基于放射性的位置传感器的医疗系统和方法
US8657814B2 (en) 2005-08-22 2014-02-25 Medtronic Ablation Frontiers Llc User interface for tissue ablation system
US9661991B2 (en) 2005-08-24 2017-05-30 Koninklijke Philips N.V. System, method and devices for navigated flexible endoscopy
JP2009507617A (ja) 2005-09-14 2009-02-26 ネオガイド システムズ, インコーポレイテッド 経腔的及び他の操作を行うための方法及び装置
US20070073136A1 (en) 2005-09-15 2007-03-29 Robert Metzger Bone milling with image guided surgery
US8303505B2 (en) 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US8190238B2 (en) 2005-12-09 2012-05-29 Hansen Medical, Inc. Robotic catheter system and methods
DE102005059271B4 (de) 2005-12-12 2019-02-21 Siemens Healthcare Gmbh Kathetervorrichtung
US8672922B2 (en) 2005-12-20 2014-03-18 Intuitive Surgical Operations, Inc. Wireless communication in a robotic surgical system
US9266239B2 (en) 2005-12-27 2016-02-23 Intuitive Surgical Operations, Inc. Constraint based control in a minimally invasive surgical apparatus
US7930065B2 (en) 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
US9962066B2 (en) 2005-12-30 2018-05-08 Intuitive Surgical Operations, Inc. Methods and apparatus to shape flexible entry guides for minimally invasive surgery
US8191359B2 (en) 2006-04-13 2012-06-05 The Regents Of The University Of California Motion estimation using hidden markov model processing in MRI and other applications
JP4822142B2 (ja) 2006-05-02 2011-11-24 国立大学法人名古屋大学 内視鏡挿入支援システム及び内視鏡挿入支援方法
DE102006021373A1 (de) 2006-05-08 2007-11-15 Siemens Ag Röntgendiagnostikeinrichtung
CN101522134B (zh) 2006-06-05 2012-06-27 泰克尼恩研究和发展基金有限公司 挠性针的受控导向
US7505810B2 (en) 2006-06-13 2009-03-17 Rhythmia Medical, Inc. Non-contact cardiac mapping, including preprocessing
US20080065104A1 (en) 2006-06-13 2008-03-13 Intuitive Surgical, Inc. Minimally invasive surgical instrument advancement
US8040127B2 (en) 2006-08-15 2011-10-18 General Electric Company Multi-sensor distortion mapping method and system
US8150498B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for identification of anatomical landmarks
US7824328B2 (en) 2006-09-18 2010-11-02 Stryker Corporation Method and apparatus for tracking a surgical instrument during surgery
CN100546540C (zh) 2006-09-19 2009-10-07 上海宏桐实业有限公司 心内膜三维导航系统
DE602007012450D1 (de) 2006-10-02 2011-03-24 Hansen Medical Inc System für dreidimensionale ultraschall-abbildung
US7940977B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies
AU2007350982A1 (en) 2006-11-10 2008-10-23 Dorian Averbuch Adaptive navigation technique for navigating a catheter through a body channel or cavity
US7936922B2 (en) 2006-11-22 2011-05-03 Adobe Systems Incorporated Method and apparatus for segmenting images
JP2010511931A (ja) 2006-12-01 2010-04-15 トムソン ライセンシング 画像内のオブジェクトの位置推定
US9220439B2 (en) 2006-12-29 2015-12-29 St. Jude Medical, Atrial Fibrillation Division, Inc. Navigational reference dislodgement detection method and system
US20080183068A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Visualization of Surgical Navigational and Neural Monitoring Information
US20080183188A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Surgical Navigational and Neuromonitoring System
US20080183064A1 (en) 2007-01-30 2008-07-31 General Electric Company Multi-sensor distortion detection method and system
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US8672836B2 (en) 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US8146874B2 (en) 2007-02-02 2012-04-03 Hansen Medical, Inc. Mounting support assembly for suspending a medical instrument driver above an operating table
JP4914735B2 (ja) 2007-02-14 2012-04-11 オリンパスメディカルシステムズ株式会社 処置具の位置制御を行う内視鏡システム
WO2008103383A1 (en) 2007-02-20 2008-08-28 Gildenberg Philip L Videotactic and audiotactic assisted surgical methods and procedures
WO2010058398A2 (en) 2007-03-08 2010-05-27 Sync-Rx, Ltd. Image processing and tool actuation for medical procedures
WO2008111070A2 (en) 2007-03-12 2008-09-18 David Tolkowsky Devices and methods for performing medical procedures in tree-like luminal structures
US20080275349A1 (en) 2007-05-02 2008-11-06 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
US20090030307A1 (en) 2007-06-04 2009-01-29 Assaf Govari Intracorporeal location system with movement compensation
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US20080319491A1 (en) 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
US8086781B2 (en) 2007-06-22 2011-12-27 Apple Inc. Serial pass-through device
US20130165945A9 (en) 2007-08-14 2013-06-27 Hansen Medical, Inc. Methods and devices for controlling a shapeable instrument
EP2626027B1 (en) 2007-08-14 2020-04-29 Koninklijke Philips N.V. Robotic instrument systems utilizing optical fiber sensors
US20090076476A1 (en) 2007-08-15 2009-03-19 Hansen Medical, Inc. Systems and methods employing force sensing for mapping intra-body tissue
WO2009097461A1 (en) 2008-01-29 2009-08-06 Neoguide Systems Inc. Apparatus and methods for automatically controlling an endoscope
KR100927096B1 (ko) 2008-02-27 2009-11-13 아주대학교산학협력단 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
US8219179B2 (en) 2008-03-06 2012-07-10 Vida Diagnostics, Inc. Systems and methods for navigation within a branched structure of a body
US8808164B2 (en) 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
US9002076B2 (en) 2008-04-15 2015-04-07 Medtronic, Inc. Method and apparatus for optimal trajectory planning
US8532734B2 (en) 2008-04-18 2013-09-10 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8218846B2 (en) 2008-05-15 2012-07-10 Superdimension, Ltd. Automatic pathway and waypoint generation and navigation method
JP5372407B2 (ja) 2008-05-23 2013-12-18 オリンパスメディカルシステムズ株式会社 医療機器
US9248000B2 (en) 2008-08-15 2016-02-02 Stryker European Holdings I, Llc System for and method of visualizing an interior of body
WO2010044852A2 (en) 2008-10-14 2010-04-22 University Of Florida Research Foundation, Inc. Imaging platform to provide integrated navigation capabilities for surgical guidance
CA2736590A1 (en) 2008-10-31 2010-05-06 Chevron Phillips Chemical Company Lp Oligomerization catalyst system and process for oligomerizing olefins
US20100121139A1 (en) 2008-11-12 2010-05-13 Ouyang Xiaolong Minimally Invasive Imaging Systems
US8317746B2 (en) 2008-11-20 2012-11-27 Hansen Medical, Inc. Automated alignment
EP2376175B1 (en) 2008-12-12 2019-01-30 Corindus, Inc. Remote catheter procedure system
US8335590B2 (en) 2008-12-23 2012-12-18 Intuitive Surgical Operations, Inc. System and method for adjusting an image capturing device attribute using an unused degree-of-freedom of a master control device
WO2010082383A1 (ja) 2009-01-15 2010-07-22 オリンパスメディカルシステムズ株式会社 内視鏡システム
KR100961661B1 (ko) 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US8337397B2 (en) 2009-03-26 2012-12-25 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient
US9002427B2 (en) 2009-03-30 2015-04-07 Lifewave Biomedical, Inc. Apparatus and method for continuous noninvasive measurement of respiratory function and events
RU2529380C2 (ru) 2009-04-29 2014-09-27 Конинклейке Филипс Электроникс Н.В. Оценка глубины в реальном времени по монокулярным изображениям эндоскопа
WO2010128411A1 (en) 2009-05-08 2010-11-11 Koninklijke Philips Electronics, N.V. Real-time scope tracking and branch labeling without electro-magnetic tracking and pre-operative scan roadmaps
US8675736B2 (en) 2009-05-14 2014-03-18 Qualcomm Incorporated Motion vector processing
US8817039B2 (en) 2009-05-15 2014-08-26 Sharp Kabushiki Kaisha Image processing device and image processing method
WO2010133982A2 (en) 2009-05-18 2010-11-25 Koninklijke Philips Electronics, N.V. Marker-free tracking registration and calibration for em-tracked endoscopic system
US20100292565A1 (en) 2009-05-18 2010-11-18 Andreas Meyer Medical imaging medical device navigation from at least two 2d projections from different angles
ES2388029B1 (es) 2009-05-22 2013-08-13 Universitat Politècnica De Catalunya Sistema robótico para cirugia laparoscópica.
GB0915200D0 (en) 2009-09-01 2009-10-07 Ucl Business Plc Method for re-localising sites in images
US20110092808A1 (en) 2009-10-20 2011-04-21 Magnetecs, Inc. Method for acquiring high density mapping data with a catheter guidance system
WO2011055245A1 (en) 2009-11-04 2011-05-12 Koninklijke Philips Electronics N.V. Collision avoidance and detection using distance sensors
JP2013517909A (ja) 2010-01-28 2013-05-20 ザ ペン ステイト リサーチ ファンデーション 気管支鏡検査法ガイダンスに適用される画像ベースのグローバル登録
WO2011102012A1 (ja) 2010-02-22 2011-08-25 オリンパスメディカルシステムズ株式会社 医療機器
DE102010012621A1 (de) 2010-03-24 2011-09-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur automatischen Adaption eines Referenzbildes
US8425455B2 (en) 2010-03-30 2013-04-23 Angiodynamics, Inc. Bronchial catheter and method of use
IT1401669B1 (it) 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
US8581905B2 (en) 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US8494794B2 (en) 2010-06-13 2013-07-23 Angiometrix Corporation Methods and systems for determining vascular bodily lumen information and guiding medical devices
US8460236B2 (en) 2010-06-24 2013-06-11 Hansen Medical, Inc. Fiber optic instrument sensing system
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
WO2012024686A2 (en) 2010-08-20 2012-02-23 Veran Medical Technologies, Inc. Apparatus and method for four dimensional soft tissue navigation
US9314306B2 (en) 2010-09-17 2016-04-19 Hansen Medical, Inc. Systems and methods for manipulating an elongate member
JP5669529B2 (ja) 2010-11-17 2015-02-12 オリンパス株式会社 撮像装置、プログラム及びフォーカス制御方法
WO2012075631A1 (en) 2010-12-08 2012-06-14 Industrial Technology Research Institute Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same
US8812079B2 (en) 2010-12-22 2014-08-19 Biosense Webster (Israel), Ltd. Compensation for magnetic disturbance due to fluoroscope
US20120191086A1 (en) 2011-01-20 2012-07-26 Hansen Medical, Inc. System and method for endoluminal and translumenal therapy
WO2012106310A1 (en) * 2011-02-04 2012-08-09 The Penn State Research Foundation Method and device for determining the location of an endoscope
US10391277B2 (en) 2011-02-18 2019-08-27 Voxel Rad, Ltd. Systems and methods for 3D stereoscopic angiovision, angionavigation and angiotherapeutics
JP6138699B2 (ja) 2011-02-18 2017-05-31 デピュイ・シンセス・プロダクツ・インコーポレイテッド 一体化されたナビゲーション及び誘導システムを備えるツール、並びに関連する装置及び方法
US10362963B2 (en) 2011-04-14 2019-07-30 St. Jude Medical, Atrial Fibrillation Division, Inc. Correction of shift and drift in impedance-based medical device navigation using magnetic field information
US9572481B2 (en) 2011-05-13 2017-02-21 Intuitive Surgical Operations, Inc. Medical system with multiple operating modes for steering a medical instrument through linked body passages
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
CN103648394B (zh) 2011-06-27 2016-11-16 皇家飞利浦有限公司 使用外科工具曲线与x-射线图像的配准的实时3d血管造影
US20130030363A1 (en) 2011-07-29 2013-01-31 Hansen Medical, Inc. Systems and methods utilizing shape sensing fibers
US9173683B2 (en) 2011-08-31 2015-11-03 DePuy Synthes Products, Inc. Revisable orthopedic anchor and methods of use
CN102973317A (zh) 2011-09-05 2013-03-20 周宁新 微创手术机器人机械臂布置结构
BR112014005363A2 (pt) 2011-09-08 2017-06-13 Apn Health Llc determinação automática da localização e orientação 3d de um cateter usando apenas radioscopia 2d
US9918681B2 (en) 2011-09-16 2018-03-20 Auris Surgical Robotics, Inc. System and method for virtually tracking a surgical tool on a movable display
US9504604B2 (en) 2011-12-16 2016-11-29 Auris Surgical Robotics, Inc. Lithotripsy eye treatment
US20130246336A1 (en) 2011-12-27 2013-09-19 Mcafee, Inc. System and method for providing data protection workflows in a network environment
EP2809249B1 (en) 2012-02-03 2018-12-26 Intuitive Surgical Operations, Inc. Steerable flexible needle with embedded shape sensing
US20150051482A1 (en) 2012-02-09 2015-02-19 Koninklijke Philips N.V Shaft tracker for real-time navigation tracking
US9138165B2 (en) 2012-02-22 2015-09-22 Veran Medical Technologies, Inc. Systems, methods and devices for forming respiratory-gated point cloud for four dimensional soft tissue navigation
US10383765B2 (en) 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US20140142591A1 (en) 2012-04-24 2014-05-22 Auris Surgical Robotics, Inc. Method, apparatus and a system for robotic assisted surgery
US10039473B2 (en) 2012-05-14 2018-08-07 Intuitive Surgical Operations, Inc. Systems and methods for navigation based on ordered sensor records
WO2013192598A1 (en) 2012-06-21 2013-12-27 Excelsius Surgical, L.L.C. Surgical robot platform
EP2866642B1 (en) 2012-06-28 2017-09-13 Koninklijke Philips N.V. Fiber optic sensor guided navigation for vascular visualization and monitoring
DE102012220116A1 (de) 2012-06-29 2014-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobil handhabbare Vorrichtung, insbesondere zur Bearbeitung oder Beobachtung eines Körpers, und Verfahren zur Handhabung, insbesondere Kalibrierung, einer Vorrichtung
WO2014028394A1 (en) 2012-08-14 2014-02-20 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems
US9183354B2 (en) 2012-08-15 2015-11-10 Musc Foundation For Research Development Systems and methods for image guided surgery
EP2885114B1 (en) 2012-08-15 2021-06-30 Intuitive Surgical Operations, Inc. Phantom degrees of freedom for manipulating the movement of mechanical bodies
KR20150058250A (ko) 2012-08-24 2015-05-28 유니버시티 오브 휴스턴 로봇 장치 및 영상 안내 및 로봇 지원 수술을 위한 시스템
CN108042092B (zh) * 2012-10-12 2023-02-28 直观外科手术操作公司 确定医疗器械在分支解剖结构中的位置
US20140107390A1 (en) 2012-10-12 2014-04-17 Elekta Ab (Publ) Implementation and experimental results of real-time 4d tumor tracking using multi-leaf collimator (mlc), and/or mlc-carriage (mlc-bank), and/or treatment table (couch)
WO2014074481A2 (en) 2012-11-07 2014-05-15 Dana Automotive Systems Group, Llc A clutch management system
WO2014081725A2 (en) * 2012-11-20 2014-05-30 University Of Washington Through Its Center For Commercialization Electromagnetic sensor integration with ultrathin scanning fiber endoscope
LU92104B1 (en) 2012-11-28 2014-05-30 Iee Sarl Method and system for determining a ventilatory threshold
JP6045417B2 (ja) 2012-12-20 2016-12-14 オリンパス株式会社 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
US11172809B2 (en) 2013-02-15 2021-11-16 Intuitive Surgical Operations, Inc. Vision probe with access port
EA033708B1 (ru) 2013-02-26 2019-11-19 Ahmet Sinan Kabakci Роботизированная манипуляционная система
US9459087B2 (en) 2013-03-05 2016-10-04 Ezono Ag Magnetic position detection system
EP2904957A4 (en) 2013-03-06 2016-08-24 Olympus Corp ENDOSCOPE SYSTEM
US10080576B2 (en) 2013-03-08 2018-09-25 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US9867635B2 (en) 2013-03-08 2018-01-16 Auris Surgical Robotics, Inc. Method, apparatus and system for a water jet
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US20140296655A1 (en) 2013-03-11 2014-10-02 ROPAMedics LLC Real-time tracking of cerebral hemodynamic response (rtchr) of a subject based on hemodynamic parameters
EP2904958A4 (en) 2013-03-12 2016-08-24 Olympus Corp ENDOSCOPE SYSTEM
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US20170303941A1 (en) 2013-03-14 2017-10-26 The General Hospital Corporation System and method for guided removal from an in vivo subject
US9364167B2 (en) * 2013-03-15 2016-06-14 Lx Medical Corporation Tissue imaging and image guidance in luminal anatomic structures and body cavities
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US9301723B2 (en) 2013-03-15 2016-04-05 Covidien Lp Microwave energy-delivery device and system
US20170238807A9 (en) 2013-03-15 2017-08-24 LX Medical, Inc. Tissue imaging and image guidance in luminal anatomic structures and body cavities
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
WO2014169103A2 (en) 2013-04-12 2014-10-16 Ninepoint Medical, Inc. Multiple aperture, multiple modal optical systems and methods
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
US20140364739A1 (en) 2013-06-06 2014-12-11 General Electric Company Systems and methods for analyzing a vascular structure
WO2014201165A1 (en) 2013-06-11 2014-12-18 Auris Surgical Robotics, Inc. System for robotic assisted cataract surgery
JP6037964B2 (ja) 2013-07-26 2016-12-07 オリンパス株式会社 マニピュレータシステム
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
KR102356881B1 (ko) 2013-08-15 2022-02-03 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 카테터 위치설정 및 삽입을 위한 그래픽 사용자 인터페이스
US10098565B2 (en) 2013-09-06 2018-10-16 Covidien Lp System and method for lung visualization using ultrasound
WO2015049612A2 (en) 2013-10-02 2015-04-09 Koninklijke Philips N.V. Hub design and methods for optical shape sensing registration
US9980785B2 (en) 2013-10-24 2018-05-29 Auris Health, Inc. Instrument device manipulator with surgical tool de-articulation
JP6656148B2 (ja) 2013-10-24 2020-03-04 オーリス ヘルス インコーポレイテッド ロボット支援管腔内手術のためのシステムおよび関連する方法
US9314191B2 (en) 2013-11-19 2016-04-19 Pacesetter, Inc. Method and system to measure cardiac motion using a cardiovascular navigation system
KR102337440B1 (ko) 2013-12-09 2021-12-10 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 장치-인지 가요성 도구 정합을 위한 시스템 및 방법
CN103735313B (zh) 2013-12-11 2016-08-17 中国科学院深圳先进技术研究院 一种手术机器人及其状态监测方法
JP6261612B2 (ja) 2013-12-20 2018-01-17 オリンパス株式会社 軟性マニピュレータ用ガイド部材および軟性マニピュレータ
WO2015095715A1 (en) 2013-12-20 2015-06-25 Intuitive Surgical Operations, Inc. Simulator system for medical procedure training
CN105979879B (zh) 2014-01-24 2023-01-17 皇家飞利浦有限公司 具有光学形状感测设备视角的虚拟图像
CN106170265B (zh) 2014-02-04 2020-06-30 直观外科手术操作公司 用于介入工具的虚拟导航的组织的非刚性变形的系统和方法
US20150223902A1 (en) 2014-02-07 2015-08-13 Hansen Medical, Inc. Navigation with 3d localization using 2d images
EP3104803B1 (en) 2014-02-11 2021-09-15 KB Medical SA Sterile handle for controlling a robotic surgical system from a sterile field
JP6270537B2 (ja) 2014-02-27 2018-01-31 オリンパス株式会社 医療用システム
KR20150103938A (ko) 2014-03-04 2015-09-14 현대자동차주식회사 리튬황 배터리 분리막
US10952751B2 (en) 2014-03-17 2021-03-23 Marksman Targeting, Inc. Surgical targeting systems and methods
CN104931059B (zh) 2014-03-21 2018-09-11 比亚迪股份有限公司 车载救援导航系统和方法
US10912523B2 (en) 2014-03-24 2021-02-09 Intuitive Surgical Operations, Inc. Systems and methods for anatomic motion compensation
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
US20150305650A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue
CN104055520B (zh) 2014-06-11 2016-02-24 清华大学 人体器官运动监测方法和手术导航系统
US9788910B2 (en) 2014-07-01 2017-10-17 Auris Surgical Robotics, Inc. Instrument-mounted tension sensing mechanism for robotically-driven medical instruments
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US20160270865A1 (en) 2014-07-01 2016-09-22 Auris Surgical Robotics, Inc. Reusable catheter with disposable balloon attachment and tapered tip
US10159533B2 (en) 2014-07-01 2018-12-25 Auris Health, Inc. Surgical system with configurable rail-mounted mechanical arms
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
US20170007337A1 (en) 2014-07-01 2017-01-12 Auris Surgical Robotics, Inc. Driver-mounted torque sensing mechanism
JP6604977B2 (ja) * 2014-07-02 2019-11-13 コヴィディエン リミテッド パートナーシップ 3dのナビゲーションの間に距離および向きのフィードバックを提供するシステム
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
US20160000414A1 (en) 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
WO2016054256A1 (en) 2014-09-30 2016-04-07 Auris Surgical Robotics, Inc Configurable robotic surgical system with virtual rail and flexible endoscope
EP3206577A1 (en) 2014-10-15 2017-08-23 Vincent Suzara Magnetic field structures, field generators, navigation and imaging for untethered robotic device enabled medical procedure
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
DE102014222293A1 (de) 2014-10-31 2016-05-19 Siemens Aktiengesellschaft Verfahren zur automatischen Überwachung des Eindringverhaltens eines von einem Roboterarm gehaltenen Trokars und Überwachungssystem
WO2016077279A1 (en) 2014-11-11 2016-05-19 Vanderbilt University Methods for limiting acute kidney injury
JP7017931B2 (ja) 2014-11-13 2022-02-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 位置特定データをフィルタリングするシステム及び方法
US9931168B2 (en) 2015-01-12 2018-04-03 Biomet Manufacuturing. LLC Plan implementation
WO2016134297A1 (en) 2015-02-20 2016-08-25 Nostix, Llc Medical device position location systems, devices and methods
JP6348078B2 (ja) 2015-03-06 2018-06-27 富士フイルム株式会社 分岐構造判定装置、分岐構造判定装置の作動方法および分岐構造判定プログラム
JP6371729B2 (ja) 2015-03-25 2018-08-08 富士フイルム株式会社 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
WO2016164824A1 (en) 2015-04-09 2016-10-13 Auris Surgical Robotics, Inc. Surgical system with configurable rail-mounted mechanical arms
US9622827B2 (en) 2015-05-15 2017-04-18 Auris Surgical Robotics, Inc. Surgical robotics system
DE112015006531T5 (de) 2015-06-11 2018-02-15 Olympus Corporation Endoskopvorrichtung und Verfahren zum Bedienen der Endoskopvorrichtung
US10347904B2 (en) 2015-06-19 2019-07-09 Solidenergy Systems, Llc Multi-layer polymer coated Li anode for high density Li metal battery
US10706543B2 (en) 2015-08-14 2020-07-07 Intuitive Surgical Operations, Inc. Systems and methods of registration for image-guided surgery
CA2996196A1 (en) 2015-08-31 2017-03-09 Masimo Corporation Wireless patient monitoring systems and methods
WO2017044884A1 (en) 2015-09-09 2017-03-16 Auris Surgical Robotics, Inc. Instrument device manipulator for a surgical robotics system
US11311343B2 (en) 2015-09-17 2022-04-26 Endomaster Pte Ltd Flexible robotic endoscopy system
EP4070723A1 (en) 2015-09-18 2022-10-12 Auris Health, Inc. Navigation of tubular networks
JP6843130B2 (ja) 2015-10-13 2021-03-17 ライトラボ・イメージング・インコーポレーテッド 側枝カットプレーンビュー角度を決定する脈管内撮像システム及び方法
US10231793B2 (en) 2015-10-30 2019-03-19 Auris Health, Inc. Object removal through a percutaneous suction tube
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
CN105559850B (zh) 2015-12-17 2017-08-25 天津工业大学 一种用于机器人辅助外科具有力传感功能的手术钻器械
US10932861B2 (en) 2016-01-14 2021-03-02 Auris Health, Inc. Electromagnetic tracking surgical system and method of controlling the same
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US10470719B2 (en) 2016-02-01 2019-11-12 Verily Life Sciences Llc Machine learnt model to detect REM sleep periods using a spectral analysis of heart rate and motion
CN108883301B (zh) 2016-03-24 2020-11-10 皇家飞利浦有限公司 处置评估设备
US20190105112A1 (en) 2016-03-31 2019-04-11 Koninklijke Philips N.V. Image guided robot for catheter placement
US11324554B2 (en) 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
US10470839B2 (en) 2016-06-02 2019-11-12 Covidien Lp Assessment of suture or staple line integrity and localization of potential tissue defects along the suture or staple line
US10806516B2 (en) 2016-06-20 2020-10-20 General Electric Company Virtual 4D stent implantation path assessment
KR102607065B1 (ko) 2016-06-30 2023-11-29 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 영상 안내식 시술 중에 복수의 모드에서 안내 정보를 디스플레이하기 위한 그래픽 사용자 인터페이스
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
KR20230096148A (ko) 2016-08-31 2023-06-29 아우리스 헬스, 인코포레이티드 길이 보존 수술용 기구
US10238455B2 (en) 2016-08-31 2019-03-26 Covidien Lp Pathway planning for use with a navigation planning and procedure system
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
US10136959B2 (en) 2016-12-28 2018-11-27 Auris Health, Inc. Endolumenal object sizing
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US10543048B2 (en) 2016-12-28 2020-01-28 Auris Health, Inc. Flexible instrument insertion using an adaptive insertion force threshold
US11842030B2 (en) 2017-01-31 2023-12-12 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
JP7159192B2 (ja) 2017-03-28 2022-10-24 オーリス ヘルス インコーポレイテッド シャフト作動ハンドル
US10475235B2 (en) 2017-03-29 2019-11-12 Fujifilm Corporation Three-dimensional image processing apparatus, three-dimensional image processing method, and three-dimensional image processing program
US11490782B2 (en) 2017-03-31 2022-11-08 Auris Health, Inc. Robotic systems for navigation of luminal networks that compensate for physiological noise
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
AU2018250049B2 (en) 2017-04-07 2023-06-29 Auris Health, Inc. Patient introducer alignment
US20180308247A1 (en) 2017-04-25 2018-10-25 Best Medical International, Inc. Tissue imaging system and method for tissue imaging
KR20240035632A (ko) 2017-05-12 2024-03-15 아우리스 헬스, 인코포레이티드 생검 장치 및 시스템
CN110769736B (zh) 2017-05-17 2023-01-13 奥瑞斯健康公司 可更换工作通道
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
KR102578978B1 (ko) 2017-06-28 2023-09-19 아우리스 헬스, 인코포레이티드 전자파 왜곡 검출
EP3644885B1 (en) 2017-06-28 2023-10-11 Auris Health, Inc. Electromagnetic field generator alignment
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
US10299870B2 (en) 2017-06-28 2019-05-28 Auris Health, Inc. Instrument insertion compensation
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
US10593052B2 (en) 2017-08-23 2020-03-17 Synaptive Medical (Barbados) Inc. Methods and systems for updating an existing landmark registration
US10464209B2 (en) 2017-10-05 2019-11-05 Auris Health, Inc. Robotic system with indication of boundary for robotic arm
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
US10016900B1 (en) 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
EP3684282B1 (en) 2017-12-06 2024-02-21 Auris Health, Inc. Systems to correct for uncommanded instrument roll
KR20200099138A (ko) 2017-12-08 2020-08-21 아우리스 헬스, 인코포레이티드 의료 기구 항행 및 표적 선정을 위한 시스템 및 방법
US10850013B2 (en) 2017-12-08 2020-12-01 Auris Health, Inc. Directed fluidics
WO2019118368A1 (en) 2017-12-11 2019-06-20 Auris Health, Inc. Systems and methods for instrument based insertion architectures
AU2018384820A1 (en) 2017-12-14 2020-05-21 Auris Health, Inc. System and method for estimating instrument location
WO2019125964A1 (en) 2017-12-18 2019-06-27 Auris Health, Inc. Methods and systems for instrument tracking and navigation within luminal networks
MX2020007623A (es) 2018-01-17 2020-09-14 Auris Health Inc Plataforma quirurgica con soportes de brazo regulable.
JP7301884B2 (ja) 2018-02-13 2023-07-03 オーリス ヘルス インコーポレイテッド 医療用器具を駆動するためのシステム及び方法
WO2019169178A1 (en) 2018-03-01 2019-09-06 Auris Health, Inc. Methods and systems for mapping and navigation
JP2019154816A (ja) 2018-03-13 2019-09-19 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置、医療用観察装置、及び医療用観察装置の作動方法
KR102489198B1 (ko) 2018-03-28 2023-01-18 아우리스 헬스, 인코포레이티드 위치 센서의 정합을 위한 시스템 및 방법
KR20200139199A (ko) 2018-03-28 2020-12-11 아우리스 헬스, 인코포레이티드 가변 굽힘 강성 프로파일을 갖는 의료 기구
JP7225259B2 (ja) 2018-03-28 2023-02-20 オーリス ヘルス インコーポレイテッド 器具の推定位置を示すためのシステム及び方法
KR20200139200A (ko) 2018-03-29 2020-12-11 아우리스 헬스, 인코포레이티드 회전 오프셋을 갖는 다기능 엔드 이펙터를 가진 로봇식 의료 시스템
EP3801190A4 (en) 2018-05-30 2022-03-02 Auris Health, Inc. SYSTEMS AND METHODS FOR SENSOR-BASED BRANCH LOCATION PREDICTION
US10898286B2 (en) 2018-05-31 2021-01-26 Auris Health, Inc. Path-based navigation of tubular networks
CN110831538B (zh) 2018-05-31 2023-01-24 奥瑞斯健康公司 基于图像的气道分析和映射
CN112236083A (zh) 2018-05-31 2021-01-15 奥瑞斯健康公司 用于导航检测生理噪声的管腔网络的机器人系统和方法
US10744981B2 (en) 2018-06-06 2020-08-18 Sensata Technologies, Inc. Electromechanical braking connector
JP7267309B2 (ja) 2018-06-07 2023-05-01 オーリス ヘルス インコーポレイテッド 高力器具を有するロボット医療システム
WO2020005370A1 (en) 2018-06-27 2020-01-02 Auris Health, Inc. Systems and techniques for providing multiple perspectives during medical procedures
JP7391886B2 (ja) 2018-06-28 2023-12-05 オーリス ヘルス インコーポレイテッド 滑車共有を組み込んだ医療システム
KR20230169481A (ko) 2018-08-07 2023-12-15 아우리스 헬스, 인코포레이티드 카테터 제어와의 변형-기반 형상 감지의 조합
US10828118B2 (en) 2018-08-15 2020-11-10 Auris Health, Inc. Medical instruments for tissue cauterization
WO2020036686A1 (en) 2018-08-17 2020-02-20 Auris Health, Inc. Bipolar medical instrument
WO2020041619A2 (en) 2018-08-24 2020-02-27 Auris Health, Inc. Manually and robotically controllable medical instruments
WO2020068303A1 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Systems and instruments for suction and irrigation
WO2020068853A2 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Articulating medical instruments
CN112804959A (zh) 2018-09-28 2021-05-14 奥瑞斯健康公司 用于伴随内窥镜和经皮医学规程的机器人系统和方法
AU2019347767A1 (en) 2018-09-28 2021-04-08 Auris Health, Inc. Systems and methods for docking medical instruments
US10820947B2 (en) 2018-09-28 2020-11-03 Auris Health, Inc. Devices, systems, and methods for manually and robotically driving medical instruments
WO2020076447A1 (en) 2018-10-08 2020-04-16 Auris Health, Inc. Systems and instruments for tissue sealing
US11950863B2 (en) 2018-12-20 2024-04-09 Auris Health, Inc Shielding for wristed instruments
WO2020140072A1 (en) 2018-12-28 2020-07-02 Auris Health, Inc. Percutaneous sheath for robotic medical systems and methods
CN113453642A (zh) 2019-02-22 2021-09-28 奥瑞斯健康公司 具有用于可调式臂支撑件的机动臂的外科平台

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022211501A1 (ko) * 2021-03-31 2022-10-06 서울대학교병원 굴곡성기관지내시경 이미지를 이용하여 해부학적 위치를 판별하는 장치 및 방법

Also Published As

Publication number Publication date
WO2019074650A3 (en) 2019-05-31
US11850008B2 (en) 2023-12-26
WO2019074650A2 (en) 2019-04-18
CN110832544B (zh) 2024-05-17
JP7350726B2 (ja) 2023-09-26
AU2018347464A1 (en) 2020-04-23
CN110832544A (zh) 2020-02-21
EP3676799A2 (en) 2020-07-08
US20200170720A1 (en) 2020-06-04
US20240065780A1 (en) 2024-02-29
EP3676799A4 (en) 2021-03-03
US10555778B2 (en) 2020-02-11
AU2018347464B2 (en) 2022-11-17
JP2020536654A (ja) 2020-12-17
US20190110843A1 (en) 2019-04-18

Similar Documents

Publication Publication Date Title
US11850008B2 (en) Image-based branch detection and mapping for navigation
US11759090B2 (en) Image-based airway analysis and mapping
US11957446B2 (en) System and method for medical instrument navigation and targeting
US11759266B2 (en) Robotic systems for determining a roll of a medical device in luminal networks
KR20200101334A (ko) 관강내 조직망 내 기구 추적 및 항행을 위한 방법 및 시스템
KR20200096910A (ko) 지시되지 않은 기구 롤을 수정하기 위한 시스템 및 방법
US11944422B2 (en) Image reliability determination for instrument localization

Legal Events

Date Code Title Description
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)