JP7451686B2 - 器具画像信頼性システム及び方法 - Google Patents

器具画像信頼性システム及び方法 Download PDF

Info

Publication number
JP7451686B2
JP7451686B2 JP2022513189A JP2022513189A JP7451686B2 JP 7451686 B2 JP7451686 B2 JP 7451686B2 JP 2022513189 A JP2022513189 A JP 2022513189A JP 2022513189 A JP2022513189 A JP 2022513189A JP 7451686 B2 JP7451686 B2 JP 7451686B2
Authority
JP
Japan
Prior art keywords
image
metrics
determining
metric
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022513189A
Other languages
English (en)
Other versions
JPWO2021038495A5 (ja
JP2022546419A (ja
Inventor
イ・メンロン
Original Assignee
オーリス ヘルス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オーリス ヘルス インコーポレイテッド filed Critical オーリス ヘルス インコーポレイテッド
Publication of JP2022546419A publication Critical patent/JP2022546419A/ja
Publication of JPWO2021038495A5 publication Critical patent/JPWO2021038495A5/ja
Application granted granted Critical
Publication of JP7451686B2 publication Critical patent/JP7451686B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • A61B1/2676Bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0036Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room including treatment, e.g., using an implantable medical device, ablating, ventilating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G12/00Accommodation for nursing, e.g. in hospitals, not covered by groups A61G1/00 - A61G11/00, e.g. trolleys for transport of medicaments or food; Prescription lists
    • A61G12/001Trolleys for transport of medicaments, food, linen, nursing supplies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/0018Physician's examining tables
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/02Adjustable operating tables; Controls therefor
    • A61G13/04Adjustable operating tables; Controls therefor tiltable around transverse or longitudinal axis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/10Parts, details or accessories
    • A61G13/12Rests specially adapted therefor; Arrangements of patient-supporting surfaces
    • A61G13/1205Rests specially adapted therefor; Arrangements of patient-supporting surfaces for specific parts of the body
    • A61G13/1235Arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/10Parts, details or accessories
    • A61G13/12Rests specially adapted therefor; Arrangements of patient-supporting surfaces
    • A61G13/1205Rests specially adapted therefor; Arrangements of patient-supporting surfaces for specific parts of the body
    • A61G13/125Ankles or feet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/10Parts, details or accessories
    • A61G13/12Rests specially adapted therefor; Arrangements of patient-supporting surfaces
    • A61G13/128Rests specially adapted therefor; Arrangements of patient-supporting surfaces with mechanical surface adaptations
    • A61G13/1285Rests specially adapted therefor; Arrangements of patient-supporting surfaces with mechanical surface adaptations having modular surface parts, e.g. being replaceable or turnable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/10Parts, details or accessories
    • A61G13/12Rests specially adapted therefor; Arrangements of patient-supporting surfaces
    • A61G13/128Rests specially adapted therefor; Arrangements of patient-supporting surfaces with mechanical surface adaptations
    • A61G13/129Rests specially adapted therefor; Arrangements of patient-supporting surfaces with mechanical surface adaptations having surface parts for adaptation of the size, e.g. for extension or reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00477Coupling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2217/00General characteristics of surgical instruments
    • A61B2217/002Auxiliary appliance
    • A61B2217/005Auxiliary appliance with suction drainage system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2217/00General characteristics of surgical instruments
    • A61B2217/002Auxiliary appliance
    • A61B2217/007Auxiliary appliance with irrigation system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B46/00Surgical drapes
    • A61B46/10Surgical drapes specially adapted for instruments, e.g. microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B50/00Containers, covers, furniture or holders specially adapted for surgical or diagnostic appliances or instruments, e.g. sterile covers
    • A61B50/10Furniture specially adapted for surgical or diagnostic appliances or instruments
    • A61B50/13Trolleys, e.g. carts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2210/00Devices for specific treatment or diagnosis
    • A61G2210/50Devices for specific treatment or diagnosis for radiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Pulmonology (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • Otolaryngology (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)

Description

(関連出願の相互参照)
本出願は、2019年8月30日に出願の米国仮出願第62/894,601号の利益を主張し、参照によりその全体が本明細書に組み込まれる。
(発明の分野)
本開示は、概して、医療器具のナビゲーションのためのシステム及び方法に関し、より具体的には、ロボット制御式の医療器具をナビゲートするための画像ベースの分析に関する。
内視鏡検査(例えば、気管支鏡検査)などの医療処置では、診断及び/又は治療目的で患者の管腔(例えば、気道)の内部にアクセスし可視化を行う場合がある。処置中に、内視鏡などの可撓性の管状ツール又は器具を患者の体内に挿入され得る。いくつかの場合には、第2の器具を、内視鏡を通して診断及び/又は治療のために特定された組織部位に到達させることができる。
気管支鏡検査は、医師が気管支及び細気管支などの患者の肺内の気道の内部状態を検査することを可能とする医療処置である。この医療処置では、気管支鏡として知られる細い可撓性の管状ツール又は器具を患者の口に挿入し、患者の喉から肺気道内へと、その後の診断及び/又は治療を行うために特定された組織部位に向かって通すことができる。気管支鏡は、組織部位への経路を提供する内部ルーメン(「作業チャネル」)を有することができ、作業チャネルを通してカテーテル及び様々な医療ツールを組織部位に挿入することができる。
いくつかの医療処置では、外科用ロボットシステムは、外科用ツールの挿入及び/又は操作を制御するために使用され得る。外科用ロボットシステムは、処置中の外科用ツールの位置付けを制御するために使用されるマニピュレータアセンブリを有する少なくとも1つのロボットアーム又は他の器具位置付けデバイスを含むことができる。
開示される態様は、以下、添付の図面と併せて説明され、開示された態様を例示するが、限定するものではなく、同様の称号は同様の要素を示す。
診断及び/又は治療用気管支鏡検査処置のために配置されたカートベースのロボットシステムの実施形態を示す。 図1のロボットシステムの更なる態様を描写する。 尿管鏡検査のために配置された図1のロボットシステムの実施形態を示す。 血管処置のために配置された図1のロボットシステムの実施形態を示す。 気管支鏡検査処置のために配置されたテーブルベースのロボットシステムの実施形態を示す。 図5のロボットシステムの代替的な図を提供する。 ロボットアームを収納するように構成された例示的なシステムを示す。 尿管鏡検査処置のために構成されたテーブルベースのロボットシステムの実施形態を示す。 腹腔鏡処置のために構成されたテーブルベースのロボットシステムの実施形態を示す。 ピッチ又は傾斜調整を備えた図5~図9のテーブルベースのロボットシステムの実施形態を示す。 図5~10のテーブルベースのロボットシステムのテーブルとカラムとの間のインターフェースの詳細な図示を提供する。 テーブルベースのロボットシステムの代替的な実施形態を示す。 図12のテーブルベースのロボットシステムの端面図を示す。 ロボットアームが取り付けられた、テーブルベースのロボットシステムの端面図を示す。 例示的な器具ドライバを示す。 ペアの器具ドライバを備えた例示的な医療器具を示す。 駆動ユニットの軸が器具の細長いシャフトの軸に平行である、器具ドライバ及び器具の代替的な設計を示す。 器具ベースの挿入アーキテクチャを有する器具を示す。 例示的なコントローラを示す。 例示的な実施形態による、図1~図10のロボットシステムの1つ又は2つ以上の要素の位置を推定する、位置特定システムを示すブロック図である。(例えば図16~図18の器具の位置など) 患者の例示的な管腔ネットワークを示す。 本明細書に記載のロボットシステムのいくつかの実装態様と共に使用することができる例示的なコマンドコンソールを示す。 例示的な医療器具の遠位端部の詳細図を示す。 管腔ネットワークの枝の内部の例示的な画像を示す。 分析システム及び医療機器を含む例示的な画像管理システムを示す。 本明細書に記載の医療システムと組み合わせて使用することができるマッピングシステムを示す。 上述の画像管理システムを実装するための例示的な方法を示す。
I.概要
本開示の態様は、腹腔鏡などの低侵襲性、及び内視鏡などの非侵襲性の両方の処置を含む、様々な医療処置を行うことができるロボットで使用可能な医療システムに統合され得る。内視鏡処置のうち、システムは、気管支鏡検査、尿管鏡検査、胃鏡検査などを行うことができる。
幅広い処置を行うことに加えて、システムは、医師を支援するための強調された撮像及び誘導などの追加の利益を提供し得る。追加的に、システムは、厄介な腕の動作及び姿勢を必要とせずに、人間工学的位置から処置を行う能力を医師に提供し得る。また更に、システムは、システムの器具のうちの1つ又は2つ以上が単一のユーザによって制御され得るように、改善された使いやすさで処置を行う能力を医師に提供し得る。
以下、説明を目的として、図面と併せて、様々な実施形態が説明される。開示される概念の多くの他の実装態様が可能であり、開示される実装態様で様々な利点が達成され得ることを理解されたい。見出しが、参照のために本明細書に含まれ、様々なセクションの位置を特定する支援となる。これらの見出しは、それに関して説明される概念の範囲を限定することを意図するものではない。そのような概念は、本明細書全体にわたって適用可能性を有し得る。
A.ロボットシステム-カート
ロボットで使用可能な医療システムは、特定の処置に応じて様々な方法で構成され得る。図1は、診断及び/又は治療用気管支鏡検査処置のために配置されたカートベースのロボット制御可能なシステム10の実施形態を示す。気管支鏡検査の間、システム10は、気管支鏡検査のための処置専用気管支鏡であり得る操縦可能な内視鏡13などの医療器具を、診断及び/又は治療用具を送達するための自然開口部アクセスポイント(すなわち、本実施例ではテーブル上に位置付けられている患者の口)に送達するための1つ又は2つ以上のロボットアーム12を有するカート11を備え得る。示されるように、カート11は、アクセスポイントへのアクセスを提供するために、患者の上部胴体に近接して位置付けられ得る。同様に、ロボットアーム12は、アクセスポイントに対して気管支鏡を位置付けるために作動させることができる。図1の配置はまた、胃腸管(GI)処置を、GI処置のための特殊な内視鏡である胃鏡を用いて行うときに利用され得る。図2は、カートの例示的な実施形態をより詳細に示す。
図1を引き続き参照し、カート11が適切に位置付けられると、ロボットアーム12は、操縦可能な内視鏡13をロボットで、手動で、又はそれらの組み合わせで患者内に挿入し得る。示されるように、操縦可能な内視鏡13は、内側リーダ部分及び外側シース部分などの少なくとも2つの入れ子式部品を含み得、各部分は、器具ドライバの組28から別個の器具ドライバに連結され、各器具ドライバは、個々のロボットアームの遠位端部に連結されている。リーダ部分をシース部分と同軸上に位置合わせするのを容易にする、器具ドライバ28のこの直線配置は、1つ又は2つ以上のロボットアーム12を異なる角度及び/又は位置に操作することによって空間内に再位置付けされ得る「仮想レール」29を作成する。本明細書に記載される仮想レールは、破線を使用して図に示されており、したがって破線は、システムの物理的構造を示さない。仮想レール29に沿った器具ドライバ28の並進は、外側シース部分に対して内側リーダ部分を入れ子にするか、又は内視鏡13を患者から前進若しくは後退させる。仮想レール29の角度は、臨床用途又は医師の選好に基づいて、調整、並進、及び枢動され得る。例えば、気管支鏡検査では、示されるような仮想レール29の角度及び位置は、内視鏡13を患者の口内に曲げ入れることによる摩擦を最小限に抑えながら内視鏡13への医師のアクセスを提供する妥協を表す。
内視鏡13は、標的の目的地又は手術部位に到達するまで、ロボットシステムからの正確なコマンドを使用して挿入後に患者の気管及び肺の下方に方向付けられ得る。患者の肺網を通したナビゲーションを高め、及び/又は所望の標的に到達するために、内視鏡13は、操縦され得て、内側リーダ部分を外側シース部分から入れ子状に延在させて、高められた関節運動及びより大きな曲げ半径を得る。別個の器具ドライバ28の使用により、リーダ部分及びシース部分が互いに独立して駆動されることも可能となる。
例えば、内視鏡13は、例えば、患者の肺内の病変又は小結節などの標的に生検針を送達するように方向付けられ得る。針は、内視鏡の長さにわたる作業チャネルの下方に展開されて、病理医によって分析される組織サンプルが得られ得る。病理の結果に応じて、追加の生検のために追加のツールが内視鏡の作業チャネルの下方に展開され得る。小結節を悪性と識別した後、内視鏡13は、潜在的な癌組織を切除するために器具を内視鏡的に送達し得る。場合によっては、診断及び治療的処置は、別々の手順で提供することができる。これらの状況において、内視鏡13はまた、標的小結節の場所を「マーク」するために基準を送達するのに使用され得る。他の例では、診断及び治療的処置は、同じ処置中に送達され得る。
システム10はまた、カート11に支持ケーブルを介して接続されて、カート11への制御、電子機器、流体工学、光学系、センサ、及び/又は電力のためのサポートを提供し得る移動可能なタワー30を含み得る。タワー30内にこのような機能を置くことにより、動作を行う医師及びそのスタッフがより容易に調整及び/又は再位置付けられ得るより小さいフォームファクタのカート11が可能となる。追加的に、カート/テーブルと支持タワー30との間の機能の分割は、手術室の乱雑さを低減し、臨床ワークフローの改善を促進する。カート11は患者に近接して位置付けられ得るが、タワー30は、処置中に邪魔にならないように離れた場所に収納され得る。
上述のロボットシステムのサポートにおいて、タワー30は、例えば、永続的な磁気記憶ドライブ、ソリッドステートドライブなどの非一時的コンピュータ可読記憶媒体内にコンピュータプログラム命令を記憶するコンピュータベースの制御システムの構成要素を含み得る。これらの命令の実行は、実行がタワー30内で行われるのか又はカート11で行われるのかにかかわらず、システム全体又はそのサブシステムを制御し得る。例えば、コンピュータシステムのプロセッサによって実行されるとき、命令は、ロボットシステムの構成要素に、関連するキャリッジ及びアームマウントを作動させ、ロボットアームを作動させ、医療器具を制御させ得る。例えば、制御信号を受信したことに応答して、ロボットアームの関節内のモータは、アームをある特定の姿勢に位置付け得る。
タワー30は、内視鏡13を通して配備され得るシステムに、制御された灌注及び吸引機能を提供するために、ポンプ、流量計、弁制御、及び/又は流体アクセスも含むことができる。これらの構成要素はまた、タワー30のコンピュータシステムを使用して制御され得る。いくつかの実施形態では、灌注及び吸引能力は、別個のケーブルを通して内視鏡13に直接送達され得る。
タワー30は、フィルタリングされ、保護された電力をカート11に提供するように設計された電圧及びサージ保護具を含み得、それによって、カート11内に電力変圧器及び他の補助電力構成要素を配置することが回避され、カート11はより小さく、より移動可能になる。
タワー30は、ロボットシステム10全体に配備されたセンサのための支持機器も含み得る。例えば、タワー30は、ロボットシステム10全体の光センサ又はカメラから受信したデータを検出、受信、及び処理するためのオプトエレクトロニクス機器を含み得る。制御システムと組み合わせて、このようなオプトエレクトロニクス機器は、タワー30内を含むシステム全体に展開された任意の数のコンソール内に表示するためのリアルタイム画像を生成するために使用され得る。同様に、タワー30はまた、展開された電磁(EM)センサから信号を受信し、受信した信号を処理するための電子サブシステムも含み得る。タワー30はまた、医療器具内又は医療器具上のEMセンサによる検出のためにEM場発生器を収容し、位置付けるためにも使用され得る。
タワー30はまた、システムの残りの部分で利用可能な他のコンソール、例えば、カートの上部上に装着されたコンソールに追加して、コンソール31を含み得る。コンソール31は、オペレータである医師のためのユーザインターフェース及びタッチスクリーンなどの表示画面を含み得る。システム10内のコンソールは、一般に、ロボット制御、並びに内視鏡13のナビゲーション情報及び位置特定情報などの処置の術前及びリアルタイム情報の両方を提供するように設計される。コンソール31が医師に利用可能な唯一のコンソールではない場合、コンソール31は、看護師などの第2のオペレータによって使用されて、患者の健康又はバイタル、及びシステム10の動作を監視し、並びにナビゲーション及び位置特定情報などの処置固有のデータを提供し得る。他の実施形態では、コンソール30は、タワー30とは別個の本体内に収容される。
タワー30は、1つ又は2つ以上のケーブル又は接続(図示せず)を介してカート11及び内視鏡13に結合され得る。いくつかの実施形態では、タワー30からの支持機能は、単一ケーブルを通してカート11に提供されることにより、手術室を簡略化し、整理整頓し得る。他の実施形態では、特定の機能は、別個の配線及び接続部で連結され得る。例えば、単一の電力ケーブルを通してカート11に電力が提供され得る一方、制御、光学、流体工学、及び/又はナビゲーションのためのサポートは、別個のケーブルを通して提供され得る。
図2は、図1に示されるロボットで使用可能なカートベースのシステムからのカート11の実施形態の詳細な図を提供する。カート11は、概して、細長い支持構造14(「カラム」と称されることが多い)、カート基部15、及びカラム14の頂部にあるコンソール16を含む。カラム14は、1つ又は2つ以上のロボットアーム12(図2には3つ示されている)の展開を支持するためのキャリッジ17(代替的に「アーム支持体」)などの1つ又は2つ以上のキャリッジを含み得る。キャリッジ17は、患者に対してより良好に位置付けるために垂直軸に沿って回転してロボットアーム12の基部を調整する、個別に構成可能なアームマウントを含み得る。キャリッジ17はまた、キャリッジ17がカラム14に沿って垂直方向に並進することを可能にするキャリッジインターフェース19を含む。
キャリッジインターフェース19は、キャリッジ17の垂直方向の並進を誘導するためにカラム14の両側に位置付けられているスロット20などのスロットを通してカラム14に接続されている。スロット20は、カート基部15に対して様々な垂直方向の高さでキャリッジ17を位置付け、保持するための垂直方向の並進インターフェースを含む。キャリッジ17の垂直方向の並進により、カート11は、様々なテーブルの高さ、患者のサイズ、及び医師の好みを満たすようにロボットアーム12のリーチを調整することが可能となる。同様に、キャリッジ17上の個別に構成可能なアームマウントにより、ロボットアーム12のロボットアーム基部21を様々な構成で角度付けすることが可能となる。
いくつかの実施形態では、キャリッジ17が垂直方向に並進するときにカラム14の内部チャンバ及び垂直方向の並進インターフェース内に汚れ及び流体が侵入するのを防止するために、スロット20には、スロット表面と同一平面及び平行であるスロットカバーが追加され得る。スロットカバーは、スロット20の垂直方向の頂部及び底部付近に位置付けられているばねスプールの対を通じて展開され得る。カバーは、キャリッジ17が上下に垂直方向に並進するにつれてコイル状から伸縮するように展開されるまで、スプール内でコイル巻きにされている。スプールのばね荷重は、キャリッジ17がスプールに向かって並進する場合にカバーをスプールに引き込む力を提供し、一方、キャリッジ17がスプールから離れて並進する場合にはぴったりとした封止も維持する。カバーは、キャリッジ17が並進するときにカバーが適切に伸縮するのを確実にするために、例えば、キャリッジインターフェース19内のブラケットを使用してキャリッジ17に接続され得る。
カラム14は、例えば、コンソール16からの入力などのユーザ入力に応答して生成された制御信号に応答してキャリッジ17を機械的に並進させるために垂直方向に位置合わせされた主ねじを使用するように設計された、ギア及びモータなどの機構を内部に含み得る。
ロボットアーム12は、一般に、一連の関節24によって接続されている一連のリンク23によって分離されたロボットアーム基部21及びエンドエフェクタ22を含み得、各関節は独立したアクチュエータを含み、各アクチュエータは、独立して制御可能なモータを含む。独立して制御可能な各関節は、ロボットアーム12が利用可能な独立した自由度を表す。ロボットアーム12の各々は、7つの関節を有し得、したがって、7つの自由度を提供することが可能である。多数の関節は、多数の自由度をもたらし、「冗長」自由度を可能にする。冗長自由度を有することにより、ロボットアーム12は、異なるリンク位置及び関節角度を使用して空間内の特定の位置、配向、及び軌道で、それらのそれぞれのエンドエフェクタ22を位置付けることが可能となる。これにより、システムが空間内の所望のポイントから医療器具を位置付け、方向付けることが可能になると同時に、医師がアーム関節を患者から離れる臨床的に有利な位置へと移動させて、アームの衝突を回避しながらよりよいアクセスを生み出すことを可能にする。
カート基部15は、床の上のカラム14、キャリッジ17、及びロボットアーム12の重量の釣り合いをとる。したがって、カート基部15は、電子機器、モータ、電源、並びにカート11の移動及び/又は固定化のいずれかを可能にする構成要素などの、より重い部品を収容する。例えば、カート基部15は、処置前にカート11が部屋中をあちこちに容易に移動することを可能にする、転動可能なホイール形状のキャスタ25を含む。適切な位置に到達した後、キャスタ25は、処置中にカート11を所定の場所に保持するためのホイールロックを使用して静止させられ得る。
カラム14の垂直方向の端部に位置付けられたコンソール16は、ユーザ入力を受信するためのユーザインターフェース及び表示画面(又は、例えば、タッチスクリーン26などの二重目的デバイス)の両方を可能にして、術前データ及び術中データの両方を医師であるユーザに提供する。タッチスクリーン26上の潜在的な術前データは、術前計画、術前コンピュータ断層撮影(CT)スキャンから導出されたナビゲーション及びマッピングデータ、並びに/又は術前の患者への問診からのメモを含み得る。ディスプレイ上の術中データは、ツールから提供される光学情報、センサからのセンサ及び座標情報、並びに呼吸、心拍数、及び/又はパルスなどの不可欠な患者統計を含み得る。コンソール16は、医師が、キャリッジ17の反対側のカラム14側からコンソール16にアクセスすることを可能にするように位置付け及び傾斜され得る。この位置から、医師は、コンソール16をカート11の背後から操作しながら、コンソール16、ロボットアーム12、及び患者を見ることができる。示されるように、コンソール16はまた、カート11の操作及び安定化を支援するハンドル27を含む。
図3は、尿管鏡検査のために配置された、ロボットで使用可能なシステム10の実施形態を示す。尿管鏡検査処置では、カート11は、患者の尿道及び尿管を横断するように設計された処置専用内視鏡である尿管鏡32を患者の下腹部領域に送達するように位置付けられ得る。尿管鏡検査では、尿管鏡32が患者の尿道と直接位置合わせされ、領域内の敏感な解剖学的構造に対する摩擦及び力を低減することが望ましいことがある。示されるように、カート11は、ロボットアーム12が尿管鏡32を、患者の尿道に直線状に直接アクセスするために位置付けることを可能にするように、テーブルの脚部に位置合わせされ得る。テーブルの脚部から、ロボットアーム12は、尿道を通して患者の下腹部に直接、仮想レール33に沿って尿管鏡32を挿入し得る。
気管支鏡検査におけるのと同様の制御技法を使用して尿道に挿入した後、尿管鏡32は、診断及び/又は治療用途のために、膀胱、尿管、及び/又は腎臓にナビゲートされ得る。例えば、尿管鏡32を尿管及び腎臓に方向付けて、尿管鏡32の作業チャネルの下方に配備されたレーザー又は超音波結石破砕デバイスを使用して、腎臓結石の蓄積を破砕し得る。砕石術が完了した後、結果として得られた結石片は、尿管鏡32の下方に配備されたバスケットを使用して除去され得る。
図4は、血管処置のために同様に配置された、ロボットで使用可能なシステム10の実施形態を示す。血管処置において、システム10は、カート11が、操縦可能なカテーテルなどの医療器具34を、患者の脚内の大腿動脈内のアクセスポイントに送達し得るように構成され得る。大腿動脈は、ナビゲーションのためのより大きな直径と、患者の心臓への、遠回りが比較的少ない曲がりくねった経路の両方を示すが、これはナビゲーションを簡素化する。尿管鏡検査処置のように、カート11は、患者の脚及び下腹部に向かって位置付けられて、ロボットアーム12が患者の大腿/腰領域内の大腿動脈アクセスポイントへの直接的な線形アクセスで仮想レール35を提供することを可能にし得る。動脈内への挿入後、器具ドライバ28を並進させることによって医療器具34が方向付けられ、挿入され得る。代替的に、カート11は、例えば、肩及び手首付近の頚動脈及び腕動脈などの代替的な血管アクセスポイントに到達するために、患者の上腹部の周囲に位置付けられ得る。
B.ロボットシステム-テーブル
ロボットで使用可能な医療システムの実施形態は、患者テーブルも組み込み得る。テーブルの組み込みは、カートをなくすことによって手術室内の資本設備の量を低減し、患者へのより大きなアクセスを可能にする。図5は、気管支鏡検査処置のために配置されたこうしたロボット制御可能なシステムの一実施形態を示す。システム36は、床の上にプラットフォーム38(「テーブル」又は「ベッド」として図示)を支持するための支持構造体又はカラム37を含む。カートベースのシステムと同様に、システム36のロボットアーム39のエンドエフェクタは、器具ドライバ42の線形整列から形成された仮想レール41を通して、又はそれに沿って、図5の気管支鏡40などの細長い医療器具を操縦するように設計された器具ドライバ42を含む。実際には、蛍光透視撮像を提供するためのCアームは、放射器及び検出器をテーブル38の周囲に置くことによって、患者の上部腹部領域の上方に位置付けられ得る。
図6は、説明を目的として、患者及び医療器具なしのシステム36の代替的な図を提供する。示されるように、カラム37は、1つ又は2つ以上のロボットアーム39の基部となり得る、システム36内でリング形状として図示される1つ又は2つ以上のキャリッジ43を含み得る。キャリッジ43は、カラム37の長さにわたる垂直方向のカラムインターフェース44に沿って並進して、ロボットアーム39が患者に到達するように位置付けられ得る異なるバンテージポイントを提供し得る。キャリッジ43は、カラム37内に位置付けられている機械的モータを使用してカラム37の周りを回転して、ロボットアーム39が、例えば、患者の両側などのテーブル38の多数の側部へのアクセスを有することを可能にし得る。複数のキャリッジを有する実施形態では、キャリッジはカラム上に個別に位置付けられ得、他のキャリッジとは独立して並進及び/又は回転し得る。キャリッジ43はカラム37を取り囲む必要はなく、又は更には円形である必要もないが、図示されるようなリング形状は、構造的バランスを維持しながらカラム37の周りでのキャリッジ43の回転を容易にする。キャリッジ43の回転及び並進により、システム36は、内視鏡及び腹腔鏡などの医療器具を患者の異なるアクセスポイントに位置合わせすることを可能にする。他の実施形態(図示せず)では、システム36は、並行して延在するバー又はレールの形態の調整可能なアーム支持体を有する患者テーブル又はベッドを含むことができる。1つ又は2つ以上のロボットアーム39を、(例えば、肘関節を有する肩部を介して)垂直方向に調整することができる調整可能なアーム支持体に取り付けることができる。垂直方向の調節を提供することによって、ロボットアーム39は、有利には、患者テーブル又はベッドの下にコンパクトに収納されることが可能であり、その後、処置中に引き上げられることが可能である。
ロボットアーム39は、ロボットアーム39に追加の構成可能性を提供するために個別に回転及び/又は入れ子式に延在し得る一連の関節を含むアームマウント45の組を介してキャリッジ43に装着され得る。追加的に、アームマウント45は、キャリッジ43が適切に回転されると、アームマウント45がテーブル38の同じ側(図6に示すように)、テーブル38の両側(図9に示すように)、又はテーブル38の隣接する側部(図示せず)のいずれかに位置付けられ得るように、キャリッジ43上に位置付けられ得る。
カラム37は、テーブル38の支持及びキャリッジ43の垂直方向の並進のための経路を構造的に提供する。内部に、カラム37は、キャリッジ43の垂直方向の並進を誘導するための主ねじ、及び主ねじに基づくキャリッジ43の並進を機械化するためのモータを備え得る。カラム37はまた、キャリッジ43及びその上に装着されたロボットアーム39に電力及び制御信号を伝達し得る。
テーブル基部46は、図2に示すカート11のカート基部15と同様の機能を果たし、テーブル/ベッド38、カラム37、キャリッジ43、及びロボットアーム39の釣り合いをとるためにより重い構成要素を収容する。テーブル基部46はまた、処置中に安定性を提供するために剛性キャスタを組み込み得る。テーブル基部46の底部から展開されるキャスタは、基部46の両側で反対方向に延在し、システム36を移動させる必要があるときに引き込み得る。
引き続き図6を参照すると、システム36はまた、テーブルとタワーとの間でシステム36の機能を分割して、テーブルのフォームファクタ及びバルクを低減するタワー(図示せず)を含み得る。先に開示された実施形態と同様に、タワーは、処理、計算、及び制御能力、電力、流体工学、並びに/又は光学及びセンサ処理などの様々なサポート機能をテーブルに提供し得る。タワーはまた、医師のアクセスを改善し、手術室を整理整頓するために、患者から離れて位置付けられるように移動可能であり得る。追加的に、タワー内に構成要素を配置することにより、ロボットアーム39の潜在的な収納のために、テーブル基部46内により多くの保管空間を可能にする。タワーはまた、キーボード及び/又はペンダントなどのユーザ入力のためのユーザインターフェースと、リアルタイム撮像、ナビゲーション、及び追跡情報などの術前及び術中情報のための表示画面(又はタッチスクリーン)との両方を提供するマスターコントローラ又はコンソールも含み得る。いくつかの実施形態では、タワーはまた、送気のために使用されるガスタンク用のホルダを含み得る。
いくつかの実施形態では、テーブル基部は、使用されていないときにロボットアームを収納及び格納し得る。図7は、テーブルベースのシステムの実施形態におけるロボットアームを収納するシステム47を示す。システム47では、キャリッジ48は、ロボットアーム50、アームマウント51、及びキャリッジ48を基部49内に収納するために、基部49内へと垂直方向に並進され得る。基部カバー52は、並進及び後退して、キャリッジ48、アームマウント51、及びロボットアーム50をカラム53の周りに展開させるように開き、使用されていないときにそれらを収納して保護するように閉じられ得る。基部カバー52は、閉じたときに汚れ及び流体の侵入を防止するために、その開口部の縁部に沿って膜54で封止され得る。
図8は、尿管鏡検査処置のために構成されたロボット制御可能なテーブルベースのシステムの一実施形態を示す。尿管鏡検査では、テーブル38は、患者をカラム37及びテーブル基部46からオフアングルに位置付けるためのスイベル部分55を含み得る。スイベル部分55は、スイベル部分55の底部をカラム37から離すように位置付けるために、枢動点(例えば、患者の頭部の下方に配置)を中心に回転又は枢動し得る。例えば、スイベル部分55の旋回により、Cアーム(図示せず)が、テーブル38の下のカラム(図示せず)と空間を奪い合うことなく、患者の下部腹部の上方に位置付けられることを可能にする。カラム37の周りにキャリッジ35(図示せず)を回転させることにより、ロボットアーム39は、尿道に到達するように、仮想レール57に沿って、患者の鼠径部領域に尿管鏡56を直接挿入し得る。尿管鏡検査では、処置中に患者の脚の位置を支持し、患者の鼠径部領域への明確なアクセスを可能にするために、テーブル38のスイベル部分55にあぶみ58が固定され得る。
腹腔鏡検査処置では、患者の腹壁内の小さな切開部を通して、低侵襲性器具を患者の解剖学的構造に挿入し得る。いくつかの実施形態では、低侵襲性器具は、患者内の解剖学的構造にアクセスするために使用されるシャフトなどの細長い剛性部材を含む。患者の腹腔の膨張後、器具は、把持、切断、アブレーション、縫合などの外科的又は医療的タスクを実施するように方向付けられ得る。いくつかの実施形態では、器具は、腹腔鏡などのスコープを備えることができる。図9は、腹腔鏡検査処置のために構成されたロボット制御可能なテーブルベースのシステムの一実施形態を示す。図示のように、システム36のキャリッジ43は回転し、垂直方向に調整されて、器具59が患者の両側の最小切開部を通過して患者の腹腔に到達するようにアームマウント45を使用して位置付けられ得るように、ロボットアーム39の対をテーブル38の両側に位置付けられ得る。
腹腔鏡検査処置に対応するために、ロボット制御可能なテーブルシステムはまた、プラットフォームを所望の角度に傾斜し得る。図10は、ピッチ又は傾斜調整を有するロボットで使用可能な医療システムの実施形態を示す。図10に示されるように、システム36は、テーブル38の傾斜に適応して、テーブルの一方の部分を他方の部分より床から離れた距離に位置付け得る。追加的に、アームマウント45は、ロボットアーム39がテーブル38と同じ平面関係を維持するように、傾斜に一致するように回転し得る。より急な角度に適応するために、カラム37はまた、テーブル38が床に接触すること、又はテーブル基部46と衝突することを防ぐためにカラム37が垂直方向に延在するのを可能にする入れ子部分60を含み得る。
図11は、テーブル38とカラム37との間のインターフェースの詳細な図を提供する。ピッチ回転機構61は、カラム37に対するテーブル38のピッチ角を複数の自由度で変更するように構成され得る。ピッチ回転機構61は、カラム-テーブルインターフェースでの直交軸1、2の位置付けによって可能にされ得、各軸は、電気ピッチ角コマンドに応答して別個のモータ3、4によって作動される。一方のねじ5に沿った回転は、一方の軸1における傾斜調整を可能にし、他方のねじ6に沿った回転は、他方の軸2に沿った傾斜調整を可能にする。いくつかの実施形態では、カラム37に対するテーブル38のピッチ角を複数の自由度で変更するために、玉継ぎ手が使用され得る。
例えば、ピッチ調整は、テーブルをトレンデレンブルグ位置に位置付けようとするときに、すなわち下腹部手術のために患者の下腹部を患者の上腹部よりも床からより高い位置に位置付けようとするときに、特に有用である。トレンデレンブルグ位置は、重力によって患者の内臓を患者の上腹部に向かって摺動させ、低侵襲性ツールが入って腹腔鏡前立腺切除術などの下腹部の外科又は医療処置を行うために、腹腔を空にする。
図12及び図13は、テーブルベースの外科用ロボットシステム100の代替的な実施形態の等角図及び端面図を示す。外科用ロボットシステム100は、テーブル101に対して1つ又は2つ以上のロボットアームを支持するように構成され得る1つ又は2つ以上の調節可能なアーム支持体105(例えば、図14参照)を含む。図示される実施形態では、単一の調整可能なアーム支持体105が示されているが、テーブル101の反対側に追加のアーム支持体を設けることができる。調整可能アームサポート105は、テーブル101に対して移動して、調整可能アーム支持体105及び/又はテーブル101に対してそれに装着された任意のロボットアームの位置を調節及び/又は変更できるように構成され得る。例えば、調整可能なアーム支持体105は、テーブル101に対して1つ又は2つ以上の自由度で調節され得る。調整可能なアーム支持体105は、1つ又は2つ以上の調整可能なアーム支持体105及びそれに取り付けられた任意のロボットアームをテーブル101の下に容易に収納する能力を含む、システム100への高い汎用性を提供する。調整可能なアーム支持体105は、収納位置からテーブル101の上面の下の位置まで上昇させることができる。他の実施形態では、調整可能なアーム支持体105は、収納位置からテーブル101の上面の上方の位置まで上昇させることができる。
調節可能なアーム支持体105は、リフト、横方向並進、傾斜などを含む、いくつかの自由度を提供することができる。図12及び図13の図示の実施形態では、アーム支持体105は、4自由度で構成され、図12に矢印で示されている。第1の自由度は、z方向における調整可能なアーム支持体105の調節(「Zリフト」)を可能にする。例えば、調整可能なアーム支持体105は、テーブル101を支持するカラム102に沿って、又はそれに対して上下に動くように構成されたキャリッジ109を含むことができる。第2の自由度は、調整可能なアーム支持体105が傾斜することを可能にする。例えば、調整可能なアーム支持体105は、回転接合部を含むことができ、それは、調整可能なアーム支持体105を、トレンデレンブルグ位置のベッドと位置合わせすることを可能にできる。第3の自由度は、調整可能なアーム支持体105が「上方枢動する」ことを可能にすることができ、それを使用して、テーブル101の側部と調整可能なアーム支持体105との間の距離を調節することができる。第4の自由度は、テーブルの長手方向の長さに沿って調整可能なアーム支持体105の並進を可能にする。
図12及び図13の外科用ロボットシステム100は、基部103に装着されたカラム102によって支持されるテーブルを含むことができる。基部103及びカラム102は、支持面に対してテーブル101を支持する。床軸131及び支持軸133は、図13に示される。
調整可能なアーム支持体105は、カラム102に装着することができる。他の実施形態では、アーム支持体105は、テーブル101又は基部103に装着することができる。調整可能なアーム支持体105は、キャリッジ109、バー又はレールコネクタ111、及びバー又はレール107を含むことができる。いくつかの実施形態では、レール107に装着された1つ又は2つ以上のロボットアームは、互いに対して並進及び移動することができる。
キャリッジ109は、第1の接合部113によってカラム102に取り付けられ得、それにより、キャリッジ109がカラム102に対して移動することが可能になる(例えば、第1又は垂直軸123の上下など)。第1の接合部113は、調整可能なアーム支持体105に第1の自由度(「Zリフト」)を提供することができる。調整可能なアーム支持体105は、第2の自由度(傾斜)を調整可能なアーム支持体105に提供する第2の接合部115を含むことができる。調整可能なアーム支持体105は、第3の自由度(「上方枢動」)を調整可能なアーム支持体105に提供することができる第3の接合部117を含むことができる。レールコネクタ111が第3の軸127を中心にして回転させられるときにレール107の方向を維持するように第3の接合部117を機械的に拘束する、追加の接合部119(図13に示す)を設けることができる。調整可能なアーム支持体105は、第4の自由度(並進)を第4の軸129に沿って調整可能なアーム支持体105に提供することができる第4の接合部121を含むことができる。
図14は、テーブル101の両側に装着された2つの調節可能なアーム支持体105A、105Bを有する、外科用ロボットシステム140Aの端面図を示す。第1のロボットアーム142Aは、第1の調整可能なアーム支持体105Bのバー又はレール107Aに取り付けられる。第1のロボットアーム142Aは、レール107Aに取り付けられた基部144Aを含む。第1のロボットアーム142Aの遠位端部は、1つ又は2つ以上のロボット医療器具又はツールに取り付けることができる器具駆動機構146Aを含む。同様に、第2のロボットアーム142Bは、レール107Bに取り付けられた基部144Bを含む。第2のロボットアーム142Bの遠位端部は、器具駆動機構146Bを含む。器具駆動機構146Bは、1つ又は2つ以上のロボット医療器具又はツールに取り付けるように構成され得る。
いくつかの実施形態では、ロボットアーム142A、142Bのうちの1つ又は2つ以上は、7以上の自由度を有するアームを含む。いくつかの実施形態では、ロボットアーム142A、142Bのうちの1つ又は2つ以上は、挿入軸(挿入を含む1自由度)、リスト(リストピッチ、ヨー及びロールを含む3自由度)、エルボ(エルボピッチを含む1自由度)、ショルダ(ショルダピッチ及びヨーを含む2自由度)、及び基部144A、144B(並進を含む1自由度)、を含む8自由度を含むことができる。いくつかの実施形態では、挿入自由度は、ロボットアーム142A、142Bによって提供することができるが、他の実施形態では、器具自体は、器具ベースの挿入アーキテクチャを介して挿入を提供する。
C.器具ドライバ及びインターフェース
システムのロボットアームのエンドエフェクタは、(i)医療器具を作動させるための電気機械的手段を組み込む器具ドライバ(代替的に、「器具駆動機構」又は「器具デバイスマニピュレータ」と称される)と、(ii)モータなどの任意の電気機械的構成要素を欠き得る除去可能な又は取り外し可能な医療器具と、を含み得る。この二分法は、医療処置に使用される医療器具を滅菌する必要性、それらの複雑な機械的アセンブリ及び繊細な電子機器により、高価な資本設備を十分に滅菌することができないことを根拠とする場合がある。したがって、医療器具は、医師又は医師のスタッフによる個々の滅菌又は廃棄のために、器具ドライバ(したがってそのシステム)から取り外され、除去され、及び交換されるように設計され得る。対照的に、器具ドライバは、交換又は滅菌される必要がなく、保護のために掛け布され得る。
図15は、例示的な器具ドライバを示す。ロボットアームの遠位端部に位置付けられる器具ドライバ62は、駆動シャフト64を介して医療器具に制御されたトルクを提供するために平行軸を伴って配置された1つ又は2つ以上の駆動ユニット63を含む。各駆動ユニット63は、器具と相互作用するための個々の駆動シャフト64と、モータシャフトの回転を所望のトルクに変換するためのギアヘッド65と、駆動トルクを生成するためのモータ66と、モータシャフトの速度を測定し、制御回路にフィードバックを提供するエンコーダ67と、制御信号を受信し、駆動ユニットを作動させるための制御回路68と、を含む。各駆動ユニット63は独立して制御及び電動化され得、器具ドライバ62は、複数(例えば図16及び図17に示すように4つなど)の独立した駆動出力を医療器具に提供し得る。動作中、制御回路68は、制御信号を受信し、モータ66にモータ信号を送信し、エンコーダ67によって測定された結果として得られたモータ速度を所望の速度と比較し、モータ信号を変調して所望のトルクを生成する。
無菌環境を必要とする処置のために、ロボットシステムは、器具ドライバと医療器具との間に位置する、滅菌ドレープに接続された滅菌アダプタなどの駆動インターフェースを組み込み得る。滅菌アダプタの主な目的は、器具ドライバの駆動シャフトから器具の駆動入力部に角度運動を伝達する一方で、駆動シャフトと駆動入力部との間の物理的分離、したがって無菌性を維持することである。したがって、例示的な滅菌アダプタは、器具ドライバの駆動シャフトと嵌合されることが意図された一連の回転入力部及び出力部と、器具に対する駆動入力部と、を含み得る。滅菌アダプタに接続される滅菌ドレープは、透明又は半透明プラスチックなどの薄い可撓性材料で構成され、器具ドライバ、ロボットアーム、及び(カートベースのシステムにおける)カート又は(テーブルベースのシステムにおける)テーブルなどの資本設備を覆うように設計される。ドレープの使用により、滅菌を必要としない領域(すなわち、非滅菌野)に依然として位置付けられている間に、資本設備を患者に近接して位置付けることが可能となる。滅菌ドレープの反対側では、医療器具は、滅菌を必要とする領域(すなわち、滅菌野)において患者とインターフェースし得る。
D.医療器具
図16は、ペアの器具ドライバを備えた例示的な医療器具を示す。ロボットシステムと共に使用するために設計された他の器具と同様に、医療器具70は、細長いシャフト71(又は細長い本体)及び器具基部72を含む。医師による手動相互作用が意図されているその設計により「器具ハンドル」とも称される器具基部72は、概して、ロボットアーム76の遠位端において器具ドライバ75上の駆動インターフェースを通って延在する駆動出力部74と嵌合するように設計された、回転可能な駆動入力部73、例えば、レセプタクル、プーリー、又はスプールを含み得る。物理的に接続、ラッチ、及び/又は連結される場合、器具基部72の嵌合された駆動入力部73は、器具ドライバ75における駆動出力部74と回転軸を共有して、駆動出力部74から駆動入力部73へのトルクの伝達を可能とし得る。いくつかの実施形態では、駆動出力部74は、駆動入力部73上のレセプタクルと嵌合するように設計されたスプラインを含み得る。
細長いシャフト71は、例えば、内視鏡におけるような解剖学的開口部若しくは管腔、又は腹腔鏡検査におけるような低侵襲性切開部のいずれかを通して送達されるように設計される。細長いシャフト71は、可撓性(例えば、内視鏡と同様の特性を有する)若しくは剛性(例えば、腹腔鏡と同様の特性を有する)のいずれかであり得るか、又は可撓性部分及び剛性部分の両方のカスタマイズされた組み合わせを含み得る。腹腔鏡検査のために設計される場合、剛性の細長いシャフトの遠位端は、少なくとも1つの自由度を有するクレビスから形成された接合された手首から延在するエンドエフェクタ、及び駆動入力部が器具ドライバ75の駆動出力部74から受け取ったトルクに応答して回転する際に、腱からの力に基づいて作動され得る、例えば、把持具又ははさみなどの手術ツール又は医療器具に接続され得る。内視鏡検査のために設計される場合、可撓性の細長いシャフトの遠位端は、器具ドライバ75の駆動出力部74から受信したトルクに基づいて関節運動及び屈曲され得る操縦可能又は制御可能な屈曲部を含み得る。
器具ドライバ75からのトルクは、細長いシャフト71に沿った腱を使用して細長いシャフト71の下流に伝達される。プルワイヤなどのこれらの個々の腱は、器具ハンドル72内の個々の駆動入力部73に個別に固定され得る。ハンドル72から、腱は、細長いシャフト71に沿って1つ又は2つ以上のプルルーメン(pull lumen)を下方に誘導され、細長いシャフト71の遠位部分、又は細長いシャフト71の遠位部分の手首内に固定される。腹腔鏡、内視鏡、又はハイブリッド処置などの外科処置中、これらの腱は、リスト、把持具、又ははさみなどの遠位に装着されたエンドエフェクタに連結され得る。このような構成の下で、駆動入力部73に及ぼされるトルクは、腱に張力を伝達し、それによってエンドエフェクタを何らかの方法で作動させる。腹腔鏡検査では、腱は、関節を軸周りに回転させることができ、それによってエンドエフェクタをいずれかの方向に移動させる。代替的に、腱は、細長いシャフト71の遠位端で把持具の1つ又は2つ以上のジョーに接続され得、腱からの張力によって把持具が閉鎖される。
内視鏡検査では、腱は、接着剤、制御リング、又は他の機械的固定を介して、細長いシャフト71に沿って(例えば、遠位端部に)位置付けられている屈曲部又は関節運動部に連結され得る。屈曲部の遠位端部に固定的に取り付けられる場合、駆動入力部73に及ぼされるトルクは、腱の下流に伝達され、より軟質の屈曲部(関節運動可能部又は関節運動可能領域と称されることがある)を屈曲又は関節運動させる。非屈曲部分に沿って、個々の腱を内視鏡シャフトの壁に沿って(又は内側に)指向する個々のプルルーメンをねじ状又は渦巻状にして、プルワイヤにおける張力からもたらされる半径方向の力の釣り合いをとることが有利であり得る。これらの間のねじ及び/又は間隔の角度は、特定の目的のために変更又は設計され得、より狭いねじは負荷力下でより小さいシャフト圧縮を呈する一方で、より少ない量のねじは負荷力下でより大きなシャフト圧縮をもたらすが、屈曲をより制限する。スペクトルの他方の端部では、プルルーメンは、細長いシャフト71の長手方向軸に平行に方向付けられて、所望の屈曲部又は関節運動可能部における制御された関節運動を可能にし得る。
内視鏡検査では、細長いシャフト71は、ロボット処置を支援するいくつかの構成要素を収容する。シャフト71は、シャフト71の遠位端部における手術領域に対して外科用ツール(又は医療器具)を展開、灌注、及び/又は吸引するための作業チャネルを含み得る。シャフト71はまた、光学カメラを含み得る遠位先端部の光学アセンブリとの間で信号の授受を行うために、ワイヤ及び/又は光ファイバを収容し得る。シャフト71はまた、発光ダイオードなどの近位に位置する光源からシャフト71の遠位端部に光を搬送するための光ファイバを収容し得る。
器具70の遠位端部では、遠位先端部は、診断及び/又は治療、灌注、及び吸引のためにツールを手術部位に送達するための作業チャネルの開口部を含み得る。遠位先端部はまた、内部解剖学的空間の画像をキャプチャするために、ファイバスコープ又はデジタルカメラなどのカメラのためのポートを含み得る。関連して、遠位先端部はまた、カメラを使用する場合に解剖学的空間を照明するための光源用のポートを含み得る。
図16の例では、駆動シャフト軸、すなわち駆動入力軸は、細長いシャフト71の軸に直交する。しかしながら、この配置は、細長いシャフト71のロール能力を複雑にする。駆動入力部73を静止させながら、細長いシャフト71をその軸に沿ってロールさせることにより、腱が駆動入力部73から延在し、細長いシャフト71内のプルルーメンに入るときに、腱の望ましくない絡まりをもたらす。結果として生じるそのような腱の絡まりは、内視鏡検査処置中に可撓性の細長いシャフト71の移動を予測することが意図される任意の制御アルゴリズムを妨害することがある。
図17は、駆動ユニットの軸が器具の細長いシャフトの軸に平行である、器具ドライバ及び器具の代替的な設計を示す。示されるように、円形の器具ドライバ80は、ロボットアーム82の端部において平行に位置合わせされた駆動出力部81を備える4つの駆動ユニットを含む。駆動ユニット及びそれらのそれぞれの駆動出力部81は、アセンブリ83内の駆動ユニットのうちの1つによって駆動される器具ドライバ80の回転アセンブリ83内に収容される。回転駆動ユニットによって提供されるトルクに応答して、回転アセンブリ83は、回転アセンブリ83を器具ドライバ80の非回転部分84に接続する円形ベアリングに沿って回転する。電力及び制御信号は、ブラシ付きスリップリング接続(図示せず)による回転を通して維持され得る電気接点を介して、器具ドライバ80の非回転部分84から回転アセンブリ83に伝達され得る。他の実施形態では、回転アセンブリ83は、非回転可能部分84に一体化され、したがって他の駆動ユニットと平行ではない別個の駆動ユニットに応答し得る。回転機構83は、器具ドライバ80が、器具ドライバ軸85周りの単一ユニットとして、駆動ユニット及びそれらのそれぞれの駆動出力部81を回転させることを可能にする。
先に開示した実施形態と同様に、器具86は、細長いシャフト部分88と、器具ドライバ80内の駆動出力部81を受け入れるように構成された複数の駆動入力部89(レセプタクル、プーリー、及びスプールなど)を含む器具基部87(説明目的のために透明な外部スキンで示される)と、を含み得る。先の開示された実施形態とは異なり、器具シャフト88は、器具基部87の中心から延在し、軸は駆動入力部89の軸に実質的に平行であり、図16の設計にあるように直交してはいない。
器具ドライバ80の回転アセンブリ83に連結されると、器具基部87及び器具シャフト88を含む医療器具86は、器具ドライバ軸85を中心にして回転アセンブリ83と一緒に回転する。器具シャフト88は器具基部87の中心に位置付けられているため、器具シャフト88は、取り付けられたときに器具ドライバ軸85と同軸である。したがって、回転アセンブリ83の回転により、器具シャフト88は、それ自体の長手方向軸を中心に回転する。更に、器具基部87が器具シャフト88と共に回転すると、器具基部87内の駆動入力部89に接続されたいずれかの腱は、回転中に絡まらない。したがって、駆動出力部81、駆動入力部89、及び器具シャフト88の軸の平行性は、制御腱を絡めることなくシャフト回転を可能にする。
図18は、いくつかの実施形態による、器具ベースの挿入アーキテクチャを有する器具を示す。器具150は、上述の器具ドライバのいずれかに連結することができる。器具150は、細長いシャフト152と、シャフト152に接続されたエンドエフェクタ162と、シャフト152に連結されたハンドル170と、を含む。細長いシャフト152は、近位部分154及び遠位部分156を有する管状部材を含む。細長いシャフト152は、その外側表面に沿った1つ又は2つ以上のチャネル又は溝158を含む。溝158は、1つ又は2つ以上のワイヤ又はケーブル180をそれを通して受け入れるように構成されている。したがって、1つ又は2つ以上のケーブル180は、細長いシャフト152の外側表面に沿って延びる。他の実施形態では、ケーブル180は、細長いシャフト152を通って延びることもできる。ケーブル180のうちの1つ又は2つ以上の操作(例えば、器具ドライバを介して)により、エンドエフェクタ162の作動がもたらされる。
器具基部とも称され得る器具ハンドル170は、一般に、器具ドライバの取り付け面上で1つ又は2つ以上のトルクカプラと往復嵌合するように設計された1つ又は2つ以上の機械的入力部174、例えばレセプタクル、プーリー又はスプールを有する取り付けインターフェース172を含むことができる。
いくつかの実施形態では、器具150は、細長いシャフト152がハンドル170に対して並進することを可能にする一連のプーリー又はケーブルを含む。換言すれば、器具150自体は器具の挿入に適応する器具ベースの挿入アーキテクチャを含み、それによって器具150の挿入を提供するためにロボットアームへの依存を最小化する。他の実施形態では、ロボットアームは、器具の挿入に大きく関与し得る。
E.コントローラ
本明細書に記載の任意のロボットシステムは、ロボットアームに取り付けられた器具を操作するための入力デバイス又はコントローラを含むことができる。いくつかの実施形態では、コントローラは、器具と連結(例えば、通信的に、電子的に、電気的に、無線的に、及び/又は機械的に)することができ、それによりコントローラの操作は、例えば、マスタースレーブ制御を介して、器具の対応する操作を引き起こす。
図19は、コントローラ182の実施形態の斜視図である。本実施形態では、コントローラ182は、インピーダンス制御及びアドミタンス制御の両方を有することができるハイブリッドコントローラを含む。他の実施形態では、コントローラ182は、インピーダンス又は受動的制御だけを利用することができる。他の実施形態では、コントローラ182は、アドミタンス制御だけを利用することができる。ハイブリッドコントローラであることにより、コントローラ182は、有利には、使用中、より低い知覚慣性を有することができる。
図示される実施形態では、コントローラ182は、2つの医療器具の操作を可能にするように構成され、2つのハンドル184を含む。ハンドル184の各々は、ジンバル186に接続されている。各ジンバル186は、位置付けプラットフォーム188に接続されている。
図19に示されるように、各位置付けプラットフォーム188は、プリズム接合部196によってカラム194に連結されたSCARAアーム(selective compliance assembly robot arm)198を含む。プリズム接合部196は、(例えば、レール197に沿って)カラム194に沿って並進して、ハンドル184の各々がz方向に並進され、第1の自由度を提供するように構成されている。SCARAアーム198は、x-y平面におけるハンドル184の動作を可能にし、2つの更なる自由度を提供するように構成されている。
いくつかの実施形態では、1つ又は2つ以上のロードセルがコントローラ内に位置付けられる。例えば、いくつかの実施形態では、ロードセル(図示せず)は、ジンバル186の各々の本体内に位置付けられる。ロードセルを設けることによって、コントローラ182の一部分は、アドミタンス制御下で動作することができ、それによって、使用中にコントローラの知覚慣性を有利に低減する。いくつかの実施形態では、位置付けプラットフォーム188はアドミタンス制御用に構成され、一方、ジンバル186はインピーダンス制御用に構成されている。他の実施形態では、ジンバル186はアドミタンス制御用に構成され、位置付けプラットフォーム188はインピーダンス制御用に構成されている。したがって、いくつかの実施形態では、位置付けプラットフォーム188の並進又は位置自由度は、アドミタンス制御に依存し得、一方、ジンバル186の回転自由度はインピーダンス制御に依存する。
F.ナビゲーション及び制御
従来の内視鏡検査は、オペレータである医師に腔内誘導を提供するために、蛍光透視法(例えば、Cアームを通して送達され得るような)、及び他の形態の放射線ベースの撮像モダリティの使用を伴い得る。対照的に、本開示によって企図されるロボットシステムは、放射線への医師の曝露を低減し、手術室内の機器の量を低減するために、非放射線ベースのナビゲーション及び位置特定手段を提供することができる。本明細書で使用するとき、「位置特定」という用語は、基準座標系内のオブジェクトの位置を判定及び/又は監視することを指し得る。術前マッピング、コンピュータビジョン、リアルタイムEM追跡、及びロボットコマンドデータなどの技術は、放射線を含まない動作環境を達成するために個別に又は組み合わせて使用され得る。放射線ベースの撮像モダリティが依然として使用される他の場合、術前マッピング、コンピュータビジョン、リアルタイムEM追跡、及びロボットコマンドデータは、放射線ベースの撮像モダリティによってのみ取得される情報を改善するために、個別に又は組み合わせて使用され得る。
図20は、例示的な実施形態にかかる、器具の場所など、ロボットシステムの1つ又は2つ以上の要素の場所を推定する位置特定システム90を示すブロック図である。位置特定システム90は、1つ又は2つ以上の命令を実行するように構成されている1つ又は2つ以上のコンピュータデバイスの組であってもよい。コンピュータデバイスは、上で考察された1つ又は2つ以上の構成要素内のプロセッサ(又は複数のプロセッサ)及びコンピュータ可読メモリによって具現化され得る。例として、限定するものではないが、コンピュータデバイスは、図1に示されるタワー30内にあっても、図1~図4に示されるカート11内にあっても、図5~図14に示されるベッド内にあってもよい。
図20に示されるように、位置特定システム90は、入力データ91~94を処理して医療器具の遠位先端部の場所データ96を生成する位置特定モジュール95を含み得る。場所データ96は、基準系に対する器具の遠位端部の場所及び/又は配向を表すデータ又は論理であってもよい。基準系は、患者の解剖学的構造、又はEM場発生器(EM場発生器についての以下の考察を参照)などの既知の物体に対する基準系とすることができる。
ここで、様々な入力データ91~94についてより詳細に説明する。術前マッピングは、低用量CTスキャンの群を使用して達成され得る。術前CTスキャンは、例えば、患者の内部解剖学的構造の断面図の「スライス」として可視化される三次元画像へと再構成される。全体として分析される場合、患者の肺網などの患者の解剖学的構造の解剖学的空腔、空間、及び構造のための画像ベースのモデルが生成され得る。中心線形状(center-line geometry)などの手法をCT画像から判定及び近似して、モデルデータ91(術前CTスキャンのみを使用して生成された場合は「術前モデルデータ」とも称される)と称される患者の解剖学的構造の三次元ボリュームを作成し得る。いくつかの実施形態では、術前モデルデータ91は、例えば、蛍光透視法、磁気共鳴撮像法(magnetic resonance imaging、MRI)、超音波撮像、及び/又はX線からのデータを含み得る。中心線形状の使用は、米国特許出願第14/523,760号で考察されており、その内容はその全体が本明細書に組み込まれる。ネットワーク位相モデルもまた、CT画像から導出され得、気管支鏡検査に特に適している。
いくつかの実施形態では、器具はカメラを装備して、視覚データ(又は画像データ)92を提供し得る。位置特定モジュール95は、視覚データ92を処理して、1つ又は2つ以上の視覚ベースの(又は画像ベースの)位置追跡モジュール又は機能を有効にし得る。例えば、術前モデルデータ91は、医療器具(例えば、内視鏡又は内視鏡の作業チャネルを通って前進する器具)のコンピュータビジョンベースの追跡を可能にするために、視覚データ92と共に使用され得る。例えば、術前モデルデータ91を使用して、ロボットシステムは、内視鏡の予想される移動経路に基づいて、モデルから、予測される内視鏡画像のライブラリを生成し得、各画像はモデル内の場所にリンクされる。手術中に、このライブラリは、カメラ(例えば、内視鏡の遠位端部でのカメラ)でキャプチャされたリアルタイム画像を画像ライブラリ内のものと比較して、位置特定を支援するために、ロボットシステムによって参照され得る。
他のコンピュータビジョンベースの追跡技術は、追跡機能を使用して、カメラ、したがって内視鏡の動作を判定する。位置特定モジュール95のいくつかの特徴は、解剖学的管腔に対応する術前モデルデータ91内の円形幾何学形状を特定し、それらの幾何学的形状の変化を追跡して、どの解剖学的管腔が選択されたか、並びにカメラの相対的な回転及び/又は並進運動を判定し得る。位相マップの使用は、視覚ベースのアルゴリズム又は技術を更に向上させ得る。
光学フロー、別のコンピュータビジョンベースの技術は、カメラの移動を推測するために、視覚データ92内のビデオシーケンス内の画像ピクセルの変位及び並進を分析し得る。光学フロー技術の例としては、動き検出、オブジェクトセグメンテーション計算、輝度、動き補償符号化、立体視差測定などを挙げることができる。複数の反復にわたり複数のフレームを比較することにより、カメラ(及びしたがって内視鏡)の動き及び位置が判定され得る。
位置特定モジュール95は、リアルタイムEM追跡を使用して、術前モデルによって表される患者の解剖学的構造に登録され得るグローバル座標系内に、内視鏡のリアルタイムの場所を生成し得る。EM追跡では、医療器具(例えば、内視鏡器具)内の1つ又は2つ以上の位置及び配向に埋め込まれた1つ又は2つ以上のセンサコイルを含むEMセンサ(又はトラッカー)は、既知の位置に位置付けられた1つ又は2つ以上の静的EM場発生器によって生成されるEM場の変動を測定する。EMセンサによって検出された位置情報は、EMデータ93として記憶される。EM場発生器(又は送信機)は、埋め込まれたセンサが検出し得る低強度磁場を生成するために、患者に近接して配置され得る。磁場はEMセンサのセンサコイル内に小さな電流を誘導し、EMセンサとEM場発生器との間の距離及び角度を判定するためにこの電流が分析され得る。これらの距離及び配向は、患者の解剖学的構造の術前モデル内の位置と座標系内の単一の場所を位置合わせする幾何学的変換を判定するために、患者の解剖学的構造(例えば、術前モデル)に術中「登録」され得る。一旦登録されると、医療器具の1つ又は2つ以上の位置(例えば、内視鏡の遠位先端部)に埋め込まれたEMトラッカは、患者の解剖学的構造を通る医療器具の進行のリアルタイム表示を提供し得る。
ロボットコマンド及び運動学データ94はまた、ロボットシステムのための位置特定データ96を提供するために、位置特定モジュール95によって使用され得る。関節運動コマンドから生じるデバイスピッチ及びヨーは、術前較正中に判定され得る。術中、これらの較正測定値は、既知の挿入深度情報と組み合わせて使用されて、器具の位置を推定し得る。代替的に、これらの計算は、EM、視覚、及び/又は位相モデリングと組み合わせて分析して、ネットワーク内の医療器具の位置を推定し得る。
図20が示すように、多くの他の入力データは、位置特定モジュール95によって使用することができる。例えば、図20には示していないが、形状感知ファイバを利用する器具は、位置特定モジュール95が器具の場所及び形状を判定するために使用し得る形状データを提供することができる。
位置特定モジュール95は、入力データ91~94を組み合わせて使用し得る。場合によっては、このような組み合わせは、位置特定モジュール95が入力データ91~94の各々から判定された位置に信頼重みを割り当てる確率的アプローチを使用し得る。したがって、EMデータが信頼でき得ない場合(EM干渉が存在する場合など)、EMデータ93によって判定された場所の信頼性を低下させることになり、位置特定モジュール95は、視覚データ92並びに/又はロボットコマンド及び運動学データ94により重く依存し得る。
上で考察されるように、本明細書で考察されるロボットシステムは、上述の技術のうちの1つ又は2つ以上の組み合わせを組み込むように設計され得る。タワー、ベッド、及び/又はカートに基づいて、ロボットシステムのコンピュータベースの制御システムは、例えば、永続的な磁気記憶ドライブ、ソリッドステートドライブなどの非一時的コンピュータ可読記憶媒体内に、コンピュータプログラム命令を記憶し得、コンピュータプログラム命令は、実行されると、システムに、センサデータ及びユーザコマンドを受信及び分析させ、システム全体の制御信号を生成させ、グローバル座標系内の器具の位置、解剖学的マップなどのナビゲーション及び位置特定データを表示させる。
II.管腔ネットワークのナビゲーション
上述の様々なロボットシステムを使用して、内視鏡処置及び腹腔鏡検査処置などの様々な医療処置を行うことができる。いくつかの処置では、ロボット制御式の医療器具などの医療器具が患者の体内に挿入される。患者の体内で、器具は、患者の管腔ネットワーク内に位置付けられ得る。本明細書で使用するとき、「管腔ネットワーク」という用語は、(例えば、肺などにおける複数の分枝管腔若しくは血管などの)複数の管腔若しくは枝、又は(例えば、消化管内などの)単一の管腔若しくは枝を含むかどうかに関わらず、体内の任意の空洞構造を指す。処置中、器具は、管腔ネットワークを通って1つ又は2つ以上の対象領域に移動(例えば、ナビゲート、誘導、駆動など)され得る。システムを通る器具の移動は、ロボットシステムを制御する医師に器具に関する位置情報を提供することができる上述のナビゲーション又は位置特定システム90によって支援され得る。
図21は、患者の例示的な管腔ネットワーク130を示す。図示の実施形態では、管腔ネットワーク130は、患者の肺の経路151の気管支ネットワーク(すなわち、管腔、枝)である。図示の管腔ネットワーク130は、患者の肺内の気道の気管支網であるが、本開示は、図示の例のみに限定されない。本明細書に記載のロボットシステム及び方法は、気管支網、腎臓網、心血管網(例えば、動脈及び静脈)、消化管、尿路などの任意の種類の管腔ネットワークをナビゲートするために使用され得る。
図示のように、管腔ネットワーク130は、枝構造内に位置付けられている複数の経路151を備える。一般に、管腔ネットワーク130は、三次元構造を含む。説明を容易にするために、図21は、管腔ネットワーク130を二次元構造として表す。これは、本開示を二次元管腔ネットワークに限定するものと解釈されるべきではない。
図21は、管腔ネットワーク130内に位置付けられている医療器具の一例も示す。医療器具は、診断及び/又は治療のために、管腔ネットワーク130を通って対象領域(例えば、小結節155)に向かってナビゲートされる。図示の例では、小結節155は経路151の周辺に位置しているが、対象領域は、患者及び処置に応じて、管腔ネットワーク130内のどの場所にも位置付けられ得る。
図示される例では、医療器具は、内視鏡116を備える。内視鏡116は、シース120及びリーダ145を含み得る。いくつかの実施形態では、シース120及びリーダ145は、入れ子式に配置され得る。例えば、リーダ145は、シース120の作業チャネルの内側に摺動可能に位置付けられ得る。シース120は第1の直径を有し得、その遠位端部は、小結節155周辺のより小さな直径の経路151を通して位置付けることができない場合がある。したがって、リーダ145は、シース120の作業チャネルから、小結節155までの残りの距離だけ延伸するように構成され得る。リーダ145は、器具、例えば生検針、細胞ブラシ、及び/又は組織サンプリング鉗子を小結節155の標的組織部位まで通すことができる管腔を有し得る。そのような実装態様では、シース120の遠位端部及びリーダ145の遠位端部のどちらにも、経路151内のそれらのそれぞれの位置を追跡するためのEM器具センサ(例えば図23のEM器具センサ305など)を設けることができる。シース120及びリーダ145のこの入れ子式構成は、内視鏡116をより薄く設計することを可能にし得、シース120を介して構造を支持しながら内視鏡116の曲げ半径を改善し得る。
他の実施形態では、内視鏡116の全体の直径は、入れ子式構成でなくても周辺部に到達できる程度に十分に小さいか、又は、(例えば、約2.5~3cm以内など)周辺に接近して、操縦不可能なカテーテルを通して医療器具を展開できる程度に十分に小さくてもよい。内視鏡116を通して展開される医療器具に、EM器具センサ(例えば、図23のEM器具センサ305)が設けられ得、また、以下に説明する画像ベースの経路分析及びマッピング技術が、このような医療器具に適用され得る。
図示のように、小結節155に到達するためには、器具(例えば、内視鏡116)は、管腔ネットワークの経路151を通ってナビゲート又は誘導されなければならない。操作者(医師など)は、ロボットシステムを制御して、器具を小結節155にナビゲートすることができる。操作者は、ロボットシステムを制御するための入力を提供することができる。
図22は、本明細書に記載のロボットシステムのいくつかの実装態様と共に使用することができる例示的なコマンドコンソール200を示す。操作者は、例えば、ロボットシステムを制御するための入力を提供して、コマンドコンソール200を介して小結節155などの対象領域に器具をナビゲート又は誘導することができる。コマンドコンソール200は、多種多様な配置又は構成で具現化することができる。図示の例では、コマンドコンソール200は、コンソール基部201、ディスプレイ202(例えばモニタ)及び1つ又は2つ以上の制御モジュール(例えば、キーボード203及びジョイスティック204)を含む。ユーザ205(例えば、医師又は他の操作者)は、コマンドコンソール200を使用して、人間工学的位置から医療用ロボットシステム(例えば、図1~図20を参照して説明したシステム)を遠隔制御することができる。
ディスプレイ202としては、電子モニタ(例えば、液晶ディスプレイ、LEDディスプレイ、タッチセンシティブディスプレイ)、仮想現実視覚デバイス(例えばゴーグル若しくは眼鏡)、及び/又は他のディスプレイデバイスが挙げられ得る。いくつかの実施形態では、ディスプレイ202のうちの1つ又は2つ以上は、例えば、位置特定システム90(図20)によって判定された、器具に関する位置情報を表示する。いくつかの実施形態では、ディスプレイ202のうちの1つ又は2つ以上は、患者の管腔ネットワーク130の術前モデルを表示する。位置情報は、術前モデルに重ね合わせることができる。ディスプレイ202はまた、管腔ネットワーク130内の器具上に位置付けられたカメラ又は別の感知デバイスから受信した画像情報を表示することもできる。いくつかの実施形態では、器具のモデル又は表現が術前モデルと共に表示されて、外科処置又は医療処置の状態を示す助けとなる。
いくつかの実施形態では、コンソール基部201は、中央処理ユニット(例えば、CPU又はプロセッサ)と、メモリユニット(例えば、コンピュータ可読メモリ)と、データバスと、例えば、患者の管腔ネットワーク内に位置付けられた医療器具から、カメラ画像及び追跡センサデータなどの信号を解釈及び処理する役割を担う関連データ通信ポートと、を含む。
コンソール基部201はまた、ユーザ205によって制御モジュール203、204を通じて提供されるコマンド及び命令を処理し得る。図22に示されるキーボード203及びジョイスティック204に加えて、制御モジュールは、コンピュータマウス、トラックパッド、トラックボール、制御パッド、ハンドヘルドリモートコントローラなどのコントローラ、並びにハンドジェスチャ及び指ジェスチャをキャプチャするセンサ(例えば、モーションセンサ又はカメラ)などの他のデバイスを含み得る。コントローラは、器具の動作(例えば、関節運動、駆動、灌水など)にマッピングされた一組のユーザ入力(例えば、ボタン、ジョイスティック、方向パッドなど)を含むことができる。コマンドコンソール200の制御モジュール203、204を使用して、ユーザ205は、管腔ネットワーク130を通して器具をナビゲートすることができる。
図23は、例示的な医療器具300の遠位端部の詳細図である。医療器具300は、図21の内視鏡116又はリーダ145を表し得る。医療器具300は、図1の内視鏡13、図3の尿管鏡32、図9の腹腔鏡59などの、本開示全体を通して説明される任意の医療器具を表し得る。図23では、器具300の遠位端部は、撮像デバイス315、照明源310及び、EM器具センサを形成するEMセンサコイル305の端部を含む。遠位端は、器具300の作業チャネル320への開口部を更に含み、この開口部を通して、生検針、細胞学的ブラシ、鉗子などの外科用器具が器具シャフトに沿って挿入され、器具先端付近の領域へのアクセスを可能にし得る。
器具300の遠位端上に配置されたEMコイル305をEM追跡システムと共に使用して、管腔ネットワーク内に位置付けられている間の器具300の遠位端の位置及び配向を検出し得る。いくつかの実施形態では、コイル305は、異なる軸に沿ったEM場に対する感度を提供するように角度付けられ、開示されたナビゲーションシステムに、6つの自由度(degrees of freedom、DoF)、すなわち3つの位置DoF及び3つの角度DoFの全てを測定する能力を与え得る。他の実施形態では、単一のコイル305のみが遠位端の上又は中に配置され、その軸が器具のシャフトに沿って配向され得る。そのようなシステムの回転対称性のために、軸を中心とした回転は感知できない場合があり、そのような実装態様においては、5つの自由度だけが検出され得る。代替的に又は追加的に、他の種類の位置センサが用いられ得る。
照明源310は、解剖学的空間の一部を照明するための光を提供する。照明源310は、それぞれ、選択された波長又は波長範囲の光を放射するように構成された1つ又は2つ以上の発光デバイスであり得る。波長は、2~3例を挙げると、例えば、可視スペクトル光、赤外光、(例えば蛍光透視法用の)X線などの任意の好適な波長であってもよい。いくつかの実施形態では、照明源310は、器具300の遠位端に配置された発光ダイオード(LED)を含むことができる。いくつかの実施形態では、照明源310は、内視鏡の長さを通って延在し、例えばX線発生器などの遠隔光源からの光を遠位端を通して透過させることができる、1つ又は2つ以上の光ファイバを含む。遠位端が複数の照明源310を含む場合、これらはそれぞれ、互いに同じ又は異なる波長の光を放射するように構成することができる。
撮像デバイス315は、受信した光を表すエネルギーを電気信号、例えば、電荷結合素子(charge-coupled device、CCD)又は相補型金属酸化膜半導体(complementary metal-oxide semiconductor、CMOS)画像センサに変換するように構成された任意の感光性基板又は構造を含み得る。撮像デバイス315のいくつかの例は、内視鏡の遠位端300から内視鏡の近位端付近の接眼レンズ及び/又は画像センサに画像を表す光を送信するように構成された、例えば、光ファイバ束などの1つ又は2つ以上の光ファイバを含むことができる。撮像デバイス315は、様々な光学設計の必要に応じて、1つ若しくは2つ以上のレンズ及び/又は波長通過フィルタ若しくは波長遮断フィルタを更に含むことができる。照明源310から放射された光は、撮像デバイス315が患者の管腔ネットワークの内部の画像をキャプチャすることを可能にする。これらの画像は次いで、個々のフレーム又は一連の連続するフレーム(例えば、ビデオ)として、コマンドコンソール200などのコンピュータシステムに送信され得る。上述のように、また以下でより詳細に説明するように、撮像デバイス315によってキャプチャされた画像(例えば、図20の視覚データ92)は、ナビゲーション又は位置特定システム95によって、管腔ネットワーク内での器具の位置(例えば、器具300の遠位先端部の位置)を判定又は推定するために利用され得る。
III.画像管理。
本開示の実施形態は、経路(例えば、気道)分析及び/又はマッピング中に得た画像管理のためのシステム及び技術に関する。画像管理は、本明細書に記載のように、内視鏡から得られた画像を特定、分析、フィルタリング、利用、及び/又は修正することを指し得る。例えば、画像管理システムは、管腔ネットワーク内の器具上に位置付けられている撮像デバイスを使用して、管腔ネットワークの内部の画像をキャプチャすることができ、画像ベースの経路分析システムは、画像を分析して、画像に示される1つ又は2つ以上の気道を特定し得る。画像管理システムは、術前モデルデータ(例えば、機械学習アルゴリズムからトレーニングされたモデル)を使用して、画像の管理を支持し得る。例えば、画像管理システムは、十分に信頼できる、明確な、及び/又は他の品質画像に対応する所与の管腔ネットワークの画像を特定するように構成され得る。いくつかの実装態様では、これらのシステム及び技術は、(例えば、図20を参照して上述したように)様々な他のナビゲーション及び位置特定モダリティと共に使用され得る。
A.画像解析
医療処置中、画像は、医療器具の撮像デバイス(例えば、内視鏡)からディスプレイ及び/又はメモリデバイスに転送され得る。内視鏡画像デバイスは、ナビゲーション中に臨床医に直視下知覚を提供する。追加的又は代替的に、画像は、(例えば、位置特定モジュール95を使用して)管腔ネットワーク内の医療デバイスの位置を判定するために、処理アルゴリズムによって分析され得る。しかしながら、内視鏡検査中にキャプチャされた画像、特に無情報である画像は、解釈することが困難であり得る。内視鏡検査では、非情報画像は、例えば、速いカメラの動きによるものであり得る、高度の流体アーチファクト、鏡面反射、及び/又はぼやけ(又は不鮮明さ)を提示する画像を含み得る。これらの無益な画像を自動的に特定するためのコンピュータ化されたアルゴリズムから、臨床医は恩恵を受けるであろう。例えば、そのような画像は、無情報、信頼性がない、及び/又は低品質として廃棄及び/又はラベル付けされ得る。臨床医はまた、本明細書に記載の後続の画像処理アルゴリズムから恩恵を受けることができる。画像管理システムは、有利には、ユーザ(例えば、外科医、医療従事者など)が、撮像デバイスから取得され得る非有用な画像を回避することを可能にする。追加的又は代替的に、システムは、コンピュータ化されたアルゴリズムが、管腔ネットワーク内の医療器具の位置をより良好に判定することを可能にすることができる。
管腔ネットワーク内部をナビゲートする能力は、本明細書に記載のロボット制御式の外科用システムの特徴であり得ると共に、位置特定を伴い得る。本明細書で使用するとき、位置特定は、管腔ネットワーク内の器具の位置を特定又は判定することを指し得る。判定された位置は、器具を管腔ネットワーク内の1つ又は2つ以上の特定の対象領域に誘導するのを補助するために使用され得る。いくつかの実施形態では、ロボット制御式の外科用システムは、器具の術中ナビゲーションを提供するために、1つ又は2つ以上の独立した感知モダリティを利用する。図20に示すように、独立した感知モダリティは、位置データ(例えば、EMデータ93)、視覚データ92、及び/又はロボットコマンド及び運動学データ94を提供することができる。これらの独立した感知モダリティは、独立した推定位置を提供するように構成された推定モジュールを含み得る。次いで、独立した推定結果は、例えば、位置特定モジュール95を使用して、システムによって使用することができる、又はユーザに表示することができる、1つのナビゲーション出力へと組み合わされ得る。画像ベースの気道分析及びマッピングは、視覚データ92に基づいて、独立した推定位置を提供することができる独立した感知モダリティを提供することができる。特に、いくつかの場合には、画像ベースの気道分析及びマッピングは、感知モダリティと、器具の撮像デバイスが管腔ネットワークのどの管腔又は枝に位置しているのかを、撮像デバイスによってキャプチャされた1つ又は2つ以上の画像に基づいて推定する状態/位置推定モジュールとの組み合わせを提供する。いくつかの実施形態では、画像ベースの気道分析及びマッピングによって提供される推定結果を、単独で、又は他の推定位置と共に使用して、システムによって使用することができる、又はユーザに表示することができる、最終的な推定位置を判定し得る。いくつかの実施形態では、本明細書に記載の画像ベースの経路分析及びマッピングシステム及び方法は、複数の感知モダリティを使用して計算された過去の推定位置に基づいてその推定を行い得る。したがって、より高い品質及び/又はより信頼性の高い画像は、初期及びその後の位置推定プロセスを支持及び改良することができる。画像管理システム及び方法は、本明細書に記載の他の画像処理システム及び方法を補完することができる。無情報及び/又は信頼性がない画像を特定することにより、更なる処理からそれらを除去することができ、したがって、その後の処理の必要性を低減し、非有用な、又は不正確な結果の数を潜在的に低減する(例えば、不十分な画質のため)。
画像管理は、管腔ネットワーク内に位置付けられている器具の撮像デバイス315によってキャプチャされた1つ又は2つ以上の画像管理画像を分析して、画像内の1つ又は2つ以上の気道を検出することを含み得る。図24は、管腔ネットワークの枝の内部の例示的な画像380を示す。図示の例では、画像380は肺の経路の内部画像であるが、画像380は、任意の種類の管腔ネットワークを表すことができる。2つの後続の気道384が画像380に示されている。気道384は、画像がキャプチャされた現在の気道に接続されている。
B.例示的な画像管理方法及びシステム
図24とは対照的に、いくつかの画像は、(人間及び/又はコンピュータアルゴリズムに対して)十分にクリア又は信頼性がない場合がある。したがって、画像管理システムは、明確で信頼性の高い、及び/又はそうでなければ高品質の画像を特定及び利用するために有利に採用され得る。図25は、分析システム410及び医療機器420を含む例示的な画像管理システム400を示す。分析システム410は、医療器具に結合され得る。例えば、分析システム410は、医療器具420に電子的に接続され得る。いくつかの構成では、分析システム410及び医療器具420は、同じハウジング内に収容される。
分析システム410は、コンピュータ可読メモリ412及び1つ又は2つ以上のプロセッサ414を含み得る。メモリ412は、非一時的であり得、プロセッサによって実行されるときに画像管理システム400に様々な機能を実行させるように構成された実行可能な命令を含み得る。1つ又は2つ以上のプロセッサ414は、メモリ412と通信することができ、本明細書に記載の様々な機能を実行するための命令を実行するように構成され得る。例として、限定するものではないが、メモリ412及び/又はプロセッサ414は、図1に示されるタワー30内にあっても、図1~図4に示されるカート11内にあっても、図5~図14に示されるベッド内にあってもよい。
医療器具420は、器具基部422、細長い本体424、及び/又は撮像デバイス428を含み得る。医療器具420は、図21の内視鏡116、図23の医療器具300、図1の内視鏡13、図3の尿管鏡32、図9のラパロスコープ59などのいくつかの機能性を共有し得る。
医療器具420は、器具基部422に結合された細長い本体424を含み得る。細長い本体424の遠位端部(例えば、遠位先端部)は、撮像デバイス428を含み得る。細長い本体424の遠位端部は、追加的又は代替的に、管腔ネットワークを照明するように構成された1つ又は2つ以上の照明源(図示せず)を含み得る。本明細書に記載の他の医療器具と同様に、細長い本体424の遠位端部は、外科用器具420の作業チャネルへの開口部を更に含むことができ、これにより、外科用器具が器具シャフトに沿って及び/又は器具シャフト内に挿入され得、器具先端部の近くの管腔ネットワークの領域へのアクセスを可能にする。撮像デバイス428は、撮像デバイス315に関して上述した様々な機能を含み得る。
図26は、本明細書に記載の医療システムと組み合わせて使用することができるマッピングシステム450を示す。マッピングシステム450は、仮想ビュー生成器モジュール462、記述子抽出モジュール466、画像品質検出器474、記述子抽出モジュール478、及び/又は記述子整合モジュール482を含み得る。アルゴリズムの第1のセットは、仮想ビュー生成器モジュール462及び/又は記述子抽出モジュール466を含むことができ、他のアルゴリズムが1つ又は2つ以上の画像センサ(例えば、カメラ画像データ470)から取得された画像データ内の特徴を特定するのを助けるために使用され得る仮想(例えば、コンピュータ生成、シミュレート、人工、など)画像を生成及び分析することができる。第1の組のアルゴリズムは、例えば、医療処置の前に、CTモデル454及び/又はナビゲーション融合データ458に適用され得る。したがって、記述子抽出モジュール466からの出力は、術前データとして記憶することができる。
マッピングシステム450は、CTモデル454、ナビゲーション融合データ458、及び/又はカメラ画像データ470を含むデータを受信するように構成され得る。CTモデル454は、CTに基づくか、又はCTをモデル化する仮想画像を含み得る。CTモデル454は、コンピュータアルゴリズム(例えば、仮想ビュー生成器モジュール462、記述子抽出モジュール466、記述子整合モジュール482など)によってアクセスすることができる術前画像のデータベースを含み得る。ナビゲーション融合データ458は、画像データ、EMデータなどの追加のデータ、及び/又はカメラ画像(例えば、カメラ画像データ470)との比較からの結果を含み得る。
CTモデル454及び/又はナビゲーション融合データ458からのデータは、仮想ビュー生成器モジュール462に渡され得る。仮想ビュー生成器モジュール462は、データを受信し、管腔ネットワークの仮想モデル、例えば、管腔ネットワークの二次元(2D)モデル又は3次元(3D)モデルを生成することができる。仮想ビュー生成器モジュール462は、医療処置中に取得され得る画像ビューをモデル化又は模倣するように構成することができる。生成された画像/モデルは、記述子抽出モジュール又はアルゴリズム466に渡すことができる。記述子抽出モジュール466は、生成された画像/モデルを受信し、画像から顕著又は有意義な特徴(例えば、記述子)を特定するように構成され得る。例えば、記述子抽出モジュール466は、画像(例えば、仮想画像)のエッジ、形状、色の段階、及び/又は他の態様を特定するように構成することができる。仮想モデル生成及び分析に関連する追加情報は、2019年4月18日に公開された米国特許出願公開第2019/0110843号に更に説明されており、その全体が参照により本明細書に組み込まれる。記述子抽出モジュール466から得られたデータは、例えば、処置中に利用可能であるように、記述子整合モジュール482に渡され得る。
第2の組のアルゴリズムは、最終的には、第1の組のアルゴリズムから出力を比較して、画像センサから取得された画像データ内の有意義な特徴(例えば、記述子)を特定するために使用され得るカメラ画像データ470を分析するように構成することができる。上記のように、医療器具420の遠位先端部/部分におけるカメラ又は他の撮像デバイス428からのリアルタイム画像データの分析を通じて、情報を含まない画像データは廃棄され得る一方で、情報を含む画像データを保持し、医療器具420を位置特定するために使用し、かつ/又は医療器具420を管腔ネットワークを通してナビゲートするのを助けることができる。第2の組のアルゴリズムは、情報を含む画像と情報を含まない画像の膨大なセットを選別し、保持された画像は何であれ、医療機器420をより効率的に、迅速に、正確に位置特定するために使用される。システムは、以下で詳しく説明する1つ又は2つ以上の品質メトリック(ぼやけ、スペキュラネス、フィーチャネスなど)に依存して、画像が情報を含まないか、したがって画像を破棄すべきかどうかを判断することができる。各画質メトリック内で、画像が画像品質メトリックを満たしているか否かに関わらず、分析の感度レベルを確立するように閾値を設定することができる。この分析の結果に基づいて、画像は、位置特定及び/又はナビゲーションで使用するために保持され得、又は画像は、医療器具420の位置特定における注意散漫及び/又は不正確さを防ぐために廃棄され得る。第2の組のアルゴリズムは、画像品質検出器474、記述子抽出モジュール478、及び/又は記述子整合モジュール482を含み得る。画像品質検出器474は、カメラ画像データ470を受信し、それを分析して、カメラ画像データ470が1つ又は2つ以上の品質メトリックを満たすかどうかを判定することができる。画像品質検出器474の特徴を、以下に(例えば、図27を参照して)更に詳細に記載する。例えば、画像品質検出器474は、受信された画像に関連する、ぼやけの程度、スペキュラネスの程度、及び/又はフィーチャネスの程度を特定するように構成され得る。画像が1つ又は2つ以上の対応する画像品質メトリックに基づいて1つ又は2つ以上の閾値品質メトリックに合格しない場合、画像は拒否及び/又は廃棄され得る。いくつかの実施形態では、品質メトリックに合格した画像は、記述子抽出モジュール478によって更に分析され得る。画像は、1つ又は2つ以上の品質メトリックの目標数(例えば、1つ、2つ、3つ、4つなど)及び/又は目標の組み合わせがそれぞれの1つ又は2つ以上の閾値品質メトリックを満たす場合、十分に信頼性が高く、情報を含み、及び/又は高品質であると判定し得る。
記述子抽出モジュール478は、受信された画像から1つ又は2つ以上の特徴(例えば、記述子)を特定するように構成することができる。例えば、記述子抽出モジュール478は、受信された画像内の分岐、曲率、不規則性、又は他の顕著な特徴を特定するように構成され得る。次いで、記述子抽出モジュール478は、画像及び/又は関連付けられた記述子データを記述子整合モジュール482に渡し得る。
記述子整合モジュール482は、記述子抽出モジュール478から及び/又は記述子抽出モジュール466から画像及び/又は記述子データを受信することができる。記述子整合モジュール482は、本明細書に記載のような、管腔ネットワーク内の医療機器(例えば、内視鏡)の位置を特定することができる。例えば、記述子整合482は、記述子抽出モジュール466から取得された1つ又は2つ以上の特徴を、記述子抽出モジュール478からデータ内で特定された特徴で比較することができる。いくつかの例では、記述子整合モジュール482は、予想される位置データ(例えば、モジュール482及び/又はモジュール482がアクセス可能なメモリに事前にロード又は事前に記憶された)を含み、記述子抽出466、478から受信した特徴の比較を効率化し得る。したがって、マッピングシステム450を使用して、医療システムは、1つ又は2つ以上のデータ源、例えば、CTモデル454、ナビゲーション融合データ458、及び/又はカメラ画像データ470から抽出された記述子に基づいて、管腔ネットワーク内の医療器具の位置を特定及び/又は推定することができる。
図27は、上述の画像管理システムを実装するための例示的な方法500を示す。方法500は、本開示全体を通して説明される様々なロボット制御式のシステムで実装され得る。方法500は、管腔ネットワークに挿入されるように構成された細長い本体を有する器具を含むロボットシステムと共に実装され得る。撮像デバイスは、細長い本体上(例えば、細長い本体の遠位端上)に位置付けることができる。器具は、管腔ネットワークを通して器具を移動させるように構成された器具位置付けデバイス(例えば、ロボットアーム)に取り付けることができる。方法500を使用するシステムが、プロセッサに方法500を実行させる命令で構成されたプロセッサを含み得る。方法500は、単なる例として提供されており、画像管理方法は、図27に示す工程とは異なる工程を使用して実装することができる。簡潔にするために、図27に示す工程は、システム(例えば、本明細書に記載のシステムのうちの1つ、又は本明細書に記載の技術のうちの1つ又は2つ以上を実行するように構成されたシステム)によって実行されるものとして説明されているが、このステップは、このようなシステムの1つ又は2つ以上の構成要素又はプロセッサによって行われ得る。
ブロック504において、画像管理のためのシステムは、デバイス(例えば、撮像デバイス428)から、細長い本体が管腔ネットワーク内にあるときにキャプチャされた1つ又は2つ以上の画像を受信する。ブロック508で、システムは、1つ又は2つ以上の画像の各々について、管腔ネットワーク内の細長い本体の遠位先端部又は部分の位置特定のための画像の信頼性を示す1つ又は2つ以上の品質メトリックを判定する。品質メトリックの例を下記に示す。ブロック512で、システムは、1つ又は2つ以上の品質メトリックの各々について信頼性閾値を判定する。信頼性閾値は、ユーザによって供給することができ、及び/又は品質メトリック及び/又は品質メトリックの値に基づいて判定することができる。例えば、閾値は、重要な品質メトリックに対して比較的高く設定することができるが、重要でない品質メトリックについてはより低く設定することができる。他の構成も可能である。ブロック516において、対応する信頼性閾値を満たす画像の1つ又は2つ以上のメトリックの各々に応答して、システムは、遠位先端部の位置の画像を利用する。システムは、画像を使用して、器具の遠位先端部の位置を判定し得る。位置判定は、図26に関して説明されたアルゴリズム及び/又は本明細書に記載の他のアルゴリズム(例えば、図20に関して)に部分的に基づくことができる。システムは、対応する信頼性閾値を満たさない画像の品質メトリックのうちの1つ又は2つ以上に応答して、器具の遠位先端部の位置を判定するために画像を廃棄しても、あるいは利用しなくてもよいことに留意されたい。
いくつかの例では、システムは術前モデルデータにアクセスする。システムは、例えば、1つ又は2つ以上の信頼性閾値を満たす画像の機械学習モデルにアクセスし得る。追加的又は代替的に、機械学習モデルは、1つ又は2つ以上の信頼性閾値を満たさない画像のモデルを含み得る。機械学習モデルに基づいて、システムは、1つ又は2つ以上のキャプチャされた画像の各々についての1つ又は2つ以上のメトリックが対応する信頼性閾値を満たすかどうかを判定し得る。術前モデルデータは、(例えば、医療器具の位置に対応する気道のカウント及び/又はランドマークを使用して)管腔システム内の医療デバイスの予想位置を示すデータ(例えば、画像データ)などの他のデータを含み得る。例えば、図27には示されていないが、システムは、管腔ネットワーク内に位置付けられている器具の推定位置状態にアクセスし得る。位置状態推定は、器具が現在位置付けられている分岐の特定を含むことができる。位置状態は、CTスキャンを通して取得された画像データに基づき得る。位置状態推定値及び術前モデルデータ(例えば、機械学習モデル、CT画像)に基づいて、システムは、医療器具の位置を判定し得る。推定位置状態は、例えば、図20のナビゲーション及び位置特定システム90によって判定することができる。推定位置状態を、例えば、術前モデルデータ91、視覚データ92、EMデータ93(若しくは他の位置感知データ)、並びに/又はロボットコマンド及び運動学データ94などの様々な及び/又は複数の位置感知モダリティ及び情報に基づいて判定することができる。術前モデルデータを使用した経路の位置判定及びマッピングに関連する追加情報は、2019年4月18日に公開された米国特許出願公開第2019/0110843号で更に説明されており、その全体が参照により本明細書に組み込まれる。
システムは、複数の画像品質メトリックを使用して、画像が信頼できるか、情報を含むか、及び/又はそうでなければ十分に高品質であるかを特定し得る。例えば、3つ以上の品質メトリックが使用され得る。各画像について、システムは、2D画像を画像内の画像位置の集合に変換することができる。画像位置は、画像内の画素に対応し得る。画素は、2つの軸に沿ってグリッドに配置され得る。画像位置は、
Figure 0007451686000001
と定義され得、式中、I(x、y)は、画像位置に記憶されたデータを表し、W及びH画像の幅及び高さをそれぞれ示す。画像位置に記憶されたデータは、複数の要素を含むベクトルとして記憶され得る。例えば、I(x、y)には、RGB画像における赤、緑、及び青のチャネルの値を記憶し得る。「チャネル」とは、画像位置によって記憶される変数のタイプを指し得る。例えば、RGB画像は、3つのチャネルを有し、グレースケール画像は、1つのチャネルを有する。
画像品質メトリックは、様々なメトリックに関連し得る。1つの要因は、画像又はその中の特徴がぼやけている程度に関連し得、これは、ぼやけ、若しくは、不鮮明さと称され得る。別の因子は、画像がどのように飽和及び/又は洗浄されるかに関連し得る。特に、係数は、(例えば、光源からの)光のカメラへの反射によって引き起こされる鏡面ハイライトに関連し得る。この係数は、スペキュラネスと称され得る。更に別の要因は、フィーチャネスと称され得る画像内の視覚的特徴の顕著性がどのようであるかに関連し得る。視覚的特徴の顕著性は、画像内で検出された視覚的特徴の数に関連し得る。
ぼやけは、様々な方法で取得され得る。例えば、システムは、入力RGB画像をグレースケール画像に変換し得る。したがって、画像は、黒色度又は暗さの程度などの単一のチャネルに基づいて変化し得る。システムは、画像上の近く及び/又は隣接する点の分散を判定し得る。分散は、各画像位置に関連付けられたベクトル上でラプラシアン演算子を実行することによって取得され得る。ラプラシアン演算子は、行列
Figure 0007451686000002
となり得る。行列の分散μが計算され得る。これから、ぼやけは、
Figure 0007451686000003
を使用して計算することができ、式中、aは、
Figure 0007451686000004
の上限である。
スペキュラネスは、画像全体と比較して、鏡面ハイライトを有する画像内の点の比率を見つけることによって得られ得る。したがって、スペキュラネスは、画像内の鏡面ハイライト領域の比又は割合であり得る。スペキュラネスは、画像内の各点の彩度及び/又は値に関連し得る。「彩度」とは、一般的に、同様に照明された白の明るさに対する点のカラフルさを指し得る。「値」は、色の知覚の変動の程度を指し得る。スペキュラネスは、1つ又は2つ以上の閾値を満たす点(例えば、画素)の数を判定することによって取得することができる。例えば、鏡面点は、閾値彩度レベル未満の彩度を有する点を指し得、及び/又は閾値レベルを超える値を有し得る。
画像のスペキュラネスを判定することには、画像を異なるタイプの画像に変換することを含み得る。変換は、マルチチャネル画像を異なるタイプのマルチチャネル画像(例えば、HSV画像)に変換することを含み得る。例えば、RGB画像は、HSV画像に変換し得る。いくつかの実施形態では、R、G、Bチャネル値は、0~1の範囲であり得、以下の式に従って変換され得る。
Figure 0007451686000005
頭字語HSVは、色相、彩度、及び値を表す。画像の各位置は、そのレベルの鏡面ハイライトについて分析され得る。彩度閾値σSat及び/又は値閾値σValは、十分な鏡面ハイライトを有する点(例えば、画素)を特定するように設定され得る。例えば、画素が両方とも(1)彩度閾値σVal未満の彩度値を有する、及び(2)彩度閾値σSat未満の値量を有する場合に、十分な鏡面ハイライトを有していると特定され得る。十分な鏡面ハイライトを有する点(例えば、画素)の総数に基づいて、点が、σSatより低い彩度了及びσValより高い値量を有する場合には、比率は、
Figure 0007451686000006
を計算することによって得ることができ、式中、ωi,j=1である。そうでない場合、ωi,j=0である。写真のスペキュラネスは、得られる比を含み得る。
フィーチャネスは、特定の画像内の特徴の数を特定することによって判定され得る。特徴の数は、スケール不変特徴変換(SIFT)、堅牢な特徴のスピードアップ(SURF)、バイナリロバストな独立した基本特徴(BRIEF)、加速セグメント試験からの特徴(FAST)、配向FAST、及び回転BRIEF(ORB)及び/又はバイナリロバストな不変スケーラブルキーポイント(BRISK)などのような1つ又は2つ以上の特徴検出アルゴリズムを使用して判定され得る。いくつかの実装態様では、ハリスのアルゴリズム(例えば、ハリスのアフィン領域検出器)を使用して、画像内の角部などの特徴の態様を特定し得る。例えば、ガウスカーネルフィルタリングは、1つ若しくは2つ以上のスケールで使用され得、かつ/又は顕著な特徴(例えば、角、縁、ブロブ、隆起など)を位置特定することを更に含み得る。追加的又は代替的に、(例えば、ソーベル演算子を使用する)ソーベルフィルタなどのフィルタを使用して、エッジなどの特徴の態様を特定及び/又は検出することを助けることができる。特徴は、管腔ネットワークの断面、管腔又は分岐の不規則性、又は関心のあるいくつかの他の特徴であり得る。画像内の特徴は、環境内のエッジ、コーナー、及び/又は他の特定可能な要素を含み得る。したがって、そのような態様が特定されて、画像内の特徴の存在を判定し得る。
上記のように、1つ又は2つ以上の品質メトリックを使用して、信頼性のある、及び/又は情報を含む画像を特定することができる。いくつかの構成では、方法500は、上記の品質メトリックの組み合わせ(例えば、線形組み合わせ)を使用することを含み得る。例えば、画像は、(1)ぼやけθが、ぼやけの閾値σblurよりも大きい場合、(2)スペキュラネスφが、スペキュラネス閾値σspecよりも大きい場合、及び/又は(3)フィーチャネスδは、フィーチャネスの閾値σfeat未満である場合には、情報を含まない、及び/又は信頼性がないものとして分類できる。したがって、例えば、いくつかの実装態様では、画像は、θ>σblur、φ>σspec、及びδ<σfeatである場合には信頼性がないと判定される。いくつかの構成では、品質メトリックの線形の組み合わせが、複合閾値を下回る複合メトリックとなる場合、画像は信頼性がないと判定し得る。複合メトリックρは、それぞれの品質メトリックに対応する1つ又は2つ以上の重み付け係数を使用して判定され得る。重み付け係数は、線形重み付け係数であり得るが、他の変形が可能である。例えば、複合メトリックρは、
Figure 0007451686000007
を使用して判定し得る。ここで、α、β、及びγは、それぞれ、各品質メトリックのための重み付けパラメータ(例えば、ぼやけθ、スペキュラネスφ、フィーチャネスδ)を表す。いくつかの実装態様では、限界値bは、内視鏡画像で検出される特徴の数の上限を表すことができる。重み付けパラメータは、代表的な画像のセットの分析に基づいて選択され得る。したがって、重み付けパラメータは、本明細書に記載の術前データに含まれ得る。
上記のように、いくつかの構成では、システムは、追加的又は代替的に、機械学習(ML)アルゴリズムを実装して、上記の品質メトリックのうちの1つ又は2つ以上を判定し得る。機械学習アルゴリズムは、粒度の粗い(例えば、画素レベルの)画像データに追加的又は代替的に、画像の全体的な情報をキャプチャするように構成することができる。MLアルゴリズムは、信頼性及び/又は情報を含む画像を特定するように構成することができる。追加的又は代替的に、MLアルゴリズムは、信頼性がない及び/又は情報を含まない画像を特定するように構成することができる。
MLアルゴリズムは、「良好」(例えば、情報を含む、信頼性がある)及び/又は「悪い」(例えば、情報がない、信頼性がない)画像で以前にトレーニングされ得る。トレーニングアルゴリズムは、ランダムフォレスト、サポートベクターマシン、又は畳み込みニューラルネットワーク(CNN)などの分類子を使用し得る。したがって、「良好」及び/又は「悪い」画像は、トレーニングされた分類子に基づいて判定され得る。
トレーニングされると、MLアルゴリズム又はモデルを、システム(例えば、メモリ412)に記憶することができる。機械学習アルゴリズムの例としては、回帰アルゴリズム(例えば、Ordinary Least Squares Regressionなど)、インスタンスベースのアルゴリズム(例えば、Learning Vector Quantization(学習ベクトル量子化)など)、判定木アルゴリズム(例えば、分類木及び回帰木など)、ベイズ・アルゴリズム(例えば、ナイーブ・ベイズなど)、クラスタリングアルゴリズム(例えば、k-平均クラスタリングなど)、アソシエーションルール学習アルゴリズム(例えば、演繹的アルゴリズムなど)、人工ニューラルネットワークアルゴリズム(例えば、パーセプトロンなど)、深層学習アルゴリズム(例えば、深層ボルツマンマシン、深層ニューラルネットワークなど)、次元削減アルゴリズム(例えば、主成分分析など)、アンサンブルアルゴリズム(例えば、積層ジェネラライゼーションなど)、及び/又は他の機械学習アルゴリズムのような教師あり又は教師なしの機械学習アルゴリズムがある。
上記のように、方法500は、機械学習モデルにアクセスし、モデルを使用して、各画像の品質メトリックが対応する信頼性閾値を満たすかどうかを判定することを含み得る。機械学習モデルは、1つ又は2つ以上の管腔ネットワーク内の分岐を特定するようにトレーニングされた畳み込みニューラルネットワークを含み得る。機械学習モデルは、管腔ネットワークの模擬画像に少なくとも部分的に基づくことができる。例えば、模擬画像は、2つ又は3つの寸法にわたる管腔ネットワークの少なくとも1つのコンピュータ生成画像を含み得る。例えば、機械学習モデルは、CTスキャンから収集された画像に少なくとも部分的に基づくことができる。模擬画像は、管腔ネットワーク内からシミュレートされた視点を描写し得る。追加的又は代替的に、画像データは、ビデオ画像(例えば、患者内の気管支ネットワークから)を含み得る。
MLアルゴリズムは、様々な方法でトレーニングされ得る。例えば、システムは、管腔ネットワークの3D表現にアクセスし得る。システムは、管腔ネットワークの内部の1つ又は2つ以上の画像にアクセスし得る。いくつかの構成では、システムは、管腔ネットワークの内部及び管腔ネットワークの3D表現の画像に基づいて、各画像と3D表現内の対応する場所との間のマッピングを判定し得る。システムは、マッピングに基づいて、重み付けパラメータを設定して、MLアルゴリズムに提示された画像データ内で、管腔ネットワークの対応する分岐及び/又は管腔ネットワーク内の対応する分岐の位置を特定し得る。追加的又は代替的に、システムは、粒子フィルタに基づいて、画像内の1つ又は2つ以上の特徴を予測することができる。
IV.システムの実装及び用語
本明細書に開示の実装態様は、ロボット制御式の医療器具のナビゲーションのための画像管理のためのシステム、方法及びデバイスを提供する。本明細書に記載の様々な実装態様は、管腔ネットワークの改善された画像管理とナビゲーションを提供する。
本明細書で使用するとき、「連結する」、「連結している」、「連結された」という用語、又は連結という語の他の変形は、間接的接続又は直接的接続のいずれかを示し得ることに留意されたい。例えば、第1の構成要素が第2の構成要素に「連結される」場合、第1の構成要素は、別の構成要素を介して第2の構成要素に間接的に接続される、又は第2の構成要素に直接的に接続される、のいずれかであってもよい。
本明細書に記載の画像データ、分析及び/又は管理アルゴリズム、機械学習モデル、位置推定、及び/又はロボットモーションアクチュエーション機能は、プロセッサ可読媒体又はコンピュータ可読媒体上の1つ又は2つ以上の命令として記憶され得る。「コンピュータ可読媒体」という用語は、コンピュータ又はプロセッサによってアクセスすることができる任意の利用可能な媒体を指す。一例として、限定するものではないが、このような媒体は、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、電気的消去可能プログラム可能読み出し専用メモリ(EEPROM)、フラッシュメモリ、コンパクトディスク読み出し専用メモリ(CD-ROM)、又は他の光ディスク記憶装置、磁気ディスク記憶装置、若しくは他の磁気記憶デバイス、又は命令若しくはデータ構造の形態で所望のプログラムコードを記憶するために使用することができ、コンピュータによってアクセスすることができる任意の他の媒体を含み得る。コンピュータ可読媒体は、有形であり、非一時的であってもよいことに留意されたい。本明細書で使用するとき、「コード」という用語は、コンピューティング装置又はプロセッサによって実行可能であるソフトウェア、命令、コード、又はデータを指し得る。
本明細書に開示される方法は、記載される方法を達成するための1つ又は2つ以上のステップ又は行為を含む。方法ステップ及び/又は行為は、特許請求の範囲から逸脱することなく互いに交換され得る。換言すれば、記載されている方法の適切な動作のために特定の順序のステップ又は行為が必要とされない限り、特許請求の範囲から逸脱することなく、特定のステップ及び/又は行為の順序及び/又は使用を修正され得る。
本明細書で使用するとき、「複数」という用語は、2つ又は3つ以上を示す。例えば、複数の構成要素は、2つ又は3つ以上の構成要素を示す。「判定する」という用語は、多種多様な行為を包含し、したがって、「判定する」は、計算すること、演算すること、処理すること、算出すること、調査すること、ルックアップすること(例えば、テーブル、データベース又は別のデータ構造を見ること)、確認することなどを含むことができる。また、「判定する」は、受信する(例えば、情報を受信すること)、アクセスする(例えば、メモリ内のデータにアクセスすること)などを含むことができる。また、「判定する」は、解決する、選択する、選出する、確立するなどを含むことができる。
「基づく」という句は、別途明示的に指定されない限り、「のみに基づく」ことを意味しない。換言すれば、「基づく」という句は、「のみに基づく」及び「少なくとも基づく」の両方を記載する。
開示される実装態様の前述の説明は、任意の当業者が本発明を製造すること、又は使用することを可能にするために提供される。これらの実装態様に対する様々な修正は、当業者には容易に明らかになり、かつ、本明細書において定義される一般的な原理は、本発明の範囲から逸脱することなく、他の実装態様に適用され得る。例えば、当業者であれば、締結、装着、連結、又は係合ツール構成要素の均等の方法、特定の作動運動を生み出すための均等の機構、及び電気エネルギーを送達するための均等の機構など、多くの対応する代替的かつ均等の構造的詳細を採用することができると理解されるであろう。したがって、本発明は、本明細書に示される実装態様に限定されることを意図するものではなく、本明細書に開示される原則及び新規な特徴と一致する最も広い範囲が与えられるものである。
〔実施の態様〕
(1) システムであって、
器具であって、
管腔ネットワークに挿入されるように構成された細長い本体と、
前記細長い本体の遠位先端部上に位置付けられた撮像デバイスと、
を備える、器具と、
実行可能命令を記憶している少なくとも1つのコンピュータ可読メモリと、
1つ又は2つ以上のプロセッサであって、前記少なくとも1つのコンピュータ可読メモリと通信しており、かつ前記命令を実行して、前記システムに、少なくとも、
前記撮像デバイスから、前記細長い本体が前記管腔ネットワーク内にあるときにキャプチャされた1つ又は2つ以上の画像を受信することと、
前記1つ又は2つ以上の画像の各々について、前記管腔ネットワーク内の前記細長い本体の前記遠位先端部の位置特定のための画像の信頼性を示す1つ又は2つ以上のメトリックを判定することと、
前記1つ又は2つ以上のメトリックの各々について信頼性閾値を判定することと、
対応する信頼性閾値を満たす前記画像の前記1つ又は2つ以上のメトリックの各々に応答して、前記遠位先端部の前記位置特定のために前記画像を利用することと、を行わせるように構成されている、プロセッサと、を備える、システム。
(2) 前記1つ又は2つ以上のプロセッサが、前記命令を実行して、前記システムに、少なくとも、
1つ又は2つ以上の信頼性閾値を満たす画像の機械学習モデルにアクセスすることと、
前記機械学習モデルに基づいて、前記1つ又は2つ以上のキャプチャされた画像の各々についての前記1つ又は2つ以上のメトリックが、前記対応する信頼性閾値を満たすかどうかを判定することと、を行わせるように構成されている、実施態様1に記載のシステム。
(3) 前記機械学習モデルが、(i)前記対応する信頼性閾値を満たす1つ又は2つ以上のメトリックを有する画像と、(ii)前記対応する信頼性閾値を満たさない1つ又は2つ以上のメトリックを有する画像と、を区別するようにトレーニングされた畳み込みニューラルネットワークを含む、実施態様2に記載のシステム。
(4) 前記1つ又は2つ以上のメトリックが、
前記画像内のぼやけのレベルを示す第1のメトリックと、
前記画像内の鏡面ハイライトの量を示す第2のメトリックと、
前記画像内の視覚的特徴の利用可能性を示す第3のメトリックと、のうちの少なくとも1つを含む、実施態様1に記載のシステム。
(5) 前記画像の前記利用が、
第1の重み付けパラメータを前記第1のメトリックに割り当てることと、
第2の重み付けパラメータを前記第2のメトリックに割り当てることと、
第3の重み付けパラメータを前記第3のメトリックに割り当てることと、
前記第1のメトリック、前記第2のメトリック、及び前記第3のメトリックの、前記それぞれの第1の重み付けパラメータ、第2の重み付けパラメータ、及び第3の重み付けパラメータとの線形の組み合わせに基づいて、複合メトリックを判定することであって、前記複合メトリックが、前記遠位先端部の前記位置特定のための前記画像の信頼性を示す、判定することと、を含む、実施態様4に記載のシステム。
(6) 前記1つ又は2つ以上のメトリックを判定することが、
前記画像の二次元座標に対応する画像値を特定することを含み、
各画像値が、対応する座標における色値に基づく、実施態様4に記載のシステム。
(7) 前記1つ又は2つ以上のメトリックを判定することが、
前記画像の修正画像上でラプラシアン演算子を実行して、行列を取得することと、
前記修正画像に関連付けられた前記行列の分散を判定することと、に基づいて、前記第1のメトリックを判定することを含む、実施態様6に記載のシステム。
(8) 前記1つ又は2つ以上のメトリックを判定することが、
前記画像の彩度及び明度値を判定することと、
前記画像の面積に対する彩度又は値のうちの少なくとも一方の比を判定することと、に基づいて、前記第2のメトリックを判定することを含む、実施態様6に記載のシステム。
(9) 前記第2のメトリックを判定することが、前記画像の第1の点と第2の点との間の明度値の分散を判定することを含み、前記第1の点及び前記第2の点が互いに隣接している、実施態様8に記載のシステム。
(10) 前記第2のメトリックを判定することが、閾値彩度レベルを下回る彩度値を有する画素の数を特定することを含む、実施態様8に記載のシステム。
(11) 前記1つ又は2つ以上のメトリックを判定することが、
SIFT、SURF、BRIEF、BRISK、又はFASTのうちの少なくとも1つを使用して、前記画像内の特徴の数を特定することに基づいて、前記第3のメトリックを判定することを含む、実施態様6に記載のシステム。
(12) 特徴の数を特定することが、前記画像内の縁又は角部のうちの少なくとも一方を特定することを含む、実施態様6に記載のシステム。
(13) 前記画像の前記利用が、前記1つ又は2つ以上の画像の各々に信頼性係数を割り当てることを含み、前記信頼性係数が、前記1つ又は2つ以上のメトリックに基づいており、かつ前記遠位先端部の前記位置特定のための前記画像の信頼性を示す、実施態様1に記載のシステム。
(14) 前記1つ又は2つ以上のプロセッサが、前記命令を実行して、前記システムに、前記1つ又は2つ以上のメトリックに対応する前記信頼性閾値の各々をユーザから受信させるように更に構成されている、実施態様1に記載のシステム。
(15) 前記1つ又は2つ以上のプロセッサが、前記命令を実行して、前記システムに、前記1つ又は2つ以上のメトリックの対応する第1のメトリック及び第2のメトリックに基づいて、第2の信頼性閾値よりも高い第1の信頼性閾値を自動的に設定させるように更に構成されている、実施態様1に記載のシステム。
(16) 前記1つ又は2つ以上のプロセッサが、前記命令を実行して、前記システムに、仮想画像を含む術前モデルデータにアクセスさせるように更に構成されている、実施態様1に記載のシステム。
(17) 術前モデルデータにアクセスすることが、前記細長い本体が前記管腔ネットワーク内にあるときにキャプチャされた前記1つ又は2つ以上の画像を前記仮想画像と比較することを含む、実施態様16に記載のシステム。
(18) 前記1つ又は2つ以上のプロセッサが、前記命令を実行して、前記システムに、前記管腔ネットワーク内の前記細長い本体の位置を、前記細長い本体が前記管腔ネットワーク内にあるときにキャプチャされた前記1つ又は2つ以上の画像を前記仮想画像と比較することに基づいて判定させるように更に構成されている、実施態様17に記載のシステム。
(19) 方法であって、
細長い器具の遠位端部に位置付けられている画像デバイスを使用して、前記細長い器具が管腔ネットワーク内にあるときにキャプチャされた1つ又は2つ以上の画像を受信することと、
1つ又は2つ以上の閾値品質メトリックを満たす画像でトレーニングされた機械学習モデルにアクセスすることと、
前記機械学習モデルに基づいて、前記1つ又は2つ以上の画像が前記1つ又は2つ以上の閾値品質メトリックを満たすかどうかを判定することと、を含む、方法。
(20) 前記機械学習モデルに基づいて、前記管腔ネットワーク内の前記細長い器具の前記遠位端部の位置特定のための画像の信頼性を示す1つ又は2つ以上の品質メトリックを判定することを更に含む、実施態様19に記載の方法。
(21) 前記1つ又は2つ以上の閾値品質メトリックを判定することを更に含む、実施態様19に記載の方法。
(22) 前記画像の前記1つ又は2つ以上の品質メトリックのうちの少なくとも1つが前記対応する1つ又は2つ以上の閾値品質メトリックを満たすことができないという判定に応答して、前記遠位端部の前記位置特定に使用されることから前記画像をフィルタリングすることを更に含む、実施態様19に記載の方法。
(23) 前記管腔ネットワーク内の前記細長い器具の位置を判定することを更に含む、実施態様19に記載の方法。
(24) 前記管腔ネットワーク内の前記細長い器具の前記位置を判定することが、前記1つ又は2つ以上のキャプチャされた画像を管腔ネットワークの術前画像と比較することを含む、実施態様23に記載の方法。
(25) 前記術前画像が、コンピュータ生成画像を含む、実施態様24に記載の方法。
(26) 前記術前画像が、コンピュータ断層撮影(CT)スキャンから得られた画像を含む、実施態様24に記載の方法。
(27) システムであって、
器具であって、
管腔ネットワークに挿入されるように構成された細長い本体と、
前記細長い本体の遠位先端部上に位置付けられている撮像デバイスと、
を備える、器具と、
実行可能命令を記憶している少なくとも1つのコンピュータ可読メモリと、
1つ又は2つ以上のプロセッサであって、前記少なくとも1つのコンピュータ可読メモリと通信しており、かつ前記命令を実行して、前記システムに、少なくとも、
前記撮像デバイスから、前記細長い本体が前記管腔ネットワーク内にあるときにキャプチャされた1つ又は2つ以上の画像を受信することと、
前記1つ又は2つ以上の画像の各々について、前記管腔ネットワーク内の前記細長い本体の前記遠位先端部の位置特定のための画像の信頼性を示す1つ又は2つ以上のメトリックを判定することであって、前記1つ又は2つ以上のメトリックが、前記画像内のぼやけのレベルを示す少なくとも第1のメトリックを含む、判定することと、
前記1つ又は2つ以上のメトリックの各々について信頼性閾値を判定することと、
対応する信頼性閾値を満たす前記画像の前記1つ又は2つ以上のメトリックの各々に応答して、前記遠位先端部の前記位置特定のために前記画像を利用することと、を行わせるように構成されている、プロセッサと、を備える、システム。

Claims (19)

  1. システムであって、
    器具であって、
    管腔ネットワークに挿入されるように構成された細長い本体と、
    前記細長い本体の遠位先端部上に位置付けられた撮像デバイスと、
    を備える、器具と、
    実行可能な命令を記憶している少なくとも1つのコンピュータ可読メモリと、
    1つ又は2つ以上のプロセッサであって、前記少なくとも1つのコンピュータ可読メモリと通信しており、かつ前記命令を実行して、前記システムに、少なくとも、
    前記撮像デバイスから、前記細長い本体が前記管腔ネットワーク内にあるときにキャプチャされた1つ又は2つ以上の画像を受信することと、
    前記1つ又は2つ以上の画像の各々について、前記管腔ネットワーク内の前記細長い本体の前記遠位先端部の位置特定のための画像の信頼性を示す複数のメトリックを判定することと、
    前記複数のメトリックの各々について信頼性閾値を判定することと、
    前記1つ又は2つ以上の画像のうちの第1の画像について判定された前記複数のメトリックのうち少なくとも1つが、前記複数のメトリックの各々に対応する前記信頼性閾値を満たさないことに応答して、前記第1の画像を破棄することと、
    前記1つ又は2つ以上の画像のうちの第2の画像について判定された前記複数のメトリックの全てが、前記複数のメトリックの各々に対応する前記信頼性閾値を満たすことに応答して、前記遠位先端部の前記位置特定のために前記第2の画像を利用することと、を行わせるように構成されている、プロセッサと、を備える、システム。
  2. 前記1つ又は2つ以上のプロセッサが、前記命令を実行して、前記システムに、少なくとも、
    前記複数のメトリックの各々に対応する前記信頼性閾値を満たす画像の機械学習モデルにアクセスすることと、
    前記機械学習モデルに基づいて、前記1つ又は2つ以上のキャプチャされた画像の各々についての前記複数のメトリックが、前記複数のメトリックの各々に対応する前記信頼性閾値を満たすかどうかを判定することと、を行わせるように構成されている、請求項1に記載のシステム。
  3. 前記機械学習モデルが、(i)前記複数のメトリックの各々に対応する前記信頼性閾値を満たす1つ又は2つ以上のメトリックを有する画像と、(ii)前記複数のメトリックの各々に対応する前記信頼性閾値を満たさない1つ又は2つ以上のメトリックを有する画像と、を区別するようにトレーニングされた畳み込みニューラルネットワークを含む、請求項2に記載のシステム。
  4. 前記複数のメトリックが、
    画像内のぼやけのレベルを示す第1のメトリックと、
    画像内の鏡面ハイライトの量を示す第2のメトリックと、
    画像内の視覚的特徴の利用可能性を示す第3のメトリックと、のうちの少なくとも1つを含む、請求項1に記載のシステム。
  5. 前記第2の画像の前記利用が、
    第1の重み付けパラメータを前記第1のメトリックに割り当てることと、
    第2の重み付けパラメータを前記第2のメトリックに割り当てることと、
    第3の重み付けパラメータを前記第3のメトリックに割り当てることと、
    前記第1のメトリック、前記第2のメトリック、及び前記第3のメトリックの、前記それぞれの第1の重み付けパラメータ、第2の重み付けパラメータ、及び第3の重み付けパラメータとの線形の組み合わせに基づいて、複合メトリックを判定することであって、前記複合メトリックが、前記遠位先端部の前記位置特定のための前記第2の画像の信頼性を示す、判定することと、を含む、請求項4に記載のシステム。
  6. 前記複数のメトリックを判定することが、
    画像の二次元座標に対応する画像値を特定することを含み、
    各画像値が、対応する座標における色値に基づく、請求項4に記載のシステム。
  7. 前記複数のメトリックを判定することが、
    像上でラプラシアン演算子を実行して、行列を取得することと、
    画像に関連付けられた前記行列の分散を判定することと、に基づいて、前記第1のメトリックを判定することを含む、請求項6に記載のシステム。
  8. 前記複数のメトリックを判定することが、
    画像の彩度及び明度値を判定することと、
    画像の面積に対する彩度又は明度値のうちの少なくとも一方の比を判定することと、に基づいて、前記第2のメトリックを判定することを含む、請求項6に記載のシステム。
  9. 前記第2のメトリックを判定することが、画像の第1の点と第2の点との間の明度値の分散を判定することを含み、前記第1の点及び前記第2の点が互いに隣接している、請求項8に記載のシステム。
  10. 前記第2のメトリックを判定することが、閾値彩度レベルを下回る彩度値を有する画素の数を特定することを含む、請求項8に記載のシステム。
  11. 前記複数のメトリックを判定することが、
    SIFT、SURF、BRIEF、BRISK、又はFASTのうちの少なくとも1つを使用して、画像内の特徴の数を特定することに基づいて、前記第3のメトリックを判定することを含む、請求項6に記載のシステム。
  12. 特徴の数を特定することが、画像内の縁又は角部のうちの少なくとも一方を特定することを含む、請求項11に記載のシステム。
  13. 前記第2の画像の前記利用が、前記1つ又は2つ以上の画像の各々に信頼性係数を割り当てることを含み、前記信頼性係数が、前記複数のメトリックに基づいており、かつ前記遠位先端部の前記位置特定のための前記第2の画像の信頼性を示す、請求項1に記載のシステム。
  14. 前記1つ又は2つ以上のプロセッサが、前記命令を実行して、前記システムに、前記複数のメトリックに対応する前記信頼性閾値の各々をユーザから受信させるように更に構成されている、請求項1に記載のシステム。
  15. 前記1つ又は2つ以上のプロセッサが、前記命令を実行して、前記システムに、前記複数のメトリックの対応する第1のメトリック及び第2のメトリックに基づいて、第2の信頼性閾値よりも高い第1の信頼性閾値を自動的に設定させるように更に構成され、
    前記第1及び第2のメトリックは、同じ種類のメトリックである、請求項1に記載のシステム。
  16. 前記1つ又は2つ以上のプロセッサが、前記命令を実行して、前記システムに、仮想画像を含む術前モデルデータにアクセスさせるように更に構成されている、請求項1に記載のシステム。
  17. 術前モデルデータにアクセスすることが、前記細長い本体が前記管腔ネットワーク内にあるときにキャプチャされた前記1つ又は2つ以上の画像を前記仮想画像と比較することを含む、請求項16に記載のシステム。
  18. 前記1つ又は2つ以上のプロセッサが、前記命令を実行して、前記システムに、前記管腔ネットワーク内の前記細長い本体の位置を、前記細長い本体が前記管腔ネットワーク内にあるときにキャプチャされた前記1つ又は2つ以上の画像を前記仮想画像と比較することに基づいて判定させるように更に構成されている、請求項17に記載のシステム。
  19. システムであって、
    器具であって、
    管腔ネットワークに挿入されるように構成された細長い本体と、
    前記細長い本体の遠位先端部上に位置付けられている撮像デバイスと、
    を備える、器具と、
    実行可能命令を記憶している少なくとも1つのコンピュータ可読メモリと、
    1つ又は2つ以上のプロセッサであって、前記少なくとも1つのコンピュータ可読メモリと通信しており、かつ前記命令を実行して、前記システムに、少なくとも、
    前記撮像デバイスから、前記細長い本体が前記管腔ネットワーク内にあるときにキャプチャされた1つ又は2つ以上の画像を受信することと、
    前記1つ又は2つ以上の画像の各々について、前記管腔ネットワーク内の前記細長い本体の前記遠位先端部の位置特定のための画像の信頼性を示す複数のメトリックを判定することであって、前記複数のメトリックが、前記画像内のぼやけのレベルを示す少なくとも第1のメトリックを含む、判定することと、
    前記複数のメトリックの各々について信頼性閾値を判定することと、
    前記1つ又は2つ以上の画像のうちの第1の画像について、前記複数のメトリックのうち少なくとも1つが、前記複数のメトリックの各々に対応する前記信頼性閾値を満たさないことに応答して、前記第1の画像を破棄することと、
    前記1つ又は2つ以上の画像のうち第2の画像について、前記複数のメトリックの全てが、前記複数のメトリックの各々に対応する前記信頼性閾値を満たすことに応答して、前記遠位先端部の前記位置特定のために前記第2の画像を利用することと、を行わせるように構成されている、プロセッサと、を備える、システム。
JP2022513189A 2019-08-30 2020-08-27 器具画像信頼性システム及び方法 Active JP7451686B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962894601P 2019-08-30 2019-08-30
US62/894,601 2019-08-30
PCT/IB2020/058023 WO2021038495A1 (en) 2019-08-30 2020-08-27 Instrument image reliability systems and methods

Publications (3)

Publication Number Publication Date
JP2022546419A JP2022546419A (ja) 2022-11-04
JPWO2021038495A5 JPWO2021038495A5 (ja) 2023-08-25
JP7451686B2 true JP7451686B2 (ja) 2024-03-18

Family

ID=74680694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022513189A Active JP7451686B2 (ja) 2019-08-30 2020-08-27 器具画像信頼性システム及び方法

Country Status (6)

Country Link
US (2) US11147633B2 (ja)
EP (1) EP4021329A4 (ja)
JP (1) JP7451686B2 (ja)
KR (1) KR20220058918A (ja)
CN (1) CN114340540B (ja)
WO (1) WO2021038495A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114340540B (zh) * 2019-08-30 2023-07-04 奥瑞斯健康公司 器械图像可靠性系统和方法
US11903561B2 (en) * 2021-05-03 2024-02-20 Iemis (Hk) Limited Surgical systems and devices, and methods for configuring surgical systems and performing endoscopic procedures, including ERCP procedures
WO2022258153A1 (en) * 2021-06-08 2022-12-15 Azyro Sa Medical treatment device, system, and console
CN114757897B (zh) * 2022-03-30 2024-04-09 柳州欧维姆机械股份有限公司 一种改善桥梁缆索锚固区成像效果的方法
CN117710375B (zh) * 2024-02-05 2024-04-12 常州市南方电机有限公司 一种电机转子与定子的对中性检测方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010512173A (ja) 2006-08-21 2010-04-22 エスティーアイ・メディカル・システムズ・エルエルシー 内視鏡からの映像を用いるコンピュータ支援解析
JP5715312B2 (ja) 2013-03-27 2015-05-07 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2016163609A (ja) 2015-03-06 2016-09-08 富士フイルム株式会社 分岐構造判定装置、方法およびプログラム
JP2017055954A (ja) 2015-09-16 2017-03-23 富士フイルム株式会社 内視鏡位置特定装置、方法およびプログラム
JP2017534322A (ja) 2014-09-17 2017-11-24 タリス バイオメディカル エルエルシー 膀胱の診断的マッピング方法及びシステム
US20180296281A1 (en) 2017-04-12 2018-10-18 Bio-Medical Engineering (HK) Limited Automated steering systems and methods for a robotic endoscope
US20190110843A1 (en) 2017-10-13 2019-04-18 Auris Health, Inc. Image-based branch detection and mapping for navigation

Family Cites Families (415)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4745908A (en) 1987-05-08 1988-05-24 Circon Corporation Inspection instrument fexible shaft having deflection compensation means
JP2750201B2 (ja) 1990-04-13 1998-05-13 オリンパス光学工業株式会社 内視鏡の挿入状態検出装置
US5550953A (en) 1994-04-20 1996-08-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration On-line method and apparatus for coordinated mobility and manipulation of mobile robots
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US6236875B1 (en) 1994-10-07 2001-05-22 Surgical Navigation Technologies Surgical navigation systems including reference and localization frames
US5526812A (en) 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US6059718A (en) 1993-10-18 2000-05-09 Olympus Optical Co., Ltd. Endoscope form detecting apparatus in which coil is fixedly mounted by insulating member so that form is not deformed within endoscope
US6690963B2 (en) 1995-01-24 2004-02-10 Biosense, Inc. System for determining the location and orientation of an invasive medical instrument
US6246898B1 (en) 1995-03-28 2001-06-12 Sonometrics Corporation Method for carrying out a medical procedure using a three-dimensional tracking and imaging system
CA2231425A1 (en) 1995-09-20 1997-03-27 Texas Heart Institute Detecting thermal discrepancies in vessel walls
IL125781A (en) 1996-02-15 2003-06-24 Biosense Inc Precise position determination of endoscopes
DE69726576T2 (de) 1996-02-15 2004-10-14 Biosense, Inc., Miami Probe zur Ortsmarkierung
US6063095A (en) 1996-02-20 2000-05-16 Computer Motion, Inc. Method and apparatus for performing minimally invasive surgical procedures
US6047080A (en) 1996-06-19 2000-04-04 Arch Development Corporation Method and apparatus for three-dimensional reconstruction of coronary vessels from angiographic images
US5831614A (en) 1996-07-01 1998-11-03 Sun Microsystems, Inc. X-Y viewport scroll using location of display with respect to a point
DE69815260T2 (de) 1997-01-24 2004-05-13 Koninklijke Philips Electronics N.V. Bildanzeigevorrichtung
US6246784B1 (en) 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6810281B2 (en) 2000-12-21 2004-10-26 Endovia Medical, Inc. Medical mapping system
FR2779339B1 (fr) 1998-06-09 2000-10-13 Integrated Surgical Systems Sa Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application
US6425865B1 (en) 1998-06-12 2002-07-30 The University Of British Columbia Robotically assisted medical ultrasound
WO2000028882A2 (en) 1998-11-18 2000-05-25 Microdexterity Systems, Inc. Medical manipulator for use with an imaging device
US6493608B1 (en) 1999-04-07 2002-12-10 Intuitive Surgical, Inc. Aspects of a control system of a minimally invasive surgical apparatus
US6501981B1 (en) 1999-03-16 2002-12-31 Accuray, Inc. Apparatus and method for compensating for respiratory and patient motions during treatment
US6594552B1 (en) 1999-04-07 2003-07-15 Intuitive Surgical, Inc. Grip strength with tactile feedback for robotic surgery
US7386339B2 (en) 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
FI114282B (fi) 1999-11-05 2004-09-30 Polar Electro Oy Menetelmä, järjestely ja sykemittari sydämen lyönnin tunnistamiseksi
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US6755797B1 (en) 1999-11-29 2004-06-29 Bowles Fluidics Corporation Method and apparatus for producing oscillation of a bladder
US7747312B2 (en) 2000-01-04 2010-06-29 George Mason Intellectual Properties, Inc. System and method for automatic shape registration and instrument tracking
DE10011790B4 (de) 2000-03-13 2005-07-14 Siemens Ag Medizinisches Instrument zum Einführen in ein Untersuchungsobjekt, sowie medizinisches Untersuchungs- oder Behandlungsgerät
US7181289B2 (en) 2000-03-20 2007-02-20 Pflueger D Russell Epidural nerve root access catheter and treatment methods
DE10025285A1 (de) 2000-05-22 2001-12-06 Siemens Ag Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe
DE10033723C1 (de) 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
JP4863243B2 (ja) 2001-07-18 2012-01-25 内山工業株式会社 エンコーダ付密封装置
US6865498B2 (en) 2001-11-30 2005-03-08 Thermwood Corporation System for calibrating the axes on a computer numeric controlled machining system and method thereof
US6812842B2 (en) 2001-12-20 2004-11-02 Calypso Medical Technologies, Inc. System for excitation of a leadless miniature marker
TW200304608A (en) 2002-03-06 2003-10-01 Z Kat Inc System and method for using a haptic device in combination with a computer-assisted surgery system
DE10210646A1 (de) 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
US20050256398A1 (en) 2004-05-12 2005-11-17 Hastings Roger N Systems and methods for interventional medicine
US7998062B2 (en) 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
EP2380487B1 (en) 2002-04-17 2021-03-31 Covidien LP Endoscope structures for navigating to a target in branched structure
WO2003091839A2 (en) 2002-04-25 2003-11-06 The John Hopkins University Robot for computed tomography interventions
WO2003101300A2 (en) 2002-06-04 2003-12-11 Koninklijke Philips Electronics N.V. Rotational angiography based hybrid 3-d reconstruction of coronary arterial structure
CA2489584C (en) 2002-06-17 2011-02-15 Mazor Surgical Technologies Ltd. Robot for use with orthopaedic inserts
AU2003246906A1 (en) 2002-06-25 2004-01-06 Michael Nicholas Dalton Apparatus and method for superimposing images over an object
KR100449765B1 (ko) 2002-10-12 2004-09-22 삼성에스디아이 주식회사 리튬전지용 리튬메탈 애노드
US6899672B2 (en) 2002-11-08 2005-05-31 Scimed Life Systems, Inc. Endoscopic imaging system including removable deflection device
EP1570431B1 (en) 2002-11-13 2015-07-01 Koninklijke Philips N.V. Medical viewing system and method for detecting boundary structures
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US20040186349A1 (en) 2002-12-24 2004-09-23 Usgi Medical Corp. Apparatus and methods for achieving endoluminal access
FR2852226B1 (fr) 2003-03-10 2005-07-15 Univ Grenoble 1 Instrument medical localise a ecran orientable
US7203277B2 (en) 2003-04-25 2007-04-10 Brainlab Ag Visualization device and method for combined patient and object image data
US7822461B2 (en) 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
EP2316328B1 (en) 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
US20050097557A1 (en) 2003-10-31 2005-05-05 International Business Machines Corporation Methods and apparatus for making web browser act like stand-alone application
US7901348B2 (en) 2003-12-12 2011-03-08 University Of Washington Catheterscope 3D guidance and interface system
US8021301B2 (en) 2003-12-26 2011-09-20 Fujifilm Corporation Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program
JP2005192632A (ja) 2003-12-26 2005-07-21 Olympus Corp 被検体内移動状態検出システム
US20050193451A1 (en) 2003-12-30 2005-09-01 Liposonix, Inc. Articulating arm for medical procedures
US20050182319A1 (en) 2004-02-17 2005-08-18 Glossop Neil D. Method and apparatus for registration, verification, and referencing of internal organs
FI20040255A (fi) 2004-02-18 2005-08-19 Jurilab Ltd Oy Menetelmä pre-eklampsian riskin havaitsemiseksi
US7850642B2 (en) 2004-03-05 2010-12-14 Hansen Medical, Inc. Methods using a robotic catheter system
EP2384715B1 (en) 2004-03-05 2015-07-08 Hansen Medical, Inc. Robotic catheter system
US7811294B2 (en) 2004-03-08 2010-10-12 Mediguide Ltd. Automatic guidewire maneuvering system and method
AU2005228956B2 (en) 2004-03-23 2011-08-18 Boston Scientific Limited In-vivo visualization system
WO2005092188A1 (ja) 2004-03-29 2005-10-06 Olympus Corporation 被検体内位置検出システム
US7462175B2 (en) 2004-04-21 2008-12-09 Acclarent, Inc. Devices, systems and methods for treating disorders of the ear, nose and throat
US7720521B2 (en) 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
US20070208252A1 (en) 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
US8155403B2 (en) 2004-05-05 2012-04-10 University Of Iowa Research Foundation Methods and devices for airway tree labeling and/or matching
US7632265B2 (en) 2004-05-28 2009-12-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Radio frequency ablation servo catheter and method
US20060209019A1 (en) 2004-06-01 2006-09-21 Energid Technologies Corporation Magnetic haptic feedback systems and methods for virtual reality environments
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060025668A1 (en) 2004-08-02 2006-02-02 Peterson Thomas H Operating table with embedded tracking technology
US7536216B2 (en) 2004-10-18 2009-05-19 Siemens Medical Solutions Usa, Inc. Method and system for virtual endoscopy with guidance for biopsy
US9049954B2 (en) 2004-11-03 2015-06-09 Cambridge International, Inc. Hanger bar assembly for architectural mesh and the like
EP1816945B1 (en) 2004-11-23 2019-08-21 PneumRx, Inc. Steerable device for accessing a target site
EP1838378B1 (en) 2005-01-18 2017-03-22 Philips Electronics LTD Apparatus for guiding an instrument to a target in the lung
US8335357B2 (en) 2005-03-04 2012-12-18 Kabushiki Kaisha Toshiba Image processing apparatus
US20060258935A1 (en) 2005-05-12 2006-11-16 John Pile-Spellman System for autonomous robotic navigation
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US7756563B2 (en) 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
US7889905B2 (en) 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
JP4813190B2 (ja) 2005-05-26 2011-11-09 オリンパスメディカルシステムズ株式会社 カプセル型医療装置
GB2428110A (en) 2005-07-06 2007-01-17 Armstrong Healthcare Ltd A robot and method of registering a robot.
JP2009501563A (ja) 2005-07-14 2009-01-22 エンハンスド・メデイカルシステム・エルエルシー 侵襲性処置を極小にするためのロボット
US8583220B2 (en) 2005-08-02 2013-11-12 Biosense Webster, Inc. Standardization of catheter-based treatment for atrial fibrillation
CN101282760A (zh) 2005-08-11 2008-10-08 纳沃特克医药有限公司 利用基于放射性的位置传感器的医疗系统和方法
US8657814B2 (en) 2005-08-22 2014-02-25 Medtronic Ablation Frontiers Llc User interface for tissue ablation system
US9661991B2 (en) 2005-08-24 2017-05-30 Koninklijke Philips N.V. System, method and devices for navigated flexible endoscopy
US20070073136A1 (en) 2005-09-15 2007-03-29 Robert Metzger Bone milling with image guided surgery
EP3788944B1 (en) 2005-11-22 2024-02-28 Intuitive Surgical Operations, Inc. System for determining the shape of a bendable instrument
US8303505B2 (en) 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US8190238B2 (en) 2005-12-09 2012-05-29 Hansen Medical, Inc. Robotic catheter system and methods
DE102005059271B4 (de) 2005-12-12 2019-02-21 Siemens Healthcare Gmbh Kathetervorrichtung
US8672922B2 (en) 2005-12-20 2014-03-18 Intuitive Surgical Operations, Inc. Wireless communication in a robotic surgical system
US9266239B2 (en) 2005-12-27 2016-02-23 Intuitive Surgical Operations, Inc. Constraint based control in a minimally invasive surgical apparatus
US9962066B2 (en) 2005-12-30 2018-05-08 Intuitive Surgical Operations, Inc. Methods and apparatus to shape flexible entry guides for minimally invasive surgery
US7930065B2 (en) 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
US8191359B2 (en) 2006-04-13 2012-06-05 The Regents Of The University Of California Motion estimation using hidden markov model processing in MRI and other applications
JP4822142B2 (ja) 2006-05-02 2011-11-24 国立大学法人名古屋大学 内視鏡挿入支援システム及び内視鏡挿入支援方法
DE102006021373A1 (de) 2006-05-08 2007-11-15 Siemens Ag Röntgendiagnostikeinrichtung
CN101522134B (zh) 2006-06-05 2012-06-27 泰克尼恩研究和发展基金有限公司 挠性针的受控导向
US7505810B2 (en) 2006-06-13 2009-03-17 Rhythmia Medical, Inc. Non-contact cardiac mapping, including preprocessing
US20080065104A1 (en) 2006-06-13 2008-03-13 Intuitive Surgical, Inc. Minimally invasive surgical instrument advancement
US8040127B2 (en) 2006-08-15 2011-10-18 General Electric Company Multi-sensor distortion mapping method and system
US8150498B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for identification of anatomical landmarks
US7824328B2 (en) 2006-09-18 2010-11-02 Stryker Corporation Method and apparatus for tracking a surgical instrument during surgery
CN100546540C (zh) 2006-09-19 2009-10-07 上海宏桐实业有限公司 心内膜三维导航系统
US7940977B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies
AU2007350982A1 (en) 2006-11-10 2008-10-23 Dorian Averbuch Adaptive navigation technique for navigating a catheter through a body channel or cavity
US7936922B2 (en) 2006-11-22 2011-05-03 Adobe Systems Incorporated Method and apparatus for segmenting images
JP2010511931A (ja) 2006-12-01 2010-04-15 トムソン ライセンシング 画像内のオブジェクトの位置推定
US20080183068A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Visualization of Surgical Navigational and Neural Monitoring Information
US20080183188A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Surgical Navigational and Neuromonitoring System
US20080183064A1 (en) 2007-01-30 2008-07-31 General Electric Company Multi-sensor distortion detection method and system
US8672836B2 (en) 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US8146874B2 (en) 2007-02-02 2012-04-03 Hansen Medical, Inc. Mounting support assembly for suspending a medical instrument driver above an operating table
JP4914735B2 (ja) 2007-02-14 2012-04-11 オリンパスメディカルシステムズ株式会社 処置具の位置制御を行う内視鏡システム
WO2008103383A1 (en) 2007-02-20 2008-08-28 Gildenberg Philip L Videotactic and audiotactic assisted surgical methods and procedures
WO2010058398A2 (en) 2007-03-08 2010-05-27 Sync-Rx, Ltd. Image processing and tool actuation for medical procedures
US10433929B2 (en) 2007-03-09 2019-10-08 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for local deformable registration of a catheter navigation system to image data or a model
WO2008111070A2 (en) 2007-03-12 2008-09-18 David Tolkowsky Devices and methods for performing medical procedures in tree-like luminal structures
US20080275349A1 (en) 2007-05-02 2008-11-06 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
US20080300478A1 (en) 2007-05-30 2008-12-04 General Electric Company System and method for displaying real-time state of imaged anatomy during a surgical procedure
US20090030307A1 (en) 2007-06-04 2009-01-29 Assaf Govari Intracorporeal location system with movement compensation
US8620473B2 (en) * 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US20080319491A1 (en) 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
EP2626027B1 (en) 2007-08-14 2020-04-29 Koninklijke Philips N.V. Robotic instrument systems utilizing optical fiber sensors
US20130165945A9 (en) 2007-08-14 2013-06-27 Hansen Medical, Inc. Methods and devices for controlling a shapeable instrument
US20090076476A1 (en) 2007-08-15 2009-03-19 Hansen Medical, Inc. Systems and methods employing force sensing for mapping intra-body tissue
WO2009097461A1 (en) 2008-01-29 2009-08-06 Neoguide Systems Inc. Apparatus and methods for automatically controlling an endoscope
EP2633811B1 (en) 2008-02-12 2015-09-16 Covidien LP Controlled perspective guidance method
KR100927096B1 (ko) 2008-02-27 2009-11-13 아주대학교산학협력단 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
US20090228020A1 (en) 2008-03-06 2009-09-10 Hansen Medical, Inc. In-situ graft fenestration
US8219179B2 (en) 2008-03-06 2012-07-10 Vida Diagnostics, Inc. Systems and methods for navigation within a branched structure of a body
US8808164B2 (en) 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
US9002076B2 (en) 2008-04-15 2015-04-07 Medtronic, Inc. Method and apparatus for optimal trajectory planning
US8532734B2 (en) 2008-04-18 2013-09-10 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8218846B2 (en) 2008-05-15 2012-07-10 Superdimension, Ltd. Automatic pathway and waypoint generation and navigation method
JP5372407B2 (ja) 2008-05-23 2013-12-18 オリンパスメディカルシステムズ株式会社 医療機器
US20100030061A1 (en) 2008-07-31 2010-02-04 Canfield Monte R Navigation system for cardiac therapies using gating
US8290571B2 (en) 2008-08-01 2012-10-16 Koninklijke Philips Electronics N.V. Auxiliary cavity localization
US9248000B2 (en) 2008-08-15 2016-02-02 Stryker European Holdings I, Llc System for and method of visualizing an interior of body
WO2010044852A2 (en) 2008-10-14 2010-04-22 University Of Florida Research Foundation, Inc. Imaging platform to provide integrated navigation capabilities for surgical guidance
JP5762962B2 (ja) * 2008-10-20 2015-08-12 ザ・ジョンズ・ホプキンス・ユニバーシティ 環境特性推定および画像表示
CA2736590A1 (en) 2008-10-31 2010-05-06 Chevron Phillips Chemical Company Lp Oligomerization catalyst system and process for oligomerizing olefins
US20100121139A1 (en) 2008-11-12 2010-05-13 Ouyang Xiaolong Minimally Invasive Imaging Systems
US8317746B2 (en) 2008-11-20 2012-11-27 Hansen Medical, Inc. Automated alignment
EP2376175B1 (en) 2008-12-12 2019-01-30 Corindus, Inc. Remote catheter procedure system
US8335590B2 (en) 2008-12-23 2012-12-18 Intuitive Surgical Operations, Inc. System and method for adjusting an image capturing device attribute using an unused degree-of-freedom of a master control device
WO2010082383A1 (ja) 2009-01-15 2010-07-22 オリンパスメディカルシステムズ株式会社 内視鏡システム
KR100961661B1 (ko) 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US8337397B2 (en) 2009-03-26 2012-12-25 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient
US9002427B2 (en) 2009-03-30 2015-04-07 Lifewave Biomedical, Inc. Apparatus and method for continuous noninvasive measurement of respiratory function and events
RU2529380C2 (ru) 2009-04-29 2014-09-27 Конинклейке Филипс Электроникс Н.В. Оценка глубины в реальном времени по монокулярным изображениям эндоскопа
WO2010128411A1 (en) 2009-05-08 2010-11-11 Koninklijke Philips Electronics, N.V. Real-time scope tracking and branch labeling without electro-magnetic tracking and pre-operative scan roadmaps
US8675736B2 (en) 2009-05-14 2014-03-18 Qualcomm Incorporated Motion vector processing
US8817039B2 (en) 2009-05-15 2014-08-26 Sharp Kabushiki Kaisha Image processing device and image processing method
US20100292565A1 (en) 2009-05-18 2010-11-18 Andreas Meyer Medical imaging medical device navigation from at least two 2d projections from different angles
WO2010133982A2 (en) 2009-05-18 2010-11-25 Koninklijke Philips Electronics, N.V. Marker-free tracking registration and calibration for em-tracked endoscopic system
ES2388029B1 (es) 2009-05-22 2013-08-13 Universitat Politècnica De Catalunya Sistema robótico para cirugia laparoscópica.
GB0915200D0 (en) 2009-09-01 2009-10-07 Ucl Business Plc Method for re-localising sites in images
US20110092808A1 (en) 2009-10-20 2011-04-21 Magnetecs, Inc. Method for acquiring high density mapping data with a catheter guidance system
WO2011055245A1 (en) 2009-11-04 2011-05-12 Koninklijke Philips Electronics N.V. Collision avoidance and detection using distance sensors
JP4781492B2 (ja) 2009-11-10 2011-09-28 オリンパスメディカルシステムズ株式会社 多関節マニピュレータ装置及びそれを有する内視鏡システム
JP2013517909A (ja) 2010-01-28 2013-05-20 ザ ペン ステイト リサーチ ファンデーション 気管支鏡検査法ガイダンスに適用される画像ベースのグローバル登録
WO2011102012A1 (ja) 2010-02-22 2011-08-25 オリンパスメディカルシステムズ株式会社 医療機器
DE102010012621A1 (de) 2010-03-24 2011-09-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur automatischen Adaption eines Referenzbildes
US8425455B2 (en) 2010-03-30 2013-04-23 Angiodynamics, Inc. Bronchial catheter and method of use
IT1401669B1 (it) 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
US8581905B2 (en) 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
EP2555795B1 (en) 2010-04-09 2016-07-13 Universiteit Utrecht Holding B.V. Recombinant multimeric influenza proteins
US9104902B2 (en) 2010-04-15 2015-08-11 Koninklijke Philips N.V. Instrument-based image registration for fusing images with tubular structures
US8845631B2 (en) 2010-04-28 2014-09-30 Medtronic Ablation Frontiers Llc Systems and methods of performing medical procedures
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US8494794B2 (en) 2010-06-13 2013-07-23 Angiometrix Corporation Methods and systems for determining vascular bodily lumen information and guiding medical devices
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US8460236B2 (en) 2010-06-24 2013-06-11 Hansen Medical, Inc. Fiber optic instrument sensing system
WO2012024686A2 (en) 2010-08-20 2012-02-23 Veran Medical Technologies, Inc. Apparatus and method for four dimensional soft tissue navigation
US9314306B2 (en) 2010-09-17 2016-04-19 Hansen Medical, Inc. Systems and methods for manipulating an elongate member
JP5669529B2 (ja) 2010-11-17 2015-02-12 オリンパス株式会社 撮像装置、プログラム及びフォーカス制御方法
WO2012075631A1 (en) 2010-12-08 2012-06-14 Industrial Technology Research Institute Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same
US8812079B2 (en) 2010-12-22 2014-08-19 Biosense Webster (Israel), Ltd. Compensation for magnetic disturbance due to fluoroscope
US9414770B2 (en) 2010-12-29 2016-08-16 Biosense Webster (Israel) Ltd. Respiratory effect reduction in catheter position sensing
US20120191086A1 (en) 2011-01-20 2012-07-26 Hansen Medical, Inc. System and method for endoluminal and translumenal therapy
JP6138699B2 (ja) 2011-02-18 2017-05-31 デピュイ・シンセス・プロダクツ・インコーポレイテッド 一体化されたナビゲーション及び誘導システムを備えるツール、並びに関連する装置及び方法
US10391277B2 (en) 2011-02-18 2019-08-27 Voxel Rad, Ltd. Systems and methods for 3D stereoscopic angiovision, angionavigation and angiotherapeutics
US10786432B2 (en) 2011-04-12 2020-09-29 Sartorius Stedim Biotech Gmbh Use of a device and a method for preparing mixtures of pharmaceutical substances
US10362963B2 (en) 2011-04-14 2019-07-30 St. Jude Medical, Atrial Fibrillation Division, Inc. Correction of shift and drift in impedance-based medical device navigation using magnetic field information
US10918307B2 (en) 2011-09-13 2021-02-16 St. Jude Medical, Atrial Fibrillation Division, Inc. Catheter navigation using impedance and magnetic field measurements
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
US9572481B2 (en) 2011-05-13 2017-02-21 Intuitive Surgical Operations, Inc. Medical system with multiple operating modes for steering a medical instrument through linked body passages
CN103648394B (zh) 2011-06-27 2016-11-16 皇家飞利浦有限公司 使用外科工具曲线与x-射线图像的配准的实时3d血管造影
US9173683B2 (en) 2011-08-31 2015-11-03 DePuy Synthes Products, Inc. Revisable orthopedic anchor and methods of use
CN102973317A (zh) 2011-09-05 2013-03-20 周宁新 微创手术机器人机械臂布置结构
BR112014005363A2 (pt) 2011-09-08 2017-06-13 Apn Health Llc determinação automática da localização e orientação 3d de um cateter usando apenas radioscopia 2d
US9918681B2 (en) 2011-09-16 2018-03-20 Auris Surgical Robotics, Inc. System and method for virtually tracking a surgical tool on a movable display
US9504604B2 (en) 2011-12-16 2016-11-29 Auris Surgical Robotics, Inc. Lithotripsy eye treatment
US20130246336A1 (en) 2011-12-27 2013-09-19 Mcafee, Inc. System and method for providing data protection workflows in a network environment
EP2809249B1 (en) 2012-02-03 2018-12-26 Intuitive Surgical Operations, Inc. Steerable flexible needle with embedded shape sensing
US20150051482A1 (en) 2012-02-09 2015-02-19 Koninklijke Philips N.V Shaft tracker for real-time navigation tracking
US9138165B2 (en) 2012-02-22 2015-09-22 Veran Medical Technologies, Inc. Systems, methods and devices for forming respiratory-gated point cloud for four dimensional soft tissue navigation
US10383765B2 (en) 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US20140142591A1 (en) 2012-04-24 2014-05-22 Auris Surgical Robotics, Inc. Method, apparatus and a system for robotic assisted surgery
US10039473B2 (en) 2012-05-14 2018-08-07 Intuitive Surgical Operations, Inc. Systems and methods for navigation based on ordered sensor records
WO2013192598A1 (en) 2012-06-21 2013-12-27 Excelsius Surgical, L.L.C. Surgical robot platform
EP2866642B1 (en) 2012-06-28 2017-09-13 Koninklijke Philips N.V. Fiber optic sensor guided navigation for vascular visualization and monitoring
DE102012220116A1 (de) 2012-06-29 2014-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobil handhabbare Vorrichtung, insbesondere zur Bearbeitung oder Beobachtung eines Körpers, und Verfahren zur Handhabung, insbesondere Kalibrierung, einer Vorrichtung
US9183354B2 (en) 2012-08-15 2015-11-10 Musc Foundation For Research Development Systems and methods for image guided surgery
EP2885114B1 (en) 2012-08-15 2021-06-30 Intuitive Surgical Operations, Inc. Phantom degrees of freedom for manipulating the movement of mechanical bodies
KR20150058250A (ko) 2012-08-24 2015-05-28 유니버시티 오브 휴스턴 로봇 장치 및 영상 안내 및 로봇 지원 수술을 위한 시스템
US9330454B2 (en) 2012-09-12 2016-05-03 Bruce Reiner Method and apparatus for image-centric standardized tool for quality assurance analysis in medical imaging
CN108042092B (zh) 2012-10-12 2023-02-28 直观外科手术操作公司 确定医疗器械在分支解剖结构中的位置
US20140107390A1 (en) 2012-10-12 2014-04-17 Elekta Ab (Publ) Implementation and experimental results of real-time 4d tumor tracking using multi-leaf collimator (mlc), and/or mlc-carriage (mlc-bank), and/or treatment table (couch)
US9141480B2 (en) 2012-10-17 2015-09-22 Datadirect Networks, Inc. Handling failed transaction peers in a distributed hash table
WO2014074481A2 (en) 2012-11-07 2014-05-15 Dana Automotive Systems Group, Llc A clutch management system
WO2014081725A2 (en) 2012-11-20 2014-05-30 University Of Washington Through Its Center For Commercialization Electromagnetic sensor integration with ultrathin scanning fiber endoscope
LU92104B1 (en) 2012-11-28 2014-05-30 Iee Sarl Method and system for determining a ventilatory threshold
JP6045417B2 (ja) 2012-12-20 2016-12-14 オリンパス株式会社 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
US11172809B2 (en) 2013-02-15 2021-11-16 Intuitive Surgical Operations, Inc. Vision probe with access port
EA033708B1 (ru) 2013-02-26 2019-11-19 Ahmet Sinan Kabakci Роботизированная манипуляционная система
US9459087B2 (en) 2013-03-05 2016-10-04 Ezono Ag Magnetic position detection system
EP2904957A4 (en) * 2013-03-06 2016-08-24 Olympus Corp ENDOSCOPE SYSTEM
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US10080576B2 (en) 2013-03-08 2018-09-25 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US9867635B2 (en) 2013-03-08 2018-01-16 Auris Surgical Robotics, Inc. Method, apparatus and system for a water jet
US20140296655A1 (en) 2013-03-11 2014-10-02 ROPAMedics LLC Real-time tracking of cerebral hemodynamic response (rtchr) of a subject based on hemodynamic parameters
EP2904958A4 (en) 2013-03-12 2016-08-24 Olympus Corp ENDOSCOPE SYSTEM
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US20170303941A1 (en) 2013-03-14 2017-10-26 The General Hospital Corporation System and method for guided removal from an in vivo subject
US20170238807A9 (en) 2013-03-15 2017-08-24 LX Medical, Inc. Tissue imaging and image guidance in luminal anatomic structures and body cavities
US9301723B2 (en) 2013-03-15 2016-04-05 Covidien Lp Microwave energy-delivery device and system
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US10271810B2 (en) 2013-04-02 2019-04-30 St. Jude Medical International Holding S.à r. l. Enhanced compensation of motion in a moving organ using processed reference sensor data
WO2014169103A2 (en) 2013-04-12 2014-10-16 Ninepoint Medical, Inc. Multiple aperture, multiple modal optical systems and methods
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
US20140364739A1 (en) 2013-06-06 2014-12-11 General Electric Company Systems and methods for analyzing a vascular structure
WO2014201165A1 (en) 2013-06-11 2014-12-18 Auris Surgical Robotics, Inc. System for robotic assisted cataract surgery
JP6037964B2 (ja) 2013-07-26 2016-12-07 オリンパス株式会社 マニピュレータシステム
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
KR102356881B1 (ko) 2013-08-15 2022-02-03 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 카테터 위치설정 및 삽입을 위한 그래픽 사용자 인터페이스
US10098565B2 (en) 2013-09-06 2018-10-16 Covidien Lp System and method for lung visualization using ultrasound
WO2015049612A2 (en) 2013-10-02 2015-04-09 Koninklijke Philips N.V. Hub design and methods for optical shape sensing registration
US9980785B2 (en) 2013-10-24 2018-05-29 Auris Health, Inc. Instrument device manipulator with surgical tool de-articulation
JP6656148B2 (ja) 2013-10-24 2020-03-04 オーリス ヘルス インコーポレイテッド ロボット支援管腔内手術のためのシステムおよび関連する方法
US9314191B2 (en) 2013-11-19 2016-04-19 Pacesetter, Inc. Method and system to measure cardiac motion using a cardiovascular navigation system
KR102337440B1 (ko) 2013-12-09 2021-12-10 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 장치-인지 가요성 도구 정합을 위한 시스템 및 방법
CN103705307B (zh) 2013-12-10 2017-02-22 中国科学院深圳先进技术研究院 手术导航系统及医疗机器人
CN103735313B (zh) 2013-12-11 2016-08-17 中国科学院深圳先进技术研究院 一种手术机器人及其状态监测方法
JP6261612B2 (ja) 2013-12-20 2018-01-17 オリンパス株式会社 軟性マニピュレータ用ガイド部材および軟性マニピュレータ
WO2015095715A1 (en) 2013-12-20 2015-06-25 Intuitive Surgical Operations, Inc. Simulator system for medical procedure training
CN105979879B (zh) 2014-01-24 2023-01-17 皇家飞利浦有限公司 具有光学形状感测设备视角的虚拟图像
CN106170265B (zh) 2014-02-04 2020-06-30 直观外科手术操作公司 用于介入工具的虚拟导航的组织的非刚性变形的系统和方法
SG11201606423VA (en) 2014-02-05 2016-09-29 Univ Singapore Systems and methods for tracking and displaying endoscope shape and distal end orientation
US20150223902A1 (en) 2014-02-07 2015-08-13 Hansen Medical, Inc. Navigation with 3d localization using 2d images
EP3104803B1 (en) 2014-02-11 2021-09-15 KB Medical SA Sterile handle for controlling a robotic surgical system from a sterile field
JP6270537B2 (ja) 2014-02-27 2018-01-31 オリンパス株式会社 医療用システム
KR20150103938A (ko) 2014-03-04 2015-09-14 현대자동차주식회사 리튬황 배터리 분리막
US10952751B2 (en) 2014-03-17 2021-03-23 Marksman Targeting, Inc. Surgical targeting systems and methods
CN104931059B (zh) 2014-03-21 2018-09-11 比亚迪股份有限公司 车载救援导航系统和方法
US10912523B2 (en) 2014-03-24 2021-02-09 Intuitive Surgical Operations, Inc. Systems and methods for anatomic motion compensation
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
US20150305650A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue
CN104055520B (zh) 2014-06-11 2016-02-24 清华大学 人体器官运动监测方法和手术导航系统
US20170007337A1 (en) 2014-07-01 2017-01-12 Auris Surgical Robotics, Inc. Driver-mounted torque sensing mechanism
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US20160270865A1 (en) 2014-07-01 2016-09-22 Auris Surgical Robotics, Inc. Reusable catheter with disposable balloon attachment and tapered tip
US9788910B2 (en) 2014-07-01 2017-10-17 Auris Surgical Robotics, Inc. Instrument-mounted tension sensing mechanism for robotically-driven medical instruments
US10159533B2 (en) 2014-07-01 2018-12-25 Auris Health, Inc. Surgical system with configurable rail-mounted mechanical arms
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
US20160000414A1 (en) 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
JP6604977B2 (ja) 2014-07-02 2019-11-13 コヴィディエン リミテッド パートナーシップ 3dのナビゲーションの間に距離および向きのフィードバックを提供するシステム
WO2016054256A1 (en) 2014-09-30 2016-04-07 Auris Surgical Robotics, Inc Configurable robotic surgical system with virtual rail and flexible endoscope
EP3206577A1 (en) 2014-10-15 2017-08-23 Vincent Suzara Magnetic field structures, field generators, navigation and imaging for untethered robotic device enabled medical procedure
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
DE102014222293A1 (de) 2014-10-31 2016-05-19 Siemens Aktiengesellschaft Verfahren zur automatischen Überwachung des Eindringverhaltens eines von einem Roboterarm gehaltenen Trokars und Überwachungssystem
WO2016077279A1 (en) 2014-11-11 2016-05-19 Vanderbilt University Methods for limiting acute kidney injury
JP7017931B2 (ja) 2014-11-13 2022-02-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 位置特定データをフィルタリングするシステム及び方法
US9931168B2 (en) 2015-01-12 2018-04-03 Biomet Manufacuturing. LLC Plan implementation
WO2016134297A1 (en) 2015-02-20 2016-08-25 Nostix, Llc Medical device position location systems, devices and methods
JP6371729B2 (ja) 2015-03-25 2018-08-08 富士フイルム株式会社 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
WO2016164824A1 (en) 2015-04-09 2016-10-13 Auris Surgical Robotics, Inc. Surgical system with configurable rail-mounted mechanical arms
CN104758066B (zh) 2015-05-06 2017-05-10 中国科学院深圳先进技术研究院 用于手术导航的设备及手术机器人
US9622827B2 (en) 2015-05-15 2017-04-18 Auris Surgical Robotics, Inc. Surgical robotics system
DE112015006531T5 (de) 2015-06-11 2018-02-15 Olympus Corporation Endoskopvorrichtung und Verfahren zum Bedienen der Endoskopvorrichtung
JP6750194B2 (ja) * 2015-06-19 2020-09-02 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、及び、医療用観察システム
US10347904B2 (en) 2015-06-19 2019-07-09 Solidenergy Systems, Llc Multi-layer polymer coated Li anode for high density Li metal battery
GB2540757B (en) 2015-07-22 2021-03-31 Cmr Surgical Ltd Torque sensors
US10706543B2 (en) 2015-08-14 2020-07-07 Intuitive Surgical Operations, Inc. Systems and methods of registration for image-guided surgery
WO2017030916A1 (en) 2015-08-14 2017-02-23 Schlumberger Technology Corporation Inline viscosity determination technique
JP6987040B2 (ja) 2015-08-28 2021-12-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 運動関係を決定する方法及び装置
CA2996196A1 (en) 2015-08-31 2017-03-09 Masimo Corporation Wireless patient monitoring systems and methods
WO2017044884A1 (en) 2015-09-09 2017-03-16 Auris Surgical Robotics, Inc. Instrument device manipulator for a surgical robotics system
CN108292366B (zh) * 2015-09-10 2022-03-18 美基蒂克艾尔有限公司 在内窥镜手术中检测可疑组织区域的系统和方法
US11311343B2 (en) 2015-09-17 2022-04-26 Endomaster Pte Ltd Flexible robotic endoscopy system
EP4070723A1 (en) 2015-09-18 2022-10-12 Auris Health, Inc. Navigation of tubular networks
JP6843130B2 (ja) 2015-10-13 2021-03-17 ライトラボ・イメージング・インコーポレーテッド 側枝カットプレーンビュー角度を決定する脈管内撮像システム及び方法
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US10231793B2 (en) 2015-10-30 2019-03-19 Auris Health, Inc. Object removal through a percutaneous suction tube
US10143526B2 (en) * 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
CN105559850B (zh) 2015-12-17 2017-08-25 天津工业大学 一种用于机器人辅助外科具有力传感功能的手术钻器械
US10143528B2 (en) 2015-12-17 2018-12-04 Glove First, Llc Glove donning system
US10932861B2 (en) 2016-01-14 2021-03-02 Auris Health, Inc. Electromagnetic tracking surgical system and method of controlling the same
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US10470719B2 (en) 2016-02-01 2019-11-12 Verily Life Sciences Llc Machine learnt model to detect REM sleep periods using a spectral analysis of heart rate and motion
WO2017146890A1 (en) 2016-02-26 2017-08-31 Intuitive Surgical Operations, Inc. System and method for collision avoidance using virtual boundaries
CN108883301B (zh) 2016-03-24 2020-11-10 皇家飞利浦有限公司 处置评估设备
US20190105112A1 (en) 2016-03-31 2019-04-11 Koninklijke Philips N.V. Image guided robot for catheter placement
US11324554B2 (en) 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
US10470839B2 (en) 2016-06-02 2019-11-12 Covidien Lp Assessment of suture or staple line integrity and localization of potential tissue defects along the suture or staple line
US10806516B2 (en) 2016-06-20 2020-10-20 General Electric Company Virtual 4D stent implantation path assessment
KR102607065B1 (ko) 2016-06-30 2023-11-29 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 영상 안내식 시술 중에 복수의 모드에서 안내 정보를 디스플레이하기 위한 그래픽 사용자 인터페이스
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
WO2018038999A1 (en) * 2016-08-23 2018-03-01 Intuitive Surgical Operations, Inc. Systems and methods for monitoring patient motion during a medical procedure
US10238455B2 (en) 2016-08-31 2019-03-26 Covidien Lp Pathway planning for use with a navigation planning and procedure system
KR20230096148A (ko) 2016-08-31 2023-06-29 아우리스 헬스, 인코포레이티드 길이 보존 수술용 기구
US20180055576A1 (en) 2016-09-01 2018-03-01 Covidien Lp Respiration motion stabilization for lung magnetic navigation system
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
US10136959B2 (en) 2016-12-28 2018-11-27 Auris Health, Inc. Endolumenal object sizing
US10543048B2 (en) 2016-12-28 2020-01-28 Auris Health, Inc. Flexible instrument insertion using an adaptive insertion force threshold
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
WO2018129532A1 (en) 2017-01-09 2018-07-12 Intuitive Surgical Operations, Inc. Systems and methods for registering elongate devices to three dimensional images in image-guided procedures
US11842030B2 (en) 2017-01-31 2023-12-12 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
US11071594B2 (en) 2017-03-16 2021-07-27 KB Medical SA Robotic navigation of robotic surgical systems
JP7159192B2 (ja) 2017-03-28 2022-10-24 オーリス ヘルス インコーポレイテッド シャフト作動ハンドル
US10475235B2 (en) 2017-03-29 2019-11-12 Fujifilm Corporation Three-dimensional image processing apparatus, three-dimensional image processing method, and three-dimensional image processing program
US11490782B2 (en) 2017-03-31 2022-11-08 Auris Health, Inc. Robotic systems for navigation of luminal networks that compensate for physiological noise
AU2018250049B2 (en) 2017-04-07 2023-06-29 Auris Health, Inc. Patient introducer alignment
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
US10643330B2 (en) 2017-04-21 2020-05-05 Biosense Webster (Israel) Ltd. Registration of an anatomical image with a position-tracking coordinate system based on proximity to bone tissue
US20180308247A1 (en) 2017-04-25 2018-10-25 Best Medical International, Inc. Tissue imaging system and method for tissue imaging
KR20240035632A (ko) 2017-05-12 2024-03-15 아우리스 헬스, 인코포레이티드 생검 장치 및 시스템
CN110769736B (zh) 2017-05-17 2023-01-13 奥瑞斯健康公司 可更换工作通道
US10022192B1 (en) * 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
US10299870B2 (en) 2017-06-28 2019-05-28 Auris Health, Inc. Instrument insertion compensation
EP3644885B1 (en) 2017-06-28 2023-10-11 Auris Health, Inc. Electromagnetic field generator alignment
KR102578978B1 (ko) 2017-06-28 2023-09-19 아우리스 헬스, 인코포레이티드 전자파 왜곡 검출
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
US10593052B2 (en) 2017-08-23 2020-03-17 Synaptive Medical (Barbados) Inc. Methods and systems for updating an existing landmark registration
US10464209B2 (en) 2017-10-05 2019-11-05 Auris Health, Inc. Robotic system with indication of boundary for robotic arm
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
US10016900B1 (en) 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
US11058493B2 (en) * 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
EP3684282B1 (en) 2017-12-06 2024-02-21 Auris Health, Inc. Systems to correct for uncommanded instrument roll
US10850013B2 (en) 2017-12-08 2020-12-01 Auris Health, Inc. Directed fluidics
KR20200099138A (ko) 2017-12-08 2020-08-21 아우리스 헬스, 인코포레이티드 의료 기구 항행 및 표적 선정을 위한 시스템 및 방법
WO2019118368A1 (en) 2017-12-11 2019-06-20 Auris Health, Inc. Systems and methods for instrument based insertion architectures
AU2018384820A1 (en) 2017-12-14 2020-05-21 Auris Health, Inc. System and method for estimating instrument location
WO2019125964A1 (en) 2017-12-18 2019-06-27 Auris Health, Inc. Methods and systems for instrument tracking and navigation within luminal networks
MX2020007623A (es) 2018-01-17 2020-09-14 Auris Health Inc Plataforma quirurgica con soportes de brazo regulable.
JP7301884B2 (ja) 2018-02-13 2023-07-03 オーリス ヘルス インコーポレイテッド 医療用器具を駆動するためのシステム及び方法
WO2019169178A1 (en) 2018-03-01 2019-09-06 Auris Health, Inc. Methods and systems for mapping and navigation
JP2019154816A (ja) 2018-03-13 2019-09-19 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置、医療用観察装置、及び医療用観察装置の作動方法
KR102489198B1 (ko) 2018-03-28 2023-01-18 아우리스 헬스, 인코포레이티드 위치 센서의 정합을 위한 시스템 및 방법
KR20200139199A (ko) 2018-03-28 2020-12-11 아우리스 헬스, 인코포레이티드 가변 굽힘 강성 프로파일을 갖는 의료 기구
JP7225259B2 (ja) 2018-03-28 2023-02-20 オーリス ヘルス インコーポレイテッド 器具の推定位置を示すためのシステム及び方法
KR20200139200A (ko) 2018-03-29 2020-12-11 아우리스 헬스, 인코포레이티드 회전 오프셋을 갖는 다기능 엔드 이펙터를 가진 로봇식 의료 시스템
EP3801190A4 (en) 2018-05-30 2022-03-02 Auris Health, Inc. SYSTEMS AND METHODS FOR SENSOR-BASED BRANCH LOCATION PREDICTION
CN110831538B (zh) 2018-05-31 2023-01-24 奥瑞斯健康公司 基于图像的气道分析和映射
US10898286B2 (en) 2018-05-31 2021-01-26 Auris Health, Inc. Path-based navigation of tubular networks
CN112236083A (zh) 2018-05-31 2021-01-15 奥瑞斯健康公司 用于导航检测生理噪声的管腔网络的机器人系统和方法
US10744981B2 (en) 2018-06-06 2020-08-18 Sensata Technologies, Inc. Electromechanical braking connector
JP7267309B2 (ja) 2018-06-07 2023-05-01 オーリス ヘルス インコーポレイテッド 高力器具を有するロボット医療システム
JP7366943B2 (ja) 2018-06-27 2023-10-23 オーリス ヘルス インコーポレイテッド 医療器具のための位置合わせ及び取り付けシステム
WO2020005370A1 (en) 2018-06-27 2020-01-02 Auris Health, Inc. Systems and techniques for providing multiple perspectives during medical procedures
JP7391886B2 (ja) 2018-06-28 2023-12-05 オーリス ヘルス インコーポレイテッド 滑車共有を組み込んだ医療システム
KR20230169481A (ko) 2018-08-07 2023-12-15 아우리스 헬스, 인코포레이티드 카테터 제어와의 변형-기반 형상 감지의 조합
US10828118B2 (en) 2018-08-15 2020-11-10 Auris Health, Inc. Medical instruments for tissue cauterization
WO2020036686A1 (en) 2018-08-17 2020-02-20 Auris Health, Inc. Bipolar medical instrument
WO2020041619A2 (en) 2018-08-24 2020-02-27 Auris Health, Inc. Manually and robotically controllable medical instruments
US11203254B2 (en) 2018-08-28 2021-12-21 Magna Closures Inc. Frameless window regulator rail with over-molded functional edge
US11197728B2 (en) 2018-09-17 2021-12-14 Auris Health, Inc. Systems and methods for concomitant medical procedures
WO2020068853A2 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Articulating medical instruments
WO2020068303A1 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Systems and instruments for suction and irrigation
US10820947B2 (en) 2018-09-28 2020-11-03 Auris Health, Inc. Devices, systems, and methods for manually and robotically driving medical instruments
AU2019347767A1 (en) 2018-09-28 2021-04-08 Auris Health, Inc. Systems and methods for docking medical instruments
CN112804959A (zh) 2018-09-28 2021-05-14 奥瑞斯健康公司 用于伴随内窥镜和经皮医学规程的机器人系统和方法
WO2020076447A1 (en) 2018-10-08 2020-04-16 Auris Health, Inc. Systems and instruments for tissue sealing
US11950863B2 (en) 2018-12-20 2024-04-09 Auris Health, Inc Shielding for wristed instruments
WO2020140072A1 (en) 2018-12-28 2020-07-02 Auris Health, Inc. Percutaneous sheath for robotic medical systems and methods
CN113453642A (zh) 2019-02-22 2021-09-28 奥瑞斯健康公司 具有用于可调式臂支撑件的机动臂的外科平台
KR20210137508A (ko) 2019-03-08 2021-11-17 아우리스 헬스, 인코포레이티드 의료 시스템 및 응용을 위한 틸트 메커니즘
EP3908224A4 (en) 2019-03-22 2022-10-19 Auris Health, Inc. SYSTEMS AND METHODS FOR INLET ALIGNMENTS ON MEDICAL DEVICES
CN113613566A (zh) 2019-03-25 2021-11-05 奥瑞斯健康公司 用于医疗缝合的系统和方法
US11617627B2 (en) 2019-03-29 2023-04-04 Auris Health, Inc. Systems and methods for optical strain sensing in medical instruments
KR20210149805A (ko) 2019-04-08 2021-12-09 아우리스 헬스, 인코포레이티드 동시 절차를 위한 시스템, 방법, 및 작업흐름
WO2020263827A1 (en) 2019-06-25 2020-12-30 Auris Health, Inc. Medical instruments including wrists with hybrid redirect surfaces
US20200405419A1 (en) 2019-06-26 2020-12-31 Auris Health, Inc. Systems and methods for robotic arm alignment and docking
WO2020263629A1 (en) 2019-06-27 2020-12-30 Auris Health, Inc. Systems and methods for a medical clip applier
US20200405411A1 (en) 2019-06-28 2020-12-31 Auris Health, Inc. Patient introducer for a robotic system
EP3989793A4 (en) 2019-06-28 2023-07-19 Auris Health, Inc. CONSOLE OVERLAY ITS METHODS OF USE
WO2020263949A1 (en) 2019-06-28 2020-12-30 Auris Health, Inc. Medical instruments including wrists with hybrid redirect surfaces
CN114340540B (zh) * 2019-08-30 2023-07-04 奥瑞斯健康公司 器械图像可靠性系统和方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010512173A (ja) 2006-08-21 2010-04-22 エスティーアイ・メディカル・システムズ・エルエルシー 内視鏡からの映像を用いるコンピュータ支援解析
JP5715312B2 (ja) 2013-03-27 2015-05-07 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2017534322A (ja) 2014-09-17 2017-11-24 タリス バイオメディカル エルエルシー 膀胱の診断的マッピング方法及びシステム
JP2016163609A (ja) 2015-03-06 2016-09-08 富士フイルム株式会社 分岐構造判定装置、方法およびプログラム
JP2017055954A (ja) 2015-09-16 2017-03-23 富士フイルム株式会社 内視鏡位置特定装置、方法およびプログラム
US20180296281A1 (en) 2017-04-12 2018-10-18 Bio-Medical Engineering (HK) Limited Automated steering systems and methods for a robotic endoscope
US20190110843A1 (en) 2017-10-13 2019-04-18 Auris Health, Inc. Image-based branch detection and mapping for navigation

Also Published As

Publication number Publication date
US11944422B2 (en) 2024-04-02
US20220031402A1 (en) 2022-02-03
EP4021329A4 (en) 2023-05-03
EP4021329A1 (en) 2022-07-06
KR20220058918A (ko) 2022-05-10
US20210059765A1 (en) 2021-03-04
US11147633B2 (en) 2021-10-19
CN114340540B (zh) 2023-07-04
WO2021038495A1 (en) 2021-03-04
JP2022546419A (ja) 2022-11-04
CN114340540A (zh) 2022-04-12

Similar Documents

Publication Publication Date Title
US11759090B2 (en) Image-based airway analysis and mapping
US11850008B2 (en) Image-based branch detection and mapping for navigation
US11957446B2 (en) System and method for medical instrument navigation and targeting
KR20200023639A (ko) 관강 네트워크에서 의료 디바이스의 포즈를 결정하기 위한 로봇 시스템
JP7451686B2 (ja) 器具画像信頼性システム及び方法
WO2022208253A1 (en) Vision-based 6dof camera pose estimation in bronchoscopy

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230817

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230817

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240306

R150 Certificate of patent or registration of utility model

Ref document number: 7451686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150