JP7250824B2 - 位置センサベースの分岐予測のためのシステム及び方法 - Google Patents

位置センサベースの分岐予測のためのシステム及び方法 Download PDF

Info

Publication number
JP7250824B2
JP7250824B2 JP2020566601A JP2020566601A JP7250824B2 JP 7250824 B2 JP7250824 B2 JP 7250824B2 JP 2020566601 A JP2020566601 A JP 2020566601A JP 2020566601 A JP2020566601 A JP 2020566601A JP 7250824 B2 JP7250824 B2 JP 7250824B2
Authority
JP
Japan
Prior art keywords
instrument
orientation
data
segment
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020566601A
Other languages
English (en)
Other versions
JP2021525572A (ja
JPWO2019231895A5 (ja
Inventor
ラフィー-タリ・ヘディー
Original Assignee
オーリス ヘルス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オーリス ヘルス インコーポレイテッド filed Critical オーリス ヘルス インコーポレイテッド
Publication of JP2021525572A publication Critical patent/JP2021525572A/ja
Publication of JPWO2019231895A5 publication Critical patent/JPWO2019231895A5/ja
Application granted granted Critical
Publication of JP7250824B2 publication Critical patent/JP7250824B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • A61B1/2676Bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • A61B1/2736Gastroscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/307Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the urinary organs, e.g. urethroscopes, cystoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G12/00Accommodation for nursing, e.g. in hospitals, not covered by groups A61G1/00 - A61G11/00, e.g. trolleys for transport of medicaments or food; Prescription lists
    • A61G12/001Trolleys for transport of medicaments, food, linen, nursing supplies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/02Adjustable operating tables; Controls therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/02Adjustable operating tables; Controls therefor
    • A61G13/04Adjustable operating tables; Controls therefor tiltable around transverse or longitudinal axis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/10Parts, details or accessories
    • A61G13/12Rests specially adapted therefor; Arrangements of patient-supporting surfaces
    • A61G13/128Rests specially adapted therefor; Arrangements of patient-supporting surfaces with mechanical surface adaptations
    • A61G13/1295Rests specially adapted therefor; Arrangements of patient-supporting surfaces with mechanical surface adaptations having alignment devices for the patient's body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/306Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3612Image-producing devices, e.g. surgical cameras with images taken automatically
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G13/00Operating tables; Auxiliary appliances therefor
    • A61G13/10Parts, details or accessories
    • A61G13/12Rests specially adapted therefor; Arrangements of patient-supporting surfaces
    • A61G13/1205Rests specially adapted therefor; Arrangements of patient-supporting surfaces for specific parts of the body
    • A61G13/125Ankles or feet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/16Touchpads
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2210/00Devices for specific treatment or diagnosis
    • A61G2210/50Devices for specific treatment or diagnosis for radiography
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Description

(関連出願の相互参照)
本願は、2018年5月30日に出願された米国特許仮出願第62/678,160号、及び2018年5月31日に出願された米国特許仮出願第62/678,962号に対して優先権を主張するものであり、これらの各々は、参照によりその全体が本明細書に組み込まれる。
(発明の分野)
本明細書に開示されているシステム及び方法は、管腔網における分岐予測を対象とし、より具体的には、位置センサデータに基づいて、器具がどの分岐に前進するのかを予測するための技術を対象とする。
内視鏡検査(例えば、気管支鏡検査)などの医療処置は、診断及び/又は治療目的のために、患者の管腔網(例えば、気道)内への医療用具の挿入を伴うことがある。外科用ロボットシステムが、医療処置中の医療用具の挿入及び/又は操作を制御するために使用されることがある。外科用ロボットシステムは、医療処置前及び医療処置中に医療用具の位置決めを制御するために使用され得るマニピュレータアセンブリを含む少なくとも1つのロボットアームを備え得る。外科用ロボットシステムは、医療用具の遠位端のポジションを示す位置データを生成するように構成された位置センサ(複数可)を更に備えることができる。
外科用ロボットシステムは、器具の遠位端のポジションの表示をユーザに提供するための1つ又は2つ以上のディスプレイを更に備えてもよく、それによって、ユーザが患者の管腔網を通して器具をナビゲートするのを支援する。システムは、器具のナビゲーションをサポートする様々な技術を実行するように構成されてもよく、これには、器具が現在の分岐から管腔網のどの分岐内に前進する可能性が高いかを予測することを含む。
本開示のシステム、方法及びデバイスは各々、いくつかの革新的な態様を有し、そのうちの1つも、本明細書に開示される望ましい属性にのみ関与するものではない。
一態様では、システムが提供され、システムは、プロセッサと、プロセッサと通信し、かつ患者の管腔網のモデルを記憶している少なくとも1つのコンピュータ可読メモリと、を含み、メモリは、メモリに記憶されたコンピュータ実行可能命令を有しており、コンピュータ実行可能命令が、プロセッサに、器具のための一組の1つ又は2つ以上の位置センサによって生成された第1の位置データに基づいて、器具の第1の配向を判定することであって、第1の位置データが、第1の時間における位置センサ座標系内の器具の位置を示す、判定することと、一組の位置センサによって生成された第2の位置データに基づいて、第2の時間における器具の第2の配向を判定することであって、器具の遠位端が、第1の時間及び第2の時間においてモデルの第1のセグメント内に位置し、第1のセグメントが、2つ又は3つ以上の子セグメントに分岐している、判定することと、第1の配向と第2の配向との間の差を示すデータを判定することと、その差を示すデータに基づいて、器具が子セグメントのうちの第1の子セグメント内に前進するという予測を判定することと、を行わせる。
別の態様では、非一時的コンピュータ可読記憶媒体が提供され、非一時的コンピュータ可読記憶媒体は、非一時的コンピュータ可読記憶媒体に記憶された命令を有し、命令は、実行されたときに、少なくとも1つのコンピューティングデバイスに、器具のための一組の1つ又は2つ以上の位置センサによって生成された第1の位置データに基づいて、器具の第1の配向を判定することであって、第1の位置データが、第1の時間における位置センサ座標系内の器具の位置を示す、判定することと、一組の位置センサによって生成された第2の位置データに基づいて、第2の時間における器具の第2の配向を判定することであって、器具の遠位端が、第1の時間及び第2の時間においてモデルの第1のセグメント内に位置し、第1のセグメントが、2つ又は3つ以上の子セグメントに分岐し、モデルが、メモリに記憶され、患者の管腔網をモデル化する、判定することと、第1の配向と第2の配向との間の差を示すデータを判定することと、その差を示すデータに基づいて、器具が子セグメントのうちの第1の子セグメント内に前進するという予測を判定することと、を行わせる。
更に別の態様では、器具の移動を予測する方法が提供され、この方法は、器具のための一組の1つ又は2つ以上の位置センサによって生成された第1の位置データに基づいて、器具の第1の配向を判定することであって、第1の位置データが、第1の時間における位置センサ座標系内の器具の位置を示す、判定することと、一組の位置センサによって生成された第2の位置データに基づいて、第2の時間における器具の第2の配向を判定することであって、器具の遠位端が、第1の時間及び第2の時間においてモデルの第1のセグメント内に位置し、第1のセグメントが、2つ又は3つ以上の子セグメントに分岐し、モデルがメモリに記憶され、患者の管腔網をモデル化する、判定することと、第1の配向と第2の配向との間の差を示すデータを判定することと、その差を示すデータに基づいて、器具が子セグメントのうちの第1の子セグメント内に前進するという予測を判定することと、含む。
更に別の態様では、システムが提供され、システムは、プロセッサと、プロセッサと通信し、かつ患者の管腔網のモデルを記憶している少なくとも1つのコンピュータ可読メモリと、を含み、メモリは、メモリに記憶されたコンピュータ実行可能命令を有しており、コンピュータ実行可能命令が、プロセッサに、器具のための一組の1つ又は2つ以上の位置センサによって生成された位置データに基づいて、モデルに対する器具の配向を判定することであって、器具の遠位端が、モデルの第1のセグメント内に位置し、第1のセグメントが、2つ又は3つ以上の子セグメント内に分岐している、判定することと、子セグメントのうちの第1の子セグメントの配向を判定することと、器具の配向及び第1の子セグメントの配向に基づいて、器具が第1の子セグメント内に前進するという予測を判定することと、を行わせる。
別の態様では、非一時的コンピュータ可読記憶媒体が提供され、非一時的コンピュータ可読記憶媒体は、非一時的コンピュータ可読記憶媒体に記憶された命令を有し、命令は、実行されたときに、少なくとも1つのコンピュータデバイスに、器具のための一組の1つ又は2つ以上の位置センサによって生成された位置データに基づいて、モデルに対する器具の配向を判定することであって、モデルが、メモリに記憶されて患者の管腔網をモデル化し、器具の遠位端が、モデルの第1のセグメント内に位置し、第1のセグメントが、2つ又は3つ以上の子セグメント内に分岐している、判定することと、子セグメントのうちの第1の子セグメントの配向を判定することと、器具の配向及び第1の子セグメントの配向に基づいて、器具が第1の子セグメント内に前進するという予測を判定することと、を行わせる。
更に別の態様では、器具の移動を予測する方法を提供し、本方法は、器具のための一組の1つ又は2つ以上の位置センサによって生成された位置データに基づいて、モデルに対する器具の配向を判定することであって、モデルが、メモリに記憶され、患者の管腔網をモデル化し、器具の遠位端が、モデルの第1のセグメント内に位置し、第1のセグメントが、2つ又は3つ以上の子セグメント内に分岐している、判定することと、子セグメントのうちの第1の子セグメントの配向を判定することと、器具の配向及び第1の子セグメントの配向に基づいて、器具が第1の子セグメント内に前進するという予測を判定することと、を含む。
開示される態様は、以下、添付の図面と併せて説明され、開示された態様を例示するが、限定するものではなく、同様の指定は同様の要素を示す。
診断及び/又は治療用気管支鏡検査処置(複数可)のために配置されたカートベースのロボットシステムの実施形態である。 図1のロボットシステムの更なる態様である。 尿管鏡検査のために配置された図1のロボットシステムの実施形態である。 血管処置のために配置された図1のロボットシステムの実施形態である。 気管支鏡検査処置のために配置されたテーブルベースのロボットシステムの実施形態である。 図5のロボットシステムの代替的な図である。 ロボットアーム(複数可)を格納するように構成された例示的なシステムである。 尿管鏡検査処置のために構成されたテーブルベースのロボットシステムの実施形態である。 腹腔鏡処置のために構成されたテーブルベースのロボットシステムの実施形態である。 ピッチ又は傾斜調整を備えた図5~図9のテーブルベースのロボットシステムの実施形態である。 図5~図10のテーブルベースのロボットシステムのテーブルとカラムとの間のインターフェースの詳細な図示である。 例示的な器具ドライバである。 ペア器具ドライバを備えた例示的な医療器具である。 駆動ユニットの軸が器具の細長いシャフトの軸に平行である、器具ドライバ及び器具の代替的な設計である。 例示的な実施形態による、図13及び図14の器具の位置など、図1~図10のロボットシステムの1つ又は2つ以上の要素の位置を推定する位置特定システムを示すブロック図である。 開示する分岐予測システム及び技術の1つ又は2つ以上の態様を実施する例示的な手術環境である。 図16Aの手術環境においてナビゲートされることができる例示的な管腔網である。 例えば例示的な手術環境においてコマンドコンソールとして使用することができる例示的なコマンドコンソールである。 一実施形態による、ナビゲーション構成システムの例示的なブロック図の概要である。 一実施形態による、図17Aに示すナビゲーションモジュールの例示的なブロック図である。 一実施形態による、状態推定器に含まれる推定状態データストアの例示的なブロック図である。 本開示の態様による、例示的な位置センサベースの分岐予測システムである。 本開示の態様による、位置合わせされていない位置センサベースの分岐予測のための、ロボットシステム又はその構成要素(複数可)によって動作可能な例示的な方法を示すフローチャートである。 本開示の態様による、器具が管腔網を通して駆動される際に、1つ又は2つ以上の位置センサによって生成され得る例示的な一組の位置データ点である。 本開示の態様による、位置センサベースの分岐予測を実行することができる例示的な管腔網である。 本開示の態様による、位置合わせされた位置センサベースの分岐予測のための、ロボットシステム又はその構成要素(複数可)によって動作可能な例示的な方法を示すフローチャートである。 本開示の態様による、位置センサベースの分岐予測のための、ロボットシステム又はその構成要素(複数可)によって動作可能な例示的な方法を示すフローチャートである。
1.概論。
本開示の態様は、腹腔鏡などの低侵襲性、及び内視鏡などの非侵襲性の両方の処置を含む、様々な医療処置を行うことができるロボット制御可能な医療システムに統合され得る。内視鏡処置のうち、システムは、気管支鏡検査、尿管鏡検査、胃鏡検査などを行うことができる。
幅広い処置を実行することに加えて、システムは、医師を支援するための強調された撮像及び誘導などの追加の利益を提供することができる。加えて、システムは、厄介なアーム運動及び位置を必要とせずに、人間工学的位置から処置を行う能力を医師に提供することができる。また更に、システムは、システムの器具のうちの1つ又は2つ以上が単一のユーザによって制御され得るように、改善された使いやすさで処置を行う能力を医師に提供することができる。
以下、説明を目的として、図面と併せて、様々な実施形態が説明される。開示された概念の多くの他の実施態様が可能であり、開示された実施態様で様々な利点が達成され得ることを理解されたい。見出しが、参照のために本明細書に含まれ、様々なセクションの位置を特定する支援となる。これらの見出しは、それに関して説明される概念の範囲を限定することを意図するものではない。そのような概念は、本明細書全体にわたって適用可能性を有し得る。
A.ロボットシステム-カート。
ロボット制御可能な医療システムは、特定の処置に応じて様々な方法で構成され得る。図1は、診断及び/又は治療用気管支鏡検査処置のために配置された、カートベースのロボット制御可能なシステム10の実施形態を示す。気管支鏡検査の間、システム10は、気管支鏡検査のための処置特有の気管支鏡であり得る操縦可能な内視鏡13などの医療器具を、診断及び/又は治療用具を送達するための自然オリフィスアクセスポイント(すなわち、本実施例ではテーブル上に位置付けられた患者の口)に送達するための1つ又は2つ以上のロボットアーム12を有するカート11を含み得る。図示のように、カート11は、アクセスポイントへのアクセスを提供するために、患者の上部胴体に近接して位置付けられ得る。同様に、ロボットアーム12は、アクセスポイントに対して気管支鏡を位置付けるために作動され得る。図1の配置はまた、胃腸管(gastro-intestinal、GI)処置を胃鏡(GI処置のための特殊な内視鏡)を用いて実行するときにも利用され得る。図2は、カートの例示的な実施形態をより詳細に描画する。
図1を引き続き参照すると、一旦カート11が適切に位置付けられると、ロボットアーム12は、操縦可能な内視鏡13をロボットで、手動で、又はそれらの組み合わせで患者内に挿入することができる。図示のように、操縦可能な内視鏡13は、内側リーダー部分及び外側シース部分などの少なくとも2つの入れ子式部品を含んでもよく、各部分は、器具ドライバのセット28から別個の器具ドライバに結合され、各器具ドライバは、個々のロボットアームの遠位端に結合されている。リーダー部分をシース部分と同軸上に整合させるのを容易にする器具ドライバ28のこの直線配置は、1つ又は2つ以上のロボットアーム12を異なる角度及び/又は位置に操作することによって空間内に再配置され得る「仮想レール」29を作成する。本明細書に記載される仮想レールは、破線を使用して図に示されており、したがって破線は、システムの物理的構造を示さない。仮想レール29に沿った器具ドライバ28の並進は、外側シース部分に対して内側リーダー部分を入れ子にするか、又は内視鏡13を患者から前進又は後退させる。仮想レール29の角度は、臨床用途又は医師の好みに基づいて調整、並進、及び枢動されてもよい。例えば、気管支鏡検査では、図示されるような仮想レール29の角度及び位置は、内視鏡13を患者の口内に曲げ入れることによる摩擦を最小限に抑えながら内視鏡13への医師のアクセスを提供する妥協を表す。
内視鏡13は、対象の目的地又は手術部位に到達するまで、ロボットシステムからの正確なコマンドを使用して挿入後に患者の気管及び肺の下方に指向されてもよい。患者の肺網を通したナビゲーションを高め、及び/又は所望の標的に到達するために、内視鏡13を操縦して、内側リーダー部分を外側シース部分から入れ子状に延在させて、高められた関節運動及びより大きな曲げ半径を得てもよい。別個の器具ドライバ28の使用により、リーダー部分及びシース部分が互いに独立して駆動されることも可能にする。
例えば、内視鏡13は、例えば、患者の肺内の病変又は小結節などの標的に生検針を送達するように指向されてもよい。針は、内視鏡の長さにわたる作業チャネルの下方に展開されて、病理医によって分析される組織試料を得てもよい。病理の結果に応じて、追加の生検のために追加のツールが内視鏡の作業チャネルの下方に展開されてもよい。小結節を悪性と識別した後、内視鏡13は、潜在的な癌組織を切除するために器具を内視鏡的に送達してもよい。場合によっては、診断及び治療的処置は、別個の処置で送達される必要があってもよい。これらの状況において、内視鏡13はまた、標的小結節の位置を「マーク」するために基準を送達するために使用されてもよい。他の例では、診断及び治療的処置は、同じ処置中に送達されてもよい。
システム10はまた、カート11に支持ケーブルを介して接続されて、カート11への制御、電子機器、流体工学、光学系、センサ、及び/又は電力のためのサポートを提供し得る移動可能なタワー30を含んでもよい。タワー30内にこのような機能を置くことにより、動作を行う医師及びそのスタッフがより容易に調整及び/又は再配置することができるより小さいフォームファクタのカート11が可能となる。追加的に、カート/テーブルと支持タワー30との間の機能の分割は、手術室の乱雑さを低減し、臨床ワークフローの改善を促進する。カート11は患者に近接して配置されてもよいが、タワー30は、処置中に邪魔にならないように遠隔位置に格納されてもよい。
上述のロボットシステムのサポートにおいて、タワー30は、例えば、永続的な磁気記憶ドライブ、ソリッドステートドライブなどの非一時的コンピュータ可読記憶媒体内にコンピュータプログラム命令を記憶するコンピュータベースの制御システムの構成要素(複数可)を含んでもよい。これらの命令の実行は、実行がタワー30内で行われるのか又はカート11で行われるのかにかかわらず、そのシステム又はサブシステム(複数可)全体を制御してもよい。例えば、コンピュータシステムのプロセッサによって実行されるときに、命令は、ロボットシステムの構成要素に、関連するキャリッジ及びアームマウントを作動させ、ロボットアームを作動させ、医療器具を制御させてもよい。例えば、制御信号を受信したことに応答して、ロボットアームの関節内のモータは、アームをある特定の姿勢に配置してもよい。
タワー30はまた、内視鏡13を通して展開され得るシステムに制御された灌注及び吸引能力を提供するために、ポンプ、流量計、弁制御、及び/又は流体アクセスを含んでもよい。これらの構成要素はまた、タワー30のコンピュータシステムを使用して制御されてもよい。いくつかの実施形態では、灌注及び吸引能力は、別個のケーブル(複数可)を通して内視鏡13に直接送達されてもよい。
タワー30は、フィルタリングされ、保護された電力をカート11に提供するように設計された電圧及びサージ保護具を含んでもよく、それによって、カート11内に電力変圧器及び他の補助電力構成要素を配置することが回避され、カート11はより小さく、より移動可能になる。
タワー30はまた、ロボットシステム10全体に配置されたセンサのための支持機器を含んでもよい。例えば、タワー30は、ロボットシステム10のあらゆる場所の光センサ又はカメラから受信したデータを検出、受信、及び処理するためのオプトエレクトロニクス機器を含んでもよい。制御システムと組み合わせて、このようなオプトエレクトロニクス機器は、タワー30内を含むシステム全体に展開された任意の数のコンソール内に表示するためのリアルタイム画像を生成するために使用されてもよい。同様に、タワー30はまた、展開された電磁(electromagnetic、EM)センサから受信した信号を受信及び処理するための電子サブシステムを含んでもよい。タワー30はまた、医療器具内又は医療器具上のEMセンサによる検出のためにEM場発生器を収容し、配置するために使用されてもよい。
タワー30はまた、システムの残りの部分で利用可能な他のコンソール、例えば、カートの上部上に装着されたコンソールに追加して、コンソール31を含んでもよい。コンソール31は、医師操作者のためのユーザインターフェース及びタッチスクリーンなどの表示画面を含んでもよい。システム10内のコンソールは、一般に、ロボット制御、並びに内視鏡13のナビゲーション情報及び位置特定情報などの処置の術前及びリアルタイム情報の両方を提供するように設計される。コンソール31が医師に利用可能な唯一のコンソールではない場合、コンソール31は、患者の健康又は生命及びシステムの動作を監視し、並びにナビゲーション及び位置特定情報などの処置固有のデータを提供するために、看護師などの第2の操作者によって使用されてもよい。
タワー30は、1つ又は2つ以上のケーブル又は接続(図示せず)を介してカート11及び内視鏡13に結合されてもよい。いくつかの実施形態では、タワー30からの支持機能は、単一ケーブルを通してカート11に提供されることにより、手術室を簡略化し、整理整頓することができる。他の実施形態では、特定の機能は、別個の配線及び接続で結合されてもよい。例えば、単一の電力ケーブルを通してカートに電力が供給されてもよい一方、制御、光学、流体工学、及び/又はナビゲーションのためのサポートは、別個のケーブルを通して提供されてもよい。
図2は、図1に示されるカートベースのロボット制御可能なシステムからのカートの実施形態の詳細な図を提供する。カート11は、概して、細長い支持構造14(「カラム」と呼ばれることが多い)、カート基部15、及びカラム14の頂部にあるコンソール16を含む。カラム14は、1つ又は2つ以上のロボットアーム12(図2には3つ示されている)の展開を支持するためのキャリッジ17(代替的に「アーム支持体」)などの1つ又は2つ以上のキャリッジを含んでもよい。キャリッジ17は、患者に対してより良好に配置するために垂直軸に沿って回転してロボットアーム12の基部を調整する、個別に構成可能なアームマウントを含んでもよい。キャリッジ17はまた、キャリッジ17がカラム14に沿って垂直方向に並進することを可能にするキャリッジインターフェース19を含む。
キャリッジインターフェース19は、キャリッジ17の垂直方向の並進を案内するためにカラム14の両側に配置されたスロット20などのスロットを通してカラム14に接続されている。スロット20は、カート基部15に対して様々な垂直方向の高さでキャリッジを配置及び保持するための垂直方向の並進インターフェースを含む。キャリッジ17の垂直方向の並進により、カート11が、様々なテーブルの高さ、患者のサイズ、及び医師の好みを満たすようにロボットアーム12の到達を調整することを可能にする。同様に、キャリッジ17上の個別に構成可能なアームマウントにより、ロボットアーム12のロボットアーム基部21を様々な構成で角度付けすることが可能となる。
いくつかの実施形態では、キャリッジ17が垂直方向に並進する際にカラム14の内部チャンバ及び垂直方向の並進インターフェース内に汚れ及び流体が侵入するのを防止するために、スロット20には、スロット表面と同一平面及び平行であるスロットカバーが追加されてもよい。スロットカバーは、スロット20の垂直方向の頂部及び底部付近に配置されたばねスプールの対を通じて展開されてもよい。カバーは、スプール内でコイル巻きにされており、キャリッジ17が垂直方向に上下に並進して初めて展開して、それらのコイル状態から延伸及び後退する。スプールのばね荷重は、キャリッジ17がスプールに向かって並進するときにカバーをスプール内に後退させるための力を提供する一方で、キャリッジ17がスプールから離れるように並進するときに密封も維持する。カバーは、キャリッジ17が並進する際にカバーが適切に延在及び後退するのを確実にするために、例えば、キャリッジインターフェース19内のブラケットを使用してキャリッジ17に接続されてもよい。
カラム14は、例えば、コンソール16からの入力などのユーザ入力に応答して生成された制御信号に応答してキャリッジ17を機械的に並進させるために垂直方向に整合した主ねじを使用するように設計された、歯車及びモータなどの機構を内部に含んでもよい。
ロボットアーム12は、一般に、一連の関節24によって接続されている一連の連結部23によって分離されたロボットアーム基部21及びエンドエフェクタ22を含んでもよく、各関節は独立したアクチュエータを含み、各アクチュエータは、独立して制御可能なモータを含む。各独立して制御可能な関節は、ロボットアームが利用可能な独立した自由度を表す。アーム12の各々は、7つの関節を有し、したがって、7つの自由度を提供する。多数の関節は、多数の自由度をもたらし、「冗長」自由度を可能にする。冗長自由度は、ロボットアーム12が、異なる連結位置及び関節角度を使用して空間内の特定の位置、配向、及び軌道で、それらのそれぞれのエンドエフェクタ22を配置することを可能にする。これにより、システムが空間内の所望のポイントから医療器具を配置及び指向させることが可能になると同時に、医師がアーム関節を患者から離れる臨床的に有利な位置へと移動させて、アームの衝突を回避しながらよりよいアクセスを生み出すことを可能にする。
カート基部15は、床の上のカラム14、キャリッジ17、及びアーム12の重量の釣り合いをとる。したがって、カート基部15は、電子機器、モータ、電源、並びにカートの移動及び/又は固定化のいずれかを可能にする構成要素などの、より重い部品を収容する。例えば、カート基部15は、処置前にカートが部屋中をあちこちに容易に移動することを可能にする、転動可能なホイール形状のキャスター25を含む。適切な位置に到達した後、キャスター25は、処置中にカート11を定位置に保持するためのホイールロックを使用して静止させられてもよい。
カラム14の垂直方向の端部に配置されたコンソール16は、ユーザ入力を受信するためのユーザインターフェース及び表示画面(又は、例えば、タッチスクリーン26などの二重目的デバイス)の両方を可能にして、術前データ及び術中データの両方を医師であるユーザに提供する。タッチスクリーン26上の潜在的な術前データは、術前計画、術前コンピュータ断層撮影(computerized tomography、CT)スキャンから導出されたナビゲーション及びマッピングデータ、及び/又は術前の患者への問診からのメモを含んでもよい。ディスプレイ上の術中データは、ツールから提供される光学情報、センサからのセンサ及び座標情報、並びに呼吸、心拍数、及び/又はパルスなどの不可欠な患者統計を含んでもよい。コンソール16は、医師が、キャリッジ17の反対側のカラム14側からコンソールにアクセスすることを可能にするように配置され、傾斜が付けられてもよい。この位置から、医師は、コンソール16をカート11の背後から操作しながら、コンソール16、ロボットアーム12、及び患者を見ることができる。図示のように、コンソール16はまた、カート11の操作及び安定化を支援するハンドル27を含む。
図3は、尿管鏡検査のために配されたロボット制御可能なシステム10の実施形態を示す。尿管鏡検査処置では、カート11は、患者の尿道及び尿管を横断するように設計された処置専用内視鏡である尿管鏡32を患者の下腹部領域に送達するように配置されてもよい。尿管鏡検査では、尿管鏡32が患者の尿道と直接整合して、領域内の敏感な解剖学的構造に対する摩擦及び力を低減することが望ましいことがある。図示のように、カート11は、ロボットアーム12が尿管鏡32を、患者の尿道に直接直線状にアクセスするために配置することを可能にするように、テーブルの脚部に整合されてもよい。テーブルの脚部から、ロボットアーム12は、尿道を通して患者の下腹部に直接、仮想レール33に沿って尿管鏡32を挿入してもよい。
気管支鏡検査におけるのと同様の制御技法を使用して尿道に挿入した後、尿管鏡32は、診断及び/又は治療用途のために、膀胱、尿管、及び/又は腎臓にナビゲートされてもよい。例えば、尿管鏡32は、尿管及び腎臓に指向され、尿管鏡32の作業チャネルの下方に展開されたレーザ又は超音波砕石デバイスを使用して、形成された腎臓結石を破壊することができる。砕石術が完了した後、得られた結石片は、尿管鏡32の下方に展開されたバスケットを使用して除去されてもよい。
図4は、血管処置のために同様に配されたロボット制御可能なシステムの実施形態を示す。血管処置において、システム10は、カート11が、操縦可能なカテーテルなどの医療器具34を、患者の脚内の大腿動脈内のアクセスポイントに送達することができるように構成され得る。大腿動脈は、ナビゲーションのためのより大きな直径と、患者の心臓への比較的迂回性及び蛇行性でない経路との両方を呈し、これによりナビゲーションが単純化する。尿管鏡処置のように、カート11は、患者の脚及び下腹部に向かって配置されて、ロボットアーム12が患者の大腿/腰領域内の大腿動脈アクセスポイントへの直接的な線形アクセスで仮想レール35を提供することを可能にしてもよい。動脈内への挿入後、器具ドライバ28を並進させることによって医療器具34が指向され、挿入されてもよい。代替的には、カートは、例えば、肩及び手首付近の頸動脈及び腕動脈などの代替的な血管アクセスポイントに到達するために、患者の上腹部の周囲に配置されてもよい。
B.ロボットシステム-テーブル。
ロボット制御可能な医療システムの実施形態はまた、患者テーブルを組み込んでもよい。テーブルの組み込みは、カートを除去することによって手術室内の資本設備の量を低減し、患者へのより大きなアクセスを可能にする。図5は、気管支鏡検査処置のために配されたこのようなロボット制御可能なシステムの一実施形態を示す。システム36は、床の上にプラットフォーム38(「テーブル」又は「ベッド」として図示)を支持するための支持構造体又はカラム37を含む。カートベースのシステムと同様に、システム36のロボットアーム39のエンドエフェクタは、器具ドライバ42の線形整合から形成された仮想レール41を通して、又はそれに沿って、図5の気管支鏡40などの細長い医療器具を操作するように設計された器具ドライバ42を含む。実際には、X線透視撮像を提供するためのCアームは、放射器及び検出器をテーブル38の周囲に置くことによって、患者の上部腹部領域の上方に配置されてもよい。
図6は、考察目的で患者及び医療器具なしのシステム36の代替図を提供する。図示のように、カラム37は、1つ又は2つ以上のロボットアーム39のベースとなり得る、システム36内でリング形状として図示される1つ又は2つ以上のキャリッジ43を含んでもよい。キャリッジ43は、カラム37の長さにわたる垂直方向のカラムインターフェース44に沿って並進して、ロボットアーム39が患者に到達するように配置され得る異なるバンテージポイントを提供してもよい。キャリッジ(複数可)43は、カラム37内に配置された機械的モータを使用してカラム37の周りを回転して、ロボットアーム39が、例えば、患者の両側などのテーブル38の多数の側面へのアクセスを有することを可能にしてもよい。多数のキャリッジを有する実施形態では、キャリッジはカラム上に個別に配置されてもよく、他のキャリッジとは独立して並進及び/又は回転してもよい。キャリッジ43はカラム37を取り囲む必要はなく、又は更には円形である必要はないが、図示されるようなリング形状は、構造的バランスを維持しながらカラム37の周りでキャリッジ43が回転するのを容易にする。キャリッジ43の回転及び並進により、システムは、内視鏡及び腹腔鏡などの医療器具を患者の異なるアクセスポイントに整合させることができる。
アーム39は、ロボットアーム39に追加の構成可能性を提供するために個別に回転及び/又は入れ子式に延在し得る一連の関節を含むアームマウント45のセットを介してキャリッジに装着されてもよい。加えて、アームマウント45は、キャリッジ43が適切に回転されるとき、アームマウント45がテーブル38の片側(図6に示すように)、テーブル38の両側(図9に示すように)、又はテーブル38の隣接する側部(図示せず)のいずれかに配置され得るように、キャリッジ43に配置され得る。
カラム37は、テーブル38の支持、及びキャリッジの垂直方向の並進のための経路を構造的に提供する。内部に、カラム37は、キャリッジの垂直方向の並進を案内するための主ねじ、及び主ねじに基づく当該キャリッジの並進を機械化するためのモータが備えていてもよい。カラム37はまた、キャリッジ43及びその上に装着されたロボットアーム39に電力及び制御信号を伝達してもよい。
テーブル基部46は、図2に示すカート11のカート基部15と同様の機能を果たし、テーブル/ベッド38、カラム37、キャリッジ43、及びロボットアーム39の釣り合いをとるためにより重い構成要素を収容する。テーブル基部46はまた、処置中に安定性を提供するために剛性キャスターを組み込んでもよい。テーブル基部46の底部から展開されるキャスターは、基部46の両側で反対方向に延在し、システム36を移動させる必要があるときに後退してもよい。
引き続き図6によれば、システム36はまた、テーブルとタワーとの間のシステム36の機能を分割して、テーブルのフォームファクタ及びバルクを低減するタワー(図示せず)を含んでもよい。先に開示された実施形態と同様に、タワーは、処理、計算、及び制御能力、電力、流体工学、並びに/又は光学及びセンサ処理などの様々な支持機能をテーブルに提供してもよい。タワーはまた、医師のアクセスを改善し、手術室を整理整頓するために、患者から離れて配置されるように移動可能であってもよい。加えて、タワー内に構成要素を配置することにより、ロボットアームの潜在的な収納のために、テーブル基部内により多くの保管空間を可能にする。タワーはまた、キーボード及び/又はペンダントなどのユーザ入力のためのユーザインターフェース、並びにリアルタイム撮像、ナビゲーション、及び追跡情報などの術前及び術中情報のための表示画面(又はタッチスクリーン)の両方を提供するコンソールを含んでもよい。
いくつかの実施形態では、テーブル基部は、使用されていないときにロボットアームを収容して格納してもよい。図7は、テーブルベースのシステムの一実施形態におけるロボットアームを収容するシステム47を示す。システム47では、キャリッジ48は、ロボットアーム50、アームマウント51、及びキャリッジ48を基部49内に格納するために、基部49内へと垂直方向に並進されてもよい。基部カバー52は、並進及び後退して、キャリッジ48、アームマウント51、及びアーム50をカラム53の周りに展開させるように開き、使用されていないときにそれらを格納して保護するように閉じられてもよい。基部カバー52は、閉じたときに汚れ及び流体が侵入するのを防止するために、その開口部の縁部に沿って膜54で封止されてもよい。
図8は、尿管鏡検査処置のために構成されたロボット制御可能なテーブルベースのシステムの一実施形態を示す。尿管鏡検査では、テーブル38は、患者をカラム37及びテーブル基部46からオフアングルに配置するためのスイベル部分55を含んでもよい。スイベル部分55は、スイベル部分55の底部をカラム37から離すように配置するために、旋回点(例えば、患者の頭部の下に位置)を中心に回転又は旋回してもよい。例えば、スイベル部分55の旋回により、Cアーム(図示せず)が、テーブル38の下のカラム(図示せず)と空間を奪い合うことなく、患者の下部腹部の上方に配置されることを可能にする。カラム37の周りにキャリッジ35(図示せず)を回転させることにより、ロボットアーム39は、尿道に到達するように、仮想レール57に沿って、患者の鼠径部領域に直接尿管鏡56を挿入してもよい。尿管鏡検査では、処置中に患者の脚の位置を支持し、患者の鼠径部領域への明確なアクセスを可能にするために、テーブル38のスイベル部分55にあぶみ58が固定されてもよい。
腹腔鏡処置では、患者の腹壁内の小さな切開部(複数可)を通して、低侵襲性器具(1つ又は2つ以上の切開部のサイズに適応するように形状が細長い)を患者の解剖学的構造に挿入してもよい。患者の腹腔の膨張後、腹腔鏡と呼ばれることが多い器具は、把持、切断、アブレーション、縫合などの外科的タスクを実行するように指向されてもよい。図9は、腹腔鏡処置のために構成されたロボット制御可能なテーブルベースのシステムの実施形態を示す。図9に示されるように、システム36のキャリッジ43は回転し、垂直方向に調整されて、腹腔鏡59が患者の両側の最小切開部を通過して患者の腹腔に到達するようにアームマウント45を使用し配置され得るように、ロボットアーム39の対をテーブル38の両側に位置付けてもよい。
腹腔鏡処置に対応するために、ロボット制御可能なテーブルシステムはまた、プラットフォームを所望の角度に傾斜させてもよい。図10は、ピッチ又は傾斜調整を有するロボット制御可能な医療システムの実施形態を示す。図10に示すように、システム36は、テーブル38の傾斜に適応して、テーブルの一方側の部分を他方側の部分よりも床から長い距離に位置付けることができる。加えて、アームマウント45は、アーム39がテーブル38と同じ平面関係を維持するように、傾斜に一致するように回転してもよい。急角度に適応するために、カラム37はまた、テーブル38が床に接触するか又は基部46と衝突するのを防ぐためにカラム37が垂直方向に延びるのを可能にする入れ子部分60を含んでもよい。
図11は、テーブル38とカラム37との間のインターフェースの詳細な図示を提供する。ピッチ回転機構61は、カラム37に対するテーブル38のピッチ角を多数の自由度で変更するように構成されてもよい。ピッチ回転機構61は、カラム-テーブルインターフェースでの直交軸1、2の配置によって可能にされてもよく、各軸は、電気ピッチ角コマンドに応答して別個のモータ3、4によって作動される。一方のねじ5に沿った回転は、一方の軸1における傾斜調整を可能にし、他方のねじ6に沿った回転は、他方の軸2に沿った傾斜調整を可能にする。
例えば、ピッチ調整は、テーブルをトレンデレンブルグ体位に配置しようとするときに、すなわち下腹部手術のために患者の下腹部よりも床からより高い位置に患者の下腹部を位置させようとするときに、特に有用である。トレンデレンブルグ体位は、患者の内臓を重力によって自分の上腹部に向かってスライドさせ、低侵襲性ツールが入って腹腔鏡前立腺切除術などの下腹部外科処置を実施行するために、腹腔を空にする。
C.器具ドライバ及びインターフェース。
システムのロボットアームのエンドエフェクタは、(i)医療器具を作動させるための電気機械的手段を組み込む器具ドライバ(代替的には、「器具駆動機構」又は「器具デバイスマニピュレータ」と呼ばれる)と、(ii)モータなどの任意の電気機械的構成要素を欠いていてもよい除去可能な又は取り外し可能な医療器具と、を含む。この二分法は、医療処置に使用される医療器具を滅菌する必要性、それらの複雑な機械的アセンブリ及び敏感な電子機器により、高価な資本設備を十分に滅菌することができないことに牽引され得る。したがって、医療器具は、医師又は医師のスタッフによる個々の滅菌又は廃棄のために、器具ドライバ(したがってそのシステム)から取り外し、除去、及び交換されるように設計され得る。対照的に、器具ドライバは交換又は滅菌される必要がなく、保護のために掛け布がされ得る。
図12は、例示的な器具ドライバを示す。ロボットアームの遠位端に配置される器具ドライバ62は、駆動シャフト64を介して医療器具に制御トルクを提供するために平行軸を伴って配された1つ又は2つ以上の駆動ユニット63を含む。各駆動ユニット63は、器具と相互作用するための個々の駆動シャフト64と、モータシャフトの回転を所望のトルクに変換するためのギヤヘッド65と、駆動トルクを生成するためのモータ66と、モータシャフトの速度を測定し、制御回路にフィードバックを提供するエンコーダ67と、制御信号を受信し、駆動ユニットを作動させるための制御回路68と、を含む。各駆動ユニット63は独立して制御及び電動化され、器具ドライバ62は、多数(図12に示すように4つ)の独立した駆動出力を医療器具に提供してもよい。動作中、制御回路68は、制御信号を受信し、モータ66にモータ信号を送信し、エンコーダ67によって測定された得られたモータ速度を所望の速度と比較し、モータ信号を変調して所望のトルクを生成する。
無菌環境を必要とする処置のために、ロボットシステムは、器具ドライバと医療器具との間に位置する、無菌ドレープに接続された無菌アダプタなどの駆動インターフェースを組み込んでもよい。無菌アダプタの主な目的は、器具ドライバの駆動シャフトから器具の駆動入力に角度運動を伝達する一方で、駆動シャフトと駆動入力との間の物理的分離、したがって無菌性を維持することである。したがって、例示的な無菌アダプタは、器具ドライバの駆動シャフトと嵌合されることが意図された一連の回転入力部及び出力部と、器具に対する駆動入力部とで構成され得る。無菌アダプタに接続される無菌ドレープは、透明又は半透明プラスチックなどの薄い可撓性材料で構成され、器具ドライバ、ロボットアーム、及び(カートベースのシステムにおける)カート又は(テーブルベースのシステムにおける)テーブルなどの資本設備を覆うように設計される。ドレープの使用により、滅菌を必要としない領域(すなわち、非滅菌野)に依然として位置している間に、資本設備を患者に近接して配置することが可能となる。滅菌ドレープの反対側では、医療器具は、滅菌(すなわち、滅菌野)を必要とする領域において患者とインターフェースしてもよい。
D.医療器具。
図13は、ペアにされた器具ドライバを備えた例示的な医療器具を示す。ロボットシステムと共に使用するために設計された他の器具と同様に、医療器具70は、細長いシャフト71(又は細長い本体)及び器具基部72を含む。医師による手動相互作用が意図されているその設計により「器具ハンドル」とも呼ばれる器具基部72は、概して、ロボットアーム76の遠位端において器具ドライバ75上の駆動インターフェースを通って延在する駆動出力部74と嵌合するように設計された、回転可能な駆動入力部73、例えば、レセプタクル、プーリ、又はスプールを含んでもよい。物理的に接続、ラッチ、及び/又は結合されるときに、器具基部72の嵌合された駆動入力部73は、器具ドライバ75における駆動出力部74と回転軸を共有して、駆動出力部74から駆動入力部73へのトルクの伝達を可能することができる。いくつかの実施形態では、駆動出力部74は、駆動入力部73上のレセプタクルと嵌合するように設計されたスプラインを含んでもよい。
細長いシャフト71は、例えば、内視鏡におけるような解剖学的開口部若しくは管腔、又は腹腔鏡検査におけるような低侵襲性切開部のいずれかを通して送達されるように設計される。細長いシャフト66は、可撓性(例えば、内視鏡と同様の特性を有する)若しくは剛性(例えば、腹腔鏡と同様の特性を有する)のいずれかであってもよく、又は可撓性部分及び剛性部分の両方のカスタマイズされた組み合わせを含んでもよい。腹腔鏡検査のために設計される場合、剛性の細長いシャフトの遠位端は、回転軸を有するクレビスから形成される接合された手首と、例えば、駆動入力部が器具ドライバ75の駆動出力部74から受け取ったトルクに応答して回転する際に、腱からの力に基づいて作動され得る把持具又ははさみである手術用ツールとを含むエンドエフェクタに接続され得る。内視鏡検査のために設計される場合、可撓性の細長いシャフトの遠位端は、器具ドライバ75の駆動出力部74から受容したトルクに基づいて関節運動及び屈曲され得る操縦可能又は制御可能な屈曲部を含んでもよい。
器具ドライバ75からのトルクは、シャフト71内の腱を使用して細長いシャフト71の下方に伝達される。プルワイヤなどのこれらの個々の腱は、器具ハンドル72内の個々の駆動入力部73に個別に固定されてもよい。ハンドル72から、腱は、細長いシャフト71内の1つ又は2つ以上のプルルーメン(pull lumen)の下方に指向され、細長いシャフト71の遠位部分に固設される。腹腔鏡検査では、これらの腱は、手首、把持具、又ははさみなどの、遠位に装着されたエンドエフェクタに結合されてもよい。このような構成の下で、駆動入力部73に及ぼされるトルクは、腱に張力を伝達し、それによってエンドエフェクタを何らかの方法で作動させる。腹腔鏡検査では、腱は、関節を軸周りに回転させることができ、それによってエンドエフェクタをいずれかの方向に移動させる。あるいは、腱は、細長いシャフト71の遠位端で把持具の1つ又は2つ以上のジョーに接続されてもよく、腱からの張力によって把持具が閉鎖される。
内視鏡検査では、腱は、接着剤、制御リング、又は他の機械的固定を介して、細長いシャフト71に沿って(例えば、遠位端に)配置された屈曲部又は関節運動部に結合されてもよい。屈曲部の遠位端に固定的に取り付けられる場合、駆動入力部73に及ぼされるトルクは、腱の下流に伝達され、より軟質の屈曲部(関節運動可能部又は領域と呼ばれることがある)を屈曲又は関節運動させる。非屈曲部分に沿って、個々の腱を内視鏡シャフトの壁に沿って(又は内側に)指向する個々のプルルーメンを螺旋状又は渦巻状にして、プルワイヤにおける張力からもたらされる半径方向の力の釣り合いをとることが有利であり得る。これらの間の螺旋及び/又は間隔の角度は、特定の目的のために変更又は設計されてもよく、より狭い螺旋は負荷力下でより小さいシャフト圧縮を呈する一方で、より少ない量の螺旋は負荷力下でより大きなシャフト圧縮をもたらすが、屈曲制限も呈する。スペクトルのもう一方の端部では、プルルーメンは、細長いシャフト71の長手方向軸に平行に指向されて、所望の屈曲部又は関節運動可能部における制御された関節運動を可能にしてもよい。
内視鏡検査では、細長いシャフト71は、ロボット処置を支援するいくつかの構成要素を収容する。シャフトは、シャフト71の遠位端における手術領域への手術ツール、灌注、及び/又は吸引を展開するための作業チャネルを含んでもよい。シャフト71はまた、光学カメラを含んでもよい、遠位先端部の光学アセンブリとの間で信号の授受を行うために、ワイヤ及び/又は光ファイバを収容してもよい。シャフト71はまた、発光ダイオードなどの近位に位置する光源からシャフトの遠位端に光を搬送するための光ファイバを収容してもよい。
器具70の遠位端では、遠位先端部はまた、診断及び/又は治療、灌注、及び吸引のためにツールを手術部位に送達するための作業チャネルの開口を含んでもよい。遠位先端部はまた、内部解剖学的空間の画像を捕捉するために、繊維スコープ又はデジタルカメラなどのカメラのためのポートを含んでもよい。関連して、遠位先端部はまた、カメラを使用するときに解剖学的空間を照明するための光源用のポートを含んでもよい。
図13の実施例では、駆動シャフト軸、したがって駆動入力軸は、細長いシャフトの軸に直交する。しかしながら、この配置は、細長いシャフト71のロール能力を複雑にする。駆動入力部73を静止させながら、細長いシャフト71をその軸に沿ってロールさせることにより、駆動入力部73から延出し、細長いシャフト71内のプルルーメンに入る際に、腱の望ましくない絡まりをもたらす。そのような腱の得られたもつれは、内視鏡処置中の可撓性の細長いシャフトの移動を予測することを意図した任意の制御アルゴリズムを破壊することがある。
図14は、駆動ユニットの軸が器具の細長いシャフトの軸に平行である、器具ドライバ及び器具の代替的な設計を示す。図示のように、円形の器具ドライバ80は、ロボットアーム82の端部において平行に整合された駆動出力部81を備える4つの駆動ユニットを含む。駆動ユニット及びそれらのそれぞれの駆動出力部81は、アセンブリ83内の駆動ユニットのうちの1つによって駆動される器具ドライバ80の回転アセンブリ83内に収容される。回転駆動ユニットによって提供されるトルクに応答して、回転アセンブリ83は、回転アセンブリ83を器具ドライバの非回転部分84に接続する円形ベアリングに沿って回転する。電力及び制御信号は、電気接点を通して器具ドライバ80の非回転部分84から回転アセンブリ83に伝達されてもよく、ブラシ付きスリップリング接続(図示せず)による回転を通して維持されてもよい。他の実施形態では、回転アセンブリ83は、非回転可能部分84に一体化され、したがって他の駆動ユニットと平行ではない別個の駆動ユニットに応答してもよい。回転機構83は、器具ドライバ80が、器具ドライバ軸85周りの単一ユニットとして、駆動ユニット及びそれらのそれぞれの駆動出力部81を回転させることを可能にする。
先に開示した実施形態と同様に、器具86は、細長いシャフト88と、器具ドライバ80内の駆動出力部81を受けるように構成された複数の駆動入力部89(レセプタクル、プーリ、及びスプールなど)を含む器具基部87(考察目的で透明な外部スキンで示される)とを含んでもよい。以前に開示されている実施形態とは異なり、器具シャフト88は、図13の設計と直交するのではなく、駆動入力部89の軸に実質的に平行な軸を有する器具基部87の中心から延在する。
器具ドライバ80の回転アセンブリ83に結合されると、器具基部87及び器具シャフト88を含む医療器具86は、器具ドライバ軸85を中心にして回転アセンブリ83と一緒に回転する。器具シャフト88は器具基部87の中心に配置されているため、器具シャフト88は、取り付けられたときに器具ドライバ軸85と同軸である。したがって、回転アセンブリ83の回転により、器具シャフト88は、それ自体の長手方向軸を中心に回転する。更に、器具基部87が器具シャフト88と共に回転すると、器具基部87内の駆動入力部89に接続されたいずれかの腱は、回転中に絡まらない。したがって、駆動出力部81、駆動入力部89、及び器具シャフト88の軸の平行性は、制御腱を絡めることなくシャフト回転を可能にする。
E.ナビゲーション及び制御。
従来の内視鏡検査は、操作者である医師に腔内誘導を提供するために、蛍光透視法(例えば、Cアームを通して送達され得るような)、及び他の形態の放射線ベースの撮像モダリティの使用を伴うことがある。対照的に、本開示によって企図されるロボットシステムは、放射線への医師の曝露を低減し、手術室内の機器の量を低減するために、非放射線ベースのナビゲーション及び位置特定手段を提供することができる。本明細書で使用するとき、用語「位置特定」は、基準座標系内のオブジェクトの位置を判定及び/又は監視することを指すことがある。術前マッピング、コンピュータビジョン、リアルタイムEM追跡、及びロボットコマンドデータなどの技術は、放射線を含まない動作環境を達成するために個別に又は組み合わせて使用されてもよい。放射線ベースの撮像モダリティが依然として使用されるその他の場合、術前マッピング、コンピュータビジョン、リアルタイムEM追跡、及びロボットコマンドデータは、放射線ベースの撮像モダリティによってのみ取得される情報を改善するために、個別に又は組み合わせて使用されてもよい。
図15は、例示的な実施形態による、器具の位置などのロボットシステムの1つ又は2つ以上の要素の位置を推定する位置特定システム90を示すブロック図である。位置特定システム90は、1つ又は2つ以上の命令を実行するように構成されている1つ又は2つ以上のコンピュータデバイスのセットであってもよい。コンピュータデバイスは、上で考察された1つ又は2つ以上の構成要素内のプロセッサ(又は複数のプロセッサ)及びコンピュータ可読メモリによって具現化されてもよい。例として、限定するものではないが、コンピュータデバイスは、図1に示されるタワー30内にあってもよく、図1~図4に示されるカートであってもよく、図5~図10に示されるベッドであってもよく、その他であってもよい。
図15に示すように、位置特定システム90は、入力データ91~94を処理して医療器具の遠位先端部のための位置データ96を生成する位置特定モジュール95を含んでもよい。位置データ96は、基準系に対する器具の遠位端のポジション及び/又は配向を表すデータ又は論理であってもよい。基準系は、患者の解剖学的構造、又はEM場発生器(EM場発生器についての以下の考察を参照)などの既知の物体に対する基準系とすることができる。位置データ96はまた、本明細書では、患者の解剖学的構造のモデル(例えば、骨格モデル)に対する医療器具の遠位先端部の現在の状態を説明する「状態データ」とも称され得る。状態データは、所与のサンプル期間にわたる医療器具の遠位先端部のポジション及び配向などの情報を含み得る。例えば、患者の解剖学的構造が、管腔網の中間点に基づいて骨格モデルを使用してモデル化される場合、その位置は、セグメントIDの形態及びセグメントに沿った深さを取り得る。
ここで、様々な入力データ91~94についてより詳細に説明する。術前マッピングは、低用量CTスキャンの収集を利用して達成され得る。術前CTスキャンは、例えば、患者の内部解剖学的構造の切欠き図の「スライス」として可視化される3次元(three-dimensional、3D)画像に再構成される。全体として分析される場合、患者の肺網などの患者の解剖学的構造の解剖学的空腔、空間、及び構造のための画像ベースのモデルが生成され得る。中心線幾何学形状などの技法を判定し、CT画像から概算して、術前モデルデータ91と呼ばれる患者の解剖学的構造の3Dボリュームを生成することができる。中心線幾何学形状の使用は、米国特許出願第14/523,760号で考察されており、その内容は、その全体が本明細書に組み込まれる。ネットワーク位相モデルもまた、CT画像から導出されてもよく、気管支鏡検査に特に適している。
いくつかの実施形態では、器具はカメラを装備して、視覚データ92を提供してもよい。位置特定モジュール95は、視覚データを処理して、1つ又は2つ以上の視覚ベースの位置追跡を可能にしてもよい。例えば、術前モデルデータは、医療器具(例えば、内視鏡、又は内視鏡の作業チャネルを通って前進する器具)のコンピュータビジョンベースの追跡を可能にするために、視覚データ92と共に使用されてもよい。例えば、術前モデルデータ91を使用して、ロボットシステムは、内視鏡の予想される移動経路に基づいて、モデルから、予測される内視鏡画像のライブラリを生成することができ、各画像はモデル内の位置にリンクされる。手術中に、このライブラリは、カメラ(例えば、内視鏡の遠位端のカメラ)でキャプチャされたリアルタイム画像を画像ライブラリ内のものと比較して、位置特定を支援するために、ロボットシステムによって参照され得る。
他のコンピュータビジョンベースの追跡技法は、カメラの動き、したがって内視鏡を判定するための特徴追跡を使用する。位置特定モジュール95のいくつかの特徴は、解剖学的管腔に対応する術前モデルデータ91内の円形幾何学形状を識別し、それらの幾何学的形状の変化を追跡して、どの解剖学的管腔が選択されたか、並びにカメラの相対的な回転及び/又は並進運動を判定することができる。位相マップの使用は、視覚ベースのアルゴリズム又は技法を更に向上させることがある。
光学フロー、別のコンピュータビジョンベースの技法は、カメラの動きを推測するために、視覚データ92内のビデオシーケンス内の画像ピクセルの変位及び並進を分析してもよい。光学フロー技術の例としては、動き検出、オブジェクトセグメンテーション計算、輝度、動き補償符号化、立体視差測定などを挙げることができる。複数の反復にわたり多数のフレームを比較することにより、カメラ(及びしたがって内視鏡)の移動及び位置を判定することができる。
位置特定モジュール95は、リアルタイムEM追跡を使用して、術前モデルによって表される患者の解剖学的構造に位置合わせされ得るグローバル座標系内に、内視鏡のリアルタイム位置を生成し得る。EM追跡では、医療器具(例えば、内視鏡器具)内に1つ又は2つ以上の位置及び配向で埋め込まれた1つ又は2つ以上のセンサコイルを含むEMセンサ(又はトラッカ)は、既知の位置に配置された1つ又は2つ以上の静的EM場発生器によって生成されるEM場の変動を測定する。EMセンサによって検出された位置情報は、EMデータ93として記憶される。EM場発生器(又は送信機)は、埋め込まれたセンサが検出し得る低強度磁場を生成するために、患者に近接して配置され得る。磁場はEMセンサのセンサコイル内に小さな電流を誘導し、EMセンサとEM場発生器との間の距離及び角度を判定するためにこの電流が分析され得る。これらの距離及び配向は、患者の解剖学的構造の術前モデル内の位置と座標系内の単一の位置を整合させる幾何学的変換を決定するために、患者の解剖学的構造(例えば、術前モデル)に術中「位置合わせ」され得る。一旦位置合わせされると、医療器具の1つ又は2つ以上の位置(例えば、内視鏡の遠位先端部)に埋め込まれたEMトラッカは、患者の解剖学的構造を通る医療器具の進行のリアルタイム表示を提供し得る。
ロボットコマンド及び運動学データ94はまた、ロボットシステムのための位置特定データ96を提供するために、位置特定モジュール95によって使用されてもよい。関節運動コマンドから生じるデバイスピッチ及びヨーは、術前較正中に判定され得る。術中、これらの較正測定値は、既知の挿入深度情報と組み合わせて使用されて、器具の位置を推定し得る。あるいは、これらの計算は、ネットワーク内の医療器具の位置を推定するために、EM、視覚、及び/又は位相モデリングと組み合わせて分析され得る。
図15が示すように、ある数の他の入力データが位置特定モジュール95によって使用され得る。例えば、図15には示されていないが、形状検知繊維を利用する器具は、位置特定モジュール95が器具の位置及び形状を判定するために使用することができる形状データを提供することができる。
位置特定モジュール95は、入力データ91~94を組み合わせて(複数可)使用し得る。場合によっては、このような組み合わせは、位置特定モジュール95が入力データ91~94の各々から判定された位置に信頼重みを割り当てる確率的アプローチを使用し得る。したがって、EMデータが信頼でき得ない場合(EM干渉が存在する場合など)、EMデータ93によって判定された位置の信頼性を低下させることができ、位置特定モジュール95は、視覚データ92並びに/又はロボットコマンド及び運動学データ94により重く依存してもよい。
上で考察されるように、本明細書で考察されるロボットシステムは、上記の技術のうちの1つ又は2つ以上の組み合わせを組み込むように設計され得る。タワー、ベッド、及び/又はカートに基づいているロボットシステムのコンピュータベースの制御システムは、例えば、永続的な磁気記憶ドライブ、ソリッドステートドライブなどの非一時的コンピュータ可読記憶媒体内に、コンピュータプログラム命令を記憶してもよく、コンピュータプログラム命令は、実行されると、システムに、センサデータ及びユーザコマンドを受信及び分析させ、システム全体の制御信号を生成させ、グローバル座標系内の器具の位置、解剖学的マップなどのナビゲーション及び位置特定データを表示させる。
2.位置センサベースの分岐予測概論。
本開示の実施形態は、位置センサベースの分岐予測のためのシステム及び技術に関する。システムは、例えば医療処置中に、器具の遠位端の位置特定を行うために、位置センサ(複数可)又は位置感知デバイス(複数可)を使用してもよい。位置センサは、器具の遠位端に若しくはその近くに位置決めされてもよく、又は器具の遠位端から離れて位置決めされてもよい。器具の遠位端に又はその近くに位置決めされ得る位置センサ又は位置感知デバイスの例としては、EMセンサ、ビジョンベースの位置センサ(例えば、カメラ)、形状感知繊維等が挙げられる。器具の遠位端から離れて位置決めされ得る位置センサ又は位置感知デバイスの例としては、X線透視撮像デバイス、1つ又は2つ以上の器具マニピュレータを用いて器具の位置を制御するためのロボットデータを生成又は処理するロボットシステム構成要素(複数可)、リモートビジョンベースの位置センサ、等が挙げられる。
位置センサは、例えば、位置センサ座標系に対する器具の遠位端の位置を示す位置データを生成するように構成されてもよい。本明細書で使用するとき、位置センサ座標系は、位置センサによって生成された位置データ(例えば、ユークリッド空間などのマニホールド上)の位置を定義又は判定するために使用することができるいずれかの座標系を指し得る。位置センサが器具の遠位端と並置されるとき、位置データは、位置センサ自体の位置を表すことができ、これをプロセッサが使用して器具の遠位端の位置を判定することができる。ある特定の実施形態では、位置センサ座標系は、位置センサを実現するために使用される特定の技術に基づいて画定され得る、軸及び起点のセットを含んでもよい。
例えば、器具内又は器具上に位置するEMセンサは、EM場発生器によって生成されたEM場を測定するように構成され得る。EM場の特性、したがってEMセンサによって測定されるEM値は、EM場発生器の位置及び配向に関して定義され得る。したがって、EM場発生器の位置決めは、EMセンサによって測定された値に影響を及ぼすことができ、EM座標系の位置及び配向を定義することもできる。
上述のように、患者の管腔網は、例えば、低量CTスキャンを使用して術前にマッピングされて、管腔網のモデルを生成することができる。モデルは、器具の遠位端の位置を特定するために使用されるものとは異なる技法を介して生成され得るため、モデル座標系は、位置センサ座標系と整合されなくてもよい。したがって、位置センサ座標系を使用して、モデルに対する器具の位置を追跡するために、1つの技術は、(例えば、プロセッサ、位置特定システム、位置特定モジュールなどを含むがこれらに限定されない、ロボットシステムの1つ又は2つ以上の構成要素又はロボットシステムに通信可能に結合された別個のシステムによって)1つ又は2つ以上の位置センサによって使用される座標系を、解剖学的モデルによって使用される座標系などの別の座標系に位置合わせすることを含む。この位置合わせは、例えば、位置データを位置センサ座標系からモデル座標系にマッピングするために位置センサデータに適用される並進及び/又は回転を含んでもよい。
システム又はプロセッサは、例えば、処置の初期段階中に、位置センサ座標系のモデル座標系への位置合わせを実行してもよい。実施態様に応じて、プロセッサは、器具が最初に管腔網を通って前進する際に、バックグラウンドにおいて自動的に位置合わせプロセスを実行してもよい。別の実施態様では、プロセッサは、位置合わせプロセスを容易にするために、器具を管腔網内の特定の位置に、又は設定された位置合わせ経路に沿って駆動するための一連の命令をユーザに提供してもよい。したがって、プロセッサは、位置センサ(複数可)から受信した位置データがモデルに位置合わせされていない間、処置の一部分を実行してもよい。
医療処置中に器具のナビゲーションに関するフィードバックをユーザに提供するために、「融合」位置特定アルゴリズムを(例えば、図15の位置特定システム90によって)実行することができる。融合アルゴリズムは、複数のソースから受信した器具の遠位端の位置を示すデータを組み合わせて、器具の位置を判定することができる。融合アルゴリズムの1つの機能はまた、器具が進められ得る管腔網の次の分岐の予測を含んでもよい。この予測は、位置センサデータを含む、融合アルゴリズムで使用されるデータソースの少なくとも一部に基づいてもよい。特定の実施形態では、予測はまた、器具の遠位端の位置の判定における入力として使用されてもよい。
位置センサ(複数可)は、医療処置の少なくとも一部分に対して位置合わせされない場合があるため、本開示の特定の態様は、位置合わせされた位置センサデータ又は位置合わせされていない位置センサデータ(一般に「生」の位置センサデータとも称される)に基づいて使用できる分岐予測のための技術に関連し得る。したがって、システムは、位置センサ(複数可)が位置合わせされたかどうかに応じて、位置センサベースの分岐予測に異なる技術又はそれらの組み合わせを選択的に適用することができる。
A.EMナビゲーション案内気管支鏡。
以下、位置センサベースの分岐予測のための技術を採用することができる例示的なシステムについて説明する。例えば、システムは、EMナビゲーション誘導気管支鏡処置のために構成されてもよい。しかしながら、本開示の態様はまた、位置データを生成することができる他の位置センサを使用するシステム、並びに他のタイプの医療処置にも適用することができる。
図16Aは、開示する分岐予測システム及び技術の1つ又は2つ以上の態様を実施することが可能な例示的な手術環境100を示す。手術環境100は、患者101をサポートするプラットフォーム102と、器具115の移動を案内する外科用又は医療用ロボットシステム110と、ロボットシステム110の動作を制御するためのコマンドセンター105と、EMコントローラ135と、EM場発生器120と、EMセンサ125、130と、を含むことができる。図16Aはまた、図16Bにより詳細に示される、患者101内の管腔網140の領域の輪郭も示す。
システム110は、患者101の管腔網140を通して器具115を位置決めする及び器具115の移動を案内するための1つ又は2つ以上のロボットアームを含むことができる。コマンドセンター105は、ポジションデータを受信するために及び/又はユーザから受信したユーザコマンドに基づいて生成される制御信号を提供するために、ロボットシステム110に通信可能に結合することができる。本明細書で使用するとき、「通信可能に結合する」は、無線ワイドエリアネットワーク(wireless wide area network、WWAN)(例えば、1つ又は2つ以上のセルラーネットワーク)、無線ローカルエリアネットワーク(wireless local area network、WLAN)(例えば、IEEE802.11(Wi-Fi)などの1つ又は2つ以上の規格用に構成される)、Bluetooth、データ転送ケーブル、及び/又は同類のものが挙げられるが、これらに限定されない、任意の有線及び/又は無線データ転送媒体を指す。ロボットシステム110は、図1~図15に関連して上述されるシステムのうちのいずれかであり得る。
器具115は、患者の解剖学的構造内に挿入されて解剖学的構造(例えば、体組織)の画像をキャプチャし、ターゲット組織部位に他の医療器具を挿入するための作業チャネルを提供する、管状で可撓性の外科用器具であり得る。上述したように、器具115は、処置特有の内視鏡、例えば、気管支鏡、胃鏡、若しくは尿管鏡であり得るか、又は腹腔鏡若しくは血管操縦可能なカテーテルであり得る。器具115は、その遠位端に1つ又は2つ以上の撮像デバイス(例えば、カメラ又は他のタイプの光学センサ)を含むことができる。撮像デバイスは、光ファイバ、ファイバアレイ、感光性基板、及び/又はレンズ(複数可)などの、1つ又は2つ以上の光学構成要素を含み得る。光学構成要素は、器具115の先端部と共に移動するため、器具115の先端部が移動すると、撮像デバイスによってキャプチャされる画像の視野に、対応する変化がもたらされる。器具115の遠位端には、管腔網140の周りに生成されたEM場内の遠位端のポジションを追跡するための1つ又は2つ以上のEMセンサ125が設けられ得る。
EMコントローラ135は、EM場発生器120を制御して、変動するEM場を生成することができる。EM場は、実施形態によって、時間的に変動し得、及び/又は空間的に変動し得る。いくつかの実施形態では、EM場発生器120は、EM場発生ボードであり得る。開示されるシステムのいくつかの実施形態は、患者と患者101をサポートするプラットフォーム102との間に位置決めされたEM場発生器ボードを使用することができ、EM場発生器ボードは、その下に配置された導電又は磁気材料によって生じる追跡歪みを最小にする薄いバリアを組み込むことができる。他の実施形態では、EM場発生器ボードは、例えば、ロボットシステム110に示されるものに類似する、ロボットアーム上に装着することができ、これにより、患者の周りに柔軟な設定オプションを提供することができる。
図16Bは、図16Aの手術環境100内でナビゲートすることができる例示的な管腔網140を示す。管腔網140は、患者101の気道150の分岐構造と、主竜骨156(典型的には、気管支検鏡法ナビゲーション中に遭遇する第1の分岐)につながる気管154と、診断及び/又は処置ために本明細書で説明するようアクセスすることができる小結節(又は病変)155と、を含む。例示されるように、小結節155は、気道150の末端部に位置する。器具115は、第1の直径を有するシース141を備えることができ、したがって、シース141の遠位端は、小結節155の周りのより小さい直径の気道を通して位置付けることができない。したがって、スコープ145は、器具115の作業チャネルから、小結節155までの残りの距離全体にわたって延在する。スコープ145は、器具、例えば、生検針、細胞ブラシ、及び/又は組織サンプリング鉗子を小結節155のターゲット組織部位まで通すことができる管腔を有することができる。そのような実施態様では、シース141の遠位端及びスコープ145の遠位端のどちらにも、気道150内のそれらのそれぞれの位置を追跡するためのEMセンサが設けられ得る。
いくつかの実施形態では、本明細書に記載される3D管腔網モデルの二次元(2D)表示、又は3Dモデルの断面は、図16Bに類似し得る。器具の遠位端の推定位置は、そのような表現の上に重ね合わせることができる。特定の実施態様では、推定位置は、図16Cに示されるコマンドコンソール160などのコマンドコンソールの表示の上に表示され得る。
図16Cは、例えば、例示的な手術環境100においてコマンドコンソール105として使用することができる、例示的なコマンドコンソール160を示す。コマンドコンソール160は、コンソール基部161、1つ又は2つ以上のディスプレイ162(例えば、モニタ)、及び1つ又は2つ以上の制御モジュール(例えば、キーボード163及びジョイスティック164)を含み得る。いくつかの実施形態では、コマンドコンソール160の機能のうちの1つ又は2つ以上は、ロボットシステム110の基部180、又はロボットシステム110に通信可能に結合された別のシステムに統合され得る。ユーザ165、例えば、医師は、コマンドコンソール160を使用して、人間工学的位置からロボットシステム110を遠隔制御する。
コンソール基部161は、例えば、図16A及び図16Bに示される器具115からの、カメラ画像及び追跡センサデータなどの信号の解釈及び処理に関与する、中央処理ユニット、メモリユニット、データバス、及び関連するデータ通信ポートを含み得る。いくつかの実施形態では、コンソール基部161及び基部180はどちらも、負荷平衡化のための信号処理を実行する。コンソール基部161はまた、ユーザ165によって制御モジュール163及び164を通じて提供されるコマンド及び命令を処理してもよい。図16Cに示されるキーボード163及びジョイスティック164に加えて、制御モジュールは、他のデバイス、例えば、コンピュータマウス、トラックパッド、トラックボール、制御パッド、ハンドヘルドリモートコントローラなどのコントローラ、並びにハンドジェスチャ及び指ジェスチャをキャプチャするセンサ(例えば、モーションセンサ又はカメラ)を含み得る。コントローラは、器具の動作(例えば、関節運動、駆動、灌水、など)をマッピングする、又はそれにリンクされた、一組のユーザ入力(例えば、ボタン、ジョイスティック、方向パッドなど)を含むことができる。
ディスプレイ162としては、電子モニタ(例えば、液晶ディスプレイ、LEDディスプレイ、タッチセンシティブディスプレイ)、仮想現実視覚デバイス、例えば、ゴーグル若しくは眼鏡、及び/又は他のディスプレイデバイスが挙げられ得る。いくつかの実施形態では、ディスプレイモジュール162は、例えば、タッチスクリーンを有するタブレットデバイスとして、制御モジュールに統合される。いくつかの実施形態では、ディスプレイ162のうちの一方は、患者の管腔網及び仮想ナビゲーション情報(例えば、EMセンサのポジションに基づくモデル内の内視鏡の端部の仮想表現)の3Dモデルを表示することができ、一方で、ディスプレイ162のうちの他方は、器具115の端部におけるカメラ又は別の感知デバイスから受信した画像情報を表示することができる。いくつかの実施態様では、ユーザ165は、統合されたディスプレイ162及び制御モジュールを使用して、データを見ることと、システム110にコマンドを入力することとの両方を行うことができる。ディスプレイ162は、立体デバイス、例えば、バイザ又はゴーグルを使用して、3D画像の2Dレンダリング及び/又は3D画像を表示することができる。3D画像は、患者の解剖学的構造を示すコンピュータ3Dモデルである「エンドビュー」(すなわち、内視鏡ビュー)を提供する。「エンドビュー」は、患者の内部の仮想環境、及び患者の内部における器具115の予想される位置を提供する。ユーザ165は、「エンドビュー」モデルを、カメラによってキャプチャされた実際の画像と比較して、器具115が患者の体内の正しい(又は概ね正しい)位置にあるように頭の中において方向付けし確認する助けとする。「エンドビュー」は、器具115の遠位端の周りの解剖学的構造、例えば、患者の気道、循環血管、又は腸若しくは結腸の形状に関する情報を提供する。ディスプレイモジュール162は、器具115の遠位端の周りの解剖学的構造の3Dモデル及びCTスキャンを同時に表示することができる。更に、ディスプレイモジュール162は、器具115の既に判定したナビゲーション経路を、3Dモデル及びCTスキャン画像に重ね合わせることができる。
いくつかの実施形態では、外科処置の状態を示すのを支援するために、器具115のモデルが3Dモデルと共に表示される。例えば、CTスキャン画像により、生検が必要であり得る解剖学的構造にある病変が識別される。動作中、ディスプレイモジュール162は、器具115の現在の位置に対応する、器具115によってキャプチャされた基準画像を示すことができる。ディスプレイモジュール162は、ユーザ設定及び特定の外科処置に応じて、器具115のモデルの異なるビューを自動的に表示することができる。例えば、ディスプレイモジュール162は、器具115が患者の手術領域に接近する際のナビゲーション工程中には、器具115の頭上からのX線透視図を示す。
B.位置合わせされていない位置データを使用した位置センサベースの分岐予測。
上で考察されるように、医療処置の初期段階は、位置センサ(複数可)が管腔網のモデルに位置合わせされる前に実行されてもよい。しかしながら、位置センサ(複数可)は、位置合わせ前に位置データを生成し得る。モデルに位置合わせされていないが、生の位置センサデータは、特定の位置特定及びナビゲーション機能を提供するのに有用であり得る。例えば、プロセッサは、位置合わせされていない生の位置データに基づいて、異なる時間における器具の相対的な配向を判定することができる。したがって、特定の実施形態では、管腔網の形状及び構造、並びに位置合わせされてないデータに基づいて判定された器具の配向に基づいて、プロセッサは、器具が前進する可能性がある管腔網の次の分岐を予測することを容易にし得る。
分岐予測は、ナビゲーション構成システムの一部として含まれてもよい。図17A~図17Dは、一実施形態によるナビゲーション構成システム200の例示的なブロック図を示す。より具体的には、図17Aは、一実施形態によるナビゲーション構成システム200の例示的なブロック図の概要を提供する。図17Aでは、ナビゲーション構成システム200は、多数の入力データストアと、多数の入力データストアから様々なタイプの入力データを受信するナビゲーションモジュール205と、ナビゲーションモジュールから出力ナビゲーションデータを受信する出力ナビゲーションデータストア290と、を含む。図17Aに示すナビゲーション構成システム200のブロック図は単なる一例であり、図示されていない代替実施形態では、ナビゲーション構成システム200は、異なる及び/又は追加のエンティティを含むことができる。同様に、システム200の様々なエンティティによって実行される機能は、異なる実施形態に従って異なり得る。ナビゲーション構成システム200は、その全体が参照により本明細書に組み込まれる、2017年3月23日に公開された米国特許出願公開第2017/0084027号に記載されたナビゲーションシステムに類似していてもよい。
本明細書で使用されるように、入力データは、内視鏡のための推定状態情報並びに出力ナビゲーションデータを生成するために、入力デバイス(例えば、コマンドモジュール(複数可)、光学センサ(複数可)、EMセンサ(複数可)、IDM(複数可))から収集され、かつ/又は処理された生データを指す。多数の入力データストア210~240は、画像データストア210、EMデータストア220、ロボットデータストア230、及び3Dモデルデータストア240を含む。入力データストア210~240の各タイプは、ナビゲーションモジュール205がアクセスして使用するために、名前が表示されたタイプのデータを格納する。画像データは、器具先端部において撮像デバイスによってキャプチャされた1つ又は2つ以上の画像フレーム、並びにフレームレート又はタイムスタンプなどの情報を含んでもよく、これにより、フレームの対の間で経過した時間の判定が可能になる。ロボットデータは、管状網内の医療器具又は医療器具の一部(例えば、器具先端部又はシース)の物理的移動に関連するデータを含んでもよい。例示的なロボットデータは、特定の解剖学的部位に到達するように及び/又は管状網内で(例えば、特定のピッチ、ロール、ヨー、リーダー、及びシースの一方又は両方についての挿入及び後退を伴うように)その配向を変更するように器具先端部に指示するコマンドデータ、医療器具の一部の挿入運動を表す挿入データ(例えば、器具先端部又はシース)、IDMデータ、及び医療器具の細長い部材の機械的移動、例えば、管状網内の内側器具の実際の動きを駆動する内視鏡の1つ又は2つ以上のプルワイヤ、腱又はシャフトの動き、を表す機械的データと、を含む。EMデータは、上述のEMセンサ及び/又はEM追跡システムによって収集され得る。3Dモデルデータは、上記の2DのCTスキャンから導出され得る。経路データは、1つ又は2つ以上の標的に対する管状網の位相検索によって生成され得る計画されたナビゲーション経路を含む。
出力ナビゲーションデータストア290は、ナビゲーションモジュール205によって提供された出力ナビゲーションデータを受信して記憶する。出力ナビゲーションデータは、管状網内の特定の目的位置に到達するように、管状網を通して医療器具を方向付けるのを支援する情報を示し、また、各瞬間における医療器具の推定状態情報に基づいており、推定状態情報は、管状網内の医療器具の位置及び配向を含む。一実施形態では、医療器具が管状網内で移動するとき、医療器具の移動及び位置/配向情報の更新を示す出力ナビゲーションデータはリアルタイムで提供され、これは管状網を通じたそのナビゲーションをより良好に支援する。
出力ナビゲーションデータを判定するために、ナビゲーションモジュール205は、管状網内の医療器具の推定状態を位置特定する(又は判定する)。図17Aに示すように、ナビゲーションモジュール205は、EMベースのアルゴリズムモジュール250、画像ベースのアルゴリズムモジュール260、及びロボットベースのアルゴリズムモジュール270などの、様々なアルゴリズムモジュールを更に含み、これらは各々、主に特定のタイプの入力データを消費し、異なるタイプのデータを状態推定器280に与えることができる。図17Aに示すように、これらのモジュールによって出力される、EMベースのデータ、画像ベースのデータ、ロボットベースのデータ、及び経路ベースのデータとラベル付けされた異なる種類のデータは、説明のために、一般的に「中間データ」と呼ばれることがある。
図17Bは、一実施形態による、図17Aに示すナビゲーションモジュール205の例示的なブロック図を示す。上記で紹介したように、ナビゲーションモジュール205は、状態推定器280、並びに管状網を通ってナビゲートするための異なるアルゴリズムを用いる多数のアルゴリズムモジュールを更に含む。説明を明確にするために、状態推定器280が最初に説明され、その後、状態推定器280とデータを交換する様々なモジュールの説明が続く。
ナビゲーションモジュール205に含まれる状態推定器280は、様々な中間データを受信し、推定された器具先端部の状態を時間の関数として提供し、推定状態は、管状網内の器具先端部の推定位置及び配向情報を示す。推定状態データは、状態推定器280に含まれる推定データストア285に記憶される。
図17Cは、一実施形態による、状態推定器280に含まれる推定状態データストア285の例示的なブロック図を示す。推定状態データストア285は、二分岐データストア286、ポジションデータストア287、深度データストア288、及び配向データストア289を含んでもよいが、データ記憶装置のこの特定の内訳は単なる一例であり、図示しない代替実施形態では、異なる及び/又は追加のデータストアを推定状態データストア285に含めることができる。
上記の様々なストアは、推定された状態データを様々な方法で表す。具体的には、二分岐データは、管状網内の一連の分岐(例えば、二分岐、三分岐、又は三分岐を超える分割)に対する医療器具の位置を指す。例えば、二分岐データは、器具が管状網を通って横断するときに、例えば、管状網の全体をマッピングする3Dモデルによって提供されるより多数の一連の利用可能な分岐に基づいて器具によって選択される、一連の分岐の選択であってもよい。二分岐データは、例えば、器具先端部が近くにあるがまだ横断しておらず、しかし、3Dモデルに対する先端部の現在ポジション情報に基づいて、又は近づきつつある二分岐をキャプチャした画像に基づいて検出された可能性のある分岐(二分岐)など、器具先端部の位置の前にある情報を更に含むことができる。
ポジションデータは、管状網内の医療器具の一部の三次元ポジション、又は管状網自体の一部を示す。ポジションデータは、例えば、管状網の3Dモデルに対する絶対位置又は相対位置の形態であり得る。一例として、ポジションデータは、特定の分岐内にある器具の位置のポジションの表示を含むことができる。特定の分岐の識別はまた、器具先端部が位置するモデルの特定のセグメントを一意に識別するセグメント識別(identification、ID)として記憶されてもよい。
深度データは、管状網内の器具先端部の深度情報を示す。例示的な深度データは、患者内への医療器具の総挿入(絶対)深度、並びに識別された分岐(例えば、ポジションデータストア287によって識別されたセグメント)内の(相対的)深度を含む。深度データは、管状網及び医療器具の両方に関するポジションデータに基づいて判定され得る。
配向データは、器具先端部の配向情報を示し、3Dモデルに関連した全体的なロール、ピッチ、及びヨー、並びに識別された分岐内のピッチ、ロール、生を含んでもよい。
図17Bに戻ると、状態推定器280は、推定状態データをアルゴリズムモジュールに戻して、より正確な中間データを生成し、状態推定器は、これを使用して改善された及び/又は更新された推定状態を生成し、フィードバックループを形成する。例えば、図17Bに示すように、EMベースのアルゴリズムモジュール250は、タイムスタンプ「t-1」に関連付けられたデータとも称される、以前のEMベースの推定状態データを受信する。状態推定器280は、このデータを使用して、タイムスタンプ「t-1」に関連付けられた「推定状態データ(以前)」を生成する。次いで、状態推定器280は、データをEMベースのアルゴリズムモジュールに戻す。「推定状態データ(以前)」は、異なるアルゴリズムモジュールから生成及び受信されるタイムスタンプ「t-1」に関連付けられた、異なるタイプの中間データ(例えば、ロボットデータ、画像データ)の組み合わせに基づいてもよい。次に、EMベースのアルゴリズムモジュール250は、推定状態データ(以前)を使用してそのアルゴリズムを実行して、状態推定器280に改良かつ更新されたEMベースの推定状態データを出力し、これは、ここでは「EMベースの推定状態データ(現在)」で表され、タイムスタンプtに関連付けられている。このプロセスは、将来のタイムスタンプについても繰り返される。
状態推定器280は、管状網内の医療器具の状態の推定値に到達するために、いくつかの異なる種類の中間データを使用してもよいので、状態推定器280は、各タイプの基礎データ(ロボット、EM、画像、経路)及び各タイプのアルゴリズムモジュールが作成し、推定状態を判定する際に考慮するために使用される中間データに持ち込む測定及び分析の両方における様々な異なる種類の誤差及び不確実性を考慮するように構成されている。これらに対処するために、確率分布及び信頼値の2つの概念が考察される。
本明細書で使用される「確率分布」の「確率」は、医療器具の可能な位置及び/又は配向の推定が正しいことの尤度を意味する。例えば、異なる確率は、医療器具が管状網内のいくつかの異なる可能な分岐のうちの1つにある相対尤度を示すアルゴリズムモジュールのうちの1つによって計算され得る。一実施形態では、確率分布のタイプ(例えば、離散分布又は連続分布)は、推定状態の特徴(例えば、推定状態のタイプ、例えば、連続ポジション情報対離散分岐選択)と一致するように選択される。一例として、医療器具が三分岐のためにどのセグメントにあるかを識別するための推定状態は、離散確率分布によって表現されてもよく、アルゴリズムモジュールのうちの1つによって判定されるように、3つの分岐の各々の内部の位置にあるとされる確率を表す20%、30%、及び50%の3つの離散値を含んでもよい。別の例として、推定状態は、40±5度の医療器具のロール角を含んでもよく、分岐内の器具先端部のセグメント深度が4±1mmである場合があり、各々が連続確率分布の一種であるガウス分布で表される。異なる方法又はモダリティを使用して確率を生成することができ、これは、後の図を参照して以下により完全に記載されるように、アルゴリズムモジュールによって変化する。
対照的に、本明細書で使用される「信頼値」は、1つ又は2つ以上の要因に基づいて、アルゴリズムのうちの1つによって提供される状態の推定における信頼度の尺度を反映する。EMベースのアルゴリズムでは、EM場への歪み、EM位置合わせにおける不正確性、患者の移動又は動き、及び患者の呼吸などの要因は、状態の推定における信頼性に影響を及ぼし得る。特に、EMベースのアルゴリズムによって提供される状態の推定における信頼値は、患者の特定の呼吸周期、患者又はEM場発生器の動き、及び器具先端部が位置する解剖学的構造内の位置に依存し得る。画像ベースのアルゴリズムの場合、状態の推定において信頼値に影響を及ぼし得る例示的な要因としては、画像がキャプチャされる解剖学的構造内の位置に関する照明条件、画像をキャプチャする光学センサに対する、又はそれの前の流体、組織、又は他の障害物の存在、患者の呼吸、管状網内の一般的な流体及び管状網の閉塞などの患者自体の管状網(例えば、肺)の状態、及び、例えば、ナビゲート又は画像キャプチャに使用される特定の操作技術が挙げられる。
例えば、一つの要因として、特定のアルゴリズムが患者の肺内の異なる深度において異なる精度レベルを有していることがあり、これにより、特定のアルゴリズムは、気道開口部に比較的近い場合には、医療器具の位置と配向のその推定に高い信頼性を有し得るが、医療器具が肺の底部に更に移動すると、その信頼性の値が低下する可能性がある。一般に、信頼値は、結果が判定されるプロセスに関する1つ又は2つ以上の体系的な要因に基づくものであり、その一方で、確率は、基礎データに基づいて単一のアルゴリズムを用いて、多数の可能性から正しい結果を判定しようと試みるときに生じる相対的な尺度である。
一例として、離散確率分布で表される推定状態の結果を計算するための数式(例えば、推定状態の3つの値が関与する三分岐のための分岐/セグメント識別)は、以下のとおりであってもよい。
=CEM 1,EM+CImage 1,Image+CRobot 1,Robot
=CEM 2,EM+CImage 2,Image+CRobot 2,Robot
=CEM 3,EM+CImage 3,Image+CRobot 3,Robot
上記の例示的な数式では、S(i=1、2、3)は、3次元モデル内に3つの可能性のあるセグメントが識別された場合、又は存在する場合の推定状態の可能な値の例を表し、CEM、CImage、及びCRobotは、EMベースのアルゴリズム、画像ベースのアルゴリズム、及びロボットベースのアルゴリズムに対応する信頼値を表し、Pi,EM
i,Image、及びPi,Robotは、セグメントiの確率を表す。
推定状態に関連付けられた確率分布及び信頼値の概念をより良く示すために、ここで詳細な実施例が提供される。この実施例では、ユーザは、管状網の中心気道(予測領域)内の特定の三分岐内の器具先端部が位置するセグメントを識別しようとしており、EMベースのアルゴリズム、画像ベースのアルゴリズム、ロボットベースのアルゴリズムを含む3つのアルゴリズムモジュールが使用されている。この実施例では、EMベースのアルゴリズムに対応する確率分布は、第1の分岐では20%、第2の分岐では30%、及び第3の(最後の)分岐では50%であってもよく、このEMベースのアルゴリズム及び中央気道に適用される信頼値は80%である。同じ実施例では、画像ベースのアルゴリズムに対応する確率分布は、第1、第2、及び第3の分岐に対して40%、20%、40%であってもよく、この画像ベースのアルゴリズムに適用される信頼値は30%であり、一方、ロボットベースのアルゴリズムに対応する確率分布は、第1、第2、及び第3の分岐に対して10%、60%、30%であってもよく、この画像ベースのアルゴリズムに適用される信頼値は20%である。EMベースのアルゴリズム及び画像ベースのアルゴリズムに適用される信頼値の差は、EMベースのアルゴリズムが、画像ベースのアルゴリズムと比較して、中央気道におけるセグメント識別のための良い選択であり得ることを示す。最終推定状態の例示的な数学的計算は、以下のとおりとなり得る。
第1の分岐の場合、20%80%+40%30%+10%20%=30%、第2の分岐の場合、30%80%+20%30%+60%20%=42%、及び第3の分岐の場合、50%80%+40%30%+30%20%=58%。
この実施例では、器具先端部の出力推定状態は、結果値(例えば、結果として得られる30%、42%、58%)であってもよいし、器具先端部が第3の分岐内にあるという判定などの、これらの結果値からの導出値であってもよい。この実施例は、EMベースのアルゴリズム、画像ベースのアルゴリズム、及びロボットベースのアルゴリズムを含むアルゴリズムモジュールの使用について記載しているが、器具先端部の状態の推定はまた、経路ベースのアルゴリズムを含む様々なアルゴリズムモジュールの異なる組み合わせに基づいて提供されてもよい。
上記のように、推定状態は、多数の異なる方法で表されてもよい。例えば、推定状態は、気道から器具の先端部の位置までの絶対深度、並びに管状網内で器具が横断する一連の分岐を表すデータのセットを更に含んでもよく、このセットは、例えば、患者の肺の3Dモデルによって提供される一連の分岐全体のサブセットである。推定状態に対する確率分布及び信頼値の適用により、管状網内の器具先端部の位置及び/又は配向の推定精度を改善することができる。
図17Bに示すように、アルゴリズムモジュールは、EMベースのアルゴリズムモジュール250、画像ベースのアルゴリズムモジュール260、及びロボットベースのアルゴリズムモジュール270を含む。図17Bに示すアルゴリズムモジュールは単なる一例であり、代替実施形態では、異なる及び/又は追加のナビゲーションアルゴリズムを含む異なる及び/又は追加のアルゴリズムモジュールもナビゲーションモジュール205に含まれてもよい。
B.1.分岐予測システム
EMベースのアルゴリズムモジュール250は、EM位置合わせモジュール252、EM位置特定モジュール254、及びEM分岐予測モジュール256を更に含む。EM位置合わせモジュール252は、3Dモデル座標に対してEM座標の位置合わせを行うことができる。EM位置特定モジュール254は、器具のポジション及び配向の推定値を判定することができる。EM分岐予測モジュール256は、器具が現在位置している現在のセグメントから、器具がモデルのどのセグメントに前進するのかについての予測を判定することができる。
図17Dは、本開示の態様による、例示的な位置センサベースの位置特定及び分岐予測システムを示す。具体的には、図17Dは、EMデータストア220、位置合わせ変換データストア253、3Dモデルデータストア240、EM位置特定モジュール254、EM分岐予測モジュール256、及び推定状態データストア285を含む、位置センサベースの位置特定及び分岐予測システムを示す。位置特定及び分岐予測システムのブロック図は、単なる一例であり、図示されていない他の実施形態では、位置特定及び分岐予測システムは、異なる及び/又は追加の構成要素を含むことができ、例えば、特定の実施態様においては、分岐予測システム210は、EMデータストア220の代わりに、又はそれに加えて、画像データストア220及びロボットデータストア230のうちの1つ又は2つ以上を含み得る。
EM位置特定モジュール254は、入力として、推定状態データストア285からの推定状態データ(以前)(例えば、二分岐データ)、EMデータストア220からのEMデータ、位置合わせ変換データストア253からの位置合わせ変換データ、並びに3Dモデルデータストア240からの3Dモデルデータを受信する。受信したデータに基づいて、EM位置特定モジュール254は、管状網の3Dモデルに対する器具先端部のポジション及び配向の推定値を判定し、EMベースの推定状態データ(現在)を状態推定器280に提供する。一例として、EMベースの推定状態データは、確率分布(例えば、上述のように、三分岐の3つのセグメントに対する20%、30%、及び50%の離散分布)として表すことができる。加えて、受信した二分岐データによって示されるような二分岐部にあるとき、EM位置特定モジュール254は、器具の先端部のピッチ及びヨーを、3Dモデル内の各分岐の角度と比較して、横断するのにどの分岐がユーザによって選択されたかを推定することができる。EM位置特定モジュール254は、EMベースの推定状態データ(現在)を推定データストア285及びEM分岐予測モジュール256に出力する。
EM分岐予測モジュール256は、器具がモデルのどのセグメントに前進するかについての予測を判定することができる。例えば、器具が位置するモデルの判定された現在のセグメント及び/又は配向データストア289から受信された配向データに基づいて、EM分岐予測モジュール256は、器具が現在のセグメントの子セグメントの各々に前進する予測を判定することができる。予測を判定するためにEM分岐予測モジュール256によって採用され得る多数の異なる技術があってもよく、これらは以下でより詳細に説明される。いくつかの実施形態では、EM分岐予測モジュール256によって使用される特定の技術は、位置データがモデルに対して位置合わせされているかどうかに依存し得る。EM分岐予測モジュール256は、判定された予測を推定状態データストア285に提供することができる。上で考察されたようないくつかの実施形態では、EM分岐予測モジュール256は、配向データストア289から受信した配向データに基づいて予測を判定することができる。他の実施形態では、EM分岐予測モジュール256は、ポジションデータストア287からのポジションデータに基づいて、又は配向データ及びポジションデータの両方に基づいて予測を判定することができる。
B.2.器具がとる例示的な経路
例示的な目的で、位置センサベースの分岐予測に関連する本開示の態様は、気管支鏡検査及び気管支内腔網の一部をナビゲートするという状況において説明される。しかしながら、本開示は、他の管腔網及び他の医療処置にも適用することができる。
図18Aは、本開示の態様による、位置センサベースの分岐予測を実行することができる例示的な管腔網を示す。図18Aの実施形態では、図示された管腔網300は、患者の肺の気道に対応しており、第1世代気道305(例えば、気管)を含み、この気道は主気管分岐部310において2つの第2世代気道315及び320(例えば、一次気管支)に分岐する。患者が仰臥位であると仮定すると、気管305は、患者の左気管支320及び患者の右気管支315に分岐する。
図18Aはまた、器具が医療処置中に気道を通ってナビゲートされるときに器具が駆動され得る経路325を示す。経路325に沿って駆動されたときの器具の2つの例示的な追跡位置330及び335が示されており、様々な実施形態を考察する際に参照される。位置センサは、以下の図18Bに関連して詳細に説明されるように、位置センサ座標系内の追跡位置330及び335を表す位置データ(図示せず)を生成することができる。本開示の態様は、第2世代気道315及び320のうちの1つの間で、器具がどの気道に進入するかの予測に関するものであってもよい。後に詳細に説明するように、プロセッサは、分岐予測技術で使用するための器具の初期位置330及び後続位置335を選択してもよい。
B.3.処置中に生成される例示的な位置データ
図18Bは、本開示の態様による、器具が管腔網を通して駆動される際に1つ又は2つ以上の位置センサによって生成され得る、例示的な一組の位置データ点を示す。図18Bでは、ナビゲーション経路345は、処置中に器具が駆動される経路として定義されてもよい。ナビゲーション経路345は、経路計画プログラムなどによって生成された手順を実行する前に、ユーザによって選択されてもよい。便宜上、図18Bは2Dで図示されているが、本開示はまた、3Dナビゲーション経路にも適用され得ることを理解されたい。ナビゲーション経路345は、患者の管腔網のモデル(例えば、図20の骨格ベースのモデル500)が定義されるモデル座標系350に関して定義されてもよい。
処置中、位置センサは、器具が気道を通ってナビゲートされる際の器具の追跡位置を表す複数の位置合わせされていないデータ点355を生成してもよい。位置合わせされていないデータ点355は、位置センサ座標系360に対して定義されてもよい。EMセンサを利用する実施形態の場合、位置センサ座標系360は、EM発生器からのEM場によって定義されるか、又はこれに対応していてもよい。ロボットシステムで動作するナビゲーションシステム(例えば、図15に示す位置特定システム)は、位置センサ座標系360とモデル座標系350との間の位置合わせを判定してもよく、これを使用して位置合わせされていないデータ点355をモデル座標系350にマッピングすることができる。位置合わせは、例えば、図17の位置合わせデータストア225内のメモリに記憶されてもよい。位置センサ座標系360及びモデル座標系350を位置合わせするための1つの技術は、位置合わせされていないデータ点355に適用されたとき、データ点と経路345との間の距離の和を最小化する変換行列を選択することを含んでもよい。位置合わせが位置合わせされていないデータ点355に適用されると、「位置合わせされた」位置データ点は、経路345と実質的に整合し得る。
B.4.例示的な分岐予測技術
図19は、本開示の態様による、位置センサによる分岐予測のための、ロボットシステム又はその構成要素(複数可)によって動作可能な例示的な方法を示すフローチャートである。例えば、図19に示される方法400の工程は、ロボットシステム又は関連システム(複数可)のプロセッサ(複数可)及び/又は他の構成要素(複数可)によって実行され得る。便宜上、方法400は、位置センサベースの分岐予測システムによって実行されるものとして説明され、方法400の説明に関連して単に「システム」とも称される。
ブロック405で、位置センサベースの予測システムは、器具のための一組の1つ又は2つ以上の位置センサによって生成された第1の位置データに基づいて、器具の第1の配向を判定する。第1の位置データは、第1の時間における位置センサ座標系内の器具の位置を示してもよい。特定の実施形態において、位置センサは、器具の遠位端に又はその近くに位置してもよく、したがって、位置センサによって生成された位置データは、器具の遠位端の位置を示すことができる。一実施形態では、器具の第1の配向は、図18の初期位置330などの初期位置における器具の配向に対応し得る。
ブロック410において、位置センサベースの分岐予測システムは、一組の位置センサによって生成された第2の位置データに基づいて、第2の時間における器具の第2の配向を判定する。器具の遠位端は、第1の時間及び第2の時間においてモデルの第1のセグメント内に配置されてもよい。第1のセグメントは、2つ又は3つ以上の子セグメントに分岐してもよい。図18に例示される例示的な実施形態では、第1の時間及び第2の時間におけるに器具の遠位端は、それぞれ、初期位置330及び後続位置335に対応していてもよく、これらは各々、2つの第2世代気道315及び320に分岐する第1世代気道305内に位置する。
ブロック415において、位置センサベースの分岐予測システムは、第1の配向と第2の配向との間の差を示すデータを判定する。これは、例えば、位置合わせされていない位置センサデータに基づいて、2つの連続する時点での、器具の配向を判定することを含んでもよい。現在のセグメント内に配置されているときの器具の配向の差に基づいて、システムは、2つ又は3つ以上の子セグメントのうち、器具が最も前進する可能性が高いのはどちらの子セグメントかを予測することができる。すなわち、システムは、モデルから2つの第2世代気道315及び320に分岐する第1世代気道305の各々の配向にアクセスできるので、システムは、器具の配向の変化に基づいて、器具が前進する可能性が最も高いのは子セグメントのうちのどれであるかを予測することができる。
一実施態様では、位置センサベースの分岐予測システムは、初期の配向と後続の配向との間の相対変換行列を計算することにより、初期の配向と後続の配向との間の差を判定することができる。システムは、変換行列をロール、ピッチ、及びヨー角に分解して、位置センサ座標系内の器具の配向を定義してもよい。位置センサ(複数可)として採用され得る特定の位置センサ技術(例えば、EM位置センサ)は、患者が所与の処置(例えば、気管支鏡検査処置)のために仰臥位で横たわったときに、少なくとも1つの角度自由度において患者と実質的に整合してもよい。EM実装態様では、EM場発生器は、EM場発生器の配向に対して定義される配向を有するEM場を生成することができる。したがって、患者と整合するようにEM場発生器の配向を整えることによって、システムは、相対変換行列から判定されたヨー角のみを使用して、分岐予測方法400を実行することができる。
気管支鏡検査処置において、患者の配向とEM場とが既知であってもよいので、システムは、EMセンサによって生成されたデータに基づいて、初期の配向と後続の配向との間のヨー角を判定することが可能であってもよい。したがって、一次気管支への気管の二分岐は、EMセンサ座標系内のヨー軸に対して定義され得る。したがって、器具が気管305内に位置するとき(図18Aを参照)、EM場に基づいて判定された器具のヨー角は、一次気管支315と320との間の配向の差と実質的に整合してもよい。したがって、システムは、器具が前進する可能性が高い一次気管支315及び320の予測を更新するための基礎として、初期の配向と後続の配向との間のヨー角の変化を使用してもよい。
いくつかの実施形態では、ブロック415はまた、子セグメントの配向の間に形成された角度を判定するシステムを含んでもよい。器具の遠位端の配向の変化量は、器具の挿入方向を子セグメントのうちの1つから他方へ向け直すために、子セグメント間に形成される角度に対応してもよい。後述するように、システムは、子セグメント間に形成された角度を、分岐予測を更新するかどうかを判定するための要因として、及び/又は分岐予測中に子セグメントに確率を割り当てるために使用される要因として使用してもよい。子セグメント間に形成された角度に基づいて閾値を選択する実施形態は、設計時(例えば、閾値は、角度に基づいてシステムの設計者によって選択されたパラメータである)又は実行時(例えば、システムは、手術前又は手術中に閾値を動的に決定するための論理及びデータを含む)に決定されてもよいことが理解されよう。また、実行時アプローチは、閾値を用いて角度を正確に区別するために、システムのハードウェア及びソフトウェア、並びに患者の解剖学的構造に影響を与える可能性があることを理解されたい。
ブロック420において、位置センサベースの分岐予測システムは、その差を示すデータに基づいて、器具が子セグメントのうちの第1の子セグメント内に前進するという予測を判定する。実施形態に応じて、予測は、器具が前進させられる可能性が最も高い子セグメントの識別、器具が対応する子セグメントに前進させられる子セグメントの各々に対する確率、最も高い確率から最も低い確率までの子セグメントの順序付きリストなどを含むことができる。システムが、器具が子セグメントに前進する予測を以前に判定していた場合、システムは、ブロック415で判定された配向の差に基づいて予測を更新してもよい。
システムが子セグメント間の角度を判定する実施形態では、システムは、予測を判定する際に子セグメントの配向の間に形成された角度を使用してもよい。他の実施形態では、システムは、器具の遠位端の配向と子セグメントの各々の配向との間の差に基づいて予測を判定してもよい。一実施形態では、システムは、残りの子セグメントよりも器具の配向との差が小さい子セグメントに、より高い確率を割り当てることができる。
特定の実施形態では、システムは、器具の配向が閾値レベルを超えて変化しない限り、子セグメントの各々の中に前進する器具の確率を調整することを控えてもよい。システムは、特定の実施形態では、子セグメント間の角度に基づいて閾値レベルを調整することができる。例えば、システムは、子セグメント間の角度が第1の閾値角度よりも大きい場合に閾値レベルを上げてもよく、子セグメント間の角度が第2の閾値角度よりも小さい場合に閾値レベルを下げてもよい。システムが、(例えば、所与の1つに進入する確率が他の子セグメントの確率よりも大きいことに基づいて)器具が子セグメントのうちの所与の1つに進入するという予測を一旦判定すると、システムは、その後、一組の位置センサによって生成された後続の位置データに基づいて、第3の時間における器具の配向を判定することができる。システムは、(i)第3の時間(例えば、器具が後続の位置に位置する第2の時間の後の時間)における配向と、(ii)初期の配向と、の間の角度を計算し、計算された角度を閾値角度値と比較する、ように構成されてもよい。システムは、計算された角度が閾値角度値よりも大きいことに応じて、子セグメントの各々に前進する器具の確率を更新するように更に構成されてもよい。したがって、特定の実施態様では、システムは、器具の配向が閾値角度値よりも大きい初期の配向と角度を形成しない限り、各子セグメント内に前進する器具の確率を更新しないことがある。方法400は、ブロック425において終了する。
上記の方法400は、位置合わせされていない位置データを使用して実行される場合に特に有利であり得る。すなわち、位置合わせされていない位置データは、モデル座標系への器具の位置及び/又は配向の正確なマッピングを提供しない場合があるので、システムは、2回又は3回以上の連続した時間における器具の相対的な配向を使用して、器具の測定された配向の変化が、子セグメントの1つに向かって関節運動している器具と一致するかどうかを判定してもよい。(例えば、位置センサ座標系内)器具の測定された配向の検出された変化は、子セグメントのうちの1つの物理的配向に近い方向に向けられる器具の物理的配向の変化と一致してもよい。換言すれば、位置センサ座標系における器具の配向の初期の配向から後続の配向への相対的変化は、位置合わせされていない位置データを使用して判定されたときの、子セグメントのうちの1つに向かう器具の前進方向の変化を示してもよい。したがって、位置センサ座標系は、特定の処置の初期段階中にモデル座標系に位置合わせされない場合があるため、方法400は、センサ融合技術(例えば、図15の位置特定システム90)によって使用され得る初期段階中に分岐予測を提供することができる。
一実施例では、初期の配向と後続の配向との間の差を示すデータが、患者の左一次気管支(例えば、第2世代気道320)に向かって前進又は方向付けられている器具と一致する場合、システムは、器具が右一次気管支ではなく左一次気管支内に前進することを予測し得る。したがって、システムは、配向の変化が、器具が対応する子分岐に向かって前進しているか、又は、これから離れていることを示しているかどうかに基づいて、各子分岐の予測を更新することができる。
B.5.初期位置の選択
上述のように、方法400は、器具が初期位置に位置しているときに、ブロック405において器具の第1の配向を判定することを含み得る。位置センサベースの分岐予測システムは、状態推定モジュール240の初期化に応じて、器具の初期位置を選択してもよい。特定の実施形態では、位置センサベースの分岐予測システムは、初期位置として初期化後に、状態推定モジュール240によって生成された器具の位置の第1の表示を選択してもよい。しかしながら、他の実施形態では、システムは、状態推定モジュール240によって初期位置として生成された他の位置(例えば、器具の第2、第3などの位置)を選択してもよい。
いくつかの実施形態では、システムは、初期位置における器具の配向が現在のセグメントの配向と実質的に整合している(例えば、現在のセグメントの長手方向軸と整合している)という判定に基づいて、器具の初期位置を選択するように構成されてもよい。本明細書で使用するとき、システムは、器具の配向と現在のセグメントとの間の差が閾値差未満であるとき、器具の配向を現在のセグメントの配向と実質的に整合させることを考慮してもよい。しかしながら、受信した位置センサデータは、モデル座標系に対して位置合わせされない場合があるため、システムは、器具の配向を現在のセグメントの配向と直接比較することができない場合がある。
一実施態様では、システムは、器具が現在のセグメントと整合しているという表示をユーザから受信するように構成されてもよい。ユーザは、システムの他のセンサ(例えば、器具の遠位端に位置するカメラ)に基づいて、器具の配向が第1世代セグメントと現在整合していることを確認することができてもよい。一実施態様では、システムは、器具を管腔網内の定義された位置(例えば、図18の気管分岐部310)まで駆動し、定義された位置から少なくとも定義された距離だけ器具を後退させるようにユーザに命令を提供してもよい。システムは、後退前又は後のポジションにおける器具の遠位端の位置を判定し、この点における器具の配向を、現在のセグメントの配向と実質的に整合される初期配向として設定してもよい。
他の実施態様では、システムは、ユーザ入力を受信することなく、器具の駆動中に初期位置を自動的に選択するように構成又はプログラムされてもよい。一実施形態では、システムは、器具がある期間にわたって現在のセグメントを通って進むにつれて、器具の配向を追跡してもよく、器具の配向が閾値時間の間に実質的に変化していないことに応じて、システムは、識別された期間中の器具の配向が現在のセグメントの配向と整合していると判定してもよい。いくつかの実施形態では、システムは、ある期間にわたって測定された器具の配向間の最大差が閾値差未満である場合に、器具の配向が実質的に変化していないと判定してもよい。
B.6.位置合わせプロセスの確認
特定の実施態様では、システムは、位置センサ(複数可)の座標系を管腔網のモデルの座標系に位置合わせするために、位置合わせプロセスを実行するように構成されてもよい。位置合わせは、図17に示すように位置合わせデータストア225に記憶されてもよい。位置合わせプロセスは、位置センサ座標系とモデル座標系との間の位置合わせを判定するために、位置合わせされていない位置データの使用を容易にするプロセスを含んでもよい。特定の実施形態では、位置合わせプロセスは、位置センサ(複数可)から受信したデータの履歴を維持し、位置データの履歴によって形成された形状を、解剖学的構造のモデルに基づいて、器具がそれに沿って移動できる候補経路に一致させることに基づいて実行されてもよい。システムは、ユーザに、所定の位置合わせ経路に沿って器具を駆動するように指示を提供し、位置合わせプロセス中にユーザが位置合わせ経路に沿って器具を駆動することに応じて、位置センサに基づいて器具の位置を追跡してもよい。特定の処置では、位置合わせ経路は、器具が位置合わせプロセスのためにそれに沿って駆動される経路の形状を定義する対側位置合わせ経路を含んでもよい。対側位置合わせ経路は、標的の位置に対して管腔網上の対側のセグメントに沿って器具を駆動することと、対側の側から器具を後退させることと、標的までの経路(標的経路ともいう)に沿って管腔網の側方に沿って器具を駆動することとを含んでもよい。したがって、対側位置合わせ経路は、標的経路の外側で管腔網の対側分岐に沿って(例えば、標的に対して管腔網の対側の側にある分岐に沿って)器具を駆動することと、標的経路に器具を戻すことと、標的経路の一部に沿って配置された側方分岐に沿って器具を駆動することとを含んでもよい。
特定の処置では、標的は、診断及び/又は治療を容易にするために器具が駆動され得る小結節(又は病変)を含み得る。したがって、メモリは、モデル内の標的への標的経路及び対側位置合わせ経路を記憶してもよい。位置合わせプロセス中に、システムは、器具が子セグメントの各々に沿って前進するかどうかの予測に基づいて、ユーザが現在、対側位置合わせ経路によって定義されているように、器具を管腔網の正しい分岐に駆動しているかどうかを確認するように構成されてもよい。したがって、システムは、予測に基づいて、器具が対側位置合わせ経路に沿って位置しているかどうかを判定することができる。一実施態様では、管腔網内の二分岐(例えば、一次気管支付近の二分岐)に接近するとき、システムは、器具が対側位置合わせ経路に沿って分岐内に前進する確率を閾値確率と比較してもよい。確率が閾値確率未満である場合、システムは、ユーザが正しい分岐に向かって駆動していない可能性があるという表示をユーザに表示してもよい。
別の実施態様では、システムは、器具が対側位置合わせ経路を前進される前に標的経路に沿って前進させられたと判定してもよく、これは、ユーザが位置合わせプロセス中に使用された対側位置合わせ経路に対応しない経路に沿って器具を不注意に駆動したことを示し得る。対側位置合わせ経路は、器具が標的経路に沿って駆動される前に、対側経路に沿って器具が駆動されることを必要とする場合があるので、システムは、器具が対側位置合わせ経路に沿って前進させられる前に標的経路に沿って駆動されたとの判定に応じて、対側位置合わせが成功しなかったという表示を提供し得る。
システムはまた、ユーザにフィードバックを提供するために、所与の処置中に、モデルに対する器具の位置の表示を表示するように構成されてもよい。したがって、システムは、器具の位置を示す複数のデータソースに基づいて、モデルに対する器具の遠位端のポジションを判定することができる。特定の実施態様では、システムは、位置センサから受信した位置データ、器具の動きを制御するために提供される一連のコマンド、及び器具が現在のセグメントの子セグメント内に前進するという予測のうちの1つ又は2つ以上に基づいて、器具の遠位端のポジションを判定してもよい。したがって、図19の方法400を用いて判定される予測(複数可)は、器具の位置特定及び/又はナビゲーションにおいてシステムによって使用することができる1つのデータソースであってもよい。
C.位置合わせされた位置センサベースの分岐予測。
システムが、位置センサ座標系をモデル座標系に位置合わせする位置合わせプロセスを実行した後、システムは、位置センサ(複数可)によって生成されたデータを使用して、モデル座標系に関連付けられたモデルを参照して、器具の遠位端の位置の表示を判定することができるようにしてもよい。位置合わせされたデータ位置のデータを使用して、システムは、器具が内部に前進する可能性が最も高い管腔網の子セグメントに関する予測を生成することができる。実施態様によっては、位置合わせされていない位置センサデータを使用しても、器具が特定の距離を超えて管腔網内に前進させられた後は、管腔網内での分岐予測に十分な精度が提供されない場合がある。例えば、器具が一次気管支内に前進させられると、システムは、位置合わせされた位置センサデータなしで分岐予測を実行することができない場合がある。したがって、本開示の態様はまた、分岐予測のための位置合わせされた位置データの使用に関する。
図20は、管腔網の一部分の例示的な骨格ベースのモデルを示す。特に、骨格ベースのモデル500は、管腔網が、管腔網の個々の管腔に各々対応する複数の離散セグメントを構成し得る「骨格」505としてモデル化される実施態様を例示している。図20に示すモデル500は、位置特定システム90(図15を参照)によって使用されて、器具の遠位端のポジション及び配向を計算することができる。骨格505の各セグメントは、固有の「セグメントID」を割り当てられてもよく、骨格505を形成するセグメントの各々は、対応する管腔の中心線に対して定義されてもよい。特定の医療処置の間、器具は、処置の少なくとも一部分について、管腔網を通してナビゲートされてもよい。具体的には、所与の時点で、器具525の遠位端は、モデルの現在のセグメント510内に位置してもよく、現在のセグメント510は、2つの子セグメント515及び520に分岐又は二分岐してもよい。以下で詳細に考察されるように、本開示の態様は、現在のセグメント510内に位置するときの器具の配向に基づいて実行される分岐予測技術に関する。
図21は本開示の態様による、位置合わせされていない位置センサベースの分岐予測のための、ロボットシステム又はその構成要素(複数可)によって動作可能な例示的な方法を示すフローチャートである。例えば、図21に示される方法600の工程は、ロボットシステム又は関連システム(複数可)のプロセッサ(複数可)及び/又は他の構成要素(複数可)によって実行され得る。便宜上、方法600は、位置センサベースの分岐予測システムによって実行されるものとして説明され、また、方法600の説明に関連して単に「システム」とも称される。ロボットシステムは、患者の管腔網のモデルを記憶した、少なくとも1つのコンピュータ可読メモリを含んでもよい。
ブロック605で、位置センサベースの分岐予測システムは、器具の一組の1つ又は2つ以上の位置センサによって生成された位置データに基づいて、モデルに対する器具の配向を判定する。特定の実施態様では、位置データは、一組の位置センサから受信した位置合わせされた位置データを含む。位置センサデータがシステムによって受信されるときに、位置センサは、管腔網のモデルに位置合わせされてもよい。位置合わせされた位置データを使用して、システムは、位置データに基づいて、モデルに対する器具の遠位端の位置を判定することが可能であり得る。特定の実施態様では、システムは、多数のデータソースを使用して(例えば、図15の位置特定システム90を使用することによって)器具の遠位端の位置を判定するセンサ融合技術を用いてもよい。受信された位置データがモデルに対して位置合わせされるので、システムは、モデルに対する器具の位置の測定を行うことが可能であり得る。
特定の実施態様では、システムがブロック605において器具の配向を判定するとき、器具の遠位端は、モデルの第1のセグメント内に位置していてもよい。一実施形態では、器具525の遠位端は、図20に示されるように、2つの子分岐515及び520を含む現在のセグメント525内に位置する。
ブロック610において、位置センサベースの分岐予測システムは、子セグメントのうちの第1の子セグメントの配向を判定する。図20の実施例では、子セグメント515及び520の各々の配向は、モデル座標系に対する骨格505の対応するセグメントの配向に基づいて判定されてもよい。実施態様によっては、現在のセグメントは、2つ又は3つ以上の子セグメントを含む骨格505のセグメントのうちのいずれか1つに対応してもよい。
ブロック615において、位置センサベースの分岐予測は、器具の配向及び第1の子セグメントの配向に基づいて、器具が第1の子セグメントの中に前進するという予測を判定する。これは、例えば、システムが、器具525の遠位端の配向と、図20の実施形態における子セグメント515及び520の各々の配向との間の差を判定することを含んでもよい。モデルは、セグメントの各々の配向を示すデータを含んでもよい。特定の実施形態では、セグメントの配向を示すデータは、骨格505を表すデータに含まれてもよく、骨格505の各セグメントの位置、長さ、及び配向は、メモリ内に定義されてもよい。したがって、システムは、位置合わせされた位置センサデータを使用して、モデル座標系内の器具の配向を判定し、器具の配向を子セグメントの各々の配向と比較してもよい。方法は、ブロック620において終了する。
実施形態によっては、予測は、器具が前進させられる可能性が最も高い子セグメントの識別、対応する子セグメントの中に器具が前進させられる子セグメント各々に対する確率、最も高い確率から最も低い確率までの子セグメントの順序付きリストなどを含むことができる。そのため、特定の実施形態では、予測は、器具が子セグメントの各々の中に進む確率を示すデータを含んでもよい。いくつかの実施態様では、システムは、器具の配向との差がより低い配向を有する子セグメントに、より高い確率を割り当てることができる。このように、システムは、対応する確率の判定を支援するために、器具の配向と子セグメントの各々の配向との間の差を示すデータを判定することができる。
特定の実施態様では、システムは、器具の配向と子セグメントの各々の配向との間の角度を更に判定することができる。器具の配向と所与の子セグメントとの間の角度は、配向間の差を示し得る。したがって、システムは、所与の子セグメントと器具との間の角度に反比例する所与の子セグメントに、確率を割り当てるように構成されてもよい。一実施態様では、システムは、器具の配向と所与の子セグメントの配向との間のドット積に基づいて、角度を判定することができる。角度が小さいほど、器具の配向と所与の子セグメントとの間の整合が大きいことを示す場合があるため、システムはまた、所与の子セグメントの確率を計算するために、判定された角度の逆数を使用することもできる。
この予測は、モデルに対する器具の遠位端の位置を判定するために使用される融合技術(例えば、図15の位置特定システム90など)のデータソースとしてシステムによって使用されてもよい。特定の実施態様では、システムは、位置センサ(複数可)から受信した位置データ、器具の動きを制御するために提供される一連のコマンド、及び器具が子セグメントの各々の中に前進するという予測のうちの1つ又は2つ以上に基づいて、器具の遠位端のポジションを判定してもよい。
特定の実施態様では、システムは、上述の配向ベースの予測に加えて、分岐予測のための補助技術を適用することができる。一実施態様では、補助技術は、器具の遠位端の位置を子セグメントの各々の開始位置と比較する位置ベースの予測を含んでもよい。システムは、器具の遠位端の位置に基づいて、器具が子セグメントの各々の中に前進する補助予測を判定してもよい。予測は、子セグメントの各々に対する器具の遠位端の位置に基づいてもよい。補助技術として使用することができる位置ベースの予測技術の更なる詳細及び例は、上記の米国特許出願公開第2017/0084027号に記載されている。一実施態様では、位置センサデータが、器具の遠位端が別の子セグメントよりもある子セグメントに近い位置にあることを示している場合、システムは、遠い子セグメントよりも近い子セグメントにより高い確率を割り当てることができる。例えば、図20に戻って参照すると、器具525の遠位端が子セグメント520の第2の子セグメントよりも子セグメント515の第1の子セグメントに近い場合、システムは、第1の子セグメント515により高い確率を割り当てることができる。いくつかの実施態様では、融合技術を使用して、システムは、配向ベースの予測技術及び補助位置ベースの予測技術の両方に基づいて、器具の遠位端の位置を判定することができる。システムは、技術の各々に関連する精度、特定の予測に関連するエラーなどを含む様々な要因に基づいて、分岐予測技術の各々の結果を重み付けすることができる。
位置ベースの分岐予測と比べた場合の、配向ベースの位置センサの分岐予測に関連する1つの利点は、配向ベースの予測が、管腔網を通る器具の駆動中に連続的に実行され得ることである。例えば、位置ベースの分岐予測技術は、器具の遠位端が、現在のセグメントの子セグメントへの二分岐の閾値距離内にない限り、正確な予測を提供しない場合がある。位置ベースの予測技術は位置センサデータに依存するため、位置ベースの予測技術は、位置センサの位置合わせにおける誤差、並びに位置センサデータにおけるジッタの影響を受けやすい可能性がある。したがって、器具が子セグメントから比較的遠く離れているとき、器具と子セグメントの各々との間の距離は、ユーザがそれに向かって器具を駆動している子セグメントを示すものではない場合がある。対照的に、器具が子セグメントによって定義された二分岐部から比較的遠く離れている場合であっても、器具の配向は、ユーザが器具をその内部に向けて駆動している子セグメントとより強く相関し得る。したがって、いくつかの実施態様では、本明細書に記載される配向ベースの分岐予測技術は、器具の遠位端が現在のセグメントの始まりから現在のセグメントの終わりまで前進させられるときに適用されてもよい。他の実施形態では、システムは、現在のセグメント内の器具の遠位端のポジションとは独立して、配向ベースの分岐予測技術を適用することができる。
3.実施システム及び用語。
本明細書に開示される実施態様は、位置センサベースの分岐予測のためのシステム、方法、及び装置を提供する。
本明細書で使用するとき、用語「結合する」、「結合している」、「結合された」、又は単語「結合」の他の変形は、間接的接続又は直接的接続のいずれかを示し得ることに留意されたい。例えば、第1の構成要素が第2の構成要素に「結合される」場合、第1の構成要素は、別の構成要素を介して第2の構成要素に間接的に接続されるか、又は第2の構成要素に直接的に接続されてもよい。
本明細書に記載する機能は、プロセッサ可読媒体又はコンピュータ可読媒体上の1つ又は2つ以上の命令として記憶されてもよい。用語「コンピュータ可読媒体」は、コンピュータ又はプロセッサによってアクセスされることができる任意の利用可能な媒体を指す。一例として、限定するものではないが、このような媒体は、ランダムアクセスメモリ(random access memory、RAM)、読み出し専用メモリ(read-only memory、ROM)、電気的消去可能プログラム可能読み出し専用メモリ(electrically erasable programmable read-only memory、EEPROM)、フラッシュメモリ、コンパクトディスク読み出し専用メモリ(compact disc read-only memory、CD-ROM)、又は他の光ディスク記憶装置、磁気ディスク記憶装置、若しくは他の磁気記憶デバイス、又は命令若しくはデータ構造の形態で所望のプログラムコードを記憶するために使用することができ、コンピュータによってアクセスされることができる任意の他の媒体を含んでもよい。コンピュータ可読媒体は、有形であり、非一時的であってもよいことに留意されたい。本明細書で使用するとき、用語「コード」は、コンピューティングデバイス又はプロセッサによって実行可能であるソフトウェア、命令、コード、又はデータを指してもよい。
本明細書に開示される方法は、記載される方法を達成するための1つ又は2つ以上の工程又は行為を含む。方法工程及び/又は行為は、特許請求の範囲の範囲から逸脱することなく互いに交換されてもよい。換言すれば、記載されている方法の適切な動作のために特定の順序の工程又は行為が必要とされない限り、特許請求の範囲の範囲から逸脱することなく、特定の工程及び/又は行為の順序及び/又は使用を修正してもよい。
本明細書で使用するとき、用語「複数」は、2つ又は3つ以上を示す。例えば、複数の構成要素は、2つ又は3つ以上の構成要素を示す。用語「判定する」は、多種多様な行為を包含し、したがって、「判定する」は、計算する、演算する、処理する、導出する、調査する、ルックアップする(例えば、テーブル、データベース又は別のデータ構造を参照すること)、確認することなどを含むことができる。また、「判定する」は、受け取る(例えば、情報を受信すること)、アクセスする(例えば、メモリ内のデータにアクセスすること)などを含むことができる。また、「判定する」は、解決する、選択する、選出する、確立するなどを含むことができる。
語句「基づく」は、別途明示的に指定されない限り、「のみに基づく」ことを意味しない。換言すれば、語句「基づく」は、「のみに基づく」及び「少なくとも基づく」の両方を記述する。
開示される実施態様の前述の説明は、任意の当業者が本発明を製造すること、又は使用することを可能にするために提供される。これらの実施態様に対する種々の修正は、当業者には容易に明らかになり、かつ、本明細書で規定される一般的な原理は、本発明の範囲から逸脱することなく、他の実施態様に適用され得る。例えば、当業者であれば、締結、装着、結合、又は係合ツール構成要素の均等の方法、特定の作動運動を生み出すための均等の機構、及び電気エネルギーを送達するための均等の機構など、多くの対応する代替的かつ均等の構造的詳細を使用することができると理解されるであろう。したがって、本発明は、本明細書に示される実施態様に限定されることを意図するものではなく、本明細書に開示される原則及び新規な特徴と一致する最も広い範囲が与えられるものである。
〔実施の態様〕
(1) システムであって、
プロセッサと、
前記プロセッサと通信し、かつ患者の管腔網のモデルを記憶した少なくとも1つのコンピュータ可読メモリと、を含み、前記メモリは、前記メモリに記憶されたコンピュータ実行可能命令を更に有しており、前記コンピュータ実行可能命令が、前記プロセッサに、
器具のための一組の1つ又は2つ以上の位置センサによって生成された第1の位置データに基づいて、前記器具の第1の配向を判定することであって、前記第1の位置データが、第1の時間における位置センサ座標系内の前記器具の位置を示す、判定することと、
前記一組の位置センサによって生成された第2の位置データに基づいて、第2の時間における前記器具の第2の配向を判定することであって、前記器具の遠位端が、前記第1の時間及び前記第2の時間において前記モデルの第1のセグメント内に位置し、前記第1のセグメントが、2つ又は3つ以上の子セグメントに分岐している、判定することと、
前記第1の配向と前記第2の配向との間の差を示すデータを判定することと、
前記差を示す前記データに基づいて、前記器具が前記子セグメントのうちの第1の子セグメント内に前進するという予測を判定することと、を行わせる、システム。
(2) 前記予測は、前記器具が前記第1の子セグメント内に前進する確率を示すデータを含む、実施態様1に記載のシステム。
(3) 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
前記差を示す前記データに基づいて、前記器具が前記子セグメントのうちの第2の子セグメント内に前進するという予測を判定することを行わせる、実施態様1に記載のシステム。
(4) 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
前記一組の位置センサによって生成された第3の位置データに基づいて、第3の時間における前記器具の第3の配向を判定することと、
前記第3の配向と前記第1の配向との間の角度を判定することと、
前記角度を閾値角度と比較することと、
前記角度が前記閾値角度よりも大きいことに応じて、前記器具が前記第1の子セグメン内に前進するという前記予測を更新することと、を行わせる、実施態様1に記載のシステム。
(5) 前記一組の位置センサが、電磁(EM)場内のEMセンサの配向を示すデータを生成するように構成された前記EMセンサを含み、
前記EM場が、EM場発生器によって生成され、
前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、前記EMセンサによって生成された前記データに基づいて、前記第1の配向と前記第2の配向との間のヨー角を判定することを行わせる、実施態様1に記載のシステム。
(6) 前記EM場に基づいて判定された前記器具のヨー軸が、前記子セグメントのうちの前記第1の子セグメントと第2の子セグメントとの間の配向の差と実質的に整合する、実施態様5に記載のシステム。
(7) 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
前記位置データ、前記器具の移動を制御するために提供される一組のコマンド、及び前記器具が前記第1の子セグメント内に前進するという前記予測を分析することによって、前記モデルに対する前記器具の前記遠位端のポジションを判定することを行わせる、実施態様1に記載のシステム。
(8) 前記位置データが、前記モデルのモデル座標系に位置合わせされていない、実施態様1に記載のシステム。
(9) 前記メモリが、前記メモリに記憶された、
前記モデル内の標的への標的経路と、
対側位置合わせ経路であって、前記標的経路の外側で前記管腔網の第1の分岐に沿って前記器具を駆動することと、前記標的経路に前記器具を戻すことと、前記標的経路の一部である第2の分岐に沿って前記器具を駆動することと、を含む、対側位置合わせ経路と、
コンピュータ実行可能命令であって、前記コンピュータ実行可能命令が、前記プロセッサに、前記器具が前記第1の子セグメント内に前進するという前記予測に基づいて、前記器具が前記対側位置合わせ経路に沿って配置されているかどうかを判定させる、コンピュータ実行可能命令と、を更に有する、実施態様1に記載のシステム。
(10) 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
前記対側位置合わせ経路に沿って前進される前に、前記器具が前記標的経路に沿って前進させられたと判定することと、
前記対側位置合わせ経路に沿って前進される前に、前記器具が前記標的経路に沿って前進させられたと判定したことに応じて、対側位置合わせが失敗したという表示を提供することと、を行わせる、実施態様9に記載のシステム。
(11) 非一時的コンピュータ可読記憶媒体であって、前記非一時的コンピュータ可読記憶媒体は、前記非一時的コンピュータ可読記憶媒体に記憶された命令を有し、前記命令は、実行されたときに、少なくとも1つのコンピューティングデバイスに、
器具のための一組の1つ又は2つ以上の位置センサによって生成された第1の位置データに基づいて、前記器具の第1の配向を判定することであって、前記第1の位置データが第1の時間における位置センサ座標系内の前記器具の位置を示す、判定することと、
前記一組の位置センサによって生成された第2の位置データに基づいて、第2の時間における前記器具の第2の配向を判定することであって、前記器具の遠位端が、前記第1の時間及び前記第2の時間においてモデルの第1のセグメント内に位置し、前記第1のセグメントが、2つ又は3つ以上の子セグメントに分岐し、前記モデルが、メモリに記憶され、患者の管腔網をモデル化する、判定することと、
前記第1の配向と前記第2の配向との間の差を示すデータを判定することと、
前記差を示す前記データに基づいて、前記器具が前記子セグメントのうちの第1の子セグメント内に前進するという予測を判定することと、を行わせる、非一時的コンピュータ可読記憶媒体。
(12) 前記予測は、前記器具が前記第1の子セグメント内に前進する確率を示すデータを含む、実施態様11に記載の非一時的コンピュータ可読記憶媒体。
(13) 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、前記少なくとも1つのコンピューティングデバイスに、
前記差を示す前記データに基づいて、前記器具が前記子セグメントのうちの第2の子セグメント内に前進するという予測を判定することを行わせる、実施態様11に記載の非一時的コンピュータ可読記憶媒体。
(14) 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、前記少なくとも1つのコンピューティングデバイスに、
前記一組の位置センサによって生成された第3の位置データに基づいて、第3の時間における前記器具の第3の配向を判定することと、
前記第3の配向と前記第1の配向との間の角度を判定することと、
前記角度を閾値角度と比較することと、
前記角度が前記閾値角度よりも大きいことに応じて、前記器具が前記第1の子セグメント内に前進するという前記予測を更新することと、を行わせる、実施態様11に記載の非一時的コンピュータ可読記憶媒体。
(15) 前記一組の位置センサが、電磁(EM)場内のEMセンサの配向を示すデータを生成するように構成された前記EMセンサを含み、
前記EM場が、EM場発生器によって生成され、
前記非一時的コンピュータ可読記憶媒体が、前記非一時的コンピュータ可読記憶媒体に記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令は、実行されたときに、前記少なくとも1つのコンピューティングデバイスに、前記EMセンサによって生成された前記データに基づいて、前記第1の配向と前記第2の配向との間のヨー角を判定することを行わせる、実施態様11に記載の非一時的コンピュータ可読記憶媒体。
(16) 前記EM場に基づいて判定された前記器具のヨー軸が、前記子セグメントのうちの前記第1の子セグメントと第2の子セグメントとの間の配向の差と実質的に整合する、実施態様15に記載の非一時的コンピュータ可読記憶媒体。
(17) 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、前記少なくとも1つのコンピューティングデバイスに、
前記位置データ、前記器具の移動を制御するために提供される一組のコマンド、及び前記器具が前記第1の子セグメント内に前進するという前記予測を分析することによって、前記モデルに対する前記器具の前記遠位端のポジションを判定することを行わせる、実施態様11に記載の非一時的コンピュータ可読記憶媒体。
(18) 前記位置データが、前記モデルのモデル座標系に位置合わせされていない、実施態様11に記載の非一時的コンピュータ可読記憶媒体。
(19) 前記メモリが、前記メモリに記憶された、
前記モデル内の標的への標的経路と、
対側位置合わせ経路であって、前記標的経路の外側で前記管腔網の第1の分岐に沿って前記器具を駆動することと、前記標的経路に前記器具を戻すことと、前記標的経路の一部である第2の分岐に沿って前記器具を駆動することと、を含む、対側位置合わせ経路と、を更に有し、
前記非一時的コンピュータ可読記憶媒体が、前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、前記少なくとも1つのコンピューティングデバイスに、前記器具が前記第1の子セグメント内に前進するという前記予測に基づいて、前記器具が前記対側位置合わせ経路に沿って配置されているかどうかを判定させる、実施態様11に記載の非一時的コンピュータ可読記憶媒体。
(20) 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、前記少なくとも1つのコンピューティングデバイスに、
前記対側位置合わせ経路に沿って前進される前に、前記器具が前記標的経路に沿って前進させられたと判定することと、
前記対側位置合わせ経路に沿って前進される前に、前記器具が前記標的経路に沿って前進させられたと判定したことに応じて、対側位置合わせが失敗したという表示を提供することと、を行わせる、実施態様11に記載の非一時的コンピュータ可読記憶媒体。
(21) 器具の移動を予測する方法であって、
前記器具のための一組の1つ又は2つ以上の位置センサによって生成された第1の位置データに基づいて、前記器具の第1の配向を判定することであって、前記第1の位置データが第1の時間における位置センサ座標系内の前記器具の位置を示す、判定することと、
前記一組の位置センサによって生成された第2の位置データに基づいて、第2の時間における前記器具の第2の配向を判定することであって、前記器具の遠位端が、前記第1の時間及び前記第2の時間においてモデルの第1のセグメント内に位置し、前記第1のセグメントが、2つ又は3つ以上の子セグメントに分岐し、前記モデルがメモリに記憶され、患者の管腔網をモデル化する、判定することと、
前記第1の配向と前記第2の配向との間の差を示すデータを判定することと、
前記差を示す前記データに基づいて、前記器具が前記子セグメントのうちの第1の子セグメント内に前進するという予測を判定することと、を含む、方法。
(22) 前記予測は、前記器具が前記第1の子セグメント内に前進する確率を示すデータを含む、実施態様21に記載の方法。
(23) 前記差を示す前記データに基づいて、前記器具が前記子セグメントのうちの第2の子セグメント内に前進するという予測を判定することを更に含む、実施態様21に記載の方法。
(24) 前記一組の位置センサによって生成された第3の位置データに基づいて、第3の時間における前記器具の第3の配向を判定することと、
前記第3の配向と前記第1の配向との間の角度を判定することと、
前記角度を閾値角度と比較することと、
前記角度が前記閾値角度よりも大きいことに応じて、前記器具が前記第1の子セグメント内に前進するという前記予測を更新することと、を更に含む、実施態様21に記載の方法。
(25) 前記一組の位置センサが、電磁(EM)場内のEMセンサの配向を示すデータを生成するように構成された前記EMセンサを含み、
前記EM場が、EM場発生器によって生成され、
前記方法が、前記EMセンサによって生成された前記データに基づいて、前記第1の配向と前記第2の配向との間のヨー角を判定することを更に含む、実施態様21に記載の方法。
(26) 前記EM場に基づいて判定された前記器具のヨー軸が、前記子セグメントのうちの前記第1の子セグメントと第2の子セグメントとの間の配向の差と実質的に整合する、実施態様25に記載の方法。
(27) 前記位置データ、前記器具の移動を制御するために提供される一組のコマンド、及び前記器具が前記第1の子セグメント内に前進するという前記予測を分析することによって、前記モデルに対する前記器具の前記遠位端のポジションを判定することを更に含む、実施態様21に記載の方法。
(28) 前記位置データが、前記モデルのモデル座標系に位置合わせされていない、実施態様21に記載の方法。
(29) 前記メモリが、前記メモリに記憶された、
前記モデル内の標的への標的経路と、
対側位置合わせ経路であって、前記標的経路の外側で前記管腔網の第1の分岐に沿って前記器具を駆動することと、前記標的経路に前記器具を戻すことと、前記標的経路の一部である第2の分岐に沿って前記器具を駆動することと、を含む、対側位置合わせ経路と、を更に有し、
前記方法は、前記器具が前記第1の子セグメント内に前進するという前記予測に基づいて、前記器具が前記対側位置合わせ経路に沿って配置されているかどうかを判定することを更に含む、実施態様21に記載の方法。
(30) 前記対側位置合わせ経路に沿って前進される前に、前記器具が前記標的経路に沿って前進させられたと判定することと、
前記対側位置合わせ経路に沿って前進される前に、前記器具が前記標的経路に沿って前進させられたと判定したことに応じて、対側位置合わせが失敗したという表示を提供することと、を更に含む、実施態様21に記載の方法。
(31) システムであって、
プロセッサと、
前記プロセッサと通信し、かつ患者の管腔網のモデルを記憶している少なくとも1つのコンピュータ可読メモリであって、前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有しており、前記コンピュータ実行可能命令が、前記プロセッサに、
器具のための一組の1つ又は2つ以上の位置センサによって生成された位置データに基づいて、前記モデルに対する前記器具の配向を判定することであって、前記器具の遠位端が、前記モデルの第1のセグメント内に位置し、前記第1のセグメントが、2つ又は3つ以上の子セグメントに分岐している、判定することと、
前記子セグメントのうちの第1の子セグメントの配向を判定することと、
前記器具の前記配向及び前記第1の子セグメントの前記配向に基づいて、前記器具が前記第1の子セグメント内に前進するという予測を判定することと、を行わせる、システム。
(32) 前記予測は、前記器具が前記第1の子セグメント内に前進する確率を示すデータを含む、実施態様31に記載のシステム。
(33) 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
前記器具の前記配向と前記第1の子セグメントの前記配向との間の差を示すデータを判定することを行わせ、
前記器具が前記第1の子セグメント内に前進するという前記予測が、前記器具の前記配向と前記第1の子セグメントの前記配向との間の前記差を示す前記データに更に基づく、実施態様31に記載のシステム。
(34) 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
前記子セグメントのうちの第2の子セグメントの配向を判定することと、
前記器具の前記配向及び前記第2の子セグメントの前記配向に基づいて、前記器具が前記第2の子セグメント内に前進するという予測を判定することと、を行わせる、実施態様31に記載のシステム。
(35) 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
前記器具の前記配向と前記第1の子セグメントの前記配向との間の角度を判定することを行わせ、
前記器具が前記第1の子セグメント内に前進するという前記予測が、前記角度に更に基づく、実施態様31に記載のシステム。
(36) 前記位置データが、前記モデルのモデル座標系に位置合わせされている、実施態様31に記載のシステム。
(37) 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
前記位置データ、前記器具の移動を制御するために提供される一組のコマンド、及び前記器具が前記第1の子セグメント内に前進するという前記予測を分析することによって、前記モデルに対する前記器具の前記遠位端のポジションを判定することを行わせる、実施態様31に記載のシステム。
(38) 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
前記位置データに基づいて、前記モデルに対する前記器具の前記遠位端の位置を判定することと、
前記器具の前記遠位端の前記位置に基づいて、前記器具が前記第1の子セグメント内に前進するという補助予測を判定することと、を行わせ、
前記モデルに対する前記器具の前記遠位端の前記ポジションを判定することが、前記補助予測を分析することに更に基づく、実施態様37に記載のシステム。
(39) 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
前記器具の前記遠位端が前記第1のセグメントの始まりから前記第1のセグメントの終わりまで前進するときに、前記器具が前記第1の子セグメント内に前進するという前記予測を判定することを行わせる、実施態様31に記載のシステム。
(40) 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
前記器具が、前記第1のセグメント内の前記器具の前記遠位端のポジションとは独立して、前記第1のセグメントから前記第1の子セグメント内に前進するという前記予測を判定することを行わせる、実施態様31に記載のシステム。
(41) 非一時的コンピュータ可読記憶媒体であって、前記非一時的コンピュータ可読記憶媒体が、前記非一時的コンピュータ可読記憶媒体に記憶された命令を有し、前記命令が、実行されたときに、少なくとも1つのコンピューティングデバイスに、
器具のための一組の1つ又は2つ以上の位置センサによって生成された位置データに基づいて、モデルに対する前記器具の配向を判定することであって、前記モデルが、メモリに記憶されて患者の管腔網をモデル化し、前記器具の遠位端が、前記モデルの第1のセグメント内に位置し、前記第1のセグメントが、2つ又は3つ以上の子セグメントに分岐している、判定することと、
前記子セグメントのうちの第1の子セグメントの配向を判定することと、
前記器具の前記配向及び前記第1の子セグメントの前記配向に基づいて、前記器具が前記第1の子セグメント内に前進するという予測を判定することと、を行わせる、非一時的コンピュータ可読記憶媒体。
(42) 前記予測は、前記器具が前記第1の子セグメント内に前進する確率を示すデータを含む、実施態様41に記載の非一時的コンピュータ可読記憶媒体。
(43) 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、少なくとも1つのコンピューティングデバイスに、
前記器具の前記配向と前記第1の子セグメントの前記配向との間の差を示すデータを判定することを行わせ、
前記器具が前記第1の子セグメント内に前進するという前記予測が、前記器具の前記配向と前記第1の子セグメントの前記配向との間の前記差を示す前記データに更に基づく、実施態様41に記載の非一時的コンピュータ可読記憶媒体。
(44) 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、少なくとも1つのコンピューティングデバイスに、
前記子セグメントのうちの第2の子セグメントの配向を判定することと、
前記器具の前記配向及び前記第2の子セグメントの前記配向に基づいて、前記器具が前記第2の子セグメント内に前進するという予測を判定することと、を行わせる、実施態様41に記載の非一時的コンピュータ可読記憶媒体。
(45) 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、少なくとも1つのコンピューティングデバイスに、
前記器具の前記配向と前記第1の子セグメントの前記配向との間の角度を判定することを行わせ、
前記器具が前記第1の子セグメント内に前進するという前記予測が、前記角度に更に基づく、実施態様41に記載の非一時的コンピュータ可読記憶媒体。
(46) 前記位置データが、前記モデルのモデル座標系に位置合わせされている、実施態様41に記載の非一時的コンピュータ可読記憶媒体。
(47) 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、少なくとも1つのコンピューティングデバイスに、
前記位置データ、前記器具の移動を制御するために提供される一組のコマンド、及び前記器具が前記第1の子セグメント内に前進するという前記予測を分析することによって、前記モデルに対する前記器具の前記遠位端のポジションを判定することを行わせる、実施態様41に記載の非一時的コンピュータ可読記憶媒体。
(48) 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、少なくとも1つのコンピューティングデバイスに、
前記位置データに基づいて、前記モデルに対する前記器具の前記遠位端の位置を判定することと、
前記器具の前記遠位端の前記位置に基づいて、前記器具が前記第1の子セグメント内に前進するという補助予測を判定することと、を行わせ、
前記モデルに対する前記器具の前記遠位端の前記ポジションを判定することが、前記補助予測を分析することに更に基づく、実施態様47に記載の非一時的コンピュータ可読記憶媒体。
(49) 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、少なくとも1つのコンピューティングデバイスに、
前記器具の前記遠位端が前記第1のセグメントの始まりから前記第1のセグメントの終わりまで前進するときに、前記器具が前記第1の子セグメント内に前進するという前記予測を判定することを行わせる、実施態様41に記載の非一時的コンピュータ可読記憶媒体。
(50) 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、少なくとも1つのコンピューティングデバイスに、
前記器具が、前記第1のセグメント内の前記器具の前記遠位端のポジションとは独立して、前記第1のセグメントから前記第1の子セグメント内に前進するという前記予測を判定することを行わせる、実施態様41に記載の非一時的コンピュータ可読記憶媒体。
(51) 器具の移動を予測する方法であって、
器具のための一組の1つ又は2つ以上の位置センサによって生成された位置データに基づいて、モデルに対する前記器具の配向を判定することであって、前記モデルが、メモリに記憶され、患者の管腔網をモデル化し、前記器具の遠位端が、前記モデルの第1のセグメント内に位置し、前記第1のセグメントが、2つ又は3つ以上の子セグメントに分岐している、判定することと、
前記子セグメントのうちの第1の子セグメントの配向を判定することと、
前記器具の前記配向及び前記第1の子セグメントの前記配向に基づいて、前記器具が前記第1の子セグメント内に前進するという予測を判定することと、を含む、方法。
(52) 前記予測は、前記器具が前記第1の子セグメント内に前進する確率を示すデータを含む、実施態様51に記載の方法。
(53) 前記器具の前記配向と前記第1の子セグメントの前記配向との間の差を示すデータを判定することを更に含み、
前記器具が前記第1の子セグメント内に前進するという前記予測が、前記器具の前記配向と前記第1の子セグメントの前記配向との間の前記差を示す前記データに更に基づく、実施態様51に記載の方法。
(54) 前記子セグメントのうちの第2の子セグメントの配向を判定することと、
前記器具の前記配向及び前記第2の子セグメントの前記配向に基づいて、前記器具が前記第2の子セグメント内に前進するという予測を判定することと、を更に含む、実施態様51に記載の方法。
(55) 前記器具の前記配向と前記第1の子セグメントの前記配向との間の角度を判定することを更に含み、
前記器具が前記第1の子セグメント内に前進するという前記予測が、前記角度に更に基づく、実施態様51に記載の方法。
(56) 前記位置データが、前記モデルのモデル座標系に位置合わせされている、実施態様51に記載の方法。
(57) 前記位置データ、前記器具の移動を制御するために提供される一組のコマンド、及び前記器具が前記第1の子セグメント内に前進するという前記予測を分析することによって、前記モデルに対する前記器具の前記遠位端のポジションを判定することを更に含む、実施態様51に記載の方法。
(58) 前記位置データに基づいて、前記モデルに対する前記器具の前記遠位端の位置を判定することと、
前記器具の前記遠位端の前記位置に基づいて、前記器具が前記第1の子セグメント内に前進するという補助予測を判定することと、を更に含み、
前記モデルに対する前記器具の前記遠位端の前記ポジションを判定することが、前記補助予測を分析することに更に基づく、実施態様57に記載の方法。
(59) 前記器具の前記遠位端が前記第1のセグメントの始まりから前記第1のセグメントの終わりまで前進するときに、前記器具が前記第1の子セグメント内に前進するという前記予測を判定することを更に含む、実施態様51に記載の方法。
(60) 前記器具が、前記第1のセグメント内の前記器具の前記遠位端のポジションとは独立して、前記第1のセグメントから前記第1の子セグメント内に前進するという前記予測を判定することを更に含む、実施態様51に記載の方法。

Claims (15)

  1. システムであって、
    プロセッサと、
    前記プロセッサと通信し、かつ患者の管腔網のモデルを記憶した少なくとも1つのコンピュータ可読メモリと、を含み、前記モデルが、モデル座標系に関連付けられ、前記メモリは、前記メモリに記憶されたコンピュータ実行可能命令を更に有しており、
    前記コンピュータ実行可能命令が、前記プロセッサに、器具のための一組の1つ又は2つ以上の電磁(EM)位置センサによって生成された第1のEM位置データに基づいて、前記器具の第1の配向を判定すること、を行わせ、前記第1のEM位置データが、第1の時間におけるEM位置センサ座標系内の前記器具の位置を示し、
    前記コンピュータ実行可能命令が、前記プロセッサに、前記一組のEM位置センサによって生成された第2のEM位置データに基づいて、第2の時間における前記器具の第2の配向を判定すること、を行わせ、前記器具の遠位端が、前記第1の時間及び前記第2の時間において前記モデルの第1のセグメントに対応する前記管腔網の一部内に位置し、前記第1のセグメントが、2つ又は3つ以上の子セグメントに分岐しており、前記第1のEM位置データ及び前記第2のEM位置データが、前記モデル座標系に位置合わせされていないものであり、
    前記コンピュータ実行可能命令が、前記プロセッサに、前記第1の配向と前記第2の配向との間の差を示すデータを判定すること、を行わせ、
    前記コンピュータ実行可能命令が、前記プロセッサに、前記差を示す前記データに基づいて、前記器具が、前記第2の時間における前記第1のセグメント内の前記器具の位置から、前記子セグメントのうちの第1の子セグメント内に前進するという予測を判定すること、を行わせ、前記第1のEM位置データ及び前記第2のEM位置データは、前記予測が判定されるまで、前記モデル座標系に位置合わせされていないままであるシステム。
  2. 前記予測は、前記器具が前記第1の子セグメント内に前進する確率を示すデータを含む、請求項1に記載のシステム。
  3. 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
    前記差を示す前記データに基づいて、前記器具が前記子セグメントのうちの第2の子セグメント内に前進するという予測を判定することを行わせる、請求項1に記載のシステム。
  4. 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
    前記一組のEM位置センサによって生成された第3のEM位置データに基づいて、第3の時間における前記器具の第3の配向を判定することと、
    前記第3の配向と前記第1の配向との間の角度を判定することと、
    前記角度を閾値角度と比較することと、
    前記角度が前記閾値角度よりも大きいことに応じて、前記器具が前記第1の子セグメント内に前進するという前記予測を更新することと、を行わせる、請求項1に記載のシステム。
  5. 前記一組のEM位置センサが、EM場内の前記EM位置センサの配向を示すデータを生成するように構成され、
    前記EM場が、EM場発生器によって生成され、
    前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、前記EM位置センサによって生成された前記データに基づいて、前記第1の配向と前記第2の配向との間のヨー角を判定することを行わせる、請求項1に記載のシステム。
  6. 前記EM場に基づいて判定された前記器具のヨー軸が、前記子セグメントのうちの前記第1の子セグメントと第2の子セグメントとの間の配向の差と実質的に整合する、請求項5に記載のシステム。
  7. 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
    前記第1のEM位置データ及び前記第2のEM位置データ、前記器具の移動を制御するために提供される一組のコマンド、及び前記器具が前記第1の子セグメント内に前進するという前記予測を分析することによって、前記モデルに対する前記器具の前記遠位端のポジションを判定することを行わせる、請求項1に記載のシステム。
  8. 前記メモリが、前記メモリに記憶された、
    前記モデル内の標的への標的経路と、
    対側位置合わせ経路であって、前記標的経路の外側で前記管腔網の第1の分岐に沿って前記器具を駆動することと、前記標的経路に前記器具を戻すことと、前記標的経路の一部である第2の分岐に沿って前記器具を駆動することと、を含む、対側位置合わせ経路と、
    コンピュータ実行可能命令であって、前記コンピュータ実行可能命令が、前記プロセッサに、前記器具が前記第1の子セグメント内に前進するという前記予測に基づいて、前記器具が前記対側位置合わせ経路に沿って配置されているかどうかを判定させる、コンピュータ実行可能命令と、を更に有する、請求項1に記載のシステム。
  9. 前記メモリが、前記メモリに記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令が、前記プロセッサに、
    前記対側位置合わせ経路に沿って前進される前に、前記器具が前記標的経路に沿って前進させられたと判定することと、
    前記対側位置合わせ経路に沿って前進される前に、前記器具が前記標的経路に沿って前進させられたと判定したことに応じて、対側位置合わせが失敗したという表示を提供することと、を行わせる、請求項8に記載のシステム。
  10. 非一時的コンピュータ可読記憶媒体であって、前記非一時的コンピュータ可読記憶媒体は、前記非一時的コンピュータ可読記憶媒体に記憶された命令を有し、
    前記命令は、実行されたときに、少なくとも1つのコンピューティングデバイスに、器具のための一組の1つ又は2つ以上の電磁(EM)位置センサによって生成された第1のEM位置データに基づいて、前記器具の第1の配向を判定すること、を行わせ、前記第1のEM位置データが第1の時間におけるEM位置センサ座標系内の前記器具の位置を示し、
    前記命令は、実行されたときに、少なくとも1つのコンピューティングデバイスに、前記一組のEM位置センサによって生成された第2のEM位置データに基づいて、第2の時間における前記器具の第2の配向を判定すること、を行わせ、前記器具の遠位端が、前記第1の時間及び前記第2の時間においてモデルの第1のセグメントに対応する管腔網の一部内に位置し、前記第1のセグメントが、2つ又は3つ以上の子セグメントに分岐し、前記モデルが、メモリに記憶され、患者の管腔網をモデル化し、前記モデルが、モデル座標系に関連付けられ、前記第1のEM位置データ及び前記第2のEM位置データが、前記モデル座標系に位置合わせされていないものであり、
    前記命令は、実行されたときに、少なくとも1つのコンピューティングデバイスに、前記第1の配向と前記第2の配向との間の差を示すデータを判定すること、を行わせ、
    前記命令は、実行されたときに、前記差を示す前記データに基づいて、前記器具が、前記第2の時間における前記第1のセグメント内の前記器具の位置から、前記子セグメントのうちの第1の子セグメント内に前進するという予測を判定すること、を行わせ、前記第1のEM位置データ及び前記第2のEM位置データは、前記予測が判定されるまで、前記モデル座標系に位置合わせされていないままである非一時的コンピュータ可読記憶媒体。
  11. 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、前記少なくとも1つのコンピューティングデバイスに、
    前記差を示す前記データに基づいて、前記器具が前記子セグメントのうちの第2の子セグメント内に前進するという予測を判定することを行わせる、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  12. 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、前記少なくとも1つのコンピューティングデバイスに、
    前記一組のEM位置センサによって生成された第3のEM位置データに基づいて、第3の時間における前記器具の第3の配向を判定することと、
    前記第3の配向と前記第1の配向との間の角度を判定することと、
    前記角度を閾値角度と比較することと、
    前記角度が前記閾値角度よりも大きいことに応じて、前記器具が前記第1の子セグメント内に前進するという前記予測を更新することと、を行わせる、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  13. 前記一組のEM位置センサが、EM場内の前記EM位置センサの配向を示すデータを生成するように構成され、
    前記EM場が、EM場発生器によって生成され、
    前記非一時的コンピュータ可読記憶媒体が、前記非一時的コンピュータ可読記憶媒体に記憶されたコンピュータ実行可能命令を更に有し、前記コンピュータ実行可能命令は、実行されたときに、前記少なくとも1つのコンピューティングデバイスに、前記EM位置センサによって生成された前記データに基づいて、前記第1の配向と前記第2の配向との間のヨー角を判定することを行わせる、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  14. 前記メモリが、前記メモリに記憶された、
    前記モデル内の標的への標的経路と、
    対側位置合わせ経路であって、前記標的経路の外側で前記管腔網の第1の分岐に沿って前記器具を駆動することと、前記標的経路に前記器具を戻すことと、前記標的経路の一部である第2の分岐に沿って前記器具を駆動することと、を含む、対側位置合わせ経路と、を更に有し、
    前記非一時的コンピュータ可読記憶媒体が、前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、前記少なくとも1つのコンピューティングデバイスに、前記器具が前記第1の子セグメント内に前進するという前記予測に基づいて、前記器具が前記対側位置合わせ経路に沿って配置されているかどうかを判定させる、請求項10に記載の非一時的コンピュータ可読記憶媒体。
  15. 前記非一時的コンピュータ可読記憶媒体に記憶された命令を更に有し、前記命令は、実行されたときに、前記少なくとも1つのコンピューティングデバイスに、
    前記対側位置合わせ経路に沿って前進される前に、前記器具が前記標的経路に沿って前進させられたと判定することと、
    前記対側位置合わせ経路に沿って前進される前に、前記器具が前記標的経路に沿って前進させられたと判定したことに応じて、対側位置合わせが失敗したという表示を提供することと、を行わせる、請求項14に記載の非一時的コンピュータ可読記憶媒体。
JP2020566601A 2018-05-30 2019-05-28 位置センサベースの分岐予測のためのシステム及び方法 Active JP7250824B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862678160P 2018-05-30 2018-05-30
US62/678,160 2018-05-30
US201862678962P 2018-05-31 2018-05-31
US62/678,962 2018-05-31
PCT/US2019/034145 WO2019231895A1 (en) 2018-05-30 2019-05-28 Systems and methods for location sensor-based branch prediction

Publications (3)

Publication Number Publication Date
JP2021525572A JP2021525572A (ja) 2021-09-27
JPWO2019231895A5 JPWO2019231895A5 (ja) 2022-08-16
JP7250824B2 true JP7250824B2 (ja) 2023-04-03

Family

ID=68694866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020566601A Active JP7250824B2 (ja) 2018-05-30 2019-05-28 位置センサベースの分岐予測のためのシステム及び方法

Country Status (7)

Country Link
US (3) US10905499B2 (ja)
EP (1) EP3801190A4 (ja)
JP (1) JP7250824B2 (ja)
KR (1) KR102499906B1 (ja)
CN (1) CN110831486B (ja)
MX (1) MX2020012902A (ja)
WO (1) WO2019231895A1 (ja)

Families Citing this family (182)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8414505B1 (en) 2001-02-15 2013-04-09 Hansen Medical, Inc. Catheter driver system
WO2005087128A1 (en) 2004-03-05 2005-09-22 Hansen Medical, Inc. Robotic catheter system
US9232959B2 (en) 2007-01-02 2016-01-12 Aquabeam, Llc Multi fluid tissue resection methods and devices
EP2259742B1 (en) 2008-03-06 2020-01-01 AquaBeam LLC Tissue ablation and cautery with optical energy carried in fluid stream
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
WO2013130895A1 (en) 2012-02-29 2013-09-06 Aquabeam, Llc Automated image-guided tissue resection and treatment
US9254123B2 (en) 2009-04-29 2016-02-09 Hansen Medical, Inc. Flexible and steerable elongate instruments with shape control and support elements
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US9314306B2 (en) 2010-09-17 2016-04-19 Hansen Medical, Inc. Systems and methods for manipulating an elongate member
US9138166B2 (en) 2011-07-29 2015-09-22 Hansen Medical, Inc. Apparatus and methods for fiber integration and registration
US20130317519A1 (en) 2012-05-25 2013-11-28 Hansen Medical, Inc. Low friction instrument driver interface for robotic systems
US20140148673A1 (en) 2012-11-28 2014-05-29 Hansen Medical, Inc. Method of anchoring pullwire directly articulatable region in catheter
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9326822B2 (en) 2013-03-14 2016-05-03 Hansen Medical, Inc. Active drives for robotic catheter manipulators
US11213363B2 (en) 2013-03-14 2022-01-04 Auris Health, Inc. Catheter tension sensing
US9173713B2 (en) 2013-03-14 2015-11-03 Hansen Medical, Inc. Torque-based catheter articulation
US20140277334A1 (en) 2013-03-14 2014-09-18 Hansen Medical, Inc. Active drives for robotic catheter manipulators
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US9452018B2 (en) 2013-03-15 2016-09-27 Hansen Medical, Inc. Rotational support for an elongate member
US20140276936A1 (en) 2013-03-15 2014-09-18 Hansen Medical, Inc. Active drive mechanism for simultaneous rotation and translation
US20140276647A1 (en) 2013-03-15 2014-09-18 Hansen Medical, Inc. Vascular remote catheter manipulator
US9408669B2 (en) 2013-03-15 2016-08-09 Hansen Medical, Inc. Active drive mechanism with finite range of motion
US9283046B2 (en) 2013-03-15 2016-03-15 Hansen Medical, Inc. User interface for active drive apparatus with finite range of motion
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US10849702B2 (en) 2013-03-15 2020-12-01 Auris Health, Inc. User input devices for controlling manipulation of guidewires and catheters
US10376672B2 (en) 2013-03-15 2019-08-13 Auris Health, Inc. Catheter insertion system and method of fabrication
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
US10744035B2 (en) 2013-06-11 2020-08-18 Auris Health, Inc. Methods for robotic assisted cataract surgery
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
EP3243476B1 (en) 2014-03-24 2019-11-06 Auris Health, Inc. Systems and devices for catheter driving instinctiveness
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
US10569052B2 (en) 2014-05-15 2020-02-25 Auris Health, Inc. Anti-buckling mechanisms for catheters
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
CN107427327A (zh) 2014-09-30 2017-12-01 奥瑞斯外科手术机器人公司 具有虚拟轨迹和柔性内窥镜的可配置机器人外科手术系统
US10499999B2 (en) 2014-10-09 2019-12-10 Auris Health, Inc. Systems and methods for aligning an elongate member with an access site
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
US9974525B2 (en) 2014-10-31 2018-05-22 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US11819636B2 (en) 2015-03-30 2023-11-21 Auris Health, Inc. Endoscope pull wire electrical circuit
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
WO2016164824A1 (en) 2015-04-09 2016-10-13 Auris Surgical Robotics, Inc. Surgical system with configurable rail-mounted mechanical arms
US9622827B2 (en) 2015-05-15 2017-04-18 Auris Surgical Robotics, Inc. Surgical robotics system
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
CN108348133B (zh) 2015-09-09 2020-11-13 奥瑞斯健康公司 用于手术机器人系统的器械装置操纵器
AU2016323982A1 (en) 2015-09-18 2018-04-12 Auris Health, Inc. Navigation of tubular networks
US10231793B2 (en) 2015-10-30 2019-03-19 Auris Health, Inc. Object removal through a percutaneous suction tube
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US10932861B2 (en) 2016-01-14 2021-03-02 Auris Health, Inc. Electromagnetic tracking surgical system and method of controlling the same
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US11324554B2 (en) 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
US10454347B2 (en) 2016-04-29 2019-10-22 Auris Health, Inc. Compact height torque sensing articulation axis assembly
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
US10463439B2 (en) 2016-08-26 2019-11-05 Auris Health, Inc. Steerable catheter with shaft load distributions
US11241559B2 (en) 2016-08-29 2022-02-08 Auris Health, Inc. Active drive for guidewire manipulation
EP3506836A4 (en) 2016-08-31 2020-04-29 Auris Health, Inc. EXTENSION FOR SURGICAL INSTRUMENT
US9931025B1 (en) * 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US10136959B2 (en) 2016-12-28 2018-11-27 Auris Health, Inc. Endolumenal object sizing
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
AU2018244318B2 (en) 2017-03-28 2023-11-16 Auris Health, Inc. Shaft actuating handle
US11490782B2 (en) 2017-03-31 2022-11-08 Auris Health, Inc. Robotic systems for navigation of luminal networks that compensate for physiological noise
WO2018187069A1 (en) 2017-04-07 2018-10-11 Auris Surgical Robotics, Inc. Patient introducer alignment
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
JP2020520691A (ja) 2017-05-12 2020-07-16 オーリス ヘルス インコーポレイテッド 生検装置およびシステム
KR102576296B1 (ko) 2017-05-17 2023-09-08 아우리스 헬스, 인코포레이티드 교환 가능한 작업 채널
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
CN116725667A (zh) 2017-06-28 2023-09-12 奥瑞斯健康公司 提供定位信息的系统和在解剖结构内定位器械的方法
EP3645100A4 (en) 2017-06-28 2021-03-17 Auris Health, Inc. INSTRUMENT INSERTION COMPENSATION
WO2019005696A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. DETECTION OF ELECTROMAGNETIC DISTORTION
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
US10464209B2 (en) 2017-10-05 2019-11-05 Auris Health, Inc. Robotic system with indication of boundary for robotic arm
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
CN111163697B (zh) 2017-10-10 2023-10-03 柯惠有限合伙公司 用于在荧光三维重构中识别和标记目标的系统和方法
US10016900B1 (en) 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
WO2019113249A1 (en) 2017-12-06 2019-06-13 Auris Health, Inc. Systems and methods to correct for uncommanded instrument roll
EP3684438A4 (en) 2017-12-08 2021-09-22 Auris Health, Inc. DIRECTED FLUIDS
WO2019113391A1 (en) 2017-12-08 2019-06-13 Auris Health, Inc. System and method for medical instrument navigation and targeting
US10470830B2 (en) 2017-12-11 2019-11-12 Auris Health, Inc. Systems and methods for instrument based insertion architectures
CN110869173B (zh) 2017-12-14 2023-11-17 奥瑞斯健康公司 用于估计器械定位的系统与方法
JP7059377B2 (ja) 2017-12-18 2022-04-25 オーリス ヘルス インコーポレイテッド 管腔ネットワーク内の器具の追跡およびナビゲーションの方法およびシステム
USD924410S1 (en) 2018-01-17 2021-07-06 Auris Health, Inc. Instrument tower
USD932628S1 (en) 2018-01-17 2021-10-05 Auris Health, Inc. Instrument cart
USD873878S1 (en) 2018-01-17 2020-01-28 Auris Health, Inc. Robotic arm
CN111867511A (zh) 2018-01-17 2020-10-30 奥瑞斯健康公司 具有改进的机器人臂的外科机器人系统
EP3740152A4 (en) 2018-01-17 2021-11-03 Auris Health, Inc. SURGICAL PLATFORM WITH ADJUSTABLE ARMRESTS
USD901694S1 (en) 2018-01-17 2020-11-10 Auris Health, Inc. Instrument handle
USD901018S1 (en) 2018-01-17 2020-11-03 Auris Health, Inc. Controller
US11364004B2 (en) 2018-02-08 2022-06-21 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US10765303B2 (en) 2018-02-13 2020-09-08 Auris Health, Inc. System and method for driving medical instrument
MX2020010112A (es) 2018-03-28 2020-11-06 Auris Health Inc Sistemas y metodos para el registro de sensores de ubicacion.
JP7305668B2 (ja) 2018-03-28 2023-07-10 オーリス ヘルス インコーポレイテッド 可変曲げ剛性プロファイルを有する医療用器具
JP7225259B2 (ja) 2018-03-28 2023-02-20 オーリス ヘルス インコーポレイテッド 器具の推定位置を示すためのシステム及び方法
KR20210010871A (ko) 2018-05-18 2021-01-28 아우리스 헬스, 인코포레이티드 로봇식 원격작동 시스템을 위한 제어기
WO2019231895A1 (en) 2018-05-30 2019-12-05 Auris Health, Inc. Systems and methods for location sensor-based branch prediction
US10898275B2 (en) 2018-05-31 2021-01-26 Auris Health, Inc. Image-based airway analysis and mapping
EP3801189A4 (en) 2018-05-31 2022-02-23 Auris Health, Inc. PATH-BASED NAVIGATION OF TUBULAR NETWORKS
EP3801280A4 (en) 2018-05-31 2022-03-09 Auris Health, Inc. ROBOTIC SYSTEMS AND LUMINAL NETWORK NAVIGATION METHODS THAT DETECT PHYSIOLOGICAL NOISE
KR102579505B1 (ko) 2018-06-07 2023-09-20 아우리스 헬스, 인코포레이티드 고출력 기구를 가진 로봇 의료 시스템
CN112384121A (zh) 2018-06-27 2021-02-19 奥瑞斯健康公司 用于医疗器械的对准系统和附接系统
JP7391886B2 (ja) 2018-06-28 2023-12-05 オーリス ヘルス インコーポレイテッド 滑車共有を組み込んだ医療システム
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
CN112804946A (zh) 2018-08-07 2021-05-14 奥瑞斯健康公司 将基于应变的形状感测与导管控制相结合
EP3806772A4 (en) 2018-08-15 2022-03-30 Auris Health, Inc. MEDICAL INSTRUMENTS FOR TISSUE CAUTERIZATION
US10639114B2 (en) 2018-08-17 2020-05-05 Auris Health, Inc. Bipolar medical instrument
AU2019326548B2 (en) 2018-08-24 2023-11-23 Auris Health, Inc. Manually and robotically controllable medical instruments
WO2020060750A1 (en) 2018-09-17 2020-03-26 Auris Health, Inc. Systems and methods for concomitant medical procedures
WO2020068303A1 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Systems and instruments for suction and irrigation
WO2020068853A2 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Articulating medical instruments
KR20210073542A (ko) 2018-09-28 2021-06-18 아우리스 헬스, 인코포레이티드 의료 기구를 도킹시키기 위한 시스템 및 방법
US10820947B2 (en) 2018-09-28 2020-11-03 Auris Health, Inc. Devices, systems, and methods for manually and robotically driving medical instruments
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
WO2020076447A1 (en) 2018-10-08 2020-04-16 Auris Health, Inc. Systems and instruments for tissue sealing
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11950863B2 (en) 2018-12-20 2024-04-09 Auris Health, Inc Shielding for wristed instruments
US11254009B2 (en) 2018-12-20 2022-02-22 Auris Health, Inc. Systems and methods for robotic arm alignment and docking
JP7480152B2 (ja) 2018-12-28 2024-05-09 オーリス ヘルス インコーポレイテッド ロボット医療用システム及び方法のための経皮的シース
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
CN113347938A (zh) 2019-01-25 2021-09-03 奥瑞斯健康公司 具有加热和冷却能力的血管密封器
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
US11857277B2 (en) 2019-02-08 2024-01-02 Auris Health, Inc. Robotically controlled clot manipulation and removal
WO2020172394A1 (en) 2019-02-22 2020-08-27 Auris Health, Inc. Surgical platform with motorized arms for adjustable arm supports
KR20210137508A (ko) 2019-03-08 2021-11-17 아우리스 헬스, 인코포레이티드 의료 시스템 및 응용을 위한 틸트 메커니즘
US11638618B2 (en) 2019-03-22 2023-05-02 Auris Health, Inc. Systems and methods for aligning inputs on medical instruments
WO2020197625A1 (en) 2019-03-25 2020-10-01 Auris Health, Inc. Systems and methods for medical stapling
US11617627B2 (en) 2019-03-29 2023-04-04 Auris Health, Inc. Systems and methods for optical strain sensing in medical instruments
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
KR20210149805A (ko) 2019-04-08 2021-12-09 아우리스 헬스, 인코포레이티드 동시 절차를 위한 시스템, 방법, 및 작업흐름
US11856899B2 (en) 2019-06-20 2024-01-02 Reinke Manufacturing Co., Inc. Monitoring and control of a movable tower in an irrigation system
WO2020263629A1 (en) 2019-06-27 2020-12-30 Auris Health, Inc. Systems and methods for a medical clip applier
EP3989863A4 (en) 2019-06-28 2023-10-11 Auris Health, Inc. MEDICAL INSTRUMENTS WITH WRISTS WITH HYBRID DIVERSION SURFACES
US11872007B2 (en) 2019-06-28 2024-01-16 Auris Health, Inc. Console overlay and methods of using same
US11896330B2 (en) 2019-08-15 2024-02-13 Auris Health, Inc. Robotic medical system having multiple medical instruments
EP4013285A4 (en) 2019-08-15 2023-11-22 Auris Health, Inc. MEDICAL DEVICE COMPRISING SEVERAL FLEXIBLE SECTIONS
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
CN114340540B (zh) 2019-08-30 2023-07-04 奥瑞斯健康公司 器械图像可靠性系统和方法
EP4021331A4 (en) 2019-08-30 2023-08-30 Auris Health, Inc. SYSTEMS AND METHODS FOR WEIGHT-BASED REGISTRATION OF POSITION SENSORS
CN114641252B (zh) 2019-09-03 2023-09-01 奥瑞斯健康公司 电磁畸变检测和补偿
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
EP4028221A1 (en) 2019-09-10 2022-07-20 Auris Health, Inc. Systems and methods for kinematic optimization with shared robotic degrees-of-freedom
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
CN114502094A (zh) 2019-09-26 2022-05-13 奥瑞斯健康公司 用于碰撞检测和避免的系统和方法
US11737845B2 (en) 2019-09-30 2023-08-29 Auris Inc. Medical instrument with a capstan
US11737835B2 (en) 2019-10-29 2023-08-29 Auris Health, Inc. Braid-reinforced insulation sheath
WO2021137108A1 (en) 2019-12-31 2021-07-08 Auris Health, Inc. Alignment interfaces for percutaneous access
WO2021137104A1 (en) 2019-12-31 2021-07-08 Auris Health, Inc. Dynamic pulley system
EP4084721A4 (en) 2019-12-31 2024-01-03 Auris Health Inc IDENTIFICATION OF AN ANATOMIC FEATURE AND AIMING
JP2023508718A (ja) 2019-12-31 2023-03-03 オーリス ヘルス インコーポレイテッド 高度バスケット駆動モード
EP4084720A4 (en) 2019-12-31 2024-01-17 Auris Health Inc ALIGNMENT TECHNIQUES FOR PERCUTANE ACCESS
US11847730B2 (en) 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
US20210393344A1 (en) * 2020-06-22 2021-12-23 Auris Health, Inc. Control scheme calibration for medical instruments
EP4171427A1 (en) 2020-06-29 2023-05-03 Auris Health, Inc. Systems and methods for detecting contact between a link and an external object
WO2022003493A1 (en) 2020-06-30 2022-01-06 Auris Health, Inc. Robotic medical system with collision proximity indicators
US11357586B2 (en) 2020-06-30 2022-06-14 Auris Health, Inc. Systems and methods for saturated robotic movement
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
CN113055598B (zh) * 2021-03-25 2022-08-05 浙江商汤科技开发有限公司 朝向数据补偿方法、装置、电子设备、可读存储介质
WO2023154713A1 (en) * 2022-02-11 2023-08-17 Canon U.S.A., Inc. Collision warning for medical device
WO2023192129A1 (en) * 2022-03-29 2023-10-05 Noah Medical Corporation Systems and methods for responsive insertion and retraction of robotic endoscope

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017049163A1 (en) 2015-09-18 2017-03-23 Auris Surgical Robotics, Inc. Navigation of tubular networks

Family Cites Families (359)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4745908A (en) 1987-05-08 1988-05-24 Circon Corporation Inspection instrument fexible shaft having deflection compensation means
JP2750201B2 (ja) 1990-04-13 1998-05-13 オリンパス光学工業株式会社 内視鏡の挿入状態検出装置
US5550953A (en) 1994-04-20 1996-08-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration On-line method and apparatus for coordinated mobility and manipulation of mobile robots
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5526812A (en) 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US6059718A (en) 1993-10-18 2000-05-09 Olympus Optical Co., Ltd. Endoscope form detecting apparatus in which coil is fixedly mounted by insulating member so that form is not deformed within endoscope
AU3950595A (en) 1994-10-07 1996-05-06 St. Louis University Surgical navigation systems including reference and localization frames
US6690963B2 (en) * 1995-01-24 2004-02-10 Biosense, Inc. System for determining the location and orientation of an invasive medical instrument
US6246898B1 (en) 1995-03-28 2001-06-12 Sonometrics Corporation Method for carrying out a medical procedure using a three-dimensional tracking and imaging system
CA2231425A1 (en) 1995-09-20 1997-03-27 Texas Heart Institute Detecting thermal discrepancies in vessel walls
US6203493B1 (en) 1996-02-15 2001-03-20 Biosense, Inc. Attachment with one or more sensors for precise position determination of endoscopes
WO1997029709A1 (en) 1996-02-15 1997-08-21 Biosense, Inc. Medical procedures and apparatus using intrabody probes
US6063095A (en) 1996-02-20 2000-05-16 Computer Motion, Inc. Method and apparatus for performing minimally invasive surgical procedures
US6047080A (en) 1996-06-19 2000-04-04 Arch Development Corporation Method and apparatus for three-dimensional reconstruction of coronary vessels from angiographic images
US5831614A (en) 1996-07-01 1998-11-03 Sun Microsystems, Inc. X-Y viewport scroll using location of display with respect to a point
JP2000509626A (ja) 1997-01-24 2000-08-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像表示システム
US6246784B1 (en) 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6810281B2 (en) 2000-12-21 2004-10-26 Endovia Medical, Inc. Medical mapping system
FR2779339B1 (fr) 1998-06-09 2000-10-13 Integrated Surgical Systems Sa Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application
US6425865B1 (en) 1998-06-12 2002-07-30 The University Of British Columbia Robotically assisted medical ultrasound
WO2000028882A2 (en) 1998-11-18 2000-05-25 Microdexterity Systems, Inc. Medical manipulator for use with an imaging device
US6493608B1 (en) 1999-04-07 2002-12-10 Intuitive Surgical, Inc. Aspects of a control system of a minimally invasive surgical apparatus
US6501981B1 (en) 1999-03-16 2002-12-31 Accuray, Inc. Apparatus and method for compensating for respiratory and patient motions during treatment
US6594552B1 (en) 1999-04-07 2003-07-15 Intuitive Surgical, Inc. Grip strength with tactile feedback for robotic surgery
US7386339B2 (en) 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
FI114282B (fi) 1999-11-05 2004-09-30 Polar Electro Oy Menetelmä, järjestely ja sykemittari sydämen lyönnin tunnistamiseksi
US7747312B2 (en) 2000-01-04 2010-06-29 George Mason Intellectual Properties, Inc. System and method for automatic shape registration and instrument tracking
DE10011790B4 (de) 2000-03-13 2005-07-14 Siemens Ag Medizinisches Instrument zum Einführen in ein Untersuchungsobjekt, sowie medizinisches Untersuchungs- oder Behandlungsgerät
US7181289B2 (en) 2000-03-20 2007-02-20 Pflueger D Russell Epidural nerve root access catheter and treatment methods
DE10025285A1 (de) 2000-05-22 2001-12-06 Siemens Ag Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe
DE10033723C1 (de) 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
US6865498B2 (en) 2001-11-30 2005-03-08 Thermwood Corporation System for calibrating the axes on a computer numeric controlled machining system and method thereof
US6812842B2 (en) 2001-12-20 2004-11-02 Calypso Medical Technologies, Inc. System for excitation of a leadless miniature marker
US8095200B2 (en) 2002-03-06 2012-01-10 Mako Surgical Corp. System and method for using a haptic device as an input device
DE10210646A1 (de) 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
US20050256398A1 (en) 2004-05-12 2005-11-17 Hastings Roger N Systems and methods for interventional medicine
EP3189781A1 (en) 2002-04-17 2017-07-12 Covidien LP Endoscope structures and techniques for navigating to a target in branched structure
US7998062B2 (en) 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
AU2003247338A1 (en) 2002-04-25 2003-11-10 The John Hopkins University Robot for computed tomography interventions
JP2005528157A (ja) 2002-06-04 2005-09-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 回転血管造影法に基づく冠状動脈構造のハイブリッド3d再構成
JP4439393B2 (ja) 2002-06-17 2010-03-24 メイザー サージカル テクノロジーズ リミテッド 整形外科的インサートと併用するロボット
WO2004000151A1 (en) 2002-06-25 2003-12-31 Michael Nicholas Dalton Apparatus and method for superimposing images over an object
KR100449765B1 (ko) 2002-10-12 2004-09-22 삼성에스디아이 주식회사 리튬전지용 리튬메탈 애노드
US6899672B2 (en) 2002-11-08 2005-05-31 Scimed Life Systems, Inc. Endoscopic imaging system including removable deflection device
JP4804005B2 (ja) 2002-11-13 2011-10-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 境界構造を検出するための医用ビューイングシステム及び方法
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US20040186349A1 (en) 2002-12-24 2004-09-23 Usgi Medical Corp. Apparatus and methods for achieving endoluminal access
FR2852226B1 (fr) 2003-03-10 2005-07-15 Univ Grenoble 1 Instrument medical localise a ecran orientable
US7203277B2 (en) 2003-04-25 2007-04-10 Brainlab Ag Visualization device and method for combined patient and object image data
US7822461B2 (en) 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
EP2316328B1 (en) 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
WO2005058137A2 (en) 2003-12-12 2005-06-30 University Of Washington Catheterscope 3d guidance and interface system
JP2005192632A (ja) 2003-12-26 2005-07-21 Olympus Corp 被検体内移動状態検出システム
US8021301B2 (en) 2003-12-26 2011-09-20 Fujifilm Corporation Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program
US20050193451A1 (en) 2003-12-30 2005-09-01 Liposonix, Inc. Articulating arm for medical procedures
US7974681B2 (en) 2004-03-05 2011-07-05 Hansen Medical, Inc. Robotic catheter system
WO2005087128A1 (en) 2004-03-05 2005-09-22 Hansen Medical, Inc. Robotic catheter system
US7811294B2 (en) * 2004-03-08 2010-10-12 Mediguide Ltd. Automatic guidewire maneuvering system and method
WO2005094665A2 (en) 2004-03-23 2005-10-13 Boston Scientific Limited In-vivo visualization system
WO2005092188A1 (ja) 2004-03-29 2005-10-06 Olympus Corporation 被検体内位置検出システム
US7720521B2 (en) 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
US20070208252A1 (en) 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
US7462175B2 (en) 2004-04-21 2008-12-09 Acclarent, Inc. Devices, systems and methods for treating disorders of the ear, nose and throat
US8155403B2 (en) 2004-05-05 2012-04-10 University Of Iowa Research Foundation Methods and devices for airway tree labeling and/or matching
US7632265B2 (en) 2004-05-28 2009-12-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Radio frequency ablation servo catheter and method
US20060209019A1 (en) 2004-06-01 2006-09-21 Energid Technologies Corporation Magnetic haptic feedback systems and methods for virtual reality environments
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060025668A1 (en) 2004-08-02 2006-02-02 Peterson Thomas H Operating table with embedded tracking technology
WO2007017847A1 (en) 2005-08-11 2007-02-15 Navotek Medical Ltd. Medical treatment system and method using radioactivity based position sensor
US7536216B2 (en) 2004-10-18 2009-05-19 Siemens Medical Solutions Usa, Inc. Method and system for virtual endoscopy with guidance for biopsy
US9049954B2 (en) 2004-11-03 2015-06-09 Cambridge International, Inc. Hanger bar assembly for architectural mesh and the like
CA2587857C (en) 2004-11-23 2017-10-10 Pneumrx, Inc. Steerable device for accessing a target site and methods
CA2588002A1 (en) 2005-01-18 2006-07-27 Traxtal Inc. Method and apparatus for guiding an instrument to a target in the lung
US8335357B2 (en) 2005-03-04 2012-12-18 Kabushiki Kaisha Toshiba Image processing apparatus
US20060258935A1 (en) 2005-05-12 2006-11-16 John Pile-Spellman System for autonomous robotic navigation
US10555775B2 (en) 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US7756563B2 (en) 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
US7889905B2 (en) 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
JP4813190B2 (ja) 2005-05-26 2011-11-09 オリンパスメディカルシステムズ株式会社 カプセル型医療装置
GB2428110A (en) 2005-07-06 2007-01-17 Armstrong Healthcare Ltd A robot and method of registering a robot.
US20070123748A1 (en) 2005-07-14 2007-05-31 Dwight Meglan Robot for minimally invasive interventions
US8583220B2 (en) 2005-08-02 2013-11-12 Biosense Webster, Inc. Standardization of catheter-based treatment for atrial fibrillation
US8657814B2 (en) 2005-08-22 2014-02-25 Medtronic Ablation Frontiers Llc User interface for tissue ablation system
EP1924197B1 (en) 2005-08-24 2017-10-11 Philips Electronics LTD System for navigated flexible endoscopy
US20070073136A1 (en) 2005-09-15 2007-03-29 Robert Metzger Bone milling with image guided surgery
US8303505B2 (en) 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US8190238B2 (en) 2005-12-09 2012-05-29 Hansen Medical, Inc. Robotic catheter system and methods
DE102005059271B4 (de) 2005-12-12 2019-02-21 Siemens Healthcare Gmbh Kathetervorrichtung
US8672922B2 (en) 2005-12-20 2014-03-18 Intuitive Surgical Operations, Inc. Wireless communication in a robotic surgical system
US9266239B2 (en) 2005-12-27 2016-02-23 Intuitive Surgical Operations, Inc. Constraint based control in a minimally invasive surgical apparatus
US7930065B2 (en) 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
US9962066B2 (en) 2005-12-30 2018-05-08 Intuitive Surgical Operations, Inc. Methods and apparatus to shape flexible entry guides for minimally invasive surgery
US9782229B2 (en) 2007-02-16 2017-10-10 Globus Medical, Inc. Surgical robot platform
US8191359B2 (en) 2006-04-13 2012-06-05 The Regents Of The University Of California Motion estimation using hidden markov model processing in MRI and other applications
WO2007129616A1 (ja) 2006-05-02 2007-11-15 National University Corporation Nagoya University 内視鏡挿入支援システム及び内視鏡挿入支援方法
DE102006021373A1 (de) 2006-05-08 2007-11-15 Siemens Ag Röntgendiagnostikeinrichtung
US8348861B2 (en) 2006-06-05 2013-01-08 Technion Research & Development Foundation Ltd. Controlled steering of a flexible needle
US20080071288A1 (en) 2006-06-13 2008-03-20 Intuitive Surgical, Inc. Minimally invasive surgery guide tube
US7505810B2 (en) 2006-06-13 2009-03-17 Rhythmia Medical, Inc. Non-contact cardiac mapping, including preprocessing
US8040127B2 (en) 2006-08-15 2011-10-18 General Electric Company Multi-sensor distortion mapping method and system
US8150498B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for identification of anatomical landmarks
US7824328B2 (en) 2006-09-18 2010-11-02 Stryker Corporation Method and apparatus for tracking a surgical instrument during surgery
CN100546540C (zh) 2006-09-19 2009-10-07 上海宏桐实业有限公司 心内膜三维导航系统
US7940977B2 (en) 2006-10-25 2011-05-10 Rcadia Medical Imaging Ltd. Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies
EP2086399B1 (en) 2006-11-10 2017-08-09 Covidien LP Adaptive navigation technique for navigating a catheter through a body channel or cavity
US7936922B2 (en) 2006-11-22 2011-05-03 Adobe Systems Incorporated Method and apparatus for segmenting images
EP2087469A2 (en) 2006-12-01 2009-08-12 Thomson Licensing Estimating a location of an object in an image
US9220439B2 (en) 2006-12-29 2015-12-29 St. Jude Medical, Atrial Fibrillation Division, Inc. Navigational reference dislodgement detection method and system
US20080183188A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Surgical Navigational and Neuromonitoring System
US20080183068A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Visualization of Surgical Navigational and Neural Monitoring Information
US20080183064A1 (en) 2007-01-30 2008-07-31 General Electric Company Multi-sensor distortion detection method and system
US8672836B2 (en) 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US20080218770A1 (en) 2007-02-02 2008-09-11 Hansen Medical, Inc. Robotic surgical instrument and methods using bragg fiber sensors
JP4914735B2 (ja) 2007-02-14 2012-04-11 オリンパスメディカルシステムズ株式会社 処置具の位置制御を行う内視鏡システム
EP2143038A4 (en) 2007-02-20 2011-01-26 Philip L Gildenberg VIDEOSTEREREOTAXY- AND AUDIOSTEREOTAXY-ASSISTED SURGICAL PROCEDURES AND METHODS
EP2358269B1 (en) 2007-03-08 2019-04-10 Sync-RX, Ltd. Image processing and tool actuation for medical procedures
EP2117436A4 (en) * 2007-03-12 2011-03-02 David Tolkowsky DEVICES AND METHODS FOR PERFORMING MEDICAL OPERATIONS IN ARBORESCENT LUMINUM STRUCTURES
WO2008135985A1 (en) 2007-05-02 2008-11-13 Earlysense Ltd Monitoring, predicting and treating clinical episodes
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
US20090030307A1 (en) 2007-06-04 2009-01-29 Assaf Govari Intracorporeal location system with movement compensation
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US20080319491A1 (en) 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
EP2626006B1 (en) 2007-08-14 2019-10-09 Koninklijke Philips N.V. Robotic instrument systems utilizing optical fiber sensors
US20130165945A9 (en) 2007-08-14 2013-06-27 Hansen Medical, Inc. Methods and devices for controlling a shapeable instrument
US20090076476A1 (en) 2007-08-15 2009-03-19 Hansen Medical, Inc. Systems and methods employing force sensing for mapping intra-body tissue
WO2009097461A1 (en) 2008-01-29 2009-08-06 Neoguide Systems Inc. Apparatus and methods for automatically controlling an endoscope
ES2511033T3 (es) 2008-02-12 2014-10-22 Covidien Lp Sistema de orientación de perspectiva controlada
KR100927096B1 (ko) 2008-02-27 2009-11-13 아주대학교산학협력단 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
US8219179B2 (en) 2008-03-06 2012-07-10 Vida Diagnostics, Inc. Systems and methods for navigation within a branched structure of a body
US8808164B2 (en) 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
US9002076B2 (en) 2008-04-15 2015-04-07 Medtronic, Inc. Method and apparatus for optimal trajectory planning
US8532734B2 (en) 2008-04-18 2013-09-10 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8218846B2 (en) 2008-05-15 2012-07-10 Superdimension, Ltd. Automatic pathway and waypoint generation and navigation method
JP5372407B2 (ja) 2008-05-23 2013-12-18 オリンパスメディカルシステムズ株式会社 医療機器
EP2153794B1 (en) 2008-08-15 2016-11-09 Stryker European Holdings I, LLC System for and method of visualizing an interior of a body
WO2010044852A2 (en) 2008-10-14 2010-04-22 University Of Florida Research Foundation, Inc. Imaging platform to provide integrated navigation capabilities for surgical guidance
SG194381A1 (en) 2008-10-31 2013-11-29 Chevron Phillips Chemical Co Oligomerization catalyst system and process for oligomerizing olefins
US20100121139A1 (en) 2008-11-12 2010-05-13 Ouyang Xiaolong Minimally Invasive Imaging Systems
US8317746B2 (en) 2008-11-20 2012-11-27 Hansen Medical, Inc. Automated alignment
WO2010068783A1 (en) 2008-12-12 2010-06-17 Corindus Inc. Remote catheter procedure system
US8335590B2 (en) 2008-12-23 2012-12-18 Intuitive Surgical Operations, Inc. System and method for adjusting an image capturing device attribute using an unused degree-of-freedom of a master control device
JP4585048B2 (ja) 2009-01-15 2010-11-24 オリンパスメディカルシステムズ株式会社 内視鏡システム
KR100961661B1 (ko) 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US8337397B2 (en) 2009-03-26 2012-12-25 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient
US9002427B2 (en) 2009-03-30 2015-04-07 Lifewave Biomedical, Inc. Apparatus and method for continuous noninvasive measurement of respiratory function and events
JP2012525190A (ja) 2009-04-29 2012-10-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 単眼の内視鏡画像からのリアルタイム深度推定
US8675736B2 (en) 2009-05-14 2014-03-18 Qualcomm Incorporated Motion vector processing
CN102292991B (zh) 2009-05-15 2014-10-08 夏普株式会社 图像处理装置和图像处理方法
US20100292565A1 (en) 2009-05-18 2010-11-18 Andreas Meyer Medical imaging medical device navigation from at least two 2d projections from different angles
EP2433262B1 (en) 2009-05-18 2016-07-27 Koninklijke Philips N.V. Marker-free tracking registration and calibration for em-tracked endoscopic system
ES2388029B1 (es) 2009-05-22 2013-08-13 Universitat Politècnica De Catalunya Sistema robótico para cirugia laparoscópica.
GB0915200D0 (en) 2009-09-01 2009-10-07 Ucl Business Plc Method for re-localising sites in images
US20110092808A1 (en) 2009-10-20 2011-04-21 Magnetecs, Inc. Method for acquiring high density mapping data with a catheter guidance system
CN102595998A (zh) 2009-11-04 2012-07-18 皇家飞利浦电子股份有限公司 利用距离传感器的碰撞避免和检测
US20110184238A1 (en) 2010-01-28 2011-07-28 The Penn State Research Foundation Image-based global registration system and method applicable to bronchoscopy guidance
EP2377457B1 (en) 2010-02-22 2016-07-27 Olympus Corporation Medical apparatus
DE102010012621A1 (de) 2010-03-24 2011-09-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur automatischen Adaption eines Referenzbildes
US8425455B2 (en) 2010-03-30 2013-04-23 Angiodynamics, Inc. Bronchial catheter and method of use
IT1401669B1 (it) 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
US8581905B2 (en) 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US20120101369A1 (en) 2010-06-13 2012-04-26 Angiometrix Corporation Methods and systems for determining vascular bodily lumen information and guiding medical devices
US8460236B2 (en) 2010-06-24 2013-06-11 Hansen Medical, Inc. Fiber optic instrument sensing system
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US20120071753A1 (en) 2010-08-20 2012-03-22 Mark Hunter Apparatus and method for four dimensional soft tissue navigation including endoscopic mapping
US9314306B2 (en) 2010-09-17 2016-04-19 Hansen Medical, Inc. Systems and methods for manipulating an elongate member
JP5669529B2 (ja) 2010-11-17 2015-02-12 オリンパス株式会社 撮像装置、プログラム及びフォーカス制御方法
US9066086B2 (en) 2010-12-08 2015-06-23 Industrial Technology Research Institute Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same
US8812079B2 (en) 2010-12-22 2014-08-19 Biosense Webster (Israel), Ltd. Compensation for magnetic disturbance due to fluoroscope
WO2012100211A2 (en) 2011-01-20 2012-07-26 Hansen Medical, Inc. System and method for endoluminal and transluminal therapy
WO2012109760A1 (en) 2011-02-18 2012-08-23 Traumis Surgical Systems Inc. Tool with integrated navigation and guidance system and related apparatus and methods
US10391277B2 (en) 2011-02-18 2019-08-27 Voxel Rad, Ltd. Systems and methods for 3D stereoscopic angiovision, angionavigation and angiotherapeutics
US10362963B2 (en) 2011-04-14 2019-07-30 St. Jude Medical, Atrial Fibrillation Division, Inc. Correction of shift and drift in impedance-based medical device navigation using magnetic field information
US9572481B2 (en) 2011-05-13 2017-02-21 Intuitive Surgical Operations, Inc. Medical system with multiple operating modes for steering a medical instrument through linked body passages
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
EP2723240B1 (en) 2011-06-27 2018-08-08 Koninklijke Philips N.V. Live 3d angiogram using registration of a surgical tool curve to an x-ray image
US9173683B2 (en) 2011-08-31 2015-11-03 DePuy Synthes Products, Inc. Revisable orthopedic anchor and methods of use
CN102973317A (zh) 2011-09-05 2013-03-20 周宁新 微创手术机器人机械臂布置结构
EP2753241B1 (en) 2011-09-08 2016-11-09 APN Health, LLC Automatically determining 3d catheter location and orientation using 2d fluoroscopy only
EP2755591B1 (en) 2011-09-16 2020-11-18 Auris Health, Inc. System for displaying an image of a patient anatomy on a movable display
US9504604B2 (en) 2011-12-16 2016-11-29 Auris Surgical Robotics, Inc. Lithotripsy eye treatment
US8700561B2 (en) 2011-12-27 2014-04-15 Mcafee, Inc. System and method for providing data protection workflows in a network environment
WO2013116140A1 (en) 2012-02-03 2013-08-08 Intuitive Surgical Operations, Inc. Steerable flexible needle with embedded shape sensing
WO2013118090A2 (en) 2012-02-09 2013-08-15 Koninklijke Philips N.V. Shaft tracker for real-time navigation tracking
WO2013126659A1 (en) 2012-02-22 2013-08-29 Veran Medical Technologies, Inc. Systems, methods, and devices for four dimensional soft tissue navigation
US10383765B2 (en) 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US20140142591A1 (en) 2012-04-24 2014-05-22 Auris Surgical Robotics, Inc. Method, apparatus and a system for robotic assisted surgery
US10039473B2 (en) 2012-05-14 2018-08-07 Intuitive Surgical Operations, Inc. Systems and methods for navigation based on ordered sensor records
US10194801B2 (en) 2012-06-28 2019-02-05 Koninklijke Philips N.V. Fiber optic sensor guided navigation for vascular visualization and monitoring
DE102012220116A1 (de) 2012-06-29 2014-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobil handhabbare Vorrichtung, insbesondere zur Bearbeitung oder Beobachtung eines Körpers, und Verfahren zur Handhabung, insbesondere Kalibrierung, einer Vorrichtung
KR102189666B1 (ko) 2012-08-15 2020-12-11 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 기계 몸체의 운동을 조종하기 위한 가상 자유도
US9183354B2 (en) 2012-08-15 2015-11-10 Musc Foundation For Research Development Systems and methods for image guided surgery
CN104736097B (zh) 2012-08-24 2017-12-22 休斯顿大学 用于成像导向和机器人辅助外科手术的机器人装置和系统
US20140107390A1 (en) 2012-10-12 2014-04-17 Elekta Ab (Publ) Implementation and experimental results of real-time 4d tumor tracking using multi-leaf collimator (mlc), and/or mlc-carriage (mlc-bank), and/or treatment table (couch)
US20140180063A1 (en) 2012-10-12 2014-06-26 Intuitive Surgical Operations, Inc. Determining position of medical device in branched anatomical structure
US9121455B2 (en) 2012-11-07 2015-09-01 Dana Automotive Systems Group, Llc Clutch management system
WO2014081725A2 (en) 2012-11-20 2014-05-30 University Of Washington Through Its Center For Commercialization Electromagnetic sensor integration with ultrathin scanning fiber endoscope
LU92104B1 (en) 2012-11-28 2014-05-30 Iee Sarl Method and system for determining a ventilatory threshold
JP6045417B2 (ja) 2012-12-20 2016-12-14 オリンパス株式会社 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
US10231867B2 (en) 2013-01-18 2019-03-19 Auris Health, Inc. Method, apparatus and system for a water jet
US11172809B2 (en) 2013-02-15 2021-11-16 Intuitive Surgical Operations, Inc. Vision probe with access port
KR20150124446A (ko) 2013-02-26 2015-11-05 아메트 시난 카박시 로봇 매니퓰레이터 시스템
US9459087B2 (en) 2013-03-05 2016-10-04 Ezono Ag Magnetic position detection system
EP2904957A4 (en) 2013-03-06 2016-08-24 Olympus Corp ENDOSCOPE SYSTEM
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US9867635B2 (en) 2013-03-08 2018-01-16 Auris Surgical Robotics, Inc. Method, apparatus and system for a water jet
US10080576B2 (en) 2013-03-08 2018-09-25 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US20140296655A1 (en) 2013-03-11 2014-10-02 ROPAMedics LLC Real-time tracking of cerebral hemodynamic response (rtchr) of a subject based on hemodynamic parameters
JP5718537B2 (ja) 2013-03-12 2015-05-13 オリンパスメディカルシステムズ株式会社 内視鏡システム
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US20170238807A9 (en) 2013-03-15 2017-08-24 LX Medical, Inc. Tissue imaging and image guidance in luminal anatomic structures and body cavities
US9301723B2 (en) 2013-03-15 2016-04-05 Covidien Lp Microwave energy-delivery device and system
EP2983579A2 (en) 2013-04-12 2016-02-17 NinePoint Medical, Inc. Multiple aperture, multiple modal optical systems and methods
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
US20140364739A1 (en) 2013-06-06 2014-12-11 General Electric Company Systems and methods for analyzing a vascular structure
US10744035B2 (en) 2013-06-11 2020-08-18 Auris Health, Inc. Methods for robotic assisted cataract surgery
JP6037964B2 (ja) 2013-07-26 2016-12-07 オリンパス株式会社 マニピュレータシステム
US10426661B2 (en) 2013-08-13 2019-10-01 Auris Health, Inc. Method and apparatus for laser assisted cataract surgery
CN105451802B (zh) 2013-08-15 2019-04-19 直观外科手术操作公司 用于导管定位和插入的图形用户界面
US10098565B2 (en) 2013-09-06 2018-10-16 Covidien Lp System and method for lung visualization using ultrasound
CN105592790A (zh) 2013-10-02 2016-05-18 皇家飞利浦有限公司 用于光学形状感测配准的集线器设计和方法
US9713509B2 (en) 2013-10-24 2017-07-25 Auris Surgical Robotics, Inc. Instrument device manipulator with back-mounted tool attachment mechanism
EP3689284A1 (en) 2013-10-24 2020-08-05 Auris Health, Inc. System for robotic-assisted endolumenal surgery and related methods
US9314191B2 (en) 2013-11-19 2016-04-19 Pacesetter, Inc. Method and system to measure cardiac motion using a cardiovascular navigation system
KR102337440B1 (ko) 2013-12-09 2021-12-10 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 장치-인지 가요성 도구 정합을 위한 시스템 및 방법
CN103735313B (zh) 2013-12-11 2016-08-17 中国科学院深圳先进技术研究院 一种手术机器人及其状态监测方法
EP3085324B1 (en) 2013-12-20 2019-02-20 Olympus Corporation Guide member for flexible manipulator, and flexible manipulator
EP4184483A1 (en) 2013-12-20 2023-05-24 Intuitive Surgical Operations, Inc. Simulator system for medical procedure training
EP3096692B1 (en) 2014-01-24 2023-06-14 Koninklijke Philips N.V. Virtual image with optical shape sensing device perspective
KR20210156301A (ko) 2014-02-04 2021-12-24 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 중재 도구의 가상 항행을 위한 조직의 비강체 변형을 위한 시스템 및 방법
SG11201606423VA (en) 2014-02-05 2016-09-29 Univ Singapore Systems and methods for tracking and displaying endoscope shape and distal end orientation
US20150223902A1 (en) 2014-02-07 2015-08-13 Hansen Medical, Inc. Navigation with 3d localization using 2d images
EP3104803B1 (en) 2014-02-11 2021-09-15 KB Medical SA Sterile handle for controlling a robotic surgical system from a sterile field
JP6270537B2 (ja) 2014-02-27 2018-01-31 オリンパス株式会社 医療用システム
KR20150103938A (ko) 2014-03-04 2015-09-14 현대자동차주식회사 리튬황 배터리 분리막
US10952751B2 (en) 2014-03-17 2021-03-23 Marksman Targeting, Inc. Surgical targeting systems and methods
CN104931059B (zh) 2014-03-21 2018-09-11 比亚迪股份有限公司 车载救援导航系统和方法
US10912523B2 (en) 2014-03-24 2021-02-09 Intuitive Surgical Operations, Inc. Systems and methods for anatomic motion compensation
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
US20150305650A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue
CN104055520B (zh) 2014-06-11 2016-02-24 清华大学 人体器官运动监测方法和手术导航系统
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
US20170007337A1 (en) 2014-07-01 2017-01-12 Auris Surgical Robotics, Inc. Driver-mounted torque sensing mechanism
US10159533B2 (en) 2014-07-01 2018-12-25 Auris Health, Inc. Surgical system with configurable rail-mounted mechanical arms
US9788910B2 (en) 2014-07-01 2017-10-17 Auris Surgical Robotics, Inc. Instrument-mounted tension sensing mechanism for robotically-driven medical instruments
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US20160270865A1 (en) 2014-07-01 2016-09-22 Auris Surgical Robotics, Inc. Reusable catheter with disposable balloon attachment and tapered tip
EP3164051B1 (en) 2014-07-02 2023-08-30 Covidien LP System and program for providing distance and orientation feedback while navigating in 3d
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US20160000414A1 (en) 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
CN107427327A (zh) 2014-09-30 2017-12-01 奥瑞斯外科手术机器人公司 具有虚拟轨迹和柔性内窥镜的可配置机器人外科手术系统
EP3206577A1 (en) 2014-10-15 2017-08-23 Vincent Suzara Magnetic field structures, field generators, navigation and imaging for untethered robotic device enabled medical procedure
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
DE102014222293A1 (de) 2014-10-31 2016-05-19 Siemens Aktiengesellschaft Verfahren zur automatischen Überwachung des Eindringverhaltens eines von einem Roboterarm gehaltenen Trokars und Überwachungssystem
CA3003405A1 (en) 2014-11-11 2016-05-19 Vanderbilt University Methods for limiting acute kidney injury
US20170325896A1 (en) 2014-11-13 2017-11-16 Intuitive Surgical Operations, Inc. Systems and methods for filtering localization data
US9931168B2 (en) 2015-01-12 2018-04-03 Biomet Manufacuturing. LLC Plan implementation
EP3258839B1 (en) 2015-02-20 2019-09-04 Teleflex Medical Devices S.à.r.l. Medical device position location systems, devices and methods
JP6348078B2 (ja) 2015-03-06 2018-06-27 富士フイルム株式会社 分岐構造判定装置、分岐構造判定装置の作動方法および分岐構造判定プログラム
JP6371729B2 (ja) 2015-03-25 2018-08-08 富士フイルム株式会社 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
US20160287279A1 (en) 2015-04-01 2016-10-06 Auris Surgical Robotics, Inc. Microsurgical tool for robotic applications
WO2016164824A1 (en) 2015-04-09 2016-10-13 Auris Surgical Robotics, Inc. Surgical system with configurable rail-mounted mechanical arms
US9622827B2 (en) 2015-05-15 2017-04-18 Auris Surgical Robotics, Inc. Surgical robotics system
WO2016199273A1 (ja) 2015-06-11 2016-12-15 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
US10347904B2 (en) 2015-06-19 2019-07-09 Solidenergy Systems, Llc Multi-layer polymer coated Li anode for high density Li metal battery
CN108024698B (zh) 2015-08-14 2020-09-15 直观外科手术操作公司 用于图像引导外科手术的配准系统和方法
US10736518B2 (en) 2015-08-31 2020-08-11 Masimo Corporation Systems and methods to monitor repositioning of a patient
CN108348133B (zh) 2015-09-09 2020-11-13 奥瑞斯健康公司 用于手术机器人系统的器械装置操纵器
EP3735888B1 (en) 2015-09-17 2022-11-23 EndoMaster Pte Ltd Improved flexible robotic endoscopy system
CN108135488B (zh) 2015-10-13 2021-11-26 光学实验室成像公司 确定侧支的剖面视角的血管内成像系统和方法
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US10231793B2 (en) 2015-10-30 2019-03-19 Auris Health, Inc. Object removal through a percutaneous suction tube
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
CN105511881A (zh) 2015-12-10 2016-04-20 中国航空工业集团公司西安航空计算技术研究所 一种通用机载交互数据的管理方法
CN105559850B (zh) 2015-12-17 2017-08-25 天津工业大学 一种用于机器人辅助外科具有力传感功能的手术钻器械
US10932861B2 (en) 2016-01-14 2021-03-02 Auris Health, Inc. Electromagnetic tracking surgical system and method of controlling the same
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US10470719B2 (en) 2016-02-01 2019-11-12 Verily Life Sciences Llc Machine learnt model to detect REM sleep periods using a spectral analysis of heart rate and motion
WO2017162820A1 (en) 2016-03-24 2017-09-28 Koninklijke Philips N.V. Treatment assessment device
JP7232051B2 (ja) 2016-03-31 2023-03-02 コーニンクレッカ フィリップス エヌ ヴェ カテーテル配置のための画像誘導ロボット
US11324554B2 (en) 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
US10470839B2 (en) 2016-06-02 2019-11-12 Covidien Lp Assessment of suture or staple line integrity and localization of potential tissue defects along the suture or staple line
US10806516B2 (en) 2016-06-20 2020-10-20 General Electric Company Virtual 4D stent implantation path assessment
KR102607065B1 (ko) 2016-06-30 2023-11-29 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 영상 안내식 시술 중에 복수의 모드에서 안내 정보를 디스플레이하기 위한 그래픽 사용자 인터페이스
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
US10238455B2 (en) 2016-08-31 2019-03-26 Covidien Lp Pathway planning for use with a navigation planning and procedure system
EP3506836A4 (en) 2016-08-31 2020-04-29 Auris Health, Inc. EXTENSION FOR SURGICAL INSTRUMENT
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
US10136959B2 (en) 2016-12-28 2018-11-27 Auris Health, Inc. Endolumenal object sizing
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US10543048B2 (en) 2016-12-28 2020-01-28 Auris Health, Inc. Flexible instrument insertion using an adaptive insertion force threshold
US11842030B2 (en) 2017-01-31 2023-12-12 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
AU2018244318B2 (en) 2017-03-28 2023-11-16 Auris Health, Inc. Shaft actuating handle
US10475235B2 (en) 2017-03-29 2019-11-12 Fujifilm Corporation Three-dimensional image processing apparatus, three-dimensional image processing method, and three-dimensional image processing program
US11490782B2 (en) 2017-03-31 2022-11-08 Auris Health, Inc. Robotic systems for navigation of luminal networks that compensate for physiological noise
WO2018187069A1 (en) 2017-04-07 2018-10-11 Auris Surgical Robotics, Inc. Patient introducer alignment
US10285574B2 (en) 2017-04-07 2019-05-14 Auris Health, Inc. Superelastic medical instrument
US20180308247A1 (en) 2017-04-25 2018-10-25 Best Medical International, Inc. Tissue imaging system and method for tissue imaging
JP2020520691A (ja) 2017-05-12 2020-07-16 オーリス ヘルス インコーポレイテッド 生検装置およびシステム
KR102576296B1 (ko) 2017-05-17 2023-09-08 아우리스 헬스, 인코포레이티드 교환 가능한 작업 채널
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
EP3645100A4 (en) 2017-06-28 2021-03-17 Auris Health, Inc. INSTRUMENT INSERTION COMPENSATION
WO2019005696A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. DETECTION OF ELECTROMAGNETIC DISTORTION
CN116725667A (zh) 2017-06-28 2023-09-12 奥瑞斯健康公司 提供定位信息的系统和在解剖结构内定位器械的方法
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
US10593052B2 (en) 2017-08-23 2020-03-17 Synaptive Medical (Barbados) Inc. Methods and systems for updating an existing landmark registration
US10464209B2 (en) 2017-10-05 2019-11-05 Auris Health, Inc. Robotic system with indication of boundary for robotic arm
US10016900B1 (en) 2017-10-10 2018-07-10 Auris Health, Inc. Surgical robotic arm admittance control
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
WO2019113249A1 (en) 2017-12-06 2019-06-13 Auris Health, Inc. Systems and methods to correct for uncommanded instrument roll
WO2019113391A1 (en) 2017-12-08 2019-06-13 Auris Health, Inc. System and method for medical instrument navigation and targeting
EP3684438A4 (en) 2017-12-08 2021-09-22 Auris Health, Inc. DIRECTED FLUIDS
US10470830B2 (en) 2017-12-11 2019-11-12 Auris Health, Inc. Systems and methods for instrument based insertion architectures
CN110869173B (zh) 2017-12-14 2023-11-17 奥瑞斯健康公司 用于估计器械定位的系统与方法
JP7059377B2 (ja) 2017-12-18 2022-04-25 オーリス ヘルス インコーポレイテッド 管腔ネットワーク内の器具の追跡およびナビゲーションの方法およびシステム
CN111867511A (zh) 2018-01-17 2020-10-30 奥瑞斯健康公司 具有改进的机器人臂的外科机器人系统
EP3740152A4 (en) 2018-01-17 2021-11-03 Auris Health, Inc. SURGICAL PLATFORM WITH ADJUSTABLE ARMRESTS
US10765303B2 (en) 2018-02-13 2020-09-08 Auris Health, Inc. System and method for driving medical instrument
EP3758641A4 (en) 2018-03-01 2021-12-15 Auris Health, Inc. PROCEDURES AND SYSTEMS FOR MAPPING AND NAVIGATION
JP2019154816A (ja) 2018-03-13 2019-09-19 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置、医療用観察装置、及び医療用観察装置の作動方法
JP7225259B2 (ja) 2018-03-28 2023-02-20 オーリス ヘルス インコーポレイテッド 器具の推定位置を示すためのシステム及び方法
JP7305668B2 (ja) 2018-03-28 2023-07-10 オーリス ヘルス インコーポレイテッド 可変曲げ剛性プロファイルを有する医療用器具
MX2020010112A (es) 2018-03-28 2020-11-06 Auris Health Inc Sistemas y metodos para el registro de sensores de ubicacion.
US20190298465A1 (en) 2018-03-29 2019-10-03 Auris Health, Inc. Robotically-enabled medical systems with multifunction end effectors having rotational offsets
WO2019231895A1 (en) 2018-05-30 2019-12-05 Auris Health, Inc. Systems and methods for location sensor-based branch prediction
US10898275B2 (en) 2018-05-31 2021-01-26 Auris Health, Inc. Image-based airway analysis and mapping
EP3801280A4 (en) 2018-05-31 2022-03-09 Auris Health, Inc. ROBOTIC SYSTEMS AND LUMINAL NETWORK NAVIGATION METHODS THAT DETECT PHYSIOLOGICAL NOISE
EP3801189A4 (en) 2018-05-31 2022-02-23 Auris Health, Inc. PATH-BASED NAVIGATION OF TUBULAR NETWORKS
US10744981B2 (en) 2018-06-06 2020-08-18 Sensata Technologies, Inc. Electromechanical braking connector
KR102579505B1 (ko) 2018-06-07 2023-09-20 아우리스 헬스, 인코포레이티드 고출력 기구를 가진 로봇 의료 시스템
WO2020005370A1 (en) 2018-06-27 2020-01-02 Auris Health, Inc. Systems and techniques for providing multiple perspectives during medical procedures
JP7391886B2 (ja) 2018-06-28 2023-12-05 オーリス ヘルス インコーポレイテッド 滑車共有を組み込んだ医療システム
CN112804946A (zh) 2018-08-07 2021-05-14 奥瑞斯健康公司 将基于应变的形状感测与导管控制相结合
EP3806772A4 (en) 2018-08-15 2022-03-30 Auris Health, Inc. MEDICAL INSTRUMENTS FOR TISSUE CAUTERIZATION
US10639114B2 (en) 2018-08-17 2020-05-05 Auris Health, Inc. Bipolar medical instrument
AU2019326548B2 (en) 2018-08-24 2023-11-23 Auris Health, Inc. Manually and robotically controllable medical instruments
WO2020068853A2 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Articulating medical instruments
WO2020068303A1 (en) 2018-09-26 2020-04-02 Auris Health, Inc. Systems and instruments for suction and irrigation
CN112804959A (zh) 2018-09-28 2021-05-14 奥瑞斯健康公司 用于伴随内窥镜和经皮医学规程的机器人系统和方法
US10820947B2 (en) 2018-09-28 2020-11-03 Auris Health, Inc. Devices, systems, and methods for manually and robotically driving medical instruments
KR20210073542A (ko) 2018-09-28 2021-06-18 아우리스 헬스, 인코포레이티드 의료 기구를 도킹시키기 위한 시스템 및 방법
WO2020076447A1 (en) 2018-10-08 2020-04-16 Auris Health, Inc. Systems and instruments for tissue sealing
JP7480152B2 (ja) 2018-12-28 2024-05-09 オーリス ヘルス インコーポレイテッド ロボット医療用システム及び方法のための経皮的シース

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017049163A1 (en) 2015-09-18 2017-03-23 Auris Surgical Robotics, Inc. Navigation of tubular networks

Also Published As

Publication number Publication date
JP2021525572A (ja) 2021-09-27
KR20210016438A (ko) 2021-02-15
US20210113279A1 (en) 2021-04-22
US20190365479A1 (en) 2019-12-05
EP3801190A1 (en) 2021-04-14
EP3801190A4 (en) 2022-03-02
MX2020012902A (es) 2021-02-26
WO2019231895A1 (en) 2019-12-05
US10905499B2 (en) 2021-02-02
US20240024040A1 (en) 2024-01-25
US11793580B2 (en) 2023-10-24
CN110831486B (zh) 2022-04-05
KR102499906B1 (ko) 2023-02-16
CN110831486A (zh) 2020-02-21
CN114601559A (zh) 2022-06-10

Similar Documents

Publication Publication Date Title
JP7250824B2 (ja) 位置センサベースの分岐予測のためのシステム及び方法
JP7214747B2 (ja) 位置センサの位置合わせのためのシステム及び方法
US11712173B2 (en) Systems and methods for displaying estimated location of instrument
US20210113280A1 (en) Robotic systems for determining a roll of a medical device in luminal networks
US11207141B2 (en) Systems and methods for weight-based registration of location sensors
CN114601559B (zh) 用于基于定位传感器的分支预测的系统和介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230322

R150 Certificate of patent or registration of utility model

Ref document number: 7250824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150