CN108601669B - 用于确定工具尖端相对于感兴趣的眼部组织的位置和定向的系统和方法 - Google Patents
用于确定工具尖端相对于感兴趣的眼部组织的位置和定向的系统和方法 Download PDFInfo
- Publication number
- CN108601669B CN108601669B CN201680081216.2A CN201680081216A CN108601669B CN 108601669 B CN108601669 B CN 108601669B CN 201680081216 A CN201680081216 A CN 201680081216A CN 108601669 B CN108601669 B CN 108601669B
- Authority
- CN
- China
- Prior art keywords
- interest
- tissue
- tool
- ocular tissue
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0008—Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/0036—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room including treatment, e.g., using an implantable medical device, ablating, ventilating
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/064—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
- A61B90/35—Supports therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
- A61B2034/104—Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/05—Surgical care
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6844—Monitoring or controlling distance between sensor and tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7405—Details of notification to user or communication with user or patient ; user input means using sound
- A61B5/7415—Sound rendering of measured values, e.g. by pitch or volume variation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Abstract
本发明公开了用于确定工具尖端相对于感兴趣的眼部组织的位置和定向(P&O)的系统和方法。所述系统包括与和处理器耦合的成像和跟踪模块。所述成像和跟踪模块至少包括成像器。所述成像器获取至少一个组织参考标记的至少一个图像。所述成像和跟踪模块进一步确定与所述工具的所述P&O有关的信息。所述处理器根据所述组织参考标记的所述所获取的图像来确定所述组织参考标记的所述P&O。所述处理器根据所述组织参考标记的所述P&O以及所述组织参考标记与所述感兴趣的眼部组织之间的预定相对P&O来确定所述感兴趣的眼部组织的所述P&O。所述处理器还根据工具标记来确定工具尖端的所述P&O并确定所述工具尖端与所述感兴趣的眼部组织之间的所述相对P&O。
Description
技术领域
所公开的技术大体上涉及用于防止感兴趣的眼部组织破裂的系统和方法,并且具体地讲涉及用于确定工具尖端相对于感兴趣的眼部组织的位置和定向的系统和方法。
发明背景
眼部的光学结构包括薄且脆弱的透明组织,诸如角膜、虹膜、晶状体和晶状体囊。眼科中常见的外科手术(例如,白内障手术、IOL放置、角膜植入等等)与前眼有关并且使用立体显微镜执行。一般来说,眼部组织是透明的,并且因此难以看清。这些外科手术因透过透明眼部组织的可见度低而是复杂的。在这些手术期间,外科医生需要切割或避免切割这些透明组织。在手术期间,对透明眼部组织的损伤可能导致并发症,从而造成患者恢复的时间长,使手术的结果改变,并且导致反复的外科手术和休养。当外科医生在使用显微镜进行准确的切口和手术中遇到困难时,手术可能无法提供所需结果。
现有技术系统采用非视觉扫描技术来在外科手术期间定位眼部囊膜。现在参考授予Hubschman等人的名称为“Surgical Procedures Using Instrument to BoundarySpacing Information Extracted from Real Time Diagnostic Scan Data”的美国专利第8,945,140号。此出版物涉及一种用于向外科医生提供关于在外科手术期间分离器械的工作端与眼部的后囊的距离的附加指导的外科手术方法。所述方法涉及获取非视觉三维数据(即,诊断扫描数据),并且处理扫描数据以确定器械与晶状体组织的后边界之间的距离。将对距离信息的视觉和/或听觉传达提供给外科医生。
发明概要
所公开的技术的目标是提供一种用于确定工具尖端相对于感兴趣的眼部组织的位置和定向的新颖的方法和系统。根据所公开的技术的一个方面,因此提供一种用于确定工具尖端相对于感兴趣的眼部组织的位置和定向的系统。所述系统包括成像和跟踪模块以及处理器。所述处理器与所述成像和跟踪模块耦合。所述成像和跟踪模块至少包括成像器。所述成像器获取至少一个组织参考标记的至少一个图像。所述成像和跟踪模块进一步确定与所述工具的所述位置和定向有关的信息。所述处理器连续地且实时地根据所述组织参考标记的所述所获取的至少一个图像来确定所述组织参考标记的位置和定向。所述处理器连续地且实时地根据所述组织参考标记的所述位置和定向以及所述组织参考标记与所述感兴趣的眼部组织之间的预定相对位置和定向来确定所述感兴趣的眼部组织的所述位置和定向。所述处理器还根据工具标记来确定工具尖端的所述位置和定向并确定所述工具尖端与所述感兴趣的眼部组织之间的所述相对位置和定向。
根据所公开的技术的另一方面,因此提供一种用于确定工具尖端相对于感兴趣的眼部组织的位置和定向的方法。所述方法包括以下过程:获取参考坐标系中的至少一个组织参考标记的至少一个图像;连续地且实时地确定所述至少一个组织参考标记在所述参考坐标系中的位置和定向。所述方法还包括以下过程:连续地且实时地根据所述组织参考标记的所述位置和定向以及所述组织参考标记与所述感兴趣的眼部组织之间的预定相对位置和定向来确定所述感兴趣的眼部组织在所述参考坐标系中的位置和定向。所述方法进一步包括以下过程:确定所述工具尖端在所述参考坐标系中的位置和定向;以及确定所述工具尖端与所述感兴趣的眼部组织之间的距离。
附图简述
从以下结合附图进行的详细描述将更全面地理解和了解所公开的技术,其中:
图1A至图1D是根据所公开的技术的实施方案构造和操作的用于确定工具尖端相对于感兴趣的眼部组织的位置和定向的示例性系统的示意图;
图2是根据所公开的技术的另一实施方案构造和操作的用于确定工具尖端相对于感兴趣的眼部组织的位置和定向的系统的示意图;以及
图3是根据所公开的技术的另一实施方案操作的用于确定工具尖端相对于感兴趣的眼部组织的位置和定向的方法的示意图。
实施方案的详细描述
所公开的技术通过提供用于确定工具尖端相对于感兴趣的眼部组织的位置的系统和方法来克服了现有技术的缺点。因此,成像器获取眼部并特别是结膜、虹膜、角膜和透明组织的至少一个图像。一个所获取的图像或多个所获取的图像包括一个组织参考标记或多个组织参考标记(例如,虹膜、一个基准标记或多个基准标记、血管)的表示。处理器连续地且实时地确定组织参考标记在参考坐标系中的位置和定向(在本文中缩写为“P&O”)。另外,感兴趣的眼部组织与一个组织参考标记或多个组织参考标记之间的相对P&O是预定的。处理器连续地且实时地至少根据两个因素来确定感兴趣的眼部组织在参考坐标系中的P&O。第一因素是感兴趣的眼部组织与一个组织参考标记或多个组织参考标记之间的相对P&O,并且第二因素是组织参考标记的P&O。感兴趣的眼部组织在参考坐标系中的P&O限定操纵空间,在该操纵空间中可以操纵工具而不会导致对组织的不期望的损伤(即,这可或可不考虑到安全距离阈值)。工具跟踪器在参考坐标系中跟踪(即,确定与P&O有关的信息)工具。处理器确定工具尖端与感兴趣的眼部组织之间的距离并将此经确定的距离提供给距离指示器。距离指示器产生与工具尖端与感兴趣的眼部组织之间的距离有关的指示。根据所公开的技术的系统和方法帮助外科医生或其他人员防止对眼部组织切口的并特别是对透明组织的不期望的损伤。
本文的上下文中的术语“实时地”是指以相对于系统要求基本上高的速率(例如,大于每秒15次)和相对于系统要求基本上低的时延(例如,短于0.1秒)执行的操作(例如,图像获取、P&O确定)。本文的上下文中的术语“连续地”涉及在限定的时间段内重复地执行操作(例如,图像获取、P&O确定)。
现在参考图1A至图1D,图1A至图1D是根据所公开的技术的实施方案构造和操作的用于确定工具尖端相对于感兴趣的眼部组织的P&O的示例性系统(大体上标记为100)的示意图。本文中描述了示例性系统100,其中晶状体囊中的感兴趣的眼部组织和组织参考标记是虹膜。系统100包括三维(3D)成像器102、处理器104、距离指示器106和数据库108。处理器104与3D成像器102、距离指示器106和数据库108耦合。
3D成像器102是例如立体成像器、结构光成像器、飞行时间(TOF)成像器等等。工具110包括工具标记112,工具标记可以是主动标记或被动标记。例如,主动标记是发射处于3D成像器102所敏感的波长的光的光发射器(例如,发光二极管—LED)(即,3D成像器102可以获取工具标记112的图像并且工具标记112是可在这些图像中识别的)。被动标记例如是反射入射在3D成像器102上的光的反射器(即,镜面反射器、回反射器或漫反射器)。
系统100用于大体上相对于眼部114的解剖结构并具体地相对于感兴趣的眼部组织来跟踪工具110并特别是工具顶部111(即,确定工具并特别是工具顶部的P&O)。为此,系统100根据由3D成像器102获取的图像来确定工具标记112在参考坐标系128中的P&O。由于工具尖端111相对于标记112的P&O是预定的,因此系统100确定工具尖端111的P&O。
在描述系统100的功能之前,以下段落提供了对眼部114的简要描述。眼部114包括角膜116、虹膜118、前房120、晶状体囊122、晶状体124和视网膜126。角膜116是眼部114覆盖虹膜118和前房120的透明前部。角膜116与前房120、晶状体124一起将光折射到视网膜126上。虹膜118是负责控制瞳孔(未示出)的直径和大小以及因此到达视网膜124的光量的薄的圆形结构。也就是说,虹膜118是孔径光阑,瞳孔是孔径。前房120是虹膜118与角膜116的内表面之间的空间,其填充有房水。晶状体囊122是澄清(即,透明)的膜结构,其完全地包围晶状体124。晶状体囊122包括帮助晶状体124和其表面曲率成形。晶状体124是透明的双凸结构,其有助于(与角膜110一起)将从其中通过的光聚焦在视网膜126上。视网膜126是眼部114的内涂层,并且是光敏组织层。
数据库108存储与虹膜与晶状体囊之间的相对P&O有关的信息。此相对P&O基本上是恒定的。数据库108还可存储与晶状体囊的形状和大小有关的信息。此所存储的信息用于限定晶状体囊的体积模型。在手术期间,3D成像器102连续地获取虹膜118的3D图像。3D成像器102将所获取的3D图像提供给处理器104。处理器104连续地且实时地根据所获取的图像来确定虹膜118在参考坐标系128中的P&O。然后,处理器104连续地、实时地根据虹膜118的所确定的P&O并根据存储在数据库108中的虹膜与晶状体囊模型之间的相对P&O来确定晶状体囊122在参考坐标系128中的P&O。处理器104确定经允许的操纵空间,在该操纵空间中可以操纵110工具110而不会导致对组织的不期望的损伤。
当一个工具110或另一工具(即,其也装配类似于工具标记112的标记)插入到晶状体囊122中时(即,手动地或自动地),3D成像器102获取工具标记112的实时图像并且将所获取的实时图像提供给处理器104。处理器104实时地确定工具尖端111在参考坐标系128中的P&O。然后,处理器104确定工具尖端111与晶状体囊122之间的距离并且将此所确定的距离提供给距离指示器106。此距离例如是距晶状体囊122的最小距离或在工具尖端111的定向方向上工具尖端111与晶状体囊122之间的距离。距离指示器106产生与工具尖端111与晶状体囊122的边界之间的距离有关的指示。
由距离指示器106产生的指示可以是视觉指示,诸如距离的数字表示、距离条等等。作为另一实例,视觉指示可以呈现在显示器(例如,LCD屏幕、平视显示器、近眼显示器等等)上。视觉指示还可以是眼部的3D模型(即,以上提到的存储的模型或不同的模型)以及工具110的符号。工具110的符号在显示器上相对于眼部的3D模型的位置的P&O对应于工具110与晶状体囊122之间的相对P&O。视觉指示还可包括闪烁符号,其中闪烁频率与工具尖端111与晶状体囊122之间的距离成反比。指示可以可选地或另外地是音频指示,诸如具有根据距离而变化的音高或音量或两者的声音。声音也可以是指示距离的语音或在距囊的距离之后的警告。作为另一替代或附加,距离指示器106可以指示工具尖端111与晶状体囊122之间的距离低于阈值。在上文提出的实例中,处理器将整个晶状体囊122确定为操纵空间,在该操纵空间中可以操纵110工具110而不会导致对组织的不期望的损伤(即,不考虑到安全阈值)。然而,此操纵空间可进一步受限(即,考虑安全阈值)。例如,参考图1D,处理器104可以限定与晶状体囊122或其一部分有关的虚拟边界130。此虚拟边界进一步限制了操纵空间,在该操作空间中用户可以操纵工具110而不会导致对组织的不期望的损伤。当工具110越过该虚拟边界时,如上所述产生指示。此虚拟边界也可作为以上提到的3D模型的一部分来显示给用户。
如上提及,工具110可以自动地移动。例如,工具110附接到与处理器104耦合的机器人(未示出),诸如机器人臂。处理器104指示机器人根据工具110的P&O和晶状体囊122的P&O将工具110朝向晶状体囊122移动。处理器104可以进一步指示机器人停止,例如,当工具尖端111与晶状体囊122之间的距离低于阈值时。
以上提及的P&O的估计的准确度、晶状体囊122在参考坐标系128中的几何结构和大小(即,体积模型的准确度)可以通过获取与晶状体囊122的实际P&O有关的信息来提高(即,更符合实际值)。为此,并且参考图1B,工具110移动。当工具尖端111在一个或多个点处(例如,如通过显微镜查看工具尖端111确定的)与晶状体囊122的外边界接触或紧密接触时,3D成像器102获取工具标记112的一个相应3D图像或多个相应3D图像。3D成像器102将所获取的图像提供给处理器104。参考图1C,工具110继续移动。当工具尖端111在一个或多个点处与晶状体囊122的内边界接触或紧密接触时,3D成像器102获取工具标记112的一个另外相应3D图像或多个另外相应图像。当工具尖端111与晶状体囊122的外边界点和内边界点接触或紧密接触时,处理器104确定工具尖端111在参考坐标系128中的位置和可选地定向。根据工具尖端111的所确定的位置和/或定向,处理器104通过估计晶状体囊122的几何结构和大小以及晶状体囊122在参考坐标系128中的P&O来确定晶状体囊122的模型。例如,当仅使用两个点时(即,一个在晶状体囊122的外边界上,一个在其内边界上),然后处理器104确定晶状体囊122的宽度的近似值。然而,当工具尖端111在多于一个点处与晶状体囊122的外边界和内边界接触或紧密接触时,确定工具尖端111的位置和定向增加以上提及的对晶状体囊122的几何结构、大小、位置和定向的估计的准确度。
当实时地确定晶状体囊122的P&O时,处理器104可以在工具尖端111与晶状体囊122的外边界和内边界接触或紧密接触时进一步采用以上提及的工具尖端111的位置来提高所确定的晶状体囊122的P&O的准确度(例如,通过采用这些边界点的位置作为约束)。根据另一替代形式,可以通过采用成像技术来实现在手术之前对晶状体囊122建模。例如,在手术之前,获取眼部的光学相干断层扫描(OCT)图像或超声图像(即,模型图像)。此图像包括晶状体囊122的表示。晶状体囊122的几何结构和大小可以通过采用图像处理技术从此类图像导出。另外,当晶状体囊122和虹膜118两者在模型图像中可见时,可以从所获取的图像确定虹膜118与晶状体囊122之间的相对P&O。要注意,一般,对晶状体囊122建模和确定虹膜118的P&O可以顺序地或同时地进行。
如上所述,处理器104采用虹膜118作为组织参考标记并且确定虹膜118在参考坐标系128中的P&O。然而,组织参考标记可以是3D成像器102可检测的任何标记,其中晶状体囊122与标记之间的相对P&O是预定的。例如,组织参考标记可以是结膜、结膜内的血管或眼部的其它器官内的血管。或者,组织参考标记可以是放置在眼部上的人造标记(例如,基准标记)。例如,当确定晶状体囊122的边界时,组织参考标记附贴到晶状体囊122。作为另一实例,组织参考标记通过专用的标记笔在眼部上进行绘图。为了确定所获取的3D图像中的组织参考标记的P&O,处理器104采用图像处理技术。例如,当组织参考标记是虹膜118时,处理器104通过识别黑色圆圈来在所获取的3D图像中识别虹膜,黑色圆圈与由第一环环绕的瞳孔有关,第一环与由第二环环绕的虹膜有关,第二环与角膜缘有关。因此,虹膜图案和形状为系统提供了可辨别的组织参考标记。第一环的P&O与虹膜118的位置有关。
在上文结合图1A至图1C描述的系统涉及一种示例性系统,其中3D成像器用于成像以及用于跟踪,并且其中感兴趣的眼部组织是晶状体囊并且组织参考标记是虹膜。一般,根据所公开的技术的系统可以采用各种技术来跟踪医疗工具,诸如光学跟踪、电磁跟踪、超声跟踪和惯性跟踪。此外,如上提及,3D成像器可以是各种3D成像器中的任何一种,诸如立体相机、结构光成像器或TOF相机。或者,成像器可以是二维(2D)成像器。当成像器是2D成像器时,在眼部上放置至少三个人造标记。另外,感兴趣的眼部组织可以是眼部中的其它组织,例如视网膜。现在参考图2,图2是根据所公开的技术的另一实施方案构造和操作的用于确定工具尖端相对于感兴趣的眼部组织的P&O的系统(大体上标记为200)的示意图。系统200的操作类似于以上结合图1A至图1C所述的系统100的操作。系统200包括成像和跟踪模块202、处理器204、距离指示器206和数据库208,以及工具标记210。成像和跟踪模块202至少包括成像器212。成像器212可以是3D成像器或2D成像器。成像和跟踪模块202任选地包括光源214和工具跟踪器216(即,如阴影线指示)。处理器204与成像和跟踪模块202、距离指示器206和数据库208耦合。工具标记210与成像和跟踪模块202耦合。
当成像器212是3D成像器时,成像器212获取眼部的3D图像或图像。术语‘3D图像’在本文的上下文中涉及图像数据,图像数据包括与各种特征在场景中的P&O(即,在参考坐标系中)有关的信息。当成像器212是3D成像器时,成像器212可体现为立体相机,其从两个不同视角获取眼部的两个图像。当成像器212是立体相机时,光源214是任选的。成像器212可以可选地体现为结构光成像器。在这种情况下,光源214用结构光照射眼部,并且成像器212获取被照射的眼部(即,用结构光)的图像(即,可以是二维图像)。根据另一替代形式,成像器212可以是TOF相机。因此,光源214朝向眼部发射时间光脉冲。成像器212与光源214时间同步并获取眼部的一个图像或多个图像。只有当光脉冲预期反射回到成像器时,成像器212才集成光。时间光源214发射脉冲与时间成像器212获取反射光脉冲的图像之间的差异与成像器212与跟踪模块202和被跟踪的物体之间的距离有关。当成像器212是2D成像器时,成像器212获取放置在眼部上的至少三个人造组织参考标记的一个2D图像或多个2D图像。人造标记之间的相对位置是已知的(例如,当需要相对高的准确度时,存储在数据库208中)。或者,例如通过将工具尖端放置在每个标记上,确定每个标记在参考坐标系218中的位置并相应地确定标记之间的相对位置来确定标记之间的相对位置。
一般,工具跟踪器216至少获取与工具标记210在参考坐标系218中的P&O有关的信息。根据一个替代形式,类似于以上结合图1A至图1C所述的,工具跟踪器216和成像器212是一个并且是同一个。因此,类似于如上所述的,工具标记210是主动标记或被动标记。例如,工具标记210是位于工具上并可在由成像器212获取的图像中识别的LED或基准标记阵列。工具标记210因此被认为是与成像和跟踪模块202光学地耦合,并且工具标记210的P&O根据由成像器212获取的图像来确定。根据另一替代形式,工具跟踪器216是与成像器212不同的光学跟踪器。在两种情况下,与工具标记210的P&O有关的信息是工具标记210的图像。工具跟踪器216也可根据其形状来跟踪工具。工具的形状可以基于在系统200的初步学习阶段期间获取的工具模型而存储在数据库208中。因此,成像器212获取工具的3D图像。
根据另一替代形式,工具跟踪器216是电磁跟踪器,并且工具标记210是至少一个电磁传感器(例如,线圈、霍尔效应传感器)。工具标记210因此被认为是与成像和跟踪模块202电磁地耦合,并且工具标记210的P&O是根据由电磁传感器对磁场的测量来确定。电磁由工具跟踪器216产生。
根据又一替代形式,工具跟踪器216是超声跟踪器,并且工具标记210包括至少一个超声传感器,并且工具跟踪器216包括至少三个超声接收器。因此,工具标记210被认为是与成像和跟踪模块202超声地耦合,并且工具标记210的P&O是根据对声音的发送和接收之间经过的时间和声音在介质中的速度的测量来确定。
根据又一替代形式,工具跟踪器216是惯性导航系统,并且工具标记210是惯性测量单元(IMU)。工具标记210提供关于工具的线性和旋转加速度的信息,并且工具跟踪器相对于初始已知参考来相应地确定工具标记210的P&O。
根据一个实施方案,处理器204根据与由工具跟踪器216提供的工具标记210的P&O有关的信息来确定工具标记210的P&O。或者,工具跟踪器216确定工具标记210的P&O并且将所确定的P&O提供给处理器204。在两种情况下,处理器204确定工具尖端的P&O以及工具尖端与感兴趣的眼部组织之间的距离。
处理器204包括执行计算操作所需的部件,诸如可以用常规微处理器实现的中央处理单元、用于临时存储信息的随机存取存储器(RAM),以及用于永久存储信息的只读存储器(ROM)息。存储器控制器用于控制RAM。总线互连处理器系统的部件。总线控制器用于控制总线。中断控制器用于接收和处理来自系统部件的各种中断信号。大容量存储装置可以由硬盘驱动器(HDD)或闪存驱动器提供。处理器系统进一步包括网络接口,网络接口允许系统互连到局域网(LAN)或广域网(WAN)。一般由可以存储在存储器上的操作系统软件来控制和协调处理器的操作。处理器204将此所确定的内容提供给距离指示器206。距离指示器206提供类似于如上所述的工具尖端与感兴趣的眼部组织之间的距离的指示。
在手术期间,成像器212连续地获取一个组织参考标记或多个组织参考标记的图像。成像器212将所获取的图像提供给处理器204。所获取的图像包括与一个组织参考标记或多个组织参考标记的位置和定向有关的信息。例如,当成像器212是立体相机时,由一个相机获取的图像特征在图像中的位置与由第二相机获取的相同图像特征在图像中的位置之间的关系与实际特征在参考坐标系218中的位置相关联。通过识别与一个组织参考标记或多个组织参考标记相关联的图像特征,可以确定图像特征在参考坐标系218中的位置和定向。当成像器212是2D成像器时,成像器212获取至少三个人造标记的图像。每个标记的图像像素位置与两个角度(即,从成像传感器的中心测量的水平角度和垂直角度)相关联。本质上,这些角度以及组织参考标记之间的已知相对位置限定具有六个未知数的六个等式(即,三个关于位置,三个关于定向)。因此,处理器204连续地且实时地根据所获取的图像来确定组织参考标记在参考坐标系218中的P&O。然后,处理器204连续地且实时地根据组织参考标记的已确定的P&O并根据一个组织参考标记或多个组织参考标记与眼部组织之间的所存储的相对P&O来确定感兴趣的眼部组织在参考坐标系218中的P&O。因此,处理器204确定在其中用户可以操纵工具110的操纵空间,在该操纵空间中可以操纵工具而不会导致对组织的不期望的损伤(即,这可或可不考虑到安全距离阈值)。
处理器204实时地确定工具尖端的P&O并确定工具尖端与感兴趣的眼部组织之间的距离。处理器204将此所确定的内容提供给距离指示器206。距离指示器206提供类似于如上所述的工具尖端与感兴趣的眼部组织之间的距离的指示。类似于系统100,在其中用户可以操纵工具110的操纵空间(在该操纵空间中可以操纵工具而不会导致对组织的不期望的损伤)例如通过限定与感兴趣的眼部组织有关的虚拟边界来考虑到安全距离阈值。当工具越过该虚拟边界时,如上所述产生指示。
可以通过在手术之前对眼部组织建模来提高对感兴趣的眼部组织的几何结构、大小、在参考坐标系218中的位置和定向的估计的准确度。为此,当工具尖端在多于一个点处与感兴趣的眼部组织接触或紧密接触时,处理器204采用工具尖端的位置。根据另一替代形式,在手术之前对感兴趣的眼部和眼部组织进行建模可以通过采用成像技术来实现。例如,在手术之前,获取眼部的光学相干断层扫描(OCT)图像或超声图像(即,模型图像)。此模型图像包括感兴趣的眼部组织的表示。感兴趣的眼部组织的几何结构和大小可以通过采用图像处理技术从此类图像导出。当用成像技术的感兴趣的眼部和眼部组织以及组织参考标记(即,解剖学或生物学的)与感兴趣的眼部组织之间的相对P&O可以在感兴趣的眼部组织和组织参考标记两者在模型图像中可见时从所获取的图像中确定。
如上提及,感兴趣的眼部组织可以是视网膜。在这种情况下,参考标记优选地是基准标记,并且相对于其计算视网膜的P&O。处理器204实时地确定工具尖端的P&O并确定工具尖端与视网膜之间的距离。处理器204将此所确定的距离提供给距离指示器206。距离指示器206提供类似于如上所述的工具尖端与感兴趣的眼部组织之间的距离的指示。
现在参考图3,图3是根据所公开的技术的另一实施方案操作的用于确定工具尖端相对于感兴趣的眼部组织的位置和定向的方法的示意图。在过程250中,在参考坐标系中获取至少一个组织参考标记的至少一个图像。一个图像或多个图像可以是2D图像或3D图像。3D图像可以是立体图像、结构光图像或TOF图像。当一个图像或多个图像是2D图像时,采用至少三个组织参考标记。参考图2,成像器212获取至少一个组织参考标记的图像。在过程250之后,方法继续过程254。
在过程252中,对感兴趣的眼部组织进行建模。例如,通过确定工具尖端在工具尖端与组织上的各点接触或紧密接触时的位置和任选地定向来对感兴趣的眼部组织进行建模,例如,以提高与对感兴趣的眼部组织的P&O、几何结构和大小的估计有关的先验信息的准确度。或者,通过采用成像(诸如OCT或超声成像)来对感兴趣的眼部组织建模。例如,参考图1A至图1C以及图2,处理器204确定感兴趣的眼部组织的模型。为此,工具110移动。当工具尖端在一个或多个点处与感兴趣的眼部组织接触或紧密接触时,工具跟踪器216获取与工具尖端的位置有关的信息,并且将所获取的信息提供给处理器204。处理器204通过估计感兴趣的眼部组织的晶状体的几何结构和大小以及在参考坐标系218中的P&O来确定感兴趣的眼部组织的晶状体的模型。在过程252之后,方法继续过程256。另外,要注意,过程252是任选的。
在过程254中,在参考坐标系中确定一个组织参考标记或多个组织参考标记的P&O。连续地且实时地根据至少一个组织参考标记的一个所获取的图像或多个所获取的图像来确定至少一个组织参考标记的P&O。组织参考标记可以是解剖标记,诸如虹膜。然而,一个组织参考标记或多个组织参考标记也可以是结膜、结膜内的血管或眼部的其它器官内的血管。或者,一个组织参考标记或多个组织参考标记可以是放置在眼部上的人造标记,诸如所贴附的贴片、基准标记或绘制在眼部上的专用笔标记。参考图2,处理器204确定组织参考标记在参考坐标系218中的P&O。
在过程256中,在参考坐标系中确定感兴趣的眼部组织的P&O。连续地且实时地根据一个组织参考标记或多个组织参考标记的P&O并根据一个组织参考标记或或多个组织参考标记与感兴趣的眼部组织之间的预定相对P&O来确定感兴趣的眼部组织的P&O。因此,确定操纵空间,在该操纵空间中可以操纵工具而不会导致对组织的不期望的损伤(即,这可或可不考虑到安全距离阈值)。参考图2,处理器204确定感兴趣的眼部组织的P&O。要注意,过程254是任选的。在过程254之后,方法继续过程258。
在过程258中,在参考坐标系中确定工具尖端的P&O。参考图2,工具跟踪器216获取与工具尖端的P&O有关的信息,并且处理器204相应地确定工具尖端的P&O。
在过程260中,确定工具尖端与感兴趣的眼部组织之间的距离。参考图2,处理器204确定工具尖端与感兴趣的眼部组织之间的距离。
在过程262中,产生与工具尖端与感兴趣的眼部组织之间的距离有关的指示。此指示可以是视觉指示,诸如距离的数字表示或发光二极管阵列,距离条等。作为另一实例,可以在显示器(例如,LCD屏幕、平视显示器、近眼显示器等等)上呈现视觉指示,显示器将显示眼部的所确定的3D模型以及工具的符号。指示可以可选地或另外地是音频指示,诸如具有根据距离而变化的音高或音量或两者的声音。作为另一替代或附加,产生可指示工具尖端与感兴趣的眼部组织之间的距离低于阈值的指示。参考图2,距离指示器206产生与工具尖端与感兴趣的眼部组织之间的距离有关的指示。
本领域的技术人员将了解,所公开的技术不限于已经在上文具体地示出和描述的那些。相反,所公开的技术的范围仅由随附的权利要求限定。
Claims (12)
1.一种用于确定工具的工具尖端相对于感兴趣的眼部组织的位置和定向的系统,所述系统包括:
成像和跟踪模块,所述成像和跟踪模块至少包括成像器,所述成像器配置为获取至少一个组织参考标记的至少一个图像,所述至少一个组织参考标记不同于所述感兴趣的眼部组织,所述成像和跟踪模块进一步配置为确定与所述工具的位置和定向有关的信息;以及
处理器,所述处理器与所述成像和跟踪模块耦合,所述处理器配置为连续地且实时地根据所述至少一个组织参考标记的所获取的至少一个图像来确定所述至少一个组织参考标记的位置和定向,
所述处理器配置为连续地且实时地根据所述至少一个组织参考标记的所述位置和定向以及所述至少一个组织参考标记与所述感兴趣的眼部组织之间的预定相对位置和定向来确定所述感兴趣的眼部组织的位置和定向,所述至少一个组织参考标记与所述感兴趣的眼部组织之间的所述相对位置和定向是根据所述感兴趣的眼部组织的模型确定的,
所述处理器配置为根据工具标记来确定所述工具尖端的位置和定向,所述处理器进一步确定所述工具尖端与所述感兴趣的眼部组织之间的相对位置和定向。
2.根据权利要求1所述的系统,所述系统进一步包括距离指示器,所述距离指示器与所述处理器耦合,配置为提供与所述工具尖端和所述感兴趣的眼部组织之间的距离有关的指示,
其中所述距离指示器是配置为显示所述工具尖端与所述感兴趣的眼部组织之间的所述距离的视觉指示的显示器,
其中所述视觉指示是所述眼部的三维模型以及所述工具的符号,并且
其中,所述符号在所述显示器上相对于所述眼部的所述三维模型的位置的位置和定向对应于所述工具与所述感兴趣的眼部组织之间的所述相对位置和定向。
3.根据权利要求2所述的系统,其中所述显示器是平视显示器和头戴显示器中的一者。
4.根据权利要求2所述的系统,其中所述距离指示器提供根据所述工具尖端与所述感兴趣的眼部组织之间的所述距离而变化的音频指示。
5.根据权利要求1所述的系统,其中所述成像器是三维成像器。
6.根据权利要求5所述的系统,其中所述三维成像器是立体相机。
7.根据权利要求5所述的系统,其中所述三维成像器是飞行时间相机,并且
其中,所述成像和跟踪模块进一步包括配置为发射脉冲光的光源。
8.根据权利要求5所述的系统,其中所述三维成像器是结构光相机,并且
其中,所述成像和跟踪模块进一步包括配置为发射结构光的光源。
9.根据权利要求1所述的系统,其中所述成像器是二维成像器,
其中所述至少一个组织参考标记包括至少三个人造标记。
10.根据权利要求1所述的系统,其中所述至少一个组织参考标记是由以下项组成的组中的至少一者:
虹膜;
结膜;
所述结膜内的血管;以及
人造标记。
11.根据权利要求1所述的系统,其中所述模型是所述感兴趣的眼部组织的体积模型,
其中所述体积模型的准确度是通过至少确定所述工具尖端在所述工具尖端至少在一个或多个点处与所述感兴趣的眼部组织紧密接触时的位置而改善,
其中所述体积模型是通过获取光学相干断层扫描图像之一来确定和获取所述眼部的超声图像。
12.根据权利要求11所述的系统,所述系统进一步包括与所述处理器耦合的数据库,所述数据库存储所述体积模型。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IL243384 | 2015-12-28 | ||
IL243384A IL243384A (en) | 2015-12-28 | 2015-12-28 | A method and system for determining the position and orientation of an instrument's tip relative to eye tissue |
PCT/IL2016/051370 WO2017115352A1 (en) | 2015-12-28 | 2016-12-22 | System and method for determining the position and orientation of a tool tip relative to eye tissue of interest |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108601669A CN108601669A (zh) | 2018-09-28 |
CN108601669B true CN108601669B (zh) | 2021-01-01 |
Family
ID=55646028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680081216.2A Active CN108601669B (zh) | 2015-12-28 | 2016-12-22 | 用于确定工具尖端相对于感兴趣的眼部组织的位置和定向的系统和方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10433916B2 (zh) |
EP (1) | EP3397217B1 (zh) |
JP (1) | JP6986017B2 (zh) |
CN (1) | CN108601669B (zh) |
ES (1) | ES2935796T3 (zh) |
IL (1) | IL243384A (zh) |
WO (1) | WO2017115352A1 (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3328308B1 (en) * | 2016-09-27 | 2019-05-29 | Brainlab AG | Efficient positioning of a mechatronic arm |
US11612307B2 (en) | 2016-11-24 | 2023-03-28 | University Of Washington | Light field capture and rendering for head-mounted displays |
US11116420B2 (en) * | 2017-12-26 | 2021-09-14 | Biosense Webster (Israel) Ltd. | Monitoring distance to selected anatomical structures during a procedure |
CN109480767B (zh) * | 2018-12-13 | 2021-03-19 | 孙艳 | 一种医用眼科手术前用辅助检查装置 |
EP3725277A1 (de) * | 2019-04-17 | 2020-10-21 | Ziemer Ophthalmic Systems AG | Ophthalmologische vorrichtung zum bearbeiten eines auges |
DE102020102012B4 (de) | 2020-01-28 | 2022-12-01 | Carl Zeiss Meditec Ag | Anordnung mit einer OCT-Einrichtung für das Ermitteln einer 3D-Rekonstruktion eines Objektbereichsvolumens sowie Computerprogramm und computerimplementiertes Verfahren hierfür |
DE102020102011A1 (de) * | 2020-01-28 | 2021-07-29 | Carl Zeiss Meditec Ag | Augenchirurgie-Operationssystem mit einer OCT-Einrichtung sowie Computerprogramm und computerimplementiertes Verfahren für das fortlaufende Ermitteln einer Lage eines Chirurgie-Gegenstands |
CN111166472B (zh) * | 2020-02-27 | 2020-11-06 | 连云港市第一人民医院 | 一种眼科手术训练用机械臂 |
CN111588469B (zh) * | 2020-05-18 | 2021-02-02 | 四川大学华西医院 | 眼科机器人末端执行器引导和定位系统 |
US20210378756A1 (en) * | 2020-06-09 | 2021-12-09 | Globus Medical, Inc. | Surgical object tracking in visible light via fiducial seeding and synthetic image registration |
WO2021258113A1 (en) | 2020-06-19 | 2021-12-23 | Remedy Robotics, Inc. | Systems and methods for guidance of intraluminal devices within the vasculature |
US20220007937A1 (en) * | 2020-07-13 | 2022-01-13 | Johnson & Johnson Surgical Vision, Inc. | Probe for eye examination using a distal convex mirror |
CN112006777B (zh) * | 2020-07-31 | 2022-03-29 | 清华大学 | 基于表面跟踪的打钉手术机器人系统及控制方法 |
CA3222522A1 (en) | 2021-07-01 | 2023-01-05 | David James Bell | Vision-based position and orientation determination for endovascular tools |
US11707332B2 (en) | 2021-07-01 | 2023-07-25 | Remedy Robotics, Inc. | Image space control for endovascular tools |
WO2023250131A1 (en) * | 2022-06-24 | 2023-12-28 | Zeta Surgical Inc. | Systems for real-time noninvasive surgical navigation |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103446676A (zh) * | 2006-10-16 | 2013-12-18 | Oraya治疗公司 | 眼放射外科 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100603543B1 (ko) * | 1999-10-21 | 2006-07-24 | 테크노라스 게엠베하 옵탈몰로지쉐 시스템 | 광학 치료용 홍체 인식 및 추적 |
US7331667B2 (en) * | 2001-04-27 | 2008-02-19 | Bausch Lomb Incorporated | Iris pattern recognition and alignment |
DE102006002001B4 (de) * | 2006-01-16 | 2009-07-23 | Sensomotoric Instruments Gmbh | Verfahren zur Bestimmung der räumlichen Relation eines Auges einer Person bezüglich einer Kameravorrichtung |
US20100324542A1 (en) * | 2007-11-02 | 2010-12-23 | Kurtz Ronald M | Method to Guide a Cataract Procedure by Corneal Imaging |
JP5774596B2 (ja) | 2009-10-30 | 2015-09-09 | ザ・ジョンズ・ホプキンス・ユニバーシティー | 外科的介入のための臨床上重要な解剖学的標識点の視覚的追跡/アノテーション |
US20110213342A1 (en) | 2010-02-26 | 2011-09-01 | Ashok Burton Tripathi | Real-time Virtual Indicium Apparatus and Methods for Guiding an Implant into an Eye |
US8945140B2 (en) * | 2010-06-18 | 2015-02-03 | Vantage Surgical Systems, Inc. | Surgical procedures using instrument to boundary spacing information extracted from real-time diagnostic scan data |
US20120330129A1 (en) * | 2011-06-23 | 2012-12-27 | Richard Awdeh | Medical visualization systems and related methods of use |
US20140142591A1 (en) * | 2012-04-24 | 2014-05-22 | Auris Surgical Robotics, Inc. | Method, apparatus and a system for robotic assisted surgery |
US10383765B2 (en) * | 2012-04-24 | 2019-08-20 | Auris Health, Inc. | Apparatus and method for a global coordinate system for use in robotic surgery |
IL221863A (en) * | 2012-09-10 | 2014-01-30 | Elbit Systems Ltd | Digital video photography system when analyzing and displaying |
US10039474B2 (en) * | 2013-01-28 | 2018-08-07 | The Johns Hopkins University | System for tracking microsurgical instrumentation |
WO2014121268A1 (en) * | 2013-02-04 | 2014-08-07 | The Cleveland Clinic Foundation | Instrument depth tracking for oct-guided procedures |
US10744035B2 (en) * | 2013-06-11 | 2020-08-18 | Auris Health, Inc. | Methods for robotic assisted cataract surgery |
US10073515B2 (en) * | 2013-09-18 | 2018-09-11 | Nanophthalmos, Llc | Surgical navigation system and method |
US9597009B2 (en) * | 2013-12-19 | 2017-03-21 | Novartis Ag | Marker-based tool tracking |
-
2015
- 2015-12-28 IL IL243384A patent/IL243384A/en active IP Right Grant
-
2016
- 2016-12-22 JP JP2018533646A patent/JP6986017B2/ja active Active
- 2016-12-22 US US16/066,480 patent/US10433916B2/en active Active
- 2016-12-22 EP EP16881397.0A patent/EP3397217B1/en active Active
- 2016-12-22 WO PCT/IL2016/051370 patent/WO2017115352A1/en active Application Filing
- 2016-12-22 CN CN201680081216.2A patent/CN108601669B/zh active Active
- 2016-12-22 ES ES16881397T patent/ES2935796T3/es active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103446676A (zh) * | 2006-10-16 | 2013-12-18 | Oraya治疗公司 | 眼放射外科 |
Also Published As
Publication number | Publication date |
---|---|
EP3397217B1 (en) | 2022-12-21 |
US20190000563A1 (en) | 2019-01-03 |
JP2019500132A (ja) | 2019-01-10 |
EP3397217A4 (en) | 2019-08-14 |
JP6986017B2 (ja) | 2021-12-22 |
IL243384A0 (en) | 2016-03-31 |
IL243384A (en) | 2017-05-29 |
CN108601669A (zh) | 2018-09-28 |
ES2935796T3 (es) | 2023-03-10 |
US10433916B2 (en) | 2019-10-08 |
WO2017115352A1 (en) | 2017-07-06 |
EP3397217A1 (en) | 2018-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108601669B (zh) | 用于确定工具尖端相对于感兴趣的眼部组织的位置和定向的系统和方法 | |
US10716634B2 (en) | 3D system and method for guiding objects | |
US11484363B2 (en) | System and method for determining the position and orientation of a tool tip relative to eye tissue of interest | |
US10537389B2 (en) | Surgical system, image processing device, and image processing method | |
JP7033552B2 (ja) | 眼科の外科的処置用局部的光干渉断層撮影画像 | |
US8858540B2 (en) | Ophthalmological laser treatment device | |
WO2017183032A1 (en) | Method and system for registration verification | |
CN105072979B (zh) | 使系统对准的方法及检测眼睛前方区域内的至少一个要素的位置数据的系统 | |
JP7454055B2 (ja) | 対象領域ボリュームの3d再構成を確認するためのoctデバイスを備えるアセンブリ、コンピュータプログラム、及びそのためのコンピュータ実装方法 | |
US20210228284A1 (en) | Eye surgery surgical system having an oct device and computer program and computer-implemented method for continuously ascertaining a relative position of a surgery object | |
WO2022036302A1 (en) | Systems and methods for superimposing virtual image on real-time image | |
JP6819223B2 (ja) | 眼科情報処理装置、眼科情報処理プログラム、および眼科手術システム | |
US20240081921A1 (en) | System and method for verification of conversion of locations between coordinate systems | |
US20240108507A1 (en) | Ophthalmic Device For Treating An Eye | |
JP2022510018A (ja) | 眼科手術用医療装置 | |
EP4203840A1 (fr) | Système de navigation en réalité augmentée pour un robot médical | |
KR20210071567A (ko) | 임플란트 수술을 위한 증강현실 도구 및 임플란트 수술정보 가시화 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |