ES2935796T3 - Sistema y método para determinar la posición y orientación de una punta de herramienta en relación con el tejido ocular de interés - Google Patents

Sistema y método para determinar la posición y orientación de una punta de herramienta en relación con el tejido ocular de interés Download PDF

Info

Publication number
ES2935796T3
ES2935796T3 ES16881397T ES16881397T ES2935796T3 ES 2935796 T3 ES2935796 T3 ES 2935796T3 ES 16881397 T ES16881397 T ES 16881397T ES 16881397 T ES16881397 T ES 16881397T ES 2935796 T3 ES2935796 T3 ES 2935796T3
Authority
ES
Spain
Prior art keywords
tool
tissue
interest
processor
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16881397T
Other languages
English (en)
Inventor
Ron Schneider
Abraham Zeitouny
Yelin Einav Namer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elbit Systems Ltd
Original Assignee
Elbit Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elbit Systems Ltd filed Critical Elbit Systems Ltd
Application granted granted Critical
Publication of ES2935796T3 publication Critical patent/ES2935796T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0036Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room including treatment, e.g., using an implantable medical device, ablating, ventilating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B90/35Supports therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6844Monitoring or controlling distance between sensor and tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • A61B5/7415Sound rendering of measured values, e.g. by pitch or volume variation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Sistema y método para determinar la posición y orientación (P&O) de una punta de herramienta relativa a un tejido ocular de interés. El sistema incluye un módulo de imágenes y seguimiento junto con un procesador. El módulo de formación de imágenes y seguimiento incluye al menos un generador de imágenes. El generador de imágenes adquiere al menos una imagen de al menos un marcador de referencia de tejido. El módulo de generación de imágenes y seguimiento determina además la información relacionada con el P&O de la herramienta. El procesador determina la P&O del marcador de referencia de tejido según la imagen adquirida del marcador de referencia de tejido. El procesador determina la P&O del tejido ocular de interés, de acuerdo con la P&O del marcador de referencia de tejido, y una P&O relativa predeterminada entre el marcador de referencia de tejido y el tejido ocular de interés. El procesador también determina la P&O de una punta de herramienta de acuerdo con un marcador de herramienta y determina la P&O relativa entre la punta de herramienta y el tejido ocular de interés. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema y método para determinar la posición y orientación de una punta de herramienta en relación con el tejido ocular de interés
Campo de la técnica descrita
La técnica descrita se refiere a sistemas y métodos para prevenir en general la ruptura del tejido ocular de interés, y, en particular, a un sistema y método para determinar la posición y orientación de la punta de una herramienta en relación con el tejido ocular de interés. El método no forma parte de la invención tal como se define en las reivindicaciones.
Antecedentes de la técnica descrita
La estructura óptica del ojo incluye tejidos transparentes delgados y frágiles como la córnea, el iris, el cristalino y la cápsula de cristalino. Las intervenciones quirúrgicas comunes en oftalmología (por ejemplo, cirugía de cataratas, colocación de LIO, implantación de córnea y similares) están relacionados con el ojo frontal y se realizan utilizando un microscopio estereoscópico. En general, los tejidos del ojo son transparentes y, por lo tanto, difíciles de ver. Estas intervenciones quirúrgicas son complicadas debido a la baja visibilidad a través de los tejidos oculares transparentes. Durante estas intervenciones, el cirujano necesita cortar o evitar cortar estos tejidos transparentes. El daño a los tejidos transparentes del ojo puede causar complicaciones durante la cirugía, resultando en un largo período de recuperación del paciente, alterando el resultado de la intervención y provocando cirugías y retiros repetidos. Cuando el cirujano experimenta dificultades para realizar incisiones e intervenciones precisas utilizando el microscopio, es posible que el intervención no proporcione los resultados deseados.
Los sistemas de la técnica anterior emplean tecnologías de exploración no visual para localizar la cápsula ocular durante la cirugía. Ahora se hace referencia a la patente de EE.UU. 8,945,140 expedida a Hubschman y otros, y titulada "Intervenciones quirúrgicas que usan información de separación de límites entre instrumentos extraída de datos de escaneo de diagnóstico en tiempo real". Esta publicación se refiere a un método quirúrgico para proporcionar a un cirujano orientación adicional sobre la distancia que separa un extremo de trabajo de un instrumento y la cápsula posterior del ojo durante una intervención quirúrgica. El método implica adquirir datos tridimensionales no visuales (es decir, datos de exploración de diagnóstico) y procesar los datos de exploración para determinar la distancia entre un instrumento y el límite posterior del tejido del cristalino. Se proporciona al cirujano transmisión visual y/o auditiva de información de distancia.
La publicación de solicitud de patente de EE. UU. N.° US 2015/0335480 A1 de Alvarez y otros se refiere a un aparato y un método para establecer un sistema de coordenadas global para cirugía asistida por robot. El aparato incluye una cámara de tomografía de coherencia óptica (OCT) que escanea una región operativa y una unidad de procesamiento que construye un modelo tridimensional (3-D) de la región operativa basado en datos OCT. El sistema registra el modelo 3-D en el sistema de coordenadas global y establece los límites quirúrgicos. Para facilitar los límites quirúrgicos, las herramientas quirúrgicas se registran en tiempo real en el sistema de coordenadas global utilizando la cámara OCT, empleando tiras reflectantes que son visibles en las imágenes OCT.
La publicación de solicitud de patente de EE. UU. N.° US 2014/0364870 A1 de Alvarez y otros se refiere a un método, aparato y sistema para facilitar la retirada de material de catarata con una herramienta asistida por robot a través de láser, capacidades de irrigación y capacidades de aspiración. El sistema de cirugía robótica incluye una primera herramienta y una segunda herramienta que incluyen láseres, sensores OCT, sensores de ubicación o técnicas de imagen, sistemas de video, sensores de ubicación, etc. El sensor de ubicación localiza diferentes partes de una catarata y el tamaño de la catarata. Las técnicas de imagen incluyen imágenes tridimensionales, OCT, MRI, CT, ultrasonido, OCT intraoperatorio o sistemas de video con procesamiento. El sistema crea un mapa generado por ordenador mediante la inserción de una herramienta a través de una incisión en la córnea, en función de las partes reflectantes de la cápsula de cristalino. El sistema registra (es decir, localiza y rastrea objetos en relación con el mapa generado por ordenador) herramientas y objetos anatómicos dentro de la cámara anterior del ojo. Específicamente, el sistema utiliza una técnica basada en OCT para registrar la herramienta utilizando señales de reflexión de un marcador reflectante en la punta de herramienta y la ubicación relativa de la base de la herramienta. El sistema utiliza cinemática y cinemática inversa para calcular la ubicación de la parte restante de la herramienta, en función de las ubicaciones relativas de la base y la punta de herramienta. El sistema registra toda la herramienta con el mapa generado por ordenador utilizando una técnica de autocorrelación. Esta técnica de autocorrelación se basa en la detección de señales en la punta de herramienta en función de los reflejos de las marcas reflectantes.
La solicitud de patente de EE. UU con número de publicación: US 2015/0077528 A1 de Awdeh está dirigida a un sistema de guía quirúrgica y un método para ayudar en una intervención quirúrgica en un paciente. El sistema de guía quirúrgica incluye una fuente de imágenes que incluye uno o más dispositivos de adquisición de imágenes, un procesador y una pantalla. El dispositivo de adquisición de imágenes genera datos de vídeo en tiempo real que representan la imagen del ojo del paciente. El procesador recibe los datos de video digital, así como los datos externos de una fuente de datos externa (sistema quirúrgico o de supervisión), y genera datos de imágenes digitales compuestos basados en los datos de video digital y en los datos externos. Los datos externos incluyen información, por ejemplo otras imágenes (por ejemplo, imágenes por resonancia magnética (MRI), tomografía computarizada (CT), tomografía de coherencia óptica (OCT), rayos X, etc.). Los datos de imágenes digitales compuestas incluyen una representación de los datos externos superpuestos o superpuestos a las imágenes del paciente en los datos de vídeo. La pantalla muestra imágenes superpuestas de los datos de imágenes digitales compuestas.
Número de publicación de solicitud de patente de EE. UU.: US 2015/0173846 A1 de Schneider y otros está dirigido a un sistema de microcirugía y un método para visualizar imágenes digitales ampliadas en tiempo real de un área operada. El sistema incluye una pantalla montada en la cabeza (HMD), al menos una cámara, una unidad de memoria y un dispositivo de procesamiento. El dispositivo de procesamiento está acoplado con el HMD, con al menos una cámara y con la unidad de memoria. La cámara adquiere imágenes del área operada del área operada y la unidad de memoria almacena las imágenes. El dispositivo de procesamiento recibe una entrada que indica una región de interés (ROI) del área operada, donde el tamaño del área operada es mayor que el tamaño del ROI. El dispositivo de procesamiento produce imágenes ampliadas del ROI a partir de las imágenes del área operada. El HMD muestra a un usuario en tiempo real las imágenes ampliadas del ROI.
Compendio de la presente técnica descrita
Es un objeto de la técnica descrita proporcionar un sistema novedoso para determinar la posición y orientación (P&O) de la punta de una herramienta en relación con un tejido ocular de interés de un ojo en una intervención médica, y la herramienta incluye un marcador de herramientas. El sistema incluye un módulo de generación de imágenes y seguimiento, y un procesador junto con el módulo de generación de imágenes y seguimiento. El módulo de generación de imágenes y seguimiento incluye una cámara estereoscópica y un rastreador de herramientas. La cámara estereoscópica está configurada para adquirir imágenes de al menos un marcador de referencia de tejido. El rastreador de herramientas está configurado para adquirir información relacionada con la P&O de la herramienta. El procesador está configurado para usar una P&O relativa predeterminada entre el al menos un marcador de referencia de tejido y el tejido ocular de interés en base a un modelo tridimensional (3-D) predeterminado del ojo. El modelo 3-D predeterminado se adquiere previamente mediante tomografía de coherencia óptica (OCT) antes de la intervención médica. El procesador está configurado para determinar en tiempo real: (1) una P&O del al menos un marcador de referencia de tejido en un sistema de coordenadas de referencia, según las imágenes, (2) una P&O del tejido ocular de interés en el sistema de coordenadas de referencia, según la P&O de al menos un marcador de referencia de tejido y la P&O relativa predeterminada, y (3) una P&O de la punta de herramienta en el sistema de coordenadas de referencia, según la información, y una P&O relativa entre la punta de herramienta y el tejido ocular de interés.
Breve descripción de los dibujos
La técnica descrita se comprenderá y apreciará más plenamente a partir de la siguiente descripción detallada tomada junto con los dibujos en los que:
Las figuras 1A-1D son ilustraciones esquemáticas de un ejemplo de sistema para determinar la posición y orientación de la punta de una herramienta en relación con el tejido ocular de interés, construido y operativo según una realización de la técnica descrita;
La figura 2 es una ilustración esquemática del sistema para determinar la posición y orientación de la punta de una herramienta con respecto al tejido ocular de interés, construido y operativo según otra realización de la técnica descrita; y
La figura 3 es una ilustración esquemática del método para determinar la posición y orientación de la punta de una herramienta con respecto al tejido ocular de interés, operativo según otra realización de la técnica descrita.
Descripción detallada de las realizaciones
La técnica descrita supera las desventajas de la técnica anterior al proporcionar un sistema y un método para determinar la posición de la punta de una herramienta en relación con el tejido ocular de interés. El método no forma parte de la invención tal como se define en las reivindicaciones. Por consiguiente, un generador de imágenes adquiere al menos una imagen del ojo y específicamente de la conjuntiva, el iris, la córnea y los tejidos transparentes. La imagen o imágenes adquiridas incluyen una representación de un marcador o marcadores de referencia de tejido (por ejemplo, el iris, un marcador o marcadores de referencia, vasos sanguíneos). Un procesador determina, de forma continua y en tiempo real, la posición y orientación (abreviado en la presente memoria 'P&O') del marcador o marcadores de referencia de tejido en un sistema de coordenadas de referencia. Además, la P&O relativa entre el tejido ocular de interés y el marcador o marcadores de referencia del tejido está predeterminada. El procesador determina, de forma continua y en tiempo real, la P&O del tejido ocular de interés en el sistema de coordenadas de referencia, al menos en función de dos factores. El primer factor es la P&O relativa entre el tejido ocular de interés y el marcador o marcadores de referencia de tejido. y el segundo factor es la P&O del marcador de referencia de tejido. La P&O del tejido ocular de interés en el sistema de coordenadas de referencia define un espacio de maniobra en el que se puede maniobrar la herramienta sin causar daños no deseados al tejido (es decir, que puede o no tener en cuenta los umbrales de distancia de seguridad). Un rastreador de herramientas rastrea (es decir, determina la información relacionada con la P&O) la herramienta en el sistema de coordenadas de referencia. El procesador determina la distancia entre la punta de herramienta y el tejido ocular de interés y proporciona esta distancia determinada a un indicador de distancia. El indicador de distancia produce una indicación relativa a la distancia entre la punta de herramienta y el tejido ocular de interés. El sistema y método según la técnica descrita ayuda a los cirujanos u otros a evitar daños no deseados en la incisión del tejido ocular y específicamente en el tejido transparente.
El término 'en tiempo real' en la presente memoria antes y a continuación se refiere a operaciones (p. ej., adquisición de imágenes, determinación de P&O) realizadas a una velocidad sustancialmente alta con respecto a los requisitos del sistema (p. ej., más de 15 veces por segundo) y a una latencia sustancialmente baja en relación con los requisitos del sistema (por ejemplo, menos de 0,1 segundos). El término "continuamente" en la presente memoria antes y a continuación se refiere a realizar repetidamente una operación (por ejemplo, adquisición de imágenes, determinación de P&O) durante un período de tiempo definido.
Ahora se hace referencia a las figuras 1A-1D, que son ilustraciones esquemáticas de un ejemplo de ejemplo de sistema, generalmente referenciado con 100, para determinar la P&O de una punta de herramienta en relación con el tejido ocular de interés, construido y operativo según una realización de la técnica descrita. Se describe en la presente memoria el ejemplo de sistema 100 en el que el tejido ocular de interés en la cápsula de cristalino y el marcador de referencia del tejido es el iris. El sistema 100 incluye un generador de imágenes tridimensional (3D) 102, un procesador 104, un indicador de distancia 106 y una base de datos 108. El procesador 104 está acoplado con el generador de imágenes 3D 102, con el indicador de distancia 106 y con la base de datos 108.
El generador de imágenes 3D 102 es, por ejemplo, un generador de imágenes estereoscópico, un generador de imágenes de luz estructurada, un generador de imágenes de tiempo de vuelo (TOF) y similares. La herramienta 110 incluye un marcador de herramientas 112 que puede ser un marcador activo o un marcador pasivo. Un marcador activo es, por ejemplo, un emisor de luz (por ejemplo, diodo emisor de luz - LED) que emite luz a una longitud de onda a la que es sensible el generador de imágenes 3D 102 (es decir, el generador de imágenes 3D 102 puede adquirir imágenes del marcador de herramientas 112 y el marcador de herramientas 112 es identificable en estas imágenes). Un marcador pasivo es, por ejemplo, un reflector (es decir, un reflector especular, un retrorreflector o un reflector difusivo) que refleja la luz que incide sobre él hacia el generador de imágenes 3D 102.
El sistema 100 se emplea para rastrear (es decir, determinar la P&O) de una herramienta 110 y específicamente de la parte superior de la herramienta 111, con respecto a la anatomía de un ojo 114 en general y al tejido ocular de interés, en particular. Con ese fin, el sistema 100 determina la P&O del marcador de herramientas 112 en un sistema de coordenadas de referencia 128 según las imágenes del mismo adquiridas por el generador de imágenes 3D 102. Dado que la P&O de la punta de herramienta 111 en relación con el marcador 112 está predeterminada, el sistema 100 determina la P&O de la punta de herramienta 111.
Antes de describir la funcionalidad del sistema 100, el siguiente párrafo proporciona una breve descripción de un ojo 114. El ojo 114 incluye una córnea 116, un iris 118, una cámara anterior 120, una cápsula de cristalino 122, un cristalino 124 y una retina 126. La córnea 116 es una parte frontal transparente del ojo 114 que cubre el iris 118 y la cámara anterior 120. La córnea 116 con la cámara anterior 120, el cristalino 124, refractan la luz sobre la retina 126. El iris 118 es una estructura circular delgada responsable de controlar el diámetro y el tamaño de una pupila (no mostrada) y, por lo tanto, la cantidad de luz que llega a la retina 126. Es decir, el iris 118 es el tope de apertura y la pupila es la apertura. La cámara anterior 120 es un espacio entre el iris 118 y la superficie interna de la córnea 116, llena de humor acuoso. La cápsula de cristalino 122 es una estructura de membrana clara (es decir, transparente), que rodea completamente el cristalino 124. La cápsula de cristalino 122 ayuda a dar forma al cristalino 124 y la curvatura superficial del mismo. El cristalino 124 es una estructura biconvexa transparente que ayuda (junto con la córnea 110) a enfocar la luz que pasa a través de la retina 126. La retina 126 es la capa interna del globo ocular 114 y es una capa de tejido sensible a la luz.
La base de datos 108 almacena información relacionada con la P&O relativa entre un iris y una cápsula de cristalino. Esta P&O relativa es sustancialmente constante. La base de datos 108 puede almacenar además información relacionada con la forma y el tamaño de una cápsula de cristalino. Esta información almacenada se emplea para definir un modelo volumétrico de una cápsula de cristalino. Durante un procedimiento, el generador de imágenes 3D 102 adquiere continuamente imágenes 3D del iris 118. El generador de imágenes 3D 102 proporciona las imágenes 3D adquiridas al procesador 104. El procesador 104 determina, de forma continua y en tiempo real, la P&O del iris 118 en el sistema de coordenadas de referencia 128 según a las imágenes adquiridas. El procesador 104 determina entonces, de forma continua, en tiempo real, la P&O de la cápsula de cristalino 122 en el sistema de coordenadas de referencia 128, según la P&O determinada del iris 118 y según la P&O relativa entre un iris y un modelo de cápsula de cristalino almacenada en la base de datos 108. Por lo tanto, el procesador 104 determina un espacio de maniobra permitido en el que la herramienta 110 se puede maniobrar 110 sin causar daños no deseados al tejido.
Cuando la herramienta 110 u otra herramienta (es decir, que también está equipada con un marcador similar al marcador de herramientas 112) se inserta en la cápsula de cristalino 122 (es decir, manual o automáticamente), el generador de imágenes 3D 102 adquiere imágenes en tiempo real del marcador de herramientas 112 y proporciona las imágenes adquiridas en tiempo real al procesador 104. El procesador 104 determina la P&O de la punta de herramienta 111 en el sistema de coordenadas de referencia 128 en tiempo real. Luego, el procesador 104 determina la distancia entre la punta de herramienta 111 y la cápsula de cristalino 122 y proporciona esta distancia determinada al indicador de distancia 106. Esta distancia es, por ejemplo, la distancia más pequeña a la cápsula de cristalino 122 o la distancia entre la punta de herramienta 111 y la del cápsula de cristalino 122 en la dirección en la que se orienta la punta de herramienta 111. El indicador de distancia 106 produce una indicación relacionada con la distancia entre la punta de herramienta 111 y los límites de la cápsula de cristalino 122.
La indicación producida por el indicador de distancia 106 puede ser una indicación visual tal como una representación numérica de la distancia, barras de distancia y similares. Como ejemplo adicional, la indicación visual se puede presentar en una pantalla (por ejemplo, una pantalla LCD, una pantalla de visualización frontal, una pantalla cercana a los ojos y similares). La indicación visual también puede ser un modelo 3D (es decir, el modelo almacenado mencionado anteriormente o un modelo diferente) del ojo junto con un símbolo de la herramienta 110. La P&O del símbolo de la herramienta 110 en la pantalla, relativa a la posición del modelo 3D del ojo corresponde a la P&O relativa entre la herramienta 110 y la cápsula de cristalino 122. La indicación visual puede incluir además un símbolo intermitente, donde la frecuencia del parpadeo es inversamente proporcional a la distancia entre la punta de herramienta 111 y la cápsula de cristalino 122. La indicación puede ser alternativa o adicionalmente una indicación de audio, tal como un sonido con un tono o volumen o ambos, que varía según la distancia. El sonido puede ser también de voz indicando o avisando de la distancia dependiendo de la distancia a la cápsula. Como alternativa adicional o además, el indicador de distancia 106 puede indicar que la distancia entre la punta de herramienta 111 y la cápsula de cristalino 122 está por debajo de un umbral. En el ejemplo expuesto anteriormente, el procesador determina toda la cápsula de cristalino 122 como el espacio de maniobra en el que se puede maniobrar 110 la herramienta 110 sin causar daños no deseados al tejido (es decir, sin tener en cuenta los umbrales de seguridad). Sin embargo, este espacio de maniobra puede limitarse aún más (es decir, teniendo en cuenta los umbrales de seguridad). Por ejemplo, con referencia a la figura 1D, el procesador 104 puede definir un límite virtual 130 relacionado con la cápsula del cristalino 124 o una parte del mismo. Este límite virtual limita aún más el espacio de maniobra en el que el usuario puede maniobrar la herramienta 110 sin causar daños no deseados al tejido. Cuando la herramienta 110 cruza ese límite virtual, se produce una indicación como se describió anteriormente. Este límite virtual también puede mostrarse al usuario como parte del modelo 3D mencionado anteriormente.
Como se mencionó anteriormente, la herramienta 110 puede moverse automáticamente. Por ejemplo, la herramienta 110 está unida a un robot (no mostrado), tal como un brazo robótico, que está acoplado con el procesador 104. El procesador 104 instruye al robot para que mueva la herramienta 110 hacia la cápsula de cristalino 122 según la P&O de la herramienta 110 y de la cápsula de cristalino 122. El procesador 104 puede ordenar además al robot que se detenga, por ejemplo, cuando la distancia entre la punta de herramienta 111 y la cápsula de cristalino 122 está por debajo de un umbral.
La precisión de la estimación de la P&O mencionada anteriormente, la estructura geométrica y el tamaño de la cápsula de cristalino 122 en el sistema de coordenadas de referencia 128 (es decir, la precisión del modelo volumétrico) puede mejorarse (es decir, ajustarse más a los valores reales) adquiriendo información relativa a la P&O real de la cápsula de cristalino 122. Con ese fin, y con referencia a la figura 1B, se mueve la herramienta 110. El generador de imágenes 3D 102 adquiere una imagen o imágenes 3D respectivas del marcador de herramientas 112, cuando la punta de herramienta 111 está en contacto o en contacto cercano con el límite exterior de la cápsula de cristalino 122, en uno o más puntos (por ejemplo, determinado al mirar la punta de herramienta 111 a través de un microscopio). El generador de imágenes 3D 102 proporciona la imagen adquirida al procesador 104. Con referencia a la figura 1C, la herramienta 110 continúa moviéndose. El generador de imágenes 3D 102 adquiere otra imagen o imágenes 3D respectivas del marcador de herramientas 112, cuando la punta de herramienta 111 está en contacto, o en contacto cercano, con el límite interno de la cápsula de cristalino 122, en uno o más puntos. El procesador 104 determina las posiciones y, opcionalmente, las orientaciones de la punta de herramienta 111 en el sistema de coordenadas de referencia 128 , cuando la punta de herramienta 111 está en contacto, o en estrecho contacto, con los puntos límite exterior e interior de la cápsula de cristalino 122. Según las posiciones y/u orientación determinadas de la punta de herramienta 111, el procesador 104 determina un modelo de cápsula de cristalino 122 estimando la estructura geométrica y el tamaño de la cápsula de cristalino 122, así como la P&O de la cápsula de cristalino 122 en el sistema de coordenadas de referencia 128. Por ejemplo, cuando solo se emplean dos puntos (es decir, uno en el límite exterior y otro en el límite interior de la cápsula de cristalino 122), el procesador 104 determina a continuación una aproximación del ancho de la cápsula de cristalino 122. Sin embargo, determinar las posiciones y orientaciones de la punta de herramienta 111, cuando la punta de herramienta 111 está en contacto, o en estrecho contacto, con los límites exterior e interior de la cápsula de cristalino 122 en más de un punto aumenta la precisión de la estimación mencionada anteriormente de la estructura geométrica, el tamaño, la posición y la orientación de la cápsula de cristalino 122.
Al determinar la P&O de la cápsula de cristalino 122 en tiempo real, el procesador 104 puede emplear además las posiciones antes mencionadas de la punta de herramienta 111, cuando la punta de herramienta 111 está en contacto, o en estrecho contacto, con los límites exterior e interior de la cápsula de cristalino 122, para mejorar la precisión de la P&O determinada de la cápsula de cristalino 122 (por ejemplo, empleando las ubicaciones de estos puntos límite como restricciones). Según otra alternativa, el modelado de la cápsula de cristalino 122 antes de la intervención puede lograrse empleando técnicas de formación de imágenes. Por ejemplo, antes de la intervención se adquiere una imagen de tomografía de coherencia óptica (OCT) o una imagen de ultrasonido del ojo (es decir, una imagen modelo). Esta imagen incluye una representación de la cápsula de cristalino 122. La estructura geométrica y el tamaño de la cápsula de cristalino 122 pueden derivarse de tales imágenes empleando técnicas de procesamiento de imágenes. Además, la P&O relativa entre el iris 118 y la cápsula de cristalino 122 puede determinarse a partir de las imágenes adquiridas cuando tanto la cápsula de cristalino 122 como el iris 118 son visibles en la imagen del modelo. Se observa que, en general, el modelado de la cápsula de cristalino 122 y la determinación de la P&O del iris 118 se pueden realizar de forma secuencia! o simultánea.
Como se describió anteriormente, el procesador 104 emplea el iris 118 como marcador de referencia de tejido y determina la P&O del iris 118 en el sistema de coordenadas de referencia 128. Sin embargo, el marcador de referencia de tejido puede ser cualquier marcador detectable por el generador de imágenes 3D 102, donde la P&O relativa entre la cápsula de cristalino 122 y el marcador están predeterminados. Por ejemplo, el marcador de referencia de tejido puede ser la conjuntiva, vasos sanguíneos dentro de la conjuntiva o dentro de otros órganos del ojo. Alternativamente, el marcador de referencia de tejido puede ser un marcador artificial (por ejemplo, un marcador fiduciario) colocado en el ojo. Por ejemplo, el marcador de referencia de tejido se fija mediante un parche a la cápsula de cristalino 122 cuando se determinan los límites de la cápsula de cristalino 122. Como otro ejemplo, el marcador de referencia de tejido se dibuja en el ojo con un rotulador dedicado. Para determinar la P&O del marcador de referencia de tejido en la imagen 3D adquirida, el procesador 104 emplea técnicas de procesamiento de imágenes. Por ejemplo, cuando el marcador de referencia de tejido es el iris 118, el procesador 104 identifica el iris en la imagen 3D adquirida al identificar un círculo negro que se relaciona con la pupila rodeada por un primer anillo, que se relaciona con el iris, rodeado por un segundo anillo que se relaciona con el limbo. Por lo tanto, el patrón y la forma del iris proporcionan un marcador de referencia de tejido perceptible para el sistema. La P&O del primer anillo se relaciona con la posición del iris 118.
El sistema descrito anteriormente en la presente memoria junto con las figuras 1A-1C se refiere a un ejemplo de sistema en el que se emplea un generador de imágenes 3D para la obtención de imágenes y para el seguimiento y en el que el tejido ocular de interés es la cápsula de cristalino y el marcador de referencia del tejido es el iris. En general, un sistema según la técnica descrita puede emplear diversas técnicas para el seguimiento de una herramienta médica, como el seguimiento óptico, el seguimiento electromagnético, el seguimiento por ultrasonidos y el seguimiento inercial. Además, como se mencionó anteriormente, el generador de imágenes 3D puede ser cualquiera de varios generadores de imágenes 3D, tal como una cámara estereoscópica, un generador de imágenes de luz estructurada o una cámara TOF. Alternativamente, el generador de imágenes puede ser un generador de imágenes bidimensional (2D). Cuando el generador de imágenes es un generador de imágenes 2D, se colocan al menos tres marcadores artificiales en el ojo. Además, el tejido ocular de interés puede ser otro tejido ocular, por ejemplo, la retina. Ahora se hace referencia a la figura 2, que es una ilustración esquemática de un sistema, generalmente denominado 200, para determinar la P&O de la punta de una herramienta en relación con el tejido ocular de interés, construido y operativo según otra realización de la técnica descrita. El funcionamiento del sistema 200 es similar al funcionamiento del sistema 100 descrito anteriormente junto con las figuras 1A-1C. El sistema 200 incluye un módulo de generación de imágenes y seguimiento 202, un procesador 204, un indicador de distancia 206, una base de datos 208 y un marcador de herramientas 210. El módulo de generación de imágenes y seguimiento 202 incluye al menos un generador de imágenes 212. El generador de imágenes 212 puede ser un generador de imágenes 3D o un generador de imágenes 2D. El módulo de generación de imágenes y seguimiento 202 incluye opcionalmente una fuente de luz 214 y un rastreador de herramientas 216 (es decir, como se indica mediante las líneas discontinuas). El procesador 204 está acoplado con el módulo de visualización y seguimiento 202, con el indicador de distancia 206 y con la base de datos 208. El marcador de herramientas 210 está acoplado con el módulo de visualización y seguimiento 202.
Cuando el generador de imágenes 212 es un generador de imágenes en 3D, el generador de imágenes 212 adquiere una imagen o imágenes en 3D del ojo. El término "imagen 3D" se refiere en la presente memoria antes y a continuación a datos de imagen que incluyen información relacionada con la P&O (es decir, en un sistema de coordenadas de referencia) de las diversas características de la escena. Cuando el generador de imágenes 212 es un generador de imágenes en 3D, el generador de imágenes 212 puede incorporarse como una cámara estereoscópica, que adquiere dos imágenes del ojo desde dos perspectivas diferentes. Cuando el generador de imágenes 212 es una cámara estereoscópica, la fuente de luz 214 es opcional. El generador de imágenes 212 se puede realizar alternativamente como un generador de imágenes de luz estructurada. En tal caso, la fuente de luz 214 ilumina el ojo con luz estructurada y el generador de imágenes 212 adquiere una imagen (es decir, puede ser una imagen bidimensional) del ojo iluminado (es decir, con la luz estructurada). Según otra alternativa, el generador de imágenes 212 puede ser una cámara TOF. Por consiguiente, la fuente de luz 214 emite pulsos temporales de luz hacia el ojo. El generador de imágenes 212 está sincronizado en el tiempo con la fuente de luz 214 y adquiere una imagen o imágenes del ojo. El generador de imágenes 12 integra la luz solo cuando se espera que el pulso de luz se refleje hacia el generador de imágenes. La diferencia entre el momento en el que la fuente de luz 214 emite un pulso y el momento en que el generador de imágenes 212 adquiere una imagen del pulso de luz reflejada está relacionada con la distancia entre el generador de imágenes 212 y el módulo de seguimiento 202 y el objeto que se rastrea. Cuando el generador de imágenes 212 es un generador de imágenes 2D, el generador de imágenes 212 adquiere una imagen o imágenes 2D de al menos tres marcadores de referencia de tejido artificial colocados en el ojo. Las posiciones relativas entre los marcadores artificiales son conocidas (por ejemplo, almacenadas en la base de datos 208 cuando se requiere un grado de precisión relativamente alto). Alternativamente, las posiciones relativas entre los marcadores se determinan, por ejemplo, colocando la punta de herramienta en cada marcador, determinando la posición de cada marcador en el sistema de coordenadas de referencia 218 y determinando, por consiguiente, las posiciones relativas entre los marcadores.
En general, el rastreador de herramientas 216 adquiere al menos información relacionada con la P&O del marcador de herramientas 210 en el sistema de coordenadas de referencia 218. Según una alternativa, similar a la descrita anteriormente junto con la figura 1A-1C, el rastreador de herramientas 216 y el generador de imágenes 212 son uno y el mismo. Por consiguiente, de manera similar a lo descrito anteriormente, el marcador de herramientas 210 es un marcador activo o pasivo. Por ejemplo, el marcador de herramientas 210 es una matriz de LED o marcadores de referencia ubicados en la herramienta e identificables en una imagen adquirida por el generador de imágenes 212. Por lo tanto, se considera que el marcador de herramientas 210 está acoplado ópticamente con el módulo de generación de imágenes y seguimiento 202 y el marcador de herramientas P&O 210 se determina según las imágenes adquiridas por el generador de imágenes 212. Según otra alternativa, el rastreador de herramientas 216 es un rastreador óptico diferente del generador de imágenes 212. En ambos casos, la información relacionada con la P&O del marcador de herramientas 210 son imágenes del marcador de herramientas 210. El rastreador de herramientas 216 también puede rastrear la herramienta según la forma de la misma. La forma de la herramienta puede almacenarse en la base de datos 208 en base a un modelo de herramienta adquirido durante una etapa de aprendizaje preliminar del sistema 200. Por consiguiente, el generador de imágenes 212 adquiere una imagen 3D de la herramienta.
Según otra alternativa, el rastreador de herramientas 216 es un rastreador electromagnético y el marcador de herramientas 210 es al menos un sensor electromagnético (por ejemplo, bobinas, sensores de efecto Hall). Por lo tanto, se considera que el marcador de herramientas 210 está acoplado electromagnéticamente con el módulo de generación de imágenes y seguimiento 202 y la P&O del marcador de herramientas 210 se determina según las mediciones de un campo magnético por parte de los sensores electromagnéticos. El electromagnético es generado por el rastreador de herramientas 216.
Según otra alternativa más, el rastreador de herramientas 216 es un rastreador ultrasónico y el marcador de herramientas 210 incluye al menos un transductor ultrasónico y el rastreador de herramientas 216 incluye al menos tres receptores ultrasónicos. Por lo tanto, se considera que el marcador de herramientas 210 está acoplado ultrasónicamente con el módulo de generación de imágenes y seguimiento 202 y la P&O del marcador de herramientas 210 se determina según las mediciones del tiempo transcurrido entre la transmisión y la recepción del sonido y la velocidad del sonido en el medio.
Según otra alternativa más, el rastreador de herramientas 216 es un sistema de navegación inercial y el marcador de herramientas 210 es una Unidad de Medición Inercial (IMU). El marcador de herramientas 210 proporciona información sobre las aceleraciones lineales y rotacionales de la herramienta y el rastreador de herramientas determina la P&O del marcador de herramientas 210 en relación con una referencia inicial conocida.
Según una realización, el procesador 204 determina la P&O del marcador de herramientas 210 según la información relacionada con la P&O del marcador de herramientas 210 proporcionada por el rastreador de herramientas 216. Alternativamente, el rastreador de herramientas 216 determina la P&O del marcador de herramientas 210 y proporciona la P&O determinada al procesador 204. En ambos casos, el procesador 204 determina la P&O de la punta de herramienta y la distancia entre la punta de herramienta y el tejido ocular de interés.
El procesador 204 incluye el componente necesario para realizar operaciones informáticas, tal como una unidad central de procesamiento que puede implementarse con un microprocesador convencional, una memoria de acceso aleatorio (RAM) para el almacenamiento temporal de información y una memoria de solo lectura (ROM) para el almacenamiento permanente de información. Se proporciona un controlador de memoria para controlar la RAM. Un bus interconecta los componentes del sistema procesador. Se proporciona un controlador de bus para controlar el bus. Un controlador de interrupción se utiliza para recibir y procesar diversas señales de interrupción de los componentes del sistema. El almacenamiento masivo puede ser proporcionado por una unidad de disco duro (HDD) o por una unidad flash. El sistema procesador incluye además una interfaz de red que permite que el sistema se interconecte a una red de área local (LAN) o una red de área amplia (WAN). El funcionamiento del procesador generalmente está controlado y coordinado por el software del sistema operativo que se puede almacenar en la memoria. El procesador 204 proporciona esta distancia determinada al indicador 206. El indicador de distancia 206 proporciona una indicación de la distancia entre la punta de herramienta y el tejido ocular de interés similar a la descrita anteriormente.
Durante una intervención, el generador de imágenes 212 adquiere continuamente imágenes del marcador o marcadores de referencia de tejido. El generador de imágenes 212 proporciona las imágenes adquiridas al procesador 204. Las imágenes adquiridas incluyen información relativa a la posición y orientación del marcador o marcadores de referencia de tejido. Por ejemplo, cuando el generador de imágenes 212 es una cámara estereoscópica, la relación entre la posición de una característica de imagen en una imagen adquirida por una cámara y la posición de la misma característica de imagen en una imagen adquirida por la segunda cámara está asociada con la posición de la característica real en el sistema de coordenadas de referencia 218. Al identificar las características de imagen asociadas con el marcador o marcadores de referencia de tejido, se puede determinar la posición y orientación de las mismas en el sistema de coordenadas de referencia 218. Cuando el generador de imágenes 212 es un generador de imágenes 2D, el generador de imágenes 212 adquiere una imagen de al menos tres marcadores artificiales. La ubicación de los píxeles de la imagen de cada marcador está asociada con dos ángulos (es decir, un ángulo horizontal y un ángulo vertical medidos desde el centro del sensor de imágenes). En esencia, estos ángulos, junto con la posición relativa conocida entre los marcadores de referencia del tejido, definen seis ecuaciones con seis incógnitas (es decir, tres para la posición y tres para la orientación). Por tanto, el procesador 204, continuamente y en tiempo real, determina la P&O del marcador de referencia de tejido en un sistema de coordenadas de referencia 218 según las imágenes adquiridas. Luego, el procesador 204 determina, de forma continua y en tiempo real, la P&O del tejido ocular de interés en el sistema de coordenadas de referencia 218, según la P&O determinada del marcador de referencia de tejido y según la P&O relativa almacenada entre el marcador o marcadores de referencia de tejido y el tejido ocular. Así, el procesador 204 determina un espacio de maniobra en el que el usuario puede maniobrar la herramienta 110 sin causar daños no deseados al tejido (es decir, que puede tener o no en cuenta los umbrales de distancia de seguridad).
El procesador 204 determina la P&O de la punta de herramienta en tiempo real y determina la distancia entre la punta de herramienta y el tejido ocular de interés. El procesador 204 proporciona esta distancia determinada al indicador 206. El indicador de distancia 206 proporciona una indicación de la distancia entre la punta de herramienta y el tejido ocular de interés similar a la descrita anteriormente. Similar al sistema 100, un espacio de maniobra, en el que el usuario puede maniobrar la herramienta 110 en el que la herramienta puede maniobrarse sin causar daños no deseados al tejido, tiene en cuenta los umbrales de distancia de seguridad, por ejemplo, definiendo un límite virtual relacionado con el tejido ocular de interés. Cuando la herramienta cruza ese límite virtual, se produce una indicación descrita anteriormente.
La precisión de la estimación de la estructura geométrica, el tamaño, la posición y la orientación del tejido ocular de interés en el sistema de coordenadas de referencia 218 puede mejorarse modelando el tejido ocular antes de la intervención. Con ese fin, el procesador 204 emplea las posiciones de la punta de herramienta, cuando la punta de herramienta está en contacto, o en estrecho contacto, con el tejido ocular de interés en más de un punto. Según otra alternativa, el modelado del ojo y del tejido ocular de interés antes de la intervención puede lograrse empleando técnicas de formación de imágenes. Por ejemplo, antes de la intervención se adquiere una imagen de tomografía de coherencia óptica (OCT) o una imagen de ultrasonido del ojo (es decir, una imagen modelo). Esta imagen modelo incluye una representación del tejido ocular de interés. La estructura geométrica y el tamaño del tejido ocular de interés pueden derivarse de tales imágenes empleando técnicas de procesamiento de imágenes. Cuando el ojo y el tejido ocular de interés con técnicas de formación de imágenes y la P&O relativa entre el marcador de referencia del tejido (es decir, anatómico o biológico) y el tejido ocular de interés pueden determinarse a partir de las imágenes adquiridas cuando tanto el tejido ocular de interés como el marcador de referencia de tejido son visibles en la imagen del modelo.
Como se mencionó anteriormente, el tejido ocular de interés puede ser la retina. En tal caso, el marcador de referencia es preferiblemente un marcador fiduciario y la P&O de la retina se calcula con respecto al mismo. El procesador 204 determina la P&O de la punta de herramienta en tiempo real y determina la distancia entre la punta de herramienta y la retina. El procesador 204 proporciona esta distancia determinada al indicador de distancia 206. El indicador de distancia 206 proporciona una indicación de la distancia entre la punta de herramienta y el tejido ocular de interés similar a la descrita anteriormente.
Ahora se hace referencia a la figura 3, que es una ilustración esquemática de un método para determinar la posición y orientación de la punta de una herramienta en relación con un tejido ocular de interés, operativo según una realización adicional de la técnica descrita. En el procedimiento 250, se adquiere al menos una imagen de al menos un marcador de referencia de tejido en un sistema de coordenadas de referencia. La imagen o imágenes pueden ser imágenes 2D o imágenes 3D. Las imágenes 3D pueden ser una imagen estereoscópica, una imagen de luz estructurada o una imagen TOF. Cuando la imagen o imágenes son imágenes 2D, se emplean al menos tres marcadores de referencia de tejido. Con referencia a la figura 2, el generador de imágenes 212 adquiere una imagen de al menos un marcador de referencia de tejido. Después de la intervención 250, el método pasa al procedimiento 254.
En el procedimiento 252, se modela el tejido ocular de interés. El tejido ocular de interés se modela, por ejemplo, mejorando la precisión de la información a priori relacionada con las estimaciones de P&O, la estructura geométrica y el tamaño del tejido ocular de interés, determinando la posición y, opcionalmente, la orientación de la punta de herramienta cuando la punta de herramienta está en contacto, o en estrecho contacto, con puntos del tejido. Alternativamente, el tejido ocular de interés se modela empleando imágenes tales como OCT o imágenes por ultrasonido. Por ejemplo, con referencia a las figuras 1A-1C y 2, el procesador 204 determina un modelo del tejido ocular de interés. Con ese fin, la herramienta 110 se mueve. El rastreador de herramientas 216 adquiere información relacionada con la posición de la punta de herramienta cuando la punta de herramienta está en contacto, o en estrecho contacto, con el tejido ocular de interés en uno o más puntos y proporciona la información adquirida al procesador 204. El procesador 204 determina un modelo del cristalino del tejido ocular de interés estimando la estructura geométrica y el tamaño del mismo, así como la P&O en un sistema de coordenadas de referencia 218. Después del procedimiento 252, el método continúa con el procedimiento 256. También, se observa que el procedimiento 252 es opcional.
En el procedimiento 254, la P&O de un marcador o marcadores de referencia de tejido se determina en el sistema de coordenadas de referencia. La P&O del al menos un marcador de referencia tisular se determina de forma continua y en tiempo real según la imagen o imágenes adquiridas de la misma. El marcador de referencia de tejido puede ser un marcador anatómico tal como el iris. Sin embargo, el marcador o marcadores de referencia de tejido también pueden ser la conjuntiva, vasos sanguíneos dentro de la conjuntiva o dentro de otros órganos del ojo. Alternativamente, el marcador o marcadores de referencia de tejido pueden ser marcadores artificiales colocados en el ojo, tal como un parche adherido, marcadores fiduciarios o marcadores de bolígrafo dedicados dibujados en el ojo. Con referencia a la figura 2, el procesador 204 determina la P&O de un marcador de referencia de tejido en el sistema de coordenadas de referencia 218.
En el procedimiento 256, la P&O del tejido ocular de interés se determina en el sistema de coordenadas de referencia. La P&O del tejido ocular de interés se determina, de forma continua y en tiempo real, según la P&O del marcador o marcadores de referencia de tejido y según la P&O relativa predeterminada entre el marcador o marcadores de referencia de tejido y el tejido ocular de interés. Así, se determina un espacio de maniobra en el que se puede maniobrar una herramienta sin causar daños no deseados al tejido (es decir, que puede tener o no en cuenta los umbrales de distancia de seguridad). Con referencia a la figura 2, el procesador 204 determina la P&O del tejido ocular de interés. Se observa que el procedimiento 254 es opcional. Después del procedimiento 254, el método pasa al procedimiento 258.
En el procedimiento 258, la P&O de la punta de una herramienta se determina en el sistema de coordenadas de referencia. Con referencia a la figura 2, el rastreador de herramientas 216 adquiere información relativa a la P&O de la punta de herramienta y el procesador 204 determina, por consiguiente, la P&O de la punta de herramienta .
En el procedimiento 260, se determina la distancia entre la punta de herramienta y el tejido ocular de interés. Con referencia a la figura 2, el procesador 204 determina la distancia entre la punta de herramienta y el tejido ocular de interés.
En el procedimiento 262, se produce una indicación relativa a la distancia entre la punta de herramienta y el tejido ocular de interés. Esta indicación puede ser una indicación visual tal como una representación numérica de la distancia o un conjunto de diodos emisores de luz, barras de distancia y similares. Como ejemplo adicional, la indicación visual se puede presentar en una pantalla (por ejemplo, una pantalla LCD, una pantalla de visualización frontal, una pantalla cercana al ojo y similares) que debe mostrar el modelo 3D determinado del ojo a lo largo de con un símbolo la herramienta. La indicación puede ser alternativa o adicionalmente una indicación de audio tal como un sonido con un tono o volumen, o ambos, que varía según la distancia. Como alternativa adicional o además, se produce una indicación que puede indicar que la distancia entre la punta de herramienta y el tejido ocular de interés está por debajo de un umbral. Con referencia a la figura 2, el indicador de distancia 206 produce una indicación relativa a la distancia entre la punta de herramienta y el tejido ocular de interés.
Los expertos en la materia apreciarán que la invención no se limita, en particular, a lo que se ha mostrado y descrito anteriormente. Más bien, el alcance de la invención está definido únicamente por las reivindicaciones que siguen.

Claims (8)

REIVINDICACIONES
1. Un sistema para determinar la posición y orientación (P&O) de una punta de herramienta (111) de una herramienta (110) en relación con un tejido ocular de interés de un ojo (114) en una intervención médica, incluyendo la herramienta un marcador de herramientas (112, 210), comprendiendo el sistema:
un módulo de generación de imágenes y seguimiento (202) que incluye una cámara estereoscópica (212) y un rastreador de herramientas (216), estando configurada dicha cámara estereoscópica para adquirir imágenes de al menos un marcador de referencia de tejido, estando configurado dicho rastreador de herramientas para adquirir información relacionada con la P&O de dicha herramienta; y
un procesador (104, 204), acoplado con dicho módulo de generación de imágenes y seguimiento, estando configurado dicho procesador para usar una P&O relativa predeterminada entre dicho al menos un marcador de referencia de tejido y dicho tejido ocular de interés basado en un modelo tridimensional predeterminado (3-D) de dicho ojo, siendo preadquirido dicho modelo 3-D predeterminado mediante tomografía de coherencia óptica (OCT) antes de dicha intervención médica, estando configurado dicho procesador para determinar en tiempo real:
P&O de dicho al menos un marcador de referencia tisular en un sistema de coordenadas de referencia, según dichas imágenes,
P&O de dicho tejido ocular de interés en dicho sistema de coordenadas de referencia, según dicho P&O de dicho al menos un marcador de referencia de tejido y dicho P&O relativo predeterminado,
P&O de dicha punta de herramienta en dicho sistema de coordenadas de referencia, según dicha información, y una P&O relativa entre dicha punta de herramienta y dicho tejido ocular de interés.
2. El sistema según la reivindicación 1 que comprende además: un indicador de distancia, en el que dicho indicador de distancia es una pantalla, dicho indicador de distancia está acoplado con dicho procesador, dicho procesador está configurado para determinar una distancia entre dicha punta de herramienta y dicho tejido ocular de interés.
3. El sistema según la reivindicación 2, en el que dicha pantalla está configurada para mostrar: un símbolo de herramienta en dicho modelo 3-D predeterminado, en el que una P&O de dicho símbolo de herramienta en relación con dicho modelo 3-D predeterminado corresponde a dicha P&O relativa, y a dicha distancia.
4. El sistema según la reivindicación 2, en el que dicha pantalla es una pantalla frontal o una pantalla montada en la cabeza.
5. El sistema según la reivindicación 2, en el que dicho indicador de distancia está configurado para proporcionar una indicación de audio que varía en al menos uno de volumen y tono según dicha distancia.
6. El sistema según la reivindicación 1, en el que dicho al menos un marcador de referencia tisular incluye una pluralidad de marcadores artificiales.
7. El sistema según la reivindicación 1, en el que dicho al menos un marcador de referencia tisular es al menos uno de:
un iris,
una conjuntiva,
vasos sanguíneos dentro de dicha conjuntiva, y
un marcador artificial.
8. El sistema según la reivindicación 1, que comprende además: una base de datos acoplada con dicho procesador, estando configurada dicha base de datos para almacenar dicho modelo 3-D predeterminado.
ES16881397T 2015-12-28 2016-12-22 Sistema y método para determinar la posición y orientación de una punta de herramienta en relación con el tejido ocular de interés Active ES2935796T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IL243384A IL243384A (en) 2015-12-28 2015-12-28 A method and system for determining the position and orientation of an instrument's tip relative to eye tissue
PCT/IL2016/051370 WO2017115352A1 (en) 2015-12-28 2016-12-22 System and method for determining the position and orientation of a tool tip relative to eye tissue of interest

Publications (1)

Publication Number Publication Date
ES2935796T3 true ES2935796T3 (es) 2023-03-10

Family

ID=55646028

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16881397T Active ES2935796T3 (es) 2015-12-28 2016-12-22 Sistema y método para determinar la posición y orientación de una punta de herramienta en relación con el tejido ocular de interés

Country Status (7)

Country Link
US (1) US10433916B2 (es)
EP (1) EP3397217B1 (es)
JP (1) JP6986017B2 (es)
CN (1) CN108601669B (es)
ES (1) ES2935796T3 (es)
IL (1) IL243384A (es)
WO (1) WO2017115352A1 (es)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018059838A1 (en) 2016-09-27 2018-04-05 Brainlab Ag Efficient positioning of a mechatronic arm
EP3545675A4 (en) 2016-11-24 2020-07-01 The University of Washington CAPTURE AND RESTITUTION OF LIGHT FIELD FOR HEADSETS
US11116420B2 (en) * 2017-12-26 2021-09-14 Biosense Webster (Israel) Ltd. Monitoring distance to selected anatomical structures during a procedure
EP3657434A1 (en) 2018-11-23 2020-05-27 Ferton Holding S.A. System and method for determining a status of an instrument tip of a dental or medical treatment device and a software product and/or network for per-forming said method
CN109480767B (zh) * 2018-12-13 2021-03-19 孙艳 一种医用眼科手术前用辅助检查装置
EP3725277A1 (de) * 2019-04-17 2020-10-21 Ziemer Ophthalmic Systems AG Ophthalmologische vorrichtung zum bearbeiten eines auges
US11980573B2 (en) 2019-12-05 2024-05-14 Johnson & Johnson Surgical Vision, Inc. Eye examination apparatus
DE102020102012B4 (de) 2020-01-28 2022-12-01 Carl Zeiss Meditec Ag Anordnung mit einer OCT-Einrichtung für das Ermitteln einer 3D-Rekonstruktion eines Objektbereichsvolumens sowie Computerprogramm und computerimplementiertes Verfahren hierfür
DE102020102011A1 (de) 2020-01-28 2021-07-29 Carl Zeiss Meditec Ag Augenchirurgie-Operationssystem mit einer OCT-Einrichtung sowie Computerprogramm und computerimplementiertes Verfahren für das fortlaufende Ermitteln einer Lage eines Chirurgie-Gegenstands
CN111166472B (zh) * 2020-02-27 2020-11-06 连云港市第一人民医院 一种眼科手术训练用机械臂
US10949986B1 (en) 2020-05-12 2021-03-16 Proprio, Inc. Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene
CN111588469B (zh) * 2020-05-18 2021-02-02 四川大学华西医院 眼科机器人末端执行器引导和定位系统
US12070276B2 (en) * 2020-06-09 2024-08-27 Globus Medical Inc. Surgical object tracking in visible light via fiducial seeding and synthetic image registration
CA3183162A1 (en) 2020-06-19 2021-12-23 Jake Anthony Sganga Systems and methods for guidance of intraluminal devices within the vasculature
US20220007937A1 (en) * 2020-07-13 2022-01-13 Johnson & Johnson Surgical Vision, Inc. Probe for eye examination using a distal convex mirror
CN112006777B (zh) * 2020-07-31 2022-03-29 清华大学 基于表面跟踪的打钉手术机器人系统及控制方法
EP4205628A4 (en) * 2020-10-27 2024-10-16 Riverfield Inc SURGICAL ASSISTANCE DEVICE
US11707332B2 (en) 2021-07-01 2023-07-25 Remedy Robotics, Inc. Image space control for endovascular tools
CA3222522A1 (en) 2021-07-01 2023-01-05 David James Bell Vision-based position and orientation determination for endovascular tools
CN118251189A (zh) * 2021-09-07 2024-06-25 泽塔外科手术公司 用于机器人手术控制和导航的系统和方法
US12016642B2 (en) 2021-09-08 2024-06-25 Proprio, Inc. Constellations for tracking instruments, such as surgical instruments, and associated systems and methods

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60030995T2 (de) * 1999-10-21 2007-06-06 Technolas Gmbh Ophthalmologische Systeme Iriserkennung und Nachführung zum Behandeln optischer Ungleichmäßigkeiten des Auges
DE01274188T1 (de) * 2001-04-27 2004-07-15 Bausch & Lomb Inc. Iris-mustererkennung und ausrichtung
DE102006002001B4 (de) * 2006-01-16 2009-07-23 Sensomotoric Instruments Gmbh Verfahren zur Bestimmung der räumlichen Relation eines Auges einer Person bezüglich einer Kameravorrichtung
US7535991B2 (en) * 2006-10-16 2009-05-19 Oraya Therapeutics, Inc. Portable orthovoltage radiotherapy
US20100324542A1 (en) * 2007-11-02 2010-12-23 Kurtz Ronald M Method to Guide a Cataract Procedure by Corneal Imaging
CN102781336B (zh) 2009-10-30 2016-01-20 约翰霍普金斯大学 用于外科手术干预的临床上重要的解剖标志的视觉跟踪和注释
US20110213342A1 (en) 2010-02-26 2011-09-01 Ashok Burton Tripathi Real-time Virtual Indicium Apparatus and Methods for Guiding an Implant into an Eye
US8945140B2 (en) 2010-06-18 2015-02-03 Vantage Surgical Systems, Inc. Surgical procedures using instrument to boundary spacing information extracted from real-time diagnostic scan data
US20120330129A1 (en) * 2011-06-23 2012-12-27 Richard Awdeh Medical visualization systems and related methods of use
US10383765B2 (en) * 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US20140142591A1 (en) 2012-04-24 2014-05-22 Auris Surgical Robotics, Inc. Method, apparatus and a system for robotic assisted surgery
IL221863A (en) * 2012-09-10 2014-01-30 Elbit Systems Ltd Digital video photography system when analyzing and displaying
US10039474B2 (en) * 2013-01-28 2018-08-07 The Johns Hopkins University System for tracking microsurgical instrumentation
EP2950763A1 (en) * 2013-02-04 2015-12-09 The Cleveland Clinic Foundation Instrument depth tracking for oct-guided procedures
WO2014201165A1 (en) * 2013-06-11 2014-12-18 Auris Surgical Robotics, Inc. System for robotic assisted cataract surgery
US10073515B2 (en) 2013-09-18 2018-09-11 Nanophthalmos, Llc Surgical navigation system and method
US9597009B2 (en) * 2013-12-19 2017-03-21 Novartis Ag Marker-based tool tracking

Also Published As

Publication number Publication date
EP3397217A1 (en) 2018-11-07
US20190000563A1 (en) 2019-01-03
JP2019500132A (ja) 2019-01-10
US10433916B2 (en) 2019-10-08
CN108601669A (zh) 2018-09-28
WO2017115352A1 (en) 2017-07-06
EP3397217A4 (en) 2019-08-14
EP3397217B1 (en) 2022-12-21
CN108601669B (zh) 2021-01-01
IL243384A (en) 2017-05-29
JP6986017B2 (ja) 2021-12-22
IL243384A0 (en) 2016-03-31

Similar Documents

Publication Publication Date Title
ES2935796T3 (es) Sistema y método para determinar la posición y orientación de una punta de herramienta en relación con el tejido ocular de interés
US10716634B2 (en) 3D system and method for guiding objects
US11484363B2 (en) System and method for determining the position and orientation of a tool tip relative to eye tissue of interest
CA2987058C (en) System and method for providing a contour video with a 3d surface in a medical navigation system
ES2952527T3 (es) Sistema de proyección de imágenes anatómicas
US10537389B2 (en) Surgical system, image processing device, and image processing method
JP7033552B2 (ja) 眼科の外科的処置用局部的光干渉断層撮影画像
US20190108645A1 (en) Method and system for registration verification
EP2329786A2 (en) Guided surgery
WO1998038908A1 (en) Imaging device and method
JP7304493B2 (ja) 対象領域ボリュームの3d再構成を確認するためのoctデバイスを備えるアセンブリ、コンピュータプログラム、及びそのためのコンピュータ実装方法
US20210228284A1 (en) Eye surgery surgical system having an oct device and computer program and computer-implemented method for continuously ascertaining a relative position of a surgery object
US20240081921A1 (en) System and method for verification of conversion of locations between coordinate systems
ES2726720T3 (es) Modificación de imagen de TCO
BR102022020665A2 (pt) Aparelho e método para posicionar o corpo de um paciente e rastrear a posição do paciente durante a cirurgia
EP4169473A1 (en) Apparatus and method for registering live and scan images
EP4203840A1 (fr) Système de navigation en réalité augmentée pour un robot médical
BR112021010641A2 (pt) Dispositivo médico para cirurgia ocular