ES2895449T3 - Sistema quirúrgico con formación de imágenes mediante OCT - Google Patents

Sistema quirúrgico con formación de imágenes mediante OCT Download PDF

Info

Publication number
ES2895449T3
ES2895449T3 ES15001594T ES15001594T ES2895449T3 ES 2895449 T3 ES2895449 T3 ES 2895449T3 ES 15001594 T ES15001594 T ES 15001594T ES 15001594 T ES15001594 T ES 15001594T ES 2895449 T3 ES2895449 T3 ES 2895449T3
Authority
ES
Spain
Prior art keywords
surgical instrument
image
surgical
instrument
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15001594T
Other languages
English (en)
Inventor
Abouzar Eslami
Corinna Maier-Matic
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Meditec AG
Original Assignee
Carl Zeiss Meditec AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Meditec AG filed Critical Carl Zeiss Meditec AG
Application granted granted Critical
Publication of ES2895449T3 publication Critical patent/ES2895449T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • G02B21/20Binocular arrangements
    • G02B21/22Stereoscopic arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/00727Apparatus for retinal reattachment
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3618Image-producing devices, e.g. surgical cameras with a mirror
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • A61B2090/3735Optical coherence tomography [OCT]

Abstract

Un sistema quirúrgico (1) que comprende: una cámara (15) y una óptica (3), donde la óptica (3) está configurada para formar imágenes de un campo de visión (7) en la cámara (15), donde la cámara (15) está configurada para obtener imágenes de cámara bidimensionales (140) del campo de visión (7) y generar datos de imágenes de cámara que representan las imágenes de cámara (140); un sistema de OCT (5) configurado para realizar escaneos de profundidad (A-scan) en ubicaciones que se pueden seleccionar (141) contenidas en el campo de visión (7) y generar datos de escaneos de profundidad que representan los escaneos de profundidad; una memoria de datos (171); un controlador (29) configurado para: - recibir los datos de imágenes de cámara desde la cámara (15) y los datos de profundidades de escaneo desde el sistema de OCT (5) y procesar las imágenes de cámara (140) representadas por los datos de imágenes de cámara y los escaneos de profundidad representados por los datos de escaneos de profundidad; - identificar una primera parte (152) de al menos un instrumento quirúrgico (131) en las imágenes de cámara (140) mediante reconocimiento de objetos; - determinar las primeras ubicaciones (141) y las segundas ubicaciones (141) en el campo de visión (7) basándose en al menos uno de las imágenes de cámara (140) y los segundos escaneos de profundidad, donde el o los instrumentos quirúrgicos (131) están situados en las primeras ubicaciones y donde las segundas ubicaciones están situadas a un lado del o de los instrumentos quirúrgicos (131); - activar el sistema de OCT (5) para realizar los primeros escaneos de profundidad en las primeras (141) y segundas (141) ubicaciones determinadas; - generar una primera imagen (154) que representa al menos una tercera parte (157) del o de los instrumentos quirúrgicos (131); donde la memoria de datos (171) almacena los datos geométricos del o de los instrumentos quirúrgicos (131); el reconocimiento de objetos para la identificación de la primera parte (152) utiliza los datos geométricos del o de los instrumentos quirúrgicos (131); caracterizado por que el controlador (29) está configurado además para: - identificar una segunda parte (153) del o de los instrumentos quirúrgicos (131) en los primeros escaneos de profundidad mediante reconocimiento de objetos, utilizando los datos geométricos del o de los instrumentos quirúrgicos (131); donde la representación de la o las terceras partes (157) del o de los instrumentos quirúrgicos (131) se basa en los datos geométricos, y donde una posición de la representación de la o las terceras partes (157) del o de los instrumentos quirúrgicos (131) en la primera imagen generada (154) se basa en los primeros escaneos de profundidad.

Description

DESCRIPCIÓN
Sistema quirúrgico con formación de imágenes mediante OCT
REFERENCIAS CRUZADAS A SOLICITUDES RELACIONADAS
La presente solicitud reivindica la prioridad frente a la solicitud de
patente n.° 102014007908.2, presentada el 27 de mayo de 2014 en Alemania.
CAMPO
La presente invención hace referencia a sistemas quirúrgicos que ayudan a la hora de utilizar instrumentos quirúrgicos durante intervenciones de microcirugía.
ANTECEDENTES
Durante dichas intervenciones, un cirujano sostiene el instrumento, por ejemplo, con la mano, y mueve el instrumento con relación al tejido a tratar con el fin de realizar manipulaciones sobre el tejido. Estos movimientos y manipulaciones se realizan bajo supervisión visual. Para ayudar con la supervisión visual, los sistemas quirúrgicos proporcionan, por ejemplo, un microscopio. El microscopio genera una imagen del tejido a tratar y el instrumento en una vista superior. Es difícil para el cirujano estimar la distancia desde el instrumento hasta el tejido. Se puede dañar un tejido sensible cuando se toca y/o se aplica presión accidentalmente sobre el tejido con el instrumento. Un ejemplo para dicha intervención son las cirugías en la retina de un ojo, las cuales se realizan con la ayuda de un microscopio quirúrgico que tiene un sistema de OCT integrado. El sistema OCT permite generar imágenes de secciones transversales de las capas de tejido de la retina e identificar las regiones a tratar dentro de estas imágenes. En este caso, el cirujano realiza los movimientos con el instrumento necesarios para el tratamiento bajo supervisión visual, utilizando el microscopio quirúrgico, al observar en los oculares del microscopio quirúrgico.
Ya se ha propuesto realizar un acercamiento del instrumento quirúrgico al tejido a tratar no solo bajo supervisión visual, lo cual es posible por medio de las imágenes del microscopio, sino también teniendo en cuenta las imágenes generadas por el sistema de OCT. No obstante, esto es problemático ya que los instrumentos tienen una visibilidad deficiente en las imágenes de OCT y las regiones de tejido dispuestas en la trayectoria de haz del sistema de OCT detrás del instrumento están sombreadas, de modo que también es difícil estimar la distancia entre el instrumento y las capas de tejido a partir de las imágenes de OCT. Por otra parte, los escaneos de OCT de áreas de objetos grandes, donde puede estar situado el instrumento en última instancia, requieren relativamente mucho tiempo, de modo que las representaciones del instrumento y las regiones de tejido no se pueden obtener a partir de escaneos de OCT en tiempo real de una manera satisfactoria.
El documento de patente WO 2012/100030 A2 divulga sistemas, instrumentos y métodos de formación de imágenes y visualización, que utilizan tomografía de coherencia óptica. En particular, se divulga un sistema de OCT integrado en microscopio capaz de monitorizar una característica de interés, tal como una punta de un instrumento quirúrgico, donde la característica de interés se detecta a partir de las imágenes de video registradas por una cámara del microscopio o a partir de una imagen de OCT compuesta a partir de una pluralidad de escaneos B-scan.
El documento de patente WO 2014/121268 A1 divulga sistemas y métodos para monitorizar una profundidad de un instrumento quirúrgico en un procedimiento quirúrgico guiado mediante una tomografía de coherencia óptica (OCT). Se configura un dispositivo de OCT para formar imágenes de una región de interés con el fin de proporcionar los datos de OCT. Se configura un procesador de escaneo para determinar una posición relativa del instrumento y un objetivo dentro de la región de interés, a partir de al menos los datos de OCT, donde el instrumento está en uno de delante del objetivo, dentro del objetivo o bajo el objetivo.
COMPENDIO
Es un objeto de la presente invención proporcionar un sistema quirúrgico que ayude a la hora de manipular un instrumento quirúrgico con relación a las regiones de tejido a tratar, donde el cirujano realiza la manipulación del instrumento quirúrgico.
De acuerdo con las realizaciones, se sugiere un sistema quirúrgico, donde el sistema quirúrgico comprende un sistema de OCT y una cámara que tiene una óptica. La óptica está configurada para formar imágenes de un campo de visión en la cámara, de modo que la cámara pueda obtener imágenes de cámara bidimensionales del campo de visión y pueda generar los datos que representan las imágenes de cámara. La región de tejido a tratar se puede disponer en el campo de visión y el cirujano puede mover el instrumento quirúrgico a la región de tejido, de modo que la región de tejido y el instrumento se dispongan en el campo de visión y estén contenidos en las imágenes de cámara. El cirujano puede realizar movimientos del instrumento bajo supervisión visual al observar las imágenes de cámara.
De acuerdo con realizaciones ejemplares, la óptica es una óptica de aumento, de modo que la cámara y la óptica funcionen como un microscopio. De acuerdo con realizaciones ejemplares de la presente, la óptica comprende al menos un ocular y está configurada para formar imágenes al menos en una parte del campo de visión por medio del ocular, de modo que el cirujano pueda realizar la supervisión visual al mirar en el ocular.
El sistema de OCT está configurado para realizar escaneos de profundidad en ubicaciones que se pueden seleccionar contenidas en el campo de visión y generar los datos que representan los escaneos de profundidad. El sistema de OCT trabaja de acuerdo con el principio de la tomografía de coherencia óptica y detecta la luz que es retrorreflejada desde ubicaciones seleccionadas dependientes de la profundidad del tejido. En la terminología utilizada en el contexto de la tomografía de coherencia óptica, dicho escaneo de profundidad también se denomina A-scan. El sistema de OCT puede trabajar de acuerdo con distintos principios. De acuerdo con realizaciones ejemplares, la luz retrorreflejada es detectada desde profundidades diferentes una detrás de otra en el tiempo. Este principio también se denomina OCT en el dominio del tiempo. De acuerdo con otras realizaciones ejemplares, la luz es detectada desde profundidades diferentes dependiendo del número de onda óptica. Este principio también se denomina como OCT en el dominio de Fourier.
De acuerdo con realizaciones ejemplares de la presente, la luz de interferencia es dirigida sobre un detector de líneas por medio de un espectrómetro dispersivo y es detectada por el detector de líneas. Este tipo de OCT en el dominio de Fourier se denomina de manera convencional OCT en el dominio espectral. De acuerdo con otra realización ejemplar de la presente, la luz de medición de la OCT se genera mediante una fuente de luz de banda estrecha, la longitud de onda de la luz emitida por la fuente de luz puede variar rápidamente y la luz es detectada dependiendo de la longitud de onda establecida. Este principio se denomina de manera convencional OCT en el dominio de la frecuencia óptica u OCT de la fuente de barrido. No obstante, la presente invención y sus realizaciones no están limitadas por ninguno de los principios de OCT mencionados anteriormente.
El sistema quirúrgico comprende además una memoria de datos que almacena datos geométricos de al menos un instrumento quirúrgico. En particular, los datos geométricos de los instrumentos, que se deben utilizar durante una intervención quirúrgica planificada, se almacenan en la memoria de datos. Los datos geométricos se almacenan en la memoria de datos con la finalidad de identificar de manera automática un instrumento específico que se utiliza en ese momento en las imágenes de cámara y en los escaneos de profundidad mediante reconocimiento de objetos. Los datos geométricos representan la geometría del instrumento quirúrgico respectivo. Por ejemplo, estos datos representan la extensión física, tal como una longitud y anchura, y una orientación de las superficies del instrumento en distintas ubicaciones del instrumento. Por ejemplo, los datos geométricos pueden ser datos de CAD que se pueden haber generado en el proceso de fabricación del instrumento utilizando una herramienta de diseño asistido por ordenador (CAD). Los datos geométricos se pueden almacenar en la memoria de datos antes de la intervención, y en particular, antes de que la cámara obtenga las imágenes de cámara.
De acuerdo con realizaciones ejemplares, el instrumento quirúrgico es una aguja, una cuchilla, un raspador, unas pinzas o similares.
El sistema quirúrgico comprende además un controlador que recibe los datos desde la cámara y que procesa las imágenes de cámara representadas por estos datos. El controlador puede comprender uno o múltiples componentes. Cada uno de los componentes puede comprender uno o múltiples circuitos electrónicos, cada uno de los cuales también puede trabajar como un ordenador, es decir, puede comprender una memoria de trabajo y uno o múltiples procesadores, los cuales pueden acceder a la memoria de trabajo y pueden ejecutar módulos de software almacenados en la memoria de trabajo con el fin de procesar los datos. Los componentes del controlador se pueden distribuir entre múltiples ubicaciones y estar conectados entre sí mediante cables de control, cables de datos y redes de datos. La funcionalidad del controlador se puede implementar mediante una electrónica analógica, electrónica digital, módulos de software y sus combinaciones.
El controlador recibe además los datos generados por el sistema de OCT y puede procesar los escaneos de profundidad representados por estos datos.
Por otra parte, el controlador está configurado para identificar una primera parte de al menos un instrumento en las imágenes de cámara mediante reconocimiento de objetos, utilizando los datos geométricos del o de los instrumentos quirúrgicos. La identificación puede implicar que el instrumento presente en las imágenes de cámara se puede identificar entre un conjunto de instrumentos predeterminados. Es decir, el instrumento presente en las imágenes de cámara se puede distinguir de los demás instrumentos del conjunto de instrumentos predeterminados. Por lo tanto, mediante reconocimiento de objetos, el controlador puede determinar cuál del o de los instrumentos predeterminados aparece en las imágenes de cámara.
El controlador determina las primeras ubicaciones en el campo de visión donde está situado el instrumento, así como también las segundas ubicaciones en el campo de visión a un lado del instrumento. En particular, el controlador puede estar configurado para determinar las primeras y segundas ubicaciones basándose en las imágenes de cámara y/o los escaneos de profundidad.
Por otra parte, el controlador está configurado para activar el sistema de OCT con el fin de realizar escaneos de profundidad en cada una de las primeras ubicaciones determinadas y las segundas ubicaciones determinadas. De acuerdo con realizaciones ejemplares, las primeras y segundas ubicaciones se disponen en una línea en el campo de visión, en particular, en una línea recta, y se disponen de manera equidistante entre sí. A continuación, el sistema de OCT obtiene una pluralidad de escaneos de profundidad en las ubicaciones dispuestos en la línea. En la terminología utilizada en el contexto de tomografía de coherencia óptica, dicho escaneo también se denomina B-scan. Los datos obtenidos en dicho escaneo representan una imagen seccionada de un objeto, adquirida mediante luz retrorreflejada. El instrumento está contenido en esta imagen seccionada y se puede identificar en ella. Si también está contenido cualquier tejido a tratar en la imagen seccionada, se puede deducir una distancia entre el instrumento y la superficie del tejido a tratar mediante observación de la imagen. No obstante, al observar la imagen del escaneo B-scan, esto puede no ser posible en un grado satisfactorio en todo momento, ya que una superficie del instrumento crea unas sombras en otras partes del instrumento y las regiones de tejido dispuestas en la trayectoria de haz del sistema de OCT detrás de esta superficie.
De acuerdo con realizaciones ejemplares adicionales, las primeras ubicaciones y las segundas ubicaciones se disponen en múltiples líneas, en particular líneas rectas, dispuestas a cierta distancia entre sí en el campo de visión, de modo que el sistema de OCT obtenga una serie de escaneos B-scan. En la terminología utilizada en el contexto de tomografía de coherencia óptica, dicho escaneo se denomina C-scan.
De acuerdo con realizaciones ejemplares, el o los instrumentos quirúrgicos tienen un eje longitudinal y las líneas o las múltiples líneas, a lo largo de las cuales se disponen las primeras y segundas ubicaciones, están orientadas de forma que las líneas estén orientadas paralelamente al eje longitudinal u ortogonalmente al eje longitudinal. Las imágenes representadas por los escaneos B-scan contienen entonces el instrumento de una manera que sea fácilmente comprensible por las personas, de modo que el cirujano pueda supervisar el movimiento del instrumento basándose en estas.
No obstante, no es necesario que las primeras y segundas ubicaciones se dispongan en una línea (recta). En particular, se pueden tener cualesquiera de las demás selecciones de ubicaciones, de modo que también se puedan seleccionar estrategias de escaneo diferentes de los escaneos B-scan tradicionales.
De acuerdo con realizaciones ejemplares adicionales, el instrumento tiene un extremo distal situado en el campo de visión y el controlador activa el sistema de OCT para realizar los escaneos de profundidad en unas terceras ubicaciones, donde el extremo distal del instrumento se sitúa en el campo de visión con una tasa más elevada, es decir, utilizando una frecuencia mayor por unidad de tiempo, en comparación con otras ubicaciones situadas a cierta distancia del extremo distal. En la presente, se supone que tocar el tejido con el instrumento y, por lo tanto, dañar de manera imprevista el tejido con el instrumento se produce con el extremo distal del instrumento. Al realizar los escaneos A-scan en el extremo distal del instrumento utilizando una tasa más elevada, se pueden detectar de manera más rápida y con mayor precisión los acercamientos imprevistos del instrumento al tejido.
De acuerdo con las realizaciones ejemplares, el controlador está configurado además para identificar una segunda parte del o de los instrumentos quirúrgicos en los escaneos de profundidad mediante reconocimiento de objetos, utilizando los datos geométricos del o de los instrumentos quirúrgicos. Este reconocimiento de objetos se puede simplificar debido a que el instrumento en cuestión ya está identificado mediante el reconocimiento de objetos en las imágenes de cámara, y debido a que ya se conocen una posición y orientación esperadas del instrumento con relación a los escaneos de profundidad a partir del reconocimiento de objetos en las imágenes de cámara y la selección de las primeras y segundas ubicaciones basadas en estas.
Después del reconocimiento de objetos del instrumento en los escaneos de profundidad, el controlador genera una primera imagen que representa al menos una tercera parte del o de los instrumentos quirúrgicos, donde la representación de la o las terceras partes del o de los instrumentos quirúrgicos se basa en los datos geométricos, y donde una posición de esta representación de la o las terceras partes del o de los instrumentos quirúrgicos en la primera imagen generada se basa en los escaneos de profundidad. La tercera parte del instrumento se puede superponer con la parte del instrumento identificada por el reconocimiento de objetos en los escaneos de profundidad, aunque también puede ser diferente de esta.
De acuerdo con realizaciones ejemplares, la o las terceras partes del o de los instrumentos quirúrgicos son inidentificables en los escaneos de profundidad o simplemente se pueden identificar peor en los escaneos de profundidad. En consecuencia, la tercera parte del instrumento puede comprender, por ejemplo, dichas partes del instrumento que están sombreadas en la trayectoria de haz del sistema de OCT durante los escaneos de profundidad y, por lo tanto, son inidentificables en los escaneos de profundidad o simplemente se pueden identificar peor en los escaneos de profundidad. Durante una intervención quirúrgica, dichas partes del instrumento son en su mayor parte también aquellas partes del instrumento que están situadas más cerca del tejido a manipular y que también pueden dañar potencialmente este tejido. De acuerdo con realizaciones ejemplares, la primera imagen generada también representa los escaneos de profundidad. En consecuencia, dichas partes del instrumento, que por sí mismas son inidentificables en los escaneos de profundidad, así como también los escaneos de profundidad se representan en la primera imagen generada. Si los escaneos de profundidad se realizan como escaneos B-scan, por ejemplo, la segunda parte del instrumento identificable en el escaneo B-scan, el tejido a manipular y la tercera parte del instrumento inidentificable en los escaneos de profundidad son visibles en una representación de la primera imagen generada. Por lo tanto, el controlador ha “complementado” la representación del instrumento en la primera imagen generada, de modo que el cirujano pueda supervisar visualmente un acercamiento del instrumento al tejido a manipular mediante la primera imagen generada con una precisión elevada.
De acuerdo con realizaciones ejemplares, la primera imagen generada representa además la segunda parte del o de los instrumentos quirúrgicos, donde la representación de la segunda parte del o de los instrumentos quirúrgicos se basa en los datos geométricos, y donde una posición de la representación de la segunda parte del o de los instrumentos quirúrgicos en la primera imagen generada se basa en los escaneos de profundidad. Por lo tanto, la primera imagen generada contiene una representación de la segunda parte y la tercera parte del instrumento, donde la segunda parte del instrumento sería identificable en los escaneos de profundidad y, por lo tanto, el cirujano también la podría percibir al observar la primera imagen. No obstante, la representación se puede generar de manera más precisa basándose en los datos geométricos, ya que una representación basada únicamente en los escaneos de profundidad puede estar borrosa y tener un contraste bajo debido a las inexactitudes de medición, tal como ruido.
De acuerdo con realizaciones ejemplares, la segunda parte y/o la o las terceras partes del o de los instrumentos quirúrgicos se representan en la primera imagen generada mediante colores que son diferentes de aquellos colores utilizados para representar los escaneos de profundidad en la primera imagen generada. Por ejemplo, los escaneos de profundidad se pueden ilustrar de una manera convencional con valores de intensidad de gris a gris claro sobre fondo negro, mientras que la segunda parte y/o la tercera parte del instrumento se pueden ilustrar en color rojo o verde.
De acuerdo con realizaciones ejemplares adicionales, la memoria de datos almacena además los datos geométricos de al menos una estructura anatómica y el controlador está configurado además para identificar una primera parte de la o las estructuras anatómicas en los escaneos de profundidad mediante reconocimiento de objetos, utilizando los datos geométricos de la o las estructuras anatómicas. En este caso, la primera imagen generada puede representar al menos una segunda parte de la estructura anatómica, donde la representación de la o las segundas partes de la estructura anatómica se basa en los datos geométricos de la o las estructuras anatómicas, y donde una posición de la representación de la o las segundas partes de la o las estructuras anatómicas en la primera imagen generada se basa en los escaneos de profundidad. En el contexto de una intervención quirúrgica en la retina de un ojo, los datos geométricos de la estructura anatómica pueden comprender los datos geométricos de distintas capas de tejido de una retina típica de un ojo. No obstante, también es posible que estos datos geométricos se basen en escaneos de OCT obtenidos anteriormente de la región de tejido a manipular. Tal como se describe anteriormente haciendo referencia a la representación de la segunda parte del instrumento quirúrgico en la primera imagen generada, el cirujano puede percibir de manera más clara la estructura anatómica al observar la primera imagen generada, ya que la representación de la estructura anatómica en la primera imagen generada se basa en los datos geométricos. Además, en la presente, la estructura anatómica se puede representar en la primera imagen generada mediante colores que son diferentes de aquellos colores utilizados para representar los escaneos de profundidad en la primera imagen generada.
La representación de la estructura anatómica basándose en los datos geométricos también puede proporcionar la ventaja de que se puede percibir la estructura anatómica en dichas partes de la primera imagen generada donde se produce el sombreado en el escaneo de OCT, debido a que el instrumento quirúrgico se dispone en la trayectoria de haz delante de la estructura anatómica. En este caso, el controlador también complementa la representación de la estructura anatómica.
De acuerdo con realizaciones ejemplares, el sistema quirúrgico comprende una interfaz de usuario, que comprende en particular una pantalla en la cual el controlador visualiza la primera imagen generada. A continuación, el cirujano puede realizar la manipulación del tejido utilizando el instrumento bajo supervisión visual, al observar la pantalla y percibir la primera imagen generada que se visualiza en esta. Si los escaneos de profundidad se obtienen como escaneos B-scan, la imagen visualizada representa una sección transversal a través de las capas de tejido y el instrumento dispuesto delante de ellas, donde la distancia entre el instrumento y la superficie de las capas de tejido se puede estimar bien ya que el controlador complementa la representación del instrumento y la representación de las capas de tejido en la imagen.
De acuerdo con realizaciones ejemplares, el controlador está configurado además para generar una segunda imagen que representa la imagen de cámara y la primera parte y/o la segunda parte y/o la o las terceras partes del o de los instrumentos quirúrgicos, de modo que también mejore la imagen de cámara al complementar o destacar el instrumento.
Algunas realizaciones adicionales están dirigidas a un método para hacer funcionar un sistema quirúrgico.
De acuerdo con realizaciones ejemplares, un método para hacer funcionar un sistema quirúrgico, en particular un sistema quirúrgico de acuerdo con una de las realizaciones descritas en la presente, comprende almacenar los datos geométricos de al menos un instrumento quirúrgico; formar imágenes de un campo de visión en una cámara; obtener imágenes de cámara bidimensionales del campo de visión y generar los datos de imágenes de cámara que representan las imágenes de cámara; identificar una primera parte del o de los instrumentos quirúrgicos en las imágenes de cámara mediante reconocimiento de objetos, utilizando los datos geométricos del o de los instrumentos quirúrgicos; determinar las primeras ubicaciones y las segundas ubicaciones en el campo de visión, donde el o los instrumentos quirúrgicos están situados en las primeras ubicaciones, y donde las segundas ubicaciones están situadas a un lado del o de los instrumentos quirúrgicos; realizar los primeros escaneos de profundidad en las primeras y segundas ubicaciones determinadas utilizando un sistema de OCT; identificar una segunda parte del o de los instrumentos quirúrgicos en los primeros escaneos de profundidad mediante reconocimiento de objetos, utilizando los datos geométricos del o de los instrumentos quirúrgicos; generar una primera imagen que representa al menos una tercera parte del o de los instrumentos quirúrgicos, donde la representación de la o las terceras partes del o de los instrumentos quirúrgicos se basa en los datos geométricos, y donde una posición de la representación de la o las terceras partes del o de los instrumentos quirúrgicos en la primera imagen generada se basa en los primeros escaneos de profundidad. Los datos geométricos del o de los instrumentos quirúrgicos se pueden almacenar antes de identificar la primera parte del o de los instrumentos quirúrgicos en las imágenes de cámara.
De acuerdo con realizaciones ejemplares adicionales, la o las terceras partes del o de los instrumentos quirúrgicos son inidentificables en los primeros escaneos de profundidad.
De acuerdo con realizaciones ejemplares adicionales, el método comprende además determinar las primeras y segundas ubicaciones en base a, al menos, una de las imágenes de cámara y los segundos escaneos de profundidad.
De acuerdo con realizaciones ejemplares adicionales, la primera imagen generada representa además la segunda parte del o de los instrumentos quirúrgicos, donde la representación de la segunda parte del o de los instrumentos quirúrgicos se basa en los datos geométricos, y donde una posición de la representación de la segunda parte del o de los instrumentos quirúrgicos en la primera imagen generada se basa en los primeros escaneos de profundidad. La primera imagen generada puede representar además los primeros escaneos de profundidad.
De acuerdo con realizaciones ejemplares adicionales, el método comprende además almacenar los datos geométricos de al menos una estructura anatómica; identificar una primera parte de la o las estructuras anatómicas en los escaneos de profundidad mediante reconocimiento de objetos, utilizando los datos geométricos de la o las estructuras anatómicas; y donde la primera imagen generada representa además al menos una segunda parte de la o las estructuras anatómicas, donde la representación de la o las segundas partes de la o las estructuras anatómicas se basa en los datos geométricos de la o las estructuras anatómicas, y donde una posición de la representación de la o las segundas partes de la o las estructuras anatómicas en la primera imagen generada se basa en los primeros escaneos de profundidad. Los datos geométricos de al menos una estructura anatómica se pueden almacenar antes de la identificación de la primera parte de la o las estructuras anatómicas en los escaneos de profundidad.
De acuerdo con realizaciones ejemplares adicionales, el o los instrumentos quirúrgicos tienen un extremo distal, y las primeras ubicaciones comprenden unas terceras ubicaciones, donde está situado el extremo distal del o de los instrumentos quirúrgicos. En la presente, los primeros escaneos de profundidad se pueden realizar en las terceras ubicaciones con una tasa más elevada en comparación con aquellos realizados en las ubicaciones que están situadas a cierta distancia del extremo distal del o de los instrumentos quirúrgicos en el campo de visión.
DESCRIPCIÓN BREVE DE LOS DIBUJOS
A partir de la descripción detallada de realizaciones ejemplares, haciendo referencia a los dibujos anexos, serán más evidentes las características anteriores, así como también otras características ventajosas de la divulgación. Cabe destacar que no todas las posibles realizaciones exhiben necesariamente cada una, todas o cualesquiera de las ventajas identificadas en la presente.
La figura 1 muestra una ilustración esquemática de una realización de un sistema quirúrgico;
la figura 2 muestra una ilustración esquemática de una región objetivo del sistema quirúrgico de la figura 1;
la figura 3 muestra distintas ilustraciones de imágenes visualizadas en una interfaz de usuario del sistema quirúrgico de la figura 1;
la figura 4 muestra ilustraciones esquemáticas correspondientes a las imágenes mostradas en la figura 3; y
la figura 5 muestra un diagrama de flujo que ilustra el flujo de trabajo del sistema quirúrgico de la figura 1.
DESCRIPCIÓN DETALLADA DE REALIZACIONES EJEMPLARES
En las realizaciones ejemplares descritas a continuación, los componentes que tienen una función y estructura similares se designan en la medida de lo posible con números de referencia similares. Por lo tanto, para entender las características de los componentes individuales de una realización específica, se debería hacer referencia a las descripciones de otras realizaciones y del compendio de la divulgación.
La figura 1 es una ilustración esquemática de un sistema quirúrgico 1. El sistema quirúrgico 1 comprende una óptica 3 de formación de imágenes configurada para generar imágenes de un campo de visión 7 situado dentro de una región objetivo 11. La formación de imágenes del campo de visión 7 utilizando la óptica 3 de formación de imágenes de la realización ejemplar ilustrada se realiza por medio de un par de oculares 13 en los cuales puede mirar el cirujano con ambos ojos. Por otra parte, se forman imágenes del campo de visión 7 en una cámara 15 que obtiene imágenes del campo de visión 7 y genera los datos que representan las imágenes.
Para ello, la óptica 3 comprende una lente objetivo 17 que puede comprender uno o múltiples elementos de lente y que, de acuerdo con el ejemplo ilustrado, puede formar imágenes del campo de visión en el infinito. En la trayectoria de haz detrás de la lente objetivo 17, cada uno de los dos haces tubulares 19 se guía a través de un conjunto de lentes de ampliación 21 capaz de cambiar una escala de formación de imágenes de la óptica. Para ello, cada uno de los dos conjuntos de lentes de ampliación 21 comprende al menos dos grupos de lentes 22 y 23 que se pueden desplazar relativamente entre sí en la dirección de los haces, de los haces tubulares 19, tal como se indica mediante una flecha 24 en la figura 1. El desplazamiento de los dos grupos de lentes 22 y 23 relativamente entre sí está controlado mediante un actuador 25, que a su vez está controlado por un controlador 29 a través de un cable de control 27, para establecer la escala de formación de imágenes de la óptica 3.
Detrás del conjunto de lentes de ampliación 21, los haces tubulares 19 entran en los oculares 13. No obstante, una parte de la luz del derecho de los haces tubulares 19 ilustrados en la figura 1 es redirigida mediante un espejo parcialmente transparente 31 y es dirigida hacia la cámara 15 por una óptica adaptadora de la cámara 33, de modo que la cámara pueda detectar una imagen del campo de visión 7 de la región objetivo 11. Los datos generados por la cámara 15 se transmiten al controlador 29 a través de un cable de datos 35.
La óptica 3 comprende además dos pantallas de formación de imágenes electrónicas 41 a las que el controlador 29 suministra los datos de imagen a través de un cable de datos 43. Cada una de las imágenes visualizadas en las pantallas de formación de imágenes 41 es proyectada en la trayectoria de haz hacia los oculares 13 mediante la óptica de proyección 45 y un espejo parcialmente transparente 47 dispuesto en el haz tubular 19, de modo que un usuario que mira en los oculares 13 pueda percibir las imágenes visualizadas por las pantallas 41 superpuestas con la imagen del campo de visión 7 de la región objetivo 11.
El sistema quirúrgico 1 comprende además un sistema de OCT 5 para realizar mediciones de OCT. El sistema de OCT 5 comprende un dispositivo de OCT 4 que tiene una fuente de luz adecuada de coherencia corta y un interferómetro, ambos no se ilustran en la figura 1, donde la luz de medición de OCT es emitida desde el dispositivo de OCT 4 a través de una fibra de guiado de la luz 51, de modo que la luz de medición pueda incidir sobre un objeto para ser medida y la luz de medición que retorna desde el objeto puede volver a entrar a la fibra, de modo que el dispositivo de OCT 4 pueda examinar esta luz de medición que retorna y generar unos datos que representan la medición. En particular, el dispositivo de OCT 4 puede realizar un escaneo de profundidad, también denominado escaneo A-scan, cuyos datos representan las intensidades de la luz de medición retrorreflejada que dependen de la profundidad. El dispositivo de OCT 4 está controlado por el controlador 29 a través de un cable de control y de datos 53. El controlador 29 también recibe los datos de medición generados por el sistema de OCT 5 a través de este cable 53.
El sistema de OCT 5 comprende además una óptica de colimación 59 que colima la luz de medición de OCT 57 emitida desde un extremo 55 de la fibra 51 transformándola en un haz de luz de medición 58. El haz de luz de medición 58 es desviado en dos espejos deflectores 61 y 63, se propaga a través de la óptica de proyección 65, incide en un espejo 69 y es dirigido por el espejo 69 a través de la lente objetivo 17 sobre la región objetivo 11. Se puede disponer un objeto 127 en la región objetivo 11 que retrorrefleja la luz de medición de OCT de modo que la luz de medición retrorreflejada por el objeto 127 se propague a lo largo de una trayectoria inversa, a través de la lente objetivo 17, la óptica de proyección 65 y la óptica de colimación 59, de modo que al menos una parte de esta luz entre en la fibra 51 y llegue al dispositivo de OCT 4 donde se examina utilizando el interferómetro.
Los espejos 61 y 63 se disponen con una inclinación modificable con el fin de desviar el haz de luz de medición de OCT, de modo que el haz de luz de medición de OCT pueda incidir sobre ubicaciones que se pueden seleccionar dentro del campo de visión 7 al establecer la configuración de inclinación de los espejos 61 y 63. La capacidad de modificar la inclinación de los espejos 61 y 63 se indica mediante las flechas 71 en la figura 1. La configuración de inclinación de los espejos 61 y 63 se establece mediante los actuadores 73 controlados por el controlador 29 a través de los cables de control 75. Por lo tanto, al accionar los actuadores 73, el controlador 29 puede seleccionar la ubicación de la región objetivo 11 sobre la que incide el haz de luz de medición de OCT.
El controlador 29 comprende además una interfaz de usuario que comprende un monitor 83 a modo de medio ilustrativo, y un teclado 84 y un ratón 85 a modo de medios de entrada. La interfaz de usuario también comprende las pantallas 41 para asociar las imágenes de acoplamiento generadas por el controlador 29 con las trayectorias de haz hacia los oculares 13.
En la realización ejemplar descrita en la presente, el sistema quirúrgico se utiliza para ayudar en una intervención de microcirugía en un tejido utilizando un instrumento quirúrgico.
La figura 2 muestra de manera esquemática dicha situación. En este, el instrumento quirúrgico tiene el número 131 y tiene un cuerpo 133 en cuyo extremo frontal están situados un par de dispositivos de agarre 135 de tipo pinza, teniendo cada uno un extremo distal 137. El instrumento 131 se puede utilizar para manipular el tejido 127 que puede ser muy sensible. Por lo tanto, se deberían evitar contactos accidentales con el tejido 127 y una aplicación de presión sobre este tejido. El sistema quirúrgico 1 proporciona una posibilidad de supervisión visual cuando se acerca el instrumento 131 al tejido 127.
En el ejemplo ilustrado a continuación, el tejido 127 es la retina de un ojo.
El cirujano puede observar visualmente el proceso de acercar el instrumento 131 a la retina 127 dentro del campo de visión 7, ya que el cirujano mira en los oculares 13 y observa la imagen del campo de visión 7. También es posible que el cirujano o su ayudante observen la imagen del campo de visión 7 en el monitor 83, cuando el controlador 29 visualiza la imagen del campo de visión 7 detectado por la cámara 15 en este. Además, dicha imagen también se puede visualizar utilizando dispositivos de visualización montados en la cabeza.
No obstante, es difícil estimar la distancia entre el instrumento 131 y la superficie de la retina 127, en particular, la distancia desde los extremos distales 137 hasta la superficie de la retina 127, mediante la observación de las imágenes del campo de visión 7 obtenidas mediante la óptica 3, ya que la imagen representa una vista superior sobre la superficie de la retina 127 mientras el instrumento 131 está dispuesto delante de la retina.
Por lo tanto, el controlador 29 activa el sistema de OCT 5 para realizar mediciones a lo largo de secciones que contienen partes del instrumento 131 y parte de la retina 127. En particular, el controlador puede activar el sistema de OCT para realizar uno o múltiples escaneos B-scan. La figura 2 muestra algunas áreas ejemplares 139 en las que se realizan los escaneos B-scan. Para realizar un escaneo B-scan, el haz de luz de medición de OCT 58 es dirigido hacia una pluralidad de ubicaciones 141, una tras otra, donde las ubicaciones se disponen a lo largo de una línea recta 142. En cada una de las ubicaciones 141 se realiza un escaneo de profundidad (A-scan). Los datos que representan los escaneos de profundidad son transmitidos desde el sistema de OCT 5 al controlador 29.
El controlador determina la posición y orientación de las áreas 139 en las que se realizan los escaneos B-scan, mediante el análisis de las imágenes del campo de visión 7 obtenido mediante la cámara 15. Para ello, el controlador 29 realiza un reconocimiento de objetos con el fin de identificar el instrumento 131 en las imágenes de cámara y determinar la posición y orientación del instrumento 131 con relación a la región objetivo 11 y el campo de visión 7. A continuación, se determinan las ubicaciones 141 donde se realizan los escaneos de profundidad y, en particular, se determinan de modo que los escaneos de profundidad se realicen en ubicaciones 141 donde está situado el instrumento 131 en el campo de visión, así como también en ubicaciones 141 donde no está situado el instrumento 131 en el campo de visión. Por lo tanto, algunos de los escaneos de profundidad realizados contienen el instrumento y otros escaneos de profundidad no contienen el instrumento. En la presente, los escaneos de profundidad se pueden realizar con una densidad espacial más elevada y/o con una tasa más elevada en la región donde están situados los extremos distales 137 del instrumento 131. Esto se indica en la figura 2 ya que las distancias entre áreas 139 adyacentes de escaneos B-scan son pequeñas en una región 143 de los extremos distales 137 en comparación con las regiones a distancias mayores de los extremos distales 137.
La figura 3A muestra una representación esquemática de la imagen de cámara 140 obtenida por la cámara. La imagen de cámara 140 representa una vista superior sobre la retina 127, así como también una primera parte 152 del instrumento 131 dispuesto delante de la retina 127. La figura 3A muestra además las posiciones de múltiples escaneos B-scan 139 ilustrados mediante las líneas a trazos 151B, 151D, 151F en la figura 3A.
La figura 3B muestra una imagen del escaneo B-scan realizado en las posiciones indicadas mediante una línea a trazos 151B en la figura 3A. La figura 3D muestra una imagen del escaneo B-scan realizado en las posiciones indicadas por una línea a trazos 151D en la figura 3A. La figura 3F muestra una imagen del escaneo B-scan realizado en las posiciones indicadas por una línea a trazos 151F en la figura 3A.
Los escaneos B-scan de las figuras 3B, 3D y 3F representan vistas de secciones a través del instrumento 131 y la retina 127 en distintas ubicaciones indicadas mediante las líneas a trazos 151B, 151D, 151F. En el escaneo B-scan de la figura 3F, los extremos distales 137 del par de dispositivos de agarre están situados cerca de la retina, mientras que en el escaneo B-scan de la figura 3D, las partes del dispositivo de agarre 135 dispuestas a cierta distancia de los extremos distales 137 están situadas un poco más alejadas de la retina 127. En el escaneo B-scan de la figura 3B, el cuerpo 133 del instrumento 131 está situado aún más alejado de la superficie de la retina 127.
Las imágenes de las figuras 3B, 3D y 3F tienen un contraste bajo, están borrosas e incluso los cirujanos experimentados pueden no interpretar con facilidad estas imágenes. Para una ilustración simplificada a continuación, las imágenes de las figuras 3A a 3G se reproducen de manera esquemática en las figuras 4A a 4G.
El cuerpo 133 del instrumento 131 no se puede reconocer en su totalidad en la figura 3B, ya que en los escaneos de profundidad únicamente se puede identificar una superficie 153 dispuesta enfrentada a la trayectoria de haz del sistema de OCT. La parte restante de la superficie del cuerpo 133 es inidentificable en los escaneos de profundidad ya que la superficie 153 sombrea el haz de luz de medición de OCT. Por tanto, en la imagen se puede reconocer una segunda parte 153 del instrumento, mientras que otras partes del instrumento son inidentificables en la imagen del escaneo B-scan.
En la imagen 3B se pueden reconocer amplias partes de la retina 127. No obstante, una región 155 de la retina 127 cercana al instrumento 131 y al cuerpo 133, p. ej., opuesta a la superficie 153, es inidentificable en la imagen de la figura 3B, ya que esta región 155 también está sombreada por la segunda parte 153 del instrumento (cuerpo) 133.
Por tanto, es difícil estimar de manera exacta la distancia entre el instrumento (cuerpo) 133 y la superficie de la retina 127 mediante la observación de los escaneos de profundidad del sistema de OCT de la figura 3B.
Por lo tanto, el controlador 29 genera las imágenes 154 basándose en los escaneos de profundidad, donde las partes del instrumento y las partes del tejido, p. ej., la retina 127, son claramente visibles y están complementadas en las imágenes 154. La imagen de la figura 3C es una imagen 154 de este tipo, que está complementada por el controlador basándose en la imagen de la figura 3B. La imagen de la figura 3E también es una imagen 154 de este tipo, que está complementada por el controlador basándose en la imagen de la figura 3D, y la imagen de la figura 3G también es una imagen 154 de este tipo, que está complementada por el controlador basándose en la imagen de la figura 3F.
En la imagen de la figura 3C, el cuerpo 133 del instrumento se representa mediante una línea cerrada 156 que se corresponde con el cuerpo 133 del instrumento 131. La línea 156 representa la segunda parte 153 del instrumento y también representa una tercera parte del instrumento indicado mediante una línea 157. La tercera parte 147 del instrumento es inidentificable en los escaneos de profundidad de la figura 3B. Por otra parte, la imagen de la figura 3C representa una línea continua 159 que representa la superficie de la retina 127. La línea 159 también representa la superficie de la retina en la región 155, donde la superficie de la retina es inidentificable en la imagen de la figura 3B. Debido a la parte complementada 157 del instrumento 131 y la parte complementada 159 de la superficie de la retina 127, es posible estimar con precisión la distancia d entre el instrumento 131 y la superficie de la retina 127 mediante la observación de la imagen de la figura 3C.
Las imágenes de las figuras 3E y 3G están complementadas con respecto a las imágenes de las figuras 3D y 3F, respectivamente, de una manera similar a la descrita anteriormente para la figura 3C. Basándose en estas imágenes, también es posible estimar con precisión la distancia entre las partes del instrumento y la superficie de la retina 127. En particular, se puede estimar con precisión la distancia desde los extremos distales 137 del dispositivo de agarre 135 del instrumento 131 hasta la superficie de la retina 127 basándose en la imagen complementada de la figura 3G, lo que es difícil, sino imposible, a partir de la imagen de la figura 3F. A partir de la figura 3G, se puede observar que el derecho de los dispositivos de agarre 135 ya toca la superficie de la retina, mientras que el izquierdo de los dispositivos de agarre aún está situado a una pequeña distancia de la retina 127. No obstante, a partir de la figura 3G también se puede observar que la retina aún no se ha deformado por la presión aplicada sobre la retina 127 por parte del dispositivo de agarre 135 derecho.
Por lo tanto, las imágenes de las figuras 3C, 3E y 3G forman una buena base para que el cirujano supervise visualmente los movimientos del instrumento quirúrgico utilizando estas imágenes.
Haciendo referencia al diagrama de flujo mostrado en la figura 5 se describe con más detalle un flujo de trabajo del sistema quirúrgico para generar las imágenes de las figuras 3C, 3E y 3G.
Antes de una intervención quirúrgica se almacenan en una memoria de datos 171 los datos geométricos de los instrumentos quirúrgicos utilizados para la intervención. La memoria de datos 171 está conectada al controlador 29 mediante un cable de datos 172 (véase la figura 1). En la presente, vista desde el controlador 29, la memoria de datos puede ser una base de datos externa. No obstante, la memoria de datos también puede estar integrada en el controlador 29 y utilizar su memoria de trabajo.
El acercamiento del instrumento a la retina está monitorizado por el sistema quirúrgico. Para ello, la óptica 3 del sistema quirúrgico está situada con relación a la retina del ojo de modo que la región de la retina a manipular se disponga en el campo de visión 7. A continuación, en el paso 173, se obtiene una imagen de cámara. Posteriormente, se analiza la imagen de cámara obtenida. El paso 173 de obtener la imagen y el análisis posterior se repite en un bucle 174 y se realiza, por ejemplo 15 veces por segundo hasta que finaliza la intervención. El análisis de la imagen de cámara comprende un reconocimiento de objetos en la imagen de cámara, donde el reconocimiento de objetos se realiza utilizando los datos geométricos de los instrumentos almacenados en la memoria de datos 171.
El reconocimiento de objetos puede utilizar, por ejemplo, una técnica de comparación de plantillas. En la técnica de comparación de plantillas se generan distintas plantillas a partir de los datos geométricos de un instrumento, donde las plantillas se corresponden con las proyecciones del instrumento desde distintas perspectivas y orientaciones. Estas plantillas se escalan de acuerdo con la ampliación de la formación de imágenes y se correlacionan con la imagen de cámara. Cuando se alcanza una correlación suficiente se supone que el instrumento está dispuesto en una ubicación descubierta en la imagen de cámara con una orientación correspondiente a la plantilla generada. En el caso de que se disponga de los datos geométricos de múltiples instrumentos diferentes, se generan plantillas para todos estos instrumentos y también se puede identificar un instrumento presente en la imagen en función de la plantilla descubierta en la imagen. Por lo tanto, la identificación del instrumento en la imagen de cámara comprende determinar cuál de una pluralidad de instrumentos está situado en la imagen, determinar una posición en el campo de visión donde está situado este instrumento y determinar una orientación de este instrumento con relación al campo de visión.
En el paso 177, después del reconocimiento de objetos en la imagen de cámara en el paso 175, se definen los escaneos B-scan tal como se describe haciendo referencia a la figura 2. Los escaneos B-scan se pueden disponer, por ejemplo, de manera transversal a un eje longitudinal del instrumento 131 identificado en el paso 175. En el paso 179, el sistema de OCT obtiene los escaneos B-scan definidos de esta manera. A continuación, en el paso 181, se realiza un reconocimiento de objetos del instrumento en los escaneos B-scan. A continuación, en el paso 183, se visualizan los escaneos B-scan, así como también los objetos complementados, en el monitor 83. En el paso 185, los instrumentos complementados se visualizan en las pantallas 41, de modo que la imagen del campo de visión 7 que se puede percibir a través de los oculares 13 también esté complementada.
Aunque la divulgación se ha descrito con respecto a ciertas realizaciones ejemplares de esta, es obvio que para aquellos que son expertos en la técnica serán evidentes múltiples alternativas, modificaciones y variaciones. En consecuencia, las realizaciones ejemplares de la divulgación expuestas en la presente pretenden ser ilustrativas y no ser limitativas en forma alguna. Se pueden realizar diversos cambios sin alejarse del alcance de la presente divulgación tal como se define en las siguientes reivindicaciones.

Claims (15)

REIVINDICACIONES
1. Un sistema quirúrgico (1) que comprende:
una cámara (15) y una óptica (3), donde la óptica (3) está configurada para formar imágenes de un campo de visión (7) en la cámara (15), donde la cámara (15) está configurada para obtener imágenes de cámara bidimensionales (140) del campo de visión (7) y generar datos de imágenes de cámara que representan las imágenes de cámara (140); un sistema de OCT (5) configurado para realizar escaneos de profundidad (A-scan) en ubicaciones que se pueden seleccionar (141) contenidas en el campo de visión (7) y generar datos de escaneos de profundidad que representan los escaneos de profundidad;
una memoria de datos (171);
un controlador (29) configurado para:
- recibir los datos de imágenes de cámara desde la cámara (15) y los datos de profundidades de escaneo desde el sistema de OCT (5) y procesar las imágenes de cámara (140) representadas por los datos de imágenes de cámara y los escaneos de profundidad representados por los datos de escaneos de profundidad;
- identificar una primera parte (152) de al menos un instrumento quirúrgico (131) en las imágenes de cámara (140) mediante reconocimiento de objetos;
- determinar las primeras ubicaciones (141) y las segundas ubicaciones (141) en el campo de visión (7) basándose en al menos uno de las imágenes de cámara (140) y los segundos escaneos de profundidad, donde el o los instrumentos quirúrgicos (131) están situados en las primeras ubicaciones y donde las segundas ubicaciones están situadas a un lado del o de los instrumentos quirúrgicos (131);
- activar el sistema de OCT (5) para realizar los primeros escaneos de profundidad en las primeras (141) y segundas (141) ubicaciones determinadas;
- generar una primera imagen (154) que representa al menos una tercera parte (157) del o de los instrumentos quirúrgicos (131);
donde
la memoria de datos (171) almacena los datos geométricos del o de los instrumentos quirúrgicos (131);
el reconocimiento de objetos para la identificación de la primera parte (152) utiliza los datos geométricos del o de los instrumentos quirúrgicos (131);
caracterizado por que el controlador (29) está configurado además para:
- identificar una segunda parte (153) del o de los instrumentos quirúrgicos (131) en los primeros escaneos de profundidad mediante reconocimiento de objetos, utilizando los datos geométricos del o de los instrumentos quirúrgicos (131);
donde la representación de la o las terceras partes (157) del o de los instrumentos quirúrgicos (131) se basa en los datos geométricos, y donde una posición de la representación de la o las terceras partes (157) del o de los instrumentos quirúrgicos (131) en la primera imagen generada (154) se basa en los primeros escaneos de profundidad.
2. El sistema quirúrgico (1) de acuerdo con la reivindicación 1,
donde la o las terceras partes (157) del o de los instrumentos quirúrgicos (131) son inidentificables en los primeros escaneos de profundidad; y/o
donde la primera imagen generada (154) representa además la segunda parte (153) del o de los instrumentos quirúrgicos (131), donde la representación de la segunda parte (153) del o de los instrumentos quirúrgicos (131) se basa en los datos geométricos, y donde una posición de la representación de la segunda parte (153) del o de los instrumentos quirúrgicos (131) en la primera imagen generada (154) se basa en los primeros escaneos de profundidad.
3. El sistema quirúrgico (1) de acuerdo con la reivindicación 1 o 2, donde la primera imagen generada (154) representa además los primeros escaneos de profundidad.
4. El sistema quirúrgico (1) de acuerdo con la reivindicación 3, donde los primeros escaneos de profundidad y la o las terceras partes (157) del o de los instrumentos quirúrgicos (131) se representan mediante colores diferentes en la primera imagen generada (154); y/o donde los primeros escaneos de profundidad y la segunda parte (153) del o de los instrumentos quirúrgicos (131) se representan mediante colores diferentes en la primera imagen generada (154).
5. El sistema quirúrgico (1) de acuerdo con una de las reivindicaciones 1 a 4, donde la memoria de datos (171) almacena además los datos geométricos de al menos una estructura anatómica, donde el controlador (29) está configurado además para identificar una primera parte de la o las estructuras anatómicas en los escaneos de profundidad mediante reconocimiento de objetos, utilizando los datos geométricos de la o las estructuras anatómicas, y
donde la primera imagen generada (154) representa además al menos una segunda parte de la o las estructuras anatómicas, donde la representación de la o las segundas partes de la o las estructuras anatómicas se basa en los datos geométricos de la o las estructuras anatómicas, y donde una posición de la representación de la o las segundas partes de la o las estructuras anatómicas en la primera imagen generada (154) se basa en los primeros escaneos de profundidad.
6. El sistema quirúrgico (1) de acuerdo con la reivindicación 5, donde los primeros escaneos de profundidad y la o las segundas partes de la o las estructuras anatómicas se representan mediante colores diferentes en la primera imagen generada (154); y/o donde los datos geométricos de la o las estructuras anatómicas son datos geométricos de capas de tejido de una retina de un ojo.
7. El sistema quirúrgico (1) de acuerdo con una de las reivindicaciones 1 a 6, donde el o los instrumentos quirúrgicos (131) tienen un extremo distal (137), y
donde las primeras ubicaciones comprenden unas terceras ubicaciones donde está situado el extremo distal (137) del o de los instrumentos quirúrgicos (131).
8. El sistema quirúrgico (1) de acuerdo con la reivindicación 7, donde el controlador (29) activa el sistema de OCT (5) para realizar los primeros escaneos de profundidad en las terceras ubicaciones con una tasa más elevada en comparación con aquellos realizados en ubicaciones que están situadas a cierta distancia del extremo distal (137) del o de los instrumentos quirúrgicos (131) en el campo de visión (7).
9. El sistema quirúrgico (1) de acuerdo con una de las reivindicaciones 1 a 8, donde las primeras ubicaciones y las segundas ubicaciones están situadas a cierta distancia entre sí y en al menos una línea (142) (escaneos B-scan).
10. El sistema quirúrgico (1) de acuerdo con la reivindicación 9, donde el o los instrumentos quirúrgicos (131) tiene un eje longitudinal, y donde la o las líneas (142) están orientadas al menos en una de paralelas al eje longitudinal y ortogonales al eje longitudinal.
11. El sistema quirúrgico (1) de acuerdo con una de las reivindicaciones 1 a 10, donde el controlador (29) comprende una interfaz de usuario, en particular, una interfaz de usuario que comprende una pantalla (41, 83) y donde el controlador (29) está configurado además para visualizar la primera imagen generada (154) en la pantalla (41, 83); y/o
donde el controlador (29) está configurado además para generar una segunda imagen que representa la imagen de cámara (140) y una de la primera parte (152) y la segunda parte (153) del o de los instrumentos quirúrgicos (131).
12. El sistema quirúrgico (1) de acuerdo con la reivindicación 11, donde la interfaz de usuario comprende un ocular (13), donde la óptica (3) está configurada además para formar imágenes de al menos una parte del campo de visión (7) a través del ocular (13).
13. El sistema quirúrgico (1) de acuerdo con la reivindicación 12, donde el controlador (29) está configurado además para generar una tercera imagen que representa la primera parte (152) y la segunda parte (153) del o de los instrumentos quirúrgicos (131) y proyectar la segunda imagen generada en una trayectoria de haz hacia el ocular (13).
14. El sistema quirúrgico (1) de acuerdo con una de las reivindicaciones 11 a 13, donde la memoria de datos (171) almacena los datos geométricos de al menos tres instrumentos quirúrgicos (131), donde la interfaz de usuario comprende un componente configurado para obtener una selección de al menos uno de los tres o más instrumentos quirúrgicos (131) de un usuario, donde el controlador (29) utiliza los datos geométricos del o de los instrumentos quirúrgicos seleccionados para el reconocimiento de objetos, y donde el controlador (29) no utiliza los datos geométricos del o de los instrumentos quirúrgicos no seleccionados para el reconocimiento de objetos.
15. El sistema quirúrgico (1) de acuerdo con una de las reivindicaciones 1 a 14, donde una trayectoria de haz del sistema de OCT (5) atraviesa los componentes ópticos (17) de la óptica (3).
ES15001594T 2014-05-27 2015-05-27 Sistema quirúrgico con formación de imágenes mediante OCT Active ES2895449T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014007908.2A DE102014007908A1 (de) 2014-05-27 2014-05-27 Chirurgie-System

Publications (1)

Publication Number Publication Date
ES2895449T3 true ES2895449T3 (es) 2022-02-21

Family

ID=53268583

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15001594T Active ES2895449T3 (es) 2014-05-27 2015-05-27 Sistema quirúrgico con formación de imágenes mediante OCT

Country Status (4)

Country Link
US (1) US9733463B2 (es)
EP (1) EP2949284B1 (es)
DE (1) DE102014007908A1 (es)
ES (1) ES2895449T3 (es)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10299773B2 (en) * 2011-08-21 2019-05-28 Transenterix Europe S.A.R.L. Device and method for assisting laparoscopic surgery—rule based approach
WO2016055422A1 (de) 2014-10-06 2016-04-14 Carl Zeiss Meditec Ag Operationssystem mit einer oct-einrichtung
DE102015002729A1 (de) * 2015-02-27 2016-09-01 Carl Zeiss Meditec Ag Ophthalmologische Lasertherapievorrichtung und Verfahren zur Erzeugung cornealer Zugangsschnitte
US20160331584A1 (en) * 2015-05-14 2016-11-17 Novartis Ag Surgical tool tracking to control surgical system
US9560326B2 (en) * 2015-06-25 2017-01-31 Intel Corporation Technologies for projecting a proportionally corrected image
CN113925610A (zh) 2015-12-31 2022-01-14 史赛克公司 用于在由虚拟对象限定的目标部位处对患者执行手术的系统和方法
US10973585B2 (en) * 2016-09-21 2021-04-13 Alcon Inc. Systems and methods for tracking the orientation of surgical tools
EP3607922B1 (en) 2017-05-09 2022-07-20 Sony Group Corporation Image processing device, image processing method, and image processing program
DE102020102012B4 (de) * 2020-01-28 2022-12-01 Carl Zeiss Meditec Ag Anordnung mit einer OCT-Einrichtung für das Ermitteln einer 3D-Rekonstruktion eines Objektbereichsvolumens sowie Computerprogramm und computerimplementiertes Verfahren hierfür

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
WO2009116465A1 (ja) * 2008-03-21 2009-09-24 株式会社 日立メディコ 医用画像表示装置及び医用画像表示方法
JP5346938B2 (ja) * 2008-09-01 2013-11-20 株式会社日立メディコ 画像処理装置、及び画像処理装置の作動方法
US8690776B2 (en) * 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
US8641621B2 (en) * 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8311791B1 (en) * 2009-10-19 2012-11-13 Surgical Theater LLC Method and system for simulating surgical procedures
US10045882B2 (en) * 2009-10-30 2018-08-14 The Johns Hopkins University Surgical instrument and systems with integrated optical sensor
US8836723B2 (en) 2010-06-18 2014-09-16 Vantage Surgical Systems, Inc. Augmented reality methods and systems including optical merging of a plurality of component optical images
US20120022408A1 (en) 2010-06-18 2012-01-26 Vantage Surgical Systems, Inc. Surgical Procedures Using Visual Images Overlaid with Visual Representations of Selected Three-Dimensional Data
US20130123759A1 (en) 2010-07-20 2013-05-16 The Johns Hopkins University Surface tracking and motion compensating surgical tool system
CN103153248B (zh) 2010-07-20 2016-09-07 约翰霍普金斯大学 外科手术工具系统及外科手术工具
WO2012100030A2 (en) 2011-01-19 2012-07-26 Duke University Imaging and visualization systems, instruments, and methods using optical coherence tomography
DE102011015149B4 (de) 2011-03-25 2013-01-17 Carl Zeiss Meditec Ag Operationsmikroskopiesystem
WO2012141868A1 (en) * 2011-04-15 2012-10-18 Faro Technologies, Inc. Enhanced position detector in laser tracker
EP2713847A2 (en) 2011-05-24 2014-04-09 Jeffrey Brennan Scanning endoscopic imaging probes and related methods
EP2816984B1 (en) 2012-02-22 2019-04-03 Schachar, Ira, H. Device for treatment of retinal detachment and other maladies of the eye
US9092996B2 (en) 2012-03-01 2015-07-28 Simquest Llc Microsurgery simulator
US20140142591A1 (en) * 2012-04-24 2014-05-22 Auris Surgical Robotics, Inc. Method, apparatus and a system for robotic assisted surgery
US9335455B2 (en) 2012-05-30 2016-05-10 Cygnus, LP Extended tip laser and illumination probe for retina surgery
JP5934070B2 (ja) * 2012-09-26 2016-06-15 富士フイルム株式会社 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
JP5961504B2 (ja) * 2012-09-26 2016-08-02 富士フイルム株式会社 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
WO2014121268A1 (en) 2013-02-04 2014-08-07 The Cleveland Clinic Foundation Instrument depth tracking for oct-guided procedures
CN103110475B (zh) 2013-03-04 2015-12-30 深圳市眼科医院 用于修复视网膜脱离手术的裂孔定位器
US9041914B2 (en) * 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US8880151B1 (en) * 2013-11-27 2014-11-04 Clear Guide Medical, Llc Surgical needle for a surgical system with optical recognition

Also Published As

Publication number Publication date
DE102014007908A1 (de) 2015-12-03
EP2949284A1 (en) 2015-12-02
EP2949284B1 (en) 2021-08-04
US9733463B2 (en) 2017-08-15
US20150342698A1 (en) 2015-12-03

Similar Documents

Publication Publication Date Title
ES2895449T3 (es) Sistema quirúrgico con formación de imágenes mediante OCT
US20220241013A1 (en) Quantitative three-dimensional visualization of instruments in a field of view
JP6042468B2 (ja) 光コヒーレンストモグラフィによる誘導に基づくマイクロサージェリーシステムおよびナビゲーション方法
KR101572487B1 (ko) 환자와 3차원 의료영상의 비침습 정합 시스템 및 방법
JP6883222B2 (ja) 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム
ES2815800T3 (es) Sistema de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo de un paciente
US20120019777A1 (en) System and Method for Visualizing Objects
ES2617483T3 (es) Sistema de guiado basado en la formación de imágenes para acoplamiento oftálmico utilizando un análisis de ubicación-orientación
ES2942626T3 (es) Sistema de seguimiento para tomografía de coherencia óptica quirúrgica
JP6525777B2 (ja) 眼科手術システム
CN106061349B (zh) 用于测量组织区域的装置和方法
ES2726720T3 (es) Modificación de imagen de TCO
CN108601511A (zh) 医疗图像处理装置、系统、方法以及程序
US20190000314A1 (en) Systems and Methods for Posterior Segment Visualization and Surgery
JP2023539962A (ja) リアルタイム画像上に仮想画像を重ね合わせるためのシステムおよび方法
Schoob et al. Comparative study on surface reconstruction accuracy of stereo imaging devices for microsurgery
Furukawa et al. Calibration of a 3d endoscopic system based on active stereo method for shape measurement of biological tissues and specimen
US20220092805A1 (en) Optical caliper for 3-d endoscopic imaging and measurement
JP7408504B2 (ja) 少なくとも1つのトロカールポイントの相対位置を提供するための眼科外科手術システム及びコンピュータ実装方法
WO2020189299A1 (ja) スリットランプ顕微鏡
JP4944714B2 (ja) 前眼部観察装置
US20210137601A1 (en) Device and method for imaging during implantation of retina implants
EP3603484B1 (en) Information processing device, surgical tool, information processing method, and program
Clancy et al. Gaze-contingent autofocus system for robotic-assisted minimally invasive surgery
JP6687877B2 (ja) 撮像装置及びそれを用いた内視鏡装置