ES2815800T3 - Sistema de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo de un paciente - Google Patents

Sistema de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo de un paciente Download PDF

Info

Publication number
ES2815800T3
ES2815800T3 ES16825885T ES16825885T ES2815800T3 ES 2815800 T3 ES2815800 T3 ES 2815800T3 ES 16825885 T ES16825885 T ES 16825885T ES 16825885 T ES16825885 T ES 16825885T ES 2815800 T3 ES2815800 T3 ES 2815800T3
Authority
ES
Spain
Prior art keywords
patient
viewer
probe
optical guide
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16825885T
Other languages
English (en)
Inventor
Alessandro Rotilio
Marco Solbiati
Maurizio Mirabile
Luigi Zeni
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
R A W Srl
Original Assignee
R A W Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by R A W Srl filed Critical R A W Srl
Application granted granted Critical
Publication of ES2815800T3 publication Critical patent/ES2815800T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/062Measuring instruments not otherwise provided for penetration depth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/066Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring torque
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0807Indication means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Nuclear Medicine (AREA)

Abstract

Sistema (1) de navegación, seguimiento y guiado para el posicionamiento de instrumentos (5) quirúrgicos dentro del cuerpo de un paciente (P) que comprende: - una unidad (2) de control configurada para recibir una pluralidad de información relacionada con el estado interno del cuerpo de un paciente (P), - un visor (3) configurado de tal manera que un operador pueda ver al menos una porción interna (Pi) del cuerpo del paciente (P) a través de dicho visor (3), - primeros medios (4) de detección para la determinación de la posición espacial de dicho visor (3); estando configurada dicha unidad (2) de control para controlar una proyección en dicho visor (3) de una imagen del estado interno de dicha al menos una porción interna (Pi) del cuerpo del paciente (P), obteniéndose dicha imagen procesando dicha pluralidad de información sobre la base de dicha posición espacial de dicho visor (3); en el que el sistema también comprende una sonda asociada a un instrumento (5) quirúrgico e insertable dentro de la porción interna (Pi) del cuerpo de dicho paciente (P), estando dicho sistema caracterizado porque dicha sonda comprende al menos una guía óptica que tiene zonas de dispersión de un flujo luminoso generado dentro de dicha guía óptica, realizándose dichas zonas de dispersión mediante micromecanizado de una carcasa exterior de dicha guía óptica, y medios de detección de la dispersión de dicho flujo luminoso para identificar la disposición espacial de la sonda cuando se inserta dentro del cuerpo del paciente (P), dicha unidad (2) de control también está configurada para controlar una proyección en dicho visor (3) de una imagen de dicha sonda en base a la disposición espacial identificada; en el que dichas zonas de dispersión están definidas por una serie de primeras zonas de dispersión dispuestas en secuencia a lo largo de al menos una porción de dicha guía óptica.

Description

DESCRIPCIÓN
Sistema de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo de un paciente
La presente invención se refiere a un sistema de navegación, seguimiento y guía para la colocación de instrumentos quirúrgicos dentro del cuerpo de un paciente en el que se utiliza la realidad aumentada como interfaz del operador. El sistema de la presente invención es particularmente adecuado para aplicaciones tales como radiología diagnóstica, radiología quirúrgica oncológica, radiología quirúrgica vascular, procedimientos realizados mediante la inserción de sondas y/o agujas (tales como biopsias y aspiraciones de líquidos) y neurocirugía.
Hasta la fecha, en el campo de la cirugía y la navegación quirúrgica, se conoce el uso de sistemas que emplean imágenes radiológicas y las interconectan con el movimiento de la sonda de ultrasonidos.
Por ejemplo, durante este tipo de navegación quirúrgica se utilizan sistemas equipados con dispositivos de tomografía computarizada (TC), que proporcionan imágenes radiológicas en tiempo real y durante la operación (escaneos TC intraoperatorios).
También existen otros sistemas conocidos que pueden proporcionar el seguimiento virtual de sondas de ablación, pero sin proporcionar ninguna información sobre la deformación.
Por otro lado, se conoce el uso de anteojos de quirófano provistos de una pantalla para visualizar imágenes. A tal efecto, el documento EP2737868A1 describe un sistema que incluye una lupa quirúrgica inalámbrica, que permite a un usuario que utiliza la lente inalámbrica durante la ejecución de un procedimiento transmitir la información obtenida de la lente inalámbrica y visualizar la información del paciente en un monitor. De esta manera, la información transmitida se puede utilizar para ayudar al procedimiento en el quirófano y mejorar las instrucciones y ser registrada para su uso posterior.
Además, el documento US 6,847,336 B1 describe un sistema y un método para la visualización de datos en una pantalla translúcida montada en el campo de visión normal de un usuario. La pantalla puede montarse en la cabeza del usuario o montarse en una estructura móvil y colocarse frente al usuario. Se muestra una interfaz de usuario en la pantalla, que incluye un cursor móvil y un menú de iconos de control del ordenador. Un sistema de “seguimiento ocular” está montado en las proximidades del usuario y se usa para controlar el movimiento del cursor.
Además, el documento US7501995B2 describe un sistema y un método para la presentación de información de apoyo clínico que emplea navegación asistida por la vista.
Además, el documento WO2009083191A1 describe un sistema de visualización selectiva que permite visualizar de forma selectiva datos e información en un dispositivo de visualización montado en gafas.
Por otro lado, es igualmente conocida la reconstrucción de imágenes médicas mediante visualización tridimensional 3D, en las que se proporciona el seguimiento tridimensional del volumen sobre el paciente, así como, posiblemente, también el seguimiento de la aguja en los diversos campos de aplicación médica y quirúrgica.
Por ejemplo, el documento US5526812A describe un sistema de visualización que permite aumentar y mejorar la visualización de las estructuras corporales durante los procedimientos médicos.
Otros ejemplos de sistemas y métodos de navegación en realidad aumentada en los procedimientos relacionados con intervenciones médicas se describen en los documentos US 7,774,044 B2, Us 2002/0082498 A1 y US 2013/0267838 A1. El documento US2005/020910 da a conocer un sistema de navegación, seguimiento y guía de acuerdo con el preámbulo de la reivindicación 1.
Aunque todos los sistemas listados anteriormente describen diversos métodos de asistencia al operador durante la cirugía, todavía existen algunas limitaciones en el caso de intervenciones mínimamente invasivas.
De hecho, en el caso de intervenciones mínimamente invasivas, se proporciona la inserción de instrumentos quirúrgicos dentro del paciente, es decir, sondas, capaces de realizar operaciones sin abrir el cuerpo de un paciente. Tales intervenciones son complicadas debido a las dificultades para estimar con precisión la posición de los tejidos sobre los que es necesario operar y de los instrumentos a insertar. Por esta complejidad, a menudo ocurren errores durante la finalización de la cirugía.
Estos sistemas combinan el uso de ultrasonidos, caracterizados por una baja resolución espacial, la visualización de imágenes radiológicas, caracterizadas por una alta resolución, mediante el seguimiento de la(s) sonda(s) de ultrasonidos para intervenciones mínimamente invasivas con sensores electromagnéticos o sistemas ópticos, sin o con baja resolución espacial.
En este contexto, la tarea técnica subyacente a la presente invención es proponer un sistema/método de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo del paciente que supere uno o más inconvenientes de la técnica anterior mencionados anteriormente.
En particular, es un objetivo de la presente invención proporcionar un sistema/método de navegación, seguimiento y guía y una guía para el posicionamiento de instrumentos quirúrgicos en los que se utiliza la realidad aumentada como interfaz del operador, de modo que le permita al operador operar al paciente de manera precisa, confiable, segura y eficiente.
Ventajosamente, la invención se refiere a un sistema y un método que aglutina diferentes tecnologías que permiten, todas juntas o en combinaciones de las mismas, la visualización, en dispositivos de cualquier tipo, de imágenes relacionadas con estructuras internas del cuerpo de un paciente (de tipo biomédico, fisiológico y patológico) y se refiere a instrumentos quirúrgicos parcialmente insertados dentro del cuerpo del paciente, por lo que ambos no son visibles externamente para el operador, a menos que el cuerpo del paciente esté abierto. Estas imágenes, en 2, 3 o 4 dimensiones, se hacen visibles al operador en posiciones correspondientes a la posición real en el espacio de las estructuras que ellas representan.
Ventajosamente, de acuerdo con la invención, la pantalla también se refiere al uso, seguimiento y posicionamiento de instrumentos quirúrgicos para un enfoque particular en el “direccionamiento” de patologías dentro del cuerpo humano.
Por tanto, la presente invención proporciona un sistema de navegación, seguimiento y guiado para la colocación de instrumentos quirúrgicos dentro de un paciente en el que se utiliza la realidad aumentada como interfaz de operador para visualizar en tiempo real el área operativa interna del paciente en la posición externa real exacta de un paciente.
De acuerdo con un primer aspecto de la invención, la mencionada tarea técnica y los objetivos especificados se logran sustancialmente mediante un sistema de navegación, seguimiento y guía para el posicionamiento de los instrumentos quirúrgicos dentro del paciente, que comprende las características técnicas expuestas en una o más de las reivindicaciones adjuntas.
En particular, la presente invención proporciona un sistema de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo de un paciente, que comprende:
- una unidad de control configurada para recibir una pluralidad de información relacionada con el estado interno del cuerpo de un paciente,
- un visor configurado de tal manera que un operador pueda ver al menos una porción interna del cuerpo de un paciente a través del visor, y
- primeros medios de detección para determinar la posición espacial del visor.
La unidad de control está configurada para proyectar en el visor una imagen del estado interno de la porción interna del cuerpo de un paciente, en la que la imagen se obtiene procesando la pluralidad de información en base a la posición espacial del visor.
El sistema de la presente invención comprende además una sonda asociada a un instrumento quirúrgico e insertable dentro de la porción del cuerpo de un paciente, en la que la sonda comprende al menos una guía óptica que tiene zonas de dispersión de un flujo luminoso generado dentro de la guía óptica y los medios de detección de la dispersión del flujo luminoso con el fin de identificar la disposición espacial de la sonda cuando se inserta dentro del paciente.
La unidad de control de la invención también está configurada para proyectar en el visor la imagen de la sonda, en base a la disposición espacial identificada.
Las reivindicaciones dependientes, incluidas aquí como referencia, corresponden a diferentes realizaciones de la invención.
En un segundo aspecto de la presente divulgación, la tarea técnica mencionada y los objetivos especificados se logran sustancialmente mediante un método de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del paciente, que comprende las características técnicas establecidas en uno o más de las reivindicaciones adjuntas.
El método de la presente divulgación, que no forma parte de la invención, comprende los pasos de:
- proporcionar un visor configurado de tal manera que un operador pueda ver al menos una porción interna del cuerpo del paciente (P) a través de dicho visor;
- proporcionar primeros medios de detección para determinar la posición espacial del visor;
proporcionar una unidad de control para realizar los pasos de:
- recibir una pluralidad de información relacionada con el estado interno del cuerpo de un paciente,
- procesar la pluralidad de información basándose en la posición espacial del visor; y
- proyectar en el visor una imagen del estado interno de la al menos una porción interna del cuerpo del paciente en base al procesamiento realizado.
Ventajosamente, el método comprende las etapas de:
- proporcionar una sonda asociada a un instrumento quirúrgico e insertable dentro de la porción del cuerpo de un paciente, comprendiendo la sonda al menos una guía óptica que tiene zonas de dispersión de un flujo luminoso generado dentro de dicha guía óptica y medios de detección de la dispersión de flujo luminoso para identificar la disposición espacial de la sonda cuando se inserta dentro del cuerpo del paciente,
- además, proyectar en el espectador la imagen de la sonda basada en la disposición espacial identificada, por la unidad de control.
También se divulga un método de navegación, seguimiento y guiado para el posicionamiento de instrumentos quirúrgicos dentro del paciente, caracterizado porque es realizado por un ordenador. También se divulga un programa informático caracterizado porque realiza los pasos del método descrito, cuando se ejecuta en un ordenador.
Otras características y ventajas de la presente invención resultarán más evidentes a partir de la descripción indicativa, y por lo tanto no limitativa, de una realización preferida pero no exclusiva de un sistema de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo de un paciente, como se ilustra en el dibujo adjunto, en el que la figura 1 es una vista esquemática en perspectiva de un sistema de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo de un paciente de acuerdo con la presente invención durante una configuración operativa.
Con referencia a las figuras adjuntas, 1 generalmente indica un sistema de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo de un paciente, en adelante simplemente indicado como sistema 1.
El sistema 1 comprende una unidad 2 de control configurada para recibir una pluralidad de información relacionada con el estado interno del cuerpo de un paciente P.
Preferiblemente, la pluralidad de información relativa al estado interno del cuerpo de un paciente P se produce al menos a través de un escaneo, por ejemplo, RX (rayos X), MRI (imágenes de resonancia magnética), CT (tomografía axial computarizada), PET-CT (tomografía por emisión de positrones computarizada).
El escaneo puede realizarse in situ o precargarse en la unidad 2 de control.
El sistema 1 comprende un visor 3 configurado de tal manera que un operador, no mostrado, puede ver al menos una porción interna Pi del cuerpo del paciente P a través del visor 3.
El sistema también comprende primeros medios 4 de detección para determinar la posición espacial del visor 3. La unidad 2 de control está configurada para proyectar en el visor 3 una imagen del estado interno de la porción interna Pi del cuerpo de un paciente P; en particular, la imagen se obtiene desarrollando la pluralidad de información sobre la base de la posición espacial del visor 3.
En otras palabras, la unidad 2 de control puede proyectar una imagen de realidad aumentada del interior del cuerpo de un paciente P en el visor 3 que varía dependiendo de la disposición espacial del visor 3.
Preferiblemente, el visor 3 está dispuesto a lo largo de una porción del cuerpo del operador del eje visual del paciente P para garantizar las mejores condiciones ergonómicas para el operador y evitar cualquier problema de coordinación.
Preferiblemente, de acuerdo con una realización preferida de la presente invención ilustrada en la Figura 1, el visor 3 está definido por un visor facial que puede llevar puesto el operador (también llamado Pantalla Montada en la Cabeza, HMD), por ejemplo, anteojos con lentes al menos parcialmente transparentes.
Preferiblemente, el visor 3 comprende un giroscopio, una brújula y una unidad de medición inercial; ventajosamente, estos elementos permiten una identificación correcta y precisa de la posición espacial del visor 3.
Preferiblemente, el visor 3 también comprende un sensor de profundidad adaptado para registrar un volumen reconstruido del paciente, lo que ventajosamente permite al operador explorar órganos y patologías dentro del cuerpo del paciente P mientras mira al mismo paciente P.
Ventajosamente, el sistema 1 de acuerdo con la presente invención comprende además una sonda, no ilustrada, asociada (es decir, insertada internamente) a un instrumento 5 quirúrgico e insertable dentro de la porción Pi del cuerpo del paciente P.
La sonda comprende al menos una guía óptica, no representada, que tiene zonas de dispersión de un flujo luminoso generado en el interior de la guía óptica y medios de detección para la detección de la dispersión del flujo luminoso, con el fin de identificar la disposición espacial de la sonda cuando se inserta dentro del paciente P.
De hecho, la unidad 2 de control también está configurada para proyectar en la pantalla 3 la imagen de la sonda, basándose en la disposición espacial identificada.
Por tanto, gracias a la presente invención, el operador puede mostrar en el visor 3 lo que de otro modo no sería visible a simple vista. De hecho, la unidad 2 de control transmite al visor 3 una imagen de realidad aumentada que, además de mostrar el estado interno del cuerpo del paciente P, también muestra el movimiento de la sonda (y por tanto del instrumento 5 quirúrgico asociado a este) dentro de la porción interna Pi del cuerpo del mismo paciente P. Por tanto, la imagen real del paciente P visible a través del visor 3 se superpone a una imagen virtual proyectada en transparencia, que muestra los órganos y tejidos internos del paciente P junto con la porción de sonda insertada dentro del paciente P que de otra manera no sería visible.
Gracias a la presente invención, por tanto, el operador puede operar con absoluta seguridad y precisión en la zona afectada sin necesidad de tener que abrir el cuerpo del paciente P para visualizar el área operatoria y la posición/movimiento de los instrumentos 5 quirúrgicos.
Como se mencionó anteriormente, para identificar la disposición espacial de la sonda cuando se inserta dentro del paciente P, se proporciona una guía óptica, dentro de la cual fluye un flujo luminoso; Modulando y midiendo las pérdidas de potencia óptica reflejadas a través de las áreas de dispersión, es posible determinar, y, por tanto, visualizar en el visor 3 mediante la unidad 2 de control, la posición de la sonda dentro del paciente P.
Por tanto, es posible comprobar y visualizar en tiempo real el correcto manejo de los instrumentos 5 quirúrgicos que incorporan sondas del tipo objeto de la presente invención con el fin de operar de forma precisa y fiable.
En otras palabras, la guía óptica está micromecanizada a lo largo de su eje central para introducir pérdidas de potencia óptica reflejada que varían de acuerdo con la entidad y dirección de la curvatura a la que está sometida. Las zonas de dispersión se realizan preferentemente mediante un procedimiento de micromecanizado de la guía óptica, que consiste en la abrasión mecánica directa de la carcasa exterior de la guía (también llamado “revestimiento”) con el fin de reducir localmente el grado de confinamiento de la luz en el núcleo.
La parte de la guía óptica sometida a la retirada selectiva del revestimiento permite que la luz, ya no confinada dentro del núcleo, escape hacia el exterior, provocando una pérdida de potencia reflejada.
La pérdida de potencia óptica aumenta o disminuye siguiendo la curvatura positiva o negativa de la guía óptica, por lo que la pérdida de potencia parece ser directamente proporcional a la curvatura del área sensible (también denominada “núcleo”) de la guía óptica.
Por tanto, de acuerdo con el principio de funcionamiento del presente sistema 1, se proporciona la integración de la medición de la flexión de la sonda, con datos de posición que se originan en los primeros medios 4 de detección para determinar la posición espacial del visor 3.
De acuerdo con una posible realización de la presente invención, el sistema de referencia espacial se realiza con un brazo articulado con cinco grados de libertad, lo que permite proporcionar las coordenadas cartesianas X, Y, Z de la sonda, con respecto al sistema de referencia del “campo operatorio”.
Preferiblemente, las zonas de dispersión están definidas por una serie de primeras zonas de dispersión dispuestas en secuencia a lo largo de al menos una porción de dicha guía óptica.
Preferiblemente, las zonas de dispersión están definidas además por una serie de segundas zonas de dispersión dispuestas en secuencia a lo largo de al menos una porción de dicha guía óptica y dispuestas radialmente escalonadas con respecto a un eje central de la guía óptica.
Gracias a la configuración escalonada de las dos series de zonas de dispersión, es posible obtener una estimación precisa de la disposición espacial de la sonda.
Incluso más preferiblemente, las segundas zonas de dispersión están dispuestas en un ángulo de 90 ° con respecto a la serie de primeras zonas de dispersión, en las que el ángulo se mide con respecto a un eje central de la guía óptica.
Preferiblemente, la sonda comprende dos guías ópticas paralelas, en las que la serie de primeras zonas de dispersión y la serie de segundas zonas de dispersión están definidas respectivamente en una de las dos guías ópticas.
Preferiblemente, la guía óptica está conectada a una fuente de luz, en particular una fuente de láser, no mostrada, y tiene una pared reflectante dispuesta en un extremo terminal libre, en el que entre la fuente de láser y la pared reflectante está dispuesto un acoplador direccional, conectado a un osciloscopio.
Ventajosamente, cerrando con material reflectante el extremo libre de la fibra óptica, se puede generar un retorno de la luz en sentido contrario.
Preferiblemente, el sistema comprende un conjunto de conversión de video, no mostrado, conectado a la unidad 2 de control.
Preferiblemente, el conjunto de conversión de video comprende: al menos dos convertidores VGA-HDMI, al menos un convertidor BNC-HDMI y al menos dos puertos HDMI. Aún más preferiblemente, los convertidores están dispuestos en un solo contenedor y las cinco señales de video definen la entrada de un “conmutador” y “escalador” con cinco entradas y una única salida HDMI. Las señales de video son recogidas por un conmutador y enviadas en estándar HDMI al visor 3.
Las señales de vídeo se envían al visor 3 mediante un dispositivo de espejo o un codificador; alternativamente, es posible utilizar un servidor local.
De acuerdo con una posible realización del presente sistema, se espera que las señales de vídeo puedan ser seleccionadas por el operador por medio de un dispositivo de presión, por ejemplo, un pedal.
El pedal es útil para la ergonomía durante la cirugía en la que el médico/operador debe mirar diferentes monitores, tanto durante la operación como durante el diagnóstico, así como durante la focalización en el campo de la biopsia. Preferiblemente, el sistema 1 comprende segundos medios 6 de detección de la superficie exterior del cuerpo del paciente P, no ilustrado, conectado con la unidad 2 de control y que comprende por ejemplo una cámara o una cámara estereoscópica, preferiblemente integral con el visor 3.
Ventajosamente, los segundos medios 6 de detección de la superficie exterior del cuerpo del paciente P permiten registrar la operación mientras el operador la realiza; además, si se instalan en el visor 3, son especialmente útiles tanto en lo que respecta a las instrucciones, porque es posible obtener directamente el punto de vista clínico, como los aspectos legales, porque ellos registran toda la operación.
Preferiblemente, el visor 3 comprende una unidad de transmisión y recepción de datos, no ilustrada, preferiblemente vía WiFi, conectada con el primer medio de detección para determinar la posición espacial del visor 3 y/o conectado con los segundos medios 6 de detección de la superficie exterior del cuerpo del paciente P.
Para permitir la visualización de una imagen de realidad aumentada lo más fiel y consistente posible con el estado interno real del paciente P, es necesario tener en cuenta los parámetros vitales del paciente P (respiración, latidos del corazón, etc.). De hecho, las exploraciones radiológicas solo pueden proporcionar una imagen estática del interior del paciente P.
Para este propósito, es necesario identificar la variación de la configuración espacial de la superficie exterior del cuerpo del paciente P que el operador mira a través del visor 3 con el fin de obtener una correcta superposición/proyección de la imagen procesada por la unidad 2 de control sobre la imagen real del paciente P. La invención proporciona disponer unos segundos medios 6 de detección de la superficie exterior del cuerpo del paciente P conectados con la unidad 2 de control.
En particular, la invención prevé disponer al menos tres primeros marcadores físicos adecuados para disponerse en la superficie exterior de la porción del cuerpo Pi del paciente P y detectables por los propios segundos medios 6 de detección mismos; detectar el posicionamiento dinámico de los primeros marcadores físicos para enviar una pluralidad de información a la unidad 2 de control; y por la unidad 2 de control, alineando los primeros marcadores virtuales de la imagen del estado interno proyectada en el visor 3 con los primeros marcadores físicos dispuestos en el cuerpo del paciente P.
En otras palabras, los segundos medios 6 de detección de la superficie exterior del cuerpo del paciente P comprenden al menos tres primeros marcadores físicos (preferiblemente electromagnéticos u ópticos), no ilustrados en las figuras adjuntas, aptos para estar dispuestos en la superficie exterior de la porción del cuerpo Pi del paciente P y detectables por los propios segundos medios 6 de detección mismos. Los segundos medios 6 de detección de la superficie exterior del cuerpo del paciente P detectan el posicionamiento dinámico de los primeros marcadores físicos para enviar una pluralidad de información a la unidad 2 de control, que está configurada ventajosamente para alinear los primeros marcadores virtuales de la imagen del estado interno proyectado en el visor 3 con los primeros marcadores físicos dispuestos en el cuerpo del paciente P.
Esto permite generar una imagen de realidad aumentada precisa y de buena calidad que refleja instantáneamente el estado real del paciente en su interior, habiendo sido “corregidas” las imágenes fijas con los parámetros vitales del paciente P.
La invención prevé disponer un segundo marcador físico dispuesto en la sonda y adecuado para ser dispuesto en uso fuera del cuerpo del paciente P, y también para detectar la posición física del segundo marcador utilizando los segundos medios 6 de detección de la superficie exterior del cuerpo del paciente P.
En otras palabras, el sistema 1 comprende un segundo marcador físico dispuesto en la sonda y adecuado para ser colocado en uso fuera del cuerpo del paciente P, en el que el segundo medio 6 de detección de la superficie exterior del cuerpo del paciente P están configurados para detectar también la posición física del segundo marcador.
Ventajosamente, de esta forma, es posible identificar con precisión el posicionamiento de la sonda en el interior del cuerpo del paciente P y visualizarlo en la realidad aumentada proyectada en el visor 3.
Es útil señalar aquí que la referencia espacial puede ser proporcionada por el hecho del brazo antropomórfico empleado por el operador, entonces, en esta configuración, la segunda marca física puede representar una pieza adicional de información (sustancialmente redundante) pero útil para aumentar la fiabilidad del sistema en la posición del mango de la sonda.
Preferiblemente, los segundos medios 6 de detección de la superficie exterior del cuerpo de un paciente comprenden al menos uno de entre un transductor de ultrasonidos, una unidad de medición inercial y un codificador de medición, para determinar en tiempo real los parámetros vitales de dicho paciente.
En particular, el codificador de medición es un sistema compuesto por al menos dos brazos unidos por una articulación cuyo movimiento es detectado por un codificador.
Los extremos de los dos brazos se fijan al pecho del paciente y, en consecuencia, se mueven de acuerdo con el movimiento respiratorio del pecho del paciente. Al hacerlo, revelan un patrón dinámico del ciclo respiratorio. Cada momento del patrón se emparejará con la posición objetivo detectada en ese momento, de modo que cada fase del ciclo respiratorio, determinada de esta manera, coincida con una posición del nódulo.
Preferiblemente, el sistema 1 comprende un sensor de compacidad de los tejidos internos del paciente P, preferiblemente un sensor interferométrico de fibra óptica de modulación de pérdida.
Ventajosamente, gracias a la compacidad del sensor, es posible integrar en la pluralidad de información detectada también una medida de la denominada “rigidez”, que permite suministrar parámetros de caracterización de tejidos atravesados por la sonda.
El presente sistema 1 puede usarse ventajosamente durante, antes o después de la cirugía. De hecho, el sistema 1 permite al operador mostrar un solapamiento de órganos internos y patologías en 3D, alineados con las estructuras anatómicas reales.
Además, el presente sistema 1 permite visualizar instrumentos quirúrgicos en el interior del cuerpo del paciente P y representar su deformación a través de diferentes estructuras anatómicas.
Se puede usar tanto para procedimientos mínimamente invasivos como para intervenciones quirúrgicas estándar. La única diferencia es que, en procedimientos mínimamente invasivos, todo el volumen reconstruido del interior del cuerpo del paciente P se alinea con el cuerpo del paciente P; mientras que, en el segundo caso, la alineación se realiza entre una parte específica de un órgano y la misma parte del órgano en el volumen reconstruido. Por ejemplo, la Figura 1 muestra esquemáticamente un segmento real del hígado y el volumen reconstruido del mismo. El sistema de esta invención tiene muchas ventajas.
La solución inventada permite visualizar subjetivamente con respecto al operador las imágenes en 2, 3 o 4 dimensiones en el lugar exacto donde se ubica la estructura a la que se refieren, con alta resolución espacial, y aumentar la resolución, precisión y reconocimiento del posicionamiento correcto de los instrumentos 5 quirúrgicos. Además, la solución inventada permite detectar la posición y la flexión de las sondas y de los instrumentos deformables.
El sistema, a diferencia de las soluciones que se utilizan para resolver los mismos problemas, permite una mayor precisión, incluso sin sistemas electromagnéticos, mediante sistemas mecánicos y/o visión por ordenador, en conjunto o por separado.
El sistema de la presente invención se puede utilizar para la preparación o realización de intervenciones quirúrgicas, laparotomías, endoscópicas o intervenciones mínimamente invasivas, percutáneas o transóseas, o durante intervenciones por laparotomía o endoscopia. El sistema también es válido para realizar procedimientos de diagnóstico percutáneos o guiados radiológicamente, como, a modo de ejemplo, biopsia o aspiración con aguja. Ventajosamente, la divulgación prevé que el paso de procesar la pluralidad de información sobre la base de la posición espacial del visor 3 comprende el procesamiento mediante segmentación de órganos y enfermedades; Preferiblemente, el paso de procesamiento incluye hacer representaciones en 3D de exploraciones radiológicas. La divulgación también implica la creación de una representación 3D con la patología segmentada y separada del resto del volumen en función de las segmentaciones realizadas.
La divulgación comprende además un paso de proyectar en el visor 3 una imagen del estado interno de la al menos una porción interna Pi del cuerpo del paciente P en función del procesamiento efectuado, realizado proyectando una visualización conjunta de órganos y patologías.
Como alternativa, ventajosamente, la divulgación prevé que el paso de procesar la pluralidad de información sobre la base de la posición espacial del visor 3 comprende el procesamiento mediante segmentación de órganos y necrosis postratamiento;
La divulgación también implica la creación de una representación 3D con la patología segmentada y separada del resto del volumen en función de las segmentaciones realizadas.
Preferiblemente, la etapa de procesamiento incluye realizar representaciones en 3D de exploraciones radiológicas. La divulgación comprende además un paso de proyectar en el visor 3 una imagen del estado interno de la al menos una porción interna Pi del cuerpo del paciente P en función del procesamiento efectuado, realizado proyectando una visualización conjunta de la patología y necrosis.
En otras palabras, en una primera de las dos alternativas, la divulgación prevé el uso de un programa informático capaz de producir segmentaciones de órganos y patologías (como, por ejemplo, tumores, etc.) y una representación 3D de exploraciones radiológicas. Además, el software también puede comparar representaciones 3D de diferentes exploraciones. Consiste en códigos de software que incluyen algoritmos de segmentación.
El programa es, en particular, una aplicación de la red que puede tomar imágenes de diferentes exploraciones radiológicas (MRI, CT, PET-CT) y transformarlas en una representación 3D con la patología segmentada y separada del resto del volumen (por ejemplo, con un color diferente). La segmentación es completamente automática, es decir, sin la intervención del usuario y no necesita ninguna corrección.
Además, en la segunda de las dos alternativas, el programa también mide si el tratamiento fue exitoso o no. De hecho, utilizando este software, los órganos y la necrosis postratamiento se segmentan en las imágenes (exploraciones CT-PET, MRI y CT), y se registra el volumen antes del tratamiento y después del tratamiento, y una visualización conjunta de la patología y se realiza la necrosis.
El programa espera recibir una solicitud de procesamiento de imágenes de una porción interna Pi del cuerpo del paciente P y transmitir datos representativos de la solicitud a la unidad 2 de control.
En otras palabras, un cliente de la red solicita la ejecución de un libreto, el libreto se coloca en un programador que administrará la cola/el orden del libreto que se ejecutará en el servidor y, una vez que el programador de la orden, el servidor procesará los archivos con el libreto requerido y escribirá los archivos en el almacenamiento compartido.
El programa espera recibir la imagen de una sonda como se definió previamente y mostrar la imagen.
En otras palabras, el cliente de la red encontrará los archivos generados o las capas solicitadas y los visualizará en el visor 3, particularmente en el HMD.
Otra realización de la invención implica el registro de un volumen reconstruido de un paciente utilizando un sensor de profundidad. Este sensor permite ventajosamente al operador explorar órganos y patologías dentro del cuerpo del paciente P mientras observa al mismo paciente P.
Esta es la solución de un segundo programa informático, basado en los medios adecuados adaptados para implementar la llamada “visión por ordenador”.
Esta segunda solución implica el uso de sensores de profundidad y de una cámara estereoscópica, conjunta o separadamente, de forma que los dos volúmenes están alineados. Dicha cámara se utiliza tanto en el reconocimiento de AR como para la generación de un “mapa de disparidad” que permite tener más información sobre la profundidad de la escena; Por esta segunda razón, la cámara también debe tener la posibilidad de ajustar la distancia interocular de la misma, en este caso para operar con diferentes rangos de profundidad (por ejemplo, una configuración a dos/tres predefinidos fijos, para un largo alcance y un rango corto más preciso).
Se debe especificar por medio de este que dicho sensor de profundidad solo sería suficiente para definir el mapa de profundidad de la escena, por lo que no sería necesario calcular un mapa de disparidad con una cámara estereoscópica, pero dado que este tipo de sensores a menudo es susceptible de fuertes fuentes de luz e infrarrojos que pueden interferir en la lectura, es posible y, en algunos casos, necesario integrar ambas tecnologías para obtener una alineación más precisa entre la realidad y la realidad aumentada.
Se ha descrito un sistema de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo de un paciente en el que se utiliza la realidad aumentada como interfaz de operador, para permitirle al operador operar al paciente de una manera precisa, confiable, segura y eficiente.

Claims (15)

REIVINDICACIONES
1. Sistema (1) de navegación, seguimiento y guiado para el posicionamiento de instrumentos (5) quirúrgicos dentro del cuerpo de un paciente (P) que comprende:
- una unidad (2) de control configurada para recibir una pluralidad de información relacionada con el estado interno del cuerpo de un paciente (P),
- un visor (3) configurado de tal manera que un operador pueda ver al menos una porción interna (Pi) del cuerpo del paciente (P) a través de dicho visor (3),
- primeros medios (4) de detección para la determinación de la posición espacial de dicho visor (3);
estando configurada dicha unidad (2) de control para controlar una proyección en dicho visor (3) de una imagen del estado interno de dicha al menos una porción interna (Pi) del cuerpo del paciente (P), obteniéndose dicha imagen procesando dicha pluralidad de información sobre la base de dicha posición espacial de dicho visor (3);
en el que el sistema también comprende una sonda asociada a un instrumento (5) quirúrgico e insertable dentro de la porción interna (Pi) del cuerpo de dicho paciente (P), estando dicho sistema caracterizado porque dicha sonda comprende al menos una guía óptica que tiene zonas de dispersión de un flujo luminoso generado dentro de dicha guía óptica, realizándose dichas zonas de dispersión mediante micromecanizado de una carcasa exterior de dicha guía óptica, y medios de detección de la dispersión de dicho flujo luminoso para identificar la disposición espacial de la sonda cuando se inserta dentro del cuerpo del paciente (P), dicha unidad (2) de control también está configurada para controlar una proyección en dicho visor (3) de una imagen de dicha sonda en base a la disposición espacial identificada;
en el que dichas zonas de dispersión están definidas por una serie de primeras zonas de dispersión dispuestas en secuencia a lo largo de al menos una porción de dicha guía óptica.
2. Sistema (1) de acuerdo con la reivindicación 1, en el que dichas zonas de dispersión también están definidas por una serie de segundas zonas de dispersión dispuestas en secuencia a lo largo de al menos una porción de dicha guía óptica y dispuestas radialmente escalonadas con respecto a un eje central de dicha al menos una guía óptica.
3. Sistema (1) de acuerdo con la reivindicación 2, en el que dicha serie de segundas zonas de dispersión está dispuesta en un ángulo de 90 ° con respecto a dicha serie de primeras zonas de dispersión, siendo medido dicho ángulo con respecto a un eje central de dicha al menos una guía óptica.
4. Sistema (1) de acuerdo con la reivindicación 2 ó 3, en el que dicha sonda comprende preferiblemente dos guías ópticas paralelas, estando definida dicha serie de primeras zonas de dispersión y dicha serie de segundas zonas de dispersión respectivamente en una de dichas dos guías ópticas.
5. Sistema (1) de acuerdo con una o más de las reivindicaciones anteriores, en el que dicha al menos una guía óptica está conectada a una fuente de luz, en particular una fuente de láser, y tiene una pared reflectante dispuesta en un extremo terminal libre, un acoplador direccional conectado a un osciloscopio que está dispuesto entre dicha fuente láser y dicha pared reflectante.
6. Sistema (1) de acuerdo con una o más de las reivindicaciones anteriores, que comprende un conjunto de conversión de video conectado a la unidad (2) de control, en el que preferiblemente dicho conjunto de conversión de video comprende: al menos dos convertidores VGA-HDMI, al menos un convertidor BNC - HDMI y al menos dos puertos HDMI.
7. Sistema de acuerdo con una o más de las reivindicaciones anteriores, en el que dicha pluralidad de información relacionada con el estado interno del cuerpo de un paciente se obtiene mediante al menos una exploración, por ejemplo, RX, MRI, CT, CT- PET.
8. Sistema (1) de acuerdo con una o más de las reivindicaciones anteriores, en el que dicho visor (3) está dispuesto a lo largo de una porción del operador del eje visual del cuerpo del paciente (P).
9. Sistema (1) de acuerdo con una o más de las reivindicaciones anteriores, en el que dicho visor (3) está definido por un visor facial que puede llevar puesto el operador, por ejemplo, anteojos.
10. Sistema (1) de acuerdo con una o más de las reivindicaciones anteriores, que comprende segundos medios (6) de detección de la superficie exterior del cuerpo del paciente (P) conectados con la unidad (2) de control, dichos segundos medios (6) de detección que comprende, por ejemplo, una cámara o una cámara estereoscópica, preferiblemente integral con el visor (3).
11. Sistema (1) de acuerdo con la reivindicación 10, en el que dichos segundos medios (6) de detección de la superficie exterior del cuerpo del paciente (P) comprenden al menos tres primeros marcadores físicos aptos para ser dispuestos en la superficie exterior de la porción (Pi) del cuerpo del paciente (P) y detectable, estando configurada dicha unidad (2) de control para alinear el primer estado interno de los marcadores virtuales de la imagen proyectada sobre el visor (3) con dichos primeros marcadores físicos.
12. Sistema (1) de acuerdo con la reivindicación 10 u 11, en el que dichos segundos medios (6) de detección de la superficie exterior del cuerpo del paciente (P) comprenden al menos uno de: un transductor de ultrasonidos, una unidad de medición inercial y un codificador de medida, para determinar los parámetros vitales del paciente (P) en tiempo real.
13. Sistema de acuerdo con la reivindicación 10, que comprende un segundo marcador físico dispuesto en la sonda y adecuado para ser desechado en uso fuera del cuerpo del paciente (P), en el que los segundos medios (6) de detección de la superficie exterior del cuerpo del paciente (P) están configurados para detectar también la posición física del segundo marcador.
14. Sistema de acuerdo con una o más de las reivindicaciones anteriores que comprende un brazo robótico antropomórfico con cinco grados de libertad, capaz de proporcionar las coordenadas cartesianas X, Y, Z de la sonda con respecto a un sistema de referencia predeterminado por el sistema (1).
15. Sistema (1) de acuerdo con una o más de las reivindicaciones anteriores, que comprende un sensor configurado para detectar una compacidad de los tejidos internos del paciente, preferiblemente un sensor interferométrico de fibra óptica de modulación de pérdida.
ES16825885T 2015-11-23 2016-11-21 Sistema de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo de un paciente Active ES2815800T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ITUB2015A005830A ITUB20155830A1 (it) 2015-11-23 2015-11-23 "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
PCT/IB2016/057001 WO2017089941A1 (en) 2015-11-23 2016-11-21 Navigation, tracking and guiding system for the positioning of operatory instruments within the body of a patient

Publications (1)

Publication Number Publication Date
ES2815800T3 true ES2815800T3 (es) 2021-03-30

Family

ID=55538379

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16825885T Active ES2815800T3 (es) 2015-11-23 2016-11-21 Sistema de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo de un paciente

Country Status (12)

Country Link
US (2) US20180344408A1 (es)
EP (1) EP3380034B1 (es)
JP (1) JP6905535B2 (es)
CN (1) CN108601628B (es)
AU (1) AU2016358472A1 (es)
BR (1) BR112018010382B1 (es)
CA (1) CA3005705A1 (es)
DK (1) DK3380034T3 (es)
ES (1) ES2815800T3 (es)
IT (1) ITUB20155830A1 (es)
RU (1) RU2746458C2 (es)
WO (1) WO2017089941A1 (es)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
ITUB20155830A1 (it) 2015-11-23 2017-05-23 R A W Srl "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
DE102017108235A1 (de) * 2017-04-18 2018-10-18 Bredent Medical Gmbh & Co. Kg Brille mit wenigstens einem teiltransparenten Bildschirm und Verfahren zum Betrieb einer Brille
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
WO2020181498A1 (zh) * 2019-03-12 2020-09-17 上海复拓知达医疗科技有限公司 体内导航系统和方法
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
CN111544115A (zh) * 2020-05-16 2020-08-18 中国人民解放军陆军军医大学第二附属医院 一种增强现实导航追踪显示器以及校准方法
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
DE102020212086A1 (de) * 2020-09-25 2022-03-31 Siemens Healthcare Gmbh Ermitteln der Qualität einer Positionierung eines in einen Patientenkörper eingeführten Objekts

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5337758A (en) * 1991-01-11 1994-08-16 Orthopedic Systems, Inc. Spine motion analyzer and method
US5526812A (en) * 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US5577502A (en) * 1995-04-03 1996-11-26 General Electric Company Imaging of interventional devices during medical procedures
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6033415A (en) 1998-09-14 2000-03-07 Integrated Surgical Systems System and method for performing image directed robotic orthopaedic procedures without a fiducial reference system
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US20020082498A1 (en) 2000-10-05 2002-06-27 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
ATE371414T1 (de) 2001-06-13 2007-09-15 Volume Interactions Pte Ltd Führungssystem
AU2003246906A1 (en) * 2002-06-25 2004-01-06 Michael Nicholas Dalton Apparatus and method for superimposing images over an object
US7001383B2 (en) 2002-10-21 2006-02-21 Biosense, Inc. Real-time monitoring and mapping of ablation lesion formation in the heart
JP2007528743A (ja) * 2003-04-30 2007-10-18 ディースリーディー,エル.ピー. 口腔内画像化システム
US7283572B2 (en) * 2004-01-15 2007-10-16 Ben Gurion University Of The Negey Measurement of wavelength transients in tunable lasers
US7774044B2 (en) * 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
US20060089626A1 (en) 2004-10-22 2006-04-27 Vlegele James W Surgical device guide for use with an imaging system
US7501995B2 (en) 2004-11-24 2009-03-10 General Electric Company System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation
US8954134B2 (en) * 2005-09-13 2015-02-10 Children's Medical Center Corporation Light-guided transluminal catheter
CN101309725A (zh) * 2005-11-16 2008-11-19 眼科医疗公司 使用激光间接检眼镜的多光点光学医疗处理
WO2007115826A2 (en) * 2006-04-12 2007-10-18 Nassir Navab Virtual penetrating mirror device for visualizing of virtual objects within an augmented reality environment
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
CA2682624C (en) * 2007-04-02 2016-08-23 Esight Corp. An apparatus and method for augmenting sight
US8131379B2 (en) 2007-08-27 2012-03-06 St. Jude Medical Atrial Fibrillation Division, Inc. Cardiac tissue elasticity sensing
WO2009083191A1 (de) 2007-12-21 2009-07-09 Holger Essiger System zur selektiven anzeige von informationen, enthaltend eine brillenartige vorrichtung, insbesondere brille
WO2009094646A2 (en) * 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
WO2010067267A1 (en) * 2008-12-09 2010-06-17 Philips Intellectual Property & Standards Gmbh Head-mounted wireless camera and display unit
DE102009025077A1 (de) 2009-06-10 2010-12-16 Karl Storz Gmbh & Co. Kg System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
IT1401669B1 (it) * 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
JP2013061521A (ja) * 2011-09-14 2013-04-04 Brother Ind Ltd 画像表示装置および画像表示方法
US20130267838A1 (en) 2012-04-09 2013-10-10 Board Of Regents, The University Of Texas System Augmented Reality System for Use in Medical Procedures
US20140022283A1 (en) * 2012-07-20 2014-01-23 University Health Network Augmented reality apparatus
US9729831B2 (en) 2012-11-29 2017-08-08 Sony Corporation Wireless surgical loupe
US9895055B2 (en) * 2013-02-28 2018-02-20 Cook Medical Technologies Llc Medical devices, systems, and methods for the visualization and treatment of bodily passages
US20150116316A1 (en) * 2013-10-28 2015-04-30 Brown University Virtual reality methods and systems
WO2015127464A1 (en) 2014-02-24 2015-08-27 H. Lee Moffitt Cancer Center And Research Institute, Inc. Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores
WO2015133608A1 (ja) * 2014-03-07 2015-09-11 国立大学法人京都大学 手術支援システムおよびこれに用いるカメラユニット
US9538962B1 (en) * 2014-12-31 2017-01-10 Verily Life Sciences Llc Heads-up displays for augmented reality network in a medical environment
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
WO2017066373A1 (en) * 2015-10-14 2017-04-20 Surgical Theater LLC Augmented reality surgical navigation
ITUB20155830A1 (it) 2015-11-23 2017-05-23 R A W Srl "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"

Also Published As

Publication number Publication date
EP3380034B1 (en) 2020-06-03
CN108601628B (zh) 2022-09-09
RU2018117932A (ru) 2019-12-25
WO2017089941A1 (en) 2017-06-01
CA3005705A1 (en) 2017-06-01
AU2016358472A1 (en) 2018-06-14
JP6905535B2 (ja) 2021-07-21
BR112018010382A2 (pt) 2018-12-04
US11596480B2 (en) 2023-03-07
ITUB20155830A1 (it) 2017-05-23
RU2018117932A3 (es) 2020-04-20
RU2746458C2 (ru) 2021-04-14
US20180344408A1 (en) 2018-12-06
BR112018010382B1 (pt) 2022-07-26
JP2019503820A (ja) 2019-02-14
EP3380034A1 (en) 2018-10-03
DK3380034T3 (da) 2020-08-24
US20190183586A1 (en) 2019-06-20
CN108601628A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
ES2815800T3 (es) Sistema de navegación, seguimiento y guía para el posicionamiento de instrumentos quirúrgicos dentro del cuerpo de un paciente
US20220192611A1 (en) Medical device approaches
JP6985262B2 (ja) 患者の体内における内視鏡の位置を追跡するための装置及び方法
ES2292593T3 (es) Sistema de guiado.
US20230073041A1 (en) Using Augmented Reality In Surgical Navigation
KR101572487B1 (ko) 환자와 3차원 의료영상의 비침습 정합 시스템 및 방법
ES2361717T3 (es) Plataforma robotizada con múltiples aplicaciones para neurocirugía y procedimiento de reajuste.
JP6129344B2 (ja) 内視鏡、殊に低侵襲手術のための内視鏡
CA2851659A1 (en) Interventional in-situ image guidance by fusing ultrasound and video
JPWO2018012080A1 (ja) 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム
JP6116754B2 (ja) 低侵襲手術において画像データを立体視表示するための装置およびその装置の作動方法
FR2908628A1 (fr) Procede et systeme de pilotage d'un instrument medical
EP2785237B1 (en) Surgical port localization
US10951837B2 (en) Generating a stereoscopic representation
JP6952740B2 (ja) ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム
ES2242118T3 (es) Registro en perspectiva y visualizacion de las zonas corporales internas.
NL2001680C2 (nl) Beeldgevende werkwijze voor de medische diagnostiek en volgens deze werkwijze werkende inrichting.
US20200337534A1 (en) Surgical port localization
JP7505081B2 (ja) 狭い通路における侵襲的手順の内視鏡画像
US20220233247A1 (en) System and method for tracking positioning of medical instrument by using augmented reality
CA3192826A1 (fr) Systeme de navigation en realite augmentee pour un robot medical