ES2294463T3 - Procedimiento y aparato para capturar informacion asociada con una intervencion quirurgica realizada usando un dispositivo de localizacion. - Google Patents

Procedimiento y aparato para capturar informacion asociada con una intervencion quirurgica realizada usando un dispositivo de localizacion. Download PDF

Info

Publication number
ES2294463T3
ES2294463T3 ES04706167T ES04706167T ES2294463T3 ES 2294463 T3 ES2294463 T3 ES 2294463T3 ES 04706167 T ES04706167 T ES 04706167T ES 04706167 T ES04706167 T ES 04706167T ES 2294463 T3 ES2294463 T3 ES 2294463T3
Authority
ES
Spain
Prior art keywords
field
vision
coordinates
instrument
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES04706167T
Other languages
English (en)
Inventor
Francois Leitner
Christoph Georg Reuter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aesculap AG
Original Assignee
Aesculap AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aesculap AG filed Critical Aesculap AG
Application granted granted Critical
Publication of ES2294463T3 publication Critical patent/ES2294463T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • A61B17/15Guides therefor
    • A61B17/154Guides therefor for preparing bone for knee prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • A61B17/15Guides therefor
    • A61B17/154Guides therefor for preparing bone for knee prosthesis
    • A61B17/155Cutting femur
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • A61B17/15Guides therefor
    • A61B17/154Guides therefor for preparing bone for knee prosthesis
    • A61B17/157Cutting tibia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Robotics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Endoscopes (AREA)
  • Surgical Instruments (AREA)

Abstract

Un procedimiento para capturar información asociada con una intervención quirúrgica, comprendiendo dicho procedimiento las etapas de: controlar las coordenadas de un instrumento con un dispositivo de localización que define un primer campo de visión, ubicado dicho instrumento dentro de dicho primer campo de visión; adquirir una imagen de campo con una cámara que tiene un segundo campo de visión, incluyendo dicho segundo campo de visión al menos una parte de dicho primer campo de visión; y capturar dichas coordenadas de dicho instrumento y una imagen de campo en respuesta a un evento designado, en el que dicho evento designado lo genera automáticamente el dispositivo de localización en un punto predefinido en el tiempo durante la intervención quirúrgica.

Description

Procedimiento y aparato para capturar información asociada con una intervención quirúrgica realizada usando un dispositivo de localización.
Campo de la invención
La presente invención se refiere a instrumentos médicos y, más particularmente, a un procedimiento y aparato para capturar información asociada con una intervención quirúrgica realizada usando un dispositivo de localización.
\vskip1.000000\baselineskip
Antecedentes de la invención
Se han desarrollado dispositivos de localización para ayudar a los cirujanos en la realización de intervenciones quirúrgicas. Cuando se utilizan en una intervención, se unen marcadores que pueden observarse mediante un sistema de sensor estereoscópico a los huesos. El sistema de sensor se conecta a un sistema de procesamiento de datos que registra las posiciones de los marcadores en el espacio para establecer un sistema de referencia de coordenadas con respecto a cada hueso que lleva un marcador. Pueden montarse otros marcadores en instrumentos quirúrgicos usados para palpar (tocar) puntos de referencia específicos en los huesos mientras que el sistema registra su ubicación con el fin de determinar la posición de los puntos de referencia en los sistemas de referencia de coordenadas de los huesos. También pueden montarse otros marcadores en instrumentos quirúrgicos usados para realizar la intervención con el fin de controlar la posición de los instrumentos quirúrgicos durante la intervención. El dispositivo de localización se programa previamente con información concerniente a la posición y la orientación de la parte funcional del instrumento con respecto al marcador. Por tanto, siguiendo la pista del marcador montado en el instrumento, el dispositivo de localización puede seguir la pista del propio instrumento. Se usa un monitor para visualizar la información desarrollada a partir del sistema de referencia de coordenadas, los puntos de referencia, y las posiciones controladas de los instrumentos quirúrgicos para su uso en el guiado de un cirujano durante la intervención, tal como manejar un instrumento quirúrgico hasta una ubicación particular en el sistema de referencia de coordenadas. Se describe un sistema de este tipo en el documento WO-A-99/38449 y da a conocer las características del preámbulo de la reivindicación 8.
Durante una intervención quirúrgica, pueden determinarse la posición y la orientación de un instrumento quirúrgico que se está manejando mediante el dispositivo de localización para su uso posterior en la intervención y/o para análisis posoperatorio. Tal como se indica, se determinan la posición y la orientación del instrumento quirúrgico mediante la observación de un marcador montado en el instrumento quirúrgico. El marcador puede montarse en el instrumento quirúrgico sólo de una manera predeterminada y el dispositivo de localización se programa previamente con datos que indican la orientación y la posición del instrumento quirúrgico con respecto al marcador. Mediante la observación del marcador, el dispositivo de localización puede determinar la posición y la orientación del instrumento quirúrgico. Normalmente, se capturan las coordenadas del marcador observado y se almacenan en una memoria asociada con el dispositivo de localización en respuesta a un evento designado.
La precisión de la posición y la orientación del instrumento quirúrgico determinadas por el dispositivo de localización depende de varios factores. Estos factores incluyen el montaje apropiado del marcador en el instrumento quirúrgico, la programación previa precisa de los datos que indican la orientación y la posición del instrumento quirúrgico con respecto al marcador y la alineación del marcador y el instrumento quirúrgico. Si cualquiera de estos factores no es como debiera, serán erróneas la posición y la orientación del instrumento quirúrgico determinadas por el dispositivo de localización.
Por consiguiente, existe una necesidad de capturar información para verificar la orientación y la posición de un instrumento quirúrgico que se está manejando mediante un dispositivo de localización. La presente invención satisface esta necesidad, entre otras cosas.
\vskip1.000000\baselineskip
Sumario de la invención
La presente invención proporciona un procedimiento y aparato para verificar la orientación y la posición de un instrumento quirúrgico determinadas por un dispositivo de localización. Se satisface la necesidad mencionada anteriormente incorporando una cámara en un dispositivo de localización para capturar imágenes de un instrumento quirúrgico que se está manejando mediante el dispositivo de localización cuando se capturan las coordenadas de un marcador asociado con el instrumento quirúrgico mediante el dispositivo de localización. Las imágenes capturadas pueden usarse entonces para verificar la posición y la orientación del instrumento quirúrgico determinadas por el dispositivo de localización basándose en las coordenadas capturadas, para su uso durante el análisis posoperatorio. En ciertas realizaciones, una pantalla de visualización presentada en un monitor asociado con el dispositivo de localización y/o imágenes endoscópicas adquiridas con una cámara endoscópica pueden capturarse adicionalmente para proporcionar información adicional relacionada con la intervención.
Un aspecto de la presente invención es un procedimiento para capturar información asociada con una intervención quirúrgica. El procedimiento incluye controlar las coordenadas de un instrumento con un dispositivo de localización que tiene un campo de visión, ubicado el instrumento dentro del campo de visión, y capturar las coordenadas del instrumento y una imagen de campo de al menos una parte del campo de visión en respuesta a un evento designado, en el que el evento designado lo genera automáticamente el dispositivo de localización en un punto de tiempo predefinido durante la intervención quirúrgica.
Otro aspecto de la invención es un aparato para capturar información del dispositivo de localización. El aparato incluye un dispositivo de localización para detectar un marcador asociado con un instrumento, definiendo el dispositivo de localización un primer campo de visión; una cámara que tiene un segundo campo de visión que puede adquirir una imagen de campo, incluyendo el segundo campo de visión al menos una parte del primer campo de visión; una memoria; y un ordenador acoplado al dispositivo de localización, a la cámara y a la memoria, estando configurado el ordenador para identificar la aparición un evento designado, indicando el ordenador a la cámara que adquiriera la imagen de campo en respuesta a la aparición del evento designado, capturando el ordenador y almacenando en la memoria las coordenadas del marcador asociado con el instrumento y la imagen de campo adquirida en respuesta a la aparición del evento designado.
Las etapas del procedimiento puede realizarse en software en un medio legible por ordenador o pueden formar un sistema que comprende medios para realizar las etapas de procedimiento.
Breve descripción de los dibujos
En los dibujos, se usan los mismos números de referencia para indicar los mismos elementos.
La figura 1 es una ilustración de un paciente a punto de someterse a una intervención utilizando un dispositivo de localización según la presente invención;
La figura 2 es una ilustración de un primer campo de visión definido por los sensores y un segundo campo de visión definido por la cámara del dispositivo de localización de la figura 1;
La figura 3 es una ilustración de una plantilla de corte montada en una tibia, manejándose la plantilla de corte mediante el dispositivo de localización de la figura 1; y
La figura 4 es un diagrama de flujo que representa las etapas para capturar información asociada con un instrumento quirúrgico manejado mediante un dispositivo de localización según la presente invención.
Descripción detallada de la invención
La figura 1 representa un dispositivo 100 de localización en el que puede emplearse el procedimiento de la presente invención. En la figura 1, se ilustra esquemáticamente un paciente 102, que va a someterse a una intervención quirúrgica, por ejemplo, una intervención de artroplastia total de rodilla (ATR) en una pierna 104, acostado sobre una mesa 106 de operaciones. El dispositivo 100 de localización incluye un ordenador 108 cargado con software para manejo quirúrgico, una memoria 110, un procesador 112, sensores 114 que pueden detectar marcadores 116, un pedal 118, un teclado 120 y un monitor 122 para visualizar una pantalla 123 de visualización que contiene información de manejo quirúrgico. El cirujano dispone de la pantalla 123 de visualización para que le guíe durante intervenciones quirúrgicas realizadas usando el dispositivo 100 de localización. Los sensores 114 están montados en un brazo 128 situado por encima y lateralmente con respecto al paciente 102 de modo que la pierna 104 del paciente está en el campo de visión de los sensores 114. En general, los marcadores 116 están montados de manera fija sobre huesos (por ejemplo, tibia 105a/fémur 105b) e instrumentos quirúrgicos (por ejemplo, puntero 124), de modo que el dispositivo 100 de localización puede seguir la pista de la ubicación y la orientación exactas de los huesos e instrumentos quirúrgicos en los que están montados. Los sensores 114 detectan sólo los marcadores unidos a los huesos e instrumentos quirúrgicos, en lugar de los propios huesos e instrumentos quirúrgicos. Por consiguiente, se derivan la posición y la orientación de los huesos e instrumentos quirúrgicos determinadas por el dispositivo de localización basándose en la observación de los marcadores 116 con los sensores 114, en lugar de observarse directamente. Se encuentra una descripción de un dispositivo 100 de localización adecuado que tiene estas características en la patente estadounidense número 6.385.475 concedida a Cinquin et al..
En la presente invención, el dispositivo 100 de localización incluye además una cámara 126. En la realización ilustrada, la cámara 126 está montada en el brazo 128 en el que también están montados los sensores 114 y está conectada al ordenador 108 del dispositivo 100 de localización. La cámara 126 está configurada para adquirir una imagen en respuesta a una señal procedente del dispositivo 100 de localización. Según la invención, se adquieren imágenes mediante la cámara 126 y se capturan en la memoria 110 en respuesta a la identificación de una señal predefinida por el dispositivo de localización. La cámara 126 puede ser una cámara digital convencional, una videocámara, o esencialmente cualquier dispositivo que puede capturar una imagen. La selección de una cámara 126 adecuada y su configuración para su uso con el dispositivo 100 de localización resultarán evidentes de inmediato para un experto en las técnicas relacionadas.
En la realización ilustrada, una cámara 130 endoscópica está acoplada al dispositivo 100 de localización para captar imágenes endoscópicas de una intervención quirúrgica. La cámara 130 endoscópica ilustrada incluye un alojamiento 132 y un endoscopio 134 flexible acoplado al alojamiento 132. La cámara 130 endoscópica está conectada al ordenador 108 del dispositivo 100 de localización. El endoscopio 134 flexible puede insertarse en una incisión 136, por ejemplo, dentro de una pierna 104, para capturar imágenes que no son visibles fácilmente desde el exterior de la incisión 136. La cámara 136 endoscópica genera imágenes que pueden visualizarse en la pantalla 123 de visualización en el monitor 122 del dispositivo 100 de localización de manera conocida. El dispositivo 100 de localización puede capturar imágenes endoscópicas en la memoria 110 en respuesta a la identificación de una señal predefinida. La selección de una cámara 130 endoscópica adecuada y su configuración para su uso con el dispositivo 100 de localización resultarán evidentes de inmediato para un experto en las técnicas relacionadas.
La figura 2 representa campos de visión asociados con los sensores 114 y la cámara 126 del dispositivo 100 de localización de la figura 1. Los sensores 114 definen un primer campo 202 de visión. El primer campo 202 de visión representa una zona dentro de la cual el dispositivo de localización puede seguir la pista de un marcador unido a un instrumento quirúrgico y, así, del propio instrumento quirúrgico. Para el dispositivo 100 de localización ilustrado, el dispositivo 100 de localización puede seguir la pista de un marcador siempre que el marcador sea visible para ambos sensores 114. Un primer sensor 114a puede visualizar una primera zona 204 y un segundo sensor 114b puede visualizar una segunda zona 206. El primer campo 202 de visión es la intersección entre la primera zona 204 y la segunda zona 206.
La cámara 126 está situada para capturar al menos una parte del primer campo 202 de visión definido por los sensores 114. La cámara 126 define un segundo campo 208 de visión. La parte del primer campo 202 de visión que puede capturarse por la cámara 126 es la zona de solapamiento entre el segundo campo 208 de visión definido por la cámara y el primer campo de visión definido por los sensores 114. Preferiblemente, la zona de solapamiento incluye el primer campo 202 de visión completo.
Los expertos en la técnica reconocerán que pueden usarse otros sensores y/o un sensor omnidireccional para ampliar el primer campo 202 de visión, por ejemplo, para proporcionar hasta 360 grados de cobertura alrededor del dispositivo de localización. Asimismo, pueden usarse cámaras panorámicas y/o múltiples cámaras para ampliar el segundo campo 208 de visión, por ejemplo, hasta 360 grados. Además, los expertos en la técnica reconocerán que los campos 202, 208 de visión pueden incluir zonas que se extienden hasta directamente por encima y/o por debajo del dispositivo 100 de localización.
La figura 3 representa una plantilla 300 de corte situada sobre una tibia 105a. La plantilla 300 de corte es un instrumento quirúrgico para su uso durante muchas intervenciones quirúrgicas, por ejemplo, una intervención de ATR. Con fines descriptivos, se describirá una realización a modo de ejemplo de la presente invención en relación con el manejo de una plantilla 300 de corte durante una intervención de ATR. La intervención de ATR supone sustituir una rodilla dañada de la pierna 104 (figura 1) reconstruyendo la superficie de la tibia 105a y el fémur 105b en la rodilla con prótesis metálicas y/o de plástico para formar una articulación artificial. La intervención supone cortar con sierra los extremos de la tibia 105a y el fémur 105b cerca de la rodilla para crear superficies de forma y ubicación precisas para albergar las prótesis. Aunque la descripción de la presente invención se centra en capturar información asociada con una plantilla 300 de corte manejada mediante un dispositivo 100 de localización durante una intervención de ATR, resultará evidente de inmediato para un experto en la técnica que puede usarse la presente invención con cualquier número de instrumentos quirúrgicos en cualquier número de intervenciones quirúrgicas.
La plantilla 300 de corte está configurada para alojar un marcador 116a para seguirle la pista mediante el dispositivo 100 de localización (figura 1). El dispositivo 100 de localización se programa previamente con datos que indican la orientación y la posición de la ranura 302 de corte con respecto al marcador 116a montado en la plantilla 300 de corte. Durante la intervención, el dispositivo 100 de localización puede observar el marcador 116a en la plantilla 300 de corte y determinar la orientación y la posición de la ranura 302 de corte con respecto a la tibia 105a, que también tiene un marcador 116. Durante una etapa de la intervención de ATR, la plantilla 300 de corte se maneja mediante el dispositivo 100 de localización y se sujeta a la tibia 105a. La plantilla 300 de corte se maneja de tal manera que, tras sujetarse la plantilla 300 de corte a la tibia 105a, se orienta una ranura 302 de corte en la plantilla 300 de corte para guiar una hoja 304 de una sierra (no mostrada) hasta la posición apropiada para la retirada de una parte de la tibia 105a. El manejo de una plantilla 300 de corte mediante un dispositivo 100 de localización para realizar un corte en una tibia 105a durante una intervención de ATR lo conocen bien los expertos en la técnica.
La figura 4 representa un diagrama 400 de flujo para su uso en la descripción de un procedimiento para capturar imágenes asociadas con una intervención quirúrgica, por ejemplo, una intervención de ATR, según la presente invención. En el bloque 402, comienza el procedimiento. En una realización preferida, el procedimiento comienza cuando lo invoca el dispositivo 100 de localización durante una o más partes específicas de una intervención quirúrgica. Por ejemplo, el dispositivo 100 de localización puede invocar el procedimiento durante el manejo de una plantilla 300 de corte (figura 3) para guiar una hoja 304 de sierra para retirar una parte de una tibia 105a durante una intervención de ATR. En una realización alternativa, el dispositivo 100 de localización puede invocar el procedimiento al inicio de la intervención quirúrgica y puede usarse el procedimiento para capturar información visual durante toda la intervención.
En el bloque 404, se controlan las coordenadas de un instrumento quirúrgico, por ejemplo, una plantilla de corte, mediante el dispositivo 100 de localización. Tal como se describió anteriormente, en referencia a la figura 2, los sensores 114 del dispositivo 100 de localización definen un primer campo 202 de visión dentro del que puede seguirse la pista de un marcador. Siguiendo la pista del marcador 116, el dispositivo 100 de localización puede controlar las coordenadas de un instrumento quirúrgico, por ejemplo, la plantilla 300 de corte, asociado con el marcador.
En el bloque 406, se genera una pantalla 123 de visualización para la visualización en el monitor 122 del dispositivo 100 de localización de la figura 1. Preferiblemente, la pantalla 123 de visualización incluye al menos cierta información basada en las coordenadas del instrumento quirúrgico controlado en el bloque 404. Por ejemplo, la pantalla de visualización puede presentar un valor numérico calculado por el dispositivo de localización que representa la distancia entre un borde de ataque de la ranura 302 de corte (figura 3) de la plantilla 300 de corte y un punto de interés en la tibia 105. El punto de interés en la tibia 105a puede adquirirse y almacenarse en la memoria 110 de manera conocida. En ciertas realizaciones, pueden incluirse las imágenes procedentes de la cámara 126 y/o la cámara 130 endoscópica en la pantalla 123 de visualización.
En el bloque 408, se realiza una comprobación para determinar si se ha producido un evento designado. Si se ha producido el evento designado, el procesamiento avanza hasta el bloque 410. En caso contrario, si no se ha producido el evento designado, el procesamiento avanza hasta el bloque 404. En una realización preferida, el evento designado es la presencia de una señal en el ordenador 108 del dispositivo 100 de localización. Según la invención, el evento designado lo genera automáticamente el dispositivo de localización, por ejemplo, a intervalos predefinidos durante una intervención quirúrgica (tal como cada cinco minutos).
En los bloques 410 y 412, se capturan las coordenadas del instrumento quirúrgico controladas en el bloque 404 y la pantalla de visualización generada en el bloque 406, respectivamente. En una realización preferida, se capturan las coordenadas del instrumento quirúrgico y la pantalla 123 de visualización presentada en un monitor 122 del dispositivo de localización en el momento en que se identifica el evento designado almacenándolas en un medio de almacenamiento tal como la memoria 110 en el dispositivo 100 de localización.
En el bloque 414, se captura una imagen de campo de al menos una parte del campo de visión del dispositivo de localización. En una realización preferida, la imagen de campo es una imagen adquirida con la cámara 126 conectada al dispositivo 100 de localización en respuesta a la identificación de la aparición del evento designado. La imagen de campo es una imagen de la intervención quirúrgica que se está realizando usando el dispositivo 100 de localización tal como la "ve" el dispositivo de localización. Preferiblemente, la imagen de campo incluye una imagen visual de un instrumento quirúrgico que se está manejando mediante el dispositivo de localización y su entorno circundante. Tal como se describió anteriormente, los sensores 114 definen un primer campo 202 de visión dentro del cual puede seguirse la pista de instrumentos quirúrgicos que tienen marcadores. La cámara 126 define un segundo campo 208 de visión que incluye al menos una parte del primer campo 202 de visión. Capturando una imagen de campo del segundo campo 208 de visión, se captura al menos una parte del primer campo 202 de visión tal como la "ven" los sensores 114 del dispositivo 100 de localización. Esta información puede ser útil para el análisis posoperatorio, por ejemplo, para verificar las coordenadas de la ranura 302 de corte de una plantilla 300 de corte con respecto a un punto en la tibia 105a determinadas por el dispositivo de localización. La imagen de campo puede incluir una única imagen ("instantánea") o una serie de imágenes ("película") capturadas en respuesta a la identificación del evento designado en el bloque 408. En una realización preferida, se captura la imagen de campo de manera sustancialmente simultánea con las coordenadas del instrumento quirúrgico en el bloque 410.
En el bloque 416, se captura opcionalmente una imagen endoscópica generada por una cámara endoscópica, si está presente. En una realización preferida, la imagen endoscópica es una imagen adquirida con la cámara 130 endoscópica conectada al dispositivo 100 de localización en respuesta a la identificación de la aparición del evento designado.
En el bloque 418, se realiza una determinación en cuanto a si ha terminado la parte específica de la intervención en la que se invocó el procedimiento en el bloque 402. En una realización preferida, el cirujano indica cuándo ha terminado esa parte de la intervención, por ejemplo, presionando un pedal. Si ha terminado la parte de la intervención, el procesamiento avanza hasta el bloque 420, donde finaliza. En caso contrario, si no ha terminado la parte de la intervención, el procesamiento retrocede hasta el bloque 404 de modo que el dispositivo puede continuar capturando imágenes en relación con los bloques 404 a 416.
Por tanto, puede usarse el procedimiento para capturar imágenes de la siguiente manera. El dispositivo 100 de localización de la figura 1 invoca el procedimiento de la figura 4 durante una etapa de una intervención quirúrgica que se está realizando usando el dispositivo 100 de localización. Durante esta etapa de la intervención quirúrgica, el dispositivo 100 de localización controla las coordenadas de un(unos) instrumento(s) quirúrgico(s) que se está(n) manejando y genera para su visualización en un monitor 122 una pantalla de visualización que incluye información asociada con las coordenadas controladas del instrumento quirúrgico. Una señal generada con el dispositivo 100 de localización (es decir, el evento designado) indica al dispositivo de localización a capturar en ese instante en el tiempo las coordenadas del instrumento quirúrgico, la pantalla de visualización, una imagen de campo de la intervención quirúrgica y, opcionalmente, una imagen endoscópica. La información capturada puede integrarse o incluirse en un informe convencional de manera conocida, conservando por tanto un registro de la intervención quirúrgica para el análisis posoperatorio.
Las imágenes capturadas proporcionan información sobre una intervención quirúrgica realizada usando un dispositivo 100 de localización (figura 1) que puede usarse para verificar la información adquirida por el dispositivo 100 de localización mediante la observación de marcadores 116 unidos a huesos e instrumentos quirúrgicos. Puesto que los sensores 114 sólo detectan marcadores montados en huesos e instrumentos quirúrgicos, en lugar de los mismos instrumentos quirúrgicos en los que están montados, la posición y la orientación de un instrumento quirúrgico determinadas por el dispositivo 100 de localización pueden no reflejar con precisión la posición y la orientación reales del instrumento quirúrgico. Por ejemplo, si el marcador está montado de manera indebida en el instrumento quirúrgico, el dispositivo 100 de localización se programa previamente con datos incorrectos que indican la orientación y la posición del instrumento quirúrgico con respecto al marcador, el marcador no está alineado (es decir, está torcido), y/o el instrumento quirúrgico no está alineado, serán erróneas la posición y la orientación de la parte funcional del instrumento quirúrgico determinadas por el dispositivo de localización.
La captura de una imagen visual del propio instrumento quirúrgico y su entorno circundante (es decir, una imagen de campo) sustancialmente al mismo tiempo que el dispositivo 100 de localización captura las coordenadas del marcador montado en un instrumento quirúrgico, observado por los sensores 114, proporciona una herramienta para verificar la precisión de la posición y la orientación del instrumento quirúrgico determinadas por el dispositivo de localización. La imagen visual capturada del instrumento quirúrgico puede compararse con la información de posición y orientación para ese instrumento quirúrgico obtenida por el dispositivo de localización para verificar la precisión de esa información. Por ejemplo, supóngase que el instrumento quirúrgico que se está manejando mediante el dispositivo de localización es una plantilla 300 de corte (figura 3) que tiene un plano 306 de corte definido por una ranura 302 de corte. Además, supóngase que la ranura de corte debe orientarse perpendicular al eje 308 mecánico de la tibia 105a para cortar la tibia. Cuando se maneja la plantilla 300 de corte mediante el dispositivo de localización, el dispositivo de localización manejará la plantilla 300 de corte de tal manera que el supuesto plano 306 de corte de la plantilla 300 de corte parece perpendicular al eje 308 mecánico. Sin embargo, si el marcador está torcido, serán erróneas la posición y la orientación reales del plano 306 de corte determinadas por el dispositivo de localización y el plano 306 de corte no será realmente perpendicular al eje 308 mecánico.
La captura de una imagen visual de la plantilla 300 de corte montada en la tibia 105a permite a un analista examinar visualmente una imagen de la plantilla 300 de corte montada en la tibia 105a. Si con el examen visual el analista observa que el plano 306 de corte es perpendicular al eje 308 mecánico de la tibia 105a, el analista puede verificar la precisión de la posición y la orientación de la plantilla de corte determinadas por el dispositivo de localización. Por otro lado, si el analista observa que el plano 306 de corte definido por la ranura 302 de corte no es perpendicular al eje 308 mecánico de la tibia 105a, el analista puede verificar la imprecisión de la posición y la orientación de la plantilla de corte determinadas por el dispositivo de localización. Por tanto, puede usarse la imagen visual (es decir, la imagen de campo) para verificar la posición y la orientación de la plantilla de corte determinadas por el dispositivo de localización.
Por tanto, habiendo descritos unas cuantas realizaciones particulares de la invención, se les ocurrirán de inmediato diversas alteraciones, modificaciones y mejoras a los expertos en la técnica. Tales alteraciones, modificaciones y mejoras que resultan obvias mediante esta exposición pretenden ser parte de esta descripción aunque no se declare expresamente en la misma, y pretenden estar dentro del alcance de la invención. Por consiguiente, la descripción anterior es a modo de ejemplo únicamente, y no limitante. La invención sólo está limitada tal como se define en las siguientes reivindicaciones y equivalentes de las mismas.

Claims (15)

1. Un procedimiento para capturar información asociada con una intervención quirúrgica, comprendiendo dicho procedimiento las etapas de:
controlar las coordenadas de un instrumento con un dispositivo de localización que define un primer campo de visión, ubicado dicho instrumento dentro de dicho primer campo de visión;
adquirir una imagen de campo con una cámara que tiene un segundo campo de visión, incluyendo dicho segundo campo de visión al menos una parte de dicho primer campo de visión; y
capturar dichas coordenadas de dicho instrumento y una imagen de campo en respuesta a un evento designado,
en el que dicho evento designado lo genera automáticamente el dispositivo de localización en un punto predefinido en el tiempo durante la intervención quirúrgica.
2. El procedimiento según la reivindicación 1, en el que dichas coordenadas de dicho instrumento y dicha imagen de campo se capturan de manera sustancialmente simultánea.
3. El procedimiento según la reivindicación 1 ó 2, que comprende además:
generar una pantalla de visualización usando una o más de dichas coordenadas controladas; y
capturar al menos una parte de dicha pantalla de visualización en respuesta a dicho evento designado.
4. El procedimiento según una de las reivindicaciones anteriores, que comprende además:
capturar una imagen endoscópica asociada con la intervención quirúrgica en respuesta a dicho evento designado.
5. El procedimiento según una de las reivindicaciones anteriores, en el que dicha etapa de captura de dicha imagen de campo comprende al menos la etapa de:
adquirir una única imagen de dicho campo de visión con una cámara.
6. El procedimiento según una de las reivindicaciones 1 a 4, en el que dicha etapa de captura de dicha imagen de campo comprende al menos la etapa de:
adquirir una serie de imágenes de dicho campo de visión con una videocámara.
7. El procedimiento según la reivindicación 1, en el que dicha imagen de campo incluye la totalidad de dicho campo de visión.
8. Un aparato para capturar información del dispositivo de localización, comprendiendo dicho aparato:
un dispositivo de localización para detectar un marcador asociado con un instrumento, definiendo dicho dispositivo de localización un primer campo de visión;
una cámara que tiene un segundo campo de visión que puede adquirir una imagen de campo, incluyendo dicho segundo campo de visión al menos una parte de dicho primer campo de visión;
una memoria; y
un ordenador acoplado operativamente a dicho dispositivo de localización, a dicha cámara y a dicha memoria, caracterizado porque dicho ordenador genera un evento designado automáticamente en un punto predefinido en el tiempo durante la intervención quirúrgica e identifica la aparición de dicho evento designado, indicando dicho ordenador a dicha cámara a adquirir dicha imagen de campo en respuesta a la aparición de dicho evento designado, capturando dicho ordenador en dicha memoria coordenadas de dicho marcador asociado con dicho instrumento y dicha imagen de campo adquirida en respuesta a la aparición de dicho evento designado.
9. El aparato según la reivindicación 8, en el que dicho ordenador captura dichas coordenadas de dicho marcador y dicha imagen de campo adquirida de manera sustancialmente simultánea.
10. El aparato según la reivindicación 8 ó 9, en el que dicha cámara es una videocámara.
11. El aparato según la reivindicación 10, en el que dicha imagen de campo es un vídeo asociado con un periodo de tiempo correspondiente a dicho evento designado.
12. El aparato según la reivindicación 8 ó 9, que comprende además:
una cámara endoscópica acoplada a dicho ordenador para adquirir imágenes endoscópicas asociadas con la intervención quirúrgica, capturando dicho ordenador al menos una imagen endoscópica en dicha memoria en respuesta a la aparición de dicho evento designado.
13. El aparato según la reivindicación 12, en el que dicha cámara endoscópica está configurada para alojar un marcador para seguirle la pista mediante dicho dispositivo de localización, en el que dicho ordenador captura además coordenadas de dicho marcador alojado por dicha cámara endoscópica en respuesta a la aparición de dicho evento designado.
14. Producto de programa informático para capturar información asociada con una intervención quirúrgica realizada usando un dispositivo de localización, comprendiendo dicho producto de programa informático:
código de programación legible por ordenador realizado en un medio legible por ordenador, comprendiendo el código de programación legible por ordenador al menos:
código de programación legible por ordenador para controlar las coordenadas de un instrumento con un dispositivo de localización que tiene un campo de visión, ubicado dicho instrumento dentro de dicho campo de visión; y
código de programación legible por ordenador para capturar dichas coordenadas de dicho instrumento y una imagen de campo de al menos una parte de dicho campo de visión en respuesta a un evento designado y
código de programación legible por ordenador para generar dicho evento designado automáticamente en un punto predefinido en el tiempo durante la intervención quirúrgica.
15. El producto de programa informático según la reivindicación 14, realizado dicho código de programación legible por ordenador en un medio legible por ordenador que comprende además:
código de programación legible por ordenador para generar una pantalla de visualización usando una o más de dichas coordenadas controladas; y
código de programación legible por ordenador para capturar al menos una parte de dicha pantalla de visualización en respuesta a dicho evento designado.
ES04706167T 2003-02-04 2004-01-29 Procedimiento y aparato para capturar informacion asociada con una intervencion quirurgica realizada usando un dispositivo de localizacion. Expired - Lifetime ES2294463T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US357908 1994-12-16
US10/357,908 US7492930B2 (en) 2003-02-04 2003-02-04 Method and apparatus for capturing information associated with a surgical procedure performed using a localization device

Publications (1)

Publication Number Publication Date
ES2294463T3 true ES2294463T3 (es) 2008-04-01

Family

ID=32771093

Family Applications (1)

Application Number Title Priority Date Filing Date
ES04706167T Expired - Lifetime ES2294463T3 (es) 2003-02-04 2004-01-29 Procedimiento y aparato para capturar informacion asociada con una intervencion quirurgica realizada usando un dispositivo de localizacion.

Country Status (5)

Country Link
US (1) US7492930B2 (es)
EP (1) EP1589892B1 (es)
DE (1) DE602004010366T2 (es)
ES (1) ES2294463T3 (es)
WO (1) WO2004069074A1 (es)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9636188B2 (en) * 2006-03-24 2017-05-02 Stryker Corporation System and method for 3-D tracking of surgical instrument in relation to patient body
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
US7831096B2 (en) * 2006-11-17 2010-11-09 General Electric Company Medical navigation system with tool and/or implant integration into fluoroscopic image projections and method of use
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
CN103764061B (zh) 2011-06-27 2017-03-08 内布拉斯加大学评议会 工具承载的追踪系统和计算机辅助外科方法
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
US9498182B2 (en) 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
US9439622B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US9439623B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
DE102012220115A1 (de) * 2012-11-05 2014-05-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
DE102014003040A1 (de) * 2014-03-07 2015-09-10 Surgical Process Institute Deutschland Gmbh Verfahren zur Überwachung eines Operationsvorgangs
WO2017117369A1 (en) 2015-12-31 2017-07-06 Stryker Corporation System and methods for performing surgery on a patient at a target site defined by a virtual object
US10052163B2 (en) 2016-07-19 2018-08-21 Hcl Technologies Limited Assisting a surgeon to operate a surgical device
EP3785228B8 (en) 2018-04-23 2024-01-24 MAKO Surgical Corp. System, method and software program for aiding in positioning of a camera relative to objects in a surgical environment
DE102019004233B4 (de) 2018-06-15 2022-09-22 Mako Surgical Corp. Systeme und verfahren zum verfolgen von objekten
US11291507B2 (en) 2018-07-16 2022-04-05 Mako Surgical Corp. System and method for image based registration and calibration
WO2020033947A1 (en) 2018-08-10 2020-02-13 Covidien Lp Systems for ablation visualization
FR3095331A1 (fr) 2019-04-26 2020-10-30 Ganymed Robotics Procédé de chirurgie orthopédique assistée par ordinateur
US20220338886A1 (en) 2019-06-19 2022-10-27 Think Surgical, Inc. System and method to position a tracking system field-of-view

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2990765A (en) * 1956-12-01 1961-07-04 Kamera & Kinowerke Dresden Veb Stereo camera for scientific and surgical photography
JPS6247513A (ja) * 1985-08-27 1987-03-02 Mitsui Constr Co Ltd 被観測体の自動撮影装置
US4963903A (en) * 1989-10-25 1990-10-16 Cane Richard M Camera positioning system
US5086401A (en) * 1990-05-11 1992-02-04 International Business Machines Corporation Image-directed robotic system for precise robotic surgery including redundant consistency checking
US6405072B1 (en) 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
US5803089A (en) * 1994-09-15 1998-09-08 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
US6978166B2 (en) * 1994-10-07 2005-12-20 Saint Louis University System for use in displaying images of a body part
US6122541A (en) * 1995-05-04 2000-09-19 Radionics, Inc. Head band for frameless stereotactic registration
US5769861A (en) * 1995-09-28 1998-06-23 Brainlab Med. Computersysteme Gmbh Method and devices for localizing an instrument
DE19639615C5 (de) 1996-09-26 2008-11-06 Brainlab Ag Reflektorenreferenzierungssystem für chirurgische und medizinische Instrumente
US6184922B1 (en) 1997-07-31 2001-02-06 Olympus Optical Co., Ltd. Endoscopic imaging system in which still image-specific or motion picture-specific expansion unit can be coupled to digital video output terminal in freely uncoupled manner
WO1999038449A1 (en) 1998-01-28 1999-08-05 Cosman Eric R Optical object tracking system
DE19908844C2 (de) 1999-03-01 2001-06-07 Aesculap Ag & Co Kg Verfahren und Vorrichtung zur Korrelation der tatsächlichen Lage eines Markierungselementes mit den durch ein Abbildungsverfahren erhaltenen Positionsdaten
US6535756B1 (en) * 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
US6524321B2 (en) * 2001-01-03 2003-02-25 Nozomu Kanesaka Closure device for puncture in vessel
US6514259B2 (en) * 2001-02-02 2003-02-04 Carnegie Mellon University Probe and associated system and method for facilitating planar osteotomy during arthoplasty
DE10105822C2 (de) 2001-02-07 2003-02-06 Aesculap Ag & Co Kg Verfahren und Vorrichtung zur Bestimmung der Kontur einer Ausnehmung in einem Materialstück
KR20030082942A (ko) * 2001-02-27 2003-10-23 스미스 앤드 네퓨, 인크. 인공 무릎 관절 성형 수술 시스템 및 방법
FR2828801B1 (fr) 2001-08-27 2004-07-02 Surgiview Sa Dispositif de controle de la position d'un emetteur d'un systeme de localisation tridimentionnel
DE10145587B4 (de) * 2001-09-15 2007-04-12 Aesculap Ag & Co. Kg Verfahren und Vorrichtung zur Prüfung eines Markierungselementes auf Verrückung
WO2003090022A2 (en) * 2002-04-16 2003-10-30 Noble Philip C Computer-based training methods for surgical procedures
US7318827B2 (en) * 2002-12-02 2008-01-15 Aesculap Ag & Co. Kg Osteotomy procedure
DE20304153U1 (de) 2003-03-15 2003-05-22 Aesculap Ag & Co Kg Vorrichtung zur Bestimmung geometrischer Daten an einem Beckenknochen

Also Published As

Publication number Publication date
US20040151354A1 (en) 2004-08-05
EP1589892B1 (en) 2007-11-28
EP1589892A1 (en) 2005-11-02
DE602004010366D1 (de) 2008-01-10
DE602004010366T2 (de) 2008-11-27
WO2004069074A1 (en) 2004-08-19
US7492930B2 (en) 2009-02-17

Similar Documents

Publication Publication Date Title
ES2294463T3 (es) Procedimiento y aparato para capturar informacion asociada con una intervencion quirurgica realizada usando un dispositivo de localizacion.
US20210307842A1 (en) Surgical system having assisted navigation
US11638613B2 (en) Systems and methods for augmented reality based surgical navigation
CN111031954B (zh) 用于医疗程序中的感觉增强系统和方法
ES2294458T3 (es) Procedimiento y dispositivo de registro de parametros posicionales de un instrumento de un dispositivo de localizacion.
CN105193503B (zh) 增强的手术实践环境系统
EP2542176B1 (en) Method for enabling medical navigation with minimised invasiveness
EP2852348B1 (en) Soft tissue cutting instrument
CN106999247A (zh) 用于执行导航外科手术过程的跟踪标记支承结构以及采用其的表面配准方法
US20210315478A1 (en) Smart drill, jig, and method of orthopedic surgery
AU2017201866A1 (en) On-board tool tracking system and methods of computer assisted surgery
US20070233156A1 (en) Surgical instrument
US20080306490A1 (en) Trackable diagnostic scope apparatus and methods of use
US20120089012A1 (en) Method and apparatus for navigating a cutting tool during orthopedic surgery using a localization system
US11633254B2 (en) Patient-matched apparatus for use in augmented reality assisted surgical procedures and methods for using the same
EP2556804B1 (en) System for indicating positioning of an internal anatomical feature
JP2018509964A (ja) 医療機器
EP4169470B1 (en) Apparatus and method for positioning a patient's body and tracking the patient's position during surgery
EP4169473A1 (en) Apparatus and method for registering live and scan images
JP2009172124A (ja) 手術ナビゲーションシステム、画像表示方法、コンピュータプログラム及び記録媒体
US20230233257A1 (en) Augmented reality headset systems and methods for surgical planning and guidance