ES2294463T3 - Procedimiento y aparato para capturar informacion asociada con una intervencion quirurgica realizada usando un dispositivo de localizacion. - Google Patents
Procedimiento y aparato para capturar informacion asociada con una intervencion quirurgica realizada usando un dispositivo de localizacion. Download PDFInfo
- Publication number
- ES2294463T3 ES2294463T3 ES04706167T ES04706167T ES2294463T3 ES 2294463 T3 ES2294463 T3 ES 2294463T3 ES 04706167 T ES04706167 T ES 04706167T ES 04706167 T ES04706167 T ES 04706167T ES 2294463 T3 ES2294463 T3 ES 2294463T3
- Authority
- ES
- Spain
- Prior art keywords
- field
- vision
- coordinates
- instrument
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000011477 surgical intervention Methods 0.000 title claims abstract description 23
- 230000004044 response Effects 0.000 claims abstract description 20
- 239000003550 marker Substances 0.000 claims description 34
- 238000001356 surgical procedure Methods 0.000 claims description 5
- 238000012800 visualization Methods 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims 1
- 210000002303 tibia Anatomy 0.000 description 20
- 210000000988 bone and bone Anatomy 0.000 description 10
- 238000011882 arthroplasty Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 7
- 238000012331 Postoperative analysis Methods 0.000 description 4
- 210000002414 leg Anatomy 0.000 description 4
- 210000003127 knee Anatomy 0.000 description 3
- 210000000689 upper leg Anatomy 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- ZHNFLHYOFXQIOW-AHSOWCEXSA-N (s)-[(2r,4s,5r)-5-ethenyl-1-azabicyclo[2.2.2]octan-2-yl]-(6-methoxyquinolin-4-yl)methanol;sulfuric acid;dihydrate Chemical compound O.O.OS(O)(=O)=O.C([C@H]([C@H](C1)C=C)C2)CN1[C@H]2[C@@H](O)C1=CC=NC2=CC=C(OC)C=C21.C([C@H]([C@H](C1)C=C)C2)CN1[C@H]2[C@@H](O)C1=CC=NC2=CC=C(OC)C=C21 ZHNFLHYOFXQIOW-AHSOWCEXSA-N 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011883 total knee arthroplasty Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/064—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/14—Surgical saws ; Accessories therefor
- A61B17/15—Guides therefor
- A61B17/154—Guides therefor for preparing bone for knee prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/14—Surgical saws ; Accessories therefor
- A61B17/15—Guides therefor
- A61B17/154—Guides therefor for preparing bone for knee prosthesis
- A61B17/155—Cutting femur
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/14—Surgical saws ; Accessories therefor
- A61B17/15—Guides therefor
- A61B17/154—Guides therefor for preparing bone for knee prosthesis
- A61B17/157—Cutting tibia
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Robotics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Endoscopes (AREA)
- Surgical Instruments (AREA)
Abstract
Un procedimiento para capturar información asociada con una intervención quirúrgica, comprendiendo dicho procedimiento las etapas de: controlar las coordenadas de un instrumento con un dispositivo de localización que define un primer campo de visión, ubicado dicho instrumento dentro de dicho primer campo de visión; adquirir una imagen de campo con una cámara que tiene un segundo campo de visión, incluyendo dicho segundo campo de visión al menos una parte de dicho primer campo de visión; y capturar dichas coordenadas de dicho instrumento y una imagen de campo en respuesta a un evento designado, en el que dicho evento designado lo genera automáticamente el dispositivo de localización en un punto predefinido en el tiempo durante la intervención quirúrgica.
Description
Procedimiento y aparato para capturar
información asociada con una intervención quirúrgica realizada
usando un dispositivo de localización.
La presente invención se refiere a instrumentos
médicos y, más particularmente, a un procedimiento y aparato para
capturar información asociada con una intervención quirúrgica
realizada usando un dispositivo de localización.
\vskip1.000000\baselineskip
Se han desarrollado dispositivos de localización
para ayudar a los cirujanos en la realización de intervenciones
quirúrgicas. Cuando se utilizan en una intervención, se unen
marcadores que pueden observarse mediante un sistema de sensor
estereoscópico a los huesos. El sistema de sensor se conecta a un
sistema de procesamiento de datos que registra las posiciones de
los marcadores en el espacio para establecer un sistema de
referencia de coordenadas con respecto a cada hueso que lleva un
marcador. Pueden montarse otros marcadores en instrumentos
quirúrgicos usados para palpar (tocar) puntos de referencia
específicos en los huesos mientras que el sistema registra su
ubicación con el fin de determinar la posición de los puntos de
referencia en los sistemas de referencia de coordenadas de los
huesos. También pueden montarse otros marcadores en instrumentos
quirúrgicos usados para realizar la intervención con el fin de
controlar la posición de los instrumentos quirúrgicos durante la
intervención. El dispositivo de localización se programa previamente
con información concerniente a la posición y la orientación de la
parte funcional del instrumento con respecto al marcador. Por tanto,
siguiendo la pista del marcador montado en el instrumento, el
dispositivo de localización puede seguir la pista del propio
instrumento. Se usa un monitor para visualizar la información
desarrollada a partir del sistema de referencia de coordenadas, los
puntos de referencia, y las posiciones controladas de los
instrumentos quirúrgicos para su uso en el guiado de un cirujano
durante la intervención, tal como manejar un instrumento quirúrgico
hasta una ubicación particular en el sistema de referencia de
coordenadas. Se describe un sistema de este tipo en el documento
WO-A-99/38449 y da a conocer las
características del preámbulo de la reivindicación 8.
Durante una intervención quirúrgica, pueden
determinarse la posición y la orientación de un instrumento
quirúrgico que se está manejando mediante el dispositivo de
localización para su uso posterior en la intervención y/o para
análisis posoperatorio. Tal como se indica, se determinan la
posición y la orientación del instrumento quirúrgico mediante la
observación de un marcador montado en el instrumento quirúrgico. El
marcador puede montarse en el instrumento quirúrgico sólo de una
manera predeterminada y el dispositivo de localización se programa
previamente con datos que indican la orientación y la posición del
instrumento quirúrgico con respecto al marcador. Mediante la
observación del marcador, el dispositivo de localización puede
determinar la posición y la orientación del instrumento quirúrgico.
Normalmente, se capturan las coordenadas del marcador observado y se
almacenan en una memoria asociada con el dispositivo de localización
en respuesta a un evento designado.
La precisión de la posición y la orientación del
instrumento quirúrgico determinadas por el dispositivo de
localización depende de varios factores. Estos factores incluyen el
montaje apropiado del marcador en el instrumento quirúrgico, la
programación previa precisa de los datos que indican la orientación
y la posición del instrumento quirúrgico con respecto al marcador y
la alineación del marcador y el instrumento quirúrgico. Si
cualquiera de estos factores no es como debiera, serán erróneas la
posición y la orientación del instrumento quirúrgico determinadas
por el dispositivo de localización.
Por consiguiente, existe una necesidad de
capturar información para verificar la orientación y la posición de
un instrumento quirúrgico que se está manejando mediante un
dispositivo de localización. La presente invención satisface esta
necesidad, entre otras cosas.
\vskip1.000000\baselineskip
La presente invención proporciona un
procedimiento y aparato para verificar la orientación y la posición
de un instrumento quirúrgico determinadas por un dispositivo de
localización. Se satisface la necesidad mencionada anteriormente
incorporando una cámara en un dispositivo de localización para
capturar imágenes de un instrumento quirúrgico que se está
manejando mediante el dispositivo de localización cuando se capturan
las coordenadas de un marcador asociado con el instrumento
quirúrgico mediante el dispositivo de localización. Las imágenes
capturadas pueden usarse entonces para verificar la posición y la
orientación del instrumento quirúrgico determinadas por el
dispositivo de localización basándose en las coordenadas capturadas,
para su uso durante el análisis posoperatorio. En ciertas
realizaciones, una pantalla de visualización presentada en un
monitor asociado con el dispositivo de localización y/o imágenes
endoscópicas adquiridas con una cámara endoscópica pueden capturarse
adicionalmente para proporcionar información adicional relacionada
con la intervención.
Un aspecto de la presente invención es un
procedimiento para capturar información asociada con una
intervención quirúrgica. El procedimiento incluye controlar las
coordenadas de un instrumento con un dispositivo de localización
que tiene un campo de visión, ubicado el instrumento dentro del
campo de visión, y capturar las coordenadas del instrumento y una
imagen de campo de al menos una parte del campo de visión en
respuesta a un evento designado, en el que el evento designado lo
genera automáticamente el dispositivo de localización en un punto de
tiempo predefinido durante la intervención quirúrgica.
Otro aspecto de la invención es un aparato para
capturar información del dispositivo de localización. El aparato
incluye un dispositivo de localización para detectar un marcador
asociado con un instrumento, definiendo el dispositivo de
localización un primer campo de visión; una cámara que tiene un
segundo campo de visión que puede adquirir una imagen de campo,
incluyendo el segundo campo de visión al menos una parte del primer
campo de visión; una memoria; y un ordenador acoplado al
dispositivo de localización, a la cámara y a la memoria, estando
configurado el ordenador para identificar la aparición un evento
designado, indicando el ordenador a la cámara que adquiriera la
imagen de campo en respuesta a la aparición del evento designado,
capturando el ordenador y almacenando en la memoria las coordenadas
del marcador asociado con el instrumento y la imagen de campo
adquirida en respuesta a la aparición del evento designado.
Las etapas del procedimiento puede realizarse en
software en un medio legible por ordenador o pueden formar un
sistema que comprende medios para realizar las etapas de
procedimiento.
En los dibujos, se usan los mismos números de
referencia para indicar los mismos elementos.
La figura 1 es una ilustración de un paciente a
punto de someterse a una intervención utilizando un dispositivo de
localización según la presente invención;
La figura 2 es una ilustración de un primer
campo de visión definido por los sensores y un segundo campo de
visión definido por la cámara del dispositivo de localización de la
figura 1;
La figura 3 es una ilustración de una plantilla
de corte montada en una tibia, manejándose la plantilla de corte
mediante el dispositivo de localización de la figura 1; y
La figura 4 es un diagrama de flujo que
representa las etapas para capturar información asociada con un
instrumento quirúrgico manejado mediante un dispositivo de
localización según la presente invención.
La figura 1 representa un dispositivo 100 de
localización en el que puede emplearse el procedimiento de la
presente invención. En la figura 1, se ilustra esquemáticamente un
paciente 102, que va a someterse a una intervención quirúrgica, por
ejemplo, una intervención de artroplastia total de rodilla (ATR) en
una pierna 104, acostado sobre una mesa 106 de operaciones. El
dispositivo 100 de localización incluye un ordenador 108 cargado
con software para manejo quirúrgico, una memoria 110, un procesador
112, sensores 114 que pueden detectar marcadores 116, un pedal 118,
un teclado 120 y un monitor 122 para visualizar una pantalla 123 de
visualización que contiene información de manejo quirúrgico. El
cirujano dispone de la pantalla 123 de visualización para que le
guíe durante intervenciones quirúrgicas realizadas usando el
dispositivo 100 de localización. Los sensores 114 están montados en
un brazo 128 situado por encima y lateralmente con respecto al
paciente 102 de modo que la pierna 104 del paciente está en el
campo de visión de los sensores 114. En general, los marcadores 116
están montados de manera fija sobre huesos (por ejemplo, tibia
105a/fémur 105b) e instrumentos quirúrgicos (por ejemplo, puntero
124), de modo que el dispositivo 100 de localización puede seguir la
pista de la ubicación y la orientación exactas de los huesos e
instrumentos quirúrgicos en los que están montados. Los sensores
114 detectan sólo los marcadores unidos a los huesos e instrumentos
quirúrgicos, en lugar de los propios huesos e instrumentos
quirúrgicos. Por consiguiente, se derivan la posición y la
orientación de los huesos e instrumentos quirúrgicos determinadas
por el dispositivo de localización basándose en la observación de
los marcadores 116 con los sensores 114, en lugar de observarse
directamente. Se encuentra una descripción de un dispositivo 100 de
localización adecuado que tiene estas características en la patente
estadounidense número 6.385.475 concedida a Cinquin et
al..
En la presente invención, el dispositivo 100 de
localización incluye además una cámara 126. En la realización
ilustrada, la cámara 126 está montada en el brazo 128 en el que
también están montados los sensores 114 y está conectada al
ordenador 108 del dispositivo 100 de localización. La cámara 126
está configurada para adquirir una imagen en respuesta a una señal
procedente del dispositivo 100 de localización. Según la invención,
se adquieren imágenes mediante la cámara 126 y se capturan en la
memoria 110 en respuesta a la identificación de una señal
predefinida por el dispositivo de localización. La cámara 126 puede
ser una cámara digital convencional, una videocámara, o
esencialmente cualquier dispositivo que puede capturar una imagen.
La selección de una cámara 126 adecuada y su configuración para su
uso con el dispositivo 100 de localización resultarán evidentes de
inmediato para un experto en las técnicas relacionadas.
En la realización ilustrada, una cámara 130
endoscópica está acoplada al dispositivo 100 de localización para
captar imágenes endoscópicas de una intervención quirúrgica. La
cámara 130 endoscópica ilustrada incluye un alojamiento 132 y un
endoscopio 134 flexible acoplado al alojamiento 132. La cámara 130
endoscópica está conectada al ordenador 108 del dispositivo 100 de
localización. El endoscopio 134 flexible puede insertarse en una
incisión 136, por ejemplo, dentro de una pierna 104, para capturar
imágenes que no son visibles fácilmente desde el exterior de la
incisión 136. La cámara 136 endoscópica genera imágenes que pueden
visualizarse en la pantalla 123 de visualización en el monitor 122
del dispositivo 100 de localización de manera conocida. El
dispositivo 100 de localización puede capturar imágenes
endoscópicas en la memoria 110 en respuesta a la identificación de
una señal predefinida. La selección de una cámara 130 endoscópica
adecuada y su configuración para su uso con el dispositivo 100 de
localización resultarán evidentes de inmediato para un experto en
las técnicas relacionadas.
La figura 2 representa campos de visión
asociados con los sensores 114 y la cámara 126 del dispositivo 100
de localización de la figura 1. Los sensores 114 definen un primer
campo 202 de visión. El primer campo 202 de visión representa una
zona dentro de la cual el dispositivo de localización puede seguir
la pista de un marcador unido a un instrumento quirúrgico y, así,
del propio instrumento quirúrgico. Para el dispositivo 100 de
localización ilustrado, el dispositivo 100 de localización puede
seguir la pista de un marcador siempre que el marcador sea visible
para ambos sensores 114. Un primer sensor 114a puede visualizar una
primera zona 204 y un segundo sensor 114b puede visualizar una
segunda zona 206. El primer campo 202 de visión es la intersección
entre la primera zona 204 y la segunda zona 206.
La cámara 126 está situada para capturar al
menos una parte del primer campo 202 de visión definido por los
sensores 114. La cámara 126 define un segundo campo 208 de visión.
La parte del primer campo 202 de visión que puede capturarse por la
cámara 126 es la zona de solapamiento entre el segundo campo 208 de
visión definido por la cámara y el primer campo de visión definido
por los sensores 114. Preferiblemente, la zona de solapamiento
incluye el primer campo 202 de visión completo.
Los expertos en la técnica reconocerán que
pueden usarse otros sensores y/o un sensor omnidireccional para
ampliar el primer campo 202 de visión, por ejemplo, para
proporcionar hasta 360 grados de cobertura alrededor del
dispositivo de localización. Asimismo, pueden usarse cámaras
panorámicas y/o múltiples cámaras para ampliar el segundo campo 208
de visión, por ejemplo, hasta 360 grados. Además, los expertos en la
técnica reconocerán que los campos 202, 208 de visión pueden
incluir zonas que se extienden hasta directamente por encima y/o por
debajo del dispositivo 100 de localización.
La figura 3 representa una plantilla 300 de
corte situada sobre una tibia 105a. La plantilla 300 de corte es un
instrumento quirúrgico para su uso durante muchas intervenciones
quirúrgicas, por ejemplo, una intervención de ATR. Con fines
descriptivos, se describirá una realización a modo de ejemplo de la
presente invención en relación con el manejo de una plantilla 300
de corte durante una intervención de ATR. La intervención de ATR
supone sustituir una rodilla dañada de la pierna 104 (figura 1)
reconstruyendo la superficie de la tibia 105a y el fémur 105b en la
rodilla con prótesis metálicas y/o de plástico para formar una
articulación artificial. La intervención supone cortar con sierra
los extremos de la tibia 105a y el fémur 105b cerca de la rodilla
para crear superficies de forma y ubicación precisas para albergar
las prótesis. Aunque la descripción de la presente invención se
centra en capturar información asociada con una plantilla 300 de
corte manejada mediante un dispositivo 100 de localización durante
una intervención de ATR, resultará evidente de inmediato para un
experto en la técnica que puede usarse la presente invención con
cualquier número de instrumentos quirúrgicos en cualquier número de
intervenciones quirúrgicas.
La plantilla 300 de corte está configurada para
alojar un marcador 116a para seguirle la pista mediante el
dispositivo 100 de localización (figura 1). El dispositivo 100 de
localización se programa previamente con datos que indican la
orientación y la posición de la ranura 302 de corte con respecto al
marcador 116a montado en la plantilla 300 de corte. Durante la
intervención, el dispositivo 100 de localización puede observar el
marcador 116a en la plantilla 300 de corte y determinar la
orientación y la posición de la ranura 302 de corte con respecto a
la tibia 105a, que también tiene un marcador 116. Durante una etapa
de la intervención de ATR, la plantilla 300 de corte se maneja
mediante el dispositivo 100 de localización y se sujeta a la tibia
105a. La plantilla 300 de corte se maneja de tal manera que, tras
sujetarse la plantilla 300 de corte a la tibia 105a, se orienta una
ranura 302 de corte en la plantilla 300 de corte para guiar una hoja
304 de una sierra (no mostrada) hasta la posición apropiada para la
retirada de una parte de la tibia 105a. El manejo de una plantilla
300 de corte mediante un dispositivo 100 de localización para
realizar un corte en una tibia 105a durante una intervención de ATR
lo conocen bien los expertos en la técnica.
La figura 4 representa un diagrama 400 de flujo
para su uso en la descripción de un procedimiento para capturar
imágenes asociadas con una intervención quirúrgica, por ejemplo, una
intervención de ATR, según la presente invención. En el bloque 402,
comienza el procedimiento. En una realización preferida, el
procedimiento comienza cuando lo invoca el dispositivo 100 de
localización durante una o más partes específicas de una
intervención quirúrgica. Por ejemplo, el dispositivo 100 de
localización puede invocar el procedimiento durante el manejo de
una plantilla 300 de corte (figura 3) para guiar una hoja 304 de
sierra para retirar una parte de una tibia 105a durante una
intervención de ATR. En una realización alternativa, el dispositivo
100 de localización puede invocar el procedimiento al inicio de la
intervención quirúrgica y puede usarse el procedimiento para
capturar información visual durante toda la intervención.
En el bloque 404, se controlan las coordenadas
de un instrumento quirúrgico, por ejemplo, una plantilla de corte,
mediante el dispositivo 100 de localización. Tal como se describió
anteriormente, en referencia a la figura 2, los sensores 114 del
dispositivo 100 de localización definen un primer campo 202 de
visión dentro del que puede seguirse la pista de un marcador.
Siguiendo la pista del marcador 116, el dispositivo 100 de
localización puede controlar las coordenadas de un instrumento
quirúrgico, por ejemplo, la plantilla 300 de corte, asociado con el
marcador.
En el bloque 406, se genera una pantalla 123 de
visualización para la visualización en el monitor 122 del
dispositivo 100 de localización de la figura 1. Preferiblemente, la
pantalla 123 de visualización incluye al menos cierta información
basada en las coordenadas del instrumento quirúrgico controlado en
el bloque 404. Por ejemplo, la pantalla de visualización puede
presentar un valor numérico calculado por el dispositivo de
localización que representa la distancia entre un borde de ataque de
la ranura 302 de corte (figura 3) de la plantilla 300 de corte y un
punto de interés en la tibia 105. El punto de interés en la tibia
105a puede adquirirse y almacenarse en la memoria 110 de manera
conocida. En ciertas realizaciones, pueden incluirse las imágenes
procedentes de la cámara 126 y/o la cámara 130 endoscópica en la
pantalla 123 de visualización.
En el bloque 408, se realiza una comprobación
para determinar si se ha producido un evento designado. Si se ha
producido el evento designado, el procesamiento avanza hasta el
bloque 410. En caso contrario, si no se ha producido el evento
designado, el procesamiento avanza hasta el bloque 404. En una
realización preferida, el evento designado es la presencia de una
señal en el ordenador 108 del dispositivo 100 de localización.
Según la invención, el evento designado lo genera automáticamente el
dispositivo de localización, por ejemplo, a intervalos predefinidos
durante una intervención quirúrgica (tal como cada cinco
minutos).
En los bloques 410 y 412, se capturan las
coordenadas del instrumento quirúrgico controladas en el bloque 404
y la pantalla de visualización generada en el bloque 406,
respectivamente. En una realización preferida, se capturan las
coordenadas del instrumento quirúrgico y la pantalla 123 de
visualización presentada en un monitor 122 del dispositivo de
localización en el momento en que se identifica el evento designado
almacenándolas en un medio de almacenamiento tal como la memoria 110
en el dispositivo 100 de localización.
En el bloque 414, se captura una imagen de campo
de al menos una parte del campo de visión del dispositivo de
localización. En una realización preferida, la imagen de campo es
una imagen adquirida con la cámara 126 conectada al dispositivo 100
de localización en respuesta a la identificación de la aparición del
evento designado. La imagen de campo es una imagen de la
intervención quirúrgica que se está realizando usando el dispositivo
100 de localización tal como la "ve" el dispositivo de
localización. Preferiblemente, la imagen de campo incluye una
imagen visual de un instrumento quirúrgico que se está manejando
mediante el dispositivo de localización y su entorno circundante.
Tal como se describió anteriormente, los sensores 114 definen un
primer campo 202 de visión dentro del cual puede seguirse la pista
de instrumentos quirúrgicos que tienen marcadores. La cámara 126
define un segundo campo 208 de visión que incluye al menos una parte
del primer campo 202 de visión. Capturando una imagen de campo del
segundo campo 208 de visión, se captura al menos una parte del
primer campo 202 de visión tal como la "ven" los sensores 114
del dispositivo 100 de localización. Esta información puede ser
útil para el análisis posoperatorio, por ejemplo, para verificar las
coordenadas de la ranura 302 de corte de una plantilla 300 de corte
con respecto a un punto en la tibia 105a determinadas por el
dispositivo de localización. La imagen de campo puede incluir una
única imagen ("instantánea") o una serie de imágenes
("película") capturadas en respuesta a la identificación del
evento designado en el bloque 408. En una realización preferida, se
captura la imagen de campo de manera sustancialmente simultánea con
las coordenadas del instrumento quirúrgico en el bloque 410.
En el bloque 416, se captura opcionalmente una
imagen endoscópica generada por una cámara endoscópica, si está
presente. En una realización preferida, la imagen endoscópica es una
imagen adquirida con la cámara 130 endoscópica conectada al
dispositivo 100 de localización en respuesta a la identificación de
la aparición del evento designado.
En el bloque 418, se realiza una determinación
en cuanto a si ha terminado la parte específica de la intervención
en la que se invocó el procedimiento en el bloque 402. En una
realización preferida, el cirujano indica cuándo ha terminado esa
parte de la intervención, por ejemplo, presionando un pedal. Si ha
terminado la parte de la intervención, el procesamiento avanza
hasta el bloque 420, donde finaliza. En caso contrario, si no ha
terminado la parte de la intervención, el procesamiento retrocede
hasta el bloque 404 de modo que el dispositivo puede continuar
capturando imágenes en relación con los bloques 404 a 416.
Por tanto, puede usarse el procedimiento para
capturar imágenes de la siguiente manera. El dispositivo 100 de
localización de la figura 1 invoca el procedimiento de la figura 4
durante una etapa de una intervención quirúrgica que se está
realizando usando el dispositivo 100 de localización. Durante esta
etapa de la intervención quirúrgica, el dispositivo 100 de
localización controla las coordenadas de un(unos)
instrumento(s) quirúrgico(s) que se está(n) manejando
y genera para su visualización en un monitor 122 una pantalla de
visualización que incluye información asociada con las coordenadas
controladas del instrumento quirúrgico. Una señal generada con el
dispositivo 100 de localización (es decir, el evento designado)
indica al dispositivo de localización a capturar en ese instante en
el tiempo las coordenadas del instrumento quirúrgico, la pantalla de
visualización, una imagen de campo de la intervención quirúrgica y,
opcionalmente, una imagen endoscópica. La información capturada
puede integrarse o incluirse en un informe convencional de manera
conocida, conservando por tanto un registro de la intervención
quirúrgica para el análisis posoperatorio.
Las imágenes capturadas proporcionan información
sobre una intervención quirúrgica realizada usando un dispositivo
100 de localización (figura 1) que puede usarse para verificar la
información adquirida por el dispositivo 100 de localización
mediante la observación de marcadores 116 unidos a huesos e
instrumentos quirúrgicos. Puesto que los sensores 114 sólo detectan
marcadores montados en huesos e instrumentos quirúrgicos, en lugar
de los mismos instrumentos quirúrgicos en los que están montados, la
posición y la orientación de un instrumento quirúrgico determinadas
por el dispositivo 100 de localización pueden no reflejar con
precisión la posición y la orientación reales del instrumento
quirúrgico. Por ejemplo, si el marcador está montado de manera
indebida en el instrumento quirúrgico, el dispositivo 100 de
localización se programa previamente con datos incorrectos que
indican la orientación y la posición del instrumento quirúrgico con
respecto al marcador, el marcador no está alineado (es decir, está
torcido), y/o el instrumento quirúrgico no está alineado, serán
erróneas la posición y la orientación de la parte funcional del
instrumento quirúrgico determinadas por el dispositivo de
localización.
La captura de una imagen visual del propio
instrumento quirúrgico y su entorno circundante (es decir, una
imagen de campo) sustancialmente al mismo tiempo que el dispositivo
100 de localización captura las coordenadas del marcador montado en
un instrumento quirúrgico, observado por los sensores 114,
proporciona una herramienta para verificar la precisión de la
posición y la orientación del instrumento quirúrgico determinadas
por el dispositivo de localización. La imagen visual capturada del
instrumento quirúrgico puede compararse con la información de
posición y orientación para ese instrumento quirúrgico obtenida por
el dispositivo de localización para verificar la precisión de esa
información. Por ejemplo, supóngase que el instrumento quirúrgico
que se está manejando mediante el dispositivo de localización es
una plantilla 300 de corte (figura 3) que tiene un plano 306 de
corte definido por una ranura 302 de corte. Además, supóngase que la
ranura de corte debe orientarse perpendicular al eje 308 mecánico
de la tibia 105a para cortar la tibia. Cuando se maneja la plantilla
300 de corte mediante el dispositivo de localización, el
dispositivo de localización manejará la plantilla 300 de corte de
tal manera que el supuesto plano 306 de corte de la plantilla 300 de
corte parece perpendicular al eje 308 mecánico. Sin embargo, si el
marcador está torcido, serán erróneas la posición y la orientación
reales del plano 306 de corte determinadas por el dispositivo de
localización y el plano 306 de corte no será realmente perpendicular
al eje 308 mecánico.
La captura de una imagen visual de la plantilla
300 de corte montada en la tibia 105a permite a un analista
examinar visualmente una imagen de la plantilla 300 de corte montada
en la tibia 105a. Si con el examen visual el analista observa que
el plano 306 de corte es perpendicular al eje 308 mecánico de la
tibia 105a, el analista puede verificar la precisión de la posición
y la orientación de la plantilla de corte determinadas por el
dispositivo de localización. Por otro lado, si el analista observa
que el plano 306 de corte definido por la ranura 302 de corte no es
perpendicular al eje 308 mecánico de la tibia 105a, el analista
puede verificar la imprecisión de la posición y la orientación de
la plantilla de corte determinadas por el dispositivo de
localización. Por tanto, puede usarse la imagen visual (es decir, la
imagen de campo) para verificar la posición y la orientación de la
plantilla de corte determinadas por el dispositivo de
localización.
Por tanto, habiendo descritos unas cuantas
realizaciones particulares de la invención, se les ocurrirán de
inmediato diversas alteraciones, modificaciones y mejoras a los
expertos en la técnica. Tales alteraciones, modificaciones y
mejoras que resultan obvias mediante esta exposición pretenden ser
parte de esta descripción aunque no se declare expresamente en la
misma, y pretenden estar dentro del alcance de la invención. Por
consiguiente, la descripción anterior es a modo de ejemplo
únicamente, y no limitante. La invención sólo está limitada tal como
se define en las siguientes reivindicaciones y equivalentes de las
mismas.
Claims (15)
1. Un procedimiento para capturar información
asociada con una intervención quirúrgica, comprendiendo dicho
procedimiento las etapas de:
controlar las coordenadas de un instrumento con
un dispositivo de localización que define un primer campo de visión,
ubicado dicho instrumento dentro de dicho primer campo de
visión;
adquirir una imagen de campo con una cámara que
tiene un segundo campo de visión, incluyendo dicho segundo campo de
visión al menos una parte de dicho primer campo de visión; y
capturar dichas coordenadas de dicho instrumento
y una imagen de campo en respuesta a un evento designado,
en el que dicho evento designado lo genera
automáticamente el dispositivo de localización en un punto
predefinido en el tiempo durante la intervención quirúrgica.
2. El procedimiento según la reivindicación 1,
en el que dichas coordenadas de dicho instrumento y dicha imagen de
campo se capturan de manera sustancialmente simultánea.
3. El procedimiento según la reivindicación 1 ó
2, que comprende además:
generar una pantalla de visualización usando una
o más de dichas coordenadas controladas; y
capturar al menos una parte de dicha pantalla de
visualización en respuesta a dicho evento designado.
4. El procedimiento según una de las
reivindicaciones anteriores, que comprende además:
capturar una imagen endoscópica asociada con la
intervención quirúrgica en respuesta a dicho evento designado.
5. El procedimiento según una de las
reivindicaciones anteriores, en el que dicha etapa de captura de
dicha imagen de campo comprende al menos la etapa de:
adquirir una única imagen de dicho campo de
visión con una cámara.
6. El procedimiento según una de las
reivindicaciones 1 a 4, en el que dicha etapa de captura de dicha
imagen de campo comprende al menos la etapa de:
adquirir una serie de imágenes de dicho campo de
visión con una videocámara.
7. El procedimiento según la reivindicación 1,
en el que dicha imagen de campo incluye la totalidad de dicho campo
de visión.
8. Un aparato para capturar información del
dispositivo de localización, comprendiendo dicho aparato:
un dispositivo de localización para detectar un
marcador asociado con un instrumento, definiendo dicho dispositivo
de localización un primer campo de visión;
una cámara que tiene un segundo campo de visión
que puede adquirir una imagen de campo, incluyendo dicho segundo
campo de visión al menos una parte de dicho primer campo de
visión;
una memoria; y
un ordenador acoplado operativamente a dicho
dispositivo de localización, a dicha cámara y a dicha memoria,
caracterizado porque dicho ordenador genera un evento
designado automáticamente en un punto predefinido en el tiempo
durante la intervención quirúrgica e identifica la aparición de
dicho evento designado, indicando dicho ordenador a dicha cámara a
adquirir dicha imagen de campo en respuesta a la aparición de dicho
evento designado, capturando dicho ordenador en dicha memoria
coordenadas de dicho marcador asociado con dicho instrumento y dicha
imagen de campo adquirida en respuesta a la aparición de dicho
evento designado.
9. El aparato según la reivindicación 8, en el
que dicho ordenador captura dichas coordenadas de dicho marcador y
dicha imagen de campo adquirida de manera sustancialmente
simultánea.
10. El aparato según la reivindicación 8 ó 9,
en el que dicha cámara es una videocámara.
11. El aparato según la reivindicación 10, en
el que dicha imagen de campo es un vídeo asociado con un periodo de
tiempo correspondiente a dicho evento designado.
12. El aparato según la reivindicación 8 ó 9,
que comprende además:
una cámara endoscópica acoplada a dicho
ordenador para adquirir imágenes endoscópicas asociadas con la
intervención quirúrgica, capturando dicho ordenador al menos una
imagen endoscópica en dicha memoria en respuesta a la aparición de
dicho evento designado.
13. El aparato según la reivindicación 12, en
el que dicha cámara endoscópica está configurada para alojar un
marcador para seguirle la pista mediante dicho dispositivo de
localización, en el que dicho ordenador captura además coordenadas
de dicho marcador alojado por dicha cámara endoscópica en respuesta
a la aparición de dicho evento designado.
14. Producto de programa informático para
capturar información asociada con una intervención quirúrgica
realizada usando un dispositivo de localización, comprendiendo dicho
producto de programa informático:
código de programación legible por ordenador
realizado en un medio legible por ordenador, comprendiendo el código
de programación legible por ordenador al menos:
- código de programación legible por ordenador para controlar las coordenadas de un instrumento con un dispositivo de localización que tiene un campo de visión, ubicado dicho instrumento dentro de dicho campo de visión; y
- código de programación legible por ordenador para capturar dichas coordenadas de dicho instrumento y una imagen de campo de al menos una parte de dicho campo de visión en respuesta a un evento designado y
- código de programación legible por ordenador para generar dicho evento designado automáticamente en un punto predefinido en el tiempo durante la intervención quirúrgica.
15. El producto de programa informático según
la reivindicación 14, realizado dicho código de programación legible
por ordenador en un medio legible por ordenador que comprende
además:
código de programación legible por ordenador
para generar una pantalla de visualización usando una o más de
dichas coordenadas controladas; y
código de programación legible por ordenador
para capturar al menos una parte de dicha pantalla de visualización
en respuesta a dicho evento designado.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US357908 | 1994-12-16 | ||
US10/357,908 US7492930B2 (en) | 2003-02-04 | 2003-02-04 | Method and apparatus for capturing information associated with a surgical procedure performed using a localization device |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2294463T3 true ES2294463T3 (es) | 2008-04-01 |
Family
ID=32771093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES04706167T Expired - Lifetime ES2294463T3 (es) | 2003-02-04 | 2004-01-29 | Procedimiento y aparato para capturar informacion asociada con una intervencion quirurgica realizada usando un dispositivo de localizacion. |
Country Status (5)
Country | Link |
---|---|
US (1) | US7492930B2 (es) |
EP (1) | EP1589892B1 (es) |
DE (1) | DE602004010366T2 (es) |
ES (1) | ES2294463T3 (es) |
WO (1) | WO2004069074A1 (es) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9636188B2 (en) * | 2006-03-24 | 2017-05-02 | Stryker Corporation | System and method for 3-D tracking of surgical instrument in relation to patient body |
US8560047B2 (en) | 2006-06-16 | 2013-10-15 | Board Of Regents Of The University Of Nebraska | Method and apparatus for computer aided surgery |
US7831096B2 (en) * | 2006-11-17 | 2010-11-09 | General Electric Company | Medical navigation system with tool and/or implant integration into fluoroscopic image projections and method of use |
US8934961B2 (en) | 2007-05-18 | 2015-01-13 | Biomet Manufacturing, Llc | Trackable diagnostic scope apparatus and methods of use |
CN103764061B (zh) | 2011-06-27 | 2017-03-08 | 内布拉斯加大学评议会 | 工具承载的追踪系统和计算机辅助外科方法 |
US9498231B2 (en) | 2011-06-27 | 2016-11-22 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US11911117B2 (en) | 2011-06-27 | 2024-02-27 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US8750568B2 (en) | 2012-05-22 | 2014-06-10 | Covidien Lp | System and method for conformal ablation planning |
US9439627B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Planning system and navigation system for an ablation procedure |
US9498182B2 (en) | 2012-05-22 | 2016-11-22 | Covidien Lp | Systems and methods for planning and navigation |
US9439622B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Surgical navigation system |
US9439623B2 (en) | 2012-05-22 | 2016-09-13 | Covidien Lp | Surgical planning system and navigation system |
DE102012220115A1 (de) * | 2012-11-05 | 2014-05-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung |
US10105149B2 (en) | 2013-03-15 | 2018-10-23 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
DE102014003040A1 (de) * | 2014-03-07 | 2015-09-10 | Surgical Process Institute Deutschland Gmbh | Verfahren zur Überwachung eines Operationsvorgangs |
WO2017117369A1 (en) | 2015-12-31 | 2017-07-06 | Stryker Corporation | System and methods for performing surgery on a patient at a target site defined by a virtual object |
US10052163B2 (en) | 2016-07-19 | 2018-08-21 | Hcl Technologies Limited | Assisting a surgeon to operate a surgical device |
EP3785228B8 (en) | 2018-04-23 | 2024-01-24 | MAKO Surgical Corp. | System, method and software program for aiding in positioning of a camera relative to objects in a surgical environment |
DE102019004233B4 (de) | 2018-06-15 | 2022-09-22 | Mako Surgical Corp. | Systeme und verfahren zum verfolgen von objekten |
US11291507B2 (en) | 2018-07-16 | 2022-04-05 | Mako Surgical Corp. | System and method for image based registration and calibration |
WO2020033947A1 (en) | 2018-08-10 | 2020-02-13 | Covidien Lp | Systems for ablation visualization |
FR3095331A1 (fr) | 2019-04-26 | 2020-10-30 | Ganymed Robotics | Procédé de chirurgie orthopédique assistée par ordinateur |
US20220338886A1 (en) | 2019-06-19 | 2022-10-27 | Think Surgical, Inc. | System and method to position a tracking system field-of-view |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2990765A (en) * | 1956-12-01 | 1961-07-04 | Kamera & Kinowerke Dresden Veb | Stereo camera for scientific and surgical photography |
JPS6247513A (ja) * | 1985-08-27 | 1987-03-02 | Mitsui Constr Co Ltd | 被観測体の自動撮影装置 |
US4963903A (en) * | 1989-10-25 | 1990-10-16 | Cane Richard M | Camera positioning system |
US5086401A (en) * | 1990-05-11 | 1992-02-04 | International Business Machines Corporation | Image-directed robotic system for precise robotic surgery including redundant consistency checking |
US6405072B1 (en) | 1991-01-28 | 2002-06-11 | Sherwood Services Ag | Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus |
US5803089A (en) * | 1994-09-15 | 1998-09-08 | Visualization Technology, Inc. | Position tracking and imaging system for use in medical applications |
US6978166B2 (en) * | 1994-10-07 | 2005-12-20 | Saint Louis University | System for use in displaying images of a body part |
US6122541A (en) * | 1995-05-04 | 2000-09-19 | Radionics, Inc. | Head band for frameless stereotactic registration |
US5769861A (en) * | 1995-09-28 | 1998-06-23 | Brainlab Med. Computersysteme Gmbh | Method and devices for localizing an instrument |
DE19639615C5 (de) | 1996-09-26 | 2008-11-06 | Brainlab Ag | Reflektorenreferenzierungssystem für chirurgische und medizinische Instrumente |
US6184922B1 (en) | 1997-07-31 | 2001-02-06 | Olympus Optical Co., Ltd. | Endoscopic imaging system in which still image-specific or motion picture-specific expansion unit can be coupled to digital video output terminal in freely uncoupled manner |
WO1999038449A1 (en) | 1998-01-28 | 1999-08-05 | Cosman Eric R | Optical object tracking system |
DE19908844C2 (de) | 1999-03-01 | 2001-06-07 | Aesculap Ag & Co Kg | Verfahren und Vorrichtung zur Korrelation der tatsächlichen Lage eines Markierungselementes mit den durch ein Abbildungsverfahren erhaltenen Positionsdaten |
US6535756B1 (en) * | 2000-04-07 | 2003-03-18 | Surgical Navigation Technologies, Inc. | Trajectory storage apparatus and method for surgical navigation system |
US6524321B2 (en) * | 2001-01-03 | 2003-02-25 | Nozomu Kanesaka | Closure device for puncture in vessel |
US6514259B2 (en) * | 2001-02-02 | 2003-02-04 | Carnegie Mellon University | Probe and associated system and method for facilitating planar osteotomy during arthoplasty |
DE10105822C2 (de) | 2001-02-07 | 2003-02-06 | Aesculap Ag & Co Kg | Verfahren und Vorrichtung zur Bestimmung der Kontur einer Ausnehmung in einem Materialstück |
KR20030082942A (ko) * | 2001-02-27 | 2003-10-23 | 스미스 앤드 네퓨, 인크. | 인공 무릎 관절 성형 수술 시스템 및 방법 |
FR2828801B1 (fr) | 2001-08-27 | 2004-07-02 | Surgiview Sa | Dispositif de controle de la position d'un emetteur d'un systeme de localisation tridimentionnel |
DE10145587B4 (de) * | 2001-09-15 | 2007-04-12 | Aesculap Ag & Co. Kg | Verfahren und Vorrichtung zur Prüfung eines Markierungselementes auf Verrückung |
WO2003090022A2 (en) * | 2002-04-16 | 2003-10-30 | Noble Philip C | Computer-based training methods for surgical procedures |
US7318827B2 (en) * | 2002-12-02 | 2008-01-15 | Aesculap Ag & Co. Kg | Osteotomy procedure |
DE20304153U1 (de) | 2003-03-15 | 2003-05-22 | Aesculap Ag & Co Kg | Vorrichtung zur Bestimmung geometrischer Daten an einem Beckenknochen |
-
2003
- 2003-02-04 US US10/357,908 patent/US7492930B2/en active Active
-
2004
- 2004-01-29 WO PCT/EP2004/000778 patent/WO2004069074A1/en active IP Right Grant
- 2004-01-29 EP EP04706167A patent/EP1589892B1/en not_active Expired - Lifetime
- 2004-01-29 ES ES04706167T patent/ES2294463T3/es not_active Expired - Lifetime
- 2004-01-29 DE DE602004010366T patent/DE602004010366T2/de not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US20040151354A1 (en) | 2004-08-05 |
EP1589892B1 (en) | 2007-11-28 |
EP1589892A1 (en) | 2005-11-02 |
DE602004010366D1 (de) | 2008-01-10 |
DE602004010366T2 (de) | 2008-11-27 |
WO2004069074A1 (en) | 2004-08-19 |
US7492930B2 (en) | 2009-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2294463T3 (es) | Procedimiento y aparato para capturar informacion asociada con una intervencion quirurgica realizada usando un dispositivo de localizacion. | |
US20210307842A1 (en) | Surgical system having assisted navigation | |
US11638613B2 (en) | Systems and methods for augmented reality based surgical navigation | |
CN111031954B (zh) | 用于医疗程序中的感觉增强系统和方法 | |
ES2294458T3 (es) | Procedimiento y dispositivo de registro de parametros posicionales de un instrumento de un dispositivo de localizacion. | |
CN105193503B (zh) | 增强的手术实践环境系统 | |
EP2542176B1 (en) | Method for enabling medical navigation with minimised invasiveness | |
EP2852348B1 (en) | Soft tissue cutting instrument | |
CN106999247A (zh) | 用于执行导航外科手术过程的跟踪标记支承结构以及采用其的表面配准方法 | |
US20210315478A1 (en) | Smart drill, jig, and method of orthopedic surgery | |
AU2017201866A1 (en) | On-board tool tracking system and methods of computer assisted surgery | |
US20070233156A1 (en) | Surgical instrument | |
US20080306490A1 (en) | Trackable diagnostic scope apparatus and methods of use | |
US20120089012A1 (en) | Method and apparatus for navigating a cutting tool during orthopedic surgery using a localization system | |
US11633254B2 (en) | Patient-matched apparatus for use in augmented reality assisted surgical procedures and methods for using the same | |
EP2556804B1 (en) | System for indicating positioning of an internal anatomical feature | |
JP2018509964A (ja) | 医療機器 | |
EP4169470B1 (en) | Apparatus and method for positioning a patient's body and tracking the patient's position during surgery | |
EP4169473A1 (en) | Apparatus and method for registering live and scan images | |
JP2009172124A (ja) | 手術ナビゲーションシステム、画像表示方法、コンピュータプログラム及び記録媒体 | |
US20230233257A1 (en) | Augmented reality headset systems and methods for surgical planning and guidance |