ES2937169T3 - Dispositivo para la navegación intraoperatoria guiada por imágenes en intervenciones quirúrgicas en el área de la columna vertebral y el área torácica, pélvica o de la cabeza adyacente a la misma - Google Patents
Dispositivo para la navegación intraoperatoria guiada por imágenes en intervenciones quirúrgicas en el área de la columna vertebral y el área torácica, pélvica o de la cabeza adyacente a la misma Download PDFInfo
- Publication number
- ES2937169T3 ES2937169T3 ES16829399T ES16829399T ES2937169T3 ES 2937169 T3 ES2937169 T3 ES 2937169T3 ES 16829399 T ES16829399 T ES 16829399T ES 16829399 T ES16829399 T ES 16829399T ES 2937169 T3 ES2937169 T3 ES 2937169T3
- Authority
- ES
- Spain
- Prior art keywords
- operated
- detection
- image
- data
- detection devices
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000000115 thoracic cavity Anatomy 0.000 title claims description 12
- 238000011477 surgical intervention Methods 0.000 title claims description 7
- 238000001514 detection method Methods 0.000 claims abstract description 254
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000002604 ultrasonography Methods 0.000 claims description 16
- 230000005855 radiation Effects 0.000 claims description 11
- 210000001519 tissue Anatomy 0.000 claims description 10
- 210000003205 muscle Anatomy 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 6
- 238000001454 recorded image Methods 0.000 claims description 6
- 210000003238 esophagus Anatomy 0.000 claims description 4
- 210000004204 blood vessel Anatomy 0.000 claims description 3
- 210000000214 mouth Anatomy 0.000 claims description 3
- 210000003800 pharynx Anatomy 0.000 claims description 3
- 210000000577 adipose tissue Anatomy 0.000 claims description 2
- 210000001035 gastrointestinal tract Anatomy 0.000 claims description 2
- 210000001331 nose Anatomy 0.000 claims description 2
- 210000003437 trachea Anatomy 0.000 claims description 2
- 210000003932 urinary bladder Anatomy 0.000 claims description 2
- 210000003128 head Anatomy 0.000 abstract description 11
- 238000001356 surgical procedure Methods 0.000 abstract description 4
- 210000000038 chest Anatomy 0.000 abstract description 2
- 210000004197 pelvis Anatomy 0.000 abstract description 2
- 238000013519 translation Methods 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 27
- 210000000988 bone and bone Anatomy 0.000 description 22
- 238000003384 imaging method Methods 0.000 description 17
- 230000009466 transformation Effects 0.000 description 10
- 238000002591 computed tomography Methods 0.000 description 7
- 238000009558 endoscopic ultrasound Methods 0.000 description 6
- 210000003041 ligament Anatomy 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 239000007943 implant Substances 0.000 description 4
- 210000004872 soft tissue Anatomy 0.000 description 4
- 238000011065 in-situ storage Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000000523 sample Substances 0.000 description 3
- 210000002784 stomach Anatomy 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 2
- 238000001574 biopsy Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 210000004446 longitudinal ligament Anatomy 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 231100000915 pathological change Toxicity 0.000 description 2
- 230000036285 pathological change Effects 0.000 description 2
- 230000001575 pathological effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 210000002385 vertebral artery Anatomy 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 206010010356 Congenital anomaly Diseases 0.000 description 1
- 241000238585 Thoracica Species 0.000 description 1
- 210000000683 abdominal cavity Anatomy 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 210000003620 bony pelvis Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 210000002808 connective tissue Anatomy 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003412 degenerative effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000968 intestinal effect Effects 0.000 description 1
- 238000007913 intrathecal administration Methods 0.000 description 1
- 210000002429 large intestine Anatomy 0.000 description 1
- 210000004705 lumbosacral region Anatomy 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 210000000103 occipital bone Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000001696 pelvic girdle Anatomy 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 210000001562 sternum Anatomy 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013175 transesophageal echocardiography Methods 0.000 description 1
- 230000000472 traumatic effect Effects 0.000 description 1
- 210000004881 tumor cell Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/0507—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves using microwaves or terahertz waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5247—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0875—Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of bone
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/12—Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5238—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
- A61B8/5246—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
- A61B8/5253—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode combining overlapping images, e.g. spatial compounding
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5238—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
- A61B8/5261—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/16—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
- A61B17/17—Guides or aligning means for drills, mills, pins or wires
- A61B17/1739—Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body
- A61B17/1757—Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body for the spine
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
- A61B2090/3782—Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Rheumatology (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Surgical Instruments (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
La invención se refiere a un dispositivo (1) para la navegación intraoperatoria controlada por imágenes durante procedimientos quirúrgicos en la región de la columna vertebral y/o en las regiones adyacentes del tórax, la pelvis o la cabeza, que comprende múltiples dispositivos de detección (11-17) que no se basan en rayos X, que están diseñados para estar dispuestos de manera que estén distribuidos alrededor de al menos un objeto (2) para ser operado, y para capturar intraoperatoriamente datos de imagen y posición en tiempo real, respectivamente, que comprenden información relacionada con al menos el contorno exterior de al menos una subregión del objeto (2) que se va a operar, y en relación con la posición de la subregión con respecto al respectivo dispositivo de detección (11-17). Además, un dispositivo de determinación de posición (20) para determinar la posición de los respectivos dispositivos de detección (11-17) con respecto a un sistema de referencia estacionario (30), y un dispositivo de procesamiento de datos (40) en conexión operativa con los dispositivos de detección (11-17) y el dispositivo de determinación de posición (20), que están diseñados para crear, sobre la base de la imagen respectiva y los datos de posición de los dispositivos de detección (11-17) y los datos de posición del dispositivo de determinación de posición (20), una imagen virtual en tiempo real, preferiblemente tridimensional (41), referenciada con respecto al sistema de referencia (30), del objeto a operar (2), que se visualiza en un dispositivo de visualización de imágenes (50). Según la invención, al menos uno de los dispositivos de detección (13-17) tiene al menos un medio de detección (13.1-17. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Dispositivo para la navegación intraoperatoria guiada por imágenes en intervenciones quirúrgicas en el área de la columna vertebral y el área torácica, pélvica o de la cabeza adyacente a la misma
La invención se refiere a un dispositivo para la navegación intraoperatoria guiada por imágenes en intervenciones quirúrgicas según la reivindicación 1.
En el estado actual de la técnica se conocen diversos dispositivos y procedimientos para la navegación intraoperatoria guiada por imágenes, que muestran al cirujano la alineación de los instrumentos o implantes utilizados en relación con el paciente durante una operación. El objetivo fundamental de estos dispositivos y procedimientos de navegación consiste en mejorar la orientación espacial del cirujano durante la operación y, por lo tanto, en última instancia, aumentar la seguridad del paciente. Un gran número de sistemas de navegación se basan en la correlación o la referenciación, que se designa como registro, de datos de imagen preoperatorios, por ejemplo, datos de imágenes de tomografía computarizada (CT) y/o tomografía por resonancia magnética nuclear (MRT), con el sistema de coordenadas intraoperatorio del paciente.
En principio, dichos procedimientos de registro son conocidos por el procesamiento de imágenes médicas. En ese caso se utilizan para hacer que dos o más imágenes de la misma escena, o al menos de escenas similares, coincidan lo mejor posible para obtener mejores conocimientos a partir de su combinación. Así, por ejemplo, imágenes de MRT, que muestran bien los tejidos blandos o las estructuras cerebrales, se superponen con imágenes de CT, por ejemplo para poder comprender las relaciones espaciales entre estructuras óseas (imágenes de CT) y elementos neutros (imágenes de MRT). Las imágenes que han de ser registradas generalmente difieren entre sí, por ejemplo porque han sido registradas desde diferentes posiciones, en diferentes momentos o usando diferentes procedimientos (modalidades). Por regla general, una de las imágenes se establece como imagen de referencia para el registro, mientras que las imágenes restantes del objeto se adaptan de forma óptima a la imagen de referencia mediante el cálculo de una transformación de compensación, por ejemplo basada en la minimización del error cuadrático medio.
De forma análoga, para el proceso de registro en la navegación guiada por imágenes se realiza una transformación entre el sistema de coordenadas del paciente y el conjunto de datos de imagen preoperatorios, que se basa en la identificación de características o marcadores que se encuentran tanto en los datos de imagen preoperatorios como en la situación quirúrgica real en el paciente. El resultado del registro es principalmente una transformación afín, que incluye una rotación, traslación y escalamiento de los datos de imagen en el sistema de coordenadas del paciente.
Para la representación del sistema de coordenadas del paciente se utilizan, por un lado, los llamados puntos de referencia anatómicos o artificiales y, por otro lado, procedimientos de formación de imágenes intraoperatorias.
El registro a través de puntos de referencia anatómicos requiere la selección de puntos anatómicos adecuados en el paciente. En la cirugía espinal, los puntos de referencia anatómicos se eligen de tal manera que se encuentren aproximadamente sobre la superficie ósea de la vértebra. Para explorarlos, generalmente se expone la superficie ósea de las vértebras. Las características seleccionadas deben encerrar el área quirúrgica en la mayor medida posible, ya que esto aumenta la precisión del registro. Sin embargo, los procedimientos basados en puntos de referencia anatómicos a menudo requieren una gran cantidad de tiempo. De hecho, en presencia de una anatomía normal es posible localizar los puntos de referencia con relativa precisión. Por el contrario, el reconocimiento de puntos de referencia en pacientes con cambios patológicos de la columna vertebral, como tumores, cambios congénitos, degenerativos o traumáticos, es significativamente más difícil y menos preciso. Esto a menudo resulta en una precisión de navegación insatisfactoria. Además, este procedimiento requiere mucho tiempo.
Otro desarrollo consiste en el uso de puntos de referencia artificiales y procedimientos de formación de imágenes intraoperatorias que también representan los puntos de referencia artificiales. Los sistemas basados en puntos de referencia artificiales generalmente consisten en un sensor de situación, un ordenador, un dispositivo de visualización y diversos localizadores que sirven como puntos de referencia artificiales. Los localizadores son cuerpos de referencia adecuados cuya situación espacial se mide mediante el sensor de situación utilizado. Para la navegación, estos localizadores se fijan al paciente o a implantes, por ejemplo, en forma de tornillos para huesos. En comparación con los puntos de referencia anatómicos, las posiciones de los puntos de referencia artificiales se pueden medir con mucha más precisión en los datos de imagen y en la realidad, es decir, en la situación quirúrgica real del paciente, lo que aumenta la precisión del registro. Sin embargo, los puntos de referencia artificiales también están sujetos a interferencias. Estos son principalmente desplazamientos intraoperatorios de los puntos de referencia, causados por manipulaciones intraoperatorias en el paciente o desplazamientos accidentales durante la operación, lo que a su vez requiere registros múltiples que consumen mucho tiempo. Con el reconocimiento de que es posible que no se note hasta demasiado tarde que los puntos de referencia artificiales se han desplazado durante la operación, la confianza fundamental en la navegación finalmente disminuye.
Por el contrario, cuando se utilizan procedimientos de formación de imágenes intraoperatorias, el tiempo requerido es significativamente menor y el registro del sistema de coordenadas del paciente con los datos de imagen es mucho más reproducible. En particular, el registro basado en rayos X o un registro basado en intensificadores de imagen 2D o 3D, o en CT intraoperatoria está muy bien establecido. Por ejemplo, una imagen bidimensional o tridimensional de
la columna vertebral obtenida antes de la operación basada en CT se fusiona con una imagen de rayos X bidimensional intraoperatoria de la columna vertebral utilizando algoritmos de software, o se crea un conjunto de datos 3D de forma intraoperatoria (CT intraoperatoria o intensificador de imagen 3D), lo que posibilita en particular que el cirujano pueda por ejemplo rastrear la posición de los instrumentos quirúrgicos y la situación de los implantes insertados, como tornillos, de forma intraoperatoria en tiempo real en un conjunto de datos tridimensionales de la columna vertebral. Además, la formación de imágenes intraoperatorias mediante rayos X permiten controlar y, en caso dado, corregir durante la operación la situación de los implantes implantados, lo que conduce a dosis de radiación más elevadas y, por lo general, considerables por medio de la formación reiterada de imágenes mediante rayos X. La evaluación y el ajuste de la alineación de la columna vertebral también es posible con procedimientos de formación de imágenes intraoperatorias. Sin embargo, muchos dispositivos para la formación de imágenes intraoperatorias suelen ser muy rígidos y ocupan mucho espacio, por lo que limitan mucho el área quirúrgica inmediata que rodea al paciente. Además, como ya se ha mencionado, en aquellos procedimientos de formación de imágenes que se basan en la radiación de rayos X, la exposición a la radiación es una desventaja adicional para el paciente y el personal médico.
Como alternativa, en el estado actual de la técnica también se conocen procedimientos de navegación y dispositivos de navegación que se basan en formación de imágenes intraoperatorias por ultrasonidos, en cuyo caso, en lugar de la imagen intraoperatoria basada en rayos X arriba descrita, un conjunto de datos tomados por ultrasonidos de forma intraoperatoria se fusiona con datos de imagen preoperatorios para obtener un conjunto de datos tridimensional, preferiblemente en tiempo real, de la columna vertebral. Un dispositivo de este tipo se conoce, por ejemplo, por la solicitud de patente internacional WO 96/11624. Los conjuntos de datos por ultrasonidos se registran desde el exterior del cuerpo en dirección al interior del cuerpo utilizando el cabezal de ultrasonido para recorrer la parte de la espalda que limita directamente con la zona ósea que ha de ser operada, desde el exterior, es decir, asentado en la piel de la espalda, por ejemplo.
La solicitud de patente WO 2013/001031 describe un procedimiento y un dispositivo para mostrar un objeto, en particular un tejido biológico, presentando el procedimiento las etapas consistentes en: a) generar una primera imagen de al menos un área parcial del objeto utilizando un primer dispositivo; b) generar una segunda imagen de al menos un área parcial del objeto con la ayuda de un segundo dispositivo; c) determinar las primeras coordenadas de al menos algunos píxeles de la segunda imagen en un primer sistema de coordenadas; d) determinar las segundas coordenadas de los píxeles de la segunda imagen reproduciendo las primeras coordenadas en un segundo sistema de coordenadas que es diferente del primer sistema de coordenadas y que está asociado con el primer dispositivo; y e) generar una imagen combinada del objeto a partir de la primera y la segunda imágenes utilizando las segundas coordenadas determinadas de los píxeles de la segunda imagen.
Sin embargo, en la formación de imágenes intraoperatorias clásica basada en rayos X así como en la basada en ultrasonidos, el objeto que ha de ser operado se representa solo en proyección o solo parcialmente en forma de una imagen de contorno de un área parcial. Estas imágenes de proyección o imágenes de área parcial se utilizan posteriormente como referencia para superponerlas con datos de imagen preoperatorios, sobre cuya base se genera después una imagen virtual en tiempo real referenciada a los datos de imagen intraoperatorios. Sin embargo, esta imagen virtual no muestra el objeto que ha de ser operado en tiempo real, sino solo su posición en tiempo real. Sin embargo, las imágenes de proyección o las imágenes de contorno de área parcial, dado que solo reproducen la proyección o solo un área parcial, no son inmanentemente adecuadas para la reproducción visual de todo el objeto que ha de ser operado en tiempo real o de la situación intraoperatoria actual.
Por lo tanto, el objeto de la presente invención consiste en indicar un dispositivo para la navegación intraoperatoria guiada por imágenes en intervenciones quirúrgicas en un objeto que ha de ser operado en la columna vertebral y/o en el área torácica, pélvica o de la cabeza adyacente a la columna vertebral, que permita generar una imagen tridimensional virtual en tiempo real del objeto que ha de ser operado, que se referencia a un sistema de referencia estacionario con fines de navegación. Además, el dispositivo no debe obstaculizar al cirujano durante la operación y no debe ser sensible a ninguna interferencia intraoperatoria, de modo que siempre se garantice una precisión de navegación suficiente.
Este objeto se consigue mediante un dispositivo según la reivindicación 1 para la navegación intraoperatoria guiada por imágenes. Algunas configuraciones ventajosas de la invención son objeto de las reivindicaciones dependientes.
De acuerdo con la invención, el dispositivo presenta varios dispositivos de detección no basados en rayos X, que están configurados en cada caso para ser distribuidos alrededor del objeto que ha de ser operado en el área de la columna vertebral y/o en el área torácica, pélvica o de la cabeza adyacente a la misma, y registrar en tiempo real de forma intraoperatoria datos de imagen y de situación, que incluyen en cada caso información sobre al menos el contorno exterior de al menos un área parcial del objeto que ha de ser operado y sobre la distancia y la orientación espacial del área parcial en relación con el dispositivo de detección respectivo.
En el sentido de la presente invención, por contorno exterior de la zona ósea que ha de ser operada se entiende la superficie tridimensional del objeto que ha de ser operado. La situación del área parcial en relación con el dispositivo de detección respectivo se define en el sentido de la presente invención como la disposición espacial de la superficie tridimensional registrada del objeto que ha de ser operado en relación con el dispositivo de detección respectivo, en donde la disposición/situación incluye, por un lado, la distancia y, por otro lado, la orientación/alineación espacial en
relación con el dispositivo de detección respectivo. El punto de referencia "dispositivo de detección" debe entenderse de tal manera que significa principalmente la parte de registro del dispositivo de detección, es decir, los propios medios de detección, como por ejemplo los sensores. Por lo tanto, de acuerdo con la invención, el dispositivo de detección determina, por un lado, la distancia y, por otro lado, la orientación/alineación del área superficial tridimensional registrada por el mismo del objeto que ha de ser operado con respecto a sí mismo. Por lo tanto, los datos de situación correspondientes incluyen datos tanto sobre la distancia como sobre la alineación de los datos de contorno exterior.
El objeto que ha de ser operado puede incluir, en principio, pero no exclusivamente, hueso, otros tejidos de soporte y/o tejidos blandos (por ejemplo, estructuras patológicas, masas o tumores). En el área de la columna, el objeto que ha de ser operado puede incluir, en particular, partes óseas y/o cartilaginosas de la propia columna vertebral, por ejemplo una o varias vértebras, o una o varias partes de una o varias vértebras (cuerpos vertebrales, apófisis transversa, apófisis espinosa, arco vertebral, inserción de las costillas), el sacro (Os sacrum), el coxis (Os coccygis) y/o uno o más discos intervertebrales. El objeto que ha de ser operado puede estar en el área de la columna cervical (Pars cervicalis), la columna torácica (Pars thoracica) y/o la columna lumbar (Pars lumbalis). Además, el objeto que ha de ser operado puede incluir uno o más ligamentos o partes de los mismos, como el ligamento longitudinal anterior (Ligamentum longitudinale anterius), el ligamento longitudinal posterior (Ligamentum longitudinale posterius), uno o más ligamentos amarillos (Ligamenta flava), uno o más ligamentos intertransversales (Ligamenta intertransversaria), uno o más ligamentos interespinosos (Ligamenta interspinalia) y/o el ligamento supraespinoso (Ligamentum supraspinale). El objeto que ha de ser operado también puede estar situado en el área pélvica adyacente a la columna vertebral, es decir, puede afectar por ejemplo a una parte adyacente de la pelvis ósea, en particular el anillo pélvico. El objeto que ha de ser operado también puede estar situado en el área torácica adyacente a la columna vertebral, en particular afectar a una o más inserciones para costillas en las vértebras, una o más (partes de) costillas o incluso, en el caso de cambios patológicos masivos, el esternón. El objeto que ha de ser operado también puede estar situado en el área de la cabeza adyacente a la columna vertebral. Allí puede incluir en particular el área de la llamada vértebra C0, es decir, el hueso occipital (Os occipitale) o el occipucio. El objeto que ha de ser operado también puede incluir otros tejidos blandos, en particular elementos nerviosos o estructuras patológicas, en el área de la columna vertebral y/o en el área torácica, pélvica o de la cabeza adyacente a la misma.
De acuerdo con la invención, cada uno de los dispositivos de detección está configurado para registrar datos de imagen que incluyen en cada caso información sobre al menos el contorno exterior del objeto que ha de ser operado o de un área parcial del mismo. Dependiendo del tipo o del principio de detección del dispositivo de detección y de la estructura del objeto que ha de ser operado, uno o más de estos dispositivos de detección no basados en rayos X a veces también pueden estar configurados para registrar, además del contorno exterior del objeto que ha de ser operado, información de imagen sobre la estructura interior del objeto que ha de ser operado. Por ejemplo, los dispositivos de detección basados en ultrasonidos o en radiación de terahercios pueden, dependiendo de la estructura, la composición y el tejido/material del objeto que ha de ser operado, proporcionar información sobre la estructura interior del objeto que ha de ser operado más allá del contorno exterior con una profundidad de penetración dependiente del material o incluso atravesando el mismo.
El dispositivo según la invención también incluye un dispositivo de determinación de posición que está configurado para determinar en tiempo real datos sobre la posición respectiva de los dispositivos de detección en relación con un sistema de referencia estacionario, preferiblemente en relación con un sistema de referencia estacionario con respecto al quirófano. También aquí, el punto de referencia "dispositivo de detección" con respecto a la situación relativa al sistema de referencia estacionario debe entenderse de tal manera que significa principalmente la parte de registro del dispositivo de detección, es decir, el propio medio de detección, por ejemplo los sensores. Con el dispositivo de determinación de posición como el último eslabón de la cadena entre el objeto que ha de ser operado y el sistema de referencia estacionario se garantiza en conjunto que los datos de contorno exterior registrados de la superficie tridimensional de cada área parcial del objeto que ha de ser operado se puedan referenciar espacialmente en el sistema de referencia estacionario a través de los datos de situación de los dispositivos de detección en relación con el área parcial registrada en cada caso y además a través de los datos de situación de los dispositivos de detección en relación con el sistema de referencia estacionario. Por lo tanto, en conjunto se dispone de información sobre cómo están orientadas las áreas parciales individuales registradas de la superficie tridimensional del objeto que ha de ser operado con respecto al sistema de referencia estacionario.
Además, de acuerdo con la invención, un dispositivo de procesamiento de datos está conectado funcionalmente en cada caso a la pluralidad de dispositivos de detección y al dispositivo de determinación de posición. El dispositivo de procesamiento de datos está configurado para generar una imagen tridimensional virtual en tiempo real del objeto que ha de ser operado, referenciada al sistema de referencia estacionario, en concreto sobre la base de los datos de imagen y de situación de los dispositivos de detección y sobre la base de los respectivos datos de posición del dispositivo de determinación de posición.
Para representar la imagen virtual en tiempo real, de acuerdo con la invención también está previsto un dispositivo de visualización de imágenes, que está conectado funcionalmente al dispositivo de procesamiento.
Además, de acuerdo con la invención, al menos uno de los varios dispositivos de detección presenta al menos un medio de detección, que está configurado para ser dispuesto en el interior del cuerpo con el fin de registrar datos de imagen que incluyen información sobre al menos el contorno exterior de al menos un área parcial del objeto que ha
de ser operado que está orientada hacia el interior del cuerpo.
En este contexto, "orientado hacia el interior del cuerpo" significa que el contorno exterior correspondiente de la columna vertebral o del área torácica, pélvica o de la cabeza adyacente a la columna vertebral está en posición intracorpórea durante la operación. Por lo tanto, "orientado hacia el interior del cuerpo" puede incluir no solo "medial" o "profundo", es decir, hacia la mitad del cuerpo, en particular un área parcial "ventral", sino también orientado lateralmente, lateralmente en diagonal hacia atrás, lateralmente en diagonal hacia adelante, hacia atrás en diagonal hacia arriba, hacia atrás en diagonal hacia abajo, hacia adelante en diagonal hacia arriba, hacia adelante en diagonal hacia abajo, lateralmente en diagonal hacia arriba o lateralmente en diagonal hacia abajo. En aras de la definición, esta indicación de lugar y dirección se refiere a un paciente erguido. El área parcial correspondiente puede estar expuesta, parcialmente expuesta o completamente rodeada de tejido durante la operación.
De acuerdo con la invención se reconoció que mediante el uso de varios dispositivos de detección, que están distribuidos alrededor del sitio quirúrgico y de los cuales al menos uno está dispuesto en particular dentro del cuerpo, en lugar de solo una sección parcial limitada o una proyección, se puede generar una imagen significativamente más completa del objeto que ha de ser operado desde diferentes perspectivas, que incluye en particular información sobre al menos el contorno exterior de al menos un área parcial del objeto que ha de ser operado orientada hacia el interior del cuerpo. Idealmente, incluso se puede generar una imagen completa tridimensional virtual en tiempo real o una reconstrucción 3D completa en tiempo real del contorno exterior del objeto que ha de ser operado, lo que mejora significativamente, de forma esencial para la invención, la precisión de la navegación y la sensación de seguridad para el cirujano y, en última instancia, la seguridad del paciente.
En particular, la imagen virtual en tiempo real generada con el dispositivo según la invención se basa en datos de imagen reales en tiempo real, que no solo permiten rastrear la posición en tiempo real del área quirúrgica en relación con el sistema de referencia estacionario, sino también reproducir en imagen en tiempo real, prácticamente in situ, el contorno exterior real del objeto que ha de ser operado. De manera ventajosa, por lo tanto, a diferencia de los procedimientos y dispositivos en los que la imagen virtual del sitio quirúrgico, aparte de los datos de posición, se basa exclusivamente en datos preoperatorios o datos tomados durante la primera parte de la operación, es decir, durante la fase de acceso, con el dispositivo según la invención se pueden registrar en imagen en tiempo real cambios intraoperatorios en el contorno exterior del objeto que ha de ser operado y en el entorno del sitio quirúrgico. Por ejemplo, se registran in situ extracciones de hueso o de otros tejidos realizadas de forma intraoperatoria en el área quirúrgica, tornillos insertados, herramientas quirúrgicas utilizadas, correcciones de posición/cambios en la alineación o similares, lo que también aumenta la precisión de navegación y la sensación de seguridad para el cirujano de forma esencial para la invención.
Por supuesto, no solo un dispositivo de detección, sino al menos dos, al menos tres, al menos cuatro, al menos cinco, al menos seis, al menos siete, al menos ocho, al menos nueve, al menos diez, al menos once, al menos doce o más; en particular dos, tres, cuatro, cinco, seis, siete, ocho, nueve, diez, once, doce de los diversos dispositivos de detección pueden estar configurados para ser dispuestos o para que estén dispuestos de forma intraoperatoria dentro del cuerpo.
La cantidad y la disposición de la totalidad de dispositivos de detección pueden depender del tamaño y la situación del objeto que ha de ser operado. Es concebible, por ejemplo, que solo una pequeña parte/sección de la columna vertebral se vea afectada por la operación. Para ello puede ser suficiente ya una pequeña cantidad de dispositivos de detección, dispuestos en un área estrechamente definida alrededor del sitio quirúrgico. En otro caso, la operación puede afectar a un área significativamente mayor, que puede extenderse en particular por toda la longitud de la columna vertebral, por lo que se requiere una mayor cantidad de dispositivos de detección distribuidos por toda la longitud del área quirúrgica a lo largo de la columna vertebral.
El tipo de dispositivo de detección también puede ser diferente en los diversos dispositivos de detección en función de la posición, en particular en función de la disposición dentro o fuera del cuerpo. Es concebible, por ejemplo, que un dispositivo de detección dispuesto en el interior del cuerpo sea un dispositivo de detección basado en ultrasonidos, mientras que un dispositivo de detección del mismo dispositivo dispuesto fuera del cuerpo es un escáner óptico de contornos. Mediante el uso de varios dispositivos de detección de diferentes tipos se puede obtener de manera ventajosa más información y más detallada sobre el objeto que ha de ser operado.
También es concebible que las áreas parciales registradas del objeto que ha de ser operado, que están asignadas en cada caso a diferentes dispositivos de detección, se superpongan parcialmente, es decir, que los campos de detección de diferentes dispositivos de detección se superpongan parcialmente.
La imagen virtual en tiempo real se puede generar de tal manera que los conjuntos de datos de imagen individuales registrados por los dispositivos de detección, que reflejan en cada caso al menos el contorno exterior de un área parcial del objeto que ha de ser operado, sean combinados por el dispositivo de procesamiento de datos para formar una imagen global de al menos el contorno exterior del objeto que ha de ser operado. Para ello, por un lado, los datos determinados por el dispositivo de detección sobre la situación, es decir, la orientación y la distancia, del área parcial correspondiente en relación con el dispositivo de detección respectivo y, por otro lado, los datos de posición del dispositivo de detección respectivo registrados por el dispositivo de determinación de posición en relación con el sistema de referencia estacionario, se utilizan para componer, con ayuda de esta información de los conjuntos de
datos de imagen de las áreas parciales individuales, la imagen global del objeto que ha de ser operado. Para ello, en el dispositivo de detección se puede utilizar un software especial de registro de imágenes, generación de imágenes y/o procesamiento de imágenes, que reconstruye una imagen virtual de al menos el contorno exterior del objeto que ha de ser operado a partir de los conjuntos de datos de imagen de los datos de situación o posición asociados. Para la composición espacialmente exacta de los conjuntos de datos de imágenes individuales para formar una imagen global, el dispositivo de procesamiento de datos puede estar configurado en particular para identificar áreas de imagen especiales que presentan características anatómicamente distintivas del objeto que ha de ser operado, por ejemplo, apófisis espinosas, apófisis transversas, apófisis articulares, costillas, inserciones de costillas u otras características distintivas en el área de la columna vertebral, la pelvis, el tórax o el occipucio. Los vasos también se pueden utilizar como características anatómicamente distintivas que se encuentran en el área del objeto que ha de ser operado, por ejemplo, la arteria vertebral, que atraviesa el foramen transverso. Preferiblemente, el dispositivo de procesamiento de datos puede estar configurado para buscar los mismos objetos anatómicamente distintivos en los conjuntos de datos de imagen procedentes de diferentes dispositivos de detección y, en función de la posición y orientación de estos objetos anatómicamente distintivos, asignar espacialmente los conjuntos de datos de imagen de los diferentes dispositivos de detección entre sí o disponerlos espacialmente entre sí.
Para generar la imagen virtual en tiempo real se pueden utilizar en particular procedimientos de registro de imágenes fundamentalmente conocidos. Por ejemplo, el procedimiento de registro puede incluir las siguientes etapas: En una primera etapa tiene lugar la denominada extracción de características: a partir de los conjuntos de datos de imagen que han de ser registrados se detectan manual o automáticamente características anatómicamente distintivas del objeto que ha de ser operado, como por ejemplo apófisis transversas o espinosas o similares. En una segunda etapa, el denominado ajuste de características, se establece la correspondencia de los puntos característicos extraídos. Para ello, el dispositivo de detección puede usar una función, por ejemplo, que especifica una medida cualitativa para coincidencias en los registros de datos de imagen en tiempo real de los diferentes dispositivos de detección, que luego se minimizará o maximizará en un proceso de optimización. En una tercera etapa tiene lugar el cálculo de la transformación, en el que se selecciona un tipo de transformación adecuado, por ejemplo un tipo de transformación afín, un tipo de transformación proyectiva o similares, y se calculan los parámetros de transformación. Finalmente, en una cuarta etapa tiene lugar la transformación real. Para ello, los conjuntos de datos de imagen se transforman con la transformación calculada en la etapa anterior, pudiendo utilizarse en ocasiones también técnicas de interpolación.
Según una primera configuración ventajosa de la invención, además de los datos de imagen en tiempo real, en la generación de la imagen virtual en tiempo real también se pueden integrar datos de imagen del objeto que ha de ser operado obtenidos antes de la operación o durante la fase de acceso. Por lo tanto, puede estar previsto en particular que el dispositivo de procesamiento de datos esté configurado para superponer datos de imagen del objeto que ha de ser operado, obtenidos antes de la operación o durante la fase de acceso, con los datos de imagen de los dispositivos de detección para, sobre la base de los datos de imagen obtenidos antes de la operación o durante la fase de acceso superpuestos con los datos de imagen de los dispositivos de detección, generar la imagen virtual en tiempo real, referenciada al sistema de referencia estacionario, del objeto que ha de ser operado. También en este caso se pueden utilizar procedimientos de registro de imágenes fundamentalmente conocidos. La integración adicional de los datos de imagen obtenidos antes de la operación permite obtener de manera ventajosa más información y más detallada sobre el objeto que ha de ser operado.
Sin embargo, en principio también es concebible que la imagen virtual en tiempo real con respecto a la representación gráfica del objeto que ha de ser operado se genere solo sobre la base de los datos de imagen obtenidos antes de la operación superpuestos con los datos de contorno exterior, mientras que los datos de imagen, los datos de situación y los datos de posición obtenidos de forma intraoperatoria solo se utilizan para la referenciación real de esta imagen virtual en tiempo real al sistema de referencia estacionario. En este sentido, según una idea independiente de la divulgación se propone otro dispositivo para la navegación intraoperatoria guiada por imágenes en intervenciones quirúrgicas en el área de la columna vertebral y/o el área torácica, pélvica o de la cabeza adyacente a la misma, que comprende al menos un dispositivo de detección preferiblemente no basado en rayos X, que está configurado para registrar de forma intraoperatoria datos de imagen y de situación en tiempo real, que incluyen información sobre al menos el contorno exterior de al menos un área parcial del objeto que ha de ser operado y sobre la situación del área parcial relativa al dispositivo de detección. El dispositivo también incluye un dispositivo de determinación de posición que está configurado para determinar en tiempo real datos sobre la posición del al menos un dispositivo de detección en relación con un sistema de referencia estacionario. Además, el dispositivo comprende un dispositivo de procesamiento de datos que está conectado funcionalmente con el al menos un dispositivo de detección y con el dispositivo de determinación de posición, y que está configurado para superponer datos de imagen del objeto que ha de ser operado, obtenidos antes de la operación o durante la fase de acceso, con los datos de imagen del al menos un dispositivo de detección para, sobre la base de los datos de imagen obtenidos antes de la operación o durante la fase de acceso superpuestos con los datos de imagen del dispositivo de detección, generar la imagen virtual en tiempo real del objeto que ha de ser operado referenciada al sistema de referencia estacionario. También en este caso se pueden utilizar a su vez procedimientos de registro de imágenes fundamentalmente conocidos. También está previsto un dispositivo de visualización de imágenes que está conectado funcionalmente al dispositivo de procesamiento de datos para visualizar la imagen virtual en tiempo real. También en este dispositivo, el al menos un dispositivo de detección presenta al menos un dispositivo de detección, que está configurado para ser dispuesto dentro del cuerpo para registrar datos de imagen que incluyen información sobre al menos el contorno exterior de al menos un área
parcial del objeto que ha de ser operado orientada hacia el interior del cuerpo. A este respecto, el al menos un dispositivo de detección sirve principalmente para rastrear la posición en tiempo real del área quirúrgica con respecto al sistema de referencia estacionario al registrar al menos un área parcial del objeto que ha de ser operado orientada hacia el interior del cuerpo y usarla como área de referencia para la superposición con los datos de imagen obtenidos antes de la operación o durante la fase de acceso.
Por lo tanto, el dispositivo según la reivindicación 1 se basa en el concepto inventivo de que (el) al menos un dispositivo de detección o un medio de detección está configurado para ser dispuesto dentro del cuerpo con el fin de registrar datos de imagen que incluyen información sobre al menos el contorno exterior de al menos un área parcial del objeto que ha de ser operado orientada hacia el interior del cuerpo. De acuerdo con la invención se reconoció que la disposición del dispositivo de detección o del medio de detección en el interior del cuerpo hace que toda la navegación sea insensible a interferencias intraoperatorias, de modo que siempre está garantizada una precisión de navegación suficiente. Debido a la disposición en el interior del cuerpo, existe en particular un riesgo, aunque sea muy pequeño, de que el cirujano perturbe el campo de detección del dispositivo de detección. A la inversa, el al menos un dispositivo de detección que se puede disponer en el interior del cuerpo ventajosamente tampoco perjudica la accesibilidad del cirujano al área quirúrgica. Además, los medios de detección en el interior del cuerpo permiten el uso de modalidades de formación de imágenes distintas de, por ejemplo, los rayos X, como por ejemplo ultrasonidos. Los ultrasonidos tienen grandes ventajas, sobre todo en el área de la columna cervical. Por ejemplo, con dispositivos adaptados adecuadamente, como por ejemplo aparatos para la ecocardiografía transesofágica, la columna cervical se puede representar desde delante, con lo que se pueden identificar estructuras importantes (por ejemplo, la arteria vertebral o raíces nerviosas). Al mismo tiempo, los movimientos de las vértebras, que son provocados por manipulaciones quirúrgicas u otras maniobras debido a la gran movilidad de la columna cervical, se pueden compensar de forma continua. Además, los medios de detección en el interior del cuerpo permiten visualizar otros aspectos del objeto que ha de ser operado, que no son ya visibles por la vía de acceso al objeto que ha de ser operado. Esto también conduce a un aumento en la precisión.
También es importante que el dispositivo de detección que se puede disponer en el interior del cuerpo no tenga que ser fijado gracias a la determinación activa de la posición con ayuda del dispositivo de determinación de posición. Por el contrario, puede moverse libremente, por lo que la navegación es insensible a interferencias intraoperatorias, como la manipulación del paciente por parte del cirujano, cambios de posición, movimientos respiratorios o intestinales, etc. El dispositivo de determinación de posición, por un lado, registra según la invención de forma continua la situación respectiva de los dispositivos de detección en relación con el sistema de referencia estacionario. Por otro lado, los propios dispositivos de detección controlan constantemente su situación en tiempo real en relación con el área parcial del sitio quirúrgico registrado por los mismos. Esto permite referenciar los datos de contorno exterior registrados, y en consecuencia la imagen virtual en tiempo real, al sistema de referencia estacionario en tiempo real.
De acuerdo con la invención, los al menos dos dispositivos de detección que pueden disponerse en el interior del cuerpo son cada uno un dispositivo de detección basado en ultrasonidos o un dispositivo de detección basado en radiación de terahercios. Los dispositivos de detección basados en ultrasonidos son especialmente adecuados para la formación de imágenes en tiempo real.
Además, los dispositivos de detección basados en ultrasonidos permiten registrar el contorno exterior del objeto que ha de ser operado a través de tejidos blandos, es decir, por ejemplo a través de tejido adiposo, tejido muscular y/o tejido conjuntivo. Por lo tanto, son particularmente adecuados para el registro de imágenes de aquellas áreas parciales del objeto que ha de ser operado que no se exponen de forma intraoperatoria. Además, los dispositivos de detección basados en ultrasonido a veces están configurados para posibilitar una medición de la distancia y la situación entre el dispositivo de detección y el objeto registrado, así como una medición espacial del objeto que ha de ser operado, de modo que la situación del área parcial registrada relativa al dispositivo de detección se puede registrar con mucha precisión en tiempo real. Los dispositivos de detección basados en ultrasonidos también permiten mediciones ecográficas Doppler de flujos de líquidos. Por ejemplo, se pueden identificar vasos sanguíneos importantes como zonas de peligro o puntos de referencia anatómicos. También se pueden detectar flujos de líquidos en el espacio intratecal, que si bien son mínimos en la mayoría de los casos, sin embargo son de la mayor relevancia con respecto a la cirugía.
También es concebible que el al menos un dispositivo de detección que puede disponerse en el interior del cuerpo sea un dispositivo de detección basado en radiación de terahercios. El alto índice de refracción del tejido orgánico en el espectro de terahercios permite imágenes de muy alto contraste y puede complementar las técnicas de imagen convencionales. La radiación no es ionizante y su uso es seguro para aplicaciones médicas y biológicas. Dependiendo del material/tejido, la radiación de terahercios puede incluso proporcionar información sobre la estructura interior del objeto que ha de ser operado. La información sobre la estructura interior puede, por ejemplo, ayudar a distinguir entre células sanas y células tumorales.
En particular, de acuerdo con otra configuración de la invención, puede estar previsto que el al menos un dispositivo de detección que puede disponerse en el interior del cuerpo esté configurado para ser introducido en el cuerpo a través de una cavidad corporal preformada, en particular la nariz, la boca, la faringe, el esófago, la tráquea, el tracto gastrointestinal, la vejiga urinaria, o a través de un vaso sanguíneo. Los dispositivos de detección endoscópicos para ecografía endoscópica, por ejemplo, para ecografía endoscópica gastroenterológica, son especialmente adecuados
para dichas aplicaciones. La situación/posición de estos últimos dispositivos de detección para ecografía endoscópica gastroenterológica puede tener lugar directamente a través del endoscopio o, por ejemplo, mediante ondas electromagnéticas (radio) hacia el exterior. Para la determinación de posición entran en consideración en particular sensores de situación, que a veces pueden medir la aceleración que se produce en el endoscopio para deducir a partir de ello la situación y la posición de los medios de detección.
Además, puede estar previsto que el al menos un dispositivo de detección que puede disponerse en el interior del cuerpo esté configurado para ser introducido quirúrgicamente en un tejido, por ejemplo en tejido muscular paravertebral o tejido muscular del músculo glúteo, y/o en un tejido adiposo, por ejemplo, el espacio epidural. Además de las sondas de ecografía endoscópica convencionales arriba descritas, los llamados sistemas de minisonda ecográfica son particularmente adecuados para dichas aplicaciones, que por ejemplo pueden deslizarse a través de un canal de biopsia y tienen una sonda significativamente más delgada que en la ecografía endoscópica convencional.
De manera análoga al como mínimo un dispositivo de detección que puede disponerse dentro del cuerpo, al menos uno de los diversos dispositivos de detección puede estar configurado para ser dispuesto fuera del cuerpo con el fin de registrar datos de imagen que incluyen información sobre al menos el contorno exterior de un área parcial del objeto que ha de ser operado orientada hacia el exterior del cuerpo.
Del mismo modo, también puede estar previsto que el al menos un dispositivo de detección que puede disponerse fuera del cuerpo sea un dispositivo de detección basado en ultrasonidos o un dispositivo de detección basado en radiación de terahercios. No obstante, también es concebible que el al menos un dispositivo de detección que puede disponerse fuera del cuerpo esté configurado como un escáner óptico de contornos.
Como dispositivos de determinación de posición entran en consideración, por ejemplo, dispositivos de determinación de posición electromagnéticos, en particular ópticos, en los que, en los dispositivos de detección, está dispuesto en cada caso un marcador de posición pasivo o un transmisor de posición activo que, a través de un dispositivo de detección de marcador de posición dispuesto a distancia o dispositivo receptor dispuesto a distancia, controla las señales emitidas por el transmisor de posición. Dichos dispositivos de determinación de posición son conocidos en principio en el estado actual de la técnica, por ejemplo, el dispositivo de determinación de la posición de Medtronic comercializado para la cirugía espinal bajo la marca "StealthStation".
Para proporcionar también al cirujano de forma intraoperatoria, como se ha explicado anteriormente, información en tiempo real sobre cualquier herramienta quirúrgica y su posición y orientación con respecto al sitio quirúrgico, de acuerdo con otra configuración de la invención puede estar previsto, por un lado, que el dispositivo incluya al menos una herramienta quirúrgica y, por otro lado, que el dispositivo de determinación de posición también esté configurado para determinar la situación de la al menos una herramienta quirúrgica con respecto al sistema de referencia estacionario y que la unidad de procesamiento también esté configurada para mostrar un indicador en la imagen virtual en tiempo real que represente la al menos una herramienta quirúrgica y su situación con respecto al sistema de referencia estacionario.
Además, en otra configuración ventajosa de la invención puede estar previsto que al menos uno de los dispositivos de detección pueda disponerse o esté dispuesto en una herramienta quirúrgica. Para ello, el dispositivo según la invención también puede comprender una herramienta quirúrgica que esté configurada para alojar al menos un dispositivo de detección o en la que esté dispuesto al menos un dispositivo de detección.
Para proteger la funcionalidad del dispositivo contra cualquier interferencia externa y, por lo tanto, mantener constantemente la sensación de seguridad para el cirujano, de acuerdo con otra configuración ventajosa de la invención puede estar previsto que el dispositivo de procesamiento de datos esté configurado para, en caso de un fallo temporal de la determinación de los datos de imagen, los datos de situación y/o los datos de posición de al menos uno de los dispositivos de detección, generar el área parcial del objeto que ha de ser operado detectada por este dispositivo de detección en la imagen virtual en tiempo real sobre la base de los datos de imagen registrados en un momento anterior por este dispositivo de detección con determinación de datos de situación y de posición en funcionamiento, en donde los datos de imagen del área parcial correspondiente registrados en un momento anterior se adaptan en tiempo real a la situación actual de las áreas parciales registradas por los dispositivos de detección restantes.
En caso de que solo falle temporalmente la determinación de datos de situación y/o datos de posición para uno o más de los dispositivos de detección, pero no el registro de imágenes del o de los dispositivos de detección afectados, de acuerdo con otra configuración de la invención puede estar previsto generar el área parcial del objeto que ha de ser operado registrada por este dispositivo de detección en la imagen virtual en tiempo real sobre la base de los datos de imagen actualmente registrados, pero los datos de imagen actualmente registrados del área parcial correspondiente con respecto a la situación en relación con el sistema de referencia estacionario se adaptan en tiempo real a la situación actual de las áreas parciales registradas por los dispositivos de detección restantes.
Además puede estar previsto que los dispositivos de detección estén configurados para comunicarse entre sí, en particular para intercambiar información sobre su respectiva posición y/o situación, preferiblemente con respecto al sistema de referencia estacionario. Además, puede estar previsto que al menos uno de los diversos dispositivos de detección, en particular al menos un medio de detección de al menos uno de los dispositivos de detección, esté
configurado para determinar la posición y/o situación de al menos otro dispositivo de detección o la posición y/o situación de los respectivos medios de detección del al menos otro dispositivo de detección con respecto a sí mismo y, por lo tanto, a través del dispositivo de determinación de posición con respecto al sistema de referencia estacionario. De este modo, la precisión de la navegación puede mejorarse además significativamente. Por ejemplo, es concebible que uno de los múltiples dispositivos de detección sea un dispositivo de detección por ultrasonidos que no solo esté configurado para registrar datos de imagen y de situación sobre al menos un área parcial del objeto que ha de ser operado, sino también al menos datos de situación y posición, preferiblemente también datos de imagen para registrar al menos otro dispositivo de detección con respecto a sí mismo.
Para obtener información adicional sobre el contorno exterior y, en particular, sobre la estructura interior del objeto que ha de ser operado, de acuerdo con otra configuración de la invención puede estar previsto que el dispositivo presente también al menos un dispositivo de detección basado en rayos X, que esté configurado para registrar de forma intraoperatoria datos de imagen en tiempo real que incluyen información sobre el contorno exterior y la estructura interior de al menos un área parcial del objeto que ha de ser operado, en donde el dispositivo de procesamiento de datos está conectado funcionalmente al dispositivo de detección basado en rayos X y está configurado para superponer los datos de imagen del dispositivo de detección basado en rayos X con los datos de imagen de los dispositivos de detección no basados en rayos X para, sobre la base de los datos de imagen superpuestos, generar la imagen virtual en tiempo real del objeto que ha de ser operado, referenciada al sistema de referencia estacionario, que contiene información sobre el contorno exterior y la estructura interior del objeto que ha de ser operado. También es concebible que los datos de imagen obtenidos adicionalmente antes de la operación o durante la fase de acceso, como se ha descrito más arriba, se superpongan con los datos intraoperatorios arriba mencionados del dispositivo de detección basado en rayos X y dispositivos de detección no basados en rayos X. De acuerdo con otra configuración de la invención, también puede estar previsto que el dispositivo tenga además al menos un dispositivo de detección basado en rayos X, configurado para registrar datos de imagen y de situación en tiempo real de forma intraoperatoria, que contienen información sobre el contorno exterior y la estructura interior de al menos un área parcial del objeto que ha de ser operado y sobre la situación del área parcial con respecto al dispositivo de detección basado en rayos X, en donde el dispositivo de determinación de posición también está configurado para determinar en tiempo real datos sobre la posición del dispositivo de detección basado en rayos X en relación con el sistema de referencia estacionario, y en donde el dispositivo de procesamiento de datos está conectado funcionalmente al dispositivo de detección basado en rayos X y está configurado para, sobre la base de los datos de imagen y de situación respectivos de los dispositivos de detección no basados en rayos X, los datos de imagen y de situación del dispositivo de detección basado en rayos X y los datos de posición respectivos del dispositivo de determinación de posición, generar una imagen virtual tridimensional en tiempo real del objeto que ha de ser operado, referenciada al sistema de referencia estacionario, que incluye información sobre el contorno exterior y la estructura interior del objeto que ha de ser operado.
Preferiblemente, el dispositivo de detección basado en rayos X emite la menor radiación posible o tiene una dosis baja para mantener la exposición a la radiación para el paciente y el personal quirúrgico lo más baja posible.
El dispositivo de visualización de imágenes previsto de acuerdo con la divulgación para visualizar la imagen virtual en tiempo real puede estar configurado, por ejemplo, como un monitor estacionario en el quirófano. Sin embargo, también es concebible que el dispositivo de visualización de imágenes esté configurado como un monitor portátil que se puede colocar en particular en la muñeca del cirujano o en la cabeza frente a los ojos del cirujano o en un instrumento/herramienta.
A continuación se explican otros detalles de la invención y en particular una forma de realización ejemplar del dispositivo propuesto, con referencia a los dibujos adjuntos.
En los dibujos se muestran:
Figura 1 una vista esquemática de un ejemplo de realización posible del dispositivo según la invención;
Figura 2 una vista detallada del dispositivo según la invención según la Figura 1; y
Figura 3 una vista esquemática de otra disposición posible del dispositivo según la invención.
Las Figuras 1 y 2 muestran un ejemplo de realización posible del dispositivo según la invención para la navegación intraoperatoria guiada por imágenes en intervenciones quirúrgicas en el área de la columna vertebral 3 y/o en el área torácica, pélvica 5 o de la cabeza 4 adyacente a la misma.
El dispositivo 1 comprende varios dispositivos 11-17 de detección no basados en rayos X, que están configurados en cada caso para distribuirlos alrededor de un objeto 2 que ha de ser operado en la columna vertebral 3 de un paciente. Cada uno de estos dispositivos 11-17 de detección también está configurado para registrar de forma intraoperatoria en tiempo real al menos el contorno exterior de al menos un área parcial del objeto 2 que ha de ser operado y la situación de esta área parcial en relación con el dispositivo 11-17 de detección respectivo.
Como se puede ver en las Figuras 1 y 2, los dispositivos 11 y 12 de detección o los medios 11.1 y 12.1 de detección asociados a ellos están dispuestos fuera del cuerpo, mientras que los dispositivos 13-17 de detección o los medios 13.1-17.1 de detección asociados a ellos están dispuestos dentro del cuerpo. En el presente ejemplo de realización,
los dispositivos 13 y 14 de detección o los medios 13.1 y 14.1 de detección asignados a ellos están introducidos quirúrgicamente en el tejido muscular paravertebral alrededor de la zona ósea 2 expuesta que ha de ser operada. Asimismo, el medio 16.1 de detección del dispositivo 16 de detección está introducido quirúrgicamente a través de la cavidad abdominal en la parte anterior de la zona ósea 2 de la columna vertebral 3 que ha de ser operada.
Por el contrario, el medio 15.1 de detección del dispositivo 15 de detección está configurado como un endoscopio y está introducido en el estómago a través de la boca, la faringe y el esófago, para registrar desde ahí el contorno exterior de un área parcial de la zona ósea 2 que ha de ser operada desde direcciones del estómago o el esófago. Del modo similar, el medio 17.1 de detección del dispositivo 17 de detección está diseñado como un endoscopio y está insertado por vía rectal en el intestino grueso, para registrar desde ahí allí el contorno exterior de otra área parcial de la zona ósea 2 que ha de ser operada desde el interior del cuerpo.
En el presente ejemplo de realización, todos los dispositivos 13 a 17 de detección introducidos en el cuerpo o los medios 13.1 a 17.1 de detección asignados a ellos están configurados preferiblemente como dispositivos de detección o medios de detección basados en ultrasonidos. En el presente ejemplo de realización, los dos medios 13.1 y 14.1 de detección están configurados como los llamados sistemas de minisonda, que se pueden insertar en el tejido muscular paravertebral a través de un canal para biopsia respectivo. Por el contrario, los medios 15.1 y 17.1 de detección están configurados como sondas de ultrasonidos endoscópicas.
En el presente ejemplo de realización, los dos dispositivos 11 y 12 de detección dispuestos fuera del cuerpo y los medios 11.1 y 12.1 de detección asignados a ellos están configurados como escáneres ópticos de contornos, cada uno de los cuales explora ópticamente mediante luz láser un área parcial del contorno exterior de la zona ósea 2 que ha de ser operada.
Las líneas discontinuas de las Figuras 1 y 2, que parten de los medios 11.1-17.1 de detección respectivos, representan en cada caso el campo de detección correspondiente del dispositivo 11-17 de detección respectivo. Como se puede ver, los campos de detección de diferentes dispositivos 11-17 de detección pueden superponerse. En el presente ejemplo de realización, los campos de detección se superponen en particular de tal manera que se posibilita una visualización casi completa alrededor de la zona ósea 2 que ha de ser operada.
Además, todos los dispositivos 11-17 de detección están configurados para registrar la situación de la respectiva área parcial detectada con respecto a sí mismos. Los dispositivos de detección basados en ultrasonidos y los escáneres ópticos de contornos son especialmente adecuados para ello. Este es un requisito previo básico para relacionar los datos de contorno exterior registrados con un sistema de referencia estacionario.
Para determinar las respectivas situaciones/posiciones de los dispositivos 11-17 de detección en relación con un sistema 30 de referencia estacionario, por ejemplo un sistema 30 de referencia estacionario en relación con el quirófano, el dispositivo 1 según la invención también tiene un dispositivo 20 de determinación de posición. La situación/posición de los dispositivos 11-17 de detección significa principalmente la situación/posición de los respectivos medios 11.1-17.1 de detección en relación con el sistema 30 de referencia estacionario.
En el presente ejemplo de realización, el dispositivo 20 de determinación de posición está configurado como un sistema de detección de posición electromagnético. Este sistema comprende en cada uno de los dispositivos de detección un marcador 11.2, 12.2 de posición pasivo o un transmisor 13.2-17.2 de posición, que es controlado a través de un dispositivo combinado de detección de marcador de posición y un dispositivo 21 transmisor/receptor de posición dispuestos a distancia. Este dispositivo combinado está configurado, por un lado, para detectar y seguir en tiempo real la posición espacial de los marcadores 11.2 y 12.2 de posición y, por lo tanto, la posición espacial de los dispositivos 11 y 12 de detección y, por otro lado, para recibir las señales de posición transmitidas por los transmisores 13.2-17.2 de posición y a partir de esto determinar una posición espacial de los dispositivos 13-17 de detección asociados.
Para la detección, las marcas 11.2 y 12.2 de posición normalmente deben estar dispuestas fuera del cuerpo.
Por el contrario, los transmisores 13.2-17.2 de posición pueden estar dispuestos tanto dentro como fuera del cuerpo. En el presente ejemplo de realización, el transmisor 16.2 de posición en particular está configurado para ser dispuesto dentro del cuerpo y desde allí transmitir al exterior señales de posición, la información sobre la situación del medio 16.1 de detección, para que puedan ser recibidas allí por el dispositivo 21 transmisor/receptor de posición. En el presente ejemplo de realización, todos los transmisores 13.2-17.2 de posición están alineados para transmitir de forma inalámbrica las respectivas señales de posición al dispositivo 21 transmisor/receptor de posición. Sin embargo, también es concebible que las señales de posición se transmitan por cable desde uno o varios de los transmisores de posición.
Los datos de situación de los dispositivos 13-17 de detección o los medios 13.1-17.1 de detección determinados por el dispositivo 20 de determinación de posición con respecto al sistema 30 de referencia estacionario así como los datos de situación determinados por los medios 13.1-17.1 de detección o los dispositivos 13 a 17 de detección relativos al área parcial registrada en términos de contorno exterior de la zona ósea 2 que ha de ser operada se ponen a disposición de un dispositivo 40 de procesamiento de datos.
Además, los dispositivos 13-17 de detección transmiten en cada caso, al dispositivo 40 de procesamiento de datos, datos de imagen que representan los contornos exteriores o datos de contorno exterior correspondientes registrados
por los mismos en tiempo real del área parcial respectiva de la zona ósea 2 que ha de ser operada. Para el propósito de esta transferencia de datos, los dispositivos 13-17 de detección y el dispositivo 20 de determinación de posición están conectados funcionalmente al dispositivo 40 de procesamiento. Esta transferencia de datos puede tener lugar, por ejemplo, a través de una conexión de datos por cable o a través de una conexión de datos inalámbrica.
El dispositivo 40 de procesamiento de datos está configurado además para generar una imagen virtual 41 tridimensional en tiempo real de la zona ósea que ha de ser operada sobre la base de los datos de imagen y de situación transmitidos, referenciada al sistema 30 de referencia estacionario, que está compuesta por los conjuntos de datos de imagen individuales de las respectivas áreas parciales. De acuerdo con la invención, esta imagen virtual en tiempo real se basa completamente en datos de imagen reales en tiempo real, que no solo permiten rastrear la posición en tiempo real del área quirúrgica con respecto al sistema 30 de referencia estacionario, sino también reproducir visualmente prácticamente in situ en tiempo real al menos el contorno exterior real de la zona ósea 2 que ha de ser operada. Gracias a los diversos dispositivos 13-17 de detección dispuestos dentro del cuerpo, de acuerdo con la invención se puede generar una imagen mucho más completa de la zona ósea que ha de ser operada en comparación con el estado actual de la técnica. Gracias a los dispositivos 15-17 de detección que registran en la dirección del lado posterior, pueden contener información sobre el contorno exterior de al menos un área parcial de la zona ósea que ha de ser operada orientada hacia el interior del cuerpo. Idealmente se puede generar incluso una imagen panorámica virtual en tiempo real del contorno exterior de la zona ósea que ha de ser operada, lo que mejora considerablemente la precisión de la navegación y la sensación de seguridad para el cirujano.
La imagen virtual 41 en tiempo real generada por el dispositivo 40 de procesamiento se puede representar en un dispositivo 50 de visualización de imágenes conectado funcionalmente al mismo. En el presente ejemplo de realización, este dispositivo 50 de visualización de imágenes está configurado ventajosamente como un monitor portátil o pantalla portátil que se puede fijar a la muñeca del cirujano o en forma de gafas de monitor frente a los ojos del cirujano o en una herramienta/instrumento quirúrgico.
En el presente ejemplo de realización, el dispositivo 1 también incluye al menos una herramienta quirúrgica 60 que, de manera similar a los dispositivos 13-17 de detección, está equipada con un transmisor de posición o un marcador de posición, con cuya ayuda se puede determinar la posición espacial de la herramienta quirúrgica 60 en relación con el sistema 30 de referencia estacionario y, por lo tanto, con la zona ósea 2 que ha de ser operada. Para ello, el dispositivo 20 de determinación de posición también está configurado para determinar la situación de la al menos una herramienta quirúrgica con respecto al sistema 30 de referencia estacionario. Además, la unidad 40 de procesamiento puede estar configurada para mostrar un indicador en la imagen virtual 41 en tiempo real, que representa la al menos una herramienta quirúrgica 60 y su situación con respecto al sistema 30 de referencia estacionario. De este modo se mejoran adicionalmente la precisión de la navegación y la sensación de seguridad para el cirujano.
Como se muestra en particular en la Figura 2, puede estar previsto que al menos uno de los dispositivos de detección (en el presente ejemplo de realización, el dispositivo 12 de detección) esté dispuesto en la herramienta quirúrgica 60. Para ello, la herramienta quirúrgica 60 está diseñada específicamente con un soporte para fijar el dispositivo 12 de detección en el mismo.
Para proteger la funcionalidad del dispositivo contra cualquier interferencia externa y así mantener constantemente la sensación de seguridad para el cirujano, el dispositivo 40 de procesamiento también está configurado para generar, en caso de un fallo temporal del registro de imágenes y/o de la determinación de situación/posición de un dispositivo 11-17 de detección, el área parcial de la zona ósea 2 que ha de ser operada detectada por este dispositivo 11-17 de detección en la imagen virtual 41 en tiempo real sobre la base de los datos de imagen registrados en un momento anterior por este dispositivo 11-17 de detección. Para ello puede estar previsto en particular que los datos de imagen del área parcial correspondiente registrados en un momento anterior se adapten en tiempo real a la situación actual de las áreas parciales registradas por los dispositivos 11-17 de detección restantes.
En el caso de que falle temporalmente solo la determinación de situación/posición para uno o más de los dispositivos 11-17 de detección, pero no el registro de imágenes del o de los propios dispositivos 11-17 de detección afectados, también puede estar previsto generar el área parcial registrada de la zona ósea 2 que ha de ser operada, registrada por el dispositivo 11-17 de detección afectado en cada caso, en la imagen virtual 41 en tiempo real sobre la base de los datos de imagen registrados actualmente. Para ello, los datos de imagen registrados actualmente del área parcial correspondiente se adaptan en tiempo real a la situación actual de las áreas parciales registradas por los dispositivos de detección restantes con respecto a su situación en relación con el sistema 41 de referencia estacionario.
La Figura 3 muestra otra disposición posible de los dispositivos 15-17 de detección o los medios 15.1-17.1 de detección asociados del dispositivo según la invención dentro del cuerpo. De acuerdo con esta configuración ejemplar, al menos los medios 15.1-17.1 de detección de, por ejemplo, tres dispositivos 15-17 de detección están dispuestos lateralmente a la izquierda o la derecha de la columna vertebral 3 y están alineados de tal manera que registran el contorno exterior de aquellas áreas de la zona ósea 2 que ha de ser operada, que están orientadas en la dirección distal de los lados izquierdo y derecho del cuerpo. Por supuesto, la disposición de los dispositivos 15 a 17 de detección según la Figura 3 se puede complementar con otros dispositivos de detección, que se pueden disponer dentro o fuera del cuerpo. En particular, la disposición especial de los dispositivos de detección según la Figura 3 también se puede combinar con la disposición de los dispositivos de detección según las Figuras 1 y 2. Idealmente, con una "disposición completa”
correspondiente de dispositivos de detección dentro y fuera del cuerpo se puede generar incluso una imagen completa virtual en tiempo real del contorno exterior de la zona ósea que ha de ser operada, lo que mejora considerablemente la precisión de navegación y la sensación de seguridad para el cirujano.
Claims (14)
1. Dispositivo (1) para la navegación intraoperatoria guiada por imágenes en intervenciones quirúrgicas en un objeto que ha de ser operado en la columna vertebral (3) y/o en el área torácica, pélvica (5) o de la cabeza (4) adyacente a la columna vertebral columna (3), que comprende
múltiples dispositivos (11-17) de detección no basados en rayos X, que están configurados en cada caso para ser dispuestos distribuidos alrededor del objeto (2) que ha de ser operado, en el área de la columna vertebral (3) y/o en el área torácica, pélvica o de la cabeza adyacente a la misma, y para registrar de forma intraoperatoria en tiempo real datos de imagen y de situación, que comprenden en cada caso información sobre al menos el contorno exterior de al menos un área parcial del objeto (2) que ha de ser operado, así como sobre la distancia y la orientación espacial del área parcial en relación con el dispositivo (11-17) de detección respectivo;
un dispositivo (20) de determinación de posición, que está configurado para determinar en tiempo real datos relacionados con la posición respectiva de los dispositivos (11-17) de detección en relación con un sistema (30) de referencia estacionario;
un dispositivo (40) de procesamiento de datos conectado funcionalmente a los dispositivos (11-17) de detección y al dispositivo (20) de determinación de posición, que está configurado para generar, sobre la base de los datos de imagen y de situación respectivos de los dispositivos (11-17) de detección y de los respectivos datos de posición del dispositivo (20) de determinación de posición, una imagen virtual (41) en tiempo real del objeto (2) que ha de ser operado, referenciada al sistema (30) de referencia estacionario;
un dispositivo (50) de visualización de imágenes conectado funcionalmente al dispositivo (40) de procesamiento de datos, para visualizar la imagen virtual (41) en tiempo real;
en donde al menos dos de los múltiples dispositivos (13-17) de detección no basados en rayos X consisten en cada caso en un dispositivo de detección basado en ultrasonidos o un dispositivo de detección basado en radiación de terahercios y presentan en cada caso al menos un medio (13.1-17.1) de detección que está configurado para ser dispuesto dentro del cuerpo, para registrar datos de imagen que comprenden información sobre al menos el contorno exterior de al menos un área parcial del objeto (2) que ha de ser operado orientada hacia el interior del cuerpo;
en donde los múltiples dispositivos (11-17) de detección no basados en rayos X pueden disponerse distribuidos alrededor del objeto (2) que ha de ser operado, de modo que por medio de los múltiples dispositivos (11 -17) de detección no basados en rayos X se pueden registrar, de forma intraoperatoria en tiempo real, datos de imagen y de situación para los contornos exteriores de diversas áreas parciales del objeto que ha de ser operado;
en donde el dispositivo (40) de procesamiento de datos está configurado para generar la imagen (41) en tiempo real del objeto (2) que ha de ser operado como una imagen tridimensional en tiempo real del contorno exterior del objeto (2) que ha de ser operado, que está compuesta de los datos de imagen para los contornos exteriores de las distintas áreas parciales del objeto (2) que ha de ser operado.
2. Dispositivo (1) según la reivindicación 1, en donde el dispositivo (40) de procesamiento de datos está configurado para superponer datos de imagen del objeto que ha de ser operado obtenidos antes de la operación con los datos de imagen de los dispositivos (13-17) de detección, con el fin de generar, sobre la base de los datos de imagen obtenidos antes de la operación superpuestos con los datos de imagen de los dispositivos (13-17) de detección, la imagen virtual en tiempo real del objeto que ha de ser operado, referenciada al sistema de referencia estacionario.
3. Dispositivo (1) según una de las reivindicaciones precedentes, en donde el al menos un medio (13.1-17.1) de detección del al menos un dispositivo (13-17) de detección, que puede disponerse en el interior del cuerpo, está configurado para ser introducido en el cuerpo a través de una cavidad corporal preformada, en particular la nariz, la boca, la faringe, el esófago, la tráquea, el tracto gastrointestinal, la vejiga urinaria o a través de un vaso sanguíneo.
4. Dispositivo (1) según una de las reivindicaciones precedentes, en donde el al menos un medio (13.1-17.1) de detección del al menos un dispositivo (13-17) de detección, que puede disponerse en el interior del cuerpo, está configurado para ser introducido quirúrgicamente en un tejido, por ejemplo en tejido muscular paravertebral o tejido muscular del músculo glúteo, y/o en tejido adiposo, por ejemplo, en el espacio epidural.
5. Dispositivo (1) según una de las reivindicaciones precedentes, en donde al menos uno de los múltiples dispositivos (11, 12) de detección y/o al menos un medio (11.1, 12.1) de detección de al menos uno de los múltiples dispositivos (11, 12) de detección están configurados para ser dispuestos fuera del cuerpo con el fin de registrar datos de imagen que comprenden información sobre al menos el contorno exterior de un área parcial del objeto (2) que ha de ser operado orientada hacia el exterior del cuerpo.
6. Dispositivo (1) según la reivindicación 5, en donde el al menos un dispositivo (11, 12) de detección que puede disponerse fuera del cuerpo y/o el al menos un medio (11.1, 12.1) de detección que puede disponerse fuera del cuerpo consisten en un dispositivo de detección basado en ultrasonidos o un escáner óptico de contornos o un dispositivo de
detección basado en radiación de terahercios.
7. Dispositivo (1) según una de las reivindicaciones precedentes, en donde el dispositivo (1) comprende al menos una herramienta quirúrgica (60), en donde el dispositivo (20) de determinación de posición está configurado además para determinar en tiempo real datos relativos a la posición de la al menos una herramienta quirúrgica (60) con respecto al sistema (30) de referencia estacionario, y en donde la unidad (40) de procesamiento de datos está configurada además para mostrar un indicador, que representa la herramienta quirúrgica (60) y su situación, en la imagen virtual (41) en tiempo real.
8. Dispositivo según una de las reivindicaciones precedentes, en particular según la reivindicación 7, en donde al menos uno de los múltiples dispositivos (11-17) de detección y/o al menos un medio (11.1-17.1) de detección de al menos uno de los múltiples dispositivos (11-17) de detección están configurados para ser dispuestos en una herramienta quirúrgica (60), en particular al menos uno de los múltiples dispositivos (11 -17) de detección y/o al menos un medio (11.1-17.1) de detección de al menos uno de los múltiples dispositivos (11 -17) de detección están dispuestos en la herramienta quirúrgica (60).
9. Dispositivo (1) según una de las reivindicaciones 1 a 8, en donde el dispositivo (40) de procesamiento de datos está configurado para, en caso de un fallo temporal de la determinación de los datos de imagen, los datos de situación y/o los datos de posición de al menos uno de los dispositivos (11 -17) de detección, generar el área parcial del objeto (2) que ha de ser operado registrada por este dispositivo (11 -17) de detección, en la imagen virtual (41) en tiempo real sobre la base de los datos de imagen registrados en un momento anterior por este dispositivo (11-17) de detección con determinación funcional de datos de situación y datos de posición, en donde los datos de imagen del área parcial correspondiente registrados en un momento anterior se adaptan en tiempo real a la situación actual de las áreas parciales registradas por los dispositivos (11-17) de detección restantes.
10. Dispositivo (1) según una de las reivindicaciones 1 a 8, en donde el dispositivo (40) de procesamiento de datos está configurado para, en caso de un fallo temporal de la determinación de datos de situación y/o datos de posición de un dispositivo (11-17) de detección, generar el área parcial del objeto (2) que ha de ser operado, registrada por este dispositivo (11-17) de detección, en la imagen virtual en tiempo real (41) sobre la base de los datos de imagen actualmente registrados, en donde los datos de imagen del área parcial correspondiente actualmente registrados se adaptan en tiempo real a la situación actual de las áreas parciales registradas por los dispositivos (11 -17) de detección restantes.
11. Dispositivo (1) según una de las reivindicaciones 1 a 10, en donde el dispositivo (1) presenta además al menos un dispositivo de detección basado en rayos X, que está configurado para registrar de forma intraoperatoria en tiempo real datos de imágenes que comprenden información sobre el contorno exterior y la estructura interior de al menos un área parcial del objeto (2) que ha de ser operado, en donde el dispositivo (40) de procesamiento de datos está conectado funcionalmente al dispositivo de detección basado en rayos X y está configurado para superponer los datos de imagen del dispositivo de detección basado en rayos X con los datos de imagen de los dispositivos (13-17) de detección no basados en rayos X, para, sobre la base de los datos de imagen superpuestos entre sí, generar la imagen virtual en tiempo real del objeto que ha de ser operado, referenciada al sistema de referencia estacionario, que comprende información sobre el contorno exterior y la estructura interior del objeto que ha de ser operado.
12. Dispositivo (1) según una de las reivindicaciones 1 a 10, en donde el dispositivo (1) presenta además al menos un dispositivo de detección basado en rayos X, que está configurado para registrar de forma intraoperatoria en tiempo real datos de imagen y de situación, que comprenden información sobre el contorno exterior y la estructura interior de al menos un área parcial del objeto (2) que ha de ser operado y sobre la situación del área parcial en relación con el dispositivo de detección basado en rayos X, en donde el dispositivo (20) de determinación de posición está configurado además para determinar en tiempo real datos sobre la posición del dispositivo de detección basado en rayos X con respecto al sistema (30) de referencia estacionario, y en donde el dispositivo (40) de procesamiento de datos está además conectado funcionalmente al dispositivo de detección basado en rayos X y está configurado para, sobre la base de los respectivos datos de imagen y de situación de los dispositivos (11 -17) de detección no basados en rayos X, de los datos de imagen y de situación del dispositivo de detección basado en rayos X dispositivo y de los datos de posición respectivos del dispositivo (20) de determinación de posición, generar una imagen virtual (41) en tiempo real, preferiblemente tridimensional, del objeto (2) que ha de ser operado, referenciada al sistema (30) de referencia estacionario, y que comprende información sobre el contorno exterior y la estructura interior del objeto que ha de ser operado.
13. Dispositivo según con una de las reivindicaciones precedentes, en donde los dispositivos (13-17) de detección están configurados para comunicarse entre sí, en particular para intercambiar información sobre su posición y/o situación respectiva, preferiblemente en relación con el sistema (30) de referencia estacionario.
14. Dispositivo según una de las reivindicaciones precedentes, en donde al menos uno de los múltiples dispositivos (13-17) de detección, en particular al menos un medio (13.1-17.1) de detección de al menos uno de los dispositivos (13-17) de detección, está configurado para determinar la posición y/o situación de al menos otro dispositivo (13-17) de detección o la posición y/o situación de los medios (13.1-17.1) de detección respectivos de al menos otro dispositivo (13-17) de detección con respecto a sí mismo, y preferiblemente de este modo también a través del dispositivo (20) de determinación de posición con respecto al sistema (30) de referencia estacionario.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15405076.9A EP3184071A1 (de) | 2015-12-22 | 2015-12-22 | Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich |
PCT/CH2016/000155 WO2017106980A1 (de) | 2015-12-22 | 2016-12-15 | Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2937169T3 true ES2937169T3 (es) | 2023-03-24 |
Family
ID=55129498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16829399T Active ES2937169T3 (es) | 2015-12-22 | 2016-12-15 | Dispositivo para la navegación intraoperatoria guiada por imágenes en intervenciones quirúrgicas en el área de la columna vertebral y el área torácica, pélvica o de la cabeza adyacente a la misma |
Country Status (6)
Country | Link |
---|---|
US (1) | US11426241B2 (es) |
EP (2) | EP3184071A1 (es) |
JP (1) | JP6700401B2 (es) |
CN (1) | CN108601630B (es) |
ES (1) | ES2937169T3 (es) |
WO (1) | WO2017106980A1 (es) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160262800A1 (en) | 2015-02-13 | 2016-09-15 | Nuvasive, Inc. | Systems and methods for planning, performing, and assessing spinal correction during surgery |
EP3376987B1 (en) * | 2015-11-19 | 2020-10-28 | EOS Imaging | Method of preoperative planning to correct spine misalignment of a patient |
BR112018067591B1 (pt) | 2016-03-02 | 2023-11-28 | Nuvasive, Inc. | Sistema para planejamento e avaliação cirúrgicos de correção de deformidade espinhal em um indivíduo |
US20220008141A1 (en) * | 2016-10-04 | 2022-01-13 | Petal Surgical, Inc. | Enhanced reality medical guidance systems and methods of use |
CN107595387B (zh) * | 2017-07-28 | 2020-08-07 | 浙江大学 | 一种基于超声拓片技术的脊椎图像生成系统以及脊柱手术导航定位系统 |
US11127212B1 (en) * | 2017-08-24 | 2021-09-21 | Sean Asher Wilens | Method of projecting virtual reality imagery for augmenting real world objects and surfaces |
CN110060771A (zh) * | 2019-04-16 | 2019-07-26 | 江苏信美医学工程科技有限公司 | 一种基于原位投影技术的远程手术导航方法和装置 |
JP2021019967A (ja) * | 2019-07-30 | 2021-02-18 | 春仁 上園 | 拡張現実情報表示方法、手術支援装置、及びプログラム |
CN110731817B (zh) * | 2019-10-11 | 2021-04-13 | 浙江大学 | 一种基于光学扫描自动化轮廓分割匹配的无辐射经皮脊柱定位方法 |
CN111415404B (zh) * | 2020-03-16 | 2021-06-29 | 广州柏视医疗科技有限公司 | 术中预设区域的定位方法、装置、存储介质及电子设备 |
CN111772584B (zh) * | 2020-07-08 | 2022-08-09 | 莆田学院附属医院(莆田市第二医院) | 一种智能脊柱数字化手术装置 |
CN111870268A (zh) * | 2020-07-30 | 2020-11-03 | 上海联影医疗科技有限公司 | 一种限束装置的目标位置信息的确定方法和系统 |
CN113052838B (zh) * | 2021-04-26 | 2023-06-06 | 拉扎斯网络科技(上海)有限公司 | 置物检测方法、装置以及智能柜 |
US20230110791A1 (en) * | 2021-09-29 | 2023-04-13 | Cilag Gmbh International | Instrument Control Imaging Systems for Visualization of Upcoming Surgical Procedure Steps |
CN114041826B (zh) * | 2021-11-11 | 2024-01-30 | 苏州国科昂卓医疗科技有限公司 | 椎骨钉道血管成像方法、系统及椎骨钉道创建引导装置 |
US20230289976A1 (en) * | 2022-03-09 | 2023-09-14 | Claire SooHoo | Multi-component system for computerized x-ray vision to track motion during surgery |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5224376A (en) * | 1989-12-08 | 1993-07-06 | Digital Instruments, Inc. | Atomic force microscope |
EP0869745B8 (en) | 1994-10-07 | 2003-04-16 | St. Louis University | Surgical navigation systems including reference and localization frames |
US5910827A (en) * | 1997-02-26 | 1999-06-08 | Kwan; Katherine W. | Video signal decoding arrangement and method for improved error concealment |
JP4472085B2 (ja) * | 2000-01-26 | 2010-06-02 | オリンパス株式会社 | 手術用ナビゲーションシステム |
DE10015826A1 (de) * | 2000-03-30 | 2001-10-11 | Siemens Ag | System und Verfahren zur Erzeugung eines Bildes |
DE10015815A1 (de) * | 2000-03-30 | 2001-10-11 | Siemens Ag | System und Verfahren zur Erzeugung eines Bilddatensatzes |
JP2003334163A (ja) * | 2002-03-14 | 2003-11-25 | Olympus Optical Co Ltd | 内視鏡画像処理装置 |
US7835778B2 (en) * | 2003-10-16 | 2010-11-16 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation of a multiple piece construct for implantation |
JP4152402B2 (ja) * | 2005-06-29 | 2008-09-17 | 株式会社日立メディコ | 手術支援装置 |
US8379734B2 (en) * | 2007-03-23 | 2013-02-19 | Qualcomm Incorporated | Methods of performing error concealment for digital video |
JP5307357B2 (ja) * | 2007-05-17 | 2013-10-02 | オリンパスメディカルシステムズ株式会社 | 超音波診断装置 |
US8494608B2 (en) * | 2008-04-18 | 2013-07-23 | Medtronic, Inc. | Method and apparatus for mapping a structure |
US8267853B2 (en) * | 2008-06-23 | 2012-09-18 | Southwest Research Institute | System and method for overlaying ultrasound imagery on a laparoscopic camera display |
CN101862220A (zh) * | 2009-04-15 | 2010-10-20 | 中国医学科学院北京协和医院 | 基于结构光图像的椎弓根内固定导航手术系统和方法 |
US20110184684A1 (en) * | 2009-07-21 | 2011-07-28 | Eigen, Inc. | 3-d self-correcting freehand ultrasound tracking system |
WO2012042413A1 (en) | 2010-09-30 | 2012-04-05 | Koninklijke Philips Electronics N.V. | Detection of bifurcations using traceable imaging device and imaging tool |
ITTV20100133A1 (it) * | 2010-10-08 | 2012-04-09 | Teleios Srl | Apparato e metodo per effettuare la mappatura di uno spazio tridimensionale in applicazioni medicali a scopo interventistico o diagnostico |
CN103237518A (zh) * | 2010-10-28 | 2013-08-07 | 菲亚戈股份有限公司 | 在医学中用于光学仪器的导航附加部和方法 |
US10219811B2 (en) * | 2011-06-27 | 2019-03-05 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
DE102011078212B4 (de) * | 2011-06-28 | 2017-06-29 | Scopis Gmbh | Verfahren und Vorrichtung zum Darstellen eines Objektes |
RU2014119867A (ru) * | 2011-10-18 | 2015-11-27 | Конинклейке Филипс Н.В. | Магнитно-резонансная (mr) томография с использованием общей информации для изображений с разной контрастностью |
JP2013202313A (ja) * | 2012-03-29 | 2013-10-07 | Panasonic Corp | 手術支援装置および手術支援プログラム |
CN202859314U (zh) * | 2012-10-30 | 2013-04-10 | 华南理工大学 | 一种基于超声波的实时无线手术导航装置 |
GB201303917D0 (en) * | 2013-03-05 | 2013-04-17 | Ezono Ag | System for image guided procedure |
US9509886B2 (en) * | 2013-04-29 | 2016-11-29 | Disney Enterprises, Inc. | Flicker removal for high speed video |
IL229527A (en) * | 2013-11-21 | 2015-06-30 | Elbit Systems Ltd | A wide-field medical tracking system |
US10349917B2 (en) * | 2014-06-11 | 2019-07-16 | The Johns Hopkins University | Synthetic aperture ultrasound system |
-
2015
- 2015-12-22 EP EP15405076.9A patent/EP3184071A1/de not_active Withdrawn
-
2016
- 2016-12-15 EP EP16829399.1A patent/EP3393391B1/de active Active
- 2016-12-15 ES ES16829399T patent/ES2937169T3/es active Active
- 2016-12-15 JP JP2018533261A patent/JP6700401B2/ja active Active
- 2016-12-15 CN CN201680081174.2A patent/CN108601630B/zh active Active
- 2016-12-15 WO PCT/CH2016/000155 patent/WO2017106980A1/de active Application Filing
- 2016-12-15 US US16/064,499 patent/US11426241B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11426241B2 (en) | 2022-08-30 |
JP6700401B2 (ja) | 2020-05-27 |
US20180368921A1 (en) | 2018-12-27 |
WO2017106980A1 (de) | 2017-06-29 |
JP2019502460A (ja) | 2019-01-31 |
CN108601630A (zh) | 2018-09-28 |
EP3184071A1 (de) | 2017-06-28 |
EP3393391A1 (de) | 2018-10-31 |
EP3393391B1 (de) | 2022-11-02 |
CN108601630B (zh) | 2022-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2937169T3 (es) | Dispositivo para la navegación intraoperatoria guiada por imágenes en intervenciones quirúrgicas en el área de la columna vertebral y el área torácica, pélvica o de la cabeza adyacente a la misma | |
US11426254B2 (en) | Method and apparatus for virtual endoscopy | |
ES2231185T3 (es) | Aparatos y metodos para cirugia guiada por imagenes. | |
JP5121401B2 (ja) | 埋植物距離測定のシステム | |
JP5328137B2 (ja) | 用具又は埋植物の表現を表示するユーザ・インタフェイス・システム | |
ES2314989T3 (es) | Sistema quirurgico de localizacion por radioscopica con volumen catografico ampliado. | |
US8320992B2 (en) | Method and system for superimposing three dimensional medical information on a three dimensional image | |
ES2270502T3 (es) | Medicion intracorporal. | |
JP2020192331A (ja) | 脊柱の変位の測定システム、及び、測定方法 | |
ES2901703T3 (es) | Integración de múltiples fuentes de datos para localización y navegación | |
EP2329786A2 (en) | Guided surgery | |
Wallace et al. | Computer-assisted navigation in complex cervical spine surgery: tips and tricks | |
JP2023532066A (ja) | 組織内に貫通デバイスを配置する際にユーザを支援するシステム | |
Samarakkody et al. | The use of image guided navigational tracking systems for endoscopic sinus surgery and skull base surgery: a review | |
ES2242118T3 (es) | Registro en perspectiva y visualizacion de las zonas corporales internas. | |
Galloway et al. | Overview and history of image-guided interventions | |
BR102022020665A2 (pt) | Aparelho e método para posicionar o corpo de um paciente e rastrear a posição do paciente durante a cirurgia | |
BR102022020744A2 (pt) | Arranjo e método para registrar imagens ao vivo e de varredura | |
Ling et al. | Advances in imaging of the paranasal sinuses | |
US9008756B2 (en) | Mapping system and method for mapping a target containing tissue | |
US20240225744A9 (en) | Three-dimensional dual fiducial-sensor trackable device and method of use | |
Abbasi et al. | Computerized lateral endoscopic approach to invertebral bodies | |
CN118369732A (zh) | 解剖扫描、瞄准和可视化 | |
Sarkarian | Image Guided Surgery: Navigation and Surgical Technologies | |
Chan et al. | IGS for exploration of Foreign Bodies in the Head and Neck-Lessons to Learn |