ES2912332T3 - Sistema para navegación de instrumentos de intervención - Google Patents

Sistema para navegación de instrumentos de intervención Download PDF

Info

Publication number
ES2912332T3
ES2912332T3 ES17874334T ES17874334T ES2912332T3 ES 2912332 T3 ES2912332 T3 ES 2912332T3 ES 17874334 T ES17874334 T ES 17874334T ES 17874334 T ES17874334 T ES 17874334T ES 2912332 T3 ES2912332 T3 ES 2912332T3
Authority
ES
Spain
Prior art keywords
surgical tool
image
marker
tip
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17874334T
Other languages
English (en)
Inventor
Philipp Jakob Stolka
Pezhman Foroughi
Ehsan Basafa
Martin Hossbach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Clear Guide Medical Inc
Original Assignee
Clear Guide Medical Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clear Guide Medical Inc filed Critical Clear Guide Medical Inc
Application granted granted Critical
Publication of ES2912332T3 publication Critical patent/ES2912332T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • A61B1/053Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion being detachable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

Un sistema quirúrgico guiado por imágenes que comprende: un marcador (12) que se puede unir y retirar de una herramienta quirúrgica alargada (10) que tiene un eje (10B), dicho eje que comprende una punta (10A); al menos una cámara; un sistema de procesamiento de imágenes en comunicación con la cámara configurado para obtener una imagen de la herramienta quirúrgica incluyendo el marcador; un dispositivo de visualización en comunicación con el sistema de procesamiento de imágenes, el dispositivo de visualización que está configurado para mostrar la imagen de la herramienta quirúrgica incluyendo el marcador, en donde el sistema de procesamiento de imágenes está configurado para operar en un modo de calibración para generar una plantilla y mostrar la plantilla en el dispositivo de visualización y para recibir una entrada del usuario, después de que la imagen de la herramienta quirúrgica esté alineada con la plantilla, para ajustar una longitud de la plantilla para hacer coincidir sustancialmente con una longitud de la herramienta quirúrgica; y un dispositivo de almacenamiento en comunicación con el sistema de procesamiento de imágenes, el dispositivo de almacenamiento que está configurado para almacenar información de calibración que asocia una posición del marcador con una posición de la punta del eje de la herramienta quirúrgica en base a la longitud ajustada de la plantilla.

Description

DESCRIPCIÓN
Sistema para navegación de instrumentos de intervención
REFERENCIA CRUZADA A SOLICITUDES RELACIONADAS
La presente solicitud de patente reivindica el beneficio de prioridad de la Solicitud Provisional de Patente de EE.UU. N° 62/426.050 presentada el 23 de noviembre de 2016.
ANTECEDENTES
1. Campo técnico
Esta invención se refiere en general a sistemas de imágenes para la navegación de dispositivos médicos quirúrgicos. Más particularmente, esta invención se refiere a un sistema para navegación de instrumentación de intervención, tal como agujas quirúrgicas, que implica la identificación de imágenes y el seguimiento de etiquetas únicas y/o patrones gráficos asociados o unidos a la instrumentación de intervención.
2. Discusión de la técnica relacionada
En el transcurso de la realización de una operación o intervención quirúrgica, un médico (por ejemplo, un cirujano) puede usar varios instrumentos de operación para realizar varias operaciones, tales como biopsias con aguja, ablaciones de tumores, inserción de catéteres, intervenciones ortopédicas, etc. Estos instrumentos pueden usar varios tipos de datos de imagen para ayudar al médico u operador a insertar el instrumento en una ubicación deseada dentro del cuerpo de un paciente. Típicamente, el médico inserta estos instrumentos en el cuerpo de un paciente en ubicaciones, orientaciones y profundidades muy específicas para alcanzar áreas objetivo predeterminadas con el fin de realizar una acción o función específica del instrumento, que puede incluir muestreo de tejido, calentamiento, enfriamiento, deposición de líquido, succión, o servir como canal para otros objetos.
La colocación correcta de tales instrumentos de intervención es un desafío en condiciones típicas. Los operadores confían en la retroalimentación visual o táctil externa (por ejemplo, el número de marcas de centímetros (cm) en la aguja que desaparecen dentro del tejido, o la sensación de penetración de la membrana), o utilizan una o más modalidades de formación de imágenes (por ejemplo, ultrasonido, Tomografía Computarizada (TC), Tomografía Computarizada de Haz Cónico (CBCT), Formación de Imágenes por Resonancia Magnética (MRI) y similares) para guiar la colocación de dicho instrumento.
Los sistemas de navegación médica basados en una variedad de diferentes tecnologías de seguimiento (mecánicas, ópticas infrarrojas, electromagnéticas, etc.) han existido desde hace mucho tiempo y ayudan a alinear al paciente, los objetivos y los instrumentos. Sin embargo, los sistemas de navegación médica conocidos siguen siendo imprecisos, incómodos e ineficaces a la hora de proporcionar datos y guiado en tiempo real al insertar y mover instrumentos de intervención.
Por lo tanto, sigue existiendo la necesidad de sistemas y métodos mejorados para navegación de instrumentación médica de intervención.
La publicación de patente internacional WO-A1-2015/081112 se refiere a un sistema para cirugía guiada por imágenes que puede incluir un sistema de formación de imágenes visuales, una herramienta médica que comprende un eje y una punta, en donde el eje de la herramienta incluye una característica detectable ópticamente que permite que la posición de la punta sea determinada. El sistema también puede incluir una pantalla configurada para mostrar una representación en tiempo real de la herramienta médica incluyendo la posición de la punta, independientemente de si la punta está obstruida o es visible.
La publicación de patente internacional WO-A1-2011/150376 se refiere a un sistema de guiado para ayudar con la inserción de una aguja en el cuerpo de un paciente. El sistema de guiado comprende un dispositivo de formación de imágenes que incluye una sonda para producir una imagen de una parte interna del cuerpo objetivo. Se incluyen uno o más sensores con la sonda. Los sensores detectan una característica detectable relacionada con la aguja, tal como un campo magnético de un imán incluido con la aguja. El sistema incluye un procesador que usa datos relacionados con la característica detectada para determinar una posición en 3D de la aguja. El sistema incluye una pantalla para representar la posición de la aguja. La aguja puede incluir un imán en forma de rosquilla dispuesto alrededor de la cánula de la aguja, o un estilete extraíble con un elemento magnético y una galga extensiométrica para la detección de la punta distal de la aguja.
La publicación de patente de EE.UU. US-A1-2005/084833 se refiere a un simulador que tiene un aparato de forma corporal con un panel similar a la piel a través del cual se insertan instrumentos laparoscópicos. Las cámaras captan imágenes de video del movimiento interno de los instrumentos y un ordenador las procesa. Los datos posicionales en 3D se generan mediante triangulación estéreo y se vinculan con las imágenes de video asociadas. Un motor de gráficos utiliza los datos 3D para generar representaciones gráficas de escenas internas. Una función de combinación combina imágenes reales y grabadas, o imágenes reales y simuladas para permitir la demostración de efectos tales como sangrado interno o sutura.
COMPENDIO DE LA INVENCIÓN
La presente invención se define por las características de la reivindicación independiente. Las realizaciones preferidas se dan en las reivindicaciones dependientes. Cualquier método descrito en la presente memoria no forma parte de la presente invención.
Un aspecto de la presente descripción es proporcionar un sistema quirúrgico guiado por imágenes que incluye un marcador que se puede unir y retirar de una herramienta quirúrgica alargada que tiene un eje y al menos una cámara. El sistema quirúrgico guiado por imágenes incluye además un sistema de procesamiento de imágenes en comunicación con la cámara configurada para obtener una imagen de la herramienta quirúrgica que incluye el marcador y un dispositivo de visualización en comunicación con el sistema de procesamiento de imágenes. El dispositivo de visualización está configurado para visualizar la imagen de la herramienta quirúrgica incluyendo el marcador. El sistema de procesamiento de imágenes está configurado para operar en un modo de calibración para generar una plantilla y mostrar la plantilla en el dispositivo de visualización y recibir una entrada del usuario, después de que la imagen de la herramienta quirúrgica esté alineada con la plantilla, para ajustar una longitud de la plantilla para hacer coincidir sustancialmente una longitud de la herramienta quirúrgica. La herramienta quirúrgica guiada por imágenes también incluye un dispositivo de almacenamiento en comunicación con el sistema de procesamiento de imágenes. El dispositivo de almacenamiento está configurado para almacenar información de calibración que asocia una posición del marcador con una posición de la punta del eje de la herramienta quirúrgica en base a la longitud ajustada de la plantilla.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La presente invención, así como los métodos de operación y funciones de los elementos de estructura relacionados y la combinación de partes y economías de fabricación, llegarán a ser más evidentes en consideración de la siguiente descripción y las reivindicaciones adjuntas con referencia a los dibujos adjuntos, todos los cuales forman parte de esta especificación. Números de referencia similares designan partes correspondientes en las diversas figuras. Los dibujos son con propósitos de ilustración y descripción y no se pretende que sean una definición de los límites de la invención.
La FIGURA 1 muestra un ejemplo de un sistema de ultrasonido (por ejemplo, el sistema SCENERGY de Clear Guide) que tiene una sonda de ultrasonido que tiene montado en la misma un dispositivo de seguimiento (por ejemplo, una o más cámaras) para rastrear la posición de una herramienta quirúrgica o de intervención cuando se opera en un el cuerpo del paciente, según una realización de la presente invención; la FIGURA 2 representa a un profesional de la salud insertando una aguja en el cuerpo de un paciente mientras que usa un sistema de ultrasonido (por ejemplo, el sistema "SCENERGY" de Clear Guide Medical) que tiene una o más cámaras para rastrear la posición de la aguja en relación con el cuerpo del paciente, el sistema de ultrasonido que proporciona una imagen que muestra información acerca de la trayectoria de la inserción de la aguja dentro del cuerpo del paciente, según una realización de la presente invención;
la FIGURA 3A representa una aguja convencional sin ninguna marca utilizada en un procedimiento de intervención;
la FIGURA 3B representa otra aguja convencional que tiene un patrón binario no repetitivo en el eje de la aguja;
la FIGURA 3C representa una configuración de aguja que tiene un marcador o una etiqueta, según una realización de la presente descripción;
la FIGURA 4 representa algunos aspectos de un procedimiento de calibración para calibrar un sistema de procesamiento de imágenes para asociar el marcador con las características dimensionales de la herramienta quirúrgica, según una realización de la presente invención;
la FIGURA 5 representa un sistema de visualización que muestra un instrumento seguido por la punta superpuesto en cuatro visualizaciones diferentes: vistas de ultrasonido, de CT, de fusión y en 3D, según varias realizaciones de la presente invención;
la FIGURA 6A representa un sistema informático de mano que usa visión monocular para crear superposiciones de Realidad Aumentada (AR) de datos de escaneo de CT con la posición del instrumento a partir de video monocular en tiempo real, según una realización de la presente descripción; y
la FIGURA 6B representa una vista de pantalla que incluye una imagen adicional, seguimiento de instrumentos y punta, y características del objetivo, según una realización de la presente invención.
DESCRIPCIÓN DETALLADA
Esta descripción se refiere a un sistema de dispositivo médico y métodos que permiten a los operadores realizar intervenciones asistidas por navegación utilizando ciertos tipos de instrumentos de intervención, tales como instrumentos similares a agujas, y los métodos correspondientes para rastrear los instrumentos con ciertos marcadores adjuntos y calibrar el sistema para permitir el seguimiento de los instrumentos.
Clear Guide Medical ha desarrollado previamente una novedosa plataforma de tecnología de seguimiento visual basada en visión por ordenador basada en cámara en tiempo real, y la incorporó en productos para sistemas basados en ultrasonido y CT para guiado de imágenes/instrumentos y fusión multimodalidad. Ciertos aspectos de esta tecnología ya han sido descritos en la Solicitud de Patente de EE.UU. Número de Serie 13/648.245, la Solicitud de Patente de EE.UU. Número de Serie 14/092.755, la Solicitud de Patente de EE.UU. Número de Serie 14/092.843, la Solicitud de Patente de EE.UU. Número de Serie 14/508.223, la Solicitud de Patente de EE.UU. Número de Serie 14/524.468, la Solicitud de Patente de EE.UU. Número de Serie 14/524.570 y la Solicitud de Patente de EE.UU. Número de Serie 14/689.849.
La FIGURA 1 muestra un ejemplo de un sistema de ultrasonido (por ejemplo, el sistema SCENERGY de Clear Guide) que tiene una sonda de ultrasonido que tiene montado en la misma un dispositivo de seguimiento (por ejemplo, una o más cámaras) para rastrear la posición de una herramienta quirúrgica o de intervención cuando se opera en un el cuerpo de un paciente, según una realización de la presente descripción. Una o más cámaras captan imágenes de objetos en su campo de visión, detectan y localizan características de referencia para registro y seguimiento, reconstruyen sus poses en el espacio de la cámara y las registran en las poses de los objetos correspondientes en otros conjuntos de datos de imágenes. Como se describirá con más detalle en los siguientes párrafos, el sistema de ultrasonido se puede configurar de acuerdo con realizaciones de la presente descripción para navegación de instrumentación de intervención, tal como agujas quirúrgicas, y refinar el registro entre modalidades de imagen.
La FIGURA 2 representa a un profesional de la salud insertando una aguja en el cuerpo de un paciente mientras que se usa un sistema de ultrasonido (por ejemplo, el sistema "SCENERGY" de Clear Guide Medical) que tiene la una o más cámaras para rastrear la posición de la aguja en relación con el cuerpo del paciente, el sistema de ultrasonido que proporciona una imagen que muestra información acerca de una trayectoria de inserción de la aguja dentro del cuerpo del paciente. El sistema "SCENERGY" de Clear Guide permite la fusión de imágenes de registro de dispositivos de ultrasonido y CT basados en fiduciales "VisiMARKER" adheridos a la piel. Estos marcadores multimodalidad comprenden una capa radiopaca que se segmenta automáticamente a partir de la formación de imágenes radiográficas en base a su alta intensidad conocida, y un patrón de superficie similar a un tablero de ajedrez visible que permite que las cámaras de observación localicen el marcador en seis grados de libertad en las coordenadas de la cámara (véase también Olson E., AprilTag: A robust and flexible visual fiducial system, IEEE-ICRA 2011).
Los sistemas anteriores se pueden usar para detectar una posición de instrumentos tales como herramientas rectas, rígidas, similares a agujas, incluyendo agujas, pistolas de biopsia, herramientas de ablación, etc. Por ejemplo, se proporciona un patrón binario no repetitivo en el instrumento que permite que el sistema rastree visualmente la punta del instrumento sin esta última ver directamente, estimando la distancia a la punta a partir de cualquier subsecuencia de patrón única observada. Tal sistema se describe en Solicitud de Patente de EE.UU. Número de Serie 14/092.843 de Stolka et al. La FIGURA 3A representa una aguja convencional sin ninguna marca utilizada en un procedimiento de intervención. En este ejemplo, el médico se basa en técnicas de formación de imágenes como el ultrasonido y la retroalimentación táctil para rastrear visualmente la punta de la aguja. La FIGURA 3B representa una aguja convencional que tiene un patrón binario no repetitivo en el eje de la aguja. En este ejemplo, el sistema rastrea la punta del instrumento sin ver esta última directamente estimando la distancia a la punta a partir de la subsecuencia del patrón único observado (por ejemplo, observado por la cámara del sistema).
La FIGURA 3C representa una configuración de aguja 10 que tiene un marcador o una etiqueta 12, según una realización de la presente descripción. El marcador o etiqueta 12 se denomina en la presente memoria "TipTag" en el sentido de que, aunque no está ubicado en la punta 10A del instrumento (por ejemplo, la aguja), el marcador o etiqueta 12 permite rastrear la punta 10A de la aguja 10. En una realización, el marcador TipTag 12 está unido al eje 10B de la aguja 10 a una cierta distancia de la punta 10A. Esta configuración permite a los operadores habilitar el seguimiento de la punta en todos los instrumentos similares a agujas preexistentes. La localización de estos instrumentos se realiza no solo utilizando las propiedades geométricas de sus ejes, sino también las de los marcadores adjuntos que son visibles para la cámara o cámaras del sistema. El marcador TipTag 12 puede tener cualquier forma. Por ejemplo, como se muestra en la FIGURA 3C, el marcador TipTag 12 tiene forma cuadrada. Sin embargo, el marcador TipTag 12 puede tener cualquier forma poligonal (un triángulo, un cuadrado, un rectángulo, un pentágono, un hexágono, etc.) o una forma circular o elíptica o una forma más compleja.
En una realización, los marcadores TipTAG pueden incluir marcadores de un solo uso o de múltiples usos que se pueden unir de manera permanente o extraíble a un instrumento de intervención, tal como una aguja quirúrgica, una herramienta de biopsia, un laparoscopio, un dispositivo de ablación, etc. Aunque una aguja de tipo recta se representa en la FIGURA 3C, el instrumento de intervención puede ser una herramienta similar a una aguja recta, una aguja orientable, una aguja doblada o flexible y similares. Los marcadores TipTAG incluyen un elemento gráfico, como un patrón o imagen predeterminado, que se puede reconocer por el sistema que emplea el procesamiento de imágenes. En consecuencia, el marcador TipTAG puede servir como una etiqueta de identificación que se puede unir a los instrumentos de intervención para su seguimiento. Cada marcador TipTAG puede tener un elemento gráfico único que permite al sistema diferenciar dos o más marcadores TipTAG y, opcionalmente, obtener cierta información sobre los instrumentos de intervención que tienen marcadores TipTAG unidos a los mismos. El marcador TipTAG puede tener cualquier forma.
En funcionamiento, los marcadores TipTAG se pueden calibrar en una punta de instrumento utilizando el sistema. La FIGURA 4 representa algunos aspectos de un procedimiento de calibración para calibrar un sistema de procesamiento de imágenes para asociar el marcador TipTAG con las características dimensionales de la herramienta quirúrgica, según una realización de la presente descripción. En el paso 1, se une un marcador TipTAG 12 a un instrumento de intervención (por ejemplo, una aguja) 10. Por ejemplo, un operador puede unir uno o más marcadores TipTAG 12 (por ejemplo, dos marcadores TipTAG uno frente al otro), como se muestra en el cuadrante superior izquierdo de la FIGURA 4. En el paso 2, el sistema capta imágenes del instrumento de intervención 10 con el marcador TipTAG 12 adherido al mismo, como se muestra en el cuadrante superior derecho de la FIGURA 4. En el paso 3, el sistema identifica el marcador TipTAG 12, muestra una imagen o un video en tiempo real del marcador TipTAG 12 y un patrón o plantilla de forma generado. El patrón o plantilla de forma incluye un contorno del instrumento de intervención 10. En el paso 3, un operador mueve y ajusta el instrumento de intervención 10 para alinear una imagen del instrumento de intervención 10 con la plantilla generada, como se muestra en el cuadrante inferior izquierdo de la FIGURA 4. En el paso 4, se ajusta la longitud de la plantilla de modo que la longitud de la plantilla coincida sustancialmente con la longitud real de la herramienta de intervención 10. En el paso 4, el sistema adquiere la longitud ajustada del instrumento de intervención para que la longitud de la plantilla coincida sustancialmente con la longitud real del instrumento de intervención 10, como se muestra en el cuadrante inferior derecho de la FIGURA 4. Después de la calibración, el sistema asocia el marcador TipTAG 12 con características dimensionales del instrumento de intervención 10 y opcionalmente otros parámetros como tipo de aguja, marca, forma, diseño, color, etc.
En una realización, el procedimiento de calibración establece además la transformación geométrica de Seis Grados de Libertad (6-DoF) entre el eje del instrumento 10B y la punta del instrumento 10A, y el marcador o marcadores 12 adjuntos. Por ejemplo, para agujas rectas, no se puede observar/definir ninguna rotación de eje largo, pero para otras formas de eje del instrumento (por ejemplo, un eje curvo), se capturan 6 grados de libertad completos por la calibración anterior. El comportamiento deseado del sistema es la visualización en tiempo real del eje de la aguja 10B siempre que el eje 10B o parte del eje 10B esté visible y mostrar la punta de la aguja 10A 9 (o una representación de la punta de la aguja 10A) siempre que se observe un marcador TipTAG 12 adjunto.
La FIGURA 5 representa un sistema de visualización que muestra superposiciones de un instrumento seguido por la punta en cuatro visualizaciones diferentes: vistas de ultrasonido, CT, fusión y en 3D, según varias realizaciones de la presente descripción. El cuadrante superior izquierdo de la FIGURA 5 muestra una imagen de ultrasonido con dos líneas paralelas que representan el eje 10B de la herramienta de intervención (por ejemplo, una aguja) 10. El cuadrante superior derecho de la FIGURA 5 muestra una imagen de escaneo de CT con dos líneas paralelas que representan el eje 10B de la herramienta de intervención (por ejemplo, una aguja) 10. El cuadrante inferior izquierdo de la FIGURA 5 muestra una imagen de fusión (en la que las imágenes de escaneo de CT y ultrasonido se funden o fusionan) con dos líneas paralelas que representan el eje 10B de la herramienta de intervención (por ejemplo, aguja) 10. El cuadrante inferior derecho de la FIGURA 5 muestra una vista en 3D con una representación del eje 10B de la herramienta de intervención (por ejemplo, una aguja) 10.
En una realización, el instrumento de intervención etiquetado 10 etiquetado con el marcador TipTAG 12 se puede usar en cualquier sistema de formación de imágenes que use un sistema de cámara que esté configurado para adquirir una imagen de uno o más marcadores TipTAG 12. Como se puede entender, el uno o más marcadores TipTAG 12 se pueden colocar en varias ubicaciones del instrumento de intervención 10 de manera que la cámara sea capaz de captar una imagen de al menos uno de uno o más marcadores TipTAG durante la manipulación o la operación del instrumento de intervención 10 de modo que la punta 10A del instrumento de intervención 10 se pueda ubicar.
En una realización, se puede usar, por ejemplo, la localización de 6-DoF de marcadores basada en imágenes de cámara (Método A). Una descripción detallada de un ejemplo de tal sistema y método se puede encontrar en la Solicitud de Patente Número de Serie 14/689.849 de Stolka et al. En una realización, se puede implementar una estimación de la posición de la aguja basada en una cámara, por ejemplo, usando el sistema descrito en "Stolka et al., Navigation with Local Sensors in Handheld 3D Ultrasound: Initial in vivo Experience, SPIE MI 2011”, (Método B). En una realización, opcionalmente, también se puede emplear una estimación de la ubicación de la punta basada en la visión para una localización más precisa, o aproximadamente a través de la detección de discontinuidades a lo largo de la línea del eje del instrumento detectado (Método C).
En una realización, los siguientes componentes permiten determinar la calibración TipTAG deseada:
1. Determinar la posición del marcador de 6-DoF (seis grados de libertad) M 1.
2. Determinar la posición del eje y la punta del instrumento de 5-DoF (cinco grados de libertad) M_2 (directamente usando el Método C), o usando el Método B con una posible entrada correctiva manual (como se ilustra en la FIGURA 4, cuadrante inferior derecho). Establecer una orientación del eje largo arbitraria. 3. Determinar la calibración de marcador a punta TipTAG como M = M_2*inv(M_1).
En una realización, la calibración anterior se puede realizar en base a una n-tupla de imagen única (idealmente n>2 para simplificar el Método B). Aunque, bajo ciertas condiciones, esto también se puede realizar utilizando una configuración monocular, por ejemplo, como se describe en "Single-Camera Closed-Form Real-Time Needle Tracking for Ultrasound-Guided Needle Insertion" de Najafi et al., Ultrasound in Medicine & Biology 2015. Sin embargo, la integración de los resultados de este procedimiento desde múltiples ángulos de visión del mismo instrumento TipTAG (por ejemplo, promedio de transformación simple) puede mejorar la precisión y la confianza.
Cabe señalar que establecer una orientación de eje largo arbitraria puede ser apropiado solo para instrumentos rotacionalmente invariantes, tales como agujas rectas. Para otras formas de agujas, tales como agujas dobladas o asimétricas, instrumentos orientables u otros tipos de instrumentos alargados, la reconstrucción de forma directa de 6 DoF completo y la detección de la punta a lo largo de una forma reconstruida permiten un seguimiento del instrumento de 6 DoF completo.
Esta reconstrucción se puede implementar usando visión n-ocular (para n>2) y seguimiento continuo de la disparidad a lo largo del eje en 3D detectado, por ejemplo, haciendo crecer la región de la forma lineal detectada más larga que se extiende desde el marcador detectado. Además, los cambios de forma dinámicos, por ejemplo, para instrumentos orientables, cánulas extensibles, etc., se pueden integrar en el enfoque de seguimiento de 6 DoF si estos cambios de forma se pueden modelar en relación con la forma reconstruida inicial en base a las características observables del instrumento u otras entradas del sistema externo, tales como información de control de instrumentos.
En una realización, si ocurre un problema en donde el sistema no es capaz de determinar la ubicación de la punta 10A del instrumento 10 ya que el marcador 12 no es (o todavía no, dependiendo de la profundidad de inserción) visible en ningún cono de visualización de la cámara, entonces, el sistema puede volver a la localización normal de instrumentos, es decir, sin seguimiento de puntas, como un método "a prueba de fallos". Para evitar esta potencial pérdida de información de intervención, los tipos de instrumentos se pueden combinar, por ejemplo, colocando el marcador TipTAG 12 en un instrumento que tenga un patrón binario no repetitivo en el eje del instrumento. Esto se puede lograr aplicando el marcador TipTAG 12 al instrumento de intervención (por ejemplo, una aguja), mostrado en la FIGURA 3B, que tiene el patrón binario no repetitivo en el eje. Esto permite un seguimiento continuo del instrumento y la punta durante todo el paso (típicamente hacia abajo) a través de los conos de visualización de la cámara. Por ejemplo, durante la secuencia en donde solo el eje es visible, el eje y el marcador TipTAG son visibles, solo el segmento corto del eje y el marcador TipTAG son visibles, y solo el marcador es visible.
En una realización, un enfoque de aprendizaje del patrón del eje también se puede combinar con la aplicación de un marcador TipTAG para mejorar la localización de la punta siempre que se pueda observar el marcador, independientemente de la visibilidad de cualquier patrón del eje. Por ejemplo, esto se puede emplear en el seguimiento de un instrumento cuyo eje tiene solo un patrón subóptimo, tal como por ejemplo anillos de 1/1/1/1/5/1/1/1/1/10/... cm u otras marcas semiirregulares. En este ejemplo, el patrón no es repetitivo, de modo que cualquier subsecuencia no despreciable sea única, pero puede que no lo sean muchas subsecuencias de longitud considerable (es decir, son idénticas entre sí, por ejemplo, las instancias de repetición de "1/1/1/1"). Estas marcas semiirregulares menores todavía se pueden usar para casi localizar la punta del instrumento a lo largo de un eje hasta ciertos grupos de equivalencia. Estos grupos de equivalencia contienen "hipótesis de ubicación de la punta" y dependen del patrón subyacente y la subsecuencia realmente observada. Por ejemplo, observar "1/1/1" del patrón anterior puede indicar la presencia de la punta 1,2, 6 o 7 unidades a la izquierda. Mientras que la observación de "5" localiza únicamente la punta 5 unidades a la izquierda. El patrón observado se puede correlacionar por fuerza bruta con las marcas semiirregulares para producir casi localizaciones de punta siempre que coincida. Las marcas semiirregulares en sí mismas pueden ser conocidas a priori como un patrón binario no repetitivo, o se puede aprender por el sistema a través de observaciones de cámara análogas al método de calibración TipTAG.
Ejemplo: Realidad Aumentada Monocular y Multimodalidad (MOAMMAR): El método de seguimiento de instrumentos TipTAG permite una localización de instrumentos monoculares fiable y precisa, sin requisitos adicionales en cuanto a las propiedades o posturas de los instrumentos. Por ejemplo, una variación del sistema de formación de imágenes (por ejemplo, el sistema de formación de imágenes CLEARGUIDE) puede fundir video monocular en tiempo real y superposiciones generadas a partir de datos de escaneo de CT preoperatorios (tales como huesos segmentados o cortes ortogonales a través de las ubicaciones objetivo mostradas en las FIGS. 6A y 6B) en una vista de realidad aumentada (AR). Esto se puede implementar en un factor de forma de mano, tal como una tableta con cámara integrada, como se muestra en la FIGURA 6A.
La FIGURA 6A representa un sistema informático de mano que usa visión monocular para crear superposiciones de Realidad Aumentada (AR) de datos de escaneo de CT con la posición del instrumento a partir de video monocular en tiempo real, según una realización de la presente invención. Por ejemplo, los instrumentos TipTAG se pueden localizar con precisión y superponer en una vista de cámara. Sus posturas también pueden servir para decidir qué datos de imagen usar para generar las superposiciones de imágenes estáticas, más precisamente para determinar el corte o la vista direccional para extraer de un volumen de imagen estática. Por ejemplo, se puede extraer y superponer un corte de CT variable que contiene simultáneamente un objetivo dado y el eje del instrumento rastreado. Si bien este escenario monocular está habilitado en particular por el enfoque de marcador de instrumento TipTAG, el cabezal de cámara estéreo descrito anteriormente también se puede usar en otras realizaciones.
La FIGURA 6B representa una vista de pantalla que incluye una imagen adicional, seguimiento de instrumentos y puntas, y características del objetivo, según una realización de la presente descripción. La posición de una representación del eje del instrumento 10B y la punta 10A del instrumento 10, obtenida utilizando el enfoque de marcador de instrumento TipTAG anterior, se superponen en la parte superior de una imagen de los datos de escaneo de CT.
Como se puede apreciar a partir de los párrafos anteriores, se proporciona un sistema quirúrgico guiado por imágenes. El sistema quirúrgico guiado por imágenes incluye un marcador que se puede unir y retirar de una herramienta quirúrgica alargada que tiene un eje, tal como, pero no limitado a, una aguja, y al menos una cámara. El sistema quirúrgico guiado por imágenes incluye además un sistema de procesamiento de imágenes en comunicación con la cámara configurado para obtener una imagen de la herramienta quirúrgica que incluye el marcador. El sistema quirúrgico guiado por imágenes también incluye un dispositivo de visualización en comunicación con el sistema de procesamiento de imágenes. El dispositivo de visualización está configurado para mostrar la imagen de la herramienta quirúrgica incluyendo el marcador. El sistema de procesamiento de imágenes está configurado para operar en un modo de calibración para generar una plantilla y mostrar la plantilla en el dispositivo de visualización y recibir una entrada del usuario, después de que la imagen de la herramienta quirúrgica esté alineada con la plantilla, para ajustar una longitud de la plantilla para hacer coincidir sustancialmente con una longitud de la herramienta quirúrgica. El sistema quirúrgico guiado por imágenes incluye además un dispositivo de almacenamiento en comunicación con el sistema de procesamiento de imágenes. El dispositivo de almacenamiento está configurado para almacenar información de calibración que asocia una posición del marcador con una posición de la punta del eje de la herramienta quirúrgica en base a la longitud ajustada de la plantilla.
En una realización, el sistema de procesamiento de imágenes, una vez calibrado, se configura, en un modo operativo, para determinar la posición de una punta del eje de la herramienta quirúrgica en base a una imagen captada del marcador y utilizando la información de calibración almacenada. En una realización, el eje de la herramienta quirúrgica que incluye la punta se muestra en el dispositivo de visualización como una imagen ficticia superpuesta a una imagen médica, en donde la posición de la punta se determina en base a la imagen captada del marcador. En una realización, la imagen médica incluye una imagen de escaneo de CT, una imagen de ultrasonido, una representación en 3D del cuerpo de un paciente o una combinación de las mismas.
En una realización, el sistema de procesamiento de imágenes está configurado para construir la imagen ficticia de la herramienta quirúrgica en base a las imágenes captadas de la herramienta quirúrgica y en base a información posicional de seis grados de libertad de la herramienta quirúrgica y la posición del marcador. En una realización, el sistema de procesamiento de imágenes está configurado además para superponer la imagen ficticia construida de la herramienta quirúrgica en una imagen médica en tiempo real de un paciente para permitir que un usuario rastree una posición de al menos la punta del eje cuando se inserta en el paciente.
En una realización, el marcador tiene codificado en él un tipo de herramienta quirúrgica, marca de la herramienta quirúrgica, forma de la herramienta quirúrgica, diseño de la herramienta quirúrgica, color de la herramienta quirúrgica o cualquier combinación de los mismos. El marcador también puede incluir elementos gráficos únicos, patrones, símbolos o formas que diferencian el marcador de otros marcadores.
En una realización, la herramienta quirúrgica puede ser, por ejemplo, una aguja u otra herramienta quirúrgica alargada. El marcador se puede acoplar o retirar de un eje de la aguja. En una realización, el eje de la aguja comprende un patrón (por ejemplo, como se muestra en la FIGURA 3B).
En una realización, el sistema quirúrgico guiado por imágenes puede incluir una pluralidad de marcadores, cada uno de los cuales que tiene distintos elementos gráficos, patrones, símbolos o formas (tales como los marcadores mostrados en la FIGURA 4, cuadrante superior izquierdo) y configurados para ser unidos a la herramienta quirúrgica alargada en diferentes ubicaciones. Por ejemplo, la pluralidad de marcadores se puede colocar en diferentes ubicaciones de la herramienta quirúrgica alargada de modo que una o más cámaras puedan captar al menos uno de la pluralidad de marcadores cuando la herramienta quirúrgica alargada se utiliza por un médico durante una operación médica.
La descripción detallada anterior de realizaciones incluye referencias a los dibujos o figuras, que muestran ilustraciones de acuerdo con realizaciones de ejemplo. Las realizaciones descritas en la presente memoria se pueden combinar, se pueden utilizar otras realizaciones o se pueden realizar cambios estructurales, lógicos y operativos sin apartarse del alcance de lo que se reivindica. La descripción detallada anterior, por lo tanto, no debe tomarse en un sentido limitativo, y el alcance está definido por las reivindicaciones adjuntas. Debería ser evidente que se pueden realizar diversas modificaciones y cambios en estas realizaciones sin apartarse del alcance de la presente descripción. En consecuencia, la memoria descriptiva y los dibujos deben considerarse en un sentido ilustrativo más que restrictivo.
Las presentes enseñanzas se pueden implementar usando una variedad de tecnologías. Por ejemplo, ciertos aspectos de esta invención se pueden implementar utilizando hardware electrónico, software de ordenador o cualquier combinación de los mismos. Que tales elementos se implementen como hardware o software depende de la aplicación particular y las restricciones de diseño impuestas en el sistema general. A modo de ejemplo, el hardware electrónico, o cualquier parte del hardware electrónico, se puede implementar con un sistema de procesamiento que incluye uno o más procesadores. Los ejemplos de procesadores incluyen microprocesadores, microcontroladores, Unidades de Procesamiento Central (CPU), procesadores de señales digitales (DSP), disposiciones de puertas programables en campo (FPGA), dispositivos lógicos programables (PLD), máquinas de estado, lógica de puerta, circuitos de hardware discretos y otro hardware adecuado configurado para realizar varias funciones descritas a lo largo de esta descripción. Uno o más procesadores en el sistema de procesamiento pueden ejecutar software, microprograma o software intermedio (a los que se hace referencia colectivamente como "software"). El término "software" se interpretará en sentido amplio para referirse a instrucciones, conjuntos de instrucciones, código, segmentos de código, código de programa, programas, subprogramas, componentes de software, aplicaciones, aplicaciones de software, paquetes de software, rutinas, subrutinas, objetos, ejecutables, hilos de ejecución, procedimientos, funciones, etc., ya sea que se haga referencia a ellos como software, microprograma, software intermedio, microcódigo, lenguaje de descripción de hardware u otros. En ciertas realizaciones, el hardware electrónico también puede incluir circuitos integrados de aplicaciones específicas (ASIC) diseñados, dispositivos lógicos programables o varias combinaciones de los mismos. El sistema de procesamiento puede referirse a un ordenador (por ejemplo, un ordenador de escritorio, una tableta, un ordenador portátil), un teléfono celular, un teléfono inteligente, etc. El sistema de procesamiento también puede incluir uno o más dispositivos de entrada, uno o más dispositivos de salida (por ejemplo, una pantalla), memoria, interfaz de red, etc.
Si ciertas funciones descritas en la presente memoria se implementan en software, las funciones se pueden almacenar o codificar como una o más instrucciones o código en un medio legible por ordenador no transitorio. Los medios legibles por ordenador incluyen medios de almacenamiento de ordenador. Los medios de almacenamiento pueden ser cualquier medio disponible al que se pueda acceder por un ordenador. A modo de ejemplo, y no de limitación, tales medios legibles por ordenador pueden comprender una memoria de acceso aleatorio (RAM), una memoria de solo lectura (ROM), una ROM programable borrable eléctricamente (EEPROM), una ROM de disco compacto (CD-ROM) u otro almacenamiento en disco óptico, almacenamiento en disco magnético, memoria de estado sólido o cualquier otro dispositivo de almacenamiento de datos, combinaciones de los tipos de medios legibles por ordenador antes mencionados, o cualquier otro medio que se pueda usar para almacenar código ejecutable de ordenador en forma de instrucciones o estructuras de datos a las que se puede acceder por un ordenador.
Con los propósitos de este documento de patente, los términos "o" e "y" significarán "y/o" a menos que se indique lo contrario o se pretenda claramente lo contrario en el contexto de su uso. El término "un” o “una" significará "uno o más" a menos que se indique lo contrario o cuando el uso de "uno o más" sea claramente inapropiado. Los términos "comprende", "que comprende", "incluye" y "que incluye" son intercambiables y no pretenden ser limitativos. Por ejemplo, el término "incluyendo" se interpretará en el sentido de "incluyendo, pero no limitado a".
Aunque se han descrito realizaciones con referencia a realizaciones de ejemplo específicas, será evidente que se pueden realizar diversas modificaciones y cambios en estas realizaciones de ejemplo sin apartarse del alcance de la presente solicitud. En consecuencia, la memoria descriptiva y los dibujos deben considerarse en un sentido ilustrativo y no restrictivo.

Claims (13)

REIVINDICACIONES
1. Un sistema quirúrgico guiado por imágenes que comprende:
un marcador (12) que se puede unir y retirar de una herramienta quirúrgica alargada (10) que tiene un eje (10B), dicho eje que comprende una punta (10A);
al menos una cámara;
un sistema de procesamiento de imágenes en comunicación con la cámara configurado para obtener una imagen de la herramienta quirúrgica incluyendo el marcador;
un dispositivo de visualización en comunicación con el sistema de procesamiento de imágenes, el dispositivo de visualización que está configurado para mostrar la imagen de la herramienta quirúrgica incluyendo el marcador,
en donde el sistema de procesamiento de imágenes está configurado para operar en un modo de calibración para generar una plantilla y mostrar la plantilla en el dispositivo de visualización y para recibir una entrada del usuario, después de que la imagen de la herramienta quirúrgica esté alineada con la plantilla, para ajustar una longitud de la plantilla para hacer coincidir sustancialmente con una longitud de la herramienta quirúrgica; y
un dispositivo de almacenamiento en comunicación con el sistema de procesamiento de imágenes, el dispositivo de almacenamiento que está configurado para almacenar información de calibración que asocia una posición del marcador con una posición de la punta del eje de la herramienta quirúrgica en base a la longitud ajustada de la plantilla.
2. El sistema según la reivindicación 1, en donde el sistema de procesamiento de imágenes, una vez calibrado, está configurado, en un modo operativo, para determinar la posición de la punta del eje de la herramienta quirúrgica en base a una imagen captada del marcador y utilizando la información de calibración almacenada.
3. El sistema según la reivindicación 2, en donde el eje de la herramienta quirúrgica incluyendo la punta se muestra en el dispositivo de visualización como una imagen fantasma superpuesta a una imagen médica, en donde la posición de la punta se determina en base a la imagen captada del marcador.
4. El sistema según la reivindicación 3, en donde la imagen médica incluye una imagen de escaneo de CT, una imagen de ultrasonido o una combinación de las mismas.
5. El sistema según la reivindicación 3, en donde la imagen médica incluye una representación en 3D del cuerpo de un paciente.
6. El sistema según la reivindicación 3, en donde el sistema de procesamiento de imágenes está configurado para construir la imagen ficticia de la herramienta quirúrgica en base a las imágenes captadas de la herramienta quirúrgica y en base a información posicional de seis grados de libertad de la herramienta quirúrgica y la posición del marcador.
7. El sistema según la reivindicación 6, en donde el sistema de procesamiento de imágenes está configurado además para superponer la imagen ficticia construida de la herramienta quirúrgica sobre una imagen médica en tiempo real de un paciente para permitir que un usuario rastree la posición de al menos la punta del eje cuando se inserta en el paciente.
8. El sistema según la reivindicación 1, en donde el marcador tiene codificado en el mismo un tipo de herramienta quirúrgica, marca de la herramienta quirúrgica, forma de la herramienta quirúrgica, diseño de la herramienta quirúrgica, color de la herramienta quirúrgica o cualquier combinación de los mismos.
9. El sistema según la reivindicación 1, en donde el marcador incluye elementos gráficos, patrones, símbolos o formas únicos que diferencian el marcador de otros marcadores.
10. El sistema según la reivindicación 1, en donde el sistema comprende además la herramienta quirúrgica y en donde la herramienta quirúrgica es una aguja.
11. El sistema según la reivindicación 10, en el que el marcador se puede unir o retirar de un eje de la aguja.
12. El sistema según la reivindicación 11, en donde el eje de la aguja comprende un patrón.
13. El sistema según la reivindicación 1, que comprende además una pluralidad de marcadores, cada uno de los cuales que tiene distintos elementos gráficos, patrones, símbolos o formas y que está configurado para unirse a la herramienta quirúrgica alargada en diferentes ubicaciones.
ES17874334T 2016-11-23 2017-11-21 Sistema para navegación de instrumentos de intervención Active ES2912332T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662426050P 2016-11-23 2016-11-23
PCT/US2017/062881 WO2018098196A1 (en) 2016-11-23 2017-11-21 System and methods for navigating interventional instrumentation

Publications (1)

Publication Number Publication Date
ES2912332T3 true ES2912332T3 (es) 2022-05-25

Family

ID=62196109

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17874334T Active ES2912332T3 (es) 2016-11-23 2017-11-21 Sistema para navegación de instrumentos de intervención

Country Status (4)

Country Link
US (1) US11534243B2 (es)
EP (1) EP3544538B1 (es)
ES (1) ES2912332T3 (es)
WO (1) WO2018098196A1 (es)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110025379A (zh) * 2019-05-07 2019-07-19 新博医疗技术有限公司 一种超声图像与ct图像融合实时导航系统及方法
US20210121238A1 (en) * 2019-10-24 2021-04-29 Acclarent, Inc. Visualization system and method for ent procedures
CN112489135B (zh) * 2020-11-27 2024-04-19 深圳市深图医学影像设备有限公司 一种虚拟三维人脸面部重建系统的标定方法
WO2022125715A1 (en) * 2020-12-08 2022-06-16 The Regents Of The University Of Colorado, A Body Corporate Needle guidance system
US12011323B1 (en) * 2021-03-28 2024-06-18 Clear Guide Medical, Inc. Multi-modal fiducial marker
CN113509264A (zh) * 2021-04-01 2021-10-19 上海复拓知达医疗科技有限公司 一种基于校正物体在空间中位置的增强现实系统、方法及计算机可读存储介质
US20230100989A1 (en) * 2021-09-29 2023-03-30 Cilag Gmbh International Surgical devices, systems, and methods using fiducial identification and tracking

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5836869A (en) * 1994-12-13 1998-11-17 Olympus Optical Co., Ltd. Image tracking endoscope system
JPH08164148A (ja) * 1994-12-13 1996-06-25 Olympus Optical Co Ltd 内視鏡下手術装置
KR19990029038A (ko) * 1995-07-16 1999-04-15 요아브 빨띠에리 바늘 도자의 자유로운 조준
US6584339B2 (en) * 2001-06-27 2003-06-24 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
JP2003126093A (ja) * 2001-10-23 2003-05-07 Olympus Optical Co Ltd 超音波診断装置
US6947786B2 (en) * 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
AU2003231885B2 (en) 2002-05-10 2008-12-18 Cae Healthcare Inc. "A surgical training simulator"
US8123691B2 (en) * 2003-08-19 2012-02-28 Kabushiki Kaisha Toshiba Ultrasonic diagnostic apparatus for fixedly displaying a puncture probe during 2D imaging
US20050085717A1 (en) * 2003-10-21 2005-04-21 Ramin Shahidi Systems and methods for intraoperative targetting
US20080015664A1 (en) * 2004-10-06 2008-01-17 Podhajsky Ronald J Systems and methods for thermally profiling radiofrequency electrodes
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
US9526587B2 (en) * 2008-12-31 2016-12-27 Intuitive Surgical Operations, Inc. Fiducial marker design and detection for locating surgical instrument in images
US8073528B2 (en) * 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
US8022990B2 (en) * 2006-08-18 2011-09-20 General Electric Company Systems and methods for on-line marker-less camera calibration using a position tracking system
US9456766B2 (en) * 2007-11-26 2016-10-04 C. R. Bard, Inc. Apparatus for use with needle insertion guidance system
JP5569711B2 (ja) * 2009-03-01 2014-08-13 国立大学法人浜松医科大学 手術支援システム
US9895135B2 (en) * 2009-05-20 2018-02-20 Analogic Canada Corporation Freehand ultrasound imaging systems and methods providing position quality feedback
WO2011150358A1 (en) * 2010-05-28 2011-12-01 C.R. Bard, Inc. Insertion guidance system for needles and medical components
US20190380794A1 (en) * 2012-06-21 2019-12-19 Globus Medical, Inc. Surgical robotic automation with tracking markers
US20190388161A1 (en) * 2012-06-21 2019-12-26 Globus Medical, Inc. Surgical robotic automation with tracking markers
US20180325610A1 (en) * 2012-06-21 2018-11-15 Globus Medical, Inc. Methods for indicating and confirming a point of interest using surgical navigation systems
US9636083B2 (en) * 2012-07-17 2017-05-02 The Johns Hopkins University High quality closed-loop ultrasound imaging system
JP6282934B2 (ja) * 2013-06-11 2018-02-21 キヤノンメディカルシステムズ株式会社 超音波診断装置及び医用画像診断装置
US8880151B1 (en) * 2013-11-27 2014-11-04 Clear Guide Medical, Llc Surgical needle for a surgical system with optical recognition
JP6305810B2 (ja) * 2014-03-31 2018-04-04 キヤノンメディカルシステムズ株式会社 医用画像診断装置
JP6294255B2 (ja) * 2015-03-25 2018-03-14 富士フイルム株式会社 内視鏡診断装置、画像処理方法、プログラムおよび記録媒体
JP6266559B2 (ja) * 2015-03-31 2018-01-24 富士フイルム株式会社 内視鏡診断装置、画像処理方法、プログラムおよび記録媒体
US9436993B1 (en) * 2015-04-17 2016-09-06 Clear Guide Medical, Inc System and method for fused image based navigation with late marker placement
EP3513704B1 (en) * 2016-09-15 2021-04-28 FUJIFILM Corporation Endoscope system
CN109715071B (zh) * 2016-09-16 2022-08-02 皇家飞利浦有限公司 用于检测介入工具的装置和方法

Also Published As

Publication number Publication date
EP3544538A4 (en) 2020-07-08
US20190374290A1 (en) 2019-12-12
EP3544538B1 (en) 2022-01-05
EP3544538A1 (en) 2019-10-02
WO2018098196A1 (en) 2018-05-31
US11534243B2 (en) 2022-12-27

Similar Documents

Publication Publication Date Title
ES2912332T3 (es) Sistema para navegación de instrumentos de intervención
US11931117B2 (en) Surgical guidance intersection display
US11717376B2 (en) System and method for dynamic validation, correction of registration misalignment for surgical navigation between the real and virtual images
US20230384734A1 (en) Method and system for displaying holographic images within a real object
US11464578B2 (en) Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US11819292B2 (en) Methods and systems for providing visuospatial information
US10390890B2 (en) Navigational feedback for intraoperative waypoint
US9901406B2 (en) Affected region display associated with a medical device
US20180289344A1 (en) Multiple medical device guidance
BR102018077046A2 (pt) Uso de realidade aumentada para ajudar na navegação durante procedimentos médicos
US20170024903A1 (en) Medical device approaches
US20110105895A1 (en) Guided surgery
US20140243658A1 (en) Computer-Implemented Technique for Calculating a Position of a Surgical Device
US20130218024A1 (en) Interventional In-Situ Image-Guidance by Fusing Ultrasound and Video
JP2020522827A (ja) 外科ナビゲーションにおける拡張現実の使用
Edgcumbe et al. Augmented reality imaging for robot-assisted partial nephrectomy surgery
CN111466935B (zh) 医学成像设备、用于支持医务人员的方法和存储介质
CN106175931B (zh) 荧光镜视场的标记
Sauer et al. Augmented reality system for ct-guided interventions: System description and initial phantom trials