ES2992065T3 - Sistemas de aumento sensorial en procedimientos médicos - Google Patents
Sistemas de aumento sensorial en procedimientos médicos Download PDFInfo
- Publication number
- ES2992065T3 ES2992065T3 ES18707216T ES18707216T ES2992065T3 ES 2992065 T3 ES2992065 T3 ES 2992065T3 ES 18707216 T ES18707216 T ES 18707216T ES 18707216 T ES18707216 T ES 18707216T ES 2992065 T3 ES2992065 T3 ES 2992065T3
- Authority
- ES
- Spain
- Prior art keywords
- user
- virtual
- display device
- surgical
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/98—Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/02—Prostheses implantable into the body
- A61F2/30—Joints
- A61F2/46—Special tools for implanting artificial joints
- A61F2/4603—Special tools for implanting artificial joints for insertion or extraction of endoprosthetic joints or of accessories thereof
- A61F2/4606—Special tools for implanting artificial joints for insertion or extraction of endoprosthetic joints or of accessories thereof of wrists or ankles; of hands, e.g. fingers; of feet, e.g. toes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/02—Prostheses implantable into the body
- A61F2/30—Joints
- A61F2/46—Special tools for implanting artificial joints
- A61F2/4603—Special tools for implanting artificial joints for insertion or extraction of endoprosthetic joints or of accessories thereof
- A61F2/4607—Special tools for implanting artificial joints for insertion or extraction of endoprosthetic joints or of accessories thereof of hip femoral endoprostheses
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/02—Prostheses implantable into the body
- A61F2/30—Joints
- A61F2/46—Special tools for implanting artificial joints
- A61F2/4603—Special tools for implanting artificial joints for insertion or extraction of endoprosthetic joints or of accessories thereof
- A61F2/4609—Special tools for implanting artificial joints for insertion or extraction of endoprosthetic joints or of accessories thereof of acetabular cups
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/02—Prostheses implantable into the body
- A61F2/30—Joints
- A61F2/46—Special tools for implanting artificial joints
- A61F2/4603—Special tools for implanting artificial joints for insertion or extraction of endoprosthetic joints or of accessories thereof
- A61F2/461—Special tools for implanting artificial joints for insertion or extraction of endoprosthetic joints or of accessories thereof of knees
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/02—Prostheses implantable into the body
- A61F2/30—Joints
- A61F2/46—Special tools for implanting artificial joints
- A61F2/4603—Special tools for implanting artificial joints for insertion or extraction of endoprosthetic joints or of accessories thereof
- A61F2/4612—Special tools for implanting artificial joints for insertion or extraction of endoprosthetic joints or of accessories thereof of shoulders
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating three-dimensional [3D] models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B17/14—Surgical saws
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B17/14—Surgical saws
- A61B17/15—Guides therefor
- A61B17/154—Guides therefor for preparing bone for knee prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B17/16—Instruments for performing osteoclasis; Drills or chisels for bones; Trepans
- A61B17/1662—Instruments for performing osteoclasis; Drills or chisels for bones; Trepans for particular parts of the body
- A61B17/1664—Instruments for performing osteoclasis; Drills or chisels for bones; Trepans for particular parts of the body for the hip
- A61B17/1666—Instruments for performing osteoclasis; Drills or chisels for bones; Trepans for particular parts of the body for the hip for the acetabulum
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B17/16—Instruments for performing osteoclasis; Drills or chisels for bones; Trepans
- A61B17/1662—Instruments for performing osteoclasis; Drills or chisels for bones; Trepans for particular parts of the body
- A61B17/1671—Instruments for performing osteoclasis; Drills or chisels for bones; Trepans for particular parts of the body for the spine
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
- A61B2017/00119—Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00203—Electrical control of surgical instruments with speech control or speech recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00216—Electrical control of surgical instruments with eye tracking or head position tracking control
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00221—Electrical control of surgical instruments with wireless transmission of data, e.g. by infrared radiation or radiowaves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/363—Use of fiducial points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3966—Radiopaque markers visible in an X-ray image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Transplantation (AREA)
- Orthopedic Medicine & Surgery (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Optics & Photonics (AREA)
- Cardiology (AREA)
- Physical Education & Sports Medicine (AREA)
- Vascular Medicine (AREA)
- Pathology (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Electromagnetism (AREA)
- User Interface Of Digital Computer (AREA)
- Surgical Instruments (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
La presente invención proporciona un sistema de navegación quirúrgica de realidad mixta (10) para ser usado por un usuario (106) durante un procedimiento quirúrgico que comprende: un dispositivo de visualización (104), para ser usado por un usuario (106) durante un procedimiento quirúrgico, que comprende una unidad de procesador (102), un generador de visualización (204), un conjunto de sensores (210) que tiene al menos una cámara (206) o un sensor de profundidad en donde la unidad de procesamiento (102) crea un mapa de superficie de referencia (5804) de una superficie expuesta (5806) de un objeto anatómico (4204) con datos recibidos del conjunto de sensores (210); la unidad de procesamiento (102) establece un marco de referencia (5810) relativo al conjunto de sensores (210) para el mapa de superficie de referencia (5804); la orientación del marco de referencia (5810) se establece creando mapas de superficie adicionales (5834) de otras características anatómicas (5824) del objeto anatómico (4204); La unidad de procesamiento (102) rastrea una pose del objeto anatómico (4204) en relación con el sistema (10) creando un mapa de superficie desplazada (5814) de la superficie expuesta (5806) y rotando y trasladando el mapa de superficie desplazada (5814) y el marco de referencia (5810) para lograr un mejor ajuste al mapa de superficie de referencia (5804). (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Sistemas de aumento sensorial en procedimientos médicos
Reivindicación de beneficio de la fecha de presentación
La presente solicitud es una continuación en parte de la Solicitud de los Estados Unidos número 15/674,749 presentada el 11 de agosto de 2017 y de la Solicitud del Tratado de Cooperación de Patente número PCT/US2017/046438 presentada el 11 de agosto de 2017, las cuales reivindican prioridad de la Solicitud Provisional de los Estados Unidos número de serie 60/375,483 titulada:“Systems and Methods of Sensory Augmentation in Medical Procedures",presentada el 16 de agosto de 2016; todas ellas referenciadas en el presente documento.
Campo de la invención
La presente invención se refiere a un novedoso sistema de visualización y aumento sensorial para el posicionamiento, la localización, y el conocimiento de la situación durante procedimientos médicos, incluidos, pero no limitado a, procedimientos quirúrgicos, diagnósticos, terapéuticos y anestésicos.
Información de antecedentes
Los procedimientos médicos actuales son realizados típicamente por un cirujano o profesional médico con poca o ninguna ayuda fuera de las herramientas requeridas para afectar cambios en el paciente. Por ejemplo, un cirujano ortopédico puede disponer de algunas herramientas de medición (por ejemplo, reglas o similares) y herramientas de corte (por ejemplo, sierras o taladros), pero no cuenta con asistencia visual, auditiva ni táctil para el cirujano. En otras palabras, el cirujano no ve nada más que lo que está operando, no oye nada más que las comunicaciones normales de los otros participantes en el quirófano, y no siente nada fuera de la retroalimentación normal al agarrar las herramientas u otros elementos de interés en el procedimiento. Alternativamente, se utilizan sistemas robóticos o de navegación de tipo consola grande en los cuales la pantalla y las cámaras están situadas fuera del campo estéril, lejos del cirujano. Estos requieren que el cirujano desplace repetidamente su mirada entre la zona quirúrgica y la pantalla bidimensional. Además, la ubicación remota de las cámaras introduce problemas de línea de visión cuando las cortinas, el personal o los instrumentos obstruyen la visión de la cámara de los marcadores en el campo estéril y el punto de observación de la cámara no se presta para obtener imágenes dentro de la herida. Los registros anatómicos se realizan típicamente utilizando un estilete con marcadores para sondear de tal manera que los marcadores sean visibles para las cámaras. Los ejemplos de sistemas conocidos en la técnica son aquellos divulgados en los documentos US2013/237811A1, WO2015/192117A1, WO2006/079211A1, y WO2005/088539A2.
El documento US 2013/237811 divulga un transductor de ultrasonidos que comparte una carcasa con un sistema de cámara de visión artificial. La cámara integrada visualiza un objeto, tal como el cuerpo de un paciente, y determina la posición x, y, z del transductor de ultrasonidos en el espacio y la orientación de cabeceo, guiñada y balanceo con respecto al objeto.
El documento WO 2017/185170 divulga sistemas y procedimientos para generar un escaneado superficial 3D de un perfil de superficie de la anatomía de un paciente. El escaneado de la superficie en 3D puede generarse mediante reflexiones de la luz estructurada en el perfil de la superficie de la anatomía. El escaneado 3D de la superficie se puede utilizar durante la navegación quirúrgica intraoperatoria mediante un sistema de localización. Opcionalmente, también puede registrarse una imagen médica preoperatoria en el sistema de localización o utilizarse para mejorar el escaneado 3D de la superficie.
Sumario de la invención
La presente invención proporciona un sistema de navegación quirúrgica para el seguimiento de estructuras anatómicas sin marcadores fiduciales fijados a una anatomía como se describe en la reivindicación 1. Las características opcionales de la invención se enumeran en las reivindicaciones 2 a 9.
Breve descripción de los dibujos
Algunas realizaciones de la presente invención se ilustran a modo de ejemplo y no están limitadas por las figuras de los dibujos adjuntos, en los cuales referencias similares pueden indicar elementos similares y en los cuales:
La Figura 1 es una representación diagramática de un sistema de aumento de acuerdo con los principios de la presente invención;
La Figura 2A muestra una vista frontal en perspectiva de una representación diagramática de un dispositivo de visualización del sistema de la Figura 1;
La Figura 2B muestra una vista posterior en perspectiva del dispositivo de visualización de la Figura 2A;
La Figura 3 es una representación diagramática de otra realización del dispositivo de visualización del sistema de la Figura 1;
La Figura 4 es una vista esquemática de la configuración del hardware eléctrico del sistema de la Figura 1;
La Figura 5 es una representación diagramática de los marcadores y cámaras del sistema de la Figura 1;
La Figura 6 es una representación diagramática de una imagen de interfaz de usuario de realidad mixta (“MXUI”) proporcionada por el sistema de la Figura 1 durante el posicionamiento de una cubierta acetabular en un procedimiento de reemplazo de cadera que muestra una pelvis virtual;
La Figura 7 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante el posicionamiento de una cubierta acetabular en un procedimiento de reemplazo de cadera que muestra una pelvis virtual y un impactador acetabular virtual;
La Figura 8 es un diagrama de flujo que muestra los procedimientos operativos del sistema de la Figura 1 durante un procedimiento médico;
La Figura 9 es un diagrama de flujo que muestra un procedimiento de utilización del sistema de la Figura 1 para realizar un procedimiento de reemplazo de cadera no conforme con los principios de la presente invención;
La Figura 10 es un diagrama de flujo que muestra un procedimiento de utilización del sistema de la Figura 1 para realizar un procedimiento médico general no conforme con los principios de la presente invención;
La Figura 11 muestra una vista en perspectiva de una representación diagramática de un conjunto impactador de cadera que incluye una cubierta acetabular y un marcador óptico no conforme con los principios de la presente invención;
La Figura 12 muestra una vista en despiece del conjunto del impactador de cadera que se muestra en la Figura 11;
La Figura 13A muestra una vista en perspectiva de una representación diagramática de un conjunto marcador anatómico no conforme con los principios de la presente invención;
La Figura 13B muestra una vista en perspectiva de un conjunto de pinza del marcador anatómico que se muestra en la Figura 13A;
La Figura 14 muestra una vista en despiece del ensamblaje del marcador anatómico que se muestra en la Figura 13A;
La Figura 15 muestra una vista en perspectiva de una representación diagramática de un conjunto de calibración no conforme con los principios de la presente invención;
La Figura 16 muestra una vista frontal en despiece del conjunto de calibración que se muestra en la Figura 15;
La Figura 17 muestra una vista posterior en despiece del conjunto de calibración que se muestra en la Figura 16;
La Figura 18 muestra una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante diversas etapas de calibración;
La Figura 19 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante la etapa de registro pélvico de un procedimiento de reemplazo de cadera; La Figura 20 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante la inserción de un pasador en la pelvis de un procedimiento de reemplazo de cadera; La Figura 21 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante la etapa de registro pélvico de un procedimiento de reemplazo de cadera;
La Figura 22 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante una etapa de registro femoral de un procedimiento de reemplazo de cadera;
La Figura 23 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante la resección del cuello femoral en un procedimiento de reemplazo de cadera;
La Figura 24 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante el posicionamiento de una cubierta acetabular en un procedimiento de reemplazo de cadera;
La Figura 25 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante el posicionamiento de una cubierta acetabular en un procedimiento de reemplazo de cadera;
La Figura 26 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante el reposicionamiento del fémur en un procedimiento de reemplazo de cadera; La Figura 27 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 utilizando un brazo en C durante un procedimiento de reemplazo de cadera;
La Figura 28 es un diagrama de flujo que muestra cómo el sistema de la Figura 1 se puede utilizar junto con un brazo en C en un procedimiento quirúrgico no conforme con los principios de la presente invención;
La Figura 29 muestra una vista frontal de una representación diagramática de una etiqueta de identificación y seguimiento de equipos no conforme con los principios de la presente invención; La Figura 30 es un diagrama de flujo de un procedimiento para registrar, compartir y seguir equipos médicos utilizando el sistema de la Figura 1 no conforme con los principios de la presente invención; La Figura 31 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante el registro de una columna vertebral con una sonda de ultrasonidos en un procedimiento de fusión espinal;
La Figura 32 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante el registro de una columna vertebral con un estilete en un procedimiento abierto de fusión espinal;
La Figura 33 es una vista frontal en primer plano de la porción de exposición quirúrgica de la Figura 32;
La Figura 34 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante la perforación de un pedículo en un procedimiento de fusión espinal;
La Figura 35 es una vista en primer plano de la porción de taladro y objetivo virtual de la Figura 34; La Figura 36A muestra una vista frontal en perspectiva de una representación diagramática de un usuario que lleva un casco de AR del sistema de la Figura 1;
La Figura 36B muestra una vista posterior en perspectiva de una representación diagramática de un usuario que lleva un casco de AR del sistema de la Figura 1 que tiene una pantalla facial protectora; La Figura 37A es una vista frontal en perspectiva de una representación diagramática de un usuario que lleva un casco de AR del sistema de la Figura 1 que tiene un casco quirúrgico;
La Figura 37B es una vista posterior en perspectiva de los elementos que se muestran en la Figura 37A;
La Figura 38A es una vista frontal en perspectiva de la representación diagramática de diversos componentes del sistema de la Figura 1;
La Figura 38B es una vista posterior en perspectiva del casco quirúrgico que se muestra en la Figura 37A;
La Figura 39 muestra una vista frontal en perspectiva del casco AR que se muestra en la Figura 36A; La Figura 40 es una vista en despiece del casco quirúrgico que se muestra en la Figura 37A;
La Figura 41A es una vista inferior en perspectiva de la placa de acoplamiento electromecánico que se muestra en la Figura 40;
La Figura 41B es una vista superior en perspectiva de la placa de acoplamiento electromecánico que se muestra en la Figura 40;
La Figura 42 es una vista frontal en perspectiva de los componentes del sistema que se muestra en 37A utilizado en un procedimiento de reemplazo de rodilla;
La Figura 43 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante el registro de un fémur distal en un procedimiento de reemplazo de rodilla;
La Figura 44 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante la planificación del plano de resección en un procedimiento de reemplazo de rodilla; La Figura 45 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante la colocación de pasadores para la ubicación de bloques de corte en un procedimiento de reemplazo de rodilla;
La Figura 46 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante la resección tibial en un procedimiento de reemplazo de rodilla;
La Figura 47 es una vista frontal en perspectiva de una representación diagramática de un dispositivo de equilibrado de rodilla no conforme con los principios de la presente invención;
La Figura 48 es una representación diagramática de una MXUI proporcionada por el sistema de la Figura 1 durante una evaluación de equilibrio en un procedimiento de reemplazo de rodilla; y La Figura 49 es una vista frontal en perspectiva del dispositivo de equilibrio de rodilla que se muestra en la Figura 47.
La Figura 50A es una representación diagramática de las superficies expuestas en el acetábulo y el fémur proximal en una posición de referencia.
La Figura 50B es una representación diagramática de las superficies expuestas en el acetábulo y el fémur proximal en una posición desplazada.
La Figura 51 es una representación diagramática de una cadera y una pierna, que muestra los ejes y planos de referencia para calcular la versión femoral.
La Figura 52 es una representación diagramática de una cadera con componentes implantados. La Figura 53 es una representación diagramática de un impactador de cadera y una cubierta que muestra las superficies mapeadas en el impactador.
La Figura 54 es un diagrama de flujo que muestra cómo el sistema de la Figura 1 se puede utilizar para analizar la cinemática de la cadera no conforme con los principios de la presente invención. La Figura 55 es un diagrama de flujo que muestra un procedimiento ejemplar de navegación de un procedimiento de reemplazo de rodilla no conforme con los principios de la presente invención. La Figura 56 es una representación diagramática de una rodilla con implantes unicondilares.
La Figura 57 es una representación esquemática de una tibia con implante unicondilar.
La Figura 58A es una representación diagramática de una rodilla que muestra regiones ejemplares para el mapeo de superficie en una posición de referencia.
La Figura 58B es una representación diagramática de una rodilla que muestra regiones ejemplares para el mapeo de superficie en una posición desplazada.
La Figura 58C es una representación diagramática de una rodilla que muestra regiones ejemplares para el mapeo de la superficie.
La Figura 59 es un diagrama de flujo que muestra un procedimiento ejemplar de navegación de un procedimiento de reemplazo de cadera no conforme con los principios de la presente invención.
Descripción detallada de la invención
La terminología utilizada en la presente memoria tiene como fin describir únicamente realizaciones particulares y no pretende ser limitativa de la invención. Tal y como se utiliza en la presente memoria, el término “y/o” incluye todas y cada una de las combinaciones de uno o más de los elementos enumerados asociados. Tal y como se utilizan en la presente memoria, las formas singulares “uno”, “una” y “el/la” están destinadas a incluir tanto las formas plurales como las singulares, a menos que el contexto indique claramente lo contrario. Se entenderá además que los términos “comprende” y/o “que comprende”, cuando se usan en la presente memoria descriptiva, especifican la presencia de características presentadas, etapas, operaciones, elementos, y/o componentes, y/o grupos de estos.
A menos que se defina lo contrario, todos los términos (incluidos los términos técnicos y científicos) utilizados en la presente memoria tienen el mismo significado que comúnmente entiende una persona con conocimientos ordinarios en la técnica a la cual pertenece la presente invención. Se entenderá además que términos tales como los definidos en diccionarios de uso común deben interpretarse con un significado que sea consistente con su significado en el contexto de la técnica pertinente y la presente divulgación, y no se interpretarán en un sentido idealizado o excesivamente formal a menos que se definan expresamente así en la presente memoria.
Al describir la invención, se entenderá que se divulga una serie de técnicas y etapas. Cada una de ellas tiene beneficios individuales y también se puede utilizar junto con una o más, o en algunos casos todas, las demás técnicas divulgadas. En consecuencia, por razones de claridad, esta descripción se abstendrá de repetir todas las combinaciones posibles de las etapas individuales de forma innecesaria. Sin embargo, la memoria descriptiva y las reivindicaciones deben leerse con el entendimiento de que tales combinaciones están totalmente dentro del ámbito de la invención y las reivindicaciones.
En la presente memoria se discuten nuevos dispositivos, aparatos, y procedimientos de aumento sensorial para proporcionar datos que ayuden en los procedimientos médicos. En la siguiente descripción, con fines explicativos, se exponen numerosos detalles específicos con el fin de proporcionar una comprensión completa de la presente invención. Será evidente, sin embargo, para un experto en la técnica que la presente invención puede practicarse sin los detalles específicos.
I. El sistema de aumento sensorial
Con referencia a las Figuras 1 ,2A-B, y 3, se proporciona un sistema 10 de aumento sensorial de la presente invención para su uso en procedimientos médicos. El sistema 10 incluye uno o más marcadores (100, 108, 110) visuales, una unidad 102 de procesamiento, un conjunto 210 de sensores que tiene una o más cámara(s) 206 de seguimiento, y un dispositivo 104 de visualización que tiene un generador 204 de visualización que genera una visualización en el dispositivo 104 de visualización para ser vista por el usuario 106. El dispositivo 104 de visualización está fijado a un usuario 106 de tal manera que el dispositivo 104 de visualización puede aumentar su entrada visual. De acuerdo con la invención, el dispositivo 104 de visualización está configurado para fijarse a la cabeza del usuario 106. Alternativamente, en variantes que no forman parte de la invención reivindicada, el dispositivo 104 de visualización se encuentra separado del usuario 106, aunque sigue aumentando la escena visual. En una realización, cada uno de los marcadores (100, 108 y 110) es distinto y diferente de los demás visualmente, de modo que pueden ser seguidos individualmente por la(s) cámara(s) 206.
Con referencia a las Figuras 2A-2B, otra realización ejemplar del dispositivo 104 de visualización incluye una carcasa 200 de visor que tiene una óptica 202 que permite enfocar la pantalla de vídeo del generador 204 de visualización en los ojos del usuario 106. El conjunto 210 de sensores está fijado o forma parte del dispositivo 104 de visualización. La carcasa 200 de visor incluye un mecanismo 208 de fijación que permite la fijación a la cabeza o cara del usuario 106 de tal manera que la alineación del dispositivo 104 de visualización con el trayecto visual del usuario 106 sea consistente y repetible
Con referencia a la Figura 3, otra realización ejemplar del dispositivo 104 de visualización incluye una pantalla 300 facial transparente que permite una proyección desde el generador 302 de visualización sobre la pantalla 300 que superpone datos e imágenes dentro del trayecto visual de los ojos del usuario 106. El conjunto 306 de sensores está fijado o forma parte del dispositivo 104 de visualización. El dispositivo 104 de visualización incluye además el mecanismo 304 de fijación. El conjunto 306 de sensores y el mecanismo 304 de fijación cumplen las mismas funciones que el conjunto 210 de sensores y el mecanismo 208 de fijación descritos anteriormente.
Con referencia a la Figura 4 la cual muestra la configuración del hardware electrónico del sistema 10, el conjunto (210, 306) de sensores no sólo incluye una o más cámaras 402, 404, 406 de seguimiento (igual que 206), sino que puede incluir opcionalmente una unidad 408 de medición inercial ("IMU"); un radio 410 para la comunicación con otros sensores o unidades de control; un micrófono 416 para la activación por voz de diferentes modos de visualización, incluyendo pero no limitado a la eliminación de todos los elementos visualizados para un campo de visión claro; uno o más altavoces 418 para alertas audibles y otros fines; y retroalimentación 420 háptica en forma de motores agitadores, zumbadores piezoeléctricos u otras realizaciones. La IMU 408 proporciona datos añadidos de orientación y localización de un objeto que no está visualmente basado. La IMU 408 se puede utilizar para, pero no se limita a, la generación de datos de localización y mapeo simultáneos ("SLAM") a partir del seguimiento de la cámara y los datos de la IMU 408 para determinar las características no específicas de la sala que ayudan en la localización y la generación de mapas de superficie de los objetos de interés. Además, el(los) conjunto(s) (400, 210 y 306) de sensores incluye datos 414 externos transmitidos por cable, radio o memoria almacenada. Los datos 414 externos pueden ser, opcionalmente en forma de, imágenes de fluoroscopia, tomografías axiales computarizadas ("CAT o CT"), tomografías por emisión de positrones ("PET") o datos de resonancia magnética ("MRI"), o similares. Estos datos pueden combinarse con otros recopilados por el conjunto (400, 210 y 306) de sensores para crear imágenes de aumento.
Durante el funcionamiento del sistema 10, el generador 412 de visualización (igual que 204 y 302) y la unidad 401 de procesamiento (igual que 102) están en comunicación electrónica con los componentes descritos anteriormente para el conjunto (210, 306) de sensores. La unidad 401 de procesamiento es una unidad central de procesamiento ("CPU") que controla la gestión de visualización y el procesamiento de algoritmos. Con referencia a la Figura 4, el sistema 10 puede incluir opcionalmente uno o más conjuntos 422 de sensores remotos. Estos conjuntos de sensores remotos están situados físicamente lejos del dispositivo 104 de visualización. Cada uno de estos conjuntos 422 de sensores remotos incluye algunos o todos los componentes descritos anteriormente para el conjunto (210, 306) de sensores. También puede incluir opcionalmente una unidad de procesamiento separada y remota. Los conjuntos 422 de sensores remotos contribuyen datos a los datos 414 externos, los cuales pueden ser procesados posteriormente por la unidad 401 de procesamiento si se desea. En otra realización, el sistema 10 utiliza el(los) conjunto(s) (422) remoto(s) para seguir no sólo los marcadores situados en el campo de visión, sino también cualquier marcador(es) fijado(s) a la unidad 104 de visualización llevada por el usuario 106, con el fin de localizar los objetos en el campo de visión con respecto al usuario 106.
En una realización ejemplar, el sistema 10 utiliza el(los) conjunto(s) (422, 210, 306) de sensores para crear una nube de puntos tridimensional de datos que representan objetos en el espacio de trabajo. Estos datos se pueden utilizar para crear o hacer coincidir con objetos ya modelados para su uso en el seguimiento posterior, la visualización o la reproducción.
Además, el sistema 10 puede opcionalmente superponer imágenes y máscaras usando medios divulgados en la técnica con el fin de oscurecer objetos en el campo de visión, incluyendo, pero no limitado a retractores o tejido blando alrededor de una exposición que no son objeto del procedimiento para ayudar a resaltar el área y los elementos de interés. En una realización, la imagen externa puede proyectarse con superposiciones en un modo de realidad aumentada ("AR"). En otra realización, la imagen externa puede ser ignorada y sólo gráficos generados por ordenador pueden ser utilizados para visualizar datos al usuario 106 en un modo de realidad virtual ("VR"). El modo VR es compatible si el dispositivo 104 de visualización o parte de este se hace opaco para bloquear los datos visuales externos o si se utiliza algún otro procedimiento para enfatizar al usuario 106 que la concentración debe estar en las imágenes y no en las imágenes externas.
Otras realizaciones alternativas del dispositivo 104 de visualización incluirían, pero no se limitarían a, la proyección de visualización holográfica o pseudoholográfica en el campo de visión del usuario 106. Además, el dispositivo de visualización puede proporcionar opcionalmente medios de seguimiento ocular divulgados por la técnica que permiten determinar las imágenes visualizadas óptimas con respecto al campo visual del usuario 106.
El sistema 10 puede utilizar opcionalmente algoritmos para discriminar entre elementos en el campo de visión para identificar lo que constituyen objetos de interés frente a objetos no importantes para la tarea en cuestión. Esto podría incluir, pero no se limita a, la identificación de puntos de referencia óseos en un acetábulo de cadera para su uso en comparación y fusión con un escaneo preoperatorio a pesar de los tejidos blandos y las herramientas que son visibles en el mismo campo de visión.
Con referencia a la Figura 5, las una o más cámaras 500, 506 de los conjuntos (400, 422, 210, y 306) de sensores y los uno o más marcadores 502, 504 visuales se utilizan para seguir visualmente un objeto distinto (por ejemplo, una herramienta quirúrgica, una ubicación deseada dentro de un objeto anatómico, etc.) y determinar la actitud y la posición en relación con el usuario 106. En una realización, cada uno de los uno o más marcadores es distinto y diferente de los demás visualmente. Para el reconocimiento de marcadores pueden utilizarse tecnologías autónomas de reconocimiento de objetos y de visión artificial. Alternativamente, la presente invención también proporciona un seguimiento asistido utilizando IMUs 408 en uno o más objetos de interés, incluyendo, pero no limitado a los marcadores 502, 504. Por favor tenga en cuenta que la una o más cámaras 500, 506 pueden estar situadas a distancia del usuario 106 y proporcionar datos adicionales para el seguimiento y la localización.
Los algoritmos
de filtrado óptimo se utilizan opcionalmente para combinar los datos de todas las fuentes disponibles para proporcionar los datos de posición y orientación más precisos para los elementos en el campo de visión. Este esquema de filtrado será capaz de acomodar eventos que incluyen, pero no se limitan a oclusiones del (de los) campo(s) de visión de la(s) cámara(s), sangre, tejido, u otras oclusiones temporales orgánicas del área de interés deseada, movimiento de la cabeza u otro movimiento de la cámara que aleje el(los) campo(s) de visión de la(s) cámara(s) del área de interés, caídas de datos, y agotamiento de la batería / fuente de alimentación u otra pérdida del equipo.
Con referencia a las Figuras 36A-B, 37A-B, 38A-B, y 39-41A-B, otra realización ejemplar del dispositivo 104 de visualización es un casco 3600 AR. El casco 3600 AR se utiliza en diversos procedimientos quirúrgicos estériles (por ejemplo, fusión espinal, artroplastia de cadera y rodilla, etc.). El casco 3600 AR se sujeta a la cabeza de un cirujano 3602 (es decir, el usuario 106) ajustando una correa 3604 de cabeza girando una rueda 3606 de pulgar. Una pantalla 3608 facial protectora transparente se fija opcionalmente al dispositivo 3600 mediante la fijación de tiras 3610 de velcro. Alternativamente, la fijación puede ser a través de adhesivos, imanes, ganchos u otros medios de fijación divulgados por la técnica. Una característica 3612 de acoplamiento está presente para fijar un casco 3700 quirúrgico tanto de manera mecánica como eléctricamente al casco 3600 AR. El casco 3700 quirúrgico está conectado opcionalmente a una capucha quirúrgica (no se muestra) que proporciona una cobertura corporal completa para el cirujano 3602. La cobertura de todo el cuerpo es útil para determinados procedimientos quirúrgicos tales como la artroplastia de cadera y rodilla o similares. Si el casco 3700 quirúrgico se va a fijar a una capucha quirúrgica, entonces un ventilador aspira aire a través de la capucha quirúrgica hacia la entrada 3702 de aire y se hace circular bajo la capucha quirúrgica y el casco para enfriar al cirujano 3602 y evitar que se empañen los componentes ópticos. Una pieza de 3704 barbilla separa el casco 3700 (y si procede, la capucha quirúrgica acoplada) de la cara del cirujano 3602. La ubicación del casco 3700 quirúrgico en relación con el casco 3600 AR está diseñada para permitir una visión sin obstrucciones del sitio quirúrgico para el cirujano 3602 y todas las cámaras y sensores. El casco 3700 quirúrgico incluye las características necesarias para fijarse e interactuar con la capucha quirúrgica. Un cable 3706 flexible conecta el casco 3600 AR a un módulo 3708 de cadera, el cual puede llevarse en el cinturón del cirujano 3602. Una batería 3800 reemplazable se inserta en el módulo 3708 de cadera.
Con referencia a la Figura 39, el casco 3600 AR incluye una sección 3900 de visualización con un par de pantallas 3902 ópticas transparentes para el aumento visual y dos cámaras 3904 de seguimiento para realizar funciones de seguimiento y formación de imágenes estereoscópicas, incluidas funciones de aumento digital bidimensional y tridimensional. En la sección 3900 de visualización se incluyen un sensor 3906 de profundidad y un proyector 3908 de luz estructurada. Es preferente que el sensor 3906 de profundidad y el proyector 3908 estén situados en el medio de la sección 3900 de visualización. Una linterna 3909 quirúrgica está montada opcionalmente en la sección 3900 de visualización y puede estar conectada eléctricamente al casco 3600 AR para permitir que su brillo sea controlado por el software del casco 3600 AR, que incluye un comando de voz. Esta característica puede desplegarse, por ejemplo, para atenuar o apagar la linterna quirúrgica cuando se está en modo de realidad mixta para permitir una mejor visualización del contenido virtual sobre un fondo brillante. También se puede ajustar para optimizar el seguimiento óptico, el cual a veces puede verse perjudicado por la iluminación de alto contraste de los objetivos o por la escasa iluminación ambiental. En otra realización ejemplar, las luces del quirófano pueden ser controladas de manera inalámbrica por el software del casco 3600 AR por las mismas razones.
Con referencia a las Figuras 39-40, la sección 3910 posterior del casco 3600 AR puede contener opcionalmente los componentes generadores de calor y otros componentes del circuito, tales como el microprocesador y la batería interna. La sección 3912 de puente en forma de arco y la correa 3604 para la cabeza del casco 3600 AR conectan mecánicamente la sección 3910 posterior a la sección 3900 de visualización. Una parte de la sección 3912 de puente es flexible para acomodarse a los ajustes de tamaño. La sección 3912 de puente puede incluir cableado o una placa de circuito flexible para proporcionar conectividad eléctrica entre la sección 3900 de visualización y la sección 3910 posterior. La sección 3912 de puente incluye la característica 3612 de acoplamiento, la cual es una placa ferromagnética con una pluralidad de orificios 3914 de localización y una abertura 3918, la cual proporciona acceso a dos contactos 3916 eléctricos para alimentar el ventilador del casco 3700 quirúrgico. En realizaciones alternativas, la característica 3612 de acoplamiento puede ser otro medio de técnica divulgado tal como Velcro, pestillos o sujetadores roscados o similares. La característica 3612 de acoplamiento puede incluir opcionalmente un montaje de aislamiento de vibraciones para minimizar la transmisión de ruido mecánico desde el ventilador del casco 3700 quirúrgico al casco 3600 AR, lo cual puede ser perjudicial para el rendimiento de seguimiento. El ventilador 4004 puede estar controlado por software, lo que permite ralentizarlo o apagarlo para minimizar la generación de ruido mecánico. También puede ser controlado por el cirujano 3602 utilizando comandos de voz. Un cordón 3706 flexible conecta la sección 3910 posterior al módulo 3708 de cadera.
Con referencia a la Figura 40, el casco 3700 quirúrgico incluye una cubierta 4002 hueca en la cual un ventilador 4004 aspira aire el cual se expulsa a través de varias rejillas de ventilación de la cubierta para proporcionar aire de refrigeración al cirujano. Un respiradero 4006 de ala proporciona flujo de aire sobre la visera de la capucha quirúrgica y los respiraderos 4008 posteriores proporcionan aire de refrigeración a la parte posterior, incluida la sección 3910 posterior del casco 3600 AR.
Con referencia a las Figuras 41A-B, la placa 3802 de acoplamiento incluye una pluralidad de salientes 4102 para su ubicación con los orificios 3914 en el casco 3600 AR. La placa 3802 de acoplamiento también incluye contactos 4104 eléctricos cargados por resorte, los cuales se conectan con los contactos 3916 eléctricos del casco 3600 AR para proporcionar energía al ventilador 4004. La placa 3802 de acoplamiento incluye además un imán 4106, el cual proporciona una fuerza de retención mecánica entre la placa 3802 de acoplamiento y la característica 3612 de acoplamiento.
En una realización ejemplar, el casco 3600 AR es opcionalmente utilizado como un sistema para reportar quejas de dispositivos o solicitudes de características de diseño. La interfaz de usuario puede tener una opción de menú o un comando de voz para iniciar un informe en el momento en que se produce. Esto activaría el registro de voz y vídeo de la cámara, lo que permitiría al usuario 106 capturar y narrar la queja en 3D a la vez que se produce el problema. El usuario 106 finaliza la reclamación con la voz o seleccionando una opción. El registro de reclamaciones se comprime y se transmite a la empresa por Internet de manera inalámbrica, lo que proporciona al personal encargado de tramitar las reclamaciones datos excelentes para poder "revivir" la situación de primera mano y mejorar el diagnóstico. La inteligencia artificial se puede utilizar para analizar y agregar el material de las reclamaciones para establecer patrones y realizar análisis estadísticos. La misma secuencia se puede utilizar para conectarse a la asistencia técnica en directo durante el procedimiento, con la excepción de que el flujo de datos se transmite en tiempo real.
II. Procedimientos preoperatorios
La presente invención se puede utilizar para tareas preoperatorias y procedimientos quirúrgicos. Por ejemplo, ahora se describe un procedimiento quirúrgico general alternativo que incluye posibles actividades preoperatorias. En primer lugar, se obtiene un escáner de la región de interés del paciente, tal como una CT o una MRI. Si es posible, se debe posicionar al paciente de forma que se aproxime a la posición durante la cirugía. En segundo lugar, se realiza la segmentación de los datos de escaneado con el fin de convertirlos en modelos tridimensionales de elementos de interés, incluidos, pero no limitados a: dientes y estructuras óseas, venas y arterias de interés, nervios, glándulas, tumores o masas, implantes y superficies cutáneas. Los modelos se separan de modo que se puedan visualizar después, etiquetar o manipular de manera independiente. Se denominarán modelos preoperatorios. En tercer lugar, se realiza la planificación preoperatoria (opcionalmente utilizando VR para la visualización y manipulación de modelos) utilizando modelos para identificar elementos que incluyen, pero no se limitan a: tramas de referencia anatómicas, objetivos para los planos de resección, volúmenes que se van a extirpar, planos y niveles para las resecciones, tamaño y posición óptima de los implantes que se van a utilizar, trayecto y trayectoria para acceder al tejido objetivo, trayectoria y profundidad de las guías, taladros, pasadores, tornillos o instrumentos. En cuarto lugar, los modelos y los datos de planificación preoperatoria se cargan en la memoria del dispositivo 104 de visualización antes o en el momento de la cirugía. Lo más conveniente es que este procedimiento de carga se realice de manera inalámbrica a través de la radio.
En quinto lugar, se prepara y posiciona al paciente para la cirugía. Durante la cirugía, el sitio quirúrgico se cubre idealmente de una manera que maximiza la visualización de las superficies de la piel para fines posteriores de registro. Esto podría lograrse mediante el uso liberal de Ioban. Sería beneficioso utilizar una película como el Ioban que se fluoresciera o reflejase de manera diferente cuando se dirige a un LED específico o emisor de luz visible en una iluminación amplia, punto o patrón proyectado. Esta película también puede tener características ópticas, marcadores o patrones, los cuales permiten un fácil reconocimiento por parte de las cámaras ópticas del casco.
En sexto lugar, después de que el paciente ha sido preparado y posicionado para la cirugía, el sistema 10 (por ejemplo, a través del casco 3600 AR) escanea la envoltura de piel actual para establecer su contorno actual y crea modelos 3D preoperatorios disponibles para que el usuario 106 los observe en el dispositivo 104 de visualización. El procedimiento preferente es proyectar un patrón de cuadrícula o de tablero de ajedrez en banda infrarroja ("IR") que permita determinar la envoltura de la piel a partir de la deformación/distorsión/escala calculada de la imagen conocida. Un procedimiento alternativo es mover un objeto de tipo estilete con un marcador fijado hacia delante y hacia atrás a lo largo de la piel expuesta, permitiendo el seguimiento de la posición y orientación del estilete y la posterior generación de la envoltura de la piel. Opcionalmente, el modelo de piel se visualiza al usuario 106, quien a continuación delinea el área general de piel expuesta, que ha sido escaneada. Se calcula una posición y orientación óptimas del modelo de piel preoperatorio para que coincida con la superficie de piel actual. Los modelos preoperatorios adecuados se visualizan a través del dispositivo 104 de visualización al usuario 106 en 3D. Opcionalmente, el usuario 106 puede entonces insertar un marcador óptico en un hueso del paciente para un seguimiento preciso. La colocación de este marcador puede ser informada mediante su visualización de los modelos preoperatorios. La posición y la orientación de los modelos preoperatorios pueden afinarse aún más mediante palpación o formación de imágenes alternativas, incluidos, pero no limitados a, los ultrasonidos.
En séptimo lugar, durante la cirugía, el usuario 106 que utiliza el sistema 10 con el dispositivo 104 de visualización, puede observar la información de planificación preoperatoria y puede realizar un seguimiento de los instrumentos e implantes y proporcionar mediciones intraoperatorias de diversos tipos, incluidos, pero no limitados a, la profundidad del taladro o el tornillo en relación con la anatomía, el ángulo de un instrumento, el ángulo de un corte óseo, etc.
Con referencia a la Figura 8, se presenta una realización ejemplar del flujo operativo durante un procedimiento que utiliza el sistema 10. En la presente realización, la CPU 401 arranca (800) e inicializa una o más cámaras 402, 404, 406 (802). Cuando en el campo de visión de la(s) cámara(s) 402, 404, 406, se ubica e identifica el primer marcador 100 (804), seguido de los marcadores 108, 110 posteriores (806). El seguimiento de estos marcadores 100, 108, 110 proporciona la posición y orientación relativa entre ellos, así como las ubicaciones de la cámara principal (808). Los datos de sensores alternativos procedentes de sensores tales como IMUs y cámaras de los conjuntos 422 de sensores remotos (810) pueden incorporarse opcionalmente a la recopilación de datos. Además, los datos (812) de asistencia externa sobre el paciente, el objetivo, las herramientas, u otras porciones del entorno pueden incorporarse opcionalmente para su uso en los algoritmos. Los algoritmos utilizados en la presente invención se adaptan a procedimientos y datos específicos recopilados. Los algoritmos emiten (814) los datos de asistencia deseados para su uso en el dispositivo de visualización (816).
111. Procedimientos de reemplazo de cadera
En una realización ejemplar de la presente invención y con referencia a la Figura 6, el sistema 10 es adecuado para ser utilizado en cirugía de reemplazo de cadera, en la que un primer marcador 600 se fija a través de un accesorio 602 a una pelvis 604 y un segundo marcador 606 se fija a un impactador 608. El usuario 106 puede observar la imagen de la interfaz de usuario de realidad mixta ("MXUI") que se muestra en la Figura 6 a través del dispositivo 104 de visualización. La MXUI proporciona imágenes virtuales estereoscópicas de la pelvis 604 y del impactador 604 en el campo de visión del usuario durante el procedimiento de reemplazo de cadera.
La combinación de marcadores (600, 606) en estos objetos físicos, combinada con el procesamiento previo y algoritmos específicos permite el cálculo de medidas de interés para el usuario 106, incluyendo la versión en tiempo real y los ángulos de inclinación del impactador 608 con respecto a la pelvis 604 para una colocación precisa de la cubierta 612 acetabular. Además, pueden presentarse mediciones de los parámetros físicos desde el estado preoperatorio hasta el postoperatorio, incluido, pero no limitado al, cambio en la longitud total de la pierna. La presentación de los datos puede ser en forma 610 legible o en forma de imágenes, incluidas, pero no limitadas a, las representaciones en 3D de herramientas u otras formas de guía.
La Figura 7 representa una vista alternativa de la MXUI previamente mostrada en la Figura 6, en la que un objetivo 700 virtual y una herramienta 702 virtual se presentan al usuario 106 para facilitar su uso para lograr la versión y la inclinación deseadas. En la presente realización, se utilizan otras combinaciones de realidad virtual para optimizar la experiencia de sensación natural para el usuario teniendo un objetivo 700 virtual con la herramienta 702 real totalmente visible o una herramienta virtual (no se muestra) con el objetivo virtual totalmente visible. Opcionalmente, pueden proporcionarse otras combinaciones de formación de imágenes reales y virtuales. La presentación de los datos puede ser en forma 704 legible o en forma de imágenes, incluyendo, pero no limitado a representaciones 3D de herramientas u otras formas de guía.
Con referencia a la Figura 9, la presente divulgación proporciona además un procedimiento de utilización del sistema 10 para realizar un procedimiento (900) de reemplazo de cadera en el cual un hueso de la cadera tiene la cavidad fresada y se inserta una copa de reemplazo para su uso con la pierna del paciente. En la presente realización, un primer marcador (por ejemplo, 100, 108, o 110, etc.) se instala en un accesorio de dimensiones conocidas con respecto al marcador y este accesorio se instala en el hueso de la cadera de un paciente (902). Un segundo marcador distinto (por ejemplo, 100, 108, o 110, etc.) se instala en un dispositivo señalador de dimensiones conocidas con respecto al primer marcador (904). La posición y orientación de los puntos de referencia óseos u otros puntos de referencia anatómicos en relación con la fijación de la cadera se registran utilizando los marcadores ópticos y la diferencia de posición/orientación entre la cadera y el apuntador (906). Estos puntos se utilizan para determinar un sistema (908) de coordenadas local. El apuntador se utiliza para determinar la posición y orientación del fémur antes de que éste se disloque y se frese el acetábulo del hueso de la cadera para hacer sitio a la cubierta (910) de reemplazo. Un impactador con una cubierta de reemplazo instalada tiene un tercer marcador distinto instalado con dimensiones conocidas del impactador (912). El impactador con cubierta es seguido según el algoritmo descrito anteriormente con respecto al marcador (914) de cadera. La posición relativa y la orientación entre el marcador de cadera y el impactador se utilizan para guiar la colocación quirúrgica de la cubierta a través de una pantalla de AR o VR en la cavidad en la posición y el ángulo deseados según los requisitos médicos del paciente (916). El cambio en la longitud de la pierna también puede calcularse en este punto del procedimiento utilizando la posición del marcador y la orientación del fémur reemplazado (918). Otra realización aumenta este procedimiento con datos de CT preoperatorios para determinar la posición de los componentes. Otra realización utiliza la salida de la pantalla de una manera AR o VR para determinar el corte de cabeza femoral. Otra realización utiliza los datos para colocar tornillos en el acetábulo.
La trama de referencia de coordenadas de la mesa o soporte sobre el cual está situado el paciente es deseable en algunas implementaciones. La alineación de la mesa con respecto al suelo, específicamente a la gravedad, puede lograrse como sigue. La IMU (a partir de cada uno de los conjuntos de sensores, tal como el que se encuentra dentro del casco 3600 AR) proporciona la orientación de cabeceo y balanceo del dispositivo 104 de visualización con respecto a la gravedad en cualquier instante dado. Alternativamente, SLAM o algoritmos similares de seguimiento de entorno proporcionarán la orientación de cabeceo y balanceo del dispositivo 104 de visualización con respecto a la gravedad, asumiendo que la mayoría de las paredes y características asociadas a ellas están construidas paralelas al vector de gravedad. Aparte de la relación entre el dispositivo 104 de visualización y la gravedad, la orientación de la mesa se puede determinar utilizando el estilete para registrar tres (3) puntos independientes en la mesa. Con estos tres puntos seleccionados en la trama de coordenadas del dispositivo 104 de visualización, también se pueden determinar los ángulos de balanceo y cabeceo de la mesa con respecto a la gravedad. Alternativamente, la mesa puede ser identificada y reconocida utilizando algoritmos de visión artificial para determinar la orientación con respecto a la gravedad. Ahora se conoce la alineación de la columna vertebral del paciente en relación con el dispositivo 104 de visualización y, por lo tanto, con cualquier otro sistema de coordenadas objetivo, tal como el definido por el marcador de cadera, en cabeceo y balanceo. Para proporcionar una referencia de guiñada, el estilete se puede utilizar junto con el marcador de cadera para definir dónde se encuentra la cabeza del paciente, lo cual proporciona la dirección de la columna vertebral con respecto a él. Alternativamente, se puede utilizar el reconocimiento de imágenes de la cabeza del paciente para la determinación automática. Finalmente, el balanceo, cabeceo y guiñada de la mesa y/o de la columna vertebral del paciente están ahora completamente definidos en el dispositivo 104 de visualización y en todos los sistemas de coordenadas relacionados.
Con referencia a las Figuras 11-12, el sistema 10 puede incluir opcionalmente un conjunto 1100 impactador de cadera para su uso en procedimientos de artroplastia de cadera. El conjunto incluye una cubierta 1102 acetabular, y un marcador 1104 óptico (igual que los 100, 108, 110, 502, 504, 600, 606, 804, 806, 904, 912 descritos anteriormente) ensamblado a un impactador 1106 acetabular. La Figura 12 representa una vista en despiece del conjunto 1100 que ilustra cómo el marcador 1104 óptico se acopla al impactador 1106 de forma reproducible mediante la inserción de un poste 1200 indexado en un orificio 1202 indexado. La cubierta 1102 acetabular se ensambla de forma reproducible con el impactador 1106 atornillándose en un extremo 1204 distal roscado del impactador y asentándose en un hombro 1206. El marcador 1104 incluye un primer fiducial 1108, un segundo fiducial 1110 y un tercer fiducial 1112; cada uno con regiones adyacentes de blanco y negro en las que sus límites forman líneas rectas de intersección. Los algoritmos del casco 3600 AR se utilizan para procesar las imágenes procedentes de las cámaras (3904) estereoscópicas para calcular el punto de intersección de cada fiducial (1108, 1110, 1112) y así determinar la pose de seis grados de libertad del marcador 1104. Para el fin de la presente memoria descriptiva, "pose" se define como la combinación de posición y orientación de un objeto. Los fiduciales (1108, 1110 y 1112) pueden crearse imprimiéndoles en una etiqueta autoadhesiva, grabando con láser las regiones negras en la superficie de un material plástico blanco u otros procedimientos alternativos. La cubierta contiene un orificio 1114 de fijación a través del cual se utiliza opcionalmente un tornillo para fijar la cubierta 1102 al hueso del acetábulo.
En otra realización ejemplar y con referencia a las Figuras 13A-B y 14, el sistema 10 incluye opcionalmente un conjunto 1300 marcador anatómico comprendido por un conjunto 1302 de pinza y un marcador 1304 óptico. El conjunto 1302 de pinza incluye una base 1400, un primer orificio 1402 en forma de lágrima, y un segundo orificio 1404 en forma de lágrima. Los pasadores de fijación (no se muestran) los cuales se han fijado al hueso pueden insertarse a través de los orificios (1402, 1404) en forma de lágrima y sujetarse entre una mordaza 1406 de pinza y el cuerpo 1400, fijando así el conjunto 1302 de pinza a los pasadores y, por lo tanto, al hueso. Un tornillo 1408 de pinza acopla roscas en las mordazas y se utiliza para apretar el conjunto 1302 en los pasadores. Un orificio 1410 hexagonal permite utilizar un destornillador hexagonal para apretar el conjunto 1302. Un primer pasador 1412 de retención y un segundo pasador 1414 de retención evitan el desmontaje del conjunto 1302 de pinza. Un cuerpo 1416 de marcador tiene un primer poste 1418 de localización, un segundo poste 1420 de localización y un tercer poste 1422 de localización los cuales proporcionan localización a la base 1400 mediante el acoplamiento de dos postes de localización con un orificio 1424 de localización y una ranura 1426 de localización en la base. El diseño proporciona dos posibles posiciones rotacionales del marcador 1304 lo cual permite que el marcador 1304 se oriente en relación con las cámaras (por ejemplo, 3904) en el dispositivo 104 de visualización (por ejemplo, el casco 3600 AR) para un seguimiento óptimo. El cuerpo 1416 de marcador encapsula un imán (no se muestra) que proporciona suficiente fuerza de sujeción a la base 1400.
Con referencia a las Figuras 15-17, el sistema 10 puede incluir opcionalmente un conjunto 1500 de calibración que comprende una placa 1502 y un marcador 1504 con características de ensamblaje de lengüeta y ranura para acoplarlos (1502, 1504). Las características de ensamblaje de lengüeta y ranura son especialmente útiles para ensamblar con precisión una parte de metal a una parte de plástico, lo cual tiene una tasa de expansión térmica diferente al de la parte de metal. La placa 1502 tiene una pluralidad de orificios 1506 con una pluralidad de tipos de rosca para aceptar diversos tipos de impactadores. El marcador 1504 tiene un hoyuelo 1508 en el cual se puede insertar la punta de un estilete para el registro. El marcador 1504 tiene una pluralidad de fiduciales 1510.
La Figura 18 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización (por ejemplo, el casco 3600 AR) que muestra el conjunto 1500 de calibración siendo utilizado para diversas etapas de calibración. En primer lugar, el conjunto 1100 impactador de cadera puede atornillarse en el orificio correspondiente de la placa 1502, de modo que el hombro 1206 quede asentado a escuadra sin holgura contra la superficie de la placa 1502. Las cámaras 3904 del casco 3600 AR pueden entonces capturar imágenes las cuales son procesadas por un algoritmo para determinar la relación entre el hombro del impactador en el cual se asentará la cubierta acetabular y el marcador 1104 del conjunto 1100 impactador de cadera. Se muestra un estilete 1800 el cual contiene una pluralidad de fiduciales 1802 para el seguimiento. La punta 1804 del estilete 1800 puede insertarse en el hoyuelo 1508 de la placa 1502 permitiendo determinar la coordenada de la punta 1804 en relación con el marcador del estilete 1800. Se muestra un punto 1806 de guía virtual el cual se proyecta en el campo de visión del usuario 106 en una ubicación específica en relación con el marcador 1504. El usuario 106 coloca la punta 1804 del estilete 1800 real donde se encuentra el punto 1806 de guía virtual de acuerdo con la percepción de profundidad del usuario 106 conectando así su vista real con la vista virtual representada por el punto de guía virtual. A continuación, un algoritmo aplica un factor de corrección para tener en cuenta variables tales como la distancia intraocular del usuario 106. Esto es beneficioso si se va a confiar en la percepción de la profundidad del usuario en un estado de realidad mixta para la localización precisa de herramientas o implantes.
La Figura 19 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización de un paciente 1900 al comienzo de un procedimiento de reemplazo de cadera. Un marcador 1902 de fémur, que tiene una pluralidad de fiduciales 1904 para el seguimiento, se fija a la piel del muslo del paciente 1900 con cinta adhesiva tal como Ioban. Alternativamente, el marcador 1902 de fémur podría fijarse directamente al hueso del fémur mediante el uso de pasadores y un conjunto de pinza como el representado en la Figura 13B. El usuario 106 registra los puntos de referencia anteriores de la pelvis utilizando la punta 1804 del estilete 1800 para determinar la ubicación de la pelvis en la trama de referencia del marcador 1902 de fémur para establecer una trama de referencia pélvica temporal. En otra realización, este registro puede ser en la trama de referencia del cuerpo definida por el escaneo SLAM de la superficie visible del paciente. En otra realización, los puntos de referencia anteriores de la pelvis pueden registrarse generando un mapa de superficie con SLAM y haciendo que el usuario 106 identifique cada punto posicionando un punto 1910 virtual en cada punto de referencia sucesivamente mediante el movimiento de su cabeza. En otra realización, se puede colocar una única fiducial 1906 en el lugar que se va a registrar. Un círculo 1908 virtual se puede utilizar para definir una máscara cuya posición es controlada por la mirada del usuario 106. El algoritmo de visión artificial sólo busca una única fiducial 1906 dentro del círculo 1908 virtual. Las etapas de registro pueden activarse con un comando de voz del usuario 106, tal como "registrar punto". El usuario 106 también puede registrar un punto que represente el fémur distal, tal como el centro de la rótula o los epicóndilos medial y lateral. Cuando se registra cada punto, un marcador virtual, tal como una pequeña esfera, puede ser posicionado y permanecer en la ubicación de la punta en el momento del registro y más allá para proporcionar al usuario 106 una confirmación visual al usuario 106 y comprobar la calidad del registro.
La Figura 20 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización de una pelvis 2000 virtual y un fémur 2002 virtual durante un procedimiento de reemplazo de cadera. Si se han cargado modelos específicos del paciente en el dispositivo 104 de visualización, se visualizarán modelos virtuales de los mismos junto con otras características virtuales de interés, tales como las estructuras neurovasculares. En caso contrario, la pelvis y el fémur virtuales podrían ser modelos específicos para cada sexo, los cuales se han escalado para coincidir lo mejor posible con el espacio de los puntos de referencia registrados. Se visualizan una primera trayectoria 2004 virtual y una segunda trayectoria 2006 virtual para cada uno de los dos pasadores de fijación. En otras realizaciones, pueden tener forma de tubo o de cono. Se muestra un taladro 2008 el cual incluye una pluralidad de fiduciales 2010 que definen marcadores en una pluralidad de superficies, lo cual permite seguir su posición a partir de diversos puntos de vista. La inserción de cada pasador puede guiarse alineando un pasador 2012 real con la trayectoria 2004 virtual en el caso de que no se realice un seguimiento del taladro o alineando un pasador virtual (no se muestra) con la trayectoria virtual en el caso de que se realice un seguimiento del taladro. Si se realiza un seguimiento del taladro, el ángulo del taladro en relación con la trama de referencia pélvica se visualiza numéricamente para un aumento adicional. El texto 2014 virtual está situado en una superficie 2016 del taladro real y se mueve con el taladro haciendo intuitivo para el usuario el objeto al cual están asociados los ángulos representados por el texto virtual.
La Figura 21 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización durante un procedimiento de reemplazo de cadera con el marcador 1300 anatómico fijado a la pelvis del paciente mediante sujeción a los pasadores 2106 insertados en la cresta ilíaca. En este punto, la trama de referencia en relación con el seguimiento de la pelvis se transfiere de la trama de referencia anterior a la del marcador 1300 anatómico. Si se desea, se puede volver a registrar la pelvis para aumentar la precisión. A continuación, el usuario 106 realiza una incisión y expone el fémur utilizando una pelvis 2102 virtual, un fémur 2104 virtual y estructuras neurovasculares virtuales (no se muestran) como guía para la ubicación de la incisión y la disección de los músculos y la cápsula articular para exponer la articulación de la cadera y el cuello del fémur. En este punto, el usuario 106 coloca la pierna en una posición de referencia que tiene una abducción, flexión y rotación aproximadamente neutras en relación con la pelvis.
La Figura 22 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización durante el registro femoral de un procedimiento de reemplazo de cadera. La punta del estilete 1800 se coloca en un punto 2200 de referencia del fémur proximal. En este momento, se determina y registra la orientación de referencia del fémur en relación con la pelvis, definida por la relación entre los marcadores 1902 y 1300. Además, se registran las coordenadas del punto 2200 de referencia en la trama de referencia pélvica. El punto 2200 de referencia puede mejorarse marcando con un lápiz quirúrgico, taladrando un pequeño orificio en el hueso o insertando una pequeña tachuela. Para mejorar la precisión del registro, se visualiza una imagen 2202 estereoscópica ampliada centrada en la punta del estilete, como se muestra en la Figura 22. Para ayudar al usuario 106 a encontrar el punto de referencia más adelante en el procedimiento, en el momento del registro se puede grabar una imagen de referencia, o imágenes de la región alrededor del punto del estilete. Pueden ser imágenes estereoscópicas. A continuación, el usuario 106 registra un punto en la ubicación deseada del corte de cuello femoral utilizando la punta 1804 del estilete 1800. Esto es típicamente el punto más superior / lateral del cuello femoral. Se calcula un plano de resección óptimo que pasa a través de este punto en los ángulos de abducción y versión adecuados.
La Figura 23 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización durante la resección del cuello femoral de un procedimiento de reemplazo de cadera con una guía 2300 de resección virtual. Una sierra 2302 sagital se muestra teniendo una pluralidad de fiduciales 2304 que permiten un marcador, permite la pose de la sierra 2302 sagital que se va a seguir. La resección del cuello femoral puede guiarse alineando la hoja 2306 de sierra real con la guía 2300 de resección virtual en el caso en que el taladro no sea seguido o alineando una hoja de sierra virtual (no se muestra) con la guía 2300 de resección virtual en el caso en que se siga la sierra 2302. Al igual que con el taladro seguido que se muestra en la Figura 20, los ángulos de la sierra 2302 pueden visualizarse numéricamente si la sierra 2302 es seguida. Estos ángulos pueden visualizarse en relación con la trama de referencia pélvica o la trama de referencia femoral.
La Figura 24 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización durante el posicionamiento de la cubierta acetabular de un procedimiento de reemplazo de cadera en el que se muestran un objetivo 2400 virtual para el conjunto 1100 impactador acetabular y una cubierta 2402 virtual. La colocación del conjunto 1100 impactador acetabular se guía manipulándolo para alinearlo con el objetivo 2400 virtual. El cuadrante posterior/lateral de la porción de cubierta del objetivo virtual puede visualizarse en un color diferente o de otro modo diferenciarse visualmente del resto de la cubierta 2402 para demarcar al usuario 106 un objetivo para la colocación segura de tornillos en el acetábulo. El ángulo numérico del impactador acetabular y la profundidad de inserción en relación con el acetábulo fresado o no fresado se visualizan numéricamente como texto 2404 virtual. Una imagen estereoscópica ampliada (no se muestra) similar a la 2202 centrada en la punta del impactador puede ser visualizada mostrando como la cubierta virtual interactúa con el acetábulo de la pelvis 2102 virtual.
La Figura 25 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización durante el posicionamiento de la cubierta acetabular de un procedimiento de reemplazo de cadera en el que se muestran un eje 2500 virtual del impactador acetabular y el objetivo 2400 virtual. La colocación del impactador acetabular se guía manipulándolo para alinear el eje 2500 virtual con el objetivo 2400 virtual.
La Figura 26 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización durante el reposicionamiento y registro del fémur de un procedimiento de reemplazo de cadera. Se muestra un objetivo 2600 femoral virtual el cual representa la orientación preoperatoria del fémur en relación con a la pelvis durante el registro femoral de referencia. El vértice superior de esta colocado cerca del punto de referencia en el fémur proximal. Se muestra una trama 2602 de fémur virtual la cual representa la orientación actual del fémur. A medida que el fémur se mueve, la trama 2602 de fémur virtual rota alrededor del vértice superior del objetivo 2600 de fémur virtual. El reposicionamiento del fémur a la orientación de referencia se logra manipulando el fémur para alinear la trama 2602 de fémur virtual con el objetivo 2600 de fémur virtual en abducción, flexión, y rotación. Con el fémur reposicionado en la orientación de referencia, el usuario utiliza entonces la punta 1804 del estilete 1800 para volver a registrar un punto de referencia en el fémur proximal para determinar el cambio en la longitud de la pierna y el desplazamiento lateral desde la medición de referencia. La imagen 2604 de referencia registrada anteriormente durante el registro femoral de referencia puede visualizarse para ayudar a volver a registrar con precisión el mismo punto de referencia.
Con referencia a las Figuras 50-52, el sistema 10 incluye un medio para seguir estructuras anatómicas sin fiduciales externos fijados a la anatomía. Las Figuras 50A-B representan una realización ejemplar, en la cual el fémur 5002 está dislocado, lo que permite al sistema 10, utilizando el conjunto 210 de sensores, crear un mapa 5014 de superficie tridimensional de referencia de la superficie expuesta del trocánter 5010 menor. La superficie del trocánter menor permanece inalterada durante todo el procedimiento y puede ser utilizada por el sistema 10 para seguir el fémur sin fiduciales adicionales. El límite del mapa 5014 de superficie tridimensional de referencia puede ser indicado opcionalmente por el usuario trazando una curva utilizando un cursor o dispositivo señalador, el cual puede funcionar siguiendo la mirada del usuario. El sistema 10 puede almacenar el mapa 5014 tridimensional de referencia como una nube de puntos, como superficies matemáticas, o por otros medios. El sistema 10 crea una trama 5016 de referencia relativa al conjunto 210 de sensores y registra la pose inicial del mapa 5014 de superficie en la trama 5016 de referencia. El usuario 106 puede registrar puntos de referencia o estructuras adicionales en el mismo hueso o cuerpo rígido, tales como la cabeza 5006 femoral, el cuello 5008 femoral, y el acetábulo 5012. El sistema puede crear mapas 5020, 5022, 5024 de superficie tridimensionales adicionales para la cabeza femoral, el cuello femoral, y el acetábulo, respectivamente, cuya pose el sistema 10 registra en relación con la trama 5016 de referencia. El sistema 10, utilizando el conjunto 210 de sensores, vuelve a escanear continuamente el trocánter 5010 menor y genera un mapa 5018 de superficie tridimensional desplazada de la anatomía. A continuación, comparando el mapa 5018 de superficie tridimensional desplazada con el mapa 5014 de superficie tridimensional de referencia creado para la misma superficie, el sistema 10 determina la rotación geométrica y la traslación necesarias para alinear el mapa 5018 de superficie desplazada y el mapa 5014 de superficie de referencia para un mejor ajuste. A continuación, el sistema 10 aplica la misma rotación y traslación a todos los puntos y estructuras de referencia almacenados en el cuerpo rígido del fémur 5002, calculando la pose actual de todos esos puntos y estructuras en relación con la trama de referencia del conjunto 210 de sensores. El sistema 10 puede calcular el diámetro de la cabeza 5006 femoral o del acetábulo 5012 y visualizarlo al usuario 106 como guía para seleccionar un tamaño de escariador acetabular. El sistema 10 puede calcular el centro de la cabeza 5006 femoral en relación con el mapa 5014 de superficie de referencia. El sistema 10 también puede calcular la posición del centro del acetábulo 5012 en relación con la pelvis 5004. A continuación, el usuario 106 inserta una broca o escariador 5102 con un fiducial 5104 fijado en el canal del fémur, identificando un eje 5106 femoral. El sistema 10 calcula un eje 5118 de cuello femoral entre la cabeza 5006 femoral y el eje 5106 femoral. Con la rodilla 5110 flexionada a aproximadamente 90 °, las cámaras 206 escanean la parte inferior de la pierna 5112, identificando su eje 5114 central aproximado, el cual se utiliza con el eje 5106 femoral para definir un plano 5116 de referencia a partir del cual se calcula el ángulo de versión del eje 5118 nativo del cuello femoral. En el curso del procedimiento, la cabeza 5006 femoral nativa y el acetábulo 5012 se sustituyen por un implante 5202 femoral y un implante 5204 acetabular, respectivamente. El sistema 10 puede detectar los centros de la cubierta 5204 acetabulary la cabeza 5208 femoral implantadas, lo que permite al sistema 10 calcular y visualizar el cambio de distancia del eje 5106 femoral a la cabeza 5208 femoral (desplazamiento femoral), o el cambio de posición del centro del acetábulo 5208, entre las respectivas condiciones nativa e implantada de cada estructura. Tras el reemplazo de la cabeza 5006 femoral, pero antes del reemplazo del acetábulo 5012, el sistema 10 puede calcular y visualizar la versión femoral en base a un nuevo cálculo del eje 5206 de cuello femoral utilizando la cabeza 5208 femoral reemplazada. El sistema 10 puede calcular y visualizar la anteversión adicional necesaria en el implante 5204 acetabular para alcanzar un objetivo de anteversión combinada del implante 5202 femoral y el implante 5204 acetabular. El sistema 10 puede calcular y visualizar un cambio en la distancia entre el fémur 5002 y la pelvis 5004 como resultado del procedimiento.
La Figura 53 representa un impactador 5300 de cadera seguido a través de un mapa tridimensional de una porción de su superficie 5302 expuesta, en lugar de por medio de un fiducial suplementario. El sistema 10 puede registrar una cubierta 5304 acetabular en esta superficie escaneando simultáneamente la cubierta 5304 y las superficies del impactador utilizando las cámaras 206.
La Figura 59 representa un diagrama de flujo que muestra cómo el sistema 10 y su conjunto 210 de sensores pueden utilizarse para la navegación en un procedimiento de artroplastia de cadera. El conjunto 210 de sensores puede escanear el trocánter 5010 menor (5902). A partir de este escaneo, se puede almacenar el mapa 5014 de superficie tridimensional de referencia (5904). El sistema 10 puede entonces establecer una trama 5016 de referencia para el fémur 5002 en relación con el conjunto 210 de sensores (5906). A continuación, escaneando repetidamente el trocánter 5010 menor expuesto, el sistema 10 genera un mapa 5018 de superficie tridimensional desplazada para cada escaneado (5908). Con cada escaneo sucesivo, el sistema puede comparar el mapa 5018 de superficie desplazada con el mapa 5014 de superficie de referencia para la misma región en el trocánter 5010 menor. En base a esta comparación, el sistema 10 puede seguir la pose del fémur 5002 en relación con el conjunto 210 de sensores determinando la traslación y la rotación necesarias para ajustar mejor el mapa 5018 de superficie desplazada con el mapa 5014 de superficie de referencia (5910).
La Figura 54 representa un diagrama de flujo que muestra cómo el sistema 10 y su conjunto 210 de sensores pueden utilizarse para analizar la cinemática de la cadera. El conjunto 210 de sensores puede escanear superficies expuestas de la anatomía del paciente, incluida la cabeza 5006 femoral nativa y el acetábulo 5012 (5400). A partir de estas superficies, se pueden almacenar mapas 5020,5024 tridimensionales de cada estructura (5402). El sistema 10 puede entonces rotar las superficies en las orientaciones esperadas en un paciente de pie y trasladarlas juntas en la dirección del peso corporal (5404). El sistema 10 puede entonces calcular el punto de contacto o parche entre las dos superficies, el cual puede ser un centro de rotación más apropiado que los centros de las superficies aproximadamente esféricas (5406). Tras el reemplazo de la anatomía nativa con el implante 5202 femoral y el implante 5204 acetabular, el sistema 10 puede identificar de manera similar los puntos de contacto para los implantes (5408). Utilizando la geometría del implante, el sistema 10 puede perturbar el ángulo de la cadera para calcular el intervalo angular de movimiento permitido en cada dirección antes del pinzamiento entre implantes, o entre implantes y hueso (5410). La ubicación del primer pinzamiento, el cual limita el intervalo de movimiento, puede resaltarse en el dispositivo 104 de visualización (5412). Por ejemplo, el cuello 5008 femoral puede pinzarse sobre el borde expuesto del acetábulo 5012, o sobre el implante 5204 acetabular. Si al menos una de las superficies de pinzamiento se encuentra sobre hueso nativo, el usuario 106 puede elegir recortar el hueso para aumentar el intervalo de movimiento. Si al menos una de las superficies de pinzamiento se encuentra sobre un implante, el usuario 106 puede elegir ajustar la posición o el ángulo del implante.
IV. Uso del sistema junto con un sistema de brazo en C
La Figura 27 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización durante la obtención de imágenes de un paciente con un brazo en C. Se muestra un sistema 2700 de formación de imágenes de brazo en C que tiene una fuente 2702 de rayos X, una unidad 2704 de formación de imágenes y una unidad 2706 de visualización. Se ha fijado una etiqueta 2708 de seguimiento en el brazo 2700 en C. Se muestran una guía 2710 de alineación virtual de cadera y una guía 2712 de alineación virtual de pelvis. Estos son perpendiculares al plano pélvico anterior y están centrados sobre la articulación de la cadera y la sínfisis púbica, respectivamente. La colocación del brazo 2700 en C se guía ajustando la superficie de la unidad 2704 de formación de imágenes para alinearla con la guía de alineación virtual adecuada. Si el brazo 2700 en C se puede seguir, entonces se puede visualizar una guía 2714 de alineación virtual del brazo en C. En este caso, la colocación del brazo 2700 en C se guía ajustando la guía 2714 virtual de alineación del brazo en C para que se alinee con las guías 2710 o 2712 de alineación virtual adecuadas. La desalineación posicional y angular en relación con el objetivo también puede visualizarse numéricamente como texto 2718 virtual.
La Figura 28 representa un diagrama de flujo que muestra cómo el sistema 10 y su dispositivo 104 de visualización (por ejemplo, el casco 3600 AR) pueden utilizarse junto con el brazo 2700 en C en un procedimiento quirúrgico. La cámara 3904 (por ejemplo, una cámara de alta definición o similar) incorporada en el casco 3600 AR se puede utilizar para capturar la imagen visualizada en el monitor del brazo en C (2800). La imagen puede ajustarse para "cuadrarla" de modo que coincida con lo que se observaría si la cámara 3904 hubiera estado perfectamente centrada y normal respecto a la imagen en el monitor (2802). El conocimiento de la posición del generador de imágenes y de la fuente en relación con la anatomía que se está visualizando se puede utilizar para corregir las imágenes para la ampliación y la distorsión de paralaje debidas a la divergencia del haz de rayos X desde la fuente (2804). La imagen corregida puede visualizarse entonces en el casco 3600 AR (2806). Esto se puede utilizar para permitir al usuario 106 realizar mediciones relevantes para el procedimiento, tales como la colocación de la copa acetabular o la longitud de la pierna (2808). Otras imágenes pueden visualizarse simultáneamente, superponerse, reflejarse, o manipularse de otro modo para permitir al usuario 106 hacer comparaciones (2810).
En otra realización, la captura de imágenes también se puede lograr mediante comunicación inalámbrica entre el brazo 2700 en C y el casco 3600 AR, por ejemplo, mediante la transferencia de archivos en formato DICOM. Como alternativa, se podrían emplear algoritmos que incorporen visión artificial para realizar automáticamente mediciones tales como la inclinación y la versión de una cubierta acetabular. La detección de bordes se puede utilizar para trazar el contorno de la cubierta. Se pueden determinar los parámetros de una elipse la cual coincide de manera óptima al contorno y utilizarlos para calcular la anteversión de la cubierta a partir de la relación entre la longitud de los ejes menor y mayor de la elipse óptima. La inclinación puede calcularse, por ejemplo, colocando una línea tangencial a los aspectos más inferiores de las ramas púbicas y calculando el ángulo entre el eje mayor de la elipse de la cubierta y esta línea. De forma similar, la longitud comparativa de la pierna y el desplazamiento lateral del fémur pueden determinarse y podrían corregirse para cambios o diferencias en la abducción del fémur reconociendo el centro de rotación desde la cabeza del fémur o el centro de la sección esférica de la carcasa y realizando una rotación virtual alrededor de este punto para coincidir los ángulos de abducción. Este tipo de cálculo podría realizarse casi instantáneamente y ahorrar tiempo o la necesidad de tomar imágenes radiográficas adicionales. Además, y en otra realización, un algoritmo podría corregir el efecto del mal posicionamiento de la pelvis en la inclinación y anteversión aparentes de la carcasa mediante la realización de una rotación virtual para que coincida con los anchos y relaciones de aspecto de las regiones radiolúcidas que representan los forámenes obturadores.
En otra realización, la formación de imágenes de brazo en C puede utilizarse para registrar la posición de la anatomía, tal como la pelvis. Para ello, el marcador 1300 anatómico incorporaría características radiopacas de geometría conocida en un patrón conocido. La imagen del brazo en C se captura y se escala en base a las características conocidas del marcador y se visualiza en el casco 3600 AR. Se visualiza al usuario 106 un modelo virtual de la anatomía generado a partir de una CT computarizada antes. El usuario 106 puede manipular el modelo virtual para posicionarlo de forma que su contorno coincida con la imagen del brazo en C. Esta manipulación se realiza preferentemente mediante el seguimiento de la posición y el movimiento de la mano del usuario 106 utilizando SLAM. Alternativamente, el usuario 106 puede manipular un objeto físico, el cual incorpora un marcador con el modelo virtual moviéndose con el objeto físico. Cuando el modelo virtual está correctamente alineado con la imagen del brazo en C, se puede calcular la relación entre la anatomía del paciente y el marcador 1300 anatómico. Estas etapas y manipulaciones también podrían ser realizados de manera computacional por el software utilizando la detección de bordes y su coincidencia con una proyección del perfil del modelo generado a partir de CT.
V. Procedimientos espinales
La Figura 31 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización durante el registro de una columna vertebral con ultrasonidos. Se fija un marcador 1300 anatómico a una vértebra adyacente al sitio de la operación. Se proporciona una sonda 3104 de ultrasonido que incluye una pluralidad de fiduciales 3106 que definen un marcador. En una realización, la sonda 3104 de ultrasonido funciona con baterías, es inalámbrica, y puede comunicarse con el casco 3600 AR a través de radio. El software tiene información geométrica y de otro tipo necesaria para poder posicionar y escalar la imagen de ultrasonido 2D en relación con la posición del marcador 1300. La sonda 3104 de ultrasonido se mueve sobre la superficie del paciente 3100 para escanear la región de interés. El software combina los datos de imagen 2D con la información de pose de seis grados de libertad de la sonda 3104 de ultrasonido en relación con el marcador 1300 anatómico para generar un modelo 3108 virtual que representa la superficie de la vértebra de interés. La sonda 3104 de ultrasonido puede rotarse en relación con la anatomía de interés para obtener una imagen 3D más completa. El contorno posterior de la apófisis espinosa y las apófisis mamilares izquierda y derecha pueden coincidir con las mismas características de un modelo 3D de la vértebra generado por CT para registrar y posteriormente posicionar el modelo virtual de la vértebra en una vista de realidad mixta. Alternativamente, se puede utilizar cualquier característica adecuada la cual sea visible en una ecografía o la posición del modelo virtual puede ser relativa a la superficie del paciente determinada por SLAM. Este último es apropiado para procedimientos en los cuales la anatomía de interés del paciente es estacionaria durante la duración del procedimiento y la fijación de un marcador sería innecesariamente invasiva o engorrosa. Los ultrasonidos pueden utilizarse de forma similar para generar modelos de anatomía de interés tales como, pero no limitado a, estructuras óseas, nervios y vasos sanguíneos. Se puede lograr el registro de cualquier anatomía. Por ejemplo, se puede establecer una trama de referencia pélvica utilizando ecografía para localizar el vértice proximal del ASIS izquierdo y derecho y el pubis. El mismo procedimiento se puede utilizar para seguir la posición de herramientas o implantes por vía percutánea.
La Figura 32 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización durante el registro de una columna vertebral con un estilete 1800. El marcador 1300 anatómico se fija a una vértebra adyacente al sitio de la operación. Se visualiza un modelo 3200 virtual de la vértebra del paciente generado a partir de imágenes preoperatorias. Este modelo virtual incluye un primer punto 3202 de referencia, un segundo punto 3204 de referencia y un tercer punto 3206 de referencia. La Figura 33 representa una vista de cerca de la anatomía expuesta que se muestra en la Figura 32. Los tejidos blandos del paciente se han disecado lo suficiente como para exponer un primer proceso 3300 óseo, un segundo proceso 3302 óseo y un tercer proceso 3304 óseo el cual contienen los tres puntos de referencia. El usuario 106 registra los tres puntos de referencia colocando la punta 1804 de estilete en los puntos de la vértebra real que mejor coincidan con la ubicación de los puntos de referencia que se muestran en el modelo virtual. A continuación, el software reposiciona el modelo 3200 virtual en la vista del usuario para alinear mejor estos puntos. El usuario 106 verifica visualmente la calidad del registro comparando el modelo virtual con las regiones reales expuestas de la vértebra. Si es necesario, el usuario 106 puede realizar ajustes utilizando la punta 1804 del estilete 1800 para reposicionar el modelo virtual. En una realización alternativa, los puntos de referencia son arcos trazados sobre el aspecto más posterior de cada proceso. En otra realización, los contornos de los procesos expuestos se establecen con SLAM y el software realiza un mejor ajuste de la posición del modelo virtual para que coincida con estos contornos.
La Figura 34 representa una realización ejemplar de una MXUI que se muestra al usuario 106 a través del dispositivo 104 de visualización durante un procedimiento de fusión espinal. Se muestran un objetivo 3400 virtual para la broca y una broca 3402 virtual. Se muestra una vértebra 3404 virtual, renderizada para ser transparente en relación con el objetivo 3400 virtual y la broca 3402 virtual. El ángulo numérico de la broca y la profundidad de penetración o distancia desde la punta de la broca hasta la profundidad máxima segura de inserción se visualiza numéricamente como texto 3406 virtual. La Figura 35 representa una vista cercana del objetivo 3400 virtual y la broca 3402 virtual que se muestran en la Figura 34. El objetivo 3400 virtual se muestra en forma de una varilla 3500 la cual tiene un retículo 3502 proximal y un retículo 3504 distal. Para mantener la broca real en una trayectoria de objetivo segura, el usuario debe mantener una posición en la cual la broca 3402 virtual pase a través de los anillos de ambos retículos del objetivo 3400 virtual. La trayectoria ideal se logra cuando la broca 3402 virtual pasa a través del centro de ambos retículos. Si la broca real se mueve fuera de una trayectoria de objetivo segura, el color del objetivo 3400 virtual cambia para alertar al usuario y se emite una advertencia audible. El retículo 3504 distal se posiciona en el punto de inicio planificado sobre la superficie del hueso. La longitud axial del objetivo 3400 virtual y la broca 3402 virtual se escalan de modo que sus extremos proximales coincidan cuando la broca alcance su profundidad máxima planificada. La escala para los movimientos de desplazamiento de la broca 3402 virtual es 1: 1 cuando está lejos del objetivo 3400 virtual, pero se expande a un aumento mayor para una mayor precisión cuando está más cerca permitiendo una mayor precisión.
Aunque esto se describe en el contexto de la perforación con una broca, esta vista de realidad mixta se puede utilizar para múltiples etapas, incluida el roscado pedicular o la introducción de un tornillo pedicular o el uso de un punzón que se puede seguir para encontrar el canal del tornillo pedicular. Como medio rápido para volver a calibrar la ubicación axial de la punta de la broca, macho de roscar o tornillo a medida que se intercambian, el usuario coloca la punta en el hoyuelo de un marcador. Los implantes pueden introducirse de forma menos invasiva mediante guía AR, por ejemplo, se puede posicionar una jaula intercorporal durante un procedimiento PLIF, XLIF o TLIF.
En otra realización, un taladro quirúrgico podría estar equipado para comunicarse de manera inalámbrica con el casco para proporcionar una comunicación bidireccional. Esto podría facilitar diversas características de seguridad y mejora de la usabilidad, incluidas las siguientes. La detención automática del taladro o prevención del funcionamiento si el taladro no se encuentra dentro de la trayectoria de objetivo segura o alcanza la profundidad máxima segura. Proporcionar una interfaz de usuario cómoda para especificar los parámetros de ajuste de par adecuados para una aplicación de limitación de par. Por ejemplo, un par de inserción máximo para un tornillo pedicular de un tamaño determinado o un par de asentamiento para el tornillo de ajuste de un tornillo pedicular. Los valores reales utilizados podrían registrarse en el registro del paciente con fines de documentación o investigación, por ejemplo, la curva de par durante el taladrado, el par de asentamiento final de un tornillo pedicular o un tornillo de ajuste, la posición implantada de un tornillo pedicular o los implantes específicos utilizados.
En otra realización, el casco 3600 AR podría conectarse de manera inalámbrica a un sistema de neuromonitorización/localización de nervios, para proporcionar al usuario 106 (por ejemplo, cirujano de columna vertebral) avisos y mediciones en tiempo real dentro de su campo de visión, particularmente durante procedimientos mínimamente invasivos tales como XLIF. Además, cuando se utiliza junto con imágenes preoperatorias en las cuales los nervios reales del paciente han sido captados y reconstruidos en modelos 3D, si el sistema detecta que un nervio en particular ha sido estimulado o está siendo abordado por la sonda de estimulación, el holograma que representa esa estructura de nervio puede ser resaltado al usuario 106 para que sea más fácil evitar el contacto o la lesión de la estructura de nervio.
VI. Procedimientos de reemplazo de rodilla
En otra realización ejemplar de la presente divulgación y con referencia a la Figura 42, el sistema 10 se utiliza para la cirugía de reemplazo de rodilla. En la Figura 42 se muestran una pelvis 4202, un fémur 4204 y una tibia 4206 de un paciente de reemplazo de rodilla, el cirujano 4208 (es decir, el usuario 106) se muestra usando el casco 3600 AR. Un marcador 4210 de fémur y un marcador 4212 de tibia se fijan al fémur y a la tibia respectivamente con pasadores. El fémur se mueve a través de un intervalo de movimiento para determinar el centro de rotación como un proxy para el centro de la cadera en la trama de referencia del marcador 4210 de fémur. A continuación, se flexiona la rodilla a través de un intervalo de movimiento para determinar el eje de flexión preoperatorio de referencia de la rodilla. A continuación, el cirujano 4208 realiza una incisión para exponer la articulación de la rodilla. Se utiliza un estilete 1800 para registrar el centro del fémur distal, en base a un punto de referencia tal como el punto más distal del surco de la tróclea. El centro proximal de la tibia se define mediante el registro de la huella del ACL con la punta del estilete. Para determinados procedimientos mínimamente invasivos, los puntos de referencia óseos pueden registrarse artroscópicamente insertando el estilete a través de un puerto en la cápsula articular y visualizándolo con un artroscopio 4214 insertado a través de un segundo puerto. Además, la imagen 4216 artroscópica del artroscopio se puede comunicar de manera inalámbrica al casco 3600 AR y visualizarse como parte de una MRUI. En una realización alternativa, podría incorporarse una punta de estilete en un artroscopio que se puede seguir permitiendo realizar registros de puntos de referencia a través de un único puerto. El estilete 1800 se puede utilizar entonces para registrar los maléolos medial y lateral y determinar el centro del tobillo en la trama de referencia del marcador 4212 de tibia mediante interpolación de estos puntos. En este punto se establece una trama de referencia femoral con su origen en el centro del fémur distal, con un primer eje que se extiende hacia el centro de la cadera, un segundo eje definido por el eje de flexión de la rodilla y un tercer eje definido como la normal a los ejes primero y segundo. Se define una trama de referencia tibial con su origen en el centro de la tibia proximal, con un primer eje que se extiende hacia el centro del tobillo, un segundo eje definido por el eje de flexión de la rodilla y un tercer eje definido como la normal a los ejes primero y segundo. Estas tramas de referencia pueden presentarse como imágenes virtuales en una MRUI.
La Figura 43 muestra una realización ejemplar de una MXUI que se muestra al cirujano 4208 a través del casco 3600 AR durante una cirugía de reemplazo de rodilla con la rodilla expuesta. Se puede generar un mapa topográfico de los cóndilos 4302 femorales y la meseta 4304 tibial escaneando con el sensor 3906 de profundidad en el casco 3600 AR o mediante el uso de las cámaras 3904 estereoscópicas y SLAM. La rodilla se flexionaría a través de un intervalo de movimiento y el cirujano 4208 ajustaría su punto de observación para permitir la mayor visualización posible de los cóndilos. Un círculo 4306 en el centro del campo de visión es utilizado por el cirujano 4208 para "pintar" los cóndilos durante el procedimiento de registro y se utiliza como una máscara para el algoritmo de mapeo. Este círculo puede coincidir con el campo de proyección de un proyector de luz estructurada utilizado para mejorar la velocidad y la precisión del mapeo. A medida que se mapean las superficies, se puede proyectar una malla 4308 virtual 3D de áreas mapeadas sobre las superficies articulares para guiar al cirujano 4208 y proporcionar una confirmación visual de la calidad del registro de la superficie. A continuación, se utiliza un algoritmo para determinar el punto más bajo de las superficies articulares del fémur distal y la tibia proximal para determinar la profundidad de las resecciones femoral distal y tibial proximal. El tamaño ideal de los implantes puede determinarse a partir del mapa topográfico.
En otra realización ejemplar, el sistema 10 puede utilizar los mapas topográficos del fémur 4204 y la tibia 4206 para seguir las poses de los respectivos huesos (4204, 4206) en lugar de fijar un marcador fiducial a los huesos (4204, 4206). En una realización preferente, el usuario 106 puede seleccionar regiones de los huesos (4204, 4206) que permanecerán visibles cuando la rodilla se flexione y extienda. Con referencia a las Figuras 58A-C, el usuario 106 puede seleccionar mapear el aspecto antero-medial de la tibia 5808, o el aspecto antero-medial del fémur 5806 distal, creando mapas 5802 y 5804 de superficie tridimensionales de referencia, respectivamente. Estas regiones son visibles a través de la incisión cutánea típica. Se pueden utilizar los instrumentos y técnicas de retracción habituales para mantener la visibilidad. El sistema 10 puede almacenar los mapas 5802 y 5804 tridimensionales de referencia como nubes de puntos, como superficies matemáticas, o por otros medios. El sistema 10 puede crear la trama 5812 de referencia tibial y la trama 5810 de referencia femoral en relación con el conjunto 210 de sensores y registrar la pose inicial de los mapas 5802 y 5804 de superficie en las tramas 5812 y 5810 de referencia, respectivamente. El usuario 106 puede registrar puntos de referencia o estructuras adicionales en el mismo hueso o cuerpo rígido, cuya pose el sistema 10 registra en relación con la trama 5812 de referencia o la trama 5810 de referencia. El sistema 10, utilizando el conjunto 210 de sensores, vuelve a escanear continuamente las mismas secciones de la anatomía y crea mapas 5816 y 5814 de superficie tridimensionales desplazada para la tibia y el fémur, respectivamente. A continuación, comparando cada mapa 5816, 5814 de superficie desplazada con el correspondiente mapa 5802, 5804 de superficie de referencia creado para la misma superficie, el sistema 10 determina la rotación geométrica y la traslación necesarias para alinear los mapas de superficie desplazada y de referencia para un mejor ajuste. El sistema 10 aplica entonces la misma rotación y traslación a todos los puntos y estructuras de referencia almacenados en el cuerpo rígido del fémur 4204 o la tibia 4206, calculando la pose actual de todos esos puntos y estructuras en relación con la trama de referencia del conjunto 210 de sensores.
La Figura 55 representa un diagrama de flujo que muestra un procedimiento ejemplar para utilizar el sistema para navegar en un procedimiento de reemplazo de rodilla. El usuario (106) expone primero la rodilla para visualizar la anatomía (5500) ósea. A continuación, el conjunto 210 de sensores explora aspecto antero-medial del fémur 5806 distal y el aspecto antero-medial de la tibia 5808 proximal (5502). A partir de estas superficies, se almacenan (5504) mapas 5802, 5804 de superficies tridimensionales de referencia. El sistema puede opcionalmente escanear y mapear regiones más amplias de los cóndilos 5818 femorales, la tróclea 5820, la meseta 5822 tibial, los cóndilos 5824 posteriores, o los epicóndilos 5826. A partir de estos mapas 5828, 5830, 5832, 5834, 5836 de superficie expandida respectivamente, y opcionalmente utilizando datos anatómicos externos, el sistema 10 identifica el centro en el fémur 4204 distal y el centro de la tibia 4206 proximal (5506). El fémur se mueve a través de un intervalo de movimiento a la vez que se escanea el fémur 5806 distal para determinar el centro de rotación del fémur alrededor de la cadera como un proxy para el centro de la cadera relativo a la anatomía 5804 femoral distal mapeada (5508). A continuación, el usuario 106 posiciona la rodilla en flexión de 90 ° disponiendo la parte inferior de la pierna 5112 aproximadamente perpendicular al fémur 4204. Con la rodilla flexionada, el sistema 10 utiliza su conjunto 210 de sensores para escanear el fémur 5806 distal y la parte inferior de la pierna 5112, identificando su eje 5114 central aproximado. Alternativamente, el sistema 10 utiliza su conjunto 210 de sensores para escanear el fémur 5806 distal y la tibia 5808 proximal a medida que la rodilla se flexiona a través de un intervalo de movimiento de 90 grados para identificar un eje de flexión promedio de la rodilla. El sistema 10 establece entonces una trama 5810 de referencia para el fémur 4204 en relación con el conjunto 210 de sensores con su origen en el centro del fémur distal, con un primer eje que se extiende hacia el centro de la cadera, un segundo eje paralelo al eje de la extremidad 5114 inferior, y un tercer eje definido como la normal a los ejes (5510) primero y segundo. Alternativamente, el sistema establece una trama 5810 de referencia para el fémur 4204 en relación con el conjunto 210 de sensores con su origen en el centro del fémur distal, un primer eje que se extiende hacia el centro de la cadera, un segundo eje paralelo al eje de flexión de la rodilla y un tercer eje definido como la normal a los ejes primero y segundo. Se registran las posiciones de los cóndilos posteriores con respecto a la tibia, y se construye un eje entre ellos. El sistema 10 genera un mapa de superficie de una sección de la superficie dorsal del pie con el fin de seguir su pose. En realizaciones alternativas, se puede seguir el pie puede a través de un marcador fijado a la piel o a cortinas, envolturas o botas superpuestas. El pie se mueve a través de un intervalo de movimiento para determinar su centro de rotación como un proxy para el centro del tobillo en relación con la anatomía (5512) tibial proximal mapeada. El eje mecánico de la tibia se construye entonces entre los centros de la tibia proximal y el tobillo y establece una trama 5812 de referencia para la tibia 4206 en relación con el conjunto 210 de sensores con su origen en el centro de la tibia proximal, con un primer eje que se extiende hacia el centro de la cadera, un segundo eje paralelo al eje de la extremidad 5114 inferior, y un tercer eje definido como la normal a los ejes (5514) primero y segundo. Alternativamente, el sistema establece una trama 5812 de referencia para la tibia 4206 en relación con el conjunto 210 de sensores con su origen en el centro de la tibia proximal, un primer eje que se extiende hacia el centro del tobillo, un segundo eje paralelo al eje de flexión de la rodilla y un tercer eje definido como la normal a los ejes primero y segundo. Luego, escaneando repetidamente el fémur 5806 distal expuesto y la tibia 5808 proximal, el sistema 10 genera mapas 5814 y 5816 de superficie desplazada para cada escaneo (5516). Con cada escaneo sucesivo, el sistema puede comparar los mapas 5814 y 5816 de superficie desplazada con los mapas 5804 y 5802 de superficie originales para la región correspondiente en el fémur 5806 distal y la tibia 5808 proximal, respectivamente. En base a esta comparación, el sistema 10 puede seguir la pose del fémur 4204 y la tibia 4206 en relación con el conjunto 210 de sensores determinando la traslación y rotación necesarias para alinear los mapas 5814 y 5816 de superficie desplazada con los mapas 5804 y 5802 de superficie de referencia (5518). A continuación, el sistema 10 calcula y visualiza los ángulos y profundidades de resección en el fémur distal y la tibia proximal mediante el seguimiento simultáneo de la superficie anatómica mapeada respectiva y una herramienta de corte o guía (5520). El sistema 10 puede entonces visualizar guías virtuales para ayudar al usuario 106 a alinear la herramienta de corte o guía con un ángulo o profundidad objetivo definido por el usuario (5522). El sistema 10 puede sugerir tamaños de implante al usuario 106 en base a datos de implantes externos (5524). Tras la colocación de implantes o implantes de prueba, el sistema 10 puede realizar un seguimiento del fémur y la tibia a lo largo de un intervalo de flexión y medir la rotación relativa del fémur y la tibia sobre uno o más ejes, que representan, por ejemplo, la rotación axial o la rotación varo/valgo (5526).
Opcionalmente, el sistema 10 puede usar la topografía mapeada para determinar automáticamente los centros respectivos del fémur 5804 distal (por ejemplo, identificando el punto más distal en la tróclea o el centro de una línea a través de la parte más ancha de los cóndilos) o tibia 5802 proximal (por ejemplo, calculando el centroide de la meseta). Opcionalmente, la identificación del punto central puede complementarse mediante datos externos, tales como una biblioteca de mapas topográficos anatómicos en los cuales se hubiera identificado el centro, permitiendo al sistema 10 calcular el punto central en casos en los cuales la anatomía estuviera parcialmente oscurecida, evitando el mapeo de toda la superficie.
La Figura 56 representa una rodilla con componentes unicondilares implantados. Se ha reseccionado un compartimento de cada uno del fémur 5602 y la tibia 5604. Se han implantado un implante 5606 femoral y un implante 5608 tibial. En una realización ejemplar, el sistema 10 sigue y registra el movimiento relativo del fémur 5602 nativo y la tibia 5604. A continuación, escaneando y mapeo de las superficies de los implantes (5606, 5608) utilizando cámaras 206, el sistema 10 puede calcular los trayectos de las superficies de los implantes siguiendo los movimientos tibio-femorales registrados. El sistema 10 también puede mapear el hueso 5610 expuesto restante y detectar el pinzamiento entre los implantes (5606, 5608) y el hueso 5610. El volumen que representa la superposición entre los cuerpos que interfieren puede calcularse y superponerse como modelo virtual en el dispositivo 104 de visualización. El sistema 10 también puede resaltar los lugares de pinzamiento en el dispositivo 104 de visualización. Por ejemplo, el implante 5606 femoral puede pinzarse en la cresta de hueso tibial adyacente al plano 5610 de resección sagital, o esta cresta puede pinzarse en el hueso femoral adyacente al implante 5606 femoral. Si al menos una superficie de contacto es un hueso, el usuario 106 puede elegir recortar el hueso para cambiar el punto de contacto. Si al menos una superficie de contacto está sobre un implante, el usuario 106 puede elegir por ajustar la posición del implante para reducir el pinzamiento.
Con referencia a la Figura 57, el sistema 10, habiendo registrado la cinemática tibio femoral nativa, puede visualizar al usuario 106 la localización del punto 5702 de contacto interimplante y una zona 5704 de seguridad predefinida, proyectada sobre la superficie del implante.
Con referencia a la Figura 44, un implante 4402 tibial virtual y un implante 4404 femoral virtual pueden visualizarse en una MXUI que se muestra al cirujano 4208 a través del casco 3600 AR. El cirujano 4208 puede cambiar los tamaños y ajustar la posición de estos modelos virtuales hasta que esté satisfecho. En otra realización, el implante tibial virtual puede visualizarse durante la preparación de la tibia para el espetado con el fin de proporcionar una guía para la alineación rotacional del componente tibial.
Con referencia a la Figura 45, las guías 4502 virtuales para la ubicación de los pasadores para el bloque de corte tibial se visualizan en una MXUI que se muestra al cirujano 4208 a través del casco 3600 AR. Se visualizan las guías 4504 virtuales para la ubicación de los pasadores para el bloque de corte femoral distal. Se visualizan las guías 4506 virtuales para la ubicación de los pasadores para el bloque de corte 4 en 1. La colocación de los pasadores reales se guía alineándolos con las guías 4502, 4504 o 4506 virtuales. A continuación, el fémur 4508 y la tibia 4510 pueden reseccionarse colocando bloques de corte en estos pasadores.
La Figura 46 representa una realización alternativa de la MXUI que se muestra en la Figura 45 en la que se utiliza una guía 4602 virtual para visualizar el plano ideal de resección y el cirujano 4208 puede reseccionar el hueso directamente mediante la alineación de la hoja de sierra real con la guía 4602 virtual. Alternativamente, en el caso de una sierra 4604 de seguimiento, el cirujano 4208 puede reseccionar el hueso mediante la alineación de una hoja 4606 de sierra virtual con la guía 4602 virtual. El texto 4608 virtual que muestra el ángulo varo/valgo, el ángulo de flexión y la profundidad de cada resección puede visualizarse numéricamente cuando sea relevante.
Las Figuras 47 y 49 representan un dispositivo 4700 de equilibrio de rodilla que puede incluirse opcionalmente en el sistema 10 que tiene un elemento 4702 base, un resorte 4902, un elemento 4904 condilar, y una placa 4906 condilar. El elemento 4702 base incluye un mango 4908, un objetivo 4714 y una placa 4910 tibial. El elemento 4904 condilar incluye un mango 4912 y un orificio 4914 cilíndrico de cojinete. La placa 4906 condilar incluye un árbol 4916 cilíndrico de cojinete, un objetivo 4716 y dos palas 4706 y 4707. La placa 4906 condilar pivota sobre un cojinete 4916 cilíndrico, el cual permite la inclinación medial/lateral de la placa 4906 condilar con respecto a la placa 4910 base. En una realización alternativa, el cojinete 4916 puede ser de tipo bola que permite la inclinación medial/lateral y de flexión/extensión de la placa 4906 condilar. En otra realización, la placa 4906 condilar puede estar contorneada para coincidir a la topografía de la superficie de cojinete de un implante tibial. En otra realización, el diseño podría incluir dos elementos condilares totalmente independientes, cada uno con una pala de distracción rígidamente integrada y un marcador.
Con referencia a la Figura 47, la placa 4910 tibial se asienta sobre la tibia 4704 reseccionada, y las palas 4706 y 4707 de distracción mantienen contacto con el cóndilo 4708 femoral medial y el cóndilo 4712 femoral lateral respectivamente. Las palas 4706 y 4707 de distracción son empujadas por el resorte 4902 y pivotan sobre un eje anteroposterior para proporcionar una fuerza de distracción casi igual y constante entre cada cóndilo (4708, 4712) femoral y la tibia 4704. El elemento 4702 base y las palas (4706, 4704) de distracción incluyen marcadores (4714, 4716) ópticos los cuales permiten al software medir el grado de distracción de cada cóndilo (4708, 4712) femoral.
A medida que la rodilla es flexionada a través de un intervalo de movimiento, la posición de cada objetivo es seguida, así como la pose de la tibia y el fémur. Estos datos se utilizan para generar un gráfico de la laxitud medial y lateral en función del ángulo de flexión. Esta información se utiliza para calcular la ubicación ideal de los pasadores de ubicación de bloque de corte femoral distal para lograr el equilibrio a través del intervalo de movimiento de la rodilla o para guiar al usuario en la eliminación de osteofitos o la realización de liberaciones de tejidos blandos para equilibrar la rodilla a través de su intervalo de movimiento. Este gráfico se puede visualizar en una MXUI como se muestra en la Figura 48 en el cual un primer arco 4802 tridimensional representa la laxitud medial y un segundo arco 4804 tridimensional representa la laxitud lateral a través del intervalo de movimiento de la rodilla. Los valores numéricos en el ángulo de flexión actual de la rodilla real se pueden visualizar como texto 4806 virtual.
VII. Otros procedimientos médicos
Con referencia a la Figura 10, la presente divulgación proporciona además un procedimiento de utilización del sistema 10 para realizar otros procedimientos quirúrgicos (a continuación, se proporcionan ejemplos específicos). El procedimiento incluye la recopilación (1000) de datos que incluye, pero no se limita al, seguimiento y reconocimiento de marcadores visuales e IMUs. Estos datos se utilizan para determinar la orientación relativa y/o absoluta y la posición de múltiples elementos en la vista (1002) de trabajo. Los datos (1004) externos se introducen en el algoritmo. Se utilizan algoritmos para procesar los datos para casos (1006) de uso específicos y determinar la salida (1008) requerida. Estos datos se utilizan en una pantalla (1010) de salida de realidad aumentada AR o realidad virtual VR para ayudar al profesional médico.
Por ejemplo, el procedimiento se puede utilizar para la artroplastia total de cadera. Los marcadores (por ejemplo, 100, 108, 110, etc.) para puntos de referencia anatómicos y herramientas se utilizan para la recopilación (1000) de datos y la determinación de la posición y orientación (1002) de la cadera y las herramientas quirúrgicas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan al, posicionamiento de componentes, el corte de cabeza femoral, el posicionamiento del acetábulo, la colocación de tornillos, la determinación de la longitud de la pierna, y la localización de hueso bueno en el acetábulo para el ajuste de revisión.
El procedimiento también se puede utilizar para la artroplastia total de rodilla. Los marcadores (por ejemplo, 100, 108, 110, etc.) para puntos de referencia anatómicos y herramientas se utilizan para la recopilación (1000) de datos y la determinación de la posición y orientación (1002) de la rodilla, la tibia y las herramientas quirúrgicas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la ubicación, el ángulo y la pendiente del corte tibial, la colocación y el ajuste fino de la guía, la evitación de la guía intramedular y la mejora de los cortes femorales.
El procedimiento se puede utilizar para la osteotomía correctiva para la mal unión de fracturas distales del radio. Los marcadores (por ejemplo, 100, 108, 110, etc.) para los puntos de referencia anatómicos y las herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con los datos preoperatorios de CT computarizada para la determinación de la posición y orientación (1002) de la mal unión y las herramientas quirúrgicas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la ubicación de la osteotomía, el ángulo de corte y la evaluación de los resultados.
El procedimiento se puede utilizar para la osteotomía correctiva para la mal unión de los huesos del brazo, incluidos el húmero, el húmero distal, el radio y el cúbito con fracturas que pueden ser complicadas e implicar correcciones angulares y rotacionales. Los marcadores (por ejemplo, 100, 108, 110, etc.) para los puntos de referencia anatómicos y las herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con los datos preoperatorios de CT computarizada para la determinación de la posición y orientación (1002) de la mal unión y las herramientas quirúrgicas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la ubicación del lugar de la osteotomía, el ángulo de corte, el grado de corrección y la evaluación de los resultados.
El procedimiento se puede utilizar para la osteotomía femoral distal y tibial proximal para corregir la artrosis temprana y la mala alineación. Los marcadores (por ejemplo, 100, 108, 110, etc.) para los puntos de referencia anatómicos y las herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con datos preoperatorios de CT computarizada o imágenes de rayos X de pierna larga para la determinación de la posición y orientación (1002) de la ubicación de la osteotomía y la escala y las herramientas quirúrgicas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la ubicación del lugar de la osteotomía, el ángulo de corte, el grado de corrección y la evaluación de los resultados.
El procedimiento se puede utilizar para la osteotomía periacetabular para la displasia acetabular. Los marcadores (por ejemplo, 100, 108, 110, etc.) para los puntos de referencia anatómicos y las herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con los datos preoperatorios de CT computarizada para la determinación de la posición y orientación (1002) de la ubicación de la osteotomía y las herramientas quirúrgicas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la localización del lugar de la osteotomía, la angulación, el grado de corrección y la evaluación de los resultados.
El procedimiento se puede utilizar para osteotomías ortopédicas pediátricas similares a las realizaciones anteriores. Los marcadores (por ejemplo, 100, 108, 110, etc.) para los puntos de referencia anatómicos y las herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con los datos preoperatorios de CT computarizada para la determinación de la posición y orientación (1002) de la ubicación de la osteotomía y las herramientas quirúrgicas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la ubicación del lugar de la osteotomía, el ángulo de corte, el grado de corrección y la evaluación de los resultados.
El procedimiento se puede utilizar para reconstrucciones de ligamentos del codo, que incluyen, pero no se limitan a, la reconstrucción del ligamento colateral radial (RCL) y la reconstrucción de UCL (Tommy-John). Los marcadores (por ejemplo, 100, 108, 110, etc.) para puntos de referencia anatómicos y herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con datos preoperatorios de CT computarizada o MRI para la determinación de la posición y orientación (1002) de puntos isométricos para la reconstrucción de ligamentos y herramientas quirúrgicas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la localización precisa de la colocación del túnel y la evaluación de los resultados.
El procedimiento se puede utilizar para reconstrucciones de ligamentos de la rodilla, que incluyen, pero no se limitan a, reconstrucciones de MCL, LCL, ACL, PCL y de la esquina posterolateral. Los marcadores (por ejemplo, 100, 108, 110, etc.) para puntos de referencia anatómicos y herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con datos preoperatorios de CT computarizada o MRI para la determinación de la posición y orientación (1002) de puntos isométricos para la reconstrucción de ligamentos y herramientas quirúrgicas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la localización precisa de la colocación del túnel, la profundidad del túnel, el ángulo del túnel, la colocación del injerto, y la evaluación de los resultados.
El procedimiento se puede utilizar para reconstrucciones de ligamentos del tobillo, que incluyen, pero no se limitan a la reconstrucción para corregir la inestabilidad. Los marcadores (por ejemplo, 100, 108, 110, etc.) para puntos de referencia anatómicos y herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con datos preoperatorios de CT computarizada o MRI para la determinación de la posición y orientación (1002) de puntos isométricos para la reconstrucción de ligamentos y herramientas quirúrgicas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la localización precisa de la colocación del túnel, la profundidad del túnel, el ángulo del túnel, y la evaluación de los resultados.
El procedimiento se puede utilizar para los procedimientos quirúrgicos de la reconstrucción de la articulación acromioclavicular (AC) del hombro incluyendo, pero no limitado a la no colocación de túneles en la clavícula. Los marcadores (por ejemplo, 100, 108, 110, etc.) para puntos de referencia anatómicos y herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con datos preoperatorios de CT computarizada o MRI para la determinación de la posición y orientación (1002) de puntos isométricos para la reconstrucción de ligamentos y herramientas quirúrgicas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la localización precisa de la colocación del túnel, la profundidad del túnel, el ángulo del túnel, y la evaluación de los resultados.
El procedimiento puede usarse para procedimientos quirúrgicos de reemplazo total de hombro anatómico y reverso (TSA y RSA) incluyendo revisión TSA/RSA. Los marcadores (por ejemplo, 100, 108, 110, etc.) para los puntos de referencia anatómicos y las herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con datos preoperatorios de CT computarizada o MRI para la determinación de la posición y orientación (1002) de la cabeza humeral, los puntos de referencia relacionados y las herramientas quirúrgicas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la localización precisa del corte de cabeza humeral y la colocación del hueso glenoideo, la placa base y los tornillos, y el ángulo de escariado y la colocación de la guía para la corrección glenoidea, y la evaluación de los resultados.
El procedimiento se puede utilizar para procedimientos quirúrgicos de artroplastia total de tobillo. Los marcadores (por ejemplo, 100, 108, 110, etc.) para los puntos de referencia anatómicos y las herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con datos preoperatorios de CT computarizada o MRI para la determinación de la posición y orientación (1002) de la tibia, el peroné, el astrágalo, el navicular y otros puntos de referencia y herramientas quirúrgicas relacionados. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la localización precisa del corte de cabeza tibial, la determinación del eje anatómico, y la evaluación de los resultados.
El procedimiento se puede utilizar para la colocación de tornillos percutáneos para fracturas pélvicas, meseta tibial, acetábulo y pelvis, pero sin limitarse a estas áreas. Los marcadores (por ejemplo, 100, 108, 110, etc.) para puntos de referencia anatómicos y herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con datos preoperatorios de CT computarizada o MRI para la determinación de la posición y orientación (1002) de puntos de referencia anatómicos y otros relacionados y herramientas quirúrgicas, incluidos tornillos. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la localización precisa de los huesos que reciben los tornillos, la anatomía circundante y las características de los tejidos blandos que deben evitarse, la localización de los tornillos, el ángulo de inserción, la profundidad de inserción, y la evaluación de los resultados.
El procedimiento se puede utilizar para inyecciones en consultorio en áreas que incluyen, pero no se limitan a, tobillo, rodilla, cadera, hombro y columna vertebral. Los marcadores (por ejemplo, 100, 108, 110, etc.) para los puntos de referencia anatómicos y las herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con datos preoperatorios de CT computarizada o MRI para la determinación de la posición y orientación (1002) de los puntos de referencia y las herramientas quirúrgicas relacionadas. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la localización precisa del lugar, la angulación, y la profundidad de la inyección con el fin de maximizar el efecto y minimizar la interacción con los órganos internos y la anatomía.
El procedimiento se puede utilizar para la colocación de tornillos pediculares para procedimientos de fusión espinal, incluyendo la columna lumbar y torácica, pero sin limitarse a estas áreas. Los marcadores (por ejemplo, 100, 108, 110, etc.) para puntos de referencia anatómicos y herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con datos preoperatorios de CT computarizada o MRI para la determinación de la posición y orientación (1002) de puntos de referencia anatómicos y otros relacionados y herramientas quirúrgicas, incluidos tornillos. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la localización precisa de los huesos que reciben los tornillos, la apertura del córtex, la angulación craneocaudal o similar, la inclinación medio-lateral, la trayectoria de inserción del tornillo, la profundidad de inserción, y la evaluación de los resultados.
El procedimiento se puede utilizar para la visualización de imágenes de espectro alternativo incluyendo, pero no limitado a infrarrojo, ultravioleta, tobillo, rodilla, cadera, hombro y columna vertebral. Los marcadores (por ejemplo, 100, 108, 110, etc.) para los puntos de referencia anatómicos y las herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden incluir, pero no se limitan a, cámara(s) de color dual con sensibilidades de espectro alternativo y/o tinte de inyección para resaltar las características del paciente para la determinación de la posición y orientación (1002) de los puntos de referencia relacionados y las herramientas quirúrgicas y la posición, ubicación, y tipo de características anatómicas más fácilmente visibles en espectros alternativos, incluyendo nervios, tumores, tejidos blandos y arterias. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la localización precisa de nervios, tumores, tejidos blandos de interés, arterias y otras características de interés que pueden mejorarse con esta técnica.
El procedimiento se puede utilizar para el diagnóstico de tumores, la estadificación y los procedimientos quirúrgicos curativos. Los marcadores (por ejemplo, 100, 108, 110, etc.) para los puntos de referencia anatómicos y las herramientas se utilizan para la recopilación (1000) de datos, los cuales pueden combinarse con datos preoperatorios de CT computarizada o MRI para la determinación de la posición y orientación (1002) de la ubicación del tumor y las herramientas quirúrgicas. Alternativamente, durante la cirugía diagnóstica, puede realizarse la localización del tumor con respecto a puntos de referencia anatómicos. Se utilizan algoritmos (1006) para determinar soluciones que incluyen, pero no se limitan a, la localización del lugar del tumor y la extensión del tamaño, la guía de extirpación, y la evaluación de los resultados.
El procedimiento se puede utilizar para la proyección de un punto de luz visible o invisible pero visible por la cámara sobre objetos de interés en el campo de visión, incluidos, pero no limitados a, puntos de referencia óseos, nervios, tumores, y otros objetos orgánicos e inorgánicos. Los marcadores (por ejemplo, 100, 108, 110, etc.) se utilizan para aumentar o sustituir conjuntos de datos externos para datos anatómicos, y pueden utilizarse en lugar de un apuntador físico o herramienta como se ha descrito anteriormente. El punto de luz puede visualizarse desde la pantalla de la cabeza del usuario o desde otro lugar. El punto de luz también puede manifestarse como un patrón u otro conjunto de luces. Esta(s) luz(es) resalta(n) características del paciente para la determinación de la posición y orientación (1002) de puntos de referencia e instrumentos quirúrgicos relacionados, así como para aumentar los conjuntos de datos, incluidos, pero no limitados a, los datos de CT computarizada o MRI. Los algoritmos (1006) se utilizan para determinar las soluciones descritas anteriormente, pero con la opción de selección alternativa o añadida.
El procedimiento se puede utilizar para el posicionamiento mínimamente invasivo de implantes y la inserción percutánea de tornillos de bloqueo. Se monta un marcador (por ejemplo, 100, 108, o 110, etc.) en el extremo proximal de un clavo intramedular. Se monta otro marcador (por ejemplo, 100, 108, o 110, etc.) en la herramienta de inserción de tornillo cruzado. Se visualiza un modelo virtual del clavo que incluye la trayectoria objetivo para el tornillo cruzado de bloqueo. El cirujano es capaz de insertar el tornillo cruzado alineando el tornillo cruzado virtual con la trayectoria objetivo. En otra realización, el mismo procedimiento puede aplicarse a las placas de fijación externa. En este caso se puede visualizar una placa de bloqueo virtual con una pluralidad de trayectorias de tornillo de bloqueo, una para cada orificio.
VIII. Base de datos de instrumentos y equipos que se pueden seguir
La presente invención incluye opcionalmente la construcción de una base de datos electrónica de instrumentos y equipos con el fin de permitir que el casco 3600 AR identifique qué instrumentos están presentes en el campo quirúrgico o en el área de la sala de operaciones. Con referencia a la Figura 29, opcionalmente se incluye en el sistema una etiqueta 2900 de seguimiento serializada para facilitar la construcción de tal base de datos. La etiqueta 2900 de seguimiento serializada incluye un código 2902 de número de serie legible por máquina, un número 2904 de serie legible por el ser humano y un conjunto de características ópticas las cuales facilitan el seguimiento de pose óptica de seis grados de libertad, tal como una pluralidad de fiduciales 2906. En una realización, el patrón de código 2902 de número legible por máquina puede ser captado por la(s) cámara(s) 3904 del casco 3600 AR y utilizado solo para determinar la pose y la posición del instrumento médico utilizando algoritmos de visión artificial. En otra realización, la imagen 2904 de número de serie puede ser captada por la(s) cámara(s) 3904 y utilizada por sí sola para determinar la pose y la posición del instrumento médico utilizando algoritmos de visión artificial. En otra realización, el modelo físico completo de la etiqueta 2900 de seguimiento puede ser captado por la(s) cámara(s) 3904 y utilizado por sí solo para determinar la pose y la posición del instrumento médico utilizando algoritmos de visión artificial. En otra realización, la etiqueta 2900 de seguimiento puede estar comprendida o contenida por una etiqueta RFID inalámbrica para la identificación no óptica del equipo en un kit que luego puede verificarse automáticamente utilizando reconocimiento óptico.
Con referencia a la Figura 30, se proporciona un diagrama de flujo que muestra un sistema para registrar el tipo de elemento y los parámetros físicos del equipo y almacenar y compartir estos datos para su uso en cirugía utilizando un casco de realidad aumentada. En esta realización ejemplar, las etiquetas serializadas rastreables están preimpresas en material autoadhesivo duradero. La etiqueta se fija (3002) a un elemento del equipo (3000), el cual podría ser, pero no se limita a, un brazo en C, un impactador, un apuntador, o cualquier otro equipo utilizado en el procedimiento, en un lugar el cual sea más ventajosamente visualizado durante un procedimiento quirúrgico o en el esfuerzo preparatorio que conduce al procedimiento (es decir, operaciones en la mesa posterior). A continuación, la etiqueta se registra (3004) visualizándola con la(s) cámara(s) 3904, identificando la etiqueta, e iniciando un registro en la base de datos asociado con ese número de serie. La geometría de interés relativa al elemento de equipo también puede registrarse (3006) y almacenarse en relación con la etiqueta que se puede seguir. Por ejemplo, en el caso de un brazo en C, se puede utilizar un estilete de registro para registrar tres puntos alrededor del perímetro de la cara del generador de imágenes y un punto que representa el origen de la fuente del haz de rayos X. Esto proporciona una trama de coordenadas, datos de orientación (pose), y datos de posición de la fuente del haz de rayos X con respecto a la trama de coordenadas del casco 3600 AR para su uso por los algoritmos del casco 3600 AR. En una realización alternativa, las cámaras 3904 son cámaras estéreo y se utilizan para escanear y reconocer la geometría del brazo en C mediante el reconocimiento de características clave tales como la superficie cilíndrica o rectangular del generador de imágenes. Se pueden introducir en el registro especificaciones (3008) relevantes adicionales para el elemento de equipo, e incluir, pero no limitar al el tipo y el modelo de equipo, la fecha de calibración, los parámetros de interfaz electrónica y las contraseñas de conectividad inalámbrica. Se captura 3010 una imagen del dispositivo con la(s) cámara(s) 3904. Se captura una imagen de la etiqueta (3012) de equipo del dispositivo. Todos estos elementos se añaden al registro (3014) completado, el cual es actualmente local al casco 3600 AR. A continuación, se marca y se comparte la hora del registro con una base (3016) de datos central. Este puede estar ubicado en un servidor local dentro del sistema del hospital o en cualquier servidor remoto, incluido cualquier almacenamiento basado en la nube a través de Internet. La carga de la base de datos puede realizarse a través de protocolos de red Wi-Fi comunes u otros medios divulgados por la técnica. Las acciones anteriores pueden ser realizadas por un representante de la empresa, un técnico empleado por el hospital, o cualquier otro individuo capacitado. Para evitar que los equipos mal registrados entren en la base de datos, se pueden requerir privilegios de administrador para capturar un registro.
Cuando un elemento de equipo está siendo utilizado en cirugía, la(s) cámara(s) 3904 son utilizadas para reconocer la etiqueta como un elemento de equipo que se puede seguir y leer el número (3018) de serie. El casco 3600 AR puede entonces conectarse (3020) a la base de datos y descargar el registro (3022) del equipo. Por lo tanto, el equipo se puede utilizar con seis grados de libertad de manera que se pueda seguir durante la intervención la cirugía (3024). Si corresponde, al equipo con las etiquetas de datos, los registros (3026) también pueden actualizarse con datos específicos del propio equipo, por ejemplo, cargar imágenes capturadas por el equipo durante una cirugía o capturar registros de la actividad del equipo durante una cirugía en un registro. Las entradas de registro que describen el uso del equipo en la cirugía pueden añadirse a la base de datos y al registro del paciente, mostrando la utilización del equipo. Por lo tanto, la base de datos generada se puede extraer por diversos motivos, tales como recuperar el uso de equipos defectuosos.
El sistema también se puede utilizar para reconocer instrumentos quirúrgicos e implantes encontrados durante la cirugía. Se conserva en memoria una base de datos de modelos CAD de instrumentos y equipos a escala. Durante un procedimiento, los algoritmos SLAM o similares de visión artificial pueden capturar la topografía de los elementos en la escena y compararla con la base de datos de instrumentos y equipos. Si se encuentra una coincidencia, el sistema puede tomar acciones apropiadas, tales como seguir la posición y orientación de los instrumentos relativos con el paciente y otros instrumentos que se estén utilizando en la cirugía, o entrar en un modo relevante para el uso de ese instrumento. Por ejemplo, en un procedimiento de reemplazo de cadera, si se detecta un impactador acetabular, se entra en el modo de navegación para la colocación de la ventosa.
Aunque la presente invención se ha ilustrado y descrito en la presente memoria con referencia a realizaciones preferentes y ejemplos específicos de las mismas, será fácilmente evidente para aquellos con conocimientos ordinarios en la técnica que otras realizaciones y ejemplos pueden realizar funciones similares y/o lograr resultados similares. Todas estas realizaciones y ejemplos equivalentes están dentro del ámbito de la presente invención, se contemplan en la misma, y se pretende que queden cubiertas por las siguientes reivindicaciones.
A menos que se indique lo contrario, las dimensiones y geometrías de las diversas estructuras representadas en la presente memoria no pretenden ser restrictivas de la invención, y son posibles otras dimensiones o geometrías. Una única estructura integrada puede proporcionar una pluralidad de componentes estructurales. Alternativamente, una única estructura integrada podría dividirse en una pluralidad de componentes separados. Además, aunque una característica de la presente invención puede haberse descrito en el contexto de una sola de las realizaciones ilustradas, tal característica puede combinarse con una o más características de otras realizaciones, para cualquier aplicación dada. También se apreciará a partir de lo anterior que la fabricación de las estructuras únicas en la presente memoria y el funcionamiento de estas también constituyen procedimientos de acuerdo con la presente divulgación.
Claims (9)
1. Un sistema de navegación quirúrgica para el seguimiento de estructuras anatómicas sin marcadores fiduciales fijados a una anatomía, comprendiendo el sistema:
un dispositivo (104) de visualización que se lleva en la cabeza, para ser llevado por un usuario durante un procedimiento quirúrgico, que comprende una unidad (102) de procesamiento, un generador (204, 302) de visualización, un conjunto (210, 306) de sensores que tiene al menos una cámara (206) de seguimiento o un sensor de profundidad en el que:
la unidad (102) de procesamiento está configurada para:
recibir un mapa topográfico de una superficie expuesta de un objeto anatómico de un hueso, en el que el mapa topográfico se genera escaneando la superficie expuesta utilizando el sensor de profundidad o generando datos simultáneos de localización y mapeo utilizando la cámara (206) de seguimiento;
crear un mapa de superficie de referencia de la superficie expuesta del objeto anatómico del hueso utilizando el mapa topográfico;
establecer una trama de referencia relativa al conjunto de sensores para el mapa de superficie de referencia mediante la coincidencia de una superficie tridimensional con un modelo tridimensional del objeto anatómico a partir de un escaneado preoperatorio; y
seguir una pose del objeto anatómico del hueso relativa con el dispositivo (104) de visualización que se lleva en la cabeza mediante: el escaneo de manera repetida de la superficie expuesta del objeto anatómico del hueso, la generación de un mapa de superficie desplazada de la superficie expuesta para cada escaneo, la comparación del mapa de superficie desplazada con el mapa de superficie de referencia de la superficie expuesta del objeto anatómico del hueso, la determinación de una rotación y una traslación necesarias para el mejor ajuste del mapa de superficie desplazada con el mapa de superficie de referencia, y la rotación y traslación del mapa de superficie desplazada para alinear el mapa de superficie desplazada con el mapa de superficie de referencia para el mejor ajuste.
2. El sistema de navegación quirúrgica de la reivindicación 1, en el que la unidad de procesamiento está configurada además para comunicarse con el generador de visualización para proporcionar una interfaz de usuario de realidad mixta que comprende imágenes virtuales estereoscópicas de las características deseadas de las herramientas quirúrgicas o implantes relativos con el objeto anatómico en el campo de visión del usuario.
3. El sistema de navegación quirúrgica de la reivindicación 1, en el que el dispositivo (104) de visualización comprende una pantalla (300) facial transparente que permite una proyección desde el generador (302) de visualización sobre la pantalla (300) que superpone datos e imágenes dentro del trayecto visual de los ojos del usuario (106).
4. El sistema de navegación quirúrgica de la reivindicación 3, en el que el dispositivo (104) de visualización que se lleva en la cabeza comprende además un mecanismo (304) de fijación para permitir la fijación a la cabeza o cara del usuario (106) de tal manera que la alineación del dispositivo (104) de visualización que se lleva en la cabeza con el trayecto visual del usuario (106) sea consistente y repetible.
5. El sistema de navegación quirúrgica de la reivindicación 1, en el que el conjunto (210, 306) de sensores comprende además una unidad de medición inercial para la generación de datos simultáneos de localización y mapeo utilizando la cámara de seguimiento.
6. El sistema de navegación quirúrgica de la reivindicación 1, en el que el dispositivo (104) de visualización que se lleva en la cabeza comprende además una radio (41) para la comunicación con otros sensores o unidades de control.
7. El sistema de navegación quirúrgica de la reivindicación 1, en el que el dispositivo (104) de visualización que se lleva en la cabeza comprende además un micrófono (416) para la activación por voz de diferentes modos de visualización.
8. El sistema de navegación quirúrgica de la reivindicación 1, en el que la unidad (102) de procesamiento está configurada además para aplicar la misma rotación y traslación a todos los puntos de referencia y estructuras almacenados de un cuerpo rígido del hueso.
9. El sistema de navegación quirúrgica de la reivindicación 8, en el que la unidad (102) de procesamiento está configurada además para calcular una pose actual de todos los puntos y estructuras de referencia almacenados relativos con la trama de referencia del conjunto (210) de sensores.
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201662375483P | 2016-08-16 | 2016-08-16 | |
| US15/674,749 US20180049622A1 (en) | 2016-08-16 | 2017-08-11 | Systems and methods for sensory augmentation in medical procedures |
| PCT/US2017/046438 WO2018063528A1 (en) | 2016-08-16 | 2017-08-11 | Systems for sensory augmentation in medical procedures |
| PCT/US2018/018330 WO2019032143A1 (en) | 2016-08-16 | 2018-02-15 | SYSTEMS AND METHODS FOR SENSORY REINFORCEMENT DURING MEDICAL INTERVENTIONS |
| US16/786,938 US11071596B2 (en) | 2016-08-16 | 2020-02-10 | Systems and methods for sensory augmentation in medical procedures |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2992065T3 true ES2992065T3 (es) | 2024-12-09 |
Family
ID=71098253
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES18707216T Active ES2992065T3 (es) | 2016-08-16 | 2018-02-15 | Sistemas de aumento sensorial en procedimientos médicos |
Country Status (2)
| Country | Link |
|---|---|
| US (4) | US11071596B2 (es) |
| ES (1) | ES2992065T3 (es) |
Families Citing this family (68)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010121250A1 (en) | 2009-04-17 | 2010-10-21 | Arthrosurface Incorporated | Glenoid resurfacing system and method |
| US10945743B2 (en) | 2009-04-17 | 2021-03-16 | Arthrosurface Incorporated | Glenoid repair system and methods of use thereof |
| FR2955481B1 (fr) | 2010-01-27 | 2013-06-14 | Tornier Sa | Dispositif et procede de caracterisation glenoidienne d'une omoplate a protheser ou a resurfacer |
| GB2516282B (en) * | 2013-07-17 | 2017-07-26 | Vision Rt Ltd | Method of calibration of a stereoscopic camera system for use with a radio therapy treatment apparatus |
| US12453600B2 (en) | 2013-09-18 | 2025-10-28 | iMIRGE Medical INC. | Anatomical scanning, targeting, and visualization |
| EP3057524B1 (en) | 2013-10-10 | 2019-11-20 | Imascap | Method for designing and producing a shoulder surgery guide |
| US20160270854A1 (en) | 2013-11-08 | 2016-09-22 | Imascap Sas | Methods, systems and devices for pre-operatively planned adaptive glenoid implants |
| WO2015071757A1 (en) | 2013-11-13 | 2015-05-21 | Tornier Sas | Shoulder patient specific instrument |
| CA3030831A1 (en) | 2016-07-15 | 2018-01-18 | Mako Surgical Corp. | Systems for a robotic-assisted revision procedure |
| ES2992065T3 (es) * | 2016-08-16 | 2024-12-09 | Insight Medical Systems Inc | Sistemas de aumento sensorial en procedimientos médicos |
| US10010379B1 (en) | 2017-02-21 | 2018-07-03 | Novarad Corporation | Augmented reality viewing and tagging for medical procedures |
| WO2019040493A1 (en) * | 2017-08-21 | 2019-02-28 | The Trustees Of Columbia University In The City Of New York | SYSTEMS AND METHODS FOR AUGMENTED REALITY GUIDANCE |
| CN110555358B (zh) * | 2018-06-01 | 2023-09-12 | 苹果公司 | 用于检测和识别ar/vr场景中的特征部的方法和设备 |
| EP4464271A3 (en) | 2018-06-19 | 2025-01-22 | Howmedica Osteonics Corp. | Visualization of intraoperatively modified surgical plans |
| US11969046B2 (en) | 2018-06-27 | 2024-04-30 | Stryker Corporation | Protective apparel system with a lens assembly |
| US11227385B2 (en) * | 2018-08-08 | 2022-01-18 | Loyola University Chicago | Methods of classifying and/or determining orientations of objects using two-dimensional images |
| EP3640767B1 (de) * | 2018-10-17 | 2024-09-11 | Siemens Schweiz AG | Verfahren zum bestimmen mindestens eines bereichs in mindestens einem eingabemodell für mindestens ein zu platzierendes element |
| US11287874B2 (en) | 2018-11-17 | 2022-03-29 | Novarad Corporation | Using optical codes with augmented reality displays |
| US11684259B2 (en) * | 2019-01-02 | 2023-06-27 | Purdue Research Foundation | Pupillometer for lesion location determination |
| GB2609338B (en) | 2019-03-12 | 2023-06-14 | Arthrosurface Inc | Humeral and glenoid articular surface implant systems and methods |
| AU2020273972B2 (en) | 2019-05-14 | 2023-04-20 | Howmedica Osteonics Corp. | Bone wall tracking and guidance for orthopedic implant placement |
| EP4021314A4 (en) | 2019-08-29 | 2022-12-28 | MAKO Surgical Corp. | ROBOTIC SURGICAL SYSTEM FOR ADVANCED HIP ARTHROPLASTY |
| US12042234B2 (en) | 2019-11-26 | 2024-07-23 | Howmedica Osteonics Corp. | Tracking surgical pin |
| US12465374B2 (en) | 2019-12-18 | 2025-11-11 | Howmedica Osteonics Corp. | Surgical guidance for surgical tools |
| US11237627B2 (en) | 2020-01-16 | 2022-02-01 | Novarad Corporation | Alignment of medical images in augmented reality displays |
| KR20220141308A (ko) * | 2020-02-10 | 2022-10-19 | 인사이트 메디칼 시스템즈, 인코포레이티드 | 의료 시술에서 감각 증강을 위한 시스템 및 방법 |
| EP4106659A4 (en) * | 2020-02-21 | 2024-03-20 | Gyder Surgical Pty Ltd | REFERENCE DEVICE |
| TWI727725B (zh) * | 2020-03-27 | 2021-05-11 | 台灣骨王生技股份有限公司 | 手術導航系統及其成像方法 |
| WO2021221749A1 (en) | 2020-04-29 | 2021-11-04 | Howmedica Osteonics Corp. | Mixed-reality humeral-head sizing and placement |
| US11295135B2 (en) * | 2020-05-29 | 2022-04-05 | Corning Research & Development Corporation | Asset tracking of communication equipment via mixed reality based labeling |
| US11374808B2 (en) | 2020-05-29 | 2022-06-28 | Corning Research & Development Corporation | Automated logging of patching operations via mixed reality based labeling |
| US12226315B2 (en) | 2020-08-06 | 2025-02-18 | Carlsmed, Inc. | Kinematic data-based patient-specific artificial discs, implants and associated systems and methods |
| US12533207B2 (en) | 2020-09-22 | 2026-01-27 | Mobius Imaging, Llc | Mount assemblies for use with navigated surgical systems |
| DE102020126029A1 (de) * | 2020-10-05 | 2022-04-07 | B. Braun New Ventures GmbH | Chirurgisches Assistenzsystem und Darstellungsverfahren |
| US20240012245A1 (en) * | 2020-12-18 | 2024-01-11 | Google Llc | Steerable camera array for head-mounted display devices |
| US12016633B2 (en) | 2020-12-30 | 2024-06-25 | Novarad Corporation | Alignment of medical images in augmented reality displays |
| US12026897B2 (en) | 2020-12-31 | 2024-07-02 | Imec Vzw | Augmented reality system, an augmented reality HMD, an augmented reality method and a computer program |
| WO2022150767A1 (en) * | 2021-01-11 | 2022-07-14 | True Digital Surgery | Registration degradation correction for surgical navigation procedures |
| US11744652B2 (en) * | 2021-01-13 | 2023-09-05 | MediVis, Inc. | Visualization of predicted dosage |
| US12453607B2 (en) | 2021-02-26 | 2025-10-28 | Mobius Imaging, Llc | Rotational tracker adapter with biasing mechanism |
| CN113017817B (zh) * | 2021-03-03 | 2025-02-18 | 复旦大学附属中山医院青浦分院 | 一种髓内钉交锁钉植入方法及装置 |
| US11663428B2 (en) * | 2021-05-19 | 2023-05-30 | Summate Technologies, Inc. | Multi-stage code scanning for data transfer |
| KR102620823B1 (ko) * | 2021-07-06 | 2024-01-04 | 한국과학기술원 | 인공지능 기반의 변형가능한 기준 마커 생성 및 인식 방법 및 그 시스템 |
| WO2023003745A1 (en) * | 2021-07-19 | 2023-01-26 | Surgical Targeting Solutions Inc. | Instrument bourne position sensing system for precision 3d guidance and methods of surgery |
| US12150821B2 (en) * | 2021-07-29 | 2024-11-26 | Augmedics Ltd. | Rotating marker and adapter for image-guided surgery |
| JP2024535200A (ja) * | 2021-09-30 | 2024-09-30 | マイクロポート オーソペディックス ホールディングス インク | 手術中に手術要素を位置合わせするための写真測量を使用するシステム及び方法 |
| US20230136813A1 (en) * | 2021-11-03 | 2023-05-04 | Carlsmed, Inc. | Patient-specific arthroplasty devices and associated systems and methods |
| EP4430564A4 (en) * | 2021-11-09 | 2025-09-24 | Genesis Medtech Usa Inc | INTERACTIVE AUGMENTED REALITY SYSTEM FOR LAPAROSCOPIC AND VIDEO-ASSISTED SURGERY |
| US20230169696A1 (en) * | 2021-11-27 | 2023-06-01 | Novarad Corporation | Transfer of Alignment Accuracy Between Visible Markers Used with Augmented Reality Displays |
| US11948265B2 (en) | 2021-11-27 | 2024-04-02 | Novarad Corporation | Image data set alignment for an AR headset using anatomic structures and data fitting |
| US12201379B2 (en) | 2022-01-12 | 2025-01-21 | DePuy Synthes Products, Inc. | X-wing enhanced guidance system for distal targeting |
| US20250177057A1 (en) * | 2022-03-02 | 2025-06-05 | Yi-Zeng Hsieh | Surgical navigation system and method thereof |
| US12544150B2 (en) * | 2022-03-18 | 2026-02-10 | Northern Digital Inc. | Field generator orientation for magnetic tracking in planar field generating assemblies |
| EP4537179A1 (en) * | 2022-06-13 | 2025-04-16 | BAE SYSTEMS plc | A head tracking system |
| JP2024005322A (ja) * | 2022-06-30 | 2024-01-17 | 川崎重工業株式会社 | ロボットシステムおよびロボット |
| US12487466B2 (en) * | 2022-07-28 | 2025-12-02 | Snap Inc. | Magnified overlays correlated with virtual markers |
| CN115035124B (zh) * | 2022-08-15 | 2022-11-11 | 南京伟思医疗科技股份有限公司 | 基于Harris角点检测的随动定位系统导针计算方法 |
| US20240099781A1 (en) * | 2022-09-28 | 2024-03-28 | Medos International Sarl | Neuromapping systems, methods, and devices |
| US12400650B2 (en) | 2022-10-11 | 2025-08-26 | Snap Inc. | Media control tools for managing communications between devices |
| US12136177B2 (en) * | 2022-10-21 | 2024-11-05 | Hewlett-Packard Development Company, L.P. | Machine vision hand and tool tracking |
| CA3182770A1 (en) * | 2022-10-28 | 2024-04-28 | Swajan Paul | System and method for overlaying a hologram onto an object |
| EP4633511A1 (en) * | 2022-12-13 | 2025-10-22 | Stryker European Operations Limited | Wide angle navigation system |
| CN121263150A (zh) * | 2023-05-26 | 2026-01-02 | 医疗视野Xr有限公司 | 具有改进的配准方法和多治疗递送方法的增强现实系统 |
| US12569114B2 (en) | 2023-07-26 | 2026-03-10 | Smith & Nephew, Inc. | Methods and systems for intraoperatively selecting and displaying cross-sectional images |
| US20250131663A1 (en) * | 2023-10-18 | 2025-04-24 | Novarad Corporation | Referencing of Anatomical Structure |
| US20250255669A1 (en) * | 2024-02-11 | 2025-08-14 | Novarad Corporation | Surgical Navigation Using an AR Headset |
| WO2026013228A1 (fr) * | 2024-07-11 | 2026-01-15 | Vrai-Heart | Dispositif et procédé pour la navigation d'un instrument chirurgical dans un organe d'un patient |
| EP4666975A1 (en) * | 2024-11-18 | 2025-12-24 | Siemens Healthineers AG | Computer-implemented method for assisting a placement of a medical device, data processing system, user assistance system and computer program |
Family Cites Families (131)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4462119A (en) * | 1981-09-18 | 1984-07-31 | Drag Specialties, Inc. | Face shield and helmet |
| US5365615A (en) * | 1993-01-12 | 1994-11-22 | Piszkin Thomas M | Headgear faceshield w/non-invasive universal-mounting |
| CA2090805C (en) * | 1993-03-02 | 1996-03-05 | Douglas Alvin Reuber | Double lens helmet face shield with electric heating field |
| US5667291A (en) * | 1995-05-23 | 1997-09-16 | Surgical Acuity, Inc. | Illumination assembly for dental and medical applications |
| US6046712A (en) * | 1996-07-23 | 2000-04-04 | Telxon Corporation | Head mounted communication system for providing interactive visual communications with a remote system |
| US5870166A (en) * | 1997-02-25 | 1999-02-09 | Chang; Byung Jin | Versatile optical mounting assembly |
| US6340234B1 (en) * | 2000-07-31 | 2002-01-22 | Manning Brown, Jr. | Illuminated lens device for welders helmet |
| US6753828B2 (en) * | 2000-09-25 | 2004-06-22 | Siemens Corporated Research, Inc. | System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality |
| JP2004538538A (ja) | 2000-10-05 | 2004-12-24 | シーメンス コーポレイト リサーチ インコーポレイテツド | 強化現実可視化付きの、手術中にイメージガイドされる神経外科手術法及び手術用装置 |
| US6891518B2 (en) * | 2000-10-05 | 2005-05-10 | Siemens Corporate Research, Inc. | Augmented reality visualization device |
| US6900777B1 (en) | 2001-01-03 | 2005-05-31 | Stryker Corporation | Infrared audio/video interface for head-mounted display |
| GB0101990D0 (en) * | 2001-01-25 | 2001-03-14 | Finsbury Dev Ltd | Surgical system |
| CA2438005A1 (en) | 2001-02-07 | 2002-08-15 | Synthes (U.S.A.) | Device and method for intraoperative navigation |
| BR0116855B1 (pt) * | 2001-02-07 | 2012-06-12 | processo para estabelecer uma representaÇço tridimensional virtual de um osso ou fragmento de osso a partir de imagens de raios-x. | |
| DE60228087D1 (de) | 2001-06-22 | 2008-09-18 | Compumedics Ltd | Asymmetrisches induktives band |
| US6584339B2 (en) | 2001-06-27 | 2003-06-24 | Vanderbilt University | Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery |
| US7190378B2 (en) * | 2001-08-16 | 2007-03-13 | Siemens Corporate Research, Inc. | User interface for augmented and virtual reality systems |
| US8801720B2 (en) * | 2002-05-15 | 2014-08-12 | Otismed Corporation | Total joint arthroplasty system |
| US20040215057A1 (en) * | 2002-09-27 | 2004-10-28 | Wellman Parris S. | Portable, reusable visualization system |
| US8112143B2 (en) * | 2003-08-08 | 2012-02-07 | Koninklijke Philips Electronics N.V. | Using magnetic resonance images for locating anatomical targets |
| US20050047117A1 (en) * | 2003-08-27 | 2005-03-03 | Scholl Susan R. | Head mounted face guard and light source |
| US20050281465A1 (en) | 2004-02-04 | 2005-12-22 | Joel Marquart | Method and apparatus for computer assistance with total hip replacement procedure |
| US7774044B2 (en) | 2004-02-17 | 2010-08-10 | Siemens Medical Solutions Usa, Inc. | System and method for augmented reality navigation in a medical intervention procedure |
| GB0405792D0 (en) | 2004-03-15 | 2004-04-21 | Univ Catholique Louvain | Augmented reality vision system and method |
| US7725949B2 (en) * | 2004-04-07 | 2010-06-01 | Op-D-Op, Inc. | Ventilated face shield assembly with glare shield |
| JP2005304599A (ja) | 2004-04-19 | 2005-11-04 | Morita Mfg Co Ltd | 頭部装着診断用光照射装置 |
| JP4532982B2 (ja) * | 2004-05-14 | 2010-08-25 | キヤノン株式会社 | 配置情報推定方法および情報処理装置 |
| US7208733B2 (en) * | 2004-08-24 | 2007-04-24 | International Electronic Machines Corp. | Non-visible radiation imaging and inspection |
| US7192151B2 (en) * | 2004-12-21 | 2007-03-20 | Depuy Products, Inc. | Light array for a surgical helmet |
| CA2594994C (en) | 2005-01-26 | 2013-07-02 | Orthosoft Ulc | Computer-assisted hip joint resurfacing method and system |
| EP2614861B1 (en) * | 2005-07-14 | 2022-11-30 | Stryker Corporation | Medical/surgical personal protection system including a fastening system for holding the hood to the helmet so the radius of curvature of the hood face shield varies |
| US7937775B2 (en) | 2005-08-09 | 2011-05-10 | Microtek Medical, Inc. | Surgical protective head gear assembly including high volume air delivery system |
| GB0521640D0 (en) * | 2005-10-24 | 2005-11-30 | Ccbr As | Automatic quantification of a pathology indicating measure from cartilage scan data |
| DE102005054152A1 (de) * | 2005-11-14 | 2007-05-16 | Viasys Healthcare Gmbh | Pulssensor, Pulsmeter, Oximeter, Steuerknüppel sowie Helm |
| US7599789B2 (en) * | 2006-05-24 | 2009-10-06 | Raytheon Company | Beacon-augmented pose estimation |
| US9323055B2 (en) | 2006-05-26 | 2016-04-26 | Exelis, Inc. | System and method to display maintenance and operational instructions of an apparatus using augmented reality |
| US20080013809A1 (en) | 2006-07-14 | 2008-01-17 | Bracco Imaging, Spa | Methods and apparatuses for registration in image guided surgery |
| US8020552B2 (en) | 2007-02-26 | 2011-09-20 | Microtek Medical, Inc. | Helmets and methods of making and using the same |
| US20080319491A1 (en) | 2007-06-19 | 2008-12-25 | Ryan Schoenefeld | Patient-matched surgical component and methods of use |
| EP2237729B1 (en) * | 2008-01-16 | 2016-04-13 | Orthosoft, Inc. | Pinless system for computer assisted orthopedic surgery |
| US20090306499A1 (en) | 2008-06-09 | 2009-12-10 | Mako Surgical Corp. | Self-detecting kinematic clamp assembly |
| WO2010067267A1 (en) | 2008-12-09 | 2010-06-17 | Philips Intellectual Property & Standards Gmbh | Head-mounted wireless camera and display unit |
| GB2481759B (en) * | 2009-04-29 | 2013-04-03 | Norotos Inc | Shroud plate with lighting system |
| US8900138B2 (en) * | 2009-11-05 | 2014-12-02 | James P. Horvath | Headlight apparatus and method |
| US8483802B2 (en) * | 2010-03-25 | 2013-07-09 | Medtronic, Inc. | Method and apparatus for guiding an external needle to an implantable device |
| US20140031668A1 (en) | 2010-09-08 | 2014-01-30 | Disruptive Navigational Technologies, Llc | Surgical and Medical Instrument Tracking Using a Depth-Sensing Device |
| US9631899B2 (en) * | 2011-03-14 | 2017-04-25 | Revision Military S.A.R.L. | Ballistic and impact protective military helmet assembly |
| IL211966A (en) * | 2011-03-28 | 2016-12-29 | Smart Shooter Ltd | Weapons, a direction system for him, his method of operation, and a method of reducing the chance of a sin's purpose |
| KR101682891B1 (ko) | 2011-06-22 | 2016-12-06 | 신세스 게엠바하 | 위치설정을 위한 초음파 ct 등록 |
| WO2013049386A1 (en) * | 2011-09-27 | 2013-04-04 | Allied Minds Devices Llc | Instruct-or |
| KR101944846B1 (ko) | 2011-10-28 | 2019-02-01 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
| US8933935B2 (en) | 2011-11-10 | 2015-01-13 | 7D Surgical Inc. | Method of rendering and manipulating anatomical images on mobile computing device |
| CA3041707C (en) | 2011-11-15 | 2021-04-06 | Manickam UMASUTHAN | Method of real-time tracking of moving/flexible surfaces |
| US9336592B2 (en) | 2012-02-03 | 2016-05-10 | The Trustees Of Dartmouth College | Method and apparatus for determining tumor shift during surgery using a stereo-optical three-dimensional surface-mapping system |
| EP2819610B1 (en) | 2012-02-29 | 2023-04-12 | Smith & Nephew, Inc. | Determining anatomical orientations |
| CA2866370C (en) * | 2012-03-07 | 2024-03-19 | Ziteo, Inc. | Methods and systems for tracking and guiding sensors and instruments |
| KR101304111B1 (ko) * | 2012-03-20 | 2013-09-05 | 김영대 | 댄싱 가라오케 시스템 |
| US9448758B2 (en) * | 2012-07-18 | 2016-09-20 | The Boeing Company | Projecting airplane location specific maintenance history using optical reference points |
| US20140022283A1 (en) | 2012-07-20 | 2014-01-23 | University Health Network | Augmented reality apparatus |
| US20140081659A1 (en) | 2012-09-17 | 2014-03-20 | Depuy Orthopaedics, Inc. | Systems and methods for surgical and interventional planning, support, post-operative follow-up, and functional recovery tracking |
| JP6155614B2 (ja) | 2012-12-13 | 2017-07-05 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
| WO2014122301A1 (en) * | 2013-02-11 | 2014-08-14 | Neomedz Sàrl | Tracking apparatus for tracking an object with respect to a body |
| US10467752B2 (en) | 2013-06-11 | 2019-11-05 | Atsushi Tanji | Bone cutting support system, information processing apparatus, image processing method, and image processing program |
| JP6023324B2 (ja) * | 2013-06-11 | 2016-11-09 | 敦 丹治 | 外科手術支援システム、外科手術支援装置、外科手術支援方法、外科手術支援プログラムおよび情報処理装置 |
| US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
| US9129430B2 (en) | 2013-06-25 | 2015-09-08 | Microsoft Technology Licensing, Llc | Indicating out-of-view augmented reality images |
| EP3013168B1 (en) * | 2013-06-27 | 2019-11-13 | Revision Military S.à.r.l. | Helmet mounting system |
| EP3033132B1 (en) | 2013-08-15 | 2021-01-06 | Intuitive Surgical Operations, Inc. | Graphical user interface for catheter positioning and insertion |
| US10013777B2 (en) | 2013-11-25 | 2018-07-03 | 7D Surgical Inc. | System and method for generating partial surface from volumetric data for registration to surface topology image data |
| US20150145887A1 (en) * | 2013-11-25 | 2015-05-28 | Qualcomm Incorporated | Persistent head-mounted content display |
| US10649220B2 (en) * | 2014-06-09 | 2020-05-12 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
| US10254856B2 (en) * | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
| WO2015161297A1 (en) * | 2014-04-17 | 2015-10-22 | The Johns Hopkins University | Robot assisted ultrasound system |
| US10852838B2 (en) | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
| WO2015192117A1 (en) | 2014-06-14 | 2015-12-17 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
| US10383654B2 (en) | 2014-11-20 | 2019-08-20 | Ohio State Innovation Foundation | Methods and systems for performing navigation-assisted medical procedures |
| CN107004052B (zh) * | 2014-12-01 | 2020-06-16 | 蔚蓝纽带科技公司 | 无图像植入物翻修手术 |
| US10154239B2 (en) | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
| GB2534359A (en) | 2015-01-15 | 2016-07-27 | Corin Ltd | System and method for patient implant alignment |
| US10013808B2 (en) | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
| WO2016133644A1 (en) | 2015-02-20 | 2016-08-25 | Covidien Lp | Operating room and surgical site awareness |
| US10838207B2 (en) | 2015-03-05 | 2020-11-17 | Magic Leap, Inc. | Systems and methods for augmented reality |
| US20160324580A1 (en) | 2015-03-23 | 2016-11-10 | Justin Esterberg | Systems and methods for assisted surgical navigation |
| GB2536650A (en) * | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
| US10835322B2 (en) | 2015-04-24 | 2020-11-17 | Medtronic Navigation, Inc. | Direct visualization of a device location |
| WO2016192759A2 (en) | 2015-05-29 | 2016-12-08 | Brainlab Ag | Method for registering articulated anatomical structures |
| GB201510959D0 (en) | 2015-06-22 | 2015-08-05 | Ec Medica Ltd | Augmented reality imaging System, Apparatus and Method |
| US10192361B2 (en) * | 2015-07-06 | 2019-01-29 | Seiko Epson Corporation | Head-mounted display device and computer program |
| US20170053545A1 (en) * | 2015-08-19 | 2017-02-23 | Htc Corporation | Electronic system, portable display device and guiding device |
| US10052170B2 (en) | 2015-12-18 | 2018-08-21 | MediLux Capitol Holdings, S.A.R.L. | Mixed reality imaging system, apparatus and surgical suite |
| US11064756B2 (en) | 2015-12-22 | 2021-07-20 | Stryker Corporation | Head unit system with connector for peripheral device |
| WO2017117369A1 (en) | 2015-12-31 | 2017-07-06 | Stryker Corporation | System and methods for performing surgery on a patient at a target site defined by a virtual object |
| WO2017151752A1 (en) | 2016-03-01 | 2017-09-08 | Mirus Llc | Augmented visualization during surgery |
| CA3016604A1 (en) | 2016-03-12 | 2017-09-21 | Philipp K. Lang | Devices and methods for surgery |
| AU2017246864B2 (en) | 2016-04-07 | 2022-04-21 | Magic Leap, Inc. | Systems and methods for augmented reality |
| US20170296292A1 (en) | 2016-04-16 | 2017-10-19 | Eitezaz MAHMOOD | Systems and Methods for Surgical Imaging |
| EP3636093B1 (en) | 2016-04-18 | 2021-09-08 | Stryker Corporation | Garment for a personal protection system and with a transparent face shield and at least one control button on the face shield |
| US20170312032A1 (en) | 2016-04-27 | 2017-11-02 | Arthrology Consulting, Llc | Method for augmenting a surgical field with virtual guidance content |
| US10806518B2 (en) | 2016-04-27 | 2020-10-20 | Arthrology Consulting, Llc | Methods for augmenting a surgical field with virtual guidance and tracking and adapting to deviation from a surgical plan |
| US10194990B2 (en) | 2016-04-27 | 2019-02-05 | Arthrology Consulting, Llc | Method for augmenting a surgical field with virtual guidance content |
| US10813700B2 (en) | 2016-04-27 | 2020-10-27 | Arthrology Consulting, Llc | Methods for augmenting a surgical field with virtual guidance and tracking and adapting to deviation from a surgical plan |
| US11253321B2 (en) | 2016-04-27 | 2022-02-22 | Arthrology Consulting, Llc | Methods for augmenting a surgical field with virtual guidance and tracking and adapting to deviation from a surgical plan |
| WO2017185170A1 (en) | 2016-04-28 | 2017-11-02 | Intellijoint Surgical Inc. | Systems, methods and devices to scan 3d surfaces for intra-operative localization |
| US10191615B2 (en) | 2016-04-28 | 2019-01-29 | Medtronic Navigation, Inc. | Method and apparatus for image-based navigation |
| WO2017192996A2 (en) * | 2016-05-05 | 2017-11-09 | Watson Robert D | Surgical stereoscopic visualization system with movable head mounted display |
| CN119644594A (zh) | 2016-07-25 | 2025-03-18 | 奇跃公司 | 使用增强和虚拟现实眼镜的成像修改、显示和可视化 |
| WO2018063528A1 (en) | 2016-08-16 | 2018-04-05 | Insight Medical Systems, Inc. | Systems for sensory augmentation in medical procedures |
| ES2992065T3 (es) * | 2016-08-16 | 2024-12-09 | Insight Medical Systems Inc | Sistemas de aumento sensorial en procedimientos médicos |
| US10398514B2 (en) | 2016-08-16 | 2019-09-03 | Insight Medical Systems, Inc. | Systems and methods for sensory augmentation in medical procedures |
| KR102790834B1 (ko) | 2016-08-22 | 2025-04-02 | 매직 립, 인코포레이티드 | 가상, 증강, 및 혼합 현실 시스템들 및 방법들 |
| KR102266343B1 (ko) * | 2016-09-22 | 2021-06-17 | 매직 립, 인코포레이티드 | 증강 현실 분광기 |
| US10499997B2 (en) | 2017-01-03 | 2019-12-10 | Mako Surgical Corp. | Systems and methods for surgical navigation |
| EP3592273B1 (en) | 2017-03-10 | 2023-10-04 | Biomet Manufacturing, LLC | Augmented reality supported knee surgery |
| WO2018183390A1 (en) | 2017-03-28 | 2018-10-04 | Magic Leap, Inc. | Augmeted reality system with spatialized audio tied to user manipulated virtual object |
| US10643330B2 (en) | 2017-04-21 | 2020-05-05 | Biosense Webster (Israel) Ltd. | Registration of an anatomical image with a position-tracking coordinate system based on proximity to bone tissue |
| EP3641685B1 (en) | 2017-06-23 | 2023-12-27 | 7D Surgical ULC | Systems for performing intraoperative surface-based registration and navigation |
| EP3445048B8 (en) | 2017-08-15 | 2026-01-14 | Augmedics, Inc. | A graphical user interface for a surgical navigation system for providing an augmented reality image during operation |
| EP3701497B1 (en) | 2017-10-27 | 2026-03-25 | Magic Leap, Inc. | Virtual reticle for augmented reality systems |
| US11272985B2 (en) | 2017-11-14 | 2022-03-15 | Stryker Corporation | Patient-specific preoperative planning simulation techniques |
| AU2018375665A1 (en) | 2017-12-01 | 2020-05-14 | Rhodan Marine Systems Of Florida, Llc | Dynamic augmented reality headset system |
| EP3498212A1 (en) | 2017-12-12 | 2019-06-19 | Holo Surgical Inc. | A method for patient registration, calibration, and real-time augmented reality image display during surgery |
| US10852547B2 (en) | 2017-12-15 | 2020-12-01 | Magic Leap, Inc. | Eyepieces for augmented reality display system |
| AU2018389234B2 (en) | 2017-12-21 | 2023-06-01 | Magic Leap, Inc. | Method for calibrating an augmented reality device |
| US11058497B2 (en) | 2017-12-26 | 2021-07-13 | Biosense Webster (Israel) Ltd. | Use of augmented reality to assist navigation during medical procedures |
| US20190254753A1 (en) | 2018-02-19 | 2019-08-22 | Globus Medical, Inc. | Augmented reality navigation systems for use with robotic surgical systems and methods of their use |
| EP3891697A1 (en) | 2018-12-05 | 2021-10-13 | Stryker Corporation | Systems and methods for displaying medical imaging data |
| US11221814B2 (en) | 2018-12-27 | 2022-01-11 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
| US20200390503A1 (en) | 2019-06-13 | 2020-12-17 | Carlos Quiles Casas | Systems and methods for surgical navigation and orthopaedic fixation |
| US11944265B2 (en) | 2019-08-16 | 2024-04-02 | Intuitive Surgical Operations, Inc. | Medical imaging systems and methods |
| US11983824B2 (en) | 2020-01-31 | 2024-05-14 | Surgical Theater, Inc. | System and method for augmenting and synchronizing a virtual model with a physical model |
| KR20220141308A (ko) | 2020-02-10 | 2022-10-19 | 인사이트 메디칼 시스템즈, 인코포레이티드 | 의료 시술에서 감각 증강을 위한 시스템 및 방법 |
-
2018
- 2018-02-15 ES ES18707216T patent/ES2992065T3/es active Active
-
2020
- 2020-02-10 US US16/786,938 patent/US11071596B2/en active Active
-
2022
- 2022-02-14 US US17/670,877 patent/US12465438B2/en active Active
- 2022-02-14 US US17/670,908 patent/US20220160439A1/en not_active Abandoned
-
2025
- 2025-08-15 US US19/301,881 patent/US20260041499A1/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| US11071596B2 (en) | 2021-07-27 |
| US20260041499A1 (en) | 2026-02-12 |
| US20220168051A1 (en) | 2022-06-02 |
| US20200197107A1 (en) | 2020-06-25 |
| US20220160439A1 (en) | 2022-05-26 |
| US12465438B2 (en) | 2025-11-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2992065T3 (es) | Sistemas de aumento sensorial en procedimientos médicos | |
| AU2022204673B2 (en) | Systems and methods for sensory augmentation in medical procedures | |
| US10398514B2 (en) | Systems and methods for sensory augmentation in medical procedures | |
| JP2026001156A (ja) | 医療処置における感覚拡張の為のシステム及び方法 | |
| US12193761B2 (en) | Systems and methods for augmented reality based surgical navigation | |
| ES3050061T3 (en) | Optical targeting and visualization of trajectories | |
| US20210169504A1 (en) | Surgical targeting systems and methods | |
| CN111329553A (zh) | 用于手术的装置与方法 | |
| CA3142148C (en) | Systems and methods for utilizing augmented reality in surgery | |
| CN120392293A (zh) | 计算机辅助的盆腔外科手术导航 |