BR112019025107A2 - Navegação cirúrgica do quadril usando fluoroscopia e sensores de rastreamento - Google Patents

Navegação cirúrgica do quadril usando fluoroscopia e sensores de rastreamento Download PDF

Info

Publication number
BR112019025107A2
BR112019025107A2 BR112019025107-3A BR112019025107A BR112019025107A2 BR 112019025107 A2 BR112019025107 A2 BR 112019025107A2 BR 112019025107 A BR112019025107 A BR 112019025107A BR 112019025107 A2 BR112019025107 A2 BR 112019025107A2
Authority
BR
Brazil
Prior art keywords
fact
motion sensor
body part
image
virtual
Prior art date
Application number
BR112019025107-3A
Other languages
English (en)
Inventor
R. Mahfouz Mohamed
Mohamed R. Mahfouz
Original Assignee
Mohamed R. Mahfouz
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mohamed R. Mahfouz filed Critical Mohamed R. Mahfouz
Publication of BR112019025107A2 publication Critical patent/BR112019025107A2/pt

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1127Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/505Clinical applications involving diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • A61B6/5241Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT combining overlapping images of the same imaging modality, e.g. by stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0492Positioning of patients; Tiltable beds or the like using markers or indicia for aiding patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating apparatus or devices for radiation diagnosis
    • A61B6/582Calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

Método para rastrear o movimento de uma parte do corpo, o método compreendendo: (a) coletar dados de movimento a partir de uma parte do corpo reposicionada dentro de uma amplitude de movimento, a parte do corpo tendo montado nela um sensor de movimento; (b) coletar uma pluralidade de imagens radiográficas tiradas da parte do corpo enquanto a parte do corpo está em posições diferentes dentro da amplitude de movimento, a pluralidade de imagens radiográficas tendo a parte do corpo e o sensor de movimento dentro de um campo de visão; e (c) construir um modelo tridimensional virtual da parte do corpo a partir da pluralidade de imagens radiográficas usando uma estrutura do sensor de movimento identificável dentro de pelo menos duas da pluralidade de imagens radiográficas para calibrar as imagens radiográficas.

Description

NAVEGAÇÃO CIRÚRGICA DO QUADRIL USANDO FLUOROSCOPIA E SENSORES DE RASTREAMENTO REFERÊNCIA CRUZADA PARA PEDIDOS RELACIONADOS
[001] O presente pedido reivindica o benefício do Pedido de Patente Provisório dos EUA No. de Série 62/521.582, intitulado “Surgical Navigation of the Hip using Fluoroscopy and Tracking Sensors”, depositado em 19 de junho de 2017, e reivindica o benefício do Pedido de Patente Provisório dos EUA No. de Série 62/575.905, intitulado " Surgical Navigation of the Hip using Fluoroscopy and Tracking Sensors", depositado em 23 de outubro de 2017, e reivindica o benefício do Pedido de Patente Provisória dos EUA No. de Série 62/617.383, intitulado " Surgical Navigation of the Hip using Fluoroscopy and Tracking Sensors", depositado em 15 de janeiro de 2018, cuja divulgação de cada um deles é incorporada aqui por referência.
INTRODUÇÃO A INVENÇÃO
[002] A tomografia computadorizada (TC) ou imagem por ressonância magnética (IRM) são geralmente consideradas o padrão ouro para a imagiologia articular, especificamente em aplicações que requerem um modelo anatômico virtual. As imagens podem ser usadas pelo software de segmentação para realizar reconstrução tridimensional (3D), cuja saída é um modelo de superfície da articulação do paciente. Esses modelos podem incluir osso, cartilagem, outros tecidos moles ou qualquer combinação. Portanto, esses modelos 3D são usados com frequência em modernos sistemas de navegação e orientação cirúrgica para cirurgia de substituição de articulação total. No entanto, a criação desses modelos geralmente consome tempo, resultando em aumento de custos e, geralmente,
tempo significativo entre a imagiologia e cirurgia. Um método de imagiologia mais econômico é aquele que não requer reconstrução fora de local, utiliza imagiologia baseada no escritório existente, por exemplo raios X ou fluoroscopia padrão, enquanto ainda fornece um caminho para a criação de modelos 3D a ser usada no planejamento ou cirurgia. Como parte desta divulgação, o modelo 3D e a imagiologia podem ser usados no registro intraoperatório para diminuir o tempo cirúrgico e reduzir custos adicionais.
[003] Um processo difícil relacionado ao uso de sistemas de navegação e orientação cirúrgica no intraoperatório é o registro da localização e orientação das articulações do paciente no sistema de navegação. Isso geralmente é realizado através do registro da localização de pontos de referência ósseos no paciente sob a vigilância do sistema de orientação, onde as posições e orientações das articulações podem ser calibradas para o sistema. Tradicionalmente, isso é feito manualmente na sala de cirurgia, consome tempo e é potencialmente impreciso.
[004] Foi desenvolvida uma técnica para a utilização de instrumento específico de paciente para registro, onde o instrumento é feito para se ajustar ao osso do paciente de uma maneira única. O instrumento pode ser fabricado de forma aditiva e esterilizado para o paciente. Vários desafios estão presentes nesse processo. O primeiro está relacionado à fabricação. Alguns pacientes podem não ter a geometria óssea ideal que pode "bloquear" exclusivamente o instrumento específico de paciente, o que pode introduzir erros de registro. Além disso, devido à natureza da fabricação aditiva, o material geralmente é poroso, o que pode afetar a tolerância do instrumento, dependendo do nível de umidade. Outra questão é o alto custo e o prazo de entrega necessários para fabricar esses instrumentos. Muitas vezes, é necessário um engenheiro para realizar a segmentação, analisar a geometria da articulação para criar o mecanismo de travamento do instrumento na articulação do paciente, o que pode levar semanas para ser realizado, dependendo do volume. Como parte desta divulgação, uma nova técnica de registro é apresentada com imagiologia médica para evitar a necessidade de fabricar quaisquer dispositivos adicionais.
[005] Por acoplar a imagiologia de radiografia intraoperatória a um sistema de rastreamento inercial, o paciente pode ser registrado na sala de operações sem a sobrecarga de fabricar o instrumento específico de paciente ou identificar manualmente os pontos de referência.
[006] É um primeiro aspecto da presente invenção fornecer um método de rastreamento de movimento de uma parte do corpo, o método compreendendo: (a) coletar dados de movimento a partir de uma parte do corpo reposicionada dentro de uma amplitude de movimento, a parte do corpo tendo montada nela um sensor de movimento; (b) coletar uma pluralidade de imagens radiográficas tiradas da parte do corpo enquanto a parte do corpo está em posições diferentes dentro da amplitude de movimento, a pluralidade de imagens radiográficas tendo a parte do corpo e o sensor de movimento dentro de um campo de visão; e (c) construir um modelo tridimensional virtual da parte do corpo a partir da pluralidade de imagens radiográficas usando uma estrutura do sensor de movimento identificável dentro de pelo menos duas da pluralidade de imagens radiográficas para calibrar as imagens radiográficas.
[007] Em uma modalidade mais detalhada do primeiro aspecto, o sensor de movimento compreende uma unidade de medição inercial. Em ainda outra modalidade mais detalhada, a unidade de medição inercial compreende uma pluralidade de acelerômetros, uma pluralidade de giroscópios e uma pluralidade de magnetômetros. Em uma modalidade adicionalmente detalhada, o sensor de movimento é montado não rigidamente na parte do corpo. Em uma modalidade ainda mais detalhada, o sensor de movimento é montado fora de uma epiderme, cobrindo pelo menos parcialmente a parte do corpo. Em uma modalidade mais detalhada, o sensor de movimento é montado rigidamente na parte do corpo. Em uma modalidade mais detalhada, a estrutura do sensor de movimento compreende pelo menos um de um resistor, um chip, um capacitor, uma placa de circuito e um condutor elétrico. Em outra modalidade mais detalhada, a imagem radiográfica compreende um raio X. Em ainda outra modalidade mais detalhada, a imagem radiográfica compreende uma imagem fluoroscópica. Em ainda outra modalidade mais detalhada, a calibração das imagens radiográficas é realizada automaticamente.
[008] Em ainda outra modalidade mais detalhada do primeiro aspecto, a calibração automática das imagens radiográficas é realizada por um computador executando um programa de software. Em ainda outra modalidade mais detalhada, o método inclui ainda coletar dados a partir do sensor de movimento que podem ser usados para determinar pelo menos uma de posição e rotação do sensor de movimento como uma função do tempo. Em uma modalidade adicionalmente detalhada, os dados coletados a partir do sensor de movimento são coletados de maneira sem fio. Em uma modalidade ainda mais detalhada, os dados coletados a partir do sensor de movimento são coletados a partir de um fio conectado ao sensor de movimento. Em uma modalidade mais detalhada, os dados coletados a partir do sensor de movimento são coletados por pelo menos um telefone, um computador, um tablet e uma memória portátil. Em uma modalidade mais detalhada, o método inclui ainda registrar no espaço tridimensional o sensor de movimento para o modelo tridimensional virtual da parte do corpo, e correlacionar dados coletados a partir do sensor de movimento como uma função da posição da parte do corpo para criar um modelo dinâmico virtual da parte do corpo que é reposicionável para refletir as posições reais da parte do corpo quando reposicionada dentro da amplitude de movimento. Em outra modalidade mais detalhada, o método inclui ainda construir um modelo tridimensional virtual do sensor de movimento usando a pluralidade de imagens radiográficas. Em ainda outra modalidade mais detalhada, o modelo tridimensional virtual do sensor de movimento é integrado ao modelo tridimensional virtual da parte do corpo para criar um modelo combinado tridimensional virtual. Em ainda outra modalidade mais detalhada, o método inclui ainda correlacionar dados coletados a partir do sensor de movimento como uma função da posição da parte do corpo para fornecer movimento dinâmico ao modelo combinado tridimensional virtual.
[009] Em uma modalidade mais detalhada do primeiro aspecto, coletar os dados de movimento inclui registrar pelo menos uma de alterações na posição e rotação do sensor de movimento como uma função do tempo. Em ainda outra modalidade mais detalhada, coletar os dados de movimento inclui registrar alterações de aceleração do sensor de movimento como uma função do tempo. Em uma modalidade adicionalmente detalhada, o método inclui ainda exibir o modelo tridimensional virtual da parte do corpo para refletir as alterações na posição da parte do corpo real em tempo real. Em uma modalidade ainda mais detalhada, os dados de movimento coletados são horodatados.
[0010] É um segundo aspecto da presente invenção fornecer um sistema para rastrear o movimento de uma parte do corpo, o sistema compreendendo: (a) um sensor de movimento; (b) um processador configurado para ser acoplado comunicativamente ao sensor de movimento, o processador acoplado comunicativamente a uma pluralidade de módulos, os módulos compreendendo: (i) um módulo de recepção de dados configurado para registrar dados de movimento gerados pelo sensor de movimento, pelo menos um do módulo de recepção de dados e o sensor de movimento horodatando os dados de movimento gerados pelo sensor de movimento; (ii) um módulo de processamento de imagem radiográfica configurado para identificar um recurso comum visível através de uma pluralidade de imagens radiográficas a fim de calibrar a pluralidade de imagens radiográficas; e (iii) um módulo de modelo tridimensional configurado para processar uma pluralidade de imagens radiográficas e criar um modelo tridimensional virtual de um objetivo visível em pelo menos parte da pluralidade de imagens radiográficas.
[0011] Em uma modalidade mais detalhada do segundo aspecto, o sensor de movimento inclui uma unidade de medição inercial. Em ainda outra modalidade mais detalhada, o sensor de movimento inclui uma pluralidade de acelerômetros. Em uma modalidade adicionalmente detalhada, o sensor de movimento inclui uma pluralidade de magnetômetros. Em uma modalidade ainda mais detalhada, o sensor de movimento inclui uma pluralidade de giroscópios. Em uma modalidade mais detalhada, o sistema inclui ainda uma exibição acoplada comunicativamente ao processador e operativa para exibir o modelo tridimensional virtual. Em uma modalidade mais detalhada, o sistema inclui ainda uma máquina de captura de imagem radiográfica.
[0012] É um terceiro aspecto da presente invenção fornecer um método para fornecer navegação cirúrgica, o método compreendendo: (a) obter uma pluralidade de imagens radiográficas tiradas no intraoperatório a partir de múltiplos ângulos de vantagem que incluem uma parte do corpo e pelo menos uma imagem alvo; (b) registrar a parte do corpo no intraoperatório em um sistema de navegação; (c) calcular pelo menos uma de uma orientação e uma posição da parte do corpo em um sistema de coordenadas tridimensionais usado pelo sistema de navegação; e (d) exibir um modelo virtual de um item tangível compreendendo pelo menos uma parte do corpo, um instrumento cirúrgico e um implante ortopédico, onde exibir o modelo virtual inclui alterar em tempo real pelo menos uma de uma posição e uma orientação do modelo virtual para concordar com uma alteração em pelo menos uma de posição e orientação do item tangível.
[0013] Em uma modalidade mais detalhada do terceiro aspecto, o modelo virtual do item tangível compreende um modelo tridimensional associado ao sistema de navegação, e o passo de registro inclui registrar uma imagem bidimensional da parte do corpo no modelo tridimensional.
Em ainda outra modalidade mais detalhada, o passo de registro inclui identificar pontos de referência anatômicos bidimensionais da parte do corpo a partir da pluralidade de imagens radiográficas e registrar esses pontos de referência anatômicos bidimensionais com pontos de referência tridimensionais associados a um modelo tridimensional virtual do sistema de navegação.
Em uma modalidade adicionalmente detalhada, o registro dos pontos de referência anatômicos bidimensionais com os pontos de referência anatômicos tridimensionais inclui projetar os pontos de referência tridimensionais em uma imagem bidimensional.
Em uma modalidade ainda mais detalhada, projetar os pontos de referência tridimensionais inclui ajustar uma pose do modelo tridimensional, de modo que a distância entre os pontos de referência bidimensionais selecionados seja reduzida em relação à distância entre os pontos de referência tridimensionais correspondentes.
Em uma modalidade mais detalhada, o passo de registro inclui usar um instrumento específico de paciente que engata corretamente a parte do corpo em apenas uma única posição e orientação.
Em uma modalidade mais detalhada, o instrumento específico de paciente inclui uma unidade de medição inercial.
Em outra modalidade mais detalhada, o instrumento específico de paciente inclui uma pluralidade de acelerômetros.
Em ainda outra modalidade mais detalhada, o instrumento específico de paciente inclui uma pluralidade de giroscópios.
Em ainda outra modalidade mais detalhada, o instrumento específico de paciente inclui uma pluralidade de magnetômetros.
[0014] Em ainda outra modalidade mais detalhada do terceiro aspecto, o método inclui ainda obter uma pluralidade de imagens radiográficas tiradas no pré-operatório a partir de múltiplos ângulos de vantagem que incluem a parte do corpo, e criar um modelo tridimensional virtual da parte do corpo a partir da pluralidade de imagens radiográficas. Em ainda outra modalidade mais detalhada, o método inclui ainda calibrar a pluralidade de imagens radiográficas tiradas no pré-operatório antes da criação do modelo tridimensional virtual. Em uma modalidade adicionalmente detalhada, o método inclui ainda planejar um procedimento cirúrgico usando o modelo tridimensional virtual. Em uma modalidade ainda mais detalhada, o método inclui ainda coletar dados de movimento da parte do corpo reposicionada dentro de uma amplitude de movimento, a parte do corpo tendo montada nela um sensor de movimento. Em uma modalidade mais detalhada, o sensor de movimento compreende uma unidade de medição inercial. Em uma modalidade mais detalhada, a unidade de medição inercial compreende uma pluralidade de acelerômetros, uma pluralidade de giroscópios e uma pluralidade de magnetômetros. Em outra modalidade mais detalhada, o sensor de movimento é montado não rigidamente na parte do corpo. Em ainda outra modalidade mais detalhada, o sensor de movimento é montado fora de uma epiderme, cobrindo pelo menos parcialmente a parte do corpo. Em ainda outra modalidade mais detalhada, o sensor de movimento é montado rigidamente na parte do corpo.
[0015] Em uma modalidade mais detalhada do terceiro aspecto, a pluralidade de imagens radiográficas compreende uma pluralidade de imagens de raios X. Em ainda outra modalidade mais detalhada, a pluralidade de imagens radiográficas compreende uma pluralidade de imagens fluoroscópicas. Em uma modalidade adicionalmente detalhada, o método inclui ainda calibrar a pluralidade de imagens radiográficas obtidas no intraoperatório. Em uma modalidade ainda mais detalhada, a calibração da pluralidade de imagens radiográficas é realizada automaticamente por um computador executando um programa de software. Em uma modalidade mais detalhada, o método inclui ainda coletar dados a partir do sensor de movimento que podem ser usados para determinar pelo menos uma de posição e rotação do sensor de movimento como uma função do tempo. Em uma modalidade mais detalhada, os dados coletados a partir do sensor de movimento são coletados de maneira sem fio. Em outra modalidade mais detalhada, os dados coletados a partir do sensor de movimento são coletados a partir de um fio conectado ao sensor de movimento.
[0016] Em ainda outra modalidade mais detalhada do terceiro aspecto, os dados coletados a partir do sensor de movimento são coletados por pelo menos um dentre um telefone, um computador, um tablet e uma memória portátil. Em ainda outra modalidade mais detalhada, o método inclui ainda registrar no espaço tridimensional o sensor de movimento para um modelo tridimensional virtual da parte do corpo, e correlacionar dados coletados a partir do sensor de movimento como uma função da posição da parte do corpo para criar um modelo dinâmico virtual da parte do corpo que é reposicionável para refletir as posições reais da parte do corpo quando reposicionada dentro de uma amplitude de movimento. Em uma modalidade adicionalmente detalhada, o método inclui ainda construir um modelo tridimensional virtual do sensor de movimento usando a pluralidade de imagens radiográficas. Em uma modalidade ainda mais detalhada, o método inclui ainda construir um modelo tridimensional virtual do sensor de movimento usando a pluralidade de imagens radiográficas. Em uma modalidade mais detalhada, o modelo tridimensional virtual do sensor de movimento é integrado ao modelo tridimensional virtual da parte do corpo para criar um modelo combinado tridimensional virtual. Em uma modalidade mais detalhada, o método inclui ainda correlacionar dados coletados a partir do sensor de movimento como uma função da posição da parte do corpo para fornecer movimento dinâmico ao modelo combinado tridimensional virtual. Em outra modalidade mais detalhada, coletar os dados de movimento inclui registrar pelo menos uma de alterações na posição e rotação do sensor de movimento como uma função do tempo. Em ainda outra modalidade mais detalhada, coletar os dados de movimento inclui registrar alterações de aceleração do sensor de movimento como uma função do tempo. Em ainda outra modalidade mais detalhada, os dados de movimento coletados são horodatados.
BREVE DESCRIÇÃO DOS DESENHOS
[0017] A Figura 1A é uma visão geral de sistema exemplar de uma navegação cirúrgica exemplar do quadril usando raios X ou fluoroscopia pré-operatório, de acordo com a presente divulgação.
[0018] A Figura 1B é uma visão geral de sistema exemplar de uma navegação cirúrgica exemplar do quadril usando raios X ou fluoroscopia intraoperatória, de acordo com a presente divulgação.
[0019] A Figura 2 é uma visão geral de sistema exemplar do planejamento pré-operatório baseado em imagem com sistema de navegação baseado em imagem em tempo real intraoperatório usando sensores de rastreamento de acordo com a presente divulgação.
[0020] A Figura 3 é uma variação sem sensor exemplar do planejamento pré-operatório baseado em imagem mais sistema de navegação baseado em imagem em tempo real intraoperatório, de acordo com a presente divulgação.
[0021] A Figura 4 é uma visão geral de sistema exemplar do planejamento intraoperatório baseado em imagem com sistema de navegação baseado em imagem em tempo real intraoperatório, usando sensores de rastreamento de acordo com a presente divulgação.
[0022] A Figura 5 é uma configuração exemplar para navegação usando imagens de raios X e nenhum sistema de rastreamento em tempo real, sem reconstrução, de acordo com a presente divulgação.
[0023] A Figura 6 é um fluxo de processo exemplar representando um registro não rígido para a criação de modelos de pelve e fêmur proximal tridimensionais específicos de paciente a partir de raios X, de acordo com a presente divulgação.
[0024] A Figura 7 é uma representação exemplar da detecção de recurso em imagens de raios X da pelve tiradas em diferentes vistas de acordo com a presente divulgação.
[0025] A Figura 8 é uma representação exemplar mostrando a correspondência de recurso entre múltiplas imagens 2D, tiradas em diferentes vistas, usando apenas a abordagem de estatísticas de movimento baseadas em grade em imagens de raios X da pelve, de acordo com a presente divulgação.
[0026] A Figura 9 é uma representação exemplar mostrando a correspondência de recurso entre múltiplas imagens 2D, tiradas em diferentes vistas, usando a combinação das estatísticas de movimento baseadas em grade e as abordagens de consenso de campo vetorial nas imagens de raios X da pelve, de acordo com a presente divulgação.
[0027] A Figura 10 é uma representação exemplar de imagens DRR da vista de Judet Direita, da vista AP e da vista de Judet Esquerda de um modelo de pelve exemplar de acordo com a presente divulgação.
[0028] A Figura 11 é uma reconstrução de raios X exemplar, de acordo com a presente divulgação, mostrando limites ósseos destacados para a transformação.
[0029] A Figura 12 é uma representação exemplar de múltiplos raios X da pelve, tirados da perspectiva da vista de Judet direita, da vista AP e da vista de Judet esquerda.
[0030] A Figura 13 é uma representação exemplar mostrando imagens de raios X com osso e sensor anexado.
[0031] A Figura 14 é uma representação exemplar mostrando sensores anexados ao paciente antes da imagiologia e as imagens de raios X resultantes contendo ambas informações de junta do paciente e de sensor.
[0032] A Figura 15 é um fluxo de processo exemplar de um processo para reconstrução da anatomia do paciente e marcação de ponto de referência de fluoroscopia, de acordo com a presente divulgação.
[0033] A Figura 16 é uma representação exemplar mostrando imagens fluoroscópicas da grade de calibração geométrica, antes da remoção da distorção (esquerda) e após a remoção da distorção (direita), de acordo com a presente divulgação.
[0034] A Figura 17 é um fluxo de processo de otimização de parâmetro de pose e forma exemplar, de acordo com a presente divulgação.
[0035] A Figura 18 é uma representação exemplar mostrando a relação entre distância de entrada-espaço e distâncias de recurso-espaço como parte da presente divulgação.
[0036] A Figura 19 é uma representação exemplar de capturas de tela mostrando o cálculo automático de pontos de referência anatômicos em modelos virtuais 3D de pelve e fêmur.
[0037] A Figura 20 é uma representação exemplar de capturas de tela mostrando a colocação planejada de um copo acetabular e uma haste femoral em modelos virtuais 3D de pelve e fêmur.
[0038] A Figura 21 é uma captura de tela representando um modelo genérico de um copo acetabular em relação a um modelo virtual 3D da pelve.
[0039] A Figura 22 é uma captura de tela parcial que descreve a modelagem genérica das medições de haste e femorais por meio da geometria do canal intramedular para avaliar as diferentes localizações do implante que são usadas para calcular o diâmetro ideal do implante, o ângulo do pescoço e o deslocamento da cabeça.
[0040] A Figura 23 é uma captura de tela exemplar de software que demonstra informações de planejamento dinâmico incluindo tensões nos ligamentos durante diferentes estágios das atividades, e o mapa de contato dos implantes, de acordo com a presente divulgação.
[0041] A Figura 24 é um fluxograma de processo exemplar que descreve o registro bidimensional a tridimensional de acordo com a presente divulgação.
[0042] A Figura 25A é uma captura de tela de uma interface de usuário de software exemplar para registro de um modelo tridimensional em uma imagem de raios X ou fluoroscópica bidimensional, onde o usuário seleciona um conjunto de pontos de referência na imagem que correspondem aos pontos de referência anatômicos, de acordo com a presente divulgação.
[0043] A Figura 25B é uma captura de tela de uma interface de usuário de software exemplar para registrar um modelo tridimensional em uma imagem de raios X ou fluoroscópica bidimensional, onde os pontos de referência são usados em uma otimização de primeira passagem que gera a pose que resulta na menor distância entre pontos de referência projetados e pontos de referência selecionados, de acordo com a presente divulgação.
[0044] A Figura 25C é uma captura de tela de uma interface de usuário de software exemplar para registro de um modelo tridimensional em um imagem de raios X ou fluoroscópica bidimensional, onde otimização adicional (inicializada na pose de saída da otimização de ponto de referência, que minimiza uma função de custo com base em uma imagem projetada do modelo 3D e da imagem 2D) resulta em uma pose final do modelo tridimensional para a imagem bidimensional.
[0045] A Figura 26 é uma imagem de radiografia exemplar de um quadril/pelve.
[0046] A Figura 27 é um modelo ósseo tridimensional registrado para a imagem da Figura 26 de acordo com a presente divulgação.
[0047] A Figura 28 é uma representação exemplar da configuração A para imagiologia intraoperatória em que cada osso da articulação (articulação do quadril, neste caso) é anexado a um dispositivo de rastreamento por meio de um dispositivo de fixação, onde cada dispositivo de rastreamento pode incluir quatro ou mais recursos radiopacos anexados ou incorporados nele.
[0048] A Figura 29 é uma representação exemplar da configuração B para imagiologia intraoperatória, onde cada osso da articulação (articulação do quadril, neste caso) é anexado a um dispositivo de rastreamento através de um dispositivo de fixação (neste caso, pinos ósseos) e um acessório de dispositivo de rastreamento adicional pode ser anexado entre o dispositivo de rastreamento e o dispositivo de fixação, onde o acessório e o dispositivo de rastreamento têm cada quatro ou mais recursos radiopacos anexados ou incorporados nele.
[0049] A Figura 30 é uma imagem radiográfica exemplar (por exemplo, fluoroscopia) mostrando uma pelve, um dispositivo de rastreamento, um dispositivo de fixação e quatro recursos radiopacos incorporados no dispositivo de rastreamento.
[0050] A Figura 31 é uma montagem exemplar mostrando um dispositivo de rastreamento/sensor, um dispositivo de fixação (conjunto de referência), e um alvo de imagem/registro com vários recursos radiopacos incorporados nele sendo fixados à pelve do paciente, de acordo com a presente divulgação.
[0051] A Figura 32 mostra exemplos de imagens de raios X tiradas com (A) um alvo de imagem montado em uma pelve e (B) mostrando um modelo virtual do alvo de imagem sobreposto à imagem de raios X, de acordo com a presente divulgação.
[0052] A Figura 33 mostra (a) um alvo de imagem, para registro do dispositivo de rastreamento/sensor, rigidamente anexado à anatomia por meio de uma imagem de raios X, e (b) mostra um modelo virtual 3D da anatomia e do dispositivo de rastreamento/sensor montado nele que corresponde à imagem de raios X.
[0053] A Figura 34 representa um alvo de imagem exemplar de acordo com a presente divulgação.
[0054] A Figura 35 representa múltiplas vistas do alvo de imagem da Figura 34.
[0055] A Figura 36 representa múltiplas vistas de um conjunto de referência exemplar compreendendo o alvo de imagem da Figura 34 montado em uma peça de referência e em um dispositivo de rastreamento/sensor.
[0056] A Figura 37 representa o conjunto de referência exemplar da Figura 36 com e sem pinos de osso montados nos mesmos.
[0057] A Figura 38 representa o conjunto de referência exemplar da Figura 36 montado em um modelo virtual de uma pelve (esquerda) e montado em uma pelve real por meio de uma imagem de raios X (direita) em uma vista ântero- posterior.
[0058] A Figura 39 representa o conjunto de referência exemplar da Figura 36 montado em um modelo virtual de uma pelve (esquerda) e montado em uma pelve real por meio de uma imagem de raios X (direita) em uma vista de Judet.
[0059] A Figura 40 é um modelo de junta 3D virtual exemplar do quadril, mostrando vários conjuntos de referência exemplares da Figura 36 montados respectivamente na pelve e no fêmur que podem permitir o registro 3D-2D e a navegação do sensor de acordo com a presente divulgação.
[0060] A Figura 41 é uma representação exemplar mostrando que o sistema estabelece uma relação entre a coordenada do mundo real do dispositivo de rastreamento q0 e a coordenada de imagem por meio do alvo de imagem usando os marcadores fiduciais nas imagens radiográficas q1.
[0061] Figura 42 ilustra uma vista gráfica exemplar de um processo de registro de acordo com a presente divulgação.
[0062] A Figura 43 ilustra um fluxo de processo exemplar para a realização de um processo de registro exemplar de acordo com a presente divulgação.
[0063] A Figura 44A ilustra um conjunto de referência PAM montado na anatomia do paciente em uma posição e orientação predeterminadas que pode ser usado para registrar dados de imagem e modelo, além de facilitar a navegação cirúrgica em tempo real.
[0064] A Figura 44 B ilustra uma matriz de calibração exemplar entre um sistema de coordenadas de navegação em tempo real (TN) do sistema e um do sistema de coordenadas de alvo de calibração (TC).
[0065] A Figura 45 é uma representação gráfica de um sistema de imagiologia radiográfica que pode ser usado um procedimento cirúrgico para verificar a posição de colocação de um implante de acordo com a presente divulgação.
[0066] A Figura 46 é uma captura de tela de uma exibição de orientação cirúrgica exemplar de acordo com a presente divulgação, que descreve um modelo virtual 3D de anatomia do paciente (neste caso, o quadril) e a orientação pretendida que um cirurgião deve seguir para colocar o implante de copo acetabular consistente com um plano pré- operatório, onde desvios a partir da orientação pretendida são mostrados em uma ilustração alvo para trazer qualquer desvio de volta à orientação pretendida.
[0067] A Figura 47 é uma representação mostrando que, uma vez que informações de implante são conhecidas para o software de orientação cirúrgica, pode usar o modelo 3D CAD dos mesmos implantes para realizar modelos 3D para registro de imagem 2D, de modo que registrar imagem 3D-para-2D é concluído, métricas de orientação tais como ângulos de anteversão e de abdução combinados podem ser determinadas com base na diferença de orientação relativa dos modelos 3D para 2D.
[0068] A Figura 48 é uma representação gráfica que reflete que a medição espacial, como o comprimento da perna, pode ser medida a partir dos modelos 3D registrados para obter medições 3D, em comparação com a medição 2D direta na imagem radiográfica, o que pode eliminar a ambiguidade das medições clínicas a partir de uma imagem plana 2D.
[0069] A Figura 49 é um fluxograma exemplar que descreve um processo de detecção da orientação do copo e da haste sem usar um modelo CAD de implante ortopédico.
[0070] A Figura 50 é uma imagem radiográfica exemplar mostrando uma vista de RPO Judet de uma modalidade exemplar de acordo com a presente divulgação mostrando a colocação do alvo de imagem em relação à anatomia do paciente (pelve).
[0071] A Figura 51A é uma imagem radiográfica exemplar mostrando uma vista AP de uma modalidade exemplar, de acordo com a presente divulgação, mostrando a colocação do alvo de imagem em relação à anatomia do paciente (pelve).
[0072] A Figura 51B é uma imagem radiográfica exemplar mostrando uma vista de LPO Judet de uma modalidade exemplar de acordo com a presente divulgação mostrando a colocação do alvo de imagem em relação à anatomia do paciente (pelve).
[0073] A Figura 52 é um fluxograma exemplar para extração automática da matriz de calibração estéreo de acordo com a presente divulgação.
[0074] A Figura 53 é uma série de imagens radiográficas mostrando um produto inicial de um programa de computador que detecta automaticamente esferas radiopacas visíveis nas imagens radiográficas.
[0075] A Figura 54 é uma captura de tela de um programa de computador exemplar, de acordo com a presente divulgação, mostrando múltiplas imagens radiográficas e o resultado da estimativa de pose automática do alvo de calibração que aparece nas imagens.
[0076] A Figura 55 é um fluxograma exemplar que descreve um processo exemplar para identificar pontos de referência tridimensionais a partir do número "n" de imagens estéreo bidimensionais, de acordo com a presente divulgação.
[0077] A Figura 56 é uma representação gráfica exemplar que reflete a detecção anatômica da borda da superfície de uma pelve que foi extraída de uma imagem radiográfica AP da pelve.
[0078] A Figura 57 é uma vista de interface gráfica de uma interface de usuário exemplar para geração de pontos de referência tridimensionais a partir de imagens estéreo bidimensionais, de acordo com a presente divulgação.
[0079] A Figura 58 é uma captura de tela exemplar tirada de uma interface de usuário, mostrando múltiplas vistas de um modelo 3D virtual de uma pelve e refletindo a implantação de um copo ortopédico, onde a interface de usuário é utilizada para planejamento cirúrgico intraoperatório usando pontos de referência 3D extraídos de imagens estéreo intraoperatórias.
[0080] A Figura 59 é um fluxograma de um processo exemplar de utilização de dados dinâmicos ao longo do episódio de tratamento cirúrgico para criar implantes e instrumentos específicos de paciente, colocar o implante e monitorar o desempenho no pós-operatório.
[0081] A Figura 60 é um fluxograma que descreve um processo exemplar de criação de informações anatômicas a partir de dados de imagem dinâmicos.
[0082] A Figura 61 é um diagrama que representa a inicialização com um classificador híbrido.
[0083] A Figura 62 é um diagrama que representa a variação do modelo KPCA aplicada a uma articulação do joelho.
[0084] A Figura 63 é um diagrama que representa um processo para otimização de parâmetros de pose e forma.
[0085] A Figura 64 é um diagrama que descreve a relação entre distância de entrada-espaço e distâncias de recurso-espaço.
[0086] A Figura 65 compreende imagens exemplares de reconstrução de ombro e quadril por fluoroscopia de raios X.
[0087] A Figura 66 é um diagrama que descreve como o espaço de geometria é primeiro decomposto extraindo volumes de interesse (VOI) como volumes nos quais gabaritos de peça podem existir.
[0088] A Figura 67 é um diagrama que descreve como o volume de interesse (VoI) é determinado por detecção.
[0089] A Figura 68 é um diagrama que representa uma alternativa ao uso da deformação de forma estatística para identificar recursos na imagem diretamente e usar a chamada árvore E-Ou para identificação e deformação de forma.
[0090] A Figura 69 é uma série de ilustrações geradas por computador que decompõem a anatomia femoral em formas primitivas.
[0091] A Figura 70 é um modelo ósseo mostrando as localizações dos ligamentos que foram extraídas dos dados de imagiologia.
[0092] A Figura 71 é um diagrama que representa mapas de contato da tíbia e do fêmur para uma curva profunda do joelho.
[0093] A Figura 72 é um diagrama que descreve como os dados estáticos e fluoroscópicos são utilizados para acoplar cinemática e morfologia.
[0094] A Figura 73 é um mapa de dois fêmures distais mostrando espessuras relativas da cartilagem como parte da captura de imagem dinâmica.
[0095] A Figura 74 é um fluxograma para estimar a espessura de cartilagem a partir de dados dinâmicos.
[0096] A Figura 75 é um mapa de probabilidade das localizações dos ligamentos para um fêmur distal e uma tíbia proximal.
[0097] A Figura 76 é um par de modelos de fêmur distal que mapeiam a quantidade de perda de cartilagem previsão.
[0098] A Figura 77 é um fluxograma de processo para criar e usar redes de treinamento cinemático para identificar padrões cinemáticos.
[0099] A Figura 78 é um modelo ósseo da articulação do joelho mostrando um colapso de um lado medial.
[00100] A Figura 79 é um modelo ósseo da articulação do joelho mostrando estimativa do alinhamento articular normal e alteração no comprimento do ligamento.
[00101] A Figura 80 é um diagrama de processo exemplar para colocação automática da haste femoral usando fixação distal.
[00102] A Figura 81 é um diagrama de processo exemplar para colocação automática da haste femoral usando encaixe de pressão e três contatos.
DESCRIÇÃO DETALHADA
[00103] As modalidades exemplares da presente divulgação são descritas e ilustradas abaixo para abranger métodos de navegação cirúrgica exemplares e dispositivos e sistemas correspondentes. Obviamente, será evidente para os habilitados na técnica que as modalidades discutidas abaixo são de natureza exemplar e podem ser reconfiguradas sem se afastar do escopo e espírito da presente invenção. No entanto, para maior clareza e precisão, as modalidades exemplares discutidas abaixo podem incluir passos, métodos e recursos opcionais que um especialista comum deve reconhecer como não sendo um requisito para se enquadrar no escopo da presente invenção.
[00104] Um sistema exemplar, como aqui descrito, compreende um sistema híbrido que combina fluoroscopia e/ou raios X intraoperatórios e instrumentação rastreada para navegação em tempo real. Veja a Figura 1. O sistema pode utilizar uma das várias variações descritas em detalhes a seguir. Para cada uma das configurações abaixo, a fluoroscopia intraoperatória pode ser substituída por radiografia planar digital.
[00105] A Figura 2 descreve um fluxo de trabalho exemplar de uma configuração de navegação exemplar utilizando um sistema de rastreamento em tempo real e imagiologia 2D. A configuração do sistema de navegação delineada pode exigir imagiologia pré-operatória para a criação de superfície 3D da pelve e/ou fêmur a partir de uma ou mais imagens radiográficas, que é realizada no módulo de reconstrução pré-operatória. Associados aos modelos 3D, existem pontos de referência anatômicos, definindo o dimensionamento anatômico e o sistema (s) de coordenadas de referência. Os modelos anatômicos 3D podem então ser inseridos em um módulo de planejamento cirúrgico pré- operatório, onde os componentes de reposição acetabular e/ou femoral são virtualmente posicionados. No intraoperatório, um primeiro conjunto de sensor de posição/IMU de referência (sensor, alvo de imagem e peça de referência), incluindo recursos radiopacos distribuídos em uma orientação conhecida, é anexado a uma pelve ou fêmur do paciente que está sendo navegado; um segundo sensor de posição/IMU está conectado à ferramenta que está sendo rastreada. Uma única imagem raios X ou fluoroscópica 2D pode ser adquirida e ajustada para corrigir qualquer distorção da imagem.
Cada imagem intraoperatória contém no mínimo a anatomia sendo navegada, bem como uma parte do conjunto de sensores de referência.
As imagens são transmitidas para um computador/tablet sem fio ou através de outro método de transferência de dados adequado.
O módulo de software de navegação em execução no computador utiliza entradas como imagem (s), modelo (s) anatômico (s) 3D e informações relacionadas, como plano cirúrgico, gabaritos de implante, pontos de referência anatômicos ou quaisquer outros dados relevantes para o procedimento.
O software pode então realizar um primeiro registro 3D para 2D para alinhar a anatomia 3D com a imagem.
Uma maneira de conseguir isso é primeiro inicializando o processo de registro 3D para 2D via registro baseado em pontos de referência, onde os pontos de referência anatômicos 3D na anatomia 3D são registrados nos pontos de referência 2D correspondentes na imagem por ajustar a posição do osso 3D para que a distância entre os pontos de referência 2D selecionados na imagem e a localização dos pontos de referência 3D após a projeção na imagem 2D seja minimizada.
Um segundo passo de registro pode ser realizado, onde as informações a partir da imagem (informações de bordas, contornos, regiões, gradiente e/ou textura detectadas) são usadas para ajustar ainda mais a posição e a orientação 3D do modelo 3D, de modo que uma projeção do modelo no plano de imagem seja otimizada com base em um erro mínimo ou correlação máxima entre as informações de projeção e imagem.
Em uma modalidade exemplar, as informações de imagem podem ser calculadas por primeiro detectar as bordas na imagem e, em seguida, realizar uma transformação de distância na imagem de mapa de borda.
Uma função de custo, usada no passo de otimização, pode então calcular, criando uma projeção fora da tela do modelo 3D na posição e orientação atuais (uma “pose”), informações de borda e gradiente a partir desta imagem.
Uma função de pontuação pode então calcular como a soma do produto em pixel das duas imagens mais a soma do valor absoluto dos produtos de ponto em pixel entre as duas direções de gradiente (direções de gradiente da imagem adquirida e direções de gradiente da projeção projetada). O primeiro conjunto de sensor de referência pode ser registrado na anatomia do paciente através do registro dos recursos radiopacos do conjunto com a imagem 2D.
Esse registro permite mesclar o quadro de coordenadas pré-operatório do paciente com o quadro de coordenadas de imagiologia intraoperatória, e o quadro de coordenadas de sensor de rastreamento.
Após a conclusão de certos passos, a orientação intraoperatória em tempo real pode ser alcançada rastreando a instrumentação em referência à anatomia do paciente para atingir o objetivo cirúrgico desejado.
Imagem(ns) de raios X ou fluoroscópicas adicionais podem ser obtidas após a colocação dos implantes de teste e/ou finais para medir a colocação de implante final, o deslocamento de perna e o comprimento de perna por meio de mais um passo de registro da anatomia nas imagens e componentes para imagens.
Além disso, um dispositivo de medição de distância pode ser usado para capturar a distância entre os sensores de referência e de instrumento, que pode ser utilizada para capturar a translação relativa entre ambos sensores.
[00106] A Figura 3 descreve uma variação exemplar da configuração anterior em que os sensores podem ser substituídos por imagiologia de raios X ou fluoroscópica estática contendo a anatomia e o implante. A posição e a orientação do implante são registradas na imagem por outro processo de registro 3D para 2D, embora a inicialização possa ser feita por alinhar o implante 3D em uma posição e orientação padrão ou planejada em relação ao modelo (s) anatômico 3D já registrado. Presumivelmente, essa inicialização está próxima da posição final e, portanto, compreende uma estimativa inicial suficiente. Depois que um componente de implante (ou teste) é registrado, a orientação e a posição do componente podem ser calculadas no sistema de coordenadas 3D e relatadas ao operador na tela. Ajustes podem ser feitos no implante 3D virtual e projetados na imagem 2D para fornecer retorno relacionado ao conteúdo esperado da imagem, se colocado corretamente. O software também pode sugerir dimensionamento e posicionamento alternativos para permitir a configuração que resulta em discrepância de deslocamento e comprimento de perna mínima. Se ambos os implantes femoral e acetabular foram colocados e os modelos 3D foram registrados em uma imagem contendo ambos componentes, a orientação e o posicionamento finais do componente podem ser calculados.
[00107] Em ainda outra configuração exemplar do sistema geral, o sistema de navegação intraoperatória em tempo real baseado em imagem é utilizado sem planejamento ou imagiologia pré-operatório. A Figura 4 delineia o fluxo de trabalho dessa configuração exemplar. No intraoperatório, um conjunto de sensor de IMU de referência com recursos radiopacos distribuídos em uma configuração conhecida é anexado à pelve ou fêmur do paciente sendo navegado.
Um sensor de IMU adicional está conectado à ferramenta que está sendo rastreada.
Uma ou mais imagens de raios X/fluoroscopia da pelve e anatomia femoral são adquiridas.
Cada imagem deve conter uma das anatomias sendo navegadas, bem como pelo menos uma parte suficiente do conjunto de sensores de referência para registro.
Por exemplo, AP, Judet RPO e/ou Judet LPO podem ser imagens adequadas.
As imagens podem ser transmitidas para um computador sem fio ou através de qualquer meio de armazenamento, como USB ou qualquer outro método de transferência de dados adequado.
O módulo de software de navegação utiliza as imagens e as processa para calcular uma calibração entre cada uma das imagens por extrair a orientação e a posição relativas do conjunto de referência rigidamente fixo contendo recursos radiopacos em cada um dos disparos adquiridos por meio do registro 3D para 2D do conjunto para cada uma das imagens.
Em cada imagem, um ou mais pontos de referência anatômicos podem ser identificados por meio de um processo automatizado ou semi- automatizado.
A partir do conjunto de imagens calibradas e os pontos de referência localizados, os princípios de geometria da câmera de múltiplas vistas podem ser usados para a criação de coordenadas 3D para cada um dos pontos de referência identificados em 2 ou mais das imagens.
Por exemplo, para a pelve pontos de referência podem incluir a coluna ilíaca ântero-superior direita e esquerda, os pontos de tubérculo púbico direito e esquerdo e, para o fêmur, são calculados o centro da cabeça femoral e o centro do canal IM femoral.
Os pontos de referência são utilizados para calcular o (s) sistema (s) de coordenadas cirúrgicas 3D usado para planejar o procedimento. Por exemplo, o plano pélvico anterior para a pelve e o eixo anatômico e o eixo de colo femoral para o fêmur. Esses eixos cirúrgicos são então utilizados para medir a colocação do implante e o dimensionamento do copo acetabular e da haste femoral. A orientação do sensor de referência é registrada nos pontos de referência e eixos cirúrgicos gerados por meio de sua posição e orientação conhecidas em relação aos marcadores fiduciais do conjunto de referência. Após a conclusão deste passo, a orientação intraoperatória em tempo real pode ser alcançada por rastrear a instrumentação relativa à anatomia do paciente para permitir a colocação dos componentes de acordo com um alvo cirúrgico definido. O rastreamento dos instrumentos é realizado por uma segunda IMU que é anexada a cada instrumento enquanto está sendo usado no procedimento cirúrgico. Imagens adicionais, embora opcionais, da fluoroscopia podem ser capturadas após a colocação dos testes e implantes finais para medir a colocação final do implante, o deslocamento da perna e o comprimento da perna. Além disso, um dispositivo de medição de distância pode ser usado para capturar a distância entre os sensores de referência e de instrumento, que pode ser utilizada para capturar a translação relativa entre os dois sensores.
[00108] Na seguinte configuração exemplar, o sistema de rastreamento em tempo real com sensores pode ser omitido, assim como a imagem pré-operatória. Nesta configuração, a imagem intraoperatória é utilizada para obter retorno relacionado à posição e orientação do componente. O registro do osso, o alvo de imagem e o componente de cada uma das imagens capturadas e a reconstrução da anatomia óssea e/ou pontos de referência das imagens são realizados usando os métodos aqui divulgados para todas as configurações. A Figura 5 descreve os passos nesta configuração exemplar. A posição e a orientação do implante são registradas na imagem pelo processo de registro, conforme descrito em detalhes a seguir. A inicialização automática do registro do implante pode ser feita alinhando o implante 3D em uma posição e orientação padrão em relação aos pontos de referência 3D já registrados. Depois que um componente de implante (ou teste) é registrado nas imagens adquiridas e na anatomia e/ou pontos de referência do paciente, a orientação e a posição do componente podem ser calculadas no sistema de coordenadas 3D e relatadas ao operador na tela. Ajustes podem ser feitos no implante 3D virtual e projetados na imagem 2D para fornecer retorno relacionado ao conteúdo esperado da imagem, se colocado corretamente. O módulo de software de navegação também pode sugerir dimensionamento e posicionamento alternativos para permitir a configuração que resulta em discrepância mínima de deslocamento e comprimento da perna. Se os implantes femoral e acetabular foram colocados e os modelos 3D foram registrados em uma imagem contendo os dois componentes, a orientação e o posicionamento final do componente podem ser calculados. I. Imagiologia Pré-Operatória
[00109] Um passo exemplar das configurações exemplares pode incluir a realização de imagiologia da articulação do paciente e a criação de modelos 3D para planejamento cirúrgico virtual. Além das metodologias de imagem tradicionais que utilizam modalidades de imagiologia estática, como raios X, TC e/ou IRM para criar modelos anatômicos do paciente, esta divulgação exemplar pode incorporar técnicas adicionais para criar osso do paciente, bem como movimento articular. Em uma modalidade exemplar, uma ou mais imagens de raios X podem ser usadas para criar um modelo anatômico específico de paciente 3D para pontos de referência e medições. Ao mesmo tempo, um ou mais sensores de rastreamento podem ser fixados ao paciente e usados em conjunto com as imagens capturadas para obter dados de movimento articular. Isso é descrito em mais detalhes a seguir. Em outra modalidade exemplar, se nenhum sensor estiver disponível, raios X ou fluoroscopia podem ser usados para capturar imagem da anatomia do paciente durante várias atividades. As imagens gravadas das atividades podem ser utilizadas para construir modelos de paciente 3D acoplados a dados cinemáticos, que podem ser usados para marcação de ponto de referência e planejamento cirúrgico dinâmico e/ou estático. Em outra modalidade exemplar, ultrassom pode ser usado para criar o modelo ósseo do paciente para marcação de ponto de referência e medições. A. Reconstrução de raios X de uma articulação
[00110] A reconstrução 3D, ou registro não rígido (mostrado na Figura 6), de modelos anatômicos de múltiplas imagens de raios X desempenha um papel importante na compreensão da articulação do paciente. No entanto, um problema central nos métodos de reconstrução 3D existentes a partir de imagens de raios X de múltiplas vistas reside na seguinte restrição: Imagens de raios X são obtidas com diferentes tipos de marcadores ou chaves como alvos de calibração, a fim de melhorar a precisão da calibração em relação a estimar a posição e orientação relativas dos pares de imagens. No entanto, a principal limitação dessa abordagem de calibração é que ela só é capaz de lidar com imagens radiográficas estéreo, incluindo alvos de calibração específicos. Para potencialmente abordar as questões acima, é divulgado um método prático sem a necessidade de um alvo de calibração para estimar linhas epipolares com base nas correspondências de recurso de imagens de raios X do mesmo objeto ou objetos em diferentes vistas.
[00111] A geometria epipolar entre duas imagens é a geometria de projeção intrínseca mais frequentemente determinada por encontrar pixels correspondentes em uma imagem, dado um conjunto de pixels na outra imagem. Isso pode ser determinado por computar a matriz fundamental que descreve a transformação projetiva entre pixels correspondentes em pares de imagens. Para estimar linhas epipolares entre pares de imagens, correspondências de recursos são empregadas que envolvem encontrar as projeções dos mesmos pontos de cena em ambas imagens adquiridas em vistas diferentes. No entanto, corresponder os pixels ou recursos correspondentes nas imagens de raios X biplanares é um problema especialmente desafiador, porque as informações correspondentes podem aparecer em diferentes regiões e formas de cada imagem. Para este fim, podem ser estabelecidas correspondências de recursos híbridos através de imagens de raios X de múltiplas vistas.
[00112] Uma modalidade exemplar da correspondência de recurso pode ser composta de: (1) detecção de recurso, (2) descrição de recurso e (3) correspondência de recurso. Um conjunto de recursos discriminatórios nas entradas de raios
X pode ser indicado como pontos, bordas, linhas, fragmentos ou qualquer mistura destes. Em uma modalidade exemplar, os pontos de recurso podem ser usados para encontrar um conjunto esparso de localizações correspondentes em imagens diferentes como um pré-requisito para computar a transformação projetiva entre um par de duas imagens de entrada. Os pontos de recurso para a detecção em pixel podem ser considerados com grandes alterações de contraste e gradientes em orientações significativamente diferentes, onde a detecção em pixel realiza pixels em um local da imagem de entrada por vez. Para encontrar um conjunto de recursos de ponto correspondentes em ambas as imagens, cada um dos pontos de recurso associados a uma posição (x, y) no domínio da imagem 2D pode ser descrito como um vetor de recurso que representa uma aparência local e uma relação espacial em torno da posição do ponto de recurso na imagem de entrada. Os vetores de recurso são referidos como descrições de recurso. Para estimar a matriz fundamental entre pares de imagens, um conjunto de pontos de recurso na referência é correspondido a outro conjunto de pontos de recurso no alvo, além de identificar correspondências verdadeiras e falsas durante a comparação de vetores de recurso.
[00113] Nas imagens de raios X biplanares, a detecção de recurso pode ser usada como o processo primário de determinação de correspondências de recurso para extrair recursos salientes representados na imagem, como pontos, bordas, linhas, fragmentos, ou qualquer mistura dos mesmos. As texturas na imagem, que estão diretamente relacionadas às informações salientes locais dos recursos, são críticas para realizar com eficiência as correspondências de recurso. No entanto, correspondências de recurso em estruturas ósseas minimamente texturizadas em imagens de raios X podem sofrer repetitividade e estabilidade degradáveis de seus desempenhos em regiões não texturizadas devido à escassez de informações salientes locais.
Ao detectar pontos de canto nas imagens alvo para possivelmente resolver os problemas desafiadores em objetos não texturizados, abordagens de detecção de canto podem fornecer a capacidade de detectar um conjunto de pontos de recurso altamente discriminativos nas imagens de raios X com estruturas ósseas não texturizadas.
Considerando a invariância da escala, a detecção de ponto de canto em várias escalas da imagem pode ser empregada.
Um método exemplar de detecção de recurso, referenciando a Figura 7, pode incluir o desempenho de alguns ou todos os passos a seguir: (1) Extrair pontos de canto através de abordagens de detecção de canto existentes; (2) Filtrar os pontos de canto detectados nas bordas por medir a curvatura de cada ponto; e (3) Repetir os passos anteriores (1) e (2) em cada nível de uma pirâmide de escala da imagem.
Depois que os pontos de canto salientes são detectados entre todos os pixels da imagem, as informações locais de cada dos pontos de canto detectados em torno de suas localizações podem ser codificadas em um vetor onde as informações locais podem ser caracterizadas como padrões visuais salientes, orientação ou em qualquer mistura dos mesmos.
Para corresponder aos pontos de canto correspondentes em pares de imagens, o método pode incluir a realização de uma correspondência de recurso híbrido usando as estatísticas de movimento baseadas em grade e abordagens de consenso de campo vetorial onde a abordagem de consenso de campo vetorial é empregada para remover os valores discrepantes dos resultados correspondentes a partir da abordagem de estatísticas de movimento baseadas em grade. A Figura 8 mostra o resultado da correspondência de recurso por meio da abordagem de estatísticas de movimento baseadas em grade. Permanece um grande número de correspondências falsas ou discrepantes, especialmente na região destacada da Figura 8. Ao remover correspondências falsas, os resultados comparáveis podem ser obtidos.
[00114] Como mostrado na Figura 9, o método de correspondência de recurso híbrido pode fornecer a capacidade de melhorar a precisão da estimativa de linhas epipolares nos pares de imagens. Por esse motivo, o método exemplar de correspondência de recurso pode empregar o método de remoção externa para realizar uma melhor estimativa de linha epipolar. Mais especificamente, o método de correspondência de recurso híbrido reduz a população de valores discrepantes em comparação com os resultados da abordagem estatística de movimento baseada em grade, como mostrado na Figura 8. Este método de correspondência híbrida pode fornecer a capacidade de melhorar a precisão da estimativa de linhas epipolares nos pares de imagens.
[00115] As correspondências verdadeiras ou valores não discrepantes obtidos a partir da correspondência híbrida aqui descrita podem ser usadas para calcular a matriz fundamental que pode ser estimada usando um esquema de consenso de amostra aleatório (RANSAC) no qual são estabelecidas seleções aleatórias iterativas de 8 correspondências. Em cada seleção do esquema RANSAC, a matriz fundamental é estimada, e sua precisão é avaliada considerando a cardinalidade do subconjunto das correspondências candidatas. Uma vez encontrada a melhor solução correta da matriz fundamental, as linhas epipolares (considerando o conhecimento dos parâmetros de câmera internos) podem ser determinadas usando as propriedades básicas da matriz fundamental em relação a se algum par de pontos x e x^' nas duas imagens corresponde, então x' fica na linha epipolar l^' = Fx correspondente ao ponto x onde F denota a matriz fundamental. Essas linhas epipolares podem ser empregadas para reconstruir modelos 3D da estrutura óssea usando a relação geométrica entre os pontos de mundo e suas projeções nos planos de imagem, conforme descrito abaixo.
[00116] Um método exemplar alternativo de cálculo de pontos de recurso e correspondências entre vistas de raios X pode utilizar informações a priori relacionadas à anatomia que está sendo fotografada e às propriedades esperadas da imagem da anatomia. Esse método exemplar alternativo usa modelos de forma estatísticos, tendo correspondência de ponto em todas as amostras anatômicas que são incorporadas no modelo. Para cada modelo de forma tendo uma imagem de TC correspondente, radiografias reconstruídas digitalmente (DRRs) podem ser simuladas em uma pluralidade de vistas conhecidas. Cada DRR é uma imagem de raios X simulada da anatomia do paciente com parâmetros de câmera conhecidos. Para cada DRR, também é conhecida a posição da anatomia do paciente, com correspondência pontual a um modelo estatístico de forma, em relação ao plano de imagem. Para cada vista, descrições de recurso de cada vértice no modelo anatômico podem ser calculadas por determinar a localização do vértice na imagem DRR e calcular as informações de recurso desejadas na coordenada de imagem da projeção. A coordenada de imagem da projeção é determinada traçando uma linha a partir da origem da câmera, através do vértice da forma e no plano de imagem.
Agora, para cada imagem DRR, esse processo gera as descrições dos recursos na imagem para cada vértice no modelo anatômico.
Assim, para cada conjunto de dados (TC + modelo anatômico), várias DRRs são geradas simulando as imagens esperadas a serem adquiridas durante a reconstrução em escritório (consulte a Figura 10). Agora, para cada pose - AP, Judet Direita, Judet Esquerda, por exemplo - as estatísticas podem ser calculadas para a distribuição dos descritores de recurso em cada vértice da anatomia.
Essas estatísticas podem ser usadas como informações a priori no processo de determinação de correspondência de pontos em imagens do mundo real.
Deve ser notado que os descritores de recurso e métodos para calculá-los são conhecidos dos especialistas na área de visão computacional e que um ou mais descritores adequados podem ser implantados nesse processo.
Para usar esses dados, quando novas imagens de raios X são adquiridas, sua posição de captura é anotada (AP, Judet direita, Judet esquerda ou similares) e as estatísticas de recurso apropriadas podem ser carregadas a partir dos dados a priori.
Os recursos da nova imagem são calculados a partir dos dados de imagem e comparados ao conjunto de dados a priori.
Neste passo, a cada ponto de recurso detectado é atribuído com uma probabilidade pareada de pertencer à superfície anatômica com base no cálculo da probabilidade a priori de cada ponto de superfície, considerando o descritor de pontos de recurso como calculado a partir da imagem.
Para cada imagem, os pontos de recurso são atribuídos ao vértice de superfície com a maior probabilidade de associação, dado o descritor de recurso. Métodos difusos ou associações estatísticas semelhantes podem ser empregados. Agora é possível encontrar correspondência entre pontos de imagem por corresponder pontos de recurso pertencentes ao mesmo vértice de superfície. Métodos alternativos de cálculo de correspondência são facilmente vistos, como prever os pontos de recurso em uma imagem, dados os pontos de recurso em outra imagem, usando diferenças conhecidas, conforme determinado nos dados a priori. Outra alternativa é utilizar os dados a priori em uma estrutura de aprendizado de máquina para treinar uma rede neural para identificar pontos de recurso correspondentes em múltiplas imagens de raios X. Correspondências errôneas agora podem ser filtradas usando RANSAC ou métodos robustos semelhantes, familiares aos especialistas em geometria de câmera.
[00117] Após a calibração da imagem, o processo de reconstrução estima a pose 3D do osso do paciente nas diferentes vistas da imagem. Isso pode ser feito selecionando automaticamente - usando os mesmos dados a priori ou similares, como descrito anteriormente - um conjunto predefinido de pontos de referência 2D representando projeções de pontos de referência anatômicos em 3D no conjunto de dados de imagem. Vários pontos de projeção de pontos de referência anatômicos são identificados em pelo menos duas imagens a partir do conjunto de dados de imagens. Os pontos correspondentes nas duas imagens podem então ser usados para calcular pontos de referência 3D em três dimensões usando a matriz fundamental calculada anteriormente entre as duas imagens. Uma lista de modelos ósseos de um atlas de osso estatístico pode então ser alinhada aos pontos de referência 3D calculados, assim registrando-os no espaço de paciente. Posteriormente, um modelo ósseo de gabarito pode ser selecionado para iniciar o processo de reconstrução. Dadas as poses ósseas do paciente extraídas nas diferentes imagens, podem ser criadas simulações gráficas em 3D das cenas radiológicas usadas para capturar o conjunto de dados de imagem. A fonte de raios X pode ser representada por uma câmera em perspectiva, simulando a divergência de feixe radiológica, e pode ser colocada na distância de comprimento focal da imagem para o plano de projeção. Dentro do campo de visão da câmera, os modelos de osso do atlas podem ser colocados separadamente nas poses de osso 3D extraídas das imagens e as imagens de projeção de osso podem ser sintetizadas. Os contornos ósseos sintetizados podem então ser comparados às imagens radiográficas. O modelo ósseo de atlas que produz as distâncias de contorno ósseo sintetizadas mais próximas dos contornos ósseos radiológicos do paciente pode ser selecionado como gabarito de reconstrução inicial.
[00118] O gabarito ósseo selecionado pode ser transformado para representar melhor a anatomia do paciente. Nas cenas radiológicas simuladas, as imagens radiológicas podem ser colocadas nos planos de projeção e raios podem ser gerados entre a localização da fonte de raios X e os pontos de contorno ósseo radiológicos. Os pontos de osso modelos podem então ser selecionados para cada raio de imagem com base no limiar de distância dos pontos de gabarito e no limiar de ângulo normal (90 - α) em relação aos raios. Os pontos de ajuste 3D de alvo podem ser calculados por mover os pontos selecionados em uma direção normal para a superfície do modelo. A distância movida pode ser a distância entre o raio e o vértice de gabarito mais próximo do raio. O modelo de gabarito pode então ser transformado para que as distâncias entre os pontos selecionados do gabarito e seus pontos alvo 3D correspondentes possam ser minimizadas. Depois disso, o gabarito pode ser transformado otimizando os valores de componentes principais do atlas ósseo, para minimizar a distância entre os pontos selecionados do gabarito e seus pontos alvo 3D correspondentes. A otimização pode ser feita usando qualquer algoritmo de pesquisa direta ou heurística. Esse processo pode ser repetido para um número predeterminado de iterações ou quando não ocorrer uma deformação de forma mais significativa. Os valores da distância d e do ângulo α podem começar com valores maiores para deformação bruta e, em seguida, podem diminuir linearmente para o ajuste fino com cada iteração.
[00119] Como alternativa, uma estrutura de aprendizado de máquina pode ser criada usando os dados de DRR descritos anteriormente. Nesse contexto, os principais componentes esperados do osso reconstruído podem ser previstos a partir dos dados de imagem e da pose inicial. Nesse contexto, uma rede neural adequadamente estruturada pode ser treinada usando as imagens e poses de DRR como entrada, e os principais componentes do modelo anatômico correspondente. Ao gerar uma pluralidade de conjuntos de treinamento e usar esses conjuntos de treinamento para treinar uma rede neural suficientemente profunda, a rede treinada pode ser usada para prever o formato dos modelos ósseos inicializados nas imagens de raios X calibradas recentemente apresentadas (ver Figura 12). B. Imagiologia dinâmica com sensores de raios X e de movimento estáticos
[00120] Nesta modalidade exemplar, o paciente pode usar uma ou mais unidades de detecção de movimento, como IMUs, compreendendo um ou mais acelerômetros, giroscópios e/ou magnetômetros, que emitem rotação e/ou posição do sensor. O sensor pode transmitir esses dados de maneira sem fio para um dispositivo de processamento (telefone, mesas, PC ou similares). Os raios X podem então ser capturados, onde cada imagem de raios X contém pelo menos um sensor de IMU e uma porção da anatomia do paciente. Esses sensores podem ser fixados externamente, usando um invólucro ou banda flexível ou qualquer outro meio de anexação incluindo, sem limitação, adesivos. Durante imagiologia, os sensores e os ossos são capturados e visíveis em múltiplas imagens. A calibração da sequência de imagem pode então ser realizada localizando pontos no sensor de IMU com imagem capturada correspondente aos pontos conhecidos em um projeto de placa de IMU. A determinação dos pontos e regiões correspondentes pode ser realizada automaticamente. Esses pontos na imagem podem corresponder a componentes na placa de circuito, como resistores, capacitores, chips, roteamento ou qualquer outro recurso que possa ser distintamente identificável em uma ou mais imagens de raios X e na placa de circuito, conforme mostrado na Figura 13. Usando o sensor para calibração, os ossos podem ser reconstruídos usando os métodos de reconstrução de raios X aqui delineados ou qualquer outro método que possa ser familiar para os especialistas em reconstrução de objeto e registro não rígido. As superfícies ósseas reconstruídas, juntamente com os sensores registrados nas imagens, podem ser usadas para inicializar uma sessão de captura de movimento, consistindo em pelo menos um osso e sensor, que foram registrados no espaço 3D através da reconstrução de raios X do osso e registro do sensor para a mesma imagem(ns) usada para reconstrução, fornecendo informações relacionadas ao (s) sensor (es) no (s) osso(s). Usando essas informações relativas, os dados de sensor podem agora estar relacionados diretamente aos dados do osso. Dessa maneira, imagens de raios X estáticas podem ser usadas para inicializar um sistema de captura de movimento baseado em sensor e usadas na captura de informações dinâmicas da articulação 3D. Este processo exemplar é ilustrado na Figura
14. Nesse processo exemplar, os dados de raios X e de sensor podem ser usados juntos para criar dados de imagiologia dinâmicos. Esses dados podem ser utilizados de maneira semelhante aos dados dinâmicos de fluoroscopia, conforme delineado aqui. Depois que a sessão de captura de movimento é inicializada, atividades de movimento de articulação podem ser realizadas. Durante cada atividade, os dados de orientação a partir de cada sensor são retransmitidos para o dispositivo de processamento e registrados. O dispositivo de processamento pode fornecer alguma indicação visual do movimento que está sendo executado, como renderizações 3D atualizadas dos modelos ósseos em suas respectivas posições determinadas usando os dados de sensor. Aqui, os dados dinâmicos abrangem pelo menos um modelo ósseo, um modelo de sensor, suas posições e orientações relativas, e dados horodatados relacionados ao movimento do osso durante pelo menos uma atividade (quaterniões, transformações rígidas ou qualquer outra conforme ditado pelas capacidades de sensor). C. Reconstrução de fluoroscopia
[00121] A estrutura geral da reconstrução pode compreender uma ou mais de quatro partes, como mostrado na Figura 15: (A) Processamento de imagem, que extrai recursos a partir de imagens fluoroscópicas; (B) Inicialização, que estima a pose inicial do modelo 3D usando um classificador híbrido integrando os k vizinhos mais próximos (KNN) e a máquina de vetor de suporte (SVM) (pode usar outras técnicas de aprendizado de máquina para treinar e classificar imagens); (c) Otimização, que determina a pose e a forma ideais do modelo 3D, maximizando a medida de similaridade entre a fluoroscopia de raios X 2D e o modelo de malha de superfície 3D reconstruída (a medida de similaridade é projetada como uma nova função de energia incluindo a pontuação de borda, a pontuação de região, pontuação de homogeneidade e pontuação de registro múltiplos corpos); e (D) Análise de forma 3D, que representa o conjunto de dados de treinamento de modelos de malha de superfície 3D com modelo de forma estatística não linear chamado análise de componente principal de núcleo (KPCA).
[00122] A criação de informações anatômicas a partir de dados de imagem fluoroscópica dinâmica começa com a aquisição de imagem fluoroscópica. Como parte dessa aquisição de imagem, o sujeito/paciente pode ser observado em qualquer número de posições que podem incluir uma curva profunda do joelho e pontos finais de passo opostos. Após a aquisição da imagem, pode ser realizado um subpasso de processamento de imagem.
[00123] Usando um alvo de calibração, é possível estimar a distorção e removê-la das imagens subsequentes como parte do subpasso de processamento de imagem. Um passo exemplar neste procedimento pode incluir estimar a distorção geométrica de qualquer imagem 2D. Ao tirar um raio X de uma grade retangular conhecida de grânulos de metal, pode-se estimar uma transformação espacial 2D para cada subimagem quadrada pequena que é delimitada por quatro grânulos. Usando técnicas padrão na remoção de distorção geométrica, um modelo bilinear local pode ser usado para modelar o mapeamento espacial, bem como a interpolação do nível de cinza. Uma vez removida a distorção 2D, a distância de plano de origem- para-imagem efetiva (distância focal) pode ser calculada por uma grade de calibração de dois planos com um deslocamento conhecido entre os planos.
[00124] A Figura 16 ilustra uma imagem fluoroscópica de uma grade de calibração geométrica antes e após a remoção de distorção geométrica. Como parte desse subpasso, é possível calcular a transformação bilinear para cada conjunto de quatro pontos de grade que transforma as posições de imagem dos grânulos na imagem esquerda em localizações de grade espaçadas regularmente na direita. Claramente, o procedimento de calibração remove a distorção de almofada de pinos para que os pontos da grade fiquem ao longo de linhas retas.
[00125] Após o processamento da imagem, um subpasso de inicialização pode ser realizado para determinar a pose inicial do modelo médio. A inicialização pode ser baseada em um classificador híbrido que combina o vizinho mais próximo k e a máquina de vetores de suporte, como mostrado na Figura
59.
[00126] Como representado na Figura 60, dois métodos primários de reconstrução foram desenvolvidos para a construção da anatomia do paciente 3D a partir de imagens de fluoroscopia. Um primeiro método, o Método 1, compreende uma estimativa de forma e pose sequencial, enquanto um segundo método, o Método 2, compreende reconstrução usando Árvore E- Ou (AoT). A seguir, uma discussão mais detalhada de cada um desses modelos.
[00127] Uma reconstrução 3D de estimativa de forma e pose sequencial pode ser baseada em um modelo de forma estatístico não linear, ou seja, análise de componente principal de núcleo (KPCA). Ao projetar os dados de treinamento no espaço do núcleo de alta dimensão, a forma do modelo 3D pode ser representada por um vetor de parâmetros de forma, como mostrado na Figura 62. Como parte deste método, um processo de otimização pode ser realizado em que a otimização determina a forma do modelo 3D e coloca parâmetros a partir de uma sequência de imagens de raios X fluoroscópicas monoplanas, como mostrado na Figura 63. A otimização pode ser baseada em uma nova função de energia, que combina a borda, região, homogeneidade e pontuação de registro de múltiplos corpos para medir a semelhança entre o modelo 3D e a imagem de raios X 2D, como mostra a Tabela
1. A função de energia híbrida não exige geração de DRR demorada nem segmentação 2D propensa a erros.
[00128] Posteriormente, o modelo 3D pode ser reconstruído por uma aproximação de pré-imagem, porque o mapa entre os pontos de espaço de entrada e recurso não é necessariamente conhecido. É preferível reconstruir a pré- imagem do ponto de teste correspondente com base na restrição de distância no espaço de entrada. Isso pode ser conseguido estabelecendo a relação entre a distância de entrada-espaço e as distâncias de recurso-espaço, como mostrado na Figura
64.
[00129] Alternativamente, como representado na Figura 65, a reconstrução pode ser realizada com a técnica AOT. Inicialmente, o espaço de geometria é decomposto por extrair volumes de interesse (VOI) como volumes nos quais gabaritos de peça podem existir. Cada VOI pode ainda ser dividido em um conjunto de subvolumes sobrepostos, que podem ser usados como volumes delimitadores para a colocação de gabaritos de peça. Os exemplos dos subvolumes são mostrados no nó no lado esquerdo da Figura 65. A "árvore E-ou" pode ser gerada recursivamente particionando volumes e representando partições por pares de nó E-ou. O "nó ou" pode conectar a todos os "nós e" que dividem o volume representado por esse "nó ou" em dois subvolumes. O "nó ou" também pode se conectar a dois conjuntos de nós de folhas, onde em cada nó uma superfície é colocada por ou inscrever o volume ou na superfície perpendicular à direção da profundidade. Cada “nó e” pode conectar dois ou mais nós, cada um representando um dos dois subvolumes menores ocupando o subvolume atual. Essa árvore começa a partir de um "nó ou" raiz que representa o volume de interesse (VoI), e continua crescendo até que os subvolumes sejam divididos em um limite de tamanho. Usando a superfície como caixas delimitadoras, a aparência dos gabaritos de peça pode ser adicionalmente definida. A aparência possível para cada modelo de peça também pode ser representada por uma "árvore e-ou", onde "e" representa composição e "ou" representa deformação. Camadas de “nós e”
podem decompor os gabaritos de peça em segmentos de curva. Essas curvas podem ser projetadas no plano de imagem. O gabarito de objeto 3D pode ser convertido em um gabarito de objeto 2D composto por curvas ativas, que podem se parecer com a aparência do objeto no plano de imagem. As curvas ativas deformadas podem ser projetadas de volta ao espaço do objeto como o modelo 3D reconstruído.
[00130] Como mostrado na Figura 66, o volume de interesse (VoI) é determinado por detecção. A forma de um modelo genérico pode ser aprendida a partir de diferentes poses conhecidas, otimizando o ganho de informações. Em seguida, gabaritos podem ser projetados em planos de imagem 2D como contornos ativos, que se deformam nos planos de imagem. As folhas da aparência "árvore e-ou" podem ser projetadas em planos de imagem 2D como contornos ativos. No nível de peça, gabaritos podem executar a conversão em plano, rotação, que é chamada de deformação 3D. As curvas ativas projetadas também podem se deformar em 2D. Ambas deformações 2D e 3D podem ser guiadas maximizando o ganho de informações. Ao projetar as curvas ativas deformadas de volta ao plano do objeto, o modelo 3D pode ser reconstruído.
[00131] Como representado nas Figuras 67-69, uma alternativa ao uso da deformação de forma estatística pode ser identificar diretamente os recursos na imagem e usar a chamada "árvore e-ou" para identificação e deformação de forma (consulte Hu, Wenze e Song-Chun Zhu". Aprendendo gabaritos de objetos 3d por quantificar a geometria e os espaços de aparência. "Transações de IEEE em análise de padrões e inteligência de máquina 37.6 (2015): 1190-1205., cuja divulgação é incorporada aqui por referência. Na publicação anterior, os parâmetros de forma para as anatomias ósseas são ditados pela estrutura da AoT e pela identificação dessas estruturas nos quadros de fluoroscopia.
[00132] Vale ressaltar que, para o joelho, é necessário que, no mínimo, seja criada a porção do joelho da articulação (fêmur distal e tíbia proximal). No entanto, a mesma abordagem pode ser aplicada a qualquer articulação. D. Processamento de imagem
[00133] Como a fluoroscopia é propensa a distorção da imagem, pode ser desejável corrigir essa distorção antes de analisar os dados de imagem. Usando um alvo de calibração, essa distorção pode ser estimada e removida das imagens subsequentes. Um passo no procedimento de calibração pode incluir a estimativa da distorção geométrica de qualquer imagem 2D. Ao tirar uma imagem de uma grade retangular conhecida de grânulos de metal, uma transformada espacial 2D para cada subimagem quadrada pequena que é delimitada por quatro grânulos pode ser estimada. Usando técnicas padrão na remoção de distorção geométrica, um modelo bilinear local pode ser usado para modelar o mapeamento espacial, bem como a interpolação de nível de cinza. Depois que a distorção 2D foi removida, a distância de plano de fonte-para-imagem efetiva (distância focal) pode ser computada por uma grade de calibração de dois planos com um deslocamento conhecido entre os planos. A Figura 16 ilustra a imagem fluoroscópica de uma grade de calibração geométrica antes e após a remoção da distorção geométrica. Uma transformação bilinear para cada conjunto de quatro pontos de grade pode ser calculada que transforma as posições da imagem dos grânulos na imagem esquerda em localizações de grade regularmente espaçadas na direita. Essa correção pode ser aplicada a cada imagem fluoroscópica adquirida durante o procedimento. A correção da distorção pode não ser necessária para imagens de raios X planares. Inicialização
[00134] A inicialização pode ser realizada para determinar a pose inicial do modelo médio. A inicialização pode ser realizada com base em um classificador híbrido que combina os k vizinhos mais próximos e a máquina de vetor de suporte. Outras opções podem incluir a inicialização manual dos modelos ou a utilização de outras estruturas de aprendizado de máquina, como CNN ou estruturas de aprendizado profundo semelhantes, para treinar e classificar poses a partir de imagens. A saída do passo de inicialização pode compreender um modelo de gabarito e a pose apropriada do modelo em relação ao plano de imagem em pelo menos um quadro das imagens de fluoroscopia. Otimização
[00135] A otimização pode incluir determinar a forma do modelo 3D e parâmetros de pose a partir de uma sequência de imagens de raios X fluoroscópicas de monoplano, como mostrado na Figura 17. A otimização pode ser baseada em uma nova função energética, que combina a borda, região, homogeneidade e pontuação de registro de múltiplos corpos para medir a semelhança entre o modelo 3D e a imagem de raios X 2D, como mostra a Tabela 1. A função de energia híbrida não requer geração de DRR demorada nem segmentação 2D propensa a erros. Pré-Imagem
[00136] O modelo 3D pode então ser reconstruído por uma aproximação de pré-imagem, porque o mapa entre os pontos de espaço de entrada e recurso não é necessariamente conhecido. A reconstrução da pré-imagem do ponto de teste correspondente pode ser baseada na restrição de distância no espaço de entrada. Isso pode ser conseguido por estabelecer a relação entre a distância de entrada-espaço e as distâncias de recurso-espaço, como mostrado na Figura 18. II. Planejamento Cirúrgico A. Planejamento cirúrgico estático
[00137] Em qualquer uma das configurações dos sistemas exemplares aqui divulgados, os pontos de referência cirúrgicos relevantes podem ser calculados manual e/ou automaticamente (ver Figura 19), onde esses pontos de referência cirúrgicos calculados podem ser usados para estabelecer um sistema de coordenadas para medir a colocação do implante.
[00138] Antes de colocar ou orientar a colocação de um implante cirúrgico, pode ser desejável que um plano cirúrgico virtual seja criado através de um processo de modelagem virtual ou planejamento cirúrgico. Pode ser desejável que a modelagem virtual seja realizada com gabaritos 3D dos implantes idênticos a serem utilizados em cirurgia. No entanto, se esse implante não estiver disponível, a modelagem pode ser feita de maneira independente do implante, usando gabaritos virtuais de implantes genéricos, que podem ser projetados para imitar a forma e o tamanho dos implantes cirúrgicos conhecidos.
[00139] O programa de modelagem virtual pode receber modelos 3D específicos de paciente a partir de um ou de ambos um programa de segmentação automática e um programa de registro não rígido. No contexto de uma articulação do quadril, os modelos 3D específicos de paciente podem incluir a pelve e o fêmur, que ambos são entradas para um programa de marcação de ponto de referência automático. Este programa de marcação de ponto de referência automático calcula pontos de referência anatômicos relevantes para a colocação do implante nos modelos 3D do fêmur e da pelve usando regiões de anatomia semelhante presentes em um atlas estatístico e pesquisas geométricas locais.
[00140] No contexto da colocação automática da haste femoral usando fixação distal, como mostrado na Figura 80, a marcação de ponto de referência automática pode incluir a definição de eixos no fêmur e no implante. Em relação ao fêmur, o eixo femoral anatômico (AFA) pode ser calculado, seguido pelo eixo anatômico proximal (AAP). O ângulo de colo proximal (PNA) pode então ser calculado, que é definido como o ângulo entre o AFA e o PNA. Em relação ao implante femoral, o eixo de implante está ao longo do comprimento da haste de implante e o eixo de colo de implante ao longo do comprimento do colo de implante. Semelhante ao PNA do fêmur, o ângulo de implante é definido como o ângulo entre o eixo de implante e o eixo de colo de implante. O implante pode então ser escolhido com um ângulo de implante mais próximo do PNA. O ângulo de ajuste de implante (IFA) pode então ser definido como a interseção do eixo anatômico proximal com um vetor desenhado a partir do centro da cabeça femoral no ângulo de implante escolhido.
[00141] Ao usar o posicionamento automático da haste femoral usando fixação distal e os pontos de referência anatômicos calculados, como mostrado na Figura 80, um passo de dimensionamento de implante pode ser usado para determinar/estimar, para os tamanhos de implante apropriados, os componentes femorais. O tamanho de implante pode ser escolhido comparando a largura do implante com a largura do canal intramedular e selecionar o implante com a largura mais semelhante ao canal intramedular. Depois disso, o programa pode avançar para um passo de colocação de implante.
[00142] Em um passo de colocação de implante exemplar para uma haste femoral de fixação distal, com base na técnica cirúrgica preferida do cirurgião e pontos de referência anatômicos previamente calculados, a posição de implante inicial pode ser determinada/escolhida para todos os componentes implantados relevantes. Um plano de ressecção pode então ser criado para simular a osteotomia femoral proximal e o ajuste de implante pode ser avaliado. A avaliação de ajuste pode ser realizada analisando as seções transversais do implante e canal intramedular do fêmur alinhados em níveis variáveis ao longo do eixo de implante. O implante pode ser alinhado ao fêmur alinhando o eixo de implante ao eixo femoral anatômico e depois transladando o implante de modo que o colo de implante esteja na localização geral do colo de fêmur proximal. O implante pode então ser girado em torno do eixo femoral anatômico para alcançar a anteversão desejada.
[00143] Como parte deste passo exemplar de colocação de implante, pode ser utilizado um esquema iterativo que inclui usar uma "suposição instruída" inicial para a colocação de implante como parte de uma simulação cinemática para avaliar a colocação da "suposição instruída". Em uma forma exemplar, a simulação cinemática pode levar o implante (com base na colocação do implante escolhido) através de uma amplitude de movimento usando cinemática articular estimada ou medida. Consequentemente, a simulação cinemática pode ser usada para determinar as localizações de impacto e estimar a amplitude de movimento resultante do implante após a implantação. Nos casos em que a simulação cinemática resulta em dados insatisfatórios (por exemplo, amplitude de movimento insatisfatória, imitação insatisfatória da cinemática natural etc.), outro local para colocação do implante pode ser utilizado, seguido de uma análise cinemática, para refinar ainda mais a colocação do implante até atingir um resultado satisfatório.
[00144] No contexto da colocação automática da haste femoral usando encaixe de pressão e três contatos, como mostrado na Figura 81, a marcação de ponto de referência automática pode incluir a definição de eixos no fêmur e no implante. Em relação ao fêmur, o eixo femoral anatômico (AFA) pode ser calculado, seguido pelo eixo anatômico proximal (AAP). O ângulo de colo proximal (PNA) pode então ser calculado, que é definido como o ângulo entre o AFA e o PNA. Em relação ao implante femoral, o eixo de implante está ao longo do comprimento da haste de implante e o eixo de colo de implante ao longo do comprimento do colo de implante. Semelhante ao PNA do fêmur, o ângulo de implante é definido como o ângulo entre o eixo de implante e o eixo de colo de implante. O implante pode então ser escolhido entre vários implantes como tendo um ângulo de implante mais próximo do PNA. O ângulo de encaixe de implante (IFA) pode então ser definido como a interseção do eixo anatômico proximal com um vetor desenhado a partir do centro de cabeça femoral no ângulo de implante escolhido.
[00145] Ao usar o posicionamento automático da haste femoral usando encaixe por pressão, três contatos e os pontos de referência anatômicos calculados, como mostrado na Figura 81, um passo de dimensionamento de implante pode determinar/estimar o tamanho de implante apropriado para os componentes da pelve e do fêmur. O tamanho de implante pode ser escolhido alinhando o implante ao fêmur, alinhando o eixo de implante ao eixo femoral anatômico. O implante pode então ser girado para alinhar seu eixo de colo com o eixo de colo femoral. O implante pode então ser transladado para estar em uma posição anatomicamente adequada dentro do fêmur proximal. Depois disso, o sistema pode avançar para um passo de colocação do implante.
[00146] Em um passo de colocação de implante exemplar para uma haste femoral de encaixe por pressão, com base na técnica cirúrgica preferida do cirurgião e pontos de referência anatômicos previamente calculados, a posição inicial do implante pode ser determinada/escolhida para todos os componentes implantados relevantes. Um plano de ressecção pode ser criado para simular a osteotomia femoral proximal e o encaixe do implante pode ser avaliado. A avaliação do encaixe pode ser realizada através da análise de um contorno do implante e do canal intramedular do fêmur. O contorno pode ser criado pela interseção do canal intramedular com um plano normal tanto ao eixo anatômico e ao eixo de colo femoral, passando pelo ponto de interseção do eixo anatômico e do eixo de colo femoral, produzindo um contorno. Quando os contornos do implante e do canal intramedular são gerados, apenas os implantes com larguras inferiores à largura do canal intramedular no mesmo local são mantidos, resultando em muitos tamanhos corretos possíveis de implantes. O grupo de tamanhos possíveis pode ser reduzido através de duas estratégias, reduzindo o erro de distância quadrático médio entre o implante e o canal intramedular. A primeira estratégia minimiza o erro quadrático médio (MSE) ou outra métrica de erro matemático da distância entre ambos os lados medial e lateral do implante e o canal intramedular. A segunda estratégia minimiza o MSE da distância entre o lado lateral do implante e o canal intramedular.
[00147] Como parte deste passo de colocação de implante exemplar, pode ser utilizado um esquema iterativo que inclui usar uma "suposição instruída" inicial para implantar a colocação como parte de uma simulação cinemática para avaliar a colocação da "suposição instruída". Em uma forma exemplar, a simulação cinemática pode levar o implante (com base na colocação do implante escolhido) através de uma amplitude de movimento usando cinemática articular estimada ou medida. Consequentemente, a simulação cinemática pode ser usada para determinar as localizações de impacto e estimar a amplitude de movimento resultante do implante após a implantação. Nos casos em que a simulação cinemática resulta em dados insatisfatórios (por exemplo, amplitude de movimento insatisfatória, imitação insatisfatória da cinemática natural etc.), outro local para colocação do implante pode ser utilizado, seguido de uma análise cinemática, para refinar ainda mais a colocação do implante até atingir um resultado satisfatório.
[00148] Em uma modalidade alternativa de um programa de planejamento cirúrgico, a modelagem não precisa exigir um banco de dados de modelos CAD 3D de implante. Em vez disso, o programa pode calcular diâmetros e profundidades anatômicas do copo acetabular. O programa pode utilizar um conjunto de implantes de copo genéricos (hemisférios) para modelar a colocação do copo em relação ao ponto de referência cirúrgico (ver Figura 21). B. Planejamento cirúrgico dinâmico para o joelho
[00149] O programa de planejamento cirúrgico, embora descrito em detalhes anteriormente para o quadril, também pode ser usado para qualquer outra articulação candidata para artroplastia - como, sem limitação, joelho, quadril, tornozelo, cotovelo, ombro ou similares. Para muitas articulações, especificamente o joelho, pode ser importante não apenas analisar a geometria estática e pontos de referência durante a modelagem, mas também as informações dinâmicas acopladas aos tecidos moles da articulação. O programa de modelagem virtual utiliza dados de movimento do sensor e dados 3D capturados durante a imagem pré-operatória para determinar o tamanho e o posicionamento ideais.
[00150] Com referência à Figura 59, a subseção de reconstrução óssea e de tecidos moles 22 pode incluir a previsão de anatomia de tecidos moles e normal usando as imagens dinâmicas obtidas na subseção 21. Como parte do projeto padrão do implante, ou implantes e instrumentos específicos de paciente, é necessário um TC ou IRM estática para extrair morfologia da articulação. No entanto, a morfologia é geralmente alterada por doença ou deformidade. No caso de osteoartrite do joelho, a cartilagem pode ser perdida e os osteófitos presentes alteram a morfologia do joelho. O uso de TC e IRM estáticas pode não descrever com precisão a condição do ligamento da articulação. Por exemplo, o colapso dos compartimentos mediais no joelho, além da presença de crescimento de osteófitos, altera o comportamento dinâmico do ligamento colateral medial (LMC) e do ligamento colateral lateral (LCL). Dadas essas grandes alterações nos tecidos moles e nos ossos, a extração dos contornos ósseos torna-se difícil, imprecisa e, às vezes, impossível. Nesta situação, atlas estatísticos de população específica podem ser usados para prever a forma original do osso deformado, além de prever com precisão a localização dos ligamentos e então extrair dinamicamente os parâmetros e curvatura de projeto para esse paciente específico. Em vez de confiar em imagens estáticas para gerar implantes e instrumentos específicos de paciente, a presente modalidade exemplar usa imagens estáticas além de dados cinemáticos (dados dinâmicos) para gerar implantes e instrumentos que são otimizados para replicar a anatomia e a cinemática do paciente. Os implantes e instrumentos específicos de pacientes da técnica anterior são, na melhor das hipóteses, otimizados apenas para replicar a anatomia do paciente, mas ignoram a cinemática ou deixam de usar a cinemática como um elemento da forma final do implante ortopédico.
[00151] Voltando à Figura 70, como parte da reconstrução do tecido mole associado ao modelo ósseo virtual, as localizações dos ligamentos podem ser extraídas dos dados de imagem. Em particular, os modelos de superfície do osso e ligamentos podem ser reconstruídos a partir da IRM. Os modelos ósseos podem ser adicionados a um atlas estatístico e cada vértice pode ser marcado como pertencendo ao local de anexação ou não com base na distância do modelo da superfície do ligamento. A execução deste passo para vários sujeitos permite a criação de um mapa de probabilidade para cada local de anexação do ligamento (mostrado na linha superior das localizações de fixação femoral do LCA e PCL na Figura 70). No mapa, cada vértice do atlas ósseo pode ter uma probabilidade de pertencer ao local de anexação.
[00152] Referenciando a Figura 71, como parte adicional do subpasso de reconstrução óssea e de tecidos moles 22 (ver Figura 59), mapas de contato para o fêmur e a tíbia podem ser criados durante a flexão profunda do joelho. Para um único sujeito, tanto o fêmur quanto a tíbia podem receber correspondência de vértice nos respectivos atlas ósseos. A pose do fêmur em relação à tíbia pode ser atualizada a cada ângulo de flexão. Em cada pose, os vértices do fêmur e da tíbia pertencentes às regiões de contato podem ser determinados com base na proximidade do osso articulado. A realização dessa análise em vários assuntos permite a criação de um mapa de probabilidade em cada osso, em cada ângulo de flexão, das regiões de contato.
[00153] A Figura 72 representa entradas e saídas associadas a um método exemplar para determinar a espessura de cartilagem dentro das regiões de contato durante uma curva profunda do joelho (tal como registrado durante o subpasso de imagiologia dinâmica 21 na Figura 59). Esse método pode ser usado para mapear as regiões de contato, determinar a espessura específica de paciente e vincular essas informações ao atlas estatístico normal criado anteriormente. Dessa maneira, a cinemática é acoplada à morfologia.
[00154] A Figura 73 representa um mapa de cartilagem específico de paciente (obtido a partir da análise cinemática, subpasso 21 na Figura 59) mostrando perda severa de cartilagem no compartimento medial. Criar um implante específico de paciente com apenas essas informações levaria a uma funcionalidade de implante pobre. Em vez disso, a presente modalidade pode usar métodos estatísticos para estimar a morfologia antes que uma deformidade seja criada, permitindo, assim, a extração de curvatura específica de paciente verdadeira (antes da patologia). E essa morfologia estimada leva a uma maior funcionalidade do implante.
[00155] Referenciando a Figura 74, um fluxograma é representado para estimar a espessura de cartilagem a partir de dados dinâmicos de acordo com a presente divulgação. Dadas várias poses de superfícies articuladas - o joelho, por exemplo - o contato em cada pose pode ser determinado. O contato pode ser determinado principalmente usando uma pequena porcentagem dos pontos mais próximos entre cada modelo. Para cada ponto de contato, a distância entre o ponto e o modelo de articulação pode ser determinada. A espessura de cartilagem pode então ser estimada em X% do modelo 1, Y% do modelo 2, de modo que a soma dos dois valores de espessura seja igual à distância total entre as superfícies. O cálculo da espessura em cada vértice de contato em cada pose fornece um conjunto de espessuras "conhecidas" que devem ser mantidas constantes durante o procedimento de estimativa. Esse conjunto pode ser considerado conjunto convexo 1 no algoritmo de projeção em conjuntos convexos (POCS). O conjunto convexo 2 é o atlas da cartilagem, calculado anteriormente a partir de conjuntos de dados a priori - esses atlas da cartilagem podem incluir anatomia normal, coortes patológicas específicas (varo, valgo no caso de joelho) ou uma combinação das mesmas. Conforme o algoritmo de POCS, o conjunto convexo 1 é projetado no conjunto convexo 2, cujo resultado é projetado de volta no conjunto convexo 1 - isso é repetido até o resultado convergir. No algoritmo descrito, a projeção no atlas atualiza todos os vértices pertencentes à cartilagem. Se o resultado não convergir, os vértices pertencentes à cartilagem são configurados para o conjunto convexo 1 (as espessuras "conhecidas") e projetados de volta no atlas até que a convergência seja alcançada. Quando convergida, a superfície da cartilagem em cada modelo de osso articulado é exportada. Essa rotina permite uma estimativa precisa da cartilagem, usando dados dinâmicos para capturar informações de contato completas.
[00156] Voltando à Figura 59, após a reconstrução da forma óssea, a localização dos ligamentos pode ser previsão usando o atlas da forma do ligamento, o atlas da forma tem a capacidade de capturar os locais geométricos de tecido mole através da população, juntamente com a probabilidade de cada ponto ser um local geométrico de ligamento, como mostrado na Figura 74. Os pontos de inserção de ligamento calculados podem então ser utilizados para calcular o envelope de comprimento de ligamento durante as atividades cinemáticas, como mostrado na Figura 75.
[00157] A base para a estimativa de cartilagem pode ser um modelo estatístico que contém um gabarito de cartilagem médio e usa informações dos modelos segmentados de fêmur e tíbia para deformar localmente o gabarito de cartilagem médio. O gabarito de cartilagem médio pode ser a espessura de cartilagem média calculada a partir de um banco de dados de modelos de cartilagem segmentados manualmente. Cada valor de espessura tem um índice associado a ele, correspondente a um ponto no atlas ósseo, que é usado para localizar esse valor. Ao adicionar o gabarito médio a um novo modelo de osso, cada ponto no osso pode ser distorcido para fora ao longo da direção normal uma distância correspondente à espessura média a partir do gabarito naquele local. O gabarito de cartilagem médio pode ser ajustado somente quando as cartilagens femoral e tibial se sobrepõem. Nesse caso, a espessura de cartilagem pode ser reduzida globalmente por um fator pequeno e em áreas de sobreposição por um fator maior. Esse processo itera até que não haja áreas de sobreposição.
[00158] Usando mapas estimados de cartilagem, juntamente com a deformidade articular medida, o local da perda de cartilagem pode ser determinado e a quantidade de perda de cartilagem pode ser estimada projetando a cartilagem do paciente no modelo de cartilagem normal, como mostrado na Figura 76. Corrigindo a quantidade de perda de cartilagem, a articulação pode ser recolocada em seu alinhamento normal. Essa alteração no alinhamento da articulação afeta diretamente o comprimento e a frouxidão do ligamento. Por exemplo, a perda de cartilagem no lado medial levará à frouxidão no ligamento colateral medial e ao aumento da tensão no ligamento colateral lateral, como mostrado na Figura 77. A restauração da alteração normal do alinhamento articular no comprimento do ligamento pode ser calculada (ver Figura 78). Usando informações de morfologia e tecidos moles, o modelo cinemático mais próximo do banco de dados cinemático normal pode ser selecionado.
[00159] A título de exemplo, a determinação da cinemática saudável normal pode ser através do uso de redes neurais profundas, onde a rede pode ser treinada por movimentos realizados por articulações saudáveis. A rede neural profunda pode receber entrada de movimento patológico e determinar a cinemática saudável ideal (ver Figura 73).
[00160] Com referência à Figura 79, é fornecido um fluxograma que descreve um processo exemplar para calcular a rigidez do ligamento específico de paciente como parte do elemento de previsão de cinemática normal na Figura 59. De forma exemplar, discutida em relação a um procedimento de artroplastia do tornozelo, uma série de aspectos do movimento cinemático passivo pode ser registrada que inclui, sem limitação, movimento, velocidade do movimento, aceleração do movimento e comprimento do ligamento durante o movimento. Esses aspectos podem ser utilizados como entradas para um modelo de movimento passivo, que também pode receber entradas referentes à rigidez do ligamento e massa dos tecidos movidos durante o movimento. Usando essas entradas, o modelo de movimento passivo pode prever a força necessária para mover os tecidos. E essa força prevista pode ser comparada com uma força medida para analisar se os valores de rigidez do ligamento devem ser ajustados para que a força prevista seja igual à força medida. Em circunstâncias em que as forças previstas e medidas não são iguais ou muito próximas, os valores de rigidez do ligamento e/ou as entradas de massa podem ser otimizados e atualizados para permitir cálculos de forças previstas subsequentes. Esse processo pode ser repetido até que as forças previstas e medidas caiam dentro das tolerâncias aceitáveis uma da outra.
[00161] Usando as informações geradas a partir da análise dinâmica e dos tecidos moles acima, um gabarito virtual das inserções de fêmur, tíbia e tíbia pode ser escolhido a partir de uma família de implantes para determinar os melhores parâmetros de tamanho e posicionamento, de modo que os resultados da dinâmica pós- operatória - movimento, comprimento do ligamento, tensões e contatos femorotibiais - podem ser otimizados para o paciente (ver Figura 23). Essa otimização pode começar com um dimensionamento e posicionamento padrão, conforme determinado pela geometria da articulação do paciente. Esse posicionamento inicial pode então ser ajustado automaticamente para levar em conta correções desejáveis (ou indesejáveis) da patologia do paciente e o efeito das correções nas localizações dos ligamentos e nas áreas de contato previstas. O software de planejamento apresentará os dados dinâmicos previstos no pré e pós-operatório e permitirá que o usuário inspecione os resultados. Se não satisfatório, o usuário pode alterar a posição e \ ou o tamanho dos implantes virtuais, fazendo com que o software reanalise os dados dinâmicos previstos que são novamente apresentados ao usuário. Esse processo pode continuar até que o usuário esteja satisfeito. Um exemplo de resultados insatisfatórios seria se a escolha da posição ou tamanho de implante causasse uma alteração significativa em relação à anatomia pré- operatória no comprimento de MCL ou LCL, conforme previsto pelo módulo de planejamento. Uma alteração tão grande pode ser indicativa de ligamentos excessivamente apertados ou frouxos nessa conjuntura de flexão e pode exigir uma alteração no plano cirúrgico. O resultado deste passo é um plano cirúrgico pré-operatório otimizado para o paciente específico. III. Registro de Anatomia
[00162] No registro 3D para 2D, o objetivo é alinhar uma superfície 3D a cada quadro de uma sequência fluoroscópica de monoplano ou conjunto de imagens de raios X (ver Figura 24). O modelo 3D é o modelo de malha de superfície para a anatomia do paciente gerada a partir de imagens pré-operatórias. A pose do modelo 3D para todos os quadros na sequência pode ser determinada pela otimização de uma função de energia. A função de energia pode consistir em um termo de pontuação de borda, um termo de pontuação de intensidade, um termo de desalinhamento e um termo de detecção de colisão. O termo de pontuação de borda e o termo de pontuação de intensidade mostram quão bem as projeções do modelo 3D se ajustam à imagem fluoroscópica em relação às bordas e à intensidade, respectivamente. O termo de desalinhamento e o termo de detecção de colisão penalizam o desalinhamento e a colisão entre ossos vizinhos no mesmo quadro. Outros fatores podem ser introduzidos na função de energia para utilizar informações a priori, como pose relativa de múltiplas anatomias (pelve e fêmur, por exemplo), hardware conhecido ou quaisquer outros fatores relevantes para a otimização de encaixe.
[00163] O processo de registro pode ser executado em software (por exemplo, um programa) que solicita entrada ao usuário. Por exemplo, o software pode exigir que o usuário identifique pontos de referência na imagem que correspondem aos pontos de referência na superfície 3D do osso ou implante.
Essas correspondências podem ser usadas para um alinhamento inicial do modelo com a imagem 2D por otimizar a pose do modelo 3D para minimizar uma função de custo da distância dos pontos projetados aos pontos selecionados.
A pose pode ser toda ou qualquer translação em x, y, z ou rotações em torno dos eixos x, y e z.
Opcionalmente, o software também pode otimizar para encontrar a distância focal da câmera (ou outro captador de imagens) se for desconhecida.
Essa suposição inicial pode ser usada como uma entrada em um passo de otimização de refinamento que pode atualizar ainda mais a pose para minimizar uma função de pontuação baseada em imagem, que pode usar alguma métrica entre uma imagem gerada pela projeção do modelo 3D no plano de imagem e a imagem de fluoroscopia ou de raios X original.
A métrica pode ser derivada diretamente das informações de imagem - bordas, texturas, intensidades.
O resultado dessa otimização é a pose final do modelo 3D que reflete a pose do osso que alinha idealmente a projeção do osso com os dados de imagem.
Alternativamente, o segundo passo de otimização pode ser executado até que seja encontrada uma pose suficientemente satisfatória.
Os métodos de registro 3D para 2D são aplicáveis tanto à reconstrução pré-operatória quanto à navegação intraoperatória (ver Figuras 25, 26). Várias restrições podem ser colocadas se vários objetos estiverem sendo registrados na mesma imagem.
Por exemplo, o componente acetabular será colocado apenas dentro (ou muito próximo) do acetábulo da pelve.
Estas informações podem ser usadas para restringir a posição permitida do acetábulo durante o registro para a imagem.
Essa técnica é aplicável sempre que os objetos tiverem uma posição relativa conhecida. Outros exemplos incluem o fêmur para pelve, a haste femoral no fêmur. IV. Imagiologia Intraoperatória
[00164] Um procedimento intraoperatório pode começar com a preparação do paciente para imagiologia intraoperatória. O sistema de imagem pode produzir imagens radiográficas, como raios X ou fluoroscopia.
[00165] Como parte de um primeiro processo exemplar (configuração A, consulte a Figura 28), a pelve e/ou o fêmur do paciente podem ser anexados com um dispositivo de fixação (por exemplo, pinos ósseos) e um dispositivo de rastreamento/sensor (por exemplo, uma IMU) pode ser fixo nos dispositivos de fixação. A título de exemplo, o dispositivo de fixação pode compreender um acessório de base e um conector de extensão que conecta o dispositivo de rastreamento ao acessório de base. O acessório de base pode ser anexado ao osso do paciente (por exemplo, pelve). O conector de extensão pode ser removido após o registro para permitir mais espaço para o cirurgião operar.
[00166] Deveria ser óbvio para aqueles habilitados na técnica de fusão de sensores e processamento de dados que as posições e/ou orientação do dispositivo podem ser determinadas a partir das saídas dos sensores usando um algoritmo de estimativa bayesiano. De forma exemplar, um filtro Kalman direto pode ser usado para prever as posições e/ou orientações com base nas saídas dos sensores. Veja US20170296115, que é incorporado aqui por referência. Em outra forma exemplar, um filtro Kalman de estado de erro pode ser usado para prever o erro de saída dos sensores com base nas orientações estimadas. Pode ser usado para filtrar dados errôneos ou corrompidos do sensor (por exemplo, desvio induzido por vibração) que podem potencialmente produzir o resultado errado.
[00167] Uma técnica de estimativa exemplar alternativa adicional pode usar uma técnica de estimativa de PID baseada em evento que diminui a dependência do sensor quando um sinal corrompido é detectado (por exemplo, prolongar a distorção magnética).
[00168] O software pode escolher as saídas com base nas condições dos sensores para produzir o melhor resultado.
[00169] O dispositivo de rastreamento pode ser com ou sem fio para comunicação de dados com um dispositivo de computação com o software em execução no mesmo. A título de exemplo, o dispositivo de rastreamento pode consistir em um único ou uma combinação de recursos radiopacos para radio- imagiologia.
[00170] Os recursos radiopacos, que podem ser incorporados nos sensores de rastreamento ou como objetos independentes, podem ser dispostos em qualquer combinação. A título de exemplo adicional, os recursos radiopacos podem incluir pelo menos quatro em número e estar dispostos de modo que pelo menos um dos recursos não esteja no mesmo plano que os outros recursos.
[00171] Como parte de um segundo processo exemplar (configuração B, consulte a Figura 29), um acessório pode ser usado para estender o dispositivo de rastreamento/sensor (por exemplo, uma IMU) do dispositivo de fixação. Devido à área de visualização limitada do sistema de imagiologia radiográfica, o acessório pode incluir recursos radiopacos adicionais para ajudar no registro e permitir o posicionamento do dispositivo de rastreamento para garantir que haja recursos radiopacos disponíveis para registro. O acessório pode ter recursos radiopacos incorporados nele para ajudar no processo de registro.
[00172] A título de exemplo adicional, como representado na Figura 30, o acessório pode ser incorporado com recursos radiopacos que podem ser necessários para o registro intraoperatório. A título de exemplo adicional, em uma circunstância onde o acessório possui recursos radiopacos, o acessório pode ser usado sozinho para imagiologia e registro intraoperatório. O dispositivo de rastreamento pode ser anexado ao acessório após a realização da imagiologia. O acessório pode funcionar para reduzir a interferência eletromagnética do sistema de imagiologia radiográfica no dispositivo de rastreamento.
[00173] Como parte de qualquer processo exemplar, múltiplas imagens radiográficas podem ser tiradas. Por exemplo, uma imagem onde a pelve e os recursos radiopacos do dispositivo de rastreamento de pelve estão na área de visualização do sistema de imagiologia radiográfica e uma segunda imagem onde o fêmur e os recursos radiopacos dos dispositivos de rastreamento femoral estão na área de visualização do sistema de imagiologia radiográfica. Essas imagens podem ser usadas para registro.
[00174] Após a configuração do dispositivo de rastreamento, uma radiografia pode ser realizada através de um sistema de imagiologia radiográfica.
[00175] Os dados de imagem podem ser transferidos para um software de orientação cirúrgica, enviando esses dados de imagem de maneira com ou sem fio através de uma rede ou usando uma transferência física via dispositivo de armazenamento externo. Os dados de imagem podem ser processados por um software de processamento de imagiologia, que pode corrigir distorções nas imagens. V. Transferência de dados intraoperatórios
[00176] Imagens intraoperatórias podem ser transferidas para um sistema exemplar aqui divulgado, executando o software de reconstrução e registro, a partir de um dispositivo de imagiologia usando métodos diferentes, incluindo, mas não se limitando a: sem fio (dispositivo Bluetooth ou Wi-Fi), transferência através de sistema de arquivamento e comunicação de imagem (PACS), transferência com fio ou remota via dispositivo portátil, como um dispositivo de armazenamento USB seguro. VI. Registro Intraoperatório
[00177] As orientações de um dispositivo de rastreamento/sensor (por exemplo, uma IMU) usado de acordo com a presente divulgação podem ser recuperadas/discernidas a partir de imagens de radiografia usando um alvo de registro (isto é, um alvo de imagem) associado ao dispositivo de rastreamento que pode incluir recursos radiopacos. A configuração de recursos radiopacos no alvo de registro pode ser conhecida por um software de orientação cirúrgica, conforme descrito aqui, que permite que o software calcule as orientações 3D do alvo de registro apenas a partir dos marcadores fiduciais quando as imagens de radiografia são analisadas pelo software.
[00178] A orientação do dispositivo de rastreamento/sensor também pode ser determinada pelos sensores no próprio dispositivo de rastreamento. A orientação produzida a partir dos sensores pode estar em um sistema de coordenadas diferente da orientação calculada a partir da imagem(ns) de radiografia. A transformação entre as duas orientações em sistemas de coordenadas potencialmente diferentes pode ser calculada para que a orientação determinada pelo dispositivo de rastreamento possa ser transformada no sistema e espaço de coordenadas de imagem de radiografia, e vice-versa. A. Alvo de imagem para registro do sistema de navegação
[00179] Um alvo de imagem exemplar de acordo com a presente divulgação pode ser dimensionado de modo que o dimensionamento seja apropriado para ser visível em todas as vistas de imagem esperadas sem ser excessivamente pesado (ver Figura 34). Esse dimensionamento pode ser o resultado de uma ou mais análises realizadas em uma população representativa, além de imagens de raios X e fluoroscópicas simuladas, para a região corporal de interesse, como, sem limitação, qualquer uma das articulações de um corpo de paciente potencial.
[00180] Um alvo de imagem exemplar de acordo com a presente divulgação pode incluir um ou mais grânulos, que podem ser incorporados dentro de um material radiotransparente ou radiotranslucente, que pode ter uma forma e tamanho conhecidos. A título de exemplo, um tamanho conhecido pode compreender uma esfera com um diâmetro de 9,4 mm. Os grânulos podem ser dispostos em um padrão assimétrico ao longo de uma superfície não plana, de modo que a configuração precisa dos grânulos seja conhecida para facilitar a identificação e o registro do alvo de imagem nas imagens de radiografia adquiridas. O alvo de imagem pode compreender um gabarito de grânulo, para segurar e reter os grânulos, e pode permitir a rotação (por exemplo, entre zero e 180 graus) em relação a um dispositivo de rastreamento, permitindo assim que os grânulos caibam em quadros de imagem predeterminados. O número de grânulos pode variar, mas de preferência são utilizados pelo menos quatro grânulos que nem todos se encontram no mesmo plano de uma vez montado no gabarito de grânulo. Um número maior de grânulos pode proporcionar maior redundância, por exemplo, 5-20 grânulos. A Figura 35 mostra um gabarito de grânulo exemplar que inclui um padrão de projeto assimétrico de acordo com a presente divulgação quando visto de diferentes perspectivas ortogonais. O projeto assimétrico ajuda a reduzir a chance dos grânulos se sobreporem entre as diferentes vistas das imagens radiográficas tiradas enquanto o gabarito de grânulo está dentro do campo de visão.
[00181] O alvo de imagem exemplar pode ser usado com ou sem um dispositivo de rastreamento/sensor (por exemplo, e IMU). O alvo de imagem exemplar pode incluir pelo menos um recurso de travamento, que permite o travamento do alvo de imagem com um dispositivo de rastreamento/sensor, por meio de uma peça de referência, como visto na Figura 36. A peça de referência pode incluir pelo menos dois recursos de travamento, um que se destina a ser usado com o alvo de imagem e outro com o dispositivo de rastreamento/sensor. A montagem do alvo de imagem, peça de referência e dispositivo de rastreamento/sensor coloca o sensor em uma orientação e posição conhecidas em relação ao alvo de imagem. Portanto, quando o modelo 3D do alvo de imagem é registrado nos grânulos visíveis na imagem(ns) radiográfica capturada, a posição e a orientação do dispositivo de rastreamento/sensor em relação ao alvo de imagem 3D registrado podem ser determinadas conhecendo o projeto de montagem. A Figura 36 mostra exemplos do alvo de imagem, dispositivo de rastreamento/sensor e conjunto de referência. O alvo de imagem e o dispositivo de rastreamento/sensor são bloqueados para a peça de referência em uma orientação conhecida e posição conhecida.
[00182] As Figuras 38 e 39 mostram duas vistas diferentes em AP e Judet com o alvo de imagem, a peça de referência e o dispositivo de rastreamento/sensor em posição nas respectivas imagens radiográficas e o resultado do uso dessas imagens radiográficas para construir e registrar modelos virtuais 3D correspondentes. O conjunto (por exemplo, alvo de imagem, peça de referência e dispositivo de rastreamento/sensor) pode ser montado no osso do paciente de maneira rígida. Esta montagem pode ser realizada por via percutânea ou usando fixação intra-incisão. A peça de referência pode ser projetada para facilitar essa fixação. Em uma modalidade exemplar alternativa de uma peça de referência, isso pode implicar ter pelo menos dois orifícios projetados para permitir que os pinos cirúrgicos passem através deles, com os pinos sendo configurados para travar na peça de referência usando métodos convencionais, como, sem limitação, utilização de parafusos de fixação ou dispositivos similares. Como pode ser desejável para orientar a colocação de certos componentes femorais durante um procedimento cirúrgico reconstrutivo, o conjunto também pode ser rigidamente fixo ao fêmur, como mostrado na Figura
40. Deve ser entendido que, tendo em vista a divulgação anterior, um especialista na técnica entenderá que o conjunto exemplar ou qualquer componente do mesmo pode ser montado em um ou mais ossos de um paciente e potencialmente utilizado para registrar e/ou criar modelos virtuais 3D do(s) osso(s) do paciente como parte de um procedimento cirúrgico e, opcionalmente, como parte de um sistema de navegação cirúrgica a ser usado durante um procedimento cirúrgico. B. Dispositivo de rastreamento para registro de anatomia de paciente
[00183] As orientações do dispositivo de rastreamento/sensor (por exemplo, e IMU) e a anatomia do paciente podem ser ambas transformadas no espaço da imagem radiográfica e registradas juntas. Esse processo pode implicar um primeiro passo de registro de 3D para 2D para registrar a anatomia do paciente no plano de imagem. Em seguida, um segundo passo de registro de 3D para 2D para alinhar o conjunto de referência (alvo de imagem, peça de referência e dispositivo de rastreamento/sensor). Depois que o registro é concluído, a localização e orientação relativas do dispositivo de rastreamento para a anatomia se tornam conhecidas. Nesse ponto, o dispositivo de rastreamento pode ser usado para rastrear o segmento ósseo do paciente. Este passo é descrito nas Figuras 42 e 43.
[00184] Em um processo exemplar de realização do registro do paciente para um procedimento de artroplastia do quadril total, um dispositivo de rastreamento pode ser conectado à pelve do paciente através do dispositivo de fixação, enquanto outro dispositivo de rastreamento pode ser conectado ao fêmur do paciente através de outro dispositivo de fixação. As imagens radiográficas podem ser obtidas para ambos segmentos ósseos (isto é, o fêmur e a pelve para artroplastia do quadril), juntamente com os recursos radiopacos de cada alvo de imagem. Como referenciado na Figura 42, o conjunto é montado no osso do paciente e é tirada uma imagem de radiografia (A). A posição e a orientação do osso do paciente são recuperadas através do processo de registro descrito anteriormente (B). A posição e a orientação do quadro global, fornecidas pelo alvo de imagem, são recuperadas. O deslocamento entre a posição e a orientação do osso do paciente e a posição e a orientação do alvo de imagem é calculado, e o osso do paciente é amarrado ao alvo de imagem (C). O dispositivo de rastreamento anexado ao alvo de imagem relata suas orientações atuais ao mesmo tempo em que a imagem é capturada. O deslocamento entre o dispositivo de rastreamento e o alvo de imagem é calculado para que a orientação do dispositivo de rastreamento esteja agora no quadro global. Como o dispositivo de rastreamento e a anatomia estão ligados pelo alvo de imagem no quadro global, as orientações do osso do paciente podem ser registradas no dispositivo de rastreamento, e o dispositivo de rastreamento pode ser usado para rastrear alterações de orientação no osso do paciente. Dessa maneira, os dados de imagem podem ser transferidos para um computador de orientação cirúrgica para realizar o registro. Uma vez concluído o registro, o alvo de imagem pode ser removido do dispositivo ou conjunto de fixação.
[00185] Com referência à Figura 43, a relação entre o dispositivo de rastreamento e os recursos radiopacos do alvo de imagem é conhecida pelo sistema. Os recursos radiopacos podem ser incorporados ou anexados a um dispositivo secundário anexando ao dispositivo de rastreamento. A transformação a partir das localizações de marcador fiducial para a orientação do dispositivo de rastreamento é definida como TiF, i = 1,2… A transformação a partir das localizações 3D dos recursos radiopacos para a imagem de radiografia 2D é definida como TIF para os recursos radiopacos no fêmur e TIP para recursos radiopacos na pelve. A transformação para determinar a orientação do dispositivo de rastreamento 1 anexado ao fêmur com base na imagem de radiografia 2D é dada como T1F x TIF, e a orientação do dispositivo de rastreamento 2 anexado à pelve com base na imagem de radiografia 2D é dada como T2F x TIP. A transformação dos modelos ósseos de paciente 3D para a imagem de radiografia 2D é definida como TIFemur para o fêmur e TIPelvis para a pelve. Com essas transformações, a orientação dos ossos do paciente pode ser registrada nos dispositivos de rastreamento anexados a eles. Fêmur: TIFêmur → T1F x TIF Tibia: TIPelve → T2F x TIP C. Mapeador Anatômico do Paciente (PAM)
[00186] De acordo com a presente divulgação, um exemplo de mapeador anatômico do paciente (PAM) compreende instrumentação específica de paciente que é fabricada para caber em uma orientação e posição específica na anatomia do paciente. A geometria do PAM pode ser criada a partir de um modelo 3D virtual do osso do paciente, que é criado a partir de imagiologia obtida anteriormente, como imagens pré- operatórias. O PAM pode incluir um ou mais recursos de travamento projetados para facilitar anexação de um dispositivo de rastreamento/sensor ou uma peça de referência para segurar um dispositivo de rastreamento/sensor. Um outro recurso de travamento do PAM é específico de paciente e foi projetado para acasalar em uma posição e orientação únicas com a anatomia do paciente (como contra um osso do paciente). Ao corresponder o recurso de travamento específico de paciente com o local/localização correta da anatomia do paciente, a orientação e a posição/localização do dispositivo de rastreamento/sensor anexado devem ser conhecidas em relação à anatomia.
[00187] O PAM pode ser incorporado com recursos radiopacos semelhantes ao alvo de imagem discutido aqui, de modo que, ao colocar o PAM na anatomia do paciente na posição e orientação pretendidas, a posição e orientação do PAM em relação ao alvo de imagem podem ser conhecidas. Esse deslocamento pode ser usado para verificar o comprimento da perna após a colocação do implante. VII. Orientação Cirúrgica
[00188] De acordo com a presente divulgação, os dispositivos/sensores de rastreamento anteriores (por exemplo, IMUs) podem ser utilizados como parte da orientação cirúrgica, como um procedimento de artroplastia total do quadril. De forma exemplar, os cirurgiões podem continuar os procedimentos cirúrgicos típicos de uma artroplastia total do quadril, como fazer uma incisão, realizar ressecção da cabeça femoral e expor o copo acetabular. O cirurgião pode conectar um dos dispositivos de rastreamento a um dispositivo de fixação da pelve (para anexar à pelve) e outro dispositivo de rastreamento aos instrumentos cirúrgicos a serem guiados, incluindo, sem limitação, uma broca, um impactador de copo, uma alça de raspagem, um guia de corte ou qualquer outro instrumento. Os dispositivos de rastreamento podem ser configurados para enviar continuamente dados indicativos de orientação e/ou translação para o dispositivo de processamento (por exemplo, computador, máquina especializada, tablet, etc.) executando o software de navegação cirúrgica. A orientação relativa entre os dispositivos de rastreamento pode ser representada como inclinação/declinação, e ângulos de abdução/adução ou quaisquer outros valores desejáveis e ser exibida em uma exibição como, sem limitação, um monitor de computador ou exibição de navegação cirúrgica. O cirurgião pode usar os dispositivos de rastreamento para conhecer as orientações de um ou mais instrumentos cirúrgicos para procedimentos exemplares como recapeamento acetabular, impacto do copo acetabular durante a colocação do teste, e impacto do copo acetabular durante o posicionamento real do implante ortopédico final, e verificação da orientação do copo acetabular na anatomia do paciente.
[00189] O cirurgião também pode usar os dispositivos de rastreamento para colocação da haste femoral, que podem incluir a anexação de um ou mais dispositivos de rastreamento a um dispositivo de fixação de fêmur (para anexar ao fêmur), e outro dispositivo de rastreamento conectado ao instrumento cirúrgico. O sistema de navegação cirúrgica pode usar dados dos dispositivos de rastreamento para determinar e orientar as orientações do tratamento cirúrgico, onde a orientação cirúrgica pode alertar o cirurgião nos casos onde a orientação cirúrgica pode causar fratura do fêmur. O cirurgião também pode usar este sistema de navegação cirúrgica e dispositivos de rastreamento para colocar o implante femoral. O software de orientação cirúrgica pode estimar a inclinação/declinação clínica combinada, e ângulos de abdução/adução do implante. Uma discussão mais detalhada segue.
[00190] A título de exemplo, uma primeira IMU compreendendo um dispositivo de rastreamento/sensor, opcionalmente tendo sido previamente montada em uma ferramenta de registro acetabular, pode ser montada em uma ferramenta cirúrgica em um local conhecido. Em uma forma exemplar, a IMU pode ser fixada rigidamente a um escareador de copo com uma orientação conhecida em relação à direção de alargamento, de modo que a orientação do escareador de copo em relação à pelve seja conhecida e atualizada dinamicamente por várias IMUs (por exemplo, 1ª IMU montada no escareador de copo e na segunda IMU montada na pelve).
[00191] O programa de software do computador de navegação cirúrgica fornece uma interface gráfica de usuário (associada ao sistema de navegação cirúrgica) que pode exibir modelos virtuais da pelve do paciente e um modelo virtual da ferramenta cirúrgica em questão, neste caso um escareador de copo (o modelo virtual da pelve do paciente já foi concluído de acordo com o passo de modelagem virtual, e o modelo virtual do escareador de copo ou de outra ferramenta cirúrgica previamente carregado no sistema para o escareador de copo específico e outras ferramentas cirúrgicas que podem ser utilizadas), e pode atualizar a orientação da pelve e da ferramenta cirúrgica em tempo real, através da exibição, fornecendo informações de posição e orientação ao cirurgião. Em vez de usar uma exibição, o presente sistema pode incluir dispositivos cirúrgicos com luzes indicadoras indicando ao cirurgião se o escareador está corretamente orientado e, se não, que direção (ões) o escareador precisa ser reposicionado para orientar corretamente o escareador de acordo com o planejamento pré-operatório. Após a conclusão do recapeamento usando o escareador de copo, a IMU pode ser removida do escareador de copo e fixada rigidamente a um dispositivo de inserção de copo com uma orientação conhecida em relação à direção do insersor. O insersor de copo pode então ser utilizado para colocar o implante de copo, com as IMUs continuando a fornecer retorno de aceleração que o software utiliza para calcular a posição para fornecer retorno em tempo real sobre a posição da pelve em relação ao insersor de copo. Na medida em que os orifícios são perfurados na pelve antes ou após o posicionamento do copo, a IMU (opcionalmente montada anteriormente em uma ferramenta de registro) pode ser rigidamente fixada a uma broca cirúrgica para garantir a orientação correta da broca em relação à pelve. Uma ferramenta de registro análoga opcional e um conjunto de IMUs podem ser usados com o sistema de software para auxiliar na colocação do componente de haste femoral.
[00192] A título de exemplo, uma primeira IMU pode ser montada em outra ferramenta cirúrgica em um local conhecido. De forma exemplar, a IMU (opcionalmente montada anteriormente na ferramenta de registro femoral) pode ser fixada rigidamente a uma serra cirúrgica em um local conhecido, de modo que o movimento da IMU se traduza correspondentemente em movimento conhecido da serra cirúrgica. Dado que uma segunda IMU é montada de maneira fixa no fêmur em um local conhecido, as IMU trabalham juntas para fornecer informações atualizadas dinamicamente ao sistema de software sobre alterações na posição (por meio de dados de aceleração) de tanto o fêmur e a serra cirúrgica.
[00193] O programa de software, como mencionado anteriormente, fornece uma exibição que permite ao cirurgião visualizar modelos virtuais do fêmur do paciente e da ferramenta cirúrgica em questão, neste caso uma serra cirúrgica (o modelo virtual do fêmur do paciente já foi concluído de acordo com o passo de modelagem virtual, e o modelo virtual da serra cirúrgica ou de outra ferramenta cirúrgica foi previamente carregado no sistema para a serra cirúrgica específica e outras ferramentas cirúrgicas que podem ser utilizadas), e é configurada para atualizar a orientação do fêmur e a ferramenta cirúrgica em tempo real, através da exibição, fornecendo informações de posição e orientação ao cirurgião. Em vez de usar uma exibição, o presente sistema pode incluir dispositivos cirúrgicos tendo luzes indicadoras indicando ao cirurgião se a serra cirúrgica está orientada corretamente e, se não, que direção (ões) a serra cirúrgica precisa ser reposicionada para orientar corretamente a serra cirúrgica para fazer os cortes ósseos corretos consistentes com o planejamento pré-operatório. Depois de fazer os cortes ósseos necessários, a primeira IMU pode ser removida da serra cirúrgica e fixada rigidamente a um escareador (para escarear corretamente o canal intramedular) e depois montada em um insersor de haste femoral com uma orientação conhecida em relação à direção de insersor. O insersor de haste pode então ser utilizado para colocar o implante de haste femoral dentro do canal intramedular escareado, com as IMUs continuando a fornecer retorno que o software utiliza para calcular posições e orientações do insersor de fêmur e haste em tempo real e exibir os modelos virtuais do insersor de fêmur e haste, um em relação ao outro em tempo real, por meio da exibição, para que o cirurgião possa visualizar a posição e orientação relativas do instrumento cirúrgico em relação à anatomia do paciente sem exigir uma linha de visão direta para o local cirúrgico. VIII. Verificação de posicionamento intraoperatório
[00194] Durante ou após a colocação de um componente ou componentes finais ou de teste, podem ser obtidas imagens radiográficas. As imagens podem ser usadas para detectar a orientação e a posição de teste em relação à anatomia através do registro 3D para 2D dos componentes e anatomia ou pontos de referência no plano de imagem. Pode haver duas configurações deste passo, dependendo do planejamento cirúrgico utilizado. Se nenhuma reconstrução pré-operatória estiver disponível para o paciente, um primeiro passo pode ser realizado para calibrar a imagem de verificação com as imagens intraoperatórias adquiridas anteriormente e para calcular a posição do sistema de coordenadas 3D do paciente em relação à imagem de verificação. Esse processo pode ser idêntico à calibração de múltiplas vistas e marcação de ponto de referência intraoperatória, conforme descrito em detalhes a seguir. A. Usar modelos CAD de implantes 3D
[00195] Com o conhecimento de uma família e tamanhos de implantes atuais, as posições 3D dos implantes podem ser calculadas usando a técnica de registro de imagem de 3D para 2D, conforme discutido aqui. A título de exemplo, registrar imagem de 3D para 2D pode ser realizado conforme descrito na Seção III do Registro de Anatomia do Requerente, usando as geometrias de implante como as formas a serem registradas. Métricas adicionais podem ser adicionadas à função de pontuação para levar em consideração a posição estimada dos implantes e as restrições de implante (por exemplo, restringir a pose da haste femoral em relação à anatomia e copo femoral; restringir a pose do copo em relação à anatomia e haste femoral).
[00196] O registro de imagem de 3D para 2D pode ser aprimorado por meio de entradas dos dispositivos de rastreamento, onde o algoritmo de otimização pode usar as orientações a partir do dispositivo de rastreamento para restringir e auxiliar na estimativa de posição. Como as posições 3D dos implantes são preferencialmente conhecidas, qualquer medição espacial e métrica, como comprimento da perna, pode ser computada diretamente a partir dos modelos 3D registrados. A título de exemplo, no caso de uma incompatibilidade no comprimento da perna, o sistema de orientação cirúrgica pode fornecer uma família e tamanhos de implantes alternativos para ajustar as diferenças no comprimento da perna para se aproximarem mais uma da outra. B. Gabarito genérico sem modelos CAD de implante
[00197] Como representado na Figura 49, a orientação do implante pode ser rastreada e determinada pelo sistema de navegação cirúrgica sem os modelos CAD de implante ortopédico correspondentes. De forma exemplar, podem ser obtidas imagens radiográficas do posicionamento pós-implante ortopédico da anatomia do paciente. Essas imagens podem ser aprimoradas para permitir que o software detecte automaticamente as bordas dos objetos representados nas imagens, bem como diferencie os objetos usando a textura nas imagens, para determinar a posição relativa dos objetos nas imagens em relação um ao outro. Da mesma forma, dados a partir dos dispositivos de rastreamento podem ser utilizados simultaneamente com a detecção de objetos a partir das imagens radiográficas para determinar a posição relativa do implante ortopédico (como uma haste femoral ou um copo acetabular). Esses dados de posição relativos a partir das imagens 2D podem ser registrados no modelo anatômico 3D através do registro imagem de 3D para 2D, conforme descrito na Seção III do Registro de Anatomia do Requerente. Após o registro no modelo 3D, a orientação do implante ortopédico pode ser verificada. IX. Imagiologia Intraoperatória de Múltiplas Vistas
[00198] Imagiologia intraoperatória de múltiplas vistas pode ser necessária se nenhuma imagem pré-operatória for capturada, mas um sistema de coordenadas 3D ou modelo anatômico for desejado para ajudar na colocação de componentes. Imagens intraoperatórias podem ser adquiridas para capturar tanto a anatomia do paciente e o alvo de imagem (conforme discutido anteriormente). Uma pluralidade de imagens pode ser adquirida no intraoperatório usando modalidades de imagiologia convencionais incluindo, sem limitação, imagiologia de raios X ou fluoroscopia. Como um exemplo, para uma pelve, um conjunto de duas ou mais imagens (AP, Judet RPO, Judet LPO) pode ser adquirido, onde a compilação de imagens contém preferencialmente todos os pontos de referência cirúrgicos necessários para a colocação de um componente acetabular. Para uma anatomia de fêmur proximal, um conjunto de duas ou mais imagens (AP e lateral) pode ser adquirido, onde a compilação da imagem contém preferencialmente todos os pontos de referência cirúrgicos necessários tanto do fêmur proximal e do canal intramedular para colocação da haste femoral. A. Calibração de múltiplas vistas
[00199] A calibração de múltiplas vistas, de forma exemplar e de acordo com a presente divulgação, pode incluir um processo de extração de parâmetro de tomada de imagem para reconstruir uma cena 3D a partir de um conjunto "n" de imagens. Essas informações podem então ser utilizadas para reconstruir um conjunto de pontos de referência 3D. Um processo exemplar de calibração de câmera estéreo é descrito na Figura 52. As imagens de entrada podem ser aprimoradas e filtradas, e um algoritmo de localização de grânulo alvo automático (por exemplo, formas radiopacas) pode ser utilizado para encontrar as localizações de vários ou todos os grânulos alvo de calibração visíveis na imagem (consulte Figura 53). Os grânulos detectados podem então ser usados para calcular o espaçamento de pixels, seguido pela estimativa da pose do alvo 3D no espaço. Isso pode ser alcançado inicializando a posição do alvo de calibração com base na vista do gerador de imagens (por exemplo, uma vista de raios X), como usando uma posição a priori que pode ser extraída a partir do local do alvo de calibração em relação a uma vista de imagiologia padrão. Essa pose inicial pode então ser otimizada para alcançar a pose que atinge a configuração de grânulo projetada na imagem de entrada (ver Figura 54). Uma alternativa exemplar ao uso de um alvo de calibração pode incluir o uso de pontos correspondentes em cada imagem. X. Marcação de ponto de referência intraoperatória
[00200] Nesta divulgação exemplar, a marcação de ponto de referência compreende um processo de extração de pontos de referência cirúrgicos relevantes que podem ser necessários para a colocação do implante a partir de imagens 2D calibradas. Um fluxograma do processo é explicado na Figura 55. De forma exemplar, um conjunto de pontos de referência 2D pode ser identificado em uma primeira imagem 2D, por exemplo, os pontos podem incluir ASIS esquerdo e direito e pontos de tubérculo púbico na imagem AP. A posição inicial desses pontos de referência na imagem pode ser identificada usando um algoritmo automático que utiliza pontos de recurso extraídos de imagem (s) 2D, juntamente com estatísticas populacionais extraídas a partir de atlas anatômico estatístico para calcular as localizações geométricas desses pontos de referência que podem ser restringidas, por exemplo, usando informações de borda e/ou textura e posições relativas desses pontos de referência para calcular a posição de um ponto de referência (consulte a Figura 60).
[00201] Pontos de referência 2D extraídos na primeira imagem podem então ser utilizados junto com a matriz de calibração estéreo para criar uma linha epipolar para cada ponto de referência em uma segunda imagem ou imagem subsequente. A localização do ponto de referência na primeira imagem juntamente com a sua localização em uma linha epipolar na segunda imagem pode ser alimentada com um algoritmo de otimização que pode extrair a posição 3D dos pontos de referência no alvo de calibração ou capturar a imagem do sistema de coordenadas (consulte a Figura 57). Os familiarizados com a geometria de múltiplas vistas entenderão que existem vários métodos conhecidos para determinar as posições 3D a partir de imagens 2D calibradas da mesma cena, que estão todos dentro do escopo da presente divulgação. XI. Planejamento intraoperatório a partir de marcação de ponto de referência intraoperatória
[00202] De acordo com a presente divulgação, os pontos de referência 3D podem ser extraídos de imagens intraoperatórias calibradas e podem ser usados para calcular os eixos e dimensões cirúrgicos relevantes. No contexto de uma pelve, isso pode incluir ASIS direito e esquerdo e os pontos de tubérculo púbico para calcular as direções do plano anterior posterior, SI, anterior-posterior (AP) e medial- lateral (ML) e/ou o centro e dimensões de copo acetabular anatômico. Uma interface de planejamento cirúrgico pode então ser apresentada a um usuário que permite a seleção dos tamanhos e orientações de implantes desejados (ver Figura 58).
[00203] Seguindo a descrição acima, deve ser evidente para os habilitados na técnica que, embora os métodos e aparelhos aqui descritos constituam modalidades exemplares da presente invenção, a invenção aqui descrita não se limita a nenhuma modalidade precisa e que alterações podem ser feitas em tais modalidades sem se afastar do escopo da invenção, conforme definido pelas reivindicações. Além disso, deve ser entendido que a invenção é definida pelas reivindicações e não se pretende que quaisquer limitações ou elementos que descrevam as modalidades exemplares estabelecidas neste documento sejam incorporados na interpretação de qualquer elemento de reivindicação, a menos que tal limitação ou elemento seja explicitamente declarado. Da mesma forma, deve ser entendido que não é necessário satisfazer uma ou a todas as vantagens ou objetos identificados da invenção aqui divulgada, a fim de se enquadrar no escopo de qualquer reivindicação, uma vez que a invenção é definida pelas reivindicações e já que vantagens inerentes e/ou imprevistas da presente invenção podem existir mesmo que não tenham sido explicitamente discutidas aqui.
[00204] O que é reivindicado é:

Claims (65)

REIVINDICAÇÕES
1. Método para rastrear o movimento de uma parte do corpo, o método caracterizado pelo fato de que compreende: coletar dados de movimento a partir de uma parte do corpo reposicionada dentro de uma amplitude de movimento, a parte do corpo tendo montado nela um sensor de movimento; coletar uma pluralidade de imagens radiográficas tiradas da parte do corpo enquanto a parte do corpo está em posições diferentes dentro da amplitude de movimento, a pluralidade de imagens radiográficas tendo a parte do corpo e o sensor de movimento dentro de um campo de visão; e, construir um modelo tridimensional virtual da parte do corpo a partir da pluralidade de imagens radiográficas usando uma estrutura do sensor de movimento identificável dentro de pelo menos duas da pluralidade de imagens radiográficas para calibrar as imagens radiográficas.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o sensor de movimento compreende uma unidade de medição inercial.
3. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que a unidade de medição inercial compreende uma pluralidade de acelerômetros, uma pluralidade de giroscópios e uma pluralidade de magnetômetros.
4. Método, de acordo com qualquer uma das reivindicações 1 a 3, caracterizado pelo fato de que o sensor de movimento é montado não rigidamente na parte do corpo.
5. Método, de acordo com a reivindicação 4, caracterizado pelo fato de que o sensor de movimento é montado fora de uma epiderme pelo menos parcialmente cobrindo a parte do corpo.
6. Método, de acordo com qualquer uma das reivindicações
1 a 3, caracterizado pelo fato de que o sensor de movimento é montado rigidamente na parte do corpo.
7. Método, de acordo com qualquer uma das reivindicações 1 a 6, caracterizado pelo fato de que a estrutura do sensor de movimento compreende pelo menos um dentre um resistor, um chip, um capacitor, uma placa de circuito e um condutor elétrico.
8. Método, de acordo com qualquer uma das reivindicações 1 a 7, caracterizado pelo fato de que a imagem radiográfica compreende um raio X.
9. Método, de acordo com qualquer uma das reivindicações 1 a 7, caracterizado pelo fato de que a imagem radiográfica compreende uma imagem fluoroscópica.
10. Método, de acordo com qualquer uma das reivindicações 1 a 9, caracterizado pelo fato de que a calibração das imagens radiográficas é realizada automaticamente.
11. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que a calibração automática das imagens radiográficas é realizada por um computador executando um programa de software.
12. Método, de acordo com qualquer uma das reivindicações 1 a 11, caracterizado pelo fato de que compreende ainda: coletar dados a partir do sensor de movimento que podem ser usados para determinar pelo menos uma de posição e rotação do sensor de movimento como uma função do tempo.
13. Método, de acordo com a reivindicação 12, caracterizado pelo fato de que os dados coletados a partir do sensor de movimento são coletados de maneira sem fio.
14. Método, de acordo com a reivindicação 12, caracterizado pelo fato de que os dados coletados a partir do sensor de movimento são coletados a partir de um fio conectado ao sensor de movimento.
15. Método, de acordo com qualquer uma das reivindicações 12 a 14, caracterizado pelo fato de que os dados coletados a partir do sensor de movimento são coletados por pelo menos um dentre um telefone, um computador, um tablet e uma memória portátil.
16. Método, de acordo com qualquer uma das reivindicações 1 a 15, caracterizado pelo fato de que compreende ainda: registrar no espaço tridimensional o sensor de movimento no modelo tridimensional virtual da parte do corpo; e, correlacionar dados coletados a partir do sensor de movimento como uma função da posição da parte do corpo para criar um modelo dinâmico virtual da parte do corpo que é reposicionável para refletir as posições reais da parte do corpo quando reposicionada dentro da amplitude de movimento.
17. Método, de acordo com qualquer uma das reivindicações 1 a 16, caracterizado pelo fato de que compreende ainda: construir um modelo tridimensional virtual do sensor de movimento usando a pluralidade de imagens radiográficas.
18. Método, de acordo com a reivindicação 17, caracterizado pelo fato de que o modelo tridimensional virtual do sensor de movimento é integrado ao modelo tridimensional virtual da parte do corpo para criar um modelo combinado tridimensional virtual.
19. Método, de acordo com a reivindicação 18, caracterizado pelo fato de que compreende ainda: correlacionar dados coletados a partir do sensor de movimento como uma função da posição da parte do corpo para fornecer movimento dinâmico ao modelo combinado tridimensional virtual.
20. Método, de acordo com qualquer uma das reivindicações 1 a 19, caracterizado pelo fato de que coletar os dados de movimento inclui registrar pelo menos uma de alterações na posição e rotação do sensor de movimento como uma função do tempo.
21. Método, de acordo com qualquer uma das reivindicações 1 a 19, caracterizado pelo fato de que coletar os dados de movimento inclui registrar alterações na aceleração do sensor de movimento como uma função do tempo.
22. Método, de acordo com qualquer uma das reivindicações 1 a 21, caracterizado pelo fato de que compreende ainda: exibir o modelo tridimensional virtual da parte do corpo para refletir as alterações na posição da parte do corpo real em tempo real.
23. Método, de acordo com qualquer uma das reivindicações 1 a 22, caracterizado pelo fato de que os dados de movimento coletados são horodatados.
24. Sistema para rastrear o movimento de uma parte do corpo, o sistema caracterizado pelo fato de que compreende: um sensor de movimento; e, um processador configurado para ser acoplado comunicativamente ao sensor de movimento, o processador acoplado comunicativamente a uma pluralidade de módulos, os módulos compreendendo: um módulo de recepção de dados configurado para registrar dados de movimento gerados pelo sensor de movimento, pelo menos um do módulo de recepção de dados e o sensor de movimento horodatando os dados de movimento gerados pelo sensor de movimento;
um módulo de processamento de imagem radiográfica configurado para identificar um recurso comum visível através de uma pluralidade de imagens radiográficas a fim de calibrar a pluralidade de imagens radiográficas; e, um módulo de modelo tridimensional configurado para processar uma pluralidade de imagens radiográficas e criar um modelo tridimensional virtual de um objeto visível em pelo menos parte da pluralidade de imagens radiográficas.
25. Sistema, de acordo com a reivindicação 24, caracterizado pelo fato de que o sensor de movimento inclui uma unidade de medição inercial.
26. Sistema, de acordo com a reivindicação 24, caracterizado pelo fato de que o sensor de movimento inclui uma pluralidade de acelerômetros.
27. Sistema, de acordo com a reivindicação 24, caracterizado pelo fato de que o sensor de movimento inclui uma pluralidade de magnetômetros.
28. Sistema, de acordo com a reivindicação 24, caracterizado pelo fato de que o sensor de movimento inclui uma pluralidade de giroscópios.
29. Sistema, de acordo com qualquer uma das reivindicações 1 a 28, caracterizado pelo fato de que compreende ainda uma exibição acoplada comunicativamente ao processador e operativa para exibir o modelo tridimensional virtual.
30. Sistema, de acordo com qualquer uma das reivindicações 1 a 29, caracterizado pelo fato de que compreende ainda uma máquina de captura de imagem radiográfica.
31. Método para fornecer navegação cirúrgica, o método caracterizado pelo fato de que compreende: obter uma pluralidade de imagens radiográficas tiradas no intraoperatório de múltiplos ângulos de vantagem que incluem uma parte do corpo e pelo menos um alvo de imagem; registrar a parte do corpo no intraoperatório em um sistema de navegação; calcular pelo menos uma de uma orientação e uma posição da parte do corpo em um sistema de coordenadas tridimensionais usado pelo sistema de navegação; e, exibir um modelo virtual de um item tangível compreendendo pelo menos uma parte do corpo, um instrumento cirúrgico e um implante ortopédico, onde exibir o modelo virtual inclui alterar em tempo real de pelo menos uma posição e uma orientação do modelo virtual para concordar com uma alteração em pelo menos uma de posição e orientação do item tangível.
32. Método, de acordo com a reivindicação 31, caracterizado pelo fato de que: o modelo virtual do item tangível compreende um modelo tridimensional associado ao sistema de navegação; e, o passo de registro inclui registrar uma imagem bidimensional da parte do corpo no modelo tridimensional.
33. Método, de acordo com a reivindicação 31 ou 32, caracterizado pelo fato de que o passo de registro inclui identificar pontos de referência anatômicos bidimensionais da parte do corpo a partir da pluralidade de imagens radiográficas e registrar esses pontos de referência anatômicos bidimensionais com pontos de referência tridimensionais associados a um modelo tridimensional virtual do sistema de navegação.
34. Método, de acordo com a reivindicação 33, caracterizado pelo fato de que o registro dos pontos de referência anatômicos bidimensionais com os pontos de referência anatômicos tridimensionais inclui projetar os pontos de referência tridimensionais em uma imagem bidimensional.
35. Método, de acordo com a reivindicação 34, caracterizado pelo fato de que projetar os pontos de referência tridimensionais inclui ajustar uma pose do modelo tridimensional de modo que a distância entre os pontos de referência bidimensionais selecionados seja reduzida em relação à distância entre os pontos de referência tridimensionais correspondentes.
36. Método, de acordo com qualquer uma das reivindicações 31 a 34, caracterizado pelo fato de que o passo de registro inclui usar um instrumento específico de paciente que engata corretamente a parte do corpo em apenas uma única posição e orientação.
37. Método, de acordo com a reivindicação 36, caracterizado pelo fato de que o instrumento específico de paciente inclui uma unidade de medição inercial.
38. Método, de acordo com a reivindicação 36, caracterizado pelo fato de que o instrumento específico de paciente inclui uma pluralidade de acelerômetros.
39. Método, de acordo com a reivindicação 36, caracterizado pelo fato de que o instrumento específico de paciente inclui uma pluralidade de giroscópios.
40. Método, de acordo com a reivindicação 36, caracterizado pelo fato de que o instrumento específico de paciente inclui uma pluralidade de magnetômetros.
41. Método, de acordo com qualquer uma das reivindicações 31 a 40, caracterizado pelo fato de que compreende ainda: obter uma pluralidade de imagens radiográficas tiradas no pré-operatório de múltiplos ângulos de vantagem que incluem a parte do corpo; e, criar um modelo tridimensional virtual da parte do corpo a partir da pluralidade de imagens radiográficas.
42. Método, de acordo com a reivindicação 41, caracterizado pelo fato de que compreende ainda: calibrar a pluralidade de imagens radiográficas tiradas no pré-operatório antes da criação do modelo tridimensional virtual.
43. Método, de acordo com a reivindicação 41 ou 42, caracterizado pelo fato de que compreende ainda: planejar um procedimento cirúrgico usando o modelo tridimensional virtual.
44. Método, de acordo com qualquer uma das reivindicações 31 a 43, caracterizado pelo fato de que compreende ainda: coletar dados de movimento da parte do corpo reposicionada dentro de uma amplitude de movimento, a parte do corpo tendo montado nela um sensor de movimento.
45. Método, de acordo com a reivindicação 44, caracterizado pelo fato de que o sensor de movimento compreende uma unidade de medição inercial.
46. Método, de acordo com a reivindicação 45, caracterizado pelo fato de que a unidade de medição inercial compreende uma pluralidade de acelerômetros, uma pluralidade de giroscópios e uma pluralidade de magnetômetros.
47. Método, de acordo com qualquer uma das reivindicações 44 a 46, caracterizado pelo fato de que o sensor de movimento é montado não rigidamente na parte do corpo.
48. Método, de acordo com a reivindicação 47, caracterizado pelo fato de que o sensor de movimento é montado fora de uma epiderme pelo menos parcialmente cobrindo a parte do corpo.
49. Método, de acordo com qualquer uma das reivindicações 44 a 46, caracterizado pelo fato de que o sensor de movimento é montado rigidamente na parte do corpo.
50. Método, de acordo com qualquer uma das reivindicações 31 a 49, caracterizado pelo fato de que a pluralidade de imagens radiográficas compreende uma pluralidade de imagens de raios X.
51. Método, de acordo com qualquer uma das reivindicações 31 a 49, caracterizado pelo fato de que a pluralidade de imagens radiográficas compreende uma pluralidade de imagens fluoroscópicas.
52. Método, de acordo com qualquer uma das reivindicações 31 a 52, caracterizado pelo fato de que compreende ainda a calibração da pluralidade de imagens radiográficas obtidas no intraoperatório.
53. Método, de acordo com a reivindicação 52, caracterizado pelo fato de que a calibração da pluralidade de imagens radiográficas é realizada automaticamente por um computador executando um programa de software.
54. Método, de acordo com qualquer uma das reivindicações 44 a 53, caracterizado pelo fato de que compreende ainda: coletar dados a partir do sensor de movimento que podem ser usados para determinar pelo menos uma de posição e rotação do sensor de movimento como uma função do tempo.
55. Método, de acordo com a reivindicação 54,
caracterizado pelo fato de que os dados coletados a partir do sensor de movimento são coletados de maneira sem fio.
56. Método, de acordo com a reivindicação 54, caracterizado pelo fato de que os dados coletados a partir do sensor de movimento são coletados a partir de um fio conectado ao sensor de movimento.
57. Método, de acordo com qualquer uma das reivindicações 54 a 56, caracterizado pelo fato de que os dados coletados a partir do sensor de movimento são coletados por pelo menos um dentre um telefone, um computador, um tablet e uma memória portátil.
58. Método, de acordo com qualquer uma das reivindicações 44 a 57, caracterizado pelo fato de que compreende ainda: registrar no espaço tridimensional o sensor de movimento em um modelo tridimensional virtual da parte do corpo; e, correlacionar dados coletados a partir do sensor de movimento como uma função da posição da parte do corpo para criar um modelo dinâmico virtual da parte do corpo que é reposicionável para refletir as posições reais da parte do corpo quando reposicionada dentro de uma amplitude de movimento.
59. Método, de acordo com qualquer uma das reivindicações 44 a 57, caracterizado pelo fato de que compreende ainda: construir um modelo tridimensional virtual do sensor de movimento usando a pluralidade de imagens radiográficas.
60. Método, de acordo com a reivindicação 58, caracterizado pelo fato de que compreende ainda: construir um modelo tridimensional virtual do sensor de movimento usando a pluralidade de imagens radiográficas.
61. Método, de acordo com a reivindicação 60,
caracterizado pelo fato de que o modelo tridimensional virtual do sensor de movimento é integrado ao modelo tridimensional virtual da parte do corpo para criar um modelo combinado tridimensional virtual.
62. Método, de acordo com a reivindicação 61, caracterizado pelo fato de que compreende ainda: correlacionar dados coletados a partir do sensor de movimento como uma função da posição da parte do corpo para fornecer movimento dinâmico ao modelo combinado tridimensional virtual.
63. Método, de acordo com a reivindicação 62, caracterizado pelo fato de que coletar os dados de movimento inclui registrar pelo menos uma de alterações na posição e rotação do sensor de movimento como uma função do tempo.
64. Método, de acordo com a reivindicação 62, caracterizado pelo fato de que a coleta dos dados de movimento inclui registrar alterações de aceleração do sensor de movimento como uma função do tempo.
65. Método, de acordo com a reivindicação 62, caracterizado pelo fato de que os dados de movimento coletados são horodatados.
BR112019025107-3A 2017-06-19 2018-06-19 Navegação cirúrgica do quadril usando fluoroscopia e sensores de rastreamento BR112019025107A2 (pt)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201762521582P 2017-06-19 2017-06-19
US62/521,582 2017-06-19
US201762575905P 2017-10-23 2017-10-23
US62/575,905 2017-10-23
US201862617383P 2018-01-15 2018-01-15
US62/617,383 2018-01-15
PCT/US2018/038371 WO2018236936A1 (en) 2017-06-19 2018-06-19 SURGICAL HIP NAVIGATION USING FLUOROSCOPY AND MONITORING SENSORS

Publications (1)

Publication Number Publication Date
BR112019025107A2 true BR112019025107A2 (pt) 2020-06-23

Family

ID=64736114

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112019025107-3A BR112019025107A2 (pt) 2017-06-19 2018-06-19 Navegação cirúrgica do quadril usando fluoroscopia e sensores de rastreamento

Country Status (6)

Country Link
US (2) US11331151B2 (pt)
EP (1) EP3618715A4 (pt)
JP (2) JP7227168B2 (pt)
CN (1) CN110944594A (pt)
BR (1) BR112019025107A2 (pt)
WO (1) WO2018236936A1 (pt)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9532845B1 (en) 2015-08-11 2017-01-03 ITKR Software LLC Methods for facilitating individualized kinematically aligned total knee replacements and devices thereof
WO2018081795A1 (en) 2016-10-31 2018-05-03 Zipline Medical, Inc. Systems and methods for monitoring physical therapy of the knee and other joints
AU2017362768A1 (en) 2016-11-18 2019-05-30 Stryker Corp. Method and apparatus for treating a joint, including the treatment of CAM-type femoroacetabular impingement in a hip joint and pincer-type femoroacetabular impingement in a hip joint
EP3618715A4 (en) 2017-06-19 2021-02-17 Mohamed R. Mahfouz SURGICAL NAVIGATION OF THE HIP USING FLUOROSCOPY AND TRACKING SENSORS
WO2019045144A1 (ko) * 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
WO2019111512A1 (ja) * 2017-12-05 2019-06-13 ソニー・オリンパスメディカルソリューションズ株式会社 医療用情報処理装置、および情報処理方法
US11464569B2 (en) 2018-01-29 2022-10-11 Stryker Corporation Systems and methods for pre-operative visualization of a joint
US10517681B2 (en) * 2018-02-27 2019-12-31 NavLab, Inc. Artificial intelligence guidance system for robotic surgery
US11337760B2 (en) * 2018-03-27 2022-05-24 Virginia Commonwealth University Automated hip analysis methods and devices
GB2574074B (en) 2018-07-27 2020-05-20 Mclaren Applied Tech Ltd Time synchronisation
WO2020033656A1 (en) * 2018-08-08 2020-02-13 Loyola University Chicago Methods of classifying and/or determining orientations of objects using two-dimensional images
LU101007B1 (en) * 2018-11-26 2020-05-26 Metamorphosis Gmbh Artificial-intelligence based reduction support
US20200175756A1 (en) * 2018-12-03 2020-06-04 Intuitive Research And Technology Corporation Two-dimensional to three-dimensional spatial indexing
US20200194108A1 (en) * 2018-12-13 2020-06-18 Rutgers, The State University Of New Jersey Object detection in medical image
US20200205900A1 (en) * 2018-12-31 2020-07-02 Motion Insights, Inc. Dynamic 3d motion capture for surgical implant orientation
WO2020174284A1 (en) * 2019-02-27 2020-09-03 Body Vision Medical Ltd. Methods and systems for movement compensation during three-dimensional reconstruction of anatomical structures
US20200297425A1 (en) * 2019-03-18 2020-09-24 Medtronic Navigation, Inc. System and Method for Imaging
US11393110B2 (en) * 2019-04-04 2022-07-19 Centerline Biomedical, Inc. Spatial registration of tracking system with an image using two-dimensional image projections
US11069125B2 (en) * 2019-04-09 2021-07-20 Intuitive Research And Technology Corporation Geometry buffer slice tool
DE102019109789A1 (de) * 2019-04-12 2020-10-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Computerprogramm zum zeitaufgelösten Berechnen einer Deformation eines Körpers
US20220257145A1 (en) * 2019-05-15 2022-08-18 Intellijoint Surgical Inc. Systems and methods for computer assisted femoral surgery
WO2021046455A1 (en) * 2019-09-05 2021-03-11 The Johns Hopkins University Fast and automatic pose estimation using intraoperatively located fiducials and single-view fluoroscopy
US11399965B2 (en) * 2019-09-09 2022-08-02 Warsaw Orthopedic, Inc. Spinal implant system and methods of use
GB2588236B (en) 2019-10-18 2024-03-20 Mclaren Applied Ltd Gyroscope bias estimation
US20210251591A1 (en) * 2020-02-17 2021-08-19 Globus Medical, Inc. System and method of determining optimal 3-dimensional position and orientation of imaging device for imaging patient bones
CN115136254A (zh) * 2020-02-18 2022-09-30 皇家飞利浦有限公司 用于对体内治疗设备的部署状态进行可视化的医学成像系统、设备和方法
WO2021174292A1 (en) * 2020-03-04 2021-09-10 360 Knee Systems Pty Ltd "intraoperative guidance systems and methods"
WO2021174293A1 (en) * 2020-03-04 2021-09-10 360 Knee Systems Pty Ltd Image processing for intraoperative guidance systems
US20230108487A1 (en) * 2020-03-04 2023-04-06 360 Knee Systems Pty Ltd Intraoperative localisation systems and methods
JP2021137500A (ja) * 2020-03-09 2021-09-16 学校法人東京医科大学 骨部手術の支援装置、支援方法、プログラム、および記録媒体
EP3888563A1 (en) * 2020-03-31 2021-10-06 Ecential Robotics Method and system for generating images for a fluoroscopy-based navigation system
TWI753412B (zh) * 2020-04-27 2022-01-21 長庚醫療財團法人林口長庚紀念醫院 產生用於自動定位出定位點的模型的方法、骨骼狀態分析方法及電子系統
US11328435B2 (en) * 2020-06-08 2022-05-10 KLA Corp. Image alignment setup for specimens with intra- and inter-specimen variations using unsupervised learning and adaptive database generation methods
US11918370B2 (en) * 2020-06-10 2024-03-05 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for estimation of Parkinson's Disease gait impairment severity from videos using MDS-UPDRS
JP2023536565A (ja) * 2020-08-04 2023-08-28 ストライカー・コーポレイション 外科用器具を用いる軌道を視覚化するシステム及び方法
CN111968164A (zh) * 2020-08-19 2020-11-20 上海交通大学 一种基于双平面x光追踪的植入物自动配准定位方法
CN112091983B (zh) * 2020-11-17 2021-02-12 南京佗道医疗科技有限公司 一种精度校验装置、系统及方法
US20220237817A1 (en) * 2020-11-19 2022-07-28 Circinus Medical Technology Llc Systems and methods for artificial intelligence based image analysis for placement of surgical appliance
KR102283673B1 (ko) * 2020-11-30 2021-08-03 주식회사 코어라인소프트 병변 추적 검사에 기반하여 진단 보조 정보의 임계치를 조정하는 의료 영상 판독 지원 장치 및 방법
EP4255303A1 (en) * 2020-12-02 2023-10-11 Acrew Imaging, Inc. Method and apparatus of fusion of multimodal images to fluoroscopic images
WO2022133442A1 (en) * 2020-12-15 2022-06-23 Stryker Corporation Systems and methods for generating a three-dimensional model of a joint from two-dimensional images
CN112472293B (zh) * 2020-12-15 2022-10-21 山东威高医疗科技有限公司 一种术前三维影像与术中透视图像的配准方法
EP4016536A1 (en) * 2020-12-16 2022-06-22 Polar Electro Oy Biomechanical modelling of motion measurements
EP4274501A1 (en) * 2021-01-06 2023-11-15 Precision AI Pty Ltd Surgical system
US11322244B2 (en) * 2021-03-16 2022-05-03 Seshadri Paravastu System and method for determining anisomelia condition of a subject using image analysis and deep neural network learning
EP4062853A1 (en) * 2021-03-23 2022-09-28 MinMaxMedical Method for locating object(s) in particular for optimal lower limb surgery planning using x-ray images
WO2022259019A1 (en) * 2021-06-08 2022-12-15 Stryker European Operations Limited Surgical reference body for referencing a patient's anatomy during surgery
CN113633376B (zh) * 2021-08-06 2024-03-15 吉林大学 一种全髋关节裸眼三维虚拟置换方法
DE102021124873A1 (de) 2021-09-27 2023-03-30 Aesculap Ag Medizintechnisches System und Verfahren
CA3231121A1 (en) * 2021-09-30 2023-04-06 Brian R. Harris Systems and methods of using photogrammetry for intraoperatively aligning surgical elements
WO2024058965A1 (en) * 2022-09-12 2024-03-21 Intuitive Surgical Operations, Inc. Determination of a contour physical distance within a subject based on a deformable three-dimensional model
CN116712171B (zh) * 2023-08-11 2023-11-03 北京维卓致远医疗科技发展有限责任公司 一种粗隆间骨折导航方法、设备及可存储介质

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5951475A (en) * 1997-09-25 1999-09-14 International Business Machines Corporation Methods and apparatus for registering CT-scan data to multiple fluoroscopic images
US20040068187A1 (en) * 2000-04-07 2004-04-08 Krause Norman M. Computer-aided orthopedic surgery
DE60138116D1 (de) * 2000-09-14 2009-05-07 Univ R Beurteilung des zustandes eines gelenkes und planung einer behandlung
US6990368B2 (en) 2002-04-04 2006-01-24 Surgical Navigation Technologies, Inc. Method and apparatus for virtual digital subtraction angiography
FR2841118B1 (fr) * 2002-06-20 2012-03-23 Perception Raisonnement Action En Medecine Determination de la position d'un appareil de radiographie ou de radioscopie
JP2006527620A (ja) 2003-06-16 2006-12-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ インターベンショナルラジオロジーのためのイメージングシステム
US6888924B2 (en) 2003-06-25 2005-05-03 General Electric Company Method, apparatus, and medium for calibration of tomosynthesis system geometry using fiducial markers with non-determined position
US20050197569A1 (en) 2004-01-22 2005-09-08 Mccombs Daniel Methods, systems, and apparatuses for providing patient-mounted surgical navigational sensors
US7441953B2 (en) * 2004-10-07 2008-10-28 University Of Florida Research Foundation, Inc. Radiographic medical imaging system using robot mounted source and sensor for dynamic image capture and tomography
US8007448B2 (en) * 2004-10-08 2011-08-30 Stryker Leibinger Gmbh & Co. Kg. System and method for performing arthroplasty of a joint and tracking a plumb line plane
DE102005023167B4 (de) * 2005-05-19 2008-01-03 Siemens Ag Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz
EP1922005B1 (en) 2005-08-25 2011-12-21 Koninklijke Philips Electronics N.V. System for electrophysiology regaining support to continue line and ring ablations
US20080221487A1 (en) * 2007-03-07 2008-09-11 Motek Bv Method for real time interactive visualization of muscle forces and joint torques in the human body
WO2008142629A2 (en) 2007-05-24 2008-11-27 Koninklijke Philips Electronics N.V. Multifunctional marker
US8657772B2 (en) * 2007-07-20 2014-02-25 össur hf. Wearable device having feedback characteristics
US10299753B2 (en) 2007-11-29 2019-05-28 Biosense Webster, Inc. Flashlight view of an anatomical structure
EP2521095B1 (en) * 2008-07-14 2015-03-04 Cefla S.C. Dynamic error correction in radiographic imaging
US8444564B2 (en) 2009-02-02 2013-05-21 Jointvue, Llc Noninvasive diagnostic system
EP2421461B1 (en) * 2009-04-25 2015-07-15 Siemens Aktiengesellschaft System for assessing the relative pose of an implant and a bone of a creature
US9554868B2 (en) * 2009-08-07 2017-01-31 DePuy Synthes Products, Inc. Method and apparatus for reducing malalignment of fractured bone fragments
US8538106B2 (en) * 2009-10-20 2013-09-17 Siemens Aktiengesellschaft Three-dimensional esophageal reconstruction
US8411927B2 (en) * 2009-10-29 2013-04-02 Siemens Aktiengesellschaft Marker detection in X-ray images
DE102010020284A1 (de) * 2010-05-12 2011-11-17 Siemens Aktiengesellschaft Bestimmung von 3D-Positionen und -Orientierungen von chirurgischen Objekten aus 2D-Röntgenbildern
US8655053B1 (en) * 2010-05-31 2014-02-18 Andrew S Hansen Body modeling and garment fitting using an electronic device
WO2012127353A1 (en) * 2011-03-18 2012-09-27 Koninklijke Philips Electronics N.V. Multi-leg geometry reference tracker for multi-modality data fusion
EP2713868B1 (en) * 2011-05-23 2016-07-13 Koninklijke Philips N.V. Motion compensated magnetic resonance imaging method and system
EP2714193B1 (en) * 2011-06-03 2019-12-18 Nexstim Oy Method of overlaying nbs functional data on a live image of a brain
CA2852233C (en) * 2011-10-14 2023-08-08 Jointvue, Llc Real-time 3-d ultrasound reconstruction of knee and its implications for patient specific implants and 3-d joint injections
US20130244211A1 (en) * 2012-03-15 2013-09-19 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for measuring, analyzing, and providing feedback for movement in multidimensional space
US9538940B2 (en) * 2012-05-03 2017-01-10 University of Pittsburgh—of the Commonwealth System of Higher Education Intelligent algorithms for tracking three-dimensional skeletal movement from radiographic image sequences
EP2861140B1 (en) * 2012-06-13 2016-12-07 Brainlab AG Determining a range of motion of an artificial knee joint
DE102012210758A1 (de) * 2012-06-25 2014-01-02 Sirona Dental Systems Gmbh Verfahren zur Überprüfung von Zahnstellungen
EP2874550B1 (en) * 2012-07-23 2017-09-27 Orthosoft, Inc. Patient-specific instrumentation for implant revision surgery
JP6071302B2 (ja) 2012-07-26 2017-02-01 オリンパス株式会社 キャリブレーション装置およびプログラム
US9818175B2 (en) * 2012-12-17 2017-11-14 Brainlab Ag Removing image distortions based on movement of an imaging device
WO2014152252A1 (en) * 2013-03-14 2014-09-25 Active Implants Corporation Meniscus prosthetic devices with anti-migration or radiopaque features
EP3175791B1 (en) * 2013-11-04 2021-09-08 Ecential Robotics Method for reconstructing a 3d image from 2d x-ray images
US10258256B2 (en) * 2014-12-09 2019-04-16 TechMah Medical Bone reconstruction and orthopedic implants
WO2015120479A1 (en) * 2014-02-10 2015-08-13 Neuronetics, Inc. Head modeling for a therapeutic or diagnostic procedure
WO2016007936A2 (en) 2014-07-10 2016-01-14 Mahfouz Mohamed R Bone reconstruction and orthopedic implants
US10146308B2 (en) 2014-10-14 2018-12-04 Immersion Corporation Systems and methods for impedance coupling for haptic devices
GB2536405A (en) * 2015-01-15 2016-09-21 Corin Ltd Pre-operative joint diagnostics
US10013808B2 (en) * 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US10413377B2 (en) * 2015-03-19 2019-09-17 Medtronic Navigation, Inc. Flexible skin based patient tracker for optical navigation
EP3273846A1 (en) * 2015-03-23 2018-01-31 Consensus Orthopedics, Inc Joint sensor system and method of operation thereof
EP3274912B1 (en) * 2015-03-26 2022-05-11 Biomet Manufacturing, LLC System for planning and performing arthroplasty procedures using motion-capture data
WO2016183812A1 (zh) * 2015-05-20 2016-11-24 北京诺亦腾科技有限公司 一种混合运动捕捉系统及方法
US10575759B2 (en) * 2015-07-01 2020-03-03 BaziFIT, Inc. Method and system for monitoring and analyzing position, motion, and equilibrium of body parts
EP3618715A4 (en) 2017-06-19 2021-02-17 Mohamed R. Mahfouz SURGICAL NAVIGATION OF THE HIP USING FLUOROSCOPY AND TRACKING SENSORS
US9924921B1 (en) * 2017-06-20 2018-03-27 Qualcomm Incorporated System for mapping joint performance

Also Published As

Publication number Publication date
JP7227168B2 (ja) 2023-02-21
EP3618715A1 (en) 2020-03-11
EP3618715A4 (en) 2021-02-17
US11331151B2 (en) 2022-05-17
US20190133693A1 (en) 2019-05-09
US20220296313A1 (en) 2022-09-22
CN110944594A (zh) 2020-03-31
US11826111B2 (en) 2023-11-28
JP2021154168A (ja) 2021-10-07
JP7342069B2 (ja) 2023-09-11
JP2020527380A (ja) 2020-09-10
WO2018236936A1 (en) 2018-12-27

Similar Documents

Publication Publication Date Title
US11826111B2 (en) Surgical navigation of the hip using fluoroscopy and tracking sensors
JP7071479B2 (ja) 無線超音波追跡および通信のためのウルトラワイドバンドの位置決め
AU2019201256A1 (en) Bone reconstruction and orthopedic implants
CN107106239A (zh) 外科规划和方法
US20230005232A1 (en) Systems and methods of using three-dimensional image reconstruction to aid in assessing bone or soft tissue aberrations for orthopedic surgery
US20230027518A1 (en) Systems and methods for using photogrammetry to create patient-specific guides for orthopedic surgery
US20230071033A1 (en) Method for obtaining a ct-like representation and virtual x-ray images in arbitrary views from a two-dimensional x-ray image
Valenti Statistical shape models based 2D/3D registration methods for knee orthopaedic surgery

Legal Events

Date Code Title Description
B350 Update of information on the portal [chapter 15.35 patent gazette]