IT202000007252A1 - Metodo di tracciamento di un dispositivo medico in tempo reale a partire da immagini ecocardiografiche per la supervisione olografica remota - Google Patents

Metodo di tracciamento di un dispositivo medico in tempo reale a partire da immagini ecocardiografiche per la supervisione olografica remota Download PDF

Info

Publication number
IT202000007252A1
IT202000007252A1 IT102020000007252A IT202000007252A IT202000007252A1 IT 202000007252 A1 IT202000007252 A1 IT 202000007252A1 IT 102020000007252 A IT102020000007252 A IT 102020000007252A IT 202000007252 A IT202000007252 A IT 202000007252A IT 202000007252 A1 IT202000007252 A1 IT 202000007252A1
Authority
IT
Italy
Prior art keywords
images
organ
medical device
server
medical
Prior art date
Application number
IT102020000007252A
Other languages
English (en)
Inventor
Omar Pappalardo
Filippo Piatti
Giovanni Rossini
Original Assignee
Artiness S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Artiness S R L filed Critical Artiness S R L
Priority to IT102020000007252A priority Critical patent/IT202000007252A1/it
Priority to US17/917,496 priority patent/US20230154606A1/en
Priority to PCT/IB2021/052728 priority patent/WO2021205292A1/en
Priority to EP21716552.1A priority patent/EP4132411A1/en
Priority to JP2023503519A priority patent/JP2023520741A/ja
Publication of IT202000007252A1 publication Critical patent/IT202000007252A1/it

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

Metodo di tracciamento di un dispositivo medico in tempo reale a partire da immagini ecocardiografiche per la supervisione olografica remota
La presente invenzione riguarda un metodo di tracciamento in tempo reale di un dispositivo medico a partire da immagini ecocardiografiche per la supervisione olografica remota.
Stato dell?arte
Secondo la American Academy of Family Physicians (AAFP), la supervisione (o il ?proctoring?) ? una valutazione oggettiva delle competenze cliniche di un medico da parte di un supervisore (?proctor?) che rappresenta ed ? responsabile dello staff medico. Membri appena entrati a far parte di uno staff medico che vogliono acquisire competenze o membri gi? parte di uno staff medico che richiedono competenze nuove o complementari sono supervisionati durante lo svolgimento del loro servizio o durante la procedura per cui le nuove competenze sono richieste. Nella maggior parte delle situazioni, il supervisore ha una funzione di semplice controllo nel valutare le abilit? tecniche e conoscitive di un altro medico. Il supervisore non fornisce direttamente cure al paziente, non ha una relazione medico-paziente con il paziente in cura e non riceve alcun compenso dal paziente.
I termini supervisione (?proctorship?) e tutoraggio (?preceptorships?) sono in alcuni casi usate equivalentemente. Il tutoraggio ? ad ogni modo differente poich? rappresenta un programma educativo in cui un tutore trasmette a un altro medico nuove competenze e il tutore ha responsabilit? fondamentali nella cura del paziente.
Si possono distinguere tre tipi di supervisione: prospettico, simultaneo e retrospettivo. Nella supervisione prospettica, ovvero anteriore al trattamento del paziente, il supervisore esamina il paziente personalmente o controlla la sua cartella clinica. Questo tipo di supervisione pu? essere usata se le indicazioni per una procedura clinica sono complesse da determinare o se la procedura di per s? risulta particolarmente rischiosa. Nella supervisione simultanea il supervisore osserva di persona il lavoro del medico richiedente. Questo tipo di supervisione ? solitamente utilizzato per l?assistenza a procedure invasive, in modo che il supervisore possa fornire allo staff medico un controllo diretto per garantire sulle competenze del medico richiedente. La supervisione retrospettiva riguarda una revisione retrospettiva della cartella clinica del paziente da parte del supervisore. Le revisioni retrospettive sono solitamente indicate per la supervisione di procedure non invasive.
La supervisione simultanea ? dispendiosa in termini di tempo e complessa come organizzazione, ma si pu? rivelare la pi? efficace.
Esiste una forte esigenza di utilizzare tecnologie di telecomunicazione per consentire una supervisione virtuale da remoto, che permetterebbe di usare i miglior medici del mondo per fornire supervisione ai medici di un qualsiasi ospedale.
Object and subject-matter of the invention
L?obiettivo della presente invenzione ? di fornire un metodo per il tracciamento in tempo reale di un dispositivo medico durante un intervento chirurgico per una supervisione remota olografica.
L?oggetto della presente invenzione ? un metodo di tracciamento in tempo reale di un dispositivo medico secondo le rivendicazioni allegate.
Infine, ? oggetto specifico della presente invenzione un server configurato in modo tale da essere usato nel metodo dell?invenzione, secondo le allegate rivendicazioni di server.
Descrizione dettagliata di forme realizzative dell?invenzione
Lista delle figure
L?invenzione verr? qui di seguito descritta a scopo illustrativo ma non limitativo, in riferimento specifico ai disegni delle figure allegate, nelle quali:
- La Figura 1 rappresenta lo schema generale dell?assistenza di supervisione dell?invenzione; - La Figura 2 rappresenta uno schema a blocchi dettagliato di una realizzazione secondo l?invenzione;
- La Figura 3 rappresenta un diagramma semplificato del medico e del supervisore che utilizzano l?invenzione;
- Le Figure da 4 a 6 rappresentano diversi set di training usati per l?addestramento della rete di intelligenza artificiale nel metodo dell?invenzione applicato ad un intervento al cuore;
- La Figura 7 raffigura il loss trend di una rete neurale UNET in un dataset di training (grigio scuro) e in un dataset di validazione (grigio chiaro), riferito a un esempio addestramento di rete neurale nel metodo in accordo con l?invenzione;
- La Figura 8 rappresenta un esempio di risultati per la rete neurale dell?invenzione applicata a un?immagine di validazione in accordo con l?invenzione. La prima riga ? relativa alla segmentazione del dispositivo medico, mentre la seconda riga ai lembi di una valvola cardiaca. Le immagini di sinistra mostra la segmentazione effettuata dalla rete neurale sovrapposta a un ritaglio dell?immagine diagnostica, quelle centrali la segmentazione fornita da un soggetto di test e quelle di destra la sola segmentazione della rete neurale;
- La Figura 9 mostra un esempio di risultati della rete neurale relativi all?invenzione, nella quale la segmentazione dei lembi (seconda riga) ? errata e incompleta, mentre la segmentazione del dispositivo medico (prima riga) ? accurata.
Viene qui specificato che elementi relativi a realizzazioni differenti possono essere combinati insieme al fine di fornire ulteriori realizzazioni senza limitazioni rispetto al concetto tecnico dell?invenzione dato che l?esperto del ramo comprende direttamente e in modo non ambiguo ci? che viene descritto in seguito.
La presente descrizione fa inoltre riferimento allo stato dell?arte per la sua implementazione in riferimento alle caratteristiche dettagliate non descritte, come ad esempio elementi di importanza minore solitamente usati nella letteratura in soluzioni della stessa tipologia.
Quando un elemento viene introdotto significa sempre che pu? essere ?almeno uno? o ?uno o pi??.
Quando una lista di elementi o caratteristiche ? fornita in questa descrizione ? inteso che i trovati relativi all?invenzione ?comprendono? o in alternativa ?sono composti? da questi elementi.
Forme di realizzazione
Nonostante le seguenti forme di realizzazione siano riferite alla supervisione durante interventi al cuore, va tenuto in conto che i metodi dell?invenzione permettono una supervisione remota per qualunque intervento medico o chirurgico su ogni organo o gruppo di organi.
Infatti, con riferimento alla Fig. 1, una azienda di dispositivi medici 10 che sta fornendo il servizio di supervisione utilizza il network di telecomunicazione 20 per connettersi a uno o pi? ospedali 30, dove i dati dall?operazione in ospedale sono trasmessi preferibilmente usando un Multi-access edge computing (MEC) 40.
Anche se la seguente realizzazione si riferisce all?utilizzo di una rete di comunicazione 5G, deve essere inteso che il metodo dell?invenzione pu? essere ottimamente realizzato tramite altre attuali o future tipologie di rete di comunicazione, incluse connessioni cablate e Wi-Fi, naturalmente con diversi tempi di latenza.
Come descritto in un aspetto dell?invenzione, delle immagini ecocardiografiche delle valvole cardiache e delle strutture cardiache del paziente sono acquisite durante una procedura chirurgica transacatetere durante l?impianto di un dispositivo medico cardiovascolare. Qualunque tipo di dispositivo medico, inclusi quelli utilizzati durante l?operazione e non impiantati pu? essere tracciato in accordo con l?invenzione.
Al momento dell?acquisizione le immagini contengono le strutture anatomiche del paziente di interesse (ad esempio i lembi di valvole cardiache, l?annulus, l?atrio sinistro e il ventricolo sinistro) e il dispositivo medico che ? manovrato dall?operatore medico.
Con riferimento allo schema a blocchi di Fig. 2, l?immagine del cuore di un paziente ? acquisita in tempo reale da una macchina ecocardiografica 101 all?interno della sala operatoria. La suddetta immagine pu? essere catturata attraverso un sistema di acquisizione video (ad esempio un convertitore HDMI) e pu? essere trasmessa come dato grezzo a un software di streaming 102 (ad esempio un software per lo streaming video peer-to-peer) su un computer locale (all?interno della sala operatoria), preferibilmente mantenendo la stessa risoluzione e lo stesso frame rate dell?output di 101.
Il software di streaming su 102 prende il video in input e genera una connessione streaming (ad esempio tramite lo User Datagram Protocol (UDP)) che punta all?indirizzo IP di una macchina virtuale (ad esempio con sistema operativo Windows, ad oggi la scelta migliore per connessioni tra dispositivi di Mixed Reality) all?interno del server 105 (dove ad esempio il sistema M.E.C ? implementato), sul quale ? situato il software streaming per la ricezione del segnale video 106.
Il ricevitore video peer-to-peer 106 riceve il segnale streaming attraverso un router 5G 103 e un?antenna 5G 104, preferibilmente mantenendo la stessa risoluzione e lo stesso frame rate dell?output di 101. A questo punto, in accordo con una forma di realizzazione preferita dell?invenzione, un trasferimento di dati di circa 20Mbit/s ? generato da 102 a 106.
In generale, secondo l?invenzione, un router 5G pu? essere connesso via LAN o via Wi-Fi a uno streamer video e via segnale radio 5G a una antenna 5G. Inoltre, secondo un aspetto dell?invenzione, in alternativa al router potrebbe essere utilizzato un computer con una SIM 5G per avere un accesso diretto alla rete.
Secondo un'altra forma di realizzazione, il router pu? essere integrato nel dispositivo di visualizzazione olografica dell?utilizzatore finale (in Fig. 2, il blocco 103 ? integrato nel blocco 113). Pi? in generale il dispositivo di visualizzazione olografica dell?utilizzatore finale pu? essere configurato per connettersi direttamente alla rete 5G.
Successivamente il flusso video ? trasferito, preferibilmente come un flusso di immagini, alla rete di intelligenza artificiale 107, che ? addestrata per riconoscere nelle immagini ecocardiografiche la posizione del dispositivo medico e di almeno due punti di repere anatomici (nell?esempio l?inserzione dei lembi della valvola mitrale sull?annulus) almeno per un sottoinsieme del flusso di immagini e preferibilmente per l?intero flusso (cio? per tutti i frame del video).
Anche se ? stato qui menzionato un dispositivo medico, il metodo dell?invenzione pu? abilitare il riconoscimento contemporaneo di pi? di un singolo dispositivo medico usato durante l?operazione.
Secondo un aspetto dell?invenzione, la rete di intelligenza artificiale 107 (o pi? in generale un algoritmo esperto) genera una sovrapposizione di elementi grafici su ogni immagine processata (ad esempio una linea o un segmento di qualsiasi forma) per l?identificazione della posizione del dispositivo medico e preferibilmente anche del suo orientamento nello spazio. La rete di intelligenza artificiale produce un output, che ? un flusso (ad esempio continuo) di immagini che sono riformattate in modo efficiente in un video con lo stesso formato dei quello di input, che ? poi trasferito direttamente a un creatore di video virtuali 108. Il generatore di video virtuali ? preferibilmente costituito da un generatore di webcam virtuale, che processa il flusso video come se fosse generato da una telecamera dal vivo.
La rete di intelligenza artificiale 107 ? situata preferibilmente in una seconda macchina virtuale (ad esempio con sistema operativo Linux che ad oggi ha performance migliori) che pu? essere installata nello stesso strato del M.E.C. come nel caso della prima macchina virtuale. Il generatore di webcam virtuale 108 ? installato sulla prima macchina virtuale cos? come il ricevitore video peer-to-peer 106.
Il generatore di webcam virtuale 108 pu? codificare l?input che arriva da 107 come un segnale virtuale di webcam dal vivo, preferibilmente mantenendo la stessa risoluzione e la frequenza dei fotogrammi. Questo processo di codifica video ottimizza l?alto volume di trasmissione proveniente originariamente dalla macchina ecocardiografica 101, in modo che possa essere successivamente utilizzato con un server virtuale di trasmissione 109. Il server virtuale 109 ? rappresentato preferibilmente da un server virtuale WebRTC che stabilisce una connessione multi-peer con gli utenti connessi, sfruttando il protocollo di trasmissione WebRTC e riducendo di conseguenza di circa 1/10 la quantit? totale di dati trasmessi sulla rete (ad esempio a 2Mbit/s) rispetto ad altre tecnologie.
Il protocollo di streaming 109 si trova nella prima macchina virtuale e legge il segnale della webcam virtuale di 108 come un sistema di video chat (questo solamente se ha a che fare con un segnale webcam, altrimenti il protocollo di streaming non legge il segnale di 108 come una chat) e lo processa per mandare dati binari a un dispositivo di visualizzazione olografica dell?utilizzatore finale 112 e/o 113 attraverso una antenna 5G 110 e un router 5G 111 e/o un?antenna 5G 104 e un router 5G 103 rispettivamente.
Anche se nella presente descrizione il dispositivo 112 ? un dispositivo fisico da utilizzare da parte di un chirurgo umano, l?invenzione si applica egualmente quando il dispositivo 112 ? un dispositivo virtuale integrato in un robot che ? configurato per controllare il dispositivo medico. Di conseguenza nella presente applicazione un dispositivo di visualizzazione fisico e virtuale sono intesi allo stesso modo nel descrivere e rivendicare l?invenzione.
Questi dati binari contengono le informazioni di ogni pixel del video che ? stato processato. In accordo con una forma di realizzazione della presente invenzione, questa informazione ? ricevuta da 112 e 113 nello stesso istante e, nel caso della attuale tecnologia, ? applicata per cambiare la propriet? di texture del materiale di un cubo 3D olografico che rappresenta uno schermo virtuale; questo mostra esattamente l?output del video della rete di intelligenza artificiale 107 e di conseguenza le immagini ecocardiografiche con il dispositivo medico e possibilmente con il riconoscimento dei punti di repere anatomici (vedi sotto).
Vantaggiosamente, 112 ? situato in una localit? remota (indossato da un medico) e distante rispetto a 101, mentre 113 ? situato nello stesso luogo di 101. Nondimeno, l?intero sistema permette ai due operatori (112 ? supervisore, 113 ? chirurgo) di condividere la stessa visualizzazione olografica con il tracciamento da parte intelligenza artificiale del dispositivo medico nello stesso istante di tempo. Utilizzando una rete 5G, il ritardo pu? essere minore di 0,5 secondi rispetto all?output di 101.
L?intero sistema pu? basarsi su un sistema M.E.C. sul server 105, che ? una tecnologia che permette di ospitare sia la rete di trasmissione con router e antenna 5G sia le macchine virtuali, funzionando come un servizio dedicato di cloud computing.
L?infrastruttura M.E.C. ? implementata per essere un sistema di edge-computing de-centralizzato vicino alla fonte di dati, cio? vicino a 101 e alla struttura ospedaliera. Questa de-centralizzazione del processo computazionale ? al momento caratteristica unica delle infrastrutture M.E.C. e permette di avere delle risorse computazionali pi? vicine alla fonte dei dati rispetto a qualunque altra rete di comunicazione (ad esempio 4G). L?utilizzo di tecnologia 5G sar? quindi vantaggiosa per ottenere una latenza molto bassa nella trasmissione dei dati da e verso il M.E.C. anche in presenza di trasmissioni di dati con un alto volume di trasmissione e connessioni in tempo reale. Una bassa latenza ? garantita in particolare anche nel caso di connessioni multiple, cio? con un alto numero di utenti connessi simultaneamente. Questo pu? verificarsi in due situazioni:
1) Durante il supporto di 112 a 113, N>50 partecipanti si connettono per osservare il lavoro di 112 e 113 con un fine didattico;
2) 105 ospita in parallelo N>20 paia di macchine virtuali che contemporaneamente gestiscono N connessioni tra ospedale e supervisore. Tutte queste connessioni possono passare attraverso un gruppo di antenne 104, 110 pi? vicine ai server computazionali.
Visualizzazione contemporanea
In riferimento alla Fig. 3, l?invenzione permette l?utilizzo di un kit di supervisione presso l?ospedale mentre la supervisione avviene in una localit? diversa. Per esempio, la localit? #1 e la localit? #2 possono essere remote, permettendo cos? una doppia supervisione. In questo caso, le due localit? di visualizzazione possono comunicare tra loro attraverso una rete di comunicazione che pu? essere la stessa rete di comunicazione usata per la visualizzazione remota.
La macchina ecografica 3D acquisisce le immagini ecocardiografiche e le manda a un computer locale, che permette di visualizzare il video su un dispositivo Hololens locale. Per far ci?, il video ? prima di tutto inviato a un server M.E.C. che utilizza un modello di organo preparato in precedenza (ad esempio salvato su un server Azure) della stessa anatomia acquisita in quel momento dalla macchina ecografica; questo al fine di unire le informazioni ecocardiografiche al modello di organo preparato in precedenza per creare un video in mixed reality. Il video in mixed reality ? infine rimandato a una antenna locale e successivamente alle Hololens, cos? come a un ricevitore remoto e quindi alle Hololens remote.
Mixed reality
La visualizzazione olografica dell?ecocardiografia sopra descritta pu? essere in realt? mista, secondo una forma di realizzazione specifica dell'invenzione. In questo caso, viene preparato in anticipo un modello di anatomia 3D del cuore (o altro organo) (per ciascun paziente basato su una scansione) e sovrapposto allo streaming dal vivo. Inoltre, l'IA riconosce non solo la posizione e l'orientamento del dispositivo medico, ma anche punti di riferimento anatomici.
In questo modo, il dispositivo medico pu? essere visualizzato all'interno del modello anatomico, in modo che il medico possa decidere se spostare l'oggetto in modo diverso. I punti di riferimento anatomici possono servire anche per altri scopi clinici.
Il dispositivo di visualizzazione olografica pu? essere ad esempio Hololens, Magic Leap, Lenovo Explorer o qualsiasi altro, che sia olografico o meno. Inoltre, la realt? mista pu? includere qualsiasi altro elemento utile come un pannello di pulsanti.
La sovrapposizione dell'immagine ecografica sul modello 3D pu? essere effettuata da una trasformazione rigida. Tuttavia, se la parte anatomica si sta muovendo (ad esempio, se il cuore batte), la sovrapposizione rigida non ? possibile. In questo caso, ? possibile utilizzare una trasformazione rigida affine.
Ad esempio, nell'acquisizione ecocardiografica della valvola mitrale possiamo identificare il punto di sella (p1= ) [Netter, Frank H. Atlas Of Human Anatomy. Philadelphia, PA : Saunders/Elsevier, 2011netter], il punto medio dell?annulus posteriore (p2 = ) [Netter, Frank H. Atlas Of Human Anatomy. Philadelphia, PA : Saunders/Elsevier, 2011] e l?apice del ventricolo (p3 = ) [Netter, Frank H. Atlas Of Human Anatomy. Philadelphia, PA : Saunders/Elsevier, 2011].
Ovviamente, in questo esempio e nella maggior parte dei casi ? sufficiente prendere come riferimento i singoli punti di un?area.
Dopo l?identificazione dei 3 marcatori corrispondenti (P1= ) nel modello preoperativo 3D, per sovrapporre l?immagine 2D sul modello 3D, il sistema da risolvere ? il seguente:
Inoltre, il modello anatomico 3D pu? essere dinamico, vale a dire una sequenza di modelli in cui l'organo del corpo del modello ha una forma diversa in ciascun fotogramma (o almeno per un sottoinsieme di fotogrammi della sequenza). Quando lo stesso avviene per il flusso di immagini acquisito, la sovrapposizione del flusso di immagini al modello pu? essere un problema. In questo caso, il riconoscimento corretto del fotogramma da sovrapporre all?organo del corpo acquisito a un determinato istante pu? essere eseguito identificando il fotogramma acquisito per il quale l'errore della trasformazione affine del modello in quell?istante ? minimo. Ci? pu? essere realizzato mediante trasformazione matematica o mediante un algoritmo addestrato. Naturalmente, questo pu? essere fatto solo per alcuni degli istanti del modello e l'interpolazione o altri metodi possono essere utilizzati in mezzo.
Addestramento delle reti neurali
Il punto di riferimento che deve essere riconosciuto dall'IA viene deciso in anticipo. Pertanto, l'IA deve essere addestrata a riconoscere immagine per immagine fino a quando non trova i punti di repere.
I punti di repere possono essere aree, quindi in questo caso il posizionamento sul modello dovrebbe essere deciso. Poich? ci? cambierebbe la precisione del posizionamento del dispositivo medico, secondo un aspetto dell'invenzione, l'IA pu? essere addestrata per ottimizzare la sovrapposizione utilizzando pi? di tre punti di repere.
Le Figure 4-6 mostrano un esempio di set di addestramento con due reperi (segmento con motivo a griglia quadrata per il lembo della valvola cardiaca e segmento con motivo a croce per il lembo della valvola cardiaca) e un dispositivo medico (segmento con motivo a linea obliqua).
Esempi specifici di IA dell?invenzione
Situazione esemplificativa
Un sistema basato sull?intelligenza artificiale ? stato sviluppato per identificare il dispositivo per la riparazione valvolare Mitraclip<TM >(prodotta da Abbott per suturare i lembi delle valvole cardiache) nei video acquisiti come sequenze temporali di viste ecocardiografiche 2D.
In particolare:
- Ciascun fotogramma del video ? analizzato per segmentare il dispositivo;
- Il risultato del modello ? la segmentazione binaria della Mitraclip<TM >in ciascun fotogramma.
Descrizione del set di dati e pre-processamento
Facendo riferimento alle Figure. da 4 a 6, le immagini salvate durante le esecuzioni di ecocardiografia e le corrispondenti annotazioni costituiscono il punto base di partenza. In particolare, per ciascuna immagine, le annotazioni mostrano la Mitraclip<TM >come un segmento con motivo a linea obliqua, mentre i lembi della valvola mitrale sono identificati come segmenti a griglia quadrata e a motivi incrociati.
Le immagini sono state acquisite mentre veniva eseguita l?ecocardiografia in modalit? 2D o 3D e con le sonde di due diversi produttori. In particolare:
- 186 immagini da ecocardiografia 2D acquisite con una sonda GE;
- 823 immagini da ecocardiografia 2D acquisite con una sonda Philips;
- 166 immagini da ecocardiografia 3D acquisite con una sonda GE;
- 216 immagini da ecocardiografia 3D acquisite con una sonda Philips.
Durante un primo test, sono state utilizzate solo immagini da ecocardiografia 2D con sonda Philips, ma lo sviluppo del modello ha sfruttato tutti i tipi di immagini al fine di aumentare le dimensioni del set di dati.
L'addestramento, la validazione e il set di test sono stati creati in modo casuale (scelta casuale tra le immagini), con un seme fisso, ma con il vincolo di includere tutte le immagini dalla stessa acquisizione ecocardiografica nello stesso set. Circa il 10% dell'intero set di dati disponibile ? stato incluso nel set di test, il 10% nel set di dati di convalida e il restante 80% nel set di addestramento.
Per identificare il dispositivo nella costruzione della maschera (la maschera ? un'immagine gemella sovrapposta all'immagine originale, nell'immagine gemella sono presenti le aree segmentate) vengono selezionati i pixel con il motivo a linea obliqua, mentre quelli a griglia quadrata e quelli con il motivo a croce sono considerati per definire i lembi. La costruzione della maschera a partire dall'annotazione consente di includere o meno i lembi mitralici. Nel primo caso la maschera ? 3D, includendo due canali in riferimento ai lembi mitralici (in generale, ciascun canale pu? corrispondere a un oggetto segmentato), mentre nel secondo ? bidimensionale.
Struttura della rete neurale
Considerando la finalit? di segmentare una immagine 2-dimensionale (pi? in generale, una immagine N-dimensionale, ad esempio 3-dimensionale, ovvero di ecocardiografia o fluoroscopia o di altro sistema di acquisizione di immagini), ? stato scelto di utilizzare una rete neurale UNET, a partire da un modello standard disponibile presso https://github.com/milesial/Pytorch-UNet/blob/master/unet/unet_model.py. ? stato scelto di addestrare il modello minimizzando il valore complementare allo score Dice.
La rete neurale pu? avere una o due classi in uscita, a seconda della necessit? di identificare solo il dispositivo medico o anche i foglietti della valvola mitrale. Se entrambi devono essere segmentati, viene calcolato il valor medio degli errori delle due uscite. ? stata inclusa anche la possibilit? di addestrare il modello alla casistica di Dropout, ovvero, alla assenza sia del dispositivo medicale che dei foglietti della valvola.
Ciascun gruppo contiene 16 immagini; la velocit? e il peso della curva di apprendimento sono stati inizializzati rispettivamente a 1e-3 e 1e-4. La velocit? di apprendimento ? stata aggiornata ogni 800 epoche, con un valore di gamma pari a 0,618.
Sono state applicate diverse trasformazioni alle immagini prima di utilizzarle come ingressi per la rete neurale. Nello specifico, le immagini hanno subito:
- Rotazione casuale da 0 a 90?;
- Ritaglio casuale in forma quadrata, con la dimensione del lato pari alla dimensione minima della immagine trovata all?interno del gruppo di immagini stesso;
- Specchiatura casuale;
- Modifica causale della luminosit?, se desiderato; - Modifica della dimensione per essere pari a 128x128 pixels.
Le immagini del gruppo di immagini usato per la validazione, invece, sono state solo centrate e ritagliate con la dimensione del lato pari alla dimensione minima della immagine trovata all?interno del gruppo di immagini stesso, e infine modificata per avere una dimensione pari a 128x128 pixels.
Prestazione della rete neurale
La rete neurale ? stata addestrata con le seguenti configurazioni:
1. Rete classica UNET 2D (come da link soprariportato);
2. UNET 2D con modalit? Dropout;
3. UNET 2D con modalit? Dropout e segmentazione foglietti valvolari;
4. UNET 2D con modalit? Dropout, segmentazione foglietti valvolari e trasformazione della luminosit?.
Le prestazioni della rete sono state valutate dall?analisi della segmentazione del dispositivo Mitraclip<TM >nel gruppo di immagini di validazione, e da alcuni test eseguiti su nuovi gruppi di immagine forniti. Le migliori prestazioni sono state raggiunte nel caso 3: in particolare, la segmentazione dei foglietti valvolari ? risultata essere utile nel migliorare il riconoscimento del dispositivo medico stesso. Infatti, riconoscendo le aree di appartenenza ai foglietti valvolari, viene ridotta l?area di ricerca del dispositivo medico. Oltre a ci?, permette di generare dei vincoli relazionali di posizione reciproca tra dispositivo e foglietti. Il grafico di Figura 7 mostra l?andamento dell?errore (perdita) della rete durante il training (curva grigio scuro) e durante la validazione (grigio chiaro).
In Figura 8, vengono mostrati i risultati ottenuti sul gruppo di immagini di validazione. La riga in alto riporta i risultati per la segmentazione del dispositivo Mitraclip<TM>, mentre la riga in basso quelli di segmentazione dei foglietti valvolari. In entrambe le righe, l?immagine a sinistra mostra la predizione della rete neurale sovrapposta alla immagine clinica ritagliata, l?immagine centrale mostra la segmentazione originale fornita come riferimento, mentre a destra viene mostrata solo la predizione della rete neurale.
In generale, la segmentazione del dispositivo medico risulta migliore della segmentazione dei foglietti valvolari, che in alcuni casi appare errata o incompleta, come nei casi mostrati in Figura 9. La rete di segmentazione del dispositivo Mitraclip<TM >appare accurata e si adatta alla forma del dispositivo meglio dell? approssimazione lineare fornita come riferimento per la segmentazione stessa.
Applicazione del modello a video ecocardiografici
Il modello di rete (algoritmo esperto) ? stato utilizzato per identificare il dispositivo Mitraclip<TM >in video acquisiti da un sistema ecocardiografico: i video sono sequenze temporali di immagini ecocardiografiche 2D.
Il video, una volta acquisito, viene suddiviso nei suoi fotogrammi. Ciascuno di essi viene fornito come ingresso alla rete neurale che fornisce la propria predizione. I risultati relativi ad un gruppo di fotogrammi sono nuovamente raggruppati come sequenza temporale e convertiti in un video con formato .mp4.
Al fine di migliorare la resa grafica del video, si ? scelto di aggiungere la possibilit? di estendere la predizione della rete per ciascun fotogramma anche a n immagini precedenti e successive con un valore incrementale di opacit?: ci? permette di ottenere delle segmentazioni pi? uniformi e quindi un video pi? stabile nel tempo.
Vantaggi della invenzione
La tecnologia dell?invenzione permette di effettuare una supervisione remota virtuale, la quale permette ad un ospedale di consultare i migliori medici esperti nel mondo.
Essa permette inoltre a un supervisore di eseguire in rapida sequenza una serie di sessioni di supervisione in localit? tra loro distanti e differenti che non potrebbero essere altrimenti raggiunte velocemente: questo aumenta la copertura di ospedali da parte dello stesso supervisore esperto.
Inoltre, permette di effettuare un supporto in ?emergenza?, ovvero un supporto di supervisione che non era previsto dovesse essere effettuato. Ci? ? particolarmente vantaggioso nei casi in cui delle complicazioni inaspettate si presentino durante casi di intervento pi? o meno complessi, per i quali non ? stato possibile preventivare l?intervento del supervisore.
Nella descrizione qui sopra, le preferite forme di realizzazione dell?invenzione sono state descritte e alcune sue varianti suggerite, ma rimane inteso che gli esperti del settore saranno in grado di fare modifiche e ottenere alternative senza discostarsi altres? dal corrispondente ambito di protezione, come definito dalle seguenti rivendicazioni.

Claims (14)

  1. RIVENDICAZIONI 1. Metodo per visualizzare, su di un dispositivo olografico remoto (112), un flusso di immagini medicali acquisite in un sito di intervento, comprendente l?esecuzione dei seguenti punti: A. Acquisizione di un flusso di immagini medicali tramite un apparato di acquisizione medicale (101) di un organo del corpo di un paziente, nel quale organo del corpo di un paziente viene inserito un dispositivo medicale durante un intervento; B. Trasmissione del flusso di immagini medicali (102) verso una macchina virtuale su Server (105); C. Riconoscimento, tramite algoritmo esperto (107), attivo su detta macchina virtuale, della posizione e dell?orientamento del dispositivo medicale e di almeno due punti di repere anatomici su almeno un sottogruppo di immagini nel flusso di immagini medicali; D. Generazione di una sovrapposizione grafica su detto sottogruppo di immagini per l?identificazione della posizione e dell?orientamento del dispositivo medicale, ottenendo un flusso di immagini con sovrapposizione grafica; E. Riformattazione (108) del flusso di immagini con sovrapposizione grafica in un segnale video; e F. Invio del segnale video al dispositivo olografico remoto (112) per la visualizzazione.
  2. 2. Metodo secondo la rivendicazione 1, nel quale nella fase A sono acquisite immagini ecocardiografiche, ad esempio durante una procedura chirurgica transcatetere, e gli almeno due punti di repere anatomici sono i foglietti della valvola mitrale sull?inserzione annulare.
  3. 3. Metodo secondo le rivendicazioni 1 o 2, nel quale nella fase B la trasmissione ? effettuata tramite protocollo di Streaming video User Datagram Protocol (UDP) con destinazione l?indirizzo pubblico della macchina virtuale su Server.
  4. 4. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 3, nel quale l?elemento grafico sovrapposto ? un segmento.
  5. 5. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 4, nel quale tra la fase E e la fase F il segnale video ? codificato cos? da ottimizzare la dimensione di trasmissione compatibilmente con protocollo di Streaming video WebRTC.
  6. 6. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 5, nel quale nella fase B la macchina virtuale si trova all?interno di un ambiente di Multi-access Edge Computing.
  7. 7. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 6, nel quale le fasi D ed E sono effettuate su una macchina virtuale che ? differente da quella utilizzata per effettuare la fase C.
  8. 8. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 7, nel quale la seguente fase ? effettuata contemporaneamente alla fase F: G. Invio del segnale video a un dispositivo olografico locale (103) per la visualizzazione olografica sul luogo di intervento.
  9. 9. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 8, nel quale il Server (105) ? un Server con tecnologia 5G.
  10. 10. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 9, nel quale durante la fase E il segnale video ? ulteriormente processato da un generatore di videocamera virtuale (109).
  11. 11. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 10, nel quale nella fase C gli almeno due punti di repere anatomici riconosciuti sono usati per sovraimporre graficamente il flusso di immagini su un modello pre-calcolato dell?organo del paziente.
  12. 12. Metodo secondo la rivendicazione 11, nel quale nella fase A vengono acquisite una serie di immagini di un organo del corpo di un paziente, in cui la forma dell?organo differisce in almeno un sottogruppo di fotogrammi dell?organo stesso, e in cui il modello precalcolato dell?organo ? anch?esso costituito da una serie di fotogrammi, le seguenti fasi sono eseguite per sovrapporre graficamente i fotogrammi dell?organo acquisito ai fotogrammi del modello:S1. Per ogni fotogramma, viene calcolata una trasformazione rigida affine, per almeno un sottogruppo dei fotogrammi acquisiti dell?organo verso i fotogrammi del modello; S2. Per ciascun fotogramma del modello, viene sovrapposto al modello pre-calcolato uno specifico fotogramma acquisito, in cui il fotogramma specifico minimizza l?errore di stima della trasformazione rigida affine della fase S1.
  13. 13. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 12, nel quale il dispositivo olografico remoto (112) ? un dispositivo virtuale integrato in un robot che ? configurato per controllare il dispositivo medicale.
  14. 14. Server, in cui il Server ? configurato per poter eseguire le fasi C, D, E secondo una qualsiasi delle rivendicazioni da 1 a 13.
IT102020000007252A 2020-04-06 2020-04-06 Metodo di tracciamento di un dispositivo medico in tempo reale a partire da immagini ecocardiografiche per la supervisione olografica remota IT202000007252A1 (it)

Priority Applications (5)

Application Number Priority Date Filing Date Title
IT102020000007252A IT202000007252A1 (it) 2020-04-06 2020-04-06 Metodo di tracciamento di un dispositivo medico in tempo reale a partire da immagini ecocardiografiche per la supervisione olografica remota
US17/917,496 US20230154606A1 (en) 2020-04-06 2021-04-01 Real-time medical device tracking method from echocardiographic images for remote holographic proctoring
PCT/IB2021/052728 WO2021205292A1 (en) 2020-04-06 2021-04-01 Real-time medical device tracking method from echocardiographic images for remote holographic proctoring
EP21716552.1A EP4132411A1 (en) 2020-04-06 2021-04-01 Real-time medical device tracking method from echocardiographic images for remote holographic proctoring
JP2023503519A JP2023520741A (ja) 2020-04-06 2021-04-01 ホログラフィックによる遠隔プロクタリングのための、心エコー画像からの医療機器のリアルタイムトラッキング方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102020000007252A IT202000007252A1 (it) 2020-04-06 2020-04-06 Metodo di tracciamento di un dispositivo medico in tempo reale a partire da immagini ecocardiografiche per la supervisione olografica remota

Publications (1)

Publication Number Publication Date
IT202000007252A1 true IT202000007252A1 (it) 2021-10-06

Family

ID=70978505

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102020000007252A IT202000007252A1 (it) 2020-04-06 2020-04-06 Metodo di tracciamento di un dispositivo medico in tempo reale a partire da immagini ecocardiografiche per la supervisione olografica remota

Country Status (5)

Country Link
US (1) US20230154606A1 (it)
EP (1) EP4132411A1 (it)
JP (1) JP2023520741A (it)
IT (1) IT202000007252A1 (it)
WO (1) WO2021205292A1 (it)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112259255A (zh) * 2019-07-22 2021-01-22 阿尔法(广州)远程医疗科技有限公司 一种可进行全息投影的远程会诊系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090311655A1 (en) * 2008-06-16 2009-12-17 Microsoft Corporation Surgical procedure capture, modelling, and editing interactive playback
US20120188352A1 (en) * 2009-09-07 2012-07-26 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept of superimposing an intraoperative live image of an operating field with a preoperative image of the operating field
US20120191464A1 (en) * 2011-01-21 2012-07-26 Intouch Technologies, Inc. Telerobotic System with a Dual Application Screen Presentation
WO2017165301A1 (en) * 2016-03-21 2017-09-28 Washington University Virtual reality or augmented reality visualization of 3d medical images
WO2018140415A1 (en) * 2017-01-24 2018-08-02 Tietronix Software, Inc. System and method for three-dimensional augmented reality guidance for use of medical equipment
WO2019051464A1 (en) * 2017-09-11 2019-03-14 Lang Philipp K INCREASED REALITY DISPLAY FOR VASCULAR AND OTHER INTERVENTIONS, COMPENSATION FOR CARDIAC AND RESPIRATORY MOVEMENT
US20190183577A1 (en) * 2017-12-15 2019-06-20 Medtronic, Inc. Augmented reality solution to optimize the directional approach and therapy delivery of interventional cardiology tools
US20190339525A1 (en) * 2018-05-07 2019-11-07 The Cleveland Clinic Foundation Live 3d holographic guidance and navigation for performing interventional procedures

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102214789B1 (ko) * 2012-04-16 2021-02-09 칠드런스 내셔널 메디컬 센터 수술 및 중재 시술에서 추적 및 제어를 위한 듀얼-모드 스테레오 이미징 시스템
US9984206B2 (en) * 2013-03-14 2018-05-29 Volcano Corporation System and method for medical resource scheduling in a distributed medical system
US9648060B2 (en) * 2013-11-27 2017-05-09 General Electric Company Systems and methods for medical diagnostic collaboration
US20150254998A1 (en) * 2014-03-05 2015-09-10 Drexel University Training systems
US20190310819A1 (en) * 2018-04-10 2019-10-10 Carto Technologies, LLC Augmented reality image display systems and methods
US11412033B2 (en) * 2019-02-25 2022-08-09 Intel Corporation 5G network edge and core service dimensioning

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090311655A1 (en) * 2008-06-16 2009-12-17 Microsoft Corporation Surgical procedure capture, modelling, and editing interactive playback
US20120188352A1 (en) * 2009-09-07 2012-07-26 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept of superimposing an intraoperative live image of an operating field with a preoperative image of the operating field
US20120191464A1 (en) * 2011-01-21 2012-07-26 Intouch Technologies, Inc. Telerobotic System with a Dual Application Screen Presentation
WO2017165301A1 (en) * 2016-03-21 2017-09-28 Washington University Virtual reality or augmented reality visualization of 3d medical images
WO2018140415A1 (en) * 2017-01-24 2018-08-02 Tietronix Software, Inc. System and method for three-dimensional augmented reality guidance for use of medical equipment
WO2019051464A1 (en) * 2017-09-11 2019-03-14 Lang Philipp K INCREASED REALITY DISPLAY FOR VASCULAR AND OTHER INTERVENTIONS, COMPENSATION FOR CARDIAC AND RESPIRATORY MOVEMENT
US20190183577A1 (en) * 2017-12-15 2019-06-20 Medtronic, Inc. Augmented reality solution to optimize the directional approach and therapy delivery of interventional cardiology tools
US20190339525A1 (en) * 2018-05-07 2019-11-07 The Cleveland Clinic Foundation Live 3d holographic guidance and navigation for performing interventional procedures

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KOSAKA A ET AL: "AUGMENTED REALITY SYSTEM FOR SURGICAL NAVIGATION USING ROBUST TARGET VISION", PROCEEDINGS 2000 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION. CVPR 2000. HILTON HEAD ISLAND, SC, JUNE 13-15, 2000; [PROCEEDINGS OF THE IEEE COMPUTER CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION], LOS ALAMITOS, CA : IEEE COMP., 13 June 2000 (2000-06-13), pages 187 - 194, XP001035639, ISBN: 978-0-7803-6527-8 *
NETTER, FRANK H.: "Atlas Of Human Anatomy", 2011, SAUNDERS/ELSEVIER

Also Published As

Publication number Publication date
EP4132411A1 (en) 2023-02-15
JP2023520741A (ja) 2023-05-18
WO2021205292A1 (en) 2021-10-14
US20230154606A1 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
US11723724B2 (en) Ultra-wideband positioning for wireless ultrasound tracking and communication
Zhang et al. Task driven generative modeling for unsupervised domain adaptation: Application to x-ray image segmentation
JP6463038B2 (ja) 画像位置合せ装置、方法およびプログラム
CN106605257B (zh) 医学成像中具有空间和时间约束的界标检测
CN201029876Y (zh) 骨科手术导航系统
US20210082566A1 (en) Systems and methods for brain hemorrhage classification in medical images using an artificial intelligence network
CN102369529A (zh) 用于图像引导治疗规划的自动解剖结构描绘
JP6876090B2 (ja) 医療システムの作動方法及び外科手術を行うための医療システム
CN107249464A (zh) 荧光成像中的鲁棒钙化跟踪
TW202006738A (zh) 應用機器學習的醫學影像分析方法及其系統
EP4150603A1 (en) Surgical simulation object rectification system
WO2022212010A3 (en) Artificial intelligence training with multiple pulsed x-ray source-in-motion tomosynthesis imaging system
IT202000007252A1 (it) Metodo di tracciamento di un dispositivo medico in tempo reale a partire da immagini ecocardiografiche per la supervisione olografica remota
Wang et al. A DCNN system based on an iterative method for automatic landmark detection in cephalometric X-ray images
JP2010069208A (ja) 画像処理装置、画像処理方法および画像処理用プログラム
Shao et al. Augmented reality navigation with real-time tracking for facial repair surgery
KR20200058316A (ko) 인공지능 기술을 활용한 치과용 두부 계측점 자동 추적 방법 및 그를 이용한 서비스 시스템
Xu et al. AI-CHD: an AI-based framework for cost-effective surgical telementoring of congenital heart disease
CN109903264A (zh) 数字人图像与ct图像的配准方法及系统
KR102084598B1 (ko) 뼈 병변 수술을 위한 ai 기반의 수술 보조 시스템
TWI754259B (zh) 神經檢測方法及裝置
CN114387259A (zh) 用于预测缺失牙坐标的方法与装置及识别模型的训练方法
KR20210000855A (ko) 신경 위치 보정 방법 및 장치
US20240153031A1 (en) System for and method of real-time nonrigid mosaicking of laparoscopy images
US20240135601A1 (en) Method, device, and system for providing medical augmented reality image using artificial intelligence