IT202100016502A1 - Metodo di segmentazione automatica del seno coronario - Google Patents

Metodo di segmentazione automatica del seno coronario Download PDF

Info

Publication number
IT202100016502A1
IT202100016502A1 IT102021000016502A IT202100016502A IT202100016502A1 IT 202100016502 A1 IT202100016502 A1 IT 202100016502A1 IT 102021000016502 A IT102021000016502 A IT 102021000016502A IT 202100016502 A IT202100016502 A IT 202100016502A IT 202100016502 A1 IT202100016502 A1 IT 202100016502A1
Authority
IT
Italy
Prior art keywords
image
coronary
axial
training
sagittal
Prior art date
Application number
IT102021000016502A
Other languages
English (en)
Inventor
Petrovich Mikhail Chmelevskii
Aleksandr Sinitca
Anastasiia Fadeeva
Werner Rainer
Original Assignee
Xspline S P A
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xspline S P A filed Critical Xspline S P A
Priority to IT102021000016502A priority Critical patent/IT202100016502A1/it
Priority to EP22179913.3A priority patent/EP4123581A3/en
Priority to US17/846,311 priority patent/US20220414882A1/en
Publication of IT202100016502A1 publication Critical patent/IT202100016502A1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Evolutionary Computation (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Databases & Information Systems (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Cardiology (AREA)
  • Dentistry (AREA)
  • Quality & Reliability (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Laser Surgery Devices (AREA)
  • Paper (AREA)

Description

DESCRIZIONE
del brevetto per invenzione industriale dal titolo:
?METODO DI SEGMENTAZIONE AUTOMATICA DEL SENO CORONARIO"
La presente invenzione riguarda un metodo di segmentazione automatica del seno coronario, in particolare mediante le reti neurali. Inoltre, la presente invenzione riguarda un computer per eseguire detto metodo e un prodotto di programma per computer correlato. In particolare, il metodo genera una maschera 3D di seno coronario del paziente in base a un'immagine 3D acquisita attraverso un apparecchio TC.
Come noto, la segmentazione di immagini medicali ha un ruolo essenziale nei sistemi di diagnosi con l'ausilio computerizzato in diverse applicazioni. Il vasto investimento e il vasto sviluppo di modalit? di immaginografia medicale quali microscopia, dermoscopia, raggi X, ultrasuoni, tomografia computerizzata (TC), immaginografia a risonanza magnetica (MRI) e tomografia a emissione di positroni attraggono i ricercatori per implementare nuovi algoritmi di elaborazione di immagini medicali. La segmentazione di immagini ? considerata il processo di immaginografia medicale pi? essenziale poich? estrae la regione di interesse (ROI, Region Of Interest) attraverso un processo semiautomatico o automatico. Essa divide un'immagine in aree in base a una descrizione specificata, per esempio segmentazione di organi/tessuti corporei nelle applicazioni medicali per rilevamento di bordi, rilevamento/segmentazione di tumore e rilevamento di massa.
Attualmente, la segmentazione di immagini medicali viene eseguita manualmente, semi-automaticamente o automaticamente. Ciononostante, la segmentazione manuale e semiautomatica comporta generalmente molto tempo: nel caso della segmentazione del seno coronario, la segmentazione manuale eseguita da un cardiologo esperto pu? impiegare approssimativamente 1 ora. Inoltre, nella segmentazione manuale ? implicato un fattore umano e quindi i risultati potrebbero essere privi di precisione e riproducibilit?.
Inoltre, per strutture anatomiche complesse quale il seno coronario, gli algoritmi noti non funzionano poich? la struttura del seno coronario varia significativamente da un paziente ad un altro paziente e questa variazione non pu? essere determinata tramite algoritmi generalmente noti.
Secondo la presente invenzione, sono forniti un metodo per segmentazione automatica del seno coronario mediante reti neurali, un computer per eseguire detto metodo e un prodotto di programma per computer correlato, come definito nelle rivendicazioni allegate.
Per una migliore comprensione della presente invenzione, vengono ora descritte le sue forme di realizzazione preferite, puramente a titolo di esempio non limitativo e in riferimento ai disegni allegati, in cui:
- la figura 1 mostra schematicamente un'apparecchiatura medicale, secondo una forma di realizzazione della presente invenzione;
- la figura 2 mostra un'immagine 3D di una regione del corpo comprendente un seno coronario, acquisita per mezzo dell'apparecchiatura medicale della figura 1, secondo una forma di realizzazione della presente invenzione;
- la figura 3 ? un diagramma a blocchi che mostra schematicamente un metodo di segmentazione di seno coronario basato sull'immagine 3D della figura 2, secondo una forma di realizzazione della presente invenzione;
- la figura 4 ? un diagramma che mostra schematicamente le fasi del metodo di identificazione di seno coronario della figura 3, secondo una forma di realizzazione della presente invenzione;
- la figura 5 ? un diagramma a blocchi che mostra schematicamente un metodo di addestramento di un modello di rete neurale implementato nel metodo di identificazione di seno coronario della figura 3, secondo una forma di realizzazione della presente invenzione;
- la figura 6 ? un diagramma a blocchi che mostra schematicamente le fasi del metodo di segmentazione di seno coronario basato sull'immagine 3D della figura 2, secondo una diversa forma di realizzazione della presente invenzione;
- la figura 7 mostra un modello 3D del seno coronario, ottenuto attraverso i metodi di segmentazione di seno coronario delle figure 3 e 6;
- la figura 8 mostra graficamente un algoritmo implementato nel metodo di segmentazione di seno coronario della figura 6, secondo una diversa forma di realizzazione della presente invenzione; e
- le figure 9A e 9B mostrano una porzione del seno coronario in una condizione di vena perpendicolare.
La figura 1 mostra, in un sistema di riferimento cartesiano a tre assi definito dagli assi X, Y e Z, un'apparecchiatura medicale 1 comprendente un apparecchio medicale 3 e un computer 5, accoppiati operativamente tra loro. In particolare, l'apparecchio medicale 3 ? un apparecchio (o una macchina) per tomografia computerizzata (TC), indicato nel seguito come apparecchio TC 3.
Per esempio, l'apparecchio medicale 3 e il computer 5 sono accoppiati elettricamente tra loro tramite connessioni mediante fili (non mostrato) o sono accoppiati senza fili tra loro (per esempio, tramite unit? trasmittenti/riceventi, non mostrate).
Il computer 5 ?, per esempio, un computer per scopi generali, un cloud, un super computer, un computer personale, un computer portatile, un computer palmare, un dispositivo mobile, un computer tablet, un computer notebook, un computer fisso, un computer di stazione di lavoro, un server o simili. In particolare, il computer 5 comprende un'unit? di elaborazione 7 (per esempio, un processore, un microprocessore o un'unit? di elaborazione centrale) e un supporto di memorizzazione leggibile da computer 9 (una memoria, quale un disco flessibile, un disco rigido, un nastro magnetico, qualsiasi altro supporto magnetico, un CD-ROM, DVD, qualsiasi altro supporto ottico, schede perforate, nastro di carta, una RAM, una PROM, una EPROM, una FLASH-EEPROM), accoppiati tra loro.
In riferimento alla figura 2, durante l'uso l'apparecchio TC 3 acquisisce, in un modo di per s? noto, un'immagine 3D 15 di una regione del corpo di un paziente 11. La regione del corpo ? una regione di interesse del corpo del paziente 11 e comprende una struttura anatomica di interesse del paziente 11 (in particolare un seno coronario mostrato nella figura 7 con il numero di riferimento 100, ovvero il gruppo di vene unite insieme per formare un grande vaso che raccoglie sangue dal muscolo cardiaco e che fornisce sangue meno ossigenato all'atrio destro del paziente 11). Pi? in dettaglio, la regione del corpo comprende il seno coronario e uno o pi? ulteriori tessuti o organi corporei che sono adiacenti al, o in prossimit? del, seno coronario. Pertanto, l'immagine 3D 15 rappresenta sempre il seno coronario del paziente 11; questo ? conseguito mediante programmazione in modo appropriato dell'apparecchio TC 3, in un modo di per s? noto, in modo tale che esso generi e rilevi i raggi orientati in modo da passare attraverso detta regione del corpo.
L'immagine 3D 15, che rappresenta la regione del corpo del paziente 11, ? fornita come un'uscita dell'apparecchio TC 3. In particolare, l'immagine 3D 15 ? una prima matrice 3D avente prime dimensioni (per esempio, avente N righe, M colonne e L livelli, ovvero, NxMxL in cui, per esempio, N=M=L). Per esempio, l'immagine 3D 15 ? in un formato Digital Imaging and Communications in Medicine (DICOM, immaginografia e comunicazioni digitali in medicina). Questo formato consente di memorizzare immagini medicali e anche informazioni sul paziente. I dati personali sono resi anonimi; quindi, non ? richiesto nessun dato del paziente per il metodo proposto. Inoltre, il file DICOM potrebbe presentare le informazioni relative alle coordinate dell'immagine, per esempio, orientamento di immagine, posizione di immagine, spessore di sezione. Questo ? utile quando si esegue la conversione da DICOM a una schiera di immagini 3D.
I dati di ingresso, generati dall'apparecchio TC 3 e includenti l'immagine 3D 15, sono ricevuti dal computer 5. In particolare, i dati di ingresso sono memorizzati nel supporto di memorizzazione 9 e sono elaborati dall'unit? di elaborazione 7 per ottenere una maschera 3D (mostrata nella figura 4 con il numero di riferimento 30) del seno coronario del paziente 11.
Durante l'uso, il computer 5 (in particolare, l'unit? di elaborazione 7) implementa un metodo di identificazione (o segmentazione) 20 per generare la maschera 3D 30 in base ai dati di ingresso (quindi all'immagine 3D 15). In particolare, la figura 3 mostra il metodo di identificazione 20 secondo una forma di realizzazione della presente invenzione.
In una fase S01 del metodo di identificazione 20, i dati di ingresso sono acquisiti attraverso l'apparecchio TC 3 e sono ricevuti dal computer 5 come descritto in precedenza.
In una fase S03 del metodo di identificazione 20, immediatamente dopo la fase S01, l'immagine 3D 15 compresa nei dati di ingresso viene pre-elaborata per generare una serie di immagini 2D (mostrate nella figura 4 con il numero di riferimento 13). In particolare, l'immagine 3D 15 comprende informazioni della regione del corpo lungo tre piani di scansione, anche noti come piani anatomici (qui considerati ortogonali agli assi X, Y e Z, sebbene sia evidente che ogni piano di scansione possa essere una combinazione pesata di piani definiti dagli assi X, Y e Z). Pertanto, nella fase S03 l'immagine 3D 15 viene scomposta nella serie di immagini 2D 13 in modo tale che la serie di immagini 2D 13 comprenda immagini assiali (mostrate nella figura 4 con il numero di riferimento 13a, ogni immagine assiale 13a essendo associata a un rispettivo piano assiale che ? parallelo ad un piano XY definito dagli assi X e Y), immagini sagittali (mostrate nella figura 4 con il numero di riferimento 13b, ogni immagine sagittale 13b essendo associata a un rispettivo piano sagittale che ? parallelo ad un piano XZ definito dagli assi X e Z) e immagini coronarie (mostrate nella figura 4 con il numero di riferimento 13c, ogni immagine coronaria 13c essendo associata a un rispettivo piano coronario che ? parallelo ad un piano YZ definito dagli assi Y e Z). In particolare, ogni immagine assiale 13a ? una rispettiva prima matrice 2D avente seconde dimensioni (per esempio, N righe e L livelli), ogni immagine sagittale 13b ? una rispettiva seconda matrice 2D avente terze dimensioni (per esempio, M colonne e L livelli) e ogni immagine coronaria 13c ? una rispettiva terza matrice 2D avente quarte dimensioni (per esempio, N righe e M colonne).
Opzionalmente, nella fase S03 la serie di immagini 2D 13 ? ulteriormente pre-elaborata tramite normalizzazione. In particolare, viene applicata una standardizzazione a ogni immagine 2D 13, per esempio tramite la seguente formula:
in cui, considerando il j-esimo paziente 11, ? la i-esima immagine 2D normalizzata 13, ? la i-esima immagine 2D di ingresso 13, ? un valore medio dell'immagine 3D del j-esimo paziente e ? un valore di deviazione standard dell'immagine 3D del j-esimo paziente. Nelle immagini TC, x valori sono riferiti a unit? Hounsfield (HU) corrispondenti all'attenuazione di raggi X (che ? diversa per tessuti con diversa densit?).
In una fase S05 del metodo di identificazione 20, immediatamente dopo la fase S03, la serie di immagini 2D 13 ? elaborata in modo iterativo attraverso un primo modello di rete neurale (mostrato nella figura 4 con il numero di riferimento 22).
Il primo modello di rete neurale 22 comprende una pluralit? di reti neurali e in particolare una rete neurale assiale (mostrata nella figura 4 con il numero di riferimento 22a) per elaborare le immagini assiali 13a, una rete neurale sagittale (mostrata nella figura 4 con il numero di riferimento 22b) per elaborare le immagini sagittali 13b e una rete neurale coronaria (mostrata nella figura 4 con il numero di riferimento 22c) per elaborare le immagini coronarie 13c. Ogni rete neurale 22a, 22b, 22c ? addestrata, come descritto meglio di seguito, per generare, in base a ogni immagine 2D 13 ricevuta come ingresso, una rispettiva mappa di probabilit? 2D (mostrata nella figura 4 conta il numero di riferimento 24). In particolare, la rete neurale assiale 22a genera una rispettiva mappa di probabilit? 2D assiale 24a in base a ogni immagine assiale 13a, la rete neurale sagittale 22b genera una rispettiva mappa di probabilit? 2D sagittale 24b in base a ogni immagine sagittale 13b e la rete neurale coronaria 22c genera una rispettiva mappa di probabilit? 2D coronaria 24c in base a ogni immagine coronaria 13c. Ogni mappa di probabilit? 2D 24a, 24b, 24c ? una matrice 2D avente le stesse dimensioni della rispettiva immagine assiale, sagittale o coronaria 13a, 13b, 13c: ogni mappa di probabilit? assiale 2D 24a ? una quarta matrice 2D avente le seconde dimensioni, ogni mappa di probabilit? sagittale 2D 24b ? una quinta matrice 2D avente le terze dimensioni e ogni mappa di probabilit? coronaria 2D 24c ? una sesta matrice 2D avente quarte dimensioni. Ogni cella di tale matrice 2D ? quindi associata a un rispettivo pixel dell'immagine 2D 13 ricevuta come ingresso e ha un rispettivo valore (compreso tra, o uguale a, 0 e 1) indicativo di una probabilit? secondo cui il corrispondente pixel dell'immagine 2D 13 appartiene al seno coronario del paziente 11 (ovvero, secondo cui il corrispondente pixel dell'immagine 2D 13 rappresenta una porzione del seno coronario).
Secondo una forma di realizzazione della presente invenzione, ogni rete neurale 22a, 22b, 22c include due parti: una prima parte, un codificatore, utilizzato per ridurre la risoluzione dell'immagine 2D di ingresso 13 per estrarre informazioni contestuali (ovvero, le caratteristiche delle immagini 2D 13a, 13b, 13c); e una seconda parte conseguente al codificatore, un decodificatore, utilizzata per aumentare la risoluzione delle informazioni contestuali estratte per determinare un'ubicazione esatta della caratteristica di interesse (ovvero, il seno coronario del paziente 11). Per esempio, ogni rete neurale 22a, 22b, 22c ha un'architettura basata su Unet o Linknet. Pi? in dettaglio, ogni rete neurale 22a, 22b, 22c pu? comprendere almeno uno strato convoluzionale, uno strato di aggregazione massima, uno strato di sovracampionamento, uno strato di connessione di salto, uno strato di normalizzazione a lotti, uno strato lineare rettificato, uno strato di concatenazione e qualsiasi altro strato in qualsiasi configurazione appropriata.
In alternativa, ogni rete neurale 22a, 22b, 22c presenta la struttura codificatore-decodificatore descritta in precedenza, ma il codificatore ? sostituito con una rete neurale convoluzionale (CNN, Convolutional Neural Network), per esempio addestrata su grandi insiemi di dati (quale ImageNet) per migliorare ulteriormente l'estrazione delle informazioni contestuali. Esempi di reti neurali convoluzionali utilizzate con un codificatore sono VGG, ResNet e Inception. L'attivit? di segmentazione di una qualche struttura (o di numerose strutture diverse) in un'immagine ? anche denominata segmentazione semantica. Per la segmentazione semantica, questi esempi di CNN sono tecniche dello stato della tecnica. Come ulteriori esempi noti, ? possibile utilizzare reti neurali convoluzionali basate su regioni per l'attivit? di segmentazione semantica. Tutte le architetture descritte sopra possono anche essere denominate estensioni delle classiche reti neurali convoluzionali (CNN) e anche delle reti completamente convoluzionali (FCN, Fully Convolutional Network). ? possibile anche utilizzare versioni pi? semplici di CNN o FCN per l'attivit? di segmentazione semantica. La CNN pu? comprendere strati convoluzionali, di aggregazione, di attivazione e uno strato completamente connesso in corrispondenza dell'estremit?; altri stati, quale uno strato di normalizzazione, possono anche far parte della CNN. La FCN ? simile alla CNN, con l'unica differenza che rispetto alla CNN, la FCN pu? accettare un'immagine di qualsiasi dimensione come ingresso, dato che la FCN utilizza strati convoluzionali 1?1 al posto di strati completamente connessi.
Pertanto, nella fase S05 ogni rete neurale 22a, 22b, 22c genera, in base alla rispettiva immagine 2D di ingresso 13a, 13b, 13c, una rispettiva mappa di probabilit? 2D 24a, 24b, 24c a ogni iterazione (ovvero, in ogni istante temporale o intervallo temporale). Pertanto, la fase S05 viene ripetuta molteplici volte e iterata fino a quando tutte le immagini 2D 13 sono state elaborate e tutte le rispettive mappe di probabilit? 2D 24a, 24b, 24c sono state generate.
In una fase S07 del metodo di identificazione 20, subito dopo la fase S05, le mappe di probabilit? 2D 24a, 24b, 24c ottenute in base a tutte le immagini 2D 13 vengono elaborate per generare la maschera 3D 30. In particolare, la maschera 3D 30 viene generata combinando insieme tutte le mappe di probabilit? 2D 24a, 24b, 24c generate, ottenendo cos? una mappa di probabilit? 3D (mostrata schematicamente nella figura 4 con il numero di riferimento 28) e saturando la mappa di probabilit? 3D 28 generando cos? la maschera 3D 30.
La mappa di probabilit? 3D 28 ? una seconda matrice 3D avente le prime dimensioni (ovvero, come l'immagine 3D 15), in cui ogni cella della matrice 3D ? associata a un rispettivo pixel 3D dell'immagine 3D 15 acquisita e ha un rispettivo valore (compreso tra, o uguale a, 0 e 1) indicativo di una probabilit? secondo cui il corrispondente pixel 3D dell'immagine 3D 15 appartiene al seno coronario del paziente 11 (ovvero, indicativo di una probabilit? secondo cui il corrispondente pixel 3D dell'immagine 3D 15 rappresenta una porzione del seno coronario).
In particolare, le mappe di probabilit? 2D 24a, 24b, 24c generate vengono combinate insieme come complesso a media pesata in modo da consentire che le predizioni sui diversi tipi di piani anatomici contribuiscano in modo proporzionale. Per esempio, la maschera 3D 30 viene generata secondo la seguente formula:
in cui Y ? la mappa di probabilit? 3D 28, ? l'immagine assiale 13a e i ? compreso tra 0 e un numero totale di immagini assiali 13a, ? l'immagine sagittale 13b e j ? compreso tra 0 e un numero totale di immagini sagittali 13b, ? l'immagine coronaria 13c e k ? compreso tra 0 e un numero totale di immagini coronarie 13c, ? un peso assiale per le immagini assiali 13a, ? un peso sagittale per le immagini sagittali 13b e ? un peso coronario per le immagini coronarie 13c. In alternativa, un peso specifico pu? essere assegnato a ogni immagine 2D 13. I pesi per ogni rete neurale 22a, 22b, 22c possono essere impostati a uno stesso valore (in modo tale che ogni rete neurale 22a, 22b, 22c dia lo stesso contributo alla mappa di probabilit? 3D 28) o possono essere calcolati utilizzando tecniche di per s? note, quale una ricerca casuale o una ricerca della griglia. In alternativa, una procedura di ottimizzazione di per s? nota (quale un risolutore lineare o un ottimizzatore a discesa di gradiente, per esempio l'algoritmo XGBoost) pu? essere utilizzata per stimare i pesi utilizzando un vincolo di peso di norma unitario per garantire che la somma dei pesi sia unitaria.
La mappa di probabilit? 3D 28 viene quindi saturata per ottenere la maschera 3D 30. La maschera 3D 30 ? una mappa di segmentazione sotto forma di una terza matrice 3D avente le prime dimensioni (ovvero, come l'immagine 3D 15 e la mappa di probabilit? 3D 28), in cui ogni cella della maschera 3D 30 ? associata a un rispettivo pixel 3D (anche noto come voxel) dell'immagine 3D 15 acquisita e ha un rispettivo valore binario (0 o 1) indicativo dell'appartenenza del pixel 3D considerato dell'immagine 3D 15 al seno coronario del paziente 11 (ovvero, indicativo del fatto che tale pixel dell'immagine 3D 15 rappresenta o meno una porzione del seno coronario).
In particolare, ogni valore di cella della mappa di probabilit? 3D 28 viene confrontato con un valore di soglia: se il valore di cella di mappa di probabilit? 3D considerato ? maggiore del, o uguale al, valore di soglia, il corrispondente valore di cella della maschera 3D 30 ? impostato a 1; altrimenti, se il valore di cella di mappa di probabilit? 3D considerato ? minore del valore di soglia, il corrispondente valore di cella della maschera 3D 30 ? impostato a 0. Il valore di soglia ? determinato durante la progettazione e l'addestramento del primo modello di rete neurale 22. In un caso esemplificativo e non limitativo, il valore di soglia ? compreso tra 0,5 e 1.
Pertanto, la maschera 3D ottenuta 30 ? una maschera che, quando applicata (ovvero, come un prodotto di Hadamard) all'immagine 3D 15 utilizzata per calcolarla, identifica e seleziona il seno coronario scartando qualsiasi altro tessuto od organo corporeo presente nell'immagine 3D 15. Di conseguenza, applicando la maschera 3D 30 all'immagine 3D 15, si ottiene un modello (o rappresentazione) 3D del seno coronario, estrapolato dal suo ambiente originale (per esempio, i tessuti o gli organi adiacenti). In dettaglio, il modello 3D ? una quinta matrice 3D avente prime dimensioni e comprendente una pluralit? di pixel 3D, ogni pixel 3D del modello 3D essendo associato a un rispettivo pixel 3D dell'immagine 3D 15 e avendo un rispettivo valore che ? uguale a un valore del rispettivo pixel 3D dell'immagine 3D 15 nel caso in cui il pixel 3D associato dell'immagine 3D 15 rappresenti il seno coronario o che ? impostato ad un valore predefinito (per esempio, a 0) nel caso in cui il rispettivo pixel 3D dell'immagine 3D 15 non rappresenti il seno coronario. Il modello 3D ? anche mostrato nella figura 7 con il numero di riferimento 50.
In riferimento alla figura 5, viene ora descritto un metodo di addestramento 40 per addestrare ogni rete neurale 22a, 22b, 22c. Il metodo di addestramento 40 pu? essere eseguito prima della fase S01 del metodo di identificazione 20 per addestrare le reti neurali 22a, 22b, 22c e quindi ? un'ulteriore parte del metodo di identificazione 20. Il metodo di addestramento 40 ? descritto in modo esemplificativo in riferimento alla rete neurale assiale 22a, sebbene sia evidente che possa essere applicato analogamente alle reti neurali sagittale e coronaria 22b, 22c cambiando i dati ricevuti come ingresso.
In una fase S20 del metodo di addestramento 40, il computer 5 riceve come ingresso un insieme di dati di addestramento comprendente una pluralit? di dati di ingresso di addestramento (e quindi una rispettiva pluralit? di immagini di addestramento 3D 15) generati dall'apparecchio TC 3 e una rispettiva pluralit? di etichette di addestramento. Ogni etichetta di addestramento ? associata a una rispettiva immagine di addestramento 3D 15 (ovvero, una rispettiva quarta matrice 3D avente le prime dimensioni); ogni cella dell'etichetta 3D 30 ? associata a un rispettivo pixel 3D (anche noto come voxel) dell'immagine 3D acquisita 15 e ha un rispettivo valore binario (1 o 0) indicativo dell'appartenenza o meno del pixel 3D considerato dell'immagine 3D 15 al seno coronario del paziente 11. Le etichette di addestramento sono fornite da un operatore (quale un tecnico esperto nella segmentazione delle immagini di addestramento 3D 15 e nell'identificazione del seno coronario), che segmenta ogni immagine di addestramento 3D 15 attraverso ispezione visiva.
In una fase S22 del metodo di addestramento 40, immediatamente dopo la fase S20, ogni immagine di addestramento 3D 15 dell'insieme di dati di addestramento viene pre-elaborata per generare una rispettiva serie di immagini di addestramento 2D 13, come descritto in precedenza in riferimento alla fase S03 del metodo di identificazione 20. Per ogni serie di immagini di addestramento 2D 13, l'etichetta di addestramento dell'immagine di addestramento 3D 15 che genera detta serie ? associata a ogni immagine di addestramento 2D 13 della serie. Dato che il metodo di addestramento 40 ? descritto in riferimento alla rete neurale assiale 22a, nel seguito vengono considerate soltanto le immagini di addestramento assiali 13a generate dall'insieme di dati di addestramento.
In una fase S24 (opzionale) del metodo di addestramento 40, immediatamente dopo la fase S22, le immagini di addestramento assiali 13a dalla pluralit? di serie di immagini di addestramento 2D 13 vengono elaborate tramite incremento di dati per ottenere immagini di addestramento assiali incrementate 13a (ovvero, un maggior numero di immagini di addestramento assiali 13a). L'incremento di dati ? una tecnica utilizzata per aumentare la diversit? dell'insieme di dati di addestramento all'ingresso di una rete neurale, applicando trasformazioni casuali a tale insieme di dati di addestramento. A ogni immagine di addestramento assiale 13a ? possibile applicare numerose trasformazioni casuali, quali zoom, rotazione, spostamento verticale, spostamento orizzontale, trasformazioni elastiche, contrasto, luminosit?. I parametri della trasformazione casuale sono selezionati empiricamente in modo tale che, dopo le trasformazioni, sia preservato il realismo delle immagini di addestramento assiali 13a incrementate.
In una fase S26 del metodo di addestramento 40, immediatamente dopo la fase S24, ognuna delle immagini di addestramento assiali 13a (incrementata o meno) dalla pluralit? di serie di immagini di addestramento 2D 13 ? impostata come ingresso nella rete neurale assiale 22a. La rete neurale assiale 22a viene quindi addestrata, in base alle immagini di addestramento assiali 13a e per mezzo di un algoritmo di ottimizzazione, per creare un insieme ottimizzato di pesi della rete neurale assiale 22a. L'algoritmo di ottimizzazione ? un algoritmo che determina come vengono calcolati e aggiornati i pesi di una rete neurale in corrispondenza di ogni stadio di addestramento. Esempi di algoritmi di ottimizzazione noti sono Adam, Adagrad e Adadelta. I parametri di sintonizzazione della rete neurale assiale 22a e/o dell'algoritmo di ottimizzazione possono essere regolati empiricamente o per mezzo di una ricerca casuale o della griglia. L'insieme ottimizzato di pesi della rete neurale assiale 22a viene pertanto trovato per mezzo dell'algoritmo di ottimizzazione mentre la rete neurale assiale 22a elabora in modo iterativo le immagini di addestramento assiali 13a generate dall'insieme di dati di addestramento. Una volta completato l'addestramento, l'insieme ottimizzato di pesi della rete neurale assiale 22a viene salvato in un file (per esempio, memorizzato nel supporto di memorizzazione 9) per ulteriore inizializzazione della rete neurale assiale 22a. Oltre all'algoritmo di ottimizzazione, altri iper-parametri utili per l'addestramento sono, per esempio (dato che tutti i parametri dipendono dall'attivit? e possono essere regolati o empiricamente o tramite ricerca della griglia):
? batch_size (dimensione lotto), solitamente varia da 2 a 32, per esempio ? uguale a 16;
? velocit? di apprendimento, per esempio uguale a 5e<-5>; in dettaglio, vi ? un pianificatore per la velocit? di apprendimento che determina il suo comportamento (se viene rispettato un particolare criterio, la velocit? di apprendimento ? diminuita a seconda di una regola specifica), per esempio http://pytorch.org/docs/stable/optim.html#torch.optim.lr_sc heduler.ReduceLROnPlateau;
? numero di epoche, per esempio circa 70 sebbene regolato empiricamente e dipendente dal valore di funzione di perdita (se non cambia per un certo periodo, allora l'addestramento viene interrotto per impedire un eccessivo addestramento (over-fitting);
? funzione di perdita (funzione che influisce sulla regolazione dei pesi), in dettaglio ? possibile utilizzare perdita di Dice.
In una fase S28 (opzionale) del metodo di addestramento 40, immediatamente dopo la fase S26, viene eseguita una validazione della rete neurale assiale 22a con l'insieme ottimizzato di pesi. In particolare, la rete neurale assiale 22a viene testata fornendole come ingresso un insieme di dati di test, analogo all'insieme di dati di addestramento ma basato su dati acquisiti da pazienti diversi da quelli dell'insieme di dati di addestramento. In dettaglio, l'insieme di dati di test comprende una pluralit? di dati di ingresso di test (e quindi una rispettiva pluralit? di immagini 3D 15 di test) generati dall'apparecchio TC 3 e una rispettiva pluralit? di etichette di test. La rete neurale assiale 22a genera una rispettiva pluralit? di mappe di probabilit? 2D assiali di test 24a dalle immagini di test assiali 13a estratte dalle immagini di test 3D 15 dell'insieme di dati di test. Una metrica nota (quale coefficiente di S?rensen-Dice, coefficiente di similarit? di Jaccard o precisione di pixel) viene applicata alle mappe di probabilit? 2D assiali di test 24a per valutare, in base alle etichette di test, la precisione del rilevamento della rete neurale assiale 22a. Per esempio, se la precisione ? maggiore di o uguale a un valore di precisione di soglia (per esempio, che varia tra circa 0,7 e circa 1), la rete neurale assiale 22a avente l?insieme ottimizzato di pesi ? confermata come funzionante correttamente (ovvero, ? adatta all'attivit? di riconoscimento) e pu? essere utilizzata per il metodo di identificazione 20; altrimenti, se la precisione (o l'area ROC) ? minore del valore di precisione di soglia, la rete neurale assiale 22a non ? confermata come funzionante correttamente e viene nuovamente eseguito il metodo di addestramento 40.
Oltre a quanto precede, relativamente all?addestramento, ? possibile utilizzare un modello Unet (comprende parti di codificatore e decodificatore). La parte di codificatore del modello Unet pu? essere sostituita tramite un modello pre-addestrato che ? stato pre-addestrato su un grande insieme di dati, comunemente disponibile. La procedura ? come segue: una CNN (per esempio resnet18, resnet50, resnet101, densenet, vgg16) viene addestrata sul grande insieme di dati (per esempio Imagenet); successivamente, la prima parte (codificatore) del modello Unet viene sostituita con questa rete neurale pre-addestrata (che sostituisce la prima met? con gli strati di architettura e i pesi acquisiti dopo questo preaddestramento); e successivamente l'Unet viene addestrata sull'insieme di dati menzionati in precedenza specifico per la segmentazione del seno coronario. L'architettura del modello pre-addestrato ? scelta o empiricamente o tramite ricerca della griglia. Per esempio, resnet50 (per le reti neurali sagittale e coronaria) e resnet101 (per la rete neurale assiale) sono state scelte e addestrate sull'insieme di dati Imagenet.
Una volta eseguito con successo il metodo di addestramento 40 per ogni rete neurale 22a, 22b, 22c, vengono anche calcolati i pesi del complesso a media pesata, come descritto in precedenza.
La figura 6 mostra il metodo di identificazione 20 secondo una diversa forma di realizzazione della presente invenzione.
In particolare, il metodo di identificazione 20 della figura 6 ? analogo al metodo di identificazione 20 della figura 3 ma comprende anche le fasi aggiuntive eseguite per aumentare ulteriormente la precisione di segmentazione del seno coronario. Queste fasi aggiuntive vengono eseguite in modo iterativo partendo dal modello 3D 50 per ricostruire con precisione la struttura del seno coronario in un approccio fase per fase.
In una fase S50 del metodo di identificazione 20 della figura 6, il modello 3D 50 ? generato come descritto in precedenza in riferimento alla figura 3.
In una fase S52 del metodo di identificazione 20, immediatamente dopo la fase S50, il modello 3D 50 viene elaborato per estrarre un'immagine 2D di partenza 70 dal modello 3D 50. L'immagine 2D di partenza 70 ? un'immagine 2D del modello 3D 50 (ovvero, una sezione del modello 3D), per esempio ortogonale a una delle direzioni del modello 3D 50 (ovvero, ortogonale all'asse X, Y o Z). Come esempio non limitativo, l'immagine 2D di partenza 70 ? considerata nel seguito come una sezione parallela al piano XY e ortogonale all'asse Z. Preferibilmente, l'immagine 2D di partenza 70 ? presa all'incirca a met? della sua lunghezza lungo l'asse Z (per esempio, in corrispondenza di L/2, in cui il modello 3D 50 ha N righe nell'asse X, M colonne nell'asse Y e L livelli nell'asse Z): la scelta di L/2 massimizza la probabilit? di trovare una porzione del seno coronario nell'immagine 2D di partenza 70.
In una fase S54 del metodo di identificazione 20, immediatamente dopo la fase S52, viene rilevato un numero di porzioni del seno coronario (in particolare, un numero di diramazioni del seno coronario) presente nell'immagine 2D di partenza 70 e, per ogni ramo, viene identificata una rispettiva area di interesse all'interno dell'immagine 2D di partenza 70. In dettaglio, l'immagine 2D di partenza 70 viene elaborata per identificare se (e in caso affermativo, quante e in quali posizioni) le diramazioni del seno coronario sono presenti nell'immagine 2D di partenza 70. Per via della forma 3D del seno coronario, ogni ramo ? mostrato in sezione nell'immagine 2D di partenza 70 per mezzo del suo contorno che ha una forma circolare (ovvero, una forma poligonale chiusa), come si pu? vedere nella figura 7 in cui i contorni della ramo nell'immagine 2D di partenza 70 sono identificati con il numero di riferimento 74.
Secondo una forma di realizzazione della presente invenzione, i contorni di ramo 74 vengono identificati elaborando l'immagine 2D di partenza 70 attraverso un secondo modello di rete neurale (anche denominato modello di rete neurale di contorno), discusso meglio nel seguito. In particolare, l'immagine 2D di partenza 70 ? mostrata come ingresso in una prima rete neurale di contorno del secondo modello di rete neurale, che ? addestrato per identificare i contorni di ramo nell'immagine 2D di ingresso (ovvero, per identificare le forme dei contorni di ramo 74 nell'immagine 2D di partenza 70). Di seguito sono forniti ulteriori dettagli relativi al secondo modello di rete neurale.
Inoltre, per ogni contorno di ramo rilevato, vengono identificati nella fase S54 un rispettivo centro (per esempio, il centro di massa) e l'estensione del contorno di ramo. In particolare, per ogni contorno di ramo viene calcolato un rispettivo cerchio racchiudente minimo (ovvero, il cerchio pi? piccolo che racchiude completamente il contorno di ramo 74) e vengono identificati sia il centro sia il raggio del cerchio racchiudente minimo.
Questo centro e questo raggio corrispondono rispettivamente al centro e all'estensione del contorno di ramo.
Se non viene rilevato alcun contorno di ramo, viene scelta una diversa immagine 2D di partenza 70 (ovvero, vengono ripetute le fasi S52 e S54). Se viene rilevato almeno un contorno di ramo, viene identificata la rispettiva area di interesse nell'immagine 2D di partenza 70. In dettaglio, ogni area di interesse ? una porzione 2D dell'immagine 2D di partenza 70, che include il contorno di ramo, ? centrata al centro del contorno di ramo e che ha dimensioni (per esempio, n1xm1, con n1<N e m1<M e per esempio n1=m1) che sono correlate all'estensione del rispettivo contorno di ramo e in particolare ? maggiore del contorno di ramo 74. In questo modo, l'area di interesse rappresenta completamente il contorno di ramo e non viene esclusa da essa nessuna porzione di quest'ultimo. Per esempio, le dimensioni dell'area di interesse sono proporzionali all'estensione del contorno di ramo e, per esempio, n1=m1=k?R1 in cui R1 ? l'estensione del contorno di ramo (ovvero, il raggio del rispettivo cerchio racchiudente minimo) e k ? un coefficiente di moltiplicazione (per esempio, k=2,5).
Pertanto, al termine della fase S54, si determinano sia i contorni di ramo (con i rispettivi centri) sia le rispettive aree di interesse.
La figura 8 mostra, nel piano XZ ortogonale all'immagine 2D di partenza 70, un'area di interesse esemplificativa 72, il rispettivo contorno di ramo 74 e il centro 76 del contorno di ramo 74. Nel seguito, la descrizione riguarda per semplicit? il caso di soltanto un'area di interesse 72 nell'immagine 2D di partenza 70, sebbene sia evidente che si applichi analogamente a ogni area di interesse 72 quando viene identificata una pluralit? di aree di interesse 72 nell'immagine 2D di partenza 70.
In una fase S56 del metodo di identificazione 20, immediatamente dopo la fase S54, viene calcolata una i<-esima >direzione di propagazione 78 per l'area di interesse 72 (denominata anche i<-esima >area di interesse 72). La i-esima direzione di propagazione 78 ?, in corrispondenza della prima iterazione (i=1) del metodo di identificazione 20, una direzione che ? ortogonale alla i<-esima >area di interesse 72 e che passa dal suo centro 76 (nel seguito, denominato i-esimo centro 76); inoltre, la i<-esima >direzione di propagazione 78 ? scelta per avere un verso predefinito (per esempio, verso l'alto lungo l'asse Z), partendo quindi da un primo ciclo globale di segmentazione del seno coronario. Un modo diverso per determinare la i<-esima >direzione di propagazione 78 ? descritto di seguito per le seguenti iterazioni (i>1).
In una fase S58 del metodo di identificazione 20, immediatamente dopo la fase S56, viene determinata una (i+1)<-esima >area di interesse 80. In particolare, la (i+1)-esima area di interesse 80 si estende ortogonalmente alla i-esima direzione di propagazione 78, ? centrata con l'i<-esimo >centro 76 lungo la i<-esima >direzione di propagazione 78 e, per esempio, ? distanziata rispetto alla i<-esima >area di interesse 72 di una distanza predefinita (per esempio, determinata empiricamente e, per esempio, uguale a 2 pixel) misurata lungo la i<-esima >direzione di propagazione 78 tra i centri della i<-esima >e della (i+1)<-esima >area di interesse. In altri termini, la (i+1)<-esima >area di interesse 80 ? selezionata in un'ulteriore immagine 2D (sezione) del modello 3D 50 che ? perpendicolare alla i<-esima >direzione di propagazione 78 e che ? indicata con il numero di riferimento 82 nella figura 8. Inoltre, la (i+1)<-esima >area di interesse 80 ha dimensioni (per esempio, n2xm2, con n2<N e m2<M e per esempio n2=m2) che sono correlate alle dimensioni della i<-esima >area di interesse 72 e in particolare ? maggiore della i<-esima >area di interesse 72. Come esempio, le dimensioni della (i+1)<-esima >area di interesse 80 sono proporzionali alle rispettive dimensioni della i<-esima >area di interesse 72, per esempio, n2=k?n1 e m2=k?m1 (per esempio, k=2,5).
Inoltre, nella fase S58, viene rilevato un certo numero di contorni di ramo nella (i+1)<-esima >area di interesse 80.
Secondo la forma di realizzazione menzionata in precedenza della presente invenzione, i contorni di ramo nella (i+1)<-esima >area di interesse 80 sono identificati mediante elaborazione della (i+1)<-esima >area di interesse 80 attraverso il secondo modello di rete neurale.
In particolare, il secondo modello di rete neurale comprende una pluralit? di reti neurali di contorno (per esempio, CNN, in cui una di esse ? la prima rete neurale di contorno menzionata in precedenza), essendo progettate ognuna per ricevere come ingresso una rispettiva immagine 2D avente dimensioni specifiche (diverse dalle dimensioni delle immagini 2D immesse nelle altre reti neurali di contorno) e per identificare i contorni di ramo in tale immagine 2D. Infatti, dato che il diametro di una vena pu? variare significativamente, l'area di ricerca del secondo modello di rete neurale dovrebbe variare di conseguenza (per esempio, da 2 a 512 pixel); ? molto difficile arrivare ad una architettura di rete neurale unica che fornisca segmentazione di contorno di ramo ugualmente precisa per tale grande variazione di dimensione dei contorni di ramo, cos? sono state utilizzate numerose reti neurali qui, ognuna delle quali ? responsabile di un ingresso di un particolare intervallo di larghezza. In particolare, ogni rete neurale ha una particolare "dimensione di ingresso di rete neurale", ovvero non pu? assumere nessun'altra forma come ingresso. Se la dimensione della (i+1)<-esima >area di interesse 80 non corrisponde alla dimensione di ingresso di una delle reti neurali di contorno, la (i+1)<-esima >area di interesse 80 viene ridimensionata alla forma di ingresso pi? vicina accettata da una delle reti neurali di contorno. Questo avviene tramite metodi di interpolazione noti (per esempio, https://docs.opencv.org/3.4/da/d54/group__imgproc__transfor m.html#ga5bb5a1fea74ea38e1a5445ca803ff121, per esempio tramite interpolazione bilineare). Come esempio non limitativo, il secondo modello di rete neurale comprende quattro reti neurali di contorno: la prima rete neurale di contorno riceve come ingresso immagini 2D con prime dimensioni di ingresso (per esempio, 352 pixel, per le (i+1)<-esime >aree di interesse 80 con dimensioni che variano, per esempio, da 160 a 512 pixel); una seconda rete neurale di contorno riceve come ingresso immagini 2D con seconde dimensioni di ingresso (per esempio, 128 pixel, per le (i+1)<-esime >aree di interesse 80 con dimensioni che variano, per esempio, da 96 a 159 pixel); una terza rete neurale di torno riceve come ingresso immagini 2D con terze dimensioni di ingresso (per esempio, 64 pixel, per le (i+1)<-esime >aree di interesse 80 con dimensioni che variano, per esempio, da 48 a 95 pixel); e una quarta rete neurale di contorno riceve come ingresso immagini 2D con quarte dimensioni di ingresso (per esempio, 32 pixel, per le (i+1)<-esime >aree di interesse 80 con dimensioni che variano, per esempio, da 2 a 47 pixel). L'architettura di ogni rete neurale di contorno ? analoga a quella delle reti neurali descritte in precedenza (per esempio, 22a, 22b e 22c) e non verr? ulteriormente discussa. Relativamente all'addestramento del secondo modello di rete neurale, di seguito sono forniti ulteriori dettagli.
Pertanto, la (i+1)<-esima >area di interesse 80 viene ridimensionata (se necessario) e viene considerata come ingresso dalla corrispondente rete neurale di contorno che, elaborandola, emette una rispettiva mappa di probabilit? 2D in cui ogni pixel ? indicativo della propriet? secondo cui questo pixel appartiene al seno coronario. In dettaglio, se la (i+1)<-esima >area di interesse 80 viene ridimensionata, anche la corrispondente mappa di probabilit? 2D viene ridimensionata per avere le stesse dimensioni della (i+1)-
<esima >area di interesse 80 di partenza. La mappa di probabilit? 2D viene quindi elaborata in modo tale da generare una corrispondente maschera 2D delle diramazioni del seno coronario nella (i+1)<-esima >area di interesse 80. Questo viene effettuato analogamente a quanto descritto prima, ovvero i valori della mappa di probabilit? 2D vengono confrontati con un valore di soglia (compreso tra 0 e 1 e, per esempio, tra 0,5 e 1) e ogni pixel della mappa di probabilit? 2D avente un valore che ? maggiore del o uguale al valore di soglia ? assegnato a 1, altrimenti a 0. L'uscita del secondo modello di rete neurale ? quindi la maschera 2D che rappresenta i contorni di ramo del seno coronario.
Generalmente, lo stesso ramo di vena del seno coronario che ? presente nella i<-esima >area di interesse 72 sar? anche presente nella (i+1)<-esima >area di interesse 80. Ci? nonostante, il ramo di vena del seno coronario che ? presente nella i<-esima >area di interesse 72 potrebbe essere assente nella (i+1)<-esima >area di interesse 80 se questo ramo di vena terminasse tra la i<-esima >e la (i+1)<-esima >area di interesse 72, 80; un'altra possibilit? ? che il ramo di vena nella i<-esima >area di interesse 72 si divida in due (o pi?) diramazioni di vena tra la i<-esima >e la (i+1)<-esima >area di interesse 72, 80 in modo tale che sia rilevata una pluralit? di contorni di ramo nella (i+1)<-esima >area di interesse 80.
Inoltre, per ogni contorno di ramo rilevato nella (i+1)<-esima >area di interesse 80 (esemplificativamente una nella figura 8 e indicata con il numero di riferimento 84), un centro e un'estensione rispettivi del contorno di ramo 84 vengono identificati nella fase S58 analogamente a quanto descritto in precedenza. Nella figura 8, il centro (nel seguito, denominato anche (i+1)<-esimo >centro) del contorno di ramo 84 ? indicato con il numero di riferimento 86.
Pertanto, al termine della fase S58, vengono determinati sia la (i+1)<-esima >area di interesse sia i rispettivi contorni di ramo (con i rispettivi centri).
In una fase S60 del metodo di identificazione 20, immediatamente dopo la fase S58, viene verificata una condizione di interruzione. In particolare, la condizione di interruzione viene verificata quanto non viene rilevato alcun contorno di ramo in una qualsiasi (i+1)<-esima >area di interesse 80 in corrispondenza dell'iterazione i. In altri termini, se non viene rilevato alcun contorno di seno coronario per un dato ramo di vena (per esempio, per la (i+1)<-esima >area di interesse 80) ci? significa che questa estremit? del ramo di vena ? stata completamente segmentata (ovvero, termina un ciclo locale); inoltre, se sono state segmentate completamente tutte le estremit? delle vene nel primo ciclo globale, il primo ciclo globale termina. Se viene rispettata la condizione di interruzione e il primo ciclo globale ? stato terminato, il metodo di identificazione 20 procede ad una fase S62, altrimenti ritorna alla fase S56 con una nuova iterazione.
In dettaglio, se non viene rispettata la condizione di interruzione vengono ripetute le fasi da S56 a S60 per l'iterazione i+1, ovvero viene calcolata una nuova direzione di propagazione ((i+1)<-esima >direzione di propagazione), viene generata una nuova area di interesse ((i+2)<-esima >area di interesse) e vengono rilevati i corrispondenti contorni di ramo.
In corrispondenza delle iterazioni i>1 e in una condizione predefinita, la direzione di propagazione ? determinata come la direzione che collega gli ultimi due centri delle aree di interesse che sono state rilevate. In altri termini, considerando esemplificativamente i=2, la 2<a >direzione di propagazione (indicata nella figura 8 con il numero di riferimento 88) ? la direzione che collega l'i-esimo centro 76 con il (i+1)<-esimo >centro 86.
Pi? in dettaglio, secondo una forma di realizzazione, la i<-esima >direzione di propagazione viene calcolata per i>1 secondo la seguente formula:
in cui P[n] ? il centro dell'area di interesse in corrispondenza dell'interazione n e S ? un coefficiente di moltiplicazione (per esempio, uguale alla distanza predefinita tra la (i+1)<-esima >area di interesse 80 e la i-
<esima >area di interesse 72 e, per esempio, uguale a 2 pixel).
Secondo una diversa forma di realizzazione, la i<-esima >direzione di propagazione viene calcolata per i>1 secondo la seguente formula:
con, per esempio,
in cui F(P) ? una funzione filtro.
Ci? nonostante, se viene rilevata una condizione di vena perpendicolare (mostrata nelle figure 9A e 9B), la i-esima direzione di propagazione viene determinata diversamente da quanto discusso in precedenza. La condizione di vena perpendicolare viene verificata quando il ramo di vena si divide in due diramazioni di vena che si estendono in prosecuzione tra loro, quasi lungo la stessa direzione (ovvero, quando il ramo di vena si biforca in due diramazioni di vena formando sostanzialmente una connessione a forma di T).
La condizione di vena perpendicolare viene rilevata quando l'estensione di un ramo di vena, quando confrontata con la rispettiva area di interesse, ? maggiore di una soglia; infatti, dato che l'area di interesse ? determinata in base all'estensione del ramo di vena in corrispondenza della precedente iterazione, avere in corrispondenza dell'attuale iterazione un ramo di vena che ? troppo grande rispetto a quella che ci si pu? aspettare significa che il contorno visibile in corrispondenza dell'attuale iterazione ? effettivamente indicativo della sezione di unione delle due diramazioni di vena, come mostrato nella figura 9A. Pi? in dettaglio, la condizione di vena perpendicolare viene rilevata quando, in corrispondenza di una attuale iterazione, un rapporto tra il numero di pixel di confine indicativi del contorno di ramo e il numero complessivo di pixel di confine (ovvero, i pixel in corrispondenza dei confini dell'attuale area di interesse) ? maggiore di un valore di soglia (per esempio, quando Gcont/Gtot>Gsoglia, con per esempio Gsoglia=0,1).
Pertanto, se utilizzando l'approccio predefinito per determinare la direzione di propagazione viene verificata la condizione di vena perpendicolare, le fasi per calcolare la direzione di propagazione e l'area di interesse consecutiva vengono ripetute utilizzando il seguente approccio: al posto di una singola direzione di propagazione, vengono utilizzate una prima e una seconda direzione di propagazione in corrispondenza dell'attuale iterazione per determinare le rispettive aree di interesse (che sono indicative di rispettive diramazioni di vena), come mostrato nella figura 9B. In particolare, la prima e una seconda direzione di propagazione D1 e D2 definiscono angoli predefiniti ? e ? (opposti tra loro) rispetto ad una direzione Dort ortogonale all'attuale area di interesse. Per esempio, gli angoli ? e ? variano da circa ?30? a circa ?60? e per esempio sono uguali a circa ?45?.
Se, d'altra parte, viene rispettata la condizione di interruzione (fase S62, limitatamente dopo la fase S60) le fasi da S54 a S60 vengono ripetute scegliendo la i<-esima >direzione di propagazione 78 in corrispondenza della prima iterazione (i=1) come direzione opposta rispetto alla i<-esima >direzione di propagazione 78 scelta in precedenza in corrispondenza della prima iterazione (i=1). Per esempio, se la 1<a >direzione di propagazione 78 scelta in precedenza punta verso l'alto lungo l'asse Z, la 1<a >direzione di propagazione 78 attualmente scelta punta verso il basso lungo l'asse Z. In questo modo, viene eseguito un secondo ciclo globale di segmentazione del seno coronario per segmentare il seno coronario sotto l'immagine 2D di partenza 70, ottenendo cos? una segmentazione completa del seno coronario (ovvero, su entrambi i lati dell'immagine 2D di partenza 70).
Dopo la fase S62 il metodo di identificazione 20 termina.
Il metodo di addestramento per il secondo modello di rete neurale ? analogo al metodo di addestramento 40 della figura 5 e quindi non verr? ulteriormente descritto. Opzionalmente, l'unica differenza ? che la generazione delle immagini 2D viene effettuata creando patch partendo dal modello 3D 50 e generando anche patch 2D casuali di forme e posizioni diverse, in un modo di per s? noto.
Da quanto ? stato descritto e illustrato in precedenza, sono evidenti i vantaggi della presente invenzione.
Il metodo di identificazione 20 consente di implementare un riconoscimento automatico del seno coronario del paziente 11. Questo porta ad una riduzione del tempo richiesto per tale riconoscimento e al fatto che il metodo di identificazione 20 pu? essere eseguito anche da operatori non specificatamente addestrati nella segmentazione di immagini medicali acquisite attraverso l'apparecchio TC 3 (ovvero, da parte di operatori diversi da tecnici altamente addestrati).
Il metodo di identificazione 20, essendo eseguito automaticamente dal computer 5, impedisce errori, inesperienza o negligenza umani che possono comportare la segmentazione in modo errato delle immagini medicali, con effetti benefici sulla salute dei pazienti 11 che possono ora essere diagnosticati correttamente e quindi trattati medicalmente in modo adatto.
La precisione del riconoscimento del seno coronario varia da circa 0,65 a circa 1, il che ? comparabile alla precisione della segmentazione manuale tramite ispezione visiva.
Inoltre, le immagini medicali possono presentare artefatti quali rumore e movimento e la forma del seno coronario pu? variare da un paziente ad un altro paziente, e anche la sua prominenza. Il metodo di identificazione 20 ? a prova di rumore e movimento e prende in considerazione informazioni spaziali, per via della presenza delle reti neurali 22a, 22b, 22c e pertanto ? un metodo adatto per il riconoscimento e la segmentazione del seno coronario.
Infine, ? evidente che possono essere apportate modifiche e variazioni a quanto ? stato descritto e illustrato nella presente, senza scostarsi cos? dall'ambito di protezione della presente invenzione, come definito nelle rivendicazioni allegate.
Per esempio, al posto di utilizzare un approccio 2D per la segmentazione, pu? essere scelto un approccio 3D. In altri termini, la segmentazione mediante reti neurali pu? essere effettuata tramite dati di ingresso 3D al posto di quelli 2D. In questo caso, l'architettura viene cambiata da CNN 2D a CNN 3D (per esempio unet3D https://arxiv.org/pdf/1606.06650.pdf; l'architettura e la stessa ad eccezione del fatto che tutti gli strati sono cambiati in 3D), i valori di ingresso per le reti neurali sono immagini 3D e le corrispondenti uscite sono maschere di predizione 3D.
Per il metodo di identificazione della figura 3, la predizione pu? essere effettuata o sull'intera immagine 3D (per esempio, immagine 512*512*N) o su patch 3D sovrapposte. Da ogni immagine di ingresso, possono essere selezionati cubi sovrapposti con una dimensione e un passo specifici (per esempio, cubi 64*64*64 e dimensione di passo tra questi cubi sovrapposti pari a 32 pixel) e la predizione risultante ? la maschera comprendente valori medi o massimi delle predizioni sui cubi (per esempio, se diversi cubi condividono lo stesso voxel, il valore di uscita della maschera 3D in tale voxel ? il valore medio o massimo di tutte le predizioni).
Per il metodo di identificazione della figura 6, si applica la stessa discussione come gi? descritto: vengono estratti cubi 3D di interesse (per esempio, estrazione di cubi che comprendono ognuno la corrispondente area di interesse 2D o estrazione di cubi ruotati i cui assi z sono paralleli alle direzioni di propagazione) e utilizzati come ingressi nel secondo modello di rete neurale emettendo una maschera 3D, le direzioni di propagazione sono determinate in base a questa predizione e le fasi vengono ripetute.

Claims (19)

RIVENDICAZIONI
1. Metodo (20) per identificare un seno coronario di un paziente (11), comprendente le fasi di:
- acquisire, tramite un apparecchio medicale di acquisizione di immagini 3D (3) accoppiato operativamente ad un computer (5), un'immagine 3D (15) di una regione del corpo del paziente (11), la regione del corpo comprendendo il seno coronario;
- ricevere (S01), mediante il computer (5), l'immagine 3D (15);
- estrarre (S03), mediante il computer (5), immagini assiali 2D (13a) dell'immagine 3D (15) prese lungo rispettivi piani assiali, immagini sagittali 2D (13b) dell'immagine 3D (15) prese lungo rispettivi piani sagittali ortogonali ai piani assiali, e immagini coronarie 2D (13c) dell'immagine 3D (15) prese lungo rispettivi piani coronari ortogonali ai piani assiali e ai piani sagittali;
- elaborare (S05), mediante il computer (5), ogni immagine assiale 2D (13a) tramite una rete neurale assiale (22a) per generare una rispettiva mappa di probabilit? assiale 2D (24a), ogni immagine sagittale 2D (13b) tramite una rete neurale sagittale (22b) per generare una rispettiva mappa di probabilit? sagittale 2D (24b), e ogni immagine coronaria 2D (13c) tramite una rete neurale coronaria (22c) per generare una rispettiva mappa di probabilit? coronaria 2D (24c),
in cui ogni mappa di probabilit? assiale 2D (24a) comprende una pluralit? di celle, ognuna essendo associata a un rispettivo pixel della rispettiva immagine assiale 2D (13a) e avendo un rispettivo valore indicativo di una rispettiva probabilit? che detto rispettivo pixel della rispettiva immagine assiale 2D (13a) rappresenti il seno coronario del paziente (11),
in cui ogni mappa di probabilit? sagittale 2D (24b) comprende una pluralit? di celle, ognuna essendo associata a un rispettivo pixel della rispettiva immagine sagittale 2D (13b) e avendo un rispettivo valore indicativo di una rispettiva probabilit? che detto rispettivo pixel della rispettiva immagine sagittale 2D (13b) rappresenti il seno coronario del paziente (11), e
in cui ogni mappa di probabilit? coronaria 2D (24c) comprende una pluralit? di celle, ognuna essendo associata a un rispettivo pixel della rispettiva immagine coronaria 2D (13c) e avendo un rispettivo valore indicativo di una rispettiva probabilit? che detto rispettivo pixel della rispettiva immagine coronaria 2D (13c) rappresenti il seno coronario del paziente (11);
- combinare insieme (S07), mediante il computer (5), le mappe di probabilit? assiali 2D (24a), le mappe di probabilit? sagittali 2D (24b) e le mappe di probabilit? coronarie 2D (24c) per ottenere una mappa di probabilit? 3D (28) comprendente una pluralit? di celle, ognuna essendo associata a un rispettivo pixel dell'immagine 3D (15) e avendo un rispettivo valore indicativo di una rispettiva probabilit? che detto rispettivo pixel dell'immagine 3D (15) rappresenti il seno coronario del paziente (11); e
- generare (S07), mediante il computer (5), una maschera 3D (30) del seno coronario del paziente (11) in base alla mappa di probabilit? 3D (28), la maschera 3D (30) comprendendo una pluralit? di celle, ognuna essendo associata a un rispettivo pixel dell'immagine 3D (15) e avendo un rispettivo valore binario indicativo del fatto che detto rispettivo pixel dell'immagine 3D (15) rappresenta il seno coronario del paziente (11).
2. Metodo secondo la rivendicazione 1, in cui l'immagine 3D (15) ? una prima matrice 3D avente prime dimensioni,
in cui ogni immagine assiale 2D (13a) ? una rispettiva prima matrice 2D avente seconde dimensioni, ogni immagine sagittale 2D (13b) ? una rispettiva seconda matrice 2D avente terze dimensioni e ogni immagine coronaria 2D (13c) ? una rispettiva terza matrice 2D avente quarte dimensioni, in cui ogni mappa di probabilit? assiale 2D (24a) ? una quarta matrice 2D avente le seconde dimensioni, ogni mappa di probabilit? sagittale 2D (24b) ? una quinta matrice 2D avente le terze dimensioni, e ogni mappa di propriet? coronaria 2D (24c) ? una sesta matrice 2D avente le quarte dimensioni,
in cui la mappa di probabilit? 3D (28) ? una seconda matrice 3D avente le prime dimensioni, e
in cui la maschera 3D (30) ? una terza matrice 3D avente le prime dimensioni.
3. Metodo secondo la rivendicazione 1 o 2, in cui l'elaborazione (S05) di ogni immagine assiale 2D (13a) comprende utilizzare una struttura di codifica assiale per ricevere ogni immagine assiale 2D (13a) e per generare rispettive caratteristiche assiali, e utilizzare una struttura di decodifica assiale per ricevere le rispettive caratteristiche assiali e per generare la rispettiva mappa di probabilit? assiale 2D (24a),
in cui l'elaborazione (S05) di ogni immagine sagittale 2D (13b) comprende utilizzare una struttura di codifica sagittale per ricevere ogni immagine sagittale 2D (13b) e per generare rispettive caratteristiche sagittali, e utilizzare una struttura di decodifica sagittale per ricevere le rispettive caratteristiche sagittali e per generare la rispettiva mappa di probabilit? sagittale 2D (24b),
in cui l'elaborazione (S05) di ogni immagine coronaria 2D (13c) comprende utilizzare una struttura di codifica coronaria per ricevere ogni immagine coronaria 2D (13c) e per generare rispettive caratteristiche coronarie, e utilizzare una struttura di decodifica coronaria per ricevere le rispettive caratteristiche coronarie e per generare la rispettiva mappa di probabilit? coronaria 2D (24c).
4. Metodo secondo una qualsiasi delle precedenti rivendicazioni, in cui la fase di estrarre (S03) le immagini assiali 2D (13a), le immagini sagittali 2D (13b) e le immagini coronarie 2D (13c) comprende inoltre normalizzare le immagini assiali 2D (13a), le immagini sagittali 2D (13b) e le immagini coronarie 2D (13c) tramite standardizzazione.
5. Metodo secondo una qualsiasi delle precedenti rivendicazioni, in cui la fase di combinare insieme (S07) le mappe di probabilit? assiali 2D (24a), le mappe di probabilit? sagittali 2D (24b) e le mappe di probabilit? coronarie 2D (24c) comprende calcolare la mappa di probabilit? 3D (28) come insieme di medie pesate delle mappe di probabilit? assiali 2D (24a), delle mappe di probabilit? sagittali 2D (24b) e delle mappe di probabilit? coronarie 2D (24c).
6. Metodo secondo una qualsiasi delle precedenti rivendicazioni, in cui la fase di generare (S07) la maschera 3D (30) comprende confrontare il rispettivo valore di ogni cella della mappa di probabilit? 3D (28) con un valore di probabilit? di soglia e, in base a tale confronto, impostare il rispettivo valore binario della corrispondente cella della maschera 3D (30).
7. Metodo secondo una qualsiasi delle precedenti rivendicazioni quando dipendente dalla rivendicazione 2, comprendente inoltre le fasi di:
- acquisire, tramite l'apparecchio medicale di acquisizione di immagini 3D (3), immagini di addestramento 3D (15) della regione del corpo del paziente (11), ogni immagine di addestramento 3D (15) essendo una rispettiva quarta matrice 3D avente le prime dimensioni;
- ricevere (S20), mediante il computer (5), le immagini di addestramento 3D (15);
- per ogni immagine di addestramento 3D (15), estrarre (S22), mediante il computer (5), immagini assiali di addestramento 2D (13a) dell'immagine di addestramento 3D (15) prese lungo i piani assiali, immagini sagittali di addestramento 2D (13b) dell'immagine di addestramento 3D (15) prese lungo i piani sagittali, e immagini coronarie di addestramento 2D (13c) dell'immagine di addestramento 3D (15) prese lungo i piani coronari,
in cui ogni immagine assiale di addestramento 2D (13a) ? una rispettiva settima matrice 2D avente le seconde dimensioni, ogni immagine sagittale di addestramento 2D (13b) ? una rispettiva ottava matrice 2D avente le terze dimensioni e ogni immagine coronaria di addestramento 2D (13c) ? una rispettiva nona matrice 2D avente le quarte dimensioni; e
- addestrare in modo supervisionato (S26), mediante il computer (5), la rete neurale assiale (22a) in base alle immagini assiali di addestramento 2D (13a) estratte dalle immagini di addestramento 3D (15), la rete neurale sagittale (22b) in base alle immagini sagittali di addestramento 2D (13b) estratte dalle immagini di addestramento 3D (15), e la rete neurale coronaria (22c) in base alle immagini coronarie di addestramento 2D (13c) estratte dalle immagini di addestramento 3D (15).
8. Metodo secondo la rivendicazione 7, in cui la fase di addestrare (S26) la rete neurale assiale (22a), la rete neurale sagittale (22b) e la rete neurale coronaria (22c) comprende utilizzare un algoritmo di ottimizzazione.
9. Metodo secondo la rivendicazione 7 o la rivendicazione 8, comprendente inoltre applicare (S24) tecniche di incremento (?augmentation?) di dati alle immagini assiali di addestramento 2D (13a), alle immagini sagittali di addestramento 2D (13b) e alle immagini coronarie di addestramento 2D (13c).
10. Metodo secondo una qualsiasi delle rivendicazioni da 7 a 9, in cui la fase di estrarre (S22) le immagini assiali di addestramento 2D (13a), le immagini sagittali di addestramento 2D (13b) e le immagini coronarie di addestramento 2D (13c) comprende inoltre normalizzare le immagini assiali di addestramento 2D (13a), le immagini sagittali di addestramento 2D (13b) e le immagini coronarie di addestramento 2D (13c) tramite standardizzazione.
11. Metodo secondo una qualsiasi delle precedenti rivendicazioni, in cui l'apparecchio medicale di acquisizione di immagini 3D (3) ? una macchina per tomografia computerizzata, TC.
12. Metodo secondo una qualsiasi delle precedenti rivendicazioni, comprendente inoltre la fase di applicare la maschera 3D (30) all'immagine 3D (15) per generare un modello 3D (50) del seno coronario del paziente (11), il modello 3D (50) comprendendo una pluralit? di pixel, ognuno essendo associato a un rispettivo pixel dell'immagine 3D (15) e avendo un rispettivo valore:
uguale ad un valore del rispettivo pixel dell'immagine 3D (15), se il pixel associato dell'immagine 3D (15) rappresenta il seno coronario; o
impostato ad un valore predefinito, se il rispettivo pixel dell'immagine 3D (15) non rappresenta il seno coronario.
13. Metodo secondo la rivendicazione 12, in cui il modello 3D (50) ? ottenuto come prodotto di Hadamard dell'immagine 3D (15) e della maschera 3D (30).
14. Metodo secondo la rivendicazione 12 o 13, comprendente inoltre le fasi di:
estrarre (S52) un'immagine 2D di partenza (70) dal modello 3D (50);
verificare (S54) la presenza nell'immagine 2D di partenza (70) di uno o pi? contorni di ramo (74), ognuno essendo indicativo di un rispettivo ramo di vena del seno coronario;
per ogni contorno di ramo (74) rilevato nell'immagine 2D di partenza (70):
a) determinare una prima area di interesse (72) dell'immagine 2D di partenza (70), comprendente il contorno di ramo (74);
b) calcolare una prima direzione di propagazione (78) ortogonale alla prima area di interesse (72) e passante attraverso un centro (76) del contorno di ramo (74);
c) determinare un'ulteriore area di interesse (80) in un'ulteriore immagine 2D (82) del modello 3D (50), ortogonale alla prima direzione di propagazione (78);
d) verificare (S54) la presenza nell'ulteriore area di interesse (80) di uno o pi? contorni di ramo (84);
e) per ogni contorno di ramo (84) rilevato nella fase d), calcolare una direzione di propagazione aggiornata (88) passante attraverso un centro (86) del contorno di ramo considerato (84), e ripetere le fasi da c) a e) con la direzione di propagazione aggiornata (88) finch? non viene rispettata una condizione di interruzione.
15. Metodo secondo la rivendicazione 14, in cui, in una condizione predefinita, la direzione di propagazione aggiornata (88) connette il centro (86) del contorno di ramo considerato (84) rilevato in un?attuale iterazione e un centro del contorno di ramo rilevato in una iterazione immediatamente precedente, detti contorni di ramo essendo sezioni 2D di uno stesso ramo di vena del seno coronario, e in cui, in una condizione di vena perpendicolare in cui il contorno di ramo considerato (84) rilevato nell'attuale iterazione ? indicativo di una biforcazione della ramo di vena considerata del seno coronario, vengono determinate due direzioni di propagazione (D1, D2) simmetriche tra loro rispetto ad una direzione (Dort) ortogonale al contorno di ramo rilevato nell'iterazione immediatamente precedente, ogni direzione di propagazione (D1, D2) essendo indicativa di un rispettivo ramo di vena biforcata che ha origine dal ramo di vena considerato del seno coronario.
16. Metodo secondo la rivendicazione 14 o 15, in cui la condizione di interruzione viene rispettata quando, in una attuale iterazione, non viene rilevato alcun contorno di ramo (84) in alcuna ulteriore area di interesse (80).
17. Metodo secondo una qualsiasi delle rivendicazioni da 14 a 16, in cui verificare (S54) la presenza di uno o pi? contorni di ramo (84) nell'immagine 2D di partenza (70) e nell'ulteriore area di interesse (80) comprende elaborare l'immagine 2D di partenza (70) e, rispettivamente, l'ulteriore area di interesse (80) tramite tecniche di apprendimento approfondito.
18. Computer (5) comprendente un'unit? di elaborazione (7) accoppiabile operativamente ad un apparecchio medicale di acquisizione di immagini 3D (3) e configurato per implementare un metodo (20) per identificare un seno coronario di un paziente (11), secondo una qualsiasi delle rivendicazioni da 1 a 17.
19. Prodotto di programma per computer memorizzabile in un computer (5) avente un'unit? di elaborazione (7) accoppiabile operativamente ad un apparecchio medicale di acquisizione di immagini 3D (3), il programma per computer essendo progettato in modo tale che, quando eseguito, l'unit? di elaborazione (7) risulti configurata per implementare un metodo (20) per identificare un seno coronario di un paziente (11), secondo una qualsiasi delle rivendicazioni da 1 a 17.
IT102021000016502A 2021-06-23 2021-06-23 Metodo di segmentazione automatica del seno coronario IT202100016502A1 (it)

Priority Applications (3)

Application Number Priority Date Filing Date Title
IT102021000016502A IT202100016502A1 (it) 2021-06-23 2021-06-23 Metodo di segmentazione automatica del seno coronario
EP22179913.3A EP4123581A3 (en) 2021-06-23 2022-06-20 Method for automatic segmentation of coronary sinus
US17/846,311 US20220414882A1 (en) 2021-06-23 2022-06-22 Method for automatic segmentation of coronary sinus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102021000016502A IT202100016502A1 (it) 2021-06-23 2021-06-23 Metodo di segmentazione automatica del seno coronario

Publications (1)

Publication Number Publication Date
IT202100016502A1 true IT202100016502A1 (it) 2022-12-23

Family

ID=77802009

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102021000016502A IT202100016502A1 (it) 2021-06-23 2021-06-23 Metodo di segmentazione automatica del seno coronario

Country Status (3)

Country Link
US (1) US20220414882A1 (it)
EP (1) EP4123581A3 (it)
IT (1) IT202100016502A1 (it)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180061058A1 (en) * 2016-08-26 2018-03-01 Elekta, Inc. Image segmentation using neural network method
US9968257B1 (en) * 2017-07-06 2018-05-15 Halsa Labs, LLC Volumetric quantification of cardiovascular structures from medical imaging
US20200320751A1 (en) * 2019-04-06 2020-10-08 Kardiolytics Inc. Autonomous segmentation of contrast filled coronary artery vessels on computed tomography images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180061058A1 (en) * 2016-08-26 2018-03-01 Elekta, Inc. Image segmentation using neural network method
US9968257B1 (en) * 2017-07-06 2018-05-15 Halsa Labs, LLC Volumetric quantification of cardiovascular structures from medical imaging
US20200320751A1 (en) * 2019-04-06 2020-10-08 Kardiolytics Inc. Autonomous segmentation of contrast filled coronary artery vessels on computed tomography images

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BASKARAN ID LOHENDRAN ET AL: "Automatic segmentation of multiple cardiovascular structures from cardiac computed tomography angiography images using deep learning Icahn School of Medicine at Mount Sinai, Mount Sinai Heart", 6 May 2020 (2020-05-06), XP055896253, Retrieved from the Internet <URL:https://journals.plos.org/plosone/article/file?id=10.1371/journal.pone.0232573&type=printable> [retrieved on 20220301] *
CUI HEJIE ET AL: "Pulmonary Vessel Segmentation Based on Orthogonal Fused U-Net++ of Chest CT Images", 10 October 2019, COMPUTER VISION - ECCV 2020 : 16TH EUROPEAN CONFERENCE, GLASGOW, UK, AUGUST 23-28, 2020 : PROCEEDINGS; [LECTURE NOTES IN COMPUTER SCIENCE ; ISSN 0302-9743], SPRINGER INTERNATIONAL PUBLISHING, CHAM, PAGE(S) 293 - 300, ISBN: 978-3-030-58594-5, XP047522316 *
FANTAZZINI ALICE ET AL: "3D Automatic Segmentation of Aortic Computed Tomography Angiography Combining Multi-View 2D Convolutional Neural Networks", CARDIOVASCULAR ENGINEERING AND TECHNOLOGY, SPRINGER INTERNATIONAL PUBLISHING, CHAM, vol. 11, no. 5, 11 August 2020 (2020-08-11), pages 576 - 586, XP037253898, ISSN: 1869-408X, [retrieved on 20200811], DOI: 10.1007/S13239-020-00481-Z *

Also Published As

Publication number Publication date
EP4123581A3 (en) 2023-04-19
US20220414882A1 (en) 2022-12-29
EP4123581A2 (en) 2023-01-25

Similar Documents

Publication Publication Date Title
JP7039153B2 (ja) 敵対的生成ネットワークを使用した画像強調
AU2019449137B2 (en) sCT image generation using cyclegan with deformable layers
US10062207B2 (en) Method and system for reconstructing a three-dimensional model of point clouds
JP6986654B1 (ja) 機械学習及び画像処理アルゴリズムを用いて医用画像の血管を自動的にセグメンテーションする方法及びシステム
US10709394B2 (en) Method and system for 3D reconstruction of X-ray CT volume and segmentation mask from a few X-ray radiographs
US9445777B2 (en) Projection image generation apparatus, program and method
CN109635876B (zh) 为生理树结构生成解剖标签的计算机实现的方法、装置和介质
CN110517238B (zh) Ct医学影像ai三维重建与人机交互可视化网络系统
CN106132354B (zh) 制造用于软骨修复的外科装备的方法和节点
RU2595757C2 (ru) Устройство совмещения изображений
US20200401854A1 (en) Method and system for image segmentation and identification
US10548552B2 (en) Method and device for generating anatomical labels for a physiological tree structure
US9652862B1 (en) System and method for dynamic device tracking using medical imaging systems
CN106716488A (zh) 分析主动脉瓣钙化
CN117115150B (zh) 用于确定分支血管的方法、计算设备和介质
CN110599444B (zh) 预测血管树的血流储备分数的设备、系统以及非暂时性可读存储介质
AU2020223750B2 (en) Method and System for Image Annotation
CN105708548A (zh) 用于识别供应区的方法、用于对供应区进行图形表示的方法、及其成像设备
IT202100016502A1 (it) Metodo di segmentazione automatica del seno coronario
US20220198667A1 (en) Method and device for extracting blood vessel wall
KR102250173B1 (ko) 기계 학습 및 영상 처리 알고리즘을 이용하여 의료 영상의 혈관들을 자동으로 영역화하는 방법 및 시스템
US20220378383A1 (en) Target area determination method and medical imaging system
Anić et al. Improved Three-Dimensional Reconstruction of Patient-Specific Carotid Bifurcation Using Deep Learning Based Segmentation of Ultrasound Images
WO2024079160A1 (en) Interactive image segmentation of abdominal structures
Omondi Exploiting Semantic Segmentation For Efficient CTA Bone Segmentation