IT201800001656A1 - Metodo di elaborazione di immagini e metodo per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine, sistema per l’elaborazione di immagini e sistema per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine - Google Patents

Metodo di elaborazione di immagini e metodo per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine, sistema per l’elaborazione di immagini e sistema per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine Download PDF

Info

Publication number
IT201800001656A1
IT201800001656A1 IT201800001656A IT201800001656A IT201800001656A1 IT 201800001656 A1 IT201800001656 A1 IT 201800001656A1 IT 201800001656 A IT201800001656 A IT 201800001656A IT 201800001656 A IT201800001656 A IT 201800001656A IT 201800001656 A1 IT201800001656 A1 IT 201800001656A1
Authority
IT
Italy
Prior art keywords
image
pixels
pixel
images
processing
Prior art date
Application number
IT201800001656A
Other languages
English (en)
Inventor
Damiano Baldassarre
Mauro Amato
Elena Tremoli
Paolo Massimo Buscema
Original Assignee
Centro Cardiologico Spa Fond Monzino In Forma Abbreviata Centro Cardiologico Monzino Spa
Semeion Centro Ricerche
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centro Cardiologico Spa Fond Monzino In Forma Abbreviata Centro Cardiologico Monzino Spa, Semeion Centro Ricerche filed Critical Centro Cardiologico Spa Fond Monzino In Forma Abbreviata Centro Cardiologico Monzino Spa
Priority to IT201800001656A priority Critical patent/IT201800001656A1/it
Priority to PCT/IB2019/050520 priority patent/WO2019145849A1/en
Publication of IT201800001656A1 publication Critical patent/IT201800001656A1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Description

DESCRIZIONE dell'Invenzione Industriale dal titolo: “Metodo di elaborazione di immagini e metodo per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine, sistema per l’elaborazione di immagini e sistema per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine”
TESTO DELLA DESCRIZIONE
Background dell’invenzione
L’invenzione ha per oggetto un metodo per l’elaborazione di immagini in cui ciascuna immagine è costituita da un insieme di punti immagine, cosiddetti pixel o voxel in particolare rispettivamente in uno spazio a due, tre o più dimensioni essendo ciascun punto immagine univocamente definito dalla sua posizione nell’insieme di punti immagine e da uno o più parametri numerici che definiscono l’aspetto del punto immagine relativamente alle caratteristiche di luminosità, gradazione di grigio, colore o simili ed in cui i detti parametri numerici vengono elaborati per mezzo di uno o di una combinazione di algoritmi non lineari, predittivi o di classificazione per determinare caratteristiche qualitative e quantitative dei tessuti corrispondenti ai pixel od ai voxel dell’immagine o caratteristiche morfologiche e/o dimensionali e/o di posizionamento di oggetti la cui riproduzione nell’immagine è corrispondente a gruppi di pixel o di voxel, le quali caratteristiche qualitative e quantitative dei tessuti corrispondenti ai pixel od ai voxel dell’immagine o caratteristiche morfologiche e/o dimensionali e/o di posizionamento di oggetti la cui riproduzione nell’immagine è corrispondente a gruppi di pixel o di voxel costituiscono indicazioni di ausilio alla diagnosi.
Le dette caratteristiche qualitative possono essere l’indicazione della tipologia di tessuto che corrisponde al pixel o voxel dell’immagine. Le caratteristiche quantitative possono costituire l’identificazione delle diverse tipologie di tessuti, la loro posizione relativa e le distribuzioni dei diversi tessuti in diverse zone dell’immagine e/o le distanze fra le dette diverse zone caratterizzate dai diversi tipi di tessuti in particolare le posizioni relative delle interfacce fra le diverse tipologie di tessuti.
Attualmente esistono diverse tipologie di metodi di elaborazione di immagini capaci di estrarre informazioni quantitative e qualitative da uno o più parametri numerici descrittivi dell’aspetto di un pixel o di un voxel in una immagine digitale. Questi metodi prevedono l’utilizzo di diversi algoritmi o di diverse combinazioni di algoritmi.
Fra gli algoritmi predittivi o di classificazione sono note ed utilizzate le cosiddette reti neurali. Questi algoritmi consentono di estrarre le relazioni analiticamente non definibili fra grandezze. Le reti per poter operare devono essere sottoposte ad una fase di training iniziale che utilizza dati relativi a casi noti, cioè dati in cui sono noti i parametri descrittivi dell’aspetto di ciascun pixel o voxel di una immagine essendo per ciascun pixel o voxel noti gli associati valori qualitativi e/o quantitativi. Raccogliendo un certo numero di diverse immagini e diversi esiti diagnostici noti relativi ai singoli pixel e voxel delle immagini è possibile generare un database di casi noti e la rete viene addestrata mediante input dei parametri descrittivi dell’aspetto dei pixel e dei voxel ed impostazione degli output ai valori descrittivi della qualità e/o quantità note per ciascun pixel o voxel. La fase di training modifica i parametri dei singoli nodi ovvero delle funzioni di attivazione e di trasferimento dei segnali fra i singoli nodi in modo tale da soddisfare i vincoli imposti dai dati dei casi noti. Generalmente la fase di training viene seguita da una fase di testing in cui una parte dei record del database dei casi noti, preventivamente esclusa dal database utilizzato per l’addestramento viene utilizzata per verificare le prestazioni predittive o di classificazione della rete stessa.
Oltre ad esistere diverse tipologie di algoritmi predittivi o di classificazione, nell’ambito di una tipologia sono possibili diverse varianti di impostazione della rete che sono relative a parametri come ad esempio il numero di cicli di iterazione, le funzioni di apprendimento, ed altri parametri.
Generalmente quindi i metodi di elaborazione di immagini per l’estrazione di parametri qualitativi e/o quantitativi producono una notevole quantità di risultati alternativi. Nel caso in cui i risultati siano la ri-elaborazione dell’intera immagine allo scopo di far risaltare o mettere in evidenza caratteristiche qualitative e/o quantitative e/o morfologiche dei tessuti la pluralità di risultati alternativi si traduce in una grande quantità di immagini di output dell’elaborazione, ciascuna delle quali richiederebbe una visione da parte di almeno un medico esperto per valutare l’affidabilità dell’indicazione.
Fra gli algoritmi predittivi per l’elaborazione di immagini allo scopo di estrarre dalle stesse indicazioni sulla qualità e/o morfologia e/o su parametri quantitativi che caratterizzano i tessuti riprodotti dai singoli pixel o voxel dell’immagine sono noti ad esempio metodi ed algoritmi di elaborazione, in cui ciascun pixel o voxel costituisce un nodo di una rete neurale artificiale, essendo ciascun pixel o voxel connesso con ciascuno dei pixel o voxel ad esso adiacenti che circondano detto pixel o voxel, grazie ad un vettore di connessioni ciascuna delle cui componenti descrive rispettivamente un parametro numerico di caratterizzazione della connessione di un pixel con un pixel adiacente, venendo il detto insieme di pixel o voxel e l’insieme delle dette connessioni sottoposto iterativamente ad un passo di elaborazione in cui ciascun passo modifica almeno uno dei parametri numerici che definiscono l’aspetto di ciascun pixel e/o almeno una delle componenti dei vettori delle connessioni sulla base di prestabilite funzioni evolutive deterministiche applicate ad uno o più dei parametri che definiscono l’aspetto di ciascun pixel quali valori dei nodi della detta rete neurale artificiale e ad uno o più valori delle componenti dei vettori delle connessioni relative all’insieme di pixel o voxel ed all’insieme delle connessioni del ciclo di iterazione precedente, essendo previsto un numero massimo di iterazioni e/o un criterio di determinazione di una condizione di fine della ripetizione dei cicli di iterazione del processo di evoluzione;
venendo i cicli del processo di evoluzione iterativa ripetuti fino al raggiungimento del detto numero massimo di cicli di iterazione e/o fino alla soddisfazione del criterio di terminazione;
e venendo generata e visualizzata una immagine costituita dai pixel o voxel con i parametri numerici di aspetto derivanti dall’ultimo ciclo iterativo e/o dai valori delle componenti dei vettori delle connessioni.
Il suddetto metodo fa parte di una famiglia di noti sistemi di elaborazione di immagini che sono in grado di elaborare una immagine secondo una molteplicità di diverse configurazioni come ad esempio differenti leggi di apprendimento, funzioni dei pesi, funzioni dei pixels, ed altre variabili di settaggio degli algoritmi destinati a definire la struttura della rete neurale e le modalità operative.
Il numero delle varianti di configurazione è elevatissimo pertanto una immagine può essere elaborata in migliaia di modi diversi fornendo migliaia di diverse immagini rielaborate che possono o meno fornire le informazioni ricercate.
Le patologie coronariche sono una causa comune dell’infarto ischemico del miocardio in praticamente tutte le popolazioni. Storicamente, l’analisi delle stenosi luminali delle coronarie mediante la tecnica della angiografia coronarica quantitativa (denominata anche QCA) ha costituito il metodo di riferimento per la diagnosi angiografica delle stenosi delle coronarie e per guidare gli interventi alle coronarie nonché per la diagnosi delle patologie delle coronarie. La tecnica della angiografia coronarica quantitativa fornisce tuttavia solo immagini bidimensionali dei restringimenti luminali e non consente di avere ulteriori informazioni sulle pareti delle arterie che sono la vera e propria regione di crescita della placca aterosclerotica. A ciò si aggiunge il fatto che le stenosi luminali possono non essere rilevabili in pazienti asintomatici come pure in pazienti sintomatici ma con un basso grado e/o con lesioni aterosclerotiche eccentriche, nelle quali la stenosi può anche venire sottostimata.
Attualmente i processi decisionali diagnostici e terapeutici relativi all’ateroma coronarico sono supportate da analisi intravascolari mediante ultrasuoni (cosiddette IVUS: intravascular ultrasound) in cui l’inserimento di una sonda ad ultrasuoni nell’arteria consente l’esame diretto della geometria delle pareti dell’arteria coronaria in soggetti viventi. Tale metodo d’indagine presenta sfortunatamente l’inconveniente di avere una natura invasiva che ne limita l’utilizzo nella caratterizzazione delle coronarie. Inoltre la tecnica ad ultrasuoni può venire utilizzata solo in regioni dell’arteria sufficientemente grandi da contenere la sonda ultrasonica. Pertanto nonostante la tecnologia IVUS sia utilizzata ampiamente nella clinica essa non risolve in toto il problema della mancanza di informazioni sulle pareti dell’intero albero coronarico.
Le evidenze sperimentali nel campo della tomografia computerizzata e in campo mammografico mostrano che le immagini diagnostiche prodotte con tecniche di imaging diagnostico convenzionali, come ad esempio imaging radiologico, imaging ecografico e imaging mediante risonanza magnetica contengono molta più informazione di quanto si possa generalmente credere. Questa informazione, tuttavia, spesso non è visibile nemmeno all’occhio dell’osservatore più esperto, poiché tali informazioni emergono dalle relazioni od interazioni fra pixel che sono troppo nascoste o complesse per poter essere rilevate od afferrate con sistemi matematici di analisi convenzionali.
Nel campo dei sistemi matematici di analisi di immagini, le reti neurali artificiali (ANN: Artificial Neural Network) si sono rivelate essere uno dei migliori strumenti per analizzare fenomeni complessi. Nel caso di queste reti si tratta in pratica di algoritmi eseguiti da computer che sono ispirati ai processi altamente interattivi del cervello umano. Analogamente al cervello umano le reti neurali artificiali sono in grado di riconoscere architetture complesse e associazioni nascoste fra dati e di elaborare dati in ingresso secondo schemi che non sono programmati “aprioristicamente”.
Esempi di queste reti sono descritti nei documenti EP1515270, US7877342, US8326047 e altri.
Un particolare tipo di reti neurali è descritto sotto la denominazione generica di Active Connection Matrix (ACM). Questo termine raccoglie una famiglia di sistemi basati sui principi delle reti neurali artificiali modificati in funzione dell’elaborazione di immagini.
Si tratta di un insieme di sistemi artificiali adattivi non supervisionati la cui funzione consiste nell’estrazione automatica di caratteristiche di interesse dalle immagini diagnostiche digitali o digitalizzate quali ad esempio contorni, segmentazioni, differenziazione di tessuti ed altre caratteristiche. Inoltre questi sistemi permettono di esprimere caratteristiche morfologiche nascoste presenti nelle immagini digitali. Ciò è ottenuto grazie alla gestione matematica di caratteristiche locali dell’immagine che consentono di ridurre il rumore dell’immagine, mantenendo allo stesso tempo la risoluzione spaziale delle strutture ad elevato contrasto.
La figura 1 mostra un esempio della struttura generica che caratterizza i suddetti sistemi ed il metodo secondo cui operano e mostra una parte di una immagine digitale con un pixel target centrale ed i pixel di contorno che sono collegati al detto pixel centrale per mezzo di connessioni, essendo ciascun pixel equiparato ad un nodo di una rete neurale artificiale.
Nella seguente descrizione e nelle rivendicazioni, nonostante ci si riferisca in particolare a punti immagine che formano una immagine digitale bidimensionale cosiddetti pixel, tale termine va inteso esteso alla corrispondente variante tridimensionale, in cui ciascun punto immagine di una immagine formata da una matrice tridimensionale di questi punti, viene denominato voxel. Pertanto ogni riferimento al pixel è da intendersi esteso anche al corrispondente tridimensionale voxel, essendo per il tecnico del ramo evidente come estendere il formalismo matematico delle equazioni descritte al caso tridimensionale.
Analogamente è ipotizzabile introdurre anche la quarta dimensione temporale caratterizzando ciascun pixel o voxel non solo attraverso le sue coordinate spaziali nella matrice di punti immagine, ma anche la sua evoluzione temporale nell’ambito della stessa immagine, come ad esempio nel caso di imaging 4D di organi che eseguono movimenti naturali.
Limitandoci per semplicità al caso bidimensionale con le ovvie estensioni più sopra definite, in ogni immagine digitale ciascun pixel è una funzione (f) della sua luminosità e della sua posizione. In una variante è possibile estendere il parametro della luminosità anche ad altri parametri che descrivono l’aspetto del pixel ad esempio il colore dello stesso.
Considerando solo la luminosità e la posizione, per rendere più semplice il formalismo matematico, ciascun pixel è caratterizzato come segue:
In cui 2<M >indica la massima luminosità e D=2 in una immagine bidimensionale.
La visione umana, tuttavia è in grado di eseguire solo una elaborazione parziale delle relazioni che ciascun pixel ha con i pixel di un suo contorno. Ciò comporta che una parte dell’informazione sulla dinamica della interazione fra gli oggetti riprodotti e la luce su di essi incidente resta invisibile all’occhio umano anche quando ha una grande rilevanza.
Il sistema ACM si fonda sui seguenti concetti peculiari:
a) l’informazione del contenuto di una immagine è completamente definito dalla luminosità e dalla posizione di ciascun pixel, ma anche dalla relazione fra ciascun pixel e ciascun ulteriore pixel dell’immagine;
b) la capacità dell’occhio umano di rilevare la relazione fra ciascun pixel e gli altri pixel dell’immagine dipende dalla dinamica delle connessioni che collegano ciascun pixel con ciascun ulteriore pixel di un intorno. Ciò è fortemente influenzato dalla modalità con cui la vista umana interagisce con l’oggetto ed è anche cruciale per comprendere perché l’apparato visivo umano possa ignorare alcune caratteristiche dell’immagine sorgente che sono invece intrinsecamente rilevanti.
Ciascuna immagine processata con un metodo ed un sistema del tipo ACM sopra descritto è il risultato di un algoritmo che modifica almeno un parametro di definizione dell’aspetto di ciascun pixel, come ad esempio la luminosità, considerando le caratteristiche almeno degli 8 pixel che lo circondano. Ciascuno di questi 8 pixel è a sua volta modificato in funzione degli 8 pixel che lo circondano e così via per ogni pixel dell’immagine. Pertanto l’immagine finale al termine dell’elaborazione è il risultato dell’elaborazione di una rete complessa di pixel fra loro localmente connessi.
Questa connettività aumenta la dimensionalità di tutti i pixel di una immagine. Considerando una immagine con dimensioni D, ciascuno dei pixel dell’immagine è identificato da un numero D di variabili. Per collegare fra loro un pixel con tutti i pixel del contorno le D variabili saranno provviste di Q connessioni corrispondenti al numero di pixel che sono connessi al pixel centrale). Si genera così una nuova architettura che posiziona ciascun pixel in uno spazio avente D+1 dimensioni, che sono definite dalle variabili che definiscono la posizione e che sono in numero di D a cui si aggiunge la variabile che identifica le connessioni.
Pertanto nei sistemi ACM ciascuna immagine è considerata come una matrice di elementi connessi, ovvero una rete di pixel, che evolve ciclicamente nel tempo. Questa trasformazione dell’immagine in una matrice di elementi connessi che evolvono attivamente nel tempo consente di rendere visibili informazioni nascoste. In altre parole, anche se una immagine può apparire statica, essa mantiene in sé tutto il contenuto informativo. Ciò significa che il contenuto informativo intrinseco non è statico perché mantiene la dinamica delle interazioni locali fra gli elementi che formano l’immagine. Per poter visualizzare questa dinamica di interazioni locali, il contenuto apparentemente statico dell’immagine originaria deve venire espresso nel tempo quasi fosse un film interno che inizia dall’immagine originaria ed evolve prima in una seconda, poi in una terza, in una quarta ed in ulteriori immagini fino all’immagine finale dell’elaborazione.
Nei suddetti sistemi ACM vengono quindi aggiunte due nuove dimensioni che sono il numero di connessioni locali w ed il tempo t. pertanto la luminosità L di ciascun pixel di una immagine è una funzione non solo delle variabili di posizione del pixel x1, x2, x3, ..., xD, ma anche delle due ulteriori variabili w e t:
In cui: x1, x2, x3, ..., xD = coordinate originarie del pixel; w = vettore delle connessioni; t = tempo.
Dal punto di vista pratico, data una immagine bidimensionale costituita da MxN pixel, l’applicazione del metodo ACM trasforma l’immagine in una matrice MxNxQxT in cui Q è il numero delle connessioni di ciascun pixel con i pixel del suo contorno e T è il numero di istanti discreti dall’inizio alla fine del processo di elaborazione.
In un generico istante t ciascun pixel originario è associato ad un vettore w(t) che è rappresentativo della connessione di Q pixel di contorno con il pixel originario:
In cui la variabile z indica che ciascun pixel originario è associato anche ai pixel a cui è connesso.
Se i valori delle connessioni variano nel tempo, ad ogni istante t viene generato un numero T di matrici di un numero Q di pixel ciascuna delle quali renderà visibile l’unica relazione che esiste fra ciascun pixel e ciascuno dei pixel del suo intorno. Il processo di evoluzione nel tempo di ciascun pixel, con riferimento ai valori di almeno uno dei parametri numerici che ne definiscono l’aspetto come ad esempio la luminosità, dipende quindi dal tipo di interazione che ha luogo con i pixel di contorno.
Con riferimento alla figura 1, questo processo trasforma il pixel originario da un’unità elementare ui,j in un’unità composita comprendente gli 8 pixel di contorno e le connessioni con questi pixel di contorno.
La figura 2 mostra le diverse famiglie di sistemi ACM esistenti e che si differenziano fra loro per diverse configurazioni delle leggi di evoluzione che governano i passi di elaborazione.
Principalmente esistono tre famiglie in cui l’evoluzione ha luogo rendendo dinamiche le unità, ovvero i pixel che le rappresentano oppure rendendo dinamiche le connessioni oppure rendendo dinamiche ambedue le unità e le connessioni.
L’elaborazione di immagine può avere luogo secondo diverse leggi di learning, diverse funzioni dei pesi, diverse funzioni delle unità, ovvero dei pixel diverse classificazioni, attori, dinamiche e tipologie di post-processing. Inoltre, ciascun processo di elaborazione può essere eseguito con un numero differente di cicli iterativi di calcolo, generando così un enorme numero di immagini processate. Pertanto almeno potenzialmente, una singola immagine può venire rielaborata in migliaia di diversi modi generando migliaia di immagini processate che possono contenere o meno informazione aggiuntiva non visibile nell’immagine originale.
L’identificazione a priori di quali combinazioni possono produrre informazione aggiuntiva nelle immagini ed in particolare nelle immagini per l’analisi quantitativa delle coronarie (QCA) è praticamente impossibile.
RIASSUNTO DELL’INVENZIONE
Un primo scopo della presente invenzione è quello di realizzare un metodo di analisi automatica delle caratteristiche di dati forniti dall’elaborazione di una o più immagini in relazione al contenuto informativo su parametri qualitativi e/o quantitativi delle diverse tipologie di oggetti rappresentati dai singoli pixel o voxel delle dette immagini e/o da parametri morfologici di oggetti rappresentati da gruppi di pixel o voxel, venendo in base ai risultati della detta analisi automatica scartati automaticamente dai dati forniti dall’elaborazione della detta una o più immagine i dati forniti dall’elaborazione che non hanno alcun contenuto informativo o che producono contenuti informativi ridondanti o non affidabili ai fini della determinazione del o dei parametri qualitativi e/o quantitativi delle diverse tipologie di oggetti rappresentati dai singoli pixel o voxel delle dette immagini e/o da parametri morfologici di oggetti rappresentati da gruppi di pixel o voxel.
Un ulteriore scopo della presente invenzione è quello di determinare una tipologia ed una configurazione dell’algoritmo di elaborazione iterativa delle immagini che operino una elaborazione delle immagini tale da far emergere le informazioni nascoste nelle stesse.
Un ulteriore scopo consiste nel prevedere un sistema di elaborazione di immagini che possa garantire una elaborazione secondo uno o più degli algoritmi considerati ed operare una elaborazione delle immagini tale da far emergere con maggiore affidabilità e efficacia le informazioni nascoste nelle stesse.
Ancora uno scopo è quello di provvedere ad un metodo di analisi quantitativa di immagini angiografiche delle coronarie che operi con la suddetta tipologia e configurazione dell’algoritmo di elaborazione delle immagini al fine di ottenere una caratterizzazione diagnosticamente affidabile e più vicina alla condizione effettiva dalle immagini angiografiche.
Ancora un ulteriore scopo è quello di realizzare un sistema di analisi quantitativa di immagini, ad esempio di immagini angiografiche delle coronarie, che operi secondo il metodo sopra indicato.
Secondo un primo aspetto della presente invenzione, è previsto un metodo per l’elaborazione di immagini in cui ciascuna immagine è costituita da un insieme di punti immagine, cosiddetti pixel o voxel in particolare rispettivamente in uno spazio a due, tre o più dimensioni essendo ciascun punto immagine univocamente definito dalla sua posizione nell’insieme di punti immagine e da uno o più parametri numerici che definiscono l’aspetto del punto immagine relativamente alle caratteristiche di luminosità, gradazione di grigio, colore o simili ed in cui i detti parametri numerici vengono elaborati per mezzo di uno o di una combinazione di algoritmi non lineari, predittivi o di classificazione per determinare caratteristiche qualitative e quantitative dei tessuti corrispondenti ai pixel od ai voxel dell’immagine o caratteristiche morfologiche e/o dimensionali e/o di posizionamento di oggetti la cui riproduzione nell’immagine è corrispondente a gruppi di pixel o di voxel, le quali caratteristiche qualitative e quantitative dei tessuti corrispondenti ai pixel od ai voxel dell’immagine o caratteristiche morfologiche e/o dimensionali e/o di posizionamento di oggetti la cui riproduzione nell’immagine è corrispondente a gruppi di pixel o di voxel costituiscono indicazioni di ausilio alla diagnosi, il quale metodo prevede i seguenti passi:
- Generare uno o più algoritmi di elaborazione fra loro diversi per tipologia e/o per impostazione di parametri funzionali;
- Elaborare la detta una o più immagine mediante uno o più dei detti diversi algoritmi di elaborazione;
- Organizzare i set di dati risultanti da ciascuna elaborazione di ciascuna immagine con un diverso algoritmo di elaborazione sotto forma di matrice di pixel o voxel di immagine, in cui i valori di ciascun dato sono rappresentati da parametri di aspetto del corrispondente pixel e voxel secondo una scala di grigi e la posizione del detto pixel e voxel è definita dalla posizione del pixel o voxel nell’immagine sottoposta ad elaborazione;
- Analizzare i dati risultanti dall’elaborazione con i detti uno o più diversi algoritmi determinando per ciascun set di dati ottenuti dall’elaborazione con uno dei diversi algoritmi determinando uno o più od una combinazione di uno o più dei seguenti valori statistici che descrivono la distribuzione dei pixel o voxel nell’immagine di rappresentazione del set di dati ottenuti dall’elaborazione:, media, deviazione standard dei livelli di grigio, distribuzione dei livelli di grigio, entropia della distribuzione dei livelli di grigio in ciascuna immagine o di combinazioni di immagini come sottrazione di due immagini fra loro.
- Eliminare automaticamente le immagini per le quali almeno uno dei suddetti valori statistici non soddisfa un prestabilito valore di soglia.
- Mantenere tutte le altre immagini quali immagini valide per l’indicazione di ausilio alla determinazione delle caratteristiche qualitative, quantitative e morfologiche degli oggetti rappresentati nella o nelle immagini originarie.
Secondo un ulteriore aspetto della presente invenzione è previsto un metodo per l’elaborazione di immagini in cui ciascuna immagine è costituita da un insieme di punti immagine, cosiddetti pixel o voxel in particolare rispettivamente in uno spazio a due, tre o più dimensioni essendo ciascun punto immagine univocamente definito dalla sua posizione nell’insieme di punti immagine e da uno o più parametri numerici che definiscono l’aspetto del punto immagine relativamente alle caratteristiche di luminosità, gradazione di grigio, colore o simili, ed in cui ciascun pixel o voxel costituisce un nodo di una rete neurale artificiale, essendo ciascun pixel o voxel connesso con ciascuno dei pixel o voxel ad esso adiacenti che circondano detto pixel o voxel, grazie ad un vettore di connessioni ciascuna delle cui componenti descrive rispettivamente un parametro numerico di caratterizzazione della connessione di un pixel con un pixel adiacente, venendo il detto insieme di pixel o voxel e l’insieme delle dette connessioni sottoposto iterativamente ad un passo di elaborazione in cui ciascun passo modifica almeno uno dei parametri numerici che definiscono l’aspetto di ciascun pixel e/o almeno una delle componenti dei vettori delle connessioni sulla base di prestabilite funzioni evolutive deterministiche applicate ad uno o più dei parametri che definiscono l’aspetto di ciascun pixel quali valori dei nodi della detta rete neurale artificiale e ad uno o più valori delle componenti dei vettori delle connessioni relative all’insieme di pixel o voxel ed all’insieme delle connessioni del ciclo di iterazione precedente, essendo previsto un numero massimo di iterazioni e/o un criterio di determinazione di una condizione di fine della ripetizione dei cicli di iterazione del processo di evoluzione;
venendo i cicli del processo di evoluzione iterativa ripetuti fino al raggiungimento del detto numero massimo di cicli di iterazione e/o fino alla soddisfazione del criterio di terminazione;
e venendo generata e visualizzata almeno una immagine di output costituita dai pixel o voxel con i parametri numerici di aspetto derivanti dall’ultimo ciclo iterativo e/o dai valori delle componenti dei vettori delle connessioni, il metodo prevedendo ulteriormente di combinare almeno due fasi di elaborazione iterative che sono eseguite in sequenza fra loro, le fasi di elaborazione differenziandosi fra loro in relazione ad almeno una delle seguenti caratteristiche:
le funzioni evolutive deterministiche applicate ad uno o più dei parametri che definiscono l’aspetto di ciascun pixel, quali valori dei nodi della detta rete neurale artificiale, e ad uno o più valori delle componenti dei vettori delle connessioni relative all’insieme di pixel o voxel ed all’insieme delle connessioni della fase di elaborazione precedente e/o al numero massimo di iterazioni,
e/o ai criteri di terminazione della ripetizione dei cicli di iterazione,
e/o al fatto di rendere modificabile con le funzioni evolutive deterministiche solo i parametri numerici che descrivono l’aspetto dei pixel o voxel, solo le componenti dei vettori delle connessioni entrambi i parametri numerici che descrivono l’aspetto dei pixel o voxel e le componenti dei vettori delle connessioni.
In questa forma esecutiva del metodo, il risultato dell’elaborazione è una nuova immagine modificata dal processo evolutivo che modifica almeno uno dei parametri numerici che definiscono l’aspetto di ciascun pixel e/o almeno una delle componenti dei vettori delle connessioni sulla base di prestabilite funzioni evolutive deterministiche applicate ad uno o più dei parametri che definiscono l’aspetto di ciascun pixel quali valori dei nodi della detta rete neurale artificiale e ad uno o più valori delle componenti dei vettori delle connessioni relative all’insieme di pixel o voxel ed all’insieme delle connessioni del ciclo di iterazione precedente, per cui i dati di output dell’elaborazione sono già automaticamente organizzati sotto forma di immagine.
Ciascuna fase di elaborazione fornisce almeno una immagine di output od una pluralità di immagini di output per ciascuna fase di elaborazione relativamente al numero di varianti previste per le caratteristiche più sopra elencate che differenziano fra loro le fasi di elaborazione.
Ciascuna fase di elaborazione inoltre, nel processo iterativo può fornire un numero elevato di immagini di output prodotte dai cicli intermedi di elaborazione che possono essere considerate anch’esse nella determinazione del risultato finale.
In questo caso quindi il passo di organizzare i set di dati risultanti da ciascuna elaborazione di ciascuna immagine con un diverso algoritmo di elaborazione sotto forma di matrice di pixel o voxel di immagine, in cui i valori di ciascun dato sono rappresentati da parametri di aspetto del corrispondente pixel e voxel secondo una scala di grigi e la posizione del detto pixel e voxel è definita dalla posizione del pixel o voxel nell’immagine sottoposta ad elaborazione è già implicito nel particolare metodo di elaborazione, cioè nel particolare algoritmo di elaborazione utilizzato.
L’invenzione trova pertanto una combinazione particolarmente preferita del metodo automatico di analisi e selezione della pluralità di dati ottenuti dall’elaborazione della detta una o più immagini per l’identificazione dei dati immagine più significativi al fine della determinazione dei parametri qualitativi e/o quantitativi e/o morfologici, dimensionali o di posizione con il detto metodo di elaborazione di immagini che equipara l’immagine di input ad un insieme di nodi di una rete neurale fra loro connessi e sottoposti a funzioni evolutive dei parametri di caratterizzazione dell’aspetto di ciascun pixel in funzione alle connessioni con i pixel di contorno.
Secondo la precedente forma esecutiva i pixel sono caratterizzati da parametri di aspetto misurati mediante una scala di gradazione di grigio. Tuttavia il presente metodo è applicabile con le opportune ed ovvie modifiche anche a pixel o voxel caratterizzati da un prestabilito colore e definiti secondo una o più funzioni di caratterizzazione dell’aspetto dei un pixel o voxel colorato, ad esempio secondo i modelli RGB o HSB od altri modelli attualmente in uso.
Secondo una ulteriore caratteristica del metodo, il passo di analisi e selezione dei risultati di elaborazione prevede il calcolo della deviazione standard della distribuzione dei livelli di grigio in ciascuna immagine di output e l’eliminazione delle immagini che presentano un valore della detta deviazione standard della distribuzione delle gradazioni di grigio al di sotto di una prestabilita soglia e corrispondenti ad immagini con un livello omogeneo di grigi o che sono sostanzialmente completamente nere o completamente bianche,
Secondo una ulteriore caratteristica, il passo di analisi e selezione prevede alternativamente od in combinazione con la variante precedente il calcolo del livello di entropia della distribuzione dei livelli di grigio e l’eliminazione delle immagini per le quali il detto livello di entropia è al di sotto di una prestabilita soglia, corrispondendo dette immagini ad immagini punteggiate con basso contenuto informativo.
Ancora secondo una ulteriore caratteristica che può essere prevista in combinazione con una qualsivoglia o con ambedue le precedenti varianti, i passi di analisi e selezione prevede l’eliminazione delle immagini di output dell’elaborazione che sono affette da rumore bianco, mediante la determinazione della deviazione standard della distribuzione delle gradazioni di grigio e della entropia della distribuzione delle gradazioni di grigio nelle dette immagini di output, la comparazione con un valore massimo di soglia e la determinazione delle immagini per le quali la detta deviazione standard e la detta entropia superano il corrispondente valore massimo di soglia, mentre queste immagini vengono suddivise in diverse zone di immagine, venendo per ciascuna area determinato l’istogramma della distribuzione delle gradazioni di grigio sui pixel e venendo gli istogrammi relativi alle singole zone confrontati fra loro, venendo eliminate le immagini per le quali gli istogrammi della distribuzione dei livelli di grigio sui pixel delle singole zone sono sostanzialmente identici fra loro.
Secondo ancora una caratteristica che può essere prevista alternativamente od in combinazione con una o più o con tutte le precedenti varianti esecutive il passo di analisi e selezione prevede l’identificazione di immagini di output sostanzialmente identiche e l’esclusione di tutte le immagini ridondanti eccetto una, il detto passo prevedendo di:
sottrarre fra loro pixel per pixel coppie di immagini ridondanti e determinare nell’immagine di sottrazione la media e la deviazione standard della distribuzione dei livelli di grigio, venendo le dette due immagini considerate sostanzialmente identiche quando il valore della media e della deviazione standard sono uguali a zero od al di sotto di una prestabilita soglia massima per detti valori.
Secondo una ulteriore caratteristica, l’immagine da mantenere fra le diverse immagini ridondanti è selezionata considerando l’immagine che è stata ottenuta con il numero minore di cicli iterativi di elaborazione.
Secondo una caratteristica vantaggiosa che riduce l’onere computazionale del metodo secondo la presente invenzione prima delle fasi di analisi e di selezione, viene definita una regione di interesse (ROI) che costituisce una zone ritagliata dell’immagine originaria e centrata o contenente gli oggetti di interesse, come la regione anatomica od un organo od un tessuto di interesse, venendo detta regione di interesse ritagliata in ciascuna delle immagini di output delle dette due o più fasi di elaborazione.
Una forma esecutiva particolare prevede una sequenza ordinata delle diverse varianti del passo di analisi e di selezione, la quale sequenza prevede: la determinazione della regione di interesse ed il ritaglio della stessa in ciascuna immagine di output;
il calcolo dei parametri statistici di caratterizzazione della distribuzione delle gradazioni di grigio sui pixel o voxel delle immagini di output;
l’identificazione e l’eliminazione delle immagini sostanzialmente completamente monocolori, ovvero sostanzialmente nere, bianche oppure con una gradazione di grigio sostanzialmente omogenea;
nell’ambito delle immagini di output rimanenti, l’identificazione e l’eliminazione delle immagini punteggiate;
nell’ambito delle immagini di output rimanenti dopo il passo precedente, l’identificazione e l’eliminazione delle immagini affette da rumore bianco;
nell’ambito delle immagini di output rimanenti dopo il passo precedente, l’identificazione e l’eliminazione delle immagini ridondanti eccetto una.
Ancora secondo una ulteriore caratteristica al termine dei passi di metodo, si è ottenuta una notevole riduzione del numero di immagini di output. Tuttavia il numero di immagini di output dalle diverse fasi di elaborazione può essere ancora relativamente elevato e pertanto il metodo prevede una selezione manuale terminale delle immagini eseguita da personale esperto.
Come si vedrà dall’esempio esecutivo descritto a seguito il numero da esaminare manualmente risulta molto limitato e l’onere della selezione manuale terminale non richiede pertanto tempi esageratamente lunghi ed è possibile, mentre senza i passi di selezione automatica secondo la presente invenzione, tale attività non sarebbe stata possibile o avrebbe richiesto tempi lunghissimi.
Secondo una variante esecutiva del metodo nella prima fase l’elaborazione ha luogo mediante passi iterativi di elaborazione in cui le funzioni deterministiche di evoluzione modificano sia i valori dei parametri dei pixel o voxel e sia i valori delle componenti dei vettori delle connessioni.
Una variante della suddetta forma esecutiva prevede che nella detta prima fase l’elaborazione abbia luogo mediante passi iterativi in cui le funzioni deterministiche di evoluzione sono funzioni sia delle connessioni di ciascun pixel dell’immagine con i pixel di un insieme di pixel di contorno allo stesso, come i pixel direttamente ad esso adiacenti od i pixel di un sottoinsieme dei pixel dell’immagine all’interno del quale è previsto detto pixel, sia delle connessioni che detti pixel di contorno hanno con ulteriori pixel dell’immagine per i quali costituiscono anche un pixel di contorno, la quale funzione costituisce un contributo di feedback immediato per la determinazione dei valori dei parametri numerici di definizione dell’aspetto di tutti gli altri pixel.
Secondo una ulteriore forma esecutiva del metodo nella prima fase l’elaborazione ha luogo mediante passi iterativi di elaborazione in cui le funzioni deterministiche di evoluzione modificano solo i valori delle componenti dei vettori delle connessioni.
In una forma esecutiva, che può essere prevista in combinazione con qualsivoglia delle precedenti, il metodo prevede che nella seconda fase l’elaborazione ha luogo mediante passi iterativi di elaborazione in cui le funzioni deterministiche di evoluzione modificano solo i valori dei parametri numerici che descrivono l’aspetto dei pixel o dei voxel.
Una prima variante di questa forma esecutiva prevede i seguenti passi nella seconda fase di elaborazione:
definire in successione ciascuno dei pixel o voxel dell’immagine come pixel target;
definire un insieme di pixel comprendente il detto pixel target ed i pixel di contorno che lo circondano;
definire per ciascun pixel di contorno dell’insieme di pixel un insieme di pixel che contiene il detto pixel di contorno quale pixel target ed i pixel di contorno del detto pixel di contorno in qualità di pixel target;
ripetere i passi di definizione di insiemi di pixel fintanto che per tutti i pixel dell’immagine è stato definito un insieme di pixel contenete il detto pixel quale pixel target ed i pixel di contorno allo stesso;
definire una scala di valori per uno o più dei parametri che definiscono l’aspetto di ciascun pixel e suddividere la detta scala di valori in una successione di intervalli di valori;
determinare per ciascun pixel di contorno in un insieme di pixel relativo ad un pixel target in quali degli intervalli di almeno un parametro numerico di definizione dell’aspetto dei pixel ricada il parametro numerico del detto pixel di contorno e quanti dei detti pixel di contorno dell’insieme ricadano nei diversi intervalli di valore dei detti parametri numerici;
determinare il valore da assegnare al pixel target quale massimo valore di informazione ovvero di entropia calcolato in funzione dei pixel di contorno e delle connessioni con detto pixel target e del massimo valore di informazione od entropia calcolato in funzione del valore dei pixel di contorno a ciascun pixel di contorno del pixel target e delle connessioni di ciascun pixel di contorno del pixel target con i propri pixel di contorno, eliminando i contributi doppi;
generare una nuova immagine in cui almeno un parametro numerico di aspetto di ciascun pixel della nuova immagine è determinato in funzione del valore calcolato al passo precedente.
Secondo ancora una forma esecutiva, i massimi valori di informazione relativi a ciascun pixel target possono venire scalati fra un valore minimo pari a zero ed un valore massimo di 255 grazie ad una funzione di scalatura.
Secondo ancora una forma esecutiva, per evidenziare meglio i contorni è previsto di associare a ciascun pixel dell’immagine un vettore le cui componenti sono costituite dalla differenza di rispettivamente uno dei pixel di contorno del detto pixel target con il pixel target in relazione al valore di almeno uno dei parametri numerici che descrivono l’aspetto dei pixel.
Ancora secondo una caratteristica prevede in combinazione con il passo precedente di eseguire una correzione del valore di almeno uno dei parametri numerici di definizione dell’aspetto dei pixel target in funzione del massimo valore di informazione, ovvero dell’entropia dello stesso e di quello dei pixel di contorno dopo aver sottratto i contributi condivisi con i pixel di contorno ai pixel di contorno del pixel target.
Ancora secondo una forma esecutiva, al fine di associare a ciascun pixel un valore di almeno un parametro numerico di descrizione dell’aspetto del detto pixel che consideri i contrasti dell’informazione con i pixel di contorno al valore del detto almeno un parametro numerico di definizione dell’aspetto di un pixel vengono sommati i valori delle componenti del vettore le cui componenti sono costituite dalla differenza di rispettivamente uno dei pixel di contorno del detto pixel target con il pixel target, i quali valori sono stati trasformati non linearmente mediante l’applicazione della funzione tangente iperbolica.
Secondo ancora una forma esecutiva, la presente invenzione prevede di applicare il metodo di elaborazione d’immagini secondo una od una combinazione di una o più delle precedenti varianti ad immagini angiografiche delle coronarie.
L’invenzione prevede un metodo per la determinazione automatica di caratteristiche quantitative e qualitative di vasi ad esempio delle coronarie da immagini angiografiche, il quale metodo prevede le seguenti fasi:
l’elaborazione di una o più immagini angiografiche mediante una delle varianti esecutive precedentemente descritte del metodo di elaborazione di immagini od una combinazione di due o più delle dette varianti precedentemente descritte e la generazione di almeno una nuova immagine di output del passo di elaborazione;
il riconoscimento automatico del diametro del lume del vaso riprodotto nell’immagine in almeno un punto dell’estensione della riproduzione dell’arteria nell’immagine, preferibilmente in più punti lungo l’estensione della riproduzione dell’arteria nell’immagine e/o
-il riconoscimento della distanza fra strutture anatomiche rappresentate nelle immagini e considerate costituire le interfacce fra la tunica intima ed il fluido ematico e fra la tunica media e la tunica avventizia o, in altre parole, dello spessore delle pareti delle arterie superiori ed inferiori.
Secondo una forma esecutiva è previsto misurare il diametro del lume del vaso in una successione di diversi punti lungo almeno un segmento di vaso di prestabilita lunghezza riprodotto nell’immagine e di generare una immagine del profilo del lume del vaso lungo l’estensione in lunghezza del detto segmento di vaso.
Secondo una ulteriore caratteristica prevista alternativamente od in combinazione, il metodo prevede di generare una immagine del profilo dello spessore delle pareti del segmento del vaso lungo l’estensione in lunghezza dello stesso.
Una ulteriore forma esecutiva prevede di operare una lisciatura (smoothing) delle immagini del profilo del lume o del profilo dello spessore delle pareti arteriose il quale passo prevede l’utilizzo di un metodo matematico denominato “sliding window”.
In una forma esecutiva il detto metodo matematico prevede i passi di:
Prevedere un primo operatore costituito da una “sliding window” che media su cinque misurazioni consecutive del lume o dello spessore delle pareti del vaso e che viene spostato lungo l’asse del segmento del vaso a passi consecutivi di prestabilita ampiezza, ad esempio di un pixel, da una estremità all’altra del segmento di vaso in esame e riprodotto nell’immagine;
Prevedere un secondo operatore costituito da una “sliding window” che media su cinque misurazioni consecutive del lume o dello spessore delle pareti del vaso e che viene spostato lungo l’asse del segmento del vaso a passi consecutivi di prestabilita ampiezza, ad esempio di un pixel, partendo dall’estremità opposta a quella di partenza del primo operatore e venendo spostato lungo l’asse del vaso in esame in direzione opposta alla direzione di spostamento del primo operatore, venendo i valori ottenuti dai detti due operatori per ciascun passo di spostamento mediati fra loro e riportati graficamente in funzione della lunghezza del segmento di vaso generando il profilo del lume del vaso e/o il profilo dello spessore delle pareti del vaso.
Il metodo secondo uno o più dei precedenti passi può prevedere alternativamente od in combinazione il passo di visualizzazione della o delle immagini elaborate e/o dei profili del lume di un segmento di vaso e/o dello spessore delle pareti di un segmento di vaso.
Secondo ancora una variante esecutiva il metodo può prevedere ulteriormente la memorizzazione dei risultati delle misurazioni e/o delle immagini e/o dei grafici di rappresentazione dei profili del lume e/o dei profili dello spessore delle pareti di un segmento di vaso.
L’invenzione ha per oggetto anche un sistema per l’elaborazione di immagini che comprende una rete neurale artificiale, la quale rete comprende:
un nodo per ciascun pixel o voxel di una immagine;
una connessione di collegamento di ciascun pixel dell’immagine con pixel di contorno che circondano un pixel;
un operatore di determinazione di almeno un parametro numerico di definizione dell’aspetto dei pixel;
un operatore di determinazione di valori numerici di definizione delle caratteristiche delle connessioni di ciascun pixel con ciascuno dei pixel di contorno allo stesso (i detti operatori essendo configurati per modificare alternativamente o in combinazione almeno un parametro numerico di definizione dell’aspetto dei pixel e/o almeno un valore numerico di definizione delle caratteristiche di almeno una connessione);
un’unità di generazione di immagine che genera una immagine corrispondentemente alle modifiche causate dai detti operatori;
un’unità di visualizzazione della detta immagine modificata;
un operatore di calcolo di parametri statistici della distribuzione delle gradazioni di grigio in una o più immagini che rappresentano i dati di output dell’elaborazione;
Una interfaccia di immissione di valori numerici di soglia per i detti uno o più parametri statistici della detta distribuzione delle gradazioni di grigio;
un comparatore dei detti parametri statistici della distribuzione delle gradazioni di grigio calcolati per ciascuna delle immagini che rappresentano i dati di output dell’elaborazione con un corrispondente valore di soglia;
un selettore automatico che elimina o mantiene una immagine rappresentante i dati di output dell’elaborazione in funzione dell’esito del confronto dei detti parametri statistici della distribuzione delle gradazioni di grigio calcolati per ciascuna delle immagini che rappresentano i dati di output dell’elaborazione con il corrispondente valore di soglia;
una interfaccia di richiamo e visualizzazione e mezzi manuali di selezione di una o più delle immagini che rappresentano i dati di output e che sono state mantenute dal selettore automatico.
Secondo una forma esecutiva, il sistema comprende ulteriormente un’unità di memorizzazione di almeno una delle immagini modificate.
In una forma esecutiva, il sistema è costituito da un processore comprendente almeno una memoria, almeno un’unità di visualizzazione ed almeno un’interfaccia di comando, essendo il detto sistema configurato per eseguire uno o più passi del metodo secondo una o più delle precedenti varianti.
In una forma esecutiva, nel detto sistema è caricato un programma in cui sono codificate le istruzioni per configurare il processore all’esecuzione dei passi del metodo secondo una o più delle precedenti varianti.
Una forma esecutiva del sistema prevede che il detto sistema sia un sistema per la determinazione di caratteristiche qualitative e quantitative di vasi, ad esempio delle coronarie da immagini angiografiche.
Queste ed altre caratteristiche e vantaggi della presente invenzione risulteranno più chiaramente dalla seguente descrizione di alcuni esempi esecutivi illustrati nei disegni allegati in cui:
La fig.1 illustra un esempio di unità complessa generica e comune a tutti i sistemi ACM di elaborazione secondo la presente invenzione.
La fig. 2 illustra l’albero delle diverse tipologie di sistemi di elaborazione della famiglia dei sistemi denominati ACM.
La fig. 3 illustra uno schema a blocchi di un sistema secondo la presente invenzione.
La fig. 4 illustra un diagramma di flusso delle fasi e dei cicli del processo di elaborazione;
La fig. 5 mostra un diagramma funzionale di un sistema ACM specifico adatto all’esecuzione della prima fase di elaborazione.
Le figure 6a, 6b, 6c mostrano l’immagine originale di input e le immagini finali ottenute utilizzando rispettivamente una variante diversa della funzione evolutiva dei pixel dell’immagine.
La figura 7 mostra le immagini ottenute dall’elaborazione con diverse impostazioni della stessa rete denominata J-Net e descritta con riferimento alla figura 5.
La figura 8 mostra schematicamente le relazioni fra un pixel centrale o target ed il suo contorno in una matrice di pixel secondo una tipologia ed una configurazione di un ulteriore algoritmo di elaborazione della tipologia denominata ACM ed adatto per l’esecuzione della seconda fase del processo di elaborazione.
La figura 9 mostra in forma tabellare la suddivisione in intervalli della scala di luminosità dei pixel nell’ambito di un contorno ad un pixel centrale.
La figura 10 mostra una immagine originaria e le immagini ottenute utilizzando quattro diversi metodi di elaborazione dell’immagine originaria fra cui due varianti del metodo secondo la presente invenzione.
La figura 11 mostra il passo di determinazione della ROI nelle immagini di output dell’elaborazione.
La figura 12 mostra un esempio di immagini monocolore, nere, bianche o con gradazione di grigio omogenea.
La figura 13 mostra gli istogrammi della distribuzione delle gradazioni di pixel e la relativa deviazione standard della distribuzione delle gradazioni di grigio delle immagini della figura 12.
La figura 14 mostra esempi di immagini punteggiate a basso contenuto informativo.
La figura 15 mostra una immagine affetta da rumore bianco.
La figura 16 mostra graficamente i passi di determinazione automatica di presenza di rumore bianco.
La figura 17 mostra le immagini ottenute da diverse reti secondo le diverse alternative più sopra descritte e che producono immagini sostanzialmente identiche.
La figura 18 mostra i passi per individuare immagini identiche od aventi identico contenuto informativo in confronto con immagini fra loro diverse.
La figura 19 mostra uno schema di flusso dei passi di analisi, selezione ed eliminazione automatica di immagini di output dall’elaborazione di una immagine di origine mediante uno o più diversi algoritmi.
La figura 20 mostra i risultati di confronto delle misure del lume della coronaria lungo un segmento e della silhouette delle pareti della coronaria ed in cui i valori del lume e le pareti della coronaria sono riportati in funzione della lunghezza di un segmento della coronaria, essendo mostrato il valore ottenuto con una tecnica applicata ad una immagine angiografica non elaborata col metodo secondo la presente invenzione ed una immagine elaborata con detto metodo.
La figura 21 mostra un diagramma di flusso del metodo di validazione delle informazioni estratte dalle immagini processate con il metodo secondo la presente invenzione.
La figura 22 mostra l’immagine originaria e quella processata secondo la presente invenzione di un segmento di coronaria e le corrispondenti immagini di confronto ottenute con il sistema IVUS.
La figura 23 è una figura analoga alla figura 10 in cui sono aggiunte le curve relative alla misurazione del lume ed alla silhouette delle pareti del vaso ottenute con il metodo IVUS.
Le figure 24 e 25 mostrano le immagini elaborate con il metodo secondo la presente invenzione, rispettivamente con una diversa tipologia e configurazione dell’algoritmo affiancate alle immagini ottenute con la tecnologia IVUS.
La presente invenzione verrà illustrata in seguito con riferimento ad un caso specifico relativo alla determinazione di indicazioni diagnostiche angiografiche relative alla misurazione del lume ed alla silhouette delle pareti delle coronarie mediante una tecnica denominata angiografia coronarica quantitativa, ma non è da intendersi limitata a questa applicazione.
Inoltre gli esempi esecutivi descritti sono limitati per semplicità all’utilizzo di particolari tipologie di metodi di elaborazione delle immagini diagnostiche acquisite. Questi metodi prevedono intrinsecamente effetti di evolutivi sulle immagini diagnostiche che sono volti a modificarne l’aspetto facendo risaltare od emergere caratteristiche dei tessuti, degli organi e/o delle loro conformazioni e distribuzioni non visibili o non chiaramente visibili nelle immagini diagnostiche originarie e producono quindi come risultato una quantità di immagini di output che comprende in se già il primo passo generico del metodo di organizzare i dati di output dell’elaborazione dei parametri numerici di rappresentazione dei pixel e dei voxel di immagini sotto forma di matrici di dati rappresentate graficamente sotto forma di corrispondenti immagini ottenute associando ai valori dei dati di output una rappresentazione degli stessi sotto forma di pixel o voxel di una immagine e correlando i dati numerici ad una scala di gradazione di grigio.
Per il tecnico esperto del ramo appare evidente come, una volta eseguito il passo di organizzazione dei dati di output ottenuti dalle fasi di elaborazione in forma di immagini formate da matrici di pixel o voxel ciascuno dei quali codifica il valore numerico del dato sotto forma di un parametro di apparenza del relativo pixel o voxel, sia possibile applicare il metodo secondo la presente invenzione a qualsivoglia tipo di procedimento di elaborazione di immagini che sulla base di un algoritmo di elaborazione o di una combinazione di algoritmi di elaborazione fornisce una serie di dati di output da cui determinate indicazioni su parametri qualitativi, e/o quantitativi e/o morfologici, di posizione e di distribuzione degli oggetti rappresentati dai singoli pixel o voxel della o delle immagini originarie.
La figura 3 illustra uno schema a blocchi di un sistema per l’elaborazione di immagini secondo una forma esecutiva dell’invenzione e che comprende un’unità di elaborazione 300. L’unità di elaborazione 300 gestisce diverse unità periferiche che in una configurazione minima del sistema sono costituite da un’interfaccia utente 310 con cui l’utente può inserire dati, modificare impostazioni ed impartire comandi. Una memoria 320, che può essere una memoria separata od un’area di memoria dedicata, è destinata per la memorizzazione di un programma di elaborazione delle immagini digitali o digitalizzate. Il detto programma codifica le istruzioni che configurano il processore e le periferiche dello stesso in modo da eseguire i passi del metodo secondo una o più delle forme esecutive descritte più sopra ed anche nel seguito.
In una configurazione secondo una forma esecutiva in cui è destinato non solo all’elaborazione di immagini, ma anche all’estrazione automatica dalle immagini elaborate di dati qualitativi e/o quantitativi relativi agli oggetti riprodotti nelle immagini. Il sistema può comprendere una memoria od un’area di memoria 330 in cui è memorizzato un programma di estrazione dei dati il quale codifica le istruzioni per l’esecuzione dei passi del metodo di estrazione delle caratteristiche qualitative e/o quantitative dalle immagini elaborate.
Una ulteriore memoria 340 od un’area di memoria è destinata alla memorizzazione delle immagini originarie e di quelle generate durante l’elaborazione e dei dati, in particolare dei dati estratti dalle immagini elaborate, come pure di eventuali rappresentazioni grafiche di questi dati. Un’unità di visualizzazione 350 consente di rendere visibili le immagini e/o le rappresentazioni grafiche dei dati estratti secondo una o più diverse modalità di rappresentazione selezionabili dall’utente. In ambito dell’imaging diagnostico sono previste diverse modalità di rappresentazione di immagini che possono essere utilizzate anche nel presente caso e che prevedono ad esempio una rappresentazione affiancata, sovrapposta e/o combinata di due o più diverse immagini dello stesso campo di vista o di diversi campi di vista.
Con riferimento al metodo secondo la presente invenzione che consente di eseguire una selezione automatica delle immagini digitali di output della fase di elaborazione, in una memoria od in un’area di memoria dedicata indicata con 370 è contenuto il programma di analisi e selezione automatica delle immagini che hanno un contenuto informativo funzionale alla determinazione dei parametri qualitativi, quantitativi e/o delle caratteristiche morfologiche, di posizione e/o dimensionali degli oggetti rappresentati dai pixel e dai voxel delle immagini. Questo programma contiene il codice che configura il processore 300 all’esecuzione dei passi del metodo di analisi e selezione automatica delle immagini di output secondo la presente invenzione e come descritto nell’introduzione alla descrizione e nella seguente descrizione dettagliata.
La figura 4, mostra un diagramma di flusso di un esempio esecutivo di un esempio di un metodo e di un sistema di elaborazione di immagini su cui si basa il metodo ed il sistema di analisi e selezione automatica delle immagini di output dell’elaborazione aventi contenuto informativo funzionale all’estrazione di caratteristiche qualitative e quantitative e/o morfologiche, di posizione e/o dimensionali degli oggetti rappresentati su una immagine.
L’esempio della figura 4 si riferisce in particolare ad una specifica applicazione che costituisce un esempio particolare ma non limitativo, sia per quanto attiene il campo di applicazione, ovvero le diagnosi angiografiche, sia per quanto attiene la specifica tipologia o famiglia dei metodi di elaborazione ovvero degli algoritmi di elaborazione delle immagini angiografiche acquisite sul paziente.
Una immagine 400 originaria digitale o digitalizzata, ad esempio una immagine angiografica di un vaso come una arteria ad esempio una coronaria viene sottoposta ad una prima fase 410 di trasformazione in una rete di unità fra loro connesse, essendo le unità costituite dai pixel e le connessioni costituite dalle relazioni fra un pixel centrale ed i pixel di contorno allo stesso ovvero i pixel che lo circondano, conformemente a quanto descritto con riferimento alla figura 1. Questo passo viene eseguito per ciascun pixel dell’immagine che diviene quindi una rete di pixel connessi. L’immagine diviene quindi una sorta di rete neurale artificiale capace di evolvere nel tempo in base a funzioni di evoluzione deterministiche previste per le unità, ovvero i pixel e/o per le connessioni fra pixel. Vengono pertanto definiti al passo 420 degli operatori che applicano delle regole evolutive matematiche secondo una prima fase di elaborazione. Tali regole evolutive sono funzioni destinate a modificare almeno alcuni dei parametri numerici che caratterizzano l’aspetto dei singoli pixel e/o almeno alcuni dei parametri numerici che caratterizzano le connessioni fra i singoli pixel. Gli operatori 420 vengono lanciati ed eseguiti in cicli iterativi fino al raggiungimento di un prestabilito numero massimo o di una condizione di stop definita da un criterio, preferibilmente matematico e ripetibile, come una funzione di costo o simili.
L’azione degli operatori definiti e lanciati al passo 420 sulla rete di pixel connessi, genera in uscita una rete 430 in cui i pixel e/o le connessioni sono modificate sulla base delle funzioni che caratterizzano gli operatori.
Come già evidenziato nella introduzione è possibile prevedere diverse varianti di configurazione degli operatori che possono determinare una variazione dinamica solo dei pixel in relazione ad uno o più dei parametri numerici che caratterizzano l’aspetto dei pixel, solo dei parametri che caratterizzano le connessioni fra i pixel, oppure sia dei parametri numerici che caratterizzano l’aspetto dei pixel e sia dei parametri che caratterizzano le connessioni fra i pixel.
Una seconda fase 440 di elaborazione delle immagini viene lanciata sulla rete di pixel fra loro connessi in uscita dalla prima fase di elaborazione. In questa seconda fase 440 sono nuovamente previsti operatori che applicano regole evolutive sia su uno o più dei parametri numerici che caratterizzano l’aspetto dei pixel sia su uno o più dei parametri numerici che caratterizzano le connessioni e che anche in questo caso possono operare nel senso di modificare dinamicamente solo i detti parametri numerici che caratterizzano l’aspetto dei pixel o solo i parametri numerici che caratterizzano le connessioni od ambedue le dette tipologie di parametri numerici.
Tipicamente, le funzioni di evoluzione in base alle quali operano gli operatori nella prima e nella seconda fase sono diverse fra loro come apparirà più chiaramente nella seguente descrizione.
Anche gli operatori della seconda fase vengono applicati con cicli iterativi sui pixel e sulle connessioni dell’immagine 430 di output della prima fase di elaborazione 420 ed in uscita si ottiene l’immagine finale 450 modificata nel suo aspetto. La ripetizione dei cicli iterativi anche in questa seconda fase viene interrotta al raggiungimento di un prestabilito criterio che può essere un numero massimo di cicli definito a priori oppure un criterio definito da una funzione, come una funzione di costo o simili e che è legato alla dinamica della elaborazione.
Secondo la forma esecutiva illustrata con linee continue, le due fasi di elaborazione vengono combinate con una fase di determinazione di caratteristiche degli oggetti riprodotti nell’immagine elaborata che è prevista al un passo 460 di analisi ed estrazione automatica di caratteristiche qualitative e/o quantitative dall’immagine elaborata finale 450.
Secondo una variante esecutiva è possibile prevedere una pluralità di fasi di elaborazione eseguite utilizzando diversi algoritmi di elaborazione o diverse impostazioni di uno stesso algoritmo di elaborazione, come indicato dalle caselle tratteggiate 470 e 480.
Come apparirà a seguito, la presente invenzione si riferisce ad un metodo e ad un sistema per immagini diagnostiche quali ad esempio quelle vascolari come la angiografia coronarica quantitativa (QCA) per la quale il metodo prevede di determinare i diametri del lume dell’arteria coronaria in diversi punti della stessa e/o le silhouette delle pareti e quindi lo spessore delle pareti delle coronarie.
Poiché come già indicato in precedenza, il metodo di elaborazione di immagini può prevedere un grande numero di diverse configurazioni delle funzioni evolutive e quindi degli operatori, nonché ad esempio diverse funzioni di determinazione del criterio di terminazione dei cicli di iterazione, la scelta di prestabilite configurazioni non è banale e non è ottenibile nell’ambito delle normali tecniche di sperimentazione dell’esperto del ramo.
Inoltre ciascuna fase di elaborazione genera un notevole numero di immagini di output che richiederebbero per la loro valutazione manuale tempi lunghissimi rendendo inefficace l’utilizzo dello strumento di assistenza alla diagnosi.
Il metodo secondo la presente invenzione consente di prevedere sistemi matematici di analisi dei risultati che porta all’identificazione di specifiche configurazioni del metodo di elaborazione e dei sistemi di elaborazione che forniscono risultati almeno paragonabili a quelli conseguibili con sistemi alternativi più invasivi.
Nel seguito verranno descritti a titolo di esempio particolari famiglie e configurazioni degli algoritmi e dei metodi e sistemi di elaborazione che sono adatti alla elaborazione di immagini digitali o digitalizzate al fine di far emergere caratteristiche qualitative, quantitative, morfologiche, di posizione e/o dimensionali degli oggetti riprodotti nelle dette immagini e che in particolare danno risultati di rilievo nello specifico esempio di applicazione al campo della diagnosi angiografica.
Secondo una prima forma esecutiva, l’invenzione prevede una particolare configurazione del metodo di elaborazione e del sistema di elaborazione di immagine relativamente alla prima fase di elaborazione.
La figura 5, mostra uno schema funzionale di questa prima configurazione della rete di pixel e degli operatori di evoluzione della rete di pixel.
In questo caso il metodo prevede di utilizzare una configurazione della architettura della rete e delle equazioni evolutive che è illustrato nella figura 5.
Secondo questa forma esecutiva il metodo è costituito da un processo iterativo che determina l’evoluzione di tre quantità principali:
- le unità U che rappresentano l’immagine, ovvero i pixel e le sue variazioni dinamiche,
- le connessioni W che rappresentano i collegamenti dinamici fra le unità U, ovvero i pixel;
- lo stato S del sistema che, in combinazione con le connessioni W, consente al sistema di convergere.
Si consideri ad esempio una immagine di input costituita da una immagine digitale a 8 bit con dimensioni NxM. Il set di unità minimali prevede di
equiparare ciascun’unità minimale <u >x ad un pixel dell’immagine di input od immagine sorgente. Ciascun’unità minimale rappresenta un nodo di una rete neurale artificiale ed assume la posizione del corrispondente pixel ad esempio in una immagine bidimensionale, cioè la posizione x = (x1,x2) , con x1 =
ed a cui è associato un valore di
intensità
All'inizio ciascun assume il valore di luminosità del pixel a cui è associato nella immagine originale. E' possibile che tale valore di luminosità sia normalizzato in un campo di valori di luminosità
in cui
Il set di connessioni W comprende per ciascuna coppia di unità minimali ux e uz le connessioni orientate definite come w e Queste connessioni dipendono dalle posizioni x = (x1,x2) e z = (z1,z2) delle unità minimali . All'inizio, cioè al ciclo iterativo 0, il valore delle connessioni fra
tutte le coppie di unità e è uguale e fissato ad un valore molto vicino a zero.
La funzione per ogni unità ux e quindi per ciascun pixel d'immagine è una grandezza che è determinata dalle connessioni di un pixel ux con ciascuno dei pixel di contorno uz.
Il processo iterativo si basa sulla modifica sequenziale delle grandezze W e U.
L'evoluzione delle connessioni W dipende dal set di valori delle grandezze U e W stesse ed è definita dalle seguenti equazioni:
In cui
ed in cui per ciascuna posizione i = (i1, i2) il contorno dei pixel è definito dall'intorno di Moore Ν(i), cioè dal set delle otto posizioni che circondano la posizione i in una matrice di posizioni e dalle relative grandezze di in cui [n] è l'indice del ciclo iterativo ed i è la posizione e la grandezza corrisponde al valore di almeno un parametro di caratterizzazione del pixel corrispondente all'unità della rete neurale artificiale alla posizione i e sono le grandezze numeriche che caratterizzano le connessioni fra l'unità, ovvero il pixel alla posizione i ed i pixel, ovvero le unità nelle posizioni di contorno j.
La determinazione del valore della grandezza S definita secondo il gergo delle reti neurali artificiali "stato di attivazione" dipende anch'essa dal set dei valori delle grandezze U e W secondo le seguenti equazioni:
si definisce
Per cui è possibile definire come:
Le modifiche delle unità minimali U dipendono dal set di valori S e dal set di valori U stessi al passo di iterazione precedente e sono definite dalle seguenti equazioni:
Per determinare la variazione dell'unità
cioè di almeno uno dei parametri numerici che caratterizzano l'aspetto di un pixel dell'immagine nella posizione i ed a seguito del numero di ciclo di iterazione n è possibile applicare due funzioni che combinano le grandezze e secondo due alternative ambedue possibili e che sono definite dalle seguenti equazioni:
[2.12 a] alternativa 1 (somma) :
[2.12 b] alternativa 2 (prodotto) :
I nuovi valori delle unità ,li,[:n+l], ovvero dei pixel alla posizione i al ciclo n+l sono quindi definiti dall'equazione:
[2.13]
La scelta fra le due alternative dipende dalla applicazione a cui l'elaborazione è rivolta quale fase di preparazione dell'immagine e ad esempio con riferimento all'utilizzo dell'elaborazione d'immagine in un metodo per l'estrazione di caratteristiche quantitative e/o qualitative di oggetti riprodotti nell'immagine ed in particolare delle arterie coronarie in immagini angiografiche, i risultati migliori si sono ottenuti con la prima alternativa.
Secondo una forma esecutiva, in luogo di utilizzare un numero massimo di iterazioni n prestabilito ad esempio sulla base di scelte sperimentali è previsto che il criterio della determinazione dell'interruzione della ripetizione iterativa dei cicli sia funzione di un parametro che considera la stabilizzazione dei valori delle grandezze e quindi delle grandezze
Secondo una forma esecutiva tale funzione è una funzione di costo che descrive l'energia della rete al passo di iterazione n quale risultato dei valori dei parametri che caratterizzano le connessioni dell'intera immagine, cioè dell'intero insieme di unità u e secondo la seguente equazione:
In cui gli indici e le variabili sono definiti secondo le notazioni precedenti.
A seguito del processo evolutivo, all'aumentare del numero di cicli iterativi eseguiti, si verifica una riduzione di energia, ovvero si verifica che:
Pertanto secondo una forma esecutiva, il criterio di determinazione del numero di cicli massimo ovvero del numero di ciclo terminale è definito come segue:
La funzione che descrive l'energia della rete sarà minima al termine del processo evolutivo secondo:
[2.17]
Quando si considera una immagine digitale di partenza in scala di grigi ed il parametro numerico che caratterizza i pixel e quindi le unità u della rete neurale è costituito dalla luminosità, allora l'output del processo di elaborazione secondo questa prima fase è una immagine digitale in scala di grigi.
Il metodo fornisce due diversi output che possono essere considerati alternativamente e cioè: un primo output che è definito dallo stato
dove la variabile Out è il valore numerico
di ciascun'unità u nella posizione i ed al passo iterativo n in cui n corrisponde al passo terminale del processo di elaborazione definito dalla minimizzazione della funzione di costo, ovvero di energia più sopra esposta;
un secondo output che è definito da
in cui l'output è funzione dei
parametri di caratterizzazione delle connessioni che nella notazione delle reti neurali sono equivalenti ai pesi. In questo caso ad una media dei valori dei pesi relativi a ciascuna posizione i ed al ciclo di terminazione definito dall'indice n calcolato sulla base della precedente funzione di costo.
Anche in questo caso la scelta di quale insieme di valori di output utilizzare come immagine di output è determinata dalla applicazione a cui l’immagine di output è destinata e può essere fatta sulla base di risultanze sperimentali su casi noti.
In ogni caso, le diverse alternative hanno dimostrato ciascuna che il metodo opera in modo eccellente come filtro adattivo con particolare efficacia nella segmentazione e nella rivelazione di contorni cosiddetta “edge detection”.
Le figure 6a a 6c mostrano gli effetti di questa prima fase del metodo di elaborazione su una immagine angiografica di un’arteria.
La figura 6a è l’immagine sorgente e le figure 6b e 6c sono due immagini relative a due diverse varianti del metodo più sopra descritto sempre relative alla forma esecutiva in cui la luminosità dei pixel viene modificata utilizzando la prima alternativa (somma) più sopra definita.
Appare evidente come già in questa prima fase di elaborazione nella zona indicata sia visibile nelle due immagini alternative di output 6b e 6c una stenosi del lume dell’arteria che non era visibile nell’immagine originaria di input 6a.
Nell’analisi sperimentale del metodo si è potuto rilevare operando con un sistema alternativo di controllo denominato IVUS cioè intravascular ultrasound, cioè un esame ad ultrasuoni intravascolare che l’output della prima fase di elaborazione non riesce a rilevare in tutti i casi la presenza di caratteristiche non visibili nell’immagine originaria.
Come appare evidente dalla descrizione dettagliata di questo primo esempio di algoritmo di elaborazione, è possibile definire diversi parametri di configurazione dell’algoritmo che portano a diverse immagini di output. La figura 7 mostra ad esempio alcune immagini che derivano dalla sola variazione del parametro α più sopra definito per lo stesso identico tipo di algoritmo. Le immagini di output dell’elaborazione mostrate sono relative ad un parametro α che varia dal valore minimo di -0,6 al valore massimo di 0,6 per passi di incremento di 0,1.
Secondo una ulteriore caratteristica dell’invenzione si è scoperto, che combinando la prima fase di elaborazione con una ulteriore fase di elaborazione che consiste sempre in una elaborazione di immagine applicata però all’immagine di output della prima fase l’efficacia del metodo aumenta diventando sostanzialmente paragonabile a quella dell’esame intravascolare ad ultrasuoni, ma risultando notevolmente meno invasiva e soprattutto superando i limiti di applicabilità dell’esame con ultrasuoni dovuto alla grandezza della zona intravascolare che pone delle limitazioni dimensionali ai vasi in cui può essere applicata, impedendo l’utilizzo in vasi troppo piccoli.
La seconda fase di elaborazione prevede che ciascuna immagine di output della prima fase venga elaborata sempre utilizzando la struttura dell’immagine quale rete di pixel od unità fra loro connesse, ma utilizzando diverse funzioni evolutive.
In questo caso diversamente dal metodo utilizzato nella prima fase, in cui l’evoluzione prevedeva la variazione dinamica sia delle unità, ovvero dei pixel sia delle connessioni con riferimento ad almeno uno dei parametri di caratterizzazione dell’aspetto dei pixel e delle connessioni, la scelta di configurazione del processo evolutivo di queste grandezze nell’elaborazione della seconda fase prevede che vengano modificate in modo dinamico solo le unità, ovvero i pixel mentre le connessioni restano fisse, cioè invariate.
Come apparirà più chiaramente in seguito, la seconda fase di elaborazione prevede una configurazione degli operatori di evoluzione dei parametri numerici che caratterizzano l’immagine che opera sempre su una rete di unità connesse in cui le unità sono i pixel dell’immagine di input, ma in cui le funzioni evolutive, hanno una ulteriore efficacia nel rivelare dettagli dell’immagine che non erano rilevabili sia nell’immagine originaria a monte dell’elaborazione della prima fase, sia nella immagine di output della prima fase di elaborazione.
Nell’esempio esecutivo descritto, il concetto su cui si basa il metodo di elaborazione della seconda fase di elaborazione consiste nel considerare una forma diversa di informazione delle relazioni fra i pixel e quindi fra le unità della rete in cui per ciascun pixel od unità vengono considerate non solo i pixel di contorno ovvero le unità del contorno di questo pixel che per semplicità definiremo pixel centrale o pixel target e le relative connessioni, ma anche le relazioni di ordine ulteriore, cioè i pixel o le unità di contorno relativi a ciascun pixel di contorno del pixel centrale o del pixel target e le relative connessioni senza che il detto pixel di contorno al pixel centrale venga esso stesso considerato un pixel centrale. La complessità dell’unità si estende quindi oltre i confini dei pixel di contorno del pixel centrale e l’iterazione dei cicli di elaborazione comporta che ciascun pixel contribuisca alla evoluzione di uno o più dei parametri di caratterizzazione di tutti gli altri pixel a prescindere dalla distanza che un pixel ha dagli altri pixel. In questo modo il contributo di ciascun pixel si propaga similmente ad un'onda agli altri pixel dell'immagine in elaborazione.
In una immagine bidimensionale comprendente M pixel si identifica con Piun generico pixel fra gli M pixel e con Pr(i) un ulteriore qualsivoglia pixel di un certo range in un'area d'intorno al pixel Pi definita con IS(i) di Pi , il quale contorno comprende anche il pixel Pi stesso. Pi è definito pixel centrale o pixel target dell'intorno IS e ciascun dei pixel Pr) all'interno di IS(i) viene considerato a sua volta il pixel centrale o target di un'area d'intorno IS(r), in particolare dell'area dei pixel di contorno adiacenti al pixel Pr(i) · Questi pixel di contorno dei pixel Pr(i) a loro volta di contorno del pixel centrale Pj sono definiti Pk(r) e sono contenuti nel contorno IS(r) dei pixel Pr(i) che fanno parte dell'insieme di pixel del contorno I5(i) del pixel centrale Pi .
In una immagine in scala di grigi, in cui l'aspetto dei pixel è connotato dal parametro numerico che rappresenta la luminosità del pixel è possibile definire una scala discreta di valori di luminosità da 0 a 255 ed i valori dei pixel Pi e Pr(i) è un numero intero che è compreso nel detto range da 0 a 255.
Secondo una prima caratteristica del metodo di elaborazione previsto nella seconda fase di elaborazione, è previsto di caratterizzare la distribuzione dei valori di luminosità dei pixel dell'immagine suddividendo il range di valori, ad esempio un range come quello definito precedentemente da 0 a 255, in una sequenza di una pluralità di intervalli fra loro adiacenti.
L'indice i= 1 , ,M in cui M è il numero dei pixel che formano l'immagine. L'indice r=1,...,N, in cui N è il numero complessivo dei pixel di un contorno IS di un i-esimo pixel. L'indice q=1,...,Q, in cui Q è il numero degli intervalli omogenei in cui il range di valori della luminosità dei pixel d'immagine fra 0 e 255 è suddiviso.
Inoltre, viene definito un percorso secondo cui viene generato un ordine di successione secondo cui vengono presi in considerazione i pixel Pr(i) del contorno del pixel centrale Pi . Come illustrato nella figura 8, il percorso indicato dalla freccia curva che mostra su un esempio semplificato di matrice di pixel la sequenza di visita dei pixel di contorno del pixel Pi . L'immagine mostra anche il contorno IS del pixel centrale Pi che comprende i pixel di contorno Pr(i) ed inoltre mostra un pixel Pr(i) ed il suo contorno IS(r) comprendente i pixel di contorno Pk(r) · Il percorso con cui vengono considerati i pixel di contorno è orientato in senso antiorario e parte dal pixel centrale Pi e porta uno dopo l'altro a ciascuno dei pixel Pr(i) del contorno IS .
La suddivisione della scala dei valori di luminosità in Q intervalli viene rappresentata sotto forma di matrice B(i) i cui elementi B(q,r) possono assumere valori 0 o 1 in dipendenza del fatto se o meno un pixel Pr(i) del contorno IS(i) presenta un valore di luminosità che ricade o meno in un intervallo q-esimo della suddivisione in Q intervalli del range dei valori di luminosità.
La somma Bq degli elementi di ogni q-esima riga della matrice B(i) identifica il numero dei pixel Pr(i) dell'area di contorno IS il cui valore di luminosità ricade nell'intervallo q-esimo.
La figura 8 mostra una matrice B(i) in cui l'intorno Is del pixel centrale Pi comprende un numero N di pixel di contorno pari a 9 compreso il pixel centrale. Il range del valore di luminosità è suddiviso in cinque intervalli, per cui Q=5.
Considerando un range come quello definito in precedenza da 0 a 255, i cinque intervalli possono essere definiti come segue:
A= [ 0 , 50 ] B= [51 , 101 ] C= [ 102 , 152 ] D= [ 153 , 203 ] E= [204 , 255 ]
Nella figura 9 per ciascuna riga q della matrice è indicata la somma del numero dei pixel che fra i nove pixel presentano una luminosità che cade nel corrispondente intervallo e l'intervallo A, B, C, D, E corrispondente alla riga.
Le quantità Bq sono quindi rappresentative delle probabilità di trovare nell'area di intorno Is del pixel centrale o target Pi un pixel Pr(i) , cui luminosità corrisponde ad un valore che ricade nel qesimo intervallo della suddivisione in Q intervalli.
Questa probabilità consente di determinare il valore massimo di informazione o l'entropia Hi da assegnare al pixel centrale o target Pi considerando i contributi dei pixel dell'area di contorno Is del pixel centrale Pi utilizzando la definizione di entropia differenziale data da Shannon.(A Mathematical Theory fo Communication C.E.Shannon, The Bell System Technical Journal Vol 27, pp.379-423, 623-656, July, October, 1948 scaricabile da http://www.qsl.net/n9zia/pdf/shannon1948.pdf) Secondo tale definizione è previsto di moltiplicare la probabilità secondo cui il valore di luminosità di un pixel ha di ricadere in un intervallo, ovvero la somma Bq diviso il numero complessivo N dei pixel dell'area Is compreso il pixel centrale P, con il logaritmo base 2 di questa probabilità, cambiare il segno algebrico e sommare i valori ottenuti per ciascun intervallo di suddivisione del range di luminosità come indicato nella seguente equazione:
In cui:
Hi è il valore massimo di informazione o l'entropia del pixel centrale
Secondo una ulteriore caratteristica del metodo di elaborazione per la seconda fase di elaborazione, allo scopo di arricchire il contributo che ciascun pixel Pr(i) del contorno di Pi conferisce al contenuto informativo del pixel Pi , nel presente metodo si tiene ulteriormente conto dei pixel del contorno IS(r) dei pixel Pr(i) del contorno IS di Pi . Estendendo i passi di metodo sopra applicati ai pixel del contorno Is di Pi anche ai pixel del contorno IS(r) di ciascun pixel Pr(i) è possibile calcolare anche il massimo valore informativo o l'entropia Hr(i) di Iiascun pixel applicando analogamente il processo di determinazione della matrice Β(ι), la determinazione delle probabilità che il valore di luminosità dei pixel del contorno IS(r) ricadano in uno dei Q intervalli in cui la scala dei valori di luminosità è suddivisa e la funzione [2.19] analoga alla funzione [2.18]:
In cui :
Un ulteriore passo del metodo per la seconda fase di elaborazione prevede la definizione di una grandezza Si che costituisce una misura di quanta informazione il pixel centrale Pi riceve e condivide con gli N pixel dell'insieme del suo contorno Is(i) · In questo passo al valore di entropia Hi del pixel centrale Pi si aggiungono gli N valori di entropia Hr(i) dei pixel di contorno Pr(i), eliminando però i contributi comuni dovuti alle intersezioni delle aree di contorno ls e IS(r) che condividono gli stessi pixel .
L'entropia congiunta del pixel centrale Pi e dei pixel dell'area di contorno IS(i) in cui vengono ulteriormente considerate anche le aree di contorno IS(r) dei pixel di contorno Pr(i) è data da:
In cui :
M numero di pixel in una immagine;
N numero di pixel che rientra in una area di contorno
di un pixel Pi ;
sono i pixel di una immagine;
corrispondente all'area di contorno
con un raggio prestabilito del pixel centrale Pi ;
è il pixel generico
di
corrispondente all'area di
rispondente al generico
pixel dell'area di contorno dei pixel di contorno
è l'area di contorno del pixel Pi che contiene N
pixel Pr(i) , incluso lo stesso pixel centrale Pi ;
IS(r) è l'area di contorno del pixel che contiene
N pixel , incluso lo stesso pixel
Q è il numero degli intervalli o classi in cui il range di valori della luminosità dei pixel è suddivisa ;
B (i) è la matrice associata a ciascun pixel Pi dell 'immagine;
Bq, r sono gli elementi della matrice B (i) di un pixel Pi e che hanno valori 1 or 0 in dipendenza del fatto se ciascun pixel Pr(i) dell'area di contorno
ricada o meno nel q-esimo intervallo;
Bq,k sono gli elementi della matrice B (i) di un pixel Pr(i) dell'area di contorno hanno valori 1 o 0 in dipendenza del fatto se ciascun pixel Pk(r) dell'area di contorno del pixel Pr(i) ricada o meno nel q-esimo intervallo (class q);
è l'entropia di ciascun pixel Pi di una
immagine;
è l'entropia di
ciascun pixel Pr(i) , dell' area di contorno di Pi;
è l' entropia congiunta
del pixel centrale Pi con quella dei pixel dell'area di contorno e considerando anche l'area di contorno dei pixel Pr(i) ·
A ciascun pixel Pi è possibile associare un vettore comprendente i valori delle entropie del pixel centrale Pi e dei pixel di contorno Pr(i) dello stesso eliminando l'entropia condivisa secondo la seguente equazione:
<si>
definisce la grandezza come "Maximum Information Entropy" (MIE) del pixel centrale Pi con i pixel della sua area di contorno e con le aree di contorno IS(r) dei pixel Pr(i) secondo la seguente equazione che prevede una somma pesata di questi valori di entropia:
Per cui :
Poiché è possibile collegare a ciascun pixel Pi di una immagine il valore della corrispondente grandezza
è possibile generare una nuova immagine composta
da pixel modificati nel loro aspetto, ovvero relativamente al valore numerico che definisce la luminosità degli stessi e che sono funzione della loro MIE.
Secondo una ulteriore caratteristica del metodo, i valori di di ciascun pixel centrale Pi possono essere scalati ad esempio fra 0 e 255 grazie ad una funzione di scala f:
Ciascuna immagine di output da questa seconda fase di elaborazione è una nuova immagine che evidenzia l'immagine originale in dipendenza del numero di intervalli Q scelto.
Secondo una variante esecutiva, per rendere più evidenti i contorni delle strutture rappresentate nell'immagine il metodo può prevedere di associare a ciascun pixel Pi dell'immagine un vettore wi,r(i) dei valori delle differenze fra il valore di luminosità del pixel Pi e di quelli dei pixel Pr(i) dell'intorno
[2.24]
In questo modo è possibile generare una funzione vettoriale che considera le differenze che ciascun pixel Pi ha nelle diverse direzioni verso i pixel Pr(i) del contorno.
Secondo una variante esecutiva, prima di determinare i valori delle componenti del suddetto vettore secondo la [2.24] è possibile prevedere di correggere il valore del pixel centrale Pi , (ovvero il valore numerico che ne definisce la luminosità con riferimento al presente esempio dell'immagine in scala di grigi) considerando il vettore definito con l'equazione [2.21] oppure con il corrispondente valore di entropia relativi al pixel Pi e con i corrispondenti valori relativi ai pixel di contorno Pr(i) dopo aver sottratto l'entropia mutua che condividono con i pixel del contorno IS(r) dei pixel Pr(i) . In questo modo il vettore associato a ciascun pixel Pi dell'immagine non contiene solo l'informazione relativa al pixel centrale Pi a cui si riferisce, ma anche quella condivisa e partecipata dai pixel Pr(i) del suo contorno più vicino
Secondo una ulteriore caratteristica, al fine di associare i valori dei pixel Pi con un valore che consideri i contrasti dell'informazione (compresi nel vettore che sono presenti con riferimento ai pixel Pr(i) del contorno i valori delle componenti del vettore wi,r(i) possono essere trasformati non linearmente applicando la funzione tangente iperbolica, secondo la seguente equazione:
Il valore ottenuto in seguito alla trasformazione prende il nome di "Maximum Entropy Gradient
(MEG).
Anche in questo caso è applicabile una scalatura con una funzione f ottenendo una immagine che evidenzia i contorni ed i contrasti:
La figura 10 mostra i risultati di diverse elaborazioni ottenute con il metodo della seconda fase di elaborazione secondo le due diverse varianti definite come MIE e MEG e secondo ulteriori diversi metodi di elaborazione. La figura 10A mostra l’immagine originaria di una arteria. L’immagine 10B mostra il risultato dell’elaborazione dell’immagine mediante un filtro di Sobel. L’immagine 10C è il risultato dell’elaborazione con un tool commerciale come Adobe Photoshop®. L’immagine 10D è il risultato dell’elaborazione utilizzando la variante denominata MIE secondo l’equazione [2.23] e l’immagine 10E mostra il risultato dell’elaborazione secondo la funzione [2.27] denominata MEG.
Come evidenziato dalle regioni delimitate dal cerchio nelle figure 10D e 10E, la stenosi dell’arteria appare ben evidenziata, mentre nelle altre immagini la stenosi o non è visibile oppure è lievemente evidenziata in misura tale da rischiare di essere sottostimata.
Anche in questo caso appare, dalle equazioni che descrivono lo specifico esempio, che la seconda fase di elaborazione eseguita anche solo su una delle immagini di output della prima fase di elaborazione comporta la generazione per ciascuna immagine di output della prima fase di elaborazione un notevole numero di diverse immagini di output relative alle diverse impostazioni di configurazione dell’algoritmo di elaborazione utilizzato in questa seconda fase di elaborazione.
Analizzando numericamente l’output delle immagini elaborate secondo gli specifici esempi più sopra descritti e considerando che ciascun algoritmo opera secondo diverse leggi di addestramento, diverse funzioni dei pesi, diverse funzioni di descrizione dei pixel, diverse classi, diversi attori, diverse dinamiche evolutive e diverse modalità di post processing e considerando anche che ciascuna elaborazione può prevedere un diverso numero di cicli di iterazione, il metodo di elaborazione che utilizza questi algoritmi genera un elevatissimo numero di immagini di output elaborate. Ciò significa che l’elaborazione di una sola immagine diagnostica produce potenzialmente migliaia di immagini di output ciascuna delle quali è caratterizzata da un contenuto informativo diverso relativamente alle caratteristiche qualitative, quantitative, morfologiche, di posizione e/o dimensionali degli oggetti riprodotti nella detta immagine.
In un esempio esecutivo in cui sono state utilizzati quattro tipi diversi di algoritmi di elaborazione ciascuno eseguito con un numero di cicli selezionato arbitrariamente fra i seguenti numeri di cicli 1, 3, 5, 10, 20, 50, 100, 150, 250 e 300, ciascuna immagine originaria è stata elaborata in circa 21.000 diversi modi alternativi ed ha prodotto circa 21.000 immagini di output. La figura 26 mostra un esempio di alcune di queste immagini di output ottenute dall’elaborazione con le diverse configurazioni dell’algoritmo di elaborazione in cui appare evidente il diverso aspetto delle immagini in relazione alle strutture in essa riprodotte rispetto all’immagine originariamente acquisita. Appare quindi anche evidente che i risultati dell’elaborazione non possono essere valutati direttamente da un operatore umano e che affinché l’azione dell’elaborazione dell’immagine volta a rendere visibili o ad evidenziare particolari inizialmente non visibili nell’immagine originaria resterebbe senza alcun significato pratico senza una analisi, selezione e scarto automatico delle immagini inutili o ridondanti dal punto di vista del contenuto informativo funzionale all’estrazione dei detti parametri qualitativi, quantitativi, morfologici, di posizione e dimensionali degli oggetti riprodotti nell’immagine originaria.
Il metodo secondo l’invenzione consente di eseguire in modo automatico sia l’analisi, sia la selezione e sia l’eliminazione delle immagini non rilevanti dal punto di vista del contenuto informativo e di ridurre il numero delle immagini di output delle fasi di elaborazione aventi un contenuto informativo valido ad una valore ragionevole per una analisi finale diagnostica da parte del personale umano.
Le Figure 11 a 19 mostrano i singoli passi di un esempio esecutivo del metodo della presente invenzione applicato ad una o più delle varianti esecutive dei metodi di elaborazione più sopra descritti ed all’applicazione angiografica.
La figura 11 mostra un primo passo di delimitazione e ritaglio dalla immagine originaria e dalle immagini di output dell’elaborazione di una regione d’interesse (cosiddetta ROI) centrata sul distretto anatomico o su un organo o un insieme di tessuti di interesse diagnostico. In questo caso la regione di interesse è relativa ad un segmento della coronaria. Nella parte sinistra della figura è visualizzata l’immagine originaria sovrapposta alla serie di immagini di output, mentre nella parte destra della figura è visualizzata la zona di interesse ritagliata dalla immagine originaria e dalle immagini di output a cui questa è mostrata sovrapposta per indicare il fatto che la stessa regione di interesse è ritagliata su ciascuna delle immagini di output.
Un secondo passo successivo prevede per ciascuna immagine di output il calcolo di parametri statistici che descrivono e caratterizzano la distribuzione delle gradazioni di grigio presenti in una immagine sui singoli pixel o voxel della stessa.
Esempi preferiti, ma non limitativi, di questi parametri statistici sono la media dei livelli di grigio dei pixel di una immagine, la distribuzione dei livelli di grigio sui pixel o voxel di una immagine, la deviazione standard della distribuzione dei livelli di grigio di una immagine, l’entropia della distribuzione dei livelli di grigio di una immagine.
La figura 12 mostra diverse tipologie di immagini di output il cui contenuto informativo non costituisce un contributo alla determinazione dei parametri quantitativi, qualitativi, morfologici, di posizione e/o dimensionali degli oggetti rappresentati nelle immagini poiché le immagini sono sostanzialmente nere, bianche o presentano una distribuzione della gradazione di grigi sostanzialmente omogenea.
La determinazione automatica di questa tipologia di immagini fra le immagini di output ha luogo definendo un valore soglia minimo per la deviazione standard della distribuzione delle gradazioni di grigio di una immagine ed il confronto della deviazione standard delle gradazioni di grigio per ciascuna immagine di output con il detto valore di soglia minimo. Le immagini di output che presentano valori di deviazione standard inferiori alla soglia vengono considerate da scartare.
La figura 13 mostra l’istogramma della distribuzione dei livelli di grigio sui pixel per le tipologie di immagini della figura 12 ed i relativi valori della deviazione standard. In questo esempio la soglia minima per il valore della deviazione standard è definita con valore 3 e vengono eliminate dall’insieme di immagini di output tutte quelle immagini per le quali la deviazione standard ha un valore inferiore a 3.
Un ulteriore tipologia di immagini a basso livello informativo è costituito dagli esempi mostrati nella figura 14. In questo caso si tratta di immagini punteggiate.
L’analisi di identificazione automatica di queste immagini secondo un esempio esecutivo della presente invenzione prevede di calcolare i valori della deviazione standard della distribuzione dei livelli di grigio ed i valori dell’entropia della distribuzione dei livelli di grigio di queste immagini, confrontando questi valori con corrispondenti valori di soglia ed eliminando automaticamente le immagini che hanno valori di deviazione standard superiori alla corrispondente soglia e valori di entropia inferiori alla corrispondente soglia. Queste immagini vengono automaticamente eliminate dall’insieme di immagini di output dell’elaborazione. Nell’esempio illustrato tutte le immagini della figura 14 sono state eliminate e la soglia per l’entropia è definita al valore 5.
La figura 25 mostra una ulteriore tipologia di immagine di output che viene automaticamente identificata ed eliminata grazie ad una forma esecutiva della presente invenzione. Si tratta di immagini affette da rumore bianco.
Queste immagini vengono riconosciute sulla base dalla distribuzione dei livelli di grigio sui pixel o voxel che le compongono.
Una forma esecutiva del metodo secondo la presente invenzione prevede di suddividere l’immagine in diverse zone come indicato nella parte sinistra della figura 16, e nel scegliere una zona avente le stesse dimensioni e forme con una posizione casuale sull’estensione dell’immagine, così come indicato con 1600 nella figura 16. Per questa zona e per le ulteriori zone in cui è suddivisa l’immagine viene determinato l’istogramma della distribuzione dei livelli di grigio sui pixel o voxel presenti nelle dette zone e se questi istogrammi coincidono o sono sostanzialmente identici allora l’immagine è affetta da rumore bianco e viene automaticamente eliminata dal gruppo di immagini di output.
Nella parte destra della figura 16 è mostrata una immagine di confronto a quella superiore e che non è affetta da rumore bianco. Nella parte sinistra sono mostrati gli istogrammi della zona 1600 e delle diverse zone in cui è suddivisa l’immagine. Come appare evidente per l’immagine affetta da rumore bianco gli istogrammi si sovrappongono in modo sostanzialmente congruente fra loro, mentre per l’immagine di confronto non affetta da rumore bianco gli istogrammi sono completamente diversi fra loro.
Secondo ancora un ulteriore esempio esecutivo illustrato nelle figure 17 e 18, il metodo della presente invenzione prevede l’analisi automatica delle immagini di output per l’identificazione automatica di immagini di output ridondanti per quanto attiene il contenuto informativo delle stesse, cioè sostanzialmente identiche fra loro.
La figura 17 mostra l’esito di un esperimento in cui una stessa immagine originaria 1700 è elaborata mediante diverse configurazioni di un algoritmo del tipo secondo la figura 5 ed un ulteriore algoritmo denominato CM. Appare visivamente evidente che il contenuto informativo visibile dalle immagini è essenzialmente identico.
Secondo un esempio esecutivo della presente invenzione le immagini ridondanti sono determinate sottraendo ciascuna immagine da ciascuna ulteriore immagine del gruppo di immagini di output mediante una sottrazione pixel per pixel e determinando i valori della media della distribuzione dei livelli di grigio e della deviazione standard della distribuzione dei livelli di grigio per ciascuna immagine ottenuta da ciascuna sottrazione. Le immagini vengono automaticamente considerate uguali e quindi una delle due una immagine ridondante quando il valore della media e della deviazione standard dell’immagine di sottrazione è zero o molto vicina a zero, ovvero approssimativamente zero.
Un esempio di questa condizione è mostrato nella figura 18 nella riga superiore della stessa. Nella parte inferiore della figura 18 è invece mostrato il risultato della determinazione della media e della deviazione standard nell’immagine di sottrazione di due immagini fra loro diverse. Sotto ciascuna immagine della figura 18 sono riportati i valori relativi alla media ed alla deviazione standard ed una rappresentazione dell’istogramma della distribuzione dei livelli di grigio.
Le immagini ridondati identificate vengono tutte eliminate eccetto una che viene mantenuta nel gruppo delle immagini di output.
Secondo ancora una caratteristica, fra le immagini identiche identificate viene mantenuta quella che è ottenuta con un elaborazione che presenta il più basso numero di cicli di elaborazione.
Secondo ancora un esempio esecutivo della presente invenzione, i passi più sopra indicati sono previsti fra loro in una prestabilita successione, venendo il passo seguente eseguito solo sulle immagini di output che sono state mantenute nel precedente passo di elaborazione.
La figura 19 mostra un diagramma di flusso della sequenza di passi di analisi, selezione ed eliminazione automatica di immagini con contenuto informativo non rilevante od insufficiente secondo questa forma esecutiva.
Al passo indicato con step 1 viene acquisita una immagine adatta alla analisi angiografica coronarica quantitativa (QCA). L’immagine originale viene sottoposta all’elaborazione con almeno due fasi ed almeno due diversi tipi di algoritmi di una famiglia denominata ACM e descritta con maggiore dettaglio in precedenza con riferimento alle figure 5 a 10. Sulle immagini di output delle elaborazioni al passo indicato con Step 2 viene determinata una regione di interesse che contiene il segmento della coronaria da esaminare e questa regione viene ritagliata da ciascuna delle immagini di output.
Al passo indicato con Step 3 le regioni di interesse ritagliate dalle immagini di output vengono utilizzate per determinare parametri statistici caratteristici della distribuzione dei livelli di grigio sui pixel del ritaglio di immagine relativo alla regione di interesse.
Grazie a ciò viene ridotto notevolmente il numero di pixel di immagine da elaborare.
Come appare dall’esempio sperimentale illustrato le immagini di output ottenute dall’elaborazione sono costituite da un gruppo di 21.000 immagini.
Una volta determinati i parametri statistici di caratterizzazione della distribuzione dei livelli di grigio nei singoli ritagli di immagine relativi alla regione di interesse di ciascuna immagine di input vengono eseguiti in successione i passi 4 a 7 indicati con Step 4, Step 5, Step 6 e Step 7 ed in cui a seguito di ciascun passo vengono eliminate dal gruppo delle 21.000 immagini di output le immagini di output aventi un contenuto informativo scarso o che sono inutilizzabile per l’estrazione dei parametri qualitativi, quantitativi, morfologici, di posizione e/o dimensionali degli oggetti riprodotti nelle dette immagini, ovvero nelle regioni di interesse.
Al passo Step 4 vengono inizialmente individuate ed eliminate automaticamente tutte le immagini, ovvero tutti i ritagli di immagine relativi alla regione di interesse che presentano un valore della deviazione standard della distribuzione dei livelli di grigio al di sotto di una prestabilita soglia come descritto con riferimento alla figura 12 e 13. Tale passo prevede l’eliminazione di queste immagini dal gruppo delle immagini di output.
Le restanti immagini che sono state mantenute nel gruppo di immagini di output vengono sottoposte al passo indicato come Step 5. In questo passo operando secondo quanto descritto con riferimento alla figura 14 vengono eliminate dal gruppo di immagini di output le immagini punteggiate e con un basso contenuto informativo, ovvero un basso valore dell’entropia della distribuzione dei livelli di grigio sui pixel delle immagini ovvero dei ritagli di immagine corrispondenti alla regione d’interesse.
Le restanti immagini di output, ovvero i ritagli corrispondenti alla regione di interesse delle restanti immagini di output vengono sottoposti ad un passo di identificazione ed eliminazione delle immagini affette da rumore bianco indicato con Step 6 e descritto in dettaglio con riferimento alle figure 15 e 16, mentre al passo definito come Step 7 vengono identificate le immagini ridondanti, ovvero le immagini che hanno lo stesso contenuto informativo e tutte le immagini identiche vengono eliminate mantenendone una sola di ciascun insieme di immagini ridondanti nel gruppo di immagini di output. Tale processo viene eseguito secondo quanto descritto con riferimento alle precedenti figure 17 e 18.
Nella figura 19 che si riferisce ad un diagramma di flusso di un esempio esecutivo sperimentale del metodo secondo la presente invenzione sono indicate anche le percentuali di riduzione del numero di immagini di output nel gruppo di immagini di output dopo ogni passo di analisi, selezione ed eliminazione automatica.
Come appare evidente dalla figura delle inziali 21000 immagini vengono sottoposte alla analisi visiva finale di un esperto per l’identificazione visiva di immagini con un contenuto informativo utile alla determinazione dei parametri quantitativi, qualitativi, morfologici, di posizione e/o dimensionali solo circa 500 immagini ed alla fine ne vengono selezionate fra queste solo 105 da cui estrarre i parametri qualitativi, quantitativi, morfologici, di posizione e/o dimensionali oggetto della analisi diagnostica.
In relazione alla specifica applicazione per l’analisi delle stenosi luminali delle coronarie mediante la tecnica della angiografia coronarica quantitativa, le immagini di output ottenute a seguito dei passi di metodo secondo la presente invenzione vengono utilizzate per determinare la silhouette e le dimensioni del lume del segmento di coronaria presente nella regione di interesse.
La figura 20 mostra un confronto dei risultati del metodo di analisi quantitativa di immagini angiografiche delle coronarie secondo una forma esecutiva della presente invenzione che prevede di determinare in modo automatico dalle immagini di output della seconda fase di elaborazione i valori del diametro del lume in diversi punti dell’estensione longitudinale della coronaria o di un segmento della stessa e le silhouette delle pareti delle coronarie.
Le immagini angiografiche digitali o digitalizzate dopo essere state sottoposte alle due fasi di elaborazione sopra descritte e dopo essere state sottoposte al procedimento di identificazione ed eliminazione automatica e successivamente visiva delle immagini povere di contenuto informativo possono venire sottoposte alla fase di estrazione automatica delle suddette misure.
Nella figura 20, il grafico di sinistra riporta i diametri del lume in diversi punti dell’arteria riportati sotto forma di distanza fra due pareti interne del vaso e rispettivamente sulla base di una normale immagine angiografica e sulla base in una immagine angiografica elaborata secondo una o più delle forme esecutive più sopra descritte.
L’informazione viene estratta in modo automatico dalle immagini utilizzando un metodo matematico denominato “sliding window” (finestra scorrevole). Due finestre scorrevoli che mediano su cinque misurazioni consecutive del diametro del lume dell’arteria rappresentata nell’immagine elaborata vengono spostate lungo l’asse dell’arteria a passi consecutivi di un punto. La prima finestra scorrevole viene spostata da un primo punto di misurazione ad un ultimo punto di misurazione. La seconda finestra viene spostata contemporaneamente nella direzione opposta a quella della prima finestra, cioè dal punto dell’ultima misurazione a quello della prima misurazione. Viene eseguita la media dei valori di misurazione ottenuti per ciascun passo, ovvero la media sulle 5 misurazioni consecutive ottenuti dalle due finestre scorrevoli e queste grandezze vengono riportate in funzione della lunghezza dell’arteria o del segmento di questa lungo cui sono state eseguite le misurazioni. Si ottengono quindi le silhouette smussate del lume come mostrato nel grafico di sinistra della figura 20. Analogamente lo stesso approccio può essere utilizzato per generare le silhouette della struttura anatomica della interfaccia fra flusso ematico ed intima e fra media e avventizia della parte superiore e di quella inferiore dell’arteria come mostrato nel grafico di destra della figura 20.
Le curve indicate con QCA e con ACM si riferiscono rispettivamente alle misurazioni eseguite sull’immagine angiografica non elaborata secondo il metodo della presente invenzione e alle misurazioni eseguite sull’immagine elaborata secondo il metodo della presente invenzione.
Appare evidente che il sistema tradizionale QCA genera valori superiori del diametro e quindi porta ad una sottostima della riduzione del lume, mentre la misurazione eseguita sull’immagine elaborata ACM evidenzia un lume generalmente più stretto.
La figura 21 mostra schematicamente i passi del metodo di confronto utilizzato per validare i risultati ottenuti dal metodo secondo la presente invenzione.
Al passo 2100 vengono generate le immagini angiografiche A e le immagini mediante imaging intravascolare ad ultrasuoni. Le immagini originarie angiografiche vengono quindi sottoposte ad una elaborazione secondo una delle varianti del presente metodo di elaborazione come indicato con 2110 e con l’immagine D. Parallelamente dalle immagini ecografiche intravascolari viene ricostruita l’immagine della silhouette dell’arteria come indicato al passo 2120.
La fase successiva 2130 prevede di eseguire le misurazioni sulle tre immagini cioè l’immagine angiografica originaria C, l’immagine elaborata E e l’immagine ricostruita dalle immagini ecografiche H. Da queste vengono determinate le misure dei contorni interni ed esterni del vaso. Queste vengono estratte dall’immagine in modo automatico grazie al metodo delle finestre scorrevoli (“sliding windows”). I dati di misurazione vengono quindi riportati in un grafico in cui vengono rappresentate le misure relative alla parete interna ed a quella esterna del vaso come indicato con 2140 I ed L.
Poiché l’operazione di confronto richiede che le misure siano eseguite sulla stessa immagine, ovvero sullo stesso segmento di arteria, è previsto un passo inziale di determinazione ed allineamento delle ROI (Region of Interest) delle immagini. Come appare dalle figure, il segmento di arteria analizzato è lo stesso per ciascun tipo di immagine ed anche la scala dimensionale è identica.
La figura 22 mostra con maggiore dettaglio le differenze fra l’informazione visibile nell’immagine originaria ed i vari punti di misurazione del lume da cui appare evidente che nell’immagine elaborata, le caratteristiche quantitative e qualitative sono meglio visibili e con maggiore precisione e dettaglio e sono sostanzialmente concordanti con le immagini ecografiche IVUS. 2220 indica l’immagine angiografica tradizionale, 2210 l’immagine elaborata secondo una delle forme esecutive del metodo descritto e le immagini 2230 sono le immagini ecografiche intravascolari.
La figura 23 è corrispondente alla figura 20, ma nella stessa è ulteriormente indicato il risultato delle misurazioni eseguite su immagini ecografiche acquisite con la tecnologia IVUS e da cui appare una notevole concordanza con le misurazioni ottenute dalle immagini elaborate secondo una delle forme esecutive del metodo più sopra descritte.
La figura 24 mostra il confronto fra le immagini ed i risultati quantitativi e qualitativi di due segmenti 16 e 17 ottenute rispettivamente col metodo della presente invenzione secondo la variante dell’equazione [2.23] e con il metodo di acquisizione ecografico intravascolare. Sulla sinistra è mostrata l’immagine angiografica originaria, nel centro l’immagine di output dell’elaborazione e la stessa immagine su cui sono riportate le silhouette delle pareti del vaso ottenute con il metodo di acquisizione ecografico IVUS e che sono mostrate di cornice alle immagini elaborate.
Analogamente, la figura 25 mostra una tavola analoga in cui è considerato un diverso segmento dell’arteria indicato come segmento 9 in questo caso il metodo utilizzato per l’elaborazione è costituito dalla variante secondo l’equazione [2.27].
In relazione alla descrizione degli esempi esecutivi di cui sopra è necessario notare che come già più sopra evidenziato il termine pixel deve essere inteso comprendere anche il termine voxel, essendo chiaro per il tecnico del ramo come estendere il metodo ed il sistema all’elaborazione di immagini tridimensionali.
Inoltre, il termine valore del pixel che nella precedente descrizione dei diversi esempi esecutivi è relativa al valore del parametro numerico che definisce l’aspetto del pixel in una immagine in scala di grigi, ovvero la sua luminosità deve anch’esso essere inteso come comprendere anche ulteriori parametri che caratterizzano l’aspetto del pixel in una immagine, come ad esempio i parametri che determinano il colore in una immagine a colori.

Claims (33)

  1. RIVENDICAZIONI 1. Metodo per l’elaborazione di immagini in cui ciascuna immagine è costituita da un insieme di punti immagine, cosiddetti pixel o voxel in particolare rispettivamente in uno spazio a due, tre o più dimensioni essendo ciascun punto immagine univocamente definito dalla sua posizione nell’insieme di punti immagine e da uno o più parametri numerici che definiscono l’aspetto del punto immagine relativamente alle caratteristiche di luminosità, gradazione di grigio, colore o simili ed in cui i detti parametri numerici vengono elaborati per mezzo di uno o di una combinazione di algoritmi non lineari, predittivi o di classificazione per determinare caratteristiche qualitative e quantitative dei tessuti corrispondenti ai pixel od ai voxel dell’immagine o caratteristiche morfologiche e/o dimensionali e/o di posizionamento di oggetti la cui riproduzione nell’immagine è corrispondente a gruppi di pixel o di voxel, le quali caratteristiche qualitative e quantitative dei tessuti corrispondenti ai pixel od ai voxel dell’immagine o caratteristiche morfologiche e/o dimensionali e/o di posizionamento di oggetti la cui riproduzione nell’immagine è corrispondente a gruppi di pixel o di voxel costituiscono indicazioni di ausilio alla diagnosi, il quale metodo prevede i seguenti passi: - Generare uno o più algoritmi di elaborazione fra loro diversi per tipologia e/o per impostazione di parametri funzionali; - Elaborare la detta una o più immagine mediante uno o più dei detti diversi algoritmi di elaborazione; - Organizzare i set di dati risultanti da ciascuna elaborazione di ciascuna immagine con un diverso algoritmo di elaborazione sotto forma di matrice di pixel o voxel di immagine, in cui i valori di ciascun dato sono rappresentati da parametri di aspetto del corrispondente pixel e voxel secondo una scala di grigi e la posizione del detto pixel e voxel è definita dalla posizione del pixel o voxel nell’immagine sottoposta ad elaborazione; - Analizzare i dati risultanti dall’elaborazione con i detti uno o più diversi algoritmi determinando per ciascun set di dati ottenuti dall’elaborazione con uno dei diversi algoritmi determinando uno o più od una combinazione di uno o più dei seguenti valori statistici che descrivono la distribuzione dei pixel o voxel nell’immagine di rappresentazione del set di dati ottenuti dall’elaborazione:, media, deviazione standard dei livelli di grigio, distribuzione dei livelli di grigio, entropia della distribuzione dei livelli di grigio in ciascuna immagine o di combinazioni di immagini come sottrazione di due immagini fra loro. - Eliminare automaticamente le immagini per le quali almeno uno dei suddetti valori statistici non soddisfa un prestabilito valore di soglia. - Mantenere tutte le altre immagini quali immagini valide per l’indicazione di ausilio alla determinazione delle caratteristiche qualitative, quantitative e morfologiche degli oggetti rappresentati nella o nelle immagini originarie.
  2. 2. Metodo per l’elaborazione di immagini in cui ciascuna immagine è costituita da un insieme di punti immagine, cosiddetti pixel o voxel in particolare rispettivamente in uno spazio a due, tre o più dimensioni essendo ciascun punto immagine univocamente definito dalla sua posizione nell’insieme di punti immagine e da uno o più parametri numerici che definiscono l’aspetto del punto immagine relativamente alle caratteristiche di luminosità, gradazione di grigio, colore o simili, ed in cui ciascun pixel o voxel costituisce un nodo di una rete neurale artificiale, essendo ciascun pixel o voxel connesso con ciascuno dei pixel o voxel ad esso adiacenti che circondano detto pixel o voxel, grazie ad un vettore di connessioni ciascuna delle cui componenti descrive rispettivamente un parametro numerico di caratterizzazione della connessione di un pixel con un pixel adiacente, venendo il detto insieme di pixel o voxel e l’insieme delle dette connessioni sottoposto iterativamente ad un passo di elaborazione in cui ciascun passo modifica almeno uno dei parametri numerici che definiscono l’aspetto di ciascun pixel e/o almeno una delle componenti dei vettori delle connessioni sulla base di prestabilite funzioni evolutive deterministiche applicate ad uno o più dei parametri che definiscono l’aspetto di ciascun pixel quali valori dei nodi della detta rete neurale artificiale e ad uno o più valori delle componenti dei vettori delle connessioni relative all’insieme di pixel o voxel ed all’insieme delle connessioni del ciclo di iterazione precedente, essendo previsto un numero massimo di iterazioni e/o un criterio di determinazione di una condizione di fine della ripetizione dei cicli di iterazione del processo di evoluzione; venendo i cicli del processo di evoluzione iterativa ripetuti fino al raggiungimento del detto numero massimo di cicli di iterazione e/o fino alla soddisfazione del criterio di terminazione; e venendo generata e visualizzata almeno una immagine di output costituita dai pixel o voxel con i parametri numerici di aspetto derivanti dall’ultimo ciclo iterativo e/o dai valori delle componenti dei vettori delle connessioni.
  3. 3. Metodo secondo la rivendicazione 2, in cui è previsto il passo di combinare almeno due fasi di elaborazione iterative che sono eseguite in sequenza fra loro, le fasi di elaborazione differenziandosi fra loro in relazione ad almeno una delle seguenti caratteristiche: le funzioni evolutive deterministiche applicate ad uno o più dei parametri che definiscono l’aspetto di ciascun pixel, quali valori dei nodi della detta rete neurale artificiale, e ad uno o più valori delle componenti dei vettori delle connessioni relative all’insieme di pixel o voxel ed all’insieme delle connessioni della fase di elaborazione precedente e/o al numero massimo di iterazioni, e/o ai criteri di terminazione della ripetizione dei cicli di iterazione, e/o al fatto di rendere modificabile con le funzioni evolutive deterministiche solo i parametri numerici che descrivono l’aspetto dei pixel o voxel, solo le componenti dei vettori delle connessioni entrambi i parametri numerici che descrivono l’aspetto dei pixel o voxel e le componenti dei vettori delle connessioni.
  4. 4. Metodo secondo una o più delle precedenti rivendicazioni in cui i pixel od i voxel delle immagini di output sono caratterizzati da parametri di aspetto rappresentati mediante una scala di gradazione di grigio.
  5. 5. Metodo secondo una o più delle precedenti rivendicazioni caratterizzato dal fatto che il passo di analisi e selezione dei risultati di elaborazione prevede il calcolo della deviazione standard della distribuzione dei livelli di grigio in ciascuna immagine di output e l’eliminazione delle immagini che presentano un valore della detta deviazione standard della distribuzione delle gradazioni di grigio al di sotto di una prestabilita soglia e corrispondenti ad immagini con un livello omogeneo di grigi o che sono sostanzialmente completamente nere o completamente bianche.
  6. 6. Metodo secondo una o più delle precedenti rivendicazioni caratterizzato dal fatto che il passo di analisi e selezione prevede alternativamente od in combinazione con la variante precedente il calcolo del livello di entropia della distribuzione dei livelli di grigio e l’eliminazione delle immagini per le quali il detto livello di entropia è al di sotto di una prestabilita soglia, corrispondendo dette immagini ad immagini punteggiate con basso contenuto informativo.
  7. 7. Metodo secondo una o più delle precedenti rivendicazioni caratterizzato dal fatto che il passo di analisi e selezione prevede l’eliminazione delle immagini di output dell’elaborazione che sono affette da rumore bianco, mediante la determinazione della deviazione standard della distribuzione delle gradazioni di grigio e della entropia della distribuzione delle gradazioni di grigio nelle dette immagini di output, la comparazione con un valore massimo di soglia e la determinazione delle immagini per le quali la detta deviazione standard e la detta entropia superano il corrispondente valore massimo di soglia, mentre queste immagini vengono suddivise in diverse zone di immagine, venendo per ciascuna area determinato l’istogramma della distribuzione delle gradazioni di grigio sui pixel e venendo gli istogrammi relativi alle singole zone confrontati fra loro, venendo eliminate le immagini per le quali gli istogrammi della distribuzione dei livelli di grigio sui pixel delle singole zone sono sostanzialmente identici fra loro.
  8. 8. Metodo secondo una o più delle precedenti rivendicazioni caratterizzato dal fatto che il passo di analisi e selezione prevede l’identificazione di immagini di output sostanzialmente identiche e l’esclusione di tutte le immagini ridondanti eccetto una, il detto passo prevedendo di: sottrarre fra loro pixel per pixel coppie di immagini ridondanti e determinare nell’immagine di sottrazione la media e la deviazione standard della distribuzione dei livelli di grigio, venendo le dette due immagini considerate sostanzialmente identiche quando il valore della media e della deviazione standard sono uguali a zero od al di sotto di una prestabilita soglia massima per detti valori.
  9. 9. Metodo secondo la rivendicazione 8 caratterizzato dal fatto che l’immagine da mantenere fra le diverse immagini ridondanti è selezionata considerando l’immagine che è stata ottenuta con il numero minore di cicli iterativi di elaborazione.
  10. 10. Metodo secondo una o più delle precedenti rivendicazioni caratterizzato dal fatto che prima delle fasi di analisi e di selezione, viene definita una regione di interesse (ROI) che costituisce una zone ritagliata dell’immagine originaria e centrata o contenente gli oggetti di interesse, come la regione anatomica od un organo od un tessuto di interesse, venendo detta regione di interesse ritagliata in ciascuna delle immagini di output delle dette due o più fasi di elaborazione.
  11. 11. Metodo secondo una o più delle precedenti rivendicazioni caratterizzato dal fatto che prevede una sequenza ordinata delle diverse varianti del passo di analisi e di selezione, la quale sequenza prevede: la determinazione della regione di interesse ed il ritaglio della stessa in ciascuna immagine di output; il calcolo dei parametri statistici di caratterizzazione della distribuzione delle gradazioni di grigio sui pixel o voxel delle immagini di output; l’identificazione e l’eliminazione delle immagini sostanzialmente completamente monocolori, ovvero sostanzialmente nere, bianche oppure con una gradazione di grigio sostanzialmente omogenea; nell’ambito delle immagini di output rimanenti, l’identificazione e l’eliminazione delle immagini punteggiate; nell’ambito delle immagini di output rimanenti dopo il passo precedente, l’identificazione e l’eliminazione delle immagini affette da rumore bianco; nell’ambito delle immagini di output rimanenti dopo il passo precedente, l’identificazione e l’eliminazione delle immagini ridondanti eccetto una.
  12. 12. Metodo secondo la rivendicazione una o più delle precedenti rivendicazioni, in cui nella prima fase l’elaborazione ha luogo mediante passi iterativi di elaborazione in cui le funzioni deterministiche di evoluzione modificano sia i valori dei parametri dei pixel o voxel e sia i valori delle componenti dei vettori delle connessioni.
  13. 13. Metodo secondo la rivendicazione 12, caratterizzato dal fatto che nella detta prima fase l’elaborazione ha luogo mediante passi iterativi in cui le funzioni deterministiche di evoluzione sono funzioni sia delle connessioni di ciascun pixel dell’immagine con i pixel di un insieme di pixel di contorno allo stesso, come i pixel direttamente ad esso adiacenti od i pixel di un sottoinsieme dei pixel dell’immagine al interno del quale è previsto detto pixel, sia delle connessioni che detti pixel di contorno hanno con ulteriori pixel dell’immagine per i quali costituiscono anche un pixel di contorno, la quale funzione costituisce un contributo di feedback immediato per la determinazione dei valori dei parametri numerici di definizione dell’aspetto di tutti gli altri pixel.
  14. 14. Metodo secondo la rivendicazione 12 o 13, in cui nella prima fase l’elaborazione ha luogo mediante passi iterativi di elaborazione in cui le funzioni deterministiche di evoluzione modificano solo i valori delle componenti dei vettori delle connessioni.
  15. 15. Metodo secondo una o più delle precedenti rivendicazioni, in cui nella seconda fase l’elaborazione ha luogo mediante passi iterativi di elaborazione in cui le funzioni deterministiche di evoluzione modificano solo i valori dei parametri numerici che descrivono l’aspetto dei pixel o dei voxel.
  16. 16. Metodo secondo una o più delle precedenti rivendicazioni caratterizzato dal fatto che prevede i seguenti passi nella seconda fase di elaborazione: definire in successione ciascuno dei pixel o voxel dell’immagine come pixel target; definire un insieme di pixel comprendente il detto pixel target ed i pixel di contorno che lo circondano; definire per ciascun pixel di contorno dell’insieme di pixel un insieme di pixel che contiene il detto pixel di contorno quale pixel target ed i pixel di contorno del detto pixel di contorno in qualità di pixel target; ripetere i passi di definizione di insiemi di pixel fintanto che per tutti i pixel dell’immagine è stato definito un insieme di pixel contenente il detto pixel quale pixel target ed i pixel di contorno allo stesso; definire una scala di valori per uno o più dei parametri che definiscono l’aspetto di ciascun pixel e suddividere la detta scala di valori in una successione di intervalli di valori; determinare per ciascun pixel di contorno in un insieme di pixel relativo ad un pixel target in quali degli intervalli di almeno un parametro numerico di definizione dell’aspetto dei pixel ricada il parametro numerico del detto pixel di contorno e quanti dei detti pixel di contorno dell’insieme ricadano nei diversi intervalli di valore dei detti parametri numerici; determinare il valore da assegnare al pixel target quale massimo valore di informazione ovvero di entropia calcolato in funzione dei pixel di contorno e delle connessioni con detto pixel target e del massimo valore di informazione od entropia calcolato in funzione del valore dei pixel di contorno a ciascun pixel di contorno del pixel target e delle connessioni di ciascun pixel di contorno del pixel target con i propri pixel di contorno, eliminando i contributi doppi; generare una nuova immagine in cui almeno un parametro numerico di aspetto di ciascun pixel della nuova immagine è determinato in funzione del valore calcolato al passo precedente.
  17. 17. Metodo secondo una o più delle precedenti rivendicazioni in cui i massimi valori di informazione relativi a ciascun pixel target possono venire scalati fra un valore minimo pari a zero ed un valore massimo di 255 grazie ad una funzione di scalatura.
  18. 18. Metodo secondo una o più delle precedenti rivendicazioni, in cui per evidenziare meglio i contorni è previsto di associare a ciascun pixel dell’immagine un vettore le cui componenti sono costituite dalla differenza di rispettivamente uno dei pixel di contorno del detto pixel target con il pixel target in relazione al valore di almeno uno dei parametri numerici che descrivono l’aspetto dei pixel.
  19. 19. Metodo secondo una o più delle precedenti rivendicazioni in cui è previsto il passo di eseguire una correzione del valore di almeno uno dei parametri numerici di definizione dell’aspetto dei pixel target in funzione del massimo valore di informazione, ovvero dell’entropia dello stesso e di quello dei pixel di contorno dopo aver sottratto i contributi condivisi con i pixel di contorno ai pixel di contorno del pixel target.
  20. 20. Metodo secondo una o più delle precedenti rivendicazioni in cui al fine di associare a ciascun pixel un valore di almeno un parametro numerico di descrizione dell’aspetto del detto pixel che consideri i contrasti dell’informazione con i pixel di contorno al valore del detto almeno un parametro numerico di definizione dell’aspetto di un pixel vengono sommati i valori delle componenti del vettore le cui componenti sono costituite dalla differenza di rispettivamente uno dei pixel di contorno del detto pixel target con il pixel target, i quali valori sono stati trasformati non linearmente mediante una tangente iperbolica.
  21. 21. Metodo secondo una o più delle precedenti rivendicazioni in cui le immagini elaborate sono, ad esempio, immagini angiografiche in particolare di arterie o delle coronarie.
  22. 22. Metodo per la determinazione automatica di caratteristiche quantitative e qualitative di vasi in particolare delle coronarie da immagini angiografiche, il quale metodo prevede le seguenti fasi: l’elaborazione di una o più immagini angiografiche con un metodo di elaborazione di immagini secondo una o più delle precedenti rivendicazioni e la generazione di almeno una nuova immagine di output del passo di elaborazione; la determinazione automatica del diametro del lume del vaso riprodotto nell’immagine in almeno un punto dell’estensione della riproduzione dell’arteria nell’immagine, preferibilmente in più punti lungo l’estensione della riproduzione dell’arteria nell’immagine e/o la determinazione della distanza fra strutture anatomiche rappresentate nelle immagini e considerate costituire le interfacce fra la tunica intima ed il fluido ematico e fra la tunica media e la tunica avventizia dello spessore delle pareti delle arterie superiori ed inferiori.
  23. 23. Metodo secondo la rivendicazione 22, in cui è previsto misurare il diametro del lume del vaso in una successione di diversi punti lungo almeno un segmento di vaso di prestabilita lunghezza riprodotto nell’immagine e di generare una immagine del profilo del lume del vaso lungo l’estensione in lunghezza del detto segmento di vaso.
  24. 24. Metodo secondo la rivendicazione 22 o 23, caratterizzato dal fatto che prevede di generare una immagine del profilo dello spessore delle pareti del segmento del vaso lungo l’estensione in lunghezza dello stesso.
  25. 25. Metodo secondo una o più delle precedenti rivendicazioni 22 a 24, caratterizzato dal fatto che un ulteriore forma esecutiva prevede di operare una lisciatura (smoothing) delle immagini del profilo del lume o del profilo dello spessore delle pareti arteriose il quale passo prevede l’utilizzo di un metodo matematico denominato sliding windows.
  26. 26. Metodo secondo la rivendicazione 25 caratterizzato dal fatto che prevede i passi di: Prevedere un primo operatore costituito da una “sliding window” che media su cinque misurazioni consecutive del lume o dello spessore delle pareti del vaso e che viene spostato lungo l’asse del segmento del vaso a passi consecutivi di prestabilita ampiezza, ad esempio di un pixel da una estremità all’altra del segmento di vaso in esame e riprodotto nell’immagine; Prevedere un secondo operatore costituito da una “sliding window” che media su cinque misurazioni consecutive del lume o dello spessore delle pareti del vaso e che viene spostato lungo l’asse del segmento del vaso a passi consecutivi di prestabilita ampiezza, ad esempio di un pixel, partendo dall’estremità opposta a quella di partenza del primo operatore e venendo spostato lungo l’asse del vaso in esame in direzione opposta alla direzione di spostamento del primo operatore, venendo i valori ottenuti dai detti due operatori per ciascun passo di spostamento medianti fra loro e riportati graficamente in funzione della lunghezza del segmento di vaso generando il profilo del lume del vaso e/o il profilo dello spessore delle pareti del vaso.
  27. 27. Metodo secondo una o più delle precedenti rivendicazioni 22 a 26 caratterizzato dal fatto che prevede alternativamente od in combinazione il passo di visualizzazione della o delle immagini elaborate e/o dei profili del lume di un segmento di vaso e/o dello spessore delle pareti di un segmento di vaso.
  28. 28. Metodo secondo una o più delle precedenti rivendicazioni 22 a 27, caratterizzato dal fatto che prevede ulteriormente la memorizzazione dei risultati delle misurazioni e/o delle immagini e/o dei grafici di rappresentazione dei profili del lume e/o dei profili dello spessore delle pareti di un segmento di vaso.
  29. 29. Sistema per l’elaborazione di immagini che comprende una rete neurale artificiale, la quale rete comprende: un nodo per ciascun pixel o voxel di una immagine; una connessione di collegamento di ciascun pixel dell’immagine con pixel di contorno che circondano un pixel; un operatore di determinazione di almeno un parametro numerico di definizione dell’aspetto dei pixel; un operatore di determinazione di valori numerici di definizione delle caratteristiche delle connessioni di ciascun pixel con ciascuno dei pixel di contorno allo stesso; i detti operatori essendo configurati per modificare alternativamente od in combinazione almeno un parametro numerico di definizione dell’aspetto dei pixel e/o almeno un valore numerico di definizione delle caratteristiche di almeno una connessione, un’unità di generazione di immagine che genera una immagine corrispondentemente alle modifiche causate dai detti operatori; un’unità di visualizzazione della detta immagine modificata, caratterizzato dal fatto che il sistema è configurato per eseguire i passi di metodo secondo una o più delle precedenti rivendicazioni 1 a 28.
  30. 30. Sistema secondo la rivendicazione 29, caratterizzato dal fatto che comprende ulteriormente un’unità di memorizzazione di almeno una delle immagini modificate.
  31. 31. Sistema secondo la rivendicazione 29 o 30, caratterizzato dal fatto che è costituito da un processore comprendente almeno una memoria, almeno un’unità di visualizzazione ed almeno un’interfaccia di comando, essendo il detto sistema configurato per eseguire uno o più passi del metodo secondo una o più delle precedenti rivendicazioni 1 a 28.
  32. 32. Sistema secondo la rivendicazione 31, in cui nello stesso è caricato un programma in cui sono codificate le istruzioni per configurare il processore all’esecuzione dei passi del metodo secondo una o più delle precedenti varianti.
  33. 33. Sistema per la determinazione di caratteristiche qualitative e quantitative di vasi, in particolare delle coronarie da immagini angiografiche, il quale sistema è realizzato secondo una o più delle rivendicazioni 29 a 32 ed è configurato per eseguire i passi del metodo secondo una o più delle rivendicazioni 22 a 28.
IT201800001656A 2018-01-23 2018-01-23 Metodo di elaborazione di immagini e metodo per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine, sistema per l’elaborazione di immagini e sistema per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine IT201800001656A1 (it)

Priority Applications (2)

Application Number Priority Date Filing Date Title
IT201800001656A IT201800001656A1 (it) 2018-01-23 2018-01-23 Metodo di elaborazione di immagini e metodo per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine, sistema per l’elaborazione di immagini e sistema per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine
PCT/IB2019/050520 WO2019145849A1 (en) 2018-01-23 2019-01-22 Method for processing images and method for determining quantitative and/or qualitative characteristics of objects reproduced in an image, system for processing images and system for determining quantitative and/or qualitative characteristics of the objects reproduced in an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT201800001656A IT201800001656A1 (it) 2018-01-23 2018-01-23 Metodo di elaborazione di immagini e metodo per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine, sistema per l’elaborazione di immagini e sistema per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine

Publications (1)

Publication Number Publication Date
IT201800001656A1 true IT201800001656A1 (it) 2019-07-23

Family

ID=62089850

Family Applications (1)

Application Number Title Priority Date Filing Date
IT201800001656A IT201800001656A1 (it) 2018-01-23 2018-01-23 Metodo di elaborazione di immagini e metodo per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine, sistema per l’elaborazione di immagini e sistema per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine

Country Status (2)

Country Link
IT (1) IT201800001656A1 (it)
WO (1) WO2019145849A1 (it)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114820535A (zh) * 2022-05-05 2022-07-29 深圳市铱硙医疗科技有限公司 动脉瘤的图像检测方法、装置、计算机设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111405206B (zh) * 2020-02-25 2022-07-26 南京邮电大学 一种泊松-高斯联合噪声图像序列分离降噪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2406908A (en) * 2000-12-04 2005-04-13 Cytokinetics Inc Classifying cells based on information contained in cell images
US7483618B1 (en) * 2003-12-04 2009-01-27 Yesvideo, Inc. Automatic editing of a visual recording to eliminate content of unacceptably low quality and/or very little or no interest
WO2009020972A2 (en) * 2007-08-06 2009-02-12 Historx, Inc. Methods and system for validating sample images for quantitative immunoassays
WO2009145723A1 (en) * 2008-05-30 2009-12-03 Ge Healthcare Bio-Sciences Corp System and method for detecting and eliminating one or more defocused or low contrast-to-noise ratio images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2406908A (en) * 2000-12-04 2005-04-13 Cytokinetics Inc Classifying cells based on information contained in cell images
US7483618B1 (en) * 2003-12-04 2009-01-27 Yesvideo, Inc. Automatic editing of a visual recording to eliminate content of unacceptably low quality and/or very little or no interest
WO2009020972A2 (en) * 2007-08-06 2009-02-12 Historx, Inc. Methods and system for validating sample images for quantitative immunoassays
WO2009145723A1 (en) * 2008-05-30 2009-12-03 Ge Healthcare Bio-Sciences Corp System and method for detecting and eliminating one or more defocused or low contrast-to-noise ratio images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114820535A (zh) * 2022-05-05 2022-07-29 深圳市铱硙医疗科技有限公司 动脉瘤的图像检测方法、装置、计算机设备及存储介质
CN114820535B (zh) * 2022-05-05 2023-09-12 深圳市铱硙医疗科技有限公司 动脉瘤的图像检测方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
WO2019145849A1 (en) 2019-08-01

Similar Documents

Publication Publication Date Title
US10762637B2 (en) Vascular segmentation using fully convolutional and recurrent neural networks
CN111192316B (zh) 用于动脉分析和评估的深度学习
CN104217418B (zh) 钙化血管的分割
CN106980899B (zh) 预测血管树血管路径上的血流特征的深度学习模型和系统
CN110517238B (zh) Ct医学影像ai三维重建与人机交互可视化网络系统
CN110944586B (zh) 来自x射线图像数据的炎症估计
CN111429502B (zh) 用于生成对象的中心线的方法和系统以及计算机可读介质
WO2014064702A2 (en) Automated measurement system and method for coronary artery disease scoring
US20220284583A1 (en) Computerised tomography image processing
CN109643449A (zh) 血管分支的识别
CN110858399B (zh) 用于提供虚拟断层扫描中风后续检查图像的方法和装置
US11122981B2 (en) Arterial wall characterization in optical coherence tomography imaging
JP2020011042A (ja) 脳血管異常の同定のための方法およびシステム
CN110444275B (zh) 用于快速计算血流储备分数的系统和方法
US10410355B2 (en) Methods and systems for image analysis using non-euclidean deformed graphs
CN109155063A (zh) 用于生成胆管树形结构的定量数据的方法和设备
US11600379B2 (en) Systems and methods for generating classifying and quantitative analysis reports of aneurysms from medical image data
CN111524109A (zh) 头部医学影像的评分方法和装置、电子设备及存储介质
CN113592879A (zh) 基于人工智能的颈动脉斑块分割方法、装置及存储介质
Auricchio et al. A clinically applicable stochastic approach for noninvasive estimation of aortic stiffness using computed tomography data
Marusina et al. Automatic analysis of medical images based on fractal methods
IT201800001656A1 (it) Metodo di elaborazione di immagini e metodo per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine, sistema per l’elaborazione di immagini e sistema per la determinazione di caratteristiche quantitative e/o qualitative degli oggetti riprodotti in una immagine
CN116309346A (zh) 医学图像的检测方法、装置、设备、存储介质及程序产品
US20220198667A1 (en) Method and device for extracting blood vessel wall
Tang et al. Automatic classification and segmentation of atherosclerotic plaques in the intravascular optical coherence tomography (IVOCT)