ITBO20010763A1 - Metodo , e relativa apparecchiatura , per la ricerca automatica di zone di interesse in immagini digitali di tessuto biologico - Google Patents
Metodo , e relativa apparecchiatura , per la ricerca automatica di zone di interesse in immagini digitali di tessuto biologico Download PDFInfo
- Publication number
- ITBO20010763A1 ITBO20010763A1 IT2001BO000763A ITBO20010763A ITBO20010763A1 IT BO20010763 A1 ITBO20010763 A1 IT BO20010763A1 IT 2001BO000763 A IT2001BO000763 A IT 2001BO000763A IT BO20010763 A ITBO20010763 A IT BO20010763A IT BO20010763 A1 ITBO20010763 A1 IT BO20010763A1
- Authority
- IT
- Italy
- Prior art keywords
- digital image
- areas
- coefficients
- interest
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 38
- 239000004744 fabric Substances 0.000 title 1
- 238000012706 support-vector machine Methods 0.000 claims description 27
- 206010028980 Neoplasm Diseases 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 8
- 210000000481 breast Anatomy 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 210000002249 digestive system Anatomy 0.000 claims description 3
- 210000004072 lung Anatomy 0.000 claims description 3
- 208000004434 Calcinosis Diseases 0.000 claims 4
- 239000013598 vector Substances 0.000 description 59
- 230000003902 lesion Effects 0.000 description 21
- 230000006870 function Effects 0.000 description 19
- 238000012549 training Methods 0.000 description 13
- 238000009607 mammography Methods 0.000 description 9
- 238000000354 decomposition reaction Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000013519 translation Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000000105 evaporative light scattering detection Methods 0.000 description 2
- 230000003211 malignant effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000005481 NMR spectroscopy Methods 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000036210 malignancy Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
Description
D ES CR IZ ION E
del brevetto per invenzione industriali
La presente invenzione è relativa ad un metodo ed una apparecchiatura, per la ricerca automatica di zone di interesse in immagini digitali di tessuto biologico.
Anche se nel prosieguo della presente descrizione ci riferiremo espressamente alla rivelazione di masse tumorali in immagini mammografiche digitali, resta inteso che gli insegnamenti della presente invenzione possono essere applicati, mutatis mutandis, alla analisi ed alla elaborazione di qualsivoglia tessuto biologico proveniente da qualsivoglia metodo di indagine, come, per esempio, Risonanza Magnetica Nucleare, termografia, ecografia, scintimammograf ia, TAC, ecc. di polmoni, apparato digerente, ecc.
Come è noto, le masse tumorali si presentano come addensamenti chiari a dimensioni lineari variabili dai 3 ai 20-30 mm, sono a bordi sfumati e variabili in tipo e definizione. Questo tipo di lesioni può variare notevolmente in densità ottica, da casi radiolucenti (scuri nella mammografia) , associati generalmente a lesioni benigne, a lesioni dense con forte radiopacità, spesso maligne. Le masse possono essere distinte per forma, posizione, dimensione, caratteristiche al bordo, attenuazione dei raggi X (indice di densità) ed effetti sul tessuto circostante.
Inoltre, varie combinazioni di forma e bordo sono riscontrabili nella pratica. Il tipo di combinazione può dare indicazioni sulla malignità della patologia. Ad esempio, le lesioni spiculate, costituite da un nucleo centrale radiopaco da cui irradiano strutture lineari note come spicule, sono considerate la manifestazione più tipica di lesioni maligne. Nelle masse spiculate il nucleo centrale denso corrisponde istologicamente al tessuto tumorale, mentre le spicule rappresentano la reazione fibrosa dello stroma. Quest'ultima è la risposta dell'organismo ospite alla comparsa del tumore. Per distorsione architetturale si intende una zona dove la normale architettura della mammella è distorta ma non è visibile nessuna massa tumorale definita. In questi casi il radiologo segnala la presenza di un centro di distorsione. Anche le asimmetrie di tessuto fra mammella destra e sinistra possono essere considerate patologiche e classificate come masse.
La manifestazione visiva nella mammografia di forma e bordo di una lesione non dipende solo dalle proprietà fisiche della lesione, ma è influenzata dalla tecnica di acquisizione dell'immagine e soprattutto dalla proiezione considerata. Una massa può apparire tonda o ovale a seconda della proiezione ed il suo bordo può essere oscurato in una particolare proiezione perché alla lesione si sovrappongono (in quella prospettiva) altre strutture normali nell'architettura della mammella. Questo porta alla necessità, in alcuni casi di effettuare altre mammografie in proiezioni mirate che permettano di distinguere reali lesioni da semplici pieghe di tessuto o effetti di sovrapposizione. Da quanto detto risulta difficile l'individuazione di grandezze morfologiche, direzionali o strutturali dell'immagine mammografica che possano caratterizzare le lesioni cercate a tutte le scale e le modalità di occorrenza. Per questo motivo molti degli algoritmi di rivelazione di masse finora realizzati si sono concentrati sulla ricerca di un solo tipo di masse o ad una particolare scala di ricerca.
Inoltre, gli algoritmi finora utilizzati necessitavano di informazioni sulle caratteristiche della massa in modo che il sistema potesse apprendere, in modo da localizzare la massa stessa avente tali caratteristiche. Pertanto, tali informazioni sulle masse dovevano essere inserite nel sistema da un operatore specializzato con un notevole dispendio di tempo ed a discapito del grado di precisione con cui le masse critiche venivano localizzate.
Per sviluppare una tecnica di rivelazione generale ed efficace per lesioni di caratteristiche diverse, con la presente invenzione si è seguito un approccio nuovo al problema di rivelazione delle masse.
Vista la complessità della classe di oggetti da rivelare, visto che tali oggetti hanno sovente caratteristiche molto simili all'ambiente nel quale si trovano, e vista la oggettiva difficoltà di modellizzare tale classe con poche grandezze misurabili, nell'approccio considerato non è stata cercata alcuna modellizzazione . Si è quindi addestrato un classificatore a riconoscere una lesione utilizzando sostanzialmente l'immagine originale, o una rappresentazione più efficiente dell'immagine originale con un contenuto informativo maggiore rispetto al contenuto informativo che si avrebbe se si utilizzasse un sistema di riconoscimento basato sui soli livelli di grigio.
In una forma di attuazione preferita si è scelto di usare come rappresentazione dell'informazione da fornire al classificatore i coefficienti della rappresentazione wavelet nella forma overcomplete, tali coefficienti essendo relativi ad ogni porzione di immagine da classificare. E' possibile, altresì, utilizzare altri tipi di rappresentazione quali, ad esempio, i livelli di grigio dell'immagine originale. Nella rappresentazione wavelet le caratteristiche strutturali e morfologiche dell'immagine sono codificate in forma più efficiente dal punto di vista del contenuto informativo. L'analisi in multirisoluzione propria della trasformata wavelet permette di evidenziare le proprietà strutturali dell'immagine a diverse scale di risoluzione.
Inoltre, la classificazione di porzioni di immagine mammografica, in una rappresentazione ad alto contenuto informativo, richiede l'uso di un classificatore che sia in grado di agire su spazi a migliaia di dimensioni. Una efficace classificazione in tali spazi è divenuta possibile solo recentemente con lo sviluppo dei classificatori addestrabili denominati Support Vector Machines (SVM). La strategia di apprendimento che le SVM attuano resta efficiente anche in spazi sparsi, permettendo una buona generalizzazione anche dopo un addestramento con un numero di esempi notevolmente inferiore alle dimensioni dello spazio di classificazione, al contrario di quanto accade per altri algoritmi classici (MLP, reti RBF). Una SVM può ottenere un buon risultato di classificazione, in termini di generalizzazione, se si verifica almeno una delle seguenti condizioni:
il valore atteso della compressione dell'informazione dei dati è alto, cioè pochi vettori di supporto inglobano l'informazione strutturale sulle classi da apprendere;
- l'iperpiano che separa le due classi è quello che massimizza la distanza tra le classi stesse, cioè le classi sono ben separate nello spazio delle caratteristiche ;
- la dimensione dello spazio di input è piccola rispetto al numero di esempi presentati.
Inoltre, le SVM attuano una sorta di controllo automatico dell'informazione veicolata dalle varie caratteristiche permettendone una "selezione".
Ciò avviene in due modi:
(1) - solo alcuni dei vettori delle due classi determinano la funzione decisionale, tali vettori sono denominati vettori di supporto; in questo modo SVM seleziona quella parte dei vettori di addestramento che nello spazio delle caratteristiche scelto veicolano tutta l'informazione utile a definire le classi; per SVM non è importante conoscere pienamente come i dati di apprendimento si distribuiscano nello spazio delle caratteristiche, quel che importa è il comportamento ai bordi della distribuzione in detto spazio;
(2) - la funzione decisionale è l'iperpiano di massimo margine, definito dalla coppia w,b dove w è il vettore normale all'iperpiano, combinazione lineare dei vettori di supporto; tale vettore w ha le sue maggiori componenti (è direzionalmente più allineato a quei vettori di base dello spazio) lungo le dimensioni per cui i dati sono maggiormente separati; inoltre, aggiungere una dimensione per cui i dati di apprendimento sono totalmente sovrapposti, non varierà l'iperpiano di separazione scelto da SVM.
Vista l'abilità delle SVM nel controllare spazi a molte dimensioni, mantenendo buone capacità di generalizzazione, si è aperta la possibilità di eliminare o limitare la fase di estrazione delle caratteristiche per un compito di classificazione. L'approccio di ricerca automatica seguito con la presente invenzione possiede un ulteriore vantaggio, rispetto ai metodi attualmente in uso, relativo al fatto che il sistema si adatta automaticamente al tipo di immagini che deve analizzare (radiografia, mammografia, tomografia, risonanza magnetica, ecc.), indipendentemente dal tipo di macchinario utilizzato per l'acquisizione della immagine e dalle condizioni di acquisizione .
Pertanto oggetto principale della presente invenzione è quello di fornire un metodo per la ricerca automatica di zone di interesse in una immagine digitale rappresentante almeno una porzione di tessuto biologico; metodo comprendente il passo di classificazione di detta immagine digitale come zona sospetta o meno, utilizzando un classificatore denominato Support Vector Machine (SVM).
Ulteriore oggetto della presente invenzione è una apparecchiatura atta ad implementare il metodo principale oggetto della presente invenzione.
La presente invenzione verrà ora descritta con riferimento ai disegni annessi, che illustrano un esempio di attuazione non limitativo, in cui:
- la figura 1 illustra un diagramma a blocchi di una forma di attuazione di un metodo di ricerca automatica secondo la presente invenzione;
la figura 2 mostra un esempio di ridimensionamento dell'immagine nella fase di sottocampionamento ;
- la figura 3 illustra un passaggio della maschera di scansione alla scala X con passo δ;
- la figura 4 mostra funzioni di scala Haar a densità singola, doppia e quadrupla;
- la figura 5 illustra il numero dei coefficienti di scala e wavelet per livello prodotti da analisi a singola densità; e
- la figura 6 illustra il numero dei coefficienti di scala e wavelet per livello prodotti da analisi a doppia densità.
L'algoritmo proposto nella presente invenzione codifica tutte le zone dell'immagine in forma di vettori numerici, tali vettori vengono poi classificati in positivi e negativi per mezzo di un classificatore SVM. Ai vettori positivi corrispondono le aree giudicate sospette dal sistema.
Le wavelet offrono una rappresentazione dell'immagine particolarmente adatta ad evidenziare caratteristiche strutturali, geometriche e direzionali degli oggetti interni all'immagine. I classificatori SVM sono in grado di estrarre informazione da rappresentazioni dei dati senza che alcuna conoscenza a priori sul pattern sia codificata nell'architettura del classificatore o nella progettazione delle caratteristiche da parte del ricercatore. Da queste due osservazioni prende le mosse l'applicazione qui proposta .
Il sistema rivela lesioni in posizione arbitraria e a diverse scale nell'immagine mammografica di input. Per fare ciò si addestra un classificatore SVM a classificare come oggetto positivo un riquadro centrato sulla massa presa in considerazione. Addestrato il classificatore, il sistema rivela una lesione in generica posizione scansionando e classificando tutte le possibili locazioni dell'immagine con il passaggio di una finestra di rivelazione quadrata a dimensioni fisse. Combinando il passaggio di scansione con un sottodimensionamento iterato dell'immagine di input si ottiene la rivelazione a più scale. Ogni riquadro classificato come positivo, individua nell'immagine mammografica alla scala originale una zona giudicata sospetta dal sistema. Si noti che il problema di rivelazione è stato ridotto ad un problema di classificazione binaria del tipo "classe positiva" -"non classe positiva".
Il classificatore riceve in input vettori riga. Quindi, per la classificazione, ad ogni riquadro viene fatto corrispondere un vettore numerico attraverso un processo di codifica vettoriale. I coefficienti di decomposizione wavelet vengono organizzati in forma vettoriale e normalizzati. Il numero di componenti di tale vettore, a parità del tipo di configurazione di codifica vettoriale scelta, è determinato dalle dimensioni del riquadro prodotto dalla scansione. Quindi, per ottenere vettori dimensionalmente omogenei in fase di classificazione, tutti i riquadri prodotti devono avere le stesse dimensioni.
Il sistema a regime si compone di quattro moduli logici principali:
- modulo di pre-elaborazione immagine e produzione riquadri;
- modulo di codifica vettoriale per ogni riquadro; - modulo di classificazione dei vettori; e
- modulo di visualizzazione output.
I moduli operano in cascata, cioè l'output prodotto da ogni modulo costituisce l'input del modulo successivo. Al modulo di classificazione va integrato il modulo di addestramento del classificatore. Quest'ultimo non opera a regime ma implementa la fase di produzione del modello di apprendimento per la classificazione.
II modello di apprendimento, una volta prodotto, è memorizzato sotto forma di configurazione di parametri di classificazione. Al momento dell'uso del sistema basterà leggere il modello di apprendimento, cioè sarà sufficiente utilizzare i parametri di classificazione individuati dal modello.
I quattro moduli logici visti sopra, individuano le principali fasi di elaborazione dei dati. Ogni fase è implementata da vari moduli informatici di elaborazione, ognuno dei quali assolve una funzione specifica della catena di operazioni che portano dall'input, cioè una mammografia digitalizzata da esaminare, all'output costituito dalla stessa immagine mammografica di input su cui sono segnalate le aree giudicate sospette dal sistema.
In figura 1 è presentata la sequenza di elaborazioni implementate dall'algoritmo di rivelazione; qui di seguito verranno analizzati i passi di elaborazione illustrati in tale figura.
Difatti, le lesioni che noi cerchiamo occorrono a diverse scale nella mammografia, tipicamente in un intervallo di dimensioni lineari che va dai 3mm ai 20-30mm. Si pone quindi il problema di operare una scansione dell'immagine a diverse scale con il vincolo di dover presentare al classificatore vettori dimensionalmente omogenei. Data l'architettura del sistema le dimensioni dei vettori da classificare sono strettamente connesse alle dimensioni dei riquadri di immagine estratti in fase di scansione. Il vincolo dimensionale imposto dal classificatore si traduce quindi in un vincolo fisico sull'estensione dei riquadri prodotti in fase di scansione, cioè tutti i riquadri scansionati devono avere uguali numeri di pixel per riga e per colonna. Pertanto, la soluzione implementata è stata quella di tenere fisse le dimensioni della maschera di scansione ridimensionando a diverse scale 1'immagine originale. In questo modo la maschera di scansione produrrà a tutte le scale riquadri di uguali dimensioni che però rappresenteranno zone di area totale diversa all'interno della mammografia, secondo quanto illustrato in figura 2.
Ad esempio, sia data un'immagine mammografica di input di 4000x3000 pixel ed una maschera di scansione di 64x64pixel. Estraendo dall'immagine di dimensioni originali maschere 640x640, 320x320 e 213x213 pixel e ridimensionandole tramite algoritmi di interpolazione al 10%, al 20% ed al 30%, la maschera di scansione di 64x64 pixel conterrà le informazioni riguardanti, rispettivamente, le maschere 640x640, 320x320 e 213x213. Scomponendo il processo di sottodimensionamento in più passi iterati fino ad ottenere la scala desiderata è possibile mantenere le informazioni strutturali e di contrasto nell'immagine sufficienti per la classificazione .
In altre parole, il modulo di scansione genera l'insieme dei riquadri dell'immagine mammografica che devono, essere classificati. Esso opera su ognuna delle immagini derivate dalla fase di pre-elaborazione. Il suo input è quindi costituito da n versioni dell'immagine originale segmentata, cioè una per ogni scala di ridimensionamento a cui si vuol condurre la ricerca. Data un'immagine ridimensionata su di essa viene passata una maschera quadrata a dimensioni fisse, come mostrato in figura 3. Nella forma di attuazione preferita la maschera è stata scelta con dimensioni pari a 64x64 pixel; tale scelta è stata di compromesso fra la convenienza di avere maschere quanto più grandi possibile, in modo da ridurre al minimo la perdita di informazione in fase di sottodimensionamento dell'immagine, e la fattibilità computazionale dell'intero processo di rivelazione.
La necessità di avere sovrapposizioni fra i riquadri di scansione è dettata da vincoli di coerenza con il set di esempi positivi presentato al classificatore in addestramento. Ogni esempio positivo è una porzione di un'immagine mammografica digitalizzata contenente una massa. La massa è contenuta completamente ed è centrata sul riquadro. Il classificatore è quindi addestrato a riconoscere come positivo un vettore corrispondente ad un riquadro centrato (con una certa tolleranza di decentramento) su una lesione. Senza sovrapposizione in scansione molte lesioni potrebbero essere non rivelate perché non inquadrate o tagliate sul bordo fra due riquadri. La sovrapposizione è controllata dal parametro di passo scansione; tale parametro ha un valore fissato ad una lunghezza pari a circa 1/10 di quella delle dimensioni lineari estrapolate della maschera alla scala minima di ricerca. Ad esempio, se il fattore minimo di sottodimensionamento è 0,3, la maschera di 64x64 pixel coprirà un'area estrapolata di circa 200x200 pixel. In questo caso il passo di scansione sarà fissato a 20 pixel. Tale scelta assicura almeno un riquadro centrato sulla lesione a quella scala.
I coefficienti wavelet costituiscono una rappresentazione dell'immagine in cui il contenuto di informazione strutturale direzionale e morfologica risulta espresso in forma efficiente dal punto di vista dell'informazione stessa. I coefficienti wavelet codificano le differenze in modulo fra i valori medi di intensità di livello di grigio corrispondenti a diverse zone e lungo diverse direzioni nell'immagine. Inoltre, tale codifica è effettuata a diverse scale. Tali coefficienti sono grandi in modulo laddove vi è un forte cambiamento in intensità di livelli di grigio, mentre presentano modulo nullo per zone ad intensità uniforme; in questo modo i bordi degli oggetti risultano visibili nella trasformata. Per ogni immagine abbiamo tre matrici-immagini di coefficienti wavelet corrispondenti agli sviluppi orizzontale, verticale e diagonale. Di ogni oggetto saranno quindi evidenziate le proprietà strutturali lungo tre proiezioni direzionali. L'idea è quella di fornire al classificatore una rappresentazione completa dell'immagine senza indirizzare la generalizzazione della classe con assunzioni derivanti dalla nostra modellizzazione del pattern. Tale scelta è dovuta alla complessità del pattern da rivelare e alla difficoltà di individuare grandezze misurabili che sintetizzino proprietà caratterizzanti il pattern stesso rispetto allo sfondo costituito dal normale tessuto mammario alle diverse scale.
Nella presente forma di attuazione preferita del sistema la trasformata wavelet dell'immagine è utilizzata per fornire tale rappresentazione perché ritenuta più adatta ad evidenziare le caratteristiche strutturali e morfologiche del pattern cercato. A tal fine, si considerano le basi di Haar e le loro proprietà ed infine si propone una tecnica di decomposizione wavelet overcomplete, che permette di espandere il set di coefficienti di rappresentazione dell'immagine con una codifica ridondante.
Nella trasformata wavelet di Haar tradizionale le funzioni di base non hanno sovrapposizioni spaziali. Esse traslano lungo gli assi x, y di quantità corrispondenti alla misura del loro supporto. Nella presente invenzione si è cercato di aumentare la risoluzione di decomposizione utilizzando una trasformata per cui le funzioni di base wavelet e di scala traslino di frazioni del loro supporto, ottenendo in tal modo una trasformata overcomplete. Tale trasformata overcomplete realizza una codifica ridondante dei dati con funzioni di base di scala e wavelet sovrapposte spazialmente. In questo modo si distribuisce su un maggior numero di coefficienti l'informazione relativa ad ogni porzione di immagine.
A seconda del grado di sovrapposizione si ha più o meno ridondanza nella codifica. Il grado di sovrapposizione può essere assimilato alla densità delle funzioni di base di scala e wavelet sui relativi spazi di approssimazione. Con riferimento alla frazione della misura del supporto di cui si opera la traslazione, avremo densità singola, doppia, quadrupla a seconda che il fattore di traslazione sia rispettivamente pari alla misura del supporto, ad 1/2 della misura del supporto o ad 1/4 di tale misura. In figura 4 troviamo un esempio monodimensionale per le funzioni di base Haar a densità singola, doppia e quadrupla.
Per la nostra applicazione bisogna tener conto del fatto che la funzione di cui si deve calcolare la trasformata wavelet è un'immagine quantizzata sull'intervallo di definizione; l'immagine è rappresentata in forma matriciale. In questo caso non è definita una traslazione di quantità inferiori ad 1/2 della misura del supporto.
Nell'analisi Haar, ogni coefficiente di dettaglio wavelet al livello j+1 è funzione di due coefficienti di scala del livello j attraverso gli operatori di filtro. La misura del supporto della funzione corrispondente al filtro copre quindi uno spazio di due coefficienti. In analisi a singola densità, come abbiamo detto, la traslazione spaziale è pari alla misura del supporto quindi ci si sposterà di due coefficienti per volta, cioè il filtro opererà sui successivi due coefficienti nella stringa. Così facendo si ottengono al livello j+1 la metà dei coefficienti che si avevano al livello j. In figura 5 il coefficiente wavelet I del livello 1 è funzione dei coefficienti di scala I e II del livello 0, il secondo coefficiente wavelet del livello 1 è funzione dei coefficienti di scala III e IV del livello 0 ecc. Al livello 0 si hanno 16 pixel dell'immagine originale, ai livelli 1 e 2 si hanno, rispettivamente, 8 e 4 coefficienti di media a cui corrispondono altrettanti coefficienti di dettaglio wavelet.
Per l'analisi a doppia densità il supporto della funzione corrispondente al filtro non cambia, quindi agirà sempre su due coefficienti per operazione. Cambia invece la misura della traslazione, pari questa volta a metà della misura del supporto. In questo modo due coefficienti wavelet successivi del livello j+1 saranno funzione di 2 coppie di coefficienti di scala del livello j con un coefficiente comune. In figura 6 il coefficiente wavelet I del livello 1 è funzione dei coefficienti di scala I e II del livello 0, il secondo coefficiente wavelet del livello 1 è funzione dei coefficienti di scala II e III del livello 0. In questo modo dati n coefficienti al livello j avremo n-1 coefficienti al livello j+l. Al livello 0 si hanno 16 pixel dell'immagine originale, ai livelli 1 e 2 si hanno, rispettivamente, 15 e 14 coefficienti di media, a cui corrispondono altrettanti coefficienti di dettaglio wavelet .
Per ottenere un effetto multirisoluzione si dimezzano il numero di coefficienti di scala ogni 2 livelli di doppia densità, con un'operazione di sottocampionamento lineare, cioè si tengono solo i coefficienti ad ordinale dispari nella sequenza di coefficienti del livello considerato. In questo modo si rendono confrontabili per scala di risoluzione i coefficienti del livello j della singola densità con i coefficienti del livello 2j della doppia.
Di ognuno dei riquadri prodotti dalla scansione alle varie scale viene calcolato lo sviluppo wavelet. Si ottengono in tal modo per ogni livello di decomposizione i tre tipi di coefficienti, orizzontali, verticali e diagonali. Ad ogni livello questi coefficienti derivano da un'immagine bidimensionale, quindi le tre immagini di sviluppo wavelet orizzontale, verticale, diagonale saranno organizzate in matrici bidimensionali. Assumendo di utilizzare i livelli 2°, 4° e 6° di trasformata wavelet tipo Haar overcomplete a doppia densità, dato un riquadro di partenza di 64x64 pixel, in questa configurazione si avrà la seguente sequenza di decomposizione :
livello 0° riquadro 64 x 64 come prodotto dal modulo di scansione;
livello 1° = (63 righe) x (63 colonne) x (3 direzioni) coefficienti wavelet;
livello 2° = 62 x 62 x 3 coefficienti wavelet; a questo punto si sottocampionano i coefficienti di scala ottenendo 31 coefficienti di scala sui 62 di cui sopra per ogni direzione;
livello 3° = 30 x 30 x 3 coefficienti wavelet; livello 4° = 29 x 29 x 3 coefficienti wavelet;
a questo punto si sottocampionano i coefficienti di scala ottenendo 14 coefficienti di scala sui 29 di cui sopra per ogni direzione;
livello 5° = 13 x 13 x 3 coefficienti wavelet; livello 6° = 12 x 12 x 3 coefficienti wavelet.
Ogni due livelli il numero dei coefficienti di scala si dimezza, cioè si prendono solo i coefficienti ad ordinale dispari (questo per limitare il numero di coefficienti totali) e per mantenere un effetto multirisoluzione .
Infatti, per effetto del passaggio di sottocampionamento sui coefficienti di scala, al livello successivo due coefficienti wavelet adiacenti raccolgono informazione da un bacino di coefficienti di scala relativi a zone più ampie nell'immagine originale. In questo modo la grana della scala di analisi diventa più grossa.
Se si considerano solo i coefficienti wavelet dei livelli 2°-4°-6° il numero di coefficienti totale risulta pari a:
Il contributo maggiore in numero è dato dai livelli più bassi corrispondenti ad una scala di risoluzione più fine. E' da notare che due riquadri adiacenti prodotti per spostamento della maschera di scansione di 20 pixel differiranno nella rappresentazione wavelet soprattutto alle scale fini. I livelli superiori di decomposizione infatti sono meno sensibili alla traslazione.
Nella forma di attuazione preferita qui descritta si è utilizzata la trasformata Haar perché è la più semplice e veloce da calcolare ed è quella che pone meno problemi di interpolazione al bordo, fatto importante, visto che si analizzano migliaia di finestre per ogni immagine elaborata.
Il classificatore SVM riceve in input vettori riga, che rappresentano punti nello spazio di input risultante. Occorre quindi riorganizzare le matrici di coefficienti wavelet in un unico vettore riga. Nello spazio di input del classificatore SVM ogni coefficiente individuerà una dimensione. La modalità di costruzione del vettore è strettamente legata alla fase di normalizzazione dei vettori, che risulta determinante ai fini di una corretta classificazione.
La codifica scelta per il vettore di caratteristiche segue il seguente iter:
(1) - ogni matrice viene mappata in un unico vettore riga, costituito da tutte le righe della matrice messe in sequenza (es. riga 1, riga 2,.., riga n);
(2) - i vettori riga costruiti al punto 1 vengono uniti in un'unica sequenza di coefficienti; tali vettori riga sono ordinati per livello di decomposizione crescente e raggruppati per direzione.
In questo modo scegliendo i livelli 2°, 4° e 6° overcomplete il vettore di caratteristiche prototipo a 14487 elementi sarà così strutturato:
(oriz. 2° liv., oriz. 4° liv., oriz. 6° liv., vert.
2° liv., ..., vert. 6° liv., diag. 2° liv., ..., diag. 6° liv.).
Possiamo introdurre il termine di classe di coefficienti wavelet riferendoci all'insieme di coefficienti individuato da un indice di livello ed un indice di direzione. Usando tre livelli di decomposizione e tre direzioni avremo nove classi di coefficienti a costituire il vettore di caratteristiche.
Prima di essere pronto per la classificazione il vettore deve essere normalizzato, questo per assicurare una rapida convergenza del modello di apprendimento e per bilanciare il peso delle varie caratteristiche.
La classificazione di un vettore in fase di generalizzazione è basata sul modello di apprendimento creato a partire dal set di esempi in dipendenza dei parametri di apprendimento.
In fase di utilizzo del sistema, il classificatore carica in memoria una serie di triplette dove ogni si è un vettore di supporto del modello di apprendimento generato, a, è il corrispondente moltiplicatore di lagrange ed è
l'indicatore di classe.
Le triplette specificano l'iperpiano di classificazione risultato dall'ottimizzazione in apprendimento. Il classificatore deve usare in classificazione il medesimo tipo di kernel utilizzato in apprendimento, con relativi parametri.
A questo punto per ogni nuovo vettore da classificare la regola decisionale è semplicemente:
dove b0 è una costante legata alla posizione dell'iperpiano separatore, esplicitabile come funzione delle triplette di cui sopra. I vettori x per cui sono classificati come positivi.
Per ogni vettore positivo si calcola la distanza dall'iperpiano di separazione; tale distanza dall'iperpiano è un indice di confidenza sulla correttezza della classificazione. Un vettore classificato positivo a grande distanza dall'iperpiano avrà maggiore probabilità di essere un vero positivo rispetto ad un vettore molto vicino all'iperpiano, quindi vicino alla zona di confine fra i bordi delle due classi. Il valore del modulo di tale distanza viene salvato, insieme alle coordinate del riquadro corrispondente, riferite alla scala dell'immagine mammografica originale. I riquadri salvati come positivi vengono visualizzati e mostrati come zone sospette al radiologo .
In altre parole, il classificatore fornisce, per i riquadri salvati come positivi un numero indicante la probabilità che la zona sia molto o poco di interesse. Tale probabilità può essere di estremo aiuto, al fine di individuare lesioni che, data la loro somiglianza con l'ambiente in cui si trovano, possono sfuggire all'occhio del radiologo.
Inoltre, il classificatore SVM rende possibile usare con profitto spazi a migliaia di dimensioni con set di addestramento dell'ordine di qualche migliaio di esempi. Una SVM non si basa sull'estensione del set di esempi per approdare ad una buona generalizzazione, ma sulla sua significatività a bordo distribuzione. Per una SVM solo una parte dei vettori di esempio contribuiscono alla creazione del modello di apprendimento, tali vettori sono denominati vettori di supporto. Più piccola è la percentuale di vettori di supporto migliore sarà la generalizzazione della macchina. La chiave di interpretazione risiede nel fatto che per le SVM la modellizzazione delle classi si basa sulle proprietà dei vettori di esempio al bordo di confine fra le due classi. La strategia di apprendimento della SVM non è quella di astrarre caratteristiche medie dei rappresentanti delle due classi, al fine di creare due vettori prototipo, uno per classe e classificare un nuovo vettore in base alla sua maggiore prossimità all'uno o all'altro vettore prototipo. Al contrario, la SVM classifica un nuovo vettore in base alla sua maggiore distanza dal bordo dell 'una o dell'altra classe. Per tale motivo ragionare sulle proprietà medie delle caratteristiche non aiuta a prevedere il comportamento della macchina in fase di generalizzazione. Non si deve però pensare che un nuovo vettore da classificare che abbia proprietà simili a quelle medie di una classe possa essere classificato non correttamente. Il nuovo vettore da classificare sarà comunque classificato correttamente mantenendo la coerenza del processo di apprendimento. Quel che SVM aggiunge agli altri classificatori è un migliore controllo dei casi di confine, quelli di cui è più difficile decidere l'appartenenza all'una o all'altra classe. Avendo un campione di esempi rappresentativo della distribuzione ai bordi delle due classi, la macchina userà questi esempi per tracciare una mappa di confine fra le classi. In questo modo occorrono molti meno esempi per generalizzare di quanti ne servirebbero se si dovesse modellizzare tutta la distribuzione dei vettori della classe al fine di astrarne le proprietà medie. Queste considerazioni si riflettono sulla fase di preparazione del set di esempi di addestramento. Nel costituire detto set si è dovuto tenere conto di due esigenze :
(a) f ornire c asi r appresentativi d ella distribuzione e della variabilità degli esempi di una classe, tentando di rappresentare al meglio i bordi della distribuzione dei vettori di ogni classe;
(b) fornire molti più esempi della classe negativa, quella presentante la maggiore variabilità interna; ciò è dovuto al fatto che si è ricondotto un problema di multiclassificazione ad una classificazione binaria del tipo "Classe A"- "Non classe A".
Per risolvere questo problema ci si può basare sulla tecnica del "bootstrapping" per l'addestramento. L'idea di base implementata in questa tecnica è di considerare la formazione del set di addestramento come un processo iterativo orientato dalle prestazioni del classificatore. In pratica si parte da un set di base in cui si cerca di fornire un campione per quanto possibile rappresentativo delle due classi. Quindi si genera un modello di apprendimento sulla base di questo set, per poi verificare la performance del sistema. Tutti i nuovi vettori classificati non correttamente entrano a far parte del set di addestramento. In un certo senso si induce così la macchina ad apprendere dai suoi errori. Si noti che i nuovi vettori di esempio, classificati non correttamente in base al modello appreso sul set di esempi precedente, saranno vettori di supporto per il nuovo modello. In questo senso si riesce ad aumentare la rappresentatività del set di esempi rispetto alla distribuzione della classe al bordo senza conoscere l'effettiva distribuzione dei vettori nello spazio di input .
Nel nostro problema quest'approccio si traduce in due operazioni diverse per le due classi. Per la classe positiva, le classificazioni non corrette in fase di test sono dei falsi negativi, quindi per correggere il tiro dell'apprendimento bisogna considerare quali tipi di masse non vengono rivelate dal sistema e rappresentarle meglio nel set di addestramento. Per la classe negativa si considerano tutti i riquadri falsi positivi evidenziati dal sistema e li si inserisce nel set di addestramento. Si noti che per aumentare il set degli esempi negativi occorre testare il sistema su un set di immagini mammografiche normali che non presentino lesioni ed usare i sicuri falsi positivi eventualmente prodotti per queste immagini come nuovi ulteriori esempi negativi. Iniziando, quindi, da un set di addestramento di partenza lo si è infoltito in base agli errori di classificazione del sistema, al fine di eliminare tipologie di falsi positivi prodotti.
Il vantaggio principale del presente metodo risiede nel fatto che il sistema di ricerca si adatta automaticamente sia al tipo di immagine da analizzare, sia alle condizioni di acquisizione di tale immagine. Inoltre, è possibile ricercare zone di interesse senza inserire alcuna informazione riguardo alle caratteristiche delle lesioni che si vogliono rivelare.
Claims (17)
- R I V E N D I C A Z I O N I 1. Metodo per la ricerca automatica di zone di interesse in una immagine digitale rappresentante almeno una porzione di tessuto biologico; metodo comprendente la fase di classificazione di detta immagine digitale come zona sospetta, o meno, utilizzando un classificatore denominato Support Vector Machine (SVM).
- 2. Metodo come rivendicato alla rivendicazione 1, caratterizzato dal fatto che detto classificatore fornisce, per dette zone classificate come sospette, un numero indicante la probabilità di interesse.
- 3. Metodo come rivendicato in una qualsiasi delle rivendicazioni precedenti, caratterizzato dal fatto che detta immagine digitale rappresenta tessuto mammario.
- 4. Metodo come rivendicato alla rivendicazione 3, caratterizzato dal fatto che dette zone di interesse rappresentano masse tumorali.
- 5. Metodo come rivendicato alla rivendicazione 3, caratterizzato dal fatto che dette zone di interesse rappresentano microcalcificazioni o gruppi di microcalcificazioni.
- 6. Metodo come rivendicato in una qualsiasi delle rivendicazioni 1-2, caratterizzato dal fatto che detta immagine digitale rappresenta tessuto polmonare.
- 7. Metodo come rivendicato in una qualsiasi delle rivendicazioni 1-2, caratterizzato dal fatto che detta immagine digitale rappresenta tessuto relativo all'apparato digerente.
- 8. Metodo per la ricerca automatica di zone di interesse in una immagine digitale rappresentante almeno una porzione di tessuto biologico; metodo comprendente le seguenti fasi: a) fornire una rappresentazione a coefficienti wavelet di detta immagine digitale; e b) classificare detta immagine digitale come zona sospetta, o meno, sulla base di detta rappresentazione, utilizzando un classificatore denominato Support Vector Machine (SVM).
- 9. Metodo come rivendicato alla rivendicazione 8, caratterizzato dal fatto che il classificatore della fase b) fornisce, per dette zone classificate come sospette, un numero indicante la probabilità di interesse.
- 10. Metodo come rivendicato in una qualsiasi delle rivendicazioni 8-9, caratterizzato dal fatto che detta immagine digitale rappresenta tessuto mammario.
- 11. Metodo come rivendicato alla rivendicazione 10, caratterizzato dal fatto che dette zone di interesse rappresentano masse tumorali.
- 12. Metodo come rivendicato alla rivendicazione 10, caratterizzato dal fatto che dette zone di interesse rappresentano microcalcificazioni o gruppi di microcalcificazioni.
- 13. Metodo come rivendicato in una qualsiasi delle rivendicazioni 8-9, caratterizzato dal fatto che detta immagine digitale rappresenta tessuto polmonare.
- 14. Metodo come rivendicato in una qualsiasi delle rivendicazioni 8-9, caratterizzato dal fatto che detta immagine digitale rappresenta tessuto relativo all'apparato digerente.
- 15. Metodo come rivendicato in una qualsiasi delle rivendicazioni 8-14, in cui detta rappresentazione a coefficienti wavelet di detta immagine digitale è una rappresentazione a coefficienti wavelet overcomplete.
- 16. Metodo come rivendicato in una qualsiasi delle rivendicazioni precedenti atto ad essere implementato in una apparecchiatura di elaborazione ed analisi immagini di tessuto biologico.
- 17. Apparecchiatura atta ad implementare un metodo c rivendicato alle rivendicazioni 1-15.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT2001BO000763A ITBO20010763A1 (it) | 2001-12-14 | 2001-12-14 | Metodo , e relativa apparecchiatura , per la ricerca automatica di zone di interesse in immagini digitali di tessuto biologico |
EP02027970A EP1324267A3 (en) | 2001-12-14 | 2002-12-13 | Automatic detection of regions of interest in digital images of biological tissue |
US10/321,800 US7181056B2 (en) | 2001-12-14 | 2002-12-16 | Method, and corresponding apparatus, for automatic detection of regions of interest in digital images of biological tissue |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT2001BO000763A ITBO20010763A1 (it) | 2001-12-14 | 2001-12-14 | Metodo , e relativa apparecchiatura , per la ricerca automatica di zone di interesse in immagini digitali di tessuto biologico |
Publications (2)
Publication Number | Publication Date |
---|---|
ITBO20010763A0 ITBO20010763A0 (it) | 2001-12-14 |
ITBO20010763A1 true ITBO20010763A1 (it) | 2003-06-16 |
Family
ID=11439746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT2001BO000763A ITBO20010763A1 (it) | 2001-12-14 | 2001-12-14 | Metodo , e relativa apparecchiatura , per la ricerca automatica di zone di interesse in immagini digitali di tessuto biologico |
Country Status (3)
Country | Link |
---|---|
US (1) | US7181056B2 (it) |
EP (1) | EP1324267A3 (it) |
IT (1) | ITBO20010763A1 (it) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6996549B2 (en) * | 1998-05-01 | 2006-02-07 | Health Discovery Corporation | Computer-aided image analysis |
US7224827B2 (en) * | 2002-09-27 | 2007-05-29 | The Board Of Trustees Of The Leland Stanford Junior University | Method for matching and registering medical image data |
US7346209B2 (en) | 2002-09-30 | 2008-03-18 | The Board Of Trustees Of The Leland Stanford Junior University | Three-dimensional pattern recognition method to detect shapes in medical images |
US7490071B2 (en) * | 2003-08-29 | 2009-02-10 | Oracle Corporation | Support vector machines processing system |
US20050053270A1 (en) * | 2003-09-05 | 2005-03-10 | Konica Minolta Medical & Graphic, Inc. | Image processing apparatus and signal processing apparatus |
US7831087B2 (en) * | 2003-10-31 | 2010-11-09 | Hewlett-Packard Development Company, L.P. | Method for visual-based recognition of an object |
JP2005198970A (ja) * | 2004-01-19 | 2005-07-28 | Konica Minolta Medical & Graphic Inc | 医用画像処理装置 |
DE102005036998B4 (de) * | 2005-08-05 | 2014-11-20 | Siemens Aktiengesellschaft | Vorrichtung zur automatischen Detektion von Auffälligkeiten in medizinischen Bilddaten |
CN100455267C (zh) * | 2005-08-17 | 2009-01-28 | 北京天惠华数字技术有限公司 | 一种对b超胎儿性别鉴别进行记录的方法 |
ITBO20060200A1 (it) * | 2006-03-20 | 2007-09-21 | Arcadia Lab S R L | Metodo, e relativa apparecchiatura per la ricerca automatica di zone di interesse in immagini digitali. |
US8126267B2 (en) * | 2007-02-05 | 2012-02-28 | Albany Medical College | Methods and apparatuses for analyzing digital images to automatically select regions of interest thereof |
US8203338B2 (en) * | 2007-08-06 | 2012-06-19 | Carestream Health, Inc. | Linear structure verification in medical applications |
ES2322120B1 (es) * | 2007-10-26 | 2010-03-24 | Consejo Superior De Investigaciones Cientificas | Metodo y sistema para analisis de singularidades en señales digitales. |
CA2744690C (en) * | 2007-12-13 | 2016-07-05 | University Of Saskatchewan | Image analysis |
KR101268520B1 (ko) * | 2009-12-14 | 2013-06-04 | 한국전자통신연구원 | 영상 인식 장치 및 방법 |
US8737747B2 (en) * | 2011-02-14 | 2014-05-27 | Xerox Corporation | Method for automated tire detection and recognition |
CN102783972B (zh) * | 2012-08-21 | 2014-07-23 | 薛新华 | 一种非医学需要鉴定胎儿性别的监控系统 |
CN103020653B (zh) * | 2012-12-07 | 2015-07-22 | 中国科学院自动化研究所 | 基于网络分析的结构和功能磁共振图像联合分类方法 |
JP5880454B2 (ja) * | 2013-01-11 | 2016-03-09 | 富士ゼロックス株式会社 | 画像識別装置及びプログラム |
US10698918B2 (en) * | 2013-11-20 | 2020-06-30 | Qliktech International Ab | Methods and systems for wavelet based representation |
CN104408072B (zh) * | 2014-10-30 | 2017-07-18 | 广东电网有限责任公司电力科学研究院 | 一种基于复杂网络理论的适用于分类的时间序列特征提取方法 |
US9622698B2 (en) | 2014-11-19 | 2017-04-18 | Xerox Corporation | System and method for detecting cancerous tissue from a thermal image |
US9486146B2 (en) | 2015-03-25 | 2016-11-08 | Xerox Corporation | Detecting tumorous breast tissue in a thermal image |
US10055542B2 (en) | 2015-03-25 | 2018-08-21 | Niramai Health Analytix Pvt Ltd | Software interface tool for breast cancer screening |
US9870615B2 (en) | 2017-07-19 | 2018-01-16 | Schwalb Consulting, LLC | Morphology identification in tissue samples based on comparison to named feature vectors |
US10706534B2 (en) * | 2017-07-26 | 2020-07-07 | Scott Anderson Middlebrooks | Method and apparatus for classifying a data point in imaging data |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1996012187A1 (en) * | 1994-10-13 | 1996-04-25 | Horus Therapeutics, Inc. | Computer assisted methods for diagnosing diseases |
US6882990B1 (en) * | 1999-05-01 | 2005-04-19 | Biowulf Technologies, Llc | Methods of identifying biological patterns using multiple data sets |
US6996549B2 (en) * | 1998-05-01 | 2006-02-07 | Health Discovery Corporation | Computer-aided image analysis |
IL146705A0 (en) | 1999-05-25 | 2002-07-25 | Stephen D Barnhill | Enhancing knowledge discovery from multiple data sets using multiple support vector machines |
EP1202214A3 (en) * | 2000-10-31 | 2005-02-23 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for object recognition |
US6855554B2 (en) * | 2001-09-21 | 2005-02-15 | Board Of Regents, The University Of Texas Systems | Methods and compositions for detection of breast cancer |
US7024033B2 (en) * | 2001-12-08 | 2006-04-04 | Microsoft Corp. | Method for boosting the performance of machine-learning classifiers |
US6882700B2 (en) * | 2002-04-15 | 2005-04-19 | General Electric Company | Tomosynthesis X-ray mammogram system and method with automatic drive system |
-
2001
- 2001-12-14 IT IT2001BO000763A patent/ITBO20010763A1/it unknown
-
2002
- 2002-12-13 EP EP02027970A patent/EP1324267A3/en not_active Withdrawn
- 2002-12-16 US US10/321,800 patent/US7181056B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US7181056B2 (en) | 2007-02-20 |
EP1324267A3 (en) | 2004-02-11 |
EP1324267A2 (en) | 2003-07-02 |
ITBO20010763A0 (it) | 2001-12-14 |
US20030161522A1 (en) | 2003-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ITBO20010763A1 (it) | Metodo , e relativa apparecchiatura , per la ricerca automatica di zone di interesse in immagini digitali di tessuto biologico | |
Abdelrahman et al. | Convolutional neural networks for breast cancer detection in mammography: A survey | |
US8885926B2 (en) | Image and data segmentation | |
Xie et al. | Breast mass classification in digital mammography based on extreme learning machine | |
EP3432263B1 (en) | Semantic segmentation for cancer detection in digital breast tomosynthesis | |
CN109447998B (zh) | 基于PCANet深度学习模型下的自动分割方法 | |
AU747189B2 (en) | Automated detection of clustered microcalcifications from digital mammograms | |
KR101932009B1 (ko) | 다중 객체 검출을 위한 영상 처리 장치 및 방법 | |
Wichakam et al. | Combining deep convolutional networks and SVMs for mass detection on digital mammograms | |
US20230005140A1 (en) | Automated detection of tumors based on image processing | |
CN101061509A (zh) | 用于医疗成像数据内的肿瘤边界的自动检测和分割的系统和方法 | |
JP7294695B2 (ja) | 学習済モデルによるプログラム、情報記録媒体、分類装置、ならびに、分類方法 | |
Abdelsamea et al. | A cascade-learning approach for automated segmentation of tumour epithelium in colorectal cancer | |
WO2008157843A1 (en) | System and method for the detection, characterization, visualization and classification of objects in image data | |
WO2017011022A1 (en) | Method and system for detection of contraband narcotics in human digestive tract | |
Sammouda | Segmentation and analysis of CT chest images for early lung cancer detection | |
Sulam et al. | Maximizing AUC with Deep Learning for Classification of Imbalanced Mammogram Datasets. | |
Narváez et al. | Characterizing architectural distortion in mammograms by linear saliency | |
Mencattini et al. | Automatic breast masses boundary extraction in digital mammography using spatial fuzzy c-means clustering and active contour models | |
Li et al. | What can machine vision do for lymphatic histopathology image analysis: A comprehensive review | |
Deepa et al. | A fuzzy shape representation of a segmented vessel tree and kernel-induced random forest classifier for the efficient prediction of lung cancer | |
Ivanovici et al. | Color image segmentation | |
Abbas | Lung-deep: a computerized tool for detection of lung nodule patterns using deep learning algorithms detection of lung nodules patterns | |
EP4123512A1 (en) | Systems and methods for fast mammography data handling | |
CN112949634B (zh) | 一种铁路接触网鸟窝检测方法 |