RO134298A2 - Method for automatic segmentation of anomalies in mammographic images - Google Patents
Method for automatic segmentation of anomalies in mammographic images Download PDFInfo
- Publication number
- RO134298A2 RO134298A2 ROA201900018A RO201900018A RO134298A2 RO 134298 A2 RO134298 A2 RO 134298A2 RO A201900018 A ROA201900018 A RO A201900018A RO 201900018 A RO201900018 A RO 201900018A RO 134298 A2 RO134298 A2 RO 134298A2
- Authority
- RO
- Romania
- Prior art keywords
- training
- anomalies
- images
- segmentation
- image
- Prior art date
Links
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
DESCRIEREDESCRIPTION
OFICIUL Ofi STAT PBNTRU INVWT» V MĂRCI Cerere de brevet de Invenție Nr ^....^.213.....22.2./.^.... Data depozit ....Î.?.»P.Î.?ÂS..OFFICE OFI STAT PBNTRU INVWT »V TRADEMARKS Patent Application No. ^ .... ^. 213 ..... 22.2. /. ^ .... Date of filing .... Q.» P. .?I WOULD..
Invenția se referă la o „Metoda pentru segmentarea automată a anomaliilor din imaginile mamografice”.The invention relates to a "Method for the automatic segmentation of abnormalities in mammographic images".
Prezenta invenție vizează dezvoltare unei metode și a unui set de algoritmi pentru segmentare automata a anomaliilor de tip “mase” si “micro-calcifieri” tIke2016l din imaginile mamografice, folosind tehnici de învățare automata (“machine leaming”).The present invention aims at developing a method and a set of algorithms for automatic segmentation of “mass” and “micro-calcifications” anomalies t Ike2016 l di n mammographic images, using machine learning techniques (“machine leaming”).
Cancerul de sân este una dintre principalele boli care afectează viața femeilor la nivel mondial. Datele statistice publicate de Organizația Mondiala a Sănătății (OMS) arata ca 23% din numărul total de cazuri de cancer sunt de sân iar 14% conduc la deces [Jem2008l Printre cele mai eficiente modalități de reducere a ratei mortalității cauzate de această patologie sunt programele de screening care folosesc mamogramele ca și modalitate imagistică de investigație primară și care permit detectarea bolii încă din faza asimptomatică. Interpretarea dublă (vizualizarea simultana și independenta a mamogramei de către doi radiologi) s-a impus ca și standard în majoritatea programelor de screening cu scopul de a reduce rata detecțiilor fals-negative a cazurilor patologice [Tab2005l. Acesta tehnică necesita însă alocarea de timp si costuri suplimentare, o imagine mamografică digitizată având in general o dimensiune de ordinul zecilor de MegaPixeli, iar scanarea vizuală manuală a celor 4 vederi (Medio-Lateral-Oblice - MLO și Cranio-Caudale - CC ale sânului stâng-L, respectiv drept-R) asociate unei investigații durând cca. 20 .. 30 min.Breast cancer is one of the leading diseases affecting the lives of women worldwide. Statistical data published by the World Health Organization (WHO) show that 23% of all cancers are breast and 14% lead to death [ Jem2008 l Among the most effective ways to reduce the mortality rate caused by this disease are programs screening that use mammograms as an imaging method of primary investigation and that allow the detection of the disease from the asymptomatic phase. Dual interpretation (simultaneous and independent visualization of the mammogram by two radiologists) has become the standard in most screening programs in order to reduce the rate of false-negative detection of pathological cases [ Tab2005 l. However, this technique requires the allocation of time and costs additional, a digitized mammographic image generally having a size of tens of MegaPixels, and manual visual scanning of the 4 views (Medio-Lateral-Oblice - MLO and Cranio-Caudal - CC of the left breast-L, respectively right-R) associated with an investigation lasting approx. 20 .. 30 min.
Principala dificultate în detecția acestor anomalii (in special a maselor si microcalcifierilo)[Ike2016] este data de procesul de achiziție al mamografiilor 2D (pe film sau digitale): o structura 3D este proiectata pe un plan 2D ceea ce conduce la zgomot structural datorat suprapunerii de țesuturi din mamografii, în special a țesuturilor glandulare dense. Din această cauza 10%-15% din cancere sunt invizibile mamografic, țesutul glandular dens putând ascunde pană la 30% ... 50% din cancere nke20i6]The main difficulty in detecting these anomalies (especially masses and microcalcifiers) [Ike2016] is given by the process of acquiring 2D mammograms (film or digital): a 3D structure is designed on a 2D plane which leads to structural noise due to overlap of mammographic tissues, especially dense glandular tissues. Because of this 10% -15% of cancers are mammographically invisible, the dense glandular tissue can hide up to 30% ... 50% of cancers nke20i6]
In acest context, invenția de față propune dezvoltarea unor metode de segmentare automata a anomaliilor de tip “mase” si “microcalcifieri”^2m(>\ *NOTA - cu simbolul superscript [] se face referire la secțiunea Bibliografie de pe ultima pagină (exemplu [1]) ** NOTA - cu simbolul () se face referire la componente din Figuri din secțiunea DeseneIn this context, the present invention proposes the development of methods for automatic segmentation of “mass” and “microcalcifications” type anomalies ^ 2m (> \ * NOTE - with the superscript symbol [] refers to the Bibliography section on the last page (example [1]) ** NOTE - the symbol () refers to components in Figures in the Drawings section
S-au antrenat 2 modele de clasificare binară a pixelilor din imagine (unul pt. segmentarea maselor și unul pentru segmentarea microc-alcifierilor) care vor furniza cate o a 2019 00018 16/01/2019 .% (Descrierea invenției ___________________________________________J_______________________________________________________________________________________________________________________________________________________________________________________________ probabilitate ca pixelul respectiv sa fie o anomalie sau sa aparțină unei zone de țesut normal. Operațiile de segmentare a celor două tipuri de anomalii se pot rula/aplica în mod independent. Metodele dezvoltate sunt integrate într-o unealta software care va furniza medicului radiolog o predicție a zonelor care corespund anomaliilor, reducând astfel dramatic timpul de examinare a imaginilor mamografice.Two models of binary classification of the pixels in the image were trained (one for mass segmentation and one for microcalcification segmentation) which will provide a number of 2019 00018 16/01/2019.% (Description of the invention either an abnormality or belong to a normal tissue area.The segmentation operations of the two types of abnormalities can be run / applied independently.The developed methods are integrated in a software tool that will provide the radiologist with a prediction of the corresponding areas anomalies, thus dramatically reducing the time of examination of mammographic images.
Scopul prezentei invenții este de a dezvolta o metodă și un set de algoritmi pentru segmentare automata a anomaliilor de tip “mase” si “micro-calcifieri”^2^ din imaginile mamografice, folosind tehnici de învățare automata (“machine leaming”). Operațiile de segmentare a celor două tipuri de anomalii se vor putea rula/aplica in mod independent. Metoda și algoritmii dezvoltați sunt integrați într-o unealtă software care va furniza medicilor radiologi predicții asupra zonelor care corespund anomaliilor, reducând astfel dramatic timpul de examinare a imaginilor mamografice si scăderea ratei (FNR - false negative rate), în condițiile in care realizarea acestui proces de către un operator uman este lentă si meticuloasă (cca. 20 .. 30 minute) din cauza rezoluțiilor foarte mari ale imaginilor (ordinul zecilor de MegaPixeli). Decizia finala asupra patologiei anomaliilor detectate va fi luată de către medicul radiolog. Pe lângă reducerea timpului se examinare, metoda va avea ca și efect reducerea ratelor de detecție fals-negative (FNR) ale anomaliilor de tip mase și microcalcifieri comparativ cu procesul de scanare vizuală manuală.The purpose of this invention is to develop a method and a set of algorithms for automatic segmentation faults of the "mass" and "micro-calcifications" ^ 2 ^ of mammographic images using machine learning techniques ( "machine Leaming"). The segmentation operations of the two types of anomalies will be able to run / apply independently. The developed method and algorithms are integrated in a software tool that will provide radiologists with predictions on the areas corresponding to the anomalies, thus dramatically reducing the time of examination of mammographic images and decreasing rate (FNR - false negative rates), given that this process by a human operator is slow and meticulous (about 20 .. 30 minutes) due to the very high resolutions of the images (order of tens of MegaPixels). The final decision on the pathology of the detected abnormalities will be made by the radiologist. In addition to reducing the examination time, the method will have the effect of reducing the false-negative detection rates (NRFs) of mass and microcalcium anomalies compared to the manual visual scanning process.
Problema pe care o rezolvă invenția este o metoda de segmentare automata a anomaliilor de tip “mase” și “microcalcifieri”^20^, folosind doua modele de clasificare binară distincte, generate prin tehnici de învățare automată de tip „deep leaming”. Metodele dezvoltate sunt integrate într-o unealtă software care va furniza medicilor radiolog o predicție a zonelor care corespund anomaliilor. Componentele uneltei software referite în descriere sunt: rutine de preprocesare a datelor de antrenare (3) respectiv de testare (4), rutine de antrenarea a modelelor de clasificare a pixelilor (5), o rutina care implementează mecanismul de predicție/inferență la nivel de pixel (6), o interfață de intrare/ieșire de tip linie de comandă pentru introducerea si afișarea datelor numerice (8) si afișarea vizuală rezultatului segmentării/predicției (7). O parte dintre aceste componente (1) sunt utilizate în faza de antrenare (off-line) iar cealaltă parte (2) in faza de testare/predicție/inferență (on-line). Cele două faze se aplică distinct pe cele două seturi de date („mase” si „microcalcifieri”, rezultând modele de antrenare și predicții distincte pentru cele 2 patologii.The problem solved by the invention is a method for automatic segmentation faults of the "mass" and "microcalcifieri" ^ 20 ^, using two different binary classification models are generated through machine learning techniques of "deep Leaming". The developed methods are integrated in a software tool that will provide radiologists with a prediction of the areas that correspond to the anomalies. The components of the software tool referred to in the description are: training data preprocessing routines (3) and testing (4), pixel classification model training routines (5), a routine that implements the prediction / inference mechanism at the level of pixel (6), a command line input / output interface for entering and displaying numeric data (8) and visual display of the segmentation / prediction result (7). One part of these components (1) are used in the training phase (off-line) and the other part (2) in the test / prediction / inference phase (on-line). The two phases are applied separately on the two data sets, "masses" and "microcalcifications", resulting in different training patterns and predictions for the 2 pathologies.
Principiul de funcționare: Segmentarea automată a imaginilor mamografie pentru detecția celor 2 tipuri da anomalii („mase” și „microcalcifieri”) este un proces care se a 2019 00018Working principle: Automatic segmentation of mammography images for the detection of the 2 types of abnormalities ("masses" and "microcalcifications") is a process that has 2019 00018
16/01/2019 (Descrierea invenției >Description of the invention>
desfășoară în două etape: o etapa de antrenare (1) urmată de o etapa de inferență/predicție (2) -fig· 1.performs in two stages: a training stage (1) followed by an inference / prediction stage (2) -fig · 1.
Procesul de antrenare se executa off-line (1) folosind seturi de date adnotate de medicii radiologi care conține câte 4 imagini pentru fiecare examinare (2 vederi MedioLateral-Oblice ale sânului stâng, respectiv drept și 2 vederi Cranio-Caudale ale sânului stâng, respectiv drept). Procesul de antrenare se execută distinct pe 2 seturi de date: setul de date conținând anomalii de tip „mase” și setul de date conținând anomalii de tip „microcalcifieri”. în urma procesului de antrenare se obțin două modele distincte de clasificare binară a pixelilor in imagine: un model pentru clasificarea pixelilor in clasele „normal”/”masă” și un model pentru clasificarea pixelilor in clasele „mormal;’7”microcalcifiere”.The training process is performed off-line (1) using data sets annotated by radiologists containing 4 images for each examination (2 MedioLateral-Oblique views of the left and right breasts and 2 Cranio-Caudal views of the left breast, respectively Right). The drive process is performed separately on 2 data sets: the data set containing "mass" type anomalies and the data set containing "microcalcifications" type anomalies. following the entrainment process, two distinct models of binary classification of pixels in the image are obtained: a model for classifying pixels in the classes “normal” / “mass” and a model for classifying pixels in the classes “abnormal;’ 7 ”microcalcification”.
Procesul de inferență/predicție se executa on-line (2) prin furnizarea unui set de imagini mamografice noi, unealta generând la ieșire pentru fiecare imagine o harta de probabilitate pentru detecția anomaliilor de tip „masă” și o hartă de probabilitate pentru detecția anomaliilor de tip „microcalcifieri”. Rezultatul final al segmentării constă în vizualizarea acestor hărți de probabilitate sau a imaginilor binare obținute prin binarizarea hărților de probabilitate cu un prag fix furnizat de utilizator.The inference / prediction process is performed online (2) by providing a set of new mammographic images, the tool generating at the output for each image a probability map for the detection of "mass" type anomalies and a probability map for the detection of "microcalcification" type. The end result of segmentation is to view these probability maps or binary images obtained by binarizing the probability maps with a fixed threshold provided by the user.
Pentru demonstrarea funcționalității metodei propuse s-a folosind un set de date de referință din literatura de specialitate: CBIS-DDSM [Lee20l6l. in total setul CBIS-DDSM conține un set de antrenare de 1546 de imagini adnotate cu anomalii de tip calcifîere si 1318 de cazuri cu anomalii de tip masă si un set de test cu 284 de imagini adnotate cu anomalii de tip calcifîere si 348 de imagini cu anomalii de tip masă. Pentru fiecare vedere este furnizată imaginea originală („full grayscale”) in format TIFF cu 16 biți/pixel stocate într-un fișier DICOM. Măștile binare (Ground Truth) din setul DDSM corespunzătoare anomaliilor de tip mase si micro-calcifieri au fost revizuite de medici radiologi si apoi conturul lor a fost rafinat prin metoda “level-set” lLee2017l Acestea imagini sunt in format TIFF cu 8 biți/pixel, stocat ca si o imagine DICOM. Daca o vedere (LMLO, RMLO, LCC sau RCC) conține mai multe anomalii, setul măștilor binare va conține cate o imagine/mască binară pentru fiecare anomalie.To demonstrate the functionality of the proposed method using a set of reference data from the literature: CBIS-DDSM [ Lee20l6 l. I n total CBIS-DDSM set contains a training set of 1546 images annotated with calcification anomalies and 1318 cases with mass-type abnormalities and a test set with 284 images annotated with calcification-type abnormalities and 348 images with mass-type abnormalities. For each view, the original image ("full grayscale") in 16-bit / pixel TIFF format stored in a DICOM file is provided. The binary masks (Ground Truth) in the DDSM set corresponding to the mass and micro-calcification anomalies were reviewed by radiologists and then their contour was refined by the “level-set” method l Lee2017 l These images are in 8-bit TIFF format / pixel, stored as a DICOM image. If a view (LMLO, RMLO, LCC, or RCC) contains multiple anomalies, the binary mask set will contain one binary image / mask for each anomaly.
Metodele de preprocesare (3),(4) aplicate atât în faza off-line (1) cât și in faza on-line (2) sunt:The pre-processing methods (3), (4) applied in both the off-line phase (1) and the on-line phase (2) are:
- Restructurarea setului de date de antrenare și testare folosit din formatul si structura originală (DICOM) într-o structură și format adecvat procesului de antrenare prin redenumirea fișierelor care corespund imaginilor full grayscale si a măștilor binare asociate cu numere distincte care indexează identificatorul cazului pacientului (*F_XXXXXX*.dcm, a 2019 00018- Restructuring the training and testing data set used from the original format and structure (DICOM) into a structure and format appropriate to the training process by renaming the files corresponding to full grayscale images and binary masks associated with distinct numbers that index the patient case identifier ( * F_XXXXXX * .dcm, a 2019 00018
16/01/2019 53 (Descrierea invenției }16/01/2019 53 (Description of the invention}
respectiv si *M_XXXXXX*.dcm), structurate în foldere aferente anomaliei (masa/calcifiere) si sub-foldere aferente fazei de procesare (antrenare/testare)respectively and * M_XXXXXX * .dcm), structured in folders related to the anomaly (mass / calcification) and sub-folders related to the processing phase (training / testing)
- Eliminarea acelor perechi de fișiere (full grayscale / mască binară) care nu au aceeași rezoluție spațiala (înălțime/lățime) și în consecință exista șanse ca informația vizuală grayscale și masca binară să nu fie corelate. Aceasta verificare este necesara deoarece existenta unor astfel de cazuri poate genera ambiguități în modelele de clasificare care vor fi antrenate și consecvent în rezultatele inferențelor pe imaginile de test.- Eliminate those pairs of files (full grayscale / binary mask) that do not have the same spatial resolution (height / width) and consequently there are chances that the grayscale visual information and the binary mask are not correlated. This verification is necessary because the existence of such cases can generate ambiguities in the classification models that will be involved and consistently in the results of the inferences on the test images.
- Detecția orientării reale a imaginii mamografie deoarece s-a constatat ca denumirea orientării imaginilor mamografîce (Left sau Right) codificată în numele imaginilor din setul CBIS-DDSM nu corespunde întotdeauna cu orientarea reală. Astfel s-a determinat automat orientarea mamografiei prin examinarea comparativa a mediilor intensităților din doua fâșii verticale din imagine cu limitele [kifWidth .. kn*Width\, respectiv [(l-kH)*Width .. (1kL)*Width\, fâșia cu media mai mare dând si orientarea reală a mamogramei (fig. 2).- Detection of the real orientation of the mammography image because it was found that the name of the orientation of the mammographic images (Left or Right) encoded in the name of the images in the CBIS-DDSM set does not always correspond to the real orientation. Thus, the orientation of the mammogram was automatically determined by comparative examination of the averages of the intensities in two vertical strips in the image with the limits [kifWidth .. kn * Width \, respectively [(l-kH) * Width .. (1kL) * Width \, the strip with the mean higher also giving the real orientation of the mammogram (fig. 2).
- Decuparea centrată pe leziune a patchurilor de antrenare : scopul generării acestor tipuri de regiuni este da a furniza procesului de antrenare a clasificatorului cat mai multe exemple pozitive, care să surprindă caracteristicile leziunilor la nivel global (formă / contur). Ca si intrare este nevoie de setul de imagini mamografîce fu.ll si măștile binare asociate fiecărei anomalii (nr_masti binare = nr_imagini_full x nrleziune/imaginefull). Procedura propusă iterează setul de măști binare, și pentru fiecare anomalie (obiect alb - unic pentru o masca) se găsește punctul median al dreptunghiului care circumscrie leziunea. Se calculează coordonatele pătratului de dimensiune dim x dim (dim = 2n) centrat in punctul median, și se decupează din masca binara. Simultan se decupează același pătrat din imaginea fiillgrayscale. Măștile binare si regiunile pătratice corespondente (ROI) din imaginea grayscale se stochează în foldere cu denumiri sugestive, în fișiere de tip TIFF cu 8biti/pixel pentru măști, respectiv 16 biți/pixel pentru ROL întregul proces este ilustrat grafic in fig. 3.- Injury-centered cutting of training patches: the purpose of generating these types of regions is to provide the classification process of the classifier as many positive examples as possible, to capture the characteristics of the lesions globally (shape / contour). As input is needed the set of mammographic images fu.ll and binary masks associated with each anomaly (no_binary masks = no_full_images x no / lesion / imagefull). The proposed procedure iterates the set of binary masks, and for each anomaly (white object - unique to a mask) is found the midpoint of the rectangle surrounding the lesion. Calculate the coordinates of the square of dimension dim x dim (dim = 2 n ) centered at the midpoint, and cut from the binary mask. Simultaneously cut the same square from the fiillgrayscale image. The binary masks and the corresponding square regions (ROI) in the grayscale image are stored in folders with suggestive names, in TIFF files with 8 bits / pixel for masks, respectively 16 bits / pixel for ROL. The whole process is illustrated graphically in fig. 3.
Metode de preprocesare (3) specifice doar fazei de antrenare/off-line (1) sunt:Preprocessing methods (3) specific only to the drive / off-line phase (1) are:
- Decuparea prin fereastra glisanta a patchurilor de antrenare·, scopul generării acestor tipuri de patchuri este da a furniza procesului de antrenare a clasificatorului cat mai multe exemple pozitive (translatate față de cele centrate) și cat mai multe exemple negative. Ca și intrare este nevoie de setul de imagini mamografîce fiill-grayscale și maăștile binare obținute prin fuziunea tuturor măștilor asociate fiecărei anomalii (nr masti binare = nr_imagini_full x nr_leziune/imagine_full). Această fuziune se realizează printr-o operație de sau logic la nivelul fiecărui pixel din măștile binare care sunt asociate fiecărei anomalii care apare într-o vedere (fig. 4.a). La ieșire se vor obține măști binare pătratice (fișiere de tip TIFF, dim = 2, a2019 00018 16/01/2019 (Descrierea invenției _________________ > ________________________________ biți/pixel) și regiuni de interes (ROI) grayscale corespondente (fișiere de tip TIFF, dim = 2, 16 biți/pixel - fig. 4,b). Ca și parametrii ai schemei de glisare se furnizează pasul de glisare („stride”) al ferestrei pe ambele direcții (orizontală și verticală) care poate avea orice valoare cuprinsă în intervalul 1 .. dim si un prag Thmean folosit pentru a ignora zonele din imagine care sunt nerelevante (cvasi-negre, având media intensităților mai mică decât Thmean).- Cutting through the sliding window the drive patches ·, the purpose of generating these types of patches is to provide the drive process of the classifier as many positive examples (translated from the centered ones) and as many negative examples. As input is needed the set of fiill-grayscale mammographic images and binary masks obtained by merging all masks associated with each anomaly (no binary masks = no_full_images x no_injury / no_full_image). This fusion is performed by an operation of or logically at the level of each pixel in the binary masks that are associated with each anomaly that appears in a view (fig. 4.a). At the output, square binary masks will be obtained (TIFF type files, dim = 2, a2019 00018 16/01/2019 (Description of the invention _________________> ________________________________ bit / pixel) and corresponding grayscale regions of interest (ROI) (TIFF type files, dim = 2, 16 bits / pixel - Fig. 4, b) As the parameters of the sliding scheme, the sliding step ("stride") of the window is provided in both directions (horizontal and vertical) which can have any value contained in interval 1 .. dim and a Thmean threshold used to ignore areas in the image that are irrelevant (quasi-black, with lower intensities than Thmean).
Antrenarea modelelor de clasificare a pixelilor din imagine (5), s-a făcut pentru a genera modele de clasificare a pixelilor pentru cele 2 tipuri de anomalii (mase sau microcalcifieri), în funcție de setul de antrenare folosit. Antrenarea s-a realizat folosind tehnici de învățare automata de tip “deep leaming” implementate prin rețele neuronale convoluționale (CNN). S-au ales 2 abordări: prima este bazata pe arhitectura U-NET, care s-a dovedit utilă pentru generarea de modele binare da clasificare a pixelilor cu aplicații în imagistica medicala (segmentarea imaginilor dermatologice, segmentarea celule canceroase tumorale (CTC) in imagini microscopice ale sângelui [Moc2018l; a doua abordare este bazată pe arhitectura ERFNet, care a fost folosită cu succes în segmentarea semantică multi-clasă a imaginilor, adaptată in cazul de fata pentru problema segmentării binare. Ca și imagini de intrare pentru procesul de antrenare s-au folosit regiunile de interes și măștile binare corespondente generate în etapa de preprocesare a setului de date de antrenare (3).The training of the pixel classification models in the image (5) was done to generate pixel classification models for the 2 types of anomalies (masses or microcalcifications), depending on the training set used. The training was performed using “deep leaming” machine learning techniques implemented through convolutional neural networks (CNN). Two approaches were chosen: the first is based on the U-NET architecture, which proved useful for generating binary models giving pixel classification with applications in medical imaging (segmentation of dermatological images, segmentation of tumor cancer cells (CTC) in microscopic images of blood [ Moc2018 l; the second approach is based on the ERFNet architecture, which has been successfully used in the multi-class semantic segmentation of images, adapted in this case for the problem of binary segmentation. As input images for the training process used the regions of interest and the corresponding binary masks generated in the preprocessing stage of the training data set (3).
Rețelele de tip U-Net [Ron2015l se bazează pe o arhitectura de tip “encoder-decoder”. Pentru implementarea modelului de clasificare binară a pixelilor s-a folosit o rețea U-NET modificată, ce conține 7 niveluri de codificare (“encoding”) si tot 7 niveluri de decodificare (“decoder”). Un nivel de codificare are următoarea structură: convoluție cu kemel de dimensiune 3x3, normalizare lot și activare neliniară ReLU, convoluție cu kemel de dimensiune 3x3, normalizare lot și activare neliniară ReLU, max pooling cu kemel 2x2, Un nivel de decodificare conține următoarele operații: deconvoluție cu kemel 2x2, concatenare cu stratul corespunzător din codificare, deconvoluție cu kemel de dimensiune 3 x 3, normalizare lot și activare neliniară ReLU, deconvoluție cu kemel de dimensiune 3x3, normalizare lot și activare neliniara ReLU, deconvoluție cu kemel de dimensiune 3x3, normalizare lot și activare neliniara ReLU. Mecanismul de antrenare și inferență a fost implementat în limbajul de programare Python, folosind bibliotecile software TensorFlow și Keras. De asemenea; pentru a citi și preprocesa informațiile s-a utilizat și biblioteca de proceduri OpenCV [OCV2018].U-Net networks Ron2015 l are based on an “encoder-decoder” architecture. For the implementation of the binary pixel classification model, a modified U-NET network was used, which contains 7 levels of encoding and 7 levels of decoding. A coding level has the following structure: convolution with 3x3 size kemel, batch normalization and nonlinear ReLU activation, convolution with 3x3 size kemel, batch normalization and nonlinear ReLU activation, max pooling with 2x2 kemel, A decoding level contains the following operations: deconvolution with kemel 2x2, concatenation with the corresponding layer in the coding, deconvolution with kemel size 3 x 3, batch normalization and nonlinear activation ReLU, deconvolution with kemel size 3x3, batch normalization and nonlinear activation ReLU, deconvolution with kemel size 3x3, normalization batch and nonlinear ReLU activation. The drive and inference mechanism was implemented in the Python programming language, using the TensorFlow and Keras software libraries. Also; the OpenCV procedure library [OCV2018] was also used to read and preprocess the information.
A doua abordare este bazată pe arhitectura de rețea ERFNet [Rom2018l. Si ERFNet este o rețea de tip codor / decodor. Arhitectura rețelei a fost modificată după cum se observă în a 2019 00018The second approach is based on the ERFNet network architecture [ Rom2018 l. And ERFNet is an encoder / decoder network. The network architecture has been modified as seen in 2019 00018
16/01/2019 5/.16/01/2019 5 /.
(Descrierea invenției figura 5, astfel încât să se potrivească dimensiunii imaginilor de antrenare. Rețeaua constă dintr-un codor care cuprinde nivele convoluțiunile care micșorează hărțile de trăsături și realizează convoluții cu diferite tipuri de filtre. Codorul („encoder”) cuprinde 16 nivele reziduale și de micșorare dar și convoluții dilatate combinate. Rolul acestora este de a permite nivelelor rețelei să învețe informații despre context din imagini și totodată convoluțiile dilatate au rolul de a reduce timpul de execuție. Decodorul mărește hărțile de trăsături obținute de codor până ajunge la dimensiunea originală a imaginilor de antrenare. Nivelele decodorului sunt nivele de deconvoluție („deconvolution layers”) cu un factor de deplasare de 2 pixeli.(Description of the invention figure 5, so as to fit the size of the drive images. The network consists of an encoder comprising levels of convolutions which reduce the feature maps and make convolutions with different types of filters. The encoder comprises 16 residual levels and reduction but also combined expanded convolutions.Their role is to allow the levels of the network to learn information about the context from the images and at the same time the expanded convolutions have the role of reducing the execution time.The decoder enlarges the feature maps obtained by the encoder until it reaches the original size. decoder levels are deconvolution layers with a displacement factor of 2 pixels.
Pentru implementarea mecanismului de inferență (6) s-a optat pentru o schema de tip fereastra glisanta („sliding window”) parcurgerea imaginilor fiind similară cu cea de generare a patchurilor de antrenare (3), (fig. 4). Ca si intrare este nevoie de imaginea full grayscale a mamografiei de test (fig. 6.a si fig. 7.a). Dimensiunea ferestrei glisante trebuie sa fie identica cu dimensiunea ferestrei folosita la antrenarea modelului (dim = 2n). Pentru fereastra glisantă curentă se vor aplica aceleași operații de normalizare a intensităților care sau aplicat în procesul de antrenare și se apelează metoda de predicție pe baza modelului de clasificare antrenat. în final se reasamblează imaginea întreaga din predicțiile obținute pe fiecare patch (fig. 6.d si fig. 7.d) sub forma unei imagini grayscale cu 8 biți/pixel.. Opțional se poate face binarizarea rezultatului pentru a obține o imagine de ieșire binară (fig. 6.c si fig. 7.c) cu un prag de binarizare Th jnf Pentru evaluarea cantitativă a rezultatului se pot calcula metricile IoU[IOU2018] sau DSC[Fls2018l prin raportare la masca binara de referința (Ground Trouth/GT - fig. 6.b si fig. 7.b).For the implementation of the inference mechanism (6) we opted for a sliding window scheme („sliding window”) the image scrolling being similar to that of generating the drive patches (3), (fig. 4). The full grayscale image of the test mammogram is needed as input (fig. 6.a and fig. 7.a). The size of the sliding window must be identical to the size of the window used to drive the model (dim = 2 n ). For the current sliding window, the same intensity normalization operations that were applied in the training process will be applied and the prediction method is used based on the trained classification model. finally, the entire image from the predictions obtained on each patch is reassembled (fig. 6.d and fig. 7.d) in the form of a grayscale image with 8 bits / pixel. Optionally, the result can be binarized to obtain an output image. binary (fig. 6.c and fig. 7.c) with a binary threshold Th jnf For the quantitative evaluation of the result one can calculate the metrics IoU [IOU2018] or DSC [Fls2018 l by reference to the reference binary mask (Ground Trouth / GT - Fig. 6.b and Fig. 7.b).
Descriere produs. Parametrii de funcționare care pot fi controlați sunt:Product description. The operating parameters that can be controlled are:
> Căile absolute către folderele care conțin seturile de imagini de antrenare originale - se specifică sub forma uni șir de caractere, în mod independent pentru cele doua seturi de antrenare: mase și micro-caliciferi (ex: E:\\Data_Sets\\Mamografie\\CBISDDSM\\0MASS\\Train\\FULL4sw) > Căile absolute către folderele care conțin seturile de imagini de antrenare prepocesate - se specifica sub forma uni șir de caractere, în mod independent pentru cele doua seturi de antrenare: mase și microcaliciferi (ex: E:\\Data_Sets\\Mamografie\\CBISDDSM\\OMASS\\Train\\256_ROI,E:\\Data_Sets\\Mamografîe\\CBISDDSM\\0MASS\\Train\\256_MASK) »2019 00018> Absolute paths to folders containing the original training image sets - specified as a string, independently of the two training sets: masses and micro-calipers (eg E: \\ Data_Sets \\ Mammography \ \ CBISDDSM \\ 0MASS \\ Train \\ FULL4sw)> Absolute paths to folders containing preprocessed training image sets - specified as a string, independently for the two training sets: masses and microcalicifiers (e.g. : E: \\ Data_Sets \\ Mammography \\ CBISDDSM \\ OMASS \\ Train \\ 256_ROI, E: \\ Data_Sets \\ Mammography \\ CBISDDSM \\ 0MASS \\ Train \\ 256_MASK) »2019 00018
16/01/2019 (Descrierea invenției f > Cele două constante (ki, kn) folosite pentru decuparea celor două fâșii verticale din imagine cu limitele [ki*Width .. kH*Width], respectiv [(l-kn)*Width .. (l-kL)*Width\, folosite pentru detecția orientării reale a mamogramei (fig. 2), sunt valori subunitare, (ki, < kn), cu valori tipice: ki = 0 ..0.1 și kn^ 0.02... 0.025.16/01/2019 (Description of the invention f> The two constants (ki, kn) used for cutting the two vertical strips in the image with the limits [ki * Width .. kH * Width], respectively [(l-kn) * Width. . (l-kL) * Width \, used to detect the real orientation of the mammogram (fig. 2), are subunit values, (ki, <kn), with typical values: ki = 0 ..0.1 and kn ^ 0.02 .. 0.025.
> Dimensiunea ferestrei glisante pentru generarea regiunilor de interes (patch-uri) atăt pentru antrenare cat și pentru inferență: dim =2n - poate fi orice număr întreg, putere a lui 2. Este necesar ca dimensiunea ferestrei folosite în procesul de inferență sa fie identică cu cea folosită la antrenare.> Sliding window size for generating regions of interest (patches) for both drag and inference: dim = 2 n - can be any integer, power of 2. It is necessary that the size of the window used in the inference process be identical to that used for training.
> Pasul de deplasare a ferestrei glisante (stride) poate fi orice valoare întreagă: stride = 1... dim.> The step of moving the sliding window (stride) can be any integer value: stride = 1 ... dim.
> Pragul Thmean este folosit pentru a ignora in procesul de generare a imaginilor de antrenare (ROI si măști) a zonele din imagine care sunt nerelevante (cvasi-negre - fig. 4.b), și care au media intensităților mai mică decât Th mean. Valori tipice pentru imagini de antrenare grayscale cu 16 biți/pixel pot fi cuprinse între 1000... 10000.> Thmean threshold is used to ignore in the process of generating entrainment images (ROI and masks) the areas in the image that are irrelevant (quasi-black - fig. 4.b), and which have lower average intensities than Th mean . Typical values for 16-bit / pixel grayscale drive images can be between 1000 ... 10000.
> Pragul de binarizare a rezultatului predicției pentru a obține o imagine segmentată binară (Fig. 6.c si fig. 7.c) este o valoare întreagă Th_inf= 1.... 254.> The binarization threshold of the prediction result to obtain a binary segmented image (Fig. 6.c and fig. 7.c) is an integer value Th_inf = 1 .... 254.
Utilizarea interfeței cu utilizatorulUsing the user interface
Interacțiune utilizatorului cu interfața de intrare se face prin intermediu liniei de comandă folosind caractere alfanumerice. Principalele intrări sunt:User interaction with the input interface is done via the command line using alphanumeric characters. The main entries are:
Calea absolută către setul de imagini de antrenare (faza off-line) sau calea către imaginea de test (faza on-line).The absolute path to the training image set (off-line phase) or the path to the test image (online phase).
Dimensiunea ferestrei glisante: dim =2n Sliding window size: dim = 2 n
Pasul de deplasare a ferestrei glisante: strideSliding window step: stride
Pragul folosit pentru a ignora în procesul de antrenare zonele din imagine care sunt nerelevante: Th meanThreshold used to ignore areas of the image that are irrelevant in the training process: Th mean
Pragul de binarizare a rezultatului predicției: Th jnfBinary threshold of the prediction result: Th jnf
Interfața de ieșire consta in mesaje afișate la linia de comandă privind starea și rezultatele execuției rutinelor programului și vizualizarea grafică a rezultatului predicției/segmentării (fig. 6 și fig. 7).The output interface consists of messages displayed at the command line regarding the status and results of the execution of the program routines and the graphical visualization of the prediction / segmentation result (fig. 6 and fig. 7).
Unelte software de tip ,,open-source” folosite la implementarea metodelor de procesare a 2019 00018 16/01/2019 descrierea invenției _______________________________________________________________________________________>________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________Open-source software tools used to implement the processing methods of 2019 00018 16/01/2019 description of the invention _______________________________________________________________________________> ____________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________
Pentru scrierea rutinelor s-a folosit limbajul Python 3.5. IDE-ul propus pentru dezvoltarea aplicației a fost PyCharm (JetBrains).Python 3.5 was used to write the routines. The IDE proposed for the development of the application was PyCharm (JetBrains).
In ceea ce privește uneltele software folosite, sunt necesare următoarele dependințe: Anaconda3 (pentru Python 3.7), versiunea de 64-biti. Odată cu instalarea Anaconda3 se va instala automat și Python 3.7. Pentru a nu fi conflicte, este recomandată dezinstalarea oricărei versiuni anterioare de Python; Tensorflow nu funcționează cu Python 3.7, așa ca este nevoie de downgrade. Pentru aceasta, se apeleaza comanda: “conda install python=3.5”;Regarding the software tools used, the following dependencies are required: Anaconda3 (for Python 3.7), 64-bit version. With the installation of Anaconda3, Python 3.7 will be installed automatically. To avoid conflicts, it is recommended to uninstall any previous version of Python; Tensorflow does not work with Python 3.7, so downgrade is required. For this, the command is called: “conda install python = 3.5”;
CUDA 9 - descărcat de pe site-ul oficial Nvidia. Este necesară pentru instalarea ulterioara a Tensorflow;CUDA 9 - downloaded from the official Nvidia website. It is required for the subsequent installation of Tensorflow;
- Tensorflow - este o librărie software open source pentru calcule numerice cu performante sporite. Arhitectura flexibila permite folosirea sa pe o gama variata de platforme (CPU, GPU etc.). Tensorflow vine cu suport puternic pentru machine leaming si deep leaming. în cazul de față s-a folosit varianta GPU a Tensorflow, pe o stație de lucru cu placa video Nvidia (pentru avantajele oferite de platforma de calcul paralel CUDA). Instalarea se face cu comanda: “pip install tensorflow-gpu”;- Tensorflow - is an open source software library for numerical calculations with increased performance. The flexible architecture allows its use on a wide range of platforms (CPU, GPU, etc.). Tensorflow comes with strong support for machine leaming and deep leaming. in this case, the GPU version of Tensorflow was used, on a workstation with the Nvidia video card (for the advantages offered by the CUDA parallel computing platform). The installation is done with the command: “pip install tensorflow-gpu”;
Pyhamcrest - recomandat pentru funcționarea fără probleme si evitarea erorilor la instalarea pachetelor. Se instalează folosind comanda: “conda install -c conda-forge pyhamcrest”Pyhamcrest - recommended for smooth operation and avoid errors when installing packages. It is installed using the command: “conda install -c conda-forge pyhamcrest”
Keras - este un API de nivel înalt pentru rețele neuronale, capabil sa ruleze peste Tensorflow. Focusul sau este axat pe experimentări rapide, de aceea este cel mai des folosit in deep leaming. Pentru instalare se folosește următoarea comanda: “conda install -c conda-forge keras”.Keras - is a high-level API for neural networks, capable of running over Tensorflow. Its focus is on fast experiments, which is why it is most often used in deep leaming. The following command is used for installation: “conda install -c conda-forge keras”.
Librăriile adiționale pentru mediul Python de care este nevoie sunt următoarele: Pydicom - pentru citirea imaginilor medicale DICOM (extensia *.dcm)The additional libraries for the Python environment that are needed are the following: Pydicom - for reading DICOM medical images (extension * .dcm)
- NumPy - pachet fundamental pentru calcule științifice. Conține vectori Ndimensionali, funcții rapide pentru calcule de algebra liniara, transformate, generator de numere aleatoare etc. De asemenea, datele (matricea pixelilor) din imagine se stochează într-un NumPy array.- NumPy - fundamental package for scientific calculations. Contains Dimensional vectors, fast functions for linear algebra calculations, transforms, random number generator, etc. Also, the data (pixel array) in the image is stored in a NumPy array.
OpenCv Python - a fost construit pentru eficienta computaționala sporita cu un focus pentru aplicațiile in timp real. în aplicație este folosit pentru citirea de imagini, altele decât formatul DICOM, și pentru operații pe matricele în care sunt stocate imaginile.OpenCv Python - was built for increased computational efficiency with a focus for real-time applications. in the application is used for reading images other than the DICOM format, and for operations on the matrices in which the images are stored.
Alte librarii utilizate vin odată cu instalarea Anaconda3 si pot fi importate direct in script-uri (de ex., os - pentru parsarea fișierelor si organizarea lor).Other libraries used come with the installation of Anaconda3 and can be imported directly into scripts (eg, bone - for parsing files and organizing them).
a 2019 00018and 2019 00018
16/01/2019 (Descrierea invenției ______________ >16/01/2019 (Description of the invention ______________>
Specificatii tehnice ale componentelor din sistemTechnical specifications of system components
Formatul datelor de intrare pentru rutinele de preprocesare (3),(4)Format of input data for preprocessing routines (3), (4)
Formatul mamografiilorMammography format
Formatul măștilor binare (GT)Binary Mask Format (GT)
Formatul datelor de intrare pentru rutinele de antrenare (5)Input data format for training routines (5)
Formatul regiunilor de interes (ROI) grayscaleGrayscale Region of Interest (ROI) format
Formatul măștilor binare (GT) corespunzătoareThe format of the corresponding binary masks (GT)
Formatul datelor de ieșire pentru rutinele de antrenare (5)Output format for training routines (5)
Modelele de clasificareClassification models
Ponderile modeluluiModel weights
Formatul datelor de intrare pentru rutina de inferență (6)Input routine format for inference routine (6)
Formatul mamografiilor de testFormat of test mammograms
Modelele de clasificareClassification models
Ponderile modeluluiModel weights
Formatul datelor de ieșire ale rutinei de inferențăInput routine output data format
Fișare DICOM (*dcm)DICOM file (* dcm)
Imagini grayscale cu 16 bti/pixelGrayscale images with 16 bti / pixel
Imagini grayscale cu 8 bti/pixelGrayscale images with 8 bti / pixel
Fișiere imagine de de tip TIFF (*.tiff), compresie de tip LZW (fără pierderi)TIFF image files (* .tiff), LZW compression (no loss)
Imagini grayscale cu 16 biți/pixel16-bit / pixel grayscale images
Imagini grayscale cu 8 biți/pixelGrayscale images with 8 bits / pixel
Fișiere cu extensia *.json si *.h5 Fișiere cu extensia *.modelFiles with the extension * .json and * .h5 Files with the extension * .model
Fișiere DICOM conținând imagini cu 16 biți/pixelDICOM files containing 16-bit / pixel images
Fișiere cu extensia *.json si *.h5Files with the extension * .json and * .h5
Fișiere cu extensia *.modelFiles with the extension * .model
Fișiere imagine de de tip TIFF (*.tiff), compresie de tip LZW (fără pierderi), 8 biți/pixel a 2019 00018 16/01/2019 (Descrierea invențieiTIFF image files (* .tiff), LZW compression (no loss), 8 bits / pixel of 2019 00018 16/01/2019 (Description of the invention
Bibliografie:Bibliography:
[Fls2018] FI score (Sorensen-Dice coefficient), https://en.wikipedia.org/wiki/S%C3%B8rensen%E2%80%93Dice coefficient, citat nov. 2018.[Fls2018] FI score (Sorensen-Dice coefficient), https://en.wikipedia.org/wiki/S%C3%B8rensen%E2%80%93Dice coefficient, cited nov. 2018.
[Ike2016] Ikeda, D, Kanae K. “Breast Imaging: The Requisites”, Elsevier Health Sciences, 2016.[Ike2016] Ikeda, D, Kanae K. “Breast Imaging: The Requisites”, Elsevier Health Sciences, 2016.
[IoU2018] Intersection over Union (Jacard index) https://en.wikipedia.org/wiki/Jaccard index, citat nov. 2018.[IoU2018] Intersection over Union (Jacard index) https://en.wikipedia.org/wiki/Jaccard index, cited nov. 2018.
[Jem2008] Jemal, et al. Cancer statistics CA:a cancer joumal for clinicians 58.2 (2008): 7196.[Jem2008] Jemal, et al. Cancer statistics CA: a cancer joumal for clinicians 58.2 (2008): 7196.
[Lee2016] R. S. Lee, F. Gimenez, A. Hoogi , D. Rubin (2016). Curated Breast Imaging Subset of DDSM. The Cancer Imaging Archive. http://dx.doi.org/10.7937/K9/TCIA.2016.7Q02S9CY[Lee2016] R. S. Lee, F. Gimenez, A. Hoogi, D. Rubin (2016). Curated Breast Imaging Subset of DDSM. The Cancer Imaging Archive. http://dx.doi.org/10.7937/K9/TCIA.2016.7Q02S9CY
[Lee2017] Lee, R.S., et al. A curated mammography data set for use in computer-aided detection and diagnosis research. Scientific data 4 (2017): 170177.[Lee2017] Lee, R.S., et al. A curated mammography data set for use in computer-aided detection and diagnosis research. Scientific data 4 (2017): 170177.
[Moc2018] Mocan, L, Itu, R., Ciurte, A., Danescu, R., & Buiga, R. (2018, September). Automatic Detection of Tumor Cells in Microscopic Images of Unstained Blood using Convolutional Neural Networks. In 2018 IEEE 14th International Conference on Intelligent Computer Communication and Processing (ICCP) (pp. 319-324). IEEE.[Moc2018] Mocan, L, Itu, R., Ciurte, A., Danescu, R., & Buiga, R. (2018, September). Automatic Detection of Tumor Cells in Microscopic Images of Unstained Blood using Convolutional Neural Networks. In 2018 IEEE 14th International Conference on Intelligent Computer Communication and Processing (ICCP) (pp. 319-324). IEEE.
[OCV2018] Open Computer Vision Library, https://opencv.org/. citat nov. 2018.[OCV2018] Open Computer Vision Library, https://opencv.org/. cited nov. 2018.
[Rom2018] E. Romera, J. M. Âlvarez, L. M. Bergasa and R. Arroyo, ERFNet: Efficient Residual Factorized ConvNet for Real-Time Semantic Segmentation, in IEEE Transactions on Intelligent Transportation Systems, voi. 19, no. 1, pp. 263-272, Jan. 2018.[Rom2018] E. Romera, J. M. Âlvarez, L. M. Bergasa and R. Arroyo, ERFNet: Efficient Residual Factorized ConvNet for Real-Time Semantic Segmentation, in IEEE Transactions on Intelligent Transportation Systems, voi. 19, no. 1, pp. 263-272, Jan. 2018.
[Ron2015] Ronneberger, O., Fischer, P., & Brox, T. (2015, October). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical image computing and computer-assisted intervention (pp. 234-241). Springer, Cham, https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/[Ron2015] Ronneberger, O., Fischer, P., & Brox, T. (2015, October). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical image computing and computer-assisted intervention (pp. 234-241). Springer, Cham, https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/
[Tab2005] Tabăr, L., Tot, T., & Dean, P. B. (2005). Breast cancer: the art and Science of early detection with mammography: perception, interpretation, histopathologic correlation (pp. 405-438). Stuttgart: Thieme.[Tab2005] Tabăr, L., Tot, T., & Dean, P. B. (2005). Breast cancer: the art and Science of early detection with mammography: perception, interpretation, histopathologic correlation (pp. 405-438). Stuttgart: Thieme.
a2019 00018a2019 00018
16/01/201916/01/2019
DESENEDRAWINGS
Figura 1. Arhitectura uneltei pentru segmentarea automată a anomaliilor din imaginile mamografice Figura 2. Ilustrarea detecției automate a orientării reale mamogramei: a. proi-l>proi-r; b. Proil<proi-rFigura 3. Ilustrarea procesului de decupare centrată a măștilor binare și a regiunilor de interes (ROI) corespondente (grayscale)Figure 1. The architecture of the tool for the automatic segmentation of the anomalies in the mammographic images Figure 2. The illustration of the automatic detection of the real orientation of the mammogram: a. Pro-l>pro-r; b. proIL <PROi-rFigura 3. Illustration of the cross cutting process binary masks of the regions of interest (ROI) corresponding (grayscale)
Fig. 4. Ilustrarea procedurii de împărțire a imaginii grasycale si a măștii binare fuzionate după o schema de tip fereastra glisanta (“sliding-window”): a. fuzionarea măștilor binare care corespund aceleași vederi; b. decuparea propriu-zisă a regiunilor de interes.Fig. 4. Illustration of the procedure for dividing the fat image and the binary mask merged according to a sliding-window scheme: a. Merging the binary masks that correspond to the same views; b. the actual cutting of the regions of interest.
Figura 5. Ilustrare a arhitecturii rețelei ERFNet pentru imagini de intrare (regiuni de interes si măști binare) de cu dimensiunea dim=256.Figure 5. Illustration of the ERFNet network architecture for input images (regions of interest and binary masks) with the size dim = 256.
Figura 6. Exemplu de segmentare a unei anomalii de tip “masă” folosind tehnica de inferență bazată pe ferestre glisanteFigure 6. Example of segmentation of a “mass” type anomaly using the inference technique based on sliding windows
Figura 7. Exemplu de segmentare a unei anomalii de tip “microcalcifiere” folosind tehnica de inferență bazată pe ferestre glisanteFigure 7. Example of segmentation of a “microcalcification” type anomaly using inference technique based on sliding windows
Claims (6)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| ROA201900018A RO134298A2 (en) | 2019-01-16 | 2019-01-16 | Method for automatic segmentation of anomalies in mammographic images |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| ROA201900018A RO134298A2 (en) | 2019-01-16 | 2019-01-16 | Method for automatic segmentation of anomalies in mammographic images |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| RO134298A2 true RO134298A2 (en) | 2020-07-30 |
Family
ID=71831290
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ROA201900018A RO134298A2 (en) | 2019-01-16 | 2019-01-16 | Method for automatic segmentation of anomalies in mammographic images |
Country Status (1)
| Country | Link |
|---|---|
| RO (1) | RO134298A2 (en) |
-
2019
- 2019-01-16 RO ROA201900018A patent/RO134298A2/en unknown
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN109447065B (en) | A method and device for breast image recognition | |
| Priego-Torres et al. | Automatic segmentation of whole-slide H&E stained breast histopathology images using a deep convolutional neural network architecture | |
| JP2021002338A (en) | Method and system for image segmentation and identification | |
| US11282193B2 (en) | Systems and methods for tumor characterization | |
| Ribeiro et al. | Handling inter-annotator agreement for automated skin lesion segmentation | |
| CN113191392A (en) | Breast cancer image information bottleneck multi-task classification and segmentation method and system | |
| CN114463248B (en) | Seed relabeling for seed-based segmentation of medical images | |
| CN114565557A (en) | Contrast enhancement energy spectrum photography classification method and device based on coordinate attention | |
| Majidpour et al. | Applications of GAN models in breast cancer detection: a comprehensive review | |
| US11961234B1 (en) | Multistage region-of-interest identification in medical images | |
| Jubeen et al. | An automatic breast cancer diagnostic system based on mammographic images using convolutional neural network classifier | |
| Sreelekshmi et al. | Variational auto encoders for improved breast cancer classification | |
| TW201726064A (en) | Medical image processing apparatus and breast image processing method thereof | |
| Nguyen et al. | A Robust Approach for Breast Cancer Classification from DICOM Images | |
| Vijaya et al. | Automatic detection of lung cancer in CT images | |
| Czaplicka et al. | Automatic breast-line and pectoral muscle segmentation | |
| RO134298A2 (en) | Method for automatic segmentation of anomalies in mammographic images | |
| Li | Deep Learning-Based Breast Cancer Detection with IoMT | |
| Pasunoori et al. | Deep Learning Based Brain Tumor Detection Using YOLO11n and Segmentation Using SAM2 Model | |
| Priya et al. | Caries-segnet: multi-scale cascaded hybrid spatial channel attention encoder-decoder for semantic segmentation of dental caries | |
| WO2023049863A1 (en) | Systems and methods to process electronic images to selectively hide structures and artifacts for digital pathology image review | |
| Katar et al. | Breast Cancer Segmentation from Ultrasound Images Using ResNext-based U-Net Model | |
| Mercan et al. | Automated Diagnosis of Breast Cancer and Pre-invasive Lesions on Digital Whole Slide Images. | |
| Brancati et al. | USE-MiT: Attention-based model for breast ultrasound images segmentation | |
| Varshney et al. | Hybrid and optimized feature fusion for enhanced breast cancer classification |