WO2023191202A1 - Tissue slide image analysis system and method - Google Patents

Tissue slide image analysis system and method Download PDF

Info

Publication number
WO2023191202A1
WO2023191202A1 PCT/KR2022/013247 KR2022013247W WO2023191202A1 WO 2023191202 A1 WO2023191202 A1 WO 2023191202A1 KR 2022013247 W KR2022013247 W KR 2022013247W WO 2023191202 A1 WO2023191202 A1 WO 2023191202A1
Authority
WO
WIPO (PCT)
Prior art keywords
slide image
tissue
tissue slide
image analysis
images
Prior art date
Application number
PCT/KR2022/013247
Other languages
French (fr)
Korean (ko)
Inventor
정요셉
Original Assignee
가톨릭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단 filed Critical 가톨릭대학교 산학협력단
Publication of WO2023191202A1 publication Critical patent/WO2023191202A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Definitions

  • the present invention relates to tissue slide image analysis systems and methods.
  • Embodiments provide a tissue slide image analysis system and method that can analyze tissue slide images more quickly and accurately.
  • One embodiment includes an extraction unit that extracts a plurality of tile images from a tissue slide image, inputs a plurality of tile images into an artificial intelligence model, and creates an expected probability map for the plurality of tile images based on the output information of the artificial intelligence model. It provides a tissue slide image analysis system including a probability map generator that generates a probability map and a class classification unit that classifies the tissue slide image into one of a plurality of classes based on the expected probability map.
  • Another embodiment includes an extraction step of extracting a plurality of tile images from a tissue slide image, an input step of inputting a plurality of tile images into an artificial intelligence model, and a prediction of the plurality of tile images based on output information of the artificial intelligence model.
  • a tissue slide image analysis method including a probability map generation step of generating a probability map and a class classification step of classifying the tissue slide image into one of a plurality of classes based on the expected probability map.
  • tissue slide images can be analyzed more quickly and accurately.
  • FIG. 1 is a diagram showing an example of a tissue slide image analysis method described in embodiments of the present invention.
  • FIG. 2 is a diagram illustrating an example of an operation of extracting a plurality of tile images from a tissue slide image using a sliding window algorithm.
  • Figure 3 is a diagram illustrating an example of a compression operation for a plurality of tile images.
  • Figure 4 is a diagram showing an example of an operation for analyzing a tissue slide image using a wavelet weighted ensemble.
  • Figure 5 is a diagram showing the Dice score and pixel accuracy for each class according to the model used.
  • Figure 6 is a diagram showing the change in Dice scores for low-frequency weights in all classes.
  • Figure 7 is a diagram comparing segmentation prediction for annotations using heatmaps and line profiles for tumor probability, methods without compression, WAE, and WE.
  • Figure 8 is a diagram showing expected results for tumors by class.
  • Figure 9 is a diagram showing the schematic structure of a tissue slide image analysis system.
  • Figure 10 is a diagram showing a tissue slide image analysis method.
  • 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware.
  • some of the operations or functions described as being performed by a terminal, apparatus, or device may instead be performed on a server connected to the terminal, apparatus, or device.
  • some of the operations or functions described as being performed by the server may also be performed in a terminal, apparatus, or device connected to the server.
  • mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is identifying data of the terminal. It can be interpreted as:
  • CNN convolutional neural networks
  • Decimation is a process of downsampling a large image, and can reduce noise power and improve signal to noise ratios (SNR) using an anti-aliasing filter. There is an advantage. However, decimation can cause loss of high-frequency information, resulting in lower resolution due to reduced signal bandwidth.
  • SNR signal to noise ratios
  • Cropping is a method of extracting a desired area as a tile from the entire image. When cropping is used, missing information for a single tile does not occur, but information about the spatial relationship between different tiles may be lost. This can be an important issue considering that object judgment in pathological images depends on the relative size and color of each cell.
  • Compression is widely used to minimize the size of image files and reduce inadequacy and redundancy of image data without degradation of image quality, and is often the preferred method for processing large-sized images.
  • DWT discrete wavelet transform
  • discrete wavelet transform has the advantage of solving difficulties in the process of analyzing large amounts of high-resolution images and providing better performance than existing computer vision algorithms.
  • the discrete wavelet transform It is also useful for texture classification because it can provide locality for frequency and space due to its limited duration. Therefore, the discrete wavelet transform can be applied to classify tumors by analyzing histopathology images.
  • PCA principal component analysis
  • H&E hematoxylin and eosin
  • histopathological images can be more usefully analyzed as follows. 1) Average dice score and pixel accuracy can be improved. 2) When using discrete wavelet transform, an artificial neural network can be trained not only with spatial information but also with texture information. 3) It can provide more powerful performance because the ROI of training after compression is high. This type of compression method can be useful in applications where large-scale data and texture information are important (e.g. remote sensing, microscopy).
  • WSI whole slide images
  • Annotations include adenocarcinoma (ADENOCA), high grade adenoma with dysplasia (TAH), low grade adenoma with dysplasia (TAL), and carcinoid (CARCINOID). ), hyperplastic polyp (HYPERP) can be classified into five classes.
  • ADENOCA adenocarcinoma
  • TH high grade adenoma with dysplasia
  • TAL low grade adenoma with dysplasia
  • CARCINOID carcinoid
  • HYPERP hyperplastic polyp
  • the above-mentioned full slide image may be a 20-fold magnified image taken of a specimen of colonic biopsy tissue using a digital full slide camera (Aperio AT2, Leica biosystems, USA).
  • a compression area was applied based on the wavelet transform used in JPEG2000 to analyze tissue slide images.
  • FIG. 1 is a diagram showing an example of a tissue slide image analysis method described in embodiments of the present invention.
  • (a) is an operation to extract a tile
  • (b) is an operation to compress the image depth
  • (c) is a forward conversion to the compression domain
  • (d) is a learning and prediction operation using a convolutional neural network
  • (e) is a diagram showing the operation of predicting the entire image from one tile
  • (f) is a diagram showing the operation of applying a wavelet-weighted ensemble (WWE).
  • WWE wavelet-weighted ensemble
  • ROI Region of Interest
  • sliding window methods can be used.
  • the multiple ROI method is faster than the sliding window method due to low redundancy, but the sliding window method has the following advantages.
  • the redundancy of the sliding window method can support data augmentation, an essential preprocessing step in deep learning-based approaches.
  • this method can indirectly overcome the limited field of view problem because overlapping areas depend on adjacent tiles.
  • the overall accuracy can be increased by averaging the probability of overlapping areas while summing the entire image based on the tiles.
  • FIG. 2 is a diagram illustrating an example of an operation of extracting a plurality of tile images from a tissue slide image using a sliding window algorithm.
  • the maximum acceptable tile size is 512 ⁇ 512 pixels due to limitations in GPU memory size, but tiles with a size of 1,024 ⁇ 1,024 pixels were extracted before the compression step.
  • the stride of the sliding window was set to 256 pixels horizontally and vertically.
  • Figure 3 is a diagram illustrating an example of a compression operation for a plurality of tile images.
  • the histopathological image has three red (R), green (G), and blue (B) channels. At this time, the correlation is high for each color.
  • the color of histopathological images can be changed by hematoxylin and eosin staining, which stains cell nuclei blue and the extracellular matrix and cytoplasm pink.
  • z-axis compression can only be applied to the R and B channels of the tissue region.
  • the Otsu algorithm may first be applied to extract RGB values from the histopathological image, and then the value for the G (Green) channel may be removed.
  • Principal component analysis can be applied to maximize the variation between the values for the R (Red) channel and the values for the B (Blue) channel and minimize the mean squared error. ( Figure 3(d)). This process allows us to reduce the dimensionality of the image and perform a normalization process for color, which is widely used in histopathology.
  • DWT discrete wavelet transform
  • LL low-low subband
  • LH subband low-high subband
  • HL subband high-low subband
  • HH subband high-high subband
  • the image size is reduced (e.g. from 1,024 ⁇ 1,024 pixels to 512 ⁇ 512 pixels), but all necessary information can be retained to completely reconstruct the original image.
  • the ROI can be increased without information loss, which is proportional to the generalization performance.
  • this method can capture texture information in wavelet subbands according to cancer grading, so the result of 2D gray-level co-occurrence matrix (GLCM) in wavelet domain can capture texture. Useful for classification.
  • GLCM gray-level co-occurrence matrix
  • the DiceCE loss function combining the dice coefficient and cross-entropy may be used.
  • each subband model uses two NVidia Titan
  • Figure 4 is a diagram showing an example of an operation for analyzing a tissue slide image using a wavelet weighted ensemble.
  • a wavelet weighted ensemble (WWE) is applied to four trained artificial intelligence neural networks for each subband, as shown in FIG. 1(e). )-based ensemble learning was applied.
  • a binary mask image (FIG. 4(b)) can be obtained from the original image using the Otsu algorithm (FIG. 4(a)).
  • wavelet weights namely LL weight, LH weight, HL weight and HH weight.
  • Parameters such as W1, W2, W3 and W4 were determined empirically. Ideally, if the same region of each subband has a probability of 1, the reconstruction probability of that region should also be 1 without these parameters. However, because the LL subband contains the basic characteristics of the original image, more weight (i.e., 1.8) was given to the LL subband. Then, ⁇ was added to remove the zero-terms.
  • Equation 5 The wavelet weighted ensemble method used in the embodiments of the present specification can be expressed as Equation 5 below.
  • Equation 6 is a function that determines the average of the Dice scores of x, was applied.
  • the range of each parameter is 0.3 to 3.0 and the step size may be 0.3.
  • the step size may be 0.3.
  • the quality of the prediction can be quantified using dice score (Dice) and pixel accuracy (Acc) as follows:
  • the ensemble method described above i.e., wavelet weighted ensemble (WWE)
  • WWE wavelet weighted ensemble
  • a pipeline was implemented to achieve binary segmentation of normal and abnormal regions in colorectal cancer (CRC) tissue images using the dataset described above.
  • CRC colorectal cancer
  • the average Dice and Acc results for the LL subband increased by 5.6% and 1.6%, respectively, in the case of the model using compressed data compared to the uncompressed model.
  • Figure 5 shows Dice and Acc for each class according to the model used.
  • the average results for the LL subband are relatively high.
  • the average results of LH, HL, and HH subbands carrying high-frequency components are relatively high in ADENOCA and TAH, and are relatively easy to detect due to progressive disease progression and subsequent pathological transformation.
  • results for the LH, HL, and HH subbands are less predictive for TAL, CARCINOID, and HYPERP.
  • TAL relatively less advanced
  • CARCINOID malignant tumor but originating in the submucosa
  • HYPERP benign tumor
  • embodiments of the present invention propose an ensemble method that can improve results by using both low-frequency information and high-frequency information.
  • WAE Weighted Average Ensemble
  • Dice and Acc after weighted average ensemble (WAE) are lower than without compression (TAL: +0.2% for Dice, -0.4% for Acc CARCINOID : +4.3% for Dice, +2.3% for Acc, HYPERP: +11.1% for Dice, +4.1% for Acc;).
  • Low-frequency weighting ( ) and high-frequency weighting ( , and ), each weight was optimized by empirically verifying the change in Dice scores of all classes.
  • the best weight can be determined by average dice score.
  • Figure 6 shows the low-frequency weights ( ) explains the change in dice score.
  • the dice scores of all classes increase relatively steeply from 0.6 to 0.9.
  • the Dice score increase rate of HYPERP and ADENOCA is relatively high.
  • dice scores start to become saturated for all classes. Additionally, high-frequency weighting ( , and ), but the change in dice score can be ignored.
  • Figure 7 shows the results of comparing segmentation prediction for annotations, a method without compression, WAE, and WE using a heatmap and line profile for tumor probability ( Figures 7a-d). Color bars represent tumor probability for each pixel.
  • the heatmap is overlaid on the original histology image, and an enlarged image of the colored border area is located on top of the main image. A line profile of tumor probability cut along the red dotted line is below the main image.
  • Figure 7(a) is the ground truth annotated by a pathologist.
  • the pixel value of the annotation is 1 and the value of other areas is 0.
  • Figure 7(b) shows the segmentation results of the uncompressed method. For efficient training, there is some loss of high-frequency information after decimation, but the ROI used for single training is the same as other methods.
  • the enlarged image in Figure 7(b) predicts a larger area than in the annotation, and the tumor probability of each pixel is relatively low.
  • Figure 8 is a diagram showing expected results for tumors by class.
  • Figures 8a-e show histological images of five different tumor classes.
  • the pathologist's annotations are shown in Figures 8f-j.
  • the corresponding predicted probability maps using WE are shown in Figures 8K-O.
  • the proposed WE method generally segmented the affected area, which matched well with the actual image.
  • diagnostic accuracy e.g., Dice, Acc
  • Dice e.g., Dice, Acc
  • a WE method was proposed that learns and combines low-frequency components and high-frequency components separately in the compression region.
  • the resolution of the original image x20 magnification
  • x10 magnification the resolution of the original image
  • loss of high-frequency components cannot be avoided.
  • the method proposed in the embodiment of this specification can process a tile size of 1024 x 1024 before compression. Therefore, there is no need to lower the resolution to learn the same ROI size, and learning is possible at 20x magnification. Additionally, the method proposed in the embodiment of this specification can learn tiles four times larger than the hardware limit compared to the method without compression.
  • the method described in the embodiments herein may require four times more GPUs at the same time.
  • the amount of computation increases exponentially as the input size increases. Therefore, it is faster to learn one image by dividing it into four images than to learn an image four times larger at once. This case is similar to the principle of the Cooley-Tukey FFT algorithm.
  • the processing methods described in the examples herein were applied to colorectal cancer histopathology images. This processing method can also be applied to general histopathology images and shows similar increases in accuracy.
  • the proposed wavelet-weighted ensemble method can also be applied to process large-scale images (e.g., astronomy and satellite images) and to other margin-critical fields (e.g., radiotherapy).
  • Figure 9 is a diagram showing the schematic structure of the tissue slide image analysis system 100.
  • the tissue slide image analysis system 100 may include an extraction unit 110, a probability map generation unit 120, and a class classification unit 130.
  • the extraction unit 110 may extract a plurality of tile images from the input tissue slide image.
  • the tissue slide image is, for example, a slide image of a colon (colorectal) biopsy tissue, and may be the above-described whole slide image (WSI).
  • the colon biopsy tissue may be a tissue to which the above-described hematoxylin and eosin (H&E) staining has been applied.
  • H&E hematoxylin and eosin staining
  • cell nuclei may be stained blue and the extracellular matrix and cytoplasm may be stained pink in colonic biopsy tissue.
  • the plurality of tile images may be images of a smaller size than the tissue slide image.
  • the width and height of the plurality of tile images may be the first size (e.g. 1024).
  • the extractor 110 may generate a plurality of tile images based on the sliding window algorithm described above. That is, the extraction unit 110 extracts the portion overlapping the sliding window on the tissue slide image as a tile image, then moves the position of the sliding window, and repeats the process of extracting the tile image again to generate a plurality of tile images. You can.
  • the plurality of tile images may be RGB images having a red (R) channel, a blue (B) channel, and a green (G) channel.
  • the extractor 110 may selectively perform a compression operation on a plurality of tile images.
  • the G channel component for the plurality of tile images can be removed. In this case, only R-channel and B-channel components remain in the plurality of tile images.
  • the extractor 110 can compress a plurality of tile images from which the G-channel component has been removed into a 1-channel image.
  • the channel of the plurality of compressed tile images may be, for example, a monochrome channel or a binary channel.
  • the probability map generator 120 may input a plurality of tile images into an artificial intelligence model and generate an expected probability map for the plurality of tile images based on output information of the artificial intelligence model.
  • the expected probability map for the plurality of tile images may be set as a two-dimensional map indicating the probability that a pixel or a specific size area on the plurality of tile images is an area where a disease (e.g. tumor) has occurred.
  • the probability map may be the same two-dimensional image as the tile image.
  • the value of pixel (i, j) of the probability map may indicate the probability that pixel (i, j) of the tile image is included in the area where a disease (e.g. tumor) has occurred.
  • the probability map generator 120 may additionally perform learning on the artificial intelligence model by comparing the output result of the artificial intelligence model with whether a tumor has occurred in the actual tissue slide image.
  • the artificial intelligence model may be a convolutional neural network network, for example.
  • the artificial intelligence model may be a deep learning model other than a convolutional neural network.
  • a deep learning model may be a model in which artificial neural networks are stacked in multiple layers.
  • the deep learning model automatically learns the characteristics of the input value by learning a large amount of data in a deep neural network made up of multi-layer networks, and through this, the network is trained to minimize the error in the objective function, that is, prediction accuracy. It is a model of
  • the deep learning model is a convolutional neural network (CNN) as an example, but the present invention is not limited to this and can use various deep learning models that can be used now or in the future.
  • CNN convolutional neural network
  • Deep learning models can be implemented through deep learning frameworks.
  • the deep learning framework provides commonly used functions in the form of a library when developing deep learning models and supports the good use of system software or hardware platforms.
  • the deep learning model can be implemented using any deep learning framework that is currently published or will be released in the future.
  • the class classification unit 130 may classify the tissue slide image into one of a plurality of classes based on the expected probability map generated by the probability map generator 120. As an example, the class classification unit 130 may compare the pattern of the expected probability map for the tissue slide image with the reference pattern set for each of the plurality of classes and set the most similar class as the class of the corresponding tissue slide image.
  • the plurality of classes include the aforementioned i) adenocarcinoma (ADENOCA), ii) high grade adenoma with dysplasia (TAH), and iii) low grade adenoma with dysplasia (TAL). ), iv) carcinoid (CARCINOID), and v) hyperplastic polyp (HYPERP).
  • ADENOCA adenocarcinoma
  • TH high grade adenoma with dysplasia
  • TAL low grade adenoma with dysplasia
  • CARCINOID carcinoid
  • HYPERP hyperplastic polyp
  • Figure 10 is a diagram showing a tissue slide image analysis method 1000.
  • the tissue slide image analysis method 1000 may first include an extraction step (S1010) of extracting a plurality of tile images from the tissue slide image.
  • the tissue slide image may be a slide image of colon biopsy tissue.
  • the colon biopsy tissue may be a tissue to which hematoxylin and eosin staining has been applied.
  • the extraction step (S1010) may extract a plurality of tile images based on a sliding window algorithm.
  • the extracted plurality of tile images may be RGB images having an R (Red) channel, a B (Blue) channel, and a G (Green) channel.
  • the extraction step (S1010) may optionally include compressing a plurality of tile images.
  • compressing the plurality of tile images may include removing the G-channel component of the plurality of tile images and compressing each of the plurality of tile images from which the G-channel component has been removed into a 1-channel image. .
  • tissue slide image analysis method 1000 may include an input step (S1020) of inputting a plurality of tile images into an artificial intelligence model.
  • the artificial intelligence model may be, for example, a convolutional neural network network.
  • tissue slide image analysis method 1000 may include a probability map generation step (S1030) of generating an expected probability map for a plurality of tile images based on output information of the artificial intelligence model.
  • the tissue slide image analysis method 1000 may include a class classification step (S1040) of classifying the tissue slide image into one of a plurality of classes based on the expected probability map.
  • S1040 class classification step
  • the plurality of classes may include adenocarcinoma, high-grade adenoma with dysplasia, low-grade adenoma with dysplasia, carcinoid, and hyperplastic polyp.
  • the tissue slide image analysis system 100 described above may be implemented by a computing device including at least some of a processor, memory, user input device, and presentation device.
  • Memory is a medium that stores computer-readable software, applications, program modules, routines, instructions, and/or data that are coded to perform specific tasks when executed by a processor.
  • the processor may read and execute computer-readable software, applications, program modules, routines, instructions, and/or data stored in memory.
  • a user input device may be a means for allowing a user to input a command that causes the processor to execute a specific task or to input data required to execute a specific task.
  • User input devices may include a physical or virtual keyboard, keypad, key buttons, mouse, joystick, trackball, touch-sensitive input means, or microphone.
  • Presentation devices may include displays, printers, speakers, or vibrating devices.
  • Computing devices may include a variety of devices such as smartphones, tablets, laptops, desktops, servers, and clients.
  • a computing device may be a single stand-alone device or may include multiple computing devices operating in a distributed environment comprised of multiple computing devices cooperating with each other through a communication network.
  • tissue slide image analysis method 1000 described above includes a processor, and is coded to perform an image diagnosis method using a deep learning model when executed by the processor, computer readable software, applications, program modules, It can be executed by a computing device having a memory storing routines, instructions, and/or data structures.
  • the above-described embodiments can be implemented through various means.
  • the present embodiments may be implemented by hardware, firmware, software, or a combination thereof.
  • the image diagnosis method using the deep learning model includes one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), It can be implemented by Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), processors, controllers, microcontrollers, or microprocessors.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • processors controllers, microcontrollers, or microprocessors.
  • the tissue slide image analysis method 1000 may be implemented using an artificial intelligence semiconductor device in which neurons and synapses of a deep neural network are implemented with semiconductor devices.
  • the semiconductor device may be currently used semiconductor devices, such as SRAM, DRAM, or NAND, or may be next-generation semiconductor devices such as RRAM, STT MRAM, or PRAM, or a combination thereof.
  • the results (weights) of learning the deep learning model with software are transferred to a synapse mimic device arranged in an array or an artificial intelligence semiconductor device. You can also learn on your device.
  • the tissue slide image analysis method 1000 may be implemented in the form of a device, procedure, or function that performs the functions or operations described above.
  • Software code can be stored in a memory unit and run by a processor.
  • the memory unit is located inside or outside the processor and can exchange data with the processor through various known means.
  • system generally refer to computer-related entities hardware, hardware and software. It may refer to a combination of, software, or running software.
  • the foregoing components may be a process, processor, controller, control processor, object, thread of execution, program, and/or computer run by a processor.
  • an application running on a controller or processor and the controller or processor can be a component.
  • One or more components may reside within a process and/or thread of execution, and the components may be located on a single device (e.g., system, computing device, etc.) or distributed across two or more devices.
  • another embodiment provides a computer program stored in a computer recording medium that performs the tissue slide image analysis method 1000 described above.
  • Another embodiment also provides a computer-readable recording medium on which a program for implementing the tissue slide image analysis method described above is recorded.
  • the program recorded on the recording medium can be read, installed, and executed on the computer to execute the above-described steps.
  • the above-mentioned program is a C, C++ program that the computer's processor (CPU) can read through the computer's device interface (Interface).
  • the computer's processor CPU
  • the computer's device interface Interface
  • code coded in computer languages such as JAVA and machine language.
  • codes may include functional codes related to functions defining the above-mentioned functions, etc., and may also include control codes related to execution procedures necessary for the computer processor to execute the above-described functions according to predetermined procedures.
  • these codes may further include memory reference-related codes that determine which location (address address) in the computer's internal or external memory the additional information or media required for the computer's processor to execute the above-mentioned functions should be referenced. .
  • the code is It may further include communication-related codes for how to communicate with other computers, servers, etc., and what information or media should be transmitted and received during communication.
  • Recording media that can be read by a computer recording the above-described program include, for example, ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical media storage, etc., and also include carrier wave (e.g. , transmission via the Internet) may also be implemented.
  • carrier wave e.g. , transmission via the Internet
  • computer-readable recording media can be distributed across computer systems connected to a network, so that computer-readable code can be stored and executed in a distributed manner.
  • the functional program for implementing the present invention and the code and code segments related thereto are designed by programmers in the technical field to which the present invention belongs, taking into account the system environment of the computer that reads the recording medium and executes the program. It can also be easily inferred or changed by .
  • the tissue slide image analysis method 1000 described with reference to FIG. 12 may also be implemented in the form of a recording medium containing instructions executable by a computer, such as an application or program module executed by a computer.
  • Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include all computer storage media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data.
  • the above-described tissue slide image analysis method can be executed by an application installed by default on the terminal (this may include programs included in the platform or operating system, etc. installed by default on the terminal), and the user can use an application store server, application or It may also be executed by an application (i.e. program) installed directly on the master terminal through an application providing server such as a web server related to the service.
  • the above-described tissue slide image analysis method may be implemented as an application (i.e., program) installed by default in the terminal or directly installed by the user and recorded on a computer-readable recording medium, such as in the terminal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

The present specification provides a tissue slide image analysis system and a method therefor, the tissue slide image analysis system comprising: an extraction unit which extracts a plurality of tile images from a tissue slide image; a probability map generation unit which inputs the plurality of tile images into an artificial intelligence model and generates an expected probability map for the plurality of tile images on the basis of output information of the artificial intelligence model; and a class classification unit which classifies the tissue slide image as one of a plurality of classes on the basis of the expected probability map.

Description

조직 슬라이드 이미지 분석 시스템 및 방법Tissue slide image analysis system and method
본 발명은 조직 슬라이드 이미지 분석 시스템 및 방법에 관한 것이다.The present invention relates to tissue slide image analysis systems and methods.
병리학자(pathologist)를 위한 많은 검사는 오진(misdiagnosis)의 위험에 노출되어 있다. 이는 의료비의 급격한 증가, 오진율의 증가, 의료 생산성의 저하, 암 진단의 위험과 같은 문제를 발생시킬 수 있다.Many tests for pathologists are subject to the risk of misdiagnosis. This can cause problems such as rapid increases in medical costs, increased misdiagnosis rates, decreased medical productivity, and the risk of cancer diagnosis.
이러한 문제를 해결하기 위해 병리학적(pathological) 이미지를 자동으로 분석하려는 연구가 진행되고 있다. 병리학적 이미지를 자동 분석할 경우, 사람의 노력을 줄이고 시간을 절약하며 수술 및 치료를 위한 기반을 제공할 수 있다는 장점이 있다.To solve this problem, research is underway to automatically analyze pathological images. Automatic analysis of pathological images has the advantage of reducing human effort, saving time, and providing the basis for surgery and treatment.
그러나 중앙 처리 장치(CPU) 및 그래픽 처리 장치(GPU)의 속도와 메모리 용량이 지속적으로 증가함에도 불구하고, 병리학적 이미지 분석 기술의 발전은 병리학적 이미지의 큰 사이즈로 인해 방해를 받고 있다.However, although the speed and memory capacity of central processing units (CPUs) and graphics processing units (GPUs) continue to increase, the development of pathological image analysis technology is hindered by the large size of pathological images.
실시예들은, 조직 슬라이드 이미지를 보다 빠르게 정확하게 분석할 수 있는 조직 슬라이드 이미지 분석 시스템 및 방법을 제공한다.Embodiments provide a tissue slide image analysis system and method that can analyze tissue slide images more quickly and accurately.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical challenge that this embodiment aims to achieve is not limited to the technical challenges described above, and other technical challenges may exist.
일 실시예는, 조직 슬라이드 이미지로부터 복수의 타일 이미지들을 추출하는 추출부, 복수의 타일 이미지들을 인공지능 모델에 입력하고, 인공지능 모델의 출력 정보를 기초로 복수의 타일 이미지들에 대한 예상 확률 맵을 생성하는 확률 맵 생성부 및 예상 확률 맵을 기초로 상기 조직 슬라이드 이미지를 복수의 클래스들 중 하나로 분류하는 클래스 분류부를 포함하는 조직 슬라이드 이미지 분석 시스템을 제공한다.One embodiment includes an extraction unit that extracts a plurality of tile images from a tissue slide image, inputs a plurality of tile images into an artificial intelligence model, and creates an expected probability map for the plurality of tile images based on the output information of the artificial intelligence model. It provides a tissue slide image analysis system including a probability map generator that generates a probability map and a class classification unit that classifies the tissue slide image into one of a plurality of classes based on the expected probability map.
다른 실시예는, 조직 슬라이드 이미지로부터 복수의 타일 이미지들을 추출하는 추출 단계 복수의 타일 이미지들을 인공지능 모델에 입력하는 입력 단계, 인공지능 모델의 출력 정보를 기초로 상기 복수의 타일 이미지들에 대한 예상 확률 맵을 생성하는 확률 맵 생성 단계 및 예상 확률 맵을 기초로 상기 조직 슬라이드 이미지를 복수의 클래스들 중 하나로 분류하는 클래스 분류 단계를 포함하는 조직 슬라이드 이미지 분석 방법을 제공한다.Another embodiment includes an extraction step of extracting a plurality of tile images from a tissue slide image, an input step of inputting a plurality of tile images into an artificial intelligence model, and a prediction of the plurality of tile images based on output information of the artificial intelligence model. Provided is a tissue slide image analysis method including a probability map generation step of generating a probability map and a class classification step of classifying the tissue slide image into one of a plurality of classes based on the expected probability map.
실시예들에 따른 조직 슬라이드 이미지 분석 시스템 및 방법에 의하면, 조직 슬라이드 이미지를 보다 빠르게 정확하게 분석할 수 있다.According to the tissue slide image analysis system and method according to embodiments, tissue slide images can be analyzed more quickly and accurately.
도 1은 본 발명의 실시예들에서 설명하는 조직 슬라이드 이미지 분석 방법의 일 예를 나타내는 도면이다.1 is a diagram showing an example of a tissue slide image analysis method described in embodiments of the present invention.
도 2는 슬라이딩 윈도우 알고리즘을 이용하여 조직 슬라이드 이미지에서 복수의 타일 이미지들을 추출하는 동작의 일 예를 나타내는 도면이다.FIG. 2 is a diagram illustrating an example of an operation of extracting a plurality of tile images from a tissue slide image using a sliding window algorithm.
도 3은 복수의 타일 이미지들에 대한 압축 동작을 실행하는 동작의 일 예를 나타낸 도면이다.Figure 3 is a diagram illustrating an example of a compression operation for a plurality of tile images.
도 4는 웨이블릿 가중 앙상블을 이용하여 조직 슬라이드 이미지를 분석하는 동작의 일 예를 나타낸 도면이다.Figure 4 is a diagram showing an example of an operation for analyzing a tissue slide image using a wavelet weighted ensemble.
도 5는 사용된 모델에 따른 클래스 별 다이스 점수와 픽셀 정확도를 나타낸 도면이다.Figure 5 is a diagram showing the Dice score and pixel accuracy for each class according to the model used.
도 6은 모든 클래스에서 저주파 가중치에 대한 다이스 점수의 변화를 나타낸 도면이다.Figure 6 is a diagram showing the change in Dice scores for low-frequency weights in all classes.
도 7은 종양 확률에 대한 히트맵과 라인 프로파일을 사용하여 주석에 대한 분할 예측, 압축이 없는 방법, WAE 및 WWE를 비교한 도면이다.Figure 7 is a diagram comparing segmentation prediction for annotations using heatmaps and line profiles for tumor probability, methods without compression, WAE, and WWE.
도 8은 종양에 대한 예상 결과를 클래스 별로 나타낸 도면이다.Figure 8 is a diagram showing expected results for tumors by class.
도 9는 조직 슬라이드 이미지 분석 시스템의 개략적인 구조를 나타낸 도면이다.Figure 9 is a diagram showing the schematic structure of a tissue slide image analysis system.
도 10은 조직 슬라이드 이미지 분석 방법을 나타낸 도면이다.Figure 10 is a diagram showing a tissue slide image analysis method.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는"직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. . In addition, when a part is said to "include" a certain component, this does not mean excluding other components unless specifically stated to the contrary, but may further include other components, and one or more other features. It should be understood that it does not exclude in advance the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.The terms "about", "substantially", etc. used throughout the specification are used to mean at or close to that value when manufacturing and material tolerances inherent in the stated meaning are presented, and are used to enhance the understanding of the present invention. Precise or absolute figures are used to assist in preventing unscrupulous infringers from taking unfair advantage of stated disclosures. The term “step of” or “step of” as used throughout the specification of the present invention does not mean “step for.”
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개 이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다.In this specification, 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다.In this specification, some of the operations or functions described as being performed by a terminal, apparatus, or device may instead be performed on a server connected to the terminal, apparatus, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed in a terminal, apparatus, or device connected to the server.
본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is identifying data of the terminal. It can be interpreted as:
이하, 실시예들을 통해 상세한 내용을 설명한다.Hereinafter, details will be described through examples.
I. 소개(introduction)I. Introduction
최근 딥러닝(deep learning) 기술은 다양한 영상분석 기술에 적용되고 있으며, 컴퓨터 비전(computer vision) 기술은 빠르게 발전하고 있다. 특히 컨볼루션 신경망 네트워크(CNN, Convolutional Neural Networks)는 많은 질병을 자동으로 진단하는데 사용되고 있다. 그러나 전술한 바와 같이, 중앙 처리 장치(CPU) 및 그래픽 처리 장치(GPU)의 속도와 메모리 용량이 지속적으로 증가함에도 불구하고, 병리학적 이미지 분석 기술의 발전은 병리학적 이미지의 큰 사이즈로 인해 방해를 받고 있다.Recently, deep learning technology has been applied to various image analysis technologies, and computer vision technology is developing rapidly. In particular, convolutional neural networks (CNN) are used to automatically diagnose many diseases. However, as mentioned above, despite the continued increase in the speed and memory capacity of central processing units (CPUs) and graphics processing units (GPUs), advancements in pathological image analysis techniques are hampered by the large size of pathological images. I'm receiving it.
병리학적 이미지의 사이즈로 인해 발생하는 메모리 제한 문제를 해결하기 위해, 병리학적 이미지를 전처리하는 과정에서 이미지의 크기를 줄이기 위한 데시메이션(decimation), 자르기(cropping) 및 압축(compression) 등의 방법이 사용될 수 있다.To solve the memory limitation problem caused by the size of pathological images, methods such as decimation, cropping, and compression are used to reduce the size of images during preprocessing of pathological images. can be used
데시메이션(decimation)은 큰 이미지를 다운샘플링하는 프로세스로서, 앤티 앨리어싱(anti-aliasing) 필터를 이용하여 잡음 전력(noise power)을 줄이고 신호 대 잡음비(SNR, signal to noise ratios)를 개선할 수 있다는 장점이 있다. 그러나 데시메이션은 고주파 정보의 손실을 유발할 수 있으며, 그 결과 감소된 신호 대역폭으로 인해 해상도가 낮아지는 문제가 발생할 수 있다.Decimation is a process of downsampling a large image, and can reduce noise power and improve signal to noise ratios (SNR) using an anti-aliasing filter. There is an advantage. However, decimation can cause loss of high-frequency information, resulting in lower resolution due to reduced signal bandwidth.
자르기(cropping)는 전체 이미지에서 원하는 영역을 타일로 추출하는 방법이다. 자르기를 사용할 경우, 단일 타일에 대해 누락된 정보는 발생하지 않지만 서로 다른 타일 간의 공간적 관계에 대한 정보가 손실되는 문제가 발생할 수 있다. 이는 병리학적 이미지에서 대상 판단(object judgement)이 각 세포의 상대적 크기 및 색상에 의존한다는 점을 고려할 때 중요한 문제일 수 있다.Cropping is a method of extracting a desired area as a tile from the entire image. When cropping is used, missing information for a single tile does not occur, but information about the spatial relationship between different tiles may be lost. This can be an important issue considering that object judgment in pathological images depends on the relative size and color of each cell.
압축(compression)은 이미지 품질의 저하(degradation) 없이 이미지 파일의 크기를 최소화하고 이미지 데이터의 부적절함과 중복성을 줄이기 위해 널리 사용되며, 큰 사이즈의 이미지를 처리하는 데 주로 선호되는 방법이다.Compression is widely used to minimize the size of image files and reduce inadequacy and redundancy of image data without degradation of image quality, and is often the preferred method for processing large-sized images.
일 예로, 고해상도를 가지는 대용량의 이미지(e.g. 선박을 탐지하기 위한 위성 이미지)를 압축하기 위해, 이산 웨이블릿 변환(DWT, Discrete Wavelet Transform)이 사용될 수 있다.For example, to compress large-capacity images with high resolution (e.g. satellite images for detecting ships), discrete wavelet transform (DWT, Discrete Wavelet Transform) can be used.
이산 웨이블릿 변환이라는 압축 기술은 고해상도를 가지는 대용량의 이미지를 분석하는 과정에서의 어려움을 해결하고 기존의 컴퓨터 비전 알고리즘보다 우수한 성능을 제공할 수 있다는 장점이 있다.The compression technology called discrete wavelet transform has the advantage of solving difficulties in the process of analyzing large amounts of high-resolution images and providing better performance than existing computer vision algorithms.
또한 이산 웨이블릿 변환은. 한정된 지속 시간으로 인해 주파수, 공간에 대한 지역성(locality)을 제공할 수 있기 때문에 텍스처 분류에도 유용하다. 따라서, 이산 웨이블릿 변환은 조직병리학 이미지를 분석하여 종양을 분류하는 데에 적용될 수 있다.Also the discrete wavelet transform. It is also useful for texture classification because it can provide locality for frequency and space due to its limited duration. Therefore, the discrete wavelet transform can be applied to classify tumors by analyzing histopathology images.
이하, 전술한 압축 방법을 이용하여 조직병리학적 이미지를 분석하는 방법을 제안한다. 대용량의 조직병리학 이미지를 압축하기 위해서, 전술한 이산 웨이블릿 변환 방법 이외에, 헤마톡실린 및 에오신(H&E, hematoxylin and eosin) 염색 특성에 따른 주성분 분석(PCA)을 활용하여 3채널 RGB 이미지를 하나의 채널로 축소하는 방법이 사용될 수 있다.Hereinafter, we propose a method for analyzing histopathological images using the above-described compression method. In order to compress large volumes of histopathology images, in addition to the discrete wavelet transform method described above, principal component analysis (PCA) based on hematoxylin and eosin (H&E) staining characteristics was used to convert three-channel RGB images into one channel. A reduction method may be used.
본 명세서의 실시예들에서 개시하는 방법을 사용할 경우, 조직병리학적 이미지를 다음과 같이 더 유용하게 분석할 수 있다. 1) 평균 다이스 점수(dice score)와 픽셀 정확도(pixel accuracy)가 향상될 수 있다. 2) 이산 웨이블릿 변환을 사용할 경우 공간 정보뿐 아니라 텍스쳐 정보로도 인공 신경망을 훈련할 수 있다. 3) 압축 후 훈련의 ROI가 높기 때문에 더 강력한 성능을 제공할 수 있다. 이와 같은 압축 방법은 대규모 데이터 및 텍스쳐 정보가 중요한 응용 프로그램(e.g. 원격 감지, 현미경)에서 유용할 수 있다.When using the methods disclosed in the embodiments of this specification, histopathological images can be more usefully analyzed as follows. 1) Average dice score and pixel accuracy can be improved. 2) When using discrete wavelet transform, an artificial neural network can be trained not only with spatial information but also with texture information. 3) It can provide more powerful performance because the ROI of training after compression is high. This type of compression method can be useful in applications where large-scale data and texture information are important (e.g. remote sensing, microscopy).
II. 방법(METHODS)II. METHODS
A.데이터 준비A.Data preparation
본 명세서의 실시예에서, 헤마톡실린 및 에오신 염색이 사용된 대장 생검 표본의 전체 슬라이드 이미지(WSI, whole slide image)가 사용되었다. 주석(annotation)은 선암종(ADENOCA, adenocarcinoma), 이형성이 있는 고급 샘종(TAH, high grade adenoma with dysplasia), 이형성이 있는 저등급 샘종(TAL, low grade adenoma with dysplasia), 카르시노이드(CARCINOID, carcinoid), 과형성 폴립(HYPERP, hyperplastic polyp)의 5가지 클래스로 분류될 수 있다. In the examples herein, whole slide images (WSI) of colon biopsy specimens using hematoxylin and eosin staining were used. Annotations include adenocarcinoma (ADENOCA), high grade adenoma with dysplasia (TAH), low grade adenoma with dysplasia (TAL), and carcinoid (CARCINOID). ), hyperplastic polyp (HYPERP) can be classified into five classes.
일 예로, 전술한 전체 슬라이드 이미지는 대장 생검 조직의 표본을 디지털 전체 슬라이드 카메라(Aperio AT2, Leica biosystems, USA)를 사용하여 촬영한 20배 확대 이미지일 수 있다.As an example, the above-mentioned full slide image may be a 20-fold magnified image taken of a specimen of colonic biopsy tissue using a digital full slide camera (Aperio AT2, Leica biosystems, USA).
B.압축 이미지 분석B. Compressed image analysis
본 명세서의 실시예에서는 조직 슬라이드 이미지의 분석을 위해 JPEG2000에서 사용되는 웨이블릿 변환을 기반으로 압축 영역을 적용하였다.In the examples of this specification, a compression area was applied based on the wavelet transform used in JPEG2000 to analyze tissue slide images.
도 1은 본 발명의 실시예들에서 설명하는 조직 슬라이드 이미지 분석 방법의 일 예를 나타내는 도면이다.1 is a diagram showing an example of a tissue slide image analysis method described in embodiments of the present invention.
도 1의 (a)는 타일을 추출하는 동작, (b)는 이미지 깊이를 압축하는 동작, (c)는 압축 도메인으로의 순방향 변환, (d)는 컨볼루션 신경망 네트워크를 이용한 학습 및 예측 동작, (e)는 하나의 타일로부터 전체 이미지를 예측하는 동작, (f)는 웨이블릿 가중 앙상블(WWE, wavelet-weighted ensemble)을 적용하는 동작을 나타낸 도면이다.In Figure 1, (a) is an operation to extract a tile, (b) is an operation to compress the image depth, (c) is a forward conversion to the compression domain, (d) is a learning and prediction operation using a convolutional neural network, (e) is a diagram showing the operation of predicting the entire image from one tile, and (f) is a diagram showing the operation of applying a wavelet-weighted ensemble (WWE).
1) 슬라이딩 윈도우 알고리즘 기반 타일 추출 (도 1(a) & 도 2)1) Tile extraction based on sliding window algorithm (Figure 1(a) & Figure 2)
하나의 전체 슬라이드 이미지(WSI)에서 복수의 타일들, 즉 타일 이미지들을 추출할 때 제한된 시야로 인해 위치 및 인접 타일에 대한 정보가 손실될 수 있다. 그러나 인접한 영역 간의 형태학적(morphological) 정보는 진단 결정에 매우 중요한 요소이다.When extracting a plurality of tiles, that is, tile images, from one whole slide image (WSI), information about the location and adjacent tiles may be lost due to the limited field of view. However, morphological information between adjacent regions is a very important factor in diagnostic decisions.
이러한 문제를 극복하기 위해 다중 ROI(Region of Interest) 및 슬라이딩 윈도우 방법이 사용될 수 있다.To overcome this problem, multiple Region of Interest (ROI) and sliding window methods can be used.
다중 ROI 방식은 낮은 중복성으로 인해 슬라이딩 윈도우 방법보다 빠르지만 슬라이딩 윈도우 방법은 다음과 같은 장점이 있다.The multiple ROI method is faster than the sliding window method due to low redundancy, but the sliding window method has the following advantages.
첫째, 슬라이딩 윈도우 방식의 중복성(redundancy)은 딥 러닝 기반 접근 방식에서 필수적인 전처리 단계인 데이터 증대(data augmentation)를 지원할 수 있다.First, the redundancy of the sliding window method can support data augmentation, an essential preprocessing step in deep learning-based approaches.
둘째, 이 방법은 중첩 영역(overlapping area)이 인접한 타일에 서로 의존하기 때문에 제한된 시야 문제를 간접적으로 극복할 수 있다.Second, this method can indirectly overcome the limited field of view problem because overlapping areas depend on adjacent tiles.
마지막으로 타일들을 기초로 전체 이미지를 합산하는 동안 중첩되는 영역의 확률을 평균화하므로 전체 정확도가 증가할 수 있다.Lastly, the overall accuracy can be increased by averaging the probability of overlapping areas while summing the entire image based on the tiles.
본 명세서의 실시예들에서 타일 추출 방법으로 슬라이딩 윈도우 방식이 사용되였다. 도 2는 슬라이딩 윈도우 알고리즘을 이용하여 조직 슬라이드 이미지에서 복수의 타일 이미지들을 추출하는 동작의 일 예를 나타내는 도면이다.In the embodiments of this specification, the sliding window method was used as a tile extraction method. FIG. 2 is a diagram illustrating an example of an operation of extracting a plurality of tile images from a tissue slide image using a sliding window algorithm.
일 예로, 본 명세서의 실시예들에서 GPU 메모리 크기의 제한으로 인해 수용 가능한 최대 타일 크기는 512 × 512 픽셀이지만 압축 단계 전에 크기가 1,024 × 1,024 픽셀인 타일을 추출하였다.For example, in the embodiments of this specification, the maximum acceptable tile size is 512 × 512 pixels due to limitations in GPU memory size, but tiles with a size of 1,024 × 1,024 pixels were extracted before the compression step.
이때, 슬라이딩 윈도우의 보폭(stride)은 가로 및 세로로 256픽셀로 설정되었다.At this time, the stride of the sliding window was set to 256 pixels horizontally and vertically.
2) 주성분 분석(PCA)에 기반한 z축 압축 (도 1(b) & 도 3)2) z-axis compression based on principal component analysis (PCA) (Figure 1(b) & Figure 3)
도 3은 복수의 타일 이미지들에 대한 압축 동작을 실행하는 동작의 일 예를 나타낸 도면이다.Figure 3 is a diagram illustrating an example of a compression operation for a plurality of tile images.
도 3을 참조하면, 조직병리학적 이미지에는 세 개의 빨간색(R), 녹색(G) 및 파란색(B) 채널이 있다. 이때, 상관관계(correlation)는 각 색상별로 높다. Referring to Figure 3, the histopathological image has three red (R), green (G), and blue (B) channels. At this time, the correlation is high for each color.
조직병리학적 이미지의 색상은 세포핵(cell nuclei)을 파란색으로 염색하고 세포외기질(extracellular matrix)과 세포질(cytoplasm)을 분홍색으로 염색하는 헤마톡실린 및 에오신 염색에 의해 변화될 수 있다. The color of histopathological images can be changed by hematoxylin and eosin staining, which stains cell nuclei blue and the extracellular matrix and cytoplasm pink.
따라서 z축 압축은 조직 영역의 R 및 B 채널에만 적용될 수 있다.Therefore, z-axis compression can only be applied to the R and B channels of the tissue region.
본 명세서의 실시예들에서는 먼저 오츠(Otsu) 알고리즘을 적용하여 조직병리학적 이미지에서 RGB 값을 추출한 다음 G(Green) 채널에 대한 값을 제거할 수 있다. In embodiments of the present specification, the Otsu algorithm may first be applied to extract RGB values from the histopathological image, and then the value for the G (Green) channel may be removed.
주성분 분석(PCA)은 R(Red) 채널에 대한 값과 B(Blue) 채널에 대한 값 사이의 변동을 최대화하고 평균 제곱 오차(mean squared error)를 최소화하기 위해 적용될 수 있다. (도 3(d)). 이 프로세스를 통해 이미지의 차원을 줄이고 조직병리학에서 널리 사용되는 색상에 대한 정규화 프로세스(normalization process)를 실행할 수 있다. Principal component analysis (PCA) can be applied to maximize the variation between the values for the R (Red) channel and the values for the B (Blue) channel and minimize the mean squared error. (Figure 3(d)). This process allows us to reduce the dimensionality of the image and perform a normalization process for color, which is widely used in histopathology.
3) 압축 영역에서의 신경망 훈련(x축 및 y축 압축) (도 1(c) & 도 1(d))3) Neural network training in compression domain (x-axis and y-axis compression) (Figure 1(c) & Figure 1(d))
이미지 깊이 압축(z축) 후, x축 및 y축을 따라 정보를 압축하기 위해 Haar 웨이블릿 기반 함수를 사용하여 각 타일에 대해 이산 웨이블릿 변환(DWT)이 수행될 수 있다. 2D 웨이블릿 변환의 부대역(sub-band)은 수학식 1 내지 4를 사용하여 계산될 수 있다.After image depth compression (z-axis), a discrete wavelet transform (DWT) can be performed on each tile using the Haar wavelet basis function to compress information along the x- and y-axes. The sub-band of the 2D wavelet transform can be calculated using Equations 1 to 4.
Figure PCTKR2022013247-appb-img-000001
Figure PCTKR2022013247-appb-img-000001
Figure PCTKR2022013247-appb-img-000002
Figure PCTKR2022013247-appb-img-000002
Figure PCTKR2022013247-appb-img-000003
Figure PCTKR2022013247-appb-img-000003
Figure PCTKR2022013247-appb-img-000004
Figure PCTKR2022013247-appb-img-000004
여기서
Figure PCTKR2022013247-appb-img-000005
는 입력 타일의 좌표,
Figure PCTKR2022013247-appb-img-000006
는 출력 부대역의 좌표,
Figure PCTKR2022013247-appb-img-000007
Figure PCTKR2022013247-appb-img-000008
는 레벨 j의 2D 웨이블릿 기저 함수(basis function),
Figure PCTKR2022013247-appb-img-000009
는 LL(low-low) 부대역이라고 호칭되는 원본 이미지의 근사치,
Figure PCTKR2022013247-appb-img-000010
,
Figure PCTKR2022013247-appb-img-000011
, 및
Figure PCTKR2022013247-appb-img-000012
는 방향이 각각 수평(vertical), 수직(horizontal), 대각선(diagonal)인 고주파 성분이다.
here
Figure PCTKR2022013247-appb-img-000005
is the coordinate of the input tile,
Figure PCTKR2022013247-appb-img-000006
is the coordinate of the output subband,
Figure PCTKR2022013247-appb-img-000007
and
Figure PCTKR2022013247-appb-img-000008
is the 2D wavelet basis function of level j,
Figure PCTKR2022013247-appb-img-000009
is an approximation of the original image, called LL (low-low) subband,
Figure PCTKR2022013247-appb-img-000010
,
Figure PCTKR2022013247-appb-img-000011
, and
Figure PCTKR2022013247-appb-img-000012
are high-frequency components whose directions are horizontal, vertical, and diagonal, respectively.
이러한 구성요소는 각각 LH(low-high) 부대역, HL(high-low) 부대역 및 HH(high-high) 부대역으로 호칭될 수 있다. 이러한 웨이블릿 도메인 분석을 사용하는 방법은 다음과 같은 장점이 있다.These components may be referred to as low-high (LH) subband, high-low (HL) subband, and high-high (HH) subband, respectively. This method of using wavelet domain analysis has the following advantages.
첫째, 이미지 크기는 축소되지만(e.g. 1,024 × 1,024 픽셀에서 512 × 512 픽셀로) 필요한 모든 정보가 원본 이미지를 완벽하게 재구성하기 위해 유지될 수 있다. 재구성 후 ROI는 정보 손실 없이 증가할 수 있으며 이는 일반화 성능에 비례한다.First, the image size is reduced (e.g. from 1,024 × 1,024 pixels to 512 × 512 pixels), but all necessary information can be retained to completely reconstruct the original image. After reconstruction, the ROI can be increased without information loss, which is proportional to the generalization performance.
둘째, 이 방법은 웨이블릿 영역에서 2D 그레이 레벨 동시 발생 행렬(GLCM, grey-level co-occurrence matrix)의 결과가 암 등급(cancer grading)에 따라 웨이블릿 하위 대역에서 텍스처 정보를 캡처할 수 있기 때문에 텍스처를 분류하는 데 유용하다. Second, this method can capture texture information in wavelet subbands according to cancer grading, so the result of 2D gray-level co-occurrence matrix (GLCM) in wavelet domain can capture texture. Useful for classification.
본 명세서의 실시예들에서, 4개의 이산 웨이블릿 변환 부대역이 각각의 개별 분할 모델인 U-Net++에 병렬로 입력되였다.In the embodiments herein, four discrete wavelet transform subbands were input in parallel to each individual segmentation model, U-Net++.
본 명세서의 실시예들에서 다이스 계수(dice coefficient)와 교차 엔트로피(cross-entropy)를 결합한 DiceCE 손실 함수(loss function)가 사용될 수 있다. 일 예로, 각 부대역 모델은 2개의 NVidia Titan X GPU를 사용하고, 총 배치 크기(batch size)는 각 GPU에 대해 6개이다.In embodiments of the present specification, the DiceCE loss function combining the dice coefficient and cross-entropy may be used. As an example, each subband model uses two NVidia Titan
4) 웨이블릿 가중 앙상블을 사용하여 전체 이미지 예측 (도 1(e) & 도 1(f) & 도 4)4) Full image prediction using wavelet weighted ensemble (Figure 1(e) & Figure 1(f) & Figure 4)
이하 재구성 프로세스에 대해 설명한다. The reconstruction process is described below.
도 4는 웨이블릿 가중 앙상블을 이용하여 조직 슬라이드 이미지를 분석하는 동작의 일 예를 나타낸 도면이다.Figure 4 is a diagram showing an example of an operation for analyzing a tissue slide image using a wavelet weighted ensemble.
본 명세서의 실시예들에서, 각 부대역에 대한 전체 확률 맵(whole probability map)을 생성한 후 도 1(e)와 같이 각 부대역에 대해 4개의 훈련된 인공지능 신경망에 웨이블릿 가중 앙상블(WWE) 기반 앙상블 학습을 적용하였다. In embodiments of the present specification, after generating a whole probability map for each subband, a wavelet weighted ensemble (WWE) is applied to four trained artificial intelligence neural networks for each subband, as shown in FIG. 1(e). )-based ensemble learning was applied.
먼저, 오츠(Otsu) 알고리즘을 사용하여 원본 이미지에서 바이너리 마스크 이미지(도 4(b))를 획득할 수 있다(도 4(a)).First, a binary mask image (FIG. 4(b)) can be obtained from the original image using the Otsu algorithm (FIG. 4(a)).
Haar 웨이블릿을 기반으로 하는 2D 웨이블릿 변환 후 이진 조직 마스크(binary tissue mask)에 대한 4개의 웨이블릿 부대역이 생성되었다(도 4(c)). 본 명세서의 실시예들에서 그것들은 웨이블릿 가중치, 즉 LL 가중치, LH 가중치, HL 가중치 및 HH 가중치로 정의되었다.After 2D wavelet transformation based on the Haar wavelet, four wavelet subbands for the binary tissue mask were generated (Figure 4(c)). In the embodiments herein, they are defined as wavelet weights, namely LL weight, LH weight, HL weight and HH weight.
본 명세서의 실시예들에서 각 웨이블릿 가중치에 작은 값 ε을 추가한 다음 할당된 가중치를 곱하였다(도 4(d)).In the embodiments of this specification, a small value ε was added to each wavelet weight and then multiplied by the assigned weight (FIG. 4(d)).
마지막으로 가중치에 해당 확률 맵을 곱한 다음(도 4(e)), 최종 예측을 얻기 위해, Haar 웨이블릿도 사용하는 역 이산 웨이블릿 변환을 적용하였다(도 4(f)).Finally, the weights were multiplied by the corresponding probability map (Figure 4(e)) and then the inverse discrete wavelet transform, which also uses the Haar wavelet, was applied to obtain the final prediction (Figure 4(f)).
W1, W2, W3 및 W4와 같은 매개변수는 경험적으로 결정되었다. 이상적으로는, 각 부대역의 동일한 영역이 1의 확률을 갖는다면, 해당 영역의 재구성 확률도 이러한 매개변수 없이 1이어야 한다. 그러나 LL 부대역에는 원본 이미지의 기본 특성이 있기 때문에 LL 부대역에 더 많은 가중치(즉, 1.8)가 부여되였다. 그런 다음 ε을 추가하여 영-항(zero-terms)을 제거하였다. Parameters such as W1, W2, W3 and W4 were determined empirically. Ideally, if the same region of each subband has a probability of 1, the reconstruction probability of that region should also be 1 without these parameters. However, because the LL subband contains the basic characteristics of the original image, more weight (i.e., 1.8) was given to the LL subband. Then, ε was added to remove the zero-terms.
본 명세서의 실시예들에서 사용되는 웨이블릿 가중 앙상블 방법은 다음 수학식 5로 표현될 수 있다.The wavelet weighted ensemble method used in the embodiments of the present specification can be expressed as Equation 5 below.
Figure PCTKR2022013247-appb-img-000013
Figure PCTKR2022013247-appb-img-000013
여기서
Figure PCTKR2022013247-appb-img-000014
Figure PCTKR2022013247-appb-img-000015
는 레벨 1의 2D 웨이블릿 기저 함수를 나타내고,
Figure PCTKR2022013247-appb-img-000016
는 이진 조직 마스크(LL 부대역 가중치)의 근사치를 나타내고
Figure PCTKR2022013247-appb-img-000017
는 방향이 각각 수평, 수직 및 대각선인 이진 조직 마스크에 대한 고주파 성분(LH, HL 및 HH 부대역 가중치)이다.
Figure PCTKR2022013247-appb-img-000018
Figure PCTKR2022013247-appb-img-000019
는 각 부대역에 대한 확률 맵을 설명한다.
Figure PCTKR2022013247-appb-img-000020
는 웨이블릿 가중 앙상블(WWE) 이후의 최종 예측 결과이다.
here
Figure PCTKR2022013247-appb-img-000014
and
Figure PCTKR2022013247-appb-img-000015
represents the 2D wavelet basis function of level 1,
Figure PCTKR2022013247-appb-img-000016
represents an approximation of the binary tissue mask (LL subband weights) and
Figure PCTKR2022013247-appb-img-000017
are the high-frequency components (LH, HL, and HH subband weights) for the binary tissue mask with directions horizontal, vertical, and diagonal, respectively.
Figure PCTKR2022013247-appb-img-000018
and
Figure PCTKR2022013247-appb-img-000019
describes the probability map for each subband.
Figure PCTKR2022013247-appb-img-000020
is the final prediction result after wavelet weighted ensemble (WWE).
Figure PCTKR2022013247-appb-img-000021
Figure PCTKR2022013247-appb-img-000021
Figure PCTKR2022013247-appb-img-000022
,
Figure PCTKR2022013247-appb-img-000023
,
Figure PCTKR2022013247-appb-img-000024
, 및
Figure PCTKR2022013247-appb-img-000025
와 같은 가중치 매개변수(weight parameter)를 최적화하기 위해 W = (
Figure PCTKR2022013247-appb-img-000026
,
Figure PCTKR2022013247-appb-img-000027
,
Figure PCTKR2022013247-appb-img-000028
,
Figure PCTKR2022013247-appb-img-000029
) 이고
Figure PCTKR2022013247-appb-img-000030
는 x의 다이스 점수의 평균을 결정하는 함수인 수학식 6을 만족하는 최적화가 적용되었다.
Figure PCTKR2022013247-appb-img-000022
,
Figure PCTKR2022013247-appb-img-000023
,
Figure PCTKR2022013247-appb-img-000024
, and
Figure PCTKR2022013247-appb-img-000025
To optimize the weight parameter such as W = (
Figure PCTKR2022013247-appb-img-000026
,
Figure PCTKR2022013247-appb-img-000027
,
Figure PCTKR2022013247-appb-img-000028
,
Figure PCTKR2022013247-appb-img-000029
) ego
Figure PCTKR2022013247-appb-img-000030
Optimization that satisfies Equation 6, which is a function that determines the average of the Dice scores of x, was applied.
본 명세서의 실시예들에서 각 매개변수의 범위는 0.3에서 3.0이며 단계 크기는 0.3일 수 있다. 일 예로,
Figure PCTKR2022013247-appb-img-000031
= 1.8,
Figure PCTKR2022013247-appb-img-000032
= 0.9,
Figure PCTKR2022013247-appb-img-000033
= 0.9, 및
Figure PCTKR2022013247-appb-img-000034
= 0.3으로 매개변수 값이 선택되었다.
In the embodiments herein, the range of each parameter is 0.3 to 3.0 and the step size may be 0.3. As an example,
Figure PCTKR2022013247-appb-img-000031
= 1.8;
Figure PCTKR2022013247-appb-img-000032
= 0.9;
Figure PCTKR2022013247-appb-img-000033
= 0.9, and
Figure PCTKR2022013247-appb-img-000034
The parameter value was chosen as = 0.3.
C.실험 셋업C.Experiment setup
예측의 품질은 다음과 같이 주사위 점수(Dice)와 픽셀 정확도(Acc)를 사용하여 정량화될 수 있다.The quality of the prediction can be quantified using dice score (Dice) and pixel accuracy (Acc) as follows:
Figure PCTKR2022013247-appb-img-000035
Figure PCTKR2022013247-appb-img-000035
Figure PCTKR2022013247-appb-img-000036
Figure PCTKR2022013247-appb-img-000036
여기서
Figure PCTKR2022013247-appb-img-000037
,
Figure PCTKR2022013247-appb-img-000038
,
Figure PCTKR2022013247-appb-img-000039
Figure PCTKR2022013247-appb-img-000040
은 참 양성, 거짓 양성, 참 음성 및 거짓 음성에 대한 픽셀 수이다.
here
Figure PCTKR2022013247-appb-img-000037
,
Figure PCTKR2022013247-appb-img-000038
,
Figure PCTKR2022013247-appb-img-000039
and
Figure PCTKR2022013247-appb-img-000040
is the number of pixels for true positives, false positives, true negatives, and false negatives.
본 명세서의 실시예들에서, WSI 테스트 데이터 세트에 대해 전술한 앙상블 방법(즉, 웨이블릿 가중 앙상블(WWE))을 세 가지 방법으로 다른 모델과 비교하였다: In the examples herein, the ensemble method described above (i.e., wavelet weighted ensemble (WWE)) on the WSI test data set was compared to other models in three ways:
(1) 데시메이션 후 데이터 사용 및 압축 대신 슬라이딩 윈도우 타일 추출 적용(픽셀 크기: 512 x 512 픽셀, 슬라이딩 윈도우의 보폭: 128 픽셀, x10 배율) (1) Apply sliding window tile extraction instead of using and compressing data after decimation (pixel size: 512 x 512 pixels, stride of sliding window: 128 pixels, x10 scale)
(2) LL, LH, HL 및 HH 부대역과 같은 압축된 데이터를 사용(2) Use compressed data such as LL, LH, HL and HH subbands
(3) 각 부대역 결과에 대해 가중 평균 앙상블(WAE)을 사용(3) using weighted average ensemble (WAE) for each subband result;
WAE는 다음과 같이 수학식 9로 표현될 수 있다.WAE can be expressed in Equation 9 as follows.
Figure PCTKR2022013247-appb-img-000041
Figure PCTKR2022013247-appb-img-000041
여기서
Figure PCTKR2022013247-appb-img-000042
,
Figure PCTKR2022013247-appb-img-000043
,
Figure PCTKR2022013247-appb-img-000044
Figure PCTKR2022013247-appb-img-000045
는 각 부대역에 대한 확률 맵을 기술하고,
Figure PCTKR2022013247-appb-img-000046
는 가중 평균 앙상블 이후의 최종 예측 결과이다.
Figure PCTKR2022013247-appb-img-000047
,
Figure PCTKR2022013247-appb-img-000048
,
Figure PCTKR2022013247-appb-img-000049
Figure PCTKR2022013247-appb-img-000050
는 각각 LL, LH, HL 및 HH 부대역에 대한 확률 맵을 설명한다. WAE에서 WWE와 동일한 가중치 값을 설정한다. (
Figure PCTKR2022013247-appb-img-000051
=1.8,
Figure PCTKR2022013247-appb-img-000052
=0.9,
Figure PCTKR2022013247-appb-img-000053
=0.9, 및
Figure PCTKR2022013247-appb-img-000054
=0.3).
here
Figure PCTKR2022013247-appb-img-000042
,
Figure PCTKR2022013247-appb-img-000043
,
Figure PCTKR2022013247-appb-img-000044
and
Figure PCTKR2022013247-appb-img-000045
describes the probability map for each subband,
Figure PCTKR2022013247-appb-img-000046
is the final prediction result after weighted average ensemble.
Figure PCTKR2022013247-appb-img-000047
,
Figure PCTKR2022013247-appb-img-000048
,
Figure PCTKR2022013247-appb-img-000049
and
Figure PCTKR2022013247-appb-img-000050
describes the probability maps for LL, LH, HL and HH subbands, respectively. Set the same weight value in WAE as in WWE. (
Figure PCTKR2022013247-appb-img-000051
=1.8;
Figure PCTKR2022013247-appb-img-000052
=0.9,
Figure PCTKR2022013247-appb-img-000053
=0.9, and
Figure PCTKR2022013247-appb-img-000054
=0.3).
본 명세서의 실시예들에서 제안한 방법의 우수성을 검증하기 위해 다음과 같이 실험을 진행하였다. (1) 각 방법에 따른 평균 Dice와 Acc를 비교하고 (2) 모든 클래스에 따른 Dice와 Acc의 분포를 관찰하고, (3) 저주파 가중치(
Figure PCTKR2022013247-appb-img-000055
)와 고주파 가중치(
Figure PCTKR2022013247-appb-img-000056
,
Figure PCTKR2022013247-appb-img-000057
, 및
Figure PCTKR2022013247-appb-img-000058
)에 따른 모든 클래스의 다이스 변화를 확인하고 (4) 각 방법에 따라 샘플 이미지와 라인 프로파일을 비교하고 (5) WWE의 Dice, WAE 및 종양 확률 임계값에 따라 압축하지 않은 방법과 비교하였다.
To verify the superiority of the method proposed in the examples of this specification, an experiment was conducted as follows. (1) Compare the average Dice and Acc for each method, (2) observe the distribution of Dice and Acc for all classes, (3) low-frequency weight (
Figure PCTKR2022013247-appb-img-000055
) and high-frequency weighting (
Figure PCTKR2022013247-appb-img-000056
,
Figure PCTKR2022013247-appb-img-000057
, and
Figure PCTKR2022013247-appb-img-000058
), (4) compared sample images and line profiles according to each method, and (5) compared with the uncompressed method according to WWE's Dice, WAE, and tumor probability thresholds.
III. 실험 결과 및 논의 (EXPERIMENTAL RESULTS AND DISCUSSIONS)III. EXPERIMENTAL RESULTS AND DISCUSSIONS
본 명세서의 실시예들에서 제안한 방법을 검증하기 위해서, 일 예로, 390개의 대장 생검 표본의 전체 슬라이드 이미지(WSI)가 사용되었다. 이때, 전체 슬라이드 이미지(WSI)의 평균 크기는 43,443 x 28,645 픽셀이었다. 데이터 세트는 274개의 기차 데이터, 77개의 검증 데이터, 39개의 테스트 데이터의 세 그룹으로 분류되었다To verify the method proposed in the embodiments of this specification, as an example, whole slide images (WSI) of 390 colon biopsy specimens were used. At this time, the average size of the entire slide image (WSI) was 43,443 x 28,645 pixels. The data set was divided into three groups: 274 train data, 77 validation data, and 39 test data.
본 명세서의 실시예들에서 전술한 데이터 세트를 사용하여 대장암(CRC) 조직 이미지에서 정상 및 비정상 영역의 이진 분할(binary segmentation)을 달성하기 위한 파이프라인이 구현되었다.In embodiments herein, a pipeline was implemented to achieve binary segmentation of normal and abnormal regions in colorectal cancer (CRC) tissue images using the dataset described above.
각 방법에 따른 평균 Dice와 Acc를 비교하였을 때, 압축된 데이터를 사용한 모델의 경우 압축하지 않은 모델에 비해 LL 부대역에 대한 평균 Dice 및 Acc 결과가 각각 5.6% 및 1.6% 증가하였다.When comparing the average Dice and Acc for each method, the average Dice and Acc results for the LL subband increased by 5.6% and 1.6%, respectively, in the case of the model using compressed data compared to the uncompressed model.
그러나 LH(Dice의 경우 -7.6% 및 Acc의 경우 -2.5%), HL(Dice의 경우 -4.0% 및 Acc의 경우 -2.2%) 및 HH(Dice 및 -의 경우 -6.4%)의 평균 Dice 및 Acc 결과 1.5% for Acc) 고주파 정보를 전달하는 부대역은 압축 전과 비교하여 감소하였다. However, the average Dice and Acc result: 1.5% for Acc) The subband carrying high frequency information was reduced compared to before compression.
도 5는 사용된 모델에 따른 클래스 별 Dice와 Acc를 나타낸다. 모든 종양 클래스의 경우 LL 부대역에 대한 평균 결과는 상대적으로 높다. 또한, 고주파 성분을 운반하는 LH, HL, HH 부대역의 평균 결과는 ADENOCA 및 TAH에서 상대적으로 높으며, 진행성 질병 진행 및 그에 따른 병리학적 변형으로 인해 상대적으로 탐지하기 용이하다. 그러나 LH, HL, HH 부대역의 결과는 TAL, CARCINOID 및 HYPERP에 대해 덜 예측적이다. TAL(상대적으로 덜 진행됨), CARCINOID(악성(malignant) 종양이지만 점막하층(submucosa)에서 발생) 및 HYPERP(양성(benign) 종양)는 고주파 성분만으로 정확하게 예측하기 어렵다.Figure 5 shows Dice and Acc for each class according to the model used. For all tumor classes, the average results for the LL subband are relatively high. Additionally, the average results of LH, HL, and HH subbands carrying high-frequency components are relatively high in ADENOCA and TAH, and are relatively easy to detect due to progressive disease progression and subsequent pathological transformation. However, results for the LH, HL, and HH subbands are less predictive for TAL, CARCINOID, and HYPERP. TAL (relatively less advanced), CARCINOID (malignant tumor but originating in the submucosa), and HYPERP (benign tumor) are difficult to predict accurately using only high-frequency components.
이러한 결과를 바탕으로 본 발명의 실시예들에서는 저주파 정보와 고주파 정보를 모두 이용하여 결과를 개선할 수 있는 앙상블 방법을 제안한다.Based on these results, embodiments of the present invention propose an ensemble method that can improve results by using both low-frequency information and high-frequency information.
널리 사용되는 앙상블 기법인 가중 평균 앙상블(WAE)의 경우 LL 부대역의 결과에 가중치를 부여하더라도 평균 Dice와 Acc가 LL 부대역의 평균 Dice와 Acc보다 낮다(-5.7% 주사위의 경우 및 Acc의 경우 -2.3%). 무압축 결과에 비해 ADENOCA와 TAH는 LH, HL, HH와 같은 고주파 서브 대역의 Dice와 Acc가 무압축의 경우보다 높기 때문에 WAE 이후 좋은 성능을 보였다. (ADENOCA: 주사위의 경우 +4.9%, Acc의 경우 +0.0%, TAH: 주사위의 경우 +3.7%, Acc의 경우 +0.2%). 그러나 고주파 대역에서 낮은 성능을 보이는 TAL, CARCINOID, HYPERP의 경우 가중 평균 앙상블(WAE) 이후의 Dice 및 Acc는 압축하지 않은 경우보다 낮다(TAL: Dice의 경우 +0.2%, Acc의 경우 -0.4% CARCINOID: 주사위의 경우 +4.3%, Acc의 경우 +2.3%, HYPERP: 주사위의 경우 +11.1%, Acc의 경우 +4.1%;). For Weighted Average Ensemble (WAE), a widely used ensemble technique, even when weighting the results in the LL subband, the average Dice and Acc are lower than the average Dice and Acc in the LL subband (-5.7% for Dice and Acc -2.3%). Compared to the uncompressed results, ADENOCA and TAH showed good performance after WAE because Dice and Acc in high-frequency subbands such as LH, HL, and HH were higher than those in the uncompressed case. (ADENOCA: +4.9% for Dice, +0.0% for Acc, TAH: +3.7% for Dice, +0.2% for Acc). However, for TAL, CARCINOID, and HYPERP, which show poor performance in high frequency bands, Dice and Acc after weighted average ensemble (WAE) are lower than without compression (TAL: +0.2% for Dice, -0.4% for Acc CARCINOID : +4.3% for Dice, +2.3% for Acc, HYPERP: +11.1% for Dice, +4.1% for Acc;).
반면 웨이블릿 가중 앙상블(WWE)의 경우 평균 Dice 및 Acc는 LL에 비해 각각 약 0.6% 및 0.2% 증가한다. 각 클래스에 대해, ADENOCA(주사위 +0.4% 및 Acc +0.1%), TAH(주사위 +0.7% 및 Acc +0.2%), TAL(주사위 +0.5% 및 Acc +0.1%) CARCINOID(주사위의 경우 +1.5% 및 Acc의 경우 +0.1%) 및 HYPER(주사위의 경우 +0.8% 및 Acc의 경우 +1.8%)의 결과가 점차 증가한다. 특히 WAE와 달리, WWE는 TAL(Dice의 경우 +9.2% 및 Acc의 경우 +1.6%), CARCINOID(Dice의 경우 +8.7% 및 Acc의 경우 +3.7%) 및 HYPERP(Dice의 경우 + 14%, Acc의 경우 +4.9%), 각각 WAE보다 높은 성능을 보여준다.On the other hand, for wavelet weighted ensemble (WWE), the average Dice and Acc increase by about 0.6% and 0.2%, respectively, compared to LL. For each class: ADENOCA (+0.4% dice and +0.1% Acc), TAH (+0.7% dice and +0.2% Acc), TAL (+0.5% dice and +0.1% Acc) CARCINOID (+1.5 dice % and +0.1% for Acc) and HYPER (+0.8% for dice and +1.8% for Acc) gradually increase the results. Notably, unlike WAE, WWE has TAL (+9.2% for Dice and +1.6% for Acc), CARCINOID (+8.7% for Dice and +3.7% for Acc), and HYPERP (+14% for Dice; +4.9% for ACC), respectively, showing higher performance than WAE.
저주파 가중치(
Figure PCTKR2022013247-appb-img-000059
)와 고주파 가중치(
Figure PCTKR2022013247-appb-img-000060
,
Figure PCTKR2022013247-appb-img-000061
Figure PCTKR2022013247-appb-img-000062
)에 따른 모든 클래스의 다이스 점수 변화를 실증적으로 검증하여 각 가중치를 최적화하였다. WWE에서 최고의 가중치는 평균 다이스 점수에 의해 결정될 수 있다.
Low-frequency weighting (
Figure PCTKR2022013247-appb-img-000059
) and high-frequency weighting (
Figure PCTKR2022013247-appb-img-000060
,
Figure PCTKR2022013247-appb-img-000061
and
Figure PCTKR2022013247-appb-img-000062
), each weight was optimized by empirically verifying the change in Dice scores of all classes. In WWE, the best weight can be determined by average dice score.
도 6은 모든 클래스(ADENOCA, TAH, TAL, CARCINOID 및 HYPERP)에서 저주파 가중치(
Figure PCTKR2022013247-appb-img-000063
)에 대한 다이스 점수의 변화를 설명한다.
Figure 6 shows the low-frequency weights (
Figure PCTKR2022013247-appb-img-000063
) explains the change in dice score.
도 6을 참조하면, 0.6에서 0.9까지 모든 클래스의 주사위 점수가 상대적으로 가파르게 증가한다. 특히 HYPERP와 ADENOCA의 다이스 점수 상승률은 상대적으로 높다.
Figure PCTKR2022013247-appb-img-000064
값 1.2를 넘어서면 모든 클래스에서 주사위 점수가 포화(saturated)되기 시작한다. 또한 고주파 가중치(
Figure PCTKR2022013247-appb-img-000065
,
Figure PCTKR2022013247-appb-img-000066
Figure PCTKR2022013247-appb-img-000067
)의 값을 변경했지만 다이스 점수의 변화는 무시될 수 있다.
Referring to Figure 6, the dice scores of all classes increase relatively steeply from 0.6 to 0.9. In particular, the Dice score increase rate of HYPERP and ADENOCA is relatively high.
Figure PCTKR2022013247-appb-img-000064
Above a value of 1.2, dice scores start to become saturated for all classes. Additionally, high-frequency weighting (
Figure PCTKR2022013247-appb-img-000065
,
Figure PCTKR2022013247-appb-img-000066
and
Figure PCTKR2022013247-appb-img-000067
), but the change in dice score can be ignored.
도 7은 종양 확률에 대한 히트맵과 라인 프로파일을 사용하여 주석에 대한 분할 예측, 압축이 없는 방법, WAE 및 WWE를 비교한 결과를 나타낸 도면이다(도 7a-d). 색상 막대는 각 픽셀에 대한 종양 확률을 나타낸다. 히트맵은 원본 조직학 이미지(histology image)에 오버레이되며, 컬러 테두리 영역의 확대 이미지는 메인 이미지 상단에 위치한다. 빨간색 점선을 따라 절단된 종양 확률의 라인 프로파일은 메인 이미지 아래에 존재한다. Figure 7 shows the results of comparing segmentation prediction for annotations, a method without compression, WAE, and WWE using a heatmap and line profile for tumor probability (Figures 7a-d). Color bars represent tumor probability for each pixel. The heatmap is overlaid on the original histology image, and an enlarged image of the colored border area is located on top of the main image. A line profile of tumor probability cut along the red dotted line is below the main image.
도 7(a)는 병리학자가 주석을 추가한 실측값이다. 주석의 픽셀 값은 1이고 다른 영역의 값은 0이다. Figure 7(a) is the ground truth annotated by a pathologist. The pixel value of the annotation is 1 and the value of other areas is 0.
도 7(b)는 압축하지 않은 방법의 분할 결과를 보여준다. 효율적인 훈련을 위해 데시메이션 후 고주파 정보의 약간의 손실이 있지만 단일 훈련에 사용되는 ROI는 다른 방법과 동일하다. 도 7(b)의 확대된 이미지는 주석에서보다 더 넓은 영역을 예측하고 각 픽셀의 종양 확률은 상대적으로 낮다. Figure 7(b) shows the segmentation results of the uncompressed method. For efficient training, there is some loss of high-frequency information after decimation, but the ROI used for single training is the same as other methods. The enlarged image in Figure 7(b) predicts a larger area than in the annotation, and the tumor probability of each pixel is relatively low.
도 7(c)와 같이 WAE에 대한 분할 결과는 압축하지 않은 것보다 질적으로 확실히 우수하다. WWE의 최종 분할 결과는 다른 방법에 비해 각 픽셀에서 정확한 에지(edge)와 높은 확률을 가지고 있다. WWE로 처리된 종양 확률 라인 프로파일은 원래 주석 프로파일과 가장 유사하다.As shown in Figure 7(c), the segmentation results for WAE are clearly qualitatively better than those without compression. WWE's final segmentation results have accurate edges and high probability at each pixel compared to other methods. Tumor probability line profiles processed with WWE are most similar to the original annotated profiles.
웨이블릿 부대역에 대한 WWE의 다이스 점수, 웨이블릿 부대역에 대한 WAE 및 압축이 없는 방법은 임계 종양 확률 값 범위에서 비교될 수 있다. 임계값 0.1과 0.4 사이에서 압축하지 않은 방법의 다이스 점수는 WAE보다 약간 높다. 그러나 임계값 0.5를 초과하면 이 방법의 주사위 점수가 다른 방법에 비해 급격히 떨어진다. WAE와 WWE는 모든 임계값에 대해 계속해서 강력한 성능을 발휘하며 WWE의 다이스 점수는 고주파 정보 덕분에 WAE보다 일관되게 높다.WWE's Dice score for wavelet subbands, WAE for wavelet subbands and methods without compression can be compared over a range of critical tumor probability values. Between thresholds 0.1 and 0.4, the Dice score of the uncompressed method is slightly higher than WAE. However, beyond the threshold of 0.5, the dice score of this method drops sharply compared to other methods. WAE and WWE continue to perform strongly for all thresholds, and WWE's Dice score is consistently higher than WAE's due to high-frequency information.
마지막으로 WWE 예측 이미지와 병리학자가 주석을 단 이미지를 비교하였다. Finally, we compared the WWE predicted images with the images annotated by the pathologist.
도 8은 종양에 대한 예상 결과를 클래스 별로 나타낸 도면이다.Figure 8 is a diagram showing expected results for tumors by class.
도 8a-e는 5가지 다른 종양 클래스의 조직학 이미지를 보여준다. 병리학자의 주석은 도 8f-j에 나와 있다. WWE를 사용한 해당 예측 확률 맵은 도 8k-o에 나와 있다. 제안된 WWE 방법은 일반적으로 실제 이미지와 잘 일치하는 고통 영역(afflicted area)을 분할하였다.Figures 8a-e show histological images of five different tumor classes. The pathologist's annotations are shown in Figures 8f-j. The corresponding predicted probability maps using WWE are shown in Figures 8K-O. The proposed WWE method generally segmented the affected area, which matched well with the actual image.
WWE의 평균 다이스 점수와 Acc는 각각 0.852 ± 0.086 및 0.962 ± 0.027이다. 최고의 다이스 점수(0.887 ± 0.101)는 고주파 정보가 중요한 TAH이다. 반면에 가장 나쁜 다이스 점수(0.830 ± 0.057)는 저주파 정보가 중요한 TAL 이다. HYPERP의 경우 노란색 점선 상자(도 8o-t)에서 볼 수 있듯이 죽은 핵(dead nuclei)이 모여 있는 정상 영역이 비정상적으로 예측되는 것이 관찰되었다. 이러한 비정상적인 예측은 조직 주름(tissue fold), 잉크, 먼지 및 기포와 같은 인공물로 인해 발생할 수 있으며 추가 인공물 제거가 필요할 수 있다. 이러한 이상에도 불구하고 WWE를 사용한 대장암의 전반적인 예측은 어느 한 클래스에 편향되지 않고, 모든 클래스에 대해 잘 수행되었다.WWE's average Dice Score and Acc are 0.852 ± 0.086 and 0.962 ± 0.027, respectively. The highest Dice score (0.887 ± 0.101) is TAH, where high-frequency information is important. On the other hand, the worst Dice score (0.830 ± 0.057) is TAL, where low-frequency information is important. In the case of HYPERP, it was observed that the normal area where dead nuclei were gathered was abnormally predicted, as can be seen in the yellow dotted box (Figure 8o-t). These abnormal predictions may be caused by artifacts such as tissue folds, ink, dust, and air bubbles and may require additional artifact removal. Despite these anomalies, the overall prediction of colorectal cancer using WWE was not biased toward any one class and performed well for all classes.
이상에서 설명한 방법을 통해, 고주파 정보 손실을 줄이기 위해 압축 영역을 사용하여 진단 정확도(예: Dice, Acc)를 높일 수 있다. Through the method described above, diagnostic accuracy (e.g., Dice, Acc) can be increased by using a compressed region to reduce high-frequency information loss.
본 명세서의 실시예에서 압축 영역에서 저주파 성분과 고주파 성분을 각각 학습하여 결합하는 WWE 방식이 제안되었다. NVIDIA TITAN X 12Gb GPU를 사용하면 U-net++ 모델을 한 번에 최대 타일 크기 512 x 512로 학습할 수 있다. 따라서 압축 없이
Figure PCTKR2022013247-appb-img-000068
의 실험 ROI 크기를 학습하려면 원본 이미지의 해상도(x20 배율)를 낮춰야(x10 배율)해야 한다. 이 과정에서 고주파 성분의 손실을 피할 수 없다.
In an embodiment of the present specification, a WWE method was proposed that learns and combines low-frequency components and high-frequency components separately in the compression region. Using the NVIDIA TITAN So without compression
Figure PCTKR2022013247-appb-img-000068
To learn the experimental ROI size, the resolution of the original image (x20 magnification) must be lowered (x10 magnification). In this process, loss of high-frequency components cannot be avoided.
반면에 본 명세서의 실시예에서 제안하는 방법은 압축 전 1024 x 1024의 타일 크기를 처리할 수 있다. 따라서 동일한 ROI 크기를 학습하기 위해 해상도를 낮출 필요가 없으며 20배 배율로 학습이 가능하다. 또한, 본 명세서의 실시예에서 제안하는 방법은 압축을 하지 않는 방법에 비해 하드웨어의 한계보다 4배 큰 타일을 학습할 수 있다. On the other hand, the method proposed in the embodiment of this specification can process a tile size of 1024 x 1024 before compression. Therefore, there is no need to lower the resolution to learn the same ROI size, and learning is possible at 20x magnification. Additionally, the method proposed in the embodiment of this specification can learn tiles four times larger than the hardware limit compared to the method without compression.
한편, 본 명세서의 실시예에서 설명한 방법은 동시에 4배 더 많은 GPU를 필요로 할 수 있다. 시간 자원(time resource)의 관점에서 볼 때 일반적인 2차원 컨볼루션 기반 CNN의 경우 입력 크기가 커질수록 연산량이 기하급수적으로 증가한다. 따라서 한 번에 4배 큰 이미지를 학습하는 것보다 하나의 이미지를 4개의 이미지로 분리하여 학습하는 것이 더 빠르다. 이 경우는 쿨리-튜키(Cooley-Tukey) FFT 알고리즘의 원리와 유사하다.On the other hand, the method described in the embodiments herein may require four times more GPUs at the same time. From the perspective of time resources, in the case of a general 2D convolution-based CNN, the amount of computation increases exponentially as the input size increases. Therefore, it is faster to learn one image by dividing it into four images than to learn an image four times larger at once. This case is similar to the principle of the Cooley-Tukey FFT algorithm.
IV. 결론(CONCLUSION)IV. CONCLUSION
하드웨어의 한계로 인해 이미지의 크기를 조정해야 하는 과정에서 발생하는 고주파 정보의 손실을 방지하고 보호된 고주파 정보를 사용하여 최종 결과의 정확도를 높이기 위한 연구가 수행되었다. 웨이블릿 가중 앙상블 방법을 사용하여 압축하지 않은 이미지보다 정확도가 향상되었음을 발견하였다. 전체적인 정확도는 저주파 성분에 의해 결정되었고 고주파 성분은 마진에 영향을 미쳤다.Due to hardware limitations, research was conducted to prevent loss of high-frequency information that occurs during the process of resizing images and to increase the accuracy of the final result by using protected high-frequency information. Using the wavelet weighted ensemble method, we found that accuracy was improved over uncompressed images. The overall accuracy was determined by the low-frequency component, while the high-frequency component affected the margin.
본 명세서의 실시예들에서 설명한 처리 방법은 대장암 병리조직학 이미지에 적용되었다. 이 처리 방법은 일반 병리조직학 이미지에도 적용할 수 있으며 비슷한 정확도 증가를 보인다. 제안된 웨이블릿 가중 앙상블 방법은 대규모 이미지(예: 천문학 및 위성 이미지)를 처리하고 마진에 중요한 다른 분야(예: 방사선 치료)에도 적용될 수 있다.The processing methods described in the examples herein were applied to colorectal cancer histopathology images. This processing method can also be applied to general histopathology images and shows similar increases in accuracy. The proposed wavelet-weighted ensemble method can also be applied to process large-scale images (e.g., astronomy and satellite images) and to other margin-critical fields (e.g., radiotherapy).
도 9는 조직 슬라이드 이미지 분석 시스템(100)의 개략적인 구조를 나타낸 도면이다.Figure 9 is a diagram showing the schematic structure of the tissue slide image analysis system 100.
도 9를 참조하면, 조직 슬라이드 이미지 분석 시스템(100)은 추출부(110), 확률 맵 생성부(120) 및 클래스 분류부(130)를 포함할 수 있다.Referring to FIG. 9 , the tissue slide image analysis system 100 may include an extraction unit 110, a probability map generation unit 120, and a class classification unit 130.
추출부(110)는 입력된 조직 슬라이드 이미지로부터 복수의 타일 이미지들을 추출할 수 있다.The extraction unit 110 may extract a plurality of tile images from the input tissue slide image.
이때, 조직 슬라이드 이미지는 일 예로 대장(colorectal) 생검 조직에 대한 슬라이드 이미지로서, 전술한 전체 슬라이드 이미지(WSI)일 수 있다.At this time, the tissue slide image is, for example, a slide image of a colon (colorectal) biopsy tissue, and may be the above-described whole slide image (WSI).
조직 슬라이드 이미지가 대장 생검 조직에 대한 슬라이드 이미지일 때, 대장 생검 조직은 전술한 헤마톡실린 및 에오신(H&E) 염색이 적용된 조직일 수 있다. 전술한 바와 같이, 헤마톡실린 및 에오신 염색이 적용될 때, 대장 생검 조직에서 세포핵(cell nuclei)은 파란색으로 염색되고 세포외기질(extracellular matrix)과 세포질(cytoplasm)은 분홍색으로 염색될 수 있다.When the tissue slide image is a slide image of a colon biopsy tissue, the colon biopsy tissue may be a tissue to which the above-described hematoxylin and eosin (H&E) staining has been applied. As described above, when hematoxylin and eosin staining is applied, cell nuclei may be stained blue and the extracellular matrix and cytoplasm may be stained pink in colonic biopsy tissue.
한편, 복수의 타일 이미지들은 조직 슬라이드 이미지보다 작은 크기의 이미지일 수 있다. 이때, 복수의 타일 이미지들의 너비 및 높이는 제1 크기(e.g. 1024)일 수 있다.Meanwhile, the plurality of tile images may be images of a smaller size than the tissue slide image. At this time, the width and height of the plurality of tile images may be the first size (e.g. 1024).
추출부(110)는 전술한 슬라이딩 윈도우 알고리즘을 기반으로 복수의 타일 이미지들을 생성할 수 있다. 즉, 추출부(110)는 조직 슬라이드 이미지 상에서 슬라이딩 윈도우에 중첩되는 부분을 타일 이미지로 추출하고 이후 슬라이딩 윈도우의 위치를 이동시킨 후 다시 타일 이미지를 추출하는 과정을 반복하면서 복수의 타일 이미지들을 생성할 수 있다.The extractor 110 may generate a plurality of tile images based on the sliding window algorithm described above. That is, the extraction unit 110 extracts the portion overlapping the sliding window on the tissue slide image as a tile image, then moves the position of the sliding window, and repeats the process of extracting the tile image again to generate a plurality of tile images. You can.
일 예로, 복수의 타일 이미지들은 R(Red) 채널, B(Blue) 채널 및 G(Green) 채널을 가지는 RGB 이미지일 수 있다.For example, the plurality of tile images may be RGB images having a red (R) channel, a blue (B) channel, and a green (G) channel.
한편, 추출부(110)는 복수의 타일 이미지들에 대한 압축 동작을 선택적으로 실행할 수도 있다.Meanwhile, the extractor 110 may selectively perform a compression operation on a plurality of tile images.
복수의 타일 이미지들이 RGB 이미지일 때, 복수의 타일 이미지들에 대한 G채널 성분을 제거할 수 있다. 이 경우 복수의 타일 이미지들은 R채널과 B채널 성분만 남게 된다.When the plurality of tile images are RGB images, the G channel component for the plurality of tile images can be removed. In this case, only R-channel and B-channel components remain in the plurality of tile images.
추출부(110)는 이와 같이 G채널 성분이 제거된 복수의 타일 이미지들을 1채널 이미지로 압축할 수 있다. 이때, 압축된 복수의 타일 이미지들의 채널은 예를 들면 흑백(monochrome) 채널 또는 이진(binary) 채널일 수 있다.The extractor 110 can compress a plurality of tile images from which the G-channel component has been removed into a 1-channel image. At this time, the channel of the plurality of compressed tile images may be, for example, a monochrome channel or a binary channel.
확률 맵 생성부(120)는 복수의 타일 이미지들을 인공지능 모델에 입력하고, 인공지능 모델의 출력 정보를 기초로 복수의 타일 이미지들에 대한 예상 확률 맵을 생성할 수 있다. 이때, 복수의 타일 이미지들에 대한 예상 확률 맵은, 복수의 타일 이미지 상의 픽셀 또는 특정 크기의 영역이 질환(e.g. 종양)이 발생한 영역일 확률을 나타내는 2차원 맵으로 설정될 수 있다. 일 예로, 확률 맵은 타일 이미지와 동일한 2차원 이미지일 수 있다. 이때, 확률 맵의 픽셀 (i, j)의 값은 타일 이미지의 픽셀 (i, j)이 질환(e.g. 종양)이 발생한 영역에 포함될 확률을 지시할 수 있다.The probability map generator 120 may input a plurality of tile images into an artificial intelligence model and generate an expected probability map for the plurality of tile images based on output information of the artificial intelligence model. At this time, the expected probability map for the plurality of tile images may be set as a two-dimensional map indicating the probability that a pixel or a specific size area on the plurality of tile images is an area where a disease (e.g. tumor) has occurred. As an example, the probability map may be the same two-dimensional image as the tile image. At this time, the value of pixel (i, j) of the probability map may indicate the probability that pixel (i, j) of the tile image is included in the area where a disease (e.g. tumor) has occurred.
한편, 확률 맵 생성부(120)는 인공지능 모델의 출력 결과와 실제 조직 슬라이드 이미지에서 종양이 발생하였는지 여부를 비교하여 인공지능 모델에 대한 학습을 추가로 수행할 수 있다.Meanwhile, the probability map generator 120 may additionally perform learning on the artificial intelligence model by comparing the output result of the artificial intelligence model with whether a tumor has occurred in the actual tissue slide image.
이때, 인공지능 모델은 일 예로 컨볼루션 신경망 네트워크일 수 있다. 그러나 인공지능 모델은 컨볼루션 신경망 네트워크 이외에 다른 딥러닝 모델일 수도 있다.At this time, the artificial intelligence model may be a convolutional neural network network, for example. However, the artificial intelligence model may be a deep learning model other than a convolutional neural network.
딥러닝 모델은 인공 신경망을 다층 레이어로 쌓은 형태의 모델일 수 있다. 즉, 딥 러닝 모델은 다층의 네트워크로 이루어진 심층 신경망에서 다량의 데이터를 학습시킴으로써 입력값에 대한 특징을 자동으로 학습하고, 이를 통해 목적 함수, 즉 예측 정확도의 에러를 최소화하도록 네트워크를 학습시켜 나아가는 형태의 모델이다.A deep learning model may be a model in which artificial neural networks are stacked in multiple layers. In other words, the deep learning model automatically learns the characteristics of the input value by learning a large amount of data in a deep neural network made up of multi-layer networks, and through this, the network is trained to minimize the error in the objective function, that is, prediction accuracy. It is a model of
본 발명에서는 딥 러닝 모델이 컨볼루션 뉴럴 네트워크(CNN)인 경우를 예를 들어 설명하였으나, 본 발명은 이에 제한되지 않고 현재 또는 장래에 사용될 수 있는 다양한 딥 러닝 모델을 이용할 수 있다.In the present invention, the deep learning model is a convolutional neural network (CNN) as an example, but the present invention is not limited to this and can use various deep learning models that can be used now or in the future.
딥 러닝 모델은 딥 러닝 프레임워크를 통해 구현될 수 있다. 딥 러닝 프레임워크는 딥 러닝 모델을 개발할 때 공통적으로 사용되는 기능들을 라이브러리 형태로 제공하고, 시스템 소프트웨어나 하드웨어 플랫폼을 잘 사용할 수 있도록 지원하는 역할을 한다. 본 실시예에서 딥 러닝 모델은 현재 공개되었거나 장래 공개될 어떠한 딥 러닝 프레임워크를 이용하여 구현될 수 있다.Deep learning models can be implemented through deep learning frameworks. The deep learning framework provides commonly used functions in the form of a library when developing deep learning models and supports the good use of system software or hardware platforms. In this embodiment, the deep learning model can be implemented using any deep learning framework that is currently published or will be released in the future.
클래스 분류부(130)는 확률 맵 생성부(120)에서 생성된 예상 확률 맵을 기초로, 조직 슬라이드 이미지를 복수의 클래스들 중 하나로 분류할 수 있다. 일 예로, 클래스 분류부(130)는 조직 슬라이드 이미지에 대한 예상 확률 맵의 패턴과 복수의 클래스들 각각에 설정된 기준 패턴을 비교하여 가장 유사한 클래스를 해당 조직 슬라이드 이미지의 클래스로 설정할 수 있다.The class classification unit 130 may classify the tissue slide image into one of a plurality of classes based on the expected probability map generated by the probability map generator 120. As an example, the class classification unit 130 may compare the pattern of the expected probability map for the tissue slide image with the reference pattern set for each of the plurality of classes and set the most similar class as the class of the corresponding tissue slide image.
이때, 복수의 클래스들은 전술한 i) 선암종(ADENOCA, adenocarcinoma), ii) 이형성이 있는 고급 샘종(TAH, high grade adenoma with dysplasia), iii) 이형성이 있는 저등급 샘종(TAL, low grade adenoma with dysplasia), iv) 카르시노이드(CARCINOID, carcinoid) 및 v) 과형성 폴립(HYPERP, hyperplastic polyp)을 포함할 수 있다.At this time, the plurality of classes include the aforementioned i) adenocarcinoma (ADENOCA), ii) high grade adenoma with dysplasia (TAH), and iii) low grade adenoma with dysplasia (TAL). ), iv) carcinoid (CARCINOID), and v) hyperplastic polyp (HYPERP).
도 10은 조직 슬라이드 이미지 분석 방법(1000)을 나타낸 도면이다.Figure 10 is a diagram showing a tissue slide image analysis method 1000.
도 10을 참조하면, 조직 슬라이드 이미지 분석 방법(1000)은 먼저 조직 슬라이드 이미지로부터 복수의 타일 이미지들을 추출하는 추출 단계(S1010)를 포함할 수 있다.Referring to FIG. 10, the tissue slide image analysis method 1000 may first include an extraction step (S1010) of extracting a plurality of tile images from the tissue slide image.
이때, 조직 슬라이드 이미지는 대장 생검 조직에 대한 슬라이드 이미지일 수 있다. 대장 생검 조직은 일 예로 헤마톡실린 및 에오신 염색이 적용된 조직일 수 있다.At this time, the tissue slide image may be a slide image of colon biopsy tissue. For example, the colon biopsy tissue may be a tissue to which hematoxylin and eosin staining has been applied.
한편, 추출 단계(S1010)는 슬라이딩 윈도우 알고리즘을 기반으로 복수의 타일 이미지들을 추출할 수 있다.Meanwhile, the extraction step (S1010) may extract a plurality of tile images based on a sliding window algorithm.
추출된 복수의 타일 이미지들은 일 예로 R(Red)채널, B(Blue)채널 및 G(Green)채널을 가지는 RGB 이미지일 수 있다. For example, the extracted plurality of tile images may be RGB images having an R (Red) channel, a B (Blue) channel, and a G (Green) channel.
한편, 추출 단계(S1010)는 복수의 타일 이미지들을 압축하는 단계를 선택적으로 포함할 수 있다. 이때, 복수의 타일 이미지들을 압축하는 단계는 복수의 타일 이미지들에 대한 G채널 성분을 제거하는 단계 및 G채널 성분이 제거된 복수의 타일 이미지들을 각각 1채널 이미지로 압축하는 단계를 포함할 수 있다.Meanwhile, the extraction step (S1010) may optionally include compressing a plurality of tile images. At this time, compressing the plurality of tile images may include removing the G-channel component of the plurality of tile images and compressing each of the plurality of tile images from which the G-channel component has been removed into a 1-channel image. .
그리고 조직 슬라이드 이미지 분석 방법(1000)은 복수의 타일 이미지들을 인공지능 모델에 입력하는 입력 단계(S1020)를 포함할 수 있다. 인공지능 모델은 일 예로 컨볼루션 신경망 네트워크일 수 있다.And the tissue slide image analysis method 1000 may include an input step (S1020) of inputting a plurality of tile images into an artificial intelligence model. The artificial intelligence model may be, for example, a convolutional neural network network.
그리고 조직 슬라이드 이미지 분석 방법(1000)은 인공지능 모델의 출력 정보를 기초로 복수의 타일 이미지들에 대한 예상 확률 맵을 생성하는 확률 맵 생성 단계(S1030)를 포함할 수 있다.And the tissue slide image analysis method 1000 may include a probability map generation step (S1030) of generating an expected probability map for a plurality of tile images based on output information of the artificial intelligence model.
그리고 조직 슬라이드 이미지 분석 방법(1000)은 예상 확률 맵을 기초로 조직 슬라이드 이미지를 복수의 클래스들 중 하나로 분류하는 클래스 분류 단계(S1040)를 포함할 수 있다.Additionally, the tissue slide image analysis method 1000 may include a class classification step (S1040) of classifying the tissue slide image into one of a plurality of classes based on the expected probability map.
이때, 복수의 클래스들은 선암종, 이형성이 있는 고급 샘종, 이형성이 있는 저등급 샘종, 카르시노이드 및 과형성 폴립을 포함할 수 있다.At this time, the plurality of classes may include adenocarcinoma, high-grade adenoma with dysplasia, low-grade adenoma with dysplasia, carcinoid, and hyperplastic polyp.
전술한 조직 슬라이드 이미지 분석 시스템(100)은, 프로세서, 메모리, 사용자 입력장치, 프레젠테이션 장치 중 적어도 일부를 포함하는 컴퓨팅 장치에 의해 구현될 수 있다. 메모리는, 프로세서에 의해 실행되면 특정 태스크를 수행할 있도록 코딩되어 있는 컴퓨터-판독가능 소프트웨어, 애플리케이션, 프로그램 모듈, 루틴, 인스트럭션(instructions), 및/또는 데이터 등을 저장하는 매체이다. 프로세서는 메모리에 저장되어 있는 컴퓨터-판독가능 소프트웨어, 애플리케이션, 프로그램 모듈, 루틴, 인스트럭션, 및/또는 데이터 등을 판독하여 실행할 수 있다. 사용자 입력장치는 사용자로 하여금 프로세서에게 특정 태스크를 실행하도록 하는 명령을 입력하거나 특정 태스크의 실행에 필요한 데이터를 입력하도록 하는 수단일 수 있다. 사용자 입력장치는 물리적인 또는 가상적인 키보드나 키패드, 키버튼, 마우스, 조이스틱, 트랙볼, 터치-민감형 입력수단, 또는 마이크로폰 등을 포함할 수 있다. 프레젠테이션 장치는 디스플레이, 프린터, 스피커, 또는 진동장치 등을 포함할 수 있다.The tissue slide image analysis system 100 described above may be implemented by a computing device including at least some of a processor, memory, user input device, and presentation device. Memory is a medium that stores computer-readable software, applications, program modules, routines, instructions, and/or data that are coded to perform specific tasks when executed by a processor. The processor may read and execute computer-readable software, applications, program modules, routines, instructions, and/or data stored in memory. A user input device may be a means for allowing a user to input a command that causes the processor to execute a specific task or to input data required to execute a specific task. User input devices may include a physical or virtual keyboard, keypad, key buttons, mouse, joystick, trackball, touch-sensitive input means, or microphone. Presentation devices may include displays, printers, speakers, or vibrating devices.
컴퓨팅 장치는 스마트폰, 태블릿, 랩탑, 데스크탑, 서버, 클라이언트 등의 다양한 장치를 포함할 수 있다. 컴퓨팅 장치는 하나의 단일한 스탠드-얼론 장치일 수도 있고, 통신망을 통해 서로 협력하는 다수의 컴퓨팅 장치들로 이루어진 분산형 환경에서 동작하는 다수의 컴퓨팅 장치를 포함할 수 있다.Computing devices may include a variety of devices such as smartphones, tablets, laptops, desktops, servers, and clients. A computing device may be a single stand-alone device or may include multiple computing devices operating in a distributed environment comprised of multiple computing devices cooperating with each other through a communication network.
또한 전술한 조직 슬라이드 이미지 분석 방법(1000)은, 프로세서를 구비하고, 또한 프로세서에 의해 실행되면 딥 러닝 모델을 활용한 영상 진단 방법을 수행할 수 있도록 코딩된 컴퓨터 판독가능 소프트웨어, 애플리케이션, 프로그램 모듈, 루틴, 인스트럭션, 및/또는 데이터 구조 등을 저장한 메모리를 구비하는 컴퓨팅 장치에 의해 실행될 수 있다.In addition, the tissue slide image analysis method 1000 described above includes a processor, and is coded to perform an image diagnosis method using a deep learning model when executed by the processor, computer readable software, applications, program modules, It can be executed by a computing device having a memory storing routines, instructions, and/or data structures.
상술한 본 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.The above-described embodiments can be implemented through various means. For example, the present embodiments may be implemented by hardware, firmware, software, or a combination thereof.
하드웨어에 의한 구현의 경우, 본 실시예들에 따른 딥 러닝 모델을 활용한 영상 진단 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러 또는 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the image diagnosis method using the deep learning model according to the present embodiments includes one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), It can be implemented by Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), processors, controllers, microcontrollers, or microprocessors.
예를 들어 실시예들에 따른 조직 슬라이드 이미지 분석 방법(1000)은 심층 신경망의 뉴런(neuron)과 시냅스(synapse)가 반도체 소자들로 구현된 인공지능 반도체 장치를 이용하여 구현될 수 있다. 이때 반도체 소자는 현재 사용하는 반도체 소자들, 예를 들어 SRAM이나 DRAM, NAND 등일 수도 있고, 차세대 반도체 소자들, RRAM이나 STT MRAM, PRAM 등일 수도 있고, 이들의 조합일 수도 있다.For example, the tissue slide image analysis method 1000 according to embodiments may be implemented using an artificial intelligence semiconductor device in which neurons and synapses of a deep neural network are implemented with semiconductor devices. At this time, the semiconductor device may be currently used semiconductor devices, such as SRAM, DRAM, or NAND, or may be next-generation semiconductor devices such as RRAM, STT MRAM, or PRAM, or a combination thereof.
실시예들에 따른 조직 슬라이드 이미지 분석 방법(1000)을 인공지능 반도체 장치를 이용하여 구현할 때, 딥 러닝 모델을 소프트웨어로 학습한 결과(가중치)를 어레이로 배치된 시냅스 모방소자에 전사하거나 인공지능 반도체 장치에서 학습을 진행할 수도 있다.When implementing the tissue slide image analysis method 1000 according to the embodiments using an artificial intelligence semiconductor device, the results (weights) of learning the deep learning model with software are transferred to a synapse mimic device arranged in an array or an artificial intelligence semiconductor device. You can also learn on your device.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 실시예들에 따른 조직 슬라이드 이미지 분석 방법(1000)은 이상에서 설명된 기능 또는 동작들을 수행하는 장치, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the tissue slide image analysis method 1000 according to the present embodiments may be implemented in the form of a device, procedure, or function that performs the functions or operations described above. Software code can be stored in a memory unit and run by a processor. The memory unit is located inside or outside the processor and can exchange data with the processor through various known means.
또한, 위에서 설명한 "시스템", "프로세서", "컨트롤러", "컴포넌트", "모듈", "인터페이스", "모델", 또는 "유닛" 등의 용어는 일반적으로 컴퓨터 관련 엔티티 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어 또는 실행 중인 소프트웨어를 의미할 수 있다. 예를 들어, 전술한 구성요소는 프로세서에 의해서 구동되는 프로세스, 프로세서, 컨트롤러, 제어 프로세서, 개체, 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만 이에 국한되지 않는다. 예를 들어, 컨트롤러 또는 프로세서에서 실행 중인 애플리케이션과 컨트롤러 또는 프로세서가 모두 구성 요소가 될 수 있다. 하나 이상의 구성 요소가 프로세스 및/또는 실행 스레드 내에 있을 수 있으며, 구성 요소들은 하나의 장치(예: 시스템, 컴퓨팅 디바이스 등)에 위치하거나 둘 이상의 장치에 분산되어 위치할 수 있다.Additionally, terms such as "system", "processor", "controller", "component", "module", "interface", "model", or "unit" described above generally refer to computer-related entities hardware, hardware and software. It may refer to a combination of, software, or running software. By way of example, but not limited to, the foregoing components may be a process, processor, controller, control processor, object, thread of execution, program, and/or computer run by a processor. For example, both an application running on a controller or processor and the controller or processor can be a component. One or more components may reside within a process and/or thread of execution, and the components may be located on a single device (e.g., system, computing device, etc.) or distributed across two or more devices.
한편, 또 다른 실시예는 전술한 조직 슬라이드 이미지 분석 방법(1000)을 수행하는, 컴퓨터 기록매체에 저장되는 컴퓨터 프로그램을 제공한다. 또한 또 다른 실시예는 전술한 조직 슬라이드 이미지 분석 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다. Meanwhile, another embodiment provides a computer program stored in a computer recording medium that performs the tissue slide image analysis method 1000 described above. Another embodiment also provides a computer-readable recording medium on which a program for implementing the tissue slide image analysis method described above is recorded.
기록매체에 기록된 프로그램은 컴퓨터에서 읽히어 설치되고 실행됨으로써 전술한 단계들을 실행할 수 있다.The program recorded on the recording medium can be read, installed, and executed on the computer to execute the above-described steps.
이와 같이, 컴퓨터가 기록매체에 기록된 프로그램을 읽어 들여 프로그램으로 구현된 기능들을 실행시키기 위하여, 전술한 프로그램은 컴퓨터의 프로세서(CPU)가 컴퓨터의 장치 인터페이스(Interface)를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다.In this way, in order for the computer to read the program recorded on the recording medium and execute the functions implemented by the program, the above-mentioned program is a C, C++ program that the computer's processor (CPU) can read through the computer's device interface (Interface). , may include code coded in computer languages such as JAVA and machine language.
이러한 코드는 전술한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Function Code)를 포함할 수 있고, 전술한 기능들을 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수도 있다.These codes may include functional codes related to functions defining the above-mentioned functions, etc., and may also include control codes related to execution procedures necessary for the computer processor to execute the above-described functions according to predetermined procedures.
또한, 이러한 코드는 전술한 기능들을 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조 되어야 하는지에 대한 메모리 참조 관련 코드를 더 포함할 수 있다.In addition, these codes may further include memory reference-related codes that determine which location (address address) in the computer's internal or external memory the additional information or media required for the computer's processor to execute the above-mentioned functions should be referenced. .
또한, 컴퓨터의 프로세서가 전술한 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 컴퓨터의 프로세서가 컴퓨터의 통신 모듈을 이용하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야만 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수도 있다.In addition, if the computer's processor needs to communicate with any other remote computer or server in order to execute the above-mentioned functions, the code is It may further include communication-related codes for how to communicate with other computers, servers, etc., and what information or media should be transmitted and received during communication.
이상에서 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는, 일 예로, ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 미디어 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함할 수 있다.Recording media that can be read by a computer recording the above-described program include, for example, ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical media storage, etc., and also include carrier wave (e.g. , transmission via the Internet) may also be implemented.
또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Additionally, computer-readable recording media can be distributed across computer systems connected to a network, so that computer-readable code can be stored and executed in a distributed manner.
그리고, 본 발명을 구현하기 위한 기능적인(Functional) 프로그램과 이와 관련된 코드 및 코드 세그먼트 등은, 기록매체를 읽어서 프로그램을 실행시키는 컴퓨터의 시스템 환경 등을 고려하여, 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론되거나 변경될 수도 있다.In addition, the functional program for implementing the present invention and the code and code segments related thereto are designed by programmers in the technical field to which the present invention belongs, taking into account the system environment of the computer that reads the recording medium and executes the program. It can also be easily inferred or changed by .
도 12를 통해 설명된 조직 슬라이드 이미지 분석 방법(1000)은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.The tissue slide image analysis method 1000 described with reference to FIG. 12 may also be implemented in the form of a recording medium containing instructions executable by a computer, such as an application or program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include all computer storage media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data.
전술한 조직 슬라이드 이미지 분석 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있다)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 조직 슬라이드 이미지 분석 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The above-described tissue slide image analysis method can be executed by an application installed by default on the terminal (this may include programs included in the platform or operating system, etc. installed by default on the terminal), and the user can use an application store server, application or It may also be executed by an application (i.e. program) installed directly on the master terminal through an application providing server such as a web server related to the service. In this sense, the above-described tissue slide image analysis method may be implemented as an application (i.e., program) installed by default in the terminal or directly installed by the user and recorded on a computer-readable recording medium, such as in the terminal.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.
CROSS-REFERENCE TO RELATED APPLICATIONCROSS-REFERENCE TO RELATED APPLICATION
본 특허출원은 2022년 03월 29일 한국에 출원한 특허출원번호 제 10-2022-0038949호에 대해 미국 특허법 119(a)조 (35 U.S.C § 119(a))에 따라 우선권을 주장하며, 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다. 아울러, 본 특허출원은 미국 이외에 국가에 대해서도 위와 동일한 이유로 우선권을 주장하면 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다.This patent application claims priority under Article 119(a) of the U.S. Patent Act (35 U.S.C § 119(a)) to Patent Application No. 10-2022-0038949 filed in Korea on March 29, 2022. All contents are hereby incorporated by reference into this patent application. In addition, if this patent application claims priority for a country other than the United States for the same reasons as above, the entire contents thereof will be incorporated into this patent application by reference.

Claims (14)

  1. 조직 슬라이드 이미지로부터 복수의 타일 이미지들을 추출하는 추출부;An extraction unit that extracts a plurality of tile images from the tissue slide image;
    상기 복수의 타일 이미지들을 인공지능 모델에 입력하고, 상기 인공지능 모델의 출력 정보를 기초로 상기 복수의 타일 이미지들에 대한 예상 확률 맵을 생성하는 확률 맵 생성부; 및a probability map generator that inputs the plurality of tile images into an artificial intelligence model and generates an expected probability map for the plurality of tile images based on output information of the artificial intelligence model; and
    상기 예상 확률 맵을 기초로 상기 조직 슬라이드 이미지를 복수의 클래스들 중 하나로 분류하는 클래스 분류부;를 포함하는 조직 슬라이드 이미지 분석 시스템.A tissue slide image analysis system comprising a class classification unit that classifies the tissue slide image into one of a plurality of classes based on the expected probability map.
  2. 제1항에 있어서,According to paragraph 1,
    상기 조직 슬라이드 이미지는,The tissue slide image is,
    대장 생검 조직에 대한 슬라이드 이미지인 조직 슬라이드 이미지 분석 시스템.Tissue slide image analysis system, which is a slide image of colonic biopsy tissue.
  3. 제2항에 있어서,According to paragraph 2,
    상기 대장 생검 조직은 헤마톡실린 및 에오신 염색이 적용된 조직인 조직 슬라이드 이미지 분석 시스템.A tissue slide image analysis system wherein the colonic biopsy tissue is a tissue to which hematoxylin and eosin staining has been applied.
  4. 제1항에 있어서,According to paragraph 1,
    상기 추출부는,The extraction unit,
    슬라이딩 윈도우 알고리즘을 기반으로 상기 복수의 타일 이미지들을 생성하는 조직 슬라이드 이미지 분석 시스템.A tissue slide image analysis system that generates the plurality of tile images based on a sliding window algorithm.
  5. 제1항에 있어서,According to paragraph 1,
    상기 복수의 타일 이미지들은 R(Red)채널, B(Blue)채널 및 G(Green)채널을 가지는 RGB 이미지인 조직 슬라이드 이미지 분석 시스템.A tissue slide image analysis system wherein the plurality of tile images are RGB images having an R (Red) channel, a B (Blue) channel, and a G (Green) channel.
  6. 제1항에 있어서,According to paragraph 1,
    상기 인공지능 모델은 컨볼루션 신경망 네트워크인 조직 슬라이드 이미지 분석 시스템.The artificial intelligence model is a tissue slide image analysis system that is a convolutional neural network.
  7. 제1항에 있어서,According to paragraph 1,
    상기 복수의 클래스들은,The plurality of classes are,
    선암종, 이형성이 있는 고급 샘종, 이형성이 있는 저등급 샘종, 카르시노이드 및 과형성 폴립을 포함하는 조직 슬라이드 이미지 분석 시스템.Image analysis system for tissue slides including adenocarcinoma, high-grade adenoma with atypia, low-grade adenoma with atypia, carcinoid, and hyperplastic polyp.
  8. 조직 슬라이드 이미지로부터 복수의 타일 이미지들을 추출하는 추출 단계;An extraction step of extracting a plurality of tile images from the tissue slide image;
    상기 복수의 타일 이미지들을 인공지능 모델에 입력하는 입력 단계;An input step of inputting the plurality of tile images into an artificial intelligence model;
    상기 인공지능 모델의 출력 정보를 기초로 상기 복수의 타일 이미지들에 대한 예상 확률 맵을 생성하는 확률 맵 생성 단계; 및A probability map generating step of generating an expected probability map for the plurality of tile images based on output information of the artificial intelligence model; and
    상기 예상 확률 맵을 기초로 상기 조직 슬라이드 이미지를 복수의 클래스들 중 하나로 분류하는 클래스 분류 단계를 포함하는 조직 슬라이드 이미지 분석 방법.A tissue slide image analysis method comprising a class classification step of classifying the tissue slide image into one of a plurality of classes based on the expected probability map.
  9. 제8항에 있어서,According to clause 8,
    상기 조직 슬라이드 이미지는,The tissue slide image is,
    대장 생검 조직에 대한 슬라이드 이미지인 조직 슬라이드 이미지 분석 방법.Method for analyzing tissue slide images, which are slide images of colonic biopsy tissue.
  10. 제9항에 있어서,According to clause 9,
    상기 대장 생검 조직은 헤마톡실린 및 에오신 염색이 적용된 조직인 조직 슬라이드 이미지 분석 방법.A tissue slide image analysis method wherein the colon biopsy tissue is a tissue to which hematoxylin and eosin staining has been applied.
  11. 제8항에 있어서,According to clause 8,
    상기 추출 단계는,The extraction step is,
    슬라이딩 윈도우 알고리즘을 기반으로 상기 복수의 타일 이미지들을 추출하는 조직 슬라이드 이미지 분석 방법.A tissue slide image analysis method for extracting the plurality of tile images based on a sliding window algorithm.
  12. 제8항에 있어서,According to clause 8,
    상기 복수의 타일 이미지들은 R(Red)채널, B(Blue)채널 및 G(Green)채널을 가지는 RGB 이미지인 조직 슬라이드 이미지 분석 방법.A tissue slide image analysis method wherein the plurality of tile images are RGB images having an R (Red) channel, a B (Blue) channel, and a G (Green) channel.
  13. 제8항에 있어서,According to clause 8,
    상기 인공지능 모델은 컨볼루션 신경망 네트워크인 조직 슬라이드 이미지 분석 시스템.The artificial intelligence model is a tissue slide image analysis system that is a convolutional neural network.
  14. 제8항에 있어서,According to clause 8,
    상기 복수의 클래스들은,The plurality of classes are,
    선암종, 이형성이 있는 고급 샘종, 이형성이 있는 저등급 샘종, 카르시노이드 및 과형성 폴립을 포함하는 조직 슬라이드 이미지 분석 시스템.Image analysis system for tissue slides including adenocarcinoma, high-grade adenoma with atypia, low-grade adenoma with atypia, carcinoid, and hyperplastic polyp.
PCT/KR2022/013247 2022-03-29 2022-09-05 Tissue slide image analysis system and method WO2023191202A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0038949 2022-03-29
KR1020220038949A KR20230140160A (en) 2022-03-29 2022-03-29 Tissue slide image analyze system and method thereof

Publications (1)

Publication Number Publication Date
WO2023191202A1 true WO2023191202A1 (en) 2023-10-05

Family

ID=88202970

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/013247 WO2023191202A1 (en) 2022-03-29 2022-09-05 Tissue slide image analysis system and method

Country Status (2)

Country Link
KR (1) KR20230140160A (en)
WO (1) WO2023191202A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809182A (en) * 2014-12-31 2016-07-27 中国科学院深圳先进技术研究院 Image classification method and device
CN110807788A (en) * 2019-10-21 2020-02-18 腾讯科技(深圳)有限公司 Medical image processing method, device, electronic equipment and computer storage medium
WO2021053135A1 (en) * 2019-09-20 2021-03-25 Oslo Universitetssykehus Histological image analysis
US20210233251A1 (en) * 2020-01-28 2021-07-29 PAIGE.AI, Inc. Systems and methods for processing electronic images for computational detection methods
US20210271847A1 (en) * 2019-06-25 2021-09-02 Owkin Inc. Systems and methods for image preprocessing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809182A (en) * 2014-12-31 2016-07-27 中国科学院深圳先进技术研究院 Image classification method and device
US20210271847A1 (en) * 2019-06-25 2021-09-02 Owkin Inc. Systems and methods for image preprocessing
WO2021053135A1 (en) * 2019-09-20 2021-03-25 Oslo Universitetssykehus Histological image analysis
CN110807788A (en) * 2019-10-21 2020-02-18 腾讯科技(深圳)有限公司 Medical image processing method, device, electronic equipment and computer storage medium
US20210233251A1 (en) * 2020-01-28 2021-07-29 PAIGE.AI, Inc. Systems and methods for processing electronic images for computational detection methods

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KIM HYEONGSUB, YOON HONGJOON, THAKUR NISHANT, HWANG GYOYEON, LEE EUN JUNG, KIM CHULHONG, CHONG YOSEP: "Deep learning-based histopathological segmentation for whole slide images of colorectal cancer in a compressed domain", SCIENTIFIC REPORTS, vol. 11, no. 1, XP093097094, DOI: 10.1038/s41598-021-01905-z *

Also Published As

Publication number Publication date
KR20230140160A (en) 2023-10-06

Similar Documents

Publication Publication Date Title
WO2021060899A1 (en) Training method for specializing artificial intelligence model in institution for deployment, and apparatus for training artificial intelligence model
WO2021049729A1 (en) Method for predicting likelihood of developing lung cancer by using artificial intelligence model, and analysis device therefor
WO2021201422A1 (en) Semantic segmentation method and system applicable to ar
WO2022005090A1 (en) Method and apparatus for providing diagnosis result
WO2020045848A1 (en) System and method for diagnosing disease using neural network performing segmentation
WO2020231038A1 (en) Electronic device and method for controlling thereof
WO2021137454A1 (en) Artificial intelligence-based method and system for analyzing user medical information
WO2021010671A9 (en) Disease diagnosis system and method for performing segmentation by using neural network and unlocalized block
Kanwal et al. Quantifying the effect of color processing on blood and damaged tissue detection in whole slide images
Ryu et al. Ocelot: Overlapped cell on tissue dataset for histopathology
WO2023191202A1 (en) Tissue slide image analysis system and method
WO2015182979A1 (en) Image processing method and image processing apparatus
WO2023167448A1 (en) Method and apparatus for analyzing pathological slide image
WO2023234730A1 (en) Patch level severity determination method, slide level severity determination method, and computing system for performing same
WO2020032560A2 (en) Diagnosis result generation system and method
WO2022231200A1 (en) Training method for training artificial neural network for determining breast cancer lesion area, and computing system performing same
WO2020032561A2 (en) Disease diagnosis system and method using multiple color models and neural network
WO2012053811A9 (en) Tensor-voting-based color-clustering system and method
Salvi et al. cyto‐Knet: An instance segmentation approach for multiple myeloma plasma cells using conditional kernels
Huang et al. Medical image super-resolution based on the generative adversarial network
Alheejawi Melanoma cell detection in lymph nodes histopathological images using deep learning
WO2021246625A1 (en) Artificial intelligence-based cloud platform system for reading medical image where expected execution time of individual layer is displayed
WO2021107471A1 (en) Medical data retrieval method
WO2023140449A1 (en) Gallbladder polyp determination system and method
WO2023018085A1 (en) Method and device for outputting information related to pathological slide image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22935876

Country of ref document: EP

Kind code of ref document: A1