WO2023234730A1 - 패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템 - Google Patents

패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템 Download PDF

Info

Publication number
WO2023234730A1
WO2023234730A1 PCT/KR2023/007538 KR2023007538W WO2023234730A1 WO 2023234730 A1 WO2023234730 A1 WO 2023234730A1 KR 2023007538 W KR2023007538 W KR 2023007538W WO 2023234730 A1 WO2023234730 A1 WO 2023234730A1
Authority
WO
WIPO (PCT)
Prior art keywords
grade
severity
partial image
judgment target
image
Prior art date
Application number
PCT/KR2023/007538
Other languages
English (en)
French (fr)
Inventor
곽태영
이재헌
장혜윤
김선우
Original Assignee
주식회사 딥바이오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥바이오 filed Critical 주식회사 딥바이오
Publication of WO2023234730A1 publication Critical patent/WO2023234730A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Definitions

  • the present invention relates to a patch-level severity determination method, a slide-level severity determination method, and a computing system that performs the same. More specifically, the present invention relates to a method of determining severity at a patch level, and more specifically, to utilizing the output of a deep learning model learned to receive pathological images as input and output histological severity grade information.
  • a method of determining the effective grade using the output of a deep learning model learned to determine the histological severity of the disease by analyzing a predetermined partial image containing the tissue, to determine the slide level severity for the entire tissue included in the pathology slide image. It relates to a method of determining and a computing system that performs this.
  • histopathological examination is performed on the excised tissue to predict the patient's prognosis and determine treatment methods, and diagnose the severity of the disease.
  • ovarian cancer there is a grading system called the Silverberg system, which is similar to the Nottingham system, and grades 1 to 3 for each category of tissue structure, cell nucleus, and mitosis, and then grades severity based on these.
  • the Silverberg system which is similar to the Nottingham system
  • grades 1 to 3 for each category of tissue structure, cell nucleus, and mitosis, and then grades severity based on these.
  • the Gleason grading system tissue patterns are classified according to grades 1 to 5 according to the morphological characteristics of the glandular tissue, and the overall severity is determined according to the area ratio of each grade in the entire tissue. grade.
  • the histological severity of the tissue in question can be judged to be at the border of the two grades, and this boundary information can be taken into consideration to determine the tissue for the entire slide.
  • Nagpal et al. studied the development of histological severity judgment technology for prostate cancer (Nagpal, K., Foote, D., Liu, Y. et al. Development and validation of a deep learning algorithm for improving Gleason scoring of prostate cancer. npj Digit. Med. 2, 48 (2019).
  • the existing histological severity reporting system for each disease mainly determines the severity of the entire tissue in the following manner. For example, in the case of the Gleason grading system for prostate cancer, the overall severity is determined by the sum of the top two severity grades based on the area area. If you look at this in detail, you can see that the average severity of the entire area is displayed as follows. there is.
  • an average grade is given for each category of tissue structure, cell nucleus, and cell division for the observed area, and these are added together to give an overall grade, so the severity of the entire tissue is calculated in the form of the average severity of the entire area.
  • a high severity level may need to be assigned regardless of its size. Therefore, when the histological severity information for each partial image is output, there appears to be a way to integrate it, such as using the maximum value or the average value.
  • the technical task to be achieved by the present invention is to provide a slide-level severity judgment method that can more precisely distinguish the severity of the entire slide image of biological tissue through deep learning technology.
  • It also provides a method to effectively determine the validity level of a biological tissue image.
  • a first deep learning model which is an artificial neural network previously trained to output a decision result for the input partial image
  • a slide level severity judgment method performed in a computing system, wherein, for each of a plurality of judgment target partial images obtained by dividing a predetermined judgment target pathology slide image into the unit size, the first deep receiving the judgment target partial image determining a valid grade for the judgment target partial image based on a judgment result for the judgment target partial image output by a learning model; and determining a slide level severity rating for the entire pathology slide image to be judged based on a validity rating for each of the plurality of partial images to be judged that constitute the pathology slide image to be judged, wherein the first dip
  • the judgment result for the partial image output by the learning model is the likelihood value for each grade in a given histological severity grading system for a given disease, and each grade in the severity grading system is assigned
  • the step of determining a valid rating for the judgment target partial image based on the judgment result for the judgment target partial image output by the first deep learning model that received the judgment target partial image includes the determination
  • a slide level severity judgment method comprising the step of determining an effective grade for the judgment target partial image based on the probability value of each grade in the severity grading system of the target partial image and the rating score for each grade in the severity grading system.
  • the judgment target part based on the probability value of each grade in the severity rating system output by the first deep learning model that received the image of the judgment target part and the rating score for each grade in the severity rating system.
  • the step of determining the effective grade for an image includes calculating a weighted average of the grade scores for each grade in the severity grading system, with the probability value of each grade in the severity grading system as a weight, and calculating the effective grade for the pathology image to be determined. determining; Determining the effective grade for the pathology image to be determined by calculating a weighted average of the grade scores for each of the plurality of higher grades with the probability value of each of the plurality of higher grades having a high probability value among each grade in the severity rating system as a weight. step; Alternatively, it may include a slide level severity judgment method including the step of determining the grade score of the highest grade with the highest probability value among each grade in the severity grading system as a valid grade for the pathology image to be judged.
  • a first deep learning model is an artificial neural network that is pre-trained to output a judgment result for the input partial image.
  • a slide level severity judgment method performed in a computing system comprising: for each of a plurality of judgment target partial images obtained by dividing a predetermined judgment target pathology slide image into the unit size, the first judgment target partial image receiving the judgment target partial image; determining a valid rating for the judgment target partial image based on a judgment result for the judgment target partial image output by a deep learning model; and determining a slide level severity rating for the entire pathology slide image to be judged based on a validity rating for each of the plurality of partial images to be judged that constitute the pathology slide image to be judged, wherein the first dip
  • the judgment result for the partial image output by the learning model includes a judgment result for each pixel constituting the partial image, and the judgment result for each pixel is each grade on a predetermined histological severity
  • the step of determining a valid grade for the judgment target partial image based on the judgment result includes, for each judgment target pixel constituting the judgment target partial image, the possibility of each grade in the severity rating system of the judgment target pixel. determining an effective grade for the judgment target pixel based on a numerical value and a grade score for each grade in the severity grade system; and determining a validity level for the judgment target partial image based on the validity grade of each judgment target pixel constituting the judgment target partial image.
  • the validity for the judgment target pixel is based on the probability value of each grade in the severity rating system of the judgment target pixel output by the first deep learning model and the rating score for each grade in the severity rating system.
  • the step of determining the grade includes calculating a weighted average of the grade scores for each grade in the severity grading system, with the probability value of each grade in the severity grading system of the pixel to be judged as a weight, to determine the effective grade of the pixel to be judged.
  • the effective grade of the judgment target pixel is calculated by calculating a weighted average of the grade scores for each of the plurality of higher grades with the probability value of each of the plurality of higher grades having a higher probability value among each grade in the severity rating system of the judgment target pixel as a weight. determining; Alternatively, it may include determining the grade score of the highest grade with the highest probability value among each grade in the severity rating system of the judgment target pixel as the effective grade of the judgment target pixel.
  • the step of determining a validity level for the judgment object partial image based on the validity grade of each judgment object pixel constituting the judgment object partial image includes: each judgment object pixel constituting the judgment object partial image It may include the step of calculating a representative value of the effective rating of and determining the effective rating for the judgment target portion of the image.
  • the step of determining the validity level for the judgment target partial image by calculating a representative value of the validity grade of each judgment target pixel constituting the judgment target partial image includes each judgment target partial image constituting the judgment target partial image. It may include calculating as a representative value any one of the maximum value, minimum value, average value, median value, and average value within the InterQuartile Range (IQR) of the effective grade of the pixel to be determined.
  • IQR InterQuartile Range
  • the step of determining a slide level severity rating for the entire pathology slide image to be judged based on the validity rating for each of the plurality of partial images to be judged that constitute the pathology slide image to be judged includes: It may include calculating a representative value of the effective level of each judgment target partial image constituting the target pathology slide image and determining a slide level severity rating for the entire judgment target pathology slide image.
  • the step of calculating a representative value of the effective grade of each partial image to be determined that constitutes the pathology slide image to be judged and determining the slide level severity grade for the entire pathology slide image to be judged includes: It may include calculating as a representative value any one of the maximum value, minimum value, average value, median value, and average value within the IQR (InterQuartile Range) of the valid ratings of each judgment target partial image constituting the slide image.
  • IQR InterQuartile Range
  • the computing system outputs a data set including a validity grade for each of a plurality of partial images divided into the unit size of the pathology slide image to determine the severity grade for the pathology slide image.
  • a second deep learning model which is an artificial neural network pre-trained to output a value
  • the pathological slide to be judged based on a validity rating for each of the plurality of partial images to be judged that constitute the pathological slide image to be judged.
  • the step of determining the severity grade for the image includes the output of the second deep learning model that receives a data set containing a valid grade for each of the plurality of judgment target partial images constituting the judgment target pathology slide image. It may include determining a severity grade for the pathology slide image to be determined based on the value.
  • the second deep learning model is an artificial neural network pre-trained by a second deep learning model learning method
  • the second deep learning model learning method includes acquiring a plurality of pathology slide images for training. ; For each of the plurality of learning pathology slides, generating a data set corresponding to the learning pathology slide image; And inputting each of the data sets corresponding to the plurality of training pathology slide images into the second deep learning model to learn the second deep learning model, wherein a data set corresponding to the learning pathology slide images is generated.
  • the step of performing is, for each partial image for generating a plurality of data sets by dividing the training pathology slide image into the unit size, the decision result output by the first deep learning model that received the partial image for generating the data set is determining a validity level for the partial image for generating the data set based on it; and generating a data set including a validity rating for each of the partial images for generating the plurality of data sets.
  • a partial image obtained by dividing a pathology slide image into predetermined unit sizes when input, it includes a first deep learning model, which is an artificial neural network that is pre-trained to output a judgment result for the input partial image.
  • a patch level severity judgment method performed in a computing system wherein a predetermined judgment target partial image is input to the first deep learning model, and a judgment result for the judgment target partial image output by the first deep learning model is obtained.
  • the judgment result for the image of the judgment target part is the likelihood value for each grade in a predetermined severity grading system for a predetermined disease, and each grade in the severity grading system is given a predetermined grade point in advance.
  • a patch level severity determination method including the step of determining a grade is provided.
  • a partial image obtained by dividing a pathology slide image into predetermined unit sizes when input, it includes a first deep learning model, which is an artificial neural network that is pre-trained to output a judgment result for the input partial image.
  • a patch level severity judgment method performed in a computing system wherein a predetermined judgment target partial image is input to the first deep learning model, and a judgment result for the judgment target partial image output by the first deep learning model is obtained.
  • the judgment result for the judgment target partial image output by the first deep learning model includes a judgment result for each pixel constituting the judgment target partial image, and the judgment result for each pixel is related to a predetermined disease.
  • a computer program installed in a data processing device and recorded on a medium for performing the above-described method is provided.
  • a computer-readable recording medium on which a computer program for performing the above-described method is recorded is provided.
  • a computing system includes a processor and a memory, wherein the memory is configured to input a computer program and each partial image obtained by dividing a pathology slide image into predetermined unit sizes.
  • a computing system stores a first deep learning model, which is an artificial neural network previously trained to output a decision result, and the computer program, when executed by the processor, controls the computing system to perform the above-described method. provided.
  • the memory is configured to provide an output value for determining a severity grade for the pathology slide image when a data set containing a validity grade for each of a plurality of partial images obtained by dividing the pathology slide image into the unit size is input.
  • the second deep learning model which is a pre-trained artificial neural network, can be further stored to output.
  • a deep learning model learned to determine the histological severity of a predetermined disease by analyzing partial images (e.g., patches or tiles), which are parts of the entire slide image divided into predetermined unit sizes.
  • the output can be used to provide a slide-level severity judgment method that can more precisely distinguish the severity of the entire tissue (in other words, the entire slide image).
  • FIG. 1 is a diagram schematically showing an example of the configuration of a computing system according to an embodiment of the present invention.
  • Figure 2 is a diagram for explaining a first deep learning model according to an embodiment of the present invention.
  • Figure 3 is a flowchart illustrating an example of a patch level severity determination method performed by a computing system according to an embodiment of the present invention.
  • Figure 4 is a flowchart showing a process in which a computing system learns a first deep learning model according to an embodiment of the present invention.
  • FIGS. 5A and 5B are diagrams for explaining a first deep learning model according to another embodiment of the present invention.
  • Figure 6 is a flowchart illustrating an example of a patch level severity determination method performed by a computing system according to another embodiment of the present invention.
  • Figure 7 is a flowchart illustrating an example of a slide level severity determination method performed by a computing system according to an embodiment of the present invention.
  • Figure 8 is a diagram showing a specific example in which the slide level severity determination method according to an embodiment of the present invention is applied.
  • Figure 9 is a diagram illustrating a process in which a computing system learns a second deep learning model according to an embodiment of the present invention.
  • the component when one component 'transmits' data to another component, the component may transmit the data directly to the other component, or through at least one other component. This means that the data can be transmitted to the other components. Conversely, when one component 'directly transmits' data to another component, it means that the data is transmitted from the component to the other component without going through the other component.
  • the patch level severity determination method and the slide level severity determination method can be performed by a computing system.
  • the computing system may be a data processing device with computing capabilities, and may generally include a server, which is a data processing device that can be accessed by a client through a network, as well as computing devices such as a personal computer or mobile terminal.
  • the computing system 100 may have a physical configuration as shown in FIG. 1 .
  • the computing system 100 includes a computer program 123 for implementing the technical idea of the present invention, a memory 120 in which the first deep learning model 121 is stored, and a computer program 123 stored in the memory 120.
  • a processor 110 may be provided to execute.
  • the memory 120 may further store a second deep learning model 122.
  • processor 110 may be named by various names such as CPU, APU, microprocessor, and ASIC, depending on the implementation example of the computing system 100. will be. Additionally, the computing system 100 may be implemented by organically combining a plurality of physical devices. In this case, at least one processor 160 is provided for each physical device to implement the computing system 100 of the present invention. An average expert in the technical field of the present invention can easily infer that there is.
  • the processor 160 may further include a GPU used to learn the first deep learning model 121 and/or the second deep learning model 122.
  • the memory 120 stores the program 123, and may be implemented as any type of storage device that the processor 110 can access to run the program 123. Additionally, depending on the hardware implementation example, the memory 120 may be implemented not as a single storage device but as a plurality of storage devices. Additionally, the memory 120 may include not only a main memory but also a temporary memory. It may also be implemented as volatile memory or non-volatile memory. The memory 120 may include, for example, flash memory, ROM, RAM, EEROM, EPROM, EEPROM, hard disk, and registers. Alternatively, the memory 120 may be defined to include all types of information storage means implemented so that the program 123 can be stored and driven by the processor 110.
  • the computing system 100 may be further equipped with various peripheral devices (peripheral devices 1 to 130-M, peripheral devices 1 to 130-M).
  • peripheral devices 1 to 130-M peripheral devices 1 to 130-M
  • an average expert in the field of the present invention can easily deduce that a keyboard, display device, graphics card, networking device, storage device, etc. may be further included in the computing system 100 as peripheral devices. .
  • the computing system 100 may be implemented as a single physical device, but if necessary, a plurality of physical devices may be organically combined to implement the computing system 100 according to the technical idea of the present invention.
  • the average expert in the technical field will be able to infer easily.
  • a certain module when a certain module performs a certain function, it means that the processor 110 performs the function by running the program 123 provided in the memory 120.
  • the average expert in the field will be able to infer easily.
  • a deep learning model includes a multi-layer perceptron model and may refer to a set of information expressing a series of design details defining an artificial neural network.
  • the deep learning model may be a convolutional neural network.
  • a convolutional neural network may include an input layer, a plurality of hidden layers, and an output layer.
  • Each of the plurality of hidden layers may include a convolution layer and a pooling layer (or sub-sampling layer).
  • a convolutional neural network can be defined by functions, filters, strides, weight factors, etc. to define each of these layers.
  • the output layer may be defined as a fully connected feedforward layer.
  • each layer that makes up a convolutional neural network is widely known.
  • known functions may be used for the number of layers to be included in a plurality of layers, a convolution function, a pooling function, and an activation function for defining the plurality of layers, and the technical idea of the present invention is implemented. Separately defined functions may be used to do this.
  • An example of a convolution function is a discrete convolution sum.
  • pooling functions include max pooling, average pooling, etc.
  • activation functions may be sigmoid, tangent hyperbolic (tanh), ReLU (rectified linear unit), etc.
  • a neural network according to an embodiment of the present invention may be defined by selecting one or more of the widely known design details described above, or unique design details may be defined for the neural network.
  • the neural network may be a classification neural network that can be used for classification of input data.
  • the classification neural network may be a neural network for classifying the judgment result of input data into one of a plurality of predefined results.
  • the neural network may be a segmentation neural network.
  • a segmentation neural network is a neural network for specifying an area that satisfies specific conditions (for example, a disease outbreak area) among input images. It is a pixel-level classification neural network that performs classification on a pixel-by-pixel basis. It may be called
  • the first deep learning model 121 may be an artificial neural network that has been pre-trained to output a decision result for the input partial image when a partial image obtained by dividing the pathology slide image into predetermined unit sizes is input.
  • the pathology slide image may be an entire slide image obtained by scanning a slide of a pathology specimen with a digital scanner.
  • a digital slide image of a pathology specimen can be created by slicing the pathology specimen to produce a glass slide, then staining it with a predetermined dye and digitizing it.
  • Pathological specimens may be biopsies collected from various organs of the human body or biological tissues excised through surgery.
  • the partial image input to the first deep learning model 121 is a portion of a pathology slide image divided into predetermined unit sizes and may be called a patch or tile.
  • the first deep learning model 121 may be a patch level classical neural network.
  • the first deep learning model 121 may be an artificial neural network that has been trained in advance to output a judgment result for the input pathology image when a partial image is input, and the pathology image output by the first deep learning model
  • the judgment result is the likelihood value for each grade in a given histological severity grading system for a given disease, and a predetermined grade score may be assigned to each grade in the severity grading system.
  • the severity grading system may be the Nottingham system, Silverberg system, Gleason grading system, etc.
  • Figure 2 is a diagram for explaining the first deep learning model 121 according to an embodiment of the present invention.
  • the first deep learning model 121 can receive a partial image (1) through an input layer, and the judgment result (2) for the input partial image (1) is sent to the output layer. It can be printed through.
  • the judgment result (2) may be, for example, a probability value for each grade of severity of prostate cancer according to the Gleason grading system. At this time, the sum of the probability values for each grade may be 1.
  • a grade point (3) may be previously assigned to each grade in the Gleason grade system.
  • FIG. 3 is a flowchart illustrating an example of a patch level severity determination method performed by the computing system 100.
  • the computing system 100 uses the first deep learning model 121, as shown in FIG. 2, to determine the severity level (more precisely, the effective level on a certain histological severity grading system for a certain disease) for a partial image. ), in other words, patch level severity can be determined.
  • the computing system 100 inputs a predetermined judgment target partial image into the first deep learning model 121, and the judgment target partial image output by the first deep learning model 121
  • the judgment result can be obtained (S100).
  • the judgment result for the image of the judgment target part is, as described above, a probability value for each grade in a predetermined severity grading system for a given disease, and each grade in the severity grading system has a predetermined grade score in advance. It may be granted.
  • the computing system 100 may determine a valid grade for the judgment target partial image based on the judgment result for the judgment target partial image (S110).
  • the computing system 100 calculates a weighted average of the grade scores for each grade in the severity grading system, using the probability value of each grade in the severity grading system as a weight, and calculates the effective value for the judgment target partial image.
  • the grade can be determined. Taking the case of FIG. 2 as an example, the computing system 100 inputs the partial image 1 of FIG. 2 into the first deep learning model 121 to obtain a probability value 2 for each Gleason grade. It is possible to calculate a weighted average of the grade scores for each grade in the Gleason grade system using the probability value of each grade in the Gleason grade system as a weight. At this time, normal (benign) can be excluded when calculating the weighted average, and the effective grade calculated in the case of Figure 2 is as follows (rounded to the 4th decimal place).
  • the computing system 100 calculates a weighted average of the grade scores for each of the plurality of higher grades using the probability value of each of the plurality of higher grades with a higher probability value among each grade in the severity rating system as a weight.
  • the effective level for the judgment target portion of the image can be determined.
  • the computing system 100 calculates the weighted average effective rating of the corresponding ratings using the probability values for the top two likely ratings as weights, the computing system 100 calculates the effective rating in the case of FIG. 2 as follows: can be calculated together.
  • the computing system 100 may determine the grade score of the highest grade with the highest probability value among each grade in the severity rating system as the effective grade for the judgment target partial image, in the case of FIG. 2 In this case, the computing system 100 may determine the grade score 4 of the grade (G4) with the highest probability of 0.5 as the valid grade.
  • FIG. 4 is a flowchart showing the process of learning the first deep learning model 121.
  • the computing system 100 may acquire a plurality of partial images for learning (S200), and at this time, each of the plurality of partial images for learning includes one of each grade in the histological severity grading system. may be tagged.
  • the plurality of partial images for learning can be created by dividing one or more entire slide images for learning into unit sizes.
  • the computing system 100 may learn the first deep learning model 121 by inputting each of the plurality of partial images for learning into the first deep learning model 121.
  • the embodiment of the present invention previously described with reference to FIGS. 2 to 4 is a case in which the first deep learning model 121 is a classical neural network, that is, which image is input to the first deep learning model 121? This concerns the case of a neural network for determining whether something corresponds to a class (grade).
  • the first deep learning model 121 may be a segmentation neural network or a pixel-level classification neural network, which will be described in more detail below with reference to FIGS. 5 to 6. I would like to explain it clearly.
  • FIGS. 5A and 5B are diagrams for explaining the first deep learning model 121-1, which is a segmentation neural network of the present invention.
  • the first deep learning model 121-1 can receive a partial image 10 through an input layer, and the partial image 10 has a plurality of pixels (e.g., 11 ) can be composed of.
  • the example of FIG. 5A shows a case where the partial image 10 is composed of 4 ⁇ 4 pixels.
  • the first deep learning model 121-1 can output a judgment result 20 for the input partial image 10, and the judgment result 20 for the partial image 10 is the partial image 10. It may include a decision result (for example, 21) for each pixel constituting the image 10.
  • the decision result 20 for the partial image 10 may include the decision result for each 4 ⁇ 4 pixel.
  • FIG. 5B is a diagram showing the decision result for one of the pixels 11 constituting the partial image 10 of FIG. 5A.
  • the decision result 21 of the pixel 11 is, for example, For example, it may be a probability value for each grade of severity of prostate cancer according to the Gleason grading system. At this time, the sum of the probability values for each grade may be 1. Meanwhile, a grade point (3) may be previously assigned to each grade in the Gleason grade system.
  • FIG. 6 is a flowchart illustrating another example of a patch level severity determination method performed by the computing system 100.
  • the computing system 100 uses the first deep learning model 121-1 of FIG. 5A to determine the severity of the partial image (more precisely, the effective grade on a predetermined histological severity grading system for a predetermined disease). You can.
  • the computing system 100 inputs a predetermined judgment target partial image into the first deep learning model 121-1, and the first deep learning model 121-1 outputs the image.
  • the judgment result for the partial image subject to judgment can be obtained (S150).
  • the judgment result for the judgment target partial image may include a judgment result for each judgment target pixel constituting the judgment target partial image, and the judgment result for each judgment target pixel may be related to a predetermined disease. This is the probability value for each grade in the prescribed severity grading system, and a predetermined grade point may be assigned to each grade in the severity grading system in advance.
  • the computing system 100 for each judgment target pixel p constituting the judgment target partial image, based on the judgment result of the first deep learning model 121-1 for the judgment target pixel p.
  • the effective grade of the judgment target pixel p may be determined (S160).
  • the computing system 100 calculates a weighted average of the grade scores for each grade in the severity grading system, using the probability value of each grade in the severity grading system as a weight, and calculates the weighted average of the grade scores for each grade in the severity grading system, and calculates the effective value for the judgment target pixel p.
  • the grade can be determined. Taking the case of FIG. 5B as an example, the computing system 100 can obtain a probability value 21 for each Gleason grade for the pixel 11 of FIG. 5B, and the probability value 21 for each grade in the Gleason grade system It is possible to calculate a weighted average of the grade scores for each grade in the Gleason grade system using as a weight. At this time, normal (benign) can be excluded when calculating the weighted average, and the effective grade calculated in the case of Figure 5b is as follows.
  • the computing system 100 calculates a weighted average of the grade scores for each of the plurality of higher grades using the probability value of each of the plurality of higher grades with a higher probability value among each grade in the severity rating system as a weight.
  • the validity level for the judgment target pixel p can be determined. Assuming that the computing system 100 calculates the probability value for the top two classes as a weighted average effective class of the class as a weight, the computing system 100 calculates the pixel 11 in the case of FIG. 5B.
  • the effective grade can be calculated as follows (rounded to 4 decimal places):
  • the computing system 100 may determine the grade score of the highest grade with the highest probability value among each grade in the severity grade system as the effective grade for the judgment target pixel p, in the case of FIG. 5B. In this case, the computing system 100 may determine a grade score of 5 of the grade (G5) with the highest probability of 0.4 as a valid grade.
  • the computing system 100 may determine the validity level for the judgment target partial image based on the validity grade of each pixel constituting the judgment target partial image (S170).
  • the computing system 100 may calculate the average value of the validity level of each pixel constituting the partial image to be judged and determine this as the effective grade for the partial image to be judged.
  • the average value of the effective grades of pixels is not necessarily determined as the effective grade of the portion of the image to be judged, and this is only an example for convenience of understanding.
  • the computing system 100 may calculate a representative value of the validity level of each pixel constituting the judgment object partial image through various statistical techniques and determine this as the validity grade for the judgment object partial image.
  • the representative value of 2 or more values may be the average of these values, but is not limited thereto, and may be a value calculated by any one of these values or at least some of these values.
  • the representative value of values of 2 or more is the maximum value, minimum value, median value, n-quantile value, the average value within the IQR (interquartile range), or the average value of only the values that satisfy a predetermined condition (e.g., a constant value) in addition to the average value. It may be the average value of the remaining values excluding values that are out of range), histogram mode, etc.
  • the first deep learning model 121-1 shown in FIG. 5A is also a pre-trained artificial neural network.
  • the process of learning the first deep learning model 121-1 shown in FIG. 5A is shown in FIG. 4 except that the information tagged in the training image is information about the lesion area or information about the severity grade for each pixel. Since it is almost the same as the previous process, detailed explanation will be omitted.
  • FIG. 7 is a flowchart illustrating an example of a slide level severity determination method performed by the computing system 100.
  • the computing system 100 may divide the pathology slide image S, which is the subject of judgment, into predetermined unit sizes (S300). If the pathology slide image S to be judged can be divided into N partial images, the divided partial images may be P 1 to P N .
  • the unit size may be the same as the size of the input data input to the first deep learning model 121, and the size may be a pixel ⁇ b pixel (a and b are each integers of 1 or more).
  • the computing system 100 sends each of the judgment target partial images P i (integer i is 1 to N) to the first deep learning model 121 for each of the plurality of judgment target partial images P 1 to P N.
  • Input (S310, S320), and the judgment result for the judgment target partial image P i output by the first deep learning model 121 that received the judgment target partial image P i (integer i is 1 to N) Based on this, the effective grade D i for the judgment target partial image P i can be determined (S330).
  • step S330 the computing system 100 may use the patch level severity determination method previously described with reference to FIG. 3 or 6 to determine the effective grade D i for the judgment target partial image P i .
  • the computing system 100 may determine a slide level severity grade for the pathology slide image S to be judged based on the validity grades (D 1 to D N ) for each of the plurality of partial images to be judged (S340). .
  • Figure 8 is a diagram showing a specific example in which the slide level severity determination method according to an embodiment of the present invention is applied.
  • the computing system 100 may acquire a pathology slide image 10 that is a predetermined determination object and divide it into a plurality of partial images 20 having a predetermined unit size (S300).
  • Figure 6 shows an example of division into 15 partial images (20-1 to 20-15).
  • the computing system 100 inputs each of the plurality of divided partial images 20-1 to 20-15 into the first deep learning model 121 (S310, S320), and the first deep learning model (S310, S320) Based on the judgment result for each of the plurality of partial images (20-1 to 20-15) output by 121), an effective grade 30 for each of the plurality of partial images (20-1 to 20-15) is determined. (S330).
  • the computing system 100 determines a slide level severity grade for the pathology slide image 10 to be determined based on the validity grade 30 for each of the plurality of partial images 20-1 to 20-15. (S340).
  • Methods for determining the slide level severity grade in step S340 of FIG. 7 may vary.
  • the computing system 100 may calculate a representative value of the validity level of each of the plurality of judgment target partial images constituting the judgment target pathology slide image, and use the calculated representative value as the judgment target pathology slide image. It can be determined by the overall slide level severity rating.
  • the computing system 100 may determine the maximum value, minimum value, average value, median value, average value within IQR (InterQuartile Range), or predetermined validity level of each judgment target partial image constituting the judgment target pathology slide image.
  • the average value of only the values that satisfy the condition for example, the average value of the remaining values excluding values that are outside a certain range), histogram mode, etc. can be calculated as representative values.
  • the computing system 100 uses the average value as a representative value of the effective rating of each of the plurality of judgment target partial images
  • the computing system 100 3.46 which is the average value of the effective grades of all 15 partial images (20-1 to 20-15) can be determined as the slide level severity grade of the pathology slide image 10 to be determined.
  • the computing system 100 uses the maximum value as a representative value of the effective rating of each of the plurality of partial images to be judged, in the example of FIG. 8, the computing system 100 uses 15 partial images 20-1 to 20.
  • the maximum value of 4.2 among the effective grades of -15) can be determined as the slide level severity grade of the pathology slide image 10 to be judged.
  • the computing system 100 uses the minimum value as a representative value of the effective grade of each of the plurality of partial images to be judged, in the example of FIG. 8, the computing system 100 uses 15 partial images 20-1 to 20.
  • the minimum value of 2.9 among the effective grades of -15) can be determined as the slide level severity grade of the pathology slide image 10 to be judged.
  • the computing system 100 uses the average value of the effective ratings of some of the higher value among the valid ratings for each of the plurality of judgment target partial images as a representative value of the effective rating of each of the plurality of judgment target partial images
  • the computing system 100 divides the average value of the validity grades that are greater than a predetermined threshold among the validity grades for each of the plurality of partial images to be judged into a slide level severity rating for the entire pathology slide image to be judged. You can decide.
  • the computing system 100 uses the average value of the effective ratings that are greater than a predetermined threshold among the valid ratings for each of the plurality of judgment target partial images as a representative value of the valid rating of each of the plurality of judgment target partial images as a representative value of the valid rating of each of the plurality of judgment target partial images, FIG. 8 In the example, the computing system 100 determines an average value of 3.9, which is a threshold of 3.5 or more, among the validity grades of 15 partial images (20-1 to 20-15) of the pathology slide image 10 to be determined. It can be determined by level severity rating.
  • step S340 of FIG. 7 there may be various methods for determining the slide level severity grade in step S340 of FIG. 7.
  • the computing system 100 may determine the slide level severity rating using deep learning, and in this case, the second deep learning model 122 may be used.
  • the second deep learning model 122 outputs a data set including validity grades for each of a plurality of partial images divided by the unit size of the pathology slide image to determine the severity grade for the pathology slide image. It may be an artificial neural network that has been pre-trained to output a value. For example, the second deep learning model 122 receives the data set 30 consisting of the validity level of each of the plurality of partial images shown in FIG. 8 and determines the slide level severity for the pathology slide image 10. It may be a neural network that outputs an output value for determining (40).
  • step S340 the computing system 100 provides data including validity ratings (D 1 to D N ) for each of the plurality of judgment target partial images constituting the judgment target pathology slide image S. Based on the output value output by the second deep learning model 122 that receives the set, the slide level severity grade for the pathology slide image S to be determined may be determined.
  • the specific process of determining the slide level severity grade for the pathology slide image S to be judged based on the output value output by the second deep learning model 122 is similar to the validity grade determination process shown in Figure 3 or Figure 6. can do.
  • the second deep learning model 122 may output a probability value for each grade in the severity rating system, similar to the process shown in FIG. 3, and the computing system 100 may calculate the severity level.
  • a weighted average of the grade scores for each grade in the severity grading system which uses the probability value of each grade in the grading system as a weight, and a weighted average of the grade scores for each grade in the severity grading system, and the probability value of each of the plurality of higher grades with a higher probability value among each grade in the severity grading system as a weight.
  • the weighted average of the grade scores for each of the plurality of higher grades, the grade score of the highest grade with the highest probability value among each grade in the severity grade system, etc. may be determined as the slide level severity grade.
  • the second deep learning model 122 may be a neural network trained in advance before being used to determine the slide level severity rating.
  • FIG. 9 is a diagram showing the process of learning the second deep learning model 122. .
  • the computing system 100 may acquire a learning pathology slide image R, and divide the learning pathology slide image R into the unit size (S400). If the training pathology slide image R is divided into N partial images, the partial images for generating each divided data set are Q 1 to Q N.
  • the computing system 100 generates the partial image Q i (integer i is 1 to N ) for each of the plurality of partial images (Q 1 to Q N ) for generating the data set to the first deep.
  • the partial image for generating the data set is input to the learning model 121 (S410, S420), and the partial image for generating the data set is based on the decision result output by the first deep learning model 121 that receives the partial image Q i for generating the data set.
  • the effective grade E i for Q i can be determined (S430).
  • the computing system 100 inputs a data set including validity ratings (E 1 to E N ) for each of the partial images for generating the plurality of data sets into the second deep learning model 122 to generate the second deep learning model 122.
  • a learning model 122 can be learned.
  • the method according to the embodiment of the present invention can be implemented in the form of computer-readable program instructions and stored in a computer-readable recording medium, and the control program and target program according to the embodiment of the present invention can also be stored on a computer. It may be stored on a readable recording medium.
  • Computer-readable recording media include all types of recording devices that store data that can be read by a computer system.
  • Program instructions recorded on the recording medium may be those specifically designed and configured for the present invention, or may be known and available to those skilled in the software field.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and floptical disks. Includes magneto-optical media such as ROM, RAM, flash memory, and other hardware devices specifically configured to store and execute program instructions. Additionally, computer-readable recording media can be distributed across computer systems connected to a network, so that computer-readable code can be stored and executed in a distributed manner.
  • Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a device that electronically processes information using an interpreter, for example, a computer.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
  • the present invention can be used in a patch level severity determination method, a slide level severity determination method, and a computing system that performs the same.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템이 개시된다. 본 발명의 일 측면에 따르면, 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 각각의 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 포함하는 컴퓨팅 시스템에서 수행되는 슬라이드 레벨 중증도 판단 방법으로서, 소정의 판단 대상 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 판단 대상 부분 이미지 각각에 대하여, 상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계 및 상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법이 제공된다.

Description

패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템
본 발명은 패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템에 관한 것으로서, 보다 상세하게는 병리 이미지를 입력받아 조직학적 중증도 등급 정보를 출력하도록 학습된 딥러닝 모델의 출력을 활용하여 유효 등급을 판단하는 방법, 조직을 포함하는 소정의 부분 이미지를 분석하여 질병의 조직학적 중증도를 판단하도록 학습된 딥러닝 모델의 출력을 활용하여 병리 슬라이드 이미지에 포함된 전체 조직에 대한 슬라이드 레벨 중증도를 판단하는 방법 및 이를 수행하는 컴퓨팅 시스템에 관한 것이다.
암 등 중증 질병의 치료를 위해 조직을 일부 혹은 전체를 절제한 후, 환자의 예후 예측 및 치료 방법 결정을 위해 절제한 조직에 대해 조직병리학적 검사를 시행하며, 질병의 중증도를 진단한다.
질병 별로 조직학적 중증도를 보고하는 합의된 체계가 있으며, 이 체계들은 조직의 형태학적 특징을 토대로 중증도를 등급화하여 보고하게 된다. 예를 들어, 유방암의 경우, Nottingham system이라는 등급 시스템이 있으며, 조직 구조가 얼마나 잘 유지되고 있는지(tubule formation), 세포핵들이 얼마나 균일한지(nuclear pleomorphism), 그리고 유사 분열의 발생 수준이 어느 정도인지(mitotic activity)를 측정하여 각각 1부터 3까지의 등급을 매긴 후 합산하는 방식으로 조직의 중증도를 등급화하게 된다. 난소암의 경우, Nottingham system과 유사한 Silverberg system이라는 등급 시스템이 있으며, 역시 조직 구조와 세포핵, 유사 분열 각각의 범주에 대해 1부터 3까지의 등급을 매긴 후 이를 바탕으로 중증도를 등급화한다. 전립선암의 경우, Gleason grading system이라는 등급 시스템이 있으며, 샘 조직의 형태학적 특징에 따라 1부터 5까지의 등급에 따른 조직 패턴을 구분하였으며, 전체 조직에서의 각 등급 별 영역 비율에 따라 전체 중증도를 등급화한다.
이러한 등급 시스템에 있어서 가장 큰 문제는 시스템의 기준에 따라 병변의 등급을 정확히 결정하는 것이 매우 어렵다는 것이다. 생체 조직의 형태는 질병의 진행 정도에 따라 점진적으로 변하고, 하나의 병변 내에 여러 가지의 등급으로 분류될 수 있는 조직들이 존재할 수 있기 때문에, 어느 하나의 등급으로 결정하기 어려운 경우가 빈번히 발생하게 되는 것이다.
최근 딥러닝 기술의 발전으로 인해 이미지 인식 분야에서는 사람의 인지 능력을 상회하는 정확도를 가진 딥러닝 모델의 개발이 가능하게 되었다. 이에 따라 의료 분야에서도 딥러닝을 활용한 질병의 진단 기술이 개발되고 상용화되고 있다. 생체 조직 슬라이드를 디지털 슬라이드 스캐너를 통해 스캐닝하여 생성된 전체 슬라이드 이미지(whole slide image)는 규모가 매우 크며, 이를 분석하여 질병을 진단하거나 중증도를 진단하는 경우, 대체로 전체 슬라이드 이미지를 소규모 부분 이미지(패치 혹은 타일)로 분할하여 각각을 딥러닝 모델로 분석하고, 그 결과를 취합하여 슬라이드 전체에 대한 진단 결과를 생성하는 방법을 사용하게 된다.
딥러닝 모델로 조직 이미지를 분석하여 조직의 중증도 등급을 인식하는 경우, 상기한 바와 같이 등급 구분의 모호함 때문에 등급 간 경계에 해당하는 조직들에 대한 모델의 인식 결과의 정확도가 높지 않은 문제가 있음. 경계에 있는 조직들에 대한 판단의 모호함을 허용하는 듀얼 클래스 어노테이션 방법(한국등록특허 제10-2162895호; 듀얼 클래스를 지원하는 질병 진단 시스템 및 그 방법) 등의 적용을 통해 등급이 애매한 조직에 대한 딥러닝 모델의 분석 결과가 등급 간 경계에 있도록 할 수는 있으나, 어느 한 등급을 강하게 지지하도록 훈련하는 것은 매우 어렵다.
반면, 이렇게 딥러닝 모델의 분석 결과가 어느 한 등급을 강하게 지지하지 않는 경우, 해당 조직의 조직학적 중증도는 두 등급의 경계에 있는 것으로 판단할 수 있으며, 이러한 경계 정보를 고려하여 슬라이드 전체에 대한 조직학적 중증도를 산정함으로써 기존의 조직학적 중증도 보고 시스템 대비 좀 더 세밀한 중증도 등급화가 가능할 것으로 보인다. Nagpal 등은 전립선암의 조직학적 중증도 판단 기술 개발에 대한 그들의 연구(Nagpal, K., Foote, D., Liu, Y. et al. Development and validation of a deep learning algorithm for improving Gleason scoring of prostate cancer. npj Digit. Med. 2, 48 (2019). https://doi.org/10.1038/s41746-019-0112-2)에서, 등급 판단이 모호한 조직들에 대해 경계에 해당하는 값을 부여하는 방법에 대해 언급한 바 있다. 다만, 이 연구에서는 이러한 방법의 가능성 및 다수 병리학자들의 등급 합의 정도에 따라 경계에 해당하는 값들을 부여하는 예시에 대해서만 언급했을 뿐, 딥러닝 모델을 사용하여 병변에 등급의 경계에 해당하는 값을 부여하는 방법이나 병변마다 세밀하게 부여된 중증도 등급을 통합하여 조직 전체에 대한 중증도를 등급화하는 방법에 대해서는 언급한 바가 없다.
한편, 기존의 질병 별 조직학적 중증도 보고 시스템에서는 주로 다음과 같은 방식으로 전체 조직에 대한 중증도를 결정하도록 하고 있다. 예를 들어, 전립선암에 대한 Gleason grading system의 경우, 영역 넓이 기준 상위 두 개의 중증도 등급의 합으로 전체 중증도를 결정하도록 하고 있는데, 이를 상세히 살펴보면 다음과 같이 전체 영역의 평균 중증도를 표시함을 알 수 있다.
중증도 그룹 Gleason 점수 평균 비고
1 3+3=6 이하 3 이하
2 3+4=7 3~3.5
3 4+3=7 3.5~4
4 3+5=8 3~4 드문 경우
4+4=8 4 근처
5+3=8 4~5 드문 경우
5 4+5=9 4~4.5
5+4=9 4.5~5
5+5=10 5 근처
또한, 유방암의 경우에도 관찰한 영역에 대해 조직 구조와 세포핵, 세포 분열 각각의 범주에 대해 평균적인 등급을 부여하고 이를 합산하여 전체 등급을 부여하므로 전체 영역의 평균 중증도 형태로 전체 조직에 대한 중증도가 결정된다고 볼 수 있다.그러나 경우에 따라서는 중증도가 높은 등급의 병변이 있는 경우 그 크기와 상관없이 높은 중증도를 부여해야 할 수도 있다. 따라서, 각 부분 이미지 별 조직학적 중증도 정보가 출력되는 경우, 이를 통합하는 방법에 있어서 최댓값을 사용하거나 평균값을 사용하는 등의 방법이 있을 것으로 보인다. 다만, 상기한 전립선암 중증도 그룹의 '드문 경우'에서 보듯이 일반적인 최대/최소/평균만으로 전체에 대한 중증도를 결정하는 것은 부족할 수 있으며, 기계학습(딥러닝) 모델 등을 활용하여 좀 더 정확한 슬라이드 단위의 중증도 판단 방법을 개발할 수 있을 것이다.
본 발명이 이루고자 하는 기술적인 과제는 딥러닝 기술을 통하여 생체 조직 의 전체 슬라이드 이미지에 대한 중증도를 좀 더 세밀하게 구분할 수 있는 슬라이드 레벨 중증도 판단 방법을 제공하는 것이다.
또한 생체 조직 이미지의 유효 등급을 효과적으로 판단할 수 있는 방법을 제공하는 것이다.
본 발명의 일 측면에 따르면, 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 각각의 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 포함하는 컴퓨팅 시스템에서 수행되는 슬라이드 레벨 중증도 판단 방법으로서, 소정의 판단 대상 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 판단 대상 부분 이미지 각각에 대하여, 상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계; 및 상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계를 포함하되, 상기 제1딥러닝 모델이 출력하는 상기 부분 이미지에 대한 판단 결과는 소정의 질병에 대한 소정의 조직학적 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있으며, 상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계는, 상기 판단 대상 부분 이미지의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법이 제공된다.
일 실시예에서, 상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계는, 상기 중증도 등급 체계 상의 각 등급의 가능성 수치를 가중치로 하는 상기 중증도 등급 체계 상의 각 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계; 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 높은 복수의 상위 등급 각각의 가능성 수치를 가중치로 하는 상기 복수의 상위 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계; 또는 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 가장 높은 최상위 등급의 등급 점수를 상기 판단 대상 병리 이미지에 대한 유효 등급으로 결정하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법을 포함할 수 있다.
본 발명의 다른 일 측면에 따르면, 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 각각의 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 포함하는 컴퓨팅 시스템에서 수행되는 슬라이드 레벨 중증도 판단 방법으로서, 소정의 판단 대상 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 판단 대상 부분 이미지 각각에 대하여, 상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계; 및 상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계를 포함하되, 상기 제1딥러닝 모델이 출력하는 상기 부분 이미지에 대한 판단 결과는 상기 부분 이미지를 구성하는 각 픽셀 별 판단 결과를 포함하고, 상기 각 픽셀 별 판단 결과는 소정의 질병에 대한 소정의 조직학적 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있으며, 상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계는, 상기 판단 대상 부분 이미지를 구성하는 각각의 판단 대상 픽셀에 대하여, 상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 픽셀에 대한 유효 등급을 결정하는 단계; 및 상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법이 제공된다.
일 실시예에서, 상기 제1딥러닝 모델이 출력한 상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 픽셀에 대한 유효 등급을 결정하는 단계는, 상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치를 가중치로 하는 상기 중증도 등급 체계 상의 각 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 픽셀의 유효 등급을 결정하는 단계; 상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 높은 복수의 상위 등급 각각의 가능성 수치를 가중치로 하는 상기 복수의 상위 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 픽셀의 유효 등급을 결정하는 단계; 또는 상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 가장 높은 최상위 등급의 등급 점수를 상기 판단 대상 픽셀의 유효 등급으로 결정하는 단계를 포함할 수 있다.
일 실시예에서, 상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계는, 상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급의 대푯값을 산출하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계를 포함할 수 있다.
일 실시예에서, 상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급의 대표 값을 산출하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계는, 상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급의 최댓값, 최솟값, 평균값, 중앙값, IQR(InterQuartile Range) 내에서의 평균값 중 어느 하나를 대푯값으로 산출하는 단계를 포함할 수 있다.
일 실시예에서, 상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계는, 상기 판단 대상 병리 슬라이드 이미지를 구성하는 각 판단 대상 부분 이미지의 유효 등급의 대푯값을 산출하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계를 포함할 수 있다.
일 실시예에서, 상기 판단 대상 병리 슬라이드 이미지를 구성하는 각 판단 대상 부분 이미지의 유효 등급의 대푯값을 산출하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계는, 상기 판단 대상 병리 슬라이드 이미지를 구성하는 각 판단 대상 부분 이미지의 유효 등급의 최댓값, 최소값, 평균값, 중앙값, IQR(InterQuartile Range) 내에서의 평균값 중 어느 하나를 대푯값으로 산출하는 단계를 포함할 수 있다.
일 실시예에서, 상기 컴퓨팅 시스템은, 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 부분 이미지 각각에 대한 유효 등급을 포함하는 데이터 집합이 입력되면 상기 병리 슬라이드 이미지에 대한 중증도 등급을 판단하기 위한 출력 값을 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제2딥러닝 모델을 더 포함하고, 상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지에 대한 중증도 등급을 결정하는 단계는, 상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급을 포함하는 데이터 집합을 입력받은 상기 제2딥러닝 모델이 출력한 출력 값에 기초하여 상기 판단 대상 병리 슬라이드 이미지에 대한 중증도 등급을 결정하는 단계를 포함할 수 있다.
일 실시예에서, 상기 제2딥러닝 모델은, 제2딥러닝 모델 학습 방법에 의해 미리 학습된 인공 뉴럴 네트워크이며, 상기 제2딥러닝 모델 학습 방법은, 복수의 학습용 병리 슬라이드 이미지를 획득하는 단계; 상기 복수의 학습용 병리 슬라이드를 각각에 대하여, 상기 학습용 병리 슬라이드 이미지에 상응하는 데이터 집합을 생성하는 단계; 및 상기 복수의 학습용 병리 슬라이드 이미지에 상응하는 데이터 집합 각각을 상기 제2딥러닝 모델에 입력하여 상기 제2딥러닝 모델을 학습하는 단계를 포함하되, 상기 학습용 병리 슬라이드 이미지에 상응하는 데이터 집합을 생성하는 단계는, 상기 학습용 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 데이터 집합 생성용 부분 이미지 각각에 대하여, 상기 데이터 집합 생성용 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 판단 결과에 기초하여 상기 데이터 집합 생성용 부분 이미지에 대한 유효 등급을 결정하는 단계; 및 상기 복수의 데이터 집합 생성용 부분 이미지 각각에 대한 유효 등급을 포함하는 데이터 집합을 생성하는 단계를 포함할 수 있다.
본 발명의 다른 일 측면에 따르면, 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 포함하는 컴퓨팅 시스템에서 수행되는 패치 레벨 중증도 판단 방법으로서, 소정의 판단 대상 부분 이미지를 상기 제1딥러닝 모델에 입력하고, 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과를 획득하는 단계-상기 판단 대상 부분 이미지에 대한 판단 결과는 소정의 질병에 대한 소정의 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있음; 및 상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 패치 레벨 중증도 판단 방법이 제공된다.
본 발명의 다른 일 측면에 따르면, 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 포함하는 컴퓨팅 시스템에서 수행되는 패치 레벨 중증도 판단 방법으로서, 소정의 판단 대상 부분 이미지를 상기 제1딥러닝 모델에 입력하고, 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과를 획득하는 단계-상기 제1딥러닝 모델이 출력하는 상기 판단 대상 부분 이미지에 대한 판단 결과는 상기 판단 대상 부분 이미지를 구성하는 각 픽셀 별 판단 결과를 포함하고, 상기 각 픽셀 별 판단 결과는 소정의 질병에 대한 소정의 조직학적 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있음; 상기 판단 대상 부분 이미지를 구성하는 각각의 판단 대상 픽셀에 대하여, 상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 픽셀에 대한 유효 등급을 결정하는 단계; 및 상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급에 기초하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 패치 레벨 중증도 판단 방법이 제공된다.
본 발명의 다른 일 측면에 따르면, 데이터 처리장치에 설치되며 상술한 방법을 수행하기 위한 매체에 기록된 컴퓨터 프로그램이 제공된다.
본 발명의 다른 일 측면에 따르면, 상술한 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터 판독가능한 기록매체가 제공된다.
본 발명의 다른 일 측면에 따르면, 컴퓨팅 시스템으로서, 프로세서 및 메모리를 포함하되, 상기 메모리는, 컴퓨터 프로그램 및 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 각각의 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 저장하고, 상기 컴퓨터 프로그램은, 상기 프로세서에 의해 수행될 경우, 상기 컴퓨팅 시스템이 상술한 방법을 수행하도록 제어하는 컴퓨팅 시스템이 제공된다.
일 실시예에서, 상기 메모리는, 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 부분 이미지 각각에 대한 유효 등급을 포함하는 데이터 집합이 입력되면 상기 병리 슬라이드 이미지에 대한 중증도 등급을 판단하기 위한 출력 값을 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제2딥러닝 모델을 더 저장할 수 있다.
본 발명의 기술적 사상에 의하면, 전체 슬라이드 이미지를 소정의 단위 크기로 분할한 일부인 부분 이미지(예를 들어, 패치 혹은 타일)를 분석하여 소정의 질병의 조직학적 중증도를 판단하도록 학습된 딥러닝 모델의 출력을 활용하여 전체 조직(달리 말하면 전체 슬라이드 이미지)에 대한 중증도를 좀 더 세밀하게 구분할 수 있는 슬라이드 레벨 중증도 판단 방법을 제공할 수 있다.
또한 생체 조직 이미지에 대한 조직학적 중증도 등급 정보를 출력하도록 학습된 딥러닝 모델의 출력을 활용하여 부분 이미지 자체의 유효 등급을 효과적으로 판단할 수 있는 방법을 제공할 수 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시예에 따른 컴퓨팅 시스템의 구성의 일 예를 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 제1딥러닝 모델을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 컴퓨팅 시스템이 수행하는 패치 레벨 중증도 판단 방법의 일 예를 도시한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 컴퓨팅 시스템이 제1딥러닝 모델을 학습하는 과정을 도시한 흐름도이다.
도 5a 및 도 5b는 본 발명의 다른 일 실시예에 따른 제1딥러닝 모델을 설명하기 위한 도면이다.
도 6은 본 발명의 다른 일 실시예에 따른 컴퓨팅 시스템이 수행하는 패치 레벨 중증도 판단 방법의 일 예를 도시한 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 컴퓨팅 시스템이 수행하는 슬라이드 레벨 중증도 판단 방법의 일 예를 도시한 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 슬라이드 레벨 중증도 판단 방법이 적용된 구체적인 예를 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 컴퓨팅 시스템이 제2딥러닝 모델을 학습하는 과정을 도시한 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 명세서에 있어서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다. 반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 중심으로 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
본 발명의 기술적 사상에 따른 패치 레벨 중증도 판단 방법 및 슬라이드 레벨 중증도 판단 방법은 컴퓨팅 시스템에 의해 수행될 수 있다. 상기 컴퓨팅 시스템은 연산능력을 가진 데이터 처리장치일 수 있으며, 일반적으로 네트워크를 통해 클라이언트가 접속 가능한 데이터 처리 장치인 서버뿐만 아니라 개인용 컴퓨터나 휴대 단말 등과 같은 컴퓨팅 장치를 포함할 수 있다.
도 1은 본 발명의 일 실시예에 따른 컴퓨팅 시스템의 구성의 일 예를 개략적으로 도시한 도면이다. 상기 컴퓨팅 시스템(100)는 물리적으로는 도 1에 도시된 바와 같은 구성을 가질 수 있다. 상기 컴퓨팅 시스템(100)은 본 발명의 기술적 사상을 구현하기 위한 컴퓨터 프로그램(123), 제1딥러닝 모델(121)이 저장된 메모리(120), 및 상기 메모리(120)에 저장된 컴퓨터 프로그램(123)을 실행하기 위한 프로세서(110)가 구비될 수 있다. 실시예에 따라서 상기 메모리(120)는 제2딥러닝 모델(122)을 더 저장할 수 있다.
상기 프로세서(110)는 상기 컴퓨팅 시스템(100)의 구현 예에 따라, CPU, APU, 마이크로 프로세서, ASIC 등 다양한 명칭으로 명명될 수 있음을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다. 또한, 상기 컴퓨팅 시스템(100)은 복수의 물리적 장치들이 유기적으로 결합되어 구현될 수도 있으며, 이러한 경우 상기 프로세서(160)는 물리적 장치 별로 적어도 한 개 구비되어 본 발명의 컴퓨팅 시스템(100)을 구현할 수 있음을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다. 상기 프로세서(160)는 제1딥러닝 모델(121) 및/또는 제2딥러닝 모델(122)을 학습하는데 이용되는 GPU를 더 포함할 수 있다.
상기 메모리(120)는 상기 프로그램(123)이 저장되며, 상기 프로그램(123)을 구동시키기 위해 상기 프로세서(110)가 접근할 수 있는 어떠한 형태의 저장장치로 구현되어도 무방하다. 또한 하드웨어적 구현 예에 따라 상기 메모리(120)는 어느 하나의 저장장치가 아니라 복수의 저장장치로 구현될 수도 있다. 또한 상기 메모리(120)는 주기억장치뿐만 아니라, 임시기억장치를 포함할 수도 있다. 또한 휘발성 메모리 또는 비휘발성 메모리로 구현될 수도 있다 상기 메모리(120)는 예를 들어, 플래시 메모리, ROM, RAM, EEROM, EPROM, EEPROM, 하드 디스크, 레지스터를 포함할 수 있다. 또는 상기 메모리(120)는 상기 프로그램(123)이 저장되고 상기 프로세서(110)에 의해 구동될 수 있도록 구현되는 모든 형태의 정보저장 수단을 포함하는 의미로 정의될 수 있다.
상기 컴퓨팅 시스템(100)은, 실시 예에 따라, 다양한 주변장치들(주변장치 1 내지 주변장치 M, 130-1 내지 130-M)이 더 구비될 수 있다. 예를 들어, 키보드, 디스플레이 장치, 그래픽 카드, 네트워킹 장치, 스토리지 장치 등이 주변장치로서 상기 컴퓨팅 시스템(100)에 더 포함될 수 있음을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.
상기 컴퓨팅 시스템(100)은 어느 하나의 물리적 장치로 구현될 수도 있으나, 필요에 따라 복수의 물리적 장치가 유기적으로 결합되어 본 발명의 기술적 사상에 따른 컴퓨팅 시스템(100)을 구현할 수 있음을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.
이하, 본 명세서에서 소정의 모듈이 어떤 기능을 수행한다고 함은 상기 프로세서(110)가 상기 메모리(120)에 구비된 프로그램(123)을 구동하여 상기 기능을 수행하는 것을 의미함을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.
본 명세서에서 딥러닝 모델은 다층 퍼셉트론 모델을 포함하며, 인공 뉴럴 네트워크를 정의하는 일련의 설계사항들을 표현하는 정보의 집합을 의미할 수 있다.
일 실시예에서, 딥러닝 모델은 컨볼루션 뉴럴 네트워크일 수 있다. 컨볼루션 뉴럴 네트워크는 잘 알려진 바와 같이, 입력 레이어, 복수의 히든 레이어들, 및 출력 레이어를 포함할 수 있다. 복수의 히든 레이어들 각각은 컨볼루션 레이어 및 풀링 레이어(또는 서브 샘플링 레이어)를 포함할 수 있다. 컨볼루션 뉴럴 네트워크는 이러한 각각의 레이어들을 정의하기 위한 함수, 필터, 스트라이드(stride), 웨이트 팩터 등에 의해 정의될 수 있다. 또한, 출력 레이어는 풀리 커넥티드(fully connected)된 전방향 레이어(FeedForward layer)로 정의될 수 있다.
컨볼루션 뉴럴 네트워크를 구성하는 각각의 레이어별 설계 사항은 널리 알려져 있다. 예를 들어, 복수의 레이어들에 포함될 레이어의 개수, 상기 복수의 레이어들을 정의하기 위한 컨볼루션 함수, 풀링 함수, 활성화 함수 각각에 대해서는 공지된 함수들이 이용될 수도 있고, 본 발명의 기술적 사상을 구현하기 위해 별도로 정의된 함수들이 이용될 수도 있다.
컨볼루션 함수의 일 예로는 이산 컨볼루션 합 등이 있다. 풀링 함수의 일 예로는 맥스 풀링(max pooling), 에버리지 풀링(average pooling) 등이 이용될 수 있다. 활성화 함수의 일 예로는 시그모이드 (sigmoid), 탄젠트 하이퍼볼릭 (tanh), ReLU (rectified linear unit)등일 수 있다. 이러한 컨볼루션 뉴럴 네트워크의 설계 사항이 정의되면 설계사항이 정의된 컨볼루션 뉴럴 네트워크가 저장장치에 저장될 수 있다. 그리고 상기 컨볼루션 뉴럴 네트워크가 학습되면, 각각의 레이어들에 해당하는 웨이트 팩터가 특정될 수 있다. 즉, 컨볼루션 뉴럴 네트워크의 학습은 각각의 레이어들의 웨이트 팩터들이 결정되는 프로세스를 의미할 수 있다. 그리고 컨볼루션 뉴럴 네트워크가 학습되면, 학습된 컨볼루션 뉴럴 네트워크는 입력 레이어를 통해 입력 데이터를 입력받고 미리 정의된 출력 레이어를 통해 출력 데이터를 출력할 수 있다.
본 발명의 실시 예에 따른 뉴럴 네트워크는 상기와 같이 널리 알려진 설계 사항들 중 어느 하나 또는 복수 개를 선택하여 정의될 수도 있고, 독자적인 설계 사항이 상기 뉴럴 네트워크를 위해 정의될 수도 있다.
상기 뉴럴 네트워크는 입력된 데이터의 분류(classification)에 이용될 수 있는 클래시피케이션 뉴럴 네트워크일 수 있다. 클래시피케이션 뉴럴 네트워크는 입력된 데이터에 대한 판단 결과를 미리 정의된 복수의 결과 중 어느 하나로 분류하기 위한 뉴럴 네트워크일 수 있다.
실시예에 따라, 상기 뉴럴 네트워크는 세그멘테이션 뉴럴 네트워크일 수도 있다. 세그멘테이션 뉴럴 네트워크는 입력된 이미지 중에서 특정한 조건을 만족하는 영역(예를 들어, 질병의 발병 영역)을 특정하기 위한 뉴럴 네트워크로서, 픽셀 단위로 클래시피케이션을 수행하는 픽셀 레벨의 클래시피케이션 뉴럴 네트워크라고 불릴 수도 있다.
한편 상기 제1딥러닝 모델(121)은 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크일 수 있다. 병리 슬라이드 이미지는 병리 검체의 슬라이드를 디지털 스캐너로 스캐닝한 전체 슬라이드 이미지일 수 있다.
병리 검체의 디지털 슬라이드 이미지는 병리 검체를 슬라이스하여 유리 슬라이드를 제작한 후 이를 소정의 염색제로 염색하고 디지털화함으로써 생성될 수 있다. 병리 검체는 인체의 각종 장기에서 채취한 생검 및 수술로 절제된 생체 조직일 수 있다.
상기 제1딥러닝 모델(121)에 입력되는 부분 이미지는 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 일부로서, 패치 혹은 타일이라고 불릴 수 있다.
일 실시예에서, 상기 제1딥러닝 모델(121)은 패치 레벨 클래시피케이션 뉴럴 네트워크일 수 있다. 이 경우 상기 제1딥러닝 모델(121)은 부분 이미지가 입력되면 입력된 병리 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크일 수 있으며, 상기 제1딥러닝 모델이 출력하는 상기 병리 이미지에 대한 판단 결과는 소정의 질병에 대한 소정의 조직학적 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있을 수 있다. 예를 들어, 상기 중증도 등급 체계는 Nottingham system, Silverberg system, Gleason grading system 등일 수 있다.
도 2는 본 발명의 일 실시예에 따른 제1딥러닝 모델(121)을 설명하기 위한 도면이다.
도 2를 참조하면, 상기 제`1딥러닝 모델(121)은 부분 이미지(1)를 입력 레이어를 통해 입력받을 수 있으며, 입력받은 부분 이미지(1)에 대한 판단 결과(2)를 출력 레이어를 통해 출력할 수 있다. 판단 결과(2)는, 예를 들어, 글리슨 등급 체계에 따른 전립선 암의 중증도 등급의 각 등급 별 가능성 수치일 수 있다. 이때, 각 등급 별 가능성 수치의 합은 1일 수 있다.
한편, 글리슨 등급 체계 상의 각 등급 별로 등급 점수(3)가 미리 부여되어 있을 수 있다.
도 3은 상기 컴퓨팅 시스템(100)이 수행하는 패치 레벨 중증도 판단 방법의 일 예를 도시한 흐름도이다. 상기 컴퓨팅 시스템(100)은 도 2에 도시된 바와 같은, 상기 제1딥러닝 모델(121)을 이용하여 부분 이미지에 대한 중증도(정확하게는 소정의 질병에 대한 소정의 조직학적 중증도 등급 체계 상의 유효 등급), 달리 말하면 패치 레벨 중증도를 판단할 수 있다.
도 3을 참조하면, 상기 컴퓨팅 시스템(100)은 소정의 판단 대상 부분 이미지를 상기 제1딥러닝 모델(121)에 입력하고, 상기 제1딥러닝 모델(121)이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과를 획득할 수 있다(S100). 이때, 상기 판단 대상 부분 이미지에 대한 판단 결과는, 앞서 설명한 바와 같이, 소정의 질병에 대한 소정의 중증도 등급 체계 상의 각 등급 별 가능성 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있을 수 있다.
이후 상기 컴퓨팅 시스템(100)은 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정할 수 있다(S110).
일 실시예에서, 상기 컴퓨팅 시스템(100)은 상기 중증도 등급 체계 상의 각 등급의 가능성 수치를 가중치로 하는 상기 중증도 등급 체계 상의 각 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정할 수 있다. 도 2의 케이스를 예로 들어 설명하면, 상기 컴퓨팅 시스템(100)은 도 2의 부분 이미지(1)를 상기 제1딥러닝 모델(121)에 입력하여 각 글리슨 등급 별 가능성 수치(2)를 획득할 수 있으며, 글리슨 등급 체계 상의 각 등급의 가능성 수치를 가중치로 하는 상기 글리슨 등급 체계 상의 각 등급 별 등급점수의 가중 평균을 산출할 수 있다. 이때, 정상(benign)은 가중 평균을 계산할 때 제외될 수 있으며, 도 2의 케이스에서 산출되는 유효등급은 다음과 같다(소수점 4째자리에서 반올림).
(3×0.1 + 4×0.5 + 5×0.3) / (0.1+0.5+0.3) = 3.8/0.9 = 4.222
다른 일 실시예에서, 상기 컴퓨팅 시스템(100)은 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 높은 복수의 상위 등급 각각의 가능성 수치를 가중치로 하는 상기 복수의 상위 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정할 수 있다. 상기 컴퓨팅 시스템(100)이 가능성 상위 2개의 등급에 대한 가능성 수치를 가중치로 하는 해당 등급의 가중 평균 유효 등급으로 산출한다고 가정하면, 상기 컴퓨팅 시스템(100)은 도 2의 케이스에서 유효 등급을 다음과 같이 산출할 수 있다.
(4×0.5 + 5×0.3) / (0.5+0.3) = 3.5 / 0.8 = 4.375
다른 일 실시예에서, 상기 컴퓨팅 시스템(100)은 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 가장 높은 최상위 등급의 등급 점수를 상기 판단 대상 부분 이미지에 대한 유효 등급으로 결정할 수 있으며, 도 2의 케이스에서 상기 컴퓨팅 시스템(100)은 가능성이 0.5로 가장 큰 등급(G4)의 등급 점수 4를 유효 등급으로 결정할 수 있다.
한편, 상기 제1딥러닝 모델(121)은 미리 학습된 인공 뉴럴 네트워크이며, 도 4는 상기 제1딥러닝 모델(121)을 학습하는 과정을 도시한 흐름도이다.
도 4를 참조하면, 상기 컴퓨팅 시스템(100)은 복수의 학습용 부분 이미지를 획득할 수 있으며(S200), 이때, 상기 복수의 학습용 부분 이미지 각각에는, 상기 조직학적 중증도 등급 체계 상의 각 등급 중 어느 하나가 태깅되어 있을 수 있다. 상기 복수의 학습용 부분 이미지는 하나 이상의 학습용 전체 슬라이드 이미지를 단위 크기로 분할함으로써 생성할 수 있다.
상기 컴퓨팅 시스템(100)은 상기 복수의 학습용 부분 이미지 각각을 상기 제1딥러닝 모델(121)에 입력하여 상기 제1딥러닝 모델(121)을 학습할 수 있다.
정답 레이블이 태깅된 학습 데이터에 기반한 딥러닝 과정을 개략적으로 설명하면, 학습 데이터를 입력받은 딥러닝 모델이 결과를 출력하면, 출력된 결과와 정답 레이블간의 오차가 역전파 과정을 통해 딥러닝 모델이 반영되며, 역전파 과정에서 경사하강법 등의 기법이 적용될 수 있는데, 이러한 딥러닝 과정을 통해 학습 데이터로부터 모델이 학습되는 구체적인 과정은 매우 널리 알려져 있으므로 더 이상의 자세한 설명은 생략하기로 한다.
앞서 도 2 내지 도 4를 참조하여 설명한 본 발명의 실시예는 상기 제1딥러닝 모델(121)이 클래시피케이션 뉴럴 네트워크인 경우, 즉 상기 제1딥러닝 모델(121)이 입력된 이미지가 어느 클래스(등급)에 해당하는지를 판단하기 위한 뉴럴 네트워크인 경우에 관한 것이다.
그런데 본 발명의 다른 일 실시예에 따르면, 상기 제1딥러닝 모델(121)은 세그멘테이션 뉴럴 네트워크 혹은 픽셀 레벨 클래시피케이션 뉴럴 네트워크일 수 있는데, 이하에서는 도 5 내지 도 6을 참조하여 이에 대하여 보다 상세하게 설명하고자 한다.
도 5a 및 도 5b는 본 발명의 세그멘테이션 뉴럴 네트워크인 상기 제1딥러닝 모델(121-1)을 설명하기 위한 도면이다.
먼저 도 5a를 참조하면, 상기 제`1딥러닝 모델(121-1)은 부분 이미지(10)를 입력 레이어를 통해 입력받을 수 있으며, 부분 이미지(10)는 복수의 픽셀(예를 들어, 11)로 구성될 수 있다. 도 5a의 예에서는 부분 이미지(10)가 4×4의 픽셀로 구성된 경우를 도시하고 있다. 한편, 상기 제1딥러닝 모델(121-1)은 입력받은 부분 이미지(10)에 대한 판단 결과(20)를 출력할 수 있으며, 상기 부분 이미지(10)에 대한 판단 결과(20)는 상기 부분 이미지(10)를 구성하는 각 픽셀 별 판단 결과(예를 들어 21)를 포함할 수 있다. 도 5a의 예에서 상기 부분 이미지(10)에 대한 판단 결과(20)는 4×4의 픽셀 각각에 대한 판단 결과를 포함할 수 있다.
도 5b는 도 5a의 부분 이미지(10)를 구성하는 픽셀 중 어느 하나(11)에 대한 판단 결과를 도시한 도면으로서, 도 5b를 참조하면 픽셀(11)의 판단 결과(21)는, 예를 들어, 글리슨 등급 체계에 따른 전립선 암의 중증도 등급의 각 등급 별 가능성 수치일 수 있다. 이때, 각 등급 별 가능성 수치의 합은 1일 수 있다. 한편, 글리슨 등급 체계 상의 각 등급 별로 등급 점수(3)가 미리 부여되어 있을 수 있다.
도 6은 상기 컴퓨팅 시스템(100)이 수행하는 패치 레벨 중증도 판단 방법의 다른 일 예를 도시한 흐름도이다. 상기 컴퓨팅 시스템(100)은 도 5a의 제1딥러닝 모델(121-1)을 이용하여 부분 이미지에 대한 중증도(정확하게는 소정의 질병에 대한 소정의 조직학적 중증도 등급 체계 상의 유효 등급)를 판단할 수 있다.
도 6을 참조하면, 상기 컴퓨팅 시스템(100)은 소정의 판단 대상 부분 이미지를 상기 제1딥러닝 모델(121-1)에 입력하고, 상기 제1딥러닝 모델(121-1)이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과를 획득할 수 있다(S150). 이때, 상기 판단 대상 부분 이미지에 대한 판단 결과는, 앞서 설명한 바와 같이, 상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀 별 판단결과를 포함할 수 있으며, 각 판단 대상 픽셀 별 판단결과는 소정의 질병에 대한 소정의 중증도 등급 체계 상의 각 등급 별 가능성 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있을 수 있다.
이후 상기 컴퓨팅 시스템(100)은 상기 판단 대상 부분 이미지를 구성하는 각각의 판단 대상 픽셀 p에 대하여, 상기 판단 대상 픽셀 p에 대한 상기 제1딥러닝 모델(121-1)의 판단 결과에 기초하여 상기 판단 대상 픽셀 p의 유효 등급을 결정할 수 있다(S160).
상기 판단 대상 픽셀 p의 유효 등급을 결정하는 방법은 다양할 수 있다.
일 실시예에서, 상기 컴퓨팅 시스템(100)은 상기 중증도 등급 체계 상의 각 등급의 가능성 수치를 가중치로 하는 상기 중증도 등급 체계 상의 각 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 픽셀 p에 대한 유효 등급을 결정할 수 있다. 도 5b의 케이스를 예로 들어 설명하면, 상기 컴퓨팅 시스템(100)은 도 5b의 픽셀(11)에 대한 각 글리슨 등급 별 가능성 수치(21)를 획득할 수 있으며, 글리슨 등급 체계 상의 각 등급의 가능성 수치를 가중치로 하는 상기 글리슨 등급 체계 상의 각 등급 별 등급점수의 가중 평균을 산출할 수 있다. 이때, 정상(benign)은 가중 평균을 계산할 때 제외될 수 있으며, 도 5b의 케이스에서 산출되는 유효등급은 다음과 같다.
(3×0.1 + 4×0.3 + 5×0.4) / (0.1+0.3+0.4) = 3.5/0.8 = 4.375
다른 일 실시예에서, 상기 컴퓨팅 시스템(100)은 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 높은 복수의 상위 등급 각각의 가능성 수치를 가중치로 하는 상기 복수의 상위 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 픽셀 p에 대한 유효 등급을 결정할 수 있다. 상기 컴퓨팅 시스템(100)이 가능성 상위 2개의 등급에 대한 가능성 수치를 가중치로 하는 해당 등급의 가중 평균 유효 등급으로 산출한다고 가정하면, 상기 컴퓨팅 시스템(100)은 도 5b의 케이스에서 픽셀(11)의 유효 등급을 다음과 같이 산출할 수 있다(소수점 4째자리에서 반올림).
(4×0.3 + 5×0.4) / (0.3+0.4) = 3.2 / 0.7 = 4.571
다른 일 실시예에서, 상기 컴퓨팅 시스템(100)은 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 가장 높은 최상위 등급의 등급 점수를 상기 판단 대상 픽셀 p에 대한 유효 등급으로 결정할 수 있으며, 도 5b의 케이스에서 상기 컴퓨팅 시스템(100)은 가능성이 0.4로 가장 큰 등급(G5)의 등급 점수 5를 유효 등급으로 결정할 수 있다.
이후 상기 컴퓨팅 시스템(100)은 상기 판단 대상 부분 이미지를 구성하는 각 픽셀의 유효 등급에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정할 수 있다(S170).
일 실시예에서, 상기 컴퓨팅 시스템(100)은 상기 판단 대상 부분 이미지를 구성하는 각 픽셀의 유효 등급의 평균값을 산출하고 이를 상기 판단 대상 부분 이미지에 대한 유효 등급으로 결정할 수 있다.
그러나 반드시 픽셀들의 유효 등급의 평균값을 판단 대상 부분 이미지의 유효 등급으로 결정하는 것은 아니며, 이는 이해의 편의를 위한 예시에 불과하다. 실시예에 따라서, 상기 컴퓨팅 시스템(100)은 다양한 통계적 기법을 통해 상기 판단 대상 부분 이미지를 구성하는 각 픽셀의 유효 등급의 대푯값을 산출하고 이를 상기 판단 대상 부분 이미지에 대한 유효 등급으로 결정할 수 있다. 2 이상의 값들의 대푯값은 이들 값들의 평균값일 수 있으나 이에 한정되는 것은 아니며, 이들 값 중 어느 하나 혹은 이들 값 중 적어도 일부에 의해 계산되는 값일 수 있다. 예를 들어, 2 이상의 값들의 대푯값은 평균값 외에 최댓값, 최솟값, 중간값, n분위 값, IQR(interquartile range) 내에서의 평균값, 혹은 소정의 조건을 만족하는 값들만의 평균값(예를 들어, 일정 범위를 벗어난 값을 제외한 나머지 값들의 평균값), 히스토그램 최빈값 등일 수 있다.
도 5a에 도시된 제1딥러닝 모델(121-1) 역시 미리 학습된 인공 뉴럴 네트워크이다. 도 5a에 도시된 제1딥러닝 모델(121-1)을 학습하는 과정은 학습용 이미지에 태깅된 정보가 병변 영역에 대한 정보 또는 각 픽셀 별 중증도 등급에 대한 정보라는 점을 제외하면 도 4에 도시된 과정과 거의 동일하므로 상세한 설명은 생략하기로 한다.
한편, 상기 컴퓨팅 시스템(100)은 앞서 설명한 패치 레벨 중증도 판단 방법에 의해 결정된 부분 이미지들의 유효 등급을 종합하여 부분 이미지들로 구성된 병리 슬라이드 이미지의 슬라이드 레벨 중증도를 판단할 수 있다. 도 7은 상기 컴퓨팅 시스템(100)이 수행하는 슬라이드 레벨 중증도 판단 방법의 일 예를 도시한 흐름도이다.
도 7을 참조하면, 상기 컴퓨팅 시스템(100)은 판단 대상이 되는 병리 슬라이드 이미지 S를 소정의 단위 크기로 분할할 수 있다(S300). 만약 판단 대상 병리 슬라이드 이미지 S를 N개의 부분 이미지로 분할할 수 있다고 하면, 분할된 부분 이미지는 P1 내지 PN일 수 있다. 상기 단위 크기는 상기 제1딥러닝 모델(121)에 입력되는 입력 데이터의 크기와 같을 수 있으며, 크기는 a픽셀×b픽셀(a 및 b는 각각 1 이상의 정수)일 수 있다.
상기 컴퓨팅 시스템(100)은 상기 복수의 판단 대상 부분 이미지 P1 내지 PN 각각에 대하여, 상기 판단 대상 부분 이미지 Pi(정수 i는 1 내지 N) 각각을 상기 제1딥러닝 모델(121)에 입력하고(S310, S320), 상기 판단 대상 부분 이미지 Pi(정수 i는 1 내지 N)를 입력받은 상기 제1딥러닝 모델(121)이 출력한 상기 판단 대상 부분 이미지 Pi에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지 Pi에 대한 유효 등급 Di를 결정할 수 있다(S330).
S330 단계에서, 상기 컴퓨팅 시스템(100)은 상기 판단 대상 부분 이미지 Pi에 대한 유효 등급 Di를 결정하기 위하여 앞서 도 3 또는 도 6을 참조하여 설명한 패치 레벨 중증도 판단 방법을 이용할 수 있다.
이후 상기 컴퓨팅 시스템(100)은 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급(D1 내지 DN)에 기초하여 상기 판단 대상 병리 슬라이드 이미지 S에 대한 슬라이드 레벨 중증도 등급을 결정할 수 있다(S340).
도 8은 본 발명의 일 실시예에 따른 슬라이드 레벨 중증도 판단 방법이 적용된 구체적인 예를 도시한 도면이다.
도 8을 참조하면, 상기 컴퓨팅 시스템(100)은 소정의 판단 대상 병리 슬라이드 이미지(10)를 획득하고, 이를 소정의 단위 크기를 가지는 복수의 부분 이미지(20)로 분할할 수 있다(S300). 도 6은 15개의 부분 이미지(20-1 내지 20-15)로 분할한 예를 도시하고 있다.
한편 상기 컴퓨팅 시스템(100)은 분할된 복수의 부분 이미지(20-1 내지 20-15) 각각을 상기 제1딥러닝 모델(121)에 입력하고(S310, S320), 상기 제1딥러닝 모델(121)이 출력한 복수의 부분 이미지(20-1 내지 20-15) 각각에 대한 판단 결과에 기초하여 상기 복수의 부분 이미지(20-1 내지 20-15) 각각에 대한 유효 등급(30)를 결정할 수 있다(S330).
이후 상기 컴퓨팅 시스템(100)은 상기 복수의 부분 이미지(20-1 내지 20-15) 각각에 대한 유효 등급(30)에 기초하여 상기 판단 대상 병리 슬라이드 이미지(10)에 대한 슬라이드 레벨 중증도 등급을 결정할 수 있다(S340).
도 7의 S340 단계에서 슬라이드 레벨 중증도 등급을 결정하는 방법은 다양할 수 있다.
일 실시예에서, 상기 컴퓨팅 시스템(100)은 상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각의 유효 등급의 대푯값을 산출할 수 있으며, 산출된 대푯값을 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급으로 결정할 수 있다.
예를 들어, 상기 컴퓨팅 시스템(100)은 상기 판단 대상 병리 슬라이드 이미지를 구성하는 각 판단 대상 부분 이미지의 유효 등급의 최댓값, 최솟값, 평균값, 중앙값, IQR(InterQuartile Range) 내에서의 평균값, 혹은 소정의 조건을 만족하는 값들만의 평균값(예를 들어, 일정 범위를 벗어난 값을 제외한 나머지 값들의 평균값), 히스토그램 최빈값 등을 대푯값으로 산출할 수 있다.
도 8의 예를 통해 보다 구체적으로 살펴보면, 상기 컴퓨팅 시스템(100)이 상기 복수의 판단 대상 부분 이미지 각각의 유효 등급의 대푯값으로서 평균값을 이용하는 경우, 도 8의 예에서, 상기 컴퓨팅 시스템(100)은 15개의 부분 이미지(20-1 내지 20-15) 전체의 유효 등급의 평균값인 3.46을 상기 판단 대상 병리 슬라이드 이미지(10)의 슬라이드 레벨 중증도 등급으로 결정할 수 있다.
또는 상기 컴퓨팅 시스템(100)이 상기 복수의 판단 대상 부분 이미지 각각의 유효 등급의 대푯값으로서 최댓값을 이용하는 경우, 도 8의 예에서, 상기 컴퓨팅 시스템(100)은 15개의 부분 이미지(20-1 내지 20-15)의 유효 등급 중 최댓값인 4.2를 상기 판단 대상 병리 슬라이드 이미지(10)의 슬라이드 레벨 중증도 등급으로 결정할 수 있다.
또는 상기 컴퓨팅 시스템(100)이 상기 복수의 판단 대상 부분 이미지 각각의 유효 등급의 대푯값으로서 최솟값을 이용하는 경우, 도 8의 예에서, 상기 컴퓨팅 시스템(100)은 15개의 부분 이미지(20-1 내지 20-15)의 유효 등급 중 최솟값인 2.9를 상기 판단 대상 병리 슬라이드 이미지(10)의 슬라이드 레벨 중증도 등급으로 결정할 수 있다.
또는 상기 컴퓨팅 시스템(100)이 상기 복수의 판단 대상 부분 이미지 각각의 유효 등급의 대푯값으로서 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급 중에서 값이 큰 상위 일부의 유효 등급의 평균값을 이용하는 경우, 도 8의 예에서, 상기 컴퓨팅 시스템(100)은 15개의 부분 이미지(20-1 내지 20-15)의 유효 등급 중 상위 3개의 평균값인 4.1(=(4.2+4.1+4)/3)을 상기 판단 대상 병리 슬라이드 이미지(10)의 슬라이드 레벨 중증도 등급으로 결정할 수 있다.
다른 일 실시예에서, 상기 컴퓨팅 시스템(100)은 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급 중에서 소정의 임계값 이상인 유효 등급의 평균값을 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급으로 결정할 수도 있다. 또는 상기 컴퓨팅 시스템(100)이 상기 복수의 판단 대상 부분 이미지 각각의 유효 등급의 대푯값으로서 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급 중에서 소정의 임계값 이상인 유효 등급의 평균값을 이용하는 경우, 도 8의 예에서, 상기 컴퓨팅 시스템(100)은 15개의 부분 이미지(20-1 내지 20-15)의 유효 등급 중에서 임계값인 3.5 이상인 유효 등급의 평균값 3.9를 상기 판단 대상 병리 슬라이드 이미지(10)의 슬라이드 레벨 중증도 등급으로 결정할 수 있다.
이 외에도 도 7의 S340 단계에서 슬라이드 레벨 중증도 등급을 결정하는 다양한 방법이 있을 수 있음은 물론이다.
일 실시예에서, 상기 컴퓨팅 시스템(100)은 딥러닝을 이용하여 슬라이드 레벨 중증도 등급을 결정할 수도 있는데, 이때 상기 제2딥러닝 모델(122)이 이용될 수 있다.
상기 제2딥러닝 모델(122)은 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 부분 이미지 각각에 대한 유효 등급을 포함하는 데이터 집합이 입력되면 상기 병리 슬라이드 이미지에 대한 중증도 등급을 판단하기 위한 출력 값을 출력하도록 미리 학습된 인공 뉴럴 네트워크일 수 있다. 예를 들어, 상기 제2딥러닝 모델(122)은 도 8에 도시된 복수의 부분 이미지 각각의 유효등급으로 구성되는 데이터 집합(30)을 입력받아 상기 병리 슬라이드 이미지(10)에 대한 슬라이드 레벨 중증도(40)를 판단하기 위한 출력 값을 출력하는 뉴럴 네트워크일 수 있다.
본 실시예에 따르면, S340 단계에서, 상기 컴퓨팅 시스템(100)은 상기 판단 대상 병리 슬라이드 이미지 S를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급(D1 내지 DN)을 포함하는 데이터 집합을 입력받은 상기 제2딥러닝 모델(122)이 출력한 출력 값에 기초하여 상기 판단 대상 병리 슬라이드 이미지 S에 대한 슬라이드 레벨 중증도 등급을 결정할 수 있다.
상기 제2딥러닝 모델(122)이 출력한 출력 값에 기초하여 상기 판단 대상 병리 슬라이드 이미지 S에 대한 슬라이드 레벨 중증도 등급을 결정하는 구체적인 과정은 도 3 또는 도 6에 도시된 유효 등급 판단 과정과 유사할 수 있다. 예를 들어, 상기 제2딥러닝 모델(122)은, 도 3에 도시된 과정과 유사하게, 상기 중증도 등급 체계 상의 각 등급 별 가능성 수치를 출력할 수 있으며, 상기 컴퓨팅 시스템(100)은 상기 중증도 등급 체계 상의 각 등급의 가능성 수치를 가중치로 하는 상기 중증도 등급 체계 상의 각 등급 별 등급점수의 가중 평균, 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 높은 복수의 상위 등급 각각의 가능성 수치를 가중치로 하는 상기 복수의 상위 등급 별 등급점수의 가중 평균, 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 가장 높은 최상위 등급의 등급 점수 등을 슬라이드 레벨 중증도 등급으로 결정할 수 있다.
상기 제2딥러닝 모델(122)은 슬라이드 레벨 중증도 등급을 결정하는데 이용되기 전에 미리 학습된 뉴럴 네트워크일 수 있는데, 도 9는 상기 제2딥러닝 모델(122)이 학습되는 과정을 도시한 도면이다.
도 9를 참조하면, 상기 컴퓨팅 시스템(100)은 학습용 병리 슬라이드 이미지 R으로 획득하고, 상기 학습용 병리 슬라이드 이미지 R를 상기 단위 크기로 분할할 수 있다(S400). 만약 상기 학습용 병리 슬라이드 이미지 R이 N개의 부분 이미지로 분할된다고 하면, 분할된 각각의 데이터 집합 생성용 부분 이미지는 Q1 내지 QN이다.
이후 상기 컴퓨팅 시스템(100)은 상기 복수의 데이터 집합 생성용 부분 이미지(Q1 내지 QN) 각각에 대하여, 상기 데이터 집합 생성용 부분 이미지 Qi(정수 i는 1 내지 N)를 상기 제1딥러닝 모델(121)에 입력하고(S410, S420), 상기 데이터 집합 생성용 부분 이미지 Qi를 입력받은 상기 제1딥러닝 모델(121)이 출력한 판단 결과에 기초하여 상기 데이터 집합 생성용 부분 이미지 Qi에 대한 유효 등급 Ei을 결정할 수 있다(S430).
이후 상기 컴퓨팅 시스템(100)은 상기 복수의 데이터 집합 생성용 부분 이미지 각각에 대한 유효 등급(E1 내지 EN)을 포함하는 데이터 집합을 제2딥러닝 모델(122)에 입력하여 상기 제2딥러닝 모델(122)을 학습할 수 있다.
한편, 본 발명의 실시예에 따른 방법은 컴퓨터가 읽을 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명의 실시예에 따른 제어 프로그램 및 대상 프로그램도 컴퓨터로 판독 가능한 기록 매체에 저장될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터로 읽을 수 있는 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타나며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본 발명은 패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템에 이용될 수 있다.

Claims (24)

  1. 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 각각의 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 포함하는 컴퓨팅 시스템에서 수행되는 슬라이드 레벨 중증도 판단 방법으로서,
    소정의 판단 대상 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 판단 대상 부분 이미지 각각에 대하여, 상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계; 및
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계를 포함하되,
    상기 제1딥러닝 모델이 출력하는 상기 부분 이미지에 대한 판단 결과는 소정의 질병에 대한 소정의 조직학적 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있으며,
    상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계는,
    상기 판단 대상 부분 이미지의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법.
  2. 제1항에 있어서,
    상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계는,
    상기 중증도 등급 체계 상의 각 등급의 가능성 수치를 가중치로 하는 상기 중증도 등급 체계 상의 각 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계;
    상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 높은 복수의 상위 등급 각각의 가능성 수치를 가중치로 하는 상기 복수의 상위 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계; 또는
    상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 가장 높은 최상위 등급의 등급 점수를 상기 판단 대상 병리 이미지에 대한 유효 등급으로 결정하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법.
  3. 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 각각의 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 포함하는 컴퓨팅 시스템에서 수행되는 슬라이드 레벨 중증도 판단 방법으로서,
    소정의 판단 대상 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 판단 대상 부분 이미지 각각에 대하여, 상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계; 및
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계를 포함하되,
    상기 제1딥러닝 모델이 출력하는 상기 부분 이미지에 대한 판단 결과는 상기 부분 이미지를 구성하는 각 픽셀 별 판단 결과를 포함하고, 상기 각 픽셀 별 판단 결과는 소정의 질병에 대한 소정의 조직학적 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있으며,
    상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계는,
    상기 판단 대상 부분 이미지를 구성하는 각각의 판단 대상 픽셀에 대하여, 상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 픽셀에 대한 유효 등급을 결정하는 단계; 및
    상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법.
  4. 제3항에 있어서,
    상기 제1딥러닝 모델이 출력한 상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 픽셀에 대한 유효 등급을 결정하는 단계는,
    상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치를 가중치로 하는 상기 중증도 등급 체계 상의 각 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 픽셀의 유효 등급을 결정하는 단계;
    상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 높은 복수의 상위 등급 각각의 가능성 수치를 가중치로 하는 상기 복수의 상위 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 픽셀의 유효 등급을 결정하는 단계; 또는
    상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 가장 높은 최상위 등급의 등급 점수를 상기 판단 대상 픽셀의 유효 등급으로 결정하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법.
  5. 제3항에 있어서,
    상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계는,
    상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급의 대푯값을 산출하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법.
  6. 제1항 또는 제3항에 있어서,
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계는,
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 각 판단 대상 부분 이미지의 유효 등급의 대푯값을 산출하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법.
  7. 제6항에 있어서,
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 각 판단 대상 부분 이미지의 유효 등급의 대푯값을 산출하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계는,
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 각 판단 대상 부분 이미지의 유효 등급의 최댓값, 최솟값, 평균값, 중앙값, IQR(InterQuartile Range) 내에서의 평균값 중 어느 하나를 대푯값으로 산출하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법.
  8. 제1항 또는 제3항에 있어서,
    상기 컴퓨팅 시스템은, 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 부분 이미지 각각에 대한 유효 등급을 포함하는 데이터 집합이 입력되면 상기 병리 슬라이드 이미지에 대한 중증도 등급을 판단하기 위한 출력 값을 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제2딥러닝 모델을 더 포함하고,
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지에 대한 중증도 등급을 결정하는 단계는,
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급을 포함하는 데이터 집합을 입력받은 상기 제2딥러닝 모델이 출력한 출력 값에 기초하여 상기 판단 대상 병리 슬라이드 이미지에 대한 중증도 등급을 결정하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법.
  9. 제8항에 있어서,
    상기 제2딥러닝 모델은,
    제2딥러닝 모델 학습 방법에 의해 미리 학습된 인공 뉴럴 네트워크이며,
    상기 제2딥러닝 모델 학습 방법은,
    복수의 학습용 병리 슬라이드 이미지를 획득하는 단계;
    상기 복수의 학습용 병리 슬라이드를 각각에 대하여, 상기 학습용 병리 슬라이드 이미지에 상응하는 데이터 집합을 생성하는 단계; 및
    상기 복수의 학습용 병리 슬라이드 이미지에 상응하는 데이터 집합 각각을 상기 제2딥러닝 모델에 입력하여 상기 제2딥러닝 모델을 학습하는 단계를 포함하되,
    상기 학습용 병리 슬라이드 이미지에 상응하는 데이터 집합을 생성하는 단계는,
    상기 학습용 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 데이터 집합 생성용 부분 이미지 각각에 대하여, 상기 데이터 집합 생성용 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 판단 결과에 기초하여 상기 데이터 집합 생성용 부분 이미지에 대한 유효 등급을 결정하는 단계; 및
    상기 복수의 데이터 집합 생성용 부분 이미지 각각에 대한 유효 등급을 포함하는 데이터 집합을 생성하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법.
  10. 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 포함하는 컴퓨팅 시스템에서 수행되는 패치 레벨 중증도 판단 방법으로서,
    소정의 판단 대상 부분 이미지를 상기 제1딥러닝 모델에 입력하고, 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과를 획득하는 단계-상기 판단 대상 부분 이미지에 대한 판단 결과는 소정의 질병에 대한 소정의 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있음; 및
    상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 패치 레벨 중증도 판단 방법.
  11. 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 포함하는 컴퓨팅 시스템에서 수행되는 패치 레벨 중증도 판단 방법으로서,
    소정의 판단 대상 부분 이미지를 상기 제1딥러닝 모델에 입력하고, 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과를 획득하는 단계-상기 제1딥러닝 모델이 출력하는 상기 판단 대상 부분 이미지에 대한 판단 결과는 상기 판단 대상 부분 이미지를 구성하는 각 픽셀 별 판단 결과를 포함하고, 상기 각 픽셀 별 판단 결과는 소정의 질병에 대한 소정의 조직학적 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있음;
    상기 판단 대상 부분 이미지를 구성하는 각각의 판단 대상 픽셀에 대하여,
    상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 픽셀에 대한 유효 등급을 결정하는 단계; 및
    상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급에 기초하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 패치 레벨 중증도 판단 방법.
  12. 데이터 처리장치에 설치되며 제1항, 제3항, 제10항 및 제11항 중 어느 한 항에 기재된 방법을 수행하기 위한 매체에 기록된 컴퓨터 프로그램.
  13. 제1항, 제3항, 제10항 및 제11항 중 어느 한 항에 기재된 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터 판독가능한 기록매체.
  14. 컴퓨팅 시스템으로서,
    프로세서 및 메모리를 포함하되,
    상기 메모리는,
    컴퓨터 프로그램 및 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 각각의 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 저장하고,
    상기 컴퓨터 프로그램은,
    상기 프로세서에 의해 수행될 경우, 상기 컴퓨팅 시스템이 슬라이드 레벨 중증도 판단 방법을 수행하도록 제어하되,
    상기 슬라이드 레벨 중증도 판단 방법은,
    소정의 판단 대상 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 판단 대상 부분 이미지 각각에 대하여, 상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계; 및
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계를 포함하되,
    상기 제1딥러닝 모델이 출력하는 상기 부분 이미지에 대한 판단 결과는 소정의 질병에 대한 소정의 조직학적 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있으며,
    상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계는,
    상기 판단 대상 부분 이미지의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 컴퓨팅 시스템.
  15. 제14항에 있어서,
    상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계는,
    상기 중증도 등급 체계 상의 각 등급의 가능성 수치를 가중치로 하는 상기 중증도 등급 체계 상의 각 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계;
    상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 높은 복수의 상위 등급 각각의 가능성 수치를 가중치로 하는 상기 복수의 상위 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계; 또는
    상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 가장 높은 최상위 등급의 등급 점수를 상기 판단 대상 병리 이미지에 대한 유효 등급으로 결정하는 단계를 포함하는 컴퓨팅 시스템.
  16. 컴퓨팅 시스템으로서,
    프로세서 및 메모리를 포함하되,
    상기 메모리는,
    컴퓨터 프로그램 및 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 각각의 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 저장하고,
    상기 컴퓨터 프로그램은,
    상기 프로세서에 의해 수행될 경우, 상기 컴퓨팅 시스템이 슬라이드 레벨 중증도 판단 방법을 수행하도록 제어하되,
    상기 슬라이드 레벨 중증도 판단 방법은,
    소정의 판단 대상 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 판단 대상 부분 이미지 각각에 대하여, 상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계; 및
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계를 포함하되,
    상기 제1딥러닝 모델이 출력하는 상기 부분 이미지에 대한 판단 결과는 상기 부분 이미지를 구성하는 각 픽셀 별 판단 결과를 포함하고, 상기 각 픽셀 별 판단 결과는 소정의 질병에 대한 소정의 조직학적 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있으며,
    상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계는,
    상기 판단 대상 부분 이미지를 구성하는 각각의 판단 대상 픽셀에 대하여, 상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 픽셀에 대한 유효 등급을 결정하는 단계; 및
    상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 슬라이드 레벨 중증도 판단 방법.
  17. 제16항에 있어서,
    상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 픽셀에 대한 유효 등급을 결정하는 단계는,
    상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치를 가중치로 하는 상기 중증도 등급 체계 상의 각 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 픽셀의 유효 등급을 결정하는 단계;
    상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 높은 복수의 상위 등급 각각의 가능성 수치를 가중치로 하는 상기 복수의 상위 등급 별 등급점수의 가중 평균을 산출하여 상기 판단 대상 픽셀의 유효 등급을 결정하는 단계; 또는
    상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급 중 가능성 수치가 가장 높은 최상위 등급의 등급 점수를 상기 판단 대상 픽셀의 유효 등급으로 결정하는 단계를 포함하는 컴퓨팅 시스템.
  18. 제16항에 있어서,
    상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계는,
    상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급의 대표 값을 산출하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 컴퓨팅 시스템.
  19. 제14항 또는 제16항에 있어서,
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계는,
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 각 판단 대상 부분 이미지의 유효 등급의 대푯값을 산출하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계를 포함하는 컴퓨팅 시스템.
  20. 제19항에 있어서,
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 각 판단 대상 부분 이미지의 유효 등급의 대푯값을 산출하여 상기 판단 대상 병리 슬라이드 이미지 전체에 대한 슬라이드 레벨 중증도 등급을 결정하는 단계는,
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 각 판단 대상 부분 이미지의 유효 등급의 최댓값, 최솟값, 평균값, 중앙값, IQR(InterQuartile Range) 내에서의 평균값 중 어느 하나를 대푯값으로 산출하는 단계를 포함하는 컴퓨팅 시스템.
  21. 제14항 또는 제16항에 있어서,
    상기 메모리는, 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 부분 이미지 각각에 대한 유효 등급을 포함하는 데이터 집합이 입력되면 상기 병리 슬라이드 이미지에 대한 중증도 등급을 판단하기 위한 출력 값을 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제2딥러닝 모델을 더 저장하고,
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급에 기초하여 상기 판단 대상 병리 슬라이드 이미지에 대한 중증도 등급을 결정하는 단계는,
    상기 판단 대상 병리 슬라이드 이미지를 구성하는 상기 복수의 판단 대상 부분 이미지 각각에 대한 유효 등급을 포함하는 데이터 집합을 입력받은 상기 제2딥러닝 모델이 출력한 출력 값에 기초하여 상기 판단 대상 병리 슬라이드 이미지에 대한 중증도 등급을 결정하는 단계를 포함하는 컴퓨팅 시스템.
  22. 제21항에 있어서,
    상기 제2딥러닝 모델은,
    제2딥러닝 모델 학습 방법에 의해 미리 학습된 인공 뉴럴 네트워크이며,
    상기 제2딥러닝 모델 학습 방법은,
    복수의 학습용 병리 슬라이드 이미지를 획득하는 단계;
    상기 복수의 학습용 병리 슬라이드를 각각에 대하여, 상기 학습용 병리 슬라이드 이미지에 상응하는 데이터 집합을 생성하는 단계; 및
    상기 복수의 학습용 병리 슬라이드 이미지에 상응하는 데이터 집합 각각을 상기 제2딥러닝 모델에 입력하여 상기 제2딥러닝 모델을 학습하는 단계를 포함하되,
    상기 학습용 병리 슬라이드 이미지에 상응하는 데이터 집합을 생성하는 단계는,
    상기 학습용 병리 슬라이드 이미지를 상기 단위 크기로 분할한 복수의 데이터 집합 생성용 부분 이미지 각각에 대하여, 상기 데이터 집합 생성용 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 판단 결과에 기초하여 상기 데이터 집합 생성용 부분 이미지에 대한 유효 등급을 결정하는 단계; 및
    상기 복수의 데이터 집합 생성용 부분 이미지 각각에 대한 유효 등급을 포함하는 데이터 집합을 생성하는 단계를 포함하는 컴퓨팅 시스템.
  23. 컴퓨팅 시스템으로서,
    프로세서 및 메모리를 포함하되,
    상기 메모리는,
    컴퓨터 프로그램 및 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 각각의 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 저장하고,
    상기 컴퓨터 프로그램은,
    상기 프로세서에 의해 수행될 경우, 상기 컴퓨팅 시스템이 패치 레벨 중증도 판단 방법을 수행하도록 제어하되,
    상기 패치 레벨 중증도 판단 방법은,
    소정의 판단 대상 부분 이미지를 상기 제1딥러닝 모델에 입력하고, 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과를 획득하는 단계-상기 판단 대상 부분 이미지에 대한 판단 결과는 소정의 질병에 대한 소정의 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있음; 및
    상기 판단 대상 부분 이미지를 입력받은 상기 제1딥러닝 모델이 출력한 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 부분 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 컴퓨팅 시스템.
  24. 컴퓨팅 시스템으로서,
    프로세서 및 메모리를 포함하되,
    상기 메모리는,
    컴퓨터 프로그램 및 병리 슬라이드 이미지를 소정의 단위 크기로 분할한 각각의 부분 이미지가 입력되면 입력된 부분 이미지에 대한 판단 결과를 출력하도록 미리 학습된 인공 뉴럴 네트워크인 제1딥러닝 모델을 저장하고,
    상기 컴퓨터 프로그램은,
    상기 프로세서에 의해 수행될 경우, 상기 컴퓨팅 시스템이 패치 레벨 중증도 판단 방법을 수행하도록 제어하되,
    상기 패치 레벨 중증도 판단 방법은,
    소정의 판단 대상 부분 이미지를 상기 제1딥러닝 모델에 입력하고, 상기 제1딥러닝 모델이 출력한 상기 판단 대상 부분 이미지에 대한 판단 결과를 획득하는 단계-상기 제1딥러닝 모델이 출력하는 상기 판단 대상 부분 이미지에 대한 판단 결과는 상기 판단 대상 부분 이미지를 구성하는 각 픽셀 별 판단 결과를 포함하고, 상기 각 픽셀 별 판단 결과는 소정의 질병에 대한 소정의 조직학적 중증도 등급 체계 상의 각 등급 별 가능성(likelihood) 수치이며, 상기 중증도 등급 체계 상의 각 등급에는 소정의 등급점수가 미리 부여되어 있음;
    상기 판단 대상 부분 이미지를 구성하는 각각의 판단 대상 픽셀에 대하여,
    상기 판단 대상 픽셀의 상기 중증도 등급 체계 상의 각 등급의 가능성 수치 및 상기 중증도 등급 체계 상의 각 등급 별 등급점수에 기초하여 상기 판단 대상 픽셀에 대한 유효 등급을 결정하는 단계; 및
    상기 판단 대상 부분 이미지를 구성하는 각 판단 대상 픽셀의 유효 등급에 기초하여 상기 판단 대상 병리 이미지에 대한 유효 등급을 결정하는 단계를 포함하는 컴퓨팅 시스템.
PCT/KR2023/007538 2022-06-02 2023-06-01 패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템 WO2023234730A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220067465A KR102485415B1 (ko) 2022-06-02 2022-06-02 패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템
KR10-2022-0067465 2022-06-02

Publications (1)

Publication Number Publication Date
WO2023234730A1 true WO2023234730A1 (ko) 2023-12-07

Family

ID=84923902

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/007538 WO2023234730A1 (ko) 2022-06-02 2023-06-01 패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템

Country Status (2)

Country Link
KR (1) KR102485415B1 (ko)
WO (1) WO2023234730A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102485415B1 (ko) * 2022-06-02 2023-01-06 주식회사 딥바이오 패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200016669A (ko) * 2018-08-07 2020-02-17 주식회사 딥바이오 다중 색 모델 및 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법
KR20200092803A (ko) * 2019-01-25 2020-08-04 주식회사 딥바이오 준-지도학습을 이용하여 질병의 발병 영역에 대한 어노테이션을 수행하기 위한 방법 및 이를 수행하는 진단 시스템
KR102261475B1 (ko) * 2020-06-05 2021-06-07 주식회사 딥바이오 중증도 판단용 뉴럴 네트워크 학습 방법 및 시스템
JP2022527240A (ja) * 2019-03-15 2022-06-01 スピンテルクス,インコーポレーテッド 計算病理学のための説明可能なAI(xAI)プラットフォーム
KR102485415B1 (ko) * 2022-06-02 2023-01-06 주식회사 딥바이오 패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200016669A (ko) * 2018-08-07 2020-02-17 주식회사 딥바이오 다중 색 모델 및 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법
KR20200092803A (ko) * 2019-01-25 2020-08-04 주식회사 딥바이오 준-지도학습을 이용하여 질병의 발병 영역에 대한 어노테이션을 수행하기 위한 방법 및 이를 수행하는 진단 시스템
JP2022527240A (ja) * 2019-03-15 2022-06-01 スピンテルクス,インコーポレーテッド 計算病理学のための説明可能なAI(xAI)プラットフォーム
KR102261475B1 (ko) * 2020-06-05 2021-06-07 주식회사 딥바이오 중증도 판단용 뉴럴 네트워크 학습 방법 및 시스템
KR102485415B1 (ko) * 2022-06-02 2023-01-06 주식회사 딥바이오 패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템

Also Published As

Publication number Publication date
KR102485415B1 (ko) 2023-01-06

Similar Documents

Publication Publication Date Title
US11842556B2 (en) Image analysis method, apparatus, program, and learned deep learning algorithm
WO2021049729A1 (ko) 인공지능 모델을 이용한 폐암 발병 가능성 예측 방법 및 분석 장치
CN109523535B (zh) 一种病变图像的预处理方法
CN112088394A (zh) 生物组织的计算机分类
EP3531339B1 (en) Image analysis method, image analysis apparatus and learned deep layer learning algorithm manufacturing method
CN111524137B (zh) 基于图像识别的细胞识别计数方法、装置和计算机设备
WO2023234730A1 (ko) 패치 레벨 중증도 판단 방법, 슬라이드 레벨 중증도 판단 방법 및 이를 수행하는 컴퓨팅 시스템
CN115345819A (zh) 一种胃癌图像识别系统、装置及其应用
CN111370128A (zh) 一种肺癌患者预后预测系统及方法
CN110796661B (zh) 基于卷积神经网络的真菌显微图像分割检测方法及系统
CN114664413B (zh) 在治疗前对直肠癌治疗抵抗及其分子机制的预测系统
Xu et al. Using transfer learning on whole slide images to predict tumor mutational burden in bladder cancer patients
CN110916666B (zh) 一种预测手术切除肝细胞癌复发的影像组学特征处理方法
WO2012041333A1 (en) Automated imaging, detection and grading of objects in cytological samples
CN113261012B (zh) 处理图像的方法、装置及系统
CN113724842B (zh) 一种基于注意力机制的宫颈组织病理辅助诊断方法
CN112990214A (zh) 一种医学图像特征识别预测模型
WO2023191472A1 (ko) 면역조직화학 염색 이미지를 분석하기 위한 기계학습모델을 학습하는 방법 및 이를 수행하는 컴퓨팅 시스템
US9785848B2 (en) Automated staining and segmentation quality control
WO2023128284A1 (ko) 자궁 경부암의 진단에 대한 정보 제공 방법 및 이를 이용한 자궁 경부암의 진단에 대한 정보 제공용 디바이스
Sun et al. Detection of breast tumour tissue regions in histopathological images using convolutional neural networks
WO2022158843A1 (ko) 조직 검체 이미지 정제 방법, 및 이를 수행하는 컴퓨팅 시스템
WO2022119347A1 (ko) 초음파 영상 기반의 딥 러닝을 통한 관상동맥 경화반 조직 분석 방법, 장치 및 기록매체
CN117529750A (zh) 使用多重免疫荧光成像的组织学染色的数字合成
JPH1119077A (ja) 放射線画像における腫瘤影の検出方法及び装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23816390

Country of ref document: EP

Kind code of ref document: A1