WO2022149894A1 - 병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템 - Google Patents

병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템 Download PDF

Info

Publication number
WO2022149894A1
WO2022149894A1 PCT/KR2022/000269 KR2022000269W WO2022149894A1 WO 2022149894 A1 WO2022149894 A1 WO 2022149894A1 KR 2022000269 W KR2022000269 W KR 2022000269W WO 2022149894 A1 WO2022149894 A1 WO 2022149894A1
Authority
WO
WIPO (PCT)
Prior art keywords
slide image
pathology
neural network
image
pathological
Prior art date
Application number
PCT/KR2022/000269
Other languages
English (en)
French (fr)
Inventor
곽태영
백인영
김선우
Original Assignee
주식회사 딥바이오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥바이오 filed Critical 주식회사 딥바이오
Priority to EP22736871.9A priority Critical patent/EP4258283A4/en
Priority to JP2023540030A priority patent/JP2024502806A/ja
Priority to US18/271,233 priority patent/US20240281653A1/en
Priority to CN202280009439.3A priority patent/CN116783662A/zh
Publication of WO2022149894A1 publication Critical patent/WO2022149894A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention relates to a learning method of an artificial neural network that provides a judgment result for a pathological specimen, and a computing system for performing the same. More specifically, by learning artificial neural networks using pathology slides in which serial sections of a single sample are stained with various different staining reagents, it is possible to perform high-accuracy judgment on diseases. It relates to a method and a computing system for performing the same.
  • tumor microenvironment Neighboring cells that interact with tumor cells around the tumor and influence the growth of the tumor are called the tumor microenvironment.
  • the study of the tumor microenvironment is very important for the diagnosis, prognosis, and responsiveness to specific treatment methods for the current state of cancer, and for developing new treatment methods.
  • IHC staining reagents targeting specific immune cells or proteins expected to exist in the tumor microenvironment were used for analysis of the tumor microenvironment. That is, a process of staining a pathological specimen with an IHC staining reagent for a specific target and reading the staining result with the naked eye through an optical microscope by a pathologist was performed to determine the positional relationship between the targets and to quantify the amount.
  • the technical task of the present invention is to learn artificial neural networks by using pathological slides in which serial sections of a single sample are stained with H&E or various target IHC staining reagents, etc. It is to provide a method and system that enables the network to comprehensively analyze the tumor microenvironment, thereby enabling the diagnosis, prognosis, and responsiveness to specific treatment methods for the current state of cancer to be identified with high accuracy.
  • the first pathology slide image to the Nth pathology slide image is a pathology slide in which serial sections for a single pathology specimen are stained with different staining reagents. image; and generating the mth learning data based on the first pathological slide image to the Nth pathological slide image.
  • the generating of the m-th learning data based on the first pathological slide image to the N-th pathological slide image comprises: channel overlapping the first pathological slide image to the N-th pathological slide image. and converting into one multi-channel image through stacking), and the m-th learning data may include the multi-channel image.
  • the training data includes N channels
  • the step of converting the first pathological slide image to the Nth pathological slide image into one multi-channel image through channel stacking is 1 ⁇
  • the generating of the m-th learning data based on the first pathology slide image to the N-th pathology slide image includes the biological tissue present in the first pathological slide image to the N-th pathology slide image. specifying an area; matching the images of the first pathology slide to the Nth pathology slide so that the positions and shapes between the biological tissue regions present in each of the first pathology slides to the Nth pathology slide images match; and converting the matched first pathological slide image to the registered Nth pathological slide image into one multi-channel image through channel stacking, wherein the m-th learning data is the multi-channel image may include.
  • the training data includes N channels, and converting the matched first pathological slide image to the registered Nth pathological slide image into one multi-channel image through channel stacking.
  • a method of providing a determination result for a predetermined target pathology specimen through an artificial neural network learned by the above-described artificial neural network learning method wherein the computing system includes: Acquiring a slide image to an Nth judgment target pathology slide image (where N is a natural number equal to or greater than 2), wherein the first judgment target pathology slide image to the Nth judgment target pathology slide image are Image of a pathology slide in which serial sections were stained with different staining reagents; A method comprising the step of outputting, by the computing system, a result of the determination by the artificial neural network on the target pathology sample to be determined based on the slide image of the first judgment target pathology or the Nth judgment target pathology slide image do.
  • a computer program installed in a data processing apparatus and recorded in a medium for performing the above-described method.
  • a computer-readable recording medium in which a computer program for performing the above-described method is recorded.
  • an artificial neural network learning system comprising: a processor; and a memory storing a computer program, wherein the computer program, when executed by the processor, causes the computing system to perform a method of learning an artificial neural network
  • the first pathology slide image to the Nth pathology slide image is a path
  • An artificial neural network learning system comprising generating the m-th learning data based on the first pathological slide image to the N-th pathological slide image.
  • the processor and a memory for storing a computer program, wherein the computer program, when executed by the processor, causes the computing system to determine the pathological specimen through the artificial neural network learned by the artificial neural network learning method described above.
  • a method of providing a result is performed, and the method of providing a result of the determination includes: acquiring a first judgment target pathology slide image to an Nth judgment target pathology slide image (where N is a natural number of 2 or more) -
  • the first judgment target pathology slide image to the Nth judgment target pathology slide image are pathology slide images in which serial sections of a predetermined judgment target pathology specimen are stained with different staining reagents; and outputting, by the artificial neural network, a judgment result for the judgment target pathology sample determined based on the first judgment target pathology slide image or the N-th judgment target pathology slide image;
  • the learned artificial neural network is transformed into a tumor microenvironment. It is possible to provide a method and system that enables the diagnosis of the current state of cancer, prognosis, and responsiveness to a specific treatment method to be identified with high accuracy by allowing comprehensive analysis of the cancer.
  • a similar effect to multiplex IHC can be obtained by overlapping and utilizing multiple pathological slide images generated by using a widely used method instead of a high-cost, non-generalized method such as multiplex IHC. , and also has the effect of increasing the accuracy of tumor microenvironment analysis by blocking the possibility of errors that may occur in the process of separating location information for each target through color filtering of the multiplex IHC result.
  • FIG. 1 is a diagram schematically illustrating an environment in which a method for learning an artificial neural network and a method for providing a judgment result for a pathological specimen according to the technical spirit of the present invention are performed.
  • FIG. 2 is a flowchart illustrating a method for learning a neural network according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating one multi-channel image generated by a plurality of pathological slide images represented by an RGB color model through channel overlap.
  • FIG. 4 is a diagram illustrating an example of a process of generating individual learning data according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating an example of a method for providing a determination result for a pathological specimen according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a schematic configuration of an artificial neural network learning system according to an embodiment of the present invention
  • FIG. 7 is a diagram illustrating a schematic configuration of a system for providing a determination result according to an embodiment of the present invention.
  • the component when any one component 'transmits' data to another component, the component may directly transmit the data to the other component or through at least one other component. This means that the data may be transmitted to the other component. Conversely, when one component 'directly transmits' data to another component, it means that the data is transmitted from the component to the other component without passing through the other component.
  • FIG. 1 is a diagram schematically illustrating an environment in which a method for learning an artificial neural network and a method for providing a judgment result for a pathological specimen according to the technical spirit of the present invention are performed.
  • the artificial neural network learning method may be performed by the neural network learning system 100, and a method for providing a determination result for a pathological specimen according to an embodiment of the present invention may be performed by the judgment result providing system 200 for the pathological specimen (hereinafter, referred to as a 'judgment result providing system').
  • the neural network learning system 100 may learn the artificial neural network 300 for providing diagnostic information, prognosis information, and/or response information to a treatment method for a pathological specimen, and the determination result providing system 200 ) can make various judgments (eg, whether or not disease manifests, prognosis, treatment method, etc.) on the target sample using the learned artificial neural network 300 .
  • the neural network learning system 100 and/or the determination result providing system 200 may be a computing system that is a data processing device having computational power for implementing the technical idea of the present invention, and generally, a client through a network It may include a computing device such as a personal computer or a portable terminal as well as a server that is an accessible data processing device.
  • the neural network learning system 100 and/or the determination result providing system 200 may be implemented as any one physical device, but if necessary, a plurality of physical devices may be organically coupled to each other according to the technical idea of the present invention.
  • An average expert in the technical field of the present invention can easily infer that the neural network learning system 100 and/or the judgment result providing system 200 can be implemented.
  • the neural network learning system 100 may learn the neural network 300 based on training data generated from a plurality of pathological specimens.
  • the pathological specimen may be a biopsy collected from various organs of the human body or a living tissue excised by surgery.
  • the neural network learning system 100 generates individual training data using digital pathology slide images of a serial section of a pathological specimen, and inputs it to the input layer of the neural network 300 to the neural network (300) can be learned.
  • the neural network 300 may be an artificial neural network trained to output a probability value of whether or not a disease is present with respect to a predetermined disease.
  • the neural network 300 may output a numerical value, ie, a probability value, indicating a determination result (eg, a possibility of disease expression) for a target sample based on data input through an input layer.
  • an artificial neural network is a neural network artificially constructed based on the operation principle of human neurons.
  • the artificial neural network may be a convolutional neural network or may include a convolutional neural network.
  • the learned neural network 300 may be stored in the judgment result providing system 200, and the judgment result providing system 200 may make a judgment on a predetermined diagnostic target sample using the learned artificial neural network.
  • the neural network learning system 100 and/or the determination result providing system 200 may be implemented in the form of a subsystem of a predetermined parent system 10 .
  • the parent system 10 may be a server.
  • the server 10 means a data processing device having computational capability for implementing the technical idea of the present invention, and generally provides a specific service such as a personal computer, a mobile terminal, etc. as well as a data processing device that a client can access through a network.
  • An average expert in the art of the present invention can easily infer that any device capable of performing can be defined as a server.
  • the neural network learning system 100 and the determination result providing system 200 may be implemented in a separate form.
  • FIG. 2 is a flowchart illustrating a method for learning a neural network according to an embodiment of the present invention.
  • the neural network learning system 100 may obtain a first pathological slide image to an N-th pathological slide image (where N is a natural number equal to or greater than 2) (S110) ).
  • the first pathology slide image to the Nth pathology slide image may be pathology slide images in which serial sections of a single pathology specimen are stained with different staining reagents.
  • Each section of the pathology specimen may be a portion of a slice of the pathology specimen in order to produce a digital slide image, and by sequentially slicing the pathology specimen to make a plurality of glass slides, staining them with different staining reagents and digitizing them, A first pathology slide image to an Nth pathology slide image may be generated.
  • the staining reagent may be a reagent for hematoxylin and eosin (H&E) staining or a reagent for IHC (immunohistochemistry) staining of a specific target.
  • one pathological specimen is successively sliced, and each sliced section is sequentially stained with an H&E staining reagent, a first IHC staining reagent, a second IHC staining reagent, etc. to make a glass slide, which is then digitally imaged to A plurality of pathology slide images corresponding to pathological specimens may be generated.
  • the neural network learning system 100 may receive a first pathology slide image to an Nth pathology slide image corresponding to a predetermined pathological specimen from an external terminal, and the first pathology corresponding to the pathological specimen.
  • the slide image to the Nth pathology slide image may be acquired from a memory device pre-stored in the slide image to the Nth pathology slide image.
  • the neural network learning system 100 may generate the m-th learning data based on the first pathological slide image to the N-th pathological slide image (S120).
  • the neural network learning system 100 may generate m-th learning data through a channel overlap method. That is, the neural network learning system 100 may convert the first pathological slide image to the N-th pathological slide image into one multi-channel image through channel stacking, and the m-th learning data is The multi-channel image may be included.
  • 3 is a diagram illustrating one multi-channel image generated by a plurality of pathological slide images represented by an RGB color model through channel overlap. 3 shows a case of converting slide images of four consecutive sections extracted from a single pathological specimen into a multi-channel image.
  • the multi-channel image 20 may be composed of 12 channels, which is the product of 4, which is the number of slide images, and 3, which is the number of channels constituting each slide image.
  • the second channel 21-2 may be composed of the G channel value of each pixel of the first slide image
  • the third channel 21- 3) may be composed of the B channel value of each pixel of the first slide image
  • the first channel 21-1 may be composed of the R channel value of each pixel of the first slide image
  • the second channel 21-2 may be composed of the G channel value of each pixel of the first slide image
  • the third channel 21-3 may be composed of the B channel value of each pixel of the first slide image
  • the fourth channel 22-1 may be composed of the R channel value of each pixel of the second slide image
  • the fifth channel 22-2 may consist of the G channel value of each pixel of the second slide image
  • the sixth channel 22-3 may include the B channel value of each pixel of the second slide image.
  • the seventh channel 23-1 may be composed of the R channel value of each pixel of the third slide image
  • the eighth channel 23-2 is the G of each pixel of the third slide image.
  • the ninth channel 23-3 may be composed of a B channel value of each pixel of the first slide image
  • the tenth channel 24-1 may be composed of each pixel of the fourth slide image may be composed of the R channel value of
  • the eleventh channel 24-2 may be composed of the G channel value of each pixel of the fourth slide image
  • the twelfth channel 24-3 may be composed of the G channel value of each pixel of the fourth slide image. It may consist of the B channel value of each pixel.
  • each pathological slide image extracted from a single pathological specimen may be slightly shifted in position or direction in the process of producing the corresponding slide image.
  • a process of matching each pathological slide image may have to be performed. A flowchart in this case is shown in FIG. 4 .
  • the neural network learning system 100 may specify a biological tissue region existing in the first pathology slide image to the Nth pathology slide image ( S121 ).
  • a method for the neural network learning system 100 to specify a biological tissue region from an image may vary.
  • the neural network learning system 100 may specify a biological tissue region by using the corresponding information.
  • the neural network learning system 100 may specify a biological tissue region by using a pre-learned neural network for determining the biological tissue region.
  • the biological tissue region may be specified through various known methods.
  • the neural network learning system 100 matches the first pathological slide to the Nth pathological slide image so that the position and shape between the biological tissue regions present in each of the first pathological slide to the Nth pathological slide image are matched. It can be done (S122).
  • Image registration is a technique used in the field, and refers to a processing technique that transforms different images and displays them in one coordinate system.
  • the method of matching the two images may include a method of transforming so that the contour of the tissue region included in the image is as similar as possible, or a method of transforming the feature points within the tissue region so that the feature points within the tissue region match as much as possible.
  • SIFT Scale-Invariant Feature
  • a matching algorithm based on the similarity between two images measured through Transform), Sum of Squared Difference (SSD), Sum of Absolute Difference (SAD), Normalized Cross Correlation (NCC), etc. may be used.
  • the transformation relation corresponding to the ith pathology slide image is a transformation relation between the ith pathology slide image and the matched slide image with the ith pathology corresponding thereto.
  • the neural network learning system 100 converts the matched first pathological slide image to the registered Nth pathological slide image into one multi-channel image through channel stacking. can be done (S123), which is similar to that described above with reference to FIG. 3, and thus a detailed description thereof will be omitted.
  • a lesion region may be pre-annotated in each pathology slide image, and in this case, the pre-annotated lesion annotation region may be additionally included in the training data.
  • the m-th training data may further include the multi-channel lesion annotation region.
  • the neural network learning system 100 uses the information on the m-th learning data. It can be set as a label.
  • the neural network learning system 100 inputs the generated training data set as an input layer of the neural network 300 to the neural network (300) can be learned (S130 in FIG. 2).
  • the neural network learning method is similar to multiplex IHC by allowing multiple pathological slide images generated by using a widely used method to overlap and utilize instead of a high-cost, non-generalized method such as multiplex IHC.
  • FIG. 5 is a flowchart illustrating an example of a method for providing a determination result for a pathological specimen according to an embodiment of the present invention.
  • the method for providing a determination result for a pathological specimen according to FIG. 5 may be performed by the determination result providing system 200 , and the determination result providing system 200 is an artificial neural network learned by the neural network learning system 100 .
  • the network 300 may be stored.
  • the determination result providing system 200 may acquire a first determination target pathology slide image to an Nth determination target pathology slide image of a predetermined determination target pathology specimen ( S210 ).
  • the first judgment target pathology slide image to the Nth judgment target pathology slide image is a pathology slide image in which serial sections of the judgment target pathology sample are stained with different staining reagents.
  • the determination result providing system 200 may generate input data based on the first pathology slide image to the Nth pathology slide image of the determination target sample ( S220 ). Since the process of generating input data corresponding to the first pathological slide image to the Nth pathological slide image of the target sample is very similar to the process described with reference to FIGS. 3 to 4, a separate description will be omitted.
  • the determination result providing system 200 may input input data to the artificial neural network 300 and output a determination result for the pathological sample to be determined based on the result output by the artificial neural network (S230). ).
  • FIG. 6 is a diagram illustrating a schematic configuration of an artificial neural network learning system 100 according to an embodiment of the present invention
  • FIG. 7 is a schematic configuration of a determination result providing system 200 according to an embodiment of the present invention. is a diagram showing
  • the artificial neural network learning system 100 and the determination result providing system 200 may mean a logical configuration having hardware resources and/or software necessary to implement the technical idea of the present invention, and must be It does not mean a single physical component or a single device. That is, the artificial neural network learning system 100 and the determination result providing system 200 may mean a logical combination of hardware and/or software provided to implement the technical idea of the present invention, and if necessary, each other It may be implemented as a set of logical configurations for implementing the technical idea of the present invention by being installed in spaced devices to perform respective functions. In addition, the artificial neural network learning system 100 and the determination result providing system 200 may refer to a set of components separately implemented for each function or role for implementing the technical idea of the present invention.
  • Each component of the artificial neural network learning system 100 and the determination result providing system 200 may be located in different physical devices or may be located in the same physical device.
  • the combination of software and/or hardware constituting each of the components of the artificial neural network learning system 100 and the determination result providing system 200 is also located in different physical devices, and different physical devices The components located in the may be organically combined with each other to implement each of the modules.
  • a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware.
  • the module may mean a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and does not necessarily mean physically connected code or one type of hardware. can be easily inferred to an average expert in the technical field of the present invention.
  • the artificial neural network learning system 100 may include a storage module 110 , an acquisition module 120 , a generation module 130 , and a learning module 140 .
  • the artificial neural network learning system 100 may include more components than this, of course.
  • the artificial neural network learning system 100 includes a communication module (not shown) for communicating with an external device, and a control module (not shown) for controlling components and resources of the artificial neural network learning system 100 . may further include.
  • the storage module 110 may store the artificial neural network 40 to be learned.
  • the acquisition module 120 may acquire images of the first pathology slide to the Nth pathology slide obtained by staining consecutive sections for each single pathological specimen with different staining reagents.
  • the generating module 130 may generate individual learning data based on the first pathological slide to the Nth pathological slide image, and may constitute a learning data set including a plurality of individual learning data.
  • the learning module 140 may learn the artificial neural network 300 based on the training data set.
  • the determination result providing system 200 may include a storage module 210 , an acquisition module 220 , a generation module 230 , and a determination module 240 .
  • some of the above-described components may not necessarily correspond to the components essential for the implementation of the present invention, and also according to the embodiment, the determination result providing system 200 Of course, it may include more components than this.
  • the determination result providing system 200 includes a communication module (not shown) for communicating with the triaxial vibration sensor 20 , and a control module for controlling components and resources of the determination result providing system 200 . (not shown) may be further included.
  • the storage module 210 may store the learned artificial neural network 40 .
  • the acquisition module 220 may acquire a first judgment target pathology slide image to an Nth judgment target pathology slide image in which serial sections of a predetermined judgment target pathology specimen are stained with different staining reagents.
  • the generating module 230 may generate input data based on the first judgment target pathology slide to the Nth judgment target pathology slide image.
  • the determination module 240 may input the input data into the artificial neural network and determine the object to be determined based on the predicted value output from the artificial neural network 40 .
  • the artificial neural network learning system 100 and the determination result providing system 200 may include a processor and a memory for storing a program executed by the processor.
  • the processor may include a single-core CPU or a multi-core CPU.
  • the memory may include high-speed random access memory and may include non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid-state memory devices. Access to memory by the processor and other components may be controlled by a memory controller.
  • the method according to the embodiment of the present invention may be implemented in the form of a computer-readable program command and stored in a computer-readable recording medium, and the control program and the target program according to the embodiment of the present invention are also implemented in the computer. It may be stored in a readable recording medium.
  • the computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored.
  • the program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the software field.
  • Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and floppy disks. hardware devices specially configured to store and execute program instructions, such as magneto-optical media and ROM, RAM, flash memory, and the like.
  • the computer-readable recording medium is distributed in a computer system connected through a network, so that the computer-readable code can be stored and executed in a distributed manner.
  • Examples of the program instruction include not only machine code such as generated by a compiler, but also a device for electronically processing information using an interpreter or the like, for example, a high-level language code that can be executed by a computer.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
  • the present invention can be applied to a method for learning an artificial neural network that provides a judgment result for a pathological specimen, and a computing system for performing the same.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biotechnology (AREA)
  • Evolutionary Biology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Bioethics (AREA)

Abstract

단일 검체에 대한 연속된 섹션들(serial sections) 각각을 서로 다른 다양한 염색 시약으로 염색한 병리 슬라이드들을 이용하여 인공 뉴럴 네트워크를 학습함으로써, 질병에 대한 정확도 높은 판단을 수행할 수 있도록 하는 방법 및 이를 수행하는 컴퓨팅 시스템이 개시된다. 본 발명의 일 측면에 따르면, 인공 뉴럴 네트워크를 학습하는 방법으로서, 뉴럴 네트워크 학습 시스템이, M개의 개별 학습 데이터(여기서, M은 2 이상의 자연수)를 포함하는 학습 데이터 세트를 생성하는 단계 및 상기 뉴럴 네트워크 학습 시스템이, 상기 학습 데이터 세트에 기초하여 상기 인공 뉴럴 네트워크를 학습하는 단계를 포함하되, 상기 M개의 개별 학습 데이터를 포함하는 학습 데이터 세트를 생성하는 단계는, 1<=m<=M인 모든 m에 대하여, 상기 학습 데이터 세트에 포함될 제m학습 데이터를 생성하는 단계를 포함하고, 상기 제m학습 데이터를 생성하는 단계는, 제1 병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지(여기서, N은 2 이상의 자연수)를 획득하는 단계-여기서, 상기 제1병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지는, 단일 병리 검체에 대한 연속된 섹션(serial section)을 서로 다른 염색 시약으로 염색한 병리 슬라이드 이미지임, 및 상기 제1 병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계를 포함하는 인공 뉴럴 네트워크 학습 방법이 제공된다.

Description

병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템
본 발명은 병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템에 관한 것이다. 보다 상세하게는 단일 검체에 대한 연속된 섹션들(serial sections) 각각을 서로 다른 다양한 염색 시약으로 염색한 병리 슬라이드들을 이용하여 인공 뉴럴 네트워크를 학습함으로써, 질병에 대한 정확도 높은 판단을 수행할 수 있도록 하는 방법 및 이를 수행하는 컴퓨팅 시스템에 관한 것이다.
종양 주변에서 종양 세포들과 상호작용하며 종양의 증식에 영향을 주는 이웃 세포들을 종양미세환경이라고 한다. 종양미세환경에 대한 연구는 암의 현재 상태에 대한 진단, 예후, 그리고 특정 치료 방법에 대한 반응성을 파악하고 새로운 치료 방법을 개발하는데 있어서 매우 중요하다.
종전에는 종양미세환경의 분석을 위해 종양미세환경 내에 존재할 것으로 예상되는 특정 면역 세포들 또는 단백질들을 표적으로 하는 면역조직화학(immunohistochemistry; 이하 IHC) 염색 시약을 활용하였다. 즉, 특정 표적에 대한 IHC 염색 시약으로 병리 검체를 염색하고 염색 결과를 병리 전문의가 광학 현미경을 통해 육안으로 판독하여 표적들의 위치 관계를 파악하고 양을 계량하는 과정을 수행하였다. 이때 다양한 면역 세포 또는 단백질들을 복합적으로 보고 판단해야 하므로, 단일 검체에 대한 연속된 섹션들 (serial sections)로 이루어진 다수의 슬라이드들을 제작하고, 각각을 H&E 및 다양한 표적 IHC 염색 시약으로 염색을 한 후 그 결과를 각각 병리 전문의가 판독한 뒤 판독 결과를 종합하였다. 종양 미세환경을 구성하는 다양한 요소들의 위치 관계가 중요하므로 이러한 방식의 분석에는 한계가 존재하며, 이러한 한계를 넘어서고자 다양한 표적을 한꺼번에 염색하는 multiplex IHC 방식의 염색 방법이 등장하였으나 이는 비용이 저렴하지 않고 일반화되지 않았다.
한편, 딥러닝, 특히 합성곱신경망(convolutional neural network; CNN)을 사용한 병리 슬라이드 이미지 분석을 통해 암의 현재 상태에 대한 진단, 중증도 구분을 통한 예후, 특정 IHC 염색 결과에 대한 계측 등을 수행하는 기술이 개발되고 상용화되고 있다. 현재 개발된 기술들은 단일 염색 병리 슬라이드 이미지를 대상으로 하며 분석 결과는 특정 분류나 수치 형태로 제공되므로, 이를 간단히 조합하여 종양미세환경에 대해 위치 관계를 포함하여 파악하는 것은 쉽지 않다. 예를 들어, 기존 특허 (JP6650453B2)에 따르면 암의 예후를 위해 연속된 섹션들로 구성된 슬라이드 이미지를 활용하나 각 슬라이드 이미지를 별도로 분석한 결과 스코어를 종합하여 예후를 판별하며, 모든 슬라이드 이미지의 위치 관계를 종합한 분석을 수행하지 않는다.
따라서, multiplex IHC 방법을 사용하지 않으면서도 종양미세환경을 분석할 수 있도록 단일 검체에 대한 연속된 섹션들로 이루어진 다종 염색 슬라이드들을 위치 관계를 포함하여 종합적으로 분석할 수 있도록 하는 기술적 사상이 요구된다.
* 선행기술문헌
- 특허문헌
일본등록공보 JP6650453 B2
본 발명이 이루고자 하는 기술적인 과제는 단일 검체에 대한 연속된 섹션들(serial sections) 각각을 H&E나 다양한 표적 IHC 염색 시약 등으로 염색한 병리 슬라이드들을 활용하여 인공 뉴럴 네트워크를 학습함으로써, 학습된 인공 뉴럴 네트워크가 종양미세환경을 종합적으로 분석할 수 있도록 함으로써 암의 현재 상태에 대한 진단, 예후 및 특정 치료 방법에 대한 반응성을 높은 정확도로 파악할 수 있도록 하는 방법 및 시스템을 제공하는 것이다.
본 발명의 일 측면에 따르면, 인공 뉴럴 네트워크를 학습하는 방법으로서,
뉴럴 네트워크 학습 시스템이, M개의 개별 학습 데이터(여기서, M은 2 이상의 자연수)를 포함하는 학습 데이터 세트를 생성하는 단계; 및 상기 뉴럴 네트워크 학습 시스템이, 상기 학습 데이터 세트에 기초하여 상기 인공 뉴럴 네트워크를 학습하는 단계를 포함하되, 상기 M개의 개별 학습 데이터를 포함하는 학습 데이터 세트를 생성하는 단계는, 1<=m<=M인 모든 m에 대하여, 상기 학습 데이터 세트에 포함될 제m학습 데이터를 생성하는 단계를 포함하고, 상기 제m학습 데이터를 생성하는 단계는, 제1 병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지(여기서, N은 2 이상의 자연수)를 획득하는 단계-여기서, 상기 제1병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지는, 단일 병리 검체에 대한 연속된 섹션(serial section)을 서로 다른 염색 시약으로 염색한 병리 슬라이드 이미지임; 및 상기 제1 병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계를 포함하는 인공 뉴럴 네트워크 학습 방법이 제공된다.
일 실시예에서, 상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계는, 상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지를 채널 중첩(channel stacking)을 통해 하나의 다채널 이미지로 변환하는 단계를 포함하고, 상기 제m학습 데이터는 상기 다채널 이미지를 포함할 수 있다.
일 실시예에서, 상기 학습 데이터는 N개의 채널을 포함하며, 상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지를 채널 중첩(channel stacking)을 통해 하나의 다채널 이미지로 변환하는 단계는 1<=n<=N인 모든 자연수 n에 대하여, 제n병리 슬라이드 이미지의 각 픽셀 값으로 상기 다채널 이미지의 제n채널을 구성하는 단계를 포함할 수 있다.
일 실시예에서, 상기 제1 병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계는, 상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지 내에 존재하는 생체 조직 영역을 특정하는 단계; 상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지 각각에 존재하는 생체 조직 영역 간의 위치 및 형태가 일치하도록 상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지를 정합하는 단계; 및 상기 정합된 제1병리 슬라이드 이미지 내지 상기 정합된 제N병리 슬라이드 이미지를 채널 중첩(channel stacking)을 통해 하나의 다채널 이미지로 변환하는 단계를 포함하고, 상기 제m학습 데이터는 상기 다채널 이미지를 포함할 수 있다.
일 실시예에서, 상기 학습 데이터는 N개의 채널을 포함하며, 상기 정합된 제1병리 슬라이드 이미지 내지 상기 정합된 제N병리 슬라이드 이미지를 채널 중첩(channel stacking)을 통해 하나의 다채널 이미지로 변환하는 단계는 1<=n<=N인 모든 자연수 n에 대하여, 정합된 제n병리 슬라이드 이미지의 각 픽셀 값으로 상기 다채널 이미지의 제n채널을 구성하는 단계를 포함할 수 있다.
일 실시예에서, 상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지 각각에 존재하는 생체 조직 영역 간의 위치 및 형태가 일치하도록 상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지를 정합하는 단계는, 1<=i<=N인 모든 자연수 i에 대하여, 제i병리 슬라이드 이미지에 상응하는 변환 관계를 산출하는 단계를 포함하고(여기서, 상기 제i병리 슬라이드 이미지에 상응하는 변환 관계는, 상기 제i병리 슬라이드 이미지와 그에 대응되는 정합된 제i병리 슬라이드 이미지 간의 변환 관계임), 상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계는, 1<=j<=N인 모든 자연수 j에 대하여, 제j병리 슬라이드 이미지에 부여된 병변 어노테이션 영역을 상기 제j병리 슬라이드 이미지에 상응하는 변환 관계를 이용하여 변형하는 단계; 및 상기 변형된 제1병리 슬라이드 이미지의 병변 어노테이션 영역 내지 상기 변형된 제N병리 슬라이드 이미지의 병변 어노테이션 영역을 채널 중첩(channel stacking)을 통해 하나의 다채널 병변 어노테이션 영역으로 변환하는 단계를 더 포함하고, 상기 제m학습 데이터는 상기 다채널 병변 어노테이션 영역을 더 포함할 수 있다.
본 발명의 다른 일 측면에 따르면, 상술한 인공 뉴럴 네트워크 학습 방법에 의해 학습된 인공 뉴럴 네트워크를 통해 소정의 판단 대상 병리 검체에 대한 판단 결과를 제공하는 방법으로서, 컴퓨팅 시스템이, 제1판단 대상 병리 슬라이드 이미지 내지 제N판단 대상 병리 슬라이드 이미지(여기서, N은 2 이상의 자연수)를 획득하는 단계-여기서, 상기 제1판단 대상 병리 슬라이드 이미지 내지 상기 제N판단 대상 병리 슬라이드 이미지는, 상기 판단 대상 병리 검체에 대한 연속된 섹션(serial section)을 서로 다른 염색 시약으로 염색한 병리 슬라이드 이미지임; 상기 컴퓨팅 시스템이, 상기 인공 뉴럴 네트워크가 상기 제1판단 대상 병리 슬라이드 이미지 내지 상기 제N판단 대상 병리 슬라이드 이미지에 기초하여 판단한 상기 판단 대상 병리 검체에 대한 판단 결과를 출력하는 단계를 포함하는 방법이 제공된다.
본 발명의 다른 일 측면에 따르면, 데이터 처리장치에 설치되며 상술한 방법을 수행하기 위한 매체에 기록된 컴퓨터 프로그램이 제공된다.
본 발명의 다른 일 측면에 따르면, 상술한 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체가 제공된다.
본 발명의 다른 일 측면에 따르면, 인공 뉴럴 네트워크 학습 시스템으로서, 프로세서; 및 컴퓨터 프로그램을 저장하는 메모리를 포함하고, 상기 컴퓨터 프로그램은, 상기 프로세서에 의해 실행되는 경우, 상기 컴퓨팅 시스템으로 하여금 인공 뉴럴 네트워크를 학습하는 방법을 수행하도록 하며, 상기 인공 뉴럴 네트워크 학습 시스템은, 뉴럴 네트워크 학습 시스템이, M개의 개별 학습 데이터(여기서, M은 2 이상의 자연수)를 포함하는 학습 데이터 세트를 생성하는 단계; 및 상기 뉴럴 네트워크 학습 시스템이, 상기 학습 데이터 세트에 기초하여 상기 인공 뉴럴 네트워크를 학습하는 단계를 포함하되, 상기 M개의 개별 학습 데이터를 포함하는 학습 데이터 세트를 생성하는 단계는, 1<=m<=M인 모든 m에 대하여, 상기 학습 데이터 세트에 포함될 제m학습 데이터를 생성하는 단계를 포함하고, 상기 제m학습 데이터를 생성하는 단계는, 제1 병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지(여기서, N은 2 이상의 자연수)를 획득하는 단계-여기서, 상기 제1병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지는, 단일 병리 검체에 대한 연속된 섹션(serial section)을 서로 다른 염색 시약으로 염색한 병리 슬라이드 이미지임;
상기 제1 병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계를 포함하는 인공 뉴럴 네트워크 학습 시스템이 제공된다.
본 발명의 다른 일 측면에 따르면, 프로세서; 및 컴퓨터 프로그램을 저장하는 메모리를 포함하고, 상기 컴퓨터 프로그램은, 상기 프로세서에 의해 실행되는 경우, 상기 컴퓨팅 시스템으로 하여금 상술한 인공 뉴럴 네트워크 학습 방법에 의해 학습된 인공 뉴럴 네트워크를 통해 병리 검체에 대한 판단 결과를 제공하는 방법을 수행하도록 하며, 상기 판단 결과를 제공하는 방법은, 제1판단 대상 병리 슬라이드 이미지 내지 제N판단 대상 병리 슬라이드 이미지(여기서, N은 2 이상의 자연수)를 획득하는 단계-여기서, 상기 제1판단 대상 병리 슬라이드 이미지 내지 상기 제N판단 대상 병리 슬라이드 이미지는, 소정의 판단 대상 병리 검체에 대한 연속된 섹션(serial section)을 서로 다른 염색 시약으로 염색한 병리 슬라이드 이미지임; 상기 인공 뉴럴 네트워크가 상기 제1판단 대상 병리 슬라이드 이미지 내지 상기 제N판단 대상 병리 슬라이드 이미지에 기초하여 판단한 상기 판단 대상 병리 검체에 대한 판단 결과를 출력하는 단계를 포함하는 병리 검체에 대한 판단 결과 제공 시스템이 제공된다.
본 발명의 기술적 사상에 의하면, 단일 검체에 대한 연속된 섹션들 각각을 H&E나 다양한 표적 IHC 염색 시약 등으로 염색한 병리 슬라이드들을 활용하여 인공 뉴럴 네트워크를 학습함으로써, 학습된 인공 뉴럴 네트워크가 종양미세환경을 종합적으로 분석할 수 있도록 함으로써 암의 현재 상태에 대한 진단, 예후 및 특정 치료 방법에 대한 반응성을 높은 정확도로 파악할 수 있도록 하는 방법 및 시스템을 제공할 수 있다.
또한 본 발명의 기술적 사상에 의하면, multiplex IHC와 같은 고비용의 일반화되지 않은 방법 대신 널리 사용되고 있는 방법을 활용하여 생성한 여러 장의 병리 슬라이드 이미지를 중첩하여 활용할 수 있도록 함으로써 multiplex IHC와 유사한 효과를 얻을 수 있으며, 또한 multiplex IHC 결과를 색상 필터링을 통해 표적 별로 위치 정보를 분리하는 과정에서 발생할 수 있는 오류 가능성을 차단함으로써 종양미세환경 분석의 정확도를 높일 수 있게 되는 효과가 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 기술적 사상에 따른 인공 뉴럴 네트워크 학습 방법 및 병리 검체에 대한 판단 결과 제공 방법이 수행되는 환경을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 뉴럴 네트워크 학습 방법을 설명하기 위한 흐름도이다.
도 3은 채널 중첩을 통해 RGB 색모델로 표현되는 복수의 병리 슬라이드 이미지에 의해 생성되는 하나의 다채널 이미지를 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 개별 학습 데이터를 생성하는 과정의 일 예를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 병리 검체에 대한 판단 결과 제공 방법의 일 예를 도시한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 인공 뉴럴 네트워크 학습 시스템의 개략적인 구성을 도시한 도면이며, 도 7은 발명의 일 실시예에 따른 판단 결과 제공 시스템의 개략적인 구성을 도시한 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 제1, 제2 등의 용어는 특별한 순서를 나타내는 것이 아니며, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 명세서에 있어서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다. 반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 중심으로 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 기술적 사상에 따른 인공 뉴럴 네트워크 학습 방법 및 병리 검체에 대한 판단 결과 제공 방법이 수행되는 환경을 개략적으로 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 인공 뉴럴 네트워크 학습 방법은 뉴럴 네트워크 학습 시스템(100)에 의해 수행될 수 있으며, 본 발명의 일 실시예에 따른 병리 검체에 대한 판단 결과 제공 방법은 병리 검체에 대한 판단 결과 제공 시스템(200; 이하, '판단 결과 제공 시스템'이라고 함)에 의해 수행될 수 있다. 상기 뉴럴 네트워크 학습 시스템(100)은 병리 검체에 대한 진단 정보, 예후 정보 및/또는 치료 방법에 대한 반응 정보를 제공하기 위한 인공 뉴럴 네트워크(300)를 학습할 수 있으며, 상기 판단 결과 제공 시스템(200)은 학습된 인공 뉴럴 네트워크(300)를 이용하여 대상 검체에 대한 각종 판단(예를 들어, 질병 발현 유무, 예후, 치료 방법에 대한 판단 등)을 할 수 있다.
상기 뉴럴 네트워크 학습 시스템(100) 및/또는 상기 판단 결과 제공 시스템(200)은 본 발명의 기술적 사상을 구현하기 위한 연산능력을 가진 데이터 처리장치인 컴퓨팅 시스템일 수 있으며, 일반적으로 네트워크를 통해 클라이언트가 접속 가능한 데이터 처리 장치인 서버뿐만 아니라 개인용 컴퓨터나 휴대 단말 등과 같은 컴퓨팅 장치를 포함할 수 있다.
상기 뉴럴 네트워크 학습 시스템(100) 및/또는 상기 판단 결과 제공 시스템(200)은 어느 하나의 물리적 장치로 구현될 수도 있으나, 필요에 따라 복수의 물리적 장치가 유기적으로 결합되어 본 발명의 기술적 사상에 따른 상기 뉴럴 네트워크 학습 시스템(100) 및/또는 상기 판단 결과 제공 시스템(200)을 구현할 수 있음을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.
상기 뉴럴 네트워크 학습 시스템(100)은 다수의 병리 검체로부터 생성된 학습 데이터에 기반하여 상기 뉴럴 네트워크(300)를 학습할 수 있다.
병리 검체는 인체의 각종 장기에서 채취한 생검 및 수술로 절제된 생체 조직일 수 있다. 상기 뉴럴 네트워크 학습 시스템(100)은 병리 검체의 연속된 섹션(serial section)의 디지털 병리 슬라이드 이미지를 이용하여 개별 학습 데이터를 생성하고, 이를 상기 뉴럴 네트워크(300)의 입력 레이어에 입력하여 상기 뉴럴 네트워크(300)를 학습할 수 있다.
일 실시예에서, 상기 뉴럴 네트워크(300)는 소정의 질병에 대해 질병의 발현여부에 대한 확률 값을 출력하도록 학습된 인공 뉴럴 네트워크일 수 있다. 상기 뉴럴 네트워크(300)는 입력 레이어를 통해 입력된 데이터에 기초하여 대상 검체에 대한 판단 결과(예를 들어, 질병의 발현여부의 가능성)를 나타내는 수치 값 즉, 확률 값을 출력할 수 있다.
본 명세서에서 인공 뉴럴 네트워크는 인간의 뉴런의 동작 원리에 기초하여 인공적으로 구축한 뉴럴 네트워크로서, 다층 퍼셉트론 모델을 포함하며, 인공 뉴럴 네트워크를 정의하는 일련의 설계사항들을 표현하는 정보의 집합을 의미할 수 있다.
일 실시예에서, 상기 인공 뉴럴 네트워크는 컨볼루셔널 뉴럴 네트워크이거나 혹은 컨볼루셔널 뉴럴 네트워크를 포함할 수 있다.
한편, 학습된 뉴럴 네트워크(300)는 상기 판단 결과 제공 시스템(200)에 저장될 수 있으며, 상기 판단 결과 제공 시스템(200) 학습된 인공 뉴럴 네트워크를 이용하여 소정의 진단 대상 검체에 대한 판단을 할 수 있다.
도 1에 도시된 바와 같이, 상기 뉴럴 네트워크 학습 시스템(100) 및/또는 상기 판단 결과 제공 시스템(200)은 소정의 모(母) 시스템(10)의 서브 시스템의 형태로 구현될 수도 있다. 상기 모 시스템(10)은 서버일 수 있다. 상기 서버(10)는 본 발명의 기술적 사상을 구현하기 위한 연산능력을 가진 데이터 처리장치를 의미하며, 일반적으로 네트워크를 통해 클라이언트가 접속 가능한 데이터 처리장치뿐만 아니라 개인용 컴퓨터, 휴대 단말 등과 같이 특정 서비스를 수행할 수 있는 어떠한 장치도 서버로 정의될 수 있음을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.
또는 실시예에 따라, 상기 뉴럴 네트워크 학습 시스템(100) 및 상기 판단 결과 제공 시스템(200)은 서로 분리된 형태로 구현될 수도 있다.
도 2는 본 발명의 일 실시예에 따른 뉴럴 네트워크 학습 방법을 설명하기 위한 흐름도이다.
도 2를 참조하면, 뉴럴 네트워크 학습 시스템(100)은 M개의 개별 학습 데이터(여기서, M은 2 이상의 자연수)를 포함하는 학습 데이터 세트를 생성할 수 있다. 이를 위하여 상기 뉴럴 네트워크 학습 시스템(100)은, 1<=m<=M인 모든 m에 대하여, 상기 학습 데이터 세트에 포함될 제m학습 데이터를 생성할 수 있다(S100).
학습 데이터 세트에 포함될 제m학습 데이터를 생성하기 위하여, 상기 뉴럴 네트워크 학습 시스템(100)은 제1 병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지(여기서, N은 2 이상의 자연수)를 획득할 수 있다(S110).
이때, 상기 제1병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지는, 단일 병리 검체에 대한 연속된 섹션(serial section)을 서로 다른 염색 시약으로 염색한 병리 슬라이드 이미지일 수 있다.
병리 검체의 각 섹션은 디지털 슬라이드 이미지를 제작하기 위하여 병리 검체를 슬라이스한 일부일 수 있으며, 병리 검체를 연속적으로 슬라이스하여 다수의 유리 슬라이드를 제작한 후 이들을 각각 서로 다른 염색 시약으로 염색하고 디지털화함으로써, 상기 제1병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지가 생성될 수 있다. 이때, 염색 시약은 H&E(Hematoxylin and Eosin) 염색을 위한 시약 혹은 특정 표적을 IHC(immunohistochemistry) 염색하기 위한 시약일 수 있다.
예를 들어, 하나의 병리 검체를 연속적으로 슬라이스하고, 슬라이스된 각 섹션을 차례로 H&E 염색 시약, 제1 IHC 염색 시약, 제2 IHC 염색 시약 등으로 염색하여 유리 슬라이드를 제작한 후 이를 디지털 이미지화하여 해당 병리 검체에 상응하는 복수의 병리 슬라이드 이미지를 생성할 수 있다.
실시예에 따라, 상기 뉴럴 네트워크 학습 시스템(100)은 외부의 단말로부터 소정의 병리 검체에 상응하는 제1병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지를 수신할 수 있으며, 병리 검체에 상응하는 제1병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지를 미리 저장하고 있는 메모리 장치로부터 상기 제1병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지를 획득할 수도 있다.
한편, 상기 뉴럴 네트워크 학습 시스템(100)은 상기 제1 병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성할 수 있다(S120).
일 실시예에서, 상기 뉴럴 네트워크 학습 시스템(100)은 채널 중첩 방식을 통해 제m학습 데이터를 생성할 수 있다. 즉, 상기 뉴럴 네트워크 학습 시스템(100)은 상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지를 채널 중첩(channel stacking)을 통해 하나의 다채널 이미지로 변환할 수 있으며, 상기 제m학습 데이터는 상기 다채널 이미지를 포함할 수 있다.
도 3은 채널 중첩을 통해 RGB 색모델로 표현되는 복수의 병리 슬라이드 이미지에 의해 생성되는 하나의 다채널 이미지를 나타내는 도면이다. 도 3은 단일 병리 검체에서 추출된 4개의 연속된 섹션의 슬라이드 이미지를 다채널 이미지로 변환하는 경우를 도시하고 있다.
도 3을 참조하면, 다채널 이미지(20)는 슬라이드 이미지의 개수인 4와 각 슬라이드 이미지를 구성하는 채널의 개수인 3인 곱인 12개의 채널로 구성될 수 있으며, 제1채널(21-1)은 제1슬라이드 이미지의 각 픽셀의 R 채널 값으로 구성될 수 있으며, 제2채널(21-2)은 제1슬라이드 이미지의 각 픽셀의 G 채널 값으로 구성될 수 있으며, 제3채널(21-3)은 제1슬라이드 이미지의 각 픽셀의 B 채널 값으로 구성될 수 있으며,
제1채널(21-1)은 제1슬라이드 이미지의 각 픽셀의 R 채널 값으로 구성될 수 있으며, 제2채널(21-2)은 제1슬라이드 이미지의 각 픽셀의 G 채널 값으로 구성될 수 있으며, 제3채널(21-3)은 제1슬라이드 이미지의 각 픽셀의 B 채널 값으로 구성될 수 있으며, 제4채널(22-1)은 제2슬라이드 이미지의 각 픽셀의 R 채널 값으로 구성될 수 있으며, 제5채널(22-2)은 제2슬라이드 이미지의 각 픽셀의 G 채널 값으로 구성될 수 있으며, 제6채널(22-3)은 제2슬라이드 이미지의 각 픽셀의 B 채널 값으로 구성될 수 있으며, 제7채널(23-1)은 제3슬라이드 이미지의 각 픽셀의 R 채널 값으로 구성될 수 있으며, 제8채널(23-2)은 제3슬라이드 이미지의 각 픽셀의 G 채널 값으로 구성될 수 있으며, 제9채널(23-3)은 제1슬라이드 이미지의 각 픽셀의 B 채널 값으로 구성될 수 있으며, 제10채널(24-1)은 제4슬라이드 이미지의 각 픽셀의 R 채널 값으로 구성될 수 있으며, 제11채널(24-2)은 제4슬라이드 이미지의 각 픽셀의 G 채널 값으로 구성될 수 있으며, 제12채널(24-3)은 제4슬라이드 이미지의 각 픽셀의 B 채널 값으로 구성될 수 있다.
한편, 단일 병리 검체에서 추출된 각 병리 슬라이드 이미지는 해당 슬라이드 이미지를 제작하는 과정에서 위치나 방향이 조금씩 어긋날 수 있다. 이 경우 각 병리 슬라이드 이미지의 채널 중첩을 수행하기 전에 각 병리 슬라이드 이미지를 정합하는 과정이 수행되어야 할 수 있는데, 이 경우의 흐름도가 도 4에 도시되어 있다.
도 4를 참조하면, 상기 뉴럴 네트워크 학습 시스템(100)은 상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지 내에 존재하는 생체 조직 영역을 특정할 수 있다(S121).
상기 뉴럴 네트워크 학습 시스템(100)이 이미지로부터 생체 조직 영역을 특정하는 방법은 다양할 수 있다. 일 실시예에서, 상기 뉴럴 네트워크 학습 시스템(100)은 슬라이드 이미지에 생체 조직 영역에 대한 정보가 미리 어노테이션되어 있는 경우 해당 정보를 이용하여 생체 조직 영역을 특정할 수 있다. 또는 상기 뉴럴 네트워크 학습 시스템(100)은 미리 학습된 생체 조직 영역 판단용 뉴럴 네트워크를 이용하여 생체 조직 영역을 특정할 수도 있다. 또는 알려진 다양한 방법을 통해 생체 조직 영역을 특정할 수 있다.
한편 상기 뉴럴 네트워크 학습 시스템(100)은 상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지 각각에 존재하는 생체 조직 영역 간의 위치 및 형태가 일치하도록 상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지를 정합할 수 있다(S122). 일 실시예에서, 상기 뉴럴 네트워크 학습 시스템(100)은, 2<=j<=N인 모든 자연수 j에 대하여, 제(j-1)병리 슬라이드 이미지 내의 생체 조직 영역과 제j병리 슬라이드 이미지 내의 생체 조직 영역 간의 위치 및 형태가 일치하도록 제(j-1)병리 슬라이드 이미지와 제j병리 슬라이드 이미지를 정합하는 과정을 반복 수행할 수 있다.
이미지 정합은 분야에서 활용되는 기법으로서, 서로 다른 영상을 변형하여 하나의 좌표계에 나타내는 처리기법을 의미한다. 두 이미지를 정합하는 방법은 해당 이미지에 포함된 조직 영역의 컨투어가 최대한 유사하게 되도록 변환하는 방법 또는 조직 영역 내의 특징점이 최대한 일치하도록 변환하는 방법 등이 있을 수 있으며, 구체적으로 SIFT(Scale-Invariant Feature Transform)나 SSD(Sum of Squared Difference), SAD(Sum of Absolute Difference), NCC(Normalized Cross Correlation) 등을 통해 측정되는 두 이미지 간의 유사도에 기반한 정합 알고리즘이 이용될 수 있다.
한편, 제1병리 슬라이드 이미지 내지 상기 정합된 제N병리 슬라이드 이미지를 정합하는 과정에서, 정합되는 각 병리 슬라이드 간의 변환 관계가 산출될 수 있다. 즉, 상기 뉴럴 네트워크 학습 시스템(100)은, 1<=i<=N인 모든 자연수 i에 대하여, 제i병리 슬라이드 이미지에 상응하는 변환 관계를 산출할 수 있다. 여기서, 상기 제i병리 슬라이드 이미지에 상응하는 변환 관계는, 상기 제i병리 슬라이드 이미지와 그에 대응되는 정합된 제i병리 슬라이드 이미지 간의 변환 관계이다.
계속해서 도 4를 참조하면, 상기 뉴럴 네트워크 학습 시스템(100)은 상기 정합된 제1병리 슬라이드 이미지 내지 상기 정합된 제N병리 슬라이드 이미지를 채널 중첩(channel stacking)을 통해 하나의 다채널 이미지로 변환할 수 있으며(S123), 이는 도 3을 참조하여 앞서 설명한 바와 유사하므로 자세한 설명은 생략하기로 한다.
일 실시예에서, 각 병리 슬라이드 이미지에는 병변 영역이 미리 어노테이션되어 있을 수 있으며, 이러한 경우 미리 어노테이션된 병변 어노테이션 영역이 학습 데이터에 추가적으로 포함될 수 있다.
이에 대하여 보다 상세하게 설명하면, 상기 뉴럴 네트워크 학습 시스템(100)은 1<=j<=N인 모든 자연수 j에 대하여, 제j병리 슬라이드 이미지에 부여된 병변 어노테이션 영역을 상기 제j병리 슬라이드 이미지에 상응하는 변환 관계를 이용하여 변형하고, 상기 변형된 제1병리 슬라이드 이미지의 병변 어노테이션 영역 내지 상기 변형된 제N병리 슬라이드 이미지의 병변 어노테이션 영역을 채널 중첩을 통해 하나의 다채널 병변 어노테이션 영역으로 변환할 수 있으며, 상기 제m학습 데이터는 상기 다채널 병변 어노테이션 영역을 더 포함할 수 있다.
한편, 상기 제m학습 데이터에 상응하는 병리 검체에 대한 진단 정보, 예후 정보, 및/또는 특정 치료 방법에 대한 반응 정보가 존재하는 경우, 상기 뉴럴 네트워크 학습 시스템(100)은 이를 제m학습 데이터의 레이블로 설정할 수 있다.
위와 같은 방법을 통해 M개의 개별 학습 데이터를 포함하는 학습 데이터 세트가 생성되면, 상기 뉴럴 네트워크 학습 시스템(100)은 생성된 학습 데이터 세트를 상기 뉴럴 네트워크(300)의 입력 레이어로 입력하여 상기 뉴럴 네트워크(300)를 학습할 수 있다(도 2의 S130).
이와 같은 본 발명의 기술적 사상에 따른 뉴럴 네트워크 학습 방법은 multiplex IHC와 같은 고비용의 일반화되지 않은 방법 대신 널리 사용되고 있는 방법을 활용하여 생성한 여러 장의 병리 슬라이드 이미지를 중첩하여 활용할 수 있도록 함으로써 multiplex IHC와 유사한 효과를 얻을 수 있으며, 또한 multiplex IHC 결과를 색상 필터링을 통해 표적 별로 위치 정보를 분리하는 과정에서 발생할 수 있는 오류 가능성을 차단함으로써 종양미세환경 분석의 정확도를 높일 수 있게 되는 효과가 있다.
도 5는 본 발명의 일 실시예에 따른 병리 검체에 대한 판단 결과 제공 방법의 일 예를 도시한 흐름도이다. 도 5에 따른 병리 검체에 대한 판단 결과 제공 방법은 판단 결과 제공 시스템(200)에 의하여 수행될 수 있으며, 상기 판단 결과 제공 시스템(200)은 상기 뉴럴 네트워크 학습 시스템(100)에 의해 학습된 인공 뉴럴 네트워크(300)가 저장되어 있을 수 있다.
도 5를 참조하면, 상기 판단 결과 제공 시스템(200)은 소정의 판단 대상 병리 검체의 제1판단 대상 병리 슬라이드 이미지 내지 제N판단 대상 병리 슬라이드 이미지를 획득할 수 있다(S210). 이때, 상기 제1판단 대상 병리 슬라이드 이미지 내지 상기 제N판단 대상 병리 슬라이드 이미지는, 상기 판단 대상 병리 검체에 대한 연속된 섹션(serial section)을 서로 다른 염색 시약으로 염색한 병리 슬라이드 이미지이다.
상기 판단 결과 제공 시스템(200)은 판단 대상 검체의 제1 병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지에 기초하여 입력 데이터를 생성할 수 있다(S220). 상기 판단 대상 검체의 제1 병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지에 상응하는 입력 데이터를 생성하는 과정은 앞서 도 3 내지 도4를 참조하여 설명한 과정과 매우 유사하므로 별도의 설명은 생략하기로 한다.
상기 판단 결과 제공 시스템(200)은 상기 인공 뉴럴 네트워크(300)에 입력 데이터를 입력하고, 상기 인공 뉴럴 네트워크가 출력한 결과에 기초하여 상기 판단 대상 병리 검체에 대한 판단 결과를 출력할 수 있다(S230).
도 6은 본 발명의 일 실시예에 따른 인공 뉴럴 네트워크 학습 시스템(100)의 개략적인 구성을 도시한 도면이며, 도 7은 발명의 일 실시예에 따른 판단 결과 제공 시스템(200)의 개략적인 구성을 도시한 도면이다.
상기 인공 뉴럴 네트워크 학습 시스템(100) 및 판단 결과 제공 시스템(200)은 본 발명의 기술적 사상을 구현하기 위해 필요한 하드웨어 리소스(resource) 및/또는 소프트웨어를 구비한 논리적인 구성을 의미할 수 있으며, 반드시 하나의 물리적인 구성요소를 의미하거나 하나의 장치를 의미하는 것은 아니다. 즉, 상기 인공 뉴럴 네트워크 학습 시스템(100) 및 판단 결과 제공 시스템(200)은 본 발명의 기술적 사상을 구현하기 위해 구비되는 하드웨어 및/또는 소프트웨어의 논리적인 결합을 의미할 수 있으며, 필요한 경우에는 서로 이격된 장치에 설치되어 각각의 기능을 수행함으로써 본 발명의 기술적 사상을 구현하기 위한 논리적인 구성들의 집합으로 구현될 수도 있다. 또한, 상기 인공 뉴럴 네트워크 학습 시스템(100) 및 판단 결과 제공 시스템(200)은 본 발명의 기술적 사상을 구현하기 위한 각각의 기능 또는 역할별로 별도로 구현되는 구성들의 집합을 의미할 수도 있다. 인공 뉴럴 네트워크 학습 시스템(100) 및 판단 결과 제공 시스템(200)의 각 구성은 서로 다른 물리적 장치에 위치할 수도 있고, 동일한 물리적 장치에 위치할 수도 있다. 또한, 구현 예에 따라서는 상기 인공 뉴럴 네트워크 학습 시스템(100) 및 판단 결과 제공 시스템(200)의 구성 요소 각각을 구성하는 소프트웨어 및/또는 하드웨어의 결합 역시 서로 다른 물리적 장치에 위치하고, 서로 다른 물리적 장치에 위치한 구성들이 서로 유기적으로 결합되어 각각의 상기 모듈들을 구현할 수도 있다.
또한, 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스(resource)의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.
도 6을 참조하면, 상기 인공 뉴럴 네트워크 학습 시스템(100)은 저장모듈(110), 획득모듈(120), 생성모듈(130) 및 학습모듈(140)을 포함할 수 있다. 본 발명의 실시예에 따라서는, 상술한 구성요소들 중 일부 구성요소는 반드시 본 발명의 구현에 필수적으로 필요한 구성요소에 해당하지 않을 수도 있으며, 또한 실시예에 따라 상기 인공 뉴럴 네트워크 학습 시스템(100)은 이보다 더 많은 구성요소를 포함할 수도 있음은 물론이다. 예를 들어 상기 인공 뉴럴 네트워크 학습 시스템(100)은 외부 장치와 통신하기 위한 통신모듈(미도시), 상기 인공 뉴럴 네트워크 학습 시스템(100)의 구성요소 및 리소스를 제어하기 위한 제어모듈(미도시)을 더 포함할 수 있다.
상기 저장모듈(110)은 학습될 인공 뉴럴 네트워크(40)를 저장할 수 있다.
상기 획득모듈(120)은 각각의 단일 병리 검체에 대한 연속된 섹션을 서로 다른 염색 시약으로 염색한 제1병리 슬라이지 내지 제N병리 슬라이드 이미지를 획득할 수 있다.
상기 생성모듈(130)은 상기 제1병리 슬라이지 내지 상기 제N병리 슬라이드 이미지에 기초하여 개별 학습 데이터를 생성할 수 있으며, 복수의 개별 학습 데이터를 포함하는 학습 데이터 세트를 구성할 수 있다.
상기 학습모듈(140)은 상기 학습 데이터 세트에 기초하여 상기 인공 뉴럴 네트워크(300)를 학습할 수 있다.
도 7을 참조하면, 상기 판단 결과 제공 시스템(200)은 저장모듈(210), 획득모듈(220), 생성모듈(230) 및 판단모듈(240)을 포함할 수 있다. 본 발명의 실시예에 따라서는, 상술한 구성요소들 중 일부 구성요소는 반드시 본 발명의 구현에 필수적으로 필요한 구성요소에 해당하지 않을 수도 있으며, 또한 실시예에 따라 상기 판단 결과 제공 시스템(200) 은 이보다 더 많은 구성요소를 포함할 수도 있음은 물론이다. 예를 들어 상기 판단 결과 제공 시스템(200)은 상기 3축 진동 센서(20)와 통신하기 위한 통신모듈(미도시), 상기 판단 결과 제공 시스템(200)의 구성요소 및 리소스를 제어하기 위한 제어모듈(미도시)을 더 포함할 수 있다.
상기 저장모듈(210)은 학습된 인공 뉴럴 네트워크(40)를 저장할 수 있다.
상기 획득모듈(220)은 소정의 판단 대상 병리 검체의 연속된 섹션(serial section)을 서로 다른 염색 시약으로 염색한 제1판단 대상 병리 슬라이드 이미지 내지 제N판단 대상 병리 슬라이드 이미지를 획득할 수 있다.
상기 생성모듈(230)은 상기 제1판단 대상 병리 슬라이지 내지 상기 제N판단 대상 병리 슬라이드 이미지에 기초하여 입력 데이터를 생성할 수 있다.
상기 판단모듈(240)은 상기 입력 데이터를 상기 인공 뉴럴 네트워크에 입력하고, 상기 인공 뉴럴 네트워크(40)에서 출력되는 예측 값에 기초하여 상기 판단 대상 검체에 대한 판단을 수행할 수 있다.
한편, 구현 예에 따라서, 상기 인공 뉴럴 네트워크 학습 시스템(100) 및 판단 결과 제공 시스템(200)은 프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함할 수 있다. 상기 프로세서는 싱글 코어 CPU혹은 멀티 코어 CPU를 포함할 수 있다. 메모리는 고속 랜덤 액세스 메모리를 포함할 수 있고 하나 이상의 자기 디스크 저장 장치, 플래시 메모리 장치, 또는 기타 비휘발성 고체상태 메모리 장치와 같은 비휘발성 메모리를 포함할 수도 있다. 프로세서 및 기타 구성 요소에 의한 메모리로의 액세스는 메모리 컨트롤러에 의해 제어될 수 있다.
한편, 본 발명의 실시예에 따른 방법은 컴퓨터가 읽을 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명의 실시예에 따른 제어 프로그램 및 대상 프로그램도 컴퓨터로 판독 가능한 기록 매체에 저장될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터로 읽을 수 있는 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타나며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본 발명은 병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템에 이용될 수 있다.

Claims (12)

  1. 인공 뉴럴 네트워크를 학습하는 방법으로서,
    뉴럴 네트워크 학습 시스템이, M개의 개별 학습 데이터(여기서, M은 2 이상의 자연수)를 포함하는 학습 데이터 세트를 생성하는 단계; 및
    상기 뉴럴 네트워크 학습 시스템이, 상기 학습 데이터 세트에 기초하여 상기 인공 뉴럴 네트워크를 학습하는 단계(상기 뉴럴 네트워크 학습 시스템이, 상기 학습 데이터 세트에 포함된 M개의 개별 학습 데이터 각각을 상기 인공 뉴럴 네트워크의 입력 레이어에 입력하여 상기 인공 뉴럴 네트워크를 학습하는 단계)를 포함하되,
    상기 M개의 개별 학습 데이터를 포함하는 학습 데이터 세트를 생성하는 단계는, 1<=m<=M인 모든 m에 대하여, 상기 학습 데이터 세트에 포함될 제m학습 데이터를 생성하는 단계를 포함하고,
    상기 제m학습 데이터를 생성하는 단계는,
    제1 병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지(여기서, N은 2 이상의 자연수)를 획득하는 단계-여기서, 상기 제1병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지는, 단일 병리 검체에 대한 연속된 섹션(serial section)을 서로 다른 염색 시약으로 염색한 병리 슬라이드 이미지임; 및
    상기 제1 병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계를 포함하는 인공 뉴럴 네트워크 학습 방법.
  2. 제1항에 있어서,
    상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계는,
    상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지를 채널 중첩(channel stacking)을 통해 하나의 다채널 이미지로 변환하는 단계를 포함하고,
    상기 제m학습 데이터는 상기 다채널 이미지를 포함하는 인공 뉴럴 네트워크 학습 방법.
  3. 제1항에 있어서,
    상기 제1 병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계는,
    상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지 내에 존재하는 생체 조직 영역을 특정하는 단계;
    상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지 각각에 존재하는 생체 조직 영역 간의 위치 및 형태가 일치하도록 상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지를 정합하는 단계; 및
    상기 정합된 제1병리 슬라이드 이미지 내지 상기 정합된 제N병리 슬라이드 이미지를 채널 중첩(channel stacking)을 통해 하나의 다채널 이미지로 변환하는 단계를 포함하고,
    상기 제m학습 데이터는 상기 다채널 이미지를 포함하는 인공 뉴럴 네트워크 학습 방법.
  4. 제3항에 있어서,
    상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지 각각에 존재하는 생체 조직 영역 간의 위치 및 형태가 일치하도록 상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지를 정합하는 단계는,
    1<=i<=N인 모든 자연수 i에 대하여, 제i병리 슬라이드 이미지에 상응하는 변환 관계를 산출하는 단계를 포함하고(여기서, 상기 제i병리 슬라이드 이미지에 상응하는 변환 관계는, 상기 제i병리 슬라이드 이미지와 그에 대응되는 정합된 제i병리 슬라이드 이미지 간의 변환 관계임),
    상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계는,
    1<=j<=N인 모든 자연수 j에 대하여, 제j병리 슬라이드 이미지에 부여된 병변 어노테이션 영역을 상기 제j병리 슬라이드 이미지에 상응하는 변환 관계를 이용하여 변형하는 단계; 및
    상기 변형된 제1병리 슬라이드 이미지의 병변 어노테이션 영역 내지 상기 변형된 제N병리 슬라이드 이미지의 병변 어노테이션 영역을 채널 중첩(channel stacking)을 통해 하나의 다채널 병변 어노테이션 영역으로 변환하는 단계를 더 포함하고,
    상기 제m학습 데이터는 상기 다채널 병변 어노테이션 영역을 더 포함하는 인공 뉴럴 네트워크 학습 방법.
  5. 제1항에 기재된 인공 뉴럴 네트워크 학습 방법에 의해 학습된 인공 뉴럴 네트워크를 통해 소정의 판단 대상 병리 검체에 대한 판단 결과를 제공하는 방법으로서,
    컴퓨팅 시스템이, 제1판단 대상 병리 슬라이드 이미지 내지 제N판단 대상 병리 슬라이드 이미지(여기서, N은 2 이상의 자연수)를 획득하는 단계-여기서, 상기 제1판단 대상 병리 슬라이드 이미지 내지 상기 제N판단 대상 병리 슬라이드 이미지는, 상기 판단 대상 병리 검체에 대한 연속된 섹션(serial section)을 서로 다른 염색 시약으로 염색한 병리 슬라이드 이미지임;
    상기 컴퓨팅 시스템이, 상기 인공 뉴럴 네트워크가 상기 제1판단 대상 병리 슬라이드 이미지 내지 상기 제N판단 대상 병리 슬라이드 이미지에 기초하여 판단한 상기 판단 대상 병리 검체에 대한 판단 결과를 출력하는 단계를 포함하는 방법.
  6. 데이터 처리장치에 설치되며 제1항 내지 제5항 중 어느 한 항에 기재된 방법을 수행하기 위한 매체에 기록된 컴퓨터 프로그램.
  7. 제1항 내지 제5항 중 어느 한 항에 기재된 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.
  8. 인공 뉴럴 네트워크 학습 시스템으로서,
    프로세서; 및 컴퓨터 프로그램을 저장하는 메모리를 포함하고,
    상기 컴퓨터 프로그램은, 상기 프로세서에 의해 실행되는 경우, 상기 컴퓨팅 시스템으로 하여금 인공 뉴럴 네트워크를 학습하는 방법을 수행하도록 하며,
    상기 인공 뉴럴 네트워크 학습 시스템은,
    뉴럴 네트워크 학습 시스템이, M개의 개별 학습 데이터(여기서, M은 2 이상의 자연수)를 포함하는 학습 데이터 세트를 생성하는 단계; 및
    상기 뉴럴 네트워크 학습 시스템이, 상기 학습 데이터 세트에 기초하여 상기 인공 뉴럴 네트워크를 학습하는 단계를 포함하되,
    상기 M개의 개별 학습 데이터를 포함하는 학습 데이터 세트를 생성하는 단계는, 1<=m<=M인 모든 m에 대하여, 상기 학습 데이터 세트에 포함될 제m학습 데이터를 생성하는 단계를 포함하고,
    상기 제m학습 데이터를 생성하는 단계는,
    제1 병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지(여기서, N은 2 이상의 자연수)를 획득하는 단계-여기서, 상기 제1병리 슬라이드 이미지 내지 제N병리 슬라이드 이미지는, 단일 병리 검체에 대한 연속된 섹션(serial section)을 서로 다른 염색 시약으로 염색한 병리 슬라이드 이미지임;
    상기 제1 병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계를 포함하는 인공 뉴럴 네트워크 학습 시스템.
  9. 제8항에 있어서,
    상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계는,
    상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지를 채널 중첩(channel stacking)을 통해 하나의 다채널 이미지로 변환하는 단계를 포함하고,
    상기 제m학습 데이터는 상기 다채널 이미지를 포함하는 인공 뉴럴 네트워크 학습 방법.
  10. 제8항에 있어서,
    상기 제1 병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계는,
    상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지 내에 존재하는 생체 조직 영역을 특정하는 단계;
    상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지 각각에 존재하는 생체 조직 영역 간의 위치 및 형태가 일치하도록 상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지를 정합하는 단계; 및
    상기 정합된 제1병리 슬라이드 이미지 내지 상기 정합된 제N병리 슬라이드 이미지를 채널 중첩(channel stacking)을 통해 하나의 다채널 이미지로 변환하는 단계를 포함하고,
    상기 제m학습 데이터는 상기 다채널 이미지를 포함하는 인공 뉴럴 네트워크 학습 시스템.
  11. 제10항에 있어서,
    상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지 각각에 존재하는 생체 조직 영역 간의 위치 및 형태가 일치하도록 상기 제1병리 슬라이드 내지 상기 제N병리 슬라이드 이미지를 정합하는 단계는,
    1<=i<=N인 모든 자연수 i에 대하여, 제i병리 슬라이드 이미지에 상응하는 변환 관계를 산출하는 단계를 포함하고(여기서, 상기 제i병리 슬라이드 이미지에 상응하는 변환 관계는, 상기 제i병리 슬라이드 이미지와 그에 대응되는 정합된 제i병리 슬라이드 이미지 간의 변환 관계임),
    상기 제1병리 슬라이드 이미지 내지 상기 제N병리 슬라이드 이미지에 기초하여 상기 제m학습 데이터를 생성하는 단계는,
    1<=j<=N인 모든 자연수 j에 대하여, 제j병리 슬라이드 이미지에 부여된 병변 어노테이션 영역을 상기 제j병리 슬라이드 이미지에 상응하는 변환 관계를 이용하여 변형하는 단계; 및
    상기 변형된 제1병리 슬라이드 이미지의 병변 어노테이션 영역 내지 상기 변형된 제N병리 슬라이드 이미지의 병변 어노테이션 영역을 채널 중첩(channel stacking)을 통해 하나의 다채널 병변 어노테이션 영역으로 변환하는 단계를 더 포함하고,
    상기 제m학습 데이터는 상기 다채널 병변 어노테이션 영역을 더 포함하는 인공 뉴럴 네트워크 학습 시스템.
  12. 병리 검체에 대한 판단 결과 제공 시스템으로서,
    프로세서; 및 컴퓨터 프로그램을 저장하는 메모리를 포함하고,
    상기 컴퓨터 프로그램은, 상기 프로세서에 의해 실행되는 경우, 상기 컴퓨팅 시스템으로 하여금 제1항에 기재된 인공 뉴럴 네트워크 학습 방법에 의해 학습된 인공 뉴럴 네트워크를 통해 병리 검체에 대한 판단 결과를 제공하는 방법을 수행하도록 하며,
    상기 판단 결과를 제공하는 방법은,
    제1판단 대상 병리 슬라이드 이미지 내지 제N판단 대상 병리 슬라이드 이미지(여기서, N은 2 이상의 자연수)를 획득하는 단계-여기서, 상기 제1판단 대상 병리 슬라이드 이미지 내지 상기 제N판단 대상 병리 슬라이드 이미지는, 소정의 판단 대상 병리 검체에 대한 연속된 섹션(serial section)을 서로 다른 염색 시약으로 염색한 병리 슬라이드 이미지임;
    상기 인공 뉴럴 네트워크가 상기 제1판단 대상 병리 슬라이드 이미지 내지 상기 제N판단 대상 병리 슬라이드 이미지에 기초하여 판단한 상기 판단 대상 병리 검체에 대한 판단 결과를 출력하는 단계를 포함하는 병리 검체에 대한 판단 결과 제공 시스템.
PCT/KR2022/000269 2021-01-07 2022-01-07 병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템 WO2022149894A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP22736871.9A EP4258283A4 (en) 2021-01-07 2022-01-07 METHOD FOR TRAINING AN ARTIFICIAL NEURAL NETWORK USING DETERMINATION RESULTS OF A PATHOLOGICAL SAMPLE AND COMPUTER SYSTEM FOR CARRYING OUT THE METHOD
JP2023540030A JP2024502806A (ja) 2021-01-07 2022-01-07 病理検体に対する判断結果を提供する人工ニューラルネットワークの学習方法、及びこれを行うコンピューティングシステム
US18/271,233 US20240281653A1 (en) 2021-01-07 2022-01-07 Method for training artificial neural network providing determination result of pathological specimen, and computing system for performing same
CN202280009439.3A CN116783662A (zh) 2021-01-07 2022-01-07 对病理样本提供判断结果的人工神经网络的学习方法及执行其的计算系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210001912A KR102246319B1 (ko) 2021-01-07 2021-01-07 병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템
KR10-2021-0001912 2021-01-07

Publications (1)

Publication Number Publication Date
WO2022149894A1 true WO2022149894A1 (ko) 2022-07-14

Family

ID=75910856

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/000269 WO2022149894A1 (ko) 2021-01-07 2022-01-07 병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템

Country Status (6)

Country Link
US (1) US20240281653A1 (ko)
EP (1) EP4258283A4 (ko)
JP (1) JP2024502806A (ko)
KR (1) KR102246319B1 (ko)
CN (1) CN116783662A (ko)
WO (1) WO2022149894A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102246319B1 (ko) * 2021-01-07 2021-05-03 주식회사 딥바이오 병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템
WO2023287235A1 (ko) * 2021-07-14 2023-01-19 주식회사 루닛 병리 이미지 분석 방법 및 시스템
KR102485414B1 (ko) * 2021-12-13 2023-01-06 주식회사 딥바이오 병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템
KR102393957B1 (ko) 2021-12-30 2022-05-03 서울대학교병원 전립선암 분석 장치 및 프로그램, 이의 동작 방법
WO2023167448A1 (ko) * 2022-03-03 2023-09-07 주식회사 루닛 병리 슬라이드 이미지를 분석하는 방법 및 장치
KR102471515B1 (ko) * 2022-03-31 2022-11-28 주식회사 딥바이오 면역조직화학 염색 이미지를 분석하기 위한 기계학습모델을 학습하는 방법 및 이를 수행하는 컴퓨팅 시스템
KR102579826B1 (ko) * 2022-12-09 2023-09-18 (주) 브이픽스메디칼 인공지능 기반 진단 보조 정보 제공 방법, 장치 및 시스템

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0350453B2 (ko) 1985-03-22 1991-08-01 Nippon Denki Aishii Maikon Shisutemu Kk
KR20180066983A (ko) * 2016-12-11 2018-06-20 주식회사 딥바이오 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 그 방법
KR20190143510A (ko) * 2018-06-04 2019-12-31 주식회사 딥바이오 투 페이스 질병 진단 시스템 및 그 방법
KR20200016658A (ko) * 2018-08-07 2020-02-17 주식회사 딥바이오 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 방법
KR20200044183A (ko) * 2018-10-05 2020-04-29 주식회사 딥바이오 병리 이미지 검색을 위한 시스템 및 방법
KR102108050B1 (ko) * 2019-10-21 2020-05-07 가천대학교 산학협력단 증강 컨볼루션 네트워크를 통한 유방암 조직학 이미지 분류 방법 및 그 장치
KR20200101540A (ko) * 2019-02-01 2020-08-28 장현재 피부 이미지 기반의 인공지능 딥러닝을 이용한 피부질환 판별용 api 엔진을 구성하는 스마트 피부질환 판별 플랫폼시스템
KR102246319B1 (ko) * 2021-01-07 2021-05-03 주식회사 딥바이오 병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016087592A1 (en) 2014-12-03 2016-06-09 Ventana Medical Systems, Inc. Systems and methods for early-stage cancer prognosis
US11783603B2 (en) * 2018-03-07 2023-10-10 Verily Life Sciences Llc Virtual staining for tissue slide images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0350453B2 (ko) 1985-03-22 1991-08-01 Nippon Denki Aishii Maikon Shisutemu Kk
KR20180066983A (ko) * 2016-12-11 2018-06-20 주식회사 딥바이오 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 그 방법
KR20190143510A (ko) * 2018-06-04 2019-12-31 주식회사 딥바이오 투 페이스 질병 진단 시스템 및 그 방법
KR20200016658A (ko) * 2018-08-07 2020-02-17 주식회사 딥바이오 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 방법
KR20200044183A (ko) * 2018-10-05 2020-04-29 주식회사 딥바이오 병리 이미지 검색을 위한 시스템 및 방법
KR20200101540A (ko) * 2019-02-01 2020-08-28 장현재 피부 이미지 기반의 인공지능 딥러닝을 이용한 피부질환 판별용 api 엔진을 구성하는 스마트 피부질환 판별 플랫폼시스템
KR102108050B1 (ko) * 2019-10-21 2020-05-07 가천대학교 산학협력단 증강 컨볼루션 네트워크를 통한 유방암 조직학 이미지 분류 방법 및 그 장치
KR102246319B1 (ko) * 2021-01-07 2021-05-03 주식회사 딥바이오 병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템

Also Published As

Publication number Publication date
EP4258283A4 (en) 2024-10-16
US20240281653A1 (en) 2024-08-22
CN116783662A (zh) 2023-09-19
EP4258283A1 (en) 2023-10-11
JP2024502806A (ja) 2024-01-23
KR102246319B1 (ko) 2021-05-03

Similar Documents

Publication Publication Date Title
WO2022149894A1 (ko) 병리 검체에 대한 판단 결과를 제공하는 인공 뉴럴 네트워크의 학습 방법, 및 이를 수행하는 컴퓨팅 시스템
WO2021230457A1 (en) Learning method and learning device for training an object detection network by using attention maps and testing method and testing device using the same
WO2017022882A1 (ko) 의료 영상의 병리 진단 분류 장치 및 이를 이용한 병리 진단 시스템
WO2021049729A1 (ko) 인공지능 모델을 이용한 폐암 발병 가능성 예측 방법 및 분석 장치
WO2017164478A1 (ko) 미세 얼굴 다이나믹의 딥 러닝 분석을 통한 미세 표정 인식 방법 및 장치
WO2020067632A1 (ko) 인공지능 영상 학습을 위한 동영상의 학습 대상 프레임 이미지 샘플링 방법, 장치, 프로그램 및 그 영상 학습 방법
WO2019050108A1 (ko) 데이터 이미지화를 이용한 딥러닝 기반 시스템 이상행위 분석 기술
WO2022163996A1 (ko) 자기주의 기반 심층 신경망 모델을 이용한 약물-표적 상호작용 예측 장치 및 그 방법
WO2019235828A1 (ko) 투 페이스 질병 진단 시스템 및 그 방법
WO2022231200A1 (ko) 유방암 병변 영역을 판별하기 위한 인공 신경망을 학습하기 위한 학습 방법, 및 이를 수행하는 컴퓨팅 시스템
WO2021034138A1 (ko) 치매 평가 방법 및 이를 이용한 장치
WO2021091027A1 (ko) 3차원 굴절률 영상과 딥러닝을 활용한 비표지 방식의 3차원 분자 영상 생성 방법 및 장치
WO2022124725A1 (ko) 화합물과 단백질의 상호작용 예측 방법, 장치 및 컴퓨터 프로그램
CN112151179B (zh) 影像数据评估方法、装置、设备及存储介质
WO2023191472A1 (ko) 면역조직화학 염색 이미지를 분석하기 위한 기계학습모델을 학습하는 방법 및 이를 수행하는 컴퓨팅 시스템
WO2021235682A1 (en) Method and device for performing behavior prediction by using explainable self-focused attention
WO2022158843A1 (ko) 조직 검체 이미지 정제 방법, 및 이를 수행하는 컴퓨팅 시스템
CN111242922A (zh) 一种蛋白质图像分类方法、装置、设备及介质
WO2022197044A1 (ko) 뉴럴 네트워크를 이용한 방광병변 진단 방법 및 그 시스템
WO2020138549A1 (ko) 음향 방출 결함 신호 검출 장치 및 방법
WO2019189972A1 (ko) 치매를 진단을 하기 위해 홍채 영상을 인공지능으로 분석하는 방법
WO2021080043A1 (ko) 시퀀싱 플랫폼 특이적인 오류를 줄인 체성 돌연변이 검출 장치 및 방법
WO2018221816A1 (en) Method for determining whether examinee is infected by microorganism and apparatus using the same
WO2017010612A1 (ko) 의료 영상 분석 기반의 병리 진단 예측 시스템 및 방법
WO2022191539A1 (ko) Turp 병리 이미지로부터 전립선암을 검출하기 위한 용도의 인공 뉴럴 네트워크를 학습하는 방법 및 이를 수행하는 컴퓨팅 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22736871

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023540030

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18271233

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202280009439.3

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2022736871

Country of ref document: EP

Effective date: 20230704

NENP Non-entry into the national phase

Ref country code: DE