KR102226897B1 - Method for medical diagnosis using neural network trained by multi-phase biomedical image, medical diagnosis system performing the same - Google Patents

Method for medical diagnosis using neural network trained by multi-phase biomedical image, medical diagnosis system performing the same Download PDF

Info

Publication number
KR102226897B1
KR102226897B1 KR1020190010180A KR20190010180A KR102226897B1 KR 102226897 B1 KR102226897 B1 KR 102226897B1 KR 1020190010180 A KR1020190010180 A KR 1020190010180A KR 20190010180 A KR20190010180 A KR 20190010180A KR 102226897 B1 KR102226897 B1 KR 102226897B1
Authority
KR
South Korea
Prior art keywords
neural network
training
diagnostic
diagnosis
images
Prior art date
Application number
KR1020190010180A
Other languages
Korean (ko)
Other versions
KR20200092801A (en
Inventor
조준영
김선우
Original Assignee
주식회사 딥바이오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥바이오 filed Critical 주식회사 딥바이오
Priority to KR1020190010180A priority Critical patent/KR102226897B1/en
Publication of KR20200092801A publication Critical patent/KR20200092801A/en
Application granted granted Critical
Publication of KR102226897B1 publication Critical patent/KR102226897B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)

Abstract

다중 페이즈 생체 이미지를 이용하여 학습된 뉴럴 네트워크를 이용한 질병 진단 방법 및 이를 수행하는 질병 진단 시스템이 개시된다. 본 발명의 일 측면에 따르면, 뉴럴 네트워크를 이용한 진단 시스템이, 생체 이미지를 이용하여 소정의 질병에 관한 진단 결과를 예측하기 위한 진단 뉴럴 네트워크를 생성하는 단계, 상기 뉴럴 네트워크를 이용한 진단 시스템이, 복수의 훈련용 생체 이미지-상기 복수의 훈련용 생체 이미지 각각에는, 그에 상응하는 상기 질병에 대한 진단 결과가 라벨링되어 있음-를 획득하는 단계 및 상기 뉴럴 네트워크를 이용한 진단 시스템이, 상기 복수의 훈련용 생체 이미지를 이용하여, 상기 진단 뉴럴 네트워크를 훈련하는 단계를 포함하되, 상기 진단 뉴럴 네트워크를 훈련하는 단계는, 상기 복수의 훈련용 생체 이미지 각각에 대하여, (a) 상기 훈련용 생체 이미지에 서로 다른 특성을 가지는 노이즈를 삽입하여 상기 훈련용 생체 이미지에 상응하는 K개(여기서, K는 2 이상의 정수)의 노이즈 삽입 이미지를 생성하는 단계 및 (b) 상기 훈련용 생체 이미지에 상응하는 K개의 노이즈 삽입 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 진단 뉴럴 네트워크를 훈련하는 단계를 포함하는 방법이 제공된다.Disclosed are a disease diagnosis method using a neural network learned using a multi-phase biometric image and a disease diagnosis system performing the same. According to an aspect of the present invention, a diagnostic system using a neural network generates a diagnostic neural network for predicting a diagnosis result for a predetermined disease using a biometric image, and the diagnostic system using the neural network comprises: Obtaining a training biometric image of-each of the plurality of training biometric images is labeled with a diagnosis result for the disease corresponding thereto, and a diagnosis system using the neural network, wherein the plurality of training biometric images are And training the diagnostic neural network using an image, wherein the training of the diagnostic neural network includes: (a) different characteristics of the training biometric images for each of the plurality of training biometric images Generating K noise-inserted images corresponding to the training biometric images (where K is an integer greater than or equal to 2) by inserting noise having a (b) K noise-inserted images corresponding to the training biometric images There is provided a method comprising the step of training the diagnostic neural network by inputting the diagnostic neural network.

Description

다중 페이즈 생체 이미지를 이용하여 학습된 뉴럴 네트워크를 이용한 질병 진단 방법 및 이를 수행하는 질병 진단 시스템{Method for medical diagnosis using neural network trained by multi-phase biomedical image, medical diagnosis system performing the same}[Method for medical diagnosis using neural network trained by multi-phase biomedical image, medical diagnosis system performing the same}

본 발명은 뉴럴 네트워크를 이용한 질병 진단 시스템 및 그 방법에 관한 것이다. 보다 상세하게는 다중 페이즈 생체 이미지를 이용하여 학습된 뉴럴 네트워크를 이용한 질병 진단 방법 및 이를 수행하는 질병 진단 시스템에 관한 것이다.The present invention relates to a disease diagnosis system and method using a neural network. More specifically, it relates to a disease diagnosis method using a neural network learned using a multi-phase biometric image, and a disease diagnosis system performing the same.

병리학 또는 병리과에서 수행하는 주요한 업무 중 하나는 환자의 생체 슬라이드(예를 들면 생검 등을 통한 조직 이미지 슬라이드)를 판독하여 특정 질병에 대한 상태 또는 징후를 판단하는 진단을 수행하는 일이다. 이러한 진단은 오랜 기간 숙련된 의료인의 경험과 지식에 의해 의존되는 방식이다.One of the major tasks performed in the pathology or pathology department is to read a patient's biological slide (for example, a tissue image slide through a biopsy, etc.) to perform a diagnosis to determine a condition or symptom for a specific disease. This diagnosis is a method that is dependent on the experience and knowledge of a skilled medical practitioner for a long time.

최근에는 기계학습의 발달로 인해 이미지를 인식하거나 분류하는 등의 업무를 컴퓨터 시스템에 의해 자동화하고자 하는 시도가 활발히 이루어지고 있다. 특히 기계학습의 일종인 뉴럴 네트워크(예컨대, 컨벌루션 뉴럴 네트워크(Convolution neural network, CNN)를 이용한 딥러닝 방식)를 이용하여 숙련된 의료인이 수행하던 진단을 자동화하기 위한 시도가 이루어지고 있다. In recent years, due to the development of machine learning, attempts to automate tasks such as recognizing or classifying images by computer systems have been actively made. In particular, attempts have been made to automate the diagnosis performed by skilled medical personnel using a neural network (eg, a deep learning method using a convolution neural network, CNN), which is a kind of machine learning.

특히 뉴럴 네트워크(예컨대, CNN, 딥러닝 네트워크)를 이용한 딥러닝을 통한 진단은 종래에 숙련된 의료인의 경험과 지식을 단순히 자동화하는 것이 아니라, 스스로 학습을 통해 특징적인 요소들을 찾아내어 원하는 해답을 도출한다는 점에 있어서 오히려 숙련된 의료인이 알지 못하던 질병인자의 특징을 이미지에서 찾아내는 경우도 있다.In particular, diagnosis through deep learning using neural networks (e.g., CNN, deep learning network) does not simply automate the experience and knowledge of experienced medical personnel, but finds characteristic elements through self-learning to derive desired answers. In that sense, there are cases in which the characteristics of disease factors that experienced medical personnel were not aware of are found in images.

일반적으로 생체 슬라이드를 스캔한 이미지인 생체 이미지를 이용하는 뉴럴 네트워크를 통한 질병의 진단은 생체 이미지 또는 해당 생체 이미지의 조각인 패치(patch, 또는 타일(tile)이라고도 함)을 이용한다. 즉, 해당 생체 이미지 또는 패치에 대해 숙련된 의료인은 특정 질병의 상태(예컨대, 암이 발현되었는지 여부)를 어노테이션(annotaion)하고, 이러한 어노테이션된 다수의 타일들을 트레이닝 데이터로 이용하여 뉴럴 네트워크를 학습하게 된다. 이때 상기 뉴럴 네트워크는 컨볼루션 뉴렬 네트워크가 이용될 수 있다.In general, diagnosis of a disease through a neural network using a biometric image, which is a scanned image of a biometric slide, uses a biometric image or a patch (also referred to as a tile), which is a fragment of the biometric image. That is, a medical practitioner who is skilled in the biometric image or patch annotates the state of a specific disease (eg, whether cancer has been expressed), and learns a neural network using a plurality of these annotated tiles as training data. do. In this case, a convolutional neural network may be used as the neural network.

한편, 현재 대부분의 뉴럴 네트워크를 통한 진단 방식은 이미 스캔된 데이터를 학습에 이용하며, 스캔된 데이터를 가지고 진단 결과를 예측하게 된다. 즉, 현존하는 뉴럴 네트워크를 통한 진단 방식은 고정된 데이터에 대해서는 비교적 잘 작동하고 있다. 그런데, 노이즈가 있는 경우에는 취약한 모습을 보인다. 예를 들면, 현미경을 통해 실시간으로 촬영되는 이미지 데이터의 경우에는 현미경의 카메라에서 발생하는 노이즈가 이미지에 많이 끼게 되는데, 이러한 카메라 자체의 노이즈 때문에 진단 결과가 계속 바뀌게 될 수 있는 문제점이 발생한다.Meanwhile, most current diagnosis methods through neural networks use already scanned data for learning, and predict a diagnosis result based on the scanned data. That is, the existing diagnostic method through neural networks works relatively well for fixed data. However, when there is noise, it shows a weak appearance. For example, in the case of image data photographed in real time through a microscope, noise generated by a camera of the microscope is heavily embedded in the image, but the noise of the camera itself causes a problem in that the diagnosis result may change continuously.

한편, 뉴럴 네트워크에 의한 진단 속도는 카메라의 프레임 레이트 보다 통상적으로 느리므로 현미경을 통해 진단하는 부분이 계속 움직이는 경우 카메라에 의한 화면이 끊기게 되는 문제점이 발생하기도 한다.Meanwhile, since the diagnosis rate by the neural network is generally slower than the frame rate of the camera, there is a problem that the screen by the camera is cut off when the part to be diagnosed through the microscope continues to move.

한국공개특허 10-2016-0034814 "뉴럴 네트워크를 수반한 클라이언트 장치 및 그것을 포함하는 시스템"Korean Patent Laid-Open Publication No. 10-2016-0034814 "Client device with neural network and system including the same"

본 발명이 이루고자 하는 기술적인 과제는 카메라에 의한 노이즈와 무관하게 안정적으로 진단을 수행할 수 있는 뉴럴 네트워크를 이용한 진단 시스템 및 방법을 제공하는 것이다.A technical problem to be achieved by the present invention is to provide a diagnosis system and method using a neural network capable of stably performing diagnosis regardless of noise caused by a camera.

또한 카메라의 움직임을 감지하여 이동 중이거나 빈 화면일 경우 진단을 수행하지 않고 특정 부위를 고정하여 보고 있을 경우에 한해 진단을 수행함으로써 부드러운 화면 이동이 가능하도록 하는 진단 시스템 및 방법을 제공하는 것이다.In addition, the present invention provides a diagnosis system and method that enables smooth screen movement by detecting movement of a camera and performing diagnosis only when a specific part is fixed and viewed without performing diagnosis when moving or when the screen is blank.

나아가 특정 생체 이미지를 통해 질병이 발병하였는지 여부뿐만 아니라 해당 생체 이미지에서 질병이 발병한 영역을 구분할 수 있는 뉴럴 네트워크 구조를 제공하는 것이다. 특히, 패치에 질병이 존재하는지 여부를 판단할 수 있는 클래시피케이션 뉴럴 네트워크 아키텍쳐에 세그멘테이션을 위한 서브 아키텍쳐를 추가함으로써 효율적으로 질병이 발병한 영역의 구분을 위한 세그멘테이션을 수행할 수 있는 뉴럴 네트워크 구조를 제공하는 것이다.Furthermore, it provides a neural network structure capable of distinguishing not only whether a disease has occurred through a specific biometric image, but also an area where a disease has occurred in the corresponding biometric image. In particular, by adding a sub-architecture for segmentation to the classical neural network architecture, which can determine whether a disease exists in the patch, a neural network structure that can efficiently perform segmentation to distinguish the diseased area is established. To provide.

본 발명의 일 측면에 따르면, 뉴럴 네트워크를 이용한 진단 시스템이, 생체 이미지를 이용하여 소정의 질병에 관한 진단 결과를 예측하기 위한 진단 뉴럴 네트워크를 생성하는 단계, 상기 뉴럴 네트워크를 이용한 진단 시스템이, 복수의 훈련용 생체 이미지-상기 복수의 훈련용 생체 이미지 각각에는, 그에 상응하는 상기 질병에 대한 진단 결과가 라벨링되어 있음-를 획득하는 단계 및 상기 뉴럴 네트워크를 이용한 진단 시스템이, 상기 복수의 훈련용 생체 이미지를 이용하여, 상기 진단 뉴럴 네트워크를 훈련하는 단계를 포함하되, 상기 진단 뉴럴 네트워크를 훈련하는 단계는, 상기 복수의 훈련용 생체 이미지 각각에 대하여, (a) 상기 훈련용 생체 이미지에 서로 다른 특성을 가지는 노이즈를 삽입하여 상기 훈련용 생체 이미지에 상응하는 K개(여기서, K는 2 이상의 정수)의 노이즈 삽입 이미지를 생성하는 단계 및 (b) 상기 훈련용 생체 이미지에 상응하는 K개의 노이즈 삽입 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 진단 뉴럴 네트워크를 훈련하는 단계를 포함하는 방법이 제공된다.According to an aspect of the present invention, a diagnostic system using a neural network generates a diagnostic neural network for predicting a diagnosis result for a predetermined disease using a biometric image, and the diagnostic system using the neural network comprises: Obtaining a training biometric image of-each of the plurality of training biometric images is labeled with a diagnosis result for the disease corresponding thereto, and a diagnosis system using the neural network, wherein the plurality of training biometric images are And training the diagnostic neural network using an image, wherein the training of the diagnostic neural network includes: (a) different characteristics of the training biometric images for each of the plurality of training biometric images Generating K noise-inserted images corresponding to the training biometric images (where K is an integer greater than or equal to 2) by inserting noise having a (b) K noise-inserted images corresponding to the training biometric images There is provided a method comprising the step of training the diagnostic neural network by inputting the diagnostic neural network.

일 실시예에서, 상기 (b) 단계는, 상기 훈련용 생체 이미지에 상응하는 K개의 노이즈 삽입 이미지를 모두 연결(concatenation)하여 상기 훈련용 생체 이미지에 상응하는 하나의 훈련 데이터를 생성하는 단계-상기 훈련용 생체 이미지에 상응하는 훈련 데이터는 상기 훈련용 생체 이미지에 대한 진단 결과로 라벨링됨 및 상기 훈련용 생체 이미지에 상응하는 훈련 데이터를 상기 진단 뉴럴 네트워크에 입력하여 상기 진단 뉴럴 네트워크를 훈련하는 단계를 포함할 수 있다.In one embodiment, the step (b) is the step of generating one training data corresponding to the training biometric image by concatenating all K noise-inserted images corresponding to the training biometric image. Training data corresponding to the training biometric image is labeled as a diagnosis result for the training biometric image and training the diagnostic neural network by inputting training data corresponding to the training biometric image into the diagnosis neural network. Can include.

일 실시예에서, 상기 방법은, 진단 단계를 더 포함하되, 상기 진단 단계는, 이미지 센서에 의해 연속 촬영된 K개의 진단 대상 생체 이미지를 획득하는 단계 및 상기 K개의 진단 대상 생체 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 단계를 포함할 수 있다.In one embodiment, the method further includes a diagnosis step, wherein the diagnosis step comprises: obtaining K diagnosis subject biometric images continuously photographed by an image sensor, and the K diagnosis subject biometric images as the diagnosis neural It may include inputting into a network and predicting a diagnosis result for the disease.

일 실시예에서, 상기 진단 단계는, 상기 K개의 진단 대상 생체 이미지에 기초하여 상기 이미지 센서가 이동 중인지 여부를 판단하는 단계를 더 포함하되, 상기 K개의 진단 대상 생체 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 단계는, 상기 이미지 센서가 이동 중이 아니라고 판단된 경우, 상기 K개의 진단 대상 생체 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 단계를 포함할 수 있다.In one embodiment, the diagnostic step further comprises determining whether the image sensor is moving based on the K diagnostic target biometric images, wherein the K diagnostic target biometric images are input to the diagnostic neural network. The predicting of the diagnosis result for the disease may include, when it is determined that the image sensor is not moving, inputting the K diagnosis target biometric images into the diagnosis neural network to predict the diagnosis result for the disease. Can include.

일 실시예에서, 상기 방법은, 진단 단계를 더 포함하되, 상기 진단 단계는, 이미지 센서에 의해 연속 촬영된 K개의 진단 대상 생체 이미지를 획득하는 단계, 상기 K개의 진단 대상 생체 이미지를 모두 연결하여 하나의 진단 대상 데이터를 생성하는 단계 및 상기 진단 대상 데이터를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 단계를 포함할 수 있다.In one embodiment, the method further includes a diagnosis step, wherein the diagnosis step comprises: acquiring K diagnosis subject biometric images continuously photographed by an image sensor, and connecting all the K diagnosis subject biometric images Generating one diagnosis target data and inputting the diagnosis target data into the diagnosis neural network may include predicting a diagnosis result for the disease.

일 실시예에서, 상기 진단 뉴럴 네트워크는, 상기 진단 대상 데이터를 입력 레이어로 입력 받아서 상기 진단 대상 생체 이미지 중 질병이 존재하는 영역을 특정하는 세그멘테이션 뉴럴 네트워크이며, 상기 세그멘테이션 뉴럴 네트워크는, 상기 진단 대상 데이터를 입력 레이어로 입력 받아서 상기 생체 이미지에 상기 질병이 존재하는지 여부에 관한 분류 결과를 출력하는 클래시피케이션 뉴럴 네트워크 및 상기 클래시피케이션 뉴럴 네트워크에 포함된 히든 레이어 중 2 이상의 피쳐 맵 추출 레이어 각각에서 생성되는 피쳐 맵을 입력 받아서 상기 생체 이미지 중 질병이 존재하는 영역을 특정하는 세그멘테이션 아키텍쳐를 포함할 수 있다.In one embodiment, the diagnosis neural network is a segmentation neural network that receives the diagnosis target data as an input layer and specifies a region in which a disease exists in the diagnosis target biometric image, and the segmentation neural network includes the diagnosis target data Generated in each of two or more feature map extraction layers among the classical neural network that receives as an input layer and outputs a classification result of whether the disease is present in the biological image, and the hidden layers included in the classical neural network. It may include a segmentation architecture for specifying a region in which a disease exists in the biometric image by receiving a feature map.

일 실시예에서, 상기 세그멘테이션 아키텍쳐는, 상기 2 이상의 피쳐 추출 레이어 각각에 대응되는 컨볼루션 노드를 포함하는 컨볼루션 서브 아키텍쳐-상기 컨볼루션 노드 각각은, 그에 대응되는 피쳐 추출 레이어로부터 입력되는 피쳐 맵에 대한 컨볼루션 또는 2 이상의 서로 다른 컨볼루션을 수행함- 및 상기 컨볼루션 서브 아키텍쳐에서 생성하는 컨볼루션 결과에 기초하여 상기 패치 중 질병이 존재하는 영역을 특정하는 세그멘테이션 서브 아키텍쳐를 포함할 수 있다.In one embodiment, the segmentation architecture is a convolution sub-architecture including a convolution node corresponding to each of the two or more feature extraction layers-each of the convolution nodes is in a feature map input from a corresponding feature extraction layer. A segmentation sub-architecture specifying a region in which a disease exists in the patch based on a convolution result of the convolution or two or more different convolutions- and a convolution result generated by the convolution sub-architecture may be included.

일 실시예에서, 상기 질병은, 전립선 암인 것을 특징으로 할 수 있다.In one embodiment, the disease may be characterized in that prostate cancer.

본 발명의 다른 일 측면에 따르면, 데이터 처리장치에 설치되며 상술한 방법을 수행하기 위한 컴퓨터 판독 가능한 매체에 기록된 컴퓨터 프로그램이 제공된다.According to another aspect of the present invention, there is provided a computer program installed in a data processing apparatus and recorded in a computer-readable medium for performing the above-described method.

본 발명의 다른 일 측면에 따르면, 뉴럴 네트워크를 이용한 진단 시스템으로서, 프로세서 및 컴퓨터 프로그램을 저장하는 메모리를 포함하되, 상기 컴퓨터 프로그램은, 상기 프로세서에 의해 수행되는 경우, 상기 뉴럴 네트워크를 이용한 진단 시스템이 상술한 방법을 수행하도록 하는 뉴럴 네트워크를 이용한 진단 시스템이 제공된다.According to another aspect of the present invention, as a diagnostic system using a neural network, including a processor and a memory for storing a computer program, the computer program, when executed by the processor, the diagnostic system using the neural network A diagnostic system using a neural network for performing the above-described method is provided.

본 발명의 다른 일 측면에 따르면, 생체 이미지를 이용하여 소정의 질병에 관한 진단 결과를 예측하기 위한 진단 뉴럴 네트워크를 저장하는 저장모듈, 상기 뉴럴 네트워크를 이용한 진단 시스템이, 복수의 훈련용 생체 이미지-상기 복수의 훈련용 생체 이미지 각각에는, 그에 상응하는 상기 질병에 대한 진단 결과가 라벨링되어 있음-를 획득하는 획득모듈 및 상기 뉴럴 네트워크를 이용한 진단 시스템이, 상기 복수의 훈련용 생체 이미지를 이용하여, 상기 진단 뉴럴 네트워크를 훈련하는 학습모듈을 포함하되, 상기 학습모듈은, 상기 복수의 훈련용 생체 이미지 각각에 대하여, (a) 상기 훈련용 생체 이미지에 서로 다른 특성을 가지는 노이즈를 삽입하여 상기 훈련용 생체 이미지에 상응하는 K개(여기서, K는 2 이상의 정수)의 노이즈 삽입 이미지를 생성하는 단계 및 (b) 상기 훈련용 생체 이미지에 상응하는 K개의 노이즈 삽입 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 진단 뉴럴 네트워크를 훈련하는 단계를 수행하는 뉴럴 네트워크를 이용한 진단 시스템이 제공된다.According to another aspect of the present invention, a storage module that stores a diagnostic neural network for predicting a diagnosis result for a predetermined disease using a biometric image, and a diagnosis system using the neural network includes a plurality of training biometric images- In each of the plurality of training biometric images, an acquisition module for acquiring that a diagnosis result for the disease corresponding thereto is labeled and a diagnosis system using the neural network, by using the plurality of training biometric images, And a learning module for training the diagnostic neural network, wherein the learning module includes, for each of the plurality of training biometric images, (a) inserting noises having different characteristics into the training biometric images, Generating K noise-inserted images corresponding to the biometric images (where K is an integer greater than or equal to 2) and (b) inputting K noise-inserted images corresponding to the training biometric images into the diagnostic neural network, A diagnostic system using a neural network that performs a step of training a diagnostic neural network is provided.

일 실시예에서, 상기 (b) 단계는, 상기 훈련용 생체 이미지에 상응하는 K개의 노이즈 삽입 이미지를 모두 연결(concatenation)하여 상기 훈련용 생체 이미지에 상응하는 하나의 훈련 데이터를 생성하는 단계-상기 훈련용 생체 이미지에 상응하는 훈련 데이터는 상기 훈련용 생체 이미지에 대한 진단 결과로 라벨링됨- 및 상기 훈련용 생체 이미지에 상응하는 훈련 데이터를 상기 진단 뉴럴 네트워크에 입력하여 상기 진단 뉴럴 네트워크를 훈련하는 단계를 포함할 수 있다.In one embodiment, the step (b) is the step of generating one training data corresponding to the training biometric image by concatenating all K noise-inserted images corresponding to the training biometric image. Training data corresponding to the training biometric image is labeled as a diagnosis result for the training biometric image, and training the diagnosis neural network by inputting training data corresponding to the training biometric image into the diagnosis neural network. It may include.

일 실시예에서, 상기 뉴럴 네트워크를 이용한 진단 시스템은, 이미지 센서에 의해 연속 촬영된 K개의 진단 대상 생체 이미지를 획득하고, 상기 K개의 진단 대상 생체 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 진단모듈을 더 포함할 수 있다.In one embodiment, the diagnostic system using the neural network acquires K diagnostic target biometric images continuously photographed by an image sensor, and inputs the K diagnostic target biometric images to the diagnostic neural network to detect the disease. It may further include a diagnostic module for predicting the diagnosis result.

일 실시예에서, 상기 진단모듈은, 상기 K개의 진단 대상 생체 이미지에 기초하여 상기 이미지 센서가 이동 중인지 여부를 판단하고, 상기 이미지 센서가 이동 중이 아니라고 판단된 경우, 상기 K개의 진단 대상 생체 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측할 수 있다.In one embodiment, the diagnostic module determines whether the image sensor is moving based on the K diagnostic target biometric images, and when it is determined that the image sensor is not moving, the K biometric images to be diagnosed are By inputting into the diagnostic neural network, a diagnosis result for the disease may be predicted.

일 실시예에서, 상기 뉴럴 네트워크를 이용한 진단 시스템은, 이미지 센서에 의해 연속 촬영된 K개의 진단 대상 생체 이미지를 획득하고, 상기 K개의 진단 대상 생체 이미지를 모두 연결하여 하나의 진단 대상 데이터를 생성하고, 상기 진단 대상 데이터를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 진단모듈을 더 포함할 수 있다.In one embodiment, the diagnostic system using the neural network acquires K diagnostic target biometric images continuously photographed by an image sensor, and generates one diagnosis target data by connecting all the K diagnostic target biometric images. And a diagnosis module for predicting a diagnosis result for the disease by inputting the diagnosis target data into the diagnosis neural network.

본 발명의 기술적 사상에 의하면, 카메라에 의한 노이즈와 무관하게 안정적으로 진단을 수행할 수 있는 뉴럴 네트워크를 이용한 진단 시스템 및 방법을 제공할 수 있다.According to the technical idea of the present invention, it is possible to provide a diagnosis system and method using a neural network capable of stably performing diagnosis irrespective of noise caused by a camera.

또한 카메라의 움직임을 감지하여 이동 중이거나 빈 화면일 경우 진단을 수행하지 않고 특정 부위를 고정하여 보고 있을 경우에 한해 진단을 수행함으로써 부드러운 화면 이동이 가능하도록 하는 진단 시스템 및 방법을 제공할 수 있다.In addition, it is possible to provide a diagnosis system and method that enables smooth screen movement by detecting movement of a camera and performing diagnosis only when a specific part is fixed and viewed without performing diagnosis when moving or when the screen is blank.

또한 생체 이미지 별로 질병의 발병 여부를 판단하는 클래시피케이션뿐만 아니라 해당 생체 이미지 중 질병이 발병한 영역까지 구분할 수 있는 세그멘테이션을 수행할 수 있는 효율적인 뉴럴 네트워크 구조를 제공할 수 있다.In addition, it is possible to provide an efficient neural network structure capable of performing a segmentation capable of distinguishing not only the occurrence of a disease in each biological image, but also a region in which a disease has occurred among the corresponding biological images.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 기술적 사상에 의해 다중 페이즈 생체 이미지를 이용하여 뉴럴 네트워크를 학습하고, 이를 이용하여 질병을 진단하는 방법의 동작 환경을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 질병 진단 시스템의 개략적인 구성을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따라 진단 시스템이 복수의 훈련용 생체 이미지를 이용하여 진단 뉴럴 네트워크를 학습하는 과정을 도시한 흐름도이다.
도 4는 두 개의 노이즈 부가 이미지가 결합되어 학습에 이용되는 예를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따라 진단 시스템이 진단 대상 생체 이미지를 진단하는 과정을 도시한 흐름도이다.
도 6은 두 개의 연속 촬영된 진단 대상 생체 이미지를 이용하여 진단을 수행하는 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 세그멘테이션을 위한 진단 뉴럴 네트워크의 전체적인 구조를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 세그멘테이션 아키텍쳐의 전체적인 구조를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 세그멘테이션용 진단 뉴럴 네트워크의 구체적인 예를 도시한 도면이다.
A brief description of each drawing is provided in order to more fully understand the drawings cited in the detailed description of the present invention.
1 is a diagram illustrating an operating environment of a method of learning a neural network using a multi-phase biometric image and diagnosing a disease using the multi-phase biometric image according to the technical idea of the present invention.
2 is a diagram showing a schematic configuration of a disease diagnosis system according to an embodiment of the present invention.
3 is a flowchart illustrating a process of learning a diagnostic neural network by using a plurality of training biometric images by a diagnostic system according to an embodiment of the present invention.
4 is a diagram illustrating an example in which two noise-added images are combined and used for learning.
5 is a flowchart illustrating a process of diagnosing a biometric image to be diagnosed by a diagnostic system according to an embodiment of the present invention.
6 is a diagram for explaining a process of performing a diagnosis using two consecutively photographed biometric images to be diagnosed.
7 is a diagram illustrating an overall structure of a diagnostic neural network for segmentation according to an embodiment of the present invention.
8 is a diagram for explaining the overall structure of a segmentation architecture according to an embodiment of the present invention.
9 is a diagram illustrating a specific example of a diagnostic neural network for segmentation according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can apply various transformations and have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it should be understood to include all conversions, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first and second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 명세서에 있어서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, and one or more other It should be understood that the presence or addition of features, numbers, steps, actions, components, parts, or combinations thereof, does not preclude the possibility of preliminary exclusion.

또한, 본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다. 반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.In addition, in the present specification, when one component'transmits' data to another component, the component may directly transmit the data to the other component, or through at least one other component. This means that the data may be transmitted to the other component. Conversely, when one component'directly transmits' data to another component, it means that the data is transmitted from the component to the other component without passing through the other component.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 중심으로 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, the present invention will be described in detail based on embodiments of the present invention with reference to the accompanying drawings. The same reference numerals shown in each drawing indicate the same members.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can apply various transformations and have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it should be understood to include all conversions, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first and second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 명세서에 있어서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, and one or more other It should be understood that the presence or addition of features, numbers, steps, actions, components, parts, or combinations thereof, does not preclude the possibility of preliminary exclusion.

또한, 본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다. 반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.In addition, in the present specification, when one component'transmits' data to another component, the component may directly transmit the data to the other component, or through at least one other component. This means that the data may be transmitted to the other component. Conversely, when one component'directly transmits' data to another component, it means that the data is transmitted from the component to the other component without passing through the other component.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 중심으로 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, the present invention will be described in detail based on embodiments of the present invention with reference to the accompanying drawings. The same reference numerals shown in each drawing indicate the same members.

도 1은 본 발명의 기술적 사상에 의해 다중 페이즈 생체 이미지를 이용하여 뉴럴 네트워크를 학습하고, 이를 이용하여 질병을 진단하는 방법의 동작 환경을 도시한 도면이다. 도 1를 참조하면, 본 발명의 기술적 사상에 따른 방법은 진단 시스템(100)에 의해 수행될 수 있다. 1 is a diagram illustrating an operating environment of a method of learning a neural network using a multi-phase biometric image and diagnosing a disease by using the multi-phase biometric image according to the technical idea of the present invention. Referring to FIG. 1, a method according to the technical idea of the present invention may be performed by the diagnostic system 100.

본 발명의 기술적 사상에 진단 시스템(100)은 컴퓨팅 시스템일 수 있다. 또는 소정의 서버(10)에 설치되어 본 발명의 기술적 사상을 구현할 수 있다. 상기 서버(10)는 본 발명의 기술적 사상을 구현하기 위한 연산능력을 가진 데이터 처리장치를 의미하며, 일반적으로 네트워크를 통해 클라이언트(단말; 20)가 접속 가능한 데이터 처리장치뿐만 아니라 개인용 컴퓨터, 휴대 단말 등과 같이 특정 서비스를 수행할 수 있는 어떠한 장치도 서버로 정의될 수 있음을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.In the spirit of the present invention, the diagnostic system 100 may be a computing system. Alternatively, it may be installed on a predetermined server 10 to implement the technical idea of the present invention. The server 10 refers to a data processing device having computing power to implement the technical idea of the present invention, and generally, a personal computer, a portable terminal as well as a data processing device accessible to a client (terminal; 20) through a network An average expert in the technical field of the present invention can easily infer that any device capable of performing a specific service, such as, can be defined as a server.

상기 서버(10)는 프로세서 및 저장장치를 포함할 수 있다. 상기 프로세서는 본 발명의 기술적 사상을 구현하기 위한 프로그램을 구동시킬 수 있는 연산장치를 의미할 수 있다. 상기 저장장치는 본 발명의 기술적 사상을 구현하는데 필요한 프로그램 및 각종 데이터를 저장할 수 있는 데이터 저장수단을 의미할 수 있으며, 구현 예에 따라 복수의 저장수단으로 구현될 수도 있다. 또한 상기 저장장치는 상기 서버(10)에 포함된 주 기억장치뿐만 아니라, 상기 프로세서에 포함될 수 있는 임시 저장장치 또는 메모리 등을 포함하는 의미일 수도 있다.The server 10 may include a processor and a storage device. The processor may mean an operation device capable of driving a program for implementing the technical idea of the present invention. The storage device may mean a data storage means capable of storing programs and various types of data necessary to implement the technical idea of the present invention, and may be implemented as a plurality of storage means according to implementation examples. In addition, the storage device may mean not only a main memory device included in the server 10 but also a temporary storage device or a memory that may be included in the processor.

상기 진단 시스템(100)이 소정의 서버(10)에 포함되어 구현되는 경우, 상기 진단 시스템(100)은 상기 서버(10)에 접속가능한 적어도 하나의 클라이언트(예컨대, 20)와 통신을 수행할 수도 있다. 이러한 경우 상기 클라이언트(예컨대, 20)는 생체이미지를 상기 진단 시스템(100)으로 전송할 수 있고, 상기 진단 시스템(100)은 전송된 생체이미지에 대해 본 발명의 기술적 사상에 따른 진단을 수행할 수 있다. 그리고 진단결과를 상기 클라이언트(예컨대, 20)로 전송할 수도 있다.When the diagnostic system 100 is included in a predetermined server 10 and implemented, the diagnostic system 100 may communicate with at least one client (eg, 20) accessible to the server 10. have. In this case, the client (eg, 20) may transmit a biometric image to the diagnosis system 100, and the diagnosis system 100 may perform diagnosis according to the technical idea of the present invention on the transmitted biometric image. . In addition, the diagnosis result may be transmitted to the client (eg, 20).

상기 진단 시스템(100)은 다수의 훈련용 생체 이미지를 이용하여 생체 이미지의 진단을 위한 뉴럴 네트워크를 학습할 수 있으며, 뉴럴 네트워크를 학습한 이후에는 학습된 뉴럴 네트워크를 이용하여 클라이언트(20)가 제공하는 진단 대상 이미지에 대한 진단 결과를 예측할 수 있다.The diagnosis system 100 may learn a neural network for diagnosing a biometric image using a plurality of training biometric images, and after learning the neural network, the client 20 provides it using the learned neural network. It is possible to predict the diagnosis result for the image to be diagnosed.

상기 클라이언트(20)는 이미지 센서(21)를 구비할 수 있다. 상기 이미지 센서(21)는 생체 이미지를 촬영하거나 스캔하기 위한 센서일 수 있다. 상기 이미지 센서(21)는 생체 이미지를 연속 촬영할 수 있다. 예를 들어, 상기 이미지 센서(21)는 초당 60 프레임으로 생체 이미지를 촬영할 수 있다. The client 20 may include an image sensor 21. The image sensor 21 may be a sensor for photographing or scanning a living body image. The image sensor 21 may continuously capture a living body image. For example, the image sensor 21 may capture a biometric image at 60 frames per second.

일 실시예에서, 상기 이미지 센서(21)는 카메라일 수 있다.In one embodiment, the image sensor 21 may be a camera.

다른 일 실시예에서 상기 이미지 센서(21)는 현미경일 수 있다. 이 경우 상기 이미지 센서(21)는 생체 슬라이드의 특정 부위를 확대하여 촬영할 수 있으며, 상기 클라이언트(20)를 이용하여 생체 이미지를 진단하고자 하는 진단자는 슬라이드 상의 촬영 영역을 움직여 가며 생체 슬라이드의 특정 영역에 대한 진단을 수행할 수 있다.In another embodiment, the image sensor 21 may be a microscope. In this case, the image sensor 21 may enlarge and take a picture of a specific part of the biological slide, and a diagnostician who wants to diagnose a biological image by using the client 20 moves the photographing area on the slide and moves it to a specific area of the biological slide. Diagnosis can be performed.

상기 질병 진단 시스템(100)은 도 1에서는 어느 하나의 물리적 장치로 구현된 것으로 도시하였지만, 필요에 따라 복수의 물리적 장치가 유기적으로 결합되어 본 발명의 기술적 사상에 따른 진단 시스템(100)을 구현할 수 있음을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.Although the disease diagnosis system 100 is illustrated as being implemented as any one physical device in FIG. 1, a plurality of physical devices are organically combined as needed to implement the diagnosis system 100 according to the technical idea of the present invention. It will be easily inferred by an average expert in the technical field of the present invention.

또한 실시예에 따라 상기 질병 진단 시스템은(100)은 서버(10)가 아닌 클라이언트(20)에 직접 설치되어 동작하는 형태로 구현될 수도 있다.In addition, according to an embodiment, the disease diagnosis system 100 may be installed and operated directly on the client 20 instead of the server 10.

도 2는 본 발명의 일 실시예에 따른 질병 진단 시스템(100)의 개략적인 구성을 나타내는 도면이다.2 is a diagram showing a schematic configuration of a disease diagnosis system 100 according to an embodiment of the present invention.

도 2를 참조하면, 상기 시스템(100)은 저장모듈(110), 생성모듈(130), 획득모듈(140), 학습모듈(150) 및 진단모듈(160)을 포함할 수 있다. 본 발명의 실시예에 따라서는, 상술한 구성요소들 중 일부 구성요소는 반드시 본 발명의 구현에 필수적으로 필요한 구성요소에 해당하지 않을 수도 있으며, 또한 실시예에 따라 상기 진단 시스템(100)은 이보다 더 많은 구성요소를 포함할 수도 있음은 물론이다. 예를 들어 상기 시스템(100)은 상기 시스템(100)의 다른 구성(예를 들면, 저장모듈(110), 생성모듈(130), 획득모듈(140), 학습모듈(150) 및 진단모듈(160) 등)의 기능 및/또는 리소스를 제어하기 위한 제어모듈(미도시)을 더 포함할 수도 있다. 또한 실시예에 따라 상기 시스템(100)은 본 발명의 기술적 사상을 구현하는데 필요한 각종 정보 및/또는 데이터를 저장하기 위한 데이터베이스(Database; DB; 300)를 더 포함할 수도 있다. Referring to FIG. 2, the system 100 may include a storage module 110, a generation module 130, an acquisition module 140, a learning module 150, and a diagnosis module 160. Depending on the embodiment of the present invention, some of the above-described components may not necessarily correspond to the components essential to the implementation of the present invention, and according to the embodiment, the diagnostic system 100 may be It goes without saying that more components may be included. For example, the system 100 includes other components of the system 100 (for example, the storage module 110, the generation module 130, the acquisition module 140, the learning module 150), and the diagnosis module 160 ), etc.) may further include a control module (not shown) for controlling functions and/or resources. In addition, according to an embodiment, the system 100 may further include a database (DB) 300 for storing various types of information and/or data necessary to implement the technical idea of the present invention.

상기 시스템(100)은 본 발명의 기술적 사상을 구현하기 위해 필요한 하드웨어 리소스(resource) 및/또는 소프트웨어를 구비한 논리적인 구성을 의미할 수 있으며, 반드시 하나의 물리적인 구성요소를 의미하거나 하나의 장치를 의미하는 것은 아니다. 즉, 상기 시스템(100)은 본 발명의 기술적 사상을 구현하기 위해 구비되는 하드웨어 및/또는 소프트웨어의 논리적인 결합을 의미할 수 있으며, 필요한 경우에는 서로 이격된 장치에 설치되어 각각의 기능을 수행함으로써 본 발명의 기술적 사상을 구현하기 위한 논리적인 구성들의 집합으로 구현될 수도 있다. 또한, 상기 시스템(100)은 본 발명의 기술적 사상을 구현하기 위한 각각의 기능 또는 역할별로 별도로 구현되는 구성들의 집합을 의미할 수도 있다. 예컨대, 저장모듈(110), 생성모듈(130), 획득모듈(140), 학습모듈(150) 및 진단모듈(160) 각각은 서로 다른 물리적 장치에 위치할 수도 있고, 동일한 물리적 장치에 위치할 수도 있다. 또한, 구현 예에 따라서는 상기 저장모듈(110), 생성모듈(130), 획득모듈(140), 학습모듈(150) 및 진단모듈(160) 각각을 구성하는 소프트웨어 및/또는 하드웨어의 결합 역시 서로 다른 물리적 장치에 위치하고, 서로 다른 물리적 장치에 위치한 구성들이 서로 유기적으로 결합되어 각각의 상기 모듈들을 구현할 수도 있다.The system 100 may refer to a logical configuration including hardware resources and/or software necessary to implement the technical idea of the present invention, and necessarily refers to one physical component or one device. Does not mean that. That is, the system 100 may mean a logical combination of hardware and/or software provided to implement the technical idea of the present invention. If necessary, the system 100 is installed in a device separated from each other to perform each function. It may be implemented as a set of logical configurations for implementing the technical idea of the present invention. In addition, the system 100 may refer to a set of components implemented separately for each function or role for implementing the technical idea of the present invention. For example, each of the storage module 110, the generation module 130, the acquisition module 140, the learning module 150, and the diagnosis module 160 may be located in different physical devices or in the same physical device. have. In addition, depending on the implementation example, the combination of software and/or hardware constituting each of the storage module 110, the generation module 130, the acquisition module 140, the learning module 150, and the diagnostic module 160 Components located in different physical devices and components located in different physical devices may be organically combined with each other to implement the respective modules.

또한, 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스(resource)의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In addition, in the present specification, a module may mean a functional and structural combination of hardware for performing the technical idea of the present invention and software for driving the hardware. For example, the module may mean a predetermined code and a logical unit of a hardware resource for executing the predetermined code, and does not necessarily mean a physically connected code or a single type of hardware. Can be easily inferred by an average expert in the technical field of the present invention.

상기 DB(200)는 복수의 훈련용 생체 이미지를 저장할 수 있다. 상기 훈련용 생체 이미지는 조직 이미지, 생검 이미지를 비롯한 다양한 생체 이미지일 수 있다. The DB 200 may store a plurality of training biometric images. The training biometric image may be various biometric images including tissue images and biopsy images.

또한 상기 훈련용 생체 이미지는 생체 슬라이드일 수도 있으며, 생체 슬라이가 분할된 일부인 패치일 수도 있다.In addition, the training biological image may be a biological slide or a patch in which the biological slide is divided.

상기 복수의 훈련용 생체 이미지 각각에는 질병 진단 결과가 라벨링되어 있을 수 있다. 라벨링된 진단 결과는 상기 질병 진단 시스템(100)이 진단하는 진단 결과와 동일한 종류일 수 있다. 각각의 훈련용 생체 이미지에 라벨링되어 있는 진단 결과는 의료 전문가가 미리 해당 생체 이미지를 기반으로 내린 질병에 대한 판단 결과일 수 있다.A disease diagnosis result may be labeled on each of the plurality of training biological images. The labeled diagnosis result may be the same type as the diagnosis result diagnosed by the disease diagnosis system 100. The diagnosis result labeled on each training biometric image may be a result of determining a disease previously made by a medical professional based on the corresponding biometric image.

예를 들어, 상기 질병 진단 시스템(100)이 질병의 발병 유무에 대한 분류 결과를 예측하는 시스템인 경우, 복수의 훈련용 생체 이미지 각각에 라벨링된 진단 결과 역시 질병의 발병 유무에 대한 것일 수 있다. 또는 실시예에 따라서는 생체 이미지에 대한 진단 결과는 예를 들어 생체 이미지 대한 진단 결과는 특정 질병의 발현여부(음성/양성)뿐만 아니라, 특정 질병의 진행 정도(또는 진행 정도에 해당할 확률)를 포함할 수 있다. 예를 들어, 본 발명의 기술적 사상이 전립선 암의 진단에 이용되는 경우, 전립선 암의 진행 정도를 나타내는 지표인 글리슨 패턴(Gleason Pattern) 또는 글리슨 스코어(Gleason Score)가 진단 결과에 포함될 수 있다. 예컨대, 글리슨 스코어는 2 내지 10의 값을 가지며, 통상적으로는 6 내지 10의 값을 암으로 볼 수 있으며, 숫자가 클수록 전립선 암이 발현된 정도가 심한 것을 나타낸다. 글리슨 패턴은 1 내지 5까지의 부류로 구분될 수 있다.For example, when the disease diagnosis system 100 is a system that predicts a classification result for the presence or absence of a disease, the diagnosis result labeled on each of the plurality of training biometric images may also indicate the presence or absence of the disease. Or, depending on the embodiment, the diagnosis result for the biometric image is, for example, the diagnosis result for the biometric image, not only whether a specific disease has occurred (negative/positive), but also the degree of progression (or probability corresponding to the degree of progression) of a specific disease. Can include. For example, when the technical idea of the present invention is used for diagnosis of prostate cancer, a Gleason Pattern or Gleason Score, an index indicating the progression of prostate cancer, may be included in the diagnosis result. For example, the Gleason score has a value of 2 to 10, and usually a value of 6 to 10 can be considered as cancer, and the higher the number, the more severe the degree of prostate cancer is. Gleason patterns can be classified into classes 1 to 5.

만약 상기 질병 진단 시스템(100)이 질병의 발병 영역 혹은 픽셀 단위의 진단 결과를 예측하는 시스템(즉, 세그멘테이션을 수행하는 시스템)인 경우, 복수의 훈련용 생체 이미지 각각에 라벨링된 진단 결과 역시 질병의 발병 영역 혹은 픽셀 단위의 진단 결과에 관한 것일 수 있다.If the disease diagnosis system 100 is a system that predicts a disease incidence area or a diagnosis result in units of pixels (i.e., a system that performs segmentation), the diagnosis result labeled on each of the plurality of training biological images is also It may relate to the onset area or the diagnosis result in units of pixels.

한편, 상기 질병은 전립선 암일 수 있으며, 이하에서는 전립선 암을 중심으로 설명하지만 본 발명의 기술적 사상이 전립선 암에 국한되는 것이 아님은 본 발명이 속하는 분야에서 통상의 기술자라면 용이하게 이해할 수 있을 것이다.On the other hand, the disease may be prostate cancer, and the description will focus on prostate cancer hereinafter, but it will be easily understood by those of ordinary skill in the field to which the present invention belongs that the technical idea of the present invention is not limited to prostate cancer.

상기 저장모듈(110)에는 진단 뉴럴 네트워크(120)가 저장될 수 있으며, 상기 진단 뉴럴 네트워크(120)는 생성모듈(130)에 의해 생성될 수 있다. 상기 진단 뉴럴 네트워크(120)는 생체 이미지를 이용하여 소정의 질병에 대한 진단 결과를 예측하기 위한 뉴럴 네트워크일 수 있다.The storage module 110 may store a diagnostic neural network 120, and the diagnostic neural network 120 may be generated by the generation module 130. The diagnostic neural network 120 may be a neural network for predicting a diagnosis result for a predetermined disease using a biometric image.

상기 저장모듈(110)은 진단 뉴럴 네트워크(120)를 저장할 수 있는 데이터 저장수단을 의미할 수 있으며, 구현 예에 따라 복수의 저장수단으로 구현될 수도 있다. 또한 상기 저장모듈(110)은 상기 서버(10)에 포함된 주 기억장치뿐만 아니라, 임시 저장장치 또는 메모리 등을 포함하는 의미일 수도 있다.The storage module 110 may mean a data storage means capable of storing the diagnostic neural network 120, and may be implemented as a plurality of storage means according to implementation examples. In addition, the storage module 110 may mean not only a main memory device included in the server 10 but also a temporary storage device or a memory.

상기 진단 뉴럴 네트워크(120)는 패치 단위의 생체 이미지를 진단하기 위한 뉴럴 네트워크일 수 있다. 이때, 패치는 소정의 슬라이드가 일정한 크기로 분할된 일부의 이미지일 수 있다. 즉, 하나의 슬라이드는 복수의 패치로 분할될 수 있으며, 상기 진단 뉴럴 네트워크(120)는 패치를 입력받아 패치 레벨 진단을 수행할 수 있다. 진단을 수행하기 전 상기 진단 뉴럴 네트워크(120)는 학습모듈(150)에 의해 미리 학습될 수 있다.The diagnostic neural network 120 may be a neural network for diagnosing a biometric image in units of patches. In this case, the patch may be a partial image in which a predetermined slide is divided into a predetermined size. That is, one slide may be divided into a plurality of patches, and the diagnostic neural network 120 may receive a patch and perform a patch level diagnosis. Before performing diagnosis, the diagnosis neural network 120 may be learned in advance by the learning module 150.

한편, 상기 진단 뉴럴 네트워크(120)가 출력하는 정보는 상기 패치에 해당하는 조직에 특정 질병(예컨대, 특정 종류의 암)이 발현되었는지 여부 또는 특정 질병이 발병한 영역에 대한 판단이 가능하도록 하는 정보일 수 있다. 예를 들어, 상기 진단 뉴럴 네트워크(160)가 출력하는 정보는 상기 패치에 해당하는 조직에 특정 질병(예컨대, 특정 종류의 암)이 발현되었는지 여부에 대한 확률을 나타내는 정보일 수 있다. 이 경우, 상기 진단 뉴럴 네트워크(120)가 출력한 확률 값이 특정 기준 값(문턱 값) 이상인 경우 상기 패치에 질병(예컨대, 전립선 암)이 발현한 것으로 판단할 수 있다. 물론, 실시예에 따라 상기 진단 뉴럴 네트워크(120)는 특정 질병의 발현여부뿐만 아니라, 특정 질병의 진행 정도를 나타내는 정보(또는 상기 진행 정도에 해당할 확률)를 출력할 수도 있다. 예컨대, 본 발명의 기술적 사상이 전립선 암의 진단에 이용되는 경우, 전립선 암의 진행 정도를 나타내는 지표인 글리슨 패턴(Gleason Pattern) 또는 글리슨 스코어(Gleason Score)가 상기 진단 뉴럴 네트워크(120)가 출력하는 정보에 포함될 수 있다. 한편, 상기 진단 뉴럴 네트워크(120)가 이용하는 문턱 값은 다양하게 설정될 수 있으며, 문턱 값에 따라 특정 패치가 질병이 발현된 패치 즉, 질병 패치로 판단될 수도 있고 노멀 패치로 판단될 수 있음은 물론이다.On the other hand, the information output from the diagnostic neural network 120 is information that enables determination of whether a specific disease (eg, a specific type of cancer) has been expressed in the tissue corresponding to the patch or a region where a specific disease has occurred. Can be For example, the information output by the diagnostic neural network 160 may be information indicating a probability of whether a specific disease (eg, a specific type of cancer) has been expressed in a tissue corresponding to the patch. In this case, when the probability value output from the diagnostic neural network 120 is greater than or equal to a specific reference value (threshold value), it may be determined that a disease (eg, prostate cancer) is expressed in the patch. Of course, according to an exemplary embodiment, the diagnostic neural network 120 may output not only whether or not a specific disease has occurred, but also information indicating the degree of progression of a specific disease (or a probability corresponding to the degree of progression). For example, when the technical idea of the present invention is used for diagnosis of prostate cancer, the Gleason Pattern or Gleason Score, which is an index indicating the progression of prostate cancer, is output by the diagnostic neural network 120. Can be included in the information. On the other hand, the threshold value used by the diagnostic neural network 120 may be variously set, and a specific patch may be determined as a disease patch, that is, a disease patch, or a normal patch according to the threshold value. Of course.

또는 상기 진단 뉴럴 네트워크(120)는 패치를 입력 받아 해당 패치를 구성하는 각 픽셀 별로 상기 질병에 대한 분류 결과를 예측하기 위한 뉴럴 네트워크일 수 있다. 픽셀 별 분류 결과를 출력하는 상기 진단 뉴럴 네트워크(120)는 질병의 발병 영역을 구분하기 위한 세크멘테이션을 수행할 수 있다. 이때, 상기 진단 뉴럴 네트워크(120)는 패치를 구성하는 각각의 픽셀 별 질병의 발병 여부 혹은 질병의 발병 확률을 출력될 수 있으며, 발병한 것을 판단된 픽셀 혹은 발병 확률이 일정한 문턱 값을 넘은 픽셀이 구성하는 영역이 발병 영역으로 판단될 수 있다.Alternatively, the diagnostic neural network 120 may be a neural network for receiving a patch and predicting a classification result of the disease for each pixel constituting the patch. The diagnostic neural network 120 that outputs the classification result for each pixel may perform segmentation to classify an onset region of a disease. In this case, the diagnostic neural network 120 may output the occurrence of a disease or the probability of a disease for each pixel constituting the patch, and a pixel determined to have an onset or a pixel having an onset probability exceeding a predetermined threshold value is The constituting area may be determined as an onset area.

실시예에 따라 상기 진단 뉴럴 네트워크(120)은 각각의 픽셀 별 질병의 발병 여부(혹은 질병의 발병 확률) 및/또는 질병의 진행 정도(또는 상기 진행 정도에 해당할 확률)를 예측하여 출력할 수도 있다.Depending on the embodiment, the diagnostic neural network 120 may predict and output whether a disease occurs (or a disease probability) and/or a disease progression degree (or a probability corresponding to the progression degree) for each pixel. have.

한편, 세그멘테이션(즉, 픽셀 별 진단 결과 예측)을 수행하기 전 상기 진단 뉴럴 네트워크(120)는 학습모듈(150)에 의해 미리 학습될 수 있다.Meanwhile, before segmentation (ie, prediction of a diagnosis result for each pixel) is performed, the diagnosis neural network 120 may be learned in advance by the learning module 150.

본 명세서에서 뉴럴 네트워크는 뉴럴 네트워크를 정의하는 일련의 설계사항들을 표현하는 정보의 집합을 의미할 수 있다. 일 실시예에서 상기 진단 뉴럴 네트워크(120)은 컨볼루션 뉴렬 네트워크일 수 있다.In the present specification, a neural network may mean a set of information representing a series of design items defining a neural network. In an embodiment, the diagnostic neural network 120 may be a convolutional neural network.

상기 컨볼루션 뉴렬 네트워크는 잘 알려진 바와 같이, 입력 레이어, 복수의 히든 레이어들, 및 출력 레이어를 포함할 수 있다. 복수의 히든 레이어들 각각은 컨볼루션 레이어 및 풀링 레이어(또는 서브 샘플링 레이어)를 포함할 수 있다. As is well known, the convolutional newelul network may include an input layer, a plurality of hidden layers, and an output layer. Each of the plurality of hidden layers may include a convolution layer and a pooling layer (or sub-sampling layer).

컨볼루션 뉴렬 네트워크는 이러한 각각의 레이어들을 정의하기 위한 함수, 필터, 스트라이드(stride), 웨이트 팩터 등에 의해 정의될 수 있다. 또한, 출력 레이어는 풀리 커넥티드(fully connected)된 전방향 레이어(FeedForward layer)로 정의될 수 있다. The convolutional newelite network may be defined by a function, a filter, a stride, a weight factor, or the like for defining each of these layers. In addition, the output layer may be defined as a fully connected feedforward layer.

컨볼루션 뉴렬 네트워크를 구성하는 각각의 레이어별 설계 사항은 널리 알려져 있다. 예컨대, 복수의 레이어들에 포함될 레이어의 개수, 상기 복수의 레이어들을 정의하기 위한 컨볼루션 함수, 풀링 함수, 활성화 함수 각각에 대해서는 공지된 함수들이 이용될 수도 있고, 본 발명의 기술적 사상을 구현하기 위해 별도로 정의된 함수들이 이용될 수도 있다. The design details of each layer constituting the convolutional newelul network are widely known. For example, known functions may be used for each of the number of layers to be included in a plurality of layers, a convolution function, a pooling function, and an activation function for defining the plurality of layers, and to implement the technical idea of the present invention. Separately defined functions may be used.

컨볼루션 함수의 일 예로는 이산 컨볼류션 합 등이 있다. 풀링 함수의 일 예로는 맥스 풀링(max pooling), 에버리지 풀링(average pooling) 등이 이용될 수 있다. 활성화 함수의 일 예로는 시그모이드 (sigmoid), 탄젠트 하이퍼볼릭 (tanh), ReLU (rectified linear unit)등일 수 있다. An example of a convolution function is a discrete convolution sum. As an example of the pooling function, max pooling, average pooling, or the like may be used. An example of the activation function may be a sigmoid, a tangent hyperbolic (tanh), a rectified linear unit (ReLU), or the like.

이러한 컨볼루션 뉴렬 네트워크의 설계 사항이 정의되면 설계사항이 정의된 컨볼루션 뉴럴 네트워크가 저장장치에 저장될 수 있다. 그리고 상기 컨볼류션 뉴럴 네트워크가 학습되면, 각각의 레이어들에 해당하는 웨이트 팩터가 특정될 수 있다. When the design items of such a convolutional neural network are defined, the convolutional neural network in which the design items are defined may be stored in a storage device. In addition, when the convolutional neural network is learned, a weight factor corresponding to each layer may be specified.

즉, 컨볼루션 뉴렬 네트워크의 학습은 각각의 레이어들의 웨이트 팩터들이 결정되는 프로세스를 의미할 수 있다. 그리고 컨볼루션 뉴렬 네트워크가 학습되면, 학습된 컨볼루션 뉴렬 네트워크는 입력 레이어에 입력 데이터를 입력받고 미리 정의된 출력 레이어를 통해 출력 데이터를 출력할 수 있다. That is, learning of the convolutional newelul network may refer to a process in which weight factors of each layer are determined. In addition, when the convolutional neural network is trained, the learned convolutional neural network may receive input data into an input layer and output output data through a predefined output layer.

본 발명의 실시 예에 따른 뉴럴 네트워크는 상기와 같이 널리 알려진 설계 사항들 중 어느 하나 또는 복수 개를 선택하여 정의될 수도 있고, 독자적인 설계 사항이 상기 뉴럴 네트워크를 위해 정의될 수도 있다.The neural network according to an embodiment of the present invention may be defined by selecting any one or a plurality of widely known design items as described above, or an independent design item may be defined for the neural network.

다시 도 2를 참조하면, 상기 획득모듈(140)은 상기 진단 뉴럴 네트워크(120) 에 대한 기계학습을 위한 훈련 데이터를 획득할 수 있다. 즉, 상기 획득모듈(140)은 복수의 훈련용 생체 이미지 이미지를 획득할 수 있으며, 상기 복수의 훈련용 생체 이미지 이미지 각각에는 그에 상응하는 진단 결과가 라벨링되어 있을 수 있다. 예를 들어 상기 획득모듈(140)은 상기 DB(200)로부터 훈련용 생체 이미지 이미지를 획득할 수 있다.Referring back to FIG. 2, the acquisition module 140 may acquire training data for machine learning for the diagnostic neural network 120. That is, the acquisition module 140 may acquire a plurality of training biometric images, and each of the plurality of training biometric images may be labeled with a corresponding diagnosis result. For example, the acquisition module 140 may acquire a training biometric image from the DB 200.

또한 본 명세서에서는 전립선 암에 대해 본 발명의 기술적 사상이 적용된 일 예를 주로 설명하였지만, 특정 조직뿐만 아니라 해당 조직이 주변조직의 상태까지 고려하여 상기 특정 조직의 진단을 수행할 필요가 있는 다른 질병에 대해서도 본 발명의 기술적 사상이 적용될 경우 정확한 진단이 가능할 수 있음을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.In addition, although the present specification has mainly described an example in which the technical idea of the present invention is applied to prostate cancer, not only a specific tissue but also the state of the surrounding tissues is taken into consideration, and the diagnosis of the specific tissue needs to be performed. Also, when the technical idea of the present invention is applied, an average expert in the technical field of the present invention can easily infer that accurate diagnosis may be possible.

한편 상기 학습모듈(150)은 상기 복수의 훈련용 생체 이미지를 이용하여, 상기 진단 뉴럴 네트워크(120)를 훈련할 수 있다.Meanwhile, the learning module 150 may train the diagnostic neural network 120 using the plurality of training biometric images.

보다 상세하게는 상기 학습모듈(150)은 상기 복수의 훈련용 생체 이미지 각각에 대하여, 상기 훈련용 생체 이미지에 서로 다른 특성을 가지는 노이즈를 삽입하여 상기 훈련용 생체 이미지에 상응하는 K개(여기서, K는 2 이상의 정수)의 노이즈 삽입 이미지를 생성하고, 상기 훈련용 생체 이미지에 상응하는 K개의 노이즈 삽입 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 진단 뉴럴 네트워크를 훈련할 수 있다.In more detail, the learning module 150 inserts noises having different characteristics into the training biometric images for each of the plurality of training biometric images, so that K pieces corresponding to the training biometric images (here, K is an integer greater than or equal to 2) noise-inserted images are generated, and K noise-inserted images corresponding to the training biometric images are input to the diagnostic neural network to train the diagnostic neural network.

도 3은 본 발명의 일 실시예에 따라, 상기 진단 시스템(100)이 복수의 훈련용 생체 이미지를 이용하여 진단 뉴럴 네트워크(120)를 학습하는 과정을 도시한 흐름도이다.3 is a flowchart illustrating a process in which the diagnostic system 100 learns the diagnostic neural network 120 using a plurality of training biometric images according to an embodiment of the present invention.

도 3을 참조하면 상기 진단 시스템(100)의 획득모듈(140)은 질병에 대한 진단 결과가 각각 라벨링되어 있는 N개(N은 2 이상의 정수)의 훈련용 생체 이미지를 획득할 수 있다(S100).Referring to FIG. 3, the acquisition module 140 of the diagnosis system 100 may acquire N (N is an integer equal to or greater than 2) training biometric images each labeled with a diagnosis result for a disease (S100). .

이후 상기 진단 시스템(100)의 진단모듈(150)은 상기 N개의 훈련용 생체 이미지 각각에 대하여, S120 내지 S150의 과정을 수행할 수 있다(S110).Thereafter, the diagnosis module 150 of the diagnosis system 100 may perform the processes S120 to S150 for each of the N training biometric images (S110).

J번째 훈련용 생체 이미지 Sj를 통한 학습 과정의 경우, S120 단계에서 훈련용 생체 이미지 Sj에 서로 다른 특성을 가지는 노이즈를 삽입하여 상기 훈련용 생체 이미지 Sj에 상응하는 K개(여기서, K는 2 이상의 정수)의 노이즈 삽입 이미지 T(J, 1) 내지 T(J, K)를 생성할 수 있다(S120).For a J-th training the learning process by the biometric image S j for, K dog by inserting a noise having different characteristics in the living body image S j for training at the S120 step corresponding to a biometric image S j for the train (here, K Is an integer greater than or equal to 2) of noise-inserted images T (J, 1) to T (J, K) (S120).

예를 들어, 노이즈 삽입 이미지 T(J, 1) 내지 T(J, K)는 훈련용 생체 이미지 Sj에 평균 및/또는 분산이 서로 상이한 가우시안 노이즈(Gaussian Noise)가 각각 부가된 이미지일 수 있다. 가우시안 노이즈가 부가되는 경우 평균 및/또는 분산 외에도 다양한 파라미터가 변형될 수 있음은 물론이며, 가우시안 노이즈 외에도 다양한 형태의 노이즈가 생체 이미지에 부가되는 실시예가 존재할 수 있다.For example, the noise insertion images T (J, 1) to T (J, K) may be images in which Gaussian noise having different averages and/or variances from each other is added to the training biometric image S j. . When Gaussian noise is added, in addition to the average and/or variance, various parameters may be modified, and there may be embodiments in which various types of noise are added to the biometric image in addition to Gaussian noise.

S130 단계에서, 상기 훈련용 생체 이미지 Sj에 상응하는 K개의 노이즈 삽입 이미지 T(J, 1) 내지 T(J, K)를 모두 연결(concatenation)하여 상기 훈련용 생체 이미지 Sj에 상응하는 하나의 훈련 데이터 Uj를 생성할 수 있다. 이때, 훈련 데이터 Uj는 상기 훈련용 생체 이미지 Sj의 라벨로 라벨링될 수 있다(S130).In step S130, the training biometric image of the K noise insert image corresponding to the S j for the T (J, 1) to T (J, K) to connect (concatenation) all of the one corresponding to the living body image S j for the training We can generate the training data U j of. In this case, the training data U j may be labeled with the label of the training biometric image S j (S130).

S140 단계에서, 상기 훈련용 생체 이미지 Sj에 상응하는 훈련 데이터 Uj를 상기 진단 뉴럴 네트워크(120)에 입력하여 상기 진단 뉴럴 네트워크(120)를 훈련할 수 있다.In step S140, training data U j corresponding to the training biometric image S j may be input to the diagnostic neural network 120 to train the diagnostic neural network 120.

도 4는 하나의 훈련용 생체 이미지에 두 개의 서로 다른 노이즈가 부가되어 생성되는 두 개의 노이즈 부가 이미지가 결합되어 학습에 이용되는 예(즉, K가 2인 예)를 도시한 도면이다.4 is a diagram illustrating an example in which two noise-added images generated by adding two different noises to one training body image are combined and used for learning (that is, an example in which K is 2).

도 4에 도시된 바와 같이, 학습 대상이 되는 원본 이미지에 노이즈 1 와 노이즈 2를 각각 부가하여 서로 다른 두 개의 노이즈 삽입 이미지를 생성하고, 이들을 결합한 뒤 상기 진단 뉴럴 네트워크(120)에 입력하여 학습을 수행할 수 있다.As shown in FIG. 4, noise 1 and noise 2 are respectively added to the original image to be learned to generate two different noise-inserted images, and after combining them, input to the diagnostic neural network 120 to perform learning. You can do it.

다시 도 2를 참조하면, 상기 진단모듈(160)은 연속 촬영된 K개의 진단 대상 생체 이미지를 획득하고, 상기 K개의 진단 대상 생체 이미지를 상기 학습모듈(150)에 의해 학습된 상기 진단 뉴럴 네트워크(120)에 입력하여 상기 질병에 대한 진단 결과를 예측할 수 있다. 일 실시예에서, 상기 K개의 진단 대상 생체 이미지는 상기 이미지 센서(21)에 의해 촬영된 생체 이미지일 수 있다.Referring back to FIG. 2, the diagnostic module 160 acquires K diagnostic-target biometric images that are continuously photographed, and the K diagnostic-target biometric images are learned by the learning module 150. 120), the diagnosis result for the disease can be predicted. In an embodiment, the K number of biometric images to be diagnosed may be biometric images captured by the image sensor 21.

도 5는 본 발명의 일 실시예에 따라 상기 진단 시스템(100)이 진단 대상 생체 이미지를 진단하는 과정을 도시한 흐름도이다.5 is a flowchart illustrating a process of diagnosing a biometric image to be diagnosed by the diagnosis system 100 according to an embodiment of the present invention.

도 5를 참조하면, 상기 진단모듈(160)은 연속 촬영된 K개의 진단 대상 생체 이미지 O1 내지 OK를 획득할 수 있다(S200).Referring to FIG. 5, the diagnosis module 160 may acquire K consecutively photographed biometric images O 1 to O K to be diagnosed (S200).

상기 진단모듈(160)은 상기 K개의 진단 대상 생체 이미지 O1 내지 OK에 기초하여 소정의 진단조건이 만족하는지 여부를 판단할 수 있다(S210).The diagnosis module 160 may determine whether a predetermined diagnosis condition is satisfied based on the K diagnosis target biometric images O 1 to O K (S210).

일 실시예에서, 상기 진단모듈(160)은 상기 K개의 진단 대상 생체 이미지에 기초하여 상기 진단 대상 이미지를 촬영하고 있는 이미지 센서(21)가 이동 중인지 여부를 판단할 수 있으며, 상기 이미지 센서(21)가 이동 중이 아니라고 판단된 경우 진단조건이 만족된 것으로 판단할 수 있다. 즉, 상기 진단모듈(160)은 이미지 센서(21)가 이동 중이 아니라 정지상태로 생체 이미지의 특정 부위를 계속 촬영하고 있는 상태인 경우에 진단조건이 만족하는 것으로 판단할 수 있다.In one embodiment, the diagnosis module 160 may determine whether the image sensor 21 that is photographing the diagnosis target image is moving based on the K diagnosis target biometric images, and the image sensor 21 If it is determined that) is not moving, it can be determined that the diagnosis condition is satisfied. That is, the diagnosis module 160 may determine that the diagnosis condition is satisfied when the image sensor 21 is not in motion but continues to photograph a specific part of the biometric image in a stationary state.

예를 들어, 상기 진단모듈(160) 연속된 두 이미지 간의 관계를 나타내는 수치 혹은 수치 값들을 산출하고, 산출된 수치 혹은 수치 값들이 소정의 한계 범위 이내인 경우 이동 중이 아니라고 판단할 수 있다.For example, the diagnostic module 160 may calculate a numerical value or numerical values representing a relationship between two consecutive images, and determine that the calculated numerical value or numerical values are within a predetermined limit range, it is not in motion.

또는 실시예에 따라 상기 진단모듈(160)은 이미지 센서(21)가 이동 중이 아니면서, 상기 K개의 진단 대상 생체 이미지가 생체 조직을 촬영하고 있는 것으로 판단한 경우에 진단 조건이 만족된 것으로 판단할 수 있다. 이 외에도 다양한 진단 조건이 미리 설정될 수 있다.Alternatively, according to an embodiment, the diagnosis module 160 may determine that the diagnosis condition is satisfied when it is determined that the K diagnosis target biometric images are photographing a living body tissue while the image sensor 21 is not moving. have. In addition to this, various diagnostic conditions may be set in advance.

만약 진단조건이 만족되지 않은 경우, 질병에 대한 진단이 수행되지 않고 후속 촬영된 K개의 생체 이미지들을 획득할 수 있다(S210, S200 참조).If the diagnosis condition is not satisfied, the diagnosis of the disease is not performed and K biometric images photographed subsequently may be acquired (see S210 and S200).

만약 진단조건이 만족된 경우, 상기 진단모듈(160)은 K개의 진단 대상 생체 이미지 O1 내지 OK를 연결(concatenation)하여 진단 대상 데이터 P를 생성할 수 있으며(S220), 진단 대상 데이터 P를 상기 진단 뉴럴 네트워크(120)에 입력하여 질병에 대한 진단 결과를 예측할 수 있다.If the diagnosis condition is satisfied, the diagnosis module 160 may concatenate K biometric images O 1 to O K to be diagnosed to generate the diagnosis target data P (S220), and the diagnosis target data P By inputting into the diagnostic neural network 120, a diagnosis result for a disease may be predicted.

도 6은 두 개의 연속 촬영된 진단 대상 생체 이미지를 이용하여 진단을 수행하는 과정을 설명하기 위한 도면이다.6 is a diagram for explaining a process of performing a diagnosis using two consecutively photographed biometric images to be diagnosed.

도 6에 도시된 바와 같이, 입력장치(예를 들어, 이미지 센서(21))로부터 획득한 두 개의 진단 대상 이미지(즉, 이미지 1, 이미지 2)가 서로 결합되어 진단조건이 만족되는지 여부를 판단하기 위한 알고리즘에 입력될 수 있다. 만약 진단조건이 만족되는 경우, 상기 결합된 데이터(즉, 진단 대상 데이터)가 학습된 진단 뉴럴 네트워크(120)에 입력될 수 있으며, 진단 뉴럴 네트워크(120)는 진단 결과를 예측할 수 있다.As shown in FIG. 6, two diagnostic target images (ie, image 1 and image 2) acquired from an input device (eg, image sensor 21) are combined to determine whether or not the diagnosis condition is satisfied. It can be entered into the algorithm for doing. If the diagnosis condition is satisfied, the combined data (ie, diagnosis target data) may be input to the learned diagnosis neural network 120, and the diagnosis neural network 120 may predict a diagnosis result.

상술한 바와 같이, 실시예에 따라서 상기 진단 뉴럴 네트워크(12)는 생체 이미지(예를 들어 패치) 중 질병의 발병 영역을 특정하기 위한 세그멘테이션을 수행하는 세그멘테이션 뉴럴 네트워크일 수 있는데, 이를 위하여 상기 세그멘테이션 뉴럴 네트워크는 매우 독특한 구조를 가질 수 있다.As described above, according to an embodiment, the diagnostic neural network 12 may be a segmentation neural network that performs segmentation for specifying an onset region of a disease among a living body image (for example, a patch). Networks can have very unique structures.

본 발명의 일 실시예에 따른 세그멘테이션을 위한 진단 뉴럴 네트워크(120)는 생체 이미지에 질병이 존재하는지 여부를 판단하기 위한 클래시피케이션을 수행하는 뉴럴 네트워크(후술할 '클래시피케이션 뉴럴 네트워크')를 베이스로 하여, 여기에 세그멘테이션을 위한 서브 아키텍쳐를 결합한 형태로 구현될 수 있다. 이와 같은 진단 뉴럴 네트워크(120)의 구조가 도 7에 도시되어 있다.The diagnostic neural network 120 for segmentation according to an embodiment of the present invention uses a neural network (a'classification neural network' to be described later) that performs classification to determine whether a disease exists in a living body image. As a base, it can be implemented in a form in which a sub-architecture for segmentation is combined. The structure of such a diagnostic neural network 120 is illustrated in FIG. 7.

도 7은 본 발명의 일 실시예에 따른 세그멘테이션을 위한 진단 뉴럴 네트워크(120)의 전체적인 구조를 설명하기 위한 도면이다.7 is a diagram illustrating an overall structure of a diagnostic neural network 120 for segmentation according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 본 발명의 일 실시예에 따른 진단 뉴럴 네트워크(120)는 클래시피케이션 뉴럴 네트워크(200) 및 세그멘테이션 아키텍쳐(260)를 포함할 수 있다.As shown in FIG. 7, the diagnostic neural network 120 according to an embodiment of the present invention may include a classification neural network 200 and a segmentation architecture 260.

상기 클래시피케이션 뉴럴 네트워크(200)는 상기 진단 대상 데이터를 입력 레이어로 입력 받아서 상기 진단 대상 데이터에 상응하는 진단 대상 이미지에 질병이 존재하는지 여부에 관한 분류 결과(예를 들어, 도 7에 도시된 바와 같은 스코어)를 출력할 수 있다. 이를 클래시피케이션이라고 하는데, 클래시피케이션 과정에서 상기 클래시피케이션 뉴럴 네트워크(200)는 내부에 포함된 일부 히든 레이어에서 중간 생성물로서 입력(즉, 패치)에 대한 피쳐를 생성할 수 있다. 특히, 이미지와 같은 2차원 이상의 매트릭스를 입력으로 받는 경우 생성되는 피쳐는 2차원 매트릭스의 형태이므로 피쳐 맵이라는 용어를 사용하기도 한다. 한편, 이하에서는 상기 클래시피케이션 뉴럴 네트워크(200)에 포함된 히든 레이어 중 피쳐 맵을 생성하는 레이어를 피쳐 맵 추출 레이어라고 부르기로 한다.The classification neural network 200 receives the diagnosis target data as an input layer, and a classification result regarding whether a disease exists in the diagnosis target image corresponding to the diagnosis target data (for example, as shown in FIG. 7 ). The same score) can be output. This is called classification. During the classification process, the classification neural network 200 may generate a feature for an input (ie, a patch) as an intermediate product in some hidden layers included therein. In particular, when a matrix of two or more dimensions, such as an image, is received as an input, the feature created is in the form of a two-dimensional matrix, so the term feature map is sometimes used. Meanwhile, hereinafter, a layer for generating a feature map among hidden layers included in the classification neural network 200 will be referred to as a feature map extraction layer.

한편, 상기 세그멘테이션 아키텍쳐(260)는 상기 클래시피케이션 뉴럴 네트워크(200)에 포함된 히든 레이어 중 2 이상의 피쳐 맵 추출 레이어 각각에서 생성되는 피쳐 맵(예를 들어, 도 4에 도시되어 있는 f1, f2, f3)을 입력 받아서 상기 패치 중 질병이 존재하는 영역을 특정하여 출력할 수 있다.On the other hand, the segmentation architecture 260 is a feature map generated from each of two or more feature map extraction layers among hidden layers included in the classification neural network 200 (e.g., f1, f2 shown in FIG. 4 ). , f3) may be input to specify and output a region in which a disease exists among the patches.

도 7에서는 클래시피케이션 뉴럴 네트워크(200)가 클래시피케이션을 수행하는 과정에서 3 개의 피쳐 맵(f1, f2, f3)을 생성하는 예를 도시하고 있으나, 실시예에 따라서 이보다 많거나 적은 수의 피쳐 맵이 생성될 수 있음은 물론이다.7 shows an example of generating three feature maps (f1, f2, f3) in the process of the classification neural network 200 performing the classification. However, depending on the embodiment, more or less number of feature maps are generated. Of course, feature maps can be created.

한편, 본 발명의 실시 예에 따르면, 클래시피케이션을 수행하는 클래시피케이션 뉴럴 네트워크(200)는 공지된 densenet을 이용하였고, 이때 이전 출원에 개시된 바와 같이 진단의 대상이 되는 특정 패치뿐만 아니라 주변 패치까지도 고려할 수 있도록 설계될 수 있다. 이외에도 다양한 뉴럴 네트워크가 활용될 수 있으며, 어떠한 경우든 상기 클래시피케이션 뉴럴 네트워크(200)는 특정 패치를 입력으로 받고 해당 특정 패치의 질병 발현 확률에 상응하는 피쳐 값을 출력하도록 정의될 수 있다.Meanwhile, according to an embodiment of the present invention, the classification neural network 200 for performing classification uses a known densenet, and at this time, as disclosed in the previous application, not only a specific patch to be diagnosed but also a peripheral patch It can be designed to take even into account. In addition, various neural networks may be used, and in any case, the classification neural network 200 may be defined to receive a specific patch as an input and output a feature value corresponding to a disease occurrence probability of the specific patch.

한편, 도 8는 상기 세그멘테이션 아키텍쳐(260)의 전체적인 구조를 설명하기 위한 도면이다.Meanwhile, FIG. 8 is a diagram for explaining the overall structure of the segmentation architecture 260.

도 8를 참조하면, 상기 세그멘테이션 아키텍쳐(260)는 컨볼루션 서브 아키텍쳐(261), 세그멘테이션 서브 아키텍쳐(263)를 포함할 수 있으며, 실시예에 따라서 크로핑 서브 아키텍쳐(264)를 더 포함할 수도 있다.Referring to FIG. 8, the segmentation architecture 260 may include a convolution sub-architecture 261 and a segmentation sub-architecture 263, and may further include a cropping sub-architecture 264 according to embodiments. .

상술한 바와 같이 상기 클레시피케이션 뉴럴 네트워크(200)에서 수행되는 클래시피케이션 과정에서 각각의 피쳐 추출 레이어에 의해 피쳐 맵들(f1, f2, f3)이 생성될 수 있는데, 피쳐 맵 각각은 상기 컨볼루션 서브 아키텍쳐(261)에 포함된 컨볼루션 노드(262-1 내지 262-3)에 입력될 수 있다.As described above, feature maps (f1, f2, f3) may be generated by each feature extraction layer in the classification process performed in the classification neural network 200, each of which is the convolution It may be input to the convolution nodes 262-1 to 262-3 included in the sub-architecture 261.

각각의 컨볼루션 노드(262-1 내지 262-3)은 상기 클레시피케이션 뉴럴 네트워크(200)에 포함된 2 이상의 피쳐 추출 레이어 각각에 대응되며, 그에 대응되는 피쳐 추출 레이어로부터 입력되는 피쳐 맵(f1 내지 f3)에 대한 컨볼루션 또는 2 이상의 서로 다른 컨볼루션을 수행할 수 있다. 한편, 실시예에 따라서 각각의 컨볼루션 노드(262-1 내지 263-3)는 업스케일링(예를 들면, 업샘플링) 또는 다운스케일링(예를 들면, 다운샘플링) 후에 컨볼루션을 수행할 수도 있다.Each of the convolution nodes 262-1 to 262-3 corresponds to each of the two or more feature extraction layers included in the manifestation neural network 200, and a feature map (f1) input from the corresponding feature extraction layer. To f3) convolution or two or more different convolutions may be performed. Meanwhile, according to an embodiment, each of the convolution nodes 262-1 to 263-3 may perform convolution after upscaling (eg, upsampling) or downscaling (eg, downsampling). .

각각의 컨볼루션 노드(262-1 내지 262-3)는 하나 또는 2 이상의 컨볼루션을 수행하여 하나 또는 2 이상의 결과물을 생성할 수 있다. 실시예에 따라서, 상기 컨볼루션 노드(262-1 내지 262-3)가 수행하는 컨볼루션은 다이얼레이티드 컨볼루션(Dilated convolution; Atrous convolution이라고도 함)일 수 있다. 다이얼레이티드 컨볼루션은 통상적인 컨볼루션과 달리 인접한 픽셀들에서 피쳐를 추출하는 것이 아니라 미리 정해진 간격(rate)을 두고 컨볼루션을 수행하는 방법이다. 예를 들어, 상기 컨볼루션 노드 중 어느 하나(예를 들어, 511-2)는 1x1 다이얼레이티드 컨볼루션, rate 6의 3x3 다이얼레이티드 컨볼루션, rate 12의 3x3 다이얼레이티드 컨볼루션, rate 18의 3x3 다이얼레이티드 컨볼루션을 수행하여 4 개의 컨볼루션 결과물(피쳐)을 생성할 수 있다.Each of the convolution nodes 262-1 to 262-3 may generate one or two or more results by performing one or two or more convolutions. According to an embodiment, the convolution performed by the convolution nodes 262-1 to 262-3 may be dialed convolution (also referred to as atrous convolution). Unlike conventional convolution, dialed convolution is a method of performing convolution at predetermined intervals rather than extracting features from adjacent pixels. For example, any one of the convolution nodes (e.g., 511-2) is 1x1 dialed convolution, 3x3 dialed convolution of rate 6, 3x3 dialed convolution of rate 12, rate 18 It is possible to generate 4 convolution products (features) by performing 3x3 dialed convolution of.

한편, 상기 세그멘테이션 서브 아키텍쳐(263)는 상기 컨볼루션 서브 아키텍쳐(261)에서 생성하는 컨볼루션 결과에 기초하여 상기 패치 중 질병이 존재하는 영역을 특정할 수 있다.Meanwhile, the segmentation sub-architecture 263 may specify a region in which a disease exists among the patches based on a convolution result generated by the convolution sub-architecture 261.

상기 세그멘테이션 서브 아키텍쳐(263)는 상기 컨볼루션 서브 아키텍쳐(261)에서 생성하는 컨볼루션 결과에 대한 소정의 연산을 수행할 수 있다. 상기 세그멘테이션 서브 아키텍쳐(263)가 수행하는 연산은 결합(concatenation) 및/또는 컨볼루션의 조합으로 정의될 수 있다. 실시예에 따라 결합 및 컨볼루션이 다양한 방식으로 조합될 수 있다.The segmentation sub-architecture 263 may perform a predetermined operation on a convolution result generated by the convolution sub-architecture 261. The operation performed by the segmentation sub-architecture 263 may be defined as a combination of concatenation and/or convolution. Combinations and convolutions can be combined in various ways, depending on the embodiment.

한편, 실시예에 따라서는 상기 크로핑 서브 아키텍쳐(264)은 상기 세그멘테이션 서브 아키텍쳐(263)에서 출력되는 결과물에 대한 센터-크로핑을 수행함으로써 세그멘테이션에 대한 최종 결과물을 생성할 수 있다. 상기 컨볼루션 서브 아키텍쳐(261) 및 세그멘테이션 서브 아키텍쳐(263)에 의한 결과물에서는 상대적으로 중앙 부분이 더욱 정확하게 결과를 반영하는 경향이 있기 때문이다.Meanwhile, according to an embodiment, the cropping sub-architecture 264 may generate a final result for segmentation by performing center-cropping on the result output from the segmentation sub-architecture 263. This is because in the results of the convolutional sub-architecture 261 and the segmentation sub-architecture 263, the center portion tends to reflect the result more accurately.

도 9는 본 발명의 일 실시예에 따른 세그멘테이션용 진단 뉴럴 네트워크(120)의 구체적인 예를 도시한 도면이다.9 is a diagram illustrating a specific example of a segmentation diagnostic neural network 120 according to an embodiment of the present invention.

도 9를 참조하면, 상기 진단 뉴럴 네트워크에 포함된 클래시피케이션 뉴럴 네트워크(200)는 클래시피케이션을 수행할 수 있다. 클래시피케이션을 위하여, 상기 클래시피케이션 뉴럴 네트워크(200)는 패치를 입력 레이어로 입력 받을 수 있으며, 제1 피쳐 추출 레이어(L1)에서 컨볼루션 및 풀링 연산을 통해 1/4 크기의 로우 피쳐맵(f1)을 생성할 수 있다. 이어 제1덴스블록 및 제1트랜지션 연산(denseblock1, transition1) 및 제2덴스블록 및 제2트랜지션 연산(denseblock2, transition2)을 거쳐 제2 피쳐 추출 레이어(L2)에서 1/16 크기의 미들 피쳐 맵(f2)을 생성할 수 있다. 이어, 제3덴스블록 및 제3트랜지션 연산(denseblock1, transition1), 제4덴스블록(denseblock4), 1x1 컨볼루션을 차례로 거쳐 제3 피쳐 추출 레이어(L3)에서 1/16 크기의 엔드 피쳐 맵(f3)을 생성할 수 있다. 이후 에버러지 풀링을 통해 질병 여부에 대한 스코어를 출력할 수 있다.Referring to FIG. 9, the classification neural network 200 included in the diagnostic neural network may perform classification. For classification, the classification neural network 200 may receive a patch as an input layer, and a 1/4-sized raw feature map through convolution and pooling operations in the first feature extraction layer (L1). (f1) can be created. Then, through a first density block and a first transition operation (denseblock1, transition1) and a second density block and a second transition operation (denseblock2, transition2), a middle feature map of 1/16 size in the second feature extraction layer L2 ( f2) can be created. Then, the third feature extraction layer (L3) is sequentially subjected to a third density block and a third transition operation (denseblock1, transition1), a fourth density block (denseblock4), and a 1x1 convolution, and an end feature map (f3) having a size of 1/16 in the third feature extraction layer (L3). ) Can be created. After that, the score for disease status can be output through the average pooling.

한편, 상기 세그멘테이션 아키텍쳐(260)에서는 상기 클래시피케이션 뉴럴 네트워크(200)에서 생성된 각 피쳐를 이용하여 세그멘테이션을 수행할 수 있다.Meanwhile, in the segmentation architecture 260, segmentation may be performed using each feature generated by the classification neural network 200.

보다 상세하게는, 컨볼루션 서브 아키텍쳐(261)에 포함된 각각의 컨볼루션 노드(510)는 그에 대응되는 피쳐 추출 레이어로부터 입력되는 피쳐 맵에 대한 미리 정의된 방식의 적어도 하나의 컨볼루션을 수행할 수 있다. 도 9의 예에서는 제1 컨볼루션 노드(262-1)는 그에 대응되는 제1 피쳐 추출 레이어(L1)로부터 입력되는 피쳐 맵(f1)에 대한 1x1 컨볼루션을 수행할 수 있다. 제2 컨볼루션 노드(262-2)는 그에 대응되는 제2 피쳐 추출 레이어(L2)로부터 입력되는 피쳐 맵(f2)에 대하여, 1x1 컨볼루션, rate 6의 3x3 다이얼레이티드 컨볼루션, rate 12의 3x3 다이얼레이티드 컨볼루션, rate 18의 3x3 다이얼레이티드 컨볼루션을 수행하여 4 개의 컨볼루션 결과물(피쳐)을 생성할 수 있다. 제3 컨볼루션 노드(262-3)는 그에 대응되는 제3 피쳐 추출 레이어(L3)로부터 입력되는 피쳐 맵(f3)에 대하여 2배 업샘플링을 한 후 1x1 컨볼루션을 수행할 수 있다.In more detail, each convolution node 510 included in the convolution sub-architecture 261 performs at least one convolution in a predefined manner for a feature map input from a feature extraction layer corresponding thereto. I can. In the example of FIG. 9, the first convolution node 262-1 may perform 1x1 convolution on the feature map f1 input from the first feature extraction layer L1 corresponding thereto. The second convolution node 262-2 is a 1x1 convolution, a 3x3 dialed convolution of a rate 6, and a rate of 12 with respect to the feature map f2 input from the corresponding second feature extraction layer L2. It is possible to generate 4 convolution products (features) by performing 3x3 dialed convolution and 3x3 dialed convolution with a rate of 18. The third convolution node 262-3 may perform a 1x1 convolution after twice upsampling the feature map f3 input from the third feature extraction layer L3 corresponding thereto.

한편, 상기 세그멘테이션 서브 아키텍쳐(263)는 상기 컨볼루션 서브 아키텍쳐(261)에서 생성되는 결과를 입력 받아 미리 정의된 연산을 수행할 수 있다. 도 9의 예에서 상기 세그멘테이션 서브 아키텍쳐(263)는 제2 컨볼루션 노드(511-2) 및 제3 컨볼루션 노드(511-3)에 의해 생성된 컨볼루션 결과물(피쳐)를 모두 결합(concatenate)하여 1x1 컨볼루션을 수행하고, 이와 제1 컨볼루션 노드(511-1)에서 생성된 컨볼루션 결과물(피쳐)을 결합한 후 3x3 컨볼루션을 수행할 수 있다.Meanwhile, the segmentation sub-architecture 263 may receive a result generated by the convolution sub-architecture 261 and perform a predefined operation. In the example of FIG. 9, the segmentation sub-architecture 263 concatenates all convolution results (features) generated by the second convolution node 511-2 and the third convolution node 511-3. Thus, 1x1 convolution may be performed, and a 3x3 convolution may be performed after combining the convolution result (feature) generated in the first convolution node 511-1.

이후 상기 크로핑 서브 아키텍쳐(264)에서 센터 크로핑이 수행될 수 있다.Thereafter, center cropping may be performed in the cropping sub-architecture 264.

이와 같은 본 발명의 기술적 특징을 가지는 뉴럴 네트워크를 이용함으로써 세그멘테이션의 정확도를 매우 높일 수 있다. 통상적인 뉴럴 네트워크에서 세그멘테이션 정확도를 높이기 위해서는 입력 데이터에서 피쳐를 잘 추출해야 하며, 훈련 전 뉴럴 네트워크의 초기 가중치를 잘 설정하고 훈련을 수행해야 한다는 것이 경험적으로 잘 알려져 있다. 그런데, 상술한 바와 같이, 본 발명의 기술적 사상에 따르면, 세그멘테이션은 클래시피케이션 뉴럴 네트워크를 기반으로 특정한 구조를 가지는 세그멘테이션 아키텍쳐를 결합한 방식의 뉴럴 네트워크에 의해 수행되며, 패치 레벨 클래시피케이션 과정에서 추출되는 피쳐들은 입력 데이터의 특징을 매우 잘 반영하고 있다. 따라서, 이를 세그멘테이션 과정에도 그대로 이용함으로써 세그멘테이션의 정확도를 높일 수 있는 효과가 있다.By using a neural network having the technical features of the present invention, the accuracy of segmentation can be greatly improved. It is well known from experience that in order to increase segmentation accuracy in a typical neural network, features must be well extracted from input data, and the initial weight of the neural network must be well set before training and training must be performed. However, as described above, according to the technical idea of the present invention, segmentation is performed by a neural network in a manner that combines a segmentation architecture having a specific structure based on a classification neural network, and is extracted in the patch level classification process. These features reflect the characteristics of the input data very well. Therefore, it is possible to increase the accuracy of the segmentation by using it as it is in the segmentation process.

한편 본 명세서에서는 전립선 암에 대해 본 발명의 기술적 사상이 적용된 일 예를 주로 설명하였지만, 특정 조직뿐만 아니라 해당 조직이 주변조직의 상태까지 고려하여 상기 특정 조직의 진단을 수행할 필요가 있는 다른 질병에 대해서도 본 발명의 기술적 사상이 적용될 경우 정확한 진단이 가능할 수 있음을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다.Meanwhile, in the present specification, an example to which the technical idea of the present invention is applied to prostate cancer has been mainly described, but not only a specific tissue but also other diseases in which the corresponding tissue needs to perform diagnosis of the specific tissue considering the state of the surrounding tissue. Also, when the technical idea of the present invention is applied, an average expert in the technical field of the present invention can easily infer that accurate diagnosis may be possible.

한편, 구현 예에 따라서, 상기 진단 시스템(100)은 프로세서 및 상기 프로세서에 의해 실행되는 프로그램을 저장하는 메모리를 포함할 수 있다. 상기 프로세서는 싱글 코어 CPU혹은 멀티 코어 CPU를 포함할 수 있다. 메모리는 고속 랜덤 액세스 메모리를 포함할 수 있고 하나 이상의 자기 디스크 저장 장치, 플래시 메모리 장치, 또는 기타 비휘발성 고체상태 메모리 장치와 같은 비휘발성 메모리를 포함할 수도 있다. 프로세서 및 기타 구성 요소에 의한 메모리로의 액세스는 메모리 컨트롤러에 의해 제어될 수 있다. Meanwhile, according to an implementation example, the diagnostic system 100 may include a processor and a memory storing a program executed by the processor. The processor may include a single-core CPU or a multi-core CPU. The memory may include high-speed random access memory and may include non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. Access to memory by processors and other components can be controlled by a memory controller.

한편, 본 발명의 실시예에 따른 다중 색 모델 및 뉴럴 네트워크를 통한 진단 방법은 컴퓨터가 읽을 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명의 실시예에 따른 제어 프로그램 및 대상 프로그램도 컴퓨터로 판독 가능한 기록 매체에 저장될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, the multi-color model and the diagnosis method through a neural network according to an embodiment of the present invention may be implemented in the form of a computer-readable program command and stored in a computer-readable recording medium. The corresponding control program and the target program may also be stored in a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system.

기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the software field.

컴퓨터로 읽을 수 있는 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and floptical disks. Hardware devices specially configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like are included. In addition, the computer-readable recording medium is distributed over a computer system connected through a network, so that computer-readable codes can be stored and executed in a distributed manner.

프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Examples of program instructions include not only machine language codes such as those produced by a compiler, but also devices that process information electronically using an interpreter, for example, high-level language codes that can be executed by a computer.

상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The above-described hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that other specific forms can be easily modified without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타나며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. .

Claims (15)

삭제delete 삭제delete 삭제delete 뉴럴 네트워크를 이용한 진단 시스템이, 생체 이미지를 이용하여 소정의 질병에 관한 진단 결과를 예측하기 위한 진단 뉴럴 네트워크를 생성하는 단계;
상기 뉴럴 네트워크를 이용한 진단 시스템이, 복수의 훈련용 생체 이미지-상기 복수의 훈련용 생체 이미지 각각에는, 그에 상응하는 상기 질병에 대한 진단 결과가 라벨링되어 있음-를 획득하는 단계; 및
상기 뉴럴 네트워크를 이용한 진단 시스템이, 상기 복수의 훈련용 생체 이미지를 이용하여, 상기 진단 뉴럴 네트워크를 훈련하는 단계를 포함하는 방법으로서,
상기 진단 뉴럴 네트워크를 훈련하는 단계는, 상기 복수의 훈련용 생체 이미지 각각에 대하여,
(a) 상기 훈련용 생체 이미지에 서로 다른 특성을 가지는 노이즈를 삽입하여 상기 훈련용 생체 이미지에 상응하는 K개(여기서, K는 2 이상의 정수)의 노이즈 삽입 이미지를 생성하는 단계; 및
(b) 상기 훈련용 생체 이미지에 상응하는 K개의 노이즈 삽입 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 진단 뉴럴 네트워크를 훈련하는 단계를 포함하고,
상기 방법은, 진단 단계를 더 포함하되,
상기 진단 단계는,
이미지 센서에 의해 연속 촬영된 K개의 진단 대상 생체 이미지를 획득하는 단계; 및
상기 K개의 진단 대상 생체 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 단계를 포함하고,
상기 진단 단계는,
상기 K개의 진단 대상 생체 이미지에 기초하여 상기 이미지 센서가 이동 중인지 여부를 판단하는 단계를 더 포함하되,
상기 K개의 진단 대상 생체 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 단계는,
상기 이미지 센서가 이동 중이 아니라고 판단된 경우, 상기 K개의 진단 대상 생체 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 단계를 포함하는 방법.
Generating, by a diagnostic system using a neural network, a diagnostic neural network for predicting a diagnosis result for a predetermined disease by using a living body image;
Acquiring, by the diagnosis system using the neural network, a plurality of training biometric images-each of the plurality of training biometric images is labeled with a corresponding diagnosis result for the disease; And
A method comprising the step of, by the diagnostic system using the neural network, training the diagnostic neural network using the plurality of training biometric images,
Training the diagnostic neural network may include, for each of the plurality of training biometric images,
(a) generating K noise-inserted images corresponding to the training biometric images by inserting noises having different characteristics into the training biometric images (where K is an integer greater than or equal to 2); And
(b) training the diagnostic neural network by inputting K noise-inserted images corresponding to the training biometric images into the diagnostic neural network,
The method further comprises a diagnostic step,
The diagnostic step,
Obtaining K biometric images to be diagnosed continuously photographed by the image sensor; And
Predicting a diagnosis result for the disease by inputting the K biometric images to be diagnosed into the diagnosis neural network,
The diagnostic step,
Further comprising determining whether the image sensor is moving based on the K diagnostic target biometric images,
Predicting a diagnosis result for the disease by inputting the K biometric images to be diagnosed into the diagnosis neural network,
And predicting a diagnosis result for the disease by inputting the K diagnosis target biometric images into the diagnosis neural network when it is determined that the image sensor is not moving.
뉴럴 네트워크를 이용한 진단 시스템이, 생체 이미지를 이용하여 소정의 질병에 관한 진단 결과를 예측하기 위한 진단 뉴럴 네트워크를 생성하는 단계;
상기 뉴럴 네트워크를 이용한 진단 시스템이, 복수의 훈련용 생체 이미지-상기 복수의 훈련용 생체 이미지 각각에는, 그에 상응하는 상기 질병에 대한 진단 결과가 라벨링되어 있음-를 획득하는 단계; 및
상기 뉴럴 네트워크를 이용한 진단 시스템이, 상기 복수의 훈련용 생체 이미지를 이용하여, 상기 진단 뉴럴 네트워크를 훈련하는 단계를 포함하는 방법으로서,
상기 진단 뉴럴 네트워크를 훈련하는 단계는, 상기 복수의 훈련용 생체 이미지 각각에 대하여,
(a) 상기 훈련용 생체 이미지에 서로 다른 특성을 가지는 노이즈를 삽입하여 상기 훈련용 생체 이미지에 상응하는 K개(여기서, K는 2 이상의 정수)의 노이즈 삽입 이미지를 생성하는 단계; 및
(b) 상기 훈련용 생체 이미지에 상응하는 K개의 노이즈 삽입 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 진단 뉴럴 네트워크를 훈련하는 단계를 포함하되,
상기 (b) 단계는,
상기 훈련용 생체 이미지에 상응하는 K개의 노이즈 삽입 이미지를 모두 연결(concatenation)하여 상기 훈련용 생체 이미지에 상응하는 하나의 훈련 데이터를 생성하는 단계-상기 훈련용 생체 이미지에 상응하는 훈련 데이터는 상기 훈련용 생체 이미지에 대한 진단 결과로 라벨링됨; 및
상기 훈련용 생체 이미지에 상응하는 훈련 데이터를 상기 진단 뉴럴 네트워크에 입력하여 상기 진단 뉴럴 네트워크를 훈련하는 단계를 포함하고,
상기 방법은, 진단 단계를 더 포함하되,
상기 진단 단계는,
이미지 센서에 의해 연속 촬영된 K개의 진단 대상 생체 이미지를 획득하는 단계;
상기 K개의 진단 대상 생체 이미지를 모두 연결하여 하나의 진단 대상 데이터를 생성하는 단계; 및
상기 진단 대상 데이터를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 단계를 포함하는 방법.
Generating, by a diagnostic system using a neural network, a diagnostic neural network for predicting a diagnosis result for a predetermined disease by using a living body image;
Acquiring, by the diagnosis system using the neural network, a plurality of training biometric images-each of the plurality of training biometric images is labeled with a corresponding diagnosis result for the disease; And
A method comprising the step of, by the diagnostic system using the neural network, training the diagnostic neural network using the plurality of training biometric images,
Training the diagnostic neural network may include, for each of the plurality of training biometric images,
(a) generating K noise-inserted images corresponding to the training biometric images by inserting noises having different characteristics into the training biometric images (where K is an integer greater than or equal to 2); And
(b) training the diagnostic neural network by inputting K noise-inserted images corresponding to the training biometric images into the diagnostic neural network,
The step (b),
Generating one training data corresponding to the training biometric image by concatenating all K noise-inserted images corresponding to the training biometric image-The training data corresponding to the training biometric image is the training Labeled with diagnostic results for biometric images; And
Training the diagnostic neural network by inputting training data corresponding to the training biological image to the diagnostic neural network,
The method further comprises a diagnostic step,
The diagnostic step,
Obtaining K biometric images to be diagnosed continuously photographed by the image sensor;
Generating one diagnosis subject data by connecting all the K diagnosis subject biometric images; And
And predicting a diagnosis result for the disease by inputting the diagnosis target data into the diagnosis neural network.
제5항에 있어서,
상기 진단 뉴럴 네트워크는,
상기 진단 대상 데이터를 입력 레이어로 입력 받아서 상기 진단 대상 생체 이미지 중 질병이 존재하는 영역을 특정하는 세그멘테이션 뉴럴 네트워크이며,
상기 세그멘테이션 뉴럴 네트워크는,
상기 진단 대상 데이터를 입력 레이어로 입력 받아서 상기 생체 이미지에 상기 질병이 존재하는지 여부에 관한 분류 결과를 출력하는 클래시피케이션 뉴럴 네트워크; 및
상기 클래시피케이션 뉴럴 네트워크에 포함된 히든 레이어 중 2 이상의 피쳐 맵 추출 레이어 각각에서 생성되는 피쳐 맵을 입력 받아서 상기 생체 이미지 중 질병이 존재하는 영역을 특정하는 세그멘테이션 아키텍쳐를 포함하는 방법.
The method of claim 5,
The diagnostic neural network,
A segmentation neural network that receives the diagnosis target data as an input layer and specifies a region where a disease exists in the diagnosis target biometric image,
The segmentation neural network,
A classification neural network for receiving the diagnosis target data as an input layer and outputting a classification result regarding whether the disease is present in the biometric image; And
A method comprising a segmentation architecture that receives a feature map generated from each of two or more feature map extraction layers among hidden layers included in the classification neural network and specifies a region in which a disease exists in the biometric image.
제6항에 있어서, 상기 세그멘테이션 아키텍쳐는,
상기 2 이상의 피쳐 추출 레이어 각각에 대응되는 컨볼루션 노드를 포함하는 컨볼루션 서브 아키텍쳐-상기 컨볼루션 노드 각각은, 그에 대응되는 피쳐 추출 레이어로부터 입력되는 피쳐 맵에 대한 컨볼루션 또는 2 이상의 서로 다른 컨볼루션을 수행함; 및
상기 컨볼루션 서브 아키텍쳐에서 생성하는 컨볼루션 결과에 기초하여 패치 중 질병이 존재하는 영역을 특정하는 세그멘테이션 서브 아키텍쳐를 포함하는 방법.
The method of claim 6, wherein the segmentation architecture comprises:
Convolution sub-architecture including convolution nodes corresponding to each of the two or more feature extraction layers-each of the convolution nodes is a convolution for a feature map input from a corresponding feature extraction layer or two or more different convolutions To perform; And
A method comprising a segmentation sub-architecture for specifying a region in which a disease exists in a patch based on a convolution result generated by the convolution sub-architecture.
제4항에 있어서, 상기 질병은,
전립선 암인 것을 특징으로 하는 방법.
The method of claim 4, wherein the disease is
The method characterized in that it is prostate cancer.
데이터 처리장치에 설치되며 제4항 내지 제8항 중 어느 한 항에 기재된 방법을 수행하기 위한 컴퓨터 판독 가능한 매체에 기록된 컴퓨터 프로그램.
A computer program installed in a data processing apparatus and recorded on a computer-readable medium for performing the method according to any one of claims 4 to 8.
뉴럴 네트워크를 이용한 진단 시스템으로서,
프로세서; 및 컴퓨터 프로그램을 저장하는 메모리를 포함하되,
상기 컴퓨터 프로그램은, 상기 프로세서에 의해 수행되는 경우, 상기 뉴럴 네트워크를 이용한 진단 시스템이 제4항 내지 제8항 중 어느 한 항에 기재된 방법을 수행하도록 하는 뉴럴 네트워크를 이용한 진단 시스템.
As a diagnostic system using a neural network,
Processor; And a memory for storing a computer program,
When the computer program is executed by the processor, the diagnostic system using a neural network causes the diagnostic system using the neural network to perform the method according to any one of claims 4 to 8.
삭제delete 삭제delete 생체 이미지를 이용하여 소정의 질병에 관한 진단 결과를 예측하기 위한 진단 뉴럴 네트워크를 저장하는 저장모듈;
복수의 훈련용 생체 이미지-상기 복수의 훈련용 생체 이미지 각각에는, 그에 상응하는 상기 질병에 대한 진단 결과가 라벨링되어 있음-를 획득하는 획득모듈; 및
상기 복수의 훈련용 생체 이미지를 이용하여, 상기 진단 뉴럴 네트워크를 훈련하는 학습모듈을 포함하는 뉴럴 네트워크를 이용한 진단 시스템으로서,
상기 학습모듈은, 상기 복수의 훈련용 생체 이미지 각각에 대하여,
(a) 상기 훈련용 생체 이미지에 서로 다른 특성을 가지는 노이즈를 삽입하여 상기 훈련용 생체 이미지에 상응하는 K개(여기서, K는 2 이상의 정수)의 노이즈 삽입 이미지를 생성하는 단계; 및
(b) 상기 훈련용 생체 이미지에 상응하는 K개의 노이즈 삽입 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 진단 뉴럴 네트워크를 훈련하는 단계를 수행하고,
상기 뉴럴 네트워크를 이용한 진단 시스템은,
이미지 센서에 의해 연속 촬영된 K개의 진단 대상 생체 이미지를 획득하고,
상기 K개의 진단 대상 생체 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 진단모듈을 더 포함하는 뉴럴 네트워크를 이용한 진단 시스템.
A storage module for storing a diagnostic neural network for predicting a diagnosis result for a predetermined disease by using the biometric image;
An acquisition module for acquiring a plurality of training biometric images, in which each of the plurality of training biometric images is labeled with a corresponding diagnosis result for the disease; And
A diagnostic system using a neural network including a learning module for training the diagnostic neural network by using the plurality of training biometric images,
The learning module, for each of the plurality of training biometric images,
(a) generating K noise-inserted images corresponding to the training biometric images by inserting noises having different characteristics into the training biometric images (where K is an integer greater than or equal to 2); And
(b) performing the step of training the diagnostic neural network by inputting K noise-inserted images corresponding to the training biometric images into the diagnostic neural network,
The diagnostic system using the neural network,
Acquires K biometric images to be diagnosed continuously photographed by an image sensor,
Diagnosis system using a neural network further comprising a diagnosis module for predicting a diagnosis result for the disease by inputting the K diagnosis target biometric images into the diagnosis neural network.
제13항에 있어서,
상기 진단모듈은,
상기 K개의 진단 대상 생체 이미지에 기초하여 상기 이미지 센서가 이동 중인지 여부를 판단하고,
상기 이미지 센서가 이동 중이 아니라고 판단된 경우, 상기 K개의 진단 대상 생체 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 뉴럴 네트워크를 이용한 진단 시스템.
The method of claim 13,
The diagnostic module,
Determine whether the image sensor is moving based on the K diagnostic target biometric images,
When it is determined that the image sensor is not in motion, the diagnosis system using a neural network for predicting a diagnosis result for the disease by inputting the K diagnosis target biometric images into the diagnosis neural network.
생체 이미지를 이용하여 소정의 질병에 관한 진단 결과를 예측하기 위한 진단 뉴럴 네트워크를 저장하는 저장모듈;
복수의 훈련용 생체 이미지-상기 복수의 훈련용 생체 이미지 각각에는, 그에 상응하는 상기 질병에 대한 진단 결과가 라벨링되어 있음-를 획득하는 획득모듈; 및
상기 복수의 훈련용 생체 이미지를 이용하여, 상기 진단 뉴럴 네트워크를 훈련하는 학습모듈을 포함하는 뉴럴 네트워크를 이용한 진단 시스템으로서,
상기 학습모듈은, 상기 복수의 훈련용 생체 이미지 각각에 대하여,
(a) 상기 훈련용 생체 이미지에 서로 다른 특성을 가지는 노이즈를 삽입하여 상기 훈련용 생체 이미지에 상응하는 K개(여기서, K는 2 이상의 정수)의 노이즈 삽입 이미지를 생성하는 단계; 및
(b) 상기 훈련용 생체 이미지에 상응하는 K개의 노이즈 삽입 이미지를 상기 진단 뉴럴 네트워크에 입력하여 상기 진단 뉴럴 네트워크를 훈련하는 단계를 수행하고,
상기 (b) 단계는,
상기 훈련용 생체 이미지에 상응하는 K개의 노이즈 삽입 이미지를 모두 연결(concatenation)하여 상기 훈련용 생체 이미지에 상응하는 하나의 훈련 데이터를 생성하는 단계-상기 훈련용 생체 이미지에 상응하는 훈련 데이터는 상기 훈련용 생체 이미지에 대한 진단 결과로 라벨링됨; 및
상기 훈련용 생체 이미지에 상응하는 훈련 데이터를 상기 진단 뉴럴 네트워크에 입력하여 상기 진단 뉴럴 네트워크를 훈련하는 단계를 포함하고,
상기 뉴럴 네트워크를 이용한 진단 시스템은,
이미지 센서에 의해 연속 촬영된 K개의 진단 대상 생체 이미지를 획득하고,
상기 K개의 진단 대상 생체 이미지를 모두 연결하여 하나의 진단 대상 데이터를 생성하고,
상기 진단 대상 데이터를 상기 진단 뉴럴 네트워크에 입력하여 상기 질병에 대한 진단 결과를 예측하는 진단모듈을 더 포함하는 뉴럴 네트워크를 이용한 진단 시스템.
A storage module for storing a diagnostic neural network for predicting a diagnosis result for a predetermined disease by using the biometric image;
An acquisition module for acquiring a plurality of training biometric images, in which each of the plurality of training biometric images is labeled with a corresponding diagnosis result for the disease; And
A diagnostic system using a neural network including a learning module for training the diagnostic neural network by using the plurality of training biometric images,
The learning module, for each of the plurality of training biometric images,
(a) generating K noise-inserted images corresponding to the training biometric images by inserting noises having different characteristics into the training biometric images (where K is an integer greater than or equal to 2); And
(b) performing the step of training the diagnostic neural network by inputting K noise-inserted images corresponding to the training biometric images into the diagnostic neural network,
The step (b),
Generating one training data corresponding to the training biometric image by concatenating all K noise-inserted images corresponding to the training biometric image-The training data corresponding to the training biometric image is the training Labeled with diagnostic results for biometric images; And
Training the diagnostic neural network by inputting training data corresponding to the training biometric image to the diagnostic neural network,
The diagnostic system using the neural network,
Acquires K biometric images to be diagnosed continuously photographed by an image sensor,
One diagnostic target data is generated by connecting all the K diagnostic target biometric images,
Diagnosis system using a neural network further comprising a diagnosis module for predicting a diagnosis result for the disease by inputting the diagnosis target data into the diagnosis neural network.
KR1020190010180A 2019-01-25 2019-01-25 Method for medical diagnosis using neural network trained by multi-phase biomedical image, medical diagnosis system performing the same KR102226897B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190010180A KR102226897B1 (en) 2019-01-25 2019-01-25 Method for medical diagnosis using neural network trained by multi-phase biomedical image, medical diagnosis system performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190010180A KR102226897B1 (en) 2019-01-25 2019-01-25 Method for medical diagnosis using neural network trained by multi-phase biomedical image, medical diagnosis system performing the same

Publications (2)

Publication Number Publication Date
KR20200092801A KR20200092801A (en) 2020-08-04
KR102226897B1 true KR102226897B1 (en) 2021-03-11

Family

ID=72048972

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190010180A KR102226897B1 (en) 2019-01-25 2019-01-25 Method for medical diagnosis using neural network trained by multi-phase biomedical image, medical diagnosis system performing the same

Country Status (1)

Country Link
KR (1) KR102226897B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116114027A (en) * 2020-07-23 2023-05-12 第一百欧有限公司 Disease diagnosis method using neural network using multiphase biological image learning and disease diagnosis system performing the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101898575B1 (en) * 2018-01-18 2018-09-13 주식회사 뷰노 Method for predicting future state of progressive lesion and apparatus using the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007189589A (en) * 2006-01-16 2007-07-26 Sony Corp Information processor and information processing method, learning device and learning method, and program
US10417525B2 (en) 2014-09-22 2019-09-17 Samsung Electronics Co., Ltd. Object recognition with reduced neural network weight precision
KR101944536B1 (en) * 2016-12-11 2019-02-01 주식회사 딥바이오 System and method for medical diagnosis using neural network

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101898575B1 (en) * 2018-01-18 2018-09-13 주식회사 뷰노 Method for predicting future state of progressive lesion and apparatus using the same

Also Published As

Publication number Publication date
KR20200092801A (en) 2020-08-04

Similar Documents

Publication Publication Date Title
JP6843086B2 (en) Image processing systems, methods for performing multi-label semantic edge detection in images, and non-temporary computer-readable storage media
KR102246318B1 (en) System and method for searching pathological image
KR102236948B1 (en) Method for annotating pathogenic area using semi-supervised learning and medical diagnosis system performing the same
JP7216447B2 (en) Disease diagnosis system and method using neural network for segmentation
CN114998210B (en) Retinopathy of prematurity detecting system based on deep learning target detection
KR102163519B1 (en) Neural network learning method using auto encoder and multiple instance learning and computing system performing the same
KR102276545B1 (en) Method and apparatus for cortical neurodegeneration prediction in alzheimer's disease using CT images
US11830187B2 (en) Automatic condition diagnosis using a segmentation-guided framework
JP7299658B2 (en) Disease diagnostic system and method for segmentation using neural networks and non-local blocks
CN112740335A (en) Neural network based disease diagnosis system and method
JP2023529584A (en) Neural network learning method and system for severity judgment
KR102226897B1 (en) Method for medical diagnosis using neural network trained by multi-phase biomedical image, medical diagnosis system performing the same
US20230289957A1 (en) Disease diagnosis method using neural network trained by using multi-phase biometric image, and disease diagnosis system performing same
CN112567466A (en) Diagnostic result generation system and method thereof
KR102446638B1 (en) Method for training artificial neural network determining lesion area caused by breast cancer, and computing system performing the same
US20220384035A1 (en) Automatic condition diagnosis using an attention-guided framework
Xu et al. An automatic nuclei image segmentation based on multi-scale split-attention U-Net
EP4170678A1 (en) Method for annotating pathogenic site of disease by means of semi-supervised learning, and diagnosis system for performing same
Khan A Novel Deep Learning-Based Framework for Context-Aware Semantic Segmentation in Medical Imaging
KR102317343B1 (en) X-ray INSPECTION SYSTEM BY X-ray IMAGE OPTIMIZATION
US20230086993A1 (en) Segmentation method
KC Khatri Cell Nuclei Segmentation Using Deep Learning Techniques
KR20230006754A (en) Method for providing the necessary information for a diagnosis of oral disease and apparatus for executing the method
KR20220043064A (en) Method for displaying diagnosis result of pathological image and computing system performing the same
KR20230081831A (en) Psoriasis disease severity prediction system using Deep Learning and the method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right