KR20240022892A - Apparatus and method for evaluating red blood cells based on deep-learning - Google Patents

Apparatus and method for evaluating red blood cells based on deep-learning Download PDF

Info

Publication number
KR20240022892A
KR20240022892A KR1020220101534A KR20220101534A KR20240022892A KR 20240022892 A KR20240022892 A KR 20240022892A KR 1020220101534 A KR1020220101534 A KR 1020220101534A KR 20220101534 A KR20220101534 A KR 20220101534A KR 20240022892 A KR20240022892 A KR 20240022892A
Authority
KR
South Korea
Prior art keywords
red blood
image
blood cells
blood cell
inference model
Prior art date
Application number
KR1020220101534A
Other languages
Korean (ko)
Inventor
문인규
박성환
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020220101534A priority Critical patent/KR20240022892A/en
Publication of KR20240022892A publication Critical patent/KR20240022892A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B45/00ICT specially adapted for bioinformatics-related data visualisation, e.g. displaying of maps or networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/50Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing
    • G01N33/5005Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing involving human or animal cells
    • G01N33/5094Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing involving human or animal cells for blood cell populations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B40/00ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
    • G16B40/20Supervised data analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Immunology (AREA)
  • Biotechnology (AREA)
  • Chemical & Material Sciences (AREA)
  • Multimedia (AREA)
  • Urology & Nephrology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Cell Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Hematology (AREA)
  • Computational Linguistics (AREA)
  • Microbiology (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Medicinal Chemistry (AREA)
  • Food Science & Technology (AREA)
  • Tropical Medicine & Parasitology (AREA)
  • Ecology (AREA)

Abstract

본 개시의 일 실시 예에 따른 적혈구 평가 방법은 각 단계의 적어도 일부가 프로세서에 의해 수행되는 방법으로서, 각 단계의 적어도 일부가 프로세서에 의해 수행되는 방법으로서, 적혈구의 위상 이미지를 제공 받는 단계, 위상 이미지를 컨벌루션 레이어에 기반한 추론 모델에 입력하여 적혈구의 마커 이미지 및 적혈구 분류 이미지를 획득하는 단계 및 적혈구 분류 이미지에 기반하여 생성한 적혈구의 바이너리 마스크 이미지와 마커 이미지에 마커 기반 워터쉐드(watershed) 알고리듬을 적용하여 적혈구의 영역을 구분한 세그먼테이션 정보를 생성하는 단계를 포함할 수 있다.A red blood cell evaluation method according to an embodiment of the present disclosure is a method in which at least part of each step is performed by a processor, and at least a part of each step is performed by a processor, comprising: receiving a phase image of red blood cells; A step of acquiring a marker image of red blood cells and a red blood cell classification image by inputting the image into an inference model based on a convolutional layer, and applying a marker-based watershed algorithm to the binary mask image and marker image of red blood cells generated based on the red blood cell classification image. It may include a step of generating segmentation information that distinguishes regions of red blood cells.

Description

딥러닝에 기반하여 적혈구를 평가하는 장치 및 방법{APPARATUS AND METHOD FOR EVALUATING RED BLOOD CELLS BASED ON DEEP-LEARNING}Device and method for evaluating red blood cells based on deep learning {APPARATUS AND METHOD FOR EVALUATING RED BLOOD CELLS BASED ON DEEP-LEARNING}

본 개시는 딥러닝에 기반하여 적혈구를 판별하는 장치 및 방법에 관한 것으로서, 더욱 상세하게는 딥러닝에 기반하여 적혈구의 정확한 영역을 구분(분할, segmentation)하고, 적혈구의 종류를 판별하는 장치 및 방법에 관한 것이다.The present disclosure relates to an apparatus and method for identifying red blood cells based on deep learning. More specifically, an apparatus and method for segmenting the exact area of red blood cells and determining the type of red blood cells based on deep learning. It's about.

혈구의 종류를 판단하는 것은 다양한 질환 판별에서 중요한 의미를 가진다. 예를 들어, 백혈구의 개수에 기반하여 질병을 진단하고자 하는 선행기술 1은 혈구를 백혈구, 적혈구, 혈소판으로 분류하고 그 중에서 백혈구를 다시 하위 분류로 판별하는 기술을 개시하고 있다. Determining the type of blood cell is important in diagnosing various diseases. For example, prior art 1, which seeks to diagnose a disease based on the number of white blood cells, classifies blood cells into white blood cells, red blood cells, and platelets, and discloses a technology for discriminating white blood cells into subclasses.

하지만, 선행기술 1은 적혈구의 하위 분류로 판별하는 기술을 개시하지 않고 있으나, 헌혈 등을 위해서 혈액 사용 가능성을 판별하기 위해서 적혈구의 상태를 판단하는 것은 중요하다.However, prior art 1 does not disclose a technology for determining the subclass of red blood cells, but it is important to determine the status of red blood cells in order to determine the possibility of using blood for blood donation, etc.

또한, 선행기술 1의 학습 모델 구조는 백혈구의 종류를 판단하기 위한 것으로서, 적혈구의 영역을 구분하고, 적혈구의 종류를 판단하는데 적합한 구조 여부에 대한 결과를 제시하지 않는다.In addition, the learning model structure of prior art 1 is for determining the type of white blood cell, and does not present results as to whether the structure is suitable for distinguishing areas of red blood cells and determining the type of red blood cells.

종래, 영역 분할을 위한 방법 중에서 하나로 워터쉐드(watershed) 기반의 영역 분할 방법이 존재한다. 워터쉐드는 밝기 정보를 이용해 동질 영역을 확장하고 경계 정보를 이용해 영역을 구분하는 알고리즘으로 각각의 정보만을 이용하는 알고리즘들보다 성능이 우수하지만, 잡음이나 미세한 밝기 변화에 의해 강건하지 못한 특성이 있어 서로 다른 동질 영역들을 한 동질 영역으로 묶는 마커(marker) 기반의 워터쉐드 방법이 소개되었다.Conventionally, one of the methods for region division is a watershed-based region division method. Watershed is an algorithm that uses brightness information to expand homogeneous areas and uses boundary information to classify areas. It has better performance than algorithms that only use individual information, but it is not robust to noise or subtle changes in brightness, so it has different characteristics. A marker-based watershed method was introduced to group homogeneous areas into one homogeneous area.

하지만, 마커 기반의 워터쉐드 방법은 마커의 특성에 의존적인 결과를 보여줄 수 밖에 없다. However, the marker-based watershed method inevitably shows results dependent on the characteristics of the marker.

선행기술 1: 한국 등록특허공보 제10-1995763호(2019.06.27. 등록)Prior Art 1: Korean Patent Publication No. 10-1995763 (registered on June 27, 2019)

종래의 마커 기반의 워터쉐드 방법은 특히 복수의 적혈구가 중첩된(overlapped) 경우, 이를 서로 다른 적혈구로 구분하지 못하는 문제점이 있다. The conventional marker-based watershed method has a problem in that it cannot distinguish red blood cells from different red blood cells, especially when multiple red blood cells overlap.

본 개시의 일 실시 예는 중첩된 적혈구를 포함하여 각 적혈구의 영역을 정확히 구분(분할)하고, 구분된 적혈구의 하위 종류를 판별 가능한 방법 및 장치를 제공한다.An embodiment of the present disclosure provides a method and device that can accurately distinguish (segment) the region of each red blood cell, including overlapping red blood cells, and determine subtypes of the divided red blood cells.

본 개시의 일 실시 예는 딥러닝 기반으로 생성된 마커에 기반하여 중첩된 적혈구를 포함하여 각 적혈구의 영역을 정확히 구분(분할, segmentation)하는 방법 및 장치를 제공한다.An embodiment of the present disclosure provides a method and device for accurately segmenting the region of each red blood cell, including overlapping red blood cells, based on a marker generated based on deep learning.

본 개시의 일 실시 예는 판단된 적혈구들의 종류 별 비율에 기반하여 혈액의 저장 기간 또는 사용 가능성을 추정하는 방법 및 장치를 제공한다.An embodiment of the present disclosure provides a method and device for estimating the storage period or usability of blood based on the determined ratio of each type of red blood cells.

본 개시의 일 실시 예에 따른 적혈구 평가 방법은 각 단계의 적어도 일부가 프로세서에 의해 수행되는 방법으로서, 적혈구의 위상 이미지를 제공 받는 단계, 위상 이미지를 컨벌루션 레이어에 기반한 추론 모델에 입력하여 적혈구의 마커 이미지 및 적혈구 분류 이미지를 획득하는 단계, 및 적혈구 분류 이미지에 기반하여 생성한 적혈구의 바이너리 마스크 이미지 및 마커 이미지에 마커 기반 워터쉐드(watershed) 알고리듬을 적용하여 적혈구의 영역을 구분한 세그먼테이션 정보를 생성하는 단계를 포함할 수 있다.The red blood cell evaluation method according to an embodiment of the present disclosure is a method in which at least part of each step is performed by a processor, including receiving a phase image of the red blood cell, inputting the phase image into an inference model based on a convolutional layer to determine the marker of the red blood cell. A step of acquiring an image and a red blood cell classification image, and applying a marker-based watershed algorithm to the binary mask image and marker image of the red blood cell generated based on the red blood cell classification image to generate segmentation information dividing the red blood cell area. May include steps.

본 개시의 일 실시 예에 따른 적혈구 평가 장치는 프로세서 및 프로세서와 전기적으로 연결되고, 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고, 메모리는 프로세서를 통해 실행될 때 프로세서가 적혈구의 위상 이미지를 컨벌루션 레이어에 기반한 추론 모델에 입력하여 적혈구의 마커 이미지 및 적혈구 분류 이미지를 획득하고, 적혈구 분류 이미지에 기반하여 생성한 적혈구의 바이너리 마스크 이미지 및 마커 이미지에 마커 기반 워터쉐드(watershed) 알고리듬을 적용하여 적혈구의 영역을 구분한 세그먼테이션 정보를 생성하도록 야기하는 코드를 저장할 수 있다.The red blood cell evaluation device according to an embodiment of the present disclosure includes a processor and a memory electrically connected to the processor and storing at least one code to be executed by the processor, and the memory is configured to cause the red blood cell to be evaluated when the memory is executed through the processor. Input the phase image into an inference model based on a convolutional layer to obtain a marker image of red blood cells and a red blood cell classification image, and apply a marker-based watershed algorithm to the binary mask image and marker image of red blood cells generated based on the red blood cell classification image. By applying , you can store the code that causes segmentation information to be generated by distinguishing the areas of red blood cells.

본 개시의 실시 예에 따른 적혈구 평가 장치 및 방법은 딥러닝에 기반하여 생성된 마커를 워터쉐드 알고리듬에 적용함으로써, 중첩된 적혈구들의 경우에도 정확하게 영역을 구분할 수 있다.The red blood cell evaluation device and method according to an embodiment of the present disclosure can accurately distinguish regions even in the case of overlapping red blood cells by applying a marker generated based on deep learning to the watershed algorithm.

본 개시의 실시 예에 따른 적혈구 평가 장치 및 방법은 적혈구의 종류 별 비율에 기반하여 혈액의 저장 기간 또는 사용 가능성을 추정함으로써 건강하지 못한 혈액으로 인한 사고를 방지할 수 있다.The red blood cell evaluation device and method according to an embodiment of the present disclosure can prevent accidents caused by unhealthy blood by estimating the storage period or usability of blood based on the ratio of each type of red blood cell.

도 1은 본 개시의 일 실시 예에서 사용된 홀로그램을 획득하는 디지털 홀로그램 획득 장치의 구성 일 부분을 나타낸 도면이다.
도 2는 본 개시의 일 실시 예에 따른 적혈구 평가 방법을 수행하거나 적혈구 평가 장치를 구동하기 위한 환경을 나타낸 도면이다.
도 3은 본 개시의 일 실시 예에 따른 적혈구 평가 장치의 구성을 나타낸 블록도이다.
도 4는 본 개시의 일 실시 예에 따른 적혈구 판별을 위한 학습 모델 훈련 장치의 구성을 나타낸 블록도이다.
도 5는 본 개시의 일 실시 예에 따른 적혈구 평가 방법을 설명하기 위한 순서도이다.
도 6은 본 개시의 일 실시 예에 따른 적혈구의 영역을 구분하고 종류를 판별하는 추론 모델을 설명하는 도면이다.
도 7은 본 개시의 일 실시 예에 따른 적혈구의 영역을 구분하고 종류를 판별하는 추론 모델의 구조를 나타내는 도면이다.
도 8은 본 개시의 일 실시 예에 따른 적혈구의 영역을 구분하고 종류를 판별하는 추론 모델의 학습 시 사용되는 판별 모델의 구조를 나타내는 도면이다.
도 9는 본 개시의 일 실시 예에 따른 적혈구의 영역을 구분하고 종류를 판별하는 추론 모델에 사용되는 잔여 블록(residual block)의 구조를 나타내는 도면이다.
도 10은 본 개시의 일 실시 예에 따른 딥러닝 학습 모델에서 생성한 마커에 기반하여 중첩된 적혈구의 영역을 정확하게 구분하는 방법 및 결과를 나타내는 도면이다.
도 11은 본 개시의 일 실시 예에 따른 학습 모델의 적혈구 영역 구분 및 종류 판별 실험 결과를 보여주는 도면이다.
도 12는 본 개시의 일 실시 예에 따른 학습 모델의 적혈구 영역 구분 및 종류 판별 실험 결과의 정확도를 보여주는 도면이다.
도 13은 본 개시의 일 실시 예에 따른 저장 기간 별 혈액에 대한 학습 모델의 적혈구 영역 구분 및 종류 판별 실험 결과를 보여주는 도면이다.
도 14는 본 개시의 일 실시 예에 따른 저장 기간 별 혈액에 대한 학습 모델의 적혈구 종류 변화 실험 결과를 보여주는 도면이다.
1 is a diagram showing a portion of the configuration of a digital hologram acquisition device for acquiring a hologram used in an embodiment of the present disclosure.
FIG. 2 is a diagram illustrating an environment for performing a red blood cell evaluation method or driving a red blood cell evaluation device according to an embodiment of the present disclosure.
Figure 3 is a block diagram showing the configuration of a red blood cell evaluation device according to an embodiment of the present disclosure.
Figure 4 is a block diagram showing the configuration of a learning model training device for red blood cell identification according to an embodiment of the present disclosure.
Figure 5 is a flowchart for explaining a red blood cell evaluation method according to an embodiment of the present disclosure.
Figure 6 is a diagram illustrating an inference model for dividing regions and determining types of red blood cells according to an embodiment of the present disclosure.
Figure 7 is a diagram illustrating the structure of an inference model for classifying regions and determining types of red blood cells according to an embodiment of the present disclosure.
Figure 8 is a diagram showing the structure of a discrimination model used when learning an inference model that classifies regions and determines types of red blood cells according to an embodiment of the present disclosure.
FIG. 9 is a diagram illustrating the structure of a residual block used in an inference model for distinguishing regions and determining types of red blood cells according to an embodiment of the present disclosure.
FIG. 10 is a diagram illustrating a method and results of accurately distinguishing areas of overlapping red blood cells based on markers generated by a deep learning learning model according to an embodiment of the present disclosure.
Figure 11 is a diagram showing the results of a red blood cell region classification and type discrimination experiment of a learning model according to an embodiment of the present disclosure.
Figure 12 is a diagram showing the accuracy of the results of the red blood cell region classification and type discrimination experiment of the learning model according to an embodiment of the present disclosure.
Figure 13 is a diagram showing the results of an experiment for categorizing red blood cells and determining their type using a learning model for blood by storage period according to an embodiment of the present disclosure.
Figure 14 is a diagram showing the results of an experiment on changes in red blood cell types of a learning model for blood by storage period according to an embodiment of the present disclosure.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

도 1을 참조하여 본 개시의 일 실시 예에서 사용된 홀로그램을 획득하는 디지털 홀로그램 획득 장치(200)의 일 부분일 수 있는 디지털 홀로그래픽 현미경(quantitative phase digital holographic microscopy: QP-DHM)의 구성을 설명한다. Referring to FIG. 1, the configuration of a digital holographic microscope (quantitative phase digital holographic microscopy: QP-DHM), which may be part of the digital hologram acquisition device 200 for acquiring a hologram used in an embodiment of the present disclosure, is explained. do.

도 1은 마흐 젠더 간섭계(Mach- Zender interferometer)에 기반한 비 광축(off-axis) 디지털 홀로그래픽 현미경을 참조로 하여 설명하지만, 본 발명의 실시 예들은 비 광축 디지털 홀로그래픽 현미경으로부터 생성한 홀로그램뿐만 아니라 인라인(in-line) 기반의 디지털 홀로그래픽 현미경으로부터 생성한 홀로그램에서 재건된 위상 이미지(phase image)에 기반하여도 유사한 방식으로 구현될 수 있다.1 is explained with reference to an off-axis digital holographic microscope based on a Mach-Zender interferometer, but embodiments of the present invention include holograms generated from an off-axis digital holographic microscope as well as holograms generated from an off-axis digital holographic microscope. It can also be implemented in a similar way based on a phase image reconstructed from a hologram generated from an in-line digital holographic microscope.

디지털 홀로그래픽 현미경은 세포와 같은 대상체의 위상 정보(phase information)를 획득할 수 있다. 디지털 홀로그래픽 현미경은 마흐 젠더 간섭계를 기반으로 동작될 수 있다. 디지털 홀로그래픽 현미경의 간섭성 레이저 소스는 두 개의 빔 사이의 작은 경사각을 가진 빔 스플리터(beam splitter)를 사용하여 광 소스를 물체 파(object wave)와 기준 파(reference wave)로 분할할 수 있다. 물체 파는 표본(specimen)을 조명하고 물체 파면(object wave front)을 생성할 수 있다. 현미경 대물 렌즈(MO)는 물체 파면을 확대하고, 물체 및 기준 파면은 간섭계(interferometer)의 출구에서 빔 콜렉터에 의해 결합되어 홀로그램을 생성할 수 있다. 생성된 홀로그램은 디지털 홀로그래픽 현미경을 제어 하는 컴퓨팅 장치로 전송될 수 있고, 디지털 홀로그래픽 현미경 또는 디지털 홀로그래픽 현미경을 제어하는 컴퓨팅 장치는 홀로그램의 주파수 도메인에서 필터링 처리를 수행하여 원하지 않는 신호들을 제거할 수 있다.A digital holographic microscope can acquire phase information of an object such as a cell. Digital holographic microscopes can operate based on Mach-Zehnder interferometry. The coherent laser source of a digital holographic microscope can split the light source into an object wave and a reference wave using a beam splitter with a small tilt angle between the two beams. Object waves can illuminate a specimen and create an object wave front. A microscope objective (MO) magnifies the object wavefront, and the object and reference wavefronts can be combined by a beam collector at the exit of the interferometer to create a hologram. The generated hologram can be transmitted to a computing device that controls the digital holographic microscope, and the digital holographic microscope or the computing device that controls the digital holographic microscope can perform filtering processing in the frequency domain of the hologram to remove unwanted signals. You can.

디지털 홀로그래픽 현미경 또는 디지털 홀로그래픽 현미경을 제어하는 컴퓨팅 장치는 기준 파의 복제본을 이용하여 필터링 처리된 홀로그램을 조명(illuminating)하고 Fresnel 근사에 의해 홀로그램을 재건(reconstruction)하여 위상 이미지를 생성할 수 있다.A digital holographic microscope or a computing device that controls a digital holographic microscope can generate a phase image by illuminating the filtered hologram using a replica of the reference wave and reconstructing the hologram by the Fresnel approximation. .

세포 등의 대상체에 평면파(plane wave)가 전파되고 평면파가 세포를 통과할 때, 세포 등의 대상체의 두께 또는 굴절률에 따라 각기 다른 위상을 갖는 출력파를 출력하고, 입력된 평면파의 위상 대비 출력파의 위상 변화량을 정량적인 픽셀 값으로 갖는 영상을 위상 이미지(phase image)라 할 수 있다.When a plane wave propagates to an object such as a cell and the plane wave passes through the cell, output waves with different phases are output depending on the thickness or refractive index of the object such as a cell, and the output wave compares the phase of the input plane wave. An image that has the amount of phase change as a quantitative pixel value can be called a phase image.

본 명세서에서 이미지는 반드시 픽셀의 인텐시티(intensity) 값으로 구성된 형태를 의미하지 않으며, 정량적인 값들이 매트릭스(matrix) 형태로 구성된 경우는 모두 이미지화하여 표시할 수 있으므로 이러한 형태를 포함하여 이미지로서 지칭한다.In this specification, an image does not necessarily mean a form composed of pixel intensity values. In cases where quantitative values are composed in the form of a matrix, any form can be imaged and displayed, so it is referred to as an image including this form. .

해당 분야의 통상의 기술자들은 디지털 홀로그래픽 이미징 및 재건 기법을 명확하게 이해할 수 있으므로 더 이상의 자세한 설명은 생략한다.Since digital holographic imaging and reconstruction techniques can be clearly understood by those skilled in the art, further detailed descriptions are omitted.

도 2를 참조하여 본 개시의 일 실시 예에 따른 위상 이미지에서 적혈구를 분할 및 판별하는 컴퓨팅 장치(100)의 구동 환경을 설명한다. 분할은 개별 적혈구의 영역을 배경 영역 또는 다른 적혈구와 구분(segmentation)하는 것을 의미한다.Referring to FIG. 2 , the operating environment of the computing device 100 for segmenting and identifying red blood cells in a phase image according to an embodiment of the present disclosure will be described. Segmentation refers to the separation of an individual red blood cell's area from the background area or other red blood cells.

본 개시의 실시 예에 따른 컴퓨팅 장치(100a)를 구동하기 위한 환경은 디지털 홀로그램 획득 장치(200) 및 학습 모델 훈련 장치(300)를 포함할 수 있다.An environment for driving the computing device 100a according to an embodiment of the present disclosure may include a digital hologram acquisition device 200 and a learning model training device 300.

컴퓨팅 장치(100)는 디지털 홀로그램 획득 장치(200) 또는 다른 장치로부터 제공 받은 적혈구를 포함하는 혈액을 촬영한 홀로그램을 재건하여 위상 이미지를 생성하거나, 디지털 홀로그램 획득 장치(200)로부터 적혈구를 포함하는 혈액을 촬영한 홀로그램을 재건하여 생성한 위상 이미지를 네트워크 또는 저장 매체 등을 통하여 제공 받을 수 있다. The computing device 100 generates a phase image by reconstructing a hologram taken of blood containing red blood cells provided from the digital hologram acquisition device 200 or another device, or collects blood containing red blood cells from the digital hologram acquisition device 200. The phase image created by reconstructing the captured hologram can be provided through a network or storage medium.

컴퓨팅 장치(100)는 위상 이미지를 딥러닝(deel-learning) 기반의 학습 모델에 입력하여 적혈구의 영역을 구분하고, 적혈구의 종류를 판별할 수 있다.The computing device 100 can input the phase image into a learning model based on deep learning (deel-learning) to distinguish regions of red blood cells and determine the type of red blood cells.

디지털 홀로그램 획득 장치(200)는 디지털 홀로그래픽 현미경이거나 또는 디지털 홀로그래픽 현미경을 제어하는 장치일 수 있다. 다른 실시 예에서, 디지털 홀로그램 획득 장치(200)는 디지털 홀로그래픽 현미경과 디지털 홀로그래픽 현미경을 제어하는 장치가 결합된 단일의 장치이거나 복수의 장치로 구성된 시스템일 수 있다. 디지털 홀로그래픽 현미경을 제어하는 장치는 프로세서, 메모리, 비 일시적 저장 매체 등을 포함하는 컴퓨팅 장치로서 PC(personal computer), 랩탑, 태블릿 컴퓨터, 서버 장치일 수 있으며 디지털 홀로그래픽 현미경과 연결되어 디지털 홀로그래픽 현미경의 촬영 및 홀로그램 생성을 제어할 수 있다. 또한, 디지털 홀로그램을 재건하거나 위상 이미지를 생성할 수 있다. The digital hologram acquisition device 200 may be a digital holographic microscope or a device that controls a digital holographic microscope. In another embodiment, the digital hologram acquisition device 200 may be a single device combining a digital holographic microscope and a device for controlling the digital holographic microscope, or may be a system composed of a plurality of devices. The device that controls the digital holographic microscope is a computing device that includes a processor, memory, non-transitory storage media, etc., and may be a personal computer (PC), laptop, tablet computer, or server device, and is connected to the digital holographic microscope to create a digital holographic microscope. Microscope imaging and hologram creation can be controlled. Additionally, digital holograms can be reconstructed or phase images can be generated.

학습 모델 훈련 장치(300)는 컴퓨팅 장치(100)에서 적혈구의 영역을 구분하고, 적혈구의 종류를 판별하는 딥러닝 기반의 학습 모델을 훈련시킬 수 있고, 학습 모델은 생성적 적대 신경망(generative adversarial network: GAN)에 기반하여 훈련될 수 있다. 학습 모델은 도 5 및 7의 구조를 갖는 추론 모델(generator)을 포함하고, 추론 모델은 추론한 결과가 GT(ground truth) 이미지인지 생성된 이미지인지 판별 하도록 훈련된 도 6의 구조를 갖는 판별 모델(discriminator)에 기반하여 훈련될 수 있다. The learning model training device 300 can train a deep learning-based learning model that distinguishes areas of red blood cells and determines the type of red blood cells in the computing device 100, and the learning model is a generative adversarial network. : Can be trained based on GAN). The learning model includes an inference model (generator) with the structure of FIGS. 5 and 7, and the inference model is a discrimination model with the structure of FIG. 6 trained to determine whether the inferred result is a GT (ground truth) image or a generated image. It can be trained based on the discriminator.

학습 모델 훈련 장치(300)는 훈련된 학습 모델 중 추론 모델을 컴퓨팅 장치(100)에 배포하거나 전송할 수 있다.The learning model training device 300 may distribute or transmit an inference model among the trained learning models to the computing device 100.

학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있으며, 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어는 메모리에 저장될 수 있다.The learning model may be implemented in hardware, software, or a combination of hardware and software. If part or all of the learning model is implemented in software, one or more instructions constituting the learning model may be stored in memory.

도 3을 참조하여 본 개시의 일 실시 예에 위상 이미지에서 적혈구를 분할 및 판별하는 컴퓨팅 장치(100)의 구성을 설명한다.Referring to FIG. 3 , the configuration of a computing device 100 for segmenting and identifying red blood cells in a phase image according to an embodiment of the present disclosure will be described.

컴퓨팅 장치(100)는 딥러닝에 기반한 학습 모델 또는 위상 이미지를 전송받거나 위상 이미지에서 적혈구의 영역을 구분한 결과 또는 적혈구의 종류를 판별한 결과를 전송하는 통신부(110), 프로세서(140)를 구동하기 위한 코드(code), 위상 이미지 및 학습 모델을 로딩하여 일시적으로 저장하는 메모리(120), 구성 요소를 제어하고 연산을 수행하는 프로세서(130), 딥러닝에 기반한 연산을 가속하여 처리하는 러닝 프로세서(140), 위상 이미지에서 적혈구의 영역을 구분하기 위한 마커 이미지 및 를 적혈구의 종류 별 확률 정보를 포함하는 적혈구 분류 이미지를 생성하도록 훈련된 학습 모델(150), 사용자의 명령을 입력 받고 그 결과를 제공하는 인터페이스(160) 및 다양한 결과를 표시하는 디스플레이(170)를 포함할 수 있다. 러닝 프로세서(140)는 GPU에 기반하거나 별도의 전용 AI 가속을 지원하는 프로세서일 수 있다. 학습 모델(150)은 생성적 적대 신경망에 기반하여 학습된 추론 모델일 수 있다.The computing device 100 drives a communication unit 110 and a processor 140 that receive a learning model based on deep learning or a phase image, or transmit a result of dividing the region of red blood cells in the phase image or determining the type of red blood cells. A memory 120 that temporarily stores the code, topological images, and learning models for loading and temporarily storing them, a processor 130 that controls components and performs calculations, and a learning processor that accelerates and processes calculations based on deep learning. (140), a marker image to distinguish the region of red blood cells in the phase image, and a learning model (150) trained to generate a red blood cell classification image containing probability information for each type of red blood cell, receiving user commands and providing the results. It may include an interface 160 that provides and a display 170 that displays various results. The learning processor 140 may be GPU-based or a separate processor that supports dedicated AI acceleration. The learning model 150 may be an inference model learned based on a generative adversarial network.

일 실시 예에서, 컴퓨팅 장치(100)는 디지털 홀로그램 획득 장치(200) 또는 학습 모델 훈련 장치(300)와 통신을 수행하기 위한 통신 부(transceiver)를 포함할 수 있다.In one embodiment, the computing device 100 may include a communication unit (transceiver) for communicating with the digital hologram acquisition device 200 or the learning model training device 300.

통신부는 무선 통신부 또는 유선 통신부를 포함할 수 있다.The communication unit may include a wireless communication unit or a wired communication unit.

무선 통신부는, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.The wireless communication unit may include at least one of a mobile communication module, a wireless Internet module, a short-range communication module, and a location information module.

이동통신 모듈은, 이동통신을 위한 통신방식인 LTE(Long Term Evolution) 등에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. The mobile communication module transmits and receives wireless signals with at least one of a base station, an external terminal, and a server on a mobile communication network built according to LTE (Long Term Evolution), a communication method for mobile communication.

무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈로서, 컴퓨팅 장치(100)에 내장되거나 외장될 수 있고, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance) 등이 사용될 수 있다.The wireless Internet module is a module for wireless Internet access, which may be built into or external to the computing device 100, and supports wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi), Wireless Fidelity (Wi-Fi) Direct, and DLNA. (Digital Living Network Alliance) etc. may be used.

근거리 통신 모듈은 근거리 통신을 통하여 데이터 송수신을 위한 모듈로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등을 사용할 수 수 있다.The short-range communication module is a module for transmitting and receiving data through short-range communication, including Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, and NFC (Near Field). Communication), etc. can be used.

위치정보 모듈은 컴퓨팅 장치(100)의 위치를 획득하기 위한 모듈로서, 위성 항법 기술에 기반한 GPS(Global Positioning System) 모듈이거나, 무선 통신 기지국, 무선 액세스 포인트와의 무선 통신에 기반하여 위치를 획득하는 모듈일 수 있다. 위치정보 모듈은 WiFi 모듈을 포함할 수 있다.The location information module is a module for acquiring the location of the computing device 100, and is a GPS (Global Positioning System) module based on satellite navigation technology, or a location information module that acquires the location based on wireless communication with a wireless communication base station or wireless access point. It can be a module. The location information module may include a WiFi module.

일 실시 예에서, 컴퓨팅 장치(100)는 사용자의 입력을 위한 입력부 또는 출력부를 포함할 수 있다.In one embodiment, the computing device 100 may include an input unit or output unit for user input.

입력부는 마이크로폰, 사용자로부터 정보를 입력 받기 위한 터치 인터페이스를 포함하는 사용자 인터페이스(UI: User Interface)를 포함하고, 사용자 인터페이스는 마우스, 키보드뿐만 아니라 장치에 구현된 기계식, 전자식 인터페이스 등을 포함할 수 있고 사용자의 명령을 입력 가능한 것이라면 특별히 그 방식과 형태를 한정하지 않는다. 전자식 인터페이스는 터치 입력 가능한 디스플레이를 포함한다.The input unit includes a user interface (UI: User Interface) including a microphone and a touch interface for receiving information from the user, and the user interface may include a mouse, a keyboard, as well as mechanical and electronic interfaces implemented in the device. As long as the user's command can be input, the method and form are not particularly limited. The electronic interface includes a display capable of touch input.

출력부는 컴퓨팅 장치(100)의 출력을 외부에 표출하여 사용자에게 정보를 전달하기 위한 것으로서, 시각적 출력, 청각적 출력 또는 촉각적 출력을 표출하기 위한 디스플레이, LED, 스피커 등을 포함할 수 있다.The output unit is used to deliver information to the user by displaying the output of the computing device 100 to the outside, and may include a display, LED, speaker, etc. for displaying visual output, auditory output, or tactile output.

컴퓨팅 장치(100)는 다양한 종류의 연결된 외부 기기와의 데이터 전송을 위한 주변 장치 인터페이스부를 포함할 수 있고, 메모리 카드(memory card) 포트, 외부 장치 I/O(Input/Output) 포트(port) 등을 포함할 수 있다. The computing device 100 may include a peripheral device interface unit for data transmission with various types of connected external devices, such as a memory card port, an external device input/output (I/O) port, etc. may include.

도 4를 참조하여 본 개시의 일 실시 예에 따른 학습 모델 훈련 장치(300)의 학습 모델을 훈련하는 방법을 설명한다.A method of training a learning model of the learning model training apparatus 300 according to an embodiment of the present disclosure will be described with reference to FIG. 4 .

훈련 장치(300)의 프로세서(330)는 위상 이미지를 입력 받아 적혈구의 마커(marker) 이미지와 적혈구의 종류에 대한 확률 정보를 포함하는 적혈구 분류 이미지 및 적혈구의 마커 이미지를 생성하는 추론 모델을 훈련할 수 있다. 추론 모델은 추론 모델에서 생성한 결과가 GT (Ground Truth) 이미지인지 추론 모델에서 생성된 이미지인지를 판별하는 판별 모델과 연계되어 생성적 적대 신경망에 기반하여 훈련될 수 있다. The processor 330 of the training device 300 receives a phase image and trains an inference model that generates a red blood cell classification image and a red blood cell marker image including a marker image of red blood cells and probability information about the type of red blood cells. You can. The inference model can be trained based on a generative adversarial network in conjunction with a discrimination model that determines whether the result generated by the inference model is a GT (Ground Truth) image or an image generated by the inference model.

일 실시 예에서, 딥러닝 학습 모델의 훈련에 적합하게 구현된 머신 러닝 기반의 러닝 프로세서(340)를 이용하여 학습 모델을 훈련시킬 수 있다. 훈련 데이터의 구성은 아래에서 자세히 설명한다. In one embodiment, a learning model may be trained using a machine learning-based learning processor 340 implemented appropriately for training a deep learning learning model. The composition of the training data is described in detail below.

훈련 장치(300)는 학습 데이터를 통신부(310)를 통해 수신하거나, 메모리(320)의 데이터베이스에서 학습 데이터를 로딩(loading)하여 학습 모델을 훈련시킬 수 있고, 훈련을 위한 환경 설정을 위한 디스플레이 등의 표시 장치, 마우스 및 키보드 등의 입력 장치를 포함하는 인터페이스(350)를 포함할 수 있다.The training device 300 can receive learning data through the communication unit 310 or train a learning model by loading learning data from a database in the memory 320, and display a display for setting up an environment for training. It may include an interface 350 including an input device such as a display device, mouse, and keyboard.

훈련 장치(300)는 생성적 적대 신경망에 기반하여 훈련된 학습 모델, 학습 모델을 외부 장치로 전송하거나, 학습 모델의 일 부분으로서 훈련된 추론 모델을 외부 장치로 전송할 수 있다.The training device 300 may transmit a learning model trained based on a generative adversarial network, the learning model to an external device, or transmit a trained inference model as part of the learning model to an external device.

학습 모델은 인공 신경망에 기반할 수 있고, 인공 신경망은 시냅스(synapse)의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다.The learning model may be based on an artificial neural network, where artificial neurons (nodes) that form a network through the combination of synapses change the strength of the synapse connection through learning, creating an overall model with problem-solving capabilities. It can mean.

도 5를 참조하여 본 개시의 일 실시 예에 따른 추론 모델의 구조 및 학습 방법을 설명한다.The structure and learning method of an inference model according to an embodiment of the present disclosure will be described with reference to FIG. 5.

학습 모델은 복수의 컨벌루션 레이어에 기반할 수 있고, 일 실시 예에서 추론 모델은 컨볼루션 레이어에 기반한 복수의 잔여 블록(residual block)을 포함하는 구조일 수 있다.The learning model may be based on a plurality of convolutional layers, and in one embodiment, the inference model may have a structure including a plurality of residual blocks based on the convolutional layer.

추론 모델은 잔여 블록을 포함하는 인코더 및 디코더로 구성되고, 인코더의 중간 단계에서 생성된 적어도 하나의 특징 맵(feature map)이 디코더의 중간 단계에 스킵 커넥션으로 연결(concatenate)될 수 있다.The inference model consists of an encoder and a decoder including residual blocks, and at least one feature map generated in the intermediate stage of the encoder may be concatenated with a skip connection in the intermediate stage of the decoder.

잔여 블록은 도 7의 구조와 같이 복수의 컨벌루션 레이어를 포함할 수 있고, 잔여 블록에 입력된 특징 맵이 잔여 블록의 출력에 전달되는 동일성 맵핑(identity mapping)을 가지는 잔여 블록일 수 있다. The residual block may include a plurality of convolutional layers as shown in the structure of FIG. 7, and may be a residual block with identity mapping in which the feature map input to the residual block is transmitted to the output of the residual block.

컨벌루션 레이어는 3 x 3 필터 사이즈를 가지는 단일한 크기의 스트라이드(stride)를 가질 수 있지만, 잔여 블록의 첫 번째 컨벌루션 레이어는 스트라이드 크기가 2일 수 있다. 따라서, 더 적은 파라미터로 신경망을 구성할 수 있고, 네트워크가 깊어지더라도 학습의 성공을 담보할 수 있다. A convolutional layer may have a single size stride with a filter size of 3 x 3, but the first convolutional layer of the residual block may have a stride size of 2. Therefore, a neural network can be constructed with fewer parameters and the success of learning can be guaranteed even if the network becomes deeper.

추론 모델은 위상 이미지(101)를 입력 받아, 복수의 이미지(102, 103)를 출력하도록 훈련될 수 있다.The inference model may be trained to receive a phase image 101 as input and output a plurality of images 102 and 103.

추론 모델은 위상 이미지(101)가 복수의 GT이미지인 마커 이미지(103)와 적혈구의 종류에 대한 확률 정보인 적혈구 분류 이미지(102)를 레이블(label)로 하는 학습 데이터로 훈련될 수 있다.The inference model can be trained with learning data in which the phase image 101 has a marker image 103, which is a plurality of GT images, and a red blood cell classification image 102, which is probability information about the type of red blood cell, as labels.

마커 이미지(103)는 적혈구의 내부 영역을 픽셀 단위(매트릭스의 엘리먼트일 수 있다)로 마킹한 분할(segment) 이미지로서, 마커 이미지(103)의 적혈구의 내부 영역은 컴퓨팅 장치(100)에서 최종적으로 생성하는 적혈구의 최종 분할 영역(segmented region)보다 작은 영역일 수 있다. 학습된 추론 모델이 생성하는 마커 이미지는 컴퓨팅 장치(100)에서 마커 기반의 워터쉐드 알고리듬 적용을 위한 마커로 사용될 수 있다. The marker image 103 is a segment image in which the inner region of the red blood cell is marked in pixel units (which may be elements of a matrix), and the inner region of the red blood cell in the marker image 103 is finally displayed in the computing device 100. It may be a smaller area than the final segmented region of the red blood cells being produced. The marker image generated by the learned inference model can be used as a marker for applying the marker-based watershed algorithm in the computing device 100.

본 발명의 실시 예에 따라 마커 기반의 워터쉐드(watershed) 알고리듬에 적용되는 마커를 종래의 거리(distance) 기반의 마커 생성 방법 등의 영상 처리 방법이 아닌 딥러닝 기반의 추론 모델에서 생성함으로써 컴퓨팅 장치(100)는 중첩된 적혈구의 영역을 정확하게 구분할 수 있다.According to an embodiment of the present invention, the marker applied to the marker-based watershed algorithm is generated from a deep learning-based inference model rather than an image processing method such as a conventional distance-based marker generation method, thereby creating a computing device. (100) can accurately distinguish areas of overlapping red blood cells.

적혈구 분류 이미지(102)는 적혈구의 복수의 종류들, 예를 들어 원판 적혈구(discocyte), 구상 적혈구(spherocyte), 유극 적혈구(echinocyte), 유구 적혈구(stomatocyte)일 확률 정보를 픽셀 단위(매트릭스의 엘리먼트일 수 있다)로 표시한 이미지일 수 있다. 따라서, 적혈구 분류 이미지(102)는 일종의 시맨틱 세그먼테이션(semantic segmentation) 결과일 수 있다.The red blood cell classification image 102 contains probability information of multiple types of red blood cells, for example, discocytes, spherocytes, echinocytes, and stomatocytes, in pixel units (elements of the matrix). It may be an image displayed as (may be). Accordingly, the red blood cell classification image 102 may be the result of a type of semantic segmentation.

따라서, 학습된 추론 모델은 서로 다른 두 종류의 이미지인 마커 이미지와 적혈구 분류 이미지를 생성하도록 훈련될 수 있고, 추론 모델의 최종 출력 레이어는 서로 다른 복수의 출력 레이어를 가지고, 복수의 출력 레이어는 각각 서로 다른 종류의 활성화 함수와 연결될 수 있다. 예를 들어, 마커 이미지를 생성하는 출력 레이어는 sigmoid 활성화 함수를 포함하고, 적혈구 분류 이미지를 생성하는 출력 레이어는 softmax 활성화 함수를 포함할 수 있다.Therefore, the learned inference model can be trained to generate two different types of images, a marker image and a red blood cell classification image, and the final output layer of the inference model has a plurality of different output layers, each of the plurality of output layers It can be connected to different types of activation functions. For example, an output layer that generates a marker image may include a sigmoid activation function, and an output layer that generates a red blood cell classification image may include a softmax activation function.

도 6을 참조하여 본 개시의 일 실시 예에 따른 판별 모델의 구조 및 학습 방법을 설명한다.The structure and learning method of a discrimination model according to an embodiment of the present disclosure will be described with reference to FIG. 6.

판별 모델은 복수의 컨벌루션 레이어들을 포함할 수 있고, 추론 모델에서 생성한 마커 이미지와 적혈구 분류 이미지가 연결된(concatenated) 이미지가 거짓(fake)으로 레이블링된 훈련 데이터(105)와, GT 이미지인 마커 이미지와 적혈구 분류 이미지가 연결된 이미지가 실제(real)로 레이블링된 훈련 데이터(104)로 훈련될 수 있다. The discriminant model may include a plurality of convolutional layers, and the concatenated image of the marker image generated from the inference model and the red blood cell classification image is training data 105 labeled as fake, and a marker image that is a GT image. The image connected to the red blood cell classification image may be trained with training data 104 labeled as real.

추론 모델을 훈련시키기 위한 목적 함수(object function)는 서로 다른 종류의 손실 함수들(loss functions)을 결합한 형태일 수 있고, <수학식 1>과 같이 추론 모델과 판별 모델 사이의 적대적 손실을 반영한 손실 함수()와 적혈구 분류 이미지의 비용을 의미하는 손실함수(Ls)와 마커 이미지의 비용을 의미하는 손실함수(LM)를 결합한 형태일 수 있다.The objective function for training the inference model may be a combination of different types of loss functions, and may be a loss that reflects the adversarial loss between the inference model and the discrimination model, as shown in Equation 1. function( ) and a loss function (Ls), which represents the cost of the red blood cell classification image, and a loss function (LM), which represents the cost of the marker image.

G, D는 추론 모델과 판별 모델을 의미하고, 은 경험적 웨이트 파라미터들을 의미한다. G and D refer to the inference model and discrimination model, and means empirical weight parameters.

각 손실함수들은 <수학식 2> 내지 <수학식 4>에 의해서 정의될 수 있다.Each loss function can be defined by <Equation 2> to <Equation 4>.

<수학식 2>에서 x는 적혈구의 위상 이미지를 의미하고, y는 GT 이미지인 적혈구 분류 이미지와 마커 이미지의 결합된(concatenation) 이미지를 의미한다. G(x)는 추론 모델에서 생성된 적혈구 분류 이미지와 마커 이미지의 결합된 이미지를 의미한다.In <Equation 2>, x refers to the phase image of red blood cells, and y refers to the concatenation image of the red blood cell classification image, which is a GT image, and the marker image. G(x) refers to the combined image of the red blood cell classification image and marker image generated from the inference model.

<수학식 3>에서 LDice는 dice 손실에 기반한 손실 함수를 의미하고, LCE는 크로스 엔트로피 손실에 기반한 손실 함수를 의미한다.In <Equation 3>, LDice refers to a loss function based on dice loss, and LCE refers to a loss function based on cross entropy loss.

y1, G1(x)는 각각 GT 이미지인 적혈구 분류 이미지와 추론 모델에서 생성한 분류 이미지를 의미하고, y2, G2(x)는 각각 GT 이미지인 마커 이미지와 추론 모델에서 생성한 마커 이미지를 의미한다.y1, G1(x) refer to the red blood cell classification image, which is a GT image, and the classification image generated from the inference model, respectively, and y2, G2(x) refer to the marker image, which is a GT image, and the marker image generated from the inference model, respectively. .

따라서, 학습 장치(300)는 적혈구 분류 이미지의 비용을 의미하는 손실함수(Ls)와 마커 이미지의 비용을 의미하는 손실함수(LM)를 추론 모델과 판별 모델 사이의 적대적 손실을 반영한 손실 함수()에 결합함으로써 서로 다른 종류인 마커 이미지와 적혈구 분류 이미지를 모두 정확하게 생성하도록 훈련할 수 있다.Therefore, the learning device 300 uses a loss function (Ls), which means the cost of the red blood cell classification image, and a loss function (LM), which means the cost of the marker image, as a loss function ( ), it can be trained to accurately generate both different types of marker images and red blood cell classification images.

도 8 내지 10을 참조하여 본 개시의 일 실시 예에 따른 적혈구 평가 방법을 설명한다. A red blood cell evaluation method according to an embodiment of the present disclosure will be described with reference to FIGS. 8 to 10.

적혈구 평가 장치는 디지털 홀로그래픽 현미경과 같은 디지털 홀로그램 획득 장치 또는 다른 장치로부터 제공 받은 적혈구를 포함하는 혈액을 촬영한 홀로그램을 재건하여 위상 이미지(901)를 생성하거나, 디지털 홀로그램 획득 장치로부터 적혈구를 포함하는 혈액을 촬영한 홀로그램을 재건하여 생성한 위상 이미지(901)를 네트워크 또는 저장 매체 등을 통하여 제공 받을 수 있다(S110). The red blood cell evaluation device generates a phase image 901 by reconstructing a hologram taken of blood containing red blood cells provided from a digital holographic acquisition device such as a digital holographic microscope or another device, or collecting red blood cells containing red blood cells from a digital holographic acquisition device. A phase image 901 created by reconstructing a hologram taken of blood can be provided through a network or storage medium (S110).

일 실시 예에서, 적혈구 평가 장치는 제공 받은 위상 이미지(901)를 패치 형태로 분할하여 추론 모델(150)에 입력함으로써, 연산 속도를 향상시킬 수 있다.In one embodiment, the red blood cell evaluation device may improve calculation speed by dividing the provided phase image 901 into patches and inputting them into the inference model 150.

적혈구 평가 장치는 적혈구의 위상 이미지(901)를 학습된 추론 모델(150)에 입력하여 적혈구의 마커 이미지(903) 및 적혈구 분류 이미지(902)를 생성할 수 있다(S120). 적혈구 분류 이미지(902)는 적혈구의 복수의 종류들에 대한 확률 정보를 픽셀 단위로 표시한 이미지로서, 일종의 시맨틱 세그먼테이션 결과일 수 있다.The red blood cell evaluation device may generate a red blood cell marker image 903 and a red blood cell classification image 902 by inputting the red blood cell phase image 901 into the learned inference model 150 (S120). The red blood cell classification image 902 is an image that displays probability information about multiple types of red blood cells in pixel units, and may be a type of semantic segmentation result.

적혈구 평가 장치는 적혈구의 종류에 대한 확률 정보를 포함하는 적혈구 분류 이미지(902)에 기반해 워터쉐드 알고리듬의 사용되는 바이너리 마스크 이미지(902a)를 생성할 수 있고, 바이너리 마스크 이미지(902a)는 워터쉐드 알고리듬의 능선(경계)으로 사용될 수 있다. 도 9의 바이너리 마스크 이미지(902a)는 복수의 적혈구 세포들의 적혈구의 종류에 대한 확률 정보를 포함하는 적혈구 분류 이미지(902)를 임계값(threshold) 기반 등의 영상 처리 방법으로 바이너리 이미지를 생성한 후, 몰폴로지(morphology) 처리를 통해 노이즈를 제거한 영상(902a)일 수 있다. The red blood cell evaluation device may generate a binary mask image 902a used in the watershed algorithm based on the red blood cell classification image 902 containing probability information about the type of red blood cell, and the binary mask image 902a is a watershed algorithm. It can be used as a ridge (boundary) for an algorithm. The binary mask image 902a of FIG. 9 is created by generating a binary image of the red blood cell classification image 902, which includes probability information about the type of red blood cells of a plurality of red blood cells, using an image processing method such as a threshold. , It may be an image 902a from which noise has been removed through morphology processing.

적혈구 평가 장치는 딥러닝에 기반한 추론 모델(150)에 위상 이미지(901)를 입력하여 적혈구의 마커 이미지(903, 903a)를 획득할 수 있다(S130). The red blood cell evaluation device may acquire marker images 903 and 903a of red blood cells by inputting the phase image 901 into the deep learning-based inference model 150 (S130).

앞서 학습 장치에서 설명한 것처럼 마커 이미지(903, 903a)는 적혈구의 확실한 내부 영역을 픽셀 단위로 마킹한 분할 이미지로서, 마커 이미지(903, 903a)의 적혈구의 내부 영역은 적혈구 평가 장치에서 최종적으로 생성하는 적혈구의 최종 분할 영역(906)보다 작은 영역일 수 있다. 학습된 추론 모델이 생성하는 마커 이미지(903, 903a)는 적혈구 평가 장치에서 마커 기반의 워터쉐드 알고리듬 적용을 위한 마커로 사용될 수 있다. As previously explained in the learning device, the marker images (903, 903a) are segmented images in which the clear inner region of the red blood cell is marked in pixel units, and the inner region of the red blood cell in the marker images (903, 903a) is the final image generated by the red blood cell evaluation device. The area may be smaller than the final division area 906 of the red blood cell. The marker images 903 and 903a generated by the learned inference model can be used as markers for applying the marker-based watershed algorithm in the red blood cell evaluation device.

적혈구 평가 장치는 추론 모델(150)에서 생성한 마커 이미지(903, 903a)와 적혈구 분류 이미지에 기반한(902) 바이너리 마스크 이미지(902a)에 워터쉐드 알고리듬을 적용하여 위상 이미지(101)에 포함된 적혈구들의 영역이 구분된 세그먼테이션 정보(906)를 생성할 수 있고, 세그먼테이션 정보(906)는 겹쳐진(overlapped) 복수의 적혈구가 서로 다른 별개의 적혈구로 구별된 정보일 수 있다. 즉, 바이너리 마스크 이미지(902a) 에서 적혈구가 중첩된 경우 이는 별개의 적혈구로 구분되지 않지만, 추론 모델(150)에서 생성한 마커 이미지(903, 903a)를 함께 워터쉐드 알고리듬에 적용함으로써 중첩된 적혈구도 개별 적혈구로서 정확하게 구분될 수 있다.The red blood cell evaluation device applies the watershed algorithm to the marker images (903, 903a) generated from the inference model (150) and the binary mask image (902a) based on the red blood cell classification image (902) to identify red blood cells included in the phase image (101). Segmentation information 906 may be generated in which the regions of the cells are distinguished, and the segmentation information 906 may be information in which a plurality of overlapped red blood cells are distinguished from each other as separate red blood cells. That is, when red blood cells overlap in the binary mask image 902a, they are not distinguished as separate red blood cells, but by applying the marker images 903 and 903a generated by the inference model 150 together to the watershed algorithm, the overlapped red blood cells are also They can be accurately distinguished as individual red blood cells.

일 실시 예에서, 적혈구 평가 장치는 세그먼테이션 정보에 기반하여 위상 이미지(901)에 각 개별 적혈구의 영역을 표시(906)하고, 적혈구 분류 이미지(902)에 기반하여 개별적으로 영역이 구분된 적혈구들의 종류를 최종적으로 판별한 후 이를 위상 이미지(901)에 표시(907)할 수 있다.In one embodiment, the red blood cell evaluation device displays (906) the region of each individual red blood cell in the phase image (901) based on segmentation information, and types of red blood cells individually divided into regions based on the red blood cell classification image (902). After finally determining, it can be displayed (907) on the phase image (901).

도 8의 각 단계들은 일부가 다른 단계들에 앞서 실행될 수 있으나, 반드시 이러한 순서로 실행되는 것을 의미하지 않는다. 예를 들어, 바이너리 마스크 이미지의 생성 또는 획득(S120)은 추론 모델에 기반하여 마커 이미지를 획득하는 단계(S130)보다 앞서서 또는 이후에 실행될 수 있다.Some of the steps in FIG. 8 may be executed before other steps, but this does not necessarily mean that they are executed in this order. For example, generating or acquiring a binary mask image (S120) may be performed before or after acquiring a marker image based on an inference model (S130).

도 10을 참조하면, 위상 이미지(1001)에서 최종적으로 중첩된 적혈구들을 포함한 적혈구들의 영역과 종류가 표시된 최종 이미지(1007)를 생성하는 개념적인 단계와 본 발명의 실시 예에 기반한 마커를 사용하지 않은 결과를 비교한 결과를 확인할 수 있다.Referring to FIG. 10, the conceptual steps of generating a final image 1007 in which the area and type of red blood cells including the final overlapping red blood cells are displayed in the phase image 1001 and the image without using a marker based on an embodiment of the present invention are shown. You can check the results by comparing them.

예를 들어, 위상 이미지(1001)를 입력 받은 추론 모델에서 생성한 바이너리 마스크 이미지(1002)와 마커 이미지(1003)를 마커 기반 워터쉐드 알고리듬에 적용하여 생성된 세그먼테이션 정보(1006)와 적혈구의 종류에 대한 확률 정보를 포함하는 적혈구 분류 이미지에 기반하여 개별적으로 영역이 구분된 적혈구들(1006)의 종류를 최종적으로 판별한 후 이를 위상 이미지(1001)에 표시하여 최종 이미지(1007)를 생성할 수 있다.For example, segmentation information (1006) generated by applying the binary mask image (1002) and marker image (1003) generated from the inference model that received the phase image (1001) to the marker-based watershed algorithm and the type of red blood cell. Based on the red blood cell classification image that includes probability information about the red blood cells, the type of red blood cells 1006 divided into individual regions can be finally determined and displayed on the phase image 1001 to generate the final image 1007. .

도 10 (b)는 위상 이미지들이고, 도 10 (c)는 본 발명의 실시 예에 따른 마커 이미지를 사용하지 않은 결과이고, 도 10 (d)는 본 발명의 실시 예에 따른 마커 이미지를 사용한 결과이다. 도 10 (d)는 도 10 (c)에 비하여 중첩된 적혈구를 정확히 서로 다른 적혈구로 구분한 것을 확인할 수 있다.Figure 10(b) is a phase image, Figure 10(c) is a result without using a marker image according to an embodiment of the present invention, and Figure 10(d) is a result using a marker image according to an embodiment of the present invention. am. In Figure 10(d), it can be seen that the overlapping red blood cells are accurately classified into different red blood cells compared to Figure 10(c).

도 11 내지 12를 참조하여 본 개시의 일 실시 예에 따른 적혈구 판별 실험 결과를 설명한다. The results of a red blood cell identification experiment according to an embodiment of the present disclosure will be described with reference to FIGS. 11 and 12.

도 11은 본 개시의 일 실시 예에 따른 학습 모델의 적혈구 영역 구분 및 종류 판별 실험 결과를 보여주는 도면이다. Figure 11 is a diagram showing the results of an experiment for classifying red blood cells and determining their type using a learning model according to an embodiment of the present disclosure.

도 11을 참조하면 위상 이미지(111)에서 중첩된 적혈구들(화살표)이 GT 이미지(112)와 마찬가지로 본 발명의 실시 예에 따른 실험 결과(114)에서 정확하게 개별 적혈구로 구분된 것을 확인할 수 있다. 또한, 서로 다른 종류의 적혈구에서도 정확하게 개별 적혈구로 구분된 것을 확인할 수 있다. 이에 반해, VGG16-FCN에 기반한 종래의 실험 결과(113)는 중첩된 적혈구들을 정확하게 구분하지 못하는 것을 확인할 수 있다.Referring to FIG. 11 , it can be seen that the overlapping red blood cells (arrows) in the phase image 111 are accurately classified into individual red blood cells in the experimental results 114 according to an embodiment of the present invention, as in the GT image 112. In addition, it can be confirmed that different types of red blood cells are accurately classified into individual red blood cells. In contrast, it can be confirmed that the conventional experimental results based on VGG16-FCN (113) cannot accurately distinguish between overlapping red blood cells.

도 12는 본 개시의 일 실시 예에 따른 학습 모델의 적혈구 영역 구분 및 종류 판별 실험 결과의 정확도를 보여주는 도면이다. 도 12에서 확인 가능한 것처럼 서로 다른 종류의 적혈구들에서도 각 적혈구들의 종류를 정확하게 구분한 것을 확인할 수 있다.Figure 12 is a diagram showing the accuracy of the results of the red blood cell region classification and type discrimination experiment of the learning model according to an embodiment of the present disclosure. As can be seen in Figure 12, it can be seen that the types of each red blood cell are accurately distinguished even among different types of red blood cells.

이는 Dice 계수에 기반하여 픽셀 기반으로 정량적으로 평가한 결과와 AJI(Aggregated Jaccard Index)에 기반하여 객체 기반으로 정략적으로 평가하여 종래의 방법들과 본 발명의 실시 예를 비교한 결과인 <표 1>에서도 중첩된 적혈구를 포함한 각 적혈구의 구분 및 판별이 종래의 방법들에 비해 정확함을 확인할 수 있다.This is the result of a quantitative evaluation on a pixel basis based on the Dice coefficient and a quantitative evaluation on an object basis based on the Aggregated Jaccard Index (AJI), and a comparison between the conventional methods and the embodiment of the present invention is shown in <Table 1>. It can also be confirmed that the classification and discrimination of each red blood cell, including overlapping red blood cells, is more accurate than conventional methods.

도 13 내지 14를 참조하여 본 개시의 다른 실시 예에 따른 적혈구 판별 실험 결과를 설명한다. The results of a red blood cell identification experiment according to another embodiment of the present disclosure will be described with reference to FIGS. 13 and 14.

적혈구 평가 장치는 적혈구 분류 이미지 및 상기 세그먼테이션 정보에 기반하여 위상 이미지에서 원판 적혈구의 비율을 확인하고, 원판 적혈구의 비율에 기반하여 위상 이미지를 획득한 혈액의 저장 기간 또는 사용 가능성을 추정할 수 있다.The red blood cell evaluation device may check the ratio of discoid red blood cells in the phase image based on the red blood cell classification image and the segmentation information, and estimate the storage period or usability of blood from which the phase image was obtained based on the ratio of discoid red blood cells.

도 13은 본 개시의 일 실시 예에 따른 저장 기간 별 혈액에 대한 학습 모델의 적혈구 영역 구분 및 종류 판별 실험 결과를 보여주는 도면이고, 도 14는 저장 기간 별 혈액에 대한 학습 모델의 적혈구 종류의 비율 변화 실험 결과를 보여주는 도면이다.FIG. 13 is a diagram showing the results of an experiment for classifying red blood cells region and determining type of the learning model for blood by storage period according to an embodiment of the present disclosure, and FIG. 14 is a diagram showing the change in ratio of red blood cell types of the learning model for blood by storage period This is a drawing showing the results of the experiment.

도 13 및 도 14를 참조하면, 저장 기간인 8, 13, 16, 23, 27, 30, 34, 37, 40, 47 및 57일에서의 적혈구가 포함된 혈액 위상 이미지에 대하여 적혈구 영역 구분 및 종류 판별 실험 결과에서 원판 적혈구(discocyte)가 감소하고, 구상 적혈구(spherocyte), 유극 적혈구(echinocyte)가 증가하는 것을 확인할 수 있다. 특히, 저장 기간이 30일 및 40일에서 원판 적혈구가 급격히 감소하는 것을 확인할 수 있다. Referring to Figures 13 and 14, red blood cell region classification and type for blood phase images containing red blood cells at the storage period of 8, 13, 16, 23, 27, 30, 34, 37, 40, 47, and 57 days. From the results of the discrimination experiment, it can be seen that the number of discocytes decreases and the number of spherocytes and echinocytes increases. In particular, it can be seen that the number of discoid red blood cells decreases rapidly at 30 and 40 days of storage.

따라서, 적혈구 평가 장치는 원판 적혈구의 비율을 판단하여, 혈액의 원판 적혈구 비율이 미리 설정된 비율을 하회하는 경우 이를 경고함으로써 손상된 혈액이 수술 등에 사용되는 것을 방지할 수 있다.Accordingly, the red blood cell evaluation device determines the ratio of discoid red blood cells and warns when the ratio of discoid red blood cells in blood falls below a preset ratio, thereby preventing damaged blood from being used in surgery, etc.

전술한 본 개시는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 각 장치의 프로세서를 포함할 수도 있다.The present disclosure described above can be implemented as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is. Additionally, the computer may include a processor for each device.

한편, 상기 프로그램은 본 개시를 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수 있다. 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the program may be specially designed and configured for the present disclosure, or may be known and usable by those skilled in the art of computer software. Examples of programs may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

본 개시의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 개시에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. In the specification (particularly in the claims) of the present disclosure, the use of the term “above” and similar referential terms may refer to both the singular and the plural. In addition, when a range is described in the present disclosure, the invention includes the application of individual values within the range (unless there is a statement to the contrary), and each individual value constituting the range is described in the detailed description of the invention. It's the same.

본 개시에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다. 본 개시에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다. 또한, 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 인자(factor)에 따라 구성될 수 있음을 알 수 있다.Unless there is an explicit order or description to the contrary regarding the steps constituting the method according to the present disclosure, the steps may be performed in any suitable order. The present disclosure is not necessarily limited by the order of description of the steps above. The use of any examples or illustrative terms (e.g., etc.) in the present disclosure is merely to describe the present disclosure in detail, and unless limited by the claims, the scope of the present disclosure is limited by the examples or illustrative terms. It doesn't work. In addition, those skilled in the art will recognize that various modifications, combinations and changes may be made according to design conditions and factors within the scope of the appended claims or their equivalents.

따라서, 본 개시의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 개시의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present disclosure should not be limited to the above-described embodiments, and the scope of the patent claims described below as well as all scopes equivalent to or equivalently changed from the claims are within the scope of the spirit of the present disclosure. It will be said to belong to

100: 컴퓨팅 장치
200: 디지털 홀로그램 획득 장치
300: 학습 모델 훈련 장치
100: computing device
200: Digital hologram acquisition device
300: Learning model training device

Claims (20)

각 단계의 적어도 일부가 프로세서에 의해 수행되는 방법으로서,
적혈구의 위상 이미지를 제공 받는 단계;
상기 위상 이미지를 컨벌루션 레이어에 기반한 추론 모델에 입력하여 상기 적혈구의 마커 이미지 및 적혈구 분류 이미지를 획득하는 단계; 및
상기 적혈구 분류 이미지에 기반하여 생성한 적혈구의 바이너리 마스크 이미지 및 상기 마커 이미지에 마커 기반 워터쉐드(watershed) 알고리듬을 적용하여 상기 적혈구의 영역을 구분한 세그먼테이션 정보를 생성하는 단계를 포함하는,
적혈구 평가 방법.
A method in which at least a portion of each step is performed by a processor, comprising:
Receiving a phase image of red blood cells;
Inputting the phase image into an inference model based on a convolutional layer to obtain a marker image of the red blood cell and a red blood cell classification image; and
Comprising the step of applying a marker-based watershed algorithm to the binary mask image of red blood cells generated based on the red blood cell classification image and the marker image to generate segmentation information dividing the region of the red blood cells.
Methods for evaluating red blood cells.
제1 항에 있어서,
상기 적혈구 분류 이미지는 상기 위상 이미지를 상기 추론 모델에 입력하여 획득된 상기 적혈구의 종류에 대한 확률 정보를 포함하고,
적혈구 평가 방법.
According to claim 1,
The red blood cell classification image includes probability information about the type of red blood cells obtained by inputting the phase image into the inference model,
Methods for evaluating red blood cells.
제1 항에 있어서,
상기 위상 이미지에서 상기 세그먼테이션 정보에 기반하여 상기 적혈구의 영역을 표시하는 단계; 및
상기 위상 이미지에서 상기 적혈구 분류 이미지에 기반하여 상기 적혈구의 종류를 표시하는 단계를 더 포함하는,
적혈구 평가 방법.
According to claim 1,
displaying a region of the red blood cells in the phase image based on the segmentation information; and
Further comprising displaying the type of the red blood cell based on the red blood cell classification image in the phase image,
Methods for evaluating red blood cells.
제1 항에 있어서,
상기 추론 모델은 생성적 적대 신경망(generative adversarial network: GAN)에 기반하여 학습된,
적혈구 평가 방법.
According to claim 1,
The inference model is learned based on a generative adversarial network (GAN),
Methods for evaluating red blood cells.
제4 항에 있어서,
상기 추론 모델은 복수의 출력 레이어를 가지고, 상기 복수의 출력 레이어는 각각 상기 마커 이미지와 상기 적혈구 분류 이미지를 출력하도록 설정된,
적혈구 평가 방법.
According to clause 4,
The inference model has a plurality of output layers, and the plurality of output layers are set to output the marker image and the red blood cell classification image, respectively.
Methods for evaluating red blood cells.
제4 항에 있어서,
상기 추론 모델은 복수의 출력 레이어를 가지고, 상기 복수의 출력 레이어는 각각 서로 다른 종류의 활성화 함수와 연결된,
적혈구 평가 방법.
According to clause 4,
The inference model has a plurality of output layers, and the plurality of output layers are each connected to different types of activation functions,
Methods for evaluating red blood cells.
제4 항에 있어서,
상기 추론 모델은,
상기 추론 모델에서 생성한 적혈구의 마커 이미지 및 적혈구 분류 이미지를 GT(Ground Truth) 데이터와 함께 생성적 적대 신경망의 판별 모델에 입력하여 판별한 결과에 기반하여 학습된 추론 모델인,
적혈구 평가 방법.
According to clause 4,
The inference model is,
An inference model learned based on the results of inputting the red blood cell marker image and red blood cell classification image generated from the above inference model into a discriminative model of a generative adversarial network along with GT (ground truth) data,
Methods for evaluating red blood cells.
제7 항에 있어서,
상기 추론 모델은 컨볼루션 레이어에 기반한 잔여 블록(residual block)의 입력이 상기 잔여 블록의 최종 레이어에 더해지는 복수의 상기 잔여 블록을 포함하고,
상기 추론 모델은 상기 잔여 블록을 포함하는 인코더 및 디코더로 구성되고, 상기 인코더의 중간 단계에서 생성된 적어도 하나의 특징 맵이 상기 디코더의 중간 단계에 스킵 커넥션으로 연결(concatenate)되는,
적혈구 평가 방법.
According to clause 7,
The inference model includes a plurality of residual blocks in which an input of a residual block based on a convolutional layer is added to the final layer of the residual block,
The inference model is composed of an encoder and a decoder including the residual block, and at least one feature map generated in the intermediate stage of the encoder is concatenated with a skip connection to the intermediate stage of the decoder,
Methods for evaluating red blood cells.
제1 항에 있어서,
상기 세그먼테이션 정보를 생성하는 단계는,
겹쳐진(overlapped) 복수의 적혈구를 서로 다른 적혈구로 구별하는 상기 세그먼테이션 정보를 생성하는 단계를 포함하는,
적혈구 평가 방법.
According to claim 1,
The step of generating the segmentation information is,
Including generating the segmentation information to distinguish a plurality of overlapped red blood cells into different red blood cells,
Methods for evaluating red blood cells.
제2 항에 있어서,
상기 적혈구 분류 이미지 및 상기 세그먼테이션 정보에 기반하여 상기 위상 이미지에서 원판 적혈구의 비율을 확인하는 단계; 및
상기 원판 적혈구의 비율에 기반하여 상기 위상 이미지를 획득한 혈액의 저장 기간 또는 사용 가능성을 추정하는 단계를 포함하는,
적혈구 평가 방법.
According to clause 2,
Confirming the ratio of discoid red blood cells in the phase image based on the red blood cell classification image and the segmentation information; and
Comprising the step of estimating the storage period or usability of the blood from which the phase image was obtained based on the proportion of discoid red blood cells,
Methods for evaluating red blood cells.
프로세서; 및
상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고,
상기 메모리는 상기 프로세서를 통해 실행될 때 상기 프로세서가,
적혈구의 위상 이미지를 컨벌루션 레이어에 기반한 추론 모델에 입력하여 상기 적혈구의 마커 이미지 및 적혈구 분류 이미지를 획득하고, 상기 적혈구 분류 이미지에 기반하여 생성한 적혈구의 바이너리 마스크 이미지 및 상기 마커 이미지에 마커 기반 워터쉐드(watershed) 알고리듬을 적용하여 상기 적혈구의 영역을 구분한 세그먼테이션 정보를 생성하도록 야기하는 코드를 저장하는,
적혈구 평가 장치.
processor; and
A memory electrically connected to the processor and storing at least one code executed by the processor,
When the memory is executed through the processor, the processor
Input the phase image of red blood cells into an inference model based on a convolutional layer to obtain a marker image of the red blood cells and a red blood cell classification image, and apply a marker-based watershed to the binary mask image of the red blood cells generated based on the red blood cell classification image and the marker image. storing a code that causes the application of a (watershed) algorithm to generate segmentation information that distinguishes regions of the red blood cells,
Red blood cell assessment device.
제11 항에 있어서,
상기 적혈구 분류 이미지는 상기 위상 이미지를 상기 추론 모델에 입력하여 획득된 상기 적혈구의 종류에 대한 확률 정보를 포함하는,적혈구 평가 장치.
According to claim 11,
The red blood cell classification image includes probability information about the type of red blood cells obtained by inputting the phase image into the inference model.
제11 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 위상 이미지에서 상기 세그먼테이션 정보에 기반하여 상기 적혈구의 영역을 표시하고,
상기 위상 이미지에서 상기 적혈구 분류 이미지에 기반하여 상기 적혈구의 종류를 표시하도록 야기하는 코드를 더 저장하는,
적혈구 평가 장치.
According to claim 11,
The memory allows the processor to:
Displaying the area of the red blood cells in the phase image based on the segmentation information,
further storing a code that causes the type of red blood cell to be displayed based on the red blood cell classification image in the phase image,
Red blood cell assessment device.
제11 항에 있어서,
상기 추론 모델은 생성적 적대 신경망(generative adversarial network: GAN)에 기반하여 학습된,
적혈구 평가 장치.
According to claim 11,
The inference model is learned based on a generative adversarial network (GAN),
Red blood cell assessment device.
제14 항에 있어서,
상기 추론 모델은 복수의 출력 레이어를 가지고, 상기 복수의 출력 레이어는 각각 상기 마커 이미지와 상기 적혈구 분류 이미지를 출력하도록 설정된,
적혈구 평가 장치.
According to claim 14,
The inference model has a plurality of output layers, and the plurality of output layers are set to output the marker image and the red blood cell classification image, respectively.
Red blood cell assessment device.
제14 항에 있어서,
상기 추론 모델은 복수의 출력 레이어를 가지고, 상기 복수의 출력 레이어는 각각 서로 다른 종류의 활성화 함수와 연결된,
적혈구 평가 장치.
According to claim 14,
The inference model has a plurality of output layers, and the plurality of output layers are each connected to different types of activation functions,
Red blood cell assessment device.
제14 항에 있어서,
상기 추론 모델은,
상기 추론 모델에서 생성한 적혈구의 마커 이미지 및 적혈구 분류 이미지를 GT(Ground Truth) 데이터와 함께 생성적 적대 신경망의 판별 모델에 입력하여 판별한 결과에 기반하여 학습된 추론 모델인,
적혈구 평가 장치.
According to claim 14,
The inference model is,
An inference model learned based on the results of inputting the red blood cell marker image and red blood cell classification image generated from the above inference model into a discriminative model of a generative adversarial network along with GT (ground truth) data,
Red blood cell assessment device.
제17 항에 있어서,
상기 추론 모델은 컨볼루션 레이어에 기반한 잔여 블록(residual block)의 입력이 상기 잔여 블록의 최종 레이어에 더해지는 복수의 상기 잔여 블록을 포함하고,
상기 추론 모델은 상기 잔여 블록을 포함하는 인코더 및 디코더로 구성되고, 상기 인코더의 중간 단계에서 생성된 적어도 하나의 특징 맵이 상기 디코더의 중간 단계에 스킵 커넥션으로 연결(concatenate)되는,
적혈구 평가 장치.
According to claim 17,
The inference model includes a plurality of residual blocks in which an input of a residual block based on a convolutional layer is added to the final layer of the residual block,
The inference model is composed of an encoder and a decoder including the residual block, and at least one feature map generated in the intermediate stage of the encoder is concatenated with a skip connection to the intermediate stage of the decoder,
Red blood cell assessment device.
제11 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
겹쳐진(overlapped) 복수의 적혈구를 서로 다른 적혈구로 구별하는 상기 세그먼테이션 정보를 생성하도록 야기하는 코드를 더 저장하는,
적혈구 평가 장치.
According to claim 11,
The memory allows the processor to:
further storing code that causes the segmentation information to be generated to distinguish the overlapped plurality of red blood cells as different red blood cells,
Red blood cell assessment device.
제12 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 적혈구 분류 이미지 및 상기 세그먼테이션 정보에 기반하여 상기 위상 이미지에서 원판 적혈구의 비율을 확인하고, 상기 원판 적혈구의 비율에 기반하여 상기 위상 이미지를 획득한 혈액의 저장 기간 또는 사용 가능성을 추정하도록 야기하는 코드를 더 저장하는,
적혈구 평가 장치.

According to claim 12,
The memory allows the processor to:
Code that causes to determine the proportion of discoid red blood cells in the phase image based on the red blood cell classification image and the segmentation information, and to estimate the storage period or usability of blood from which the phase image was obtained based on the proportion of discoid red blood cells. To save more,
Red blood cell assessment device.

KR1020220101534A 2022-08-12 2022-08-12 Apparatus and method for evaluating red blood cells based on deep-learning KR20240022892A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220101534A KR20240022892A (en) 2022-08-12 2022-08-12 Apparatus and method for evaluating red blood cells based on deep-learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220101534A KR20240022892A (en) 2022-08-12 2022-08-12 Apparatus and method for evaluating red blood cells based on deep-learning

Publications (1)

Publication Number Publication Date
KR20240022892A true KR20240022892A (en) 2024-02-20

Family

ID=90057037

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220101534A KR20240022892A (en) 2022-08-12 2022-08-12 Apparatus and method for evaluating red blood cells based on deep-learning

Country Status (1)

Country Link
KR (1) KR20240022892A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101995763B1 (en) 2017-08-25 2019-07-03 (주)뉴옵틱스 Cytometry apparatus and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101995763B1 (en) 2017-08-25 2019-07-03 (주)뉴옵틱스 Cytometry apparatus and method

Similar Documents

Publication Publication Date Title
Liu et al. Detecting cancer metastases on gigapixel pathology images
O’Connor et al. Deep learning-based cell identification and disease diagnosis using spatio-temporal cellular dynamics in compact digital holographic microscopy
JP2022513494A (en) Computational microscope-based systems and methods for automatic imaging and analysis of pathological specimens
Sun et al. Deep learning‐based single‐cell optical image studies
JP2016517115A (en) System and method for multiplexed biomarker quantification using single cell division in continuously stained tissue
US10706258B2 (en) Systems and methods for cell identification using lens-less imaging
WO2020190480A1 (en) Classifying an input data set within a data category using multiple data recognition tools
US20210073513A1 (en) Method for Classifying Cells
US11710552B2 (en) Method and system for refining label information
Seemendra et al. Breast cancer classification using transfer learning
CN114550169A (en) Training method, device, equipment and medium for cell classification model
Wajeed et al. Image Based Tumor Cells Identification Using Convolutional Neural Network and Auto Encoders.
RU2732895C1 (en) Method for isolating and classifying blood cell types using deep convolution neural networks
Kurmi et al. Tuberculosis bacteria analysis in acid fast stained images of sputum smear
Sivaiah et al. FL-CapsNet: Facial localization augmented capsule network for human emotion recognition
CN116348921A (en) Method for classifying cells
US11803963B2 (en) Computational model for analyzing images of a biological specimen
KR20240022892A (en) Apparatus and method for evaluating red blood cells based on deep-learning
Raja et al. A Novel Fuzzy-Based Modified GAN and Faster RCNN for Classification of Banana Leaf Disease
Methuku In-car driver response classification using deep learning (CNN) based computer vision
Rajput et al. A transfer learning-based brain tumor classification using magnetic resonance images
KR102410380B1 (en) Apparatus and method for reconstructing noiseless phase image from garbor hologram based on deep-learning
Singh et al. DermoCare. AI: A Skin Lesion Detection System Using Deep Learning Concepts
Alexandratou et al. Evaluation of machine learning techniques for prostate cancer diagnosis and Gleason grading
KR102512155B1 (en) Apparatus and method for phase unwrapping of digital hologram phase image based on deep learning