KR20210111725A - 딥러닝 기반의 교차 시험 영상 처리 방법 및 그 장치 - Google Patents

딥러닝 기반의 교차 시험 영상 처리 방법 및 그 장치 Download PDF

Info

Publication number
KR20210111725A
KR20210111725A KR1020210115181A KR20210115181A KR20210111725A KR 20210111725 A KR20210111725 A KR 20210111725A KR 1020210115181 A KR1020210115181 A KR 1020210115181A KR 20210115181 A KR20210115181 A KR 20210115181A KR 20210111725 A KR20210111725 A KR 20210111725A
Authority
KR
South Korea
Prior art keywords
image
data
uawm
network
original image
Prior art date
Application number
KR1020210115181A
Other languages
English (en)
Other versions
KR102396190B1 (ko
Inventor
이혜민
이정민
이진우
Original Assignee
주식회사 알틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200005830A external-priority patent/KR102298185B1/ko
Application filed by 주식회사 알틱스 filed Critical 주식회사 알틱스
Publication of KR20210111725A publication Critical patent/KR20210111725A/ko
Application granted granted Critical
Publication of KR102396190B1 publication Critical patent/KR102396190B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/50Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing
    • G01N33/53Immunoassay; Biospecific binding assay; Materials therefor
    • G01N33/569Immunoassay; Biospecific binding assay; Materials therefor for microorganisms, e.g. protozoa, bacteria, viruses
    • G01N33/56966Animal cells
    • G01N33/56977HLA or MHC typing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/149Optical investigation techniques, e.g. flow cytometry specially adapted for sorting particles, e.g. by their size or optical properties
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • G01N33/4833Physical analysis of biological material of solid biological material, e.g. tissue samples, cell cultures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/50Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing
    • G01N33/53Immunoassay; Biospecific binding assay; Materials therefor
    • G01N33/569Immunoassay; Biospecific binding assay; Materials therefor for microorganisms, e.g. protozoa, bacteria, viruses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N2015/1488Methods for deciding
    • G01N2015/149

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Immunology (AREA)
  • Chemical & Material Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Hematology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Urology & Nephrology (AREA)
  • Biophysics (AREA)
  • Analytical Chemistry (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • Medical Informatics (AREA)
  • Medicinal Chemistry (AREA)
  • Food Science & Technology (AREA)
  • Cell Biology (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Tropical Medicine & Parasitology (AREA)
  • Biotechnology (AREA)
  • Virology (AREA)
  • Microbiology (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)

Abstract

본 발명은 딥러닝 기반의 교차 시험 영상 처리 방법 및 그 장치에 관한 것이다.
본 발명에 따르면, 딥러닝 기반의 영상 처리된 교차 시험 영상을 이용하여 살아있는 림프구와 사멸한 림프구를 용이하게 구별할 수 있고, 교차 시험에 걸리는 시간을 단축시킬 수 있다.

Description

딥러닝 기반의 교차 시험 영상 처리 방법 및 그 장치{METHOD FOR PROCESSING CROSS MATCHING IMAGE BASED ON DEEP LEARNING AND APPARATUS THEREOF}
아래 실시예들은 딥러닝 기반의 교차 시험 영상 처리 방법 및 그 장치에 관한 것이다.
장기 이식 환자들이 이식을 받기 전에 수형, 임신, 과거 장기 이식 등을 통해 다른 사람의 HLA 항원(Human Leukocyte Antigen)에 노출되어 일부 환자에게 HLA 항체가 생성되어 동종항체가 생성되는 경우가 발생한다. 공여자의 특이항체(doner-specific antibody, DSA)는 공여자 장기에 대한 체액성 면역반을를 유도하고, 항체 매개성 거부반응(antibody mediated rejection; AMR)의 원인이 되며, 이식 장기의 장기 생존율을 저하시킨다.
따라서, 장기 이식 경우 장기 이식을 위한 HLA 항체 검사, 즉 특정 공여자의 HLA 항원에 대한 특이항체가 환자의 혈청에 존재하는가의 검사는 필수적이다.
장기 이식을 위한 HLA 교차 시험은 공여자의 림프구와 환자의 혈청을 혼합하여, 사멸한 림프구와 살아있는 림프구의 비율로 평가한다. 즉, 사멸한 림프구의 수와 살아있는 림프구 수를 카운트 비율하여, 11% 이상 림프구가 파괴되었을 경우 양성으로 판정한다.
이식 전 교차 시험은 초급성 거부 반응을 방지하고, 공여자 HLA에 대하여 이전감작, 즉 다시 동일한 항원에 환자가 노출되는 것을 방지하여 체액성 면역반응 및 초급성 거부반응을 방지하기 위한 것이다.
교차 시험은 보체의존세포독성법(CDC: complement dependent cytotoxicity)과 FCXM(flow cytometry)로 나뉘어지는데, CDC는 DSA의 존재 및 보체고정능력을 평가하는데 매우 유용하다. 탈감작 치료후 좀더 민감도가 좋은 방법으로 항체변화를 추적하기 위하여 HLA 항체를 검출하기 위한 노력이 지속되어 왔다.
CDC(complement dependendent cytotoxiety) 방법은 림프구에 있는 세포(cell)를 형광 현미경으로 판독하여 사멸한 림프구의 비율을 검출하여 이를 근거로 HLA 항원에 반응하는 항체가 존재하는가를 검출한다.
이를 위하여 먼저 공여자의 림프구와 수여자의 혈청을 반응시킨 후 보체를 첨가하여 림프구의 파괴 여부를 확인한다. 이에 앞서 사용하는 보체는 검사 전에 역가를 검증하고, 사멸한 림프구만 염색할 수 있는 염색약을 사용하여 사멸한 림프구를 표시한다.
그리고, 형광 현미경을 사용하여 사멸한 림프구의 수를 카운트하여 비율을 계산한다. 이때 음성대조 웰에 비교하여 11% 이상 림프구가 파괴되었을 경우 양성으로 판정한다.
그런데, CDC 검사는 보통 7~8일이 소용되는데, 일단 검사가 시작되면 중도에 멈출 수 없다는 문제점이 있으며, 카운트해야 할 림프구의 수가 많아 장시간 형광 현미경을 들어다 보면서 사멸된 림프구와 살아있는 림프구를 카운트하는 작업은 용이하지 않다. 또 카운트 과정에서 작업자의 교체가 용이하지 않고, 숙련된 작업자와 숙련되지 않은 작업자 사이에 편차가 크다는 문제점이 있다.
따라서, 짧은 시간에 사멸된 림프구와 살아있는 림프구를 카운트할 수 있는 방법 및 장치가 요구된다.
이 배경기술 부분에 기재된 사항은 발명의 배경에 대한 이해를 증진하기 위하여 작성된 것으로써, 이 기술이 속하는 분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술이 아닌 사항을 포함할 수 있다.
아래 실시예들은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 일 실시예는 교차 시험에 걸리는 시간을 단축시킬 수 있는 방법 및 장치를 제공하는 것을 목적으로 한다.
일 실시예는, 교차 시험 영상에서 살아있는 림프구와 사멸한 림프구를 용이하게 구별하기 위하여, 딥러닝 기반으로 교차 시험 영상을 영상 처리하는 것을 목적으로 한다.
일 실시예가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명은 영상 처리 장치에서 수행되는 딥러닝 기반의 교차 시험 영상 처리 방법에 있어서, 상기 교차 시험의 원본 영상에서 식별된 복수의 영역을 조합하여 라벨링 영상을 생성하는 전처리 단계; 상기 라벨링 영상의 Certain 영역 및 Uncertain 영역을 모델링하여 UAWM(Uncertainty-Aware Weight Map)을 생성하는 단계; 상기 원본 영상, 상기 라벨링 영상 및 상기 UAWM 중 적어도 하나를 기반으로 딥러닝 모델을 학습시키는 단계; 및 상기 원본 영상에서 Live Cell과 Dead Cell이 구분되는 분류 영상을 생성하는 단계를 포함하고, 상기 전처리 단계는, 상기 원본 영상에서 상기 Live Cell 영역인 제1 색상 영역의 제1 데이터를 생성하고, 상기 원본 영상에서 상기 Dead Cell 영역인 제2 색상 영역의 제2 데이터를 생성하며, 상기 원본 영상에서 배경 영역인 제3 색상 영역의 제3 데이터를 생성하고, 상기 학습 단계는, 상기 원본 영상, 상기 제1 데이터 및 상기 UAWM을 기반으로 상기 딥러닝 모델의 제1 네트워크를 학습시키고, 상기 원본 영상, 상기 제2 데이터 및 상기 UAWM을 기반으로 상기 딥러닝 모델의 제2 네트워크를 학습시키며, 상기 원본 영상, 상기 제3 데이터 및 상기 UAWM을 기반으로 상기 딥러닝 모델의 제3 네트워크를 학습시키고, 상기 분류 영상 생성 단계는, 상기 제1 네트워크, 상기 제2 네트워크 및 상기 제3 네트워크의 학습 결과의 값들을 기반으로 상기 분류 영상을 생성하는 것을 특징으로 한다.
이때, 상기 Certain 영역은 상기 라벨링 영상에서 상기 Live Cell 영역과 상기 Dead Cell 영역으로 구분되는 Cell 안쪽 영역이고, 상기 Uncertain 영역은 상기 라벨링 영상에서 상기 Certain 영역을 제외한 나머지 영역인 것을 특징으로 한다.
또한, 상기 UAWM 생성 단계는, 상기 Certain 영역을 모델링하여 Certain Area Weight Map을 생성하는 단계; 상기 Uncertain 영역을 모델링하여 Uncertain Area Weight Map을 생성하는 단계; 및 상기 Certain Area Weight Map 및 상기 Uncertain Area Weight Map을 이용하여 상기 UAWM을 생성하는 단계를 포함하는 것을 특징으로 한다.
이때, 상기 UAWM 생성 단계는, 상기 Certain Area Weight Map 및 상기 Uncertain Area Weight Map에 가중치를 부여하는 단계; 상기 가중치가 부여된 상기 Certain Area Weight Map 및 상기 Uncertain Area Weight Map을 합산하여, 상기 UAWM을 생성하는 단계를 포함하는 것을 특징으로 한다.
이때, 상기 Certain Area Weight Map은, Cell 간 간격이 좁을수록 더 높은 가중치를 가지는 것을 특징으로 하며, 상기 Uncertain Area Weight Map에는, 상기 Uncertain 영역에 포함되어 있는 Lysis Cell의 영향력이 모델링되어 있는 것을 특징으로 한다.
또한, 상기 분류 영상 생성 단계는, 상기 제 1 데이터, 상기 제 2 데이터 및 상기 제 3 데이터를 개별 U-Net 네트워크인 상기 제 1 네트워크, 상기 제 2 네트워크 및 상기 제 3 네트워크에 각각 입력하여 P-Net 학습을 수행하는 것을 특징으로 한다.
또한, 상기 분류 영상 생성 단계는, 상기 U-Net 네트워크의 학습 결과 값들을 결합(fusion)하여, 상기 분류 영상을 생성하는 것을 특징으로 한다.
또한, 본 발명은 컴퓨터와 결합하여, 제 1 항 내지 제 8 항 중 어느 한 항의 딥러닝 기반의 교차 시험 영상 처리 방법을 실행시키기 위하여 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.
또한, 본 발명에 따른 영상 처리 장치는, 교차 시험의 원본 영상에서 식별된 복수의 영역을 조합하여 라벨링 영상을 생성하는 전처리부; 상기 라벨링 영상의 Certain 영역 및 Uncertain 영역을 모델링하여 UAWM(Uncertainty-Aware Weight Map)을 생성하는 UAWM 생성부; 및 상기 원본 영상, 상기 라벨링 영상 및 상기 UAWM 중 적어도 하나를 기반으로 딥러닝 모델을 학습하여, 상기 원본 영상에서 Live Cell과 Dead Cell이 구분되는 분류 영상을 생성하는 학습부를 포함하고, 상기 전처리부는, 상기 원본 영상에서 상기 Live Cell 영역인 제1 색상 영역의 제1 데이터를 생성하고, 상기 원본 영상에서 상기 Dead Cell 영역인 제2 색상 영역의 제2 데이터를 생성하며, 상기 원본 영상에서 배경 영역인 제3 색상 영역의 제3 데이터를 생성하고, 상기 학습부는, 상기 원본 영상, 상기 제1 데이터 및 상기 UAWM을 기반으로 상기 딥러닝 모델의 제1 네트워크를 학습시키고, 상기 원본 영상, 상기 제2 데이터 및 상기 UAWM을 기반으로 상기 딥러닝 모델의 제2 네트워크를 학습시키고, 상기 원본 영상, 상기 제3 데이터 및 상기 UAWM을 기반으로 상기 딥러닝 모델의 제3 네트워크를 학습시키고, 상기 제1 네트워크, 상기 제2 네트워크 및 상기 제3 네트워크의 학습 결과의 값들을 기반으로 상기 분류 영상을 생성하는 것을 특징으로 한다.
이상에서 설명한 바와 같은 일 실시예들에 따르면, 딥러닝 기반의 영상 처리된 교차 시험 영상을 이용하여 살아있는 림프구와 사멸한 림프구를 용이하게 구별할 수 있다.
또한, 일 실시예에 따르면, 교차 시험에 걸리는 시간을 단축시킬 수 있다.
일 실시예의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시예에 따른 딥러닝 기반의 교차 시험 영상 처리 환경을 도시한 도면이다.
도 2는 일 실시예에 따른 영상 처리 장치의 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 교차 시험 관련 영상들을 도시한 도면이다.
도 4는 일 실시예에 따른 UAWM을 도시한 도면이다.
도 5는 일 실시예에 따른 P-Net 학습 방법을 설명하기 위한 도면이다.
도 6 및 도 7은 일 실시예에 따른 UAWM 및 P- Net을 이용한 영상 처리 방법의 성능을 도시한 도면이다.
도 8은 일 실시예에 따른 교차 시험 영상 전처리 방법의 흐름도를 도시한 도면이다.
도 9는 일 실시예에 따른 UAWM 생성 방법의 흐름도를 도시한 도면이다.
도 10은 일 실시예에 따른 P- Net 학습 방법의 흐름도를 도시한 도면이다.
도 11은 일 실시예에 따른 영상 처리 장치인 사용자 단말의 구성을 도시한 도면이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다. 아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 동작, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 동작, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 실시예에 따른 딥러닝 기반의 교차 시험 영상 처리 환경을 도시한 도면이다.
도 1을 참조하면, 일 실시예에 따른 딥러닝 기반의 교차 시험 영상 처리 환경에서 원본 영상(10)이 영상 처리 장치(100)에 입력되면, 영상 처리 장치(100)는 원본 영상(10)에 대해 딥러닝 기반의 영상 처리를 수행하여 분류 영상(20)을 출력한다.
원본 영상(10)은 교차 시험을 통해 획득한 영상(Image)으로, 공여자의 림프구와 수여자의 혈청을 반응시킨 후 살아있는 림프구(Live Cell) 또는 사멸한 림프구(Dead Cell)를 염색할 수 있는 염색약을 사용하여 획득한 영상이다.
원본 영상(10)이 영상 처리 장치(100)에 입력되면, 영상 처리 장치(100)는 입력받은 원본 영상(10)에 대해 딥러닝 기반의 영상 처리를 수행하여, 분류 영상(20)을 생성한다.
분류 영상(20)은 딥러닝 기반의 영상 처리 결과 데이터로, 살아있는 림프구(Live Cell) 또는 사멸한 림프구(Dead Cell)를 용이하게 구별할 수 있도록 생성하는 영상이다.
분류 영상(20)을 생성하기 위하여, 영상 처리 장치(100)는 원본 영상(10)을 전처리(pre-processing)하여, 원본 영상(10)이 3가지 class 영역으로 표현된 라벨링 영상을 생성한다. 영상 처리 장치(100)는 원본 영상(10)을 (i) Live Cell 영역인 제 1 class 영역, (ii) Dead Cell 영역인 제 2 class 영역, 그리고 (iii) 배경 영역인 제 3 class 영역으로 분류하여, 라벨링 영상을 생성한다.
영상 처리 장치(100)는 라벨링 영상을 이용하여, UAWM(Uncertainty-Aware Weight Map)을 생성한다. 영상 처리 장치(100)는 라벨링 영상에서 Certain 영역을 모델링하여 Certain Area Weight Map(Wca)을 생성하고, 라벨링 영상에서 Uncertain 영역을 모델링하여 Uncertain Area Weight Map(Wua)을 생성한다. 그리고, 영상 처리 장치(100)는 Certain Area Weight Map(Wca)과 Uncertain Area Weight Map(Wua)를 이용하여, UAWM(Uncertainty-Aware Weight Map)을 생성한다.
영상 처리 장치(100)는 원본 영상(10), 라벨링 영상 및 UAWM 중 적어도 하나를 P-Net 학습 통해 분류 영상(20)을 생성한다.
즉, 영상 처리 장치(100)는 원본 영상(10)의 모델링 데이터인 UAWM 및 P-Net 학습 방법을 이용하여, 분류 영상(20)을 생성하는 것이다.
영상 처리 장치(100)의 구체적인 구성 및 기능에 대해서는, 도면 2 이하에서 자세히 설명하도록 한다.
영상 처리 장치(100)는 예를 들어, 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA(Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), PMP(portable multimedia player) 같은 전자 장치 중 하나로서, 영상 처리 장치(100)와 관련된 교차 시험 영상 처리 어플리케이션의 설치 및 실행이 가능한 모든 전자 장치를 포함할 수 있다. 전자 장치는 교차 시험 영상 처리 어플리케이션의 제어 하에 예를 들어, 서비스 화면의 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등과 같은 교차 시험 영상 처리 서비스 전반의 동작을 수행할 수 있다.
도 2는 일 실시예에 따른 영상 처리 장치(100)의 구성을 도시한 도면이다.
도 2를 참조하면, 일 실시예에 영상 처리 장치(100)는 제어부(110), 전처리부(120), UAWM 생성부(130), P-Net 학습부(140), 사용자 인터페이스부(150), 데이터베이스부(160) 및 통신부(170)를 포함한다.
영상 처리 장치(100) 내에 포함된 다양한 개체들(entities) 간의 통신은 유/무선 네트워크(미도시)를 통해 수행될 수 있다. 유/무선 네트워크는 표준 통신 기술 및/또는 프로토콜들이 사용될 수 있다.
영상 처리 장치(100)의 하드웨어 구성은 다양하게 구현될 수 있다. 전처리부(120)와 UAWM 생성부(130)를 통합하거나, UAWM 생성부(130)와 P-Net 학습부(140)를 통합하여 하드웨어를 구성할 수 있다. 이와 같이, 영상 처리 장치(100)의 하드웨어 구성은 본 명세서의 기재에 한정되지 아니하며, 다양한 방법과 조합으로 구현될 수 있다.
제어부(110)는 영상 처리 장치(100)의 다양한 기능을 수행하도록 전처리부(120), UAWM 생성부(130), P-Net 학습부(140), 사용자 인터페이스부(150), 데이터베이스부(160) 및 통신부(170)를 제어한다.
그리고, 제어부(110)는 프로세서(Processor), 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 호칭될 수 있으며, 제어부는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어 또는 이들의 결합에 의해 구현될 수 있다.
전처리부(120)는 원본 영상(10)을 전처리(pre-processing)하여, 원본 영상(10)이 3가지 class 영역으로 표현된 라벨링 영상을 생성한다. 즉, 전처리부(120)는 원본 영상(10)을 3가지 class 영역으로 분류하여, 라벨링 영상을 생성한다.
우선, 전처리부(120)는 원본 영상(10)에서 제 1 class 영역을 식별한다. 제 1 class 영역은 Live Cell 영역으로, 도 1에 도시된 원본 영상(10)에서 초록색 영역에 해당될 수 있다.
그리고, 전처리부(120)는 원본 영상(10)에서 제 2 class 영역을 식별한다. 제 2 class 영역은 Dead Cell 영역으로, 도 1에 도시된 원본 영상(10)에서 주황색 영역에 해당될 수 있다.
그리고, 전처리부(120)는 원본 영상(10)에서 제 3 class 영역을 식별한다. 제 3 class 영역은 배경 영역으로, 원본 영상(10)에서 제 1 class 영역과 제 2 class 영역이외의 영역이 배경 영역에 해당될 수 있다.
그리고, 전처리부(120)는 식별된 3가지 class 영역을 조합하여, 라벨링 영상을 생성한다. 전술한 바와 같이, 라벨링 영상은 원본 영상(10)이 3가지 class 영역으로 표현된 영상이다.
도 3은 일 실시예에 따른 교차 시험 관련 영상들을 도시한 도면이다.
도 3을 참조하면, 도 (a)는 원본 영상(100)을 도시한 도면으로 원본 영상(100)의 초록색 영역은 Live Cell 영역이고, 뚜렷한 주황색 영역이 Dead Cell 영역이며, 뭉개져서 흐릿한 주황색 영역이 Lysis Cell 영역에 해당한다.
그리고, 도 (b)는 전처리부(120)부에서 원본 영상(100)을 전처리하여 생성한 라벨링 영상으로, 라벨링 영상은 (i) Live Cell 영역인 제 1 class 영역, (ii) Dead Cell 영역인 제 2 class 영역, 그리고 (iii) 배경 영역인 제 3 class 영역으로 구성된다.
원본 영상(100)과 라벨링 영상을 비교해서 보면, 원본 영상(100)의 Lysis Cell 영역이 라벨링 영상에서는 배경 영역인 제 3 class 영역으로 구성된다.
다만, 원본 영상(100)에는 식별해야할 class 영역들이 다수이며, class 영역들이 겹쳐져 있는 경우들도 다수 존재하므로, 전처리부(120)부는 정확한 class 영역 식별을 위해, Multi-task Process를 수행할 수 있다.
UAWM 생성부(130)는 라벨링 영상을 이용하여, UAWM(Uncertainty-Aware Weight Map)을 생성한다.
우선, UAWM 생성부(130)는 라벨링 영상을 이용하여, Certain Area Weight Map(Wca)과 Uncertain Area Weight Map(Wua)을 생성한다.
여기서, Certain 영역은 라벨링 영상에서 Live Cell 영역과 Dead Cell 영역으로 확실히 구분되는 Cell 안쪽 영역이고, Uncertain 영역은 라벨링 영상에서 Certain 영역을 제외한 나머지 모든 영역이다.
그리고, Certain Area Weight Map(Wca)은 Certain 영역의 Weight Map으로, Cell 간 간격이 좁을수록 더 높은 Weight를 가진다. Uncertain Area Weight Map(Wua)은 Uncertain 영역의 Weight Map이며, Uncertain Area Weight Map(Wua)에는 Uncertain 영역에 포함되어 있는 Lysis Cell의 영향력이 모델링된다.
UAWM 생성부(130)는 라벨링 영상에서 Certain 영역을 모델링하여 Certain Area Weight Map(Wca)을 생성하고, 라벨링 영상에서 Uncertain 영역을 모델링하여 Uncertain Area Weight Map(Wua)을 생성하는 것이다.
그리고, UAWM 생성부(130)는 Certain Area Weight Map(Wca)과 Uncertain Area Weight Map(Wua)를 이용하여, UAWM(Uncertainty-Aware Weight Map)을 생성한다.
구체적으로, UAWM 생성부(130)는 Certain Area Weight Map(Wca)과 Uncertain Area Weight Map(Wua)에 각각 가중치를 부여한 후, 가중치가 부여된 Certain Area Weight Map(Wca)과 Uncertain Area Weight Map(Wua)을 합산하여, UAWM을 생성한다.
여기서, Certain Area Weight Map(Wca)과 Uncertain Area Weight Map(Wua)을 이용한 UAWM 생성의 수학식은 아래와 같이 표현될 수 있다.
Figure pat00001
도 4는 일 실시예에 따른 UAWM을 도시한 도면이다. 도 (a)는 Certain Area Weight Map(Wca)을 도시한 도면이고, 도 (b)는 Uncertain Area Weight Map(Wua)을 도시한 도면이다. 그리고, 도 (c)는 UAWM을 도시한 도면으로, 가중치가 부여된 Certain Area Weight Map(Wca)과 Uncertain Area Weight Map(Wua)을 합산하여 생성된 UAWM을 도시하고 있는 것이다.
P-Net 학습부(140)는 원본 영상(10), 라벨링 영상 및 UAWM 중 적어도 하나를 P-Net 학습 통해 분류 영상(20)을 생성한다.
도 5는 일 실시예에 따른 P-Net 학습 방법을 설명하기 위한 도면으로, 도 5을 참조하여, P-Net 학습부(140)가 P-Net 학습 통해 분류 영상(20)을 생성하는 방법에 대해 설명하도록 한다.
P-Net 학습이란 입력 데이터 내에 포함된 복수의 대상체를 각각 구분(segmentation)하기 위한 딥러닝 기반의 학습 방법으로, P-Net에는 복수의 대상체들 각각을 딥러닝 학습하기 위한 개별 U-Net 네트워크가 병렬적으로 구성되어 있다.
P-Net 학습에서 복수의 대상체들 각각이 복수의 개별 U-Net 네트워크에 입력되며, 복수의 U-Net 학습을 통해 생성된 복수의 결과물들이 결합되어 최종 학습 데이터가 산출된다. 즉, P-Net은 입력 데이터에서 분리할 class의 개수에 따라 P-Net에 포함되는 U-Net 네트위크의 개수가 달라지게 된다.
P-Net은 입력 데이터 내 복수의 class들을 각각 U-Net 네트워크에 입력함으로써, 복수의 U-Net 학습을 통해 복수의 class들을 분리하는 것이다. 이러한 P-Net 학습은 One-Versus-All(OVA) 방식이라고 하며, P-Net 학습의 OVA 방식은 복수의 class들을 한번에 학습하는 것보다 정확도면에서 우수하다.
일 실시예에 따르면, 입력 데이터인 원본 영상(10)은 3가지 class들(Live Cell 영역, Dead Cell 영역, 배경 영역)을 가진 데이터로, P-Net 은 3가지 class들을 한 번에 학습하는 대신, 3가지 class들을 각각 U-Net 네트워크에 입력하여 3번 학습한 뒤, 그 결과를 취합한다.
즉, Live Cell 영역과 Live Cell 영역이 아닌 것은 U-Net for Class 1 네트워크에서 학습하며, Dead Cell 영역과 Dead Cell 영역이 아닌 것은 U-Net for Class 2 네트워크에서 학습하며, 배경 영역과 배경이 아닌 영역(Live Cell + Dead Cell)은 U-Net for Class 3 네트워크에서 학습한다.
그리고, P-Net은 U-Net for Class 1의 학습 결과 데이터(^y1), U-Net for Class 2의 학습 결과 데이터(^y2) 및 U-Net for Class 3의 학습 결과 데이터(^y3) 중 적어도 하나를 결합(fusion)하여, P-Net 학습 결과 데이터(^y)인 분류 영상(20)을 생성한다.
이를 단계별로 설명하면, 우선 P-NET 학습부(140)는 제 1 class 데이터를 U-Net 네트워크에 입력하여, U-Net 학습 결과 데이터인 제 1 class 분류 데이터를 생성한다. 제 1 class 데이터는 원본 영상(10), 제 1 class 영역이 식별된 라벨링 영상 및 UAWM 중 적어도 하나를 포함한다.
그리고, P-Net 학습부(140)는 제 2 class 데이터를 U-Net 네트워크에 입력하여, U-Net 학습 결과 데이터인 제 2 class 분류 데이터를 생성한다. 제 2 class 데이터는 원본 영상(10), 제 2 class 영역이 식별된 라벨링 영상 및 UAWM 중 적어도 하나를 포함한다.
그리고, P-Net 학습부(140)는 제 3 class 데이터를 U-Net 네트워크에 입력하여, U-Net 학습 결과 데이터인 제 3 class 분류 데이터를 생성한다. 제 3 class 데이터는 원본 영상(10), 제 3 class 영역이 식별된 라벨링 영상 및 UAWM 중 적어도 하나를 포함한다.
그리고, P-Net 학습부(140)는 제 1 class 분류 데이터, 제 2 class 분류 데이터 및 제 3 class 분류 데이터 중 적어도 하나를 결합(fusion)하여, P-Net 학습 결과 데이터인 분류 영상(20)을 생성한다.
P-Net 학습부(140)는 각 class 영역 별로 U-Net 학습을 독립적으로 진행한 후(multiple classifiers), U-Net 학습 결과 데이터를 하나의 결론으로 결합(fusion)하는 것이다. P-Net 학습부(140)는 제 1 class 분류 데이터, 제 2 class 분류 데이터 및 제 3 class 분류 데이터 중 적어도 하나를 결합(fusion)하기 위하여, argmax를 이용할 수 있다.
사용자 인터페이스부(150)는 사용자에게 데이터를 입력할 수 있는 인터페이스를 제공한다. 사용자는 사용자 인터페이스부(150)를 통해 원본 데이터(10)를 입력할 수 있다.
데이터베이스부(160)는 영상 처리 장치(100)가 딥러닝 기반의 교차 시험 영상을 처리하는데 필요한 다양한 데이터를 저장한다. 일례로, 데이터베이스부(160)는 원본 영상(10), 라벨링 영상, UAWM, 분류 영상(20) 등을 저장할 수 있다.
통신부(170)는 외부 장치들과와 데이터 통신한다. 통신부(170)는 원본 영상(10), 라벨링 영상, UAWM, 분류 영상(20) 등을 외부 장치들에 전송할 수 있다.
도 6 및 도 7은 일 실시예에 따른 UAWM 및 P-Net을 이용한 영상 처리 방법의 성능을 도시한 도면이다.
도 6은 기존 방식들(U-Net 및 UWM(U-Net/UWM), U-Net 및 DWM(U-Net/DWM)) 또는 일 실시예의 UAWM 및 P-Net(UAWM/P-Net)을 이용하여 생성된 분류 영상(20)의 정확도를 측정한 데이터로, 도 (a)는 HeLa-U373, 도 (b)는 HLA-U, 도 (c)는 HLA-C에 대한 데이터이다.
도 (a)에서 보다시피, 일 실시예의 UAWM/P-Net은 기존 방식인 U-Net/UWM에 비해, 정확도 측면에서 평균 33% 높은 성능를 보이고 있다. 참고로, 도면에 도시되어 있지 않지만, 일 실시예의 UAWM는 기존의 UWM(U-Net weight map)에 비해 약 19%의 성능 향상으로 보이며, 일 실시예의 P-Net 학습 방법은 기존의 U-Net의 학습 방법에 비해 약 25%의 성능 향상을 보인다.
도 7은 기존 방식들(U-Net/UWM, U-Net/DWM) 또는 일 실시예의 UAWM/P-Net을 이용하여 생성된 분류 영상(20)들을 도시하고 있다.
도 7에서 보다시피, 일 실시예의 UAWM/P-Net의 분류 영상(20)은 기존 방식들(U-Net/UWM, U-Net/DWM)의 분류 영상(20)에 비해, 살아있는 림프구(Live Cell)들과 사멸한 림프구(Dead Cell)들이 명확하게 구별되어 표시되어 있음을 확인할 수 있다.
도 8은 일 실시예에 따른 교차 시험 영상 전처리 방법의 흐름도를 도시한 도면이다.
도 8을 참조하면, 일 실시예에 따른 교차 시험 영상 전처리 방법은 제 1 class 영역 식별 단계(S100), 제 2 class 영역 식별 단계(S110), 제 3 class 영역 식별 단계(S120) 및 라벨링 영상 생성 단계(S130)를 포함한다.
우선, 제 1 class 영역 식별 단계(S100)로, 전처리부(120)는 원본 영상(10)에서 제 1 class 영역을 식별한다. 제 1 class 영역은 Live Cell 영역으로, 도 1에 도시된 원본 영상(10)에서 초록색 영역에 해당될 수 있다.
그리고, 제 2 class 영역 식별 단계(S110)로, 전처리부(120)는 원본 영상(10)에서 제 2 class 영역을 식별한다. 제 2 class 영역은 Dead Cell 영역으로, 도 1에 도시된 원본 영상(10)에서 주황색 영역에 해당될 수 있다.
그리고, 제 3 class 영역 식별 단계(S120)로, 전처리부(120)는 원본 영상(10)에서 제 3 class 영역을 식별한다. 제 3 class 영역은 배경 영역으로, 원본 영상(10)에서 제 1 class 영역과 제 2 class 영역이외의 영역이 배경 영역에 해당될 수 있다.
그리고, 라벨링 영상 생성 단계(S130)로, 전처리부(120)는 식별된 3가지 class 영역을 조합하여, 라벨링 영상을 생성한다. 전술한 바와 같이, 라벨링 영상은 원본 영상(10)이 3가지 class 영역으로 표현된 영상이다.
도 9는 일 실시예에 따른 UAWM 생성 방법의 흐름도를 도시한 도면이다.
도 9를 참조하면, 일 실시예에 따른 UAWM 생성 방법은 Certain Area Weight Map(Wca) 생성 단계(S200), Uncertain Area Weight Map(Wua) 생성 단계(S210) 및 UAWM 생성 단계(S220)를 포함한다.
우선, Certain Area Weight Map(Wca) 생성 단계(S200)로, UAWM 생성부(130)는 라벨링 영상을 이용하여, Certain Area Weight Map(Wca)을 생성한다.
전술한 바와 같이, Certain 영역은 라벨링 영상에서 Live Cell 영역과 Dead Cell 영역으로 확실히 구분되는 Cell 안쪽 영역이고, Certain Area Weight Map(Wca)은 Certain Area의 Weight Map으로, Cell 간 간격이 좁을수록 더 높은 Weight를 가진다.
UAWM 생성부(130)는 라벨링 영상에서 Certain 영역을 모델링하여 Certain Area Weight Map(Wca)을 생성한다.
그리고, Uncertain Area Weight Map(Wua) 생성 단계(S210)로, UAWM 생성부(130)는 라벨링 영상을 이용하여, Uncertain Area Weight Map(Wua)을 생성한다.
전술한 바와 같이, Uncertain 영역은 라벨링 영상에서 Certain 영역을 제외한 나머지 모든 영역이고, Uncertain Area Weight Map(Wua)은 Uncertain Area의 Weight Map이며, Uncertain Area Weight Map(Wua)에는 Uncertain 영역에 포함되어 있는 Lysis Cell의 영향력이 모델링된다.
UAWM 생성부(130)는 라벨링 영상에서 Uncertain 영역을 모델링하여 Uncertain Area Weight Map(Wua)을 생성한다.
그리고, UAWM 생성 단계(S220)로, UAWM 생성부(130)는 Certain Area Weight Map(Wca)과 Uncertain Area Weight Map(Wua)를 이용하여, UAWM(Uncertainty-Aware Weight Map)을 생성한다.
구체적으로, UAWM 생성부(130)는 Certain Area Weight Map(Wca)과 Uncertain Area Weight Map(Wua)에 각각 가중치를 부여한 후, 가중치가 부여된 Certain Area Weight Map(Wca)과 Uncertain Area Weight Map(Wua)을 합산하여, UAWM을 생성한다.
여기서, Certain Area Weight Map(Wca)과 Uncertain Area Weight Map(Wua)을 이용한 UAWM 생성의 수학식은 아래와 같이 표현될 수 있다.
Figure pat00002
도 10은 일 실시예에 따른 P-Net 학습 방법의 흐름도를 도시한 도면이다.
도 10을 참조하면, 일 실시예에 따른 P-Net 학습 방법은 제 1 class 데이터 U-Net 네트워크 입력 단계(S300), 제 2 class 데이터 U-Net 네트워크 입력 단계(S310), 제 3 class 데이터 U-Net 네트워크 입력 단계(S320) 및 분류 영상 생성 단계(S330)를 포함한다.
우선, 제 1 class 데이터 U-Net 네트워크 입력 단계(S300)로, P-Net 학습부(140)는 제 1 class 데이터를 U-Net 네트워크에 입력하여, U-Net 학습 결과 데이터인 제 1 class 분류 데이터를 생성한다. 제 1 class 데이터는 원본 영상(10), 제 1 class 영역이 식별된 라벨링 영상 및 UAWM 중 적어도 하나를 포함한다.
그리고, 제 2 class 데이터 U-Net 네트워크 입력 단계(S310)로, P-Net 학습부(140)는 제 2 class 데이터를 U-Net 네트워크에 입력하여, U-Net 학습 결과 데이터인 제 2 class 분류 데이터를 생성한다. 제 2 class 데이터는 원본 영상(10), 제 2 class 영역이 식별된 라벨링 영상 및 UAWM 중 적어도 하나를 포함한다.
그리고, 제 3 class 데이터 U-Net 네트워크 입력 단계(S320)로, P-Net 학습부(140)는 제 3 class 데이터를 U-Net 네트워크에 입력하여, U-Net 학습 결과 데이터인 제 3 class 분류 데이터를 생성한다. 제 3 class 데이터는 원본 영상(10), 제 3 class 영역이 식별된 라벨링 영상 및 UAWM 중 적어도 하나를 포함한다.
그리고, 분류 영상 생성 단계(S330)로, P-Net 학습부(140)는 제 1 class 분류 데이터, 제 2 class 분류 데이터 및 제 3 class 분류 데이터 중 적어도 하나를 결합(fusion)하여, P-Net 학습 결과 데이터인 분류 영상(20)을 생성한다.
상술한 일 실시예의 딥러닝 기반의 교차 시험 영상 처리 방법은 교차 시험(HLA Cross-Matching Test) 뿐만 아니라, Digital Staining, Karyotyping 등에 적용 가능하다 하겠다.
도 11은 일 실시예에 따른 영상 처리 장치(100)인 사용자 단말(200)의 구성을 도시한 도면이다. 이하, 도 11에 도시된 사용자 단말(200)를 구성하는 구성요소들에 대해 차례로 살펴본다.
무선 통신부(210)는 사용자 단말(200)와 무선 통신 시스템 사이의 무선 통신 또는 사용자 단말(200)와 사용자 단말(200)가 위치한 네트워크 사이의 무선 통신을 수행하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 무선 통신부(210)는 방송 수신 모듈(211), 이동통신 모듈(212), 무선 인터넷 모듈(213), 근거리 통신 모듈(214) 및 위치정보 모듈(215) 등을 포함할 수 있다.
방송 수신 모듈(211)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 여기에서, 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 한편, 방송 관련 정보는 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 이동통신 모듈(212)에 의해 수신될 수 있다.
또한, 이동통신 모듈(212)은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(213)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 사용자 단말(200)에 내장되거나 외장 될 수 있다.
근거리 통신 모듈(214)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
또한, 위치정보 모듈(215)은 사용자 단말(200)의 위치를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈을 들 수 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기에서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다.
한편, A/V(Audio/Video) 입력부(220)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(221)와 마이크(222) 등이 포함될 수 있다. 카메라(221)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(251)에 표시될 수 있다.
카메라(221)에서 처리된 화상 프레임은 메모리(260)에 저장되거나 무선 통신부(210)를 통하여 외부로 전송될 수 있다. 카메라(221)는 사용자 단말(200)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크(222)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(212)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(222)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 구현할 수 있다.
사용자 입력부(230)는 사용자로부터 입력 동작을 받아들여, 사용자 단말(200)의 동작 제어를 위한 입력 데이터를 발생시킨다.
센싱부(240)는 사용자 단말(200)의 위치, 사용자 접촉 유무, 사용자 단말(200)의 방위, 사용자 단말(200)의 가속/감속 등과 같이, 사용자 단말(200)의 현 상태를 감지하여 사용자 단말(200)의 동작을 제어하기 위한 센싱 신호를 발생시킨다.
인터페이스부(270)는 사용자 단말(200)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 포함될 수 있다.
출력부(250)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로, 이에는 디스플레이부(251)와 음향 출력 모듈(252), 알람부(253) 등이 포함될 수 있다.
디스플레이부(251)는 사용자 단말(200)에서 처리되는 정보를 표시 출력한다. 예를 들어, 단말기가 통화 모드인 경우, 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고, 사용자 단말(200)가 화상 통화 모드 또는 촬영 모드인 경우, 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
한편, 전술한 바와 같이, 디스플레이부(251)와 터치 패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(251)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(251)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고, 사용자 단말(200)의 구현 형태에 따라, 디스플레이부(251)는 2개 이상 존재할 수도 있다. 예를 들어, 사용자 단말(200)에 외부 디스플레이부(미도시)와 내부 디스플레이부(미도시)가 동시에 구비될 수 있다.
음향 출력 모듈(252)은 호 신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서, 무선 통신부(210)로부터 수신되거나 메모리(260)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(252)은 사용자 단말(200)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(252)에는 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
알람부(253)는 사용자 단말(200)의 이벤트 발생을 알리기 위한 신호를 출력한다. 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다.
메모리(260)는 제어부(280)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.
메모리(260)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
그리고 제어부(280)는 통상적으로 단말기의 전반적인 동작을 제어한다. 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(280)는 멀티 미디어 재생을 위한 멀티미디어 모듈(281)을 구비할 수도 있다. 멀티미디어 모듈(281)은 제어부(280) 내에 구현될 수도 있고, 제어부(280)와 별도로 구현될 수도 있다.
전원 공급부(290)는 제어부(280)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
영상 처리부(300)는 제어부(280)의 제어에 의해 전술한 영상 처리 장치(100)의 기능들을 수행한다.
영상 처리부(300)는 입력받은 원본 영상(10)에 대해 딥러닝 기반의 영상 처리를 수행하여, 분류 영상(20)을 생성하는 것으로, 영상 처리부(300)는 원본 영상(10), 라벨링 영상 및 UAWM 중 적어도 하나를 P-Net 학습 통해 분류 영상(20)을 생성한다. 즉, 영상 처리부(300)는 원본 영상(10)의 모델링 데이터인 UAWM 및 P-Net 학습 방법을 이용하여, 분류 영상(20)을 생성한다.
여기에 설명되는 다양한 실시예는 예를 들어 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여, 컴퓨터로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시 예들이 제어부(280)에 의해 구현될 수 있다.
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시 예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리(260)에 저장되고, 제어부(280)에 의해 실행될 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, 중앙 처리 장치(Central Processing Unit; CPU), 그래픽 프로세싱 유닛(Graphics Processing Unit; GPU), ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 주문형 집적 회로(Application Specific Integrated Circuits; ASICS), 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 비록 한정된 도면에 의해 실시예들이 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (10)

  1. 영상 처리 장치에서 수행되는 딥러닝 기반의 교차 시험 영상 처리 방법에 있어서,
    상기 교차 시험의 원본 영상에서 식별된 복수의 영역을 조합하여 라벨링 영상을 생성하는 전처리 단계;
    상기 라벨링 영상의 Certain 영역 및 Uncertain 영역을 모델링하여 UAWM(Uncertainty-Aware Weight Map)을 생성하는 단계;
    상기 원본 영상, 상기 라벨링 영상 및 상기 UAWM 중 적어도 하나를 기반으로 딥러닝 모델을 학습시키는 단계; 및
    상기 원본 영상에서 Live Cell과 Dead Cell이 구분되는 분류 영상을 생성하는 단계를 포함하고,
    상기 전처리 단계는,
    상기 원본 영상에서 상기 Live Cell 영역인 제1 색상 영역의 제1 데이터를 생성하고, 상기 원본 영상에서 상기 Dead Cell 영역인 제2 색상 영역의 제2 데이터를 생성하며, 상기 원본 영상에서 배경 영역인 제3 색상 영역의 제3 데이터를 생성하고,
    상기 학습 단계는,
    상기 원본 영상, 상기 제1 데이터 및 상기 UAWM을 기반으로 상기 딥러닝 모델의 제1 네트워크를 학습시키고, 상기 원본 영상, 상기 제2 데이터 및 상기 UAWM을 기반으로 상기 딥러닝 모델의 제2 네트워크를 학습시키며, 상기 원본 영상, 상기 제3 데이터 및 상기 UAWM을 기반으로 상기 딥러닝 모델의 제3 네트워크를 학습시키고,
    상기 분류 영상 생성 단계는,
    상기 제1 네트워크, 상기 제2 네트워크 및 상기 제3 네트워크의 학습 결과의 값들을 기반으로 상기 분류 영상을 생성하는 것을 특징으로 하는, 영상 처리 방법.
  2. 제 1 항에 있어서,
    상기 Certain 영역은 상기 라벨링 영상에서 상기 Live Cell 영역과 상기 Dead Cell 영역으로 구분되는 Cell 안쪽 영역이고,
    상기 Uncertain 영역은 상기 라벨링 영상에서 상기 Certain 영역을 제외한 나머지 영역인 것을 특징으로 하는, 영상 처리 방법.
  3. 제 1 항에 있어서,
    상기 UAWM 생성 단계는,
    상기 Certain 영역을 모델링하여 Certain Area Weight Map을 생성하는 단계;
    상기 Uncertain 영역을 모델링하여 Uncertain Area Weight Map을 생성하는 단계; 및
    상기 Certain Area Weight Map 및 상기 Uncertain Area Weight Map을 이용하여 상기 UAWM을 생성하는 단계를 포함하는 것을 특징으로 하는, 영상 처리 방법.
  4. 제 3 항에 있어서,
    상기 UAWM 생성 단계는,
    상기 Certain Area Weight Map 및 상기 Uncertain Area Weight Map에 가중치를 부여하는 단계;
    상기 가중치가 부여된 상기 Certain Area Weight Map 및 상기 Uncertain Area Weight Map을 합산하여, 상기 UAWM을 생성하는 단계를 포함하는 것을 특징으로 하는, 영상 처리 방법.
  5. 제 3 항에 있어서,
    상기 Certain Area Weight Map은, Cell 간 간격이 좁을수록 더 높은 가중치를 가지는 것을 특징으로 하는, 영상 처리 방법.
  6. 제 3 항에 있어서,
    상기 Uncertain Area Weight Map에는, 상기 Uncertain 영역에 포함되어 있는 Lysis Cell의 영향력이 모델링되어 있는 것을 특징으로 하는, 영상 처리 방법.
  7. 제 1 항에 있어서,
    상기 분류 영상 생성 단계는,
    상기 제 1 데이터, 상기 제 2 데이터 및 상기 제 3 데이터를 개별 U-Net 네트워크인 상기 제 1 네트워크, 상기 제 2 네트워크 및 상기 제 3 네트워크에 각각 입력하여 P-Net 학습을 수행하는 것을 특징으로 하는, 영상 처리 방법.
  8. 제 7 항에 있어서,
    상기 분류 영상 생성 단계는,
    상기 U-Net 네트워크의 학습 결과 값들을 결합(fusion)하여, 상기 분류 영상을 생성하는 것을 특징으로 하는, 영상 처리 방법.
  9. 컴퓨터와 결합하여, 제 1 항 내지 제 8 항 중 어느 한 항의 딥러닝 기반의 교차 시험 영상 처리 방법을 실행시키기 위하여 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램.
  10. 교차 시험의 원본 영상에서 식별된 복수의 영역을 조합하여 라벨링 영상을 생성하는 전처리부;
    상기 라벨링 영상의 Certain 영역 및 Uncertain 영역을 모델링하여 UAWM(Uncertainty-Aware Weight Map)을 생성하는 UAWM 생성부; 및
    상기 원본 영상, 상기 라벨링 영상 및 상기 UAWM 중 적어도 하나를 기반으로 딥러닝 모델을 학습하여, 상기 원본 영상에서 Live Cell과 Dead Cell이 구분되는 분류 영상을 생성하는 학습부를 포함하고,
    상기 전처리부는,
    상기 원본 영상에서 상기 Live Cell 영역인 제1 색상 영역의 제1 데이터를 생성하고, 상기 원본 영상에서 상기 Dead Cell 영역인 제2 색상 영역의 제2 데이터를 생성하며, 상기 원본 영상에서 배경 영역인 제3 색상 영역의 제3 데이터를 생성하고,
    상기 학습부는,
    상기 원본 영상, 상기 제1 데이터 및 상기 UAWM을 기반으로 상기 딥러닝 모델의 제1 네트워크를 학습시키고, 상기 원본 영상, 상기 제2 데이터 및 상기 UAWM을 기반으로 상기 딥러닝 모델의 제2 네트워크를 학습시키고, 상기 원본 영상, 상기 제3 데이터 및 상기 UAWM을 기반으로 상기 딥러닝 모델의 제3 네트워크를 학습시키고, 상기 제1 네트워크, 상기 제2 네트워크 및 상기 제3 네트워크의 학습 결과의 값들을 기반으로 상기 분류 영상을 생성하는 것을 특징으로 하는, 영상 처리 장치.
KR1020210115181A 2019-06-30 2021-08-31 딥러닝 기반의 교차 시험 영상 처리 방법 및 그 장치 KR102396190B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190078429 2019-06-30
KR20190078429 2019-06-30
KR1020200005830A KR102298185B1 (ko) 2019-06-30 2020-01-16 딥러닝 기반의 교차 시험 영상 처리 방법 및 그 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200005830A Division KR102298185B1 (ko) 2019-06-30 2020-01-16 딥러닝 기반의 교차 시험 영상 처리 방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20210111725A true KR20210111725A (ko) 2021-09-13
KR102396190B1 KR102396190B1 (ko) 2022-05-11

Family

ID=74100903

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210115181A KR102396190B1 (ko) 2019-06-30 2021-08-31 딥러닝 기반의 교차 시험 영상 처리 방법 및 그 장치

Country Status (3)

Country Link
US (1) US11704920B2 (ko)
KR (1) KR102396190B1 (ko)
WO (1) WO2021002650A1 (ko)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200508609A (en) * 2003-07-15 2005-03-01 Bioarray Solutions Ltd Detection of cell membrane-associated proteins using membrane fragments displayed on encoded microparticle arrays
US7323318B2 (en) * 2004-07-15 2008-01-29 Cytokinetics, Inc. Assay for distinguishing live and dead cells
US8116551B2 (en) * 2007-12-04 2012-02-14 University College, Dublin, National University of Ireland Method and system for image analysis
US20170082619A1 (en) * 2015-09-23 2017-03-23 One Lambda, Inc. Methods of Detecting Alloantibodies Using HLA and Non-HLA Antigens
GB201709672D0 (en) * 2017-06-16 2017-08-02 Ucl Business Plc A system and computer-implemented method for segmenting an image
CA3213179A1 (en) * 2017-08-09 2019-02-14 Allen Institute Systems, devices, and methods for image processing to generate an image having predictive tagging

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Anindya Gupta et al, Journal of Quantitative Cell Science (2018.12.19. published online), vol 95A, pp366-380. *
Heather D Couture et al, npj Breast Cancer (2018), vol 40:30, pp 1-8. *
Philipp Eulenberg et al, Nature Communcations (2017), vol 8:463, pp 1-6. *
Yohei Hayashi et al, Communications Biology (2018), vol 1:218, pp 1-9. *

Also Published As

Publication number Publication date
US11704920B2 (en) 2023-07-18
WO2021002650A1 (ko) 2021-01-07
KR102396190B1 (ko) 2022-05-11
US20220084317A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
RU2008150475A (ru) Идентификация людей с помощью нескольких типов ввода
CN110033783A (zh) 声学环境中的声学信号的基于上下文的消除和放大
CN107194251A (zh) Android平台恶意应用检测方法及装置
CN109996026A (zh) 基于穿戴式设备的视频特效互动方法、装置、设备及介质
WO2020017243A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN111523599B (zh) 目标检测方法及装置、电子设备和存储介质
CN110298850A (zh) 眼底图像的分割方法和装置
KR20210148134A (ko) 대상 카운트 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN111931628A (zh) 人脸识别模型的训练方法、装置及相关设备
CN111950255B (zh) 诗词生成方法、装置、设备及存储介质
CN111027617A (zh) 神经网络训练及图像识别方法、装置、设备和存储介质
KR102396190B1 (ko) 딥러닝 기반의 교차 시험 영상 처리 방법 및 그 장치
KR102298185B1 (ko) 딥러닝 기반의 교차 시험 영상 처리 방법 및 그 장치
CN113486957A (zh) 神经网络训练和图像处理方法及装置
CN110348367B (zh) 视频分类方法、视频处理方法、装置、移动终端及介质
CN111046780A (zh) 神经网络训练及图像识别方法、装置、设备和存储介质
CN115063601A (zh) 基于图像和音频双模态鸟类识别方法、装置、设备及介质
KR102131353B1 (ko) 머신 러닝의 예측 데이터 피드백 적용 방법 및 그 시스템
KR102175143B1 (ko) 머신 러닝 기반의 대응 지시서 작성 방법 및 그 시스템
CN115131291A (zh) 对象计数模型的训练方法、装置、设备以及存储介质
CN113641799A (zh) 文本处理方法、装置、计算机设备及存储介质
CN108536343B (zh) 控件展示方法、装置、终端及存储介质
CN114764480A (zh) 群组类型识别方法、装置、计算机设备及介质
CN116049347B (zh) 一种基于词融合的序列标注方法及相关设备
US20230154059A1 (en) Augmented Reality Based Geolocalization of Images

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant