KR102084682B1 - 인공신경망을 이용한 특수 현미경 영상 생성 방법 및 영상 처리 장치 - Google Patents

인공신경망을 이용한 특수 현미경 영상 생성 방법 및 영상 처리 장치 Download PDF

Info

Publication number
KR102084682B1
KR102084682B1 KR1020190001740A KR20190001740A KR102084682B1 KR 102084682 B1 KR102084682 B1 KR 102084682B1 KR 1020190001740 A KR1020190001740 A KR 1020190001740A KR 20190001740 A KR20190001740 A KR 20190001740A KR 102084682 B1 KR102084682 B1 KR 102084682B1
Authority
KR
South Korea
Prior art keywords
microscope image
image
network
special
learning
Prior art date
Application number
KR1020190001740A
Other languages
English (en)
Inventor
조윤경
김동영
민유홍
Original Assignee
기초과학연구원
울산과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 기초과학연구원, 울산과학기술원 filed Critical 기초과학연구원
Priority to KR1020190001740A priority Critical patent/KR102084682B1/ko
Priority to PCT/KR2020/000225 priority patent/WO2020145605A1/ko
Application granted granted Critical
Publication of KR102084682B1 publication Critical patent/KR102084682B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

인공신경망을 이용한 특수 현미경 영상 생성 방법은 영상 처리 장치가 투과 현미경 영상을 입력받는 단계 및 상기 영상 처리 장치가 사전에 학습된 지도학습 네트워크에 상기 투과 현미경 영상을 입력하여 상기 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 단계를 포함한다. 상기 지도학습 네트워크는 별도의 투과 현미경 영상 및 학습용 영상을 이용하여 학습되고, 상기 학습용 영상은 비지도학습 네트워크를 통해 별도의 특수 현미경 영상으로부터 생성된다.

Description

인공신경망을 이용한 특수 현미경 영상 생성 방법 및 영상 처리 장치{GENERATING METHOD FOR SPECIALIZED MICROSCOPE IMAGES USING ARTIFICIAL NEURAL NETWORK AND IMAGE PROCESSING APPARATUS}
본 발명은 인공신경망을 이용하여 투과 현미경 영상을 분석하여 특수 현미경 영상을 생성하는 방법 및 특수 현미경 영상 생성 장치에 관한 것이다.
광학 현미경은 자연과학 및 공학 연구에 있어 필수적인 도구이다. 광학 현미경은 다양한 종류가 있다. 투과 현미경은 표본의 광 투과성을 이용하여 표본의 전반적인 모양을 보여준다. 형광 현미경 또는 색상 염색 현미경은 표본의 특정 구조 및 기능을 형광 또는 색상으로 보여준다. 이 외에도 라만 분광현미경 또는 원자력 현미경 등의 특수 현미경 장비를 통해 표본의 특성연구를 할 수 있다. 투과 현미경이 가장 대중적이고 단순한 장비이다. 형광 현미경 등 특수 현미경은 일반적으로 표본 전처리 과정이 필요하여 표본 관찰이 시간이 보다 오래 소요된다.
한국특허 제10-2016-0078955호에는 기계 학습을 이용하여 현미경 이미지의 세포를 식별하는 내용을 개시하고, 마커로 라벨링 되지 않은 세포의 이미지를 통해 세포를 식별하는 내용을 개시하고 있으나, 투과 현미경 사진으로부터 특수/형광 현미경으로 촬영한 사진과 같은 세포 이미지를 생성할 수는 없는 문제점이 있다.
이에 본 발명자들은 투과 현미경 이미지로부터 특수 현미경 이미지를 생성하기 위해 예의 노력한 결과, 사전에 학습된 지도학습 네트워크에 투과 현미경 영상을 입력하여 분석할 경우, 추가 장비나 실험 없이 특수 현미경 이미지를 생성할 수 있다는 것을 확인하고, 본 발명을 완성하였다.
한국공개특허 제10-2016-0078955호
본 발명의 목적은 투과 현미경 영상을 기준으로 특수 현미경 영상을 생성하는 방법을 제공하는 것이다.
본 발명의 다른 목적은 투과 현미경 영상에서 살아있는 세포를 추적하고, 추적한 세포에 대한 특수 현미경 영상을 생선하는 방법을 제공하는 것이다.
본 발명의 또다른 목적은 투과 현미경 영상을 입력받아, 특수 현미경 영상을 생성하는 연산 장치를 포함하는 영상 처리 장치 및 시스템을 제공하는 것이다.
상기 목적을 달성하기 위해서, 본 발명은 영상 처리 장치가 투과 현미경 영상을 입력받는 단계; 및 상기 영상 처리 장치가 사전에 학습된 지도학습 네트워크에 상기 투과 현미경 영상을 입력하여 상기 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 단계를 포함하되, 상기 지도학습 네트워크는 별도의 투과 현미경 영상 및 학습용 영상을 이용하여 학습되고, 상기 학습용 영상은 비지도학습 네트워크를 통해 별도의 특수 현미경 영상으로부터 생성되는 것을 특징으로 하는 인공신경망을 이용한 특수 현미경 영상 생성 방법을 제공한다.
본 발명은 또한, 영상 처리 장치가 제1 시점의 제1 투과 현미경 영상과 상기 제1 시점 이후의 제2 투과 현미경 영상을 입력받는 단계; 상기 영상 처리 장치가 객체를 인식하는 제1 학습 네트워크를 이용하여 상기 제1 투과 현미경에서 세포를 인식하는 단계; 상기 영상 처리 장치가 객체를 추적하는 제2 학습 네트워크를 이용하여 상기 제1 투과 현미경 영상에서 인식된 세포를 상기 제2 투과 현미경 영상에서 식별하는 단계; 및 상기 영상 처리 장치가 제3 학습 네트워크에 상기 제2 투과 현미경 영상을 입력하여 상기 제2 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 단계를 포함하는 인공신경망을 이용한 특수 현미경 영상 생성 방법을 제공한다.
본 발명은 또한, 제1 투과 현미경 영상을 입력받는 입력장치: 투과 현미경 영상을 기준으로 특수 현미경 영상을 생성하는 지도학습 네트워크를 저장하는 저장 장치: 및 상기 지도학습 네트워크에 상기 제1 투과 현미경 영상을 입력하여 상기 제1 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 연산 장치를 포함하되, 상기 지도학습 네트워크는 제2 투과 현미경 영상 및 학습용 영상을 이용하여 학습되고, 상기 학습용 영상은 비지도학습 네트워크를 통해 별도의 특수 현미경 영상으로부터 생성되는 것을 특징으로 하는 특수 현미경 영상을 생성하는 영상 처리 장치를 제공한다.
본 발명은 또한, 클라이언트 장치로부터 제1 투과 현미경 영상을 입력받는 통신 장치: 투과 현미경 영상을 기준으로 특수 현미경 영상을 생성하는 지도학습 네트워크를 저장하는 저장 장치: 및 상기 지도학습 네트워크에 상기 제1 투과 현미경 영상을 입력하여 상기 제1 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 프로세서를 포함하되, 상기 지도학습 네트워크는 제2 투과 현미경 영상 및 학습용 영상을 이용하여 학습되고, 상기 학습용 영상은 비지도학습 네트워크를 통해 별도의 특수 현미경 영상으로부터 생성되는 것을 특징으로 하는 특수 현미경 영상을 생성하는 시스템을 제공한다.
이하 설명하는 기술은 인공신경망을 이용하여 특수 현미경 영상을 매우 간단하게 특수 현미경 영상으로 변환한다. 이하 설명하는 기술은 고비용 장비를 이용하지 않고, 빠른 시간에 특수 현미경 영상을 제공한다.
나아가 이하 설명하는 기술은 연구자가 살아있는 세포를 관찰할 필요 없이, 인공신경망을 이용하여 투과 현미경 영상에서 세포를 추적하여 해당 세포에 대한 특수 현미경 영상을 제공한다.
도 1은 인공신경망을 이용한 특수 현미경 영상 생성 과정의 예이다.
도 2는 영상 변환 네트워크에 대한 학습 과정의 예이다.
도 3은 학습용 영상을 생성하는 비지도학습 네트워크의 예이다.
도 4는 영상 변환 네트워크를 이용하여 특수 현미경 영상을 생성하는 예이다.
도 5는 영상 변환 네트워크를 이용하여 실제 특수 현미경 영상을 생성한 예이다.
도 6은 투과 현미경 영상 내의 세포를 추적하는 과정의 예이다.
도 7은 인식 네트워크의 학습 과정에 대한 예이다.
도 8은 인식 네트워크를 이용하여 세포를 판별하는 과정에 대한 예이다.
도 9는 세포를 추적하여 특수 현미경 영상을 생성하는 과정의 예이다.
도 10은 특수 현미경 영상을 생성하는 영상 처리 장치의 구성에 대한 예이다.
도 11은 특수 현미경 영상을 제공하는 시스템에 대한 예이다.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시례를 가질 수 있는 바, 특정 실시례들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
이하 설명하는 기술은 입력 영상을 특수한 현미경 영상으로 변환하는 기술에 관한 것이다. 이하 설명에서 사용하는 용어 내지 장치에 대하여 정의하거나 설명한다.
현미경은 다양한 표본 내지 시료 분석을 위해 사용된다.
투과 현미경은 가시광선 또는 자외선과 같은 광을 광원으로 사용하는 광학 현미경을 의미한다. 예컨대, 투과 현미경은 일반 광학 현미경(bright-field Microscopy), 위상차 현미경(phase contrast microscopy), 미분간섭 현미경(Differential interference contrast microscopy) 등을 의미한다. 투과 현미경은 표본의 광 투과성을 이용하여 표본의 전반적인 모양을 보여준다. 투과 현미경 영상은 투과 현미경을 이용하여 산출한 영상을 의미한다. 여기서 표본은 관찰 대상에 따라 다양할 수 있다. 예컨대, 생물학 내지 의학 분야인 경우 표본은 조직, 세포 등일 수 있다.
형광 현미경은 형광을 띄거나 형광물질로 표지한 표본이 발산하는 형광으로 미세구조를 관찰하는 현미경이다. 일반적으로 형광 현미경은 자외선을 표본에 조사하되 형광분자에 의해 발산되는 빛만을 수확하여 영상을 만든다. 색상 염색 현미경 (histological microscopy)은 표본을 특정 색상으로 보여준다. 형광 현미경 내지 색상 염색 현미경은 표본의 특정 구조 및 기능을 형광 또는 색상으로 보여준다. 나아가 라만 분광현미경 (Raman spectromicroscopy)또는 원자력 현미경 (atomic force microscopy)도 표본의 특성연구에 사용된다. 기타 다양한 특수 현미경들이 연구에 사용되기도 한다.
이하 설명에서 현미경 영상은 크게 두 가지 종류로 구분된다. 하나는 전술한 투과 현미경 영상이다. 다른 하나는 특수 현미경 영상이다. 특수 현미경 영상은 특수 현미경이 생성하거나 보여주는 영상이다. 특수 현미경은 일반적인 투과 현미경이 아닌 다른 다양한 종류의 현미경을 의미한다. 예컨대, 특수 현미경은 형광 현미경, 색상 염색 현미경, 라만 분광현미경, 전자현미경, 원자력 현미경 등을 포함할 수 있다. 특수 현미경은 표본이 방출하는 형광을 보여주거나, 표본을 특정 색상으로 표시하건, 표본의 외부 구조 또는 삼차원 구조를 정밀하게 보여준다. 투과 현미경 영상은 현미경에서 나타나는 영상을 CCD, CMOS 등과 같은 이미지 센서로 획득한다.
현미경은 다양한 분야에서 사용된다. 따라서 현미경으로 관찰하는 대상은 세포, 조직, 소재, 전자 부품 등 다양할 수 있다. 다만 이하 설명의 편의를 위하여 현미경으로 관찰하는 표본은 세포와 같은 객체라고 가정하고 설명한다. 이하 도면이나 설명은 세포를 기준으로 설명한다.
이하 설명하는 기술은 투과 현미경 영상을 특수 현미경 영상으로 변환한다. 이하 설명하는 기술은 투과 현미경 영상을 학습 네트워크에 입력하여 특수 현미경 영상을 생성한다. 이하 설명하는 기술은 기계학습(machine learning)모델을 사용하여 특수 현미경 영상을 생성한다. 기계학습모델은 널리 알려진 바와 같이 다양한 모델이 있다. 설명의 편의를 위하여 이하 설명하는 기술은 인공신경망(artificial neural network)을 사용하여 영상을 생성한다고 가정한다. 예컨대, 대표적인 인공신경망은 CNN(Convolutional Neural Network) 및 CNN을 개량한 모델 등이 있다. 이하 관련된 설명에서 사용가능한 모델에 대하여 설명한다. 물론 이하 설명하는 기술은 특정한 신경망 모델로만 구현되는 것은 아님을 전제한다.
영상 처리는 영상 데이터를 일정하게 처리하는 영상 처리 장치에서 수행된다. 영상 처리 장치는 일정한 영상 처리 프로그램을 구동하여 영상을 처리하는 컴퓨터 장치, 서버, 전용 칩셋 등과 같은 하드웨어 장치일 수 있다. 이하 특수 현미경 영상을 생성하는 과정은 영상 처리 장치가 수행한다고 가정한다. 영상 처리 장치가 인공신경망을 이용하여 특수 현미경 영상을 생성한다. 인공신경망은 영상 처리 장치가 일정한 학습 데이터를 이용하여 사전에 마련할 수 있다. 또는 인공신경망은 별도의 컴퓨터 장치가 일정한 학습 데이터를 이용하여 사전에 마련할 수 있다.
본 발명에서는 인공신경망을 이용한 학습 네트워크를 이용하여 투과 현미경 이미지를 분석할 경우, 추가 실험이나 장비 없이 특수/형광 현미경 이미지를 생성할 수 있음을 확인하고자 하였다.
즉 본 발명의 일실시예에서는 투과 현미경 영상을 사전 학습된 지도학습 네트워크로 분석하여 특수 현미경 영상을 생성할 수 있다는 것을 확인하였다(도 1 내지 도 5).
따라서, 본 발명은 일 관점에서, 영상 처리 장치가 투과 현미경 영상을 입력받는 단계; 및 상기 영상 처리 장치가 사전에 학습된 지도학습 네트워크에 상기 투과 현미경 영상을 입력하여 상기 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 단계를 포함하되, 상기 지도학습 네트워크는 별도의 투과 현미경 영상 및 학습용 영상을 이용하여 학습되고, 상기 학습용 영상은 비지도학습 네트워크를 통해 별도의 특수 현미경 영상으로부터 생성되는 것을 특징으로 하는 인공신경망을 이용한 특수 현미경 영상 생성 방법에 관한 것이다.
본 발명에 있어서, 상기 학습용 영상은 상기 비지도학습 네트워크를 이용하여 상기 별도의 특수 현미경 영상의 객체 신호로부터 생성되는 것을 특징으로 할 수 있다.
본 발명에 있어서, 상기 학습용 영상은 확률모델을 이용하여 상기 별도의 특수 현미경 영상의 획득 과정에서 발생하는 노이즈를 제거하고, 상기 노이즈가 제거된 별도의 특수 현미경 영상을 상기 비지도학습 네트워크에 입력하여 생성되는 것을 특징으로 할 수 있다.
본 발명에 있어서, 상기 학습용 영상은 확률 모델을 피팅(fitting)하여 상기 별도의 특수 현미경 영상의 캡쳐 과정에서 발생하는 노이즈 신호를 제거하고, 상기 비지도학습 네트워크를 이용하여 상기 노이즈 신호가 제거된 영상의 객체 영역에서 발생하는 신호를 색상으로 표시하여 생성되는 것을 특징으로 할 수 있다.
본 발명에 있어서, 상기 비지도학습 네트워크는 복수의 비지도학습 모델을 각각 사용하여 상기 특수 현미경 영상에서 객체 영역을 표시한 복수의 후보 영상을 생성하고, 상기 후보 영상에 대한 상호 상관관계 최대화(cross-correlation maximization)를 통해 상기 학습용 영상을 생성하는 것을 특징으로 할 수 있다.
본 발명에 있어서, 상기 복수의 비지도학습 모델은 계층적 클러스터링(Hierarchical clustering), K 평균 클러스터링(K-Means clustering), 가우시안 혼합 모델(Gaussian mixture models), 자기 조직화 지도(Self-organizing maps) 및 은닉 마르코프 모델(Hidden Markov model) 중 적어도 2개인 것을 특징으로 할 수 있으나, 이에 한정되는 것은 아니다.
본 발명에 있어서, 상기 지도학습 네트워크는 시맨틱 분할 (Semantic segmentation) 모델인 것을 특징으로 할 수 있으나, 이에 한정되는 것은 아니다.
본 발명에 있어서, 상기 지도학습 네트워크는 상기 투과 현미경 영상을 픽셀 단위로 처리하면서 객체를 분류하는 신경망 모델인 것을 특징으로 할 수 있다.
특수 현미경 영상 생성
도 1은 인공신경망을 이용한 특수 현미경 영상 생성 과정(100)의 예이다. 투과 현미경 영상이 입력된다(110). 투과 현미경 영상은 현미경에서 나타나는 영상을 CCD, CMOS 등과 같은 이미지 센서로 획득한다. 투과 현미경 영상을 획득하는 과정은 자세한 설명을 생략한다.
인공신경망(N1)은 입력되는 투과 현미경 영상을 처리한다(120). 인공신경망(N1)은 투과 현미경 영상에 대한 특수 현미경 영상을 출력한다(130). 이하 인공신경망(N1)을 영상 변환 신경망 내지 영상 변환 네트워크라고 명명한다. 영상 변환 네트워크(N1)는 일반적으로 지도학습 네트워크에 해당한다.
영상 변환 네트워크(N1)는 다양한 신경망 모델로 구현될 수 있다. 영상에서 객체를 인식하고 분류할 수 있는 모델은 다양하다. (1) 대표적으로 AlexNet, GoogLeNet, VGGNet 등이 있다. 모두 CNN(Convolutional Neural Network)에 해당한다. CNN 계열 모델은 전연결 계층(fully connected layer)을 지나면서 위치나 공간에 대한 정보를 잃는다. (2) 영상에서 특정 객체를 식별하면서 위치 정보까지 포함하기 위한 모델들도 연구되었다. 영상에서 일정한 사각형 영역을 기준으로 영상을 분석하여 일정한 위치 정보를 파악하는 모델들이 있다. 예컨대, R-CNN, SPPNet, Fast R-CNN 등이 있다. (3) 나아가 영상 변환 네트워크(N1)는 영상에서 객체를 구분하고 분류할 수 있는 시멘틱 분할(semantic segmentation) 모델일 수 있다. 시멘틱 분할 모델은 픽셀 단위로 예측을 수행하여 의미 있는 단위로 대상을 분리한다. 따라서 시멘틱 분할 모델은 영상에 있는 객체를 식별 및 분류하고, 위치까지 정확하게 파악할 수 있다. 대표적인 시멘틱 분할 모델은 FCN(fully convolutional networks)이다.
FCN 구조는 다양할 수 있다. 대표적인 FCN 구조를 기준으로 설명하자면 일반 CNN과 다른 몇 가지 특징이 있다. FCN은 CNN의 뒷단에 있는 전연결 계층을 1×1 컨볼루션(convolution)으로 구성한다. 컨볼루션과 풀링(pooling)을 반복하면 특징맵의 크기가 줄어드는데, FCN은 백워드 컨볼루션(deconvolution)을 사용하여 일종의 업샘플링(upsampling)을 한다. 또는 FCN은 현재 단계보다 앞선 결과를 활용하여 활용하여 현재 예측을 보강하는 방법(skip layer)을 사용하기도 한다.
영상 변환 네트워크(N1)는 FCN으로 구현하여 투과 현미경 영상을 픽셀 단위로 예측하고, 예측된 영역에 위치하는 객체를 식별할 수 있다. 객체 식별은 시각적으로 표현될 수도 있다. 영상 변환 네트워크는 투과 현미경 영상을 일정한 색상 특징을 갖는 특수 현미경 영상(예컨대, 형광 현미경 영상)으로 변환할 수 있다.
영상 변환 네트워크(N1)는 투과 현미경 영상에서 객체인 세포를 식별하고, 세포가 위치하는 영역을 영상의 종류에 따라 일정하게 처리한다. 영상 변환 네트워크(N1)는 세포의 영역에 일정한 의미를 부여하는 처리를 수행한다. 예컨대, 영상 변환 네트워크(N1)는 세포(세포 영역)의 색상을 변경하거나, 일정한 질감(texture)을 나타내도록 한다. 영상 변환 네트워크(N1)는 생성(변환)하고자 하는 특수 현미경 영상의 종류에 따라 세포 영역의 색상 내지 질감을 일정하게 표현한다. 이를 위해 영상 변환 네트워크(N1)는 사전에 학습되어야 한다. 영상 변환 네트워크(N1)는 주어진 투과 현미경 영상에서 객체인 세포를 식별하고, 해당 투과 현미경 영상에 대한 특수 현미경 영상을 기준으로 어떤 세포 내지 영역에 일정한 색상/질감을 표현해야 하는지 학습한다.
영상 변환 네트워크(N1)는 학습을 위해서 투과 현미경 영상 및 해당 투과 현미경 영상에 대응하는 대한 특수 현미경 영상이 필요하다. 기본적으로 학습을 위한 영상은 라벨링(labeling)이 되어야 한다. 즉, 입력 영상의 특정 객체가 출력 영상의 어떤 객체 내지 영역에 해당하는지 표시해야지만 영상 변환 네트워크(N1)가 학습될 수 있다. 수작업으로 매우 많은 학습 데이터를 라벨링한다면 시간이 많이 소요될 뿐 만 아니라 그 정확도 또한 수작업의 오류로 제한된다.
영상 변환 네트워크(N1)는 학습을 위한 별도의 학습용 영상을 사용한다. 학습용 영상은 별도의 학습 네트워크(N2)를 통해 생성한다. 도 2는 영상 변환 네트워크(N1)에 대한 학습 과정(200)의 예이다.
영상 변환 네트워크(N1)는 투과 현미경 영상(210)과 학습용 영상(230)을 입력받아 학습된다. 학습용 영상은 특수 현미경 영상을 기준으로 새롭게 생성된 영상이다. 학습용 영상은 별도의 신경망(N2)을 통해 생성된다. 별도의 신경망(N2)은 특수 현미경 영상을 입력(330)받아 학습용 영상을 생성(230)한다. 이하 신경망(N2)을 라벨링 네트워크라고 명명한다. 라벨링 네트워크(N2)는 비지도학습(Unsupervised Learning) 네트워크이다. 라벨링 네트워크(N2)는 특수 현미경 영상을 입력받고(220), 입력된 특수 현미경 영상에서 발광(형광 현미경인 경우)된 특정 객체를 식별한다. 라벨링 네트워크(N2)는 특정 객체(세포)를 일정한 조도의 군집으로 정의한 학습용 영상을 생성(230)한다. 이제 영상 변환 네트워크(N1)는 투과 현미경 영상과 학습용 영상을 이용하여, 투과 현미경 영상에 존재하는 세포를 식별하고, 그 중에서 일정한 색상 내지 질감으로 표현해야할 세포를 학습하게 된다.
도 3은 학습용 영상을 생성하는 비지도학습 네트워크(300)에 대한 예이다. 도 3은 전술한 라벨링 네트워크(N2)의 동작 내지 구조에 대한 예이다. 라벨링 네트워크(N2)는 배경 제거 모델(310), 가설 검증 모델(320) 및 비지도학습 모델(330)을 포함한다.
배경 제거 모델(310)은 입력되는 특수 현미경 영상에서 발광하는 객체에 해당하는 세포만을 뚜렷하게 식별하기 위하여 배경에 해당하는 노이즈를 제거한다. 특수 현미경 영상은 일반적으로 CCD 나 CMOS 등의 이미지 센서(array detector)를 통해 획득된다. 해당 이미지 내 노이즈는 가우시안 랜덤(Gaussian random) 또는 포아송 랜덤(Poisson random) 분포를 따른다. 배경 제거 모델(410)은 노이즈에 해당하는 확률 분포 모델을 일정하게 피팅(fitting)하여 제거할 수 있다.
가설 검증 모델(statistical hypothesis test, 320)은 비지도학습 모델에서 학습하여야할 구성에 대한 분류(class)를 정의한다. 일반적인 비지도학습 모델은 데이터에 대해 스스로 학습하지만 학습을 위한 최소한의 지침이 필요하다. 이 부분을 사용자가 설정할 수도 있지만, 결과에 대한 편형을 제거 하고자 가설 검증을 통해 비지도학습에 필요한 기준을 제공한다. 가설 검증 모델(320)은 Hartigan 딥 테스트(DIP test)를 통해 유니모달리티(unimodality)를 찾고, 유니모달이 아닌 경우 갭 통계(Gap statistic)를 통해 통계적 분포를 평가한다. 이 과정을 통해 통계적 모집단(statistical population)을 결정한다. 즉, 비지도학습에서 학습해야할 분류를 정의한다.
비지도학습 모델(330)은 다양한 비지도학습 방법론 중 어느 하나를 이용할 수 있다. 예컨대, 비지도학습은 계층적 클러스터링(Hierarchical clustering), K 평균 클러스터링(K-Means clustering), 가우시안 혼합 모델(Gaussian mixture models), 자기 조직화 지도(Self-organizing maps) 및 은닉 마르코프 모델(Hidden Markov model) 등이 있다.
나아가 비지도학습 모델(330)은 복수의 비지도학습 방법론을 사용하고, 최상의 결과를 선택할 수도 있다. 예컨대, 비지도학습 모델(330)은 계층적 클러스터링, K 평균 클러스터링, 가우시안 혼합 모델, 자기 조직화 지도 및 은닉 마르코프 모델 중 적어도 2개 이상을 사용하여 일정한 결과를 산출할 수 있다. 각 모델은 특수 현미경 영상의 품질이나 종류에 따라 상이한 결과(후보 영상)를 산출할 수 있다. 비지도학습 모델(330)은 복수의 후보 영상에 대한 상호 상관관계 최대화(cross-correlation maximization)를 통해 최상의 결과를 선택할 수 있다.
라벨링 네트워크(N2)는 이와 같은 동작을 통해 영상 변환 네트워크(N1) 학습을 위한 훈련용 영상을 생성할 수 있다.
도 4는 영상 변환 네트워크를 이용하여 특수 현미경 영상을 생성하는 예이다. 도 4는 복수의 영상 변환 네트워크를 사용하여 서로 다른 결과를 생성하는 예이다. 도 4는 복수의 영상 변환 네트워크(N1-A, N1-B 및 N-1C)를 도시한다. 복수의 영상 변환 네트워크(N1-A, N1-B 및 N-1C)는 서로 다른 학습용 영상을 사용하여 학습된다. 복수의 영상 변환 네트워크(N1-A, N1-B 및 N-1C)는 생성하고자 하는 특수 현미경의 종류가 다를 수 있다. 또는 영상 변환 네트워크(N1-A, N1-B 및 N-1C)는 동일한 종류의 특수 현미경 영상에 대하여 서로 다른 형태 내지 색상을 갖도록 학습된 모델일 수도 있다.
복수의 영상 변환 네트워크(N1-A, N1-B 및 N-1C) 각각은 동일한 투과 현미경 영상(Input 1)을 입력받아 서로 다른 결과값(Output 1, Output 2 및 Output 3)을 생성할 수 있다. 이와 같이 특수 현미경 영상을 생성하는 영상 변환 네트워크는 복수의 모델을 포함하고, 사용자의 선택에 따라 특정한 어느 하나 또는 복수의 모델을 사용하여 특수 현미경 영상을 생성할 수 있다.
도 5는 영상 변환 네트워크를 이용하여 실제 특수 현미경 영상을 생성한 예이다. 도 5(A)는 영상 변환 네트워크를 이용하여 세포의 투과 현미경 사진(DIC) 으로부터 세포핵 사진을 만드는 실시예이다. DAPI는 실험적으로 생성한 세포 핵의 형광 현미경 영상이다. AI는 영상 변환 네트워크를 이용하여 생성한 영상이다. AI(파란색)와 DAPI(붉은색)를 비교해보면 동일한 것을 알 수 있다. Overlay는 AI와 DAPI를 중첩한 영상이다. 정확도를 분석한 경과 정확도는 99%에 가까운 것으로 나타났다. 도 5(B)는 영상 변환 네트워크를 이용하여 세포의 투과 현미경 사진(DIC) 으로부터 미토콘드리아 사진을 만드는 실시예이다. Mitotracker는 상용툴을 이용하여 실험적으로 생성한 미토콘드리아 형광 현미경 영상이다. AI는 영상 변환 네트워크를 이용하여 생성한 영상이다. AI와 Mitotracker는 96.88%의 정확도로 일치한다. 도 5(C)는 영상 변환 네트워크를 이용하여 세포의 투과 현미경 사진(DIC) 으로부터 세포골격사진을 만드는 실시예이다. Phalloidin은 상용툴을 이용하여 실험적으로 생성한 실제 세포골격 형광 현미경 영상이다. AI는 영상 변환 네트워크를 이용하여 생성한 영상이다. AI와 Phalloidin은 90.12%의 정확도로 일치한다.
세포 추적 및 특수 현미경 영상 생성
한편 바이오/의학 분야는 살아 있는 세포에 대한 연구도 많다. 즉, 살아 있는 세포를 추적하여 이에 대한 분석이 필요할 것으로 예상하였다.
즉, 본 발명의 다른 실시예에서는 제1 시점에서의 제1 투과 현미경 영상과 제 1시점 이후의 제2 투과 현미경 영상을 입력하여, 객체를 인식하는 제1 학습 네트워크로 영상을 처리하여 세포를 인식한 다음, 세포를 추적하는 제2 학습 네트워크를 이용하여 제1 투과 현미경 영상에서 인식된 세포를 제2 투과 현미경 영상에서 식별하여, 제3 학습 네트워크를 이용하여 제2 투과 현미경 영상에 대한 특수 현미경 영상을 생성할 수 있다는 것을 확인하였다(도 6 내지 도 9).
따라서, 본 발명은 다른 관점에서 영상 처리 장치가 제1 시점의 제1 투과 현미경 영상과 상기 제1 시점 이후의 제2 투과 현미경 영상을 입력받는 단계; 상기 영상 처리 장치가 객체를 인식하는 제1 학습 네트워크를 이용하여 상기 제1 투과 현미경에서 세포를 인식하는 단계; 상기 영상 처리 장치가 객체를 추적하는 제2 학습 네트워크를 이용하여 상기 제1 투과 현미경 영상에서 인식된 세포를 상기 제2 투과 현미경 영상에서 식별하는 단계; 및 상기 영상 처리 장치가 제3 학습 네트워크에 상기 제2 투과 현미경 영상을 입력하여 상기 제2 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 단계를 포함하는 인공신경망을 이용한 특수 현미경 영상 생성 방법에 관한 것이다.
본 발명에 있어서, 상기 제3 학습 네트워크는 별도의 투과 현미경 영상 및 학습용 영상을 이용하여 학습되고, 상기 학습용 영상은 비지도학습 네트워크를 통해 별도의 특수 현미경 영상으로부터 생성되는 것을 특징으로 하는 것을 특징으로 할 수 있다.
본 발명에 있어서, 상기 비지도학습 네트워크는 영상의 객체 영역에서 발생하는 신호를 이용하여 상기 학습용 영상을 생성하는 것을 특징으로 할 수 있다.
본 발명에 있어서, 확률모델을 이용하여 상기 별도의 특수 현미경 영상의 획득 과정에서 발생하는 노이즈를 제거하는 단계를 추가로 포함하고, 상기 비지도학습 네트워크는 상기 노이즈가 제거된 별도의 특수 현미경 영상을 이용하여 상기 학습용 영상을 생성하는 것을 특징으로 할 수 있다.
본 발명에 있어서, 상기 제1 학습 네트워크는 별도의 투과 현미경 영상과 상기 별도의 투과 현미경 영상에서 세포를 식별한 영상을 이용하여 사전에 학습되는 것을 특징으로 할 수 있다.
본 발명에 있어서, 상기 제1 학습 네트워크는 R-CNN(region proposal convolutional neural network)인 것을 특징으로 할 수 있으나, 이에 한정되는 것은 아니다.
본 발명에 있어서, 상기 제2 학습 네트워크는 시간 간격을 갖는 두 개의 투과 현미경 영상에서 동일 세포를 식별하는 비지도학습 네트워크인 것을 특징으로 할 수 있다.
이하, 투과 현미경 영상을 이용하여 세포를 추적하고, 추적한 세포에 대한 특수 현미경 영상을 생성하는 예를 설명한다.
도 6은 투과 현미경 영상 내의 세포를 추적하는 과정(400)의 예이다. 세포 추적 과정에는 두 가지 신경망(N3 및 N4)가 사용된다. 신경망(N3)는 투과 현미경 영상에서 세포를 인식한다. 이하 신경망(N3)을 인식 네트워크라고 명명한다. 신경망(N4)는 인식된 세포를 시작으로 시간의 흐름에 따라 세포를 추적한다. 이하 신경망(N4)을 추적 네트워크라고 명명한다.
인식 네트워크(N3)는 투과 현미경 영상을 입력받아(410), 영상 내에 존재하는 객체(세포)를 식별한다(420). 인식 네트워크(N3)는 식별한 세포의 영역을 구분할 수 있다. 따라서 인식 네트워크(N3)는 영상에서 특정 객체와 해당 객체의 위치를 파악할 수 있는 모델이다. 인식 네트워크(N3)는 식별한 세포의 위치를 포함하는 영상 정보를 생성한다.
추적 네트워크(N4)는 인식 네트워크(N3)가 최초 식별한 세포와 세포의 위치를 기준으로 세포를 추적한다(430). 추적 네트워크(N4)는 식별한 세포의 위치를 추적한 결과를 보여주는 영상을 생성한다. 추적 네트워크(N4)는 시간의 흐름에 따른 복수의 투과 현미경 영상에서 세포를 추적한다. 예컨대, 추적 네트워크(N4)는 제1 시점의 투과 현미경 영상 및 제1 시점 이후의 제2 시점의 투과 현미경 영상을 입력받을 수 있다. 제1 시점의 투과 현미경 영상은 인식 네트워크(N3)가 세포 및 세포 영역을 식별한 영상이다. 추적 네트워크(N4)는 제1 시점의 투과 현미경 영상에서 식별한 세포 위치를 시작으로 제2 시점의 투과 현미경 영상에서 식별한 세포의 위치를 추적한다. 추적 네트워크(N4)는 시간 흐름에 따라 연속된 투과 현미경 영상에서 최초 식별한 세포를 계속하여 추적할 수 있다. 또한 추적 네트워크(N4)는 투과 현미경 영상에서 식별된 복수의 세포에 대한 추적을 수행할 수 있다. 도 6은 추적 네트워크(N4)를 이용하여 영상에서 식별한 세포를 추적한 결과를 보여준다. 도 6에서 추적 네트워크(N4)가 생성한 영상을 살펴보면, 해당 영상은 위치 식별한 세포(사각형 박스 표시)가 최초 C1에서 특정 시간이 경과한 후 C2로 이동한 것을 알 수 있다. C1과 C2를 연결하는 실선은 시간 흐름에 따른 세포 이동 경로를 의미한다. 추적 네트워크(N4)는 객체를 추적하는 지도학습 네트워크 또는 비지도학습 네트워크일 수 있다.
인식 네트워크(N3)에 대한 학습 과정을 설명한다. 도 7은 인식 네트워크의 학습 과정(500)에 대한 예이다. 도 7은 인식 네트워크(N3)에 대한 학습 과정의 예이다. 인식 네트워크(N3)는 입력 영상에서 객체를 식별하고, 객체의 위치(영역) 정보도 추출할 수 있는 모델이다. 예컨대, 인식 네트워크(N3)는 R-CNN(region proposal convolutional neural network)일 수 있다. 한편 R-CNN은 기본적은 R-CNN, Fast R-CNN, SPPNet, Faster R-CNN 등 다양한 모델이 있다.
R-CNN은 객체 분석을 수행하는 CNN과 해당 영상에서 객체가 존재할 영역을 제시하는 알고리즘(region proposal algorithm)을 연결한 모델이다. R-CNN은 입력 영상에서 선택적 선택(selective search) 등과 같은 알고리즘을 이용하여 사각형 후보 영역을 결정한다. R-CNN은 후보 영역을 동일한 크기로 잘라내고, 각 영역에 대한 특징을 추출하여 객체에 대한 분류를 수행한다. 한편 Fast R-CNN은 이미지 자체를 자르지 않고, 특징맵을 자르는 방식을 사용하여 속도가 빠르다. Faster R-CNN는 후보 영역을 결정하는 RPN(region proposal network)을 이용한다. R-CNN은 객체가 위치하는 일정한 영역을 결정하는 과정을 통해 해당 객체가 위치하는 영역에 대한 정보를 확보한다.
도 7은 인식 네트워크(N3)에 대한 두 가지 학습 방법을 나타낸다. 도 7(A)는 투과 현미경 영상 및 투과 현미경 영상에서 수동으로 식별된 세포 영상을 이용하여 학습되는 예이다. 투과 현미경 영상이 입력된다(510). 이후 수작업 또는 별도의 알고리즘을 이용하여 투과 현미경 영상에서 객체인 세포 영역을 식별한다(530). 인식 네트워크(N3)는 세포 영역이 식별된 영상을 입력받아 학습한다. 이를 통해 인식 네트워크(N3)는 입력 영상에서 세포 영역을 식별하도록 학습된다.
도 7(B)는 전술한 라벨 네트워크(N2)를 이용하여 투과 현미경 영상에서 세포 위치를 식별한 정보를 이용하는 예이다. 투과 현미경 영상(510)과 특수 현미경 영상(520)이 입력된다. 특수 현미경 영상은 입력된 투과 현미경 영상에 위치하는 세포에 대한 특수 현미경 영상일 수 있다. 라벨 네트워크(N2)는 전술한 방법에 따라 입력된 특수 현미경 영상을 기준으로 학습용 영상을 생성(525)한다. 학습용 영상은 투과 현미경 영상에서 특정 객체(예컨대, 발광하는 세포)의 영역을 나타낸다. 학습용 영상은 이와 같이 관심있는 세포 영역에 대한 위치 정보를 전달한다. 인식 네트워크(N3)는 입력된 투과 현미경 영상 및 학습용 영상을 이용하여 투과 현미경 영상에서 관심있는 세포를 식별하도록 학습된다.
도 8은 인식 네트워크를 이용하여 세포를 판별하는 과정(600)에 대한 예이다. 도 8은 학습된 인식 네트워크(N3)를 이용하여 투과 현미경 영상에서 세포를 식별하고, 세포가 위치한 영역을 추출하는 예이다. 인식 네트워크(N3)는 투과 현미경 영상을 입력받는다(610). 인식 네트워크(N3)는 입력된 투과 현미경 영상에서 세포 또는 관심 있는 세포가 위치하는 영역을 식별한다(620). 인식 네트워크(N3)는 식별한 세포 영역을 구분하여 추출할 수도 있다(630).
도 9는 세포를 추적하여 특수 현미경 영상을 생성하는 과정(700)의 예이다. 먼저 인식 네트워크(N3)가 투과 현미경 영상을 입력받는다(710). 인식 네트워크(N3)은 투과 현미경 영상에서 세포를 식별하고, 식별한 세포에 대한 위치(영역) 정보를 생성한다. 인식 네트워크(N3)는 투과 현미경 영상에서 세포 영역을 표시한 영상을 생성할 수도 있다. 추적 네트워크(N4)는 세포 영역이 식별된 제1 시점의 투과 현미경 영상(제1 투과 현미경 영상이라 함)을 입력받는다. 추적 네트워크(N4)는 제1 투과 현미경 영상에서 식별된 세포를 시작으로 제1 시점 이후의 제2 시점의 투과 현미경 영상에서 세포의 위치를 결정(추적)한다(720). 나아가 추적 네트워크(N4)는 시간 흐름에 따라 연속된 투과 현미경 영상에서 계속 세포를 추적할 수 있다(730). 도 9는 K개의 투과 현미경 영상에서 동일한 세포를 추적한 결과를 도시한다. 즉, 추적 네트워크(N4)는 시간의 경과에 따른 세포 영상 및 해당 시점의 세포 위치를 나타내는 복수의 영상을 생성할 수 있다.
영상 변환 네트워크(N1)는 추적 네트워크(N4)가 생성한 영상을 입력받는다. 영상 변환 네트워크(N1)는 입력 영상을 특수 현미경 영상으로 변환한다(740). 도 9를 살펴보면, 시간 흐름에 따라 형광으로 표지된 부분이 점차 사라지는 것을 알 수 있다.
본 발명은 또다른 관점에서, 제1 투과 현미경 영상을 입력받는 입력장치: 투과 현미경 영상을 기준으로 특수 현미경 영상을 생성하는 지도학습 네트워크를 저장하는 저장 장치: 및 상기 지도학습 네트워크에 상기 제1 투과 현미경 영상을 입력하여 상기 제1 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 연산 장치를 포함하되, 상기 지도학습 네트워크는 제2 투과 현미경 영상 및 학습용 영상을 이용하여 학습되고, 상기 학습용 영상은 비지도학습 네트워크를 통해 별도의 특수 현미경 영상으로부터 생성되는 것을 특징으로 하는 특수 현미경 영상을 생성하는 영상 처리 장치에 관한 것이다.
이하 도면을 통해 영상 처리 장치에 관해 상세히 설명한다.
도 10은 특수 현미경 영상을 생성하는 영상 처리 장치(800)의 구성에 대한 예이다. 영상 처리 장치(800)는 투과 현미경 영상을 특수 현미경 영상으로 변환하는 장치이다. 앞서 특수 현미경 영상을 생성하는 과정은 영상 처리 장치가 수행한다고 설명한 바 있다. 영상 처리 장치(800)는 물리적으로 다양한 형태로 구현될 수 있다. 도 10 하단에 영상 처리 장치의 구현 예를 도시하였다. 영상 처리 장치(800)는 PC와 같은 컴퓨터 장치(A), 네트워크의 서버(B), 영상 처리 전용 칩셉(C) 등의 형태를 가질 수 있다. 컴퓨터 장치는 스마트 기기 등과 같은 모바일 기기를 포함할 수 있다. 최근 AI 전용 칩셋이 활발하게 개발되고 있다. 따라서 영상 처리 장치는 특수 현미경 영상을 생성하는 신경망 모델을 포함하는 칩셋 형태의 제품으로도 구현 가능하다.
영상 처리 장치(800)는 저장 장치(810), 메모리(820), 연산장치(830), 인터페이스 장치(840) 및 통신 장치(850)를 포함한다.
저장 장치(810)는 특수 현미경 영상을 생성하는데 관여하는 신경망 모델을 저장한다. 예컨대, 저장 장치(810)는 영상 변환 네트워크(N1), 라벨링 네트워크(N2), 인식 네트워크(N3) 및 추적 네트워크(N4)를 저장할 수 있다. 세포 추적 기능이 없는 경우 저장 장치(810)는 영상 변환 네트워크(N1) 및 라벨링 네트워크(N2)만을 저장할 수도 있다. 나아가 저장 장치(810)는 영상 처리에 필요한 프로그램 내지 소스 코드 등을 저장할 수 있다. 저장 장치(810)는 투과 현미경 영상, 각 신경망 모델이 생성하는 영상 및 특수 현미경 영상을 저장할 수 있다.
메모리(820)는 영상 처리 장치(800)가 수신한 투과 현미경 영상, 특수 현미경영상 생성과정에서 임시로 생성되는 영상, 신경망을 이용한 영상 처리 과정에서 생성되는 데이터 및 정보 등을 저장할 수 있다.
인터페이스 장치(840)는 외부로부터 일정한 명령 및 데이터를 입력받는 장치이다. 인터페이스 장치(840)는 물리적으로 연결된 입력 장치 또는 외부 저장 장치로부터 투과 현미경 영상을 입력받을 수 있다. 인터페이스 장치(840)는 특수 현미경 영상 생성을 위한 각종 신경망 모델을 입력받을 수 있다. 인터페이스 장치(840)는 신경망 모델 생성을 위한 학습데이터, 정보 및 파라미터값을 입력받을 수도 있다.
통신 장치(850)는 유선 또는 무선 네트워크를 통해 일정한 정보를 수신하고 전송하는 구성을 의미한다. 통신 장치(850)는 외부 객체로부터 투과 현미경 영상을 수신할 수 있다. 통신 장치(850)는 각종 신경망 모델 및 모델 학습을 위한 데이터도 수신할 수 있다. 통신 장치(850)는 생성한 특수 현미경 영상을 외부 객체로 송신할 수 있다.
통신 장치(850) 내지 인터페이스 장치(840)는 외부로부터 일정한 데이터 내지 명령을 전달받는 장치이다. 통신 장치(850) 내지 인터페이스 장치(840)를 입력장치라고 명명할 수 있다.
연산 장치(830)는 저장장치(810)에 저장된 신경망 모델 내지 프로그램을 이용하여 특수 현미경 영상을 생성하는 과정을 처리한다. 연산 장치(830)는 전술한 과정을 통해 주어진 학습 데이터를 이용하여 특수 현미경 영상 생성 과정에 사용되는 신경망 모델을 학습할 수 있다. 연산 장치(830)는 영상 변환 네트워크(N1), 라벨링 네트워크(N2), 인식 네트워크(N3) 및 추적 네트워크(N4) 중 적어도 하나를 학습된 형태로 구축할 수 있다. 연산 장치(830)는 전술한 과정을 통해 구축된 신경망을 이용하여 투과 현미경 영상에 대한 특수 현미경 영상을 생성할 수 있다. 연산 장치(830)는 데이터를 처리하고, 일정한 연산을 처리하는 프로세서, GPU, AP, 프로그램이 임베디드된 칩과 같은 장치일 수 있다.
본 발명은 또다른 관점에서 클라이언트 장치로부터 제1 투과 현미경 영상을 입력받는 통신 장치: 투과 현미경 영상을 기준으로 특수 현미경 영상을 생성하는 지도학습 네트워크를 저장하는 저장 장치: 및 상기 지도학습 네트워크에 상기 제1 투과 현미경 영상을 입력하여 상기 제1 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 프로세서를 포함하되, 상기 지도학습 네트워크는 제2 투과 현미경 영상 및 학습용 영상을 이용하여 학습되고, 상기 학습용 영상은 비지도학습 네트워크를 통해 별도의 특수 현미경 영상으로부터 생성되는 것을 특징으로 하는 특수 현미경 영상을 생성하는 시스템에 관한 것이다.
이하 도면을 통해 영상 생성 시스템에 관해 상세히 설명한다.
도 11은 특수 현미경 영상을 제공하는 시스템(900)에 대한 예이다. 도 11은 네트워크를 이용하여 특수 현미경 영상을 제공하는 실시예에 대한 것이다. 도 11은 시스템(900)은 사용자 단말(910, 920) 및 서비스 서버(980)를 포함한다. 사용자 단말(910, 920)은 클라이언트 장치에 해당한다. 도 11에서 서비스 서버(980)가 전술한 영상 처리 장치에 해당한다. 도 11에서 각 객체 간 보안이나 통신에 대한 자세한 설명은 생략한다. 각 객체는 통신 수행하기 전에 일정한 인증을 수행할 수도 있다. 예컨대, 인증에 성공한 사용자만이 서비스 서버(980)에 특수 현미경 영상 제공을 요청할 수 있다.
사용자는 사용자 단말을 통해 서비스 서버(980)에 특수 현미경 영상 제공을 요청할 수 있다. 사용자는 영상 DB(950)로부터 투과 현미경 영상을 수신할 수 있다. 영상 DB(950)는 실험과정에서 도출한 투과 현미경 영상을 저장한다. 영상 DB(950)는 네트워크에 위치하는 객체일 수 있다. 또는 영상 DB(950)는 단순한 저장 매체일 수도 있다. 사용자는 사용자 단말(910)을 통해 투과 현미경 영상을 서비스 서버(980)에 전달한다. 투과 현미경 영상을 포함한 요청을 수신한 서비스 서버(980)는 전술한 과정을 통하여 입력된 투과 현미경 영상에 대응하는 특수 현미경 영상을 생성한다. 서비스 서버(980)는 특수 현미경 영상 생성을 위한 각종 신경망 모델을 사전에 구축하여야 한다. 한편 투과 현미경 영상은 복수 일 수도 있다. 서비스 서버(980)는 생성한 특수 현미경 영상을 요청한 사용자 단말(910)에 전송할 수 있다. 또는 도면에 도시하지 않았지만, 서비스 서버(980)는 생성한 특수 현미경 영상을 별도의 저장 매체에 저장하거나, 별도의 객체에 전달할 수도 있다.
사용자는 실험 과정에서 획득한 투과 현미경 영상을 사용자 단말(920)을 통해 서비스 서버(980)에 전달할 수도 있다. 투과 현미경 영상을 포함한 요청을 수신한 서비스 서버(980)는 전술한 과정을 통하여 입력된 투과 현미경 영상에 대응하는 특수 현미경 영상을 생성한다. 한편 투과 현미경 영상은 복수 일 수도 있다. 서비스 서버(980)는 생성한 특수 현미경 영상을 요청한 사용자 단말(920)에 전송할 수 있다. 또는 도면에 도시하지 않았지만, 서비스 서버(980)는 생성한 특수 현미경 영상을 별도의 저장 매체에 저장하거나, 별도의 객체에 전달할 수도 있다.
또한, 상술한 바와 같은 영상 변환 네트워크(N1)를 학습할 학습 영상 생성 방법, 영상 변환 네트워크(N1) 생성 방법, 라벨링 네트워크(N2) 생성 방법, 특수 현미경 영상 생성 방법, 인식 네트워크(N3) 생성 방법, 추적 네트워크(N4) 생성 방법 및 살아 있는 세포를 추적하여 특수 현미경 영상을 생성하는 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 어플리케이션)으로 구현될 수 있다. 상기 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
본 실시례 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.
800 : 영상 처리 장치
810 : 저장장치
820 : 메모리
830 : 연산장치
840 : 인터페이스 장치
850 : 통신장치
900 : 특수 현미경 영상을 제공하는 시스템
910, 920 : 사용자 단말
950 : 영상 DB
980 : 서비스 서버
100: 특수 현미경 영상 생성 과정
200: 영상 변환 네트워크(N1)에 대한 학습 과정
300: 학습용 영상을 생성하는 비지도학습 네트워크
400: 투과 현미경 영상 내의 세포를 추적하는 과정
500: 인식 네트워크의 학습 과정
600: 인식 네트워크를 이용하여 세포를 판별하는 과정
700: 세포를 추적하여 특수 현미경 영상을 생성하는 과정
N1: 영상 변환 네트워크
N2: 라벨링 네트워크
N3: 인식 네트워크
N4: 추적 네트워크

Claims (21)

  1. 영상 처리 장치가 투과 현미경 영상을 입력받는 단계; 및
    상기 영상 처리 장치가 사전에 학습된 지도학습 네트워크에 상기 투과 현미경 영상을 입력하여 상기 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 단계를 포함하되,
    상기 지도학습 네트워크는 별도의 투과 현미경 영상 및 비지도학습 네트워크를 통해 생성된 학습용 영상을 이용하여 학습되며,
    상기 학습용 영상은 비지도학습 네트워크를 통해 별도의 특수 현미경 영상의 객체 영역에서 발생하는 신호로부터 생성되는 것을 특징으로 하는 인공신경망을 이용한 특수 현미경 영상 생성 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 학습용 영상은 확률모델을 이용하여 상기 별도의 특수 현미경 영상의 획득 과정에서 발생하는 노이즈를 제거하고, 상기 노이즈가 제거된 별도의 특수 현미경 영상을 상기 비지도학습 네트워크에 입력하여 생성되는 인공신경망을 이용한 특수 현미경 영상 생성 방법.
  4. 제1항에 있어서,
    상기 학습용 영상은
    확률 모델을 피팅(fitting)하여 상기 별도의 특수 현미경 영상의 캡쳐 과정에서 발생하는 노이즈 신호를 제거하고, 상기 비지도학습 네트워크를 이용하여 상기 노이즈 신호가 제거된 영상의 객체 영역에서 발생하는 신호를 색상으로 표시하여 생성되는 인공신경망을 이용한 특수 현미경 영상 생성 방법.
  5. 제1항에 있어서,
    상기 비지도학습 네트워크는 복수의 비지도학습 모델을 각각 사용하여 상기 특수 현미경 영상에서 객체 영역을 표시한 복수의 후보 영상을 생성하고, 상기 후보 영상에 대한 상호 상관관계 최대화(cross-correlation maximization)를 통해 상기 학습용 영상을 생성하는 인공신경망을 이용한 특수 현미경 영상 생성 방법.
  6. 제5항에 있어서,
    상기 복수의 비지도학습 모델은 계층적 클러스터링(Hierarchical clustering), K 평균 클러스터링(K-Means clustering), 가우시안 혼합 모델(Gaussian mixture models), 자기 조직화 지도(Self-organizing maps) 및 은닉 마르코프 모델(Hidden Markov model) 중 적어도 2개인 인공신경망을 이용한 특수 현미경 영상 생성 방법.
  7. 제1항에 있어서,
    상기 지도학습 네트워크는 시맨틱 분할 (Semantic segmentation) 모델인 인공신경망을 이용한 특수 현미경 영상 생성 방법.
  8. 제1항에 있어서,
    상기 지도학습 상기 투과 현미경 영상을 픽셀 단위로 처리하면서 객체를 분류하는 신경망 모델인 인공신경망을 이용한 특수 현미경 영상 생성 방법.
  9. 영상 처리 장치가 제1 시점의 제1 투과 현미경 영상과 상기 제1 시점 이후의 제2 투과 현미경 영상을 입력받는 단계;
    상기 영상 처리 장치가 객체를 인식하는 제1 학습 네트워크를 이용하여 상기 제1 투과 현미경에서 세포를 인식하는 단계;
    상기 영상 처리 장치가 객체를 추적하는 제2 학습 네트워크를 이용하여 상기 제1 투과 현미경 영상에서 인식된 세포를 상기 제2 투과 현미경 영상에서 식별하는 단계; 및
    상기 영상 처리 장치가 제3 학습 네트워크에 상기 제2 투과 현미경 영상을 입력하여 상기 제2 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 단계를 포함하고,
    상기 제3 학습 네트워크는 별도의 투과 현미경 영상 및 학습용 영상을 이용하여 학습되며,
    상기 학습용 영상은 비지도학습 네트워크를 통해 별도의 특수 현미경 영상의 객체 영역에서 발생하는 신호로부터 생성되는 것을 특징으로 하는 인공신경망을 이용한 특수 현미경 영상 생성 방법.
  10. 삭제
  11. 삭제
  12. 제9항에 있어서,
    확률모델을 이용하여 상기 별도의 특수 현미경 영상의 획득 과정에서 발생하는 노이즈를 제거하는 단계를 더 포함하고, 상기 비지도학습 네트워크는 상기 노이즈가 제거된 별도의 특수 현미경 영상을 이용하여 상기 학습용 영상을 생성하는 인공신경망을 이용한 특수 현미경 영상 생성 방법.
  13. 제9항에 있어서,
    상기 제1 학습 네트워크는 별도의 투과 현미경 영상과 상기 별도의 투과 현미경 영상에서 세포를 식별한 영상을 이용하여 사전에 학습되는 인공신경망을 이용한 특수 현미경 영상 생성 방법.
  14. 제9항에 있어서,
    상기 제1 학습 네트워크는 R-CNN(region proposal convolutional neural network)인 인공신경망을 이용한 특수 현미경 영상 생성 방법.
  15. 제9항에 있어서,
    상기 제2 학습 네트워크는 시간 간격을 갖는 두 개의 투과 현미경 영상에서 동일 세포를 식별하는 비지도학습 네트워크인 인공신경망을 이용한 특수 현미경 영상 생성 방법.
  16. 제1 투과 현미경 영상을 입력받는 입력장치:
    투과 현미경 영상을 기준으로 특수 현미경 영상을 생성하는 지도학습 네트워크를 저장하는 저장 장치: 및
    상기 지도학습 네트워크에 상기 제1 투과 현미경 영상을 입력하여 상기 제1 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 연산 장치를 포함하되,
    상기 지도학습 네트워크는 제2 투과 현미경 영상 및 비지도학습 네트워크를 통해 생성된 학습용 영상을 이용하여 학습되며,
    상기 학습용 영상은 비지도학습 네트워크를 통해 별도의 특수 현미경 영상의 객체 영역에서 발생하는 신호로부터 생성되는 것을 특징으로 하는 특수 현미경 영상을 생성하는 영상 처리 장치.
  17. 삭제
  18. 제16항에 있어서,
    상기 학습용 영상은 확률모델을 이용하여 상기 별도의 특수 현미경 영상의 획득 과정에서 발생하는 노이즈를 제거하고, 상기 비지도학습 네트워크에 상기 노이즈가 제거된 별도의 특수 현미경 영상을 입력하여 생성되는 특수 현미경 영상을 생성하는 영상 처리 장치.
  19. 제16항에 있어서,
    상기 학습용 영상은 복수의 비지도학습 모델을 각각 사용하여 상기 별도의 특수 현미경 영상에서 객체 영역을 표시한 복수의 후보 영상을 생성하고, 상기 후보 영상에 대한 상호 상관관계 최대화(cross-correlation maximization)를 통해 생성되는 특수 현미경 영상을 생성하는 영상 처리 장치.
  20. 제16항에 있어서,
    상기 지도학습 네트워크는 시맨틱 분할 (Semantic segmentation) 모델인 특수 현미경 영상을 생성하는 영상 처리 장치.
  21. 클라이언트 장치로부터 제1 투과 현미경 영상을 입력받는 통신 장치:
    투과 현미경 영상을 기준으로 특수 현미경 영상을 생성하는 지도학습 네트워크를 저장하는 저장 장치: 및
    상기 지도학습 네트워크에 상기 제1 투과 현미경 영상을 입력하여 상기 제1 투과 현미경 영상에 대한 특수 현미경 영상을 생성하는 프로세서를 포함하되,
    상기 지도학습 네트워크는 제2 투과 현미경 영상 및 비지도학습 네트워크를 통해 생성된 학습용 영상을 이용하여 학습되며,
    상기 학습용 영상은 비지도학습 네트워크를 통해 별도의 특수 현미경 영상의 객체 영역에서 발생하는 신호로부터 생성되는 것을 특징으로 하는 특수 현미경 영상을 생성하는 시스템.
KR1020190001740A 2019-01-07 2019-01-07 인공신경망을 이용한 특수 현미경 영상 생성 방법 및 영상 처리 장치 KR102084682B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190001740A KR102084682B1 (ko) 2019-01-07 2019-01-07 인공신경망을 이용한 특수 현미경 영상 생성 방법 및 영상 처리 장치
PCT/KR2020/000225 WO2020145605A1 (ko) 2019-01-07 2020-01-07 인공신경망을 이용한 특수 현미경 영상 생성 방법 및 영상 처리 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190001740A KR102084682B1 (ko) 2019-01-07 2019-01-07 인공신경망을 이용한 특수 현미경 영상 생성 방법 및 영상 처리 장치

Publications (1)

Publication Number Publication Date
KR102084682B1 true KR102084682B1 (ko) 2020-03-04

Family

ID=69783047

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190001740A KR102084682B1 (ko) 2019-01-07 2019-01-07 인공신경망을 이용한 특수 현미경 영상 생성 방법 및 영상 처리 장치

Country Status (2)

Country Link
KR (1) KR102084682B1 (ko)
WO (1) WO2020145605A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115223002B (zh) * 2022-05-09 2024-01-09 广州汽车集团股份有限公司 模型训练方法、开门动作检测方法、装置以及计算机设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013109758A (ja) * 2011-10-28 2013-06-06 Panasonic Corp 画像処理方法、および画像処理装置
JP2016509845A (ja) * 2013-02-28 2016-04-04 プロジェニー, インコーポレイテッド 画像ベースのヒト胚細胞分類のための装置、方法、およびシステム
KR20160078955A (ko) 2013-10-28 2016-07-05 몰레큘라 디바이스 엘엘씨 현미경 이미지 내에서 각각의 세포를 분류 및 식별하는 방법 및 시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8969827B2 (en) * 2012-07-09 2015-03-03 Materials Analysis Technology (Us) Corp. Specimen preparation for transmission electron microscopy
KR101880678B1 (ko) * 2016-10-12 2018-07-20 (주)헬스허브 기계학습을 통한 의료영상 판독 및 진단 통합 시스템
KR101914244B1 (ko) * 2017-03-29 2018-11-01 울산과학기술원 이중 사전 학습을 이용한 영상 분할 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013109758A (ja) * 2011-10-28 2013-06-06 Panasonic Corp 画像処理方法、および画像処理装置
JP2016509845A (ja) * 2013-02-28 2016-04-04 プロジェニー, インコーポレイテッド 画像ベースのヒト胚細胞分類のための装置、方法、およびシステム
KR20160078955A (ko) 2013-10-28 2016-07-05 몰레큘라 디바이스 엘엘씨 현미경 이미지 내에서 각각의 세포를 분류 및 식별하는 방법 및 시스템

Also Published As

Publication number Publication date
WO2020145605A1 (ko) 2020-07-16

Similar Documents

Publication Publication Date Title
EP3721406B1 (en) Method of computing tumor spatial and inter-marker heterogeneity
US20190087638A1 (en) Analyzing digital holographic microscopy data for hematology applications
CN108090906B (zh) 一种基于区域提名的宫颈图像处理方法及装置
JP7176697B2 (ja) 細胞評価システム及び方法、細胞評価プログラム
CN108537286B (zh) 一种基于关键区域检测的复杂目标精准识别方法
JP7422235B2 (ja) 腫瘍検出および分析を支援するための非腫瘍セグメンテーション
WO2017150194A1 (ja) 画像処理装置、画像処理方法及びプログラム
KR102084683B1 (ko) 인공신경망을 이용한 세포 영상 분석 방법 및 세포 영상 처리 장치
EP4196889A1 (en) Machine learning models for cell localization and classification learned using repel coding
Chen et al. Feasibility study on automated recognition of allergenic pollen: grass, birch and mugwort
CN112464983A (zh) 一种用于苹果树叶病害图像分类的小样本学习方法
US20210133981A1 (en) Biology driven approach to image segmentation using supervised deep learning-based segmentation
Hemati et al. CNN and deep sets for end-to-end whole slide image representation learning
KR102084682B1 (ko) 인공신경망을 이용한 특수 현미경 영상 생성 방법 및 영상 처리 장치
Cuny et al. Cell region fingerprints enable highly precise single-cell tracking and lineage reconstruction
Li et al. An automatic plant leaf stoma detection method based on YOLOv5
Marcuzzo et al. Automated Arabidopsis plant root cell segmentation based on SVM classification and region merging
Jahani et al. Automatic identification of overlapping/touching chromosomes in microscopic images using morphological operators
CN112819834B (zh) 基于人工智能的胃部病理图像的分类方法和装置
Niederlein et al. Image analysis in high content screening
Alvarez-Ramos et al. Automatic classification of Nosema pathogenic agents through machine vision techniques and kernel-based vector machines
Moetesum et al. Segmentation and classification of offline hand drawn images for the bgt neuropsychological screening test
JP2011027543A (ja) 三次元細胞画像解析システム及びそれに用いる三次元細胞画像解析装置
KR20230063147A (ko) 다단계 특징 분석을 사용한 전립선 조직의 효율적인 경량 cnn과 앙상블 머신 러닝 분류 방법 및 시스템
Newberg et al. Location proteomics: systematic determination of protein subcellular location

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant