KR101914244B1 - Apparatus and method for image segmentation using dual dictionary learning - Google Patents

Apparatus and method for image segmentation using dual dictionary learning Download PDF

Info

Publication number
KR101914244B1
KR101914244B1 KR1020170040008A KR20170040008A KR101914244B1 KR 101914244 B1 KR101914244 B1 KR 101914244B1 KR 1020170040008 A KR1020170040008 A KR 1020170040008A KR 20170040008 A KR20170040008 A KR 20170040008A KR 101914244 B1 KR101914244 B1 KR 101914244B1
Authority
KR
South Korea
Prior art keywords
image
dictionary
sparse code
sparse
resultant
Prior art date
Application number
KR1020170040008A
Other languages
Korean (ko)
Other versions
KR20180110455A (en
Inventor
정원기
이규현
콴트란민
Original Assignee
울산과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산과학기술원 filed Critical 울산과학기술원
Priority to KR1020170040008A priority Critical patent/KR101914244B1/en
Publication of KR20180110455A publication Critical patent/KR20180110455A/en
Application granted granted Critical
Publication of KR101914244B1 publication Critical patent/KR101914244B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • G06K9/0014
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시예에 따른 영상 분할 방법은, 복수의 부분으로 구획될 분할 대상 영상을 획득하는 단계, 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전(dictionary)를 획득하는 단계, 상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전을 획득하는 단계, 상기 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 단계 및 상기 제 2 사전 및 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 단계를 포함할 수 있다.An image segmentation method according to an embodiment of the present invention includes: acquiring a segmentation target image to be divided into a plurality of segments; acquiring a first dictionary, which is a set of one or more filters indicating characteristics of the sample image; Acquiring a second dictionary, which is a set of one or more filters indicating characteristics of a divided sample image generated by dividing the sample image into a plurality of parts, using the first dictionary to generate a sparse code generating a resulting sparse code set that is a set of sparse codes, and generating a resultant image by partitioning the divided object image into a plurality of portions using the second dictionary and the resulting sparse code set have.

Description

이중 사전 학습을 이용한 영상 분할 장치 및 방법 {APPARATUS AND METHOD FOR IMAGE SEGMENTATION USING DUAL DICTIONARY LEARNING}[0001] APPARATUS AND METHOD FOR IMAGE SEGMENTATION [0002] USING DUAL DICTIONARY LEARNING [0003]

본 발명은 사람의 세포(cell) 등의 객체를 복수 개 촬영한 명시야 현미경(bright-field microscope) 영상에 있어서, 상기 영상 내에서 복수 개의 개체 각각이 차지하는 영역에 따라 영상을 복수의 부분으로 분할하는 과정을 빠르고 정확하게 수행하기 위한 장치 및 방법에 관한 것이다. The present invention relates to a bright-field microscope image in which a plurality of objects such as a human cell are photographed, wherein the image is divided into a plurality of portions according to an area occupied by each of the plurality of objects in the image The present invention relates to an apparatus and a method for quickly and accurately performing a process for acquiring an image.

명시야 현미경과 같은 광학 기기를 이용하여 촬영된 세포 영상에서, 각 세포가 차지하는 영역을 정확히 구획하는 작업을 세포 분할(cell segmentation) 작업이라 한다. 세포 분할 작업을 수행함으로써 질병의 진단 및 진행 경과 확인이 가능하기 때문에, 세포 분할 작업은 의료 영상 처리 과정에서 매우 중요한 비중을 차지한다. 본래 이와 같은 세포 분할 작업은 숙련된 전문가에 의한 수작업을 통해 수행되어 왔으나, 이러한 수작업은 정확도가 담보될 수 있는 반면, 시간과 노력의 소모가 크다는 문제를 갖는다.Cell segmentation is the process of accurately segmenting the area occupied by each cell in a cell image taken using an optical device such as a bright field microscope. Cell division is a very important part of the medical image processing process because the diagnosis and progress of the disease can be confirmed by performing the cell division operation. Originally, such cell division work has been carried out manually by a skilled expert, but such manual work has problems in that accuracy and accuracy are guaranteed, while consuming a lot of time and effort.

이에, 세포 분할 작업을 자동화하기 위한 연구가 활발히 진행되어 왔으며, 그 결과 레벨 셋(level set) 모델 알고리즘, Chan-Vese 모델 알고리즘 등의 기법이 고안되었다. 하지만 이들 기법은 세포의 가장자리(edge) 정보 혹은 핵의 위치와 같은 사전 지식을 필요로 하며, 복잡한 영상에 대해 적용할 경우 그 정확도가 떨어질 가능성이 높다. Therefore, studies have been actively carried out to automate cell division. As a result, techniques such as a level set model algorithm and a Chan-Vese model algorithm have been devised. However, these techniques require prior knowledge such as cell edge information or nucleation location, and the accuracy of the technique is likely to be reduced when applied to complex images.

한편, 세포 분할 작업 자동화의 또 다른 방법으로서, DNN(deep neural network)과 같은 기계 학습(machine learning) 기법이 적용된 방법을 들 수 있다. 기계 학습 기법을 이용하면 영상에 대한 사전 지식이 필요치 않으며, 학습 데이터가 많이 쌓일수록 그 정확도가 높아진다는 장점을 갖는다. 하지만 기계 학습 기법 역시, 방대한 양의 학습 데이터로 인해 높은 성능의 시스템이 필요하며 작업에 과다한 시간이 소요된다는 단점을 아울러 갖는다. On the other hand, another method of automating the cell division operation is a method in which a machine learning technique such as a deep neural network (DNN) is applied. The use of machine learning techniques does not require prior knowledge of the image, and has the advantage that the more the learning data is accumulated, the higher the accuracy. However, machine learning techniques also have a disadvantage of requiring a high-performance system due to a large amount of learning data and requiring a long time for the operation.

특허문헌: 대한민국 공개특허 제 10-2010-0116404호 (2010.11.01. 공개)Patent Document: Korean Patent Laid-Open No. 10-2010-0116404 (published on November 11, 2010)

본 발명이 해결하고자 하는 과제는, 복수의 객체를 촬영한 영상에 대한 구획(segmentation) 작업, 특히 사람을 비롯한 생명체의 세포를 촬영한 영상에 대한 세포 분할 작업을, 보다 빠르면서도 정확히 수행할 수 있는 장치 및 방법을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for performing a segmentation operation on an image of a plurality of objects, in particular, a cell division operation on an image obtained by photographing living cells including a human being, Apparatus and method.

다만, 본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지는 않았으나 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있는 목적을 포함할 수 있다.It is to be understood, however, that the scope of the present invention is not limited to the above-mentioned objects, and may be embodied from the following description, which may be understood by those skilled in the art to which the present invention belongs. have.

본 발명의 일 실시예에 따른 영상 분할 방법은, 복수의 부분으로 구획될 분할 대상 영상을 획득하는 단계, 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전(dictionary)를 획득하는 단계, 상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전을 획득하는 단계, 상기 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 단계 및 상기 제 2 사전 및 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 단계를 포함할 수 있다.An image segmentation method according to an embodiment of the present invention includes: acquiring a segmentation target image to be divided into a plurality of segments; acquiring a first dictionary, which is a set of one or more filters indicating characteristics of the sample image; Acquiring a second dictionary, which is a set of one or more filters indicating characteristics of a divided sample image generated by dividing the sample image into a plurality of parts, using the first dictionary to generate a sparse code generating a resulting sparse code set that is a set of sparse codes, and generating a resultant image by partitioning the divided object image into a plurality of portions using the second dictionary and the resulting sparse code set have.

또한, 상기 제 1 사전에 포함된 필터의 개수는 K개이고, 상기 제 1 사전은 제 1 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득되며, 상기 제 1 사전 및 상기 제 1 희소 코드 집합은, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 1 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션(convolution) 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 샘플 영상 간의 차이가 최소가 되도록 정해질 수 있다.Also, the number of filters included in the first dictionary is K, the first dictionary is obtained based on K sparse codes included in the first sparse code set, and the first dictionary and the first sparse code set Is a result of performing a convolution operation between k (k is an integer of 0 or more and less than K) first filter of the first dictionary and kth rare code of the first sparse code set for each k The difference between the obtained image and the sample image can be minimized.

또한, 상기 제 2 사전에 포함된 필터의 개수는 K개이고, 상기 제 2 사전은 제 2 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득되며, 상기 제 2 사전 및 상기 제 2 희소 코드 집합은, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 2 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 샘플 영상 간의 차이가 최소가 되도록 정해질 수 있다.Also, the number of filters included in the second dictionary is K, and the second dictionary is obtained based on K sparse codes included in the second sparse code set, and the second dictionary and the second sparse code set Is obtained by adding all the results obtained by performing a convolution operation between k (k is an integer of not less than 0 and less than K) filter of the second dictionary and kth rare code of the second sparse code set for each k, and , And the difference between the divided sample images can be minimized.

또한, 상기 제 1 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며, 상기 결과 희소 코드 집합은, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 대상 영상 간의 차이가 최소가 되도록 정해질 수 있다.When the number of filters included in the first dictionary is K, the resultant sparse code set includes K sparse codes, and the resultant sparse code set includes k (k is a value between 0 and K The difference between the image obtained by adding all of the results obtained by performing the convolution operation between the k-th rare code of the resultant sparse code set and the k-th rare code of the resultant sparse code set to k, and the division target image may be minimized .

또한, 상기 제 2 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며, 상기 결과 영상은, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상일 수 있다.Also, when the number of filters included in the second dictionary is K, the resultant sparse code set includes K sparse codes, and the resultant image includes k (k is an integer greater than or equal to 0 and less than K K) < th > filter of the resultant sparse code set and the result of performing a convolution operation between k < th >

또한, 상기 방법은, 상기 컨볼루션 연산의 결과를 얻기 위해, 푸리에 변환(Fourier Transform)을 이용하여 상기 컨볼루션 연산을 행렬 곱(matrix multiplication) 연산으로 치환하는 단계를 더 포함할 수 있다.The method may further comprise the step of replacing the convolution operation with a matrix multiplication operation using a Fourier transform to obtain the result of the convolution operation.

또한, 상기 방법은, 임의의 자연수를 입력받는 단계 및 상기 K의 값을, 상기 임의의 자연수와 같은 수로 결정하는 단계를 더 포함할 수 있다.The method may further include the step of receiving an arbitrary natural number and determining the value of K as the same number as the arbitrary natural number.

또한, 상기 분할 대상 영상 및 샘플 영상은, 복수의 세포(cell)를 촬영한 영상이며, 상기 분할 샘플 영상은, 상기 샘플 영상에 포함된 복수의 세포 각각의 이미지의 윤곽선에 기초하여 복수의 부분으로 구획된 영상일 수 있다.The division target image and the sample image are images of a plurality of cells, and the division sample image is divided into a plurality of portions based on contours of images of a plurality of cells included in the sample image It can be segmented video.

또한, 상기 결과 영상은, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지의 윤곽선과, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지에서 상기 윤곽선을 제외한 부분이 서로 구별되도록 이진화(binarization)된 영상일 수 있다.The resultant image may be a binarized image such that the contour of the image of each of the plurality of cells in the divided object image and the portion of the plurality of cells in the divided object image excluding the contour are distinguished from each other .

본 발명의 일 실시예에 따른 영상 분할 장치는, 복수의 부분으로 구획될 분할 대상 영상을 획득하는 입력부, 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 희소 코드 계산부 및 상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전과, 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 결과 영상 생성부를 포함할 수 있다.An image segmentation apparatus according to an embodiment of the present invention includes an input unit for acquiring a segmentation target image to be divided into a plurality of segments, a first dictionary, which is a set of one or more filters indicating the characteristics of the sample image, Which is a set of one or more filters representing a characteristic of a divided sample image generated by dividing the sample image into a plurality of parts, And a result image generation unit for generating a result image by dividing the division target image into a plurality of parts using the dictionary and the resultant sparse code set.

또한, 상기 제 1 사전에 포함된 필터의 개수는 K개이고, 상기 제 1 사전은 상기 제 1 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득될 때, 상기 장치는, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 1 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 샘플 영상 간의 차이가 최소가 되도록 상기 제 1 사전 및 상기 제 1 희소 코드 집합을 결정하는 데이터베이스 제어부 및 상기 제 1 사전 및 상기 제 1 희소 코드 집합을 저장하는 데이터베이스를 더 포함할 수 있다.Further, when the number of filters included in the first dictionary is K, and the first dictionary is obtained based on K sparse codes included in the first sparse code set, the apparatus further comprises: the difference between the image obtained by adding all of the results obtained by performing the convolution operation between k (k is an integer equal to or more than 0 and less than K) filter and the kth rare code of the first sparse code set for k, A database control unit for determining the first dictionary and the first sparse code set to be minimum, and a database for storing the first dictionary and the first sparse code set.

또한, 상기 제 2 사전에 포함된 필터의 개수는 K개이고, 상기 제 2 사전은 상기 제 2 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득될 때, 상기 장치는, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 2 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 샘플 영상 간의 차이가 최소가 되도록 상기 제 2 사전 및 상기 제 2 희소 코드 집합을 결정하는 데이터베이스 제어부 및 상기 제 2 사전 및 상기 제 2 희소 코드 집합을 저장하는 데이터베이스를 더 포함할 수 있다.Further, when the number of filters included in the second dictionary is K and the second dictionary is obtained based on K sparse codes included in the second set of rare codes, the apparatus further comprises: a difference between the image obtained by adding all of the results obtained by performing a convolution operation between k (k is an integer equal to or more than 0 and less than K) filter and the kth rare code of the second sparse code set, The second dictionary and the second sparse code set so that the second dictionary and the second sparse code set are minimized, and a database storing the second dictionary and the second sparse code set.

또한, 상기 제 1 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며, 상기 희소 코드 계산부는, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 대상 영상 간의 차이가 최소가 되도록 상기 결과 희소 코드 집합을 결정할 수 있다.When the number of filters included in the first dictionary is K, the resultant sparse code set includes K sparse codes, and the sparse code calculator calculates k (k is an integer in the range of 0 to K Of the resultant sparse code set and a result of performing a convolution operation between kth sparse code of the resultant sparse code set and a result of the convolution operation for each k, Can be determined.

또한, 상기 제 2 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며, 상기 결과 영상 출력부는, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상을 상기 결과 영상으로 결정할 수 있다.When the number of the filters included in the second dictionary is K, the resultant sparse code set includes K sparse codes, and the resultant image output unit outputs k And the convolution operation between the kth scarce code of the resultant sparse code set and the kth sparse code of the resulting sparse code set is performed for each k.

또한, 상기 컨볼루션 연산의 결과는, 상기 컨볼루션 연산을 푸리에 변환을 이용하여 행렬 곱 연산으로 치환하는 과정을 거쳐 산출될 수 있다.Also, the result of the convolution operation may be calculated by replacing the convolution operation with a matrix multiplication operation using Fourier transform.

또한, 상기 입력부는, 임의의 자연수를 입력받으며, 상기 K의 값은, 상기 임의의 자연수와 같은 수로 결정될 수 있다.Also, the input unit receives an arbitrary natural number, and the value of K may be determined to be the same as the arbitrary natural number.

또한, 상기 분할 대상 영상 및 샘플 영상은, 복수의 세포를 촬영한 영상이며, 상기 분할 샘플 영상은, 상기 샘플 영상에 포함된 복수의 세포 각각의 이미지의 윤곽선에 기초하여 복수의 부분으로 구획된 영상일 수 있다.The division target image and the sample image are images obtained by photographing a plurality of cells, and the division sample image may include an image segmented into a plurality of segments based on contours of images of a plurality of cells included in the sample image Lt; / RTI >

또한, 상기 결과 영상은, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지의 윤곽선과, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지에서 상기 윤곽선을 제외한 부분이 서로 구별되도록 이진화된 영상일 수 있다.In addition, the resultant image may be a binarized image such that a contour of an image of each of a plurality of cells in the divided object image and a portion of the plurality of cells in the divided object image, excluding the contour, are distinguished from each other.

본 발명의 실시예에 의하면, 구획 전의 샘플 영상의 특징을 나타내는 필터로 이루어진 사전(dictionary)과, 구획 후의 샘플 영상의 특징을 나타내는 필터로 이루어진 사전의 두 가지 사전을 모두 이용하여 분할 대상 영상에 대한 구획을 수행하는 이중 사전 학습(dual dictionary learning) 기법을 도입함으로써, 세포 영상에 대한 세포 분할 작업을 높은 정확도로 수행할 수 있다. 또한, 구획 전후의 샘플 영상으로부터 학습된 사전을 구축하고 난 후에는, 분할 대상 영상에 대해서는 추가적인 학습 없이 기 구축된 사전을 이용한 간단한 연산만으로도 구획을 수행할 수 있으므로, 작업 능률 역시 향상될 수 있다.According to the embodiment of the present invention, by using both a dictionary composed of a filter showing the characteristics of a sample image before a segment and two dictionaries made of a filter showing the characteristics of a sample image after segmentation, By introducing a dual dictionary learning technique that performs segmentation, cell segmentation work on cell images can be performed with high accuracy. Further, after building the learned dictionary from the sample images before and after the segment, the segmentation target image can be segmented by a simple operation using only the pre-built dictionary without additional learning, and therefore, the work efficiency can also be improved.

도 1은 종래 기술에 의한 세포 영상 및 해당 영상에 대한 세포 분할 결과를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 합성곱 희소 코딩(convolution sparse coding, CSC)에 대해 개념적으로 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 이중 사전 학습 기법에 의한 영상 분할 방법에 대해 개념적으로 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 영상 분할 장치의 구성을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 영상 분할 방법의 순서를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 영상 분할 방법에서 예비 변수 G를 구하기 위한 과정을 개념적으로 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 영상 분할 방법의 후처리 기법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 영상 분할 방법의 수행 결과를 설명하기 위한 도면이다.
FIG. 1 is a diagram showing a cell image according to a conventional technique and a result of cell division on the image.
FIG. 2 is a conceptual illustration of convolutional sparse coding (CSC) according to an embodiment of the present invention.
FIG. 3 is a diagram for conceptually illustrating a method of dividing an image by a dual prior learning technique according to an embodiment of the present invention.
4 is a diagram illustrating the configuration of an image segmentation apparatus according to an embodiment of the present invention.
5 is a diagram illustrating a procedure of an image segmentation method according to an embodiment of the present invention.
FIG. 6 is a diagram for conceptually explaining a process for obtaining a preliminary variable G in an image segmentation method according to an embodiment of the present invention.
7 is a view for explaining a post-processing technique of the image segmentation method according to an embodiment of the present invention.
FIG. 8 is a view for explaining a result of performing an image segmentation method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.

도 1은 종래 기술에 의한 세포 영상 및 해당 영상에 대한 세포 분할 결과를 도시한 도면이다. 도 1의 왼쪽 그림은 명시야 현미경을 통해 얻어진, 복수의 세포를 나타내는 영상으로, 아직 세포 분할이 이루어지지 않은 분할 대상 영상(11)이 될 수 있다. 도 1의 오른쪽 그림은 분할 대상 영상(11)에 대해 세포 분할을 수행함으로써 얻어진 영상인 결과 영상(12)으로, 앞서 언급된 레벨 셋 모델 알고리즘을 통해 얻어진 결과이다. FIG. 1 is a diagram showing a cell image according to a conventional technique and a result of cell division on the image. 1 shows an image representing a plurality of cells obtained through a bright field microscope, which can be a segmentation image 11 that has not yet undergone cell division. The right figure of FIG. 1 is a result image 12 obtained by performing cell division on the division target image 11, and is a result obtained through the above-described level set model algorithm.

결과 영상(12)을 보면, 영상 내에서 복수의 세포 각각이 차지하는 영역을 폐곡선(13)을 이용하여 구분함으로써 세포 분할의 결과를 나타내고 있음을 알 수 있다. 즉, 각각의 폐곡선(13)은 영상 내 각 세포의 윤곽선을 나타낸다. 다만, 레벨 셋 모델 알고리즘을 비롯한 종래의 기술에 의하면, 이와 같은 결과 영상(12)의 품질이나 정확도가 보장되지 않는다는 점은 앞서 말한 바 있다.In the result image 12, it can be seen that the result of cell division is shown by dividing the area occupied by the plurality of cells in the image by using the closed curve 13. That is, each closed curve 13 represents the outline of each cell in the image. However, according to the conventional techniques including the level set model algorithm, the quality or the accuracy of the resulting image 12 is not guaranteed.

따라서, 본 발명의 일 실시예에 따른 이중 사전 학습 기법에 의한 영상 분할 방법은 상기 결과 영상(12)에 해당하는 영상 분할의 결과를, 종래의 방법에 비하여 정확하면서도 신속하게 얻는 것을 목적으로 한다. 다만, 도 1의 결과 영상(12)은 각 세포의 윤곽선을 나타내는 폐곡선(13)을 이용하여 세포 분할의 결과를 표현하였지만, 본 발명의 일 실시예에 따른 영상 분할 방법의 경우 반드시 이에 한정되는 것은 아니다.Therefore, an image segmentation method based on the dual prior learning technique according to an embodiment of the present invention aims at obtaining the result of image segmentation corresponding to the result image 12 accurately and quickly as compared with the conventional method. However, the result image 12 of FIG. 1 expresses the result of cell segmentation using the closed curve 13 representing the outline of each cell, but in the case of the image segmentation method according to an embodiment of the present invention, no.

도 2는 본 발명의 일 실시예에 따른 합성곱 희소 코딩(convolution sparse coding, CSC)에 대해 개념적으로 설명하기 위한 도면이다. 도 3을 참조하여 본 발명의 일 실시예에 따른 이중 사전 학습 기법에 대해 설명하기 전에, 도 2를 참조하여 영상의 특징을 나타내는 필터와 희소 코드를 이용하여 영상을 근사적으로 표현하는 합성곱 희소 코딩에 대해 살펴보도록 한다.FIG. 2 is a conceptual illustration of convolutional sparse coding (CSC) according to an embodiment of the present invention. Referring to FIG. 3, a redundant learning method according to an embodiment of the present invention is described. Referring to FIG. 2, a filter representing a feature of an image and a rare- Let's take a look at coding.

도 2를 참조하면, 원본 영상(21)은 픽셀 수로 표현되는 소정의 해상도(여기에서는 가로 256픽셀, 세로 256픽셀)를 가질 수 있다. 또한, 원본 영상(21)을 흑백 영상이라 가정할 때, 원본 영상(21)의 각 픽셀의 값(명도)는 정수의 값으로 표현될 수 있다. 예컨대, 각 픽셀의 값은 0(검정)부터 255(흰색)까지의 256가지 값 중 하나로 표현될 수 있다. 이와 같은 원본 영상(21)은 K(K는 자연수)개의 필터(d)와 K개의 희소 코드(sparse code, x)를 이용하여 근사적으로 표현될 수 있다. 2, the original image 21 may have a predetermined resolution (here, 256 pixels in the horizontal direction and 256 pixels in the vertical direction) represented by the number of pixels. Also, assuming that the original image 21 is a monochrome image, the value (brightness) of each pixel of the original image 21 can be expressed by an integer value. For example, the value of each pixel can be represented by one of 256 values from 0 (black) to 255 (white). Such an original image 21 can be approximated by using K (K is a natural number) filters d and K sparse codes (x).

각 필터(d)는 원본 영상(21)의 특징을 표현하는 일종의 이미지로, 일반적으로는 원본 영상(21)에 비해 적은 수의 픽셀(여기에서는 가로 11픽셀, 세로 11픽셀)을 포함할 수 있다. 이와 같은 필터의 집합을 사전(dictionary, 31)이라 정의할 수 있다. 즉, 사전(31)은 원본 영상(21)에 대한 정보의 집합이라 볼 수 있다.Each filter d is an image representing a feature of the original image 21 and may include a smaller number of pixels (here, 11 pixels in the horizontal direction and 11 pixels in the vertical direction) in comparison with the original image 21 . A set of such filters can be defined as a dictionary (31). That is, the dictionary 31 can be regarded as a set of information about the original image 21.

희소 코드(x) 역시 일종의 이미지라 볼 수 있는데, 일반적으로는 원본 영상(21)과 같거나 유사한 수의 픽셀(여기에서는 가로 256픽셀, 세로 256픽셀)을 포함할 수 있다. 희소 코드(x)에서는 대부분의 픽셀의 값이 0이고, 매우 적은 수의 픽셀만이 0이 아닌 값을 갖는다. 즉, 희소 코드(x)에 의하면 영상의 특정 부분을 제외한 모든 부분이 0이 되므로, 이러한 희소 코드(x)를 이용하여 영상의 특정 부분의 특징을 효과적으로 추출하는 것이 가능하다. 또한, 희소 코드(x)의 연산량이 감소될 수 있다는 이점 역시 아울러 갖는다.The sparse code (x) can also be regarded as an image, which may generally include a number of pixels equal to or similar to the original image 21 (256 pixels in this case and 256 pixels in height). In the sparse code (x), the value of most pixels is zero, and only a very small number of pixels have non-zero values. That is, according to the sparse code (x), all parts except the specific part of the image are zero, and it is possible to extract the characteristic of the specific part of the image effectively by using the sparse code (x). It also has the advantage that the amount of computation of the sparse code (x) can be reduced.

전술한 바와 같이 필터(d)와 희소 코드(x)의 개수가 각각 K개라 할 때, k(k는 0 이상 K 미만의 정수)번째 필터(d)와 k번째 희소 코드(x) 간의 합성곱 연산, 즉 컨볼루션(convolution) 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 근사 영상이 원본 영상(21)과 최대한 유사하도록, 즉 근사 영상과 원본 영상(21) 간의 차이가 최소화되도록, K개의 각 필터(d) 및 희소 코드(x)를 정의할 수 있다. 여기서 영상 간의 차이라 함은, 예컨대 차이를 구하고자 하는 두 영상에서 서로 위치가 같은 픽셀 간의 값의 차이를, 모든 픽셀에 대해 더한 값이 될 수 있다. As described above, when the number of the filter (d) and the number of the sparse codes (x) are K, the product product of the kth (k is an integer of not less than 0 and less than K) filter d and the kth rare code (K) so that the approximated image obtained by adding all the results of performing the convolution operation to each k is as close as possible to the original image 21, that is, the difference between the approximated image and the original image 21 is minimized. (D) and the sparse code (x) can be defined. Here, the difference between images may be a value obtained by adding, for example, a difference between values of pixels having the same positions in two images to be searched for all pixels.

이와 같이 원본 영상(21)을 가장 잘 나타낼 수 있는 K개의 각 필터(d) 및 희소 코드(x)는, 다음의 수학식 1을 만족하는 필터(d) 및 희소 코드(x)가 된다. 참고로, K의 값은 사용자로부터의 입력 혹은 영상 분할 장치(100)가 구현된 시스템의 성능에 기초하여 정해질 수 있다.Thus, each of the K filters d and the sparse code x that can best represent the original image 21 becomes a filter d and a sparse code x that satisfy the following expression (1). For reference, the value of K may be determined based on the input from the user or the performance of the system in which the image segmentation apparatus 100 is implemented.

Figure 112017030863798-pat00001
Figure 112017030863798-pat00001

상기 수학식 1에서 S는 원본 영상(21)을 나타내고, dk 및 xk는 각각 k번째 필터(d) 및 k번째 희소 코드(x)를 나타내며, α 및 λ는 임의의 상수로서 실험을 통해 최적화된 값이다. 즉, 수학식 1을 만족하는 해로서의 필터(d) 및 희소 코드(x)를 구하는 것은, 원본 영상(21)에 가장 가까운 근사 영상을 구하는 것과 사실상 같은 의미를 갖는다. In Equation (1), S represents the original image 21, d k and x k represent the k-th filter (d) and the k-th rare code (x), respectively. It is an optimized value. That is, obtaining the filter (d) and the sparse code (x) as a solution satisfying the expression (1) has substantially the same meaning as that of obtaining an approximate image closest to the original image (21).

참고로, "min"이라는 기호 및 그 아래의 "d, x"라는 인자는, min 기호 오른쪽의 식이 최소가 되도록 필터(d)와 희소 코드(x)의 값(보다 구체적으로는, 각 dk 및 xk의 값)을 결정한다는 뜻이다. 또한 "s.t"은 "such that"의 약자로, 이는 구해진 해가 "s.t."의 오른쪽에 서술된 조건(수학식 1에서는

Figure 112017030863798-pat00002
) 역시 만족하여야 한다는 뜻이다. 이러한 기호 및 인자에 관한 설명은 아래의 다른 수학식들에도 유사하게 적용될 수 있다.For reference, "min" of symbols and is the factor of "d, x" below, min sign to the value of the filter (d) with rare code (x) such that expression is at least on the right side (more specifically, each d k And the value of x k ). The term " st "is an abbreviation of " such that "
Figure 112017030863798-pat00002
) Must also be satisfied. The description of these symbols and factors can be applied similarly to the other mathematical formulas below.

도 3은 본 발명의 일 실시예에 따른 이중 사전 학습 기법에 의한 영상 분할 방법에 대해 개념적으로 설명하기 위한 도면이다. 도 3의 샘플 영상(210)은 아직 분할이 이루어지지 않은 영상으로서, 예컨대 명시야 현미경을 통해 획득된 세포 영상일 수 있다. 분할 샘플 영상(220)은 샘플 영상(210)을 복수의 부분으로 구획하여 생성된 영상으로, 샘플 영상(210)이 세포 영상일 경우 분할 샘플 영상(220)은 수작업을 통해 각 세포의 윤곽선이 명확히 표현된 영상일 수 있다.FIG. 3 is a diagram for conceptually illustrating a method of dividing an image by a dual prior learning technique according to an embodiment of the present invention. The sample image 210 of FIG. 3 may be an image that has not yet been segmented, for example, a cell image obtained through a bright field microscope. The divided sample image 220 is an image generated by dividing the sample image 210 into a plurality of portions. When the sample image 210 is a cell image, the divided sample image 220 is manually generated, It can be an image expressed.

즉, 샘플 영상(210)과 분할 샘플 영상(220)은 도 1의 분할 대상 영상(11)과 결과 영상(12)에 각각 대응될 수 있다. 이러한 샘플 영상(210) 및 분할 샘플 영상(220)은 각각 복수 개 존재할 수 있지만, 이하에서는 설명의 편의를 위해 각각 하나씩 존재한다고 가정하고 설명하도록 한다.That is, the sample image 210 and the divided sample image 220 may correspond to the division target image 11 and the result image 12, respectively, in FIG. Although there may be a plurality of the sample images 210 and the divided sample images 220, the following description will be made assuming that there is one for each of the sample images 210 and the divided sample images 220 for convenience of explanation.

샘플 영상(210)은 샘플 영상(210)의 특징을 나타내는 필터(D)의 집합인 제 1 사전(310) 및 이에 대응되는 희소 코드(X1)의 집합인 제 1 희소 코드 집합(410)을 이용하여 근사될 수 있다. 도 3을 참조하여 설명한 바와 유사하게, 제 1 사전(310)에 포함된 필터(D)의 개수와 제 1 희소 코드 집합(410)에 포함된 희소 코드(X1)의 개수가 각각 K개라 할 때, k(k는 0 이상 K 미만의 정수)번째 필터(D)와 k번째 희소 코드(X1) 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 근사 영상이 샘플 영상(210)과 최대한 유사하도록, 즉 근사 영상과 샘플 영상(210) 간의 차이가 최소화되도록, K개의 각 필터(D) 및 희소 코드(X1)를 정의할 수 있다.The sample image 210 includes a first dictionary 310 which is a set of filters D representing characteristics of the sample image 210 and a first sparse code set 410 which is a set of the corresponding rare codes X 1 Can be approximated. 3, it is assumed that the number of the filters D included in the first dictionary 310 and the number of the rare codes X 1 included in the first sparse code set 410 are K An approximate image obtained by adding all the results of performing a convolution operation between k (k is an integer equal to or more than 0 and less than K) filter D and a kth rare code X 1 for each k is obtained as a sample image 210 (D) and the sparse code (X 1 ) so that the difference between the approximated image and the sample image 210 is minimized.

또한 유사하게, 분할 샘플 영상(220)은 분할 샘플 영상(220)의 특징을 나타내는 필터(B)의 집합인 제 2 사전(320) 및 이에 대응되는 희소 코드(X2)의 집합인 제 2 희소 코드 집합(420)을 이용하여 근사될 수 있다. 제 2 사전(320)에 포함된 필터(B)의 개수와 제 2 희소 코드 집합(420)에 포함된 희소 코드(X2)의 개수는, 상기 샘플 영상(210)의 경우와 마찬가지로, 각각 K개일 수 있다. 이 때, k(k는 0 이상 K 미만의 정수)번째 필터(B)와 k번째 희소 코드(X2) 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 근사 영상이 분할 샘플 영상(220)과 최대한 유사하도록, 즉 근사 영상과 분할 샘플 영상(220) 간의 차이가 최소화되도록, K개의 각 필터(B) 및 희소 코드(X2)를 정의할 수 있다.Similarly, the divided sample image 220 includes a second dictionary 320, which is a set of filters B showing the characteristics of the divided sample image 220, and a second rare (which is a set of the corresponding rare code X 2 ) Can be approximated using a set of codes 420. The number of the filters B included in the second dictionary 320 and the number of the rare codes X 2 included in the second rare code set 420 are respectively K . In this case, the approximate image obtained by adding the results of performing the convolution operation between k (k is an integer equal to or more than 0 and less than K) filter (B) and the kth rare code (X 2 ) (B) and the sparse code (X 2 ) so that the difference between the approximated image and the divided sample image 220 is minimized.

이와 같이 샘플 영상(210)과 분할 샘플 영상(220)을 가장 잘 나타낼 수 있는 필터(D, B) 및 희소 코드(X1, X2) 는, 다음의 수학식 2를 만족하는 값으로 정해질 수 있다.The filters D and B and the sparse codes X 1 and X 2 that best represent the sample image 210 and the divided sample image 220 are determined to satisfy the following Equation 2 .

Figure 112017030863798-pat00003
Figure 112017030863798-pat00003

상기 수학식 2에서 S는 샘플 영상(210)을, L은 분할 샘플 영상(220)을 각각 나타내며, α, γ, λ1, λ2 및 τ는 임의의 상수로서 실험을 통해 최적화된 값이다. 또한, 편의상 시그마(Σ) 기호 및 D, B, X1, X2에 대해서는 인덱스 k를 생략하여 표기하였다.In Equation (2), S represents a sample image 210 and L represents a divided sample image 220, and α, γ, λ 1 , λ 2 and τ are arbitrary constants and optimized through experiments. For the sake of convenience, the sigma (Σ) symbols and the index k are omitted for D, B, X 1 , and X 2 .

수학식 2를 만족하는 해로서의 필터(D, B) 및 희소 코드(X1, X2)를 구하는 것은, 샘플 영상(210)과 분할 샘플 영상(220) 각각에 대해 최적의 근사 영상을 구하는 것과 사실상 같은 의미를 갖는다. 상기 수학식 2를 풀기 위해 맨 처음에는 필터(D, B)의 값을 무작위로 설정한 후, 학습을 통해 상기 수학식 2를 만족하는 필터(D, B)의 값을 찾아나갈 수 있는데, 풀이의 상세한 과정에 대해서는 후술하도록 한다.(D 1, B) and the sparse code (X 1 , X 2 ) as a solution satisfying the expression ( 2 ) can be obtained by obtaining an approximate optimal image for each of the sample image 210 and the divided sample image 220 It has virtually the same meaning as. In order to solve Equation (2), the values of the filters (D, B) may be randomly set and then the values of the filters (D, B) satisfying the Equation (2) Will be described in detail later.

도 4는 본 발명의 일 실시예에 따른 영상 분할 장치의 구성을 도시한 도면이다. 도 4의 영상 분할 장치(100)는 입력부(110), 데이터베이스(120), 데이터베이스 제어부(130), 희소 코드 계산부(140) 및 결과 영상 생성부(150)를 포함할 수 있다. 단, 도 4의 영상 분할 장치(100)는 본 발명의 일 실시예에 불과하므로, 도 4에 의해 본 발명의 사상이 제한 해석되는 것은 아니다.4 is a diagram illustrating the configuration of an image segmentation apparatus according to an embodiment of the present invention. 4 may include an input unit 110, a database 120, a database control unit 130, a sparse code calculation unit 140, and a resultant image generation unit 150. However, since the image dividing apparatus 100 of FIG. 4 is only one embodiment of the present invention, the concept of the present invention is not limited to FIG.

입력부(110)는 복수의 부분으로 구획될 분할 대상 영상(230)을 입력받을 수 있다. 입력부(110)는 다양한 장치를 통해 구현될 수 있는데, 영상 분할 장치(100) 외부로부터 분할 대상 영상(230)을 포함하는 입력 데이터를 수신하기 위한 데이터 버스 혹은 통신 모듈 등의 구성을 포함할 수도 있고, 분할 대상 영상(230)을 물리적으로 획득하거나 직접 생성하기 위한 스캐너(scanner), 카메라(camera) 등의 영상 장비 혹은 명시야 현미경 등을 포함할 수도 있다. 샘플 영상(210) 및 분할 샘플 영상(220) 역시 입력부(110)에 의해 획득되어 후술할 데이터베이스(120)에 저장될 수 있다.The input unit 110 may receive the partitioning target image 230 to be divided into a plurality of portions. The input unit 110 may be implemented by various devices, and may include a data bus or a communication module for receiving input data including a division target image 230 from outside the image dividing device 100 , An imaging device such as a scanner or a camera for physically acquiring or directly generating the division target image 230, or a bright field microscope. The sample image 210 and the divided sample image 220 may also be acquired by the input unit 110 and stored in a database 120 to be described later.

또한, 입력부(110)는 제 1 사전(310) 및 제 2 사전(320)이 각각 포함하는 필터(D, B)의 개수 혹은 제 1 희소 코드 집합(410) 및 제 2 희소 코드 집합(420)이 각각 포함하는 희소 코드(X1, X2)의 개수를 영상 분할 장치(100)의 사용자로부터 입력받을 수 있다. 이에 따라, 입력부(110)는 키보드(keyboard), 마우스(mouse), 터치 스크린(touch screen), 터치 패드(touch pad) 등의 입력 장치를 포함할 수 있다.The input unit 110 may store the number of the filters D and B included in the first dictionary 310 and the second dictionary 320 or the first sparse code set 410 and the second sparse code set 420, The number of the rare codes (X 1 , X 2 ) included in each of them can be inputted from the user of the image dividing device 100. Accordingly, the input unit 110 may include an input device such as a keyboard, a mouse, a touch screen, and a touch pad.

데이터베이스(120)는 샘플 영상(210) 및 분할 샘플 영상(220)을 저장할 수 있다. 또한, 데이터베이스(120)는 샘플 영상(210) 및 분할 샘플 영상(220)에 기초한 데이터인 제 1 사전(310), 제 2 사전(320), 제 1 희소 코드 집합(410) 및 제 2 희소 코드 집합(420) 등을 저장할 수 있다. 데이터베이스(120)는 구체적으로 컴퓨터 판독 기록 매체로서 구현될 수 있으며, 이러한 컴퓨터 판독 기록 매체의 예로는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 플래시 메모리(flash memory)와 같은 프로그램 명령어들을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 들 수 있다.The database 120 may store a sample image 210 and a split sample image 220. The database 120 also includes a first dictionary 310, a second dictionary 320, a first sparse code set 410, and a second sparse code, which are data based on the sample image 210 and the split sample image 220. [ Set 420, and so on. The database 120 may be embodied as a computer-readable recording medium. Examples of such computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CD-ROMs, DVDs, A magneto-optical media such as a floppy disk, a magneto-optical media such as a floppy disk, a magneto-optical media such as a floppy disk, a magneto-optical media such as a floppy disk, a magneto-optical media such as a floppy disk, a flash memory, .

데이터베이스 제어부(130)는 상기 수학식 1 및 2를 통해 설명한 원리에 기초하여, 데이터베이스(120)에 저장된 샘플 영상(210) 및 분할 샘플 영상(220)으로부터 제 1 사전(310), 제 2 사전(320), 제 1 희소 코드 집합(410) 및 제 2 희소 코드 집합(420) 등을 결정할 수 있다. 데이터베이스 제어부(130)에 의해 결정된 상기 데이터들은 데이터베이스(120)에 저장될 수 있다. 데이터베이스 제어부(130)는 그 동작의 특성상 마이크로프로세서(microprocessor)를 포함하는 연산 장치에 의해 구현될 수 있다.The database control unit 130 extracts the first dictionary 310 and the second dictionary 310 from the sample image 210 and the divided sample image 220 stored in the database 120 based on the above- 320, a first sparse code set 410, a second sparse code set 420, and the like. The data determined by the database control unit 130 may be stored in the database 120. [ The database control unit 130 may be implemented by a computing device including a microprocessor due to the nature of its operation.

한편, 영상 분할 장치(100)는 데이터베이스(120)와 데이터베이스 제어부(130)를 포함하지 않을 수도 있다. 이 경우, 영상 분할 장치(100)는 이미 구축되어 있는 제 1 사전(310), 제 2 사전(320), 제 1 희소 코드 집합(410) 및 제 2 희소 코드 집합(420)을 입력부(110)를 통해 외부로부터 입력받아 활용할 수 있다.On the other hand, the image segmentation apparatus 100 may not include the database 120 and the database control unit 130. In this case, the image segmentation apparatus 100 may include a first dictionary 310, a second dictionary 320, a first sparse code set 410, and a second sparse code set 420, And can be utilized from outside.

희소 코드 계산부(140)는 제 1 사전(310)을 이용하여, 분할 대상 영상(230)을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합(430)을 생성할 수 있다. 또한, 결과 영상 생성부(150)는 제 2 사전(320)과 결과 희소 코드 집합(430)을 이용하여, 분할 대상 영상(230)이 복수의 부분으로 구획된 결과 영상(240)을 생성할 수 있다. 즉, 희소 코드 계산부(140) 및 결과 영상 생성부(150)는 데이터베이스(120)에 구축된 데이터를 이용하여 분할 대상 영상(230)에 대한 구획 작업(분할 대상 영상(230)이 세포 영상일 경우 세포 분할 작업)을 수행할 수 있다. 이들 희소 코드 계산부(140) 및 결과 영상 생성부(150) 역시 데이터베이스 제어부(130)와 마찬가지로 마이크로프로세서(microprocessor)를 포함하는 연산 장치에 의해 구현될 수 있으며, 이들의 자세한 동작에 대해서는 후술한다.The sparse code calculation unit 140 can generate the resulting sparse code set 430 that is a set of sparse codes for the division target image 230 using the first dictionary 310. [ The resultant image generating unit 150 may generate the resultant image 240 in which the divided object image 230 is divided into a plurality of parts by using the second dictionary 320 and the resultant sparse code set 430 have. That is, the sparse code calculation unit 140 and the resultant image generation unit 150 may perform the segmentation operation on the segmentation target image 230 (the division target image 230 is the cell image segment) using the data constructed in the database 120 Cell division work) can be performed. The sparse code calculation unit 140 and the resultant image generation unit 150 may be implemented by a computing device including a microprocessor as well as the database control unit 130, and detailed operations thereof will be described later.

도 5는 본 발명의 일 실시예에 따른 영상 분할 방법의 순서를 도시한 도면이다. 도 5의 영상 분할 방법은 도 4를 참조하여 설명한 영상 분할 장치(100)에 의해 수행될 수 있다. 단, 도 5에 도시된 방법은 본 발명의 일 실시예에 불과하므로 도 5에 의해 본 발명의 사상이 한정 해석되는 것은 아니며, 도 5에 도시된 방법의 각 단계는 경우에 따라 도면에 도시된 바와 그 순서를 달리하여 수행될 수 있음은 물론이다.5 is a diagram illustrating a procedure of an image segmentation method according to an embodiment of the present invention. The image dividing method of FIG. 5 may be performed by the image dividing apparatus 100 described with reference to FIG. However, since the method shown in FIG. 5 is only an embodiment of the present invention, the concept of the present invention is not limited to FIG. 5, and each step of the method shown in FIG. And may be performed in a different order of the bar and the order.

우선, 입력부(110)가 분할 대상 영상(230)을 획득할 수 있다(S110). 그러면 데이터베이스 제어부(130)가 데이터베이스(120)에 저장된 샘플 영상(210)으로부터 제 1 사전(310) 및 제 1 희소 코드 집합(410)을 결정할 수 있다(S120). 이와 함께, 데이터베이스 제어부(130)는 데이터베이스(120)에 저장된 분할 샘플 영상(220)으로부터 제 2 사전(320) 및 제 2 희소 코드 집합(420)을 결정할 수 있다(S130).First, the input unit 110 can acquire the division target image 230 (S110). The database controller 130 may determine the first dictionary 310 and the first sparse code set 410 from the sample image 210 stored in the database 120 at step S120. In addition, the database controller 130 may determine the second dictionary 320 and the second sparse code set 420 from the split sample image 220 stored in the database 120 (S130).

상기 S120 및 S130의 단계는 실질적으로 전술한 수학식 2의 해를 구하는 과정임을 앞서 언급한 바 있다. 이하에서는 상기 수학식 2를 푸는 과정에 대해 보다 상세하게 설명하도록 한다.The above steps S120 and S130 are substantially the same as those for obtaining the solution of the above-mentioned equation (2). Hereinafter, the process of solving Equation (2) will be described in more detail.

수학식 2를 세부 문제들로 나누어 계산하기 위해, 예비 변수 Y(Y1, Y2) 및 이중 변수 U(U1, U2)를 도입할 수 있으며, 이에 따라 수학식 2는 아래와 같은 수학식 3으로 변형될 수 있고, ρ1 및 ρ2는 임의의 상수로 실험을 통해 최적화된 값이다.In order to divide equation (2) into sub-problems, a preliminary variable Y (Y 1 , Y 2 ) and a double variable U (U 1 , U 2 ) may be introduced, 3, and ρ 1 and ρ 2 are values optimized through experimentation with arbitrary constants.

Figure 112017030863798-pat00004
Figure 112017030863798-pat00004

상기 수학식 3은 각각의 변수에 따라 독립적인 세부 문제로 나뉠 수 있으며, 우선 X1을 구하기 위해 수학식 3으로부터 X1에 관한 항만을 추출하여 아래와 같은 수학식 4를 도출할 수 있다.Equation (3) can be divided into independent details according to each variable. In order to obtain X 1 , it is possible to extract the term related to X 1 from Equation (3) to derive Equation (4) as follows.

Figure 112017030863798-pat00005
Figure 112017030863798-pat00005

상기 수학식 4의 계산을 보다 용이하게 하기 위해, 푸리에 변환(Fourier transform)을 이용하여 모든 변수를 주파수 영역의 변수로 변환할 수 있으며, 그 결과 컨볼루션 연산은 보다 단순한 행렬 곱 연산으로 변환될 수 있다. 아래의 수학식 5는 수학식 4를 주파수 영역에서의 식으로 변환한 결과이다.In order to facilitate the calculation of Equation (4), it is possible to transform all variables into frequency domain variables using a Fourier transform so that the convolution operation can be converted to a simpler matrix multiplication operation have. Equation (5) below is the result of transforming Equation (4) into Equation in the frequency domain.

Figure 112017030863798-pat00006
Figure 112017030863798-pat00006

Xf1에 대한 미분 연산을 상기 수학식 5에 적용하면, 아래와 같이 수학식 6이 도출될 수 있다.If the differential operation for X f1 is applied to Equation (5), Equation (6) can be derived as follows.

Figure 112017030863798-pat00007
Figure 112017030863798-pat00007

상기 수학식 6에서, Df = [diag(df1), ..., diag(dfk)]이고, Df H 는 Df 의 복소 켤례 전치(complex conjugated transpose)이다. 수학식 6을 만족하는 Xf1는 Sherman-Morrison 공식을 통해 쉽게 계산할 수 있으며, 이로써 X1을 구할 수 있다.In the above equation (6), D f = [diag (d f1 ), ..., diag (d fk )] and D f H is a complex conjugated transpose of D f . X f1, which satisfies Equation 6, can be easily calculated using the Sherman-Morrison formula, which yields X 1 .

또한, 수학식 3에서 Y1을 구하기 위해 수학식 3으로부터 Y1에 관한 항만을 추출하여 아래와 같은 수학식 7을 도출할 수 있다.Also, in order to obtain Y 1 in Equation (3), it is possible to derive the following Equation (7) by extracting the term relating to Y 1 from Equation (3).

Figure 112017030863798-pat00008
Figure 112017030863798-pat00008

상기 수학식 7에서, Y1의 값은 수축(shrinkage) 연산을 이용하여 아래의 수학식 8과 같이 구할 수 있다.In Equation (7), the value of Y 1 can be obtained by the following Equation (8) using a shrinkage operation.

Figure 112017030863798-pat00009
Figure 112017030863798-pat00009

또한, 이중 변수 U1을 구하기 위해 수학식 3으로부터 U1에 관한 항만을 추출하여 아래와 같은 수학식 9를 도출할 수 있다.In order to obtain the double variable U 1 , it is also possible to derive the following Equation (9) by extracting the term relating to U 1 from Equation (3).

Figure 112017030863798-pat00010
Figure 112017030863798-pat00010

상기 수학식 9를 통해 구해진 U1은, 위에서 구한 X1 및 Y1에 기초하여 아래의 수학식 10과 같이 업데이트될 수 있으며, 이와 같은 업데이트는 X1-Y1의 값의 크기가 일정 수준 밑으로 수렴할 때까지 계속될 수 있다.U 1 obtained from Equation (9) can be updated as shown in Equation (10) based on X 1 and Y 1 obtained as above, and such updating is performed when the value of X 1 -Y 1 is below a certain level To converge to.

Figure 112017030863798-pat00011
Figure 112017030863798-pat00011

참고로, 상기 식은 기존의 U1의 값에 X1-Y1의 값을 더한 값으로 U1의 값을 업데이트한다는 의미가 된다. 즉, 상기 수학식 10에서 등호(=)는 등호 양변이 같다는 의미의 연산자가 아닌, 대입 연산자로서 기능하며, 이는 수학식 16과 같은, 값의 업데이트와 관련된 다른 수학식에 있어서도 같다.For reference, as the expression obtained by adding the value of X 1 -Y 1 of the value of the existing value of U 1 it is the means to update the value of U 1. That is, the equal sign (=) in Equation (10) functions as an assignment operator, not an operator in the sense that the equal sign is the same in both equations.

지금까지 설명한 바와 같은 일련의 과정을 통해 수학식 2를 만족하는 X1을 구함으로써 제 1 희소 코드 집합(410)을 결정할 수 있으며, 이하에서는 수학식 2를 만족하는 D를 구함으로써 제 1 사전(310)을 결정하는 과정에 대해 설명한다. 이를 위해 우선, 수학식 2로부터 수학식 3을 도출한 방식과 유사하게, 수학식 2에 예비 변수 G와 이중 변수 H를 도입한 후, D에 관한 항만을 추출하여 아래와 같은 수학식 11을 도출할 수 있다.The first sparse code set 410 can be determined by obtaining X 1 satisfying the expression (2) through a series of the processes described so far. Hereinafter, by obtaining D satisfying the expression (2) 310 will be described. To do this, first, a preliminary variable G and a double variable H are introduced into the equation (2), and a port relating to D is extracted to derive the following equation (11), similarly to the formula .

Figure 112017030863798-pat00012
Figure 112017030863798-pat00012

상기 수학식 11 역시, 컨볼루션 연산의 단순화를 위해, 푸리에 변환을 이용하여 주파수 영역에서의 식인 하기 수학식 12로 변환될 수 있다.Equation (11) can also be transformed into Equation (12) to be expressed in the frequency domain using the Fourier transform, for simplification of the convolution operation.

Figure 112017030863798-pat00013
Figure 112017030863798-pat00013

상기 수학식 12에 Df에 대한 미분 연산을 적용하면 아래와 같은 수학식 13이 도출되며, 이로부터 Df의 값을 구할 수 있다.When the differential operation for D f is applied to Equation (12), the following Equation (13) is derived, from which the value of D f can be obtained.

Figure 112017030863798-pat00014
Figure 112017030863798-pat00014

수학식 6의 경우와 유사하게, Xf1 = [diag(xf1), ..., diag(xfk)]이며, Xf1 H는 Xf1의 복소 켤레 전치이다. 수학식 13을 만족하는 Df1 역시 Sherman-Morrison 공식을 통해 계산될 수 있다.Similar to the case of Equation 6, X f1 = [diag (x f1 ), ..., diag (x fk )] and X f1 H is the complex conjugate transpose of X f1 . D f1, which satisfies Equation 13, can also be calculated through the Sherman-Morrison formula.

또한, 예비 변수 G를 구하기 위해 아래와 같은 수학식 14를 풀 수 있다.In order to obtain the preliminary variable G, Equation (14) below can be solved.

Figure 112017030863798-pat00015
Figure 112017030863798-pat00015

도 6은 본 발명의 일 실시예에 따른 영상 분할 방법에서 예비 변수 G를 구하기 위한 과정을 개념적으로 설명하기 위한 도면이다. G는 도 6에 도시된 바와 같이 수학식 13에서 구해진 Df에 역 푸리에 변환(inverse Fourier transform)을 수행하여 D를 구하고, 사전에 정의된 필터의 크기만큼 D를 잘라내어 G를 구한다. 이와 같이 구해진 G를 다시 샘플 영상(210)과 동일한 크기로 확장할 수 있는데, 상기 잘라냄으로써 구해진 G 외의 부분을 0으로 채움으로써 상기 확장이 수행될 수 있다. 마지막으로, 상기 확장된 G에 대해 정규화(normalization) 과정을 거칠 수 있으며, 상기 정규화된 G를 최종적인 G의 값으로 확정할 수 있다.FIG. 6 is a diagram for conceptually explaining a process for obtaining a preliminary variable G in an image segmentation method according to an embodiment of the present invention. G obtains the G to obtain a D by performing an inverse Fourier transform (inverse Fourier transform) on D f found by the equation (13), cut to the size D of the filters defined in advance as shown in Fig. The G thus obtained can be expanded to the same size as that of the sample image 210, and the extension can be performed by filling the portion other than G obtained by the trimming with 0s. Finally, a normalization process may be performed on the extended G, and the normalized G may be determined as a final G value.

한편, 이중 변수 H를 구하기 위해 다음과 같은 수학식 15를 풀 수 있다.On the other hand, Equation 15 can be solved to obtain the double variable H as follows.

Figure 112017030863798-pat00016
Figure 112017030863798-pat00016

위에서 설명한 U1의 경우와 유사하게, 상기 수학식 15를 통해 구해진 H는 위에서 구한 D 및 G에 기초하여 아래의 수학식 16과 같이 업데이트될 수 있으며, 이와 같은 업데이트는 D-G의 값의 크기가 일정 수준 밑으로 수렴할 때까지 계속될 수 있다.Similar to the case of U 1 described above, H obtained through Equation (15) can be updated as shown in Equation (16) below based on D and G obtained above, It can be continued until it converges below the level.

Figure 112017030863798-pat00017
Figure 112017030863798-pat00017

지금까지 설명한 과정을 통해 X1과 D를 구함으로써 제 1 사전(310) 및 제 1 희소 코드 집합(410)을 확정할 수 있으며, 제 2 사전(320) 및 제 2 희소 코드 집합(420) 역시 유사한 과정을 거쳐 확정될 수 있다.The first dictionary 310 and the first sparse code set 410 can be determined by obtaining X 1 and D through the process described so far and the second dictionary 320 and the second sparse code set 420 can also be determined It can be confirmed through a similar process.

이와 같이 단계 S120 및 S130이 완료되면, 희소 코드 계산부(140)는 제 1 사전(310) 및 제 2 사전(320)을 이용하여, 결과 희소 코드 집합(430)을 구할 수 있다(S140). 결과 희소 코드 집합(430)은 제 1 사전(310) 및 제 2 사전(320)이 각각 포함하는 필터(D, B)의 개수(K개)와 같은 개수의 결과 희소 코드(X)를 포함할 수 있으며, 결과 희소 코드 집합(430)은 상기 K개의 결과 희소 코드(X)를 구함으로써 산출될 수 있다. 이와 같은 결과 희소 코드 집합(430)의 산출은 아래와 같은 수학식 17을 통해 이루어질 수 있으며, 수학식 17에서도 편의상 인덱스 k는 생략되었다.When the steps S120 and S130 are completed, the sparse code calculation unit 140 can obtain the resultant sparse code set 430 using the first dictionary 310 and the second dictionary 320 (S140). The resulting sparse code set 430 includes the same number of resultant sparse codes X as the number K of filters D and B each of which includes the first dictionary 310 and the second dictionary 320 And the resulting sparse code set 430 can be computed by finding the K resultant sparse codes X. [ The calculation of the resulting sparse code set 430 can be performed by the following Equation (17), and the index k is omitted for the sake of convenience in Equation (17).

Figure 112017030863798-pat00018
Figure 112017030863798-pat00018

마지막으로, 산출된 결과 희소 코드 집합(430)을 이용하여, 아래의 수학식 18을 통해 결과 영상(240)을 생성할 수 있다(S150). 수학식 18의 L은 결과 영상(240)을 나타낸다.Finally, the resultant image 240 can be generated using Equation (18) using the calculated result set of scarce code 430 (S150). L in Equation (18) represents the resulting image 240. [

Figure 112017030863798-pat00019
Figure 112017030863798-pat00019

요컨대 본 발명의 일 실시예에 의하면, 기존의 샘플 영상(210)과, 샘플 영상(210)에 대한 정확한 분할 결과인 분할 샘플 영상(220)을 학습함으로써 제 1 사전(310) 및 제 2 사전(320)이 획득될 수 있으며, 이와 같이 획득된 제 1 사전(310) 및 제 2 사전(320)을 이용하면 새로운 분할 대상 영상(230)에 대해서는 복잡한 학습 과정을 다시 수행할 필요가 없이 수학식 17 및 18과 같은 간단한 컨볼루션 연산만으로 결과 영상(240)을 간편하게 얻을 수 있다. 또한, 앞서 언급한 바와 같이 샘플 영상(210)은 복수 개일 수 있으며, 충분히 많은 수의 샘플 영상(210)을 이용하면 제 1 사전(310) 및 제 2 사전(320)의 신뢰도가 더욱 향상될 수 있으므로, 보다 정확한 결과 영상(240)을 얻는 것이 가능하다.That is, by learning the existing sample image 210 and the divided sample image 220 as an accurate division result for the sample image 210, the first dictionary 310 and the second dictionary The first dictionary 310 and the second dictionary 320 obtained as described above can be used to perform a complicated learning process on the new division target image 230 without repeating the learning process of Equation 17 And the resultant image 240 can be easily obtained by a simple convolution operation such as < RTI ID = 0.0 > 18. ≪ / RTI > Also, as mentioned above, the number of the sample images 210 can be plural, and the reliability of the first dictionary 310 and the second dictionary 320 can be further improved by using a sufficient number of the sample images 210 Therefore, it is possible to obtain a more accurate result image 240.

도 7은 본 발명의 일 실시예에 따른 영상 분할 방법의 후처리 기법을 설명하기 위한 도면이다. 도 7의 (A) 및 (B)는 세포를 촬영한 예시적인 분할 대상 영상(230) 및 결과 영상(240)을 각각 나타낸다. 이와 같은 결과 영상(240)은 도 7의 (F)와 같은 이진화(binarization)된 영상으로 편집될 수 있다.7 is a view for explaining a post-processing technique of the image segmentation method according to an embodiment of the present invention. Figs. 7A and 7B show an example division target image 230 and a result image 240, respectively, each of which is an image of a cell. The resulting image 240 may be edited into a binarized image as shown in FIG. 7F.

이와 같은 후처리 과정으로서의 이진화 과정을 간략히 설명하면 다음과 같다. 먼저 Otsu 임계값에 기반한 다중 단계 임계값을 이용하여, 도 7의 (B)의 결과 영상(240)에서 세포막(영상에서 각 세포의 윤곽선 부분)에 해당하는 부분만 추출하여 도 7의 (C)와 같이 나타낼 수 있다. 다음으로, 완벽하게 연결되지 않은 세포막 부분을 연결시키기 위해, 모폴로지(morphology) 연산인 침식(erosion), 팽창(dilation), 열림(open) 혹은 닫힘(close) 등의 연산을 이용하여 도 7의 (D)와 같이 세포막들을 연결시킬 수 있다. A brief description of the binarization process as the post-process is as follows. 7 (C), only the portion corresponding to the cell membrane (the contour portion of each cell in the image) is extracted from the resultant image 240 of FIG. 7 (B) by using the multistep threshold value based on the Otsu threshold value. As shown in Fig. Next, in order to connect the parts of the cell membrane that are not completely connected to each other, a morphology operation such as erosion, dilation, open, D).

이에 더하여, 얇은 세포막 지역만을 추출하기 위해 위에서 언급된 모폴로지 연산을 이용하여 두껍게 표현된 세포막을 도 7의 (E)와 같이 얇게 표현할 수 있다. 마지막으로, 도 7의 (E)의 영상에 논리 연산을 이용하여 이진화된 최종 영상을 도 7의 (F)와 같이 얻을 수 있다. 즉, 이진화된 최종 영상에 의하면, 세포 각각의 윤곽선과, 세포 각각에서 윤곽선을 제외한 부분이 서로 구별되어 보임으로써, 각 세포가 영상 내에서 차지하는 영역을 명확히 알 수 있게 된다.In addition, to extract only a thin cell membrane region, the cell membrane expressed in thick by using the above-mentioned morphology operation can be represented as thin as shown in (E) of FIG. Finally, the final image binarized by using the logical operation on the image of (E) of FIG. 7 can be obtained as shown in (F) of FIG. That is, according to the finalized image of the binarized image, the outline of each cell and the portion excluding the outline in each cell are distinguished from each other, so that the area occupied by each cell can be clearly recognized.

도 8은 본 발명의 일 실시예에 따른 영상 분할 방법의 수행 결과를 설명하기 위한 도면이다. 도 8의 (A)와 (D)는 실제 사람의 뇌종양 세포를 항체에서 배양시킨 후 박제시켜 촬영한 명시야 현미경 영상이고, (B)와 (E)는 본 발명의 일 실시예에 따른 영상 분할 방법에 의한 세포 분할 결과이며, (C)와 (F)는 기존의 딥 러닝의 일종인 DNN(deep neural network)에 의한 세포 분할 결과이다. FIG. 8 is a view for explaining a result of performing an image segmentation method according to an embodiment of the present invention. 8 (A) and 8 (D) are luminescence microscope images obtained by culturing a human brain tumor cell in an antibody and culturing the same, and FIGS. 8 (B) and 8 (C) and (F) are the result of cell division by DNN (deep neural network), which is one of the conventional deep-running methods.

부연하자면, (B)와 (C)가 (A)에 대한 결과이며, (E)와 (F)가 (D)에 대한 결과이다. 상기 결과는 NVIDIA GTX Titan X(12GB) 및 Linux 14.04가 적용된 시스템에서 MATLAB을 통해 도출되었다. 또한, 제 1 사전(310) 및 제 2 사전(320)은 각각 225개의 필터(D, B)들을 포함하도록 설정되었으며, 각 필터들의 크기는 가로 11픽셀, 세로 11픽셀로 설정되었다.In addition, (B) and (C) are the results for (A), and (E) and (F) are for (D). The results were derived from MATLAB on systems with NVIDIA GTX Titan X (12GB) and Linux 14.04. Also, the first dictionary 310 and the second dictionary 320 were set to include 225 filters D and B, respectively, and the size of each filter was set to 11 pixels horizontally and 11 pixels vertically.

도 8을 참조하면, 본 발명의 일 실시예에 따른 영상 분할 방법에 의한 세포 분할 결과가 DNN에 의한 세포 분할 결과 쪽보다 더욱 정교하게(즉, 세포막이 얇게) 각 세포가 차지하는 영역을 나타내고 있음을 볼 수 있다. 또한, DNN에 의한 세포 분할 방법에 의한 결과 도출에는 상기 조건에서 1.5일이 소요되었음에 비해, 본 발명의 일 실시예에 따른 영상 분할 방법에 의한 결과 도출에는 CPU를 이용할 경우 58분, GPU를 이용할 경우 12분이 소요되었다. 즉, 본 발명의 일 실시예에 따른 영상 분할 방법에 의하면 기존의 방법에 비해 더욱 빠르면서도 정확하게 세포 분할을 수행하는 것이 가능함을 알 수 있다.Referring to FIG. 8, the cell division result obtained by the image segmentation method according to an embodiment of the present invention shows a region occupied by each cell more finely (i.e., thinner cell membrane) than the result of cell division by DNN can see. In addition, while it took 1.5 days under the above conditions to derive the result by the DNN-based cell division method, the result of the image segmentation method according to the embodiment of the present invention is 58 minutes when the CPU is used and the GPU is used The case took 12 minutes. That is, according to the image segmentation method according to an embodiment of the present invention, it is possible to perform cell segmentation more quickly and accurately than the conventional method.

본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step of the flowchart and each block of the block diagrams appended to the present invention may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus so that the instructions, which may be executed by a processor of a computer or other programmable data processing apparatus, And means for performing the functions described in each step are created. These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible for the instructions stored in the block diagram to produce a manufacturing item containing instruction means for performing the functions described in each block or flowchart of the block diagram. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the processing equipment provide the steps for executing the functions described in each block of the block diagram and at each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Also, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and changes may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents thereof should be construed as falling within the scope of the present invention.

100: 영상 분할 장치
110: 입력부
120: 데이터베이스
130: 데이터베이스 제어부
140: 희소 코드 계산부
150: 결과 영상 생성부
100: image dividing device
110: input unit
120: Database
130:
140: Sparse code calculation unit
150:

Claims (20)

복수의 부분으로 구획될 분할 대상 영상을 획득하는 단계;
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전(dictionary)을 획득하는 단계;
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전을 획득하는 단계;
상기 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 단계; 및
상기 제 2 사전 및 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 단계를 포함하며,
상기 제 1 사전에 포함된 필터의 개수는 K개이고, 상기 제 1 사전은 제 1 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득되며,
상기 제 1 사전 및 상기 제 1 희소 코드 집합은,
상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 1 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션(convolution) 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 샘플 영상 간의 차이가 최소가 되도록 정해지는
영상 분할 방법.
Obtaining a division target image to be divided into a plurality of portions;
Obtaining a first dictionary that is a set of one or more filters that characterize a sample image;
Obtaining a second dictionary, which is a set of one or more filters that characterize the divided sample images generated by dividing the sample image into a plurality of portions;
Generating a resultant sparse code set that is a set of sparse codes for the segmentation target image using the first dictionary; And
Generating a resultant image by partitioning the segmentation target image into a plurality of segments using the second dictionary and the resultant sparse code set,
Wherein the number of filters included in the first dictionary is K, the first dictionary is obtained based on K sparse codes included in the first sparse code set,
Wherein the first dictionary and the first sparse code set comprise:
A convolution operation between k (k is an integer of 0 or more and less than K) first filter of the first dictionary and kth rare code of the first sparse code set is performed for each k, And the difference between the sample images is set to be minimum
Image segmentation method.
삭제delete 복수의 부분으로 구획될 분할 대상 영상을 획득하는 단계;
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전(dictionary)을 획득하는 단계;
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전을 획득하는 단계;
상기 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 단계; 및
상기 제 2 사전 및 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 단계를 포함하며,
상기 제 2 사전에 포함된 필터의 개수는 K개이고, 상기 제 2 사전은 제 2 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득되며,
상기 제 2 사전 및 상기 제 2 희소 코드 집합은,
상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 2 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션(convolution) 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 샘플 영상 간의 차이가 최소가 되도록 정해지는
영상 분할 방법.
Obtaining a division target image to be divided into a plurality of portions;
Obtaining a first dictionary that is a set of one or more filters that characterize a sample image;
Obtaining a second dictionary, which is a set of one or more filters that characterize the divided sample images generated by dividing the sample image into a plurality of portions;
Generating a resultant sparse code set that is a set of sparse codes for the segmentation target image using the first dictionary; And
Generating a resultant image by partitioning the segmentation target image into a plurality of segments using the second dictionary and the resultant sparse code set,
The number of filters included in the second dictionary is K and the second dictionary is obtained based on K sparse codes included in the second set of rare codes,
The second dictionary and the second set of rare codes,
A convolution operation between k (k is an integer of 0 or more and less than K) second filter of the second dictionary and kth rare code of the second sparse code set is performed for each k, And the difference between the sample images is set to be minimum
Image segmentation method.
복수의 부분으로 구획될 분할 대상 영상을 획득하는 단계;
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전(dictionary)을 획득하는 단계;
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전을 획득하는 단계;
상기 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 단계; 및
상기 제 2 사전 및 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 단계를 포함하며,
상기 제 1 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며,
상기 결과 희소 코드 집합은, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 대상 영상 간의 차이가 최소가 되도록 정해지는
영상 분할 방법.
Obtaining a division target image to be divided into a plurality of portions;
Obtaining a first dictionary that is a set of one or more filters that characterize a sample image;
Obtaining a second dictionary, which is a set of one or more filters that characterize the divided sample images generated by dividing the sample image into a plurality of portions;
Generating a resultant sparse code set that is a set of sparse codes for the segmentation target image using the first dictionary; And
Generating a resultant image by partitioning the segmentation target image into a plurality of segments using the second dictionary and the resultant sparse code set,
When the number of filters included in the first dictionary is K, the resulting sparse code set includes K sparse codes,
The resultant sparse code set is obtained by performing a convolution operation between k (k is an integer of 0 or more and less than K) th filter of the first dictionary and the kth rare code of the resulting sparse code set for each k And the difference between the obtained image and the division target image is set to be minimum
Image segmentation method.
복수의 부분으로 구획될 분할 대상 영상을 획득하는 단계;
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전(dictionary)을 획득하는 단계;
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전을 획득하는 단계;
상기 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 단계; 및
상기 제 2 사전 및 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 단계를 포함하며,
상기 제 2 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며,
상기 결과 영상은, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상인
영상 분할 방법.
Obtaining a division target image to be divided into a plurality of portions;
Obtaining a first dictionary that is a set of one or more filters that characterize a sample image;
Obtaining a second dictionary, which is a set of one or more filters that characterize the divided sample images generated by dividing the sample image into a plurality of portions;
Generating a resultant sparse code set that is a set of sparse codes for the segmentation target image using the first dictionary; And
Generating a resultant image by partitioning the segmentation target image into a plurality of segments using the second dictionary and the resultant sparse code set,
When the number of filters included in the second dictionary is K, the resulting sparse code set includes K sparse codes,
The resultant image is obtained by adding all the results obtained by performing a convolution operation between the kth (k is an integer of 0 or more and less than K) filter of the second dictionary and the kth rare code of the resulting sparse code set for each k Video-in
Image segmentation method.
제 1 항에 있어서,
상기 컨볼루션 연산의 결과를 얻기 위해, 푸리에 변환(Fourier Transform)을 이용하여 상기 컨볼루션 연산을 행렬 곱(matrix multiplication) 연산으로 치환하는 단계를 더 포함하는
영상 분할 방법.
The method according to claim 1,
Further comprising the step of replacing the convolution operation with a matrix multiplication operation using a Fourier transform to obtain the result of the convolution operation
Image segmentation method.
제 1 항에 있어서,
임의의 자연수를 입력받는 단계; 및
상기 K의 값을, 상기 임의의 자연수와 같은 수로 결정하는 단계를 더 포함하는
영상 분할 방법.
The method according to claim 1,
Receiving an arbitrary natural number; And
Further comprising the step of determining the value of K as a number equal to the arbitrary natural number
Image segmentation method.
제 1 항에 있어서,
상기 분할 대상 영상 및 샘플 영상은, 복수의 세포(cell)를 촬영한 영상이며, 상기 분할 샘플 영상은, 상기 샘플 영상에 포함된 복수의 세포 각각의 이미지의 윤곽선에 기초하여 복수의 부분으로 구획된 영상인
영상 분할 방법.
The method according to claim 1,
Wherein the division target image and the sample image are images obtained by photographing a plurality of cells and the division sample image is divided into a plurality of portions based on contours of images of a plurality of cells included in the sample image Video-in
Image segmentation method.
제 8 항에 있어서,
상기 결과 영상은, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지의 윤곽선과, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지에서 상기 윤곽선을 제외한 부분이 서로 구별되도록 이진화(binarization)된 영상인
영상 분할 방법.
9. The method of claim 8,
Wherein the resultant image is a binarized image such that a contour of an image of each of a plurality of cells in the divided object image and a portion of the plurality of cells in the divided object image excluding the contour are distinguished from each other
Image segmentation method.
복수의 부분으로 구획될 분할 대상 영상을 획득하는 입력부;
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드의 집합인 결과 희소 코드 집합을 생성하는 희소 코드 계산부;
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전과, 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 결과 영상 생성부;
상기 제 1 사전에 포함된 필터의 개수는 K개이고, 상기 제 1 사전은 상기 제 1 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득될 때, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 1 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 샘플 영상 간의 차이가 최소가 되도록 상기 제 1 사전 및 상기 제 1 희소 코드 집합을 결정하는 데이터베이스 제어부; 및
상기 제 1 사전 및 상기 제 1 희소 코드 집합을 저장하는 데이터베이스를 포함하는
영상 분할 장치.
An input unit for acquiring a division target image to be divided into a plurality of portions;
A sparse code calculation unit for generating a resultant sparse code set which is a set of sparse codes for the segmentation target image, using a first dictionary that is a set of one or more filters indicating characteristics of a sample image;
A second dictionary, which is a set of one or more filters showing the characteristics of the divided sample images generated by dividing the sample image into a plurality of parts, and a second dictionary that is a function of dividing the divided object image into a plurality of parts A result image generating unit for generating a result image;
Wherein when the number of filters included in the first dictionary is K and the first dictionary is obtained based on K sparse codes included in the first sparse code set, k of the first dictionary K) of the first sparse code set and a kth sparse code of the first sparse code set are multiplied by k, A database control unit for determining a dictionary and the first sparse code set; And
And a database storing the first dictionary and the first sparse code set
Image segmentation device.
삭제delete 복수의 부분으로 구획될 분할 대상 영상을 획득하는 입력부;
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드의 집합인 결과 희소 코드 집합을 생성하는 희소 코드 계산부;
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전과, 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 결과 영상 생성부;
상기 제 2 사전에 포함된 필터의 개수는 K개이고, 상기 제 2 사전은 상기 제 2 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득될 때, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 2 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 샘플 영상 간의 차이가 최소가 되도록 상기 제 2 사전 및 상기 제 2 희소 코드 집합을 결정하는 데이터베이스 제어부; 및
상기 제 2 사전 및 상기 제 2 희소 코드 집합을 저장하는 데이터베이스를 포함하는
영상 분할 장치.
An input unit for acquiring a division target image to be divided into a plurality of portions;
A sparse code calculation unit for generating a resultant sparse code set which is a set of sparse codes for the segmentation target image, using a first dictionary that is a set of one or more filters indicating characteristics of a sample image;
A second dictionary, which is a set of one or more filters showing the characteristics of the divided sample images generated by dividing the sample image into a plurality of parts, and a second dictionary that is a function of dividing the divided object image into a plurality of parts A result image generating unit for generating a result image;
Wherein when the number of filters included in the second dictionary is K and the second dictionary is obtained based on K sparse codes included in the second sparse code set, k of the second dictionary K) and the kth scarce code of the second sparse code set are all added to the k-th sparse code and the kth sparse code of the second sparse code set, 2 dictionary and the second sparse code set; And
And a database for storing the second dictionary and the second set of rare codes
Image segmentation device.
복수의 부분으로 구획될 분할 대상 영상을 획득하는 입력부;
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드의 집합인 결과 희소 코드 집합을 생성하는 희소 코드 계산부; 및
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전과, 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 결과 영상 생성부를 포함하며,
상기 제 1 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며,
상기 희소 코드 계산부는, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 대상 영상 간의 차이가 최소가 되도록 상기 결과 희소 코드 집합을 결정하는
영상 분할 장치.
An input unit for acquiring a division target image to be divided into a plurality of portions;
A sparse code calculation unit for generating a resultant sparse code set which is a set of sparse codes for the segmentation target image, using a first dictionary that is a set of one or more filters indicating characteristics of a sample image; And
A second dictionary, which is a set of one or more filters showing the characteristics of the divided sample images generated by dividing the sample image into a plurality of parts, and a second dictionary that is a function of dividing the divided object image into a plurality of parts And a result image generating unit for generating a result image,
When the number of filters included in the first dictionary is K, the resulting sparse code set includes K sparse codes,
The sparse code calculation unit adds all the results obtained by performing the convolution operation between the kth (k is an integer of 0 or more and less than K) filter of the first dictionary and the kth rare code of the resultant sparse code set for each k The resultant sparse code set is determined such that the difference between the obtained image and the division target image is minimized
Image segmentation device.
복수의 부분으로 구획될 분할 대상 영상을 획득하는 입력부;
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드의 집합인 결과 희소 코드 집합을 생성하는 희소 코드 계산부; 및
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전과, 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 결과 영상 생성부를 포함하며,
상기 제 2 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며,
상기 결과 영상 출력부는, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상을 상기 결과 영상으로 결정하는
영상 분할 장치.
An input unit for acquiring a division target image to be divided into a plurality of portions;
A sparse code calculation unit for generating a resultant sparse code set which is a set of sparse codes for the segmentation target image, using a first dictionary that is a set of one or more filters indicating characteristics of a sample image; And
A second dictionary, which is a set of one or more filters showing the characteristics of the divided sample images generated by dividing the sample image into a plurality of parts, and a second dictionary that is a function of dividing the divided object image into a plurality of parts And a result image generating unit for generating a result image,
When the number of filters included in the second dictionary is K, the resulting sparse code set includes K sparse codes,
The resultant image output unit adds all the results obtained by performing a convolution operation between the kth (k is an integer of 0 or more and less than K) filter of the second dictionary and the kth rare code of the resultant sparse code set for each k And determines the obtained image as the resultant image
Image segmentation device.
제 10 항에 있어서,
상기 컨볼루션 연산의 결과는, 상기 컨볼루션 연산을 푸리에 변환을 이용하여 행렬 곱 연산으로 치환하는 과정을 거쳐 산출되는
영상 분할 장치.
11. The method of claim 10,
The result of the convolution operation is calculated by replacing the convolution operation with a matrix multiplication operation using Fourier transform
Image segmentation device.
제 10 항에 있어서,
상기 입력부는, 임의의 자연수를 입력받으며,
상기 K의 값은, 상기 임의의 자연수와 같은 수로 결정되는
영상 분할 장치.
11. The method of claim 10,
The input unit receives an arbitrary natural number,
The value of K is determined by the same number as the arbitrary natural number
Image segmentation device.
제 10 항에 있어서,
상기 분할 대상 영상 및 샘플 영상은, 복수의 세포를 촬영한 영상이며, 상기 분할 샘플 영상은, 상기 샘플 영상에 포함된 복수의 세포 각각의 이미지의 윤곽선에 기초하여 복수의 부분으로 구획된 영상인
영상 분할 장치.
11. The method of claim 10,
Wherein the division target image and the sample image are images obtained by photographing a plurality of cells and the division sample image is a video image segmented into a plurality of parts based on contours of images of a plurality of cells included in the sample image
Image segmentation device.
제 17 항에 있어서,
상기 결과 영상은, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지의 윤곽선과, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지에서 상기 윤곽선을 제외한 부분이 서로 구별되도록 이진화된 영상인
영상 분할 장치.
18. The method of claim 17,
Wherein the resultant image is a binarized image such that a contour of an image of each of a plurality of cells in the divided object image and a portion of the plurality of cells in the divided object image excluding the contour are distinguished from each other
Image segmentation device.
제 1 항에 기재된 방법에 따른 각각의 단계를 수행하는, 컴퓨터 판독 가능 기록매체에 저장된 애플리케이션 프로그램. 12. An application program stored on a computer-readable recording medium for performing the respective steps according to the method of claim 1. 제 1 항에 기재된 방법에 따른 각각의 단계를 수행하는 명령어를 포함하는 프로그램이 기록된 컴퓨터 판독 가능 기록매체A computer-readable recording medium on which a program is recorded, the program comprising instructions for performing the respective steps according to the method of claim 1
KR1020170040008A 2017-03-29 2017-03-29 Apparatus and method for image segmentation using dual dictionary learning KR101914244B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170040008A KR101914244B1 (en) 2017-03-29 2017-03-29 Apparatus and method for image segmentation using dual dictionary learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170040008A KR101914244B1 (en) 2017-03-29 2017-03-29 Apparatus and method for image segmentation using dual dictionary learning

Publications (2)

Publication Number Publication Date
KR20180110455A KR20180110455A (en) 2018-10-10
KR101914244B1 true KR101914244B1 (en) 2018-11-01

Family

ID=63876257

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170040008A KR101914244B1 (en) 2017-03-29 2017-03-29 Apparatus and method for image segmentation using dual dictionary learning

Country Status (1)

Country Link
KR (1) KR101914244B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230025990A (en) 2021-08-17 2023-02-24 연세대학교 산학협력단 Apparatus and Method for Orthogonal Sparse Coding using Discrete Cosine Transform
US11908133B2 (en) 2020-09-25 2024-02-20 Korea University Research And Business Foundation Method for cell image segmentation using scribble labels, recording medium and device for performing the method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102084682B1 (en) * 2019-01-07 2020-03-04 기초과학연구원 Generating method for specialized microscope images using artificial neural network and image processing apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문:BIGONG WANG ET AL.,*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11908133B2 (en) 2020-09-25 2024-02-20 Korea University Research And Business Foundation Method for cell image segmentation using scribble labels, recording medium and device for performing the method
KR20230025990A (en) 2021-08-17 2023-02-24 연세대학교 산학협력단 Apparatus and Method for Orthogonal Sparse Coding using Discrete Cosine Transform

Also Published As

Publication number Publication date
KR20180110455A (en) 2018-10-10

Similar Documents

Publication Publication Date Title
CN110889853B (en) Tumor segmentation method based on residual error-attention deep neural network
CN110889852B (en) Liver segmentation method based on residual error-attention deep neural network
CN112150428B (en) Medical image segmentation method based on deep learning
US8712154B2 (en) Image processing system and method
CN111488921B (en) Intelligent analysis system and method for panoramic digital pathological image
WO2021203795A1 (en) Pancreas ct automatic segmentation method based on saliency dense connection expansion convolutional network
CN108154519A (en) Dividing method, device and the storage medium of eye fundus image medium vessels
CN111260055A (en) Model training method based on three-dimensional image recognition, storage medium and equipment
KR101914244B1 (en) Apparatus and method for image segmentation using dual dictionary learning
CN107146222B (en) Medical image compression method based on human anatomy structure similarity
CN112233129B (en) Deep learning-based parallel multi-scale attention mechanism semantic segmentation method and device
CN111161279A (en) Medical image segmentation method and device and server
CN110349170B (en) Full-connection CRF cascade FCN and K mean brain tumor segmentation algorithm
KR20220023323A (en) Automatic multi-organ and tumor contouring system based on artificial intelligence for radiation treatment planning
CN112434172A (en) Pathological image prognosis feature weight calculation method and system
Kumar et al. Automatic image segmentation using wavelets
CN116664605B (en) Medical image tumor segmentation method based on diffusion model and multi-mode fusion
CN113222903A (en) Full-section histopathology image analysis method and system
CN112862684A (en) Data processing method for depth map super-resolution reconstruction and denoising neural network
CN110176021B (en) Level set image segmentation method and system for saliency information combined with brightness correction
CN110991408A (en) Method and device for segmenting white matter high signal based on deep learning method
KR102526415B1 (en) System and method for semi-supervised single image depth estimation and computer program for the same
Fetisov et al. Unsupervised Prostate Cancer Histopathology Image Segmentation via Meta-Learning
Rmaidh et al. A New Method for Solving Image Segmentation Problems using Global Optimization
Zhang et al. Salient detection network for lung nodule detection in 3D Thoracic MRI Images

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right