KR101914244B1 - Apparatus and method for image segmentation using dual dictionary learning - Google Patents
Apparatus and method for image segmentation using dual dictionary learning Download PDFInfo
- Publication number
- KR101914244B1 KR101914244B1 KR1020170040008A KR20170040008A KR101914244B1 KR 101914244 B1 KR101914244 B1 KR 101914244B1 KR 1020170040008 A KR1020170040008 A KR 1020170040008A KR 20170040008 A KR20170040008 A KR 20170040008A KR 101914244 B1 KR101914244 B1 KR 101914244B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- dictionary
- sparse code
- sparse
- resultant
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G06K9/0014—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/695—Preprocessing, e.g. image segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
본 발명의 일 실시예에 따른 영상 분할 방법은, 복수의 부분으로 구획될 분할 대상 영상을 획득하는 단계, 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전(dictionary)를 획득하는 단계, 상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전을 획득하는 단계, 상기 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 단계 및 상기 제 2 사전 및 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 단계를 포함할 수 있다.An image segmentation method according to an embodiment of the present invention includes: acquiring a segmentation target image to be divided into a plurality of segments; acquiring a first dictionary, which is a set of one or more filters indicating characteristics of the sample image; Acquiring a second dictionary, which is a set of one or more filters indicating characteristics of a divided sample image generated by dividing the sample image into a plurality of parts, using the first dictionary to generate a sparse code generating a resulting sparse code set that is a set of sparse codes, and generating a resultant image by partitioning the divided object image into a plurality of portions using the second dictionary and the resulting sparse code set have.
Description
본 발명은 사람의 세포(cell) 등의 객체를 복수 개 촬영한 명시야 현미경(bright-field microscope) 영상에 있어서, 상기 영상 내에서 복수 개의 개체 각각이 차지하는 영역에 따라 영상을 복수의 부분으로 분할하는 과정을 빠르고 정확하게 수행하기 위한 장치 및 방법에 관한 것이다. The present invention relates to a bright-field microscope image in which a plurality of objects such as a human cell are photographed, wherein the image is divided into a plurality of portions according to an area occupied by each of the plurality of objects in the image The present invention relates to an apparatus and a method for quickly and accurately performing a process for acquiring an image.
명시야 현미경과 같은 광학 기기를 이용하여 촬영된 세포 영상에서, 각 세포가 차지하는 영역을 정확히 구획하는 작업을 세포 분할(cell segmentation) 작업이라 한다. 세포 분할 작업을 수행함으로써 질병의 진단 및 진행 경과 확인이 가능하기 때문에, 세포 분할 작업은 의료 영상 처리 과정에서 매우 중요한 비중을 차지한다. 본래 이와 같은 세포 분할 작업은 숙련된 전문가에 의한 수작업을 통해 수행되어 왔으나, 이러한 수작업은 정확도가 담보될 수 있는 반면, 시간과 노력의 소모가 크다는 문제를 갖는다.Cell segmentation is the process of accurately segmenting the area occupied by each cell in a cell image taken using an optical device such as a bright field microscope. Cell division is a very important part of the medical image processing process because the diagnosis and progress of the disease can be confirmed by performing the cell division operation. Originally, such cell division work has been carried out manually by a skilled expert, but such manual work has problems in that accuracy and accuracy are guaranteed, while consuming a lot of time and effort.
이에, 세포 분할 작업을 자동화하기 위한 연구가 활발히 진행되어 왔으며, 그 결과 레벨 셋(level set) 모델 알고리즘, Chan-Vese 모델 알고리즘 등의 기법이 고안되었다. 하지만 이들 기법은 세포의 가장자리(edge) 정보 혹은 핵의 위치와 같은 사전 지식을 필요로 하며, 복잡한 영상에 대해 적용할 경우 그 정확도가 떨어질 가능성이 높다. Therefore, studies have been actively carried out to automate cell division. As a result, techniques such as a level set model algorithm and a Chan-Vese model algorithm have been devised. However, these techniques require prior knowledge such as cell edge information or nucleation location, and the accuracy of the technique is likely to be reduced when applied to complex images.
한편, 세포 분할 작업 자동화의 또 다른 방법으로서, DNN(deep neural network)과 같은 기계 학습(machine learning) 기법이 적용된 방법을 들 수 있다. 기계 학습 기법을 이용하면 영상에 대한 사전 지식이 필요치 않으며, 학습 데이터가 많이 쌓일수록 그 정확도가 높아진다는 장점을 갖는다. 하지만 기계 학습 기법 역시, 방대한 양의 학습 데이터로 인해 높은 성능의 시스템이 필요하며 작업에 과다한 시간이 소요된다는 단점을 아울러 갖는다. On the other hand, another method of automating the cell division operation is a method in which a machine learning technique such as a deep neural network (DNN) is applied. The use of machine learning techniques does not require prior knowledge of the image, and has the advantage that the more the learning data is accumulated, the higher the accuracy. However, machine learning techniques also have a disadvantage of requiring a high-performance system due to a large amount of learning data and requiring a long time for the operation.
본 발명이 해결하고자 하는 과제는, 복수의 객체를 촬영한 영상에 대한 구획(segmentation) 작업, 특히 사람을 비롯한 생명체의 세포를 촬영한 영상에 대한 세포 분할 작업을, 보다 빠르면서도 정확히 수행할 수 있는 장치 및 방법을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for performing a segmentation operation on an image of a plurality of objects, in particular, a cell division operation on an image obtained by photographing living cells including a human being, Apparatus and method.
다만, 본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지는 않았으나 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있는 목적을 포함할 수 있다.It is to be understood, however, that the scope of the present invention is not limited to the above-mentioned objects, and may be embodied from the following description, which may be understood by those skilled in the art to which the present invention belongs. have.
본 발명의 일 실시예에 따른 영상 분할 방법은, 복수의 부분으로 구획될 분할 대상 영상을 획득하는 단계, 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전(dictionary)를 획득하는 단계, 상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전을 획득하는 단계, 상기 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 단계 및 상기 제 2 사전 및 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 단계를 포함할 수 있다.An image segmentation method according to an embodiment of the present invention includes: acquiring a segmentation target image to be divided into a plurality of segments; acquiring a first dictionary, which is a set of one or more filters indicating characteristics of the sample image; Acquiring a second dictionary, which is a set of one or more filters indicating characteristics of a divided sample image generated by dividing the sample image into a plurality of parts, using the first dictionary to generate a sparse code generating a resulting sparse code set that is a set of sparse codes, and generating a resultant image by partitioning the divided object image into a plurality of portions using the second dictionary and the resulting sparse code set have.
또한, 상기 제 1 사전에 포함된 필터의 개수는 K개이고, 상기 제 1 사전은 제 1 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득되며, 상기 제 1 사전 및 상기 제 1 희소 코드 집합은, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 1 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션(convolution) 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 샘플 영상 간의 차이가 최소가 되도록 정해질 수 있다.Also, the number of filters included in the first dictionary is K, the first dictionary is obtained based on K sparse codes included in the first sparse code set, and the first dictionary and the first sparse code set Is a result of performing a convolution operation between k (k is an integer of 0 or more and less than K) first filter of the first dictionary and kth rare code of the first sparse code set for each k The difference between the obtained image and the sample image can be minimized.
또한, 상기 제 2 사전에 포함된 필터의 개수는 K개이고, 상기 제 2 사전은 제 2 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득되며, 상기 제 2 사전 및 상기 제 2 희소 코드 집합은, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 2 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 샘플 영상 간의 차이가 최소가 되도록 정해질 수 있다.Also, the number of filters included in the second dictionary is K, and the second dictionary is obtained based on K sparse codes included in the second sparse code set, and the second dictionary and the second sparse code set Is obtained by adding all the results obtained by performing a convolution operation between k (k is an integer of not less than 0 and less than K) filter of the second dictionary and kth rare code of the second sparse code set for each k, and , And the difference between the divided sample images can be minimized.
또한, 상기 제 1 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며, 상기 결과 희소 코드 집합은, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 대상 영상 간의 차이가 최소가 되도록 정해질 수 있다.When the number of filters included in the first dictionary is K, the resultant sparse code set includes K sparse codes, and the resultant sparse code set includes k (k is a value between 0 and K The difference between the image obtained by adding all of the results obtained by performing the convolution operation between the k-th rare code of the resultant sparse code set and the k-th rare code of the resultant sparse code set to k, and the division target image may be minimized .
또한, 상기 제 2 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며, 상기 결과 영상은, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상일 수 있다.Also, when the number of filters included in the second dictionary is K, the resultant sparse code set includes K sparse codes, and the resultant image includes k (k is an integer greater than or equal to 0 and less than K K) < th > filter of the resultant sparse code set and the result of performing a convolution operation between k < th >
또한, 상기 방법은, 상기 컨볼루션 연산의 결과를 얻기 위해, 푸리에 변환(Fourier Transform)을 이용하여 상기 컨볼루션 연산을 행렬 곱(matrix multiplication) 연산으로 치환하는 단계를 더 포함할 수 있다.The method may further comprise the step of replacing the convolution operation with a matrix multiplication operation using a Fourier transform to obtain the result of the convolution operation.
또한, 상기 방법은, 임의의 자연수를 입력받는 단계 및 상기 K의 값을, 상기 임의의 자연수와 같은 수로 결정하는 단계를 더 포함할 수 있다.The method may further include the step of receiving an arbitrary natural number and determining the value of K as the same number as the arbitrary natural number.
또한, 상기 분할 대상 영상 및 샘플 영상은, 복수의 세포(cell)를 촬영한 영상이며, 상기 분할 샘플 영상은, 상기 샘플 영상에 포함된 복수의 세포 각각의 이미지의 윤곽선에 기초하여 복수의 부분으로 구획된 영상일 수 있다.The division target image and the sample image are images of a plurality of cells, and the division sample image is divided into a plurality of portions based on contours of images of a plurality of cells included in the sample image It can be segmented video.
또한, 상기 결과 영상은, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지의 윤곽선과, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지에서 상기 윤곽선을 제외한 부분이 서로 구별되도록 이진화(binarization)된 영상일 수 있다.The resultant image may be a binarized image such that the contour of the image of each of the plurality of cells in the divided object image and the portion of the plurality of cells in the divided object image excluding the contour are distinguished from each other .
본 발명의 일 실시예에 따른 영상 분할 장치는, 복수의 부분으로 구획될 분할 대상 영상을 획득하는 입력부, 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 희소 코드 계산부 및 상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전과, 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 결과 영상 생성부를 포함할 수 있다.An image segmentation apparatus according to an embodiment of the present invention includes an input unit for acquiring a segmentation target image to be divided into a plurality of segments, a first dictionary, which is a set of one or more filters indicating the characteristics of the sample image, Which is a set of one or more filters representing a characteristic of a divided sample image generated by dividing the sample image into a plurality of parts, And a result image generation unit for generating a result image by dividing the division target image into a plurality of parts using the dictionary and the resultant sparse code set.
또한, 상기 제 1 사전에 포함된 필터의 개수는 K개이고, 상기 제 1 사전은 상기 제 1 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득될 때, 상기 장치는, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 1 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 샘플 영상 간의 차이가 최소가 되도록 상기 제 1 사전 및 상기 제 1 희소 코드 집합을 결정하는 데이터베이스 제어부 및 상기 제 1 사전 및 상기 제 1 희소 코드 집합을 저장하는 데이터베이스를 더 포함할 수 있다.Further, when the number of filters included in the first dictionary is K, and the first dictionary is obtained based on K sparse codes included in the first sparse code set, the apparatus further comprises: the difference between the image obtained by adding all of the results obtained by performing the convolution operation between k (k is an integer equal to or more than 0 and less than K) filter and the kth rare code of the first sparse code set for k, A database control unit for determining the first dictionary and the first sparse code set to be minimum, and a database for storing the first dictionary and the first sparse code set.
또한, 상기 제 2 사전에 포함된 필터의 개수는 K개이고, 상기 제 2 사전은 상기 제 2 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득될 때, 상기 장치는, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 2 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 샘플 영상 간의 차이가 최소가 되도록 상기 제 2 사전 및 상기 제 2 희소 코드 집합을 결정하는 데이터베이스 제어부 및 상기 제 2 사전 및 상기 제 2 희소 코드 집합을 저장하는 데이터베이스를 더 포함할 수 있다.Further, when the number of filters included in the second dictionary is K and the second dictionary is obtained based on K sparse codes included in the second set of rare codes, the apparatus further comprises: a difference between the image obtained by adding all of the results obtained by performing a convolution operation between k (k is an integer equal to or more than 0 and less than K) filter and the kth rare code of the second sparse code set, The second dictionary and the second sparse code set so that the second dictionary and the second sparse code set are minimized, and a database storing the second dictionary and the second sparse code set.
또한, 상기 제 1 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며, 상기 희소 코드 계산부는, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 대상 영상 간의 차이가 최소가 되도록 상기 결과 희소 코드 집합을 결정할 수 있다.When the number of filters included in the first dictionary is K, the resultant sparse code set includes K sparse codes, and the sparse code calculator calculates k (k is an integer in the range of 0 to K Of the resultant sparse code set and a result of performing a convolution operation between kth sparse code of the resultant sparse code set and a result of the convolution operation for each k, Can be determined.
또한, 상기 제 2 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며, 상기 결과 영상 출력부는, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상을 상기 결과 영상으로 결정할 수 있다.When the number of the filters included in the second dictionary is K, the resultant sparse code set includes K sparse codes, and the resultant image output unit outputs k And the convolution operation between the kth scarce code of the resultant sparse code set and the kth sparse code of the resulting sparse code set is performed for each k.
또한, 상기 컨볼루션 연산의 결과는, 상기 컨볼루션 연산을 푸리에 변환을 이용하여 행렬 곱 연산으로 치환하는 과정을 거쳐 산출될 수 있다.Also, the result of the convolution operation may be calculated by replacing the convolution operation with a matrix multiplication operation using Fourier transform.
또한, 상기 입력부는, 임의의 자연수를 입력받으며, 상기 K의 값은, 상기 임의의 자연수와 같은 수로 결정될 수 있다.Also, the input unit receives an arbitrary natural number, and the value of K may be determined to be the same as the arbitrary natural number.
또한, 상기 분할 대상 영상 및 샘플 영상은, 복수의 세포를 촬영한 영상이며, 상기 분할 샘플 영상은, 상기 샘플 영상에 포함된 복수의 세포 각각의 이미지의 윤곽선에 기초하여 복수의 부분으로 구획된 영상일 수 있다.The division target image and the sample image are images obtained by photographing a plurality of cells, and the division sample image may include an image segmented into a plurality of segments based on contours of images of a plurality of cells included in the sample image Lt; / RTI >
또한, 상기 결과 영상은, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지의 윤곽선과, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지에서 상기 윤곽선을 제외한 부분이 서로 구별되도록 이진화된 영상일 수 있다.In addition, the resultant image may be a binarized image such that a contour of an image of each of a plurality of cells in the divided object image and a portion of the plurality of cells in the divided object image, excluding the contour, are distinguished from each other.
본 발명의 실시예에 의하면, 구획 전의 샘플 영상의 특징을 나타내는 필터로 이루어진 사전(dictionary)과, 구획 후의 샘플 영상의 특징을 나타내는 필터로 이루어진 사전의 두 가지 사전을 모두 이용하여 분할 대상 영상에 대한 구획을 수행하는 이중 사전 학습(dual dictionary learning) 기법을 도입함으로써, 세포 영상에 대한 세포 분할 작업을 높은 정확도로 수행할 수 있다. 또한, 구획 전후의 샘플 영상으로부터 학습된 사전을 구축하고 난 후에는, 분할 대상 영상에 대해서는 추가적인 학습 없이 기 구축된 사전을 이용한 간단한 연산만으로도 구획을 수행할 수 있으므로, 작업 능률 역시 향상될 수 있다.According to the embodiment of the present invention, by using both a dictionary composed of a filter showing the characteristics of a sample image before a segment and two dictionaries made of a filter showing the characteristics of a sample image after segmentation, By introducing a dual dictionary learning technique that performs segmentation, cell segmentation work on cell images can be performed with high accuracy. Further, after building the learned dictionary from the sample images before and after the segment, the segmentation target image can be segmented by a simple operation using only the pre-built dictionary without additional learning, and therefore, the work efficiency can also be improved.
도 1은 종래 기술에 의한 세포 영상 및 해당 영상에 대한 세포 분할 결과를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 합성곱 희소 코딩(convolution sparse coding, CSC)에 대해 개념적으로 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 이중 사전 학습 기법에 의한 영상 분할 방법에 대해 개념적으로 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 영상 분할 장치의 구성을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 영상 분할 방법의 순서를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 영상 분할 방법에서 예비 변수 G를 구하기 위한 과정을 개념적으로 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 영상 분할 방법의 후처리 기법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 영상 분할 방법의 수행 결과를 설명하기 위한 도면이다.FIG. 1 is a diagram showing a cell image according to a conventional technique and a result of cell division on the image.
FIG. 2 is a conceptual illustration of convolutional sparse coding (CSC) according to an embodiment of the present invention.
FIG. 3 is a diagram for conceptually illustrating a method of dividing an image by a dual prior learning technique according to an embodiment of the present invention.
4 is a diagram illustrating the configuration of an image segmentation apparatus according to an embodiment of the present invention.
5 is a diagram illustrating a procedure of an image segmentation method according to an embodiment of the present invention.
FIG. 6 is a diagram for conceptually explaining a process for obtaining a preliminary variable G in an image segmentation method according to an embodiment of the present invention.
7 is a view for explaining a post-processing technique of the image segmentation method according to an embodiment of the present invention.
FIG. 8 is a view for explaining a result of performing an image segmentation method according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.
도 1은 종래 기술에 의한 세포 영상 및 해당 영상에 대한 세포 분할 결과를 도시한 도면이다. 도 1의 왼쪽 그림은 명시야 현미경을 통해 얻어진, 복수의 세포를 나타내는 영상으로, 아직 세포 분할이 이루어지지 않은 분할 대상 영상(11)이 될 수 있다. 도 1의 오른쪽 그림은 분할 대상 영상(11)에 대해 세포 분할을 수행함으로써 얻어진 영상인 결과 영상(12)으로, 앞서 언급된 레벨 셋 모델 알고리즘을 통해 얻어진 결과이다. FIG. 1 is a diagram showing a cell image according to a conventional technique and a result of cell division on the image. 1 shows an image representing a plurality of cells obtained through a bright field microscope, which can be a
결과 영상(12)을 보면, 영상 내에서 복수의 세포 각각이 차지하는 영역을 폐곡선(13)을 이용하여 구분함으로써 세포 분할의 결과를 나타내고 있음을 알 수 있다. 즉, 각각의 폐곡선(13)은 영상 내 각 세포의 윤곽선을 나타낸다. 다만, 레벨 셋 모델 알고리즘을 비롯한 종래의 기술에 의하면, 이와 같은 결과 영상(12)의 품질이나 정확도가 보장되지 않는다는 점은 앞서 말한 바 있다.In the
따라서, 본 발명의 일 실시예에 따른 이중 사전 학습 기법에 의한 영상 분할 방법은 상기 결과 영상(12)에 해당하는 영상 분할의 결과를, 종래의 방법에 비하여 정확하면서도 신속하게 얻는 것을 목적으로 한다. 다만, 도 1의 결과 영상(12)은 각 세포의 윤곽선을 나타내는 폐곡선(13)을 이용하여 세포 분할의 결과를 표현하였지만, 본 발명의 일 실시예에 따른 영상 분할 방법의 경우 반드시 이에 한정되는 것은 아니다.Therefore, an image segmentation method based on the dual prior learning technique according to an embodiment of the present invention aims at obtaining the result of image segmentation corresponding to the
도 2는 본 발명의 일 실시예에 따른 합성곱 희소 코딩(convolution sparse coding, CSC)에 대해 개념적으로 설명하기 위한 도면이다. 도 3을 참조하여 본 발명의 일 실시예에 따른 이중 사전 학습 기법에 대해 설명하기 전에, 도 2를 참조하여 영상의 특징을 나타내는 필터와 희소 코드를 이용하여 영상을 근사적으로 표현하는 합성곱 희소 코딩에 대해 살펴보도록 한다.FIG. 2 is a conceptual illustration of convolutional sparse coding (CSC) according to an embodiment of the present invention. Referring to FIG. 3, a redundant learning method according to an embodiment of the present invention is described. Referring to FIG. 2, a filter representing a feature of an image and a rare- Let's take a look at coding.
도 2를 참조하면, 원본 영상(21)은 픽셀 수로 표현되는 소정의 해상도(여기에서는 가로 256픽셀, 세로 256픽셀)를 가질 수 있다. 또한, 원본 영상(21)을 흑백 영상이라 가정할 때, 원본 영상(21)의 각 픽셀의 값(명도)는 정수의 값으로 표현될 수 있다. 예컨대, 각 픽셀의 값은 0(검정)부터 255(흰색)까지의 256가지 값 중 하나로 표현될 수 있다. 이와 같은 원본 영상(21)은 K(K는 자연수)개의 필터(d)와 K개의 희소 코드(sparse code, x)를 이용하여 근사적으로 표현될 수 있다. 2, the
각 필터(d)는 원본 영상(21)의 특징을 표현하는 일종의 이미지로, 일반적으로는 원본 영상(21)에 비해 적은 수의 픽셀(여기에서는 가로 11픽셀, 세로 11픽셀)을 포함할 수 있다. 이와 같은 필터의 집합을 사전(dictionary, 31)이라 정의할 수 있다. 즉, 사전(31)은 원본 영상(21)에 대한 정보의 집합이라 볼 수 있다.Each filter d is an image representing a feature of the
희소 코드(x) 역시 일종의 이미지라 볼 수 있는데, 일반적으로는 원본 영상(21)과 같거나 유사한 수의 픽셀(여기에서는 가로 256픽셀, 세로 256픽셀)을 포함할 수 있다. 희소 코드(x)에서는 대부분의 픽셀의 값이 0이고, 매우 적은 수의 픽셀만이 0이 아닌 값을 갖는다. 즉, 희소 코드(x)에 의하면 영상의 특정 부분을 제외한 모든 부분이 0이 되므로, 이러한 희소 코드(x)를 이용하여 영상의 특정 부분의 특징을 효과적으로 추출하는 것이 가능하다. 또한, 희소 코드(x)의 연산량이 감소될 수 있다는 이점 역시 아울러 갖는다.The sparse code (x) can also be regarded as an image, which may generally include a number of pixels equal to or similar to the original image 21 (256 pixels in this case and 256 pixels in height). In the sparse code (x), the value of most pixels is zero, and only a very small number of pixels have non-zero values. That is, according to the sparse code (x), all parts except the specific part of the image are zero, and it is possible to extract the characteristic of the specific part of the image effectively by using the sparse code (x). It also has the advantage that the amount of computation of the sparse code (x) can be reduced.
전술한 바와 같이 필터(d)와 희소 코드(x)의 개수가 각각 K개라 할 때, k(k는 0 이상 K 미만의 정수)번째 필터(d)와 k번째 희소 코드(x) 간의 합성곱 연산, 즉 컨볼루션(convolution) 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 근사 영상이 원본 영상(21)과 최대한 유사하도록, 즉 근사 영상과 원본 영상(21) 간의 차이가 최소화되도록, K개의 각 필터(d) 및 희소 코드(x)를 정의할 수 있다. 여기서 영상 간의 차이라 함은, 예컨대 차이를 구하고자 하는 두 영상에서 서로 위치가 같은 픽셀 간의 값의 차이를, 모든 픽셀에 대해 더한 값이 될 수 있다. As described above, when the number of the filter (d) and the number of the sparse codes (x) are K, the product product of the kth (k is an integer of not less than 0 and less than K) filter d and the kth rare code (K) so that the approximated image obtained by adding all the results of performing the convolution operation to each k is as close as possible to the
이와 같이 원본 영상(21)을 가장 잘 나타낼 수 있는 K개의 각 필터(d) 및 희소 코드(x)는, 다음의 수학식 1을 만족하는 필터(d) 및 희소 코드(x)가 된다. 참고로, K의 값은 사용자로부터의 입력 혹은 영상 분할 장치(100)가 구현된 시스템의 성능에 기초하여 정해질 수 있다.Thus, each of the K filters d and the sparse code x that can best represent the
상기 수학식 1에서 S는 원본 영상(21)을 나타내고, dk 및 xk는 각각 k번째 필터(d) 및 k번째 희소 코드(x)를 나타내며, α 및 λ는 임의의 상수로서 실험을 통해 최적화된 값이다. 즉, 수학식 1을 만족하는 해로서의 필터(d) 및 희소 코드(x)를 구하는 것은, 원본 영상(21)에 가장 가까운 근사 영상을 구하는 것과 사실상 같은 의미를 갖는다. In Equation (1), S represents the
참고로, "min"이라는 기호 및 그 아래의 "d, x"라는 인자는, min 기호 오른쪽의 식이 최소가 되도록 필터(d)와 희소 코드(x)의 값(보다 구체적으로는, 각 dk 및 xk의 값)을 결정한다는 뜻이다. 또한 "s.t"은 "such that"의 약자로, 이는 구해진 해가 "s.t."의 오른쪽에 서술된 조건(수학식 1에서는 ) 역시 만족하여야 한다는 뜻이다. 이러한 기호 및 인자에 관한 설명은 아래의 다른 수학식들에도 유사하게 적용될 수 있다.For reference, "min" of symbols and is the factor of "d, x" below, min sign to the value of the filter (d) with rare code (x) such that expression is at least on the right side (more specifically, each d k And the value of x k ). The term " st "is an abbreviation of " such that " ) Must also be satisfied. The description of these symbols and factors can be applied similarly to the other mathematical formulas below.
도 3은 본 발명의 일 실시예에 따른 이중 사전 학습 기법에 의한 영상 분할 방법에 대해 개념적으로 설명하기 위한 도면이다. 도 3의 샘플 영상(210)은 아직 분할이 이루어지지 않은 영상으로서, 예컨대 명시야 현미경을 통해 획득된 세포 영상일 수 있다. 분할 샘플 영상(220)은 샘플 영상(210)을 복수의 부분으로 구획하여 생성된 영상으로, 샘플 영상(210)이 세포 영상일 경우 분할 샘플 영상(220)은 수작업을 통해 각 세포의 윤곽선이 명확히 표현된 영상일 수 있다.FIG. 3 is a diagram for conceptually illustrating a method of dividing an image by a dual prior learning technique according to an embodiment of the present invention. The
즉, 샘플 영상(210)과 분할 샘플 영상(220)은 도 1의 분할 대상 영상(11)과 결과 영상(12)에 각각 대응될 수 있다. 이러한 샘플 영상(210) 및 분할 샘플 영상(220)은 각각 복수 개 존재할 수 있지만, 이하에서는 설명의 편의를 위해 각각 하나씩 존재한다고 가정하고 설명하도록 한다.That is, the
샘플 영상(210)은 샘플 영상(210)의 특징을 나타내는 필터(D)의 집합인 제 1 사전(310) 및 이에 대응되는 희소 코드(X1)의 집합인 제 1 희소 코드 집합(410)을 이용하여 근사될 수 있다. 도 3을 참조하여 설명한 바와 유사하게, 제 1 사전(310)에 포함된 필터(D)의 개수와 제 1 희소 코드 집합(410)에 포함된 희소 코드(X1)의 개수가 각각 K개라 할 때, k(k는 0 이상 K 미만의 정수)번째 필터(D)와 k번째 희소 코드(X1) 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 근사 영상이 샘플 영상(210)과 최대한 유사하도록, 즉 근사 영상과 샘플 영상(210) 간의 차이가 최소화되도록, K개의 각 필터(D) 및 희소 코드(X1)를 정의할 수 있다.The
또한 유사하게, 분할 샘플 영상(220)은 분할 샘플 영상(220)의 특징을 나타내는 필터(B)의 집합인 제 2 사전(320) 및 이에 대응되는 희소 코드(X2)의 집합인 제 2 희소 코드 집합(420)을 이용하여 근사될 수 있다. 제 2 사전(320)에 포함된 필터(B)의 개수와 제 2 희소 코드 집합(420)에 포함된 희소 코드(X2)의 개수는, 상기 샘플 영상(210)의 경우와 마찬가지로, 각각 K개일 수 있다. 이 때, k(k는 0 이상 K 미만의 정수)번째 필터(B)와 k번째 희소 코드(X2) 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 근사 영상이 분할 샘플 영상(220)과 최대한 유사하도록, 즉 근사 영상과 분할 샘플 영상(220) 간의 차이가 최소화되도록, K개의 각 필터(B) 및 희소 코드(X2)를 정의할 수 있다.Similarly, the divided
이와 같이 샘플 영상(210)과 분할 샘플 영상(220)을 가장 잘 나타낼 수 있는 필터(D, B) 및 희소 코드(X1, X2) 는, 다음의 수학식 2를 만족하는 값으로 정해질 수 있다.The filters D and B and the sparse codes X 1 and X 2 that best represent the
상기 수학식 2에서 S는 샘플 영상(210)을, L은 분할 샘플 영상(220)을 각각 나타내며, α, γ, λ1, λ2 및 τ는 임의의 상수로서 실험을 통해 최적화된 값이다. 또한, 편의상 시그마(Σ) 기호 및 D, B, X1, X2에 대해서는 인덱스 k를 생략하여 표기하였다.In Equation (2), S represents a
수학식 2를 만족하는 해로서의 필터(D, B) 및 희소 코드(X1, X2)를 구하는 것은, 샘플 영상(210)과 분할 샘플 영상(220) 각각에 대해 최적의 근사 영상을 구하는 것과 사실상 같은 의미를 갖는다. 상기 수학식 2를 풀기 위해 맨 처음에는 필터(D, B)의 값을 무작위로 설정한 후, 학습을 통해 상기 수학식 2를 만족하는 필터(D, B)의 값을 찾아나갈 수 있는데, 풀이의 상세한 과정에 대해서는 후술하도록 한다.(
도 4는 본 발명의 일 실시예에 따른 영상 분할 장치의 구성을 도시한 도면이다. 도 4의 영상 분할 장치(100)는 입력부(110), 데이터베이스(120), 데이터베이스 제어부(130), 희소 코드 계산부(140) 및 결과 영상 생성부(150)를 포함할 수 있다. 단, 도 4의 영상 분할 장치(100)는 본 발명의 일 실시예에 불과하므로, 도 4에 의해 본 발명의 사상이 제한 해석되는 것은 아니다.4 is a diagram illustrating the configuration of an image segmentation apparatus according to an embodiment of the present invention. 4 may include an
입력부(110)는 복수의 부분으로 구획될 분할 대상 영상(230)을 입력받을 수 있다. 입력부(110)는 다양한 장치를 통해 구현될 수 있는데, 영상 분할 장치(100) 외부로부터 분할 대상 영상(230)을 포함하는 입력 데이터를 수신하기 위한 데이터 버스 혹은 통신 모듈 등의 구성을 포함할 수도 있고, 분할 대상 영상(230)을 물리적으로 획득하거나 직접 생성하기 위한 스캐너(scanner), 카메라(camera) 등의 영상 장비 혹은 명시야 현미경 등을 포함할 수도 있다. 샘플 영상(210) 및 분할 샘플 영상(220) 역시 입력부(110)에 의해 획득되어 후술할 데이터베이스(120)에 저장될 수 있다.The
또한, 입력부(110)는 제 1 사전(310) 및 제 2 사전(320)이 각각 포함하는 필터(D, B)의 개수 혹은 제 1 희소 코드 집합(410) 및 제 2 희소 코드 집합(420)이 각각 포함하는 희소 코드(X1, X2)의 개수를 영상 분할 장치(100)의 사용자로부터 입력받을 수 있다. 이에 따라, 입력부(110)는 키보드(keyboard), 마우스(mouse), 터치 스크린(touch screen), 터치 패드(touch pad) 등의 입력 장치를 포함할 수 있다.The
데이터베이스(120)는 샘플 영상(210) 및 분할 샘플 영상(220)을 저장할 수 있다. 또한, 데이터베이스(120)는 샘플 영상(210) 및 분할 샘플 영상(220)에 기초한 데이터인 제 1 사전(310), 제 2 사전(320), 제 1 희소 코드 집합(410) 및 제 2 희소 코드 집합(420) 등을 저장할 수 있다. 데이터베이스(120)는 구체적으로 컴퓨터 판독 기록 매체로서 구현될 수 있으며, 이러한 컴퓨터 판독 기록 매체의 예로는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 플래시 메모리(flash memory)와 같은 프로그램 명령어들을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 들 수 있다.The
데이터베이스 제어부(130)는 상기 수학식 1 및 2를 통해 설명한 원리에 기초하여, 데이터베이스(120)에 저장된 샘플 영상(210) 및 분할 샘플 영상(220)으로부터 제 1 사전(310), 제 2 사전(320), 제 1 희소 코드 집합(410) 및 제 2 희소 코드 집합(420) 등을 결정할 수 있다. 데이터베이스 제어부(130)에 의해 결정된 상기 데이터들은 데이터베이스(120)에 저장될 수 있다. 데이터베이스 제어부(130)는 그 동작의 특성상 마이크로프로세서(microprocessor)를 포함하는 연산 장치에 의해 구현될 수 있다.The
한편, 영상 분할 장치(100)는 데이터베이스(120)와 데이터베이스 제어부(130)를 포함하지 않을 수도 있다. 이 경우, 영상 분할 장치(100)는 이미 구축되어 있는 제 1 사전(310), 제 2 사전(320), 제 1 희소 코드 집합(410) 및 제 2 희소 코드 집합(420)을 입력부(110)를 통해 외부로부터 입력받아 활용할 수 있다.On the other hand, the
희소 코드 계산부(140)는 제 1 사전(310)을 이용하여, 분할 대상 영상(230)을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합(430)을 생성할 수 있다. 또한, 결과 영상 생성부(150)는 제 2 사전(320)과 결과 희소 코드 집합(430)을 이용하여, 분할 대상 영상(230)이 복수의 부분으로 구획된 결과 영상(240)을 생성할 수 있다. 즉, 희소 코드 계산부(140) 및 결과 영상 생성부(150)는 데이터베이스(120)에 구축된 데이터를 이용하여 분할 대상 영상(230)에 대한 구획 작업(분할 대상 영상(230)이 세포 영상일 경우 세포 분할 작업)을 수행할 수 있다. 이들 희소 코드 계산부(140) 및 결과 영상 생성부(150) 역시 데이터베이스 제어부(130)와 마찬가지로 마이크로프로세서(microprocessor)를 포함하는 연산 장치에 의해 구현될 수 있으며, 이들의 자세한 동작에 대해서는 후술한다.The sparse
도 5는 본 발명의 일 실시예에 따른 영상 분할 방법의 순서를 도시한 도면이다. 도 5의 영상 분할 방법은 도 4를 참조하여 설명한 영상 분할 장치(100)에 의해 수행될 수 있다. 단, 도 5에 도시된 방법은 본 발명의 일 실시예에 불과하므로 도 5에 의해 본 발명의 사상이 한정 해석되는 것은 아니며, 도 5에 도시된 방법의 각 단계는 경우에 따라 도면에 도시된 바와 그 순서를 달리하여 수행될 수 있음은 물론이다.5 is a diagram illustrating a procedure of an image segmentation method according to an embodiment of the present invention. The image dividing method of FIG. 5 may be performed by the
우선, 입력부(110)가 분할 대상 영상(230)을 획득할 수 있다(S110). 그러면 데이터베이스 제어부(130)가 데이터베이스(120)에 저장된 샘플 영상(210)으로부터 제 1 사전(310) 및 제 1 희소 코드 집합(410)을 결정할 수 있다(S120). 이와 함께, 데이터베이스 제어부(130)는 데이터베이스(120)에 저장된 분할 샘플 영상(220)으로부터 제 2 사전(320) 및 제 2 희소 코드 집합(420)을 결정할 수 있다(S130).First, the
상기 S120 및 S130의 단계는 실질적으로 전술한 수학식 2의 해를 구하는 과정임을 앞서 언급한 바 있다. 이하에서는 상기 수학식 2를 푸는 과정에 대해 보다 상세하게 설명하도록 한다.The above steps S120 and S130 are substantially the same as those for obtaining the solution of the above-mentioned equation (2). Hereinafter, the process of solving Equation (2) will be described in more detail.
수학식 2를 세부 문제들로 나누어 계산하기 위해, 예비 변수 Y(Y1, Y2) 및 이중 변수 U(U1, U2)를 도입할 수 있으며, 이에 따라 수학식 2는 아래와 같은 수학식 3으로 변형될 수 있고, ρ1 및 ρ2는 임의의 상수로 실험을 통해 최적화된 값이다.In order to divide equation (2) into sub-problems, a preliminary variable Y (Y 1 , Y 2 ) and a double variable U (U 1 , U 2 ) may be introduced, 3, and ρ 1 and ρ 2 are values optimized through experimentation with arbitrary constants.
상기 수학식 3은 각각의 변수에 따라 독립적인 세부 문제로 나뉠 수 있으며, 우선 X1을 구하기 위해 수학식 3으로부터 X1에 관한 항만을 추출하여 아래와 같은 수학식 4를 도출할 수 있다.Equation (3) can be divided into independent details according to each variable. In order to obtain X 1 , it is possible to extract the term related to X 1 from Equation (3) to derive Equation (4) as follows.
상기 수학식 4의 계산을 보다 용이하게 하기 위해, 푸리에 변환(Fourier transform)을 이용하여 모든 변수를 주파수 영역의 변수로 변환할 수 있으며, 그 결과 컨볼루션 연산은 보다 단순한 행렬 곱 연산으로 변환될 수 있다. 아래의 수학식 5는 수학식 4를 주파수 영역에서의 식으로 변환한 결과이다.In order to facilitate the calculation of Equation (4), it is possible to transform all variables into frequency domain variables using a Fourier transform so that the convolution operation can be converted to a simpler matrix multiplication operation have. Equation (5) below is the result of transforming Equation (4) into Equation in the frequency domain.
Xf1에 대한 미분 연산을 상기 수학식 5에 적용하면, 아래와 같이 수학식 6이 도출될 수 있다.If the differential operation for X f1 is applied to Equation (5), Equation (6) can be derived as follows.
상기 수학식 6에서, Df = [diag(df1), ..., diag(dfk)]이고, Df H 는 Df 의 복소 켤례 전치(complex conjugated transpose)이다. 수학식 6을 만족하는 Xf1는 Sherman-Morrison 공식을 통해 쉽게 계산할 수 있으며, 이로써 X1을 구할 수 있다.In the above equation (6), D f = [diag (d f1 ), ..., diag (d fk )] and D f H is a complex conjugated transpose of D f . X f1, which satisfies Equation 6, can be easily calculated using the Sherman-Morrison formula, which yields X 1 .
또한, 수학식 3에서 Y1을 구하기 위해 수학식 3으로부터 Y1에 관한 항만을 추출하여 아래와 같은 수학식 7을 도출할 수 있다.Also, in order to obtain Y 1 in Equation (3), it is possible to derive the following Equation (7) by extracting the term relating to Y 1 from Equation (3).
상기 수학식 7에서, Y1의 값은 수축(shrinkage) 연산을 이용하여 아래의 수학식 8과 같이 구할 수 있다.In Equation (7), the value of Y 1 can be obtained by the following Equation (8) using a shrinkage operation.
또한, 이중 변수 U1을 구하기 위해 수학식 3으로부터 U1에 관한 항만을 추출하여 아래와 같은 수학식 9를 도출할 수 있다.In order to obtain the double variable U 1 , it is also possible to derive the following Equation (9) by extracting the term relating to U 1 from Equation (3).
상기 수학식 9를 통해 구해진 U1은, 위에서 구한 X1 및 Y1에 기초하여 아래의 수학식 10과 같이 업데이트될 수 있으며, 이와 같은 업데이트는 X1-Y1의 값의 크기가 일정 수준 밑으로 수렴할 때까지 계속될 수 있다.U 1 obtained from Equation (9) can be updated as shown in Equation (10) based on X 1 and Y 1 obtained as above, and such updating is performed when the value of X 1 -Y 1 is below a certain level To converge to.
참고로, 상기 식은 기존의 U1의 값에 X1-Y1의 값을 더한 값으로 U1의 값을 업데이트한다는 의미가 된다. 즉, 상기 수학식 10에서 등호(=)는 등호 양변이 같다는 의미의 연산자가 아닌, 대입 연산자로서 기능하며, 이는 수학식 16과 같은, 값의 업데이트와 관련된 다른 수학식에 있어서도 같다.For reference, as the expression obtained by adding the value of X 1 -Y 1 of the value of the existing value of U 1 it is the means to update the value of U 1. That is, the equal sign (=) in Equation (10) functions as an assignment operator, not an operator in the sense that the equal sign is the same in both equations.
지금까지 설명한 바와 같은 일련의 과정을 통해 수학식 2를 만족하는 X1을 구함으로써 제 1 희소 코드 집합(410)을 결정할 수 있으며, 이하에서는 수학식 2를 만족하는 D를 구함으로써 제 1 사전(310)을 결정하는 과정에 대해 설명한다. 이를 위해 우선, 수학식 2로부터 수학식 3을 도출한 방식과 유사하게, 수학식 2에 예비 변수 G와 이중 변수 H를 도입한 후, D에 관한 항만을 추출하여 아래와 같은 수학식 11을 도출할 수 있다.The first sparse code set 410 can be determined by obtaining X 1 satisfying the expression (2) through a series of the processes described so far. Hereinafter, by obtaining D satisfying the expression (2) 310 will be described. To do this, first, a preliminary variable G and a double variable H are introduced into the equation (2), and a port relating to D is extracted to derive the following equation (11), similarly to the formula .
상기 수학식 11 역시, 컨볼루션 연산의 단순화를 위해, 푸리에 변환을 이용하여 주파수 영역에서의 식인 하기 수학식 12로 변환될 수 있다.Equation (11) can also be transformed into Equation (12) to be expressed in the frequency domain using the Fourier transform, for simplification of the convolution operation.
상기 수학식 12에 Df에 대한 미분 연산을 적용하면 아래와 같은 수학식 13이 도출되며, 이로부터 Df의 값을 구할 수 있다.When the differential operation for D f is applied to Equation (12), the following Equation (13) is derived, from which the value of D f can be obtained.
수학식 6의 경우와 유사하게, Xf1 = [diag(xf1), ..., diag(xfk)]이며, Xf1 H는 Xf1의 복소 켤레 전치이다. 수학식 13을 만족하는 Df1 역시 Sherman-Morrison 공식을 통해 계산될 수 있다.Similar to the case of Equation 6, X f1 = [diag (x f1 ), ..., diag (x fk )] and X f1 H is the complex conjugate transpose of X f1 . D f1, which satisfies Equation 13, can also be calculated through the Sherman-Morrison formula.
또한, 예비 변수 G를 구하기 위해 아래와 같은 수학식 14를 풀 수 있다.In order to obtain the preliminary variable G, Equation (14) below can be solved.
도 6은 본 발명의 일 실시예에 따른 영상 분할 방법에서 예비 변수 G를 구하기 위한 과정을 개념적으로 설명하기 위한 도면이다. G는 도 6에 도시된 바와 같이 수학식 13에서 구해진 Df에 역 푸리에 변환(inverse Fourier transform)을 수행하여 D를 구하고, 사전에 정의된 필터의 크기만큼 D를 잘라내어 G를 구한다. 이와 같이 구해진 G를 다시 샘플 영상(210)과 동일한 크기로 확장할 수 있는데, 상기 잘라냄으로써 구해진 G 외의 부분을 0으로 채움으로써 상기 확장이 수행될 수 있다. 마지막으로, 상기 확장된 G에 대해 정규화(normalization) 과정을 거칠 수 있으며, 상기 정규화된 G를 최종적인 G의 값으로 확정할 수 있다.FIG. 6 is a diagram for conceptually explaining a process for obtaining a preliminary variable G in an image segmentation method according to an embodiment of the present invention. G obtains the G to obtain a D by performing an inverse Fourier transform (inverse Fourier transform) on D f found by the equation (13), cut to the size D of the filters defined in advance as shown in Fig. The G thus obtained can be expanded to the same size as that of the
한편, 이중 변수 H를 구하기 위해 다음과 같은 수학식 15를 풀 수 있다.On the other hand, Equation 15 can be solved to obtain the double variable H as follows.
위에서 설명한 U1의 경우와 유사하게, 상기 수학식 15를 통해 구해진 H는 위에서 구한 D 및 G에 기초하여 아래의 수학식 16과 같이 업데이트될 수 있으며, 이와 같은 업데이트는 D-G의 값의 크기가 일정 수준 밑으로 수렴할 때까지 계속될 수 있다.Similar to the case of U 1 described above, H obtained through Equation (15) can be updated as shown in Equation (16) below based on D and G obtained above, It can be continued until it converges below the level.
지금까지 설명한 과정을 통해 X1과 D를 구함으로써 제 1 사전(310) 및 제 1 희소 코드 집합(410)을 확정할 수 있으며, 제 2 사전(320) 및 제 2 희소 코드 집합(420) 역시 유사한 과정을 거쳐 확정될 수 있다.The
이와 같이 단계 S120 및 S130이 완료되면, 희소 코드 계산부(140)는 제 1 사전(310) 및 제 2 사전(320)을 이용하여, 결과 희소 코드 집합(430)을 구할 수 있다(S140). 결과 희소 코드 집합(430)은 제 1 사전(310) 및 제 2 사전(320)이 각각 포함하는 필터(D, B)의 개수(K개)와 같은 개수의 결과 희소 코드(X)를 포함할 수 있으며, 결과 희소 코드 집합(430)은 상기 K개의 결과 희소 코드(X)를 구함으로써 산출될 수 있다. 이와 같은 결과 희소 코드 집합(430)의 산출은 아래와 같은 수학식 17을 통해 이루어질 수 있으며, 수학식 17에서도 편의상 인덱스 k는 생략되었다.When the steps S120 and S130 are completed, the sparse
마지막으로, 산출된 결과 희소 코드 집합(430)을 이용하여, 아래의 수학식 18을 통해 결과 영상(240)을 생성할 수 있다(S150). 수학식 18의 L은 결과 영상(240)을 나타낸다.Finally, the
요컨대 본 발명의 일 실시예에 의하면, 기존의 샘플 영상(210)과, 샘플 영상(210)에 대한 정확한 분할 결과인 분할 샘플 영상(220)을 학습함으로써 제 1 사전(310) 및 제 2 사전(320)이 획득될 수 있으며, 이와 같이 획득된 제 1 사전(310) 및 제 2 사전(320)을 이용하면 새로운 분할 대상 영상(230)에 대해서는 복잡한 학습 과정을 다시 수행할 필요가 없이 수학식 17 및 18과 같은 간단한 컨볼루션 연산만으로 결과 영상(240)을 간편하게 얻을 수 있다. 또한, 앞서 언급한 바와 같이 샘플 영상(210)은 복수 개일 수 있으며, 충분히 많은 수의 샘플 영상(210)을 이용하면 제 1 사전(310) 및 제 2 사전(320)의 신뢰도가 더욱 향상될 수 있으므로, 보다 정확한 결과 영상(240)을 얻는 것이 가능하다.That is, by learning the existing
도 7은 본 발명의 일 실시예에 따른 영상 분할 방법의 후처리 기법을 설명하기 위한 도면이다. 도 7의 (A) 및 (B)는 세포를 촬영한 예시적인 분할 대상 영상(230) 및 결과 영상(240)을 각각 나타낸다. 이와 같은 결과 영상(240)은 도 7의 (F)와 같은 이진화(binarization)된 영상으로 편집될 수 있다.7 is a view for explaining a post-processing technique of the image segmentation method according to an embodiment of the present invention. Figs. 7A and 7B show an example
이와 같은 후처리 과정으로서의 이진화 과정을 간략히 설명하면 다음과 같다. 먼저 Otsu 임계값에 기반한 다중 단계 임계값을 이용하여, 도 7의 (B)의 결과 영상(240)에서 세포막(영상에서 각 세포의 윤곽선 부분)에 해당하는 부분만 추출하여 도 7의 (C)와 같이 나타낼 수 있다. 다음으로, 완벽하게 연결되지 않은 세포막 부분을 연결시키기 위해, 모폴로지(morphology) 연산인 침식(erosion), 팽창(dilation), 열림(open) 혹은 닫힘(close) 등의 연산을 이용하여 도 7의 (D)와 같이 세포막들을 연결시킬 수 있다. A brief description of the binarization process as the post-process is as follows. 7 (C), only the portion corresponding to the cell membrane (the contour portion of each cell in the image) is extracted from the
이에 더하여, 얇은 세포막 지역만을 추출하기 위해 위에서 언급된 모폴로지 연산을 이용하여 두껍게 표현된 세포막을 도 7의 (E)와 같이 얇게 표현할 수 있다. 마지막으로, 도 7의 (E)의 영상에 논리 연산을 이용하여 이진화된 최종 영상을 도 7의 (F)와 같이 얻을 수 있다. 즉, 이진화된 최종 영상에 의하면, 세포 각각의 윤곽선과, 세포 각각에서 윤곽선을 제외한 부분이 서로 구별되어 보임으로써, 각 세포가 영상 내에서 차지하는 영역을 명확히 알 수 있게 된다.In addition, to extract only a thin cell membrane region, the cell membrane expressed in thick by using the above-mentioned morphology operation can be represented as thin as shown in (E) of FIG. Finally, the final image binarized by using the logical operation on the image of (E) of FIG. 7 can be obtained as shown in (F) of FIG. That is, according to the finalized image of the binarized image, the outline of each cell and the portion excluding the outline in each cell are distinguished from each other, so that the area occupied by each cell can be clearly recognized.
도 8은 본 발명의 일 실시예에 따른 영상 분할 방법의 수행 결과를 설명하기 위한 도면이다. 도 8의 (A)와 (D)는 실제 사람의 뇌종양 세포를 항체에서 배양시킨 후 박제시켜 촬영한 명시야 현미경 영상이고, (B)와 (E)는 본 발명의 일 실시예에 따른 영상 분할 방법에 의한 세포 분할 결과이며, (C)와 (F)는 기존의 딥 러닝의 일종인 DNN(deep neural network)에 의한 세포 분할 결과이다. FIG. 8 is a view for explaining a result of performing an image segmentation method according to an embodiment of the present invention. 8 (A) and 8 (D) are luminescence microscope images obtained by culturing a human brain tumor cell in an antibody and culturing the same, and FIGS. 8 (B) and 8 (C) and (F) are the result of cell division by DNN (deep neural network), which is one of the conventional deep-running methods.
부연하자면, (B)와 (C)가 (A)에 대한 결과이며, (E)와 (F)가 (D)에 대한 결과이다. 상기 결과는 NVIDIA GTX Titan X(12GB) 및 Linux 14.04가 적용된 시스템에서 MATLAB을 통해 도출되었다. 또한, 제 1 사전(310) 및 제 2 사전(320)은 각각 225개의 필터(D, B)들을 포함하도록 설정되었으며, 각 필터들의 크기는 가로 11픽셀, 세로 11픽셀로 설정되었다.In addition, (B) and (C) are the results for (A), and (E) and (F) are for (D). The results were derived from MATLAB on systems with NVIDIA GTX Titan X (12GB) and Linux 14.04. Also, the
도 8을 참조하면, 본 발명의 일 실시예에 따른 영상 분할 방법에 의한 세포 분할 결과가 DNN에 의한 세포 분할 결과 쪽보다 더욱 정교하게(즉, 세포막이 얇게) 각 세포가 차지하는 영역을 나타내고 있음을 볼 수 있다. 또한, DNN에 의한 세포 분할 방법에 의한 결과 도출에는 상기 조건에서 1.5일이 소요되었음에 비해, 본 발명의 일 실시예에 따른 영상 분할 방법에 의한 결과 도출에는 CPU를 이용할 경우 58분, GPU를 이용할 경우 12분이 소요되었다. 즉, 본 발명의 일 실시예에 따른 영상 분할 방법에 의하면 기존의 방법에 비해 더욱 빠르면서도 정확하게 세포 분할을 수행하는 것이 가능함을 알 수 있다.Referring to FIG. 8, the cell division result obtained by the image segmentation method according to an embodiment of the present invention shows a region occupied by each cell more finely (i.e., thinner cell membrane) than the result of cell division by DNN can see. In addition, while it took 1.5 days under the above conditions to derive the result by the DNN-based cell division method, the result of the image segmentation method according to the embodiment of the present invention is 58 minutes when the CPU is used and the GPU is used The case took 12 minutes. That is, according to the image segmentation method according to an embodiment of the present invention, it is possible to perform cell segmentation more quickly and accurately than the conventional method.
본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step of the flowchart and each block of the block diagrams appended to the present invention may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus so that the instructions, which may be executed by a processor of a computer or other programmable data processing apparatus, And means for performing the functions described in each step are created. These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible for the instructions stored in the block diagram to produce a manufacturing item containing instruction means for performing the functions described in each block or flowchart of the block diagram. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the processing equipment provide the steps for executing the functions described in each block of the block diagram and at each step of the flowchart.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Also, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and changes may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents thereof should be construed as falling within the scope of the present invention.
100: 영상 분할 장치
110: 입력부
120: 데이터베이스
130: 데이터베이스 제어부
140: 희소 코드 계산부
150: 결과 영상 생성부100: image dividing device
110: input unit
120: Database
130:
140: Sparse code calculation unit
150:
Claims (20)
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전(dictionary)을 획득하는 단계;
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전을 획득하는 단계;
상기 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 단계; 및
상기 제 2 사전 및 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 단계를 포함하며,
상기 제 1 사전에 포함된 필터의 개수는 K개이고, 상기 제 1 사전은 제 1 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득되며,
상기 제 1 사전 및 상기 제 1 희소 코드 집합은,
상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 1 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션(convolution) 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 샘플 영상 간의 차이가 최소가 되도록 정해지는
영상 분할 방법.
Obtaining a division target image to be divided into a plurality of portions;
Obtaining a first dictionary that is a set of one or more filters that characterize a sample image;
Obtaining a second dictionary, which is a set of one or more filters that characterize the divided sample images generated by dividing the sample image into a plurality of portions;
Generating a resultant sparse code set that is a set of sparse codes for the segmentation target image using the first dictionary; And
Generating a resultant image by partitioning the segmentation target image into a plurality of segments using the second dictionary and the resultant sparse code set,
Wherein the number of filters included in the first dictionary is K, the first dictionary is obtained based on K sparse codes included in the first sparse code set,
Wherein the first dictionary and the first sparse code set comprise:
A convolution operation between k (k is an integer of 0 or more and less than K) first filter of the first dictionary and kth rare code of the first sparse code set is performed for each k, And the difference between the sample images is set to be minimum
Image segmentation method.
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전(dictionary)을 획득하는 단계;
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전을 획득하는 단계;
상기 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 단계; 및
상기 제 2 사전 및 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 단계를 포함하며,
상기 제 2 사전에 포함된 필터의 개수는 K개이고, 상기 제 2 사전은 제 2 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득되며,
상기 제 2 사전 및 상기 제 2 희소 코드 집합은,
상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 2 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션(convolution) 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 샘플 영상 간의 차이가 최소가 되도록 정해지는
영상 분할 방법.Obtaining a division target image to be divided into a plurality of portions;
Obtaining a first dictionary that is a set of one or more filters that characterize a sample image;
Obtaining a second dictionary, which is a set of one or more filters that characterize the divided sample images generated by dividing the sample image into a plurality of portions;
Generating a resultant sparse code set that is a set of sparse codes for the segmentation target image using the first dictionary; And
Generating a resultant image by partitioning the segmentation target image into a plurality of segments using the second dictionary and the resultant sparse code set,
The number of filters included in the second dictionary is K and the second dictionary is obtained based on K sparse codes included in the second set of rare codes,
The second dictionary and the second set of rare codes,
A convolution operation between k (k is an integer of 0 or more and less than K) second filter of the second dictionary and kth rare code of the second sparse code set is performed for each k, And the difference between the sample images is set to be minimum
Image segmentation method.
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전(dictionary)을 획득하는 단계;
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전을 획득하는 단계;
상기 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 단계; 및
상기 제 2 사전 및 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 단계를 포함하며,
상기 제 1 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며,
상기 결과 희소 코드 집합은, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 대상 영상 간의 차이가 최소가 되도록 정해지는
영상 분할 방법.Obtaining a division target image to be divided into a plurality of portions;
Obtaining a first dictionary that is a set of one or more filters that characterize a sample image;
Obtaining a second dictionary, which is a set of one or more filters that characterize the divided sample images generated by dividing the sample image into a plurality of portions;
Generating a resultant sparse code set that is a set of sparse codes for the segmentation target image using the first dictionary; And
Generating a resultant image by partitioning the segmentation target image into a plurality of segments using the second dictionary and the resultant sparse code set,
When the number of filters included in the first dictionary is K, the resulting sparse code set includes K sparse codes,
The resultant sparse code set is obtained by performing a convolution operation between k (k is an integer of 0 or more and less than K) th filter of the first dictionary and the kth rare code of the resulting sparse code set for each k And the difference between the obtained image and the division target image is set to be minimum
Image segmentation method.
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전(dictionary)을 획득하는 단계;
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전을 획득하는 단계;
상기 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드(sparse code)의 집합인 결과 희소 코드 집합을 생성하는 단계; 및
상기 제 2 사전 및 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 단계를 포함하며,
상기 제 2 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며,
상기 결과 영상은, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상인
영상 분할 방법.Obtaining a division target image to be divided into a plurality of portions;
Obtaining a first dictionary that is a set of one or more filters that characterize a sample image;
Obtaining a second dictionary, which is a set of one or more filters that characterize the divided sample images generated by dividing the sample image into a plurality of portions;
Generating a resultant sparse code set that is a set of sparse codes for the segmentation target image using the first dictionary; And
Generating a resultant image by partitioning the segmentation target image into a plurality of segments using the second dictionary and the resultant sparse code set,
When the number of filters included in the second dictionary is K, the resulting sparse code set includes K sparse codes,
The resultant image is obtained by adding all the results obtained by performing a convolution operation between the kth (k is an integer of 0 or more and less than K) filter of the second dictionary and the kth rare code of the resulting sparse code set for each k Video-in
Image segmentation method.
상기 컨볼루션 연산의 결과를 얻기 위해, 푸리에 변환(Fourier Transform)을 이용하여 상기 컨볼루션 연산을 행렬 곱(matrix multiplication) 연산으로 치환하는 단계를 더 포함하는
영상 분할 방법.The method according to claim 1,
Further comprising the step of replacing the convolution operation with a matrix multiplication operation using a Fourier transform to obtain the result of the convolution operation
Image segmentation method.
임의의 자연수를 입력받는 단계; 및
상기 K의 값을, 상기 임의의 자연수와 같은 수로 결정하는 단계를 더 포함하는
영상 분할 방법.The method according to claim 1,
Receiving an arbitrary natural number; And
Further comprising the step of determining the value of K as a number equal to the arbitrary natural number
Image segmentation method.
상기 분할 대상 영상 및 샘플 영상은, 복수의 세포(cell)를 촬영한 영상이며, 상기 분할 샘플 영상은, 상기 샘플 영상에 포함된 복수의 세포 각각의 이미지의 윤곽선에 기초하여 복수의 부분으로 구획된 영상인
영상 분할 방법.The method according to claim 1,
Wherein the division target image and the sample image are images obtained by photographing a plurality of cells and the division sample image is divided into a plurality of portions based on contours of images of a plurality of cells included in the sample image Video-in
Image segmentation method.
상기 결과 영상은, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지의 윤곽선과, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지에서 상기 윤곽선을 제외한 부분이 서로 구별되도록 이진화(binarization)된 영상인
영상 분할 방법.9. The method of claim 8,
Wherein the resultant image is a binarized image such that a contour of an image of each of a plurality of cells in the divided object image and a portion of the plurality of cells in the divided object image excluding the contour are distinguished from each other
Image segmentation method.
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드의 집합인 결과 희소 코드 집합을 생성하는 희소 코드 계산부;
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전과, 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 결과 영상 생성부;
상기 제 1 사전에 포함된 필터의 개수는 K개이고, 상기 제 1 사전은 상기 제 1 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득될 때, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 1 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 샘플 영상 간의 차이가 최소가 되도록 상기 제 1 사전 및 상기 제 1 희소 코드 집합을 결정하는 데이터베이스 제어부; 및
상기 제 1 사전 및 상기 제 1 희소 코드 집합을 저장하는 데이터베이스를 포함하는
영상 분할 장치.An input unit for acquiring a division target image to be divided into a plurality of portions;
A sparse code calculation unit for generating a resultant sparse code set which is a set of sparse codes for the segmentation target image, using a first dictionary that is a set of one or more filters indicating characteristics of a sample image;
A second dictionary, which is a set of one or more filters showing the characteristics of the divided sample images generated by dividing the sample image into a plurality of parts, and a second dictionary that is a function of dividing the divided object image into a plurality of parts A result image generating unit for generating a result image;
Wherein when the number of filters included in the first dictionary is K and the first dictionary is obtained based on K sparse codes included in the first sparse code set, k of the first dictionary K) of the first sparse code set and a kth sparse code of the first sparse code set are multiplied by k, A database control unit for determining a dictionary and the first sparse code set; And
And a database storing the first dictionary and the first sparse code set
Image segmentation device.
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드의 집합인 결과 희소 코드 집합을 생성하는 희소 코드 계산부;
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전과, 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 결과 영상 생성부;
상기 제 2 사전에 포함된 필터의 개수는 K개이고, 상기 제 2 사전은 상기 제 2 희소 코드 집합에 포함된 K개의 희소 코드에 기초하여 획득될 때, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 제 2 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 샘플 영상 간의 차이가 최소가 되도록 상기 제 2 사전 및 상기 제 2 희소 코드 집합을 결정하는 데이터베이스 제어부; 및
상기 제 2 사전 및 상기 제 2 희소 코드 집합을 저장하는 데이터베이스를 포함하는
영상 분할 장치.An input unit for acquiring a division target image to be divided into a plurality of portions;
A sparse code calculation unit for generating a resultant sparse code set which is a set of sparse codes for the segmentation target image, using a first dictionary that is a set of one or more filters indicating characteristics of a sample image;
A second dictionary, which is a set of one or more filters showing the characteristics of the divided sample images generated by dividing the sample image into a plurality of parts, and a second dictionary that is a function of dividing the divided object image into a plurality of parts A result image generating unit for generating a result image;
Wherein when the number of filters included in the second dictionary is K and the second dictionary is obtained based on K sparse codes included in the second sparse code set, k of the second dictionary K) and the kth scarce code of the second sparse code set are all added to the k-th sparse code and the kth sparse code of the second sparse code set, 2 dictionary and the second sparse code set; And
And a database for storing the second dictionary and the second set of rare codes
Image segmentation device.
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드의 집합인 결과 희소 코드 집합을 생성하는 희소 코드 계산부; 및
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전과, 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 결과 영상 생성부를 포함하며,
상기 제 1 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며,
상기 희소 코드 계산부는, 상기 제 1 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상과, 상기 분할 대상 영상 간의 차이가 최소가 되도록 상기 결과 희소 코드 집합을 결정하는
영상 분할 장치.An input unit for acquiring a division target image to be divided into a plurality of portions;
A sparse code calculation unit for generating a resultant sparse code set which is a set of sparse codes for the segmentation target image, using a first dictionary that is a set of one or more filters indicating characteristics of a sample image; And
A second dictionary, which is a set of one or more filters showing the characteristics of the divided sample images generated by dividing the sample image into a plurality of parts, and a second dictionary that is a function of dividing the divided object image into a plurality of parts And a result image generating unit for generating a result image,
When the number of filters included in the first dictionary is K, the resulting sparse code set includes K sparse codes,
The sparse code calculation unit adds all the results obtained by performing the convolution operation between the kth (k is an integer of 0 or more and less than K) filter of the first dictionary and the kth rare code of the resultant sparse code set for each k The resultant sparse code set is determined such that the difference between the obtained image and the division target image is minimized
Image segmentation device.
샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 1 사전을 이용하여, 상기 분할 대상 영상을 위한 희소 코드의 집합인 결과 희소 코드 집합을 생성하는 희소 코드 계산부; 및
상기 샘플 영상을 복수의 부분으로 구획하여 생성된 분할 샘플 영상의 특징을 나타내는 하나 이상의 필터의 집합인 제 2 사전과, 상기 결과 희소 코드 집합을 이용하여, 상기 분할 대상 영상을 복수의 부분으로 구획함으로써 결과 영상을 생성하는 결과 영상 생성부를 포함하며,
상기 제 2 사전에 포함된 필터의 개수가 K개일 때, 상기 결과 희소 코드 집합은 K개의 희소 코드를 포함하며,
상기 결과 영상 출력부는, 상기 제 2 사전의 k(k는 0 이상 K 미만의 정수)번째 필터와 상기 결과 희소 코드 집합의 k번째 희소 코드 간의 컨볼루션 연산을 각 k에 대해 수행한 결과를 모두 더하여 얻어진 영상을 상기 결과 영상으로 결정하는
영상 분할 장치.An input unit for acquiring a division target image to be divided into a plurality of portions;
A sparse code calculation unit for generating a resultant sparse code set which is a set of sparse codes for the segmentation target image, using a first dictionary that is a set of one or more filters indicating characteristics of a sample image; And
A second dictionary, which is a set of one or more filters showing the characteristics of the divided sample images generated by dividing the sample image into a plurality of parts, and a second dictionary that is a function of dividing the divided object image into a plurality of parts And a result image generating unit for generating a result image,
When the number of filters included in the second dictionary is K, the resulting sparse code set includes K sparse codes,
The resultant image output unit adds all the results obtained by performing a convolution operation between the kth (k is an integer of 0 or more and less than K) filter of the second dictionary and the kth rare code of the resultant sparse code set for each k And determines the obtained image as the resultant image
Image segmentation device.
상기 컨볼루션 연산의 결과는, 상기 컨볼루션 연산을 푸리에 변환을 이용하여 행렬 곱 연산으로 치환하는 과정을 거쳐 산출되는
영상 분할 장치.11. The method of claim 10,
The result of the convolution operation is calculated by replacing the convolution operation with a matrix multiplication operation using Fourier transform
Image segmentation device.
상기 입력부는, 임의의 자연수를 입력받으며,
상기 K의 값은, 상기 임의의 자연수와 같은 수로 결정되는
영상 분할 장치.11. The method of claim 10,
The input unit receives an arbitrary natural number,
The value of K is determined by the same number as the arbitrary natural number
Image segmentation device.
상기 분할 대상 영상 및 샘플 영상은, 복수의 세포를 촬영한 영상이며, 상기 분할 샘플 영상은, 상기 샘플 영상에 포함된 복수의 세포 각각의 이미지의 윤곽선에 기초하여 복수의 부분으로 구획된 영상인
영상 분할 장치.11. The method of claim 10,
Wherein the division target image and the sample image are images obtained by photographing a plurality of cells and the division sample image is a video image segmented into a plurality of parts based on contours of images of a plurality of cells included in the sample image
Image segmentation device.
상기 결과 영상은, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지의 윤곽선과, 상기 분할 대상 영상 내의 복수의 세포 각각의 이미지에서 상기 윤곽선을 제외한 부분이 서로 구별되도록 이진화된 영상인
영상 분할 장치.18. The method of claim 17,
Wherein the resultant image is a binarized image such that a contour of an image of each of a plurality of cells in the divided object image and a portion of the plurality of cells in the divided object image excluding the contour are distinguished from each other
Image segmentation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170040008A KR101914244B1 (en) | 2017-03-29 | 2017-03-29 | Apparatus and method for image segmentation using dual dictionary learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170040008A KR101914244B1 (en) | 2017-03-29 | 2017-03-29 | Apparatus and method for image segmentation using dual dictionary learning |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180110455A KR20180110455A (en) | 2018-10-10 |
KR101914244B1 true KR101914244B1 (en) | 2018-11-01 |
Family
ID=63876257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170040008A KR101914244B1 (en) | 2017-03-29 | 2017-03-29 | Apparatus and method for image segmentation using dual dictionary learning |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101914244B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230025990A (en) | 2021-08-17 | 2023-02-24 | 연세대학교 산학협력단 | Apparatus and Method for Orthogonal Sparse Coding using Discrete Cosine Transform |
US11908133B2 (en) | 2020-09-25 | 2024-02-20 | Korea University Research And Business Foundation | Method for cell image segmentation using scribble labels, recording medium and device for performing the method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102084682B1 (en) * | 2019-01-07 | 2020-03-04 | 기초과학연구원 | Generating method for specialized microscope images using artificial neural network and image processing apparatus |
-
2017
- 2017-03-29 KR KR1020170040008A patent/KR101914244B1/en active IP Right Grant
Non-Patent Citations (1)
Title |
---|
논문:BIGONG WANG ET AL.,* |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11908133B2 (en) | 2020-09-25 | 2024-02-20 | Korea University Research And Business Foundation | Method for cell image segmentation using scribble labels, recording medium and device for performing the method |
KR20230025990A (en) | 2021-08-17 | 2023-02-24 | 연세대학교 산학협력단 | Apparatus and Method for Orthogonal Sparse Coding using Discrete Cosine Transform |
Also Published As
Publication number | Publication date |
---|---|
KR20180110455A (en) | 2018-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110889853B (en) | Tumor segmentation method based on residual error-attention deep neural network | |
CN110889852B (en) | Liver segmentation method based on residual error-attention deep neural network | |
CN112150428B (en) | Medical image segmentation method based on deep learning | |
US8712154B2 (en) | Image processing system and method | |
CN111488921B (en) | Intelligent analysis system and method for panoramic digital pathological image | |
WO2021203795A1 (en) | Pancreas ct automatic segmentation method based on saliency dense connection expansion convolutional network | |
CN108154519A (en) | Dividing method, device and the storage medium of eye fundus image medium vessels | |
CN111260055A (en) | Model training method based on three-dimensional image recognition, storage medium and equipment | |
KR101914244B1 (en) | Apparatus and method for image segmentation using dual dictionary learning | |
CN107146222B (en) | Medical image compression method based on human anatomy structure similarity | |
CN112233129B (en) | Deep learning-based parallel multi-scale attention mechanism semantic segmentation method and device | |
CN111161279A (en) | Medical image segmentation method and device and server | |
CN110349170B (en) | Full-connection CRF cascade FCN and K mean brain tumor segmentation algorithm | |
KR20220023323A (en) | Automatic multi-organ and tumor contouring system based on artificial intelligence for radiation treatment planning | |
CN112434172A (en) | Pathological image prognosis feature weight calculation method and system | |
Kumar et al. | Automatic image segmentation using wavelets | |
CN116664605B (en) | Medical image tumor segmentation method based on diffusion model and multi-mode fusion | |
CN113222903A (en) | Full-section histopathology image analysis method and system | |
CN112862684A (en) | Data processing method for depth map super-resolution reconstruction and denoising neural network | |
CN110176021B (en) | Level set image segmentation method and system for saliency information combined with brightness correction | |
CN110991408A (en) | Method and device for segmenting white matter high signal based on deep learning method | |
KR102526415B1 (en) | System and method for semi-supervised single image depth estimation and computer program for the same | |
Fetisov et al. | Unsupervised Prostate Cancer Histopathology Image Segmentation via Meta-Learning | |
Rmaidh et al. | A New Method for Solving Image Segmentation Problems using Global Optimization | |
Zhang et al. | Salient detection network for lung nodule detection in 3D Thoracic MRI Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |