KR20140047331A - Object segmentation using block clustering based on automatic initial region of interest estimation - Google Patents

Object segmentation using block clustering based on automatic initial region of interest estimation Download PDF

Info

Publication number
KR20140047331A
KR20140047331A KR1020120113457A KR20120113457A KR20140047331A KR 20140047331 A KR20140047331 A KR 20140047331A KR 1020120113457 A KR1020120113457 A KR 1020120113457A KR 20120113457 A KR20120113457 A KR 20120113457A KR 20140047331 A KR20140047331 A KR 20140047331A
Authority
KR
South Korea
Prior art keywords
cluster
background
information
block
area
Prior art date
Application number
KR1020120113457A
Other languages
Korean (ko)
Other versions
KR101394895B1 (en
Inventor
나인섭
김수형
오강한
김광복
Original Assignee
전남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전남대학교산학협력단 filed Critical 전남대학교산학협력단
Priority to KR1020120113457A priority Critical patent/KR101394895B1/en
Publication of KR20140047331A publication Critical patent/KR20140047331A/en
Application granted granted Critical
Publication of KR101394895B1 publication Critical patent/KR101394895B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an automatic object segmentation method for automatically segmenting an object from a background using a block clustering algorithm. The automatic object segmentation method is capable of improving user′s convenience and efficiency by automation to supplement the weakness of providing information on the object by a user in the existing GrabCut implementation. The automatic object segmentation method of the present invention comprises an object interest region estimation step of estimating an interest region of an object for image information including segmentation information of a background and the object. In the object interest region estimation step, cluster dispersion information of an image is analyzed to distinguish the cluster according to the size of a dispersion region, and the image is segmented into the predetermined number of blocks and is determined as an object cluster and a background cluster depending on the object area and the background area within an individual block, and a color mean value of the block.

Description

Block Clustering 을 이용한 관심영역기반 자동객체분할방법 및 자동객체분할시스템{OBJECT SEGMENTATION USING BLOCK CLUSTERING BASED ON AUTOMATIC INITIAL REGION OF INTEREST ESTIMATION}TECHNICAL FIELD [0001] The present invention relates to an automatic object segmentation method and an automatic object segmentation method using an object region based on block clustering and an automatic object segmentation system using block clustering.

본 발명은 Block Clustering 알고리즘을 이용하여 객체를 자동으로 배경으로부터 분할하는 것으로, 본 발명에 의해서 종래의 GrabCut 실시에서 사용자에 의해 객체에 대한 정보를 제공하는 단점을 보완하여 자동화시킴으로써 사용자의 편의성 및 효율성을 도모하도록 하였습니다. 그리하여 이러한 본 발명에 의하여 "문자", "지문", "포스터" 등 다양한 분야에서 이용하는 영상정보에 대해 매우 복잡한 배경과 불특정한 모양의 객체를 가진 물체를 자동분할하기 때문에 인식하는 객체가 불특정한 모양이 된다하여도 효과적으로 응용하여 적용할 수 있는 기술인 것이다.
The present invention divides an object from a background automatically by using a block clustering algorithm. By the present invention, the convenience and efficiency of a user can be improved by automating the disadvantage of providing information about an object by a user in a conventional GrabCut implementation I decided to plan. Therefore, according to the present invention, an object having a very complicated background and an object having an unspecified shape is automatically divided into image information used in various fields such as "character "," It is a technology that can be applied and applied effectively.

최근 고성능의 모바일 폰(스마트폰, 스마트패드, 또는 넷북) 등이 등장하고 사람들은 모바일 폰을 통해 고화질의 영상정보를 획득할 수 있게 되었다. 그리고 이것들을 응용할 수 있는 어플리케이션이 다수 등장하고 있다. 정의되지 않은 물체의 영상정보를 획득하고 이것을 인식하려는 연구는 지난 10여 년간 활발히 진행되어져 오고 있다. 무엇인가를 인식하기 위해서 좋은 특징정보가 필요하다. 그리고 좋은 특징정보는 배경으로부터 완벽히 분할된 객체로부터 나오는 것이 정설이다.Recently, high-performance mobile phones (smart phones, smart pads, or netbooks) have appeared and people can acquire high-quality image information through mobile phones. And there are many applications that can apply them. Research to acquire and recognize image information of an undefined object has been actively conducted for the past decade. Good feature information is needed to recognize something. And good feature information comes from fully subdivided objects from the background.

이처럼 객체를 배경으로부터 완벽히 분할하여 추출하기 위해서 그동안 사용자가 미리 객체에 해당하는 관심영역을 지정해서 처리하도록 시행되어져 온 것이다. 이처럼 사용자가 미리 객체에 해당하는 관심영역을 지정하게 되면, 사용자가 원하는 것을 지정할 수도 있겠으나, 수많은 영상을 처리하려고 할 때에는 사용자 지정에 한계가 있는 것이다. 특히 다수 영상으로 구성된 복합영상(동영상 등)을 편집하려고 할 때에는 사용자가 일일이 하나하나 지정하기에는 무리가 따르게 되는 문제점이 있는 것이다.
In order to extract an object completely from the background, the user has previously been designated to designate an area of interest corresponding to the object in advance. If the user designates the region of interest corresponding to the object in advance, the user can designate the desired region, but there is a limit to the user designation when processing a large number of images. In particular, when editing a composite image (moving image, etc.) composed of a plurality of images, it is difficult for the user to specify each one individually.

상기와 같은 문제점을 해소하기 위한 본 발명은 GrabCut 알고리즘의 단점인 사용자에 의해 객체의 사전정보를 미리 제공해야 하는 과정을 본 발명에 의해 자동으로 객체의 관심영역을 추정하여 자동화시키는데 주요 목적이 있는 것이다.In order to solve the above problems, the present invention has a main object of automatically estimating and automating a region of interest of an object according to the present invention, in which a user provides advance information of an object in advance, which is a disadvantage of the GrabCut algorithm .

그리고 본 발명의 다른 목적은, 영상처리분야에서 객체를 분리하는 알고리즘을 적용하기에 앞서 객체후보의 정보를 자동화로 분할시킴으로써 객체의 정보를 깨끗하게 추출하는 것이다.Another object of the present invention is to cleanly extract information of an object by dividing information of an object candidate automatically before applying an algorithm for separating objects in an image processing field.

또한 본 발명의 또 다른 목적은, 본 발명이 적용되어 영상에서 객체를 자동으로 분할시킴으로써 깨끗하게 분할된 객체정보를 GrabCut 알고리즘의 추정과정에 자동화시키는데 있다.
Still another object of the present invention is to automate the division of object information by automatically dividing the object in the image by applying the present invention to the estimation process of the GrabCut algorithm.

상기와 같은 목적을 달성하기 위한 본 발명은, 영상의 객체후보정보 및 배경정보를 분석하는 객체정보분석단계; 배경과 객체의 분할정보를 포함한 영상정보에 대해서 객체의 관심영역을 추정하는 객체관심영역추정단계; 및 상기 객체관심영역추정단계에 의해 분석된 객체의 관심영역의 정보를 이용하여 GrabCut 알고리즘에 의해 객체를 분할하는 GrabCut처리단계를 포함하는 것을 특징으로 하는 자동객체분할방법을 제공한다.According to an aspect of the present invention, there is provided a method for analyzing object candidate information and background information of an image, An object region estimation step of estimating a region of interest of an object with respect to image information including background and object division information; And a GrabCut processing step of dividing the object by the GrabCut algorithm using the information of the ROI of the object analyzed by the object ROI estimation step.

또한 본 발명은, 배경과 객체의 분할정보를 포함한 영상정보에 대해서 객체의 관심영역을 추정하는 객체관심영역추정단계를 포함하는데, 상기 객체관심영역추정단계는, 영상의 군집분산정보를 분석하여 분산영역의 크기에 따라 군집을 분별하고, 영상을 소정 개수의 블록으로 분할하고 개별 블록 내의 객체면적과 배경면적, 그리고 블록의 색상평균값에 따라서 객체군집과 배경군집으로 판별하는 것을 특징으로 하는 자동객체분할방법을 제공한다.According to another aspect of the present invention, there is provided a method for estimating an ROI of an object with respect to image information including a background and an object division information, Wherein the cluster is divided into a predetermined number of blocks and the object cluster and the background cluster are discriminated according to the object area and the background area in the individual block and the color average value of the block. ≪ / RTI >

이에 본 발명의 바람직한 실시예에 있어서, 상기 객체관심영역추정단계는: 영상정보에 대해서 배경군집, 중립군집, 객체군집에 대해 라벨링처리 및 객체의 영역추정을 수행하는 군집라벨링처리단계를 포함하는 것을 특징으로 한다.In a preferred embodiment of the present invention, the object region of interest estimating step includes: a cluster labeling step of performing a labeling process on the background information, a neutral cluster, and an object cluster for the image information, .

그리고 본 발명의 바람직한 실시예에 있어서, 상기 군집라벨링처리단계는: 영상의 배경, 중립, 객체로 분석된 배경군집, 중립군집, 객체군집에 대해 라벨링하기 위해 각 군집의 분산정보를 분석하는 군집분산정보분석단계; 및 영상의 외곽영역정보를 분석하는 외곽정보분석단계를 포함하는 것을 특징으로 한다.In a preferred embodiment of the present invention, the cluster labeling process includes: analyzing the variance information of each cluster to label the background of the image, the neutral, the analyzed background cluster, the neutral cluster, and the object cluster Information analysis phase; And an outer information analyzing step of analyzing the outer area information of the image.

또한 본 발명의 바람직한 실시예에 있어서, 상기 군집분산정보분석단계는 배경군집, 중립군집, 객체군집 중에서 분산영역이 큰 군집을 배경군집으로 판별하고, 분산영역이 작은 군집을 객체군집으로 판별하는 것을 특징으로 한다.Also, in a preferred embodiment of the present invention, the analyzing step of analyzing the cluster dispersion information comprises the steps of: discriminating a cluster having a large dispersion area from a background cluster, a neutral cluster, and an object cluster to a background cluster, .

아울러 본 발명의 바람직한 실시예에 있어서, 상기 객체관심영역추정단계는: 객체 영역의 정보를 포함한 영상을 소정의 개수의 블록으로 분할하고 블록으로 분할된 영상에서 객체의 관심영역을 추정하는 블록클러스터링처리단계를 포함하는 것을 특징으로 한다.According to a preferred embodiment of the present invention, the object region of interest estimation includes: a block clustering process of dividing an image including information of an object region into a predetermined number of blocks and estimating an ROI of the object in the block- The method comprising the steps of:

그리고 본 발명의 바람직한 실시예에 있어서, 상기 블록클러스터링처리단계는, 개별 블록에서 객체군집에 해당하는 블록내 객체면적값, 개별 블록에서 배경군집에 해당하는 블록내 배경면적값을 산출하는 블록별면적산출단계; 개별 블록별 색상평균값에 대해 객체군집의 평균색상값과의 거리, 개별 블록별 색상평균값에 대해 배경군집의 평균색상값과의 거리를 산출하는 블록색상정보산출단계; 및 상기 블록별면적산출단계와 블록색상정보산출단계에 의해 산출된 개별 블록에서의 객체면적, 배경면적, 색상값의 비교에 의해 개별 블록을 객체군집 또는 배경군집으로 라벨링처리하는 개별블록라벨링단계를 포함하는 것을 특징으로 한다.
In a preferred embodiment of the present invention, the block clustering processing step includes: an object area value in a block corresponding to an object cluster in an individual block; an area per block for calculating a background area value in a block corresponding to a background cluster in an individual block; Calculating step; A block color information calculating step of calculating a distance between the average color value of each block and the average color value of the object cluster, and a distance between the average color value of each block and the average color value of the background cluster; And an individual block labeling step of labeling the individual blocks as object clusters or background clusters by comparing object areas, background areas, and color values in the individual blocks calculated by the block area calculating step and the block color information calculating step .

이에 더하여 본 발명은, 영상의 객체정보 및 배경정보를 분석하는 객체정보분석부; 배경과 객체의 분할정보를 포함한 영상정보에 대해서 객체의 관심영역을 추정하는 객체관심영역추정부; 및 상기 객체관심영역추정부에 의해 분석된 객체의 관심영역의 정보를 이용하여 GrabCut 알고리즘에 의해 객체를 분할하는 GrabCut처리부를 포함하고, 상기 객체관심영역추정부는, 영상의 군집분산정보를 분석하여 분산영역의 크기에 따라 군집을 분별하고, 영상을 소정 개수의 블록으로 분할하고 개별 블록 내의 객체면적과 배경면적, 그리고 블록의 색상평균값에 따라서 객체군집과 배경군집으로 판별하는 것을 특징으로 하는 자동객체분할시스템을 제공한다.In addition, the present invention includes an object information analyzer for analyzing object information and background information of an image; An object region of interest estimating an area of interest of an object with respect to image information including background and object division information; And a GrabCut processing unit for dividing the object by the GrabCut algorithm using information of the ROI of the object analyzed by the ROI estimating unit, wherein the ROI estimating unit analyzes the cluster dispersion information of the image, Wherein the cluster is divided into a predetermined number of blocks and the object cluster and the background cluster are discriminated according to the object area and the background area in the individual block and the color average value of the block. System.

이러한 본 발명의 바람직한 실시예에 있어서, 상기 객체관심영역추정부는: 영상정보에 대해서 배경군집, 중립군집, 객체군집에 대해 라벨링처리 및 객체의 영역추정을 수행하는 군집라벨링처리부; 및 객체 영역의 정보를 포함한 영상을 소정의 개수의 블록으로 분할하고 블록으로 분할된 영상에서 객체의 관심영역을 추정하는 블록클러스터링처리부를 포함하는 것을 특징으로 한다.In an exemplary embodiment of the present invention, the object region of interest estimation unit may include: a community labeling processing unit for performing a labeling process and an area estimation of an object on a background cluster, a neutral cluster, and an object cluster with respect to image information; And a block clustering processor for dividing the image including the information of the object area into a predetermined number of blocks and estimating the ROI of the object in the block-divided image.

그리고 본 발명의 바람직한 실시예에 있어서, 상기 군집라벨링처리부는: 영상의 배경, 중립, 객체로 분석된 배경군집, 중립군집, 객체군집에 대해 라벨링하기 위해 각 군집의 분산정보를 분석하는 군집분산정보분석부; 영상의 외곽영역정보를 분석하는 외곽정보분석부; 및 상기 중립군집에 대해 배경군집 또는 객체군집으로 라벨링처리하는 중립군집라벨링부를 포함하는 것을 특징으로 한다.In a preferred embodiment of the present invention, the cluster labeling processing unit includes: a cluster distribution processing unit for analyzing distribution information of each cluster to label the background of the image, the neutral, the background cluster analyzed, the neutral cluster, Analysis section; An outer information analyzing unit for analyzing the outer area information of the image; And a neutral community labeling unit for labeling the neutral community with a background community or an object community.

나아가 본 발명의 바람직한 실시예에 있어서, 상기 블록클러스터링처리부는: 개별 블록에서 객체군집에 해당하는 블록내 객체면적값, 개별 블록에서 배경군집에 해당하는 블록내 배경면적값을 산출하는 블록별면적산출부; 개별 블록별 색상평균값에 대해 객체군집의 평균색상값과의 거리, 개별 블록별 색상평균값에 대해 배경군집의 평균색상값과의 거리를 산출하는 블록색상정보산출부; 및 상기 블록별면적산출부와 블록색상정보산출부에 의해 산출된 개별 블록에서의 객체면적, 배경면적, 색상값의 비교에 의해 개별 블록을 객체군집 또는 배경군집으로 라벨링처리하는 개별블록라벨링부를 포함하는 것을 특징으로 한다.
Furthermore, in a preferred embodiment of the present invention, the block clustering processing unit may include: an object area value in a block corresponding to an object cluster in an individual block; an area calculation unit for calculating a background area value in a block corresponding to the background cluster in the individual block; part; A block color information calculation unit for calculating a distance between a color average value of each block and an average color value of the object cluster and a color value average of each individual block and an average color value of the background group; And an individual block labeling unit for labeling individual blocks by an object cluster or a background cluster by comparing the object area, the background area, and the color values in the individual blocks calculated by the block area calculation unit and the block color information calculation unit .

상기와 같이 구성되는 본 발명의 우수한 효과는 영상처리 분야에서 유용하게 쓰이는 GrabCut 알고리즘의 최대 단점인 사용자에 의해 사전정보를 제공해야 하는 과정을 자동화시킨 거시다.The excellent effect of the present invention as described above is to automate the process of providing advance information by the user, which is the biggest disadvantage of the GrabCut algorithm, which is useful in the image processing field.

이에 본 발명의 또 다른 효과는, 입력 영상에서 객체의 관심영역의 정보를 자동으로 산출하여 영상처리를 수행하는 것으로, 자동화과정을 시키면서도 사용자가 일일이 지정하는 수동처리에 대비하여도 성능 및 편차값의 차이가 거의 없을 정도로 효과가 탁월하다는 것이다.Another advantage of the present invention is that the information of the region of interest of the object is automatically calculated from the input image to perform the image processing. Even if the user manually designates the manual processing, The effect is excellent, with little difference.

이처럼 입력 영상의 객체정보를 분할하기 위해 객체의 관심영역을 자동으로 추정하는 본 발명의 특징기술은 바람직한 적용응용예인 GrabCut 알고리즘의 실시예에서뿐만 아니라 다양한 영상처리 및 영상정보처리의 알고리즘에서도 응용되어 실시됨으로써, 영상정보에서 객체 정보의 처리효율을 증대시키는 효과가 있는 것이다.
The characteristic feature of the present invention for automatically estimating a region of interest of an object in order to divide object information of the input image is applied not only to the embodiment of the GrabCut algorithm, which is a preferred application example, but also to various image processing and image information processing algorithms , The processing efficiency of the object information is increased in the image information.

도 1은 본 발명에 따른 자동객체분할방법이 처리되는 과정에 대한 순서도이다.
도 2는 본 발명에 따른 자동객체분할방법 중 GMM처리단계가 적용된 객체정보분석단계의 처리결과에 대한 예시도이다.
도 3은 본 발명에 따른 자동객체분할방법 중 객체관심영역추정단계 중에서 군집라벨링처리단계에 의해 영상이 객체군집, 배경군집, 중립군집으로 분별된 상태의 예시도이다.
도 4는 본 발명에 따른 자동객체분할방법 중 객체관심영역추정단계 중에서 블록클러스터링처리단계에 의해 영상이 다수 블록으로 분할되어 객체군집과 배경군집으로 분별된 상태의 예시도이다.
도 5는 본 발명에 따른 자동객체분할방법 중 객체정보분석단계와 객체관심영역추정단계 이후 GrabCut처리단계의 결과에 대한 예시도이다.
도 5의 (a)는 입력영상이고, (b)는 군집정보에 대한 분산정보, 외곽정보분석에 따른 영상이며, (c)는 block clustering의 예시도이고, (d)는 block clustering 결과 영상이며, (e)는 객체의 관심영역 설정 예시도이고, (f)는 GrabCut 결과 영상이다.
도 6은 본 발명에 따른 자동객체분할시스템에 대한 구성도이다.
도 7은 본 발명에 따른 자동객체분할방법에 대한 처리순서도이다.
FIG. 1 is a flowchart illustrating a process of processing an automatic object segmentation method according to the present invention.
FIG. 2 is a diagram illustrating an example of processing results of an object information analysis step to which a GMM processing step is applied among automatic object segmentation methods according to the present invention.
FIG. 3 is an exemplary view illustrating a state in which an image is classified into an object cluster, a background cluster, and a neutral cluster by the cluster labeling processing step in the object ROI estimation step in the automatic object division method according to the present invention.
FIG. 4 is an exemplary view illustrating a state in which an image is divided into a plurality of blocks and classified into an object cluster and a background cluster by the block clustering processing step in the object ROI estimation step in the automatic object division method according to the present invention.
FIG. 5 is a diagram illustrating the results of the object information analysis step and the GrabCut processing step after the object ROI estimation step in the automatic object division method according to the present invention.
FIG. 5A is an input image, FIG. 5B is an image according to the scatter information and outer information analysis of the cluster information, FIG. 5C is an example of block clustering, and FIG. (e) is an example of setting an area of interest of an object, and (f) is a GrabCut result image.
6 is a block diagram of an automatic object segmentation system according to the present invention.
7 is a flowchart illustrating an automatic object segmentation method according to the present invention.

이하 첨부되는 도면을 참조하여 상세히 설명한다.
Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

즉 본 발명에 따른 GrabCut 기반의 Block Clustering을 이용한 자동객체분할방법 및 자동객체분할시스템(10)은 첨부된 도 1 내지 도 7 등에서와 같이, 배경과 객체의 분할정보를 포함한 영상정보에 대해서 객체의 관심영역을 추정하는 객체관심영역추정단계(S300)를 포함하여 수행하도록 구비된 것이다.That is, the automatic object segmentation method and the automatic object segmentation system 10 using GrabCut-based Block Clustering according to the present invention can be applied to image information including background and object segmentation information as shown in FIGS. 1 to 7, And an object region of interest estimation step S300 for estimating a region of interest.

즉 도 3의 아래 영상과 같이 입력된 대상이 되는 전체 영상에 대해, 분석해야 하는 객체의 영상을 분별하기 위해 객체관심영역추정단계(S300)가 수행되는 것이다. 이를 위해 영상 정보 중에서 객체에 해당하는 부분을 관심영역으로 추정하도록 함으로써, 객체관심영역추정단계(S300) 이후 처리되는 영상 처리과정에서 손쉽게 객체를 판별하여 처리하는 것이다.That is, an object interest region estimation step (S300) is performed to discriminate an image of an object to be analyzed with respect to a whole image to be input as shown in the lower image of FIG. For this purpose, the object corresponding to the object in the image information is estimated as the region of interest, thereby easily identifying and processing the object in the image processing process after the object region of interest estimation (S300).

이에 객체관심영역추정단계(S300)는, 영상의 군집분산정보를 분석하여 분산영역의 크기에 따라 군집을 분별하고, 영상을 소정 개수의 블록으로 분할하고 개별 블록 내의 객체면적과 배경면적, 그리고 블록의 색상평균값에 따라서 객체군집과 배경군집으로 판별하는 것을 특징으로 하는 것이다.In step S300, the object region of interest is analyzed to classify the clusters according to the size of the distributed region, the image is divided into a predetermined number of blocks, the object area and the background area in the individual block, The object cluster and the background cluster are determined according to the color average value of the object cluster and the background cluster.

그리고 본 발명에서의 자동객체분할방법은 GrabCut 기반을 주요 내용을 하고 있는 것이다. 이러한 객체관심영역추정단계(S300)가 포함되어 이용될 수 있는 실시예로 GrabCut 처리에 따른 영상의 전체 처리 과정의 예를 살펴보면 다음과 같이 적용될 수 있을 것이다. 물론 후술되는 K-means 알고리즘의 이용, GMM 처리의 이용으로 본 발명에 따른 객체관심영역추정의 실시를 위해 사전 처리의 과정을 이루고, 또한 본 발명에 따른 객체관심영역추정에 의해 객체의 관심영역을 추정한 자료를 이용하여 GrabCut 알고리즘을 수행하는 것이 본 발명에서의 바람직한 입력 영상의 처리 실시예인 것이다. 이러한 본 발명에 따른 자동객체분할 기술의 적용은 K-means 알고리즘, GMM 처리, GrabCut 알고리즘 등을 비롯하여 다양한 영상정보 처리에 본 발명의 기술이 응용되어 적용되어 실시될 수도 있을 것이다.The automatic object segmentation method according to the present invention is based on GrabCut. An example of the entire process of the image according to the GrabCut process can be applied as an embodiment in which the object interest region estimation step (S300) is included and can be used as follows. Of course, the use of the K-means algorithm, which will be described later, and the GMM process are used to perform the pre-processing for the object region estimation according to the present invention, and the object region of interest The execution of the GrabCut algorithm using the estimated data is a preferred embodiment of the input image processing in the present invention. The application of the automatic object segmentation technique according to the present invention may be implemented by applying the technique of the present invention to various image information processing including K-means algorithm, GMM processing, GrabCut algorithm and the like.

이에 우선 본 발명의 바람직한 실시예에 따른 처리과정을 보면, 영상의 객체정보 및 배경정보를 분석하는 객체정보분석단계(S200)가 수행된다.First, an object information analysis step (S200) for analyzing object information and background information of an image is performed according to a preferred embodiment of the present invention.

이러한 상기 객체정보분석단계(S200)는 좀더 세분하면, K-means 알고리즘에 의해 대상이 되는 영상에 대한 군집화알고리즘을 수행하는 K-means 클러스터링단계(S210)와, 혼합가중치(mixture weight)에 따른 GMM알고리즘의 수행으로 대상이 되는 영상을 "배경", "중립", "객체"로 하여 영상을 분할하는 GMM처리단계(S220)를 포함하여 수행된다.The object information analysis step S200 may further include a K-means clustering step S210 for performing a clustering algorithm for a target image by the K-means algorithm, a GMM according to a mixture weight, And a GMM processing step S220 of dividing the image into a "background", a "neutral", and an "object" by performing an algorithm.

그리고 영상의 객체정보 및 배경정보를 분석하는 객체정보분석부(20)가 마련되고, 이러한 객체정보분석부(20)에 의하여 객체정보분석단계(S200), K-means 클러스터링단계(S210), GMM처리단계(S220) 등이 수행될 것이다.The object information analysis unit 20 analyzes the object information and the background information of the image. The object information analysis step S200, the K-means clustering step S210, the GMM A processing step S220, and the like will be performed.

다음으로 배경과 객체의 분할정보를 포함한 영상정보에 대해서 객체의 관심영역을 추정하는 객체관심영역추정단계(S300)가 수행되는 것이며, 이러한 객체관심영역추정단계(S300)에 대한 좀더 상세한 설명은 하기에서 하기로 한다.Next, an object region of interest estimation step (S300) for estimating an ROI of the object with respect to the image information including the background and object division information is performed, and a detailed description of the object region estimation step (S300) .

또한 상기 객체관심영역추정단계(S300)에 의해 분석된 객체의 관심영역의 정보를 이용하여 GrabCut 알고리즘에 의해 객체를 분할하는 GrabCut처리단계(S400)가 수행되는 것이다.Also, a GrabCut processing step (S400) for dividing an object by the GrabCut algorithm using the information of the ROI of the object analyzed by the object ROI (S300) is performed.

그리고 상기 객체관심영역추정부(30)에 의해 분석된 객체의 관심영역의 정보를 이용하여 GrabCut 알고리즘에 의해 객체를 분할하는 GrabCut처리부(40)가 마련되는 것이며, 이러한 GrabCut처리부(40)에 의해 GrabCut처리단계(S400)가 수행될 것이다.A GrabCut processing unit 40 is provided for dividing an object by the GrabCut algorithm using the information of the ROI of the object analyzed by the object ROI estimating unit 30. The GrabCut processing unit 40 performs a GrabCut processing The processing step S400 will be performed.

또한 객체관심영역추정단계(S300)의 수행으로, 배경과 객체의 분할정보를 포함한 영상정보에 대해서 객체의 관심영역을 추정하는 객체관심영역추정부(30)가 마련될 것이다.In addition, an object interest region estimating unit 30 for estimating a region of interest of the object with respect to image information including background and object division information by performing the object region of interest estimation step S300 will be provided.

즉 이러한 상기 객체관심영역추정부(30)에 의하여, 영상의 군집분산정보를 분석하여 분산영역의 크기에 따라 군집을 분별하고, 영상을 소정 개수의 블록으로 분할하고 개별 블록 내의 객체면적과 배경면적, 그리고 블록의 색상평균값에 따라서 객체군집과 배경군집으로 판별하는 것이다.
That is, the object interest region estimating unit 30 analyzes the cluster dispersion information of the image to discriminate the clusters according to the size of the dispersion region, divides the image into a predetermined number of blocks, And the object cluster and the background cluster according to the color average value of the block.

이와 같이 마련되는 본 발명에 있어서, GrabCut 기반의 Block Clustering을 이용한 자동객체분할방법 및 자동객체분할시스템(10)의 세부 구성을 상세히 살펴보기로 한다.In the present invention, the automatic object segmentation method using Block Clustering based on GrabCut and the detailed configuration of the automatic object segmentation system 10 will be described in detail.

즉 상기 객체관심영역추정단계(S300)는, 영상정보에 대해서 배경군집, 중립군집, 객체군집에 대해 라벨링처리 및 객체의 영역추정을 수행하는 군집라벨링처리단계(S310)를 포함하는 것이다.That is, the object region estimation step S300 includes a cluster labeling processing step S310 for performing labeling processing on the background information, neutral cluster, object cluster, and object region estimation on the image information.

또한 상기 객체관심영역추정단계(S300)는, 객체 영역의 정보를 포함한 영상을 소정의 개수의 블록으로 분할하고 블록으로 분할된 영상에서 객체의 관심영역을 추정하는 블록클러스터링처리단계(S320)도 함께 포함하여 실시될 수 있을 것이다.The object region estimation step S300 includes a block clustering process S320 of dividing the image including the object region information into a predetermined number of blocks and estimating the ROI of the object in the block-divided image And the like.

그리고 이러한 객체관심영역추정단계(S300)를 수행하는 객체관심영역추정부(30)는, 영상정보에 대해서 배경군집, 중립군집, 객체군집에 대해 라벨링처리 및 객체의 영역추정을 수행하는 군집라벨링처리부(31) 및 객체 영역의 정보를 포함한 영상을 소정의 개수의 블록으로 분할하고 블록으로 분할된 영상에서 객체의 관심영역을 추정하는 블록클러스터링처리부(32) 등을 포함한다. 그리하여 군집라벨링처리부(31)에 의해 군집라벨링처리단계(S310)를 수행하고, 블록클러스터링처리부(32)에 의해 블록클러스터링처리단계(S320) 등을 수행하는 것이다.The object interest region estimating unit 30 for estimating the object region of interest (S300) includes a background labeling processing unit 30 for performing labeling processing on the image information, a neutralization cluster, And a block clustering processor 32 for dividing an image including the information of the object region into a predetermined number of blocks and estimating a region of interest of the object in the block-divided image. The cluster labeling processing step S310 is performed by the cluster labeling processing unit 31 and the block clustering processing step S320 and the like are performed by the block clustering processing unit 32. [

또한 상기 군집라벨링처리단계(S310)는, 영상의 배경, 중립, 객체로 분석된 배경군집, 중립군집, 객체군집에 대해 라벨링하기 위해 각 군집의 분산정보를 분석하는 군집분산정보분석단계(S311) 및 영상의 외곽영역정보를 분석하는 외곽정보분석단계(S312) 등을 포함하는 것이다.The cluster labeling processing step S310 includes a cluster distributed information analysis step S311 for analyzing the distributed information of each cluster for labeling the background of the image, the neutral image, the analyzed background cluster, the neutral cluster, and the object cluster, And an outline information analysis step S312 for analyzing the outline area information of the image.

이에 상기 군집분산정보분석단계(S311)는 배경군집, 중립군집, 객체군집 중에서 분산영역이 큰 군집을 배경군집으로 판별하고, 분산영역이 작은 군집을 객체군집으로 판별하는 것이다. 또한 상기 군집라벨링처리부(31)에는, 군집분산정보분석단계(S311)의 처리에 의해 영상의 배경, 중립, 객체로 분석된 배경군집, 중립군집, 객체군집에 대해 라벨링하기 위해 각 군집의 분산정보를 분석하는 군집분산정보분석부(311)가 마련될 것이다.In the analysis step of the cluster distributed information (S311), a cluster having a large dispersed area is discriminated as a background cluster among the background cluster, a neutral cluster, and an object cluster, and a cluster having a small dispersed area is identified as an object cluster. In addition, the cluster labeling processing unit 31 receives distribution information of each cluster to label the background of the image, the neutral, the analyzed background cluster, the neutral cluster, and the object cluster by the processing of the cluster dispersion information analysis step S311 A cluster distributed information analysis unit 311 for analyzing the cluster distributed information.

그리고 이러한 상기 군집분산정보분석단계(S311)는 수학식 2에 의해 각 군집의 분산정보를 산출하는 단계가 수행될 것이다.
In step S311, the distributed information of each cluster may be calculated by Equation (2).

(수학식 2)(2)

Figure pat00001
,
Figure pat00001
,

('area'는 영상(클래스) 전체 면적, x와 y는 클래스에서 축들, C는 클래스,

Figure pat00002
Figure pat00003
는 두 축의 평균값).
('area' is the total area of the image (class), x and y are the axes in the class, C is the class,
Figure pat00002
Wow
Figure pat00003
Is the mean value of the two axes).

그리고 외곽정보분석단계(S312)의 처리에 의해 영상의 외곽영역정보를 분석하는 외곽정보분석부(312)가 마련될 것이다. 이에 상기 외곽정보분석단계(S312)는 수학식 4에 의해 각 군집의 외곽정보를 산출하는 단계가 수행될 것이다.
In addition, the edge information analyzer 312 may be provided to analyze the edge region information of the image by processing the edge information analysis step S312. Accordingly, the outline information analysis step S312 may be performed to calculate the outline information of each of the clusters using Equation (4).

(수학식 4)(Equation 4)

Figure pat00004
,
Figure pat00004
,

(G는 각 군집 정보(each Gaussian area), τ는 외곽영역(total boundary region)).
(G is each Gaussian area, and τ is the total boundary region).

아울러 상기 중립군집에 대해 수학식 5에 의해 배경군집 또는 객체군집으로 라벨링처리하는 중립군집라벨링단계(S313)가 수행될 것이다. 그리고 이러한 중립군집라벨링단계(S313) 수행에 대해 상기 중립군집에 대해 배경군집 또는 객체군집으로 라벨링처리하는 중립군집라벨링부(313)가 마련된다.
In addition, a neutral community labeling step (S313) of labeling the neutral community with a background community or an object community according to Equation (5) will be performed. The neutral cluster labeling unit 313 performs labeling processing on the neutral clusters as a background cluster or an object cluster for the performance of the neutral cluster labeling step S313.

(수학식 5)(5)

Figure pat00005
Figure pat00005

(foreground는 객체군집, background는 배경군집,

Figure pat00006
는 중립영역의 분산,
Figure pat00007
는 외곽영역 안에서 중립영역이 차지하고 있는 면적값,
Figure pat00008
Figure pat00009
는 각각 객체의 분산과 배경의 분산,
Figure pat00010
Figure pat00011
는 각각 외곽영역 안에 객체와 배경이 차지하고 있는 면적값).
(foreground is an object cluster, background is a background cluster,
Figure pat00006
The dispersion of the neutral region,
Figure pat00007
Is the area value occupied by the neutral region in the outer region,
Figure pat00008
Wow
Figure pat00009
And the distribution of the background,
Figure pat00010
Wow
Figure pat00011
Is the area value occupied by the object and the background in the outer area).

다음으로 상기 객체관심영역추정단계(S300) 중에서, 객체 영역의 정보를 포함한 영상을 소정의 개수의 블록으로 분할하고 블록으로 분할된 영상에서 객체의 관심영역을 추정하는 블록클러스터링처리단계(S320)는, 개별 블록에서 객체군집에 해당하는 블록내 객체면적값, 개별 블록에서 배경군집에 해당하는 블록내 배경면적값을 산출하는 블록별면적산출단계(S321)와, 개별 블록별 색상평균값에 대해 객체군집의 평균색상값과의 거리, 개별 블록별 색상평균값에 대해 배경군집의 평균색상값과의 거리를 산출하는 블록색상정보산출단계(S322), 그리고 상기 블록별면적산출단계(S321)와 블록색상정보산출단계(S322)에 의해 산출된 개별 블록에서의 객체면적, 배경면적, 색상값의 비교에 의해 개별 블록을 객체군집 또는 배경군집으로 라벨링처리하는 개별블록라벨링단계(S323) 등을 포함하여 수행하는 것이다.The block clustering process S320 of dividing the image including the object region information into a predetermined number of blocks and estimating the region of interest of the object in the block-divided image in the object region estimation step S300 (S321) for calculating an area value of a block corresponding to an object cluster in an individual block, a background area value in a block corresponding to a background cluster in an individual block, A block color information calculation step (S322) of calculating a distance between the average color value of each block and the average color value of the background cluster, a block color information calculation step (S322) of calculating a block color area average value, By comparing the object area, the background area, and the color value in the individual block calculated by the calculation step S322, the individual block is classified into the object cluster or the background cluster, It is to perform, including the labeling step (S323) or the like.

또한 객체관심영역추정부(30) 중에서 객체 영역의 정보를 포함한 영상을 소정의 개수의 블록으로 분할하고 블록으로 분할된 영상에서 객체의 관심영역을 추정하는 블록클러스터링처리부(32)는, 개별 블록에서 객체군집에 해당하는 블록내 객체면적값, 개별 블록에서 배경군집에 해당하는 블록내 배경면적값을 산출하는 블록별면적산출부(321)와, 개별 블록별 색상평균값에 대해 객체군집의 평균색상값과의 거리, 개별 블록별 색상평균값에 대해 배경군집의 평균색상값과의 거리를 산출하는 블록색상정보산출부(322), 그리고 상기 블록별면적산출부(321)와 블록색상정보산출부(322)에 의해 산출된 개별 블록에서의 객체면적, 배경면적, 색상값의 비교에 의해 개별 블록을 객체군집 또는 배경군집으로 라벨링처리하는 개별블록라벨링부(323) 등을 포함하여 마련된 것이다.The block clustering processing unit 32 for dividing the image including the object region information into a predetermined number of blocks and estimating the ROI of the object in the block-divided image among the object ROI estimation units 30, A block area calculation unit 321 for calculating an object area value in a block corresponding to an object cluster, a background area value in a block corresponding to a background cluster in an individual block, and an area calculation unit 321 for calculating an average color value A block color information calculation unit 322 for calculating a distance between the block color information and an average color value of the background cluster with respect to a color average value for each individual block and a block color information calculation unit 322 for calculating a block color area calculation unit 321 and a block color information calculation unit 322 And an individual block labeling unit 323 for labeling individual blocks as object clusters or background clusters by comparing object areas, background areas, and color values in individual blocks calculated by the individual block It will cost.

그리고 상기 블록별면적산출단계(S321)는 수학식 6에 의하여 개별 블록에 대한 객체면적값, 배경면적값을 산출하는 것이다.
The block area calculation step S321 calculates an object area value and a background area value for an individual block according to Equation (6).

(수학식 6)(6)

Figure pat00012
Figure pat00012

(

Figure pat00013
는 개별 블록 중에서 객체의 면적값,
Figure pat00014
는 개별 블록 중에서 배경의 면적값,
Figure pat00015
는 객체의 면적값,
Figure pat00016
는 배경의 면적값,
Figure pat00017
는 분할된 영상의 개별 블록),
(
Figure pat00013
Is an area value of an object among individual blocks,
Figure pat00014
The area value of the background in the individual blocks,
Figure pat00015
Is the area value of the object,
Figure pat00016
Is the area value of the background,
Figure pat00017
Is an individual block of the divided image),

또한 상기 블록색상정보산출단계(S322)는 수학식 7, 수학식 8에 의하여 개별 블록의 색상평균값에 대해 객체군집과 배경군집 각각의 평균색상값을 산출하는 것이다.
The block color information calculation step S322 calculates an average color value of each of the object cluster and the background cluster with respect to the color average value of the individual blocks using Equations (7) and (8).

(수학식 7)(7)

Figure pat00018
,
Figure pat00018
,

(

Figure pat00019
는 개별 블록의 평균색상과 객체의 평균색상의 거리,
Figure pat00020
는 개별 블록의 평균색상과 배경의 평균색상의 거리,
Figure pat00021
는 각 블록의 평균색상,
Figure pat00022
는 객체의 평균색상,
Figure pat00023
는 배경의 평균색상).
(
Figure pat00019
Is the distance between the average color of the individual blocks and the average color of the object,
Figure pat00020
Is the distance between the average color of the individual blocks and the background color,
Figure pat00021
Is the average color of each block,
Figure pat00022
The average color of the object,
Figure pat00023
The average color of the background).

(수학식 8)(8)

Figure pat00024
,
Figure pat00024
,

(

Figure pat00025
는 normalization 된 개별 블록과 객체 사이의 평균색상거리,
Figure pat00026
는 normalization 된 개별 블록과 배경 사이의 평균색상거리).
(
Figure pat00025
Is the average color distance between the normalized individual blocks and objects,
Figure pat00026
Is the average color distance between the individual blocks normalized and the background).

그리고 상기 개별블록라벨링단계(S323)는 수학식 9에 의하여 개별 블록을 객체군집 또는 배경군집으로 라벨링처리하는 것이다.
In the individual block labeling step S323, an individual block is labeled with an object cluster or a background cluster according to Equation (9).

(수학식 9)(9)

Figure pat00027

Figure pat00027

이와 같이 블록클러스터링처리단계(S320)의 블록별면적산출단계(S321), 블록색상정보산출단계(S322), 개별블록라벨링단계(S323)를 수행하여 객체군집과 배경군집이 판별되고 라벨링되어 객체의 관심영역을 추정하게 된다. 이처럼 객체의 관심영역이 추정된 영상 정보를 제공받은 GrabCut처리부(40)에 의하여 GrabCut처리단계(S400)를 수행함으로써, 도 5의 오른쪽 그림에서와 같이 객체의 결과영상 정보를 산출하게 된다.
The object cluster and the background cluster are identified and labeled by performing the block-by-block area calculation step S321, the block color information calculation step S322, and the individual block labeling step S323 of the block clustering processing step S320, The region of interest is estimated. The GrabCut processing unit 40 receiving the estimated image information of the ROI of the object performs the GrabCut processing step S400 to calculate the result image information of the object as shown in the right picture of FIG.

이와 같이 마련되는 본 발명에 따른 GrabCut 기반의 Block Clustering을 이용한 자동객체분할방법 및 자동객체분할시스템(10)을 첨부된 도면들을 이용하여 설명하면 다름과 같다.The automatic object segmentation method and the automatic object segmentation system 10 using GrabCut based Block Clustering according to the present invention will now be described with reference to the accompanying drawings.

먼저 도 1에서와 같이 Initial Segmentation 과정(객체정보분석단계)으로 RGB 색상으로 구성된 영상 정보를 입력받는다. 그리고 K-means 알고리즘과 GMM 알고리즘을 이용하여 객체에 대한 대략적인 정보를 획득하게 된다. 이후 Automatic Initial Region of Interest Estimation using block clustering(객체관심영역추정단계) 과정에서 앞 과정에서 얻어진 분석정보를 이용하여 객체와 배경으로 대표되는 군집영역을 라벨링처리한 다음, Block Clustering 알고리즘에 의해 객체에 대한 관심영역을 산출하게 된다. 마지막으로 Object Segmentation 과정(GrabCut처리단계)에서는 앞 과정에서 얻어진 영상객체의 관심영역정보를 제공받아 GrabCut 알고리즘에 의해 배경으로부터 분할된 객체의 정보를 획득하는 것이다.
First, as shown in FIG. 1, an initial segmentation process (object information analysis step) receives image information composed of RGB colors. Then, the K-means algorithm and the GMM algorithm are used to obtain approximate information about the object. Then, in the automatic initial region of Interest Estimation using block clustering process, the cluster region represented by the object and the background is labeled using the analysis information obtained in the previous process, The region of interest is calculated. Finally, in the Object Segmentation process (GrabCut processing step), information of the object region of the image object obtained in the previous process is received and information of the object segmented from the background is obtained by the GrabCut algorithm.

1) Initial Segmentation1) Initial Segmentation

이러한 일련의 과정 중에서 먼저 객체정보분석단계(S200, Initial Segmentation) 과정을 살펴보기로 한다. 이러한 객체정보분석단계는 입력되는 영상에서 객체(배경)에 대한 대략적인 정보를 얻기 위한 것이다.
First, the process of analyzing the object information (S200, Initial Segmentation) will be described. This object information analysis step is for obtaining approximate information about an object (background) in an input image.

a. K-means clusteringa. K-means clustering

K-means clustering algorithm(K-means 클러스터링단계)은 객체에 대한 정보가 없더라도 비슷한 성분끼리 라벨링하는 대표적인 군집화 알고리즘이다. 여기서 K-means clustering algorithm은 다음 파트에서 사용될 GMM 알고리즘의 초기 파라메터 (평균, 공분산 등)를 추정하는데 사용된다.
The K-means clustering algorithm (K-means clustering step) is a representative clustering algorithm that labels similar components even if there is no information about the objects. Here, the K-means clustering algorithm is used to estimate the initial parameters (average, covariance, etc.) of the GMM algorithm to be used in the next part.

b. GMM clusteringb. GMM clustering

GMM(Gaussian Mixture Model) clustering algorithm(GMM처리단계)은 주어진 표본 자료 집합의 분포 밀도를 단 하나의 확률 밀도 함수로 모델링하는 방법을 개선한 밀도 추정방법으로, 복수 개의 가우시안 확률밀도 함수로 자료 분포를 모형화하는 방법이다. 전체 확률 밀도 함수가 M 개인 GMM은 수학식 1과 같이 표현된다.
The GMM (Gaussian Mixture Model) clustering algorithm is a density estimation method that improves the modeling of the distribution density of a given sample data set as a single probability density function. It is a method of modeling. The GMM having the total probability density function M is expressed by Equation (1).

Figure pat00028
Figure pat00028

여기서 x는 D-dimensional (R, G, B) continuous-valued 자료,

Figure pat00029
(i = 1, ......, M)는 자료 x에 대해서
Figure pat00030
(평균벡터) 째 성분 파라미터
Figure pat00031
(공분산)로 이루어진 확률밀도함수를 의미하며,
Figure pat00032
는 혼합 가중치(mixture weight)이다.Where x is the D-dimensional (R, G, B) continuous-valued data,
Figure pat00029
(i = 1, ......, M) is for data x
Figure pat00030
(Mean vector) th component parameter
Figure pat00031
(Covariance) of the probability density function,
Figure pat00032
Is the mixture weight.

본 발명에서 GMM 알고리즘은 앞의 K-means clustering 과정에 의해 얻어진 GMM 초기 값을 이용하여 입력영상을 "배경군집", "중립군집", "객체군집"으로 대표되는 3개의 군집으로 분할하고, 최적화시키기 위해서 EM(Expectation - Maximization) algorithm을 사용한다. 도 2는 이러한 GMM 처리단계에 의해 3개의 군집으로 분할된 영상을 보여주는 것이다.
In the present invention, the GMM algorithm divides the input image into three clusters represented by "background cluster", "neutral cluster" and "object cluster" using the initial values of GMM obtained by the K-means clustering process, The EM (Expectation - Maximization) algorithm is used. FIG. 2 shows an image divided into three clusters by this GMM processing step.

2) Automatic Initial Region of Interest Estimation using Block clustering2) Automatic Initial Region of Interest Estimation using Block clustering

본 Automatic Initial Region of Interest Estimation using Block clustering(객체관심영역추정단계)는 앞 과정(객체정보분석단계, Initial Segmentation)의 결과를 이용하여 수행하는 것이며, 영상 객체 주변의 관심영역을 설정하는 것이다. 이러한 과정의 결과정보는 다음 과정인 GrabCut의 관심영역을 자동으로 그릴 때 사용되는 것이다.
This Automatic Initial Region of Interest Estimation using block clustering is performed by using the result of the previous process (initial segmentation) and setting the region of interest around the image object. The result of this process is used to automatically draw the next area of interest, GrabCut.

a. Labeling classa. Labeling class

본 Labeling class 과정(군집라벨링처리단계)는 앞 과정인 Initial Segmentation(객체정보분석단계)에서 입력된 영상을 3개의 군집으로 나눈 GMM 처리의 결과를 객체군집, 배경군집, 중립군집 등으로 라벨링 처리하는 것이다. 이를 위해 각 군집들의 분산정보와 함께 영상의 외곽영역 정보를 분석하게 된다.In this labeling class process (cluster labeling process step), the result of GMM processing that divided the input image into three clusters in the initial segmentation (object information analysis step) is labeled as object cluster, background cluster, neutral cluster will be. To do this, we analyze the outer region information of the image together with the variance information of each cluster.

먼저 각 군집들을 포함하는 클래스의 분산정보를 이용하는 것으로, 분산정보의 분석을 통하여 볼 때 배경군집은 객체군집보다 큰 분산을 이루게 된다(군집분산정보분석단계). 다음으로 외곽영역 정보체크를 수행함에 의하여, 배경군집에 해당하는 군집 부분은 외곽영역에 분포하게 되므로 외곽영역 정보를 분석함으로써 배경군집을 분석할 수 있을 것이다(외곽정보분석단계).First, by using the distributed information of classes including each cluster, the background cluster becomes larger than the object cluster by analyzing the distributed information (cluster distributed information analysis step). Next, by performing the check of the outer region information, the cluster portion corresponding to the background cluster is distributed in the outer region, so that the background cluster can be analyzed by analyzing the outer region information (outer information analysis step).

이에 수학식 2는 각 군집의 픽셀정보를 분석하여 분산정보를 획득하는 식이다.
Equation (2) is an equation for obtaining the variance information by analyzing the pixel information of each cluster.

Figure pat00033
Figure pat00033

여기서 'area'는 영상(클래스) 전체 면적, x와 y는 클래스에서 축들, C는 클래스,

Figure pat00034
Figure pat00035
는 두 축의 평균값이 된다.
Where 'area' is the total area of the image (class), x and y are the axes in the class, C is the class,
Figure pat00034
Wow
Figure pat00035
Is the average of the two axes.

이러한 수학식 2에서 얻어진 각 군집들의 분산값을 normalization 하기 위해 수학식 3을 이용한다.
Equation (3) is used to normalize the variance of each cluster obtained from Equation (2).

Figure pat00036
Figure pat00036

이러한 분산값의 처리에 의하면 배경군집의 분산값이 크게 되고 반면 제일 작은 분산값은 객체군집으로 판별될 것이므로, 각각의 분산값 정보로 하여 "배경군집"과, "객체군집"으로 라벨링 처리하는 것이다.
According to the processing of the variance value, the variance value of the background cluster becomes large whereas the smallest variance value will be discriminated as the object cluster, so that the labeling process is performed as "background cluster" and "object cluster" .

다음으로 외곽영역 정보를 판별하는 것으로 수학식 4를 이용한다.
Next, equation (4) is used to determine the outer area information.

Figure pat00037
Figure pat00037

여기서 G는 각 군집 정보(each Gaussian area), τ는 외곽영역(total boundary region)이다.Where G is each Gaussian area, and τ is the total boundary region.

이에 FG(Foreground, 객체군집)과 BG(Background, 배경군집)의 크기를 비교하여 계산 결과가 더 작게 나온 쪽으로 입력 픽셀을 라벨링한다. 이것은 수학식 4와 같이 표현된다. 이러한 수학식 4는 각 군집이 외곽영역 안에서 어느 정도 영역을 차지하고 있는가를 측정하는 것이다.Then, the size of the foreground (object group) and the background (background) is compared with each other, and the input pixel is labeled toward the smaller calculation result. This is expressed by Equation (4). Equation (4) is to measure how much each cluster occupies an area in the outer area.

이상의 수학식 2 내지 수학식 4 등에 의해서 얻어진 정보를 이용하여, 분산값이 가장 큰 값을 지닌 군집을 "배경군집"으로, 작은 값을 갖는 군집을 "객체군집"으로 라벨링한다. 또한 중간 값은 "중립군집"으로 영역을 산출한다.
The cluster having the largest variance value is labeled as the "background cluster " and the cluster having the smallest value is labeled as the" object cluster "using the information obtained by the above Equations 2 to 4, The median value is calculated as a "neutral cluster ".

다음 과정은 중립군집이 되는 영역을 배경군집이 아니면 객체군집으로 라벨링하는 과정이다(중립군집라벨링단계). 이에 수학식 5는 중립군집에 대해 앞서 얻어진 배경군집과 객체군집의 값과의 유클리디안 거리를 계산하여 더 가까운 쪽으로 라벨링처리하는 것이다.
The next step is to label the neutral clusters as object clusters, unless they are background clusters (neutral clustering labeling). Equation (5) calculates the Euclidean distance between the background cluster and the object cluster obtained for the neutral cluster, and labels the cluster closer to the closer one.

Figure pat00038
Figure pat00038

여기서 foreground는 객체군집, background는 배경군집,

Figure pat00039
는 중립영역의 분산,
Figure pat00040
는 외곽영역 안에서 중립영역이 차지하고 있는 면적값,
Figure pat00041
Figure pat00042
는 각각 객체의 분산과 배경의 분산,
Figure pat00043
Figure pat00044
는 각각 외곽영역 안에 객체와 배경이 차지하고 있는 면적값이다.
Here foreground is the object cluster, background is the background cluster,
Figure pat00039
The dispersion of the neutral region,
Figure pat00040
Is the area value occupied by the neutral region in the outer region,
Figure pat00041
Wow
Figure pat00042
And the distribution of the background,
Figure pat00043
Wow
Figure pat00044
Is the area value occupied by the object and the background in the outer area, respectively.

도 3은 앞선 GMM 처리단계에 의한 영상을 군집라벨링처리단계에 의해 배경군집, 객체군집, 그리고 중립군집(배경 또는 객체)으로 라벨링 처리하여 객체 영역을 추정한 결과를 나타낸 예시도이다.
FIG. 3 is an exemplary view illustrating a result of object region estimation by labeling a background image, an object image, and a neutral image (background or object) by a cluster labeling process.

b. Block clusteringb. Block clustering

본 Block clustering(블록클러스터링처리단계)는 앞선 과정(군집라벨링처리단계)에서 추정된 영상을 소정 수의 블록으로 분할하여 처리함으로써 객체군집의 영역 정보를 처리하여, 이후 GrabCut의 처리시 객체의 관심영역을 설정하기 위한 것이다.In this block clustering process, region information of an object cluster is processed by dividing and processing an image estimated in the previous process (cluster labeling process step) into a predetermined number of blocks, and then, in processing of the GrabCut, .

먼저 입력된 영상을 소정의 수의 블록으로 나누게 된다. 본 발명에서 예시하고 있는 실시예시에서는 10 * 10, 즉 100개의 블록으로 나누어 처리하는 것으로 예시할 수 있으며, 이러한 블록의 수는 처리되는 영상의 상태나 용량, 처리 시스템의 상태 등에 따라 알맞게 정하여질 수 있을 것이다.First, the input image is divided into a predetermined number of blocks. In the exemplary embodiment of the present invention, the number of blocks may be divided into 10 * 10, i.e., 100 blocks. The number of such blocks may be appropriately determined according to the state or capacity of the processed image, There will be.

이처럼 소정 수로 나눈 각 블록은 객체 주변의 사각형(관심영역)을 설정하기 위해 이전 과정(군집라벨링처리단계, Labeling Class)에서의 영상 처리 결과 정보를 이용하여, 배경군집, 객체군집으로 라벨링한다.Each block divided by a predetermined number is labeled with a background cluster and an object cluster using the image processing result information in the previous process (cluster labeling process step, Labeling Class) to set a rectangle (ROI) around the object.

다음으로 각 블록들에 대해서 2가지 특징요소를 산출하게 된다. 첫째는 각 군집이 개별 블록 내에서 차지하고 있는 면적값을 산출한다. 두 번째는 개별 블록 내의 색상평균에 대해서, 객체군집으로 대표되는 블록의 색상평균 및 배경군집으로 대표되는 블록의 색상평균 등과의 거리를 비교한다. 이 과정은 수학식 6 내지 수학식 8 등에 의해서 처리된다.
Next, two feature elements are calculated for each block. First, each cluster calculates the area value occupied by each block. The second compares the color averages in the individual blocks with the color averages of the blocks represented by the object clusters and the color averages of the blocks represented by the background clusters. This process is performed by Equations (6) to (8).

Figure pat00045
Figure pat00045

여기서

Figure pat00046
는 개별 블록 중에서 객체의 면적값(each Gaussian),
Figure pat00047
는 개별 블록 중에서 배경의 면적값(each Gaussian),
Figure pat00048
는 객체의 면적값,
Figure pat00049
는 배경의 면적값,
Figure pat00050
는 분할된 영상의 개별 블록이다.here
Figure pat00046
(Each Gaussian) of the object in the individual blocks,
Figure pat00047
Is the area of the background (each Gaussian),
Figure pat00048
Is the area value of the object,
Figure pat00049
Is the area value of the background,
Figure pat00050
Are individual blocks of the segmented image.

즉 수학식 6에 의해 개별 블록 안에 객체와 배경이 각각 어느 정도 면적을 차지하는가를 산출하게 된다.
That is, Equation (6) calculates how much the object and the background occupy the respective areas in the individual blocks.

Figure pat00051
Figure pat00051

여기서

Figure pat00052
는 개별 블록의 평균색상과 객체의 평균색상의 거리,
Figure pat00053
는 개별 블록의 평균색상과 배경의 평균색상의 거리,
Figure pat00054
는 각 블록의 평균색상,
Figure pat00055
는 객체의 평균색상,
Figure pat00056
는 배경의 평균색상이다.here
Figure pat00052
Is the distance between the average color of the individual blocks and the average color of the object,
Figure pat00053
Is the distance between the average color of the individual blocks and the background color,
Figure pat00054
Is the average color of each block,
Figure pat00055
The average color of the object,
Figure pat00056
Is the average color of the background.

그리고 이것을 normalization을 하기 위해 수학식 8을 이용한다.
We use equation (8) to normalize it.

Figure pat00057
Figure pat00057

여기서

Figure pat00058
는 normalization 된 개별 블록과 객체 사이의 평균색상거리,
Figure pat00059
는 normalization 된 개별 블록과 배경 사이의 평균색상거리가 된다.
here
Figure pat00058
Is the average color distance between the normalized individual blocks and objects,
Figure pat00059
Is the average color distance between the normalized individual blocks and the background.

이처럼 개별 블록들에 대해 객체와 배경이 차지하는 면적(Bf, Bg)과 개별 블록들의 평균색상에 대해 객체의 블록의 평균색상 및 배경의 블록의 평균색상 등과의 거리 등을 적용한 수학식 9를 이용하여 해당 블록을 객체군집과 배경군집으로 라벨링 처리하는 것이다.
Using Equation (9) which applies the area (Bf, Bg) occupied by the object and the background to the individual blocks and the average color of the object block and the average color of the background block with respect to the average color of the individual blocks, And the corresponding block is labeled with an object cluster and a background cluster.

Figure pat00060
Figure pat00060

이상의 과정을 거치게 되면 최종적인 객체군집 주변의 관심영역(도 7의 오른쪽에서 두 번째 그림에서 사각형)의 데이터를 산출하게 되는 것이며, 도 4의 그림들은 이러한 Block Clustering의 처리 과정을 보여주는 것이다.
If the above process is performed, the data of the area of interest (rectangle in the second figure on the right side of FIG. 7) around the final object cluster is calculated, and the blocks of FIG. 4 illustrate the process of the block clustering.

3) Object Segmentation3) Object Segmentation

이러한 Object Segmentation(GrabCut처리단계)는 앞선 과정(객체관심영역추정단계)에 의해서 추정된 객체의 관심영역에 대해 GrabCut 알고리즘을 이용해서 객체를 분할하는 것이다. 이에 적용되는 일반적인 GrabCut algorithm을 적용함에 있어서, 영상에서 객체를 분할하는데 강력한 알고리즘인 것으로 본 발명에서는 GrabCut 알고리즘을 이용하기에 앞서 객체의 관심영역을 설정함에 관리자에 의한 지정하는 종래기술의 문제점에 대해서, 본 발명에 따른 자동객체분할방법을 적용함으로써, 객체의 관심영역 설정과정을 자동화하는 것이다.
This Object Segmentation (GrabCut processing step) divides the object using the GrabCut algorithm for the region of interest of the object estimated by the preceding process (object region estimation step). In applying the general GrabCut algorithm applied thereto, it is a powerful algorithm for dividing an object in an image. In the present invention, prior to using the GrabCut algorithm, By applying the automatic object segmentation method according to the present invention, it is possible to automate the process of setting an ROI of an object.

4) 유효 실험예4) Effective experimental example

이상에서와 같이 마련되는 본 발명에 따른 GrabCut 기반의 Block Clustering을 이용한 자동객체분할방법(자동객체분할시스템)을 적용하여 분석하는 영상 및 처리의 과정의 예로는 도 5의 예시와 같다. 또한 본 발명에 적용될 수 있는 영상은 250X210부터 450X420 까지를 비롯한 다양한 크기의 영상을 사용할 수 있을 것이다.An example of the image and the process of analyzing by applying the automatic object segmentation method (automatic object segmentation system) using the GrabCut based Block Clustering according to the present invention is as shown in FIG. In addition, images that can be applied to the present invention may use images of various sizes including 250X210 to 450X420.

본 발명에 대한 유효 실험예로는 영상의 객체 주위의 관심영역을 직접 그려서 나온 결과(original)와, 본 발명에 의해서 자동으로 분할된 객체의 관심영역의 설정에 의한 결과(proposed method)를 이용하였다.As an effective example of the present invention, a result obtained by directly drawing a region of interest around an object of an image (original) and a result of setting a region of interest of an object automatically segmented by the present invention are used .

이러한 두 가지 방법에 의해서 분할된 영상(segmented image)들은 Ground truth 영상과 비교하여 수학식 10을 이용하여 점수를 만들었다. 수학식 10을 보면 Ground truth 영상과 분할된 영상(segmented image)이 유사할수록 스코어 S가 1에 근접함을 알 수 있다.
The segmented images obtained by these two methods are compared with the ground truth image and scored using Equation (10). In Equation (10), it can be seen that the score S approaches 1 as the ground truth image and the segmented image become similar.

Figure pat00061
Figure pat00061

아래 표 1은 수학식 10에 의해서 모든 영상에 대해 계산한 결과이다. 두 가지로 나누어지는데 average는 평균이고 standard deviation은 표준편차이다. 평균의 경우 높을수록 좋고 표준편차는 낮을수록 높은 성능을 지닌다고 할 것이다.
Table 1 below shows the results of calculation for all images by Equation (10). It is divided into two, average is average and standard deviation is standard deviation. The higher the average, the better the better. The lower the standard deviation, the higher the performance.

methodmethod averageaverage standard deviation표준 deviation Grab Cut (original)Grab Cut (original) 0.940.94 0.030.03 proposed methodproposed method 0.900.90 0.040.04

실험결과를 보면 original GrabCut, 즉 사용자에 의해 관심영역이 지정된 종래의 실시의 경우와, 본 발명에 의해 제안된 방법에 의한 처리에 있어서 성능이 거의 유사하게 나옴을 알 수 있다. 즉 본 발명에 의한 방법을 이용하더라도 종래 사용자가 일일이 지정하는 것처럼 유사하게 나오는 반면 본 발명에 의해서는 자동을 처리되고 빠르게 처리되므로 보다 효율이 월등한 것이라고 볼 것이다. 따라서 본 발명에서는 전 과정을 자동화시켰고 성능 또한 original GrabCut과 유사하게 나옴으로써 실제적으로 성능이 향상된 것임을 알 수 있다.
Experimental results show that the performance of the original GrabCut, that is, the performance by the method proposed by the present invention and the conventional implementation in which the region of interest is specified by the user, comes to be almost similar. That is, even if the method according to the present invention is used, it is similar to what the conventional user designates, whereas according to the present invention, it is considered that the efficiency is superior because the automatic processing is performed and processed quickly. Therefore, in the present invention, the entire process is automated and the performance is similar to that of the original GrabCut, so that the performance is actually improved.

이상으로 본 발명의 실시예에 대하여 상세히 설명하였으나, 이는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 일실시예를 기재한 것이므로, 상기 실시예의 기재에 의하여 본 발명의 기술적 사상이 제한적으로 해석되어서는 아니 된다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. The technical idea of the present invention should not be construed as being limited.

10 : 자동객체분할시스템 20 : 객체정보분석부
30 : 객체관심영역추정부 31 : 군집라벨링처리부
311 : 군집분산정보분석부 312 : 외곽정보분석부
313 : 중립군집라벨링부 32 : 블록클러스터링처리부
321 : 블록별면적산출부 322 : 블록색상정보산출부
323 : 개별블록라벨링부
40 : GrabCut처리부
10: automatic object division system 20: object information analysis unit
30: Object ROI estimation unit 31: Cluster labeling processing unit
311: Cluster dispersion information analysis unit 312: Outline information analysis unit
313: Neutral cluster labeling unit 32: Block clustering processing unit
321: block-by-block area calculating unit 322: block color information calculating unit
323: Individual block labeling section
40 GrabCut processing unit

Claims (15)

영상의 객체정보 및 배경정보를 분석하는 객체정보분석단계;
배경과 객체의 분할정보를 포함한 영상정보에 대해서 객체의 관심영역을 추정하는 객체관심영역추정단계; 및
상기 객체관심영역추정단계에 의해 분석된 객체의 관심영역의 정보를 이용하여 GrabCut 알고리즘에 의해 객체를 분할하는 GrabCut처리단계;
를 포함하는 것을 특징으로 하는 자동객체분할방법.
An object information analysis step of analyzing object information and background information of the image;
An object region estimation step of estimating a region of interest of an object with respect to image information including background and object division information; And
A GrabCut processing step of dividing the object by the GrabCut algorithm using the information of the ROI of the object analyzed by the ROI estimation step;
The method comprising the steps of:
배경과 객체의 분할정보를 포함한 영상정보에 대해서 객체의 관심영역을 추정하는 객체관심영역추정단계를 포함하는데,
상기 객체관심영역추정단계는,
영상의 군집분산정보를 분석하여 분산영역의 크기에 따라 군집을 분별하고,
영상을 소정 개수의 블록으로 분할하고 개별 블록 내의 객체면적과 배경면적, 그리고 블록의 색상평균값에 따라서 객체군집과 배경군집으로 판별하는 것을 특징으로 하는 자동객체분할방법.
And an object region of interest estimation step of estimating a region of interest of the object with respect to image information including background and object division information.
Wherein the object region of interest estimation comprises:
We analyze clustering information of image and discriminate clusters according to the size of the clustering area,
Wherein an image is divided into a predetermined number of blocks, and an object cluster and a background cluster are determined according to an object area and a background area in an individual block, and a color average value of the block.
제 1항 또는 제 2항에 있어서,
상기 객체관심영역추정단계는:
영상정보에 대해서 배경군집, 중립군집, 객체군집에 대해 라벨링처리 및 객체의 영역추정을 수행하는 군집라벨링처리단계;
를 포함하는 것을 특징으로 하는 자동객체분할방법.
3. The method according to claim 1 or 2,
Wherein the object region of interest estimation comprises:
A cluster labeling processing step of performing labeling processing and object area estimation on a background cluster, a neutral cluster, and an object cluster with respect to image information;
The method comprising the steps of:
제 3항에 있어서,
상기 군집라벨링처리단계는:
영상의 배경, 중립, 객체로 분석된 배경군집, 중립군집, 객체군집에 대해 라벨링하기 위해 각 군집의 분산정보를 분석하는 군집분산정보분석단계; 및
영상의 외곽영역정보를 분석하는 외곽정보분석단계;
를 포함하는 것을 특징으로 하는 자동객체분할방법.
The method of claim 3,
Wherein the cluster labeling processing step comprises:
A cluster distributed information analysis step for analyzing the distributed information of each cluster to label the background of the image, the neutral, the analyzed background cluster, the neutral cluster, and the object cluster; And
An outer information analysis step of analyzing the outer area information of the image;
The method comprising the steps of:
제 4항에 있어서,
상기 군집분산정보분석단계는 배경군집, 중립군집, 객체군집 중에서 분산영역이 큰 군집을 배경군집으로 판별하고, 분산영역이 작은 군집을 객체군집으로 판별하는 것을 특징으로 하는 자동객체분할방법.
5. The method of claim 4,
In the cluster dispersion information analysis step, a cluster having a large dispersion area among the background clusters, a neutral cluster, and an object cluster is determined as a background cluster, and a cluster having a small dispersion area is determined as an object cluster.
제 4항에 있어서,
상기 군집분산정보분석단계는 수학식 2에 의해 각 군집의 분산정보를 산출하는 단계; 및
(수학식 2)
Figure pat00062
,
('area'는 영상(클래스) 전체 면적, x와 y는 클래스에서 축들, C는 클래스,
Figure pat00063
Figure pat00064
는 두 축의 평균값),
상기 외곽정보분석단계(S312)는 수학식 4에 의해 각 군집의 외곽정보를 산출하는 단계;
(수학식 4)
Figure pat00065
,
(G는 각 군집 정보(each Gaussian area), τ는 외곽영역(total boundary region)),
를 포함하는 것을 특징으로 하는 자동객체분할방법.
5. The method of claim 4,
The step of analyzing the cluster distributed information may include: calculating dispersion information of each cluster by Equation (2); And
(2)
Figure pat00062
,
('area' is the total area of the image (class), x and y are the axes in the class, C is the class,
Figure pat00063
Wow
Figure pat00064
Is the mean value of the two axes),
The perimeter information analysis step S312 may include calculating perimeter information of each of the clusters using Equation (4);
(4)
Figure pat00065
,
(G is each Gaussian area, τ is a total boundary region)
The method comprising the steps of:
제 3항에 있어서,
상기 중립군집에 대해 수학식 5에 의해 배경군집 또는 객체군집으로 라벨링처리하는 중립군집라벨링단계;
(수학식 5)
Figure pat00066

(foreground는 객체군집, background는 배경군집,
Figure pat00067
는 중립영역의 분산,
Figure pat00068
는 외곽영역 안에서 중립영역이 차지하고 있는 면적값,
Figure pat00069
Figure pat00070
는 각각 객체의 분산과 배경의 분산,
Figure pat00071
Figure pat00072
는 각각 외곽영역 안에 객체와 배경이 차지하고 있는 면적값),
를 포함하는 것을 특징으로 하는 자동객체분할방법.
The method of claim 3,
A neutral community labeling step of labeling the neutral community with a background community or an object community according to Equation (5);
(5)
Figure pat00066

(foreground is an object cluster, background is a background cluster,
Figure pat00067
The dispersion of the neutral region,
Figure pat00068
Is the area value occupied by the neutral region in the outer region,
Figure pat00069
Wow
Figure pat00070
And the distribution of the background,
Figure pat00071
Wow
Figure pat00072
Is the area value occupied by the object and the background in the outer area, respectively)
The method comprising the steps of:
제 1항 또는 제 2항에 있어서,
상기 객체관심영역추정단계는:
객체 영역의 정보를 포함한 영상을 소정의 개수의 블록으로 분할하고 블록으로 분할된 영상에서 객체의 관심영역을 추정하는 블록클러스터링처리단계;
를 포함하는 것을 특징으로 하는 자동객체분할방법.
3. The method according to claim 1 or 2,
Wherein the object region of interest estimation comprises:
A block clustering processing step of dividing an image including the information of the object area into a predetermined number of blocks and estimating a ROI of the object in the divided images;
The method comprising the steps of:
제 8항에 있어서,
상기 블록클러스터링처리단계는,
개별 블록에서 객체군집에 해당하는 블록내 객체면적값, 개별 블록에서 배경군집에 해당하는 블록내 배경면적값을 산출하는 블록별면적산출단계;
개별 블록별 색상평균값에 대해 객체군집의 평균색상값과의 거리, 개별 블록별 색상평균값에 대해 배경군집의 평균색상값과의 거리를 산출하는 블록색상정보산출단계; 및
상기 블록별면적산출단계와 블록색상정보산출단계에 의해 산출된 개별 블록에서의 객체면적, 배경면적, 색상값의 비교에 의해 개별 블록을 객체군집 또는 배경군집으로 라벨링처리하는 개별블록라벨링단계;
를 포함하는 것을 특징으로 하는 자동객체분할방법.
The method of claim 8,
Wherein the block clustering processing step comprises:
An object area value in a block corresponding to an object cluster in an individual block, a block area calculation step for calculating a background area value in a block corresponding to the background cluster in the individual block;
A block color information calculating step of calculating a distance between the average color value of each block and the average color value of the object cluster, and a distance between the average color value of each block and the average color value of the background cluster; And
An individual block labeling step of labeling individual blocks into object clusters or background clusters by comparing object areas, background areas, and color values in the individual blocks calculated by the block area calculation step and the block color information calculation step;
The method comprising the steps of:
제 9항에 있어서,
상기 블록별면적산출단계는 수학식 6에 의하여 개별 블록에 대한 객체면적값, 배경면적값을 산출하고,
상기 블록색상정보산출단계는 수학식 7, 수학식 8에 의하여 개별 블록의 색상평균값에 대해 객체군집과 배경군집 각각의 평균색상값을 산출하며,
상기 개별블록라벨링단계는 수학식 9에 의하여 개별 블록을 객체군집 또는 배경군집으로 라벨링처리하는 것을 특징으로 하는 자동객체분할방법.

(수학식 6)
Figure pat00073
,
(
Figure pat00074
는 개별 블록 중에서 객체의 면적값,
Figure pat00075
는 개별 블록 중에서 배경의 면적값,
Figure pat00076
는 객체의 면적값,
Figure pat00077
는 배경의 면적값,
Figure pat00078
는 분할된 영상의 개별 블록),
(수학식 7)
Figure pat00079
,
(
Figure pat00080
는 개별 블록의 평균색상과 객체의 평균색상의 거리,
Figure pat00081
는 개별 블록의 평균색상과 배경의 평균색상의 거리,
Figure pat00082
는 각 블록의 평균색상,
Figure pat00083
는 객체의 평균색상,
Figure pat00084
는 배경의 평균색상),
(수학식 8)
Figure pat00085
,
(
Figure pat00086
는 normalization 된 개별 블록과 객체 사이의 평균색상거리,
Figure pat00087
는 normalization 된 개별 블록과 배경 사이의 평균색상거리),
(수학식 9)
Figure pat00088
.
10. The method of claim 9,
The block area calculation step may calculate an object area value and a background area value for each block according to Equation (6)
The block color information calculation step calculates an average color value of each of the object cluster and the background cluster with respect to the color average value of the individual blocks according to Equations (7) and (8)
Wherein the individual block labeling step labels individual blocks as object clusters or background clusters according to Equation (9).

(6)
Figure pat00073
,
(
Figure pat00074
Is an area value of an object among individual blocks,
Figure pat00075
The area value of the background in the individual blocks,
Figure pat00076
Is the area value of the object,
Figure pat00077
Is the area value of the background,
Figure pat00078
Is an individual block of the divided image),
(7)
Figure pat00079
,
(
Figure pat00080
Is the distance between the average color of the individual blocks and the average color of the object,
Figure pat00081
Is the distance between the average color of the individual blocks and the background color,
Figure pat00082
Is the average color of each block,
Figure pat00083
The average color of the object,
Figure pat00084
The average color of the background),
(8)
Figure pat00085
,
(
Figure pat00086
Is the average color distance between the normalized individual blocks and objects,
Figure pat00087
Is the average color distance between the individualized blocks normalized and the background),
(9)
Figure pat00088
.
제 1항 또는 제 2항에 있어서,
상기 객체정보분석단계는:
K-means 알고리즘에 의해 대상이 되는 영상에 대한 군집화알고리즘을 수행하는 K-means 클러스터링단계; 및
혼합가중치(mixture weight)에 따른 GMM알고리즘의 수행으로 대상이 되는 영상을 "배경", "중립", "객체"로 하여 영상을 분할하는 GMM처리단계;
를 포함하는 것을 특징으로 하는 자동객체분할방법.
3. The method according to claim 1 or 2,
The object information analysis step includes:
A K-means clustering step for performing a clustering algorithm on an image targeted by the K-means algorithm; And
A GMM processing step of dividing an image into a "background", a "neutral", and an "object" as the target image by performing the GMM algorithm according to the mixture weight;
The method comprising the steps of:
영상의 객체정보 및 배경정보를 분석하는 객체정보분석부;
배경과 객체의 분할정보를 포함한 영상정보에 대해서 객체의 관심영역을 추정하는 객체관심영역추정부; 및
상기 객체관심영역추정부에 의해 분석된 객체의 관심영역의 정보를 이용하여 GrabCut 알고리즘에 의해 객체를 분할하는 GrabCut처리부;
를 포함하고,
상기 객체관심영역추정부는,
영상의 군집분산정보를 분석하여 분산영역의 크기에 따라 군집을 분별하고,
영상을 소정 개수의 블록으로 분할하고 개별 블록 내의 객체면적과 배경면적, 그리고 블록의 색상평균값에 따라서 객체군집과 배경군집으로 판별하는 것을 특징으로 하는 자동객체분할시스템.
An object information analyzer for analyzing object information and background information of an image;
An object region of interest estimating an area of interest of an object with respect to image information including background and object division information; And
A GrabCut processing unit for dividing the object by the GrabCut algorithm using information of the ROI of the object analyzed by the ROI estimating unit;
Lt; / RTI >
The object-of-
We analyze clustering information of image and discriminate clusters according to the size of the clustering area,
Wherein the image is divided into a predetermined number of blocks and the object cluster and the background cluster are discriminated according to the object area and the background area in the individual block and the color average value of the block.
제 12항에 있어서,
상기 객체관심영역추정부는:
영상정보에 대해서 배경군집, 중립군집, 객체군집에 대해 라벨링처리 및 객체의 영역추정을 수행하는 군집라벨링처리부; 및
객체 영역의 정보를 포함한 영상을 소정의 개수의 블록으로 분할하고 블록으로 분할된 영상에서 객체의 관심영역을 추정하는 블록클러스터링처리부;
를 포함하는 것을 특징으로 하는 자동객체분할시스템.
13. The method of claim 12,
Wherein the object ROI estimator comprises:
A community labeling processor for performing a labeling process and an area estimation of an object on a background cluster, a neutral cluster, and an object cluster with respect to image information; And
A block clustering processing unit for dividing an image including information of an object area into a predetermined number of blocks and estimating a ROI of the object in the divided images;
And an automatic object segmentation system.
제 13항에 있어서,
상기 군집라벨링처리부는:
영상의 배경, 중립, 객체로 분석된 배경군집, 중립군집, 객체군집에 대해 라벨링하기 위해 각 군집의 분산정보를 분석하는 군집분산정보분석부;
영상의 외곽영역정보를 분석하는 외곽정보분석부; 및
상기 중립군집에 대해 배경군집 또는 객체군집으로 라벨링처리하는 중립군집라벨링부;
를 포함하는 것을 특징으로 하는 자동객체분할시스템.
14. The method of claim 13,
Wherein the cluster labeling processing unit comprises:
A cluster distributed information analysis unit for analyzing the distributed information of each cluster to label the background of the image, the neutral, the analyzed background cluster, the neutral cluster, and the object cluster;
An outer information analyzing unit for analyzing the outer area information of the image; And
A neutral community labeling unit for labeling the neutral community with a background community or an object community;
And an automatic object segmentation system.
제 13항에 있어서,
상기 블록클러스터링처리부는:
개별 블록에서 객체군집에 해당하는 블록내 객체면적값, 개별 블록에서 배경군집에 해당하는 블록내 배경면적값을 산출하는 블록별면적산출부;
개별 블록별 색상평균값에 대해 객체군집의 평균색상값과의 거리, 개별 블록별 색상평균값에 대해 배경군집의 평균색상값과의 거리를 산출하는 블록색상정보산출부; 및
상기 블록별면적산출부와 블록색상정보산출부에 의해 산출된 개별 블록에서의 객체면적, 배경면적, 색상값의 비교에 의해 개별 블록을 객체군집 또는 배경군집으로 라벨링처리하는 개별블록라벨링부;
를 포함하는 것을 특징으로 하는 자동객체분할시스템.
14. The method of claim 13,
Wherein the block clustering processor comprises:
A block area calculation unit for calculating an object area value in the block corresponding to the object cluster in the individual block and a background area value in the block corresponding to the background cluster in the individual block;
A block color information calculation unit for calculating a distance between a color average value of each block and an average color value of the object cluster and a color value average of each individual block and an average color value of the background group; And
An individual block labeling unit for labeling individual blocks as object clusters or background clusters by comparing object areas, background areas, and color values in individual blocks calculated by the block area calculation unit and the block color information calculation unit;
And an automatic object segmentation system.
KR1020120113457A 2012-10-12 2012-10-12 Object segmentation using block clustering based on automatic initial region of interest estimation KR101394895B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120113457A KR101394895B1 (en) 2012-10-12 2012-10-12 Object segmentation using block clustering based on automatic initial region of interest estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120113457A KR101394895B1 (en) 2012-10-12 2012-10-12 Object segmentation using block clustering based on automatic initial region of interest estimation

Publications (2)

Publication Number Publication Date
KR20140047331A true KR20140047331A (en) 2014-04-22
KR101394895B1 KR101394895B1 (en) 2014-05-14

Family

ID=50653941

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120113457A KR101394895B1 (en) 2012-10-12 2012-10-12 Object segmentation using block clustering based on automatic initial region of interest estimation

Country Status (1)

Country Link
KR (1) KR101394895B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104021566A (en) * 2014-06-24 2014-09-03 天津大学 GrabCut algorithm-based automatic segmentation method of tongue diagnosis image
CN106651898A (en) * 2016-11-08 2017-05-10 河海大学 Rapid Grabcut algorithm based on masking interpolations
CN110348277A (en) * 2018-11-30 2019-10-18 浙江农林大学 A kind of tree species image-recognizing method based under natural background
WO2024158073A1 (en) * 2023-01-27 2024-08-02 라쿠텐 심포니 주식회사 Determination of similarity between images using learning model

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10163000B2 (en) 2015-01-14 2018-12-25 Samsung Electronics Co., Ltd. Method and apparatus for determining type of movement of object in video
CN107730528A (en) * 2017-10-28 2018-02-23 天津大学 A kind of interactive image segmentation and fusion method based on grabcut algorithms

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101401184B1 (en) * 2008-02-01 2014-05-30 고려대학교 산학협력단 Method for estimation of object boundaries in moving picture
KR101082665B1 (en) * 2009-10-21 2011-11-14 한양대학교 산학협력단 Apparatus and method for extracting interest object

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104021566A (en) * 2014-06-24 2014-09-03 天津大学 GrabCut algorithm-based automatic segmentation method of tongue diagnosis image
CN106651898A (en) * 2016-11-08 2017-05-10 河海大学 Rapid Grabcut algorithm based on masking interpolations
CN106651898B (en) * 2016-11-08 2019-05-28 河海大学 A kind of quick Grabcut algorithm based on masking-out interpolation
CN110348277A (en) * 2018-11-30 2019-10-18 浙江农林大学 A kind of tree species image-recognizing method based under natural background
WO2024158073A1 (en) * 2023-01-27 2024-08-02 라쿠텐 심포니 주식회사 Determination of similarity between images using learning model

Also Published As

Publication number Publication date
KR101394895B1 (en) 2014-05-14

Similar Documents

Publication Publication Date Title
KR101394895B1 (en) Object segmentation using block clustering based on automatic initial region of interest estimation
US10497121B2 (en) Method and system for extracting a main subject of an image
CN108537239B (en) Method for detecting image saliency target
Chang et al. Nuclear segmentation in H&E sections via multi-reference graph cut (MRGC)
EP1699016A2 (en) Method and apparatus for automated analysis of biological specimen
CN106127735B (en) A kind of facilities vegetable edge clear class blade face scab dividing method and device
Wuest et al. Region based segmentation of QuickBird multispectral imagery through band ratios and fuzzy comparison
CA2557122A1 (en) A system and method for toboggan based object segmentation using divergent gradient field response in images
EP3175389A1 (en) Automatic glandular and tubule detection in histological grading of breast cancer
Galsgaard et al. Circular hough transform and local circularity measure for weight estimation of a graph-cut based wood stack measurement
US20180228426A1 (en) Image Processing System and Method
Bora et al. A new approach towards clustering based color image segmentation
Lee et al. Blurred image region detection and segmentation
Michail et al. Detection of centroblasts in h&e stained images of follicular lymphoma
Nguyen et al. Using contextual information to classify nuclei in histology images
Molina-Giraldo et al. Image segmentation based on multi-kernel learning and feature relevance analysis
Cai et al. Co-segmentation of aircrafts from high-resolution satellite images
JP2013097584A (en) Image processor, image processing method and program
Khan et al. Segmentation of single and overlapping leaves by extracting appropriate contours
Lezoray Supervised automatic histogram clustering and watershed segmentation. Application to microscopic medical color images
Gim et al. A novel framework for white blood cell segmentation based on stepwise rules and morphological features
JP6429323B2 (en) Object extraction method and apparatus
Kang et al. Automatic image segmentation using saliency detection and superpixel graph cuts
KR100927642B1 (en) A face edge extraction method using visual division histogram analysis
CN106340038A (en) Depth order reference method for object in monocular image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170427

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180427

Year of fee payment: 5