KR101296734B1 - Method for object segmentation by combination of gaussian mixture model and rgb clustering - Google Patents

Method for object segmentation by combination of gaussian mixture model and rgb clustering Download PDF

Info

Publication number
KR101296734B1
KR101296734B1 KR1020110146905A KR20110146905A KR101296734B1 KR 101296734 B1 KR101296734 B1 KR 101296734B1 KR 1020110146905 A KR1020110146905 A KR 1020110146905A KR 20110146905 A KR20110146905 A KR 20110146905A KR 101296734 B1 KR101296734 B1 KR 101296734B1
Authority
KR
South Korea
Prior art keywords
candidate region
image
input image
region
average value
Prior art date
Application number
KR1020110146905A
Other languages
Korean (ko)
Other versions
KR20130078130A (en
Inventor
오강한
박상철
나인섭
김수형
Original Assignee
전남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전남대학교산학협력단 filed Critical 전남대학교산학협력단
Priority to KR1020110146905A priority Critical patent/KR101296734B1/en
Publication of KR20130078130A publication Critical patent/KR20130078130A/en
Application granted granted Critical
Publication of KR101296734B1 publication Critical patent/KR101296734B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection

Abstract

본 발명은 가우시안 혼합 모델 및 알지비 클러스터링을 이용한 오브젝트 분할방법에 관한 것으로, 구체적으로는 이미지 내에 꽃과 같이 불특정한 모양을 갖는 오브젝트가 있는 경우, 사용자가 별도의 조작이 없이도 자동으로 상기 오브젝트를 인식하고 자동으로 분할할 수 있는 가우시안 혼합 모델 및 알지비 클러스터링을 이용한 오브젝트 분할방법에 관한 것이다.The present invention relates to a method for segmenting an object using a Gaussian mixture model and Algibi clustering. Specifically, when there is an object having an indefinite shape such as a flower in an image, a user automatically recognizes the object without a separate operation. And an object segmentation method using Gaussian mixture model and Algivy clustering that can be partitioned automatically.

Description

가우시안 혼합 모델 및 알지비 클러스터링을 이용한 오브젝트 분할방법{Method for object segmentation by combination of gaussian mixture model and rgb clustering}Method for object segmentation by combination of gaussian mixture model and rgb clustering}

본 발명은 가우시안 혼합 모델 및 알지비 클러스터링을 이용한 오브젝트 분할방법에 관한 것으로, 구체적으로는 이미지 내에 꽃과 같이 불특정한 모양을 갖는 오브젝트를 사용자가 별도의 조작이 없이도 자동으로 상기 오브젝트를 인식하고 자동으로 분할할 수 있는 가우시안 혼합 모델 및 알지비 클러스터링을 이용한 오브젝트 분할방법에 관한 것이다.The present invention relates to an object segmentation method using a Gaussian mixture model and Algibi clustering. Specifically, an object having an unspecified shape such as a flower in an image is automatically recognized and automatically recognized by the user without an additional manipulation. The present invention relates to a segmentable Gaussian mixture model and an object segmentation method using Algivy clustering.

일반적으로, 영상인식 분야는 카메라를 포함하는 촬영장치에서 입력된 입력영상 또는 입력이미지에서 특정 사물을 인식하는 분야로써, 최근, 스마트폰을 포함하는 모바일단말이 대중적으로 상용화되고 상기 모바일단말에 상기 카메라가 기본적으로 구비됨에 따라, 사용자가 상기 모바일단말을 이용하여 쉽고 편리하게 특정 사물을 인식할 수 있도록 하기 위한 연구 및 개발이 진행되고 있다.In general, the image recognition field is a field for recognizing a specific object from an input image or an input image input from a photographing apparatus including a camera. Recently, a mobile terminal including a smart phone is commercially available and the camera is connected to the mobile terminal. As is basically provided, research and development for the user to recognize a particular object easily and conveniently using the mobile terminal is in progress.

또한, 상기 특정 사물로 인식하기 위해서는 상기 입력영상 또는 상기 입력이미지에서 인식하고자 하는 대상인 오브젝트를 분할하여야 하는데, 이때, 가우시안 혼합 모델(GMM), 마르코프 랜덤 필드(MRF), CV-Model, K평균 알고리즘(k-means) 또는 중요도 맵(Saliency Map) 등의 다양한 알고리즘을 사용하여 상기 오브젝트를 분할하게 된다.In addition, in order to recognize the specific object, the object to be recognized in the input image or the input image should be divided. In this case, Gaussian mixture model (GMM), Markov random field (MRF), CV-Model, and K-average algorithm The object is partitioned using various algorithms such as k-means or importance map.

또한, 상기 카메라가 구비된 모바일단말을 이용하여 '문자', '지문' 또는 '포스터' 등의 포함하는 사물을 입력영상 또는 입력 이미지에서 인식할 수 있게 되었다.In addition, by using the mobile terminal equipped with the camera it is possible to recognize the object including the 'text', 'fingerprint' or 'poster' in the input image or the input image.

한편, 인식하고자 하는 대상 사물이 꽃 또는 식물과 같이 불특정한 형태로 이루어지고 그 배경이 다양한 색상 및 모양들로 복잡하게 이루어진 경우에는, 상기 입력영상 또는 상기 입력 이미지에서 인식하고자 하는 대상 사물을 정확히 분할할 수 없는 문제점이 있었다.On the other hand, if the object to be recognized is made of an unspecified form such as a flower or a plant, and the background is complicated with various colors and shapes, the object to be recognized in the input image or the input image is accurately divided. There was a problem that could not be done.

또한, 상기 대상 사물의 분할이 원활하지 못하고 상기 대상 사물 이외의 사물들이 노이즈로 인식됨에 따라, 실질적인 인식성이 낮아지고 정확성도 저하되는 되는 문제점이 발생되었다.In addition, since the division of the target object is not smooth and objects other than the target object are recognized as noise, there is a problem that the actual recognition is lowered and the accuracy is lowered.

또한, 불특정한 형태의 대상 사물을 정확히 분할하기 위하여 상기 알고리즘들은 상기 대상 사물의 윤곽선을 사용자가 직접 그리도록 하는 과정을 필요로 하게 되는데, 이는 사용자에게 시간 소모 및 번거로움을 발생시키는 문제점이 발생되었다.In addition, in order to accurately divide an unspecified form of the target object, the algorithms require a process of drawing a contour of the target object directly by the user, which causes a problem of time consuming and cumbersome for the user. .

본 발명자들은 꽃 또는 식물과 같은 불특정한 형태를 갖는 사물을 정확히 인식할 수 있게 하고, 자동으로 입력 이미지에서 사물로 판단되는 오브젝트를 분할할 수 있게 하고자 연구 노력한 결과, 가우시안 혼합 모델 및 알지비 클러스터링을 이용한 오브젝트 분할방법의 기술적 구성을 개발하게 되어 본 발명을 완성하게 되었다.The present inventors have tried to make it possible to accurately recognize an object having an unspecified shape, such as a flower or a plant, and to automatically segment an object that is determined to be an object in an input image. The technical configuration of the object segmentation method used was developed to complete the present invention.

따라서, 본 발명의 목적은 사용자가 직접 조작하지 않고도 자동으로 입력 이미지에서 불특정한 형태의 대상 사물을 분할할 수 있는 가우시안 혼합 모델 및 알지비 클러스터링을 이용한 오브젝트 분할방법을 제공하는 것이다.Accordingly, an object of the present invention is to provide a Gaussian mixture model and an object segmentation method using Algivy clustering that can automatically segment an unspecified object from an input image without a user's direct manipulation.

또한, 본 발명의 다른 목적은 불특정한 형태의 대상 사물 또는 배경으로 인한 노이즈를 효율적으로 제거할 수 있는 가우시안 혼합 모델 및 알지비 클러스터링을 이용한 오브젝트 분할방법을 제공하는 것이다.Another object of the present invention is to provide a Gaussian mixture model and an object segmentation method using Algivy clustering that can efficiently remove noise due to an unspecified object or background.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위하여 본 발명은 컴퓨터 장치에서 입력 이미지 내의 오브젝트를 인식할 수 있도록 상기 입력 이미지에서 상기 오브젝트를 분할하는 오브젝트 분할방법으로써, 제 1서브 이미지 생성수단이 상기 컴퓨터 장치를 상기 입력 이미지 각 픽셀의 정규분포들을 계산하여, 제 1오브젝트 후보영역 및 제 1배경 후보영역으로 분할된 제 1서브 이미지를 생성하도록 기능하게 하는 제 1단계; 제 2서브 이미지 생성수단이 상기 컴퓨터 장치를 각 후보영역의 색상평균값들을 계산하고 상기 입력 이미지의 각 픽셀과 각 색상평균값과의 유클리디안 거리를 계산하여, 제 2오브젝트 후보영역 및 제 2배경 후보영역으로 분할된 제 2서브 이미지를 생성하도록 기능하게 하는 제 2단계; 및 오브젝트 분할수단이 상기 컴퓨터 장치를 상기 제 1오브젝트 후보영역의 각 픽셀과 상기 제 2오브젝트 후보영역의 각 픽셀 중 서로 중복되는 좌표에 위치한 픽셀들로 이루어진 오브젝트 분할영역을 포함하는 결과 이미지를 생성하도록 기능하게 하는 제 3단계;를 포함하는 오브젝트 분할방법을 제공한다.In order to achieve the above object, the present invention provides an object segmentation method for dividing the object from the input image so that a computer apparatus can recognize an object in the input image, wherein the first sub-image generating means selects the computer apparatus from the input image. A first step of calculating normal distributions of each pixel to function to generate a first sub-image divided into a first object candidate region and a first background candidate region; The second sub-image generating means calculates the color average values of each candidate region and calculates the Euclidean distance between each pixel of the input image and each color average value, thereby generating the second object candidate region and the second background candidate. A second step of functioning to generate a second sub image divided into regions; And the object dividing means for generating the resultant image including the object dividing unit including the pixels located at coordinates overlapping each other of each pixel of the first object candidate region and each pixel of the second object candidate region. And a third step of functioning.

또한, 본 발명은 상기 오브젝트 분할방법이 수행되게 하는 오브젝트 분할 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장매체를 제공한다.The present invention also provides a computer-readable storage medium storing an object partitioning program for performing the object partitioning method.

바람직한 실시예에 있어서, 노이즈 제거수단이 상기 컴퓨터 장치가 상기 결과 이미지를 이진화하여 상기 오브젝트 분할영역이 복수 개의 이진화 영역들로 분할된 이진화 이미지로 생성하고, 각 이진화 영역 중 가장 큰 영역을 갖는 하나의 이진화 영역을 오브젝트 영역으로 설정하며 다른 영역들은 노이즈로 설정하여 제거하도록 기능하게 하는 제 4단계;를 더 포함한다.In a preferred embodiment, the noise removing means makes the computer apparatus binarize the resultant image to produce a binarized image in which the object segmentation area is divided into a plurality of binarization areas, the one having the largest area of each binarization area. And setting a binarization area as an object area and setting other areas as noise to function to remove the noise.

바람직한 실시예에 있어서, 오브젝트 블럭 생성수단이 상기 컴퓨터 장치가 상기 입력 이미지의 각 픽셀들 중 상기 오브젝트 영역의 각 픽셀 좌표를 매칭되는 픽셀들을 오브젝트 블럭으로 생성하도록 기능하는 제 5단계;를 더 포함한다.In a preferred embodiment, the object block generating means further comprises a fifth step of causing the computer device to generate, as an object block, pixels that match each pixel coordinate of the object region among the pixels of the input image. .

바람직한 실시예에 있어서, 상기 제 1단계 이전에, 이미지 포맷 변환수단이 상기 컴퓨터 장치를 상기 입력 이미지의 포맷을 RGB 컬러 포맷으로 변환하도록 기능하게 하는 제 A단계;를 더 포함한다.In a preferred embodiment, before the first step, a step A of causing the image format converting means to function the computer device to convert the format of the input image into an RGB color format.

바람직한 실시예에 있어서, 상기 제 1단계는 상기 제 1서브 이미지 생성수단이 상기 컴퓨터 장치가, 두 개의 가우시안 확률밀도 함수를 이용하여 상기 정규분포들을 계산하도록 기능하게 하는 제 1-1단계; 상기 입력 이미지에서 각 정규분포를 갖는 분할영역들로 분할된 제 1서브 이미지를 생성하도록 기능하게 하는 제 1-2단계; 및 상기 분할영역들 중에서 가장 낮은 분포밀도를 갖는 영역을 제 1오브젝트 후보영역으로 라벨링하고, 다른 영역을 제 1배경 후보영역으로 라벨링하도록 기능하게 하는 제 1-3단계;를 포함한다.In a preferred embodiment, the first step comprises: steps 1-1, wherein the first sub-image generating means functions to cause the computer apparatus to calculate the normal distributions using two Gaussian probability density functions; A first to second step of making a first sub image divided into divided regions having each normal distribution in the input image; And performing steps 1-3 to label a region having the lowest distribution density among the divided regions as a first object candidate region and to label another region as a first background candidate region.

바람직한 실시예에 있어서, 상기 제 2단계는 상기 제 2서브 이미지 생성수단이 상기 컴퓨터 장치를, 상기 제 1오브젝트 후보영역 및 상기 제 1배경 후보영역의 각 RGB 평균값을 계산하도록 기능하는 제 2-1단계; 상기 제 1오브젝트 후보영역의 RGB 평균값 및 상기 제 1배경 후보영역의 RGB 평균값과 상기 입력 이미지의 각 픽셀의 유클리디안 거리값을 계산하도록 기능하는 제 2-2단계; 및 상기 입력 이미지의 각 픽셀들 중 상기 제 1오브젝트 후보영역의 RGB 평균값과 가까운 유클리디안 거리값을 갖는 픽셀들을 상기 제 2오브젝트 후보영역으로 라벨링하고 다른 픽셀들은 제 2배경 후보영역으로 라벨링하여 상기 제 2서브 이미지로 생성하도록 기능하게 하는 제 2-3단계;를 포함한다.In a preferred embodiment, the second step is the second sub-image generating means for causing the computer apparatus to calculate the respective RGB average values of the first object candidate region and the first background candidate region; step; A second step of calculating a RGB average value of the first object candidate region, an RGB average value of the first background candidate region, and an Euclidean distance value of each pixel of the input image; And labeling pixels having an Euclidean distance value close to the RGB average value of the first object candidate region among the pixels of the input image as the second object candidate region and other pixels as the second background candidate region. It includes; step 2-3 to function to generate a second sub-image.

바람직한 실시예에 있어서, 상기 제 1서브 이미지 생성수단은 아래의 수학식 1을 이용하여, 상기 컴퓨터 장치가 상기 제 1오브젝트 후보영역 및 상기 제 1배경 후보영역으로 분할된 상기 제 1서브 이미지를 생성하도록 기능한다.In a preferred embodiment, the first sub-image generating means generates the first sub-image divided into the first object candidate region and the first background candidate region by using Equation 1 below. Function.

[수학식 1][Equation 1]

Figure 112011105380227-pat00001
Figure 112011105380227-pat00001

여기서,

Figure 112011105380227-pat00002
는 분포밀도이며, M은 가우시안 확률밀도 함수의 수이며,
Figure 112011105380227-pat00003
는 평균벡터이며,
Figure 112011105380227-pat00004
는 혼합 가중치(mixture weight)이며,
Figure 112011105380227-pat00005
는 픽셀 x에 대한 확률밀도함수이다.here,
Figure 112011105380227-pat00002
Is the distribution density, M is the number of Gaussian probability density functions,
Figure 112011105380227-pat00003
Is the mean vector,
Figure 112011105380227-pat00004
Is the mix weight,
Figure 112011105380227-pat00005
Is the probability density function for pixel x.

바람직한 실시예에 있어서, 상기 제 2서브 이미지 생성수단은 아래의 수학식 2를 이용하여 상기 컴퓨터 장치가 상기 제 1오브젝트 후보영역의 RGB 평균값을 계산하도록 기능한다.In a preferred embodiment, the second sub image generating means functions to calculate the RGB average value of the first object candidate region by using Equation 2 below.

[수학식 2]&Quot; (2) "

Figure 112011105380227-pat00006
Figure 112011105380227-pat00006

여기서,

Figure 112011105380227-pat00007
는 제 1오브젝트 후보영역의 RGB 평균값이며,
Figure 112011105380227-pat00008
은 입력 이미지의 붉은(red) 색상값이고,
Figure 112011105380227-pat00009
는 제 1오브젝트 후보영역의 붉은 색상 평균값이며,
Figure 112011105380227-pat00010
는 입력 이미지의 녹색(green) 색상값이며,
Figure 112011105380227-pat00011
는 제 1오브젝트 후보영역의 녹색 색상 평균값이며,
Figure 112011105380227-pat00012
는 입력 이미지의 푸른(blue) 색상값이며,
Figure 112011105380227-pat00013
는 제 1오브젝트 후보영역의 푸른 색상 평균값이다.here,
Figure 112011105380227-pat00007
Is the RGB average value of the first object candidate region,
Figure 112011105380227-pat00008
Is the red color value of the input image,
Figure 112011105380227-pat00009
Is the average value of the red color of the first object candidate area,
Figure 112011105380227-pat00010
Is the green color value of the input image,
Figure 112011105380227-pat00011
Is the average value of the green color of the first object candidate area,
Figure 112011105380227-pat00012
Is the blue color value of the input image,
Figure 112011105380227-pat00013
Denotes a blue color average value of the first object candidate region.

바람직한 실시예에 있어서, 상기 제 2서브 이미지 생성수단은 아래의 수학식 3을 이용하여 상기 컴퓨터 장치가 상기 제 1배경 후보영역의 RGB 평균값을 계산하도록 기능한다.In a preferred embodiment, the second sub image generating means functions to calculate the RGB average value of the first background candidate area by using Equation 3 below.

[수학식 3]
&Quot; (3) "

Figure 112011105380227-pat00014
Figure 112011105380227-pat00014

여기서,

Figure 112011105380227-pat00015
는 제 1배경 후보영역의 RGB 평균값이며,
Figure 112011105380227-pat00016
은 입력 이미지의 붉은(red) 색상값이고,
Figure 112011105380227-pat00017
는 제 1배경 후보영역의 붉은 색상 평균값이며,
Figure 112011105380227-pat00018
는 입력 이미지의 녹색(green) 색상값이며,
Figure 112011105380227-pat00019
는 제 1배경 후보영역의 녹색 색상 평균값이며,
Figure 112011105380227-pat00020
는 입력 이미지의 푸른(blue) 색상값이며,
Figure 112011105380227-pat00021
는 제 1배경 후보영역의 푸른 색상 평균값이다.here,
Figure 112011105380227-pat00015
Is the RGB average value of the first background candidate area,
Figure 112011105380227-pat00016
Is the red color value of the input image,
Figure 112011105380227-pat00017
Is the average value of the red color of the first background candidate area,
Figure 112011105380227-pat00018
Is the green color value of the input image,
Figure 112011105380227-pat00019
Is the average value of the green color of the first background candidate area,
Figure 112011105380227-pat00020
Is the blue color value of the input image,
Figure 112011105380227-pat00021
Is the average value of the blue color of the first background candidate region.

바람직한 실시예에 있어서, 상기 제 2서브 이미지 생성수단은 아래의 수학식 4를 이용하여 상기 컴퓨터 장치가 상기 입력 이미지의 각 픽셀들을 상기 제 2오브젝트 후보영역 또는 상기 제 2배경 후보영역으로 라벨링하도록 기능한다.In a preferred embodiment, the second sub image generating means functions to cause the computer apparatus to label each pixel of the input image as the second object candidate region or the second background candidate region using Equation 4 below. do.

[수학식 4]&Quot; (4) "

Figure 112011105380227-pat00022
Figure 112011105380227-pat00022

여기서,

Figure 112011105380227-pat00023
는 제 1오브젝트 후보영역의 RGB 평균값이고
Figure 112011105380227-pat00024
는 제 1배경 후보영역의 RGB 평균값이며,
Figure 112011105380227-pat00025
는 제 2오브젝트 후보영역이며,
Figure 112011105380227-pat00026
는 제 2배경 후보영역을 뜻한다.here,
Figure 112011105380227-pat00023
Is the RGB average value of the first object candidate area
Figure 112011105380227-pat00024
Is the RGB average value of the first background candidate area,
Figure 112011105380227-pat00025
Is the second object candidate area,
Figure 112011105380227-pat00026
Denotes a second background candidate region.

바람직한 실시예에 있어서, 상기 오브젝트 분할수단은 교집합 연산 알고리즘을 이용하여 상기 컴퓨터 장치가 상기 오브젝트 분할영역을 생성하도록 기능한다.In a preferred embodiment, the object dividing means functions to cause the computer device to generate the object segment using an intersection algorithm.

바람직한 실시예에 있어서, 상기 노이즈 제거수단은 연결성분(Connected Component) 알고리즘을 이용하여 상기 컴퓨터 장치가 상기 오브젝트 영역 및 상기 노이즈를 설정하도록 기능한다.In a preferred embodiment, the noise removing means functions to set the object area and the noise by the computer device using a connected component algorithm.

본 발명은 다음과 같은 우수한 효과를 가진다.The present invention has the following excellent effects.

먼저, 본 발명의 일실시예에 따른 오브젝트 분할방법에 의하면, 가우시안 확률밀도 함수를 이용하여 분할된 제 1서브 이미지와, RGB 클러스터링을 이용하여 분할된 제 2 서브이미지의 각 오브젝트 후보영역을 교집합 연산하여 오브젝트 영역을 생성하게 하므로, 사용자가 직접 조작하지 않아도 자동으로 입력 이미지에서 인식하고자 하는 대상 사물의 오브젝트 영역을 분할할 수 있고 상기 대상 사물이 불특정한 형태를 갖는 경우에도 효과적으로 분할할 수 있는 효과를 얻을 수 있다.First, according to an object segmentation method according to an embodiment of the present invention, an intersection operation of each object candidate region of a first sub image segmented using a Gaussian probability density function and a second sub image segmented using RGB clustering is performed. By creating an object area, the object area of the target object to be recognized in the input image can be automatically divided without the user's direct manipulation, and the object area can be effectively divided even when the target object has an unspecified shape. You can get it.

또한, 본 발명의 일실시예에 따른 오브젝트 분할방법에 의하면, 노이즈 제거수단이 특정 영역만 오브젝트 영역으로 설정하고 다른 영역들을 제거하므로, 불특정한 형태의 대상 사물 주변의 노이즈 및 배경에서 발생된 노이즈를 효율적으로 제거할 수 있는 효과를 얻을 수 있다.In addition, according to the object segmentation method according to an embodiment of the present invention, since the noise removing means sets only a specific region as an object region and removes other regions, noise around the target object of an unspecified form and noise generated in the background are removed. The effect that can be removed efficiently can be obtained.

도 1은 본 발명의 일실시예에 따른 오브젝트 분할방법을 나타내는 블럭도.
도 2는 본 발명의 일실시예에 따른 오브젝트 분할방법을 설명하기 위한 도면.
도 3 내지 도 4는 본 발명의 일실시예에 따른 오브젝트 분할방법과 다른 알고리즘들의 분할결과를 비교한 도면.
1 is a block diagram illustrating an object segmentation method according to an embodiment of the present invention.
2 is a view for explaining an object segmentation method according to an embodiment of the present invention.
3 to 4 is a view comparing the object segmentation method and the segmentation results of other algorithms according to an embodiment of the present invention.

본 발명에서 사용되는 용어는 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있는데 이 경우에는 단순한 용어의 명칭이 아닌 발명의 상세한 설명 부분에 기재되거나 사용된 의미를 고려하여 그 의미가 파악되어야 할 것이다.Although the terms used in the present invention have been selected as general terms that are widely used at present, there are some terms selected arbitrarily by the applicant in a specific case. In this case, the meaning described or used in the detailed description part of the invention The meaning must be grasped.

이하, 첨부된 도면에 도시된 바람직한 실시예를 참조하여 본 발명의 기술적 구성을 상세하게 설명한다.Hereinafter, the technical structure of the present invention will be described in detail with reference to preferred embodiments shown in the accompanying drawings.

그러나, 본 발명은 여기서 설명되는 실시예에 한정되지 않고 다른 형태로 구체화될 수도 있다. 명세서 전체에 걸쳐 동일한 참조번호는 동일한 구성요소를 나타낸다.However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. Like reference numerals designate like elements throughout the specification.

본 발명의 일실시예에 따른 오브젝트 분할방법은 컴퓨터 장치에서 입력 이미지 내의 불특정한 형태를 갖는 오브젝트를 인식할 수 있도록 상기 입력 이미지에서 상기 오브젝트를 분할하고 상기 오브젝트 이외의 노이즈를 제거하기 위한 것으로, 사각형 또는 원형과 같이 특정한 형태를 갖지 않고 꽃 및 식물과 같이 형태가 불특정한 대상 사물을 입력 이미지에서 인식할 수 있도록 분할하도록 활용할 수 있다.The object dividing method according to an embodiment of the present invention is to divide the object from the input image and remove noise other than the object so that the computer device can recognize an object having an unspecified shape in the input image. Alternatively, the object may be divided so as to recognize an object having a specific shape such as flowers and plants without a specific shape such as a circle so as to be recognized in the input image.

또한, 본 발명의 일실시예에 따른 오브젝트 분할방법은 실질적으로 컴퓨터 또는 컴퓨팅 프로세서가 구비된 모바일단말, PDA단말 또는 태블릿PC 등에 프로그램 형태로 저장되어 기능을 수행한다.In addition, the object segmentation method according to an embodiment of the present invention is substantially stored in the form of a program in a mobile terminal, PDA terminal or tablet PC equipped with a computer or a computing processor to perform a function.

또한, 상기 프로그램은 컴퓨터로 읽을 수 있는 매체에 저장되어 컴퓨터나 모바일단말, PDA단말 또는 태블릿PC에 의해 읽혀짐으로써 그 기능을 수행하고, 상기 매체는 본 발명을 위하여 특별히 설계되어 구성된 것들이거나 컴퓨터 소프트웨어 분야에서 통상의 지식을 가진 자에서 공지되어 사용 가능할 것일 수 있으며, 예를 들면, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD, DVD와 같은 광 기록 매체, 자기 및 광 기록을 겸할 수 있는 자기-광 기록 매체, 롬, 램, 플래시 메모리 등 단독 또는 조합에 의해 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치일 수 있다.In addition, the program is stored in a computer readable medium to perform the function by being read by a computer or mobile terminal, PDA terminal or tablet PC, the medium is those specially designed and configured for the present invention or computer software It may be known and available to those of ordinary skill in the art, for example, magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD, DVD, magnetic and optical recording A magnetic device, specially configured to store and execute the program instructions, alone or in combination, such as a magnetic-optical recording medium, ROM, RAM, flash memory, and the like.

또한, 상기 프로그램은 상기 매체에 의해 컴퓨터, 모바일단말, PDA단말 또는 태블릿PC에 의해 읽혀질 수 있는 것뿐만 아니라, 인트라넷이나 인터넷 등의 통신망을 통해 정보를 전송할 수 있는 서버 시스템에 저장되어 컴퓨터로 전송될 수도 있고, 상기 서버 시스템에서 상기 프로그램을 컴퓨터로 전송하지 않고 컴퓨터가 상기 서버 시스템으로 접근하여 상기 서버 시스템상에서 상기 프로그램을 수행할 수 있는 플랫폼을 제공할 수도 있다.In addition, the program is not only read by a computer, a mobile terminal, a PDA terminal or a tablet PC by the medium, but also stored in a server system capable of transmitting information through a communication network such as an intranet or the Internet, and then transmitted to a computer. Alternatively, the server system may provide a platform on which the computer may access the server system and execute the program on the server system without transmitting the program to the computer.

이하에서는 본 발명의 일실시예에 따른 오브젝트 분할방법을 자세히 설명하기로 한다.Hereinafter, an object division method according to an embodiment of the present invention will be described in detail.

도 1은 본 발명의 일실시예에 따른 오브젝트 분할방법을 나타내는 블럭도이며, 도 2는 본 발명의 일실시예에 따른 오브젝트 분할방법을 설명하기 위한 도면이다.1 is a block diagram illustrating an object segmentation method according to an exemplary embodiment of the present invention, and FIG. 2 is a diagram illustrating an object segmentation method according to an exemplary embodiment of the present invention.

도 1 내지 도 2를 참조하면, 본 발명의 일실시예에 다른 오브젝트 분할방법은, 먼저, 카메라 또는 디지털카메라에서 촬영된 입력 이미지가 컴퓨터 장치로 입력되면, 이미지 포맷 변환수단은 컴퓨터 장치가 상기 입력 이미지의 포맷을 변환하여, 또한, RGB 컬러 포맷으로 변환된 입력 이미지(110)를 생성하도록 기능하게 된다(S1100).1 to 2, in another object division method according to an embodiment of the present invention, first, when an input image photographed by a camera or a digital camera is input to a computer device, the image format converting means may be input by the computer device. By converting the format of the image, and also to generate the input image 110 converted to the RGB color format (S1100).

또한, 상기 컴퓨터 장치는 컴퓨터 또는 컴퓨팅 프로세서가 구비된 모바일단말, PDA단말 또는 태블릿PC를 포함한다.The computer device also includes a mobile terminal, PDA terminal or tablet PC equipped with a computer or computing processor.

또한, 상기 이미지 포맷 변환수단은 상기 컴퓨터 장치가 상기 입력 이미지의 포맷을 변환시킬 수 있도록 기능하는 프로그램 또는 프로그램에 구비된 수단일 수 있다.The image format converting means may be a program or a means provided in the program functioning to allow the computer apparatus to convert the format of the input image.

다음, RGB 컬러 포맷으로 변환된 입력 이미지(110)에서 제 1서브 이미지를 생성하게 되는데, 상기 제 1서브 이미지는 복수 개의 영역들로 분할된 이미지로써 제 1오브젝트 후보영역(210) 및 제 1배경 후보영역(220)으로 분할된다(S1200).Next, a first sub image is generated from the input image 110 converted to the RGB color format, wherein the first sub image is an image divided into a plurality of regions, and the first object candidate region 210 and the first background are generated. The candidate region 220 is divided (S1200).

또한, 제 1서브 이미지 생성수단은 상기 컴퓨터 장치가 상기 입력 이미지(110) 각 픽셀의 정규분포들을 계산하여 상기 제 1서브 이미지를 생성하도록 기능하게 된다.In addition, the first sub image generating means may function to generate the first sub image by calculating the normal distributions of each pixel of the input image 110.

또한, 상기 제 1서브 이미지 생성수단은 상기 컴퓨터 장치가 RGB 컬러 포맷으로 변환된 입력 이미지(110)를 상기 제 1오브젝트 후보영역(210) 및 상기 제 1배경 후보영역(220)으로 분할된 상기 제 1서브 이미지로 생성하도록 기능하는 프로그램 또는 프로그램에 구비된 수단일 수 있다.In addition, the first sub image generating means may be configured to divide the input image 110 in which the computer apparatus is converted into an RGB color format into the first object candidate region 210 and the first background candidate region 220. It may be a program or means provided in the program that functions to generate one sub-image.

또한, 상기 제 1서브 이미지 생성수단은 상기 컴퓨터 장치가 복수 개의 가우시안 확률밀도 함수를 이용하여 정규분포들을 계산하도록 기능하며, 본 발명의 일실시예에서는 두 개의 가우시안 확률밀도 함수를 이용하여 두 개의 정규분포를 계산하였다.In addition, the first sub-image generating means functions to calculate the normal distributions using a plurality of Gaussian probability density functions, and in one embodiment of the present invention, two normals using two Gaussian probability density functions. The distribution was calculated.

또한, 상기 제 1서브 이미지 생성수단은 상기 컴퓨터 장치가 각 정규분포를 갖는 분할영역들로 이루어지는 제 1서브 이미지를 생성하도록 기능하며 상기 각 분할영역의 정규분포는 서로 다른 값을 가지게 된다. 또한, 본 발명의 일실시예에서는 두 개의 분할영역으로 분할된 제 1서브 이미지를 생성하였다.In addition, the first sub image generating means functions to generate the first sub image of the divided regions having the respective normal distributions, and the normal distribution of each of the divided regions has a different value. In addition, in an embodiment of the present invention, a first sub image divided into two divided regions is generated.

또한, 상기 제 1서브 이미지 생성수단은 상기 컴퓨터 장치가 상기 분할영역을 라벨링하여 상기 제 1오브젝트 후보영역(210) 및 상기 제 1배경 후보영역(220)으로 분할하도록 기능하며, 복수 개의 분할영역이 존재하는 경우에는 각 정규분포의 분포밀도가 가장 낮은 영역을 제 1오브젝트 후보영역(210)으로 라벨링하고 다른 영역을 제 1배경 후보영역(220)으로 라벨링하는 것이 바람직하다.In addition, the first sub-image generating means functions to cause the computer apparatus to label the divided area into the first object candidate area 210 and the first background candidate area 220. If present, it is preferable to label the region having the lowest distribution density of each normal distribution as the first object candidate region 210 and to label another region as the first background candidate region 220.

또한, 본 발명의 일실시예에서는 두 개의 분할영역들 중에서 낮은 분포밀도를 갖는 영역이 상기 제 1오브젝트 후보영역(210)으로 라벨링되고, 다른 영역은 상기 제 1배경 후보영역(220)으로 라벨링하게 하였다.In addition, in an embodiment of the present invention, a region having a low distribution density among two divided regions is labeled as the first object candidate region 210, and another region is labeled as the first background candidate region 220. It was.

또한, 상기 제 1서브 이미지 생성수단은 아래의 수학식 1을 이용하여, 상기 컴퓨터 장치가 상기 제 1오브젝트 후보영역(210) 및 상기 제 1배경 후보영역(220)으로 분할된 상기 제 1서브 이미지를 생성하도록 기능한다.In addition, the first sub-image generating means may be the first sub-image divided into the first object candidate region 210 and the first background candidate region 220 by using Equation 1 below. Function to generate

[수학식 1][Equation 1]

Figure 112011105380227-pat00027
Figure 112011105380227-pat00027

여기서,

Figure 112011105380227-pat00028
는 분포밀도이며, M은 가우시안 확률밀도 함수의 수이며,
Figure 112011105380227-pat00029
는 평균벡터이며,
Figure 112011105380227-pat00030
는 혼합 가중치(mixture weight)이며,
Figure 112011105380227-pat00031
는 픽셀 x에 대한 확률밀도함수이다.here,
Figure 112011105380227-pat00028
Is the distribution density, M is the number of Gaussian probability density functions,
Figure 112011105380227-pat00029
Is the mean vector,
Figure 112011105380227-pat00030
Is the mix weight,
Figure 112011105380227-pat00031
Is the probability density function for pixel x.

즉, 가우시안 확률밀도 함수의 수에 따라 입력 이미지(110)에서 분할되는 분할영역의 수가 조절될 수 있다.That is, the number of divided regions divided in the input image 110 may be adjusted according to the number of Gaussian probability density functions.

다음, 제 2서브 이미지를 생성하게 되는데, 제 2서브 이미지 생성수단은 상기 컴퓨터 장치가 상기 제 1오브젝트 후보영역(210) 및 상기 제 1배경 후보영역(220)의 각 색상평균값과 상기 입력 이미지(110)의 각 픽셀 간의 유클리디안 거리를 계산하여 상기 제 2서브 이미지를 생성하도록 기능하게 된다(S1300).Next, a second sub image is generated, and the second sub image generating means may be configured such that the computer apparatus determines each color average value of the first object candidate region 210 and the first background candidate region 220 and the input image ( The Euclidean distance between each pixel of 110 is calculated to generate the second sub image (S1300).

또한, 상기 제 2서브 이미지는 제 2오브젝트 후보영역(310) 및 제 2배경 후보영역(320)으로 분할된 이미지로 구비된다.In addition, the second sub image is provided as an image divided into a second object candidate region 310 and a second background candidate region 320.

또한, 상기 제 2서브 이미지 생성수단은 RGB 클러스터링(RGB clustering) 알고리즘을 이용하여 상기 컴퓨터 장치가 상기 입력 이미지에서 상기 제 2서브 이미지를 생성하도록 기능하는 프로그램 또는 프로그램에 구비된 수단일 수 있다.In addition, the second sub image generating means may be a program or a means included in the program functioning to cause the computer apparatus to generate the second sub image from the input image by using an RGB clustering algorithm.

또한, 상기 제 2서브 이미지 생성수단이 상기 컴퓨터 장치가 상기 제 1오브젝트 후보영역(210) 및 상기 제 1배경 후보영역(220)의 각 RGB 평균값을 계산하도록 기능한다.In addition, the second sub image generating means functions to cause the computer apparatus to calculate respective RGB average values of the first object candidate region 210 and the first background candidate region 220.

또한, 상기 제 2서브 이미지 생성수단이 상기 컴퓨터 장치가 상기 제 1오브젝트 후보영역(210)의 RGB 평균값 및 상기 제 1배경 후보영역(220)의 RGB 평균값과 상기 입력 이미지(110)의 각 픽셀의 유클리디안 거리값을 계산하도록 기능한다.In addition, the second sub image generating means may be configured such that the computer apparatus determines an RGB average value of the first object candidate region 210, an RGB average value of the first background candidate region 220, and each pixel of the input image 110. Functions to calculate Euclidean distance.

또한, 상기 제 2서브 이미지 생성수단은 아래의 수학식 2를 이용하여 상기 컴퓨터 장치가 상기 제 1오브젝트 후보영역(210)의 RGB 평균값을 계산하게 하며, 또한, 상기 컴퓨터 장치가 아래의 수학식 3을 이용하여 상기 제 1배경 후보영역(220)의 RGB 평균값을 계산하게 한다.In addition, the second sub image generating means causes the computer apparatus to calculate an RGB average value of the first object candidate region 210 by using Equation 2 below, and the computer apparatus performs the following Equation 3 below. By using to calculate the RGB average value of the first background candidate region 220.

[수학식 2]&Quot; (2) "

Figure 112011105380227-pat00032
Figure 112011105380227-pat00032

여기서,

Figure 112011105380227-pat00033
는 제 1오브젝트 후보영역의 RGB 평균값이며,
Figure 112011105380227-pat00034
은 입력 이미지의 붉은(red) 색상값이고,
Figure 112011105380227-pat00035
는 제 1오브젝트 후보영역의 붉은 색상 평균값이며,
Figure 112011105380227-pat00036
는 입력 이미지의 녹색(green) 색상값이며,
Figure 112011105380227-pat00037
는 제 1오브젝트 후보영역의 녹색 색상 평균값이며,
Figure 112011105380227-pat00038
는 입력 이미지의 푸른(blue) 색상값이며,
Figure 112011105380227-pat00039
는 제 1오브젝트 후보영역의 푸른 색상 평균값이다.here,
Figure 112011105380227-pat00033
Is the RGB average value of the first object candidate region,
Figure 112011105380227-pat00034
Is the red color value of the input image,
Figure 112011105380227-pat00035
Is the average value of the red color of the first object candidate area,
Figure 112011105380227-pat00036
Is the green color value of the input image,
Figure 112011105380227-pat00037
Is the average value of the green color of the first object candidate area,
Figure 112011105380227-pat00038
Is the blue color value of the input image,
Figure 112011105380227-pat00039
Denotes a blue color average value of the first object candidate region.

[수학식 3]
&Quot; (3) "

Figure 112011105380227-pat00040
Figure 112011105380227-pat00040

여기서,

Figure 112011105380227-pat00041
는 제 1배경 후보영역의 RGB 평균값이며,
Figure 112011105380227-pat00042
은 입력 이미지의 붉은(red) 색상값이고,
Figure 112011105380227-pat00043
는 제 1배경 후보영역의 붉은 색상 평균값이며,
Figure 112011105380227-pat00044
는 입력 이미지의 녹색(green) 색상값이며,
Figure 112011105380227-pat00045
는 제 1배경 후보영역의 녹색 색상 평균값이며,
Figure 112011105380227-pat00046
는 입력 이미지의 푸른(blue) 색상값이며,
Figure 112011105380227-pat00047
는 제 1배경 후보영역의 푸른 색상 평균값이다.here,
Figure 112011105380227-pat00041
Is the RGB average value of the first background candidate area,
Figure 112011105380227-pat00042
Is the red color value of the input image,
Figure 112011105380227-pat00043
Is the average value of the red color of the first background candidate area,
Figure 112011105380227-pat00044
Is the green color value of the input image,
Figure 112011105380227-pat00045
Is the average value of the green color of the first background candidate area,
Figure 112011105380227-pat00046
Is the blue color value of the input image,
Figure 112011105380227-pat00047
Is the average value of the blue color of the first background candidate region.

또한, 상기 제 2서브 이미지 생성수단은 상기 컴퓨터 장치가 상기 입력 이미지(110)의 각 픽셀들 중 상기 제 1오브젝트 후보영역(210)의 RGB 평균값과 가까운 유클리디안 거리값을 갖는 픽셀들을 상기 제 2오브젝트 후보영역(310)으로 라벨링하고 다른 픽셀들은 제 2배경 후보영역(320)으로 라벨링하도록 기능한다.In addition, the second sub image generating means may be configured such that the computer apparatus includes pixels having the Euclidean distance value close to the RGB average value of the first object candidate region 210 among the pixels of the input image 110. The second object candidate region 310 is labeled and the other pixels are labeled as the second background candidate region 320.

또한, 상기 제 2서브 이미지 생성수단은 아래의 수학식 4를 이용하여 상기 컴퓨터 장치가 상기 입력 이미지(110)의 각 픽셀들을 상기 제 2오브젝트 후보영역(310) 또는 상기 제 2배경 후보영역(320)으로 라벨링하게 한다.In addition, the second sub image generating means may use the following Equation 4 to allow the computer apparatus to display each pixel of the input image 110 in the second object candidate region 310 or the second background candidate region 320. Label it).

[수학식 4]&Quot; (4) "

Figure 112011105380227-pat00048
Figure 112011105380227-pat00048

여기서,

Figure 112011105380227-pat00049
는 제 1오브젝트 후보영역의 RGB 평균값이고
Figure 112011105380227-pat00050
는 제 1배경 후보영역의 RGB 평균값이며,
Figure 112011105380227-pat00051
는 제 2오브젝트 후보영역이며,
Figure 112011105380227-pat00052
는 제 2배경 후보영역을 뜻한다.here,
Figure 112011105380227-pat00049
Is the RGB average value of the first object candidate area
Figure 112011105380227-pat00050
Is the RGB average value of the first background candidate area,
Figure 112011105380227-pat00051
Is the second object candidate area,
Figure 112011105380227-pat00052
Denotes a second background candidate region.

다음, 오브젝트 분할수단이 상기 제 1오브젝트 후보영역(210) 및 상기 제 2오브젝트 후보영역(310)을 이용하여 상기 컴퓨터 장치가 결과 이미지를 생성하게 하는데, 상기 오브젝트 분할수단은 상기 컴퓨터 장치를 상기 제 1오브젝트 후보영역(210)의 각 픽셀과 상기 제 2오브젝트 후보영역(310)의 각 픽셀 중 서로 중복되는 좌표에 위치한 픽셀들로 이루어진 오브젝트 분할영역(410)을 생성하도록 기능한다(S1400).Next, the object dividing means causes the computer apparatus to generate a resultant image using the first object candidate region 210 and the second object candidate region 310, and the object dividing means causes the computer apparatus to generate the image. In operation S1400, an object partitioning region 410 including pixels located at coordinates overlapping each other among pixels of the first object candidate region 210 and each pixel of the second object candidate region 310 is performed.

또한. 상기 결과 이미지에는 상기 오브젝트 분할영역(410) 및 배경영역(420)이 포함되며, 상기 오브젝트 분할영역(410)은 상기 입력 이미지에서 인식하고자 하는 대상 사물이 위치한 영역일 수 있고 상기 배경영역(420)은 상기 오브젝트 분할영역(410) 이외의 영역일 수 있다.Also. The result image includes the object segmentation area 410 and the background area 420, and the object division area 410 may be an area where a target object to be recognized in the input image is located and the background area 420 is located. May be an area other than the object partition area 410.

또한, 상기 오브젝트 분할수단은 교집합 연산 알고리즘을 이용하여 상기 컴퓨터 장치가 상기 오브젝트 분할영역(410)을 생성하도록 기능한다. 또한, 상기 교집합 연산 알고리즘은 복수 개의 이미지의 각 픽셀 중 동일한 특성을 가지며 서로 중복되는 좌표에 위치한 픽셀들을 추출하여 이미지로 생성할 수 있는 알고리즘일 수 있다.The object dividing means also functions to cause the computer device to generate the object dividing area 410 using an intersection algorithm. In addition, the intersection calculation algorithm may be an algorithm capable of generating an image by extracting pixels located at coordinates having the same characteristics among the pixels of the plurality of images and overlapping each other.

또한, 상기 제 2서브 이미지 생성수단은 상기 교집합 연산 알고리즘을 이용하여 상기 컴퓨터 장치가 상기 제 1오브젝트 후보영역(210)과 상기 제 2오브젝트 후보영역(310)을 교집합 연산하여 상기 결과 이미지를 생성하도록 기능하는 프로그램 또는 프로그램에 구비된 수단일 수 있다.The second sub image generating means may generate the resultant image by performing an intersection operation on the first object candidate region 210 and the second object candidate region 310 using the intersection operation algorithm. It may be a functioning program or means provided in the program.

다음, 노이즈 제거수단이 상기 컴퓨터 장치가 상기 결과 이미지에 포함된 노이즈를 제거하도록 기능하게 된다(S1500).Next, the noise removing means functions to cause the computer device to remove noise included in the resultant image (S1500).

또한, 상기 노이즈 제거수단은 상기 컴퓨터 장치가 상기 결과 이미지를 이진화하여 복수 개의 이진화 영역들로 분할된 이진화 이미지로 생성하게 하며, 상기 이진화 영역에는 상기 오브젝트 분할영역이 포함되게 된다.In addition, the noise removing means causes the computer apparatus to binarize the resultant image to generate a binarized image divided into a plurality of binarization regions, and the binarization region includes the object division region.

또한, 상기 노이즈 제거수단은 상기 컴퓨터 장치가 상기 이진화 영역들 중 가장 큰 영역을 갖는 하나의 이진화 영역을 오브젝트 영역(510)으로 설정한 후 다른 영역(520)들은 노이즈로 설정하여 제거하도록 기능하게 된다. 이때, 상기 오브젝트 영역(510)으로 설정된 이진화 영역은 상기 오브젝트 분할영역(410)과 실질적으로 겹치거나 동일한 영역을 가지게 되는데, 상기 다른 영역(520)들을 제거함으로써 정확하게 오브젝트를 분할할 수 있게 된다.In addition, the noise removing means is configured to set one binarization area having the largest area among the binarization areas as the object area 510 and then set other areas 520 as noise to remove the noise area. . In this case, the binarization area set as the object area 510 has an area substantially overlapping or identical to the object partition area 410. The object may be accurately divided by removing the other area 520.

또한, 상기 노이즈 제거수단은 연결성분(Connected Component) 알고리즘을 이용하여 상기 컴퓨터 장치가 상기 오브젝트 영역(510) 및 상기 노이즈를 설정하도록 기능하도록 구비될 수 있다.In addition, the noise removing means may be provided so that the computer device sets the object area 510 and the noise using a connected component algorithm.

다음, 오브젝트 블럭 생성수단이 상기 컴퓨터 장치가 상기 입력이미지에 오브젝트 블럭을 생성하도록 기능하게 되는데, 이때, 상기 오브젝트 블럭 생성수단은 상기 컴퓨터 장치가 상기 입력 이미지의 각 픽셀들 중 상기 오브젝트 영역의 각 픽셀 좌표를 매칭되는 픽셀들을 오브젝트 블럭으로 생성하게 한다(S1600).The object block generating means then functions to cause the computer device to generate an object block in the input image, wherein the object block generating means causes the computer device to each pixel in the object area of each pixel of the input image. In operation S1600, the pixels matching the coordinates are generated as the object block.

또한, 상기 오브젝트 블럭은 실질적으로 인식하고자 하는 대상 사물의 윤곽선에 위치한 픽셀들로 이루어지게 되고, 상기 컴퓨터 장치가 상기 대상 사물을 인식할 시 활용될 수 있다.In addition, the object block may consist of pixels positioned substantially on the outline of the object to be recognized, and may be utilized when the computer device recognizes the object.

도 3 내지 도 4는 본 발명의 일실시예에 따른 오브젝트 분할방법과 다른 알고리즘들의 분할결과를 비교한 도면이다.3 to 4 are diagrams comparing object segmentation methods and segmentation results of other algorithms according to an exemplary embodiment of the present invention.

도 3을 참조하면, 본 발명의 일실시예에 따른 오브젝트 분할방법을 이용하여 오브젝트 영역 및 배경영역을 분할한 실시예, 가우시안 혼합 모델(GMM)만을 이용하여 오브젝트 영역과 배경영역을 분할한 제 1비교예, RGB 클러스터링만을 이용하여 오브젝트 영역과 배경영역을 분할한 제 2비교예 및 K평균 알고리즘(k-means)을 이용하여 오브젝트 영역과 배경영역을 분할한 제 3비교예의 분할결과를 비교하였다.Referring to FIG. 3, an embodiment in which an object region and a background region are partitioned using an object segmentation method according to an embodiment of the present invention, and a first region in which an object region and a background region are partitioned using only a Gaussian mixture model (GMM) Comparative results were compared between the second comparative example of dividing the object region and the background region using only RGB clustering and the third comparative example of dividing the object region and the background region using a k-means algorithm.

또한, 상기 실시예 및 상기 비교예들은 Intel(R) Core(TM)2 Quad CPU Q9550를 사용하고, MATLAB 7.7.0.171(R2008b)을 사용하였다.In addition, the Examples and Comparative Examples used Intel (R) Core (TM) 2 Quad CPU Q9550 and MATLAB 7.7.0.171 (R2008b).

또한, 상기 실시예 및 각 비교예에서 사용된 입력 이미지는 인터넷 또는 모바일단말을 이용하여 캡쳐하였고, 정량적인 성능 평가를 위해 꽃과 배경이 분리된 Ground truth 이미지를 사용했다. 또한, 상기 Ground truth 이미지들은 Adobe Photoshop CS4에서 직접 꽃 영역을 드로잉하여 분할하였다.In addition, the input image used in the above examples and each comparative example was captured using the Internet or a mobile terminal, and a ground truth image having a flower and a background separated from each other was used for quantitative performance evaluation. In addition, the ground truth images were segmented by drawing flower areas directly in Adobe Photoshop CS4.

또한, 비교예 1의 분할결과를 살펴보면, 오브젝트 영역(10a, 10b)이 실제 꽃의 형태와 일치하지 않고 불명확하게 나타나 있고, 배경영역(11a, 11b)에 노이즈들이 발생된 것을 알 수 있다.In addition, the division result of Comparative Example 1 shows that the object areas 10a and 10b do not correspond to the shape of the actual flower and appear indefinitely, and noises are generated in the background areas 11a and 11b.

또한, 비교예 2의 분할결과를 살펴보면, 꽃 이외의 줄기 또는 잎을 포함하는 오브젝트 영역(20a, 20b)이 생성되어 있고, 배경영역(21a, 21b)에도 복수 개의 노이즈가 발생된 것을 알 수 있다.In addition, the division result of Comparative Example 2 shows that object regions 20a and 20b including stems or leaves other than flowers are generated, and a plurality of noises are generated in the background regions 21a and 21b. .

또한, 비교예 3의 분할결과도, 입력 이미지에서 꽃이 위치한 영역 이외의 영역까지 오브젝트 영역(30a, 30b)으로 생성되어 있고, 배경영역(31a, 31b) 또한 노이즈가 발생되어 있음을 알 수 있다.In addition, it can be seen that the division result of Comparative Example 3 is also generated as the object areas 30a and 30b from the input image to areas other than the areas where flowers are located, and the background areas 31a and 31b also generate noise. .

한편, 본 발명의 일실시예에 따른 오브젝트 분할방법으로 생성된 분할결과는, 오브젝트 영역(100a, 100b)과 배경영역(110a, 110b)만 존재하고 노이즈는 발생되지 않은 것을 알 수 있고, 오브젝트 영역(100a, 100b)이 실질적인 꽃의 윤곽선과 일치하고 있음을 알 수 있다.On the other hand, the segmentation result generated by the object segmentation method according to an embodiment of the present invention, it can be seen that only the object region (100a, 100b) and the background region (110a, 110b) exist, no noise is generated, the object region It can be seen that (100a, 100b) coincides with the actual flower outline.

도 4는 상기 실시예 및 각 비교예를 Ground truth 이미지와 비교하여, 유사한 정도의 최대값, 최소값, 평균값 및 표준편차를 아래의 수학식 5를 이용하여 계산한 결과를 나타낸다.FIG. 4 shows the results obtained by comparing the above examples and respective comparative examples with Ground truth images and calculating the maximum, minimum, average, and standard deviations of similar degree using Equation 5 below.

[수학식 5]&Quot; (5) "

Figure 112011105380227-pat00053
Figure 112011105380227-pat00053

여기서, S는 유사도 값으로 1에 가까울수록 유사도가 높으며, trueforeground는 Ground truth 이미지에서의 오브젝트 영역이며, segmentedforeground는 상기 실시예 및 각 비교예에서의 각 오브젝트 영역이다.Here, S is a similarity value, the closer to 1, the higher the similarity, trueforeground is the object region in the ground truth image, segmentedforeground is each object region in the above embodiment and each comparative example.

또한, 비교예 1의 경우, 유사도의 최대값(M2)은 0.9427이고 평균값이 0.83495로써 비교적 높은 반면, 최소값(N2)은 0.2951로 상당히 낮은 것을 알 수 있다. 즉, 비교예 1의 오브젝트 영역은 상기 Ground truth 이미지와 상당 부분 일치하고는 있으나, 거의 일치하지 않는 부분도 발생한 것을 알 수 있다.In addition, in the case of Comparative Example 1, it can be seen that the maximum value M2 of similarity is 0.9427 and the average value is relatively high as 0.83495, while the minimum value N2 is considerably low as 0.2951. That is, although the object region of Comparative Example 1 is substantially coincident with the Ground truth image, it can be seen that an almost inconsistent portion has also occurred.

또한, 비교예 2의 경우, 유사도의 최대값(M3)은 0.9259이고 평균값이 0.7813으로 비교적 유사한 결과로 나타났으나, 유사도의 최소값(N3)은 0.3595로써 비교적 낮은 값을 갖는 것을 알 수 있다. 즉, 비교예 2의 오브젝트 영역도 일정 부분 거의 일치하지 않는 부분이 발생한 것을 알 수 있다.In addition, in Comparative Example 2, the maximum value M3 of similarity was 0.9259 and the average value was 0.7813, which is relatively similar. However, the minimum value N3 of similarity is 0.3595, which is relatively low. That is, it can be seen that a part where the object area of Comparative Example 2 also does not substantially coincide with a certain part occurs.

또한, 비교예 3의 경우, 유사도의 최대값(M4)은 0.901이고 평균값은 0.7732로써 비교예들 중 가장 낮은 값을 가지며, 최소값(N4)이 0.2009로써 가장 낮은 값을 갖는 것을 알 수 있다. 즉, 비교예 3의 오브젝트 영역은 실질적으로 정확도가 가장 낮은 것을 알 수 있다.In addition, in Comparative Example 3, it can be seen that the maximum value M4 of similarity is 0.901 and the average value is 0.7732, which is the lowest value of the comparative examples, and the minimum value N4 is 0.2009, which is the lowest value. That is, it can be seen that the object region of Comparative Example 3 is substantially the lowest in accuracy.

한편, 실시예의 경우, 유사도의 최대값(M1)이 0.9539로써 가장 높은 값을 가지며 평균값도 0.8815로써 가장 높으며, 최소값(N1)이 0.4568로써 다른 비교예들 보다 높은 값을 갖는 것을 알 수 있다. 즉, 실시예의 오브젝트 영역이 상기 Ground truth 이미지와 가장 유사한 것을 알 수 있으며, 일치하지 않는 부분의 발생도 가장 적은 것을 알 수 있다.On the other hand, in the case of the embodiment, it can be seen that the maximum value M1 of the similarity has the highest value of 0.9539, the average value is 0.8815 the highest, and the minimum value N1 is 0.4568, which is higher than other comparative examples. That is, it can be seen that the object region of the embodiment is most similar to the ground truth image, and that the occurrence of mismatches is also least.

또한, 상기 비교예들과 상기 실시예에서의 표준편차는 박스 형태로 나타나 있는데, 이는, 상하 길이가 짧고 박스의 크기가 작을수록 표준편차가 작은 값을 가진다. 또한, 비교예들의 표준편차(S2, S3, S4)와 실시예의 표준편차(S1)를 비교하면 상기 실시예의 표준편차(S1)가 가장 작은 것을 알 수 있다.In addition, the standard deviation in the comparative examples and the embodiment is shown in the form of a box, which means that the shorter the vertical length and the smaller the size of the box, the smaller the standard deviation. In addition, comparing the standard deviations (S2, S3, S4) of the comparative example and the standard deviation (S1) of the embodiment it can be seen that the standard deviation (S1) of the embodiment is the smallest.

즉, 본 발명의 일실시예에 따른 오브젝트 분할방법으로 분할된 실시예가 Ground truth 이미지가 가장 유사하고, 실질적인 꽃 영역을 반영하고 있음을 알수 있는 것이다.That is, the embodiment divided by the object segmentation method according to an embodiment of the present invention can be seen that the ground truth image is the most similar, and reflects the actual flower area.

이상에서 살펴본 바와 같이 본 발명은 바람직한 실시예를 들어 도시하고 설명하였으나, 상기한 실시예에 한정되지 아니하며 본 발명의 정신을 벗어나지 않는 범위 내에서 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변경과 수정이 가능할 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the present invention. Various changes and modifications will be possible.

Claims (13)

컴퓨터 장치에서 입력 이미지 내의 오브젝트를 인식할 수 있도록 상기 입력 이미지에서 상기 오브젝트를 분할하는 오브젝트 분할방법으로써,
제 1서브 이미지 생성수단이 상기 컴퓨터 장치를 상기 입력 이미지 각 픽셀의 정규분포들을 계산하여, 제 1오브젝트 후보영역 및 제 1배경 후보영역으로 분할된 제 1서브 이미지를 생성하도록 기능하게 하는 제 1단계;
제 2서브 이미지 생성수단이 상기 컴퓨터 장치를 각 후보영역의 색상평균값들을 계산하고 상기 입력 이미지의 각 픽셀과 각 색상평균값과의 유클리디안 거리를 계산하여, 제 2오브젝트 후보영역 및 제 2배경 후보영역으로 분할된 제 2서브 이미지를 생성하도록 기능하게 하는 제 2단계; 및
오브젝트 분할수단이 상기 컴퓨터 장치를 상기 제 1오브젝트 후보영역의 각 픽셀과 상기 제 2오브젝트 후보영역의 각 픽셀 중 서로 중복되는 좌표에 위치한 픽셀들로 이루어진 오브젝트 분할영역을 포함하는 결과 이미지를 생성하도록 기능하게 하는 제 3단계;를 포함하는 오브젝트 분할방법.
An object dividing method for dividing the object in the input image so that a computer device can recognize an object in the input image.
A first step of causing the computer apparatus to generate a first sub-image divided into a first object candidate region and a first background candidate region by calculating a normal distribution of each pixel of the input image by the first sub image generating means; ;
The second sub-image generating means calculates the color average values of each candidate region and calculates the Euclidean distance between each pixel of the input image and each color average value, thereby generating the second object candidate region and the second background candidate. A second step of functioning to generate a second sub image divided into regions; And
And the object dividing means causes the computer apparatus to generate a resultant image including an object segmentation region comprising pixels located at coordinates overlapping each other of each pixel of the first object candidate region and each pixel of the second object candidate region. And a third step of causing the object to be divided.
제 1항에 있어서,
노이즈 제거수단이 상기 컴퓨터 장치가 상기 결과 이미지를 이진화하여 상기 오브젝트 분할영역이 복수 개의 이진화 영역들로 분할된 이진화 이미지로 생성하고, 각 이진화 영역 중 가장 큰 영역을 갖는 하나의 이진화 영역을 오브젝트 영역으로 설정하며 다른 영역들은 노이즈로 설정하여 제거하도록 기능하게 하는 제 4단계;를 더 포함하는 것을 특징으로 하는 오브젝트 분할방법.
The method of claim 1,
The noise removing means binarizes the resultant image to generate a binarized image in which the object partition region is divided into a plurality of binarization regions, and converts one binarization region having the largest region among the binarization regions into an object region. And setting the other areas as noise and functioning to remove them.
제 2항에 있어서,
오브젝트 블럭 생성수단이 상기 컴퓨터 장치가 상기 입력 이미지의 각 픽셀들 중 상기 오브젝트 영역의 각 픽셀 좌표를 매칭되는 픽셀들을 오브젝트 블럭으로 생성하도록 기능하는 제 5단계;를 더 포함하는 것을 특징으로 하는 오브젝트 분할방법.
The method of claim 2,
And a fifth step of generating, by the object block generating means, the computer device to generate, as an object block, pixels that match each pixel coordinate of the object area among the pixels of the input image. Way.
제 1항에 있어서,
상기 제 1단계 이전에,
이미지 포맷 변환수단이 상기 컴퓨터 장치를 상기 입력 이미지의 포맷을 RGB 컬러 포맷으로 변환하도록 기능하게 하는 제 A단계;를 더 포함하는 것을 특징으로 하는 오브젝트 분할방법.
The method of claim 1,
Before the first step,
And an image format converting means for causing the computer device to function to convert the format of the input image into an RGB color format.
제 1항에 있어서,
상기 제 1단계는
상기 제 1서브 이미지 생성수단이 상기 컴퓨터 장치가,
두 개의 가우시안 확률밀도 함수를 이용하여 상기 정규분포들을 계산하도록 기능하게 하는 제 1-1단계;
상기 입력 이미지에서 각 정규분포를 갖는 분할영역들로 분할된 제 1서브 이미지를 생성하도록 기능하게 하는 제 1-2단계; 및
상기 분할영역들 중에서 가장 낮은 분포밀도를 갖는 영역을 제 1오브젝트 후보영역으로 라벨링하고, 다른 영역을 제 1배경 후보영역으로 라벨링하도록 기능하게 하는 제 1-3단계;를 포함하는 것을 특징으로 하는 오브젝트 분할방법.
The method of claim 1,
The first step is
The first sub image generating means is the computer device,
1-1 to function to calculate the normal distributions using two Gaussian probability density functions;
A first to second step of making a first sub image divided into divided regions having each normal distribution in the input image; And
And labeling a region having the lowest distribution density among the divided regions as a first object candidate region, and performing another function of labeling another region as a first background candidate region. Division method.
제 1항에 있어서,
상기 제 2단계는
상기 제 2서브 이미지 생성수단이 상기 컴퓨터 장치를,
상기 제 1오브젝트 후보영역 및 상기 제 1배경 후보영역의 각 RGB 평균값을 계산하도록 기능하는 제 2-1단계;
상기 제 1오브젝트 후보영역의 RGB 평균값 및 상기 제 1배경 후보영역의 RGB 평균값과 상기 입력 이미지의 각 픽셀의 유클리디안 거리값을 계산하도록 기능하는 제 2-2단계; 및
상기 입력 이미지의 각 픽셀들 중 상기 제 1오브젝트 후보영역의 RGB 평균값과 가까운 유클리디안 거리값을 갖는 픽셀들을 상기 제 2오브젝트 후보영역으로 라벨링하고 다른 픽셀들은 제 2배경 후보영역으로 라벨링하여 상기 제 2서브 이미지로 생성하도록 기능하게 하는 제 2-3단계;를 포함하는 것을 특징으로 하는 오브젝트 분할방법.
The method of claim 1,
The second step is
The second sub image generating means is configured to
A step 2-1 of calculating a mean value of RGB values of the first object candidate region and the first background candidate region;
A second step of calculating a RGB average value of the first object candidate region, an RGB average value of the first background candidate region, and an Euclidean distance value of each pixel of the input image; And
Among the pixels of the input image, pixels having an Euclidean distance value close to an RGB average value of the first object candidate region are labeled as the second object candidate region, and other pixels are labeled as a second background candidate region, thereby forming the first object candidate region. And a second step of allowing the second sub image to be generated as the second sub image.
제 5항에 있어서,
상기 제 1서브 이미지 생성수단은 아래의 수학식 1을 이용하여, 상기 컴퓨터 장치가 상기 제 1오브젝트 후보영역 및 상기 제 1배경 후보영역으로 분할된 상기 제 1서브 이미지를 생성하도록 기능하는 것을 특징으로 하는 오브젝트 분할방법.
[수학식 1]
Figure 112011105380227-pat00054

여기서,
Figure 112011105380227-pat00055
는 분포밀도이며, M은 가우시안 확률밀도 함수의 수이며,
Figure 112011105380227-pat00056
는 평균벡터이며,
Figure 112011105380227-pat00057
는 혼합 가중치(mixture weight)이며,
Figure 112011105380227-pat00058
는 픽셀 x에 대한 확률밀도함수이다.
6. The method of claim 5,
The first sub image generating means functions to generate the first sub image divided into the first object candidate region and the first background candidate region by using Equation 1 below. How to split an object.
[Equation 1]
Figure 112011105380227-pat00054

here,
Figure 112011105380227-pat00055
Is the distribution density, M is the number of Gaussian probability density functions,
Figure 112011105380227-pat00056
Is the mean vector,
Figure 112011105380227-pat00057
Is the mix weight,
Figure 112011105380227-pat00058
Is the probability density function for pixel x.
제 6항에 있어서,
상기 제 2서브 이미지 생성수단은 아래의 수학식 2를 이용하여 상기 컴퓨터 장치가 상기 제 1오브젝트 후보영역의 RGB 평균값을 계산하도록 기능하는 것을 특징으로 하는 오브젝트 분할방법.
[수학식 2]
Figure 112011105380227-pat00059

여기서,
Figure 112011105380227-pat00060
는 제 1오브젝트 후보영역의 RGB 평균값이며,
Figure 112011105380227-pat00061
은 입력 이미지의 붉은(red) 색상값이고,
Figure 112011105380227-pat00062
는 제 1오브젝트 후보영역의 붉은 색상 평균값이며,
Figure 112011105380227-pat00063
는 입력 이미지의 녹색(green) 색상값이며,
Figure 112011105380227-pat00064
는 제 1오브젝트 후보영역의 녹색 색상 평균값이며,
Figure 112011105380227-pat00065
는 입력 이미지의 푸른(blue) 색상값이며,
Figure 112011105380227-pat00066
는 제 1오브젝트 후보영역의 푸른 색상 평균값이다.
The method according to claim 6,
And the second sub image generating means functions to calculate the RGB average value of the first object candidate region by using Equation 2 below.
&Quot; (2) "
Figure 112011105380227-pat00059

here,
Figure 112011105380227-pat00060
Is the RGB average value of the first object candidate region,
Figure 112011105380227-pat00061
Is the red color value of the input image,
Figure 112011105380227-pat00062
Is the average value of the red color of the first object candidate area,
Figure 112011105380227-pat00063
Is the green color value of the input image,
Figure 112011105380227-pat00064
Is the average value of the green color of the first object candidate area,
Figure 112011105380227-pat00065
Is the blue color value of the input image,
Figure 112011105380227-pat00066
Denotes a blue color average value of the first object candidate region.
제 6항에 있어서,
상기 제 2서브 이미지 생성수단은 아래의 수학식 3을 이용하여 상기 컴퓨터 장치가 상기 제 1배경 후보영역의 RGB 평균값을 계산하도록 기능하는 것을 특징으로 하는 오브젝트 분할방법.
[수학식 3]

Figure 112011105380227-pat00067

여기서,
Figure 112011105380227-pat00068
는 제 1배경 후보영역의 RGB 평균값이며,
Figure 112011105380227-pat00069
은 입력 이미지의 붉은(red) 색상값이고,
Figure 112011105380227-pat00070
는 제 1배경 후보영역의 붉은 색상 평균값이며,
Figure 112011105380227-pat00071
는 입력 이미지의 녹색(green) 색상값이며,
Figure 112011105380227-pat00072
는 제 1배경 후보영역의 녹색 색상 평균값이며,
Figure 112011105380227-pat00073
는 입력 이미지의 푸른(blue) 색상값이며,
Figure 112011105380227-pat00074
는 제 1배경 후보영역의 푸른 색상 평균값이다.
The method according to claim 6,
And the second sub image generating means functions to calculate the RGB average value of the first background candidate region by using Equation 3 below.
&Quot; (3) "

Figure 112011105380227-pat00067

here,
Figure 112011105380227-pat00068
Is the RGB average value of the first background candidate area,
Figure 112011105380227-pat00069
Is the red color value of the input image,
Figure 112011105380227-pat00070
Is the average value of the red color of the first background candidate area,
Figure 112011105380227-pat00071
Is the green color value of the input image,
Figure 112011105380227-pat00072
Is the average value of the green color of the first background candidate area,
Figure 112011105380227-pat00073
Is the blue color value of the input image,
Figure 112011105380227-pat00074
Is the average value of the blue color of the first background candidate region.
제 6항에 있어서,
상기 제 2서브 이미지 생성수단은 아래의 수학식 4를 이용하여 상기 컴퓨터 장치가 상기 입력 이미지의 각 픽셀들을 상기 제 2오브젝트 후보영역 또는 상기 제 2배경 후보영역으로 라벨링하도록 기능하는 것을 특징으로 하는 오브젝트 분할방법.
[수학식 4]
Figure 112011105380227-pat00075

여기서,
Figure 112011105380227-pat00076
는 제 1오브젝트 후보영역의 RGB 평균값이고
Figure 112011105380227-pat00077
는 제 1배경 후보영역의 RGB 평균값이며,
Figure 112011105380227-pat00078
는 제 2오브젝트 후보영역이며,
Figure 112011105380227-pat00079
는 제 2배경 후보영역을 뜻한다.
The method according to claim 6,
And the second sub image generating means functions to label each pixel of the input image as the second object candidate region or the second background candidate region by using Equation 4 below. Division method.
&Quot; (4) "
Figure 112011105380227-pat00075

here,
Figure 112011105380227-pat00076
Is the RGB average value of the first object candidate area
Figure 112011105380227-pat00077
Is the RGB average value of the first background candidate area,
Figure 112011105380227-pat00078
Is the second object candidate area,
Figure 112011105380227-pat00079
Denotes a second background candidate region.
제 1항에 있어서,
상기 오브젝트 분할수단은 교집합 연산 알고리즘을 이용하여 상기 컴퓨터 장치가 상기 오브젝트 분할영역을 생성하도록 기능하는 것을 특징으로 하는 오브젝트 분할방법.
The method of claim 1,
And the object dividing means functions to cause the computer device to generate the object segmentation area using an intersection algorithm.
제 2항에 있어서,
상기 노이즈 제거수단은 연결성분(Connected Component) 알고리즘을 이용하여 상기 컴퓨터 장치가 상기 오브젝트 영역 및 상기 노이즈를 설정하도록 기능하는 것을 특징으로 하는 오브젝트 분할방법.
The method of claim 2,
And said noise removing means functions to set said object area and said noise by said computer device using a connected component algorithm.
제 1항 내지 제 12항 중 어느 한 항의 각 수단으로 기능하게 하여 오브젝트 분할방법이 수행되게 하는 오브젝트 분할 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장매체.
A computer-readable storage medium storing an object partitioning program for performing the object partitioning method by functioning as a means of any one of claims 1 to 12.
KR1020110146905A 2011-12-30 2011-12-30 Method for object segmentation by combination of gaussian mixture model and rgb clustering KR101296734B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110146905A KR101296734B1 (en) 2011-12-30 2011-12-30 Method for object segmentation by combination of gaussian mixture model and rgb clustering

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110146905A KR101296734B1 (en) 2011-12-30 2011-12-30 Method for object segmentation by combination of gaussian mixture model and rgb clustering

Publications (2)

Publication Number Publication Date
KR20130078130A KR20130078130A (en) 2013-07-10
KR101296734B1 true KR101296734B1 (en) 2013-08-20

Family

ID=48991175

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110146905A KR101296734B1 (en) 2011-12-30 2011-12-30 Method for object segmentation by combination of gaussian mixture model and rgb clustering

Country Status (1)

Country Link
KR (1) KR101296734B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101630264B1 (en) 2014-12-05 2016-06-14 국방과학연구소 Range-Doppler Clustering Method
US10163000B2 (en) 2015-01-14 2018-12-25 Samsung Electronics Co., Ltd. Method and apparatus for determining type of movement of object in video

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101524944B1 (en) * 2013-11-27 2015-06-02 중앙대학교 산학협력단 Multi-region image segmentation method and apparatus
CN105825161B (en) * 2015-01-07 2019-10-01 阿里巴巴集团控股有限公司 The skin color detection method and its system of image
CN110766700B (en) * 2019-10-23 2022-01-28 吉林大学 ICP-AES spectral image processing method based on digital micromirror
CN113223016A (en) * 2021-05-13 2021-08-06 上海西虹桥导航技术有限公司 Image segmentation method and device for plant seedlings, electronic equipment and medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030005908A (en) * 2001-07-10 2003-01-23 주식회사 오픈비주얼 apparatus and method for representative feature extraction of objects and, its application to content-based image retrieval
JP2006221523A (en) 2005-02-14 2006-08-24 Chuden Gijutsu Consultant Kk Object region extraction system and method
KR101014296B1 (en) 2009-03-26 2011-02-16 고려대학교 산학협력단 Apparatus and method for processing image using Gaussian model

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030005908A (en) * 2001-07-10 2003-01-23 주식회사 오픈비주얼 apparatus and method for representative feature extraction of objects and, its application to content-based image retrieval
JP2006221523A (en) 2005-02-14 2006-08-24 Chuden Gijutsu Consultant Kk Object region extraction system and method
KR101014296B1 (en) 2009-03-26 2011-02-16 고려대학교 산학협력단 Apparatus and method for processing image using Gaussian model

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101630264B1 (en) 2014-12-05 2016-06-14 국방과학연구소 Range-Doppler Clustering Method
US10163000B2 (en) 2015-01-14 2018-12-25 Samsung Electronics Co., Ltd. Method and apparatus for determining type of movement of object in video

Also Published As

Publication number Publication date
KR20130078130A (en) 2013-07-10

Similar Documents

Publication Publication Date Title
KR101296734B1 (en) Method for object segmentation by combination of gaussian mixture model and rgb clustering
US8391615B2 (en) Image recognition algorithm, method of identifying a target image using same, and method of selecting data for transmission to a portable electronic device
WO2016066038A1 (en) Image body extracting method and system
CN110263659B (en) Finger vein recognition method and system based on triplet loss and lightweight network
WO2017107957A1 (en) Human face image retrieval method and apparatus
CN101477696B (en) Human character cartoon image generating method and apparatus
US7627146B2 (en) Method and apparatus for effecting automatic red eye reduction
US20160163028A1 (en) Method and device for image processing
AU2018202767B2 (en) Data structure and algorithm for tag less search and svg retrieval
US9632678B2 (en) Image processing apparatus, image processing method, and program
US20150016687A1 (en) Method, system and computer storage medium for face detection
KR101384627B1 (en) Method for the automatic segmentation of object area in video
US9443137B2 (en) Apparatus and method for detecting body parts
US10249029B2 (en) Reconstruction of missing regions of images
CN109934112B (en) Face alignment method and camera
JP2010205067A (en) Device, method and program for extracting area
CN107516295A (en) The method and apparatus for removing the noise in image
US9830530B2 (en) High speed searching method for large-scale image databases
CN114299363A (en) Training method of image processing model, image classification method and device
JP5560925B2 (en) 3D shape search device, 3D shape search method, and program
US11869127B2 (en) Image manipulation method and apparatus
JP2006260311A (en) Matching method, matching device, and program
CN111080748A (en) Automatic picture synthesis system based on Internet
JP6151908B2 (en) Learning device, identification device, and program thereof
US11734790B2 (en) Method and apparatus for recognizing landmark in panoramic image and non-transitory computer-readable medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160722

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190723

Year of fee payment: 7